KR102372296B1 - Apparatus and method for recognize driving lane on image - Google Patents

Apparatus and method for recognize driving lane on image Download PDF

Info

Publication number
KR102372296B1
KR102372296B1 KR1020150158872A KR20150158872A KR102372296B1 KR 102372296 B1 KR102372296 B1 KR 102372296B1 KR 1020150158872 A KR1020150158872 A KR 1020150158872A KR 20150158872 A KR20150158872 A KR 20150158872A KR 102372296 B1 KR102372296 B1 KR 102372296B1
Authority
KR
South Korea
Prior art keywords
lane
image
driving
vehicle
detecting
Prior art date
Application number
KR1020150158872A
Other languages
Korean (ko)
Other versions
KR102372296B9 (en
KR20170055738A (en
Inventor
이성수
Original Assignee
현대모비스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대모비스 주식회사 filed Critical 현대모비스 주식회사
Priority to KR1020150158872A priority Critical patent/KR102372296B1/en
Publication of KR20170055738A publication Critical patent/KR20170055738A/en
Application granted granted Critical
Publication of KR102372296B1 publication Critical patent/KR102372296B1/en
Publication of KR102372296B9 publication Critical patent/KR102372296B9/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 차량 주변의 원영상을 촬영하는 영상촬영부, 상기 영상촬영부의 영상을 합성하여 Top-View 영상으로 변환하는 AVM시스템, 주행 방향의 차선 정보를 제공하는 네비게이션부, 차량이 주행하는 도로의 정보를 인지하여 검출하는 차선 검출부, 주행 차량 주변의 차량 또는 오토바이의 바퀴를 검출하고, 주행 차량과 차량 또는 오토바이의 거리를 추정하는 차량/오토바이 검출부, 장치 전반을 제어하는 제어부, 상기 주행 차선이 인식된 경우 이를 알리는 정보를 출력하는 출력부를 포함하는 영상 기반 주행 차로 판단 장치 및 방법에 관한 것이다.The present invention provides an image capturing unit that captures an original image around a vehicle, an AVM system that synthesizes the images of the image capturing unit and converts it into a top-view image, a navigation unit that provides lane information in the driving direction, and A lane detection unit that recognizes and detects information, a vehicle/motorcycle detection unit that detects the wheels of a vehicle or motorcycle around the driving vehicle and estimates the distance between the driving vehicle and the vehicle or motorcycle, a controller that controls the overall device, the driving lane is recognized The present invention relates to an apparatus and method for determining an image-based driving lane including an output unit for outputting information informing the user when the vehicle is detected.

Description

영상 기반 주행 차로 판단 장치 및 방법{Apparatus and method for recognize driving lane on image}Image-based driving lane determination apparatus and method {Apparatus and method for recognize driving lane on image}

본 발명은 주행 차로 검출 및 판단 방법에 관한 것으로, 보다 상세하게는 주행방향의 모든 도로 차선을 검출하여 현재 주행 중인 차로를 판단하여 제공하는 영상 기반 주행 차로 판단 장치 및 방법에 관한 것이다.The present invention relates to a method of detecting and determining a driving lane, and more particularly, to an image-based driving lane determining apparatus and method for detecting all road lanes in a driving direction to determine a currently driving lane and provide the same.

최근 차량에는 주행 차선을 검출하여 차량이 차선을 이탈한 경우 운전자에게 경고해주는 기술 등이 채택되고 있다. 종래 기술은 전방 영상촬영을 이용하여 주행차선을 검출하는 방법으로써 영상에서 주행 차로를 판단하는데 그 목적이 있다. Recently, a technology that detects a driving lane and warns a driver when the vehicle deviates from a lane has been adopted in a vehicle. The prior art is a method of detecting a driving lane by using a front image photographing, and an object of the prior art is to determine a driving lane from an image.

하지만, 종래 기술은 주행 차로의 존재 여부만 검출하게 구성되어 있어, 차량이 어떤 차로로 달리는지 추정하기 어려운 문제점을 가지고 있다.However, the prior art has a problem in that it is difficult to estimate in which lane the vehicle runs because it is configured to detect only the existence of a driving lane.

상기와 같은 종래 기술의 문제점을 해결하기 위하여, 본 발명의 일실시례에 따른 영상 기반 주행 차로 판단 장치 및 방법은, 차량 전방 영상촬영뿐 아니라 측방 영상촬영을 이용하여 주행 방향에 대한 모든 차선을 판단하고, 현재 어떤 차로를 주행하고 있는지 알 수 있다. 본 발명을 이용하여 주행 차로를 검출하게 되어, ADAS(Advanced Driver Assist System) 또는 무인 자율 주행 기술 개발을 하는 것에 그 목적이 있다.In order to solve the problems of the prior art as described above, the image-based driving lane determining apparatus and method according to an embodiment of the present invention determine all lanes in the driving direction using not only the front image of the vehicle but also the side image capturing And you can see which lane you are currently driving. An object of the present invention is to detect a driving lane by using the present invention, and to develop an Advanced Driver Assist System (ADAS) or unmanned autonomous driving technology.

본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당 업자에게 명확하게 이해될 수 있을 것이다.The problems of the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

상기 목적을 달성하기 위하여, 본 발명의 실시례에 따른 영상 기반 주행 차로 판단 장치는 주행중 차량의 전방, 좌측 및 우측의 카메라로 원영상을 촬영하는 영상촬영부, 상기 영상촬영부가 촬영한 상기 원영상을 합성하여 상기 차량 주변에 대한 영상인 Top- View 영상으로 변환하는 AVM시스템, 상기 영상촬영부의 전방 원영상을 이용하여 주행 차선을 인식하고 이로부터 차선 간격을 추정하고, 추정된 상기 차선 간격을 이용하여 좌측과 우측 차선인 측면 차선의 위치를 예측하고, 상기 예측된 측면 차선의 위치를 토대로 상기 영상촬영부의 측면 원영상을 이용하여 상기 측면 차선을 검출하고, 상기 주행 차선과 상기 측면 도로의 차선 수를 더하여 주행 방향의 모든 도로 차선을 판단하는 차선 검출부 및 상기 주행 차선과 상기 측면 차선의 정보를 제공하는 출력부를 포함한다.In order to achieve the above object, an image-based driving lane determining apparatus according to an embodiment of the present invention includes an image capturing unit that captures an original image with cameras on the front, left and right sides of a vehicle while driving, and the original image captured by the image capturing unit. AVM system that synthesizes and converts into a top-view image that is an image of the vehicle surroundings, recognizes a driving lane using the original image in front of the image capturing unit, estimates a lane interval from this, and uses the estimated lane interval to predict the position of the side lane, which is the left and right lane, and detect the side lane using the original side image of the imaging unit based on the predicted position of the side lane, and the number of lanes between the driving lane and the side road and a lane detector for determining all road lanes in the driving direction by adding , and an output unit for providing information on the driving lane and the side lane.

본 발명의 실시례에 따른 영상 기반 주행 차로 판단 장치 및 방법은 An apparatus and method for determining an image-based driving lane according to an embodiment of the present invention

영상촬영부의 전방 원영상 또는 AVM시스템의 Top-View 영상을 이용하여 주행 차선을 검출하는 단계, 측면 영상을 이용하여 측면 도로 차선 판단하는 단계, 측면 영상을 이용하여 차량 또는 오토바이 바퀴 검출을 통한 측면 도로 차선 판단 단계, 네비게이션부을 통한 주행 차로를 판단하는 단계를 포함한다.Detecting the driving lane using the front original image of the imaging unit or the Top-View image of the AVM system, judging the side road lane using the side image, the side road through the detection of the vehicle or motorcycle wheel using the side image and determining a lane, and determining a driving lane through a navigation unit.

기타 실시례들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.The specific details of other embodiments are included in the detailed description and drawings.

본 발명의 영상 기반 주행 차로 판단 장치 및 방법에 따르면 다음과 같은 효과가 하나 혹은 그 이상 있다.According to the image-based driving lane determining apparatus and method of the present invention, there are one or more of the following effects.

첫째, 주행 차선 인식에 따라 주행 차선의 위치를 추정함으로써 정확하게 주행 차로를 판단하는 장점이 있다.First, there is an advantage of accurately determining the driving lane by estimating the location of the driving lane according to the driving lane recognition.

둘째, 주행 차선 인식 및 위치를 판단함으로써 ADAS(Advanced Driver Assist System) 또는 무인 자율 주행시스템의 성능을 향상스킬 수 있는 장점도 있다.Second, there is also the advantage of improving the performance of ADAS (Advanced Driver Assist System) or unmanned autonomous driving system by recognizing driving lanes and judging the location.

본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당 업자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to the above-mentioned effects, and other effects not mentioned will be clearly understood by those skilled in the art from the description of the claims.

도 1은 본 발명의 일실시례에 따른 영상 기반 주행 차로 판단 장치의 구성을 도시한 구성도이다.
도 2는 본 발명의 일실시례에 따른 전방 원영상 기반 주행 차선 인식방법의 구성을 도시한 구성도이다.
도 3은 본 발명의 일실시례에 따른 Top-View 영상 기반 주행 차선 인식방법의 예시도이다.
도 4는 본 발명의 일실시례에 따른 영상 기반 주행 차선 인식방법의 예시도이다.
도 5는 본 발명의 일실시례에 따른 측면 영상 기반 차량 또는 오토바이 바퀴 검출방법의 예시도이다.
도 6는 본 발명의 일실시례에 따른 측면 영상 기반 차량 또는 오토바이 바퀴 위치 추정방법의 예시도이다.
도 7은 본 발명의 일실시례에 따른 네비게이션을 이용한 도로 차선 판단 방법의 예시도이다.
도 8은 본 발명의 일실시례에 따른 주행 차로 검출 및 판단 방법의 흐름을 도시한 흐름도이다.
1 is a block diagram illustrating a configuration of an image-based driving lane determining apparatus according to an embodiment of the present invention.
2 is a block diagram illustrating a configuration of a driving lane recognition method based on a forward original image according to an embodiment of the present invention.
3 is an exemplary diagram of a method for recognizing a driving lane based on a Top-View image according to an embodiment of the present invention.
4 is an exemplary diagram of an image-based driving lane recognition method according to an embodiment of the present invention.
5 is an exemplary diagram of a method for detecting a wheel of a vehicle or motorcycle based on a side image according to an embodiment of the present invention.
6 is an exemplary diagram of a method for estimating a side image-based vehicle or motorcycle wheel position according to an embodiment of the present invention.
7 is an exemplary diagram of a method for determining a road lane using a navigation system according to an embodiment of the present invention.
8 is a flowchart illustrating a flow of a method for detecting and determining a driving lane according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시례들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시례들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시례들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Advantages and features of the present invention, and a method of achieving them, will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only these embodiments allow the disclosure of the present invention to be complete, and common knowledge in the art to which the present invention pertains It is provided to fully inform those who have the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout.

이하, 본 발명의 실시례들에 의하여 영상 기반 주행 차로 판단 장치 및 방법을 설명하기 위한 도면들을 참고하여 본 발명에 대해 설명하도록 한다. Hereinafter, the present invention will be described with reference to drawings for explaining an apparatus and method for determining an image-based driving lane according to embodiments of the present invention.

도 1은 본 발명의 일실시례에 따른 영상 기반 주행 차로 판단 장치의 구성을 도시한 구성도이다. 도 1을 참조하면, 본 발명의 일실시례에 따른 영상 기반 주행 차로 판단 장치는 영상촬영부(110), AVM시스템(120), 네비게이션부(130), 차선 검출부(140), 차량/오토바이 검출부(150), 제어부(160) 및 출력부(170)를 포함할 수 있다. 1 is a block diagram illustrating a configuration of an image-based driving lane determining apparatus according to an embodiment of the present invention. 1 , the image-based driving lane determining apparatus according to an embodiment of the present invention includes an image capturing unit 110 , an AVM system 120 , a navigation unit 130 , a lane detection unit 140 , and a vehicle/motorcycle detection unit 150 , a control unit 160 , and an output unit 170 may be included.

영상촬영부(110)는 주행중 차량의 전방, 좌측 및 우측의 원영상을 촬영한다. 상기 영상촬영부(110)는 차량의 전방을 촬영하는 전방 카메라와 차량의 좌측 영상을 촬영하는 좌측 카메라와 주행 차량의 좌측 영상을 촬영하는 우측 카메라를 포함하여 구성될 수 있다.The image capturing unit 110 captures original images of the front, left and right sides of the vehicle while driving. The image capturing unit 110 may include a front camera for photographing the front of the vehicle, a left camera for photographing an image on the left side of the vehicle, and a right camera for photographing an image on the left side of the driving vehicle.

상기 전방 카메라는 차량의 중앙에 설치되어 차량의 주행 시에 차량 전방과 중앙의 도로 노면을 촬영할 수 있다. 상기 좌측 카메라는 차량의 좌측에 설치되어 차량의 주행 시에 좌측 차선과 중앙선을 촬영할 수 있다. 상기 우측 카메라는 차량의 우측에 설치되어 차량의 주행 시에 우측 차선을 촬영할 수 있다.The front camera may be installed in the center of the vehicle to photograph the road surface in front and the center of the vehicle while the vehicle is driving. The left camera may be installed on the left side of the vehicle to photograph the left lane and the center line when the vehicle is driving. The right camera may be installed on the right side of the vehicle to photograph the right lane while the vehicle is driving.

AVM시스템(120)은 상기 영상촬영부(110)에서 촬영된 상기 원영상을 합성하여 Top-View 영상을 출력할 수 있다. 상기 Top-View 영상은 차량의 상측에서 하측 방향으로 본 차량 주변에 대한 영상이다.The AVM system 120 may output a Top-View image by synthesizing the original image captured by the image capturing unit 110 . The Top-View image is an image of the surroundings of the vehicle viewed from the top to the bottom of the vehicle.

네비게이션부(130)는 상기 주행 차량의 위치를 검출하고, 상기 주행 차량의 주행 방향의 차선 정보를 제공하는 위치 검출결과를 제공 할 수 있다. The navigation unit 130 may detect a position of the driving vehicle and provide a position detection result that provides lane information in a driving direction of the driving vehicle.

차선 검출부(140)는 상기 영상촬영부(110)의 상기 원영상에서 차선이 존재할 수 있는 영역을 관심영역으로 선정할 수 있다. 상기 영상촬영부(110)의 설치 각도 및 시야 각에 따라 촬영된 상기 원영상 내에서 차선이 존재할 수 있는 영역을 상기 관심영역으로 설정 할 수 있다.The lane detection unit 140 may select a region in which a lane may exist in the original image of the image capturing unit 110 as a region of interest. According to the installation angle and the viewing angle of the image capturing unit 110, a region in which a lane may exist in the original image captured may be set as the region of interest.

상기 차선 검출부(140)는 상기 원영상을 이용하여 상기 주행 차량의 주행 차선, 주행 차선의 좌측 또는 우측 측면인 측면 차선과 중앙선 등을 검출할 수 있다. 또한, Top-View 영상에서 상기 주행 차량의 주행 차선, 측면 차선과 중앙선 등을 검출할 수 있다.The lane detection unit 140 may detect a driving lane of the driving vehicle, a side lane and a center line that are left or right sides of the driving lane, using the original image. Also, it is possible to detect a driving lane, a side lane, and a center line of the driving vehicle from the top-view image.

차량/오토바이 검출부(150)는 상기 좌측 및 우측 원영상에서 차량 또는 오토바이의 바퀴를 검출할 수 있다. 또한, 상기 검출된 차량 또는 오토바이의 바퀴의 위치를 추정할 수 있다.The vehicle/motorcycle detection unit 150 may detect the wheels of the vehicle or motorcycle from the left and right original images. In addition, the detected position of the wheel of the vehicle or motorcycle may be estimated.

제어부(160)는 상기 영상촬영부, 상기 AVM시스템, 상기 차선 검출부 및 상기 출력부등 장치 전반을 제어한다. The controller 160 controls overall devices such as the image capturing unit, the AVM system, the lane detecting unit, and the output unit.

출력부(170)는 상기 주행 차선 정보를 운전자에게 제공할 수 있다. 상기 출력부(170)는 상기 차량에 설치된 디스플레이, 알람 중 적어도 하나 이상을 포함하여 상기 차선 정보를 출력할 수 있다.The output unit 170 may provide the driving lane information to the driver. The output unit 170 may output the lane information including at least one of a display installed in the vehicle and an alarm.

도 2는 본 발명의 일실시례에 따른 원영상 기반 주행 차선 인식방법의 구성을 도시한 구성도이다.2 is a block diagram showing the configuration of a driving lane recognition method based on an original image according to an embodiment of the present invention.

차선검출부(140)는 영상촬영부(110)에서 원영상을 획득한다(S210). 상기 차선검출부(140)는 상기 원영상에서 관심영역을 선정한다(S220). 상기 차선 검출부(140)는 상기 원영상에서 차선이 존재할 수 있는 영역을 관심영역으로 지정한다. 상기 관심영역을 모폴로지 연산을 이용하여 상기 영상의 차선 추정 성분을 추출 한다(S230). 상기 차선 추정 성분을 영역 라벨링하여 상기 차선 추정 성분들의 형태를 표시한다(S240). 상기 모폴로지 연산과 영역 라벨링을 이용하여 상기 관심 영역 내에 포함된 차선 추정 성분들에 대해 소실 정보는 채우고, 배경영역 등에서 발생하는 영상잡음 성분을 제거할 수 있다.The lane detection unit 140 acquires an original image from the image capturing unit 110 (S210). The lane detection unit 140 selects a region of interest from the original image (S220). The lane detection unit 140 designates a region in the original image in which a lane may exist as a region of interest. A lane estimation component of the image is extracted from the region of interest using a morphology operation (S230). The lane estimation component is region-labeled to display the shape of the lane estimation component (S240). By using the morphology operation and region labeling, missing information may be filled with respect to the lane estimation components included in the region of interest, and image noise components generated in the background region may be removed.

상기 차선 추정 성분 중 차선 후보군을 검출한다(S250). 상기 차선 후보군에서 Line Fitting과정을 이용하여 주행 차선을 검출한다(S260).A lane candidate group is detected among the lane estimation components (S250). A driving lane is detected in the lane candidate group using a line fitting process (S260).

도 3은 본 발명의 일실시례에 따른 Top-View 영상 기반 주행 차선 인식방법의 예시도이다. 3 is an exemplary diagram of a method for recognizing a driving lane based on a Top-View image according to an embodiment of the present invention.

도 3(a)을 참조하면, 차선 검출부(140)는 AVM 시스템으로부터 Top-View 영상을 받는다. 상기 Top-View 영상에서 Gray scale 영상을 출력하고 Top-Hat 필터를 이용하여 차선 중심점을 추출한다. 상기 Top-Hat 필터는 상기 Gray scale 영상에서 인접 화소 간 휘도 변화량이 최솟값이 설정된 임계치를 이상인지 판단할 수 있다. 상기 Gray scale 영상에서 인접 화소 간 휘도 변화량이 설정된 임계치 이상이면 차선 중심점을 기준으로 차선 좌/우측에 특징점(310)을 추출할 수 있다.Referring to FIG. 3A , the lane detection unit 140 receives a top-view image from the AVM system. A gray scale image is output from the Top-View image, and a lane center point is extracted using a Top-Hat filter. The Top-Hat filter may determine whether an amount of change in luminance between adjacent pixels in the gray scale image is greater than or equal to a threshold at which a minimum value is set. If the amount of change in luminance between adjacent pixels in the gray scale image is equal to or greater than a set threshold, the feature points 310 may be extracted on the left/right side of the lane based on the center point of the lane.

도 3(b)을 참조하면, 상기 차선 검출부(140)는 상기 추출된 특징점을 사용하여 Line Fitting과정을 진행한다. 상기 Line Fitting 과정은 상기 차선 좌/우측의 특징점을 기준으로 360도 방향을 탐색하여 선 성분을 추출한다. 상기 추출된 선 성분의 각도 오차를 비교하여 선 성분 유효성 검사를 진행한다. 이때, 상기 각도 오차의 제약 조건은 5도 이내이다. 상기 추출된 선 성분이 상기 유효성 검사에 만족한 경우, 상기 차선 중심점을 기준으로 차선 후보군을 표시한다. 상기 차량 기준 좌/우측 대표 차선을 검출하여 주행 차선(420)으로 판단한다.Referring to FIG. 3B , the lane detection unit 140 performs a line fitting process using the extracted feature points. The line fitting process extracts a line component by searching a 360-degree direction based on the feature points on the left/right side of the lane. The line component validity check is performed by comparing the angular error of the extracted line components. In this case, the constraint condition of the angle error is within 5 degrees. When the extracted line component satisfies the validity check, a lane candidate group is displayed based on the center point of the lane. The vehicle reference left/right representative lane is detected and determined as the driving lane 420 .

도 3(c)을 참조하면, 상기 차선 검출부(140)은 상기 주행 차량의 좌측 영상에서 이중 Top-Hat 필터를 이용하여 중앙선을 검출할 수 있다. 상기 이중 Top-Hat 필터는 상기 Gray scale 영상에서 인접 화소 간 휘도 변화량이 최솟값이 설정된 임계치를 이상인지 판단할 수 있다. 상기 Gray scale 영상에서 인접 화소 간 휘도 변화량이 설정된 임계치 이상이면 차선 중심점을 기준으로 차선 좌측에 특징점(330)을 추출할 수 있다. Referring to FIG. 3C , the lane detection unit 140 may detect a center line from the left image of the driving vehicle by using a double Top-Hat filter. The double top-hat filter may determine whether the amount of change in luminance between adjacent pixels in the gray scale image is greater than or equal to a threshold at which a minimum value is set. If the amount of change in luminance between adjacent pixels in the gray scale image is equal to or greater than a set threshold, the feature point 330 may be extracted on the left side of the lane based on the center point of the lane.

도 3(d)을 참조하면, 상기 Line Fitting과정을 이용하여 대표 선을 검출할 수 있다. 다수의 특징점이 존재할 경우 중앙선(340)으로 판단한다.Referring to FIG. 3(d) , a representative line may be detected using the line fitting process. When a plurality of feature points exist, it is determined as the center line 340 .

도 4는 본 발명의 일실시례에 따른 영상 기반 주행 차선 인식방법의 예시도이다. 4 is an exemplary diagram of an image-based driving lane recognition method according to an embodiment of the present invention.

도 4(a)를 참조하면, 영상촬영부(110)의 원영상에서 차선을 검출하여 주행 차선을 인식할 수 있다. 상기 영상촬영부(110)는 전방 카메라를 통하여 전방 원영상을 차선 검출부(140)에 출력한다.Referring to FIG. 4A , a driving lane may be recognized by detecting a lane in the original image of the image capturing unit 110 . The image capturing unit 110 outputs the front original image to the lane detecting unit 140 through the front camera.

상기 차선 검출부(140)는 원영상 기반 주행 차선 인식방법에 따라 상기 전방 원영상에서 차선(410)을 검출한다. 상기 검출된 차선을 이용하여 현재 주행 차선을 인식한다. The lane detection unit 140 detects a lane 410 in the front original image according to the original image-based driving lane recognition method. A current driving lane is recognized using the detected lane.

상기 주행 차선을 이용하여 차선 간격을 추정할 수 있다. 상기 차선 간격은 상기 전방 영상으로부터 좌측 주행차선과 우측 주행차선의 폭을 계산하여 추정할 수 있다. A lane interval may be estimated using the driving lane. The lane interval may be estimated by calculating the widths of the left driving lane and the right driving lane from the front image.

도 4(b)를 참조하면, AVM시스템(120)의 Top-View 영상에서 차선을 검출하여 주행 차선을 검출할 수 있다.Referring to FIG. 4B , the driving lane may be detected by detecting the lane in the top-view image of the AVM system 120 .

상기 AVM 시스템(120)은 영상 촬영부(110)의 원영상을 Top-View 영상으로 변환하여 차선 검출부(140)로 출력한다. 상기 차선 검출부(140)는 Top-View 영상 기반 주행 차선 인식방법에 따라 상기 Top-View 영상에서 차선(420)을 검출한다. 상기 검출된 차선을 이용하여 현재 주행 차선을 인식한다. 상기 주행 차선을 이용하여 차선 간격을 추정할 수 있다.The AVM system 120 converts the original image of the image capturing unit 110 into a top-view image and outputs it to the lane detection unit 140 . The lane detection unit 140 detects a lane 420 from the top-view image according to a driving lane recognition method based on the top-view image. A current driving lane is recognized using the detected lane. A lane interval may be estimated using the driving lane.

도 4(c)를 참조하면, 영상촬영부(100)의 차량의 좌측 영상에서 차선과 중앙선을 검출하여 좌측 도로 차선을 검출할 수 있다.Referring to FIG. 4C , the left road lane may be detected by detecting a lane and a center line in the left image of the vehicle of the image capturing unit 100 .

상기 영상촬영부(110)는 좌측 카메라로 촬영된 상기 주행 차량의 좌측 원영상을 차선 검출부(140)로 출력한다. 상기 차선 검출부(140)는 상기 주행 차량의 좌측 영상에서 차선이 존재할 수 있는 영역을 관심영역으로 지정한다. 상기 관심영역에서 중앙선과 상기 차량의 좌측 차선(430)을 검출 할 수 있다.The image capturing unit 110 outputs the left original image of the driving vehicle captured by the left camera to the lane detecting unit 140 . The lane detection unit 140 designates a region in which a lane may exist in the left image of the driving vehicle as a region of interest. A center line and a left lane 430 of the vehicle may be detected in the region of interest.

상기 차선 검출부(140)는 영상 기반 주행 차선 인식방법에 따라 좌측 차선(430)을 검출한다. 또한, 상기 차선 검출부(140)는 좌측 차선에서 중앙선을 검출할 수 있다.The lane detection unit 140 detects a left lane 430 according to an image-based driving lane recognition method. Also, the lane detection unit 140 may detect a center line in the left lane.

상기 좌측 차선(430)을 이용하여 좌측 도로 차선을 판단한다.A left road lane is determined using the left lane 430 .

도 4(d)를 참조하면, 영상촬영부(100)의 차량 우측 영상에서 차선을 검출하여 우측 도로 차선을 검출할 수 있다.Referring to FIG. 4D , the right road lane may be detected by detecting a lane in the image on the right side of the vehicle of the image capturing unit 100 .

상기 영상촬영부(110)는 우측 카메라로 촬영된 상기 주행 차량의 우측 영상을 차선 검출부(140)로 출력한다. 상기 차선 검출부(140)는 상기 주행 차량의 우측 영상에서 차선이 존재할 수 있는 영역을 관심영역으로 지정한다. 상기 관심영역에서 상기 차량의 우측 차선(440)을 검출 할 수 있다.The image capturing unit 110 outputs the right image of the driving vehicle captured by the right camera to the lane detecting unit 140 . The lane detector 140 designates a region in which a lane may exist in the image on the right side of the driving vehicle as a region of interest. A right lane 440 of the vehicle may be detected in the region of interest.

도 4(e)를 참조하면, 차선검출부(140)는 상기 주행 차선과 상기 좌측과 우측의 차선인 측면 도로 차선(450) 수를 더하여 주행 방향의 모든 도로 차선 수를 판단할 수 있다.Referring to FIG. 4E , the lane detection unit 140 may determine the number of all road lanes in the driving direction by adding the number of side road lanes 450 that are the left and right lanes to the driving lane.

도 5는 본 발명의 일실시례에 따른 측면 영상 기반 차량 또는 오토바이 바퀴 검출방법의 예시도이다.5 is an exemplary diagram of a method for detecting a wheel of a vehicle or motorcycle based on a side image according to an embodiment of the present invention.

차량/오토바이 검출부(150)는 영상촬영부(110)의 좌측과 우측 원영상인 측면 영상에서 Haar-like 서술자를 사용하여 차량 또는 오토바이 바퀴의 특징을 추출할 수 있다. 상기 차량/오토바이 검출부(150)는 상기 추출된 차량 또는 오토바이 바퀴의 특징에서 adaboost 학습알고리즘을 이용하여 차량 또는 오토바이 바퀴를 유무를 검출할 수 있다.The vehicle/motorcycle detection unit 150 may extract the characteristics of the wheels of the vehicle or motorcycle by using the Haar-like descriptor from the side images that are the left and right original images of the image capturing unit 110 . The vehicle/motorcycle detection unit 150 may detect the presence or absence of the vehicle or motorcycle wheel by using the adaboost learning algorithm from the extracted vehicle or motorcycle wheel characteristics.

상기 추출된 차량 또는 오토바이 바퀴의 특징은 분류기(510)에 의해 바퀴로 추정되는 영상 특징(520)과 바퀴로 추정되지 않는 영상 특징(530)으로 분류된다.The extracted vehicle or motorcycle wheel features are classified into an image feature 520 estimated as a wheel and an image feature 530 not estimated as a wheel by the classifier 510 .

상기 영상촬영부(110)의 측면 촬영 영상 전체를 탐색하여 상기 분류기 조합 결과에 따라 상기 바퀴로 추정되는 영상 특징(520)이 검출되면 바퀴가 존재한다고 판단한다.When the image feature 520 estimated to be the wheel is detected according to the result of combining the classifier by searching the entire side captured image of the image capturing unit 110, it is determined that the wheel exists.

도 6는 본 발명의 일실시례에 따른 측면 영상 기반 차량 또는 오토바이 바퀴 위치 추정방법의 예시도이다.6 is an exemplary diagram of a method for estimating a side image-based vehicle or motorcycle wheel position according to an embodiment of the present invention.

차량/오토바이 검출부(150)는 영상촬영부(110)의 좌측과 우측 원영상인 측면 영상에서 차량 또는 오토바이의 바퀴가 존재한다고 판단되면, 차량 또는 오토바이 바퀴의 위치를 추정한다. 상기 차량/오토바이 검출부(150)는 상기 영상촬영부(110)와 상기 차량 또는 오토바이 바퀴의 거리 z를 검출한다. The vehicle/motorcycle detection unit 150 estimates the position of the vehicle or motorcycle wheel when it is determined that the wheel of the vehicle or motorcycle is present in the side image that is the left and right original images of the image capturing unit 110 . The vehicle/motorcycle detection unit 150 detects a distance z between the image capturing unit 110 and the wheel of the vehicle or motorcycle.

상기 거리 z는 상기 영상촬영부(110)의 높이 H와 각도 θ를 고려하여 검출한다. 상기 높이 H는 상기 영상촬영부(110)의 설치 높이를 의미하며, 각도 θ는 상기 영상촬영부(110)의 설치 각도를 의미하고, 이러한 영상촬영부(110) 높이 H와 각도 θ는 차량 출고 시, 양산 과정에서 제공된다. The distance z is detected in consideration of the height H and the angle θ of the image capturing unit 110 . The height H means the installation height of the image photographing unit 110, the angle θ means the installation angle of the image photographing unit 110, the height H and the angle θ of the image photographing unit 110 are from the vehicle It is provided during the city and mass production process.

상기 차량/오토바이 검출부(150)는 상기 거리 z를 고려하여 (수학식 1)에 의해서 차량 또는 오토바이 바퀴의 위치를 검출할 수 있다.The vehicle/motorcycle detection unit 150 may detect the position of the vehicle or motorcycle wheel by (Equation 1) in consideration of the distance z.

(수학식 1)(Equation 1)

Figure 112015110303424-pat00001
Figure 112015110303424-pat00001

Figure 112015110303424-pat00002
Figure 112015110303424-pat00002

상기 차량/오토바이 검출부(150)가 이용하는 (수학식 1)에서 (u0, v0)는 Principal point를 의미하며, f는 focal length를 의미하고, 이러한 상기 영상촬영부(110) 내부 파라메터는 차량 출고 시, 양산 과정에서 제공된다. In (Equation 1) used by the vehicle/motorcycle detector 150, (u0, v0) means a principal point, f means a focal length, and these internal parameters of the imaging unit 110 are , provided during mass production.

상기 차량/오토바이 검출부(150)는 검출된 차량 또는 오토바이 바퀴와 차량 간의 거리를 계산하여 차량 또는 오토바이 바퀴의 위치(610)를 추정할 수 있다.The vehicle/motorcycle detection unit 150 may estimate the position 610 of the vehicle or motorcycle wheel by calculating a distance between the detected vehicle or motorcycle wheel and the vehicle.

상기 차량/오토바이 검출부(150)는 상기 바퀴의 위치(610)를 이용하여 주행 차량의 측면 차선을 판단할 수 있다.The vehicle/motorcycle detection unit 150 may determine a side lane of the driving vehicle by using the position 610 of the wheel.

도 7은 본 발명의 일실시례에 따른 네비게이션을 이용한 도로 차선 판단 방법의 예시도이다.7 is an exemplary diagram of a method for determining a road lane using a navigation system according to an embodiment of the present invention.

영상 기반 주행 차로 판단 장치에 네비게이션(130)과 추가되는 경우, 영상 기반 주행 차로 판단 장치는 상기 네비게이션부에서 주행 방향 모든 도로 차선 수를 알 수 있기 때문에 좌측과 우측 카메라를 기반으로 도로 차선 인식 결과가 일부 미인식 되어도 현재 주행하는 차로를 판단할수 있다.When added with the navigation 130 to the image-based driving lane determining device, the image-based driving lane determining device can know the number of all road lanes in the driving direction from the navigation unit, so that the road lane recognition result is based on the left and right cameras Even if some parts are not recognized, the current driving lane can be determined.

도 7(a)를 참조하면, 상기 네비게이션(130)을 이용하여 주행 도로의 모든 차선 정보를 알고 있는 경우, 좌측 도로의 차선(710)만 인식해도 현재 주행하는 차로가 2차로 인걸 파악할 수 있다.Referring to FIG. 7A , when information on all lanes of a driving road is known using the navigation device 130 , it is possible to recognize that the current driving lane is the second lane even if only the lane 710 of the left road is recognized.

도 7(b)를 참조하면, 상기 네비게이션(130)을 이용하여 주행 도로의 모든 차선 정보를 알고 있는 경우, 우측 도로의 차선(720)만 인식해도 현재 주행하는 차로가 2차로 인걸 파악할 수 있다.Referring to FIG. 7B , when all lane information of a driving road is known using the navigation 130 , it is possible to recognize that the current driving lane is the second lane even if only the lane 720 of the right road is recognized.

도 8는 본 발명의 일실시례에 따른 주행 차로 검출 및 판단 방법의 흐름을 도시한 흐름도이다.8 is a flowchart illustrating a flow of a method for detecting and determining a driving lane according to an embodiment of the present invention.

영상촬영부(110)의 전방 카메라 또는 AVM시스템(120)에서 주행 차량의 전방 영상을 출력한다(800). The front camera of the image capturing unit 110 or the AVM system 120 outputs a front image of the driving vehicle ( 800 ).

차선 검출부(140)는 상기 전방 영상에서 차선을 검출한다(805). 상기 영상촬영부(110)의 전방 카메라를 통한 차선 검출 방법은 원영상 획득, 관심 영역 선정, 모폴로지 연산, 영역 라벨링, 차선 후보군 검출, Line Fitting 기반 차선 검출의 단계를 통해 이루어진다.The lane detection unit 140 detects a lane in the front image ( 805 ). The lane detection method through the front camera of the image capturing unit 110 is performed through the steps of obtaining an original image, selecting a region of interest, morphology calculation, region labeling, lane candidate group detection, and line fitting-based lane detection.

또한 AVM시스템(120) 통한 차선 검출 방법은 Top-Hat 필터를 통한 특징점 추출, 상기 특징점을 이용하여 Line fitting, 차선 후보군 검출, 대표 차선 인식의 단계를 통해 이루어진다.In addition, the lane detection method through the AVM system 120 is performed through the steps of extracting a feature point through a Top-Hat filter, line fitting using the feature point, detecting a lane candidate group, and recognizing a representative lane.

상기 차선 검출부(140)는 상기 검출된 차선에서 주행차선을 인식한다(810). 차량 기준 좌측과 우측 영역의 대표 차선을 주행 차선으로 판단할 수 있다.The lane detection unit 140 recognizes a driving lane from the detected lane ( 810 ). The representative lanes of the left and right regions of the vehicle reference may be determined as the driving lanes.

상기 주행차선을 이용하여 차선 간격을 추정한다(815). 상기 차선 간격은 상기 전방 영상으로부터 좌측 주행차선과 우측 주행차선의 폭을 계산하여 추정할 수 있다. The lane spacing is estimated using the driving lane (S815). The lane interval may be estimated by calculating the widths of the left driving lane and the right driving lane from the front image.

상기 주행차선의 좌측과 우측 차선 위치를 예측한다(820). 상기 주행차선의 폭을 이용하여, 좌측과 우측 차선의 위치를 예측 할수 있다.The left and right lane positions of the driving lane are predicted ( 820 ). By using the width of the driving lane, the positions of the left and right lanes can be predicted.

상기 영상촬영부(110)는 차량의 좌측과 우측 카메라로 영상을 촬영한다. (825). 상기 차선 검출부(140)는 상기 좌/우측 영상에서 관심 영역을 선정한다(830). 상기 관심 영역은 상기 주행차선의 좌측과 우측 차선 위치 예측을 통해 차선이 존재할 수 있는 영역이다. The image capturing unit 110 captures an image with the left and right cameras of the vehicle. (825). The lane detector 140 selects a region of interest from the left/right images (S830). The region of interest is an area in which a lane may exist through prediction of positions of the left and right lanes of the driving lane.

상기 차선 검출부(140)는 상기 관심 영역에서 차선 검출한다(835). 상기 차선 검출부(140)는 상기 관심 영역에서 Top-hat 필터를 사용하여 특징점을 추출하고, 상기 특징점을 이용하여 좌/우측 차선을 검출하고, 이중 Top-hat 필터를 사용하여 중앙선을 검출할 수 있다. 상기 검출된 좌측, 우측 차선과 중앙선을 이용하여 측면 도로 차선을 판단한다(840).The lane detection unit 140 detects a lane in the ROI ( 835 ). The lane detection unit 140 may extract a feature point from the region of interest using a top-hat filter, detect a left/right lane using the feature point, and detect a center line using a double top-hat filter. . A side road lane is determined using the detected left and right lanes and the center line ( 840 ).

차량/오토바이 검출부(150)는 상기 영상촬영부(110)의 차량의 좌측과 우측 카메라의 영상에서 차량 또는 오토바이의 바퀴를 검출한다(845). 상기 차량/오토바이 검출부(150)는 상기 차량의 좌측과 우측 영상에서 Haar-like 서술자를 사용하여 차량 또는 오토바이 바퀴의 특징을 추출하고, 상기 바퀴의 특징을 adaboost 학습알고리즘을 이용하여 차량 또는 오토바이의 바퀴를 검출할 수 있다.The vehicle/motorcycle detection unit 150 detects wheels of the vehicle or motorcycle from the images of the left and right cameras of the vehicle of the image capturing unit 110 ( 845 ). The vehicle/motorcycle detection unit 150 extracts the characteristics of a vehicle or motorcycle wheel by using a Haar-like descriptor from the left and right images of the vehicle, and uses the adaboost learning algorithm to extract the characteristics of the wheel of the vehicle or motorcycle by using the adaboost learning algorithm. can be detected.

상기 차량/오토바이 검출부(150)는 상기 검출된 차량 또는 오토바이 바퀴와 주행 차량 간의 거리를 계산하여, 상기 검출된 차량 또는 오토바이 바퀴 위치(610)를 추정할 수 있다(850). 상기 검출된 차량 또는 오토바이 바퀴와 주행 차량 간의 거리는 상기 영상촬영부(110)의 카메라 높이와 카메라 설치 각도를 고려하여 상기 차량 또는 오토바이 바퀴 위치를 추정할 수 있다. 상기 차량/오토바이 검출부(150)는 상기 차량 또는 오토바이 바퀴의 유무와 위치를 계산하여, 주행 차량의 측면 도로의 차선을 판단한다(855).The vehicle/motorcycle detection unit 150 may calculate a distance between the detected vehicle or motorcycle wheel and the driving vehicle to estimate the detected vehicle or motorcycle wheel position 610 ( 850 ). The detected distance between the wheel of the vehicle or motorcycle and the driving vehicle may estimate the position of the vehicle or motorcycle wheel in consideration of the camera height and the camera installation angle of the image capturing unit 110 . The vehicle/motorcycle detection unit 150 calculates the presence and location of wheels of the vehicle or motorcycle, and determines the lane of the side road of the driving vehicle ( 855 ).

네비게이션부(130)에서 주행 방향의 도로의 차선 수 정보를 수신한다(860).The navigation unit 130 receives information on the number of lanes on the road in the driving direction ( 860 ).

상기 차선 검출부(140)는 상기 네비게이션에 의해 주행 방향의 모든 차선 수를 알 수 있기 때문에 측면 영상을 기반으로 한 도로 차선 인식 결과가 미인식 되어도 현재 주행하는 차로를 판단 할 수 있다.Since the lane detection unit 140 can know the number of all lanes in the driving direction through the navigation, it can determine the current driving lane even if the road lane recognition result based on the side image is not recognized.

상기 차선 검출부(140)는 상기 주행 차선과 좌측과 우측 차선 정보를 이용하여 주행 방향의 모든 도로 차선을 판단한다(865). 상기 차선 검출부(140)는 상기 모든 도로 차선을 통해 상기 주행 차량의 주행 차로를 판단한다(870). The lane detection unit 140 determines all road lanes in the driving direction by using the driving lane and information on the left and right lanes ( 865 ). The lane detection unit 140 determines a driving lane of the driving vehicle through all the road lanes ( 870 ).

이상에서는 본 발명의 바람직한 실시례에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시례에 한정되지 아니하며, 특허청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.In the above, preferred embodiments of the present invention have been illustrated and described, but the present invention is not limited to the specific embodiments described above, and in the technical field to which the present invention belongs, without departing from the gist of the present invention as claimed in the claims Various modifications may be made by those of ordinary skill in the art, and these modifications should not be individually understood from the technical spirit or perspective of the present invention.

110 : 영상촬영부
120 : AVM시스템
130 : 네비게이션부
140 : 차선 검출부
150: 차량/오토바이 검출부
160 : 제어부
170: 출력부
110: video recording unit
120: AVM system
130: navigation unit
140: lane detection unit
150: vehicle / motorcycle detection unit
160: control unit
170: output unit

Claims (11)

주행중 차량의 전방, 좌측 및 우측의 카메라로 원영상을 촬영하는 영상촬영부;
상기 영상촬영부가 촬영한 상기 원영상을 합성하여 상기 차량 주변에 대한 영상인 Top- View 영상으로 변환하는 AVM시스템;
상기 영상촬영부의 전방 원영상을 이용하여 주행 차선을 인식하고 이로부터 차선 간격을 추정하고,
추정된 상기 차선 간격을 이용하여 좌측과 우측 차선인 측면 차선의 위치를 예측하고,
상기 예측된 측면 차선의 위치를 토대로 상기 영상촬영부의 측면 원영상을 이용하여 상기 측면 차선을 검출하고,
상기 주행 차선과 상기 측면 도로의 차선 수를 더하여 주행 방향의 모든 도로 차선을 판단하는 차선 검출부; 및
상기 주행 차선과 상기 측면 차선의 정보를 제공하는 출력부를 포함하는 영상 기반 주행 차로 판단 장치.
an image photographing unit for photographing an original image with cameras on the front, left and right sides of the vehicle while driving;
an AVM system for synthesizing the original image captured by the image capturing unit and converting it into a Top-View image that is an image of the vehicle surroundings;
Recognizing the driving lane using the original image in front of the imaging unit and estimating the lane interval from this,
Predicting the positions of side lanes that are left and right lanes using the estimated lane spacing,
Detecting the side lane using the original side image of the imaging unit based on the predicted position of the side lane,
a lane detection unit for determining all road lanes in a driving direction by adding the number of lanes of the driving lane and the side road; and
and an output unit providing information on the driving lane and the side lane.
제 1항에 있어서,
상기 영상촬영부의 좌측 및 우측 원영상인 측면 영상에서 상기 주행 차량 주변의 차량 또는 오토바이의 바퀴를 검출하고, 상기 주행 차량과 상기 차량 또는 상기 오토바이의 거리를 추정하는 차량/오토바이 검출부를 더 포함하는 영상 기반 주행 차로 판단 장치.
The method of claim 1,
An image further comprising a vehicle/motorcycle detection unit for detecting the wheels of a vehicle or motorcycle around the driving vehicle from the side images, which are the left and right original images of the image capturing unit, and estimating the distance between the driving vehicle and the vehicle or the motorcycle based driving lane judgment device.
제 1항에 있어서,
상기 차선 검출부에 상기 주행 차량의 주행 방향 차선 정보를 제공하는 네비게이션부를 더 포함하는 영상 기반 주행 차로 판단 장치.
The method of claim 1,
The image-based driving lane determining device further comprising a navigation unit that provides information on a driving direction lane of the driving vehicle to the lane detection unit.
영상촬영부의 전방 원영상을 이용하여 차선을 검출하는 단계;
상기 차선을 이용하여 주행 차선을 인식하는 단계;
상기 주행 차선을 이용하여 차선 간격을 추정하는 단계;
상기 차선 간격을 이용하여 좌측과 우측 차선인 측면 차선의 위치를 예측하는 단계;
상기 영상촬영부의 좌측과 우측 원영상인 측면 영상 내에서 상기 예측된 측면 차선의 위치를 관심영역으로 선정하는 단계;
상기 관심영역에서 측면 차선을 검출하는 단계;
상기 측면 차선을 이용하여 측면 도로의 차선을 판단하는 단계;
상기 주행 차선과 상기 측면 도로의 차선 수를 더하여 주행 방향의 모든 도로 차선을 판단하는 단계; 및
상기 모든 도로 차선을 이용하여 주행 차로를 판단하는 단계;
를 포함하는 영상 기반 주행 차로 판단 방법.
detecting a lane by using the original image in front of the imaging unit;
recognizing a driving lane using the lane;
estimating a lane interval using the driving lane;
predicting positions of side lanes that are left and right lanes using the lane spacing;
selecting the predicted position of the side lane within the side image, which is the left and right original images of the imaging unit, as a region of interest;
detecting a side lane in the region of interest;
determining a lane of a side road by using the side lane;
determining all road lanes in a driving direction by adding the number of lanes of the driving lane and the side road; and
determining a driving lane using all the road lanes;
An image-based driving lane determination method comprising a.
제 4항에 있어서,
상기 영상촬영부의 전방 원영상을 이용하여 차선을 검출하는 단계는,
상기 영상촬영부에서 차량 전방의 원영상을 획득하는 단계;
상기 원영상에서 관심 영역을 선정하는 단계;
상기 관심영역에서 차선만 보이도록 모폴로지 연산을 하는 단계;
상기 모폴로지 연산을 진행한 차선을 영역 라벨링하는 단계;
상기 영역 라벨링된 영상에서 차선 후보군을 검출하는 단계; 및
상기 차선 후보군에서 Line Fitting 기반으로 차선을 검출하는 단계;
를 포함하는 영상 기반 주행 차로 판단 방법.
5. The method of claim 4,
The step of detecting a lane using the original image in front of the image capturing unit comprises:
obtaining an original image of the front of the vehicle in the image capturing unit;
selecting a region of interest from the original image;
performing a morphology calculation so that only a lane is visible in the region of interest;
area labeling the lane on which the morphology operation has been performed;
detecting a lane candidate group in the region-labeled image; and
detecting a lane in the lane candidate group based on line fitting;
An image-based driving lane determination method comprising a.
제 4항에 있어서,
AVM시스템의 Top-View 영상을 이용하여 차선을 검출하는 단계를 더 포함하는 영상 기반 주행 차로 판단 방법.
5. The method of claim 4,
The image-based driving lane determination method further comprising the step of detecting a lane using the top-view image of the AVM system.
제 6항에 있어서,
상기 AVM시스템의 상기 Top-View 영상을 이용하여 차선을 검출하는 단계는,
상기 Top-View 영상에서 Top-Hat 필터를 사용하여 특징점을 추출하는 단계;
상기 특징점을 이용하여 Line fitting 단계;
상기 Line fitting 된 차선 후보군을 검출단계, 및
상기 차선 후보군 중에서 대표 차선을 인식하여 차선을 검출하는 단계;
를 포함하는 영상 기반 주행 차로 판단 방법.
7. The method of claim 6,
The step of detecting a lane using the Top-View image of the AVM system comprises:
extracting feature points from the Top-View image using a Top-Hat filter;
Line fitting step using the feature point;
Detecting the line fitting candidate group, and
detecting a lane by recognizing a representative lane from among the candidate lanes;
An image-based driving lane determination method comprising a.
제 4항에 있어서,
상기 측면 영상 이용하여 차량 또는 오토바이 바퀴 검출을 통한 측면 도로의 차선을 판단하는 단계를 더 포함하는 영상 기반 주행 차로 판단 방법.
5. The method of claim 4,
The image-based driving lane determination method further comprising the step of determining a lane of a side road through detection of a vehicle or motorcycle wheel using the side image.
제 8항에 있어서,
상기 측면 영상 이용하여 차량 또는 오토바이 바퀴 검출을 통한 측면 도로의 차선을 판단하는 단계는,
상기 측면 영상에서 Haar-like 서술자와 adaboost 학습알고리즘을 이용하여 차량 또는 오토바이 바퀴를 검출하고, 상기 검출된 차량 또는 오토바이 바퀴 위치를 추정하는 영상 기반 주행 차로 판단 방법.
9. The method of claim 8,
The step of determining the lane of the side road by detecting the wheel of the vehicle or motorcycle by using the side image,
An image-based driving lane determination method for detecting a vehicle or motorcycle wheel using a Haar-like descriptor and an adaboost learning algorithm in the side image, and estimating the detected vehicle or motorcycle wheel position.
제 4항에 있어서,
네비게이션부를 이용하여 주행 차로를 판단하는 단계를 더 포함하는 영상 기반 주행 차로 판단 방법.
5. The method of claim 4,
The image-based driving lane determination method further comprising the step of determining the driving lane using a navigation unit.
제 10항에 있어서,
상기 네비게이션부를 이용하여 주행 차로를 판단하는 단계는,
상기 네비게이션부를 이용하여 상기 주행 방향 모든 도로 차선 정보를 취득하여, 상기 주행 차량의 측면 차선이 미인식되어도 현재 주행하는 차로를 판단하는 영상 기반 주행 차로 판단 방법.
11. The method of claim 10,
The step of determining the driving lane using the navigation unit,
An image-based driving lane determination method for acquiring information on all road lanes in the driving direction using the navigation unit to determine a current driving lane even if a side lane of the driving vehicle is not recognized.
KR1020150158872A 2015-11-12 2015-11-12 Apparatus and method for recognize driving lane on image KR102372296B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150158872A KR102372296B1 (en) 2015-11-12 2015-11-12 Apparatus and method for recognize driving lane on image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150158872A KR102372296B1 (en) 2015-11-12 2015-11-12 Apparatus and method for recognize driving lane on image

Publications (3)

Publication Number Publication Date
KR20170055738A KR20170055738A (en) 2017-05-22
KR102372296B1 true KR102372296B1 (en) 2022-03-08
KR102372296B9 KR102372296B9 (en) 2023-05-11

Family

ID=59049942

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150158872A KR102372296B1 (en) 2015-11-12 2015-11-12 Apparatus and method for recognize driving lane on image

Country Status (1)

Country Link
KR (1) KR102372296B1 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10586456B2 (en) 2018-04-27 2020-03-10 TuSimple System and method for determining car to lane distance
KR102169009B1 (en) * 2018-12-27 2020-10-23 (주)베라시스 Mutiple lane detecting method using camera modeling information
KR102239734B1 (en) * 2019-04-01 2021-04-12 인천대학교 산학협력단 Moving route creation device and method for autonomous vehicles using around view monitor system
US11468591B2 (en) * 2019-06-13 2022-10-11 Nec Corporation Scene attribute annotation of complex road typographies
CN112129313A (en) * 2019-06-25 2020-12-25 安波福电子(苏州)有限公司 AR navigation compensation system based on inertial measurement unit

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007196819A (en) 2006-01-25 2007-08-09 Niles Co Ltd White line detection device and lane departure warning device using the same
JP2015068665A (en) * 2013-09-27 2015-04-13 日産自動車株式会社 Map matching device and navigation device including the same

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101748646B1 (en) * 2011-01-26 2017-07-04 현대모비스 주식회사 Apparatus And Method Detecting Side Vehicle Using Camera
KR101406316B1 (en) * 2012-08-20 2014-06-12 하이브모션 주식회사 Apparatus and method for detecting lane
KR101987634B1 (en) * 2012-09-10 2019-06-11 현대모비스 주식회사 Method and Apparatus for Compensating Camera Tolerance and Around View Monitoring System Using the Same

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007196819A (en) 2006-01-25 2007-08-09 Niles Co Ltd White line detection device and lane departure warning device using the same
JP2015068665A (en) * 2013-09-27 2015-04-13 日産自動車株式会社 Map matching device and navigation device including the same

Also Published As

Publication number Publication date
KR102372296B9 (en) 2023-05-11
KR20170055738A (en) 2017-05-22

Similar Documents

Publication Publication Date Title
KR102372296B1 (en) Apparatus and method for recognize driving lane on image
JP5663352B2 (en) Image processing apparatus, image processing method, and image processing program
KR101609303B1 (en) Method to calibrate camera and apparatus therefor
CN107273788B (en) Imaging system for performing lane detection in a vehicle and vehicle imaging system
JP4587038B2 (en) Vehicle position detection method, and vehicle speed detection method and apparatus
WO2010125833A1 (en) Device for monitoring area around vehicle
US9747507B2 (en) Ground plane detection
CN103366155B (en) Temporal coherence in unobstructed pathways detection
JP5321497B2 (en) White line recognition device
JP2020052647A (en) Object detection device, object detection method, computer program for object detection, and vehicle control system
JP6617150B2 (en) Object detection method and object detection apparatus
KR101568683B1 (en) Method to estimate the distance between vehicles using image alalysis and apparatus therefor
JP5012522B2 (en) Roadside boundary surface detection device
JP4765113B2 (en) Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method
JP4754434B2 (en) Road surface estimation device
TWI621073B (en) Road lane detection system and method thereof
JP6677141B2 (en) Parking frame recognition device
JP5760523B2 (en) Runway estimation apparatus and program
JP2014067320A (en) Stereo camera device
JP6677142B2 (en) Parking frame recognition device
KR20170052234A (en) Method of crosswalk detection and location estimation
TWI638332B (en) Hierarchical object detection system with parallel architecture and method thereof
JP6495742B2 (en) Object detection device, object detection method, and object detection program
JP2015194935A (en) Lane division line detection device, lane division line detection method, and program
US8525897B2 (en) Device and method for predicting photographing timing

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Re-publication after modification of scope of protection [patent]