KR102372296B1 - Apparatus and method for recognize driving lane on image - Google Patents
Apparatus and method for recognize driving lane on image Download PDFInfo
- Publication number
- KR102372296B1 KR102372296B1 KR1020150158872A KR20150158872A KR102372296B1 KR 102372296 B1 KR102372296 B1 KR 102372296B1 KR 1020150158872 A KR1020150158872 A KR 1020150158872A KR 20150158872 A KR20150158872 A KR 20150158872A KR 102372296 B1 KR102372296 B1 KR 102372296B1
- Authority
- KR
- South Korea
- Prior art keywords
- lane
- image
- driving
- vehicle
- detecting
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 48
- 238000001514 detection method Methods 0.000 claims abstract description 50
- 238000003384 imaging method Methods 0.000 claims description 7
- 238000002372 labelling Methods 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 2
- 230000002194 synthesizing effect Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 14
- 239000000284 extract Substances 0.000 description 4
- 238000009434 installation Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000001151 other effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/10—Path keeping
- B60W30/12—Lane keeping
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/45—External transmission of data to or from the vehicle
- B60W2556/50—External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
본 발명은 차량 주변의 원영상을 촬영하는 영상촬영부, 상기 영상촬영부의 영상을 합성하여 Top-View 영상으로 변환하는 AVM시스템, 주행 방향의 차선 정보를 제공하는 네비게이션부, 차량이 주행하는 도로의 정보를 인지하여 검출하는 차선 검출부, 주행 차량 주변의 차량 또는 오토바이의 바퀴를 검출하고, 주행 차량과 차량 또는 오토바이의 거리를 추정하는 차량/오토바이 검출부, 장치 전반을 제어하는 제어부, 상기 주행 차선이 인식된 경우 이를 알리는 정보를 출력하는 출력부를 포함하는 영상 기반 주행 차로 판단 장치 및 방법에 관한 것이다.The present invention provides an image capturing unit that captures an original image around a vehicle, an AVM system that synthesizes the images of the image capturing unit and converts it into a top-view image, a navigation unit that provides lane information in the driving direction, and A lane detection unit that recognizes and detects information, a vehicle/motorcycle detection unit that detects the wheels of a vehicle or motorcycle around the driving vehicle and estimates the distance between the driving vehicle and the vehicle or motorcycle, a controller that controls the overall device, the driving lane is recognized The present invention relates to an apparatus and method for determining an image-based driving lane including an output unit for outputting information informing the user when the vehicle is detected.
Description
본 발명은 주행 차로 검출 및 판단 방법에 관한 것으로, 보다 상세하게는 주행방향의 모든 도로 차선을 검출하여 현재 주행 중인 차로를 판단하여 제공하는 영상 기반 주행 차로 판단 장치 및 방법에 관한 것이다.The present invention relates to a method of detecting and determining a driving lane, and more particularly, to an image-based driving lane determining apparatus and method for detecting all road lanes in a driving direction to determine a currently driving lane and provide the same.
최근 차량에는 주행 차선을 검출하여 차량이 차선을 이탈한 경우 운전자에게 경고해주는 기술 등이 채택되고 있다. 종래 기술은 전방 영상촬영을 이용하여 주행차선을 검출하는 방법으로써 영상에서 주행 차로를 판단하는데 그 목적이 있다. Recently, a technology that detects a driving lane and warns a driver when the vehicle deviates from a lane has been adopted in a vehicle. The prior art is a method of detecting a driving lane by using a front image photographing, and an object of the prior art is to determine a driving lane from an image.
하지만, 종래 기술은 주행 차로의 존재 여부만 검출하게 구성되어 있어, 차량이 어떤 차로로 달리는지 추정하기 어려운 문제점을 가지고 있다.However, the prior art has a problem in that it is difficult to estimate in which lane the vehicle runs because it is configured to detect only the existence of a driving lane.
상기와 같은 종래 기술의 문제점을 해결하기 위하여, 본 발명의 일실시례에 따른 영상 기반 주행 차로 판단 장치 및 방법은, 차량 전방 영상촬영뿐 아니라 측방 영상촬영을 이용하여 주행 방향에 대한 모든 차선을 판단하고, 현재 어떤 차로를 주행하고 있는지 알 수 있다. 본 발명을 이용하여 주행 차로를 검출하게 되어, ADAS(Advanced Driver Assist System) 또는 무인 자율 주행 기술 개발을 하는 것에 그 목적이 있다.In order to solve the problems of the prior art as described above, the image-based driving lane determining apparatus and method according to an embodiment of the present invention determine all lanes in the driving direction using not only the front image of the vehicle but also the side image capturing And you can see which lane you are currently driving. An object of the present invention is to detect a driving lane by using the present invention, and to develop an Advanced Driver Assist System (ADAS) or unmanned autonomous driving technology.
본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당 업자에게 명확하게 이해될 수 있을 것이다.The problems of the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.
상기 목적을 달성하기 위하여, 본 발명의 실시례에 따른 영상 기반 주행 차로 판단 장치는 주행중 차량의 전방, 좌측 및 우측의 카메라로 원영상을 촬영하는 영상촬영부, 상기 영상촬영부가 촬영한 상기 원영상을 합성하여 상기 차량 주변에 대한 영상인 Top- View 영상으로 변환하는 AVM시스템, 상기 영상촬영부의 전방 원영상을 이용하여 주행 차선을 인식하고 이로부터 차선 간격을 추정하고, 추정된 상기 차선 간격을 이용하여 좌측과 우측 차선인 측면 차선의 위치를 예측하고, 상기 예측된 측면 차선의 위치를 토대로 상기 영상촬영부의 측면 원영상을 이용하여 상기 측면 차선을 검출하고, 상기 주행 차선과 상기 측면 도로의 차선 수를 더하여 주행 방향의 모든 도로 차선을 판단하는 차선 검출부 및 상기 주행 차선과 상기 측면 차선의 정보를 제공하는 출력부를 포함한다.In order to achieve the above object, an image-based driving lane determining apparatus according to an embodiment of the present invention includes an image capturing unit that captures an original image with cameras on the front, left and right sides of a vehicle while driving, and the original image captured by the image capturing unit. AVM system that synthesizes and converts into a top-view image that is an image of the vehicle surroundings, recognizes a driving lane using the original image in front of the image capturing unit, estimates a lane interval from this, and uses the estimated lane interval to predict the position of the side lane, which is the left and right lane, and detect the side lane using the original side image of the imaging unit based on the predicted position of the side lane, and the number of lanes between the driving lane and the side road and a lane detector for determining all road lanes in the driving direction by adding , and an output unit for providing information on the driving lane and the side lane.
본 발명의 실시례에 따른 영상 기반 주행 차로 판단 장치 및 방법은 An apparatus and method for determining an image-based driving lane according to an embodiment of the present invention
영상촬영부의 전방 원영상 또는 AVM시스템의 Top-View 영상을 이용하여 주행 차선을 검출하는 단계, 측면 영상을 이용하여 측면 도로 차선 판단하는 단계, 측면 영상을 이용하여 차량 또는 오토바이 바퀴 검출을 통한 측면 도로 차선 판단 단계, 네비게이션부을 통한 주행 차로를 판단하는 단계를 포함한다.Detecting the driving lane using the front original image of the imaging unit or the Top-View image of the AVM system, judging the side road lane using the side image, the side road through the detection of the vehicle or motorcycle wheel using the side image and determining a lane, and determining a driving lane through a navigation unit.
기타 실시례들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.The specific details of other embodiments are included in the detailed description and drawings.
본 발명의 영상 기반 주행 차로 판단 장치 및 방법에 따르면 다음과 같은 효과가 하나 혹은 그 이상 있다.According to the image-based driving lane determining apparatus and method of the present invention, there are one or more of the following effects.
첫째, 주행 차선 인식에 따라 주행 차선의 위치를 추정함으로써 정확하게 주행 차로를 판단하는 장점이 있다.First, there is an advantage of accurately determining the driving lane by estimating the location of the driving lane according to the driving lane recognition.
둘째, 주행 차선 인식 및 위치를 판단함으로써 ADAS(Advanced Driver Assist System) 또는 무인 자율 주행시스템의 성능을 향상스킬 수 있는 장점도 있다.Second, there is also the advantage of improving the performance of ADAS (Advanced Driver Assist System) or unmanned autonomous driving system by recognizing driving lanes and judging the location.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당 업자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to the above-mentioned effects, and other effects not mentioned will be clearly understood by those skilled in the art from the description of the claims.
도 1은 본 발명의 일실시례에 따른 영상 기반 주행 차로 판단 장치의 구성을 도시한 구성도이다.
도 2는 본 발명의 일실시례에 따른 전방 원영상 기반 주행 차선 인식방법의 구성을 도시한 구성도이다.
도 3은 본 발명의 일실시례에 따른 Top-View 영상 기반 주행 차선 인식방법의 예시도이다.
도 4는 본 발명의 일실시례에 따른 영상 기반 주행 차선 인식방법의 예시도이다.
도 5는 본 발명의 일실시례에 따른 측면 영상 기반 차량 또는 오토바이 바퀴 검출방법의 예시도이다.
도 6는 본 발명의 일실시례에 따른 측면 영상 기반 차량 또는 오토바이 바퀴 위치 추정방법의 예시도이다.
도 7은 본 발명의 일실시례에 따른 네비게이션을 이용한 도로 차선 판단 방법의 예시도이다.
도 8은 본 발명의 일실시례에 따른 주행 차로 검출 및 판단 방법의 흐름을 도시한 흐름도이다.1 is a block diagram illustrating a configuration of an image-based driving lane determining apparatus according to an embodiment of the present invention.
2 is a block diagram illustrating a configuration of a driving lane recognition method based on a forward original image according to an embodiment of the present invention.
3 is an exemplary diagram of a method for recognizing a driving lane based on a Top-View image according to an embodiment of the present invention.
4 is an exemplary diagram of an image-based driving lane recognition method according to an embodiment of the present invention.
5 is an exemplary diagram of a method for detecting a wheel of a vehicle or motorcycle based on a side image according to an embodiment of the present invention.
6 is an exemplary diagram of a method for estimating a side image-based vehicle or motorcycle wheel position according to an embodiment of the present invention.
7 is an exemplary diagram of a method for determining a road lane using a navigation system according to an embodiment of the present invention.
8 is a flowchart illustrating a flow of a method for detecting and determining a driving lane according to an embodiment of the present invention.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시례들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시례들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시례들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Advantages and features of the present invention, and a method of achieving them, will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only these embodiments allow the disclosure of the present invention to be complete, and common knowledge in the art to which the present invention pertains It is provided to fully inform those who have the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout.
이하, 본 발명의 실시례들에 의하여 영상 기반 주행 차로 판단 장치 및 방법을 설명하기 위한 도면들을 참고하여 본 발명에 대해 설명하도록 한다. Hereinafter, the present invention will be described with reference to drawings for explaining an apparatus and method for determining an image-based driving lane according to embodiments of the present invention.
도 1은 본 발명의 일실시례에 따른 영상 기반 주행 차로 판단 장치의 구성을 도시한 구성도이다. 도 1을 참조하면, 본 발명의 일실시례에 따른 영상 기반 주행 차로 판단 장치는 영상촬영부(110), AVM시스템(120), 네비게이션부(130), 차선 검출부(140), 차량/오토바이 검출부(150), 제어부(160) 및 출력부(170)를 포함할 수 있다. 1 is a block diagram illustrating a configuration of an image-based driving lane determining apparatus according to an embodiment of the present invention. 1 , the image-based driving lane determining apparatus according to an embodiment of the present invention includes an
영상촬영부(110)는 주행중 차량의 전방, 좌측 및 우측의 원영상을 촬영한다. 상기 영상촬영부(110)는 차량의 전방을 촬영하는 전방 카메라와 차량의 좌측 영상을 촬영하는 좌측 카메라와 주행 차량의 좌측 영상을 촬영하는 우측 카메라를 포함하여 구성될 수 있다.The
상기 전방 카메라는 차량의 중앙에 설치되어 차량의 주행 시에 차량 전방과 중앙의 도로 노면을 촬영할 수 있다. 상기 좌측 카메라는 차량의 좌측에 설치되어 차량의 주행 시에 좌측 차선과 중앙선을 촬영할 수 있다. 상기 우측 카메라는 차량의 우측에 설치되어 차량의 주행 시에 우측 차선을 촬영할 수 있다.The front camera may be installed in the center of the vehicle to photograph the road surface in front and the center of the vehicle while the vehicle is driving. The left camera may be installed on the left side of the vehicle to photograph the left lane and the center line when the vehicle is driving. The right camera may be installed on the right side of the vehicle to photograph the right lane while the vehicle is driving.
AVM시스템(120)은 상기 영상촬영부(110)에서 촬영된 상기 원영상을 합성하여 Top-View 영상을 출력할 수 있다. 상기 Top-View 영상은 차량의 상측에서 하측 방향으로 본 차량 주변에 대한 영상이다.The
네비게이션부(130)는 상기 주행 차량의 위치를 검출하고, 상기 주행 차량의 주행 방향의 차선 정보를 제공하는 위치 검출결과를 제공 할 수 있다. The
차선 검출부(140)는 상기 영상촬영부(110)의 상기 원영상에서 차선이 존재할 수 있는 영역을 관심영역으로 선정할 수 있다. 상기 영상촬영부(110)의 설치 각도 및 시야 각에 따라 촬영된 상기 원영상 내에서 차선이 존재할 수 있는 영역을 상기 관심영역으로 설정 할 수 있다.The
상기 차선 검출부(140)는 상기 원영상을 이용하여 상기 주행 차량의 주행 차선, 주행 차선의 좌측 또는 우측 측면인 측면 차선과 중앙선 등을 검출할 수 있다. 또한, Top-View 영상에서 상기 주행 차량의 주행 차선, 측면 차선과 중앙선 등을 검출할 수 있다.The
차량/오토바이 검출부(150)는 상기 좌측 및 우측 원영상에서 차량 또는 오토바이의 바퀴를 검출할 수 있다. 또한, 상기 검출된 차량 또는 오토바이의 바퀴의 위치를 추정할 수 있다.The vehicle/
제어부(160)는 상기 영상촬영부, 상기 AVM시스템, 상기 차선 검출부 및 상기 출력부등 장치 전반을 제어한다. The
출력부(170)는 상기 주행 차선 정보를 운전자에게 제공할 수 있다. 상기 출력부(170)는 상기 차량에 설치된 디스플레이, 알람 중 적어도 하나 이상을 포함하여 상기 차선 정보를 출력할 수 있다.The
도 2는 본 발명의 일실시례에 따른 원영상 기반 주행 차선 인식방법의 구성을 도시한 구성도이다.2 is a block diagram showing the configuration of a driving lane recognition method based on an original image according to an embodiment of the present invention.
차선검출부(140)는 영상촬영부(110)에서 원영상을 획득한다(S210). 상기 차선검출부(140)는 상기 원영상에서 관심영역을 선정한다(S220). 상기 차선 검출부(140)는 상기 원영상에서 차선이 존재할 수 있는 영역을 관심영역으로 지정한다. 상기 관심영역을 모폴로지 연산을 이용하여 상기 영상의 차선 추정 성분을 추출 한다(S230). 상기 차선 추정 성분을 영역 라벨링하여 상기 차선 추정 성분들의 형태를 표시한다(S240). 상기 모폴로지 연산과 영역 라벨링을 이용하여 상기 관심 영역 내에 포함된 차선 추정 성분들에 대해 소실 정보는 채우고, 배경영역 등에서 발생하는 영상잡음 성분을 제거할 수 있다.The
상기 차선 추정 성분 중 차선 후보군을 검출한다(S250). 상기 차선 후보군에서 Line Fitting과정을 이용하여 주행 차선을 검출한다(S260).A lane candidate group is detected among the lane estimation components (S250). A driving lane is detected in the lane candidate group using a line fitting process (S260).
도 3은 본 발명의 일실시례에 따른 Top-View 영상 기반 주행 차선 인식방법의 예시도이다. 3 is an exemplary diagram of a method for recognizing a driving lane based on a Top-View image according to an embodiment of the present invention.
도 3(a)을 참조하면, 차선 검출부(140)는 AVM 시스템으로부터 Top-View 영상을 받는다. 상기 Top-View 영상에서 Gray scale 영상을 출력하고 Top-Hat 필터를 이용하여 차선 중심점을 추출한다. 상기 Top-Hat 필터는 상기 Gray scale 영상에서 인접 화소 간 휘도 변화량이 최솟값이 설정된 임계치를 이상인지 판단할 수 있다. 상기 Gray scale 영상에서 인접 화소 간 휘도 변화량이 설정된 임계치 이상이면 차선 중심점을 기준으로 차선 좌/우측에 특징점(310)을 추출할 수 있다.Referring to FIG. 3A , the
도 3(b)을 참조하면, 상기 차선 검출부(140)는 상기 추출된 특징점을 사용하여 Line Fitting과정을 진행한다. 상기 Line Fitting 과정은 상기 차선 좌/우측의 특징점을 기준으로 360도 방향을 탐색하여 선 성분을 추출한다. 상기 추출된 선 성분의 각도 오차를 비교하여 선 성분 유효성 검사를 진행한다. 이때, 상기 각도 오차의 제약 조건은 5도 이내이다. 상기 추출된 선 성분이 상기 유효성 검사에 만족한 경우, 상기 차선 중심점을 기준으로 차선 후보군을 표시한다. 상기 차량 기준 좌/우측 대표 차선을 검출하여 주행 차선(420)으로 판단한다.Referring to FIG. 3B , the
도 3(c)을 참조하면, 상기 차선 검출부(140)은 상기 주행 차량의 좌측 영상에서 이중 Top-Hat 필터를 이용하여 중앙선을 검출할 수 있다. 상기 이중 Top-Hat 필터는 상기 Gray scale 영상에서 인접 화소 간 휘도 변화량이 최솟값이 설정된 임계치를 이상인지 판단할 수 있다. 상기 Gray scale 영상에서 인접 화소 간 휘도 변화량이 설정된 임계치 이상이면 차선 중심점을 기준으로 차선 좌측에 특징점(330)을 추출할 수 있다. Referring to FIG. 3C , the
도 3(d)을 참조하면, 상기 Line Fitting과정을 이용하여 대표 선을 검출할 수 있다. 다수의 특징점이 존재할 경우 중앙선(340)으로 판단한다.Referring to FIG. 3(d) , a representative line may be detected using the line fitting process. When a plurality of feature points exist, it is determined as the
도 4는 본 발명의 일실시례에 따른 영상 기반 주행 차선 인식방법의 예시도이다. 4 is an exemplary diagram of an image-based driving lane recognition method according to an embodiment of the present invention.
도 4(a)를 참조하면, 영상촬영부(110)의 원영상에서 차선을 검출하여 주행 차선을 인식할 수 있다. 상기 영상촬영부(110)는 전방 카메라를 통하여 전방 원영상을 차선 검출부(140)에 출력한다.Referring to FIG. 4A , a driving lane may be recognized by detecting a lane in the original image of the
상기 차선 검출부(140)는 원영상 기반 주행 차선 인식방법에 따라 상기 전방 원영상에서 차선(410)을 검출한다. 상기 검출된 차선을 이용하여 현재 주행 차선을 인식한다. The
상기 주행 차선을 이용하여 차선 간격을 추정할 수 있다. 상기 차선 간격은 상기 전방 영상으로부터 좌측 주행차선과 우측 주행차선의 폭을 계산하여 추정할 수 있다. A lane interval may be estimated using the driving lane. The lane interval may be estimated by calculating the widths of the left driving lane and the right driving lane from the front image.
도 4(b)를 참조하면, AVM시스템(120)의 Top-View 영상에서 차선을 검출하여 주행 차선을 검출할 수 있다.Referring to FIG. 4B , the driving lane may be detected by detecting the lane in the top-view image of the
상기 AVM 시스템(120)은 영상 촬영부(110)의 원영상을 Top-View 영상으로 변환하여 차선 검출부(140)로 출력한다. 상기 차선 검출부(140)는 Top-View 영상 기반 주행 차선 인식방법에 따라 상기 Top-View 영상에서 차선(420)을 검출한다. 상기 검출된 차선을 이용하여 현재 주행 차선을 인식한다. 상기 주행 차선을 이용하여 차선 간격을 추정할 수 있다.The
도 4(c)를 참조하면, 영상촬영부(100)의 차량의 좌측 영상에서 차선과 중앙선을 검출하여 좌측 도로 차선을 검출할 수 있다.Referring to FIG. 4C , the left road lane may be detected by detecting a lane and a center line in the left image of the vehicle of the image capturing unit 100 .
상기 영상촬영부(110)는 좌측 카메라로 촬영된 상기 주행 차량의 좌측 원영상을 차선 검출부(140)로 출력한다. 상기 차선 검출부(140)는 상기 주행 차량의 좌측 영상에서 차선이 존재할 수 있는 영역을 관심영역으로 지정한다. 상기 관심영역에서 중앙선과 상기 차량의 좌측 차선(430)을 검출 할 수 있다.The
상기 차선 검출부(140)는 영상 기반 주행 차선 인식방법에 따라 좌측 차선(430)을 검출한다. 또한, 상기 차선 검출부(140)는 좌측 차선에서 중앙선을 검출할 수 있다.The
상기 좌측 차선(430)을 이용하여 좌측 도로 차선을 판단한다.A left road lane is determined using the
도 4(d)를 참조하면, 영상촬영부(100)의 차량 우측 영상에서 차선을 검출하여 우측 도로 차선을 검출할 수 있다.Referring to FIG. 4D , the right road lane may be detected by detecting a lane in the image on the right side of the vehicle of the image capturing unit 100 .
상기 영상촬영부(110)는 우측 카메라로 촬영된 상기 주행 차량의 우측 영상을 차선 검출부(140)로 출력한다. 상기 차선 검출부(140)는 상기 주행 차량의 우측 영상에서 차선이 존재할 수 있는 영역을 관심영역으로 지정한다. 상기 관심영역에서 상기 차량의 우측 차선(440)을 검출 할 수 있다.The
도 4(e)를 참조하면, 차선검출부(140)는 상기 주행 차선과 상기 좌측과 우측의 차선인 측면 도로 차선(450) 수를 더하여 주행 방향의 모든 도로 차선 수를 판단할 수 있다.Referring to FIG. 4E , the
도 5는 본 발명의 일실시례에 따른 측면 영상 기반 차량 또는 오토바이 바퀴 검출방법의 예시도이다.5 is an exemplary diagram of a method for detecting a wheel of a vehicle or motorcycle based on a side image according to an embodiment of the present invention.
차량/오토바이 검출부(150)는 영상촬영부(110)의 좌측과 우측 원영상인 측면 영상에서 Haar-like 서술자를 사용하여 차량 또는 오토바이 바퀴의 특징을 추출할 수 있다. 상기 차량/오토바이 검출부(150)는 상기 추출된 차량 또는 오토바이 바퀴의 특징에서 adaboost 학습알고리즘을 이용하여 차량 또는 오토바이 바퀴를 유무를 검출할 수 있다.The vehicle/
상기 추출된 차량 또는 오토바이 바퀴의 특징은 분류기(510)에 의해 바퀴로 추정되는 영상 특징(520)과 바퀴로 추정되지 않는 영상 특징(530)으로 분류된다.The extracted vehicle or motorcycle wheel features are classified into an
상기 영상촬영부(110)의 측면 촬영 영상 전체를 탐색하여 상기 분류기 조합 결과에 따라 상기 바퀴로 추정되는 영상 특징(520)이 검출되면 바퀴가 존재한다고 판단한다.When the
도 6는 본 발명의 일실시례에 따른 측면 영상 기반 차량 또는 오토바이 바퀴 위치 추정방법의 예시도이다.6 is an exemplary diagram of a method for estimating a side image-based vehicle or motorcycle wheel position according to an embodiment of the present invention.
차량/오토바이 검출부(150)는 영상촬영부(110)의 좌측과 우측 원영상인 측면 영상에서 차량 또는 오토바이의 바퀴가 존재한다고 판단되면, 차량 또는 오토바이 바퀴의 위치를 추정한다. 상기 차량/오토바이 검출부(150)는 상기 영상촬영부(110)와 상기 차량 또는 오토바이 바퀴의 거리 z를 검출한다. The vehicle/
상기 거리 z는 상기 영상촬영부(110)의 높이 H와 각도 θ를 고려하여 검출한다. 상기 높이 H는 상기 영상촬영부(110)의 설치 높이를 의미하며, 각도 θ는 상기 영상촬영부(110)의 설치 각도를 의미하고, 이러한 영상촬영부(110) 높이 H와 각도 θ는 차량 출고 시, 양산 과정에서 제공된다. The distance z is detected in consideration of the height H and the angle θ of the
상기 차량/오토바이 검출부(150)는 상기 거리 z를 고려하여 (수학식 1)에 의해서 차량 또는 오토바이 바퀴의 위치를 검출할 수 있다.The vehicle/
(수학식 1)(Equation 1)
상기 차량/오토바이 검출부(150)가 이용하는 (수학식 1)에서 (u0, v0)는 Principal point를 의미하며, f는 focal length를 의미하고, 이러한 상기 영상촬영부(110) 내부 파라메터는 차량 출고 시, 양산 과정에서 제공된다. In (Equation 1) used by the vehicle/
상기 차량/오토바이 검출부(150)는 검출된 차량 또는 오토바이 바퀴와 차량 간의 거리를 계산하여 차량 또는 오토바이 바퀴의 위치(610)를 추정할 수 있다.The vehicle/
상기 차량/오토바이 검출부(150)는 상기 바퀴의 위치(610)를 이용하여 주행 차량의 측면 차선을 판단할 수 있다.The vehicle/
도 7은 본 발명의 일실시례에 따른 네비게이션을 이용한 도로 차선 판단 방법의 예시도이다.7 is an exemplary diagram of a method for determining a road lane using a navigation system according to an embodiment of the present invention.
영상 기반 주행 차로 판단 장치에 네비게이션(130)과 추가되는 경우, 영상 기반 주행 차로 판단 장치는 상기 네비게이션부에서 주행 방향 모든 도로 차선 수를 알 수 있기 때문에 좌측과 우측 카메라를 기반으로 도로 차선 인식 결과가 일부 미인식 되어도 현재 주행하는 차로를 판단할수 있다.When added with the
도 7(a)를 참조하면, 상기 네비게이션(130)을 이용하여 주행 도로의 모든 차선 정보를 알고 있는 경우, 좌측 도로의 차선(710)만 인식해도 현재 주행하는 차로가 2차로 인걸 파악할 수 있다.Referring to FIG. 7A , when information on all lanes of a driving road is known using the
도 7(b)를 참조하면, 상기 네비게이션(130)을 이용하여 주행 도로의 모든 차선 정보를 알고 있는 경우, 우측 도로의 차선(720)만 인식해도 현재 주행하는 차로가 2차로 인걸 파악할 수 있다.Referring to FIG. 7B , when all lane information of a driving road is known using the
도 8는 본 발명의 일실시례에 따른 주행 차로 검출 및 판단 방법의 흐름을 도시한 흐름도이다.8 is a flowchart illustrating a flow of a method for detecting and determining a driving lane according to an embodiment of the present invention.
영상촬영부(110)의 전방 카메라 또는 AVM시스템(120)에서 주행 차량의 전방 영상을 출력한다(800). The front camera of the
차선 검출부(140)는 상기 전방 영상에서 차선을 검출한다(805). 상기 영상촬영부(110)의 전방 카메라를 통한 차선 검출 방법은 원영상 획득, 관심 영역 선정, 모폴로지 연산, 영역 라벨링, 차선 후보군 검출, Line Fitting 기반 차선 검출의 단계를 통해 이루어진다.The
또한 AVM시스템(120) 통한 차선 검출 방법은 Top-Hat 필터를 통한 특징점 추출, 상기 특징점을 이용하여 Line fitting, 차선 후보군 검출, 대표 차선 인식의 단계를 통해 이루어진다.In addition, the lane detection method through the
상기 차선 검출부(140)는 상기 검출된 차선에서 주행차선을 인식한다(810). 차량 기준 좌측과 우측 영역의 대표 차선을 주행 차선으로 판단할 수 있다.The
상기 주행차선을 이용하여 차선 간격을 추정한다(815). 상기 차선 간격은 상기 전방 영상으로부터 좌측 주행차선과 우측 주행차선의 폭을 계산하여 추정할 수 있다. The lane spacing is estimated using the driving lane (S815). The lane interval may be estimated by calculating the widths of the left driving lane and the right driving lane from the front image.
상기 주행차선의 좌측과 우측 차선 위치를 예측한다(820). 상기 주행차선의 폭을 이용하여, 좌측과 우측 차선의 위치를 예측 할수 있다.The left and right lane positions of the driving lane are predicted ( 820 ). By using the width of the driving lane, the positions of the left and right lanes can be predicted.
상기 영상촬영부(110)는 차량의 좌측과 우측 카메라로 영상을 촬영한다. (825). 상기 차선 검출부(140)는 상기 좌/우측 영상에서 관심 영역을 선정한다(830). 상기 관심 영역은 상기 주행차선의 좌측과 우측 차선 위치 예측을 통해 차선이 존재할 수 있는 영역이다. The
상기 차선 검출부(140)는 상기 관심 영역에서 차선 검출한다(835). 상기 차선 검출부(140)는 상기 관심 영역에서 Top-hat 필터를 사용하여 특징점을 추출하고, 상기 특징점을 이용하여 좌/우측 차선을 검출하고, 이중 Top-hat 필터를 사용하여 중앙선을 검출할 수 있다. 상기 검출된 좌측, 우측 차선과 중앙선을 이용하여 측면 도로 차선을 판단한다(840).The
차량/오토바이 검출부(150)는 상기 영상촬영부(110)의 차량의 좌측과 우측 카메라의 영상에서 차량 또는 오토바이의 바퀴를 검출한다(845). 상기 차량/오토바이 검출부(150)는 상기 차량의 좌측과 우측 영상에서 Haar-like 서술자를 사용하여 차량 또는 오토바이 바퀴의 특징을 추출하고, 상기 바퀴의 특징을 adaboost 학습알고리즘을 이용하여 차량 또는 오토바이의 바퀴를 검출할 수 있다.The vehicle/
상기 차량/오토바이 검출부(150)는 상기 검출된 차량 또는 오토바이 바퀴와 주행 차량 간의 거리를 계산하여, 상기 검출된 차량 또는 오토바이 바퀴 위치(610)를 추정할 수 있다(850). 상기 검출된 차량 또는 오토바이 바퀴와 주행 차량 간의 거리는 상기 영상촬영부(110)의 카메라 높이와 카메라 설치 각도를 고려하여 상기 차량 또는 오토바이 바퀴 위치를 추정할 수 있다. 상기 차량/오토바이 검출부(150)는 상기 차량 또는 오토바이 바퀴의 유무와 위치를 계산하여, 주행 차량의 측면 도로의 차선을 판단한다(855).The vehicle/
네비게이션부(130)에서 주행 방향의 도로의 차선 수 정보를 수신한다(860).The
상기 차선 검출부(140)는 상기 네비게이션에 의해 주행 방향의 모든 차선 수를 알 수 있기 때문에 측면 영상을 기반으로 한 도로 차선 인식 결과가 미인식 되어도 현재 주행하는 차로를 판단 할 수 있다.Since the
상기 차선 검출부(140)는 상기 주행 차선과 좌측과 우측 차선 정보를 이용하여 주행 방향의 모든 도로 차선을 판단한다(865). 상기 차선 검출부(140)는 상기 모든 도로 차선을 통해 상기 주행 차량의 주행 차로를 판단한다(870). The
이상에서는 본 발명의 바람직한 실시례에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시례에 한정되지 아니하며, 특허청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.In the above, preferred embodiments of the present invention have been illustrated and described, but the present invention is not limited to the specific embodiments described above, and in the technical field to which the present invention belongs, without departing from the gist of the present invention as claimed in the claims Various modifications may be made by those of ordinary skill in the art, and these modifications should not be individually understood from the technical spirit or perspective of the present invention.
110 : 영상촬영부
120 : AVM시스템
130 : 네비게이션부
140 : 차선 검출부
150: 차량/오토바이 검출부
160 : 제어부
170: 출력부110: video recording unit
120: AVM system
130: navigation unit
140: lane detection unit
150: vehicle / motorcycle detection unit
160: control unit
170: output unit
Claims (11)
상기 영상촬영부가 촬영한 상기 원영상을 합성하여 상기 차량 주변에 대한 영상인 Top- View 영상으로 변환하는 AVM시스템;
상기 영상촬영부의 전방 원영상을 이용하여 주행 차선을 인식하고 이로부터 차선 간격을 추정하고,
추정된 상기 차선 간격을 이용하여 좌측과 우측 차선인 측면 차선의 위치를 예측하고,
상기 예측된 측면 차선의 위치를 토대로 상기 영상촬영부의 측면 원영상을 이용하여 상기 측면 차선을 검출하고,
상기 주행 차선과 상기 측면 도로의 차선 수를 더하여 주행 방향의 모든 도로 차선을 판단하는 차선 검출부; 및
상기 주행 차선과 상기 측면 차선의 정보를 제공하는 출력부를 포함하는 영상 기반 주행 차로 판단 장치.an image photographing unit for photographing an original image with cameras on the front, left and right sides of the vehicle while driving;
an AVM system for synthesizing the original image captured by the image capturing unit and converting it into a Top-View image that is an image of the vehicle surroundings;
Recognizing the driving lane using the original image in front of the imaging unit and estimating the lane interval from this,
Predicting the positions of side lanes that are left and right lanes using the estimated lane spacing,
Detecting the side lane using the original side image of the imaging unit based on the predicted position of the side lane,
a lane detection unit for determining all road lanes in a driving direction by adding the number of lanes of the driving lane and the side road; and
and an output unit providing information on the driving lane and the side lane.
상기 영상촬영부의 좌측 및 우측 원영상인 측면 영상에서 상기 주행 차량 주변의 차량 또는 오토바이의 바퀴를 검출하고, 상기 주행 차량과 상기 차량 또는 상기 오토바이의 거리를 추정하는 차량/오토바이 검출부를 더 포함하는 영상 기반 주행 차로 판단 장치.The method of claim 1,
An image further comprising a vehicle/motorcycle detection unit for detecting the wheels of a vehicle or motorcycle around the driving vehicle from the side images, which are the left and right original images of the image capturing unit, and estimating the distance between the driving vehicle and the vehicle or the motorcycle based driving lane judgment device.
상기 차선 검출부에 상기 주행 차량의 주행 방향 차선 정보를 제공하는 네비게이션부를 더 포함하는 영상 기반 주행 차로 판단 장치.The method of claim 1,
The image-based driving lane determining device further comprising a navigation unit that provides information on a driving direction lane of the driving vehicle to the lane detection unit.
상기 차선을 이용하여 주행 차선을 인식하는 단계;
상기 주행 차선을 이용하여 차선 간격을 추정하는 단계;
상기 차선 간격을 이용하여 좌측과 우측 차선인 측면 차선의 위치를 예측하는 단계;
상기 영상촬영부의 좌측과 우측 원영상인 측면 영상 내에서 상기 예측된 측면 차선의 위치를 관심영역으로 선정하는 단계;
상기 관심영역에서 측면 차선을 검출하는 단계;
상기 측면 차선을 이용하여 측면 도로의 차선을 판단하는 단계;
상기 주행 차선과 상기 측면 도로의 차선 수를 더하여 주행 방향의 모든 도로 차선을 판단하는 단계; 및
상기 모든 도로 차선을 이용하여 주행 차로를 판단하는 단계;
를 포함하는 영상 기반 주행 차로 판단 방법.detecting a lane by using the original image in front of the imaging unit;
recognizing a driving lane using the lane;
estimating a lane interval using the driving lane;
predicting positions of side lanes that are left and right lanes using the lane spacing;
selecting the predicted position of the side lane within the side image, which is the left and right original images of the imaging unit, as a region of interest;
detecting a side lane in the region of interest;
determining a lane of a side road by using the side lane;
determining all road lanes in a driving direction by adding the number of lanes of the driving lane and the side road; and
determining a driving lane using all the road lanes;
An image-based driving lane determination method comprising a.
상기 영상촬영부의 전방 원영상을 이용하여 차선을 검출하는 단계는,
상기 영상촬영부에서 차량 전방의 원영상을 획득하는 단계;
상기 원영상에서 관심 영역을 선정하는 단계;
상기 관심영역에서 차선만 보이도록 모폴로지 연산을 하는 단계;
상기 모폴로지 연산을 진행한 차선을 영역 라벨링하는 단계;
상기 영역 라벨링된 영상에서 차선 후보군을 검출하는 단계; 및
상기 차선 후보군에서 Line Fitting 기반으로 차선을 검출하는 단계;
를 포함하는 영상 기반 주행 차로 판단 방법.5. The method of claim 4,
The step of detecting a lane using the original image in front of the image capturing unit comprises:
obtaining an original image of the front of the vehicle in the image capturing unit;
selecting a region of interest from the original image;
performing a morphology calculation so that only a lane is visible in the region of interest;
area labeling the lane on which the morphology operation has been performed;
detecting a lane candidate group in the region-labeled image; and
detecting a lane in the lane candidate group based on line fitting;
An image-based driving lane determination method comprising a.
AVM시스템의 Top-View 영상을 이용하여 차선을 검출하는 단계를 더 포함하는 영상 기반 주행 차로 판단 방법.5. The method of claim 4,
The image-based driving lane determination method further comprising the step of detecting a lane using the top-view image of the AVM system.
상기 AVM시스템의 상기 Top-View 영상을 이용하여 차선을 검출하는 단계는,
상기 Top-View 영상에서 Top-Hat 필터를 사용하여 특징점을 추출하는 단계;
상기 특징점을 이용하여 Line fitting 단계;
상기 Line fitting 된 차선 후보군을 검출단계, 및
상기 차선 후보군 중에서 대표 차선을 인식하여 차선을 검출하는 단계;
를 포함하는 영상 기반 주행 차로 판단 방법.7. The method of claim 6,
The step of detecting a lane using the Top-View image of the AVM system comprises:
extracting feature points from the Top-View image using a Top-Hat filter;
Line fitting step using the feature point;
Detecting the line fitting candidate group, and
detecting a lane by recognizing a representative lane from among the candidate lanes;
An image-based driving lane determination method comprising a.
상기 측면 영상 이용하여 차량 또는 오토바이 바퀴 검출을 통한 측면 도로의 차선을 판단하는 단계를 더 포함하는 영상 기반 주행 차로 판단 방법.5. The method of claim 4,
The image-based driving lane determination method further comprising the step of determining a lane of a side road through detection of a vehicle or motorcycle wheel using the side image.
상기 측면 영상 이용하여 차량 또는 오토바이 바퀴 검출을 통한 측면 도로의 차선을 판단하는 단계는,
상기 측면 영상에서 Haar-like 서술자와 adaboost 학습알고리즘을 이용하여 차량 또는 오토바이 바퀴를 검출하고, 상기 검출된 차량 또는 오토바이 바퀴 위치를 추정하는 영상 기반 주행 차로 판단 방법.9. The method of claim 8,
The step of determining the lane of the side road by detecting the wheel of the vehicle or motorcycle by using the side image,
An image-based driving lane determination method for detecting a vehicle or motorcycle wheel using a Haar-like descriptor and an adaboost learning algorithm in the side image, and estimating the detected vehicle or motorcycle wheel position.
네비게이션부를 이용하여 주행 차로를 판단하는 단계를 더 포함하는 영상 기반 주행 차로 판단 방법.5. The method of claim 4,
The image-based driving lane determination method further comprising the step of determining the driving lane using a navigation unit.
상기 네비게이션부를 이용하여 주행 차로를 판단하는 단계는,
상기 네비게이션부를 이용하여 상기 주행 방향 모든 도로 차선 정보를 취득하여, 상기 주행 차량의 측면 차선이 미인식되어도 현재 주행하는 차로를 판단하는 영상 기반 주행 차로 판단 방법.11. The method of claim 10,
The step of determining the driving lane using the navigation unit,
An image-based driving lane determination method for acquiring information on all road lanes in the driving direction using the navigation unit to determine a current driving lane even if a side lane of the driving vehicle is not recognized.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150158872A KR102372296B1 (en) | 2015-11-12 | 2015-11-12 | Apparatus and method for recognize driving lane on image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150158872A KR102372296B1 (en) | 2015-11-12 | 2015-11-12 | Apparatus and method for recognize driving lane on image |
Publications (3)
Publication Number | Publication Date |
---|---|
KR20170055738A KR20170055738A (en) | 2017-05-22 |
KR102372296B1 true KR102372296B1 (en) | 2022-03-08 |
KR102372296B9 KR102372296B9 (en) | 2023-05-11 |
Family
ID=59049942
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020150158872A KR102372296B1 (en) | 2015-11-12 | 2015-11-12 | Apparatus and method for recognize driving lane on image |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102372296B1 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10586456B2 (en) | 2018-04-27 | 2020-03-10 | TuSimple | System and method for determining car to lane distance |
KR102169009B1 (en) * | 2018-12-27 | 2020-10-23 | (주)베라시스 | Mutiple lane detecting method using camera modeling information |
KR102239734B1 (en) * | 2019-04-01 | 2021-04-12 | 인천대학교 산학협력단 | Moving route creation device and method for autonomous vehicles using around view monitor system |
US11468591B2 (en) * | 2019-06-13 | 2022-10-11 | Nec Corporation | Scene attribute annotation of complex road typographies |
CN112129313A (en) * | 2019-06-25 | 2020-12-25 | 安波福电子(苏州)有限公司 | AR navigation compensation system based on inertial measurement unit |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007196819A (en) | 2006-01-25 | 2007-08-09 | Niles Co Ltd | White line detection device and lane departure warning device using the same |
JP2015068665A (en) * | 2013-09-27 | 2015-04-13 | 日産自動車株式会社 | Map matching device and navigation device including the same |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101748646B1 (en) * | 2011-01-26 | 2017-07-04 | 현대모비스 주식회사 | Apparatus And Method Detecting Side Vehicle Using Camera |
KR101406316B1 (en) * | 2012-08-20 | 2014-06-12 | 하이브모션 주식회사 | Apparatus and method for detecting lane |
KR101987634B1 (en) * | 2012-09-10 | 2019-06-11 | 현대모비스 주식회사 | Method and Apparatus for Compensating Camera Tolerance and Around View Monitoring System Using the Same |
-
2015
- 2015-11-12 KR KR1020150158872A patent/KR102372296B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007196819A (en) | 2006-01-25 | 2007-08-09 | Niles Co Ltd | White line detection device and lane departure warning device using the same |
JP2015068665A (en) * | 2013-09-27 | 2015-04-13 | 日産自動車株式会社 | Map matching device and navigation device including the same |
Also Published As
Publication number | Publication date |
---|---|
KR102372296B9 (en) | 2023-05-11 |
KR20170055738A (en) | 2017-05-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102372296B1 (en) | Apparatus and method for recognize driving lane on image | |
JP5663352B2 (en) | Image processing apparatus, image processing method, and image processing program | |
KR101609303B1 (en) | Method to calibrate camera and apparatus therefor | |
CN107273788B (en) | Imaging system for performing lane detection in a vehicle and vehicle imaging system | |
JP4587038B2 (en) | Vehicle position detection method, and vehicle speed detection method and apparatus | |
WO2010125833A1 (en) | Device for monitoring area around vehicle | |
US9747507B2 (en) | Ground plane detection | |
CN103366155B (en) | Temporal coherence in unobstructed pathways detection | |
JP5321497B2 (en) | White line recognition device | |
JP2020052647A (en) | Object detection device, object detection method, computer program for object detection, and vehicle control system | |
JP6617150B2 (en) | Object detection method and object detection apparatus | |
KR101568683B1 (en) | Method to estimate the distance between vehicles using image alalysis and apparatus therefor | |
JP5012522B2 (en) | Roadside boundary surface detection device | |
JP4765113B2 (en) | Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method | |
JP4754434B2 (en) | Road surface estimation device | |
TWI621073B (en) | Road lane detection system and method thereof | |
JP6677141B2 (en) | Parking frame recognition device | |
JP5760523B2 (en) | Runway estimation apparatus and program | |
JP2014067320A (en) | Stereo camera device | |
JP6677142B2 (en) | Parking frame recognition device | |
KR20170052234A (en) | Method of crosswalk detection and location estimation | |
TWI638332B (en) | Hierarchical object detection system with parallel architecture and method thereof | |
JP6495742B2 (en) | Object detection device, object detection method, and object detection program | |
JP2015194935A (en) | Lane division line detection device, lane division line detection method, and program | |
US8525897B2 (en) | Device and method for predicting photographing timing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
G170 | Re-publication after modification of scope of protection [patent] |