KR20180092765A - Apparatus and method for identifying lanes by using top view image - Google Patents

Apparatus and method for identifying lanes by using top view image Download PDF

Info

Publication number
KR20180092765A
KR20180092765A KR1020170018927A KR20170018927A KR20180092765A KR 20180092765 A KR20180092765 A KR 20180092765A KR 1020170018927 A KR1020170018927 A KR 1020170018927A KR 20170018927 A KR20170018927 A KR 20170018927A KR 20180092765 A KR20180092765 A KR 20180092765A
Authority
KR
South Korea
Prior art keywords
lane
vehicle
top view
driving lane
parking
Prior art date
Application number
KR1020170018927A
Other languages
Korean (ko)
Inventor
이석규
배현수
Original Assignee
영남대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 영남대학교 산학협력단 filed Critical 영남대학교 산학협력단
Priority to KR1020170018927A priority Critical patent/KR20180092765A/en
Publication of KR20180092765A publication Critical patent/KR20180092765A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • G06T7/596Depth or shape recovery from multiple images from stereo images from three or more stereo images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18163Lane change; Overtaking manoeuvres
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • G06K9/00798
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/804Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for lane monitoring
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/42Image sensing, e.g. optical camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30264Parking

Abstract

Disclosed are a method and an apparatus for recognizing lanes, which obtain images from a plurality of cameras provided in a vehicle, generate a top view image by matching the images, detect a driving lane when the vehicle is running, detect a parking line when the vehicle is being parked, notify a driver that the lane of the vehicle cannot be changed if the driving lane is detected as a solid line, and notify the driver that the lane of the vehicle can be changed if the driving lane is detected as a dotted line. Accordingly, the present invention can improve driving performance by accurately recognizing the lane.

Description

탑뷰 영상을 이용한 차선인식 장치 및 방법{APPARATUS AND METHOD FOR IDENTIFYING LANES BY USING TOP VIEW IMAGE}[0001] APPARATUS AND METHOD FOR IDENTIFYING LANES BY USING TOP VIEW IMAGE [0002]

본 발명은 탑뷰 영상을 이용하여 차선을 인식하는 시스템과 방법에 관한 것으로, 더욱 상세하게는 탑뷰 영상을 분석하여 차량의 주행을 위한 주행 차선과 주차를 위한 주차선을 인식하는 장치와 방법에 대한 것이다.The present invention relates to a system and method for recognizing a lane using a top view image, and more particularly, to a device and a method for recognizing a driving lane for driving a vehicle and a parking line for parking by analyzing a top view image .

차량 기술의 발전에 따라 운전자의 도움 없이도 차량 스스로 주행하는 자율주행 차량(지능형 차량 또는 스마트카)에 대한 관심이 날로 증대되고 있다. 자율주행 차량은 주행 중에 주변 장애물을 인지하여 속도 조절과 제동이 가능하며 자신의 현재 위치를 확인하여 목표 위치까지의 경로 또한 스스로 결정한다. With the development of vehicle technology, there is a growing interest in autonomous vehicles (intelligent vehicles or smart cars) that travel on their own without the assistance of drivers. The autonomous vehicle recognizes the surrounding obstacles while driving and adjusts the speed and brakes, and confirms the current position of the autonomous vehicle and determines the route to the target position by itself.

이러한 자율주행 차량에 대해서 국내외적으로 관심이 높아지고 있어서 글로벌 자동차 업체들은 자율주행 차량을 자체적으로 개발하고 있는 환경이며, 대학 및 연구소 등에서도 많은 투자와 연구를 진행하고 있다. As interest in these autonomous vehicles has increased, both domestic and international automakers are developing their own self-propelled vehicles, and they are also investing and researching in universities and research institutes.

한편, 자율주행 차량에서 가장 중요한 요구사항 중 하나는 정확한 주변 정보를 획득하는 기술이며, 이러한 기술이 뒷받침 되어야만 차량이 안정적인 구동이 가능하게 된다. 차량의 주행차선과 주차선을 인식하는 여러 가지 기술들이 존재하나 아직까지 주변 환경으로부터의 영향을 줄여 정확한 정보를 얻는 기술이 등장하지 못해 시장의 요구를 충분히 충족시키지 못하는 실정이다.On the other hand, one of the most important requirements in an autonomous vehicle is to acquire accurate peripheral information, and if the technology is supported, the vehicle can be driven with stability. There are various technologies for recognizing the driving lane and the parking line of the vehicle. However, the technology for obtaining the accurate information by reducing the influence from the surrounding environment does not yet appear, so that the needs of the market are not sufficiently satisfied.

본 발명은 상기한 바와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은 차량의 주행시 주행 차선을 정확하게 인식하기 위한 방안을 제안하는 것이다.SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems, and an object of the present invention is to propose a method for accurately recognizing a driving lane at the time of driving a vehicle.

본 발명의 또 다른 목적은 차량의 주차시 주차선을 정확하게 인식하기 위한 방안을 제안하는 것이다.Another object of the present invention is to propose a method for accurately recognizing a parking line when parking a vehicle.

본 발명의 또 다른 목적은 추가적인 센서 구비 없이도 차선 인식을 구현함으로써 저비용으로도 자율주행 차량의 성능을 개선하는 것이다.Yet another object of the present invention is to improve the performance of an autonomous vehicle at low cost by realizing lane recognition without additional sensors.

본 발명에서 이루고자 하는 기술적 목적들은 이상에서 언급한 사항들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 이하 설명할 본 발명의 실시 예들로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 고려될 수 있다.It is to be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are not intended to limit the invention to the particular form disclosed. ≪ / RTI >

상기 기술적 과제를 해결하기 위한 차선 인식 방법은, 차선 인식 장치가 탑재된 차량에 구비된 복수의 카메라로부터 각각 서로 다른 방향에 대해 촬영된 영상들을 획득하는 단계, 복수의 카메라가 촬영한 영상들을 정합하여 차량의 탑뷰 영상을 생성하는 단계, 차량이 주행 중인 것으로 판단되는 경우, 탑뷰 영상을 이용하여 주행 차선을 검출하는 단계, 및 차량이 주차 중인 것으로 판단되는 경우, 탑뷰 영상을 이용하여 주차선을 검출하는 단계를 포함하고, 주행 차선은 실선 또는 점선이며, 주행 차선이 실선으로 검출된 경우 차량의 차로 변경이 불가능함을 알리고 주행 차선이 점선으로 검출된 경우 차량의 차로 변경이 허용됨을 알린다.According to another aspect of the present invention, there is provided a lane recognition method comprising: acquiring images photographed in different directions from a plurality of cameras provided in a vehicle equipped with a lane recognition device; A step of generating a top view image of the vehicle, a step of detecting a driving lane using a top view image when it is determined that the vehicle is running, and a step of detecting a parking line using the top view image And the driving lane is a solid line or a dotted line. When the driving lane is detected as a solid line, it is informed that the vehicle can not be changed, and when the driving lane is detected as a dotted line,

차선 인식 방법은, 차량이 주차 중인 것으로 판단되지만 주차선이 검출되지 않는 경우, 차량이 주차가 가능한 후보 영역을 검출하는 단계를 더 포함할 수 있다.The lane recognizing method may further include the step of detecting a candidate area in which the vehicle is parkable when it is determined that the vehicle is parked but the parking line is not detected.

주행 차선을 검출하는 단계는, 탑뷰 영상으로부터 관심 영역을 추출하고, 관심 영역 내의 경계 검출을 통해 후보점들을 결정하여 주행 차선을 검출할 수 있다.The step of detecting the driving lane may detect the driving lane by extracting the area of interest from the top view image and determining the candidate points through boundary detection in the area of interest.

주행 차선을 검출하는 단계는, 검출된 주행 차선이 연속적으로 소실점까지 이어지는 경우 주행 차선을 실선으로 결정하고, 검출된 주행 차선이 소정의 픽셀 이상 이어지지 않는 경우 주행 차선을 점선으로 결정할 수 있다. The step of detecting the driving lane may determine the driving lane as a solid line when the detected driving lane continues to the vanishing point continuously, and may determine the driving lane as a dotted line when the detected driving lane does not exceed the predetermined pixel.

주차선을 검출하는 단계는, 탑뷰 영상에서 주차 공간의 꼭지점들을 검출하고 꼭지점들에 의해 정의되는 공간의 테두리를 주차선으로 결정할 수 있다.The step of detecting the parking line may detect the vertices of the parking space in the top view image and determine the border of the space defined by the vertexes as a parking line.

후보 영역은 스테레오 알고리즘에 의해 검출된 영역과 차량의 주차에 필요한 공간의 크기를 비교함으로써 검출될 수 있다.The candidate area can be detected by comparing the area detected by the stereo algorithm with the size of the space required for parking the vehicle.

상기 기술적 과제를 해결하기 위한 차선 인식 장치는, 차선 인식 장치가 탑재된 차량에 구비되어 각각 서로 다른 방향에 대해 영상을 촬영하는 복수의 영상 촬영부, 복수의 영상 촬영부가 촬영한 영상들을 정합하여 차량의 탑뷰 영상을 생성하는 영상 정합부, 차량이 주행 중인지 또는 주차 중인지 판단하는 주행 판단부, 차량이 주행 중인 것으로 판단되는 경우, 탑뷰 영상을 이용하여 주행 차선을 검출하는 주행 차선 인식부, 및 차량이 주차 중인 것으로 판단되는 경우, 탑뷰 영상을 이용하여 주차선을 검출하는 주차선 인식부를 포함하며, 주행 차선은 실선 또는 점선이며, 주행 차선이 실선으로 검출된 경우 차량의 차로 변경이 불가능함을 알리고 주행 차선이 점선으로 검출된 경우 차량의 차로 변경이 허용됨을 알린다. According to another aspect of the present invention, there is provided a lane recognition apparatus comprising: a plurality of image capturing units provided in a vehicle equipped with a lane recognizing device and capturing images in different directions; A traveling lane recognizing section for determining whether a vehicle is running or parked; a driving lane recognizing section for detecting a driving lane using a top view image when the vehicle is judged to be traveling; And a parking line recognizing unit for detecting a parking line by using the top view image when it is judged that the vehicle is parked. The driving lane is a solid line or a dotted line, and when the driving lane is detected as a solid line, When the lane is detected as a dotted line, it is informed that the vehicle is permitted to change.

본 발명의 실시 예들에 따르면 다음과 같은 효과를 기대할 수 있다.According to the embodiments of the present invention, the following effects can be expected.

첫째로, 자율주행 차량의 주행 중에 주행 차선을 정확하게 인식할 수 있어 주행 성능이 향상될 수 있다.First, the driving lane can be accurately recognized while the autonomous driving vehicle is running, and the driving performance can be improved.

둘째로, 자율주행 차량의 주차 시에 주차선을 정확하게 인식할 수 있어 주차 성능이 향상될 수 있다.Secondly, the parking line can be accurately recognized at the time of parking the autonomous vehicle, and the parking performance can be improved.

셋째로, 성능향상에 요구되는 비용의 증가를 최소화할 수 있어 저비용으로도 고효율의 성능 개선이 이루어질 수 있다.Third, the increase in cost required for performance improvement can be minimized, and a high-efficiency performance improvement can be achieved even at a low cost.

본 발명의 실시 예들에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 이하의 본 발명의 실시 예들에 대한 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 도출되고 이해될 수 있다. 즉, 본 발명을 실시함에 따른 의도하지 않은 효과들 역시 본 발명의 실시 예들로부터 당해 기술분야의 통상의 지식을 가진 자에 의해 도출될 수 있다.The effects obtainable in the embodiments of the present invention are not limited to the effects mentioned above, and other effects not mentioned can be obtained from the description of the embodiments of the present invention described below by those skilled in the art Can be clearly understood and understood. In other words, undesirable effects of implementing the present invention can also be obtained by those skilled in the art from the embodiments of the present invention.

이하에 첨부되는 도면들은 본 발명에 관한 이해를 돕기 위한 것으로, 상세한 설명과 함께 본 발명에 대한 실시 예들을 제공한다. 다만, 본 발명의 기술적 특징이 특정 도면에 한정되는 것은 아니며, 각 도면에서 개시하는 특징들은 서로 조합되어 새로운 실시 예로 구성될 수 있다.
도 1은 제안하는 실시 예와 관련된 탑뷰 영상 획득 과정을 설명하는 도면이다.
도 2는 제안하는 실시 예에 따른 차선 인식 장치의 구성을 도시하는 블록도이다.
도 3은 제안하는 실시 예에 따른 영상 촬영 과정을 설명하는 도면이다.
도 4는 제안하는 실시 예에 따른 주행 차선 인식 과정을 설명하는 도면이다.
도 5 내지 도 7은 제안하는 실시 예에 따른 주차선 인식 과정을 설명하는 도면이다.
도 8은 제안하는 실시 예에 따른 차선 인식 방법을 도시하는 흐름도이다.
도 9는 제안하는 실시 예에 대한 시뮬레이션 과정을 설명하는 도면이다.
도 10은 제안하는 실시 예에 대한 실제 도로 실험 과정을 설명하는 도면이다.
BRIEF DESCRIPTION OF THE DRAWINGS The accompanying drawings, which are included to provide a further understanding of the invention and are incorporated in and constitute a part of this specification, illustrate embodiments of the invention and, together with the description, serve to explain the principles of the invention. It is to be understood, however, that the technical features of the present invention are not limited to the specific drawings, and the features disclosed in the drawings may be combined with each other to constitute a new embodiment.
1 is a view for explaining a process of acquiring a top view image related to the proposed embodiment.
2 is a block diagram showing a configuration of a lane recognizing apparatus according to the proposed embodiment.
FIG. 3 is a view for explaining an image capturing process according to the embodiment of the present invention.
4 is a view for explaining a driving lane recognition process according to the embodiment of the present invention.
5 to 7 are diagrams for explaining a parking line recognition process according to the embodiment of the present invention.
8 is a flowchart showing a lane recognition method according to the proposed embodiment.
9 is a diagram for explaining a simulation process for the proposed embodiment.
10 is a view for explaining an actual road test procedure for the proposed embodiment.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, which will be readily apparent to those skilled in the art. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and similar parts are denoted by like reference characters throughout the specification.

본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다. The terms used in this specification will be briefly described and the present invention will be described in detail.

본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다. While the present invention has been described in connection with what is presently considered to be the most practical and preferred embodiment, it is to be understood that the invention is not limited to the disclosed embodiments. Also, in certain cases, there may be a term selected arbitrarily by the applicant, in which case the meaning thereof will be described in detail in the description of the corresponding invention. Therefore, the term used in the present invention should be defined based on the meaning of the term, not on the name of a simple term, but on the entire contents of the present invention.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 명세서 전체에서 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, "그 중간에 다른 소자를 사이에 두고" 연결되어 있는 경우도 포함한다. When an element is referred to as "including" an element throughout the specification, it is to be understood that the element may include other elements as well, without departing from the spirit or scope of the present invention. Also, the terms "part," " module, "and the like described in the specification mean units for processing at least one function or operation, which may be implemented in hardware or software or a combination of hardware and software . In addition, when a part is referred to as being "connected" to another part throughout the specification, it includes not only "directly connected" but also "connected with other part in between".

이하에서는 첨부된 도면을 참고하여 본 발명을 상세히 설명한다. Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

도 1은 제안하는 실시 예와 관련된 탑뷰 영상 획득 과정을 설명하는 도면이다. 1 is a view for explaining a process of acquiring a top view image related to the proposed embodiment.

여러 장의 영상을 한 장의 영상으로 합성하는 파노라마 기술에 대한 연구가 최근들어 활발히 진행되고 있다. 이러한 파노라마 기술을 차량에 적용시켜 차량의 주변 상황을 사각 없이 촬영하는 기술 또한 계속하여 논의되고 있는데, 차량의 전후좌우 4면에 카메라를 설치함으로써 차량의 주변 영상을 촬영하는 방식을 '탑뷰(top view)' 또는 '어라운드 뷰(around view)'라 한다. Recently, research on panorama technology for synthesizing a plurality of images into a single image has been actively conducted. Techniques for applying the panoramic technology to a vehicle and shooting the surroundings of the vehicle without a square are also being discussed. The method of shooting the surroundings of the vehicle by installing cameras on the front, rear, left, and right sides of the vehicle is called "top view ) Or an 'around view'.

차량에 배치된 복수의 카메라를 이용해 촬영한 영상을 정합하기에 앞서서, 각각의 카메라의 특징을 반영하기 위한 보정(calibrate) 과정을 거칠 필요가 있다. 이러한 보정 과정은 아래의 수학식 1에 따라 수행될 수 있다. It is necessary to perform a calibrating process to reflect the characteristics of each camera before matching the captured images using a plurality of cameras disposed in the vehicle. This correction process can be performed according to the following equation (1).

[수학식 1][Equation 1]

Figure pat00001
Figure pat00001

수학식 1에서 fc1, fc2는 각각 서로 다른 초점 거리(focal length)를 나타내고, cc1, cc2는 서로 다른 주점(principal point)을 나타낸다. In Equation (1), fc1 and fc2 represent different focal lengths, and cc1 and cc2 represent different principal points.

CCD(Charge-Coupled Device) 센서가 사용되는 경우에는 오차가 존재하여 fc1과 fc2가 일반적으로 비슷한 값을 가지지만, CCD 픽셀이 직사각형인 경우 fc2/fc1이 1이 아닌 값을 가지게 된다. 카메라의 화각이 넓을수록 왜곡이 심하게 나타나기 때문에, 차량의 전방 영상을 획득하기 위해서 일반적으로 약 180'의 화각을 갖는 카메라가 사용된다. When a CCD (Charge-Coupled Device) sensor is used, fc1 and fc2 generally have similar values due to the existence of an error. However, when the CCD pixel is rectangular, fc2 / fc1 has a value other than 1. Since a wider angle of view of the camera results in severe distortion, a camera having an angle of view of about 180 'is typically used to obtain a forward image of the vehicle.

왜곡의 보정을 위해서는 방사 왜곡 모델과 접선 왜곡 모델이 사용될 수 있다. 방사 왜곡은 kc1, kc2, kc3 3개의 파라미터를 이용하여 반지름 r로부터 멀어진 정도를 보정하는 반면, 접선 왜곡은 kc4, kc5 2개의 파라미터를 이용하여 이동량을 보정한다. 카메라의 왜곡을 보정하기 위한 파라미터를 계산하는 과정은 아래의 수학식 2에 따라 이루어질 수 있으며, 계산된 왜곡 보정 파라미터를 픽셀마다 적용하여 영상의 좌표를 보정할 수 있다. For correction of distortion, a radial distortion model and a tangent distortion model can be used. The radial distortion compensates the distance away from the radius r by using three parameters kc1, kc2, and kc3, while the tangent distortion compensates the amount of movement by using two parameters kc4 and kc5. The process of calculating the parameters for correcting the distortion of the camera can be performed according to Equation (2) below, and the coordinates of the image can be corrected by applying the calculated distortion correction parameters to each pixel.

[수학식 2]&Quot; (2) "

Figure pat00002
Figure pat00002

Figure pat00003
Figure pat00003

수학식 2에서 xd는 왜곡이 보정된 x 좌표, r은 중심까지의 거리, x는 왜곡 영상의 x좌표, y는 왜곡 영상의 y좌표를 의미한다.In Equation (2), xd is the x-coordinate where the distortion is corrected, r is the distance to the center, x is the x-coordinate of the distorted image, and y is the y-coordinate of the distorted image.

또한, 카메라의 사용을 위해서는 내부 파라미터와 외부 파라미터를 계산해야 한다. 이때, 카메라와 실제 지면의 좌표계 사이의 회전과 이동은 앞서 계산한 내부 파라미터와 외부 파라미터를 이용하여 수행될 수 있으며, 모든 카메라들을 같은 점으로 정렬해야만 영상이 정확하게 정합될 수 있다. In addition, internal and external parameters must be calculated to use the camera. At this time, the rotation and movement between the coordinate system of the camera and the actual ground plane can be performed using the internal parameters and the external parameters calculated above, and the images can be accurately matched only if all the cameras are aligned at the same point.

오차 보정을 진행하기 위해서는 도 1과 같이 차량을 미리 정해놓은 크기의 판 위에 배치시키게 된다. 이러한 체스 보드 형식의 판을 이용하는 이유는 영상을 정합하기 위한 정합점을 정확하게 찾을 수 있고, 정합 과정에서 이용되는 호모그래피 행렬을 통해서 정확한 호모그래피 값을 얻을 수 있기 때문이다. 아래의 수학식 3은 호모그래피 변환 행렬로서 h11, h12, h13, h14는 각각 회전, 스케일링, 늘어남(shearing), 반사(reflection)을 나타내고 h13, h23은 평행이동을 나타내며 h31, h32는 원근 변화를 나타내는 파라미터들이다. x, y는 각각의 픽셀들을 나타낸다.In order to proceed with the error correction, the vehicle is placed on a predetermined size plate as shown in FIG. The reason for using such a chess board type plate is that the matching point for matching the image can be accurately found and accurate homography value can be obtained through the homography matrix used in the matching process. (3) is a homography transformation matrix, and h11, h12, h13 and h14 represent rotation, scaling, shearing and reflection, h13 and h23 represent parallel movement, h31 and h32 represent a perspective change . x and y represent the respective pixels.

[수학식 3]&Quot; (3) "

Figure pat00004
Figure pat00004

수학식 3에서 각 영상마다 계산되는 호모그래피 파라미터를 이용하여 영상을 보정 및 정합하게 되며, 다른 카메라에서 획득되는 영상을 변환한 뒤 변환된 영상을 기준으로 위치를 맞추어 정합하게 된다. 정합이 완료되면 차량 주변을 확인할 수 있는 탑뷰 영상이 생성된다.In Equation (3), the image is corrected and matched using the homography parameters calculated for each image, and the images obtained from the different cameras are converted, and the images are matched based on the converted image. When the matching is completed, a top view image is generated to confirm the vicinity of the vehicle.

도 2는 제안하는 실시 예에 따른 차선 인식 장치의 구성을 도시하는 블록도이다. 도 2의 차선 인식 장치는 앞서 도 1에서 설명한 바에 따른 탑뷰 영상을 이용하여 차선을 인식하는 장치의 구체적인 구성들을 도시한다. 일 예에 의한 차선 인식 장치(1000)는 영상 촬영부(110), 영상 처리부(120), 영상 정합부(130), 주행 판단부(140), 주행차선 인식부(150), 주차선 인식부(160) 및 제어부(170)로 구성될 수 있으나, 이러한 구성에만 한정되는 것은 아니고 다른 범용적인 구성을 더 포함할 수도 있다.2 is a block diagram showing a configuration of a lane recognizing apparatus according to the proposed embodiment. The lane recognizing device of FIG. 2 shows specific configurations of a device for recognizing a lane using the top view image described above with reference to FIG. The lane recognizing apparatus 1000 according to an exemplary embodiment includes an image photographing unit 110, an image processing unit 120, an image matching unit 130, a travel determining unit 140, a driving lane recognizing unit 150, (160) and a controller (170). However, the present invention is not limited to such a configuration, and may further include other general configurations.

한편, 이하에서 '차선'이라 함은 차량의 주행시에 차량 주변에 존재하는 주행 차선과 차량의 주차시에 차량 주변에 존재하는 주차선을 모두 포함하는 의미로 사용한다. Hereinafter, the term " lane " is used to mean both a driving lane existing around the vehicle when driving the vehicle and a parking line existing around the vehicle when the vehicle is parked.

차선 인식 장치(1000)는 자율주행 차량(지능형 차량, 스마트카)에 탑재되어 탑뷰 영상을 획득하고 처리하여 주행과 주차를 보조하는 장치이다. 이하에서는 도 1에 도시된 차선 인식 장치(1000)의 구성요소들을 예로 들어 차선 인식 장치(1000)의 구체적인 동작에 대해 설명한다.The lane recognizing apparatus 1000 is a device mounted on an autonomous driving vehicle (intelligent vehicle, smart car) to acquire and process a top view image to assist driving and parking. Hereinafter, the specific operation of the lane recognizing apparatus 1000 will be described taking the components of the lane recognizing apparatus 1000 shown in FIG. 1 as an example.

먼저, 영상 촬영부(110)는 차량에 설치되어 영상을 촬영하는 촬영 수단(예를 들어, 카메라)을 의미한다. 차선 인식 장치(1000)는 복수의 영상 촬영부(110)를 포함할 수 있으며, 각각의 영상 촬영부(110)는 차량의 전후좌우 4방향에 장착되어 각각 서로 다른 방향으로 차량 주변을 촬영한다. 영상 촬영부(110)는 차량 주변을 촬영함으로써 영상 데이터를 생성할 수 있다.First, the image capturing unit 110 refers to an image capturing unit (e.g., a camera) installed in a vehicle and capturing an image. The lane recognizing apparatus 1000 may include a plurality of image capturing units 110. Each of the image capturing units 110 is mounted in four directions of front, rear, left, and right of the vehicle, and photographs the surroundings of the vehicle in different directions. The image capturing unit 110 can generate image data by photographing the surroundings of the vehicle.

영상 처리부(120)는 영상 촬영부(110)가 촬영하여 생성된 영상들이 정합될 수 있도록 영상 데이터를 처리하거나 보정한다. 영상 처리부(120)는 앞서 도 1에서 설명한 바와 같이 영상의 왜곡을 보정할 수도 있으며, 영상의 화질을 개선하거나 잡음을 제거하기 위한 전처리 과정을 수행할 수도 있다. 또한, 영상 처리부(120)는 영상의 크기를 조절하거나 기울기를 조절하는 방식을 통해서 영상 데이터를 처리할 수도 있다.The image processing unit 120 processes or corrects the image data so that the images captured by the image capturing unit 110 can be registered. The image processor 120 may correct image distortion as described above with reference to FIG. 1, and may perform a preprocessing process to improve image quality or remove noise. Also, the image processing unit 120 may process the image data through a method of adjusting the size of the image or adjusting the tilt.

영상 정합부(130)는 복수의 영상 촬영부(110)들이 촬영한 영상 데이터를 정합하여 탑뷰 영상을 생성한다. 탑뷰 영상은 차량의 전후좌우에 배치된 영상 촬영부(110)들이 촬영한 영상을 파노라마 형태로 이어붙이는 방식으로 생성될 수 있다. 생성된 탑뷰 영상은 데이터의 형태로 저장될 수 있으며, 차선 인식 장치(1000)가 주행차선과 주차선을 인식하는 기준이 된다. The image matching unit 130 matches the image data captured by the plurality of image capturing units 110 to generate a top view image. The top view image can be generated in such a way that the images taken by the image capturing units 110 arranged on the front, rear, left and right sides of the vehicle are connected in a panoramic form. The generated top view image may be stored in the form of data, and the lane recognition device 1000 is a reference for recognizing the driving lane and the parking line.

주행 판단부(140)는 차선 인식 장치(1000)가 탑재된 차량이 주행 중인지 주차 중인지 판단한다. 차량의 주행여부와 주차여부는 차량의 이동 속도, 차량의 기어 상태, 운전자의 주행 패턴 등 다양한 정보로부터 판단될 수 있으며, 주행 판단부(140)는 차량에 탑재된 여러 가지 센서로부터 데이터를 수집하여 차량의 주행여부와 주차여부를 판단한다. The travel determining unit 140 determines whether the vehicle on which the lane recognizing apparatus 1000 is mounted is traveling or parked. Whether or not the vehicle is traveling and whether or not the vehicle is parked can be determined from various information such as the moving speed of the vehicle, the gear state of the vehicle, and the driving pattern of the driver. The travel determining unit 140 collects data from various sensors mounted on the vehicle Determine whether the vehicle is traveling or not.

주행차선 인식부(150)는 차량이 주행 중인 경우 영상 정합부(130)에 의해 생성된 탑뷰 영상을 분석하여 주행 차선을 인식한다. 주행 차선은 차량의 주행 시에 차량의 양 옆에 위치하여 차로를 구분하는 선을 의미하며, 실선 또는 점선일 수 있다. 주행차선 인식부(150)는 점선과 실선을 구분하여 인식할 수 있으며, 점선인 경우에는 실선과 달리 차량이 옆 차로로 차선을 변경할 수 있다.The driving lane recognizing unit 150 recognizes the driving lane by analyzing the top view image generated by the image matching unit 130 when the vehicle is running. A driving lane means a line which is located on both sides of the vehicle when the vehicle is running and separates the lane, and may be a solid line or a dotted line. The driving lane recognizing unit 150 can distinguish between a dotted line and a solid line, and in the case of a dotted line, the vehicle can change lanes to a side lane unlike a solid line.

주차선 인식부(160)는 차량이 주차 중인 경우 영상 정합부(130)에 의해 생성된 탑뷰 영상을 분석하여 주차선을 인식한다. 주차선은 차량의 주차시에 주차 공간을 구분하기 위한 선을 의미한다. 한편, 차량은 주차선으로 구분된 공간에만 주차하는 것이 아니라 주차선이 없는 공간에도 주차하는 경우가 발생할 수 있다. 주차선 인식부(160)는 주차선이 없는 경우이지만 차량이 주차 중인 것으로 판단되는 경우, 주차선 없이도 주차공간을 인식하여 차량의 주차를 보조한다. 구체적인 내용은 후술한다.The parking line recognizing unit 160 recognizes the parking line by analyzing the top view image generated by the image matching unit 130 when the vehicle is parked. The parking line means a line for identifying a parking space when the vehicle is parked. On the other hand, a vehicle may be parked in a space without a parking line, not in a parking space divided by a parking line. The parking line recognizing unit 160 recognizes the parking space even when there is no parking line but the parking lot is not parked when it is judged that the vehicle is parked. Details will be described later.

제어부(170)는 차선 인식 장치(1000)가 그 기능과 목적에 따라 동작하기 위하여 구성요소들 간의 유기적인 동작을 전반적으로 제어한다. 예를 들어, 제어부(170)는 영상 촬영부(110)가 촬영한 영상 데이터를 정합하도록 영상 정합부(130)를 제어하거나, 주행 판단부(140)가 차량이 주행중인 것으로 판단한 경우 주행차선 인식부(150)를 제어하여 차량 주변의 차선을 인식하게끔 제어할 수 있다. The control unit 170 controls overall operation of the lane recognition apparatus 1000 between the components so that the lane recognizing apparatus 1000 operates according to its function and purpose. For example, when the control unit 170 controls the image matching unit 130 to match the image data photographed by the image capturing unit 110, or when the driving determination unit 140 determines that the vehicle is running, The control unit 150 can be controlled to recognize the lane around the vehicle.

도 3은 제안하는 실시 예에 따른 영상 촬영 과정을 설명하는 도면이다. 도 3에 도시된 바와 같이, 차량(300)의 전후좌우 4방향을 따라 4개의 영상 촬영부들이 배치되면, 각각의 영상 촬영부는 서로 다른 방향으로 촬영을 하여 영상 데이터를 생성한다. 서로 다른 방향을 향해 촬영한 영상(310, 320, 330, 340)들은 영상 처리부에 의해 보정 및 처리된 후 정합되며, 차선 인식 장치는 정합을 거쳐 탑뷰 영상을 획득하게 된다. FIG. 3 is a view for explaining an image capturing process according to the embodiment of the present invention. As shown in FIG. 3, when four image radiographing units are arranged along the front, back, right, and left four directions of the vehicle 300, each image radiographing unit captures images in different directions to generate image data. The images 310, 320, 330 and 340 photographed in different directions are corrected and processed by the image processor, and then registered. The lane recognition device acquires the top view image through matching.

이하에서는 앞서 설명한 구성요소들을 통해서 차선 인식 장치가 주행차선과 주차선을 인식하는 구체적인 과정에 대해 설명한다. 먼저 도 4를 통해 주행차선을 인식하는 과정을 설명하고, 이어서 도 5 내지 도 7을 통해서 주차선을 인식하는 과정을 설명한다. Hereinafter, a detailed process of recognizing the driving lane and the parking line by the lane recognizing device through the above-described components will be described. First, a process of recognizing a driving lane will be described with reference to FIG. 4, and a process of recognizing a parking line will be described with reference to FIGS. 5 to 7. FIG.

도 4는 제안하는 실시 예에 따른 주행 차선 인식 과정을 설명하는 도면이다. 일반적인 도로의 경우, 차선은 흰색이나 노란색 등의 원색 계열이며 도로에는 두개 이상의 차선이 존재한다. 차량 양옆의 두 차선이 직선이고 서로 평행한 경우, 두 개의 차선은 차량 정면에 위치하는 하나의 소실점에서 만나게 된다. 4 is a view for explaining a driving lane recognition process according to the embodiment of the present invention. In the case of ordinary roads, the lanes are primary colors such as white or yellow, and there are two or more lanes on the road. If two lanes on either side of the vehicle are straight and parallel to each other, the two lanes meet at a vanishing point located in front of the vehicle.

제안하는 실시 예에 의하면, 차선 인식 장치는 이러한 차선의 특징을 이용하여 주행 차선을 인식한다. 먼저, 차선 인식 장치는 탑뷰 영상에서 경계를 검출하여 차선이 있는 후보지역을 관심영역으로 지정한 뒤 차선 후보점을 추출한다. 관심영역(ROI, Region of Interest)은 탑뷰 영상에서 차선이 등장하는 부분부터 소실점까지의 영역을 포함할 수 있으며, 차선 인식 장치는 관심영역에 해당하는 영상을 그레이스케일(gray scale) 영상으로 변환한 뒤 잡음 제거를 위한 가우시안 커널(Gaussian Kernel)의 컨벌루션 연산을 수행한다. According to the proposed embodiment, the lane recognizing device recognizes the driving lane using the feature of the lane. First, the lane recognition apparatus detects a boundary in a top view image, designates a candidate area having a lane as an area of interest, and extracts a lane candidate point. The region of interest (ROI) may include an area ranging from a portion where a lane appears to a vanishing point in a top view image, and the lane recognizing device may convert an image corresponding to a region of interest into a gray scale image Convolution of the Gaussian kernel for back-noise cancellation is performed.

차선 인식 장치가 관심영역 영상으로부터 차선을 추출하기 위해 경계를 검출하게 되는데, 차선 인식 장치는 경계 검출 과정에서 찾은 점들 중 같은 y축 값을 갖는 두 점 (예를 들어, a(ax, ay), b(bx, ay))을 골라 두 점간의 거리가 차선의 폭(w)을 만족하는지 확인한다. 두 점간의 거리는 wab=bx-ax로 표현될 수 있다. 미리 설정된 값인 차선의 폭과의 오차가 임계값 미만인 두 점이 감지되면, 차선 인식 장치는 두 점이 위치하는 경계의 강도와 방향을 비교하여, 두 경계의 강도가 유사하고 방향이 반대일 때 차선으로 인식하며, 선택된 두 점의 중점을 차선의 후보점으로 결정한다. The lane recognizing device detects a boundary in order to extract a lane from the ROI image. The lane recognizing device detects two points (for example, a (ax, ay), b (bx, ay)) to see if the distance between two points satisfies the width of the lane (w). The distance between two points can be expressed as wab = bx-ax. If two points with an error between the width of the lane, which is a preset value, are less than the threshold value, the lane recognizing device compares the strength and direction of the boundary where the two points are located and recognizes the lane when the strengths of the two boundaries are similar, And the midpoint of the two selected points is determined as a candidate point of the lane.

[수학식 4]&Quot; (4) "

Figure pat00005
Figure pat00005

수학식 4는 상술한 후보점의 좌표를 의미한다. 한편, 차선 인식 장치는 차선에 위치하는 것으로 선택된 후보점들을 이용하여 확률적 허프 변환(PHT, Probabilistic Hough Transform)을 수행한 뒤, RANSAC 알고리즘을 적용하여 소실점으로 향하는 선분들만 추출한다. 이러한 과정을 통해서 탑뷰 영상으로부터 차선이 추출될 수 있다.Equation (4) means coordinates of the above-mentioned candidate point. On the other hand, the lane recognition apparatus performs Probabilistic Hough Transform (PHT) using candidate points selected to be located in the lane, and then extracts only the lines toward the vanishing point by applying the RANSAC algorithm. Through this process, lanes can be extracted from the top view image.

한편, 차선이 실선인 경우 연속적으로 소실점까지 이어지지만 점선인 경우 일정한 간격으로 차선이 끊어진다. 확률적 허프 변환에 의하면 일정한 길이 이상의 선분만 검출되며, 차선 인식 장치는 확률적 허프 변환을 수행한 이후 추출된 선분이 소정의 픽셀(예를 들어, 30픽셀) 이상 이어지는 경우 실선으로 결정하고, 그렇지 않은 경우 점선으로 결정한다. 이때, 점선 차선의 길이 자체보다는 외부 오차를 보정하는 것이 더 중요할 수 있기 때문에, 차선 인식 장치는 실제 검출되는 점선 보다 소정의 정도로 작은 크기의 선부터 점선으로 인식할 수 있다.On the other hand, if the lane is a solid line, it continues to the vanishing point, but if it is a dotted line, the lane is broken at regular intervals. According to the probabilistic Hough transform, only a line segment having a predetermined length or more is detected, and the lane recognizing device determines a solid line when the extracted line segment exceeds a predetermined pixel (for example, 30 pixels) after performing the probabilistic Hough transform. If not, it is decided by dotted line. At this time, since it may be more important to correct the external error than the length of the dotted lane itself, the lane recognizing device can recognize the dotted line from a line having a size smaller than the actually detected dotted line.

한편, 검출된 차선이 실선으로 결정된 경우 차선 인식 장치는 탑재된 차량이 차선을 변경하지 않게끔 신호를 전송할 수 있으며, 반대로 점선으로 결정된 경우 차선 인식 장치는 탑재된 차량이 차선을 변경하는 것을 허용할 수도 있다. On the other hand, when the detected lane is determined to be a solid line, the lane recognizing device can transmit a signal such that the mounted vehicle does not change the lane. On the other hand, when the lane recognizing device determines that the lane recognizing device determines that the lane is recognized, It is possible.

이어서, 도 5 내지 도 7은 제안하는 실시 예에 따른 주차선 인식 과정을 설명하는 도면이다. 도 5에는 차량 뒷편의 장애물을 감지하기 위한 탑뷰 영상이 도시된다. 일반적으로, 주차선 또한 도로의 차선과 유사하게 흰색이나 노란색 등의 원색인 것이 대부분이다. 또한, 주차공간은 직사각형이나 평행사변형의 형태를 가지고 있으며, 일정한 간격을 두고 연속적으로 존재한다. 5 to 7 are views for explaining a parking line recognizing process according to the embodiment of the present invention. 5 shows a top view image for detecting an obstacle behind the vehicle. Generally, parking lots are mostly primary colors, such as white or yellow, similar to road lanes. Further, the parking space has a shape of a rectangle or a parallelogram, and exists continuously at regular intervals.

도 6은 다양한 형태의 주차공간을 도시하며, 도 6에서 흰색은 주차선을 나타내고 검은색은 주차공간을 의미한다. Fig. 6 shows various types of parking spaces. In Fig. 6, white indicates parking lines and black indicates parking spaces.

도 6(a), 6(b)와 같이 직사각형 형태의 주차공간의 경우, 차선 인식 장치는 주차선들이 구성하는 직사각형의 꼭지점들의 각이 90'를 갖는 후보영역을 검출한다. 도 6(c)와 같이 평행사변형 형태의 주차공간의 경우, 차선 인식 장치는 주차선들이 구성하는 평행사변형의 꼭지점들의 각이 소정의 기결정된 각도 범위 내에 존재하는 후보영역을 검출한다. 이어서, 차선 인식 장치는 차량의 현재 위치에서 가깝고 후보영역에 장애물이 없는 영역을 주차공간으로 인식하게 된다. In the case of a rectangular parking space as shown in Figs. 6 (a) and 6 (b), the lane recognizing device detects a candidate area in which the angles of the rectangle vertices constituted by the parking lines have 90 '. In the case of the parking space of the parallelogram shape as shown in FIG. 6 (c), the lane recognizing device detects a candidate area in which the angles of the vertexes of the parallelogram formed by the parking lines are within a predetermined predetermined angle range. Then, the lane recognizing device recognizes an area that is close to the current position of the vehicle and has no obstacle in the candidate area as a parking space.

앞서 설명한 꼭지점을 검출하는 과정은 Harris Corner 알고리즘에 의해 수행될 수 있다. 이러한 과정은 탑뷰 영상 상에서 1픽셀씩 이동할 때 영상변화량 E가 지역적으로 극대가 되는 방식으로 이해될 수 있으며, 아래의 수학식 5에 따라 수행될 수 있다. The process of detecting the vertices described above can be performed by the Harris Corner algorithm. This process can be understood as a method in which the image change amount E becomes locally maximized when moving by 1 pixel on the top view image, and can be performed according to the following equation (5).

[수학식 5]&Quot; (5) "

Figure pat00006
Figure pat00006

수학식 5에서 I(x,y)는 이미지에서의 x, y의 좌표를 의미하며 W는 로컬 윈도우를 의미한다.In Equation (5), I (x, y) denotes coordinates of x and y in the image, and W denotes a local window.

한편, 수학식 5에서 이동량이 매우 작다고 가정하고 I를 미분하여 선형적으로 근사화하는 과정을 거치면 아래의 수학식 6이 도출된다. On the other hand, assuming that the amount of movement is very small in Equation (5), if I is differentiated and linearly approximated, the following Equation (6) is derived.

[수학식 6]&Quot; (6) "

Figure pat00007
Figure pat00007

수학식 5와 수학식 6으로부터 아래의 수학식 7이 도출되며, From Equation (5) and Equation (6), the following Equation (7) is derived,

[수학식 7]&Quot; (7) "

Figure pat00008
Figure pat00008

수학식 7로부터 아래의 수학식 8이 유도된다.From Equation (7), the following Equation (8) is derived.

[수학식 8]&Quot; (8) "

Figure pat00009
Figure pat00009

수학식 8의 유도된 2x2 행렬의 고유값을 λ1, λ2 라 할 때, 영상 변화량은 λ1의 고유벡터 방향으로 이동할 때 최대가 되고 λ2의 고유벡터 방향으로 이동할 때 최소가 된다. 두 고유값을 구했을 때 두 값이 모두 큰 경우의 지점이 꼭지점이 결정된다.When the eigenvalues of the derived 2x2 matrix of Equation (8) are denoted by [lambda] 1 and [lambda] 2, the amount of image change becomes maximum when moving in the direction of the eigenvector of [lambda] 1 and minimized when moving in the direction of the eigenvector of [lambda] 2. When two eigenvalues are obtained, the vertex is determined when the two values are both large.

어느 하나의 꼭지점이 결정되면, 검출된 꼭지점의 가로 방향과 세로 방향에 존재하는 다른 꼭지점은 쉽게 검출될 수 있다. 차선 인식 장치는 어느 하나의 꼭지점의 픽셀 값을 계산한 뒤 가로 방향의 두 인접한 꼭지점 중에서 먼 꼭지점과 연결하여 직선을 형성하고 세로 방향의 두 인접한 꼭지점 중에서 가까운 꼭지점과 연결하여 직선을 형성함으로써, 주차가 가능한 후보영역을 사각형으로 검출할 수 있다. If any one vertex is determined, other vertexes present in the horizontal and vertical directions of the detected vertex can be easily detected. The lane recognizing device calculates a pixel value of one of the vertexes and forms a straight line connecting the distant vertexes of two adjacent vertexes in the horizontal direction to form a straight line connecting the vertexes of two adjacent vertexes in the vertical direction, A possible candidate region can be detected as a rectangle.

도 7은 앞서 도 6과는 달리 주차선이 없는 경우에도 차선 인식 장치가 주차공간을 인식하는 과정을 나타낸다. 차선 인식 장치는 주차선이 없는 지역이라 하더라도 주행 판단부에 의해서 차량이 주차 중인 것으로 결정할 수 있으며, 이에 따라 주변의 주차 공간을 인식할 수 있다. 주차선이 없는 경우에 주차공간을 인식하기 위해서는 장애물과 차량 간의 거리를 측정하는 스테레오(stereo) 알고리즘이 사용된다. FIG. 7 shows a process of recognizing a parking space even if there is no parking line, unlike FIG. The lane recognizing device can determine that the vehicle is parked by the travel judging unit even in an area where there is no parking line, thereby recognizing the surrounding parking space. To recognize the parking space in the absence of a parking line, a stereo algorithm is used to measure the distance between the obstacle and the vehicle.

차선 인식 장치가 탑뷰 영상을 획득하기 위해 영상을 정합하는 과정에서, 특정 카메라가 촬영한 영상은 인접한 다른 두 카메라가 촬영한 영상과 겹치는 부분이 일부 발생하게 된다. 이러한 겹치는 부분에 대해서 삼각측량법에 기초한 스테레오 알고리즘을 적용하면, 겹치는 부분의 좌표계가 2차원에서 3차원으로 변환되어 주변의 차량이나 장애물이 얼마나 떨어져있는지 확인할 수 있게 된다.In the process of matching the images to obtain the top view image, the lane recognition device partially overlaps with the images captured by the other two cameras captured by the specific camera. Applying a stereo algorithm based on the triangulation method on the overlapping part, the coordinate system of the overlapping part is converted from two dimensions to three dimensions, so that it is possible to check how far the vehicle or obstacle around it is separated.

일반적으로 차량에 부착된 카메라가 가장 많이 획득하는 정보는 도로 노면의 색상 정보이므로, 촬영된 영상에서 획득되는 픽셀의 RGB 값 중 가장 많이 차지하는 값이 도로의 색상이 되고 주차가 가능한 후보 영역이 될 수 있다. 주차선이 없는 경우 평행주차일 가능성이 높다는 점을 고려하면, 차선 인식 장치는 후진 평행주차에 요구되는 최소 공간을 계산하고 스테레오 알고리즘을 이용해 검출된 후보 영역과 비교하여 주차가 가능한 경우 주차를 진행할 수 있다. Generally, since the information acquired most by the camera attached to the vehicle is the color information of the road surface, the RGB value of the pixel acquired from the captured image becomes the color of the road, have. Considering that there is a high likelihood of parallel parking in the absence of a parking line, the lane recognition device may calculate the minimum space required for the backward parallel parking and compare it with the detected candidate area using the stereo algorithm, have.

한편, 도 7에 도시된 스테레오 알고리즘에 대해 구체적으로 설명하면, 차선 인식 장치는 카메라와 물체 사이의 거리를 아래의 수학식 9에 따라 계산한다.On the other hand, the stereo algorithm shown in FIG. 7 will be described in detail. The lane recognition device calculates the distance between the camera and the object according to Equation (9) below.

[수학식 9] &Quot; (9) "

Figure pat00010
Figure pat00010

수학식 9는 삼각함수에 의해 유도되는 식으로, 각 파라미터는 도 7에 도시된 길이 또는 각도를 의미한다. 수학식 9와 피타고라스의 정리에 의해 θ1을 다음의 수학식 10과 같이 정리할 수 있으며, θ2에 대해서도 유사한 방식이 적용된다.Equation 9 is derived by a trigonometric function, and each parameter means the length or angle shown in Fig. According to the theorem of Equation (9) and Pythagoras,? 1 can be summarized as the following Equation (10), and a similar method is applied to? 2.

[수학식 10]&Quot; (10) "

Figure pat00011
Figure pat00011

두 각도 θ1, θ2에 대해서는 다음의 수학식 11과 같이 정리된다.The two angles &thetas; 1 and &thetas; 2 are summarized as the following equation (11).

[수학식 11]&Quot; (11) "

Figure pat00012
Figure pat00012

Figure pat00013
Figure pat00013

수학식 11에 기초하면 카메라와 물체 간의 거리 d는 아래의 수학식 12와 같이 정리된다.Based on Equation (11), the distance d between the camera and the object is expressed by Equation (12) below.

[수학식 12]&Quot; (12) "

Figure pat00014
Figure pat00014

따라서, 차량이 주차를 위해 필요한 공간을 미리 차량의 크기에 따라 지정해두고, 탑뷰 영상에 스테레오 알고리즘을 적용함으로써 주차 가능한 공간을 지속적으로 탐색할 수 있다. Therefore, the parking space can be constantly searched by applying the stereo algorithm to the top view image, with the space required for parking the vehicle in advance according to the size of the vehicle.

도 8은 제안하는 실시 예에 따른 차선 인식 방법을 도시하는 흐름도이다. 도 8에서는 차선 인식 장치가 앞서 설명한 실시 예들에 따라 동작하는 과정을 시계열적인 흐름에 따라 도시한다. 따라서, 도 8에 구체적인 설명이 생략되더라도 앞서 도 2 내지 도 7에서 설명한 내용들이 동일한 취지로 적용될 수 있음은 물론이다.8 is a flowchart showing a lane recognition method according to the proposed embodiment. FIG. 8 shows a process of the lane recognizing device operating according to the above-described embodiments according to a time series flow. Therefore, although the detailed description is omitted in FIG. 8, it is needless to say that the description of FIGS. 2 to 7 may be applied to the same points.

차선 인식 장치는 차량의 주행이 시작되면(S810), 차량이 일정 속도 이상으로 주행하는지 판정한다(S820). 차량이 일정한 속도 이상으로 주행한다는 것은 도로에서 주행하는 것을 의미할 수 있으며, 일정한 속도 미만으로 주행한다는 것은 주차 중인 것을 의미할 수 있다. 앞서 설명했듯이 주행과 주차를 구분하는 기준은 속도 외에도 기어 상태, 운전자의 주행 패턴 등이 추가적으로 더 고려될 수 있음은 물론이다. When the vehicle starts running (S810), the lane recognizing device determines whether the vehicle is traveling at a constant speed or more (S820). Driving above a certain speed may mean traveling on the road, while driving below a certain speed may mean parking. As described above, it is needless to say that the criteria for distinguishing between driving and parking can be further considered in addition to the speed, the gear state, and the driving pattern of the driver.

이어서, 차선 인식 장치는 차량이 일정속도 이상으로 도로를 주행하고 있다고 판단한 경우, 탑뷰 영상을 분석하여 주행 차선을 인식하는 과정을 진행한다(S830). 탑뷰 영상은 차량에 배치된 4개 이상의 카메라로부터 획득된 영상이 정합되어 생성될 수 있으며, 차선 인식 장치는 탑뷰 영상에서 관심영역을 추출함으로써 주행 차선을 인식할 수 있다. 한편, 차선 인식 장치는 인식된 차선을 실선과 점선으로 구분할 수 있으며(S840), 실선인지 점선인지 여부에 따라 차선 인식 장치이 탑재된 차량이나 차량의 운전자에게 주행 차로 변경 가능 여부를 시각적 또는 청각적으로 알려줄 수도 있다.If the lane recognizing device determines that the vehicle is traveling on the road at a predetermined speed or more, the lane recognizing device analyzes the top view image to recognize the driving lane (S830). The top view image can be generated by matching images obtained from four or more cameras disposed in the vehicle, and the lane recognition device can recognize the driving lane by extracting the area of interest from the top view image. On the other hand, the lane recognizing device can distinguish the recognized lane by the solid line and the dotted line (S840). The lane recognizing device can visually or audibly inform the driver of the vehicle or the vehicle equipped with the lane recognizing device whether the lane recognizing device can be changed You can tell.

차선 인식 장치는 차선을 인식한 뒤 일정 속도 이상으로 주행하는지 지속적으로 판단하며(S850), 이러한 과정은 앞서 S820의 과정과 동일하게 수행된다. 한편, 판단결과 차량이 일정 속도 미만으로 주행하여 주차 중인것으로 판단되는 경우, 차선 인식 장치는 탑뷰 영상을 분석하여 주차선을 인식한다(S860). The lane recognizing device continuously recognizes whether the vehicle is traveling at a constant speed or more after recognizing the lane (S850), and the process is performed in the same manner as the process of S820. On the other hand, if it is determined that the vehicle travels less than the predetermined speed and is parked, the lane recognizing device analyzes the top view image to recognize the parking line (S860).

주차선을 인식하는 과정은 앞서 설명했듯이 주차가 가능한 후보 영역의 꼭지점들을 추출함으로써 수행될 수 있으며, 차선 인식 장치는 주차선을 통해서 확인된 후보 영역 중 장애물이 없어 주차가 가능한 공간으로 차량이 이동하게끔 한다(S870). 주차가 완료되면 차량의 주행이 종료된다(S880). 한편, 주차선이 없는 경우에도 주차가 가능한 공간을 확인할 수 있음은 앞서 설명한 바 있으며, 차선 인식 장치는 S860 및 S870 과정에서 주차 공간이 없더라도 주차가 가능한 후보 영역을 검출하고 운전자나 차량에게 알림을 제공할 수 있다. As described above, the process of recognizing the parking line can be performed by extracting the vertices of the candidate area that can be parked, and the lane recognition device allows the vehicle to move to a parking space where there is no obstacle among the candidate areas identified through the parking line (S870). When parking is completed, the running of the vehicle is terminated (S880). In the meantime, the lane recognizing device detects a candidate area in which parking is possible even if there is no parking space in steps S860 and S870, and provides a notification to the driver or the vehicle can do.

한편, 도 8에서 설명한 차선 인식 방법은 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터 판독 가능 매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 또한, 상술한 방법에서 사용된 데이터의 구조는 컴퓨터 판독 가능 매체에 여러 수단을 통하여 기록될 수 있다. 본 발명의 다양한 방법들을 수행하기 위한 실행 가능한 컴퓨터 프로그램이나 코드를 기록하는 기록 매체는, 반송파(carrier waves)나 신호들과 같이 일시적인 대상들은 포함하는 것으로 이해되지는 않아야 한다. 상기 컴퓨터 판독 가능 매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드 디스크 등), 광학적 판독 매체(예를 들면, 시디롬, DVD 등)와 같은 저장 매체를 포함할 수 있다.Meanwhile, the lane recognition method described in Fig. 8 can be implemented in a general-purpose digital computer that can be created as a program that can be executed in a computer and operates the program using a computer-readable medium. Further, the structure of the data used in the above-described method can be recorded on a computer-readable medium through various means. Recording media that record executable computer programs or code for carrying out the various methods of the present invention should not be understood to include transient objects such as carrier waves or signals. The computer-readable medium may comprise a storage medium such as a magnetic storage medium (e.g., ROM, floppy disk, hard disk, etc.), optical readable medium (e.g., CD ROM, DVD, etc.).

도 9는 제안하는 실시 예에 대한 시뮬레이션 과정을 설명하는 도면이다. 도 9는 이상에서 설명한 차선 인식 장치의 동작 과정을 시뮬레이션 한 결과를 도시하며, 도 9의 시뮬레이션 과정에서는 1/3.6' CMOS, 화각 185', 해상도 640*480의 파라미터를 갖는 카메라와 일반적인 국내 준중형 차량의 파라미터를 갖는 차량을 가정하여 시뮬레이션하였다. 차선은 도로교통법을 기준으로 폭 15cm, 주차선은 건축법에 따라 가로 5m, 세로 2.3m를 조건으로 하여 시뮬레이션하였다.9 is a diagram for explaining a simulation process for the proposed embodiment. 9 shows a simulation result of the operation of the lane recognizing apparatus described above. In the simulation process of FIG. 9, a camera having a parameter of 1 / 3.6 'CMOS, an angle of view 185', a resolution of 640 * 480, Of the vehicle. The lane was simulated with a width of 15cm on the basis of the Road Traffic Act and a length of 5m and a length of 2.3m according to the building method.

도 9(a) 및 도 9(b)를 살펴보면, 앞서 설명한 차선 인식 장치와 방법에 의해 탑뷰 영상을 이진화한 뒤 소실점을 제거하고 차선으로 인식되는 영역을 빨간색 선으로 표시된 것을 확인할 수 있다. 도 9(a)의 직진 차선뿐 아니라 도 9(b)의 코너 차선 또한 감지되며, 코너 차선의 경우 차선이 두 개의 소실점을 통해 사라진다는 점을 고려하여 시뮬레이션하였다. 9A and 9B, the binocular image is binarized by the above-described lane recognizing apparatus and method, and the area disappearing from the vanishing point and recognized as a lane can be confirmed by a red line. In addition to the straight lane in FIG. 9 (a), corner lanes in FIG. 9 (b) are also sensed, and in the case of a corner lane, the lane disappears through two vanishing points.

도 9(c)는 주차선에 대한 시뮬레이션 결과를 도시하며, 주차선은 직사각형 또는 평행사변형을 구성한다는 점을 고려하여 시뮬레이션하였다. 제안하는 차선 인식 장치와 방법에 따라 주차선이 정확하게 인식되어 빨간색으로 출력됨을 확인할 수 있다. FIG. 9 (c) shows a simulation result for a parking line, and simulation is performed by considering that a parking line constitutes a rectangular or parallelogram. According to the proposed lane recognition device and method, it is confirmed that the parking line is correctly recognized and outputted in red.

도 10은 제안하는 실시 예에 대한 실제 도로 실험 과정을 설명하는 도면이다. 도 10에서는 도 9의 시뮬레이션과 동일한 파라미터의 카메라와 RC카(L490XW380XH280, 모터 BLDC 540급)를 이용하여 실제 실험을 수행한 결과가 도시된다.10 is a view for explaining an actual road test procedure for the proposed embodiment. In FIG. 10, there is shown a result of performing an actual experiment using a camera with the same parameters as the simulation of FIG. 9 and an RC car (L490XW380XH280, motor BLDC 540 class).

실제 실험 과정에서 알고리즘의 반응 속도는 약 60km/h 로 주행하는 차량에서도 문제 없이 차선을 인식하였으며, 그 결과가 도 10(a)에 도시된다. 도 10(a)에서 확인할 수 있듯이, 노란색 실선과 흰색 점선 차선 모두 정상적으로 인식됨을 알 수 있다. In the actual experiment, the reaction speed of the algorithm was recognized without any problem even in a vehicle traveling at about 60 km / h, and the result is shown in FIG. 10 (a). As can be seen from Fig. 10 (a), it can be seen that both the yellow solid line and the white dotted lane are normally recognized.

도 10(b) 및 도 10(c)에서는 주차선을 인식한 결과와 주차선이 없는 경우의 주차공간 인식 결과가 각각 도시된다. 주차 시에는 10km/h의 속도로 진행하는 차량을 기준으로 실험하였으며, 주차가 불가능한 영역은 빨간색으로, 차량과 가깝고 주차가 가능한 후보 영역이 감지되면 화면 상에 초록색 선을 표시하여 주차 가능한 공간을 알리도록 하였다.10 (b) and 10 (c) show the result of recognizing the parking line and the result of recognizing the parking space when there is no parking line. In the case of parking, the experiment was conducted based on the vehicle running at a speed of 10 km / h. The area where the parking is not possible is red. When the candidate area where the parking is possible is detected, the green line is displayed on the screen, Respectively.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.It will be understood by those skilled in the art that the foregoing description of the present invention is for illustrative purposes only and that those of ordinary skill in the art can readily understand that various changes and modifications may be made without departing from the spirit or essential characteristics of the present invention. will be. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. For example, each component described as a single entity may be distributed and implemented, and components described as being distributed may also be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is defined by the appended claims rather than the detailed description and all changes or modifications derived from the meaning and scope of the claims and their equivalents are to be construed as being included within the scope of the present invention do.

110: 영상 촬영부 120: 영상 처리부
130: 영상 정합부 140: 주행 판단부
150: 주행차선 인식부 160: 주차선 인식부
110: image capturing unit 120:
130: image matching unit 140:
150: driving lane recognition unit 160: parking line recognition unit

Claims (7)

차선 인식 장치가 탑뷰(top view) 영상을 활용하여 차선을 인식하는 방법에 있어서,
상기 차선 인식 장치가 탑재된 차량에 구비된 복수의 카메라로부터 각각 서로 다른 방향에 대해 촬영된 영상들을 획득하는 단계;
상기 복수의 카메라가 촬영한 영상들을 정합하여 상기 차량의 탑뷰 영상을 생성하는 단계;
상기 차량이 주행 중인 것으로 판단되는 경우, 상기 탑뷰 영상을 이용하여 주행 차선을 검출하는 단계; 및
상기 차량이 주차 중인 것으로 판단되는 경우, 상기 탑뷰 영상을 이용하여 주차선을 검출하는 단계를 포함하고,
상기 주행 차선은 실선 또는 점선이며, 상기 주행 차선이 실선으로 검출된 경우 상기 차량의 차로 변경이 불가능함을 알리고 상기 주행 차선이 점선으로 검출된 경우 상기 차량의 차로 변경이 허용됨을 알리는 것인, 차선 인식 방법.
A method for recognizing a lane by using a top view image of a lane recognition device,
Acquiring images photographed in different directions from a plurality of cameras provided in a vehicle equipped with the lane recognition device;
Generating a top view image of the vehicle by matching images photographed by the plurality of cameras;
Detecting a driving lane using the top view image when it is determined that the vehicle is running; And
And detecting the parking line using the top view image when it is determined that the vehicle is parked,
Wherein the driving lane is a solid line or a dotted line, and when the driving lane is detected as a solid line, it is informed that it is impossible to change to the vehicle, and when the driving lane is detected as a dotted line, Recognition method.
제1항에 있어서,
상기 차선 인식 방법은,
상기 차량이 주차 중인 것으로 판단되지만 상기 주차선이 검출되지 않는 경우, 상기 차량이 주차가 가능한 후보 영역을 검출하는 단계를 더 포함하는 것인, 차선 인식 방법.
The method according to claim 1,
In the lane recognition method,
Further comprising the step of detecting the candidate area in which the vehicle is parkable if it is determined that the vehicle is parked but the parking line is not detected.
제1항에 있어서,
상기 주행 차선을 검출하는 단계는, 상기 탑뷰 영상으로부터 관심 영역을 추출하고, 상기 관심 영역 내의 경계 검출을 통해 후보점들을 결정하여 상기 주행 차선을 검출하는 것인, 차선 인식 방법.
The method according to claim 1,
Wherein the detecting of the driving lane comprises extracting a region of interest from the top view image and determining candidate points through boundary detection within the region of interest to detect the driving lane.
제3항에 있어서,
상기 주행 차선을 검출하는 단계는, 상기 검출된 주행 차선이 연속적으로 소실점까지 이어지는 경우 상기 주행 차선을 실선으로 결정하고, 상기 검출된 주행 차선이 소정의 픽셀 이상 이어지지 않는 경우 상기 주행 차선을 점선으로 결정하는 것인, 차선 인식 방법.
The method of claim 3,
Wherein the step of detecting the driving lane comprises the step of determining the driving lane as a solid line when the detected driving lane continues to the vanishing point continuously and determining the driving lane as a dotted line when the detected driving lane does not exceed the predetermined pixel The lane recognition method.
제1항에 있어서,
상기 주차선을 검출하는 단계는, 상기 탑뷰 영상에서 주차 공간의 꼭지점들을 검출하고 상기 꼭지점들에 의해 정의되는 공간의 테두리를 상기 주차선으로 결정하는 것인, 차선 인식 방법.
The method according to claim 1,
Wherein the step of detecting the parking line detects the vertices of the parking space in the top view image and determines the border of the space defined by the vertices as the parking line.
제2항에 있어서,
상기 후보 영역은 스테레오 알고리즘에 의해 검출된 영역과 상기 차량의 주차에 필요한 공간의 크기를 비교함으로써 검출되는 것인, 차선 인식 방법.
3. The method of claim 2,
Wherein the candidate area is detected by comparing the area detected by the stereo algorithm with the size of the space required for parking the vehicle.
탑뷰(top view) 영상을 활용하여 차선을 인식하는 차선 인식 장치에 있어서,
상기 차선 인식 장치가 탑재된 차량에 구비되어 각각 서로 다른 방향에 대해 영상을 촬영하는 복수의 영상 촬영부;
상기 복수의 영상 촬영부가 촬영한 영상들을 정합하여 상기 차량의 탑뷰 영상을 생성하는 영상 정합부;
상기 차량이 주행 중인지 또는 주차 중인지 판단하는 주행 판단부;
상기 차량이 주행 중인 것으로 판단되는 경우, 상기 탑뷰 영상을 이용하여 주행 차선을 검출하는 주행 차선 인식부; 및
상기 차량이 주차 중인 것으로 판단되는 경우, 상기 탑뷰 영상을 이용하여 주차선을 검출하는 주차선 인식부를 포함하며,
상기 주행 차선은 실선 또는 점선이며, 상기 주행 차선이 실선으로 검출된 경우 상기 차량의 차로 변경이 불가능함을 알리고 상기 주행 차선이 점선으로 검출된 경우 상기 차량의 차로 변경이 허용됨을 알리는 것인, 차선 인식 장치.
A lane recognition apparatus for recognizing a lane using a top view image,
A plurality of image capturing units provided in a vehicle on which the lane recognizing apparatus is mounted and each capturing an image in different directions;
An image matching unit for matching the images photographed by the plurality of image capturing units and generating a top view image of the vehicle;
A traveling determining unit determining whether the vehicle is traveling or being parked;
A driving lane recognition unit for detecting a driving lane using the top view image when it is determined that the vehicle is running; And
And a parking line recognition unit for detecting a parking line using the top view image when it is determined that the vehicle is parked,
Wherein the driving lane is a solid line or a dotted line, and when the driving lane is detected as a solid line, it is informed that it is impossible to change to the vehicle, and when the driving lane is detected as a dotted line, Recognition device.
KR1020170018927A 2017-02-10 2017-02-10 Apparatus and method for identifying lanes by using top view image KR20180092765A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170018927A KR20180092765A (en) 2017-02-10 2017-02-10 Apparatus and method for identifying lanes by using top view image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170018927A KR20180092765A (en) 2017-02-10 2017-02-10 Apparatus and method for identifying lanes by using top view image

Publications (1)

Publication Number Publication Date
KR20180092765A true KR20180092765A (en) 2018-08-20

Family

ID=63442865

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170018927A KR20180092765A (en) 2017-02-10 2017-02-10 Apparatus and method for identifying lanes by using top view image

Country Status (1)

Country Link
KR (1) KR20180092765A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190303688A1 (en) * 2018-04-03 2019-10-03 Honda Motor Co., Ltd. System and method for advanced highway lane detection
KR20200072590A (en) * 2018-11-30 2020-06-23 충북대학교 산학협력단 Method And Apparatus for Detection of Parking Loss for Automatic Parking
KR102143641B1 (en) * 2020-02-07 2020-08-11 (주)라인테크 Automatic Lane Painting Device Using Vision Sensors
US11037328B1 (en) 2019-12-31 2021-06-15 Lyft, Inc. Overhead view image generation
WO2021138368A1 (en) * 2019-12-31 2021-07-08 Lyft, Inc. Generating training data from overhead view images
WO2021138357A1 (en) * 2019-12-31 2021-07-08 Lyft, Inc. Map feature extraction using overhead view images
CN113830078A (en) * 2021-10-19 2021-12-24 同济大学 Automatic parking method and system based on parking space corner detection

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190303688A1 (en) * 2018-04-03 2019-10-03 Honda Motor Co., Ltd. System and method for advanced highway lane detection
US10614320B2 (en) * 2018-04-03 2020-04-07 Honda Motor Co., Ltd. System and method for advanced highway lane detection
KR20200072590A (en) * 2018-11-30 2020-06-23 충북대학교 산학협력단 Method And Apparatus for Detection of Parking Loss for Automatic Parking
US11037328B1 (en) 2019-12-31 2021-06-15 Lyft, Inc. Overhead view image generation
WO2021138368A1 (en) * 2019-12-31 2021-07-08 Lyft, Inc. Generating training data from overhead view images
WO2021138357A1 (en) * 2019-12-31 2021-07-08 Lyft, Inc. Map feature extraction using overhead view images
US11244500B2 (en) 2019-12-31 2022-02-08 Woven Planet North America, Inc. Map feature extraction using overhead view images
US11288522B2 (en) 2019-12-31 2022-03-29 Woven Planet North America, Inc. Generating training data from overhead view images
US11727601B2 (en) 2019-12-31 2023-08-15 Woven Planet North America, Inc. Overhead view image generation
KR102143641B1 (en) * 2020-02-07 2020-08-11 (주)라인테크 Automatic Lane Painting Device Using Vision Sensors
CN113830078A (en) * 2021-10-19 2021-12-24 同济大学 Automatic parking method and system based on parking space corner detection
CN113830078B (en) * 2021-10-19 2023-08-04 同济大学 Automatic parking method and system based on parking space corner detection

Similar Documents

Publication Publication Date Title
KR20180092765A (en) Apparatus and method for identifying lanes by using top view image
JP7301909B2 (en) Determination of yaw error from map data, lasers, and cameras
EP3418943B1 (en) Object detecting apparatus, object detecting method, and computer-readable medium
US9846812B2 (en) Image recognition system for a vehicle and corresponding method
CN111024040B (en) Distance estimation method and device
US20200334475A1 (en) Vehicular trailer angle detection system
JP4337929B2 (en) Moving state estimation device
KR101188588B1 (en) Monocular Motion Stereo-Based Free Parking Space Detection Apparatus and Method
US6819779B1 (en) Lane detection system and apparatus
JP5829980B2 (en) Roadside detection device
JP5399027B2 (en) A device having a system capable of capturing a stereoscopic image to assist driving of an automobile
US20220004784A1 (en) Vehicle feature acquisition method and device
US20150292891A1 (en) Vehicle position estimation system
US8867792B2 (en) Environment recognition device and environment recognition method
US11236991B2 (en) Method for determining a current distance and/or a current speed of a target object based on a reference point in a camera image, camera system and motor vehicle
WO2019202628A1 (en) Road surface detector, image display device using road surface detector, obstacle detector using road surface detector, image display method using road surface detection method, and obstacle detection method using road surface detection method
EP3282389B1 (en) Image processing apparatus, image capturing apparatus, moving body apparatus control system, image processing method, and program
CN111937002A (en) Obstacle detection device, automatic braking device using obstacle detection device, obstacle detection method, and automatic braking method using obstacle detection method
US20180276844A1 (en) Position or orientation estimation apparatus, position or orientation estimation method, and driving assist device
CN112069862A (en) Target detection method and device
US20200193184A1 (en) Image processing device and image processing method
JP5521217B2 (en) Obstacle detection device and obstacle detection method
KR101612822B1 (en) Apparatus for detecting lane and method thereof
JP2018073275A (en) Image recognition device
JP2017117105A (en) Visibility determination device