KR20140104516A - Lane detection method and apparatus - Google Patents

Lane detection method and apparatus Download PDF

Info

Publication number
KR20140104516A
KR20140104516A KR1020130016754A KR20130016754A KR20140104516A KR 20140104516 A KR20140104516 A KR 20140104516A KR 1020130016754 A KR1020130016754 A KR 1020130016754A KR 20130016754 A KR20130016754 A KR 20130016754A KR 20140104516 A KR20140104516 A KR 20140104516A
Authority
KR
South Korea
Prior art keywords
lane
interest
detecting
setting
image
Prior art date
Application number
KR1020130016754A
Other languages
Korean (ko)
Inventor
이윤희
Original Assignee
주식회사 만도
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 만도 filed Critical 주식회사 만도
Priority to KR1020130016754A priority Critical patent/KR20140104516A/en
Publication of KR20140104516A publication Critical patent/KR20140104516A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/50Barriers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/53Road markings, e.g. lane marker or crosswalk
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/60Traffic rules, e.g. speed limits or right of way
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)

Abstract

The present invention relates to a lane detection method and a device for the same capable of improving lane detection performance. The lane detection method according to the present invention comprises a step of obtaining an image taken around a user′s vehicle and distance data sensing obstacles around the user′s vehicle; a step of detecting a sign within the image; a step of detecting a situation around the user′s vehicle based on content of the detected sign; and a step of detecting a lane from the image based on the detected surrounding situation information and the distance data.

Description

차선 인식 방법 및 장치{Lane detection method and apparatus}[0001] Lane detection method and apparatus [0002]

본 발명은 차선 인식 방법 및 장치에 관한 것으로, 더욱 상세하게는 차선 인식 성능을 향상시킬 수 있는 차선 인식 방법 및 장치에 관한 것이다. The present invention relates to a lane recognition method and apparatus, and more particularly, to a lane recognition method and apparatus capable of improving lane recognition performance.

전자기술이 보편화되기 이전까지만 해도 자동차는 기계적인 원리만으로 제어가 되었다. 그러나 정보통신기술이 발달함에 따라 자동차도 정보통신기술과 결합되고 있으며, 이에 따라 자동차 자체에 대한 안전 기술뿐만 아니라 자동차의 주변 상황과 연관된 안전 기술에 대한 연구가 증가하고 있는 추세이다. Until electronic technology became popular, automobiles were controlled only by mechanical principles. However, as information and communication technology develops, automobiles are also being combined with information and communication technologies. Accordingly, research on safety technologies related to automobile surroundings as well as safety technologies for automobiles is increasing.

최근 출시되고 있는 자동차에는 자동차 안전 제어 시스템이 탑재된다. 자동차 안전 제어 시스템은 자동차에 탑재된 센서를 이용하여 자동차의 주변 상황을 감지하고, 감지 결과에 근거하여 차선 유지, 충돌 방지 및 전조등 제어 등의 자동차 안전 제어를 수행한다. The automobile safety control system is installed in the recently released automobiles. The automotive safety control system senses the surroundings of the vehicle using sensors mounted on the vehicle and car safety control such as lane keeping, collision avoidance and headlight control based on the detection result.

차선 인식의 경우, 자동차의 전방에 설치된 센서를 이용하고 있다. 센서의 예로는 비전 센서(Vision Sensor), 레이더(Radar), 라이더(Lidar) 등을 예로 들 수 있는데, 이 중 비전 센서는 기존의 다양한 영상 처리 알고리즘을 활용할 수 있어 널리 이용되고 있다. In the case of lane recognition, a sensor installed in front of the automobile is used. Examples of the sensor include a Vision Sensor, a Radar, and a Lidar. Vision sensors are widely used because they can utilize various image processing algorithms.

그러나 종래의 차선 인식 방법은 하나의 비전 센서를 이용하기 때문에 자차가 주행 중인 차선이 다른 차선과 합쳐지는 경우, 횡단보도, 급커브 등의 상황에 대한 인식이 떨어지는 문제가 있다. However, since the conventional lane recognition method uses one vision sensor, there is a problem in that when the lane in which the vehicle is traveling is merged with another lane, the recognition of the situation such as the crosswalk and the sharp curve is poor.

본 발명이 해결하고자 하는 과제는 차선 인식 성능을 향상시킬 수 있는 차선 인식 방법 및 장치를 제공하는 것이다. SUMMARY OF THE INVENTION It is an object of the present invention to provide a lane recognition method and apparatus capable of improving lane recognition performance.

그러나 본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다. However, the problems to be solved by the present invention are not limited to the above-mentioned problems, and other problems which are not mentioned can be clearly understood by those skilled in the art from the following description.

상술한 과제를 해결하기 위하여 본 발명의 일 실시예에 따른 차선 인식 방법은 자차 주변을 촬영한 영상과 자차 주변의 장애물을 감지한 거리데이터를 획득하는 단계; 상기 영상 내에서 표지판을 인식하는 단계; 상기 인식된 표지판의 컨텐츠에 기초하여 상기 자차의 주변 상황을 인식하는 단계; 및 상기 인식된 주변 상황 정보 및 상기 거리데이터에 기초하여 상기 영상으로부터 차선을 인식하는 단계를 포함한다. According to another aspect of the present invention, there is provided a lane recognition method including: obtaining distance data of an image of a periphery of a car and an obstacle around the car; Recognizing a sign in the image; Recognizing a peripheral situation of the vehicle based on the recognized contents of the sign; And recognizing a lane from the image based on the recognized surrounding information and the distance data.

상술한 과제를 해결하기 위하여 본 발명의 일 실시예에 따른 차선 인식 장치는 자차 주변을 촬영한 영상을 획득하는 영상 촬영부; 상기 자차 주변의 장애물을 감지하여 거리데이터를 획득하는 거리센서; 상기 영상 내에서 표지판을 인식하는 표지판 인식부; 상기 인식된 표지판의 컨텐츠에 기초하여 상기 자차의 주변 상황을 인식하는 상황 인식부; 및 상기 인식된 주변 상황 정보 및 상기 거리데이터에 기초하여 상기 영상으로부터 차선을 인식하는 차선 인식부를 포함한다.According to an aspect of the present invention, there is provided a lane recognizing apparatus including: an image capturing unit for capturing an image of a periphery of a car; A distance sensor for sensing an obstacle around the vehicle and obtaining distance data; A sign recognition unit for recognizing a sign in the image; A situation recognition unit for recognizing the surroundings of the vehicle on the basis of the contents of the recognized sign; And a lane recognition unit for recognizing the lane from the image based on the recognized surrounding information and the distance data.

본 발명에 의한 차선 인식 방법 및 장치에 따르면 다음과 같은 효과가 있다. The method and apparatus for recognizing a lane according to the present invention have the following effects.

비전 센서를 통해 획득된 영상에서 표지판을 인식하고, 이를 주변 상황을 인식하는데 활용함으로써, 차선이 합쳐지는 경우나 횡단보도, 급커브 등에 상황에 대한 차선 인식 성능을 향상시킬 수 있다. By recognizing the signs in the image obtained through the vision sensor and using it to recognize the surrounding situation, it is possible to improve lane recognition performance for situations where lanes are merged, crosswalks, sharp curves, and the like.

도 1은 본 발명의 일 실시예에 따른 차선 인식 장치의 구성을 도시한 도면이다.
도 2는 관심영역이 설정된 영상을 예시한 도면이다.
도 3은 표지판의 컨텐츠 및 그에 따라 분류된 자차의 주변 상황을 도시한 도면이다.
도 4는 자차가 도로 중앙을 주행하고 있을 때 촬영된 영상과 자차가 오르막 길을 주행하고 있을 때 촬영된 영상을 예시한 도면이다.
도 5는 자차가 도로 중앙을 주행하고 있을 때 촬영된 영상과 자차가 차선 축소 구간을 주행하고 있을 때 촬영된 영상을 예시한 도면이다.
도 6은 자차가 우측으로 굽은 도로를 주행하고 있을 때 촬영된 영상을 예시한 도면이다.
도 7은 자차가 합류 도로를 주행하고 있을 때 촬영된 영상을 예시한 도면이다.
도 8은 횡단보도가 포함된 영상을 예시한 도면이다.
도 9는 도 1의 차선 인식 장치에서 수행되는 차선 인식 방법을 도시한 흐름도이다.
1 is a diagram illustrating a configuration of a lane recognizing apparatus according to an embodiment of the present invention.
2 is a diagram illustrating an image in which a region of interest is set.
3 is a view showing the contents of a sign and the surrounding situation of the car classified according to the content of the sign.
4 is a view illustrating an image taken when the vehicle is traveling in the middle of the road and an image taken when the vehicle is traveling on an uphill road.
5 is a view illustrating an image taken when an image taken when the vehicle is traveling in the middle of the road and when the vehicle is traveling in the lane-narrowing section.
6 is a diagram illustrating an image taken when the vehicle is traveling on a road curved rightward.
Fig. 7 is a view showing an image taken when a vehicle is traveling on a confluence road; Fig.
8 is a diagram illustrating an image including a crosswalk.
FIG. 9 is a flowchart illustrating a lane recognition method performed by the lane recognizing device of FIG. 1. FIG.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention, and the manner of achieving them, will be apparent from and elucidated with reference to the embodiments described hereinafter in conjunction with the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. To fully disclose the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims.

이하, 첨부된 도면들을 참조하여 본 발명의 실시예들을 설명한다. 도면에서 동일한 도면 부호는 동일한 구성 요소를 나타낸다. Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. In the drawings, like reference numerals designate like elements.

도 1은 본 발명의 일 실시예에 따른 차선 인식 장치의 구성을 도시한 도면이다. 1 is a diagram illustrating a configuration of a lane recognizing apparatus according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 차선 인식 장치(100)는 영상 촬영부(110), 표지판 인식부(120), 상황 인식부(130), 차선 인식부(140), 제어부(150) 및 경고부(160)를 포함할 수 있다. 1, the lane recognizing apparatus 100 includes an image photographing unit 110, a sign recognizing unit 120, a situation recognizing unit 130, a lane recognizing unit 140, a control unit 150, (Not shown).

영상 촬영부(110)는 자차가 주행 중인 차선(이하 '현재 차선'이라 칭한다)과 현재 차선을 주행 중인 전방 차량에 대한 영상을 촬영한다. 이러한 영상 촬영부(110)는 비전 센서를 포함할 수 있다. 비전 센서로는 2차원 영상을 획득할 수 있는 비전 센서, 및 3차원 영상을 획득할 수 있는 3차원 비전 센서를 예로 들 수 있다. The image capturing unit 110 captures an image of a lane in which the vehicle is traveling (hereinafter referred to as 'the present lane') and a forward vehicle traveling in the present lane. The image capturing unit 110 may include a vision sensor. Examples of the vision sensor include a vision sensor capable of acquiring a two-dimensional image, and a three-dimensional vision sensor capable of acquiring a three-dimensional image.

표지판 인식부(120)는 관심영역 설정부(122) 및 컨텐츠 인식부(124)를 포함할 수 있다. The sign recognition unit 120 may include a region of interest setting unit 122 and a content recognition unit 124. [

관심영역 설정부(122)는 영상 촬영부(110)에 의해 촬영된 영상에서 표지판 검출을 위한 관심영역(Region of Interese: ROI)을 설정한다. 관심영역은 표지판을 포함하되, 표지판 검출을 위한 탐색 범위를 최소화할 수 있도록 설정될 수 있다. 관심영역 설정은 아다부스트 알고리즘(Adaboost algorithm)에 기초하여 이루어질 수 있다. 아다부스트 알고리즘은 약한 분류기(weak classifier)의 집합을 선형적으로 결합하여 높은 검출 성능을 가지는 강한 분류기를 생성하는 알고리즘이다. 도 2는 표지판 검출을 위한 관심영역이 설정된 모습을 예시한 도면이다. 도 2를 참조하면, 표지판을 포함하도록 두 개의 관심영역이 설정된 것을 확인할 수 있다. The ROI setting unit 122 sets a region of interest (ROI) for detecting a sign in an image captured by the image capturing unit 110. [ The area of interest may be set to include a sign, but to minimize the search range for sign detection. The region of interest can be set based on the Adaboost algorithm. The AdaBoost algorithm is an algorithm that generates a strong classifier with high detection performance by linearly combining sets of weak classifiers. 2 is a view illustrating a state in which a region of interest is set for detecting a sign. Referring to FIG. 2, it can be seen that two areas of interest are set to include signs.

다시 도 1을 참조하면, 컨텐츠 인식부(124)는 설정된 관심영역에 기초하여 영상 내에서 표지판의 위치를 확인하고, 표지판 내의 컨텐츠를 인식할 수 있다. 여기서 컨텐츠를 인식한다는 것은 표지판에 표시되어 있는 숫자, 문자, 기호 및 도형 중 적어도 하나를 인식하는 것을 의미한다. 컨텐츠 인식을 위하여 컨텐츠 인식부(124)는 신경망(Neural Networks) 기술을 이용할 수 있다. Referring again to FIG. 1, the content recognition unit 124 can recognize the position of the signboard in the image based on the set region of interest, and recognize the content in the signboard. Here, recognizing the content means recognizing at least one of the numbers, letters, symbols, and graphics displayed on the sign. For content recognition, the content recognition unit 124 may use Neural Networks technology.

신경망이란 수많은 뉴런들이 서로 연결되어 있는 인간의 뇌의 구조와 인간의 뇌에서 수행되는 정보처리 방식을 모방함으로써, 인간이 지능적으로 처리하는 복잡한 정보처리 능력을 컴퓨를 통해 실현하고자 하는 연구 분야를 말한다. 신경망은 생물학적 뉴런을 모델링한 유닛(unit)들과 그 유닛 사이의 가중치 연결(weighted-connection)들로 이루어지며, 각 신경망 모델에 따라 다양한 구조와 학습 규칙을 갖는다. Neural network is a field of research that aims to realize complex information processing ability that human beings intelligently process through computer by imitating the structure of human brain connected with numerous neurons and information processing method performed in human brain. Neural networks consist of units modeling biological neurons and weighted connections between the units, and have various structures and learning rules according to each neural network model.

상황 인식부(130)는 컨텐츠 인식부(124)의 인식 결과에 근거하여, 자차의 주변 상황을 인식할 수 있다. 자차의 주변 상황은 표지판의 컨텐츠에 따라 분류될 수 있다. 이에 대한 보다 구체적인 설명을 위해 도 3을 참조하기로 한다. The situation recognition unit 130 can recognize the peripheral situation of the vehicle based on the recognition result of the content recognition unit 124. [ The surrounding situation of the vehicle can be classified according to the contents of the sign. For a more detailed description, FIG. 3 will be referred to.

도 3은 표지판의 컨텐츠에 따라 분류된 자차의 주변 상황을 도시한 도면이다. 도 3을 참조하면, 자차의 주변 상황이 '차선 축소', '굽은 도로', '이중 굽은 도로', '합류 도로', '횡단보도' 및 '터널' 등의 6가지로 분류된 것을 알 수 있다. FIG. 3 is a view showing the surroundings of a car classified according to the contents of a sign. Referring to FIG. 3, it can be seen that the surroundings of the car are classified into six categories such as 'lane reduction', 'curved road', 'double curved road', 'joining road', 'crosswalk', and 'tunnel' have.

컨텐츠 인식부(124)에서 인식된 표지판의 컨텐츠가 좌우 2개 차선의 축소를 나타내는 기호, 우측 1개 차선의 축소를 나타내는 기호, 또는 좌측 1개 차선의 축소를 나타내는 기호인 경우, 상황 인식부(130)는 자차의 주변 상황을 '차선 축소'로 인식한다. When the content of the sign recognized by the content recognition unit 124 is a sign indicating the reduction of the left and right two lanes, a sign indicating the reduction of the right one lane, or a sign indicating the reduction of the left one lane, 130) perceives the surroundings of the vehicle as 'lane reduction'.

만약, 컨텐츠 인식부(124)에서 인식된 표지판의 컨텐츠가 우측으로 굽은 화살표이거나, 좌측으로 굽은 화살표라면, 상황 인식부(130)는 자차의 주변 상황을 '굽은 도로'로 인식한다. If the content of the sign recognized by the content recognition unit 124 is an arrow curved to the right or a curved arrow to the left, the situation recognition unit 130 recognizes the surroundings of the car as a 'curved road'.

만약, 컨텐츠 인식부(124)에서 인식된 표지판의 컨텐츠가 우좌로 이중으로 굽은 화살표이거나, 좌우로 이중으로 굽은 화살표라면, 상황 인식부(130)는 자차의 주변 상황을 '이중 굽은 도로'로 인식한다. If the content of the sign recognized by the content recognition unit 124 is a double curved arrow to the right or a double curved arrow to the left and right, the situation recognition unit 130 recognizes the surroundings of the car as a 'double curved road' do.

만약, 컨텐츠 인식부(124)에서 인식된 표지판의 컨텐츠가 우합류도로를 나타내는 기호이거나, 좌합류도로를 나타내는 기호인 경우, 상황 인식부(130)는 자차의 주변 상황을 '합류 도로'로 인식한다. If the content of the sign recognized by the content recognition unit 124 is a symbol representing a right junction road or a symbol representing a left junction road, the situation recognition unit 130 recognizes the surrounding situation of the vehicle as a & do.

만약, 컨텐츠 인식부(124)에서 인식된 표지판의 컨텐츠가 횡단보도를 나타내는 기호나 문자인 경우, 상황 인식부(130)는 자차의 주변 상황을 '횡단보도'로 인식한다. If the content of the sign recognized by the content recognition unit 124 is a sign or a character indicating a crosswalk, the situation recognition unit 130 recognizes the surrounding situation of the vehicle as a 'crosswalk'.

만약, 컨텐츠 인식부(124)에서 인식된 표지판의 컨텐츠가 터널을 나타내는 기호인 경우, 상황 인식부(130)는 자차의 주변 사황을 '터널'로 인식한다. If the content of the sign recognized by the content recognition unit 124 is a symbol representing a tunnel, the situation recognition unit 130 recognizes the circumference of the car as a 'tunnel'.

상술한 바와 같은 주변 상황 정보가 차선 인식에 어떻게 활용될 수 있는지에 대해서 설명하면 다음과 같다. How the surrounding information described above can be utilized for lane recognition will be described below.

주변 상황 정보가 '차선 축소'인 경우, 이러한 주변 상황 정보는 영상에서 검출된 소실점이 현재 차선의 양쪽 차선이 만나는 점인지, 차선 축소로 인해 옆차선과 만나는 점인지를 구별하는데 사용될 수 있다. 이에 대한 구체적인 설명을 위해 도 4 및 도 5를 참조하기로 한다. In the case where the surrounding situation information is 'lane reduction', this surrounding situation information can be used to distinguish whether the vanishing point detected in the image meets both lanes of the current lane or a side lane due to lane reduction. Reference will be made to FIGS. 4 and 5 for a detailed description thereof.

도 4의 (A)는 자차가 도로 중앙을 주행하고 있을 때 촬영된 영상을 나타낸 것이고, 도 4의 (B)는 자차가 오르막 길을 주행하고 있을 때 촬영된 영상을 나타낸 것이다. 그리고 도 5의 (A)는 자차가 도로 중앙을 주행하고 있을 때 촬영된 영상을 나타낸 것이고, 도 5의 (B)는 자차가 차선 축소 구간을 주행하고 있을 때 촬영된 영상을 나타낸 것이다. FIG. 4A shows an image taken when the vehicle is traveling in the middle of the road, and FIG. 4B shows the image taken when the vehicle is traveling on an uphill road. 5A shows an image taken while the vehicle is traveling in the middle of the road, and FIG. 5B shows an image taken when the vehicle is traveling in a lane-reducing section.

도 4의 두 영상을 비교하면, 자차가 오르막 길을 주행하고 있을 때 두 차선이 만나는 점은 자차가 도로 중앙을 주행하고 있을 때 두 차선이 만나는 점보다 아래쪽에 위치한 것을 알 수 있다. 즉, 도 4의 (B) 영상에 표시된 붉은 선은 (A) 영상에 표시된 붉은 선보다 아래쪽에 위치한 것을 알 수 있다. 마찬가지로, 도 5의 두 영상을 비교하면, 자차가 차선 합류 구간을 주행하고 있을 때 두 차선이 만나는 점은 자차가 도로 중앙을 주행하고 있을 때 두 차선이 만나는 점보다 아래쪽에 위치한 것을 알 수 있다. 즉, 도 5의 (B) 영상에 표시된 붉은 선은 (A) 영상에 표시된 붉은 선보다 아래쪽에 위치한 것을 알 수 있다. 이러한 경우, '차선 축소'라는 차량 주변 정보를 활용하면, 자차가 오르막길을 주행 중인지 차선 합류 구간을 주행 중인지를 구별할 수 있다. 즉, 영상에서 검출된 소실점이 현재 차선의 양쪽 차선이 만나는 점인지, 옆차선과 만나는 점인지를 구별할 수 있다. When the two images in FIG. 4 are compared, it can be seen that the point where the two lanes meet when the vehicle is traveling on the uphill road is located below the point where the two lanes meet when the vehicle is traveling in the middle of the road. That is, it can be seen that the red line shown in the image of FIG. 4 (B) is located below the red line shown in the image (A). Similarly, when comparing two images of FIG. 5, it can be seen that the point where the two lanes meet when the vehicle is running in the lane merging section is located below the point where the two lanes meet when the vehicle is traveling in the middle of the road. That is, it can be seen that the red line shown in the image (B) of FIG. 5 is located below the red line shown in the image (A). In this case, by using the vehicle periphery information called " lane reduction ", it is possible to distinguish whether the vehicle is traveling in an uphill or a lane junction. That is, it is possible to distinguish whether the vanishing point detected in the image is the point at which both lanes of the current lane meet, or the point at which it meets the next lane.

주변 상황 정보가 '굽은 도로' 또는 '이중 굽은 도로'인 경우, 이러한 주변 상황 정보는 차선 인식 범위를 확장하는데 사용될 수 있다. 이에 대한 보다 구체적인 설명을 위해 도 6을 참조하기로 한다. If the surrounding information is a 'curved road' or a 'double curved road', this surrounding information can be used to extend the lane recognition range. Reference will be made to Fig. 6 for a more detailed description thereof.

도 6은 자차가 우측으로 굽은 도로를 주행하고 있을 때 촬영된 영상을 나타낸 것이다. 도 6에 도시된 바와 같이, 굽은 도로는 차선이 급격한 곡선을 가진다. 그렇기 때문에 차선 인식 범위를 벗어날 확률이 높다. 따라서, 주변 상황 정보가 '굽은 도로' 또는 '이중 굽은 도로'인 경우, 차선 인식을 수행하기에 앞서 차선 인식 범위를 좌 및/또는 우로 확장하면, 차선 인식 오류를 줄일 수 있다. 6 shows an image taken when the vehicle is traveling on a road curved rightward. As shown in Fig. 6, the curved road has a curve in which the lane is abrupt. Therefore, there is a high probability of departing from the lane recognition range. Accordingly, when the surrounding information is 'curved road' or 'double curved road', lane recognition errors can be reduced by extending the lane recognition range to left and / or right before performing lane recognition.

주변 상황 정보가 '합류 도로'인 경우, 이러한 주변 상황 정보는 영상에서 검출된 복수개의 차선 중에서 안쪽 차선에 대하여 가중치를 설정하는데 사용될 수 있다. 이에 대한 보다 구체적인 설명을 위해 도 7을 참조하기로 한다. If the surrounding situation information is a " confluence road ", this surrounding situation information can be used to set a weight for the inner lane among a plurality of lanes detected in the image. Reference will be made to Fig. 7 for a more detailed description thereof.

도 7은 자차가 합류 도로를 주행하고 있을 때 촬영된 영상을 나타낸 것이다. 도 7에 도시된 바와 같은 영상에 대해서 차선 인식 과정을 수행하면, 복수개의 차선이 검출된다. 이처럼 복수개의 차선이 검출된 경우에는, 차선 인식 오류가 발생할 수 있다. 따라서, 주변 상황 정보가 '합류 도로'인 경우, 안쪽 차선에만 가중치를 적용하여 차선 인식을 수행하게 되면, 차선 인식 오류를 줄일 수 있다. 7 shows an image taken when the vehicle is traveling on a confluence road. When a lane recognition process is performed on an image as shown in FIG. 7, a plurality of lanes are detected. When a plurality of lanes are detected, a lane recognition error may occur. Therefore, when the surrounding information is the 'confluence road', lane recognition can be reduced by applying the lane recognition only to the inner lane.

주변 상황 정보가 '횡단보도'인 경우, 이러한 주변 상황 정보는 영상에서 횡단보도를 제거하는데 사용될 수 있다. 예를 들어, 도 8에 도시된 바와 같이, 횡단보도가 포함된 영상에 대해서 차선 인식 과정을 수행하면, 횡단보도로 인하여 차선 인식 오류가 발생할 수 있다. 따라서, 주변 상황 정보가 '횡단보도'인 경우, 영상으로부터 횡단보도를 제거하여 차선 인식을 수행하게 되면, 횡단보도가 차선으로 인식되는 것을 방지할 수 있다. If the surrounding situation information is 'crosswalk', this surrounding situation information can be used to remove the crosswalk from the image. For example, as shown in FIG. 8, when a lane recognition process is performed on an image including a pedestrian crossing, a lane recognition error may occur due to the pedestrian crossing. Therefore, when the surrounding situation information is 'crosswalk', if the lane recognition is performed by removing the crosswalk from the image, it is possible to prevent the crosswalk from being recognized as a lane.

주변 상황 정보가 '터널'인 경우, 이러한 주변 상황 정보는 자차 주변의 조명 변화를 미리 인지하는데 사용될 수 있다. 구체적으로, 자차가 터널을 주행하는 경우에는 자차 주변의 조명이 갑자기 어두워지기 때문에 차선 인식 오류가 발생할 수 있다. 따라서, 주변 상황 정보가 '터널'인 경우에는 영상의 전체적인 밝기를 향상시켜, 차선 인식 오류가 발생하는 것을 방지할 수 있다. If the surrounding situation information is a 'tunnel', the surrounding situation information can be used to recognize the illumination change around the car in advance. Specifically, when the vehicle travels through the tunnel, the lane recognition error may occur because the light around the vehicle suddenly becomes dark. Accordingly, when the surrounding information is a 'tunnel', it is possible to improve the overall brightness of the image and prevent a lane recognition error from occurring.

다시 도 1을 참조하면, 상황 인식부(130)에서 인식된 주변 상황 정보는 차선 인식부(140)로 제공된다. Referring again to FIG. 1, the surrounding information recognized by the situation recognition unit 130 is provided to the lane recognition unit 140. FIG.

차선 인식부(140)는 상황 인식부(130)로부터 제공받은 주변 상황 정보에 기초하여 차선 인식을 수행한다. 차선 인식 과정을 설명하면 다음과 같다. The lane recognition unit 140 performs lane recognition based on the surrounding situation information provided from the situation recognition unit 130. [ The lane recognition process is as follows.

우선, 차선 인식부(140)는 거리센서에 의해 획득된 거리데이터에 기초하여 영상에서 장애물을 제거하고, 장애물이 제거된 영역을 프리스페이스로 설정한다. 여기서 장애물이란 차선 인식 오류의 원인이되는 대상체를 말하는 것으로 전방 차량, 옆차선에 위치한 차량을 예로 들 수 있다. First, the lane recognition unit 140 removes the obstacle from the image based on the distance data obtained by the distance sensor, and sets the area from which the obstacle is removed to the free space. Here, the obstacle refers to an object that causes a lane recognition error, for example, a forward vehicle or a vehicle located in a side lane.

프리스페이스가 설정되면, 차선 인식부(140)는 프리스페이스에서 에지를 검출한다. 이를 위해 차선 인식부(140)는 소벨 필터(Sobel filter)를 이용할 수 있다. 소벨 필터는 수직 에지나 수평 에지보다 대각선 방향의 에지 검출에 효과적이며, 일반적으로, 3×3 크기의 마스크 윈도우(mask window)로 정의된다. 그러나 마스크의 크기가 3×3으로 한정되는 것은 아니며, 5×5 또는 7×7 크기를 가질 수도 있다. When the free space is set, the lane recognition unit 140 detects an edge in the free space. For this, the lane recognition unit 140 may use a Sobel filter. The Sobel filter is effective for edge detection in a diagonal direction than a vertical edge or a horizontal edge, and is generally defined as a 3 × 3 mask window. However, the size of the mask is not limited to 3 × 3, and may have a size of 5 × 5 or 7 × 7.

이 후, 차선 인식부(140)는 허프변환(Hough Transform)을 이용하여, 에지 정보로부터 직선 성분을 검출한다. Thereafter, the lane recognizing unit 140 detects a linear component from the edge information using a Hough Transform.

이 후, 차선 인식부(140)는 프리스페이스 내의 직선 성분 검출 결과에 기초하여 차선 인식에 필요한 적어도 하나의 관심영역을 설정한다. 차선 인식에 필요한 관심영역은 차선을 포함하되, 차선 인식을 위한 영상 탐색 범위를 최소화할 수 있도록 설정된다. 일반적으로, 차선은 영상의 하부에 위치하므로, 관심영역은 영상의 하부쪽에 설정된다. 또한, 차선은 멀어질수록 작게 보이므로, 차선이 작아질수록 관심영역의 크기도 작아지도록 설정된다. 또한 차선은 좌측 차선과 우측 차선을 포함하므로, 관심영역은 좌측 차선과 우측 차선에 대하여 각각 설정된다. Thereafter, the lane recognition unit 140 sets at least one region of interest necessary for lane recognition based on the linear component detection result in the free space. The area of interest necessary for lane recognition is set to include a lane but minimize the image search range for lane recognition. Generally, the lane is located at the bottom of the image, so the region of interest is set on the lower side of the image. Further, since the lane becomes smaller as the distance lengthens, the size of the ROI becomes smaller as the lane becomes smaller. Further, the lane includes the left lane and the right lane, so that the ROI is set for the left lane and the right lane, respectively.

차선 인식을 위한 관심영역이 설정되면, 차선 인식부(140)는 설정된 관심영역에서 차선을 추출한다. 이 때, 차선 추출은 영상의 하단에 위치한 관심영역에서부터 차례로 수행될 수 있다. 즉, 좌측 차선에 대한 관심영역들과 우측 차선에 대한 관심영역들 중에서 영상의 최하단에 위치한 좌우 관심영역들로부터 차선을 추출한다. 그 다음, 해당 관심영역들보다 위쪽에 위치한 관심영역으로부터 차선을 추출한다. When the area of interest for lane recognition is set, the lane recognition unit 140 extracts the lane in the set area of interest. At this time, the lane extraction may be performed sequentially from the region of interest located at the lower end of the image. That is, a lane is extracted from the left and right ROs located at the bottom of the image, from ROIs of interest and ROIs. Then, a lane is extracted from the ROI located above the ROIs.

관심영역들로부터 차선이 추출되면, 차선 인식부(140)는 차선의 소실점을 검출할 수 있다. 검출된 소실점의 위치는 제어부(150)로 제공될 수 있다. When the lane is extracted from the ROIs, the lane recognition unit 140 can detect the vanishing point of the lane. The position of the detected vanishing point may be provided to the controller 150.

제어부(150)는 영상에서 검출된 소실점의 위치와 영상의 중심점의 위치를 비교한다. 그리고 비교 결과에 따라 자차의 차선 이탈 여부를 판단한다. 판단 결과, 자차가 차선을 이탈하지 않은 경우에는, 차선 인식 과정을 계속해서 수행하고, 자차가 차선을 이탈한 경우에는, 경고부(160)를 통해 운전자에게 차선 이탈을 경고한다. The control unit 150 compares the position of the vanishing point detected in the image with the position of the center point of the image. Then, it is determined whether or not the lane departure of the vehicle is based on the comparison result. As a result of the determination, if the vehicle does not deviate from the lane, the lane recognition process is continuously performed. If the vehicle leaves the lane, the warning is given to the driver through the warning unit 160.

도 9는 본 발명의 일 실시예에 따른 차선 인식 방법을 도시한 흐름도이다. 9 is a flowchart illustrating a lane recognition method according to an embodiment of the present invention.

우선, 영상 촬영부(110)를 통해 자차 주변에 대한 영상을 획득하고, 거리센서를 통해 거리데이터를 획득한다(500). First, an image of the periphery of the vehicle is acquired through the image capturing unit 110, and distance data is acquired through the distance sensor (500).

이 후, 표지판 인식부(120)에서는 영상 내에서 표지판을 인식할 수 있다(600). 표지판을 인식하는 단계는 영상 촬영부(110)에 의해 촬영된 영상에서 표지판 검출을 위한 관심영역을 설정하는 단계와, 설정된 관심영역에서 표지판의 위치를 확인하는 단계와, 표지판 내의 컨텐츠를 인식하는 단계를 포함할 수 있다. Thereafter, the sign recognition unit 120 recognizes the sign in the image (600). The step of recognizing the sign includes the step of setting a region of interest for detecting the sign in the image taken by the image capturing unit 110, the step of confirming the position of the sign in the set region of interest, . ≪ / RTI >

표지판이 인식되면, 상황 인식부(130)는 인식된 표지판의 컨텐츠에 따라 자차의 주변 상황을 인식한다(700). 자차의 주변 상황은 표지판의 컨텐츠에 따라 차선 축소, 굽은 도로, 이중 굽은 도로, 합류 도로, 횡단보도 및 터널 등의 6가지로 분류될 수 있다. If the sign is recognized, the situation recognition unit 130 recognizes the surroundings of the vehicle according to the contents of the recognized sign (700). Depending on the contents of the sign, the surrounding situation of the vehicle can be classified into six categories such as lane reduction, curved road, double curved road, confluent road, crosswalk and tunnel.

자차의 주변 상황이 인식되면, 차선 인식부(140)는 인식된 주변 상황 정보 거리데이터에 기초하여 차선 인식을 수행한다(800). 여기서 상기 차선 인식 단계(800)를 좀 더 구체적으로 설명하기로 한다. When the surrounding situation of the vehicle is recognized, the lane recognition unit 140 performs lane recognition based on the recognized surrounding condition information distance data (800). Here, the lane recognition step 800 will be described in more detail.

일 예로, 인식된 주변 상황이 '차선 축소'인 경우, 상기 차선 인식을 수행하는 단계는 거리데이터에 기초하여 영상에서 장애물을 제거하고, 장애물이 제거된 영역을 프리스페이스로 설정하는 단계와, 프리스페이스 내의 에지를 검출하는 단계, 검출된 에지로부터 직선 성분을 검출하는 단계와, 직선 성분 검출 결과에 기초하여 차선 인식에 필요한 관심영역을 설정하는 단계와, 설정된 관심영역에서 차선을 추출하는 단계와, 검출된 차선에 기초하여 소실점을 검출하는 단계와, 상기 검출된 소실점을 차선 축소로 인해 옆 차선과 만나는 점으로 인식하는 단계를 포함할 수 있다. For example, if the recognized surrounding situation is 'lane reduction', performing the lane recognition may include removing obstacles from the image based on the distance data, setting the area from which the obstacle is removed to free space, Detecting a straight line component from a detected edge; setting a region of interest necessary for lane recognition based on a linear component detection result; extracting a lane in a set region of interest; Detecting a vanishing point based on the detected lane; and recognizing the detected vanishing point as a point where the lane departure causes the lane to collide with the adjacent lane.

다른 예로, 인식된 주변 상황이 '굽은 도로' 또는 '이중 굽은 도로'인 경우, 상기 차선 인식을 수행하는 단계는 차선 인식 범위를 확장하는 단계와, 거리데이터에 기초하여 영상에서 장애물을 제거하고, 장애물이 제거된 영역을 프리스페이스로 설정하는 단계와, 프리스페이스 내의 에지를 검출하는 단계, 검출된 에지로부터 직선 성분을 검출하는 단계와, 직선 성분 검출 결과에 기초하여 차선 인식에 필요한 관심영역을 설정하는 단계와, 설정된 관심영역에서 차선을 추출하는 단계와, 검출된 차선에 기초하여 소실점을 검출하는 단계를 포함할 수 있다. As another example, when the recognized surrounding situation is a 'curved road' or a 'double curved road', performing the lane recognition may include extending a lane recognition range, removing an obstacle from the image based on the distance data, Setting an area in which an obstacle is removed to a free space; detecting an edge in the free space; detecting a linear component from the detected edge; setting a region of interest necessary for lane recognition based on the linear component detection result Extracting a lane in the set area of interest, and detecting a vanishing point based on the detected lane.

다른 예로, 인식된 주변 상황이 '합류 도로'인 경우, 상기 차선 인식을 수행하는 단계는 거리데이터에 기초하여 영상에서 장애물을 제거하고, 장애물이 제거된 영역을 프리스페이스로 설정하는 단계와, 프리스페이스 내의 에지를 검출하는 단계와, 검출된 에지로부터 직선 성분을 검출하는 단계와, 직선 성분 검출 결과에 기초하여 차선 인식에 필요한 관심영역을 설정하는 단계와, 차선 별로 설정된 가중치에 기초하여, 관심영역에서 차선을 추출하는 단계와, 검출된 차선에 기초하여 소실점을 검출하는 단계를 포함할 수 있다. As another example, if the recognized surrounding situation is a 'confluence road', performing the lane recognition may include removing obstacles from the image based on the distance data, setting the area from which the obstacle has been removed to free space, The method comprising the steps of: detecting an edge in a space; detecting a linear component from the detected edge; setting a region of interest necessary for lane recognition based on a linear component detection result; Extracting a lane from the detected lane, and detecting a vanishing point based on the detected lane.

다른 예로, 인식된 주변 상황이 '횡단보도'인 경우, 상기 차선 인식을 수행하는 단계는 거리데이터에 기초하여 영상에서 장애물을 제거하고, 장애물이 제거된 영역을 프리스페이스로 설정하는 단계와, 프리스페이스 내의 에지를 검출하는 단계와, 검출된 에지로부터 직선 성분을 검출하는 단계와, 직선 성분 검출 결과에 기초하여 차선 인식에 필요한 관심영역을 설정하되, 횡단보도가 제외되도록 관심영역을 설정하는 단계와, 설정된 관심영역에서 차선을 추출하는 단계와, 검출된 차선에 기초하여 소실점을 검출하는 단계를 포함할 수 있다. As another example, when the recognized surrounding situation is 'crosswalk', performing the lane recognition may include removing obstacles from the image based on the distance data, setting the area from which the obstacle has been removed to free space, Setting an area of interest necessary for lane recognition based on a linear component detection result and setting a region of interest such that a pedestrian crossing is excluded; , Extracting a lane in the set region of interest, and detecting a vanishing point based on the detected lane.

다른 예로, 인식된 주변 상황이 '터널'인 경우, 상기 차선 인식을 수행하는 단계는 영상의 밝기를 조절하는 단계와, 거리데이터에 기초하여 영상에서 장애물을 제거하고, 장애물이 제거된 영역을 프리스페이스로 설정하는 단계와, 프리스페이스 내의 에지를 검출하는 단계와, 검출된 에지로부터 직선 성분을 검출하는 단계와, 직선 성분 검출 결과에 기초하여 차선 인식에 필요한 관심영역을 설정하는 단계와, 설정된 관심영역에서 차선을 추출하는 단계와, 검출된 차선에 기초하여 소실점을 검출하는 단계를 포함할 수 있다. As another example, if the recognized surrounding situation is a 'tunnel', performing the lane recognition may include adjusting brightness of the image, removing an obstacle from the image based on the distance data, A step of detecting an edge in the free space, a step of detecting a straight line component from the detected edge, a step of setting a region of interest necessary for lane recognition based on the straight line component detection result, Extracting a lane in the area, and detecting a vanishing point based on the detected lane.

차선 인식을 수행하는 단계가 완료되면, 제어부(150)는 차선 인식 결과에 따라 경고부(160)를 통해 차선 이탈 경고를 한다(900).When the lane recognition step is completed, the control unit 150 issues a lane departure warning through the warning unit 160 according to the lane recognition result (900).

이상과 같이 예시된 도면을 참조로 하여, 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 한정적이 아닌 것으로 이해해야만 한다. While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, It will be understood that the invention may be practiced. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive.

100: 차선 인식 장치
110: 영상 촬영부
120: 표지판 인식부
122: 관심영역 설정부
124: 컨텐츠 인식부
130: 상황 인식부
140: 차선 인식부
150: 제어부
160: 경고부
100: lane recognition device
110:
120: Sign recognition unit
122: region of interest setting section
124:
130:
140: lane recognition section
150:
160: Warning section

Claims (15)

자차 주변을 촬영한 영상과 자차 주변의 장애물을 감지한 거리데이터를 획득하는 단계;
상기 영상 내에서 표지판을 인식하는 단계;
상기 인식된 표지판의 컨텐츠에 기초하여 상기 자차의 주변 상황을 인식하는 단계; 및
상기 인식된 주변 상황 정보 및 상기 거리데이터에 기초하여 상기 영상으로부터 차선을 인식하는 단계를 포함하는 차선 인식 방법.
A step of acquiring distance data of an image taken around the subject vehicle and an obstacle around the subject vehicle;
Recognizing a sign in the image;
Recognizing a peripheral situation of the vehicle based on the recognized contents of the sign; And
And recognizing a lane from the image based on the recognized surrounding information and the distance data.
제 1 항에 있어서,
상기 표지판을 인식하는 단계는
상기 표지판 검출을 위한 관심영역을 설정하는 단계; 및
상기 설정된 관심영역에 기초하여 상기 영상 내에서 상기 표지판의 위치를 확인하고, 상기 표지판 내의 컨텐츠를 인식하는 단계를 포함하는 차선 인식 방법.
The method according to claim 1,
The step of recognizing the sign
Setting a region of interest for the sign detection; And
Determining a position of the signboard in the image based on the set area of interest, and recognizing contents in the signboard.
제 1 항에 있어서,
상기 인식된 주변 상황이 차선 축소인 경우, 상기 차선을 인식하는 단계는
상기 거리데이터에 기초하여 상기 영상에서 장애물을 제거하고, 상기 장애물이 제거된 영역을 프리스페이스로 설정하는 단계;
상기 프리스페이스 내의 에지를 검출하는 단계;
상기 검출된 에지로부터 직선 성분을 검출하는 단계;
상기 직선 성분 검출 결과에 기초하여 차선 인식에 필요한 관심영역을 설정하는 단계;
상기 관심영역에서 차선을 추출하는 단계;
상기 검출된 차선에 기초하여 소실점을 검출하는 단계; 및
상기 검출된 소실점을 옆 차선과 만나는 점으로 인식하는 단계를 포함하는 차선 인식 방법.
The method according to claim 1,
If the recognized surrounding situation is lane-narrowing, the step of recognizing the lane
Removing an obstacle from the image based on the distance data, and setting an area in which the obstacle is removed as a free space;
Detecting an edge in the free space;
Detecting a linear component from the detected edge;
Setting a region of interest necessary for lane recognition based on the linear component detection result;
Extracting a lane in the area of interest;
Detecting a vanishing point based on the detected lane; And
And recognizing the detected vanishing point as a point where it meets a side lane.
제 1 항에 있어서,
상기 인식된 주변 상황이 굽은 도로 또는 이중 굽은 도로인 경우, 상기 차선을 인식하는 단계는
차선 인식 범위를 확장하는 단계;
상기 거리데이터에 기초하여 상기 영상에서 장애물을 제거하고, 상기 장애물이 제거된 영역을 프리스페이스로 설정하는 단계;
상기 프리스페이스 내의 에지를 검출하는 단계;
상기 검출된 에지로부터 직선 성분을 검출하는 단계;
상기 직선 성분 검출 결과에 기초하여 차선 인식에 필요한 관심영역을 설정하는 단계;
상기 관심영역에서 차선을 추출하는 단계; 및
상기 검출된 차선에 기초하여 소실점을 검출하는 단계를 포함하는 차선 인식 방법.
The method according to claim 1,
If the recognized surrounding situation is a curved road or a double curved road, the step of recognizing the lane
Extending a lane recognition range;
Removing an obstacle from the image based on the distance data, and setting an area in which the obstacle is removed as a free space;
Detecting an edge in the free space;
Detecting a linear component from the detected edge;
Setting a region of interest necessary for lane recognition based on the linear component detection result;
Extracting a lane in the area of interest; And
And detecting a vanishing point based on the detected lane.
제 1 항에 있어서,
상기 인식된 주변 상황이 합류 도로인 경우, 상기 차선을 인식하는 단계는
상기 거리데이터에 기초하여 상기 영상에서 장애물을 제거하고, 상기 장애물이 제거된 영역을 프리스페이스로 설정하는 단계;
상기 프리스페이스 내의 에지를 검출하는 단계;
상기 검출된 에지로부터 직선 성분을 검출하는 단계;
상기 직선 성분 검출 결과에 기초하여 차선 인식에 필요한 관심영역을 설정하는 단계;
차선 별로 설정된 가중치에 기초하여, 상기 관심영역에서 차선을 추출하는 단계; 및
상기 검출된 차선에 기초하여 소실점을 검출하는 단계를 포함하는 차선 인식 방법.
The method according to claim 1,
If the recognized surrounding situation is a confluence road, the step of recognizing the lane
Removing an obstacle from the image based on the distance data, and setting an area in which the obstacle is removed as a free space;
Detecting an edge in the free space;
Detecting a linear component from the detected edge;
Setting a region of interest necessary for lane recognition based on the linear component detection result;
Extracting a lane in the area of interest based on a weight set for each lane; And
And detecting a vanishing point based on the detected lane.
제 1 항에 있어서,
상기 인식된 주변 상황이 횡단보도인 경우, 상기 차선을 인식하는 단계는
상기 거리데이터에 기초하여 상기 영상에서 장애물을 제거하고, 상기 장애물이 제거된 영역을 프리스페이스로 설정하는 단계;
상기 프리스페이스 내의 에지를 검출하는 단계;
상기 검출된 에지로부터 직선 성분을 검출하는 단계;
상기 직선 성분 검출 결과에 기초하여 차선 인식에 필요한 관심영역을 설정하되, 횡단보도가 제외되도록 관심영역을 설정하는 단계;
상기 관심영역에서 차선을 추출하는 단계; 및
상기 검출된 차선에 기초하여 소실점을 검출하는 단계를 포함하는 차선 인식 방법.
The method according to claim 1,
If the recognized surrounding situation is a pedestrian crossing, the step of recognizing the lane
Removing an obstacle from the image based on the distance data, and setting an area in which the obstacle is removed as a free space;
Detecting an edge in the free space;
Detecting a linear component from the detected edge;
Setting a region of interest necessary for lane recognition based on the linear component detection result, and setting a region of interest such that a pedestrian crossing is excluded;
Extracting a lane in the area of interest; And
And detecting a vanishing point based on the detected lane.
제 1 항에 있어서,
상기 인식된 주변 상황이 터널인 경우, 상기 차선을 인식하는 단계는
상기 영상의 밝기를 조절하는 단계;
상기 거리데이터에 기초하여 상기 영상에서 장애물을 제거하고, 상기 장애물이 제거된 영역을 프리스페이스로 설정하는 단계;
상기 프리스페이스 내의 에지를 검출하는 단계;
상기 검출된 에지로부터 직선 성분을 검출하는 단계;
상기 직선 성분 검출 결과에 기초하여 차선 인식에 필요한 관심영역을 설정하되, 횡단보도가 제외되도록 관심영역을 설정하는 단계;
상기 관심영역에서 차선을 추출하는 단계; 및
상기 검출된 차선에 기초하여 소실점을 검출하는 단계를 포함하는 차선 인식 방법.
The method according to claim 1,
If the recognized surrounding situation is a tunnel, the step of recognizing the lane
Adjusting brightness of the image;
Removing an obstacle from the image based on the distance data, and setting an area in which the obstacle is removed as a free space;
Detecting an edge in the free space;
Detecting a linear component from the detected edge;
Setting a region of interest necessary for lane recognition based on the linear component detection result, and setting a region of interest such that a pedestrian crossing is excluded;
Extracting a lane in the area of interest; And
And detecting a vanishing point based on the detected lane.
자차 주변을 촬영한 영상을 획득하는 영상 촬영부;
상기 자차 주변의 장애물을 감지하여 거리데이터를 획득하는 거리센서;
상기 영상 내에서 표지판을 인식하는 표지판 인식부;
상기 인식된 표지판의 컨텐츠에 기초하여 상기 자차의 주변 상황을 인식하는 상황 인식부; 및
상기 인식된 주변 상황 정보 및 상기 거리데이터에 기초하여 상기 영상으로부터 차선을 인식하는 차선 인식부를 포함하는 차선 인식 장치.
An image capturing unit for capturing an image of the surroundings of the vehicle;
A distance sensor for sensing an obstacle around the vehicle and obtaining distance data;
A sign recognition unit for recognizing a sign in the image;
A situation recognition unit for recognizing the surroundings of the vehicle on the basis of the contents of the recognized sign; And
And a lane recognition unit for recognizing a lane from the image based on the recognized surrounding information and the distance data.
제 8 항에 있어서,
표지판 인식부는
상기 표지판 검출을 위한 관심영역을 설정하는 관심영역 설정부; 및
상기 설정된 관심영역에 기초하여 상기 영상 내에서 상기 표지판의 위치를 확인하고, 상기 표지판 내의 컨텐츠를 인식하는 컨텐츠 인식부를 포함하는 차선 인식 장치.
9. The method of claim 8,
The sign recognition section
A region of interest setting unit for setting a region of interest for detecting the sign; And
And a content recognition unit for confirming the position of the signboard in the image based on the set region of interest and recognizing contents in the signboard.
제 8 항에 있어서,
상기 차선 인식부는
상기 거리데이터에 기초하여 상기 영상에서 장애물을 제거하여, 상기 장애물이 제거된 영역을 프리스페이스로 설정하고,
상기 프리스페이스 내의 에지를 검출하고,
상기 검출된 에지로부터 직선 성분을 검출하고,
상기 직선 성분 검출 결과에 기초하여 차선 인식에 필요한 관심영역을 설정하고,
상기 관심영역에서 차선을 추출하고,
상기 검출된 차선에 기초하여 소실점을 검출하는 차선 인식 장치.
9. The method of claim 8,
The lane recognition unit
Removing an obstacle from the image based on the distance data, setting an area from which the obstacle is removed to a free space,
Detecting an edge in the free space,
Detecting a linear component from the detected edge,
Setting a region of interest necessary for lane recognition based on the linear component detection result,
Extracting a lane in the area of interest,
And detects a vanishing point based on the detected lane.
제 10 항에 있어서,
상기 차선 인식부는
상기 인식된 주변 상황이 차선 축소인 경우, 상기 검출된 소실점을 옆 차선과 만나는 점으로 인식하는 차선 인식 장치.
11. The method of claim 10,
The lane recognition unit
And recognizes the detected vanishing point as a point where it meets a side lane when the recognized surrounding situation is lane reduction.
제 10 항에 있어서,
상기 차선 인식부는
상기 인식된 주변 상황이 굽은 도로 또는 이중 굽은 도로인 경우, 차선 인식 범위를 확장하는 차선 인식 장치.
11. The method of claim 10,
The lane recognition unit
And extends the lane recognition range when the recognized surrounding situation is a curved road or a double curved road.
제 10 항에 있어서,
상기 차선 인식부는
상기 인식된 주변 상황이 합류 도로인 경우, 상기 관심영역에서 차선을 추출할 때, 차선 별로 설정된 가중치에 기초하여 상기 관심영역에서 차선을 추출하는 차선 인식 장치.
11. The method of claim 10,
The lane recognition unit
Wherein the lane recognition unit extracts a lane in the ROI based on a weight set for each lane when the lane is extracted from the ROI when the recognized surrounding situation is a confluence road.
제 10 항에 있어서,
상기 차선 인식부는
상기 인식된 주변 상황이 횡단보도인 경우, 상기 관심영역을 설정할 때, 횡단보도가 제외되도록 관심영역을 설정하는 차선 인식 장치.
11. The method of claim 10,
The lane recognition unit
And sets the area of interest such that the pedestrian crossing is excluded when setting the area of interest when the recognized surrounding situation is a pedestrian crossing.
제 10 항에 있어서,
상기 차선 인식부는
상기 인식된 주변 상황이 터널인 경우, 상기 영상의 밝기를 조절하는 차선 인식 장치.
11. The method of claim 10,
The lane recognition unit
And adjusts the brightness of the image when the recognized surrounding situation is a tunnel.
KR1020130016754A 2013-02-18 2013-02-18 Lane detection method and apparatus KR20140104516A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130016754A KR20140104516A (en) 2013-02-18 2013-02-18 Lane detection method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130016754A KR20140104516A (en) 2013-02-18 2013-02-18 Lane detection method and apparatus

Publications (1)

Publication Number Publication Date
KR20140104516A true KR20140104516A (en) 2014-08-29

Family

ID=51748269

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130016754A KR20140104516A (en) 2013-02-18 2013-02-18 Lane detection method and apparatus

Country Status (1)

Country Link
KR (1) KR20140104516A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170089295A (en) * 2016-01-26 2017-08-03 주식회사 만도 Method and Apparatus for controlling car speed during changing lane automatically
WO2018097595A1 (en) * 2016-11-28 2018-05-31 충북대학교 산학협력단 Method and device for providing driving information by using camera image
KR20190046339A (en) 2017-10-26 2019-05-07 서울대학교산학협력단 Reclamation type beacon transmitter for recognizing vehicle lane and reclamation working vehicle thereof
KR102241116B1 (en) * 2020-09-08 2021-04-16 포티투닷 주식회사 A method and apparatus for determining the lane of a driving vehicle using an artificial neural network, and a navigation device including the same
US11477371B2 (en) * 2020-06-22 2022-10-18 Toyota Jidosha Kabushiki Kaisha Partial image generating device, storage medium storing computer program for partial image generation and partial image generating method

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170089295A (en) * 2016-01-26 2017-08-03 주식회사 만도 Method and Apparatus for controlling car speed during changing lane automatically
WO2018097595A1 (en) * 2016-11-28 2018-05-31 충북대학교 산학협력단 Method and device for providing driving information by using camera image
CN109070882A (en) * 2016-11-28 2018-12-21 忠北国立大学产学合作基金会 Utilize the driving information providing method and device of camera image
CN109070882B (en) * 2016-11-28 2019-09-20 忠北国立大学产学合作基金会 Utilize the driving information providing method and device of camera image
KR20190046339A (en) 2017-10-26 2019-05-07 서울대학교산학협력단 Reclamation type beacon transmitter for recognizing vehicle lane and reclamation working vehicle thereof
US11477371B2 (en) * 2020-06-22 2022-10-18 Toyota Jidosha Kabushiki Kaisha Partial image generating device, storage medium storing computer program for partial image generation and partial image generating method
KR102241116B1 (en) * 2020-09-08 2021-04-16 포티투닷 주식회사 A method and apparatus for determining the lane of a driving vehicle using an artificial neural network, and a navigation device including the same
KR20220033001A (en) * 2020-09-08 2022-03-15 포티투닷 주식회사 A method and apparatus for determining the lane of a driving vehicle using an artificial neural network
WO2022055231A1 (en) * 2020-09-08 2022-03-17 포티투닷 주식회사 Method and device for determining lane of traveling vehicle by using artificial neural network, and navigation device including same

Similar Documents

Publication Publication Date Title
KR102441085B1 (en) Apparatus and method for providing guidance information using crosswalk recognition result
US11461595B2 (en) Image processing apparatus and external environment recognition apparatus
JP5690688B2 (en) Outside world recognition method, apparatus, and vehicle system
KR101517181B1 (en) System and method for warning lane departure
CN105981042B (en) Vehicle detection system and method
Kosaka et al. Vision-based nighttime vehicle detection using CenSurE and SVM
WO2016129403A1 (en) Object detection device
Kim et al. Robust detection of non-motorized road users using deep learning on optical and LIDAR data
US20120300078A1 (en) Environment recognizing device for vehicle
US9783111B2 (en) Method and apparatus for vehicle driving assistance
JP5894201B2 (en) Boundary line recognition device
KR101663574B1 (en) Method and system for detection of sudden pedestrian crossing for safe driving during night time
KR20140104516A (en) Lane detection method and apparatus
Kovačić et al. Computer vision systems in road vehicles: a review
WO2016059643A1 (en) System and method for pedestrian detection
KR101687094B1 (en) Apparatus for recognizing traffic sign and method thereof
JP2014146267A (en) Pedestrian detection device and driving support device
KR20160067631A (en) Method for recognizing vehicle plate
KR20160126254A (en) System for detecting road area
KR20140087622A (en) Method of extracting traffic lanes from captured image using brightness
EP2579229B1 (en) Apparatus and method for monitoring surroundings of a vehicle
JP2019114150A (en) Extravehicular environment recognition device
KR20180069282A (en) Method of detecting traffic lane for automated driving
Hsieh et al. Vision based obstacle warning system for on-road driving
Oniga et al. Traffic light detection on mobile devices

Legal Events

Date Code Title Description
N231 Notification of change of applicant
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application