KR20140104516A - Lane detection method and apparatus - Google Patents
Lane detection method and apparatus Download PDFInfo
- Publication number
- KR20140104516A KR20140104516A KR1020130016754A KR20130016754A KR20140104516A KR 20140104516 A KR20140104516 A KR 20140104516A KR 1020130016754 A KR1020130016754 A KR 1020130016754A KR 20130016754 A KR20130016754 A KR 20130016754A KR 20140104516 A KR20140104516 A KR 20140104516A
- Authority
- KR
- South Korea
- Prior art keywords
- lane
- interest
- detecting
- setting
- image
- Prior art date
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 20
- 238000000034 method Methods 0.000 claims description 27
- 230000002093 peripheral effect Effects 0.000 claims description 3
- 239000000284 extract Substances 0.000 claims description 2
- 238000005516 engineering process Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 241000282414 Homo sapiens Species 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 210000004556 brain Anatomy 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 238000003708 edge detection Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/06—Road conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R21/00—Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
- B60R21/01—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
- B60R21/013—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
- B60R21/0134—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/10—Path keeping
- B60W30/12—Lane keeping
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3602—Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
- B60W2552/50—Barriers
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
- B60W2552/53—Road markings, e.g. lane marker or crosswalk
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2555/00—Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
- B60W2555/60—Traffic rules, e.g. speed limits or right of way
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30256—Lane; Road marking
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Traffic Control Systems (AREA)
- Image Processing (AREA)
Abstract
Description
본 발명은 차선 인식 방법 및 장치에 관한 것으로, 더욱 상세하게는 차선 인식 성능을 향상시킬 수 있는 차선 인식 방법 및 장치에 관한 것이다. The present invention relates to a lane recognition method and apparatus, and more particularly, to a lane recognition method and apparatus capable of improving lane recognition performance.
전자기술이 보편화되기 이전까지만 해도 자동차는 기계적인 원리만으로 제어가 되었다. 그러나 정보통신기술이 발달함에 따라 자동차도 정보통신기술과 결합되고 있으며, 이에 따라 자동차 자체에 대한 안전 기술뿐만 아니라 자동차의 주변 상황과 연관된 안전 기술에 대한 연구가 증가하고 있는 추세이다. Until electronic technology became popular, automobiles were controlled only by mechanical principles. However, as information and communication technology develops, automobiles are also being combined with information and communication technologies. Accordingly, research on safety technologies related to automobile surroundings as well as safety technologies for automobiles is increasing.
최근 출시되고 있는 자동차에는 자동차 안전 제어 시스템이 탑재된다. 자동차 안전 제어 시스템은 자동차에 탑재된 센서를 이용하여 자동차의 주변 상황을 감지하고, 감지 결과에 근거하여 차선 유지, 충돌 방지 및 전조등 제어 등의 자동차 안전 제어를 수행한다. The automobile safety control system is installed in the recently released automobiles. The automotive safety control system senses the surroundings of the vehicle using sensors mounted on the vehicle and car safety control such as lane keeping, collision avoidance and headlight control based on the detection result.
차선 인식의 경우, 자동차의 전방에 설치된 센서를 이용하고 있다. 센서의 예로는 비전 센서(Vision Sensor), 레이더(Radar), 라이더(Lidar) 등을 예로 들 수 있는데, 이 중 비전 센서는 기존의 다양한 영상 처리 알고리즘을 활용할 수 있어 널리 이용되고 있다. In the case of lane recognition, a sensor installed in front of the automobile is used. Examples of the sensor include a Vision Sensor, a Radar, and a Lidar. Vision sensors are widely used because they can utilize various image processing algorithms.
그러나 종래의 차선 인식 방법은 하나의 비전 센서를 이용하기 때문에 자차가 주행 중인 차선이 다른 차선과 합쳐지는 경우, 횡단보도, 급커브 등의 상황에 대한 인식이 떨어지는 문제가 있다. However, since the conventional lane recognition method uses one vision sensor, there is a problem in that when the lane in which the vehicle is traveling is merged with another lane, the recognition of the situation such as the crosswalk and the sharp curve is poor.
본 발명이 해결하고자 하는 과제는 차선 인식 성능을 향상시킬 수 있는 차선 인식 방법 및 장치를 제공하는 것이다. SUMMARY OF THE INVENTION It is an object of the present invention to provide a lane recognition method and apparatus capable of improving lane recognition performance.
그러나 본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다. However, the problems to be solved by the present invention are not limited to the above-mentioned problems, and other problems which are not mentioned can be clearly understood by those skilled in the art from the following description.
상술한 과제를 해결하기 위하여 본 발명의 일 실시예에 따른 차선 인식 방법은 자차 주변을 촬영한 영상과 자차 주변의 장애물을 감지한 거리데이터를 획득하는 단계; 상기 영상 내에서 표지판을 인식하는 단계; 상기 인식된 표지판의 컨텐츠에 기초하여 상기 자차의 주변 상황을 인식하는 단계; 및 상기 인식된 주변 상황 정보 및 상기 거리데이터에 기초하여 상기 영상으로부터 차선을 인식하는 단계를 포함한다. According to another aspect of the present invention, there is provided a lane recognition method including: obtaining distance data of an image of a periphery of a car and an obstacle around the car; Recognizing a sign in the image; Recognizing a peripheral situation of the vehicle based on the recognized contents of the sign; And recognizing a lane from the image based on the recognized surrounding information and the distance data.
상술한 과제를 해결하기 위하여 본 발명의 일 실시예에 따른 차선 인식 장치는 자차 주변을 촬영한 영상을 획득하는 영상 촬영부; 상기 자차 주변의 장애물을 감지하여 거리데이터를 획득하는 거리센서; 상기 영상 내에서 표지판을 인식하는 표지판 인식부; 상기 인식된 표지판의 컨텐츠에 기초하여 상기 자차의 주변 상황을 인식하는 상황 인식부; 및 상기 인식된 주변 상황 정보 및 상기 거리데이터에 기초하여 상기 영상으로부터 차선을 인식하는 차선 인식부를 포함한다.According to an aspect of the present invention, there is provided a lane recognizing apparatus including: an image capturing unit for capturing an image of a periphery of a car; A distance sensor for sensing an obstacle around the vehicle and obtaining distance data; A sign recognition unit for recognizing a sign in the image; A situation recognition unit for recognizing the surroundings of the vehicle on the basis of the contents of the recognized sign; And a lane recognition unit for recognizing the lane from the image based on the recognized surrounding information and the distance data.
본 발명에 의한 차선 인식 방법 및 장치에 따르면 다음과 같은 효과가 있다. The method and apparatus for recognizing a lane according to the present invention have the following effects.
비전 센서를 통해 획득된 영상에서 표지판을 인식하고, 이를 주변 상황을 인식하는데 활용함으로써, 차선이 합쳐지는 경우나 횡단보도, 급커브 등에 상황에 대한 차선 인식 성능을 향상시킬 수 있다. By recognizing the signs in the image obtained through the vision sensor and using it to recognize the surrounding situation, it is possible to improve lane recognition performance for situations where lanes are merged, crosswalks, sharp curves, and the like.
도 1은 본 발명의 일 실시예에 따른 차선 인식 장치의 구성을 도시한 도면이다.
도 2는 관심영역이 설정된 영상을 예시한 도면이다.
도 3은 표지판의 컨텐츠 및 그에 따라 분류된 자차의 주변 상황을 도시한 도면이다.
도 4는 자차가 도로 중앙을 주행하고 있을 때 촬영된 영상과 자차가 오르막 길을 주행하고 있을 때 촬영된 영상을 예시한 도면이다.
도 5는 자차가 도로 중앙을 주행하고 있을 때 촬영된 영상과 자차가 차선 축소 구간을 주행하고 있을 때 촬영된 영상을 예시한 도면이다.
도 6은 자차가 우측으로 굽은 도로를 주행하고 있을 때 촬영된 영상을 예시한 도면이다.
도 7은 자차가 합류 도로를 주행하고 있을 때 촬영된 영상을 예시한 도면이다.
도 8은 횡단보도가 포함된 영상을 예시한 도면이다.
도 9는 도 1의 차선 인식 장치에서 수행되는 차선 인식 방법을 도시한 흐름도이다. 1 is a diagram illustrating a configuration of a lane recognizing apparatus according to an embodiment of the present invention.
2 is a diagram illustrating an image in which a region of interest is set.
3 is a view showing the contents of a sign and the surrounding situation of the car classified according to the content of the sign.
4 is a view illustrating an image taken when the vehicle is traveling in the middle of the road and an image taken when the vehicle is traveling on an uphill road.
5 is a view illustrating an image taken when an image taken when the vehicle is traveling in the middle of the road and when the vehicle is traveling in the lane-narrowing section.
6 is a diagram illustrating an image taken when the vehicle is traveling on a road curved rightward.
Fig. 7 is a view showing an image taken when a vehicle is traveling on a confluence road; Fig.
8 is a diagram illustrating an image including a crosswalk.
FIG. 9 is a flowchart illustrating a lane recognition method performed by the lane recognizing device of FIG. 1. FIG.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention, and the manner of achieving them, will be apparent from and elucidated with reference to the embodiments described hereinafter in conjunction with the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. To fully disclose the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims.
이하, 첨부된 도면들을 참조하여 본 발명의 실시예들을 설명한다. 도면에서 동일한 도면 부호는 동일한 구성 요소를 나타낸다. Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. In the drawings, like reference numerals designate like elements.
도 1은 본 발명의 일 실시예에 따른 차선 인식 장치의 구성을 도시한 도면이다. 1 is a diagram illustrating a configuration of a lane recognizing apparatus according to an embodiment of the present invention.
도 1에 도시된 바와 같이, 차선 인식 장치(100)는 영상 촬영부(110), 표지판 인식부(120), 상황 인식부(130), 차선 인식부(140), 제어부(150) 및 경고부(160)를 포함할 수 있다. 1, the
영상 촬영부(110)는 자차가 주행 중인 차선(이하 '현재 차선'이라 칭한다)과 현재 차선을 주행 중인 전방 차량에 대한 영상을 촬영한다. 이러한 영상 촬영부(110)는 비전 센서를 포함할 수 있다. 비전 센서로는 2차원 영상을 획득할 수 있는 비전 센서, 및 3차원 영상을 획득할 수 있는 3차원 비전 센서를 예로 들 수 있다. The
표지판 인식부(120)는 관심영역 설정부(122) 및 컨텐츠 인식부(124)를 포함할 수 있다. The
관심영역 설정부(122)는 영상 촬영부(110)에 의해 촬영된 영상에서 표지판 검출을 위한 관심영역(Region of Interese: ROI)을 설정한다. 관심영역은 표지판을 포함하되, 표지판 검출을 위한 탐색 범위를 최소화할 수 있도록 설정될 수 있다. 관심영역 설정은 아다부스트 알고리즘(Adaboost algorithm)에 기초하여 이루어질 수 있다. 아다부스트 알고리즘은 약한 분류기(weak classifier)의 집합을 선형적으로 결합하여 높은 검출 성능을 가지는 강한 분류기를 생성하는 알고리즘이다. 도 2는 표지판 검출을 위한 관심영역이 설정된 모습을 예시한 도면이다. 도 2를 참조하면, 표지판을 포함하도록 두 개의 관심영역이 설정된 것을 확인할 수 있다. The
다시 도 1을 참조하면, 컨텐츠 인식부(124)는 설정된 관심영역에 기초하여 영상 내에서 표지판의 위치를 확인하고, 표지판 내의 컨텐츠를 인식할 수 있다. 여기서 컨텐츠를 인식한다는 것은 표지판에 표시되어 있는 숫자, 문자, 기호 및 도형 중 적어도 하나를 인식하는 것을 의미한다. 컨텐츠 인식을 위하여 컨텐츠 인식부(124)는 신경망(Neural Networks) 기술을 이용할 수 있다. Referring again to FIG. 1, the
신경망이란 수많은 뉴런들이 서로 연결되어 있는 인간의 뇌의 구조와 인간의 뇌에서 수행되는 정보처리 방식을 모방함으로써, 인간이 지능적으로 처리하는 복잡한 정보처리 능력을 컴퓨를 통해 실현하고자 하는 연구 분야를 말한다. 신경망은 생물학적 뉴런을 모델링한 유닛(unit)들과 그 유닛 사이의 가중치 연결(weighted-connection)들로 이루어지며, 각 신경망 모델에 따라 다양한 구조와 학습 규칙을 갖는다. Neural network is a field of research that aims to realize complex information processing ability that human beings intelligently process through computer by imitating the structure of human brain connected with numerous neurons and information processing method performed in human brain. Neural networks consist of units modeling biological neurons and weighted connections between the units, and have various structures and learning rules according to each neural network model.
상황 인식부(130)는 컨텐츠 인식부(124)의 인식 결과에 근거하여, 자차의 주변 상황을 인식할 수 있다. 자차의 주변 상황은 표지판의 컨텐츠에 따라 분류될 수 있다. 이에 대한 보다 구체적인 설명을 위해 도 3을 참조하기로 한다. The
도 3은 표지판의 컨텐츠에 따라 분류된 자차의 주변 상황을 도시한 도면이다. 도 3을 참조하면, 자차의 주변 상황이 '차선 축소', '굽은 도로', '이중 굽은 도로', '합류 도로', '횡단보도' 및 '터널' 등의 6가지로 분류된 것을 알 수 있다. FIG. 3 is a view showing the surroundings of a car classified according to the contents of a sign. Referring to FIG. 3, it can be seen that the surroundings of the car are classified into six categories such as 'lane reduction', 'curved road', 'double curved road', 'joining road', 'crosswalk', and 'tunnel' have.
컨텐츠 인식부(124)에서 인식된 표지판의 컨텐츠가 좌우 2개 차선의 축소를 나타내는 기호, 우측 1개 차선의 축소를 나타내는 기호, 또는 좌측 1개 차선의 축소를 나타내는 기호인 경우, 상황 인식부(130)는 자차의 주변 상황을 '차선 축소'로 인식한다. When the content of the sign recognized by the
만약, 컨텐츠 인식부(124)에서 인식된 표지판의 컨텐츠가 우측으로 굽은 화살표이거나, 좌측으로 굽은 화살표라면, 상황 인식부(130)는 자차의 주변 상황을 '굽은 도로'로 인식한다. If the content of the sign recognized by the
만약, 컨텐츠 인식부(124)에서 인식된 표지판의 컨텐츠가 우좌로 이중으로 굽은 화살표이거나, 좌우로 이중으로 굽은 화살표라면, 상황 인식부(130)는 자차의 주변 상황을 '이중 굽은 도로'로 인식한다. If the content of the sign recognized by the
만약, 컨텐츠 인식부(124)에서 인식된 표지판의 컨텐츠가 우합류도로를 나타내는 기호이거나, 좌합류도로를 나타내는 기호인 경우, 상황 인식부(130)는 자차의 주변 상황을 '합류 도로'로 인식한다. If the content of the sign recognized by the
만약, 컨텐츠 인식부(124)에서 인식된 표지판의 컨텐츠가 횡단보도를 나타내는 기호나 문자인 경우, 상황 인식부(130)는 자차의 주변 상황을 '횡단보도'로 인식한다. If the content of the sign recognized by the
만약, 컨텐츠 인식부(124)에서 인식된 표지판의 컨텐츠가 터널을 나타내는 기호인 경우, 상황 인식부(130)는 자차의 주변 사황을 '터널'로 인식한다. If the content of the sign recognized by the
상술한 바와 같은 주변 상황 정보가 차선 인식에 어떻게 활용될 수 있는지에 대해서 설명하면 다음과 같다. How the surrounding information described above can be utilized for lane recognition will be described below.
주변 상황 정보가 '차선 축소'인 경우, 이러한 주변 상황 정보는 영상에서 검출된 소실점이 현재 차선의 양쪽 차선이 만나는 점인지, 차선 축소로 인해 옆차선과 만나는 점인지를 구별하는데 사용될 수 있다. 이에 대한 구체적인 설명을 위해 도 4 및 도 5를 참조하기로 한다. In the case where the surrounding situation information is 'lane reduction', this surrounding situation information can be used to distinguish whether the vanishing point detected in the image meets both lanes of the current lane or a side lane due to lane reduction. Reference will be made to FIGS. 4 and 5 for a detailed description thereof.
도 4의 (A)는 자차가 도로 중앙을 주행하고 있을 때 촬영된 영상을 나타낸 것이고, 도 4의 (B)는 자차가 오르막 길을 주행하고 있을 때 촬영된 영상을 나타낸 것이다. 그리고 도 5의 (A)는 자차가 도로 중앙을 주행하고 있을 때 촬영된 영상을 나타낸 것이고, 도 5의 (B)는 자차가 차선 축소 구간을 주행하고 있을 때 촬영된 영상을 나타낸 것이다. FIG. 4A shows an image taken when the vehicle is traveling in the middle of the road, and FIG. 4B shows the image taken when the vehicle is traveling on an uphill road. 5A shows an image taken while the vehicle is traveling in the middle of the road, and FIG. 5B shows an image taken when the vehicle is traveling in a lane-reducing section.
도 4의 두 영상을 비교하면, 자차가 오르막 길을 주행하고 있을 때 두 차선이 만나는 점은 자차가 도로 중앙을 주행하고 있을 때 두 차선이 만나는 점보다 아래쪽에 위치한 것을 알 수 있다. 즉, 도 4의 (B) 영상에 표시된 붉은 선은 (A) 영상에 표시된 붉은 선보다 아래쪽에 위치한 것을 알 수 있다. 마찬가지로, 도 5의 두 영상을 비교하면, 자차가 차선 합류 구간을 주행하고 있을 때 두 차선이 만나는 점은 자차가 도로 중앙을 주행하고 있을 때 두 차선이 만나는 점보다 아래쪽에 위치한 것을 알 수 있다. 즉, 도 5의 (B) 영상에 표시된 붉은 선은 (A) 영상에 표시된 붉은 선보다 아래쪽에 위치한 것을 알 수 있다. 이러한 경우, '차선 축소'라는 차량 주변 정보를 활용하면, 자차가 오르막길을 주행 중인지 차선 합류 구간을 주행 중인지를 구별할 수 있다. 즉, 영상에서 검출된 소실점이 현재 차선의 양쪽 차선이 만나는 점인지, 옆차선과 만나는 점인지를 구별할 수 있다. When the two images in FIG. 4 are compared, it can be seen that the point where the two lanes meet when the vehicle is traveling on the uphill road is located below the point where the two lanes meet when the vehicle is traveling in the middle of the road. That is, it can be seen that the red line shown in the image of FIG. 4 (B) is located below the red line shown in the image (A). Similarly, when comparing two images of FIG. 5, it can be seen that the point where the two lanes meet when the vehicle is running in the lane merging section is located below the point where the two lanes meet when the vehicle is traveling in the middle of the road. That is, it can be seen that the red line shown in the image (B) of FIG. 5 is located below the red line shown in the image (A). In this case, by using the vehicle periphery information called " lane reduction ", it is possible to distinguish whether the vehicle is traveling in an uphill or a lane junction. That is, it is possible to distinguish whether the vanishing point detected in the image is the point at which both lanes of the current lane meet, or the point at which it meets the next lane.
주변 상황 정보가 '굽은 도로' 또는 '이중 굽은 도로'인 경우, 이러한 주변 상황 정보는 차선 인식 범위를 확장하는데 사용될 수 있다. 이에 대한 보다 구체적인 설명을 위해 도 6을 참조하기로 한다. If the surrounding information is a 'curved road' or a 'double curved road', this surrounding information can be used to extend the lane recognition range. Reference will be made to Fig. 6 for a more detailed description thereof.
도 6은 자차가 우측으로 굽은 도로를 주행하고 있을 때 촬영된 영상을 나타낸 것이다. 도 6에 도시된 바와 같이, 굽은 도로는 차선이 급격한 곡선을 가진다. 그렇기 때문에 차선 인식 범위를 벗어날 확률이 높다. 따라서, 주변 상황 정보가 '굽은 도로' 또는 '이중 굽은 도로'인 경우, 차선 인식을 수행하기에 앞서 차선 인식 범위를 좌 및/또는 우로 확장하면, 차선 인식 오류를 줄일 수 있다. 6 shows an image taken when the vehicle is traveling on a road curved rightward. As shown in Fig. 6, the curved road has a curve in which the lane is abrupt. Therefore, there is a high probability of departing from the lane recognition range. Accordingly, when the surrounding information is 'curved road' or 'double curved road', lane recognition errors can be reduced by extending the lane recognition range to left and / or right before performing lane recognition.
주변 상황 정보가 '합류 도로'인 경우, 이러한 주변 상황 정보는 영상에서 검출된 복수개의 차선 중에서 안쪽 차선에 대하여 가중치를 설정하는데 사용될 수 있다. 이에 대한 보다 구체적인 설명을 위해 도 7을 참조하기로 한다. If the surrounding situation information is a " confluence road ", this surrounding situation information can be used to set a weight for the inner lane among a plurality of lanes detected in the image. Reference will be made to Fig. 7 for a more detailed description thereof.
도 7은 자차가 합류 도로를 주행하고 있을 때 촬영된 영상을 나타낸 것이다. 도 7에 도시된 바와 같은 영상에 대해서 차선 인식 과정을 수행하면, 복수개의 차선이 검출된다. 이처럼 복수개의 차선이 검출된 경우에는, 차선 인식 오류가 발생할 수 있다. 따라서, 주변 상황 정보가 '합류 도로'인 경우, 안쪽 차선에만 가중치를 적용하여 차선 인식을 수행하게 되면, 차선 인식 오류를 줄일 수 있다. 7 shows an image taken when the vehicle is traveling on a confluence road. When a lane recognition process is performed on an image as shown in FIG. 7, a plurality of lanes are detected. When a plurality of lanes are detected, a lane recognition error may occur. Therefore, when the surrounding information is the 'confluence road', lane recognition can be reduced by applying the lane recognition only to the inner lane.
주변 상황 정보가 '횡단보도'인 경우, 이러한 주변 상황 정보는 영상에서 횡단보도를 제거하는데 사용될 수 있다. 예를 들어, 도 8에 도시된 바와 같이, 횡단보도가 포함된 영상에 대해서 차선 인식 과정을 수행하면, 횡단보도로 인하여 차선 인식 오류가 발생할 수 있다. 따라서, 주변 상황 정보가 '횡단보도'인 경우, 영상으로부터 횡단보도를 제거하여 차선 인식을 수행하게 되면, 횡단보도가 차선으로 인식되는 것을 방지할 수 있다. If the surrounding situation information is 'crosswalk', this surrounding situation information can be used to remove the crosswalk from the image. For example, as shown in FIG. 8, when a lane recognition process is performed on an image including a pedestrian crossing, a lane recognition error may occur due to the pedestrian crossing. Therefore, when the surrounding situation information is 'crosswalk', if the lane recognition is performed by removing the crosswalk from the image, it is possible to prevent the crosswalk from being recognized as a lane.
주변 상황 정보가 '터널'인 경우, 이러한 주변 상황 정보는 자차 주변의 조명 변화를 미리 인지하는데 사용될 수 있다. 구체적으로, 자차가 터널을 주행하는 경우에는 자차 주변의 조명이 갑자기 어두워지기 때문에 차선 인식 오류가 발생할 수 있다. 따라서, 주변 상황 정보가 '터널'인 경우에는 영상의 전체적인 밝기를 향상시켜, 차선 인식 오류가 발생하는 것을 방지할 수 있다. If the surrounding situation information is a 'tunnel', the surrounding situation information can be used to recognize the illumination change around the car in advance. Specifically, when the vehicle travels through the tunnel, the lane recognition error may occur because the light around the vehicle suddenly becomes dark. Accordingly, when the surrounding information is a 'tunnel', it is possible to improve the overall brightness of the image and prevent a lane recognition error from occurring.
다시 도 1을 참조하면, 상황 인식부(130)에서 인식된 주변 상황 정보는 차선 인식부(140)로 제공된다. Referring again to FIG. 1, the surrounding information recognized by the
차선 인식부(140)는 상황 인식부(130)로부터 제공받은 주변 상황 정보에 기초하여 차선 인식을 수행한다. 차선 인식 과정을 설명하면 다음과 같다. The
우선, 차선 인식부(140)는 거리센서에 의해 획득된 거리데이터에 기초하여 영상에서 장애물을 제거하고, 장애물이 제거된 영역을 프리스페이스로 설정한다. 여기서 장애물이란 차선 인식 오류의 원인이되는 대상체를 말하는 것으로 전방 차량, 옆차선에 위치한 차량을 예로 들 수 있다. First, the
프리스페이스가 설정되면, 차선 인식부(140)는 프리스페이스에서 에지를 검출한다. 이를 위해 차선 인식부(140)는 소벨 필터(Sobel filter)를 이용할 수 있다. 소벨 필터는 수직 에지나 수평 에지보다 대각선 방향의 에지 검출에 효과적이며, 일반적으로, 3×3 크기의 마스크 윈도우(mask window)로 정의된다. 그러나 마스크의 크기가 3×3으로 한정되는 것은 아니며, 5×5 또는 7×7 크기를 가질 수도 있다. When the free space is set, the
이 후, 차선 인식부(140)는 허프변환(Hough Transform)을 이용하여, 에지 정보로부터 직선 성분을 검출한다. Thereafter, the
이 후, 차선 인식부(140)는 프리스페이스 내의 직선 성분 검출 결과에 기초하여 차선 인식에 필요한 적어도 하나의 관심영역을 설정한다. 차선 인식에 필요한 관심영역은 차선을 포함하되, 차선 인식을 위한 영상 탐색 범위를 최소화할 수 있도록 설정된다. 일반적으로, 차선은 영상의 하부에 위치하므로, 관심영역은 영상의 하부쪽에 설정된다. 또한, 차선은 멀어질수록 작게 보이므로, 차선이 작아질수록 관심영역의 크기도 작아지도록 설정된다. 또한 차선은 좌측 차선과 우측 차선을 포함하므로, 관심영역은 좌측 차선과 우측 차선에 대하여 각각 설정된다. Thereafter, the
차선 인식을 위한 관심영역이 설정되면, 차선 인식부(140)는 설정된 관심영역에서 차선을 추출한다. 이 때, 차선 추출은 영상의 하단에 위치한 관심영역에서부터 차례로 수행될 수 있다. 즉, 좌측 차선에 대한 관심영역들과 우측 차선에 대한 관심영역들 중에서 영상의 최하단에 위치한 좌우 관심영역들로부터 차선을 추출한다. 그 다음, 해당 관심영역들보다 위쪽에 위치한 관심영역으로부터 차선을 추출한다. When the area of interest for lane recognition is set, the
관심영역들로부터 차선이 추출되면, 차선 인식부(140)는 차선의 소실점을 검출할 수 있다. 검출된 소실점의 위치는 제어부(150)로 제공될 수 있다. When the lane is extracted from the ROIs, the
제어부(150)는 영상에서 검출된 소실점의 위치와 영상의 중심점의 위치를 비교한다. 그리고 비교 결과에 따라 자차의 차선 이탈 여부를 판단한다. 판단 결과, 자차가 차선을 이탈하지 않은 경우에는, 차선 인식 과정을 계속해서 수행하고, 자차가 차선을 이탈한 경우에는, 경고부(160)를 통해 운전자에게 차선 이탈을 경고한다. The
도 9는 본 발명의 일 실시예에 따른 차선 인식 방법을 도시한 흐름도이다. 9 is a flowchart illustrating a lane recognition method according to an embodiment of the present invention.
우선, 영상 촬영부(110)를 통해 자차 주변에 대한 영상을 획득하고, 거리센서를 통해 거리데이터를 획득한다(500). First, an image of the periphery of the vehicle is acquired through the
이 후, 표지판 인식부(120)에서는 영상 내에서 표지판을 인식할 수 있다(600). 표지판을 인식하는 단계는 영상 촬영부(110)에 의해 촬영된 영상에서 표지판 검출을 위한 관심영역을 설정하는 단계와, 설정된 관심영역에서 표지판의 위치를 확인하는 단계와, 표지판 내의 컨텐츠를 인식하는 단계를 포함할 수 있다. Thereafter, the
표지판이 인식되면, 상황 인식부(130)는 인식된 표지판의 컨텐츠에 따라 자차의 주변 상황을 인식한다(700). 자차의 주변 상황은 표지판의 컨텐츠에 따라 차선 축소, 굽은 도로, 이중 굽은 도로, 합류 도로, 횡단보도 및 터널 등의 6가지로 분류될 수 있다. If the sign is recognized, the
자차의 주변 상황이 인식되면, 차선 인식부(140)는 인식된 주변 상황 정보 거리데이터에 기초하여 차선 인식을 수행한다(800). 여기서 상기 차선 인식 단계(800)를 좀 더 구체적으로 설명하기로 한다. When the surrounding situation of the vehicle is recognized, the
일 예로, 인식된 주변 상황이 '차선 축소'인 경우, 상기 차선 인식을 수행하는 단계는 거리데이터에 기초하여 영상에서 장애물을 제거하고, 장애물이 제거된 영역을 프리스페이스로 설정하는 단계와, 프리스페이스 내의 에지를 검출하는 단계, 검출된 에지로부터 직선 성분을 검출하는 단계와, 직선 성분 검출 결과에 기초하여 차선 인식에 필요한 관심영역을 설정하는 단계와, 설정된 관심영역에서 차선을 추출하는 단계와, 검출된 차선에 기초하여 소실점을 검출하는 단계와, 상기 검출된 소실점을 차선 축소로 인해 옆 차선과 만나는 점으로 인식하는 단계를 포함할 수 있다. For example, if the recognized surrounding situation is 'lane reduction', performing the lane recognition may include removing obstacles from the image based on the distance data, setting the area from which the obstacle is removed to free space, Detecting a straight line component from a detected edge; setting a region of interest necessary for lane recognition based on a linear component detection result; extracting a lane in a set region of interest; Detecting a vanishing point based on the detected lane; and recognizing the detected vanishing point as a point where the lane departure causes the lane to collide with the adjacent lane.
다른 예로, 인식된 주변 상황이 '굽은 도로' 또는 '이중 굽은 도로'인 경우, 상기 차선 인식을 수행하는 단계는 차선 인식 범위를 확장하는 단계와, 거리데이터에 기초하여 영상에서 장애물을 제거하고, 장애물이 제거된 영역을 프리스페이스로 설정하는 단계와, 프리스페이스 내의 에지를 검출하는 단계, 검출된 에지로부터 직선 성분을 검출하는 단계와, 직선 성분 검출 결과에 기초하여 차선 인식에 필요한 관심영역을 설정하는 단계와, 설정된 관심영역에서 차선을 추출하는 단계와, 검출된 차선에 기초하여 소실점을 검출하는 단계를 포함할 수 있다. As another example, when the recognized surrounding situation is a 'curved road' or a 'double curved road', performing the lane recognition may include extending a lane recognition range, removing an obstacle from the image based on the distance data, Setting an area in which an obstacle is removed to a free space; detecting an edge in the free space; detecting a linear component from the detected edge; setting a region of interest necessary for lane recognition based on the linear component detection result Extracting a lane in the set area of interest, and detecting a vanishing point based on the detected lane.
다른 예로, 인식된 주변 상황이 '합류 도로'인 경우, 상기 차선 인식을 수행하는 단계는 거리데이터에 기초하여 영상에서 장애물을 제거하고, 장애물이 제거된 영역을 프리스페이스로 설정하는 단계와, 프리스페이스 내의 에지를 검출하는 단계와, 검출된 에지로부터 직선 성분을 검출하는 단계와, 직선 성분 검출 결과에 기초하여 차선 인식에 필요한 관심영역을 설정하는 단계와, 차선 별로 설정된 가중치에 기초하여, 관심영역에서 차선을 추출하는 단계와, 검출된 차선에 기초하여 소실점을 검출하는 단계를 포함할 수 있다. As another example, if the recognized surrounding situation is a 'confluence road', performing the lane recognition may include removing obstacles from the image based on the distance data, setting the area from which the obstacle has been removed to free space, The method comprising the steps of: detecting an edge in a space; detecting a linear component from the detected edge; setting a region of interest necessary for lane recognition based on a linear component detection result; Extracting a lane from the detected lane, and detecting a vanishing point based on the detected lane.
다른 예로, 인식된 주변 상황이 '횡단보도'인 경우, 상기 차선 인식을 수행하는 단계는 거리데이터에 기초하여 영상에서 장애물을 제거하고, 장애물이 제거된 영역을 프리스페이스로 설정하는 단계와, 프리스페이스 내의 에지를 검출하는 단계와, 검출된 에지로부터 직선 성분을 검출하는 단계와, 직선 성분 검출 결과에 기초하여 차선 인식에 필요한 관심영역을 설정하되, 횡단보도가 제외되도록 관심영역을 설정하는 단계와, 설정된 관심영역에서 차선을 추출하는 단계와, 검출된 차선에 기초하여 소실점을 검출하는 단계를 포함할 수 있다. As another example, when the recognized surrounding situation is 'crosswalk', performing the lane recognition may include removing obstacles from the image based on the distance data, setting the area from which the obstacle has been removed to free space, Setting an area of interest necessary for lane recognition based on a linear component detection result and setting a region of interest such that a pedestrian crossing is excluded; , Extracting a lane in the set region of interest, and detecting a vanishing point based on the detected lane.
다른 예로, 인식된 주변 상황이 '터널'인 경우, 상기 차선 인식을 수행하는 단계는 영상의 밝기를 조절하는 단계와, 거리데이터에 기초하여 영상에서 장애물을 제거하고, 장애물이 제거된 영역을 프리스페이스로 설정하는 단계와, 프리스페이스 내의 에지를 검출하는 단계와, 검출된 에지로부터 직선 성분을 검출하는 단계와, 직선 성분 검출 결과에 기초하여 차선 인식에 필요한 관심영역을 설정하는 단계와, 설정된 관심영역에서 차선을 추출하는 단계와, 검출된 차선에 기초하여 소실점을 검출하는 단계를 포함할 수 있다. As another example, if the recognized surrounding situation is a 'tunnel', performing the lane recognition may include adjusting brightness of the image, removing an obstacle from the image based on the distance data, A step of detecting an edge in the free space, a step of detecting a straight line component from the detected edge, a step of setting a region of interest necessary for lane recognition based on the straight line component detection result, Extracting a lane in the area, and detecting a vanishing point based on the detected lane.
차선 인식을 수행하는 단계가 완료되면, 제어부(150)는 차선 인식 결과에 따라 경고부(160)를 통해 차선 이탈 경고를 한다(900).When the lane recognition step is completed, the
이상과 같이 예시된 도면을 참조로 하여, 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 한정적이 아닌 것으로 이해해야만 한다. While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, It will be understood that the invention may be practiced. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive.
100: 차선 인식 장치
110: 영상 촬영부
120: 표지판 인식부
122: 관심영역 설정부
124: 컨텐츠 인식부
130: 상황 인식부
140: 차선 인식부
150: 제어부
160: 경고부100: lane recognition device
110:
120: Sign recognition unit
122: region of interest setting section
124:
130:
140: lane recognition section
150:
160: Warning section
Claims (15)
상기 영상 내에서 표지판을 인식하는 단계;
상기 인식된 표지판의 컨텐츠에 기초하여 상기 자차의 주변 상황을 인식하는 단계; 및
상기 인식된 주변 상황 정보 및 상기 거리데이터에 기초하여 상기 영상으로부터 차선을 인식하는 단계를 포함하는 차선 인식 방법. A step of acquiring distance data of an image taken around the subject vehicle and an obstacle around the subject vehicle;
Recognizing a sign in the image;
Recognizing a peripheral situation of the vehicle based on the recognized contents of the sign; And
And recognizing a lane from the image based on the recognized surrounding information and the distance data.
상기 표지판을 인식하는 단계는
상기 표지판 검출을 위한 관심영역을 설정하는 단계; 및
상기 설정된 관심영역에 기초하여 상기 영상 내에서 상기 표지판의 위치를 확인하고, 상기 표지판 내의 컨텐츠를 인식하는 단계를 포함하는 차선 인식 방법. The method according to claim 1,
The step of recognizing the sign
Setting a region of interest for the sign detection; And
Determining a position of the signboard in the image based on the set area of interest, and recognizing contents in the signboard.
상기 인식된 주변 상황이 차선 축소인 경우, 상기 차선을 인식하는 단계는
상기 거리데이터에 기초하여 상기 영상에서 장애물을 제거하고, 상기 장애물이 제거된 영역을 프리스페이스로 설정하는 단계;
상기 프리스페이스 내의 에지를 검출하는 단계;
상기 검출된 에지로부터 직선 성분을 검출하는 단계;
상기 직선 성분 검출 결과에 기초하여 차선 인식에 필요한 관심영역을 설정하는 단계;
상기 관심영역에서 차선을 추출하는 단계;
상기 검출된 차선에 기초하여 소실점을 검출하는 단계; 및
상기 검출된 소실점을 옆 차선과 만나는 점으로 인식하는 단계를 포함하는 차선 인식 방법. The method according to claim 1,
If the recognized surrounding situation is lane-narrowing, the step of recognizing the lane
Removing an obstacle from the image based on the distance data, and setting an area in which the obstacle is removed as a free space;
Detecting an edge in the free space;
Detecting a linear component from the detected edge;
Setting a region of interest necessary for lane recognition based on the linear component detection result;
Extracting a lane in the area of interest;
Detecting a vanishing point based on the detected lane; And
And recognizing the detected vanishing point as a point where it meets a side lane.
상기 인식된 주변 상황이 굽은 도로 또는 이중 굽은 도로인 경우, 상기 차선을 인식하는 단계는
차선 인식 범위를 확장하는 단계;
상기 거리데이터에 기초하여 상기 영상에서 장애물을 제거하고, 상기 장애물이 제거된 영역을 프리스페이스로 설정하는 단계;
상기 프리스페이스 내의 에지를 검출하는 단계;
상기 검출된 에지로부터 직선 성분을 검출하는 단계;
상기 직선 성분 검출 결과에 기초하여 차선 인식에 필요한 관심영역을 설정하는 단계;
상기 관심영역에서 차선을 추출하는 단계; 및
상기 검출된 차선에 기초하여 소실점을 검출하는 단계를 포함하는 차선 인식 방법. The method according to claim 1,
If the recognized surrounding situation is a curved road or a double curved road, the step of recognizing the lane
Extending a lane recognition range;
Removing an obstacle from the image based on the distance data, and setting an area in which the obstacle is removed as a free space;
Detecting an edge in the free space;
Detecting a linear component from the detected edge;
Setting a region of interest necessary for lane recognition based on the linear component detection result;
Extracting a lane in the area of interest; And
And detecting a vanishing point based on the detected lane.
상기 인식된 주변 상황이 합류 도로인 경우, 상기 차선을 인식하는 단계는
상기 거리데이터에 기초하여 상기 영상에서 장애물을 제거하고, 상기 장애물이 제거된 영역을 프리스페이스로 설정하는 단계;
상기 프리스페이스 내의 에지를 검출하는 단계;
상기 검출된 에지로부터 직선 성분을 검출하는 단계;
상기 직선 성분 검출 결과에 기초하여 차선 인식에 필요한 관심영역을 설정하는 단계;
차선 별로 설정된 가중치에 기초하여, 상기 관심영역에서 차선을 추출하는 단계; 및
상기 검출된 차선에 기초하여 소실점을 검출하는 단계를 포함하는 차선 인식 방법. The method according to claim 1,
If the recognized surrounding situation is a confluence road, the step of recognizing the lane
Removing an obstacle from the image based on the distance data, and setting an area in which the obstacle is removed as a free space;
Detecting an edge in the free space;
Detecting a linear component from the detected edge;
Setting a region of interest necessary for lane recognition based on the linear component detection result;
Extracting a lane in the area of interest based on a weight set for each lane; And
And detecting a vanishing point based on the detected lane.
상기 인식된 주변 상황이 횡단보도인 경우, 상기 차선을 인식하는 단계는
상기 거리데이터에 기초하여 상기 영상에서 장애물을 제거하고, 상기 장애물이 제거된 영역을 프리스페이스로 설정하는 단계;
상기 프리스페이스 내의 에지를 검출하는 단계;
상기 검출된 에지로부터 직선 성분을 검출하는 단계;
상기 직선 성분 검출 결과에 기초하여 차선 인식에 필요한 관심영역을 설정하되, 횡단보도가 제외되도록 관심영역을 설정하는 단계;
상기 관심영역에서 차선을 추출하는 단계; 및
상기 검출된 차선에 기초하여 소실점을 검출하는 단계를 포함하는 차선 인식 방법. The method according to claim 1,
If the recognized surrounding situation is a pedestrian crossing, the step of recognizing the lane
Removing an obstacle from the image based on the distance data, and setting an area in which the obstacle is removed as a free space;
Detecting an edge in the free space;
Detecting a linear component from the detected edge;
Setting a region of interest necessary for lane recognition based on the linear component detection result, and setting a region of interest such that a pedestrian crossing is excluded;
Extracting a lane in the area of interest; And
And detecting a vanishing point based on the detected lane.
상기 인식된 주변 상황이 터널인 경우, 상기 차선을 인식하는 단계는
상기 영상의 밝기를 조절하는 단계;
상기 거리데이터에 기초하여 상기 영상에서 장애물을 제거하고, 상기 장애물이 제거된 영역을 프리스페이스로 설정하는 단계;
상기 프리스페이스 내의 에지를 검출하는 단계;
상기 검출된 에지로부터 직선 성분을 검출하는 단계;
상기 직선 성분 검출 결과에 기초하여 차선 인식에 필요한 관심영역을 설정하되, 횡단보도가 제외되도록 관심영역을 설정하는 단계;
상기 관심영역에서 차선을 추출하는 단계; 및
상기 검출된 차선에 기초하여 소실점을 검출하는 단계를 포함하는 차선 인식 방법.The method according to claim 1,
If the recognized surrounding situation is a tunnel, the step of recognizing the lane
Adjusting brightness of the image;
Removing an obstacle from the image based on the distance data, and setting an area in which the obstacle is removed as a free space;
Detecting an edge in the free space;
Detecting a linear component from the detected edge;
Setting a region of interest necessary for lane recognition based on the linear component detection result, and setting a region of interest such that a pedestrian crossing is excluded;
Extracting a lane in the area of interest; And
And detecting a vanishing point based on the detected lane.
상기 자차 주변의 장애물을 감지하여 거리데이터를 획득하는 거리센서;
상기 영상 내에서 표지판을 인식하는 표지판 인식부;
상기 인식된 표지판의 컨텐츠에 기초하여 상기 자차의 주변 상황을 인식하는 상황 인식부; 및
상기 인식된 주변 상황 정보 및 상기 거리데이터에 기초하여 상기 영상으로부터 차선을 인식하는 차선 인식부를 포함하는 차선 인식 장치. An image capturing unit for capturing an image of the surroundings of the vehicle;
A distance sensor for sensing an obstacle around the vehicle and obtaining distance data;
A sign recognition unit for recognizing a sign in the image;
A situation recognition unit for recognizing the surroundings of the vehicle on the basis of the contents of the recognized sign; And
And a lane recognition unit for recognizing a lane from the image based on the recognized surrounding information and the distance data.
표지판 인식부는
상기 표지판 검출을 위한 관심영역을 설정하는 관심영역 설정부; 및
상기 설정된 관심영역에 기초하여 상기 영상 내에서 상기 표지판의 위치를 확인하고, 상기 표지판 내의 컨텐츠를 인식하는 컨텐츠 인식부를 포함하는 차선 인식 장치. 9. The method of claim 8,
The sign recognition section
A region of interest setting unit for setting a region of interest for detecting the sign; And
And a content recognition unit for confirming the position of the signboard in the image based on the set region of interest and recognizing contents in the signboard.
상기 차선 인식부는
상기 거리데이터에 기초하여 상기 영상에서 장애물을 제거하여, 상기 장애물이 제거된 영역을 프리스페이스로 설정하고,
상기 프리스페이스 내의 에지를 검출하고,
상기 검출된 에지로부터 직선 성분을 검출하고,
상기 직선 성분 검출 결과에 기초하여 차선 인식에 필요한 관심영역을 설정하고,
상기 관심영역에서 차선을 추출하고,
상기 검출된 차선에 기초하여 소실점을 검출하는 차선 인식 장치. 9. The method of claim 8,
The lane recognition unit
Removing an obstacle from the image based on the distance data, setting an area from which the obstacle is removed to a free space,
Detecting an edge in the free space,
Detecting a linear component from the detected edge,
Setting a region of interest necessary for lane recognition based on the linear component detection result,
Extracting a lane in the area of interest,
And detects a vanishing point based on the detected lane.
상기 차선 인식부는
상기 인식된 주변 상황이 차선 축소인 경우, 상기 검출된 소실점을 옆 차선과 만나는 점으로 인식하는 차선 인식 장치. 11. The method of claim 10,
The lane recognition unit
And recognizes the detected vanishing point as a point where it meets a side lane when the recognized surrounding situation is lane reduction.
상기 차선 인식부는
상기 인식된 주변 상황이 굽은 도로 또는 이중 굽은 도로인 경우, 차선 인식 범위를 확장하는 차선 인식 장치. 11. The method of claim 10,
The lane recognition unit
And extends the lane recognition range when the recognized surrounding situation is a curved road or a double curved road.
상기 차선 인식부는
상기 인식된 주변 상황이 합류 도로인 경우, 상기 관심영역에서 차선을 추출할 때, 차선 별로 설정된 가중치에 기초하여 상기 관심영역에서 차선을 추출하는 차선 인식 장치. 11. The method of claim 10,
The lane recognition unit
Wherein the lane recognition unit extracts a lane in the ROI based on a weight set for each lane when the lane is extracted from the ROI when the recognized surrounding situation is a confluence road.
상기 차선 인식부는
상기 인식된 주변 상황이 횡단보도인 경우, 상기 관심영역을 설정할 때, 횡단보도가 제외되도록 관심영역을 설정하는 차선 인식 장치. 11. The method of claim 10,
The lane recognition unit
And sets the area of interest such that the pedestrian crossing is excluded when setting the area of interest when the recognized surrounding situation is a pedestrian crossing.
상기 차선 인식부는
상기 인식된 주변 상황이 터널인 경우, 상기 영상의 밝기를 조절하는 차선 인식 장치.11. The method of claim 10,
The lane recognition unit
And adjusts the brightness of the image when the recognized surrounding situation is a tunnel.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130016754A KR20140104516A (en) | 2013-02-18 | 2013-02-18 | Lane detection method and apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130016754A KR20140104516A (en) | 2013-02-18 | 2013-02-18 | Lane detection method and apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20140104516A true KR20140104516A (en) | 2014-08-29 |
Family
ID=51748269
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020130016754A KR20140104516A (en) | 2013-02-18 | 2013-02-18 | Lane detection method and apparatus |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20140104516A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170089295A (en) * | 2016-01-26 | 2017-08-03 | 주식회사 만도 | Method and Apparatus for controlling car speed during changing lane automatically |
WO2018097595A1 (en) * | 2016-11-28 | 2018-05-31 | 충북대학교 산학협력단 | Method and device for providing driving information by using camera image |
KR20190046339A (en) | 2017-10-26 | 2019-05-07 | 서울대학교산학협력단 | Reclamation type beacon transmitter for recognizing vehicle lane and reclamation working vehicle thereof |
KR102241116B1 (en) * | 2020-09-08 | 2021-04-16 | 포티투닷 주식회사 | A method and apparatus for determining the lane of a driving vehicle using an artificial neural network, and a navigation device including the same |
US11477371B2 (en) * | 2020-06-22 | 2022-10-18 | Toyota Jidosha Kabushiki Kaisha | Partial image generating device, storage medium storing computer program for partial image generation and partial image generating method |
-
2013
- 2013-02-18 KR KR1020130016754A patent/KR20140104516A/en not_active Application Discontinuation
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170089295A (en) * | 2016-01-26 | 2017-08-03 | 주식회사 만도 | Method and Apparatus for controlling car speed during changing lane automatically |
WO2018097595A1 (en) * | 2016-11-28 | 2018-05-31 | 충북대학교 산학협력단 | Method and device for providing driving information by using camera image |
CN109070882A (en) * | 2016-11-28 | 2018-12-21 | 忠北国立大学产学合作基金会 | Utilize the driving information providing method and device of camera image |
CN109070882B (en) * | 2016-11-28 | 2019-09-20 | 忠北国立大学产学合作基金会 | Utilize the driving information providing method and device of camera image |
KR20190046339A (en) | 2017-10-26 | 2019-05-07 | 서울대학교산학협력단 | Reclamation type beacon transmitter for recognizing vehicle lane and reclamation working vehicle thereof |
US11477371B2 (en) * | 2020-06-22 | 2022-10-18 | Toyota Jidosha Kabushiki Kaisha | Partial image generating device, storage medium storing computer program for partial image generation and partial image generating method |
KR102241116B1 (en) * | 2020-09-08 | 2021-04-16 | 포티투닷 주식회사 | A method and apparatus for determining the lane of a driving vehicle using an artificial neural network, and a navigation device including the same |
KR20220033001A (en) * | 2020-09-08 | 2022-03-15 | 포티투닷 주식회사 | A method and apparatus for determining the lane of a driving vehicle using an artificial neural network |
WO2022055231A1 (en) * | 2020-09-08 | 2022-03-17 | 포티투닷 주식회사 | Method and device for determining lane of traveling vehicle by using artificial neural network, and navigation device including same |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102441085B1 (en) | Apparatus and method for providing guidance information using crosswalk recognition result | |
US11461595B2 (en) | Image processing apparatus and external environment recognition apparatus | |
JP5690688B2 (en) | Outside world recognition method, apparatus, and vehicle system | |
KR101517181B1 (en) | System and method for warning lane departure | |
CN105981042B (en) | Vehicle detection system and method | |
Kosaka et al. | Vision-based nighttime vehicle detection using CenSurE and SVM | |
WO2016129403A1 (en) | Object detection device | |
Kim et al. | Robust detection of non-motorized road users using deep learning on optical and LIDAR data | |
US20120300078A1 (en) | Environment recognizing device for vehicle | |
US9783111B2 (en) | Method and apparatus for vehicle driving assistance | |
JP5894201B2 (en) | Boundary line recognition device | |
KR101663574B1 (en) | Method and system for detection of sudden pedestrian crossing for safe driving during night time | |
KR20140104516A (en) | Lane detection method and apparatus | |
Kovačić et al. | Computer vision systems in road vehicles: a review | |
WO2016059643A1 (en) | System and method for pedestrian detection | |
KR101687094B1 (en) | Apparatus for recognizing traffic sign and method thereof | |
JP2014146267A (en) | Pedestrian detection device and driving support device | |
KR20160067631A (en) | Method for recognizing vehicle plate | |
KR20160126254A (en) | System for detecting road area | |
KR20140087622A (en) | Method of extracting traffic lanes from captured image using brightness | |
EP2579229B1 (en) | Apparatus and method for monitoring surroundings of a vehicle | |
JP2019114150A (en) | Extravehicular environment recognition device | |
KR20180069282A (en) | Method of detecting traffic lane for automated driving | |
Hsieh et al. | Vision based obstacle warning system for on-road driving | |
Oniga et al. | Traffic light detection on mobile devices |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
N231 | Notification of change of applicant | ||
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application |