KR20220077370A - system and method for recognizing and extracting traffic safety signs for generating precision road maps - Google Patents
system and method for recognizing and extracting traffic safety signs for generating precision road maps Download PDFInfo
- Publication number
- KR20220077370A KR20220077370A KR1020200166245A KR20200166245A KR20220077370A KR 20220077370 A KR20220077370 A KR 20220077370A KR 1020200166245 A KR1020200166245 A KR 1020200166245A KR 20200166245 A KR20200166245 A KR 20200166245A KR 20220077370 A KR20220077370 A KR 20220077370A
- Authority
- KR
- South Korea
- Prior art keywords
- safety sign
- road
- object detection
- road safety
- detected
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/582—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
본 발명의 일 실시예에 따른 정밀도로지도 생성을 위한 교통안전표지 인식/추출 시스템은 도로주행영상을 입력받는 입력부; 도로주행영상의 이미지 프레임 내의 차선을 딥러닝 알고리즘을 이용하여 탐지한 후, 탐지된 차선의 정보를 분석 및 분류하는 차선 검출부; 서로 다른 탐지방식으로 이미지 객체를 탐지하는 적어도 2개 이상의 딥러닝 알고리즘 각각의 탐지영역들을 병합 및 확장시켜 통합객체탐지영역을 생성한 후, 기 설정된 탐지영역 조건값에 따라 상기 차선이 검출된 이미지 프레임 내에서 상기 통합객체탐지영역에 위치하는 도로안전표지 오브젝트를 검출하는 도로안전표지 오브젝트 검출부; 및 검출된 도로안전표지 오브젝트의 색상, 채도, 밝기에 따라 추출한 특징점을 기초로 세부형상을 분석하는 오브젝트 분석부를 포함한다.A traffic safety sign recognition/extraction system for generating a map with precision according to an embodiment of the present invention includes: an input unit for receiving a road driving image; a lane detection unit that detects a lane in an image frame of a road driving image using a deep learning algorithm, and then analyzes and classifies information on the detected lane; An image frame in which the lane is detected according to a preset detection area condition value after generating an integrated object detection area by merging and expanding each detection area of at least two or more deep learning algorithms that detect an image object in different detection methods a road safety sign object detection unit for detecting a road safety sign object located in the integrated object detection area within; and an object analysis unit that analyzes a detailed shape based on the feature points extracted according to the color, saturation, and brightness of the detected road safety sign object.
Description
본 발명은 정밀도로지도 생성을 위한 교통안전표지 인식/추출 방법 및 시스템에 관한 것이다.The present invention relates to a method and system for recognizing/extracting traffic safety signs for map generation with precision.
근래에 들어 정보처리 및 통신기술이 비약적으로 발달함에 따라 지리 정보를 지도 정보 데이터로 구축하여 교통에 활용하는 방법이 많이 이용되고 있다. 이러한 지도 정보 데이터는 실체 촬영된 지리 정보를 바탕으로 제작되어 네비게이션을 통한 길 찾기나 안전 운행, 자동 운행 등에 활용되고 있다.In recent years, with the rapid development of information processing and communication technology, a method of constructing geographic information as map information data and utilizing it for transportation has been widely used. This map information data is produced based on the actual photographed geographic information and is used for navigation, safe driving, and automatic driving.
이러한 지도 데이터를 활용하는 내비게이션은 차량 자동항법장치로서, 위성을 이용해 현 위치를 파악하는 GPS를 이용해 목적지까지 길 안내를 음성 및 모니터 화면으로 제공하는 장치이다. 이러한 내비게이션 장치에는 GPS 위성으로부터 차량의 현재 위치 정보를 제공받는 GPS 수신기와 도로안전표지판 등의 지도(MAP) 정보가 등록되는 맵 DB와, GPS 수신기를 통하여 파악되는 현재 위치에 따라 지도 정보를 맵핑시켜 화면에 표시하는 운영 프로그램 등이 구비된다.A navigation system that utilizes such map data is an automatic vehicle navigation system, which provides directions to a destination through voice and monitor screens using GPS, which uses satellites to determine the current location. In such a navigation device, a GPS receiver that receives the vehicle's current location information from a GPS satellite, a map DB in which map information such as road safety signs are registered, and map information are mapped according to the current location identified through the GPS receiver. An operating program to be displayed on the screen is provided.
상기 내비게이션의 맵 DB에 구축되는 지도 정보는 실제 지리 정보의 계측을 통하여 생성되는데, 이러한 지도 정보는 도로의 신설이나 교통 체계의 변경 등에 따라 변화하기 때문에 정기적 또는 비정기적으로 지도 정보를 갱신(Update) 하여야 한다. 이러한 내비게이션의 지도 정보 갱신은 통상적으로 수작업에 의해 진행되는데, 특히 교통표지판의 경우 지속적으로 변경되기 때문에 맵 관리자가 수시로 지도상 위치로 이동하면서 도로안전표지판을 일일이 확인한 후, 지도 정보에 포함되는 도로안전표지판의 정보를 갱신하여야 하는 번거로운 문제점이 있었다.The map information built in the map DB of the navigation system is generated through measurement of actual geographic information. Since this map information changes according to new roads or changes in the traffic system, the map information is updated regularly or irregularly. shall. The update of map information in such navigation is usually done manually. In particular, since traffic signs are constantly changing, the map manager frequently moves to a location on the map and checks road safety signs one by one, and then the road safety included in the map information. There was a cumbersome problem of having to update the information on the sign.
본 발명이 해결하고자 하는 과제는 종래의 문제점을 해결할 수 있는 정밀도로지도 생성을 위한 교통안전표지 인식/추출 방법 및 시스템을 제공하는 데 그 목적이 있다.An object of the present invention is to provide a method and system for recognizing/extracting traffic safety signs for map generation with precision that can solve the problems of the prior art.
상기 과제를 해결하기 위한 본 발명의 일 실시예에 따른 정밀도로지도 생성을 위한 교통안전표지 인식/추출 시스템은 도로주행영상을 입력받는 입력부; 도로주행영상의 이미지 프레임 내의 차선을 딥러닝 알고리즘을 이용하여 탐지한 후, 탐지된 차선의 정보를 분석 및 분류하는 차선 검출부; 서로 다른 탐지방식으로 이미지 객체를 탐지하는 적어도 2개 이상의 딥러닝 알고리즘 각각의 탐지영역들을 병합 및 확장시켜 통합객체탐지영역을 생성한 후, 기 설정된 탐지영역 조건값에 따라 상기 차선이 검출된 이미지 프레임 내에서 상기 통합객체탐지영역에 위치하는 도로안전표지 오브젝트를 검출하는 도로안전표지 오브젝트 검출부; 및 검출된 도로안전표지 오브젝트의 색상, 채도, 밝기에 따라 추출한 특징점을 기초로 세부형상을 분석하는 오브젝트 분석부를 포함한다.In accordance with an embodiment of the present invention for solving the above problems, a traffic safety sign recognition/extraction system for generating a map with precision includes an input unit for receiving a road driving image; a lane detection unit that detects a lane in an image frame of a road driving image using a deep learning algorithm, and then analyzes and classifies information on the detected lane; An image frame in which the lane is detected according to a preset detection area condition value after generating an integrated object detection area by merging and expanding each detection area of at least two or more deep learning algorithms that detect an image object in different detection methods a road safety sign object detection unit for detecting a road safety sign object located in the integrated object detection area within; and an object analysis unit that analyzes a detailed shape based on the feature points extracted according to the color, saturation, and brightness of the detected road safety sign object.
상기 과제를 해결하기 위한 본 발명의 일 실시에에 따른 정밀도로지도 생성을 위한 교통안전표지 인식/추출 방법은 도로주행영상의 복수 개의 영상 프레임들을 전처리하는 단계; 전처리된 각 영상 프레임 내의 차선을 딥러닝 알고리즘을 이용하여 탐지한 후, 탐지된 차선의 종류를 분석 및 분류하는 단계; 상기 전처리된 영상 각 영상 프레임 내의 오브젝트 이미지의 감지 바운딩 박스를 2개의 서로 다른 딥러닝 알고리즘을 이용하여 탐지한 후, 탐지된 2개의 감지 바운딩 박스를 오버랩하여 통합 바운딩 박스를 생성하는 단계; 상기 통합 바운딩 박스 내의 오버랩 영역이 기 설정값을 초과하면, 상기 오버랩 영역 내의 오브젝트의 위치, 색상, 모양을 필터링하여 도로안전표지 오브젝트의 세부정보를 검출하는 단계; 및 상기 복수 개의 이미지 프레임에서 검출된 도로안전표지 오브젝트에 할당된 ID 및 세부정보를 Queue 형태로 제공하는 단계를 포함한다.A method for recognizing/extracting a traffic safety sign for generating a map with precision according to an embodiment of the present invention for solving the above problems includes the steps of pre-processing a plurality of image frames of a road driving image; After detecting a lane in each preprocessed image frame using a deep learning algorithm, analyzing and classifying the type of the detected lane; generating an integrated bounding box by overlapping the detected two detection bounding boxes after detecting a detection bounding box of an object image in each image frame of the preprocessed image using two different deep learning algorithms; detecting the detailed information of the road safety sign object by filtering the position, color, and shape of the object in the overlapping area when the overlap area in the integrated bounding box exceeds a preset value; and providing the ID and detailed information assigned to the road safety sign object detected in the plurality of image frames in the form of a queue.
따라서, 본 발명의 일 실시예에 따른 정밀도로지도 생성을 위한 교통안전표지 인식/추출 시스템 및 방법을 이용하면, 2개의 딥러닝 객체탐지알고리즘을 이용하여 탐지영역을 확장시켜 도로안전표지의 검출정확도를 향상시키고, 도로안전표지의 탐지영역에 대한 필터링 과정을 세분화하고, 연속되는 프레임의 오브젝트를 트랙킹함으로써, 도로주행영상 내의 도로안전표지의 검출위치에 대한 정확도를 향상시킬 수 있다는 이점을 제공한다.Therefore, using the traffic safety sign recognition/extraction system and method for creating a map with precision according to an embodiment of the present invention, the detection area is expanded using two deep learning object detection algorithms to detect the accuracy of road safety signs It provides the advantage of being able to improve the accuracy of the detection position of the road safety sign in the road driving image by improving
도 1은 본 발명의 일 실시예에 따른 정밀도로지도 생성을 위한 교통안전표지 인식/추출 시스템의 블록도이다.
도 2는 도 1에 도시된 차선 검출부의 동작을 설명한 예시도이다.
도 3은 도 1에 도시된 오브젝트 검출부의 세부블럭도이다.
도 4는 노면 표지영역 내에 위치한 오브젝트를 오브젝트 분석부에서 분석하는 진행과정을 설명한 흐름도이고, 도 5는 노면 표지영역 이외의 영역에 위치한 오브젝트의 이미지를 오브젝트 분석부에서 분석하는 진행과정을 설명한 흐름도이다.
도 6은 도 1에 도시된 오브젝트 트랙킹부의 동작을 설명한 예시도이다.
도 7은 본 발명의 일 실시예에 따른 정밀도로지도 생성을 위한 교통안전표지 인식/추출 방법을 설명한 흐름도이다.
도 8은 도 7에 도시된 S720 과정의 세부흐름도이다.
도 9는 도 7에 도시된 S730 과정의 세부흐름도이다.
도 10 및 도 11은 도 7에 도시된 S740 과정의 세부흐름도이다.
도 12는 도 7에 도시된 S760 과정의 세부흐름도이다.
도 13은 본 명세서에 개진된 하나 이상의 실시예가 구현될 수 있는 예시적인 컴퓨팅 환경을 도시한 도이다.1 is a block diagram of a system for recognizing/extracting traffic safety signs for map generation with precision according to an embodiment of the present invention.
FIG. 2 is an exemplary view illustrating an operation of the lane detection unit shown in FIG. 1 .
FIG. 3 is a detailed block diagram of the object detection unit shown in FIG. 1 .
4 is a flowchart illustrating a process in which the object analysis unit analyzes an object located in the road surface mark area, and FIG. 5 is a flowchart illustrating the process in which the object analyzer analyzes an image of an object located in an area other than the road surface mark area. .
FIG. 6 is an exemplary view illustrating an operation of the object tracking unit shown in FIG. 1 .
7 is a flowchart illustrating a method for recognizing/extracting a traffic safety sign for generating a map with precision according to an embodiment of the present invention.
8 is a detailed flowchart of the process S720 shown in FIG.
9 is a detailed flowchart of the process S730 shown in FIG.
10 and 11 are detailed flowcharts of the process S740 shown in FIG.
12 is a detailed flowchart of the process S760 shown in FIG.
13 illustrates an example computing environment in which one or more embodiments disclosed herein may be implemented.
본 명세서 또는 출원에 개시되어 있는 본 발명의 실시 예들에 대해서 특정한 구조적 내지 기능적 설명들은 단지 본 발명에 따른 실시 예를 설명하기 위한 목적으로 예시된 것으로, 본 발명에 따른 실시 예들은 다양한 형태로 실시될 수 있으며 본 명세서 또는 출원에 설명된 실시예들에 한정되는 것으로 해석되어서는 아니 된다. Specific structural or functional descriptions of the embodiments of the present invention disclosed in the present specification or application are only exemplified for the purpose of describing the embodiments according to the present invention, and the embodiments according to the present invention may be implemented in various forms. and should not be construed as being limited to the embodiments described in the present specification or application.
본 발명에 따른 실시예는 다양한 변경을 가할 수 있고 여러가지 형태를 가질 수 있으므로 특정실시 예들을 도면에 예시하고 본 명세서 또는 출원에 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시 예를 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Since the embodiment according to the present invention can have various changes and can have various forms, specific embodiments are illustrated in the drawings and described in detail in the present specification or application. However, this is not intended to limit the embodiment according to the concept of the present invention with respect to a specific disclosed form, and should be understood to include all changes, equivalents or substitutes included in the spirit and scope of the present invention.
제1 및/또는 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로 만, 예컨대 본 발명의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다. Terms such as first and/or second may be used to describe various elements, but the elements should not be limited by the terms. The above terms are used only for the purpose of distinguishing one element from another element, for example, without departing from the scope of the present invention, a first element may be called a second element, and similarly The second component may also be referred to as the first component.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.When an element is referred to as being “connected” or “connected” to another element, it is understood that it may be directly connected or connected to the other element, but other elements may exist in between. it should be On the other hand, when it is said that a certain element is "directly connected" or "directly connected" to another element, it should be understood that the other element does not exist in the middle. Other expressions describing the relationship between elements, such as "between" and "immediately between" or "neighboring to" and "directly adjacent to", etc., should be interpreted similarly.
본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is used only to describe specific embodiments, and is not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. As used herein, terms such as “comprise” or “have” are intended to designate that the specified feature, number, step, operation, component, part, or combination thereof is present, and includes one or more other features or numbers, It should be understood that the existence or addition of steps, operations, components, parts or combinations thereof is not precluded in advance.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical and scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present specification. does not
이하, 첨부된 도면들에 기초하여 본 발명의 일 실시예에 따른 정밀도로지도 생성을 위한 교통안전표지 인식/추출 방법 및 시스템을 보다 상세하게 설명하도록 한다.Hereinafter, a method and system for recognizing/extracting a traffic safety sign for creating a map with precision according to an embodiment of the present invention will be described in more detail based on the accompanying drawings.
도 1은 본 발명의 일 실시예에 따른 정밀도로지도 생성을 위한 교통안전표지 인식/추출 시스템의 블록도이고, 도 2는 도 1에 도시된 차선 검출부의 동작을 설명한 예시도이고, 도 3은 도 1에 도시된 오브젝트 검출부의 세부블럭도이고, 도 4는 노면 표지영역 내에 위치한 오브젝트를 오브젝트 분석부에서 분석하는 진행과정을 설명한 흐름도이고, 도 5는 노면 표지영역 이외의 영역에 위치한 오브젝트의 이미지를 오브젝트 분석부에서 분석하는 진행과정을 설명한 흐름도이고, 도 6은 도 1에 도시된 오브젝트 트랙킹부의 동작을 설명한 예시도이다.1 is a block diagram of a system for recognizing/extracting traffic safety signs for map generation with precision according to an embodiment of the present invention, FIG. 2 is an exemplary diagram illustrating the operation of the lane detection unit shown in FIG. 1, and FIG. 3 is It is a detailed block diagram of the object detection unit shown in FIG. 1 , FIG. 4 is a flowchart illustrating a process of analyzing an object located in the road surface mark area by the object analysis unit, and FIG. 5 is an image of an object located in an area other than the road surface mark area is a flowchart illustrating a process of analyzing by the object analysis unit, and FIG. 6 is an exemplary diagram illustrating the operation of the object tracking unit shown in FIG. 1 .
먼저, 도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 정밀도로지도 생성을 위한 교통안전표지 인식/추출 시스템(100)은 입력부(110), 차선 검출부(120), 도로안전표지 오브젝트 검출부(130), 오브젝트 분석부(140), ID 할당부(150) 및 오브젝트 트랙킹부(160)를 포함한다.First, as shown in FIG. 1 , the
한편, 본 발명은 도로주행영상의 이미지 프레임에 대한 전처리 과정을 수행하는 전처리 구성을 포함할 수 있고, 전처리 구성은 입력된 도로주행영상의 이미지 프레임 각각의 명암 값의 분포의 균일화를 위해 히스토그램 평활화, 예컨대, 명도값의 빈도수 계산, 빈도수를 이용하여 축적 히스토그램 값을 산출한 후, 정규화하고, 정규화된 축적 히스토그램을 그레이 스케일 사상 함수를 적용하여 그레이 레벨 값을 맵핑하는 구성일 수 있다.On the other hand, the present invention may include a pre-processing configuration for performing a pre-processing process on the image frame of the road driving image, and the pre-processing configuration is a histogram smoothing, For example, it may be a configuration in which a gray level value is mapped by calculating the frequency of the brightness value, calculating the accumulated histogram value using the frequency, normalizing the accumulated histogram value, and applying a gray scale mapping function to the normalized accumulated histogram.
본 발명에서 언급하는 전처리 과정은 이미지 프레임을 전처리하는 방식 중 대표적인 일 예를 설명한 것일 뿐, 다른 방식의 전처리 과정 또한 본 발명에서 적용할 수 있다.The pre-processing process referred to in the present invention is only a representative example of a method of pre-processing an image frame, and other pre-processing processes may also be applied in the present invention.
상기 입력부(110)는 도로주행영상을 입력받는 구성이다.The
다음으로, 차선 검출부(120)는 도 2를 참조하면, 전처리된 각 이미지 프레임 내의 차선을 딥러닝 알고리즘을 이용하여 탐지한 후, 탐지된 차선의 정보를 분석 및 분류하는 구성일 수 있다.Next, referring to FIG. 2 , the
보다 구체적으로, 차선 검출부(120)는 딥러닝 알고리즘을 이용하여 차선을 검출한 후, 검출된 차선들 간의 노면표지 및 평균넓이를 모폴로지(Morphology) 필터링(연산) 과정을 통해 보정한 후, 보정된 차선 영역 이외의 영역 및 중복 노면표지를 제거한 후, 보정된 차선을 점선, 실선, 전용차선 및 중앙선 중 어느 하나로 분류하는 구성일 수 있다. 딥러닝 알고리즘으로서 Convolutional LSTM(Long Short-Term Memory)이 이용될 수 있으며, 그 외에도 다양한 딥러닝 알고리즘이 이용될 수 있음은 물론이다.More specifically, the
참고로, 모폴로지(Morphology)는 형태에 따라 영상을 처리하는 광범위한 영상 처리 연산 집합으로, 모폴로지(Morphology) 연산에서는 영상의 각 픽셀이 이웃의 다른 픽셀값에 따라 조정되고, 이웃의 크기와 형태를 선택하여 대상 영상의 특정 형태로 연산처리하는 것을 의미한다.For reference, Morphology is a broad set of image processing operations that process images according to shapes. In Morphology operations, each pixel of an image is adjusted according to the values of other pixels in its neighborhood, and the size and shape of the neighbor are selected. Thus, it means that the operation is processed in a specific form of the target image.
기본적으로, 모폴로지 연산은 침식(erode)과 팽창(dilate) 연산 과정으로, 현재 픽셀을 기준으로 필터를 적용하되, 필터 영역 안의 값을 확인하고, 현재 픽셀의 값을 수정하는 연산과정이다.Basically, the morphology operation is an erode and dilate operation process, which applies a filter based on the current pixel, checks the value in the filter area, and modifies the value of the current pixel.
여기서, 침식은 필터 영역 내 픽셀 중 최소 픽셀값을 현재 픽셀값에 대입하는 것을 의미하며, 팽창은 필터 영역 내 픽셀 중 최대 픽셀값을 현재 픽셀값에 대입하는 것을 의미하며, 모폴로지 연산은 공지된 기술임으로, 보다 상세한 설명은 생략하도록 한다.Here, erosion means substituting the minimum pixel value among pixels in the filter area to the current pixel value, dilation means substituting the maximum pixel value among pixels in the filter area into the current pixel value, and the morphological operation is a known technique. Optionally, a more detailed description will be omitted.
다음으로, 도 3을 참조, 도로안전표지 오브젝트 검출부(130)는 2개의 서로 다른 딥러닝 객체감지 알고리즘의 객체탐지영역(detection bounding box)을 병합 및 확장시켜 통합객체탐지영역을 생성한 후, 기 설정된 탐지영역 조건값에 따라 상기 차선이 검출된 이미지 프레임 내에서 상기 통합객체탐지영역에 위치하는 도로안전표지 오브젝트를 검출하는 구성일 수 있다.Next, referring to FIG. 3, the road safety sign
보다 구체적으로, 도로안전표지 오브젝트 검출부(130)는 객체탐지영역 조정부(131) 및 객체탐지영역 필터링부(132)를 포함한다.More specifically, the road safety sign
객체탐지영역 조정부(131)는 제1 딥러닝 객체감지 알고리즘 및 제2 딥러닝 객체감지 알고리즘 각각의 객체탐지영역(bounding box)을 오버랩(overlap)하여 기 설정된 오버랩 수치, 바람직하게는 60%를 초과하는 상기 통합객체탐지영역을 생성하는 구성일 수 있다.The object detection
참고로, 제1 딥러닝 객체감지 알고리즘은 객체탐지속도가 빠른 반면에 인식 정확도가 낮고, 제2 딥러닝 객체감지 알고리즘은 객체탐지속도가 느린 반면에 인식 정확도가 높다는 특징이 있다. 제1 딥러닝 객체감지 알고리즘으로서 Gaussian YOLO v3가 이용될 수 있고, 제2 딥러닝 객체감지 알고리즘으로서 MASK R-CNN 이 이용될 수 있다. Gaussian YOLO v3 및 MASK R-CNN 알고리즘은 제1 및 제2 딥러닝 객체 알고리즘의 예시로서, 이에 한정되지 않고 알고리즘의 특징에 맞는 다른 적절한 딥러닝 객체 알고리즘이 이용될 수 있음은 물론이다.For reference, the first deep learning object detection algorithm has a fast object detection speed but low recognition accuracy, and the second deep learning object detection algorithm has a slow object detection speed but high recognition accuracy. Gaussian YOLO v3 may be used as the first deep learning object detection algorithm, and MASK R-CNN may be used as the second deep learning object detection algorithm. The Gaussian YOLO v3 and MASK R-CNN algorithms are examples of the first and second deep learning object algorithms, and the present invention is not limited thereto, and of course, other suitable deep learning object algorithms suitable for the characteristics of the algorithm may be used.
이에 본 발명에서는 2개의 딥러닝 객체감지 알고리즘의 감지 바운딩 박스(detection Bounding Box)를 통합하여 확장시켜 2개의 딥러닝 객체감지 알고리즘의 장점이 도출 가능하도록 통합객체탐지영역을 생성하여 이용한다.Accordingly, in the present invention, an integrated object detection area is created and used so that the advantages of the two deep learning object detection algorithms can be derived by integrating and expanding the detection bounding boxes of the two deep learning object detection algorithms.
한편, 객체탐지영역 조정부(131)는 오버랩된 통합객체탐지영역이 기 설정된 오버랩 수치(60%)보다 작을 경우, 제2 딥러닝 객체감지 알고리즘으로 도로안전표지 오브젝트를 검출할 수 있다.On the other hand, when the overlapping integrated object detection area is smaller than a preset overlap value (60%), the object detection
상기 객체탐지영역 필터링부(132)는 상기 통합객체탐지영역 내에 검출된 도로안전표지 오브젝트의 위치를 기 설정된 탐지영역 조건값으로 필터링하는 구성으로, 여기서, 상기 기 설정된 탐지영역 조건값은 상기 도로안전표지 오브젝트의 검출 위치에 대한 영역 값이고, 상기 영역 값은 노면 표지 영역, 중앙선 좌측 영역, 연석우측 영역을 포함한다.The object detection
보다 구체적으로, 객체탐지영역 필터링부(132)는 통합객체탐지영역의 위치를 노면 표지 영역인지를 1차 판단하고, 노면표지 영역이 아닐 경우, 중앙선 좌측인지를 2차 판단하고, 중앙선 좌측이 아닐 경우, 연석 우측인지를 3차 판단함으로써, 통합객체탐지영역이 생성된 위치 영역을 구체화시킴으로서 도로안전표지 오브젝트의 검출률의 오류를 줄이고, 정확도를 향상시킬 수 있다.More specifically, the object detection
다음으로, 도 4 및 도 5를 참조, 오브젝트 분석부(140)는 필터링된 통합객체탐지영역 내의 도로안전표지 오브젝트의 색상, 채도, 밝기에 따라 추출한 특징점을 기초로 세부형상을 분석(판단)하는 구성일 수 있다.Next, referring to FIGS. 4 and 5, the
보다 구체적으로, 도 5 참조, 오브젝트 분석부(140)는 도로안전표지 오브젝트가 감지된 통합객체탐지영역(bounding box) 위치가 노면 표지영역에 위치할 경우, 상기 통합객체탐지영역(bounding box)의 픽셀 RGB 값을 HSV(색상, 채도, 밝기)로 변환한 후, 기 설정된 임계값 알고리즘을 통해 도로안전표지 오브젝트의 임계값을 생성한 후, 생성된 임계값을 기초로 상기 오브젝트와 노면 표지영역을 백과 흑으로 구분한 후, 모폴로지(Morphology) 필터링을 통해 노이즈를 제거하고, 검출된 도로안전표지 오브젝트의 윤곽선(contours)을 추출 및 피팅처리한 후, 피팅처리된 윤곽선의 특징점을 기초로 노면 표지영역에 위치하는 도로표지 오브젝트의 형상을 판단한다. 전술한 임계값 알고리즘으로 Otsu Algorithm이 이용될 수 있으며, 그 외에도 다른 적절한 알고리즘이 이용될 수 있음은 물론이다.More specifically, referring to FIG. 5 , the
또한, 도 4를 참조, 오브젝트 분석부(140)는 도로안전표지 오브젝트가 감지된 객체탐지영역(bounding box)의 위치가 노면 표지영역 이외의 영역에 위치할 경우, 상기 객체탐지영역에 대한 컬러 히스토그램(픽셀들에 대한 명암값 분포도)을 산출하고, 상기 객체탐지영역의 픽셀 RGB값을 HSV(색상, 채도, 밝기)로 변환 및 상기 객체탐지영역을 CIE(Commission Internationale d' Eclairage) 색 공간좌표로 변환한 후, 상기 컬러 히스토그램 및 상기 HSV 값을 이용하여 상기 객체탐지영역의 Red, blue, green의 색 대역을 카운트하고, 상기 CIE(Commission Internationale d' Eclairage) 색 공간좌표 상에서 L(밝기), A(녹색에서 적색의 보색), B(노란색에서 파란색의 보색) 값을 추출하고, 상기 색 공간좌표의 LAB 값 및 상기 RGB 밴드의 카운트값을 포함하는 객체탐지영역을 그레이 스케일(Gray scale) 이미지로 변환한 후, 기 설정된 임계값 알고리즘(Otsu Algorithm)을 통해 도로안전표지 오브젝트의 임계값을 생성한 후, 생성된 임계값을 기초로 상기 오브젝트와 전경영역을 구분한 후, 모폴로지(Morphology) 필터링을 통해 노이즈를 제거하고, 검출된 도로안전표지 오브젝트의 윤관선(contours)을 추출한 후, 상기 윤곽선의 특징점의 위치를 기초로 상기 도로안전표지 오브젝트의 형상(색 포함)을 판단한다.In addition, referring to FIG. 4 , the
다음으로, ID 할당부(160)는 오브젝트 분석부(150)에서 분석한 이미지 프레임 내에서 검출된 도로안전표지 오브젝트를 식별하기 위한 검출 ID를 이미지 프레임에 할당하는 구성일 수 있다.Next, the
다음으로, 도 6을 참조, 오브젝트 트랙킹부(170)는 도로주행영상의 전/후 이미지 프레임 내에서 검출된 도로안전표지 오브젝트의 매칭 유무를 비교판단한 후, 매칭되면 도로안전표지 오브젝트에 할당된 ID, 세부정보 차선정보를 Queue 형태로 제공하는 구성일 수 있다.Next, referring to FIG. 6 , the object tracking unit 170 compares and determines whether or not the road safety sign object detected in the before/after image frame of the road driving image is matched, and if it is matched, the ID assigned to the road safety sign object , it may be a configuration that provides detailed information and lane information in the form of a queue.
보다 구체적으로, 오브젝트 트랙킹부(170)는 오브젝트 분석부(150)로부터 제n+1 이미지 프레임 내에 도로표지 오브젝트 검출 유무 및 ID 할당 유무를 확인한 후, 제n 이미지 프레임의 중심과 제n+1 이미지 프레임의 중심의 오프셋 벡터의 최적값을 산출한 후, 오프셋 벡터의 최적값을 기초로 상기 도로표지 오브젝트의 매칭 유무를 판단한다.More specifically, the object tracking unit 170 checks whether a road sign object is detected and whether an ID is assigned in the n+1th image frame from the
또한, 상기 오브젝트 트랙킹부(170)는 동일한 도로표지 오브젝트가 검출된 이미지 프레임을 적층한 후, 적층값이 기준값을 초과하면 적층된 이미지 프레임들의 도로안전표지 오브젝트 ID, 세그먼트, 객체탐지영역(bounding box) 및 차선정보를 Queue 형태로 저장하여 외부서버로 제공한다.In addition, the object tracking unit 170 stacks the image frames in which the same road sign object is detected, and when the stacking value exceeds the reference value, the road safety sign object ID, segment, and object detection area (bounding box) of the stacked image frames ) and lane information are stored in the form of a queue and provided to an external server.
도 7은 본 발명의 일 실시예에 따른 정밀도로지도 생성을 위한 교통안전표지 인식/추출 방법을 설명한 흐름도이고, 도 8은 도 7에 도시된 S720 과정의 세부흐름도이고, 도 9는 도 7에 도시된 S730 과정의 세부흐름도이고, 도 10 및 도 11은 도 7에 도시된 S740 과정의 세부흐름도이고, 도 12는 도 7에 도시된 S760 과정의 세부흐름도이다.7 is a flowchart illustrating a method for recognizing/extracting a traffic safety sign for generating a map with precision according to an embodiment of the present invention, FIG. 8 is a detailed flowchart of the process S720 shown in FIG. 7, and FIG. 9 is shown in FIG. The illustrated process S730 is a detailed flowchart, FIGS. 10 and 11 are detailed flowcharts of the process S740 illustrated in FIG. 7 , and FIG. 12 is a detailed flowchart of the process S760 illustrated in FIG. 7 .
먼저, 도 7을 참조하면, 본 발명의 일 실시예에 따른 정밀도로지도 생성을 위한 교통안전표지 인식/추출 방법(S700)은 먼저, 입력부에서 입력한 도로주행영상의 이미지 프레임을 전처리부(120)에서 전처리(S710)한다. First, referring to FIG. 7 , the method (S700) for recognizing/extracting traffic safety signs for map generation with precision according to an embodiment of the present invention is first, The image frame of the road driving image input from the input unit is pre-processed by the pre-processing unit 120 ( S710 ).
여기서, 상기 S710 과정은 입력된 도로주행영상의 이미지 프레임 각각의 명암 값의 분포의 균일화를 위해 히스토그램 평활화, 예컨대, 명도값의 빈도수 계산, 빈도수를 이용하여 축적 히스토그램 값을 산출한 후, 정규화하고, 정규화된 축적 히스토그램을 그레이 스케일 사상 함수를 적용하여 그레이 레벨 값을 맵핑하는 과정을 포함한다.Here, the S710 process is a histogram smoothing, for example, calculating the frequency of the brightness value, calculating the accumulated histogram value using the frequency, and then normalizing the and mapping gray level values by applying a gray scale mapping function to the normalized accumulation histogram.
상기 S710 과정이 완료되면, 전처리된 각 영상 프레임 내의 차선을 딥러닝 알고리즘을 이용하여 탐지한 후, 탐지된 차선의 종류를 분석 및 분류(S720)한다.When the process S710 is completed, lanes in each preprocessed image frame are detected using a deep learning algorithm, and then the types of the detected lanes are analyzed and classified (S720).
보다 구체적으로, 상기 S720 과정은 딥러닝 알고리즘을 이용하여 차선을 검출한 후, 검출된 차선들 간의 노면표지 및 평균넓이를 모폴로지(Morphology) 필터링(연산) 과정을 통해 보정한 후, 보정된 차선 영역 이외의 영역 및 중복 노면표지를 제거한 후, 보정된 차선을 점선, 실선, 전용차선 및 중앙선 중 어느 하나로 분류하는 과정일 수 있다. 전술한 것처럼, 딥러닝 알고리즘으로서 Convolutional LSTM(Long Short-Term Memory)이 이용될 수 있으며, 그 외에도 다양한 딥러닝 알고리즘이 이용될 수 있음은 물론이다.More specifically, in the S720 process, after detecting lanes using a deep learning algorithm, the road markings and average widths between the detected lanes are corrected through a morphology filtering (calculation) process, and then the corrected lane area It may be a process of classifying the corrected lane into any one of a dotted line, a solid line, an exclusive lane, and a center line after removing the other areas and overlapping road markings. As described above, as a deep learning algorithm, a convolutional long short-term memory (LSTM) may be used, and it goes without saying that various deep learning algorithms may be used in addition to it.
참고로, 모폴로지(Morphology)는 형태에 따라 영상을 처리하는 광범위한 영상 처리 연산 집합으로, 모폴로지(Morphology) 연산에서는 영상의 각 픽셀이 이웃의 다른 픽셀값에 따라 조정되고, 이웃의 크기와 형태를 선택하여 대상 영상의 특정 형태로 연산처리하는 것을 의미한다.For reference, Morphology is a broad set of image processing operations that process images according to shapes. In Morphology operations, each pixel of an image is adjusted according to the values of other pixels in its neighborhood, and the size and shape of the neighbor are selected. Thus, it means that the operation is processed in a specific form of the target image.
기본적으로, 모폴로지 연산은 침식(erode)과 팽창(dilate) 연산 과정으로, 현재 픽셀을 기준으로 필터를 적용하되, 필터 영역 안의 값을 확인하고, 현재 픽셀의 값을 수정하는 연산과정이다.Basically, the morphology operation is an erode and dilate operation process, which applies a filter based on the current pixel, checks the value in the filter area, and modifies the value of the current pixel.
여기서, 침식은 필터 영역 내 픽셀 중 최소 픽셀값을 현재 픽셀값에 대입하는 것을 의미하며, 팽창은 필터 영역 내 픽셀 중 최대 픽셀값을 현재 픽셀값에 대입하는 것을 의미하며, 모폴로지 연산은 공지된 기술임으로, 보다 상세한 설명은 생략하도록 한다.Here, erosion means substituting the minimum pixel value among pixels in the filter area to the current pixel value, dilation means substituting the maximum pixel value among pixels in the filter area into the current pixel value, and the morphological operation is a known technique. Optionally, a more detailed description will be omitted.
상기 S720 과정이 완료되면, 2개의 서로 다른 딥러닝 객체감지 알고리즘의 객체탐지영역을 병합 및 확장시켜 통합객체탐지영역을 생성한 후, 기 설정된 탐지영역 조건값에 따라 상기 차선이 검출된 이미지 프레임 내에서 상기 통합객체탐지영역에 위치하는 도로안전표지 오브젝트를 검출(S730)한다.When the S720 process is completed, the object detection areas of two different deep learning object detection algorithms are merged and expanded to create an integrated object detection area, and then within the image frame in which the lane is detected according to the preset detection area condition value. Detects a road safety sign object located in the integrated object detection area (S730).
보다 구체적으로, 상기 S730 과정은 제1 딥러닝 객체감지 알고리즘 및 제2 딥러닝 객체감지 알고리즘 각각의 객체탐지영역(bounding box)을 오버랩(overlap)하여 기 설정된 오버랩 수치, 바람직하게는 60%를 초과하는 통합객체탐지영역을 생성하는 단계(S731)를 포함한다.More specifically, the S730 process overlaps the object detection area (bounding box) of each of the first deep learning object detection algorithm and the second deep learning object detection algorithm to a preset overlap value, preferably exceeding 60% and generating an integrated object detection area (S731).
참고로, 제1 딥러닝 객체감지 알고리즘은 객체탐지속도가 빠른 반면에 인식 정확도가 낮고, 제2 딥러닝 객체감지 알고리즘은 객체탐지속도가 느린 반면에 인식 정확도가 높다는 특징이 있다. 제1 딥러닝 객체감지 알고리즘으로서 Gaussian YOLO v3가 이용될 수 있고, 제2 딥러닝 객체감지 알고리즘으로서 MASK R-CNN 이 이용될 수 있다. Gaussian YOLO v3 및 MASK R-CNN 알고리즘은 제1 및 제2 딥러닝 객체 알고리즘의 예시로서, 이에 한정되지 않고 알고리즘의 특징에 맞는 다른 적절한 딥러닝 객체 알고리즘이 이용될 수 있음은 물론이다.For reference, the first deep learning object detection algorithm has a fast object detection speed but low recognition accuracy, and the second deep learning object detection algorithm has a slow object detection speed but high recognition accuracy. Gaussian YOLO v3 may be used as the first deep learning object detection algorithm, and MASK R-CNN may be used as the second deep learning object detection algorithm. The Gaussian YOLO v3 and MASK R-CNN algorithms are examples of the first and second deep learning object algorithms, and the present invention is not limited thereto, and of course, other suitable deep learning object algorithms suitable for the characteristics of the algorithm may be used.
이에 본 발명에서는 2개의 딥러닝 객체감지 알고리즘의 감지 바운딩 박스(detection Bounding Box)를 통합하여 확장시켜 2개의 딥러닝 객체감지 알고리즘의 장점이 도출가능하도록 통합객체탐지영역을 생성하여 이용하고, 오버랩된 통합객체탐지영역이 기 설정된 오버랩 수치(60%)보다 작을 경우, 제2 딥러닝 객체감지 알고리즘으로 도로안전표지 오브젝트를 검출하는 과정을 수행한다.Therefore, in the present invention, an integrated object detection area is created and used so that the advantages of the two deep learning object detection algorithms can be derived by integrating and expanding the detection bounding boxes of the two deep learning object detection algorithms, and overlapped When the integrated object detection area is smaller than the preset overlap value (60%), the process of detecting the road safety sign object is performed by the second deep learning object detection algorithm.
한편, 상기 S730 과정은 통합객체탐지영역 내에 검출된 도로안전표지 오브젝트의 위치를 기 설정된 탐지영역 조건값으로 객체탐지영역을 필터링하는 단계(S732)를 포함한다.Meanwhile, the process S730 includes filtering the object detection area using a preset detection area condition value based on the location of the road safety sign object detected in the integrated object detection area (S732).
상기 S732 과정은 통합객체탐지영역의 위치를 노면 표지 영역인지를 1차 판단하고, 노면표지 영역이 아닐 경우, 중앙선 좌측인지를 2차 판단하고, 중앙선 좌측이 아닐 경우, 연석 우측인지를 3차 판단하는 과정을 포함하면, 상술한 영역 필터링 과정을 통해 통합객체탐지영역(bounding box)이 생성된 위치영역을 구체화시킴으로서 도로안전표지 오브젝트의 검출률의 오류를 줄이고, 정확도를 향상시킬 수 있다.In step S732, it is first determined whether the location of the integrated object detection area is a road marking area, if it is not a road marking area, it is secondarily determined whether it is on the left side of the center line, and when it is not on the left side of the center line, it is thirdly determined whether it is on the right side of the curb , it is possible to reduce the error in the detection rate of the road safety sign object and improve the accuracy by specifying the area where the integrated object detection area (bounding box) is generated through the area filtering process described above.
한편, 상기 S730 과정이 완료되면, 오브젝트 분석부(150)에서 필터링된 통합객체탐지영역 내의 도로안전표지 오브젝트의 색상, 채도, 밝기에 따라 추출한 특징점을 기초로 세부형상을 오브젝트 분석부(150)에서 분석(판단)(S740)한다.On the other hand, when the S730 process is completed, the detailed shape based on the feature points extracted according to the color, saturation, and brightness of the road safety sign object in the integrated object detection area filtered by the
여기서, 상기 S740 과정은 도로안전표지 오브젝트가 감지된 객체탐지영역(bounding box) 위치가 노면 표지영역에 위치할 경우, 상기 객체탐지영역(bounding box)의 픽셀 RGB 값을 HSV(색상, 채도, 밝기)로 변환한 후, 기 설정된 임계값 알고리즘을 통해 도로안전표지 오브젝트의 임계값을 생성한 후, 생성된 임계값을 기초로 상기 오브젝트와 노면 표지영역을 백과 흑으로 구분한 후, 모폴로지 필터링을 통해 노이즈를 제거하고, 검출된 도로안전표지 오브젝트의 윤곽선(contours)을 추출 및 피팅처리한 후, 피팅처리된 윤곽선의 특징점을 기초로 노면 표지영역에 위치하는 도로표지 오브젝트의 형상을 판단하는 과정들을 포함한다. 전술한 것처럼, 임계값 알고리즘으로 Otsu Algorithm이 이용될 수 있으며, 그 외에도 다른 적절한 알고리즘이 이용될 수 있음은 물론이다.Here, in the S740 process, when the location of the object detection area (bounding box) where the road safety sign object is detected is located in the road surface area, the pixel RGB value of the object detection area (bounding box) is converted to HSV (color, saturation, brightness). ), create a threshold value of the road safety sign object through a preset threshold algorithm, divide the object and the road sign area into white and black based on the generated threshold value, and then through morphological filtering After removing noise, extracting and fitting the contours of the detected road safety sign object, and judging the shape of the road sign object located in the road sign area based on the feature points of the fitted contour. do. As described above, the Otsu Algorithm may be used as the threshold algorithm, and of course, other suitable algorithms may also be used.
또한, 상기 S740 과정은 도로안전표지 오브젝트가 감지된 객체탐지영역(bounding box)의 위치가 노면 표지영역 이외의 영역에 위치할 경우, 상기 객체탐지영역에 대한 컬러 히스토그램(픽셀들에 대한 명암값 분포도) 산출, 상기 객체탐지영역의 픽셀 RGB값을 HSV(색상, 채도, 밝기)로 변환 및 상기 객체탐지영역을 CIE(Commission Internationale d' Eclairage) 색 공간좌표로 변환한 후, 상기 컬러 히스토그램 및 상기 HSV 값을 이용하여 상기 객체탐지영역의 Red, blue, green의 색 대역을 카운트하고, 상기 CIE(Commission Internationale d' Eclairage) 색 공간좌표 상에서 L(밝기), A(녹색에서 적색의 보색), B(노란색에서 파란색의 보색) 값을 추출하고, 상기 색 공간좌표의 LAB 값 및 상기 RGB 밴드의 카운트값을 포함하는 객체탐지영역을 그레이 스케일(Gray scale) 이미지로 변환한 후, 기 설정된 임계값 알고리즘(Otsu Algorithm)을 통해 도로안전표지 오브젝트의 임계값을 생성한 후, 생성된 임계값을 기초로 상기 오브젝트와 전경영역을 구분한 후, 모폴로지 필터링을 통해 노이즈를 제거하고, 검출된 도로안전표지 오브젝트의 윤곽선(contours)을 추출한 후, 상기 윤곽선의 특징점의 위치를 기초로 상기 도로안전표지 오브젝트의 형상(색 포함)을 판단하는 과정들을 포함한다.In addition, in the S740 process, when the location of the object detection area (bounding box) in which the road safety sign object is detected is located in an area other than the road surface mark area, a color histogram (contrast value distribution for pixels) for the object detection area ) calculation, converting the pixel RGB values of the object detection area into HSV (hue, saturation, brightness) and converting the object detection area into CIE (Commission Internationale d'Eclairage) color space coordinates, the color histogram and the HSV counting the red, blue, and green color bands of the object detection area using the value, L (brightness), A (green to red complementary colors), and B (yellow to blue complementary colors) values are extracted from the CIE (Commission Internationale d'Eclairage) color space coordinates, and LAB values and the RGB values of the color space coordinates After converting the object detection area including the count value of the band into a gray scale image, the threshold value of the road safety sign object is generated through a preset threshold algorithm (Otsu Algorithm), and then the generated threshold value After classifying the object and the foreground region based on It includes processes for determining the shape (including color) of an object.
이후, 상기 S740 과정이 완료되면, ID 할당부(150)에서 상기 S740 과정에서 분석한 이미지 프레임 내에서 검출된 도로안전표지 오브젝트를 식별하기 위한 검출 ID를 이미지 프레임에 할당(S750)한다.Thereafter, when the S740 process is completed, the
다음으로, 상기 S750 과정이 완료되면, 오브젝트 트랙킹부(160)에서 도로주행영상의 전/후 이미지 프레임 내에서 검출된 도로안전표지 오브젝트의 매칭유무를 비교판단한 후, 매칭되면 도로안전표지 오브젝트에 할당된 ID, 세부정보 차선정보를 Queue 형태로 제공(S760)한다.Next, when the S750 process is completed, the
보다 구체적으로, 상기 S760 과정은 오브젝트 분석부(140)로부터 제n+1 이미지 프레임 내에 도로표지 오브젝트 검출 유무 및 ID 할당 유무를 확인한 후, 제n 이미지 프레임의 중심과 제n+1 이미지 프레임의 중심의 오프셋 벡터의 최적값을 산출한 후, 오프셋 벡터의 최적값을 기초로 상기 도로표지 오브젝트의 매칭 유무를 판단하고, 동일한 도로표지 오브젝트가 검출된 이미지 프레임을 적층한 후, 적층값이 기준값을 초과하면 적층된 이미지 프레임들의 도로안전표지 오브젝트 ID, 세그먼트, 객체탐지영역(bounding box) 및 차선정보를 Queue 형태로 저장하여 외부서버로 제공하는 일련의 과정을 포함한다.More specifically, in the step S760, the
따라서, 본 발명의 일 실시예에 따른 정밀도로지도 생성을 위한 교통안전표지 인식/추출 방법 및 시스템을 이용하면, 도로주행영상 내에 탐지되는 도로안전표지 오브젝트의 탐지영역을 세분화시켜 탐지오류를 최소화함으로써, 촬영된 교통안전표지의 식별력을 향상시킬 수 있고, 탐지오류정보를 조기에 발견할 수 있다는 이점을 제공한다.Therefore, by using the method and system for recognizing/extracting traffic safety signs for map generation with precision according to an embodiment of the present invention, the detection error is minimized by subdividing the detection area of the road safety sign object detected in the road driving image. , it provides the advantage of improving the identification of the photographed traffic safety signs and early detection of detection error information.
도 13은 본 명세서에 개진된 하나 이상의 실시예가 구현될 수 있는 예시적인 컴퓨팅 환경을 도시하는 도면으로, 상술한 하나 이상의 실시예를 구현하도록 구성된 컴퓨팅 디바이스(1100)를 포함하는 시스템(1000)의 예시를 도시한다. 예를 들어, 컴퓨팅 디바이스(1100)는 차량에 장착될 수 있으며, 개인 컴퓨터, 서버 컴퓨터, 핸드헬드 또는 랩탑 디바이스, 모바일 디바이스(모바일폰, PDA, 미디어 플레이어 등), 멀티프로세서 시스템, 소비자 전자기기, 미니 컴퓨터, 메인프레임 컴퓨터, 임의의 전술된 시스템 또는 디바이스를 포함하는 분산 컴퓨팅 환경 등을 포함하지만, 이것으로 한정되는 것은 아니다.13 is a diagram illustrating an example computing environment in which one or more embodiments disclosed herein may be implemented, and is an illustration of a
컴퓨팅 디바이스(1100)는 적어도 하나의 프로세싱 유닛(1110) 및 메모리(1120)를 포함할 수 있다. 여기서, 프로세싱 유닛(1110)은 예를 들어 중앙처리장치(CPU), 그래픽처리장치(GPU), 마이크로프로세서, 주문형 반도체(Application Specific Integrated Circuit, ASIC), Field Programmable Gate Arrays(FPGA) 등을 포함할 수 있으며, 복수의 코어를 가질 수 있다. 메모리(1120)는 휘발성 메모리(예를 들어, RAM 등), 비휘발성 메모리(예를 들어, ROM, 플래시 메모리 등) 또는 이들의 조합일 수 있다. 또한, 컴퓨팅 디바이스(1100)는 추가적인 스토리지(1130)를 포함할 수 있다. 스토리지(1130)는 자기 스토리지, 광학 스토리지 등을 포함하지만 이것으로 한정되지 않는다. 스토리지(1130)에는 본 명세서에 개진된 하나 이상의 실시예를 구현하기 위한 컴퓨터 판독 가능한 명령이 저장될 수 있고, 운영 시스템, 애플리케이션 프로그램 등을 구현하기 위한 다른 컴퓨터 판독 가능한 명령도 저장될 수 있다. 스토리지(1130)에 저장된 컴퓨터 판독 가능한 명령은 프로세싱 유닛(1110)에 의해 실행되기 위해 메모리(1120)에 로딩될 수 있다. 또한, 컴퓨팅 디바이스(1100)는 입력 디바이스(들)(1140) 및 출력 디바이스(들)(1150)을 포함할 수 있다. The
여기서, 입력 디바이스(들)(1140)은 예를 들어 키보드, 마우스, 펜, 음성 입력 디바이스, 터치 입력 디바이스, 적외선 카메라, 비디오 입력 디바이스 또는 임의의 다른 입력 디바이스 등을 포함할 수 있다. 또한, 출력 디바이스(들)(1150)은 예를 들어 하나 이상의 디스플레이, 스피커, 프린터 또는 임의의 다른 출력 디바이스 등을 포함할 수 있다. 또한, 컴퓨팅 디바이스(1100)는 다른 컴퓨팅 디바이스에 구비된 입력 디바이스 또는 출력 디바이스를 입력 디바이스(들)(1140) 또는 출력 디바이스(들)(1150)로서 사용할 수도 있다. 또한, 컴퓨팅 디바이스(1100)는 컴퓨팅 디바이스(1100)가 다른 디바이스(예를 들어, 컴퓨팅 디바이스(1300))와 통신할 수 있게 하는 통신접속(들)(1160)을 포함할 수 있다. Here, the input device(s) 1140 may include, for example, a keyboard, mouse, pen, voice input device, touch input device, infrared camera, video input device, or any other input device, or the like. Further, the output device(s) 1150 may include, for example, one or more displays, speakers, printers, or any other output device, or the like. Also, the
여기서, 통신 접속(들)(1160)은 모뎀, 네트워크 인터페이스 카드(NIC), 통합 네트워크 인터페이스, 무선 주파수 송신기/수신기, 적외선 포트, USB 접속 또는 컴퓨팅 디바이스(1100)를 다른 컴퓨팅 디바이스에 접속시키기 위한 다른 인터페이스를 포함할 수 있다. 또한, 통신 접속(들)(1160)은 유선 접속 또는 무선 접속을 포함할 수 있다. 상술한 컴퓨팅 디바이스(1100)의 각 구성요소는 버스 등의 다양한 상호접속(예를 들어, 주변 구성요소 상호접속(PCI), USB, 펌웨어(IEEE 1394), 광학적 버스 구조 등)에 의해 접속될 수도 있고, 네트워크(1200)에 의해 상호접속 될 수도 있다. 본 명세서에서 사용되는 "구성요소", "시스템" 등과 같은 용어들은 일반적으로 하드웨어, 하드웨어와 소프트웨어의 조합, 소프트웨어, 또는 실행중인 소프트웨어인 컴퓨터 관련 엔티티를 지칭하는 것이다. Here, communication connection(s) 1160 may be a modem, network interface card (NIC), integrated network interface, radio frequency transmitter/receiver, infrared port, USB connection, or other for connecting
예를 들어, 구성요소는 프로세서상에서 실행중인 프로세스, 프로세서, 객체, 실행 가능물(executable), 실행 스레드, 프로그램 및/또는 컴퓨터일 수 있지만, 이것으로 한정되는 것은 아니다. 예를 들어, 컨트롤러 상에서 구동중인 애플리케이션 및 컨트롤러 모두가 구성요소일 수 있다. 하나 이상의 구성요소는 프로세스 및/또는 실행의 스레드 내에 존재할 수 있으며, 구성요소는 하나의 컴퓨터상에서 로컬화될 수 있고, 둘 이상의 컴퓨터 사이에서 분산될 수도 있다.For example, a component can be, but is not limited to being, a process running on a processor, a processor, an object, an executable, a thread of execution, a program, and/or a computer. For example, both an application running on a controller and a controller may be a component. One or more components may reside within a process and/or thread of execution, and components may be localized on one computer or distributed between two or more computers.
본 발명은 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 본 발명에 따른 구성요소를 치환, 변형 및 변경할 수 있다는 것이 명백할 것이다The present invention is not limited by the above embodiments and the accompanying drawings. For those of ordinary skill in the art to which the present invention pertains, it will be apparent that the components according to the present invention can be substituted, modified and changed without departing from the technical spirit of the present invention.
100: 정밀도로지도 생성을 위한 교통안전표지 인식/추출 시스템
110: 입력부
120: 차선 검출부
130: 도로안전표지 오브젝트 검출부
140: 오브젝트 분석부
150: ID 할당부
160: 오브젝트 트랙킹부100: Traffic safety sign recognition/extraction system for map generation with precision
110: input unit
120: lane detection unit
130: road safety sign object detection unit
140: object analysis unit
150: ID allocator
160: object tracking unit
Claims (20)
도로주행영상의 이미지 프레임 내의 차선을 딥러닝 알고리즘을 이용하여 탐지한 후, 탐지된 차선의 정보를 분석 및 분류하는 차선 검출부;
서로 다른 탐지방식으로 이미지 객체를 탐지하는 적어도 2개 이상의 딥러닝 알고리즘 각각의 탐지영역들을 병합 및 확장시켜 통합객체탐지영역을 생성한 후, 기 설정된 탐지영역 조건값에 따라 상기 차선이 검출된 이미지 프레임 내에서 상기 통합객체탐지영역에 위치하는 도로안전표지 오브젝트를 검출하는 도로안전표지 오브젝트 검출부; 및
검출된 도로안전표지 오브젝트의 색상, 채도, 밝기에 따라 추출한 특징점을 기초로 세부형상을 분석하는 오브젝트 분석부를 포함하는 정밀도로지도 생성을 위한 교통안전표지 인식/추출 시스템.an input unit for receiving a road driving image;
a lane detection unit that detects a lane in an image frame of a road driving image using a deep learning algorithm, and then analyzes and classifies information on the detected lane;
An image frame in which the lane is detected according to a preset detection area condition value after generating an integrated object detection area by merging and expanding respective detection areas of at least two or more deep learning algorithms that detect image objects in different detection methods a road safety sign object detection unit for detecting a road safety sign object located in the integrated object detection area within; and
A traffic safety sign recognition/extraction system for creating maps with precision including an object analysis unit that analyzes detailed shapes based on the feature points extracted according to the color, saturation, and brightness of the detected road safety sign object.
상기 이미지 프레임 내에서 검출된 도로안전표지 오브젝트를 식별하기 위한 검출 ID를 이미지 프레임에 할당하는 검출 ID 할당부를 더 포함하는 According to claim 1,
Further comprising a detection ID allocation unit for allocating a detection ID for identifying the road safety sign object detected in the image frame to the image frame
전/후 이미지 프레임 내에서 검출된 도로안전표지 오브젝트의 매칭유무를 비교판단한 후, 매칭되면 도로안전표지 오브젝트에 할당된 ID, 세부정보 차선정보를 Queue 형태로 제공하는 오브젝트 트랙킹부를 포함하는 정밀도로지도 생성을 위한 교통안전표지 인식/추출 시스템.According to claim 1,
After comparing and judging whether the road safety sign object detected in the before/after image frame is matched, if it is matched, the ID assigned to the road safety sign object, detailed information and lane information are provided in the form of a queue. Traffic safety sign recognition/extraction system for generation.
상기 차선 검출부는
딥러닝 알고리즘을 이용하여 차선을 검출한 후, 검출된 차선들 간의 노면표지 및 평균넓이로부터 상기 차선을 점선, 실선, 전용차선 및 중앙선 중 어느 하나로 분류하는 정밀도로지도 생성을 위한 교통안전표지 인식/추출 시스템.According to claim 1,
The lane detection unit
After detecting a lane using a deep learning algorithm, the traffic safety sign recognition / extraction system.
상기 오브젝트 검출부는
상기 딥러닝 객체감지 알고리즘 각각의 객체탐지영역을 오버랩하여 기 설정된 오버랩 수치를 초과하는 상기 통합객체탐지영역을 생성하는 객체탐지영역 조정부를 포함하는 정밀도로지도 생성을 위한 교통안전표지 인식/추출 시스템.According to claim 1,
The object detection unit
A traffic safety sign recognition/extraction system for map creation with precision, including an object detection area adjustment unit that overlaps each object detection area of the deep learning object detection algorithm and creates the integrated object detection area exceeding a preset overlap value.
상기 오브젝트 검출부는
상기 통합객체탐지영역 내에 검출된 도로안전표지 오브젝트의 식별유무를 기 설정된 탐지영역 조건값으로 필터링하는 객체탐지영역 필터링부를 포함하는 정밀도로지도 생성을 위한 교통안전표지 인식/추출 시스템.6. The method of claim 5,
The object detection unit
A traffic safety sign recognition/extraction system for map generation with precision, including an object detection area filtering unit that filters the identification of road safety sign objects detected in the integrated object detection area with a preset detection area condition value.
상기 기 설정된 탐지영역 조건값은
상기 도로안전표지 오브젝트의 검출 위치에 대한 영역 값이고, 상기 영역 값은 노면 표지 영역, 중앙선 좌측 영역, 연석우측 영역을 포함하는 정밀도로지도 생성을 위한 교통안전표지 인식/추출 시스템.7. The method of claim 6,
The preset detection area condition value is
A traffic safety sign recognition/extraction system for creating a map with precision including a road surface sign area, a center line left area, and a curb right area.
상기 오브젝트 검출부는
상기 딥러닝 객체감지 알고리즘 각각의 객체탐지영역을 오버랩한 수치가, 상기 기 설정된 오버랩 수치보다 작을 경우,
상기 딥러닝 객체감지 알고리즘 중 검출 정확도가 높은 딥러닝 객체감지 알고리즘으로 상기 도로안전표지 오브젝트를 검출하는 정밀도로지도 생성을 위한 교통안전표지 인식/추출 시스템.6. The method of claim 5,
The object detection unit
When the overlapping value of each object detection area of the deep learning object detection algorithm is smaller than the preset overlapping value,
A traffic safety sign recognition/extraction system for map generation with precision that detects the road safety sign object with a deep learning object detection algorithm with high detection accuracy among the deep learning object detection algorithms.
상기 오브젝트 분석부는
상기 오브젝트 검출부에서 검출된 도로안전표지 오브젝트의 윤곽선을 추출한 후, 상기 윤곽선의 특징점의 위치를 기초로 상기 도로안전표지 오브젝트의 형상 및 컬러 중 적어도 하나 이상을 분석하는 정밀도로지도 생성을 위한 교통안전표지 인식/추출 시스템.According to claim 1,
The object analysis unit
After extracting the outline of the road safety sign object detected by the object detection unit, the road safety sign for map creation with precision to analyze at least one of the shape and color of the road safety sign object based on the position of the feature point of the outline Recognition/extraction system.
상기 오브젝트 트랙킹부는
상기 오브젝트 분석부로부터 제n+1 이미지 프레임 내에 도로표지 오브젝트 검출 유무 및 ID 할당 유무를 확인한 후, 제n 이미지 프레임의 중심과 제n+1 이미지 프레임의 중심의 오프셋 벡터의 최적값을 산출한 후, 오프셋 벡터의 최적값을 기초로 상기 도로표지 오브젝트의 매칭 유무를 판단하는 정밀도로지도 생성을 위한 교통안전표지 인식/추출 시스템.4. The method of claim 3,
The object tracking unit
After confirming whether a road sign object is detected in the n+1th image frame and whether an ID is assigned from the object analysis unit, the optimum value of the offset vector of the center of the nth image frame and the center of the n+1th image frame is calculated , a traffic safety sign recognition/extraction system for map generation with precision that determines whether the road sign object matches or not based on the optimal value of the offset vector.
상기 오브젝트 트랙킹부는
동일한 도로안전표지 오브젝트가 검출된 이미지 프레임을 적층한 후, 적층값이 기준값을 초과하면 적층된 이미지 프레임들의 도로안전표지 오브젝트 ID, 세그먼트, 객체탐지영역 및 차선정보를 Queue 형태로 저장 및 전송하는 정밀도로지도 생성을 위한 교통안전표지 인식/추출 시스템.11. The method of claim 10,
The object tracking unit
After stacking the image frames in which the same road safety sign object is detected, if the stacking value exceeds the standard value, the precision of storing and transmitting the road safety sign object ID, segment, object detection area and lane information of the stacked image frames in the form of a queue Traffic safety sign recognition/extraction system for road map generation.
2개의 서로 다른 딥러닝 객체감지 알고리즘의 객체탐지영역을 병합 및 확장시켜 통합객체탐지영역을 생성한 후, 기 설정된 탐지영역 조건값에 따라 상기 차선이 검출된 이미지 프레임 내에서 상기 통합객체탐지영역에 위치하는 도로안전표지 오브젝트를 검출하는 단계;
검출된 도로안전표지 오브젝트의 색상, 채도, 밝기에 따라 추출한 특징점을 기초로 도로안전표지 오브젝트의 이미지를 분석하는 단계;
상기 이미지 프레임 내에서 검출된 도로안전표지 오브젝트를 식별하기 위한 검출 ID를 이미지 프레임에 할당하는 단계 및
전/후 이미지 프레임 내에서 검출된 도로안전표지 오브젝트의 매칭유무를 비교판단한 후, 매칭되면 도로안전표지 오브젝트에 할당된 ID, 세부정보 차선정보를 Queue 형태로 제공하는 단계를 포함하는 정밀도로지도 생성을 위한 교통안전표지 인식/추출 방법.After detecting a lane in the image frame of the road driving image using a deep learning algorithm, analyzing and classifying information on the detected lane;
After creating an integrated object detection area by merging and expanding the object detection areas of two different deep learning object detection algorithms, the integrated object detection area is located in the image frame in which the lane is detected according to a preset detection area condition value. Detecting a road safety sign object located;
analyzing the image of the road safety sign object based on the feature points extracted according to the color, saturation, and brightness of the detected road safety sign object;
allocating a detection ID for identifying a road safety sign object detected in the image frame to an image frame; and
After comparing and judging whether the road safety sign object detected in the before/after image frame is matched, if it is matched, the ID assigned to the road safety sign object, detailed information, and lane information are provided in the form of a queue. A method of recognizing/extracting traffic safety signs for
상기 탐지된 차선의 정보를 분석 및 분류하는 단계는
딥러닝 알고리즘을 이용하여 차선을 검출한 후, 검출된 차선들 간의 노면표지 및 평균넓이로부터 상기 차선을 점선, 실선, 전용차선 및 중앙선 중 어느 하나로 분류하는 단계인, 정밀도로지도 생성을 위한 교통안전표지 인식/추출 방법.13. The method of claim 12,
The step of analyzing and classifying the detected lane information includes:
After detecting a lane using a deep learning algorithm, classifying the lane into any one of a dotted line, a solid line, a dedicated lane, and a center line from the road markings and average width between the detected lanes, traffic safety for map generation with precision Cover recognition/extraction method.
상기 도로안전표지 오브젝트를 검출하는 단계는
제1 딥러닝 객체감지 알고리즘 및 제2 딥러닝 객체감지 알고리즘 각각의 객체탐지영역을 오버랩하여 기 설정된 오버랩 수치를 초과하는 상기 통합객체탐지영역을 생성하는 단계를 포함하는 정밀도로지도 생성을 위한 교통안전표지 인식/추출 방법.13. The method of claim 12,
The step of detecting the road safety sign object is
Traffic safety for map creation with precision comprising the step of overlapping each object detection area of the first deep learning object detection algorithm and the second deep learning object detection algorithm to create the integrated object detection area exceeding a preset overlap value Cover recognition/extraction method.
상기 도로안전표지 오브젝트를 검출하는 단계는
상기 통합객체탐지영역 내에 검출된 도로안전표지 오브젝트의 식별유무를 기 설정된 탐지영역 조건값으로 필터링하는 단계를 포함하는 정밀도로지도 생성을 위한 교통안전표지 인식/추출 방법.15. The method of claim 14,
The step of detecting the road safety sign object is
A method of recognizing/extracting a road safety sign for map creation with precision, comprising the step of filtering the identification of the road safety sign object detected in the integrated object detection area with a preset detection area condition value.
상기 기 설정된 탐지영역 조건값은
상기 도로안전표지 오브젝트의 검출 위치에 대한 영역 값이고, 상기 영역 값은 노면 표지 영역, 중앙선 좌측 영역, 연석우측 영역을 포함하는 정밀도로지도 생성을 위한 교통안전표지 인식/추출 방법.16. The method of claim 15,
The preset detection area condition value is
A method of recognizing/extracting a road safety sign for map generation with precision including a road sign area, a center line left area, and a curb right area.
상기 도로안전표지 오브젝트를 검출하는 단계는
상기 딥러닝 객체감지 알고리즘 각각의 객체탐지영역을 오버랩한 수치가, 상기 기 설정된 오버랩 수치보다 작을 경우,
상기 딥러닝 객체감지 알고리즘 중 검출 정확도가 높은 딥러닝 객체감지 알고리즘으로 상기 도로안전표지 오브젝트를 검출하는 단계를 포함하는 정밀도로지도 생성을 위한 교통안전표지 인식/추출 방법.13. The method of claim 12,
The step of detecting the road safety sign object is
When the overlapping value of each object detection area of the deep learning object detection algorithm is smaller than the preset overlapping value,
A method of recognizing/extracting a road safety sign for map creation with precision, comprising the step of detecting the road safety sign object with a deep learning object detection algorithm with high detection accuracy among the deep learning object detection algorithms.
상기 도로안전표지 오브젝트의 이미지를 분석하는 단계는
검출된 도로안전표지 오브젝트의 윤곽선을 추출한 후, 상기 윤곽선의 특징점의 위치를 기초로 상기 도로안전표지 오브젝트의 형상 및 컬러 중 적어도 하나 이상을 분석하는 단계를 포함하는 정밀도로지도 생성을 위한 교통안전표지 인식/추출 방법.13. The method of claim 12,
The step of analyzing the image of the road safety sign object is
After extracting the contour of the detected road safety sign object, based on the position of the feature point of the contour, analyzing at least one or more of the shape and color of the road safety sign object Traffic safety sign for map creation with precision Recognition/extraction method.
상기 도로안전표지 오브젝트의 매칭유무를 비교판단하는 단계는
상기 오브젝트 분석부로부터 제n+1 이미지 프레임 내에 도로표지 오브젝트 검출 유무 및 ID 할당 유무를 확인한 후, 제n 이미지 프레임의 중심과 제n+1 이미지 프레임의 중심의 오프셋 벡터의 최적값을 산출한 후, 오프셋 벡터의 최적값을 기초로 상기 도로표지 오브젝트의 매칭 유무를 판단하는 단계인 정밀도로지도 생성을 위한 교통안전표지 인식/추출 방법.13. The method of claim 12,
The step of comparing and judging whether the road safety sign object is matched
After confirming whether a road sign object is detected in the n+1th image frame and whether an ID is assigned from the object analysis unit, the optimum value of the offset vector of the center of the nth image frame and the center of the n+1th image frame is calculated , a method of recognizing/extracting a traffic safety sign for map generation with precision, which is a step of determining whether the road sign object is matched or not based on the optimal value of the offset vector.
상기 Queue 형태로 제공하는 단계는
동일한 도로안전표지 오브젝트가 검출된 이미지 프레임을 적층한 후, 적층값이 기준값을 초과하면 적층된 이미지 프레임들의 도로안전표지 오브젝트 ID, 세그먼트, 객체탐지영역 및 차선정보를 Queue 형태로 저장 및 전송하는 단계인, 정밀도로지도 생성을 위한 교통안전표지 인식/추출 방법.11. The method of claim 10,
The step of providing in the form of the queue is
After stacking the image frames in which the same road safety sign object is detected, if the stacking value exceeds the reference value, storing and transmitting the road safety sign object ID, segment, object detection area and lane information of the stacked image frames in the form of a queue A method of recognizing/extracting traffic safety signs for map generation with high precision.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200166245A KR102482427B1 (en) | 2020-12-02 | 2020-12-02 | system and method for recognizing and extracting traffic safety signs for generating precision road maps |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200166245A KR102482427B1 (en) | 2020-12-02 | 2020-12-02 | system and method for recognizing and extracting traffic safety signs for generating precision road maps |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220077370A true KR20220077370A (en) | 2022-06-09 |
KR102482427B1 KR102482427B1 (en) | 2022-12-29 |
Family
ID=81985921
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200166245A KR102482427B1 (en) | 2020-12-02 | 2020-12-02 | system and method for recognizing and extracting traffic safety signs for generating precision road maps |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102482427B1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20090055848A (en) * | 2007-11-29 | 2009-06-03 | 한국전자통신연구원 | Apparatus and method of detecting signal light |
KR101199959B1 (en) | 2011-09-09 | 2012-11-12 | 이엔지정보기술 주식회사 | System for reconnizaing road sign board of image |
KR20190053355A (en) * | 2017-11-10 | 2019-05-20 | 연세대학교 산학협력단 | Method and Apparatus for Recognizing Road Symbols and Lanes |
KR102031503B1 (en) * | 2018-11-23 | 2019-11-08 | 유니셈(주) | Method and system for detecting multi-object |
-
2020
- 2020-12-02 KR KR1020200166245A patent/KR102482427B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20090055848A (en) * | 2007-11-29 | 2009-06-03 | 한국전자통신연구원 | Apparatus and method of detecting signal light |
KR101199959B1 (en) | 2011-09-09 | 2012-11-12 | 이엔지정보기술 주식회사 | System for reconnizaing road sign board of image |
KR20190053355A (en) * | 2017-11-10 | 2019-05-20 | 연세대학교 산학협력단 | Method and Apparatus for Recognizing Road Symbols and Lanes |
KR102031503B1 (en) * | 2018-11-23 | 2019-11-08 | 유니셈(주) | Method and system for detecting multi-object |
Also Published As
Publication number | Publication date |
---|---|
KR102482427B1 (en) | 2022-12-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10319096B2 (en) | Automated tattoo recognition techniques | |
KR101992398B1 (en) | Method and Apparatus for Recognizing Road Symbols and Lanes | |
Ellahyani et al. | Traffic sign detection and recognition based on random forests | |
US11164027B2 (en) | Deep learning based license plate identification method, device, equipment, and storage medium | |
CN108364010B (en) | License plate recognition method, device, equipment and computer readable storage medium | |
CN110502982B (en) | Method and device for detecting obstacles in expressway and computer equipment | |
EP2833288B1 (en) | Face calibration method and system, and computer storage medium | |
US10552706B2 (en) | Attachable matter detection apparatus and attachable matter detection method | |
CN110502983B (en) | Method and device for detecting obstacles in expressway and computer equipment | |
CN103824091B (en) | A kind of licence plate recognition method for intelligent transportation system | |
US20100208071A1 (en) | Vehicle detection device, vehicle detection method, and vehicle detection program | |
Babbar et al. | A new approach for vehicle number plate detection | |
KR20090109012A (en) | Image Processing | |
CN116052152A (en) | License plate recognition system based on contour detection and deep neural network | |
US9953238B2 (en) | Image processing method and system for extracting distorted circular image elements | |
CN107977608B (en) | Method for extracting road area of highway video image | |
CN107392115B (en) | Traffic sign identification method based on hierarchical feature extraction | |
Agunbiade et al. | Enhancement performance of road recognition system of autonomous robots in shadow scenario | |
KR102482427B1 (en) | system and method for recognizing and extracting traffic safety signs for generating precision road maps | |
CN108346313B (en) | Empty parking space detection method and system | |
Soetedjo et al. | An efficient algorithm for implementing traffic sign detection on low cost embedded system | |
Meem et al. | Zebra-crossing detection and recognition based on flood fill operation and uniform local binary pattern | |
CN111062309B (en) | Method, storage medium and system for detecting traffic signs in rainy days | |
CN114764853A (en) | Method and device for determining occupation information | |
Tian et al. | A new algorithm for license plate localization in open environment using color pair and stroke width features of character |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |