KR20220077370A - system and method for recognizing and extracting traffic safety signs for generating precision road maps - Google Patents

system and method for recognizing and extracting traffic safety signs for generating precision road maps Download PDF

Info

Publication number
KR20220077370A
KR20220077370A KR1020200166245A KR20200166245A KR20220077370A KR 20220077370 A KR20220077370 A KR 20220077370A KR 1020200166245 A KR1020200166245 A KR 1020200166245A KR 20200166245 A KR20200166245 A KR 20200166245A KR 20220077370 A KR20220077370 A KR 20220077370A
Authority
KR
South Korea
Prior art keywords
safety sign
road
object detection
road safety
detected
Prior art date
Application number
KR1020200166245A
Other languages
Korean (ko)
Other versions
KR102482427B1 (en
Inventor
최인구
박재형
박영국
김상욱
박호준
Original Assignee
한국도로공사
다이트론코리아 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국도로공사, 다이트론코리아 주식회사 filed Critical 한국도로공사
Priority to KR1020200166245A priority Critical patent/KR102482427B1/en
Publication of KR20220077370A publication Critical patent/KR20220077370A/en
Application granted granted Critical
Publication of KR102482427B1 publication Critical patent/KR102482427B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명의 일 실시예에 따른 정밀도로지도 생성을 위한 교통안전표지 인식/추출 시스템은 도로주행영상을 입력받는 입력부; 도로주행영상의 이미지 프레임 내의 차선을 딥러닝 알고리즘을 이용하여 탐지한 후, 탐지된 차선의 정보를 분석 및 분류하는 차선 검출부; 서로 다른 탐지방식으로 이미지 객체를 탐지하는 적어도 2개 이상의 딥러닝 알고리즘 각각의 탐지영역들을 병합 및 확장시켜 통합객체탐지영역을 생성한 후, 기 설정된 탐지영역 조건값에 따라 상기 차선이 검출된 이미지 프레임 내에서 상기 통합객체탐지영역에 위치하는 도로안전표지 오브젝트를 검출하는 도로안전표지 오브젝트 검출부; 및 검출된 도로안전표지 오브젝트의 색상, 채도, 밝기에 따라 추출한 특징점을 기초로 세부형상을 분석하는 오브젝트 분석부를 포함한다.A traffic safety sign recognition/extraction system for generating a map with precision according to an embodiment of the present invention includes: an input unit for receiving a road driving image; a lane detection unit that detects a lane in an image frame of a road driving image using a deep learning algorithm, and then analyzes and classifies information on the detected lane; An image frame in which the lane is detected according to a preset detection area condition value after generating an integrated object detection area by merging and expanding each detection area of at least two or more deep learning algorithms that detect an image object in different detection methods a road safety sign object detection unit for detecting a road safety sign object located in the integrated object detection area within; and an object analysis unit that analyzes a detailed shape based on the feature points extracted according to the color, saturation, and brightness of the detected road safety sign object.

Description

정밀도로지도 생성을 위한 교통안전표지 인식/추출 방법 및 시스템{system and method for recognizing and extracting traffic safety signs for generating precision road maps}{system and method for recognizing and extracting traffic safety signs for generating precision road maps}

본 발명은 정밀도로지도 생성을 위한 교통안전표지 인식/추출 방법 및 시스템에 관한 것이다.The present invention relates to a method and system for recognizing/extracting traffic safety signs for map generation with precision.

근래에 들어 정보처리 및 통신기술이 비약적으로 발달함에 따라 지리 정보를 지도 정보 데이터로 구축하여 교통에 활용하는 방법이 많이 이용되고 있다. 이러한 지도 정보 데이터는 실체 촬영된 지리 정보를 바탕으로 제작되어 네비게이션을 통한 길 찾기나 안전 운행, 자동 운행 등에 활용되고 있다.In recent years, with the rapid development of information processing and communication technology, a method of constructing geographic information as map information data and utilizing it for transportation has been widely used. This map information data is produced based on the actual photographed geographic information and is used for navigation, safe driving, and automatic driving.

이러한 지도 데이터를 활용하는 내비게이션은 차량 자동항법장치로서, 위성을 이용해 현 위치를 파악하는 GPS를 이용해 목적지까지 길 안내를 음성 및 모니터 화면으로 제공하는 장치이다. 이러한 내비게이션 장치에는 GPS 위성으로부터 차량의 현재 위치 정보를 제공받는 GPS 수신기와 도로안전표지판 등의 지도(MAP) 정보가 등록되는 맵 DB와, GPS 수신기를 통하여 파악되는 현재 위치에 따라 지도 정보를 맵핑시켜 화면에 표시하는 운영 프로그램 등이 구비된다.A navigation system that utilizes such map data is an automatic vehicle navigation system, which provides directions to a destination through voice and monitor screens using GPS, which uses satellites to determine the current location. In such a navigation device, a GPS receiver that receives the vehicle's current location information from a GPS satellite, a map DB in which map information such as road safety signs are registered, and map information are mapped according to the current location identified through the GPS receiver. An operating program to be displayed on the screen is provided.

상기 내비게이션의 맵 DB에 구축되는 지도 정보는 실제 지리 정보의 계측을 통하여 생성되는데, 이러한 지도 정보는 도로의 신설이나 교통 체계의 변경 등에 따라 변화하기 때문에 정기적 또는 비정기적으로 지도 정보를 갱신(Update) 하여야 한다. 이러한 내비게이션의 지도 정보 갱신은 통상적으로 수작업에 의해 진행되는데, 특히 교통표지판의 경우 지속적으로 변경되기 때문에 맵 관리자가 수시로 지도상 위치로 이동하면서 도로안전표지판을 일일이 확인한 후, 지도 정보에 포함되는 도로안전표지판의 정보를 갱신하여야 하는 번거로운 문제점이 있었다.The map information built in the map DB of the navigation system is generated through measurement of actual geographic information. Since this map information changes according to new roads or changes in the traffic system, the map information is updated regularly or irregularly. shall. The update of map information in such navigation is usually done manually. In particular, since traffic signs are constantly changing, the map manager frequently moves to a location on the map and checks road safety signs one by one, and then the road safety included in the map information. There was a cumbersome problem of having to update the information on the sign.

등록특허공보 제10-1199959호Registered Patent Publication No. 10-1199959

본 발명이 해결하고자 하는 과제는 종래의 문제점을 해결할 수 있는 정밀도로지도 생성을 위한 교통안전표지 인식/추출 방법 및 시스템을 제공하는 데 그 목적이 있다.An object of the present invention is to provide a method and system for recognizing/extracting traffic safety signs for map generation with precision that can solve the problems of the prior art.

상기 과제를 해결하기 위한 본 발명의 일 실시예에 따른 정밀도로지도 생성을 위한 교통안전표지 인식/추출 시스템은 도로주행영상을 입력받는 입력부; 도로주행영상의 이미지 프레임 내의 차선을 딥러닝 알고리즘을 이용하여 탐지한 후, 탐지된 차선의 정보를 분석 및 분류하는 차선 검출부; 서로 다른 탐지방식으로 이미지 객체를 탐지하는 적어도 2개 이상의 딥러닝 알고리즘 각각의 탐지영역들을 병합 및 확장시켜 통합객체탐지영역을 생성한 후, 기 설정된 탐지영역 조건값에 따라 상기 차선이 검출된 이미지 프레임 내에서 상기 통합객체탐지영역에 위치하는 도로안전표지 오브젝트를 검출하는 도로안전표지 오브젝트 검출부; 및 검출된 도로안전표지 오브젝트의 색상, 채도, 밝기에 따라 추출한 특징점을 기초로 세부형상을 분석하는 오브젝트 분석부를 포함한다.In accordance with an embodiment of the present invention for solving the above problems, a traffic safety sign recognition/extraction system for generating a map with precision includes an input unit for receiving a road driving image; a lane detection unit that detects a lane in an image frame of a road driving image using a deep learning algorithm, and then analyzes and classifies information on the detected lane; An image frame in which the lane is detected according to a preset detection area condition value after generating an integrated object detection area by merging and expanding each detection area of at least two or more deep learning algorithms that detect an image object in different detection methods a road safety sign object detection unit for detecting a road safety sign object located in the integrated object detection area within; and an object analysis unit that analyzes a detailed shape based on the feature points extracted according to the color, saturation, and brightness of the detected road safety sign object.

상기 과제를 해결하기 위한 본 발명의 일 실시에에 따른 정밀도로지도 생성을 위한 교통안전표지 인식/추출 방법은 도로주행영상의 복수 개의 영상 프레임들을 전처리하는 단계; 전처리된 각 영상 프레임 내의 차선을 딥러닝 알고리즘을 이용하여 탐지한 후, 탐지된 차선의 종류를 분석 및 분류하는 단계; 상기 전처리된 영상 각 영상 프레임 내의 오브젝트 이미지의 감지 바운딩 박스를 2개의 서로 다른 딥러닝 알고리즘을 이용하여 탐지한 후, 탐지된 2개의 감지 바운딩 박스를 오버랩하여 통합 바운딩 박스를 생성하는 단계; 상기 통합 바운딩 박스 내의 오버랩 영역이 기 설정값을 초과하면, 상기 오버랩 영역 내의 오브젝트의 위치, 색상, 모양을 필터링하여 도로안전표지 오브젝트의 세부정보를 검출하는 단계; 및 상기 복수 개의 이미지 프레임에서 검출된 도로안전표지 오브젝트에 할당된 ID 및 세부정보를 Queue 형태로 제공하는 단계를 포함한다.A method for recognizing/extracting a traffic safety sign for generating a map with precision according to an embodiment of the present invention for solving the above problems includes the steps of pre-processing a plurality of image frames of a road driving image; After detecting a lane in each preprocessed image frame using a deep learning algorithm, analyzing and classifying the type of the detected lane; generating an integrated bounding box by overlapping the detected two detection bounding boxes after detecting a detection bounding box of an object image in each image frame of the preprocessed image using two different deep learning algorithms; detecting the detailed information of the road safety sign object by filtering the position, color, and shape of the object in the overlapping area when the overlap area in the integrated bounding box exceeds a preset value; and providing the ID and detailed information assigned to the road safety sign object detected in the plurality of image frames in the form of a queue.

따라서, 본 발명의 일 실시예에 따른 정밀도로지도 생성을 위한 교통안전표지 인식/추출 시스템 및 방법을 이용하면, 2개의 딥러닝 객체탐지알고리즘을 이용하여 탐지영역을 확장시켜 도로안전표지의 검출정확도를 향상시키고, 도로안전표지의 탐지영역에 대한 필터링 과정을 세분화하고, 연속되는 프레임의 오브젝트를 트랙킹함으로써, 도로주행영상 내의 도로안전표지의 검출위치에 대한 정확도를 향상시킬 수 있다는 이점을 제공한다.Therefore, using the traffic safety sign recognition/extraction system and method for creating a map with precision according to an embodiment of the present invention, the detection area is expanded using two deep learning object detection algorithms to detect the accuracy of road safety signs It provides the advantage of being able to improve the accuracy of the detection position of the road safety sign in the road driving image by improving

도 1은 본 발명의 일 실시예에 따른 정밀도로지도 생성을 위한 교통안전표지 인식/추출 시스템의 블록도이다.
도 2는 도 1에 도시된 차선 검출부의 동작을 설명한 예시도이다.
도 3은 도 1에 도시된 오브젝트 검출부의 세부블럭도이다.
도 4는 노면 표지영역 내에 위치한 오브젝트를 오브젝트 분석부에서 분석하는 진행과정을 설명한 흐름도이고, 도 5는 노면 표지영역 이외의 영역에 위치한 오브젝트의 이미지를 오브젝트 분석부에서 분석하는 진행과정을 설명한 흐름도이다.
도 6은 도 1에 도시된 오브젝트 트랙킹부의 동작을 설명한 예시도이다.
도 7은 본 발명의 일 실시예에 따른 정밀도로지도 생성을 위한 교통안전표지 인식/추출 방법을 설명한 흐름도이다.
도 8은 도 7에 도시된 S720 과정의 세부흐름도이다.
도 9는 도 7에 도시된 S730 과정의 세부흐름도이다.
도 10 및 도 11은 도 7에 도시된 S740 과정의 세부흐름도이다.
도 12는 도 7에 도시된 S760 과정의 세부흐름도이다.
도 13은 본 명세서에 개진된 하나 이상의 실시예가 구현될 수 있는 예시적인 컴퓨팅 환경을 도시한 도이다.
1 is a block diagram of a system for recognizing/extracting traffic safety signs for map generation with precision according to an embodiment of the present invention.
FIG. 2 is an exemplary view illustrating an operation of the lane detection unit shown in FIG. 1 .
FIG. 3 is a detailed block diagram of the object detection unit shown in FIG. 1 .
4 is a flowchart illustrating a process in which the object analysis unit analyzes an object located in the road surface mark area, and FIG. 5 is a flowchart illustrating the process in which the object analyzer analyzes an image of an object located in an area other than the road surface mark area. .
FIG. 6 is an exemplary view illustrating an operation of the object tracking unit shown in FIG. 1 .
7 is a flowchart illustrating a method for recognizing/extracting a traffic safety sign for generating a map with precision according to an embodiment of the present invention.
8 is a detailed flowchart of the process S720 shown in FIG.
9 is a detailed flowchart of the process S730 shown in FIG.
10 and 11 are detailed flowcharts of the process S740 shown in FIG.
12 is a detailed flowchart of the process S760 shown in FIG.
13 illustrates an example computing environment in which one or more embodiments disclosed herein may be implemented.

본 명세서 또는 출원에 개시되어 있는 본 발명의 실시 예들에 대해서 특정한 구조적 내지 기능적 설명들은 단지 본 발명에 따른 실시 예를 설명하기 위한 목적으로 예시된 것으로, 본 발명에 따른 실시 예들은 다양한 형태로 실시될 수 있으며 본 명세서 또는 출원에 설명된 실시예들에 한정되는 것으로 해석되어서는 아니 된다. Specific structural or functional descriptions of the embodiments of the present invention disclosed in the present specification or application are only exemplified for the purpose of describing the embodiments according to the present invention, and the embodiments according to the present invention may be implemented in various forms. and should not be construed as being limited to the embodiments described in the present specification or application.

본 발명에 따른 실시예는 다양한 변경을 가할 수 있고 여러가지 형태를 가질 수 있으므로 특정실시 예들을 도면에 예시하고 본 명세서 또는 출원에 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시 예를 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Since the embodiment according to the present invention can have various changes and can have various forms, specific embodiments are illustrated in the drawings and described in detail in the present specification or application. However, this is not intended to limit the embodiment according to the concept of the present invention with respect to a specific disclosed form, and should be understood to include all changes, equivalents or substitutes included in the spirit and scope of the present invention.

제1 및/또는 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로 만, 예컨대 본 발명의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다. Terms such as first and/or second may be used to describe various elements, but the elements should not be limited by the terms. The above terms are used only for the purpose of distinguishing one element from another element, for example, without departing from the scope of the present invention, a first element may be called a second element, and similarly The second component may also be referred to as the first component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.When an element is referred to as being “connected” or “connected” to another element, it is understood that it may be directly connected or connected to the other element, but other elements may exist in between. it should be On the other hand, when it is said that a certain element is "directly connected" or "directly connected" to another element, it should be understood that the other element does not exist in the middle. Other expressions describing the relationship between elements, such as "between" and "immediately between" or "neighboring to" and "directly adjacent to", etc., should be interpreted similarly.

본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is used only to describe specific embodiments, and is not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. As used herein, terms such as “comprise” or “have” are intended to designate that the specified feature, number, step, operation, component, part, or combination thereof is present, and includes one or more other features or numbers, It should be understood that the existence or addition of steps, operations, components, parts or combinations thereof is not precluded in advance.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical and scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present specification. does not

이하, 첨부된 도면들에 기초하여 본 발명의 일 실시예에 따른 정밀도로지도 생성을 위한 교통안전표지 인식/추출 방법 및 시스템을 보다 상세하게 설명하도록 한다.Hereinafter, a method and system for recognizing/extracting a traffic safety sign for creating a map with precision according to an embodiment of the present invention will be described in more detail based on the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 정밀도로지도 생성을 위한 교통안전표지 인식/추출 시스템의 블록도이고, 도 2는 도 1에 도시된 차선 검출부의 동작을 설명한 예시도이고, 도 3은 도 1에 도시된 오브젝트 검출부의 세부블럭도이고, 도 4는 노면 표지영역 내에 위치한 오브젝트를 오브젝트 분석부에서 분석하는 진행과정을 설명한 흐름도이고, 도 5는 노면 표지영역 이외의 영역에 위치한 오브젝트의 이미지를 오브젝트 분석부에서 분석하는 진행과정을 설명한 흐름도이고, 도 6은 도 1에 도시된 오브젝트 트랙킹부의 동작을 설명한 예시도이다.1 is a block diagram of a system for recognizing/extracting traffic safety signs for map generation with precision according to an embodiment of the present invention, FIG. 2 is an exemplary diagram illustrating the operation of the lane detection unit shown in FIG. 1, and FIG. 3 is It is a detailed block diagram of the object detection unit shown in FIG. 1 , FIG. 4 is a flowchart illustrating a process of analyzing an object located in the road surface mark area by the object analysis unit, and FIG. 5 is an image of an object located in an area other than the road surface mark area is a flowchart illustrating a process of analyzing by the object analysis unit, and FIG. 6 is an exemplary diagram illustrating the operation of the object tracking unit shown in FIG. 1 .

먼저, 도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 정밀도로지도 생성을 위한 교통안전표지 인식/추출 시스템(100)은 입력부(110), 차선 검출부(120), 도로안전표지 오브젝트 검출부(130), 오브젝트 분석부(140), ID 할당부(150) 및 오브젝트 트랙킹부(160)를 포함한다.First, as shown in FIG. 1 , the system 100 for recognizing/extracting traffic safety signs for map generation with precision according to an embodiment of the present invention includes an input unit 110 , a lane detection unit 120 , and a road safety sign object. It includes a detection unit 130 , an object analysis unit 140 , an ID allocation unit 150 , and an object tracking unit 160 .

한편, 본 발명은 도로주행영상의 이미지 프레임에 대한 전처리 과정을 수행하는 전처리 구성을 포함할 수 있고, 전처리 구성은 입력된 도로주행영상의 이미지 프레임 각각의 명암 값의 분포의 균일화를 위해 히스토그램 평활화, 예컨대, 명도값의 빈도수 계산, 빈도수를 이용하여 축적 히스토그램 값을 산출한 후, 정규화하고, 정규화된 축적 히스토그램을 그레이 스케일 사상 함수를 적용하여 그레이 레벨 값을 맵핑하는 구성일 수 있다.On the other hand, the present invention may include a pre-processing configuration for performing a pre-processing process on the image frame of the road driving image, and the pre-processing configuration is a histogram smoothing, For example, it may be a configuration in which a gray level value is mapped by calculating the frequency of the brightness value, calculating the accumulated histogram value using the frequency, normalizing the accumulated histogram value, and applying a gray scale mapping function to the normalized accumulated histogram.

본 발명에서 언급하는 전처리 과정은 이미지 프레임을 전처리하는 방식 중 대표적인 일 예를 설명한 것일 뿐, 다른 방식의 전처리 과정 또한 본 발명에서 적용할 수 있다.The pre-processing process referred to in the present invention is only a representative example of a method of pre-processing an image frame, and other pre-processing processes may also be applied in the present invention.

상기 입력부(110)는 도로주행영상을 입력받는 구성이다.The input unit 110 is configured to receive a road driving image.

다음으로, 차선 검출부(120)는 도 2를 참조하면, 전처리된 각 이미지 프레임 내의 차선을 딥러닝 알고리즘을 이용하여 탐지한 후, 탐지된 차선의 정보를 분석 및 분류하는 구성일 수 있다.Next, referring to FIG. 2 , the lane detection unit 120 may be configured to detect lanes in each preprocessed image frame using a deep learning algorithm, and then analyze and classify information on the detected lanes.

보다 구체적으로, 차선 검출부(120)는 딥러닝 알고리즘을 이용하여 차선을 검출한 후, 검출된 차선들 간의 노면표지 및 평균넓이를 모폴로지(Morphology) 필터링(연산) 과정을 통해 보정한 후, 보정된 차선 영역 이외의 영역 및 중복 노면표지를 제거한 후, 보정된 차선을 점선, 실선, 전용차선 및 중앙선 중 어느 하나로 분류하는 구성일 수 있다. 딥러닝 알고리즘으로서 Convolutional LSTM(Long Short-Term Memory)이 이용될 수 있으며, 그 외에도 다양한 딥러닝 알고리즘이 이용될 수 있음은 물론이다.More specifically, the lane detection unit 120 detects a lane by using a deep learning algorithm, and then corrects the road sign and the average width between the detected lanes through a morphology filtering (operation) process, and then After removing the area other than the lane area and the overlapping road markings, the corrected lane may be classified into any one of a dotted line, a solid line, an exclusive lane, and a center line. As a deep learning algorithm, a convolutional long short-term memory (LSTM) may be used, and it goes without saying that various deep learning algorithms may be used.

참고로, 모폴로지(Morphology)는 형태에 따라 영상을 처리하는 광범위한 영상 처리 연산 집합으로, 모폴로지(Morphology) 연산에서는 영상의 각 픽셀이 이웃의 다른 픽셀값에 따라 조정되고, 이웃의 크기와 형태를 선택하여 대상 영상의 특정 형태로 연산처리하는 것을 의미한다.For reference, Morphology is a broad set of image processing operations that process images according to shapes. In Morphology operations, each pixel of an image is adjusted according to the values of other pixels in its neighborhood, and the size and shape of the neighbor are selected. Thus, it means that the operation is processed in a specific form of the target image.

기본적으로, 모폴로지 연산은 침식(erode)과 팽창(dilate) 연산 과정으로, 현재 픽셀을 기준으로 필터를 적용하되, 필터 영역 안의 값을 확인하고, 현재 픽셀의 값을 수정하는 연산과정이다.Basically, the morphology operation is an erode and dilate operation process, which applies a filter based on the current pixel, checks the value in the filter area, and modifies the value of the current pixel.

여기서, 침식은 필터 영역 내 픽셀 중 최소 픽셀값을 현재 픽셀값에 대입하는 것을 의미하며, 팽창은 필터 영역 내 픽셀 중 최대 픽셀값을 현재 픽셀값에 대입하는 것을 의미하며, 모폴로지 연산은 공지된 기술임으로, 보다 상세한 설명은 생략하도록 한다.Here, erosion means substituting the minimum pixel value among pixels in the filter area to the current pixel value, dilation means substituting the maximum pixel value among pixels in the filter area into the current pixel value, and the morphological operation is a known technique. Optionally, a more detailed description will be omitted.

다음으로, 도 3을 참조, 도로안전표지 오브젝트 검출부(130)는 2개의 서로 다른 딥러닝 객체감지 알고리즘의 객체탐지영역(detection bounding box)을 병합 및 확장시켜 통합객체탐지영역을 생성한 후, 기 설정된 탐지영역 조건값에 따라 상기 차선이 검출된 이미지 프레임 내에서 상기 통합객체탐지영역에 위치하는 도로안전표지 오브젝트를 검출하는 구성일 수 있다.Next, referring to FIG. 3, the road safety sign object detection unit 130 merges and expands the object detection bounding box of two different deep learning object detection algorithms to create an integrated object detection area, and then It may be configured to detect a road safety sign object located in the integrated object detection area within the image frame in which the lane is detected according to a set detection area condition value.

보다 구체적으로, 도로안전표지 오브젝트 검출부(130)는 객체탐지영역 조정부(131) 및 객체탐지영역 필터링부(132)를 포함한다.More specifically, the road safety sign object detection unit 130 includes an object detection area adjustment unit 131 and an object detection area filtering unit 132 .

객체탐지영역 조정부(131)는 제1 딥러닝 객체감지 알고리즘 및 제2 딥러닝 객체감지 알고리즘 각각의 객체탐지영역(bounding box)을 오버랩(overlap)하여 기 설정된 오버랩 수치, 바람직하게는 60%를 초과하는 상기 통합객체탐지영역을 생성하는 구성일 수 있다.The object detection area adjustment unit 131 overlaps the object detection area (bounding box) of each of the first deep learning object detection algorithm and the second deep learning object detection algorithm to a preset overlap value, preferably exceeding 60% It may be configured to create the integrated object detection area.

참고로, 제1 딥러닝 객체감지 알고리즘은 객체탐지속도가 빠른 반면에 인식 정확도가 낮고, 제2 딥러닝 객체감지 알고리즘은 객체탐지속도가 느린 반면에 인식 정확도가 높다는 특징이 있다. 제1 딥러닝 객체감지 알고리즘으로서 Gaussian YOLO v3가 이용될 수 있고, 제2 딥러닝 객체감지 알고리즘으로서 MASK R-CNN 이 이용될 수 있다. Gaussian YOLO v3 및 MASK R-CNN 알고리즘은 제1 및 제2 딥러닝 객체 알고리즘의 예시로서, 이에 한정되지 않고 알고리즘의 특징에 맞는 다른 적절한 딥러닝 객체 알고리즘이 이용될 수 있음은 물론이다.For reference, the first deep learning object detection algorithm has a fast object detection speed but low recognition accuracy, and the second deep learning object detection algorithm has a slow object detection speed but high recognition accuracy. Gaussian YOLO v3 may be used as the first deep learning object detection algorithm, and MASK R-CNN may be used as the second deep learning object detection algorithm. The Gaussian YOLO v3 and MASK R-CNN algorithms are examples of the first and second deep learning object algorithms, and the present invention is not limited thereto, and of course, other suitable deep learning object algorithms suitable for the characteristics of the algorithm may be used.

이에 본 발명에서는 2개의 딥러닝 객체감지 알고리즘의 감지 바운딩 박스(detection Bounding Box)를 통합하여 확장시켜 2개의 딥러닝 객체감지 알고리즘의 장점이 도출 가능하도록 통합객체탐지영역을 생성하여 이용한다.Accordingly, in the present invention, an integrated object detection area is created and used so that the advantages of the two deep learning object detection algorithms can be derived by integrating and expanding the detection bounding boxes of the two deep learning object detection algorithms.

한편, 객체탐지영역 조정부(131)는 오버랩된 통합객체탐지영역이 기 설정된 오버랩 수치(60%)보다 작을 경우, 제2 딥러닝 객체감지 알고리즘으로 도로안전표지 오브젝트를 검출할 수 있다.On the other hand, when the overlapping integrated object detection area is smaller than a preset overlap value (60%), the object detection area adjustment unit 131 may detect the road safety sign object with the second deep learning object detection algorithm.

상기 객체탐지영역 필터링부(132)는 상기 통합객체탐지영역 내에 검출된 도로안전표지 오브젝트의 위치를 기 설정된 탐지영역 조건값으로 필터링하는 구성으로, 여기서, 상기 기 설정된 탐지영역 조건값은 상기 도로안전표지 오브젝트의 검출 위치에 대한 영역 값이고, 상기 영역 값은 노면 표지 영역, 중앙선 좌측 영역, 연석우측 영역을 포함한다.The object detection area filtering unit 132 is configured to filter the position of the road safety sign object detected in the integrated object detection area with a preset detection zone condition value, wherein the preset detection zone condition value is the road safety This is an area value for the detection position of the mark object, and the area value includes a road marking area, a center line left area, and a curb right area.

보다 구체적으로, 객체탐지영역 필터링부(132)는 통합객체탐지영역의 위치를 노면 표지 영역인지를 1차 판단하고, 노면표지 영역이 아닐 경우, 중앙선 좌측인지를 2차 판단하고, 중앙선 좌측이 아닐 경우, 연석 우측인지를 3차 판단함으로써, 통합객체탐지영역이 생성된 위치 영역을 구체화시킴으로서 도로안전표지 오브젝트의 검출률의 오류를 줄이고, 정확도를 향상시킬 수 있다.More specifically, the object detection area filtering unit 132 first determines whether the location of the integrated object detection area is a road marking area, and if it is not a road marking area, determines whether it is on the left side of the center line, and determines whether the location of the integrated object detection area is not on the left side of the center line. In this case, it is possible to reduce the error in the detection rate of the road safety sign object and improve the accuracy by specifying the area where the integrated object detection area is generated by tertiarily determining whether it is on the right side of the curb.

다음으로, 도 4 및 도 5를 참조, 오브젝트 분석부(140)는 필터링된 통합객체탐지영역 내의 도로안전표지 오브젝트의 색상, 채도, 밝기에 따라 추출한 특징점을 기초로 세부형상을 분석(판단)하는 구성일 수 있다.Next, referring to FIGS. 4 and 5, the object analysis unit 140 analyzes (determines) the detailed shape based on the feature points extracted according to the color, saturation, and brightness of the road safety sign object in the filtered integrated object detection area. It can be configuration.

보다 구체적으로, 도 5 참조, 오브젝트 분석부(140)는 도로안전표지 오브젝트가 감지된 통합객체탐지영역(bounding box) 위치가 노면 표지영역에 위치할 경우, 상기 통합객체탐지영역(bounding box)의 픽셀 RGB 값을 HSV(색상, 채도, 밝기)로 변환한 후, 기 설정된 임계값 알고리즘을 통해 도로안전표지 오브젝트의 임계값을 생성한 후, 생성된 임계값을 기초로 상기 오브젝트와 노면 표지영역을 백과 흑으로 구분한 후, 모폴로지(Morphology) 필터링을 통해 노이즈를 제거하고, 검출된 도로안전표지 오브젝트의 윤곽선(contours)을 추출 및 피팅처리한 후, 피팅처리된 윤곽선의 특징점을 기초로 노면 표지영역에 위치하는 도로표지 오브젝트의 형상을 판단한다. 전술한 임계값 알고리즘으로 Otsu Algorithm이 이용될 수 있으며, 그 외에도 다른 적절한 알고리즘이 이용될 수 있음은 물론이다.More specifically, referring to FIG. 5 , the object analysis unit 140 detects the integrated object detection area (bounding box) of the integrated object detection area (bounding box) when the location of the integrated object detection area (bounding box) in which the road safety sign object is detected is located in the road surface marking area After converting the pixel RGB value to HSV (color, saturation, brightness), the threshold value of the road safety sign object is generated through a preset threshold value algorithm, and the object and the road sign area are calculated based on the generated threshold value. After classifying into white and black, noise is removed through morphology filtering, contours of the detected road safety sign object are extracted and fitted, and the road surface marking area is based on the feature points of the fitted contour. Determine the shape of the road sign object located in Of course, the Otsu Algorithm may be used as the threshold algorithm described above, and other suitable algorithms may be used in addition to it.

또한, 도 4를 참조, 오브젝트 분석부(140)는 도로안전표지 오브젝트가 감지된 객체탐지영역(bounding box)의 위치가 노면 표지영역 이외의 영역에 위치할 경우, 상기 객체탐지영역에 대한 컬러 히스토그램(픽셀들에 대한 명암값 분포도)을 산출하고, 상기 객체탐지영역의 픽셀 RGB값을 HSV(색상, 채도, 밝기)로 변환 및 상기 객체탐지영역을 CIE(Commission Internationale d' Eclairage) 색 공간좌표로 변환한 후, 상기 컬러 히스토그램 및 상기 HSV 값을 이용하여 상기 객체탐지영역의 Red, blue, green의 색 대역을 카운트하고, 상기 CIE(Commission Internationale d' Eclairage) 색 공간좌표 상에서 L(밝기), A(녹색에서 적색의 보색), B(노란색에서 파란색의 보색) 값을 추출하고, 상기 색 공간좌표의 LAB 값 및 상기 RGB 밴드의 카운트값을 포함하는 객체탐지영역을 그레이 스케일(Gray scale) 이미지로 변환한 후, 기 설정된 임계값 알고리즘(Otsu Algorithm)을 통해 도로안전표지 오브젝트의 임계값을 생성한 후, 생성된 임계값을 기초로 상기 오브젝트와 전경영역을 구분한 후, 모폴로지(Morphology) 필터링을 통해 노이즈를 제거하고, 검출된 도로안전표지 오브젝트의 윤관선(contours)을 추출한 후, 상기 윤곽선의 특징점의 위치를 기초로 상기 도로안전표지 오브젝트의 형상(색 포함)을 판단한다.In addition, referring to FIG. 4 , the object analysis unit 140 provides a color histogram for the object detection area when the location of the object detection area (bounding box) in which the road safety sign object is detected is located in an area other than the road surface mark area. Calculating (shade value distribution for pixels), converting pixel RGB values of the object detection area into HSV (color, saturation, brightness), and converting the object detection area into CIE (Commission Internationale d'Eclairage) color space coordinates After conversion, the red, blue, and green color bands of the object detection area are counted using the color histogram and the HSV value, and L (brightness), A on the CIE (Commission Internationale d'Eclairage) color space coordinates. (Complementary color from green to red), B (complementary color from yellow to blue) values are extracted, and the object detection area including the LAB value of the color space coordinates and the count value of the RGB band is a gray scale image After conversion, the threshold value of the road safety sign object is generated through a preset threshold value algorithm (Otsu Algorithm), the object and the foreground area are divided based on the generated threshold value, and then morphology filtering is performed. After removing noise and extracting contours of the detected road safety sign object, the shape (including color) of the road safety sign object is determined based on the position of the feature point of the outline.

다음으로, ID 할당부(160)는 오브젝트 분석부(150)에서 분석한 이미지 프레임 내에서 검출된 도로안전표지 오브젝트를 식별하기 위한 검출 ID를 이미지 프레임에 할당하는 구성일 수 있다.Next, the ID allocator 160 may be configured to allocate a detection ID for identifying the road safety sign object detected in the image frame analyzed by the object analysis unit 150 to the image frame.

다음으로, 도 6을 참조, 오브젝트 트랙킹부(170)는 도로주행영상의 전/후 이미지 프레임 내에서 검출된 도로안전표지 오브젝트의 매칭 유무를 비교판단한 후, 매칭되면 도로안전표지 오브젝트에 할당된 ID, 세부정보 차선정보를 Queue 형태로 제공하는 구성일 수 있다.Next, referring to FIG. 6 , the object tracking unit 170 compares and determines whether or not the road safety sign object detected in the before/after image frame of the road driving image is matched, and if it is matched, the ID assigned to the road safety sign object , it may be a configuration that provides detailed information and lane information in the form of a queue.

보다 구체적으로, 오브젝트 트랙킹부(170)는 오브젝트 분석부(150)로부터 제n+1 이미지 프레임 내에 도로표지 오브젝트 검출 유무 및 ID 할당 유무를 확인한 후, 제n 이미지 프레임의 중심과 제n+1 이미지 프레임의 중심의 오프셋 벡터의 최적값을 산출한 후, 오프셋 벡터의 최적값을 기초로 상기 도로표지 오브젝트의 매칭 유무를 판단한다.More specifically, the object tracking unit 170 checks whether a road sign object is detected and whether an ID is assigned in the n+1th image frame from the object analysis unit 150, and then the center of the nth image frame and the n+1th image After calculating the optimal value of the offset vector of the center of the frame, it is determined whether the road sign object matches or not based on the optimal value of the offset vector.

또한, 상기 오브젝트 트랙킹부(170)는 동일한 도로표지 오브젝트가 검출된 이미지 프레임을 적층한 후, 적층값이 기준값을 초과하면 적층된 이미지 프레임들의 도로안전표지 오브젝트 ID, 세그먼트, 객체탐지영역(bounding box) 및 차선정보를 Queue 형태로 저장하여 외부서버로 제공한다.In addition, the object tracking unit 170 stacks the image frames in which the same road sign object is detected, and when the stacking value exceeds the reference value, the road safety sign object ID, segment, and object detection area (bounding box) of the stacked image frames ) and lane information are stored in the form of a queue and provided to an external server.

도 7은 본 발명의 일 실시예에 따른 정밀도로지도 생성을 위한 교통안전표지 인식/추출 방법을 설명한 흐름도이고, 도 8은 도 7에 도시된 S720 과정의 세부흐름도이고, 도 9는 도 7에 도시된 S730 과정의 세부흐름도이고, 도 10 및 도 11은 도 7에 도시된 S740 과정의 세부흐름도이고, 도 12는 도 7에 도시된 S760 과정의 세부흐름도이다.7 is a flowchart illustrating a method for recognizing/extracting a traffic safety sign for generating a map with precision according to an embodiment of the present invention, FIG. 8 is a detailed flowchart of the process S720 shown in FIG. 7, and FIG. 9 is shown in FIG. The illustrated process S730 is a detailed flowchart, FIGS. 10 and 11 are detailed flowcharts of the process S740 illustrated in FIG. 7 , and FIG. 12 is a detailed flowchart of the process S760 illustrated in FIG. 7 .

먼저, 도 7을 참조하면, 본 발명의 일 실시예에 따른 정밀도로지도 생성을 위한 교통안전표지 인식/추출 방법(S700)은 먼저, 입력부에서 입력한 도로주행영상의 이미지 프레임을 전처리부(120)에서 전처리(S710)한다. First, referring to FIG. 7 , the method (S700) for recognizing/extracting traffic safety signs for map generation with precision according to an embodiment of the present invention is first, The image frame of the road driving image input from the input unit is pre-processed by the pre-processing unit 120 ( S710 ).

여기서, 상기 S710 과정은 입력된 도로주행영상의 이미지 프레임 각각의 명암 값의 분포의 균일화를 위해 히스토그램 평활화, 예컨대, 명도값의 빈도수 계산, 빈도수를 이용하여 축적 히스토그램 값을 산출한 후, 정규화하고, 정규화된 축적 히스토그램을 그레이 스케일 사상 함수를 적용하여 그레이 레벨 값을 맵핑하는 과정을 포함한다.Here, the S710 process is a histogram smoothing, for example, calculating the frequency of the brightness value, calculating the accumulated histogram value using the frequency, and then normalizing the and mapping gray level values by applying a gray scale mapping function to the normalized accumulation histogram.

상기 S710 과정이 완료되면, 전처리된 각 영상 프레임 내의 차선을 딥러닝 알고리즘을 이용하여 탐지한 후, 탐지된 차선의 종류를 분석 및 분류(S720)한다.When the process S710 is completed, lanes in each preprocessed image frame are detected using a deep learning algorithm, and then the types of the detected lanes are analyzed and classified (S720).

보다 구체적으로, 상기 S720 과정은 딥러닝 알고리즘을 이용하여 차선을 검출한 후, 검출된 차선들 간의 노면표지 및 평균넓이를 모폴로지(Morphology) 필터링(연산) 과정을 통해 보정한 후, 보정된 차선 영역 이외의 영역 및 중복 노면표지를 제거한 후, 보정된 차선을 점선, 실선, 전용차선 및 중앙선 중 어느 하나로 분류하는 과정일 수 있다. 전술한 것처럼, 딥러닝 알고리즘으로서 Convolutional LSTM(Long Short-Term Memory)이 이용될 수 있으며, 그 외에도 다양한 딥러닝 알고리즘이 이용될 수 있음은 물론이다.More specifically, in the S720 process, after detecting lanes using a deep learning algorithm, the road markings and average widths between the detected lanes are corrected through a morphology filtering (calculation) process, and then the corrected lane area It may be a process of classifying the corrected lane into any one of a dotted line, a solid line, an exclusive lane, and a center line after removing the other areas and overlapping road markings. As described above, as a deep learning algorithm, a convolutional long short-term memory (LSTM) may be used, and it goes without saying that various deep learning algorithms may be used in addition to it.

참고로, 모폴로지(Morphology)는 형태에 따라 영상을 처리하는 광범위한 영상 처리 연산 집합으로, 모폴로지(Morphology) 연산에서는 영상의 각 픽셀이 이웃의 다른 픽셀값에 따라 조정되고, 이웃의 크기와 형태를 선택하여 대상 영상의 특정 형태로 연산처리하는 것을 의미한다.For reference, Morphology is a broad set of image processing operations that process images according to shapes. In Morphology operations, each pixel of an image is adjusted according to the values of other pixels in its neighborhood, and the size and shape of the neighbor are selected. Thus, it means that the operation is processed in a specific form of the target image.

기본적으로, 모폴로지 연산은 침식(erode)과 팽창(dilate) 연산 과정으로, 현재 픽셀을 기준으로 필터를 적용하되, 필터 영역 안의 값을 확인하고, 현재 픽셀의 값을 수정하는 연산과정이다.Basically, the morphology operation is an erode and dilate operation process, which applies a filter based on the current pixel, checks the value in the filter area, and modifies the value of the current pixel.

여기서, 침식은 필터 영역 내 픽셀 중 최소 픽셀값을 현재 픽셀값에 대입하는 것을 의미하며, 팽창은 필터 영역 내 픽셀 중 최대 픽셀값을 현재 픽셀값에 대입하는 것을 의미하며, 모폴로지 연산은 공지된 기술임으로, 보다 상세한 설명은 생략하도록 한다.Here, erosion means substituting the minimum pixel value among pixels in the filter area to the current pixel value, dilation means substituting the maximum pixel value among pixels in the filter area into the current pixel value, and the morphological operation is a known technique. Optionally, a more detailed description will be omitted.

상기 S720 과정이 완료되면, 2개의 서로 다른 딥러닝 객체감지 알고리즘의 객체탐지영역을 병합 및 확장시켜 통합객체탐지영역을 생성한 후, 기 설정된 탐지영역 조건값에 따라 상기 차선이 검출된 이미지 프레임 내에서 상기 통합객체탐지영역에 위치하는 도로안전표지 오브젝트를 검출(S730)한다.When the S720 process is completed, the object detection areas of two different deep learning object detection algorithms are merged and expanded to create an integrated object detection area, and then within the image frame in which the lane is detected according to the preset detection area condition value. Detects a road safety sign object located in the integrated object detection area (S730).

보다 구체적으로, 상기 S730 과정은 제1 딥러닝 객체감지 알고리즘 및 제2 딥러닝 객체감지 알고리즘 각각의 객체탐지영역(bounding box)을 오버랩(overlap)하여 기 설정된 오버랩 수치, 바람직하게는 60%를 초과하는 통합객체탐지영역을 생성하는 단계(S731)를 포함한다.More specifically, the S730 process overlaps the object detection area (bounding box) of each of the first deep learning object detection algorithm and the second deep learning object detection algorithm to a preset overlap value, preferably exceeding 60% and generating an integrated object detection area (S731).

참고로, 제1 딥러닝 객체감지 알고리즘은 객체탐지속도가 빠른 반면에 인식 정확도가 낮고, 제2 딥러닝 객체감지 알고리즘은 객체탐지속도가 느린 반면에 인식 정확도가 높다는 특징이 있다. 제1 딥러닝 객체감지 알고리즘으로서 Gaussian YOLO v3가 이용될 수 있고, 제2 딥러닝 객체감지 알고리즘으로서 MASK R-CNN 이 이용될 수 있다. Gaussian YOLO v3 및 MASK R-CNN 알고리즘은 제1 및 제2 딥러닝 객체 알고리즘의 예시로서, 이에 한정되지 않고 알고리즘의 특징에 맞는 다른 적절한 딥러닝 객체 알고리즘이 이용될 수 있음은 물론이다.For reference, the first deep learning object detection algorithm has a fast object detection speed but low recognition accuracy, and the second deep learning object detection algorithm has a slow object detection speed but high recognition accuracy. Gaussian YOLO v3 may be used as the first deep learning object detection algorithm, and MASK R-CNN may be used as the second deep learning object detection algorithm. The Gaussian YOLO v3 and MASK R-CNN algorithms are examples of the first and second deep learning object algorithms, and the present invention is not limited thereto, and of course, other suitable deep learning object algorithms suitable for the characteristics of the algorithm may be used.

이에 본 발명에서는 2개의 딥러닝 객체감지 알고리즘의 감지 바운딩 박스(detection Bounding Box)를 통합하여 확장시켜 2개의 딥러닝 객체감지 알고리즘의 장점이 도출가능하도록 통합객체탐지영역을 생성하여 이용하고, 오버랩된 통합객체탐지영역이 기 설정된 오버랩 수치(60%)보다 작을 경우, 제2 딥러닝 객체감지 알고리즘으로 도로안전표지 오브젝트를 검출하는 과정을 수행한다.Therefore, in the present invention, an integrated object detection area is created and used so that the advantages of the two deep learning object detection algorithms can be derived by integrating and expanding the detection bounding boxes of the two deep learning object detection algorithms, and overlapped When the integrated object detection area is smaller than the preset overlap value (60%), the process of detecting the road safety sign object is performed by the second deep learning object detection algorithm.

한편, 상기 S730 과정은 통합객체탐지영역 내에 검출된 도로안전표지 오브젝트의 위치를 기 설정된 탐지영역 조건값으로 객체탐지영역을 필터링하는 단계(S732)를 포함한다.Meanwhile, the process S730 includes filtering the object detection area using a preset detection area condition value based on the location of the road safety sign object detected in the integrated object detection area (S732).

상기 S732 과정은 통합객체탐지영역의 위치를 노면 표지 영역인지를 1차 판단하고, 노면표지 영역이 아닐 경우, 중앙선 좌측인지를 2차 판단하고, 중앙선 좌측이 아닐 경우, 연석 우측인지를 3차 판단하는 과정을 포함하면, 상술한 영역 필터링 과정을 통해 통합객체탐지영역(bounding box)이 생성된 위치영역을 구체화시킴으로서 도로안전표지 오브젝트의 검출률의 오류를 줄이고, 정확도를 향상시킬 수 있다.In step S732, it is first determined whether the location of the integrated object detection area is a road marking area, if it is not a road marking area, it is secondarily determined whether it is on the left side of the center line, and when it is not on the left side of the center line, it is thirdly determined whether it is on the right side of the curb , it is possible to reduce the error in the detection rate of the road safety sign object and improve the accuracy by specifying the area where the integrated object detection area (bounding box) is generated through the area filtering process described above.

한편, 상기 S730 과정이 완료되면, 오브젝트 분석부(150)에서 필터링된 통합객체탐지영역 내의 도로안전표지 오브젝트의 색상, 채도, 밝기에 따라 추출한 특징점을 기초로 세부형상을 오브젝트 분석부(150)에서 분석(판단)(S740)한다.On the other hand, when the S730 process is completed, the detailed shape based on the feature points extracted according to the color, saturation, and brightness of the road safety sign object in the integrated object detection area filtered by the object analysis unit 150 is analyzed in the object analysis unit 150 . Analyze (judgment) (S740).

여기서, 상기 S740 과정은 도로안전표지 오브젝트가 감지된 객체탐지영역(bounding box) 위치가 노면 표지영역에 위치할 경우, 상기 객체탐지영역(bounding box)의 픽셀 RGB 값을 HSV(색상, 채도, 밝기)로 변환한 후, 기 설정된 임계값 알고리즘을 통해 도로안전표지 오브젝트의 임계값을 생성한 후, 생성된 임계값을 기초로 상기 오브젝트와 노면 표지영역을 백과 흑으로 구분한 후, 모폴로지 필터링을 통해 노이즈를 제거하고, 검출된 도로안전표지 오브젝트의 윤곽선(contours)을 추출 및 피팅처리한 후, 피팅처리된 윤곽선의 특징점을 기초로 노면 표지영역에 위치하는 도로표지 오브젝트의 형상을 판단하는 과정들을 포함한다. 전술한 것처럼, 임계값 알고리즘으로 Otsu Algorithm이 이용될 수 있으며, 그 외에도 다른 적절한 알고리즘이 이용될 수 있음은 물론이다.Here, in the S740 process, when the location of the object detection area (bounding box) where the road safety sign object is detected is located in the road surface area, the pixel RGB value of the object detection area (bounding box) is converted to HSV (color, saturation, brightness). ), create a threshold value of the road safety sign object through a preset threshold algorithm, divide the object and the road sign area into white and black based on the generated threshold value, and then through morphological filtering After removing noise, extracting and fitting the contours of the detected road safety sign object, and judging the shape of the road sign object located in the road sign area based on the feature points of the fitted contour. do. As described above, the Otsu Algorithm may be used as the threshold algorithm, and of course, other suitable algorithms may also be used.

또한, 상기 S740 과정은 도로안전표지 오브젝트가 감지된 객체탐지영역(bounding box)의 위치가 노면 표지영역 이외의 영역에 위치할 경우, 상기 객체탐지영역에 대한 컬러 히스토그램(픽셀들에 대한 명암값 분포도) 산출, 상기 객체탐지영역의 픽셀 RGB값을 HSV(색상, 채도, 밝기)로 변환 및 상기 객체탐지영역을 CIE(Commission Internationale d' Eclairage) 색 공간좌표로 변환한 후, 상기 컬러 히스토그램 및 상기 HSV 값을 이용하여 상기 객체탐지영역의 Red, blue, green의 색 대역을 카운트하고, 상기 CIE(Commission Internationale d' Eclairage) 색 공간좌표 상에서 L(밝기), A(녹색에서 적색의 보색), B(노란색에서 파란색의 보색) 값을 추출하고, 상기 색 공간좌표의 LAB 값 및 상기 RGB 밴드의 카운트값을 포함하는 객체탐지영역을 그레이 스케일(Gray scale) 이미지로 변환한 후, 기 설정된 임계값 알고리즘(Otsu Algorithm)을 통해 도로안전표지 오브젝트의 임계값을 생성한 후, 생성된 임계값을 기초로 상기 오브젝트와 전경영역을 구분한 후, 모폴로지 필터링을 통해 노이즈를 제거하고, 검출된 도로안전표지 오브젝트의 윤곽선(contours)을 추출한 후, 상기 윤곽선의 특징점의 위치를 기초로 상기 도로안전표지 오브젝트의 형상(색 포함)을 판단하는 과정들을 포함한다.In addition, in the S740 process, when the location of the object detection area (bounding box) in which the road safety sign object is detected is located in an area other than the road surface mark area, a color histogram (contrast value distribution for pixels) for the object detection area ) calculation, converting the pixel RGB values of the object detection area into HSV (hue, saturation, brightness) and converting the object detection area into CIE (Commission Internationale d'Eclairage) color space coordinates, the color histogram and the HSV counting the red, blue, and green color bands of the object detection area using the value, L (brightness), A (green to red complementary colors), and B (yellow to blue complementary colors) values are extracted from the CIE (Commission Internationale d'Eclairage) color space coordinates, and LAB values and the RGB values of the color space coordinates After converting the object detection area including the count value of the band into a gray scale image, the threshold value of the road safety sign object is generated through a preset threshold algorithm (Otsu Algorithm), and then the generated threshold value After classifying the object and the foreground region based on It includes processes for determining the shape (including color) of an object.

이후, 상기 S740 과정이 완료되면, ID 할당부(150)에서 상기 S740 과정에서 분석한 이미지 프레임 내에서 검출된 도로안전표지 오브젝트를 식별하기 위한 검출 ID를 이미지 프레임에 할당(S750)한다.Thereafter, when the S740 process is completed, the ID allocating unit 150 assigns a detection ID for identifying the road safety sign object detected in the image frame analyzed in the S740 process to the image frame (S750).

다음으로, 상기 S750 과정이 완료되면, 오브젝트 트랙킹부(160)에서 도로주행영상의 전/후 이미지 프레임 내에서 검출된 도로안전표지 오브젝트의 매칭유무를 비교판단한 후, 매칭되면 도로안전표지 오브젝트에 할당된 ID, 세부정보 차선정보를 Queue 형태로 제공(S760)한다.Next, when the S750 process is completed, the object tracking unit 160 compares and determines whether the road safety sign object detected in the before/after image frame of the road driving image is matched, and if it is matched, it is assigned to the road safety sign object ID and detailed information lane information are provided in the form of a queue (S760).

보다 구체적으로, 상기 S760 과정은 오브젝트 분석부(140)로부터 제n+1 이미지 프레임 내에 도로표지 오브젝트 검출 유무 및 ID 할당 유무를 확인한 후, 제n 이미지 프레임의 중심과 제n+1 이미지 프레임의 중심의 오프셋 벡터의 최적값을 산출한 후, 오프셋 벡터의 최적값을 기초로 상기 도로표지 오브젝트의 매칭 유무를 판단하고, 동일한 도로표지 오브젝트가 검출된 이미지 프레임을 적층한 후, 적층값이 기준값을 초과하면 적층된 이미지 프레임들의 도로안전표지 오브젝트 ID, 세그먼트, 객체탐지영역(bounding box) 및 차선정보를 Queue 형태로 저장하여 외부서버로 제공하는 일련의 과정을 포함한다.More specifically, in the step S760, the object analyzer 140 confirms whether a road sign object is detected in the n+1th image frame and whether an ID is assigned, and then the center of the nth image frame and the center of the n+1th image frame. After calculating the optimal value of the offset vector of It includes a series of processes of storing the road safety sign object ID, segment, object detection area (bounding box) and lane information of the stacked image frames in a queue form and providing it to an external server.

따라서, 본 발명의 일 실시예에 따른 정밀도로지도 생성을 위한 교통안전표지 인식/추출 방법 및 시스템을 이용하면, 도로주행영상 내에 탐지되는 도로안전표지 오브젝트의 탐지영역을 세분화시켜 탐지오류를 최소화함으로써, 촬영된 교통안전표지의 식별력을 향상시킬 수 있고, 탐지오류정보를 조기에 발견할 수 있다는 이점을 제공한다.Therefore, by using the method and system for recognizing/extracting traffic safety signs for map generation with precision according to an embodiment of the present invention, the detection error is minimized by subdividing the detection area of the road safety sign object detected in the road driving image. , it provides the advantage of improving the identification of the photographed traffic safety signs and early detection of detection error information.

도 13은 본 명세서에 개진된 하나 이상의 실시예가 구현될 수 있는 예시적인 컴퓨팅 환경을 도시하는 도면으로, 상술한 하나 이상의 실시예를 구현하도록 구성된 컴퓨팅 디바이스(1100)를 포함하는 시스템(1000)의 예시를 도시한다. 예를 들어, 컴퓨팅 디바이스(1100)는 차량에 장착될 수 있으며, 개인 컴퓨터, 서버 컴퓨터, 핸드헬드 또는 랩탑 디바이스, 모바일 디바이스(모바일폰, PDA, 미디어 플레이어 등), 멀티프로세서 시스템, 소비자 전자기기, 미니 컴퓨터, 메인프레임 컴퓨터, 임의의 전술된 시스템 또는 디바이스를 포함하는 분산 컴퓨팅 환경 등을 포함하지만, 이것으로 한정되는 것은 아니다.13 is a diagram illustrating an example computing environment in which one or more embodiments disclosed herein may be implemented, and is an illustration of a system 1000 including a computing device 1100 configured to implement one or more embodiments described above. shows For example, computing device 1100 may be mounted on a vehicle, and may include personal computers, server computers, handheld or laptop devices, mobile devices (mobile phones, PDAs, media players, etc.), multiprocessor systems, consumer electronics, including, but not limited to, minicomputers, mainframe computers, distributed computing environments including any of the aforementioned systems or devices, and the like.

컴퓨팅 디바이스(1100)는 적어도 하나의 프로세싱 유닛(1110) 및 메모리(1120)를 포함할 수 있다. 여기서, 프로세싱 유닛(1110)은 예를 들어 중앙처리장치(CPU), 그래픽처리장치(GPU), 마이크로프로세서, 주문형 반도체(Application Specific Integrated Circuit, ASIC), Field Programmable Gate Arrays(FPGA) 등을 포함할 수 있으며, 복수의 코어를 가질 수 있다. 메모리(1120)는 휘발성 메모리(예를 들어, RAM 등), 비휘발성 메모리(예를 들어, ROM, 플래시 메모리 등) 또는 이들의 조합일 수 있다. 또한, 컴퓨팅 디바이스(1100)는 추가적인 스토리지(1130)를 포함할 수 있다. 스토리지(1130)는 자기 스토리지, 광학 스토리지 등을 포함하지만 이것으로 한정되지 않는다. 스토리지(1130)에는 본 명세서에 개진된 하나 이상의 실시예를 구현하기 위한 컴퓨터 판독 가능한 명령이 저장될 수 있고, 운영 시스템, 애플리케이션 프로그램 등을 구현하기 위한 다른 컴퓨터 판독 가능한 명령도 저장될 수 있다. 스토리지(1130)에 저장된 컴퓨터 판독 가능한 명령은 프로세싱 유닛(1110)에 의해 실행되기 위해 메모리(1120)에 로딩될 수 있다. 또한, 컴퓨팅 디바이스(1100)는 입력 디바이스(들)(1140) 및 출력 디바이스(들)(1150)을 포함할 수 있다. The computing device 1100 may include at least one processing unit 1110 and a memory 1120 . Here, the processing unit 1110 may include, for example, a central processing unit (CPU), a graphic processing unit (GPU), a microprocessor, an Application Specific Integrated Circuit (ASIC), Field Programmable Gate Arrays (FPGA), etc. and may have a plurality of cores. The memory 1120 may be a volatile memory (eg, RAM, etc.), a non-volatile memory (eg, ROM, flash memory, etc.), or a combination thereof. Additionally, computing device 1100 may include additional storage 1130 . Storage 1130 includes, but is not limited to, magnetic storage, optical storage, and the like. The storage 1130 may store computer readable instructions for implementing one or more embodiments disclosed herein, and other computer readable instructions for implementing an operating system, an application program, and the like. Computer readable instructions stored in storage 1130 may be loaded into memory 1120 for execution by processing unit 1110 . Computing device 1100 may also include input device(s) 1140 and output device(s) 1150 .

여기서, 입력 디바이스(들)(1140)은 예를 들어 키보드, 마우스, 펜, 음성 입력 디바이스, 터치 입력 디바이스, 적외선 카메라, 비디오 입력 디바이스 또는 임의의 다른 입력 디바이스 등을 포함할 수 있다. 또한, 출력 디바이스(들)(1150)은 예를 들어 하나 이상의 디스플레이, 스피커, 프린터 또는 임의의 다른 출력 디바이스 등을 포함할 수 있다. 또한, 컴퓨팅 디바이스(1100)는 다른 컴퓨팅 디바이스에 구비된 입력 디바이스 또는 출력 디바이스를 입력 디바이스(들)(1140) 또는 출력 디바이스(들)(1150)로서 사용할 수도 있다. 또한, 컴퓨팅 디바이스(1100)는 컴퓨팅 디바이스(1100)가 다른 디바이스(예를 들어, 컴퓨팅 디바이스(1300))와 통신할 수 있게 하는 통신접속(들)(1160)을 포함할 수 있다. Here, the input device(s) 1140 may include, for example, a keyboard, mouse, pen, voice input device, touch input device, infrared camera, video input device, or any other input device, or the like. Further, the output device(s) 1150 may include, for example, one or more displays, speakers, printers, or any other output device, or the like. Also, the computing device 1100 may use an input device or an output device included in another computing device as the input device(s) 1140 or the output device(s) 1150 . Computing device 1100 may also include communication connection(s) 1160 that enable computing device 1100 to communicate with another device (eg, computing device 1300 ).

여기서, 통신 접속(들)(1160)은 모뎀, 네트워크 인터페이스 카드(NIC), 통합 네트워크 인터페이스, 무선 주파수 송신기/수신기, 적외선 포트, USB 접속 또는 컴퓨팅 디바이스(1100)를 다른 컴퓨팅 디바이스에 접속시키기 위한 다른 인터페이스를 포함할 수 있다. 또한, 통신 접속(들)(1160)은 유선 접속 또는 무선 접속을 포함할 수 있다. 상술한 컴퓨팅 디바이스(1100)의 각 구성요소는 버스 등의 다양한 상호접속(예를 들어, 주변 구성요소 상호접속(PCI), USB, 펌웨어(IEEE 1394), 광학적 버스 구조 등)에 의해 접속될 수도 있고, 네트워크(1200)에 의해 상호접속 될 수도 있다. 본 명세서에서 사용되는 "구성요소", "시스템" 등과 같은 용어들은 일반적으로 하드웨어, 하드웨어와 소프트웨어의 조합, 소프트웨어, 또는 실행중인 소프트웨어인 컴퓨터 관련 엔티티를 지칭하는 것이다. Here, communication connection(s) 1160 may be a modem, network interface card (NIC), integrated network interface, radio frequency transmitter/receiver, infrared port, USB connection, or other for connecting computing device 1100 to another computing device. It may include interfaces. Also, the communication connection(s) 1160 may include a wired connection or a wireless connection. Each component of the above-described computing device 1100 may be connected by various interconnections such as a bus (eg, peripheral component interconnection (PCI), USB, firmware (IEEE 1394), optical bus structure, etc.) and may be interconnected by the network 1200 . As used herein, terms such as "component," "system," and the like, generally refer to a computer-related entity that is hardware, a combination of hardware and software, software, or software in execution.

예를 들어, 구성요소는 프로세서상에서 실행중인 프로세스, 프로세서, 객체, 실행 가능물(executable), 실행 스레드, 프로그램 및/또는 컴퓨터일 수 있지만, 이것으로 한정되는 것은 아니다. 예를 들어, 컨트롤러 상에서 구동중인 애플리케이션 및 컨트롤러 모두가 구성요소일 수 있다. 하나 이상의 구성요소는 프로세스 및/또는 실행의 스레드 내에 존재할 수 있으며, 구성요소는 하나의 컴퓨터상에서 로컬화될 수 있고, 둘 이상의 컴퓨터 사이에서 분산될 수도 있다.For example, a component can be, but is not limited to being, a process running on a processor, a processor, an object, an executable, a thread of execution, a program, and/or a computer. For example, both an application running on a controller and a controller may be a component. One or more components may reside within a process and/or thread of execution, and components may be localized on one computer or distributed between two or more computers.

본 발명은 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 본 발명에 따른 구성요소를 치환, 변형 및 변경할 수 있다는 것이 명백할 것이다The present invention is not limited by the above embodiments and the accompanying drawings. For those of ordinary skill in the art to which the present invention pertains, it will be apparent that the components according to the present invention can be substituted, modified and changed without departing from the technical spirit of the present invention.

100: 정밀도로지도 생성을 위한 교통안전표지 인식/추출 시스템
110: 입력부
120: 차선 검출부
130: 도로안전표지 오브젝트 검출부
140: 오브젝트 분석부
150: ID 할당부
160: 오브젝트 트랙킹부
100: Traffic safety sign recognition/extraction system for map generation with precision
110: input unit
120: lane detection unit
130: road safety sign object detection unit
140: object analysis unit
150: ID allocator
160: object tracking unit

Claims (20)

도로주행영상을 입력받는 입력부;
도로주행영상의 이미지 프레임 내의 차선을 딥러닝 알고리즘을 이용하여 탐지한 후, 탐지된 차선의 정보를 분석 및 분류하는 차선 검출부;
서로 다른 탐지방식으로 이미지 객체를 탐지하는 적어도 2개 이상의 딥러닝 알고리즘 각각의 탐지영역들을 병합 및 확장시켜 통합객체탐지영역을 생성한 후, 기 설정된 탐지영역 조건값에 따라 상기 차선이 검출된 이미지 프레임 내에서 상기 통합객체탐지영역에 위치하는 도로안전표지 오브젝트를 검출하는 도로안전표지 오브젝트 검출부; 및
검출된 도로안전표지 오브젝트의 색상, 채도, 밝기에 따라 추출한 특징점을 기초로 세부형상을 분석하는 오브젝트 분석부를 포함하는 정밀도로지도 생성을 위한 교통안전표지 인식/추출 시스템.
an input unit for receiving a road driving image;
a lane detection unit that detects a lane in an image frame of a road driving image using a deep learning algorithm, and then analyzes and classifies information on the detected lane;
An image frame in which the lane is detected according to a preset detection area condition value after generating an integrated object detection area by merging and expanding respective detection areas of at least two or more deep learning algorithms that detect image objects in different detection methods a road safety sign object detection unit for detecting a road safety sign object located in the integrated object detection area within; and
A traffic safety sign recognition/extraction system for creating maps with precision including an object analysis unit that analyzes detailed shapes based on the feature points extracted according to the color, saturation, and brightness of the detected road safety sign object.
제1항에 있어서,
상기 이미지 프레임 내에서 검출된 도로안전표지 오브젝트를 식별하기 위한 검출 ID를 이미지 프레임에 할당하는 검출 ID 할당부를 더 포함하는
According to claim 1,
Further comprising a detection ID allocation unit for allocating a detection ID for identifying the road safety sign object detected in the image frame to the image frame
제1항에 있어서,
전/후 이미지 프레임 내에서 검출된 도로안전표지 오브젝트의 매칭유무를 비교판단한 후, 매칭되면 도로안전표지 오브젝트에 할당된 ID, 세부정보 차선정보를 Queue 형태로 제공하는 오브젝트 트랙킹부를 포함하는 정밀도로지도 생성을 위한 교통안전표지 인식/추출 시스템.
According to claim 1,
After comparing and judging whether the road safety sign object detected in the before/after image frame is matched, if it is matched, the ID assigned to the road safety sign object, detailed information and lane information are provided in the form of a queue. Traffic safety sign recognition/extraction system for generation.
제1항에 있어서,
상기 차선 검출부는
딥러닝 알고리즘을 이용하여 차선을 검출한 후, 검출된 차선들 간의 노면표지 및 평균넓이로부터 상기 차선을 점선, 실선, 전용차선 및 중앙선 중 어느 하나로 분류하는 정밀도로지도 생성을 위한 교통안전표지 인식/추출 시스템.
According to claim 1,
The lane detection unit
After detecting a lane using a deep learning algorithm, the traffic safety sign recognition / extraction system.
제1항에 있어서,
상기 오브젝트 검출부는
상기 딥러닝 객체감지 알고리즘 각각의 객체탐지영역을 오버랩하여 기 설정된 오버랩 수치를 초과하는 상기 통합객체탐지영역을 생성하는 객체탐지영역 조정부를 포함하는 정밀도로지도 생성을 위한 교통안전표지 인식/추출 시스템.
According to claim 1,
The object detection unit
A traffic safety sign recognition/extraction system for map creation with precision, including an object detection area adjustment unit that overlaps each object detection area of the deep learning object detection algorithm and creates the integrated object detection area exceeding a preset overlap value.
제5항에 있어서,
상기 오브젝트 검출부는
상기 통합객체탐지영역 내에 검출된 도로안전표지 오브젝트의 식별유무를 기 설정된 탐지영역 조건값으로 필터링하는 객체탐지영역 필터링부를 포함하는 정밀도로지도 생성을 위한 교통안전표지 인식/추출 시스템.
6. The method of claim 5,
The object detection unit
A traffic safety sign recognition/extraction system for map generation with precision, including an object detection area filtering unit that filters the identification of road safety sign objects detected in the integrated object detection area with a preset detection area condition value.
제6항에 있어서,
상기 기 설정된 탐지영역 조건값은
상기 도로안전표지 오브젝트의 검출 위치에 대한 영역 값이고, 상기 영역 값은 노면 표지 영역, 중앙선 좌측 영역, 연석우측 영역을 포함하는 정밀도로지도 생성을 위한 교통안전표지 인식/추출 시스템.
7. The method of claim 6,
The preset detection area condition value is
A traffic safety sign recognition/extraction system for creating a map with precision including a road surface sign area, a center line left area, and a curb right area.
제5항에 있어서,
상기 오브젝트 검출부는
상기 딥러닝 객체감지 알고리즘 각각의 객체탐지영역을 오버랩한 수치가, 상기 기 설정된 오버랩 수치보다 작을 경우,
상기 딥러닝 객체감지 알고리즘 중 검출 정확도가 높은 딥러닝 객체감지 알고리즘으로 상기 도로안전표지 오브젝트를 검출하는 정밀도로지도 생성을 위한 교통안전표지 인식/추출 시스템.
6. The method of claim 5,
The object detection unit
When the overlapping value of each object detection area of the deep learning object detection algorithm is smaller than the preset overlapping value,
A traffic safety sign recognition/extraction system for map generation with precision that detects the road safety sign object with a deep learning object detection algorithm with high detection accuracy among the deep learning object detection algorithms.
제1항에 있어서,
상기 오브젝트 분석부는
상기 오브젝트 검출부에서 검출된 도로안전표지 오브젝트의 윤곽선을 추출한 후, 상기 윤곽선의 특징점의 위치를 기초로 상기 도로안전표지 오브젝트의 형상 및 컬러 중 적어도 하나 이상을 분석하는 정밀도로지도 생성을 위한 교통안전표지 인식/추출 시스템.
According to claim 1,
The object analysis unit
After extracting the outline of the road safety sign object detected by the object detection unit, the road safety sign for map creation with precision to analyze at least one of the shape and color of the road safety sign object based on the position of the feature point of the outline Recognition/extraction system.
제3항에 있어서,
상기 오브젝트 트랙킹부는
상기 오브젝트 분석부로부터 제n+1 이미지 프레임 내에 도로표지 오브젝트 검출 유무 및 ID 할당 유무를 확인한 후, 제n 이미지 프레임의 중심과 제n+1 이미지 프레임의 중심의 오프셋 벡터의 최적값을 산출한 후, 오프셋 벡터의 최적값을 기초로 상기 도로표지 오브젝트의 매칭 유무를 판단하는 정밀도로지도 생성을 위한 교통안전표지 인식/추출 시스템.
4. The method of claim 3,
The object tracking unit
After confirming whether a road sign object is detected in the n+1th image frame and whether an ID is assigned from the object analysis unit, the optimum value of the offset vector of the center of the nth image frame and the center of the n+1th image frame is calculated , a traffic safety sign recognition/extraction system for map generation with precision that determines whether the road sign object matches or not based on the optimal value of the offset vector.
제10항에 있어서,
상기 오브젝트 트랙킹부는
동일한 도로안전표지 오브젝트가 검출된 이미지 프레임을 적층한 후, 적층값이 기준값을 초과하면 적층된 이미지 프레임들의 도로안전표지 오브젝트 ID, 세그먼트, 객체탐지영역 및 차선정보를 Queue 형태로 저장 및 전송하는 정밀도로지도 생성을 위한 교통안전표지 인식/추출 시스템.
11. The method of claim 10,
The object tracking unit
After stacking the image frames in which the same road safety sign object is detected, if the stacking value exceeds the standard value, the precision of storing and transmitting the road safety sign object ID, segment, object detection area and lane information of the stacked image frames in the form of a queue Traffic safety sign recognition/extraction system for road map generation.
도로주행영상의 이미지 프레임 내의 차선을 딥러닝 알고리즘을 이용하여 탐지한 후, 탐지된 차선의 정보를 분석 및 분류하는 단계;
2개의 서로 다른 딥러닝 객체감지 알고리즘의 객체탐지영역을 병합 및 확장시켜 통합객체탐지영역을 생성한 후, 기 설정된 탐지영역 조건값에 따라 상기 차선이 검출된 이미지 프레임 내에서 상기 통합객체탐지영역에 위치하는 도로안전표지 오브젝트를 검출하는 단계;
검출된 도로안전표지 오브젝트의 색상, 채도, 밝기에 따라 추출한 특징점을 기초로 도로안전표지 오브젝트의 이미지를 분석하는 단계;
상기 이미지 프레임 내에서 검출된 도로안전표지 오브젝트를 식별하기 위한 검출 ID를 이미지 프레임에 할당하는 단계 및
전/후 이미지 프레임 내에서 검출된 도로안전표지 오브젝트의 매칭유무를 비교판단한 후, 매칭되면 도로안전표지 오브젝트에 할당된 ID, 세부정보 차선정보를 Queue 형태로 제공하는 단계를 포함하는 정밀도로지도 생성을 위한 교통안전표지 인식/추출 방법.
After detecting a lane in the image frame of the road driving image using a deep learning algorithm, analyzing and classifying information on the detected lane;
After creating an integrated object detection area by merging and expanding the object detection areas of two different deep learning object detection algorithms, the integrated object detection area is located in the image frame in which the lane is detected according to a preset detection area condition value. Detecting a road safety sign object located;
analyzing the image of the road safety sign object based on the feature points extracted according to the color, saturation, and brightness of the detected road safety sign object;
allocating a detection ID for identifying a road safety sign object detected in the image frame to an image frame; and
After comparing and judging whether the road safety sign object detected in the before/after image frame is matched, if it is matched, the ID assigned to the road safety sign object, detailed information, and lane information are provided in the form of a queue. A method of recognizing/extracting traffic safety signs for
제12항에 있어서,
상기 탐지된 차선의 정보를 분석 및 분류하는 단계는
딥러닝 알고리즘을 이용하여 차선을 검출한 후, 검출된 차선들 간의 노면표지 및 평균넓이로부터 상기 차선을 점선, 실선, 전용차선 및 중앙선 중 어느 하나로 분류하는 단계인, 정밀도로지도 생성을 위한 교통안전표지 인식/추출 방법.
13. The method of claim 12,
The step of analyzing and classifying the detected lane information includes:
After detecting a lane using a deep learning algorithm, classifying the lane into any one of a dotted line, a solid line, a dedicated lane, and a center line from the road markings and average width between the detected lanes, traffic safety for map generation with precision Cover recognition/extraction method.
제12항에 있어서,
상기 도로안전표지 오브젝트를 검출하는 단계는
제1 딥러닝 객체감지 알고리즘 및 제2 딥러닝 객체감지 알고리즘 각각의 객체탐지영역을 오버랩하여 기 설정된 오버랩 수치를 초과하는 상기 통합객체탐지영역을 생성하는 단계를 포함하는 정밀도로지도 생성을 위한 교통안전표지 인식/추출 방법.
13. The method of claim 12,
The step of detecting the road safety sign object is
Traffic safety for map creation with precision comprising the step of overlapping each object detection area of the first deep learning object detection algorithm and the second deep learning object detection algorithm to create the integrated object detection area exceeding a preset overlap value Cover recognition/extraction method.
제14항에 있어서,
상기 도로안전표지 오브젝트를 검출하는 단계는
상기 통합객체탐지영역 내에 검출된 도로안전표지 오브젝트의 식별유무를 기 설정된 탐지영역 조건값으로 필터링하는 단계를 포함하는 정밀도로지도 생성을 위한 교통안전표지 인식/추출 방법.
15. The method of claim 14,
The step of detecting the road safety sign object is
A method of recognizing/extracting a road safety sign for map creation with precision, comprising the step of filtering the identification of the road safety sign object detected in the integrated object detection area with a preset detection area condition value.
제15항에 있어서,
상기 기 설정된 탐지영역 조건값은
상기 도로안전표지 오브젝트의 검출 위치에 대한 영역 값이고, 상기 영역 값은 노면 표지 영역, 중앙선 좌측 영역, 연석우측 영역을 포함하는 정밀도로지도 생성을 위한 교통안전표지 인식/추출 방법.
16. The method of claim 15,
The preset detection area condition value is
A method of recognizing/extracting a road safety sign for map generation with precision including a road sign area, a center line left area, and a curb right area.
제12항에 있어서,
상기 도로안전표지 오브젝트를 검출하는 단계는
상기 딥러닝 객체감지 알고리즘 각각의 객체탐지영역을 오버랩한 수치가, 상기 기 설정된 오버랩 수치보다 작을 경우,
상기 딥러닝 객체감지 알고리즘 중 검출 정확도가 높은 딥러닝 객체감지 알고리즘으로 상기 도로안전표지 오브젝트를 검출하는 단계를 포함하는 정밀도로지도 생성을 위한 교통안전표지 인식/추출 방법.
13. The method of claim 12,
The step of detecting the road safety sign object is
When the overlapping value of each object detection area of the deep learning object detection algorithm is smaller than the preset overlapping value,
A method of recognizing/extracting a road safety sign for map creation with precision, comprising the step of detecting the road safety sign object with a deep learning object detection algorithm with high detection accuracy among the deep learning object detection algorithms.
제12항에 있어서,
상기 도로안전표지 오브젝트의 이미지를 분석하는 단계는
검출된 도로안전표지 오브젝트의 윤곽선을 추출한 후, 상기 윤곽선의 특징점의 위치를 기초로 상기 도로안전표지 오브젝트의 형상 및 컬러 중 적어도 하나 이상을 분석하는 단계를 포함하는 정밀도로지도 생성을 위한 교통안전표지 인식/추출 방법.
13. The method of claim 12,
The step of analyzing the image of the road safety sign object is
After extracting the contour of the detected road safety sign object, based on the position of the feature point of the contour, analyzing at least one or more of the shape and color of the road safety sign object Traffic safety sign for map creation with precision Recognition/extraction method.
제12항에 있어서,
상기 도로안전표지 오브젝트의 매칭유무를 비교판단하는 단계는
상기 오브젝트 분석부로부터 제n+1 이미지 프레임 내에 도로표지 오브젝트 검출 유무 및 ID 할당 유무를 확인한 후, 제n 이미지 프레임의 중심과 제n+1 이미지 프레임의 중심의 오프셋 벡터의 최적값을 산출한 후, 오프셋 벡터의 최적값을 기초로 상기 도로표지 오브젝트의 매칭 유무를 판단하는 단계인 정밀도로지도 생성을 위한 교통안전표지 인식/추출 방법.
13. The method of claim 12,
The step of comparing and judging whether the road safety sign object is matched
After confirming whether a road sign object is detected in the n+1th image frame and whether an ID is assigned from the object analysis unit, the optimum value of the offset vector of the center of the nth image frame and the center of the n+1th image frame is calculated , a method of recognizing/extracting a traffic safety sign for map generation with precision, which is a step of determining whether the road sign object is matched or not based on the optimal value of the offset vector.
제10항에 있어서,
상기 Queue 형태로 제공하는 단계는
동일한 도로안전표지 오브젝트가 검출된 이미지 프레임을 적층한 후, 적층값이 기준값을 초과하면 적층된 이미지 프레임들의 도로안전표지 오브젝트 ID, 세그먼트, 객체탐지영역 및 차선정보를 Queue 형태로 저장 및 전송하는 단계인, 정밀도로지도 생성을 위한 교통안전표지 인식/추출 방법.
11. The method of claim 10,
The step of providing in the form of the queue is
After stacking the image frames in which the same road safety sign object is detected, if the stacking value exceeds the reference value, storing and transmitting the road safety sign object ID, segment, object detection area and lane information of the stacked image frames in the form of a queue A method of recognizing/extracting traffic safety signs for map generation with high precision.
KR1020200166245A 2020-12-02 2020-12-02 system and method for recognizing and extracting traffic safety signs for generating precision road maps KR102482427B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200166245A KR102482427B1 (en) 2020-12-02 2020-12-02 system and method for recognizing and extracting traffic safety signs for generating precision road maps

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200166245A KR102482427B1 (en) 2020-12-02 2020-12-02 system and method for recognizing and extracting traffic safety signs for generating precision road maps

Publications (2)

Publication Number Publication Date
KR20220077370A true KR20220077370A (en) 2022-06-09
KR102482427B1 KR102482427B1 (en) 2022-12-29

Family

ID=81985921

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200166245A KR102482427B1 (en) 2020-12-02 2020-12-02 system and method for recognizing and extracting traffic safety signs for generating precision road maps

Country Status (1)

Country Link
KR (1) KR102482427B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090055848A (en) * 2007-11-29 2009-06-03 한국전자통신연구원 Apparatus and method of detecting signal light
KR101199959B1 (en) 2011-09-09 2012-11-12 이엔지정보기술 주식회사 System for reconnizaing road sign board of image
KR20190053355A (en) * 2017-11-10 2019-05-20 연세대학교 산학협력단 Method and Apparatus for Recognizing Road Symbols and Lanes
KR102031503B1 (en) * 2018-11-23 2019-11-08 유니셈(주) Method and system for detecting multi-object

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090055848A (en) * 2007-11-29 2009-06-03 한국전자통신연구원 Apparatus and method of detecting signal light
KR101199959B1 (en) 2011-09-09 2012-11-12 이엔지정보기술 주식회사 System for reconnizaing road sign board of image
KR20190053355A (en) * 2017-11-10 2019-05-20 연세대학교 산학협력단 Method and Apparatus for Recognizing Road Symbols and Lanes
KR102031503B1 (en) * 2018-11-23 2019-11-08 유니셈(주) Method and system for detecting multi-object

Also Published As

Publication number Publication date
KR102482427B1 (en) 2022-12-29

Similar Documents

Publication Publication Date Title
US10319096B2 (en) Automated tattoo recognition techniques
KR101992398B1 (en) Method and Apparatus for Recognizing Road Symbols and Lanes
Ellahyani et al. Traffic sign detection and recognition based on random forests
US11164027B2 (en) Deep learning based license plate identification method, device, equipment, and storage medium
CN108364010B (en) License plate recognition method, device, equipment and computer readable storage medium
CN110502982B (en) Method and device for detecting obstacles in expressway and computer equipment
EP2833288B1 (en) Face calibration method and system, and computer storage medium
US10552706B2 (en) Attachable matter detection apparatus and attachable matter detection method
CN110502983B (en) Method and device for detecting obstacles in expressway and computer equipment
CN103824091B (en) A kind of licence plate recognition method for intelligent transportation system
US20100208071A1 (en) Vehicle detection device, vehicle detection method, and vehicle detection program
Babbar et al. A new approach for vehicle number plate detection
KR20090109012A (en) Image Processing
CN116052152A (en) License plate recognition system based on contour detection and deep neural network
US9953238B2 (en) Image processing method and system for extracting distorted circular image elements
CN107977608B (en) Method for extracting road area of highway video image
CN107392115B (en) Traffic sign identification method based on hierarchical feature extraction
Agunbiade et al. Enhancement performance of road recognition system of autonomous robots in shadow scenario
KR102482427B1 (en) system and method for recognizing and extracting traffic safety signs for generating precision road maps
CN108346313B (en) Empty parking space detection method and system
Soetedjo et al. An efficient algorithm for implementing traffic sign detection on low cost embedded system
Meem et al. Zebra-crossing detection and recognition based on flood fill operation and uniform local binary pattern
CN111062309B (en) Method, storage medium and system for detecting traffic signs in rainy days
CN114764853A (en) Method and device for determining occupation information
Tian et al. A new algorithm for license plate localization in open environment using color pair and stroke width features of character

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right