KR102477218B1 - Apparatus and method for generating High Definition Map - Google Patents

Apparatus and method for generating High Definition Map Download PDF

Info

Publication number
KR102477218B1
KR102477218B1 KR1020200067670A KR20200067670A KR102477218B1 KR 102477218 B1 KR102477218 B1 KR 102477218B1 KR 1020200067670 A KR1020200067670 A KR 1020200067670A KR 20200067670 A KR20200067670 A KR 20200067670A KR 102477218 B1 KR102477218 B1 KR 102477218B1
Authority
KR
South Korea
Prior art keywords
road
lane
lanes
map
precision map
Prior art date
Application number
KR1020200067670A
Other languages
Korean (ko)
Other versions
KR20210150805A (en
Inventor
김지원
유찬미
이시영
Original Assignee
네이버랩스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 네이버랩스 주식회사 filed Critical 네이버랩스 주식회사
Priority to KR1020200067670A priority Critical patent/KR102477218B1/en
Publication of KR20210150805A publication Critical patent/KR20210150805A/en
Priority to KR1020220007536A priority patent/KR102480972B1/en
Application granted granted Critical
Publication of KR102477218B1 publication Critical patent/KR102477218B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/003Maps
    • G09B29/006Representation of non-cartographic information on maps, e.g. population distribution, wind direction, radiation levels, air and sea routes
    • G09B29/007Representation of non-cartographic information on maps, e.g. population distribution, wind direction, radiation levels, air and sea routes using computer methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3852Data derived from aerial or satellite images
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/3815Road data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Automation & Control Theory (AREA)
  • Geometry (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computer Graphics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Processing Or Creating Images (AREA)
  • Computer Hardware Design (AREA)
  • Ecology (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

본 출원은 고정밀지도생성장치 및 고정밀지도생성방법에 관한 것으로서, 본 발명의 일 실시예에 의한 고정밀지도생성방법은, 영역박스 검출 신경망을 이용하여, 항공영상 내에 포함된 도로의 노면기호를 인식하고, 상기 노면기호의 위치정보 및 방향정보를 나타내는 영역박스를 생성하는 단계; 의미추출 신경망을 이용하여, 상기 항공영상 내에 포함된 도로객체들을 인식하고, 입력된 차선위치정보에 따라 도로 내 차선을 특정하여 각각의 차선의 종류를 분류하는 단계; 및 상기 노면기호 및 차선들을 이용하여, 상기 항공영상에 대응하는 고정밀지도를 생성하는 단계를 포함할 수 있다. The present application relates to a high-precision map generation device and a high-precision map generation method, and the high-precision map generation method according to an embodiment of the present invention recognizes a road sign of a road included in an aerial image by using an area box detection neural network, , generating an area box representing location information and direction information of the road surface sign; Recognizing road objects included in the aerial image using a semantic extraction neural network, specifying lanes on the road according to the input lane location information, and classifying the type of each lane; and generating a high-precision map corresponding to the aerial image using the road sign and lanes.

Figure R1020200067670
Figure R1020200067670

Description

고정밀지도생성장치 및 고정밀지도생성방법 {Apparatus and method for generating High Definition Map}High-precision map generating device and high-precision map generating method {Apparatus and method for generating High Definition Map}

본 출원은 고정밀지도생성장치 및 고정밀지도생성방법에 관한 것으로, 특히 항공영상으로부터 다양한 노면기호 또는 차선을 정확하게 인식하고 분류할 수 있는, 고정밀지도생성장치 및 고정밀지도생성방법에 관한 것이다. The present application relates to a high-precision map generating device and a high-precision map generating method, and more particularly, to a high-precision map generating device and a high-precision map generating method capable of accurately recognizing and classifying various road signs or lanes from aerial images.

차량의 무인자율화(자율주행차량)는 크게 주위 환경을 인식하는 단계와, 인식된 환경으로부터 주행경로를 계획하는 단계, 그리고 계획된 경로를 따라 주행하는 단계로 구성될 수 있으며, 이 과정에서 가장 기본적으로 요구되는 것이 정밀도로지도(High Definition Map, HD-Map)이다.Unmanned autonomous vehicles (self-driving vehicles) can largely consist of a step of recognizing the surrounding environment, a step of planning a driving route from the recognized environment, and a step of driving along the planned route. In this process, the most basic What is required is a high definition map (HD-Map).

정밀도로지도(HD-Map)는 도로, 지형의 고저, 곡률 등과 같은 주변환경에 대한 정보가 3D로 구현된 지도로서, 특히 도로의 주행시 필요한 다양한 정보들을 포함하고 있다. 예를 들어, 정밀도로지도(HD-Map)에는 도로의 차선, 주행방향, 교차로, 표지판, 신호등, 제한속도 등과 같이 해당 도로를 주행하는데 필요한 각종 정보들을 포함하고 있다.An HD-Map is a map in which information on the surrounding environment, such as roads, topography, and curvature, is implemented in 3D, and includes various information necessary for driving on the road. For example, the HD-Map includes various types of information necessary for driving on the road, such as road lanes, driving directions, intersections, signs, traffic lights, speed limits, and the like.

자율주행차량은 정밀도로지도(HD-Map)를 바탕으로 주위환경을 인식하면서 도로를 주행하므로, 정밀도로지도(HD-Map)는 자율주행분야에 있어서 가장 기본이 될 수 있다.Since autonomous vehicles drive on the road while recognizing the surrounding environment based on the HD-Map, the HD-Map can be the most basic in the field of autonomous driving.

본 출원은 항공영상으로부터 다양한 노면기호 또는 차선을 정확하게 인식하고 분류할 수 있는 고정밀지도생성장치 및 고정밀지도생성방법을 제공하고자 한다.This application is intended to provide a high-precision map generating device and a high-precision map generating method capable of accurately recognizing and classifying various road signs or lanes from aerial images.

본 출원은 항공영상으로부터 인식한 노면기호의 방향을 보다 정확하게 판단할 수 있는 고정밀지도생성장치 및 고정밀지도생성방법을 제공하고자 한다.The present application is intended to provide a high-precision map generating device and a high-precision map generating method capable of more accurately determining the direction of a road sign recognized from an aerial image.

본 출원은 항공영상 내에 포함된 다양한 종류의 차선을 신속하게 분류하는 동시에, 차선의 위치정보를 정밀하게 제공할 수 있는 고정밀지도생성장치 및 고정밀지도생성방법을 제공하고자 한다.An object of the present application is to provide a high-precision map generation apparatus and method for quickly classifying various types of lanes included in an aerial image and at the same time precisely providing location information of lanes.

본 발명의 일 실시예에 의한 고정밀지도생성방법은, 영역박스 검출 신경망을 이용하여, 항공영상 내에 포함된 도로의 노면기호를 인식하고, 상기 노면기호의 위치정보 및 방향정보를 나타내는 영역박스를 생성하는 단계; 의미추출 신경망을 이용하여, 상기 항공영상 내에 포함된 도로객체들을 인식하고, 입력된 차선위치정보에 따라 도로 내 차선을 특정하여 각각의 차선의 종류를 분류하는 단계; 및 상기 노면기호 및 차선들을 이용하여, 상기 항공영상에 대응하는 고정밀지도를 생성하는 단계를 포함할 수 있다.A method for generating a high-precision map according to an embodiment of the present invention recognizes a road sign of a road included in an aerial image using an area box detection neural network, and generates an area box indicating location information and direction information of the road surface sign. doing; Recognizing road objects included in the aerial image using a semantic extraction neural network, specifying lanes on the road according to the input lane location information, and classifying the type of each lane; and generating a high-precision map corresponding to the aerial image using the road sign and lanes.

본 발명의 일 실시예에 의한 고정밀지도생성장치는, 영역박스 검출 신경망을 이용하여, 항공영상 내에 포함된 도로의 노면기호를 인식하고, 상기 노면기호의 위치정보 및 방향정보를 나타내는 영역박스를 생성하는 노면기호인식부; 의미추출 신경망을 이용하여, 상기 항공영상 내에 포함된 도로객체들을 인식하고, 입력된 차선위치정보에 따라 도로 내 차선을 특정하여 각각의 차선의 종류를 분류하는 차선인식부; 및 상기 노면기호 및 차선들을 이용하여, 상기 항공영상에 대응하는 고정밀지도를 생성하는 지도생성부를 포함할 수있다. A high-precision map generator according to an embodiment of the present invention recognizes a road surface sign included in an aerial image using an area box detection neural network, and generates an area box indicating location information and direction information of the road surface symbol. a road sign recognition unit; a lane recognition unit that recognizes road objects included in the aerial image using a semantic extraction neural network, identifies lanes on the road according to the input lane location information, and classifies each lane type; and a map generator generating a high-precision map corresponding to the aerial image using the road sign and lanes.

덧붙여 상기한 과제의 해결수단은, 본 발명의 특징을 모두 열거한 것이 아니다. 본 발명의 다양한 특징과 그에 따른 장점과 효과는 아래의 구체적인 실시형태를 참조하여 보다 상세하게 이해될 수 있을 것이다.In addition, the solution to the above problem does not enumerate all the features of the present invention. Various features of the present invention and the advantages and effects thereof will be understood in more detail with reference to specific embodiments below.

본 발명의 일 실시예에 의한 고정밀지도생성장치 및 고정밀지도생성방법에 의하면, 항공영상으로부터 다양한 노면기호 또는 차선을 정확하게 인식하고 분류하는 것이 가능하다. According to the high-precision map generation apparatus and high-precision map generation method according to an embodiment of the present invention, it is possible to accurately recognize and classify various road signs or lanes from aerial images.

본 발명의 일 실시예에 의한 고정밀지도생성장치 및 고정밀지도생성방법에 의하면, 항공영상으로부터 인식한 노명기호의 방향을, 노면 기호가 위치하는 도로의 방향이나, 동일한 그룹에 포함된 노면 기호들의 방향을 고려하여 교정할 수 있으므로, 노면 기호의 방향을 보다 정확히 산출할 수 있다. According to the high-precision map generation apparatus and high-precision map generation method according to an embodiment of the present invention, the direction of the name sign recognized from the aerial image is the direction of the road where the road sign is located or the direction of the road sign included in the same group. Since it can be corrected in consideration of , the direction of the road sign can be more accurately calculated.

본 발명의 일 실시예에 의한 고정밀지도생성장치 및 고정밀지도생성방법에 의하면, 항공영상 내에 포함된 다양한 종류의 차선을 신속하게 분류할 수 있으며, 동시에 차선들에 대한 위치정보를 정밀하게 제공하는 것이 가능하다. According to the high-precision map generation apparatus and high-precision map generation method according to an embodiment of the present invention, it is possible to quickly classify various types of lanes included in an aerial image, and at the same time precisely provide location information on the lanes. It is possible.

다만, 본 발명의 실시예들에 따른 고정밀지도생성장치 및 고정밀지도생성방법이 달성할 수 있는 효과는 이상에서 언급한 것들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.However, the effects that can be achieved by the high-precision map generating device and the high-precision map generating method according to the embodiments of the present invention are not limited to those mentioned above, and other effects not mentioned are the present invention from the following description. It will be clearly understood by those skilled in the art.

도1은 본 발명의 일 실시예에 의한 고정밀지도생성장치를 나타내는 블록도이다.
도2는 본 발명의 일 실시예에 의한 고정밀지도생성장치가 추출한 노면기호 및 차선을 나타내는 개략도이다.
도3은 본 발명의 일 실시예에 의한 노면기호의 대한 방향 보정을 나타내는 개략도이다.
도4는 본 발명의 일 실시예에 의한 차선 인식을 나타내는 개략도이다.
도5는 본 발명의 일 실시예에 의한 고정밀지도생성방법을 나타내는 순서도이다.
1 is a block diagram showing a high-precision map generator according to an embodiment of the present invention.
2 is a schematic diagram showing road signs and lanes extracted by a high-precision map generator according to an embodiment of the present invention.
3 is a schematic diagram illustrating direction correction for a road sign according to an embodiment of the present invention.
4 is a schematic diagram illustrating lane recognition according to an embodiment of the present invention.
5 is a flowchart illustrating a high-precision map generation method according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 즉, 본 발명에서 사용되는 '부'라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, '부'는 어떤 역할들을 수행한다. 그렇지만 '부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '부'들로 결합되거나 추가적인 구성요소들과 '부'들로 더 분리될 수 있다.Hereinafter, the embodiments disclosed in this specification will be described in detail with reference to the accompanying drawings, but the same or similar elements are given the same reference numerals regardless of reference numerals, and redundant description thereof will be omitted. The suffixes "module" and "unit" for components used in the following description are given or used together in consideration of ease of writing the specification, and do not have meanings or roles that are distinct from each other by themselves. That is, the term 'unit' used in the present invention means a hardware component such as software, FPGA or ASIC, and 'unit' performs certain roles. However, 'part' is not limited to software or hardware. A 'unit' may be configured to reside in an addressable storage medium and may be configured to reproduce one or more processors. Thus, as an example, 'unit' refers to components such as software components, object-oriented software components, class components and task components, processes, functions, properties, procedures, subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays and variables. The functionality provided within the components and 'parts' may be combined into a smaller number of elements and 'parts' or further separated into additional elements and 'parts'.

또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.In addition, in describing the embodiments disclosed in this specification, if it is determined that a detailed description of a related known technology may obscure the gist of the embodiment disclosed in this specification, the detailed description thereof will be omitted. In addition, the accompanying drawings are only for easy understanding of the embodiments disclosed in this specification, the technical idea disclosed in this specification is not limited by the accompanying drawings, and all changes included in the spirit and technical scope of the present invention , it should be understood to include equivalents or substitutes.

최근 자율주행에 대한 관심이 많아지면서 자율주행자동차를 위한 고정밀 지도(High Definition Map)의 필요성이 대두되고 있다. 고정밀 지도에는 자율 주행자동차의 주행시 필요한 차선, 노면 기호 등이 포함될 수 있으며, 이때 각각의 차선이나 노면 기호 등의 위치정보에 대해 매우 높은 정확도가 요구된다. Recently, as interest in self-driving has increased, the need for a high-definition map for self-driving cars has emerged. A high-precision map may include lanes, road signs, etc. necessary for driving an autonomous vehicle, and at this time, very high accuracy is required for location information such as each lane or road sign.

종래에는 고정밀지도의 정확도를 높이기 위하여, 항공영상으로부터 작업자가 직접 도로의 노면 기호와, 차선에 대한 주석작업을 수행하여 고정밀지도를 생성하였다. 다만, 항공영상 내에 포함된 노면 기호와, 차선 등의 위치와 분류를 정확하게 하기 위해서는 숙련된 작업자가 필요하며, 대단위의 지역에 대한 고정밀지도를 작성하기 위해서는, 다수의 작업자가 업무를 수행할 필요가 있다. 즉, 고정밀지도 생성을 위한 주석작업은 오랜 시간과 많은 인력이 요구되는 등의 문제점이 존재하였다. Conventionally, in order to increase the accuracy of a high-precision map, a high-precision map was generated by performing annotation work on road signs and lanes directly from an aerial image by a worker. However, skilled workers are required to accurately position and classify road signs and lanes included in aerial images, and a large number of workers are required to perform tasks in order to create high-precision maps of a large area. have. In other words, there were problems such as requiring a long time and a lot of manpower for the annotation work to create a high-precision map.

고정밀지도 제작과 관련하여, 주행 중인 차량에서 촬영한 영상을 이용한 방안도 제안되고 있다. 그러나, 이 경우 측정되는 노면 기호 또는 차선의 위치가 측정차량을 중심으로 기술되므로, 차량 주행시에는 직접적으로 쓰일 수 있으나, 고정밀지도를 만들기 위해서는 적절하지 않을 수 있다. 즉, 노면 기호 또는 차선의 지리좌표값을 알아내기 위해서는, 측정차량의 정확한 위치정보가 필요하지만, GPS(Global Positioning System)가 부정확한 지역(예를들어, 차량이 밀집한 지역) 등에서는 차량의 위치를 정확하게 파악하기 어려우므로, 노면 기호 또는 차선의 정확한 지리좌표값을 알아내는 것 또한 어려움이 있다. 이외에도, 다른 차량에 의해 가려지거나, 촬영장치의 화각이 나오지 않는 등의 경우에는, 검출장치의 성능과 관계없이 노면 기호 또는 차선의 위치를 찾지 못하는 등의 문제가 존재한다. Regarding the production of a high-precision map, a plan using an image taken from a vehicle in motion has also been proposed. However, in this case, since the measured road sign or lane position is described centering on the vehicle to be measured, it may be directly used when driving a vehicle, but may not be suitable for creating a high-precision map. That is, in order to find the road sign or the geographic coordinate value of the lane, accurate location information of the vehicle to be measured is required, but the location of the vehicle is in an area where the GPS (Global Positioning System) is inaccurate (for example, an area where vehicles are densely populated). Since it is difficult to accurately grasp, it is also difficult to find out the exact geographic coordinate values of road signs or lanes. In addition, when the vehicle is covered by another vehicle or the angle of view of the photographing device is not displayed, there is a problem in that the road sign or lane position cannot be found regardless of the performance of the detection device.

한편, 본 발명의 일 실시예에 의한 고정밀지도생성장치에 의하면, 고정밀지도의 주석작업을 자동화할 수 있으므로, 주석작업에 소요되는 시간과 비용 등을 절감하는 것이 가능하다. 또한, 본 발명의 일 실시예에 의한 고정밀지도생성장치는 항공영상을 기반으로 노면기호 또는 차선을 인식하므로, 주행 중인 차량에서 촬영한 영상을 이용하는 경우에 발생할 수 있는 문제점들을 해소할 수 있다. On the other hand, according to the high-precision map generating apparatus according to an embodiment of the present invention, since it is possible to automate the high-precision map annotation work, it is possible to reduce the time and cost required for the annotation work. In addition, since the high-precision map generator according to an embodiment of the present invention recognizes road signs or lanes based on aerial images, it is possible to solve problems that may occur when using images taken from a vehicle in motion.

즉, 본 발명의 일 실시예에 의한 고정밀지도생성장치는, 영상좌표와 지리좌표간의 일대일 대응관계를 미리 알고 있는 항공영상을 이용하므로, 항공영상 내에 검출한 노면 기호의 실제 지리좌표값을 손쉽게 파악하는 것이 가능하다. 또한, 항공영상의 경우 여러 시점(時点)에 다양한 촬영각도로 촬영한 영상을 합성하여 만드는 것으로, 특정 시점에서 어느 노면 기호 또는 차선이 가려졌더라도 다른 시점에서 그 노면 기호 또는 차선이 가려지지 않았다면 최종적으로 합성된 항공영상 내에는 해당 노면 기호 또는 차선이 표시될 수 있다. 따라서, 항공영상을 이용하여 종래의 노면 기호 가려짐 현상을 줄일 수 있으므로, 용이하게 노면 기호 또는 차선의 위치를 찾아낼 수 있다. 이하, 본 발명의 일 실시예에 의한 고정밀지도생성장치를 설명한다. That is, since the high-precision map generating device according to an embodiment of the present invention uses an aerial image of which a one-to-one correspondence between image coordinates and geographic coordinates is known in advance, the actual geographic coordinate value of the road sign detected in the aerial image can be easily grasped. It is possible. In addition, in the case of aerial video, it is created by synthesizing images taken at various points of time and from various shooting angles. A corresponding road sign or lane may be displayed in the synthesized aerial image. Therefore, since the conventional obscuring of road signs can be reduced using aerial images, the location of road signs or lanes can be easily found. Hereinafter, a high-precision map generator according to an embodiment of the present invention will be described.

도1은 본 발명의 일 실시예에 의한 고정밀지도생성장치를 나타내는 블록도이다. 도1을 참조하면, 본 발명의 일 실시예에 의한 고정밀지도생성장치(100)는 노면기호인식부(110), 차선인식부(120) 및 지도생성부(130)를 포함할 수 있다. 1 is a block diagram showing a high-precision map generator according to an embodiment of the present invention. Referring to FIG. 1 , a high-precision map generating device 100 according to an embodiment of the present invention may include a road sign recognition unit 110, a lane recognition unit 120, and a map generator 130.

노면기호인식부(110)는, 영역박스 검출 신경망을 이용하여, 항공영상(A) 내에 포함된 도로의 노면기호를 인식하고, 노면기호의 위치정보 및 방향정보를 나타내는 영역박스를 생성할 수 있다. The road sign recognition unit 110 may recognize a road sign included in the aerial image (A) by using an area box detection neural network, and may generate an area box indicating location information and direction information of the road surface sign. .

여기서, 영역박스는 도2(a)에 도시한 바와 같이, 방향성을 가지는 지향성 영역 박스(OBB: Oriented Bounding Box)일 수 있으며, 영역박스 검출 신경망은 SCRDet 알고리즘을 이용하여 영역박스를 생성하는 것일 수 있다.Here, the area box may be an Oriented Bounding Box (OBB) having directionality, as shown in FIG. 2(a), and the area box detection neural network may generate the area box using the SCRDet algorithm. there is.

구체적으로, SCRDet 알고리즘을 이용하는 경우, 합성곱 신경망(convolution network)을 이용하여 항공영상(A)에 대한 특징 지도(feature map)을 산출할 수 있으며, 이후 특징 지도는 영역 제안 신경망으로 입력되어, 항공영상(A) 내에서 노면 기호가 존재할 수 있는 후보 위치(ROI, Region Of Interest)들을 산출할 수 있다. 후보 위치를 포함하는 특징 지도는 다시 합성곱 신경망으로 입력되어 영역 박스 회귀(regression)와 클래스 분류를 수행할 수 있으며, 이 과정에서 각 후보 위치 영역의 보정과 노면 기호의 방향 예측이 이루어지게 된다. 즉, 노면기호의 위치정보 및 방향정보가 결정되어 영역박스가 생성될 수 있다. Specifically, in the case of using the SCRDet algorithm, a feature map for the aerial image (A) can be calculated using a convolution network, and then the feature map is input to the area proposal neural network, Candidate locations (ROIs, Regions Of Interest) in which a road sign may exist in the image A may be calculated. The feature map including the candidate location is again input to the convolutional neural network to perform area box regression and class classification. In this process, correction of each candidate location area and prediction of the direction of the road sign are performed. That is, the area box may be created by determining the location information and direction information of the road sign.

다만, 항공영상(A) 내의 노면기호를 인식하는 경우, 도3(a)에서 도시한 바와 같이 동일한 방향을 가지는 객체임에도 불구하고, 일부 노면 기호가 다른 방향을 가지는 것으로 잘못 인식되는 경우가 발생할 수 있었다. 이를 해소하기 위하여, 노면기호인식부(110)는 정확한 방향을 인식할 수 있도록, 노면기호의 방향을 교정할 수 있다. However, when recognizing road signs in the aerial image (A), some road signs may be mistakenly recognized as having different directions even though they are objects having the same direction as shown in FIG. 3(a). there was. To solve this problem, the road sign recognition unit 110 may correct the direction of the road sign so as to accurately recognize the direction.

구체적으로, 도3(b)에 도시한 바와 같이, 일반적으로 도로에는 방향성이 존재할 수 있으며, 도로의 방향성은 노면 기호의 방향과 높은 상관 관계를 가질 수 있다. 따라서, 노면기호인식부(110)는 항공영상(A) 내에 포함된 도로의 방향성을 파악한 후, 이를 고려하여 도3(c)와 같이 노면 기호의 방향을 교정할 수 있다.Specifically, as shown in FIG. 3(b), a road may generally have a directionality, and the directionality of the road may have a high correlation with the direction of a road sign. Accordingly, the road sign recognizing unit 110 may determine the direction of the road included in the aerial image A, and then correct the direction of the road sign in consideration of this, as shown in FIG. 3(c).

여기서, 도로의 방향정보는 도로예측신경망을 이용하여 생성할 수 있으며, 도로 예측 신경망은 항공영상(A) 내의 각 화소들이 향하는 방향각 예측치를 포함하는 매트릭스를 출력할 수 있다. 이때, 도로 예측 신경망은 샘플 항공영상들을 이용하여, 도로 영역의 각 화소들에 대한 정답(ground truth) 방향과의 L2 loss를 줄이도록 학습된 것일 수 있다. 이에 따라, 항공영상(A) 내에 포함된 도로의 방향을 확인할 수 있으며, 노면기호인식부(110)는 도로의 방향을 고려하여 노면 기호의 방향을 교정할 수 있다. Here, the direction information of the road may be generated using a road prediction neural network, and the road prediction neural network may output a matrix including predicted values of direction angles to which each pixel in the aerial image (A) is heading. In this case, the road prediction neural network may be trained to reduce the L2 loss with respect to the ground truth direction for each pixel in the road area using sample aerial images. Accordingly, the direction of the road included in the aerial image A can be checked, and the road sign recognizing unit 110 can correct the direction of the road sign in consideration of the direction of the road.

실시예에 따라서는, 노면기호인식부(110)가 도로의 방향과 함께, 인접하는 노면기호들의 방향을 고려하여 해당 노면 기호의 방향을 교정하는 것도 가능하다. 즉, 도3(c)에 도시한 바와 같이, 노면기호들은 차선별로 복수개가 인접하여 배치될 수 있으며, 이를 노면기호들의 그룹으로 묶을 수 있다. 구체적으로, 노면기호인식부(110)는 인접하는 노면 기호 간의 거리가 미리 정해진 기준치 이하이고, 인접하는 노면 기호 간의 방향각의 차이가 미리 정해진 기준치 이하이면, 복수의 노면기호들이 서로 동일한 그룹에 속하는 것으로 볼 수 있다. Depending on the embodiment, it is also possible for the road sign recognition unit 110 to correct the direction of a corresponding road sign in consideration of the direction of the road and the directions of adjacent road signs. That is, as shown in FIG. 3(c), a plurality of road signs may be adjacently arranged for each lane, and they may be grouped into groups of road signs. Specifically, the road sign recognition unit 110 determines that the plurality of road signs belong to the same group when the distance between adjacent road signs is equal to or less than a predetermined reference value and the difference in direction angle between adjacent road signs is equal to or less than a predetermined reference value. can be seen as

이후, 동일한 그룹 내에 포함되는 노면기호들의 방향정보의 평균값과, 도로방향정보의 평균값을 이용하여, 그룹핑된 각각의 노면기호들의 대표 방향정보를 생성할 수 있다. 이후, 대표방향정보를 그룹핑된 각각의 노면기호들의 방향정보로 설정할 수 있다. 즉, 동일한 그룹 내에 포함된 노면기호들은 모두 동일한 방향을 가지도록 설정할 수 있다.Thereafter, representative direction information of each grouped road sign may be generated using an average value of direction information of road signs included in the same group and an average value of road direction information. Thereafter, representative direction information may be set as direction information of each grouped road sign. That is, all road signs included in the same group may be set to have the same direction.

구체적으로, 아래 수학식 1에 기재된 바와 같이, 노면 기호들의 방향정보의 평균값(θb)과, 도로의 도로방향 정보의 평균값(θr)을 구한 후, 노면 기호들의 방향정보의 평균값(θb)에 대한 가중치(λ)와 도로의 도로방향 정보의 평균값(θr)에 대한 가중치(1- λ)를 적용하여, 대표 방향정보(θ)를 산출할 수 있다.Specifically, as described in Equation 1 below, after obtaining the average value (θ b ) of direction information of road signs and the average value (θ r ) of road direction information of roads, the average value (θ b ) of direction information of road signs ) and the weight (1-λ) for the average value (θ r ) of the road direction information of the road, the representative direction information (θ) can be calculated.

[수학식 1][Equation 1]

θ = λ*θb + (1- λ)* θr (여기서, 0 ≤ λ ≤ 1)θ = λ*θ b + (1- λ)* θ r (where 0 ≤ λ ≤ 1)

여기서 가중치(λ)는 항공영상(A)의 특성에 따라 달라지는 값일 수 있으며, 이에 따라 가중치(λ)를 조절하면서 대표 방향정보를 산출할 수 있다. 나아가, 가중치(λ)에 대한 학습을 통해 신경망을 구성함으로써, 입력되는 항공영상(A)에 따라 최적의 가중치(λ)를 적용하여 최적의 대표 방향정보를 산출하도록 하는 것도 가능하다.Here, the weight (λ) may be a value that varies depending on the characteristics of the aerial image (A), and representative direction information may be calculated while adjusting the weight (λ) accordingly. Furthermore, by constructing a neural network through learning about the weights (λ), it is possible to calculate the optimal representative direction information by applying the optimal weights (λ) according to the input aerial image (A).

차선인식부(120)는, 의미추출 신경망을 이용하여, 항공영상(A) 내에 포함된 도로객체들을 인식하고, 입력된 차선위치정보(P)에 따라 도로 내 차선을 특정하여 각각의 차선의 종류를 분류할 수 있다. The lane recognizing unit 120 recognizes road objects included in the aerial image (A) by using a semantic extraction neural network, and identifies lanes on the road according to the input lane location information (P), thereby specifying the type of each lane. can be classified.

구체적으로, 도4에 도시한 바와 같이, 차선인식부(120)는 의미추출 신경망을 이용하여, 항공영상(A) 내에 포함된 각각의 화소들을 복수의 도로객체 중 어느 하나로 분류할 수 있으며, 도로객체들을 포함하는 의미지도(M)를 생성할 수 있다. 여기서, 도로객체에는 배경, 도로, 차선, 노면 기호 등이 포함될 수 있으며, 이외에도 항공영상(A) 내에 포함될 수 있는 다양한 객체들도 도로객체에 포함될 수 있다. 실시예에 따라서는, 도로객체를 차선의 종류에 따라 더 세분화하는 것도 가능하다. Specifically, as shown in FIG. 4, the lane recognition unit 120 may classify each pixel included in the aerial image A as one of a plurality of road objects using a meaning extraction neural network, A semantic map (M) including objects can be created. Here, the road object may include a background, a road, a lane, a road surface sign, and the like, and other various objects that may be included in the aerial image (A) may also be included in the road object. Depending on embodiments, it is also possible to further subdivide road objects according to lane types.

의미추출 신경망은 화소들이 각각의 도로객체에 해당할 확률을 계산하여 화소별로 특징벡터를 생성할 수 있으며, 특징벡터에 포함된 각각의 확률 중에서 가장 높은 확률을 가지는 도로객체를 해당 화소에 대응하는 것으로 분류할 수 있다.The meaning extraction neural network calculates the probability that each pixel corresponds to each road object and generates a feature vector for each pixel. can be classified.

여기서, 의미추출 신경망은 입력되는 항공영상(A)에 대응하는 의미지도(M)를 생성하도록 미리 학습되어 있을 수 있다. 구체적으로, 심층신경망은 샘플 항공영상이 입력되면 그에 대응하는 의사(pseudo) 의미지도를 출력할 수 있으며, 심층신경망은 의사 의미지도와 참조(ground truth) 의미지도 사이의 오차를 줄이도록 학습될 수 있다. 여기서, 학습을 위한 손실함수(loss function)로는 크로스 엔트로피(cross-entropy) 또는 포칼 로스(focal loss) 등을 활용할 수 있다. 따라서, 심층신경망은 입력된 항공영상(A) 내에 포함된 화소들을 배경, 도로, 차선, 노면 기호 등으로 분류하여, 각각의 의미를 부여할 수 있다. Here, the semantic extraction neural network may be pre-learned to generate a semantic map (M) corresponding to an input aerial image (A). Specifically, when a sample aerial image is input, the deep neural network can output a corresponding pseudo semantic map, and the deep neural network can be trained to reduce the error between the pseudo semantic map and the ground truth semantic map. there is. Here, as a loss function for learning, cross-entropy or focal loss may be used. Accordingly, the deep neural network classifies the pixels included in the input aerial image (A) into background, road, lane, road sign, etc., and can give each meaning.

이후, 차선인식부(120)는 차선들의 위치를 나타내는 차선위치정보(P)를 입력받을 수 있으며, 의미지도(M)에서 차선위치정보(P)에 대응하는 화소들을 차선으로 설정하고, 설정된 차선의 종류를 분류할 수 있다. Thereafter, the lane recognizing unit 120 may receive lane location information (P) representing the locations of lanes, set pixels corresponding to the lane location information (P) in the semantic map (M) as lanes, and set the lanes types can be classified.

여기서 차선위치정보(P)는 작업자가 항공영상(A) 내에 포함된 각각의 차선들을 확인한 후, 항공영상(A) 내에 나타난 해당 차선의 위치를 특정하여 생성한 것일 수 있다. 즉, 차선위치에 대한 정확도를 높이기 위하여, 작업자가 직접 각각의 차선의 위치를 특정하여 차선위치정보(P)를 생성하도록 할 수 있다.Here, the lane location information (P) may be created by a worker identifying each lane included in the aerial image (A) and then specifying the location of the corresponding lane appearing in the aerial image (A). That is, in order to increase the accuracy of the lane location, the operator may directly specify the location of each lane to generate the lane location information P.

이 경우, 차선위치정보(P)는 작업자가 고정밀지도생성장치(100)와는 별도로 생성할 수 있으며, 차선인식부(120)는 외부로부터 해당 항공영상(A)에 대한 차선위치정보(P)를 수신할 수 있다. 다만, 실시예에 따라서는, 고정밀지도생성장치(100)가 작업자에게 차선위치지도(P)를 생성할수 있는 인터페이스를 제공하는 것도 가능하다. 예를들어, 입력받은 항공영상(A)을 작업자에게 디스플레이한 후, 작업자는 항공영상(A) 내에 나타난 해당 차선들의 위치를 특정하도록 입력하는 인터페이스 등을 제공할 수 있다.In this case, the lane location information (P) can be generated separately from the high-precision map generating device 100 by the operator, and the lane recognition unit 120 receives the lane location information (P) for the corresponding aerial image (A) from the outside. can receive However, depending on the embodiment, it is also possible for the high-precision map generating device 100 to provide an interface for generating the lane location map P to the operator. For example, after displaying the input aerial image A to the operator, the operator may provide an interface for specifying the positions of corresponding lanes shown in the aerial image A, or the like.

즉, 도2(a)에 도시한 바와 같이, 의미지도(M)를 이용하여 차선을 분류하는 것도 가능하지만, 의미지도(M) 내에서 차선으로 분류된 화소들에 대한 위치정보의 신뢰도는 상대적으로 낮을 수 있다. 따라서, 차선인식부(120)는 작업자가 입력한 차선위치정보(P)를 활용하여, 의미지도(M) 내에서 차선의 위치를 특정하도록 할 수 있다. That is, as shown in FIG. 2(a), it is possible to classify lanes using the semantic map M, but the reliability of location information for pixels classified as lanes in the semantic map M is relatively high. can be as low as Accordingly, the lane recognizing unit 120 may specify the position of a lane within the semantic map M by utilizing the lane location information P input by the operator.

여기서, 차선위치정보(P)가 점들의 집합으로 제공되는 경우에는, 차선위치정보(P)를 마스크 형태로 변환할 수 있으며, 의미지도(M)에 마스크를 적용하는 방식으로, 각각의 차선에 대응하는 화소들의 집합(M')을 추출할 수 있다. Here, when the lane location information P is provided as a set of points, the lane location information P can be converted into a mask form, and the mask is applied to the semantic map M, so that each lane A set M' of corresponding pixels may be extracted.

이후 차선인식부(120)는, 추출된 화소들의 특징벡터들을 샘플링하여 각각의 차선에 대응하는 차선특징벡터를 생성할 수 있다. 즉, 차선특징벡터를 이용하여, 의미지도(M) 내에 차선에 해당하는 화소들의 집합을 특정할 수 있다. 여기서, 차선인식부(120)는 추출된 화소들의 특징벡터의 평균 또는 이들에 대한 다양한 샘플링 기법을 적용하여 차선특징벡터를 생성할 수 있다. Thereafter, the lane recognizing unit 120 may generate lane feature vectors corresponding to respective lanes by sampling feature vectors of the extracted pixels. That is, a set of pixels corresponding to a lane in the semantic map M can be specified using the lane feature vector. Here, the lane recognizing unit 120 may generate the lane feature vector by averaging feature vectors of the extracted pixels or applying various sampling techniques to them.

여기서, 차선특징벡터는 항공영상(A) 내에 포함된 차선의 개수에 대응하여 생성되므로, 작업자가 n개의 차선에 대한 차선위치정보(P)를 생성한 경우에는, 총 n개의 차선특징벡터가 생성될 수 있다.Here, since the lane feature vectors are generated corresponding to the number of lanes included in the aerial image (A), when the operator generates lane location information (P) for n lanes, a total of n lane feature vectors are generated. It can be.

이후, 차선인식부(120)는 차선특징벡터를 이용하여, 의미지도(M) 내에 포함된 각각의 차선들의 종류를 구별할 수 있다. 여기서, 차선의 종류는 중앙선, 정지선, 진로변경 제한선 등으로 다양하게 분류할 수 있으며, 차선인식부(120)는 차선특징벡터에 대응하는 각각의 차선들이 어느 분류에 해당하는지 판별할 수 있다. 이때, 차선의 종류는 도로교통법 등의 법령이나 규칙에 의하여 미리 설정되어 있을 수 있다. Thereafter, the lane recognizing unit 120 may discriminate the type of each lane included in the semantic map M by using the lane feature vector. Here, the types of lanes may be variously classified into a center line, a stop line, a course change restriction line, and the like, and the lane recognizing unit 120 may determine to which category each lane corresponding to the lane feature vector corresponds. In this case, the type of lane may be set in advance according to laws and regulations such as the Road Traffic Act.

한편, 실시예에 따라서는, 차선인식부(120)에 n개의 차선특징벡터가 입력될 수 있다. 예를들어, 항공영상(A) 내에 n개의 차선이 존재하는 경우, 차선특징벡터는 n개 생성될 수 있으며, 이 경우, 차선인식부(120)는 출력으로 n개의 차선특징벡터에 대하여, 각각의 차선분류에 해당할 수 있는 확률분포를 포함하는 확률벡터를 출력할 수 있다. 즉, 중앙선에 해당할 확률, 정지선에 해당할 확률, 진로변경 제한선에 해당할 확률 등을 각각 포함하는 확률벡터를 출력할 수 있다. Meanwhile, depending on the embodiment, n number of lane feature vectors may be input to the lane recognizing unit 120 . For example, if n number of lanes exist in the aerial image A, n number of lane feature vectors may be generated. In this case, the lane recognizing unit 120 outputs n number of lane feature vectors, respectively. It is possible to output a probability vector including a probability distribution that may correspond to the sub-classification of . That is, a probability vector including a probability corresponding to the center line, a probability corresponding to a stop line, a probability corresponding to a course change restriction line, and the like may be output.

여기서, 차선인식부(120)는 신경망(neural network)을 더 포함할 수 있으며, 이는 차선 분류를 위해 미리 학습된 것일 수 있다. 즉, 샘플 차선특징벡터들이 입력되면 대응하는 의사(pseudo) 확률벡터를 출력하는 것으로, 각각의 샘플 차선특징벡터에 대응하는 참조(ground truth) 확률벡터와 의사 확률벡터 사이의 오차를 줄이도록 학습될 수 있다. 따라서, 차선인식부(120)는 차선특징벡터가 입력되면, 대응하는 확률벡터를 출력할 수 있으며, 확률벡터 내에 포함되는 각각의 분류에 해당할 확률 중에서 가장 확률값이 높은 분류를, 해당 차선에 대한 최종 분류로 선택할 수 있다.Here, the lane recognizing unit 120 may further include a neural network, which may be previously learned for lane classification. That is, when the sample lane feature vectors are input, the corresponding pseudo probability vector is output, and learning is performed to reduce the error between the ground truth probability vector and the pseudo probability vector corresponding to each sample lane feature vector. can Therefore, when the lane feature vector is input, the lane recognizing unit 120 may output a corresponding probability vector, and select a classification having the highest probability value among probabilities corresponding to each classification included in the probability vector for the corresponding lane. can be selected as the final classification.

추가적으로, 실시예에 따라서는, 차선인식부(120)에 차선위치정보(P)가 입력되지 않는 경우가 있을 수 있으며, 이 경우 차선인식부(120)는 의미지도(M)로부터 차선을 특정할 수 있다. 구체적으로, 차선인식부(130)는 차선위치정보(P)가 입력되지 않으면, 도2(b)에 도시한 바와 같이, 의미지도(M)에서 차선으로 분류된 대상 화소들을 추출할 수 있으며, 대상 화소들을 묶어 차선으로 특정할 수 있다. 즉, 복수의 대상화소들 중에서 서로 설정거리 이내에 위치하는 대상화소들을 묶어 화소그룹을 형성할 수 있으며, 해당 화소그룹에 대해 간략화(vector simplification)를 수행하여 선형의 차선을 특정할 수 있다. 여기서, 간략화를 위하여 Douglas-peucker 기법 등을 활용할 수 있다. Additionally, depending on the embodiment, there may be cases in which the lane location information P is not input to the lane recognizing unit 120, and in this case, the lane recognizing unit 120 may specify a lane from the semantic map M. can Specifically, the lane recognizing unit 130 may extract target pixels classified as lanes from the semantic map M, as shown in FIG. 2(b), when lane location information P is not input. Target pixels may be grouped and specified as lanes. That is, a pixel group may be formed by grouping target pixels located within a set distance from among a plurality of target pixels, and a linear lane may be specified by performing vector simplification on the corresponding pixel group. Here, a Douglas-peucker technique or the like can be used for simplification.

차선을 특정한 이후, 차선특징벡터를 추출하여 차선의 종류를 분류하는 방법은 앞서 설명한 바와 동일하므로, 여기서는 구체적인 설명을 생략한다. After specifying the lane, the method of extracting the lane feature vector and classifying the lane type is the same as described above, so a detailed description thereof is omitted here.

지도생성부(130)는, 노면기호 및 차선들을 이용하여, 항공영상(A)에 대응하는 고정밀지도(B)를 생성할 수 있다. The map generator 130 may generate a high-precision map (B) corresponding to the aerial image (A) by using road signs and lanes.

여기서, 각각의 노면기호와 차선은 항공영상(A) 내의 영상좌표계에 따라 특정한 것일 수 있다. 다만, 고정밀지도(B)는 실제 지리좌표계에 따라 제공되어야 하므로, 지도생성부(130)는 각각의 노면기호 및 차선들의 좌표값을 실제 지리좌표계로 변환할 수 있으며, 이를 이용하여 고정밀지도(B)를 생성할 수 있다. 따라서, 자율주행차량 등은 고정밀지도(B)에 표시된 노면기호나 차선을 이용하여, GPS 음영지역 등에서도 정밀한 자기위치 측위 등을 수행할 수 있다. 예를들어, 자율주행차량의 측위를 보정할 때, 횡축 방향의 정확도를 보정하기 위해 차선의 위치정보를 활용할 수 있으며, 종축 방향의 정확도를 보정하기 위하여 노면기호를 활용할 수 있다.Here, each road sign and lane may be specific according to the image coordinate system in the aerial image (A). However, since the high-precision map (B) must be provided according to the actual geographic coordinate system, the map generator 130 can convert the coordinate values of each road sign and lanes into the actual geographic coordinate system, and using this, the high-precision map (B ) can be created. Accordingly, the self-driving vehicle or the like can perform precise self-positioning even in a GPS shadow area by using road signs or lanes displayed on the high-precision map (B). For example, when correcting the positioning of an autonomous vehicle, position information of lanes may be used to correct accuracy in the horizontal axis direction, and road signs may be used to correct accuracy in the vertical axis direction.

또한, 자율주행차량은 현재 위치를 인식하고 있으므로, 자율주행차량의 센서 등 인식장치가 도로 내 노면기호나 차선 등을 인식하지 못한 경우에도, 고정밀지도를 이용하여, 주변의 노면기호 또는 차선 등을 알 수 있다. 따라서, 이러한 경우에도, 교통법규에 맞게 주행하는 것이 가능하다. In addition, since the self-driving vehicle recognizes the current location, even when the recognition device such as the sensor of the self-driving vehicle does not recognize the road surface sign or lane on the road, it uses a high-precision map to detect the surrounding road surface sign or lane. Able to know. Therefore, even in this case, it is possible to drive in compliance with traffic laws.

추가적으로, 노면기호인식부(110)와 차선인식부(120)는 각각 개별적으로 노면기호와 차선을 인식하므로, 고정밀지도 내에 노면기호와 차선이 겹치는 등의 경우가 발생할 수 있다. 즉, 노면기호와 차선 중 어느 하나가 잘못 인식되는 경우가 발생할 수 있다. Additionally, since the road sign recognition unit 110 and the lane recognition unit 120 individually recognize road signs and lanes, road signs and lanes may overlap in the high-precision map. That is, a case may occur in which one of a road surface sign and a lane is erroneously recognized.

이 경우, 지도생성부(130)는 인식된 노면기호와 차선 중에서 신뢰도가 높은 객체는 남기고, 신뢰도가 낮은 객체는 삭제할 수 있다. 실시예에 따라서는, 인식된 각각의 노면기호와 차선에 대한 신뢰도를, 영역박스 추출 신경망이나 의미추출 신경망으로부터 각각 제공받을 수 있다. 따라서, 지도생성부(130)는 이를 비교하여 삭제할 객체를 선택할 수 있다. In this case, the map generator 130 may leave objects with high reliability among the recognized road signs and lanes, and delete objects with low reliability. Depending on the embodiment, reliability of each recognized road sign and lane may be provided from an area box extraction neural network or a meaning extraction neural network. Accordingly, the map generator 130 may select an object to be deleted by comparing them.

다만, 차선인식부(120)는 작업자가 차선의 위치를 정밀하게 특정한 차선위치정보(P)를 활용하여 차선의 위치를 특정하는 것이므로, 일반적으로는 차선의 신뢰도가 노면기호의 신뢰도보다 높은 것으로 볼 수 있다. 따라서, 실시예에 따라서는, 차선과 노면기호가 겹치는 경우, 차선은 남기고 노면기호만을 삭제하도록 설정하는 것도 가능하다. However, since the lane recognition unit 120 specifies the position of the lane by utilizing the lane location information (P) in which the operator precisely identifies the position of the lane, it is generally considered that the reliability of the lane is higher than the reliability of the road surface sign. can Therefore, depending on the embodiment, when a lane and a road sign overlap, it is also possible to set to delete only the road sign while leaving the lane.

나아가, 실시예에 따라서는, 지도생성부(130)가 의미지도와 영역박스를 혼합하여, 노면기호에 대한 신뢰도를 더욱 향상시키는 것도 가능하다. 구체적으로, 지도생성부(130)는 노면 기호 인식부(110)로부터 제공받은 영역박스를 의미지도(M) 내에 투사시킬 수 있다. 이후, 의미지도(M) 내에 영역박스에 대응하는 영역의 특징지도를 추출할 수 있으며, 특징지도 내에 포함된 각각의 화소들의 특징벡터도 추출할 수 있다. 이 경우, 지도생성부(130)는 특징지도에 대응하는 도로객체가 노면기호에 해당하는지 확인할 수 있으며, 만약, 특징지도에 대응하는 도로객체가 노면기호에 해당하지않으면, 노면기호인식부(110)에서 인식한 노면기호를 삭제시킬 수 있다. 즉, 의미지도(M)에서는 해당 영역이 노면기호가 아니라고 판단한 것이므로, 영역박스 생성 신경망이 잘못 인식한 것으로 간주하여 삭제할 수 있다.Furthermore, depending on the embodiment, the map generator 130 may mix the semantic map and the area box to further improve the reliability of the road sign. Specifically, the map generator 130 may project the area box provided from the road sign recognition unit 110 into the semantic map M. Thereafter, the feature map of the region corresponding to the region box in the semantic map M can be extracted, and the feature vector of each pixel included in the feature map can also be extracted. In this case, the map generator 130 may check whether the road object corresponding to the feature map corresponds to the road surface sign, and if the road object corresponding to the feature map does not correspond to the road surface sign, the road surface sign recognition unit 110 ) can delete the recognized road sign. That is, since it is determined that the corresponding area is not a road sign in the semantic map (M), the area box generating neural network may consider it to be mistakenly recognized and delete it.

도5는 본 발명의 일 실시예에 의한 고정밀지도생성방법을 나타내는 순서도이다. 여기서, 고정밀지도생성방법의 각 단계들은 고정밀지도생성장치에 의하여 수행될 수 있다. 5 is a flowchart illustrating a method for generating a high-precision map according to an embodiment of the present invention. Here, each step of the high-precision map generating method may be performed by a high-precision map generating device.

구체적으로, 고정밀지도생성장치는 영역박스 검출 신경망을 이용하여, 항공영상 내에 포함된 도로의 노면기호를 인식하고, 노면기호의 위치정보 및 방향정보를 나타내는 영역박스를 생성할 수 있다(S10). 여기서, 영역박스는 방향성을 가지는 지향성 영역 박스(OBB: Oriented Bounding Box)일 수 있으며, 영역박스 검출 신경망은 SCRDet 알고리즘을 이용할 수 있다. Specifically, the high-precision map generating device may recognize a road sign included in an aerial image using an area box detection neural network, and generate an area box indicating location information and direction information of the road surface sign (S10). Here, the area box may be an Oriented Bounding Box (OBB) having directionality, and the area box detection neural network may use the SCRDet algorithm.

여기서, 노면 기호의 방향이 잘못 인식되는 경우가 존재할 수 있으며, 이 경우 고정밀지도생성장치는 노면기호의 방향을 교정할 수 있다. 구체적으로, 고정밀지도생성장치는 항공영상 내에 포함된 도로의 방향을 인식하여 도로방향정보를 생성할 수 있으며, 도로방향정보를 이용하여 노면기호의 방향정보를 보정할 수 있다. Here, there may be a case where the direction of the road sign is incorrectly recognized, and in this case, the high precision map generating device can correct the direction of the road sign. Specifically, the high-precision map generation device may generate road direction information by recognizing the direction of a road included in an aerial image, and may correct direction information of a road surface sign using the road direction information.

실시예에 따라서는, 도로의 방향과 함께, 인접하는 노면기호들의 방향을 고려하여 해당 노면 기호의 방향을 교정하는 것도 가능하다. 즉, 고정밀지도생성장치는 노면기호의 위치정보 및 방향정보를 이용하여 인접하는 노면기호들을 그룹핑할 수 있으며, 그룹핑된 각각의 노면기호들의 방향정보의 평균값과, 도로방향정보의 평균값을 이용하여 그룹핑된 각각의 노면기호들의 대표 방향정보를 생성할 수 있다. 이후, 대표방향정보를 상기 그룹핑된 각각의 노면기호들의 방향정보로 설정할수 있다. Depending on embodiments, it is also possible to correct the direction of a corresponding road sign in consideration of the direction of the road and the directions of adjacent road signs. That is, the high-precision map generator can group adjacent road signs using location information and direction information of road signs, and grouping using the average value of direction information of each grouped road sign and the average value of road direction information. It is possible to generate representative direction information of each road sign. Thereafter, representative direction information may be set as direction information of each of the grouped road signs.

또한, 고정밀지도생성장치는 의미추출 신경망을 이용하여, 항공영상 내에 포함된 도로객체들을 인식하고, 입력된 차선위치정보에 따라 도로 내 차선을 특정하여 각각의 차선의 종류를 분류할 수 있다(S20). In addition, the high-precision map generation device recognizes road objects included in the aerial image using a semantic extraction neural network, and can classify the type of each lane by specifying the lanes on the road according to the input lane location information (S20). ).

구체적으로, 고정밀지도생성장치는 의미추출 신경망을 이용하여, 항공영상 내에 포함된 각각의 화소들을 복수의 도로객체 중 어느 하나로 분류할 수 있으며, 도로객체들을 포함하는 의미지도를 생성할 수 있다. Specifically, the high-precision map generation device may classify each pixel included in the aerial image as one of a plurality of road objects using a semantic extraction neural network, and may generate a semantic map including the road objects.

이후, 차선들의 위치를 나타내는 차선위치정보를 입력받으면, 의미지도에서 차선위치정보에 대응하는 화소들을 차선으로 설정하고, 설정된 차선의 종류를 분류할 수 있다. 여기서 차선위치정보는 작업자가 항공영상 내에 포함된 각각의 차선들을 확인한 후, 항공영상 내에 나타난 해당 차선의 위치를 특정하여 생성한 것일 수 있다. 즉, 차선위치에 대한 정확도를 높이기 위하여, 작업자가 직접 각각의 차선의 위치를 특정하여 차선위치정보를 생성하도록 할 수 있다. Then, when lane location information indicating the location of lanes is received, pixels corresponding to the lane location information may be set as lanes in the semantic map, and types of the set lanes may be classified. Here, the lane location information may be created by a worker identifying each lane included in the aerial image and then specifying the location of the corresponding lane appearing in the aerial image. That is, in order to increase the accuracy of the lane position, the operator may directly specify the position of each lane to generate lane position information.

이 경우, 차선위치정보는 작업자가 고정밀지도생성장치와는 별도로 생성할 수 있으며, 외부로부터 해당 항공영상에 대한 차선위치정보를 수신할 수 있다. 다만, 실시예에 따라서는, 고정밀지도생성장치가 작업자에게 차선위치지도를 생성할수 있는 인터페이스를 제공하는 것도 가능하다. In this case, the lane location information can be generated separately from the high-precision map generating device by the operator, and the lane location information for the corresponding aerial image can be received from the outside. However, depending on the embodiment, it is also possible for the high-precision map generating device to provide an interface for generating a lane location map to the operator.

한편, 차선들의 위치를 나타내는 차선위치정보를 입력받으면, 의미지도로부터 차선위치정보에 대응하는 화소들의 특징벡터를 추출할 수 있으며, 추출된 특징벡터들을 샘플링하여 차선에 대응하는 차선특징벡터를 생성할 수 있다. 이후, 차선특징벡터를 이용하여 차선들의 종류를 구별할 수 있다. Meanwhile, when lane location information indicating the location of lanes is received, feature vectors of pixels corresponding to the lane location information may be extracted from a semantic map, and lane feature vectors corresponding to lanes may be generated by sampling the extracted feature vectors. can Thereafter, the types of lanes may be distinguished using the lane feature vectors.

추가적으로, 실시예에 따라서는, 일부 항공영상에 대응하는 차선위치정보가 입력되지 않는 경우가 발생할 수 있다. 이 경우, 고정밀지도생성장치는 의미지도로부터 차선을 특정할 수 있다. 즉, 차선위치정보가 입력되지 않는 경우에는, 의미지도로부터 차선으로 분류된 대상 화소들을 추출할 수 있으며, 대상 화소들을 묶어 차선으로 특정할 수 있다.Additionally, depending on embodiments, lane position information corresponding to some aerial images may not be input. In this case, the high-precision map generator can specify lanes from the semantic map. That is, when lane location information is not input, target pixels classified as lanes may be extracted from the semantic map, and target pixels may be grouped and specified as lanes.

구체적으로, 차선으로 분류된 복수의 대상화소들 중에서, 서로 설정거리 이내에 위치하는 대상화소들을 묶어 화소그룹을 형성할 수 있다. 항공영상 내에는 복수의 차선이 존재할 수 있으므로, 각각의 차선별로 화소그룹을 형성하기 위하여, 서로 설정거리 이내에 위치하는 대상화소들을 동일한 화소그룹으로 묶을 수 있다. Specifically, among a plurality of target pixels classified into lanes, target pixels positioned within a set distance from each other may be grouped to form a pixel group. Since a plurality of lanes may exist in an aerial image, in order to form a pixel group for each lane, target pixels positioned within a set distance from each other may be grouped into the same pixel group.

이후, 화소그룹에 대한 간략화(vector simplification)을 수행하여, 각각의 차선을 특정할 수 있다. 화소그룹은 하나의 직선 형태로 나타나지 않을 수 있으므로, 직선화를 위해 간략화를 수행할 수 있으며, 실시예에 따라서는 Douglas-peucker 기법을 활용할 수 있다. Thereafter, each lane may be specified by performing vector simplification on the pixel group. Since the pixel group may not appear as a single straight line, simplification may be performed for straightening, and the Douglas-peucker technique may be used depending on the embodiment.

한편, 도5는 영역박스를 생성하는 단계(S10) 이후에 차선의 종류를 분류하는 단계(S20)가 수행되는 것으로 도시되어 있으나, 본 발명이 이에 한정되는 것은 아니며, 차선의 종류를 분류하는 단계(S20)가 먼저 수행되거나, 영역박스를 생성하는 단계(S10)와 차선의 종류를 분류하는 단계(S20)가 병렬적으로 동시에 수행되는 것도 가능하다. Meanwhile, although FIG. 5 shows that the step of classifying the type of lane (S20) is performed after the step of generating the area box (S10), the present invention is not limited thereto, and the step of classifying the type of lane is not limited thereto. It is also possible that (S20) is performed first, or that the step of generating area boxes (S10) and the step of classifying lane types (S20) are simultaneously performed in parallel.

이후, 고정밀지도생성장치는, 노면기호 및 차선들을 이용하여, 항공영상에 대응하는 고정밀지도를 생성할 수 있다(S30). 여기서, 각각의 노면기호와 차선은 항공영상 내의 영상좌표계를 이용하여 특정한 것일 수 있다. 다만, 고정밀지도는 실제 지리좌표계로 제공되어야 하므로, 고정밀지도생성장치는 각각의 노면기호 및 차선들의 좌표값을 실제 지리좌표계로 변환하여 고정밀지도(B)를 생성할 수 있다. Thereafter, the high-precision map generating device may generate a high-precision map corresponding to the aerial image using road signs and lanes (S30). Here, each road sign and lane may be specified using an image coordinate system in an aerial image. However, since the high-precision map must be provided in an actual geographic coordinate system, the high-precision map generator can generate the high-precision map B by converting the coordinate values of each road sign and lanes into the actual geographic coordinate system.

한편, 고정밀지도생성장치가 인식한 각각의 노면기호와 차선이, 고정밀지도 내에서 겹치는 등의 경우가 발생할 수 있다. 즉, 노면기호와 차선 중 어느 하나가 잘못 인식될 수 있으며, 이 경우, 고정밀지도생성장치는 인식된 노면기호와 차선 중에서 신뢰도가 높은 객체는 남기고, 신뢰도가 낮은 객체는 삭제할 수 있다. 각각의 노면기호와 차선에 대한 신뢰도는, 영역박스 추출 신경망이나 의미추출 신경망으로부터 제공받을 수 있으므로, 이를 비교하여 삭제할 객체를 선택할 수 있다. 다만, 차선의 경우 작업자가 차선의 위치를 정밀하게 특정한 차선위치정보(P)를 활용하여 차선의 위치를 특정한 것이므로, 일반적으로는 차선의 신뢰도가 노면기호의 신뢰도보다 높은 것으로 볼 수 있다. 따라서, 실시예에 따라서는, 차선과 노면기호가 겹치는 경우, 차선은 남기고 노면기호만을 삭제하도록 설정하는 것도 가능하다. On the other hand, each road sign and lane recognized by the high-precision map generator may overlap in the high-precision map. That is, any one of the road sign and lane may be recognized incorrectly. In this case, the high-precision map generating device may retain objects with high reliability and delete objects with low reliability among the recognized road signs and lanes. Since the reliability of each road sign and lane can be provided from an area box extraction neural network or a meaning extraction neural network, an object to be deleted can be selected by comparing them. However, in the case of a lane, since the operator specifies the location of the lane by using the lane location information (P) that precisely specifies the location of the lane, the reliability of the lane can generally be regarded as higher than the reliability of the road surface sign. Therefore, depending on the embodiment, when a lane and a road sign overlap, it is also possible to set to delete only the road sign while leaving the lane.

나아가, 실시예에 따라서는, 의미지도와 영역박스를 혼합하여, 노면기호에 대한 신뢰도를 더욱 향상시키는 것도 가능하다. 구체적으로, 영역박스를 의미지도 내에 투사시켜, 의미지도로부터 영역박스에 대응하는 영역의 특징지도를 추출할 수 있다. 이후, 특징지도 내에 포함된 각각의 화소들의 특징벡터도 추출하여 특징지도에 대응하는 도로객체가 노면기호에 해당하는지 확인할 수 있으며, 만약, 특징지도에 대응하는 도로객체가 노면기호에 해당하지않으면, 해당 노면기호는 삭제시킬 수 있다. 즉, 의미지도에서 해당 영역이 노면기호가 아니라고 판단한 것이므로, 영역박스 생성 신경망이 잘못 인식한 것으로 간주하여 삭제할 수 있다.Furthermore, depending on the embodiment, it is possible to further improve the reliability of the road sign by mixing the semantic map and the area box. Specifically, a feature map of a region corresponding to the region box may be extracted from the semantic map by projecting the region box into the semantic map. Then, it is possible to check whether the road object corresponding to the feature map corresponds to the road surface sign by extracting the feature vector of each pixel included in the feature map. If the road object corresponding to the feature map does not correspond to the road surface sign, The road sign may be deleted. That is, since it is determined that the corresponding area is not a road sign in the semantic map, the area box generating neural network may consider it to be erroneously recognized and delete it.

전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수개 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 애플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The above-described present invention can be implemented as computer readable code on a medium on which a program is recorded. The computer-readable medium may continuously store programs executable by the computer or temporarily store them for execution or download. In addition, the medium may be various recording means or storage means in the form of a single or combined hardware, but is not limited to a medium directly connected to a certain computer system, and may be distributed on a network. Examples of the medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CD-ROM and DVD, magneto-optical media such as floptical disks, and ROM, RAM, flash memory, etc. configured to store program instructions. In addition, examples of other media include recording media or storage media managed by an app store that distributes applications, a site that supplies or distributes various other software, and a server. Accordingly, the above detailed description should not be construed as limiting in all respects and should be considered illustrative. The scope of the present invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.

본 발명은 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 본 발명에 따른 구성요소를 치환, 변형 및 변경할 수 있다는 것이 명백할 것이다.The present invention is not limited by the foregoing embodiments and accompanying drawings. It will be clear to those skilled in the art that the components according to the present invention can be substituted, modified, and changed without departing from the technical spirit of the present invention.

100: 고정밀지도생성장치
110: 노면기호인식부
120: 차선인식부
130: 지도생성부
100: high-precision map generator
110: road sign recognition unit
120: lane recognition unit
130: map generator

Claims (13)

영역박스 검출 신경망을 이용하여, 항공영상 내에 포함된 도로의 노면기호를 인식하고, 상기 노면기호의 위치정보 및 방향정보를 나타내는 영역박스를 생성하는 단계;
의미추출 신경망을 이용하여, 상기 항공영상 내에 포함된 도로객체들을 인식하고, 도로 내 차선을 특정하여 각각의 차선의 종류를 분류하는 단계; 및
상기 노면기호 및 차선들을 이용하여, 상기 항공영상에 대응하는 고정밀지도를 생성하는 단계를 포함하는 것으로,
상기 영역박스를 생성하는 단계는
상기 항공영상 내에 포함된 도로의 방향을 인식하여 도로방향정보를 생성하고, 상기 도로방향정보를 이용하여 상기 노면기호의 방향정보를 보정하는 것을 특징으로 하는 고정밀지도생성방법.
Recognizing a road surface included in the aerial image by using an area box detection neural network, and generating an area box indicating location information and direction information of the road surface symbol;
Recognizing road objects included in the aerial image using a semantic extraction neural network, specifying lanes on the road, and classifying the type of each lane; and
Generating a high-precision map corresponding to the aerial image using the road sign and lanes,
The step of creating the area box is
The high-precision map generation method characterized by recognizing the direction of the road included in the aerial image to generate road direction information, and correcting the direction information of the road surface sign using the road direction information.
삭제delete 제1항에 있어서, 상기 영역박스를 생성하는 단계는
상기 노면기호의 위치정보 및 방향정보를 이용하여 인접하는 노면기호들을 그룹핑하고, 그룹핑된 각각의 노면기호들의 방향정보의 평균값과, 도로방향정보의 평균 값을 이용하여 상기 그룹핑된 각각의 노면기호들의 대표 방향정보를 생성하며, 상기 대표방향정보를 상기 그룹핑된 각각의 노면기호들의 방향정보로 설정하는 것을 특징으로 하는 고정밀지도생성방법.
The method of claim 1, wherein the step of generating the area box
Adjacent road surface signs are grouped using the location information and direction information of the road surface sign, and the average value of the direction information of each grouped road surface sign and the average value of the road direction information are used to determine the number of the grouped road signs. A high-precision map generating method characterized in that generating representative direction information and setting the representative direction information as direction information of each of the grouped road signs.
제1항에 있어서, 상기 차선의 종류를 분류하는 단계는
상기 의미추출 신경망을 이용하여, 상기 항공영상 내에 포함된 각각의 화소들을 복수의 도로객체 중 어느 하나로 분류하고, 상기 도로객체들을 포함하는 의미지도를 생성하는 것을 특징으로 하는 고정밀지도생성방법.
The method of claim 1, wherein the classifying the type of lane
and classifying each pixel included in the aerial image as one of a plurality of road objects using the semantic extraction neural network, and generating a semantic map including the road objects.
제4항에 있어서, 상기 차선의 종류를 분류하는 단계는
상기 차선들의 위치를 나타내는 차선위치정보를 입력받으면, 상기 의미지도에서 상기 차선위치정보에 대응하는 화소들을 상기 차선으로 설정하고, 상기 설정된 차선의 종류를 분류하는 것을 특징으로 하는 고정밀지도생성방법.
The method of claim 4, wherein the classifying the type of lane
The method of generating a high-precision map, characterized in that, when lane location information indicating the location of the lanes is received, pixels corresponding to the lane location information are set as the lanes in the semantic map, and types of the set lanes are classified.
제5항에 있어서, 상기 차선의 종류를 분류하는 단계는
상기 의미지도로부터 상기 차선위치정보에 대응하는 화소들의 특징벡터를 추출하고, 상기 추출된 특징벡터들을 샘플링하여 상기 차선에 대응하는 차선특징벡터를 생성하며, 상기 차선특징벡터를 이용하여 상기 차선들의 종류를 구별하는 것을 특징으로 하는 고정밀지도 생성방법.
The method of claim 5, wherein the classifying the type of lane
Feature vectors of pixels corresponding to the lane location information are extracted from the semantic map, lane feature vectors corresponding to the lanes are generated by sampling the extracted feature vectors, and types of the lanes are used by using the lane feature vectors. High-precision map generation method, characterized in that for distinguishing.
제4항에 있어서, 상기 차선의 종류를 분류하는 단계는
상기 차선들의 위치를 나타내는 차선위치정보가 입력되지 않으면, 상기 의미지도에서 상기 차선으로 분류된 대상 화소들을 추출하고, 상기 대상 화소들을 묶어 상기 차선으로 특정하는 것을 특징으로 하는 고정밀지도 생성방법.
The method of claim 4, wherein the classifying the type of lane
The method of generating a high-precision map, characterized in that, if lane location information indicating the location of the lanes is not input, target pixels classified as the lanes are extracted from the semantic map, and the target pixels are grouped and specified as the lanes.
제7항에 있어서, 상기 차선의 종류를 분류하는 단계는
복수의 대상화소들 중에서, 서로 설정거리 이내에 위치하는 대상화소들을 묶어 화소그룹을 형성하고, 상기 화소그룹에 대한 간략화(vector simplification)을 수행하여, 각각의 차선을 특정하는 것을 특징으로 하는 고정밀지도 생성방법.
The method of claim 7, wherein the classifying the type of the lane
Among a plurality of target pixels, target pixels located within a set distance from each other are grouped to form a pixel group, and vector simplification is performed on the pixel group to specify each lane. Way.
제1항에 있어서, 상기 고정밀지도를 생성하는 단계는
상기 고정밀지도 내에서 상기 노면기호와 차선의 위치가 서로 겹치면, 상기 노면기호를 삭제하는 것을 특징으로 하는 고정밀지도 생성방법.
The method of claim 1, wherein generating the high-precision map
The high-precision map generation method of claim 1 , wherein the road-surface sign is deleted if the road-surface sign and the position of the lane overlap each other in the high-precision map.
제4항에 있어서, 상기 고정밀지도를 생성하는 단계는
상기 영역박스를 상기 의미지도 내에 투사시켜, 상기 영역박스에 대응하는 영역의 특징지도를 추출하고, 상기 특징지도 내에 포함된 각각의 화소들의 특징벡터를 이용하여, 상기 특징지도에 대응하는 도로객체가 노면기호에 해당하는지 확인하는 것을 특징으로 하는 고정밀지도 생성방법.
The method of claim 4, wherein generating the high-precision map
The area box is projected into the semantic map, a feature map of the area corresponding to the area box is extracted, and a road object corresponding to the feature map is obtained by using a feature vector of each pixel included in the feature map. A method for generating a high-precision map, characterized in that for confirming whether it corresponds to a road surface sign.
제10항에 있어서, 상기 고정밀지도를 생성하는 단계는
상기 특징지도에 대응하는 도로객체가 상기 노면기호에 해당하지않으면, 상기 노면기호는 삭제하는 것을 특징으로 하는 고정밀지도 생성방법.
11. The method of claim 10, wherein generating the high-precision map
and deleting the road surface sign if the road object corresponding to the feature map does not correspond to the road surface sign.
하드웨어와 결합되어 제1항, 제3항 내지 제11항 중 어느 한 항의 고정밀지도 생성방법을 실행시키기 위하여 매체에 저장된 컴퓨터 프로그램.
A computer program stored in a medium to execute the high-precision map generation method of any one of claims 1, 3 to 11 in combination with hardware.
영역박스 검출 신경망을 이용하여, 항공영상 내에 포함된 도로의 노면기호를 인식하고, 상기 노면기호의 위치정보 및 방향정보를 나타내는 영역박스를 생성하는 노면기호인식부;
의미추출 신경망을 이용하여, 상기 항공영상 내에 포함된 도로객체들을 인식하고, 도로 내 차선을 특정하여 각각의 차선의 종류를 분류하는 차선인식부; 및
상기 노면기호 및 차선들을 이용하여, 상기 항공영상에 대응하는 고정밀지도를 생성하는 지도생성부를 포함하는 것으로,
상기 노면기호인식부는
상기 항공영상 내에 포함된 도로의 방향을 인식하여 도로방향정보를 생성하고, 상기 도로방향정보를 이용하여 상기 노면기호의 방향정보를 보정하는 것을 특징으로 하는 고정밀지도생성장치.
a road sign recognition unit for recognizing a road surface included in an aerial image using an area box detection neural network and generating an area box indicating location and direction information of the road surface;
a lane recognition unit for recognizing road objects included in the aerial image using a semantic extraction neural network, specifying lanes on the road, and classifying each lane type; and
It includes a map generator for generating a high-precision map corresponding to the aerial image using the road sign and lanes,
The road surface sign recognition unit
The high-precision map generating device characterized in that for generating road direction information by recognizing the direction of the road included in the aerial image, and correcting the direction information of the road surface sign using the road direction information.
KR1020200067670A 2020-06-04 2020-06-04 Apparatus and method for generating High Definition Map KR102477218B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200067670A KR102477218B1 (en) 2020-06-04 2020-06-04 Apparatus and method for generating High Definition Map
KR1020220007536A KR102480972B1 (en) 2020-06-04 2022-01-19 Apparatus and method for generating High Definition Map

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200067670A KR102477218B1 (en) 2020-06-04 2020-06-04 Apparatus and method for generating High Definition Map

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020220007536A Division KR102480972B1 (en) 2020-06-04 2022-01-19 Apparatus and method for generating High Definition Map

Publications (2)

Publication Number Publication Date
KR20210150805A KR20210150805A (en) 2021-12-13
KR102477218B1 true KR102477218B1 (en) 2022-12-13

Family

ID=78832034

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020200067670A KR102477218B1 (en) 2020-06-04 2020-06-04 Apparatus and method for generating High Definition Map
KR1020220007536A KR102480972B1 (en) 2020-06-04 2022-01-19 Apparatus and method for generating High Definition Map

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020220007536A KR102480972B1 (en) 2020-06-04 2022-01-19 Apparatus and method for generating High Definition Map

Country Status (1)

Country Link
KR (2) KR102477218B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114509065B (en) * 2022-02-16 2023-11-07 北京易航远智科技有限公司 Map construction method, system, vehicle terminal, server and storage medium
KR102503679B1 (en) * 2022-05-27 2023-02-24 주식회사 라이드플럭스 Method, apparatus and computer program for generating precision map for automatic driving control of vehicle
KR102495954B1 (en) * 2022-07-08 2023-02-06 주식회사 네오스펙트라 3D model generation method using 2D image, 3D model generation system and computer program for the same

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105260699B (en) * 2015-09-10 2018-06-26 百度在线网络技术(北京)有限公司 A kind of processing method and processing device of lane line data
KR101992398B1 (en) * 2017-11-10 2019-06-24 연세대학교 산학협력단 Method and Apparatus for Recognizing Road Symbols and Lanes
KR20200005818A (en) * 2018-07-09 2020-01-17 현대자동차주식회사 System and method of building load map

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Seyed Majid Azimi 등, SkyScapes - Fine-Grained Semantic Understanding of Aerial Scenes, ICCV19.(2019.10.27.) 1부.*

Also Published As

Publication number Publication date
KR20220013439A (en) 2022-02-04
KR20210150805A (en) 2021-12-13
KR102480972B1 (en) 2022-12-23

Similar Documents

Publication Publication Date Title
KR102480972B1 (en) Apparatus and method for generating High Definition Map
CN107235044B (en) A kind of restoring method realized based on more sensing datas to road traffic scene and driver driving behavior
Jeong et al. Road-SLAM: Road marking based SLAM with lane-level accuracy
CN109931939B (en) Vehicle positioning method, device, equipment and computer readable storage medium
CN109470254B (en) Map lane line generation method, device, system and storage medium
CN111801711A (en) Image annotation
CN111912416B (en) Method, device and equipment for positioning equipment
KR102091580B1 (en) Method for collecting road signs information using MMS
KR101921429B1 (en) Method and system for making precise map
CN101842808A (en) Method of and apparatus for producing lane information
CN112232275B (en) Obstacle detection method, system, equipment and storage medium based on binocular recognition
CN114729803A (en) Updating map data
JP2009180631A (en) Navigator, navigation method and program
JP2008065087A (en) Apparatus for creating stationary object map
US20220187095A1 (en) Landmark location estimation apparatus and method, and computer-readable recording medium storing computer program programmed to perform method
Vu et al. Traffic sign detection, state estimation, and identification using onboard sensors
JP2020067896A (en) Travelable direction detector and travelable direction detection method
Guzhva et al. Evaluating the Accuracy of Tram Positioning System in High-Rise Building Environment Using Data from Visual Geoinformation Systems
CN114593739B (en) Vehicle global positioning method and device based on visual detection and reference line matching
US20130034261A1 (en) Road sign detection and tracking within field-of-view (FOV) video data
US20200318977A1 (en) Method for localizing and enhancing a digital map by a motor vehicle; localization device
WO2020118623A1 (en) Method and system for generating an environment model for positioning
JP2012099010A (en) Image processing apparatus and image processing program
CN115438079A (en) Position information calculation device and position information calculation method
WO2022021209A9 (en) Electronic map generation method and apparatus, computer device, and storage medium

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right