KR20210150805A - Apparatus and method for generating High Definition Map - Google Patents

Apparatus and method for generating High Definition Map Download PDF

Info

Publication number
KR20210150805A
KR20210150805A KR1020200067670A KR20200067670A KR20210150805A KR 20210150805 A KR20210150805 A KR 20210150805A KR 1020200067670 A KR1020200067670 A KR 1020200067670A KR 20200067670 A KR20200067670 A KR 20200067670A KR 20210150805 A KR20210150805 A KR 20210150805A
Authority
KR
South Korea
Prior art keywords
lane
road
map
generating
road sign
Prior art date
Application number
KR1020200067670A
Other languages
Korean (ko)
Other versions
KR102477218B1 (en
Inventor
김지원
유찬미
이시영
Original Assignee
네이버랩스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 네이버랩스 주식회사 filed Critical 네이버랩스 주식회사
Priority to KR1020200067670A priority Critical patent/KR102477218B1/en
Publication of KR20210150805A publication Critical patent/KR20210150805A/en
Priority to KR1020220007536A priority patent/KR102480972B1/en
Application granted granted Critical
Publication of KR102477218B1 publication Critical patent/KR102477218B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/003Maps
    • G09B29/006Representation of non-cartographic information on maps, e.g. population distribution, wind direction, radiation levels, air and sea routes
    • G09B29/007Representation of non-cartographic information on maps, e.g. population distribution, wind direction, radiation levels, air and sea routes using computer methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3852Data derived from aerial or satellite images
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/3815Road data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Abstract

The present application relates to a high precision map generation device and a high precision map generation method. A high precision map generation method according to one embodiment of the present invention may comprise: a step of recognizing road surface signs of a road included in an aerial image by using an area box detection neural network, and generating an area box which indicates location information and direction information of the road signs; a step of recognizing road objects included in the aerial image using a semantic extraction neural network, specifying lanes in the road according to input lane location information, and classifying the type of each lane; and a step of generating a high precision map corresponding to the aerial image by using the road signs and the lanes. According to the present invention, various road signs and lanes can be accurately recognized and classified.

Description

고정밀지도생성장치 및 고정밀지도생성방법 {Apparatus and method for generating High Definition Map}{Apparatus and method for generating High Definition Map}

본 출원은 고정밀지도생성장치 및 고정밀지도생성방법에 관한 것으로, 특히 항공영상으로부터 다양한 노면기호 또는 차선을 정확하게 인식하고 분류할 수 있는, 고정밀지도생성장치 및 고정밀지도생성방법에 관한 것이다. The present application relates to a high-precision map generating apparatus and a high-precision map generating method, and more particularly, to a high-precision map generating apparatus and a high-precision map generating method, which can accurately recognize and classify various road signs or lanes from aerial images.

차량의 무인자율화(자율주행차량)는 크게 주위 환경을 인식하는 단계와, 인식된 환경으로부터 주행경로를 계획하는 단계, 그리고 계획된 경로를 따라 주행하는 단계로 구성될 수 있으며, 이 과정에서 가장 기본적으로 요구되는 것이 정밀도로지도(High Definition Map, HD-Map)이다.Unmanned autonomy of a vehicle (autonomous driving vehicle) can be largely composed of a stage of recognizing the surrounding environment, a stage of planning a driving route from the recognized environment, and a stage of driving along the planned path. What is required is a High Definition Map (HD-Map).

정밀도로지도(HD-Map)는 도로, 지형의 고저, 곡률 등과 같은 주변환경에 대한 정보가 3D로 구현된 지도로서, 특히 도로의 주행시 필요한 다양한 정보들을 포함하고 있다. 예를 들어, 정밀도로지도(HD-Map)에는 도로의 차선, 주행방향, 교차로, 표지판, 신호등, 제한속도 등과 같이 해당 도로를 주행하는데 필요한 각종 정보들을 포함하고 있다.A precision road map (HD-Map) is a map in which information about the surrounding environment, such as roads, terrain, and curvature, is implemented in 3D. In particular, it includes various information necessary for driving on roads. For example, a precision road map (HD-Map) includes various types of information necessary for driving on the road, such as lanes, driving directions, intersections, signs, traffic lights, and speed limits.

자율주행차량은 정밀도로지도(HD-Map)를 바탕으로 주위환경을 인식하면서 도로를 주행하므로, 정밀도로지도(HD-Map)는 자율주행분야에 있어서 가장 기본이 될 수 있다.Since autonomous vehicles drive on the road while recognizing the surrounding environment based on the HD-Map, the HD-Map can be the most basic in the field of autonomous driving.

본 출원은 항공영상으로부터 다양한 노면기호 또는 차선을 정확하게 인식하고 분류할 수 있는 고정밀지도생성장치 및 고정밀지도생성방법을 제공하고자 한다.An object of the present application is to provide a high-precision map generating device and a high-precision map generating method that can accurately recognize and classify various road signs or lanes from aerial images.

본 출원은 항공영상으로부터 인식한 노면기호의 방향을 보다 정확하게 판단할 수 있는 고정밀지도생성장치 및 고정밀지도생성방법을 제공하고자 한다.An object of the present application is to provide a high-precision map generating apparatus and a high-precision map generating method that can more accurately determine the direction of a road sign recognized from an aerial image.

본 출원은 항공영상 내에 포함된 다양한 종류의 차선을 신속하게 분류하는 동시에, 차선의 위치정보를 정밀하게 제공할 수 있는 고정밀지도생성장치 및 고정밀지도생성방법을 제공하고자 한다.An object of the present application is to provide a high-precision map generating device and a high-precision map generating method that can quickly classify various types of lanes included in an aerial image and provide precise location information of the lanes.

본 발명의 일 실시예에 의한 고정밀지도생성방법은, 영역박스 검출 신경망을 이용하여, 항공영상 내에 포함된 도로의 노면기호를 인식하고, 상기 노면기호의 위치정보 및 방향정보를 나타내는 영역박스를 생성하는 단계; 의미추출 신경망을 이용하여, 상기 항공영상 내에 포함된 도로객체들을 인식하고, 입력된 차선위치정보에 따라 도로 내 차선을 특정하여 각각의 차선의 종류를 분류하는 단계; 및 상기 노면기호 및 차선들을 이용하여, 상기 항공영상에 대응하는 고정밀지도를 생성하는 단계를 포함할 수 있다.A high-precision map generation method according to an embodiment of the present invention uses an area box detection neural network to recognize a road sign of a road included in an aerial image, and generates an area box indicating location information and direction information of the road sign. to do; recognizing road objects included in the aerial image using a semantic extraction neural network, specifying a lane in the road according to the input lane location information, and classifying the type of each lane; and generating a high-precision map corresponding to the aerial image by using the road sign and lanes.

본 발명의 일 실시예에 의한 고정밀지도생성장치는, 영역박스 검출 신경망을 이용하여, 항공영상 내에 포함된 도로의 노면기호를 인식하고, 상기 노면기호의 위치정보 및 방향정보를 나타내는 영역박스를 생성하는 노면기호인식부; 의미추출 신경망을 이용하여, 상기 항공영상 내에 포함된 도로객체들을 인식하고, 입력된 차선위치정보에 따라 도로 내 차선을 특정하여 각각의 차선의 종류를 분류하는 차선인식부; 및 상기 노면기호 및 차선들을 이용하여, 상기 항공영상에 대응하는 고정밀지도를 생성하는 지도생성부를 포함할 수있다. A high-precision map generating apparatus according to an embodiment of the present invention recognizes a road sign of a road included in an aerial image by using an area box detection neural network, and generates an area box indicating location information and direction information of the road sign. a road sign recognition unit; a lane recognition unit for recognizing road objects included in the aerial image by using a semantic extraction neural network, specifying a lane on the road according to the input lane location information, and classifying the type of each lane; and a map generator that generates a high-precision map corresponding to the aerial image by using the road sign and lanes.

덧붙여 상기한 과제의 해결수단은, 본 발명의 특징을 모두 열거한 것이 아니다. 본 발명의 다양한 특징과 그에 따른 장점과 효과는 아래의 구체적인 실시형태를 참조하여 보다 상세하게 이해될 수 있을 것이다.Incidentally, the means for solving the above problems do not enumerate all the features of the present invention. Various features of the present invention and its advantages and effects may be understood in more detail with reference to the following specific embodiments.

본 발명의 일 실시예에 의한 고정밀지도생성장치 및 고정밀지도생성방법에 의하면, 항공영상으로부터 다양한 노면기호 또는 차선을 정확하게 인식하고 분류하는 것이 가능하다. According to an apparatus for generating a high-precision map and a method for generating a high-precision map according to an embodiment of the present invention, it is possible to accurately recognize and classify various road signs or lanes from an aerial image.

본 발명의 일 실시예에 의한 고정밀지도생성장치 및 고정밀지도생성방법에 의하면, 항공영상으로부터 인식한 노명기호의 방향을, 노면 기호가 위치하는 도로의 방향이나, 동일한 그룹에 포함된 노면 기호들의 방향을 고려하여 교정할 수 있으므로, 노면 기호의 방향을 보다 정확히 산출할 수 있다. According to the high-precision map generating apparatus and high-precision map generating method according to an embodiment of the present invention, the direction of the old sign recognized from the aerial image is the direction of the road where the road sign is located or the direction of the road signs included in the same group. Since it can be corrected taking into account

본 발명의 일 실시예에 의한 고정밀지도생성장치 및 고정밀지도생성방법에 의하면, 항공영상 내에 포함된 다양한 종류의 차선을 신속하게 분류할 수 있으며, 동시에 차선들에 대한 위치정보를 정밀하게 제공하는 것이 가능하다. According to the high-precision map generating apparatus and high-precision map generating method according to an embodiment of the present invention, it is possible to quickly classify various types of lanes included in an aerial image, and at the same time precisely provide location information for the lanes. It is possible.

다만, 본 발명의 실시예들에 따른 고정밀지도생성장치 및 고정밀지도생성방법이 달성할 수 있는 효과는 이상에서 언급한 것들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.However, the effects achievable by the high-precision map generating apparatus and the high-precision map generating method according to the embodiments of the present invention are not limited to the above-mentioned effects, and other effects not mentioned above can be seen from the description below. It will be clearly understood by those of ordinary skill in the art.

도1은 본 발명의 일 실시예에 의한 고정밀지도생성장치를 나타내는 블록도이다.
도2는 본 발명의 일 실시예에 의한 고정밀지도생성장치가 추출한 노면기호 및 차선을 나타내는 개략도이다.
도3은 본 발명의 일 실시예에 의한 노면기호의 대한 방향 보정을 나타내는 개략도이다.
도4는 본 발명의 일 실시예에 의한 차선 인식을 나타내는 개략도이다.
도5는 본 발명의 일 실시예에 의한 고정밀지도생성방법을 나타내는 순서도이다.
1 is a block diagram showing an apparatus for generating a high-precision map according to an embodiment of the present invention.
2 is a schematic diagram illustrating road signs and lanes extracted by the high-precision map generating apparatus according to an embodiment of the present invention.
3 is a schematic diagram showing direction correction for road signs according to an embodiment of the present invention.
4 is a schematic diagram illustrating lane recognition according to an embodiment of the present invention.
5 is a flowchart illustrating a method for generating a high-precision map according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 즉, 본 발명에서 사용되는 '부'라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, '부'는 어떤 역할들을 수행한다. 그렇지만 '부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '부'들로 결합되거나 추가적인 구성요소들과 '부'들로 더 분리될 수 있다.Hereinafter, the embodiments disclosed in the present specification will be described in detail with reference to the accompanying drawings, but the same or similar components are assigned the same reference numbers regardless of reference numerals, and redundant description thereof will be omitted. The suffixes "module" and "part" for components used in the following description are given or mixed in consideration of only the ease of writing the specification, and do not have distinct meanings or roles by themselves. That is, the term 'unit' used in the present invention means a hardware component such as software, FPGA, or ASIC, and 'unit' performs certain roles. However, 'part' is not limited to software or hardware. The 'unit' may be configured to reside on an addressable storage medium or it may be configured to refresh one or more processors. Thus, as an example, 'part' refers to components such as software components, object-oriented software components, class components and task components, processes, functions, properties, procedures, subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays and variables. Functions provided within components and 'units' may be combined into a smaller number of components and 'units' or further divided into additional components and 'units'.

또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.In addition, in describing the embodiments disclosed in the present specification, if it is determined that detailed descriptions of related known technologies may obscure the gist of the embodiments disclosed in this specification, the detailed description thereof will be omitted. In addition, the accompanying drawings are only for easy understanding of the embodiments disclosed in the present specification, and the technical idea disclosed herein is not limited by the accompanying drawings, and all changes included in the spirit and scope of the present invention , should be understood to include equivalents or substitutes.

최근 자율주행에 대한 관심이 많아지면서 자율주행자동차를 위한 고정밀 지도(High Definition Map)의 필요성이 대두되고 있다. 고정밀 지도에는 자율 주행자동차의 주행시 필요한 차선, 노면 기호 등이 포함될 수 있으며, 이때 각각의 차선이나 노면 기호 등의 위치정보에 대해 매우 높은 정확도가 요구된다. Recently, as interest in autonomous driving has increased, the need for high-definition maps for autonomous vehicles is emerging. The high-precision map may include lanes and road signs necessary for driving an autonomous vehicle, and in this case, very high accuracy is required for location information such as lanes or road signs.

종래에는 고정밀지도의 정확도를 높이기 위하여, 항공영상으로부터 작업자가 직접 도로의 노면 기호와, 차선에 대한 주석작업을 수행하여 고정밀지도를 생성하였다. 다만, 항공영상 내에 포함된 노면 기호와, 차선 등의 위치와 분류를 정확하게 하기 위해서는 숙련된 작업자가 필요하며, 대단위의 지역에 대한 고정밀지도를 작성하기 위해서는, 다수의 작업자가 업무를 수행할 필요가 있다. 즉, 고정밀지도 생성을 위한 주석작업은 오랜 시간과 많은 인력이 요구되는 등의 문제점이 존재하였다. Conventionally, in order to increase the accuracy of a high-precision map, a high-precision map is generated by an operator directly annotating road signs and lanes of roads from aerial images. However, in order to accurately classify the location and classification of road signs and lanes included in the aerial image, skilled workers are required. have. That is, there were problems such as annotating work for generating high-precision maps requiring a long time and a lot of manpower.

고정밀지도 제작과 관련하여, 주행 중인 차량에서 촬영한 영상을 이용한 방안도 제안되고 있다. 그러나, 이 경우 측정되는 노면 기호 또는 차선의 위치가 측정차량을 중심으로 기술되므로, 차량 주행시에는 직접적으로 쓰일 수 있으나, 고정밀지도를 만들기 위해서는 적절하지 않을 수 있다. 즉, 노면 기호 또는 차선의 지리좌표값을 알아내기 위해서는, 측정차량의 정확한 위치정보가 필요하지만, GPS(Global Positioning System)가 부정확한 지역(예를들어, 차량이 밀집한 지역) 등에서는 차량의 위치를 정확하게 파악하기 어려우므로, 노면 기호 또는 차선의 정확한 지리좌표값을 알아내는 것 또한 어려움이 있다. 이외에도, 다른 차량에 의해 가려지거나, 촬영장치의 화각이 나오지 않는 등의 경우에는, 검출장치의 성능과 관계없이 노면 기호 또는 차선의 위치를 찾지 못하는 등의 문제가 존재한다. In relation to the production of high-precision maps, a method using images taken from a moving vehicle has also been proposed. However, in this case, since the measured road sign or the position of the lane is described with the measurement vehicle as the center, it may be used directly while driving the vehicle, but may not be suitable for making a high-precision map. That is, in order to find out the road sign or the geographic coordinates of the lane, accurate location information of the measurement vehicle is required, but the location of the vehicle in an area where the Global Positioning System (GPS) is inaccurate (for example, an area where vehicles are densely populated). Since it is difficult to accurately grasp In addition, in the case of being obscured by other vehicles or the angle of view of the photographing device does not appear, there is a problem such as not being able to find a road sign or a location of a lane regardless of the performance of the detection device.

한편, 본 발명의 일 실시예에 의한 고정밀지도생성장치에 의하면, 고정밀지도의 주석작업을 자동화할 수 있으므로, 주석작업에 소요되는 시간과 비용 등을 절감하는 것이 가능하다. 또한, 본 발명의 일 실시예에 의한 고정밀지도생성장치는 항공영상을 기반으로 노면기호 또는 차선을 인식하므로, 주행 중인 차량에서 촬영한 영상을 이용하는 경우에 발생할 수 있는 문제점들을 해소할 수 있다. Meanwhile, according to the apparatus for generating a high-precision map according to an embodiment of the present invention, since it is possible to automate the annotation operation of the high-precision map, it is possible to reduce the time and cost required for the annotation operation. In addition, since the high-precision map generating apparatus according to an embodiment of the present invention recognizes a road sign or a lane based on an aerial image, it is possible to solve problems that may occur when using an image captured by a driving vehicle.

즉, 본 발명의 일 실시예에 의한 고정밀지도생성장치는, 영상좌표와 지리좌표간의 일대일 대응관계를 미리 알고 있는 항공영상을 이용하므로, 항공영상 내에 검출한 노면 기호의 실제 지리좌표값을 손쉽게 파악하는 것이 가능하다. 또한, 항공영상의 경우 여러 시점(時点)에 다양한 촬영각도로 촬영한 영상을 합성하여 만드는 것으로, 특정 시점에서 어느 노면 기호 또는 차선이 가려졌더라도 다른 시점에서 그 노면 기호 또는 차선이 가려지지 않았다면 최종적으로 합성된 항공영상 내에는 해당 노면 기호 또는 차선이 표시될 수 있다. 따라서, 항공영상을 이용하여 종래의 노면 기호 가려짐 현상을 줄일 수 있으므로, 용이하게 노면 기호 또는 차선의 위치를 찾아낼 수 있다. 이하, 본 발명의 일 실시예에 의한 고정밀지도생성장치를 설명한다. That is, since the high-precision map generating apparatus according to an embodiment of the present invention uses an aerial image that knows in advance the one-to-one correspondence between image coordinates and geographic coordinates, it is easy to grasp the actual geographic coordinate value of the road sign detected in the aerial image. it is possible to do Also, in the case of aerial video, it is created by synthesizing images taken at various points of time and from various shooting angles. A corresponding road sign or lane may be displayed in the aerial image synthesized with Therefore, since the conventional occlusion phenomenon of road signs can be reduced by using the aerial image, it is possible to easily find the positions of road signs or lanes. Hereinafter, a high-precision map generating apparatus according to an embodiment of the present invention will be described.

도1은 본 발명의 일 실시예에 의한 고정밀지도생성장치를 나타내는 블록도이다. 도1을 참조하면, 본 발명의 일 실시예에 의한 고정밀지도생성장치(100)는 노면기호인식부(110), 차선인식부(120) 및 지도생성부(130)를 포함할 수 있다. 1 is a block diagram showing an apparatus for generating a high-precision map according to an embodiment of the present invention. Referring to FIG. 1 , a high-precision map generating apparatus 100 according to an embodiment of the present invention may include a road sign recognition unit 110 , a lane recognition unit 120 , and a map generating unit 130 .

노면기호인식부(110)는, 영역박스 검출 신경망을 이용하여, 항공영상(A) 내에 포함된 도로의 노면기호를 인식하고, 노면기호의 위치정보 및 방향정보를 나타내는 영역박스를 생성할 수 있다. The road sign recognition unit 110 may recognize a road sign of a road included in the aerial image A by using the area box detection neural network, and generate an area box indicating location information and direction information of the road sign. .

여기서, 영역박스는 도2(a)에 도시한 바와 같이, 방향성을 가지는 지향성 영역 박스(OBB: Oriented Bounding Box)일 수 있으며, 영역박스 검출 신경망은 SCRDet 알고리즘을 이용하여 영역박스를 생성하는 것일 수 있다.Here, the area box may be an Oriented Bounding Box (OBB), as shown in Fig. 2(a), and the area box detection neural network may generate an area box using the SCRDet algorithm. have.

구체적으로, SCRDet 알고리즘을 이용하는 경우, 합성곱 신경망(convolution network)을 이용하여 항공영상(A)에 대한 특징 지도(feature map)을 산출할 수 있으며, 이후 특징 지도는 영역 제안 신경망으로 입력되어, 항공영상(A) 내에서 노면 기호가 존재할 수 있는 후보 위치(ROI, Region Of Interest)들을 산출할 수 있다. 후보 위치를 포함하는 특징 지도는 다시 합성곱 신경망으로 입력되어 영역 박스 회귀(regression)와 클래스 분류를 수행할 수 있으며, 이 과정에서 각 후보 위치 영역의 보정과 노면 기호의 방향 예측이 이루어지게 된다. 즉, 노면기호의 위치정보 및 방향정보가 결정되어 영역박스가 생성될 수 있다. Specifically, when using the SCRDet algorithm, a feature map for the aerial image (A) can be calculated using a convolutional network, and then the feature map is input to the area suggestion neural network, Candidate locations (regions of interest, ROIs) in which road signs may exist in the image A may be calculated. The feature map including the candidate positions is input back into the convolutional neural network to perform region box regression and class classification. In this process, correction of each candidate position region and direction prediction of road signs are performed. That is, the location information and direction information of the road sign may be determined to generate an area box.

다만, 항공영상(A) 내의 노면기호를 인식하는 경우, 도3(a)에서 도시한 바와 같이 동일한 방향을 가지는 객체임에도 불구하고, 일부 노면 기호가 다른 방향을 가지는 것으로 잘못 인식되는 경우가 발생할 수 있었다. 이를 해소하기 위하여, 노면기호인식부(110)는 정확한 방향을 인식할 수 있도록, 노면기호의 방향을 교정할 수 있다. However, when recognizing a road sign in the aerial image (A), as shown in FIG. 3( a ), even though the object has the same direction, some road signs may be mistakenly recognized as having a different direction. there was. In order to solve this problem, the road sign recognition unit 110 may correct the direction of the road sign to recognize the correct direction.

구체적으로, 도3(b)에 도시한 바와 같이, 일반적으로 도로에는 방향성이 존재할 수 있으며, 도로의 방향성은 노면 기호의 방향과 높은 상관 관계를 가질 수 있다. 따라서, 노면기호인식부(110)는 항공영상(A) 내에 포함된 도로의 방향성을 파악한 후, 이를 고려하여 도3(c)와 같이 노면 기호의 방향을 교정할 수 있다.Specifically, as shown in FIG. 3(b), in general, a direction may exist in a road, and the direction of the road may have a high correlation with the direction of a road sign. Accordingly, the road sign recognition unit 110 may correct the direction of the road sign as shown in FIG. 3( c ) in consideration of the direction of the road included in the aerial image A .

여기서, 도로의 방향정보는 도로예측신경망을 이용하여 생성할 수 있으며, 도로 예측 신경망은 항공영상(A) 내의 각 화소들이 향하는 방향각 예측치를 포함하는 매트릭스를 출력할 수 있다. 이때, 도로 예측 신경망은 샘플 항공영상들을 이용하여, 도로 영역의 각 화소들에 대한 정답(ground truth) 방향과의 L2 loss를 줄이도록 학습된 것일 수 있다. 이에 따라, 항공영상(A) 내에 포함된 도로의 방향을 확인할 수 있으며, 노면기호인식부(110)는 도로의 방향을 고려하여 노면 기호의 방향을 교정할 수 있다. Here, the direction information of the road may be generated using a road prediction neural network, and the road prediction neural network may output a matrix including a predicted direction angle of each pixel in the aerial image A. In this case, the road prediction neural network may be trained to reduce the L2 loss with respect to the ground truth direction for each pixel in the road area using sample aerial images. Accordingly, the direction of the road included in the aerial image A may be confirmed, and the road sign recognition unit 110 may correct the direction of the road sign in consideration of the direction of the road.

실시예에 따라서는, 노면기호인식부(110)가 도로의 방향과 함께, 인접하는 노면기호들의 방향을 고려하여 해당 노면 기호의 방향을 교정하는 것도 가능하다. 즉, 도3(c)에 도시한 바와 같이, 노면기호들은 차선별로 복수개가 인접하여 배치될 수 있으며, 이를 노면기호들의 그룹으로 묶을 수 있다. 구체적으로, 노면기호인식부(110)는 인접하는 노면 기호 간의 거리가 미리 정해진 기준치 이하이고, 인접하는 노면 기호 간의 방향각의 차이가 미리 정해진 기준치 이하이면, 복수의 노면기호들이 서로 동일한 그룹에 속하는 것으로 볼 수 있다. According to an embodiment, it is also possible for the road sign recognition unit 110 to correct the direction of the corresponding road sign in consideration of the direction of the road and the directions of the adjacent road sign. That is, as shown in FIG. 3( c ), a plurality of road signs may be arranged adjacent to each other for each lane, and they may be grouped into a group of road signs. Specifically, when the distance between adjacent road signs is less than or equal to a predetermined reference value and the difference in direction angles between adjacent road signs is less than or equal to a predetermined reference value, the road sign recognition unit 110 includes a plurality of road signs belonging to the same group. can be seen as

이후, 동일한 그룹 내에 포함되는 노면기호들의 방향정보의 평균값과, 도로방향정보의 평균값을 이용하여, 그룹핑된 각각의 노면기호들의 대표 방향정보를 생성할 수 있다. 이후, 대표방향정보를 그룹핑된 각각의 노면기호들의 방향정보로 설정할 수 있다. 즉, 동일한 그룹 내에 포함된 노면기호들은 모두 동일한 방향을 가지도록 설정할 수 있다.Thereafter, by using the average value of direction information of road signs included in the same group and the average value of road direction information, representative direction information of each grouped road sign may be generated. Thereafter, the representative direction information may be set as direction information of each grouped road sign. That is, all road signs included in the same group may be set to have the same direction.

구체적으로, 아래 수학식 1에 기재된 바와 같이, 노면 기호들의 방향정보의 평균값(θb)과, 도로의 도로방향 정보의 평균값(θr)을 구한 후, 노면 기호들의 방향정보의 평균값(θb)에 대한 가중치(λ)와 도로의 도로방향 정보의 평균값(θr)에 대한 가중치(1- λ)를 적용하여, 대표 방향정보(θ)를 산출할 수 있다.Specifically, as described in Equation 1 below , after obtaining the average value (θ b ) of the direction information of the road signs and the average value (θ r ) of the road direction information of the road, the average value of the direction information of the road signs (θ b ) ) and the weight (1-λ) of the average value (θ r ) of the road direction information of the road, the representative direction information (θ) can be calculated.

[수학식 1][Equation 1]

θ = λ*θb + (1- λ)* θr (여기서, 0 ≤ λ ≤ 1)θ = λ*θ b + (1- λ)* θ r (where 0 ≤ λ ≤ 1)

여기서 가중치(λ)는 항공영상(A)의 특성에 따라 달라지는 값일 수 있으며, 이에 따라 가중치(λ)를 조절하면서 대표 방향정보를 산출할 수 있다. 나아가, 가중치(λ)에 대한 학습을 통해 신경망을 구성함으로써, 입력되는 항공영상(A)에 따라 최적의 가중치(λ)를 적용하여 최적의 대표 방향정보를 산출하도록 하는 것도 가능하다.Here, the weight λ may be a value that varies depending on the characteristics of the aerial image A, and accordingly, representative direction information may be calculated while adjusting the weight λ. Furthermore, by constructing a neural network through learning of the weight (λ), it is possible to calculate the optimum representative direction information by applying the optimum weight (λ) according to the input aerial image (A).

차선인식부(120)는, 의미추출 신경망을 이용하여, 항공영상(A) 내에 포함된 도로객체들을 인식하고, 입력된 차선위치정보(P)에 따라 도로 내 차선을 특정하여 각각의 차선의 종류를 분류할 수 있다. The lane recognition unit 120 uses a semantic extraction neural network to recognize road objects included in the aerial image A, and specifies a lane in the road according to the input lane location information P to determine the type of each lane can be classified.

구체적으로, 도4에 도시한 바와 같이, 차선인식부(120)는 의미추출 신경망을 이용하여, 항공영상(A) 내에 포함된 각각의 화소들을 복수의 도로객체 중 어느 하나로 분류할 수 있으며, 도로객체들을 포함하는 의미지도(M)를 생성할 수 있다. 여기서, 도로객체에는 배경, 도로, 차선, 노면 기호 등이 포함될 수 있으며, 이외에도 항공영상(A) 내에 포함될 수 있는 다양한 객체들도 도로객체에 포함될 수 있다. 실시예에 따라서는, 도로객체를 차선의 종류에 따라 더 세분화하는 것도 가능하다. Specifically, as shown in FIG. 4 , the lane recognition unit 120 may classify each pixel included in the aerial image A into any one of a plurality of road objects by using a semantic extraction neural network. A semantic map M including objects can be created. Here, the road object may include a background, a road, a lane, a road sign, and the like, and in addition, various objects that may be included in the aerial image A may also be included in the road object. According to an embodiment, it is also possible to further subdivide the road object according to the type of lane.

의미추출 신경망은 화소들이 각각의 도로객체에 해당할 확률을 계산하여 화소별로 특징벡터를 생성할 수 있으며, 특징벡터에 포함된 각각의 확률 중에서 가장 높은 확률을 가지는 도로객체를 해당 화소에 대응하는 것으로 분류할 수 있다.The meaning extraction neural network can generate a feature vector for each pixel by calculating the probability that the pixels correspond to each road object. can be classified.

여기서, 의미추출 신경망은 입력되는 항공영상(A)에 대응하는 의미지도(M)를 생성하도록 미리 학습되어 있을 수 있다. 구체적으로, 심층신경망은 샘플 항공영상이 입력되면 그에 대응하는 의사(pseudo) 의미지도를 출력할 수 있으며, 심층신경망은 의사 의미지도와 참조(ground truth) 의미지도 사이의 오차를 줄이도록 학습될 수 있다. 여기서, 학습을 위한 손실함수(loss function)로는 크로스 엔트로피(cross-entropy) 또는 포칼 로스(focal loss) 등을 활용할 수 있다. 따라서, 심층신경망은 입력된 항공영상(A) 내에 포함된 화소들을 배경, 도로, 차선, 노면 기호 등으로 분류하여, 각각의 의미를 부여할 수 있다. Here, the meaning extraction neural network may be trained in advance to generate a semantic map M corresponding to the input aerial image A. Specifically, the deep neural network can output a pseudo semantic map corresponding to a sample aerial image input, and the deep neural network can be trained to reduce the error between the pseudo semantic map and the ground truth semantic map. have. Here, as a loss function for learning, cross-entropy or focal loss may be used. Accordingly, the deep neural network may classify pixels included in the input aerial image A into a background, road, lane, road sign, etc., and give each meaning.

이후, 차선인식부(120)는 차선들의 위치를 나타내는 차선위치정보(P)를 입력받을 수 있으며, 의미지도(M)에서 차선위치정보(P)에 대응하는 화소들을 차선으로 설정하고, 설정된 차선의 종류를 분류할 수 있다. Thereafter, the lane recognition unit 120 may receive lane position information P indicating the positions of the lanes, set pixels corresponding to the lane position information P in the semantic map M as lanes, and set the lane types can be classified.

여기서 차선위치정보(P)는 작업자가 항공영상(A) 내에 포함된 각각의 차선들을 확인한 후, 항공영상(A) 내에 나타난 해당 차선의 위치를 특정하여 생성한 것일 수 있다. 즉, 차선위치에 대한 정확도를 높이기 위하여, 작업자가 직접 각각의 차선의 위치를 특정하여 차선위치정보(P)를 생성하도록 할 수 있다.Here, the lane location information P may be generated by specifying the location of the corresponding lane displayed in the aerial image A after the operator identifies each lane included in the aerial image A. That is, in order to increase the accuracy of the lane position, the operator may directly specify the position of each lane to generate the lane position information P.

이 경우, 차선위치정보(P)는 작업자가 고정밀지도생성장치(100)와는 별도로 생성할 수 있으며, 차선인식부(120)는 외부로부터 해당 항공영상(A)에 대한 차선위치정보(P)를 수신할 수 있다. 다만, 실시예에 따라서는, 고정밀지도생성장치(100)가 작업자에게 차선위치지도(P)를 생성할수 있는 인터페이스를 제공하는 것도 가능하다. 예를들어, 입력받은 항공영상(A)을 작업자에게 디스플레이한 후, 작업자는 항공영상(A) 내에 나타난 해당 차선들의 위치를 특정하도록 입력하는 인터페이스 등을 제공할 수 있다.In this case, the lane location information P may be generated by the operator separately from the high-precision map generating device 100, and the lane recognition unit 120 receives the lane location information P for the aerial image A from the outside. can receive However, according to an embodiment, it is also possible for the high-precision map generating apparatus 100 to provide an interface capable of generating the lane location map P to the operator. For example, after the received aerial image (A) is displayed to the operator, the operator may provide an interface for inputting to specify the positions of the corresponding lanes displayed in the aerial image (A).

즉, 도2(a)에 도시한 바와 같이, 의미지도(M)를 이용하여 차선을 분류하는 것도 가능하지만, 의미지도(M) 내에서 차선으로 분류된 화소들에 대한 위치정보의 신뢰도는 상대적으로 낮을 수 있다. 따라서, 차선인식부(120)는 작업자가 입력한 차선위치정보(P)를 활용하여, 의미지도(M) 내에서 차선의 위치를 특정하도록 할 수 있다. That is, as shown in Fig. 2(a), it is possible to classify lanes using the semantic map M, but the reliability of location information for pixels classified as lanes in the semantic map M is relatively can be as low as Accordingly, the lane recognition unit 120 may use the lane position information P input by the operator to specify the position of the lane in the semantic map M.

여기서, 차선위치정보(P)가 점들의 집합으로 제공되는 경우에는, 차선위치정보(P)를 마스크 형태로 변환할 수 있으며, 의미지도(M)에 마스크를 적용하는 방식으로, 각각의 차선에 대응하는 화소들의 집합(M')을 추출할 수 있다. Here, when the lane location information P is provided as a set of points, the lane location information P can be converted into a mask form, and a mask is applied to the semantic map M to each lane. A set M' of the corresponding pixels may be extracted.

이후 차선인식부(120)는, 추출된 화소들의 특징벡터들을 샘플링하여 각각의 차선에 대응하는 차선특징벡터를 생성할 수 있다. 즉, 차선특징벡터를 이용하여, 의미지도(M) 내에 차선에 해당하는 화소들의 집합을 특정할 수 있다. 여기서, 차선인식부(120)는 추출된 화소들의 특징벡터의 평균 또는 이들에 대한 다양한 샘플링 기법을 적용하여 차선특징벡터를 생성할 수 있다. Thereafter, the lane recognition unit 120 may generate a lane feature vector corresponding to each lane by sampling the extracted feature vectors of the pixels. That is, the set of pixels corresponding to the lane in the semantic map M can be specified by using the lane feature vector. Here, the lane recognition unit 120 may generate the lane feature vector by applying an average of the extracted feature vectors of the pixels or various sampling techniques for them.

여기서, 차선특징벡터는 항공영상(A) 내에 포함된 차선의 개수에 대응하여 생성되므로, 작업자가 n개의 차선에 대한 차선위치정보(P)를 생성한 경우에는, 총 n개의 차선특징벡터가 생성될 수 있다.Here, since the lane feature vectors are generated corresponding to the number of lanes included in the aerial image A, when the operator generates the lane location information P for n lanes, a total of n lane feature vectors are generated can be

이후, 차선인식부(120)는 차선특징벡터를 이용하여, 의미지도(M) 내에 포함된 각각의 차선들의 종류를 구별할 수 있다. 여기서, 차선의 종류는 중앙선, 정지선, 진로변경 제한선 등으로 다양하게 분류할 수 있으며, 차선인식부(120)는 차선특징벡터에 대응하는 각각의 차선들이 어느 분류에 해당하는지 판별할 수 있다. 이때, 차선의 종류는 도로교통법 등의 법령이나 규칙에 의하여 미리 설정되어 있을 수 있다. Thereafter, the lane recognition unit 120 may distinguish the types of each lane included in the semantic map M by using the lane feature vector. Here, the types of lanes may be variously classified into a center line, a stop line, a course change restriction line, and the like, and the lane recognition unit 120 may determine which category each of the lanes corresponding to the lane feature vector corresponds to. In this case, the type of lane may be preset according to laws or rules such as the Road Traffic Act.

한편, 실시예에 따라서는, 차선인식부(120)에 n개의 차선특징벡터가 입력될 수 있다. 예를들어, 항공영상(A) 내에 n개의 차선이 존재하는 경우, 차선특징벡터는 n개 생성될 수 있으며, 이 경우, 차선인식부(120)는 출력으로 n개의 차선특징벡터에 대하여, 각각의 차선분류에 해당할 수 있는 확률분포를 포함하는 확률벡터를 출력할 수 있다. 즉, 중앙선에 해당할 확률, 정지선에 해당할 확률, 진로변경 제한선에 해당할 확률 등을 각각 포함하는 확률벡터를 출력할 수 있다. Meanwhile, according to an embodiment, n lane feature vectors may be input to the lane recognition unit 120 . For example, when there are n lanes in the aerial image A, n lane feature vectors may be generated. In this case, the lane recognition unit 120 outputs the n lane feature vectors, each It is possible to output a probability vector including a probability distribution that may correspond to the suboptimal classification of . That is, a probability vector each including a probability corresponding to the center line, a probability corresponding to a stop line, a probability corresponding to a course change limit line, etc. may be output.

여기서, 차선인식부(120)는 신경망(neural network)을 더 포함할 수 있으며, 이는 차선 분류를 위해 미리 학습된 것일 수 있다. 즉, 샘플 차선특징벡터들이 입력되면 대응하는 의사(pseudo) 확률벡터를 출력하는 것으로, 각각의 샘플 차선특징벡터에 대응하는 참조(ground truth) 확률벡터와 의사 확률벡터 사이의 오차를 줄이도록 학습될 수 있다. 따라서, 차선인식부(120)는 차선특징벡터가 입력되면, 대응하는 확률벡터를 출력할 수 있으며, 확률벡터 내에 포함되는 각각의 분류에 해당할 확률 중에서 가장 확률값이 높은 분류를, 해당 차선에 대한 최종 분류로 선택할 수 있다.Here, the lane recognition unit 120 may further include a neural network, which may have been previously learned for lane classification. That is, when sample suboptimal feature vectors are input, a corresponding pseudo random vector is output, which is to be learned to reduce the error between the ground truth random vector and the pseudo random vector corresponding to each sample suboptimal feature vector. can Accordingly, when a lane feature vector is input, the lane recognition unit 120 may output a corresponding probability vector, and select the classification with the highest probability value among the probability of each classification included in the probability vector for the lane. It can be selected as the final classification.

추가적으로, 실시예에 따라서는, 차선인식부(120)에 차선위치정보(P)가 입력되지 않는 경우가 있을 수 있으며, 이 경우 차선인식부(120)는 의미지도(M)로부터 차선을 특정할 수 있다. 구체적으로, 차선인식부(130)는 차선위치정보(P)가 입력되지 않으면, 도2(b)에 도시한 바와 같이, 의미지도(M)에서 차선으로 분류된 대상 화소들을 추출할 수 있으며, 대상 화소들을 묶어 차선으로 특정할 수 있다. 즉, 복수의 대상화소들 중에서 서로 설정거리 이내에 위치하는 대상화소들을 묶어 화소그룹을 형성할 수 있으며, 해당 화소그룹에 대해 간략화(vector simplification)를 수행하여 선형의 차선을 특정할 수 있다. 여기서, 간략화를 위하여 Douglas-peucker 기법 등을 활용할 수 있다. Additionally, depending on the embodiment, there may be a case where the lane location information P is not input to the lane recognition unit 120. In this case, the lane recognition unit 120 may specify a lane from the semantic map M. can Specifically, when the lane location information P is not input, the lane recognition unit 130 may extract target pixels classified into lanes from the semantic map M as shown in FIG. 2(b), The target pixels may be grouped and specified as a lane. That is, a pixel group may be formed by grouping target pixels located within a set distance from among a plurality of target pixels, and vector simplification may be performed on the corresponding pixel group to specify a linear lane. Here, for simplification, a Douglas-peucker technique or the like may be used.

차선을 특정한 이후, 차선특징벡터를 추출하여 차선의 종류를 분류하는 방법은 앞서 설명한 바와 동일하므로, 여기서는 구체적인 설명을 생략한다. After specifying the lane, the method of classifying the type of the lane by extracting the lane feature vector is the same as described above, and thus a detailed description thereof will be omitted.

지도생성부(130)는, 노면기호 및 차선들을 이용하여, 항공영상(A)에 대응하는 고정밀지도(B)를 생성할 수 있다. The map generator 130 may generate a high-definition map B corresponding to the aerial image A using road signs and lanes.

여기서, 각각의 노면기호와 차선은 항공영상(A) 내의 영상좌표계에 따라 특정한 것일 수 있다. 다만, 고정밀지도(B)는 실제 지리좌표계에 따라 제공되어야 하므로, 지도생성부(130)는 각각의 노면기호 및 차선들의 좌표값을 실제 지리좌표계로 변환할 수 있으며, 이를 이용하여 고정밀지도(B)를 생성할 수 있다. 따라서, 자율주행차량 등은 고정밀지도(B)에 표시된 노면기호나 차선을 이용하여, GPS 음영지역 등에서도 정밀한 자기위치 측위 등을 수행할 수 있다. 예를들어, 자율주행차량의 측위를 보정할 때, 횡축 방향의 정확도를 보정하기 위해 차선의 위치정보를 활용할 수 있으며, 종축 방향의 정확도를 보정하기 위하여 노면기호를 활용할 수 있다.Here, each road sign and lane may be specific according to the image coordinate system in the aerial image A. However, since the high-precision map B must be provided according to the actual geographic coordinate system, the map generator 130 can convert the coordinate values of each road sign and lanes into an actual geographic coordinate system, and use this to convert the high-precision map B ) can be created. Accordingly, the autonomous vehicle and the like can perform precise self-positioning even in a GPS shaded area, etc. by using road signs or lanes displayed on the high-precision map (B). For example, when correcting the positioning of the autonomous vehicle, lane position information may be used to correct the accuracy in the horizontal axis direction, and road signs may be used to correct the accuracy in the vertical axis direction.

또한, 자율주행차량은 현재 위치를 인식하고 있으므로, 자율주행차량의 센서 등 인식장치가 도로 내 노면기호나 차선 등을 인식하지 못한 경우에도, 고정밀지도를 이용하여, 주변의 노면기호 또는 차선 등을 알 수 있다. 따라서, 이러한 경우에도, 교통법규에 맞게 주행하는 것이 가능하다. In addition, since the autonomous vehicle recognizes the current location, even when the recognition device such as the sensor of the autonomous vehicle does not recognize the road sign or lane on the road, using a high-precision map, the surrounding road sign or lane, etc. Able to know. Therefore, even in this case, it is possible to drive according to traffic laws.

추가적으로, 노면기호인식부(110)와 차선인식부(120)는 각각 개별적으로 노면기호와 차선을 인식하므로, 고정밀지도 내에 노면기호와 차선이 겹치는 등의 경우가 발생할 수 있다. 즉, 노면기호와 차선 중 어느 하나가 잘못 인식되는 경우가 발생할 수 있다. Additionally, since the road sign recognizing unit 110 and the lane recognizing unit 120 individually recognize a road sign and a lane, a case in which a road sign and a lane overlap in a high-precision map may occur. That is, any one of a road sign and a lane may be incorrectly recognized.

이 경우, 지도생성부(130)는 인식된 노면기호와 차선 중에서 신뢰도가 높은 객체는 남기고, 신뢰도가 낮은 객체는 삭제할 수 있다. 실시예에 따라서는, 인식된 각각의 노면기호와 차선에 대한 신뢰도를, 영역박스 추출 신경망이나 의미추출 신경망으로부터 각각 제공받을 수 있다. 따라서, 지도생성부(130)는 이를 비교하여 삭제할 객체를 선택할 수 있다. In this case, the map generator 130 may leave an object with high reliability among the recognized road sign and lane, and delete an object with low reliability. According to an embodiment, the reliability of each recognized road sign and lane may be provided from the area box extraction neural network or the meaning extraction neural network, respectively. Accordingly, the map generator 130 may compare and select an object to be deleted.

다만, 차선인식부(120)는 작업자가 차선의 위치를 정밀하게 특정한 차선위치정보(P)를 활용하여 차선의 위치를 특정하는 것이므로, 일반적으로는 차선의 신뢰도가 노면기호의 신뢰도보다 높은 것으로 볼 수 있다. 따라서, 실시예에 따라서는, 차선과 노면기호가 겹치는 경우, 차선은 남기고 노면기호만을 삭제하도록 설정하는 것도 가능하다. However, since the lane recognition unit 120 specifies the position of the lane by using the lane position information P, which precisely specifies the position of the lane by the operator, it is generally considered that the reliability of the lane is higher than the reliability of the road sign. can Accordingly, depending on the embodiment, when the lane and the road sign overlap, it is possible to set the lane to be left and only the road sign to be deleted.

나아가, 실시예에 따라서는, 지도생성부(130)가 의미지도와 영역박스를 혼합하여, 노면기호에 대한 신뢰도를 더욱 향상시키는 것도 가능하다. 구체적으로, 지도생성부(130)는 노면 기호 인식부(110)로부터 제공받은 영역박스를 의미지도(M) 내에 투사시킬 수 있다. 이후, 의미지도(M) 내에 영역박스에 대응하는 영역의 특징지도를 추출할 수 있으며, 특징지도 내에 포함된 각각의 화소들의 특징벡터도 추출할 수 있다. 이 경우, 지도생성부(130)는 특징지도에 대응하는 도로객체가 노면기호에 해당하는지 확인할 수 있으며, 만약, 특징지도에 대응하는 도로객체가 노면기호에 해당하지않으면, 노면기호인식부(110)에서 인식한 노면기호를 삭제시킬 수 있다. 즉, 의미지도(M)에서는 해당 영역이 노면기호가 아니라고 판단한 것이므로, 영역박스 생성 신경망이 잘못 인식한 것으로 간주하여 삭제할 수 있다.Furthermore, according to an embodiment, it is also possible for the map generator 130 to further improve the reliability of the road sign by mixing the semantic map and the area box. Specifically, the map generator 130 may project the area box provided from the road sign recognition unit 110 into the semantic map M. Thereafter, a feature map of a region corresponding to the region box in the semantic map M may be extracted, and a feature vector of each pixel included in the feature map may also be extracted. In this case, the map generator 130 may check whether the road object corresponding to the characteristic map corresponds to the road sign. If the road object corresponding to the characteristic map does not correspond to the road sign, the road sign recognition unit 110 ), the recognized road sign can be deleted. That is, since it is determined that the corresponding area is not a road sign in the semantic map M, the area box generating neural network may consider it to be mistakenly recognized and delete it.

도5는 본 발명의 일 실시예에 의한 고정밀지도생성방법을 나타내는 순서도이다. 여기서, 고정밀지도생성방법의 각 단계들은 고정밀지도생성장치에 의하여 수행될 수 있다. 5 is a flowchart illustrating a method for generating a high-precision map according to an embodiment of the present invention. Here, each step of the high-definition map generating method may be performed by the high-definition map generating apparatus.

구체적으로, 고정밀지도생성장치는 영역박스 검출 신경망을 이용하여, 항공영상 내에 포함된 도로의 노면기호를 인식하고, 노면기호의 위치정보 및 방향정보를 나타내는 영역박스를 생성할 수 있다(S10). 여기서, 영역박스는 방향성을 가지는 지향성 영역 박스(OBB: Oriented Bounding Box)일 수 있으며, 영역박스 검출 신경망은 SCRDet 알고리즘을 이용할 수 있다. Specifically, the high-precision map generating apparatus may recognize a road sign of a road included in an aerial image by using the area box detection neural network, and generate an area box indicating location information and direction information of the road sign (S10). Here, the area box may be an Oriented Bounding Box (OBB) having directionality, and the area box detection neural network may use the SCRDet algorithm.

여기서, 노면 기호의 방향이 잘못 인식되는 경우가 존재할 수 있으며, 이 경우 고정밀지도생성장치는 노면기호의 방향을 교정할 수 있다. 구체적으로, 고정밀지도생성장치는 항공영상 내에 포함된 도로의 방향을 인식하여 도로방향정보를 생성할 수 있으며, 도로방향정보를 이용하여 노면기호의 방향정보를 보정할 수 있다. Here, there may exist a case where the direction of the road sign is incorrectly recognized. In this case, the high-precision map generating apparatus may correct the direction of the road sign. Specifically, the high-precision map generating apparatus may generate road direction information by recognizing the direction of the road included in the aerial image, and may correct direction information of road signs using the road direction information.

실시예에 따라서는, 도로의 방향과 함께, 인접하는 노면기호들의 방향을 고려하여 해당 노면 기호의 방향을 교정하는 것도 가능하다. 즉, 고정밀지도생성장치는 노면기호의 위치정보 및 방향정보를 이용하여 인접하는 노면기호들을 그룹핑할 수 있으며, 그룹핑된 각각의 노면기호들의 방향정보의 평균값과, 도로방향정보의 평균값을 이용하여 그룹핑된 각각의 노면기호들의 대표 방향정보를 생성할 수 있다. 이후, 대표방향정보를 상기 그룹핑된 각각의 노면기호들의 방향정보로 설정할수 있다. According to an embodiment, it is also possible to correct the direction of the corresponding road sign by considering the direction of the adjacent road sign along with the direction of the road. That is, the high-precision map generating apparatus can group adjacent road signs by using the location information and direction information of the road signs, and grouping using the average value of the direction information of each grouped road sign and the average value of the road direction information It is possible to generate representative direction information of each road sign. Thereafter, the representative direction information may be set as direction information of each of the grouped road signs.

또한, 고정밀지도생성장치는 의미추출 신경망을 이용하여, 항공영상 내에 포함된 도로객체들을 인식하고, 입력된 차선위치정보에 따라 도로 내 차선을 특정하여 각각의 차선의 종류를 분류할 수 있다(S20). In addition, the high-precision map generating apparatus can recognize road objects included in the aerial image by using a semantic extraction neural network, and classify the types of each lane by specifying a lane in the road according to the input lane location information (S20). ).

구체적으로, 고정밀지도생성장치는 의미추출 신경망을 이용하여, 항공영상 내에 포함된 각각의 화소들을 복수의 도로객체 중 어느 하나로 분류할 수 있으며, 도로객체들을 포함하는 의미지도를 생성할 수 있다. Specifically, the high-precision map generating apparatus may classify each pixel included in the aerial image into any one of a plurality of road objects by using a semantic extraction neural network, and may generate a semantic map including the road objects.

이후, 차선들의 위치를 나타내는 차선위치정보를 입력받으면, 의미지도에서 차선위치정보에 대응하는 화소들을 차선으로 설정하고, 설정된 차선의 종류를 분류할 수 있다. 여기서 차선위치정보는 작업자가 항공영상 내에 포함된 각각의 차선들을 확인한 후, 항공영상 내에 나타난 해당 차선의 위치를 특정하여 생성한 것일 수 있다. 즉, 차선위치에 대한 정확도를 높이기 위하여, 작업자가 직접 각각의 차선의 위치를 특정하여 차선위치정보를 생성하도록 할 수 있다. Thereafter, when lane location information indicating the location of the lanes is received, pixels corresponding to the lane location information on the semantic map may be set as lanes, and types of the set lanes may be classified. Here, the lane location information may be generated by specifying the location of the corresponding lane displayed in the aerial image after the operator identifies each lane included in the aerial image. That is, in order to increase the accuracy of the lane position, the operator may directly specify the position of each lane to generate lane position information.

이 경우, 차선위치정보는 작업자가 고정밀지도생성장치와는 별도로 생성할 수 있으며, 외부로부터 해당 항공영상에 대한 차선위치정보를 수신할 수 있다. 다만, 실시예에 따라서는, 고정밀지도생성장치가 작업자에게 차선위치지도를 생성할수 있는 인터페이스를 제공하는 것도 가능하다. In this case, the operator may generate the lane position information separately from the high-precision map generating device, and may receive lane position information for the corresponding aerial image from the outside. However, according to an embodiment, it is also possible for the high-precision map generating apparatus to provide an interface for generating a lane location map to the operator.

한편, 차선들의 위치를 나타내는 차선위치정보를 입력받으면, 의미지도로부터 차선위치정보에 대응하는 화소들의 특징벡터를 추출할 수 있으며, 추출된 특징벡터들을 샘플링하여 차선에 대응하는 차선특징벡터를 생성할 수 있다. 이후, 차선특징벡터를 이용하여 차선들의 종류를 구별할 수 있다. On the other hand, when lane location information indicating the location of lanes is input, feature vectors of pixels corresponding to the lane location information can be extracted from the semantic map, and the extracted feature vectors are sampled to generate a lane feature vector corresponding to the lane. can Thereafter, types of lanes may be distinguished using the lane feature vector.

추가적으로, 실시예에 따라서는, 일부 항공영상에 대응하는 차선위치정보가 입력되지 않는 경우가 발생할 수 있다. 이 경우, 고정밀지도생성장치는 의미지도로부터 차선을 특정할 수 있다. 즉, 차선위치정보가 입력되지 않는 경우에는, 의미지도로부터 차선으로 분류된 대상 화소들을 추출할 수 있으며, 대상 화소들을 묶어 차선으로 특정할 수 있다.Additionally, depending on the embodiment, there may be a case in which lane location information corresponding to some aerial images is not input. In this case, the high-precision map generating apparatus can specify a lane from the semantic map. That is, when lane location information is not input, target pixels classified into lanes may be extracted from the semantic map, and target pixels may be grouped to specify lanes.

구체적으로, 차선으로 분류된 복수의 대상화소들 중에서, 서로 설정거리 이내에 위치하는 대상화소들을 묶어 화소그룹을 형성할 수 있다. 항공영상 내에는 복수의 차선이 존재할 수 있으므로, 각각의 차선별로 화소그룹을 형성하기 위하여, 서로 설정거리 이내에 위치하는 대상화소들을 동일한 화소그룹으로 묶을 수 있다. Specifically, among a plurality of target pixels classified into lanes, target pixels positioned within a set distance may be bundled to form a pixel group. Since a plurality of lanes may exist in the aerial image, target pixels located within a set distance may be grouped into the same pixel group in order to form a pixel group for each lane.

이후, 화소그룹에 대한 간략화(vector simplification)을 수행하여, 각각의 차선을 특정할 수 있다. 화소그룹은 하나의 직선 형태로 나타나지 않을 수 있으므로, 직선화를 위해 간략화를 수행할 수 있으며, 실시예에 따라서는 Douglas-peucker 기법을 활용할 수 있다. Thereafter, each lane may be specified by performing vector simplification on the pixel group. Since the pixel group may not appear in a single straight line, simplification may be performed for linearization, and a Douglas-peucker technique may be used according to an embodiment.

한편, 도5는 영역박스를 생성하는 단계(S10) 이후에 차선의 종류를 분류하는 단계(S20)가 수행되는 것으로 도시되어 있으나, 본 발명이 이에 한정되는 것은 아니며, 차선의 종류를 분류하는 단계(S20)가 먼저 수행되거나, 영역박스를 생성하는 단계(S10)와 차선의 종류를 분류하는 단계(S20)가 병렬적으로 동시에 수행되는 것도 가능하다. Meanwhile, although FIG. 5 shows that the step of classifying the lane type (S20) is performed after the step (S10) of generating the area box, the present invention is not limited thereto, and the step of classifying the type of the lane (S20) is performed first, or it is also possible that the step of generating the area box (S10) and the step of classifying the type of the lane (S20) are simultaneously performed in parallel.

이후, 고정밀지도생성장치는, 노면기호 및 차선들을 이용하여, 항공영상에 대응하는 고정밀지도를 생성할 수 있다(S30). 여기서, 각각의 노면기호와 차선은 항공영상 내의 영상좌표계를 이용하여 특정한 것일 수 있다. 다만, 고정밀지도는 실제 지리좌표계로 제공되어야 하므로, 고정밀지도생성장치는 각각의 노면기호 및 차선들의 좌표값을 실제 지리좌표계로 변환하여 고정밀지도(B)를 생성할 수 있다. Thereafter, the high-definition map generating apparatus may generate a high-precision map corresponding to the aerial image by using the road sign and the lanes (S30). Here, each road sign and lane may be specific using an image coordinate system in an aerial image. However, since the high-precision map must be provided in the actual geographic coordinate system, the high-precision map generating apparatus can generate the high-precision map B by converting the coordinate values of each road sign and lanes into the actual geographic coordinate system.

한편, 고정밀지도생성장치가 인식한 각각의 노면기호와 차선이, 고정밀지도 내에서 겹치는 등의 경우가 발생할 수 있다. 즉, 노면기호와 차선 중 어느 하나가 잘못 인식될 수 있으며, 이 경우, 고정밀지도생성장치는 인식된 노면기호와 차선 중에서 신뢰도가 높은 객체는 남기고, 신뢰도가 낮은 객체는 삭제할 수 있다. 각각의 노면기호와 차선에 대한 신뢰도는, 영역박스 추출 신경망이나 의미추출 신경망으로부터 제공받을 수 있으므로, 이를 비교하여 삭제할 객체를 선택할 수 있다. 다만, 차선의 경우 작업자가 차선의 위치를 정밀하게 특정한 차선위치정보(P)를 활용하여 차선의 위치를 특정한 것이므로, 일반적으로는 차선의 신뢰도가 노면기호의 신뢰도보다 높은 것으로 볼 수 있다. 따라서, 실시예에 따라서는, 차선과 노면기호가 겹치는 경우, 차선은 남기고 노면기호만을 삭제하도록 설정하는 것도 가능하다. On the other hand, a case may occur in which each road sign and lane recognized by the high-definition map generating apparatus overlap within the high-definition map. That is, any one of a road sign and a lane may be incorrectly recognized. In this case, the high-precision map generating apparatus may leave an object with high reliability among the recognized road sign and lane and delete an object with low reliability. Since the reliability of each road sign and lane can be provided from an area box extraction neural network or a meaning extraction neural network, an object to be deleted can be selected by comparing them. However, in the case of a lane, since the operator specifies the position of the lane by using the lane position information P, which precisely specifies the position of the lane, in general, the reliability of the lane is higher than the reliability of the road sign. Accordingly, depending on the embodiment, when the lane and the road sign overlap, it is possible to set the lane to be left and only the road sign to be deleted.

나아가, 실시예에 따라서는, 의미지도와 영역박스를 혼합하여, 노면기호에 대한 신뢰도를 더욱 향상시키는 것도 가능하다. 구체적으로, 영역박스를 의미지도 내에 투사시켜, 의미지도로부터 영역박스에 대응하는 영역의 특징지도를 추출할 수 있다. 이후, 특징지도 내에 포함된 각각의 화소들의 특징벡터도 추출하여 특징지도에 대응하는 도로객체가 노면기호에 해당하는지 확인할 수 있으며, 만약, 특징지도에 대응하는 도로객체가 노면기호에 해당하지않으면, 해당 노면기호는 삭제시킬 수 있다. 즉, 의미지도에서 해당 영역이 노면기호가 아니라고 판단한 것이므로, 영역박스 생성 신경망이 잘못 인식한 것으로 간주하여 삭제할 수 있다.Furthermore, depending on the embodiment, it is possible to further improve the reliability of the road sign by mixing the semantic map and the area box. Specifically, by projecting the area box into the semantic map, it is possible to extract the feature map of the area corresponding to the area box from the semantic map. Thereafter, by extracting the feature vector of each pixel included in the feature map, it can be checked whether the road object corresponding to the feature map corresponds to the road sign. If the road object corresponding to the feature map does not correspond to the road sign, The relevant road sign may be deleted. That is, since it is determined that the corresponding area is not a road sign in the semantic map, the area box generating neural network may consider it to be incorrectly recognized and delete it.

전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수개 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 애플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The present invention described above can be implemented as computer-readable codes on a medium in which a program is recorded. The computer-readable medium may continuously store a computer-executable program, or may be temporarily stored for execution or download. In addition, the medium may be various recording means or storage means in the form of a single or several hardware combined, it is not limited to a medium directly connected to any computer system, and may exist distributedly on a network. Examples of the medium include a hard disk, a magnetic medium such as a floppy disk and a magnetic tape, an optical recording medium such as CD-ROM and DVD, a magneto-optical medium such as a floppy disk, and those configured to store program instructions, including ROM, RAM, flash memory, and the like. In addition, examples of other media may include recording media or storage media managed by an app store for distributing applications, sites supplying or distributing other various software, and servers. Accordingly, the above detailed description should not be construed as restrictive in all respects but as exemplary. The scope of the present invention should be determined by a reasonable interpretation of the appended claims, and all modifications within the equivalent scope of the present invention are included in the scope of the present invention.

본 발명은 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 본 발명에 따른 구성요소를 치환, 변형 및 변경할 수 있다는 것이 명백할 것이다.The present invention is not limited by the above embodiments and the accompanying drawings. For those of ordinary skill in the art to which the present invention pertains, it will be apparent that the components according to the present invention can be substituted, modified and changed without departing from the technical spirit of the present invention.

100: 고정밀지도생성장치
110: 노면기호인식부
120: 차선인식부
130: 지도생성부
100: high-precision map generator
110: road sign recognition unit
120: lane recognition unit
130: map generation unit

Claims (13)

영역박스 검출 신경망을 이용하여, 항공영상 내에 포함된 도로의 노면기호를 인식하고, 상기 노면기호의 위치정보 및 방향정보를 나타내는 영역박스를 생성하는 단계;
의미추출 신경망을 이용하여, 상기 항공영상 내에 포함된 도로객체들을 인식하고, 입력된 차선위치정보에 따라 도로 내 차선을 특정하여 각각의 차선의 종류를 분류하는 단계; 및
상기 노면기호 및 차선들을 이용하여, 상기 항공영상에 대응하는 고정밀지도를 생성하는 단계를 포함하는 고정밀지도생성방법.
Recognizing a road sign of a road included in an aerial image by using an area box detection neural network, and generating an area box indicating location information and direction information of the road sign;
recognizing road objects included in the aerial image using a semantic extraction neural network, specifying a lane in the road according to the input lane location information, and classifying the type of each lane; and
and generating a high-precision map corresponding to the aerial image by using the road sign and lanes.
제1항에 있어서, 상기 영역박스를 생성하는 단계는
상기 항공영상 내에 포함된 도로의 방향을 인식하여 도로방향정보를 생성하고, 상기 도로방향정보를 이용하여 상기 노면기호의 방향정보를 보정하는 것을 특징으로 하는 고정밀지도생성방법.
The method of claim 1, wherein generating the area box comprises:
A high-precision map generating method, characterized in that by recognizing the direction of the road included in the aerial image, generating road direction information, and correcting the direction information of the road sign using the road direction information.
제2항에 있어서, 상기 영역박스를 생성하는 단계는
상기 노면기호의 위치정보 및 방향정보를 이용하여 인접하는 노면기호들을 그룹핑하고, 그룹핑된 각각의 노면기호들의 방향정보의 평균값과, 도로방향정보의 평균 값을 이용하여 상기 그룹핑된 각각의 노면기호들의 대표 방향정보를 생성하며, 상기 대표방향정보를 상기 그룹핑된 각각의 노면기호들의 방향정보로 설정하는 것을 특징으로 하는 고정밀지도생성방법.
The method of claim 2, wherein generating the area box comprises:
Grouping adjacent road signs by using the location information and direction information of the road sign, and using the average value of the direction information of each grouped road sign and the average value of the road direction information for each grouped road sign A method for generating a high-precision map, characterized in that representative direction information is generated, and the representative direction information is set as direction information of each of the grouped road signs.
제1항에 있어서, 상기 차선의 종류를 분류하는 단계는
상기 의미추출 신경망을 이용하여, 상기 항공영상 내에 포함된 각각의 화소들을 복수의 도로객체 중 어느 하나로 분류하고, 상기 도로객체들을 포함하는 의미지도를 생성하는 것을 특징으로 하는 고정밀지도생성방법.
The method of claim 1, wherein classifying the type of the lane comprises:
A method for generating a high-precision map, characterized in that by using the meaning extraction neural network, each pixel included in the aerial image is classified into any one of a plurality of road objects, and a semantic map including the road objects is generated.
제4항에 있어서, 상기 차선의 종류를 분류하는 단계는
상기 차선들의 위치를 나타내는 차선위치정보를 입력받으면, 상기 의미지도에서 상기 차선위치정보에 대응하는 화소들을 상기 차선으로 설정하고, 상기 설정된 차선의 종류를 분류하는 것을 특징으로 하는 고정밀지도생성방법.
5. The method of claim 4, wherein classifying the type of the lane comprises:
When lane position information indicating the positions of the lanes is received, pixels corresponding to the lane position information on the semantic map are set as the lanes, and types of the set lanes are classified.
제5항에 있어서, 상기 차선의 종류를 분류하는 단계는
상기 의미지도로부터 상기 차선위치정보에 대응하는 화소들의 특징벡터를 추출하고, 상기 추출된 특징벡터들을 샘플링하여 상기 차선에 대응하는 차선특징벡터를 생성하며, 상기 차선특징벡터를 이용하여 상기 차선들의 종류를 구별하는 것을 특징으로 하는 고정밀지도 생성방법.
The method of claim 5, wherein classifying the type of the lane comprises:
Extracting feature vectors of pixels corresponding to the lane location information from the semantic map, generating a lane feature vector corresponding to the lane by sampling the extracted feature vectors, and using the lane feature vector A method for generating a high-precision map, characterized in that the
제4항에 있어서, 상기 차선의 종류를 분류하는 단계는
상기 차선위치정보가 입력되지 않으면, 상기 의미지도에서 상기 차선으로 분류된 대상 화소들을 추출하고, 상기 대상 화소들을 묶어 상기 차선으로 특정하는 것을 특징으로 하는 고정밀지도 생성방법.
5. The method of claim 4, wherein classifying the type of the lane comprises:
When the lane location information is not input, the target pixels classified as the lanes are extracted from the semantic map, and the target pixels are grouped to specify the lanes.
제7항에 있어서, 상기 차선의 종류를 분류하는 단계는
복수의 대상화소들 중에서, 서로 설정거리 이내에 위치하는 대상화소들을 묶어 화소그룹을 형성하고, 상기 화소그룹에 대한 간략화(vector simplification)을 수행하여, 각각의 차선을 특정하는 것을 특징으로 하는 고정밀지도 생성방법.
The method of claim 7, wherein classifying the type of the lane comprises:
Among a plurality of target pixels, a pixel group is formed by grouping target pixels located within a set distance from each other, and vector simplification is performed on the pixel group to specify each lane. Way.
제1항에 있어서, 상기 고정밀지도를 생성하는 단계는
상기 고정밀지도 내에서 상기 노면기호와 차선의 위치가 서로 겹치면, 상기 노면기호를 삭제하는 것을 특징으로 하는 고정밀지도 생성방법.
The method of claim 1, wherein the generating of the high-precision map comprises:
The method for generating a high-definition map, characterized in that when the position of the road sign and the lane overlap each other in the high-precision map, the road sign is deleted.
제4항에 있어서, 상기 고정밀지도를 생성하는 단계는
상기 영역박스를 상기 의미지도 내에 투사시켜, 상기 영역박스에 대응하는 영역의 특징지도를 추출하고, 상기 특징지도 내에 포함된 각각의 화소들의 특징벡터를 이용하여, 상기 특징지도에 대응하는 도로객체가 노면기호에 해당하는지 확인하는 것을 특징으로 하는 고정밀지도 생성방법.
5. The method of claim 4, wherein the generating of the high-precision map comprises:
By projecting the area box into the semantic map, a feature map of the area corresponding to the area box is extracted, and a road object corresponding to the feature map is obtained by using the feature vector of each pixel included in the feature map. A method for generating a high-precision map, characterized in that it is checked whether it corresponds to a road sign.
제10항에 있어서, 상기 고정밀지도를 생성하는 단계는
상기 특징지도에 대응하는 도로객체가 상기 노면기호에 해당하지않으면, 상기 노면기호인식부에서 인식한 상기 노면기호는 삭제하는 것을 특징으로 하는 고정밀지도 생성방법.
11. The method of claim 10, wherein the generating of the high-precision map comprises:
If the road object corresponding to the characteristic map does not correspond to the road sign, the road sign recognized by the road sign recognition unit is deleted.
하드웨어와 결합되어 제1항 내지 제11항 중 어느 한 항의 고정밀지도 생성방법을 실행시키기 위하여 매체에 저장된 컴퓨터 프로그램.
A computer program stored in a medium in combination with hardware to execute the method for generating a high-precision map according to any one of claims 1 to 11.
영역박스 검출 신경망을 이용하여, 항공영상 내에 포함된 도로의 노면기호를 인식하고, 상기 노면기호의 위치정보 및 방향정보를 나타내는 영역박스를 생성하는 노면기호인식부;
의미추출 신경망을 이용하여, 상기 항공영상 내에 포함된 도로객체들을 인식하고, 입력된 차선위치정보에 따라 도로 내 차선을 특정하여 각각의 차선의 종류를 분류하는 차선인식부; 및
상기 노면기호 및 차선들을 이용하여, 상기 항공영상에 대응하는 고정밀지도를 생성하는 지도생성부를 포함하는 고정밀지도생성장치.
a road sign recognition unit for recognizing a road sign of a road included in an aerial image by using an area box detection neural network, and generating an area box indicating location information and direction information of the road sign;
a lane recognition unit for recognizing road objects included in the aerial image by using a semantic extraction neural network, specifying a lane on the road according to the input lane location information, and classifying the type of each lane; and
and a map generator configured to generate a high-precision map corresponding to the aerial image by using the road sign and lanes.
KR1020200067670A 2020-06-04 2020-06-04 Apparatus and method for generating High Definition Map KR102477218B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200067670A KR102477218B1 (en) 2020-06-04 2020-06-04 Apparatus and method for generating High Definition Map
KR1020220007536A KR102480972B1 (en) 2020-06-04 2022-01-19 Apparatus and method for generating High Definition Map

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200067670A KR102477218B1 (en) 2020-06-04 2020-06-04 Apparatus and method for generating High Definition Map

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020220007536A Division KR102480972B1 (en) 2020-06-04 2022-01-19 Apparatus and method for generating High Definition Map

Publications (2)

Publication Number Publication Date
KR20210150805A true KR20210150805A (en) 2021-12-13
KR102477218B1 KR102477218B1 (en) 2022-12-13

Family

ID=78832034

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020200067670A KR102477218B1 (en) 2020-06-04 2020-06-04 Apparatus and method for generating High Definition Map
KR1020220007536A KR102480972B1 (en) 2020-06-04 2022-01-19 Apparatus and method for generating High Definition Map

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020220007536A KR102480972B1 (en) 2020-06-04 2022-01-19 Apparatus and method for generating High Definition Map

Country Status (1)

Country Link
KR (2) KR102477218B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114509065A (en) * 2022-02-16 2022-05-17 北京易航远智科技有限公司 Map construction method, map construction system, vehicle terminal, server side and storage medium
KR102495954B1 (en) * 2022-07-08 2023-02-06 주식회사 네오스펙트라 3D model generation method using 2D image, 3D model generation system and computer program for the same
KR102503679B1 (en) * 2022-05-27 2023-02-24 주식회사 라이드플럭스 Method, apparatus and computer program for generating precision map for automatic driving control of vehicle

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170041168A (en) * 2015-09-10 2017-04-14 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 Method, apparatus, storage medium, and device for processing lane line data
KR20190053355A (en) * 2017-11-10 2019-05-20 연세대학교 산학협력단 Method and Apparatus for Recognizing Road Symbols and Lanes
KR20200005818A (en) * 2018-07-09 2020-01-17 현대자동차주식회사 System and method of building load map

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170041168A (en) * 2015-09-10 2017-04-14 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 Method, apparatus, storage medium, and device for processing lane line data
KR20190053355A (en) * 2017-11-10 2019-05-20 연세대학교 산학협력단 Method and Apparatus for Recognizing Road Symbols and Lanes
KR20200005818A (en) * 2018-07-09 2020-01-17 현대자동차주식회사 System and method of building load map

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Seyed Majid Azimi 등, SkyScapes - Fine-Grained Semantic Understanding of Aerial Scenes, ICCV19.(2019.10.27.) 1부.* *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114509065A (en) * 2022-02-16 2022-05-17 北京易航远智科技有限公司 Map construction method, map construction system, vehicle terminal, server side and storage medium
CN114509065B (en) * 2022-02-16 2023-11-07 北京易航远智科技有限公司 Map construction method, system, vehicle terminal, server and storage medium
KR102503679B1 (en) * 2022-05-27 2023-02-24 주식회사 라이드플럭스 Method, apparatus and computer program for generating precision map for automatic driving control of vehicle
KR102495954B1 (en) * 2022-07-08 2023-02-06 주식회사 네오스펙트라 3D model generation method using 2D image, 3D model generation system and computer program for the same

Also Published As

Publication number Publication date
KR102480972B1 (en) 2022-12-23
KR102477218B1 (en) 2022-12-13
KR20220013439A (en) 2022-02-04

Similar Documents

Publication Publication Date Title
KR102480972B1 (en) Apparatus and method for generating High Definition Map
CN109931939B (en) Vehicle positioning method, device, equipment and computer readable storage medium
US10983217B2 (en) Method and system for semantic label generation using sparse 3D data
CN109470254B (en) Map lane line generation method, device, system and storage medium
US11288526B2 (en) Method of collecting road sign information using mobile mapping system
KR101921429B1 (en) Method and system for making precise map
CN112232275B (en) Obstacle detection method, system, equipment and storage medium based on binocular recognition
JP6986290B2 (en) A method and device for performing own vehicle position determination to update HD maps using V2X information fusion.
CN107044853B (en) Method and device for determining landmarks and method and device for positioning
JP2009180631A (en) Navigator, navigation method and program
KR102475039B1 (en) Apparatus, method and system for updating map database
US20220373335A1 (en) Position recognition method and position recognition system for vehicle
JP2017181476A (en) Vehicle location detection device, vehicle location detection method and vehicle location detection-purpose computer program
CN112673280A (en) Road detection method for a motor vehicle equipped with a LIDAR sensor
CN114593739B (en) Vehicle global positioning method and device based on visual detection and reference line matching
US11327155B2 (en) Radar sensor misalignment detection for a vehicle
Guzhva et al. Evaluating the Accuracy of Tram Positioning System in High-Rise Building Environment Using Data from Visual Geoinformation Systems
CN113566817B (en) Vehicle positioning method and device
WO2020118623A1 (en) Method and system for generating an environment model for positioning
WO2022021209A1 (en) Electronic map generation method and apparatus, computer device, and storage medium
CN115438079A (en) Position information calculation device and position information calculation method
KR102288623B1 (en) Map Data Processing and Format Change Method for Land Vehicle Simulation
KR102446433B1 (en) Apparatus and method for classifying traffic lane
JP7308772B2 (en) DATA PROCESSING DEVICE, DATA PROCESSING METHOD AND DATA PROCESSING PROGRAM
Chawla et al. Monocular vision based crowdsourced 3d traffic sign positioning with unknown camera intrinsics and distortion coefficients

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right