KR102484511B1 - Method and system for matching information of 2d map with 3d map - Google Patents

Method and system for matching information of 2d map with 3d map Download PDF

Info

Publication number
KR102484511B1
KR102484511B1 KR1020200171592A KR20200171592A KR102484511B1 KR 102484511 B1 KR102484511 B1 KR 102484511B1 KR 1020200171592 A KR1020200171592 A KR 1020200171592A KR 20200171592 A KR20200171592 A KR 20200171592A KR 102484511 B1 KR102484511 B1 KR 102484511B1
Authority
KR
South Korea
Prior art keywords
map
lane
shape
reference point
position difference
Prior art date
Application number
KR1020200171592A
Other languages
Korean (ko)
Other versions
KR20220081753A (en
Inventor
강태훈
Original Assignee
주식회사 맵퍼스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 맵퍼스 filed Critical 주식회사 맵퍼스
Priority to KR1020200171592A priority Critical patent/KR102484511B1/en
Publication of KR20220081753A publication Critical patent/KR20220081753A/en
Application granted granted Critical
Publication of KR102484511B1 publication Critical patent/KR102484511B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/3815Road data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

2D 지도 정보를 3D 지도에 매칭하는 방법에서, i) 2D 지도의 기준 지점과 이에 대응하는 3D 지도의 기준 지점 사이의 위치 차이를 측정할 수 있다. ii) 상기 2D 지도의 상기 기준 지점을 포함하는 특정 영역에 포함된 차선의 형상을 상기 위치 차이만큼 이동시킬 수 있다. iii) 하우스도르프 거리(Hausdorff distance) 방식을 사용하여, 상기 이동된 2D 지도의 차선의 형상과 유사한 형상을 갖는 차선 형상을 상기 3D 지도의 상기 기준 지점을 포함하는 특정 영역에서 검출할 수 있다. v) 상기 이동된 2D 지도의 차선의 데이터에 포함된 속성 정보를 이에 대응하는 상기 검출된 3D 지도의 차선 형상을 이루는 차선의 데이터에 추가할 수 있다.In a method of matching 2D map information to a 3D map, i) a positional difference between a reference point of a 2D map and a corresponding reference point of a 3D map may be measured. ii) A shape of a lane included in a specific area including the reference point of the 2D map may be moved by the position difference. iii) Using the Hausdorff distance method, a lane shape having a shape similar to that of the lane of the moved 2D map may be detected in a specific area including the reference point of the 3D map. v) Attribute information included in the data of the lane of the moved 2D map may be added to corresponding data of the lane constituting the shape of the lane of the detected 3D map.

Description

2D 지도 정보를 3D 지도에 매칭하는 방법 및 시스템{METHOD AND SYSTEM FOR MATCHING INFORMATION OF 2D MAP WITH 3D MAP}Method and system for matching 2D map information to 3D map {METHOD AND SYSTEM FOR MATCHING INFORMATION OF 2D MAP WITH 3D MAP}

본 발명은 2D 지도 정보를 3D 지도에 매칭하는 방법 및 시스템에 관한 것이다.The present invention relates to a method and system for matching 2D map information to a 3D map.

최근, 차량 등에서 경로 안내, 자동 주행 등의 서비스를 제공하기 위하여, 보다 정밀한 고정밀 지도가 요구되고 있으며, 대표적으로 라이다(Light Detection And Ranging: LIDAR)가 고정밀 지도를 구축하는 데 이용될 수 있다. 즉, LIDAR를 이용하여 점군(Point Cloud) 데이터들을 수 차례 수집하고, 상기 수 차례 수집된 점군 데이터들을 통합함으로써 고정밀 지도가 구축될 수 있다.Recently, in order to provide services such as route guidance and automatic driving in a vehicle, a more precise and high-precision map is required, and a representative LIDAR (Light Detection And Ranging) can be used to build a high-precision map. That is, a high-precision map can be constructed by collecting point cloud data several times using LIDAR and integrating the point cloud data collected several times.

다만, 상기 점군 데이터들을 이용하여 고정밀 지도를 구축함에 있어서, 이에 포함되는 차선 데이터에 차선의 형태나 색상, 혹은 차선이 매칭되는 네트워크 링크와 같은 속성 정보가 포함되지 않을 수 있다. 이에 따라, 최근 개발되고 있는 자율 주행 차량을 위해서는 이러한 속성 정보를 포함하는 차선 데이터를 생성할 필요가 있다.However, in constructing a high-precision map using the point cloud data, the lane data included therein may not include attribute information such as the shape or color of the lane or the network link to which the lane matches. Accordingly, it is necessary to generate lane data including such attribute information for an autonomous vehicle that is being recently developed.

본 발명의 일 목적은 2D 지도 정보를 3D 지도에 매칭하는 방법을 제공하는 것이다.One object of the present invention is to provide a method of matching 2D map information to a 3D map.

본 발명의 다른 목적은 2D 지도 정보를 3D 지도에 매칭하는 시스템을 제공하는 것이다.Another object of the present invention is to provide a system for matching 2D map information to a 3D map.

다만, 본 발명의 목적은 상술한 목적들로 한정되는 것이 아니며, 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위에서 다양하게 확장될 수 있을 것이다.However, the object of the present invention is not limited to the above-mentioned objects, and may be expanded in various ways without departing from the spirit and scope of the present invention.

본 발명의 일 목적을 달성하기 위하여, 본 발명의 실시예들에 따른 2D 지도 정보를 3D 지도에 매칭하는 방법에서, i) 2D 지도의 기준 지점과 이에 대응하는 3D 지도의 기준 지점 사이의 위치 차이를 측정할 수 있다. ii) 상기 2D 지도의 상기 기준 지점을 포함하는 특정 영역에 포함된 차선의 형상을 상기 위치 차이만큼 이동시킬 수 있다. iii) 하우스도르프 거리(Hausdorff distance) 방식을 사용하여, 상기 이동된 2D 지도의 차선의 형상과 유사한 형상을 갖는 차선 형상을 상기 3D 지도의 상기 기준 지점을 포함하는 특정 영역에서 검출할 수 있다. v) 상기 이동된 2D 지도의 차선의 데이터에 포함된 속성 정보를 이에 대응하는 상기 검출된 3D 지도의 차선 형상을 이루는 차선의 데이터에 추가할 수 있다.In order to achieve one object of the present invention, in a method for matching 2D map information to a 3D map according to embodiments of the present invention, i) a positional difference between a reference point of a 2D map and a reference point of a corresponding 3D map can measure ii) A shape of a lane included in a specific area including the reference point of the 2D map may be moved by the position difference. iii) Using the Hausdorff distance method, a lane shape having a shape similar to that of the lane of the moved 2D map may be detected in a specific area including the reference point of the 3D map. v) Attribute information included in the data of the lane of the moved 2D map may be added to corresponding data of the lane constituting the shape of the lane of the detected 3D map.

예시적인 실시예들에 있어서, 상기 2D 지도 및 상기 3D 지도의 기준 지점들은 차선의 합류점 또는 분기점, 교차로, 진입로, 안전지대, 표지판, 이정표, 신호등 중에서 적어도 하나를 포함할 수 있다.In example embodiments, the reference points of the 2D map and the 3D map may include at least one of a confluence or divergence point of lanes, an intersection, an access road, a safety zone, a sign, a signpost, or a traffic light.

예시적인 실시예들에 있어서, 상기 2D 지도의 기준 지점을 포함하는 상기 특정 영역에 포함된 차선의 형상을 상기 위치 차이만큼 이동시키는 단계는 상기 2D 지도에서 상기 특정 영역 내에 포함된 모든 차선들을 상기 위치 차이만큼 이동시킬 수 있다.In example embodiments, the step of moving the shape of a lane included in the specific area including the reference point of the 2D map by the position difference may include moving all lanes included in the specific area on the 2D map to the position. The difference can be moved.

예시적인 실시예들에 있어서, 상기 2D 지도 및 상기 3D 지도의 상기 기준 지점들은 각각 상기 2D 및 3D 지도들 내에서 복수 개로 선정될 수 있으며, 이에 따라 ii) 내지 iv) 단계들은 상기 2D 지도에서 상기 선정된 복수 개의 기준 지점들을 각각 포함하는 상기 특정 영역들에 대해 각각 수행될 수 있다.In example embodiments, a plurality of reference points of the 2D map and the 3D map may be selected in the 2D and 3D maps, respectively, and accordingly, steps ii) to iv) may be performed in the 2D map. It may be performed for each of the specific regions each including a plurality of selected reference points.

예시적인 실시예들에 있어서, 상기 2D 지도의 차선의 데이터에 포함된 상기 속성 정보는 상기 차선의 형태 혹은 색상, 또는 차선이 매칭되는 네트워크 링크를 포함할 수 있다.In example embodiments, the attribute information included in the lane data of the 2D map may include a shape or color of the lane or a network link to which the lane matches.

예시적인 실시예들에 있어서, 상기 차선의 형태는 실선 혹은 점선을 포함할 수 있다.In example embodiments, the shape of the lane may include a solid line or a dotted line.

본 발명의 다른 목적을 달성하기 위하여, 본 발명의 실시예들에 따른 2D 지도 정보를 3D 지도에 매칭하는 시스템은, 2D 지도를 저장하는 제1 지도 저장부; 3D 지도를 저장하는 제2 지도 저장부; 상기 제1 지도 저장부에 저장된 상기 2D 지도의 기준 지점과 상기 제2 지도 저장부에 저장된 상기 3D 지도의 상기 2D 지도의 기준 지점에 대응하는 기준 지점 사이의 위치 차이를 측정하는 위치 차이 측정부; 상기 2D 지도의 상기 기준 지점을 포함하는 특정 영역에 포함된 차선의 형상을 상기 위치 차이만큼 이동시키는 차선 위치 이동부; 하우스도르프 거리(Hausdorff distance)방식을 사용하여, 상기 이동된 2D 지도의 차선의 형상과 유사한 형상을 갖는 차선 형상을 상기 3D 지도에서 검출하는 차선 검출부; 및 상기 이동된 2D 지도의 차선의 데이터에 포함된 속성 정보를 이에 대응하는 상기 검출된 3D 지도의 차선 형상을 이루는 차선의 데이터에 추가하는 차선 속성 정보 추가부를 포함할 수 있다.In order to achieve another object of the present invention, a system for matching 2D map information to a 3D map according to embodiments of the present invention includes a first map storage unit for storing a 2D map; a second map storage unit that stores a 3D map; a position difference measurement unit measuring a position difference between a reference point of the 2D map stored in the first map storage unit and a reference point corresponding to a reference point of the 2D map of the 3D map stored in the second map storage unit; a lane position moving unit that moves the shape of a lane included in a specific area including the reference point of the 2D map by the position difference; a lane detector detecting from the 3D map a shape of a lane having a shape similar to that of the moved lane of the 2D map by using a Hausdorff distance method; and a lane attribute information adding unit for adding the attribute information included in the data of the lane of the moved 2D map to the corresponding data of the lane constituting the shape of the lane of the detected 3D map.

예시적인 실시예들에 있어서, 상기 2D 지도의 차선 속성 정보가 추가된 3D 지도를 저장하는 제3 지도 저장부를 더 포함할 수 있다.In example embodiments, a third map storage unit for storing a 3D map to which lane attribute information of the 2D map is added may be further included.

예시적인 실시예들에 있어서, 상기 2D 지도 및 상기 3D 지도의 기준 지점들은 차선의 합류점 또는 분기점, 교차로, 진입로, 안전지대, 표지판, 이정표, 신호등 중에서 적어도 하나를 포함할 수 있다.In example embodiments, the reference points of the 2D map and the 3D map may include at least one of a confluence or divergence point of lanes, an intersection, an access road, a safety zone, a sign, a signpost, or a traffic light.

예시적인 실시예들에 있어서, 상기 차선 위치 이동부는 상기 2D 지도에서 상기 기준 지점을 포함하는 상기 특정 영역 내에 포함된 모든 차선들을 상기 위치 차이만큼 이동시킬 수 있다.In example embodiments, the lane position moving unit may move all lanes included in the specific area including the reference point on the 2D map by the position difference.

예시적인 실시예들에 있어서, 상기 2D 지도 및 상기 3D 지도의 상기 기준 지점들은 각각 상기 2D 및 3D 지도들 내에서 복수 개로 선정될 수 있으며, 이에 따라 상기 차선 위치 이동부는 상기 2D 지도에서 상기 선정된 복수 개의 기준 지점들을 각각 포함하는 상기 특정 영역들에 각각 포함된 차선의 형상을 상기 위치 차이만큼 이동시킬 수 있다.In example embodiments, a plurality of reference points of the 2D map and the 3D map may be selected in the 2D and 3D maps, respectively, and accordingly, the lane position moving unit may select the selected reference points in the 2D map. The shapes of lanes respectively included in the specific regions each including a plurality of reference points may be moved by the position difference.

예시적인 실시예들에 있어서, 상기 2D 지도의 차선의 데이터에 포함된 상기 속성 정보는 상기 차선의 형태 혹은 색상, 또는 차선이 매칭되는 네트워크 링크를 포함할 수 있다.In example embodiments, the attribute information included in the lane data of the 2D map may include a shape or color of the lane or a network link to which the lane matches.

예시적인 실시예들에 있어서, 상기 차선의 형태는 실선 혹은 점선을 포함할 수 있다.In example embodiments, the shape of the lane may include a solid line or a dotted line.

본 발명의 실시예들에 따른 2D 지도 정보를 3D 지도에 매칭하는 방법 및 시스템에 의하면, 정밀도는 높지만 신규 생성이 상대적으로 복잡한 3D 지도의 차선 데이터에, 차선의 위치 정확도나 정밀도는 낮지만 신규로 생성하거나 유지 보수하는 것이 간편한 2D 지도에 포함된 차선의 속성 정보를 매칭시킴으로써, 자율 주행에 필수적인 고정밀 3D 지도를 효과적으로 생성할 수 있다.According to the method and system for matching 2D map information to a 3D map according to embodiments of the present invention, lane data of a 3D map with high accuracy but relatively complex new generation is newly created, although the location accuracy or precision of the lane is low. By matching lane attribute information included in a 2D map that is easy to create or maintain, a high-precision 3D map essential for autonomous driving can be effectively generated.

다만, 본 발명의 효과는 상술한 효과에 한정되는 것이 아니며, 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위에서 다양하게 확장될 수 있을 것이다.However, the effects of the present invention are not limited to the above-described effects, and may be variously extended within a range that does not deviate from the spirit and scope of the present invention.

도 1은 본 발명의 실시예들에 따른 2D 지도 정보를 3D 지도에 매칭하는 시스템을 나타내는 블록도이다.
도 2는 본 발명의 실시예에 따른 2D 지도 정보를 3D 지도에 매칭하는 방법을 나타내는 순서도이다.
도 3은 본 발명의 실시예에 따른 2D 지도 정보를 3D 지도에 매칭하는 방법에서 위치 차이 측정의 일 예를 나타내는 도면이다.
1 is a block diagram illustrating a system for matching 2D map information to a 3D map according to embodiments of the present invention.
2 is a flowchart illustrating a method of matching 2D map information to a 3D map according to an embodiment of the present invention.
3 is a diagram illustrating an example of location difference measurement in a method of matching 2D map information to a 3D map according to an embodiment of the present invention.

본문에 개시되어 있는 본 발명의 실시예들에 대해서, 특정한 구조적 내지 기능적 설명들은 단지 본 발명의 실시예를 설명하기 위한 목적으로 예시된 것으로, 본 발명의 실시예들은 다양한 형태로 실시될 수 있으며 본문에 설명된 실시예들에 한정되는 것으로 해석되어서는 아니 된다.For the embodiments of the present invention disclosed in the text, specific structural or functional descriptions are only exemplified for the purpose of explaining the embodiments of the present invention, and the embodiments of the present invention may be implemented in various forms and the text It should not be construed as being limited to the embodiments described above.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는바, 특정 실시예들을 도면에 예시하고 본문에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Since the present invention can have various changes and various forms, specific embodiments will be illustrated in the drawings and described in detail in the text. However, this is not intended to limit the present invention to a specific form disclosed, and should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention.

제1, 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성 요소로부터 구별하는 목적으로 사용될 수 있다. 예를 들어, 본 발명의 권리 범위로부터 이탈되지 않은 채 제1 구성 요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제 2 구성 요소도 제1 구성 요소로 명명될 수 있다.Terms such as first and second may be used to describe various components, but the components should not be limited by the terms. The terms may be used for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first element may be termed a second element, and similarly, the second element may also be termed a first element.

어떤 구성 요소가 다른 구성 요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성 요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성 요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성 요소가 다른 구성 요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성 요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.It is understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, but other elements may exist in the middle. It should be. On the other hand, when a component is referred to as “directly connected” or “directly connected” to another component, it should be understood that no other component exists in the middle. Other expressions describing the relationship between components, such as "between" and "directly between" or "adjacent to" and "directly adjacent to", etc., should be interpreted similarly.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in this application are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, terms such as "comprise" or "having" are intended to indicate that the described feature, number, step, operation, component, part, or combination thereof exists, but that one or more other features or numbers are present. However, it should be understood that it does not preclude the presence or addition of steps, operations, components, parts, or combinations thereof.

또한, 본문에 기재된 "~부" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.In addition, terms such as “~ unit” described in the text refer to a unit that processes at least one function or operation, which may be implemented by hardware or software or a combination of hardware and software.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미이다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미인 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in this application, they are not interpreted in an ideal or excessively formal meaning. .

이하, 첨부한 도면들을 참조하여, 본 발명의 실시예들을 보다 상세하게 설명하고자 한다. 도면상의 동일한 구성 요소에 대해서는 동일하거나 유사한 참조 부호를 사용한다.Hereinafter, embodiments of the present invention will be described in more detail with reference to the accompanying drawings. The same or similar reference numerals are used for like elements in the drawings.

도 1은 본 발명의 실시예들에 따른 2D 지도 정보를 3D 지도에 매칭하는 시스템을 나타내는 블록도이고, 도 2는 본 발명의 실시예에 따른 2D 지도 정보를 3D 지도에 매칭하는 방법을 나타내는 순서도이며, 도 3은 본 발명의 실시예에 따른 2D 지도 정보를 3D 지도에 매칭하는 방법에서 위치 차이 측정의 일 예를 나타내는 도면이다.1 is a block diagram illustrating a system for matching 2D map information to a 3D map according to embodiments of the present invention, and FIG. 2 is a flowchart illustrating a method of matching 2D map information to a 3D map according to an embodiment of the present invention. 3 is a diagram illustrating an example of location difference measurement in a method of matching 2D map information to a 3D map according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 실시예들에 따른 2D 지도 정보를 3D 지도에 매칭하는 시스템(100)은 저장 유닛(200) 및 데이터 처리 유닛(300)을 포함할 수 있다. Referring to FIG. 1 , a system 100 for matching 2D map information to a 3D map according to embodiments of the present invention may include a storage unit 200 and a data processing unit 300 .

저장 유닛(200)은 제1 내지 제3 지도 저장부들(210, 220, 230)을 포함할 수 있다. 이때, 제1 내지 제3 지도 저장부들(210, 220, 230)은 각각 2D 지도, 제1 3D 지도, 및 제2 3D 지도를 저장할 수 있다.The storage unit 200 may include first to third map storage units 210 , 220 , and 230 . In this case, the first to third map storage units 210, 220, and 230 may store a 2D map, a first 3D map, and a second 3D map, respectively.

제1 지도 저장부(210)에 저장되는 상기 2D 지도는 차선, 차로, 도로 시설물 등에 대한 데이터를 포함할 수 있다. 특히, 상기 차선 데이터에는 예를 들어, 차선의 형태나 차선의 색상, 혹은 차선이 매칭되는 네트워크 링크와 같은 차선의 속성 정보를 포함할 수 있다.The 2D map stored in the first map storage unit 210 may include data on lanes, lanes, road facilities, and the like. In particular, the lane data may include, for example, lane attribute information such as the lane shape, lane color, or network link to which the lane is matched.

제2 지도 저장부(210)에 저장되는 상기 제1 3D 지도는 모바일 맵핑 시스템(Mobile Mapping System; MMS)에 의해 생성된 3차원 점군(3D Point Cloud) 데이터를 포함할 수 있다. 일 실시예에서, 상기 MMS는 라이다(Light Detection And Ranging; LiDAR) 장치 및 GPS(Global Positioning System) 장치를 통해 3차원 점군(3D Point Cloud) 데이터를 생성할 수 있다. The first 3D map stored in the second map storage unit 210 may include 3D point cloud data generated by a mobile mapping system (MMS). In one embodiment, the MMS may generate 3D point cloud data through a Light Detection And Ranging (LiDAR) device and a Global Positioning System (GPS) device.

상기 라이다 장치는 상대 좌표 값들 및 세기(Intensity) 값들을 갖는 점군 데이터들을 획득할 수 있다. 일 실시예에서, 상기 라이다 장치는 도로 주변의 물체들, 예를 들어 차선, 표지판, 신호등 등에 대한 상대 좌표 값들을 현재 위치에서 상기 물체들까지의 거리들을 측정하여 획득할 수 있고, 상기 물체들을, 예를 들어, 1초당 약 70만회 내지 약 100만회의 점들을 나타내는 점군 데이터들로 표현할 수 있다. 이때, 상기 라이다 장치에 의해 획득되는 상기 점군 데이터들의 상기 상대 좌표 값들은 약 2㎝ 미만의 정확도를 가질 수 있으며, 이에 따라 고정밀 지도 데이터에 적합할 수 있다. 한편, 각 점군 데이터의 상기 상대 좌표 값은 X축, Y축 및 Z축의 위치 값을 갖는 3차원 위치 값일 수 있다. 또한, 상기 라이다 장치에 의해 획득되는 각 점군 데이터는 상기 상대 좌표 값과 함께 상기 물체에 의해 반사된 광의 반사도 또는 세기(Intensity)를 나타내는 세기 값을 가질 수 있다. The lidar device may obtain point cloud data having relative coordinate values and intensity values. In one embodiment, the lidar device may obtain relative coordinate values for objects around the road, for example, lanes, signs, traffic lights, etc., by measuring distances from the current location to the objects, and the objects , For example, it can be expressed as point cloud data representing about 700,000 to about 1 million points per second. In this case, the relative coordinate values of the point cloud data obtained by the LIDAR device may have an accuracy of less than about 2 cm, and thus may be suitable for high-precision map data. On the other hand, the relative coordinate value of each point cloud data may be a 3-dimensional position value having position values of the X-axis, Y-axis, and Z-axis. In addition, each point cloud data obtained by the LIDAR device may have an intensity value representing reflectivity or intensity of light reflected by the object together with the relative coordinate value.

상기 GPS 장치는 MMS의 이동 궤적을 나타내는 궤적 데이터를 생성할 수 있다. 예를 들어, 상기 GPS 장치는 GNSS/INS(Global Navigation Satellite System/ Inertial Navigation System)일 수 있으나, 이에 한정되지 않는다. The GPS device may generate trajectory data representing a movement trajectory of the MMS. For example, the GPS device may be a GNSS/INS (Global Navigation Satellite System/Inertial Navigation System), but is not limited thereto.

일 실시예에 있어서, 상기 라이다 장치 및 상기 GPS 장치를 포함하는 상기 MMS는 차량에 탑재되고, 상기 차량이 고정밀 지도 데이터의 구축이 요구되는 도로를 이동하면서, 상기 라이다 장치 및 상기 GPS 장치가 상기 도로에 대한 상기 점군 데이터들 및 상기 궤적 데이터를 획득할 수 있다. In one embodiment, the MMS including the lidar device and the GPS device is mounted on a vehicle, and while the vehicle moves on a road requiring construction of high-precision map data, the lidar device and the GPS device The point cloud data and the trajectory data of the road may be obtained.

데이터 처리 유닛(300)은 위치 차이 측정부(310), 차선 위치 이동부(320), 차선 검출부(330) 및 차선 속성 정보 추가부(340)를 포함할 수 있다.The data processing unit 300 may include a position difference measuring unit 310 , a lane position moving unit 320 , a lane detecting unit 330 and a lane attribute information adding unit 340 .

도시하지는 않았으나, 데이터 처리 유닛(300)은 예를 들어, 중앙처리유닛(Central Processing Unit: CPU)와 같은 제어부, 및 램(RAM) 및/또는 롬(ROM) 등과 같은 메모리부를 더 포함할 수 있다. 즉, 이하에서 설명될 데이터 처리 유닛(300) 내에 포함된 위치 차이 측정부(310), 차선 위치 이동부(320), 차선 검출부(330) 및 차선 속성 정보 추가부(340)가 수행하는 각 동작들은 모두 상기 제어부에 의해 제어될 수 있으며, 이들 동작에 필요한 프로그램들은 상기 메모리부의 예를 들어, ROM에 저장되어 있을 수 있고, 또한 이들 동작에 의한 데이터는 상기 메모리부의 예를 들어, RAM에 일시적으로 저장될 수 있다.Although not shown, the data processing unit 300 may further include, for example, a control unit such as a central processing unit (CPU) and a memory unit such as RAM and/or ROM. . That is, each operation performed by the position difference measuring unit 310, the lane position moving unit 320, the lane detecting unit 330, and the lane attribute information adding unit 340 included in the data processing unit 300 to be described below. All may be controlled by the control unit, programs necessary for these operations may be stored in the memory unit, for example, ROM, and data by these operations may be temporarily stored in the memory unit, for example, RAM. can be stored

도 1 및 2를 참조하면, 제1 단계(S110)에서, 위치 차이 측정부(310)는 제1 지도 저장부(210)에 저장된 상기 2D 지도에서 제1 기준 지점을 설정하고, 제2 지도 저장부(220)에 저장된 상기 제1 3D 지도에서 상기 2D 지도의 제1 기준 지점에 대응하는 제2 기준 지점을 설정한 후, 상기 제1 및 제2 기준 지점들 사이의 위치 차이를 측정할 수 있다.1 and 2, in a first step (S110), the position difference measurement unit 310 sets a first reference point in the 2D map stored in the first map storage unit 210, and stores the second map. After setting a second reference point corresponding to the first reference point of the 2D map in the first 3D map stored in the unit 220, a positional difference between the first and second reference points may be measured. .

상기 2D 지도의 상기 제1 기준 지점 및 상기 제1 3D 지도의 상기 제2 기준 지점은 차선에서 다른 부분들과 구별될 수 있는 지점이거나, 특수한 형태의 차로이거나, 혹은 도로 시설물과 같은 랜드마크일 수 있다. 예시적인 실시예들에 있어서, 상기 각 제1 및 제2 지점들은 차선의 합류점, 분기점 등과 같이 차선의 다른 부분들과 구별될 수 있는 지점들이나, 교차로, 진입로, 안전지대 등과 같은 특수한 형태의 차로이거나, 혹은 표지판, 이정표, 신호등 등과 같은 랜드마크를 포함할 수 있다.The first reference point of the 2D map and the second reference point of the first 3D map may be points distinguishable from other parts of a lane, special types of lanes, or landmarks such as road facilities. there is. In exemplary embodiments, each of the first and second points may be points that can be distinguished from other parts of the lane, such as a junction or divergence of lanes, or a special type of roadway, such as an intersection, an access road, or a safety zone. , or landmarks such as signs, milestones, and traffic lights.

예시적인 실시예들에 있어서, 위치 차이 측정부(310)는 상기 2D 지도에서 복수의 제1 기준 지점들을 설정할 수 있으며, 이에 따라 상기 제1 3D 지도에서도 상기 2D 지도의 상기 복수의 제1 기준 지점들에 대응하여 복수의 제2 기준 지점들이 설정될 수 있다. 이하의 각 단계들에서는, 상기 각 제1 및 제2 기준 지점들이 복수로 설정된 경우, 상기 복수의 제1 및 제2 지점들에 대해 각각 동작이 수행될 수 있다.In example embodiments, the position difference measurer 310 may set a plurality of first reference points on the 2D map, and accordingly, the plurality of first reference points on the 2D map may be set on the first 3D map. A plurality of second reference points may be set corresponding to the points. In each of the following steps, when each of the first and second reference points is set in plural, an operation may be performed for each of the plurality of first and second points.

도 3을 함께 참조하면, 위치 차이 측정부(310)는 상기 2D 지도에 포함된 제1 차선(410)의 제1 합류점(A)과 상기 제1 3D 지도에 포함된 제2 차선(420)의 제2 합류점(B) 사이의 위치 차이(Δ)를 측정할 수 있다. 이때, 제1 합류점(A)은 2차원 좌표 즉, (Xa, Ya)를 가질 수 있으며, 제2 합류점(B)은 3차원 좌표를 가질 수 있으나, 이 중에서 2차원 좌표 즉, (Xb, Yb)가 추출될 수 있다. 이에 따라, 위치 차이(Δ) 역시 2차원 성분 (ΔX, ΔY)로 나타내어질 수 있다.Referring to FIG. 3 together, the position difference measuring unit 310 is configured to measure the difference between a first convergence point A of the first lane 410 included in the 2D map and the second lane 420 included in the first 3D map. A positional difference (Δ) between the second confluence points (B) can be measured. At this time, the first confluence point (A) may have two-dimensional coordinates, that is, (Xa, Ya), and the second confluence point (B) may have three-dimensional coordinates. ) can be extracted. Accordingly, the position difference (Δ) can also be expressed as two-dimensional components (ΔX, ΔY).

도 1 및 2를 참조하면, 제2 단계(S120)에서, 차선 위치 이동부(320)는 상기 2D 지도에서 상기 제1 기준 지점을 포함하는 특정 영역을 설정한 후, 상기 특정 영역 내에 포함된 차선의 형상을 위치 차이 측정부(310)에 의해 측정된 상기 위치 차이만큼 이동시킬 수 있다. 예시적인 실시예들에 있어서, 차선 위치 이동부(320)는 상기 특정 영역 내에 포함된 모든 차선들을 상기 위치 차이만큼 이동시킬 수 있다.1 and 2, in the second step (S120), the lane position moving unit 320 sets a specific area including the first reference point on the 2D map, and then the lane included in the specific area. The shape of may be moved by the position difference measured by the position difference measuring unit 310 . In example embodiments, the lane position moving unit 320 may move all lanes included in the specific area by the position difference.

도 1 및 2를 참조하면, 제3 단계(S130)에서, 차선 검출부(330)는 차선 위치 이동부(320)에 의해 이동된 상기 2D 지도의 차선의 형상과 유사한 형상을 갖는 차선 형상을 상기 제1 3D 지도에서 검출할 수 있다. 예시적인 실시예들에 있어서, 하우스도르프 거리(Hausdorff distance)방식을 사용하여, 상기 2D 지도의 차선 형상과 유사한 형상의 차선 형상을 상기 제1 3D 지도에서 찾을 수 있다. 1 and 2, in the third step (S130), the lane detecting unit 330 determines the lane shape having a shape similar to that of the lane of the 2D map moved by the lane position moving unit 320. 1 Can be detected on a 3D map. In example embodiments, a lane shape having a shape similar to that of the 2D map may be found in the first 3D map using a Hausdorff distance method.

즉, 상기 2D 지도에 포함된 상기 특정 영역과 이에 대응하는 상기 제1 3D 지도에 포함된 특정 영역을 서로 비교하되, 상기 2D 지도의 상기 특정 영역 내에 포함된 차선 형상을 제1 세트로 하고, 상기 제1 3D 지도의 상기 특정 영역 내에 포함된 차선 형상을 제2 세트로 하여, 상기 제1 및 제2 세트들 사이의 유사도를 비교할 수 있다. 이에 따라, 상기 제1 세트의 각 지점들로부터 가장 가까운 상기 제2 세트의 대응하는 지점에 이르는 거리의 최대값을 고려하여, 상기 제1 및 제2 세트들 사이의 유사도를 비교할 수 있으며, 상기 2D 지도의 제1 세트에 대해 상기 최대 거리가 작은 제2 세트, 즉 상기 제1 세트와 가장 유사한 형상을 갖는 제2 세트를 상기 제1 3D 지도에서 검출할 수 있다.That is, the specific area included in the 2D map and the corresponding specific area included in the first 3D map are compared with each other, and lane shapes included in the specific area of the 2D map are set as a first set, A similarity between the first and second sets may be compared by considering the shape of a lane included in the specific area of the first 3D map as a second set. Accordingly, the degree of similarity between the first and second sets may be compared by considering a maximum value of a distance from each point of the first set to a corresponding point of the second set that is closest to the point. A second set having the smallest maximum distance with respect to the first set of maps, that is, a second set having the most similar shape to the first set may be detected from the first 3D map.

도 1 및 2를 참조하면, 제4 단계(S140)에서, 차선 속성 정보 추가부(340)는 차선 위치 이동부(320)에 의해 이동된 상기 2D 지도의 차선의 데이터에 포함된 속성 정보를 차선 검출부(330)에 의해 상기 2D 지도의 차선 형상과 유사한 것으로 검출된 상기 제1 3D 지도의 차선 형상을 이루는 차선의 데이터에 추가할 수 있으며, 이에 따라 제2 3D 지도가 생성될 수 있다.1 and 2, in a fourth step (S140), the lane attribute information adding unit 340 converts the attribute information included in the data of the lane of the 2D map moved by the lane position moving unit 320 to the lane. Data of lanes constituting the lane shape of the first 3D map detected by the detection unit 330 to be similar to the lane shape of the 2D map may be added, and accordingly, a second 3D map may be generated.

즉, 상기 2D 지도에 포함된 차선의 데이터는 예를 들어, 차선이 실선인지 혹은 점선인지 등에 관한 차선의 형태나, 차선이 흰색인지 혹은 노란색인지 등에 관한 색상, 혹은 차선이 매칭되는 네트워크 링크와 같은 속성 정보를 포함하고 있지만, 상기 제1 3D 지도에 포함된 차선의 데이터에는 이들이 포함되지 않을 수 있다. 이에 따라, 차선 검출부(330)에 의해서 상기 2D 지도의 특정 영역에 포함된 차선의 형상과 유사한 형상을 갖는 차선 형상을 포함하는 특정 영역이 상기 제1 3D 지도에서 검출되면, 상기 2D 지도의 상기 특정 영역 내의 각 차선 데이터에 포함된 상기 속성 정보를 상기 제1 3D 지도의 대응하는 상기 특정 영역 내의 각 차선 데이터에 추가할 수 있다. That is, the lane data included in the 2D map may include, for example, the shape of the lane regarding whether the lane is a solid line or a dotted line, the color of whether the lane is white or yellow, or the network link with which the lane is matched. Attribute information is included, but may not be included in data of lanes included in the first 3D map. Accordingly, when a specific area including a lane shape having a shape similar to that of a lane included in the specific area of the 2D map is detected from the first 3D map by the lane detection unit 330, the specific area of the 2D map is detected. The attribute information included in each lane data within the area may be added to corresponding lane data within the specific area of the first 3D map.

이후, 제3 지도 저장부(230)는 차선 속성 정보 추가부(340)에 의해 생성된 상기 제2 3D 지도를 저장할 수 있다.Thereafter, the third map storage unit 230 may store the second 3D map generated by the lane attribute information adding unit 340 .

전술한 바와 같이, 본 발명의 실시예에 따른 2D 지도 정보를 3D 지도에 매칭하는 방법 및 시스템(100)에 의하면, 차선의 속성 정보를 포함하는 2D 지도의 차선 데이터를 고정밀 3D 지도에 포함된 차선 데이터에 추가할 수 있으며, 이에 따라 자율 주행에서 필수적인 고정밀 3D 지도를 효과적으로 생성할 수 있다. 특히, 상기 2D 지도의 경우, 비록 차선의 위치 정확도나 정밀도가 낮지만, 이를 신규로 생성하거나 유지 보수하는 것은 간편하다. 이에 따라, 정밀도는 높지만 신규 생성이 상대적으로 복잡한 3D 지도의 경우, 이에 포함되지 않는 차선의 속성 정보를 상기 2D 지도와의 매칭을 통해 확보함으로써, 효과적으로 고정밀 3D 지도를 생성할 수 있다.As described above, according to the method and system 100 for matching 2D map information to a 3D map according to an embodiment of the present invention, lane data of a 2D map including attribute information of lanes is converted into lanes included in a high-precision 3D map. It can be added to the data, thereby effectively generating high-precision 3D maps essential for autonomous driving. In particular, in the case of the 2D map, although the location accuracy or precision of lanes is low, it is easy to newly create or maintain the 2D map. Accordingly, in the case of a 3D map with high precision but relatively complicated new creation, a high-precision 3D map can be effectively generated by securing attribute information of lanes not included therein through matching with the 2D map.

이상, 본 발명의 실시예들에 따른 2D 지도 정보를 3D 지도에 매칭하는 방법 및 시스템에 대하여 도면을 참조하여 설명하였지만, 상기 설명은 예시적인 것으로서 본 발명의 기술적 사상을 벗어나지 않는 범위에서 해당 기술 분야에서 통상의 지식을 가진 자에 의하여 수정 및 변경될 수 있을 것이다.In the above, a method and system for matching 2D map information to a 3D map according to embodiments of the present invention have been described with reference to the drawings, but the above description is exemplary and is within the scope of the technical spirit of the present invention. may be modified and changed by those skilled in the art.

100: 2D 지도 정보를 3D 지도에 매칭하는 시스템
200: 저장 유닛 210, 220, 230: 제1 내지 제3 저장부
300: 데이터 처리 유닛 310: 위치 차이 측정부
320: 차선 위치 이동부 330: 차선 검출부
340: 차선 속성 정보 추가부
100: System for matching 2D map information to 3D map
200: storage units 210, 220, 230: first to third storage units
300: data processing unit 310: position difference measuring unit
320: lane position moving unit 330: lane detection unit
340: lane attribute information addition unit

Claims (13)

i) 위치 차이 측정부가 2D 지도의 기준 지점과 이에 대응하는 3D 지도의 기준 지점 사이의 위치 차이를 측정하는 단계;
ii) 차선 위치 이동부가 상기 2D 지도의 상기 기준 지점을 포함하는 특정 영역에 포함된 차선의 형상을 상기 위치 차이만큼 이동시키는 단계;
iii) 차선 검출부가 하우스도르프 거리(Hausdorff distance) 방식을 사용하여, 상기 이동된 2D 지도의 차선의 형상과 유사한 형상을 갖는 차선 형상을 상기 3D 지도의 상기 기준 지점을 포함하는 특정 영역에서 검출하는 단계; 및
iv) 차선 속성 정보 추가부가 상기 이동된 2D 지도의 차선의 데이터에 포함된 속성 정보를 이에 대응하는 상기 검출된 3D 지도의 차선 형상을 이루는 차선의 데이터에 추가하는 단계를 포함하는 2D 지도 정보를 3D 지도에 매칭하는 방법.
i) measuring a position difference between a reference point of the 2D map and a corresponding reference point of the 3D map by a position difference measuring unit;
ii) moving, by a lane position moving unit, a shape of a lane included in a specific area including the reference point of the 2D map by the position difference;
iii) detecting, by a lane detection unit, a lane shape having a shape similar to that of the lane of the moved 2D map in a specific area including the reference point of the 3D map, using a Hausdorff distance method; ; and
iv) adding, by a lane attribute information adder, attribute information included in the data of the lane of the moved 2D map to corresponding data of lanes constituting the shape of the lane of the detected 3D map; How to match on a map.
제1 항에 있어서, 상기 2D 지도 및 상기 3D 지도의 기준 지점들은 차선의 합류점 또는 분기점, 교차로, 진입로, 안전지대, 표지판, 이정표, 신호등 중에서 적어도 하나를 포함하는 것을 특징으로 하는 2D 지도 정보를 3D 지도에 매칭하는 방법.The method of claim 1, wherein the reference points of the 2D map and the 3D map include at least one of a convergence or divergence point of lanes, an intersection, an access road, a safety zone, a sign, a signpost, or a traffic light. How to match on a map. 제1 항에 있어서, 상기 2D 지도의 기준 지점을 포함하는 상기 특정 영역에 포함된 차선의 형상을 상기 위치 차이만큼 이동시키는 단계는 상기 2D 지도에서 상기 특정 영역 내에 포함된 모든 차선들을 상기 위치 차이만큼 이동시키는 것을 특징으로 하는 2D 지도 정보를 3D 지도에 매칭하는 방법.The method of claim 1 , wherein the step of moving the shape of a lane included in the specific area including the reference point of the 2D map by the position difference comprises moving all lanes included in the specific area on the 2D map by the position difference. A method of matching 2D map information to a 3D map, characterized by moving. 제1 항에 있어서, 상기 2D 지도 및 상기 3D 지도의 상기 기준 지점들은 각각 상기 2D 및 3D 지도들 내에서 복수 개로 선정되며,
이에 따라 ii) 내지 iv) 단계들은 상기 2D 지도에서 상기 선정된 복수 개의 기준 지점들을 각각 포함하는 상기 특정 영역들에 대해 각각 수행되는 것을 특징으로 하는 2D 지도 정보를 3D 지도에 매칭하는 방법.
The method of claim 1, wherein a plurality of reference points of the 2D map and the 3D map are selected in each of the 2D and 3D maps,
Accordingly, steps ii) to iv) are respectively performed for the specific areas including the selected plurality of reference points in the 2D map, respectively.
제1 항에 있어서, 상기 2D 지도의 차선의 데이터에 포함된 상기 속성 정보는 상기 차선의 형태 혹은 색상, 또는 차선이 매칭되는 네트워크 링크를 포함하는 것을 특징으로 하는 2D 지도 정보를 3D 지도에 매칭하는 방법.The method of claim 1, wherein the attribute information included in the lane data of the 2D map includes a shape or color of the lane or a network link to which the lane is matched. method. 제5 항에 있어서, 상기 차선의 형태는 실선 혹은 점선을 포함하는 것을 특징으로 하는 2D 지도 정보를 3D 지도에 매칭하는 방법.6. The method of claim 5, wherein the shape of the lane includes a solid line or a dotted line. 2D 지도를 저장하는 제1 지도 저장부;
3D 지도를 저장하는 제2 지도 저장부;
상기 제1 지도 저장부에 저장된 상기 2D 지도의 기준 지점과 상기 제2 지도 저장부에 저장된 상기 3D 지도의 상기 2D 지도의 기준 지점에 대응하는 기준 지점 사이의 위치 차이를 측정하는 위치 차이 측정부;
상기 2D 지도의 상기 기준 지점을 포함하는 특정 영역에 포함된 차선의 형상을 상기 위치 차이만큼 이동시키는 차선 위치 이동부;
하우스도르프 거리(Hausdorff distance)방식을 사용하여, 상기 이동된 2D 지도의 차선의 형상과 유사한 형상을 갖는 차선 형상을 상기 3D 지도에서 검출하는 차선 검출부; 및
상기 이동된 2D 지도의 차선의 데이터에 포함된 속성 정보를 이에 대응하는 상기 검출된 3D 지도의 차선 형상을 이루는 차선의 데이터에 추가하는 차선 속성 정보 추가부를 포함하는 2D 지도 정보를 3D 지도에 매칭하는 시스템.
a first map storage unit that stores a 2D map;
a second map storage unit that stores a 3D map;
a position difference measurement unit measuring a position difference between a reference point of the 2D map stored in the first map storage unit and a reference point corresponding to a reference point of the 2D map of the 3D map stored in the second map storage unit;
a lane position moving unit that moves the shape of a lane included in a specific area including the reference point of the 2D map by the position difference;
a lane detector detecting from the 3D map a shape of a lane having a shape similar to that of the moved lane of the 2D map by using a Hausdorff distance method; and
Matching 2D map information including a lane attribute information addition unit for adding attribute information included in lane data of the moved 2D map to corresponding lane data constituting a lane shape of the detected 3D map to the 3D map system.
제7 항에 있어서, 상기 2D 지도의 차선 속성 정보가 추가된 3D 지도를 저장하는 제3 지도 저장부를 더 포함하는 것을 특징으로 하는 2D 지도 정보를 3D 지도에 매칭하는 시스템.8. The system of claim 7, further comprising a third map storage unit for storing a 3D map to which lane attribute information of the 2D map is added. 제7 항에 있어서, 상기 2D 지도 및 상기 3D 지도의 기준 지점들은 차선의 합류점 또는 분기점, 교차로, 진입로, 안전지대, 표지판, 이정표, 신호등 중에서 적어도 하나를 포함하는 것을 특징으로 하는 2D 지도 정보를 3D 지도에 매칭하는 시스템.8. The method of claim 7, wherein the reference points of the 2D map and the 3D map include at least one of a convergence or divergence point of lanes, an intersection, an access road, a safety zone, a sign, a guidepost, or a traffic light. A system that matches maps. 제7 항에 있어서, 상기 차선 위치 이동부는 상기 2D 지도에서 상기 기준 지점을 포함하는 상기 특정 영역 내에 포함된 모든 차선들을 상기 위치 차이만큼 이동시키는 것을 특징으로 하는 2D 지도 정보를 3D 지도에 매칭하는 시스템.The system of claim 7 , wherein the lane position moving unit moves all lanes included in the specific area including the reference point on the 2D map by the position difference. . 제7 항에 있어서, 상기 2D 지도 및 상기 3D 지도의 상기 기준 지점들은 각각 상기 2D 및 3D 지도들 내에서 복수 개로 선정되며,
이에 따라 상기 차선 위치 이동부는 상기 2D 지도에서 상기 선정된 복수 개의 기준 지점들을 각각 포함하는 상기 특정 영역들에 각각 포함된 차선의 형상을 상기 위치 차이만큼 이동시키는 것을 특징으로 하는 2D 지도 정보를 3D 지도에 매칭하는 시스템.
The method of claim 7, wherein a plurality of reference points of the 2D map and the 3D map are selected in each of the 2D and 3D maps,
Accordingly, the lane position moving unit moves the shape of each lane included in the specific areas each including the plurality of selected reference points in the 2D map by the position difference to convert 2D map information into a 3D map system to match.
제7 항에 있어서, 상기 2D 지도의 차선의 데이터에 포함된 상기 속성 정보는 상기 차선의 형태 혹은 색상, 또는 차선이 매칭되는 네트워크 링크를 포함하는 것을 특징으로 하는 2D 지도 정보를 3D 지도에 매칭하는 시스템.The method of claim 7 , wherein the attribute information included in the lane data of the 2D map includes a shape or color of the lane or a network link to which the lane is matched. system. 제12 항에 있어서, 상기 차선의 형태는 실선 혹은 점선을 포함하는 것을 특징으로 하는 2D 지도 정보를 3D 지도에 매칭하는 시스템.
13. The system of claim 12, wherein the shape of the lane includes a solid line or a dotted line.
KR1020200171592A 2020-12-09 2020-12-09 Method and system for matching information of 2d map with 3d map KR102484511B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200171592A KR102484511B1 (en) 2020-12-09 2020-12-09 Method and system for matching information of 2d map with 3d map

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200171592A KR102484511B1 (en) 2020-12-09 2020-12-09 Method and system for matching information of 2d map with 3d map

Publications (2)

Publication Number Publication Date
KR20220081753A KR20220081753A (en) 2022-06-16
KR102484511B1 true KR102484511B1 (en) 2023-01-05

Family

ID=82217320

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200171592A KR102484511B1 (en) 2020-12-09 2020-12-09 Method and system for matching information of 2d map with 3d map

Country Status (1)

Country Link
KR (1) KR102484511B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070014488A1 (en) 2004-07-09 2007-01-18 Ching-Chien Chen Automatically and accurately conflating road vector data, street maps, and orthoimagery
KR101544021B1 (en) 2012-10-29 2015-08-13 경북대학교 산학협력단 Apparatus and method for generating 3d map
KR102041320B1 (en) 2019-10-01 2019-11-06 주식회사 아이디어캐슬 Precision-Location Based Optimized 3D Map Delivery System

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100513660B1 (en) * 2003-05-23 2005-09-09 엘지전자 주식회사 Method for creating three-dimensional map from two-dimensional map
KR100708130B1 (en) * 2005-05-04 2007-04-17 삼성전자주식회사 Apparatus and method for extracting moving image
KR102360472B1 (en) * 2017-09-28 2022-02-08 현대오토에버 주식회사 Rendering apparatus based on precise map data and method thereof
KR102221695B1 (en) * 2018-01-15 2021-03-02 에스케이텔레콤 주식회사 Apparatus and method for updating high definition map for autonomous driving
KR102233260B1 (en) * 2018-10-02 2021-03-29 에스케이텔레콤 주식회사 Apparatus and method for updating high definition map

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070014488A1 (en) 2004-07-09 2007-01-18 Ching-Chien Chen Automatically and accurately conflating road vector data, street maps, and orthoimagery
KR101544021B1 (en) 2012-10-29 2015-08-13 경북대학교 산학협력단 Apparatus and method for generating 3d map
KR102041320B1 (en) 2019-10-01 2019-11-06 주식회사 아이디어캐슬 Precision-Location Based Optimized 3D Map Delivery System

Also Published As

Publication number Publication date
KR20220081753A (en) 2022-06-16

Similar Documents

Publication Publication Date Title
CN110057373B (en) Method, apparatus and computer storage medium for generating high-definition semantic map
Brenner Extraction of features from mobile laser scanning data for future driver assistance systems
Taylor et al. Road reduction filtering for GPS‐GIS navigation
KR102128851B1 (en) Method and system for determining global location of first landmark
US8625851B2 (en) Measurement apparatus, measurement method, and feature identification apparatus
Matthaei et al. Map-relative localization in lane-level maps for ADAS and autonomous driving
US20200042803A1 (en) Information processing method, information processing apparatus, and recording medium
KR102091580B1 (en) Method for collecting road signs information using MMS
KR20190008292A (en) Object detection method and object detection apparatus
KR102103941B1 (en) Road and lane data real-time update method for autonomous driving vehicles based on point cloud map
JP6303810B2 (en) Vehicle position estimation apparatus and vehicle position estimation method
JP2011511281A (en) Map matching method with objects detected by sensors
KR20180132917A (en) A map data update device, a map data update method, and a map data update program
JP2001331787A (en) Road shape estimating device
CN114509065B (en) Map construction method, system, vehicle terminal, server and storage medium
JP2018116014A (en) Own vehicle position estimation device, control method, program and storage medium
KR20200071792A (en) Autonomous Driving Method and System Using a Road View or a Aerial View from a Map Server
CN110220517A (en) A kind of Indoor Robot robust slam method of the combining environmental meaning of one's words
Li et al. Hybrid filtering framework based robust localization for industrial vehicles
JP2006284281A (en) Own vehicle information recognition device and method
JP2019100924A (en) Vehicle trajectory correction device
US11215459B2 (en) Object recognition device, object recognition method and program
Flade et al. Lane detection based camera to map alignment using open-source map data
KR102484511B1 (en) Method and system for matching information of 2d map with 3d map
CN112651991B (en) Visual positioning method, device and computer system

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right