KR102520189B1 - Method and system for generating high-definition map based on aerial images captured from unmanned air vehicle or aircraft - Google Patents

Method and system for generating high-definition map based on aerial images captured from unmanned air vehicle or aircraft Download PDF

Info

Publication number
KR102520189B1
KR102520189B1 KR1020210027423A KR20210027423A KR102520189B1 KR 102520189 B1 KR102520189 B1 KR 102520189B1 KR 1020210027423 A KR1020210027423 A KR 1020210027423A KR 20210027423 A KR20210027423 A KR 20210027423A KR 102520189 B1 KR102520189 B1 KR 102520189B1
Authority
KR
South Korea
Prior art keywords
aerial image
facility
location
target area
map
Prior art date
Application number
KR1020210027423A
Other languages
Korean (ko)
Other versions
KR20220123901A (en
Inventor
윤여일
Original Assignee
네이버랩스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 네이버랩스 주식회사 filed Critical 네이버랩스 주식회사
Priority to KR1020210027423A priority Critical patent/KR102520189B1/en
Priority to JP2022029310A priority patent/JP7375066B2/en
Publication of KR20220123901A publication Critical patent/KR20220123901A/en
Application granted granted Critical
Publication of KR102520189B1 publication Critical patent/KR102520189B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/003Maps
    • G09B29/004Map manufacture or repair; Tear or ink or water resistant maps; Long-life maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Business, Economics & Management (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Remote Sensing (AREA)
  • Mathematical Physics (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)
  • Navigation (AREA)
  • Instructional Devices (AREA)

Abstract

대상 영역을 바라보는 제1 시점에서 대상 영역을 촬영한 제1 항공 영상으로부터 기준 도형을 선택하고, 제1 항공 영상과는 상이한 제2 시점에서 해당 대상 영역을 촬영한 제2 항공 영상에서 기준 도형에 대응하는 대응 도형을 식별하고, 기준 도형과 대응 도형을 서로 매칭시킴으로써 기준 도형의 3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)를 결정하고, 결정된 3차원 위치를 사용하여 대상 영역에 대한 HD 맵을 생성하는 방법이 제공된다.A reference shape is selected from a first aerial image capturing the target area from a first viewpoint looking at the target area, and a reference shape is obtained from a second aerial image capturing the target area from a second viewpoint different from the first aerial image. A corresponding corresponding figure is identified, and the 3D position (elevation or 3D position including the altitude) of the reference figure is determined by matching the reference figure and the corresponding figure, and the determined 3D position is used for the target area. A method for generating an HD map is provided.

Figure R1020210027423
Figure R1020210027423

Description

무인 비행체 또는 항공기에 의해 촬영된 항공 영상에 기반하여 HD 맵을 생성하는 방법 및 시스템{METHOD AND SYSTEM FOR GENERATING HIGH-DEFINITION MAP BASED ON AERIAL IMAGES CAPTURED FROM UNMANNED AIR VEHICLE OR AIRCRAFT}Method and system for generating HD maps based on aerial images taken by unmanned aerial vehicles or aircrafts

실시예들은 항공 영상에 기반하여 HD (High Definition) 맵을 생성하는 방법에 관한 것으로, 동일한 대상 영역을 상이한 시점에서 촬영한 항공 영상들에 기반하여 해당 영역 내의 지점에 대한 3차원 위치(예컨대, 고도 또는 고도를 포함하는 3차원의 위치)를 획득하는 것을 통해 대상 영역에 대한 HD 맵을 생성하는 방법에 관한 것이다. Embodiments relate to a method for generating a high definition (HD) map based on aerial images, wherein the 3D position (e.g., altitude) of a point within a corresponding region is based on aerial images taken of the same target region from different viewpoints. or a 3D location including altitude) to a method for generating an HD map of a target area.

HD (High Definition) 맵은 자율 주행 등의 분야에서 사용되는 고정밀 지도로서, 기존의 지도보다 높은 정확도를 가지는 지도이다. 예컨대, 이러한 HD 맵에는 도로, 지형의 고저, 곡률과 같은 대상 영역의 주변 환경 정보가 3차원으로 구현되어 있을 수 있고, 기존의 지도보다 10배 이상의 정확도를 가질 수 있다. HD 맵은 예컨대, 10cm 미만의 오차를 가질 수 있다. An HD (High Definition) map is a high-precision map used in fields such as autonomous driving, and is a map with higher accuracy than conventional maps. For example, the HD map may include information on the surrounding environment of the target area, such as roads, topography height, and curvature, implemented in 3D, and may have an accuracy of 10 times or more than conventional maps. The HD map may have an error of less than 10 cm, for example.

HD 맵은 도로를 주행하는 MMS(Mobile Mapping System) 차량으로부터 수집된 데이터나 지상에서 측량한 데이터에 기반하여 생성될 수 있다. 다만, 이에 따라 HD 맵은 MMS에 탑재한 GPS의 위치 오류나 해발 오차에 의한 오차를 수반하게 되며, 대규모의 측량 데이터를 요구하는 바 거기에 수반되는 비용 역시 과도하다는 단점이 있다. The HD map may be generated based on data collected from a Mobile Mapping System (MMS) vehicle traveling on the road or data measured on the ground. However, according to this, HD maps are accompanied by errors due to location errors or sea level errors of the GPS installed in the MMS, and since large-scale survey data are required, the accompanying costs are also excessive.

한편, 정합된 항공 영상에 기반하여 생성된 수치 표면 모델(Digital Surface Model; DSM) 및 수치 표고 모델(Digital Elevation Model; DEM)에 기반하여 수직 정사(True Ortho) 영상을 생성하고, 수직 정사 영상에 기반하여 HD 맵을 생성하는 방법의 경우에도, DSM, DEM 및 수직 정사 영상을 생성함에 있어서 발생되는 오차가 HD 맵에도 반영되게 된다는 문제가 있다. Meanwhile, a True Ortho image is generated based on a digital surface model (DSM) and a digital elevation model (DEM) generated based on the matched aerial image, and the vertical ortho image Even in the case of a method of generating an HD map based on the method, there is a problem in that errors generated in generating the DSM, DEM, and vertical ortho images are also reflected in the HD map.

한국공개특허 제10-2020-0094644호(공개일 2020년 08월 07일)는 V2X 정보 융합 기술을 통해 획득된, 각 객체에 대한 깊이 예측 정보 및 각 객체에 대한 클래스 정보를 이용하여 3D 공간을 재구축함으로써 HD 맵을 업데이트하는 학습 방법 및 학습 장치를 개시하고 있다.Korean Patent Publication No. 10-2020-0094644 (published on August 7, 2020) is a 3D space using depth prediction information for each object and class information for each object obtained through V2X information convergence technology. A learning method and a learning device for updating an HD map by reconstruction are disclosed.

상기에서 설명된 정보는 단지 이해를 돕기 위한 것이며, 종래 기술의 일부를 형성하지 않는 내용을 포함할 수 있다.The information described above is for illustrative purposes only and may include material that does not form part of the prior art.

일 실시예는, 동일한 대상 영역을 상이한 시점에서 촬영한 항공 영상들에 기반하여 대상 영역에 포함된 시설물들에 대한 3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)를 결정할 수 있고, 결정된 3차원 위치에 기반하여 대상 영역에 대한 HD 맵을 생성하는 방법을 제공할 수 있다.According to an embodiment, 3D positions (elevation or 3D positions including elevations) of facilities included in the target area may be determined based on aerial images taken of the same target area from different viewpoints, and the determined A method of generating an HD map of a target area based on a 3D location may be provided.

일 실시예는, 대상 영역을 바라보는 제1 시점(viewpoint)에서 대상 영역을 촬영한 제1 항공 영상에서 선택된 기준 도형과 제1 항공 영상과는 상이한 제2 시점에서 대상 영역을 촬영한 제2 항공 영상에서 식별된 대응 도형을 매칭시킴으로써, 기준 도형의 3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)를 결정하는 툴을 제공할 수 있다. In one embodiment, a reference figure selected from a first aerial image capturing the target area from a first viewpoint looking at the target area and a second aerial image capturing the target area from a second viewpoint different from the first aerial image By matching the corresponding figure identified in the image, a tool for determining the 3D position (elevation or 3D position including altitude) of the reference figure can be provided.

일 측면에 있어서, 컴퓨터 시스템에 의해 수행되는, 항공 영상에 기반하여 HD (High Definition) 맵을 생성하는 방법에 있어서, 대상 영역을 바라보는 제1 시점(viewpoint)에서 상기 대상 영역을 촬영한 제1 항공 영상으로부터 기준 도형을 선택하는 단계, 상기 제1 항공 영상과는 상이한 제2 시점에서 상기 대상 영역을 촬영한 제2 항공 영상에서 상기 기준 도형에 대응하는 대응 도형을 식별하는 단계, 상기 기준 도형과 상기 대응 도형을 서로 매칭시킴으로써 상기 기준 도형의 3차원 위치를 결정하는 단계 및 상기 결정된 3차원 위치를 사용하여 상기 대상 영역에 대한 HD 맵을 생성하는 단계를 포함하는, HD 맵을 생성하는 방법이 제공된다. In one aspect, in the method for generating a high definition (HD) map based on an aerial image, performed by a computer system, a first image of a target region is obtained from a first viewpoint looking at the target region. Selecting a reference figure from an aerial image; Identifying a corresponding figure corresponding to the reference figure in a second aerial image obtained by capturing the target area at a second viewpoint different from the first aerial image; A method for generating an HD map is provided, comprising determining the 3D position of the reference figure by matching the corresponding figures with each other and generating an HD map for the target region using the determined 3D position. do.

상기 결정하는 단계는, 상기 제1 시점에 대응하는 상기 제1 항공 영상을 촬영한 카메라의 3차원 위치와 촬영 방향, 상기 제2 시점에 대응하는 상기 제2 항공 영상을 촬영한 카메라의 3차원 위치와 촬영 방향, 상기 제1 시점으로부터 상기 기준 도형에 대한 제1 각도, 및 상기 제2 시점으로부터 상기 대응 도형에 대한 제2 각도에 기반한 삼각측량법에 따라 상기 기준 도형의 고도를 포함하는 3차원 위치를 결정할 수 있다. The determining may include the 3D position and direction of the camera capturing the first aerial image corresponding to the first viewpoint, and the 3D position of the camera capturing the second aerial image corresponding to the second viewpoint. and a three-dimensional position including the altitude of the reference figure according to a triangulation method based on a photographing direction, a first angle with respect to the reference figure from the first viewpoint, and a second angle with respect to the corresponding figure from the second viewpoint can decide

상기 기준 도형은 상기 제1 항공 영상의 상기 대상 영역 내에 포함된 시설물들 중 어느 하나의 시설물의 꼭지점을 포함하거나, 상기 꼭지점과 상기 하나의 시설물의 다른 꼭지점 또는 상기 시설물들 중 다른 시설물의 꼭지점을 연결한 선인 기준선을 포함할 수 있다. The reference figure includes a vertex of one of the facilities included in the target area of the first aerial image, or connects the vertex and another vertex of the one facility or a vertex of another facility among the facilities. It can contain a single line, the baseline.

상기 선택하는 단계는, 상기 제1 항공 영상의 상기 대상 영역 내에 포함된 시설물들 중 기준 시설물을 선택하는 단계 및 상기 기준 시설물과 교차하는 적어도 하나의 가이드 라인으로서 상기 기준선을 선택하는 단계를 포함하고, 상기 식별하는 단계는, 상기 제2 항공 영상에서 상기 가이드 라인에 대응하는 대응 선을 상기 대응 도형으로 식별하고, The selecting includes selecting a reference facility among facilities included in the target area of the first aerial image and selecting the reference line as at least one guide line intersecting the reference facility; The identifying step may include identifying a corresponding line corresponding to the guide line in the second aerial image as the corresponding figure;

상기 결정하는 단계는, 상기 가이드 라인과 상기 대응 선을 매칭시킴으로써, 상기 가이드 라인의 3차원 위치를 결정하는 단계 및 상기 가이드 라인의 3차원 위치에 기반하여, 상기 가이드 라인과 상기 기준 시설물이 교차하는 지점의 3차원 위치를 결정하는 단계를 포함할 수 있다.The determining step may include determining the 3D position of the guide line by matching the guide line with the corresponding line, and determining whether the guide line and the reference facility intersect based on the 3D position of the guide line. It may include determining the 3-dimensional position of the point.

상기 기준 시설물은 상기 대상 영역 내의 도로의 중앙선이고, 상기 가이드 라인은 상기 중앙선을 중심으로 위치하는 2개의 차선들의 각 차선의 꼭지점을 연결한 선일 수 있다.The reference facility may be a center line of a road in the target area, and the guide line may be a line connecting vertices of two lanes located around the center line.

상기 선택하는 단계는, 상기 제1 항공 영상의 상기 대상 영역 내에 포함된 시설물들 중 기준 시설물의 꼭지점들을 연결하는 선을 상기 기준선으로서 선택하고, 상기 식별하는 단계는, 상기 제2 항공 영상에서 상기 기준선에 대응하는 대응 선을 상기 대응 도형으로 식별하고, 상기 결정하는 단계는, 상기 기준선과 상기 대응 선을 매칭시킴으로써, 상기 기준선의 3차원 위치를 결정할 수 있다. In the selecting step, a line connecting vertices of reference facilities among facilities included in the target area of the first aerial image is selected as the reference line, and in the identifying step, the reference line in the second aerial image is selected. In the step of identifying and determining a corresponding line corresponding to as the corresponding figure, the 3D position of the reference line may be determined by matching the reference line with the corresponding line.

상기 HD 맵을 생성하는 방법은, 상기 기준 시설물의 3차원 위치를 결정하는 단계 및 상기 기준 시설물의 3차원 위치를 기준으로 상기 기준 시설물 주변의 적어도 하나의 주변 시설물의 3차원 위치를 결정하는 단계를 더 포함할 수 있다. The method for generating the HD map includes determining a 3D location of the reference facility and determining a 3D location of at least one neighboring facility around the reference facility based on the 3D location of the reference facility. can include more.

상기 주변 시설물의 3차원 위치를 결정하는 단계는, 상기 기준 시설물과 상기 주변 시설물 간에 존재하는 구배(gradient)에 따라 상기 기준 시설물의 3차원 위치에 대응하는 고도 값을 조정하는 단계 및 상기 조정된 고도 값에 기반하여 상기 주변 시설물의 3차원 위치를 결정하는 단계를 포함할 수 있다. The step of determining the 3D position of the surrounding facility may include adjusting an altitude value corresponding to the 3D position of the reference facility according to a gradient existing between the reference facility and the surrounding facility, and the adjusted altitude. The method may include determining a 3D location of the surrounding facility based on the value.

상기 기준 시설물은 상기 대상 영역 내의 도로의 중앙선이고, 상기 주변 시설물은 상기 중앙선을 중심으로 위치하는 차선들의 각각일 수 있다. The reference facility may be a center line of a road in the target area, and the surrounding facility may be each of lanes located around the center line.

상기 HD 맵을 생성하는 방법은 상기 결정된 3차원 위치에 기반하여, 상기 기준 도형을 포함하는 상기 대상 영역 내의 시설물의 3차원 위치를 결정하는 단계를 더 포함하고, 상기 시설물의 3차원 위치는 상기 결정된 기준 도형의 3차원 위치에 기반한 보간법(interpolaration)에 따라 상기 시설물을 구성하는 지점들의 3차원 위치가 계산됨으로써 결정될 수 있다. The method for generating the HD map further includes determining a 3D location of a facility in the target area including the reference figure based on the determined 3D location, wherein the 3D location of the facility is determined by the determined 3D location. It may be determined by calculating the 3D positions of points constituting the facility according to interpolation based on the 3D position of the reference figure.

상기 결정하는 단계는, 상기 선택된 기준 도형을 포함하는 상기 제1 항공 영상 또는 상기 선택된 기준 도형을 상기 제2 항공 영상에 전사(projection)시키는 단계, 전사된 상기 기준 도형과 상기 제2 항공 영상에서 상기 식별된 대응 도형이 일치되도록 상기 기준 도형을 이동시키는 단계 및 상기 식별된 대응 도형과 상기 기준 도형이 일치되는 때에 해당하는 상기 기준 도형의 고도 값을 상기 기준 도형의 3차원 위치로 결정하는 단계를 포함할 수 있다. The determining may include projecting the first aerial image including the selected reference figure or the selected reference figure onto the second aerial image; Moving the reference figure so that the identified corresponding figure matches, and determining an altitude value of the reference figure corresponding to the matching of the identified corresponding figure and the reference figure as a 3D position of the reference figure. can do.

상기 결정하는 단계는, 상기 기준 도형을 이동시킴에 따라 이동된 위치에 대응하는 고도 값을 출력하는 단계를 포함하고, 상기 식별된 대응 도형과 상기 기준 도형이 일치되는 때에 출력되는 고도 값이 상기 기준 도형의 3차원 위치로 결정될 수 있다. The determining may include outputting an altitude value corresponding to a position moved as the reference figure is moved, and the altitude value output when the identified corresponding figure matches the reference figure is the reference figure. It can be determined by the 3D position of the figure.

상기 이동되는 기준 도형은 상기 기준 도형에 대응하는 레이어일 수 있다. The reference figure to be moved may be a layer corresponding to the reference figure.

상기 HD 맵을 생성하는 방법은, 상기 결정된 3차원 위치를 사용하여, 상기 대상 영역에 대한 수치 표면 모델(Digital Surface Model; DSM) 및 수치 표고 모델(Digital Elevation Model; DEM) 중 적어도 하나를 생성하는 단계를 더 포함할 수 있다. The method for generating the HD map includes generating at least one of a Digital Surface Model (DSM) and a Digital Elevation Model (DEM) for the target area using the determined 3D location. Further steps may be included.

상기 HD 맵을 생성하는 방법은, 상기 생성된 DSM 및 DEM에 기반하여 상기 대상 영역에 대한 수직 정사(True Ortho) 영상을 생성하는 단계를 더 포함할 수 있다. The method of generating the HD map may further include generating a true ortho image of the target region based on the generated DSM and DEM.

다른 일 측면에 있어서, 컴퓨터 시스템에 있어서, 메모리에 포함된 컴퓨터 판독 가능한 명령들을 실행하도록 구성된 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 대상 영역을 바라보는 제1 시점에서 상기 대상 영역을 촬영한 제1 항공 영상으로부터 기준 도형을 선택하고, 상기 제1 항공 영상과는 상이한 제2 시점(viewpoint)에서 상기 대상 영역을 촬영한 제2 항공 영상에서 상기 기준 도형에 대응하는 대응 도형을 식별하고, 상기 기준 도형과 상기 대응 도형을 서로 매칭시킴으로써 상기 기준 도형의 3차원 위치를 결정하고, 상기 결정된 3차원 위치를 사용하여 상기 대상 영역에 대한 HD 맵을 생성하는, 컴퓨터 시스템이 제공된다. In another aspect, a computer system includes at least one processor configured to execute computer readable instructions included in a memory, wherein the at least one processor is configured to, when viewing the target region, the target region at a first point of view. A reference figure is selected from a first aerial image taken, and a corresponding figure corresponding to the reference figure is identified in a second aerial image taken of the target area at a second viewpoint different from the first aerial image. and determining the 3D position of the reference figure by matching the reference figure and the corresponding figure with each other, and generating an HD map of the target region using the determined 3D position.

상이한 시점에서 대상 영역을 촬영한 항공 영상들로부터, 항공 영상에 포함된 시설물(들)에 대한 3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)를 결정하여 대상 영역에 대한 HD 맵을, DSM이나 DEM을 생성하는 과정을 수행하지 않고도, 생성할 수 있다. 또한, 항공 영상을 사용하여 HD 맵을 생성함으로써 방대한 측량 작업이나 MMS 차량을 통한 데이터 획득 작업이 요구되지 않을 수 있다.3-dimensional position (altitude or 3-dimensional position including altitude) 3-dimensional position (altitude or 3-dimensional position including altitude) for the facility(s) included in the aerial image from aerial images taken of the target area at different viewpoints position of dimension) to create an HD map of the target area without performing the process of creating a DSM or DEM. In addition, by generating HD maps using aerial images, extensive surveying work or data acquisition work through MMS vehicles may not be required.

상이한 시점에서 대상 영역을 촬영한 항공 영상들을 활용함으로써, 특정 항공 영상에서는 가려지는 시설물에 대해서도 정확하게 고도를 비롯한 3차원 위치를 결정할 수 있다. By utilizing aerial images of a target area taken from different viewpoints, it is possible to accurately determine a 3D position including an altitude of a facility that is obscured by a specific aerial image.

도 1은 일 실시예에 따른, 동일한 대상 영역을 상이한 시점에서 촬영한 항공 영상들에 기반하여 대상 영역에 포함된 시설물들에 대한 3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)를 결정하고, HD 맵을 생성하는 방법을 나타낸다.
도 2는 일 실시예에 따른, 항공 영상들에 기반하여 HD 맵을 생성하는 컴퓨터 시스템의 구조를 나타내는 블록도이다.
도 3은 일 실시예에 따른, 동일한 대상 영역을 상이한 시점에서 촬영한 항공 영상들에 기반하여 대상 영역에 포함된 시설물들에 대한 3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)를 결정하고, HD 맵을 생성하는 방법을 나타내는 흐름도이다.
도 4 및 도 5는 일 예에 따른, 제1 항공 사진으로부터 가이드 라인을 선택하고, 가이드 라인의 3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)를 결정하는 것을 통해 기준 시설물의 3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)를 결정하는 방법을 나타내는 흐름도이다.
도 6은 일 예에 따른, 기준 시설물의 고도에 기반하여 주변 시설물의 3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)를 결정하는 방법을 나타내는 흐름도이다.
도 7은 일 예에 따른, 제1 항공 영상에서 선택된 기준 도형과 제2 항공 영상에서 식별된 대응 도형을 매칭시킴으로써 기준 도형의 3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)를 결정하는 방법을 나타내는 흐름도이다.
도 8은 일 예에 따른, 결정된 고도에 따라 대상 영역에 대한 DSM 및 DEM을 생성하고, 나아가 대상 영역에 대한 수직 정사 영상을 생성하는 방법을 나타낸다.
도 9는 일 예에 따른, 제1 항공 영상에서 선택된 기준 도형과 제2 항공 영상에서 식별된 대응 도형을 매칭시킴으로써 기준 도형의 3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)를 결정하는 방법을 나타낸다.
도 10는 일 예에 따른, 제1 항공 사진으로부터 가이드 라인을 선택하고, 가이드 라인의 3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)를 결정하는 것을 통해 기준 시설물의 3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)를 결정하는 방법을 나타낸다.
도 11은 일 예에 따른, 기준 시설물의 고도에 기반하여 주변 시설물의 3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)를 결정하는 방법을 나타내는 흐름도이다.
1 is a diagram of determining a 3D location (elevation or a 3D location including elevation) of facilities included in a target area based on aerial images taken of the same target area from different viewpoints, according to an embodiment. and how to create an HD map.
2 is a block diagram illustrating the structure of a computer system generating an HD map based on aerial images, according to an exemplary embodiment.
3 is a diagram of determining a 3D position (elevation or a 3D position including elevation) of facilities included in a target area based on aerial images of the same target area taken at different viewpoints, according to an embodiment. and a flow chart showing a method for generating an HD map.
4 and 5 show a 3D view of a reference facility by selecting a guideline from a first aerial photograph and determining a 3D position (elevation or a 3D position including altitude) of the guideline according to an example. It is a flow chart showing how to determine a position (altitude or a 3-dimensional position including altitude).
6 is a flowchart illustrating a method of determining a 3D position (an altitude or a 3D position including an altitude) of a nearby facility based on an altitude of a reference facility, according to an example.
7 is a method for determining a 3D position (elevation or a 3D position including altitude) of a reference figure by matching a reference figure selected from a first aerial image with a corresponding figure identified from a second aerial image according to an example. Here is a flow chart showing the method.
8 illustrates a method of generating a DSM and a DEM of a target region according to a determined altitude, and further generating a vertical ortho image of the target region, according to an example.
9 is a method for determining a 3D position (elevation or a 3D position including altitude) of a reference figure by matching a reference figure selected from a first aerial image with a corresponding figure identified from a second aerial image according to an example. indicate the way
10 illustrates a 3D location (elevation) of a reference facility by selecting a guideline from a first aerial photograph and determining a 3D location (3D location including elevation or elevation) of the guideline according to an example. or a three-dimensional position including altitude).
11 is a flowchart illustrating a method of determining a 3D location (an elevation or a 3D location including an elevation) of a nearby facility based on an elevation of a reference facility, according to an example.

이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. Like reference numerals in each figure indicate like elements.

후술될 도면들과 상세한 설명에서 기재된 "고도" 및 "고도의 결정"은 "3차원 위치" 및 "3차원 위치의 결정"으로 대체될 수 있다."Elevation" and "determination of altitude" described in the drawings and detailed descriptions to be described later may be replaced with "3-dimensional position" and "determination of 3-dimensional position".

도 1은 일 실시예에 따른, 동일한 대상 영역을 상이한 시점에서 촬영한 항공 영상들에 기반하여 대상 영역에 포함된 시설물들에 대한 3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)를 결정하고, HD 맵을 생성하는 방법을 나타낸다. 1 is a diagram of determining a 3D location (elevation or a 3D location including elevation) of facilities included in a target area based on aerial images taken of the same target area from different viewpoints, according to an embodiment. and how to create an HD map.

도 1을 참조하여, 대상지의 적어도 일부에 해당하는 대상 영역(30)에 대한 HD (High Definition) 맵(50)을 작성하는 방법에 대해 설명한다. HD 맵(50)은 고정밀 지도로서, 기존의 지도보다 높은 정확도를 가지는 지도일 수 있다. 예컨대, HD 맵(50)에는, 도시된 것처럼 도로, 지형의 고저, 곡률과 같은 대상 영역(30)의 주변 환경 정보가 3차원으로 구현되어 있을 수 있다. 즉, HD 맵(50)에는 대상 영역(30) 내에 포함된 시설물들에 대한 정보가 3차원으로 구현되어 있을 수 있다. 대상 영역(30) 내에 포함된 시설물은 예컨대, 도로, 도로에 포함되는(그려진) 중앙선 및 도로에 포함되는(그려진) 차선을 포함할 수 있다. HD 맵(50)은 예컨대, 자율 주행 차량이 대상 영역(30)을 자율 주행함에 있어서 사용되는 지도를 포함할 수 있다.Referring to FIG. 1 , a method of creating a high definition (HD) map 50 for a target area 30 corresponding to at least a part of a target area will be described. The HD map 50 is a high-precision map, and may have higher accuracy than existing maps. For example, in the HD map 50 , surrounding environment information of the target region 30 , such as roads, topography height, and curvature, may be 3-dimensionally implemented. That is, information on facilities included in the target area 30 may be 3-dimensionally implemented on the HD map 50 . The facility included in the target area 30 may include, for example, a road, a center line included (drawn) on the road, and a lane included (drawn) on the road. The HD map 50 may include, for example, a map used when the autonomous vehicle autonomously drives the target area 30 .

대상 영역(30)은 HD 맵(50)의 구축을 위해 작업자에게 분배된 영역일 수 있다. The target area 30 may be an area distributed to workers for constructing the HD map 50 .

실시예에서는, 컴퓨터 시스템(이하, 도 2를 참조하여 후술될 컴퓨터 시스템(100))이 대상 영역(30)을 촬영한 항공 영상들(10 및 20)을 사용하여, 대상 영역(30) 내의 시설물들의 3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)를 결정할 수 있고, 이러한 결정된 시설물들의 3차원 위치에 기반하여 대상 영역(30)에 대한 HD 맵(50)을 생성할 수 있다.In the embodiment, a computer system (hereinafter, a computer system 100 to be described later with reference to FIG. 2) uses the aerial images 10 and 20 in which the target area 30 is captured, and the facilities within the target area 30 3D locations (elevation or 3D locations including elevations) of the facilities may be determined, and an HD map 50 for the target area 30 may be generated based on the determined 3D locations of facilities.

시설물(또는 특정 지점)의 "고도"는 표고(altitude 또는 elevation)일 수 있다. 또는, "고도"는 해당 시설물(또는 특정 지점)의 절대 높이를 나타낼 수 있다. 또는, "고도"는 해당 시설물(또는 특정 지점)의 소정의 기준에 대한 뎁스(depth) 정보를 나타낼 수 있다. 이 때, 기준은 해수면 또는 지면이 될 수 있다.The "altitude" of a facility (or point) can be its elevation or elevation. Alternatively, "altitude" may represent the absolute height of a corresponding facility (or a specific point). Alternatively, “altitude” may indicate depth information of a corresponding facility (or a specific point) with respect to a predetermined criterion. At this time, the reference may be the sea level or the ground.

본 개시에서 설명되는 특정 지점의 3차원 위치는 특정 지점의 고도를 의미하거나, 특정 지점의 고도를 포함하는 3차원의 위치(예컨대, 고도 및 수평 좌표를 포함하는 3차원 좌표)를 의미할 수 있다. The 3D location of a specific point described in the present disclosure may mean the altitude of the specific point or a 3D location including the altitude of the specific point (eg, 3D coordinates including altitude and horizontal coordinates). .

컴퓨터 시스템(100)은 대상 영역(30)을 촬영한 제1 항공 영상(10)과 제1 항공 영상(10)과는 다른 시점에서 대상 영역(30)을 촬영한 제2 항공 영상(20)을 이용하여 대상 영역(30)과 연관된 3차원 위치 또는 고도(즉, 대상 영역(30)에 포함된 시설물(또는 특정 지점)의 3차원 위치 또는 고도)를 결정할 수 있다. 제1 항공 영상(10) 및 제2 항공 영상(20)은 정합된 영상일 수 있다. 즉, 제1 항공 영상(10) 및 제2 항공 영상(20)은 자세가 확정된 영상일 수 있다. 본 개시에서 "영상"은 화상 또는 이미지를 포함할 수 있다.The computer system 100 generates a first aerial image 10 capturing the target area 30 and a second aerial image 20 capturing the target area 30 from a different viewpoint from the first aerial image 10. A 3D position or altitude associated with the target area 30 (ie, a 3D position or altitude of a facility (or a specific point) included in the target area 30) can be determined using the . The first aerial image 10 and the second aerial image 20 may be matched images. That is, the first aerial image 10 and the second aerial image 20 may be images whose attitude is determined. In the present disclosure, “video” may include a picture or image.

제1 항공 영상(10) 및 제2 항공 영상(20)은 대상 영역(30)을 포함하는 대상지를 비행하는 드론과 같은 무인 비행체 또는 (지표 촬영용) 항공기에 의해 촬영된 영상 또는 상기 촬영된 영상이 정합된 영상일 수 있다. The first aerial image 10 and the second aerial image 20 are images captured by an unmanned air vehicle such as a drone or an aircraft (for land-surface capture) flying over a target area including the target area 30, or the captured image It may be a matched image.

예컨대, 컴퓨터 시스템(100)은 제1 항공 영상(10)의 대상 영역(30)과 제2 항공 영상(20)의 대상 영역(30)에서 동일한 지점을 취하여, 해당 지점의 정확한 3 차원의 위치를 특정할 수 있다. 일례로, 컴퓨터 시스템(100)은 삼각측량법을 이용하여 해당 지점의 정확한 3 차원의 위치를 특정할 수 있다. For example, the computer system 100 takes the same point in the target area 30 of the first aerial image 10 and the target area 30 of the second aerial image 20, and calculates the exact 3-dimensional position of the corresponding point. can be specified. As an example, the computer system 100 may specify the exact three-dimensional location of a point using triangulation.

컴퓨터 시스템(100)은 도화기가 항공 사진들에 기반하여 특정 지점의 고도(높이)를 계산하거나, 등고선을 플로팅하기 위한 지점의 고도를 계산하는 것과 유사한 방식으로, 대상 영역(30)에서의 지점에 대한 3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)를 결정할 수 있다. The computer system 100 calculates the altitude (height) of a particular point based on aerial photographs, or calculates the altitude of a point for plotting a contour line, in a similar manner to a point in the target area 30. It is possible to determine a 3-dimensional position (altitude or a 3-dimensional position including altitude) for

컴퓨터 시스템(100)이 대상 영역(30)에서의 지점에 대한 3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)를 결정하는 보다 구체적인 방법에 대해서는, 후술될 도 2 내지 도 11을 참조하여 더 자세하게 설명된다. For a more specific method for the computer system 100 to determine the 3D location (elevation or 3D location including the elevation) of a point in the target area 30, refer to FIGS. 2 to 11 to be described later. explained in more detail.

도 2는 일 실시예에 따른, 항공 영상들에 기반하여 HD 맵을 생성하는 컴퓨터 시스템의 구조를 나타내는 블록도이다. 2 is a block diagram illustrating the structure of a computer system generating an HD map based on aerial images, according to an exemplary embodiment.

후술될 실시예들에 따른 상황에 따른 대상 영역(30)에 대한 3차원 위치의 결정 및 HD 지도(50)를 생성하는 방법을 수행하는 컴퓨터 시스템(100)은 도 2에서 도시된 구조의 컴퓨터 시스템(100)으로 구현될 수 있다.The computer system 100 performing the method of determining the 3D location of the target area 30 and generating the HD map 50 according to the situation according to the embodiments to be described later is a computer system having the structure shown in FIG. 2 . (100) can be implemented.

컴퓨터 시스템(100)은 영역(30)에 대한 3차원 위치의 결정 및 HD 맵(50)를 생성하는 방법을 수행하는 프로그램을 실행하기 위한 시스템일 수 있다. 이러한 프로그램은 컴퓨터 시스템(100)에 탑재될 수 있다.The computer system 100 may be a system for executing a program that performs a method of determining a three-dimensional position for an area 30 and generating an HD map 50 . These programs may be loaded into the computer system 100 .

컴퓨터 시스템(100)은 HD 맵(50)을 생성하기 위한 작업을 처리하는 사용자가 사용하는 클라이언트 단말일 수 있다. 컴퓨터 시스템(100)은 3차원 위치 의 결정 및 HD 맵(50)를 생성하는 방법을 수행하는 프로그램을 설치 및 실행할 수 있는 전자 장치일 수 있다. 예컨대, 컴퓨터 시스템(100)은 PC(personal computer), 노트북 컴퓨터(laptop computer), 랩탑 컴퓨터(laptop computer), 스마트폰, 태블릿(tablet), 사물 인터넷(Internet Of Things) 기기, 또는 웨어러블 컴퓨터(wearable computer) 등일 수 있다.The computer system 100 may be a client terminal used by a user to process a job for generating the HD map 50 . The computer system 100 may be an electronic device capable of installing and executing a program that performs a method of determining a 3D position and generating an HD map 50. For example, the computer system 100 may be a personal computer (PC), a laptop computer, a laptop computer, a smart phone, a tablet, an Internet Of Things device, or a wearable computer. computer), etc.

도 2에서 도시된 것처럼, 컴퓨터 시스템(100)은 구성요소로서, 메모리(110), 프로세서(120), 통신 인터페이스(130) 및 입출력 인터페이스(140)를 포함할 수 있다.As shown in FIG. 2 , the computer system 100 may include a memory 110 , a processor 120 , a communication interface 130 and an input/output interface 140 as components.

메모리(110)는 컴퓨터에서 판독 가능한 기록매체로서, RAM(random access memory), ROM(read only memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(permanent mass storage device)를 포함할 수 있다. 여기서 ROM과 디스크 드라이브와 같은 비소멸성 대용량 기록장치는 메모리(110)와는 구분되는 별도의 영구 저장 장치로서 컴퓨터 시스템(100)에 포함될 수도 있다. 또한, 메모리(110)에는 운영체제와 적어도 하나의 프로그램 코드가 저장될 수 있다. 이러한 소프트웨어 구성요소들은 메모리(110)와는 별도의 컴퓨터에서 판독 가능한 기록매체로부터 메모리(110)로 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록매체는 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록매체를 포함할 수 있다. 다른 실시예에서 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록매체가 아닌 통신 인터페이스(130)를 통해 메모리(110)에 로딩될 수도 있다. 예를 들어, 소프트웨어 구성요소들은 네트워크(160)를 통해 수신되는 파일들에 의해 설치되는 컴퓨터 프로그램에 기반하여 컴퓨터 시스템(100)의 메모리(110)에 로딩될 수 있다.The memory 110 is a computer-readable recording medium and may include a random access memory (RAM), a read only memory (ROM), and a permanent mass storage device such as a disk drive. Here, a non-perishable mass storage device such as a ROM and a disk drive may be included in the computer system 100 as a separate permanent storage device separate from the memory 110 . Also, an operating system and at least one program code may be stored in the memory 110 . These software components may be loaded into the memory 110 from a recording medium readable by a separate computer from the memory 110 . The separate computer-readable recording medium may include a computer-readable recording medium such as a floppy drive, a disk, a tape, a DVD/CD-ROM drive, and a memory card. In another embodiment, software components may be loaded into the memory 110 through the communication interface 130 rather than a computer-readable recording medium. For example, software components may be loaded into memory 110 of computer system 100 based on a computer program installed by files received over network 160 .

프로세서(120)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(110) 또는 통신 인터페이스(130)에 의해 프로세서(120)로 제공될 수 있다. 예를 들어 프로세서(120)는 메모리(110)와 같은 기록 장치에 저장된 프로그램 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다.The processor 120 may be configured to process commands of a computer program by performing basic arithmetic, logic, and input/output operations. Instructions may be provided to processor 120 by memory 110 or communication interface 130 . For example, processor 120 may be configured to execute received instructions according to program codes stored in a recording device such as memory 110 .

통신 인터페이스(130)은 네트워크(160)를 통해 컴퓨터 시스템(100)이 다른 장치와 서로 통신하기 위한 기능을 제공할 수 있다. 일례로, 컴퓨터 시스템(100)의 프로세서(120)가 메모리(110)와 같은 기록 장치에 저장된 프로그램 코드에 따라 생성한 요청이나 명령, 데이터, 파일 등이 통신 인터페이스(130)의 제어에 따라 네트워크(160)를 통해 다른 장치들로 전달될 수 있다. 역으로, 다른 장치로부터의 신호나 명령, 데이터, 파일 등이 네트워크(160)를 거쳐 컴퓨터 시스템(100)의 통신 인터페이스(130)를 통해 컴퓨터 시스템(100)으로 수신될 수 있다. 통신 인터페이스(130)를 통해 수신된 신호나 명령, 데이터 등은 프로세서(120)나 메모리(110)로 전달될 수 있고, 파일 등은 컴퓨터 시스템(100)이 더 포함할 수 있는 저장 매체(상술한 영구 저장 장치)로 저장될 수 있다.Communication interface 130 may provide functionality for computer system 100 to communicate with other devices via network 160 . For example, a request, command, data, file, etc. generated according to a program code stored in a recording device such as the memory 110 by the processor 120 of the computer system 100 is transferred to a network ( 160) to other devices. Conversely, signals, commands, data, files, etc. from other devices may be received into the computer system 100 via the communication interface 130 of the computer system 100 via the network 160 . Signals, commands, data, etc. received through the communication interface 130 may be transmitted to the processor 120 or memory 110, and files, etc. may be stored in the computer system 100. permanent storage).

통신 인터페이스(130)를 통한 통신 방식은 제한되지 않으며, 네트워크(160)가 포함할 수 있는 통신망(일례로, 이동통신망, 유선 인터넷, 무선 인터넷, 방송망)을 활용하는 통신 방식뿐만 아니라 기기들간의 근거리 유선/무선 통신을 포함될 수 있다. 예를 들어, 네트워크(160)는, PAN(personal area network), LAN(local area network), CAN(campus area network), MAN(metropolitan area network), WAN(wide area network), BBN(broadband network), 인터넷 등의 네트워크 중 하나 이상의 임의의 네트워크를 포함할 수 있다. 또한, 네트워크(160)는 버스 네트워크, 스타 네트워크, 링 네트워크, 메쉬 네트워크, 스타-버스 네트워크, 트리 또는 계층적(hierarchical) 네트워크 등을 포함하는 네트워크 토폴로지 중 임의의 하나 이상을 포함할 수 있으며, 이에 제한되지 않는다.The communication method through the communication interface 130 is not limited, and the network 160 may include a communication network (eg, mobile communication network, wired Internet, wireless Internet, broadcasting network) as well as a communication method utilizing a short distance between devices Wired/wireless communication may be included. For example, the network 160 may include a personal area network (PAN), a local area network (LAN), a campus area network (CAN), a metropolitan area network (MAN), a wide area network (WAN), and a broadband network (BBN). , one or more arbitrary networks such as the Internet. In addition, the network 160 may include any one or more of network topologies including a bus network, a star network, a ring network, a mesh network, a star-bus network, a tree or a hierarchical network, and the like. Not limited.

입출력 인터페이스(140)는 입출력 장치(150)와의 인터페이스를 위한 수단일 수 있다. 예를 들어, 입력 장치는 마이크, 키보드, 카메라 또는 마우스 등의 장치를, 그리고 출력 장치는 디스플레이, 스피커와 같은 장치를 포함할 수 있다. 다른 예로 입출력 인터페이스(140)는 터치스크린과 같이 입력과 출력을 위한 기능이 하나로 통합된 장치와의 인터페이스를 위한 수단일 수도 있다. 입출력 장치(150)는 컴퓨터 시스템(100)과 하나의 장치로 구성될 수도 있다.The input/output interface 140 may be a means for interface with the input/output device 150 . For example, the input device may include devices such as a microphone, keyboard, camera, or mouse, and the output device may include devices such as a display and a speaker. As another example, the input/output interface 140 may be a means for interface with a device in which functions for input and output are integrated into one, such as a touch screen. The input/output device 150 may be configured as one device with the computer system 100 .

또한, 다른 실시예들에서 컴퓨터 시스템(100)은 도 2의 구성요소들보다 더 적은 혹은 더 많은 구성요소들을 포함할 수도 있다. 그러나, 대부분의 종래기술적 구성요소들을 명확하게 도시할 필요는 없다. 예를 들어, 컴퓨터 시스템(100)은 상술한 입출력 장치(150) 중 적어도 일부를 포함하도록 구현되거나 또는 트랜시버(transceiver), 카메라, 각종 센서, 데이터베이스 등과 같은 다른 구성요소들을 더 포함할 수도 있다.Also, in other embodiments, computer system 100 may include fewer or more elements than those of FIG. 2 . However, most of the prior art elements need not be shown explicitly. For example, the computer system 100 may be implemented to include at least some of the aforementioned input/output devices 150 or may further include other components such as a transceiver, a camera, various sensors, and a database.

컴퓨터 시스템(100)의 프로세서(120)는 후술될 항공 영상들(10 및 20)에 기반하여 대상 영역(30)에 포함된 시설물들에 대한 3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)를 결정하고, HD 맵(50)을 생성하는 방법을 수행하기 위한 단계들을 수행하도록 구성될 수 있다. The processor 120 of the computer system 100 determines the 3D position (elevation or 3D position including altitude) of facilities included in the target area 30 based on the aerial images 10 and 20 to be described later. ), and to perform steps for performing a method of generating the HD map 50 .

한편, 컴퓨터 시스템(100)은, HD 맵(50)을 생성하기 위한 작업을 처리하는 사용자가 사용하는 클라이언트 단말과 통신하는 서버일 수도 있다. 즉, 후술될 항공 영상들(10 및 20)에 기반하여 대상 영역(30)에 포함된 시설물들에 대한 3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)를 결정하고, HD 맵(50)을 생성하는 방법을 수행하기 위한 단계들은 클라이언트 단말과 통신하는 서버인 컴퓨터 시스템(100)에 의해 수행될 수 있다.Meanwhile, the computer system 100 may be a server that communicates with a client terminal used by a user who processes a job for generating the HD map 50 . That is, based on the aerial images 10 and 20 to be described later, the 3D location (elevation or 3D location including elevation) of the facilities included in the target area 30 is determined, and the HD map 50 Steps for performing the method of generating ) may be performed by the computer system 100, which is a server communicating with the client terminal.

또는, 후술될 항공 영상들(10 및 20)에 기반하여 대상 영역(30)에 포함된 시설물들에 대한 3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)를 결정하고, HD 맵(50)을 생성하는 방법을 수행하기 위한 단계들 중 적어도 일부만이 서버에서 수행되도록 클라이언트 단말 및 서버가 구성될 수도 있다. Alternatively, the 3D location (elevation or 3D location including elevation) of the facilities included in the target area 30 is determined based on the aerial images 10 and 20 to be described later, and the HD map 50 ) The client terminal and the server may be configured such that at least some of the steps for performing the method of generating the server are performed.

후술될 상세한 설명에서는, 설명의 편의상 (서버 및/또는 클라이언트 단말 중 어느 것에도 대응될 수 있는) 컴퓨터 시스템(100)에 의해 상기의 단계들이 수행되는 것으로 설명한다. In the detailed description to be described later, for convenience of description, it is described that the above steps are performed by the computer system 100 (which may correspond to either a server and/or a client terminal).

한편, 컴퓨터 시스템(100)의 프로세서(120) 또는 다른 구성들에 의해 수행되는 동작이나, 프로세서(120)가 실행하는 어플리케이션/프로그램에 의해 수행되는 동작은 설명의 편의상 컴퓨터 시스템(100)에 의해 수행되는 동작으로 설명될 수 있다. Meanwhile, an operation performed by the processor 120 or other components of the computer system 100 or an operation performed by an application/program executed by the processor 120 is performed by the computer system 100 for convenience of description. It can be explained by the action of

이상, 도 1을 참조하여 전술된 기술적 특징은 도 2에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다. In the above, since the technical features described above with reference to FIG. 1 can be applied to FIG. 2 as they are, duplicate descriptions will be omitted.

도 3은 일 실시예에 따른, 동일한 대상 영역을 상이한 시점에서 촬영한 항공 영상들에 기반하여 대상 영역에 포함된 시설물들에 대한 3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)를 결정하고, HD 맵을 생성하는 방법을 나타내는 흐름도이다.3 is a diagram of determining a 3D position (elevation or a 3D position including elevation) of facilities included in a target area based on aerial images of the same target area taken at different viewpoints, according to an embodiment. and a flow chart showing a method for generating an HD map.

단계(310)에서, 컴퓨터 시스템(100)은 대상 영역(30)을 촬영한 제1 항공 영상(10)을 획득할 수 있다. 제1 항공 영상(10)은 대상 영역(30)을 포함하는 대상지를 비행하는 드론과 같은 무인 비행체 또는 (지표 촬영용의) 항공기에 의해 촬영된 영상 또는 상기 촬영된 영상이 정합된 영상일 수 있다. 예컨대, 제1 항공 영상(10)은 정합된 영상으로서 자세가 확정된 영상일 수 있다. 일례로, 제1 항공 영상(10)은 지표면을 수직 방향으로 촬영한 영상에 대응할 수 있다. 또는, 제1 항공 영상(10)은 수직 또는 작업자가 대상 영역을 식별하거나 작업이 용이한 임의의 방향으로(즉, 시점에서) 촬영된 영상에 대응할 수 있다. In operation 310 , the computer system 100 may obtain a first aerial image 10 of the target area 30 . The first aerial image 10 may be an image captured by an unmanned air vehicle such as a drone or an aircraft (for land-based imaging) flying over a target area including the target area 30 , or an image in which the captured images are matched. For example, the first aerial image 10 may be an image in which a posture is determined as a matched image. For example, the first aerial image 10 may correspond to an image obtained by photographing the ground surface in a vertical direction. Alternatively, the first aerial image 10 may correspond to an image captured vertically or in an arbitrary direction (ie, from a viewpoint) in which an operator identifies a target area or is easy to work with.

컴퓨터 시스템(100)은 기 저장된 제1 항공 영상(10)을 로딩함으로서 제1 항공 영상(10)을 획득할 수 있다. 대상지를 비행하는 드론 또는 무인 비행체는 소정의 중복도를 가지고 대상지를 촬영할 수 있고, 이러한 중복도를 갖는 영상들의 정합에 따라 제1 항공 영상(10)이 결정될 수 있다. 제1 항공 영상(10)은 대상 영역(30)이 촬영된 영상들 중 대상 영역(30)을 (가능한 한) 수직으로 바라보는 제1 시점(viewpoint)에서 대상 영역(30)을 촬영한 것일 수 있다. 말하자면, 제1 항공 영상(10)은 대상 영역(30)이 촬영된 영상들 대상 영역(30)을 가장 수직에 가깝게 촬영한 것일 수 있다.The computer system 100 may obtain the first aerial image 10 by loading the previously stored first aerial image 10 . A drone or an unmanned aerial vehicle flying over a target may photograph the target with a predetermined degree of overlap, and the first aerial image 10 may be determined according to matching of images having this degree of overlap. The first aerial image 10 may be a photograph of the target region 30 from a first viewpoint viewing the target region 30 vertically (as much as possible) among images of the target region 30 captured. there is. In other words, the first aerial image 10 may be obtained by photographing the target region 30 most vertically among images of the target region 30 .

단계(320)에서, 컴퓨터 시스템(100)은 대상 영역(30)을 바라보는 상기 제1 시점에서 대상 영역(30)을 촬영한 제1 항공 영상(10)으로부터 기준 도형을 선택할 수 있다. 예컨대, 사용자는 화면에 표시된 제1 항공 영상(10)의 대상 영역(30) 부분에서 (예컨대, 기준 도형의 3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)를 결정하기 위한 툴(tool)이 제공하는 사용자 인터페이스를 통해) 기준 도형을 선택할 수 있고, 이러한 사용자로부터의 입력에 따라 컴퓨터 시스템(100)은 기준 도형을 선택할 수 있다. 기준 도형은 대상 영역(30) 내에서 선택되는 점, 선 및 면(폐곡선 또는 다각형) 중 적어도 하나를 포함할 수 있다. 대상 영역(30) 내에서 기준 도형은 고도 값을 결정하기 위한 대상일 수 있다. In step 320, the computer system 100 may select a reference shape from the first aerial image 10 in which the target area 30 is photographed from the first viewpoint looking at the target area 30. For example, the user may use a tool for determining the 3D position (e.g., the 3D position (elevation or 3D position including the altitude) of the reference figure) in the target area 30 of the first aerial image 10 displayed on the screen. ) may select a reference figure through a user interface provided by the user, and the computer system 100 may select the reference figure according to an input from the user. The reference figure may include at least one of points, lines, and planes (closed curves or polygons) selected within the target area 30 . Within the target region 30, a reference figure may be a target for determining an altitude value.

기준 도형은 제1 항공 영상(10)의 대상 영역(30) 내에 포함된 시설물들 중 어느 하나의 시설물의 꼭지점을 포함할 수 있고, 또는/추가로, 상기 꼭지점과 상기 하나의 시설물의 다른 꼭지점 또는 상기 시설물들 중 다른 시설물의 꼭지점을 연결한 선인 기준선을 포함할 수 있다. 대상 영역(30) 내에 포함된 시설물들의 각각은 예컨대, 도로, 도로에 포함되는(그려진) 중앙선 및 도로에 포함되는(그려진) 차선을 포함할 수 있다. 또는, 시설물은 대상 영역(30) 내에 포함되는 여하한 지물일 수 있다. The reference figure may include a vertex of any one of the facilities included in the target area 30 of the first aerial image 10, and/or/in addition, the vertex and another vertex of the one facility, or It may include a reference line that is a line connecting vertices of other facilities among the facilities. Each of the facilities included in the target area 30 may include, for example, a road, a center line included (drawn) on the road, and a lane included (drawn) on the road. Alternatively, the facility may be any feature included in the target area 30 .

선택된 기준 도형은 제1 항공 영상(10)의 다른 부분과는 시각적으로 구별될 수 있다.The selected reference figure may be visually distinguished from other parts of the first aerial image 10 .

단계(330)에서, 컴퓨터 시스템(100)은 대상 영역(30)을 촬영한 제2 항공 영상(20)을 획득할 수 있다. 제2 항공 영상(20) 및 제2 항공 영상(20)의 획득에 대해서는 제1 항공 영상(10)에 대해 전술한 것과 유사한 설명이 그대로 적용될 수 있는 바 중복되는 설명은 생략한다. 다만, 제2 항공 영상(20)은 제1 항공 영상(10)과는 상이한 제2 시점에서 대상 영역(30)을 촬영한 것일 수 있다. 말하자면, 제1 항공 영상(10)과 제2 항공 영상(20)은 시점이 상이한 영상일 수 있다. 예컨대, 제1 항공 영상(10)은 대상 영역(30)을 수직으로(또는 가장 수직에 가깝게) 촬영한 것임에 비해, 제2 항공 영상(20)은 대상 영역(30)을 수직이 아닌 다른 각도로 촬영한 것일 수 있다. In operation 330 , the computer system 100 may obtain a second aerial image 20 of the target area 30 . As for the second aerial image 20 and the acquisition of the second aerial image 20, similar descriptions to those described above for the first aerial image 10 can be applied as they are, and duplicate descriptions will be omitted. However, the second aerial image 20 may be obtained by capturing the target area 30 at a second viewpoint different from that of the first aerial image 10 . In other words, the first aerial image 10 and the second aerial image 20 may be images with different viewpoints. For example, while the first aerial image 10 captures the target area 30 vertically (or most vertically), the second aerial image 20 captures the target area 30 at an angle other than vertical. may have been filmed with

컴퓨터 시스템(100)은 기 저장된 제2 항공 영상(20)을 로딩함으로서 제2 항공 영상(20)을 획득할 수 있다. 이 때, 제1 항공 영상(10)이 로딩되거나, 제1 항공 영상(10)에서 기준 도형이 선택된 때, 컴퓨터 시스템(100)은 자동으로 적합한 제2 항공 영상(20)을 검색하여 로딩할 수 있다. 예컨대, 컴퓨터 시스템(100)은 일례로 정합 영상인 제1 항공 영상(10)과 제2 항공 영상(20)이 포함하는 좌표 값들의 비교(또는 선택된 기준 도형의 좌표 값들과 제2 항공 영상(20)의 좌표 값들의 비교)에 기반하여 제1 항공 영상(10)과 동일한 대상 영역(30)을 촬영한 제2 항공 영상(20)을 검색하여 로딩할 수 있다.The computer system 100 may obtain the second aerial image 20 by loading the pre-stored second aerial image 20 . At this time, when the first aerial image 10 is loaded or a reference shape is selected from the first aerial image 10, the computer system 100 may automatically search for and load a suitable second aerial image 20. there is. For example, the computer system 100 compares the coordinate values included in the first aerial image 10 and the second aerial image 20, which are matched images (or the coordinate values of the selected reference figure and the second aerial image 20). Based on the comparison of coordinate values of ), the second aerial image 20 obtained by capturing the same target region 30 as the first aerial image 10 may be searched for and loaded.

제2 항공 영상(20)은 복수일 수 있다. 제2 항공 영상(20)은 제1 항공 영상(10)이 화면에서 메인으로 표시되는 경우 썸네일로 표시될 수 있고, 해당 썸네일이 선택되는 경우 제2 항공 영상(20)이 화면에서 메인으로 표시될 수 있다. 이 때, 제1 항공 영상(10)은 썸네일로 표시될 수 있다. 또는, 제2 항공 영상(20)은 제1 항공 영상(10)과 동일한 크기로 화면에서 나열될 수 있다. The second aerial image 20 may be plural. The second aerial image 20 may be displayed as a thumbnail when the first aerial image 10 is displayed as the main on the screen, and when the corresponding thumbnail is selected, the second aerial image 20 may be displayed as the main on the screen. can At this time, the first aerial image 10 may be displayed as a thumbnail. Alternatively, the second aerial image 20 may be arranged on the screen in the same size as the first aerial image 10 .

제1 항공 영상(10)은 마스터(master) 영상, 제2 항공 영상(20)은 슬레이브(slave) 영상에 해당할 수 있다. The first aerial image 10 may correspond to a master image, and the second aerial image 20 may correspond to a slave image.

단계(340)에서, 컴퓨터 시스템(100)은 이러한 제1 항공 영상(10)과는 상이한 제2 시점에서 대상 영역(30)을 촬영한 제2 항공 영상(20)에서 제1 항공 영상(10)에서 선택된 기준 도형에 대응하는 대응 도형을 식별할 수 있다. 대응 도형은 제1 항공 영상(10)의 기준 도형에 매칭되는 제2 항공 영상(20)의 부분일 수 있다.In step 340, the computer system 100 converts the first aerial image 10 from the second aerial image 20 obtained by capturing the target area 30 from a second viewpoint different from the first aerial image 10. A corresponding figure corresponding to the selected reference figure can be identified. The corresponding figure may be a part of the second aerial image 20 that matches the reference figure of the first aerial image 10 .

대응 도형은 제2 항공 영상(20)에서 자동으로 식별될 수 있다. 예컨대, 컴퓨터 시스템(100)은 제1 항공 영상(10)과 제2 항공 영상(20)을 비교하여(일례로 정합 영상인 제1 항공 영상(10)과 제2 항공 영상(20)이 포함하는 좌표 값들의 비교 기준 도형의 형태(형상 또는 색상 등)과 제2 항공 영상(20)의 비교에 기반하여), 기준 도형에 대응하는 대응 도형을 식별할 수 있다. Corresponding figures may be automatically identified in the second aerial image 20 . For example, the computer system 100 compares the first aerial image 10 and the second aerial image 20 (for example, the first aerial image 10 and the second aerial image 20, which are matched images, include Comparison of coordinate values Based on the comparison between the shape (shape or color, etc.) of the reference figure and the second aerial image 20), a corresponding figure corresponding to the reference figure may be identified.

또는, 대응 도형은 제2 항공 영상의 대상 영역(30) 부분에서 (예컨대, 툴(tool)이 제공하는 사용자 인터페이스를 통한) 사용자의 선택에 따라 식별될 수 있다. 예컨대, 사용자는 화면에 표시된 제1 항공 영상(10)과 제2 항공 영상(20)을 비교하여, 제1 항공 영상(10)의 기준 도형에 대응하는 제2 항공 영상(20)의 부분을 인식하여 대응 도형으로서 선택할 수 있고, 이러한 사용자로부터의 입력에 따라 컴퓨터 시스템(100)은 대응 도형을 식별할 수 있다. Alternatively, the corresponding figure may be identified according to a user's selection (eg, through a user interface provided by a tool) in the target area 30 of the second aerial image. For example, the user compares the first aerial image 10 and the second aerial image 20 displayed on the screen and recognizes a portion of the second aerial image 20 corresponding to the reference figure of the first aerial image 10. and select it as a corresponding figure, and the computer system 100 can identify the corresponding figure according to the input from the user.

대응 도형은 대응하는 기준 도형에 따라, 선 및 면(폐곡선 또는 다각형) 중 적어도 하나를 포함하게 될 수 있다. 대응 도형은 기준 도형은 3차원 위치(고도 값)을 결정하기 위한 비교의 대상이 될 수 있다. The corresponding figure may include at least one of a line and a face (closed curve or polygon) according to the corresponding reference figure. The corresponding figure and the reference figure may be compared to determine a 3D location (altitude value).

제1 시점은 제1 항공 영상(10)을 촬영한 카메라의 3차원 위치(예컨대, 3차원 좌표(x, y, z))와 촬영 방향(카메라의 촬영 각도(요, 롤, 피치))를 포함할 수 있다. 마찬가지로, 제2 시점은 제2 시점은 제2 항공 영상(20)을 촬영한 카메라의 3차원 위치(예컨대, 3차원 좌표(x, y, z))와 촬영 방향(카메라의 촬영 각도(요, 롤, 피치))를 포함할 수 있다.The first viewpoint is based on the 3D position (eg, 3D coordinates (x, y, z)) of the camera that captured the first aerial image 10 and the shooting direction (photography angle (yaw, roll, pitch) of the camera). can include Similarly, the second viewpoint is based on the 3D position (eg, 3D coordinates (x, y, z)) of the camera that captured the second aerial image 20 and the shooting direction (photography angle of the camera (yaw, yaw, yaw)). roll, pitch)).

단계(350)에서, 컴퓨터 시스템(100)은 제1 항공 영상(10)의 기준 도형과 제2 항공 영상(20)의 대응 도형을 서로 매칭시킴으로써 기준 도형의 3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)를 결정할 수 있다. In step 350, the computer system 100 matches the reference figure of the first aerial image 10 and the corresponding figure of the second aerial image 20 to each other so that the 3D position of the reference figure (elevation or elevation) 3D position) can be determined.

아래에서, 제1 항공 영상(10)의 기준 도형과 제2 항공 영상(20)의 대응 도형을 서로 매칭시킴으로써 기준 도형의 3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)를 결정하는 방법을 더 자세하게 설명한다. Below, a method for determining the 3D position (altitude or 3D position including altitude) of the reference figure by matching the reference figure of the first aerial image 10 and the corresponding figure of the second aerial image 20 with each other. explain in more detail.

컴퓨터 시스템(100)은 제1 항공 영상(10)의 대상 영역(30)과 제2 항공 영상(20)의 대상 영역(30)에서 동일한 영역에 해당하는 (점, 선 및 면 중 적어도 하나로 구성되는) 기준 도형과 거기에 대응하는 대응 도형을 취하여, 해당 영역(즉, 기준 도형)의 정확한 3 차원의 위치를 특정할 수 있다. 예컨대, 컴퓨터 시스템(100)은 삼각측량법을 이용하여 해당 지점의 정확한 3 차원의 위치를 특정할 수 있다. 또한, 컴퓨터 시스템(100)은 도화기가 항공 사진들에 기반하여 특정 지점의 고도(높이)를 계산하거나, 등고선을 플로팅하기 위한 지점의 고도를 계산하는 것과 유사한 방식으로, 대상 영역(30)에서의 기준 도형에 대한 3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)를 결정할 수 있다. The computer system 100 corresponds to the same area in the target area 30 of the first aerial image 10 and the target area 30 of the second aerial image 20 (consisting of at least one of a point, a line, and a plane). ) By taking a reference figure and a corresponding figure corresponding thereto, it is possible to specify an accurate 3-dimensional location of a corresponding region (ie, reference figure). For example, the computer system 100 may use triangulation to specify the exact three-dimensional location of a point. In addition, the computer system 100 calculates the altitude (height) of a specific point based on aerial photographs, or calculates the altitude of a point for plotting a contour line, in a manner similar to that in the target area 30. A 3D position (altitude or a 3D position including altitude) with respect to a reference figure may be determined.

일례로, 컴퓨터 시스템(100)은 (영상 정합 과정에 따라) 기지의 값이 된 제1 시점에 대응하는 제1 항공 영상(10)을 촬영한 카메라의 3차원 위치와 촬영 방향과, 제2 시점에 대응하는 제2 항공 영상(20)을 촬영한 카메라의 3차원 위치와 촬영 방향에 기반하여 제1 항공 영상(10) 및 제2 항공 영상(20)에서 공통되는 대상 영역의 지점의 3차원 위치를 결정할 수 있다. 3차원 위치를 결정함에 있어서는 상기 카메라의 정보로서 카메라의 초점 거리 정보, 주점(principal point) 정보가 더 사용될 수 있다. For example, the computer system 100 determines (according to the image matching process) the 3D position and direction of a camera that has captured the first aerial image 10 corresponding to the first viewpoint, which is a known value, and the second viewpoint. The 3D position of a point in the target area common to the first aerial image 10 and the second aerial image 20 based on the 3D position and the shooting direction of the camera that captured the second aerial image 20 corresponding to can decide In determining the 3D position, focal distance information and principal point information of the camera may be further used as information of the camera.

정합을 과정을 거쳐 제1 항공 영상(10) 및 제2 항공 영상(20)을 촬영한 카메라의 3차원 위치(x, y, z)와 그 촬영 방향(요, 롤, 피치)이 각각 결정된 때, 각각의 영상에서 공통으로 포함되는 일 지점을 바라보는 2개의 선분들이 결정될 수 있고, 이들 선분들의 교점을 계산함으로써 상기 지점의 3차원 위치가 결정될 수 있다. When the 3D position (x, y, z) of the camera that captured the first aerial image 10 and the second aerial image 20 and its shooting direction (yaw, roll, pitch) are determined through the registration process, respectively , two line segments facing a point commonly included in each image can be determined, and the 3D position of the point can be determined by calculating the intersection of these line segments.

제1 항공 영상(10)의 촬영 고도와 제2 항공 영상(20)의 촬영 고도는 동일할 수 있다. 상기의 방법에 따라, 컴퓨터 시스템(100)은 제1 항공 영상(10)에서 기준 도형이 선택되고, 제2 항공 영상(20)에서 대응하는 대응 도형이 식별됨에 따라, 기준 도형과 대응 도형을 서로 매칭시킴으로써 기준 도형의 3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)를 결정할 수 있다. 기준 도형과 대응 도형의 "매칭"은 제1 항공 영상(10)과 제2 항공 영상(20) 간의 비교 및/또는 전술한 3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)를 결정(계산)하기 위한 연산들을 포괄하는 의미일 수 있다. The capture altitude of the first aerial image 10 and the capture altitude of the second aerial image 20 may be the same. According to the above method, as the reference figure is selected from the first aerial image 10 and the corresponding corresponding figure is identified from the second aerial image 20, the computer system 100 converts the reference figure and the corresponding figure to each other. By matching, the 3D position (altitude or 3D position including altitude) of the reference figure can be determined. "Matching" of the reference figure and the corresponding figure determines the comparison between the first aerial image 10 and the second aerial image 20 and/or the above-mentioned 3-dimensional position (altitude or 3-dimensional position including altitude) ( It may mean encompassing operations for calculation).

또는, 컴퓨터 시스템(100)은 제1 항공 영상(10)의 제1 시점 및 제2 항공 영상(20)의 제2 시점 간의 시차(예컨대, 제1 시점이 나타내는 카메라의 3차원 위치 및 제2 시점이 나타내는 카메라의 3차원 위치 간의 차이), 제1 시점으로부터 기준 도형에 대한 제1 각도, 및 제2 시점으로부터 대응 도형에 대한 제2 각도에 기반한 삼각측량법에 따라 기준 도형의 3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)를 결정할 수 있다. 즉, 컴퓨터 시스템(100)은 기준 도형과 대응 도형을 매칭(일치)시키고, 삼각측량법에 따라 기준 도형의 3차원의 위치를 정확하게 특정할 수 있다. Alternatively, the computer system 100 may set the parallax between the first viewpoint of the first aerial image 10 and the second viewpoint of the second aerial image 20 (eg, the 3D position of the camera indicated by the first viewpoint and the second viewpoint). The 3D position of the reference figure (elevation or 3-dimensional position including altitude) can be determined. That is, the computer system 100 can match (match) the reference figure and the corresponding figure, and accurately specify the 3-dimensional position of the reference figure according to the triangulation method.

이 때, 제1 항공 영상(10) 및 제2 항공 영상(20)은 정합된 영상으로서, 전술한 것처럼, 각 영상은 영상이 촬영된 카메라의 3차원 위치 및 촬영 방향(표정) 를 포함하고 있을 수 있다. 말하자면, 제1 항공 영상(10) 및 제2 항공 영상(20)은 각각 영상이 촬영된 시점(viewpoint)에 대한 정보로서, 영상이 촬영된 지점에서의 카메라의 3차원의 좌표 정보 및 회전 정보(카메라의 요, 롤, 피치 등)를 포함할 수 있다.At this time, the first aerial image 10 and the second aerial image 20 are matched images, and as described above, each image may include the 3D position of the camera from which the image was captured and the photographing direction (expression). can In other words, the first aerial image 10 and the second aerial image 20 are information about viewpoints at which the images were captured, respectively, and 3D coordinate information and rotation information of the camera at the point where the images were captured ( camera yaw, roll, pitch, etc.).

구체적으로, 컴퓨터 시스템(100)은 제1 시점에 대응하는 제1 항공 영상(10)을 촬영한 카메라의 3차원 위치와 촬영 방향, 제2 시점에 대응하는 제2 항공 영상(20)을 촬영한 카메라의 3차원 위치와 촬영 방향, 제1 시점(즉, 제1 항공 영상(10)을 촬영한 카메라의 3차원 위치)으로부터 기준 도형에 대한 제1 각도, 및 제2 시점(즉, 제2 항공 영상(20)을 촬영한 카메라의 3차원 위치)으로부터 대응 도형에 대한 제2 각도에 기반한 삼각측량법에 따라 기준 도형의 고도를 포함하는 3차원 위치를 결정할 수 있다. Specifically, the computer system 100 captures the 3D position and shooting direction of the camera that captures the first aerial image 10 corresponding to the first viewpoint, and captures the second aerial image 20 corresponding to the second viewpoint. The 3D position and photographing direction of the camera, the first angle with respect to the reference figure from the first viewpoint (ie, the 3D position of the camera that captured the first aerial image 10), and the second viewpoint (ie, the second aerial image 10) The 3D position including the altitude of the reference figure may be determined according to the triangulation method based on the second angle with respect to the corresponding figure from the 3D position of the camera capturing the image 20 .

상기의 방법에 따라, 컴퓨터 시스템(100)은 제1 항공 영상(10)에서 기준 도형이 선택되고, 제2 항공 영상(20)에서 대응하는 대응 도형이 식별됨에 따라, 기준 도형과 대응 도형을 서로 매칭(일치)시킴으로써 삼각측량법에 따라 기준 도형의 3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)를 결정할 수 있다.According to the above method, as the reference figure is selected from the first aerial image 10 and the corresponding corresponding figure is identified from the second aerial image 20, the computer system 100 converts the reference figure and the corresponding figure to each other. By matching (matching), the 3D position (altitude or 3D position including altitude) of the reference figure can be determined according to the triangulation method.

컴퓨터 시스템(100)은 단계(350)에서 결정된 3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)에 기반하여, 기준 도형을 포함하는 대상 영역(30) 내의 시설물의 3차원 위치를 결정할 수 있다. 이러한 시설물의 3차원 위치는 결정된 기준 도형의 3차원 위치에 기반한 보간법(interpolaration)에 따라 시설물을 구성하는 지점들(예컨대, 꼭지점들 사이의 지점들 및 모서리들의 사이의 지점들) 3차원 위치가 계산됨으로써 결정될 수 있다. The computer system 100 may determine the 3D location of the facility in the target area 30 including the reference figure based on the 3D location (elevation or 3D location including the elevation) determined in step 350. there is. The 3D location of the facility is calculated by calculating the 3D location of points constituting the facility (for example, points between vertices and points between corners) according to interpolation based on the 3D location of the determined reference figure. can be determined by

한편, 기 설정된 기준 고도가 사용되는 경우, 컴퓨터 시스템(100)은 제1 항공 영상(10)(즉, 하나의 항공 영상) 만을 사용하여 대상 영역 내의 지점의 3차원 위치를 결정할 수 있다. 기 설정된 기준 고도는 제1 항공 영상(10) 또는 제2 항공 영상(20) 내의 일 지점에 대한 고도 값(예컨대, 표고)일 수 있다. 또는, 이러한 기준 고도는 기준 도형의 3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)를 결정하고 HD 맵을 생성하기 위해 사용되는 프로그램(예컨대, 전술된 툴)에서 설정된 기준 고도 값일 수 있다. 기준 고도는 제1 항공 영상(10) 또는 제2 항공 영상(20)과 연관된 주변 고도 값으로서 단계(350)에서 결정되는 고도는 이러한 기준 고도를 기준으로 한 값이 될 수 있다.Meanwhile, when a preset reference altitude is used, the computer system 100 may determine the 3D position of a point in the target area using only the first aerial image 10 (ie, one aerial image). The preset reference altitude may be an altitude value (eg, elevation) of a point in the first aerial image 10 or the second aerial image 20 . Alternatively, the reference altitude may be a reference altitude value set in a program (e.g., the tool described above) used to determine the 3D position (elevation or 3D position including the altitude) of the reference figure and generate the HD map. . The reference altitude is a surrounding altitude value associated with the first aerial image 10 or the second aerial image 20, and the altitude determined in step 350 may be a value based on the reference altitude.

예컨대, 컴퓨터 시스템(100)은 제1 시점에 대응하는 제1 항공 영상(10)을 촬영한 카메라의 3차원 위치와 촬영 방향, 제1 시점으로부터의 기준 도형에 대한 제1 각도, 및 기 설정된 기준 고도에 기반하여 해당 기준 도형의 고도를 결정할 수 있다. 또한, 컴퓨터 시스템(100)은 결정된 고도에 기반하여 기준 도형에 대한 수평 좌표를 결정함으로써 기준 도형의 3차원 위치를 결정할 수 있다. For example, the computer system 100 may include the 3D position and shooting direction of a camera that captures the first aerial image 10 corresponding to the first viewpoint, a first angle with respect to a reference figure from the first viewpoint, and a preset reference. Based on the altitude, the altitude of the reference figure can be determined. Also, the computer system 100 may determine the 3D position of the reference figure by determining horizontal coordinates of the reference figure based on the determined altitude.

전술한 (삼각측량법 등에 의해) 결정된 기준 도형의 3차원 위치는 기준 도형의 고도 뿐만아니라 수평 좌표를 포함할 수 있다. 말하자면, 실시예에서는 영상을 촬영한 카메라의 3차원 위치 및 촬영 방향이 확정된 항공 영상을 사용하여 기준 도형의 3차원 위치가 결정되는 바, 이러한 3차원 위치는 고도의 결정과 동시에 수평 좌표도 함께 결정될 수 있다.The 3D position of the reference figure determined (by triangulation or the like) described above may include not only the altitude of the reference figure but also the horizontal coordinates. In other words, in the embodiment, the 3D position of the reference figure is determined using an aerial image in which the 3D position and shooting direction of the camera that has taken the image are determined. can be determined

단계(360)에서, 컴퓨터 시스템(100)은 단계(350)에 의해 결정된 기준 도형의 3차원 위치를 사용하여 대상 영역(30)에 대한 HD 맵(50)을 생성할 수 있다. 즉, 컴퓨터 시스템(100)은 단계(350)에 의해 대상 영역(30)에 포함된 시설물들에 대한 정확한 고도(높이)를 특정할 수 있고, 이를 시설물들에 대한 높이 정보로서 사용하여 HD 맵(50)을 생성할 수 있다. 예컨대, 실시예에서는 결정된 고도 값들은 연결함으로써 결정되는 차선 등의 시설물들을 포함하는 HD 맵(50)이 생성될 수 있다. HD 맵(50)을 생성함에 있어서는 전술한 항공 영상들에 포함된 정보가 더 사용될 수 있다. In step 360 , the computer system 100 may generate the HD map 50 of the target area 30 using the 3D position of the reference figure determined in step 350 . That is, the computer system 100 may specify the exact altitude (height) of the facilities included in the target area 30 by step 350, and use this as height information on the facilities on the HD map ( 50) can be created. For example, in the embodiment, the HD map 50 including facilities such as lanes determined by connecting the determined altitude values may be generated. In generating the HD map 50, information included in the aforementioned aerial images may be further used.

따라서 실시예에 의해서는, (정합된) 항공 영상들에 기반하여 대상 영역(30)에 대한 HD 맵(50)이, 별도로 DSM이나 DEM을 생성하는 과정을 수행하지 않고도, 바로 생성될 수 있다. 따라서, 실시예를 통해서는 DSM 및 DEM에 기반하여 HD 맵(50)을 생성할 경우 발생될 수 있는 지형 왜곡의 문제나, 항공 사진에서 가려지는 시설물에 대한 높이 왜곡의 문제가 해결될 수 있다. Accordingly, according to an embodiment, the HD map 50 for the target area 30 may be directly generated based on (matched) aerial images without performing a process of generating a DSM or DEM separately. Therefore, through the embodiment, the problem of terrain distortion that may occur when the HD map 50 is generated based on DSM and DEM or the problem of height distortion for facilities obscured in aerial photographs can be solved.

실시예를 통해서는, 대상 영역(30) 내의 중앙선 또는 차선 등과 같은 시설물의 높이가 정확하게 특정될 수 있는 바, 이러한 시설물들에 대한 높이 정보가 정확하게 반영된 HD 맵(50)이 생성될 수 있다.According to the embodiment, since the heights of facilities such as center lines or lanes within the target area 30 can be accurately specified, the HD map 50 accurately reflecting the height information of these facilities can be generated.

또한, 복수의 항공 영상들(즉, 대상 영역(30)을 상이한 시점에서 촬영한 항공 영상들)을 활용함으로써, 하나의 항공 영상에서는 (가로수, 차량, 그림자 등에 의해) 가려져 보이지 않는 시설물의 높이 역시 다른 항공 영상들을 활용하여 정확하게 특정될 수 있다. In addition, by utilizing a plurality of aerial images (that is, aerial images taken from different viewpoints of the target area 30), the height of facilities that are not visible (by street trees, vehicles, shadows, etc.) It can be accurately characterized using other aerial images.

이상, 도 1 및 도 2를 참조하여 전술된 기술적 특징은 도 3에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다. Since the technical features described above with reference to FIGS. 1 and 2 may be applied to FIG. 3 as they are, duplicate descriptions will be omitted.

도 4 및 도 5는 일 예에 따른, 제1 항공 사진으로부터 가이드 라인을 선택하고, 가이드 라인의 3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)를 결정하는 것을 통해 기준 시설물의 3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)를 결정하는 방법을 나타내는 흐름도이다.4 and 5 show a 3D view of a reference facility by selecting a guideline from a first aerial photograph and determining a 3D position (elevation or a 3D position including altitude) of the guideline according to an example. It is a flow chart showing how to determine a position (altitude or a 3-dimensional position including altitude).

도 4 및 도 5를 참조하여, 대상 영역(30) 내의 기준 시설물에 해당하는 시설물에 대한 3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)를 결정하는 방법을 더 자세하게 설명한다. Referring to FIGS. 4 and 5 , a method of determining a 3D location (elevation or 3D location including elevation) of a facility corresponding to a standard facility within the target area 30 will be described in more detail.

단계(410)에서, 컴퓨터 시스템(100)은 제1 항공 영상(10)의 대상 영역(30) 내에 포함된 시설물들 중 기준 시설물을 선택할 수 있다. 예컨대, 사용자는 화면에 표시된 대상 영역(30) 부분에서 (예컨대, 툴(tool)이 제공하는 사용자 인터페이스를 통해) 기준 시설물을 선택할 수 있고, 이러한 사용자로부터의 입력에 따라 컴퓨터 시스템(100)은 기준 시설물을 선택할 수 있다.In step 410, the computer system 100 may select a reference facility among facilities included in the target area 30 of the first aerial image 10. For example, a user may select a reference facility from the target area 30 displayed on the screen (eg, through a user interface provided by a tool), and the computer system 100 may select a reference facility according to the input from the user. Facilities can be selected.

단계(420)에서, 컴퓨터 시스템(100)은 기준 시설물과 교차하는 적어도 하나의 가이드 라인을 선택할 수 있다. 예컨대, 사용자는 화면에 표시된 대상 영역(30) 부분에서 (예컨대, 툴(tool)이 제공하는 사용자 인터페이스를 통해) 기준 시설물과 교차하는 적어도 하나의 가이드 라인을 선택할 수 있고, 이러한 사용자로부터의 입력에 따라 컴퓨터 시스템(100)은 가이드 라인을 선택할 수 있다.At step 420, the computer system 100 may select at least one guide line that intersects the reference facility. For example, the user may select at least one guideline intersecting the reference facility (eg, through a user interface provided by a tool) in the target area 30 displayed on the screen, and in response to an input from the user Accordingly, the computer system 100 may select a guideline.

선택된 '가이드 라인'의 각각은 전술된 기준 도형에 해당할 수 있다. 말하자면, 가이드 라인의 각각은 일 시설물의 꼭지점과 해당 시설물의 다른 꼭지점 또는 시설물들 중 다른 시설물의 꼭지점을 연결한 선에 해당하는 전술된 기준선일 수 있다.Each of the selected 'guidelines' may correspond to the aforementioned reference figure. In other words, each of the guide lines may be the aforementioned reference line corresponding to a line connecting a vertex of one facility and another vertex of the corresponding facility or a vertex of another facility among the facilities.

컴퓨터 시스템(100)은 기준 도형인 가이드 라인의 3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)를 결정할 수 있다.The computer system 100 may determine the 3D location (elevation or 3D location including the elevation) of the guide line, which is a reference figure.

이 때, 전술된 단계(340)에서, 컴퓨터 시스템(100)은 제2 항공 영상(20)에서 가이드 라인에 대응하는 대응 선을 대응 도형으로 식별할 수 있다. At this time, in step 340 described above, the computer system 100 may identify a corresponding line corresponding to the guide line in the second aerial image 20 as a corresponding figure.

단계(510)에서, 컴퓨터 시스템(100)은 제1 항공 영상(10)의 가이드 라인과 제2 항공 영상(20)의 대응 선을 매칭시킴으로써, 가이드 라인의 3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)를 결정할 수 있다. 가이드 라인의 3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)를 결정하는 방법에는 전술된 기준 도형의 3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)를 결정하는 방법이 그대로 적용될 수 있으므로 중복되는 설명은 생략한다. In step 510, the computer system 100 matches the guide line of the first aerial image 10 with the corresponding line of the second aerial image 20, thereby matching the guide line's 3D position (elevation or height). 3D position) can be determined. The method for determining the 3-dimensional position (elevation or 3-dimensional position including altitude) of the guideline is applied as it is to the method for determining the 3-dimensional position (elevation or 3-dimensional position including altitude) of the reference figure described above. Therefore, redundant descriptions are omitted.

단계(520)에서, 컴퓨터 시스템(100)은 결정된 가이드 라인의 3차원 위치에 기반하여, 가이드 라인과 기준 시설물이 교차하는 지점의 3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)를 결정할 수 있다. 예컨대, 컴퓨터 시스템(100)은 결정된 가이드 라인의 고도와 동일한 고도 값으로 가이드 라인과 기준 시설물이 교차하는 지점의 고도를 결정할 수 있다. 또는, 컴퓨터 시스템(100)은 가이드 라인의 양 끝점에서의 고도가 상이한 경우 보간법(interpolaration)에 따라 가이드 라인과 기준 시설물이 교차하는 지점의 고도를 결정할 수 있다.In step 520, the computer system 100 determines a 3D location (elevation or a 3D location including elevation) of a point where the guideline and the reference facility intersect based on the determined 3D location of the guideline. can For example, the computer system 100 may determine the altitude of a point where the guide line and the reference facility intersect with the same altitude value as the determined altitude of the guide line. Alternatively, the computer system 100 may determine the altitude of a point where the guideline and the reference facility intersect according to interpolation when the altitudes at both end points of the guideline are different.

단계들(510 및 520)에서의 가이드 라인에 대한 고도 결정 방법을 사용함에 따라, 꼭지점을 포함하지 않는(즉, 제1 항공 영상(10)과 제2 항공 영상(20) 간에 매칭이 곤란한) 시설물의 고도나 3차원 위치 역시 정확하게 결정할 수 있다. As the altitude determination method for the guideline is used in steps 510 and 520, facilities that do not include vertices (ie, matching between the first aerial image 10 and the second aerial image 20 are difficult) The altitude or three-dimensional position of the object can also be accurately determined.

일례로, 전술한 기준 시설물은 대상 영역(30) 내의 도로의 중앙선이고, 가이드 라인은 중앙선을 중심으로 위치하는 2개의 차선들의 각 차선의 꼭지점을 연결한 선일 수 있다. As an example, the aforementioned reference facility may be a center line of a road within the target area 30, and the guide line may be a line connecting vertices of two lanes located around the center line.

관련하여, 도 10는 일 예에 따른, 제1 항공 사진(10)으로부터 가이드 라인(1020-1 내지 1020-3)을 선택하고, 가이드 라인(1020-1 내지 1020-3)의 3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)를 결정하는 것을 통해 기준 시설물의 3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)를 결정하는 방법을 나타낸다. In this regard, FIG. 10 shows, according to an example, selecting guide lines 1020-1 to 1020-3 from the first aerial photograph 10, and 3D positions of the guide lines 1020-1 to 1020-3 ( A method of determining the 3D location (altitude or 3D location including the elevation) of a reference facility by determining the elevation or the 3D location including the elevation) is shown.

도 10에서 표시된 중앙선(1010)은 전술한 기준 시설물에 대응하고, 가이드 라인(1020-1 내지 1020-3)은 전술한 가이드 라인에 대응할 수 있다. 도시된 것처럼, 가이드 라인(1020-1 내지 1020-3)의 각각은 중앙선(1010)과 교차하며, 중앙선(1010)을 중심으로 한 차선들의 꼭지점들을 연결함으로써 선택될 수 있다. The center line 1010 shown in FIG. 10 may correspond to the aforementioned reference facility, and guide lines 1020-1 to 1020-3 may correspond to the aforementioned guide lines. As shown, each of the guide lines 1020 - 1 to 1020 - 3 intersects the center line 1010 and may be selected by connecting vertices of lanes centered on the center line 1010 .

단계들(510 및 520)에 따라, 가이드 라인(1020-1 내지 1020-3)과 중앙선(1010)이 교차하는 지점들에 대한 고도가 결정될 수 있다. 컴퓨터 시스템(100)은 이러한 결정된 교차하는 지점들에 대한 고도 값들을 사용하여, 보간법에 따라, 중앙선(1010)의 나머지 지점들의 3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)를 결정할 수 있다. According to steps 510 and 520, altitudes for points where the guide lines 1020-1 to 1020-3 and the center line 1010 intersect may be determined. Computer system 100 may use the elevation values for these determined intersecting points to interpolate to determine the three-dimensional location (elevation or three-dimensional location including elevation) of the remaining points of centerline 1010. there is.

사용자는, 전술된 툴을 사용하여, 화면에 표시된 제1 항공 영상(1000)으로부터 중앙선(1010)을 선택(즉, 드로잉)할 수 있고, 그 다음으로 중앙선(1010)을 교차하는 가이드 라인(1020-1 내지 1020-3)의 각각을 선택할 수 있다. 이러한 가이드 라인(1020-1 내지 1020-3)의 각각은 기준 도형으로서 선택되어 3차원 위치가 결정될 수 있다.The user may select (i.e., draw) the center line 1010 from the first aerial image 1000 displayed on the screen using the tool described above, and then guide line 1020 intersecting the center line 1010. -1 to 1020-3) can be selected. Each of these guide lines 1020-1 to 1020-3 may be selected as a reference figure to determine a 3D position.

한편, 로딩된 제2 항공 영상(20)에서는 가이드 라인(1020-1 내지 1020-3)의 각각에 대응하는 대응 선과 중앙선(1010)에 대응하는 객체가 식별될 수 있고, 컴퓨터 시스템(100)은 대응선과 가이드 라인(1020-1 내지 1020-3)을 매칭시킴으로써 가이드 라인(1020-1 내지 1020-3)의 각각의 3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)를 결정할 수 있다.Meanwhile, in the loaded second aerial image 20, corresponding lines corresponding to each of the guidelines 1020-1 to 1020-3 and objects corresponding to the center line 1010 may be identified, and the computer system 100 By matching the corresponding line with the guide lines 1020-1 to 1020-3, each 3-dimensional position (elevation or 3-dimensional position including the altitude) of the guide lines 1020-1 to 1020-3 can be determined.

한편, 아래에서는 가이드 라인을 사용하지 않고 기준 시설물의 3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)를 결정하는 예시에 대해 설명한다. 기준 시설물이 꼭지점(들)을 포함하는 시설물인 경우, 가이드 라인을 사용하지 않고도 기준 시설물의 3차원 위치를 정확하게 결정할 수 있다. Meanwhile, an example of determining the 3D location (elevation or 3D location including elevation) of a reference facility without using a guideline will be described below. When the reference facility is a facility including vertex(s), the 3D position of the reference facility can be accurately determined without using a guideline.

즉, 전술한 단계(320)에서, 컴퓨터 시스템(100)은 제1 항공 영상(10)의 대상 영역(30) 내에 포함된 시설물들 중 기준 시설물의 꼭지점들을 연결하는 선을 (전술한 기준 도형에 해당하는) 기준선으로서 선택할 수 있다. 전술한 단계(340)에서, 컴퓨터 시스템(100)은 제2 항공 영상(20)에서 상기 기준선에 대응하는 대응 선을 대응 도형으로 식별할 수 있다. 전술한 단계(350)에서, 컴퓨터 시스템(100)은 기준선과 대응 선을 매칭시킴으로써, 기준선의 3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)를 결정할 수 있다. 결정된 기준선의 3차원 위치 에 기반하여 기준 시설물의 3차원 위치가 결정될 수 있다.That is, in the above-described step 320, the computer system 100 draws a line connecting vertices of reference facilities among facilities included in the target area 30 of the first aerial image 10 (to the aforementioned reference figure). corresponding) can be selected as the baseline. In step 340 described above, the computer system 100 may identify a corresponding line corresponding to the reference line in the second aerial image 20 as a corresponding figure. In the above-described step 350, the computer system 100 may determine the 3D position (elevation or a 3D position including the altitude) of the reference line by matching the reference line with the corresponding line. A 3D location of the reference facility may be determined based on the determined 3D location of the reference line.

이처럼, 3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)를 결정하고자 하는 시설물의 특성(예컨대, 꼭지점을 포함하는지 여부)에 따라, 가이드 라인을 사용하여 또는 가이드 라인을 사용하지 않고, 시설물의 3차원 위치가 결정될 수 있다.Thus, depending on the characteristics of the facility (e.g., whether or not it includes vertices) to determine the three-dimensional location (elevation or three-dimensional location including elevation), using or without guidelines, the facility The 3D position of can be determined.

이상, 도 1 내지 도 3을 참조하여 전술된 기술적 특징은 도 4, 도 5 및 도 10에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다. Since the technical features described above with reference to FIGS. 1 to 3 may be applied to FIGS. 4, 5, and 10 as they are, duplicate descriptions will be omitted.

도 6은 일 예에 따른, 기준 시설물의 고도에 기반하여 주변 시설물의 3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)를 결정하는 방법을 나타내는 흐름도이다. 6 is a flowchart illustrating a method of determining a 3D position (an altitude or a 3D position including an altitude) of a nearby facility based on an altitude of a reference facility, according to an example.

아래에서, 도 3의 단계들(352 및 354)과 도 6의 단계들(610 및 620)을 참조하여 주변 시설물의 3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)를 결정하는 방법에 대해 설명한다. Below, with reference to steps 352 and 354 of FIG. 3 and steps 610 and 620 of FIG. 6, a method for determining the 3D location (elevation or 3D location including elevation) of a nearby facility is described. explain about

도 3에서 도시된 단계(352)에서처럼, 컴퓨터 시스템(100)은 (도 4, 도 5 및 도 10을 참조하여 전술한 방법들에 따라) 기준 시설물의 3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)를 결정할 수 있다. As in step 352 shown in FIG. 3, computer system 100 determines (according to methods described above with reference to FIGS. dimension) can be determined.

단계(354)에서처럼, 컴퓨터 시스템(100)은 기준 시설물의 3차원 위치를 기준으로 상기 기준 시설물 주변의 적어도 하나의 주변 시설물의 3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)를 결정할 수 있다.As in step 354, the computer system 100 may determine a 3D location (elevation or a 3D location including elevation) of at least one neighboring facility around the reference facility based on the 3D location of the reference facility. there is.

일례로, 기준 시설물은 대상 영역(30) 내의 도로의 중앙선이고, 주변 시설물은 중앙선을 중심으로 위치하는 차선들의 각각일 수 있다. 또는, 주변 시설물은 기준 시설물 주위의 시설물로서 항공 영상에서 적어도 일부가 가려진 시설물을 포함할 수 있다. For example, the reference facility may be a center line of a road within the target area 30, and the surrounding facility may be each of lanes located around the center line. Alternatively, the surrounding facilities may include facilities around the reference facility and at least partially hidden from the aerial image.

기준 시설물과 주변 시설물 간에 (경사) 구배가 없는 것으로 가정되는 경우(예컨대, 전술된 툴에서 관련된 옵션이 선택되는 경우) 주변 시설물의 고도는 기준 시설물의 고도와 동일한 것으로 결정될 수 있다. 예컨대, 중앙선과 양 옆의 차선들은 고도가 서로 동일한 것으로 가정될 수 있다. 이 때 고도가 서로 동일하다면 제1 항공 영상(10)에서 해당 주변 시설물의 위치를 특정하는 것만으로도 해당 주변 시설물의 3차원 위치를 확정할 수 있으며, 제2 항공 영상(20)에 전사된 도형(주변 시설물에 해당하는 도형)과 제2 항공 영상(20)에 표시된 해당 주변 시설물의 위치가 일치하면 제2 항공 영상(20)에서 추가적인 위치 확인이 필요하지 않게 된다. 제2 항공 영상(20)에 전사된 도형과 제2 항공 영상(20)에 표시된 해당 주변 시설물의 위치가 일치하지 않는다면, 제2 항공 영상(20)에서 전사된 도형의 위치를 제2 항공 영상(20) 위의 시설물의 위치로 조정함으로써 전사된 도형에 대응하는 시설물의 고도를 확정할 수 있다.If it is assumed that there is no (slope) gradient between the reference facility and the surrounding facility (eg, when a related option is selected in the above-described tool), the altitude of the surrounding facility may be determined to be the same as that of the reference facility. For example, it may be assumed that the center line and lanes on both sides have the same altitude. At this time, if the altitudes are the same, the 3D position of the surrounding facility can be determined simply by specifying the location of the surrounding facility in the first aerial image 10, and the figure transferred to the second aerial image 20 If (a figure corresponding to a nearby facility) and the location of the nearby facility displayed on the second aerial image 20 coincide, additional positioning in the second aerial image 20 is not required. If the location of the figure transferred to the second aerial image 20 and the corresponding nearby facility displayed on the second aerial image 20 do not match, the position of the figure transferred from the second aerial image 20 is changed to the second aerial image ( 20) By adjusting the location of the facility above, the altitude of the facility corresponding to the transferred figure can be determined.

한편, 단계(610)에서, 컴퓨터 시스템(100)은 기준 시설물과 주변 시설물 간에 존재하는 구배(gradient)에 따라 (주변 시설물의 고도 값이 될) 기준 시설물의 고도에 대응하는 고도 값을 조정할 수 있다. Meanwhile, in step 610, the computer system 100 may adjust an altitude value corresponding to the altitude of the reference facility (to be the altitude value of the surrounding facility) according to a gradient that exists between the reference facility and the surrounding facility. .

단계(620)에서, 컴퓨터 시스템(100)은 조정된 고도 값에 기반하여 주변 시설물의 3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)를 결정할 수 있다. 구배에 해당하는 고도 값의 조절은 전술된 툴을 통해 제공되는 사용자 인터페이스에 대한 사용자의 입력에 따라 이루어질 수 있다. 또한, 컴퓨터 시스템(100)은 대상 영역(30)에 대한 기지의 지형 정보에 따라 자동으로 상기 고도 값의 조절을 수행할 수도 있다. In step 620, the computer system 100 may determine a 3D location (elevation or a 3D location including the elevation) of a nearby facility based on the adjusted altitude value. Adjustment of the altitude value corresponding to the gradient may be performed according to a user's input to the user interface provided through the above-described tool. Also, the computer system 100 may automatically adjust the altitude value according to known topographical information of the target area 30 .

관련하여, 도 11은 일 예에 따른, 기준 시설물의 3차원 위치에 기반하여 주변 시설물의 3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)를 결정하는 방법을 나타내는 흐름도이다. In this regard, FIG. 11 is a flowchart illustrating a method of determining a 3D location (elevation or a 3D location including elevation) of a nearby facility based on a 3D location of a reference facility, according to an example.

도시된 예시에서, 중앙선(1010)은 전술한 기준 시설물에 대응하고, 가이드 라인(1020-1 내지 1020-3)은 전술한 가이드 라인에 대응할 수 있다. 한편, 차선(1110)은 중앙선(1010)의 주변에 위치하는 시설물로서 전술된 주변 시설물에 대응할 수 있다. In the illustrated example, the center line 1010 may correspond to the aforementioned reference facility, and the guide lines 1020-1 to 1020-3 may correspond to the aforementioned guide lines. Meanwhile, the lane 1110 is a facility located around the center line 1010 and may correspond to the aforementioned surrounding facilities.

컴퓨터 시스템(100)은 도로의 경우에는 구배가 없는 것으로 가정하여, 차선(1110)의 고도를 중앙선(1010)의 고도와 동일한 것으로서 결정할 수 있다. 또는, 컴퓨터 시스템(100)은 사용자 또는 지형 정보에 따라 설정되는 구배에 따라 중앙선(1010)의 고도를 조절하여 차선(1110)의 고도를 결정할 수 있다.The computer system 100 may determine the altitude of the lane 1110 as being equal to the altitude of the center line 1010 assuming that there is no gradient in the case of the road. Alternatively, the computer system 100 may determine the altitude of the lane 1110 by adjusting the altitude of the center line 1010 according to a gradient set according to a user or terrain information.

따라서, 실시예에서는 기준 시설물의 3차원 위치를 결정하는 것만으로 주변 시설물의 3차원 위치가 용이하게 결정될 수 있다. Accordingly, in the embodiment, the 3D location of the surrounding facility can be easily determined only by determining the 3D location of the reference facility.

이상, 도 1 내지 도 5 및 도 10을 참조하여 전술된 기술적 특징은 도 6 및 도 11에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다. Since the technical features described above with reference to FIGS. 1 to 5 and 10 may be applied to FIGS. 6 and 11 as they are, duplicate descriptions are omitted.

도 7은 일 예에 따른, 제1 항공 영상에서 선택된 기준 도형과 제2 항공 영상에서 식별된 대응 도형을 매칭시킴으로써 기준 도형의 3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)를 결정하는 방법을 나타내는 흐름도이다.7 is a method for determining a 3D position (elevation or a 3D position including altitude) of a reference figure by matching a reference figure selected from a first aerial image with a corresponding figure identified from a second aerial image according to an example. Here is a flow chart showing the method.

도 7을 참조하여서는, 전술된 툴을 사용하여, 제1 항공 영상(10)의 기준 도형과 제2 항공 영상(20)의 대응 도형을 매칭시킴으로써 기준 도형의 3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)를 결정하는 방법에 대해 설명한다. Referring to FIG. 7 , by matching the reference figure of the first aerial image 10 and the corresponding figure of the second aerial image 20 using the above-described tool, the 3D position of the reference figure (elevation or elevation) A method for determining a 3D position) will be described.

후술될 단계들(710 내지 740)은 전술된 단계(350)에 포함되는 것일 수 있다. Steps 710 to 740 to be described later may be included in step 350 described above.

단계(710)에서, 컴퓨터 시스템(100)은 기준 도형을 포함하는 제1 항공 영상(10) 또는 기준 도형을 제2 항공 영상(20)에 전사(projection)시킬 수 있다. 예컨대, 컴퓨터 시스템(100)은 제1 항공 영상(10)의 레이어 또는 기준 도형의 레이어를 제2 항공 영상(20)에 전사(projection)시킬 수 있다. 기준 도형의 레이어는 제1 항공 영상(10) 기준 도형이 선택됨에 따라 생성되는 것일 수 있다. In step 710, the computer system 100 may project the first aerial image 10 including the reference figure or the reference figure onto the second aerial image 20. For example, the computer system 100 may project a layer of the first aerial image 10 or a layer of a reference figure onto the second aerial image 20 . The layer of the reference figure may be created when the reference figure of the first aerial image 10 is selected.

단계(720)에서, 컴퓨터 시스템(100)은 전사된 기준 도형과 제2 항공 영상(20)에서 식별된 대응 도형이 일치되도록 기준 도형을 이동시킬 수 있다. 이동되는 기준 도형은 기준 도형에 대응하는 레이어일 수 있다. 예컨대, 사용자는 제2 항공 영상(20)에 전사된 기준 도형의 레이어를 (예컨대, 툴(tool)이 제공하는 사용자 인터페이스를 통해) 이동시킬 수 있고, 이러한 사용자로부터의 입력에 따라 컴퓨터 시스템(100)은 기준 도형을 제2 항공 영상(20) 상에서 이동시킬 수 있다.In step 720, the computer system 100 may move the reference figure so that the transferred reference figure matches the corresponding figure identified in the second aerial image 20. The reference figure to be moved may be a layer corresponding to the reference figure. For example, the user may move the layer of the reference figure transferred to the second aerial image 20 (eg, through a user interface provided by a tool), and the computer system 100 may move according to an input from the user. ) may move the reference figure on the second aerial image 20.

단계(740)에서, 컴퓨터 시스템(100)은 제2 항공 영상(20) 상의 대응 도형과 이동되는 기준 도형이 일치되는 때에 해당하는 기준 도형의 고도 값을 기준 도형의 고도로 결정할 수 있다. 예컨대, 단계(730)에서, 컴퓨터 시스템(100)은 (단계(720)에 따라) 기준 도형을 이동시키고, 이동된 위치에 대응하는 고도 값을 출력할 수 있고, 대응 도형과 기준 도형이 일치되는 때에 출력되는 고도 값을 기준 도형의 고도로 결정할 수 있다. 출력되는 고도 값은 기준 고도에 대한 높이 값일 수 있다. 기준 도형의 수평 좌표 역시 유사한 방식으로 결정될 수 있다. 따라서, 고도와 수평 좌표를 포함하는 기준 도형의 3차원 위치가 결정될 수 있다. In operation 740, the computer system 100 may determine an altitude value of the corresponding reference figure as the altitude of the reference figure when the corresponding figure on the second aerial image 20 matches the moving reference figure. For example, in step 730, the computer system 100 may move the reference figure (according to step 720), output an altitude value corresponding to the moved position, and when the corresponding figure and the reference figure match. The altitude value displayed at the time can be determined as the altitude of the reference figure. The output altitude value may be a height value with respect to the reference altitude. The horizontal coordinates of the reference figure may also be determined in a similar manner. Accordingly, the 3D position of the reference figure including the elevation and horizontal coordinates may be determined.

관련하여, 도 9는 일 예에 따른, 제1 항공 영상(900)에서 선택된 기준 도형(905)과 제2 항공 영상(910)에서 식별된 대응 도형을 매칭시킴으로써 기준 도형의 3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)를 결정하는 방법을 나타낸다. In this regard, FIG. 9 is a 3D position (elevation or 3D position including altitude) is determined.

도시된 것처럼, 제1 항공 영상(900)에서는 차선에 대응하는 기준선이 기준 도형(905)으로 식별될 수 있다. 이러한 기준 도형(905)(기준 도형(905)의 레이어)은 제2 항공 영상(910)에 전사될 수 있다. 사용자는, 전술된 툴이 제공하는 사용자 인터페이스를 통해, 전사된 기준 도형(905)의 레이어를 위치들(920-1 내지 4, 대응 도형(915)에 대응하는 위치) 사이에서 이동시킬 수 있다. As illustrated, in the first aerial image 900 , a reference line corresponding to a lane may be identified as a reference figure 905 . This reference figure 905 (a layer of the reference figure 905) may be transferred to the second aerial image 910. A user may move the transferred layer of the reference figure 905 between positions 920 - 1 to 4 (positions corresponding to the corresponding figure 915 ) through a user interface provided by the tool described above.

컴퓨터 시스템(100)은 전사된 기준 도형(905)의 위치들(920-1 내지 4, 915)의 각각에서의 3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)를 결정할 수 있다. 말하자면, 컴퓨터 시스템(100)은 위치들(920-1 내지 4, 915)의 각 위치를 전사된 기준 도형(905)과 대응 도형이 일치되는 위치로 가정하여, 상기 각 위치에서 기준 도형(905)의 3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)를 결정할 수 있다. 기준 도형(905)의 3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)를 결정하는 방법에는 전술된 방법이 그대로 적용될 수 있으므로 중복되는 설명은 생략한다. The computer system 100 may determine a 3D position (elevation or a 3D position including altitude) at each of positions 920 - 1 to 4 and 915 of the reference figure 905 that has been transferred. In other words, the computer system 100 assumes that each position of the positions 920-1 to 4 and 915 is a position where the transferred reference figure 905 and the corresponding figure coincide, and the reference figure 905 is generated at each position. It is possible to determine the 3-dimensional position (altitude or 3-dimensional position including altitude) of . Since the above-described method can be applied as it is to the method of determining the 3D location (elevation or 3D location including the elevation) of the reference figure 905, duplicate descriptions will be omitted.

이에 따라, 도시된 것처럼, 컴퓨터 시스템(100)은 전사된 기준 도형(905)이 위치들(920-1 내지 4, 915)을 이동함에 따라 각 위치에서의 기준 도형(905)의 고도 값을 출력할 수 있다. 즉, 제2 항공 영상(910)에서 대응 도형의 epipolar(에피폴라)를 따라 기준 도형(905)의 위치가 이동됨에 따라, 컴퓨터 시스템(100)은 그에 따른 기준 도형(905)의 높이를 변경하여 출력할 수 있다. Accordingly, as shown, the computer system 100 outputs an altitude value of the reference figure 905 at each position as the transferred reference figure 905 moves through the positions 920-1 to 4 and 915. can do. That is, as the position of the reference figure 905 moves along the epipolar of the corresponding figure in the second aerial image 910, the computer system 100 changes the height of the reference figure 905 accordingly. can be printed out.

사용자는 위치들(920-1 내지 4, 915) 사이에서 전사된 기준 도형(905)을 이동시키면서, 대응 도형과 정확하게 일치되는 위치(915)에서의 고도 값(즉, 높이 22.7m)이 기준 도형(905)에 해당함을 알 수 있다(말하자면, 사용자는 높이를 얼마로 할 경우 기준 도형(905)과 대응 도형이 일치(매칭)되는지를 용이하게 식별할 수 있다). 따라서, 컴퓨터 시스템(100)은 위치(915)에서의 고도 값을 기준 도형(905)의 고도 값으로 결정할 수 있다.While the user moves the transferred reference figure 905 between positions 920-1 to 4 and 915, the altitude value (ie, height 22.7m) at the position 915 that exactly matches the corresponding figure is the reference figure. It can be seen that it corresponds to 905 (that is, the user can easily identify whether the reference figure 905 and the corresponding figure match (match) at what height). Accordingly, the computer system 100 may determine the altitude value at the location 915 as the altitude value of the reference figure 905 .

전술한 바와 같은, 툴의 사용자 인터페이스를 사용하여 도형(905)의 고도 값을 결정할 수 있음으로써, 기준 도형(905)과 대응 도형이 매칭되는 위치(915)가 직관적으로 파악될 수 있으며, 따라서, 기준 도형(905)의 고도를 비롯한 3차원 위치의 결정 역시 편리하게 이루어질 수 있다. As described above, by determining the altitude value of the figure 905 using the user interface of the tool, the location 915 where the reference figure 905 and the corresponding figure match can be intuitively grasped, and thus, Determination of the 3D position including the altitude of the reference figure 905 can also be conveniently performed.

이상, 도 1 내지 도 6, 도 10 및 도 11을 참조하여 전술된 기술적 특징은 도 7 및 도 9에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다. Since the technical features described above with reference to FIGS. 1 to 6, 10 and 11 may be applied to FIGS. 7 and 9 as they are, duplicate descriptions will be omitted.

도 8은 일 예에 따른, 결정된 고도에 따라 대상 영역에 대한 DSM 및 DEM을 생성하고, 나아가 대상 영역에 대한 수직 정사 영상을 생성하는 방법을 나타낸다. 8 illustrates a method of generating a DSM and a DEM of a target region according to a determined altitude, and further generating a vertical ortho image of the target region, according to an example.

전술한 것처럼, 실시예를 통해서는 (정합된) 항공 영상들에 기반하여 대상 영역(30)에 대한 HD 맵(50)이, 별도로 DSM이나 DEM을 생성하는 과정을 수행하지 않고도, 바로 생성될 수 있다.As described above, according to the embodiment, the HD map 50 for the target area 30 based on (matched) aerial images can be directly generated without performing a process of generating a DSM or DEM separately. there is.

단계(810)에서, 컴퓨터 시스템(100)은 대상 영역(30)과 관련하여 결정된 고도를 사용하여, 대상 영역(30)에 대한 수치 표면 모델(Digital Surface Model; DSM) 및 수치 표고 모델(Digital Elevation Model; DEM) 중 적어도 하나를 생성할 수 있다. 말하자면, 컴퓨터 시스템(100)은 DSM이나 DEM에 기반하여 대상 영역(30)의 3차원 위치(고도 또는 고도를 포함하는 3차원의 위치)를 결정하는 것이 아니라, 대상 영역(30)의 3차원 위치를 먼저 결정하고 결정된 고도에 따라 DSM 및/또는 DEM을 생성할 수 있다. At step 810, computer system 100 uses the determined elevation relative to target area 30 to generate a digital surface model (DSM) and digital elevation model (Digital Elevation) for target area 30. At least one of Model; DEM) can be created. In other words, the computer system 100 does not determine the 3-dimensional position (elevation or 3-dimensional position including elevation) of the target area 30 based on the DSM or DEM, but the 3-dimensional position of the target area 30. may be determined first, and a DSM and/or a DEM may be generated according to the determined altitude.

또한, 단계(820)에서, 컴퓨터 시스템(100)은 생성된 DSM 및 DEM에 기반하여 대상 영역(30)에 대한 수직 정사(True Ortho) 영상을 생성할 수 있다. 따라서, 컴퓨터 시스템(100)은 항공 영상들에 기반하여 대상 영역(30)의 수직 정사 영상에 기반한 3차원 맵을 구축할 수 있다. Also, in operation 820, the computer system 100 may generate a true ortho image of the target region 30 based on the generated DSM and DEM. Accordingly, the computer system 100 may construct a 3D map based on a vertical orthographic image of the target region 30 based on the aerial images.

대상 영역(30)에 대한 DSM, DEM 및 수직 정사 영상을 생성하기 위해서는 전술한 항공 영상들에 포함된 정보가 더 사용되어야 할 수 있다.In order to generate DSM, DEM, and vertical ortho images of the target region 30, information included in the aforementioned aerial images may need to be further used.

대상 영역(30)에 대한 DSM, DEM 및 수직 정사 영상 중 적어도 하나는, 대상 영역(30)에 대한 고도들이 결정된 후 사용자의 선택에 따라 컴퓨터 시스템(100)에 의해 생성될 수 있다. At least one of DSM, DEM, and vertical ortho images of the target area 30 may be generated by the computer system 100 according to a user's selection after the altitudes of the target area 30 are determined.

이상, 도 1 내지 도 7 및 도 9 내지 도 11을 참조하여 전술된 기술적 특징은 도 8에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다. Since the technical features described above with reference to FIGS. 1 to 7 and 9 to 11 may be applied to FIG. 8 as they are, duplicate descriptions are omitted.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The devices described above may be implemented as hardware components, software components, and/or a combination of hardware components and software components. For example, devices and components described in the embodiments include a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA), and a programmable PLU (programmable logic unit). logic unit), microprocessor, or any other device capable of executing and responding to instructions. The processing device may run an operating system (OS) and one or more software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of software. For convenience of understanding, there are cases in which one processing device is used, but those skilled in the art will understand that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it can include. For example, a processing device may include a plurality of processors or a processor and a controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of the foregoing, which configures a processing device to operate as desired or processes independently or collectively. The device can be commanded. The software and/or data may be embodied in any tangible machine, component, physical device, computer storage medium or device to be interpreted by or to provide instructions or data to a processing device. there is. Software may be distributed on networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer readable media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 이때, 매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수 개의 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 어플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. In this case, the medium may continuously store a program executable by a computer or temporarily store the program for execution or download. In addition, the medium may be various recording means or storage means in the form of a single or combined hardware, but is not limited to a medium directly connected to a certain computer system, and may be distributed on a network. Examples of the medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CD-ROM and DVD, magneto-optical media such as floptical disks, and ROM, RAM, flash memory, etc. configured to store program instructions. In addition, examples of other media include recording media or storage media managed by an app store that distributes applications, a site that supplies or distributes various other software, and a server.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited examples and drawings, those skilled in the art can make various modifications and variations from the above description. For example, the described techniques may be performed in an order different from the method described, and/or components of the described system, structure, device, circuit, etc. may be combined or combined in a different form than the method described, or other components may be used. Or even if it is replaced or substituted by equivalents, appropriate results can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims are within the scope of the following claims.

Claims (18)

컴퓨터 시스템에 의해 수행되는, 항공 영상에 기반하여 HD (High Definition) 맵을 생성하는 방법에 있어서,
대상 영역의 3차원 위치 결정을 위한 툴을 통한 사용자로부터의 입력에 기반하여, 상기 대상 영역을 바라보는 제1 시점(viewpoint)에서 상기 대상 영역을 촬영한 제1 항공 영상으로부터 기준 도형을 선택하는 단계;
상기 제1 항공 영상과는 상이한 제2 시점에서 상기 대상 영역을 촬영한 제2 항공 영상에서 상기 기준 도형에 대응하는 대응 도형을 식별하는 단계;
상기 기준 도형과 상기 대응 도형을 서로 매칭시킴으로써 상기 기준 도형의 3차원 위치를 결정하는 단계; 및
상기 결정된 3차원 위치를 사용하여 상기 대상 영역에 대한 HD 맵을 생성하는 단계
를 포함하고,
상기 선택하는 단계는,
상기 툴을 통한 상기 사용자로부터의 입력에 기반하여, 상기 제1 항공 영상의 상기 대상 영역 내에 포함된 시설물들 중 기준 시설물 상의 지점과 교차하는, 상기 시설물들 중 어느 하나의 시설물의 꼭지점과 상기 시설물들 중 다른 시설물의 꼭지점을 연결하는 가이드 라인을 상기 기준 도형으로서 선택하는 단계
를 포함하고,
상기 식별하는 단계는,
상기 제2 항공 영상에서 상기 가이드 라인에 대응하는 대응 선을 상기 대응 도형으로 식별하고,
상기 결정하는 단계는,
상기 가이드 라인과 상기 대응 선을 매칭시킴으로써, 상기 가이드 라인의 3차원 위치를 결정하는 단계; 및
상기 가이드 라인의 3차원 위치에 기반하여, 상기 가이드 라인과 상기 기준 시설물이 교차하는 상기 기준 시설물 상의 지점의 3차원 위치를 결정하는 단계
를 포함하는, HD 맵을 생성하는 방법.
A method for generating a high definition (HD) map based on an aerial image, performed by a computer system,
Selecting a reference shape from a first aerial image of a target area captured at a first viewpoint looking at the target area, based on a user's input through a tool for 3D location determination of the target area ;
identifying a corresponding figure corresponding to the reference figure in a second aerial image obtained by capturing the target region at a second viewpoint different from the first aerial image;
determining a 3D position of the reference figure by matching the reference figure with the corresponding figure; and
generating an HD map for the target area using the determined 3D position;
including,
The selection step is
Based on the input from the user through the tool, a vertex of any one of the facilities among the facilities included in the target area of the first aerial image and intersecting a point on a reference facility and the facilities Selecting a guide line connecting vertices of other facilities among the reference figures
including,
The identification step is
Identifying a corresponding line corresponding to the guide line in the second aerial image as the corresponding figure;
The determining step is
determining a three-dimensional position of the guide line by matching the guide line with the corresponding line; and
Determining the 3D location of a point on the reference facility where the guideline and the reference facility intersect based on the 3D location of the guideline
Including, how to create an HD map.
제1항에 있어서,
상기 결정하는 단계는,
상기 제1 시점에 대응하는 상기 제1 항공 영상을 촬영한 카메라의 3차원 위치와 촬영 방향, 상기 제2 시점에 대응하는 상기 제2 항공 영상을 촬영한 카메라의 3차원 위치와 촬영 방향, 상기 제1 시점으로부터 상기 기준 도형에 대한 제1 각도, 및 상기 제2 시점으로부터 상기 대응 도형에 대한 제2 각도에 기반한 삼각측량법에 따라 상기 기준 도형의 고도를 포함하는 3차원 위치를 결정하는, HD 맵을 생성하는 방법.
According to claim 1,
The determining step is
The 3D position and photographing direction of the camera capturing the first aerial image corresponding to the first viewpoint, the 3D position and photographing direction of the camera capturing the second aerial image corresponding to the second viewpoint, An HD map for determining a three-dimensional position including the altitude of the reference figure according to a triangulation method based on a first angle with respect to the reference figure from a first viewpoint and a second angle with respect to the corresponding figure from the second viewpoint. How to create.
제1항에 있어서,
상기 기준 시설물은 꼭지점을 포함하지 않는 것인, HD 맵을 생성하는 방법.
According to claim 1,
The method of generating an HD map, wherein the reference facility does not include vertices.
삭제delete 제1항에 있어서,
상기 기준 시설물은 상기 대상 영역 내의 도로의 중앙선이고, 상기 가이드 라인은 상기 중앙선을 중심으로 위치하는 2개의 차선들의 각 차선의 꼭지점을 연결한 선인, HD 맵을 생성하는 방법.
According to claim 1,
The method of claim 1 , wherein the reference facility is a center line of a road in the target area, and the guide line is a line connecting vertices of each lane of two lanes located around the center line.
삭제delete 제1항에 있어서,
상기 기준 시설물의 3차원 위치를 결정하는 단계; 및
상기 기준 시설물의 3차원 위치를 기준으로 상기 기준 시설물 주변의 적어도 하나의 주변 시설물의 3차원 위치를 결정하는 단계
를 더 포함하는, HD 맵을 생성하는 방법.
According to claim 1,
determining the 3D location of the reference facility; and
Determining the 3D position of at least one neighboring facility around the reference facility based on the 3D location of the reference facility
Further comprising a method for generating an HD map.
제7항에 있어서,
상기 주변 시설물의 3차원 위치를 결정하는 단계는,
상기 기준 시설물과 상기 주변 시설물 간에 존재하는 구배(gradient)에 따라 상기 기준 시설물의 3차원 위치에 대응하는 고도 값을 조정하는 단계; 및
상기 조정된 고도 값에 기반하여 상기 주변 시설물의 3차원 위치를 결정하는 단계
를 포함하는, HD 맵을 생성하는 방법.
According to claim 7,
Determining the 3D location of the surrounding facilities,
adjusting an altitude value corresponding to a 3D position of the reference facility according to a gradient existing between the reference facility and the neighboring facilities; and
Determining the 3D location of the surrounding facility based on the adjusted altitude value
Including, how to create an HD map.
제7항에 있어서,
상기 기준 시설물은 상기 대상 영역 내의 도로의 중앙선이고, 상기 주변 시설물은 상기 중앙선을 중심으로 위치하는 차선들의 각각인, HD 맵을 생성하는 방법.
According to claim 7,
The method of claim 1 , wherein the reference facility is a center line of a road in the target area, and the surrounding facility is each of lanes located around the center line.
제1항에 있어서,
상기 결정된 3차원 위치에 기반하여, 상기 기준 도형의 적어도 일부를 포함하는 상기 대상 영역 내의 시설물의 3차원 위치를 결정하는 단계
를 더 포함하고,
상기 기준 도형의 적어도 일부를 포함하는 시설물의 3차원 위치는 상기 결정된 기준 도형의 3차원 위치에 기반한 보간법(interpolaration)에 따라 상기 시설물을 구성하는 지점들의 3차원 위치가 계산됨으로써 결정되는, HD 맵을 생성하는 방법.
According to claim 1,
Determining a 3D location of a facility in the target area including at least a part of the reference figure based on the determined 3D location
Including more,
The 3D location of a facility including at least a part of the reference figure is determined by calculating the 3D location of points constituting the facility according to interpolation based on the determined 3D position of the reference figure, using an HD map. How to create.
컴퓨터 시스템에 의해 수행되는, 항공 영상에 기반하여 HD (High Definition) 맵을 생성하는 방법에 있어서,
대상 영역의 3차원 위치를 결정하기 위한 툴을 통한 사용자로부터의 입력에 기반하여, 대상 영역을 바라보는 제1 시점(viewpoint)에서 상기 대상 영역을 촬영한 제1 항공 영상으로부터 기준 도형을 선택하는 단계;
상기 제1 항공 영상과는 상이한 제2 시점에서 상기 대상 영역을 촬영한 제2 항공 영상에서 상기 기준 도형에 대응하는 대응 도형을 식별하는 단계;
상기 기준 도형과 상기 대응 도형을 서로 매칭시킴으로써 상기 기준 도형의 3차원 위치를 결정하는 단계; 및
상기 결정된 3차원 위치를 사용하여 상기 대상 영역에 대한 HD 맵을 생성하는 단계
를 포함하고,
상기 결정하는 단계는,
상기 선택된 기준 도형을 포함하는 상기 제1 항공 영상 또는 상기 선택된 기준 도형을 상기 제2 항공 영상에 전사(projection)시키는 단계;
상기 툴을 통한 상기 사용자로부터의 전사된 상기 기준 도형을 이동시키기 위한 입력에 기반하여, 전사된 상기 기준 도형과 상기 제2 항공 영상에서 상기 식별된 대응 도형이 일치되도록 상기 기준 도형을 이동시키는 단계; 및
상기 식별된 대응 도형과 상기 기준 도형이 일치되는 때에 해당하는 상기 기준 도형의 고도 값을 상기 기준 도형의 3차원 위치로 결정하는 단계
를 포함하는, HD 맵을 생성하는 방법.
A method for generating a high definition (HD) map based on an aerial image, performed by a computer system,
Selecting a reference shape from a first aerial image of a target region captured at a first viewpoint looking at the target region, based on a user input through a tool for determining a 3D location of the target region ;
identifying a corresponding figure corresponding to the reference figure in a second aerial image obtained by capturing the target region at a second viewpoint different from the first aerial image;
determining a 3D position of the reference figure by matching the reference figure with the corresponding figure; and
generating an HD map for the target area using the determined 3D position;
including,
The determining step is
Projecting the first aerial image including the selected reference figure or the selected reference figure onto the second aerial image;
moving the reference figure so that the transferred reference figure matches the identified corresponding figure in the second aerial image based on an input for moving the transcribed reference figure from the user through the tool; and
Determining an altitude value of the reference figure corresponding to when the identified corresponding figure matches the reference figure as a 3D position of the reference figure
Including, how to create an HD map.
제11항에 있어서,
상기 결정하는 단계는,
상기 사용자로부터의 상기 기준 도형을 이동시키기 위한 입력에 따라 상기 기준 도형이 이동될 때 상기 기준 도형이 이동된 위치에 대응하는 고도 값을, 상기 툴을 통해, 출력하는 단계
를 포함하고,
상기 식별된 대응 도형과 상기 기준 도형이 일치되는 때에 출력되는 고도 값이 상기 기준 도형의 3차원 위치로 결정되는, HD 맵을 생성하는 방법.
According to claim 11,
The determining step is
Outputting, through the tool, an altitude value corresponding to a position where the reference figure is moved when the reference figure is moved according to an input for moving the reference figure from the user.
including,
The method of generating an HD map, wherein an altitude value output when the identified corresponding figure matches the reference figure is determined as a 3-dimensional position of the reference figure.
제11항에 있어서,
상기 이동되는 기준 도형은 상기 기준 도형에 대응하는 레이어인, HD 맵을 생성하는 방법.
According to claim 11,
The method of generating an HD map, wherein the moved reference figure is a layer corresponding to the reference figure.
제1항에 있어서,
상기 결정된 3차원 위치를 사용하여, 상기 대상 영역에 대한 수치 표면 모델(Digital Surface Model; DSM) 및 수치 표고 모델(Digital Elevation Model; DEM) 중 적어도 하나를 생성하는 단계
를 더 포함하는, HD 맵을 생성하는 방법.
According to claim 1,
generating at least one of a digital surface model (DSM) and a digital elevation model (DEM) for the target area using the determined 3-dimensional position;
Further comprising a method for generating an HD map.
제14항에 있어서,
상기 생성된 DSM 및 DEM에 기반하여 상기 대상 영역에 대한 수직 정사(True Ortho) 영상을 생성하는 단계
를 더 포함하는, HD 맵을 생성하는 방법.
According to claim 14,
generating a true ortho image of the target region based on the generated DSM and DEM;
Further comprising a method for generating an HD map.
제1항 내지 제3항, 제5항, 및 제7항 내지 제15항 중 어느 한 항의 방법을 상기 컴퓨터 시스템에서 실행시키기 위해 비-일시적인 컴퓨터 판독가능한 기록 매체에 저장되는 컴퓨터 프로그램.A computer program stored in a non-transitory computer readable recording medium to execute the method of any one of claims 1 to 3, 5, and 7 to 15 in the computer system. 제1항 내지 제3항, 제5항, 및 제7항 내지 제15항 중 어느 한 항의 방법을 상기 컴퓨터 시스템에서 실행시키기 위한 프로그램이 기록되어 있는 비-일시적인 컴퓨터 판독 가능한 기록 매체.A non-transitory computer readable recording medium in which a program for executing the method of any one of claims 1 to 3, 5, and 7 to 15 in the computer system is recorded. 컴퓨터 시스템에 있어서,
메모리에 포함된 컴퓨터 판독가능한 명령들을 실행하도록 구성된 적어도 하나의 프로세서
를 포함하고,
상기 적어도 하나의 프로세서는,
대상 영역의 3차원 위치 결정을 위한 툴을 통한 사용자로부터의 입력에 기반하여, 상기 대상 영역을 바라보는 제1 시점에서 상기 대상 영역을 촬영한 제1 항공 영상으로부터 기준 도형을 선택하고, 상기 제1 항공 영상과는 상이한 제2 시점(viewpoint)에서 상기 대상 영역을 촬영한 제2 항공 영상에서 상기 기준 도형에 대응하는 대응 도형을 식별하고, 상기 기준 도형과 상기 대응 도형을 서로 매칭시킴으로써 상기 기준 도형의 3차원 위치를 결정하고, 상기 결정된 3차원 위치를 사용하여 상기 대상 영역에 대한 HD 맵을 생성하고,
상기 기준 도형을 선택함에 있어서,
상기 툴을 통한 상기 사용자로부터의 입력에 기반하여, 상기 제1 항공 영상의 상기 대상 영역 내에 포함된 시설물들 중 기준 시설물 상의 지점과 교차하는, 상기 시설물들 중 어느 하나의 시설물의 꼭지점과 상기 시설물들 중 다른 시설물의 꼭지점을 연결하는 가이드 라인을 상기 기준 도형으로서 선택하고,
상기 대응 도형을 식별함에 있어서,
상기 제2 항공 영상에서 상기 가이드 라인에 대응하는 대응 선을 상기 대응 도형으로 식별하고,
상기 기준 도형의 3차원 위치를 결정함에 있어서,
상기 가이드 라인과 상기 대응 선을 매칭시킴으로써, 상기 가이드 라인의 3차원 위치를 결정하고,
상기 가이드 라인의 3차원 위치에 기반하여, 상기 가이드 라인과 상기 기준 시설물이 교차하는 상기 기준 시설물 상의 지점의 3차원 위치를 결정하는, 컴퓨터 시스템.
In a computer system,
at least one processor configured to execute computer readable instructions contained in memory;
including,
The at least one processor,
Based on a user's input through a tool for determining the 3D location of the target region, a reference figure is selected from a first aerial image obtained by capturing the target region at a first viewpoint looking at the target region, and the first A corresponding figure corresponding to the reference figure is identified in a second aerial image obtained by capturing the target area from a second viewpoint different from the aerial image, and the reference figure and the corresponding figure are matched with each other to obtain the reference figure. determining a 3D location, and generating an HD map for the target area using the determined 3D location;
In selecting the reference figure,
Based on the input from the user through the tool, a vertex of any one of the facilities among the facilities included in the target area of the first aerial image and intersecting a point on the reference facility and the facilities Select a guideline connecting the vertices of other facilities as the reference figure,
In identifying the corresponding figure,
Identifying a corresponding line corresponding to the guide line in the second aerial image as the corresponding figure;
In determining the 3-dimensional position of the reference figure,
By matching the guide line and the corresponding line, the three-dimensional position of the guide line is determined,
Based on the three-dimensional location of the guide line, determine the three-dimensional location of a point on the reference facility where the guide line and the reference facility intersect.
KR1020210027423A 2021-03-02 2021-03-02 Method and system for generating high-definition map based on aerial images captured from unmanned air vehicle or aircraft KR102520189B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020210027423A KR102520189B1 (en) 2021-03-02 2021-03-02 Method and system for generating high-definition map based on aerial images captured from unmanned air vehicle or aircraft
JP2022029310A JP7375066B2 (en) 2021-03-02 2022-02-28 Method and system for generating HD maps based on aerial images taken by unmanned aerial vehicles or aircraft

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210027423A KR102520189B1 (en) 2021-03-02 2021-03-02 Method and system for generating high-definition map based on aerial images captured from unmanned air vehicle or aircraft

Publications (2)

Publication Number Publication Date
KR20220123901A KR20220123901A (en) 2022-09-13
KR102520189B1 true KR102520189B1 (en) 2023-04-10

Family

ID=83229832

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210027423A KR102520189B1 (en) 2021-03-02 2021-03-02 Method and system for generating high-definition map based on aerial images captured from unmanned air vehicle or aircraft

Country Status (2)

Country Link
JP (1) JP7375066B2 (en)
KR (1) KR102520189B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009177251A (en) * 2008-01-21 2009-08-06 Pasuko:Kk Generation method of orthophoto image and photographing device
KR102003187B1 (en) * 2019-06-13 2019-07-23 주식회사 디지털커브 Method and apparatus for modeling resultant image to which each of ground control points including location information of survey site is matched using images captured by unmanned air vehicle
KR102017818B1 (en) * 2019-06-12 2019-09-03 주식회사 지아이에스21 System for producing digital map for accurately representing ground image
KR102186199B1 (en) * 2020-04-22 2020-12-03 주식회사 그린블루 Image processing system based on screen division

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002157576A (en) * 2000-11-22 2002-05-31 Nec Corp Device and method for processing stereo image and recording medium for recording stereo image processing program
JP4149732B2 (en) * 2002-04-26 2008-09-17 アジア航測株式会社 Stereo matching method, three-dimensional measurement method, three-dimensional measurement apparatus, stereo matching method program, and three-dimensional measurement program
JP4632987B2 (en) * 2006-03-28 2011-02-16 株式会社パスコ Road image analysis apparatus and road image analysis method
KR100912715B1 (en) * 2007-12-17 2009-08-19 한국전자통신연구원 Method and apparatus of digital photogrammetry by integrated modeling for different types of sensors
US8284190B2 (en) * 2008-06-25 2012-10-09 Microsoft Corporation Registration of street-level imagery to 3D building models
JP5229733B2 (en) * 2008-11-25 2013-07-03 Necシステムテクノロジー株式会社 Stereo matching processing device, stereo matching processing method and program
KR101087850B1 (en) * 2009-06-01 2011-11-30 한국도로공사 Traction Cart and Towing Method using the Traction Cart
KR101617078B1 (en) * 2014-02-24 2016-04-29 주식회사 한화 Apparatus and method for image matching unmanned aerial vehicle image with map image
KR101754599B1 (en) * 2015-12-08 2017-07-07 가톨릭대학교 산학협력단 System and Method for Extracting Automatically 3D Object Based on Drone Photograph Image
US10823562B1 (en) * 2019-01-10 2020-11-03 State Farm Mutual Automobile Insurance Company Systems and methods for enhanced base map generation
KR102129408B1 (en) 2020-01-30 2020-07-02 주식회사 디지털커브 Method and apparatus for acquiring survey data from layer of image captured by unmanned air vehicle matched with public map or external map
KR102154950B1 (en) 2020-01-30 2020-09-10 주식회사 디지털커브 Method and apparatus for matching image captured by unmanned air vehicle with map, cadaster, or satellite image

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009177251A (en) * 2008-01-21 2009-08-06 Pasuko:Kk Generation method of orthophoto image and photographing device
KR102017818B1 (en) * 2019-06-12 2019-09-03 주식회사 지아이에스21 System for producing digital map for accurately representing ground image
KR102003187B1 (en) * 2019-06-13 2019-07-23 주식회사 디지털커브 Method and apparatus for modeling resultant image to which each of ground control points including location information of survey site is matched using images captured by unmanned air vehicle
KR102186199B1 (en) * 2020-04-22 2020-12-03 주식회사 그린블루 Image processing system based on screen division

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
성지훈 외 3인, "기준영상의 특징점을 이용한 무기준점 UAV 정사영상의 기하보정", 대한공간정보학회지 Vol.27 No.6(2019.11.)*

Also Published As

Publication number Publication date
JP7375066B2 (en) 2023-11-07
JP2022134114A (en) 2022-09-14
KR20220123901A (en) 2022-09-13

Similar Documents

Publication Publication Date Title
US20210012520A1 (en) Distance measuring method and device
CN111108342B (en) Visual range method and pair alignment for high definition map creation
KR102347239B1 (en) Method and system for improving depth information of feature points using camera and lidar
KR100912715B1 (en) Method and apparatus of digital photogrammetry by integrated modeling for different types of sensors
KR102007567B1 (en) Stereo drone and method and system for calculating earth volume in non-control points using the same
US8339394B1 (en) Automatic method for photo texturing geolocated 3-D models from geolocated imagery
CN111492403A (en) Lidar to camera calibration for generating high definition maps
JP7273927B2 (en) Image-based positioning method and system
WO2018145291A1 (en) System and method for real-time location tracking of drone
KR102200299B1 (en) A system implementing management solution of road facility based on 3D-VR multi-sensor system and a method thereof
KR102154950B1 (en) Method and apparatus for matching image captured by unmanned air vehicle with map, cadaster, or satellite image
KR102234461B1 (en) Method and system for generating depth information of street view image using 2d map
KR102127679B1 (en) System for correcting geometry of mobile platform with sensor based on an orthophoto
KR102387679B1 (en) 3d vehicle localizing using geoarcs
WO2019080768A1 (en) Information processing apparatus, aerial photography path generation method, program and recording medium
Kuschk Large scale urban reconstruction from remote sensing imagery
Jin et al. An Indoor Location‐Based Positioning System Using Stereo Vision with the Drone Camera
KR20210015516A (en) Method and system for improving depth information of feature points using camera and lidar
JP2020135764A (en) Three-dimensional object modeling method, three-dimensional object modeling device, server, three-dimensional model creation system, and program
KR102589296B1 (en) Apparatus and method for generating three dimensional map using aerial images
KR102520189B1 (en) Method and system for generating high-definition map based on aerial images captured from unmanned air vehicle or aircraft
Wu Photogrammetry for 3D mapping in Urban Areas
WO2020119572A1 (en) Shape inferring device, shape inferring method, program, and recording medium
KR20210129472A (en) 3d spatial object location correction method based on road linearity
Wendel et al. Visual Localization for Micro Aerial Vehicles in Urban Outdoor Environments

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant