KR20210129472A - 3d spatial object location correction method based on road linearity - Google Patents

3d spatial object location correction method based on road linearity Download PDF

Info

Publication number
KR20210129472A
KR20210129472A KR1020200047523A KR20200047523A KR20210129472A KR 20210129472 A KR20210129472 A KR 20210129472A KR 1020200047523 A KR1020200047523 A KR 1020200047523A KR 20200047523 A KR20200047523 A KR 20200047523A KR 20210129472 A KR20210129472 A KR 20210129472A
Authority
KR
South Korea
Prior art keywords
road
spatial object
information
correction
image
Prior art date
Application number
KR1020200047523A
Other languages
Korean (ko)
Other versions
KR102426282B1 (en
Inventor
강지훈
이재희
연성현
이세원
Original Assignee
한국국토정보공사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국국토정보공사 filed Critical 한국국토정보공사
Priority to KR1020200047523A priority Critical patent/KR102426282B1/en
Publication of KR20210129472A publication Critical patent/KR20210129472A/en
Application granted granted Critical
Publication of KR102426282B1 publication Critical patent/KR102426282B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Remote Sensing (AREA)
  • Image Processing (AREA)
  • Navigation (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to a 3D spatial object location correction method based on road linearity. The method includes the steps of: (a) generating a 3D spatial object model and a 2D orthogonal correction image for a specific area based on an image captured during the flight of an unmanned aerial vehicle; (b) generating a road linearity vector by extracting a road line from the 2D orthogonal correction image based on a learning model about a road pattern; (c) determining road linearity information corresponding to the road line from pre-established spatial information for the specific area; (d) generating transformation information for matching between the road linearity vector and the road linearity information; and (e) performing location correction by applying the transformation information to the 3D spatial object model and the 2D orthogonal correction image, respectively.

Description

도로선형 기반의 3차원 공간객체 위치보정 방법{3D SPATIAL OBJECT LOCATION CORRECTION METHOD BASED ON ROAD LINEARITY}3D spatial object position correction method based on road alignment {3D SPATIAL OBJECT LOCATION CORRECTION METHOD BASED ON ROAD LINEARITY}

본 발명은 3차원 공간객체 위치보정 기술에 관한 것으로, 보다 상세하게는 원시데이터에서 추출된 특징과 기 구축된 공간정보 데이터를 형상비교하여 정합계수를 도출하고 UAV를 통해 생성한 3차원 공간객체에 적용할 수 있는 도로선형 기반의 3차원 공간객체 위치보정 방법에 관한 것이다.The present invention relates to a three-dimensional spatial object position correction technology, and more particularly, to derive a matching coefficient by comparing features extracted from raw data with pre-established spatial information data, and to apply a three-dimensional spatial object generated through UAV. It relates to a method for correcting the position of a 3D spatial object based on a road alignment that can be applied.

고해상도의 UAV(Unmanned Aerial Vehicle) 영상을 이용한 다양한 부가가치정보가 주목받고 있다. 수백 km 상공에서 촬영되는 인공위성과 수 km에서 촬영되는 항공기와 달리 UAV 촬영고도는 100 m 안팎으로 낮아져 수 cm급 해상도 영상을 획득할 수 있기 때문이다. 하지만, 영상 한 장이 커버하는 면적이 좁고, 일반적으로 디지털카메라 또는 유사한 사양의 구형 카메라를 탑재하기 때문에 획득된 영상의 외곽으로 왜곡현상이 발생하는 단점이 있다. Various value-added information using high-resolution UAV (Unmanned Aerial Vehicle) images is attracting attention. This is because, unlike satellites that are photographed from hundreds of kilometers in the sky and aircraft that are photographed from several kilometers, the UAV recording altitude is lowered to around 100 m, so images with a resolution of several centimeters can be acquired. However, the area covered by one image is narrow, and since a digital camera or an old camera with similar specifications is generally mounted, there is a disadvantage in that a distortion phenomenon occurs outside the acquired image.

그러므로, UAV 영상을 항공영상이나 인공위성 영상과 같이 활용하기 위해서는 각각의 영상에서 지형/지물 등의 높이에 따라 발생되는 기복변위를 보정하고 정합과정을 거쳐야 한다.Therefore, in order to use the UAV image with aerial images or satellite images, it is necessary to correct the undulation displacement generated according to the height of the topography/feature in each image and go through a registration process.

다만, UAV는 촬영 시 인공위성이나 항공기보다 기체의 흔들림이 심하고, 상대적으로 GPS(Global Positioning System)와 IMU(Inertial Measurement Unit) 센서의 정확도가 낮아 외부표정요소가 부정확할 확률이 높다.However, the UAV shakes more than satellites or aircraft when shooting, and the accuracy of GPS (Global Positioning System) and IMU (Inertial Measurement Unit) sensors is relatively low, so there is a high probability that external expression elements are inaccurate.

위치정확도 향상 및 기하보정을 위해서는 일반적으로 지상기준점(GCP, Ground Control Point)을 이용한다. 하지만, 재난상황에서의 촬영과 같이 지상기준점 설정보다 신속한 촬영이 요구되거나 지형적인 조건에 따라 촬영이 불가능한 경우가 존재할 수 있으며, 이 경우 영상 내부에 존재하는 일부 특징점을 활용할 수 있다.In order to improve the positioning accuracy and correct the geometry, a ground control point (GCP) is generally used. However, there may exist cases in which shooting is required faster than setting a ground reference point, such as shooting in a disaster situation, or shooting is not possible depending on topographical conditions.

한국등록특허 제10-1160454호 (2012.06.21)Korean Patent No. 10-1160454 (2012.06.21)

본 발명의 일 실시예는 원시데이터에서 추출된 특징과 공간정보 데이터를 형상비교하여 정합계수를 도출하고 3차원 공간객체에 적용할 수 있는 도로선형 기반의 3차원 공간객체 위치보정 방법을 제공하고자 한다.An embodiment of the present invention is to provide a method for correcting the position of a three-dimensional spatial object based on a road alignment that can be applied to a three-dimensional spatial object by deriving a matching coefficient by comparing features extracted from raw data and spatial information data. .

본 발명의 일 실시예는 도로선형을 활용한 3차원 공간객체의 위치보정을 수행함으로써 실감형 3D 공간객체와 국가공간정보와의 정합 오차를 최소화할 수 있고 저비용 3D 건물객체의 위치정합 오차를 개선할 수 있는 도로선형 기반의 3차원 공간객체 위치보정 방법을 제공하고자 한다.An embodiment of the present invention can minimize the matching error between the realistic 3D spatial object and the national spatial information and improve the positioning error of the low-cost 3D building object by performing the position correction of the 3D spatial object using the road alignment. We intend to provide a method for correcting the position of a three-dimensional spatial object based on a road alignment.

실시예들 중에서, 도로선형 기반의 3차원 공간객체 위치보정 방법은 (a) 무인비행체의 비행 과정에서 촬영된 영상을 기초로 특정 지역에 관한 3D 공간객체 모델과 2D 정사보정 영상을 생성하는 단계, (b) 도로의 패턴에 관한 학습 모델을 기초로 상기 2D 정사보정 영상으로부터 도로선을 추출하여 도로선형 벡터를 생성하는 단계, (c) 상기 특정 지역에 대해 기 구축된 공간정보로부터 상기 도로선에 대응되는 도로선형 정보를 결정하는 단계, (d) 상기 도로선형 벡터와 상기 도로선형 정보 간의 매칭을 위한 변환 정보를 생성하는 단계 및 (e) 상기 3D 공간객체 모델 및 상기 2D 정사보정 영상에 대해 상기 변환 정보를 각각 적용하여 위치보정을 수행하는 단계를 포함한다.Among the embodiments, the method for correcting the position of a three-dimensional spatial object based on a road alignment includes the steps of (a) generating a 3D spatial object model and a 2D orthogonal correction image for a specific area based on an image captured during the flight of an unmanned aerial vehicle; (b) generating a road line vector by extracting a road line from the 2D orthogonal correction image based on a learning model about the pattern of the road, (c) from the spatial information previously built for the specific area to the road line determining corresponding road alignment information; (d) generating transformation information for matching between the road alignment vector and the road alignment information; and (e) the 3D spatial object model and the 2D orthogonal correction image. and performing position correction by applying each of the transformation information.

상기 (a) 단계는 상기 촬영된 영상이 등간격으로 촬영된 복수의 부분 영상들로 구성된 경우 상기 복수의 부분 영상들을 병합하여 상기 특정 지역에 관한 하나의 영상으로서 상기 2D 정사보정 영상을 생성하는 단계를 포함할 수 있다.In the step (a), when the photographed image is composed of a plurality of partial images photographed at equal intervals, generating the 2D orthographic correction image as one image relating to the specific region by merging the plurality of partial images may include.

상기 (c) 단계는 상기 특정 지역의 수치지도에 포함된 복수의 레이어(layer)들 중에서 상기 도로선에 대응되는 레이어 만을 추출하여 저장하는 단계를 포함할 수 있다.The step (c) may include extracting and storing only the layer corresponding to the road line from among a plurality of layers included in the numerical map of the specific area.

상기 (d) 단계는 (d1) 상기 특정 지역 내에서 복수의 매칭점들을 결정하는 단계, (d2) 상기 도로선형 벡터에서 상기 복수의 매칭점들 각각에 대응되는 제1 위치좌표를 추출하는 단계, (d3) 상기 도로선형 정보에서 상기 복수의 매칭점들 각각에 대응되는 제2 위치좌표를 추출하는 단계 및 (d4) 상기 제2 위치좌표에서 상기 제1 위치좌표로의 정방향 변환에 관한 변환행렬을 생성하는 단계를 포함할 수 있다.The step (d) includes (d1) determining a plurality of matching points within the specific area, (d2) extracting first position coordinates corresponding to each of the plurality of matching points from the road linear vector; (d3) extracting second position coordinates corresponding to each of the plurality of matching points from the road alignment information, and (d4) a transformation matrix for forward transformation from the second position coordinates to the first position coordinates It may include the step of generating.

상기 (d1) 단계는 상기 특정 지역의 수치지도에 포함된 도로 정보를 기초로 도로의 끊김, 축소 및 확장 중 적어도 하나를 포함하는 변화 지점을 상기 매칭점으로 결정하는 단계를 포함할 수 있다.The step (d1) may include determining, as the matching point, a change point including at least one of cutoff, reduction, and expansion of a road based on road information included in the numerical map of the specific area.

상기 (d4) 단계는 상기 제1 위치좌표를 독립변수로 하고 상기 제2 위치좌표를 종속변수로 하는 2차 다항식 변환에서 해당 다항식의 계수를 상기 변환행렬로서 생성하는 단계를 포함할 수 있다.The step (d4) may include generating coefficients of the polynomial as the transformation matrix in a second-order polynomial transformation using the first position coordinate as an independent variable and the second position coordinate as a dependent variable.

상기 (e) 단계는 (e1) 상기 3D 공간객체 모델에서 3D 공간객체와 2D 위치좌표를 각각 추출하는 단계, (e2) 상기 2D 위치좌표에 대해 상기 정방향 변환의 역방향 변환을 적용하여 2D 보정좌표를 생성하는 단계 및 (e3) 상기 3D 공간객체 및 상기 2D 보정좌표를 통합하여 보정된 3D 공간객체 모델을 생성하는 단계를 포함할 수 있다.In step (e), (e1) extracting a 3D spatial object and 2D position coordinates from the 3D spatial object model, respectively, (e2) applying the reverse transformation of the forward transformation to the 2D position coordinates to obtain 2D correction coordinates and (e3) generating a corrected 3D spatial object model by integrating the 3D spatial object and the 2D correction coordinates.

상기 3차원 공간객체 위치보정 방법은 (f) 상기 특정 지역에 대해 기 설정된 복수의 지상기준점(Ground Control Point, GCP)들을 기준으로 상기 2D 정사보정 영상에 대한 위치보정 전·후의 거리 오차(distance error)를 비교하여 상기 위치보정에 관한 정확도를 검증하는 단계를 더 포함할 수 있다.The 3D spatial object position correction method includes (f) a distance error before and after position correction for the 2D orthogonal correction image based on a plurality of ground control points (GCPs) preset for the specific region. ) may further include verifying the accuracy of the position correction by comparing.

개시된 기술은 다음의 효과를 가질 수 있다. 다만, 특정 실시예가 다음의 효과를 전부 포함하여야 한다거나 다음의 효과만을 포함하여야 한다는 의미는 아니므로, 개시된 기술의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.The disclosed technology may have the following effects. However, this does not mean that a specific embodiment should include all of the following effects or only the following effects, so the scope of the disclosed technology should not be construed as being limited thereby.

본 발명의 일 실시예에 따른 도로선형 기반의 3차원 공간객체 위치보정 방법은 원시데이터에서 추출된 특징과 공간정보 데이터를 형상비교하여 정합계수를 도출하고 3차원 공간객체에 적용할 수 있다.The method for correcting the position of a three-dimensional spatial object based on a road alignment according to an embodiment of the present invention can compare features extracted from raw data and spatial information data to derive a matching coefficient and apply it to a three-dimensional spatial object.

본 발명의 일 실시예에 따른 도로선형 기반의 3차원 공간객체 위치보정 방법은 도로선형을 활용한 3차원 공간객체의 위치보정을 수행함으로써 실감형 3D 공간객체와 국가공간정보와의 정합 오차를 최소화할 수 있고 저비용 3D 건물객체의 위치정합 오차를 개선할 수 있다.The method for correcting the position of a 3D spatial object based on a road alignment according to an embodiment of the present invention minimizes the matching error between the realistic 3D spatial object and the national spatial information by performing the position correction of the 3D spatial object using the road alignment. and can improve the alignment error of low-cost 3D building objects.

도 1은 본 발명에 따른 3차원 공간객체 위치보정 시스템을 설명하는 블록도이다.
도 2는 도 1에 있는 위치보정 장치의 물리적 구성을 설명하는 도면이다.
도 3은 도 1에 있는 위치보정 장치의 기능적 구성을 설명하는 도면이다.
도 4는 본 발명에 따른 도로선형 기반의 3차원 공간객체 위치보정 과정을 설명하는 순서도이다.
도 5는 도로선형 기반의 3차원 공간객체 위치보정 방법의 일 실시예를 설명하는 개념도이다.
도 6은 본 발명에 따른 3D 포인트 클라우드 데이터의 데이터 포맷 변환의 일 실시예를 설명하는 도면이다.
도 7은 본 발명에 따른 매칭점에 대응되는 위치좌표의 일 실시예를 설명하는 도면이다.
도 8은 본 발명에 따른 위치보정 전과 후의 거리 오차의 일 실시예를 설명하는 도면이다.
도 9는 본 발명에 따른 도로선형 기반의 3차원 공간객체 위치보정 방법을 설명하는 흐름도이다.
1 is a block diagram illustrating a three-dimensional spatial object position correction system according to the present invention.
FIG. 2 is a view for explaining a physical configuration of the position correction device of FIG. 1 .
FIG. 3 is a view for explaining a functional configuration of the position correction device of FIG. 1 .
4 is a flowchart illustrating a process of correcting the position of a three-dimensional spatial object based on a road alignment according to the present invention.
5 is a conceptual diagram illustrating an embodiment of a method for correcting a position of a three-dimensional spatial object based on a road alignment.
6 is a view for explaining an embodiment of data format conversion of 3D point cloud data according to the present invention.
7 is a view for explaining an embodiment of the position coordinates corresponding to the matching point according to the present invention.
8 is a view for explaining an embodiment of a distance error before and after position correction according to the present invention.
9 is a flowchart illustrating a method for correcting the position of a three-dimensional spatial object based on a road alignment according to the present invention.

본 발명에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 본 발명의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 본 발명의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 본 발명에서 제시된 목적 또는 효과는 특정 실시예가 이를 전부 포함하여야 한다거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 본 발명의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.Since the description of the present invention is merely an embodiment for structural or functional description, the scope of the present invention should not be construed as being limited by the embodiment described in the text. That is, since the embodiment may have various changes and may have various forms, it should be understood that the scope of the present invention includes equivalents capable of realizing the technical idea. In addition, since the object or effect presented in the present invention does not mean that a specific embodiment should include all of them or only such effects, it should not be understood that the scope of the present invention is limited thereby.

한편, 본 출원에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.On the other hand, the meaning of the terms described in the present application should be understood as follows.

"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.Terms such as “first” and “second” are for distinguishing one component from another, and the scope of rights should not be limited by these terms. For example, a first component may be termed a second component, and similarly, a second component may also be termed a first component.

어떤 구성요소가 다른 구성요소에 "연결되어"있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어"있다고 언급된 때에는 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.When a component is referred to as being “connected” to another component, it may be directly connected to the other component, but it should be understood that other components may exist in between. On the other hand, when it is mentioned that a certain element is "directly connected" to another element, it should be understood that the other element does not exist in the middle. Meanwhile, other expressions describing the relationship between elements, that is, “between” and “immediately between” or “neighboring to” and “directly adjacent to”, etc., should be interpreted similarly.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다"또는 "가지다" 등의 용어는 실시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The singular expression is to be understood to include the plural expression unless the context clearly dictates otherwise, and terms such as "comprises" or "have" refer to the embodied feature, number, step, action, component, part or these It is intended to indicate that a combination exists, and it should be understood that it does not preclude the possibility of the existence or addition of one or more other features or numbers, steps, operations, components, parts, or combinations thereof.

각 단계들에 있어 식별부호(예를 들어, a, b, c 등)는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.Identifiers (eg, a, b, c, etc.) in each step are used for convenience of description, and the identification code does not describe the order of each step, and each step clearly indicates a specific order in context. Unless otherwise specified, it may occur in a different order from the specified order. That is, each step may occur in the same order as specified, may be performed substantially simultaneously, or may be performed in the reverse order.

본 발명은 컴퓨터가 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현될 수 있고, 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.The present invention can be embodied as computer-readable codes on a computer-readable recording medium, and the computer-readable recording medium includes all types of recording devices in which data readable by a computer system is stored. . Examples of the computer-readable recording medium include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, and the like. In addition, the computer-readable recording medium may be distributed in a network-connected computer system, and the computer-readable code may be stored and executed in a distributed manner.

여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.All terms used herein have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs, unless otherwise defined. Terms defined in general used in the dictionary should be interpreted as being consistent with the meaning in the context of the related art, and cannot be interpreted as having an ideal or excessively formal meaning unless explicitly defined in the present application.

도 1은 본 발명에 따른 3차원 공간객체 위치보정 시스템을 설명하는 블록도이다.1 is a block diagram illustrating a three-dimensional spatial object position correction system according to the present invention.

도 1을 참조하면, 3차원 공간객체 위치보정 시스템(100)은 무인비행체(110), 위치보정 장치(130) 및 데이터베이스(150)을 포함할 수 있다.Referring to FIG. 1 , the 3D spatial object position correction system 100 may include an unmanned aerial vehicle 110 , a position correction device 130 , and a database 150 .

무인비행체(110)는 실제 조종사가 탑승하지 않은 채 비행할 수 있는 기체(비행체)에 해당할 수 있다. 예를 들어, 무인비행체(110)는 무인항공기(Unmanned Aerial Vehicle, UAV) 또는 드론(Drone) 등을 포함할 수 있다. 무인비행체(110)는 자동 비행을 위해 다양한 센서들을 포함하여 구현될 수 있고, 비행 능력과 조종 능력을 위한 다양한 모듈들을 포함할 수 있다. 즉, 무인비행체(110)는 관제 및 지상지원시스템, 통신 및 항법 시스템 등을 포함하여 구현될 수 있다. The unmanned aerial vehicle 110 may correspond to an aircraft (aircraft) capable of flying without an actual pilot on board. For example, the unmanned aerial vehicle 110 may include an unmanned aerial vehicle (UAV) or a drone. The unmanned aerial vehicle 110 may be implemented by including various sensors for automatic flight, and may include various modules for flight capability and control capability. That is, the unmanned aerial vehicle 110 may be implemented including a control and ground support system, a communication and navigation system, and the like.

또한, 무인비행체(110)는 위치보정 장치(130)와 네트워크를 통해 연결될 수 있고, 복수의 무인비행체(110)들은 위치보정 장치(130)와 동시에 연결될 수 있다. 무인비행체(110)는 비행 과정에서 지상을 촬영할 수 있는 다양한 카메라 장치들을 포함하여 구현될 수 있으며, 비행 중 실시간으로 촬영 영상을 위치보정 장치(130)에게 전송할 수도 있다. 무인비행체(110)는 촬영 영상을 항공영상이나 인공위성 영상과 같이 활용하기 위하여 촬영 영상에서 지형/지물 등의 높이에 따라 발생하는 기본변위를 보정하고 정합하는 동작을 수행할 수 있으며, 이를 위하여 영상 처리 소프트웨어를 포함하여 구현될 수 있다.In addition, the unmanned aerial vehicle 110 may be connected to the position correction device 130 through a network, and the plurality of unmanned aerial vehicles 110 may be simultaneously connected to the position correction device 130 . The unmanned aerial vehicle 110 may be implemented by including various camera devices capable of photographing the ground during flight, and may transmit a captured image to the position correction device 130 in real time during flight. The unmanned aerial vehicle 110 may perform an operation of correcting and matching the basic displacement occurring according to the height of the topography/feature in the captured image in order to utilize the captured image as an aerial image or satellite image, and for this purpose, image processing It may be implemented including software.

위치보정 장치(130)는 원시데이터에서 추출된 특징과 공간정보 데이터를 비교하여 정합계수를 도출하고 3차원 공간객체의 위치보정을 처리할 수 있는 컴퓨터 또는 프로그램에 해당하는 서버로 구현될 수 있다. 위치보정 장치(130)는 무인비행체(110)와 블루투스, WiFi, 통신망 등을 통해 무선으로 연결될 수 있고, 네트워크를 통해 무인비행체(110)와 데이터를 주고 받을 수 있다.The position correction device 130 may be implemented as a server corresponding to a computer or program capable of deriving a matching coefficient by comparing features extracted from raw data with spatial information data and processing the position correction of a three-dimensional spatial object. The location correction device 130 may be wirelessly connected to the unmanned aerial vehicle 110 through Bluetooth, WiFi, a communication network, etc., and may exchange data with the unmanned aerial vehicle 110 through the network.

일 실시예에서, 위치보정 장치(130)는 데이터베이스(150)와 연동하여 도로선형 기반의 3차원 공간객체 위치보정을 위해 필요한 데이터를 저장할 수 있다. 한편, 위치보정 장치(130)는 도 1과 달리, 데이터베이스(150)를 내부에 포함하여 구현될 수 있다. 또한, 위치보정 장치(130)는 프로세서, 메모리, 사용자 입출력부 및 네트워크 입출력부를 포함하여 구현될 수 있으며, 이에 대해서는 도 2에서 보다 자세히 설명한다.In an embodiment, the position correction apparatus 130 may store data necessary for correcting the position of a three-dimensional spatial object based on a road alignment in conjunction with the database 150 . Meanwhile, unlike FIG. 1 , the position correction device 130 may be implemented by including the database 150 therein. In addition, the position correction device 130 may be implemented including a processor, a memory, a user input/output unit, and a network input/output unit, which will be described in more detail with reference to FIG. 2 .

데이터베이스(150)는 위치보정 장치(130)의 동작 과정에서 필요한 다양한 정보들을 저장하는 저장장치에 해당할 수 있다. 데이터베이스(150)는 무인비행체(110)에 의해 촬영된 영상에 관한 정보를 저장할 수 있고, 위치보정을 위한 다양한 공간정보 데이터를 저장할 수 있으며, 반드시 이에 한정되지 않고, 위치보정 장치(130)가 무인비행체(110)에 의해 촬영된 영상을 기초로 3차원 공간객체 모델을 생성하고 위치보정을 수행하는 과정에서 다양한 형태로 수집 또는 가공된 정보들을 저장할 수 있다.The database 150 may correspond to a storage device for storing various types of information required in the operation process of the position correction device 130 . The database 150 may store information about an image captured by the unmanned aerial vehicle 110 , and may store various spatial information data for position correction, but is not necessarily limited thereto, and the position correction device 130 is unmanned. Information collected or processed in various forms may be stored in the process of generating a three-dimensional spatial object model based on the image captured by the vehicle 110 and performing position correction.

도 2는 도 1에 있는 위치보정 장치의 물리적 구성을 설명하는 도면이다.FIG. 2 is a view for explaining a physical configuration of the position correction device of FIG. 1 .

도 2를 참조하면, 위치보정 장치(130)는 프로세서(210), 메모리(230), 사용자 입출력부(250) 및 네트워크 입출력부(270)를 포함하여 구현될 수 있다.Referring to FIG. 2 , the position correction device 130 may be implemented including a processor 210 , a memory 230 , a user input/output unit 250 , and a network input/output unit 270 .

프로세서(210)는 위치보정 장치(130)가 동작하는 과정에서의 각 단계들을 처리하는 프로시저를 실행할 수 있고, 그 과정 전반에서 읽혀지거나 작성되는 메모리(230)를 관리할 수 있으며, 메모리(230)에 있는 휘발성 메모리와 비휘발성 메모리 간의 동기화 시간을 스케줄할 수 있다. 프로세서(210)는 위치보정 장치(130)의 동작 전반을 제어할 수 있고, 메모리(230), 사용자 입출력부(250) 및 네트워크 입출력부(270)와 전기적으로 연결되어 이들 간의 데이터 흐름을 제어할 수 있다. 프로세서(210)는 위치보정 장치(130)의 CPU(Central Processing Unit)로 구현될 수 있다.The processor 210 may execute a procedure for processing each step in the process in which the position correction device 130 operates, and manage the memory 230 that is read or written throughout the process, and the memory 230 ) can schedule the synchronization time between volatile and nonvolatile memory in The processor 210 may control the overall operation of the position correction device 130 , and is electrically connected to the memory 230 , the user input/output unit 250 , and the network input/output unit 270 to control the data flow therebetween. can The processor 210 may be implemented as a central processing unit (CPU) of the position correction device 130 .

메모리(230)는 SSD(Solid State Drive) 또는 HDD(Hard Disk Drive)와 같은 비휘발성 메모리로 구현되어 위치보정 장치(130)에 필요한 데이터 전반을 저장하는데 사용되는 보조기억장치를 포함할 수 있고, RAM(Random Access Memory)과 같은 휘발성 메모리로 구현된 주기억장치를 포함할 수 있다.The memory 230 is implemented as a non-volatile memory, such as a solid state drive (SSD) or a hard disk drive (HDD), and may include an auxiliary storage device used to store overall data required for the position correction device 130, It may include a main memory implemented as a volatile memory such as random access memory (RAM).

사용자 입출력부(250)는 사용자 입력을 수신하기 위한 환경 및 사용자에게 특정 정보를 출력하기 위한 환경을 포함할 수 있다. 예를 들어, 사용자 입출력부(250)는 터치 패드, 터치 스크린, 화상 키보드 또는 포인팅 장치와 같은 어댑터를 포함하는 입력장치 및 모니터 또는 터치스크린과 같은 어댑터를 포함하는 출력장치를 포함할 수 있다. 일 실시예에서, 사용자 입출력부(250)는 원격 접속을 통해 접속되는 컴퓨팅 장치에 해당할 수 있고, 그러한 경우, 위치보정 장치(130)는 서버로서 수행될 수 있다.The user input/output unit 250 may include an environment for receiving a user input and an environment for outputting specific information to the user. For example, the user input/output unit 250 may include an input device including an adapter such as a touch pad, a touch screen, an on-screen keyboard, or a pointing device, and an output device including an adapter such as a monitor or a touch screen. In an embodiment, the user input/output unit 250 may correspond to a computing device accessed through a remote connection, and in such a case, the location correction device 130 may be implemented as a server.

네트워크 입출력부(270)은 네트워크를 통해 외부 장치 또는 시스템과 연결하기 위한 환경을 포함하고, 예를 들어, LAN(Local Area Network), MAN(Metropolitan Area Network), WAN(Wide Area Network) 및 VAN(Value Added Network) 등의 통신을 위한 어댑터를 포함할 수 있다.The network input/output unit 270 includes an environment for connecting with an external device or system through a network, for example, a local area network (LAN), a metropolitan area network (MAN), a wide area network (WAN), and a VAN (Wide Area Network) (VAN). It may include an adapter for communication such as Value Added Network).

도 3은 도 1에 있는 위치보정 장치의 기능적 구성을 설명하는 도면이다.FIG. 3 is a view for explaining a functional configuration of the position correction device of FIG. 1 .

도 3을 참조하면, 위치보정 장치(130)는 영상 처리부(310), 매칭 도로선형 생성부(320), 기준 도로선형 결정부(330), 변환 정보 생성부(340), 위치보정 수행부(350), 정확도 검증부(360) 및 제어부(370)를 포함할 수 있다.Referring to FIG. 3 , the position correction device 130 includes an image processing unit 310 , a matching road alignment generating unit 320 , a reference road alignment determining unit 330 , a conversion information generating unit 340 , and a position correction performing unit ( 350 ), an accuracy verification unit 360 , and a control unit 370 .

영상 처리부(310)는 무인비행체(110)의 비행 과정에서 촬영된 영상을 기초로 특정 지역에 관한 3D 공간객체 모델과 2D 정사보정 영상을 생성할 수 있다. 여기에서, 3D 공간객체 모델은 무인비행체(110)의 비행 과정에서 촬영된 지역에 대응되는 3차원 공간 모델에 해당할 수 있고, 2D 정사보정 영상은 상공에서 촬영된 영상에 대해 중심투영에 의한 기복변위와 카메라 자세에 의한 변위를 제거한 2차원 이미지에 해당할 수 있다. 따라서, 2D 정사보정 영상은 지도와 같은 특성을 갖는 2차원 이미지에 해당할 수 있다.The image processing unit 310 may generate a 3D spatial object model and a 2D orthogonal correction image for a specific region based on the image captured during the flight of the unmanned aerial vehicle 110 . Here, the 3D spatial object model may correspond to a 3D spatial model corresponding to an area photographed during the flight process of the unmanned aerial vehicle 110, and the 2D orthogonal correction image is a undulation by center projection with respect to an image photographed from above. It may correspond to a two-dimensional image in which displacement and displacement due to camera posture are removed. Accordingly, the 2D orthographic correction image may correspond to a two-dimensional image having characteristics such as a map.

한편, 영상 처리부(310)는 무인비행체(110)에 의해 독립적으로 생성된 3D 공간객체 모델과 2D 정사보정 영상을 수신하여 활용할 수 있으며, 이 경우 3D 공간객체 모델은 3D 포인트 클라우드(point cloud) 데이터에 해당할 수 있다.Meanwhile, the image processing unit 310 may receive and utilize the 3D spatial object model independently generated by the unmanned aerial vehicle 110 and the 2D orthogonal correction image, and in this case, the 3D spatial object model is 3D point cloud data. may correspond to

일 실시예에서, 영상 처리부(310)는 촬영된 영상이 등간격으로 촬영된 복수의 부분 영상들로 구성된 경우 복수의 부분 영상들을 병합하여 특정 지역에 관한 하나의 영상으로서 2D 정사보정 영상을 생성할 수 있다. 무인비행체(110)는 특정 지역의 상공을 비행하는 과정에서 주기적으로 영상을 촬영할 수 있고, 이에 따라 등간격으로 촬영된 복수의 부분 영상들을 생성할 수 있다. 영상 처리부(310)는 복수의 부분 영상들을 원본 데이터로 수신하여 번들(bundle) 조정과 영상 매칭 과정을 거쳐 통합된 하나의 정사보정 영상을 생성할 수 있다.In an embodiment, the image processing unit 310 generates a 2D orthogonal correction image as one image for a specific region by merging a plurality of partial images when the captured image is composed of a plurality of partial images photographed at equal intervals. can The unmanned aerial vehicle 110 may periodically photograph an image in the process of flying over a specific area, and thus may generate a plurality of partial images photographed at equal intervals. The image processing unit 310 may receive a plurality of partial images as original data, and may generate one integrated orthogonal corrected image through bundle adjustment and image matching.

매칭 도로선형 생성부(320)는 도로의 패턴에 관한 학습 모델을 기초로 2D 정사보정 영상으로부터 도로선을 추출하여 도로선형 벡터를 생성할 수 있다. 이를 위하여 위치보정 장치(130)는 다양한 지역의 상공 영상과 실제 도로 정보를 기초로 도포 패턴에 관한 학습을 수행할 수 있고, 학습의 결과로서 특정 이미지를 입력 데이터로 하여 해당 이미지 상에 포함된 도로선에 관한 정보를 출력 데이터로 생성하는 학습 모델을 생성할 수 있다. 매칭 도로선형 생성부(320)는 구축된 학습 모델을 활용하여 2D 정사보정 영상에 해당하는 지역의 도로에 관한 벡터 형태의 데이터를 획득할 수 있다.The matching road alignment generator 320 may generate a road linear vector by extracting a road line from the 2D orthogonal correction image based on a learning model related to the pattern of the road. To this end, the position correction device 130 may perform learning about the application pattern based on aerial images and actual road information of various regions, and as a result of learning, a specific image as input data and a road included in the image It is possible to create a learning model that generates information about lines as output data. The matching road linearity generation unit 320 may acquire vector-type data about a road in a region corresponding to the 2D orthogonal correction image by using the built-up learning model.

기준 도로선형 결정부(330)는 특정 지역에 대해 기 구축된 공간정보로부터 도로선에 대응되는 도로선형 정보를 결정할 수 있다. 이를 위하여, 위치보정 장치(130)는 외부 시스템인 도로명주소 안내 시스템과 연동하여 관련 기 구축된 공간정보에 접근할 수 있고, 주기적으로 수집 및 갱신을 통해 데이터베이스(150)를 최신 상태로 유지할 수 있다.The reference road alignment determiner 330 may determine road alignment information corresponding to the road line from spatial information previously established for a specific area. To this end, the location correction device 130 can access the related pre-established spatial information in conjunction with the road name address guidance system, which is an external system, and can keep the database 150 up to date through periodic collection and update. .

일 실시예에서, 기준 도로선형 결정부(330)는 특정 지역의 수치지도에 포함된 복수의 레이어(layer)들 중에서 도로선에 대응되는 레이어 만을 추출하여 저장할 수 있다. 예를 들어, 기준 도로선형 결정부(330)는 국가공간정보 데이터의 수치지도(특히, 도로명지도)가 제공하는 다양한 정보들 중에서 특정 지역의 도로에 관한 실제 정보로서 도로선(도로)을 선택하여 도로선형 정보로서 결정할 수 있다.In an embodiment, the reference road alignment determiner 330 may extract and store only a layer corresponding to a road line from among a plurality of layers included in the numerical map of a specific area. For example, the reference road alignment determining unit 330 selects a road line (road) as actual information about a road in a specific area from among various information provided by a numerical map (in particular, a road name map) of national spatial information data. It can be determined as road alignment information.

변환 정보 생성부(340)는 도로선형 벡터와 도로선형 정보 간의 매칭을 위한 변환 정보를 생성할 수 있다. 즉, 도로선형 벡터는 매칭 데이터로 활용되고 도로선형 정보는 기준 데이터로 활용될 수 있다. 도로는 대부분의 영상에서 포함되고 식별이 용이하며, 건물에 비해 변화의 정도가 많지 않아 자동화 개발 시에도 추출과 매칭점 탐지가 용이하다는 점에서 위치보정의 기준으로 적합할 수 있다. The transformation information generator 340 may generate transformation information for matching between the road linear vector and the road linear information. That is, the road linear vector may be used as matching data, and the road linear information may be used as reference data. Roads are included in most images and can be easily identified, and since there is not much change compared to buildings, it can be suitable as a standard for position correction in that extraction and matching point detection are easy even in automation development.

따라서, 위치보정 장치(130)는 2D 정사보정 영상을 기준 영상에 맞게 변환하기 위하여 각 영상에 포함된 정보들 중 변경 가능성이 낮은 도로를 기준으로 선정할 수 있고, 변환 정보 생성부(340)는 도로에 관한 특징 정보로서 도로선형 벡터와 도로선형 정보를 각각 활용할 수 있다. Accordingly, in order to convert the 2D orthogonal correction image to the reference image, the position correction apparatus 130 may select a road with a low possibility of change from among the information included in each image as a reference, and the transformation information generating unit 340 may As characteristic information about the road, the road linear vector and the road linear information may be used respectively.

일 실시예에서, 변환 정보 생성부(340)는 특정 지역 내에서 복수의 매칭점들을 결정하고, 도로선형 벡터에서 복수의 매칭점들 각각에 대응되는 제1 위치좌표를 추출하며, 도로선형 정보에서 복수의 매칭점들 각각에 대응되는 제2 위치좌표를 추출하고, 제2 위치좌표에서 제1 위치좌표로의 정방향 변환에 관한 변환행렬을 생성할 수 있다. 이 때, 매칭점은 영상 내에서의 특징이 명확하여 주변보다 위치 식별이 용이한 위치가 결정될 수 있다.In one embodiment, the transformation information generating unit 340 determines a plurality of matching points within a specific area, extracts first position coordinates corresponding to each of the plurality of matching points from the road linear vector, and from the road linear information It is possible to extract second position coordinates corresponding to each of the plurality of matching points, and generate a transformation matrix for forward transformation from the second position coordinates to the first position coordinates. In this case, the matching point has a clear characteristic in the image, and thus a location that is easier to identify than the surroundings can be determined.

보다 구체적으로, 변환 정보 생성부(340)는 특정 지역 내의 도로를 기준으로 주변과의 식별이 명확한 지점을 매칭점으로 결정할 수 있고, 2D 정사보정 영상의 도로선형 벡터와 기 구축된 공간정보의 도로선형 정보 각각에서 매칭점에 대응되는 위치좌표를 추출할 수 있다. 이 때, 위치좌표는 평면 상의 x, y 좌표에 해당할 수 있고, 매칭점에 관한 좌표 정보로서 위치좌표 테이블이 생성될 수 있다. 변환 정보 생성부(340)는 위치좌표 간의 변환 규칙 도출을 위해 n차 다항식 변환을 활용할 수 있다.More specifically, the conversion information generating unit 340 may determine a point where identification with the surroundings is clear based on a road within a specific area as a matching point, and a road linear vector of a 2D orthogonal correction image and a road of a pre-established spatial information It is possible to extract the position coordinates corresponding to the matching points from each of the linear information. In this case, the location coordinates may correspond to x and y coordinates on a plane, and a location coordinate table may be generated as coordinate information about the matching point. The transformation information generator 340 may utilize an nth-order polynomial transformation to derive a transformation rule between position coordinates.

일 실시예에서, 변환 정보 생성부(340)는 특정 지역의 수치지도에 포함된 도로 정보를 기초로 도로의 끊김, 축소 및 확장 중 적어도 하나를 포함하는 변화 지점을 매칭점으로 결정할 수 있다. 변환 정보 생성부(340)는 도로 정보의 급격한 변화가 감지되는 지점을 매칭점으로 결정할 수 있다. 예를 들어, 도로의 끊김에 의해 도로 정보의 연속성이 단절된 지점, 도로폭의 축소 및 확장에 따라 도로 정보의 변화율이 기 설정된 임계값을 초과하는 지점 등이 매칭점으로 결정될 수 있다.In an embodiment, the conversion information generating unit 340 may determine a change point including at least one of cutoff, reduction, and expansion of a road as a matching point based on road information included in the numerical map of a specific area. The conversion information generator 340 may determine a point at which an abrupt change in road information is sensed as a matching point. For example, a point where the continuity of road information is interrupted due to a break in the road, a point at which a rate of change of road information exceeds a preset threshold value according to a reduction or expansion of a road width, etc. may be determined as a matching point.

일 실시예에서, 변환 정보 생성부(340)는 제1 위치좌표를 독립변수로 하고 제2 위치좌표를 종속변수로 하는 2차 다항식 변환에서 해당 다항식의 계수를 변환행렬로서 생성할 수 있다. 변환 정보 생성부(340)는 n차 다항식 변환을 이용하여 매칭 정보를 도출할 수 있으며, n차 다항식 변환을 위해서는 (n+1)2 만큼의 매칭점이 필요하다는 점을 고려하여 결정된 매칭점의 개수를 기초로 다항식 변환의 차수를 결정할 수 있다. 예를 들어, 변환 정보 생성부(340)는 총 9의 매칭점이 결정된 경우 1차 및 2차 다항식 중 어느 하나를 선택할 수 있다(도 7 참조).In an embodiment, the transformation information generating unit 340 may generate coefficients of the corresponding polynomial as a transformation matrix in a second-order polynomial transformation using the first positional coordinate as the independent variable and the second positional coordinate as the dependent variable. The transformation information generator 340 may derive matching information using an nth-order polynomial transformation, and the number of matching points determined in consideration of the fact that (n+1) 2 matching points are required for the nth-order polynomial transformation It is possible to determine the order of the polynomial transformation based on . For example, when a total of 9 matching points are determined, the transform information generator 340 may select any one of a first-order polynomial and a second-order polynomial (see FIG. 7 ).

한편, 변환 정보 생성부(340)는 최소 제곱 추정치를 사용하여 다항 함수의 계수 Kx(i,j)와 Ky(i,j)를 결정할 수 있으며, 이는 아래의 수학식을 이용하여 산출될 수 있다.Meanwhile, the transform information generator 340 may determine the coefficients Kx(i,j) and Ky(i,j) of the polynomial function using the least squares estimate, which may be calculated using the following equation. .

[수학식][Equation]

Figure pat00001
Figure pat00001

여기에서, Kx와 Ky는 다항식에 대한 입력값으로 이용되어 2차원 정사보정 영상에서의 좌표 xo, yo는 실제 도로 정보에서의 좌표 xi, yi로 매핑될 수 있다. 변환 정보 생성부(340)는 2차 다항식 변환에서 다항식의 계수 Kx와 Ky를 2*2 크기의 변환행렬로서 생성할 수 있다. 도 7에서, 변환 정보 생성부(340)는 변환행렬로서 각각

Figure pat00002
,
Figure pat00003
을 생성할 수 있다.Here, Kx and Ky are used as input values for the polynomial, so that the coordinates xo and yo in the two-dimensional orthogonal correction image may be mapped to the coordinates xi and yi in the actual road information. The transform information generator 340 may generate the polynomial coefficients Kx and Ky as a transform matrix having a size of 2*2 in the second-order polynomial transform. In FIG. 7 , the transformation information generation unit 340 is a transformation matrix, respectively.
Figure pat00002
,
Figure pat00003
can create

위치보정 수행부(350)는 3D 공간객체 모델 및 2D 정사보정 영상에 대해 변환 정보를 각각 적용하여 위치보정을 수행할 수 있다. 위치보정 수행부(350)는 3D 공간객체 모델 및 2D 정사보정 영상에 대해 각각 독립적인 위치보정 연산을 수행할 수 있으며, 3D 공간객체 모델의 경우 기하보정을 위한 정보만을 추출하는 연산을 별도로 수행할 수 있다. 위치보정 수행부(350)는 변환 정보 생성부(340)에 의해 생성된 변환행렬을 이용하여 2D 정사보정 영상에 대한 기하보정을 수행할 수 있다.The position correction performing unit 350 may perform position correction by applying transformation information to the 3D spatial object model and the 2D orthogonal correction image, respectively. The position correction performing unit 350 may perform an independent position correction operation on the 3D spatial object model and the 2D orthogonal correction image, and in the case of the 3D spatial object model, an operation of extracting only information for geometric correction may be performed separately. can The position correction performing unit 350 may perform geometric correction on the 2D orthogonal corrected image by using the transformation matrix generated by the transformation information generating unit 340 .

일 실시예에서, 위치보정 수행부(350)는 3D 공간객체 모델에서 3D 공간객체와 2D 위치좌표를 각각 추출하고, 2D 위치좌표에 대해 정방향 변환의 역방향 변환을 적용하여 2D 보정좌표를 생성하며, 3D 공간객체 및 2D 보정좌표를 통합하여 보정된 3D 공간객체 모델을 생성할 수 있다. 3D 공간객체 모델은 3D 포인트 클라우드(point cloud) 데이터로 표현될 수 있고, 위치보정 수행부(350)는 이를 기초로 건물영역과 외곽점을 추출하는 연산과 텍스처링(texturing) 연산을 순차적으로 수행하여 3D 공간객체를 생성할 수 있다. 이 때, 3D 공간객체는 특정 지역에 존재하는 건물에 대한 공간 모델로서 3D 건물 모델에 해당할 수 있다.In one embodiment, the position correction performing unit 350 extracts the 3D spatial object and the 2D position coordinates from the 3D spatial object model, respectively, and applies the reverse transformation of the forward transformation to the 2D position coordinates to generate 2D correction coordinates, A corrected 3D spatial object model can be created by integrating 3D spatial objects and 2D correction coordinates. The 3D spatial object model may be expressed as 3D point cloud data, and the position correction performing unit 350 sequentially performs an operation for extracting the building area and outer point based on this and a texturing operation. You can create 3D spatial objects. In this case, the 3D spatial object may correspond to a 3D building model as a spatial model of a building existing in a specific area.

또한, 위치보정 수행부(350)는 3D 포인트 클라우드 데이터를 기초로 데이터 포맷 변환을 통해 'x', 'y', 'z', 'color red', 'color green' 및 'color blue'의 6개 항목의 속성값을 갖는 데이터를 생성할 수 있고, 이 중에서 2D 위치좌표로서 'x' 및 'y' 항목의 속성값을 추출할 수 있다. 즉, 위치보정 수행부(350)는 3D 공간객체 모델의 'x' 및 'y' 항목에 대해 변환행렬을 적용하여 위치보정의 결과로서 2D 보정좌표를 생성할 수 있다(도 6 참조).In addition, the position correction performing unit 350 through data format conversion based on the 3D point cloud data 6 of 'x', 'y', 'z', 'color red', 'color green' and 'color blue' Data having attribute values of dog items can be generated, and attribute values of 'x' and 'y' items can be extracted as 2D position coordinates from among them. That is, the position correction performing unit 350 may generate 2D correction coordinates as a result of position correction by applying a transformation matrix to the 'x' and 'y' items of the 3D spatial object model (see FIG. 6 ).

또한, 위치보정 수행부(350)는 3D 공간객체 및 2D 보정좌표를 통합하여 보정된 3D 공간객체 모델을 생성할 수 있다. 위치보정 수행부(350)는 데이터 포맷 변환을 통해 획득한 6개 항목의 속성값 중 'x', 'y'에 대해서는 변환행렬을 이용한 위치보정을 수행하고, 나머지 'z', 'color red', 'color green' 및 'color blue'은 그대로 유지할 수 있다. 위치보정 수행부(350)는 보정된 'x', 'y'로 기존의 속성값을 대체한 후 데이터 포맷 변환을 통해 3D 포인트 클라우드 데이터를 획득함으로써 보정된 3D 공간객체 모델을 생성할 수 있다.Also, the position correction performing unit 350 may generate a corrected 3D spatial object model by integrating the 3D spatial object and the 2D correction coordinates. The position correction performing unit 350 performs position correction using a transformation matrix for 'x' and 'y' among the attribute values of six items obtained through data format conversion, and the remaining 'z' and 'color red' , 'color green' and 'color blue' can be kept as they are. The position correction performing unit 350 may generate a corrected 3D spatial object model by replacing the existing attribute values with corrected 'x' and 'y' and then acquiring 3D point cloud data through data format conversion.

정확도 검증부(360)는 특정 지역에 대해 기 설정된 복수의 지상기준점(Ground Control Point, GCP)들을 기준으로 2D 정사보정 영상에 대한 위치보정 전·후의 거리 오차(distance error)를 비교하여 위치보정에 관한 정확도를 검증할 수 있다. 이 때, 복수의 지상기준점들은 특정 지역에 대해 영상 촬영을 수행한 지점 인근에 설정된 통합기준점을 기준으로 설정될 수 있다. 정확도 검증부(360)는 지상기준점의 실제좌표와 2D 정사보정 영상에서의 지상기준점에 대응되는 지점의 위치좌표 간의 거리 오차를 기초로 정확도를 검증할 수 있다.The accuracy verification unit 360 compares the distance error before and after the position correction for the 2D orthogonal correction image based on a plurality of ground control points (GCPs) preset for a specific region to correct the position. accuracy can be verified. In this case, the plurality of ground reference points may be set based on an integrated reference point set near a point where an image is captured for a specific area. The accuracy verification unit 360 may verify the accuracy based on a distance error between the actual coordinates of the ground reference point and the position coordinates of the point corresponding to the ground reference point in the 2D orthogonal corrected image.

도 8에서, 지상기준점(GCP)이 총 6개 설정된 경우, 위치보정 전(Before correction) 및 위치보정 후(After correction) 각각의 거리 오차(Difference with criteria coordinates)를 확인할 수 있다. 이 때, 거리 오차는 지상기준점들(GCPs)을 기준으로 직선거리로서 산출될 수 있다. 즉, 본 발명에 따른 위치보정을 통해 보정 전 평균 약 34.54 m의 차이를 보였던 거리가 보정 후 약 1.21 m로 감소함을 확인할 수 있다.In FIG. 8 , when a total of six GCPs are set, the difference with criteria coordinates before and after position correction can be checked. In this case, the distance error may be calculated as a straight line distance based on the ground reference points (GCPs). That is, it can be confirmed that the distance, which showed an average difference of about 34.54 m before correction, is reduced to about 1.21 m after correction through position correction according to the present invention.

한편, 정확도 검증부(360)는 2D 정사보정 영상에 대한 정확도 검증 결과 보정 후의 거리 오차가 보정 전의 거리 오차보다 감소한 경우 정확도 검증에 성공한 것으로 결정할 수 있다. 또한, 위치보정 장치(130)는 정확도 검증부(360)를 통해 보정 전과 후의 거리 오차의 감소율을 기초로 정확도 검증의 성공 여부를 결정할 수 있다. 즉, 보정 전과 후의 거리 오차 간의 차이가 크지 않은 경우라면 위치보정의 효율이 높지 않기 때문에 위치보정 장치(130)는 2D 정사보정 영상을 기초로 정확도 검증을 수행한 후 그 결과에 따라 3D 공간객체 모델에 대한 위치보정 연산의 수행여부를 결정할 수 있다. Meanwhile, the accuracy verification unit 360 may determine that the accuracy verification has been successful when, as a result of the accuracy verification for the 2D orthogonal corrected image, the distance error after the correction is less than the distance error before the correction. In addition, the position correction apparatus 130 may determine whether the accuracy verification is successful based on the reduction rate of the distance error before and after the correction through the accuracy verifying unit 360 . That is, if the difference between the distance error before and after the correction is not large, since the efficiency of the position correction is not high, the position correction device 130 performs accuracy verification based on the 2D orthogonal correction image and then, according to the result, the 3D spatial object model It is possible to determine whether to perform the position correction operation for the .

제어부(370)는 위치보정 장치(130)의 전체적인 동작을 제어하고, 영상 처리부(310), 매칭 도로선형 생성부(320), 기준 도로선형 결정부(330), 변환 정보 생성부(340), 위치보정 수행부(350) 및 정확도 검증부(360) 간의 제어 흐름 또는 데이터 흐름을 관리할 수 있다.The control unit 370 controls the overall operation of the position correction device 130, and includes an image processing unit 310, a matching road alignment generating unit 320, a reference road alignment determining unit 330, a conversion information generating unit 340, A control flow or data flow between the position correction performing unit 350 and the accuracy verifying unit 360 may be managed.

도 4는 본 발명에 따른 도로선형 기반의 3차원 공간객체 위치보정 과정을 설명하는 순서도이다.4 is a flowchart illustrating a process of correcting the position of a three-dimensional spatial object based on a road alignment according to the present invention.

도 4를 참조하면, 위치보정 장치(130)는 영상 처리부(310)를 통해 무인비행체(110)의 비행 과정에서 촬영된 영상을 기초로 특정 지역에 관한 3D 공간객체 모델과 2D 정사보정 영상을 생성할 수 있다(단계 S410). 위치보정 장치(130)는 매칭 도로선형 생성부(320)를 통해 도로의 패턴에 관한 학습 모델을 기초로 2D 정사보정 영상으로부터 도로선을 추출하여 도로선형 벡터를 생성할 수 있다(단계 S420).Referring to FIG. 4 , the position correction device 130 generates a 3D spatial object model and a 2D orthogonal correction image for a specific region based on an image captured during the flight process of the unmanned aerial vehicle 110 through the image processing unit 310 . It can be done (step S410). The position correction apparatus 130 may generate a road linear vector by extracting a road line from the 2D orthogonal correction image based on the learning model regarding the pattern of the road through the matching road linear generating unit 320 (step S420).

또한, 위치보정 장치(130)는 기준 도로선형 결정부(330)를 통해 특정 지역에 대해 기 구축된 공간정보로부터 도로선에 대응되는 도로선형 정보를 결정할 수 있다(단계 S430). 위치보정 장치(130)는 변환 정보 생성부(340)를 통해 도로선형 벡터와 도로선형 정보 간의 매칭을 위한 변환 정보를 생성할 수 있다(단계 S440).Also, the location correction apparatus 130 may determine the road alignment information corresponding to the road line from the spatial information previously established for a specific area through the reference road alignment determiner 330 (step S430). The position correction apparatus 130 may generate transformation information for matching between the road linear vector and the road linear information through the transformation information generating unit 340 (step S440).

또한, 위치보정 장치(130)는 위치보정 수행부(350)를 통해 3D 공간객체 모델 및 2D 정사보정 영상에 대해 변환 정보를 각각 적용하여 위치보정을 수행할 수 있다(단계 S450). 위치보정 장치(130)는 정확도 검증부(360)를 통해 특정지역에 대해 기 설정된 복수의 지상기준점(Ground Control Point, GCP)들을 기준으로 2D 정사보정 영상에 대한 위치보정 전·후의 거리 오차(distance error)를 비교하여 위치보정에 관한 정확도를 검증할 수 있다(단계 S460).Also, the position correction apparatus 130 may perform position correction by applying transformation information to each of the 3D spatial object model and the 2D orthogonal correction image through the position correction performing unit 350 (step S450). The position correction device 130 is a distance error (distance) before and after position correction for the 2D orthogonal correction image based on a plurality of ground control points (GCP) preset for a specific area through the accuracy verification unit 360 . error) to verify the accuracy of the position correction (step S460).

도 5는 도로선형 기반의 3차원 공간객체 위치보정 방법의 일 실시예를 설명하는 개념도이다.5 is a conceptual diagram illustrating an embodiment of a method for correcting the position of a three-dimensional spatial object based on a road alignment.

도 5를 참조하면, 위치보정 장치(130)는 무인기에 의해 지상기준점(GCP)이 설정되지 않은 상태에서 촬영된 영상을 기초로 생성된 3D 포인트 클라우드 데이터에 대한 위치보정을 통해 정확도를 향상시킬 수 있다. 이를 위하여, 위치보정 장치(130)는 위치 정확도 향상을 위한 기준 데이터로서 공공데이터포털에서 제공하는 벡터파일 중 도로 정보를 활용할 수 있다.Referring to FIG. 5 , the position correction device 130 may improve accuracy through position correction for 3D point cloud data generated based on an image captured in a state where a ground reference point (GCP) is not set by the unmanned aerial vehicle. have. To this end, the location correction device 130 may utilize road information among the vector files provided by the public data portal as reference data for improving location accuracy.

즉, 위치보정 장치(130)는 촬영 영상을 기초로 획득된 2차원 정사보정 모자익에 대한 기하보정을 먼저 수행할 수 있고, 해당 과정에서 산출되는 변환행렬을 3차원 포인트 클라우드에 적용하여 위치보정을 수행할 수 있다. 이 때, 변환행렬은 2D 정사보정 모자익에서 추출된 도로선형 벡터와 국가공간정보 데이터에서 추출된 도로 정보 간의 매칭을 통해 정방향 변환(M) 정보로서 도출될 수 있다. 위치보정 장치(130)는 정방향 변환(M)의 역변환(M-1)을 3D 포인트 클라우드와 3D 정사보정 모자익 각각에 적용하여 위치보정을 수행할 수 있다(단계 S510).That is, the position correction device 130 may first perform geometric correction on the two-dimensional orthogonal correction mosaic obtained based on the captured image, and apply the transformation matrix calculated in the process to the three-dimensional point cloud to perform position correction. can be done In this case, the transformation matrix may be derived as forward transformation (M) information through matching between the road linear vector extracted from the 2D orthogonal correction mosaic and the road information extracted from the national spatial information data. The position correction apparatus 130 may perform position correction by applying the inverse transformation (M-1) of the forward transformation (M) to each of the 3D point cloud and the 3D orthographic correction mosaic (step S510).

도 9는 본 발명에 따른 도로선형 기반의 3차원 공간객체 위치보정 방법을 설명하는 흐름도이다.9 is a flowchart illustrating a method for correcting the position of a three-dimensional spatial object based on a road alignment according to the present invention.

도 9를 참조하면, 위치보정 장치(130)는 위치보정 장치(130)는 무인기(Drone)에 의해 지상기준점(GCP)이 설정되지 않은 상태에서 촬영된 영상에 대해 이미지 보정을 수행할 수 있다(Image correction(EO)).Referring to FIG. 9 , the position correction device 130 may perform image correction on an image captured in a state in which the ground reference point (GCP) is not set by the drone (Drone) ( Image correction (EO)).

위치보정 장치(130)는 위치 정확도 향상을 위한 비교 데이터로서 공공데이터포털에서 제공하는 국가공간기반 데이터(national spatial data)를 사용할 수 있다. 즉, 위치보정 장치(130)는 촬영 영상을 기초로 이미지 보정에 의해 획득된 2차원 정보와 국가공간기반 데이터를 비교하여 위치보정을 위한 매칭 정보(Matching Coefficient)를 산출할 수 있다. 예를 들어, 위치 보정 장치(130)는 해당 과정에서 산출되는 변환행렬을 위치보정을 위한 매칭 정보로 사용할 수 있다.The location correction device 130 may use national spatial data provided by a public data portal as comparison data for improving location accuracy. That is, the position correction apparatus 130 may calculate matching information (Matching Coefficient) for position correction by comparing the two-dimensional information obtained by image correction based on the captured image with the national space-based data. For example, the position correction apparatus 130 may use the transformation matrix calculated in the corresponding process as matching information for position correction.

한편, 위치보정 장치(130)는 이미지 보정 결과를 기초로 3차원 포인트 클라우드를 추출할 수 있으며(Point cloud extraction), 3차원 포인트 클라우드를 기초로 3차원 공간객체(Building objects(BO)를 생성할 수 있다. 위치보정 장치(130)는 3차원 공간객체에 매칭 정보를 적용함으로써 3차원 공간객체에 대한 위치 보정(position correction)을 수행할 수 있다(단계 S910). On the other hand, the position correction device 130 may extract a 3D point cloud based on the image correction result (Point cloud extraction), and may generate 3D space objects (BO) based on the 3D point cloud. The position correction apparatus 130 may perform position correction on the 3D spatial object by applying matching information to the 3D spatial object (step S910).

따라서, 본 발명에 따른 위치보정 장치(130)는 지상기준점 선정없이 획득된 UAV영상의 2차원 및 3차원 영상의 위치 정확도 향상을 제공함으로써 타 공간정보 데이터와의 연계 및 호환 등이 가능하고, 포인트 클라우드 데이터에서 획득된 3차원 공간 객체의 활용 범위를 확대시키는 효과를 제공할 수 있다.Therefore, the position correction device 130 according to the present invention provides an improvement in the position accuracy of the 2D and 3D images of the UAV image obtained without selecting a ground reference point, thereby enabling linkage and compatibility with other spatial information data, etc. It is possible to provide the effect of expanding the range of use of 3D spatial objects obtained from cloud data.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to preferred embodiments of the present invention, those skilled in the art can variously modify and change the present invention within the scope without departing from the spirit and scope of the present invention as set forth in the claims below. You will understand that it can be done.

100: 3차원 공간객체 위치보정 시스템
110: 무인비행체 130: 위치보정 장치
150: 데이터베이스
210: 프로세서 230: 메모리
250: 사용자 입출력부 270: 네트워크 입출력부
310: 영상 처리부 320: 매칭 도로선형 생성부
330: 기준 도로선형 결정부 340: 변환 정보 생성부
350: 위치보정 수행부 360: 정확도 검증부
370: 제어부
100: 3D spatial object position correction system
110: unmanned aerial vehicle 130: positioning device
150: database
210: processor 230: memory
250: user input/output unit 270: network input/output unit
310: image processing unit 320: matching road linear generation unit
330: reference road alignment determining unit 340: transformation information generating unit
350: position correction performing unit 360: accuracy verification unit
370: control unit

Claims (8)

(a) 무인비행체의 비행 과정에서 촬영된 영상을 기초로 특정 지역에 관한 3D 공간객체 모델과 2D 정사보정 영상을 생성하는 단계;
(b) 도로의 패턴에 관한 학습 모델을 기초로 상기 2D 정사보정 영상으로부터 도로선을 추출하여 도로선형 벡터를 생성하는 단계;
(c) 상기 특정 지역에 대해 기 구축된 공간정보로부터 상기 도로선에 대응되는 도로선형 정보를 결정하는 단계;
(d) 상기 도로선형 벡터와 상기 도로선형 정보 간의 매칭을 위한 변환 정보를 생성하는 단계; 및
(e) 상기 3D 공간객체 모델 및 상기 2D 정사보정 영상에 대해 상기 변환 정보를 각각 적용하여 위치보정을 수행하는 단계를 포함하는 도로선형 기반의 3차원 공간객체 위치보정 방법.
(a) generating a 3D spatial object model and a 2D orthogonal correction image for a specific area based on the image captured during the flight process of the unmanned aerial vehicle;
(b) generating a road linear vector by extracting a road line from the 2D orthogonal correction image based on a learning model about a road pattern;
(c) determining road alignment information corresponding to the road line from the spatial information previously established for the specific area;
(d) generating transformation information for matching between the road linear vector and the road linear information; and
(e) performing position correction by applying the transformation information to the 3D spatial object model and the 2D orthogonal correction image, respectively.
제1항에 있어서, 상기 (a) 단계는
상기 촬영된 영상이 등간격으로 촬영된 복수의 부분 영상들로 구성된 경우 상기 복수의 부분 영상들을 병합하여 상기 특정 지역에 관한 하나의 영상으로서 상기 2D 정사보정 영상을 생성하는 단계를 포함하는 것을 특징으로 하는 도로선형 기반의 3차원 공간객체 위치보정 방법.
According to claim 1, wherein the step (a)
and generating the 2D orthogonal correction image as one image related to the specific region by merging the plurality of partial images when the captured image is composed of a plurality of partial images photographed at equal intervals. A method of correcting the position of a three-dimensional spatial object based on road alignment.
제1항에 있어서, 상기 (c) 단계는
상기 특정 지역의 수치지도에 포함된 복수의 레이어(layer)들 중에서 상기 도로선에 대응되는 레이어 만을 추출하여 저장하는 단계를 포함하는 것을 특징으로 하는 도로선형 기반의 3차원 공간객체 위치보정 방법.
According to claim 1, wherein step (c) is
and extracting and storing only a layer corresponding to the road line from among a plurality of layers included in the numerical map of the specific area.
제1항에 있어서, 상기 (d) 단계는
(d1) 상기 특정 지역 내에서 복수의 매칭점들을 결정하는 단계;
(d2) 상기 도로선형 벡터에서 상기 복수의 매칭점들 각각에 대응되는 제1 위치좌표를 추출하는 단계;
(d3) 상기 도로선형 정보에서 상기 복수의 매칭점들 각각에 대응되는 제2 위치좌표를 추출하는 단계; 및
(d4) 상기 제2 위치좌표에서 상기 제1 위치좌표로의 정방향 변환에 관한 변환행렬을 생성하는 단계를 포함하는 것을 특징으로 도로선형 기반의 3차원 공간객체 위치보정 방법.
According to claim 1, wherein step (d) is
(d1) determining a plurality of matching points within the specific area;
(d2) extracting first position coordinates corresponding to each of the plurality of matching points from the road linear vector;
(d3) extracting second location coordinates corresponding to each of the plurality of matching points from the road alignment information; and
(d4) generating a transformation matrix for forward transformation from the second position coordinates to the first position coordinates.
제4항에 있어서, 상기 (d1) 단계는
상기 특정 지역의 수치지도에 포함된 도로 정보를 기초로 도로의 끊김, 축소 및 확장 중 적어도 하나를 포함하는 변화 지점을 상기 매칭점으로 결정하는 단계를 포함하는 것을 특징으로 하는 도로선형 기반의 3차원 공간객체 위치보정 방법.
5. The method of claim 4, wherein (d1) step
and determining, as the matching point, a change point including at least one of cutoff, reduction, and expansion of a road based on road information included in the numerical map of the specific area as the matching point. How to correct the position of a spatial object.
제4항에 있어서, 상기 (d4) 단계는
상기 제1 위치좌표를 독립변수로 하고 상기 제2 위치좌표를 종속변수로 하는 2차 다항식 변환에서 해당 다항식의 계수를 상기 변환행렬로서 생성하는 단계를 포함하는 것을 특징으로 하는 도로선형 기반의 3차원 공간객체 위치보정 방법.
The method of claim 4, wherein step (d4) is
and generating coefficients of the polynomial as the transformation matrix in a second-order polynomial transformation using the first position coordinate as an independent variable and the second position coordinate as a dependent variable. How to correct the position of a spatial object.
제4항에 있어서, 상기 (e) 단계는
(e1) 상기 3D 공간객체 모델에서 3D 공간객체와 2D 위치좌표를 각각 추출하는 단계;
(e2) 상기 2D 위치좌표에 대해 상기 정방향 변환의 역방향 변환을 적용하여 2D 보정좌표를 생성하는 단계; 및
(e3) 상기 3D 공간객체 및 상기 2D 보정좌표를 통합하여 보정된 3D 공간객체 모델을 생성하는 단계를 포함하는 것을 특징으로 하는 도로선형 기반의 3차원 공간객체 위치보정 방법.
5. The method of claim 4, wherein step (e) is
(e1) extracting a 3D spatial object and a 2D location coordinate from the 3D spatial object model, respectively;
(e2) generating 2D correction coordinates by applying an inverse transformation of the forward transformation to the 2D position coordinates; and
(e3) generating a corrected 3D spatial object model by integrating the 3D spatial object and the 2D correction coordinates.
제1항에 있어서,
(f) 상기 특정 지역에 대해 기 설정된 복수의 지상기준점(Ground Control Point, GCP)들을 기준으로 상기 2D 정사보정 영상에 대한 위치보정 전·후의 거리 오차(distance error)를 비교하여 상기 위치보정에 관한 정확도를 검증하는 단계를 더 포함하는 것을 특징으로 하는 도로선형 기반의 3차원 공간객체 위치보정 방법.
According to claim 1,
(f) by comparing the distance error before and after the position correction of the 2D orthogonal correction image based on a plurality of ground control points (GCP) preset for the specific region, the position correction A method of correcting the position of a three-dimensional spatial object based on a road alignment, characterized in that it further comprises the step of verifying the accuracy.
KR1020200047523A 2020-04-20 2020-04-20 3d spatial object location correction method based on road linearity KR102426282B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200047523A KR102426282B1 (en) 2020-04-20 2020-04-20 3d spatial object location correction method based on road linearity

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200047523A KR102426282B1 (en) 2020-04-20 2020-04-20 3d spatial object location correction method based on road linearity

Publications (2)

Publication Number Publication Date
KR20210129472A true KR20210129472A (en) 2021-10-28
KR102426282B1 KR102426282B1 (en) 2022-07-29

Family

ID=78232693

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200047523A KR102426282B1 (en) 2020-04-20 2020-04-20 3d spatial object location correction method based on road linearity

Country Status (1)

Country Link
KR (1) KR102426282B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102407704B1 (en) * 2021-12-16 2022-06-10 이은석 Civil engineering design system using drone

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009177251A (en) * 2008-01-21 2009-08-06 Pasuko:Kk Generation method of orthophoto image and photographing device
KR101160454B1 (en) 2010-06-08 2012-06-27 (주) 충청에스엔지 Construction method of 3D Spatial Information using position controlling of UAV
KR20150101009A (en) * 2014-02-24 2015-09-03 주식회사 한화 Apparatus and method for image matching unmanned aerial vehicle image with map image
WO2016151730A1 (en) * 2015-03-23 2016-09-29 三菱電機株式会社 Image correction device and image correction method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009177251A (en) * 2008-01-21 2009-08-06 Pasuko:Kk Generation method of orthophoto image and photographing device
KR101160454B1 (en) 2010-06-08 2012-06-27 (주) 충청에스엔지 Construction method of 3D Spatial Information using position controlling of UAV
KR20150101009A (en) * 2014-02-24 2015-09-03 주식회사 한화 Apparatus and method for image matching unmanned aerial vehicle image with map image
WO2016151730A1 (en) * 2015-03-23 2016-09-29 三菱電機株式会社 Image correction device and image correction method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102407704B1 (en) * 2021-12-16 2022-06-10 이은석 Civil engineering design system using drone

Also Published As

Publication number Publication date
KR102426282B1 (en) 2022-07-29

Similar Documents

Publication Publication Date Title
CN109324337B (en) Unmanned aerial vehicle route generation and positioning method and device and unmanned aerial vehicle
US8902308B2 (en) Apparatus and method for generating an overview image of a plurality of images using a reference plane
US8797400B2 (en) Apparatus and method for generating an overview image of a plurality of images using an accuracy information
Yahyanejad et al. Incremental mosaicking of images from autonomous, small-scale uavs
US9460554B2 (en) Aerial video annotation
KR102154950B1 (en) Method and apparatus for matching image captured by unmanned air vehicle with map, cadaster, or satellite image
JP2008186145A (en) Aerial image processing apparatus and aerial image processing method
TW202214487A (en) Collaborative 3d mapping and surface registration
CN113192193A (en) High-voltage transmission line corridor three-dimensional reconstruction method based on Cesium three-dimensional earth frame
US8994821B2 (en) Methods and apparatus for automated assignment of geodetic coordinates to pixels of images of aerial video
CN110209847A (en) Quasi real time processing method, device and storage medium on Airborne Data Classification machine
KR101737438B1 (en) Method and Apparatus for Constructing Reference Layer, Method and System for Constructing 3D GIS Data using Reference Layer
CN115423863B (en) Camera pose estimation method and device and computer readable storage medium
KR20200056613A (en) System for correcting geometry of mobile platform with sensor based on an orthophoto
US8564607B2 (en) Apparatus and method for creating textures of building
KR20230003803A (en) Automatic calibration through vector matching of the LiDAR coordinate system and the camera coordinate system
KR102159134B1 (en) Method and system for generating real-time high resolution orthogonal map for non-survey using unmanned aerial vehicle
CN116433845A (en) Strange environment rapid modeling method and system based on multi-unmanned aerial vehicle cooperation
KR102426282B1 (en) 3d spatial object location correction method based on road linearity
KR102528951B1 (en) 3d model position correction method and device using building shape matching algorithm
KR101775372B1 (en) Position accuracy enhancement system for Arirang satellite(Kompsat) image
KR102130687B1 (en) System for information fusion among multiple sensor platforms
KR20230076220A (en) Method and system for setting ground control point automatically for generating orthogonal map using drone images
KR102520189B1 (en) Method and system for generating high-definition map based on aerial images captured from unmanned air vehicle or aircraft
CN110940318A (en) Aerial remote sensing real-time imaging method, electronic equipment and storage medium

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant