KR20210083437A - Method and system for combining image textures into point cloud - Google Patents

Method and system for combining image textures into point cloud Download PDF

Info

Publication number
KR20210083437A
KR20210083437A KR1020190175157A KR20190175157A KR20210083437A KR 20210083437 A KR20210083437 A KR 20210083437A KR 1020190175157 A KR1020190175157 A KR 1020190175157A KR 20190175157 A KR20190175157 A KR 20190175157A KR 20210083437 A KR20210083437 A KR 20210083437A
Authority
KR
South Korea
Prior art keywords
image
point cloud
texture
combining
points
Prior art date
Application number
KR1020190175157A
Other languages
Korean (ko)
Inventor
김한결
이수암
Original Assignee
(주)쓰리디랩스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)쓰리디랩스 filed Critical (주)쓰리디랩스
Priority to KR1020190175157A priority Critical patent/KR20210083437A/en
Publication of KR20210083437A publication Critical patent/KR20210083437A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Remote Sensing (AREA)
  • Image Generation (AREA)
  • Image Processing (AREA)

Abstract

The present invention relates to a method and system for combining an image texture with a point cloud. The method of the present invention comprises the steps of: interpolating a road surface point cloud to configure at least one triangular surface; calculating three points in an aerial photograph, which correspond to three points constituting the surface; and allocating a triangular texture composed of the three points in the aerial photograph as a texture of the surface. In accordance with the present invention, a method and system for combining a point cloud and an aerial photograph through a texture, not through points, are provided to solve problems which a conventional mobile mapping system (MMS) has, such as a mismatching phenomenon, a hiding phenomenon, and the like. In addition, a problem that there is no information on color and brightness between points in the conventional MMS can be solved.

Description

포인트 클라우드에 영상 텍스처를 결합시키는 방법 및 시스템{METHOD AND SYSTEM FOR COMBINING IMAGE TEXTURES INTO POINT CLOUD}METHOD AND SYSTEM FOR COMBINING IMAGE TEXTURES INTO POINT CLOUD

본 발명은 포인트 클라우드에 영상 텍스처를 결합시키는 방법 및 시스템에 관한 것으로, 보다 상세하게는, 실감형의 3차원 도로모델을 만들기 위해 기 취득한 도로면 포인트 클라우드에 공중 촬영 영상 텍스처를 결합시키는 방법 및 시스템에 관한 것이다.The present invention relates to a method and system for combining an image texture with a point cloud, and more particularly, to a method and system for combining an aerial photographed image texture with a previously acquired road surface point cloud to create an immersive three-dimensional road model is about

최근 전세계적으로 스마트 시티, 3차원 도시 모델 등의 필요성이 증가함에 따라 도시를 구성하는 필수요소인 3차원 도로 모델을 생성하는 기술이 널리 연구되고 있다. 3차원 도로 모델의 구축은 주로 MMS(Mobile Mapping System; 모바일 맵핑 시스템)를 많이 사용하는데, MMS는 카메라, GPS, 관성 측정 장치, 레이저 스캐너 등 다양한 센서들을 통합하여 차량에 탑재하고, 도로 및 도로 주변의 지형 지물의 위치 정보와 이미지 정보를 동시에 취득하는 시스템이다. MMS는 기존의 현장측량보다 비용, 효율 측면에서 유리하며, 수치지도나 3차원 자료의 수정, 갱신 주기를 단축할 수 있어서 대한민국 특허 제10-2017-0115778호 등을 포함한 다양한 연구가 이루어지고 있다.Recently, as the need for a smart city and a three-dimensional city model increases worldwide, a technology for generating a three-dimensional road model, which is an essential element constituting a city, has been widely studied. The construction of 3D road models mainly uses MMS (Mobile Mapping System), which integrates various sensors such as cameras, GPS, inertial measurement devices, and laser scanners and mounts them on vehicles, It is a system that simultaneously acquires location information and image information of geographical features. MMS is advantageous in terms of cost and efficiency compared to existing field surveys, and various studies including Korean Patent No. 10-2017-0115778 are being conducted because it can shorten the revision and update cycle of numerical maps or 3D data.

MMS는 LiDAR를 이용하여 전방, 후방, 측방으로 레이저를 발광하고, 반사되어 돌아오는 시간을 이용하여 주변 객체의 분포를 포인트 클라우드(point cloud) 형태로 수집한다. 그리고, 차량에서 도로를 촬영한 카메라 영상으로부터 포인트 클라우드의 각각의 점(포인트)에 색상정보와 밝기 정보 등을 입력시킨다. 그러면, 포인트 클라우드의 각각의 점 사이사이에는 색상 정보가 없이 비어 있지만, 각 점들은 매우 촘촘하기 때문에 사람이 보기에는 마치 빈 곳이 없는 영상처럼 보이게 된다. 하지만, 이렇게 형성된 MMS 자료는 최근 요구되고 있는 실감형 영상으로서는 한계가 있으며, 특히 확대를 할 경우에는 그 한계가 두드러져 나타나게 된다.MMS uses LiDAR to emit lasers forward, backward, and to the side, and collects the distribution of surrounding objects in the form of a point cloud using the reflected return time. Then, color information, brightness information, and the like are inputted to each point (point) of the point cloud from the camera image of the road taken from the vehicle. Then, there is no color information between each point of the point cloud, but there is no color information, but since each point is very dense, it looks like an image with no empty space to the human eye. However, the MMS data formed in this way has limitations as immersive images that have been recently demanded, and in particular, when enlarged, the limitations become prominent.

또한, MMS 자료는 정면을 바라보고 촬영한 영상에 존재하는 원근으로 인해 영상과 포인트 클라우드 간의 “매칭 왜곡 현상”이 발생하고, 주변 차량, 수목 등에 의한 “가려짐 현상”으로 인해 포인트 클라우드의 일부 점에 색상 정보가 입력되지 않는 현상이 많이 발생한다(도 1 참조). 이러한 문제점들을 해결하기 위해서는 다수의 차량 촬영 영상이 필요한데, 이때는 여러 영상 간의 색상 및 밝기값 차이가 심하여 보정을 따로 수행해주어야 하는 또다른 문제가 발생한다.In addition, in the case of MMS data, “matching distortion” occurs between the image and the point cloud due to the perspective that exists in the image taken while facing the front, and some points in the point cloud are caused by the “occlusion phenomenon” by surrounding vehicles, trees, etc. There are many cases in which color information is not input to the display (see FIG. 1). In order to solve these problems, a plurality of vehicle-captured images are required. In this case, there is a significant difference in color and brightness values between the various images, which causes another problem in which correction must be performed separately.

KR 10-2017-0115778 A.KR 10-2017-0115778 A.

본 발명은 상기와 같은 종래 기술의 문제점을 해결하기 위해 창안된 것으로, 서로 상이한 플랫폼에서 취득한 도로면 포인트 클라우드와 공중 촬영 영상을 결합시키는 방법 및 시스템을 제공함으로써, 종래의 MMS 자료가 가지는 매칭 왜곡 현상 및 가려짐 현상 등의 문제를 해결하는 것을 목적으로 한다.The present invention was devised to solve the problems of the prior art as described above, and by providing a method and system for combining road surface point clouds and aerial photographed images acquired from different platforms, the matching distortion phenomenon of conventional MMS data And it aims to solve problems such as occlusion phenomenon.

또한, 포인트 클라우드와 공중 촬영 영상을 점이 아닌 텍스처로 결합시키는 방법 및 시스템을 제공함으로써, 종래의 MMS가 포인트와 포인트 사이에 아무런 색상 및 밝기 정보가 존재하지 않는 문제를 해결하여 실감형 3차원 도로 모델을 만드는 것을 또 다른 목적으로 한다.In addition, by providing a method and system for combining a point cloud and an aerial photographed image with a texture rather than a point, the conventional MMS solves the problem that there is no color and brightness information between the point and the realistic three-dimensional road model. Another purpose is to create

상기 기술적 과제를 달성하기 위한, 본 발명의 일 실시예에 따르면, 도로면 포인트 클라우드를 보간하여 적어도 하나의 삼각형 표면을 구성하는 단계, 상기 표면을 구성하는 세 점에 대응되는 공중 촬영 영상 상의 세 점을 계산하는 단계 및 상기 공중 촬영 영상 상의 세 점으로 구성되는 삼각형 텍스처를 상기 표면의 텍스처로 할당하는 단계를 포함하는, 포인트 클라우드에 영상 텍스처를 결합시키는 방법이 제공된다.According to an embodiment of the present invention for achieving the above technical problem, the step of interpolating the road surface point cloud to construct at least one triangular surface, three points on the aerial shot image corresponding to the three points constituting the surface There is provided a method of combining an image texture to a point cloud, comprising the steps of calculating , and allocating a triangular texture composed of three points on the aerial shot image as the texture of the surface.

상기 계산하는 단계는, 상기 영상의 외부표정요소와 내부표정요소로부터 센서모델을 구성하는 단계 및 상기 표면을 구성하는 세 점을 상기 영상에 역투영하는 단계를 포함하고, 상기 역투영은 상기 센서모델을 이용할 수 있다.The calculating includes constructing a sensor model from the external expression element and the inner expression element of the image, and inversely projecting three points constituting the surface onto the image, wherein the inverse projection is the sensor model. Available.

상기 보간은 뽀아송 기법(Poisson Reconstruction) 또는 삼각망 구성 기법을 사용할 수 있다.The interpolation may use a Poisson Reconstruction or a triangular network construction technique.

상기 포인트 클라우드 및 상기 공중 촬영 영상은 서로 다른 플랫폼에서 취득된 것일 수 있다.The point cloud and the aerial photographed image may be acquired from different platforms.

상기 센서모델은 공선조건식 또는 DLT(Direct Linear transformation)를 이용할 수 있다.The sensor model may use a collinear conditional expression or direct linear transformation (DLT).

또한, 다른 바람직한 일 실시예에 따르면, 전술한 각 방법에 따른 방법을 실행시키기 위한, 컴퓨터-판독가능한 기록매체에 저장된 컴퓨터 프로그램이 제공된다.Further, according to another preferred embodiment, there is provided a computer program stored in a computer-readable recording medium for executing the method according to each method described above.

또한, 또 다른 바람직한 일 실시예에 따르면, 전술한 각 방법을 실행시키기 위한 프로그램이 기록된, 컴퓨터-판독가능한 기록매체가 제공된다.In addition, according to another preferred embodiment, there is provided a computer-readable recording medium in which a program for executing each of the above-described methods is recorded.

상기 기술적 과제를 달성하기 위한, 본 발명의 또 다른 일 실시예에 따르면, 도로면 포인트 클라우드를 보간하여 적어도 하나의 삼각형 표면을 구성하는 보간부, 상기 표면을 구성하는 세 점에 대응되는 공중 촬영 영상 상의 세 점을 계산하는 영상점 계산부 및 상기 공중 촬영 영상 상의 세 점으로 구성되는 삼각형 텍스처를 상기 표면의 텍스처로 할당하는 텍스처 할당부를 포함하는, 포인트 클라우드에 영상 텍스처를 결합시키는 시스템이 제공된다.According to another embodiment of the present invention for achieving the above technical problem, an interpolator constituting at least one triangular surface by interpolating a road surface point cloud, an aerial captured image corresponding to three points constituting the surface A system for combining an image texture to a point cloud is provided, comprising: an image point calculator for calculating three points on the image; and a texture allocator for allocating a triangular texture composed of three points on the aerial shot image as a texture of the surface.

상기 영상점 계산부는, 상기 영상의 외부표정요소와 내부표정요소로부터 센서모델을 구성하고, 상기 센서모델을 이용하여 상기 표면을 구성하는 세 점을 상기 영상에 역투영할 수 있다.The image point calculation unit may construct a sensor model from the external expression element and the inner expression element of the image, and use the sensor model to back-project three points constituting the surface to the image.

상기 보간은 뽀아송 기법 또는 삼각망 구성 기법을 사용할 수 있다.The interpolation may use a Poisson technique or a triangular network construction technique.

상기 포인트 클라우드 및 상기 공중 촬영 영상은 서로 다른 플랫폼에서 취득된 것일 수 있다.The point cloud and the aerial photographed image may be acquired from different platforms.

이상과 같이, 본 발명에 따르면, 서로 상이한 플랫폼에서 취득한 도로면 포인트 클라우드와 공중 촬영 영상을 결합시키는 방법 및 시스템을 제공함으로써, 종래의 MMS 자료가 가지는 매칭 왜곡 현상, 가려짐 현상 등의 문제를 해결하는 효과가 있다.As described above, according to the present invention, by providing a method and system for combining road surface point clouds and aerial photographed images acquired from different platforms, problems such as matching distortion and occlusion of conventional MMS data are solved. has the effect of

또한, 포인트 클라우드와 공중 촬영 영상을 점이 아닌 텍스처로 결합시키는 방법 및 시스템을 제공함으로써, 종래의 MMS가 포인트와 포인트 사이에 아무런 색상 및 밝기 정보가 존재하지 않는 문제를 해결하는 효과가 있다.In addition, by providing a method and system for combining a point cloud and an aerial photographed image with a texture rather than a point, there is an effect of solving the problem that the conventional MMS does not have any color and brightness information between the points.

도 1은 MMS 자료에서 차량으로 인한 가려짐 현상(타원으로 표시된 부분)을 나타내는 도면이다.
도 2는 본 발명의 일 실시예에 따른 포인트 클라우드에 영상 텍스처를 결합시키는 방법에 대한 구체적인 일례를 나타내는 순서도이다.
도 3은 포인트 클라우드(a)와 공중 촬영 영상(b)을 나타내는 도면이다.
도 4는 뽀아송 기법을 이용하여 포인트 클라우드를 보간하는 과정을 나타내는 블록도이다.
도 5는 본 발명의 일 실시예에 따라 보간된 포인트 클라우드를 나타내는 도면이다.
도 6은 본 발명의 일 실시예에 따라 보간된 포인트 클라우드(a)의 한 삼각형을 공중 촬영 영상에 역투영하여 대응되는 공중 촬영 영상(b) 상의 삼각형 텍스처를 도시하는 도면이다.
도 7은 본 발명의 일 실시예에 따라 포인트 클라우드에 영상 텍스처를 결합시킨 결과를 나타내는 도면이다.
도 8은 본 발명의 다른 일 실시예에 따른 포인트 클라우드에 영상 텍스처를 결합시키는 시스템의 구성을 나타내는 블록도이다.
1 is a diagram illustrating an occlusion phenomenon (a portion indicated by an ellipse) due to a vehicle in MMS data.
2 is a flowchart illustrating a specific example of a method of combining an image texture to a point cloud according to an embodiment of the present invention.
3 is a diagram illustrating a point cloud (a) and an aerial photographed image (b).
4 is a block diagram illustrating a process of interpolating a point cloud using the Poisson technique.
5 is a diagram illustrating an interpolated point cloud according to an embodiment of the present invention.
6 is a diagram illustrating a triangle texture on a corresponding aerial photographed image (b) by back-projecting a triangle of an interpolated point cloud (a) to an aerial photographed image according to an embodiment of the present invention.
7 is a diagram illustrating a result of combining an image texture with a point cloud according to an embodiment of the present invention.
8 is a block diagram showing the configuration of a system for combining an image texture to a point cloud according to another embodiment of the present invention.

이하, 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 하기의 설명에서는 본 발명의 실시예에 따른 동작을 이해하는데 필요한 부분만이 도시되고 설명되며 그 이외 부분의 도시와 설명은 본 발명의 요지를 흐리지 않도록 생략하였다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art can easily carry out the present invention. In the following description, only the parts necessary for understanding the operation according to the embodiment of the present invention are shown and described, and the illustration and description of other parts are omitted so as not to obscure the gist of the present invention. However, the present invention may be embodied in many different forms and is not limited to the embodiments described herein.

또한, 이하에서 설명되는 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 본 발명을 가장 적절하게 표현할 수 있도록 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야 한다.In addition, the terms or words used in the present specification and claims described below should not be construed as being limited to conventional or dictionary meanings, and meanings consistent with the technical spirit of the present invention so that the present invention can be most appropriately expressed. and should be interpreted as a concept.

설명의 간략함을 위해, 본 명세서에서는 예시를 들어 순서도 또는 플로우 차트의 형태로 하나 이상의 방법이 일련의 단계로서 도시되고 기술되어 있지만, 본 발명이 단계들의 순서에 의해 제한되지 않는데 그 이유는 본 발명에 따라 본 명세서에 도시되고 기술되어 있는 것과 다른 순서로 또는 다른 단계들과 동시에 행해질 수 있기 때문이라는 것을 잘 알 것이다. 또한, 예시된 모든 단계들이 본 발명에 따라 방법을 구현해야만 하는 것은 아닐 수 있다.For simplicity of explanation, one or more methods are shown and described herein as a series of steps, by way of example, by way of example, in the form of a flowchart or flow chart, but the invention is not limited by the order of steps, since the invention is not limited thereto. It will be appreciated that, in accordance with the present disclosure, it may be performed in a different order or concurrently with other steps than those shown and described herein. Moreover, not all illustrated steps may be required to implement a method in accordance with the present invention.

본 명세서에서 사용되는 용어에서 단수의 표현은 문맥상 명백하게 다르게 해석되지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함한다" 등의 용어는 실시된 특징, 개수, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 의미하는 것이지, 하나 또는 그 이상의 다른 특징들이나 개수, 단계 동작 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 배제하지 않는 것으로 이해되어야 한다.In terms of terms used herein, the singular expression should be understood to include the plural expression unless the context clearly dictates otherwise, and terms such as "comprises" include the embodied feature, number, step, operation, element. , parts or combinations thereof are to be understood, but not to exclude the possibility of the presence or addition of one or more other features or numbers, step operation components, parts or combinations thereof.

도면에 대한 상세한 설명을 하기에 앞서, 본 명세서에서의 구성부들에 대한 구분은 각 구성부가 담당하는 주기능 별로 구분한 것에 불과함을 명확히 하고자 한다. 즉, 이하에서 설명할 2개 이상의 구성부가 하나의 구성부로 합쳐지거나 또는 하나의 구성부가 보다 세분화된 기능별로 2개 이상으로 분화되어 구비될 수도 있다. 그리고 이하에서 설명할 구성부 각각은 자신이 담당하는 주기능 이외에도 다른 구성부가 담당하는 기능 중 일부 또는 전부의 기능을 추가적으로 수행할 수도 있으며, 구성부 각각이 담당하는 주기능 중 일부 기능이 다른 구성부에 의해 전담되어 수행될 수도 있음은 물론이다.Prior to a detailed description of the drawings, it is intended to clarify that the classification of the constituent parts in the present specification is merely a division according to the main function that each constituent unit is responsible for. That is, two or more components to be described below may be combined into one component, or one component may be divided into two or more for each more subdivided function. In addition, each of the constituent units to be described below may additionally perform some or all of the functions of the other constituent units in addition to the main function it is responsible for, and may additionally perform some or all of the functions of the other constituent units. Of course, it may be carried out by being dedicated to it.

명세서 전체에서, 본 발명에 사용되는 포인트 클라우드와 공중 촬영 영상은, MMS가 포인트 클라우드(위치정보)와 영상정보를 같은 플랫폼에서 동시에 취득하는 반면, 서로 상이한 플랫폼에서 취득된 것이다. 즉, 서로 다른 이동체나 서로 다른 시점에서 취득한 것이다. 예를 들어, 포인트 클라우드가 자동차에서 지상 주사 방식으로 취득된 것이라면, 공중 촬영 영상은 항공기나 UAV 등에서 취득된 것일 수 있다. 다른 예로서, 포인트 클라우드가 항공기에서 취득된 것이라면, 공중 촬영 영상은 포인트 클라우드가 취득된 시점과 다른 시점에 항공기에서 취득된 것일 수 있다.Throughout the specification, the point cloud and aerial shot images used in the present invention are acquired from different platforms while the MMS simultaneously acquires the point cloud (location information) and image information on the same platform. That is, they were acquired from different moving objects or from different viewpoints. For example, if the point cloud is acquired by a ground scanning method from a car, the aerial photographed image may be acquired from an aircraft or a UAV. As another example, if the point cloud is acquired from the aircraft, the aerial photographed image may be acquired from the aircraft at a time different from the time point at which the point cloud was acquired.

그리고, MMS가 위치정보와 영상정보를 동시에 취득하여 위치정보에 영상의 색상과 밝기값을 “점(point)” 단위로 입력시키는 시스템이라면, 본 발명에 따른 시스템은 서로 다른 플랫폼에서 취득한 정보를 “표면(surface)” 단위의 텍스처(texture)로 결합시키는 시스템인 것이다.And, if the MMS is a system that simultaneously acquires location information and image information and inputs the color and brightness values of an image to the location information in units of “points,” the system according to the present invention can “ It is a system that combines textures in units of “surface”.

한편, 본 발명에서 지상 촬영 영상을 사용하지 않고 공중 촬영 영상을 사용하는 이유는, 차량에서 취득하는 지상 촬영 영상은 공중 촬영 영상에 비해 커버할 수 있는 영역이 매우 좁기 때문에 다수의 차량 촬영 영상이 필요하다는 문제가 발생하고, 이로 인하여 다수 영상 간의 색상 및 밝기값 차이가 심하여 보정을 따로 수행해주어야 하는 또다른 문제가 발생하기 때문이다. 또한, 지상 촬영 영상은 원근으로 인해 영상과 포인트 클라우드 간의 “매칭 왜곡 현상”이 발생하고, 주변 차량, 수목 등에 의한 “가려짐 현상”으로 인하여 일부 영역에 색상 정보가 입력되지 못하는 문제가 발생하기 때문이다.On the other hand, the reason for using the aerial photographed image instead of using the ground photographed image in the present invention is that the ground photographed image acquired from the vehicle has a very narrow area that can be covered compared to the aerial photographed image, so a large number of vehicle photographed images are required. This is because another problem arises that correction must be performed separately due to a large difference in color and brightness values between multiple images. In addition, in ground-captured images, “matching distortion” occurs between the image and the point cloud due to perspective, and color information cannot be input to some areas due to “occlusion” by surrounding vehicles, trees, etc. to be.

상술한 내용들을 이하 도면을 참조하면서 상세히 설명하기로 한다.Hereinafter, the above-described contents will be described in detail with reference to the drawings.

도 2는 본 발명의 일 실시예에 따른 포인트 클라우드에 영상 텍스처를 결합시키는 방법에 대한 구체적인 일례를 나타내는 순서도이다.2 is a flowchart illustrating a specific example of a method of combining an image texture to a point cloud according to an embodiment of the present invention.

도 2를 참조하면, 본 발명에 따른 포인트 클라우드에 영상 텍스처를 결합시키는 시스템(10)은, S110 단계에서, 도로면 포인트 클라우드를 보간하여 적어도 하나의 삼각형 표면을 구성할 수 있다.Referring to FIG. 2 , the system 10 for combining an image texture to a point cloud according to the present invention may construct at least one triangular surface by interpolating a road surface point cloud in step S110.

포인트 클라우드는 차량에서 지상 주사 방식으로 많이 취득되지만, 항공기나 UAV 등에서도 취득할 수 있다. 도 3(a)에는 포인트 클라우드의 한 예가 도시되어 있다.Point clouds are often acquired by ground scanning in vehicles, but can also be acquired from aircraft or UAVs. 3( a ) shows an example of a point cloud.

포인트 클라우드를 보간하는 방식으로는 삼각망 구성 기법이나 뽀아송 기법((Poisson Reconstruction) 등을 사용할 수 있다.As a method of interpolating the point cloud, a triangular network construction method or a Poisson method may be used.

삼각망 구성 기법이나 뽀아송 기법으로 포인트 클라우드를 보간하여 수많은 삼각형으로 된 표면을 구성할 수 있다. 뽀아송 기법의 일반적인 순서도 도 4에 도시되어 있다. 삼각망 구성 기법이나 뽀아송 기법 자체에 대한 자세한 설명은 생략하기로 한다.A surface made of numerous triangles can be constructed by interpolating the point cloud using the triangular network construction technique or the Poisson technique. A general flowchart of the Poisson technique is shown in FIG. 4 . A detailed description of the triangular network construction technique or the Poisson technique itself will be omitted.

포인트 클라우드를 삼각망 구성 기법이나 뽀아송 기법으로 보간하면, 보간된 포인트 클라우드는 수많은 삼각형의 “표면”으로 구성되게 되는데, 이 삼각형들은 촘촘하고 빈틈없이 이어진다.When a point cloud is interpolated using a triangular network construction technique or a Poisson technique, the interpolated point cloud is composed of numerous “surfaces” of triangles, which are closely connected with each other.

도 5를 참조하면, 본 발명의 일 실시예에 따라 “보간된 포인트 클라우드”로서, 도 3(a)의 포인트 클라우드가 상술한 삼각망 구성 기법이나 뽀아송 기법으로 보간된 것을 나타내고 있다.Referring to FIG. 5 , as an “interpolated point cloud” according to an embodiment of the present invention, the point cloud of FIG. 3(a) is interpolated by the above-described triangular network construction technique or Poisson technique.

상술한 보간에 의해 포인트 클라우드가 수많은 삼각형의 표면으로 구성이 되면, 각 삼각형의 표면에 해당하는(대응되는) 삼각형을 공중 촬영 영상(도 3(b) 참조)에서 탐색하기 위해 S120 단계와 S130 단계를 거치게 된다.When the point cloud is composed of the surface of numerous triangles by the above-described interpolation, steps S120 and S130 to search for a triangle corresponding (corresponding) to the surface of each triangle in the aerial shot image (see Fig. 3(b)). will go through

S120 단계에서는, 공중 촬영 영상의 외부표정요소와 내부표정요소로부터 센서모델을 구성할 수 있다.In step S120, a sensor model may be constructed from the external expression element and the inner expression element of the aerial photographed image.

센서모델은 촬영된 영상과 촬영하는 센서(카메라), 지상의 좌표계(경위도 좌표계 등)의 관계를 나타내는 모델로서, 지상 좌표를 이용하여 영상의 Column, Row 좌표를 얻을 수 있는 수식이다. 해당 수식을 이용하여 영상의 각 화소에 해당하는 지상 좌표를 얻거나, 지상 좌표에 해당하는 영상 좌표를 얻는 등의 행위를 자유자재로 수행할 수 있다.The sensor model is a model representing the relationship between a photographed image, a photographing sensor (camera), and a coordinate system on the ground (longitude and latitude coordinate system, etc.). It is a formula that can obtain column and row coordinates of an image using ground coordinates. An action such as obtaining the ground coordinates corresponding to each pixel of the image or obtaining the image coordinates corresponding to the ground coordinates can be freely performed using the equation.

일반적으로 영상 좌표로부터 지상 좌표를 계산하는 것을 정변환이라고 하고, 반대로 지상 좌표로부터 영상 좌표를 계산하는 것을 역변환이라고 한다. 따라서, 본 발명에서는, 보간된 포인트 클라우드의 각 삼각형의 꼭지점 지상 좌표로부터 대응되는 영상 좌표를 구하는 것이므로 역변환식을 사용하면 된다.In general, calculating the ground coordinates from the image coordinates is called forward transformation, and conversely, calculating the image coordinates from the ground coordinates is called inverse transformation. Therefore, in the present invention, since the corresponding image coordinates are obtained from the ground coordinates of the vertices of each triangle of the interpolated point cloud, the inverse transformation formula may be used.

공간상의 임의의 점 A와 그에 대응하는 영상의 점 a, 영상을 촬영한 카메라의 촬영 중심 L은 동일 선상에 존재해야 한다는 공선조건식을 기초로 구성되는 센서모델은 <수학식 1>과 같다.A sensor model constructed on the basis of a collinear conditional expression that an arbitrary point A in space, a point a of an image corresponding to it, and a photographing center L of a camera that has taken an image must exist on the same line is as shown in Equation 1 above.

Figure pat00001
Figure pat00001

Figure pat00002
Figure pat00002

<수학식 1>에서

Figure pat00003
는 공간상의 임의의 점A의 3차원 지상 좌표이고,
Figure pat00004
는 임의의 점 A에 대응되는 영상 상의 점 a의 영상 좌표이고,
Figure pat00005
는 영상을 촬영한 카메라의 투영 중심 L의 3차원 지상 좌표이다.In <Equation 1>
Figure pat00003
is the three-dimensional ground coordinates of an arbitrary point A in space,
Figure pat00004
is the image coordinate of the point a on the image corresponding to the arbitrary point A,
Figure pat00005
is the three-dimensional ground coordinates of the projection center L of the camera that captured the image.

또한, 센서모델은 DLT(Direct Linear transformation) 방법을 이용하여 구성할 수도 있다. DLT는 3차원 좌표와 사진 좌표 사이의 관계를 식으로 표현한 것으로서 <수학식 2>와 같다.In addition, the sensor model may be constructed using a DLT (Direct Linear Transformation) method. The DLT expresses the relationship between the three-dimensional coordinates and the photographic coordinates as an expression, and is as in <Equation 2>.

Figure pat00006
Figure pat00006

<수학식 2>에서

Figure pat00007
는 영상 좌표이고,
Figure pat00008
는 정규화를 위한 보정계수이고,
Figure pat00009
는 지상 좌표이고, M은 4 x 3 크기의 변환행렬이다.In <Equation 2>
Figure pat00007
is the image coordinate,
Figure pat00008
is the correction factor for normalization,
Figure pat00009
is the ground coordinates, and M is a transformation matrix with a size of 4 x 3.

S130 단계에서는, S120 단계에서 구성된 센서모델을 이용하여, 포인트 클라우드의 삼각형의 표면을 구성하는 세 점을 공중 촬영 영상에 역투영하여 공중 촬영 영상 상의 세 점을 계산할 수 있다. 즉, 역투영을 위해 역변환식인 <수학식 1>이나 <수학식 2>를 이용하여, 지상 좌표로부터 영상 좌표를 구할 수 있다.In step S130, using the sensor model configured in step S120, three points constituting the triangular surface of the point cloud may be back-projected onto the aerial photographed image to calculate three points on the aerial photographed image. That is, the image coordinates can be obtained from the ground coordinates by using <Equation 1> or <Equation 2>, which are inverse transformation equations for inverse projection.

도 6을 참조하면, (a)는 보간된 포인트 클라우드이고, (b)는 공중 촬영 영상으로서, 보간된 포인트 클라우드의 한 삼각형에 대응하는(화살표로 표시) 영상 상의 삼각형이 도시되어 있다. 도 6(b)의 삼각형의 세 점은 S120과 S130 단계에서 도 6(a)의 삼각형의 세 점으로부터 역투영하여 구할 수 있다.Referring to FIG. 6 , (a) is an interpolated point cloud, (b) is an aerial shot image, and a triangle on the image corresponding to one triangle of the interpolated point cloud (indicated by an arrow) is shown. The three points of the triangle of FIG. 6(b) may be obtained by back-projecting from the three points of the triangle of FIG. 6(a) in steps S120 and S130.

S140 단계에서는, 공중 촬영 영상 상의 세 점으로 구성되는 삼각형 텍스처를 보간된 포인트 클라우드의 삼각형 표면의 텍스처로 할당할 수 있다.In step S140 , a triangular texture composed of three points on the aerial captured image may be assigned as a texture of a triangular surface of the interpolated point cloud.

도 6(b)의 삼각형 텍스처를 도 6(a)의 삼각형에 할당하고(입히고 또는 복사하고), 이 과정을 보간된 포인트 클라우드의 모든 삼각형에 대하여 수행을 하면, 도 7과 같이 색상 및 밝기 등이 입력된 3차원 도로 모델이 완성된다.If the triangle texture of FIG. 6(b) is assigned (applied or copied) to the triangle of FIG. 6(a), and this process is performed for all triangles of the interpolated point cloud, color and brightness, etc. This input 3D road model is completed.

상술한 과정을 통해 만들어지는 도로 모델은 “면”에 텍스처를 입힌 것이므로, “점”에 색상 정보를 입력하는 일반적인 MMS 모델보다 훨씬 나은 실감형 모델이 된다. 또한, 포인트 클라우드의 점 사이에 아무런 정보가 없는 MMS 모델에 비하여, 본 발명의 모델은 점 사이가 텍스처로 채워져 있기 때문에 확대를 하더라도 비어 있는 곳이 없게 확대가 되는 효과가 있다.Since the road model created through the above process is textured on the “face”, it becomes a much better realistic model than the general MMS model in which color information is input at “points”. In addition, compared to the MMS model in which there is no information between the points of the point cloud, the model of the present invention has an effect that there is no empty space even when enlarged because the points are filled with texture.

도 8은 본 발명의 다른 일 실시예에 따른 포인트 클라우드에 영상 텍스처를 결합시키는 시스템(10)의 구성을 나타내는 블록도이다.8 is a block diagram showing the configuration of a system 10 for combining an image texture to a point cloud according to another embodiment of the present invention.

도 8을 참조하면, 포인트 클라우드에 영상 텍스처를 결합시키는 시스템(10)은 보간부(11), 영상점 계산부(13), 텍스처 할당부(15)를 포함하여 구성될 수 있다.Referring to FIG. 8 , the system 10 for combining an image texture to a point cloud may include an interpolation unit 11 , an image point calculation unit 13 , and a texture allocator 15 .

보간부(11)는 도로면 포인트 클라우드(20)를 보간하여 적어도 하나의 삼각형 표면을 구성할 수 있다.The interpolator 11 may construct at least one triangular surface by interpolating the road surface point cloud 20 .

포인트 클라우드(20)를 삼각망 구성 기법이나 뽀아송 기법으로 보간하면, 보간된 포인트 클라우드는 수많은 삼각형의 “표면”으로 구성되게 되는데, 이 삼각형들은 촘촘하고 빈틈없이 이어진다.When the point cloud 20 is interpolated by the triangular network construction technique or the Poisson technique, the interpolated point cloud is composed of a number of “surfaces” of triangles, which are closely and seamlessly connected.

영상점 계산부(13)는 공중 촬영 영상(30)의 외부표정요소와 내부표정요소로부터 센서모델을 구성할 수 있다.The image point calculation unit 13 may construct a sensor model from the external expression element and the inner expression element of the aerial photographed image 30 .

센서모델은 <수학식 1>과 같이 공선조건식을 기초로 구성될 수 있고, <수학식 2>와 같은 DLT 방법을 이용하여 구성할 수도 있다. The sensor model may be configured based on the collinear condition expression as in <Equation 1>, or may be constructed using the DLT method as in <Equation 2>.

또한, 영상점 계산부(13)는 센서모델을 이용하여 포인트 클라우드(20)의 삼각형의 표면을 구성하는 세 점을 공중 촬영 영상(30)에 역투영하여 공중 촬영 영상(30) 상의 세 점을 계산할 수 있다. 즉, 역투영을 위해 역변환식인 <수학식 1>이나 <수학식 2>를 이용하여, 지상 좌표로부터 영상 좌표를 구할 수 있다.In addition, the image point calculation unit 13 reverse-projects three points constituting the triangular surface of the point cloud 20 on the aerial photographed image 30 using the sensor model to calculate the three points on the aerial photographed image 30 . can be calculated That is, the image coordinates can be obtained from the ground coordinates by using <Equation 1> or <Equation 2>, which are inverse transformation equations for inverse projection.

텍스처 할당부(15)는 공중 촬영 영상(30) 상의 세 점으로 구성되는 삼각형 텍스처를 보간된 포인트 클라우드(20)의 삼각형 표면의 텍스처로 할당할 수 있다. 이 할당 과정을 보간된 포인트 클라우드(20)의 모든 삼각형에 대하여 수행을 하면, 도 7과 같이 색상 및 밝기 등이 입력된 3차원 도로 모델이 완성된다.The texture allocator 15 may allocate a triangular texture composed of three points on the aerial captured image 30 as a texture of the triangular surface of the interpolated point cloud 20 . When this allocation process is performed for all triangles of the interpolated point cloud 20, a three-dimensional road model in which color and brightness are inputted as shown in FIG. 7 is completed.

이상과 같이, 본 실시예들에 의하면, 서로 상이한 플랫폼에서 취득한 도로면 포인트 클라우드와 공중 촬영 영상을 결합시킴으로써, 종래의 MMS 자료가 가지는 매칭 왜곡 현상, 가려짐 현상 등의 문제를 해결할 수 있다.As described above, according to the present embodiments, problems such as matching distortion and occlusion of conventional MMS data can be solved by combining road surface point clouds and aerial photographed images acquired from different platforms.

또한, 포인트 클라우드와 공중 촬영 영상을 점이 아닌 텍스처로 결합시킴으로써, 종래의 MMS가 포인트와 포인트 사이에 아무런 색상 및 밝기 정보가 존재하지 않는 문제를 해결할 수 있다.In addition, by combining a point cloud and an aerial photographed image with a texture rather than a point, it is possible to solve the problem that the conventional MMS does not have any color and brightness information between the points.

또한, 이상에서 설명된 포인트 클라우드에 영상 텍스처를 결합시키는 방법의 실시예는 다양한 컴퓨터 구성요소들을 통하여 수행될 수 있는 컴퓨터 프로그램 명령어의 형태로 구현될 수 있다. 또한, 상기 구현된 컴퓨터 프로그램은 컴퓨터 판독 가능한 기록 매체에 기록될 수도 있다. 언급된 기록 매체는 ROM, 자기 디스크 혹은 콤팩트 디스크, 광 디스크 등 일 수 있으나, 이에 반드시 한정되지는 않는다.In addition, the embodiment of the method for combining the image texture to the point cloud described above may be implemented in the form of computer program instructions that may be executed through various computer components. In addition, the implemented computer program may be recorded in a computer-readable recording medium. The mentioned recording medium may be, but is not necessarily limited to, a ROM, a magnetic disk or compact disk, an optical disk, and the like.

이상에서와 같이, 본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다.As described above, the present invention has been described with reference to the embodiment shown in the drawings, but this is only exemplary, and various modifications and equivalent other embodiments are possible therefrom by those skilled in the art. will understand Accordingly, the true technical protection scope of the present invention should be determined by the technical spirit of the appended claims.

10: 포인트 클라우드에 영상 텍스처를 결합시키는 시스템
11: 보간부
13: 영상점 계산부
15: 텍스처 할당부
20: 포인트 클라우드
30: 공중 촬영 영상
10: A system for combining image textures with point clouds
11: Interpolation
13: image point calculator
15: Texture Allocator
20: Point Cloud
30: aerial shot video

Claims (11)

도로면 포인트 클라우드를 보간하여 적어도 하나의 삼각형 표면을 구성하는 단계;
상기 표면을 구성하는 세 점에 대응되는 공중 촬영 영상 상의 세 점을 계산하는 단계; 및
상기 공중 촬영 영상 상의 세 점으로 구성되는 삼각형 텍스처를 상기 표면의 텍스처로 할당하는 단계;
를 포함하는, 포인트 클라우드에 영상 텍스처를 결합시키는 방법.
interpolating the road surface point cloud to construct at least one triangular surface;
calculating three points on an aerial photographed image corresponding to three points constituting the surface; and
allocating a triangular texture composed of three points on the aerial photographed image as a texture of the surface;
A method of combining an image texture to a point cloud, comprising:
제1항에 있어서,
상기 계산하는 단계는,
상기 영상의 외부표정요소와 내부표정요소로부터 센서모델을 구성하는 단계; 및
상기 표면을 구성하는 세 점을 상기 영상에 역투영하는 단계;
를 포함하고,
상기 역투영은 상기 센서모델을 이용하는 것을 특징으로 하는, 포인트 클라우드에 영상 텍스처를 결합시키는 방법.
According to claim 1,
The calculating step is
constructing a sensor model from the external expression element and the internal expression element of the image; and
back-projecting three points constituting the surface onto the image;
including,
The method of combining an image texture to a point cloud, characterized in that the back-projection uses the sensor model.
제1항에 있어서,
상기 보간은 뽀아송 기법(Poisson Reconstruction) 또는 삼각망 구성 기법을 사용하는 것을 특징으로 하는, 포인트 클라우드에 영상 텍스처를 결합시키는 방법.
According to claim 1,
The interpolation is a method of combining an image texture to a point cloud, characterized in that using a Poisson method (Poisson Reconstruction) or a triangular network construction method.
제1항에 있어서,
상기 포인트 클라우드 및 상기 공중 촬영 영상은 서로 다른 플랫폼에서 취득된 것인 것을 특징으로 하는, 포인트 클라우드에 영상 텍스처를 결합시키는 방법.
According to claim 1,
The point cloud and the aerial shot image, characterized in that the obtained from different platforms, the method of combining image textures to the point cloud.
제2항에 있어서,
상기 센서모델은 공선조건식 또는 DLT(Direct Linear transformation)를 이용하는 것을 특징으로 하는, 포인트 클라우드에 영상 텍스처를 결합시키는 방법.
3. The method of claim 2,
The sensor model is a method of combining an image texture to a point cloud, characterized in that using a collinear expression or DLT (Direct Linear Transformation).
청구항 제1항 내지 청구항 제5항 중의 어느 한 항에 따른 방법을 실행시키기 위한, 컴퓨터-판독가능한 기록매체에 저장된 프로그램.
A program stored in a computer-readable recording medium for executing the method according to any one of claims 1 to 5.
청구항 제1항 내지 청구항 제5항 중의 어느 한 항에 따른 방법을 실행시키기 위한 프로그램이 기록된, 컴퓨터-판독가능한 기록매체.
A computer-readable recording medium in which a program for executing the method according to any one of claims 1 to 5 is recorded.
도로면 포인트 클라우드를 보간하여 적어도 하나의 삼각형 표면을 구성하는 보간부;
상기 표면을 구성하는 세 점에 대응되는 공중 촬영 영상 상의 세 점을 계산하는 영상점 계산부; 및
상기 공중 촬영 영상 상의 세 점으로 구성되는 삼각형 텍스처를 상기 표면의 텍스처로 할당하는 텍스처 할당부;
를 포함하는, 포인트 클라우드에 영상 텍스처를 결합시키는 시스템.
an interpolator interpolating the road surface point cloud to construct at least one triangular surface;
an image point calculation unit for calculating three points on an aerial photographed image corresponding to three points constituting the surface; and
a texture allocator for allocating a triangular texture composed of three points on the aerial shot image as a texture of the surface;
A system for combining an image texture to a point cloud, comprising:
제8항에 있어서,
상기 영상점 계산부는, 상기 영상의 외부표정요소와 내부표정요소로부터 센서모델을 구성하고, 상기 센서모델을 이용하여 상기 표면을 구성하는 세 점을 상기 영상에 역투영하는 것을 특징으로 하는, 포인트 클라우드에 영상 텍스처를 결합시키는 시스템.
9. The method of claim 8,
The image point calculation unit constructs a sensor model from the external expression element and the inner expression element of the image, and uses the sensor model to reversely project three points constituting the surface to the image, point cloud A system for combining image textures into .
제8항에 있어서,
상기 보간은 뽀아송 기법 또는 삼각망 구성 기법을 사용하는 것을 특징으로 하는, 포인트 클라우드에 영상 텍스처를 결합시키는 시스템.
9. The method of claim 8,
The interpolation is a system for combining an image texture to a point cloud, characterized in that using a Poisson technique or a triangular network construction technique.
제8항에 있어서,
상기 포인트 클라우드 및 상기 공중 촬영 영상은 서로 다른 플랫폼에서 취득된 것인 것을 특징으로 하는, 포인트 클라우드에 영상 텍스처를 결합시키는 시스템.
9. The method of claim 8,
The system for combining an image texture to a point cloud, characterized in that the point cloud and the aerial shot image are acquired on different platforms.
KR1020190175157A 2019-12-26 2019-12-26 Method and system for combining image textures into point cloud KR20210083437A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190175157A KR20210083437A (en) 2019-12-26 2019-12-26 Method and system for combining image textures into point cloud

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190175157A KR20210083437A (en) 2019-12-26 2019-12-26 Method and system for combining image textures into point cloud

Publications (1)

Publication Number Publication Date
KR20210083437A true KR20210083437A (en) 2021-07-07

Family

ID=76861926

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190175157A KR20210083437A (en) 2019-12-26 2019-12-26 Method and system for combining image textures into point cloud

Country Status (1)

Country Link
KR (1) KR20210083437A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170115778A (en) 2016-04-08 2017-10-18 팅크웨어(주) Method and apparatus for generating road surface, method and apparatus for processing point cloud data, computer program and computer readable recording medium

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170115778A (en) 2016-04-08 2017-10-18 팅크웨어(주) Method and apparatus for generating road surface, method and apparatus for processing point cloud data, computer program and computer readable recording medium

Similar Documents

Publication Publication Date Title
US10896497B2 (en) Inconsistency detecting system, mixed-reality system, program, and inconsistency detecting method
JP4392507B2 (en) 3D surface generation method
CN108876926B (en) Navigation method and system in panoramic scene and AR/VR client equipment
CN112434709B (en) Aerial survey method and system based on unmanned aerial vehicle real-time dense three-dimensional point cloud and DSM
US8270704B2 (en) Method and apparatus for reconstructing 3D shape model of object by using multi-view image information
KR102357355B1 (en) Method and apparatus for generating virtual object
US20230351693A1 (en) File generation apparatus, image generation apparatus based on file, file generation method and storage medium
US20140218354A1 (en) View image providing device and method using omnidirectional image and 3-dimensional data
US20180122129A1 (en) Generation, transmission and rendering of virtual reality multimedia
US11928779B2 (en) Multi-resolution voxel meshing
US20120081357A1 (en) System and method for interactive painting of 2d images for iterative 3d modeling
KR20170086077A (en) Using depth information for drawing in augmented reality scenes
KR102467556B1 (en) Precise 360 image production technique using measured depth information
CN115035235A (en) Three-dimensional reconstruction method and device
WO2021104308A1 (en) Panoramic depth measurement method, four-eye fisheye camera, and binocular fisheye camera
Meerits et al. Real-time scene reconstruction and triangle mesh generation using multiple RGB-D cameras
US10573072B2 (en) Image processing device, image processing method, and recording medium
KR101208767B1 (en) Stereoscopic image generation method, device and system using circular projection and recording medium for the same
JP7476511B2 (en) Image processing system, image processing method and program
Martell et al. Benchmarking structure from motion algorithms of urban environments with applications to reconnaissance in search and rescue scenarios
Waschbüsch et al. 3d video billboard clouds
KR20210083437A (en) Method and system for combining image textures into point cloud
CA2716257A1 (en) System and method for interactive painting of 2d images for iterative 3d modeling
KR102254961B1 (en) Pre-flight simulator system for unmanned aerial vehicles including OBLIQUE-viewing techniques for improving 3D modeling efficiency using unmanned aerial vehicles
CN113139992A (en) Multi-resolution voxel gridding