KR102633159B1 - Apparatus and method for restoring 3d-model using the image-processing - Google Patents

Apparatus and method for restoring 3d-model using the image-processing Download PDF

Info

Publication number
KR102633159B1
KR102633159B1 KR1020160169346A KR20160169346A KR102633159B1 KR 102633159 B1 KR102633159 B1 KR 102633159B1 KR 1020160169346 A KR1020160169346 A KR 1020160169346A KR 20160169346 A KR20160169346 A KR 20160169346A KR 102633159 B1 KR102633159 B1 KR 102633159B1
Authority
KR
South Korea
Prior art keywords
points
image
model
point cloud
image processing
Prior art date
Application number
KR1020160169346A
Other languages
Korean (ko)
Other versions
KR20180067914A (en
Inventor
반윤지
강경규
김혜선
박창준
유동완
유정재
이만희
추창우
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020160169346A priority Critical patent/KR102633159B1/en
Publication of KR20180067914A publication Critical patent/KR20180067914A/en
Application granted granted Critical
Publication of KR102633159B1 publication Critical patent/KR102633159B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/56Particle system, point based geometry or rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

이미지 프로세싱을 이용한 3차원 모델 복원 장치 및 방법이 개시된다. 본 발명의 일실시예에 따른 이미지 프로세싱을 이용한 3차원 모델 복원 방법은 이미지 프로세싱을 이용한 3차원 모델 복원 장치의 3차원 모델 복원 방법에 있어서, 3차원 모델을 복원할 객체를 촬영한 이미지를 입력 받아 상기 이미지의 특징점을 검색하여 포인트 클라우드(Point Cloud)를 생성하는 단계; 이미지 프로세싱 알고리즘을 이용하여 상기 포인트 클라우드를 정제하는 단계; 상기 정제된 포인트 클라우드를 이용하여 3차원 메쉬를 생성하는 단계 및 상기 3차원 메쉬를 이용하여 생성된 3차원 텍스처를 상기 이미지에 매핑하여 상기 3차원 모델을 복원하는 단계를 포함한다.An apparatus and method for restoring a 3D model using image processing are disclosed. A 3D model restoration method using image processing according to an embodiment of the present invention is a 3D model restoration method of a 3D model restoration device using image processing, by receiving an image of an object for which a 3D model is to be restored. Generating a point cloud by searching feature points of the image; refining the point cloud using an image processing algorithm; It includes generating a 3D mesh using the refined point cloud and mapping a 3D texture created using the 3D mesh to the image to restore the 3D model.

Description

이미지 프로세싱을 이용한 3차원 모델 복원 장치 및 방법 {APPARATUS AND METHOD FOR RESTORING 3D-MODEL USING THE IMAGE-PROCESSING}3D model restoration device and method using image processing {APPARATUS AND METHOD FOR RESTORING 3D-MODEL USING THE IMAGE-PROCESSING}

본 발명은 이미지 프로세싱 기술에 관한 것으로, 보다 상세하게는 이미지 프로세싱을 이용한 3차원 모델 복원 기술에 관한 것이다.The present invention relates to image processing technology, and more specifically, to 3D model restoration technology using image processing.

근래 VR, AR의 발달과 각종 디바이스의 발달로 3차원 모델을 기반으로 한 다양한 어플리케이션이 개발되고 있고 사용자의 수요와 기대치는 점차 확대되고 있다. 나아가, 이러한 다양한 어플리케이션에서 활용될 3차원 지형 모델의 필요성이 커지고 있다.Recently, with the development of VR and AR and various devices, various applications based on 3D models are being developed, and user demand and expectations are gradually expanding. Furthermore, the need for 3D terrain models to be used in these various applications is increasing.

현재 3차원 모델 복원 시스템은 복원될 지형을 촬영하고 촬영된 이미지를 기반으로 point cloud(포인트 클라우드)를 생성하고, point cloud를 기반으로 메쉬화하고 텍스쳐를 매핑하여 3차원 지형 모델을 생성하는 과정을 통해서 이루어지고 있다. The current 3D model restoration system involves the process of photographing the terrain to be restored, creating a point cloud based on the captured image, meshing the point cloud, and mapping the texture to create a 3D terrain model. It is being done through.

하지만 기존의 방법으로는 촬영된 이미지를 기반으로 하기 때문에 포인트의 정확성이 떨어질 수 있고, 노이즈가 많아 복원이 완벽하지 않을 수 있다.However, because the existing method is based on captured images, the accuracy of the points may be low and there is a lot of noise, so restoration may not be perfect.

따라서, 효율적인 3차원 지형 복원을 위해서 기존의 이미지 프로세싱 기법을 이용하여point cloud 정제를 통한 노이즈 제거가 필요하고, 실시간으로 렌더링하기 위해 포인트들의 그룹화가 필요하다.Therefore, for efficient 3D terrain restoration, noise removal through point cloud refinement is necessary using existing image processing techniques, and grouping of points is necessary for real-time rendering.

한편, 한국공개특허 제 10-2013-0094015 호" 입체 모델 생성 장치 및 방법"는 3차원 스캐닝을 통해 획득한 포인트 클라우드와 영상을 이용하여 정적인 배경의 3차원 모델을 생성하는 입체 모델 생성 장치 및 방법에 관한 것으로, 대용량 3차원 포인트 클라우드와 영상을 정합하여 3차원 모델을 제공하는 장치 및 방법을 개시하고 있다.Meanwhile, Korean Patent Publication No. 10-2013-0094015 “Stereoscopic model generation device and method” is a three-dimensional model generation device that generates a three-dimensional model of a static background using point clouds and images obtained through three-dimensional scanning, and Regarding a method, an apparatus and method for providing a 3D model by matching a large-capacity 3D point cloud and an image are disclosed.

그러나, 한국공개특허 제 10-2013-0094015 호는 이미지 프로세싱 기법을 이용하여 보다 효율적인 3차원 포인트를 정제하는 방법은 고려하지 않고 있다.However, Korean Patent Publication No. 10-2013-0094015 does not consider a more efficient method of refining 3D points using image processing techniques.

본 발명은 3차원 모델 복원에 있어 전술한 종래 기술의 문제점을 해결하기 위하여, 복원 과정에서 이미지 프로세싱 기법을 활용하여 복원의 품질을 높이는 방법을 제공하는 것을 목적으로 한다.The purpose of the present invention is to provide a method of improving the quality of restoration by utilizing image processing techniques in the restoration process in order to solve the problems of the prior art described above in 3D model restoration.

또한, 본 발명은 이미지로부터 3차원 모델을 복원할 때, 포인트 클라우드(Point Cloud)를 정제하여 보다 정확한 3차원 모델을 생성하는 것을 목적으로 한다.Additionally, the purpose of the present invention is to create a more accurate 3D model by refining the point cloud when restoring a 3D model from an image.

또한, 본 발명은 3차원 모델을 가시화함에 있어서, 보다 정확한 3차원 모델을 제공하는 것을 목적으로 한다.Additionally, the purpose of the present invention is to provide a more accurate 3D model when visualizing the 3D model.

상기한 목적을 달성하기 위한 본 발명의 일실시예에 따른 이미지 프로세싱을 이용한 3차원 모델 복원 방법은 이미지 프로세싱을 이용한 3차원 모델 복원 장치의 3차원 모델 복원 방법에 있어서, 3차원 모델을 복원할 객체를 촬영한 이미지를 입력 받아 상기 이미지의 특징점을 검색하여 포인트 클라우드(Point Cloud)를 생성하는 단계; 이미지 프로세싱 알고리즘을 이용하여 상기 포인트 클라우드를 정제하는 단계; 상기 정제된 포인트 클라우드를 이용하여 3차원 메쉬를 생성하는 단계 및 상기 3차원 메쉬를 이용하여 생성된 3차원 텍스처를 상기 이미지에 매핑하여 상기 3차원 모델을 복원하는 단계를 포함한다.In order to achieve the above object, a 3D model restoration method using image processing according to an embodiment of the present invention includes: an object to restore a 3D model; receiving a captured image and searching for feature points of the image to generate a point cloud; refining the point cloud using an image processing algorithm; It includes generating a 3D mesh using the refined point cloud and mapping a 3D texture created using the 3D mesh to the image to restore the 3D model.

본 발명은 3차원 모델 복원에 있어 전술한 종래 기술의 문제점을 해결하기 위하여, 복원 과정에서 이미지 프로세싱 기법을 활용하여 복원의 품질을 높이는 방법을 제공할 수 있다.In order to solve the problems of the prior art described above in 3D model restoration, the present invention can provide a method of improving the quality of restoration by utilizing image processing techniques in the restoration process.

또한, 본 발명은 이미지로부터 3차원 모델을 복원할 때, 포인트 클라우드(Point Cloud)를 정제하여 보다 정확한 3차원 모델을 생성할 수 있다.Additionally, the present invention can generate a more accurate 3D model by refining the point cloud when restoring a 3D model from an image.

또한, 본 발명은 3차원 모델을 가시화함에 있어서, 보다 정확한 3차원 모델을 제공할 수 있다.Additionally, the present invention can provide a more accurate 3D model when visualizing the 3D model.

도 1은 본 발명의 일실시예에 따른 이미지 프로세싱을 이용한 3차원 모델 복원 방법을 나타낸 동작흐름도이다.
도 2는 도 1에 도시된 포인트 정제 단계의 일 예를 세부적으로 나타낸 동작흐름도이다.
도 3은 본 발명의 일실시예에 따른 포인트 클라우드(Point Cloud)를 나타낸 도면이다.
도 4는 본 발명의 일실시예에 따른 노이즈가 포함된 포인트 클라우드를 나타낸 도면이다.
도 5는 본 발명의 일실시예에 따른 엣지 디텍션을 이용하여 포인트를 정제하는 과정을 나타낸 도면이다.
도 6은 본 발명의 일실시예에 따른 컬러 세그먼트를 수행하여 포인트가 구분된 것을 나타낸 도면이다.
도 7은 본 발명의 일실시예에 따른 이미지 프로세싱을 이용한 3차원 모델 복원 장치를 나타낸 블록도이다.
도 8은 본 발명의 일실시예에 따른 컴퓨터 시스템을 나타낸 블록도이다.
Figure 1 is an operation flowchart showing a 3D model restoration method using image processing according to an embodiment of the present invention.
FIG. 2 is a flowchart illustrating in detail an example of the point refining step shown in FIG. 1.
Figure 3 is a diagram showing a point cloud according to an embodiment of the present invention.
Figure 4 is a diagram showing a point cloud including noise according to an embodiment of the present invention.
Figure 5 is a diagram showing the process of refining points using edge detection according to an embodiment of the present invention.
Figure 6 is a diagram showing points being divided by performing color segmentation according to an embodiment of the present invention.
Figure 7 is a block diagram showing a 3D model restoration device using image processing according to an embodiment of the present invention.
Figure 8 is a block diagram showing a computer system according to an embodiment of the present invention.

본 발명을 첨부된 도면을 참조하여 상세히 설명하면 다음과 같다. 여기서, 반복되는 설명, 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능, 및 구성에 대한 상세한 설명은 생략한다. 본 발명의 실시형태는 당 업계에서 평균적인 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위해서 제공되는 것이다. 따라서, 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.The present invention will be described in detail with reference to the attached drawings as follows. Here, repeated descriptions, known functions that may unnecessarily obscure the gist of the present invention, and detailed descriptions of configurations are omitted. Embodiments of the present invention are provided to more completely explain the present invention to those skilled in the art. Accordingly, the shapes and sizes of elements in the drawings may be exaggerated for clearer explanation.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part “includes” a certain element, this means that it may further include other elements rather than excluding other elements, unless specifically stated to the contrary.

이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the attached drawings.

도 1은 본 발명의 일실시예에 따른 이미지 프로세싱을 이용한 3차원 모델 복원 방법을 나타낸 동작흐름도이다.Figure 1 is an operation flowchart showing a 3D model restoration method using image processing according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일실시예에 따른 이미지 프로세싱을 이용한 3차원 모델 복원 방법은 포인트 클라우드를 생성할 수 있다(S110).Referring to FIG. 1, the 3D model restoration method using image processing according to an embodiment of the present invention can generate a point cloud (S110).

즉, 단계(S110)는 3차원 모델을 복원할 객체를 촬영한 이미지를 입력 받아 상기 이미지의 특징점을 검색하여 포인트 클라우드(Point Cloud)를 생성할 수 있다.That is, in step S110, a point cloud can be generated by receiving an image of an object for which a 3D model is to be restored and searching for feature points of the image.

이미지 수집은 드론 촬영, 항공 촬영 등 다양한 방법을 이용하여 3차원 모델을 복원할 객체를 촬영할 수 있다.Image collection can be done using a variety of methods, such as drone photography and aerial photography, to photograph objects to restore a 3D model.

복원할 객체는 3차원 모델로 복원할 지도, 지형, 지물, 건물 등에 상응할 수 있다.Objects to be restored may correspond to maps, terrain, features, buildings, etc. to be restored as 3D models.

이 때, 단계(S110)는 카메라 트래킹 기법을 이용하여 상기 이미지에서 특징점을 검색할 수 있다.At this time, step S110 can search for feature points in the image using a camera tracking technique.

이 때, 단계(S110)는 검색된 특징점들을 이용하여 포인트 클라우드(Point Cloud)를 생성할 수 있다.At this time, step S110 may generate a point cloud using the searched feature points.

이 때, 생성된 포인트 클라우드는 수만 개에서 수백만 개의 포인트들을 포함할 수 있다.At this time, the generated point cloud may include tens of thousands to millions of points.

이 때, 단계(S110)는 포인트 클라우드의 정확도와 신뢰도를 향상시키기 위하여 포인트(Point)들에 대한 가중치 설정한 가중치 정보를 생성할 수 있다.At this time, step S110 may generate weight information that sets weights for points in order to improve the accuracy and reliability of the point cloud.

또한, 본 발명의 일실시예에 따른 이미지 프로세싱을 이용한 3차원 모델 복원 방법은 포인트를 정제할 수 있다(S120).Additionally, the 3D model restoration method using image processing according to an embodiment of the present invention can refine points (S120).

즉, 단계(S120)는 이미지 프로세싱 알고리즘을 이용하여 상기 포인트 클라우드를 정제할 수 있다.That is, step S120 may refine the point cloud using an image processing algorithm.

단계(S120)는 먼저 엣지 디텍션(Edge Detection)에 기반하여 포인트를 수정할 수 있다(S121).Step (S120) can first modify the point based on edge detection (S121).

즉, 단계(S121)는 이미지에서 윤곽선(Edge)을 추출할 수 있다.That is, step S121 can extract an edge from the image.

이 때, 단계(S121)는 추출한 윤곽선에 상응하는 포인트를 정제할 수 있다.At this time, step S121 may refine the points corresponding to the extracted contour.

이 때, 단계(S121)는 정제된 포인트에 가중치를 설정하여 포인트가 삭제되지 않게 설정할 수 있다.At this time, step S121 can set a weight to the refined point to prevent the point from being deleted.

예를 들어, 단계(S121)는 3차원 지형 모델의 경우, 윤곽선을 삭제하지 못하게 설정하면, 최종 생성된 3차원 지형 모델에서 건물 단위 또는 지물 단위로 대상을 윤곽선을 통해 구분할 수 있다.For example, in step S121, in the case of a 3D terrain model, if the outline is set to not be deleted, the object can be distinguished on a building or feature basis through the outline in the final generated 3D terrain model.

실제로 포인트 클라우드는 중복되는 포인트가 많고, 노이즈로 보이는 포인트도 많은 부문을 포함하고 있다.In reality, the point cloud contains many overlapping points and includes many points that appear to be noise.

따라서, 단계(S121)는 이미지에서 윤곽선(Edge)을 추출한 후, 윤곽선을 기준으로 포인트를 정제하여 그룹핑할 수도 있다.Therefore, in step S121, after extracting the outline (edge) from the image, points may be refined and grouped based on the outline.

이 때, 단계(S121)는 윤곽선을 살짝 벗어나는 포인트를 윤곽선의 위치로 이동시켜 보정하는 것으로, 메쉬 생성에 있어서 3차원 모델의 윤곽선이 더 잘 드러날 수 있다.At this time, step S121 is to correct points that slightly deviate from the outline by moving them to the position of the outline, so that the outline of the three-dimensional model can be better revealed when creating a mesh.

또한, 단계(S120)는 컬러 세그먼트에 기반하여 포인트를 수정할 수 있다(S122).Additionally, step S120 may modify the point based on the color segment (S122).

즉, 단계(S122)는 컬러 세그먼트(Color Segmentation)에 기반하여 이미지의 영역을 구분하고, 영역 내의 포인트보다 영역을 구분하는 포인트에 더 많은 가중치를 설정하여 가중치 정보를 생성할 수 있다.That is, in step S122, weight information can be generated by dividing the image area based on color segmentation and setting more weight to the points that separate the area than to the points within the area.

이 때, 단계(S122)는 칼라 RGB 값에 기반하여 이미지의 영역을 구분할 수 있다.At this time, step S122 may distinguish areas of the image based on color RGB values.

예를 들어, 단계(S122)는 3차원 지형 모델 생성에 있어서, 수목과 건물 등을 구분하거나 건물과 건물을 구분할 때 컬러 세그먼트 기법을 사용할 수 있다.For example, in step S122, a color segment technique can be used to distinguish between trees and buildings or between buildings when creating a 3D terrain model.

또한, 단계(S120)는 수정된 포인트들을 그룹핑 할 수 있다(S123).Additionally, step S120 may group the modified points (S123).

즉, 단계(S123)는 엣지 디텍션 기법과 컬러 세그먼트 기법에 의해 가중치가 설정된 포인트와, 가중치가 설정되지 않은 포인트를 각각 그룹핑할 수 있다.That is, step S123 can group points for which weights are set and points for which weights are not set by the edge detection technique and the color segment technique, respectively.

이 때, 단계(S123)는 포인트에 레벨을 설정하여 3차원 모델을 생성하고자 할 때, 가중치가 낮은 포인트는 생략할 수 있다.At this time, when attempting to create a 3D model by setting levels at points in step S123, points with low weights can be omitted.

또한, 본 발명의 일실시예에 따른 이미지 프로세싱을 이용한 3차원 모델 복원 방법은 메쉬를 생성할 수 있다(S130).Additionally, the 3D model restoration method using image processing according to an embodiment of the present invention can generate a mesh (S130).

즉, 단계(S130)는 상기 정제된 포인트 클라우드를 이용하여 3차원 메쉬를 생성할 수 있다.That is, step S130 can generate a 3D mesh using the refined point cloud.

또한, 본 발명의 일실시예에 따른 이미지 프로세싱을 이용한 3차원 모델 복원 방법은 텍스처를 생성할 수 있다(S140).Additionally, the 3D model restoration method using image processing according to an embodiment of the present invention can generate a texture (S140).

즉, 단계(S140)는 상기 3차원 메쉬를 이용하여 생성된 3차원 텍스처를 상기 이미지에 매핑하여 상기 3차원 모델을 복원할 수 있다.That is, in step S140, the 3D model can be restored by mapping the 3D texture generated using the 3D mesh to the image.

이렇게 생성된 3차원 모델은 어플리케이션에 따라서 3차원 지형 모델 등으로 가시화 될 수 있다.The 3D model created in this way can be visualized as a 3D terrain model, etc. depending on the application.

도 2는 도 1에 도시된 포인트 정제 단계의 일 예를 세부적으로 나타낸 동작흐름도이다.FIG. 2 is a detailed operational flowchart illustrating an example of the point refining step shown in FIG. 1.

도 2를 참조하면, 단계(S120)는 먼저 엣지 디텍션(Edge Detection)에 기반하여 포인트를 수정할 수 있다(S121).Referring to FIG. 2, in step S120, the point may first be modified based on edge detection (S121).

즉, 단계(S121)는 이미지에서 윤곽선(Edge)을 추출할 수 있다.That is, step S121 can extract an edge from the image.

이 때, 단계(S121)는 추출한 윤곽선에 상응하는 포인트를 정제할 수 있다.At this time, step S121 may refine the points corresponding to the extracted contour.

이 때, 단계(S121)는 정제된 포인트에 가중치를 설정하여 포인트가 삭제되지 않게 설정할 수 있다.At this time, step S121 can set a weight to the refined point to prevent the point from being deleted.

예를 들어, 단계(S121)는 3차원 지형 모델의 경우, 윤곽선을 삭제하지 못하게 설정하면, 최종 생성된 3차원 지형 모델에서 건물 단위 또는 지물 단위로 대상을 윤곽선을 통해 구분할 수 있다.For example, in step S121, in the case of a 3D terrain model, if the outline is set to not be deleted, the object can be distinguished on a building or feature basis through the outline in the final generated 3D terrain model.

실제로 포인트 클라우드는 중복되는 포인트가 많고, 노이즈로 보이는 포인트도 많은 부문을 포함하고 있다.In reality, the point cloud contains many overlapping points and includes many points that appear to be noise.

따라서, 단계(S121)는 이미지에서 윤곽선(Edge)을 추출한 후, 윤곽선을 기준으로 포인트를 정제하여 그룹핑할 수도 있다.Therefore, in step S121, after extracting the outline (edge) from the image, points may be refined and grouped based on the outline.

이 때, 단계(S121)는 윤곽선을 살짝 벗어나는 포인트를 윤곽선의 위치로 이동시켜 보정하는 것으로, 메쉬 생성에 있어서 3차원 모델의 윤곽선이 더 잘 드러날 수 있다.At this time, step S121 is to correct points that slightly deviate from the outline by moving them to the position of the outline, so that the outline of the three-dimensional model can be better revealed when creating a mesh.

또한, 단계(S120)는 컬러 세그먼트에 기반하여 포인트를 수정할 수 있다(S122).Additionally, step S120 may modify the point based on the color segment (S122).

즉, 단계(S122)는 컬러 세그먼트(Color Segmentation)에 기반하여 이미지의 영역을 구분하고, 영역 내의 포인트보다 영역을 구분하는 포인트에 더 많은 가중치를 설정하여 가중치 정보를 생성할 수 있다.That is, in step S122, weight information can be generated by dividing the image area based on color segmentation and setting more weight to the points that separate the area than to the points within the area.

이 때, 단계(S122)는 칼라 RGB 값에 기반하여 이미지의 영역을 구분할 수 있다.At this time, step S122 may distinguish areas of the image based on color RGB values.

예를 들어, 단계(S122)는 3차원 지형 모델 생성에 있어서, 수목과 건물 등을 구분하거나 건물과 건물을 구분할 때 컬러 세그먼트 기법을 사용할 수 있다.For example, in step S122, a color segment technique can be used to distinguish between trees and buildings or between buildings when creating a 3D terrain model.

또한, 단계(S120)는 수정된 포인트들을 그룹핑 할 수 있다(S123).Additionally, step S120 may group the modified points (S123).

즉, 단계(S123)는 엣지 디텍션 기법과 컬러 세그먼트 기법에 의해 가중치가 설정된 포인트와, 가중치가 설정되지 않은 포인트를 각각 그룹핑할 수 있다.That is, step S123 can group points for which weights are set and points for which weights are not set by the edge detection technique and the color segment technique, respectively.

이 때, 단계(S123)는 포인트에 레벨을 설정하여 3차원 모델을 생성하고자 할 때, 가중치가 낮은 포인트는 생략할 수 있다.At this time, when attempting to create a 3D model by setting levels at points in step S123, points with low weights can be omitted.

도 3은 본 발명의 일실시예에 따른 포인트 클라우드(Point Cloud)를 나타낸 도면이다.Figure 3 is a diagram showing a point cloud according to an embodiment of the present invention.

도 3을 참조하면, 본 발명의 일실시예에 따라 생성된 포인트 클라우드를 나타낸 것을 알 수 있다.Referring to Figure 3, it can be seen that a point cloud generated according to an embodiment of the present invention is shown.

도 3에 도시된 포인트 클라우드는 적게는 수 만개에서 많게는 수백만 개 이상의 포인트를 포함하는 것을 알 수 있다.It can be seen that the point cloud shown in FIG. 3 includes from tens of thousands to millions of points.

도 4는 본 발명의 일실시예에 따른 노이즈가 포함된 포인트 클라우드를 나타낸 도면이다.Figure 4 is a diagram showing a point cloud including noise according to an embodiment of the present invention.

도 4를 참조하면, 본 발명의 일실시예에 따른 노이즈가 포함된 포인트 클라우드가 생성된 것을 알 수 있다.Referring to FIG. 4, it can be seen that a point cloud containing noise has been created according to an embodiment of the present invention.

따라서, 본 발명에서는 엣지 디텍션 기법을 이용하여 포인트를 수정하여 포인트를 정제하고 메쉬를 생성할 때 윤곽선이 더 잘 드러날 수 있도록 3차원 모델을 생성할 수 있다.Therefore, in the present invention, a 3D model can be created so that the outline can be better revealed when refining the points and creating a mesh by modifying the points using an edge detection technique.

도 5는 본 발명의 일실시예에 따른 엣지 디텍션을 이용하여 포인트를 정제하는 과정을 나타낸 도면이다.Figure 5 is a diagram showing the process of refining points using edge detection according to an embodiment of the present invention.

도 5를 참조하면, 본 발명의 일실시예에 따른 엣지 디텍션 기법을 이용하여 윤곽선(Edge)을 중심에서 벗어난 포인트들을 윤곽선의 위치로 이동시키는 것을 알 수 있다.Referring to FIG. 5, it can be seen that points that deviate from the center of the outline (Edge) are moved to the position of the outline using an edge detection technique according to an embodiment of the present invention.

따라서, 윤곽선의 위치로 포인트들이 이동되기 때문에, 윤곽선이 더 잘 드러나게 되는 것을 알 수 있다.Therefore, since the points are moved to the position of the outline, it can be seen that the outline becomes more visible.

도 6은 본 발명의 일실시예에 따른 컬러 세그먼트를 수행하여 포인트가 구분된 것을 나타낸 도면이다.Figure 6 is a diagram showing points being divided by performing color segmentation according to an embodiment of the present invention.

도 6을 참조하면, 본 발명의 일실시예에 따른 컬러 세그먼트 기법을 이용하여 컬러 RGB에 기반하여 이미지의 영역이 구분된 것을 알 수 있다.Referring to FIG. 6, it can be seen that the image area is divided based on color RGB using the color segment technique according to an embodiment of the present invention.

도 7은 본 발명의 일실시예에 따른 이미지 프로세싱을 이용한 3차원 모델 복원 장치를 나타낸 블록도이다.Figure 7 is a block diagram showing a 3D model restoration device using image processing according to an embodiment of the present invention.

도 7을 참조하면, 본 발명의 일실시예에 따른 이미지 프로세싱을 이용한 3차원 모델 복원 장치는 포인트 클라우드 생성부(210), 포인트 정제부(220) 및 3차원 모델 생성부(230)를 포함한다.Referring to FIG. 7, the 3D model restoration device using image processing according to an embodiment of the present invention includes a point cloud generator 210, a point refinement unit 220, and a 3D model generator 230. .

포인트 클라우드 생성부(210)는 3차원 모델을 복원할 객체를 촬영한 이미지를 입력 받아 상기 이미지의 특징점을 검색하여 포인트 클라우드(Point Cloud)를 생성할 수 있다.The point cloud generator 210 may receive an image of an object for which a 3D model is to be restored and search for feature points of the image to generate a point cloud.

이미지 수집은 드론 촬영, 항공 촬영 등 다양한 방법을 이용하여 3차원 모델을 복원할 객체를 촬영할 수 있다.Image collection can be done using a variety of methods, such as drone photography and aerial photography, to photograph objects to restore a 3D model.

복원할 객체는 3차원 모델로 복원할 지도, 지형, 지물, 건물 등에 상응할 수 있다.Objects to be restored may correspond to maps, terrain, features, buildings, etc. to be restored as 3D models.

이 때, 포인트 클라우드 생성부(210)는 카메라 트래킹 기법을 이용하여 상기 이미지에서 특징점을 검색할 수 있다.At this time, the point cloud generator 210 may search for feature points in the image using a camera tracking technique.

이 때, 포인트 클라우드 생성부(210)는 검색된 특징점들을 이용하여 포인트 클라우드(Point Cloud)를 생성할 수 있다.At this time, the point cloud generator 210 may generate a point cloud using the searched feature points.

이 때, 생성된 포인트 클라우드는 수만 개에서 수백만 개의 포인트들을 포함할 수 있다.At this time, the generated point cloud may include tens of thousands to millions of points.

이 때, 포인트 클라우드 생성부(210)는 포인트 클라우드의 정확도와 신뢰도를 향상시키기 위하여 포인트(Point)들에 대한 가중치 설정한 가중치 정보를 생성할 수 있다.At this time, the point cloud generator 210 may generate weight information that sets weights for points in order to improve the accuracy and reliability of the point cloud.

포인트 정제부(220)는 이미지 프로세싱 알고리즘을 이용하여 상기 포인트 클라우드를 정제할 수 있다.The point refinement unit 220 may refine the point cloud using an image processing algorithm.

포인트 정제부(220)는 먼저 엣지 디텍션(Edge Detection)에 기반하여 포인트를 수정할 수 있다.The point refinement unit 220 may first modify the point based on edge detection.

즉, 포인트 정제부(220)는 이미지에서 윤곽선(Edge)을 추출할 수 있다.That is, the point refinement unit 220 can extract an outline (edge) from the image.

이 때, 포인트 정제부(220)는 추출한 윤곽선에 상응하는 포인트를 정제할 수 있다.At this time, the point refinement unit 220 may refine the points corresponding to the extracted outline.

이 때, 포인트 정제부(220)는 정제된 포인트에 가중치를 설정하여 포인트가 삭제되지 않게 설정할 수 있다.At this time, the point refinement unit 220 can set a weight to the refined point to prevent the point from being deleted.

예를 들어, 포인트 정제부(220)는 3차원 지형 모델의 경우, 윤곽선을 삭제하지 못하게 설정하면, 최종 생성된 3차원 지형 모델에서 건물 단위 또는 지물 단위로 대상을 윤곽선을 통해 구분할 수 있다.For example, if the point refiner 220 is set to prevent deleting outlines in the case of a 3D terrain model, the object can be distinguished on a building or feature basis through the outline in the final generated 3D terrain model.

실제로 포인트 클라우드는 중복되는 포인트가 많고, 노이즈로 보이는 포인트도 많은 부문을 포함하고 있다.In reality, the point cloud contains many overlapping points and includes many points that appear to be noise.

따라서, 포인트 정제부(220)는 이미지에서 윤곽선(Edge)을 추출한 후, 윤곽선을 기준으로 포인트를 정제하여 그룹핑할 수도 있다.Accordingly, the point refiner 220 may extract an edge from the image and then refine and group the points based on the outline.

이 때, 포인트 정제부(220)는 윤곽선을 살짝 벗어나는 포인트를 윤곽선의 위치로 이동시켜 보정하는 것으로, 메쉬 생성에 있어서 3차원 모델의 윤곽선이 더 잘 드러날 수 있다.At this time, the point refinement unit 220 corrects points that slightly deviate from the outline by moving them to the position of the outline, so that the outline of the 3D model can be better revealed when creating a mesh.

또한, 포인트 정제부(220)는 컬러 세그먼트(Color Segmentation)에 기반하여 이미지의 영역을 구분하고, 영역 내의 포인트보다 영역을 구분하는 포인트에 더 많은 가중치를 설정하여 가중치 정보를 생성할 수 있다.Additionally, the point refiner 220 may divide an area of the image based on color segmentation and generate weight information by setting more weight to the points that separate the area than to the points within the area.

이 때, 포인트 정제부(220)는 칼라 RGB 값에 기반하여 이미지의 영역을 구분할 수 있다.At this time, the point refinement unit 220 may distinguish areas of the image based on color RGB values.

예를 들어, 포인트 정제부(220)는 3차원 지형 모델 생성에 있어서, 수목과 건물 등을 구분하거나 건물과 건물을 구분할 때 컬러 세그먼트 기법을 사용할 수 있다.For example, the point refinement unit 220 may use a color segment technique to distinguish between trees and buildings or between buildings when creating a 3D terrain model.

또한, 포인트 정제부(220)는 엣지 디텍션 기법과 컬러 세그먼트 기법에 의해 가중치가 설정된 포인트와, 가중치가 설정되지 않은 포인트를 각각 그룹핑할 수 있다.Additionally, the point refinement unit 220 may group points for which weights are set and points for which no weights are set using an edge detection technique and a color segment technique, respectively.

이 때, 포인트 정제부(220)는 포인트에 레벨을 설정하여 3차원 모델을 생성하고자 할 때, 가중치가 낮은 포인트는 생략할 수 있다.At this time, when the point refiner 220 wants to create a 3D model by setting levels to points, points with low weights can be omitted.

3차원 모델 생성부(230)는 상기 정제된 포인트 클라우드를 이용하여 3차원 메쉬를 생성할 수 있다.The 3D model generator 230 may generate a 3D mesh using the refined point cloud.

이 때, 3차원 모델 생성부(230)는 상기 3차원 메쉬를 이용하여 생성된 3차원 텍스처를 상기 이미지에 매핑하여 상기 3차원 모델을 복원할 수 있다.At this time, the 3D model generator 230 may map the 3D texture generated using the 3D mesh to the image to restore the 3D model.

이렇게 생성된 3차원 모델은 어플리케이션에 따라서 3차원 지형 모델 등으로 가시화 될 수 있다.The 3D model created in this way can be visualized as a 3D terrain model, etc. depending on the application.

도 8은 본 발명의 일실시예에 따른 컴퓨터 시스템을 나타낸 블록도이다.Figure 8 is a block diagram showing a computer system according to an embodiment of the present invention.

도 8을 참조하면, 본 발명의 실시예는 컴퓨터로 읽을 수 있는 기록매체와 같은 컴퓨터 시스템(1100)에서 구현될 수 있다. 도 8에 도시된 바와 같이, 컴퓨터 시스템(1100)은 버스(1120)를 통하여 서로 통신하는 하나 이상의 프로세서(1110), 메모리(1130), 사용자 인터페이스 입력 장치(1140), 사용자 인터페이스 출력 장치(1150) 및 스토리지(1160)를 포함할 수 있다. 또한, 컴퓨터 시스템(1100)은 네트워크(1180)에 연결되는 네트워크 인터페이스(1170)를 더 포함할 수 있다. 프로세서(1110)는 중앙 처리 장치 또는 메모리(1130)나 스토리지(1160)에 저장된 프로세싱 인스트럭션들을 실행하는 반도체 장치일 수 있다. 메모리(1130) 및 스토리지(1160)는 다양한 형태의 휘발성 또는 비휘발성 저장 매체일 수 있다. 예를 들어, 메모리는 ROM(1131)이나 RAM(1132)을 포함할 수 있다.Referring to FIG. 8, embodiments of the present invention may be implemented in a computer system 1100 such as a computer-readable recording medium. As shown in FIG. 8, the computer system 1100 includes one or more processors 1110, a memory 1130, a user interface input device 1140, and a user interface output device 1150 that communicate with each other through a bus 1120. and storage 1160. Additionally, the computer system 1100 may further include a network interface 1170 connected to the network 1180. The processor 1110 may be a central processing unit or a semiconductor device that executes processing instructions stored in the memory 1130 or storage 1160. Memory 1130 and storage 1160 may be various types of volatile or non-volatile storage media. For example, memory may include ROM 1131 or RAM 1132.

이상에서와 같이 본 발명에 따른 이미지 프로세싱을 이용한 3차원 모델 복원 장치 및 방법은 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.As described above, the 3D model restoration device and method using image processing according to the present invention is not limited to the configuration and method of the embodiments described above, and the embodiments can be modified in various ways. All or part of each embodiment may be configured by selectively combining them.

210: 포인트 클라우드 생성부
220: 포인트 정제부
230: 3차원 모델 생성부
1100: 컴퓨터 시스템 1110: 프로세서
1120: 버스 1130: 메모리
1131: 롬 1132: 램
1140: 사용자 인터페이스 입력 장치
1150: 사용자 인터페이스 출력 장치
1160: 스토리지 1170: 네트워크 인터페이스
1180: 네트워크
210: Point cloud generation unit
220: Point purification unit
230: 3D model creation unit
1100: computer system 1110: processor
1120: Bus 1130: Memory
1131: Romans 1132: Ram
1140: User interface input device
1150: User interface output device
1160: Storage 1170: Network Interface
1180: network

Claims (10)

이미지 프로세싱을 이용한 3차원 모델 복원 장치의 3차원 모델 복원 방법에 있어서,
3차원 모델을 복원할 객체를 촬영한 이미지를 입력 받아 상기 이미지의 특징점을 검색하여 포인트 클라우드(Point Cloud)를 생성하는 단계;
이미지 프로세싱 알고리즘을 이용하여 상기 포인트 클라우드를 정제하는 단계;
상기 정제된 포인트 클라우드를 이용하여 3차원 메쉬를 생성하는 단계; 및
상기 3차원 메쉬를 이용하여 생성된 3차원 텍스처를 상기 이미지에 매핑하여 상기 3차원 모델을 복원하는 단계;
를 포함하고,
상기 포인트 클라우드를 생성하는 단계는
상기 포인트 클라우드의 포인트(Point)들에 대한 가중치 설정한 가중치 정보를 생성하고,
상기 포인트 클라우드를 정제하는 단계는
기설정된 엣지 디텍션 기법에 기반하여 상기 이미지에서 윤곽선(Edge)을 추출한 후, 윤곽선을 기준으로 상기 포인트들을 정제하여 그룹핑 하고,
기설정된 컬러 세그먼트(Color Segmentation)에 기반하여 이미지의 영역을 구분하고, 상기 이미지의 영역 내의 포인트보다 영역 사이를 구분하는 포인트에 더 많은 가중치를 설정하여 가중치 정보를 생성하고,
상기 기설정된 엣지 디텍션 기법과 상기 기설정된 컬러 세그먼트 기법에 의해 가중치가 설정된 포인트와, 가중치가 설정되지 않은 포인트를 각각 그룹핑하는 것을 특징으로 하는 이미지 프로세싱을 이용한 3차원 모델 복원 방법.
In a 3D model restoration method of a 3D model restoration device using image processing,
Receiving an image of an object for which a three-dimensional model is to be restored and searching for feature points of the image to generate a point cloud;
refining the point cloud using an image processing algorithm;
Generating a 3D mesh using the refined point cloud; and
Restoring the 3D model by mapping a 3D texture generated using the 3D mesh to the image;
Including,
The step of generating the point cloud is
Generate weight information that sets weights for the points of the point cloud,
The step of refining the point cloud is
After extracting the edge from the image based on a preset edge detection technique, the points are refined and grouped based on the outline,
The areas of the image are divided based on preset color segments, and weight information is generated by setting more weight to the points that distinguish between areas than to the points within the area of the image,
A 3D model restoration method using image processing, comprising grouping points for which weights are set and points for which weights are not set by the preset edge detection technique and the preset color segment technique, respectively.
삭제delete 삭제delete 삭제delete 삭제delete 3차원 모델을 복원할 객체를 촬영한 이미지를 입력 받아 상기 이미지의 특징점을 검색하여 포인트 클라우드(Point Cloud)를 생성하는 포인트 클라우드 생성부;
이미지 프로세싱 알고리즘을 이용하여 상기 포인트 클라우드를 정제하는 포인트 정제부; 및
상기 정제된 포인트 클라우드를 이용하여 3차원 메쉬를 생성하고, 상기 3차원 메쉬를 이용하여 생성된 3차원 텍스처를 상기 이미지에 매핑하여 상기 3차원 모델을 복원하는 3차원 모델 생성부;
를 포함하고,
상기 포인트 클라우드 생성부는
상기 포인트 클라우드의 포인트(Point)들에 대한 가중치 설정한 가중치 정보를 생성하고,
상기 포인트 정제부는
기설정된 엣지 디텍션 기법에 기반하여 상기 이미지에서 윤곽선(Edge)을 추출한 후, 윤곽선을 기준으로 상기 포인트들을 정제하여 그룹핑 하고,
기설정된 컬러 세그먼트(Color Segmentation)에 기반하여 이미지의 영역을 구분하고, 상기 이미지의 영역 내의 포인트보다 영역 사이를 구분하는 포인트에 더 많은 가중치를 설정하여 가중치 정보를 생성하고,
상기 기설정된 엣지 디텍션 기법과 상기 기설정된 컬러 세그먼트 기법에 의해 가중치가 설정된 포인트와, 가중치가 설정되지 않은 포인트를 각각 그룹핑하는 것을 특징으로 하는 이미지 프로세싱을 이용한 3차원 모델 복원 장치.
A point cloud generator that receives an image of an object for which a three-dimensional model is to be restored, searches for feature points in the image, and generates a point cloud.
a point refinement unit that refines the point cloud using an image processing algorithm; and
a 3D model generator that generates a 3D mesh using the refined point cloud and maps a 3D texture generated using the 3D mesh to the image to restore the 3D model;
Including,
The point cloud generator
Generate weight information that sets weights for the points of the point cloud,
The point purification unit
After extracting the edge from the image based on a preset edge detection technique, the points are refined and grouped based on the outline,
The areas of the image are divided based on preset color segments, and weight information is generated by setting more weight to the points that distinguish between areas than to the points within the area of the image,
A 3D model restoration device using image processing, characterized in that it groups points for which weights are set and points for which weights are not set by the preset edge detection technique and the preset color segment technique, respectively.
삭제delete 삭제delete 삭제delete 삭제delete
KR1020160169346A 2016-12-13 2016-12-13 Apparatus and method for restoring 3d-model using the image-processing KR102633159B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160169346A KR102633159B1 (en) 2016-12-13 2016-12-13 Apparatus and method for restoring 3d-model using the image-processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160169346A KR102633159B1 (en) 2016-12-13 2016-12-13 Apparatus and method for restoring 3d-model using the image-processing

Publications (2)

Publication Number Publication Date
KR20180067914A KR20180067914A (en) 2018-06-21
KR102633159B1 true KR102633159B1 (en) 2024-02-05

Family

ID=62806618

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160169346A KR102633159B1 (en) 2016-12-13 2016-12-13 Apparatus and method for restoring 3d-model using the image-processing

Country Status (1)

Country Link
KR (1) KR102633159B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102210344B1 (en) * 2020-07-09 2021-02-01 주식회사 우리아이씨티 Method for producing digital topography using 3D precision scanner-based field survey and complementary survey
KR102533985B1 (en) 2021-05-21 2023-05-17 한국항공대학교산학협력단 System and method for restoration of point cloud

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101841668B1 (en) * 2012-02-15 2018-03-27 한국전자통신연구원 Apparatus and method for producing 3D model
KR20150089663A (en) * 2014-01-28 2015-08-05 한국전자통신연구원 Device for multi-shape primitives fitting of 3D point clouds using graph-based segmentation and method thereof
CN105844582B (en) * 2015-01-15 2019-08-20 北京三星通信技术研究有限公司 The register method and device of 3D rendering data

Also Published As

Publication number Publication date
KR20180067914A (en) 2018-06-21

Similar Documents

Publication Publication Date Title
US10685201B2 (en) Method and system for recognizing location information in two-dimensional code
CN109816762B (en) Image rendering method and device, electronic equipment and storage medium
KR102033262B1 (en) Canonical reconstruction method, apparatus, terminal device and storage medium
EP3279803B1 (en) Picture display method and device
US8718356B2 (en) Method and apparatus for 2D to 3D conversion using scene classification and face detection
CN108124489B (en) Information processing method, apparatus, cloud processing device and computer program product
US20230252664A1 (en) Image Registration Method and Apparatus, Electronic Apparatus, and Storage Medium
US9047706B1 (en) Aligning digital 3D models using synthetic images
US20170272724A1 (en) Apparatus and method for multi-view stereo
CN107369204B (en) Method for recovering basic three-dimensional structure of scene from single photo
CN107392958A (en) A kind of method and device that object volume is determined based on binocular stereo camera
JP2013186902A (en) Vehicle detection method and apparatus
KR101593316B1 (en) Method and apparatus for recontructing 3-dimension model using stereo camera
WO2024077935A1 (en) Visual-slam-based vehicle positioning method and apparatus
CN110930503A (en) Method and system for establishing three-dimensional model of clothing, storage medium and electronic equipment
KR102633159B1 (en) Apparatus and method for restoring 3d-model using the image-processing
CN110443228B (en) Pedestrian matching method and device, electronic equipment and storage medium
CN117274605B (en) Method and device for extracting water area outline from photo shot by unmanned aerial vehicle
KR102144198B1 (en) Method and system for re-sampling of point cloud using voronoi tessellation and k-nearest neighbor algorithm
CN112132845B (en) Method, device, electronic equipment and readable medium for singulating three-dimensional model
CN116051980B (en) Building identification method, system, electronic equipment and medium based on oblique photography
JP5769248B2 (en) Stereo matching processing device, stereo matching processing method, and program
KR102240570B1 (en) Method and apparatus for generating spanning tree,method and apparatus for stereo matching,method and apparatus for up-sampling,and method and apparatus for generating reference pixel
CN111369612A (en) Three-dimensional point cloud image generation method and equipment
KR20190029842A (en) Three-Dimensional Restoration Cloud Point Creation Method Using GPU Accelerated Computing

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant