KR101869605B1 - Three-Dimensional Space Modeling and Data Lightening Method using the Plane Information - Google Patents

Three-Dimensional Space Modeling and Data Lightening Method using the Plane Information Download PDF

Info

Publication number
KR101869605B1
KR101869605B1 KR1020160125312A KR20160125312A KR101869605B1 KR 101869605 B1 KR101869605 B1 KR 101869605B1 KR 1020160125312 A KR1020160125312 A KR 1020160125312A KR 20160125312 A KR20160125312 A KR 20160125312A KR 101869605 B1 KR101869605 B1 KR 101869605B1
Authority
KR
South Korea
Prior art keywords
plane
dimensional space
information
planes
space modeling
Prior art date
Application number
KR1020160125312A
Other languages
Korean (ko)
Other versions
KR20180035359A (en
Inventor
윤주홍
황영배
김정호
Original Assignee
전자부품연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전자부품연구원 filed Critical 전자부품연구원
Priority to KR1020160125312A priority Critical patent/KR101869605B1/en
Publication of KR20180035359A publication Critical patent/KR20180035359A/en
Application granted granted Critical
Publication of KR101869605B1 publication Critical patent/KR101869605B1/en

Links

Images

Classifications

    • G06F17/30061
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/44Browsing; Visualisation therefor
    • G06F16/444Spatial browsing, e.g. 2D maps, 3D or virtual spaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/564Depth or shape recovery from multiple images from contours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

평면정보를 이용한 3차원 공간 모델링 및 데이터 경량화 방법이 제공된다. 본 발명의 실시예에 따른 3차원 공간 모델링 방법은, 컬러 영상과 깊이 영상을 획득하고, 깊이 영상을 이용하여 평면을 추정한 후, 컬러 영상, 깊이 영상 및 평면 정보를 이용하여 3차원 공간 정보를 생성한다. 이에 의해, 평면의 구조정보를 활용하여 공간 복원 에러를 최소화 하므로, 대규모 3차원 공간 복원 기술이 핵심인 건물의 실내 3차원 공간정보 구축이 가능하다.Dimensional space modeling and data weighting method using plane information is provided. A three-dimensional space modeling method according to an embodiment of the present invention acquires a color image and a depth image, estimates a plane using the depth image, and then calculates three-dimensional spatial information using a color image, a depth image, . Thus, spatial reconstruction error is minimized by utilizing the structural information of the planar surface, so that it is possible to construct indoor three-dimensional spatial information of a building in which a large-scale three-dimensional space restoration technology is a key.

Figure R1020160125312
Figure R1020160125312

Description

평면정보를 이용한 3차원 공간 모델링 및 데이터 경량화 방법{Three-Dimensional Space Modeling and Data Lightening Method using the Plane Information}TECHNICAL FIELD [0001] The present invention relates to a three-dimensional space modeling method and data lightening method using planar information,

본 발명은 3차원 영상 기술에 관한 것으로, 더욱 상세하게는 3차원 공간을 모델링 하고 데이터를 경량화 하는 방법 및 시스템에 관한 것이다.The present invention relates to a three-dimensional imaging technique, and more particularly, to a method and system for modeling a three-dimensional space and lightening data.

건물의 대형화/고층화로 인한 복잡도가 증가함에 따라 실내 위치정보의 중요성이 증가하고 있으며, 구난/구재, 방범 등의 목적으로 이동 객체에 대한 위치추적, CCTV 확산 등 기존의 텍스트 기반 또는 2차원 도면 기반의 지리정보로는 복잡한 위치정보의 표현이 어려운 만큼 이를 보완할 수 있는 실내외의 3차원 공간정보 구축이 중요하다. The importance of indoor location information is increasing due to the increase in complexity due to the enlargement of the building and the increase in the number of buildings. Also, the existing text-based or 2D-based drawing such as location tracking of moving objects and CCTV diffusion for rescue / It is difficult to express complex geographical information. Therefore, it is important to construct indoor and outdoor 3D spatial information that can complement the geographical information.

기존에는 주로 항공사진이나 항공라이다 데이터를 활용하여 지형과 건물의 외형을 3차원 모델링 하였다면, 최근에는 건물 외형뿐만 아니라 3차원 실내 모델링이 중요하다. 3차원 공간정보 구축을 위해서는 깊이정보 센서(라이다, ToF, 구조광, 스테레오) 데이터를 이용한 3차원 공간 모델링이 핵심 기술인데, 다음과 같은 문제점들이 있다.In the past, 3D modeling of the terrain and the exterior of the building using aerial photographs or aerial data has been important. In recent years, 3D modeling as well as building exterior are important. 3D spatial modeling using depth information sensors (Lada, ToF, structured light, stereo) data is a core technology for constructing 3D spatial information.

1. 누적에러 문제1. Cumulative error problem

정확한 3차원 공간 복원을 위해서는 데이터를 획득하는 센서의 자세를 정확하게 추정하는 것이 매우 중요하다. 하지만, 기존의 SLAM(Simultaneously Localization and Mapping) 방식과 마찬가지로 센서 자세를 추정하는 순간마다 작은 에러가 발생하고 해당 에러는 시간이 지날수록 누적이 되게 된다.It is very important to accurately estimate the attitude of the sensor that acquires the data for accurate three-dimensional spatial restoration. However, as in the conventional SLAM (Simultaneously Localization and Mapping) method, a small error occurs every time the sensor attitude is estimated, and the corresponding error accumulates as time passes.

이런 이유로 하나의 밀폐된 공간을 복원하더라도 도 1 처럼 공간이 어긋나는 일이 발생한다. 이런 문제를 해결하기 위해 전역최적화 방법인 Bundle Adjustment 기법을 적용하지만 도 2에 보여지듯이 누적에러를 최소화 하는데 한계가 있다. For this reason, even if one closed space is restored, the space is shifted as shown in Fig. In order to solve this problem, the bundle adjustment method, which is a global optimization method, is applied, but there is a limit to minimize the cumulative error as shown in FIG.

2. 공간 객체화 문제2. Space objectification problem

3차원 모델링에서 평면정보를 활용하거나 3차원 모델의 경량화를 위해서는 공간정보를 객체화 하는 것이 가장 중요하다. 대부분의 이전 방법들은 하나의 장면이나 제한된 영역에 대해서 구조를 자동객체화 하거나 사용자가 영상마다 입력하여 객체화 하는 방법을 주로 활용하였다. 도 3은 사용자 입력 기반 공간 객체화 결과이다.In order to utilize planar information in 3D modeling or to lighten 3D model, it is most important to objectize spatial information. Most of the previous methods used automatic objectification of structure for one scene or limited area, 3 is a result of user input based spatial objectification.

하지만, 하나의 장면이나 제한된 영역은 대규모 공간의 3차원 공간복원 기술에 적용하기 어려우며 사용자입력 방식은 시간과 인력이 비효율적으로 소모된다는 단점이 있다.However, it is difficult to apply a single scene or a restricted area to a 3D space restoration technique of a large space, and the user input method has a disadvantage that time and manpower are consumed inefficiently.

본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은, 공간의 평면정보를 활용하여 깊이센서(라이다, ToF, 구조광 등) 기반 실내외 3차원 모델링에서 발생하는 센서자세 추정 오차와 복원 누적 오차를 최소화 하며, 3차원 공간을 구성하는 포인트클라우드 (point cloud) 데이터 용량을 경량화 하는 평면정보 기반의 3차원 공간 모델링 방법 및 시스템을 제공함에 있다.SUMMARY OF THE INVENTION The present invention has been conceived to solve the above-mentioned problems, and it is an object of the present invention to provide a sensor attitude Dimensional spatial modeling method and system for minimizing estimation errors and restoration cumulative errors and reducing the point cloud data capacity constituting a three-dimensional space.

상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 3차원 공간 모델링 방법은, 컬러 영상과 깊이 영상을 획득하는 단계; 깊이 영상을 이용하여 평면을 추정하는 단계; 및 컬러 영상, 깊이 영상 및 평면 정보를 이용하여, 3차원 공간 정보를 생성하는 단계;를 포함한다.According to an aspect of the present invention, there is provided a three-dimensional space modeling method comprising: obtaining a color image and a depth image; Estimating a plane using a depth image; And generating three-dimensional spatial information using the color image, the depth image, and the plane information.

그리고, 평면 추정단계는, 깊이 영상으로부터 생성된 노멀벡터(normal vector)값을 이용하여, 평면을 추정할 수 있다.In the plane estimation step, the plane can be estimated using the normal vector value generated from the depth image.

또한, 본 발명의 일 실시예에 따른 3차원 공간 모델링 방법은, 각 프레임에서 독립적으로 추정된 평면들 중 유사 평면들을 융합하는 단계;를 더 포함하고, 3차원 공간 정보 생성단계는, 융합된 평면 정보를 이용하여, 3차원 공간 정보를 생성할 수 있다.According to another aspect of the present invention, there is provided a three-dimensional space modeling method, comprising the steps of: fusing similar planes among independently estimated planes in each frame; Dimensional space information can be generated using the information.

그리고, 유사 평면들은, 평면 간 각도차, 평면 간 거리차 및 평면 간의 겹치는 영역의 유무 중 적어도 하나를 참조하여 결정할 수 있다.Then, the similar planes can be determined with reference to at least one of the angular difference between planes, the difference in the distance between planes, and the presence or absence of overlapping areas between planes.

또한, 융합된 평면의 노멀벡터는 융합된 평면들의 노멀벡터의 평균일 수 있다.Further, the normal vector of the fused plane may be the average of the normal vectors of the fused planes.

그리고, 본 발명의 일 실시예에 따른 3차원 공간 모델링 방법은, 깊이 영상으로부터 영상을 획득하는 센서의 자세를 추정하여, 서로 다른 시점에서 획득한 깊이 영상들을 정렬하는 단계;를 더 포함할 수 있다.The three-dimensional space modeling method according to an embodiment of the present invention may further include estimating a posture of a sensor for acquiring an image from a depth image and aligning depth images acquired at different points of time .

또한, 본 발명의 일 실시예에 따른 3차원 공간 모델링 방법은, 정렬된 깊이 영상들에서 특징점을 추출하여 서술자를 계산하고, 계산된 서술자를 비교하여 유사 장면들을 파악하는 단계;를 더 포함할 수 있다.The 3D spatial modeling method according to an embodiment of the present invention may further include extracting feature points from the aligned depth images, calculating a descriptor, and comparing the calculated descriptors to identify similar scenes have.

그리고, 융합 단계는, 센서의 자세 정보 및 유사 장면 정보 중 적어도 하나를 참조하여, 유사 평면들을 융합할 수 있다.The fusion step may refer to at least one of the attitude information of the sensor and the similar scene information to fuse similar planes.

또한, 본 발명의 일 실시예에 따른 3차원 공간 모델링 방법은, 각도 차가 특정 범위 이내인 평면들이 직교하도록, 3차원 공간 정보를 보정하는 단계;를 더 포함할 수 있다.In addition, the method of three-dimensional space modeling according to an embodiment of the present invention may further include correcting the three-dimensional spatial information so that the planes whose angular differences are within a specific range are orthogonal.

한편, 본 발명의 다른 실시예에 따른, 3차원 공간 모델링 시스템은, 컬러 영상과 깊이 영상을 획득하는 입력부; 및 깊이 영상을 이용하여 평면을 추정하고, 컬러 영상, 깊이 영상 및 평면 정보를 이용하여 3차원 공간 정보를 생성하는 프로세서;를 포함한다.According to another aspect of the present invention, there is provided a three-dimensional space modeling system including: an input unit for obtaining a color image and a depth image; And a processor for estimating a plane using the depth image and generating three-dimensional spatial information using the color image, the depth image, and the plane information.

한편, 본 발명의 다른 실시예에 따른, 3차원 공간 모델링 방법은, 컬러 영상과 깊이 영상을 프레임 단위로 획득하는 단계; 깊이 영상을 비교하여 유사 장면을 파악하는 단계; 깊이 영상을 이용하여 평면을 추정하는 단계; 유사 장면 정보를 참조하여, 각 프레임에서 독립적으로 추정된 평면들 중 유사 평면들을 융합하는 단계; 및 컬러 영상, 깊이 영상 및 융합된 평면 정보를 이용하여, 3차원 공간 정보를 생성하는 단계;를 포함한다.According to another aspect of the present invention, there is provided a three-dimensional space modeling method comprising: obtaining a color image and a depth image on a frame basis; Comparing the depth images to obtain a similar scene; Estimating a plane using a depth image; Referring to similar scene information, fusing similar planes among independently estimated planes in each frame; And generating three-dimensional spatial information using the color image, the depth image, and the fused plane information.

한편, 본 발명의 다른 실시예에 따른, 3차원 공간 모델링 시스템은, 컬러 영상과 깊이 영상을 프레임 단위로 획득하는 입력부; 및 깊이 영상을 비교하여 유사 장면을 파악하고, 깊이 영상을 이용하여 평면을 추정하며, 유사 장면 정보를 참조하여 각 프레임에서 독립적으로 추정된 평면들 중 유사 평면들을 융합하고, 컬러 영상, 깊이 영상 및 융합된 평면 정보를 이용하여 3차원 공간 정보를 생성하는 프로세서;를 포함한다.According to another aspect of the present invention, there is provided a three-dimensional space modeling system including: an input unit for obtaining a color image and a depth image on a frame basis; And the depth image, compares the similar planes among the independently estimated planes in each frame by referring to the similar scene information, estimates the planar image using the depth image, And a processor for generating three-dimensional spatial information using the fused plane information.

이상 설명한 바와 같이, 본 발명의 실시예들에 따르면, 평면의 구조정보를 활용하여 공간 복원 에러를 최소화 하므로, 대규모 3차원 공간 복원 기술이 핵심인 건물의 실내 3차원 공간정보 구축이 가능하다.As described above, according to the embodiments of the present invention, spatial restoration error is minimized by utilizing the structure information of the plane, so that it is possible to construct indoor three-dimensional spatial information of a building in which a large-scale three-dimensional space restoration technology is a key.

또한, 본 발명의 실시예들에 따르면, 사용자 입력 없이 자동적으로 평면 구조를 추정 및 관리가 가능하여 비효율적인 인력소모와 시간소모를 감소시킬 수 있게 된다.In addition, according to the embodiments of the present invention, it is possible to automatically estimate and manage the planar structure without user input, thereby reducing inefficient manpower consumption and time consumption.

아울러, 본 발명의 실시예들에 따르면, 공간의 객체화 정보 기반의 polygon 생성 기술을 활용하여 3차원 공간 모델의 데이터양을 획기적으로 줄일 수 있게 된다.In addition, according to the embodiments of the present invention, the amount of data of the three-dimensional spatial model can be drastically reduced by utilizing the polygon generation technique based on the objectification information of the space.

도 1은 모바일 3차원 공간 복원 결과,
도 2는 Bundle Adjustment 방법을 이용한 3차원 공간 최적화 결과,
도 3은 사용자 입력 기반 공간 객체화 결과,
도 4는 본 발명의 일 실시예에 따른 3차원 공간 모델링 및 데이터 경량화 방법의 설명에 제공되는 흐름도,
도 5는 깊이데이터 기반 센서 자세 추정을 나타낸 도면,
도 6은 장면인식 개념도,
도 7은 노멀벡터 및 노멀 영상을 나타낸 도면,
도 8은 평면 확장 조건을 나타낸 도면,
도 9는 장면인식 기반 평면 확장을 나타낸 도면,
도 10은 평면 구조 기반 3차원 공간 복원 결과, 그리고,
도 11은 본 발명의 다른 실시예에 따른 3차원 공간 모델링 및 데이터 경량화 시스템의 블럭도이다.
1 shows a mobile 3D space restoration result,
2 shows a result of three-dimensional spatial optimization using a bundle adjustment method,
FIG. 3 shows a result of spatial objectification based on user input,
Figure 4 is a flow chart provided in the description of a three-dimensional spatial modeling and data lightening method according to an embodiment of the present invention;
5 illustrates depth data-based sensor attitude estimation,
6 is a conceptual view of a scene recognition,
7 is a diagram showing a normal vector and a normal image,
FIG. 8 is a view showing a planar expansion condition,
9 is a diagram depicting a scene recognition based plane extension,
FIG. 10 is a graph showing the results of three-dimensional spatial restoration based on a planar structure,
11 is a block diagram of a three-dimensional spatial modeling and data lightening system according to another embodiment of the present invention.

이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.Hereinafter, the present invention will be described in detail with reference to the drawings.

1. 평면정보를 이용한 3차원 공간 모델링 및 데이터 경량화 방법1. Three-Dimensional Spatial Modeling and Data Weight Reduction Using Planar Information

도 4는 본 발명의 일 실시예에 따른 3차원 공간 모델링 및 데이터 경량화 방법의 설명에 제공되는 흐름도이다. 본 발명의 실시예에 따른 3차원 공간 모델링 및 데이터 경량화 방법은 크게 6가지 단계를 포함한다.4 is a flow chart provided in the description of a three-dimensional space modeling and data weighting method according to an embodiment of the present invention. The three-dimensional space modeling and data weighting method according to the embodiment of the present invention includes six steps.

1) 센서자세추정(S110): 시퀀스로 획득하는 깊이영상을 활용하여 센서의 자세를 추정1) Sensor attitude estimation (S110): Estimation of sensor attitude using depth image acquired by sequence

2) 장면인식(S120): 각 프레임의 센서 자세에서 촬영된 영상의 유사성을 비교하여 유사 장면 획득2) Scene Recognition (S120): The similarity of images captured in the sensor posture of each frame is compared

3) 평면추정(S130): 깊이 정보로부터 생성된 노멀벡터(normal vector)값을 이용하여 평면 추정3) Plane estimation (S130): Plane estimation using normal vector values generated from depth information

4) 평면융합(S140): 센서자세정보, 장면인식정보, 평면정보를 활용하여 평면을 3차원 공간에서 융합4) Planar fusion (S140): Using the sensor attitude information, scene recognition information, and plane information,

5) 평면 구조 기반 3차원 공간 모델링(S150): 융합된 평면정보, 센서자세정보, 컬러 영상과 깊이 영상을 활용하여 전역최적화 방법을 수행하여 3차원 공간 복원 에러 최소화5) Planar Structure-based 3-D Spatial Modeling (S150): Minimizing 3-D spatial restoration error by performing global optimization method using fused plane information, sensor attitude information, color image and depth image

6) 3차원 공간 모델 보정 및 경량화(S160): 복원된 3차원 공간을 평명정보를 이용하여 포인트클라우드(point cloud)를 단순한 폴리곤(polygon) 데이터로 경량화6) Three-dimensional spatial model correction and weight reduction (S160): The restored three-dimensional space is lightened by simple polygon data by using point cloud information

이하에서 각 단계들에 대해, 하나씩 상세히 설명한다.In the following, each step will be described in detail one by one.

2. 센서자세추정(S110)2. Sensor posture estimation (S110)

시퀀스로 획득한 깊이영상 정보(S100)를 활용하여 센서의 자세를 추정한다. 추정된 센서의 자세는 도 5에 나타난 바와 같이, 서로 다른 시점에서 획득한 깊이영상을 같은 위치로 정렬시키게 된다.And estimates the attitude of the sensor using the depth image information (S100) acquired by the sequence. As shown in FIG. 5, the estimated sensor attitude aligns the depth images obtained at different viewpoints to the same position.

3. 장면인식(S120)3. Scene recognition (S120)

시점 및 조명 변화에 대한 강인성을 확보함과 동시에 계산의 효율성을 보장할 수 있는 장면 인식 기법을 제시한다.We propose a scene recognition method that can secure robustness against viewpoint and illumination change and guarantee computation efficiency.

이를 위해 데이터베이스 영상으로부터 특징점을 추출하고 이를 서술하기 위해서 임의의 3개의 영역으로부터 서술자[descriptor(예를 들어 SIFT, SURF, ORB 활용 가능)]를 계산한다. 이때 빠른 서술자 계산을 위해서 적분영상 (integral image)을 이용한다.To do this, a descriptor (for example, SIFT, SURF, or ORB) can be calculated from any three regions to extract feature points from the database image and describe them. At this time, an integral image is used for fast descriptor calculation.

많은 수의 데이터베이스 영상들과의 정합을 위해서 서술자들을 나무 (tree) 형태로 재배열한다. 그러므로 인식 단계에서 서술자들을 모두 비교하는 것이 아니라 나무 구조에서 각 단계별로 계층적으로 비교한다. 도 6은 장면 인식 기술에 대한 개념도를 보여준다.For matching with a large number of database images, the descriptors are rearranged in a tree form. Therefore, not all descriptors are compared at the recognition stage, but hierarchical comparisons are made at each stage in the tree structure. FIG. 6 shows a conceptual view of a scene recognition technique.

4. 평면추정(S130)4. Plane estimation (S130)

본 발명의 실시예에서 평면은 노멀벡터(normal vector)로 표현한다. 각 픽셀에 해당하는 노멀벡터는 도 7에 나타난 바와 같이 템플릿내의 깊이 정보를 비교하여 생성하며 유사한 노멀을 갖는 픽셀들이 하나로 그룹핑하여 하나의 평면이라 가정한다.In an embodiment of the present invention, the plane is represented by a normal vector. The normal vector corresponding to each pixel is generated by comparing the depth information in the template as shown in FIG. 7, and it is assumed that pixels having a similar norm are grouped into one plane.

각 픽셀들을 그룹핑하기 위해서 잘 알려진 region growing 알고리즘을 적용하였으며 픽셀간의 노멀벡터가 일정각도 이상 차이 나거나 픽셀간의 깊이가 일정거리 이상 차이 나는 경우 다른 평면 혹은 다른 객체라 가정하여 영역이 확장되는 것을 멈춘다.The well-known region growing algorithm is applied to group each pixel. When the normal vector between pixels differs by more than a certain angle or the depth between pixels differs by a certain distance, the region stops expanding assuming another plane or another object.

5. 평면융합(S140)5. Planar fusion (S140)

카메라 자세 추정 시 에러가 지속적으로 쌓이게 되어 3차원 공간의 구조가 어긋나게 된다. 만약에 어긋나는 부분의 평면들이 같은 평면이라면 어긋난 두 명면은 실제 3차원 좌표계에서 반드시 하나의 평면으로 추정되어야 한다.Errors are continuously accumulated when estimating the camera attitude, and the structure of the three-dimensional space is shifted. If the planes of the displaced part are the same plane, the two planes that are displaced must be estimated as one plane in the real three-dimensional coordinate system.

평면 구조를 하나의 제약정보로 활용하기 위해서는 각 프레임에서 독립적으로 생성된 평면을 3차원 좌표계로 옮긴 후 유사 평면들을 융합하는 라벨링 단계가 필요하다. 유사평면간의 융합을 위해서 본 과제에서는 3가지 측정값을 활용하였다(도 8 참고).In order to utilize the planar structure as one constraint information, it is necessary to move the plane generated independently in each frame to the three-dimensional coordinate system, and to label the similar planes. For the fusion of similar planes, three measurements were used in this task (see FIG. 8).

I) 노멀벡터(normal vector)를 이용한 평면간의 각도 차이,I) Angle difference between planes using a normal vector,

II) 평면간의 거리 차이,II) distance between planes,

III) 평면간의 겹치는 영역의 유무.III) The presence or absence of overlapping areas between planes.

융합한 평면의 노멀벡터는 두 노멀벡터를 평균값을 이용한다. 각 프레임의 평면 정보를 3차원 좌표계로 옮기기 위해서 센서의 자세 정보를 이용한다. 하지만, 센서의 자세 추정 시 발생하는 누적에러 문제로 같은 평면간의 위치차이가 클 수 있다. 이런 경우 도 9와 같이 장면이식 정보를 활용하여 같은 평면임을 판단한다.The normal vector of the fused plane uses an average value of two normal vectors. The attitude information of the sensor is used to move the plane information of each frame to the three-dimensional coordinate system. However, the positional difference between the same planes may be large due to the cumulative error caused by the sensor's attitude estimation. In this case, it is determined that the same plane is used by using the scene graft information as shown in FIG.

6. 평면 구조 기반 3차원 공간 모델링(S150)6. Three-Dimensional Space Modeling Based on Planar Structure (S150)

본 발명의 실시예에서는, 같은 라벨을 갖는 평면들이 3차원 위치에서 같은 위치에 존재한다는 가정을 추가 오차 함수로 적용하여 같은 라벨의 평면이 갖은 위치와 같은 노멀을 갖게 만드는 방향으로 센서의 자세를 최적화 한다. In the embodiment of the present invention, the assumption that the planes having the same label are located at the same position in the three-dimensional position is applied as an additional error function to optimize the posture of the sensor in the direction of making the plane of the same label have the same norm do.

7. 3차원 공간 모델 보정 및 경량화(S160)7. Three-Dimensional Spatial Model Calibration and Weight Reduction (S160)

평면정보를 이용하여 3차원 공간을 최적화 하더라도 깊이영상의 에러로 인하여 평면내의 포인트들이 반듯하게 보이지 않고 일정 노이즈에 의해 흩어져 보이게 된다.Even if the three-dimensional space is optimized using the plane information, the points in the plane are not seen straightly due to the error of the depth image but are scattered by the constant noise.

이를 해결하기 위해 평면 확장에서 추정하였던 각 평면의 노멀벡터를 이용하여 평면 노이즈를 최소화 한다. 또한, 모든 평면들끼리 서로 특정 각도 범위 이내(이를 테면, 80°~ 100°)로 차이 나는 경우 두 평면은 직교한다고 가정하여 추정된 평면들을 보정한다.To solve this problem, the plane noise is minimized by using the normal vector of each plane estimated from the plane expansion. In addition, if all the planes differ from each other within a specific angle range (for example, 80 ° to 100 °), the two planes are assumed to be orthogonal and the estimated planes are corrected.

도 10은 모바일 3차원 공간 복원 결과부터 최종 결과인 3차원 공간 축정렬 예시 결과를 보여준다. 데이터 경량화를 위한 평면의 폴리곤(polygon)은 각 평면의 노멀축을 제외한 평면내 축에 위치하는 최대값과 최소값을 획득하여 4점으로 구성한다.FIG. 10 shows a result of a three-dimensional spatial axis alignment example as a final result from a mobile three-dimensional spatial restoration result. A plane polygon for data lightening is composed of 4 points by obtaining the maximum value and the minimum value located on the in-plane axis excluding the normal axis of each plane.

8. 3차원 공간 모델링 및 데이터 경량화 시스템8. Three-Dimensional Spatial Modeling and Data Lightening System

도 11은 본 발명의 다른 실시예에 따른 3차원 공간 모델링 및 데이터 경량화 시스템의 블럭도이다. 본 발명의 실시예에 따른 3차원 공간 모델링 및 데이터 경량화 시스템은, 도 11에 도시된 바와 같이, 영상 입력부(210), 프로세서(220), 저장부(230) 및 출력부(240)를 포함한다.11 is a block diagram of a three-dimensional spatial modeling and data lightening system according to another embodiment of the present invention. 11, the three-dimensional space modeling and data weighting system according to the embodiment of the present invention includes an image input unit 210, a processor 220, a storage unit 230, and an output unit 240 .

영상 입력부(210)는 카메라[RGB 카메라 + Z 카메라]로부터 컬러 영상과 깊이을 실시간으로 입력받고, 입력되는 영상을 프로세서(220)에 인가한다.The image input unit 210 receives the color image and the depth from the camera (RGB camera + Z camera) in real time, and applies the input image to the processor 220.

영상 입력부(210)에 입력되는 영상은 실시간 영상이 아니어도 무방하다. 즉, 외부 기기/네트워크에 저장된 컬러/깊이 영상이 영상 입력부(210)에 입력되어 프로세서(220)에 인가되는 경우도, 본 발명의 기술적 사상이 적용될 수 있다.The image input to the image input unit 210 may not be a real-time image. That is, the technical idea of the present invention can also be applied to a case where a color / depth image stored in an external device / network is input to the image input unit 210 and then applied to the processor 220.

프로세서(220)는 위에서 설명한 3차원 공간 모델링 및 데이터 경량화 방법을 실행하기 위한 GPU와 CPU를 포함한다. 저장부(230)는 프로세서(220)가 3차원 공간 모델링 및 데이터 경량화를 수행함에 있어 필요한 저장 공간을 제공한다.The processor 220 includes a GPU and a CPU for executing the three-dimensional space modeling and data weighting method described above. The storage unit 230 provides storage space necessary for the processor 220 to perform three-dimensional space modeling and data weighting.

출력부(240)는 프로세서(220)에 의해 수행된 3차원 공간 정보를 표시하기 위한 디스플레이와 외부 기기/네트워크로 전달하기 위한 통신 인터페이스를 포함한다.The output unit 240 includes a display for displaying three-dimensional spatial information performed by the processor 220 and a communication interface for communicating to an external device / network.

9. 변형예9. Variations

본 실시예에 따른 장치와 방법의 기능을 수행하게 하는 컴퓨터 프로그램을 수록한 컴퓨터로 읽을 수 있는 기록매체에도 본 발명의 기술적 사상이 적용될 수 있음은 물론이다. 또한, 본 발명의 다양한 실시예에 따른 기술적 사상은 컴퓨터로 읽을 수 있는 기록매체에 기록된 컴퓨터로 읽을 수 있는 코드 형태로 구현될 수도 있다. 컴퓨터로 읽을 수 있는 기록매체는 컴퓨터에 의해 읽을 수 있고 데이터를 저장할 수 있는 어떤 데이터 저장 장치이더라도 가능하다. 예를 들어, 컴퓨터로 읽을 수 있는 기록매체는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광디스크, 하드 디스크 드라이브, 등이 될 수 있음은 물론이다. 또한, 컴퓨터로 읽을 수 있는 기록매체에 저장된 컴퓨터로 읽을 수 있는 코드 또는 프로그램은 컴퓨터간에 연결된 네트워크를 통해 전송될 수도 있다.It is needless to say that the technical idea of the present invention can also be applied to a computer-readable recording medium having a computer program for performing the functions of the apparatus and method according to the present embodiment. In addition, the technical idea according to various embodiments of the present invention may be embodied in computer-readable code form recorded on a computer-readable recording medium. The computer-readable recording medium is any data storage device that can be read by a computer and can store data. For example, the computer-readable recording medium may be a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical disk, a hard disk drive, or the like. In addition, the computer readable code or program stored in the computer readable recording medium may be transmitted through a network connected between the computers.

또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해 되어져서는 안될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It will be understood by those skilled in the art that various changes in form and detail may be made therein without departing from the spirit and scope of the present invention.

210 : 영상 입력부
220 : 프로세서
230 : 저장부
240 : 출력부
210:
220: Processor
230:
240: Output section

Claims (12)

3차원 공간 모델링 시스템이, 컬러 영상과 깊이 영상을 획득하는 단계;
3차원 공간 모델링 시스템이, 깊이 영상을 이용하여 평면을 추정하는 단계;
3차원 공간 모델링 시스템이, 컬러 영상, 깊이 영상 및 평면 정보를 이용하여, 3차원 공간 정보를 생성하는 단계; 및
3차원 공간 모델링 시스템이, 각도 차가 특정 범위 이내인 평면들이 직교하도록, 3차원 공간 정보를 보정하는 단계;를 포함하는 것을 특징으로 하는 3차원 공간 모델링 방법.
A three-dimensional space modeling system, comprising: obtaining a color image and a depth image;
A three-dimensional space modeling system comprising: estimating a plane using a depth image;
A three-dimensional space modeling system comprising: generating three-dimensional spatial information using a color image, a depth image, and planar information; And
And correcting the three-dimensional spatial information so that the three-dimensional space modeling system is orthogonal to the planes whose angular difference is within a specific range.
청구항 1에 있어서,
평면 추정단계는,
깊이 영상으로부터 생성된 노멀벡터(normal vector)값을 이용하여, 평면을 추정하는 것을 특징으로 하는 3차원 공간 모델링 방법.
The method according to claim 1,
The plane estimating step includes:
Dimensional space modeling method, wherein a plane is estimated using a normal vector value generated from a depth image.
청구항 1에 있어서,
3차원 공간 모델링 시스템이, 각 프레임에서 독립적으로 추정된 평면들 중 유사 평면들을 융합하는 단계;를 더 포함하고,
3차원 공간 정보 생성단계는,
융합된 평면 정보를 이용하여, 3차원 공간 정보를 생성하는 것을 특징으로 하는 3차원 공간 모델링 방법.
The method according to claim 1,
Wherein the three-dimensional space modeling system further comprises fusing similar planes among the independently estimated planes in each frame,
The three-dimensional spatial information generating step includes:
And generating three-dimensional spatial information using the fused plane information.
청구항 3에 있어서,
유사 평면들은,
평면 간 각도차, 평면 간 거리차 및 평면 간의 겹치는 영역의 유무 중 적어도 하나를 참조하여 결정하는 것을 특징으로 하는 3차원 공간 모델링 방법.
The method of claim 3,
Similar planes,
Plane angle difference, a difference in plane-to-plane distance, and the presence or absence of an overlapping area between planes.
청구항 4에 있어서,
융합된 평면의 노멀벡터는 융합된 평면들의 노멀벡터의 평균인 것을 특징으로 하는 3차원 공간 모델링 방법.
The method of claim 4,
Wherein the normal vector of the fused plane is an average of normal vectors of the fused planes.
청구항 3에 있어서,
3차원 공간 모델링 시스템이, 깊이 영상으로부터 영상을 획득하는 센서의 자세를 추정하여, 서로 다른 시점에서 획득한 깊이 영상들을 정렬하는 단계;를 더 포함하는 것을 특징으로 하는 3차원 공간 모델링 방법.
The method of claim 3,
The three-dimensional space modeling system further includes a step of estimating a posture of a sensor acquiring an image from the depth image, and aligning the depth images acquired at different points of time.
청구항 6에 있어서,
3차원 공간 모델링 시스템이, 정렬된 깊이 영상들에서 특징점을 추출하여 서술자를 계산하고, 계산된 서술자를 비교하여 유사 장면들을 파악하는 단계;를 더 포함하는 것을 특징으로 하는 3차원 공간 모델링 방법.
The method of claim 6,
The three-dimensional space modeling system may further include extracting feature points from the aligned depth images, calculating descriptors, and comparing the calculated descriptors to identify similar scenes.
청구항 7에 있어서,
융합 단계는,
센서의 자세 정보 및 유사 장면 정보 중 적어도 하나를 참조하여, 유사 평면들을 융합하는 것을 특징으로 하는 3차원 공간 모델링 방법.
The method of claim 7,
In the fusion step,
Wherein the similar planes are fused by referring to at least one of the attitude information of the sensor and the similar scene information.
삭제delete 컬러 영상과 깊이 영상을 획득하는 입력부;
깊이 영상을 이용하여 평면을 추정하고, 컬러 영상, 깊이 영상 및 평면 정보를 이용하여 3차원 공간 정보를 생성하는 프로세서;를 포함하고,
프로세서는,
각도 차가 특정 범위 이내인 평면들이 직교하도록, 3차원 공간 정보를 보정하는 것을 특징으로 하는 3차원 공간 모델링 시스템.
An input unit for acquiring a color image and a depth image;
And a processor for estimating a plane using the depth image and generating three-dimensional spatial information using the color image, the depth image, and the plane information,
The processor,
And corrects the three-dimensional spatial information so that the planes whose angular differences are within a specific range are orthogonal to each other.
3차원 공간 모델링 시스템이, 컬러 영상과 깊이 영상을 프레임 단위로 획득하는 단계;
3차원 공간 모델링 시스템이, 깊이 영상을 비교하여 유사 장면을 파악하는 단계;
3차원 공간 모델링 시스템이, 깊이 영상을 이용하여 평면을 추정하는 단계;
3차원 공간 모델링 시스템이, 유사 장면 정보를 참조하여, 각 프레임에서 독립적으로 추정된 평면들 중 유사 평면들을 융합하는 단계;
3차원 공간 모델링 시스템이, 컬러 영상, 깊이 영상 및 융합된 평면 정보를 이용하여, 3차원 공간 정보를 생성하는 단계; 및
3차원 공간 모델링 시스템이, 각도 차가 특정 범위 이내인 평면들이 직교하도록, 3차원 공간 정보를 보정하는 단계;를 포함하는 것을 특징으로 하는 3차원 공간 모델링 방법.
A three-dimensional space modeling system comprising: a step of acquiring a color image and a depth image on a frame basis;
The three-dimensional space modeling system compares depth images and grasps similar scenes;
A three-dimensional space modeling system comprising: estimating a plane using a depth image;
The three-dimensional space modeling system refers to similar scene information and fuses similar planes among the independently estimated planes in each frame;
A three-dimensional space modeling system, comprising: generating three-dimensional spatial information using a color image, a depth image, and fused plane information; And
And correcting the three-dimensional spatial information so that the three-dimensional space modeling system is orthogonal to the planes whose angular difference is within a specific range.
컬러 영상과 깊이 영상을 프레임 단위로 획득하는 입력부; 및
깊이 영상을 비교하여 유사 장면을 파악하고, 깊이 영상을 이용하여 평면을 추정하며, 유사 장면 정보를 참조하여 각 프레임에서 독립적으로 추정된 평면들 중 유사 평면들을 융합하고, 컬러 영상, 깊이 영상 및 융합된 평면 정보를 이용하여 3차원 공간 정보를 생성하는 프로세서;를 포함하고,
프로세서는,
각도 차가 특정 범위 이내인 평면들이 직교하도록, 3차원 공간 정보를 보정하는 것을 특징으로 하는 3차원 공간 모델링 시스템.
An input unit for acquiring a color image and a depth image on a frame basis; And
Depth images are compared to obtain a similar scene, a plane is estimated using a depth image, and similar planes among independently estimated planes are fused with reference to similar scene information, and color images, depth images, and fusion And generating three-dimensional spatial information using the extracted plane information,
The processor,
And corrects the three-dimensional spatial information so that the planes whose angular differences are within a specific range are orthogonal to each other.
KR1020160125312A 2016-09-29 2016-09-29 Three-Dimensional Space Modeling and Data Lightening Method using the Plane Information KR101869605B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160125312A KR101869605B1 (en) 2016-09-29 2016-09-29 Three-Dimensional Space Modeling and Data Lightening Method using the Plane Information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160125312A KR101869605B1 (en) 2016-09-29 2016-09-29 Three-Dimensional Space Modeling and Data Lightening Method using the Plane Information

Publications (2)

Publication Number Publication Date
KR20180035359A KR20180035359A (en) 2018-04-06
KR101869605B1 true KR101869605B1 (en) 2018-06-21

Family

ID=61973655

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160125312A KR101869605B1 (en) 2016-09-29 2016-09-29 Three-Dimensional Space Modeling and Data Lightening Method using the Plane Information

Country Status (1)

Country Link
KR (1) KR101869605B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12022052B2 (en) 2020-08-25 2024-06-25 Samsung Electronics Co., Ltd. Method and apparatus for 3D reconstruction of planes perpendicular to ground

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101979879B1 (en) * 2017-12-12 2019-05-17 현대건설(주) Apparatus and method for post-processing about aerial photogrammetry output
KR102074929B1 (en) * 2018-10-05 2020-02-07 동의대학교 산학협력단 METHOD AND DEVICE FOR DETECTING PLANE AREA USING DEPTH IMAGE, and Non-Transitory COMPUTER READABLE RECORDING MEDIUM
KR102257610B1 (en) * 2019-10-02 2021-05-28 고려대학교 산학협력단 EXTRINSIC CALIBRATION METHOD OF PLURALITY OF 3D LiDAR SENSORS FOR AUTONOMOUS NAVIGATION SYSTEM
KR102438853B1 (en) * 2019-12-10 2022-09-06 한국전자기술연구원 Method and system for depth image estimation using flat information
CN111369680B (en) * 2020-02-28 2023-12-15 北京五一视界数字孪生科技股份有限公司 Method and device for generating three-dimensional image of building
KR102662058B1 (en) * 2021-11-25 2024-04-30 (주)천재교육 An apparatus and method for generating 3 dimension spatial modeling data using a plurality of 2 dimension images acquired at different locations, and a program therefor

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101538014B1 (en) 2014-01-14 2015-07-22 강기환 Converting method photographic images to 3d images through 3d modeling
US20150229913A1 (en) 2014-02-12 2015-08-13 Htc Corporation Image processing device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102026903B1 (en) * 2012-04-19 2019-09-30 삼성전자주식회사 Method and apparatus for representation 3d space based plane

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101538014B1 (en) 2014-01-14 2015-07-22 강기환 Converting method photographic images to 3d images through 3d modeling
US20150229913A1 (en) 2014-02-12 2015-08-13 Htc Corporation Image processing device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
박재한 외 3명. 실내 공간 모델링을 위한 3차원 공간정보 매핑에 관한 연구. 한국지형공간정보학회. 2011년 10월.

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12022052B2 (en) 2020-08-25 2024-06-25 Samsung Electronics Co., Ltd. Method and apparatus for 3D reconstruction of planes perpendicular to ground

Also Published As

Publication number Publication date
KR20180035359A (en) 2018-04-06

Similar Documents

Publication Publication Date Title
KR101869605B1 (en) Three-Dimensional Space Modeling and Data Lightening Method using the Plane Information
US11238606B2 (en) Method and system for performing simultaneous localization and mapping using convolutional image transformation
CN109166149B (en) Positioning and three-dimensional line frame structure reconstruction method and system integrating binocular camera and IMU
EP3242275B1 (en) Using photo collections for three dimensional modeling
KR102647351B1 (en) Modeling method and modeling apparatus using 3d point cloud
Strasdat et al. Double window optimisation for constant time visual SLAM
CN111462207A (en) RGB-D simultaneous positioning and map creation method integrating direct method and feature method
JP7273927B2 (en) Image-based positioning method and system
KR20190042187A (en) Method and apparatus of estimating depth value
KR102198851B1 (en) Method for generating three dimensional model data of an object
EP3274964B1 (en) Automatic connection of images using visual features
Pylvanainen et al. Automatic alignment and multi-view segmentation of street view data using 3d shape priors
CN107170042B (en) A kind of three-dimensional rebuilding method of more view Stereo matchings of unordered image
CN111127524A (en) Method, system and device for tracking trajectory and reconstructing three-dimensional image
CN110599545B (en) Feature-based dense map construction system
CN110570474B (en) Pose estimation method and system of depth camera
CN114627491A (en) Single three-dimensional attitude estimation method based on polar line convergence
CN116128966A (en) Semantic positioning method based on environmental object
Angladon et al. The toulouse vanishing points dataset
CN116468786A (en) Semantic SLAM method based on point-line combination and oriented to dynamic environment
Saxena et al. 3-d reconstruction from sparse views using monocular vision
Zhu et al. PairCon-SLAM: Distributed, online, and real-time RGBD-SLAM in large scenarios
KR20230049969A (en) Method and apparatus for global localization
JP2023065296A (en) Planar surface detection apparatus and method
CN104408710A (en) Global parallax estimation method and system

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right