KR20240028867A - Ai-based spatial structure estimation method using indoor floor point cloud, device and recording medium for performing the method - Google Patents

Ai-based spatial structure estimation method using indoor floor point cloud, device and recording medium for performing the method Download PDF

Info

Publication number
KR20240028867A
KR20240028867A KR1020220107156A KR20220107156A KR20240028867A KR 20240028867 A KR20240028867 A KR 20240028867A KR 1020220107156 A KR1020220107156 A KR 1020220107156A KR 20220107156 A KR20220107156 A KR 20220107156A KR 20240028867 A KR20240028867 A KR 20240028867A
Authority
KR
South Korea
Prior art keywords
point cloud
floor
indoor
spatial structure
based spatial
Prior art date
Application number
KR1020220107156A
Other languages
Korean (ko)
Inventor
서상현
유태경
유재석
Original Assignee
중앙대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 중앙대학교 산학협력단 filed Critical 중앙대학교 산학협력단
Priority to KR1020220107156A priority Critical patent/KR20240028867A/en
Publication of KR20240028867A publication Critical patent/KR20240028867A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • G06F30/13Architectural design, e.g. computer-aided architectural design [CAAD] related to design of buildings, bridges, landscapes, production plants or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Civil Engineering (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Structural Engineering (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은, 실내 바닥면 포인트 클라우드를 이용한 AI 기반 공간구조 추정 장치로서, 프로세서; 상기 프로세서에 연결되는 메모리를 포함하되, 상기 메모리는, 카메라를 이용하여 실내공간을 스캔하고, 전체 실내공간으로부터 전체 포인트 클라우드를 생성하고, 상기 전체 포인트 클라우드로부터 바닥면 클라우드를 추출하고, 상기 바닥면 클라우드를 2차원 바이너리 이미지로 변환하며, 상기 2차원 바이너리 이미지를 코너 및 선으로 분류하여 학습하는 CNN 모델을 통해 상기 코너를 탐지하도록, 상기 프로세서에 의해 실행되는 프로그램 명령어들을 저장하는, 실내 바닥면 포인트 클라우드를 이용한 AI 기반 공간구조 추정 장치에 관한 것이다.
이에 의해, 실내 공간의 전체 포인트 클라우드로부터 CNN 모델을 기반으로 바닥면의 코너를 정확히 탐지할 수 있다.
The present invention is an AI-based spatial structure estimation device using an indoor floor point cloud, comprising: a processor; Includes a memory connected to the processor, wherein the memory scans the indoor space using a camera, generates an entire point cloud from the entire indoor space, extracts a floor cloud from the entire point cloud, and An indoor floor point that converts a cloud into a two-dimensional binary image and stores program instructions executed by the processor to detect the corner through a CNN model that learns by classifying the two-dimensional binary image into corners and lines. This is about an AI-based spatial structure estimation device using the cloud.
As a result, the corner of the floor can be accurately detected based on the CNN model from the entire point cloud of the indoor space.

Description

실내 바닥면 포인트 클라우드를 이용한 AI 기반 공간구조 추정 방법 및 이를 수행하기 위한 장치 및 기록 매체{AI-BASED SPATIAL STRUCTURE ESTIMATION METHOD USING INDOOR FLOOR POINT CLOUD, DEVICE AND RECORDING MEDIUM FOR PERFORMING THE METHOD}AI-based spatial structure estimation method using indoor floor point cloud and devices and recording media for performing the same {AI-BASED SPATIAL STRUCTURE ESTIMATION METHOD USING INDOOR FLOOR POINT CLOUD, DEVICE AND RECORDING MEDIUM FOR PERFORMING THE METHOD}

본 발명은 실내 바닥면 포인트 클라우드를 이용한 AI 기반 공간구조 추정 방법 및 이를 수행하기 위한 장치 및 기록 매체에 관한 것으로서, 더욱 상세하게는 CNN 모델을 이용해 바닥면의 코너를 탐지하여 실내 공간의 3차원 공간구조를 추정하고 모델링 하는 기술에 관한 것이다.The present invention relates to an AI-based spatial structure estimation method using an indoor floor point cloud and a device and recording medium for performing the same. More specifically, it relates to a three-dimensional space of an indoor space by detecting corners of the floor using a CNN model. It is about techniques for estimating and modeling structures.

비대면 활동의 증가로 경제, 사회, 문화 등 우리 삶의 전반적인 부분에서 현실과 가상이 모두 공존할 수 있는 3차원 가상공간 메타버스에 대한 관심도가 증가하고 있다. 사용자들이 메타버스 환경에 쉽게 몰입하기 위해서는 현실감 있는 3차원 가상공간을 모델링 하는 것은 매우 중요하다.Due to the increase in non-face-to-face activities, interest in the three-dimensional virtual space Metaverse, where both reality and virtuality can coexist in all aspects of our lives, including economy, society, and culture, is increasing. In order for users to easily immerse themselves in the metaverse environment, modeling a realistic 3D virtual space is very important.

최근에는 수작업이 아닌 카메라를 통해 촬영된 영상들로부터 3차원 공간을 재구성하고 모델링하는 연구가 활발히 진행되고 있다. 이는 영상들의 호모그래피를 이용해 깊이 정보를 추정하고, 이를 기반으로 3차원 포인트 클라우드를 추출한다. Recently, research on reconstructing and modeling 3D space from images captured with cameras rather than manually is being actively conducted. This estimates depth information using the homography of images and extracts a 3D point cloud based on this.

이렇게 얻어진 포인트 클라우드는 텍스쳐와 3차원 좌표 정보를 갖고 있으므로 3차원 실세계 공간의 복잡한 정보(텍스쳐, 조명, 재질 등)가 그대로 적용된 사실적인 가상공간을 자동화하여 구축할 수 있는 장점이 있다. Since the point cloud obtained in this way has texture and 3D coordinate information, it has the advantage of being able to automatically build a realistic virtual space to which complex information (texture, lighting, materials, etc.) of the 3D real world space is applied.

하지만, 포인트 클라우드는 추출과정에서 분산되고 노이즈가 많은 특성이 존재하며 촬영되지 않은 부분의 정보 소실이 발생한다. 특히 실내 공간을 표현하는 포인트 클라우드는 복잡하고 다양한 객체에 대한 정보를 담고 있으며 이러한 정보 들은 바닥면과 벽면을 폐색한다. However, point clouds have scattered and noisy characteristics during the extraction process, and information is lost in parts that were not captured. In particular, the point cloud representing the indoor space contains information about complex and diverse objects, and this information occludes the floor and walls.

실세계의 건축물을 모델링 할 때 바닥면 정보는 매우 중요한 단서이다. 바닥면은 사실상 도면과 일치하며 이를 아는 것은 공간 전체의 구조를 아는 것과 같다. 특히 바닥면의 코너 부분은 건축 구조물(벽, 천장 등)을 연결하는 역할을 하며, 건물을 모델링할 때 기반이 된다.When modeling real-world buildings, floor information is a very important clue. The floor surface actually matches the drawing, and knowing this is equivalent to knowing the structure of the entire space. In particular, the corners of the floor serve to connect architectural structures (walls, ceilings, etc.) and serve as the basis for modeling buildings.

그러나 포인트 클라우드의 경우 많은 노이즈가 존재하고, 노이즈가 존재할 경우 정확한 코너를 탐지하지 못한다는 단점이 있다. However, in the case of point clouds, there is a lot of noise, and when noise is present, it has the disadvantage of not being able to detect accurate corners.

KRKR 10-1740259 10-1740259 B1B1

이에, 본 발명의 기술적 과제는 이러한 점에서 착안된 것으로 본 발명의 목적은 실내 공간의 바닥면 코너를 정확히 탐지하여 전체 공간의 구조를 추정하는 실내 바닥면 포인트 클라우드를 이용한 AI 기반 공간구조 추정 방법 및 이를 수행하기 위한 장치 및 기록 매체를 제공하는 것이다.Accordingly, the technical problem of the present invention was conceived in this regard, and the purpose of the present invention is to accurately detect the corners of the floor surface of an indoor space and estimate the structure of the entire space by using an AI-based spatial structure estimation method using an indoor floor point cloud; The aim is to provide a device and recording medium to accomplish this.

상기한 본 발명의 목적을 실현하기 위한 일 실시예에 따른 실내 바닥면 포인트 클라우드를 이용한 AI 기반 공간구조 추정 장치는, 실내 바닥면 포인트 클라우드를 이용한 AI 기반 공간구조 추정 장치로서, 프로세서; 상기 프로세서에 연결되는 메모리를 포함하되, 상기 메모리는, 카메라를 이용하여 실내공간을 스캔하고, 상기 실내공간으로부터 전체 포인트 클라우드를 생성하고, 상기 전체 포인트 클라우드로부터 바닥면 포인트 클라우드를 추출하고, 상기 바닥면 포인트 클라우드를 2차원 바이너리 이미지로 변환하며, 상기 2차원 바이너리 이미지를 코너 및 선으로 분류하여 학습하는 CNN 모델을 통해 상기 코너를 탐지하도록, 상기 프로세서에 의해 실행되는 프로그램 명령어들을 저장한다.An AI-based spatial structure estimation device using an indoor floor point cloud according to an embodiment for realizing the object of the present invention described above is an AI-based spatial structure estimation device using an indoor floor point cloud, comprising: a processor; It includes a memory connected to the processor, wherein the memory scans an indoor space using a camera, generates an entire point cloud from the indoor space, extracts a floor point cloud from the entire point cloud, and extracts a floor point cloud from the entire point cloud. Program instructions executed by the processor are stored to convert a surface point cloud into a two-dimensional binary image and detect the corner through a CNN model that learns by classifying the two-dimensional binary image into corners and lines.

본 발명의 실시예에서, 상기 전체 포인트 클라우드는, 상기 실내공간으로부터 부분 포인트 클라우드를 생성하고, 상기 부분 포인트 클라우드를 컬러 이미지 정보 또는 깊이 이미지 정보를 기준으로 정합시켜 생성될 수도 있다.In an embodiment of the present invention, the entire point cloud may be generated by generating a partial point cloud from the indoor space and matching the partial point cloud based on color image information or depth image information.

본 발명의 실시예에서, 상기 바닥면 포인트 클라우드는, 상기 전체 포인트 클라우드로부터 바닥면에 해당하는 임계값을 벗어나는 부분을 제거하여 추출될 수도 있다.In an embodiment of the present invention, the floor point cloud may be extracted by removing a portion that exceeds a threshold corresponding to the floor from the entire point cloud.

본 발명의 실시예에서, 상기 코너를 탐지하는 것은, 상기 2차원 바이너리 이미지의 소실 부분을 홀 채움 알고리즘을 통해 복구한 후 CNN 모델을 통해 탐지하는 것일 수도 있다.In an embodiment of the present invention, detecting the corner may mean recovering the missing part of the two-dimensional binary image through a hole-filling algorithm and then detecting it through a CNN model.

본 발명의 실시예에서, 상기 탐지된 코너를 연결한 바운딩 박스의 중심 좌표를 기준으로 수직벽을 세워 상기 실내공간의 구조를 시각화할 수도 있다.In an embodiment of the present invention, the structure of the indoor space may be visualized by erecting a vertical wall based on the coordinates of the center of the bounding box connecting the detected corners.

상기한 본 발명의 또 다른 목적을 실현하기 위한 일 실시예에 따른 실내 바닥면 포인트 클라우드를 이용한 AI 기반 공간구조 추정 방법은, 카메라를 이용하여 실내공간을 스캔하는 단계; 전체 실내공간으로부터 전체 포인트 클라우드를 생성하는 단계; 상기 전체 포인트 클라우드로부터 바닥면 포인트 클라우드를 추출하는 단계; 상기 바닥면 클라우드를 2차원 바이너리 이미지로 변환하는 단계; 및 상기 2차원 바이너리 이미지를 코너 및 선으로 분류하여 학습하는 CNN 모델을 통해 상기 코너를 탐지하는 단계를 포함한다.An AI-based spatial structure estimation method using an indoor floor point cloud according to an embodiment for realizing another object of the present invention described above includes the steps of scanning an indoor space using a camera; Generating an entire point cloud from the entire indoor space; extracting a floor point cloud from the entire point cloud; Converting the floor cloud into a two-dimensional binary image; and detecting the corner through a CNN model that learns by classifying the two-dimensional binary image into corners and lines.

본 발명의 또 다른 실시예에서, 상기 전체 포인트 클라우드를 생성하는 단계는, 상기 실내공간으로부터 부분 포인트 클라우드를 생성하는 단계; 및 상기 부분 포인트 클라우드를 컬러 이미지 정보 또는 깊이 이미지 정보를 기준으로 정합시켜 생성하는 단계를 포함할 수도 있다.In another embodiment of the present invention, generating the entire point cloud includes generating a partial point cloud from the indoor space; And it may also include generating the partial point cloud by matching it based on color image information or depth image information.

본 발명의 또 다른 실시예에서, 상기 바닥면 포인트 클라우드를 추출하는 단계는, 상기 전체 포인트 클라우드로부터 바닥면에 해당하는 임계값을 벗어나는 부분을 제거하여 추출하는 단계일 수도 있다.In another embodiment of the present invention, the step of extracting the floor point cloud may be a step of extracting the entire point cloud by removing a portion that exceeds a threshold corresponding to the floor.

본 발명의 또 다른 실시예에서, 상기 코너를 탐지하는 단계는, 상기 2차원 바이너리 이미지의 소실 부분을 홀 채움 알고리즘을 통해 복구한 후 상기 CNN 모델을 통해 탐지하는 단계일 수도 있다.In another embodiment of the present invention, the step of detecting the corner may be a step of recovering the missing part of the two-dimensional binary image through a hole-filling algorithm and then detecting it through the CNN model.

본 발명의 또 다른 실시예에서, 상기 탐지된 코너를 연결한 바운딩 박스의 중심 좌표를 기준으로 수직벽을 세워 상기 실내공간의 구조를 시각화하는 단계를 포함할 수도 있다.In another embodiment of the present invention, the step of visualizing the structure of the indoor space by erecting a vertical wall based on the coordinates of the center of the bounding box connecting the detected corners may be included.

상기한 본 발명의 다른 목적을 실현하기 위한 일 실시예에 따른 컴퓨터 프로그램이 기록된 컴퓨터로 판독 가능한 저장 매체에는, 상기 실내 바닥면 포인트 클라우드를 이용한 AI 기반 공간구조 추정 방법을 수행하기 위한 컴퓨터 프로그램이 기록될 수도 있다.A computer-readable storage medium on which a computer program according to an embodiment for realizing the above-described other object of the present invention is recorded, a computer program for performing an AI-based spatial structure estimation method using the indoor floor point cloud. It may be recorded.

본 발명은 실내 공간의 전체 포인트 클라우드로부터 CNN 모델을 기반으로 바닥면의 코너를 정확히 탐지할 수 있다.The present invention can accurately detect the corners of the floor based on a CNN model from the entire point cloud of the indoor space.

또한, 이를 기반으로 실내 공간의 3차원 공간구조를 추정하고 모델링 한다.Additionally, based on this, the three-dimensional spatial structure of the indoor space is estimated and modeled.

따라서, 효율적으로 실세계와 유사한 메타버스 공간을 구축할 수 있다.Therefore, it is possible to efficiently build a metaverse space similar to the real world.

도 1은 본 발명에 따른 실내 바닥면 포인트 클라우드를 이용한 AI 기반 공간구조 추정 방법의 순서도이다.
도 2는 본 발명에 따른 실내 바닥면 포인트 클라우드를 이용한 AI 기반 공간구조 추정 방법의 예시이다.
도 3은 본 발명에 따른 카메라 이미지로부터 전체 포인트 클라우드를 생성하는 프로세스이다.
도 4는 본 발명에 따른 부분 및 전체 포인트 클라우드를 생성한 예시이다.
도 5는 본 발명에 따른 바닥면의 코너를 탐지하는 예시이다.
도 6은 본 발명에 따른 2차원 바이너리 바닥면으로부터 코너와 라인을 탐지하는 예이다.
도 7은 종래 기술과 본 발명의 바닥면 코너 탐지를 비교한 예시이다.
도 8은 본 발명에 따른 바닥면 코너 탐지로부터 실내 공간을 추정한 예시이다.
Figure 1 is a flowchart of an AI-based spatial structure estimation method using an indoor floor point cloud according to the present invention.
Figure 2 is an example of an AI-based spatial structure estimation method using an indoor floor point cloud according to the present invention.
Figure 3 is a process for generating an entire point cloud from a camera image according to the present invention.
Figure 4 is an example of generating partial and full point clouds according to the present invention.
Figure 5 is an example of detecting corners of a floor surface according to the present invention.
Figure 6 is an example of detecting corners and lines from a two-dimensional binary floor surface according to the present invention.
Figure 7 is an example comparing the floor corner detection of the prior art and the present invention.
Figure 8 is an example of estimating indoor space from floor corner detection according to the present invention.

후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.The detailed description of the present invention described below refers to the accompanying drawings, which show by way of example specific embodiments in which the present invention may be practiced. These embodiments are described in sufficient detail to enable those skilled in the art to practice the invention. It should be understood that the various embodiments of the invention are different from one another but are not necessarily mutually exclusive. For example, specific shapes, structures and characteristics described herein with respect to one embodiment may be implemented in other embodiments without departing from the spirit and scope of the invention. Additionally, it should be understood that the location or arrangement of individual components within each disclosed embodiment may be changed without departing from the spirit and scope of the invention. Accordingly, the detailed description that follows is not intended to be taken in a limiting sense, and the scope of the invention is limited only by the appended claims, together with all equivalents to what those claims assert, if properly described. Similar reference numbers in the drawings refer to identical or similar functions across various aspects.

이하, 도면들을 참조하여 본 발명의 바람직한 실시예들을 보다 상세하게 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the drawings.

도 1은 본 발명에 따른 실내 바닥면 포인트 클라우드를 이용한 AI 기반 공간구조 추정 방법의 순서도이며, 도 2는 순서도에 대응한 예시이다. 도 1 및 도 2를 참조하여 설명하면, 우선 실내 공간을 RGB-D 카메라(200)로 촬영하여 스캔한다 (S101). 그 후 연속적인 컬러(Color) 이미지 (310) 및 깊이(Depth) 이미지(330)를 추출한다(S103). 이를 통해 프레임 단위의 부분 포인트 클라우드(400)를 생성한다 (S105). 그 후 3차원 재구성 알고리즘을 기반으로 부분 포인트 클라우드(400)의 정합(Registration)을 통해 전체 포인트 클라우드(500)를 생성한다 (S107). 전체 포인트 클라우드(500)를 생성하는 과정에 대해 이하 도 3 및 도 4를 통해 더욱 구체적으로 설명한다.Figure 1 is a flowchart of an AI-based spatial structure estimation method using an indoor floor point cloud according to the present invention, and Figure 2 is an example corresponding to the flowchart. 1 and 2, first, the indoor space is photographed and scanned with the RGB-D camera 200 (S101). Afterwards, continuous color images 310 and depth images 330 are extracted (S103). Through this, a frame-by-frame partial point cloud 400 is generated (S105). Afterwards, the entire point cloud 500 is generated through registration of the partial point cloud 400 based on a 3D reconstruction algorithm (S107). The process of generating the entire point cloud 500 will be described in more detail with reference to FIGS. 3 and 4 below.

도 3은 본 발명에 따른 카메라 이미지로부터 전체 포인트 클라우드(500)를 생성하는 프로세스이다. 도 4를 참조하면, RGB-D 카메라(200)를 통해 추출한 컬러 이미지(310)와 깊이 이미지(330) 개수 k가 입력으로 주어지면 n개(본 실험에서는 N=100으로 고정)의 프레임 단위로 나눠 m개의 부분 포인트 클라우드를 추출한다.Figure 3 is a process for generating an entire point cloud 500 from a camera image according to the present invention. Referring to FIG. 4, when the number k of the color image 310 and the depth image 330 extracted through the RGB-D camera 200 are given as input, n frames (in this experiment, N = 100 is fixed) are input. Divide to extract m partial point clouds.

컬러와 깊이 이미지 쌍의 연속적인 집합에서 n 개의 프레임간의 ORB 특징점 매칭 알고리즘을 수행한다. 이를 통해 연속적인 프레임에서의 특징점을 일치시키고 5-Point RANSAC(Radom Sample Consensus)을 수행하여 대략적인 이전 프레임 사이에 정렬을 추정한다. 이를 기반으로 RGB-D 오도메트리(Odometry)를 계산하여 m 개의 부분 포인트 클라우드에 대한 카메라 궤적을 추적하고, 다방향 정합을 위한 포즈 그래프를 구축한다.The ORB feature point matching algorithm between n frames is performed on a continuous set of color and depth image pairs. Through this, feature points in consecutive frames are matched and 5-Point RANSAC (Radom Sample Consensus) is performed to roughly estimate alignment between previous frames. Based on this, RGB-D odometry is calculated to track the camera trajectory for m partial point clouds, and a pose graph for multi-directional registration is constructed.

루프 클로징 (Loop Closing)과 같은 문제가 발생할 경우 에러가 누적된 모든 노드와 엣지 정보를 통해 에러가 최소화되도록 모든 노드의 위치를 최적화하는 과정을 수행한다. 포즈 그래프 최적화에 대한 손실 함수를 수학식 1로 표현할 수 있다. When problems such as loop closing occur, a process is performed to optimize the positions of all nodes to minimize errors through all nodes and edge information where errors have accumulated. The loss function for pose graph optimization can be expressed as Equation 1.

여기서, xi와 xj는 현재 그래프에서 노드의 위치 정보이며, 이를 통해 두 노드 사이의 상대적인 위치를 구할 수 있다.Here, x i and x j are the location information of the node in the current graph, and through this, the relative position between the two nodes can be obtained.

두 노드 사이의 다음 프레임 노드의 위치 값(관측값)과 이 전 프레임 노드의 위치 값(예측값)의 차이를 eij(xi xj)로 정의한다. Ωij 는 i번째 노드와 j번째 노드의 정보 행렬을 의미하며, 손실 함수의 합을 가장 작게 할 수 있는 노드()의 집합을 추출한다. The difference between the position value (observed value) of the next frame node and the position value (predicted value) of the previous frame node between two nodes is defined as e ij (x i x j ). Ω ij refers to the information matrix of the i-th node and j-th node, and is the node that can minimize the sum of the loss function ( ) to extract the set.

이를 통해 일정한 크기의 복셀과 RGB 정보를 포함한 부분 포인트 클라우드(400)를 추출한다. 추출된 부분 포인트 클라우드(400)로부터 전체 포인트 클라우드(500)를 추출하는 과정을 도 4를 통해 설명한다.Through this, a partial point cloud (400) containing voxels of a certain size and RGB information is extracted. The process of extracting the entire point cloud 500 from the extracted partial point cloud 400 will be described with reference to FIG. 4.

도 4는 본 발명에 따른 부분 및 전체 포인트 클라우드(500)를 생성한 예시이다. 도 5를 참조하면, 도 a에서 생성한 부분 포인트 클라우드(400)와 포즈 그래프를 기반으로 실내 공간의 전체 포인트 클라우드(500)를 생성한다. 부분 포인트 클라우드(400)간의 RGB-D 오도메트리를 통해 대략적인 정렬을 추정하고, RANSAC 알고리즘을 사용하여 전역 공간에 등록한다. Figure 4 is an example of generating a partial and full point cloud 500 according to the present invention. Referring to FIG. 5, the entire point cloud 500 of the indoor space is generated based on the partial point cloud 400 and the pose graph generated in FIG. a. Approximate alignment is estimated through RGB-D odometry between partial point clouds 400, and registered in the global space using the RANSAC algorithm.

이를 기반으로 비슷한 컬러 이미지 정보와 깊이 이미지 정보를 가진 부분 포인트 클라우드(400)를 정합시키고, 연속적인 부분 포인트 클라우드(400) 시퀀스에서 다음 시퀀스 간의 연결 관계를 탐지하여 정합하기 위한 강체 변환을 계산한다. 본 발명에서는 Colored-IC P(Iterative Closest Point) 알고리즘을 사용하여 컬러 이미지 정보를 이용해 부분 포인트 클라우드(400)들 사이의 연결 관계를 정확하고 빠르게 탐지한다. 도 5b 부분 포인트 클라우드(400)의 정합을 통해 전체 포인트 클라우드(500)를 생성한 결과이다. 이와 같이 전체 포인트 클라우드(500)를 생성(S107)한 이후의 단계 (S109 내지 S115)를 이하 도 5및 도 6을 참조하여 설명한다. Based on this, partial point clouds 400 with similar color image information and depth image information are matched, and a rigid body transformation for registration is calculated by detecting the connection between the following sequences in the continuous partial point cloud 400 sequence. In the present invention, the Colored-IC P (Iterative Closest Point) algorithm is used to accurately and quickly detect the connection relationship between partial point clouds 400 using color image information. Figure 5b is the result of generating the entire point cloud 500 through registration of the partial point cloud 400. The steps (S109 to S115) after generating the entire point cloud 500 (S107) will be described below with reference to FIGS. 5 and 6.

도 5는 본 발명에 따른 바닥면의 코너를 탐지하는 예시이다. 도 5를 참조하면, 우선 전체 포인트 클라우드로(500)부터 바닥면 포인트 클라우드(610)를 추출한다 (S109).Figure 5 is an example of detecting corners of a floor surface according to the present invention. Referring to FIG. 5, first, the floor point cloud 610 is extracted from the entire point cloud 500 (S109).

더욱 상세하게는, 전체 포인트 클라우드(500)에서 바닥면 포인트 클라우드(610)를 추출하기 위해, RANSAC 알고리즘을 사용하여 바닥면에 해당하는 포인트 클라우드를 추출한다. 이때 발생하는 이상치 값(바닥면에 해당하는 평면이 아닌 경우)을 임계값 조정을 통해 제거한다. 도 5a는 실내 공간 전체포인트 클라우드(500)에서 바닥면 포인트 클라우드(610)를 추출한 결과를 나타낸다.More specifically, in order to extract the floor point cloud 610 from the entire point cloud 500, the point cloud corresponding to the floor is extracted using the RANSAC algorithm. Outlier values that occur at this time (if they are not on a plane corresponding to the floor surface) are removed through threshold adjustment. Figure 5a shows the result of extracting the floor point cloud 610 from the entire indoor space point cloud 500.

그 후 추출된 바닥면 포인트 클라우드(610)를 Ortho 투영을 통해 2차원 바이너리 이미지(620)로 변환한다 (S111). 2차원 바이너리 이미지는 객체로 인해 폐색되어 소실된 부분을 홀로 표시하고 그 외의 부분을 채워지도록 표시한 것을 의미한다.Afterwards, the extracted floor point cloud 610 is converted into a two-dimensional binary image 620 through ortho projection (S111). A two-dimensional binary image means that the part that is lost due to occlusion by an object is displayed alone, and the other part is displayed to be filled.

도 5b는 바닥면 포인트 클라우드(610)를 2차원 바이너리 이미지(620)로 변환 결과를 나타낸다. 본 이미지(620)는 RGB-D 카메라의 노이즈 및 객체에 의한 폐색으로 소실된 영역(621)으로 포인트 클라우드가 소실되어 2차원 바이너리 이미지로 변환하였을 때 픽셀값 또한 소실된 상태이다. Figure 5b shows the result of converting the floor point cloud 610 into a two-dimensional binary image 620. In the image 620, the point cloud is lost in the area 621 due to noise and occlusion by objects in the RGB-D camera, and the pixel value is also lost when converted to a two-dimensional binary image.

이를 해결하기 위해 본 발명은 홀 채움 (Hole Filling) 알고리즘을 통해 소실된 영역(621)을 복원한다 (S113). 도 5c는 복원된 2차원 바이너리 이미지를 나타낸다.To solve this problem, the present invention restores the lost area 621 through a hole filling algorithm (S113). Figure 5c shows the restored two-dimensional binary image.

그 후, 도 5에 도시된 바와 같이, CNN 모델을 통해 두 가지 레이블(640)(코너(641), 라인(642))로 분류하여 코너(641)를 탐지한다 (S115). Then, as shown in FIG. 5, the corner 641 is detected by classifying it into two labels 640 (corner 641 and line 642) through the CNN model (S115).

도 6은 본 발명에 따른 2차원 바이너리 바닥면으로부터 코너와 라인을 탐지하는 예이다. 바닥면의 코너를 탐지하기 위해 본 발명은 CNN 모델을 통해 학습된 AI로 바닥면을 탐지한다. 예를 들어, 두 가지 레이블(코너, 라인)로 분류된 2차원 바이너리 평면도 이미지 약 2,000장 이상을 CNN 모델을 통해 학습시키고, 데이터 증강 기법(Flip, Rotate, Sheer 등)을 활용하여 학습 데이터의 신뢰성을 높인다. Figure 6 is an example of detecting corners and lines from a two-dimensional binary floor surface according to the present invention. In order to detect the corners of the floor, the present invention detects the floor with AI learned through a CNN model. For example, more than 2,000 two-dimensional binary floor plan images classified into two labels (corner, line) are trained through a CNN model, and data augmentation techniques (Flip, Rotate, Sheer, etc.) are used to improve the reliability of the learning data. Raise.

도 7은 종래 기술과 본 발명의 바닥면 코너 탐지를 비교한 예시이다. 도 7을 참조하면, 도 7a는 복원된 2차원 바이너리 이미지이며, 도 7b Harris Corner 알고리즘을 사용한 코너 탐지를 나타내며, 도 7c는 SIFT 알고리즘을 사용한 코너 탐지를 나타낸다. 도 7b, 도 7c에 도시된 바와 같이, 해당 결과 이미지의 경계에 해당하는 불규칙한 픽셀값이 코너로 탐지되는 것을 볼 수 있다. Figure 7 is an example comparing the floor corner detection of the prior art and the present invention. Referring to Figure 7, Figure 7a is a restored two-dimensional binary image, Figure 7b shows corner detection using the Harris Corner algorithm, and Figure 7c shows corner detection using the SIFT algorithm. As shown in Figures 7b and 7c, it can be seen that irregular pixel values corresponding to the boundaries of the resulting image are detected as corners.

반면에 본 발명의 CNN 모델을 통한 코너 탐지는 도 7d에 도시된 바와 같이, 불규칙한 픽셀에서도 정확한 코너 탐지 결과를 나타낸다.On the other hand, corner detection using the CNN model of the present invention produces accurate corner detection results even in irregular pixels, as shown in Figure 7d.

볼 발명의 코너 탐지 성능을 평가하기 위해 F1-Score, 정밀도, 재현율 값을 사용한다. F1-Score는 재현율과 정밀도의 조화평균을 의미하고 수학식 2로 표현할 수 있다. 이를 통해 추출한 성능 지표는 [표 1]과 같다. To evaluate the corner detection performance of the ball invention, F1-Score, precision, and recall values are used. F1-Score means the harmonic mean of recall and precision and can be expressed in Equation 2. The performance indicators extracted through this are shown in [Table 1].

이 세 가지 평가 지표가 높을수록 해당 바닥면의 코너를 정확하게 탐지했음을 의미한다. The higher these three evaluation indicators are, the more accurately the corner of the floor has been detected.

CNN 모델은 정밀도 90%, 재현율 85%, F1-Score 87%로 바닥면의 코너를 탐지하는 데 있어 높은 분류 성능을 나타낸다. The CNN model shows high classification performance in detecting floor corners with a precision of 90%, recall rate of 85%, and F1-Score of 87%.

도 8은 본 발명에 따른 바닥면 코너 탐지로부터 실내 공간을 추정한 예시이다. 도 8을 참조하면, 실내 전체 포인트 클라우드로 (도 8a)부터 추출된 2진 바이너리 바닥면으로부터 코너를 탐지한다 (도 8b). Figure 8 is an example of estimating indoor space from floor corner detection according to the present invention. Referring to Figure 8, corners are detected from the binary floor surface extracted from the entire indoor point cloud (Figure 8a) (Figure 8b).

그 후, 도 8c에 도시된 바와 같이, 코너로 인식된 바운딩 박스의 중심 좌표 기준으로 수직 벽을 세워 최종적으로 실내 공간 구조를 시각화한다Then, as shown in Figure 8c, a vertical wall is built based on the center coordinates of the bounding box recognized as a corner to finally visualize the indoor space structure.

이와 같은, 실내 바닥면 포인트 클라우드를 이용한 AI 기반 공간구조 추정 방법은 애플리케이션으로 구현되거나 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. This AI-based spatial structure estimation method using an indoor floor point cloud can be implemented as an application or in the form of program instructions that can be executed through various computer components and recorded on a computer-readable recording medium. The computer-readable recording medium may include program instructions, data files, data structures, etc., singly or in combination.

또한, 상기 프로그램은 프로세서에 연결된 메모리에 저장되어, 상기 프로세서에 의해 실행될 수도 있다.Additionally, the program may be stored in a memory connected to the processor and executed by the processor.

상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거니와 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다. The program instructions recorded on the computer-readable recording medium may be those specifically designed and configured for the present invention, or may be known and usable by those skilled in the computer software field.

컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and magneto-optical media such as floptical disks. media), and hardware devices specifically configured to store and perform program instructions, such as ROM, RAM, flash memory, etc.

프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of program instructions include not only machine language code such as that created by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules to perform processing according to the invention and vice versa.

이상에서는 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to the embodiments, those skilled in the art can make various modifications and changes to the present invention without departing from the spirit and scope of the present invention as set forth in the claims below. You will understand.

본 발명은 실세계와 유사한 메타버스 공간을 모델링하기 위한 기존의 방식들은 시간 및 많은 비용이 소모되는 문제를 극복하였다. 이에 의해 실세계와 유사한 메타버스 공간을 모델링 하는데 있어 사용자의 편의성을 증가시킬 수 있다. 따라서, 차세대 소셜 미디어와 스트리밍, 그리고 게임 플랫폼이 될 메타버스에 유용하게 적용될 수 있다.The present invention overcomes the problems that existing methods for modeling a metaverse space similar to the real world consume time and a lot of cost. This can increase user convenience in modeling a metaverse space similar to the real world. Therefore, it can be usefully applied to the metaverse, which will be the next-generation social media, streaming, and gaming platform.

200 : RGB-D 카메라 310 : 컬러 이미지
330 : 깊이 이미지 400 : 부분 포인트 클라우드
500 : 전체 포인트 클라우드 610 : 바닥면 포인트 클라우드
620 : 2차원 바이너리 이미지 621 : 소실 영역
641 : 코너 642 : 라인
200: RGB-D camera 310: color image
330: depth image 400: partial point cloud
500: Entire point cloud 610: Floor point cloud
620: 2D binary image 621: Vanishing area
641: corner 642: line

Claims (11)

실내 바닥면 포인트 클라우드를 이용한 AI 기반 공간구조 추정 장치로서,
프로세서;
상기 프로세서에 연결되는 메모리를 포함하되,
상기 메모리는,
카메라를 이용하여 실내공간을 스캔하고,
상기 실내공간으로부터 전체 포인트 클라우드를 생성하고,
상기 전체 포인트 클라우드로부터 바닥면 포인트 클라우드를 추출하고,
상기 바닥면 포인트 클라우드를 2차원 바이너리 이미지로 변환하며,
상기 2차원 바이너리 이미지를 코너 및 선으로 분류하여 학습하는 CNN 모델을 통해 상기 코너를 탐지하도록, 상기 프로세서에 의해 실행되는 프로그램 명령어들을 저장하는, 실내 바닥면 포인트 클라우드를 이용한 AI 기반 공간구조 추정 장치.
An AI-based spatial structure estimation device using indoor floor point cloud,
processor;
Including a memory connected to the processor,
The memory is,
Scan the indoor space using a camera,
Generate an entire point cloud from the indoor space,
Extract the floor point cloud from the entire point cloud,
Converting the floor point cloud into a two-dimensional binary image,
An AI-based spatial structure estimation device using an indoor floor point cloud that stores program instructions executed by the processor to detect the corners through a CNN model that classifies and learns the two-dimensional binary image into corners and lines.
제1항에 있어서,
상기 전체 포인트 클라우드는,
상기 실내공간으로부터 부분 포인트 클라우드를 생성하고,
상기 부분 포인트 클라우드를 컬러 이미지 정보 또는 깊이 이미지 정보를 기준으로 정합시켜 생성되는, 실내 바닥면 포인트 클라우드를 이용한 AI 기반 공간구조 추정 장치.
According to paragraph 1,
The entire point cloud is,
Generate a partial point cloud from the indoor space,
An AI-based spatial structure estimation device using an indoor floor point cloud that is generated by matching the partial point cloud based on color image information or depth image information.
제1항에 있어서,
상기 바닥면 포인트 클라우드는,
상기 전체 포인트 클라우드로부터 바닥면에 해당하는 임계값을 벗어나는 부분을 제거하여 추출되는, 실내 바닥면 포인트 클라우드를 이용한 AI 기반 공간구조 추정 장치.
According to paragraph 1,
The floor point cloud is,
An AI-based spatial structure estimation device using an indoor floor point cloud, which is extracted by removing the part that exceeds the threshold corresponding to the floor from the entire point cloud.
제1항에 있어서,
상기 코너를 탐지하는 것은, 상기 2차원 바이너리 이미지의 소실 부분을 홀 채움 알고리즘을 통해 복구한 후 CNN 모델을 통해 탐지하는 것인, 실내 바닥면 포인트 클라우드를 이용한 AI 기반 공간구조 추정 장치.
According to paragraph 1,
Detecting the corner is an AI-based spatial structure estimation device using an indoor floor point cloud, which involves recovering the missing part of the two-dimensional binary image through a hole-filling algorithm and then detecting it through a CNN model.
제1항에 있어서,
상기 탐지된 코너를 연결한 바운딩 박스의 중심 좌표를 기준으로 수직벽을 세워 상기 실내공간의 구조를 시각화하는, 실내 바닥면 포인트 클라우드를 이용한 AI 기반 공간구조 추정 장치.
According to paragraph 1,
An AI-based spatial structure estimation device using an indoor floor point cloud that visualizes the structure of the indoor space by erecting vertical walls based on the coordinates of the center of the bounding box connecting the detected corners.
카메라를 이용하여 실내공간을 스캔하는 단계;
전체 실내공간으로부터 전체 포인트 클라우드를 생성하는 단계;
상기 전체 포인트 클라우드로부터 바닥면 포인트 클라우드를 추출하는 단계;
상기 바닥면 클라우드를 2차원 바이너리 이미지로 변환하는 단계; 및
상기 2차원 바이너리 이미지를 코너 및 선으로 분류하여 학습하는 CNN 모델을 통해 상기 코너를 탐지하는 단계를 포함하는, 실내 바닥면 포인트 클라우드를 이용한 AI 기반 공간구조 추정 방법.
Scanning an indoor space using a camera;
Generating an entire point cloud from the entire indoor space;
Extracting a floor point cloud from the entire point cloud;
Converting the floor cloud into a two-dimensional binary image; and
An AI-based spatial structure estimation method using an indoor floor point cloud, comprising the step of classifying the two-dimensional binary image into corners and lines and detecting the corner through a learning CNN model.
제6항에 있어서,
상기 전체 포인트 클라우드를 생성하는 단계는,
상기 실내공간으로부터 부분 포인트 클라우드를 생성하는 단계; 및
상기 부분 포인트 클라우드를 컬러 이미지 정보 또는 깊이 이미지 정보를 기준으로 정합시켜 생성하는 단계를 포함하는, 실내 바닥면 포인트 클라우드를 이용한 AI 기반 공간구조 추정 방법.
According to clause 6,
The step of generating the entire point cloud is,
generating a partial point cloud from the indoor space; and
An AI-based spatial structure estimation method using an indoor floor point cloud, comprising generating the partial point cloud by matching it with color image information or depth image information.
제6항에 있어서,
상기 바닥면 포인트 클라우드를 추출하는 단계는,
상기 전체 포인트 클라우드로부터 바닥면에 해당하는 임계값을 벗어나는 부분을 제거하여 추출하는 단계인, 실내 바닥면 포인트 클라우드를 이용한 AI 기반 공간구조 추정 방법.
According to clause 6,
The step of extracting the floor point cloud is,
An AI-based spatial structure estimation method using an indoor floor point cloud, which is a step of extracting the part that exceeds the threshold corresponding to the floor from the entire point cloud.
제6항에 있어서,
상기 코너를 탐지하는 단계는,
상기 2차원 바이너리 이미지의 소실 부분을 홀 채움 알고리즘을 통해 복구한 후 상기 CNN 모델을 통해 탐지하는 단계인, 실내 바닥면 포인트 클라우드를 이용한 AI 기반 공간구조 추정 방법.
According to clause 6,
The step of detecting the corner is,
An AI-based spatial structure estimation method using an indoor floor point cloud, which is a step of recovering the missing part of the two-dimensional binary image through a hole-filling algorithm and then detecting it through the CNN model.
제6항에 있어서,
상기 탐지된 코너를 연결한 바운딩 박스의 중심 좌표를 기준으로 수직벽을 세워 상기 실내공간의 구조를 시각화하는 단계를 포함하는, 실내 바닥면 포인트 클라우드를 이용한 AI 기반 공간구조 추정 방법.
According to clause 6,
An AI-based spatial structure estimation method using an indoor floor point cloud, comprising the step of visualizing the structure of the indoor space by erecting a vertical wall based on the coordinates of the center of the bounding box connecting the detected corners.
제6항 내지 제10항 중 어느 하나의 항에 따른 상기 실내 바닥면 포인트 클라우드를 이용한 AI 기반 공간구조 추정 방법을 수행하기 위한 컴퓨터 프로그램이 기록된 컴퓨터로 판독 가능한 저장 매체.
A computer-readable storage medium recording a computer program for performing an AI-based spatial structure estimation method using the indoor floor point cloud according to any one of claims 6 to 10.
KR1020220107156A 2022-08-25 2022-08-25 Ai-based spatial structure estimation method using indoor floor point cloud, device and recording medium for performing the method KR20240028867A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220107156A KR20240028867A (en) 2022-08-25 2022-08-25 Ai-based spatial structure estimation method using indoor floor point cloud, device and recording medium for performing the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220107156A KR20240028867A (en) 2022-08-25 2022-08-25 Ai-based spatial structure estimation method using indoor floor point cloud, device and recording medium for performing the method

Publications (1)

Publication Number Publication Date
KR20240028867A true KR20240028867A (en) 2024-03-05

Family

ID=90298591

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220107156A KR20240028867A (en) 2022-08-25 2022-08-25 Ai-based spatial structure estimation method using indoor floor point cloud, device and recording medium for performing the method

Country Status (1)

Country Link
KR (1) KR20240028867A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101740259B1 (en) 2011-10-07 2017-05-29 한국전자통신연구원 Auto segmentation method of 3d point clouds

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101740259B1 (en) 2011-10-07 2017-05-29 한국전자통신연구원 Auto segmentation method of 3d point clouds

Similar Documents

Publication Publication Date Title
US10977818B2 (en) Machine learning based model localization system
US10373380B2 (en) 3-dimensional scene analysis for augmented reality operations
US10354129B2 (en) Hand gesture recognition for virtual reality and augmented reality devices
US9715761B2 (en) Real-time 3D computer vision processing engine for object recognition, reconstruction, and analysis
US8971612B2 (en) Learning image processing tasks from scene reconstructions
US8781217B2 (en) Analysis of three-dimensional scenes with a surface model
US8401225B2 (en) Moving object segmentation using depth images
KR101616926B1 (en) Image processing apparatus and method
CN111328396A (en) Pose estimation and model retrieval for objects in images
Azad et al. 6-DoF model-based tracking of arbitrarily shaped 3D objects
EP2671384A2 (en) Mobile camera localization using depth maps
CN110555908B (en) Three-dimensional reconstruction method based on indoor moving target background restoration
Günther et al. Building semantic object maps from sparse and noisy 3d data
Chen et al. A particle filtering framework for joint video tracking and pose estimation
KR20240028867A (en) Ai-based spatial structure estimation method using indoor floor point cloud, device and recording medium for performing the method
Zhang et al. Setforge-synthetic RGB-D training data generation to support CNN-based pose estimation for augmented reality
Zhang et al. A multiple camera system with real-time volume reconstruction for articulated skeleton pose tracking
Afzal et al. Kinect Deform: enhanced 3d reconstruction of non-rigidly deforming objects
Džijan et al. Towards fully synthetic training of 3D indoor object detectors: Ablation study
CN111915632A (en) Poor texture target object truth value database construction method based on machine learning
Botach et al. BIDCD--Bosch Industrial Depth Completion Dataset
Petit et al. Deformed reality
Keaveny Experimental Evaluation of Affordance Detection Applied to 6-DoF Pose Estimation for Intelligent Robotic Grasping of Household Objects
Martens et al. VOX2BIM: A fast method for automated point cloud segmentation
Le et al. Geometry-Based 3D Object Fitting and Localizing in Grasping Aid for Visually Impaired