KR20190076806A - Method for workspace modeling based on virtual wall using 3d scanner and system thereof - Google Patents

Method for workspace modeling based on virtual wall using 3d scanner and system thereof Download PDF

Info

Publication number
KR20190076806A
KR20190076806A KR1020170178885A KR20170178885A KR20190076806A KR 20190076806 A KR20190076806 A KR 20190076806A KR 1020170178885 A KR1020170178885 A KR 1020170178885A KR 20170178885 A KR20170178885 A KR 20170178885A KR 20190076806 A KR20190076806 A KR 20190076806A
Authority
KR
South Korea
Prior art keywords
virtual wall
wall surface
workspace
virtual
scanner
Prior art date
Application number
KR1020170178885A
Other languages
Korean (ko)
Other versions
KR101998396B1 (en
Inventor
박현근
김상연
신선영
안득용
임다미
Original Assignee
한국기술교육대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국기술교육대학교 산학협력단 filed Critical 한국기술교육대학교 산학협력단
Priority to KR1020170178885A priority Critical patent/KR101998396B1/en
Publication of KR20190076806A publication Critical patent/KR20190076806A/en
Application granted granted Critical
Publication of KR101998396B1 publication Critical patent/KR101998396B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10008Still image; Photographic image from scanner, fax or copier

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The present invention relates to a method of modeling a workspace based on virtual walls by using a three-dimensional scanner. More specifically, the method includes: a step (1) of generating space data by scanning only the frame of a workspace; a step (2) of generating virtual walls around the frame from the space data generated in the step (1); a step (3) of generating wall data by scanning a wall of the workspace corresponding to each of the virtual walls generated in the step (2); and a step (4) of modeling a workspace by integrating the space data generated in the step (1) with the wall data generated in the step (3). According to the present invention, a workspace can be more quickly and accurately modeled.

Description

3D 스캐너를 이용한 가상 벽면 기반의 작업 공간 모델링 방법 및 시스템{METHOD FOR WORKSPACE MODELING BASED ON VIRTUAL WALL USING 3D SCANNER AND SYSTEM THEREOF}TECHNICAL FIELD [0001] The present invention relates to a virtual space-based workspace modeling method and system using a 3D scanner,

본 발명은 작업 공간 모델링 방법 및 시스템에 관한 것으로서, 보다 구체적으로는 3D 스캐너를 이용한 가상 벽면 기반의 작업 공간 모델링 방법 및 시스템에 관한 것이다.The present invention relates to a workspace modeling method and system, and more particularly, to a virtual wall-based workspace modeling method and system using a 3D scanner.

일반적으로 로컬리제이션(Localization)은 맵(Map)이 주어져 있을 때 오브젝트(Object)의 위치를 찾아내는 작업, 즉, 위치 측정을 의미하며, 매핑(Mapping)은 오브젝트의 위치를 알 수 있을 때 맵(Map)을 만들어가는 작업을 의미한다.
In general, localization refers to the task of finding the position of an object when a map is given, that is, a position measurement. Mapping is a process of finding a position of an object when a map is given, Map).

도 1은 SLAM 알고리즘을 이용한 작업 공간 모델링 결과를 도시한 도면이다. 일반적으로 공간을 스캔하는 3D 스캐너에서 사용하는 SLAM(Simultaneous Localization And Mapping) 알고리즘은 로컬리제이션과 매핑을 동시에 처리하는 알고리즘이다. 이러한 SLAM 알고리즘은 맵이 주어져있지 않고, 맵에서 오브젝트의 위치도 알 수 없을 때 주로 사용될 수 있다. 즉, 3D 스캐너에서 SLAM 알고리즘을 사용하는 경우, 3D 스캐너가 오브젝트가 되어 공간을 스캔하고, 스캔한 데이터를 이용하여 공간을 매핑함으로써 맵을 만들 수 있다.
1 is a diagram showing a result of workspace modeling using the SLAM algorithm. In general, SLAM (Simultaneous Localization And Mapping) algorithm used in a 3D scanner that scans a space is an algorithm that simultaneously processes both localization and mapping. This SLAM algorithm can be used mainly when the map is not given and the position of the object in the map is unknown. That is, when the SLAM algorithm is used in the 3D scanner, the 3D scanner can be used as an object to scan the space and map the space using the scanned data.

그러나 SLAM 알고리즘은 이전 프레임을 기준으로 다음 프레임의 위치를 계산하기 때문에, 스캔 시간이 늘어날수록 오차가 누적되는 문제점이 있었다. 따라서 넓은 공간을 오랜 시간에 걸쳐 스캔하는 경우 정확한 데이터를 얻기 어렵다는 한계점이 있었다. 즉, 도 1에 도시된 바와 같이, 오차가 누적되어 스캔한 데이터가 실제 공간과 매칭되도록 매핑되지 않으며, 일부 공간이 왜곡될 수 있다.
However, since the SLAM algorithm calculates the position of the next frame based on the previous frame, the error is accumulated as the scan time increases. Therefore, there is a limitation in that it is difficult to obtain accurate data when scanning a wide space over a long period of time. That is, as shown in FIG. 1, the accumulated data is not mapped so that the scanned data is matched with the actual space, and some space may be distorted.

또한, SLAM에서는 로컬리제이션과 매핑을 동시에 수행해야 하므로, 요구되는 연산량이 매우 높고, 그에 따라 오버헤드(Overhead)가 크다는 문제점이 있었다.
In addition, since localization and mapping are simultaneously performed in the SLAM, there is a problem that the required amount of computation is very high and the overhead is large accordingly.

관련된 선행 기술로서, 대한민국 등록특허 제10-1280392호 ‘SLAM 기술 기반 이동 로봇의 지도를 관리하기 위한 장치 및 그 방법’ 등이 제안된 바 있다.As related prior art, Korean Patent Registration No. 10-1280392 entitled " Device and method for managing map of mobile robot based on SLAM technology " has been proposed.

본 발명은 기존에 제안된 방법들의 상기와 같은 문제점들을 해결하기 위해 제안된 것으로서, 3D 스캐너를 통해 스캔한 공간 데이터를 가상 벽면에 프로젝션함으로써, 넓은 작업 공간을 스캔하는 경우에도 작업 공간의 프레임만을 먼저 스캔할 수 있으므로 빠른 스캔을 통해 오차를 최소화할 수 있고, 스캔한 공간 데이터가 X, Y, Z축 상에 정렬되어 있지 않은 경우에도 각각의 축에 프로젝션한 프로젝션 데이터의 외곽선을 추출하여 각각의 축 상에 정렬할 수 있는, 3D 스캐너를 이용한 가상 벽면 기반의 작업 공간 모델링 방법 및 시스템을 제공하는 것을 목적으로 한다.
The present invention has been proposed in order to solve the above-mentioned problems of the previously proposed methods. By projecting spatial data scanned through a 3D scanner onto a virtual wall surface, even if a large work space is scanned, It is possible to minimize the error by fast scanning. Even if the scanned spatial data is not aligned on the X, Y, and Z axes, the outline of the projection data projected on each axis is extracted, And a method and system for modeling a workspace based on a virtual wall using a 3D scanner.

또한, 본 발명은, 가상의 벽면에 대응하는 작업 공간의 벽면 별로 공간을 스캔함으로써, 빠른 스캔을 통해 오차를 최소화하면서도 스캔된 각각의 벽면 데이터를 통합하여 보다 빠르고 정확하게 작업 공간을 모델링할 수 있는, 3D 스캐너를 이용한 가상 벽면 기반의 작업 공간 모델링 방법 및 시스템을 제공하는 것을 목적으로 한다.It is another object of the present invention to provide a method and system for quickly and accurately modeling a work space by integrating each scanned wall surface data while minimizing errors through quick scanning by scanning a space for each wall surface of a work space corresponding to a virtual wall surface, It is an object of the present invention to provide a virtual space-based workspace modeling method and system using a 3D scanner.

상기한 목적을 달성하기 위한 본 발명의 특징에 따른 3D 스캐너를 이용한 가상 벽면 기반의 작업 공간 모델링 방법은,According to an aspect of the present invention, there is provided a method for modeling a virtual wall-based workspace using a 3D scanner,

3D 스캐너를 이용한 작업 공간 모델링 방법에 있어서,A method of modeling a workspace using a 3D scanner,

(1) 작업 공간의 프레임만 스캔하여 공간 데이터를 생성하는 단계;(1) generating spatial data by scanning only a frame of a work space;

(2) 상기 단계 (1)에서 생성한 공간 데이터에서 상기 프레임 주변에 가상 벽면을 생성하는 단계;(2) creating a virtual wall around the frame in the spatial data generated in the step (1);

(3) 상기 단계 (2)에서 생성한 상기 가상 벽면 별로 대응하는 상기 작업 공간의 벽면을 스캔하여 벽면 데이터를 생성하는 단계; 및(3) generating wall surface data by scanning the wall surface of the corresponding work space for each virtual wall surface generated in the step (2); And

(4) 상기 단계 (1)에서 생성한 상기 공간 데이터 및 상기 단계 (3)에서 생성한 상기 벽면 데이터를 통합하여 작업 공간을 모델링하는 단계를 포함하는 것을 그 구성상의 특징으로 한다.
(4) modeling the work space by integrating the spatial data generated in the step (1) and the wall surface data generated in the step (3).

바람직하게는, 상기 단계 (2)는,Preferably, the step (2)

상기 가상 벽면으로 구성된 직육면체가 상기 작업 공간의 프레임을 포함할 수 있다.
And a rectangular parallelepiped composed of the virtual wall surface may include a frame of the work space.

더욱 바람직하게는, 상기 단계 (2)는,More preferably, the step (2)

상기 단계 (1)에서 생성한 상기 공간 데이터를 X, Y 및 Z축에 정렬할 수 있다.
The spatial data generated in the step (1) may be arranged on the X, Y and Z axes.

더욱더 바람직하게는, 상기 단계 (2)는,Even more preferably, the step (2)

(2-1) 상기 단계 (1)에서 생성한 상기 공간 데이터를 각각 X, Y 및 Z축과 직교하는 가상 벽면에 프로젝션한 프로젝션 데이터를 생성하는 단계;(2-1) generating projection data in which the spatial data generated in the step (1) is projected on virtual wall surfaces orthogonal to X, Y and Z axes, respectively;

(2-2) 상기 단계 (2-1)에서 생성한 각각의 상기 프로젝션 데이터의 외곽선을 추출하는 단계; 및(2-2) extracting an outline of each of the projection data generated in the step (2-1); And

(2-3) 상기 단계 (2-2)에서 추출한 상기 외곽선을 각각의 X, Y 및 Z축에 맞추어 정렬하는 단계를 포함할 수 있다.
(2-3) aligning the outlines extracted in the step (2-2) to respective X, Y and Z axes.

더욱더 바람직하게는, 상기 외곽선은,Even more preferably,

사각형을 형성할 수 있다.
A square can be formed.

바람직하게는, 상기 단계 (4)는,Preferably, the step (4)

상기 가상 벽면 별로 접하는 4개의 가상 벽면에 대하여 각각의 벽면 데이터 별로 중첩되는 부분이 결합되는 형태로 상기 작업 공간을 모델링할 수 있다.
The work space may be modeled in such a manner that overlapping portions of the four virtual wall surfaces tangent to the virtual wall surface are superimposed on the respective wall surface data.

상기한 목적을 달성하기 위한 본 발명의 특징에 따른 3D 스캐너를 이용한 가상 벽면 기반의 작업 공간 모델링 시스템은,According to an aspect of the present invention, there is provided a virtual space-based workspace modeling system using a 3D scanner,

상기 3D 스캐너를 이용한 가상 벽면 기반의 작업 공간 모델링 방법을 이용하는 것을 그 구성상의 특징으로 한다.A virtual wall-based workspace modeling method using the 3D scanner is used.

본 발명에서 제안하고 있는 3D 스캐너를 이용한 가상 벽면 기반의 작업 공간 모델링 방법 및 시스템에 따르면, 3D 스캐너를 통해 스캔한 공간 데이터를 가상 벽면에 프로젝션함으로써, 넓은 작업 공간을 스캔하는 경우에도 작업 공간의 프레임만을 먼저 스캔할 수 있으므로 빠른 스캔을 통해 오차를 최소화할 수 있고, 스캔한 공간 데이터가 X, Y, Z축 상에 정렬되어 있지 않은 경우에도 각각의 축에 프로젝션한 프로젝션 데이터의 외곽선을 추출하여 각각의 축 상에 정렬할 수 있다.
According to the virtual wall-based workspace modeling method and system using the 3D scanner proposed in the present invention, by projecting the spatial data scanned through the 3D scanner onto the virtual wall surface, even when scanning a wide work space, It is possible to minimize the error by fast scanning. Even if the scanned spatial data is not aligned on the X, Y, Z axes, the outline of the projection data projected on each axis is extracted As shown in FIG.

또한, 본 발명에서 제안하고 있는 3D 스캐너를 이용한 가상 벽면 기반의 작업 공간 모델링 방법 및 시스템에 따르면, 가상의 벽면에 대응하는 작업 공간의 벽면 별로 공간을 스캔함으로써, 빠른 스캔을 통해 오차를 최소화하면서도 스캔된 각각의 벽면 데이터를 통합하여 보다 빠르고 정확하게 작업 공간을 모델링할 수 있다.According to the virtual wall-based workspace modeling method and system using the 3D scanner proposed in the present invention, the space is scanned by the wall surface of the work space corresponding to the virtual wall surface, By integrating each wall data, it is possible to model work space more quickly and accurately.

도 1은 SLAM 알고리즘을 이용한 작업 공간 모델링 결과를 도시한 도면.
도 2는 본 발명의 일 실시예에 따른 3D 스캐너를 이용한 가상 벽면 기반의 작업 공간 모델링 방법의 구성을 도시한 도면.
도 3은 본 발명의 일 실시예에 따른 3D 스캐너를 이용한 가상 벽면 기반의 작업 공간 모델링 방법의 단계 S100에서 작업 공간의 프레임만을 스캔하는 모습을 도시한 도면.
도 4는 본 발명의 일 실시예에 따른 3D 스캐너를 이용한 가상 벽면 기반의 작업 공간 모델링 방법의 단계 S200에서 가상 벽면을 생성한 모습을 도시한 도면.
도 5는 본 발명의 일 실시예에 따른 3D 스캐너를 이용한 가상 벽면 기반의 작업 공간 모델링 방법의 단계 S200에서 가상 벽면을 생성한 모습을 도시한 도면.
도 6은 본 발명의 일 실시예에 따른 3D 스캐너를 이용한 가상 벽면 기반의 작업 공간 모델링 방법의 단계 S200의 구성을 도시한 도면.
도 7은 본 발명의 일 실시예에 따른 3D 스캐너를 이용한 가상 벽면 기반의 작업 공간 모델링 방법의 단계 S210에서 프로젝션 데이터를 생성하는 모습을 도시한 도면.
도 8은 본 발명의 일 실시예에 따른 3D 스캐너를 이용한 가상 벽면 기반의 작업 공간 모델링 방법의 단계 S230에서 외곽선을 X, Y 및 Z축에 맞추어 정렬하는 모습을 도시한 도면.
도 9는 본 발명의 일 실시예에 따른 3D 스캐너를 이용한 가상 벽면 기반의 작업 공간 모델링 방법의 단계 S300에서 벽면 데이터를 생성하는 모습을 도시한 도면.
도 10은 본 발명의 일 실시예에 따른 3D 스캐너를 이용한 가상 벽면 기반의 작업 공간 모델링 방법의 단계 S400에서 작업 공간을 모델링하는 모습을 도시한 도면.
도 11은 본 발명의 일 실시예에 따른 3D 스캐너를 이용한 가상 벽면 기반의 작업 공간 모델링 방법의 단계 S400에서 작업 공간을 모델링하는 모습을 도시한 도면.
1 shows a result of workspace modeling using a SLAM algorithm;
BACKGROUND OF THE INVENTION Field of the Invention [0001] The present invention relates to a method and apparatus for modeling a workspace based on a virtual wall using a 3D scanner according to an embodiment of the present invention.
3 is a view illustrating scanning of only a frame of a work space in step S100 of a virtual wall-based workspace modeling method using a 3D scanner according to an embodiment of the present invention.
FIG. 4 is a view illustrating a virtual wall generated in step S200 of a virtual wall-based workspace modeling method using a 3D scanner according to an embodiment of the present invention. FIG.
5 is a view showing a virtual wall surface created in step S200 of a virtual wall-based workspace modeling method using a 3D scanner according to an embodiment of the present invention.
6 is a diagram illustrating a construction of a step S200 of a virtual wall-based workspace modeling method using a 3D scanner according to an embodiment of the present invention.
FIG. 7 is a view illustrating generation of projection data in step S210 of a virtual wall-based workspace modeling method using a 3D scanner according to an embodiment of the present invention. FIG.
8 is a view illustrating a method of aligning outlines in X, Y, and Z axes in step S230 of a virtual wall-based workspace modeling method using a 3D scanner according to an exemplary embodiment of the present invention.
9 is a view illustrating a process of generating wall data in step S300 of a virtual wall-based workspace modeling method using a 3D scanner according to an embodiment of the present invention.
FIG. 10 illustrates modeling a workspace in operation S400 of a virtual wall-based workspace modeling method using a 3D scanner according to an embodiment of the present invention. FIG.
FIG. 11 illustrates modeling a workspace in step S400 of a virtual wall-based workspace modeling method using a 3D scanner according to an embodiment of the present invention. FIG.

이하에서는 첨부된 도면을 참조하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 바람직한 실시예를 상세히 설명한다. 다만, 본 발명의 바람직한 실시예를 상세하게 설명함에 있어, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다. 또한, 유사한 기능 및 작용을 하는 부분에 대해서는 도면 전체에 걸쳐 동일 또는 유사한 부호를 사용한다.
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. In the following detailed description of the preferred embodiments of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. The same or similar reference numerals are used throughout the drawings for portions having similar functions and functions.

덧붙여, 명세서 전체에서, 어떤 부분이 다른 부분과 ‘연결’되어 있다고 할 때, 이는 ‘직접적으로 연결’되어 있는 경우뿐만 아니라, 그 중간에 다른 소자를 사이에 두고 ‘간접적으로 연결’되어 있는 경우도 포함한다. 또한, 어떤 구성요소를 ‘포함’한다는 것은, 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있다는 것을 의미한다.
In addition, in the entire specification, when a part is referred to as being 'connected' to another part, it may be referred to as 'indirectly connected' not only with 'directly connected' . Also, to "include" an element means that it may include other elements, rather than excluding other elements, unless specifically stated otherwise.

도 2는 본 발명의 일 실시예에 따른 3D 스캐너를 이용한 가상 벽면 기반의 작업 공간 모델링 방법의 구성을 도시한 도면이다. 도 2에 도시된 바와 같이, 본 발명의 일 실시예에 따른 3D 스캐너를 이용한 가상 벽면 기반의 작업 공간 모델링 방법은, 작업 공간의 프레임만 스캔하여 공간 데이터를 생성하는 단계(S100), 단계 S100에서 생성한 공간 데이터에서 작업 공간의 프레임 주변에 가상 벽면을 생성하는 단계(S200), 단계 S200에서 생성한 가상 벽면 별로 대응하는 작업 공간의 벽면을 스캔하여 벽면 데이터를 생성하는 단계(S300), 및 단계 S100에서 생성한 공간 데이터 및 단계 S300에서 생성한 벽면 데이터를 통합하여 작업 공간을 모델링하는 단계(S400)를 포함할 수 있다. 이하에서는, 본 발명의 일 실시예에 따른 3D 스캐너를 이용한 가상 벽면 기반의 작업 공간 모델링 방법의 각각의 구성에 대해 상세히 설명하기로 한다.
2 is a diagram illustrating a construction method of a virtual wall-based workspace modeling method using a 3D scanner according to an embodiment of the present invention. As shown in FIG. 2, a virtual wall-based workspace modeling method using a 3D scanner according to an embodiment of the present invention includes steps S100 of generating a spatial data by scanning only a frame of a workspace, A step S300 of generating a wall surface data by scanning a wall surface of a work space corresponding to each virtual wall surface generated in the step S200, and a step (Step S400) of modeling the workspace by integrating the spatial data generated in step S100 and the wall surface data generated in step S300. Hereinafter, each configuration of the virtual space-based workspace modeling method using the 3D scanner according to an embodiment of the present invention will be described in detail.

도 3은 본 발명의 일 실시예에 따른 3D 스캐너를 이용한 가상 벽면 기반의 작업 공간 모델링 방법의 단계 S100에서 작업 공간의 프레임만을 스캔하는 모습을 도시한 도면이다. 도 3에 도시된 바와 같이, 단계 S100에서는, 작업 공간의 프레임만 스캔하여 공간 데이터를 생성할 수 있다. 여기서, 공간 데이터는, 도 3의 (a)에 도시된 바와 같이, 작업 공간의 프레임만을 스캔하고, 모델링된 작업 공간 모델일 수 있다. 일반적으로 SLAM 알고리즘은 넓은 공간을 오랜 시간에 걸쳐 스캔하는 경우, 오차가 누적되어 스캔한 공간 데이터가 실제 공간과 매칭되도록 매핑되지 않을 수 있다. 그러나 본 발명의 일 실시예에 따른 3D 스캐너를 이용한 가상 벽면 기반의 작업 공간 모델링 방법은, 단계 S100에서 작업 공간의 프레임만을 먼저 스캔하므로 작업 공간을 매우 빠르게 스캔할 수 있다. 따라서 도 3의 (b)에 도시된 바와 같이, 단계 S100에서는, 공간이 왜곡 없이 스캔한 공간 데이터가 실제 작업 공간과 매칭되도록 작업 공간의 프레임이 매핑될 수 있다.
FIG. 3 is a view illustrating a method of scanning a frame of a work space in step S100 of a virtual wall-based workspace modeling method using a 3D scanner according to an embodiment of the present invention. As shown in Fig. 3, in step S100, only the frame of the work space can be scanned to generate spatial data. Here, the spatial data may be a modeled workspace model that scans only the frames of the workspace, as shown in FIG. 3 (a). In general, when a large space is scanned over a long time, the SLAM algorithm may not be mapped so that the scanned spatial data is accumulated with an error so as to match the actual space. However, the virtual wall-based workspace modeling method using the 3D scanner according to the embodiment of the present invention can scan the work space very quickly because only the frame of the work space is scanned first in step S100. Therefore, as shown in FIG. 3 (b), in step S100, a frame of the work space may be mapped so that the space data scanned without distortions match the actual work space.

도 4는 본 발명의 일 실시예에 따른 3D 스캐너를 이용한 가상 벽면 기반의 작업 공간 모델링 방법의 단계 S200에서 가상 벽면을 생성한 모습을 도시한 도면이다. 도 4에 도시된 바와 같이, 단계 S200에서는, 단계 S100에서 생성한 공간 데이터에서 프레임 주변에 가상 벽면을 생성할 수 있다. 이때, 도 4의 (a)를 참조하면, 각각의 가상 벽면은, 사각형 모양의 평면일 수 있다.
4 is a view showing a virtual wall surface created in step S200 of a virtual wall-based workspace modeling method using a 3D scanner according to an embodiment of the present invention. As shown in Fig. 4, in step S200, a virtual wall surface can be created around the frame in the spatial data generated in step S100. At this time, referring to FIG. 4A, each virtual wall surface may be a square-shaped plane.

이때, 단계 S200에서는, 가상 벽면으로 구성된 직육면체가 공간 데이터를 포함할 수 있다. 보다 구체적으로는, 단계 S200에서는, 가상 벽면으로 구성된 직육면체가 작업 공간의 프레임을 포함할 수 있다. 즉, 단계 S200에서는, 작업 공간의 프레임을 포함하도록 프레임 주변에 가상 벽면을 생성할 수 있다. 도 4의 (b)를 참조하면, 단계 S200에서 생성한 각각의 가상 벽면으로 구성된 직육면체가 작업 공간의 프레임을 포함할 수 있다.
At this time, in step S200, the rectangular parallelepiped composed of virtual walls may contain spatial data. More specifically, in step S200, the rectangular parallelepiped composed of the virtual wall surface may include a frame of the work space. That is, in step S200, a virtual wall surface can be created around the frame so as to include the frame of the work space. Referring to FIG. 4 (b), the rectangular parallelepiped formed by each virtual wall surface generated in step S200 may include a frame of the work space.

도 5는 본 발명의 일 실시예에 따른 3D 스캐너를 이용한 가상 벽면 기반의 작업 공간 모델링 방법의 단계 S200에서 가상 벽면을 생성한 모습을 도시한 도면이다. 도 5의 (a)에 도시된 바와 같이, 가상 벽면으로 구성된 직육면체가 공간 데이터를 포함하는 경우, 공간 데이터가 X, Y 및 Z축에 정렬되어 있지 않을 수 있다. 이처럼 공간 데이터가 X, Y 및 Z축에 정렬되어 있지 않은 경우, 각각의 가상 벽면 별로 작업 공간을 별도로 스캔하여 통합하기가 매우 어렵다. 따라서 단계 S200에서는, 단계 S100에서 생성한 공간 데이터를 X, Y 및 Z축에 정렬할 수 있다. 즉, 도 5의 (b)에 도시된 바와 같이, 단계 S200에서는, 공간 데이터를 X, Y 및 Z축에 정렬할 수 있다.
FIG. 5 is a diagram illustrating a virtual wall generated in step S200 of a virtual wall-based workspace modeling method using a 3D scanner according to an embodiment of the present invention. As shown in FIG. 5A, when the rectangular parallelepiped composed of virtual walls includes spatial data, the spatial data may not be aligned in the X, Y, and Z axes. If the spatial data is not aligned on the X, Y, and Z axes, it is very difficult to scan and integrate workspaces separately for each virtual wall. Therefore, in step S200, the spatial data generated in step S100 can be aligned on the X, Y, and Z axes. That is, as shown in FIG. 5B, in step S200, the spatial data can be aligned on the X, Y, and Z axes.

도 6은 본 발명의 일 실시예에 따른 3D 스캐너를 이용한 가상 벽면 기반의 작업 공간 모델링 방법의 단계 S200의 구성을 도시한 도면이다. 도 6에 도시된 바와 같이, 단계 S200은, 단계 S100에서 생성한 공간 데이터를 각각 X, Y 및 Z축과 직교하는 가상 벽면에 프로젝션한 프로젝션 데이터를 생성하는 단계(S210), 단계 S210에서 생성한 각각의 프로젝션 데이터의 외곽선을 추출하는 단계(S220), 및 단계 S220에서 추출한 외곽선을 각각의 X, Y 및 Z축에 맞추어 정렬하는 단계(S230)를 포함할 수 있다. 이하에서는, 본 발명의 일 실시예에 따른 3D 스캐너를 이용한 가상 벽면 기반의 작업 공간 모델링 방법의 단계 S200에 대해 상세히 설명하기로 한다.
FIG. 6 is a diagram illustrating the construction of a virtual wall-based workspace modeling method using a 3D scanner according to an exemplary embodiment of the present invention. 6, step S200 includes a step S210 of generating projection data in which the spatial data generated in step S100 are projected on virtual wall surfaces orthogonal to the X, Y and Z axes, respectively, in step S210, A step S220 of extracting the outline of each projection data, and a step S230 of aligning the outline drawn in step S220 to the respective X, Y and Z axes. Hereinafter, step S200 of the virtual wall-based workspace modeling method using the 3D scanner according to an embodiment of the present invention will be described in detail.

도 7은 본 발명의 일 실시예에 따른 3D 스캐너를 이용한 가상 벽면 기반의 작업 공간 모델링 방법의 단계 S210에서 프로젝션 데이터를 생성하는 모습을 도시한 도면이다. 도 7에 도시된 바와 같이, 단계 S210에서는, 단계 S100에서 생성한 공간 데이터를 각각 X, Y 및 Z축과 직교하는 가상 벽면에 프로젝션한 프로젝션 데이터를 생성할 수 있다. 여기서, X, Y 및 Z축과 직교하는 가상 벽면은 각각 2개일 수 있으나, 2개의 가상 벽면 중 어떠한 가상 벽면으로 공간 데이터를 프로젝션하더라도 프로젝션 데이터는 동일하게 생성될 수 있다.
FIG. 7 is a diagram illustrating a process of generating projection data in step S210 of a method of modeling a virtual wall-based workspace using a 3D scanner according to an embodiment of the present invention. As shown in Fig. 7, in step S210, the projection data generated by projecting the spatial data generated in step S100 onto virtual wall surfaces orthogonal to the X, Y, and Z axes, respectively, can be generated. Here, each of the imaginary wall planes orthogonal to the X, Y, and Z axes may be two, but the projection data can be generated in the same manner regardless of the projection of the spatial data to any of the two imaginary wall planes.

한편, 단계 S210에서는, 총 3개의 프로젝션 데이터가 생성될 수 있다. 즉, 단계 S210에서는, 공간 데이터를 X축으로 프로젝션한 프로젝션 데이터, Y축으로 프로젝션한 프로젝션 데이터, 그리고 Z축으로 프로젝션한 프로젝션 데이터가 생성될 수 있다.
On the other hand, in step S210, a total of three projection data can be generated. That is, in step S210, the projection data obtained by projecting the spatial data on the X axis, the projection data projected on the Y axis, and the projection data projected on the Z axis can be generated.

단계 S220에서는, 단계 S210에서 생성한 각각의 프로젝션 데이터의 외곽선을 추출할 수 있다. 이때, 외곽선은 사각형을 형성할 수 있다. 즉, 단계 S220에서는, 각각의 프로젝션 데이터에서 프로젝션 데이터를 포함하도록 형성되는 외곽선을 추출할 수 있다. 도 7을 참조하면, 단계 S220에서는, 각각의 프로젝션 데이터에서 각각의 축으로 프로젝션된 공간 데이터를 포함하도록 외곽선을 추출할 수 있다. 다시 말해, 이러한 외곽선으로 구성되는 사각형은 프로젝션 데이터를 포함할 수 있다.
In step S220, the outline of each projection data generated in step S210 can be extracted. At this time, the outline can form a square. That is, in step S220, it is possible to extract an outline formed so as to include projection data from each projection data. Referring to FIG. 7, in step S220, an outline can be extracted to include spatial data projected on each axis in each projection data. In other words, a rectangle composed of such outlines can include projection data.

도 8은 본 발명의 일 실시예에 따른 3D 스캐너를 이용한 가상 벽면 기반의 작업 공간 모델링 방법의 단계 S230에서 외곽선을 X, Y 및 Z축에 맞추어 정렬하는 모습을 도시한 도면이다. 도 8에 도시된 바와 같이, 단계 S230에서는, 단계 S220에서 추출한 외곽선을 각각의 X, Y 및 Z축에 맞추어 정렬할 수 있다. 여기서, 외곽선을 X, Y 및 Z축에 맞추어 정렬한다는 것은, 외곽선으로 구성되는 사각형이 가상 벽면과 일치하도록 정렬하는 것을 의미할 수 있다. 도 8을 참조하면, 단계 S230에서는, 각각의 프로젝션 데이터에서 추출한 외곽선을 X, Y 및 Z축에 맞추어 정렬할 수 있으며, 그 결과 외곽선이 각각의 가상 벽면의 외곽선과 일치할 수 있다.
FIG. 8 is a diagram illustrating a method of aligning outlines in X, Y, and Z axes in step S230 of a virtual wall-based workspace modeling method using a 3D scanner according to an embodiment of the present invention. As shown in FIG. 8, in step S230, the outline drawn in step S220 may be aligned with each of the X, Y, and Z axes. Here, aligning the outline along the X, Y, and Z axes may mean aligning the rectangle formed by the outline to match the imaginary wall. Referring to FIG. 8, in step S230, the outlines extracted from the respective projection data can be aligned to the X, Y, and Z axes, so that the outline can match the outline of each virtual wall.

전술한 바와 같이, 단계 S200에서는, 가상 벽면으로 구성된 직육면체가 작업 공간의 프레임을 포함하되, 공간 데이터를 X, Y 및 Z축에 정렬할 수 있다. 따라서 단계 S200에서 생성되는 가상 벽면은 작업 공간의 각각의 벽면과 평행하도록 생성될 수 있다.
As described above, in step S200, the rectangular parallelepiped including the virtual wall surface includes the frame of the work space, and the spatial data can be aligned on the X, Y, and Z axes. Therefore, the virtual wall surface generated in step S200 can be generated so as to be parallel to each wall surface of the work space.

도 9는 본 발명의 일 실시예에 따른 3D 스캐너를 이용한 가상 벽면 기반의 작업 공간 모델링 방법의 단계 S300에서 벽면 데이터를 생성하는 모습을 도시한 도면이다. 도 9에 도시된 바와 같이, 단계 S300에서는, 단계 S200에서 생성한 가상 벽면 별로 대응하는 작업 공간의 벽면을 스캔하여 벽면 데이터를 생성할 수 있다. 단계 S100에서는 작업 공간의 프레임만을 스캔하였으므로, 작업 공간의 각각의 벽면에 대한 스캔까지는 이루어지지 않은 상태일 수 있다. 따라서 단계 S300에서는, 가상 벽면 별로 대응하는 작업 공간의 벽면을 각각 스캔하여 작업 공간의 벽면에 있는 오브젝트까지 상세하게 스캔할 수 있다. 도 9를 참조하면, 5개의 가상 벽면 별로 대응하는 작업 공간을 스캔한 결과가 도시되어 있다. 즉, 단계 S300에서는, 각각의 가상 벽면 별로 대응하는 작업 공간을 각각 스캔할 수 있다. 다시 말해, 단계 S300에서는, 작업 공간을 전체적으로 스캔하는 것이 아니라, 가상 벽면에 대응하는 작업 공간의 벽면만을 스캔하므로 빠르게 스캔을 완료할 수 있다. 따라서 SLAM 알고리즘을 이용하는 3D 스캐너를 사용하여 작업 공간을 스캔하는 경우에도 스캔 시 오차를 최소화할 수 있다.
9 is a view illustrating a process of generating wall data in step S300 of a method of modeling a virtual wall-based workspace using a 3D scanner according to an embodiment of the present invention. As shown in FIG. 9, in step S300, the wall surface data of the corresponding work space may be scanned for each virtual wall surface generated in step S200. In step S100, since only the frame of the work space is scanned, it may not be completed until the scan on each wall surface of the work space. Accordingly, in step S300, the wall surface of the corresponding work space may be scanned for each virtual wall surface, and the object on the wall surface of the work space may be scanned in detail. Referring to FIG. 9, a result of scanning a corresponding work space for each of five virtual walls is shown. That is, in step S300, the corresponding work space may be scanned for each virtual wall surface. In other words, in step S300, not only the work space is scanned as a whole, but only the wall surface of the work space corresponding to the virtual wall surface is scanned so that the scan can be completed quickly. Therefore, even when a workspace is scanned using a 3D scanner using the SLAM algorithm, the error in scanning can be minimized.

도 10 및 도 11은 본 발명의 일 실시예에 따른 3D 스캐너를 이용한 가상 벽면 기반의 작업 공간 모델링 방법의 단계 S400에서 작업 공간을 모델링하는 모습을 도시한 도면이다. 도 10에 도시된 바와 같이, 단계 S400에서는, 단계 S100에서 생성한 공간 데이터 및 단계 S300에서 생성한 벽면 데이터를 통합하여 작업 공간을 모델링할 수 있다. 단계 S100에서 생성한 공간 데이터는 작업 공간의 프레임만을 스캔한 데이터일 수 있다. 또한, 단계 S400에서 생성한 벽면 데이터는 작업 공간의 각각의 벽면을 스캔한 데이터일 수 있다. 따라서 단계 S500에서는, 공간 데이터와 벽면 데이터를 통합하여 전체적인 작업 공간을 모델링할 수 있다. 즉, 도 10의 (a)를 참조하면, 단계 S100에서 생성한 공간 데이터에 각각의 가상 벽면에 각각의 벽면 데이터를 결합할 수 있다. 단계 S400에서 공간 데이터와 벽면 데이터를 통합하여 모델링된 작업 공간은 도 10의 (b)에 도시된 바와 같다.
FIGS. 10 and 11 are diagrams illustrating modeling of a workspace in step S400 of a virtual wall-based workspace modeling method using a 3D scanner according to an embodiment of the present invention. As shown in Fig. 10, in step S400, the work space can be modeled by integrating the spatial data generated in step S100 and the wall surface data generated in step S300. The spatial data generated in step S100 may be data obtained by scanning only the frame of the work space. The wall surface data generated in step S400 may be data obtained by scanning each wall surface of the work space. Therefore, in step S500, the entire work space can be modeled by integrating the space data and the wall surface data. That is, referring to FIG. 10A, each wall data can be combined with each virtual wall surface in the spatial data generated in step S100. The work space modeled by integrating the spatial data and the wall surface data in step S400 is as shown in FIG. 10 (b).

이때, 단계 S400에서는, 각각의 가상 벽면 별로 접하는 4개의 가상 벽면에 대하여 각각의 벽면 데이터 별로 중첩되는 부분이 결합되는 형태로 작업 공간을 모델링할 수 있다. 도 10의 (a)를 참조하면, 하나의 가상 벽면은 4개의 가상 벽면과 인접할 수 있다. 이때, 단계 S300에서 생성된 벽면 데이터는, 각각의 벽면별로 스캔된 데이터이므로, 인접한 가상 벽면에 대응하는 벽면 데이터별로 서로 중첩되는 부분이 존재할 수 있다. 단계 S500에서는, 가상 벽면 별로 접하는 4개의 가상 벽면에 대하여 각각의 벽면 데이터에서 서로 중첩되는 부분이 결합하는 형태로 작업 공간을 모델링할 수 있다. 즉, 각각의 벽면 데이터에서 서로 중첩된 부분이 자연스럽게 이어지면서 하나의 오브젝트로 모델링될 수 있다. 따라서 도 10의 (b)에 도시된 바와 같이, 가상 벽면이 서로 접하는 부분에서도 오브젝트가 자연스럽게 모델링될 수 있다.
At this time, in step S400, the work space may be modeled in such a manner that the overlapping portions of the four virtual wall surfaces tangent to the respective virtual wall surfaces are merged for each wall surface data. Referring to FIG. 10 (a), one virtual wall surface may be adjacent to four virtual wall surfaces. At this time, since the wall surface data generated in step S300 is data scanned for each wall surface, there may exist portions overlapping each other depending on wall surface data corresponding to adjacent virtual wall surfaces. In step S500, the work space can be modeled in such a manner that the portions overlapping each other in the respective wall surface data for the four imaginary wall surfaces tangent to the imaginary wall surface. That is, portions overlapping each other in each wall surface data can be naturally modeled into one object. Therefore, as shown in Fig. 10 (b), the object can be modeled naturally even at the portion where the virtual walls are in contact with each other.

한편, 본 발명의 다른 실시예에 따른 3D 스캐너를 이용한 가상 벽면 기반의 작업 공간 모델링 시스템은, 본 발명의 일 실시예에 따른 3D 스캐너를 이용한 가상 벽면 기반의 작업 공간 모델링 방법을 이용한 시스템일 수 있다. 즉, 본 발명의 다른 실시예에 따른 3D 스캐너를 이용한 가상 벽면 기반의 작업 공간 모델링 시스템은, 3D 스캐너를 이용한 가상 벽면 기반의 작업 공간 모델링 방법에 대한 명령어를 포함하는 프로그램이나 애플리케이션이 실행되는 시스템으로도 구현될 수 있다.
Meanwhile, a virtual wall-based workspace modeling system using a 3D scanner according to another embodiment of the present invention may be a system using a virtual wall-based workspace modeling method using a 3D scanner according to an embodiment of the present invention . That is, a virtual wall-based workspace modeling system using a 3D scanner according to another embodiment of the present invention includes a system for executing a program or an application including instructions for a virtual wall-based workspace modeling method using a 3D scanner Can also be implemented.

전술한 바와 같이, 본 발명에서 제안하고 있는 3D 스캐너를 이용한 가상 벽면 기반의 작업 공간 모델링 방법 및 시스템에 따르면, 3D 스캐너를 통해 스캔한 공간 데이터를 가상 벽면에 프로젝션함으로써, 넓은 작업 공간을 스캔하는 경우에도 작업 공간의 프레임만을 먼저 스캔할 수 있으므로 빠른 스캔을 통해 오차를 최소화할 수 있고, 스캔한 공간 데이터가 X, Y, Z축 상에 정렬되어 있지 않은 경우에도 각각의 축에 프로젝션한 프로젝션 데이터의 외곽선을 추출하여 각각의 축 상에 정렬할 수 있다. 또한, 본 발명에서 제안하고 있는 3D 스캐너를 이용한 가상 벽면 기반의 작업 공간 모델링 방법 및 시스템에 따르면, 가상의 벽면에 대응하는 작업 공간의 벽면 별로 공간을 스캔함으로써, 빠른 스캔을 통해 오차를 최소화하면서도 스캔된 각각의 벽면 데이터를 통합하여 보다 빠르고 정확하게 작업 공간을 모델링할 수 있다.
As described above, according to the virtual wall-based workspace modeling method and system using the 3D scanner proposed in the present invention, when the spatial data scanned through the 3D scanner is projected on the virtual wall surface, It is possible to minimize the error by fast scanning and to reduce the error of the projection data projected on each axis even if the scanned spatial data is not aligned on the X, The outline can be extracted and aligned on each axis. According to the virtual wall-based workspace modeling method and system using the 3D scanner proposed in the present invention, the space is scanned by the wall surface of the work space corresponding to the virtual wall surface, By integrating each wall data, it is possible to model work space more quickly and accurately.

이상 설명한 본 발명은 본 발명이 속한 기술분야에서 통상의 지식을 가진 자에 의하여 다양한 변형이나 응용이 가능하며, 본 발명에 따른 기술적 사상의 범위는 아래의 청구범위에 의하여 정해져야 할 것이다.While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, is intended to cover various modifications and equivalent arrangements included within the spirit and scope of the appended claims.

S100: 작업 공간의 프레임만 스캔하여 공간 데이터를 생성하는 단계
S200: 단계 S100에서 생성한 공간 데이터에서 작업 공간의 프레임 주변에 가상 벽면을 생성하는 단계
S210: 단계 S100에서 생성한 공간 데이터를 각각 X, Y 및 Z축과 직교하는 가상 벽면에 프로젝션한 프로젝션 데이터를 생성하는 단계
S220: 단계 S210에서 생성한 각각의 프로젝션 데이터의 외곽선을 추출하는 단계
S230: 단계 S220에서 추출한 외곽선을 각각의 X, Y 및 Z축에 맞추어 정렬하는 단계
S300: 단계 S200에서 생성한 가상 벽면 별로 대응하는 작업 공간의 벽면을 스캔하여 벽면 데이터를 생성하는 단계
S400: 단계 S100에서 생성한 공간 데이터 및 단계 S300에서 생성한 벽면 데이터를 통합하여 작업 공간을 모델링하는 단계
S100: a step of generating spatial data by scanning only the frame of the work space
S200: Creating a virtual wall surface around the frame of the work space from the spatial data generated in step S100
S210: a step of generating projection data in which the spatial data generated in step S100 is projected on virtual wall surfaces orthogonal to the X, Y and Z axes, respectively
S220: extracting the outline of each projection data generated in step S210
S230: aligning the outlines extracted in step S220 to the respective X, Y and Z axes
S300: Step of generating wall data by scanning the wall surface of the work space corresponding to each virtual wall surface generated in Step S200
S400: Modeling the workspace by integrating the spatial data generated in step S100 and the wall surface data generated in step S300

Claims (7)

3D 스캐너를 이용한 작업 공간 모델링 방법에 있어서,
(1) 작업 공간의 프레임만 스캔하여 공간 데이터를 생성하는 단계;
(2) 상기 단계 (1)에서 생성한 공간 데이터에서 상기 프레임 주변에 가상 벽면을 생성하는 단계;
(3) 상기 단계 (2)에서 생성한 상기 가상 벽면 별로 대응하는 상기 작업 공간의 벽면을 스캔하여 벽면 데이터를 생성하는 단계; 및
(4) 상기 단계 (1)에서 생성한 상기 공간 데이터 및 상기 단계 (3)에서 생성한 상기 벽면 데이터를 통합하여 작업 공간을 모델링하는 단계를 포함하는 것을 특징으로 하는, 3D 스캐너를 이용한 가상 벽면 기반의 작업 공간 모델링 방법.
A method of modeling a workspace using a 3D scanner,
(1) generating spatial data by scanning only a frame of a work space;
(2) creating a virtual wall around the frame in the spatial data generated in the step (1);
(3) generating wall surface data by scanning the wall surface of the corresponding work space for each virtual wall surface generated in the step (2); And
(4) modeling the workspace by integrating the spatial data generated in the step (1) and the wall surface data generated in the step (3) to form a virtual wall based on the 3D scanner Of workspace modeling.
제1항에 있어서, 상기 단계 (2)는,
상기 가상 벽면으로 구성된 직육면체가 상기 작업 공간의 프레임을 포함하는 것을 특징으로 하는, 3D 스캐너를 이용한 가상 벽면 기반의 작업 공간 모델링 방법.
2. The method of claim 1, wherein step (2)
Wherein a rectangular parallelepiped composed of the virtual wall surface includes a frame of the work space.
제2항에 있어서, 상기 단계 (2)는,
상기 단계 (1)에서 생성한 상기 공간 데이터를 X, Y 및 Z축에 정렬하는 것을 특징으로 하는, 3D 스캐너를 이용한 가상 벽면 기반의 작업 공간 모델링 방법.
3. The method of claim 2, wherein step (2)
Wherein the spatial data generated in step (1) is arranged on the X, Y, and Z axes.
제3항에 있어서, 상기 단계 (2)는,
(2-1) 상기 단계 (1)에서 생성한 상기 공간 데이터를 각각 X, Y 및 Z축과 직교하는 가상 벽면에 프로젝션한 프로젝션 데이터를 생성하는 단계;
(2-2) 상기 단계 (2-1)에서 생성한 각각의 상기 프로젝션 데이터의 외곽선을 추출하는 단계; 및
(2-3) 상기 단계 (2-2)에서 추출한 상기 외곽선을 각각의 X, Y 및 Z축에 맞추어 정렬하는 단계를 포함하는 것을 특징으로 하는, 3D 스캐너를 이용한 가상 벽면 기반의 작업 공간 모델링 방법.
4. The method of claim 3, wherein step (2)
(2-1) generating projection data in which the spatial data generated in the step (1) is projected on virtual wall surfaces orthogonal to X, Y and Z axes, respectively;
(2-2) extracting an outline of each of the projection data generated in the step (2-1); And
(2-3) aligning the outline extracted in the step (2-2) to each of the X, Y and Z axes, and modeling the virtual space based workspace using the 3D scanner .
제4항에 있어서, 상기 외곽선은,
사각형을 형성하는 것을 특징으로 하는, 3D 스캐너를 이용한 가상 벽면 기반의 작업 공간 모델링 방법.
5. The method of claim 4,
Wherein the virtual wall-based workspace modeling method forms a square.
제1항에 있어서, 상기 단계 (4)는,
상기 가상 벽면 별로 접하는 4개의 가상 벽면에 대하여 각각의 벽면 데이터 별로 중첩되는 부분이 결합되는 형태로 상기 작업 공간을 모델링하는 것을 특징으로 하는, 3D 스캐너를 이용한 가상 벽면 기반의 작업 공간 모델링 방법.
2. The method of claim 1, wherein step (4)
Wherein the workspace is modeled in such a manner that overlapping portions of the four virtual wall surfaces tangent to the virtual wall surface are combined for each wall surface data.
제1항 내지 제6항 중 어느 한 항에 있어서,
상기 3D 스캐너를 이용한 가상 벽면 기반의 작업 공간 모델링 방법을 이용하는 것을 특징으로 하는, 3D 스캐너를 이용한 가상 벽면 기반의 작업 공간 모델링 시스템.
7. The method according to any one of claims 1 to 6,
Wherein a virtual wall-based workspace modeling method using the 3D scanner is used.
KR1020170178885A 2017-12-22 2017-12-22 Method for workspace modeling based on virtual wall using 3d scanner and system thereof KR101998396B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170178885A KR101998396B1 (en) 2017-12-22 2017-12-22 Method for workspace modeling based on virtual wall using 3d scanner and system thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170178885A KR101998396B1 (en) 2017-12-22 2017-12-22 Method for workspace modeling based on virtual wall using 3d scanner and system thereof

Publications (2)

Publication Number Publication Date
KR20190076806A true KR20190076806A (en) 2019-07-02
KR101998396B1 KR101998396B1 (en) 2019-07-09

Family

ID=67258620

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170178885A KR101998396B1 (en) 2017-12-22 2017-12-22 Method for workspace modeling based on virtual wall using 3d scanner and system thereof

Country Status (1)

Country Link
KR (1) KR101998396B1 (en)

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19980019222A (en) * 1996-08-29 1998-06-05 히루마 테루오 Three-dimensional shape measuring apparatus
WO2008035271A2 (en) * 2006-09-20 2008-03-27 Koninklijke Philips Electronics N.V. Device for registering a 3d model
KR20100007007A (en) * 2008-07-11 2010-01-22 인하대학교 산학협력단 A method on extracting the boundary vector of object obtained from laser scanning data
KR20110024359A (en) * 2009-09-02 2011-03-09 한국과학기술원 Localization method for indoor mobile robots
JP2011233165A (en) * 2008-08-29 2011-11-17 Mitsubishi Electric Corp Overhead view generation device, overhead view image generation method and overhead view image generation program of overhead view image generation device
KR101179108B1 (en) * 2010-04-27 2012-09-07 서울시립대학교 산학협력단 System for determining 3-dimensional coordinates of objects using overlapping omni-directional images and method thereof
KR101280392B1 (en) * 2011-08-29 2013-07-01 연세대학교 산학협력단 Apparatus for managing map of mobile robot based on slam and method thereof
KR20140031129A (en) * 2012-08-30 2014-03-12 (주)지에스엠솔루션 Virtual face generating method of omni-directional image using user interaction
JP2014164003A (en) * 2013-02-21 2014-09-08 Nec Networks & System Integration Corp Virtual indoor space display device
KR20140139443A (en) * 2013-05-27 2014-12-05 (주)지에스엠솔루션 Positional information construction method using omnidirectional image
KR101634283B1 (en) * 2015-12-18 2016-06-30 주식회사 싸인텔레콤 The apparatus and method of 3d modeling by 3d camera calibration
US20170132841A1 (en) * 2015-09-22 2017-05-11 3D Product Imaging Inc. Augmented reality e-commerce for home improvement
KR101754520B1 (en) * 2016-01-25 2017-07-07 전북대학교산학협력단 Three-dimensional data generating method of building

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19980019222A (en) * 1996-08-29 1998-06-05 히루마 테루오 Three-dimensional shape measuring apparatus
WO2008035271A2 (en) * 2006-09-20 2008-03-27 Koninklijke Philips Electronics N.V. Device for registering a 3d model
KR20100007007A (en) * 2008-07-11 2010-01-22 인하대학교 산학협력단 A method on extracting the boundary vector of object obtained from laser scanning data
JP2011233165A (en) * 2008-08-29 2011-11-17 Mitsubishi Electric Corp Overhead view generation device, overhead view image generation method and overhead view image generation program of overhead view image generation device
KR20110024359A (en) * 2009-09-02 2011-03-09 한국과학기술원 Localization method for indoor mobile robots
KR101179108B1 (en) * 2010-04-27 2012-09-07 서울시립대학교 산학협력단 System for determining 3-dimensional coordinates of objects using overlapping omni-directional images and method thereof
KR101280392B1 (en) * 2011-08-29 2013-07-01 연세대학교 산학협력단 Apparatus for managing map of mobile robot based on slam and method thereof
KR20140031129A (en) * 2012-08-30 2014-03-12 (주)지에스엠솔루션 Virtual face generating method of omni-directional image using user interaction
JP2014164003A (en) * 2013-02-21 2014-09-08 Nec Networks & System Integration Corp Virtual indoor space display device
KR20140139443A (en) * 2013-05-27 2014-12-05 (주)지에스엠솔루션 Positional information construction method using omnidirectional image
US20170132841A1 (en) * 2015-09-22 2017-05-11 3D Product Imaging Inc. Augmented reality e-commerce for home improvement
KR101634283B1 (en) * 2015-12-18 2016-06-30 주식회사 싸인텔레콤 The apparatus and method of 3d modeling by 3d camera calibration
KR101754520B1 (en) * 2016-01-25 2017-07-07 전북대학교산학협력단 Three-dimensional data generating method of building

Also Published As

Publication number Publication date
KR101998396B1 (en) 2019-07-09

Similar Documents

Publication Publication Date Title
Basso et al. Robust intrinsic and extrinsic calibration of RGB-D cameras
KR102096806B1 (en) 3D sensor system and 3D data acquisition method
JP4492654B2 (en) 3D measuring method and 3D measuring apparatus
US8126260B2 (en) System and method for locating a three-dimensional object using machine vision
US8447099B2 (en) Forming 3D models using two images
JP6041513B2 (en) Image processing apparatus, image processing method, and program
Gai et al. A novel dual-camera calibration method for 3D optical measurement
JP2017118396A (en) Program, device and method for calculating internal parameter of depth camera
Orghidan et al. Structured light self-calibration with vanishing points
KR20020035652A (en) Strapdown system for three-dimensional reconstruction
Barone et al. Structured light stereo catadioptric scanner based on a spherical mirror
US20200041262A1 (en) Method for performing calibration by using measured data without assumed calibration model and three-dimensional scanner calibration system for performing same
Ozan et al. Calibration of double stripe 3D laser scanner systems using planarity and orthogonality constraints
KR100623666B1 (en) Method for manufacturing three-dimensional geographic information system digital image drawing using digital photommetry and non prism total station
KR101998396B1 (en) Method for workspace modeling based on virtual wall using 3d scanner and system thereof
Kuznetsov et al. Image rectification for prism-based stereoscopic optical systems
Pedersini et al. 3D area matching with arbitrary multiview geometry
Kochi et al. Development of 3D image measurement system and stereo‐matching method, and its archaeological measurement
Jaramillo et al. 6-DoF pose localization in 3D point-cloud dense maps using a monocular camera
US10600244B2 (en) Vertex optimization method using depth image in workspace modeling and system therefor
Vera et al. Relevance of Accurately Determining the Center of Radial Distortion in 3-D Reconstruction
Mkhitaryan et al. RGB-D sensor data correction and enhancement by introduction of an additional RGB view
Chen et al. Feature points matching for face reconstruction based on the window unique property of pseudo-random coded image
Ribeiro et al. Photogrammetric multi-camera calibration using an industrial programmable robotic arm
Gui et al. A stereo camera calibration based on robotic vision

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant