KR102236917B1 - Three dimensional modeling method using three dimensional depth map and region segmentation based on an single camear for assembly type education apparatus with polyomino - Google Patents

Three dimensional modeling method using three dimensional depth map and region segmentation based on an single camear for assembly type education apparatus with polyomino Download PDF

Info

Publication number
KR102236917B1
KR102236917B1 KR1020190174124A KR20190174124A KR102236917B1 KR 102236917 B1 KR102236917 B1 KR 102236917B1 KR 1020190174124 A KR1020190174124 A KR 1020190174124A KR 20190174124 A KR20190174124 A KR 20190174124A KR 102236917 B1 KR102236917 B1 KR 102236917B1
Authority
KR
South Korea
Prior art keywords
depth map
depth
block
dimensional
base plate
Prior art date
Application number
KR1020190174124A
Other languages
Korean (ko)
Inventor
이인규
고병철
김상원
김나훈
Original Assignee
주식회사 파코웨어
계명대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 파코웨어, 계명대학교 산학협력단 filed Critical 주식회사 파코웨어
Priority to KR1020190174124A priority Critical patent/KR102236917B1/en
Application granted granted Critical
Publication of KR102236917B1 publication Critical patent/KR102236917B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001Image restoration
    • G06T5/002Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B1/00Manually or mechanically operated educational appliances using elements forming, or bearing, symbols, signs, pictures, or the like which are arranged or adapted to be arranged in one or more particular ways
    • G09B1/02Manually or mechanically operated educational appliances using elements forming, or bearing, symbols, signs, pictures, or the like which are arranged or adapted to be arranged in one or more particular ways and having a support carrying or adapted to carry the elements
    • G09B1/04Manually or mechanically operated educational appliances using elements forming, or bearing, symbols, signs, pictures, or the like which are arranged or adapted to be arranged in one or more particular ways and having a support carrying or adapted to carry the elements the elements each bearing a single symbol or a single combination of symbols
    • G09B1/06Manually or mechanically operated educational appliances using elements forming, or bearing, symbols, signs, pictures, or the like which are arranged or adapted to be arranged in one or more particular ways and having a support carrying or adapted to carry the elements the elements each bearing a single symbol or a single combination of symbols and being attachable to, or mounted on, the support
    • G09B1/10Manually or mechanically operated educational appliances using elements forming, or bearing, symbols, signs, pictures, or the like which are arranged or adapted to be arranged in one or more particular ways and having a support carrying or adapted to carry the elements the elements each bearing a single symbol or a single combination of symbols and being attachable to, or mounted on, the support by means of pins and holes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • G06T2207/20032Median filtering

Abstract

The present invention relates to a method of performing three-dimensional modeling by using three-dimensional depth map generation and image segmentation technology based on a single camera, with respect to an assembly type teaching tool using a polyomino. The assembly type teaching tool using a polyomino includes: a base plate formed into a plate shape having a predetermined area to be placed horizontally and having first coupling parts aligned and placed in an upper part to form rows and columns; and a plurality of block parts comprising a polyomino having a shape of a single hexahedron or a shape of a plurality of hexahedrons coupled laterally, having second coupling parts formed in the bottom to be coupled with the first coupling parts, and assembled on the base plate by the first and second coupling parts to form various forms of block groups. The method of performing three-dimensional modeling by using three-dimensional depth map generation and image segmentation technology includes the steps of: (S100) creating a three-dimensional depth map of the base plate and the block parts from an original image obtained from a single camera; (S200) binarizing a background of the base plate and a panorama of the block parts for improving the contrast of the three-dimensional depth map; and (S300) generating a cube mesh of the block parts, based on the binarization result, generating a block when there are pixels, which are no less than predetermined threshold values, among pixels in each block area, and mapping colors of the block parts to generate a three-dimensional model of the block parts.

Description

폴리오미노를 이용한 조립식 교구에 대해서, 단일 카메라 기반으로 삼차원 깊이맵 생성과 영상 분할 기술을 이용하여 삼차원 모델링을 하는 방법{THREE DIMENSIONAL MODELING METHOD USING THREE DIMENSIONAL DEPTH MAP AND REGION SEGMENTATION BASED ON AN SINGLE CAMEAR FOR ASSEMBLY TYPE EDUCATION APPARATUS WITH POLYOMINO}3D modeling method using three-dimensional depth map generation and image segmentation technology based on a single camera for prefabricated teaching aids using polyomino {THREE DIMENSIONAL MODELING METHOD USING THREE DIMENSIONAL DEPTH MAP AND REGION SEGMENTATION BASED ON AN SINGLE CAMEAR FOR ASSEMBLY TYPE EDUCATION APPARATUS WITH POLYOMINO}

본 발명은 폴리오미노를 이용한 조립식 교구에 대해서, 단일 카메라 기반으로 삼차원 깊이맵 생성과 영상 분할 기술을 이용하여 삼차원 모델링을 하는 방법에 관한 것으로, 보다 상세하게는, 폴리오미노로 이루어진 다수의 블록을 베이스판 상에 조립하는 형태로 조립학습이 이루어지는 폴리오미노를 이용한 조립식 교구에 있어서, 스마트폰의 저사양 단일 카메라 또는 단일의 웹캠으로도 블록부에 대한 정확한 삼차원 모델링을 생성하는 것이 가능한, 폴리오미노를 이용한 조립식 교구에 대해서, 단일 카메라 기반으로 삼차원 깊이맵 생성과 영상 분할 기술을 이용하여 삼차원 모델링을 하는 방법에 관한 것이다.The present invention relates to a method of performing three-dimensional modeling using a three-dimensional depth map generation and image segmentation technology based on a single camera for a prefabricated teaching tool using polyomino. More specifically, a plurality of blocks made of polyomino are used. In the prefabricated teaching tool using polyomino where assembly learning is performed in the form of assembling on a plate, it is possible to create accurate three-dimensional modeling of the block part with a single low-end camera or a single webcam of a smartphone. Regarding the teaching tool, it relates to a method of three-dimensional modeling using a three-dimensional depth map generation and image segmentation technology based on a single camera.

폴리오미노(Polyomino)는 하버드 대학교의 솔로몬 골롬(Solomon W. Golomb) 박사가 수학 강의 중에서 처음 사용한, n(단, n>1)개의 정사각형들이 서로 최소한 1개의 변을 공유하여 만들어지는 다각형들을 총칭한다. 이와 같이 폴리오미노를 가지고 하는 수업은, 유아나 어린이, 초등학생 등의 학생들이 공간감각, 입체감각을 익히고 향상시키며, 창의력을 개선하는 데 큰 도움을 줄 수 있어서, 최근 관련한 제품들이 일부 나오고 있는 상황이다. Polyomino is a generic term for polygons created by sharing at least one side of n (n>1) squares, which was first used by Dr. Solomon W. Golomb of Harvard University in a mathematics lecture. . This class with Poliomino can greatly help students such as infants, children, and elementary school students learn and improve spatial and three-dimensional senses, and improve their creativity, so some related products are emerging. .

한편, 영상 처리를 통한 깊이맵 생성 기술과 3차원 모델 생성 방법과 관련해서 살펴보면, 영상이 가지는 깊이 정보를 해석하고 응용하기 위한 접근법은 컴퓨터 비전 분야에서 오랜 시간 동안 주요한 문제로 다뤄져 왔다. 가장 일반적인 접근법은 여러 대의 카메라를 이용해 촬영된 영상들을 이용해 특징점을 분석하고, 이들 간의 사상을 통해 깊이맵을 재구성하는 방식이었다. On the other hand, looking at the depth map generation technology through image processing and the 3D model generation method, the approach to interpreting and applying depth information of an image has been treated as a major problem in the field of computer vision for a long time. The most common approach was to analyze feature points using images captured using multiple cameras, and reconstruct the depth map through the mapping between them.

하지만, 이러한 방식은 다양한 장비가 필요할 뿐만 아니라 촬영 환경을 반영한 다양한 파라미터도 함께 측정되어야 한다. 이로 인해 여러 장비를 구비해야만 하는 비용적인 제약과 더불어 파라미터의 변화가 적도록 특정 환경에만 종속되어야 하는 제약을 갖는다. However, this method requires not only various equipment, but also various parameters reflecting the shooting environment to be measured. Due to this, in addition to cost constraints of having to have several equipments, there are constraints that must be subordinated only to a specific environment so that the change of parameters is small.

관련한 종래의 특허문헌으로는, 대한민국 특허 제10-0544677호(출원인 : 한국전자통신연구원, 발명의 명칭 : 다시점 영상 및 깊이 정보를 이용한 3차원 객체 추적 장치및 그 방법{Apparatus and method for the 3D object tracking using multi-view and depth cameras})에서는, 적어도 2개 이상의 카메라를 이용한 깊이맵을 구현하는 기술이 개시되어 있다. As a related conventional patent document, Korean Patent No. 10-0544677 (Applicant: Electronics and Telecommunications Research Institute, title of invention: 3D object tracking device and method using multi-view image and depth information {Apparatus and method for the 3D) In object tracking using multi-view and depth cameras}), a technique for implementing a depth map using at least two or more cameras is disclosed.

관련한 다른 종래의 특허문헌으로는, 미국 특허 제10,096,115호(2018년 10월 9일 등록, 출원인 : BlackBerry Limited, 발명의 명칭 : Building a depth map using movement of one camera)에서는, 하나의 카메라를 이동하여 실제로 여러 개의 카메라가 촬영한 것과 같은 정보를 바탕으로 한 깊이맵 생성 방법에 대해서 개시하고 있다. As another related conventional patent document, in U.S. Patent No. 10,096,115 (registered on October 9, 2018, applicant: BlackBerry Limited, title of invention: Building a depth map using movement of one camera), In fact, a method for generating a depth map based on the same information as captured by several cameras is disclosed.

이에 대해서, 최근에는 깊이맵 재구성을 위해 여러 장의 영상을 이용하지 않고 단일 영상만을 이용해 기존의 제약을 벗어나기 위한 접근법들이 시도되고 있다. 단일 영상만을 이용해 깊이 정보를 재구성하기 위해서는 장면이 가지는 요소들의 의미론적 해석이 바탕이 되어야 하며, 정확한 결과를 위해 픽셀 단위의 분석이 이루어져야 하는 문제를 갖고 있다. Regarding this, recently, approaches have been attempted to overcome the existing constraints using only a single image rather than using multiple images for depth map reconstruction. In order to reconstruct depth information using only a single image, the semantic interpretation of elements of the scene must be the basis, and for accurate results, there is a problem that the analysis must be performed on a pixel-by-pixel basis.

요컨대, 종래 폴리오미노(Polyomino) 관련 제품이 일부 출시되고 있으며, 영상처리와 관련해서는 단일 영상만으로 기존의 제약을 벗어나기 위한 시도를 시작하고 있는 단계이었다. 즉, 본 발명이 다루는, 폴리오미노에 대한 종래 기술과 깊이맵 및 3차원 모델링과 관련한 종래 기술을 종합해 보아도, 폴리오미노로 이루어진 다수의 블록을 베이스판 상에 조립하는 형태로 조립학습이 이루어지는 폴리오미노를 이용한 조립식 교구에 있어서, 스마트폰의 저사양 단일 카메라 또는 단일의 웹캠으로도 블록부에 대한 정확한 삼차원 모델링을 생성하는 것이 가능한, 폴리오미노를 이용한 조립식 교구에 대해서, 단일 카메라 기반으로 삼차원 깊이맵 생성과 영상 분할 기술을 이용하여 삼차원 모델링을 하는 방법에 대해서는 전혀 개시하지 않고 있는 상황이었다. In short, some products related to Polyomino are being released in the past, and in terms of image processing, it was a stage in which an attempt was made to overcome the existing limitations with only a single image. In other words, even if the prior art for polyomino covered by the present invention and the prior art related to depth map and 3D modeling are combined, a folio in which assembly learning is performed in the form of assembling a plurality of blocks made of polyomino on a base plate. In the prefabricated teaching aid using Mino, it is possible to create an accurate three-dimensional modeling for the block part even with a single low-end camera of a smartphone or a single webcam.For prefabricated teaching aids using polyomino, a three-dimensional depth map is generated based on a single camera There was no disclosure of how to perform 3D modeling using the image segmentation technique.

대한민국 특허 제10-0544677호(출원인 : 한국전자통신연구원, 발명의 명칭 : 다시점 영상 및 깊이 정보를 이용한 3차원 객체 추적 장치및 그 방법{Apparatus and method for the 3D object tracking using multi-view and depth cameras})Korean Patent No. 10-0544677 (Applicant: Electronics and Telecommunications Research Institute, title of invention: Apparatus and method for the 3D object tracking using multi-view and depth cameras}) 미국 특허 제10,096,115호(2018년 10월 9일 등록, 출원인 : BlackBerry Limited, 발명의 명칭 : Building a depth map using movement of one camera)U.S. Patent No. 10,096,115 (registered on October 9, 2018, Applicant: BlackBerry Limited, title of invention: Building a depth map using movement of one camera)

본 발명은 상술한 문제점을 해결하기 위하여 창출된 것으로, 본 발명의 목적은 폴리오미노로 이루어진 다수의 블록을 베이스판 상에 조립하는 형태로 조립학습이 이루어지는 폴리오미노를 이용한 조립식 교구에 있어서, 스마트폰의 저사양 단일 카메라 또는 단일의 웹캠으로도 블록부에 대한 정확한 깊이맵 및 삼차원 모델링을 생성하는 것이 가능한, 폴리오미노를 이용한 조립식 교구에 대해서, 단일 카메라 기반으로 삼차원 깊이맵 생성과 영상 분할 기술을 이용하여 삼차원 모델링을 하는 방법을 제공하는 것에 있다.The present invention was created in order to solve the above-described problems, and an object of the present invention is to assemble a plurality of blocks made of polyomino on a base plate in a prefabricated teaching tool using polyomino in which assembly learning is performed, a smart phone It is possible to generate accurate depth maps and 3D modeling for the block part even with a single camera or a single webcam, and for prefabricated teaching aids using polyomino, it is possible to create a 3D depth map and image segmentation technology based on a single camera. It is to provide a way to do three-dimensional modeling.

상기의 목적을 달성하기 위한 본 발명에 따른 방법은, 폴리오미노를 이용한 조립식 교구에 대해서, 단일 카메라 기반으로 삼차원 깊이맵 생성과 영상 분할 기술을 이용하여 삼차원 모델링을 하는 방법으로서, 상기 폴리오미노를 이용한 조립식 교구는, 일정면적을 갖는 판 형상으로 이루어져 수평배치되며 상부에는 제1결합부가 오와 열을 이루도록 정렬배치된 베이스판; 및 단일의 육면체의 형상 또는 복수의 육면체가 측방으로 체결된 형상을 갖는 폴리오미노로 이루어지고, 저면에는 상기 제1결합부와 체결되는 제2결합부가 형성되며, 상기 제1결합부와 제2결합부에 의해 복수 개가 상기 베이스판 상에 조립되면서 다양한 형태의 블록집합을 이루는 블록부;를 포함하고, 상기 단일 카메라 기반 삼차원 깊이맵 생성과 영상 분할 기술을 이용한 삼차원 모델링 방법은, 단일 카메라로부터 획득한 원본 영상으로부터 상기 블록부 및 상기 베이스판의 삼차원 깊이맵을 생성하는 단계(S100); 상기 삼차원 깊이맵의 대비를 향상시키기 위해 상기 블록부의 전경과 상기 베이스판의 배경을 이진화를 하는 단계(S200); 및 상기 이진화 결과를 기초로 하여, 상기 블록부의 큐브 메쉬(cube mesh) 데이터를 생성하고, 각 블록 영역 내의 픽셀 가운데 소정의 임계값 이상인 경우 블록을 생성하며, 상기 블록부의 색상을 매핑하여 상기 블록부의 삼차원 모델을 생성하는 단계(S300);를 포함한다. The method according to the present invention for achieving the above object is a method of performing three-dimensional modeling using a three-dimensional depth map generation and image segmentation technology based on a single camera, for an assembly-type teaching tool using polyomino. The prefabricated teaching aid is formed in a plate shape having a predetermined area, and is horizontally arranged, and a base plate arranged so as to form a row with a first coupling portion at an upper portion thereof; And a polymino having a shape of a single hexahedron or a shape in which a plurality of hexahedrons are laterally fastened, and a second coupling portion coupled to the first coupling portion is formed on the bottom surface, and a second coupling portion with the first coupling portion A block unit that forms a set of blocks of various types while being assembled on the base plate by a plurality of units, wherein the three-dimensional modeling method using the single camera-based three-dimensional depth map generation and image segmentation technology is obtained from a single camera. Generating a three-dimensional depth map of the block portion and the base plate from an original image (S100); Binarizing the foreground of the block portion and the background of the base plate to improve the contrast of the three-dimensional depth map (S200); And generating cube mesh data of the block unit based on the binarization result, generating a block when the pixel in each block area is equal to or higher than a predetermined threshold, and mapping the color of the block unit to the block unit It includes; generating a three-dimensional model (S300).

또한, 상기 단일 카메라로부터 획득한 영상으로부터 상기 블록부 및 상기 베이스판의 삼차원 깊이맵을 생성하는 단계(S100)에서는, 상기 영상 내에 존재하는 상기 블록부 및 상기 베이스판에 대한 공간 정보를 추출하고 깊이 정보를 추정할 수 있는 멀티스케일 심층 신경망을 이용한다. In addition, in the step of generating a three-dimensional depth map of the block portion and the base plate from the image acquired from the single camera (S100), spatial information on the block portion and the base plate existing in the image is extracted, and the depth It uses a multiscale deep neural network that can estimate information.

또한, 상기 단일 카메라로부터 획득한 영상으로부터 상기 블록부 및 상기 베이스판의 삼차원 깊이맵을 생성하는 단계(S100)에서는, 상기 멀티스케일 심층 신경망은 연속적으로 구성된 보틀넥(bottleneck) 모듈로 이루어지며, 상기 보틀넥 모듈은 상기 특징맵의 크기를 유지하면서 파라미터의 증가시키지 않는 다이레이티드(dilated) 레이어, 비대칭 형태의 커널을 사용해 컨벌루션을 수행하여 컨벌루션 필터 내부에 일정 거리만큼 간격을 설정해 보다 적은 파라미터만을 이용해 수신 필드(receptive field)를 갖도록 하는 비대칭 컨벌루션 레이어, 및 풀 컨벌루션(full convolution) 레이어로, 3개의 컨볼루션 레이어를 포함하여 구성된다. In addition, in the step of generating a three-dimensional depth map of the block portion and the base plate from the image acquired from the single camera (S100), the multi-scale deep neural network consists of a bottleneck module continuously configured, and the The bottleneck module performs convolution using a dilated layer that does not increase parameters while maintaining the size of the feature map, and uses an asymmetric kernel to set an interval within the convolution filter by a certain distance, so that only fewer parameters are used. An asymmetric convolutional layer and a full convolutional layer to have a receptive field, and are configured to include three convolutional layers.

또한, 상기 단일 카메라로부터 획득한 영상으로부터 상기 블록부 및 상기 베이스판의 삼차원 깊이맵을 생성하는 단계(S100)에서는, 상기 멀티스케일 심층 신경망의 출력값으로부터 깊이맵을 추론할 때, 깊이 범위(depth range)가 미리 정한 깊이 α와 깊이 β의 구간을 가지는 경우, 상기 깊이 추론시의 오차를 줄이기 위해 큰 깊이 값에 대해 더 넓은 오차범위를 가지도록 깊이의 값이 크면 클수록 큰 가중치를 둔다. In addition, in the step of generating a three-dimensional depth map of the block unit and the base plate from the image acquired from the single camera (S100), when inferring the depth map from the output value of the multiscale deep neural network, a depth range ) Has a section between a predetermined depth α and a depth β, the larger the depth value is, the larger the weight is, so that the larger depth value has a wider error range in order to reduce the error during the depth inference.

또한, 상기 단일 카메라로부터 획득한 영상으로부터 상기 블록부 및 상기 베이스판의 삼차원 깊이맵을 생성하는 단계(S100)에서는, 상기 멀티스케일 심층 신경망의 출력값으로부터 깊이맵을 추론할 때, 깊이 범위(depth range)가 미리 정한 깊이 α와 깊이 β의 구간(깊이 α < 깊이 β)을 가질 때, 깊이로서 가능한 값 ti는 In addition, in the step of generating a three-dimensional depth map of the block unit and the base plate from the image acquired from the single camera (S100), when inferring the depth map from the output value of the multiscale deep neural network, a depth range ) Has a predetermined range of depth α and depth β (depth α <depth β), the possible value ti as depth is

Figure 112019133590746-pat00001
를 가지며, 상기 K는 설계자에 의한 상수값이고, i는 자연수이며, ti의 최소값이 깊이 α이며 ti의 최대값이 깊이 β이다.
Figure 112019133590746-pat00001
And K is a constant value by the designer, i is a natural number, the minimum value of ti is the depth α, and the maximum value of ti is the depth β.

또한, 상기 깊이 α 및 상기 깊이 β간의 차는, 상기 블록부의 높이 또는 상기 블록부의 높이의 자연수배에 대응하는 값이다. Further, the difference between the depth α and the depth β is a value corresponding to the height of the block portion or a natural multiple of the height of the block portion.

또한, 상기 깊이맵에서 정보를 얻기 위해서 상기 멀티스케일 심층 신경망을 통해서 만들어지는 과정에서 발생할 수 있는 노이즈를 제거하여 화질을 향상시키는 미디언 필터링(Median filtering)을 더 포함할 수 있다. In addition, to obtain information from the depth map, median filtering may be further included to improve image quality by removing noise that may occur during the process of being created through the multiscale deep neural network.

또한, 상기 삼차원 깊이맵의 대비를 향상시키기 위해 상기 블록부의 전경과 상기 베이스판의 배경을 이진화를 하는 단계(S200)에서는, 상기 추론된 깊이 맵을 다시 업 샘플링하여 원본 영상 크기로 변환하는 단계를 포함한다. In addition, in the step of binarizing the foreground of the block portion and the background of the base plate in order to improve the contrast of the 3D depth map (S200), the step of converting the inferred depth map to the original image size by up-sampling again Includes.

또한, 상기 S300 단계에서는, 상기 큐브 메쉬 데이터의 영역에 대해서 색상을 매핑할 때, 연산 속도가 향상될 수 있도록 블록 지정 색상으로 큐브 메쉬 데이터의 색상을 초기 설정하고, 상기 큐브 메쉬 데이터와 대응하는 원본 영상의 색상 평균을 비교하여, 가장 근접한 색상으로 색상을 매핑하는 단계를 포함한다. Further, in the step S300, when the color is mapped to the area of the cube mesh data, the color of the cube mesh data is initially set as a block designation color so that the calculation speed can be improved, and the original corresponding to the cube mesh data is Comparing the average color of the image, and mapping the color to the nearest color.

또한, 상기 S300 단계에서는, 상기 큐브 메쉬 데이터의 영역에 대해서 색상을 매핑할 때, 조도 및 그림자를 포함한 외부 영향으로 인한 색상 왜곡을 막을 수 있도록, RGB 모델을 갖는 상기 원본 영상을 빛의 변화에 대해 상대적으로 영향이 적은 HSV(Hue-Saturation-Value) 모델로 변경하고, 상기 HSV 모델의 H값과 상기 색상 평균을 이용해 오차가 더 적은 값을 선택하여 보정 영상을 만들어 내는 단계를 포함한다. In addition, in the step S300, the original image having an RGB model is converted to light changes in order to prevent color distortion due to external influences including illuminance and shadow when color is mapped to the area of the cube mesh data. And changing to a Hue-Saturation-Value (HSV) model with relatively little influence, and generating a correction image by selecting a value having a smaller error using the H value of the HSV model and the color average.

또한, 상기 폴리오미노를 이용한 조립식 교구는, 수평배치된 판형상으로 이루어져 상기 베이스판과 상하로 대향배치되며 동물을 포함하는 사물 형상의 이미지가 형성되어 상기 베이스판 상에 상기 사물 형상대로 각 블록부가 조립되도록 가이드하는 가이드이미지부;를 더 포함할 수 있다. In addition, the prefabricated teaching aid using the polyomino is formed in a plate shape arranged horizontally, and is arranged to face the base plate vertically, and an image of an object shape including an animal is formed so that each block portion is formed in the shape of the object on the base plate. It may further include a; guide image portion for guiding to be assembled.

본 발명에 따른 폴리오미노를 이용한 조립식 교구에 대해서, 단일 카메라 기반으로 삼차원 깊이맵 생성과 영상 분할 기술을 이용하여 삼차원 모델링을 하는 방법에 의하면, According to a method of performing three-dimensional modeling using a three-dimensional depth map generation and image segmentation technology based on a single camera for the prefabricated teaching aid using polyomino according to the present invention,

첫째, 여러 대의 카메라를 이용해 촬영된 영상들을 이용해 특징점을 분석하고, 이들 간의 사상을 통해 깊이맵을 재구성하는 방식과 달리, 다양한 장비가 필요하여 비용이 상승할 뿐만 아니라 촬영 환경을 반영한 다양한 파라미터도 함께 측정되어야 하는 제약을 가지지 않고, 스마트폰의 저사양 단일 카메라 또는 단일의 웹캠으로도 블록부에 대한 정확한 삼차원 모델링을 생성하는 것이 가능하다. First, unlike the method of analyzing feature points using images taken with multiple cameras and reconstructing the depth map through the mapping between them, various equipment is required, which not only increases the cost, but also includes various parameters reflecting the shooting environment. It is possible to create an accurate three-dimensional modeling of the block portion even with a single low-end camera or a single webcam of a smartphone without having the constraints to be measured.

둘째, 폴리오미노를 이용한 조립식 교구를 사용하는 사용자와의 인터랙션이 가능한 장치를 연동하는 것이 가능하다. 스마트 폰의 단일 카메라를 통해서 촬영하여 획득한 원본 영상을 이용하여, 좀더 정확한 깊이맵을 생성할 수 있으며, 나아가 블록부에 대한 정확한 삼차원 모델링이 가능하게 된다. Second, it is possible to link a device capable of interacting with a user who uses a prefabricated teaching aid using polyomino. A more accurate depth map can be generated by using the original image acquired by shooting through a single camera of a smart phone, and further, accurate three-dimensional modeling of the block portion is possible.

셋째, 멀티스케일 심층 신경망의 출력값으로부터 깊이맵을 추론할 때, 큰 깊이 값에 대해 더 넓은 오차 범위를 가지도록 깊이의 값이 크면 클수록 큰 가중치는 두게 설정하여, 깊이 추론(예측)시의 오차를 줄이는 것이 가능하다. Third, when inferring the depth map from the output value of the multiscale deep neural network, the larger the depth value, the larger the weight is set so that the larger the depth value has a wider error range. It is possible to reduce.

넷째, 깊이맵에서 정보를 얻기 위해서 멀티스케일 심층 신경망을 통해서 만들어지는 과정에서 발생할 수 있는 노이즈를 제거하는 미디언 필터링(Median filtering)을 더 포함하여 화질을 더욱 향상시키는 것이 가능하다. Fourth, in order to obtain information from the depth map, it is possible to further improve the image quality by further including median filtering to remove noise that may occur in the process of being created through a multiscale deep neural network.

다섯째, 큐브 메쉬 데이터의 영역에 대해서 색상을 매핑할 때, 블록 지정 색상으로 큐브 메쉬 데이터의 색상을 초기 설정하고, 큐브 메쉬 데이터와 대응하는 원본 영상의 색상 평균을 비교하여, 가장 근접한 색상으로 색상을 매핑함으로써, 연산 속도가 향상될 수 있다. Fifth, when color mapping for the area of the cube mesh data, the color of the cube mesh data is initially set with the block designation color, and the color average of the original image corresponding to the cube mesh data is compared, and the color is selected with the closest color. By mapping, the computational speed can be improved.

여섯째, RGB 모델을 갖는 원본 영상을 빛의 변화에 대해 상대적으로 영향이 적은 HSV 모델로 변경함으로써, 큐브 메쉬 데이터의 영역에 대해서 색상을 매핑할 때, 조도 및 그림자를 포함한 외부 영향으로 인한 색상 왜곡을 막을 수 있다. Sixth, by changing the original image with the RGB model to an HSV model that has relatively little influence on changes in light, color distortion due to external influences including illumination and shadows is prevented when color mapping to the area of the cube mesh data. Can be prevented.

도 1은 단일 영상 기반의 깊이 맵 추정을 위한 심층 신경망 네트워크의 구성도이다.
도 2는 본 발명에서 제안하는 네트워크의 구조이다.
도 3은 초기 블록을 결합하여 입력 영상의 크기를 줄이는 것을 도시한 도면이다.
도 4는 3개의 컨벌로션 레이어으로 이루어지는 보틀넥 모듈에 대해서 도시한 것이다.
도 5는 본 발명에서 사용하는 다이레이티드 컨벌루션에 대한 도면이다.
도 6은 본 발명에서 사용하는 비대칭 컨벌루션에 대한 도면이다.
도 7은 깊이의 범위를 균일하게 분할하는 종래 방법과, 본 발명에서 제안하는 큰 값에 가중치를 두는 방법으로 분할하는 방법에 대해서는 설명하는 도면이다.
도 8은 본 발명에 따른 딥 네트워크에 의해서 입력이미지가 최종적으로 깊이맵으로 생성되는 과정을 도시한 도면이다.
도 9는 본 발명에 따라 추론된 깊이맵에서 이진화 기법을 적용한 결과, 그리고 큐브 메쉬 데이터를 생성하는 것을 나타낸 도면이다.
도 10은 도 9에서 생성된 큐브 메쉬 데이터 영역에 대해서 색상을 매핑한 것을 나타낸 도면이다.
도 11은 단일 카메라에서 획득한 영상, 즉 RGB 모델을 HSV모델로 변경하고, 색상 매칭을 위해 표준화된 색상체계를 갖추고 HSV모델의 H값과 색상 평균을 이용해 오차가 적은 값을 선택하여, 보정 영상을 만들어 내는 과정을 설명한 도면이다.
도 12는 본 발명에 따라 일반적인 웹캠 z카메라로 획득한 단일 영상과, 깊이맵 추론 결과 및 모델링 결과를 나타낸 도면이다.
도 13은 본 발명의 바람직한 실시예에 따른 폴리오미노를 이용한 조립식 교구의 구성을 나타낸 분리사시도이다.
도 14 및 도 15는 본 발명의 바람직한 실시예에 따른 블록부의 구성을 나타낸 사시도이다.
도 16은 본 발명의 바람직한 실시예에 따른 블록부의 다양한 폴리오미노 형상을 나타낸 평면도이다.
도 17은 본 발명의 바람직한 실시예에 따른 가이드이미지부에 제1가이드라인 및 제2가이드라인이 표시된 상태를 나타낸 평면도이다.
도 18은 본 발명의 바람직한 실시예에 따른 베이스판 상에 각 블록부가 조립된 상태를 나타낸 사시도이다.
도 19는 본 발명의 바람직한 실시예에 따른 베이스판이 케이스의 내부에 장착된 구성을 나타낸 사시도이다.
도 20은 본 발명의 바람직한 실시예에 따른 가이드이미지부에 램프 및 제어부가 구비된 구성을 나타낸 사시도이다.
1 is a block diagram of a deep neural network network for estimating a depth map based on a single image.
2 is a structure of a network proposed in the present invention.
3 is a diagram illustrating that the size of an input image is reduced by combining initial blocks.
FIG. 4 shows a bottleneck module composed of three convolutional layers.
5 is a diagram for a dysed convolution used in the present invention.
6 is a diagram for an asymmetric convolution used in the present invention.
FIG. 7 is a diagram illustrating a conventional method of uniformly dividing a range of depth and a method of dividing by a method of giving a weight to a large value proposed in the present invention.
8 is a diagram illustrating a process in which an input image is finally generated as a depth map by a deep network according to the present invention.
9 is a diagram illustrating a result of applying a binarization technique in a depth map inferred according to the present invention and generation of cube mesh data.
FIG. 10 is a diagram illustrating mapping of colors to the cube mesh data area generated in FIG. 9.
11 is an image acquired from a single camera, i.e., an RGB model is changed to an HSV model, a standardized color system is used for color matching, and a value with less error is selected using the H value and the color average of the HSV model, It is a diagram explaining the process of creating.
12 is a diagram showing a single image acquired by a general webcam z camera, a depth map inference result, and a modeling result according to the present invention.
13 is an exploded perspective view showing the configuration of a prefabricated parish using polyomino according to a preferred embodiment of the present invention.
14 and 15 are perspective views showing the configuration of a block unit according to a preferred embodiment of the present invention.
16 is a plan view showing various polyomino shapes of a block portion according to a preferred embodiment of the present invention.
17 is a plan view showing a state in which a first guide line and a second guide line are displayed on a guide image part according to a preferred embodiment of the present invention.
18 is a perspective view showing a state in which each block portion is assembled on a base plate according to a preferred embodiment of the present invention.
19 is a perspective view showing a configuration in which a base plate is mounted inside a case according to a preferred embodiment of the present invention.
20 is a perspective view showing a configuration in which a lamp and a control unit are provided in a guide image unit according to a preferred embodiment of the present invention.

이하 첨부된 도면을 참조하면서 본 발명에 따른 바람직한 실시예를 상세히 설명하기로 한다. 이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여, 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. Prior to this, terms or words used in the present specification and claims should not be construed as being limited to their usual or dictionary meanings, and the inventors appropriately explain the concept of terms in order to explain their own invention in the best way. Based on the principle that it can be defined, it should be interpreted as a meaning and concept consistent with the technical idea of the present invention.

따라서, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.Accordingly, the embodiments described in the present specification and the configurations shown in the drawings are only the most preferred embodiment of the present invention, and do not represent all the technical spirit of the present invention. It should be understood that there may be equivalents and variations.

(폴리오미노를 이용한 조립식 교구)(Prefabricated parish using polyomino)

본 발명의 바람직한 실시예에 따른 단일 카메라 기반으로 삼차원 깊이맵 생성과 영상 분할 기술을 이용하여 삼차원 모델링을 하는 방법의 적용 대상이 되는, 폴리오미노를 이용한 조립식 교구는, 폴리오미노로 이루어진 다수의 블록부(120)를 베이스판(110) 상에 조립하는 형태로 조립학습이 이루어져 창의력 및 소근육 발달을 꾀하며, 베이스판(110) 상에 동물을 포함하는 사물 형상으로 도안된 이미지(I)를 제공하여 창의성이 부족한 영유아도 손쉽게 조립학습을 따라 할 수 있도록 가이드할 수 있는 학습교구로서, 도 13 내지 도 16에 도시된 바와 같이 베이스판(110), 블록부(120) 및 가이드이미지부(130)를 포함한다. 여기서, 이미지(I)에 반드시 동물이 포함되어야 하는 것은 아니며, 도면에서와 같이 이미지(I) 자체가 동물 형상으로 이루어질 수도 있음을 의미하며, 도안되는 이미지의 종류에는 한정됨이 없음은 물론이다.The prefabricated teaching aid using polyomino, which is a target of application of a method of generating a three-dimensional depth map based on a single camera and performing a three-dimensional modeling using image segmentation technology according to a preferred embodiment of the present invention, includes a plurality of block parts made of polyomino. Creativity by providing an image (I) designed in the shape of an object including an animal on the base plate 110 by assembling learning in the form of assembling 120 on the base plate 110 to develop creativity and small muscles. As a learning tool that can guide the insufficient infants to easily follow the assembly learning, as shown in Figs. 13 to 16, including a base plate 110, a block unit 120 and a guide image unit 130 do. Here, it is not necessary to include an animal in the image (I), it means that the image (I) itself may be formed in the shape of an animal as shown in the drawing, and there is no limitation on the type of the image to be designed.

먼저, 베이스판(110)은 조립학습이 이루어지는 공간을 제공하는 판부재로서 일정 면적을 갖는 판형상으로 이루어져 수평 배치되며 상면에는 다수의 제1결합부(112)가 오와 열을 이루도록 정렬배치된다.First, the base plate 110 is a plate member that provides a space for assembly learning and is formed in a plate shape having a certain area and is horizontally arranged, and a plurality of first coupling units 112 are arranged in a row on the upper surface. .

여기서, 도 13에 도시된 바와 같이 베이스판(110)은 상면에 복수의 제1결합부(112)가 형성된 정사각형 또는 직사각형의 판 형상으로 이루어진 복수의 단위판부재(111)를 포함하며, 각 단위판부재(111)의 측방 둘레에는 인접된 다른 단위판부재(111)의 측방 결합을 위한 결합돌기(113) 및 결합홈(114)이 서로 다른 변에 각각 배치되어 각 단위판부재(111)가 측방으로 결합하면서 일정 면적을 갖는 판 형상으로 조립될 수 있으므로, 사용자 수준이나 취사 선택에 따라 베이스판(110)의 형상이나 면적 크기를 정할 수 있다.Here, as shown in FIG. 13, the base plate 110 includes a plurality of unit plate members 111 formed in a square or rectangular plate shape in which a plurality of first coupling portions 112 are formed on an upper surface, and each unit Around the lateral circumference of the plate member 111, a coupling protrusion 113 and a coupling groove 114 for lateral coupling of other adjacent unit plate members 111 are disposed on different sides, so that each unit plate member 111 is Since it can be assembled into a plate shape having a certain area while being laterally combined, the shape or size of the base plate 110 can be determined according to the user's level or preference.

또한, 블록부(120)는 조립 학습을 수행하는데 이용되는 도구로서 도 14에 도시된 바와 같이 단일의 육면체(121)의 형상 또는 복수의 육면체(121)가 측방으로 체결된 형상을 갖는 폴리오미노로 이루어지고, 저면에는 제1결합부(112)와 치합되는 형태의 제2결합부(122)가 형성된다. 따라서 도 18에 도시된 바와 같이 상기 제1결합부(112)와 제2결합부(122)에 의해 복수 개가 베이스판(110) 상에 조립되면서 다양한 형태의 블록집합을 이룰 수 있다.In addition, the block unit 120 is a tool used to perform assembly learning, and as shown in FIG. 14, a polyamino furnace having a shape of a single hexahedron 121 or a shape in which a plurality of hexahedrons 121 are laterally fastened. It is made, and a second coupling portion 122 in a form that meshes with the first coupling portion 112 is formed on the bottom surface. Accordingly, as shown in FIG. 18, a plurality of blocks are assembled on the base plate 110 by the first coupling part 112 and the second coupling part 122 to form various types of block sets.

여기서, 제1결합부(112)는 베이스판(110)의 상면에 십자 형상으로 하향 오목하게 함몰된 홈으로 이루어지고, 제2결합부(122)는 각 육면체(121)의 저면 중앙에 일정 길이로 하향 연장된 십자기둥으로 이루어져 제1결합부(112)에 삽입되면서 체결될 수 있어, 조립이 용이하면서도 조립된 상태에서의 블록부(120)의 유동을 최소화할 수 있다.Here, the first coupling part 112 is made of a groove recessed downwardly in a cross shape on the upper surface of the base plate 110, and the second coupling part 122 is a predetermined length at the center of the bottom surface of each hexahedron 121 Since it is composed of a cross-pillar extending downwardly and can be fastened while being inserted into the first coupling part 112, it is possible to minimize the flow of the block part 120 in the assembled state while being easy to assemble.

또한, 제1결합부(112)는 도시된 제2결합부(122)와 같이 함몰된 십자 홈으로 이루어지고 제2결합부(122)는 도시된 제1결합부(112)와 같이 돌출된 십자기둥 형태로 이루어져 동일한 조립기능을 구현할 수 있으며, 이 밖에 레고와 같은 원기둥 형상의 돌기와 원형홈의 조합, 사각홈과 사각기둥의 조합 및 일자판 형상의 돌기와 일자홈의 조합과 같이 다양한 형상의 돌기와 홈의 형상으로 이루어질 수도 있다.In addition, the first coupling portion 112 is made of a cross groove that is recessed like the illustrated second coupling portion 122, and the second coupling portion 122 is a cross that protrudes like the illustrated first coupling portion 112 Consisting of a column shape, the same assembly function can be implemented.In addition, projections and grooves of various shapes such as a combination of a cylindrical protrusion and a circular groove, a combination of a square groove and a square pillar, and a combination of a straight plate-shaped protrusion and a straight groove It can also be made in the shape of.

또한, 제1결합부(112)와 제2결합부(122)는 돌출된 돌기와 홈의 조합된 구성 이외에 + 극성을 갖는 자석과 - 극성을 갖는 자석의 조합된 구성으로 이루어져 자기장에 의한 흡착력으로 상호 체결될 수 있으며, 이 밖에 제1결합부(112)는 베이스판(110) 상에 라인 형상으로 상향 돌출된 돌기선으로 이루어지고 제2결합부(122)는 각 돌기선에 변부가 지지되는 형태로 이루어져 상호간에 체결이 이루어질 수도 있다. 그리고 제1결합부(112)와 제2결합부(122)의 구성을 제외하고 베이스판(110)의 상부면에 각 블록부(120)가 안착되는 형태로 조립 학습이 이루어질 수도 있다.In addition, the first coupling portion 112 and the second coupling portion 122 are composed of a combination of a magnet having a + polarity and a magnet having a-polarity in addition to the combination of protruding protrusions and grooves. In addition, the first coupling part 112 is formed of a protruding line protruding upward in a line shape on the base plate 110, and the second coupling part 122 is a form in which an edge portion is supported on each protrusion line. Consisting of, it is possible to make a connection between each other. In addition, except for the configuration of the first coupling portion 112 and the second coupling portion 122, each block portion 120 may be seated on the upper surface of the base plate 110, so that assembly learning may be performed.

더불어, 도 14에 도시된 바와 같이 각 육면체(121)의 저면에는 제2결합부(122)를 중심으로 둘레를 따라 일정간격으로 이격되어 상향 오목하게 함몰된 형상으로 이루어진 복수의 탄성홈(123)이 형성됨으로써, 십자기둥 형태의 제2결합부(122)가 블록부(120)의 몸체에 대하여 일정 각도로 기울어질 수 있어 수평배치된 베이스판(110)으로부터 조립된 블록부(120)를 일정각도로 경사진 방향으로 용이하게 상향 분리할 수 있다.In addition, as shown in Fig. 14, a plurality of elastic grooves 123 formed in a shape that is concave upwardly spaced apart at regular intervals along the circumference around the second coupling portion 122 at the bottom of each hexahedron 121 By being formed, the second coupling part 122 in the form of a cross can be inclined at a certain angle with respect to the body of the block part 120, so that the block part 120 assembled from the horizontally arranged base plate 110 is constant. It can be easily separated upwards in a direction inclined at an angle.

그리고, 각 육면체(121)의 상면에는 십자 형상 또는 사각형상으로 하향 오목하게 함몰된 홈으로 이루어진 제3결합부(124)가 형성되어, 베이스판(110)에 조립된 블록부(120) 상에 다른 블록부(120)를 조립하면서 입체적인 형상으로 블록집합을 형성할 수 있다.In addition, on the upper surface of each hexahedron 121, a third coupling portion 124 made of a groove recessed downwardly in a cross shape or a square shape is formed, and on the block portion 120 assembled to the base plate 110 A block set may be formed in a three-dimensional shape while assembling the other block part 120.

또한, 제2결합부(122)와 제3결합부(124)는 상호 간에 치합되는 조립규격이 여러가지로 이루어져 조립학습의 난이도를 조절할 수도 있다.In addition, the second coupling portion 122 and the third coupling portion 124 may have various assembly standards that mesh with each other, so that the difficulty of assembling learning may be adjusted.

보다 구체적으로 설명하면, 각 제2결합부(122)는 십자기둥, 삼각기둥 및, 사각기둥과 같이 다양한 기둥의 형상을 가지며 각 제3결합부(124)는 십자홈, 삼각홈 및 사각홈 등의 형상으로 이루어진 것과 같이 상호 간에 치합되는 다양한 조립규격이 존재할 수 있으며, 이러한 다양한 조립규격을 통해 각 블록부(120)를 복수의 층으로 적층하는 형태로 입체적인 블록집합을 형성하는 경우 각 층별로 조립가능한 특정 형상의 조립규격을 제한할 수 있다. More specifically, each second coupling portion 122 has a shape of various pillars such as a cross, a triangular pillar, and a square pillar, and each third coupling portion 124 is a cross groove, a triangular groove, and a square groove. There may be various assembly standards that are meshed with each other, such as formed in the shape of, and in the case of forming a three-dimensional block set in the form of stacking each block part 120 into a plurality of layers through these various assembly standards, assembling each layer It is possible to limit the assembly specifications of the specific shape possible.

예를 들어, 베이스판(110)에 체결되는 1층에는 십자기둥의 제2결합부(122)를 갖는 블록부(120)만이 조립될 수 있고, 이 블록부(120)의 제3결합부(124)가 삼각홈 형상인 경우 2층에는 삼각기둥의 제2결합부(122)를 갖는 블록부(120)만이 조립되며 3층에는 2층에 조립된 블록부(120)의 제3결합부(124)와 대응되는 형상의 제2결합부(122)를 갖는 블록부(120)만이 조립될 수 있는 것이다.For example, on the first floor fastened to the base plate 110, only the block portion 120 having the second coupling portion 122 of a cross column may be assembled, and the third coupling portion ( When 124 is in the shape of a triangular groove, only the block portion 120 having the second coupling portion 122 of a triangular column is assembled on the second floor, and the third coupling portion of the block portion 120 assembled on the second floor ( Only the block portion 120 having the second coupling portion 122 having a shape corresponding to the 124) can be assembled.

한편, 가이드이미지부(130)는 학습자가 블록부(120)를 특정 사물형상으로 조립할 수 있도록 가이드하는 이미지부재로서, 베이스판(110)과 대등하거나 상대적으로 작은 면적을 갖는 필름 또는 판 형상으로 이루어져 베이스판(110)과 상하로 대향배치되며 동물을 포함하는 사물 형상의 이미지(I)가 형성되어 사물 형상대로 각 블록부(120)가 조립되도록 가이드한다.Meanwhile, the guide image unit 130 is an image member that guides the learner to assemble the block unit 120 into a specific object shape, and is formed of a film or plate shape having an area equal to or relatively small to the base plate 110. It is arranged to face the base plate 110 up and down, and an image (I) in the shape of an object including an animal is formed to guide each block portion 120 to be assembled in the shape of the object.

여기서, 도 18에 도시된 바와 같이 블록부(120)는 서로 다른 복수의 색상으로 이루어지며, 이미지(I)는 블록부(120)에 포함된 각 색상이 사물형상으로 채색되어 이루어짐으로써, 조립된 블록집합의 이미지효과를 증대시키며 조립학습의 흥미를 더욱 유발할 수 있다.Here, as shown in FIG. 18, the block unit 120 is made of a plurality of different colors, and the image (I) is made by coloring each color included in the block unit 120 into an object shape. It can increase the image effect of the block set and induce more interest in assembly learning.

또한, 도 13, 도 17 및 도 18에 도시된 바와 같이, 가이드이미지부(130)에는 각 육면체(121)의 폭과 대응되는 간격을 갖는 격자 형태로 이루어진 제1가이드라인(132)이 형성되어 각 블록부(120)의 조립되는 위치를 가이드할 수 있으므로 빈공간에 조립되어야 하는 특정 형상의 블록부(120)의 대상을 예상할 수 있으며 이를 통해 상기 제1가이드라인(132)의 유무로 조립학습의 난이도를 조절할 수 있다.In addition, as shown in FIGS. 13, 17 and 18, a first guide line 132 formed in a grid shape having a spacing corresponding to the width of each hexahedron 121 is formed in the guide image unit 130 Since the assembly position of each block unit 120 can be guided, the target of the block unit 120 having a specific shape to be assembled in an empty space can be predicted, and through this, the first guide line 132 is assembled with or without You can adjust the difficulty of learning.

더불어, 가이드이미지부(130)에는 각 블록부(120)의 평면 외곽선과 대응되는 형태로 이루어져 특정 폴리오미노 형상을 갖는 블록부(120)의 조립되는 위치를 가이드하는 제2가이드라인(133)이 형성될 수 있어, 각 블록부(120)의 폴리오미노 형상대로 조립되어야 하는 위치를 지시할 수 있으며 이를 통해 상기 제2가이드라인(133)의 유무로 조립학습 난이도를 더욱 세밀하게 조절할 수 있다.In addition, the guide image unit 130 includes a second guide line 133 formed in a shape corresponding to the planar outline of each block unit 120 to guide the assembly position of the block unit 120 having a specific polyomino shape. Since it may be formed, a position to be assembled in a polyomino shape of each block unit 120 may be indicated, and the difficulty of assembling learning may be more precisely adjusted with the presence or absence of the second guideline 133 through this.

여기서, 도면에는 하나의 제2가이드라인(133)이 형성된 것을 예시하였으나 이미지(I) 전체 영역에 걸쳐 각각의 블록부(120)가 조립되는 위치를 지시하기 위한 다수 또는 복수의 제2가이드라인(133)이 형성될 수도 있다.Here, although the drawing illustrates that one second guideline 133 is formed, a plurality of or a plurality of second guidelines ( 133) may be formed.

그리고, 가이드이미지부(130)는 상면에 연필, 색연필, 크레파스 또는 색상펜 중 어느 하나의 도구로 채색가능한 색칠면이 형성되거나, 종이와 같이 상기 도구로 채색 가능한 재질로 이루어짐으로써, 학습자가 가이드이미지부(130) 상에 손수 도안안 사물 형상대로 각 블록부(120)를 조립할 수 있으므로 그리기 학습을 병행할 수 있으며 조립학습의 재미와 애착을 유발할 수 있다.In addition, the guide image unit 130 has a coloring surface that can be colored with any one of a pencil, colored pencil, crayon, or a color pen on the upper surface, or is made of a material that can be colored with the tool, such as paper, so that the learner can use the guide image Since each block unit 120 can be assembled on the unit 130 in the shape of the object in the pattern by hand, drawing learning can be performed at the same time, and the fun and attachment of assembly learning can be induced.

더불어, 가이드이미지부(130)에는 수직방향의 제1가이드라인(132)과 수평방향의 제1가이드라인(132)이 형성하는 사각형상의 중앙 즉, 제1결합부(112)와 대응되는 위치에 제1결합부(112) 또는 제2결합부(122)의 평면형상과 대응되는 형상의 관통공(134)이 형성되어 베이스판(110) 상에 블록부(120)를 조립하면서 가이드이미지부(130)의 하부에 배치된 베이스판(110)의 제1결합부(112)에 제2결합부(122)를 삽입하기 위한 위치를 정확하게 지시할 수 있다.In addition, the guide image unit 130 has a rectangular center formed by the first guide line 132 in the vertical direction and the first guide line 132 in the horizontal direction, that is, at a position corresponding to the first coupling unit 112. A through hole 134 having a shape corresponding to the planar shape of the first coupling portion 112 or the second coupling portion 122 is formed to assemble the block portion 120 on the base plate 110 while assembling the guide image portion ( A position for inserting the second coupling portion 122 into the first coupling portion 112 of the base plate 110 disposed under the 130) can be accurately indicated.

그리고, 가이드이미지부(130)는 소정의 강성을 갖는 경질의 재질로 이루어져 가이드이미지부(130)를 들어올리는 힘으로 베이스판(110)에 조립된 각 블록부(120)를 동시에 상향 분리가능할 수 있다. 이를 위해 가이드이미지부(130)는 고강도의 합성수지재로 이루어지거나 금속재질로 이루어지는 것이 바람직하다. 따라서 다수 또는 복수의 조립된 블록부(120)들을 일일이 분리하면서 소요되는 학습 준비시간을 절감할 수 있다.In addition, the guide image unit 130 is made of a hard material having a predetermined rigidity, and each block unit 120 assembled to the base plate 110 can be separated upward at the same time by lifting the guide image unit 130. have. For this purpose, the guide image unit 130 is preferably made of a high-strength synthetic resin material or a metal material. Therefore, it is possible to reduce the learning preparation time required while separating a plurality or a plurality of assembled block units 120 individually.

이때, 도 13에 도시된 바와 같이 가이드이미지부(130)는 일측 변부에 베이스판(110)으로부터 각 블록부(120)를 상향 분리시킬 때 이용되는 손잡이(135)가 장착되며, 관통공(134)은 상기 손잡이(135)가 장착된 일측 변부 방향으로 길이가 긴 장공형상으로 이루어짐으로써, 베이스판(110)을 중심으로 일측에서 타측 방향으로 젖히는 방식으로 블록부(120)를 용이하게 분리할 수 있다.At this time, as shown in FIG. 13, the guide image part 130 is equipped with a handle 135 used to separate each block part 120 upwardly from the base plate 110 on one side, and a through hole 134 ) Is formed in a long hole shape with a long length in the direction of one side where the handle 135 is mounted, so that the block part 120 can be easily separated in a manner that is tilted from one side to the other side around the base plate 110. have.

도면에는 가이드이미지부(130)가 베이스판(110)의 상부에 안착되어 각 블록부(120)가 가이드이미지부(130)를 사이에 두고 베이스판(110)에 조립되는 구조를 예시하였으나, 이에 한정되는 것은 아니며 가이드이미지부(130)는 베이스판(110)의 하부에 배치되거나 내부에 삽입되는 구조로도 이미지(I)를 제공할 수 있다.The drawing illustrates a structure in which the guide image part 130 is seated on the upper part of the base plate 110 so that each block part 120 is assembled to the base plate 110 with the guide image part 130 therebetween. It is not limited, and the guide image unit 130 may provide an image I even in a structure that is disposed under or inserted into the base plate 110.

이를 위해 상기 베이스판(110)은 투명 또는 반투명의 광투과성 재질로 이루어지고, 가이드이미지부(130)는 상기 이미지(I)가 베이스판(110)의 표면을 통해 상향 투과되도록 상기 베이스판(110)의 하부에 수평배치될 수 있다. 또한 베이스판(110)의 내부에는 슬릿형태의 삽입홈이 형성되고 이 삽입홈을 통해 가이드이미지부(130)가 내부에 수평배치되도록 삽입 장착되어 이미지(I)를 제공할 수도 있다.To this end, the base plate 110 is made of a transparent or translucent light-transmitting material, and the guide image unit 130 includes the base plate 110 so that the image I is transmitted upwardly through the surface of the base plate 110. ) Can be placed horizontally underneath. In addition, a slit-shaped insertion groove is formed inside the base plate 110, and the guide image portion 130 is inserted and mounted so that the guide image portion 130 is horizontally disposed therein to provide an image (I).

또한, 가이드이미지부(130)가 베이스판(110)의 하부에 배치되면서 블록부(120)의 제2결합부(122)가 가이드이미지부(130)까지 도달하지 않은 경우 관통공(134)은 형성되지 않을 수 있고, 가이드이미지부(130)의 전체 영역 내에서 특정 사물을 나타내는 이미지에만 관통공(134)이 형성될 수도 있다. 즉, 가이드이미지부(130)의 전체 영역 내에서 블록부(120)가 조립되는 영역에 한하여 관통공(134)이 형성되는 것이다.In addition, when the guide image portion 130 is disposed under the base plate 110 and the second coupling portion 122 of the block portion 120 does not reach the guide image portion 130, the through hole 134 is It may not be formed, and the through hole 134 may be formed only in an image representing a specific object within the entire area of the guide image unit 130. That is, the through hole 134 is formed only in the area where the block unit 120 is assembled within the entire area of the guide image unit 130.

더불어, 가이드이미지부(130)에는 수직방향의 제1가이드라인(132)과 수평방향의 제1가이드라인(132)이 형성하는 사각형상의 중앙 즉, 제1결합부(112)와 대응되는 위치에 제1결합부(112) 또는 제2결합부(122)의 평면형상과 대응되는 형상의 관통공(134)이 형성되어 베이스판(110) 상에 블록부(120)를 조립하면서 가이드이미지부(130)의 하부에 배치된 베이스판(110)의 제1결합부(112)에 제2결합부(122)를 삽입하기 위한 위치를 정확하게 지시할 수 있다.In addition, the guide image unit 130 has a rectangular center formed by the first guide line 132 in the vertical direction and the first guide line 132 in the horizontal direction, that is, at a position corresponding to the first coupling unit 112. A through hole 134 having a shape corresponding to the planar shape of the first coupling portion 112 or the second coupling portion 122 is formed to assemble the block portion 120 on the base plate 110 while assembling the guide image portion ( A position for inserting the second coupling portion 122 into the first coupling portion 112 of the base plate 110 disposed under the 130) can be accurately indicated.

한편, 도 19에 도시된 바와 같이 베이스판(110)을 상부에 수용하는 케이스(140)를 더 포함할 수 있다. 또한, 베이스판(110)이 광투과성 재질로 이루어진 경우 가이드이미지부(130)는 이미지(I)가 베이스판(110)의 표면을 통해 상향 투과되도록 베이스판(110)의 하부에 수평배치될 수 있다.Meanwhile, as shown in FIG. 19, a case 140 for accommodating the base plate 110 may be further included. In addition, when the base plate 110 is made of a light-transmitting material, the guide image unit 130 may be horizontally disposed under the base plate 110 so that the image I is transmitted upwardly through the surface of the base plate 110. have.

또한, 도 20에 도시된 바와 같이 가이드이미지부(130)는 각 제1결합부(112)와 대응되게 오와 열을 이루도록 정렬배치되며 제어신호에 따라 발광구동하며 표시광을 상향 발산하는 복수의 램프(137) 및, 각 램프(137)에서 발산된 표시광이 지정된 이미지(I)를 형성하도록 각 램프(137)를 구동제어하는 제어부(138)를 더 포함할 수 있다.In addition, as shown in Fig. 20, the guide image unit 130 is arranged to form a row of rows corresponding to each of the first coupling units 112, and drives light emission according to a control signal, and a plurality of display light is emitted upwardly. The lamp 137 and the control unit 138 for driving and controlling each lamp 137 so that the display light emitted from each lamp 137 forms a designated image I may be further included.

따라서, 각 이미지(I)별로 다른 가이드이미지부(130)를 교체할 필요없이 가이드이미지부(130) 상에 다양한 종래의 사물에 대한 이미지(I)가 표시되도록 각 램프(137)를 구동제어함으로써 보다 다양한 종류의 이미지(I)를 제공하고 이미지(I)의 전환이 용이할 수 있다.Therefore, each lamp 137 is driven and controlled so that images I for various conventional objects are displayed on the guide image unit 130 without the need to replace the different guide image unit 130 for each image I. It is possible to provide a more diverse type of image (I) and to facilitate conversion of the image (I).

더불어, 도면에서와 같이 각 가이드이미지부(130)는 각 램프(137)들 사이에 수직배치되어 램프(137)에서 발산된 표시광이 인접된 램프(137)의 발광영역으로 측방 입사되지 않도록 차단하는 격벽(139)을 더 포함하는 것이 바람직하다.In addition, as shown in the drawing, each guide image unit 130 is vertically disposed between each lamp 137 to block the display light emitted from the lamp 137 from incident sideways to the light emitting region of the adjacent lamp 137 It is preferable to further include a partition wall (139).

(단일 카메라 기반으로 삼차원 깊이맵 생성과 영상 분할 기술을 이용하여 삼차원 모델링을 하는 방법)(Method of performing 3D modeling using 3D depth map generation and image segmentation technology based on a single camera)

(단일 카메라 기반으로 삼차원 깊이맵 생성)(Generate 3D depth map based on a single camera)

본 발명에서 제안하는 것은, 깊이맵 생성 딥 네트워크이다. 스테레오 영상 기반의 깊이 맵 추정 방법에서는, 두 영상간의 대응되는 픽셀의 변위(disparity)를 이용하여 깊이 정보를 추정하는 방법을 사용하지만, 단일 영상에서는 깊이 정보를 추정하기 위해서 영상 내의 객체들의 공간적 구조를 분석하여 물체들 간의 상대적 원근감으로부터 깊이 맵을 추정할 수 있다. What is proposed in the present invention is a deep network for generating a depth map. In the stereo image-based depth map estimation method, a method of estimating depth information using the displacement of corresponding pixels between two images is used, but in a single image, the spatial structure of objects in the image is determined to estimate the depth information. By analyzing, the depth map can be estimated from the relative perspective between objects.

단일 영상의 분석을 통하여 얻어진 원근감을 이용하여 깊이 정보를 추정하기 위해서는 영상 내에 존재하는 지역적 물체들의 상대적 원근감을 추정하고, 동시에 영상 전체에 존재하는 전역적 원근 정보를 추출함으로써 보다 정확한 깊이 정보를 추출할 수 있다. In order to estimate the depth information using the perspective obtained through the analysis of a single image, more accurate depth information is extracted by estimating the relative perspective of local objects existing in the image and extracting the global perspective information that exists in the entire image. I can.

즉, 입력된 단일 영상에서 전역적인 공간 정보를 이용하여 대략적인 깊이 정보를 파악하고, 지역적인 공간 정보를 이용하여 앞서 추출된 전역 깊이 정보에 대해서 세밀하게 깊이 정보를 개선해 나가는 방식을 통하여 정확한 깊이 맵을 추정할 수 있다. That is, an accurate depth map through a method of grasping approximate depth information using global spatial information from an input single image, and improving depth information in detail for the previously extracted global depth information using local spatial information. Can be estimated.

도 1은 단일 영상 기반의 깊이 맵 추정을 위한 심층 신경망 네트워크의 구성도이다. 도 1에 도시된 것처럼, 본 발명은 영상 내에 존재하는 공간 정보를 추출하고, 깊이 정보를 추정할 수 있는 ENet을 변형시킨 새로운 멀티스케일 심층 신경망 구조에 대한 것이다. 도 2는 본 발명에서 제안하는 네트워크의 구조이다. 1 is a block diagram of a deep neural network network for estimating a depth map based on a single image. As shown in FIG. 1, the present invention relates to a new multiscale deep neural network structure in which an ENet capable of extracting spatial information existing in an image and estimating depth information is modified. 2 is a structure of a network proposed in the present invention.

본 발명의 네트워크는 기본적인 구조는 ResNets를 변형한 보틀넥(bottleneck) 모듈의 연속으로 구성되며, 추가적으로 네트워크 앞단에 초기 블록을 결합하여 입력 영상의 크기를 줄이는 역할을 한다. 도 3은 초기 블록을 결합하여 입력 영상의 크기를 줄이는 것을 도시한 도면이다. The basic structure of the network of the present invention is composed of a series of bottleneck modules modified from ResNets, and additionally combines an initial block at the front end of the network to reduce the size of an input image. 3 is a diagram illustrating that the size of an input image is reduced by combining initial blocks.

보틀넥(bottleneck) 모듈은 3개의 컨볼루션 레이어로 구성된다. 도 4는 3개의 컨벌로션 레이어으로 이루어지는 보틀넥 모듈에 대해서 도시한 것이다. (1) 1×1 프로젝션(projection) : 특징맵의 차원 축소 (2) 컨볼루션 수행, 다이레이티드(dilated) (도 5), 비대칭(asymmetric) (도 6), 풀 컨벌루션(full convolution)을 병행. (3) 1×1 익스팬션(expansion). 여기서, 모든 컨벌루션 사이에 배치 규격화(batch normalization)과 PReLU를 적용한다. The bottleneck module consists of three convolutional layers. FIG. 4 shows a bottleneck module composed of three convolutional layers. (1) 1×1 projection: dimension reduction of feature maps (2) convolution, dilated (Fig. 5), asymmetric (Fig. 6), full convolution parallelism. (3) 1×1 expansion. Here, batch normalization and PReLU are applied between all convolutions.

이제, 컨벌루션 신경망의 효율을 향상시키는 기법에 대해서 설명한다.Now, a technique for improving the efficiency of convolutional neural networks will be described.

반복되는 컨벌루션과 풀링에 의해서 피처맵의 픽셀단위 특징이 소실되는 것을 방지하기 위해 각 레이어에서 피쳐맵의 크기를 유지하도록 설계하였다. 풍부한 크기의 피처맵을 얻기 위해서 그 만큼의 많은 학습 파라미터가 필요로 하지만 기존 컨벌루션 연산을 변경해 파라미터를 줄이면서 동일한 효과를 얻을 수 있다. In order to prevent the loss of pixel-level features of the feature map due to repeated convolution and pooling, the size of the feature map is designed to be maintained in each layer. In order to obtain a feature map of a rich size, as many learning parameters are required, the same effect can be obtained by reducing the parameters by changing the existing convolution operation.

다이레이티드 컨벌루션은 특징맵의 크기를 유지하면서 파라미터를 크게 늘리지 않고 동일한 효과를 얻을 수 있게 된다. 참고로, 도 5는 본 발명에서 사용하는 다이레이티드 컨벌루션에 대한 도면이다. Directed convolution maintains the size of the feature map and achieves the same effect without significantly increasing the parameter. For reference, FIG. 5 is a diagram for a directed convolution used in the present invention.

도 6은 본 발명에서 사용하는 비대칭 컨벌루션에 대한 도면이다. 컨벌루션 필터 내부에 일정 거리만큼 간격을 설정해 보다 적은 파라미터만을 이용해 큰 Receptive field를 갖도록 할 수 있다. 도 6에 도시된 것처럼, 비대칭 컨벌루션은 비대칭 형태의 커널을 사용해 연속된 컨벌루션을 수행하는 기법이다. 일반적인 3×3 컨벌루션을 수행하기 위해 3×3(=9) 형태의 커널을 사용하는 것이 아니라 3×1, 1×3(=6) 형태의 커널을 이용해 컨벌루션을 수행하면 6개의 파라미터만으로도 동일한 효과를 얻을 수 있다. 6 is a diagram for an asymmetric convolution used in the present invention. By setting an interval within a convolutional filter by a certain distance, it is possible to have a large Receptive field using only fewer parameters. As shown in FIG. 6, asymmetric convolution is a technique of performing continuous convolution using an asymmetric kernel. In order to perform general 3×3 convolution, if you perform convolution using a 3×1, 1×3 (=6) type kernel instead of using a 3×3 (=9) type kernel, the same effect with only 6 parameters Can be obtained.

이제 출력값의 깊이맵으로의 변환 방법에 대해서 설명하면, 신경망을 이용해 깊이맵을 추론하기 위한 접근법에서는 컨벌루션을 이용해 영상에 주어진 전역 문맥정보(Global contextual information)을 파악하고 이를 바탕으로 회귀분석을 통해 깊이맵을 추론한다. 하지만, 이러한 접근법의 경우 연속적인 성질을 갖는 깊이 데이터를 다루기에 부적합하기 때문에, 본 발명에서는 연속된 깊이값을 범위로 나누어 각 범위를 예측하는 분류 문제로 해결하였다. Now, the method of converting the output value to the depth map will be explained. In the approach to infer the depth map using a neural network, the global contextual information given to the image is grasped using convolution, and based on this, the depth is determined through regression analysis. Infer the map. However, in the case of this approach, since it is unsuitable for handling depth data having a continuous property, in the present invention, a classification problem of predicting each range is solved by dividing the continuous depth values by ranges.

여기서, 깊이맵 추론에서 깊이의 값이 크면 클수록 추론 오차가 증가하는 성질이 있기 때문에 깊이 범위 예측에서 오차를 줄이기 위해 큰 깊이 값에 대해 충분히 넓은 오차범위를 가지도록, 깊이의 값이 크면 클수록 큰 가중치를 두는 방법을 도입하였다. Here, in depth map inference, the larger the depth value, the greater the inference error.Therefore, in order to reduce the error in the depth range prediction, the larger the depth value, the larger the weight to have a sufficiently wide error range for a large depth value. Introduced a method of putting.

Figure 112019133590746-pat00002
Figure 112019133590746-pat00002

도 7은 깊이의 범위를 균일하게 분할하는 종래 방법과, 본 발명에서 제안하는 큰 값에 가중치를 두는 방법으로 분할하는 방법에 대해서는 설명하는 도면이다. FIG. 7 is a diagram illustrating a conventional method of uniformly dividing a range of depth and a method of dividing by a method of giving a weight to a large value proposed in the present invention.

위 수식을 도 7을 참조하여 설명하면, 깊이 α와 깊이 β의 구간을 갖는 깊이 범위(depth range)에서, ti를 균일하게 분할하는 깊이 추론도 가능하지만 여러가지 추론 오차의 문제를 고려하여, 위 수식처럼, 즉 도 7의 마지막 라인처럼, 데이터의 범위를 작은 값에 대해서는 가중치를 낮추고 큰 값에 대해서는 큰 가중치를 갖도록 하였다. 여기서 K는 설계자에 의한 상수값이다. 이렇게 함으로써, 큰 깊이 값이 가질 수 있는 큰 범위의 오차를 수용할 수 있게 된다. 또한, 깊이 α 및 깊이 β간의 차는, 상술했던 블록부의 높이, 또는 블록부의 높이의 자연수 배수에 대응하는 값이다. When the above equation is described with reference to FIG. 7, it is possible to infer depth uniformly dividing ti in a depth range having a section of depth α and depth β, but taking into account various inference errors, the above equation In other words, as in the last line of FIG. 7, the weight of the data range is lowered for a small value and a large weight is given for a large value. Here, K is a constant value by the designer. By doing this, it is possible to accommodate a large range of errors that a large depth value may have. In addition, the difference between the depth α and the depth β is a value corresponding to the above-described height of the block portion or a natural multiple of the height of the block portion.

이와 같이 변환된 깊이 맵은 다시 업 샘플링, 예를 들어 양선형 보간법(bilinear interpolation)에 의해 원본 영상크기로 변환한다. 도 8은 본 발명에 따른 딥 네트워크에 의해서 입력이미지가 최종적으로 깊이맵으로 생성되는 과정을 도시한 도면이다. The transformed depth map is converted back to the original image size by up-sampling, for example, bilinear interpolation. 8 is a diagram illustrating a process in which an input image is finally generated as a depth map by a deep network according to the present invention.

(삼차원 모델링을 하는 방법)(How to do 3D modeling)

깊이맵에서 정보를 얻기 위해서 심층 네트워크를 통해 만들어지는 과정에서 발생할 수 있는 노이즈를 미디언 필터링(Median filtering)으로 제거해서 화질을 향상시킨다. 깊이맵 영상의 대비를 향상시키기 위해 전경(foreground)과 배경(background)의 범위를 단편화시키는 이진법 기법을 적용한다. In order to obtain information from the depth map, noise that may occur in the process of being created through the deep network is removed by median filtering to improve image quality. In order to improve the contrast of the depth map image, a binary method of fragmenting the range of the foreground and background is applied.

이제, 이진화 영상에 대한 큐브 메쉬(Cube Mesh)생성 및 컬러 매핑(Mapping)을 설명한다. 이진화된 결과를 블록 버퍼에 매핑하고 각 블록에 대해 큐브 메쉬 데이터를 생성한다. 블록의 각 영역 내 흰색 비율에 대한 임계치(예를 들어, 블록 내 픽셀의 70%)를 기준으로 블록의 생성 여부를 결정한다. 도 9는 본 발명에 따라 추론된 깊이맵에서 이진화 기법을 적용한 결과, 그리고 큐브 메쉬 데이터를 생성하는 것을 나타낸 도면이다. Now, cube mesh generation and color mapping for the binarized image will be described. The binarized result is mapped to a block buffer and cube mesh data is generated for each block. Whether to generate a block is determined based on a threshold for a white ratio in each area of the block (eg, 70% of the pixels in the block). 9 is a diagram illustrating a result of applying a binarization technique in a depth map inferred according to the present invention and generation of cube mesh data.

도 10은 도 9에서 생성된 큐브 메쉬 데이터 영역에 대해서 색상을 매핑한 것을 나타낸 도면이다. 연산속도 향상을 위해 블록 지정 색상으로 큐브 블록을 저장 후 메쉬 데이터와 대응되는 원본 영상의 색상 평균을 비교하여, 가장 근접한 색상으로 색상을 매핑한다. 카메라 왜곡으로부터 강인성을 확보를 위해서, 색상 모델을 변경하는 것도 가능하다. 카메라로부터 얻어지는 단일 컬러 영상은 조도 및 그림자와 같은 외부 영향으로 인해 색상에 왜곡이 발생할 수 있기 때문이다. FIG. 10 is a diagram illustrating mapping of colors to the cube mesh data area generated in FIG. 9. In order to improve the computational speed, the cube block is stored in a block-designated color, and the average color of the original image corresponding to the mesh data is compared to map the color to the closest color. In order to ensure robustness from camera distortion, it is also possible to change the color model. This is because a single color image obtained from a camera may cause color distortion due to external influences such as illuminance and shadow.

3차원 모델링은 카메라 영상에만 의존해 정확한 색상을 추출하고 채색하므로 색상 왜곡은 모델링 정확도에 큰 영향을 줄 수 있다. RGB 모델을 갖는 컬러 영상을 빛의 변화에 대해 상대적으로 영향이 적은 HSV(Hue-Saturation-Value) 모델로 변경해 왜곡에 대한 강인성을 확보하는 것이 가능하다. 색상 매칭을 위해 표준화된 색상체계를 갖추고 HSV모델의 H값과 색상 평균을 이용해 오차가 적은 값을 선택할 수 있다. 도 11은 단일 카메라에서 획득한 영상, 즉 RGB 모델을 HSV모델로 변경하고, 색상 매칭을 위해 표준화된 색상체계를 갖추고 HSV모델의 H값과 색상 평균을 이용해 오차가 적은 값을 선택하여, 보정 영상을 만들어 내는 과정을 설명한 도면이다. Since 3D modeling relies only on camera images to extract and color accurate colors, color distortion can have a big impact on modeling accuracy. It is possible to secure robustness against distortion by changing a color image with an RGB model to a Hue-Saturation-Value (HSV) model that has relatively little influence on changes in light. It has a standardized color system for color matching, and it is possible to select a value with less error using the H value and color average of the HSV model. 11 is an image obtained from a single camera, that is, an RGB model is changed to an HSV model, a standardized color system is used for color matching, and a value with a small error is selected using the H value and the color average of the HSV model, and a correction image It is a diagram explaining the process of creating.

다음으로, 본 발명을 적용한 경우의 실험 결과를 설명한다. 3가지 측정 방법에 의해서 정량적 성능을 평가한다. 3가지 측정 방법은 다음과 같다. (1) 상대 차이값(Relative Difference): 인텔 RealSense로 측정된 값과 시스템으로부터 얻어진 깊이 정보의 차이 평균, (2) RMSE (Root Mean Square Error): 인텔 RealSense로 측정된 값과 시스템으로부터 얻어진 깊이 정보간의 평균 제곱 오차, (3) 3D 모델 생성시간: 스마트폰 등의 저사양 시스템에서 구동되어야 함으로 고성능 GPU가 아닌 CPU로만 성능 테스트 (Windows 10, RAM 32GB, 인텔 CPU i7-7700K버전 사용)Next, the experimental results in the case of applying the present invention will be described. Quantitative performance is evaluated by three measurement methods. The three measurement methods are as follows. (1) Relative Difference: The average of the difference between the value measured by Intel RealSense and the depth information obtained from the system, (2) RMSE (Root Mean Square Error): The value measured by Intel RealSense and the depth information obtained from the system. Mean squared error between, (3) 3D model creation time: It should be run on low-end systems such as smartphones, so performance test only with CPU, not high-performance GPU (Windows 10, RAM 32GB, Intel CPU i7-7700K version)

여기서, 촬영된 단일 영상이 포함된 데이터베이스 영상을 확보하였다. (640 x 480 이상 크기의 영상 20장 이상) 그리고, 각 영상에 대해 인텔 RealSense 깊이 카메라를 이용하여, ground-truth 데이터를 확보하여 비교 실험에 사용하였으며, 아래의 표와 같이 우수한 성능이 측정되었다. Here, a database image including a single captured image was obtained. (More than 20 images with a size of 640 x 480 or larger) And, for each image, using an Intel RealSense depth camera, ground-truth data was obtained and used in a comparative experiment, and excellent performance was measured as shown in the table below.

평가항목Evaluation item 단위unit 측정된 성능Measured performance 상대 차이값(Relative difference)Relative difference errorerror 0.1250.125 RMSERMSE errorerror 0.2250.225 3D 모델 생성 시간3D model creation time msms 100100

도 12는 본 발명에 따라 일반적인 웹캠 z카메라로 획득한 단일 영상과, 깊이맵 추론 결과 및 모델링 결과를 나타낸 도면이다. 도 12에 도시된 바와 같이, 본 발명이 제안하는 모델링 시스템의 성능을 검증하기 위해 다양한 블록 샘플을 만들어 실험을 진행하였으며, 일반적인 웹캠으로도 촬영된 블록 영상을 신경망의 입력으로 전달한 후 신경망에서 추론된 결과와 입력 영상에 후처리를 거쳐 최종 3차원 모델을 잘 만들어낼 수 있었다. 12 is a diagram showing a single image acquired by a general webcam z camera, a depth map inference result, and a modeling result according to the present invention. As shown in FIG. 12, in order to verify the performance of the modeling system proposed by the present invention, various block samples were made and experiments were conducted. Block images captured by a general webcam were transmitted as input to the neural network, and then inferred from the neural network. After post-processing the result and the input image, the final 3D model was well created.

이상과 같이, 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 이것에 의해 한정되지 않으며 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 본 발명의 기술 사상과 아래에 기재될 청구범위의 균등 범위 내에서 다양한 수정 및 변형이 가능함은 물론이다.As described above, although the present invention has been described by the limited embodiments and drawings, the present invention is not limited thereto, and the technical spirit of the present invention and the following by those of ordinary skill in the technical field to which the present invention pertains. It goes without saying that various modifications and variations are possible within the equal range of the claims to be described.

Claims (11)

폴리오미노를 이용한 조립식 교구에 대해서, 단일 카메라 기반으로 삼차원 깊이맵 생성과 영상 분할 기술을 이용하여 삼차원 모델링을 하는 방법으로서,
상기 폴리오미노를 이용한 조립식 교구는,
일정면적을 갖는 판 형상으로 이루어져 수평배치되며 상부에는 제1결합부가 오와 열을 이루도록 정렬배치된 베이스판; 및 단일의 육면체의 형상 또는 복수의 육면체가 측방으로 체결된 형상을 갖는 폴리오미노로 이루어지고, 저면에는 상기 제1결합부와 체결되는 제2결합부가 형성되며, 상기 제1결합부와 제2결합부에 의해 복수 개가 상기 베이스판 상에 조립되면서 다양한 형태의 블록집합을 이루는 블록부;를 포함하고,
상기 단일 카메라 기반 삼차원 깊이맵 생성과 영상 분할 기술을 이용한 삼차원 모델링 방법은, 단일 카메라로부터 획득한 원본 영상으로부터 상기 블록부 및 상기 베이스판의 삼차원 깊이맵을 생성하는 단계(S100); 상기 삼차원 깊이맵의 대비를 향상시키기 위해 상기 블록부의 전경과 상기 베이스판의 배경을 이진화를 하는 단계(S200); 및 상기 이진화 결과를 기초로 하여, 상기 블록부의 큐브 메쉬(cube mesh) 데이터를 생성하고, 픽셀 가운데 흰색 비율이 임계값 이상인 픽셀을 기준으로 블록 모델을 생성하며, 상기 블록부의 색상을 상기 블록 모델에 매핑하여 상기 블록부의 삼차원 모델을 생성하는 단계(S300);를 포함하고,
상기 단일 카메라로부터 획득한 영상으로부터 상기 블록부 및 상기 베이스판의 삼차원 깊이맵을 생성하는 단계(S100)에서는, 상기 영상 내에 존재하는 상기 블록부 및 상기 베이스판에 대한 공간 정보를 추출하고 깊이 정보를 추정할 수 있는 멀티스케일 심층 신경망을 이용하고,
상기 단일 카메라로부터 획득한 영상으로부터 상기 블록부 및 상기 베이스판의 삼차원 깊이맵을 생성하는 단계(S100)에서는,
상기 멀티스케일 심층 신경망은 연속적으로 구성된 보틀넥(bottleneck) 모듈로 이루어지며, 상기 보틀넥 모듈은 특징맵의 크기를 유지하면서 파라미터 개수를 증가시키지 않는 다이레이티드(dilated) 레이어, 비대칭 형태의 커널로 컨벌루션을 수행하여 컨벌루션 필터 내부에 일정 거리만큼 간격을 설정해 일반적인 컨벌루션과 대비하여 보다 적은 파라미터 개수만으로도 수신 필드(receptive field)를 갖도록 하는 비대칭 컨벌루션 레이어, 및 풀 컨벌루션(full convolution) 레이어로, 3개의 컨볼루션 레이어를 포함하여 구성되고,
상기 단일 카메라로부터 획득한 영상으로부터 상기 블록부 및 상기 베이스판의 삼차원 깊이맵을 생성하는 단계(S100)에서는,
상기 멀티스케일 심층 신경망의 출력값으로부터 깊이맵을 추론할 때, 깊이 범위(depth range)가 미리 정한 깊이 α와 깊이 β의 구간을 가지는 경우, 상기 멀티스케일 심층 신경망의 출력값으로부터 깊이맵을 추론할 때의 오차를 줄이기 위해 큰 깊이 값에 대해 더 넓은 오차범위를 가지도록 깊이의 값이 크면 클수록 큰 가중치를 두고,
상기 단일 카메라로부터 획득한 영상으로부터 상기 블록부 및 상기 베이스판의 삼차원 깊이맵을 생성하는 단계(S100)에서는,
상기 멀티스케일 심층 신경망의 출력값으로부터 깊이맵을 추론할 때, 깊이 범위(depth range)가 미리 정한 깊이 α와 깊이 β의 구간(깊이 α < 깊이 β)을 가질 때, 깊이로서 가능한 값 ti는
Figure 112021010388007-pat00003
를 가지며, 상기 K는 설계자에 의한 상수값이고, i는 자연수이며, ti의 최소값이 깊이 α이며 ti의 최대값이 깊이 β인 것을 특징으로 하는,
폴리오미노를 이용한 조립식 교구에 대해서, 단일 카메라 기반으로 삼차원 깊이맵 생성과 영상 분할 기술을 이용하여 삼차원 모델링을 하는 방법.
As a method of performing three-dimensional modeling for prefabricated teaching aids using polyomino, using a three-dimensional depth map generation and image segmentation technology based on a single camera,
Prefabricated teaching aids using the polyomino,
A base plate formed in a plate shape having a certain area and arranged horizontally and arranged to form a row with a first coupling portion at an upper portion thereof; And a polymino having a shape of a single hexahedron or a shape in which a plurality of hexahedrons are laterally fastened, and a second coupling portion coupled to the first coupling portion is formed on the bottom surface, and a second coupling portion with the first coupling portion A plurality of blocks are assembled on the base plate by the unit to form a block assembly of various types; including,
The three-dimensional modeling method using the single camera-based three-dimensional depth map generation and image segmentation technology includes the steps of generating a three-dimensional depth map of the block unit and the base plate from an original image obtained from a single camera (S100); Binarizing the foreground of the block portion and the background of the base plate to improve the contrast of the three-dimensional depth map (S200); And based on the binarization result, generating cube mesh data of the block unit, generating a block model based on a pixel whose white ratio is greater than or equal to a threshold value, and assigning the color of the block unit to the block model. Including; mapping to generate a three-dimensional model of the block unit (S300),
In the step (S100) of generating a three-dimensional depth map of the block portion and the base plate from an image obtained from the single camera, spatial information on the block portion and the base plate existing in the image is extracted, and depth information is obtained. Using a multiscale deep neural network that can be estimated,
In the step (S100) of generating a three-dimensional depth map of the block portion and the base plate from the image acquired from the single camera,
The multiscale deep neural network is composed of a bottleneck module that is continuously configured, and the bottleneck module is a dilated layer that does not increase the number of parameters while maintaining the size of the feature map. Convolution is performed to set an interval within the convolution filter by a certain distance to have a receptive field with a smaller number of parameters compared to general convolution. It is composed including the lusion layer,
In the step (S100) of generating a three-dimensional depth map of the block portion and the base plate from the image acquired from the single camera,
When inferring the depth map from the output value of the multiscale deep neural network, when the depth range has a section between the predetermined depth α and the depth β, when inferring the depth map from the output value of the multiscale deep neural network In order to reduce the error, the larger the depth value, the greater the weight to have a wider error range for a larger depth value.
In the step (S100) of generating a three-dimensional depth map of the block portion and the base plate from the image acquired from the single camera,
When inferring the depth map from the output value of the multiscale deep neural network, when the depth range has a section between the predetermined depth α and the depth β (depth α <depth β), a possible value ti as a depth is
Figure 112021010388007-pat00003
And K is a constant value by the designer, i is a natural number, the minimum value of ti is the depth α, and the maximum value of ti is the depth β,
A method of performing three-dimensional modeling for prefabricated teaching aids using polyomino using three-dimensional depth map generation and image segmentation technology based on a single camera.
삭제delete 삭제delete 삭제delete 삭제delete 제 1 항에 있어서,
상기 깊이 α 및 상기 깊이 β간의 차는, 상기 블록부의 높이 또는 상기 블록부의 높이의 자연수배에 대응하는 값인 것을 특징으로 하는,
폴리오미노를 이용한 조립식 교구에 대해서, 단일 카메라 기반으로 삼차원 깊이맵 생성과 영상 분할 기술을 이용하여 삼차원 모델링을 하는 방법.
The method of claim 1,
The difference between the depth α and the depth β is a value corresponding to a height of the block portion or a natural multiple of the height of the block portion,
A method of performing three-dimensional modeling for prefabricated teaching aids using polyomino using a three-dimensional depth map generation and image segmentation technology based on a single camera.
제 6 항에 있어서,
상기 멀티스케일 심층 신경망을 통해서 상기 깊이맵에서 정보를 얻을 때 발생할 수 있는 노이즈를 제거하여 화질을 향상시키는 미디언 필터링(Median filtering)을 더 포함하는 것을 특징으로 하는,
폴리오미노를 이용한 조립식 교구에 대해서, 단일 카메라 기반으로 삼차원 깊이맵 생성과 영상 분할 기술을 이용하여 삼차원 모델링을 하는 방법.
The method of claim 6,
It characterized in that it further comprises median filtering to improve image quality by removing noise that may occur when information is obtained from the depth map through the multiscale deep neural network,
A method of performing three-dimensional modeling for prefabricated teaching aids using polyomino using a three-dimensional depth map generation and image segmentation technology based on a single camera.
제 1 항에 있어서,
상기 삼차원 깊이맵의 대비를 향상시키기 위해 상기 블록부의 전경과 상기 베이스판의 배경을 이진화를 하는 단계(S200)에서는, 추론된 상기 깊이 맵을 다시 업 샘플링하여 원본 영상 크기로 변환하는 단계를 포함하는,
폴리오미노를 이용한 조립식 교구에 대해서, 단일 카메라 기반으로 삼차원 깊이맵 생성과 영상 분할 기술을 이용하여 삼차원 모델링을 하는 방법.
The method of claim 1,
In the step of binarizing the foreground of the block portion and the background of the base plate to improve the contrast of the 3D depth map (S200), the inferred depth map is again upsampled and converted into an original image size. ,
A method of performing three-dimensional modeling for prefabricated teaching aids using polyomino using a three-dimensional depth map generation and image segmentation technology based on a single camera.
제 8 항에 있어서,
상기 S300 단계에서는, 상기 큐브 메쉬 데이터의 영역에 대해서 색상을 매핑할 때, 연산 속도가 향상될 수 있도록 블록 지정 색상으로 큐브 메쉬 데이터의 색상을 초기 설정하고, 상기 큐브 메쉬 데이터와 대응하는 원본 영상의 색상 평균을 비교하여, 가장 근접한 색상으로 색상을 매핑하는 단계를 포함하는 것을 특징을 하는,
폴리오미노를 이용한 조립식 교구에 대해서, 단일 카메라 기반으로 삼차원 깊이맵 생성과 영상 분할 기술을 이용하여 삼차원 모델링을 하는 방법.
The method of claim 8,
In the step S300, when the color is mapped to the area of the cube mesh data, the color of the cube mesh data is initially set as a block-designated color so that the calculation speed can be improved, and the original image corresponding to the cube mesh data is Comparing the color average, characterized in that it comprises the step of mapping the color to the nearest color,
A method of performing three-dimensional modeling for prefabricated teaching aids using polyomino using a three-dimensional depth map generation and image segmentation technology based on a single camera.
삭제delete 제 1 항에 있어서,
상기 폴리오미노를 이용한 조립식 교구는, 상기 베이스판 상에 배치되며, 동물을 포함하는 사물 형상의 이미지가 형성되어 상기 베이스판 상에 상기 사물 형상대로 각 블록부가 조립되도록 가이드하는 가이드이미지부;를 더 포함하는,
폴리오미노를 이용한 조립식 교구에 대해서, 단일 카메라 기반으로 삼차원 깊이맵 생성과 영상 분할 기술을 이용하여 삼차원 모델링을 하는 방법.
The method of claim 1,
The prefabricated teaching aid using the polyomino includes a guide image unit disposed on the base plate and configured to guide each block unit to be assembled in the shape of the object on the base plate by forming an image in the shape of an object including an animal; Included,
A method of performing three-dimensional modeling for prefabricated teaching aids using polyomino using a three-dimensional depth map generation and image segmentation technology based on a single camera.
KR1020190174124A 2019-12-24 2019-12-24 Three dimensional modeling method using three dimensional depth map and region segmentation based on an single camear for assembly type education apparatus with polyomino KR102236917B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190174124A KR102236917B1 (en) 2019-12-24 2019-12-24 Three dimensional modeling method using three dimensional depth map and region segmentation based on an single camear for assembly type education apparatus with polyomino

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190174124A KR102236917B1 (en) 2019-12-24 2019-12-24 Three dimensional modeling method using three dimensional depth map and region segmentation based on an single camear for assembly type education apparatus with polyomino

Publications (1)

Publication Number Publication Date
KR102236917B1 true KR102236917B1 (en) 2021-04-06

Family

ID=75473255

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190174124A KR102236917B1 (en) 2019-12-24 2019-12-24 Three dimensional modeling method using three dimensional depth map and region segmentation based on an single camear for assembly type education apparatus with polyomino

Country Status (1)

Country Link
KR (1) KR102236917B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102529932B1 (en) * 2022-08-23 2023-05-08 주식회사 포디랜드 System for extracting stacking structure pattern of educative block using deep learning and method thereof
CN116389705A (en) * 2023-03-23 2023-07-04 北京至格科技有限公司 Three-dimensional scene realization method and system for augmented reality

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170036136A1 (en) * 2015-08-09 2017-02-09 Margo Sheryl Chazen Three-Dimensional Integrated, Numeral-Designated Construction Craft
KR101795952B1 (en) * 2016-07-20 2017-11-09 연세대학교 산학협력단 Method and device for generating depth image of 2d image

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170036136A1 (en) * 2015-08-09 2017-02-09 Margo Sheryl Chazen Three-Dimensional Integrated, Numeral-Designated Construction Craft
KR101795952B1 (en) * 2016-07-20 2017-11-09 연세대학교 산학협력단 Method and device for generating depth image of 2d image

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
대한민국 특허 제10-0544677호(출원인 : 한국전자통신연구원, 발명의 명칭 : 다시점 영상 및 깊이 정보를 이용한 3차원 객체 추적 장치및 그 방법{Apparatus and method for the 3D object tracking using multi-view and depth cameras})
미국 특허 제10,096,115호(2018년 10월 9일 등록, 출원인 : BlackBerry Limited, 발명의 명칭 : Building a depth map using movement of one camera)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102529932B1 (en) * 2022-08-23 2023-05-08 주식회사 포디랜드 System for extracting stacking structure pattern of educative block using deep learning and method thereof
CN116389705A (en) * 2023-03-23 2023-07-04 北京至格科技有限公司 Three-dimensional scene realization method and system for augmented reality
CN116389705B (en) * 2023-03-23 2023-10-13 北京至格科技有限公司 Three-dimensional scene realization method and system for augmented reality

Similar Documents

Publication Publication Date Title
CN112348815B (en) Image processing method, image processing apparatus, and non-transitory storage medium
CN110598610B (en) Target significance detection method based on neural selection attention
Huang et al. Indoor depth completion with boundary consistency and self-attention
CN109753885B (en) Target detection method and device and pedestrian detection method and system
US9449253B2 (en) Learning painting styles for painterly rendering
US20190301861A1 (en) Method and apparatus for binocular ranging
JP2021073627A (en) Machine vision with dimensional data reduction
CN110728707B (en) Multi-view depth prediction method based on asymmetric depth convolution neural network
CN108292362A (en) Gesture identification for cursor control
KR102236917B1 (en) Three dimensional modeling method using three dimensional depth map and region segmentation based on an single camear for assembly type education apparatus with polyomino
Nedović et al. Stages as models of scene geometry
KR20170074413A (en) 2d image data generation system using of 3d model, and thereof method
CN108765333B (en) Depth map perfecting method based on depth convolution neural network
CN110517270B (en) Indoor scene semantic segmentation method based on super-pixel depth network
CN108377374A (en) Method and system for generating depth information related to an image
CN107944451B (en) Line segmentation method and system for ancient Tibetan book documents
EP4174792A1 (en) Method for scene understanding and semantic analysis of objects
CN109002837A (en) A kind of image application processing method, medium, device and calculate equipment
CN102147867A (en) Method for identifying traditional Chinese painting images and calligraphy images based on subject
CN115512251A (en) Unmanned aerial vehicle low-illumination target tracking method based on double-branch progressive feature enhancement
CN104010180A (en) Method and device for filtering three-dimensional video
CN109003287A (en) Image partition method based on improved adaptive GA-IAGA
CN109063549A (en) High-resolution based on deep neural network is taken photo by plane video moving object detection method
CN108274476B (en) Method for grabbing ball by humanoid robot
CN106778658B (en) Method for analyzing learner attention based on classroom scene and learner sight

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant