KR20230036327A - Automatic extraction method of indoor spatial information from floor plan images through patch-based deep learning algorithms and device thereof - Google Patents

Automatic extraction method of indoor spatial information from floor plan images through patch-based deep learning algorithms and device thereof Download PDF

Info

Publication number
KR20230036327A
KR20230036327A KR1020210119056A KR20210119056A KR20230036327A KR 20230036327 A KR20230036327 A KR 20230036327A KR 1020210119056 A KR1020210119056 A KR 1020210119056A KR 20210119056 A KR20210119056 A KR 20210119056A KR 20230036327 A KR20230036327 A KR 20230036327A
Authority
KR
South Korea
Prior art keywords
patch
spatial information
indoor
module
indoor spatial
Prior art date
Application number
KR1020210119056A
Other languages
Korean (ko)
Other versions
KR102535054B1 (en
Inventor
김현정
김성용
유기윤
Original Assignee
서울대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울대학교산학협력단 filed Critical 서울대학교산학협력단
Priority to KR1020210119056A priority Critical patent/KR102535054B1/en
Publication of KR20230036327A publication Critical patent/KR20230036327A/en
Application granted granted Critical
Publication of KR102535054B1 publication Critical patent/KR102535054B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • G06F30/13Architectural design, e.g. computer-aided architectural design [CAAD] related to design of buildings, bridges, landscapes, production plants or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • G06F30/27Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20061Hough transform

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Geometry (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Mathematical Analysis (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Computational Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Optimization (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Algebra (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Architecture (AREA)
  • Civil Engineering (AREA)
  • Structural Engineering (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to an automatic extraction method of indoor spatial information from indoor floor plan images through patch-based deep learning algorithms and a device thereof. The automatic extraction method comprises: a step (a) of matching, by a floor plan scale matching module, scales of a plurality of floor plan images for training data from among floor plan data sets constructed by being composed of a building representing a large-scale space; a step (b) of dividing, by a patch division module, each of the floor plan images, in which the scales are matched, into patches with uniform width and length; a step (c) of setting, by a CNN model, each of the divided patches as leaning data to learn the CNN model; a step (d) of overlapping and coupling, by a patch coupling module, an object class output from each pixel of each learning-finished patch based on patch location information in a floor plan for indoor space information extraction; a step (e) of determining, by an indoor space information extraction module, an object class having the highest probability from among an output value representing a probability for each of object classes for each pixel of the patches through the CNN model as corresponding indoor space information for each pixel and then extracting the same; and a step (f) of performing, by a CNN performance module, extraction of the indoor space information, which is the object class, from a test floor plan or an arbitrary floor plan, which is a target for indoor space information extraction through the learned CNN model. The present invention has an effect of allowing floor plans with various sizes to be able to be input in deep learning, preventing information loss caused by resolution loss, and improving matching between objects by detecting and extracting objects, which are a plurality of pieces of indoor space information, at the same time.

Description

패치기반의 딥러닝 알고리즘을 통한 실내도면 이미지에서의 실내공간정보 자동추출방법 및 그 장치 {Automatic extraction method of indoor spatial information from floor plan images through patch-based deep learning algorithms and device thereof}Automatic extraction method of indoor spatial information from floor plan images through patch-based deep learning algorithms and device thereof}

본 발명은 패치기반의 딥러닝 알고리즘을 통한 실내도면 이미지에서의 실내공간정보 자동추출방법 및 그 장치에 관한 것으로, 더욱 상세하게는 다양한 축척과 해상도를 갖는 복잡한 형태의 도면 데이터셋에 도면 해석 CNN모델을 효율적으로 적용하기 위한 프레임워크와 패치 기반의 CNN 학습모델을 통해 대규모 공간 대상의 도면 해석에 특화된 기술을 제안하는, 패치기반의 딥러닝 알고리즘을 통한 실내도면 이미지에서의 실내공간정보 자동추출방법 및 그 장치에 관한 것이다.The present invention relates to a method for automatically extracting indoor spatial information from an indoor drawing image through a patch-based deep learning algorithm and an apparatus therefor, and more particularly, to a drawing interpretation CNN model for a drawing data set of a complex shape having various scales and resolutions. A method for automatically extracting indoor spatial information from indoor drawing images through a patch-based deep learning algorithm, which proposes a technique specialized in drawing interpretation of large-scale spatial objects through a framework and patch-based CNN learning model for efficiently applying It's about the device.

실내도면 이미지에서 벡터화된 실내공간정보를 추출하는 연구는 과거 rule-base(규칙기반) 방식에서 최근의 딥러닝을 활용한 방식의 두 가지 접근으로 발전되고 있다.Research on extracting vectorized indoor spatial information from indoor drawing images has been developed into two approaches, from the past rule-based method to the recent method using deep learning.

특히, 인공신경망 및 기계학습 알고리즘의 발전으로 이미지의 학습 및 분석이 가능해지면서 도면 이미지에서 실내공간정보를 구성하는 벽체, 문 등의 주요 정보를 추출해 내는 연구가 활발히 진행되고 있다. 그러나 딥러닝의 특성상 학습에 용이한 비교적 간단한 구성의 드로잉 기법이 유사한 주택도면을 주로 활용하는 경우가 많았다.In particular, as learning and analysis of images become possible with the development of artificial neural networks and machine learning algorithms, research on extracting key information such as walls and doors constituting indoor spatial information from drawing images is being actively conducted. However, due to the nature of deep learning, there were many cases in which house drawings with similar relatively simple drawing techniques, which are easy to learn, were mainly used.

실제로 실내공간정보를 활용하는 경우, 주로 실내 네비게이션을 목적으로 구축하는 경우가 많으며, 해당 경우 여러 사람이 이용하는 비교적 넓은 공간범위의 건축물에 대한 수요가 높다. 특히, 도면의 작성 시기 또는 작성 업체에 따라 도면 작성 방식이 다양한 경우가 많기 때문에 다양한 크기의 도면 작성양식이 각기 다른 도면에 까지 적용할 수 있는 것이 매우 중요할 것이다.In practice, when indoor spatial information is used, it is often constructed mainly for the purpose of indoor navigation, and in this case, there is a high demand for buildings with a relatively wide spatial range used by many people. In particular, since there are many cases in which the drawing creation method varies depending on the time of drafting the drawing or the drafting company, it will be very important that the drawing drafting style of various sizes can be applied to different drawings.

기존 연구에서 주로 활용하던 기법은 크게 두 가지로, 1)rule-base(규칙기반) 방식과 2)learning base(학습모델 기반) 방식으로 구분할 수 있다.The techniques mainly used in previous studies can be divided into two main types: 1) rule-base method and 2) learning base method.

rule-base(규칙기반) 방식은 특정 도면 포맷에 특화되어 다른 포맷으로 일반화하기가 어렵고, 비교적 간단한 유형(일정한 두께의 직선으로 구성된 벽체, 다른 객체와 겹치지 않는 텍스트 라벨 등)의 도면에서의 객체 추출에 강점을 보인다.The rule-base method is specialized for a specific drawing format, making it difficult to generalize to other formats, and extracting objects from drawings of relatively simple types (walls composed of straight lines with a constant thickness, text labels that do not overlap with other objects, etc.) show strengths in

learning base(학습모델 기반) 즉, ML/DL (머신러닝/딥러닝) 기반의 방법론은 많은 양의 데이터 학습을 통해 위에서 제기된 rule-base방식의 한계를 극복할 수 있다. 그러나 대부분의 면적은 빈 공간으로, 몇몇 간단한 선과 곡선으로만 이루어져 풍부한 정보를 제공하는 도면의 특성 상 이미지를 low level feature부터 순차적으로 추출하여 해석하는 딥러닝의 방식에 도전적인 요소로 작용한다.The methodology based on learning base (learning model-based), that is, ML/DL (machine learning/deep learning), can overcome the limitations of the rule-base method raised above through learning a large amount of data. However, most of the area is empty space, and due to the nature of the drawing, which consists of only a few simple lines and curves and provides abundant information, it acts as a challenging factor in the deep learning method of sequentially extracting and interpreting images from low level features.

특히, 대규모의 공간은 도면의 스케일이 다양하고, 딥러닝에서 일반적으로 쓰이는 알고리즘을 도면에 적용하기에는 해상도가 너무 높아 연산에 어려움이 있다. 또한 포맷의 복잡성이 높아 학습하기에 어려운 요소로 작용한다. 더구나 기존 Convolutional Neural Networks(이하 CNN) 모델은 고정된 사이즈의 이미지에 적용 가능하고, 연산량의 한계로 인해 고해상도의 이미지를 활용하지 못하며 잘 수렴되지 않는 학습의 문제가 있어, 딥러닝 기반의 도면 해석 모델에는 한계가 존재했다. 도면을 균일한 사이즈의 저해상도로 변형(리사이징)하는 과정에서 많은 정보의 손실이 발생하므로, 해상도가 낮고 가로세로 비율이 비슷한 특수한 유형의 도면 데이터셋을 대상으로 주로 모델이 개발되어왔다.In particular, in a large-scale space, the scale of the drawing is diverse, and the resolution is too high to apply an algorithm commonly used in deep learning to the drawing, so it is difficult to calculate. In addition, the complexity of the format is high, making it difficult to learn. Moreover, existing Convolutional Neural Networks (CNN) models can be applied to images of a fixed size, cannot utilize high-resolution images due to limitations in the amount of computation, and have problems with learning that does not converge well. Deep learning-based drawing interpretation models there were limitations. Since a lot of information is lost in the process of transforming (resizing) a drawing into a uniform size and low resolution, a model has been developed mainly for a special type of drawing dataset with a low resolution and a similar aspect ratio.

한편, 종래 기술로는 대한민국 공개특허공보 제10-2021-0057907호(2021년05월24일 공개)에 개시되어 있는 바와 같이, 이미지 도면(image drawing)을 획득하는 과정; 딥러닝(deep learning) 및 영상처리(image processing) 기술을 기반으로 상기 이미지 도면으로부터 객체를 검출하여 복수의 심볼(symbols), 복수의 문자열(text sequences) 및 복수의 라인(lines)을 독립적으로 인식(recognition)하는 과정; 및 상기 객체에 대한 속성(attributes) 및 사양(specifications) 정보를 추가하고, 상기 객체 간의 상호 위치를 기반으로 상기 객체 간을 연결하는 과정을 포함하는 것을 특징으로 하여 지능형 도면 생성방법을 컴퓨터 상에 구현하고 있으나, 다양한 축척의 도면을 자동으로 탐지하여 통일화시키고 다양한 사이즈의 도면이 딥러닝에 입력가능하게 하면서 정보손실을 방지하게 하며, 복수의 객체들을 동시에 탐지 및 추출하여 객체간 정합성을 향상시키는 데에는 한계가 있다.On the other hand, as the prior art, as disclosed in Republic of Korea Patent Publication No. 10-2021-0057907 (published on May 24, 2021), the process of obtaining an image drawing (image drawing); Based on deep learning and image processing technology, objects are detected from the image drawing to independently recognize multiple symbols, multiple text sequences, and multiple lines. the process of recognizing; and adding attribute and specifications information about the object, and connecting the objects based on mutual positions between the objects, thereby implementing an intelligent drawing generation method on a computer. However, there is a limit to automatically detecting and unifying drawings of various scales, preventing information loss while allowing drawings of various sizes to be input to deep learning, and improving consistency between objects by detecting and extracting multiple objects at the same time. there is

대한민국 공개특허공보 제10-2021-0057907호(2021년05월24일 공개, 발명의 명칭: 딥러닝 기반 지능형 엔지니어링 도면 생성방법 및 장치)Republic of Korea Patent Publication No. 10-2021-0057907 (published on May 24, 2021, title of invention: deep learning-based intelligent engineering drawing generation method and device)

본 발명은 상기와 같은 문제점을 해결하기 위해 안출된 것으로, 본 발명의 목적은 다양한 축척의 도면을 자동으로 탐지하여 통일화시키고, 도면을 표준화된 패치로 분할한 후 중첩함으로써 다양한 사이즈의 도면이 딥러닝에 입력 가능해지도록 하고 해상도 손실로 인한 정보손실을 방지할 수 있도록 하며, 복수의 실내공간정보인 객체들을 동시에 탐지 및 추출하여 객체간 정합성을 향상시킬 수 있는, 패치기반의 딥러닝 알고리즘을 통한 실내도면 이미지에서의 실내공간정보 자동추출방법 및 그 장치를 제공하는데 있다.The present invention has been devised to solve the above problems, and an object of the present invention is to automatically detect and unify drawings of various scales, divide drawings into standardized patches, and overlap them so that drawings of various sizes can be deep learning. indoor drawing through a patch-based deep learning algorithm that can be entered into and prevents information loss due to resolution loss, and can simultaneously detect and extract a plurality of objects, which are indoor spatial information, to improve the consistency between objects. It is to provide a method and apparatus for automatically extracting indoor spatial information from an image.

즉, 본 발명은 다양한 축척 및 고해상도의 도면 데이터셋에 도면 해석 CNN모델을 효율적으로 적용하기 위한 프레임워크와 패치 기반의 CNN 학습모델을 통해 대규모 공간 대상의 도면 해석에 특화된 기술을 제안하기 위한 것이다.That is, the present invention is to propose a technique specialized in drawing analysis of large-scale spatial objects through a framework for efficiently applying a drawing interpretation CNN model to drawing datasets of various scales and high resolution and a patch-based CNN learning model.

상기와 같은 목적을 달성하기 위하여, 본 발명은 (a) 도면축척 일치화모듈이 대규모 공간을 표현하는 건물로 구성되어 구축된 도면 데이터셋 중에서 학습 데이터용 복수의 도면이미지의 축척을 일치시키는 단계와; (b) 패치 분할모듈이 축척이 일치된 각 도면이미지를 가로 및 세로가 균일한 사이즈의 패치로 분할하되, 패치가 인접 패치와 상하 좌우 방향으로 경계부분에서 일정 길이가 중첩되어 겹쳐지도록 분할하는 단계와; (c) CNN 학습모듈이 분할된 각 패치를 학습 데이터로 하여 CNN 모델을 학습시키는 단계와; (d) 패치 결합모듈이 학습이 완료된 각 패치의 각 픽셀에서 출력된 객체 클래스를 도면에서의 패치 위치정보를 기준으로 실내공간정보 추출을 위해 중첩하여 결합하는 단계와; (e) 실내공간정보 추출모듈이 CNN 모델을 통해 패치의 각 픽셀에 대해 객체 클래스 각각에 대한 확률로 나타나는 출력값 중 가장 높은 확률을 갖는 객체 클래스를 각 픽셀에 대한 해당 실내공간정보로 결정하여 추출하되, 패치 결합시 중첩되는 부분은 동일한 위치의 픽셀에 대해 복수의 출력값인 확률을 평균해서 해당 실내공간정보로 결정하여 추출하는 단계, 및 (f) CNN 수행모듈이 실내공간정보 추출 대상인 테스트 도면 또는 임의의 도면에서 상기 학습된 CNN 모델을 통해 객체 클래스인 실내공간정보 추출을 수행하는 단계로 이루어지는 것을 특징으로 한다.In order to achieve the above object, the present invention provides (a) the step of matching the scales of a plurality of drawing images for learning data among drawing datasets constructed by a drawing scale matching module consisting of buildings representing large-scale spaces; ; (b) The patch division module divides each drawing image with the same scale into patches of uniform size horizontally and vertically, dividing the patch so that the patch overlaps with the adjacent patch by a certain length at the boundary in the vertical and horizontal directions. and; (c) learning a CNN model by using each divided patch as learning data by a CNN learning module; (d) overlapping and combining, by a patch combining module, object classes output from each pixel of each patch for which learning has been completed to extract indoor geospatial information based on patch location information in the drawing; (e) The indoor spatial information extraction module determines and extracts the object class having the highest probability among the output values appearing as the probability for each object class for each pixel of the patch as the corresponding indoor spatial information for each pixel through the CNN model. , determining and extracting the overlapping part as the corresponding indoor spatial information by averaging probabilities that are a plurality of output values for pixels at the same location when combining the patches, and (f) a test drawing where the CNN execution module is an indoor spatial information extraction target or any In the drawing of, it is characterized in that it comprises the step of extracting indoor spatial information, which is an object class, through the learned CNN model.

또한, 본 발명은 (g) 벡터화 변환모듈이 테스트 도면 또는 임의의 도면에 대해 벡터화된 실내공간정보 생성을 위해 상기 단계(f)에서 추출된 픽셀단위의 래스터 데이터인 객체 클래스를 hough transformation(허프 변환)을 통해 벡터화된 객체로 변환시키는 단계를 더 포함한다.In addition, in the present invention, (g) the vectorization conversion module converts the object class, which is raster data in pixel units extracted in step (f), to Hough transformation (Hough transformation) to generate vectorized indoor spatial information for a test drawing or an arbitrary drawing. ) to a vectorized object.

또한, 본 발명의 상기 단계(a)에서 도면이미지 축척의 일치는, 수치선이 있는 도면의 경우 수치선에 나타난 수치와 그에 상응하는 픽셀 수를 추출하여 픽셀당 거리를 통일시키고, 수치선이 없는 도면의 경우는 최소 두께의 벽체의 픽셀 갯수를 추출하여 픽셀당 거리를 통일시키는 것이다.In addition, in the step (a) of the present invention, in the case of a drawing having a number line, in the case of a drawing having a number line, the number shown in the number line and the corresponding number of pixels are extracted to unify the distance per pixel, and the distance per pixel is unified. In the case of the drawing, the number of pixels of the minimum thickness wall is extracted and the distance per pixel is unified.

또한, 본 발명에서 상기 객체 클래스는 벽체, 문, 창문, 엘리베이터, 계단실로 총 5개의 객체 클래스를 하나의 CNN 모델을 통해 학습을 진행함으로써 객체간의 정합성을 향상시킬 수 있다.In addition, in the present invention, the consistency between objects can be improved by learning a total of five object classes, namely walls, doors, windows, elevators, and stairwells, through one CNN model.

또한, 본 발명에서 상기 단계(f)는, (f1) 테스트 도면 또는 임의의 도면의 축척을 학습 데이터와 일치시키는 단계와; (f2) 축척이 학습 데이터와 일치된 테스트 도면 또는 임의의 도면을 가로 및 세로가 균일한 사이즈의 패치로 분할하되, 패치가 인접 패치와 상하 좌우 방향으로 경계부분에서 일정 길이가 중첩되어 겹쳐지도록 분할하는 단계와; (f3) 분할된 각 패치를 입력 데이터로 하여 상기 학습된 CNN 모델을 통해 각 패치에 대해 학습된 CNN 모델을 수행하는 단계와; (f4) 각 패치의 각 픽셀에서 출력된 객체 클래스를 도면에서의 패치 위치정보를 기준으로 실내공간정보 추출을 위해 중첩하여 결합하는 단계, 및 (f5) CNN 모델을 통해 패치의 각 픽셀에 대해 객체 클래스 각각에 대한 확률로 나타나는 출력값 중 가장 높은 확률을 갖는 객체 클래스를 각 픽셀에 대한 해당 실내공간정보로 결정하여 추출하되, 패치 결합시 중첩되는 부분은 동일한 위치의 픽셀에 대해 복수의 출력값인 확률을 평균해서 해당 실내공간정보로 결정하여 추출하는 단계로 이루어진다.Further, in the present invention, the step (f) includes: (f1) matching the scale of the test drawing or any drawing with the learning data; (f2) Divide the test drawing or arbitrary drawing whose scale matches the learning data into patches of uniform size horizontally and vertically, but divide the patch so that the patch overlaps with the adjacent patch at the boundary in the vertical and horizontal directions and overlaps with a certain length. step of doing; (f3) performing a CNN model learned for each patch through the learned CNN model using each divided patch as input data; (f4) overlapping and combining the object classes output from each pixel of each patch to extract indoor spatial information based on the patch location information in the drawing, and (f5) the object class for each pixel of the patch through the CNN model The object class with the highest probability among the output values represented by the probability for each class is determined and extracted as the corresponding indoor spatial information for each pixel. A step of averaging and determining the corresponding indoor geospatial information and extracting it is performed.

또한, 본 발명은 CNN 모델의 학습을 효율적으로 하기 위해 CNN 모델의 학습시 벽체 객체의 정확도 비중을 높이는 weighted loss를 반영한다.In addition, in order to efficiently train the CNN model, the present invention reflects a weighted loss that increases the accuracy ratio of the wall object when learning the CNN model.

또한, 본 발명에서 경계가 뚜렷한 높은 해상도 출력 결과를 얻기 위해 상기 CNN 모델은 네트워크의 stride를 높이고 L1 loss를 사용한다.In addition, in the present invention, in order to obtain a high-resolution output result with clear boundaries, the CNN model increases the stride of the network and uses the L1 loss.

또한, 본 발명의 실내공간정보 자동추출장치는 대규모 공간을 표현하는 건물로 구성되어 구축된 도면 데이터셋 중에서 학습 데이터용 복수의 도면이미지의 축척을 일치시키는 도면축척 일치화모듈과, 축척이 일치된 각 도면이미지를 가로 및 세로가 균일한 사이즈의 패치로 분할하되, 패치가 인접 패치와 상하 좌우 방향으로 경계부분에서 일정 길이가 중첩되어 겹쳐지도록 분할하는 패치 분할모듈과, 분할된 각 패치를 학습 데이터로 하여 CNN 모델을 학습시키는 CNN 학습모듈과, 학습이 완료된 각 패치의 각 픽셀에서 출력된 객체 클래스를 도면에서의 패치 위치정보를 기준으로 실내공간정보 추출을 위해 중첩하여 결합하는 패치 결합모듈과, CNN 모델을 통해 패치의 각 픽셀에 대해 객체 클래스 각각에 대한 확률로 나타나는 출력값 중 가장 높은 확률을 갖는 객체 클래스를 각 픽셀에 대한 해당 실내공간정보로 결정하여 추출하되, 패치 결합시 중첩되는 부분은 동일한 위치의 픽셀에 대해 복수의 출력값인 확률을 평균해서 해당 실내공간정보로 결정하여 추출하는 실내공간정보 추출모듈, 및 실내공간정보 추출 대상인 테스트 도면 또는 임의의 도면에서 상기 학습된 CNN 모델을 통해 객체 클래스인 실내공간정보 추출을 수행하는 CNN 수행모듈을 포함한다.In addition, the apparatus for automatically extracting indoor geospatial information of the present invention includes a drawing scale matching module that matches the scales of a plurality of drawing images for learning data among drawing datasets constructed by constructing buildings representing large-scale spaces, and scale matching module. A patch division module that divides each drawing image into patches of uniform size horizontally and vertically, but divides the patch so that the patch overlaps with an adjacent patch by overlapping with a certain length at the boundary in the vertical and horizontal directions, and each divided patch is used as learning data. A CNN learning module that learns a CNN model by using a CNN model, and a patch combining module that overlaps and combines the object class output from each pixel of each learned patch to extract indoor spatial information based on the patch location information in the drawing; Through the CNN model, the object class with the highest probability among the output values appearing as the probability for each object class for each pixel of the patch is determined and extracted as the corresponding indoor spatial information for each pixel. An indoor spatial information extraction module that determines and extracts the corresponding indoor spatial information by averaging probabilities, which are a plurality of output values for pixels of a position, and an object class through the learned CNN model in a test drawing or an arbitrary drawing to be extracted indoor spatial information. and a CNN performance module that performs indoor spatial information extraction.

이상에서 살펴본, 본 발명인 패치기반의 딥러닝 알고리즘을 통한 실내도면 이미지에서의 실내공간정보 자동추출방법 및 그 장치는 다양한 축척의 도면을 자동으로 탐지하여 통일화시키고, 도면을 표준화된 패치로 분할한 후 중첩함으로써 다양한 사이즈의 도면이 딥러닝에 입력 가능해지고 해상도 손실로 인한 정보손실을 방지할 수 있으며, 복수의 실내공간정보인 객체들을 동시에 탐지 및 추출하여 객체간 정합성을 향상시킬 수 있는 효과가 있다.As described above, the method and apparatus for automatically extracting indoor spatial information from indoor drawing images through patch-based deep learning algorithm of the present invention automatically detect and unify drawings of various scales, divide the drawings into standardized patches, and then By overlapping, drawings of various sizes can be input to deep learning, information loss due to loss of resolution can be prevented, and a plurality of indoor spatial information objects can be simultaneously detected and extracted to improve the consistency between objects.

더불어, 본 발명을 통해 기존의 알고리즘에서는 다룰 수 없었던 주택규모 이상의 대규모 공간과 수치선 등 복잡한 요소를 포함하고 있는 복잡한 형태의 도면을 학습하여 기존의 단순한 도면을 대상으로한 알고리즘에 못지않은 정확도를 보인다는 점에서 본 발명의 우수성을 확인할 수 있다.In addition, through the present invention, it learns complex-shaped drawings that include complex elements such as large-scale spaces and numerical lines that could not be handled by existing algorithms, showing accuracy comparable to existing algorithms for simple drawings. In this respect, the excellence of the present invention can be confirmed.

도 1 은 본 발명에 따른 패치기반의 딥러닝 알고리즘을 통한 실내도면 이미지에서의 실내공간정보 자동추출방법의 전체 흐름도를 나타낸 도면.
도 2 는 본 발명에서 (a)실내도면 이미지 원본, (b)래스터 형태의 세그멘테이션 및 (c)벡터화된 실내공간정보 이미지의 일실시예를 순서대로 나타낸 도면.
도 3 은 본 발명에 따른 실내도면 이미지로부터 표준화된 패치추출, 딥러닝을 통한 패치기반의 도면인식 및 벡터화된 실내공간정보를 생성하는 과정을 순서대로 나타낸 도면.
도 4 는 본 발명에서 도면의 축척 통일을 위해 수치선 존재 유무에 따른 방법을 나타낸 도면.
도 5 는 본 발명에서 도면 이미지를 중첩되도록 패치 분할하는 방법의 일실시예를 나타낸 도면.
도 6 은 본 발명에 따른 패치기반의 딥러닝 알고리즘을 통한 실내도면 이미지에서의 실내공간정보 자동추출결과의 여러 실시예를 나타낸 도면.
도 7 은 본 발명에 따른 패치기반의 딥러닝 알고리즘을 통한 실내도면 이미지에서의 실내공간정보 자동추출방법과 관련된 장치의 일실시예를 나타낸 구성도.
1 is a diagram showing the entire flow chart of a method for automatically extracting indoor spatial information from an indoor drawing image through a patch-based deep learning algorithm according to the present invention.
2 is a diagram sequentially illustrating an embodiment of (a) an original interior drawing image, (b) a segmentation in raster form, and (c) a vectorized indoor geospatial information image in the present invention.
3 is a diagram showing the processes of standardized patch extraction from indoor drawing images, patch-based drawing recognition through deep learning, and generation of vectorized indoor spatial information according to the present invention in sequence.
4 is a view showing a method according to the existence or nonexistence of a numerical line for scale unification of drawings in the present invention;
5 is a diagram showing an embodiment of a method of dividing a patch so as to overlap a drawing image in the present invention.
6 is a diagram showing various examples of results of automatic extraction of indoor spatial information from an indoor drawing image through a patch-based deep learning algorithm according to the present invention;
7 is a configuration diagram showing an embodiment of a device related to a method of automatically extracting indoor spatial information from an indoor drawing image through a patch-based deep learning algorithm according to the present invention.

상기와 같이 구성된 본 발명의 바람직한 실시예를 첨부된 도면을 참조하면서 상세히 설명하면 다음과 같다. 첨부된 도면들 및 이를 참조한 설명은 본 발명에 관하여 당해 기술 분야에서 통상의 지식을 가진 자들이 쉽게 이해할 수 있도록 하기 위해 예시된 것이며, 본 발명의 사상 및 범위를 한정하려는 의도로 제시된 것은 아님에 유의하여야 할 것이다.A preferred embodiment of the present invention configured as described above will be described in detail with reference to the accompanying drawings. Note that the accompanying drawings and the description referring thereto are illustrated so that those skilled in the art can easily understand the present invention, and are not intended to limit the spirit and scope of the present invention. will have to

도 7 은 본 발명에 따른 패치기반의 딥러닝 알고리즘을 통한 실내도면 이미지에서의 실내공간정보 자동추출방법과 관련된 장치의 일실시예를 나타낸 구성도로, 실내공간정보 자동추출장치(10)는 다양한 축척의 도면을 자동으로 탐지하여 통일화시키고, 도면을 표준화된 패치로 분할한 후 중첩함으로써 다양한 사이즈의 도면이 딥러닝에 입력 가능해지고 해상도 손실로 인한 정보손실을 방지할 수 있으며, 복수의 실내공간정보인 객체들을 동시에 탐지 및 추출하여 객체간 정합성을 향상시킬 수 있는 것으로, 학습 데이터용 복수의 도면이미지의 축척을 일치시키는 도면축척 일치화모듈(11), 축척이 일치된 각 도면이미지를 가로 및 세로가 균일한 사이즈의 패치로 분할하는 패치 분할모듈(12), 분할된 각 패치를 학습 데이터로 하여 CNN 모델을 학습시키는 CNN 학습모듈(13), 학습이 완료된 각 패치의 각 픽셀에서 출력된 객체 클래스를 도면에서의 패치 위치정보를 기준으로 실내공간정보 추출을 위해 중첩하여 결합하는 패치 결합모듈(14), CNN 모델을 통해 패치의 각 픽셀에 대해 객체 클래스 각각에 대한 확률로 나타나는 출력값 중 가장 높은 확률을 갖는 객체 클래스를 각 픽셀에 대한 해당 실내공간정보로 결정하여 추출하는 실내공간정보 추출모듈(15), 실내공간정보 추출 대상인 테스트 도면 또는 임의의 도면에서 상기 학습된 CNN 모델을 통해 객체 클래스인 실내공간정보 추출을 수행하는 CNN 수행모듈(16), 테스트 도면 또는 임의의 도면에 대해 추출된 픽셀단위의 래스터 데이터인 객체 클래스를 벡터화된 객체로 변환시키는 벡터화 변환모듈(17)을 포함한다. 즉, 도면축척 일치화모듈(11), 패치 분할모듈(12), CNN 학습모듈(13), 패치 결합모듈(14), 실내공간정보 추출모듈(15), CNN 수행모듈(16), 벡터화 변환모듈(17)은 본 발명이 컴퓨터상에서 수행되도록 하기 위한 기술적 수단으로 도면축척 일치화부, 패치 분할부, CNN 학습부, 패치 결합부, 실내공간정보 추출부, CNN 수행부, 벡터화 변환부로 각각 명명할 수도 있다.7 is a configuration diagram showing an embodiment of a device related to a method for automatically extracting indoor spatial information from an indoor drawing image through a patch-based deep learning algorithm according to the present invention. By automatically detecting and unifying the drawings, dividing the drawings into standardized patches and then overlapping them, drawings of various sizes can be input to deep learning, information loss due to resolution loss can be prevented, and multiple indoor spatial information It is possible to simultaneously detect and extract objects to improve consistency between objects. A drawing scale matching module 11 that matches the scales of a plurality of drawing images for learning data, and each drawing image with the same scale is horizontally and vertically A patch division module 12 that divides into patches of uniform size, a CNN learning module 13 that trains a CNN model using each divided patch as training data, and an object class output from each pixel of each patch that has been learned The patch combination module 14 overlaps and combines to extract indoor spatial information based on the patch location information in the drawing, and the highest probability among output values appearing as the probability for each object class for each pixel of the patch through the CNN model An indoor spatial information extraction module 15 that determines and extracts an object class having an indoor spatial information as the corresponding indoor spatial information for each pixel, and an indoor space that is an object class through the learned CNN model in a test drawing or an arbitrary drawing, which is a target for extracting indoor spatial information. It includes a CNN execution module 16 that extracts information, and a vectorization conversion module 17 that converts an object class, which is raster data in units of pixels extracted from a test drawing or an arbitrary drawing, into a vectorized object. That is, drawing scale matching module 11, patch division module 12, CNN learning module 13, patch combining module 14, indoor spatial information extraction module 15, CNN execution module 16, vectorization conversion The module 17 is a technical means for enabling the present invention to be performed on a computer, and may be referred to as a drawing scale matching unit, a patch segmentation unit, a CNN learning unit, a patch combining unit, an indoor spatial information extraction unit, a CNN execution unit, and a vectorization conversion unit. may be

상기 실내공간정보 자동추출장치(10)는 서버, 데스크톱, 노트북 또는 휴대용 단말기 등으로, 패치기반의 딥러닝 알고리즘을 통한 실내도면 이미지에서의 실내공간정보를 자동추출하기 위한 소프트웨어를 저장 포함한다.The apparatus 10 for automatically extracting indoor geospatial information is a server, desktop, laptop, or portable terminal, and includes software for automatically extracting indoor geospatial information from an indoor drawing image through a patch-based deep learning algorithm.

더불어 실내공간정보 자동추출장치(10)에서 연산되거나 입출력되는 자료 및 학습정보(데이터셋, 학습데이터, 패치, 객체 클래스, 테스트도면 등)는 별도의 저장 장치(20)에 저장되도록 하는 것이 좋으나, 상기 실내공간정보 자동추출장치(10)는 저장 장치(20)를 포함할 수도 있다.In addition, data and learning information (dataset, learning data, patches, object classes, test drawings, etc.) calculated or input and output by the automatic indoor spatial information extraction device 10 are preferably stored in a separate storage device 20, The apparatus 10 for automatically extracting indoor spatial information may include a storage device 20 .

본 발명은 도 2와 도 3에 도시된 바와 같이 실내도면 이미지 원본을 딥러닝 학습을 통해 래스터 형태의 세그멘테이션으로 추출하고, 이를 다시 벡터화된 실내공간정보로 변환하는 단계를 거치게 되는데 이러한 과정을 상술하면 다음과 같다(도 1 참조).As shown in FIGS. 2 and 3, the present invention goes through the steps of extracting the original indoor drawing image into raster-type segmentation through deep learning and converting it into vectorized indoor spatial information. As follows (see FIG. 1).

먼저, 대규모 공간을 표현하는 건물로 구성된 도면 데이터셋을 구축하는데, 즉 본 발명에서는 딥러닝 학습에 적합한 정제된 데이터셋(예를 들어 간단한 구성의 주택도면)을 활용하는게 아니라 실제에 가까운 복잡한 도면을 데이터셋으로 활용하면서도 딥러닝 학습에도 효율적인 데이터셋을 구축해야 한다.First, a drawing dataset composed of buildings representing large-scale spaces is constructed. In other words, in the present invention, rather than using a refined dataset suitable for deep learning learning (eg, house drawings with a simple configuration), a complex drawing close to reality is constructed. While using it as a dataset, it is necessary to build an efficient dataset for deep learning learning.

일실시예로, 본 발명에서는 서울대학교 230개, 서울시립대학교 7개에 대한 도면 데이터셋을 구축하였는데, 서울대학교 도면의 경우는 40여년이 넘는 기간에 이르는 다양한 유형의 다양한 시기의 도면을 포함하고 있으며, 서울시립대학교 도면의 경우 곡면 벽체, 건물 외곽부의 표현, 더 복잡한 표기법 등의 특징으로 더 복잡한 유형의 도면을 포함하고 있다.As an example, in the present invention, drawing data sets for 230 Seoul National University and 7 Seoul National University were constructed. In the case of the drawing of the University of Seoul, it includes a more complex type of drawing with features such as curved walls, expressions of the outer parts of buildings, and more complex notations.

다시 말해, 본 발명의 일실시예에서는 기존 연구에서 다뤘던 주택도면 크기에서 대학교 캠퍼스 도면으로 그 대상을 확장하고, 학습과 테스트에 사용한 도면은 서울대학교 내에 있는 230개의 건물 도면으로서, 1970년대부터 2010년대에 이르는 다양한 시기의 도면을 각기 다른 업체에서 작성하였다는 특성을 가지고 있다. 특히, 수치선등의 주요 정보가 포함되지 않는 건물, 곡선을 포함하고 있는 건물, 내외부의 경계가 모호한 건물, 심볼 및 텍스트 정보 등 도면 외에 추가 정보를 포함하고 있는 경우 등 기존 딥러닝에서 자동으로 학습하기에 불리한 속성을 지닌 데이터도 있다. 본 발명은 이러한 학습하기에 불리한 속성을 지닌 데이터를 포함하는 도면도 그 대상으로 하여 패치 기반의 딥러닝 알고리즘의 제안을 통해 자동으로 주요 실내공간정보(벽체, 문, 창문, 엘리베이터, 계단실)를 추출하는 것에 그 목적이 있는 것이다.In other words, in one embodiment of the present invention, the target is expanded from the size of the house drawing dealt with in previous studies to the university campus drawing, and the drawings used for learning and testing are drawings of 230 buildings in Seoul National University, from the 1970s to the 2010s It has the characteristic that the drawings of various periods up to In particular, automatic learning from existing deep learning, such as buildings that do not contain key information such as numerical lines, buildings that contain curves, buildings with ambiguous internal and external boundaries, and cases that include additional information other than drawings, such as symbols and text information. Some data have properties that are unfavorable to The present invention also targets drawings containing data with disadvantageous properties for learning, and automatically extracts key indoor spatial information (walls, doors, windows, elevators, stairwells) through the proposal of a patch-based deep learning algorithm. It has its purpose in doing it.

본 발명에서는 후술하는 바와 같이 딥러닝 기술인 CNN(Convolutional Neural Network, 합성곱신경망)을 학습하여 사용함으로써 최종적으로 실내공간정보를 자동추출함이 바람직한데, 상기 CNN은 시각적 이미지를 분석하는 데 사용되는 다층의 피드-포워드적인 인공신경망의 한 종류로, 딥러닝에서 심층 신경망으로 분류되며, 또한 공유 가중치 구조와 변환 불변성 특성에 기초하여 변이 불변 또는 공간 불변 인공 신경망 (SIANN)으로도 알려져 있고, 영상 및 동영상 인식, 추천 시스템, 이미지 분류, 의료 영상 분석 및 자연어 처리 등에 응용된다.In the present invention, as will be described later, it is preferable to automatically extract indoor spatial information by learning and using CNN (Convolutional Neural Network), which is a deep learning technology. The CNN is a multi-layer used for analyzing visual images. As a type of feed-forward artificial neural network, it is classified as a deep neural network in deep learning, and is also known as a mutable or spatial invariant artificial neural network (SIANN) based on a shared weight structure and transformation invariance characteristics, and is used for video and video. Applications include recognition, recommendation systems, image classification, medical image analysis, and natural language processing.

이러한 CNN을 이용한 이미지 분류는 다른 이미지 분류 알고리즘에 비해 상대적으로 전처리를 거의 사용하지 않는다. 이는 신경망이 기존 알고리즘에서 수작업으로 제작된 필터를 학습한다는 것을 의미한다. 기존 이미지 분류 알고리즘에서 설계자가 영상의 특징들을 미리 이해해 알고리즘을 만드는 과정이 없는 것이 합성곱 신경망의 주요한 장점이다. 더불어 CNN에는 일반적으로 합성곱 계층(convolution layer), 활성 함수(activation function), 하위 추출 계층(sub-sampling layer), 전역 연결 계층(fully connected layer), 그리고 softmax 함수가 존재한다. 이미지가 CNN의 입력으로 사용되고 출력은 해당 이미지가 각 클래스마다 속할 확률이다. 상기 합성곱 계층에서는 3차원으로 이루어진 커널(kernel, 혹은 필터(filter))과 입력값의 합성곱 연산으로 입력값인 이미지의 특징들을 추출한다. 상기 활성함수는 입력값과 출력값 사이의 비선형성을 추가하기 위하여 사용된다.Image classification using these CNNs uses relatively little preprocessing compared to other image classification algorithms. This means that the neural network learns handcrafted filters from existing algorithms. The main advantage of convolutional neural networks is that in existing image classification algorithms, there is no process for designers to understand the characteristics of images in advance and create algorithms. In addition, CNN generally includes a convolution layer, an activation function, a sub-sampling layer, a fully connected layer, and a softmax function. An image is used as the input of the CNN, and the output is the probability that the image belongs to each class. In the convolution layer, features of an image as an input value are extracted through a convolution operation between a three-dimensional kernel (or filter) and an input value. The activation function is used to add non-linearity between an input value and an output value.

이러한 CNN 모델의 효율적인 활용을 위해서는 높은 퀄리티의 학습 데이터가 필요하고, 이때 높은 퀄리티란 데이터의 패턴을 분석할 수 있도록 균질한 패턴으로 반복되는 데이터를 말한다.High-quality training data is required for efficient use of these CNN models, and high quality refers to data that is repeated in a homogeneous pattern so that the pattern of the data can be analyzed.

이를 위해 본 발명에서는 자동화 알고리즘을 통해 다양한 유형으로 입력되는 학습 데이터(상기 데이터셋의 일부)인 도면이미지의 축척(스케일)을 일치시키고(S10), 실제로 균일한 넓이의 공간을 표현하도록 패치를 분할하는 방식의 표준화를 수행한다.To this end, the present invention matches the scale (scale) of drawing images, which are learning data (part of the dataset) input in various types through an automated algorithm (S10), and divides patches to actually represent a space of uniform width. standardization of the way

한편 CNN 모델의 입력값은 균일한 사이즈의 이미지여야 하고 이를 위해 다양한 크기와 축척의 도면을 균일한 사이즈로 변형(리사이징)하는 과정에서 많은 정보의 손실이 발생하는 문제점을 표준화된(Normalized) 패치로 추출함으로써 해결할 수 있어 CNN 모델의 수행을 원활하게 할 수 있다.On the other hand, the input value of the CNN model must be an image of a uniform size, and for this purpose, the problem of loss of a lot of information in the process of transforming (resizing) drawings of various sizes and scales into a uniform size is replaced by a standardized patch. It can be solved by extraction, so the performance of the CNN model can be smoothed out.

다시 말해 입력되는 복수의 학습 데이터의 도면의 축척(스케일)을 통일시키는 과정은 픽셀 당 표현하는 실제 거리를 통일하는 것을 목표로 한다. 이를 통해, 다양한 도면 이미지 사이즈 및 다양한 규모의 건물도면으로 구성된 데이터셋을 사용함에도 CNN 학습모델에 균일한 입력물을 전달할 수 있게 되고 이는 데이터 전처리와 유사한 정규화의 역할을 한다.In other words, the process of unifying the scales of the drawings of the plurality of input learning data aims to unify the actual distance expressed per pixel. Through this, it is possible to deliver a uniform input to the CNN learning model even when using datasets composed of various drawing image sizes and building drawings of various scales, which plays a role of normalization similar to data preprocessing.

도 4에 도시된 바와 같이 도면의 축척 통일을 위한 축척의 자동 탐지를 위해서 본 발명에서는 도면의 수치선 존재 유무에 맞춰 각각 다른 방법을 혼용하여 사용한다.As shown in FIG. 4, in order to automatically detect the scale for unifying the scale of the drawing, in the present invention, different methods are used in combination according to the presence or absence of the numerical line in the drawing.

수치선이 있는 도면의 경우 수치선의 정보를 활용한다(도 4a). OCR(Optical character recognition, 도면 이미지에서 숫자와 텍스트 등을 추출)을 통해 수치선에 나타난 수치와 그에 상응하는 픽셀 수를 추출하여 픽셀당 거리 즉, 축척을 계산한다. 이때 한 도면 내에 존재하는 여러 수치선에서 측정된 축척들의 중간값을 활용하여 정확도를 향상시킬 수 있다.In the case of a drawing with a numerical line, the information of the numerical line is used (FIG. 4a). Through OCR (Optical Character Recognition, extracting numbers and text from a drawing image), the number displayed on the number line and the corresponding number of pixels are extracted to calculate the distance per pixel, that is, the scale. At this time, the accuracy can be improved by utilizing the median value of scales measured from several numerical lines existing in one drawing.

수치선이 없는 도면의 경우는 최소 두께의 벽체의 픽셀 갯수를 추출하여 축척을 연산한다(도 4b). 즉 벽체의 외곽인 검은 픽셀들이 서로 몇 픽셀 씩 떨어져 있는지 계산한 차이값(gap)의 히스토그램을 그린 후, 최빈값을 출력하여 최소 두께의 벽체 두께로 가정하고 그 최빈값과 벽체의 두께를 이용하여 픽셀당 거리 즉, 축척을 계산한다. 이러한 케이스에 대응하는 것이 본 방법론의 일반화에 중요한데, 건물은 일반적으로 기하구조적으로 정형화 되어 있고 가장 두께가 얇은 벽(최소 두께의 벽)은 건물에서 그 비율이 높기 때문에 도면에서 가장 두께가 얇은 벽을 추출하는 것이 가능하다. 이를 통해 수치선이 존재하지 않더라도 가장 두께가 얇은 벽이 도면 이미지에서 몇개의 픽셀로 이루어지는지를 결정할 수 있어 다양한 사이즈의 이미지로 입력되는 도면의 축척(스케일)을 일치시킬 수 있다.In the case of drawings without numerical lines, the scale is calculated by extracting the number of pixels of the minimum wall thickness (FIG. 4b). That is, after drawing a histogram of the difference value (gap) calculated by how many pixels the black pixels outside the wall are apart from each other, output the mode, assume it to be the wall thickness of the minimum thickness, and use the mode and the thickness of the wall to calculate per pixel Calculate distance, i.e. scale. Responding to these cases is important for the generalization of this methodology. Since buildings are generally geometrically defined and the thinnest walls (minimum thick walls) are a high percentage of the building, we choose the thinnest wall on the drawing. it is possible to extract Through this, even if there is no numerical line, it is possible to determine how many pixels the thinnest wall is made of in the drawing image, so that the scale (scale) of the drawing inputted as images of various sizes can be matched.

이에 도면축척 일치화모듈(11)은 대규모 공간을 표현하는 건물로 구성되어 구축된 도면 데이터셋 중에서 학습 데이터용 복수의 도면이미지의 축척을 일치시키는데, 이러한 축척 일치 과정은 최종적으로 컴퓨터로 수행하기 위해 프로그램 언어를 통해 알고리즘으로 코딩한 프로그램이고, 다시 말해 이러한 프로그램은 실내공간정보 자동추출장치(10) 또는 저장 장치(20)에 저장되어 도면축척 일치화모듈(11)이 실내공간정보 자동추출장치(10) 또는 저장 장치(20)에 입력저장된 도면이미지와 상기 프로그램을 이용하여 도면이미지의 축척을 일치시키게 되는 것이다.Accordingly, the drawing scale matching module 11 matches the scales of a plurality of drawing images for learning data among drawing datasets constructed by constructing buildings representing large-scale spaces. This scale matching process is finally performed by a computer. It is a program coded with an algorithm through a program language, that is, such a program is stored in the automatic indoor spatial information extraction device 10 or the storage device 20 so that the drawing scale matching module 11 automatically extracts indoor spatial information ( 10) Or, the scale of the drawing image stored in the storage device 20 is matched using the program.

이렇게 학습 데이터의 도면의 축척(스케일)을 일치하도록 보간법을 통해 전체 도면 이미지 사이즈를 변환한 뒤, 사이즈 변환된 각 도면 이미지를 가로 및 세로가 균일한 사이즈의 패치로 다시 분할하는 것이다(S20). 패치가 표현하는 공간이 작을수록 높은 해상도로 인해 정확도가 증가하지만, 도면 당 많은 수의 패치가 존재하게 되므로 이후 CNN 모델의 테스트 단계에서 시간이 증가하는 trade-off 관계가 있다. 이를 고려하여, 학습을 위한 서버의 메모리 스펙이 허용하는 한도 내에서 목적에 맞춰 적절한 패치 사이즈를 결정한다. 본 발명의 일실시예(서울대학교 230개, 서울시립대학교 7개에 대한 도면 데이터셋)에서는 하나의 패치를 15m×15m 공간으로 세팅하여, 캠퍼스 내의 오피스 정도의 공간을 나타낸다.In this way, after converting the size of the entire drawing image through interpolation to match the scale (scale) of the drawing of the learning data, each size-converted drawing image is divided into patches of uniform size horizontally and vertically (S20). The smaller the space represented by the patch, the higher the accuracy due to the higher resolution. However, since a large number of patches exist per drawing, there is a trade-off relationship in which time increases in the test stage of the CNN model. Considering this, an appropriate patch size is determined according to the purpose within the limit allowed by the memory specification of the server for learning. In one embodiment of the present invention (drawing data sets for 230 Seoul National University and 7 Seoul National University), one patch is set to a 15m × 15m space, representing an office space in the campus.

한편 도 5에 도시된 바와 같이 학습 데이터인 도면 이미지의 분할시에는 균일한 사이즈의 패치로 분할하되 패치가 인접 패치와 경계부분에서 일정 길이가 중첩되도록 분할하는데, 예를 들어 하나의 패치가 15m×15m 공간으로 세팅된다면 상하 좌우 방향으로 경계부분에서 인접하는 각 패치는 5m 공간이 겹쳐지도록 패치를 생성시킨다. 도 5에서 빗금친 부분은 가로 및 세로가 균일한 사이즈의 패치가 인접 패치와 경계부분에서 중첩되어 겹쳐지는 부분이다.On the other hand, as shown in FIG. 5, when dividing a drawing image, which is training data, it is divided into patches of uniform size, but the patch is divided so that a certain length overlaps with an adjacent patch at the boundary. For example, one patch is 15 m × If it is set to a 15m space, each patch adjacent to the boundary in the vertical, horizontal, and horizontal directions creates a patch so that the 5m space overlaps. In FIG. 5 , hatched portions are portions where patches having uniform sizes horizontally and vertically are overlapped with adjacent patches at a boundary portion.

이에 패치 분할모듈(12)은 축척이 일치된 각 도면이미지를 가로 및 세로가 균일한 사이즈의 패치로 분할하되, 패치가 인접 패치와 상하 좌우 방향으로 경계부분에서 일정 길이가 중첩되어 겹쳐지도록 분할하는데, 이러한 분할 과정은 최종적으로 컴퓨터로 수행하기 위해 프로그램 언어를 통해 알고리즘으로 코딩한 프로그램이고, 다시 말해 이러한 프로그램은 상기 학습데이터용 도면이미지를 입력자료로 하면서 실내공간정보 자동추출장치(10) 또는 저장 장치(20)에 저장되어 패치 분할모듈(12)이 실내공간정보 자동추출장치(10) 또는 저장 장치(20)에 입력저장된 입력자료와 상기 프로그램을 이용하여 패치 분할하게 되는 것이다.Accordingly, the patch division module 12 divides each drawing image with the same scale into patches of uniform size horizontally and vertically, and divides the patch so that the patch overlaps with the adjacent patch at the boundary in the vertical and horizontal directions and overlaps with a certain length. , This segmentation process is a program coded with an algorithm through a programming language to be finally performed by a computer. In other words, this program uses the drawing image for the learning data as an input material, It is stored in the device 20 and the patch division module 12 divides the patches using the program and the input data input and stored in the automatic indoor spatial information extraction device 10 or the storage device 20.

상기 균일한 사이즈로 분할된 각각의 패치를 학습 데이터로 하여 CNN 모델에 입력하면 CNN 모델은 확률로 나타나는 출력값 중 가장 높은 확률을 갖는 객체 클래스(실내공간정보인 벽체, 문, 창문, 엘리베이터, 계단실)를 입력 이미지에 대한 객체 클래스로 예측하면서 학습한다(S30). 예를 들어 CNN 모델은 패치의 각 픽셀에 대해 벽체, 문, 창문, 엘리베이터, 계단실 각각에 대한 확률을 계산하여 출력하고 다섯 클래스 중 벽체일 확률이 가장 높을 경우 벽체로 판단하게 된다.When each patch divided into the uniform size is input to the CNN model as training data, the CNN model outputs the object class with the highest probability among the output values (indoor spatial information, such as walls, doors, windows, elevators, and stairwells) It learns while predicting as an object class for an input image (S30). For example, a CNN model calculates and outputs a probability for each pixel of a patch: a wall, a door, a window, an elevator, and a stairway.

이에 CNN 학습모듈(13)은 분할된 각 패치를 학습 데이터로 하여 CNN 모델을 학습시키는데, 이러한 학습 과정은 최종적으로 컴퓨터로 수행하기 위해 프로그램 언어를 통해 알고리즘으로 코딩한 프로그램이고, 다시 말해 이러한 프로그램은 상기 CNN을 포함하면서 실내공간정보 자동추출장치(10) 또는 저장 장치(20)에 저장되어 CNN 학습모듈(13)이 실내공간정보 자동추출장치(10) 또는 저장 장치(20)에 입력저장된 상기 학습데이터와 상기 프로그램을 이용하여 학습이 이루어지게 되는 것이다.Accordingly, the CNN learning module 13 trains the CNN model using each divided patch as training data. The learning including the CNN and stored in the automatic indoor spatial information extraction device 10 or the storage device 20 and input and stored by the CNN learning module 13 to the automatic indoor spatial information extraction device 10 or the storage device 20 Learning is performed using the data and the program.

위에서 언급한 바와 같이 본 발명은 입력데이터를 중첩하여 패치 분할하므로 학습이 완료된 각 패치에서 출력된 객체 클래스들을 도면에서의 패치 위치정보를 기준으로 실내공간정보 추출을 위해 중첩하여 다시 결합하는데(S40) 결합시 동일한 공간을 최대 4개의 패치가 중복해서 포함할 수 있으므로 중첩되는 부분은 동일한 위치의 픽셀에 대해 복수의 출력값인 확률을 평균해서 판단한다. 이에 따라 상술한 바와 같이 출력값 중 가장 높은 확률을 갖는 객체 클래스를 각 픽셀에 대한 해당 실내공간정보로 결정하여 추출한다(S50).As mentioned above, since the present invention divides patches by overlapping input data, the object classes output from each learned patch are overlapped and recombined to extract indoor geospatial information based on patch location information in the drawing (S40). Since up to four patches can overlap the same space during combining, the overlapping part is determined by averaging probabilities that are a plurality of output values for pixels at the same location. Accordingly, as described above, the object class having the highest probability among the output values is determined and extracted as the corresponding indoor spatial information for each pixel (S50).

이에 패치 결합모듈(14)은 학습이 완료된 각 패치의 각 픽셀에서 출력된 객체 클래스를 도면에서의 패치 위치정보를 기준으로 실내공간정보 추출을 위해 중첩하여 결합시키 되는데, 이러한 결합 과정은 최종적으로 컴퓨터로 수행하기 위해 프로그램 언어를 통해 알고리즘으로 코딩한 프로그램이고, 다시 말해 이러한 프로그램은 실내공간정보 자동추출장치(10) 또는 저장 장치(20)에 저장되어 패치 결합모듈(14)이 실내공간정보 자동추출장치(10) 또는 저장 장치(20)에 저장된 패치와 상기 프로그램을 이용하여 패치 결합이 이루어지게 되는 것이다.Accordingly, the patch combining module 14 overlaps and combines the object classes output from each pixel of each learned patch to extract indoor spatial information based on the patch location information in the drawing. This combining process is finally performed by a computer. In other words, such a program is stored in the automatic indoor spatial information extraction device 10 or the storage device 20 so that the patch combination module 14 automatically extracts indoor spatial information. The patch combination is performed using the patch stored in the device 10 or the storage device 20 and the program.

또한, 실내공간정보 추출모듈(15)은 CNN 모델을 통해 패치의 각 픽셀에 대해 객체 클래스 각각에 대한 확률로 나타나는 출력값 중 가장 높은 확률을 갖는 객체 클래스를 각 픽셀에 대한 해당 실내공간정보로 결정하여 추출하되, 패치 결합시 중첩되는 부분은 동일한 위치의 픽셀에 대해 복수의 출력값인 확률을 평균해서 해당 실내공간정보로 결정하여 추출하는데, 이러한 추출 과정은 최종적으로 컴퓨터로 수행하기 위해 프로그램 언어를 통해 알고리즘으로 코딩한 프로그램이고, 다시 말해 이러한 프로그램은 실내공간정보 자동추출장치(10) 또는 저장 장치(20)에 저장되어 실내공간정보 추출모듈(15)이 실내공간정보 자동추출장치(10) 또는 저장 장치(20)에 저장된 상기 프로그램을 이용하여 실내공간정보를 추출하게 되는 것이다.In addition, the indoor spatial information extraction module 15 determines the object class having the highest probability among the output values appearing as the probability for each object class for each pixel of the patch as the corresponding indoor spatial information for each pixel through the CNN model. However, when combining patches, overlapping parts are extracted by averaging probabilities, which are a plurality of output values for pixels at the same location, and determining them as the corresponding indoor spatial information. This extraction process is finally performed by a computer through an algorithm through a program language In other words, this program is stored in the automatic indoor spatial information extraction device 10 or the storage device 20 so that the indoor spatial information extraction module 15 automatically extracts the indoor spatial information 10 or the storage device. Indoor spatial information is extracted using the program stored in (20).

여기서, 패치를 중첩하여 활용함으로써 각 패치가 나눠지는 경계 지점에서 출력된 결과물이 정합되지 않는 문제가 발생하는 것을 해결할 수 있는데 동일한 지점 또는 공간을 중첩하여 여러 패치를 통해 평균낸 결과를 최종 객체 클래스로 채택하는 방식을 통해 정합성 문제를 해결할 수 있는 것이다.Here, by using overlapping patches, it is possible to solve the problem that output results are not matched at the boundary point where each patch is divided. It is possible to solve the consistency problem through the method adopted.

또한 기존 모델들과 달리 총 5개의 객체 클래스를 하나의 CNN 모델을 통해 학습을 진행함으로서 객체간의 정합성을 향상시킬 수 있는 것이다.Also, unlike existing models, it is possible to improve consistency between objects by learning a total of five object classes through one CNN model.

본 발명은 실내공간정보 추출 대상인 테스트 도면 또는 임의의 도면들도 표준화된 (normalized) 패치를 기반으로 상술한 바와 같은 학습된 CNN 모델을 통해 전체 도면의 객체 클래스(실내공간정보인 벽체, 문, 창문, 엘리베이터, 계단실)를 추출(S60)하는 프레임 워크를 개발하는 것이다.In the present invention, test drawings or arbitrary drawings, which are targets of indoor spatial information extraction, are also subject to object classes (walls, doors, and windows, which are indoor spatial information) of the entire drawing through the learned CNN model as described above based on a normalized patch. , elevator, stairwell) to develop a framework for extracting (S60).

즉, 상술한 자동 축척 탐지 알고리즘을 통해 입력되는 도면(테스트 도면 또는 임의의 도면)의 축척을 학습 데이터 도면과 동일하게 일치시킨 후, 균일한 크기의 패치로 나눈다. 이때 패치는 상기 학습 데이터와 같이 정보손실을 방지하기 위해 공간을 중첩하여 각 패치가 동일한 공간을 중복해서 포함하도록 한다.That is, after matching the scale of the drawing (test drawing or arbitrary drawing) input through the above-described automatic scale detection algorithm to the same as the learning data drawing, it is divided into patches of uniform size. At this time, the patch overlaps the space to prevent information loss like the learning data so that each patch includes the same space redundantly.

분할된 패치를 입력 데이터로 하여 상기 학습된 CNN 모델을 통해 각 패치에 대해 학습된 CNN 모델을 수행하고, 이후, 각 패치에서 출력된 객체 정보들을 실내공간정보 추출을 위해 중첩하며 결합하여, 전체 도면에 대한 객체 클래스의 실내공간 정보의 추출 결과를 출력하게 된다. 이 때, 도면별로 축척(스케일)을 일치시킨 후의 사이즈는 모두 다르지만, 본 발명은 다른 갯수의 패치로 나누는 방식을 통해 일정한 사이즈가 입력되어야하는 CNN 모델을 활용한다.Using the segmented patch as input data, the CNN model learned for each patch is performed through the learned CNN model, and then the object information output from each patch is overlapped and combined to extract indoor spatial information. The result of extracting the indoor space information of the object class for is output. At this time, the size after matching the scale (scale) for each drawing is all different, but the present invention utilizes a CNN model in which a certain size must be input through a method of dividing into a different number of patches.

다시 말해, 테스트 도면 또는 임의의 도면에서 실내공간정보를 추출하는 과정과 CNN 모델의 학습시 학습 데이터 도면에서 객체 클래스를 예측하는 과정은 동일하므로 테스트 도면 또는 임의의 도면 이미지가 학습된 CNN 모델을 거친 후의 출력값은 각 객체 클래스에 속할 확률이다.In other words, since the process of extracting indoor spatial information from a test drawing or a random drawing and the process of predicting an object class from a training data drawing when learning a CNN model are the same, the test drawing or an arbitrary drawing image is passed through the learned CNN model. The output value after is the probability of belonging to each object class.

이에 CNN 수행모듈(16)은 실내공간정보 추출 대상인 테스트 도면 또는 임의의 도면에서 상기 학습된 CNN 모델을 통해 객체 클래스인 실내공간정보 추출을 수행하는데, 이러한 수행 과정은 최종적으로 컴퓨터로 수행하기 위해 프로그램 언어를 통해 알고리즘으로 코딩한 프로그램이고, 다시 말해 이러한 프로그램은 상기 CNN을 포함하면서 실내공간정보 자동추출장치(10) 또는 저장 장치(20)에 저장되어 CNN 수행모듈(16)이 실내공간정보 자동추출장치(10) 또는 저장 장치(20)에 입력저장된 상기 테스트 도면 또는 임의의 도면과 상기 프로그램을 이용하여 수행이 이루어지게 되는 것이다.Accordingly, the CNN execution module 16 extracts indoor spatial information as an object class through the learned CNN model in a test drawing or an arbitrary drawing, which is a subject of indoor spatial information extraction, and this process is finally performed by a computer program. It is a program coded with an algorithm through a language, that is, such a program includes the CNN and is stored in the automatic indoor spatial information extraction device 10 or the storage device 20 so that the CNN execution module 16 automatically extracts indoor spatial information. The execution is performed using the test drawing or any drawing and the program stored in the device 10 or the storage device 20.

상기 테스트 도면 또는 임의의 도면에서 실내공간정보 추출 수행 과정을 상술하면, 테스트 도면 또는 임의의 도면의 축척을 학습 데이터와 일치시키는 단계와, 축척이 학습 데이터와 일치된 테스트 도면 또는 임의의 도면을 가로 및 세로가 균일한 사이즈의 패치로 분할하되, 패치가 인접 패치와 상하 좌우 방향으로 경계부분에서 일정 길이가 중첩되어 겹쳐지도록 분할하는 단계와, 분할된 각 패치를 입력 데이터로 하여 상기 학습된 CNN 모델을 통해 각 패치에 대해 학습된 CNN 모델을 수행하는 단계와, 각 패치의 각 픽셀에서 출력된 객체 클래스를 도면에서의 패치 위치정보를 기준으로 실내공간정보 추출을 위해 중첩하여 결합하는 단계, 및 CNN 모델을 통해 패치의 각 픽셀에 대해 객체 클래스 각각에 대한 확률로 나타나는 출력값 중 가장 높은 확률을 갖는 객체 클래스를 각 픽셀에 대한 해당 실내공간정보로 결정하여 추출하되, 패치 결합시 중첩되는 부분은 동일한 위치의 픽셀에 대해 복수의 출력값인 확률을 평균해서 해당 실내공간정보로 결정하여 추출하는 단계로 이루어지는데, 이러한 과정 전체를 CNN 수행모듈(16)이 수행할 수도 있으나, 단계별로 대응될 수 있는 도면축척 일치화모듈(11), 패치 분할모듈(12), 패치 결합모듈(14), 실내공간정보 추출모듈(15)이 각각 수행할 수도 있다.The process of extracting indoor geospatial information from the test drawing or any drawing in detail includes the step of matching the scale of the test drawing or any drawing with the learning data, and transversing the test drawing or any drawing whose scale matches the learning data. And vertically dividing into patches of uniform size, dividing the patch so that the patch overlaps with an adjacent patch to a certain length at the boundary in the vertical and horizontal directions, and the learned CNN model using each of the divided patches as input data Performing the CNN model learned for each patch through , overlapping and combining object classes output from each pixel of each patch to extract indoor geospatial information based on patch location information in the drawing, and CNN Through the model, the object class with the highest probability among the output values appearing as the probability for each object class for each pixel of the patch is determined and extracted as the corresponding indoor spatial information for each pixel, but the overlapping part when combining the patches is the same location It consists of a step of determining and extracting the corresponding indoor spatial information by averaging probabilities, which are a plurality of output values, for the pixels of . The entire process can be performed by the CNN performing module 16, but the drawing scale that can correspond to each step The matching module 11, the patch dividing module 12, the patch combining module 14, and the indoor spatial information extraction module 15 may each perform the same.

한편 도면은 일반적으로 객체 클래스 간의 비중이 불균등하고, 흰 배경이 대부분의 공간을 차지하는 특성이 있고, 이는 CNN 모델의 학습에 악영향을 끼친다. 기본적으로 학습 데이터에 포함된 객체 클래스의 공간 비중에 반비례하여, 모델의 학습에 더 큰 수치로 반영시켜주는 focal loss를 활용한다. 예를 들어, 비중이 적은 엘리베이터 객체의 경우, 한번 학습될 때 큰 폭으로 CNN 모델의 웨이트(가중치)를 변화시켜 비중의 적음을 보완한다. 이에 더해 여러 객체들 중 추후의 벡터화 과정의 성능에 가장 큰 영향을 주는 벽체객체의 정확도 비중을 높이는 weighted loss를 추가로 반영한다. 벽체의 경우 모델의 출력물에서 유실될 경우 실내 공간의 폐합에 직접적으로 악영향을 주므로, 타 객체 클래스 대비 더 비중을 줘서 모델을 학습시킨다. 이 외에도, 백그라운드 비중이 80%가 넘어가는 패치는 학습에서 배제하여 모델에 편차가 생기는 것을 방지함이 바람직하다.On the other hand, drawings generally have an unequal weight between object classes, and a white background occupies most of the space, which adversely affects the learning of the CNN model. Basically, it uses focal loss, which is in inverse proportion to the spatial weight of object classes included in the training data, and reflects a larger number in model learning. For example, in the case of an elevator object with a small proportion, once learned, the weight (weight) of the CNN model is greatly changed to compensate for the low proportion. In addition to this, a weighted loss that increases the accuracy ratio of the wall object, which has the greatest impact on the performance of the later vectorization process among several objects, is additionally reflected. In the case of a wall, if it is lost in the output of the model, it directly adversely affects the closure of the indoor space, so the model is trained with more weight than other object classes. In addition to this, it is desirable to prevent deviations from occurring in the model by excluding patches with a background weight of more than 80% from learning.

결국 딥러닝 알고리즘은 축척된 데이터를 통해 시스템을 학습한 후 새로운 데이터를 측정했을 때의 답을 추정하는 기법으로, 실내도면 이미지 원본의 객체 클래스의 실제값(벽체,문,창문,엘리베이터,계단실)과 CNN 모델을 통해 추정되어 출력되는 객체 클래스 추출 결과값의 대응관계를 딥러닝한다고 볼 수 있다.Ultimately, the deep learning algorithm is a technique for estimating the answer when new data is measured after learning the system through accumulated data. It can be seen that the correspondence between and the object class extraction result value estimated and output through the CNN model is deep learning.

본 발명의 일실시예에서 사용된 CNN 모델은 기존의 ResNET-50을 수정하여 사용한다. 경계가 뚜렷한 높은 해상도 출력 결과를 얻기 위해, 네트워크의 stride를 높이고 L1 loss를 사용하는 방향으로 수정을 진행한다.The CNN model used in one embodiment of the present invention is used by modifying the existing ResNET-50. In order to obtain a high-resolution output result with clear boundaries, the stride of the network is increased and the modification is made in the direction of using the L1 loss.

상술한 바와 같이, 테스트 도면 또는 임의의 도면에서 실내공간정보를 추출하는 과정은 분할된 패치를 입력 데이터로 하여 상기 학습된 CNN 모델을 통해 각 패치에서 도면의 객체 클래스 추출을 수행하여, 객체 클래스의 실내공간 정보를 추출하며, 이 때 각 패치에서 출력된 객체 정보들을 중첩하며 결합하여 전체 도면에 대한 객체 클래스 추출 결과를 출력하게 되는데, 이러한 도면인식의 결과는 픽셀단위로 분류된 래스터 타입의 데이터이므로 개략적인(rough) 기하정보를 가지고 있을 뿐, 토폴로지와 시멘틱 정보를 포함하여야 하는 실내공간정보로서의 가치가 적다.As described above, in the process of extracting indoor spatial information from a test drawing or any drawing, the object class of the drawing is extracted from each patch through the learned CNN model using the divided patch as input data, and the object class of the object class is obtained. Indoor space information is extracted, and at this time, the object information output from each patch is overlapped and combined to output the object class extraction result for the entire drawing. Since the result of drawing recognition is raster-type data classified in pixel units, It has only rough geometric information, but has little value as indoor spatial information that should include topology and semantic information.

따라서 테스트 도면 또는 임의의 도면에 대해 벡터화된 실내공간정보 생성을 위한 추가 프로세스가 필요한데, 우선, 추출된 래스터 데이터들을 상대좌표로 표현되는 벡터화된 객체로 변환한다. 딥러닝 네트워크를 통해 도면의 복잡한 포맷은 학습 및 분석되어 단순한 형태의 지오메트리 피쳐만 남아있기 때문에, raster-to-vector에는 복잡한 알고리즘이 필요하지 않다. hough transformation(허프 변환) 기반의 비교적 간단한 알고리즘을 통해 곡선 및 직선으로 벡터화된 오브젝트를 생성한다(S70). 이때, 벽체, 문, 창문 등 방의 바운더리로 활용될 수 있는 객체들은 한겹의 폴리라인으로 표현되는 반면, 계단실, 엘리베이터 등의 부피가 필요한 객체들은 폴리곤으로 표현된다. 곡선이 아닌 선형 객체들에 대해서는 Manhattan-rule을 따르도록 연결된 객체들의 좌표를 평균내는 후처리를 진행한다.Therefore, an additional process for generating vectorized indoor geospatial information is required for a test drawing or an arbitrary drawing. First, the extracted raster data is converted into a vectorized object represented by relative coordinates. No complicated algorithms are needed for raster-to-vector, as the complex format of a drawing is learned and analyzed by a deep learning network, leaving only simple geometric features. A vectorized object with curves and straight lines is created through a relatively simple algorithm based on hough transformation (S70). At this time, objects that can be used as the boundary of a room, such as walls, doors, and windows, are expressed as a polyline, whereas objects that require volume, such as a stairwell and an elevator, are expressed as polygons. For linear objects that are not curves, post-processing is performed to average the coordinates of connected objects to follow the Manhattan-rule.

벡터화된 실내공간정보의 토폴로지 정보를 생성하고, 폐합된 공간을 구성하는 벽체, 창문 및 문 객체를 탐지하여 공간을 생성하고 건물을 공간단위로 구분하는 프레임워크를 구축한다. 이때 계단실 및 엘리베이터는 지오메트리 정보 외에도 각 공간에 링크된 객체로써 저장된다. 딥러닝 모델이 빠뜨린(missing) 객체들로 인해 토폴로지 정보를 잃는 것을 방지하기 위해 후처리를 통해 벽체와 객체 사이의 가까운 갭을 막고 가상 벽체로 저장하여 방을 추가적으로 분할한다. 문을 탐지 못하거나 실제로 문 없이 합쳐진 공간일 가능성이 있으나, 공간을 가상벽을 통해 열린 경계로 분할함으로써 토폴로지 정보의 손실을 최소화할 수 있다.The topology information of the vectorized indoor spatial information is created, and the space is created by detecting the wall, window, and door objects constituting the closed space, and a framework is constructed to classify the building into spatial units. At this time, the stairwell and the elevator are stored as objects linked to each space in addition to geometry information. In order to prevent the deep learning model from losing topological information due to missing objects, close gaps between walls and objects are closed through post-processing and saved as virtual walls to further divide the room. It is possible that a door cannot be detected or is actually a combined space without a door, but the loss of topological information can be minimized by dividing the space into open boundaries through virtual walls.

이에 벡터화 변환모듈(17)은 테스트 도면 또는 임의의 도면에 대해 벡터화된 실내공간정보 생성을 위해 상기 단계(S60)에서 추출된 픽셀단위의 래스터 데이터인 객체 클래스를 hough transformation(허프 변환)을 통해 벡터화된 객체로 변환시키는데, 이러한 변환 과정은 최종적으로 컴퓨터로 수행하기 위해 프로그램 언어를 통해 알고리즘으로 코딩한 프로그램이고, 다시 말해 이러한 프로그램은 상기 래스터 데이터를 입력자료로 하면서 실내공간정보 자동추출장치(10) 또는 저장 장치(20)에 저장되어 벡터화 변환모듈(17)이 실내공간정보 자동추출장치(10) 또는 저장 장치(20)에 입력저장된 입력자료와 상기 프로그램을 이용하여 벡터화된 객체로 변환시키는 것이다.Accordingly, the vectorization conversion module 17 vectorizes the object class, which is raster data in pixel units extracted in step S60, through hough transformation to generate vectorized indoor spatial information for the test drawing or any drawing. This conversion process is a program coded with an algorithm through a programming language to be finally performed by a computer. In other words, this program uses the raster data as input data and automatically extracts indoor spatial information (10) Alternatively, it is stored in the storage device 20 and the vectorization conversion module 17 converts the input data stored in the automatic indoor spatial information extraction device 10 or the storage device 20 into vectorized objects using the program.

이러한 패치 기반의 딥러닝 모듈의 성능을 평가하기 위해 상기 서울대학교 도면 데이터셋 230건 중 200개의 도면을 활용하여 학습을 진행하고, 30개의 도면에 대한 테스트를 진행하였다. 다음의 표 1에서와 같이, 서울대학교의 경우 평균 정밀도(precision)가 약 89%, 재현율(recall)이 약 86%로서 기존의 간단한 도면을 대상으로 했던 기존 연구들과 유사한 수준의 정확도를 보이는 것을 확인할 수 있었다. 서울시립대학교 7개 도면을 대상으로 실험한(6개 도면을 학습, 1개의 도면을 테스트 진행) 결과는 평균 정밀도(precision)가 약 82%, 재현율(recall)이 약 73%로서 학습 도면이 매우 적은 것에 비하여 활용 가능한 수준의 성능을 보였다.To evaluate the performance of this patch-based deep learning module, learning was conducted using 200 drawings out of 230 Seoul National University drawing datasets, and tests were conducted on 30 drawings. As shown in Table 1 below, in the case of Seoul National University, the average precision is about 89% and the recall is about 86%, which shows a similar level of accuracy to existing studies targeting simple drawings. I was able to confirm. The results of the experiment on 7 drawings of the University of Seoul (learning 6 drawings and testing 1 drawing) showed that the average precision was about 82% and the recall was about 73%. Compared to less, it showed a usable level of performance.

Figure pat00001
Figure pat00001

이렇게 상기 표 1과 같이 정밀도와 재현율에서 객체 클래스의 실제값과 소정의 차이가 발생하는데 이러한 차이를 오차라 할 수 있고 상기 오차를 최소화하기 위해 상술한 바와 같이 가중치를 변화시키거나 weighted loss를 추가로 반영하는 등의 활용을 도입하는 것이다.In this way, as shown in Table 1, there is a predetermined difference from the actual value of the object class in precision and recall, and this difference can be referred to as an error. It is to introduce the use of reflection, etc.

도 6에 도시된 바와 같이 상기 서울대학교 도면 데이터셋 중 다양한 유형의 테스트 도면 이미지에 대해 패치기반의 딥러닝 세그멘테이션 결과 및 벡터화를 통한 실내공간정보 구축 결과를 확인할 수 있는데, 객체 클래스의 실제값(벽체,문,창문,엘리베이터,계단실)이 라벨링된 실내도면 이미지 원본(도6a,도6e,도6i), 딥러닝 세그멘테이션 결과(도6b,도6f,도6j), 선형으로 이루어진 벡터화 결과(도6c,도6g,도6k) 및 선형이 결합하여 3D구현이 가능하도록 하는 공간 벡터화 결과(도6d,도6h,도6l)가 순서대로 도시되어 있다. 참고로 도 6에서는 시각적으로 구분할 수 있도록 객체 클래스별로 다른 색상으로 표현되어 있다.As shown in FIG. 6, it is possible to check the results of patch-based deep learning segmentation and vectorization of indoor geospatial information construction results for various types of test drawing images among the Seoul National University drawing data set. , Doors, windows, elevators, stairwells) labeled indoor drawing image original (Fig. 6a, 6e, 6i), deep learning segmentation result (Fig. 6b, Fig. 6f, Fig. 6j), linear vectorization result (Fig. 6c , Fig. 6g, Fig. 6k) and spatial vectorization results (Figs. 6d, 6h, 6l) enabling 3D implementation by combining linear shapes are shown in order. For reference, in FIG. 6 , each object class is represented in a different color so as to be visually distinguishable.

여기서 세그멘테이션은 이미지를 분리하여 원하는 부분을 검출하는데 사용하는 기법으로 입력이미지가 픽셀별 여러 클래스로 나누어지는 딥러닝 결과로 출력된 것을 말한다.Here, segmentation is a technique used to separate an image and detect a desired part, and refers to output as a deep learning result in which an input image is divided into several classes per pixel.

10: 실내공간정보 자동추출장치
11: 도면축척 일치화모듈
12: 패치 분할모듈
13: CNN 학습모듈
14: 패치 결합모듈
15: 실내공간정보 추출모듈
16: CNN 수행모듈
17: 벡터화 변환모듈
20: 저장 장치
10: Indoor spatial information automatic extraction device
11: drawing scale matching module
12: patch division module
13: CNN learning module
14: patch coupling module
15: indoor spatial information extraction module
16: CNN execution module
17: vectorization conversion module
20: storage device

Claims (8)

(a) 도면축척 일치화모듈(11)이 대규모 공간을 표현하는 건물로 구성되어 구축된 도면 데이터셋 중에서 학습 데이터용 복수의 도면이미지의 축척을 일치시키는 단계(S10)와;
(b) 패치 분할모듈(12)이 축척이 일치된 각 도면이미지를 가로 및 세로가 균일한 사이즈의 패치로 분할하되, 패치가 인접 패치와 상하 좌우 방향으로 경계부분에서 일정 길이가 중첩되어 겹쳐지도록 분할하는 단계(S20)와;
(c) CNN 학습모듈(13)이 분할된 각 패치를 학습 데이터로 하여 CNN 모델을 학습시키는 단계(S30)와;
(d) 패치 결합모듈(14)이 학습이 완료된 각 패치의 각 픽셀에서 출력된 객체 클래스를 도면에서의 패치 위치정보를 기준으로 실내공간정보 추출을 위해 중첩하여 결합하는 단계(S40)와;
(e) 실내공간정보 추출모듈(15)이 CNN 모델을 통해 패치의 각 픽셀에 대해 객체 클래스 각각에 대한 확률로 나타나는 출력값 중 가장 높은 확률을 갖는 객체 클래스를 각 픽셀에 대한 해당 실내공간정보로 결정하여 추출하되, 패치 결합시 중첩되는 부분은 동일한 위치의 픽셀에 대해 복수의 출력값인 확률을 평균해서 해당 실내공간정보로 결정하여 추출하는 단계(S50), 및
(f) CNN 수행모듈(16)이 실내공간정보 추출 대상인 테스트 도면 또는 임의의 도면에서 상기 학습된 CNN 모델을 통해 객체 클래스인 실내공간정보 추출을 수행하는 단계(S60)로 이루어지는 것을 특징으로 하는, 패치기반의 딥러닝 알고리즘을 통한 실내도면 이미지에서의 실내공간정보 자동추출방법.
(a) matching the scales of a plurality of drawing images for learning data among drawing datasets constructed by the drawing scale matching module 11 consisting of buildings representing large-scale spaces (S10);
(b) The patch division module 12 divides each drawing image of the same scale into patches of uniform size horizontally and vertically, so that the patch overlaps with the adjacent patch by a certain length at the boundary in the vertical and horizontal directions. Dividing step (S20);
(c) learning a CNN model by using the divided patches as training data by the CNN learning module 13 (S30);
(d) overlapping and combining, by the patch combining module 14, object classes output from each pixel of each patch for which learning has been completed to extract indoor geospatial information based on patch location information in the drawing (S40);
(e) The indoor spatial information extraction module 15 determines the object class having the highest probability among the output values appearing as the probability for each object class for each pixel of the patch as the corresponding indoor spatial information for each pixel through the CNN model. and extracting, but determining the overlapping portion as the corresponding indoor spatial information by averaging probabilities that are a plurality of output values for the pixels at the same location and extracting the overlapping portion when combining the patches (S50); and
(f) a step (S60) of the CNN execution module 16 extracting indoor spatial information, which is an object class, through the learned CNN model in a test drawing or an arbitrary drawing, which is an object of extracting indoor spatial information; A method for automatically extracting indoor spatial information from indoor drawing images through a patch-based deep learning algorithm.
제 1 항에 있어서,
(g) 벡터화 변환모듈(17)이 테스트 도면 또는 임의의 도면에 대해 벡터화된 실내공간정보 생성을 위해 상기 단계(f)에서 추출된 픽셀단위의 래스터 데이터인 객체 클래스를 hough transformation(허프 변환)을 통해 벡터화된 객체로 변환시키는 단계(S70)를 더 포함하는 것을 특징으로 하는, 패치기반의 딥러닝 알고리즘을 통한 실내도면 이미지에서의 실내공간정보 자동추출방법.
According to claim 1,
(g) The vectorization conversion module 17 performs Hough transformation on the object class, which is raster data in pixel units extracted in step (f), to generate vectorized indoor spatial information for the test drawing or any drawing. A method of automatically extracting indoor spatial information from an indoor drawing image through a patch-based deep learning algorithm, characterized in that it further comprises a step (S70) of converting the vectorized object through a vectorized object.
제 1 항에 있어서,
상기 단계(a)에서 도면이미지 축척의 일치는,
수치선이 있는 도면의 경우 수치선에 나타난 수치와 그에 상응하는 픽셀 수를 추출하여 픽셀당 거리를 통일시키고, 수치선이 없는 도면의 경우는 최소 두께의 벽체의 픽셀 갯수를 추출하여 픽셀당 거리를 통일시키는 것을 특징으로 하는, 패치기반의 딥러닝 알고리즘을 통한 실내도면 이미지에서의 실내공간정보 자동추출방법.
According to claim 1,
In the step (a), the matching of the scale of the drawing image,
In the case of a drawing with a number line, the distance per pixel is unified by extracting the number shown in the number line and the corresponding number of pixels, and in the case of a drawing without a number line, the number of pixels of the minimum thickness wall is extracted and A method of automatically extracting indoor spatial information from an indoor drawing image through a patch-based deep learning algorithm, characterized in that it is unified.
제 1 항에 있어서,
상기 객체 클래스는 벽체, 문, 창문, 엘리베이터, 계단실로 총 5개의 객체 클래스를 하나의 CNN 모델을 통해 학습을 진행함으로써 객체간의 정합성을 향상시킬 수 있는 것을 특징으로 하는, 패치기반의 딥러닝 알고리즘을 통한 실내도면 이미지에서의 실내공간정보 자동추출방법.
According to claim 1,
The object class is a patch-based deep learning algorithm, characterized in that the consistency between objects can be improved by learning a total of five object classes, such as walls, doors, windows, elevators, and stairwells, through one CNN model. A method for automatically extracting indoor spatial information from indoor drawing images through
제 1 항에 있어서,
상기 단계(f)는,
(f1) 테스트 도면 또는 임의의 도면의 축척을 학습 데이터와 일치시키는 단계와;
(f2) 축척이 학습 데이터와 일치된 테스트 도면 또는 임의의 도면을 가로 및 세로가 균일한 사이즈의 패치로 분할하되, 패치가 인접 패치와 상하 좌우 방향으로 경계부분에서 일정 길이가 중첩되어 겹쳐지도록 분할하는 단계와;
(f3) 분할된 각 패치를 입력 데이터로 하여 상기 학습된 CNN 모델을 통해 각 패치에 대해 학습된 CNN 모델을 수행하는 단계와;
(f4) 각 패치의 각 픽셀에서 출력된 객체 클래스를 도면에서의 패치 위치정보를 기준으로 실내공간정보 추출을 위해 중첩하여 결합하는 단계, 및
(f5) CNN 모델을 통해 패치의 각 픽셀에 대해 객체 클래스 각각에 대한 확률로 나타나는 출력값 중 가장 높은 확률을 갖는 객체 클래스를 각 픽셀에 대한 해당 실내공간정보로 결정하여 추출하되, 패치 결합시 중첩되는 부분은 동일한 위치의 픽셀에 대해 복수의 출력값인 확률을 평균해서 해당 실내공간정보로 결정하여 추출하는 단계로 이루어지는 것을 특징으로 하는, 패치기반의 딥러닝 알고리즘을 통한 실내도면 이미지에서의 실내공간정보 자동추출방법.
According to claim 1,
In the step (f),
(f1) matching the scale of the test drawing or any drawing with the learning data;
(f2) Divide the test drawing or arbitrary drawing whose scale matches the learning data into patches of uniform size horizontally and vertically, but divide the patch so that the patch overlaps with the adjacent patch at the boundary in the vertical and horizontal directions and overlaps with a certain length. step of doing;
(f3) performing a CNN model learned for each patch through the learned CNN model using each divided patch as input data;
(f4) overlapping and combining object classes output from each pixel of each patch to extract indoor geospatial information based on patch location information in the drawing; and
(f5) Through the CNN model, the object class with the highest probability among the output values appearing as the probability for each object class for each pixel of the patch is determined and extracted as the corresponding indoor spatial information for each pixel, and overlapping when combining the patches The part comprises the step of averaging probabilities, which are a plurality of output values for pixels at the same location, to determine and extract the corresponding indoor spatial information as the corresponding indoor spatial information, automatically indoor spatial information in the indoor drawing image through a patch-based deep learning algorithm. extraction method.
제 4 항에 있어서,
CNN 모델의 학습을 효율적으로 하기 위해 CNN 모델의 학습시 벽체 객체의 정확도 비중을 높이는 weighted loss를 반영하는 것을 특징으로 하는, 패치기반의 딥러닝 알고리즘을 통한 실내도면 이미지에서의 실내공간정보 자동추출방법.
According to claim 4,
A method for automatically extracting indoor spatial information from indoor drawing images through a patch-based deep learning algorithm, characterized by reflecting a weighted loss that increases the accuracy of wall objects during learning of the CNN model in order to efficiently learn the CNN model. .
제 1 항에 있어서,
경계가 뚜렷한 높은 해상도 출력 결과를 얻기 위해 상기 CNN 모델은 네트워크의 stride를 높이고 L1 loss를 사용하는 것을 특징으로 하는, 패치기반의 딥러닝 알고리즘을 통한 실내도면 이미지에서의 실내공간정보 자동추출방법.
According to claim 1,
In order to obtain a high-resolution output result with clear boundaries, the CNN model increases the stride of the network and uses L1 loss. A method of automatically extracting indoor spatial information from indoor drawing images through a patch-based deep learning algorithm.
대규모 공간을 표현하는 건물로 구성되어 구축된 도면 데이터셋 중에서 학습 데이터용 복수의 도면이미지의 축척을 일치시키는 도면축척 일치화모듈(11)과,
축척이 일치된 각 도면이미지를 가로 및 세로가 균일한 사이즈의 패치로 분할하되, 패치가 인접 패치와 상하 좌우 방향으로 경계부분에서 일정 길이가 중첩되어 겹쳐지도록 분할하는 패치 분할모듈(12)과,
분할된 각 패치를 학습 데이터로 하여 CNN 모델을 학습시키는 CNN 학습모듈(13)과,
학습이 완료된 각 패치의 각 픽셀에서 출력된 객체 클래스를 도면에서의 패치 위치정보를 기준으로 실내공간정보 추출을 위해 중첩하여 결합하는 패치 결합모듈(14)과,
CNN 모델을 통해 패치의 각 픽셀에 대해 객체 클래스 각각에 대한 확률로 나타나는 출력값 중 가장 높은 확률을 갖는 객체 클래스를 각 픽셀에 대한 해당 실내공간정보로 결정하여 추출하되, 패치 결합시 중첩되는 부분은 동일한 위치의 픽셀에 대해 복수의 출력값인 확률을 평균해서 해당 실내공간정보로 결정하여 추출하는 실내공간정보 추출모듈(15), 및
실내공간정보 추출 대상인 테스트 도면 또는 임의의 도면에서 상기 학습된 CNN 모델을 통해 객체 클래스인 실내공간정보 추출을 수행하는 CNN 수행모듈(16)을 포함하는 실내공간정보 자동추출장치.
A drawing scale matching module 11 that matches the scales of a plurality of drawing images for learning data among drawing datasets constructed by buildings representing large-scale spaces;
A patch division module 12 for dividing each drawing image of which scale is matched into patches of uniform size horizontally and vertically, and dividing the patch so that the patch overlaps and overlaps with an adjacent patch by a certain length at the boundary in the vertical and horizontal directions;
A CNN learning module 13 for learning a CNN model using each divided patch as learning data;
A patch combining module 14 that overlaps and combines the object classes output from each pixel of each learned patch to extract indoor spatial information based on the patch location information in the drawing;
Through the CNN model, the object class with the highest probability among the output values appearing as the probability for each object class for each pixel of the patch is determined and extracted as the corresponding indoor spatial information for each pixel. An indoor spatial information extraction module 15 for averaging probabilities, which are a plurality of output values, for pixels at the position, and determining and extracting the corresponding indoor spatial information as the corresponding indoor spatial information; and
An apparatus for automatically extracting indoor spatial information including a CNN execution module 16 that extracts indoor spatial information as an object class through the learned CNN model in a test drawing or an arbitrary drawing, which is an indoor spatial information extraction target.
KR1020210119056A 2021-09-07 2021-09-07 Automatic extraction method of indoor spatial information from floor plan images through patch-based deep learning algorithms and device thereof KR102535054B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210119056A KR102535054B1 (en) 2021-09-07 2021-09-07 Automatic extraction method of indoor spatial information from floor plan images through patch-based deep learning algorithms and device thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210119056A KR102535054B1 (en) 2021-09-07 2021-09-07 Automatic extraction method of indoor spatial information from floor plan images through patch-based deep learning algorithms and device thereof

Publications (2)

Publication Number Publication Date
KR20230036327A true KR20230036327A (en) 2023-03-14
KR102535054B1 KR102535054B1 (en) 2023-05-26

Family

ID=85502494

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210119056A KR102535054B1 (en) 2021-09-07 2021-09-07 Automatic extraction method of indoor spatial information from floor plan images through patch-based deep learning algorithms and device thereof

Country Status (1)

Country Link
KR (1) KR102535054B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116664822A (en) * 2023-06-01 2023-08-29 广州阅数科技有限公司 Image target detection method based on automatic graph cutting algorithm
CN116805351A (en) * 2023-06-14 2023-09-26 壹品慧数字科技(上海)有限公司 Intelligent building management system and method based on Internet of things

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200036098A (en) * 2018-09-21 2020-04-07 라인 가부시키가이샤 Apparatus, method and system for detecting character
KR102109855B1 (en) * 2019-03-06 2020-05-12 서울대학교산학협력단 A method for text information construction in floorplans using SIFT descriptor
KR20200081340A (en) * 2018-02-26 2020-07-07 주식회사 코드크래프트 Method and apparatus for architectural drawing analysing
KR20200143193A (en) * 2019-06-13 2020-12-23 네이버 주식회사 Apparatus and method for object detection
KR20210057907A (en) 2019-11-13 2021-05-24 한국기술교육대학교 산학협력단 Method and Apparatus for Generating Intelligent Engineering Drawings Based on Deep Learning

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200081340A (en) * 2018-02-26 2020-07-07 주식회사 코드크래프트 Method and apparatus for architectural drawing analysing
KR20200036098A (en) * 2018-09-21 2020-04-07 라인 가부시키가이샤 Apparatus, method and system for detecting character
KR102109855B1 (en) * 2019-03-06 2020-05-12 서울대학교산학협력단 A method for text information construction in floorplans using SIFT descriptor
KR20200143193A (en) * 2019-06-13 2020-12-23 네이버 주식회사 Apparatus and method for object detection
KR20210057907A (en) 2019-11-13 2021-05-24 한국기술교육대학교 산학협력단 Method and Apparatus for Generating Intelligent Engineering Drawings Based on Deep Learning

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116664822A (en) * 2023-06-01 2023-08-29 广州阅数科技有限公司 Image target detection method based on automatic graph cutting algorithm
CN116805351A (en) * 2023-06-14 2023-09-26 壹品慧数字科技(上海)有限公司 Intelligent building management system and method based on Internet of things

Also Published As

Publication number Publication date
KR102535054B1 (en) 2023-05-26

Similar Documents

Publication Publication Date Title
US20210150080A1 (en) Synthetic data generation for machine learning tasks on floor plan drawings
US11636234B2 (en) Generating 3D models representing buildings
Zhao et al. Reconstructing BIM from 2D structural drawings for existing buildings
Ochmann et al. Automatic generation of structural building descriptions from 3D point cloud scans
Xiong et al. Automatic creation of semantically rich 3D building models from laser scanner data
US20140313216A1 (en) Recognition and Representation of Image Sketches
CN111488826A (en) Text recognition method and device, electronic equipment and storage medium
US11275874B2 (en) Method for constructing a 3D digital model from a 2D plan
Pizarro et al. Automatic floor plan analysis and recognition
CN113327324A (en) Method and device for constructing three-dimensional building model, computer equipment and storage medium
Oskouie et al. Automated recognition of building façades for creation of As-Is Mock-Up 3D models
Wang et al. Object verification based on deep learning point feature comparison for scan-to-BIM
KR102535054B1 (en) Automatic extraction method of indoor spatial information from floor plan images through patch-based deep learning algorithms and device thereof
Xu et al. Three-dimensional object detection with deep neural networks for automatic as-built reconstruction
Urbieta et al. Generating BIM model from structural and architectural plans using Artificial Intelligence
CN116704542A (en) Layer classification method, device, equipment and storage medium
Phan et al. Triangulation based skeletonization and trajectory recovery for handwritten character patterns
CN117115824A (en) Visual text detection method based on stroke region segmentation strategy
Wei et al. Wall segmentation in house plans: fusion of deep learning and traditional methods
Chen et al. The scope for AI-augmented interpretation of building blueprints in commercial and industrial property insurance
Liu et al. Application of Relying on 3D Modeling Technology in the Design of Urban Sculpture.
Shen A Simulated Point Cloud Implementation of a Machine Learning Segmentation and Classification Algorithm
Pizarro Riffo Wall polygon retrieval from architectural floor plan images using vectorización and Deep Learning methods
Moro et al. Building virtual worlds by 3D object mapping
KR102596257B1 (en) Method for recognizing machining feature and computing device for executing the method

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant