KR102640618B1 - 3d 스캐너 기반 시공 오차 검증 방법, 장치 및 시스템 - Google Patents
3d 스캐너 기반 시공 오차 검증 방법, 장치 및 시스템 Download PDFInfo
- Publication number
- KR102640618B1 KR102640618B1 KR1020230019247A KR20230019247A KR102640618B1 KR 102640618 B1 KR102640618 B1 KR 102640618B1 KR 1020230019247 A KR1020230019247 A KR 1020230019247A KR 20230019247 A KR20230019247 A KR 20230019247A KR 102640618 B1 KR102640618 B1 KR 102640618B1
- Authority
- KR
- South Korea
- Prior art keywords
- area
- data
- color
- value
- construction
- Prior art date
Links
- 238000010276 construction Methods 0.000 title claims abstract description 83
- 238000000034 method Methods 0.000 title claims abstract description 53
- 238000013461 design Methods 0.000 claims abstract description 108
- 238000012795 verification Methods 0.000 claims abstract description 7
- 230000008569 process Effects 0.000 description 25
- 238000005516 engineering process Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 12
- 239000003086 colorant Substances 0.000 description 11
- 238000012545 processing Methods 0.000 description 10
- 238000004458 analytical method Methods 0.000 description 9
- 238000013528 artificial neural network Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 6
- 238000013473 artificial intelligence Methods 0.000 description 5
- 230000014509 gene expression Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 238000000844 transformation Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000004378 air conditioning Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000013425 morphometry Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/08—Construction
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/2518—Projection by scanning of the object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/10—Geometric CAD
- G06F30/13—Architectural design, e.g. computer-aided architectural design [CAAD] related to design of buildings, bridges, landscapes, production plants or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/10—Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
- G06T7/001—Industrial image inspection using an image reference approach
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/012—Dimensioning, tolerancing
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Geometry (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Business, Economics & Management (AREA)
- Strategic Management (AREA)
- Mathematical Analysis (AREA)
- Tourism & Hospitality (AREA)
- Primary Health Care (AREA)
- Marketing (AREA)
- Architecture (AREA)
- Civil Engineering (AREA)
- Human Resources & Organizations (AREA)
- General Health & Medical Sciences (AREA)
- Structural Engineering (AREA)
- Computational Mathematics (AREA)
- General Business, Economics & Management (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Economics (AREA)
- Health & Medical Sciences (AREA)
- Quality & Reliability (AREA)
- Processing Or Creating Images (AREA)
Abstract
일실시예에 따르면, 장치에 의해 수행되는, 3D 스캐너 기반 시공 오차 검증 방법에 있어서, 제1 구조물에 대해 제1 단계의 시공이 완료된 것으로 확인되면, 상기 제1 구조물의 BIM(Building Information modeling) 데이터에서 상기 제1 단계의 시공 완료 시점에 대한 상기 제1 구조물의 3D 설계 데이터로 등록되어 있는 제1 설계 데이터를 추출하는 단계; 상기 제1 구조물이 3D 스캐너에 의해 스캔되면, 상기 3D 스캐너로부터 상기 제1 구조물을 스캔하여 생성된 3D 스캔 데이터인 제1 스캔 데이터를 획득하는 단계; 상기 제1 설계 데이터에서 기준 표식으로 등록되어 있는 제1 표식을 확인하고, 상기 제1 스캔 데이터에서 상기 제1 표식을 인식하는 단계; 상기 제1 설계 데이터에서 확인된 제1 표식의 위치와 상기 제1 스캔 데이터에서 인식된 제1 표식의 위치를 이용하여, 상기 제1 설계 데이터와 상기 제1 스캔 데이터의 관점 방향을 일치시키는 단계; 상기 제1 설계 데이터에서 확인된 제1 표식의 면적과 상기 제1 스캔 데이터에서 인식된 제1 표식의 면적을 이용하여, 상기 제1 설계 데이터와 상기 제1 스캔 데이터의 크기를 일치시키는 단계; 상기 제1 설계 데이터 및 상기 제1 스캔 데이터를 병합하여 병합 데이터를 생성하는 단계; 및 상기 병합 데이터에 기초하여, 상기 제1 구조물의 설계와 시공 간에 오차가 있는지 여부를 분석하는 단계를 포함하는, 3D 스캐너 기반 시공 오차 검증 방법이 제공된다.
Description
아래 실시예들은 3D 스캐너를 기반으로 설계 데이터와 스캔 데이터를 비교하여 설계와 시공 간에 오차 여부를 분석하여, 시공 오차를 검증하기 위한 기술에 관한 것이다.
3D 스캐너를 이용한 스캔 데이터는 기하학적 모델링과 의학적 형태 계측 분야에 있어서 점차 널리 사용되고 있다. 3D 스캔 데이터를 이용하는 기술은 특정한 제품을 제조하는 공정의 결과를 체크하는 방법에도 적용될 수 있다. 제조된 제품이 설계대로 만들어졌는지를 확인하기 위하여 3D 스캔 데이터가 이용될 수 있다.
대부분의 3D 스캐너는 목표 객체를 다양한 각도에서 스캔하고 스캔 데이터를 생성할 수 있다. 이 때 3D 스캐너는 다양한 각도에서 목표 객체의 각 부분을 나누어 연속적인 데이터의 집합을 생성할 수 있다.
3D 스캐너에 의하여 생성된 연속적인 데이터의 집합에 기초하여 목표 객체의 3차원 영상을 형성하는 과정을 정합(registration)이라 할 수 있다.
정합 과정은 둘 이상의 데이터 집합을 하나의 좌표계로 매핑하는 과정일 수 있다. 스캔 또는 다른 방법으로 얻어진 데이터 각각에 대해서는 좌표계가 할당될 수 있다. 데이터 중 일부는 고정된 계(fixed system)에 할당되고, 나머지 데이터는 이동 계(moving system)에 할당될 수 있다. 이동 계는 고정된 계에 수렴하도록 가상 공간 상에서 변환될 수 있다. 이러한 변환은 회전 변환 또는 평행 이동 변환을 포함할 수 있다.
하나의 객체에 대한 복수의 스캔 데이터는 객체의 서로 다른 부분들을 스캔한 데이터이지만 복수의 스캔 데이터 각각은 서로 겹쳐 지는 부분을 포함할 수 있다. 정합 과정은 복수의 스캔 데이터 각각이 서로 겹쳐 지는 부분을 매칭하고, 복수의 스캔 데이터에 기초하여 객체의 3D 스캔 데이터를 생성할 수 있다
이러한 3D 스캐너 기술이 발달함에 따라, 3차원 영상 콘텐츠 제작, 의료, 패션, 문화재 복원 등 다양한 분야에서 3D 스캐너를 사용하고자 하는 시도가 증가하고 있다. 특히 건설 분야의 경우, 3D 스캐너를 사용하면, 건축물에 대한 객관적인 데이터 확보가 가능하고, 공사 기간 단축 및 공사비 절감 등의 효과를 얻을 수 있기 때문에 3D 스캐너의 활용 빈도가 증가하고 있는 추세이다.
그러나 종래의 건설 현장에서는 주로 완공 또는 준공된 건축물이나 시설물을 대상으로 3D 스캔을 실시하고 있을 뿐, 시공 중일 때의 활용도는 높지 않다. 또한, 시공 단계에서 건축물에 대한 3D 스캔 데이터를 획득한다고 하더라도 획득된 3차원 스캔 데이터와 기존의 설계 데이터의 형식이 서로 달라 두 데이터를 비교하는 것이 쉽지 않았다.
따라서, 시공 단계에서 3D 스캐너를 사용하여 시공 중인 구조물에 대한 오차가 있는지 여부를 분석하고자 하는 요구가 증대되고 있어, 이와 관련된 기술에 대한 연구가 요구된다.
일실시예에 따르면, 3D 스캐너를 기반으로 시공 중인 구조물을 스캔하여 스캔 데이터를 생성하고, 미리 등록된 설계 데이터와 스캔 데이터를 비교하여 설계와 시공 간에 오차 여부를 분석하여, 시공 오차를 검증하는 방법, 장치 및 시스템을 제공하기 위한 것을 그 목적으로 한다.
본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.
일실시예에 따르면, 장치에 의해 수행되는, 3D 스캐너 기반 시공 오차 검증 방법에 있어서, 제1 구조물에 대해 제1 단계의 시공이 완료된 것으로 확인되면, 상기 제1 구조물의 BIM(Building Information modeling) 데이터에서 상기 제1 단계의 시공 완료 시점에 대한 상기 제1 구조물의 3D 설계 데이터로 등록되어 있는 제1 설계 데이터를 추출하는 단계; 상기 제1 구조물이 3D 스캐너에 의해 스캔되면, 상기 3D 스캐너로부터 상기 제1 구조물을 스캔하여 생성된 3D 스캔 데이터인 제1 스캔 데이터를 획득하는 단계; 상기 제1 설계 데이터에서 기준 표식으로 등록되어 있는 제1 표식을 확인하고, 상기 제1 스캔 데이터에서 상기 제1 표식을 인식하는 단계; 상기 제1 설계 데이터에서 확인된 제1 표식의 위치와 상기 제1 스캔 데이터에서 인식된 제1 표식의 위치를 이용하여, 상기 제1 설계 데이터와 상기 제1 스캔 데이터의 관점 방향을 일치시키는 단계; 상기 제1 설계 데이터에서 확인된 제1 표식의 면적과 상기 제1 스캔 데이터에서 인식된 제1 표식의 면적을 이용하여, 상기 제1 설계 데이터와 상기 제1 스캔 데이터의 크기를 일치시키는 단계; 상기 제1 설계 데이터 및 상기 제1 스캔 데이터를 병합하여 병합 데이터를 생성하는 단계; 및 상기 병합 데이터에 기초하여, 상기 제1 구조물의 설계와 시공 간에 오차가 있는지 여부를 분석하는 단계를 포함하는, 3D 스캐너 기반 시공 오차 검증 방법이 제공된다.
상기 3D 스캐너 기반 시공 오차 검증 방법은, 상기 제1 구조물의 설계와 시공 간에 오차가 있는 것으로 분석되면, 상기 제1 구조물의 설계와 시공 간에 오차가 없는 영역을 제1 영역으로 구분하고, 상기 제1 구조물의 설계와 시공 간에 오차가 있는 영역을 제2 영역으로 구분하는 단계; 및 상기 병합 데이터가 관리자 단말의 화면에서 표시될 때, 상기 제1 영역이 제1 색상으로 표시되도록 제어하고, 상기 제2 영역이 제2 색상으로 표시되도록 제어하는 단계를 더 포함할 수 있다.
상기 제2 영역이 제2 색상으로 표시되도록 제어하는 단계는, 상기 제1 설계 데이터 상에서 물체가 있는 공간으로 확인되고 상기 제1 스캔 데이터 상에서 빈 공간으로 확인되는 영역을 제2-1 영역으로 구분하고, 상기 제1 설계 데이터 상에서 빈 공간으로 확인되고 상기 제1 스캔 데이터 상에서 물체가 있는 공간으로 확인되는 영역을 제2-2 영역으로 구분하는 단계; 및 상기 제2-1 영역이 상기 제2 색상으로 표시되도록 제어하고, 상기 제2-2 영역이 제3 색상으로 표시되도록 제어하는 단계를 포함할 수 있다.
일실시예에 따르면, 시공 단계에서 3D 스캐너를 사용하여 시공 중인 구조물에 대한 오차가 있는지 여부를 분석함으로써, 시공 오차를 빨리 발견하여 시공 오차를 최소화할 수 있도록 처리할 수 있는 효과가 있다.
또한, 일실시예에 따르면, 오차가 있는 영역과 오차가 없는 영역을 상이한 색으로 표시함으로써, 관리자가 시공 오차를 직관적으로 인지할 수 있도록 도와줄 수 있는 효과가 있다.
한편, 실시예들에 따른 효과들은 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 해당 기술 분야의 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.
도 1은 일실시예에 따른 시스템의 구성을 개략적으로 나타낸 도면이다.
도 2는 일실시예에 따른 3D 스캐너를 기반으로 시공 오차를 검증하는 과정을 설명하기 위한 순서도이다.
도 3은 일실시예에 따른 설계 데이터와 스캔 데이터의 관점 방향을 일치시키는 과정을 도시한 도면이다.
도 4는 일실시예에 따른 설계 데이터와 스캔 데이터의 크기를 일치시키는 과정을 도시한 도면이다.
도 5는 일실시예에 따른 오차가 있는 영역과 오차가 없는 영역을 구분하여 상이한 색으로 표시하는 과정을 설명하기 위한 순서도이다.
도 6은 일실시예에 따른 오차가 있는 영역과 오차가 없는 영역이 상이한 색으로 표시된 병합 데이터를 도시한 도면이다.
도 7은 일실시예에 따른 설계와 시공 간의 오차 종류에 따라 오차가 있는 영역이 상이한 색으로 표시되는 과정을 설명하기 위한 도면이다.
도 8은 일실시예에 따른 제2-1 영역을 오차 크기에 따라 상이한 채도로 표시하는 과정을 설명하기 위한 순서도이다.
도 9는 일실시예에 따른 제2-2 영역을 오차 크기에 따라 상이한 채도로 표시하는 과정을 설명하기 위한 순서도이다.
도 10은 일실시예에 따른 장치의 구성의 예시도이다.
도 2는 일실시예에 따른 3D 스캐너를 기반으로 시공 오차를 검증하는 과정을 설명하기 위한 순서도이다.
도 3은 일실시예에 따른 설계 데이터와 스캔 데이터의 관점 방향을 일치시키는 과정을 도시한 도면이다.
도 4는 일실시예에 따른 설계 데이터와 스캔 데이터의 크기를 일치시키는 과정을 도시한 도면이다.
도 5는 일실시예에 따른 오차가 있는 영역과 오차가 없는 영역을 구분하여 상이한 색으로 표시하는 과정을 설명하기 위한 순서도이다.
도 6은 일실시예에 따른 오차가 있는 영역과 오차가 없는 영역이 상이한 색으로 표시된 병합 데이터를 도시한 도면이다.
도 7은 일실시예에 따른 설계와 시공 간의 오차 종류에 따라 오차가 있는 영역이 상이한 색으로 표시되는 과정을 설명하기 위한 도면이다.
도 8은 일실시예에 따른 제2-1 영역을 오차 크기에 따라 상이한 채도로 표시하는 과정을 설명하기 위한 순서도이다.
도 9는 일실시예에 따른 제2-2 영역을 오차 크기에 따라 상이한 채도로 표시하는 과정을 설명하기 위한 순서도이다.
도 10은 일실시예에 따른 장치의 구성의 예시도이다.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.
실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.
실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
실시예들은 퍼스널 컴퓨터, 랩톱 컴퓨터, 태블릿 컴퓨터, 스마트 폰, 텔레비전, 스마트 가전 기기, 지능형 자동차, 키오스크, 웨어러블 장치 등 다양한 형태의 제품으로 구현될 수 있다.
인공지능(Artificial Intelligence, AI) 시스템은 인간 수준의 지능을 구현하는 컴퓨터 시스템이며, 기존 규칙(Rule) 기반의 스마트 시스템과 달리 기계가 스스로 학습하고 판단하는 시스템이다. 인공지능 시스템은 사용할수록 인식률이 향상되고 사용자 취향을 보다 정확하게 이해할 수 있게 되어, 기존 규칙 기반의 스마트 시스템은 점차 심층 학습(Deep Learning) 기반 인공지능 시스템으로 대체되고 있다.
인공지능 기술은 기계 학습 및 기계 학습을 활용한 요소기술들로 구성된다. 기계 학습은 입력 데이터들의 특징을 스스로 분류/학습하는 알고리즘 기술이며, 요소기술은 심층 학습 등의 기계 학습 알고리즘을 활용하여 인간 두뇌의 인지, 판단 등의 기능을 모사하는 기술로서, 언어적 이해, 시각적 이해, 추론/예측, 지식 표현, 동작 제어 등의 기술 분야로 구성된다.
인공지능 기술이 응용되는 다양한 분야는 다음과 같다. 언어적 이해는 인간의 언어/문자를 인식하고 응용/처리하는 기술로서, 자연어 처리, 기계 번역, 대화시스템, 질의 응답, 음성 인식/합성 등을 포함한다. 시각적 이해는 사물을 인간의 시각처럼 인식하여 처리하는 기술로서, 객체 인식, 객체 추적, 영상 검색, 사람 인식, 장면 이해, 공간 이해, 영상 개선 등을 포함한다. 추론 예측은 정보를 판단하여 논리적으로 추론하고 예측하는 기술로서, 지식/확률 기반 추론, 최적화 예측, 선호 기반 계획, 추천 등을 포함한다. 지식 표현은 인간의 경험정보를 지식데이터로 자동화 처리하는 기술로서, 지식 구축(데이터 생성/분류), 지식 관리(데이터 활용) 등을 포함한다. 동작 제어는 차량의 자율 주행, 로봇의 움직임을 제어하는 기술로서, 움직임 제어(항법, 충돌, 주행), 조작 제어(행동 제어) 등을 포함한다.
일반적으로 기계 학습 알고리즘을 실생활에 적용하기 위해서는 기계 학습의 기본 방법론의 특성상 Trial and Error 방식으로 학습을 수행하게 된다. 특히, 심층 학습의 경우 수십만 번의 반복 실행을 필요로 한다. 이를 실제 물리적인 외부 환경에서 실행하기는 불가능하여 대신 실제 물리적인 외부 환경을 컴퓨터상에서 가상으로 구현하여 시뮬레이션을 통해 학습을 수행한다.
도 1은 일실시예에 따른 시스템의 구성을 개략적으로 나타낸 도면이다.
도 1을 참조하면, 일실시예에 따른 시스템은 3D 스캐너(100) 및 장치(200)를 포함할 수 있다.
3D 스캐너(100)는 분석 대상을 다양한 각도에서 스캔하여, 3D 스캔 데이터를 생성할 수 있다. 여기서, 3D 스캔 데이터는 분석 대상을 스캔하여 생성된 3D 이미지이다.
구체적으로, 3D 스캐너(100)는 분석 대상의 표면에 대한 3차원 점군 데이터(Point Cloud Data, PCD)를 획득한다. 여기서, 분석 대상은 건축물, 시설물, 구조물 등을 의미할 수 있으며, 예를 들어, 건물, 플랜트, 발전소, 선박, 문화재, 댐, 교량, 도로, 지하 시설물, 각종 설비, 기계장치, 파이프, 구조, 공조장치, 기타 설비 등일 수 있다.
3차원 점군 데이터란 분석 대상의 표면을 이루는 수많은 점들을 말한다. 3차원 점군 데이터에 포함되는 각 점들은 3차원 좌표(X, Y, Z)를 포함한다(여기서, 'Z'는 깊이 정보). 3차원 점군 데이터는 3D 스캐너(100)를 이용하여 분석 대상을 스캐닝하는 경우 획득될 수 있다.
3D 스캐너(100)는 비접촉 방식으로 3차원 점군 데이터를 획득할 수 있다. 비접촉 방식의 3D 스캐너(100)는 분석 대상에 접촉되지 않은 상태에서 3차원 점군 데이터를 획득할 수 있다. 비접촉 방식으로는 TOF(Time Of Flight) 방식, 광 삼각법 방식, 백색광 방식 및 변조광 방식을 예로 들 수 있다.
TOF(Time Of Flight) 방식은 대상물의 표면에 빛(예를 들어, 레이저)를 조사하고, 조사된 빛이 대상물의 표면에서 반사되어 돌아오는 시간을 측정하여, 대상물과 측정원점 사이의 거리를 구하는 방식이다. TOF 방식의 3D 스캐너(100)는 대상물로 레이저를 조사하는 레이저 소스와, 레이저가 조사된 대상물을 촬영하는 깊이 카메라를 포함할 수 있다.
광 삼각법 방식의 3D 스캐너(100)는 대상물로 레이저를 조사하는 레이저 소스, 대상물의 표면에서 반사된 레이저를 수신하는 CCD 카메라를 포함한다. 레이저가 서로 다른 거리에 있는 물체에 부딪히는 경우, 레이저를 수신하는 CCD 카메라에는 레이저가 서로 다른 위치에서 검출된다. 카메라와 레이저 소스 사이의 거리, 각도는 고정되어 이미 알고 있으므로, 카메라 화각 내에서 CCD 소자의 상대적인 위치에 따라 수신 광선의 깊이 차이를 구할 수 있는데, 이를 삼각법이라고 한다.
백색광 방식의 3D 스캐너(100)는 특정 패턴을 대상물에 투영하고, 그 패턴의 변형 형태를 촬영하여, 대상물의 표면에 대한 3차원 점군 데이터를 획득한다. 이때, 대상물에는 여러 종류의 패턴이 투영될 수 있다. 예를 들면, 하나의 선(line) 형태의 패턴, 그리드(grid), 또는 스트라이프 무늬의 패턴이 대상물에 투영될 수 있다.
백색광 방식의 3D 스캐너(100)는 전체 촬상 영역(Field Of View; FOV) 전반에 걸쳐 있는 모든 대상물의 표면의 3차원 좌표를 한 번에 획득할 수 있다.
변조광(structured-light) 방식의 3D 스캐너(100)는 대상물의 표면에 지속적으로 주파수가 다른 빛을 쏘고 수광부에서 이 빛을 받을 때, 주파수의 차이를 검출해, 거리 값을 산출한다.
한편, 규모가 큰 구조물을 스캐닝하기 위해, 3D 스캐너(100)를 어느 한 위치에 고정시킨 상태에서 3차원 점군 데이터를 획득하는 것보다는 3D 스캐너(100)의 위치를 변경해가며 3차원 점군 데이터를 획득하는 것이 바람직하다. 예를 들어, 구조물의 주변을 따라 3D 스캐너(100)의 위치를 변경시켜가면서 각 위치에서 3차원 스캐닝을 실시하여 각 위치별로 3차원 점군 데이터를 획득하는 것이 바람직하다.
상술한 바와 같이, 3D 스캐너(100)는 분석 대상을 다양한 각도에서 스캔하여 3차원 점군 데이터를 획득한 후, 획득된 3차원 점군 데이터를 병합하여 분석 대상에 대한 3D 스캔 데이터를 생성할 수 있다.
3D 스캐너(100)는 통신 모듈을 구비하여, 장치(200)와 유무선으로 통신하도록 구성될 수 있다.
장치(200)는 장치(200)를 이용하여 서비스를 제공하는 자 내지 단체가 보유한 자체 서버일수도 있고, 클라우드 서버일 수도 있고, 분산된 노드(node)들의 p2p(peer-to-peer) 집합일 수도 있다. 장치(200)는 통상의 컴퓨터가 가지는 연산 기능, 저장/참조 기능, 입출력 기능 및 제어 기능을 전부 또는 일부 수행하도록 구성될 수 있다. 장치(200)는 추론 기능을 수행하는 적어도 하나 이상의 인공 신경망을 구비할 수 있다.
장치(200)는 3D 스캐너(100)와 유무선으로 통신하도록 구성될 수 있으며, 3D 스캐너(100)에 대한 전체적인 동작을 제어할 수 있다.
장치(200)는 3D 스캐너(100)로부터 3D 스캔 데이터를 획득하면, 3D 스캔 데이터를 이용하여 시공에 오차가 있는지 여부를 검증할 수 있다. 이와 관련된 자세한 설명은 도 2 내지 도 4를 참조하여 후술하기로 한다.
도 2는 일실시예에 따른 3D 스캐너를 기반으로 시공 오차를 검증하는 과정을 설명하기 위한 순서도이고, 도 3은 일실시예에 따른 설계 데이터와 스캔 데이터의 관점 방향을 일치시키는 과정을 도시한 도면이고, 도 4는 일실시예에 따른 설계 데이터와 스캔 데이터의 크기를 일치시키는 과정을 도시한 도면이다.
도 2를 참조하면, 먼저, S201 단계에서, 장치(200)는 제1 구조물에 대해 제1 단계의 시공이 완료된 것을 확인할 수 있다. 여기서, 제1 구조물은 시공을 진행하고 있는 건축물 또는 시설물이고, 제1 단계는 시공의 여러 단계 중 현재 어느 단계까지 완료되었는지 나타낼 수 있다.
구체적으로, 현장에서 근무하는 작업자는 작업자 단말을 통해, 제1 구조물에 대해 제1 단계까지 시공이 완료된 것으로 시공 완료 정보를 입력할 수 있으며, 작업자 단말은 장치(200)로 시공 완료 정보를 전송할 수 있다. 이를 위해, 작업자 단말은 장치(200)와 유무선으로 통신하도록 구성될 수 있다.
장치(200)는 장치(200)는 작업자 단말로부터 시공 완료 정보를 수신하면, 시공 완료 정보를 기반으로, 제1 구조물에 대해 제1 단계의 시공이 완료된 것으로 확인할 수 있다.
S202 단계에서, 장치(200)는 제1 구조물에 대해 제1 단계의 시공이 완료된 것으로 확인되면, 제1 구조물의 BIM 데이터에서 제1 설계 데이터를 추출할 수 있다. 여기서, 제1 설계 데이터는 제1 단계의 시공 완료 시점에 대한 제1 구조물의 3D 설계 데이터로 제1 구조물의 BIM 데이터에 등록되어 있으며, 제1 단계의 시공이 완료되었을 때 제1 구조물의 형상을 나타내기 위해 등록되어 있는 3D 이미지이다.
일실시예에 따르면, BIM(Building Information Modeling)은 3차원 정보모델을 기반으로 시설물의 생애주기에 걸쳐 발생하는 모든 정보를 통합하여 활용이 가능하도록 시설물의 형상, 속성 등을 정보로 표현한 디지털 모형을 의미한다. 제1 구조물의 BIM은 제1 구조물의 설계 시 생성되어 장치(200)의 데이터베이스에 저장될 수 있으며, 제1 구조물의 시공이 진행되면서 지속적으로 갱신될 수 있다.
제1 구조물의 BIM 데이터에는 제1 구조물의 시공 단계마다 완료되었을 때 제1 구조물의 형상을 나타내기 위해, 시공 단계 별로 설계 데이터가 등록되어 있다. 예를 들어, 제1 구조물의 시공이 1단계, 2단계 및 3단계 순으로 진행되는 경우, 1단계 시공이 완료되었을 때 제1 구조물의 형상을 나타내기 위한 설계 데이터, 2단계 시공이 완료되었을 때 제1 구조물의 형상을 나타내기 위한 설계 데이터, 3단계 시공이 완료되었을 때 제1 구조물의 형상을 나타내기 위한 설계 데이터가 각각 등록될 수 있다.
이를 통해, 장치(200)는 제1 구조물에 대해 제1 단계의 시공이 완료된 것으로 확인되면, 제1 구조물의 BIM 데이터에서 제1 단계의 시공이 완료되었을 때 제1 구조물의 형상을 나타내기 위해 등록되어 있는 제1 설계 데이터를 조회한 후, 조회된 제1 설계 데이터를 추출할 수 있다.
S203 단계에서, 장치(200)는 제1 구조물의 3D 스캐너(100)에 의해 스캔되면, 3D 스캐너(100)로부터 제1 구조물을 스캔하여 생성된 3D 스캔 데이터인 제1 스캔 데이터를 획득할 수 있다.
구체적으로, 장치(200)는 제1 설계 데이터를 추출한 후, 작업자 단말로 제1 구조물에 대한 스캔 작업을 요청하는 알림 메시지를 전송할 수 있으며, 이후, 작업자는 3D 스캐너(100)를 이용하여 제1 구조물에 대한 스캔 작업을 수행할 수 있다. 이때, 3D 스캐너(100)는 제1 구조물을 다양한 각도에서 스캔하여 3차원 점군 데이터를 획득한 후, 획득된 3차원 점군 데이터를 병합하여 제1 구조물에 대한 3D 스캔 데이터를 생성할 수 있다.
S204 단계에서, 장치(200)는 제1 설계 데이터에서 기준 표식으로 등록되어 있는 제1 표식을 확인하고, 제1 스캔 데이터에서 제1 표식을 인식할 수 있다. 여기서, 제1 표식은 특정 패턴, 기호, 또는 숫자가 인쇄된 표식으로, 제1 구조물의 일부 벽면에 표시될 수 있다.
제1 구조물의 설계 시, 제1 표식의 모양과 제1 표식이 제1 구조물의 어느 지점에 표시될 것인지 설정될 수 있으며, 설정된 제1 표식이 제1 설계 데이터에 기준 표식으로 등록될 수 있다. 이를 통해, 장치(200)는 제1 설계 데이터가 추출되면, 제1 설계 데이터에서 제1 표식을 확인할 수 있다.
제1 구조물의 시공 시, 제1 구조물의 지정된 지점에 제1 표식이 표시될 수 있으며, 제1 표식이 표시된 제1 구조물이 스캔되면, 제1 구조물에 표시된 제1 표식이 제1 스캔 데이터에 포함될 수 있다, 이를 통해, 장치(200)는 제1 스캔 데이터가 획득되면, 제1 스캔 데이터에서 제1 표식을 인식할 수 있다.
S205 단계에서, 장치(200)는 제1 설계 데이터에서 확인된 제1 표식의 위치와 제1 스캔 데이터에서 인식된 제1 표식의 위치를 이용하여, 제1 설계 데이터와 제1 스캔 데이터의 관점 방향을 일치시킬 수 있다.
구체적으로, 제1 설계 데이터에서 확인된 제1 표식의 위치와 제1 스캔 데이터에서 확인된 제1 표식의 위치를 비교한 결과, 도 3의 (a)에 도시된 바와 같이, 제1 설계 데이터에서 확인된 제1 표식과 제1 스캔 데이터에서 인식된 제1 표식은 위치가 서로 상이할 수 있다.
장치(200)는 제1 설계 데이터에서 확인된 제1 표식의 위치와 제1 스캔 데이터에서 인식된 제1 표식의 위치가 상이한 것으로 확인되면, 제1 표식의 위치가 서로 일치할 수 있도록, 제1 스캔 데이터를 회전시킬 수 있다.
제1 스캔 데이터가 회전되면, 도 3의 (b)에 도시된 바와 같이, 제1 설계 데이터에서 확인된 제1 표식과 제1 스캔 데이터에서 인식된 제1 표식은 동일한 지점에 위치할 수 있으며, 이를 통해, 상기 제1 설계 데이터의 관점 방향과 제1 스캔 데이터의 관점 방향을 일치시킬 수 있다.
S206 단계에서, 장치(200)는 제1 설계 데이터에서 확인된 제1 표식의 면적과 제1 스캔 데이터에서 인식된 제1 표식의 면적을 이용하여, 제1 설계 데이터와 제1 스캔 데이터의 크기를 일치시킬 수 있다.
구체적으로, 제1 설계 데이터에서 확인된 제1 표식의 면적과 제1 스캔 데이터에서 인식된 제1 표식의 면적을 비교한 결과, 도 4의 (a)에 도시된 바와 같이, 제1 설계 데이터에서 확인된 제1 표식과 제1 스캔 데이터에서 인식된 제1 표식은 면적이 서로 상이할 수 있다.
장치(200)는 제1 설계 데이터에서 확인된 제1 표식의 면적과 제1 스캔 데이터에서 인식된 제1 표식의 면적이 상이한 것으로 확인되면, 제1 표식의 면적이 서로 일치할 수 있도록, 제1 스캔 데이터의 크기를 변경할 수 있다. 이때, 제1 설계 데이터에서 확인된 제1 표식의 면적이 제1 스캔 데이터에서 인식된 제1 표식의 면적 보다 넓은 경우, 제1 스캔 데이터의 크기는 축소될 수 있고, 제1 설계 데이터에서 확인된 제1 표식의 면적이 제1 스캔 데이터에서 인식된 제1 표식의 면적 보다 좁은 경우, 제1 스캔 데이터의 크기는 확대될 수 있다.
제1 스캔 데이터의 크기가 변경되면, 도 4의 (b)에 도시된 바와 같이, 제1 설계 데이터에서 확인된 제1 표식의 면적과 제1 스캔 데이터에서 인식된 제1 표식의 면적은 동일해질 수 있으며, 이를 통해, 제1 설계 데이터의 크기와 제2 스캔 데이터의 크기를 일치시킬 수 있다.
S207 단계에서, 장치(200)는 제1 설계 데이터 및 제1 스캔 데이터를 병합하여 병합 데이터를 생성할 수 있다. 이때, 장치(200)는 제1 설계 데이터와 제1 스캔 데이터를 중첩하여, 하나로 병합된 병합 데이터를 생성할 수 있다.
장치(200)는 병합 데이터가 생성되면, 생성된 병합 데이터를 관리자 단말로 제공하여, 관리자 단말의 화면에서 병합 데이터가 표시되도록 제어할 수 있다. 이를 위해, 관리자 단말은 장치(200)와 유무선으로 통신하도록 구성될 수 있다.
S208 단계에서, 장치(200)는 병합 데이터에 기초하여, 제1 구조물의 설계와 시공 간에 오차가 있는지 여부를 분석할 수 있다.
구체적으로, 장치(200)는 병합 데이터에 기초하여, 제1 설계 데이터와 제1 스캔 데이터 간에 오차 범위를 벗어나 일치하지 않는 영역이 있는지 확인할 수 있으며, 제1 설계 데이터와 제1 스캔 데이터 간에 일치하지 않는 영역이 있는 것으로 확인되면, 확인된 영역을 제1 구조물의 설계와 시공 간에 오차가 있는 영역으로 분석할 수 있다.
제1 구조물의 설계와 시공 간에 오차가 있는 영역과 오차가 없는 영역은 서로 상이한 색으로 표시될 수 있으며, 이와 관련된 자세한 설명은 도 5 내지 도 6을 참조하여 후술하기로 한다
도 5는 일실시예에 따른 오차가 있는 영역과 오차가 없는 영역을 구분하여 상이한 색으로 표시하는 과정을 설명하기 위한 순서도이고, 도 6은 일실시예에 따른 오차가 있는 영역과 오차가 없는 영역이 상이한 색으로 표시된 병합 데이터를 도시한 도면이다.
도 5를 참조하면, 먼저, S501 단계에서, 장치(200)는 병합 데이터에 기초하여, 제1 구조물의 설계와 시공 간에 오차가 있는지 여부를 분석한 결과, 제1 구조물의 설계와 시공 간에 오차가 있는 것으로 분석할 수 있다.
S502 단계에서, 장치(200)는 제1 구조물의 설계와 시공 간에 오차가 있는 것으로 분석되면, 제1 구조물의 설계와 시공 간에 오차가 없는 영역을 제1 영역으로 구분하고, 제1 구조물의 설계와 시공 간에 오차가 있는 영역을 제2 영역으로 구분할 수 있다.
S503 단계에서, 장치(200)는 병합 데이터가 관리자 단말의 화면에서 표시될 때, 제1 영역이 제1 색상으로 표시되도록 제어하고, 제2 영역이 제2 색상으로 표시되도록 제어할 수 있다.
구체적으로, 제1 설계 데이터와 제1 스캔 데이터를 병합하여 생성된 병합 데이터는 제1 설계 데이터와 제1 스캔 데이터 간에 일치하는 영역이 제1 영역으로 구분될 수 있고, 제1 설계 데이터와 제1 스캔 데이터 간에 일치하지 않는 영역이 제2 영역으로 구분될 수 있다.
즉, 장치(200)는 병합 데이터를 분석한 결과, 제1 설계 데이터와 제1 스캔 데이터 간에 일치하는 영역을 오차가 없는 영역으로 판단하여 제1 영역으로 구분할 수 있고, 제1 설계 데이터와 제1 스캔 데이터 간에 일치하지 않는 영역을 오차가 있는 영역으로 판단하여 제2 영역으로 구분할 수 있다.
이후, 장치(200)는 병합 데이터가 관리자 단말의 화면에서 표시될 때, 제1 영역과 제2 영역이 서로 상이한 색으로 표시되도록 제어할 수 있으며, 예를 들어, 도 6에 도시된 바와 같이, 제1 영역은 제1 색상으로 표시될 수 있고, 제2 영역은 제2 색상으로 표시될 수 있다.
제2 영역은 설계와 시공 간의 오차 종류에 따라 상이한 색으로 표시될 수 있으며, 이와 관련된 자세한 설명은 도 7을 참조하여 후술하기로 한다.
도 7은 일실시예에 따른 설계와 시공 간의 오차 종류에 따라 오차가 있는 영역이 상이한 색으로 표시되는 과정을 설명하기 위한 도면이다.
먼저, 장치(200)는 제1 구조물의 설계와 시공 간에 오차가 있는 것으로 분석되면, 제1 설계 데이터 상에서 물체가 있는 공간으로 확인되고 제1 스캔 데이터 상에서 빈 공간으로 확인되는 영역을 제2-1 영역으로 구분하고, 제1 설계 데이터 상에서 빈 공간으로 확인되고 제1 스캔 데이터 상에서 물체가 있는 공간으로 확인되는 영역을 제2-2 영역으로 구분할 수 있다.
구체적으로, 장치(200)는 제1 설계 데이터를 기반으로 시공 예정인 제1 구조물의 3D 이미지를 확인할 수 있고, 제1 스캔 데이터를 기반으로 시공을 통해 실제로 구현된 제1 구조물의 3D 이미지를 확인할 수 있고, 제1 설계 데이터와 제1 스캔 데이터를 비교하여, 제1 구조물의 설계와 제1 구조물의 시공 간에 오차가 있는지 여부를 분석할 수 있다.
장치(200)는 제1 설계 데이터와 제1 스캔 데이터 간에 일치하는 영역을 오차가 없는 영역으로 판단하여 제1 영역으로 구분할 수 있고, 제1 설계 데이터와 제1 스캔 데이터 간에 일치하지 않는 영역을 오차가 있는 영역으로 판단하여 제2 영역으로 구분할 수 있는데, 제2 영역을 구분할 때, 제1 설계 데이터 상에서 물체가 있는 공간으로 확인되고 제1 스캔 데이터 상에서 빈 공간으로 확인되는 영역을 제2-1 영역으로 구분할 수 있고, 제1 설계 데이터 상에서 빈 공간으로 확인되고 제1 스캔 데이터 상에서 물체가 있는 공간으로 확인되는 영역을 제2-2 영역으로 구분할 수 있다.
즉, 제1 구조물의 설계 시 물체가 있는 공간으로 설정되었으나 실제 시공을 통해 구현된 제1 구조물에서 빈 공간으로 확인되는 영역을 제2-1 영역으로 구분하고, 제1 구조물의 설계 시 빈 공간으로 설정되었으나 실제 시공을 통해 구현된 제1 구조물에서 물체가 있는 공간으로 확인되는 영역을 제2-2 영역으로 구분할 수 있다.
이후, 장치(200)는 병합 데이터가 관리자 단말의 화면에서 표시될 때, 제2-1 영역과 제2-1 영역이 서로 상이한 색으로 표시되도록 제어할 수 있다. 예를 들어, 도 7의 (a)에 도시된 바와 같이, 제1 영역은 제1 색상으로 표시될 수 있고, 제2-1 영역은 제2 색상으로 표시될 수 있으며, 도 7의 (b)에 도시된 바와 같이, 제1 영역은 제1 색상으로 표시될 수 있고, 제2-2 영역은 제3 색상으로 표시될 수 있다.
즉, 장치(200)는 병합 데이터가 관리자 단말의 화면에서 표시될 때, 제2-1 영역이 제2 색상으로 표시되도록 제어하고, 제2-2 영역이 제3 색상으로 표시되도록 제어할 수 있다.
도 8은 일실시예에 따른 제2-1 영역을 오차 크기에 따라 상이한 채도로 표시하는 과정을 설명하기 위한 순서도이다.
도 8을 참조하면, 먼저, S801 단계에서, 장치(200)는 제2-1 영역을 오차값의 크기에 따라 구역 별로 분류할 수 있다.
예를 들어, 제2-1 영역은 제1 구조물의 높이 별로 오차값이 상이할 수 있으며, 오차값이 1cm인 구역을 1구역으로 분류하고, 오차값이 2cm인 구역을 2구역으로 분류하고, 오차값이 3cm인 구역을 3구역으로 분류할 수 있다. 이때, 오차값은 반올림으로 산출될 수 있으며, 반올림한 오차값이 0cm이면 오차가 없는 제1 영역으로 구분될 수 있고, 반올림한 오차값이 1cm이면 1구역으로 분류될 수 있고, 반올림한 오차값이 2cm이면 2구역으로 분류될 수 있고, 반올림한 오차값이 3cm이면 3구역으로 분류될 수 있다.
S802 단계에서, 장치(200)는 오차값이 제1 수치인 구역이 제1 구역으로 분류된 것을 확인할 수 있다.
예를 들어, 제2-1 영역 내에서 오차값이 1cm인 구역이 1구역으로 분류되고, 오차값이 2cm인 구역이 2구역으로 분류되고, 오차값이 3cm인 구역이 3구역으로 분류된 경우, 장치(200)는 제1 수치가 1로 설정되면, 1구역을 제1 구역으로 확인할 수 있고, 제1 수치가 2로 설정되면, 2구역을 제1 구역으로 확인할 수 있고, 제1 수치가 3으로 설정되면, 3구역을 제1 구역으로 확인할 수 있다.
S803 단계에서, 장치(200)는 오차값이 제1 수치인 구역이 제1 구역으로 분류되면, 제1 수치가 클수록 제2 색상의 채도를 높은 등급으로 설정할 수 있다. 이때, 제2 색상은 채도의 등급이 높을수록 더 선명한 색으로 표시될 수 있으며, 예를 들면, 제2 색상의 채도는 1등급일 때 보다 2등급일 때 더 선명하게 표시될 수 있다.
예를 들어, 장치(200)는 제1 수치가 1로 설정된 경우, 제2 색상의 채도를 1등급으로 설정할 수 있고, 제1 수치가 2로 설정된 경우, 제2 색상의 채도를 2등급으로 설정할 수 있고, 제1 수치가 3으로 설정된 경우, 제2 색상의 채도를 3등급으로 설정할 수 있다.
S804 단계에서, 장치(200)는 제1 수치를 통해 제2 색상의 채도가 제1 등급으로 설정된 것을 확인할 수 있다.
예를 들어, 장치(200)는 제1 수치가 1로 설정되어 제2 색상의 채도가 1등급으로 설정되면, 1등급을 제1 등급으로 확인할 수 있고, 제1 수치가 2로 설정되어 제2 색상의 채도가 2등급으로 설정되면, 2등급을 제1 등급으로 확인할 수 있고, 제1 수치가 3으로 설정되어 제2 색상의 채도가 3등급으로 설정되면, 3등급을 제1 등급으로 확인할 수 있다.
S805 단계에서, 장치(200)는 제1 수치를 통해 제2 색상의 채도가 제1 등급으로 설정되면, 제1 구역이 제1 등급의 채도로 설정된 제2 색상으로 표시되도록 제어할 수 있다.
예를 들어, 장치(200)는 제1 수치가 1로 설정되어 제2 색상의 채도가 1등급으로 설정되면, 제1 구역이 1등급의 채도로 설정된 제2 색상으로 표시되도록 제어할 수 있고, 제1 수치가 2로 설정되어 제2 색상의 채도가 2등급으로 설정되면, 제1 구역이 2등급의 채도로 설정된 제2 색상으로 표시되도록 제어할 수 있고, 제1 수치가 3으로 설정되어 제2 색상의 채도가 3등급으로 설정되면, 제1 구역이 3등급의 채도로 설정된 제2 색상으로 표시되도록 제어할 수 있다.
즉, 장치(200)는 제2-1 영역이 제2 색상으로 표시될 때, 제2-1 영역 내에서 오차값이 클수록 더 높은 등급의 채도로 표시되도록 처리하여, 오차값이 큰 구역이 더 선명한 제2 색상으로 표시될 수 있다.
도 9는 일실시예에 따른 제2-2 영역을 오차 크기에 따라 상이한 채도로 표시하는 과정을 설명하기 위한 순서도이다.
도 9를 참조하면, 먼저, S901 단계에서, 장치(200)는 제2-2 영역을 오차값의 크기에 따라 구역 별로 분류할 수 있다.
예를 들어, 제2-2 영역은 제1 구조물의 높이 별로 오차값이 상이할 수 있으며, 오차값이 1cm인 구역을 1구역으로 분류하고, 오차값이 2cm인 구역을 2구역으로 분류하고, 오차값이 3cm인 구역을 3구역으로 분류할 수 있다. 이때, 오차값은 반올림으로 산출될 수 있으며, 반올림한 오차값이 0cm이면 오차가 없는 제1 영역으로 구분될 수 있고, 반올림한 오차값이 1cm이면 1구역으로 분류될 수 있고, 반올림한 오차값이 2cm이면 2구역으로 분류될 수 있고, 반올림한 오차값이 3cm이면 3구역으로 분류될 수 있다.
S902 단계에서, 장치(200)는 오차값이 제2 수치인 구역이 제2 구역으로 분류된 것을 확인할 수 있다.
예를 들어, 제2-2 영역 내에서 오차값이 1cm인 구역이 1구역으로 분류되고, 오차값이 2cm인 구역이 2구역으로 분류되고, 오차값이 3cm인 구역이 3구역으로 분류된 경우, 장치(200)는 제2 수치가 1로 설정되면, 1구역을 제2 구역으로 확인할 수 있고, 제2 수치가 2로 설정되면, 2구역을 제2 구역으로 확인할 수 있고, 제2 수치가 3으로 설정되면, 3구역을 제2 구역으로 확인할 수 있다.
S903 단계에서, 장치(200)는 오차값이 제2 수치인 구역이 제2 구역으로 분류되면, 제2 수치가 클수록 제3 색상의 채도를 높은 등급으로 설정할 수 있다. 이때, 제3 색상은 채도의 등급이 높을수록 더 선명한 색으로 표시될 수 있으며, 예를 들면, 제3 색상의 채도는 1등급일 때 보다 2등급일 때 더 선명하게 표시될 수 있다.
예를 들어, 장치(200)는 제2 수치가 1로 설정된 경우, 제3 색상의 채도를 1등급으로 설정할 수 있고, 제2 수치가 2로 설정된 경우, 제3 색상의 채도를 2등급으로 설정할 수 있고, 제2 수치가 3으로 설정된 경우, 제3 색상의 채도를 3등급으로 설정할 수 있다.
S904 단계에서, 장치(200)는 제2 수치를 통해 제3 색상의 채도가 제2 등급으로 설정된 것을 확인할 수 있다.
예를 들어, 장치(200)는 제2 수치가 1로 설정되어 제3 색상의 채도가 1등급으로 설정되면, 1등급을 제2 등급으로 확인할 수 있고, 제2 수치가 2로 설정되어 제3 색상의 채도가 2등급으로 설정되면, 2등급을 제2 등급으로 확인할 수 있고, 제2 수치가 3으로 설정되어 제3 색상의 채도가 3등급으로 설정되면, 3등급을 제2 등급으로 확인할 수 있다.
S905 단계에서, 장치(200)는 제2 수치를 통해 제3 색상의 채도가 제2 등급으로 설정되면, 제2 구역이 제2 등급의 채도로 설정된 제3 색상으로 표시되도록 제어할 수 있다.
예를 들어, 장치(200)는 제2 수치가 1로 설정되어 제3 색상의 채도가 1등급으로 설정되면, 제2 구역이 1등급의 채도로 설정된 제3 색상으로 표시되도록 제어할 수 있고, 제2 수치가 2로 설정되어 제3 색상의 채도가 2등급으로 설정되면, 제2 구역이 2등급의 채도로 설정된 제3 색상으로 표시되도록 제어할 수 있고, 제2 수치가 3으로 설정되어 제3 색상의 채도가 3등급으로 설정되면, 제2 구역이 3등급의 채도로 설정된 제3 색상으로 표시되도록 제어할 수 있다.
즉, 장치(200)는 제2-2 영역이 제3 색상으로 표시될 때, 제2-2 영역 내에서 오차값이 클수록 더 높은 등급의 채도로 표시되도록 처리하여, 오차값이 큰 구역이 더 선명한 제3 색상으로 표시될 수 있다.
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
도 10은 일실시예에 따른 장치의 구성의 예시도이다.
일실시예에 따른 장치(200)는 프로세서(210) 및 메모리(220)를 포함한다. 프로세서(210)는 도 1 내지 도 9를 참조하여 전술된 적어도 하나의 장치들을 포함하거나, 도 1 내지 도 9를 참조하여 전술된 적어도 하나의 방법을 수행할 수 있다. 장치(200)를 이용하는 자 또는 단체는 도 1 내지 도 9를 참조하여 전술된 방법들 일부 또는 전부와 관련된 서비스를 제공할 수 있다.
메모리(220)는 전술된 방법들과 관련된 정보를 저장하거나 후술되는 방법들이 구현된 프로그램을 저장할 수 있다. 메모리(220)는 휘발성 메모리 또는 비휘발성 메모리일 수 있다.
프로세서(210)는 프로그램을 실행하고, 장치(200)를 제어할 수 있다. 프로세서(210)에 의하여 실행되는 프로그램의 코드는 메모리(220)에 저장될 수 있다. 장치(200)는 입출력 장치(도면 미 표시)를 통하여 외부 장치(예를 들어, 퍼스널 컴퓨터 또는 네트워크)에 연결되고, 유무선 통신을 통해 데이터를 교환할 수 있다.
장치(200)는 인공 신경망을 학습시키거나, 학습된 인공 신경망을 이용하는데 사용될 수 있다. 메모리(220)는 학습 중인 또는 학습된 인공 신경망을 포함할 수 있다. 프로세서(210)는 메모리(220)에 저장된 인공 신경망 알고리즘을 학습시키거나 실행시킬 수 있다. 인공 신경망을 학습시키는 학습 장치와 학습된 인공 신경망을 이용하는 장치(200)는 동일할 수도 있고 개별적일 수도 있다.
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.
Claims (3)
- 장치에 의해 수행되는, 3D 스캐너 기반 시공 오차 검증 방법에 있어서,
제1 구조물에 대해 제1 단계의 시공이 완료된 것으로 확인되면, 상기 제1 구조물의 BIM(Building Information modeling) 데이터에서 상기 제1 단계의 시공 완료 시점에 대한 상기 제1 구조물의 3D 설계 데이터로 등록되어 있는 제1 설계 데이터를 추출하는 단계;
상기 제1 구조물이 3D 스캐너에 의해 스캔되면, 상기 3D 스캐너로부터 상기 제1 구조물을 스캔하여 생성된 3D 스캔 데이터인 제1 스캔 데이터를 획득하는 단계;
상기 제1 설계 데이터에서 기준 표식으로 등록되어 있는 제1 표식을 확인하고, 상기 제1 스캔 데이터에서 상기 제1 표식을 인식하는 단계;
상기 제1 설계 데이터에서 확인된 제1 표식의 위치와 상기 제1 스캔 데이터에서 인식된 제1 표식의 위치를 이용하여, 상기 제1 설계 데이터와 상기 제1 스캔 데이터의 관점 방향을 일치시키는 단계;
상기 제1 설계 데이터에서 확인된 제1 표식의 면적과 상기 제1 스캔 데이터에서 인식된 제1 표식의 면적을 이용하여, 상기 제1 설계 데이터와 상기 제1 스캔 데이터의 크기를 일치시키는 단계;
상기 제1 설계 데이터 및 상기 제1 스캔 데이터를 병합하여 병합 데이터를 생성하는 단계;
상기 병합 데이터에 기초하여, 상기 제1 구조물의 설계와 시공 간에 오차가 있는지 여부를 분석하는 단계;
상기 제1 구조물의 설계와 시공 간에 오차가 있는 것으로 분석되면, 상기 제1 구조물의 설계와 시공 간에 오차가 없는 영역을 제1 영역으로 구분하고, 상기 제1 구조물의 설계와 시공 간에 오차가 있는 영역을 제2 영역으로 구분하는 단계; 및
상기 병합 데이터가 관리자 단말의 화면에서 표시될 때, 상기 제1 영역이 제1 색상으로 표시되도록 제어하고, 상기 제2 영역이 제2 색상으로 표시되도록 제어하는 단계를 포함하고,
상기 제2 영역이 제2 색상으로 표시되도록 제어하는 단계는,
상기 제1 설계 데이터 상에서 물체가 있는 공간으로 확인되고 상기 제1 스캔 데이터 상에서 빈 공간으로 확인되는 영역을 제2-1 영역으로 구분하고, 상기 제1 설계 데이터 상에서 빈 공간으로 확인되고 상기 제1 스캔 데이터 상에서 물체가 있는 공간으로 확인되는 영역을 제2-2 영역으로 구분하는 단계; 및
상기 제2-1 영역이 상기 제2 색상으로 표시되도록 제어하고, 상기 제2-2 영역이 제3 색상으로 표시되도록 제어하는 단계를 포함하고,
상기 제2-1 영역이 상기 제2 색상으로 표시되도록 제어하는 단계는,
상기 제2-1 영역을 오차값의 크기에 따라 구역 별로 분류하는 단계;
상기 제2-1 영역 내에서 오차값이 1cm인 구역이 1구역으로 분류되고 오차값이 2cm인 구역이 2구역으로 분류된 경우, 제1 수치가 1cm로 설정되면 1구역을 제1 구역으로 확인하고, 상기 제1 수치가 2cm로 설정되면 2구역을 상기 제1 구역으로 확인하는 단계;
상기 제1 수치가 1cm로 설정된 경우 상기 제2 색상의 채도를 1등급으로 설정하고 상기 제1 수치가 2cm로 설정된 경우 상기 제2 색상의 채도를 2등급으로 설정하여, 상기 제1 수치가 클수록 상기 제2 색상의 채도를 높은 등급으로 설정하는 단계; 및
상기 제1 수치를 통해 상기 제2 색상의 채도가 제1 등급으로 설정되면, 상기 제1 구역이 상기 제1 등급의 채도로 설정된 제2 색상으로 표시되도록 제어하는 단계를 포함하고,
상기 제2-2 영역이 상기 제3 색상으로 표시되도록 제어하는 단계는,
상기 제2-2 영역을 오차값의 크기에 따라 구역 별로 분류하는 단계;
상기 제2-2 영역 내에서 오차값이 1cm인 구역이 1구역으로 분류되고 오차값이 2cm인 구역이 2구역으로 분류된 경우, 제2 수치가 1cm로 설정되면 1구역을 제2 구역으로 확인하고, 상기 제2 수치가 2cm로 설정되면 2구역을 상기 제2 구역으로 확인하는 단계;
상기 제2 수치가 1cm로 설정된 경우 상기 제3 색상의 채도를 1등급으로 설정하고 상기 제2 수치가 2cm로 설정된 경우 상기 제3 색상의 채도를 2등급으로 설정하여, 상기 제2 수치가 클수록 상기 제3 색상의 채도를 높은 등급으로 설정하는 단계; 및
상기 제3 색상의 채도가 제2 등급으로 설정되면, 상기 제2 구역이 상기 제2 등급의 채도로 설정된 제3 색상으로 표시되도록 제어하는 단계를 포함하는,
3D 스캐너 기반 시공 오차 검증 방법. - 삭제
- 삭제
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020230019247A KR102640618B1 (ko) | 2023-02-14 | 2023-02-14 | 3d 스캐너 기반 시공 오차 검증 방법, 장치 및 시스템 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020230019247A KR102640618B1 (ko) | 2023-02-14 | 2023-02-14 | 3d 스캐너 기반 시공 오차 검증 방법, 장치 및 시스템 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102640618B1 true KR102640618B1 (ko) | 2024-02-27 |
Family
ID=90058491
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020230019247A KR102640618B1 (ko) | 2023-02-14 | 2023-02-14 | 3d 스캐너 기반 시공 오차 검증 방법, 장치 및 시스템 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102640618B1 (ko) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101370989B1 (ko) | 2012-06-13 | 2014-03-07 | 주식회사 동성엔지니어링 | 3차원 스캔 데이터를 이용한 시공 오차 분석 방법 |
JP2014153819A (ja) * | 2013-02-06 | 2014-08-25 | Ohbayashi Corp | 部材設置判定システム |
KR20160112045A (ko) * | 2015-03-17 | 2016-09-28 | 대우조선해양 주식회사 | 정도 분석 시뮬레이션 결과를 이용한 정도 품질 평가 시스템 |
KR20180131471A (ko) | 2017-05-30 | 2018-12-10 | 주식회사 위메이드아이앤씨 | 3d 스캐닝과 bim을 이용한 시공 오차 통합 관리 장치 및 그 방법 |
KR102307808B1 (ko) | 2020-03-10 | 2021-10-01 | 김덕호 | 시공 오차 관리 시스템 및 시공 오차 관리 방법 |
KR102432164B1 (ko) * | 2021-06-23 | 2022-08-12 | 김형찬 | 3dbim 기반 ar 검토 및 형상을 이용한 현장 검증 서비스 제공 시스템 |
KR20220158121A (ko) | 2021-05-20 | 2022-11-30 | 주식회사 엔가드 | 3차원 스캐닝에 기반한 시공 모니터링 방법 및 장치 |
-
2023
- 2023-02-14 KR KR1020230019247A patent/KR102640618B1/ko active IP Right Grant
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101370989B1 (ko) | 2012-06-13 | 2014-03-07 | 주식회사 동성엔지니어링 | 3차원 스캔 데이터를 이용한 시공 오차 분석 방법 |
JP2014153819A (ja) * | 2013-02-06 | 2014-08-25 | Ohbayashi Corp | 部材設置判定システム |
KR20160112045A (ko) * | 2015-03-17 | 2016-09-28 | 대우조선해양 주식회사 | 정도 분석 시뮬레이션 결과를 이용한 정도 품질 평가 시스템 |
KR20180131471A (ko) | 2017-05-30 | 2018-12-10 | 주식회사 위메이드아이앤씨 | 3d 스캐닝과 bim을 이용한 시공 오차 통합 관리 장치 및 그 방법 |
KR102307808B1 (ko) | 2020-03-10 | 2021-10-01 | 김덕호 | 시공 오차 관리 시스템 및 시공 오차 관리 방법 |
KR20220158121A (ko) | 2021-05-20 | 2022-11-30 | 주식회사 엔가드 | 3차원 스캐닝에 기반한 시공 모니터링 방법 및 장치 |
KR102432164B1 (ko) * | 2021-06-23 | 2022-08-12 | 김형찬 | 3dbim 기반 ar 검토 및 형상을 이용한 현장 검증 서비스 제공 시스템 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11816907B2 (en) | Systems and methods for extracting information about objects from scene information | |
Chen et al. | Principal axes descriptor for automated construction-equipment classification from point clouds | |
KR102615196B1 (ko) | 객체 검출 모델 트레이닝 장치 및 방법 | |
Smith et al. | Distributed inference-based multi-robot exploration | |
Patten et al. | Viewpoint evaluation for online 3-D active object classification | |
KR102699826B1 (ko) | 재질 인식 및 재질 트레이닝을 수행하는 방법 및 장치 | |
US11436755B2 (en) | Real-time pose estimation for unseen objects | |
KR20220035170A (ko) | 교차-모드 센서 데이터 정렬 | |
Agapaki et al. | CLOI: an automated benchmark framework for generating geometric digital twins of industrial facilities | |
KR102547190B1 (ko) | 인공 신경망을 이용한 유동 해석 방법 | |
Będkowski et al. | Intelligent mobile system for improving spatial design support and security inside buildings | |
KR102640618B1 (ko) | 3d 스캐너 기반 시공 오차 검증 방법, 장치 및 시스템 | |
KR20240084845A (ko) | 2d시멘틱맵 및 객체모델링을 이용한 물류창고에 대한 디지털트윈을 구현하는 방법 및 시스템 | |
Delgado-Galvan et al. | Vision-based humanoid robot navigation in a featureless environment | |
Tas et al. | High-definition map update framework for intelligent autonomous transfer vehicles | |
CN118302111A (zh) | 用于皮肤处理的身体部位测量的方法和系统 | |
Asmar et al. | Automated building and evaluation of 2D as-built floor plans | |
Kumar et al. | Situational Intelligence-Based Vehicle Trajectory Prediction in an Unstructured Off-Road Environment | |
Hong et al. | Design and Implementation of Path Planning for Wheel‐Track Hybrid Mobile Robot | |
Tomita et al. | Consensus-making algorithms for cognitive sharing of object in multi-robot systems | |
Chakrabarty et al. | Q-learning elicited disaster management system using intelligent mapping approach | |
KR102654087B1 (ko) | 이동체를 이용한 점군 데이터 수집 및 딥러닝 기반 3차원 모델링 형성 시스템 및 모델링 형성 방법 | |
Chuang et al. | Investigation of SIFT and ORB descriptors for Indoor Maps Fusion for the Multi-agent mobile robots | |
US20230419650A1 (en) | Image localization using a digital twin representation of an environment | |
EP4310779A1 (en) | Segmenting a building scene |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
GRNT | Written decision to grant |