KR20240028081A - Smart Quality Control System of Construction Sites using Augmented Reality - Google Patents

Smart Quality Control System of Construction Sites using Augmented Reality Download PDF

Info

Publication number
KR20240028081A
KR20240028081A KR1020220106156A KR20220106156A KR20240028081A KR 20240028081 A KR20240028081 A KR 20240028081A KR 1020220106156 A KR1020220106156 A KR 1020220106156A KR 20220106156 A KR20220106156 A KR 20220106156A KR 20240028081 A KR20240028081 A KR 20240028081A
Authority
KR
South Korea
Prior art keywords
information
construction site
digital twin
scanning
data
Prior art date
Application number
KR1020220106156A
Other languages
Korean (ko)
Inventor
이현기
이기홍
Original Assignee
(주)브리콘랩
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)브리콘랩 filed Critical (주)브리콘랩
Priority to KR1020220106156A priority Critical patent/KR20240028081A/en
Publication of KR20240028081A publication Critical patent/KR20240028081A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/08Construction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/006Inverse problem, transformation from projection-space into object-space, e.g. transform methods, back-projection, algebraic methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Software Systems (AREA)
  • Tourism & Hospitality (AREA)
  • Computer Graphics (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Geometry (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Algebra (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Processing Or Creating Images (AREA)

Abstract

증강현실 기반 건설 현장의 스마트 품질 관리 시스템은 디지털 트윈 및 AR 기술 기반으로 건설 현장의 공정 상태 및 품질을 확인하고 정보 전달을 쉽게 할 수 있는 신개념 품질 관리 플랫폼을 제공할 수 있다.
본 발명은 디지털 트윈 및 AR 기술 기반으로 건설 현장의 스마트 공정 및 품질 관리를 위한 플랫폼을 제공하여 대규모 건설 현장의 흐마트 품질 관리 및 공정 관리를 빠르고 정확하게 지원할 수 있는 효과가 있다.
본 발명은 플랫폼의 실시간 상호 대응으로 효율적인 공정 관리가 가능하고, 건설 현장의 중대 하자, 결합, 손실 비용, 소요 비용 절감 등 경제성을 크게 향상시킬 수 있는 효과가 있다.
The smart quality management system at the construction site based on augmented reality can provide a new concept quality management platform that can check the process status and quality of the construction site and easily convey information based on digital twin and AR technology.
The present invention provides a platform for smart process and quality management at construction sites based on digital twin and AR technology, which has the effect of quickly and accurately supporting HMAT quality control and process management at large-scale construction sites.
The present invention enables efficient process management through real-time interaction between platforms, and has the effect of significantly improving economic efficiency, such as reducing major defects, combinations, loss costs, and required costs at construction sites.

Description

증강현실 기반 건설 현장의 스마트 품질 관리 시스템{Smart Quality Control System of Construction Sites using Augmented Reality}Smart Quality Control System of Construction Sites using Augmented Reality}

본 발명은 건설 현장의 스마트 품질 관리 시스템에 관한 것으로서, 더욱 상세하게는 디지털 트윈 및 AR 기술 기반으로 건설 현장의 공정 상태 및 품질을 확인하고 정보 전달을 쉽게 할 수 있는 신개념 품질 관리 플랫폼을 제공할 수 있는 증강현실 기반 건설 현장의 스마트 품질 관리 시스템에 관한 것이다.The present invention relates to a smart quality management system at a construction site. More specifically, it can provide a new concept quality management platform that can check the process status and quality of a construction site and easily transmit information based on digital twin and AR technology. This is about a smart quality management system at construction sites based on augmented reality.

건설 현장은 건축법이 정하는 바에 의하여 건축물, 건축설비 또는 공작물이 설계도서의 내용대로 시공되는지를 확인하고 품질관리, 공사관리 및 안전관리 등에 대하여 지도 감독하는 감리가 요구된다.At construction sites, supervision is required to ensure that buildings, building facilities, or structures are constructed according to the design documents and to supervise quality control, construction management, and safety management in accordance with the Building Act.

최근에는 건설 산업의 여러 분야에서 4차 산업 혁명에 따라 건설 공사의 생산성 향상, 품질관리, 안전을 제고하기 위해 스마트 건설 기술을 도입하고 있다.Recently, smart construction technology has been introduced in various fields of the construction industry to improve productivity, quality control, and safety of construction work in accordance with the 4th Industrial Revolution.

우리나라 건설은 생산성이 낮고, 건설 인력은 고령화와 숙련공의 감소가 빠르게 진행되고 있으며, 건설 기술의 디지털화와 자동화가 필요한 실정이다.Our country's construction has low productivity, the construction workforce is aging and the number of skilled workers is rapidly decreasing, and there is a need for digitalization and automation of construction technology.

이와 같은 건설 상황의 변화에서 건설 회사들은 품질 관리 등의 분야에서 빠르게 자동화 및 디지털화를 추진하고 있다.In response to these changes in the construction situation, construction companies are rapidly pursuing automation and digitalization in areas such as quality management.

대규모 건설 현장의 경우, 건설 공정 및 품질 상태 등 모든 정보(위치, 상태 등)에 대하여 작업자가 일일이 확인이 어려운 문제점이 있다. 건설 현장에서는 품질 관리자의 부족과, 2D 도면 기반에 정보 관리의 한계가 있다.In the case of large-scale construction sites, there is a problem that it is difficult for workers to individually check all information (location, status, etc.), including the construction process and quality status. At construction sites, there is a lack of quality managers and limitations in information management based on 2D drawings.

한국 등록특허번호 제10-2402845호Korean Patent No. 10-2402845

이와 같은 문제점을 해결하기 위하여, 본 발명은 디지털 트윈 및 AR 기술 기반으로 건설 현장의 공정 상태 및 품질을 확인하고 정보 전달을 쉽게 할 수 있는 신개념 품질 관리 플랫폼을 제공할 수 있는 증강현실 기반 건설 현장의 스마트 품질 관리 시스템을 제공하는데 그 목적이 있다.In order to solve this problem, the present invention is an augmented reality-based construction site that can provide a new concept quality management platform that can check the process status and quality of the construction site and facilitate information transfer based on digital twin and AR technology. The purpose is to provide a smart quality management system.

상기 목적을 달성하기 위한 본 발명의 특징에 따른 증강현실 기반 건설 현장의 스마트 품질 관리 시스템은,The smart quality management system for augmented reality-based construction sites according to the characteristics of the present invention to achieve the above purpose is,

레이저 거리 측정기를 이용하여 건설 현장의 내부나 외부에 스캐닝 경로를 따라 3D 스캐닝을 수행하여 3D 스캐닝 데이터를 생성하고, 상기 3D 스캐닝 데이터에 대해서 미리 설정된 3D 좌표(x,y,z) 별로 포인트화를 수행한 뒤, 포인트화된 3D 스캐닝 데이터인 3차원 포인트 클라우드 데이터를 라벨링하는 3D 스캐닝 장치;Using a laser distance meter, 3D scanning is performed along the scanning path inside or outside the construction site to generate 3D scanning data, and the 3D scanning data is converted into points by preset 3D coordinates (x, y, z). A 3D scanning device that labels 3D point cloud data, which is pointized 3D scanning data;

상기 3D 스캐닝부에서 스캐닝한 동일한 스캐닝 경로를 따라 동영상 형태로 건설 현장의 내부와 외부를 촬영하여 동영상 정보를 획득하고, 동영상 정보인 3D 영상 프레임을 스캐닝 경로 상의 구간 전환마다 해당 구간의 정지 영상을 2D 영상 프레임으로 각각 변환하는 동영상 처리 장치;Video information is obtained by filming the interior and exterior of the construction site in video form along the same scanning path scanned by the 3D scanning unit, and a 3D video frame, which is video information, is converted into a 2D still image of the section at each section change on the scanning path. A video processing device that converts each video frame into video frames;

물리적 공간의 실제 객체인 건설 현장의 자재 정보, 도면 정보 및 장비의 매뉴얼 정보, 현장 뷰 데이터를 적어도 하나 이상을 포함한 건설 현장 데이터를 데이터베이스화 하여 저장하는 건설 현장 이력 데이터베이스부; 및A construction site history database unit that stores construction site data in a database, including at least one of construction site material information, drawing information, equipment manual information, and site view data, which are actual objects in physical space; and

상기 동영상 처리 장치에서 수신한 2D 영상 프레임과, 상기 3D 스캐닝 장치에서 수신한 3차원 포인트 클라우드 데이터의 3D 좌표 매칭을 통해 포인트 클라우드 데이터 상으로 오버랩된 3D 영상 정보를 생성하고, 상기 오버랩된 3D 영상 정보와 상기 건설 현장 데이터를 이용하여 3차원 디지털 트윈을 생성하는 디지털 트윈 플랫폼을 포함한다.Generating 3D image information overlapped on point cloud data through 3D coordinate matching between 2D image frames received from the video processing device and 3D point cloud data received from the 3D scanning device, and generating the overlapped 3D image information and a digital twin platform that generates a 3D digital twin using the construction site data.

디지털 트윈 플랫폼은 증강 현실(Augmented Reality, AR) 환경을 구현하기 위하여 상기 3차원 디지털 트윈의 3차원 가상 공간의 가상 좌표에 매칭시켜 가상 콘텐츠 데이터로 저장되는 가상 콘텐츠 데이터베이스부를 더 포함하고, 현장 영상 또는/및 현장 유저의 촬영 영상에 기초하여 현장의 물리적 공간에 대응되는 상기 가상 컨텐츠 데이터를 생성하는 인터페이스를 상기 사용자 단말기로 제공한다.The digital twin platform further includes a virtual content database unit that stores virtual content data by matching the virtual coordinates of the 3D virtual space of the 3D digital twin to implement an Augmented Reality (AR) environment, and provides on-site video or /And providing an interface for generating the virtual content data corresponding to the physical space of the field based on the captured image of the field user to the user terminal.

전술한 구성에 의하여, 본 발명은 디지털 트윈 및 AR 기술 기반으로 건설 현장의 스마트 공정 및 품질 관리를 위한 플랫폼을 제공하여 대규모 건설 현장의 스마트 품질 관리 및 공정 관리를 빠르고 정확하게 지원할 수 있는 효과가 있다.With the above-described configuration, the present invention provides a platform for smart process and quality management at construction sites based on digital twin and AR technology, which has the effect of quickly and accurately supporting smart quality management and process management at large-scale construction sites.

본 발명은 플랫폼의 실시간 상호 대응으로 효율적인 공정 관리가 가능하고, 건설 현장의 중대 하자, 결합, 손실 비용, 소요 비용 절감 등 경제성을 크게 향상시킬 수 있는 효과가 있다.The present invention enables efficient process management through real-time interaction between platforms, and has the effect of significantly improving economic efficiency, such as reducing major defects, combinations, loss costs, and required costs at construction sites.

도 1은 본 발명의 실시예에 따른 증강현실 기반 건설 현장의 스마트 품질 관리 시스템의 구성을 나타낸 도면이다.
도 2는 본 발명의 실시예에 따른 3D 스캐닝 장치의 내부 구성을 간략하게 나타낸 블록도이다.
도 3은 본 발명의 실시예에 따른 동영상 처리 장치의 내부 구성을 간략하게 나타낸 블록도이다.
도 4는 본 발명의 실시예에 따른 드론 장치의 구성을 나타낸 도면이다.
도 5는 본 발명의 실시예에 따른 디지털 트윈 플랫폼의 내부 구성을 간략하게 나타낸 블록도이다.
도 6은 본 발명의 실시예에 따른 건설 현장의 스마트 공정 및 품질 관리를 위한 데이터 흐름도를 나타낸 도면이다.
도 7은 본 발명의 실시예에 따른 위치 정보를 기반으로 하는 AR 내비게이션과 품질 상태 정보를 볼 수 있는 AR 상태 정보의 시각화 모습을 나타낸 도면이다.
Figure 1 is a diagram showing the configuration of an augmented reality-based smart quality management system at a construction site according to an embodiment of the present invention.
Figure 2 is a block diagram briefly showing the internal configuration of a 3D scanning device according to an embodiment of the present invention.
Figure 3 is a block diagram briefly showing the internal configuration of a video processing device according to an embodiment of the present invention.
Figure 4 is a diagram showing the configuration of a drone device according to an embodiment of the present invention.
Figure 5 is a block diagram briefly showing the internal configuration of a digital twin platform according to an embodiment of the present invention.
Figure 6 is a diagram showing a data flow diagram for smart process and quality control at a construction site according to an embodiment of the present invention.
Figure 7 is a diagram showing the visualization of AR navigation based on location information and AR status information where quality status information can be viewed according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.Since the present invention can make various changes and have various embodiments, specific embodiments will be illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all changes, equivalents, and substitutes included in the spirit and technical scope of the present invention. While describing each drawing, similar reference numerals are used for similar components.

제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는 데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. "및/또는"이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first, second, A, B, etc. may be used to describe various components, but the components should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, a first component may be named a second component, and similarly, the second component may also be named a first component without departing from the scope of the present invention. The term “and/or” includes any of a plurality of related stated items or a combination of a plurality of related stated items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is said to be "connected" or "connected" to another component, it is understood that it may be directly connected to or connected to the other component, but that other components may exist in between. It should be. On the other hand, when it is mentioned that a component is “directly connected” or “directly connected” to another component, it should be understood that there are no other components in between.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in this application are only used to describe specific embodiments and are not intended to limit the invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, terms such as “comprise” or “have” are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are not intended to indicate the presence of one or more other features. It should be understood that this does not exclude in advance the possibility of the existence or addition of elements, numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by a person of ordinary skill in the technical field to which the present invention pertains. Terms defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and unless explicitly defined in the present application, should not be interpreted in an ideal or excessively formal sense. No.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the attached drawings. In order to facilitate overall understanding when describing the present invention, the same reference numerals are used for the same components in the drawings, and duplicate descriptions for the same components are omitted.

도 1은 본 발명의 실시예에 따른 증강현실 기반 건설 현장의 스마트 품질 관리 시스템의 구성을 나타낸 도면이고, 도 2는 본 발명의 실시예에 따른 3D 스캐닝 장치의 내부 구성을 간략하게 나타낸 블록도이고, 도 3은 본 발명의 실시예에 따른 동영상 처리 장치의 내부 구성을 간략하게 나타낸 블록도이다.Figure 1 is a diagram showing the configuration of a smart quality management system at an augmented reality-based construction site according to an embodiment of the present invention, and Figure 2 is a block diagram briefly showing the internal configuration of a 3D scanning device according to an embodiment of the present invention. , Figure 3 is a block diagram briefly showing the internal configuration of a video processing device according to an embodiment of the present invention.

본 발명의 실시예에 따른 증강현실 기반 건설 현장의 스마트 품질 관리 시스템(100)은 3D 스캐닝 장치(110), 동영상 처리 장치(120), 사용자 단말기(130), 디지털 트윈 플랫폼(140) 및 드론 장치(150)를 포함한다.The smart quality management system 100 for an augmented reality-based construction site according to an embodiment of the present invention includes a 3D scanning device 110, a video processing device 120, a user terminal 130, a digital twin platform 140, and a drone device. Includes (150).

3D 스캐닝 장치(110)는 3D 스캐닝부(111), 스캐닝 데이터 저장부(112), 스캐닝 처리부(113) 및 제1 통신부(114)를 포함한다.The 3D scanning device 110 includes a 3D scanning unit 111, a scanning data storage unit 112, a scanning processing unit 113, and a first communication unit 114.

3D 스캐닝부(111)는 레이저 거리 측정기를 이용하여 건설 현장의 내부나 외부에 스캐닝 경로를 따라 3D 스캐닝을 수행하여 3D 스캐닝 데이터를 생성하여 스캐닝 데이터 저장부(112)에 저장한다. 여기서, 스캐닝 경로는 건설 현장의 내부나 외부에 3D 스캐닝을 수행하는 특정 지점을 설정하고 있다.The 3D scanning unit 111 performs 3D scanning along a scanning path inside or outside the construction site using a laser distance meter to generate 3D scanning data and stores it in the scanning data storage unit 112. Here, the scanning path establishes a specific point inside or outside the construction site where 3D scanning is performed.

3D 스캐닝부(111)는 스캐닝 경로의 특정 지점에서 3D 스캐닝을 수행하여 3D 스캐닝 데이터를 생성하고, 3D 스캐닝 데이터의 생성 시 좌표 정보를 함께 생성하여 스캐닝 데이터 저장부(112)에 저장한다.The 3D scanning unit 111 generates 3D scanning data by performing 3D scanning at a specific point of the scanning path. When generating 3D scanning data, coordinate information is also generated and stored in the scanning data storage unit 112.

레이저 거리 측정기는 구조물인 피사체를 향하여 레이저 광을 출사하고, 피사체로부터 반사된 레이저 광을 수신하여 깊이 정보가 포함된 3D 스캐닝 데이터를 생성한다.A laser range finder emits laser light toward a subject, which is a structure, and receives laser light reflected from the subject to generate 3D scanning data including depth information.

스캐닝 처리부(113)는 전반적인 3D 스캐닝 장치(110)의 동작을 제어하고, 3D 스캐닝부(111), 스캐닝 데이터 저장부(112), 제1 통신부(114)에 전기적으로 연결되어 동작을 제어한다.The scanning processing unit 113 controls the overall operation of the 3D scanning device 110 and is electrically connected to the 3D scanning unit 111, the scanning data storage unit 112, and the first communication unit 114 to control the operation.

스캐닝 처리부(113)는 3D 스캐닝 데이터에 대해서 입체 형상을 이루는 전체 및 부분의 경계선, 평면과 곡면을 포함하는 전체의 형상에 대해서 미리 설정된 3D 좌표(x,y,z) 별로 포인트화를 수행한 뒤, 포인트화된 3D 스캐닝 데이터인 3차원 포인트 클라우드 데이터를 라벨링하여 스캐닝 데이터 저장부(112)에 저장한다.The scanning processing unit 113 points the 3D scanning data by preset 3D coordinates (x, y, z) for the entire shape, including the boundary lines, planes, and curved surfaces of the whole and part of the three-dimensional shape, and then points the 3D scanning data. , 3D point cloud data, which is pointized 3D scanning data, is labeled and stored in the scanning data storage unit 112.

여기서, 3차원 포인트 클라우드는 3차원 좌표계에 속한 복수의 포인트들의 집합일 수 있다. 3차원 좌표계에서 포인트들은 (x좌표, y좌표, z좌표)로 정의될 수 있고, 포인트들 각각은 표현하고자 하는 3차원 객체의 겉면을 따라 분포될 수 있다.Here, the 3D point cloud may be a set of a plurality of points belonging to a 3D coordinate system. In a 3D coordinate system, points can be defined as (x-coordinate, y-coordinate, z-coordinate), and each of the points can be distributed along the surface of the 3D object to be expressed.

포인트 클라우드는 레이저 거리 측정기로부터 조밀하게 방출되어 대상체에서 반사되어 수신기로 돌아온 수 많은 측점군들이 각각 x, y, z의 위치 좌표를 갖게 됨에 따라 중심 좌표계를 기준으로 각 지점에 대한 공간의 거리를 표적 표면에 대한 조밀한 샘플링을 통해 그에 해당하는 3차원 위치를 포함하는 수많은 측점, 즉 점군 형태로 제공되는 정보를 의미하며, 점군 데이터를 3차원 형태로 시각화하면 자유로운 시점 이동이 가능해지고 공간에 대한 측정 정보를 제공할 수 있게 된다.A point cloud is a group of numerous points that are densely emitted from a laser rangefinder, reflected from an object, and returned to the receiver. Each group has x, y, and z position coordinates, so it targets the spatial distance to each point based on the central coordinate system. This refers to information provided in the form of a point cloud, a large number of points containing the corresponding 3D location through dense sampling of the surface. Visualizing the point cloud data in 3D form enables free movement of viewpoints and enables measurement of space. Information can be provided.

스캐닝 처리부(113)는 스캐닝 데이터 저장부(112)에 저장된 3차원 포인트 클라우드 데이터를 제1 통신부(114)를 이용하여 네트워크(101)를 통하여 디지털 트윈 플랫폼(140)으로 전송한다.The scanning processing unit 113 transmits the 3D point cloud data stored in the scanning data storage unit 112 to the digital twin platform 140 through the network 101 using the first communication unit 114.

네트워크(101)는 대용량, 장거리 음성 및 데이터 서비스가 가능한 대형 통신망의 고속 기간 망인 통신망이며, 인터넷(Internet) 또는 고속의 멀티미디어 서비스를 제공하기 위한 차세대 유선 및 무선 망일 수 있다. 네트워크(101)가 이동통신망일 경우 동기식 이동 통신망일 수도 있고, 비동기식 이동 통신망일 수도 있다. 비동기식 이동통신망의 일 실시 예로서, WCDMA(Wideband Code Division Multiple Access) 방식의 통신망을 들 수 있다. 네트워크(101)는 3D 스캐닝 장치(110), 동영상 처리 장치(120), 사용자 단말기(130), 디지털 트윈 플랫폼(140)의 시스템 상호 간의 신호 및 데이터를 상호 전달하는 역할을 한다.The network 101 is a communication network that is a high-speed backbone network of a large communication network capable of high-capacity, long-distance voice and data services, and may be a next-generation wired or wireless network to provide the Internet or high-speed multimedia services. If the network 101 is a mobile communication network, it may be a synchronous mobile communication network or an asynchronous mobile communication network. An example of an asynchronous mobile communication network may be a WCDMA (Wideband Code Division Multiple Access) type communication network. The network 101 serves to transfer signals and data between the systems of the 3D scanning device 110, video processing device 120, user terminal 130, and digital twin platform 140.

도 3에 도시된 바와 같이, 본 발명의 실시예에 따른 동영상 처리 장치(120)는 카메라부(121), 영상 프레임 입력부(122), 제1 프레임 전환부(123), 제2 프레임 전환부(124), 제어부(125), 영상 캡쳐부(126) 및 영상 프레임 저장부(127)를 포함한다.As shown in FIG. 3, the video processing device 120 according to an embodiment of the present invention includes a camera unit 121, an image frame input unit 122, a first frame switching unit 123, and a second frame switching unit ( 124), a control unit 125, an image capture unit 126, and an image frame storage unit 127.

카메라부(121)는 3D 스캐닝부(111)에서 스캐닝한 동일한 스캐닝 경로를 따라 동영상 형태로 건설 현장의 내부와 외부를 촬영한다.The camera unit 121 captures the interior and exterior of the construction site in video format along the same scanning path scanned by the 3D scanning unit 111.

영상 프레임 입력부(122)는 카메라부(121)로부터 건설 현장의 동영상 파일을 입력받아 영상 프레임을 획득한다.The video frame input unit 122 receives a video file of the construction site from the camera unit 121 and obtains a video frame.

제1 프레임 전환부(123)는 각 영상 프레임을 N×N 픽셀(Pixel) 크기로 구성되는 매크로 블록으로 분할하고, 분할한 매크로 블록에 대해서 경계선을 표시하는 흑백 영상으로 변환한다.The first frame conversion unit 123 divides each image frame into macroblocks having a size of N×N pixels and converts the divided macroblocks into a black-and-white image that indicates a boundary line.

제1 프레임 전환부(123)는 복수의 매크로 블록에 대하여 에지 검출 알고리즘을 이용하여 각각의 영상 프레임을 에지 영상으로 변환한다.The first frame conversion unit 123 converts each image frame into an edge image using an edge detection algorithm for a plurality of macro blocks.

에지 검출 알고리즘은 경계선의 픽셀값이 기설정된 기준 픽셀값 이상으로 큰 차이로 발견되는 구간만 에지로 판별하는 것을 의미한다. 다른 실시예로서 에지 검출 알고리즘은 소벨 연산 방법을 이용하여 픽셀 사이의 밝기값의 변화율을 이용하여 에지를 검출할 수 있다.The edge detection algorithm means that only the section in which the pixel value of the boundary line is found to have a larger difference than the preset reference pixel value is identified as an edge. As another embodiment, the edge detection algorithm may detect edges using the rate of change of brightness values between pixels using the Sobel operation method.

제1 프레임 전환부(123)는 각각의 영상 프레임을 16×16 픽셀(Pixel) 크기로 구성되는 매크로 블록으로 분할하고, 분할한 매크로 블록에 대해서 경계선을 표시하는 흑백 영상으로 변환하고, 에지 검출 알고리즘을 이용하여 구간 전환을 검출하기 위해서 1/24초 전에 N-1번째 영상 프레임의 에지 영상과 N번째 영상 프레임의 에지 영상을 생성한다.The first frame conversion unit 123 divides each image frame into macro blocks with a size of 16 × 16 pixels, converts the divided macro blocks into a black and white image indicating a boundary line, and uses an edge detection algorithm. To detect a section transition using , the edge image of the N-1th video frame and the edge image of the Nth video frame are generated 1/24 second ago.

제1 프레임 전환부(123)는 N-1번째 영상 프레임과 N번째 영상 프레임의 같은 위치의 매크로 블록 간의 차분값을 계산하고, 매크로 블록 간의 차분값이 기설정된 제1 임계값보다 작은 경우, 유사 매크로 블록으로 판단하고, 매크로 블록 간의 차분값이 기설정된 제1 임계값(T1)보다 큰 경우, 장면이 다른 매크로 블록으로 판정한다.The first frame switching unit 123 calculates the difference value between the macro blocks at the same position in the N-1th image frame and the N-th image frame, and when the difference value between macro blocks is less than the preset first threshold, the similar It is determined to be a macro block, and if the difference value between macro blocks is greater than the preset first threshold (T1), the scene is determined to be a different macro block.

제1 프레임 전환부(123)는 영상 프레임 내 모든 유사 매크로 블록의 개수를 합산하고, 합산한 유사 매크로 블록의 개수를 기설정된 제2 임계값(T2)보다 크다면, 구간 전환이 이루어진 것으로 판정한다.The first frame switching unit 123 adds up the number of all similar macro blocks in the video frame, and if the summed number of similar macro blocks is greater than the preset second threshold T2, it determines that section switching has occurred. .

N-1번째 영상 프레임의 영상과 N번째 영상 프레임의 영상은 시간적으로 1/24초의 차이이고, Locality 특성을 가지기 때문에 유사하다.The video of the N-1th video frame and the video of the Nth video frame have a temporal difference of 1/24 second, and are similar because they have locality characteristics.

제2 프레임 전환부(124)는 영상 프레임마다 신호 대 잡음비(Peak Signal-to-noise ratio, PSNR)을 측정하고, N-1번째 영상 프레임의 영상 신호와 N번째 영상 프레임의 영상 신호 간의 신호 대 잡음비(PSNR)의 차이가 기설정된 제3 임계값(T3)보다 큰 경우, 구간 전환이 이루어진 것으로 판정한다.The second frame conversion unit 124 measures the peak signal-to-noise ratio (PSNR) for each video frame, and measures the signal ratio between the video signal of the N-1th video frame and the video signal of the Nth video frame. If the difference in noise ratio (PSNR) is greater than the preset third threshold (T3), it is determined that the section change has occurred.

PSNR은 신호가 가질 수 있는 최대 전력에 대한 잡음의 전력을 나타낸 것으로, 영상 또는 동영상 손실 압축에서 화질 손실 정보를 평가할 때 사용되며 다음의 수학식 1과 같이 정의된다.PSNR represents the power of noise relative to the maximum power that a signal can have. It is used when evaluating picture quality loss information in video or video loss compression and is defined as follows in Equation 1.

여기서, MAX는 해당 영상의 최대값으로서, 해당 채널의 최대값에서 최소값을 빼서 구할 수 있다. 예를 들어, 8bit 그레이 스케일 영상의 경우는 255 (255 - 0)이 된다. MSE(Mean Square Error)는 평균 제곱 오차로서 오차 제곱의 평균, 즉 추정된 값과 실제값 간의 평균 제곱 차이를 측정한다.Here, MAX is the maximum value of the corresponding video, and can be obtained by subtracting the minimum value from the maximum value of the corresponding channel. For example, in the case of an 8-bit gray scale image, it is 255 (255 - 0). MSE (Mean Square Error) is the mean square error and measures the average of the squared errors, that is, the mean square difference between the estimated value and the actual value.

기준이 되는 원본 영상과의 차이가 클 때, MSE 값이 커진다(또는 PSNR 값이 작아진다).When the difference from the reference original image is large, the MSE value increases (or the PSNR value decreases).

제어부(125)는 제1 프레임 전환부(123)에서 구간 전환이 이루어진 제1 구간 전환 지점의 에러 범위를 판단하고, 제2 프레임 전환부(124)(113)에서 구간 전환이 이루어진 제2 구간 전환 지점의 에러 범위를 판단한다. 에러 범위는 통상적인 구간 전환 지점을 벗어나서 구간 전환 지점이 좁거나 아주 넓은 경우의 범위를 나타낸다.The control unit 125 determines the error range of the first section change point where the section change is made in the first frame change unit 123, and determines the error range of the second section change point where the section change is made in the second frame change unit 124 (113). Determine the error range of the point. The error range represents the range when the section change point is narrow or very wide beyond the normal section change point.

제어부(125)는 제1 프레임 전환부(123) 또는 제2 프레임 전환부(124)에서 에러 범위에 속하는 경우를 제외하고, 정상적인 구간 전환 지점을 선택하여 검출할 수 있다.The control unit 125 may select and detect a normal section change point, except for cases in which the first frame change unit 123 or the second frame change unit 124 falls within an error range.

다른 실시예로서, 제어부(125)는 제1 프레임 전환부(123)에서 구간 전환이 이루어진 제1 구간 전환 지점과 제2 프레임 전환부(124)에서 구간 전환이 이루어진 제2 구간 전환 지점의 평균값을 최종 구간 전환 지점으로 선택할 수 있다.In another embodiment, the control unit 125 calculates the average value of the first section change point at which the section change is made in the first frame change unit 123 and the second section change point at which the section change is performed in the second frame change unit 124. It can be selected as the final section transition point.

영상 캡쳐부(126)는 구간 전환 지점을 찾아낸 후, 구간별 지속 시간을 계산한다.The image capture unit 126 finds the section transition point and then calculates the duration of each section.

영상 캡쳐부(126)는 이전 구간 전환이 이루어진 영상 프레임부터 다음 구간 전환까지의 영상 프레임의 개수를 카운트하며, 제어부(125)로부터 구간 전환 특정 신호를 수신하는 경우, 카운트된 영상 프레임 개수를 저장한다.The video capture unit 126 counts the number of video frames from the video frame in which the previous section change occurred to the next section change, and when receiving a section change specific signal from the control unit 125, stores the counted number of video frames. .

영상 캡쳐부(126)는 카운트된 영상 프레임의 개수와 입력 영상에 따른 기설정된 초당 프레임 개수를 이용하여 구간별 지속 시간을 계산한다.The image capture unit 126 calculates the duration of each section using the counted number of image frames and the preset number of frames per second according to the input image.

예를 들어, 영화의 경우, 24 frame/sec라고 할 때, 이전 구간 전환이 이루어진 영상 프레임으로부터 100번째 영상 프레임에서 다음 구간 전환이 이루어진다면, 이전 장면은 4.16(100/24)초 간 유지되었다는 것을 의미한다.For example, in the case of a movie, assuming 24 frames/sec, if the next section transition occurs in the 100th video frame from the video frame in which the previous section transition occurred, it means that the previous scene was maintained for 4.16 (100/24) seconds. it means.

영상 캡쳐부(126)는 계산한 구간별 지속 시간을 이용하여 구간 전환이 이루어진 영상 프레임을 캡쳐하여 추출한다.The image capture unit 126 captures and extracts video frames in which section transitions have occurred using the calculated duration of each section.

여기서, 구간 전환은 전술한 스캐닝 경로의 하나의 특정 지점에서 건물 현장을 촬영하고, 다른 특정 지점으로 넘어갈 때를 의미한다.Here, section switching refers to when a building site is photographed at one specific point of the aforementioned scanning path and then moved to another specific point.

제어부(125)는 영상 캡쳐부(126)에서 추출한 영상 프레임을 라벨링하여 영상 프레임 저장부(127)에 저장하고, 저장한 영상 프레임을 제2 통신부(128)를 통해 디지털 트윈 플랫폼(140)으로 전송한다. 동영상 처리 장치(120)는 동영상 정보인 3D 영상 프레임을 스캐닝 경로 상의 구간 전환마다 해당 구간의 정지 영상을 2D 영상 프레임으로 각각 변환한다.The control unit 125 labels the image frames extracted from the image capture unit 126, stores them in the image frame storage unit 127, and transmits the stored image frames to the digital twin platform 140 through the second communication unit 128. do. The video processing device 120 converts a 3D image frame, which is video information, into a 2D image frame at each section change on the scanning path.

여기서, 구간은 건설 현장의 특정 지점에서 촬영하여 영상 정보를 획득하는 지점을 나타낸다,Here, the section represents the point at which image information is acquired by filming at a specific point of the construction site.

대규모 건설 현장의 경우, 고층 건물이나 건물의 내부 천장 높이가 높아서 현장 및 시공 관리자가 수동으로 카메라를 이용하여 촬영하기가 어려운 실정이다.In the case of large-scale construction sites, it is difficult for site and construction managers to manually take pictures using cameras due to the high interior ceiling height of high-rise buildings or buildings.

이러한 경우, 드론 장치(150)를 이용하여 관리자가 영상 정보를 획득하기 어려운 위치의 장소를 촬영하여 영상 정보를 얻는다.In this case, the manager obtains image information by using the drone device 150 to photograph a location where it is difficult to obtain image information.

도 4는 본 발명의 실시예에 따른 드론 장치의 구성을 나타낸 도면이다.Figure 4 is a diagram showing the configuration of a drone device according to an embodiment of the present invention.

본 발명의 실시예에 따른 드론 장치(150)는 뼈대를 이루는 비행로봇몸체(152)와, 비행로봇몸체(152)를 중심으로 동서남북 방향으로 가로 질러 형성된 쿼드로터부(153)를 포함한다.The drone device 150 according to an embodiment of the present invention includes a flying robot body 152 forming a skeleton, and a quadrotor portion 153 formed across the flying robot body 152 in the east, west, north, south, and south directions.

비행로봇몸체(152)와 쿼드로터부(153)는 가볍고 내구성이 좋은 알루미늄 합금강으로 제조하고, 상부면에 프로펠러(154, 155)가 각각 장착된다. 프로펠러(154, 155)는 일정 형상의 프로펠러를 포함할 수 있으며 프로펠러(154, 155)의 동작에 의해서 아래 방향으로의 기류가 발생되게 되며, 이로 인해 드론 장치(150)가 비행할 수 있도록 하는 양력이 발생하게 된다.The flying robot body 152 and the quadrotor unit 153 are made of lightweight and durable aluminum alloy steel, and propellers 154 and 155 are installed on the upper surfaces, respectively. The propellers 154 and 155 may include propellers of a certain shape, and an airflow in the downward direction is generated by the operation of the propellers 154 and 155, which creates a lift force that allows the drone device 150 to fly. This happens.

비행로봇몸체(152)는 하부면에 카메라 장치(156)와 라이다 센서부(157)가 설치되어 고층 건물의 외벽이나 건물 실내의 높은 위치의 대상물을 촬영한다.The flying robot body 152 has a camera device 156 and a lidar sensor unit 157 installed on its lower surface to photograph the outer wall of a high-rise building or a high-positioned object inside the building.

프로세서(미도시)는 비행로봇몸체(152)의 일측에 형성되어 카메라 장치(156)를 이용하여 대상물의 촬영 시 좌표 정보를 생성하여 영상 정보와 함께 라벨링하여 저장하고, 좌표 정보를 포함한 영상 정보를 제3 통신부(미도시)를 통해 사용자 단말기(130)로 전송한다.The processor (not shown) is formed on one side of the flying robot body 152 and generates coordinate information when photographing an object using the camera device 156, labels and stores it together with the image information, and stores the image information including the coordinate information. It is transmitted to the user terminal 130 through a third communication unit (not shown).

복수의 드론 장치(150) 각각은 네트워크(101)을 통해 사용자 단말기(130)와 무선 통신을 통해 연결될 수 있으며, 사용자 단말기(130)로부터 수신된 제어 신호에 따라 동작할 수 있다.Each of the plurality of drone devices 150 may be connected to the user terminal 130 through wireless communication through the network 101 and may operate according to a control signal received from the user terminal 130.

복수의 드론 장치(150) 각각은 카메라 장치(156)를 구비하고 있어, 카메라 장치(156)를 통해 촬영된 촬영 영상을 사용자 단말기(130)로 전송할 수 있다.Each of the plurality of drone devices 150 is equipped with a camera device 156, and can transmit captured images through the camera device 156 to the user terminal 130.

복수의 드론 장치(150) 각각은 3축 가속도 센서, 자이로스코프, 자력계, 초음파 센서, 압력계 등을 구비하여, 현재 위치, 고도, 이동 속도, 이동 방향 등의 이동 정보를 감지할 수 있으며, 감지된 이동 정보를 사용자 단말기(130)로 전송할 수 있다.Each of the plurality of drone devices 150 is equipped with a 3-axis acceleration sensor, gyroscope, magnetometer, ultrasonic sensor, pressure gauge, etc., and can detect movement information such as current location, altitude, movement speed, and direction of movement. Movement information can be transmitted to the user terminal 130.

사용자 단말기(130)는 통신 기능을 갖춘 연산 장치로 구현될 수 있으며, 예를 들면, 휴대전화기, 데스크톱 PC, 랩탑 PC, 태블릿 PC, 스마트폰 등으로 구현될 수 있으나, 이에 제한되지는 않으며, 외부 서버와 연결될 수 있는 다양한 형태의 통신 장치로 구현될 수도 있다.The user terminal 130 may be implemented as a computing device with a communication function, for example, but is not limited to a mobile phone, desktop PC, laptop PC, tablet PC, smartphone, etc., and may be implemented as an external device. It can also be implemented as various types of communication devices that can be connected to a server.

사용자 단말기(130)는 사용자 단말기(130)를 통해 복수의 드론 장치(150)와 연결되어, 사용자에 의해 입력된 명령에 상응하는 제어 신호를 복수의 드론 장치(150)으로 전송하여 복수의 드론 장치(150)에 대한 움직임을 제어할 수 있다.The user terminal 130 is connected to a plurality of drone devices 150 through the user terminal 130, and transmits a control signal corresponding to the command input by the user to the plurality of drone devices 150 to control the plurality of drone devices 150. Movement can be controlled to (150).

사용자 단말기(130)는 디스플레이부(미도시)를 구비하고 있어 디스플레이부를 통해 다양한 영상 정보를 표시하여 출력할 수 있다. 예를 들어, 사용자 단말기(130)은 제1 드론 장치로부터 수신된 촬영 영상을 디스플레이부를 통해 출력할 수 있으며, 제2 드론 장치로부터 수신된 촬영 영상을 디스플레이부를 통해 출력할 수 있다.The user terminal 130 is equipped with a display unit (not shown) and can display and output various image information through the display unit. For example, the user terminal 130 may output a captured image received from a first drone device through the display unit, and may output a captured image received from a second drone device through the display unit.

사용자 단말기(130)는 복수의 드론 장치(150) 각각으로부터 촬영된 영상 정보를 디지털 트윈 플랫폼(140)으로 전송한다.The user terminal 130 transmits image information captured from each of the plurality of drone devices 150 to the digital twin platform 140.

라이다 센서부(157)는 레이저 펄스 신호를 생성하여 전방으로 송신하고, 건물벽 등으로부터 반사된 반사파 신호를 감지한다.The LiDAR sensor unit 157 generates a laser pulse signal and transmits it forward, and detects a reflected wave signal reflected from a building wall, etc.

라이다 센서부(157)는 레이저 다이오드(미도시)의 구동 신호를 감지하는 레이저 다이오드 감지부(미도시)로부터 감지 신호를 수신하여 라이다 비행시간(Time of Flight, ToF)의 출발 시간을 계산한다.The LiDAR sensor unit 157 receives a detection signal from a laser diode detection unit (not shown) that detects the driving signal of a laser diode (not shown) and calculates the departure time of the LiDAR time of flight (ToF). do.

라이다 센서부(157)는 건물벽으로부터 반사된 반사파 신호를 입력받아 라이다 비행시간의 도착 시간을 계산한다.The LiDAR sensor unit 157 receives the reflected wave signal reflected from the building wall and calculates the arrival time of the LiDAR flight time.

라이다 센서부(157)는 출발 시간과 도착 시간을 이용하여 레이저 펄스 신호의 감지시부터 반사파 신호의 감지시까지의 비행시간을 계산한다.The lidar sensor unit 157 calculates the flight time from detection of the laser pulse signal to detection of the reflected wave signal using the departure time and arrival time.

라이다 센서부(157)는 출발 시간과 도착 시간의 시간차를 측정하여 거리 정보를 계산한다.The lidar sensor unit 157 calculates distance information by measuring the time difference between departure time and arrival time.

프로세서(미도시)는 라이다 센서부(157)로부터 거리 정보를 주기적으로 수신한다.A processor (not shown) periodically receives distance information from the LiDAR sensor unit 157.

프로세서(미도시)는 라이다 센서부(157)로부터 수신한 거리 정보가 기설정된 기준 거리값의 오차 범위 내에 속하는지 판단하고, 오차 범위에 속하는 경우, 카메라 장치(156)를 제어하여 고층 건물의 외벽이나 건물 실내의 높은 위치의 대상물을 촬영하고, 오차 범위를 벗어나는 경우, 드론 장치(150)와 대상물 간의 거리를 기준 거리값의 오차 범위에 속할 때까지 드론 장치(150)의 카메라 장치(156)의 촬영을 정지하도록 제어한다. 기준 거리값은 촬영 영상의 해상도나 대상물의 촬영 범위가 최적화된 거리로 설정된 값이다.The processor (not shown) determines whether the distance information received from the lidar sensor unit 157 falls within the error range of the preset reference distance value, and if it falls within the error range, controls the camera device 156 to determine whether the distance information received from the lidar sensor unit 157 is within the error range of the preset reference distance value. When photographing an object located high on an external wall or inside a building, and it is outside the error range, the camera device 156 of the drone device 150 adjusts the distance between the drone device 150 and the object until it falls within the error range of the reference distance value. Control to stop filming. The reference distance value is a value set at a distance at which the resolution of the captured image or the shooting range of the object is optimized.

도 5는 본 발명의 실시예에 따른 디지털 트윈 플랫폼의 내부 구성을 간략하게 나타낸 블록도이다.Figure 5 is a block diagram briefly showing the internal configuration of a digital twin platform according to an embodiment of the present invention.

본 발명의 실시예에 따른 디지털 트윈 플랫폼(140)은 무선 통신부(141), 디지털 트윈 저장부(142), 건설 현장 이력 데이터베이스부(143), 서버 제어부(144), 3차원 디지털 트윈부(145), 가상 콘텐츠 데이터베이스부(146) 및 증강 현실 구현부(147)를 포함한다.The digital twin platform 140 according to an embodiment of the present invention includes a wireless communication unit 141, a digital twin storage unit 142, a construction site history database unit 143, a server control unit 144, and a three-dimensional digital twin unit 145. ), a virtual content database unit 146, and an augmented reality implementation unit 147.

무선 통신부(141)는 3D 스캐닝 장치(110)로부터 수신한 3차원 포인트 클라우드 데이터를 디지털 트윈 저장부(142)에 저장하고, 동영상 처리 장치(120)로부터 수신한 영상 프레임을 디지털 트윈 저장부(142)에 저장하며, 드론 장치(150)로부터 수신한 영상 정보를 디지털 트윈 저장부(142)에 저장한다.The wireless communication unit 141 stores the 3D point cloud data received from the 3D scanning device 110 in the digital twin storage unit 142, and stores the image frame received from the video processing device 120 in the digital twin storage unit 142. ), and the image information received from the drone device 150 is stored in the digital twin storage unit 142.

무선 통신부(141)는 사용자 단말기(130)로부터 복수의 드론 장치(150) 각각으로부터 촬영된 2D 영상 정보를 수신하여 디지털 트윈 저장부(142)에 저장한다.The wireless communication unit 141 receives 2D image information captured from each of the plurality of drone devices 150 from the user terminal 130 and stores it in the digital twin storage unit 142.

건설 현장 이력 데이터베이스부(143)는 물리적 공간의 실제 객체인 건설 현장의 자재 정보, 도면 정보 및 장비의 매뉴얼 정보, 현장 뷰 데이터를 적어도 하나 이상을 포함한 건설 현장 데이터를 데이터베이스화 하여 저장하고 있다.The construction site history database unit 143 forms a database and stores construction site data including at least one of construction site material information, drawing information, equipment manual information, and site view data, which are actual objects in physical space.

서버 제어부(144)는 드론 장치(150)로부터 수신한 2D 영상 정보를 영상 정보의 좌표값에 대응되는 3차원 포인트 클라우드 데이터로 변환한다.The server control unit 144 converts the 2D image information received from the drone device 150 into 3D point cloud data corresponding to the coordinate values of the image information.

서버 제어부(144)는 동영상 처리 장치(120)에서 수신한 2D 영상 프레임과, 3D 스캐닝 장치(110)에서 수신한 3차원 포인트 클라우드 데이터의 3D 좌표 매칭을 통해 포인트 클라우드 데이터 상으로 오버랩된 3D 영상 정보를 생성하여 디지털 트윈 저장부(142)에 저장한다.The server control unit 144 provides 3D image information overlapped on the point cloud data through 3D coordinate matching between the 2D image frame received from the video processing device 120 and the 3D point cloud data received from the 3D scanning device 110. is created and stored in the digital twin storage unit 142.

서버 제어부(144)는 복수의 드론 장치(150) 각각으로부터 촬영된 2D 영상 정보를 영상 정보의 좌표값에 대응되는 3차원 포인트 클라우드 데이터로 변환한 후, 별도로 저장, 관리할 수 있다.The server control unit 144 may convert 2D image information captured from each of the plurality of drone devices 150 into 3D point cloud data corresponding to the coordinate values of the image information, and then separately store and manage the data.

또한, 서버 제어부(144)는 복수의 드론 장치(150) 각각으로부터 촬영된 2D 영상 정보를 영상 정보의 좌표값에 대응되는 3차원 포인트 클라우드 데이터로 변환한 후, 좌표값을 이용하여 3D 스캐닝 장치(110)에서 수신한 3차원 포인트 클라우드 데이터와 함께 저장, 관리할 수 있다.In addition, the server control unit 144 converts the 2D image information captured from each of the plurality of drone devices 150 into 3D point cloud data corresponding to the coordinate value of the image information, and then uses the coordinate value to scan the 3D scanning device ( It can be stored and managed along with the 3D point cloud data received from 110).

서버 제어부(144)는 3D 스캐닝 장치(110)의 3차원 포인트 클라우드 데이터가 스캐닝 경로에 따라 순서대로 형성되는데, 드론 장치(150)의 3차원 포인트 클라우드 데이터도 좌표값을 근거로 스캐닝 경로의 해당 위치에 삽입하여 저장할 수 있다.The server control unit 144 forms the 3D point cloud data of the 3D scanning device 110 in order according to the scanning path, and the 3D point cloud data of the drone device 150 also determines the corresponding position of the scanning path based on the coordinate value. You can insert and save it.

3차원 디지털 트윈부(145)는 디지털 트윈 저장부(142)와 연동하여 오버랩된 3D 영상 정보와, 드론 장치(150)의 3차원 포인트 클라우드 데이터와, 각각의 영상 좌표, 3차원 모델링 좌표와, 건설 현장 데이터를 이용하여 3차원 디지털 트윈을 생성한다. 여기서, 3차원 디지털 트윈은 3차원 모델링된 구조물에 구조물 상태가 반영된 것일 수 있다.The 3D digital twin unit 145 is linked with the digital twin storage unit 142 to store overlapping 3D image information, 3D point cloud data of the drone device 150, respective image coordinates, 3D modeling coordinates, A 3D digital twin is created using construction site data. Here, the 3D digital twin may be one in which the state of the structure is reflected in the 3D modeled structure.

3차원 모델링 공간은 적어도 하나의 공간 격자를 포함할 수 있으며, 공간 격자는 건설 현장의 구체적인 실제 위치에 대응할 수 있다.The three-dimensional modeling space may include at least one spatial grid, and the spatial grid may correspond to a specific actual location of the construction site.

드론 장치(150)에서 수신한 영상 정보는 건설 현장의 촬영 이미지가 존재하지 않아 공백인 부분에 대하여 3D 모델링 부분을 메꾸는데 사용한다.The image information received from the drone device 150 is used to fill in the 3D modeling portion of the blank portion due to the absence of a captured image of the construction site.

다시 말해, 3차원 디지털 트윈은 현장의 물리적 공간을 촬영한 영상과, 물리적 공간 내 위치한 실제 객체들의 위치를 스캔한 공간 정보(깊이 데이터)들을 기초로 3차원 가상 공간에 물리 공간의 실제 객체들에 대응되는 가상 객체들을 모델링한 것이다.In other words, a 3D digital twin connects real objects in a physical space to a 3D virtual space based on images taken of the physical space of the field and spatial information (depth data) that scans the positions of real objects located in the physical space. It models the corresponding virtual objects.

3차원 디지털 트윈부(145)는 건설 현장 구조에 포함된 각 구성요소에 대응하여 자재 정보, 도면 정보 및 장비의 메뉴얼 정보를 매칭하여 모델링한다.The 3D digital twin unit 145 matches and models material information, drawing information, and equipment manual information corresponding to each component included in the construction site structure.

가상 콘텐츠 데이터베이스부(146)는 증강 현실(Augmented Reality, AR) 환경을 구현하기 위한 가상 콘텐츠 데이터가 저장되어 있다.The virtual content database unit 146 stores virtual content data for implementing an augmented reality (AR) environment.

가상 콘텐츠 데이터베이스부(146)는 3차원 디지털 트윈을 구축하는 가상 객체를 모델링한 3차원 가상 이미지를 더 포함할 수 있다.The virtual content database unit 146 may further include a 3D virtual image modeling a virtual object for constructing a 3D digital twin.

이러한 가상 콘텐츠 데이터베이스부(146)는 가상 콘텐츠를 실제 객체나 공간 좌표에 매칭시켜 가상 콘텐츠 데이터로 저장할 수 있다. 여기서, 가상 콘텐츠 데이터는 컴퓨팅 디바이스에서 생성된 가상의 컨텐츠로, 라벨, 텍스트 정보, 이미지, 드로잉 객체 및 3 차원 엔티티를 포함하며, 물리적 공간이나 물리적 공간을 촬영한 영상에 대응하여 생성된 증강 콘텐츠이다.This virtual content database unit 146 can match virtual content to real objects or spatial coordinates and store it as virtual content data. Here, virtual content data is virtual content generated by a computing device and includes labels, text information, images, drawing objects, and three-dimensional entities, and is augmented content created in response to physical space or images taken of physical space. .

또한, 가상 콘텐츠 데이터베이스부(146)는 3차원 디지털 트윈의 3차원 가상 공간의 가상 좌표에 매칭시켜 가상 콘텐츠 데이터로 저장될 수 있다.Additionally, the virtual content database unit 146 may store virtual content data by matching it to virtual coordinates of the 3D virtual space of the 3D digital twin.

증강 현실 구현부(147)는 가상 콘텐츠 데이터와 공간 정보 데이터를 무선 통신부(141)를 통해 증강 현실 환경을 사용자 단말기(130)에 제공한다. 이로 인하여 서버 제어부(144)는 현장 영상 또는/및 현장 유저의 촬영 영상에 기초하여 현장의 물리적 공간에 대응되는 가상 컨텐츠 데이터를 생성하는 인터페이스를 사용자 단말기(130)로 제공할 수 있으며, 이와 같이 생성된 가상 컨텐츠는 물리적 공간에 대응되는 위치에 생성되어 표시될 수 있다.The augmented reality implementation unit 147 provides an augmented reality environment to the user terminal 130 through the wireless communication unit 141 with virtual content data and spatial information data. As a result, the server control unit 144 can provide the user terminal 130 with an interface for generating virtual content data corresponding to the physical space of the field based on the field image or/and the image captured by the field user, and can be generated in this way. The virtual content may be created and displayed in a location corresponding to the physical space.

증강 현실 환경은 사용자나 커뮤니케이션 상대방 주변의 물리적 공간에 연관된 가상 콘텐츠가 삽입되어 생성되고, 현장 관리자(사용자 단말기(130))에게 제공되는 정보가 증강된 환경을 의미한다.The augmented reality environment is created by inserting related virtual content into the physical space around the user or communication partner, and refers to an environment in which information provided to the on-site manager (user terminal 130) is augmented.

사용자 단말기(130)는 증강 현실 애플리케이션을 내장하고 있고, 디지털 트윈 플랫폼(140)에서 제공한 인터페이스를 기반으로 품질 관리 정보를 송수신할 수 있으며, 디지털 트윈 플랫폼(140)의 각종 정보를 수정하거나 추가할 수도 있다.The user terminal 130 has a built-in augmented reality application, can transmit and receive quality control information based on the interface provided by the digital twin platform 140, and can modify or add various information of the digital twin platform 140. It may be possible.

도 6은 본 발명의 실시예에 따른 건설 현장의 스마트 공정 및 품질 관리를 위한 데이터 흐름도를 나타낸 도면이고, 도 7은 본 발명의 실시예에 따른 위치 정보를 기반으로 하는 AR 내비게이션과 품질 상태 정보를 볼 수 있는 AR 상태 정보의 시각화 모습을 나타낸 도면이다.Figure 6 is a diagram showing a data flow diagram for smart process and quality control at a construction site according to an embodiment of the present invention, and Figure 7 shows AR navigation and quality status information based on location information according to an embodiment of the present invention. This is a diagram showing the visualization of viewable AR status information.

현장 및 시공 관리자, 건설 전문 업체의 관리자는 사용자 단말기(130)를 통해 디지털 트윈 플랫폼(140)과 접속하여 건설 현장의 스마트 품질 관리 기능을 수행할 수 있다.Site and construction managers and managers of construction specialized companies can connect to the digital twin platform 140 through the user terminal 130 to perform smart quality management functions at the construction site.

사용자 단말기(130)는 모바일 스캐닝 앱을 구동하여 현장 영상 또는/및 현장 유저의 촬영 영상을 획득하여 디지털 트윈 플랫폼(140)로 전송한다.The user terminal 130 runs a mobile scanning app to obtain field images and/or images captured by field users and transmits them to the digital twin platform 140.

디지털 트윈 플랫폼(140)은 3D 모델 정보인 3차원 디지털 트윈을 생성하여 사용자 단말기(130)로 전송한다.The digital twin platform 140 generates a 3D digital twin, which is 3D model information, and transmits it to the user terminal 130.

사용자 단말기(130)는 모바일 품질관리 AR 앱을 통해 도 7에 도시된 바와 같이, 사용자 단말기(130)에서 3D 모델링된 건설 현장의 영상 정보를 나타내는 AR 내비게이션과(도 7의 (a)), AR 상태 정보의 시각화 모습을 통해 건설 현장의 공정 및 품질 상태(도 7의 (b))를 확인할 수 있다.As shown in FIG. 7 through the mobile quality control AR app, the user terminal 130 provides AR navigation ((a) of FIG. 7) showing image information of a construction site 3D modeled in the user terminal 130, and AR The process and quality status of the construction site ((b) in Figure 7) can be confirmed through the visualization of the status information.

사용자 단말기(130)는 내장된 모바일 품질관리 AR 앱을 통해 품질 상태 및 검측 정보를 확인하여 이상이 있는 경우, 이상 제어 신호를 생성하여 디지털 트윈 플랫폼(140)으로 전송하고, 디지털 트윈 플랫폼(140)에서 품질 관리 검측 정보의 이상 여부를 맵핑한다.The user terminal 130 checks the quality status and inspection information through the built-in mobile quality control AR app, and if there is an abnormality, generates an abnormality control signal and transmits it to the digital twin platform 140. Map whether there is an abnormality in the quality control inspection information.

디지털 트윈 플랫폼(140)은 이상이 발생한 품질 관리 검측 정보의 위치 및 상태 정보를 포함시켜 사용자 단말기(130)에 내장된 모바일 복구 작업 AR 앱으로 제공한다.The digital twin platform 140 includes the location and status information of quality control inspection information where an error occurred and provides it to the mobile recovery task AR app built into the user terminal 130.

사용자 단말기(130)는 내장된 모바일 복구 작업 AR 앱을 통해 복구 및 대응 작업 정보를 생성하여 디지털 트윈 플랫폼(140)으로 전송한다.The user terminal 130 generates recovery and response operation information through the built-in mobile recovery operation AR app and transmits it to the digital twin platform 140.

본 명세서의 실시예에 따른 동작은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 프로그램 또는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워Å로 연결된 컴퓨터 시스템에 분산되어 분산 방식으로 컴퓨터로 읽을 수 있는 프로그램 또는 코드가 저장되고 실행될 수 있다. Operations according to embodiments of the present specification can be implemented as a computer-readable program or code on a computer-readable recording medium. Computer-readable recording media include all types of recording devices that store data that can be read by a computer system. Additionally, computer-readable recording media can be distributed across computer systems connected via a network, so that computer-readable programs or codes can be stored and executed in a distributed manner.

실시예가 소프트웨어로 구현될 때, 상술한 기법은 상술한 기능을 수행하는 모듈(과정, 기능 등)로 구현될 수 있다. 모듈은 메모리에 저장되고, 프로세서에 의해 실행될 수 있다. 메모리는 프로세서 내부 또는 외부에 있을 수 있고, 잘 알려진 다양한 수단으로 프로세서와 연결될 수 있다.When the embodiment is implemented in software, the above-described techniques may be implemented as modules (processes, functions, etc.) that perform the above-described functions. Modules are stored in memory and can be executed by a processor. Memory may be internal or external to the processor and may be connected to the processor by a variety of well-known means.

또한, 컴퓨터가 읽을 수 있는 기록매체는 롬(rom), 램(ram), 플래시 메모리(flash memory) 등과 같이 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함할 수 있다. 프로그램 명령은 컴파일러(compiler)에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터(interpreter) 등을 사용해서 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함할 수 있다.Additionally, computer-readable recording media may include hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, etc. Program instructions may include not only machine language code such as that created by a compiler, but also high-level language code that can be executed by a computer using an interpreter, etc.

본 발명의 일부 측면들은 장치의 문맥에서 설명되었으나, 그것은 상응하는 방법에 따른 설명 또한 나타낼 수 있고, 여기서 블록 또는 장치는 방법 단계 또는 방법 단계의 특징에 상응한다. 유사하게, 방법의 문맥에서 설명된 측면들은 또한 상응하는 블록 또는 아이템 또는 상응하는 장치의 특징으로 나타낼 수 있다. 방법 단계들의 몇몇 또는 전부는 예를 들어, 마이크로프로세서, 프로그램 가능한 컴퓨터 또는 전자 회로와 같은 하드웨어 장치에 의해(또는 이용하여) 수행될 수 있다. 몇몇의 실시예에서, 가장 중요한 방법 단계들의 하나 이상은 이와 같은 장치에 의해 수행될 수 있다.Although some aspects of the invention have been described in the context of an apparatus, it may also refer to a corresponding method description, where a block or device corresponds to a method step or feature of a method step. Similarly, aspects described in the context of a method may also be represented by corresponding blocks or items or features of a corresponding device. Some or all of the method steps may be performed by (or using) a hardware device, such as a microprocessor, programmable computer, or electronic circuit, for example. In some embodiments, one or more of the most important method steps may be performed by such an apparatus.

실시예들에서, 프로그램 가능한 로직 장치(예를 들어, 필드 프로그래머블 게이트 어레이)가 여기서 설명된 방법들의 기능의 일부 또는 전부를 수행하기 위해 사용될 수 있다. 실시예들에서, 필드 프로그래머블 게이트 어레이는 여기서 설명된 방법들 중 하나를 수행하기 위한 마이크로프로세서와 함께 작동할 수 있다. 일반적으로, 방법들은 어떤 하드웨어 장치에 의해 수행되는 것이 바람직하다.In embodiments, a programmable logic device (e.g., a field programmable gate array) may be used to perform some or all of the functionality of the methods described herein. In embodiments, a field programmable gate array may operate in conjunction with a microprocessor to perform one of the methods described herein. In general, the methods are preferably performed by some hardware device.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the present invention has been described above with reference to preferred embodiments, those skilled in the art may make various modifications and changes to the present invention without departing from the spirit and scope of the present invention as set forth in the claims below. You will understand that you can do it.

100: 스마트 품질 관리 시스템 101: 네트워크
110: 3D 스캐닝 장치 111: 3D 스캐닝부
112: 스캐닝 데이터 저장부 113: 스캐닝 처리부
114: 제1 통신부 120: 동영상 처리 장치
121: 카메라부 122: 영상 프레임 입력부
123: 제1 프레임 전환부 124: 제2 프레임 전환부
125: 제어부 126: 영상 캡쳐부
127: 영상 프레임 저장부 128: 제2 통신부
130: 사용자 단말기 140: 디지털 트윈 플랫폼
141: 무선 통신부 142: 디지털 트윈 저장부
143: 건설 현장 이력 데이터베이스부 144: 서버 제어부
145: 3차원 디지털 트윈부 146: 가상 콘텐츠 데이터베이스부
147: 증강 현실 구현부 150: 드론 장치
152: 비행로봇몸체 153: 쿼드로터부
154, 155: 프로펠러 156: 카메라 장치
157: 라이다 센서부
100: Smart Quality Management System 101: Network
110: 3D scanning device 111: 3D scanning unit
112: scanning data storage unit 113: scanning processing unit
114: First communication unit 120: Video processing device
121: Camera unit 122: Video frame input unit
123: first frame switching unit 124: second frame switching unit
125: control unit 126: video capture unit
127: video frame storage unit 128: second communication unit
130: User terminal 140: Digital twin platform
141: wireless communication unit 142: digital twin storage unit
143: Construction site history database unit 144: Server control unit
145: 3D digital twin unit 146: virtual content database unit
147: Augmented reality implementation unit 150: Drone device
152: Flying robot body 153: Quadrotor part
154, 155: propeller 156: camera device
157: Lidar sensor unit

Claims (5)

레이저 거리 측정기를 이용하여 건설 현장의 내부나 외부에 스캐닝 경로를 따라 3D 스캐닝을 수행하여 3D 스캐닝 데이터를 생성하고, 상기 3D 스캐닝 데이터에 대해서 미리 설정된 3D 좌표(x,y,z) 별로 포인트화를 수행한 뒤, 포인트화된 3D 스캐닝 데이터인 3차원 포인트 클라우드 데이터를 라벨링하는 3D 스캐닝 장치;
상기 3D 스캐닝부에서 스캐닝한 동일한 스캐닝 경로를 따라 동영상 형태로 건설 현장의 내부와 외부를 촬영하여 동영상 정보를 획득하고, 동영상 정보인 3D 영상 프레임을 스캐닝 경로 상의 구간 전환마다 해당 구간의 정지 영상을 2D 영상 프레임으로 각각 변환하는 동영상 처리 장치;
물리적 공간의 실제 객체인 건설 현장의 자재 정보, 도면 정보 및 장비의 매뉴얼 정보, 현장 뷰 데이터를 적어도 하나 이상을 포함한 건설 현장 데이터를 데이터베이스화 하여 저장하는 건설 현장 이력 데이터베이스부; 및
상기 동영상 처리 장치에서 수신한 2D 영상 프레임과, 상기 3D 스캐닝 장치에서 수신한 3차원 포인트 클라우드 데이터의 3D 좌표 매칭을 통해 포인트 클라우드 데이터 상으로 오버랩된 3D 영상 정보를 생성하고, 상기 오버랩된 3D 영상 정보와 상기 건설 현장 데이터를 이용하여 3차원 디지털 트윈을 생성하는 디지털 트윈 플랫폼을 포함하는 건설 현장의 스마트 품질 관리 시스템.
Using a laser distance meter, 3D scanning is performed along the scanning path inside or outside the construction site to generate 3D scanning data, and the 3D scanning data is converted into points by preset 3D coordinates (x, y, z). A 3D scanning device that labels 3D point cloud data, which is pointized 3D scanning data;
Video information is obtained by filming the interior and exterior of the construction site in video form along the same scanning path scanned by the 3D scanning unit, and a 3D video frame, which is video information, is converted into a 2D still image of the section at each section change on the scanning path. A video processing device that converts each video frame into video frames;
A construction site history database unit that stores construction site data in a database, including at least one of construction site material information, drawing information, equipment manual information, and site view data, which are actual objects in physical space; and
Generating 3D image information overlapped on point cloud data through 3D coordinate matching between 2D image frames received from the video processing device and 3D point cloud data received from the 3D scanning device, and generating the overlapped 3D image information A smart quality management system at a construction site including a digital twin platform that creates a 3D digital twin using the construction site data.
청구항 1에 있어서,
뼈대를 이루는 비행로봇몸체의 일측에 카메라 장치를 구비하고, 상기 건설 현장의 높은 위치의 대상물을 촬영하고, 상기 대상물의 촬영 시 좌표 정보를 포함한 영상 정보를 생성하여 상기 디지털 트윈 플랫폼으로 전송하는 드론 장치를 더 포함하고,
상기 디지털 트윈 플랫폼은 상기 드론 장치로부터 수신한 2D 영상 정보를 영상 정보의 좌표값에 대응되는 3차원 포인트 클라우드 데이터로 변환하고, 상기 오버랩된 3D 영상 정보와, 상기 드론 장치의 3차원 포인트 클라우드 데이터와, 각각의 영상 좌표, 3차원 모델링 좌표와, 상기 건설 현장 데이터를 이용하여 상기 3차원 디지털 트윈을 생성하는 건설 현장의 스마트 품질 관리 시스템.
In claim 1,
A drone device that is equipped with a camera device on one side of the flying robot body that forms the skeleton, photographs an object at a high position at the construction site, generates image information including coordinate information when photographing the object, and transmits it to the digital twin platform. It further includes,
The digital twin platform converts the 2D image information received from the drone device into 3D point cloud data corresponding to the coordinate value of the image information, and combines the overlapped 3D image information, the 3D point cloud data of the drone device, and , A smart quality management system at a construction site that generates the 3D digital twin using each image coordinate, 3D modeling coordinate, and construction site data.
청구항 2에 있어서,
상기 드론 장치는 상기 카메라 장치의 근처에 설치되어 영상을 촬영할 전방과의 거리를 주기적으로 감지하는 라이다 센서부를 더 포함하고,
상기 드론 장치는 상기 라이다 센서부로부터 수신한 거리 정보가 기설정된 기준 거리값의 오차 범위 내에 속하는지 판단하고, 오차 범위에 속하는 경우, 상기 카메라 장치를 제어하여 고층 건물의 외벽이나 건물 실내의 높은 위치의 대상물을 촬영하고, 상기 오차 범위를 벗어나는 경우, 상기 드론 장치와 대상물 간의 거리를 상기 기준 거리값의 오차 범위에 속할 때까지 상기 카메라 장치의 촬영을 정지하도록 제어하는 건설 현장의 스마트 품질 관리 시스템.
In claim 2,
The drone device further includes a lidar sensor unit installed near the camera device to periodically detect the distance to the front where images are to be captured,
The drone device determines whether the distance information received from the lidar sensor unit falls within the error range of the preset reference distance value, and if it falls within the error range, controls the camera device to control the distance information received from the lidar sensor unit. A smart quality control system at a construction site that photographs an object at a location and, when it falls outside the error range, controls the camera device to stop filming until the distance between the drone device and the object falls within the error range of the reference distance value. .
청구항 1에 있어서,
상기 디지털 트윈 플랫폼은 증강 현실(Augmented Reality, AR) 환경을 구현하기 위하여 상기 3차원 디지털 트윈의 3차원 가상 공간의 가상 좌표에 매칭시켜 가상 콘텐츠 데이터로 저장되는 가상 콘텐츠 데이터베이스부를 더 포함하고, 현장 영상 또는/및 현장 유저의 촬영 영상에 기초하여 현장의 물리적 공간에 대응되는 상기 가상 컨텐츠 데이터를 생성하는 인터페이스를 상기 사용자 단말기로 제공하는 건설 현장의 스마트 품질 관리 시스템.
In claim 1,
The digital twin platform further includes a virtual content database unit that stores virtual content data by matching virtual coordinates of the 3D virtual space of the 3D digital twin to implement an Augmented Reality (AR) environment, and provides on-site video Or/and a smart quality management system at a construction site that provides an interface for generating the virtual content data corresponding to the physical space of the site based on images captured by the site user to the user terminal.
청구항 4에 있어서,
상기 사용자 단말기는 내장된 모바일 품질관리 AR 앱을 통해 품질 상태 및 검측 정보를 확인하여 이상이 있는 경우, 이상 제어 신호를 생성하여 상기 디지털 트윈 플랫폼으로 전송하고,
상기 디지털 트윈 플랫폼은 이상이 발생한 품질 관리 검측 정보의 위치 및 상태 정보를 포함시켜 상기 사용자 단말기에 내장된 모바일 복구 작업 AR 앱으로 제공하는 건설 현장의 스마트 품질 관리 시스템.
In claim 4,
The user terminal checks the quality status and inspection information through the built-in mobile quality control AR app, and if there is an abnormality, generates an abnormality control signal and transmits it to the digital twin platform,
The digital twin platform is a smart quality management system at a construction site that includes location and status information of quality control inspection information where abnormalities occurred and provides it as a mobile recovery task AR app built into the user terminal.
KR1020220106156A 2022-08-24 2022-08-24 Smart Quality Control System of Construction Sites using Augmented Reality KR20240028081A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220106156A KR20240028081A (en) 2022-08-24 2022-08-24 Smart Quality Control System of Construction Sites using Augmented Reality

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220106156A KR20240028081A (en) 2022-08-24 2022-08-24 Smart Quality Control System of Construction Sites using Augmented Reality

Publications (1)

Publication Number Publication Date
KR20240028081A true KR20240028081A (en) 2024-03-05

Family

ID=90298738

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220106156A KR20240028081A (en) 2022-08-24 2022-08-24 Smart Quality Control System of Construction Sites using Augmented Reality

Country Status (1)

Country Link
KR (1) KR20240028081A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118041958A (en) * 2024-04-09 2024-05-14 浙江大学 Digital twin system of flexible production line based on private cloud platform

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102402845B1 (en) 2018-04-25 2022-05-27 한국전자기술연구원 Real-Time Data Processing Method for Digital Twin based Construction Machine Intelligence

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102402845B1 (en) 2018-04-25 2022-05-27 한국전자기술연구원 Real-Time Data Processing Method for Digital Twin based Construction Machine Intelligence

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118041958A (en) * 2024-04-09 2024-05-14 浙江大学 Digital twin system of flexible production line based on private cloud platform

Similar Documents

Publication Publication Date Title
JP6879891B2 (en) Methods and systems for completing point clouds using plane segments
KR101835434B1 (en) Method and Apparatus for generating a protection image, Method for mapping between image pixel and depth value
EP3852068A1 (en) Method for training generative network, method for generating near-infrared image and apparatuses
CN112950785B (en) Point cloud labeling method, device and system
WO2020179065A1 (en) Image processing device, image processing method, and recording medium
CN111539973B (en) Method and device for detecting pose of vehicle
US11380078B2 (en) 3-D reconstruction using augmented reality frameworks
WO2023093217A1 (en) Data labeling method and apparatus, and computer device, storage medium and program
JP2020042772A (en) Depth data processing system capable of optimizing depth data by image positioning with respect to depth map
WO2022088881A1 (en) Method, apparatus and system for generating a three-dimensional model of a scene
KR102566300B1 (en) Method for indoor localization and electronic device
US20230062973A1 (en) Image processing apparatus, image processing method, and storage medium
KR20240028081A (en) Smart Quality Control System of Construction Sites using Augmented Reality
CN117197388A (en) Live-action three-dimensional virtual reality scene construction method and system based on generation of antagonistic neural network and oblique photography
CN114966696A (en) Transformer-based cross-modal fusion target detection method
CN116661477A (en) Substation unmanned aerial vehicle inspection method, device, equipment and storage medium
EP4071713A1 (en) Parameter calibration method and apapratus
CN113378605A (en) Multi-source information fusion method and device, electronic equipment and storage medium
CN114627240A (en) Method for three-dimensional reconstruction and positioning of sand pumping ship in river channel digital twin model
CN112634366B (en) Method for generating position information, related device and computer program product
CN116485974A (en) Picture rendering, data prediction and training method, system, storage and server thereof
CN116129422A (en) Monocular 3D target detection method, monocular 3D target detection device, electronic equipment and storage medium
CN115773759A (en) Indoor positioning method, device and equipment of autonomous mobile robot and storage medium
CN104768018A (en) Fast viewpoint predicting method based on depth map
CN111950420A (en) Obstacle avoidance method, device, equipment and storage medium