KR102332407B1 - Device and method for construction site recognition based on the bim model - Google Patents

Device and method for construction site recognition based on the bim model Download PDF

Info

Publication number
KR102332407B1
KR102332407B1 KR1020190139280A KR20190139280A KR102332407B1 KR 102332407 B1 KR102332407 B1 KR 102332407B1 KR 1020190139280 A KR1020190139280 A KR 1020190139280A KR 20190139280 A KR20190139280 A KR 20190139280A KR 102332407 B1 KR102332407 B1 KR 102332407B1
Authority
KR
South Korea
Prior art keywords
model
user input
dimensional
information
construction
Prior art date
Application number
KR1020190139280A
Other languages
Korean (ko)
Other versions
KR20210053549A (en
Inventor
김대영
문영남
Original Assignee
한국인프라비아이엠협동조합
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국인프라비아이엠협동조합 filed Critical 한국인프라비아이엠협동조합
Priority to KR1020190139280A priority Critical patent/KR102332407B1/en
Publication of KR20210053549A publication Critical patent/KR20210053549A/en
Application granted granted Critical
Publication of KR102332407B1 publication Critical patent/KR102332407B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/08Construction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • G06F30/13Architectural design, e.g. computer-aided architectural design [CAAD] related to design of buildings, bridges, landscapes, production plants or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/06009Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
    • G06K19/06037Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking multi-dimensional coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Abstract

시공 현장 인지 장치를 이용한 BIM 모델 기반의 시공 현장 인지 방법에 관한 것으로 (a) 해당 현장에 시공되는 건설 구조물에 대응하는 복수의 도면 중 적어도 하나와 연계되는 코드 식별자에 기반하여 상기 복수의 도면 중 적어도 하나에 대응하는 BIM 모델 정보를 전송받는 단계 및 전송받은 상기 BIM 모델 정보를 3차원 모델로 디스플레이 하는 단계를 포함할 수 있다.It relates to a method for recognizing a construction site based on a BIM model using a construction site recognition device. It may include receiving the BIM model information corresponding to one and displaying the received BIM model information as a 3D model.

Description

BIM 모델 기반의 시공 현장 인지 장치 및 방법 {DEVICE AND METHOD FOR CONSTRUCTION SITE RECOGNITION BASED ON THE BIM MODEL}BIM model-based construction site recognition device and method {DEVICE AND METHOD FOR CONSTRUCTION SITE RECOGNITION BASED ON THE BIM MODEL}

본원은 BIM 모델 기반의 시공 현장 인지 장치 및 방법에 관한 것이다.The present application relates to an apparatus and method for recognizing a construction site based on a BIM model.

BIM(Building Information Modeling)은 컴퓨터에 탑재된 전용소프트웨어를 이용하여 건설 구조물(예를 들면, 토목 구조물, 건축물 등)을 모델링한 후, 필요에 따라 건설 구조물 전체 또는 일부분의 데이터를 불러와서, 2D 또는 3D로 자유롭게 변환하여 디스플레이 또는 출력할 수 있는 것으로서, BIM을 이용하면 건설 구조물의 설계와 도면 작성 및 판독, 기타 건설 정보의 이용과 관리가 매우 용이해지는 장점이 있다.BIM (Building Information Modeling) uses dedicated software mounted on a computer to model a construction structure (eg, civil structure, building, etc.) As it can be freely converted into 3D and displayed or output, BIM has the advantage of making it very easy to design, create and read drawings of construction structures, and to use and manage other construction information.

하지만, 실제 건설 구조물의 시공 현장에서는, 현재 진행되고 있는 시공 공정 또는 시공 파트와 BIM이 즉각적으로 연동되기 어려운 곤란성이 존재하여, 상기와 같은 장점을 갖는 BIM이 시공 현장에서도 보다 효율적으로 활용될 수 있도록 하기 위한 개선책이 요구되고 있다.However, at the construction site of an actual construction structure, there is a difficulty in that it is difficult to immediately link BIM with the current construction process or construction part. Improvements are required to do so.

본원의 배경이 되는 기술은 한국공개특허공보 제10-2015-0125238호에 개시되어 있다.The technology that is the background of the present application is disclosed in Korean Patent Application Laid-Open No. 10-2015-0125238.

본원은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 건설 구조물의 설계도와 BIM모델을 연계하여 설계도에 대응하는 3차원 모델을 제공할 수 있는 BIM 모델 기반의 시공 현장 인지 장치 및 방법을 제공하는 것을 목적으로 한다.The present application is to solve the problems of the prior art described above, and to provide a BIM model-based construction site recognition apparatus and method that can provide a three-dimensional model corresponding to the blueprint by linking the blueprint and the BIM model of the construction structure. The purpose.

본원은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 3차원 모델을 활용한 건설 구조물의 유지 보수 대한 사용자 입력시 3차원 모델상에 정확한 위치 특정이 가능한 BIM 모델 기반의 시공 현장 인지 장치 및 방법을 제공하는 것을 목적으로 한다.The present application provides a BIM model-based construction site recognition device and method capable of accurately specifying a location on a three-dimensional model upon user input for maintenance of a construction structure using a three-dimensional model, in order to solve the problems of the prior art described above. intended to provide

본원은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 실제 시공 현장의 건설 구조물을 인식하여 3차원 모델과 함께 증강현실 환경에서 디스플레이할 수 있는 BIM 모델 기반의 시공 현장 인지 장치 및 방법을 제공하는 것을 목적으로 한다.The present application is to solve the problems of the prior art described above, to provide a BIM model-based construction site recognition device and method that can recognize the construction structure of the actual construction site and display it in an augmented reality environment together with a three-dimensional model. The purpose.

다만, 본원의 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들도 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.However, the technical problems to be achieved by the embodiment of the present application are not limited to the technical problems as described above, and other technical problems may exist.

상기한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본원의 일 실시예에 따른 시공 현장 인지 장치를 이용한 BIM 모델 기반의 시공 현장 인지 방법은 (a) 해당 현장에 시공되는 건설 구조물에 대응하는 복수의 도면 중 적어도 하나와 연계되는 코드 식별자에 기반하여 상기 복수의 도면 중 적어도 하나에 대응하는 BIM 모델 정보를 전송받는 단계 및 (b) 전송받은 상기 BIM 모델 정보를 3차원 모델로 디스플레이 하는 단계를 포함할 수 있다.As a technical means for achieving the above technical problem, the BIM model-based construction site recognition method using the construction site recognition device according to an embodiment of the present application is (a) a plurality of drawings corresponding to the construction structures constructed at the site receiving BIM model information corresponding to at least one of the plurality of drawings based on a code identifier associated with at least one of have.

본원의 일 실시예에 따르면, BIM 모델 기반의 시공 현장 인지 방법은 (c) 상기 3차원 모델이 디스플레이 된 영역에 대하여 사용자 입력을 받는 단계 및 (d) 상기 사용자 입력된 결과를 외부로 전송하는 단계를 더 포함하고, 상기 (c) 단계는, (c1) 사용자 입력에 대응하여 상기 3차원 모델이 3차원적으로 회전되는 단계 및 (c2) 사용자 입력에 대응하여 상기 영역 상에 상기 건설 구조물에 관한 사용자 표시가 이루어지는 단계를 포함할 수 있다.According to an embodiment of the present application, the method for recognizing a construction site based on a BIM model includes the steps of (c) receiving a user input for an area in which the three-dimensional model is displayed, and (d) transmitting the user input result to the outside. Further comprising, the step (c), (c1) the three-dimensional model is rotated three-dimensionally in response to the user input, and (c2) in response to the user input in response to the construction structure on the area It may include a step in which a user indication is made.

본원의 일 실시예에 따르면, 상기 (c1) 단계에서 제1 회전 뷰를 설정하고 상기 (c2) 단계에서 상기 제1 회전 뷰를 기준으로 제1 사용자 표시가 2차원적으로 이루어지고, 다시 상기 (c1) 단계에서 제2 회전 뷰를 설정하고 상기 (c2) 단계에서 상기 제2 회전 뷰를 기준으로 제2 사용자 표시가 2차원적으로 이루어진 경우, 상기 (d) 단계에서, 상기 사용자 입력된 결과에는, 상기 제1 회전 뷰에서 상기 제1 사용자 표시가 이루어진 2차원 위치와 상기 제2 회전 뷰에서 상기 제2 사용자 표시가 이루어진 2차원 위치가 상호 교차되는 3차원적인 교집합 위치에 대한 정보가 포함될 수 있다.According to an embodiment of the present application, a first rotation view is set in step (c1), and a first user display is made two-dimensionally based on the first rotation view in step (c2), and again ( When the second rotation view is set in step c1) and the second user display is made two-dimensionally based on the second rotation view in step (c2), in step (d), the user input result is , information about a three-dimensional intersection position where the two-dimensional position where the first user mark is made in the first rotation view and the two-dimensional position where the second user mark is made in the second rotation view intersect with each other may be included. .

본원의 일 실시예에 따르면, 상기 3차원적인 교집합 위치는 제1 회전 뷰에서 화면 법선 방향으로 표시 영역에 대응하여 기둥화된 제1영역화 공간 및 제2회전 뷰에서 화면 법선 방향으로 표시 영역에 대응하여 기둥화된 제2영역화 공간이 교집합되는 공통영역일 수 있다.According to an exemplary embodiment of the present application, the three-dimensional intersection position is in the display area in the display area in the screen normal direction in the first rotational view and in the columnarized first area corresponding to the display area in the screen normal direction in the first rotation view. Correspondingly, it may be a common area in which the columnarized second areaized spaces intersect.

본원의 일 실시예에 따르면, 상기 시공 현장 인지 장치는 증강현실 구현유닛을 포함하고, 상기 (b) 단계에서, 상기 3차원 모델은 상기 증강현실 구현유닛을 통해 상기 해당 현장에서 건설 구조물이 시공될 예정 위치에 대응하여 디스플레이될 수 있다.According to an embodiment of the present application, the construction site recognition device includes an augmented reality realization unit, and in step (b), the three-dimensional model is to be constructed at the site through the augmented reality realization unit. It may be displayed corresponding to the predetermined position.

본원의 일 실시예에 따르면, 상기 (b) 단계는, (b1) 상기 증강현실 구현유닛의 위치를 기준으로, 상기 해당 시공 현장에 각각의 3차원 위치가 기측정된 상태로 배치된 셋 이상의 마커에 대한 마커 위치 정보를 획득하는 단계 및 (b2) 획득한 상기 마커 위치 정보를 고려하여 상기 증강현실 구현유닛의 위치를 산출 또는 보정하는 단계를 포함할 수 있다.According to an embodiment of the present application, in the step (b), (b1) three or more markers arranged in a state in which each three-dimensional position is pre-measured at the construction site based on the position of the augmented reality implementation unit. and (b2) calculating or correcting the position of the augmented reality implementation unit in consideration of the acquired marker position information.

본원의 일 실시예에 따르면, 상기 증강현실 구현유닛은 방위각 센서를 포함하고, 상기 (b1) 단계에서, 상기 마커 위치 정보는, 증강현실 구현유닛의 위치를 기준으로 상기 셋 이상의 마커 각각에 대하여 감지된 방위각 정보를 포함하고, 상기 (b2) 단계에서, 상기 증강현실 구현유닛의 위치는, 상기 방위각 정보 및 상기 셋 이상의 마커 각각에 대하여 기측정된 3차원 위치 정보 기반으로 산출 또는 보정될 수 있다.According to an embodiment of the present application, the augmented reality realizing unit includes an azimuth sensor, and in step (b1), the marker position information is detected for each of the three or more markers based on the position of the augmented reality realizing unit. azimuth information, and in the step (b2), the position of the augmented reality implementation unit may be calculated or corrected based on the azimuth information and 3D position information previously measured for each of the three or more markers.

본원의 일 실시예에 따르면, 상기 증강현실 구현유닛은 위아래로의 기울어짐(피치 각도)을 감지하는 기울임 센서를 포함하고, 상기 (b1) 단계에서, 상기 마커 위치 정보는, 증강현실 구현유닛의 위치를 기준으로 상기 셋 이상의 마커 각각에 대하여 감지된 기울어짐 각도 정보를 포함하고, 상기 (b2) 단계에서, 상기 증강현실 구현유닛의 위치는, 상기 기울어짐 각도 정보 및 상기 셋 이상의 마커 각각에 대하여 기측정된 3차원 위치 정보 기반으로 산출 또는 보정될 수 있다.According to an embodiment of the present application, the augmented reality realization unit includes an inclination sensor for detecting an up and down inclination (pitch angle), and in the step (b1), the marker position information is, of the augmented reality realization unit Includes inclination angle information detected for each of the three or more markers based on the position, and in the step (b2), the position of the augmented reality implementation unit is, the inclination angle information and each of the three or more markers It may be calculated or corrected based on pre-measured 3D position information.

본원의 일 실시예에 따른 BIM 모델 기반의 시공 현장 인지 장치는, 해당 현장에 시공되는 건설 구조물에 대응하는 복수의 도면 중 적어도 하나와 연계되는 코드 식별자에 기반하여 상기 복수의 도면 중 적어도 하나에 대응하는 BIM 모델 정보를 전송받는 모델 정보 수신부 및 전송받은 상기 BIM 모델 정보를 3차원 모델로 디스플레이 하는 모델 정보 제어부를 포함할 수 있다.The apparatus for recognizing a construction site based on a BIM model according to an embodiment of the present application corresponds to at least one of the plurality of drawings based on a code identifier associated with at least one of a plurality of drawings corresponding to a construction structure constructed at the site It may include a model information receiver for receiving the BIM model information to be transmitted, and a model information controller for displaying the received BIM model information as a three-dimensional model.

본원의 일 실시예에 따르면, BIM 모델 기반의 시공 현장 인지 장치는 상기 3차원 모델이 디스플레이 된 영역에 대하여 사용자 입력을 수신하는 사용자 입력 수신부 및 상기 사용자 입력된 결과를 외부로 전송하는 통신부를 더 포함하고, 상기 사용자 입력 수신부는 사용자 입력에 대응하여 상기 3차원 모델을 3차원적으로 회전시키고, 상기 모델 정보 제어부는 사용자 입력에 대응하여 상기 영역 상에 상기 건설 구조물에 관한 사용자 표시를 수행할 수 있다.According to an embodiment of the present application, the apparatus for recognizing a construction site based on a BIM model further includes a user input receiving unit for receiving a user input with respect to an area in which the 3D model is displayed, and a communication unit for transmitting the user input result to the outside. and the user input receiving unit rotates the three-dimensional model three-dimensionally in response to a user input, and the model information controller may perform a user display regarding the construction structure on the area in response to the user input .

본원의 일 실시예에 따르면, 상기 사용자 입력에 대응하여 제1 회전 뷰를 설정하고, 상기 제1 회전 뷰를 기준으로 제1 사용자 표시가 2차원적으로 이루어지고, 상기 사용자 입력에 대응하여 제2 회전 뷰를 설정하고, 상기 제2 회전 뷰를 기준으로 제2 사용자 표시가 2차원적으로 이루어진 경우, 상기 사용자 입력된 결과에는, 상기 제1 회전 뷰에서 상기 제1 사용자 표시가 이루어진 2차원 위치와 상기 제2 회전 뷰에서 상기 제2 사용자 표시가 이루어진 2차원 위치가 상호 교차되는 3차원적인 교집합 위치에 대한 정보가 포함될 수 있다.According to an embodiment of the present application, a first rotation view is set in response to the user input, a first user display is made two-dimensionally based on the first rotation view, and a second rotation view is performed in response to the user input. When a rotation view is set and the second user display is made two-dimensionally based on the second rotation view, the user input result includes a two-dimensional position where the first user display is made in the first rotation view; In the second rotation view, information on a three-dimensional intersection position where the two-dimensional position where the second user mark is made intersect with each other may be included.

본원의 일 실시예에 따르면, 상기 3차원적인 교집합 위치는 제1 회전 뷰에서 화면 법선 방향으로 표시 영역에 대응하여 기둥화된 제1영역화 공간 및 제2회전 뷰에서 화면 법선 방향으로 표시 영역에 대응하여 기둥화된 제2영역화 공간이 교집합되는 공통영역일 수 있다.According to an exemplary embodiment of the present application, the three-dimensional intersection position is in the display area in the display area in the screen normal direction in the first rotational view and in the columnarized first area corresponding to the display area in the screen normal direction in the first rotation view. Correspondingly, it may be a common area in which the columnarized second areaized spaces intersect.

본원의 일 실시예에 따르면, 증강현실 구현유닛을 더 포함하고, 상기 3차원 모델은 상기 증강현실 구현유닛을 통해 상기 해당 현장에서 건설 구조물이 시공될 예정 위치에 대응하여 디스플레이될 수 있다.According to an embodiment of the present application, further comprising an augmented reality implementation unit, the three-dimensional model may be displayed in response to a location at which a construction structure will be constructed at the corresponding site through the augmented reality implementation unit.

본원의 일 실시예에 따르면, 상기 모델 정보 제어부는, 상기 증강현실 구현유닛의 위치를 기준으로, 상기 해당 시공 현장에 각각의 3차원 위치가 기측정된 상태로 배치된 셋 이상의 마커에 대한 마커 위치 정보를 획득하고, 획득한 상기 마커 위치 정보를 고려하여 상기 증강현실 구현유닛의 위치를 산출 또는 보정할 수 있다.According to an embodiment of the present application, the model information control unit, based on the location of the augmented reality realization unit, the three-dimensional location of each of the three-dimensional location of the corresponding construction site is pre-measured for the three or more markers placed in the marker position. It is possible to obtain information and calculate or correct the position of the augmented reality implementation unit in consideration of the acquired marker position information.

본원의 일 실시예에 따르면, 상기 증강현실 구현유닛은 방위각 센서를 포함하고, 상기 마커 위치 정보는, 증강현실 구현유닛의 위치를 기준으로 상기 셋 이상의 마커 각각에 대하여 감지된 방위각 정보를 포함하고, 상기 증강현실 구현유닛의 위치는, 상기 방위각 정보 및 상기 셋 이상의 마커 각각에 대하여 기측정된 3차원 위치 정보 기반으로 산출 또는 보정될 수 있다.According to an embodiment of the present application, the augmented reality implementation unit includes an azimuth sensor, and the marker position information includes azimuth information sensed for each of the three or more markers based on the position of the augmented reality implementation unit, The position of the augmented reality realization unit may be calculated or corrected based on the azimuth information and the three-dimensional position information previously measured for each of the three or more markers.

본원의 일 실시예에 따르면, 상기 증강현실 구현유닛은 위아래로의 기울어짐(피치 각도)을 감지하는 기울임 센서를 포함하고, 상기 마커 위치 정보는, 증강현실 구현유닛의 위치를 기준으로 상기 셋 이상의 마커 각각에 대하여 감지된 기울어짐 각도 정보를 포함하고, 상기 증강현실 구현유닛의 위치는, 상기 기울어짐 각도 정보 및 상기 셋 이상의 마커 각각에 대하여 기측정된 3차원 위치 정보 기반으로 산출 또는 보정될 수 있다.According to an embodiment of the present application, the augmented reality implementation unit includes an inclination sensor for detecting an up and down inclination (pitch angle), and the marker position information is based on the position of the augmented reality implementation unit. It includes the detected inclination angle information for each of the markers, and the position of the augmented reality implementation unit can be calculated or corrected based on the inclination angle information and the three-dimensional position information previously measured for each of the three or more markers. have.

상술한 과제 해결 수단은 단지 예시적인 것으로서, 본원을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 추가적인 실시예가 존재할 수 있다.The above-described problem solving means are merely exemplary, and should not be construed as limiting the present application. In addition to the exemplary embodiments described above, additional embodiments may exist in the drawings and detailed description.

전술한 본원의 과제 해결 수단에 의하면, 건설 구조물의 설계도와 BIM모델을 연계하여 설계도에 대응하는 3차원 모델을 제공할 수 있는 BIM 모델 기반의 시공 현장 인지 장치 및 방법을 제공할 수 있다.According to the above-described problem solving means of the present application, it is possible to provide an apparatus and method for recognizing a construction site based on a BIM model that can provide a three-dimensional model corresponding to the blueprint by linking the blueprint and the BIM model of the construction structure.

전술한 본원의 과제 해결 수단에 의하면, 3차원 모델을 활용한 건설 구조물의 유지 보수 대한 사용자 입력시 3차원 모델상에 정확한 위치 특정이 가능한 BIM 모델 기반의 시공 현장 인지 장치 및 방법을 제공할 수 있다.According to the above-described problem solving means of the present application, it is possible to provide an apparatus and method for recognizing a construction site based on a BIM model capable of accurately specifying a location on a three-dimensional model upon user input for maintenance of a construction structure using a three-dimensional model. .

전술한 본원의 과제 해결 수단에 의하면, 실제 시공 현장의 건설 구조물을 인식하여 3차원 모델과 함께 증강현실 환경에서 디스플레이할 수 있는 BIM 모델 기반의 시공 현장 인지 장치 및 방법을 제공할 수 있다.According to the above-described problem solving means of the present application, it is possible to provide an apparatus and method for recognizing a construction site based on a BIM model that can recognize a construction structure in an actual construction site and display it in an augmented reality environment together with a 3D model.

도 1은 본원의 일 실시예에 따른 BIM 모델 기반의 시공 현장 인지 시스템의 구성을 도시한 도면이다.
도 2a는 본원의 일 실시예에 따른 BIM 모델 기반의 시공 현장 인지 장치의 건설 구조물의 도면 및 코드 식별자를 도시한 도면이다.
도 2b는 본원의 일 실시예에 따른 BIM 모델 기반의 시공 현장 인지 장치의 코드 식별자 스캔의 예를 도시한 도면이다.
도 3a는 본원의 일 실시예에 따른 BIM 모델 기반의 시공 현장 인지 장치의 이슈 리포트 흐름의 예를 도시한 도면이다.
도 3b는 본원의 일 실시예에 따른 BIM 모델 기반의 시공 현장 인지 장치의 이슈 리포트의 예를 도시한 도면이다.
도 3c 및 도 3d는 본원의 일 실시예에 따른 BIM 모델 기반의 시공현장 인지 장치의 동적인 이슈의 예를 도시한 도면이다.
도 3e 및 도 3f는 본원의 일 실시예에 따른 BIM 모델 기반의 시공현장 인지 장치의 정적인 이슈의 예를 도시한 도면이다.
도 4는 본원의 일 실시예에 따른 BIM 모델 기반의 시공 현장 인지 장치의 3차원 모델에 대한 사용자 입력의 예를 도시한 도면이다.
도 5는 본원의 일 실시예에 따른 BIM 모델 기반의 시공 현장 인지 장치의 증강현실 구현유닛을 통한 건설 구조물 위치 인식의 예를 도시한 도면이다.
도 6a는 본원의 일 실시예에 따른 BIM 모델 기반의 시공 현장 인지 장치의 방위각 정보의 예를 도시한 도면이다.
도 6b는 본원의 일 실시예에 따른 BIM 모델 기반의 시공 현장 인지 장치의 기울어짐 각도 정보의 예를 도시한 도면이다.
도 7은 본원의 일 실시예에 따른 BIM 모델 기반의 시공 현장 인지 방법의 흐름을 도시한 도면이다.
1 is a diagram illustrating the configuration of a BIM model-based construction site recognition system according to an embodiment of the present application.
2A is a diagram illustrating a drawing and code identifier of a construction structure of a BIM model-based construction site recognition apparatus according to an embodiment of the present application.
Figure 2b is a diagram showing an example of the code identifier scan of the apparatus for recognizing a construction site based on a BIM model according to an embodiment of the present application.
3A is a diagram illustrating an example of an issue report flow of a construction site recognition device based on a BIM model according to an embodiment of the present application.
3B is a diagram illustrating an example of an issue report of a BIM model-based construction site recognition device according to an embodiment of the present application.
3c and 3d are diagrams illustrating an example of a dynamic issue of the apparatus for recognizing a construction site based on a BIM model according to an embodiment of the present application.
3e and 3f are diagrams illustrating an example of a static issue of a BIM model-based construction site recognition apparatus according to an embodiment of the present application.
4 is a diagram illustrating an example of a user input to a three-dimensional model of the apparatus for recognizing a construction site based on a BIM model according to an embodiment of the present application.
5 is a view showing an example of the recognition of the location of the construction structure through the augmented reality implementation unit of the BIM model-based construction site recognition device according to an embodiment of the present application.
6A is a diagram illustrating an example of azimuth information of the apparatus for recognizing a construction site based on a BIM model according to an embodiment of the present application.
6B is a diagram illustrating an example of inclination angle information of the apparatus for recognizing a construction site based on a BIM model according to an embodiment of the present application.
7 is a diagram illustrating a flow of a method for recognizing a construction site based on a BIM model according to an embodiment of the present application.

아래에서는 첨부한 도면을 참조하여 본원이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본원의 실시예를 상세히 설명한다. 그러나 본원은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본원을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present application will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art to which the present application pertains can easily implement them. However, the present application may be embodied in several different forms and is not limited to the embodiments described herein. And in order to clearly explain the present application in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

본원 명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. Throughout this specification, when a part is said to be "connected" with another part, it includes not only the case where it is "directly connected" but also the case where it is "electrically connected" with another element interposed therebetween. do.

본원 명세서 전체에서, 어떤 부재가 다른 부재 "상에", "상부에", "상단에", "하에", "하부에", "하단에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.Throughout this specification, when it is said that a member is positioned "on", "on", "on", "under", "under", or "under" another member, this means that a member is positioned on the other member. It includes not only the case where they are in contact, but also the case where another member exists between two members.

본원 명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함" 한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.Throughout this specification, when a part "includes" a certain component, it means that other components may be further included, rather than excluding other components, unless otherwise stated.

도 1은 본원의 일 실시예에 따른 BIM 모델 기반의 시공 현장 인지 시스템의 구성을 도시한 도면이다.1 is a diagram illustrating the configuration of a BIM model-based construction site recognition system according to an embodiment of the present application.

도 1을 참조하면, BIM 모델 기반의 시공 현장 인지 시스템은 BIM 모델 기반의 시공 현장 인지 장치(100) 및 BIM 제공 서버(300)를 포함할 수 있다. 모델 정보 수신부(110), 모델 정보 제어부(120), 사용자 입력 수신부(130), 통신부(140) 및 증강현실 구현유닛(150)을 포함할 수 있다. 본원에서 개시되는 시공 현장은 현장이란, 교량, 댐, 사회기반시설 등의 토목 건축 분야에서 시공하는 포괄적인 건설 구조물의 시공 현장을 의미한다. 또한, BIM 모델 기반의 시공 현장 인지 장치(100)와 BIM 제공 서버(300)는 네트워크를 통해 연결될 수 있다. 네트워크는 단말 및 서버와 같은 각각의 노드 상호 간에 정보 교환이 가능한 유, 무선의 연결 구조를 의미하는 것으로, 이러한 네트워크의 일 예에는 3GPP(3rd Generation Partnership Project) 네트워크, LTE(Long Term Evolution) 네트워크, 5G 네트워크, WIMAX(World Interoperability for Microwave Access) 네트워크, 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), 블루투스(Bluetooth) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않는다.Referring to FIG. 1 , the BIM model-based construction site recognition system may include a BIM model-based construction site recognition device 100 and a BIM providing server 300 . It may include a model information receiver 110 , a model information controller 120 , a user input receiver 130 , a communicator 140 , and an augmented reality implementation unit 150 . The construction site disclosed herein means a construction site of a comprehensive construction structure constructed in the field of civil engineering such as bridges, dams, and infrastructure. In addition, the BIM model-based construction site recognition device 100 and the BIM providing server 300 may be connected through a network. The network refers to a wired and wireless connection structure capable of exchanging information between each node such as a terminal and a server, and an example of such a network includes a 3rd Generation Partnership Project (3GPP) network, a Long Term Evolution (LTE) network, 5G network, WIMAX (World Interoperability for Microwave Access) network, Internet (Internet), LAN (Local Area Network), Wireless LAN (Wireless Local Area Network), WAN (Wide Area Network), PAN (Personal Area Network), Bluetooth ( Bluetooth) networks, satellite broadcast networks, analog broadcast networks, Digital Multimedia Broadcasting (DMB) networks, and the like.

도 2a는 본원의 일 실시예에 따른 BIM 모델 기반의 시공 현장 인지 장치의 건설 구조물의 도면 및 코드 식별자를 도시한 도면이고, 도 2b는 본원의 일 실시예에 따른 BIM 모델 기반의 시공 현장 인지 장치의 코드 식별자 스캔의 예를 도시한 도면이다Figure 2a is a diagram showing a drawing and code identifier of a construction structure of a BIM model-based construction site recognition device according to an embodiment of the present application, Figure 2b is a BIM model-based construction site recognition device according to an embodiment of the present application It is a diagram showing an example of a code identifier scan of

도 2a를 참조하면, 모델 정보 수신부(110)는 해당 현장에 시공되는 건설 구조물에 대응하는 복수의 도면 중 적어도 하나와 연계되는 코드 식별자에 기반하여 상기 복수의 도면 중 적어도 하나에 대응하는 BIM 모델 정보를 전송받을 수 있다. 건설 구조물의 시공에는 다수의 도면(10)이 활용될 수 있으며, 각 도면(10)에는 도면에 대응하는 건설 구조물의 BIM 모델과 연계된 코드 식별자(11)를 포함하여 마련될 수 있다. 코드 식별자(11)는 예를 들어 QR 코드일 수 있으나, 이에 한정되는 것은 아니다. BIM 제공 서버(300)는 건설 구조물의 BIM 정보를 제공하는 서버로, 해당 건설 구조물의 BIM 모델 정보를 제공할 수 있다. 예시적으로, 모델 정보 수신부(110)는 카메라 유닛 및 코드 식별 프로그램과 연계하여 코드 식별자를 스캔할 수 있으며, 코드 식별자의 스캔(식별)에 기초하여 BIM 제공 서버(300)로부터 해당 도면의 건설 구조물에 대한 BIM 모델 정보를 전송받을 수 있다. 도 2b의 (a)는 BIM 모델 정보를 출력하는 디스플레이(12)를 나타내고, 도 2b의 (b)는 상기 디스플레이(12)와 함께 구비될 수 있는 코드 스캐너(13)를 나타낸다. 이처럼 디스플레이(12)와 코드 스캐너(13)가 함께 구비되어 코드 식별자의 스캔에 기초하여 BIM 제공 서버(300)로부터 수신된 BIM 모델 정보가 즉각적으로 출력될 수 있다.Referring to FIG. 2A , the model information receiving unit 110 BIM model information corresponding to at least one of the plurality of drawings based on a code identifier associated with at least one of a plurality of drawings corresponding to a construction structure constructed on the site. can be transmitted. A plurality of drawings 10 may be utilized for the construction of a construction structure, and each drawing 10 may be provided by including a code identifier 11 associated with a BIM model of a construction structure corresponding to the drawing. The code identifier 11 may be, for example, a QR code, but is not limited thereto. The BIM providing server 300 is a server that provides BIM information of a construction structure, and may provide BIM model information of a corresponding construction structure. Illustratively, the model information receiving unit 110 may scan the code identifier in connection with the camera unit and the code identification program, and based on the scan (identification) of the code identifier, the construction structure of the corresponding drawing from the BIM providing server 300 You can receive BIM model information for FIG. 2B (a) shows a display 12 for outputting BIM model information, and FIG. 2B (b) shows a code scanner 13 that may be provided together with the display 12 . As such, the display 12 and the code scanner 13 are provided together so that the BIM model information received from the BIM providing server 300 can be output immediately based on the scan of the code identifier.

도 3a는 본원의 일 실시예에 따른 BIM 모델 기반의 시공 현장 인지 이슈 리포트 흐름의 예를 도시한 도면이고, 도 3b는 본원의 일 실시예에 따른 BIM 모델 기반의 시공 현장 인지 장치의 이슈 리포트의 예를 도시한 도면이다.Figure 3a is a diagram showing an example of a BIM model-based construction site recognition issue report flow according to an embodiment of the present application, Figure 3b is an issue report of the BIM model-based construction site recognition device according to an embodiment of the present application It is a drawing showing an example.

본원의 일 실시예에 따르면, 건설 구조물에 대한 이슈 발생시, 이를 건설 구조물의 시공 관계자 또는 관리자에게 이슈 발생 내역을 전송할 수 있다. 건설 구조물에 발생하는 이슈란 구조물 시공에 요구되는 자재 또는 부재의 이상, 부재 또는 자재의 결합에서 발생하는 이상 등이 있을 수 있다. 사용자 입력 수신부(130)는 건설 구조물에 이슈가 발생한 위치를 BIM 모델 정보에 기초한 3차원 모델에 표시하는 사용자 입력을 수신할 수 있고, 통신부(140)는 사용자 입력을 외부로 전송할 수 있다. 먼저, 이슈 발생시 프로세스에 대해 먼저 설명하고, 3차원 모델에 대한 사용자 입력은 도 4를 통해 후술한다.According to an embodiment of the present application, when an issue with the construction structure occurs, it is possible to transmit the issue occurrence details to a person concerned with the construction of the construction structure or a manager. Issues occurring in construction structures may include abnormalities in materials or members required for the construction of structures, and abnormalities in members or combinations of materials. The user input receiving unit 130 may receive a user input for displaying a location where an issue occurs in the construction structure on a 3D model based on BIM model information, and the communication unit 140 may transmit the user input to the outside. First, a process when an issue occurs will be described first, and a user input to the 3D model will be described later with reference to FIG. 4 .

도 3a를 참조하면, 건설 구조물에 이슈가 발생하면(S301), 해당 이슈가 긴급한 사항인지 판단되고(S302), 긴급 이슈인 경우, 어떤 종류의 이슈인지 파악한다(S303), 이때, 긴급한 이슈가 아닌 경우 단순 이슈의 발생을 외부로 보고할 수 있다(S304). 이후, 긴급 이슈가 현재 진행중인지 판단되고(S305), 진행중인 이슈의 발생이 동적인 경우, 영상으로 이슈를 기록하고(S306), 동적인 이슈가 아닌 경우 이미지로 이슈를 기록할 수 있다(S307). 또한, 이슈를 기록하는 사용자의 손이 자유로운 경우(S308), 이슈를 표시하고(S309), 그렇지 않은 경우 녹음으로 이슈를 기록할 수도 있다(S310). 영상 또는 이미지로 기록된 영상은 예를 들어 클라우드와 같은 공통 데이터 환경(Common Data Environment)으로 전송되어(S311), 이슈가 보고될 수 있다(S312).Referring to FIG. 3A , when an issue occurs in the construction structure (S301), it is determined whether the issue is an urgent matter (S302), and if it is an emergency issue, it is determined what kind of issue it is (S303), at this time, the urgent issue is If not, the occurrence of a simple issue may be reported to the outside (S304). Thereafter, it is determined whether the urgent issue is currently in progress (S305), and if the occurrence of the ongoing issue is dynamic, the issue is recorded as an image (S306), and if it is not a dynamic issue, the issue can be recorded as an image (S307) . In addition, when the user's hand to record the issue is free (S308), the issue is displayed (S309), otherwise, the issue can be recorded by recording (S310). An image or an image recorded as an image may be transmitted to a common data environment such as a cloud (S311), and an issue may be reported (S312).

도 3b를 참조하면, 건설 구조물에 이슈가 발생한 경우, 이슈가 발생한 부분을 초점하여 이슈 보고를 위한 영상 데이터 또는 이미지 데이터가 생성되어 공통 데이터 환경을 통해 건설 구조물의 관리자 또는 담당자에게 보고될 수 있다.Referring to FIG. 3B , when an issue occurs in a construction structure, image data or image data for reporting an issue is generated by focusing on a portion where the issue occurs, and may be reported to a manager or a person in charge of the construction structure through a common data environment.

도 3c 및 도 3d는 본원의 일 실시예에 따른 BIM 모델 기반의 시공현장 인지 장치의 동적인 이슈의 예를 도시한 도면이다.3c and 3d are diagrams illustrating an example of a dynamic issue of the apparatus for recognizing a construction site based on a BIM model according to an embodiment of the present application.

건설 구조물에 발생하는 동적인 이슈에는 구조물의 시공 중 간섭이 있을 수 있다. 도 3c를 참조하면, 교량 건설시, 주탑을 시공하는 과정에서 기 시공된 구조물 또는 교량 건설시 설치되는 가시설과의 간섭이 발생하는 경우가 동적인 이슈일 수 있다. 또한, 도 3d를 참조하면, 교량의 보강형 시공중에도 기시공된 구조물과의 간섭이 발생하는 경우와 같은 동적인 이슈가 있을 수 있다.A dynamic issue that occurs in a construction structure may include interference during construction of the structure. Referring to FIG. 3C , when constructing a bridge, interference with an existing structure or a temporary facility installed during bridge construction may be a dynamic issue in the process of constructing a pylon. In addition, referring to FIG. 3D , there may be dynamic issues such as a case in which interference with a previously constructed structure occurs even during the reinforcement type construction of the bridge.

도 3e 및 도 3f는 본원의 일 실시예에 따른 BIM 모델 기반의 시공현장 인지 장치의 정적인 이슈의 예를 도시한 도면이다.3e and 3f are diagrams illustrating an example of a static issue of a BIM model-based construction site recognition apparatus according to an embodiment of the present application.

건설 구조물에 발생하는 정적인 이슈에는 도 3e를 참조하면 제작장 및 barge 내부에서 구조물이 발생하는 이슈 또는 도 3f에 도시된 바와 같이, 케이블과 철근이 간섭하는 이슈 등이 있을 수 있다.As shown in FIG. 3f , there may be an issue in which a structure is generated inside a manufacturing plant and a barge, or an issue in which cables and reinforcing bars interfere with reference to FIG. 3E .

도 4는본원의 일 실시예에 따른 BIM 모델 기반의 시공 현장 인지 장치의 3차원 모델에 대한 사용자 입력의 예를 도시한 도면이다.4 is a diagram illustrating an example of a user input to a three-dimensional model of the apparatus for recognizing a construction site based on a BIM model according to an embodiment of the present application.

도 4는 개략적인 교량의 일 부분에 대응하는 도면과 연계된 BIM 모델 정보에 기초한 3차원 모델의 예를 도시한다. 모델 정보 제어부(120)는 전송받은 BIM 모델 정보를 3차원 모델(200)로 디스플레이할 수 있다. 모델 정보 제어부(120)는 BIM 제공 서버(300)로부터 수신한 3차원 모델(200)을 다양한 각도 및 시점에서 디스플레이할 수 있으며, 3차원 모델(200)이 디스플레이되는 시점의 전환은 사용자 입력에 기초하여 이루어질 수 있다. 사용자 입력 수신부(130)는 3차원 모델(200)이 디스플레이 된 영역에 대하여 사용자 입력을 수신할 수 있다. 구체적으로, 사용자 입력 수신부(130)는 사용자 입력에 대응하여 3차원 모델(200)을 3차원적으로 회전시킬 수 있다. 3차원 모델(200)은 사용자 입력에 의해 전방위로의 회전이 가능할 수 있다. 따라서, 상기 건설 구조물에 대응하는 3차원 모델(200)에 대해 모든 각도에서의 뷰를 제공할 수 있다. 사용자 입력 수신부(130)는 후술하는 증강현실 구현유닛(150)(예를 들어 헤드 마운트 디스플레이(HMD)일 수 있다.)과 연동되는 웨어러블 디바이스를 통한 제스처로부터 사용자 입력을 수신할 수 있고, BIM 모델 기반의 시공 현장 인지 장치(100)에 대한 터치 입력을 통해서도 사용자 입력을 수신할 수 있다. 모델 정보 제어부(120)는 사용자 입력에 기초하여 BIM 모델 정보를 회전시켜 디스플레이 할 수 있다. 도 3a 및 도 3b와 같이, 3차원 모델(200)은 사용자 입력에 기초하여 다양한 방향으로 회전되어 디스플레이 될 수 있다.4 shows an example of a three-dimensional model based on BIM model information associated with a drawing corresponding to a part of a schematic bridge. The model information control unit 120 may display the received BIM model information as the 3D model 200 . The model information control unit 120 may display the 3D model 200 received from the BIM providing server 300 from various angles and viewpoints, and the switching of the viewpoint at which the 3D model 200 is displayed is based on a user input. can be done by The user input receiving unit 130 may receive a user input with respect to the area in which the 3D model 200 is displayed. Specifically, the user input receiving unit 130 may three-dimensionally rotate the 3D model 200 in response to the user input. The three-dimensional model 200 may be rotated in all directions by a user input. Accordingly, it is possible to provide a view from all angles with respect to the three-dimensional model 200 corresponding to the construction structure. The user input receiving unit 130 may receive a user input from a gesture through a wearable device interworking with the augmented reality implementation unit 150 (eg, a head mounted display (HMD)) to be described later, and a BIM model. A user input may also be received through a touch input to the based construction site recognition device 100 . The model information control unit 120 may rotate and display the BIM model information based on a user input. 3A and 3B , the 3D model 200 may be displayed while being rotated in various directions based on a user input.

또한, 모델 정보 제어부(120)는 사용자 입력에 대응하여 상기 영역 상에 상기 건설 구조물에 관한 사용자 표시를 수행할 수 있다. 예시적으로, 사용자 입력 수신부(130)는 건설 구조물의 시공 과정에 대한 논의가 필요하거나, 건설 구조물의 주요 부분, 설계상의 오류 등에 대한 보고가 필요한 부분을 3차원 모델(200)상에 표시하기 위한 사용자 입력을 수신할 수 있으며, 모델 정보 제어부(120)는 표시를 위한 사용자 입력에 기초하여 3차원 모델(200) 상에 사용자 표시를 수행할 수 있다. 2d인 도면 상에 건설 구조물에 대한 표시를 수행하는 경우, 입체적인 건설 구조물 중 어느 부분에 표시한 것인지 명확하게 파악하기 어려운 점이 있는 반면, 3차원 모델에(200)에 표시하는 경우에는 위와 같은 문제점을 해소할 수 있다. 통신부(140)는 사용자 입력된 결과를 외부로 전송할 수 있다. 통신부(140)는 상기 BIM 제공 서버(300), 건설 현장 사무소와 연계된 단말, 시공 현장의 관리자 또는 작업자의 단말 등 건설 구조물의 시공과 관련된 관계자의 단말로 사용자 입력된 결과를 전송할 수 있다.In addition, the model information control unit 120 may perform a user display regarding the construction structure on the area in response to a user input. Illustratively, the user input receiving unit 130 is for displaying on the three-dimensional model 200 a part that requires discussion on the construction process of the construction structure, or requires a report on a major part of the construction structure, a design error, etc. A user input may be received, and the model information controller 120 may perform a user display on the 3D model 200 based on the user input for display. In the case of displaying the construction structure on the 2d drawing, it is difficult to clearly understand which part of the three-dimensional construction structure is displayed. can be resolved The communication unit 140 may transmit the user input result to the outside. The communication unit 140 may transmit the user input result to a terminal of a person related to the construction of a construction structure, such as the BIM providing server 300 , a terminal associated with a construction site office, and a terminal of a manager or worker of a construction site.

도 4를 참조하면, 3차원 모델(200)에 사용자 표시를 수행하기 위해 2차원 적인 2개의 사용자 표시를 조합하여 3차원 모델(200)에 대한 정확한 위치에 사용자 표시를 수행할 수 있다. 다시 말해, 제1 회전 뷰(210)를 기준으로 제1 사용자 표시가 2차원적으로 이루어지고, 제2 회전 뷰(220)를 기준으로 제2 사용자 표시가 2차원적으로 이루어진 경우, 외부로 전송되는 상기 사용자 입력된 결과에는 제1 회전 뷰(210)에서 상기 제1 사용자 표시가 이루어진 2차원 위치와 상기 제2 회전 뷰에서 상기 제2 사용자 표시가 이루어진 2차원 위치가 상호 교차되는 3차원적인 교집합 위치(230)에 대한 정보가 포함될 수 있다. 디스플레이를 바라보는 사용자는 2차원의 디스플레이에 출력된 3차원 모델(200)에 표시를 입력하므로, 하나의 2차원 입력만으로 3차원 모델(200)에 대한 정확한 표시 위치를 반영하는 것은 어려울 여지가 있다. 이에, 최소 2개의 2차원 입력을 통해 입력된 영역의 교집합 위치를 파악함으로써, 3차원 모델(200)에 대한 정확한 표시가 가능할 수 있다. 도 4는 증강현실 구현 유닛(150)을 착용한 사용자가 제1회전 뷰(210) 및 제2회전 뷰(220) 각각에서 동일한 지점을 보는 예를 도시한다. 실제 증강현실 구현 유닛(150)을 통해 디스플레이되는 사용자가 3차원 모델을 바라보기에 용이한 각도 또는 위치로 조절된 회전 뷰로 디스플레이 되나, 도 4는 각 회전뷰를 개념적인 예를 도시한다.Referring to FIG. 4 , in order to perform user display on the 3D model 200 , two-dimensional user marks may be combined to perform user display at an accurate location on the 3D model 200 . In other words, when the first user display is made two-dimensionally based on the first rotation view 210 and the second user display is made two-dimensionally based on the second rotation view 220, it is transmitted to the outside The user input result is a three-dimensional intersection in which the two-dimensional position where the first user display is made in the first rotation view 210 and the two-dimensional position where the second user display is made in the second rotation view intersect with each other. Information about the location 230 may be included. Since the user looking at the display inputs a display to the 3D model 200 output to the 2D display, it may be difficult to reflect the exact display position of the 3D model 200 with only one 2D input. . Accordingly, the three-dimensional model 200 may be accurately displayed by identifying the intersection positions of the input regions through at least two two-dimensional inputs. 4 shows an example in which a user wearing the augmented reality realization unit 150 sees the same point in each of the first rotational view 210 and the second rotational view 220 . Although the actual augmented reality implementation unit 150 is displayed as a rotation view adjusted to an angle or position that is easy for a user to view the 3D model, FIG. 4 shows a conceptual example of each rotation view.

복수의 2차원 입력은 3차원 모델(200)의 서로 다른 회전 뷰 예를 들어, 도 4에 도시된 제1 회전 뷰(210)와 제2 회전 뷰(220) 각각에서의 사용자 입력일 수 있으며, 제1 회전 뷰(210) 및 제2 회전 뷰(220)에 한정하지 않고 다양한 회전 뷰에서의 사용자 입력으로부터 교집합 위치가 파악될 수 있다. 도 4를 참조하면, 제1 회전 뷰(220)에서 제1사용자 표시가 2차원적으로 이루어진 예를 살펴보면 2차원 모니터에 손가락 터치 또는 펜 터치 등 터치를 통해 3차원 모델에 대한 사용자 입력이 이루어지면, 모델 정보 제어부(120)는 해당 2차원 영역을 면 법선 방향으로 기둥화된 영역화 공간(211)(제1영역화 공간이라 한다.)을 표시할 수 있다. 또한, 증강현실 구현유닛(150)을 착용하고 웨어러블 디바이스를 통해 사용자 입력을 수행하는 경우에도 웨어러블 디바이스에 의한 손가락에 인식에 기초한 사용자 입력으로부터 사용자가 보고 있는 화면 뷰 상에서 화면 법선 방향으로 기둥화된 영역화 공간이 표시될 수 있다. 또한, 제2 회전 뷰(220)에서도 사용자 입력이 이루어지면, 모델 정보 제어부(120)는 해당 2차원 영역을 면 법선 방향으로 기둥화된 영역화 공간(221)(제2영역화 공간이라 한다.)이 표시될 수 있다. The plurality of 2D inputs may be user inputs in different rotational views of the 3D model 200, for example, the first rotational view 210 and the second rotational view 220 shown in FIG. 4, respectively. The intersection position may be determined from user inputs in various rotation views without being limited to the first rotation view 210 and the second rotation view 220 . Referring to FIG. 4 , looking at an example in which the first user display is made two-dimensionally in the first rotation view 220, when a user input to the three-dimensional model is made through a touch such as a finger touch or a pen touch on the two-dimensional monitor, , the model information control unit 120 may display a zoning space 211 (referred to as a first zoning space) in which the corresponding two-dimensional region is columnarized in a plane normal direction. In addition, even when the augmented reality implementation unit 150 is worn and the user input is performed through the wearable device, the area columnar in the screen normal direction on the screen view viewed by the user from the user input based on the recognition of the finger by the wearable device An image space may be displayed. In addition, when a user input is also made in the second rotation view 220 , the model information control unit 120 converts the corresponding two-dimensional area into a columnarized area 221 (referred to as a second area) in a plane normal direction. ) may be displayed.

도 4를 참조하면, 3차원적인 교집합 위치는 제1 회전 뷰(210)에서 화면 법선 방향으로 표시 영역에 대응하여 기둥화된 제1영역화 공간(211) 및 제2회전 뷰(220)에서 화면 법선 방향으로 표시 영역에 대응하여 기둥화된 제2영역화 공간(221)이 교집합되는 공통영역(230)일 수 있다. 다양한 회전 뷰에서의 사용자 입력에 따른 영역화 공간이 많을수록 보다 정확한 공통영역(230)이 수렴될 수 있으므로, 건설 구조물에 대한 세밀한 부분에 대한 파악이 정확하고 용이하게 이루어질 수 있다.Referring to FIG. 4 , the three-dimensional intersection position is the screen in the first and second rotational views 220 and 211 columnarized to correspond to the display area in the screen normal direction in the first rotation view 210 . It may be a common area 230 in which the columnar second areaized spaces 221 corresponding to the display areas in the normal direction intersect. Since the more accurate the common area 230 can converge as the number of zoning spaces according to the user input in the various rotation views is, it is possible to accurately and easily grasp the details of the construction structure.

도 5는 본원의 일 실시예에 따른 BIM 모델 기반의 시공 현장 인지 장치의 증강현실 구현유닛을 통한 건설 구조물 위치 인식의 예를 도시한 도면이다.5 is a view showing an example of the recognition of the location of the construction structure through the augmented reality implementation unit of the BIM model-based construction site recognition device according to an embodiment of the present application.

상기 3차원 모델은 증강현실 구현유닛(150)을 통해 해당 현장에서 건설 구조물이 시공될 예정 위치에 대응하여 디스플레이 될 수 있다. 도 5는 교량을 시공하는 현장의 일부를 도시한다. 예시적으로, 증강현실 구현유닛(150)은 3차원 모델의 실제 건설 구조물의 영상(증강현실 구현유닛을 통해 출력되는 실제 건설 구조물의 영상)과 상기 3차원 모델을 정합하여 디스플레이할 수 있으며, 이때, 3차원 모델과 대응하는 실제 건설 구조물의 시공 예정 위치에 3차원 모델을 정합하여 디스플레이함으로써, 시공 예정 위치에 시공될 건설 구조물의 3차원 모델을 증강현실 환경으로 제공할 수 있다.The three-dimensional model may be displayed through the augmented reality realization unit 150 in response to a location at which a construction structure will be constructed at a corresponding site. 5 shows a part of a site for constructing a bridge. Illustratively, the augmented reality implementation unit 150 may display the 3D model by matching the image of the actual construction structure of the 3D model (the image of the actual construction structure output through the augmented reality implementation unit) with the 3D model. , by matching and displaying the 3D model at the construction scheduled location of the actual construction structure corresponding to the 3D model, it is possible to provide the 3D model of the construction structure to be constructed at the construction scheduled location in an augmented reality environment.

현장에서 건설 구조물이 시공될 위치에 3차원 모델을 정합하기 위해서는 현장의 인식과 예정 위치의 정확한 파악이 중요하다. 예시적으로, 증강현실 구현유닛(150)은 시공 현장에 구비된 건설 구조물 인식을 위한 마커를 통해 현장에서의 건설 구조물의 위치와 3차원 모델이 정합될 위치를 결정할 수 있다. 모델 정보 제어부(120)는 증강현실 구현유닛(150)의 위치를 기준으로, 해당 시공 현장에 각각의 3차원 위치가 기측정된 상태로 배치된 셋 이상의 마커(12, 13, 14)에 대한 마커 위치 정보를 획득할 수 있다. 도 5를 참조하면, 건설 구조물 주변의 시공 현장에는 복수의 마커(12, 13, 14)가 구비될 수 있다. 각 마커(12, 13, 14)는 시공 현장의 건설 기계, 구조물, 건설 자재 등과 구분될 수 있는 다양한 형상 및 색으로 마련될 수 있다. 또한, 마커(12, 13, 14) 각각의 3차원 위치는 예시적으로 3차원 좌표값으로 표현될 수 있으며, BIM 모델 기반의 시공 현장 인지 장치(100)에 미리 저장될 수 있다. In order to match the 3D model to the location where the construction structure will be constructed at the site, it is important to recognize the site and accurately grasp the planned location. For example, the augmented reality implementation unit 150 may determine a position at which the 3D model is to be matched with the position of the construction structure at the site through a marker for recognizing the construction structure provided at the construction site. The model information control unit 120 is a marker for three or more markers (12, 13, 14) arranged in a state in which each three-dimensional position is measured in advance at the construction site based on the position of the augmented reality realization unit 150 Location information can be obtained. Referring to FIG. 5 , a plurality of markers 12 , 13 , and 14 may be provided at a construction site around a construction structure. Each of the markers 12 , 13 , and 14 may be provided in various shapes and colors that can be distinguished from a construction machine, a structure, a construction material, and the like at a construction site. In addition, the three-dimensional position of each of the markers 12 , 13 , and 14 may be exemplarily expressed as a three-dimensional coordinate value, and may be stored in advance in the BIM model-based construction site recognition apparatus 100 .

또한, 마커는 시공 현장뿐만 아니라, 시공중인 일부 건설 구조물에도 구비될 수 있다. 예시적으로, 마커는 시공 중인 건설 구조물의 서로 다른 세 영역에 구비될 수 있고, 모델 정보 제어부(120)는 건설 구조물에 구비된 마커를 인식할 수 있다. 모델 정보 제어부(120)는 3점의 마커의 인식에 기초하여 3차원 모델과 건설 구조물의 정합을 위해 증강현실 구현유닛(150)위치에 대한 정보와 연계된 위치 식별자를 생성할 수 있다. 모델 정보 제어부(120)는 생성된 위치 식별자를 기점으로 건설 구조물에 구비된 3점 마커까지의 거리를 마커 각각에 대해 측량할 수 있다. 위치 식별자로부터 3점 마커까지의 거리와 위치 식별자로부터 3차원 모델까지 개념적인 거리(증강현실 환경에서의 거리)에 대한 정보가 마련될 수 있다. 이때 3차원 모델까지의 거리는 3점 마커에 대응하여 3차원 모델의 3지점까지의 거리일 수 있다. 모델 정보 제어부(120)는 위치 식별자로부터 3점 마커까지의 거리와 위치 식별자로부터 3차원 모델의 3지점까지의 거리에 기초하여 3차원 모델과 건설 구조물의 정합을 위한 증강현실 구현유닛(150)의 위치를 산출 또는 보정할 수 있다. 상기 증강현실 구현유닛(150)의 위치 산출 또는 보정은 기 알려진 거리측정 및 보정 기법에 기초하여 이루어질 수 있다.In addition, the marker may be provided not only on the construction site, but also on some construction structures under construction. For example, the marker may be provided in three different areas of the construction structure under construction, and the model information controller 120 may recognize the marker provided in the construction structure. The model information control unit 120 may generate a location identifier associated with information on the location of the augmented reality implementation unit 150 for matching the three-dimensional model and the construction structure based on the recognition of the three-point marker. The model information control unit 120 may measure the distance from the generated location identifier to the three-point marker provided in the construction structure for each of the markers. Information on the distance from the location identifier to the three-point marker and the conceptual distance (distance in the augmented reality environment) from the location identifier to the 3D model may be provided. In this case, the distance to the three-dimensional model may be a distance to three points of the three-dimensional model corresponding to the three-point marker. The model information control unit 120 is based on the distance from the location identifier to the three-point marker and the distance from the location identifier to three points of the three-dimensional model of the augmented reality implementation unit 150 for matching the three-dimensional model and the construction structure. The position can be calculated or corrected. Calculation or correction of the position of the augmented reality implementation unit 150 may be made based on a known distance measurement and correction technique.

예시적으로, 증강현실 구현유닛(150)은 마커 인식을 가이드 하기 위한 기준자를 출력할 수 있다. 증강현실 구현유닛(150)을 착용한 사용자가 기준자와 가시 영역 내의 마커(14)가 대응하도록 마커(14)를 위치시키면, 모델 정보 제어부(120)는 증강현실 구현유닛(150)의 위치 즉 마커를 바라보는 사용자의 위치로부터 마커간의 위치 파악을 위한 각도 정보를 획득할 수 있다. 상기 각도 정보는 모든 마커(12, 13, 14)에 대해 각각 획득될 수 있다.Illustratively, the augmented reality implementation unit 150 may output a criterion for guiding marker recognition. When the user wearing the augmented reality implementation unit 150 positions the marker 14 so that the marker 14 in the visible region corresponds to the reference point, the model information control unit 120 controls the position of the augmented reality implementation unit 150, that is, Angle information for locating the markers may be acquired from the position of the user looking at the markers. The angle information may be obtained for all markers 12, 13, and 14, respectively.

도 6a는 본원의 일 실시예에 따른 BIM 모델 기반의 시공 현장 인지 장치의 방위각 정보의 예를 도시한 도면이다.6A is a diagram illustrating an example of azimuth information of the apparatus for recognizing a construction site based on a BIM model according to an embodiment of the present application.

전술한 예와 달리, 아직 건설 구조물에 마커를 구비할 만큼 건설 구조물이 시공되지 않은 경우, 건설 구조물과 이웃한 시공 현장에 마커가 구비될 수 있으며, 시공 현장의 마커를를 통해서도 3차원 모델과 건설 구조물의 정합을 위한증강현실 구현 유닛(150)의 위치 산출 또는 보정이 이루어질 수 있다. 구체적으로, 마커 위치 정보는 증강현실 구현유닛의 위치를 기준으로 상기 셋 이상의 마커 각각에 대하여 감지된 방위각 정보를 포함할 수 있다. 예시적으로, 증강현실 구현유닛(150)은 방위각 센서를 포함할 수 있다. 모델 정보 제어부(120)는 상기 방위각 센서를 통해 측정된 마커에 대해 가상의 수평한 기준선을 중심으로부터 마커까지의 방위각을 수신하고, 이에 기초하여 마커 각각에 대한 방위각 정보를 생성할 수 있다. 상기 방위각을 측정하기 위한 기준선은 도 5b에서 설명한 기준자(151)와 함께 출력될 수도 있다. 도 6a를 참조하면, 방위각 센서는 제1마커(12)의 제1방위각(22)을 측정할 수 있고, 제2마커(13)의 제2방위각(23) 및 제3마커(14)의 제3방위각(24)를 각각 측정할 수 있으며, 측정된 방위각을 통해 마커 각각에 대한 방위각 정보를 생성할 수 있다.Unlike the above-described example, when the construction structure has not yet been constructed enough to include the marker on the construction structure, the marker may be provided at the construction site adjacent to the construction structure, and the 3D model and the construction structure are also provided through the marker at the construction site. The position calculation or correction of the augmented reality implementation unit 150 for the matching of may be made. Specifically, the marker location information may include information on the azimuth angle sensed for each of the three or more markers based on the location of the augmented reality implementation unit. For example, the augmented reality implementation unit 150 may include an azimuth sensor. The model information controller 120 may receive an azimuth from the center to the marker on a virtual horizontal reference line for the marker measured through the azimuth sensor, and generate azimuth information for each marker based on the received azimuth. The reference line for measuring the azimuth may be output together with the reference ruler 151 described with reference to FIG. 5B . Referring to FIG. 6A , the azimuth sensor may measure the first azimuth 22 of the first marker 12 , and the second azimuth 23 of the second marker 13 and the second azimuth of the third marker 14 . Each of the three azimuth angles 24 may be measured, and azimuth information for each marker may be generated through the measured azimuth angles.

모델 정보 제어부(120)는 획득한 마커 위치 정보를 고려하여 증강현실 구현유닛(150)의 위치를 산출 또는 보정할 수 있다. 구체적으로, 증강현실 구현유닛(150)의 위치는, 방위각 정보 및 상기 셋 이상의 마커 각각에 대하여 기측정된 3차원 위치 정보 기반으로 산출 또는 보정될 수 있다. 모델 정보 제어부(120)는 마커 위치 정보를 통한 각 마커의 3차원 위치와 마커 각각의 방위각 정보에 기초하여 기 알려진 3각 측량 기법 등을 통해 증강현실 구현유닛(150)의 위치를 산출 또는 보정할 수 있다. 건설 구조물에 대한 증강현실 구현유닛(150)의 상대적인 위치가 결정됨에 따라, 증강현실 구현유닛(150)을 통해 디스플레이되는 3차원 모델과 건설 구조물의 정합이 정확하게 이루어질 수 있다.The model information control unit 120 may calculate or correct the position of the augmented reality implementation unit 150 in consideration of the acquired marker position information. Specifically, the position of the augmented reality realization unit 150 may be calculated or corrected based on azimuth information and 3D position information previously measured for each of the three or more markers. The model information control unit 120 calculates or corrects the position of the augmented reality implementation unit 150 through a known triangulation technique, etc., based on the three-dimensional position of each marker and the azimuth information of each marker through the marker position information. can As the relative position of the augmented reality implementation unit 150 with respect to the construction structure is determined, the 3D model displayed through the augmented reality implementation unit 150 and the construction structure can be accurately matched.

도 6b는 본원의 일 실시예에 따른 BIM 모델 기반의 시공 현장 인지 장치의 기울어짐 각도 정보의 예를 도시한 도면이다.6B is a diagram illustrating an example of inclination angle information of the apparatus for recognizing a construction site based on a BIM model according to an embodiment of the present application.

예시적으로, 증강현실 구현유닛(150)은 위아래로의 기울어짐을 감지하는 기울임 센서를 포함할 수 있다. 모델 정보 제어부(120)는 보다 정확한 증강현실 구현유닛(150)의 위치 결정을 위해, 전술한 방위각뿐만 아니라 증강현실 구현유닛의 상하 개념의 위치 즉 기울어짐 각도(피치각)를 더 고려하여 증강현실 구현유닛(150)의 위치를 산출 또는 보정할 수 있다. 모델 정보 제어부(120)는 상기 기울임 센서를 통해 측정된 마커에 대해 가상의 수직한 기준선을 중심으로부터 마커까지의 피치 각도를 수신하고, 이에 기초하여 마커 각각에 대한 기울어짐 각도 정보를 생성할 수 있다. 상기 피치 각도를 측정하기 위한 기준선은 도 5b에서 설명한 기준자(151)와 함께 출력될 수도 있다. 도 6b를 참조하면, 기울임 센서는 제1마커(12)의 제1피치각(32)을 측정할 수 있고, 제2마커(13)의 제2피치각(33) 및 제3마커(14)의 제3피치각(34)을 각각 측정할 수 있으며, 측정된 피치각을 통해 마커 각각에 대한 기울어짐 각도 정보를 생성할 수 있다. Illustratively, the augmented reality implementation unit 150 may include a tilt sensor that detects an up and down tilt. The model information control unit 120 further considers the above-described azimuth as well as the position of the up and down concept of the augmented reality implementation unit, that is, the inclination angle (pitch angle), for a more accurate location determination of the augmented reality implementation unit 150, augmented reality. The location of the implementation unit 150 may be calculated or corrected. The model information control unit 120 may receive the pitch angle from the center to the marker on a virtual vertical reference line for the marker measured through the inclination sensor, and generate inclination angle information for each marker based on this. . The reference line for measuring the pitch angle may be output together with the reference ruler 151 described with reference to FIG. 5B . Referring to FIG. 6B , the tilt sensor may measure the first pitch angle 32 of the first marker 12 , and the second pitch angle 33 and the third marker 14 of the second marker 13 . Each of the third pitch angles 34 may be measured, and inclination angle information for each of the markers may be generated through the measured pitch angles.

또한, 증강현실 구현유닛(150)의 위치는, 기울어짐 각도 정보 및 상기 셋 이상의 마커 각각에 대하여 기측정된 3차원 위치 정보 기반으로 산출 또는 보정될 수 있다. 모델 정보 제어부(120)는 마커 위치 정보를 통한 각 마커의 3차원 위치와 마커 각각의 기울어짐 각도 정보에 기초하여 기 알려진 3각 측량 기법 등을 통해 증강현실 구현유닛(150)의 위치를 산출 또는 보정할 수 있다In addition, the position of the augmented reality implementation unit 150 may be calculated or corrected based on the inclination angle information and the three-dimensional position information previously measured for each of the three or more markers. The model information control unit 120 calculates the position of the augmented reality implementation unit 150 through a known triangulation technique, etc., based on the three-dimensional position of each marker and the inclination angle information of each marker through the marker position information, or can be corrected

예시적으로, 모델 정보 제어부(120)는 건축 중인 건축 구조물에 수행되는 다음 프로세스에 대한 시뮬레이션을 증강현실 구현유닛(150)을 통해 제공할 수 있다. 예시적으로, 현재까지 건축된 건축 구조물에 건축되는 건축 자재의 건설과정(설치과정)이 증강현실로 구현된 시뮬레이션이 증강현실 구현유닛(150)을 통해 디스플레이될 수 있다. 뿐만 아니라, 실제 건설 구조물의 영상에 다음 프로세스에 대한 건설될 건축 자재가 증강현실로 구현되어 시뮬레이션이 이루어질 수도 있다. 다시 말해, 실제 영상에 다음 프로세스에 대한 증강현실 기반의 영상이 정합되어 다음 프로세스가 시뮬레이션될 수 있다.For example, the model information control unit 120 may provide a simulation of the next process performed on the building structure under construction through the augmented reality implementation unit 150 . For example, a simulation in which a construction process (installation process) of a building material to be built on a building structure built so far is implemented in augmented reality may be displayed through the augmented reality implementation unit 150 . In addition, the building materials to be built for the next process may be implemented in augmented reality in the image of the actual construction structure, and simulation may be made. In other words, the next process may be simulated by matching the augmented reality-based image for the next process to the real image.

도 7은 본원의 일 실시예에 따른 BIM 모델 기반의 시공 현장 인지 방법의 흐름을 도시한 도면이다.7 is a diagram illustrating a flow of a method for recognizing a construction site based on a BIM model according to an embodiment of the present application.

도 7에 도시된 본원의 일 실시예에 따른 BIM 모델 기반의 시공 현장 인지 방법은 앞선 도 1 내지 도6b를 통해 설명된 BIM 모델 기반의 시공 현장 인지 장치에 의하여 수행될 수 있다. 따라서 이하 생략된 내용이라고 하더라도 도 1 내지 도 6b를 통해 본원의 일 실시예에 따른 BIM 모델 기반의 시공 현장 인지 장치에 대하여 설명된 내용은 도 7에도 동일하게 적용될 수 있다.The method for recognizing a construction site based on a BIM model according to an embodiment of the present application shown in FIG. 7 may be performed by the apparatus for recognizing a construction site based on the BIM model described with reference to FIGS. 1 to 6B above. Therefore, even if omitted below, the contents described with respect to the apparatus for recognizing a construction site based on a BIM model according to an embodiment of the present application through FIGS. 1 to 6B may be equally applied to FIG. 7 .

도 7을 참조하면, 단계 S710에서, 모델 정보 수신부(110)는 해당 현장에 시공되는 건설 구조물에 대응하는 복수의 도면 중 적어도 하나와 연계되는 코드 식별자에 기반하여 상기 복수의 도면 중 적어도 하나에 대응하는 BIM 모델 정보를 전송받을 수 있다. 건설 구조물의 시공에는 다수의 도면(10)이 활용될 수 있으며, 각 도면(10)에는 도면에 대응하는 건설 구조물의 BIM 모델과 연계된 코드 식별자(11)를 포함하여 마련될 수 있다. 모델 정보 수신부(110)는 카메라 유닛 및 코드 식별 프로그램과 연계하여 코드 식별자를 스캔할 수 있으며, 코드 식별자의 스캔(식별)에 기초하여 BIM 제공 서버(300)로부터 해당 도면의 건설 구조물에 대한 BIM 모델 정보를 전송받을 수 있다.Referring to FIG. 7 , in step S710 , the model information receiving unit 110 corresponds to at least one of the plurality of drawings based on the code identifier associated with at least one of the plurality of drawings corresponding to the construction structure constructed at the site. BIM model information can be transmitted. A plurality of drawings 10 may be utilized for the construction of a construction structure, and each drawing 10 may be provided by including a code identifier 11 associated with a BIM model of a construction structure corresponding to the drawing. The model information receiver 110 may scan the code identifier in connection with the camera unit and the code identification program, and based on the scan (identification) of the code identifier, the BIM model for the construction structure of the corresponding drawing from the BIM providing server 300 information can be transmitted.

단계 S720에서 모델 정보 제어부(120)는 전송받은 BIM 모델 정보를 3차원 모델(200)로 디스플레이할 수 있다. 모델 정보 제어부(120)는 BIM 제공 서버(300)로부터 수신한 3차원 모델(200)을 다양한 각도 및 시점에서 디스플레이할 수 있으며, 3차원 모델(200)이 디스플레이되는 시점의 전환은 사용자 입력에 기초하여 이루어질 수 있다.In step S720 , the model information control unit 120 may display the received BIM model information as the 3D model 200 . The model information control unit 120 may display the 3D model 200 received from the BIM providing server 300 from various angles and viewpoints, and the switching of the viewpoint at which the 3D model 200 is displayed is based on a user input. can be done by

단계 S730에서 사용자 입력 수신부(130)는 3차원 모델(200)이 디스플레이 된 영역에 대하여 사용자 입력을 수신할 수 있다. 구체적으로, 사용자 입력 수신부(130)는 사용자 입력에 대응하여 3차원 모델(200)을 3차원적으로 회전시킬 수 있다. 3차원 모델(200)은 사용자 입력에 의해 전방위로의 회전이 가능할 수 있다. 따라서, 상기 건설 구조물에 대응하는 3차원 모델(200)에 대해 모든 각도에서의 뷰를 제공할 수 있다.In step S730, the user input receiving unit 130 may receive a user input with respect to the area in which the 3D model 200 is displayed. Specifically, the user input receiving unit 130 may three-dimensionally rotate the 3D model 200 in response to the user input. The three-dimensional model 200 may be rotated in all directions by a user input. Accordingly, it is possible to provide a view from all angles with respect to the three-dimensional model 200 corresponding to the construction structure.

또한, 모델 정보 제어부(120)는 사용자 입력에 대응하여 상기 영역 상에 상기 건설 구조물에 관한 사용자 표시를 수행할 수 있다. 예시적으로, 사용자 입력 수신부(130)는 건설 구조물의 구조, 부품, 결합 상태에 대한 논의가 필요하거나, 건설 구조물의 주요 부분, 설계상의 오류 등에 대한 보고가 필요한 부분을 3차원 모델(200)상에 표시하기 위한 사용자 입력을 수신할 수 있으며, 모델 정보 제어부(120)는 표시를 위한 사용자 입력에 기초하여 3차원 모델(200) 상에 사용자 표시를 수행할 수 있다. In addition, the model information control unit 120 may perform a user display regarding the construction structure on the area in response to a user input. Illustratively, the user input receiving unit 130 may display a part that requires discussion of the structure, parts, and coupling state of the construction structure, or that needs to report a major part of the construction structure, design errors, etc. on the three-dimensional model 200 . may receive a user input for displaying on the , and the model information control unit 120 may perform a user display on the 3D model 200 based on the user input for display.

단계 S740에서 통신부(140)는 사용자 입력된 결과를 외부로 전송할 수 있다. 통신부(140)는 상기 BIM 제공 서버(300), 건설 현장 사무소와 연계된 단말, 시공 현장의 관리자 또는 작업자의 단말 등 건설 구조물의 시공과 관련된 관계자의 단말로 사용자 입력된 결과를 전송할 수 있다.In step S740, the communication unit 140 may transmit the user input result to the outside. The communication unit 140 may transmit the user input result to a terminal of a person related to the construction of a construction structure, such as the BIM providing server 300 , a terminal associated with a construction site office, and a terminal of a manager or worker of a construction site.

3차원 모델(200)에 사용자 표시를 수행하기 위해 2차원 적인 2개의 사용자 표시를 조합하여 3차원 모델(200)에 대한 정확한 위치에 사용자 표시를 수행할 수 있다. 다시 말해, 제1 회전 뷰를 기준으로 제1 사용자 표시가 2차원적으로 이루어지고, 제2 회전 뷰를 기준으로 제2 사용자 표시가 2차원적으로 이루어진 경우, 외부로 전송되는 상기 사용자 입력된 결과에는 제1 회전 뷰에서 상기 제1 사용자 표시가 이루어진 2차원 위치와 상기 제2 회전 뷰에서 상기 제2 사용자 표시가 이루어진 2차원 위치가 상호 교차되는 3차원적인 교집합 위치에 대한 정보가 포함될 수 있다. 이때, 3차원적인 교집합 위치는 제1 회전 뷰에서 화면 법선 방향으로 표시 영역에 대응하여 기둥화된 제1영역화 공간(211) 및 제2회전 뷰에서 화면 법선 방향으로 표시 영역에 대응하여 기둥화된 제2영역화 공간(221)이 교집합되는 공통영역(230)일 수 있다. 다양한 회전 뷰에서의 사용자 입력에 따른 영역화 공간이 많을수록 보다 정확한 공통영역(230)이 수렴될 수 있으므로, 건설 구조물에 대한 세밀한 부분에 대한 파악이 정확하고 용이하게 이루어질 수 있다.In order to perform user display on the 3D model 200 , two-dimensional user marks may be combined to perform user display at an accurate location on the 3D model 200 . In other words, when the first user display is made two-dimensionally based on the first rotation view and the second user display is two-dimensionally performed based on the second rotation view, the user input result transmitted to the outside may include information on a three-dimensional intersection position where the two-dimensional position where the first user mark is made in the first rotation view and the two-dimensional position where the second user mark is made in the second rotation view intersect with each other. At this time, the three-dimensional intersection position is columnarized to correspond to the display area in the screen normal direction in the first rotation view, and the first area space 211 is columnarized to correspond to the display area in the screen normal direction in the second rotation view. The second regionized space 221 may be a common region 230 where they intersect. Since the more accurate the common area 230 can converge as the number of zoning spaces according to the user input in the various rotation views is, it is possible to accurately and easily grasp the details of the construction structure.

또한, 상기 3차원 모델은 증강현실 구현유닛(150)을 통해 해당 현장에서 건설 구조물이 시공될 예정 위치에 대응하여 디스플레이 될 수 있다. 예시적으로, 증강현실 구현유닛(150)은 3차원 모델의 실제 건설 구조물의 영상(증강현실 구현유닛을 통해 출력되는 실제 건설 구조물의 영상)과 상기 3차원 모델을 정합하여 디스플레이할 수 있으며, 이때, 3차원 모델과 대응하는 실제 건설 구조물의 시공 예정 위치에 3차원 모델을 정합하여 디스플레이함으로써, 시공 예정 위치에 시공될 건설 구조물의 3차원 모델을 증강현실 환경으로 제공할 수 있다.In addition, the three-dimensional model may be displayed through the augmented reality realization unit 150 in response to a location at which a construction structure is to be constructed at the corresponding site. Illustratively, the augmented reality implementation unit 150 may display the 3D model by matching the image of the actual construction structure of the 3D model (the image of the actual construction structure output through the augmented reality implementation unit) with the 3D model. , by matching and displaying the 3D model at the construction scheduled location of the actual construction structure corresponding to the 3D model, it is possible to provide the 3D model of the construction structure to be constructed at the construction scheduled location in an augmented reality environment.

현장에서 건설 구조물이 시공될 위치에 3차원 모델을 정합하기 위해서는 현장의 인식과 예정 위치의 정확한 파악이 중요하다. 예시적으로, 증강현실 구현유닛(150)은 시공 현장에 구비된 건설 구조물 인식을 위한 마커를 통해 현장에서의 건설 구조물의 위치와 3차원 모델이 정합될 위치를 결정할 수 있다. 모델 정보 제어부(120)는 증강현실 구현유닛(150)의 위치를 기준으로, 해당 시공 현장에 각각의 3차원 위치가 기측정된 상태로 배치된 셋 이상의 마커(12, 13, 14)에 대한 마커 위치 정보를 획득할 수 있다. 예시적으로, 마커 위치 정보는 증강현실 구현유닛의 위치를 기준으로 상기 셋 이상의 마커 각각에 대하여 감지된 방위각 정보를 포함할 수 있다. 증강현실 구현유닛(150)은 방위각 센서를 포함할 수 있고, 모델 정보 제어부(120)는 상기 방위각 센서를 통해 측정된 마커에 대해 가상의 수평한 기준선을 중심으로부터 마커까지의 방위각을 수신하고, 이에 기초하여 마커 각각에 대한 방위각 정보를 생성할 수 있다.In order to match the 3D model to the location where the construction structure will be constructed at the site, it is important to recognize the site and accurately grasp the planned location. For example, the augmented reality implementation unit 150 may determine a position at which the 3D model is to be matched with the position of the construction structure at the site through a marker for recognizing the construction structure provided at the construction site. The model information control unit 120 is a marker for three or more markers (12, 13, 14) arranged in a state in which each three-dimensional position is measured in advance at the construction site based on the position of the augmented reality realization unit 150 Location information can be obtained. Illustratively, the marker position information may include azimuth information sensed for each of the three or more markers based on the position of the augmented reality implementation unit. The augmented reality implementation unit 150 may include an azimuth sensor, and the model information control unit 120 receives the azimuth from the center to the marker on a virtual horizontal reference line for the marker measured through the azimuth sensor, Based on the azimuth angle information for each marker may be generated.

모델 정보 제어부(120)는 획득한 마커 위치 정보를 고려하여 증강현실 구현유닛(150)의 위치를 산출 또는 보정할 수 있다. 구체적으로, 증강현실 구현유닛(150)의 위치는, 방위각 정보 및 상기 셋 이상의 마커 각각에 대하여 기측정된 3차원 위치 정보 기반으로 산출 또는 보정될 수 있다. 모델 정보 제어부(120)는 마커 위치 정보를 통한 각 마커의 3차원 위치와 마커 각각의 방위각 정보에 기초하여 기 알려진 3각 측량 기법 등을 통해 증강현실 구현유닛(150)의 위치를 산출 또는 보정할 수 있다.The model information control unit 120 may calculate or correct the position of the augmented reality implementation unit 150 in consideration of the acquired marker position information. Specifically, the position of the augmented reality realization unit 150 may be calculated or corrected based on azimuth information and 3D position information previously measured for each of the three or more markers. The model information control unit 120 calculates or corrects the position of the augmented reality implementation unit 150 through a known triangulation technique, etc., based on the three-dimensional position of each marker and the azimuth information of each marker through the marker position information. can

다른 예로, 증강현실 구현유닛(150)은 위아래로의 기울어짐을 감지하는 기울임 센서를 포함할 수 있다. 모델 정보 제어부(120)는 보다 정확한 증강현실 구현유닛(150)의 위치 결정을 위해, 전술한 방위각뿐만 아니라 증강현실 구현유닛의 상하 개념의 위치 즉 기울어짐 각도(피치각)를 더 고려하여 증강현실 구현유닛(150)의 위치를 산출 또는 보정할 수 있다. 또한, 증강현실 구현유닛(150)의 위치는, 기울어짐 각도 정보 및 상기 셋 이상의 마커 각각에 대하여 기측정된 3차원 위치 정보 기반으로 산출 또는 보정될 수 있다. 모델 정보 제어부(120)는 마커 위치 정보를 통한 각 마커의 3차원 위치와 마커 각각의 기울어짐 각도 정보에 기초하여 기 알려진 3각 측량 기법 등을 통해 증강현실 구현유닛(150)의 위치를 산출 또는 보정할 수 있다.As another example, the augmented reality implementation unit 150 may include an inclination sensor that detects an up and down tilt. The model information control unit 120 further considers the above-described azimuth as well as the position of the up and down concept of the augmented reality implementation unit, that is, the inclination angle (pitch angle), for a more accurate location determination of the augmented reality implementation unit 150, augmented reality. The location of the implementation unit 150 may be calculated or corrected. In addition, the position of the augmented reality implementation unit 150 may be calculated or corrected based on the inclination angle information and the three-dimensional position information previously measured for each of the three or more markers. The model information control unit 120 calculates the position of the augmented reality implementation unit 150 through a known triangulation technique, etc., based on the three-dimensional position of each marker and the inclination angle information of each marker through the marker position information, or can be corrected.

본원의 일 실시 예에 따른, BIM 모델 기반의 시공 현장 인지 방법은, 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The BIM model-based construction site recognition method according to an embodiment of the present application may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the present invention, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and carry out program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

전술한 본원의 설명은 예시를 위한 것이며, 본원이 속하는 기술분야의 통상의 지식을 가진 자는 본원의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above description of the present application is for illustration, and those of ordinary skill in the art to which the present application pertains will understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present application. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a dispersed form, and likewise components described as distributed may be implemented in a combined form.

본원의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본원의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present application is indicated by the following claims rather than the above detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included in the scope of the present application.

10: 도면
11: 코드 식별자
12, 13, 14: 마커
100: BIM 모델 기반의 시공 현장 인지 장치
110: 모델 정보 수신부
120: 모델 정보 제어부
130: 사용자 입력 수신부
140: 통신부
150: 증강현실 구현유닛
200: 3차원 모델
300: BIM 제공 서버
10: drawings
11: Code identifier
12, 13, 14: marker
100: BIM model-based construction site recognition device
110: model information receiver
120: model information control unit
130: user input receiving unit
140: communication department
150: augmented reality implementation unit
200: three-dimensional model
300: BIM providing server

Claims (8)

시공 현장 인지 장치를 이용한 BIM 모델 기반의 시공 현장 인지 방법으로서,
(a) 해당 현장에 시공되는 건설 구조물에 대응하는 복수의 도면 중 적어도 하나와 연계되는 코드 식별자에 기반하여 상기 복수의 도면 중 적어도 하나에 대응하는 BIM 모델 정보를 전송받는 단계;
(b) 전송받은 상기 BIM 모델 정보를 3차원 모델로 디스플레이 하는 단계;
(c) 상기 3차원 모델이 디스플레이 된 영역에 대하여 사용자 입력을 받는 단계; 및
(d) 상기 사용자 입력된 결과를 외부로 전송하는 단계를 포함하고,
상기 (c) 단계는,
(c1) 사용자 입력에 대응하여 상기 3차원 모델이 3차원적으로 회전되는 단계; 및
(c2) 사용자 입력에 대응하여 상기 영역 상에 상기 건설 구조물에 관한 사용자 표시가 이루어지는 단계를 포함하고,
상기 (c1) 단계에서 제1 회전 뷰를 설정하고 상기 (c2) 단계에서 상기 제1 회전 뷰를 기준으로 제1 사용자 표시가 2차원적으로 이루어지고, 다시 상기 (c1) 단계에서 상기 제1 회전 뷰와 상이한 제2 회전 뷰를 설정하고 상기 (c2) 단계에서 상기 제2 회전 뷰를 기준으로 제2 사용자 표시가 2차원적으로 이루어지면,
상기 (d) 단계에서, 상기 사용자 입력된 결과에는, 상기 제1 회전 뷰에서 상기 제1 사용자 표시가 이루어진 2차원 위치와 상기 제2 회전 뷰에서 상기 제2 사용자 표시가 이루어진 2차원 위치가 상기 3차원 모델 상에서 상호 교차되는 3차원적인 교집합 위치에 대한 정보가 포함되고,
상기 3차원적인 교집합 위치는, 상기 제1 회전 뷰에서 화면 법선 방향으로 표시 영역에 대응하여 기둥화된 제1영역화 공간 및 상기 제2 회전 뷰에서 화면 법선 방향으로 표시 영역에 대응하여 기둥화된 제2영역화 공간이 교집합되는 공통영역 내의 위치인 것인, BIM 모델 기반의 시공 현장 인지 방법.
As a construction site recognition method based on a BIM model using a construction site recognition device,
(a) receiving BIM model information corresponding to at least one of the plurality of drawings based on a code identifier associated with at least one of a plurality of drawings corresponding to a construction structure constructed at the site;
(b) displaying the received BIM model information as a three-dimensional model;
(c) receiving a user input with respect to an area in which the 3D model is displayed; and
(d) transmitting the user input result to the outside;
The step (c) is,
(c1) three-dimensionally rotating the three-dimensional model in response to a user input; and
(c2) comprising the step of making a user display about the construction structure on the area in response to a user input,
The first rotation view is set in the step (c1), the first user display is two-dimensionally performed based on the first rotation view in the step (c2), and the first rotation view is again performed in the step (c1) If a second rotation view different from the view is set and the second user display is made two-dimensionally based on the second rotation view in step (c2),
In the step (d), in the result of the user input, the two-dimensional position where the first user display is made in the first rotation view and the two-dimensional position where the second user display is made in the second rotation view are the 3 Information on the three-dimensional intersection position that intersects each other on the dimensional model is included,
The three-dimensional intersecting position is a first zoning space that is columnarized to correspond to the display area in the screen normal direction in the first rotation view and is columnarized to correspond to the display area in the screen normal direction in the second rotation view. A method for recognizing a construction site based on a BIM model, which is a location within a common area where the second zoning space intersects.
삭제delete 삭제delete 제1항에 있어서,
상기 시공 현장 인지 장치는 증강현실 구현유닛을 포함하고,
상기 (b) 단계에서, 상기 3차원 모델은 상기 증강현실 구현유닛을 통해 상기 해당 현장에서 건설 구조물이 시공될 예정 위치에 대응하여 디스플레이되는 것인, BIM 모델 기반의 시공 현장 인지 방법.
According to claim 1,
The construction site recognition device includes an augmented reality implementation unit,
In the step (b), the three-dimensional model is displayed in response to the expected location of the construction structure at the site through the augmented reality implementation unit, BIM model-based construction site recognition method.
제4항에 있어서,
상기 (b) 단계는,
(b1) 상기 증강현실 구현유닛의 위치를 기준으로, 상기 해당 현장에 각각의 3차원 위치가 기측정된 상태로 배치된 셋 이상의 마커에 대한 마커 위치 정보를 획득하는 단계; 및
(b2) 획득한 상기 마커 위치 정보를 고려하여 상기 증강현실 구현유닛의 위치를 산출 또는 보정하는 단계를 포함하는 것인, BIM 모델 기반의 시공 현장 인지 방법.
5. The method of claim 4,
Step (b) is,
(b1) obtaining marker position information for three or more markers arranged in a state in which each three-dimensional position is pre-measured at the site based on the position of the augmented reality implementation unit; and
(b2) a BIM model-based construction site recognition method comprising the step of calculating or correcting the location of the augmented reality implementation unit in consideration of the acquired marker location information.
BIM 모델 기반의 시공 현장 인지 장치로서,
해당 현장에 시공되는 건설 구조물에 대응하는 복수의 도면 중 적어도 하나와 연계되는 코드 식별자에 기반하여 상기 복수의 도면 중 적어도 하나에 대응하는 BIM 모델 정보를 전송받는 모델 정보 수신부;
전송받은 상기 BIM 모델 정보를 3차원 모델로 디스플레이 하는 모델 정보 제어부;
상기 3차원 모델이 디스플레이 된 영역에 대하여 사용자 입력을 수신하는 사용자 입력 수신부; 및
상기 사용자 입력된 결과를 외부로 전송하는 통신부를 포함하고,
상기 사용자 입력 수신부는, 사용자 입력에 대응하여 상기 3차원 모델을 3차원적으로 회전시키고,
상기 모델 정보 제어부는, 사용자 입력에 대응하여 상기 영역 상에 상기 건설 구조물에 관한 사용자 표시를 수행하고,
상기 사용자 입력에 대응하여 제1 회전 뷰를 설정하고, 상기 제1 회전 뷰를 기준으로 제1 사용자 표시가 2차원적으로 이루어지고, 상기 사용자 입력에 대응하여 상기 제1 회전 뷰와 상이한 제2 회전 뷰를 설정하고, 상기 제2 회전 뷰를 기준으로 제2 사용자 표시가 2차원적으로 이루어진 경우, 상기 사용자 입력된 결과에는, 상기 제1 회전 뷰에서 상기 제1 사용자 표시가 이루어진 2차원 위치와 상기 제2 회전 뷰에서 상기 제2 사용자 표시가 이루어진 2차원 위치가 상기 3차원 모델 상에서 상호 교차되는 3차원적인 교집합 위치에 대한 정보가 포함되고,
상기 3차원적인 교집합 위치는, 상기 제1 회전 뷰에서 화면 법선 방향으로 표시 영역에 대응하여 기둥화된 제1영역화 공간 및 상기 제2 회전 뷰에서 화면 법선 방향으로 표시 영역에 대응하여 기둥화된 제2영역화 공간이 교집합되는 공통영역 내의 위치인 것인, BIM 모델 기반의 시공 현장 인지 장치.
As a BIM model-based construction site recognition device,
a model information receiver for receiving BIM model information corresponding to at least one of the plurality of drawings based on a code identifier associated with at least one of a plurality of drawings corresponding to a construction structure constructed at the site;
a model information controller configured to display the received BIM model information as a three-dimensional model;
a user input receiving unit for receiving a user input with respect to the area in which the 3D model is displayed; and
and a communication unit for transmitting the user input result to the outside;
The user input receiving unit rotates the three-dimensional model three-dimensionally in response to the user input,
The model information control unit performs a user display regarding the construction structure on the area in response to a user input,
A first rotation view is set in response to the user input, a first user display is made two-dimensionally based on the first rotation view, and a second rotation different from the first rotation view is set in response to the user input When a view is set and the second user display is made two-dimensionally based on the second rotation view, the user input result includes the two-dimensional position where the first user display is made in the first rotation view and the Information on a three-dimensional intersection position where the two-dimensional position where the second user mark is made in the second rotation view intersects each other on the three-dimensional model is included;
The three-dimensional intersecting position is a first zoning space that is columnarized to correspond to the display area in the screen normal direction in the first rotation view and is columnarized to correspond to the display area in the screen normal direction in the second rotation view. A construction site recognition device based on a BIM model, which is a location in a common area where the second zoning space intersects.
삭제delete 삭제delete
KR1020190139280A 2019-11-04 2019-11-04 Device and method for construction site recognition based on the bim model KR102332407B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190139280A KR102332407B1 (en) 2019-11-04 2019-11-04 Device and method for construction site recognition based on the bim model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190139280A KR102332407B1 (en) 2019-11-04 2019-11-04 Device and method for construction site recognition based on the bim model

Publications (2)

Publication Number Publication Date
KR20210053549A KR20210053549A (en) 2021-05-12
KR102332407B1 true KR102332407B1 (en) 2021-11-30

Family

ID=75918954

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190139280A KR102332407B1 (en) 2019-11-04 2019-11-04 Device and method for construction site recognition based on the bim model

Country Status (1)

Country Link
KR (1) KR102332407B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230085455A (en) 2021-12-07 2023-06-14 에스케이하이닉스 주식회사 Multi-movable 3D marker and augmented reality-based on-site accuracy detection system using the same

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016038867A (en) * 2014-08-11 2016-03-22 株式会社大林組 Arrangement plan support system, arrangement plan support method, and arrangement plan support program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101162703B1 (en) * 2010-07-07 2012-07-05 건국대학교 산학협력단 Method, terminal and computer-readable recording medium for remote control on the basis of 3d virtual space
KR20150125238A (en) * 2014-04-30 2015-11-09 주식회사 빔케어교육연구소 BIM Server Using QR-code and Method and Printed Documents

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016038867A (en) * 2014-08-11 2016-03-22 株式会社大林組 Arrangement plan support system, arrangement plan support method, and arrangement plan support program

Also Published As

Publication number Publication date
KR20210053549A (en) 2021-05-12

Similar Documents

Publication Publication Date Title
US10724505B2 (en) Aerial inspection in a movable object environment
CN108509974B (en) Map datum fusion method, device, electronic equipment and storage medium
CN108090610A (en) Orbit construction system based on BIM technology
CN111458720A (en) Airborne laser radar data-based oblique photography modeling method for complex mountainous area
CN108227929B (en) Augmented reality lofting system based on BIM technology and implementation method
JP6184237B2 (en) Three-dimensional data processing apparatus, processing method thereof, and processing program thereof
CN109670005B (en) Position matching method of BIM (building information modeling) model and three-dimensional geographic scene
US8817093B2 (en) Photogrammetric networks for positional accuracy
CN103226838A (en) Real-time spatial positioning method for mobile monitoring target in geographical scene
CN103052151A (en) Terminal positioning method and device as well as mobile terminal
JP4427383B2 (en) Measuring method and measuring system
KR101201129B1 (en) 3d model visualization system for construction structure using augmented reality and specially designed construction drawing printed matter for developed system
US20180225839A1 (en) Information acquisition apparatus
KR20200034869A (en) Real-Time Modeling System and Method for Geo-Spatial Information Using 3D Scanner of Excavator
JP2019153274A (en) Position calculation device, position calculation program, position calculation method, and content addition system
KR102332407B1 (en) Device and method for construction site recognition based on the bim model
JP5669438B2 (en) Object management image generation apparatus and object management image generation program
JP2005266627A (en) Method for correcting electronic map information, and mobile station position monitoring system
CN111724485A (en) Method, device, electronic equipment and storage medium for realizing virtual-real fusion
CN114372336A (en) Measurement control network layout method based on GIS and BIM model
CN115773738A (en) Measuring method for realizing space attitude positioning by laser measurement
JP2022145441A (en) Survey information management system, survey information management method, and survey information management program
CN113316160B (en) MR-based operation and maintenance method, system and storage medium for base station equipment
AU2022215856A1 (en) Aligning multiple coordinate systems for information model rendering
KR20150020421A (en) A measurement system based on augmented reality approach using portable servey terminal

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant