KR102603303B1 - 확장현실 콘텐츠 제공 장치, 방법 및 자동 또는 자동화 프로그램 - Google Patents
확장현실 콘텐츠 제공 장치, 방법 및 자동 또는 자동화 프로그램 Download PDFInfo
- Publication number
- KR102603303B1 KR102603303B1 KR1020220147471A KR20220147471A KR102603303B1 KR 102603303 B1 KR102603303 B1 KR 102603303B1 KR 1020220147471 A KR1020220147471 A KR 1020220147471A KR 20220147471 A KR20220147471 A KR 20220147471A KR 102603303 B1 KR102603303 B1 KR 102603303B1
- Authority
- KR
- South Korea
- Prior art keywords
- extended reality
- reality content
- information
- processor
- extended
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 42
- 238000013461 design Methods 0.000 claims abstract description 96
- 238000004891 communication Methods 0.000 claims description 43
- 238000009877 rendering Methods 0.000 claims description 11
- 230000000007 visual effect Effects 0.000 claims description 11
- 238000010276 construction Methods 0.000 description 37
- 230000008569 process Effects 0.000 description 19
- 230000006870 function Effects 0.000 description 18
- 238000009434 installation Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 14
- 238000005516 engineering process Methods 0.000 description 14
- 239000000463 material Substances 0.000 description 12
- 238000012937 correction Methods 0.000 description 8
- 230000003190 augmentative effect Effects 0.000 description 5
- 239000003550 marker Substances 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000010454 slate Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/10—Geometric CAD
- G06F30/13—Architectural design, e.g. computer-aided architectural design [CAAD] related to design of buildings, bridges, landscapes, production plants or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/10—Geometric CAD
- G06F30/18—Network design, e.g. design based on topological or interconnect aspects of utility systems, piping, heating ventilation air conditioning [HVAC] or cabling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Geometry (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Architecture (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Evolutionary Computation (AREA)
- Civil Engineering (AREA)
- Structural Engineering (AREA)
- Computer Networks & Wireless Communication (AREA)
- Processing Or Creating Images (AREA)
Abstract
본 개시는 확장현실 콘텐츠 제공 장치에 관한 것으로, 다양한 작업자가 생성한 BIM 설계 데이터를 이용하여 확장현실 콘텐트를 생성하기 위한 형상 정보 및 속성 정보를 생성하고, 이를 이용하여 적어도 하나의 확장현실 콘텐트를 생성한 후 현장 작업자의 확장현실 장치로 제공할 수 있다.
Description
본 개시는 확장현실 콘텐츠를 제공하는 장치에 관한 것으로, 보다 상세하게는 자동화된 워크플로우를 통해 확장현실 콘텐츠를 제공하는 장치에 관한 것이다.
VR (Virtual Reality) 기술은 현실 세계의 객체나 배경 등을 CG(Computer Graphic) 영상으로만 제공하고, AR(Augmented Reality) 기술은 실제 사물 영상 위에 가상으로 만들어진 CG 영상을 함께 제공하며, MR(Mixed) 기술은 현실 세계에 가상 객체들을 섞고 결합시켜서 제공하는 컴퓨터 그래픽 기술이다. 전술한 VR, AR, MR 등을 모두 간단히 XR(eXtended reality) 기술로 지칭하기도 한다.
즉, 확장현실(eXtended reality)이란 가상현실(Virtual Reality, VR)부터 혼합현실(Mixed Reality, MR), 증강현실(Augmented Reality, AR)에 이르기까지 가상 현실 기술 전체를 통틀어서 일컫는 말이다.
최근 들어, 다양한 분야에서 인공지능 기술과 증강현실 기술 등을 적용하고 있으며, 건설 현장에도 이러한 기술을 적용하고자 하는 시도가 이뤄지고 있다.
이와 같은 최신 기술의 적용이 이뤄지는 경우, 확장현실 장치를 이용하고자 하여 건설현장의 설계 변경, 감리 등을 진행할 수 있을 것으로 기대된다.
하지만, BIM 설계 데이터를 이용하여 확장현실 콘텐츠를 생성하고, 확장현실 콘텐츠를 이용하여 BIM 설계 데이터를 편집할 수 있는 기술이 현재로서는 공개되어 있지 않은 실정이다.
본 개시에 개시된 실시예는 자동화된 워크플로우를 통해 확장현실 콘텐츠 제공 장치를 제공하는데 그 목적이 있다.
또한, 본 개시에 개시된 실시예는 다양한 작업자가 생성한 BIM 설계 데이터를 이용하여 확장현실 콘텐트를 생성하기 위한 형상 정보 및 속성 정보를 자동으로 생성하고, 이를 이용하여 적어도 하나의 확장현실 콘텐트를 생성한 후 현장 작업자의 확장현실 장치로 제공하고자 한다.
또한, 본 개시에 개시된 실시예는 현장 작업자의 확장현실 장치로부터 확장현실 콘텐트 내 특정 객체에 대한 편집 정보가 수신되는 경우, 이를 자동으로 확장현실 콘텐트에 반영하고자 한다.
본 개시가 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
상술한 과제를 해결하기 위한 본 개시의 일 실시예에 따른 확장현실 콘텐츠 제공 장치는, 복수의 서로 다른 작업자의 단말로부터 BIM 설계 데이터를 수신하고, 현장 작업자의 확장현실 장치와 통신을 수행하는 통신부; 상기 수신된 BIM 설계 데이터를 기반으로 생성된 형상 정보 및 속성 정보가 저장되는 저장부; 및 상기 수신된 BIM 설계 데이터를 기반으로, 적어도 하나의 확장현실(eXtended Reality) 콘텐트에 표시하기 위한 적어도 하나의 객체에 대한 형상 정보 및 속성 정보를 생성하고, 상기 생성된 형상 정보 및 속성 정보를 기반으로, 상기 적어도 하나의 확장현실 콘텐트를 생성하고, 상기 생성된 확장현실 콘텐트를 제공하여 상기 확장현실 장치에 표시되도록 제어하는 프로세서를 포함하며, 상기 프로세서는, 상기 통신부를 통해 상기 확장현실 장치에 의해 입력된 상기 확장현실 콘텐트에 대한 편집 정보가 수신되는 경우, 상기 편집 정보에 해당하는 변경 사항을 상기 확장현실 콘텐트에 반영하여 상기 확장현실 장치에 다시 제공한다.
또한, 상기 프로세서는, 상기 BIM 설계 데이터를 분석하여 시각적 속성 또는 비시각적 속성을 판단하고, 상기 판단 결과에 기초하여 확장현실 콘텐트에 표시하기 위한 상기 적어도 하나의 객체를 결정하고, 각 객체에 대한 상기 형상 정보 및 상기 속성 정보를 생성할 수 있다.
또한, 상기 프로세서는, 상기 각 객체의 형상 정보를 기반으로 상기 확장현실 콘텐트 내에 상기 선택된 각 객체를 랜더링하고, 상기 확장현실 장치의 기본 보기 조건에서 상기 각 객체를 표시할 것인지 숨길 것인지 결정할 수 있다.
또한, 상기 적어도 하나의 확장현실 콘텐트 내에 포함된 각 객체에 대한 상기 형상 정보를 기반으로, 상기 각 객체의 LOD(Level Of Detail)를 결정하고, 상기 결정된 각 객체의 LOD를 기반으로, 랜더링 모듈을 제어하여 상기 적어도 하나의 확장현실 콘텐트에 상기 각 객체를 랜더링할 수 있다.
또한, 상기 프로세서는, 상기 적어도 하나의 확장현실 콘텐트 내에 포함된 각 객체의 위치 정보와 상기 확장현실 장치의 실시간 위치 및 상기 각 객체의 형상 정보와 속성 정보를 기반으로, 상기 확장현실 장치로 표시되고 있는 확장현실 콘텐트 내에서의 상기 각 객체의 상대적 중요도 및 가시성을 산출하고, 상기 산출된 상대적 중요성 및 가시성을 기반으로, 상기 각 객체를 상기 확장현실 장치에 표시할 것인지 숨김 처리할 것인지를 결정할 수 있다.
또한, 상기 프로세서는, 상기 확장현실 장치로부터 상기 확장현실 콘텐트 내 특정 객체에 대한 속성 정보 조회 신호가 수신되는 경우, 상기 속성 정보 조회 신호에 따라 상기 특정 객체에 대한 속성 정보를 표시할 수 있다.
또한, 상기 프로세서는, 상기 확장현실 콘텐츠에 반영된 상기 편집 정보를 상기 저장부에 저장된 BIM 설계 데이터에 반영하여 저장할 수 있다.
또한, 상기 프로세서는, 상기 확장현실 장치로 제공하기 위한 상기 적어도 하나의 확장현실 콘텐트의 용량과 상기 확장현실 장치의 스펙에 기초하여 상기 확장현실 장치의 운용 옵션을 결정하며, 상기 운용 옵션은, 무선 통신 방식을 통해 상기 적어도 하나의 확장현실 콘텐트를 제공하는 제1 운용 옵션 및 스탠드 얼론(Stand Alone) 방식의 제2 운용 옵션을 포함할 수 있다.
상술한 과제를 해결하기 위한 본 개시의 일 실시예에 따른 확장현실 콘텐츠 제공 방법은, 확장현실 콘텐츠 제공 장치에 의해 수행되는 방법으로, 복수의 서로 다른 작업자의 단말로부터 BIM 설계 데이터를 수신하는 단계; 상기 수신된 BIM 설계 데이터를 기반으로, 적어도 하나의 확장현실(eXtended Reality) 콘텐트를 생성하기 위한 형상 정보 및 속성 정보를 생성하는 단계; 상기 생성된 형상 정보 및 속성 정보를 기반으로 상기 적어도 하나의 확장현실 콘텐트를 생성하는 단계; 상기 생성된 적어도 하나의 확장현실 콘텐츠를 상기 확장현실 장치에 제공하여 표시하는 단계; 및 상기 확장현실 장치로부터 상기 확장현실 콘텐트에 대한 편집 정보가 수신되는 경우, 상기 편집 정보에 해당하는 변경 사항을 상기 확장현실 콘텐트에 반영하여 상기 확장현실 장치에 다시 제공하는 단계를 포함한다.
이 외에도, 본 개시를 구현하기 위한 실행하기 위한 컴퓨터 판독 가능한 기록 매체에 저장된 컴퓨터 프로그램이 더 제공될 수 있다.
이 외에도, 본 개시를 구현하기 위한 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 컴퓨터 판독 가능한 기록 매체가 더 제공될 수 있다.
본 개시의 전술한 과제 해결 수단에 의하면, 자동화된 워크플로우를 통해 확장현실 콘텐츠 제공 방법을 제공하는 효과를 제공한다.
또한, 본 개시의 전술한 과제 해결 수단에 의하면, 다양한 작업자가 생성한 BIM 설계 데이터를 이용하여 확장현실 콘텐트를 생성하기 위한 형상 정보 및 속성 정보를 자동으로 생성하고, 이를 이용하여 적어도 하나의 확장현실 콘텐트를 생성한 후 현장 작업자의 확장현실 장치로 제공할 수 있다.
또한, 본 개시의 전술한 과제 해결 수단에 의하면, 현장 작업자의 확장현실 장치로부터 확장현실 콘텐트 내 특정 객체에 대한 편집 정보가 수신되는 경우, 이를 자동으로 확장현실 콘텐트에 반영할 수 있다.
또한, 본 개시의 전술한 과제 해결 수단에 의하면, 다양한 공정별 BIM 설계 데이터를 자동으로 통합하여 템플릿에 반영함으로써 AR 콘텐트를 생성하고, XR 환경 하에서 현장의 작업자로부터 수신되는 각종 편집 정보를 AR 컨텐트에 반영하는 것은 물론 서버의 BIM 설계 데이터에 업데이트 할 수 있다.
본 개시의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 개시의 실시예에 따른 확장현실 콘텐츠 제공 시스템의 개략도이다.
도 2는 본 개시의 실시예에 따른 확장현실 콘텐츠 제공 장치의 블록도이다.
도 3은 본 개시의 실시예에 따른 확장현실 콘텐츠 제공 방법의 흐름도이다.
도 4는 본 개시의 실시예에 따른 확장현실 콘텐츠 제공 장치의 작동을 예시한 도면이다.
도 5는 확장현실 장치의 블록도이다.
도 6은 현장 작업자가 착용한 확장현실 장치로 현장의 확장현실 콘텐트가 표시되고 있는 것을 예시한 도면이다.
도 7 내지 도 9는 확장현실 장치로 입력되는 신호에 따라 확장현실 콘텐트 내 객체가 편집되고, 확장현실 콘텐트에 반영되어 표시되는 것을 예시한 도면이다.
도 10은 현장 작업자가 선택한 객체의 속성 정보가 확장현실 콘텐트 내에 표시되는 것을 예시한 도면이다.
도 2는 본 개시의 실시예에 따른 확장현실 콘텐츠 제공 장치의 블록도이다.
도 3은 본 개시의 실시예에 따른 확장현실 콘텐츠 제공 방법의 흐름도이다.
도 4는 본 개시의 실시예에 따른 확장현실 콘텐츠 제공 장치의 작동을 예시한 도면이다.
도 5는 확장현실 장치의 블록도이다.
도 6은 현장 작업자가 착용한 확장현실 장치로 현장의 확장현실 콘텐트가 표시되고 있는 것을 예시한 도면이다.
도 7 내지 도 9는 확장현실 장치로 입력되는 신호에 따라 확장현실 콘텐트 내 객체가 편집되고, 확장현실 콘텐트에 반영되어 표시되는 것을 예시한 도면이다.
도 10은 현장 작업자가 선택한 객체의 속성 정보가 확장현실 콘텐트 내에 표시되는 것을 예시한 도면이다.
본 개시 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 개시가 실시예들의 모든 요소들을 설명하는 것은 아니며, 본 개시가 속하는 기술분야에서 일반적인 내용 또는 실시예들 간에 중복되는 내용은 생략한다. 명세서에서 사용되는 ‘부, 모듈, 부재, 블록’이라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시예들에 따라 복수의 '부, 모듈, 부재, 블록'이 하나의 구성요소로 구현되거나, 하나의 '부, 모듈, 부재, 블록'이 복수의 구성요소들을 포함하는 것도 가능하다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐 아니라, 간접적으로 연결되어 있는 경우를 포함하고, 간접적인 연결은 무선 통신망을 통해 연결되는 것을 포함한다.
또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
명세서 전체에서, 어떤 부재가 다른 부재 "상에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.
제 1, 제 2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위해 사용되는 것으로, 구성요소가 전술된 용어들에 의해 제한되는 것은 아니다.
단수의 표현은 문맥상 명백하게 예외가 있지 않는 한, 복수의 표현을 포함한다.
각 단계들에 있어 식별부호는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 실시될 수 있다.
이하 첨부된 도면들을 참고하여 본 개시의 작용 원리 및 실시예들에 대해 설명한다.
본 명세서에서 '본 개시에 따른 확장현실 콘텐츠 제공 장치(100)'는 연산처리를 수행하여 사용자에게 결과를 제공할 수 있는 다양한 장치들이 모두 포함된다. 예를 들어, 본 개시에 따른 장치는, 컴퓨터, 서버 장치 및 휴대용 단말기를 모두 포함하거나, 또는 어느 하나의 형태가 될 수 있다.
여기에서, 상기 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop), 태블릿 PC, 슬레이트 PC 등을 포함할 수 있다.
상기 서버 장치는 외부 장치와 통신을 수행하여 정보를 처리하는 서버로써, 애플리케이션 서버, 컴퓨팅 서버, 데이터베이스 서버, 파일 서버, 게임 서버, 메일 서버, 프록시 서버 및 웹 서버 등을 포함할 수 있다.
상기 휴대용 단말기는 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), WiBro(Wireless Broadband Internet) 단말, 스마트 폰(Smart Phone) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치와 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD) 등과 같은 웨어러블 장치를 포함할 수 있다.
이하, 첨부된 도면을 참조하여 본 개시의 실시예를 상세하게 설명한다.
설명에 앞서 본 명세서에서 사용하는 용어의 의미를 간략히 설명한다. 그렇지만 용어의 설명은 본 명세서의 이해를 돕기 위한 것이므로, 명시적으로 본 개시를 한정하는 사항으로 기재하지 않은 경우에 본 개시의 기술적 사상을 한정하는 의미로 사용하는 것이 아님을 주의해야 한다.
도 1은 본 개시의 실시예에 따른 확장현실 콘텐츠 제공 시스템(10)의 개략도이다.
본 개시의 실시예에서, 확장현실 콘텐츠 제공 장치(100)는 다양한 작업자의 단말(200)로부터 설계 데이터를 수신한다. 이는, 건설 설비의 설계를 위해서는 Civil, Structure, Architecture, HVAC, UT, EL, IN, FF, FI 등과 같이 다양한 건설 공정(타겟)에 대한 설계 데이터가 필요하며, 이를 설계하는 담당자가 서로 상이할 수 있기 때문이다.
본 개시의 실시예에 따른 확장현실 콘텐츠 제공 시스템(10)은 이러한 개별 건설 공정을 통합하는 프로세스가 구축되어 있는 것은 물론, 이러한 코딩을 직접 개발 완료하여 적용된 시스템이다.
본 개시의 실시예에 따른 확장현실 콘텐츠 제공 장치(100)는 이와 같이 다양한 작업자로부터 수신되는 설계 데이터를 이용하여 건설 현장에 대한 확장현실 콘텐츠를 생성한다.
그리고, 확장현실 콘텐츠 제공 장치(100)는 생성된 확장현실 콘텐츠를 건설 현장에서 작업하는 작업자가 착용하고 있는 확장현실 장치(300)로 제공하며, 확장현실 장치(300)로부터 수신되는 편집 정보에 따라 확장현실 콘텐츠를 편집하고 설계 데이터에 반영하게 된다.
이때, 확장현실 콘텐츠 제공 장치(10)는 이와 같이 수신되는 편집 정보에 따라 확장현실 콘텐츠를 편집하고, 편집 내역을 BIM 설계 데이터와 Tool(Revit)에 업데이트할 수 있다.
본 개시의 실시예에서 확장현실 콘텐츠 제공 장치(100)는 BIM 업무 담당자들이 업로드 하는 각 파트별 Revit 데이터를 취합하여 파일 포맷을 변환하고, 템플릿 임포트까지 자동화 처리를 진행한 후 확장현실 콘텐트를 생성하여 확장현실 장치(300)로 제공하게 된다. 이후 작업자가 착용한 확장현실 장치(300)를 통해 확장현실 콘텐트를 표시해주게 된다.
또한, 본 개시의 실시예에서 확장현실 콘텐츠 제공 장치(100)는 현장 작업자의 확장현실 장치(300)로 형상 정보에 대한 추가 배치, 조정과 같은 편집 정보가 수신되면, 이를 Revit 파일 포맷으로 변환하여 업데이트하게 된다.
아래에서는 다른 도면들을 참조하여 확장현실 콘텐츠 제공 장치(100)의 동작에 대해서 보다 상세하게 설명하도록 한다.
도 2는 본 개시의 실시예에 따른 확장현실 콘텐츠 제공 장치(100)의 블록도이다.
도 2를 참조하면, 본 개시의 실시예에 따른 확장현실 콘텐츠 제공 시스템(10)의 블록도가 예시되어 있다.
본 개시의 실시예에 따른 확장현실 콘텐츠 제공 시스템(10)은 확장현실 콘텐츠 제공 장치(100), 작업자 단말(200) 및 확장현실 장치(300)를 포함한다.
본 개시의 실시예에 따른 확장현실 콘텐츠 제공 장치(100)는 프로세서(110), 통신부(130), 저장부(150) 및 랜더링부(170)를 포함한다.
다만, 몇몇 실시예에서 시스템(10) 또는 장치는 도 2에 도시된 구성요소보다 더 적은 수의 구성요소나 더 많은 구성요소를 포함할 수도 있다.
확장현실 콘텐츠 제공 장치(100)는 서버 장치를 포함할 수 있다.
프로세서(110)는 확장현실 콘텐츠 제공 장치(100) 내 구성들의 제어를 수행하며, 저장부(150)에 저장된 각종 명령어, 알고리즘 등을 실행하여 확장현실 콘텐츠 제공 서비스를 제공한다.
몇몇 실시예에서 프로세서(110)는 미리 학습된 인공지능 모델을 이용하여 확장현실 콘텐츠 제공 서비스를 제공할 수 있다.
프로세서(110)는 본 장치 내의 구성요소들의 동작을 제어하기 위한 알고리즘 또는 알고리즘을 재현한 프로그램에 대한 데이터를 저장하는 메모리, 및 메모리에 저장된 데이터를 이용하여 전술한 동작을 수행하는 적어도 하나의 프로세서(110)로 구현될 수 있다. 이때, 메모리와 프로세서(110)는 각각 별개의 칩으로 구현될 수 있다. 또는, 메모리와 프로세서(110)는 단일 칩으로 구현될 수도 있다.
또한, 프로세서(110)는 이하의 도면에서 설명되는 본 개시에 따른 다양한 실시 예들을 본 장치 상에서 구현하기 위하여, 위에서 살펴본 구성요소들을 중 어느 하나 또는 복수를 조합하여 제어할 수 있다.
통신부(130)는 복수의 서로 다른 작업자의 단말(200)로부터 BIM 설계 데이터를 수신하고, 현장 작업자의 확장현실 장치(300)와 통신을 수행한다.
통신부(130)는 외부 장치와 통신을 가능하게 하는 하나 이상의 구성 요소를 포함할 수 있으며, 예를 들어, 방송 수신 모듈, 유선통신 모듈, 무선통신 모듈, 근거리 통신 모듈, 위치정보 모듈 중 적어도 하나를 포함할 수 있다.
유선 통신 모듈은, 지역 통신(Local Area Network; LAN) 모듈, 광역 통신(Wide Area Network; WAN) 모듈 또는 부가가치 통신(Value Added Network; VAN) 모듈 등 다양한 유선 통신 모듈뿐만 아니라, USB(Universal Serial Bus), HDMI(High Definition Multimedia Interface), DVI(Digital Visual Interface), RS-232(recommended standard232), 전력선 통신, 또는 POTS(plain old telephone service) 등 다양한 케이블 통신 모듈을 포함할 수 있다.
무선 통신 모듈은 와이파이(Wifi) 모듈, 와이브로(Wireless broadband) 모듈 외에도, GSM(global System for Mobile Communication), CDMA(Code Division Multiple Access), WCDMA(Wideband Code Division Multiple Access), UMTS(universal mobile telecommunications system), TDMA(Time Division Multiple Access), LTE(Long Term Evolution), 4G, 5G, 6G 등 다양한 무선 통신 방식을 지원하는 무선 통신 모듈을 포함할 수 있다.
무선 통신 모듈은 신호를 송신하는 안테나 및 송신기(Transmitter)를 포함하는 무선 통신 인터페이스를 포함할 수 있다. 또한, 무선 통신 모듈은 제어부의 제어에 따라 무선 통신 인터페이스를 통해 제어부로부터 출력된 디지털 제어 신호를 아날로그 형태의 무선 신호로 변조하는 신호 변환 모듈을 더 포함할 수 있다.
근거리 통신 모듈은 근거리 통신(Short range communication)을 위한 것으로서, 블루투스(Bluetooth??), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다.
저장부(150)는 복수의 서로 다른 작업자의 단말(200)로부터 수신된 BIM 설계 데이터를 기반으로 생성된 형상 정보 및 속성 정보가 저장될 수 있으며, 서로 다른 복수의 저장 공간(데이터베이스, 메모리)을 포함할 수 있다. 몇몇 실시예에서 저장부(150)는 클라우드 저장공간을 더 포함할 수 있다.
저장부(150)는 확장현실 콘텐트를 생성하기 위해서 미리 셋업된 복수 개의 템플릿(Templates)가 저장되어 있다.
본 개시의 실시예에서 미리 셋업된 템플릿(Templates)은 프로세서(110)가 객체의 형상 정보, 속성 정보를 반영하면 확장현실 콘텐트가 생성될 수 있도록 미리 제작된 것으로, 확장현실 콘텐트를 위한 기본적인 사항들이 미리 설정되어 있을 수 있다.
몇몇 실시예에서, 저장부(150)는 복수의 서로 다른 작업자의 단말(200)로부터 수신된 BIM 설계 데이터가 저장될 수도 있다.
저장부(150)는 본 장치의 다양한 기능을 지원하는 데이터와, 제어부의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 음악 파일, 정지영상, 동영상 등)을 저장할 있고, 본 장치에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 본 장치의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다.
저장부(150)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), SSD 타입(Solid State Disk type), SDD 타입(Silicon Disk Drive type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 저장부(150)는 본 장치와는 분리되어 있으나, 유선 또는 무선으로 연결된 데이터베이스가 될 수도 있다.
랜더링부(170)는 BIM 설계 데이터, 객체의 형상 정보 및 속성 정보를 이용하여 3D 영상을 렌더링할 수 있다.
또한, 프로세서(110)는 확장현실 장치(300)로 확장현실 콘텐트 내 객체에 대한 조작 신호 또는 편집 정보가 수신되면, 렌더링부를 제어하여 상기 수신된 조작 신호 또는 편집 정보에 따라 객체를 실시간으로 렌더링하고, 렌더링된 영상을 확장현실 장치(300)로 제공하기 때문에 현장 작업자는 실제로 객체를 조작하고 편집하는 것과 같은 실감도를 느낄 수 있게 되는 효과가 있다.
입력부는 영상 정보(또는 신호), 오디오 정보(또는 신호), 데이터, 또는 사용자로부터 입력되는 정보의 입력을 위한 것으로서, 적어도 하나의 카메라, 적어도 하나의 마이크로폰 및 사용자 입력부 중 적어도 하나를 포함할 수 있다. 입력부에서 수집한 음성 데이터나 이미지 데이터는 분석되어 사용자의 제어명령으로 처리될 수 있다.
카메라는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 확장현실 장치(300)에 표시되거나 메모리에 저장될 수 있다.
사용자 입력부는 사용자로부터 정보를 입력받기 위한 것으로서, 사용자 입력부를 통해 정보가 입력되면, 제어부는 입력된 정보에 대응되도록 본 장치의 동작을 제어할 수 있다. 이러한, 사용자 입력부는 하드웨어식 물리 키(예를 들어, 본 장치의 전면, 후면 및 측면 중 적어도 하나에 위치하는 버튼, 돔 스위치 (dome switch), 조그 휠, 조그 스위치 등) 및 소프트웨어식 터치 키를 포함할 수 있다. 일 예로서, 터치 키는, 소프트웨어적인 처리를 통해 터치스크린 타입의 디스플레이부 상에 표시되는 가상 키(virtual key), 소프트 키(soft key) 또는 비주얼 키(visual key)로 이루어지거나, 상기 터치스크린 이외의 부분에 배치되는 터치 키(touch key)로 이루어질 수 있다. 한편, 상기 가상키 또는 비주얼 키는, 다양한 형태를 가지면서 터치스크린 상에 표시되는 것이 가능하며, 예를 들어, 그래픽(graphic), 텍스트(text), 아이콘(icon), 비디오(video) 또는 이들의 조합으로 이루어질 수 있다.
센싱부는 본 장치의 내 정보, 본 장치를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하고, 이에 대응하는 센싱 신호를 발생시킨다. 제어부는 이러한 센싱 신호에 기초하여, 본 장치의 구동 또는 동작을 제어하거나, 본 장치에 설치된 응용 프로그램과 관련된 데이터 처리, 기능 또는 동작을 수행할 수 있다.
상기와 같은, 센싱부는 근접센서(proximity sensor), 조도 센서(illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 카메라), 마이크로폰, 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 중 적어도 하나를 포함함), 화학 센서(예를 들어, 헬스케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다. 한편, 본 장치는, 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 조합하여 활용할 수 있다.
출력부는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이부, 음향 출력부, 햅팁 모듈 및 광 출력부 중 적어도 하나를 포함할 수 있다. 디스플레이부는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 본 장치와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부로써 기능함과 동시에, 본 장치와 사용자 간에 출력 인터페이스를 제공할 수 있다.
디스플레이부는 본 장치에서 처리되는 정보를 표시(출력)한다. 예를 들어, 디스플레이부는 본 장치에서 구동되는 응용 프로그램(일 예로, 어플리케이션)의 실행화면 정보, 또는 이러한 실행화면 정보에 따른 UI(User Interface), GUI(Graphic User Interface) 정보를 표시할 수 있다.
음향 출력부는 통신부(130)를 통해 수신되거나 또는 메모리에 저장된 오디오 데이터를 출력하거나, 본 장치에서 수행되는 기능과 관련된 음향 신호를 출력할 수 있다. 이러한 음향 출력부에는 리시버(receiver), 스피커(speaker), 버저(buzzer) 등이 포함될 수 있다.
인터페이스부는 본 장치에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행한다. 이러한 인터페이스부는 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트, 식별 모듈(SIM)이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 중 적어도 하나를 포함할 수 있다. 본 장치에서는, 상기 인터페이스부에 연결된 외부 기기와 관련된 적절한 제어를 수행할 수 있다.
도 3은 본 개시의 실시예에 따른 확장현실 콘텐츠 제공 방법의 흐름도이다.
도 4는 본 개시의 실시예에 따른 확장현실 콘텐츠 제공 장치(100)의 작동을 예시한 도면이다.
도 3의 흐름도와 다른 예시 도면들을 함께 참조하여 프로세서(110)의 동작에 대해서 보다 상세하게 설명하도록 한다.
프로세서(110)가 복수의 서로 다른 작업자의 단말(200)로부터 수신된 BIM 설계 데이터를 저장부(150)에 저장한다. (S100)
프로세서(110)가 S100에서 수신된 BIM 설계 데이터를 기반으로, 적어도 하나의 확장현실(eXtended reality) 콘텐트를 생성하기 위한 형상 정보 및 속성 정보를 생성한다. (S200)
프로세서(110)가 S200에서 생성된 형상 정보 및 속성 정보를 기반으로 적어도 하나의 확장현실 콘텐트를 생성한다. (S300)
프로세서(110)가 적어도 하나의 확장현실 콘텐트를 확장현실 장치(300)에 전송하여 확장현실 장치(300)에 표시되도록 제어한다. (S400)
확장현실 장치(300)로부터 확장현실 콘텐트에 대한 편집 정보가 수신되면, 프로세서(110)가 편집 정보에 해당하는 변경 사항을 확장현실 콘텐트에 반영하여 확장현실 장치(300)에 다시 제공한다. (S500)
본 개시의 실시예에 따른 확장현실 콘텐트 제공 장치(100)는 사전에 셋업된 Templates를 기반으로 적어도 하나의 확장현실 콘텐트를 생성할 수 있다.
이때, 확장현실 콘텐트 제공 장치(100)는 콘텐트를 생성하고자 하는 건설 공정에 따라서 Templates에 서로 다른 데이터를 자동으로 적용함으로써 확장현실 콘텐트를 생성하게 된다.
이때, Templates에 적용/입력하기 위한 데이터는 건설 공정에 대한 정보이며 본 개시의 실시예에서는 형상 정보, 속성 정보가 이에 해당될 수 있다.
즉, 프로세서(110)가 BIM 설계 데이터에서 확장현실 콘텐트를 생성하기 위한 형상 정보 및 속성 정보를 생성하는 것은, 해당 건설 공정의 확장현실 콘텐트를 생성하기 위해 미리 셋업되어 있는 Templates에 적용/입력하기 위한 정보를 생성하는 것을 의미한다.
아래에서는 프로세서(110)가 이러한 동작을 수행하는 것에 관련하여 보다 상세하게 설명하도록 한다.
본 개시의 실시예에서, 확장현실 콘텐트는 가상현실, 증강현실, 혼합현실 기술이라면 무엇이든 적용이 가능하며, 예를 들어 확장현실 콘텐트는 AR 콘텐트, VR 콘텐트, MR 콘텐트를 포함할 수 있다.
전술한 바와 같이, 확장현실 콘텐츠 제공 장치(100)의 통신부(130)는 Civil, Structure, Architecture, HVAC, UT, EL, IN, FF, FI과 같이 다양한 작업자의 단말(200)로부터 설계 데이터를 수신할 수 있다.
그리고, 프로세서(110)는 작업자의 단말(200)로부터 수신된 설계 데이터를 저장부(150)에 저장할 수 있다.
작업자의 단말(200)로부터 수신된 BIM 설계 데이터는 다양한 BIM 설계 데이터 중에서 담당 작업자의 분야에 대한 BIM 설계 데이터이며, 확장현실 콘텐트로 생성하기 위한 변환이 필요하다.
본 개시의 실시예에서, 확장현실 콘텐트 제공 장치는 BIM 설계 데이터를 기반으로 형상 정보 및 속성 정보 중 적어도 하나를 생성할 수 있다.
보다 상세하게는, 저장부(150)는 정보 취합 알고리즘 및 정보 변환 알고리즘이 저장되어 있다.
프로세서(110)는 정보 취합 알고리즘을 이용하여 복수의 서로 다른 작업자의 단말(200)로부터 수신된 BIM 설계 데이터를 취합할 수 있다. 프로세서(110)는 취합된 데이터를 확장현실 콘텐트를 생성하기 위한 형상 정보 및 속성 정보로 변환할 수 있다.
다음으로, 프로세서(110)는 형상 정보 및 속성 정보를 기반으로, 확장현실 콘텐트 내 적어도 하나의 객체를 생성할 수 있다.
즉, 본 개시의 실시예에서 확장현실 콘텐츠 제공 장치(100)는 건설 현장에 대한 설계 데이터를 이용하여, 설계에 필요한 형상 정보 및 속성 정보를 포함하는 객체를 생성함으로써, 확장현실 콘텐트를 생성할 수 있게 된다.
본 개시의 실시예에서, 저장부(150)는 Revit 프로그램이 저장될 수 있으며, 프로세서(110)는 Revit 프로그램을 이용하여 BIM 설계 데이터를 취합, 변환함으로써 형상 정보 및 속성 정보를 포함하는 Revit 객체 데이터를 생성할 수 있다.
본 개시의 실시예에서, 객체의 형상 정보는 확장현실 콘텐트를 통해서 형상으로 표시 가능한 정보를 포함할 수 있다.
프로세서(110)는 BIM 설계 데이터를 분석하여 시각적 속성 또는 비시각적 속성을 판단할 수 있으며, 판단 결과에 기초하여 확장 현실 콘텐트에 표시하기 위한 적어도 하나의 객체를 결정할 수 있고, 각 객체에 대한 형상 정보 및 속성 정보를 생성할 수 있다.
일 실시예로, 프로세서(110)는 BIM 설계 데이터에 대하여 취합된 데이터를 분석하여, 설계 데이터 내에 포함된 객체를 추출할 수 있으며, 각 객체와 관련된 BIM 설계 데이터를 기반으로 각 객체에 대한 형상 정보 및 속성 정보를 생성할 수 있다.
예를 들어, 프로세서(110)는 BIM 설계 데이터에 포함되어 있는 파이프, 소방 시설, 기둥, 통신 시설 등의 객체를 추출하고, 추출된 각 객체의 형상 정보 및 속성 정보를 생성할 수 있다.
이와 같은 과정을 통해서, 프로세서(110)는 BIM 설계 데이터에 포함된 객체를 추출하고, 각 객체의 형상 정보와 속성 정보를 생성하였기 때문에, 이를 이용하여 확장현실 콘텐트를 생성할 수 있다.
프로세서(110)는 생성된 확장현실 콘텐트에 대한 테스트를 수행하여, 콘텐트 내 잘못 생성된 객체 또는 오류를 검출할 수 있다. 그리고, 프로세서(110)는 테스트가 완료된 확장현실 콘텐트를 이용 가능 상태로 전환하여 현장 작업자의 확장현실 장치(300)로부터 수신되는 요청에 따라 제공할 수 있다.
프로세서(110)는 선택된 각 객체의 형상 정보를 기반으로 확장현실 콘텐트 내에 상기 선택된 각 객체를 랜더링하도록 랜더링부(170)를 제어할 수 있다.
프로세서(110)는 확장현실 장치(300)의 기본 보기 조건에서 확장현실 콘텐트 내 각 객체를 표시할 것인지 숨김 처리할 것인지 결정할 수 있다.
이때, 기본 보기 조건은 줌인, 줌아웃, 투과 등과 같은 기능을 실행하지 않은 조건으로, 확장현실 장치(300)에서 확장현실 콘텐트 보기 조건이 달라지는 경우, 확장현실 콘텐트로 표시되는 객체도 달라질 수 있다.
일 실시예로, 프로세서(110)는 Sphere Mask 설정을 통해서 범위 밖의 객체를 숨길 수 있으며, Section 설정을 통해서 단면 보기 기능을 제공할 수도 있다.
프로세서(110)는 확장현실 콘텐츠 제공 장치(100)에 접속한 확장현실 장치(300)로 적어도 하나의 확장현실 콘텐트를 제공할 수 있다.
보다 상세하게는, 프로세서(110)는 확장현실 장치(300)로부터 확장현실 콘텐츠 요청 신호가 수신되면, 요청 신호에 부합하는 적어도 하나의 확장현실 콘텐트를 해당 확장현실 장치(300)로 전송하여 제공할 수 있다.
이때, 확장현실 콘텐츠 요청 신호는 기준 표식(예: 코드) 인식을 통해서 진행될 수 있으며, 상세하게는 QR Marker 인식을 통해 구현될 수 있다.
따라서, 특정 건설 현장의 현장 작업자는 확장현실 장치(300)를 휴대 또는 착용한 상태에서 현장의 QR Marker를 인식하게 되면, 확장현실 콘텐츠가 요청되며, 확장현실 콘텐츠 제공 장치(100)는 QR Marker의 정보에 부합하는 확장현실 콘텐트를 확장현실 장치(300)로 전송하게 된다.
이때, 프로세서(110)는 QR Marker의 위치 정보와 확장현실 장치(300)의 위치 정보가 매칭되는 경우, 확장현실 콘텐트를 전송하도록 할 수 있다.
상술한 실시예에서 QR Marker를 요청 신호로 설명하였으나, 반드시 이러한 코드 인식 방법으로 진행되어야 하는 것은 아니다.
프로세서(110)는 확장현실 콘텐트 내에 포함된 각 객체에 대한 형상 정보를 기반으로 각 객체의 LOD(Level Of Detail)을 결정하고, 결정된 각 객체의 LOD를 기반으로 랜더링 모듈을 제어하여 적어도 하나의 확장현실 콘텐트에 각 객체를 랜더링할 수 있다.
일 실시예로, 프로세서(110)는 적어도 하나의 확장현실 콘텐트 내 각 객체의 역할을 기반으로 중요도를 산출하고, 상기 산출된 중요도를 기반으로 상기 LOD를 산출할 수 있다.
일 실시예로, 각 객체의 카테고리별 중요도가 설정되어 있으며, 프로세서(110)는 확장현실 콘텐트의 목적에 따라 각 객체의 역할을 판단할 수 있다.
프로세서(110)는 적어도 하나의 확장현실 콘텐트 내에 포함된 각 객체의 위치 정보와 확장현실 장치(300)의 실시간 위치 및 각 객체의 형상 정보와 속성 정보를 기반으로, 상기 확장현실 장치(300)로 표시되고 있는 확장현실 콘텐트 내에서의 상기 각 객체의 상대적 중요도 및 가시성을 산출할 수 있다.
프로세서(110)는 상기 산출된 상대적 중요성 및 가시성을 기반으로 상기 각 객체를 상기 확장현실 콘텐트에 표시할 것인지 숨김 처리할 것인지를 결정할 수 있다.
일 실시예로, 프로세서(110)는 상기 각 객체에 대하여 인접한 적어도 하나의 객체와의 중요도를 기반으로, 상기 각 객체를 확장현실 콘텐트에 표시할 것인지 숨김 처리할 것인지 결정할 수 있다.
예를 들어, 아무런 제어신호가 입력되지 않은 최초의 Raw 상태의 확장현실 콘텐트는 모든 객체가 표시되고 있으며, 현장 작업자가 확장현실 장치(300)를 착용하면 현장 작업자의 정보, 위치와 각 객체와의 상대적인 관계를 고려하여 각 객체의 상태정보를 생성하고, 이를 확장현실 콘텐트에 반영하여 각 객체를 랜더링하는 것을 의미한다.
일 실시예로, 프로세서(110)는 상기 각 객체 중에서 기 설정된 중요도 이상을 갖는 객체는 강조 표시를 하여 확장현실 콘텐트에 표시할 수 있다.
프로세서(110)는 기 설정된 시간마다 확장현실 장치(300)의 위치정보를 리로딩하여 상기 상대적 중요성과 가시성을 재산출하고, 이를 확장현실 콘텐트에 반영함으로써 확장현실 장치(300)로 표시되고 있는 확장현실 콘텐트에 포함된 각 객체에 대한 변경사항이 반영되도록 랜더링할 수 있다.
확장현실 콘텐츠 제공 장치(100)는 확장현실 장치(300)를 휴대, 착용하고 있는 현장 작업자에게 현장감을 제공하기 위해서, 상술한 구성을 통해서 해당 현장에서 중요도가 높은 특정 객체를 강조하여 표시하고 해당 현장에서 중요도가 떨어지거나 작업자의 현재 위치로부터 거리가 멀리 위치한 특정 객체를 표시하지 않고 숨김 처리하는 등과 같은 기능을 제공할 수 있다.
본 개시의 실시예에서, 확장현실 콘텐츠 제공 장치(100)는 확장현실 장치(300)의 스펙에 따라 다양한 운용 옵션을 제공할 수 있다.
보다 상세하게는, 프로세서(110)는 확장현실 장치(300)로 제공하기 위한 확장현실 콘텐트의 용량과 확장현실 장치(300)의 스펙에 기초하여 확장현실 장치(300)의 운용 옵션을 결정할 수 있다.
이때, 운용 옵션은 무선 통신 방식을 통해 확장현실 콘텐트를 제공하는 제1 운용 옵션 및 스탠드 얼론(Stand Alone) 방식의 제2 운용 옵션을 포함할 수 있다.
도 6는 현장 작업자가 착용한 확장현실 장치(300)로 현장의 확장현실 콘텐트가 표시되고 있는 것을 예시한 도면이다.
도 7 내지 도 9은 확장현실 장치(300)로 입력되는 신호에 따라 확장현실 콘텐트 내 객체가 편집되고, 확장현실 콘텐트에 반영되어 표시되는 것을 예시한 도면이다.
도 10는 현장 작업자가 선택한 객체의 속성 정보가 확장현실 콘텐트 내에 표시되는 것을 예시한 도면이다.
아래에서는 도 6 내지 도 10를 참조하여 현장 작업자가 확장현실 장치(300)를 통해 확장현실 콘텐트 내 객체를 편집하는 것을 설명하도록 한다.
프로세서(110)는 현장 작업자가 착용한 확장현실 장치(300)를 통해 현장 작업자 주변의 객체를 포함하는 확장현실 콘텐트를 표시함으로써, 현장 작업자가 실제로 현장을 바라보는 듯한 현장감을 제공할 수 있다.
도 5를 참조하면, 본 개시의 실시예에서 확장현실 장치(300)는 프로세서(310), 통신부(330), 메모리(350), 카메라(370) 및 디스플레이(390)를 포함한다.
몇몇 실시예에서, 확장현실 장치(300)는 입력수단(예: 마이크 등)을 더 포함할 수도 있다.
또한, 본 개시의 실시예에서 확장현실 장치(300)는 증강현실 기반으로 작동할 수 있도록 투명 디스플레이가 구비되어 있을 수 있다.
프로세서(310)는 확장현실 장치(300)의 센서부를 통해 센싱되는 실시간 센싱 데이터에서 작업자의 제스쳐가 감지되는 경우, 제스쳐를 인식하고 인식된 제스쳐에 따라 입력 신호를 생성할 수 있다.
도 6을 참조하면, 현장 작업자가 착용한 확장현실 장치(300)의 디스플레이로 현장 내 객체를 포함하는 확장현실 콘텐트(610)를 표시하는 것이 예시되어 있다.
프로세서(110)는 작업자가 확장현실 콘텐트 내 특정 객체에 대하여 제스쳐를 이용한 선택 신호를 입력한 경우, 도 7과 같이 해당 객체(710)에 강조 표시를 함으로써 현재 해당 객체가 선택되어 있는 상태라고 랜더링하여 확장현실 콘텐트를 제공할 수 있다.
도 7을 참조하면, 사용자의 확장현실 장치(300) 제어에 따라 확장현실 콘텐트 내 2개의 객체가 선택되어 있으며, 사용자의 전방에 위젯 UI(730)가 표시되고 있다.
프로세서(110)는 확장현실 장치(300)로부터 UI 호출 신호가 수신되는 경우, 확장현실 콘텐트에 호출된 UI를 랜더링함으로써, 확장현실 장치(300)의 디스플레이로 UI를 제공할 수 있다.
일 실시예로, 프로세서(110)는 사용자로부터 선택된 적어도 하나의 객체를 기반으로, 랜더링하여 제공할 UI를 선택할 수 있다.
일 실시예로, 프로세서(110)는 사용자로부터 선택된 복수의 객체 간의 형상 정보 및 속성 정보를 비교하고, 상기 비교 결과를 기반으로 랜더링하여 제공할 UI를 선택할 수 있다.
일 실시예로, 프로세서(110)는 확장현실 장치(300)로 입력되어 수신되는 신호에 따라 확장현실 콘텐트 내 특정 객체를 선택하거나, 선택된 특정 객체를 편집하거나, 선택된 특정 객체를 삭제하거나, 또는 특정 객체를 생성할 수 있다.
도 8 및 도 9를 참조하면, 사용자가 확장현실 장치(300)를 통해 도 7과 같이 선택된 2개의 객체(710)에 대한 객체(810, 파이프 라인)을 편집하는 것이 예시되어 있다.
도 10를 참조하면, 프로세서(110)는 확장현실 장치(300)로부터 확장현실 콘텐트 내 특정 객체가 선택되는 신호가 입력되어 수신되고, 선택된 특정 객체에 대한 속성 정보 조회 신호가 수신되는 경우 속성 정보 조회 신호에 따라 해당 객체에 대한 속성 정보(1000)를 확장현실 콘텐트에 랜더링하여 확장현실 장치(300)로 표시할 수 있다.
프로세서(110)는 확장현실 장치(300)로부터 특정 속성 정보 기반으로 객체 검색이 요청되는 경우, 필터링 기능을 이용하여 확장현실 콘텐트 내에서 해당 속성 정보를 갖는 객체를 선택하거나 표시해줄 수 있다. 프로세서(110)는 이와 같이 객체 검색되어 선택된 복수의 객체에 대하여 다중 편집 기능을 제공함으로써 동시에 복수 개의 객체를 편집할 수 있는 기능을 제공한다.
프로세서(110)는 이와 같이 객체 검색되어 선택된 복수의 객체에 대하여 다중 편집 기능을 제공함으로써 검색되어 선택된 복수 개의 객체에 대한 속성 정보(예: 재질 등)를 편집할 수 있는 기능을 제공한다.
프로세서(110)는 객체 검색되어 선택된 복수의 객체에 대하여 확장현실 콘텐트 내 표시 또는 숨김이 선택되면, 선택에 따라 확장현실 콘텐트를 랜더링할 수 있다.
프로세서(110)는 확장현실 장치(300)로부터 적어도 하나의 객체가 선택되고, 선택된 객체의 속성 정보에 대한 편집 정보(추가, 삭제 또는 수정)가 수신되는 경우, 수신된 편집 정보에 따라 해당 객체의 속성 정보를 편집할 수 있다.
전술한 바와 같이, 프로세서(110)는 미리 셋업된 Templates를 기반으로 형상 정보 및 속성 정보를 입력/적용하여 적어도 하나의 확장현실 콘텐트를 생성하게 되며, 확장현실 장치(300)로부터 편집 정보가 수신되면 이와 같이 입력/적용되어 있는 정보들을 자동으로 편집함으로써, 현장 작업자의 편집 내역을 반영할 수 있게 된다.
그리고, 프로세서(110)는 편집 정보가 특정 객체에 대한 편집인 경우, 해당 객체의 형상 정보 및 속성 정보 중 적어도 하나를 편집할 수 있다.
이외에도, 프로세서(110)는 확장현실 장치(300)로부터 선택된 객체에 대한 메모, 음성 등이 입력되어 수신되는 경우, 이를 저장부(150)에 저장할 수 있다.
프로세서(110)는 확장현실 장치(300)로부터 수신된 편집 정보에 따라 확장현실 콘텐트 내 객체의 정보를 편집하고, 편집된 내역에 따라 확장현실 콘텐트 내 표시되고 있는 객체에도 반영되도록 영상을 랜더링한다.
또한, 프로세서(110)는 편집 정보를 저장부(150)에 저장함으로써, BIM 설계 데이터에도 반영되도록 한다.
이와 같은 기능을 통해서, 현장 작업자는 확장현실 콘텐트를 통해 건설 현장을 확인하고, 편집하는 것은 물론 감리 서비스를 제공할 수도 있다.
몇몇 실시예에서, 확장현실 콘텐츠 제공 장치(100)는 BIM 설계 데이터와 객체의 형상 정보, 속성 정보를 이용하여 설비 라인을 자동으로 설계함으로써, 확장현실 콘텐트를 생성할 수도 있다.
이때, 설비 라인은 파이프 라인, 전기 케이블 라인, 통신 케이블 라인, 덕트 라인 등과 같이 각종 설비 라인이 적용될 수 있다.
프로세서(110)는 건설 현장의 BIM 설계 데이터 내 설비 라인을 설치하기 위한 스타팅 포인트와 엔딩 포인트를 포함하는 복수의 설비 라인 설치 정보를 기반으로, 설비 라인을 자동 설계할 수 있다.
이때, 복수의 설비 라인 설치 정보는 BIM 설계 데이터에 포함되어 있을 수도 있고, 별개로 입력받아 수신할 수도 있다.
프로세서(110)는 건설 현장의 내부 구조 정보 및 건설 현장에 배치될 설비 정보를 포함하는 회피 조건을 고려하여 BIM 설계 데이터 내에 복수의 설비 라인 설치 정보 각각에 해당하는 설비 라인을 자동 설계할 수 있다.
이때, 건설 현장의 내부 구조 정보는 설비 라인을 설계하는데 관련될 수 있는 각종 내부 구조 정보가 해당될 수 있으며, 프로세서(110)는 BIM 설계 데이터를 분석하여 이를 파악할 수 있다.
설비 라인 설치 정보는 설비 라인 설치를 위한 스타팅 포인트와 엔딩 포인트 이외에도, 설비 라인의 사용 목적, 설비 라인의 재질, 설비 라인의 지름 등 설비 라인 설치와 관련된 정보라면 무엇이든 적용될 수 있다.
프로세서(110)는 설비 라인을 설계하는 과정에서 복수의 설비 라인의 적어도 일부 영역이 서로 겹쳐진 경우, 겹쳐진 복수의 설비 라인 각각의 반지름 및 겹쳐진 영역의 크기를 기반으로, 설비 라인 설계 데이터 내에서 겹쳐진 복수의 설비 라인을 서로 밀어내는 방식으로 설계 데이터를 보정하여 복수의 설비 라인이 서로 겹쳐지지 않도록 할 수 있다.
프로세서(110)는 이러한 동작으로, 건설 현장에 대한 복수의 설비 라인을 설계하여 설비 라인 설계 데이터를 생성하며, 설비 라인 설계 데이터 내에서 서로 겹쳐진 영역을 갖는 복수의 설비 라인을 서로 밀어내어 겹쳐진 영역을 제거함으로써 설비 라인 설계 데이터를 완성할 수 있다.
프로세서(110)는 설비 라인 설계 데이터를 생성하게 되면, 이를 설비 라인에 해당되는 각 객체의 형상 정보에 반영하여 저장부(150)에 저장할 수 있다.
일 실시예로, 프로세서(110)는 BIM 설계 데이터 내에서 겹쳐진 복수의 설비 라인을 보정하되, 기 설정된 설비 라인 변곡점 허용 개수를 초과하지 않도록 복수의 설비 라인을 보정할 수 있다.
예를 들어, 겹쳐진 복수의 설비 라인을 보정하는 과정에서 이러한 조건을 설정하지 않고 설비 라인을 보정하게 되면, 많은 수의 변곡점을 만들면서 보정이 진행될 수 있다.
그리고, 이와 같이 많은 수의 변곡점이 생성되면 설비 라인 설치 비용(시공 비용)이 증가될 수 있고, 시공의 복잡성이 상승될 수 있다.
하지만, 본 발명의 실시예에 따른 확장현실 콘텐츠 제공 장치(100)는 변곡점 허용 개수를 설정하게 되면, 프로세서(110)가 변곡점 허용 개수를 초과하지 않도록 하며 복수의 설비 라인을 보정할 수 있게 된다.
일 실시예로, 프로세서(110)는 설계 데이터 내에 존재하는 모든 설비 라인이 90°의 꺾임을 갖도록 설계한다.
이때, 프로세서(110)는 복수의 설비 라인의 보정을 수행한 후에 90°의 꺾임을 벗어나는 각도를 갖는 적어도 하나의 설비 라인이 생성된 경우, 해당 설비 라인에 대한 보정을 지시하는 알림을 출력할 수 있다.
발명의 실시예에 따른 확장현실 콘텐츠 제공 장치(100)는 기울어진 각도를 포함하지 않고, 90°의 꺾임을 갖도록 설비 라인을 설계, 보정한다.
하지만, BIM 설계 데이터, 건설 현장의 내부 구조 정보 등 다양한 변수에 의해서 적어도 하나의 설비 라인이 90° 이외의 각도를 갖도록 설계, 보정이 이루어질 수 있기 때문에, 프로세서(110)는 이러한 설비 라인이 존재하는 경우 사용자/관리자에게 알림을 제공하여 이를 수정하도록 함으로써, 혹시나 발생할 수 있는 자동 설계의 오차 발생을 수정할 수 있게 된다.
일 실시예로, 프로세서(110)는 겹쳐진 복수의 설비 라인 각각의 재질과 사용 목적을 보정 조건으로 포함하여, 설계 비용이 최소화되는 경로로 겹쳐진 복수의 설비 라인의 수정 여부 및 밀리는 범위를 결정할 수 있다.
전술한 바와 같이, 설비 라인 설치 정보는 설비 라인 설치를 위한 스타팅 포인트와 엔딩 포인트 이외에도, 설비 라인의 사용 목적, 설비 라인의 재질, 설비 라인의 지름 등을 포함할 수 있다.
따라서, 건설 현장에 설치될 설비 라인은 근처에 설치되는 설비 라인끼리도 사용 목적이 다를 수 있고, 이로 인해 설비 라인의 재질이 상이할 수 있다.
프로세서(110)는 이러한 점을 고려하여, 겹쳐진 복수의 설비 라인을 서로 밀어내는 방식으로 보정하되, 설계 비용이 최소화되는 경로로 겹쳐진 복수의 설비 라인의 수정 여부 및 밀리는 범위를 결정함으로써, 건설 현장 내 설비 라인 시공 비용을 감소시킬 수 있게 된다.
예를 들어, A 설비 라인과 B 설비 라인이 일정 범위 겹쳐진 상황에 서 A 설비 라인의 길이당 단가가 B 설비 라인보다 훨씬 높은 경우, 프로세서(110)는 A 설비 라인의 보정을 최소화하며 B 설비 라인의 위치, 경로를 보정하는 방향으로 설비 라인을 보정할 수 있다.
일 실시예로, 프로세서(110)는 겹쳐진 복수의 설비 라인을 보정하는 과정에서 발생되는 설비 라인 변곡점으로 인하여 동반되는 속성 정보 변경에 따른 재료 비용을 보정 조건으로 더 포함할 수 있다.
예를 들어, 설비 라인의 변곡점 개수가 늘어나게 되면, 설비 라인 조인트 재료 비용이 추가되며 이러한 비용은 설비 라인의 종류, 사용 목적, 재질 등의 조건에 따라서 추가적인 변동이 생길 수 있다.
따라서, 프로세서(110)는 이러한 점들을 보정 조건으로 더 포함하여 겹쳐진 설비 라인에 대한 보정을 수행함으로써, 설비 라인 시공 비용을 감소시킬 수 있는 효과가 있다.
일 실시예로, 프로세서(110)는 건설 현장의 공정 정보 및 설비 라인의 사용 용도(목적)를 기반으로, 각 설비 라인의 재질 및 반지름을 결정할 수 있다.
이러한 작동을 위해서, 데이터베이스에는 설비 라인의 사용 목적, 설비 라인이 설치될 건설 현장의 공정 정보에 따라서 설비 라인의 재질과 반지름을 결정할 수 있는 알고리즘이 저장되어 있으며, 프로세서(110)는 알고리즘을 기반으로 작동될 수 있다.
따라서, 프로세서(110)는 자동으로 설비 라인은 물론 객체(설비 라인)의 형상 정보 및 속성 정보까지 결정, 수정하는 효과를 발휘하게 된다.
본 개시의 실시예에 따른 확장현실 콘텐츠 제공 장치는 상술한 구성들을 통해서, 각 공정별 BIM 설계 데이터를 자동으로 통합하는 프로세스를 수행하고, 확장현실 콘텐트에 적용하기 위한 형상 정보 및 속성 정보를 생성하며, 이를 미리 셋업되어 있는 템플릿에 적용/입력함으로써 해당 건설 공정에 대한 확장현실 콘텐트를 생성함으로써, 자동화된 워크플로우를 통해 확장현실 콘텐츠 제공 방법을 제공하게 된다.
또한, 본 개시의 실시예에 따른 확장현실 콘텐츠 제공 장치는 현장의 작업자가 착용한 확장현실 장치(300)로부터 작업자의 편집 정보를 수신하고, 이를 확장현실 콘텐트에 실시간으로 반영하고 BIM 설계 데이터와 Tool(Revit)에 적용하게 된다.
상세하게는, 사용자가 설계하는 각 설비 라인들의 재질과 반지름을 직접 설정하지 않아도 자동으로 설비 라인은 물론 재질, 반지름까지 설계되는 효과를 발휘하게 된다.
또한, 프로세서(110)는 입력된 복수의 설비 라인 설치 정보 중에서, 스타팅 포인트와 엔딩 포인트의 직선 거리가 가까운 설비 라인 설치 정보의 순서대로 설비 라인을 설계하는 것을 특징으로 한다.
일 실시예로, 프로세서(110)는 설비 라인의 설계가 완료된 BIM 설계 데이터 및 건설 현장의 내부 구조 정보를 기반으로, 건설 현장의 현장 감리 과정에서 현장 작업자가 확장현실 장치(300)를 이용하여 건설 현장의 실측 데이터와 BIM 설계 데이터 데이터를 매칭하기 위해서 필요한 기준 표식의 설치가 적합한 적어도 하나의 기준 표식 설치 위치를 도출할 수 있다.
본 발명의 실시예에 따르면, 설비 라인의 설계가 완성되어 BIM 설계 데이터가 완성되면, 확장현실 콘텐츠 제공 장치(100)는 BIM 설계 데이터를 시공사로 제공하게 되고 시공사는 BIM 설계 데이터를 기반으로 시공을 진행하게 된다.
그리고, 건설 현장을 감리하는 감리사(사용자)는 확장현실 장치(300)를 착용하고 건설 현장을 촬영하며 감리하게 되는데, 확장현실 콘텐츠 제공 장치(100)는 감리 보조 장치로부터 촬영된 영상을 기반으로 현장의 실측 데이터와 BIM 설계 데이터를 매칭하여 오차를 확인하게 된다.
이때, 현장의 실측 데이터와 BIM 설계 데이터를 정확하게 매칭하기 위해서 사용되는 것이 기준 표식이며, 확장현실 콘텐츠 제공 장치(100)는 BIM 설계 데이터와 건설 현장의 내부 구조 정보를 기반으로 기준 표식의 설치가 적합한 설치 위치까지 도출하여 제공할 수 있게 된다.
일 실시예로, 확장현실 콘텐츠 제공 장치(100)는 복수/다수의 기준 표식 설치 위치를 도출하고, 각각의 기준 표식에 대한 이미지 또는 코드를 생성할 수 있다.
이러한 이미지 또는 코드는 각각의 기준 표식을 식별할 수 있는 수단이 되며, 확장현실 콘텐츠 제공 장치(100)의 데이터베이스는 각 기준 표식의 이미지 또는 코드를 기준 표식의 위치 정보와 함께 저장하게 된다.
본 개시의 실시예에서 확장현실 콘텐츠 제공 장치(100)는 확장현실 장치(300)의 카메라 촬영 영상을 기반으로, 투명 디스플레이를 통해 사용자가 보고 있는 객체(현실 설계물)을 인식할 수 있다.
몇몇 실시예에서, 확장현실 장치(300)는 라이다를 더 포함할 수 있으며, 프로세서(110)는 라이다의 센싱 데이터를 활용하여 사용자가 보고 있는 객체(현실 설계물)을 보다 정확하게 인식할 수 있다.
상세하게는, 프로세서(110)는 카메라 촬영 영상을 기반으로 투명 디스플레이부를 통해 사용자가 바라보고 있는 현실 설계물을 인식하고, 라이다의 센싱 데이터를 기반으로 인식된 각각의 객체(현실 설계물)과 사용자의 거리를 산출할 수 있다.
프로세서(110)는 카메라로부터 수신되는 촬영 영상 내 객체(현실 설계물)에 대한 사용자의 기 설정된 모션 제스쳐가 인식되는 경우, 감지된 모션 제스쳐와 관련된 객체(현실 설계물)을 선택 대상 또는 편집 대상으로 판단할 수 있다.
이때, 기 설정된 모션 제스쳐는 객체(현실 설계물)을 손으로 가리키는 행위, 객체(현실 설계물)을 손으로 만지는 행위, 손으로 특정 객체(현실 설계물)의 범위를 지정하는 행위 등이 해당될 수 있다.
또한, 카메라는 전방 촬영용 카메라 이외에도, 별도로 사용자의 안구 움직임에 기반한 시선 추적을 통해 사용자의 시선 추적용 카메라가 더 포함될 수 있다.
프로세서(110)는 시선 추적용 카메라를 통해 사용자의 시선을 정확하게 파악할 수 있으며, 사용자가 기 설정된 시간 이상 쳐다보고 있는 객체(현실 설계물)을 선택, 인식, 편집 대상으로 판단할 수 있다.
프로세서(110)는 사용자의 시선 내에 위치하는 적어도 하나의 객체에 대한 확장현실 콘텐트를 확장현실 장치(300)의 투명 디스플레이로 표시할 수 있다.
확장현실 장치(300)를 착용한 사용자가 건설 현장의 감리를 진행하는 중이라면, 카메라 촬영 영상 내 객체의 실제 형상 정보와 투명 디스플레이를 통해 표시되고 있는 확장현실 콘텐트 내 객체의 형상 정보를 비교하고, 상기 비교 결과 2개의 차이값이 기 설정된 오차 허용 범위를 벗어나는 경우 확장현실 장치(300)로 오차 발생 알림을 제공할 수 있다.
프로세서(110)는 이와 같은 감리 모드 제공으로 인하여, 사용자가 착용하고 있는 확장현실 제공 장치로부터 콘텐트 내 적어도 하나의 객체에 대한 편집 정보가 수신되는 경우, 수신된 편집 정보에 따라 객체의 형상 정보 또는 속성 정보를 편집하여 랜더링하고, 편집 내역을 저장부(150)에 저장할 수 있다.
이상에서 전술한 본 개시의 일 실시예에 따른 방법은, 하드웨어인 서버와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다.
상기 전술한 프로그램은, 상기 컴퓨터가 프로그램을 읽어 들여 프로그램으로 구현된 상기 방법들을 실행시키기 위하여, 상기 컴퓨터의 프로세서(110)(CPU)가 상기 컴퓨터의 장치 인터페이스를 통해 읽힐 수 있는 C, C++, JAVA, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. 이러한 코드는 상기 방법들을 실행하는 필요한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Functional Code)를 포함할 수 있고, 상기 기능들을 상기 컴퓨터의 프로세서(110)가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수 있다. 또한, 이러한 코드는 상기 기능들을 상기 컴퓨터의 프로세서(110)가 실행시키는데 필요한 추가 정보나 미디어가 상기 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조되어야 하는지에 대한 메모리 참조관련 코드를 더 포함할 수 있다. 또한, 상기 컴퓨터의 프로세서(110)가 상기 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 상기 컴퓨터의 통신 모듈을 이용하여 원격에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수 있다.
상기 저장되는 매체는, 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상기 저장되는 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있지만, 이에 제한되지 않는다. 즉, 상기 프로그램은 상기 컴퓨터가 접속할 수 있는 다양한 서버 상의 다양한 기록매체 또는 사용자의 상기 컴퓨터상의 다양한 기록매체에 저장될 수 있다. 또한, 상기 매체는 네트워크로 연결된 컴퓨터 시스템(10)에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장될 수 있다.
본 개시의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 개시가 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.
이상, 첨부된 도면을 참조로 하여 본 개시의 실시예를 설명하였지만, 본 개시가 속하는 기술분야의 통상의 기술자는 본 개시가 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.
10: 확장현실 콘텐츠 제공 시스템
100: 확장현실 콘텐츠 제공 장치
110: 프로세서
130: 통신부
150: 저장부
170: 랜더링부
200: 작업자 단말
300: 확장현실 장치
100: 확장현실 콘텐츠 제공 장치
110: 프로세서
130: 통신부
150: 저장부
170: 랜더링부
200: 작업자 단말
300: 확장현실 장치
Claims (10)
- 복수의 서로 다른 작업자의 단말로부터 BIM 설계 데이터를 수신하고, 현장 작업자의 확장현실 장치와 통신을 수행하는 통신부;
상기 수신된 BIM 설계 데이터를 기반으로 생성된 형상 정보 및 속성 정보가 저장되는 저장부; 및
상기 수신된 BIM 설계 데이터를 기반으로, 적어도 하나의 확장현실(eXtended Reality) 콘텐트에 표시하기 위한 객체 별 형상 정보 및 속성 정보를 생성하고,
상기 생성된 형상 정보 및 속성 정보를 기반으로, 상기 적어도 하나의 확장현실 콘텐트를 생성하고,
상기 생성된 확장현실 콘텐트를 제공하여 상기 확장현실 장치에 표시되도록 제어하는 프로세서를 포함하며,
상기 프로세서는,
상기 통신부를 통해 상기 확장현실 장치에 의해 입력된 상기 확장현실 콘텐트에 대한 편집 정보가 수신되는 경우, 상기 편집 정보에 해당하는 변경 사항을 상기 확장현실 콘텐트에 반영하여 상기 확장현실 장치에 다시 제공하고,
상기 BIM 설계 데이터를 분석하여 시각적 속성 또는 비시각적 속성을 판단하고, 상기 판단된 결과에 기초하여 상기 확장현실 콘텐트에 표시하기 위한 적어도 하나의 객체를 결정하고, 상기 결정된 객체에 대한 형상 정보 및 속성 정보를 생성하고,
상기 확장현실 장치로부터 상기 확장현실 콘텐트 내의 적어도 하나의 객체가 선택되면, 상기 결정된 객체의 형상 정보를 기반으로 상기 확장현실 콘텐트 내에 상기 선택된 객체를 랜더링하고,
상기 확장현실 장치의 기본 보기 조건에서 상기 랜더링된 객체를 표시할 것인지 숨길 것인지 결정하는 것을 특징으로 하는,
확장현실 콘텐츠 제공 장치. - 삭제
- 삭제
- 제1항에 있어서,
상기 적어도 하나의 확장현실 콘텐트 내에 포함된 각 객체에 대한 상기 형상 정보를 기반으로, 상기 각 객체의 LOD(Level Of Detail)를 결정하고,
상기 결정된 각 객체의 LOD를 기반으로, 랜더링 모듈을 제어하여 상기 적어도 하나의 확장현실 콘텐트에 상기 각 객체를 랜더링하는 것을 특징으로 하는,
확장현실 콘텐츠 제공 장치. - 제4항에 있어서,
상기 프로세서는,
상기 적어도 하나의 확장현실 콘텐트 내에 포함된 각 객체의 위치 정보와 상기 확장현실 장치의 실시간 위치 및 상기 각 객체의 형상 정보와 속성 정보를 기반으로, 상기 확장현실 장치로 표시되고 있는 확장현실 콘텐트 내에서의 상기 각 객체의 상대적 중요도 및 가시성을 산출하고,
상기 산출된 상대적 중요성 및 가시성을 기반으로, 상기 각 객체를 상기 확장현실 장치에 표시할 것인지 숨김 처리할 것인지를 결정하는 것을 특징으로 하는,
확장현실 콘텐츠 제공 장치. - 제5항에 있어서,
상기 프로세서는,
상기 확장현실 장치로부터 상기 확장현실 콘텐트 내 특정 객체에 대한 속성 정보 조회 신호가 수신되는 경우,
상기 속성 정보 조회 신호에 따라 상기 특정 객체에 대한 속성 정보를 표시하는 것을 특징으로 하는,
확장현실 콘텐츠 제공 장치. - 제6항에 있어서,
상기 프로세서는,
상기 확장현실 콘텐츠에 반영된 상기 편집 정보를 상기 저장부에 저장된 BIM 설계 데이터에 반영하여 저장하는 것을 특징으로 하는,
확장현실 콘텐츠 제공 장치. - 제7항에 있어서,
상기 프로세서는,
상기 확장현실 장치로 제공하기 위한 상기 적어도 하나의 확장현실 콘텐트의 용량과 상기 확장현실 장치의 스펙에 기초하여 상기 확장현실 장치의 운용 옵션을 결정하며,
상기 운용 옵션은, 무선 통신 방식을 통해 상기 적어도 하나의 확장현실 콘텐트를 제공하는 제1 운용 옵션 및 스탠드 얼론(Stand Alone) 방식의 제2 운용 옵션을 포함하는,
확장현실 콘텐츠 제공 장치. - 확장현실 콘텐츠 제공 장치에 의해 수행되는 방법으로,
복수의 서로 다른 작업자의 단말로부터 BIM 설계 데이터를 수신하는 단계;
상기 수신된 BIM 설계 데이터를 기반으로, 적어도 하나의 확장현실(eXtended Reality) 콘텐트를 생성하기 위한 객체 별 형상 정보 및 속성 정보를 생성하는 단계;
상기 생성된 형상 정보 및 속성 정보를 기반으로 상기 적어도 하나의 확장현실 콘텐트를 생성하는 단계;
상기 생성된 적어도 하나의 확장현실 콘텐츠를 현장 작업자의 확장현실 장치에 제공하여 표시하는 단계; 및
상기 확장현실 장치로부터 상기 확장현실 콘텐트에 대한 편집 정보가 수신되는 경우, 상기 편집 정보에 해당하는 변경 사항을 상기 확장현실 콘텐트에 반영하여 상기 확장현실 장치에 다시 제공하는 단계를 포함하며,
상기 확장현실 콘텐츠 제공 장치는,
상기 BIM 설계 데이터를 분석하여 시각적 속성 또는 비시각적 속성을 판단하고, 상기 판단된 결과에 기초하여 상기 확장현실 콘텐트에 표시하기 위한 적어도 하나의 객체를 결정하고, 상기 결정된 객체에 대한 형상 정보 및 속성 정보를 생성하고,
상기 확장현실 장치로부터 상기 확장현실 콘텐트 내의 적어도 하나의 객체가 선택되면, 상기 결정된 객체의 형상 정보를 기반으로 상기 확장현실 콘텐트 내에 상기 선택된 객체를 랜더링하고,
상기 확장현실 장치의 기본 보기 조건에서 상기 랜더링된 객체를 표시할 것인지 숨길 것인지 결정하는 것을 특징으로 하는,
확장현실 콘텐츠 제공 방법. - 하드웨어인 컴퓨터와 결합되어, 제9항의 방법을 실행시키기 위한 프로그램이 저장된 컴퓨터 판독 가능한 기록매체.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220147471A KR102603303B1 (ko) | 2022-11-08 | 2022-11-08 | 확장현실 콘텐츠 제공 장치, 방법 및 자동 또는 자동화 프로그램 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220147471A KR102603303B1 (ko) | 2022-11-08 | 2022-11-08 | 확장현실 콘텐츠 제공 장치, 방법 및 자동 또는 자동화 프로그램 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102603303B1 true KR102603303B1 (ko) | 2023-11-20 |
Family
ID=88974061
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220147471A KR102603303B1 (ko) | 2022-11-08 | 2022-11-08 | 확장현실 콘텐츠 제공 장치, 방법 및 자동 또는 자동화 프로그램 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102603303B1 (ko) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190094788A (ko) | 2018-02-06 | 2019-08-14 | 대림산업 주식회사 | Bim 시스템을 활용한 수배관 설계 방법 |
KR102336069B1 (ko) * | 2020-10-29 | 2021-12-08 | 주식회사 에이디 | 건축 설계 협업을 위한 장치 및 방법 |
KR20220085142A (ko) * | 2020-12-15 | 2022-06-22 | 주식회사 동우 이앤씨 | 확장현실 기반 지능형 건설현장 관리 지원 시스템 및 방법 |
-
2022
- 2022-11-08 KR KR1020220147471A patent/KR102603303B1/ko active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190094788A (ko) | 2018-02-06 | 2019-08-14 | 대림산업 주식회사 | Bim 시스템을 활용한 수배관 설계 방법 |
KR102336069B1 (ko) * | 2020-10-29 | 2021-12-08 | 주식회사 에이디 | 건축 설계 협업을 위한 장치 및 방법 |
KR20220085142A (ko) * | 2020-12-15 | 2022-06-22 | 주식회사 동우 이앤씨 | 확장현실 기반 지능형 건설현장 관리 지원 시스템 및 방법 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9459706B2 (en) | Information display system, information display method, and recording medium | |
US8225226B2 (en) | Virtual control panel | |
KR102576654B1 (ko) | 전자 장치 및 그의 제어 방법 | |
US20230273431A1 (en) | Methods and apparatuses for providing input for head-worn image display devices | |
EP2490182A1 (en) | authoring of augmented reality | |
US10572134B2 (en) | Method and system for providing prototyping tool, and non-transitory computer-readable recording medium | |
US20230360344A1 (en) | Crowd sourced mapping system | |
CN102208102A (zh) | 图像处理装置以及图像处理方法 | |
US11941906B2 (en) | Method for identifying user's real hand and wearable device therefor | |
KR20230133831A (ko) | Bim 설계 데이터 내 설비 라인을 자동으로 설계하는 장치, 방법 및 프로그램 | |
Kodeboyina et al. | Low cost augmented reality framework for construction applications | |
KR20230096839A (ko) | 건축 프로젝트의 협업툴 내에서 작성된 메모를 위치 정보를 기반으로 공유하여 제공하는 장치, 방법 및 프로그램 | |
US11676355B2 (en) | Method and system for merging distant spaces | |
KR102603303B1 (ko) | 확장현실 콘텐츠 제공 장치, 방법 및 자동 또는 자동화 프로그램 | |
CN110061755A (zh) | 作业辅助方法和系统、可穿戴设备及工程车辆 | |
KR102701335B1 (ko) | Xr 기반으로 시공 정밀도를 향상시키는 확장현실 장치, 방법 및 프로그램 | |
CN102947772B (zh) | 用于确定输入的方法和装置 | |
US20230124173A1 (en) | Information terminal device and application operation mode control method of same | |
CN107422854A (zh) | 应用于虚拟现实的动作识别方法及终端 | |
JP2019082927A (ja) | 情報処理装置、情報処理方法、プログラム | |
KR20220025359A (ko) | 주얼리의 증강현실 제공방법 및 이를 실행하는 시스템 | |
US10529146B2 (en) | Positioning objects in three-dimensional graphical space | |
KR102603286B1 (ko) | 건축물의 설계, 시공 및 감리 서비스 제공 서버, 방법 및 프로그램 | |
KR20210085929A (ko) | 다중 사용자 간의 증강현실 커뮤니케이션 방법 | |
KR101499044B1 (ko) | 사용자의 손동작 및 음성에 기초하여 사용자가 의도한 텍스트를 취득하는 웨어러블 컴퓨터 및 사용자가 의도한 텍스트를 취득하는 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |