KR20230029130A - Apparatus and method for creating dynamic, live-type metaverse virtual interior space - Google Patents

Apparatus and method for creating dynamic, live-type metaverse virtual interior space Download PDF

Info

Publication number
KR20230029130A
KR20230029130A KR1020210111244A KR20210111244A KR20230029130A KR 20230029130 A KR20230029130 A KR 20230029130A KR 1020210111244 A KR1020210111244 A KR 1020210111244A KR 20210111244 A KR20210111244 A KR 20210111244A KR 20230029130 A KR20230029130 A KR 20230029130A
Authority
KR
South Korea
Prior art keywords
metaverse
unit
interior space
virtual
space
Prior art date
Application number
KR1020210111244A
Other languages
Korean (ko)
Inventor
이동훈
Original Assignee
이동훈
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이동훈 filed Critical 이동훈
Priority to KR1020210111244A priority Critical patent/KR20230029130A/en
Publication of KR20230029130A publication Critical patent/KR20230029130A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/221Image signal generators using stereoscopic image cameras using a single 2D image sensor using the relative movement between cameras and objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Computer Graphics (AREA)
  • Tourism & Hospitality (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Architecture (AREA)
  • Primary Health Care (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • General Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The present invention relates to a device for generating a liveliness/live-type metaverse virtual interior space composed of a field photographing mobile robot module (100), a metaverse virtual interior space generation control module (200), and a metaverse driving MR module (300). It is possible to provide a Korean-style metaverse virtual interior space generation device which can variously implement a cafe-type metaverse, a party-type metaverse, a photo spot-type metaverse, and a concert/musical performance-type metaverse which require liveliness and live. Provided are the device and method for generating a liveliness/live-type metaverse interior space, which can increase the profit generation of the metaverse market by 80%.

Description

생동감·라이브형 메타버스 가상인테리어공간 생성장치 및 방법{Apparatus and method for creating dynamic, live-type metaverse virtual interior space}Apparatus and method for creating dynamic, live-type metaverse virtual interior space}

본 발명은 건설업체에 건설 진척 상황을 메타버스 상에서 효율적으로 캡처하고 가상으로 관리할 수 있는 솔루션을 제공할 수 있고, 생동감, 라이브를 요구하는 카페형 메타버스, 파티형 메타버스, 포토스팟형 메타버스, 콘서트/뮤지컬 공연형 메타버스를 다양하게 구현시킬 수 있도록 하기 위해, 메타버스를 구현하고자 하는 현장공간을 이동하면서 촬영한 현장공간 3D데이터를 수신받아, 360도 파노라마 뷰(View)를 갖는 3D 인테리어 모델링으로 변환시킨 후, 객체를 부여한 360도 파노라마 뷰(View)를 갖는 3D 인테리어 모델링과 함께, MR(Mixed Reality) 분위기로 메타버스가 구동되는 메타버스 가상인테리어공간을 생성시키는 생동감·라이브형 메타버스 가상인테리어공간 생성장치 및 방법에 관한 것이다.The present invention can provide construction companies with a solution that can efficiently capture and virtually manage the construction progress on the metaverse, and can provide a cafe-type metaverse, party-type metaverse, and photo spot-type meta that require liveliness and liveliness. In order to be able to implement a bus, concert/musical performance type metaverse in various ways, 3D with a 360-degree panoramic view by receiving 3D data of the field space filmed while moving the field space where the metaverse is to be implemented. After converting to interior modeling, along with 3D interior modeling with a 360-degree panoramic view to which objects are assigned, a metaverse in which the metaverse is driven in an MR (Mixed Reality) atmosphere A lively and live meta that creates a virtual interior space It relates to a bus virtual interior space generating device and method.

요즘에 이슈가 되는 메타버스(Metaverse)는 가상, 초월(Meta)과 세계, 우주(universe)의 합성어로 우주와 또 다른 차원의 우주인 3차원 가상 세계를 뜻하며, 보다 구체적으로는 정치, 경제, 사회, 문화의 전반적 측면에서 현실과 비현실 모두 공존할 수 있는 생활형, 게임형 가상세계를 말한다.Metaverse, which is an issue these days, is a compound word of virtual, transcendence (Meta), world, and universe, which means the universe and a three-dimensional virtual world that is another dimension. In general, it refers to a life-type and game-type virtual world in which both reality and non-reality can coexist in the overall aspect of culture.

이는 현실과 유사하거나 혹은 완전히 다른 대안적 세계를 디지털 데이터로 생성한 것으로, 가상 세계에서 사용자들은 아바타를 통해 현실세계의 경제적, 사회적인 활동과 유사한 활동을 한다는 특징이 있다.This is a digital data creation of an alternative world that is similar to or completely different from reality. In the virtual world, users perform activities similar to economic and social activities in the real world through avatars.

가상세계는 우리에게 가장 친숙한 형태의 메타버스로서, 리니지와 같은 온라인 롤플레잉 게임에서 부터 린든 랩에서 개발된 세컨드 라이프와 같은 생활형 가상세계에 이르기 까지 3차원 컴퓨터 그래픽 환경에서 구현되는 커뮤니티를 총칭하는 개념이다.The virtual world is the most familiar form of metaverse to us, a concept that collectively refers to communities implemented in a 3D computer graphic environment, from online role-playing games such as Lineage to living virtual worlds such as Second Life developed by Linden Lab. am.

메타버스의 일부분으로서, 가상현실을 이용한 실내 건축물 관련 정보를 제공하는 기술이 많이 제공되고 있다.As part of the metaverse, many technologies that provide information related to indoor buildings using virtual reality are being provided.

종래 기술로 국내등록특허공보 제10-1770648호에서는 "파노라마와 3차원 건물평면도 기반 실내 가상체험 제공 방법, 이를 이용한 휴대용 단말기 및 그 동작 방법"이 제시된 바 있으나, 이는 실내에서 촬영된 하나 이상의 사진을 획득하는 시간과, 서버에서 3차원 건물평면도 좌표정보를 정합하여 파노라마 사진 이미지를 생성하는 작업시간이 오래 걸리고, 체계적이고 협업적인 메타버스 플랫폼 모듈자체가 없고, 이로 인해 파노라마 사진 이미지상의 좌표 정보 및 객체의 배치정보가 맞지 않아, 양질의 메타버스 가상 인테리어 공간생성이 어려운 문제점이 있었다.As a prior art, Korean Patent Publication No. 10-1770648 suggests "a method for providing a virtual indoor experience based on a panorama and a 3D building plan, a portable terminal using the same, and a method for operating the same," It takes a long time to acquire and create panoramic photo images by matching 3D building floor plan coordinate information on the server, and there is no systematic and collaborative metaverse platform module itself, resulting in coordinate information and objects on panoramic photo images. There was a problem in that it was difficult to create a high-quality metaverse virtual interior space because the layout information of was not correct.

또한, 가상인테리어 전시공간에 단지, 정적인 느낌의 3D 전시매체로서만 메타버스를 활용하기 때문에, 감정이입 형태의 정서적 반응을 일으키는 메타버스의 몰입 체험을 약화시키고, 체험자와 쇼핑몰 사이를 연결시켜주는 시스템이 없어, 정확한 공간 정보 전달이 미흡한 문제점이 있었다.In addition, since the metaverse is used only as a static 3D exhibition medium in the virtual interior exhibition space, it weakens the immersion experience of the metaverse that causes an emotional response in the form of empathy and connects the experiencer and the shopping mall. Since there is no system, there was a problem in that accurate spatial information transmission was insufficient.

무엇보다, 코로나사태로 인한 비대면 사회적 배경으로 보았을 때, 현장 미팅 이후 공간 설계 정보와 견적을 비대면 보고의 온라인으로서 진행되어지는 산업화 활성화가 필요함에도 이에 맞는 메타버스 기술이 전혀 없고, 특히, 동시다발, 실시간, 생동감을 요구하는 카페형 메타버스, 파티형 메타버스, 포토스팟형 메타버스, 콘서트/뮤지컬 공연형 메타버스, 건설 진척 상황 실시간 업데이트 메타버스를 구현시키는 시스템개발이 전무한 실정이다. Above all, in view of the non-face-to-face social background caused by the corona crisis, there is no metaverse technology suitable for this, even though it is necessary to activate industrialization that proceeds as an online form of non-face-to-face reporting of space design information and estimates after the on-site meeting. There is no system development that implements a cafe-type metaverse, a party-type metaverse, a photo spot-type metaverse, a concert/musical performance-type metaverse, and a real-time update metaverse of construction progress that require a bunch, real-time, and liveliness.

국내등록특허공보 제10-1770648호Korean Registered Patent Publication No. 10-1770648

상기의 문제점을 해결하기 위해 본 발명에서는 360도 파노라마 뷰(View)를 갖는 3D 인테리어 모델링과 함께, MR(Mixed Reality) 분위기로 메타버스가 구동되는 메타버스 가상인테리어공간 생성을 통해, 특정 현장을 방문하거나 양방향 대면 미팅이 필요없고, 공간과 시간의 제약없이 실제 적용될 공간을 쌍방향으로 확인하고 정보를 공유할 수 있으며, 인테리어 및 건설 산업 전반적인 전문가들이 사용하는 BIM(건축정보모델) 데이터를 기반으로 하여 소비자 및 메타버스 가상 인테리어 시공자등이 직접 확인 및 체험할 수 있는 메타버스 가상인테리어공간 생성 제어모듈을 통해, 360도 파노라마 뷰(View)를 갖는 3D 인테리어 모델링으로 이루어진 양질의 메타버스 가상인테리어공간을 MR(Mixed Reality)체험형으로 소비자에게 제공할 수 있고, 메타버스 체험자와 오프라인 관람자들간에 상호 작용이 이뤄지는 "동시다발적", "실시간" 등의 특징을 지닌 다양한 활동을 진행하여 O2O(온라인-오프라인) 마켓팅 효과를 제공할 수 있으며, 체계적이고 협업모드인 스케치업프로그램엔진부를 통해 360도 파노라마 뷰(View)를 갖는 3D 인테리어 모델링을 30분~60분 주기로 업로딩할 수 있는 생동감·라이브형 메타버스 가상인테리어공간 생성장치 및 방법을 제공하는데 그 목적이 있다.In order to solve the above problems, in the present invention, along with 3D interior modeling with a 360-degree panoramic view, through the creation of a metaverse virtual interior space in which the metaverse is driven in an MR (Mixed Reality) atmosphere, visiting a specific site or two-way face-to-face meetings are not required, users can interactively check and share information on the actual space to be applied without space and time constraints, and based on BIM (Building Information Model) data used by experts in the interior and construction industries, And through the metaverse virtual interior space creation control module that the metaverse virtual interior constructors can directly check and experience, the high-quality metaverse virtual interior space made of 3D interior modeling with a 360-degree panoramic view is MR ( It can be provided to consumers as a Mixed Reality) experiential type, and O2O (online-offline) by conducting various activities with characteristics such as "simultaneous" and "real-time" in which interactions occur between metaverse experiencers and offline viewers. A lively and live metaverse virtual interior that can provide marketing effects and can upload 3D interior modeling with a 360-degree panoramic view through the sketchup program engine, which is a systematic and collaborative mode, every 30 to 60 minutes. Its purpose is to provide a space generating device and method.

상기의 목적을 달성하기 위해 본 발명에 따른 생동감·라이브형 메타버스 가상인테리어공간 생성장치는In order to achieve the above object, the lively and live metaverse virtual interior space generating device according to the present invention

메타버스를 구현하고자 하는 현장공간을 이동하면서 촬영한 현장공간 3D데이터를 수신받아, 360도 파노라마 뷰(View)를 갖는 3D 인테리어 모델링으로 변환시킨 후, 객체를 부여한 360도 파노라마 뷰(View)를 갖는 3D 인테리어 모델링과 함께, MR(Mixed Reality) 분위기로 메타버스가 구동되는 메타버스 가상인테리어공간을 생성시킴으로서 달성된다.After receiving the field space 3D data taken while moving the field space to implement the metaverse, converting it into a 3D interior modeling with a 360-degree panoramic view, and having a 360-degree panoramic view given an object This is achieved by creating a metaverse virtual interior space in which the metaverse is driven in an MR (Mixed Reality) atmosphere along with 3D interior modeling.

상기 생동감·라이브형 메타버스 가상인테리어공간 생성장치는 보다 구체적으로, The lively and live metaverse virtual interior space generating device is more specifically,

현장공간을 X축, Y축으로 이동하면서 360도 현장공간영상을 촬영한 후, 촬영한 현장공간 3D 데이터를 메타버스 가상인테리어공간 생성 제어모듈쪽으로 실시간전송시키는 현장촬영 이동로봇모듈(100)과,After filming a 360-degree field space image while moving the field space in the X-axis and Y-axis, a field shooting mobile robot module 100 that transmits the 3D data of the filmed field space to the metaverse virtual interior space creation control module in real time;

현장촬영 이동로봇모듈으로부터 촬영된 현장공간 3D데이터를 수신받아 360도 파노라마 뷰(View)를 갖는 3D 인테리어 모델링으로 변환시킨 후, 객체를 부여한 360도 파노라마 뷰(View)를 갖는 3D 인테리어 모델링과 함께, MR(Mixed Reality) 분위기로 메타버스가 구동되는 메타버스 가상인테리어공간을 생성시키도록 제어하는 메타버스 가상인테리어공간 생성 제어모듈(200)과,After receiving the field space 3D data taken from the field shooting mobile robot module and converting it into a 3D interior modeling with a 360-degree panoramic view, 3D interior modeling with a 360-degree panoramic view given an object, A metaverse virtual interior space creation control module 200 that controls to generate a metaverse virtual interior space in which the metaverse is driven in an MR (Mixed Reality) atmosphere;

메타버스 체험자의 헤드상에 착용되어, 메타버스 가상인테리어공간 생성 제어모듈과 연동되면서, 온라인 웹기반으로 메타버스 가상인테리어공간으로 들어가 MR(Mixed Reality) 분위기와 함께 시각적, 청각적, 감각적으로 가상체험시키는 메타버스구동용 MR모듈(300)로 구성되는 것을 특징으로 한다.It is worn on the head of the metaverse experiencer, linked with the metaverse virtual interior space creation control module, and enters the metaverse virtual interior space based on the online web, providing a visual, auditory, and sensory virtual experience along with the MR (Mixed Reality) atmosphere. It is characterized in that it is composed of the MR module 300 for driving the metabus.

또한, 본 발명에 따른 생동감·라이브형 메타버스 가상인테리어공간 생성방법은In addition, the method for generating a lively and live metaverse virtual interior space according to the present invention

현장촬영 이동로봇모듈을 통해 현장공간을 X축, Y축으로 이동하면서 360도 현장공간영상을 촬영한 후, 촬영한 현장공간 3D 데이터를 메타버스 가상인테리어공간 생성 제어모듈쪽으로 실시간전송시키는 단계(S100)와,After taking a 360-degree field space image while moving the field space in the X and Y axes through the field shooting mobile robot module, real-time transmission of the filmed field space 3D data to the metaverse virtual interior space creation control module (S100 )and,

메타버스 가상인테리어공간 생성 제어모듈의 스케치업프로그램엔진부를 통해 현장촬영 이동로봇모듈으로부터 촬영된 현장공간 3D데이터를 수신받아 360도 파노라마 뷰(View)를 갖는 3D 인테리어 모델링으로 변환시키는 단계(S200)와,Receiving the 3D data of the field space taken from the field shooting mobile robot module through the sketchup program engine of the metabus virtual interior space creation control module and converting it into 3D interior modeling with a 360 degree panoramic view (S200); ,

메타버스 가상인테리어공간 생성 제어모듈의 메타버스 플랫폼제어부에서 스케치업프로그램엔진부를 통해 생성된 360도 파노라마 뷰(View)를 갖는 3D 인테리어 모델링에 객체를 부여하고, 이벤트를 설정하여, 360도 파노라마 뷰(View)를 갖는 3D 인테리어 모델링으로 형성된 메타버스가 구동되도록 플랫폼 제어하는 단계(S300)와,In the metaverse platform control unit of the metaverse virtual interior space creation control module, a 360-degree panoramic view ( Controlling the platform so that the metaverse formed by 3D interior modeling with View is driven (S300);

메타버스 가상인테리어공간 생성 제어모듈의 MR형 메타버스 가상인테리어공간 제어부를 통해 360도 파노라마 뷰(View)를 갖는 3D 인테리어 모델링을 메타버스로 구현될 현장공간에 배치 후, 물리적 환경과 가상의 디지털 환경을 중첩시켜 MR(Mixed Reality) 분위기를 갖는 메타버스 가상인테리어공간을 생성시키도록 제어하는 단계(S400)와,After placing 3D interior modeling with a 360-degree panoramic view through the MR-type metaverse virtual interior space control unit of the metaverse virtual interior space creation control module in the field space to be implemented as a metaverse, the physical environment and the virtual digital environment Controlling to generate a metaverse virtual interior space having an MR (Mixed Reality) atmosphere by overlapping (S400);

메타버스구동용 MR모듈을 통해, 메타버스 가상인테리어공간 생성 제어모듈과 연동되면서, 메타버스 가상인테리어공간으로 들어가 MR(Mixed Reality) 분위기와 함께 시각적, 청각적, 감각적으로 가상체험하는 단계(S500)로 이루어짐으로서 달성된다.Through the MR module for driving the metaverse, while interlocking with the metaverse virtual interior space creation control module, entering the metaverse virtual interior space and experiencing the visual, auditory, and sensory virtual experience with the MR (Mixed Reality) atmosphere (S500) It is achieved by making

이상에서 설명한 바와 같이, 본 발명에서는As described above, in the present invention

첫째, 360도 파노라마 뷰(View)를 갖는 3D 인테리어 모델링과 함께, MR(Mixed Reality) 분위기로 메타버스가 구동되는 메타버스 가상인테리어공간 생성을 통해, 특정 현장을 방문하거나 양방향 대면 미팅이 필요없고, 공간과 시간의 제약없이 실제 적용될 공간을 쌍방향으로 확인하고 정보를 공유할 수 있으며, 이로 인해, 프로젝트를 진행하는 기업과 기업, 또는 기업과 소비자간의 인테리어 설계에 대한 이해의 간극을 좁히고 실질적인 공간의 표현으로 보다 디테일한 설계 체크 및 사전 설계 수정이 가능하여, 각종 오류들로 인한 시공비를 줄여 기업 및 소비자에게 양질의 결과물을 제공할 수 있고, 결과물에 대한 만족도 및 품질을 기존에 비해 80% 향상시킬 수 있다.First, with 3D interior modeling with a 360-degree panoramic view, through the creation of a metaverse virtual interior space in which the metaverse is driven in an MR (Mixed Reality) atmosphere, there is no need to visit a specific site or have a two-way face-to-face meeting, It is possible to interactively check the actual space to be applied and share information without space and time constraints, thereby narrowing the gap in understanding of interior design between companies conducting projects or between companies and consumers, and expressing practical spaces. It enables more detailed design checks and preliminary design corrections, reducing construction costs due to various errors, providing high-quality results to companies and consumers, and improving satisfaction and quality of results by 80% compared to before. there is.

둘째, 인테리어 및 건설 산업 전반적인 전문가들이 사용하는 BIM(건축정보모델) 데이터를 기반으로 하여 소비자 및 메타버스 가상 인테리어 시공자등이 직접 확인 및 체험할 수 있는 메타버스 가상인테리어공간 생성 제어모듈을 통해, 360도 파노라마 뷰(View)를 갖는 3D 인테리어 모델링으로 이루어진 양질의 메타버스 가상인테리어공간을 MR(Mixed Reality)체험형으로 소비자에게 제공할 수 있고, 이로 인해, 감정이입 형태의 정서적 반응을 일으키는 메타버스의 몰입 체험율과 적극적인 참여적 체험을 기존에 비해 2배~4배로 높일 수가 있다.Second, based on the BIM (Building Information Model) data used by experts in the interior and construction industries, through the metaverse virtual interior space creation control module that consumers and metaverse virtual interior constructors can directly check and experience, 360 A high-quality metaverse virtual interior space made of 3D interior modeling with a panoramic view can be provided to consumers in the form of MR (Mixed Reality) experience, thereby creating an emotional response in the form of empathy. The immersion experience rate and active participatory experience can be increased by 2 to 4 times compared to before.

셋째, 메타버스 체험자와 오프라인 관람자들간에 상호 작용이 이뤄지는 "동시다발적", "실시간" 등의 특징을 지닌 다양한 활동을 진행하여 O2O(온라인-오프라인) 마켓팅 효과를 제공할 수 있고, 이벤트, 아이템 획득 등으로 보상심리를 만족시켜 줄 수 있으며, 감성 인터랙션을 통해 정서적 교감을 기존보다 80% 향상시킬 수가 있다.Third, it is possible to provide O2O (online-offline) marketing effects by conducting various activities with characteristics such as "simultaneous" and "real-time" in which interactions between metaverse experiencers and offline viewers occur, and events, items Acquisition can satisfy the psychology of compensation, and through emotional interaction, emotional sympathy can be improved by 80%.

넷째, 체계적이고 협업모드인 스케치업프로그램엔진부를 통해 360도 파노라마 뷰(View)를 갖는 3D 인테리어 모델링을 30분~60분 주기로 업로딩할 수 있고, 이로 인해, 건설업체에 건설 진척 상황을 메타버스 상에서 효율적으로 캡처하고 가상으로 관리할 수 있는 솔루션을 제공할 수 있고, 무엇보다, 생동감, 라이브를 요구하는 카페형 메타버스, 파티형 메타버스, 포토스팟형 메타버스, 콘서트/뮤지컬 공연형 메타버스를 다양하게 구현시킬 수가 있는 한국형 메타버스 가상인테리어공간 생성장치를 제공할 수 있어, 메타버스 시장 수익창출을 80% 향상시킬 수 있다.Fourth, 3D interior modeling with a 360-degree panoramic view can be uploaded every 30 to 60 minutes through the sketchup program engine, which is a systematic and collaborative mode. It can provide a solution that can efficiently capture and manage virtually, and above all, a cafe-type metaverse, a party-type metaverse, a photo spot-type metaverse, and a concert/musical performance-type metaverse that require liveliness and liveness. It is possible to provide a Korean-style metaverse virtual interior space generating device that can be implemented in various ways, thereby improving the profit generation of the metaverse market by 80%.

도 1은 본 발명에 따른 생동감·라이브형 메타버스 가상인테리어공간 생성장치의 구성요소를 도시한 구성도,
도 2는 본 발명에 따른 생동감·라이브형 메타버스 가상인테리어공간 생성장치의 구성요소를 도시한 일실시예도,
도 3은 본 발명에 따른 현장촬영 이동로봇모듈의 구성요소를 도시한 구성도,
도 4는 본 발명에 따른 현장촬영 이동로봇모듈의 구성요소를 도시한 사시도,
도 5는 본 발명에 따른 메타버스 가상인테리어공간 생성 제어모듈의 구성요소를 도시한 구성도,
도 6은 본 발명에 따른 스케치업프로그램엔진부의 구성요소를 도시한 구성도,
도 7은 본 발명에 따른 현장촬영 이동로봇모듈에서 촬영한 현장공간 3D 데이터 중 일부를 캡쳐한 실사 이미지에 관한 일실시예도,
도 8은 본 발명에 따른 스케치업프로그램엔진부를 통해 3D 인테리어 모델링된 것에 관한 일실시예도,
도 9는 본 발명에 따른 메타버스 플랫폼제어부의 구성요소를 도시한 구성도,
도 10은 본 발명에 따른 MR형 메타버스 가상인테리어공간 제어부의 구성요소를 도시한 구성도,
도 11은 본 발명에 따른 메타버스구동용 MR모듈의 구성요소를 도시한 구성도,
도 12는 본 발명에 따른 메타버스구동용 MR모듈의 구성요소를 도시한 일실시예도,
도 13은 본 발명에 따른 메타버스구동용 MR모듈을 통해, 메타버스 가상인테리어공간 생성 제어모듈과 연동되면서, 360도 파노라마 뷰를 갖는 3D 인테리어 모델링과 함께 MR 분위기로 메타버스가 구동되는 메타버스 가상인테리어공간을 체험하는 것을 도시한 일실시예도,
도 14는 본 발명에 따른 메타이벤트리스너(MetaEventListener)부를 통해 SNS, 메일, 문자로 완성된 메타버스 가상인테리어공간을 링크할 수 있는 URL 주소를 전달하고, 메타버스 가상인테리어공간에 접속하며, 현장공간에 맞는 메타버스 가상인테리어공간인지 디자인확인한 후, 수정사항을 피드백시키면, 수정사항을 메타버스 가상인테리어공간에 수정시키는 과정을 도시한 일실시예도,
도 15는 본 발명에 따른 메타이벤트리스너(MetaEventListener)부를 통해 메타버스 내의 특정 객체 중 가구에 1:1 가구 판매 쇼핑몰 URL 주소를 링크시킨 것을 도시한 일실시예도,
도 16은 본 발명에 따른 생동감·라이브형 메타버스 가상인테리어공간 생성방법을 도시한 순서도,
도 17은 본 발명에 따른 메타버스 가상인테리어공간 생성 제어모듈의 메타버스 플랫폼제어부에서 스케치업프로그램엔진부를 통해 생성된 360도 파노라마 뷰(View)를 갖는 3D 인테리어 모델링에 객체를 부여하고, 이벤트를 설정하여, 360도 파노라마 뷰(View)를 갖는 3D 인테리어 모델링으로 형성된 메타버스가 구동되도록 플랫폼 제어하는 것을 구체적으로 도시한 순서도.
1 is a configuration diagram showing the components of a lively and live metaverse virtual interior space generating device according to the present invention;
2 is an embodiment showing the components of a lively and live metaverse virtual interior space generating device according to the present invention;
3 is a configuration diagram showing the components of a field shooting mobile robot module according to the present invention;
Figure 4 is a perspective view showing the components of the field shooting mobile robot module according to the present invention;
5 is a configuration diagram showing the components of a metaverse virtual interior space generation control module according to the present invention;
6 is a configuration diagram showing the components of the sketchup program engine unit according to the present invention;
7 is an embodiment of a live action image captured by some of the field space 3D data taken by the field shooting mobile robot module according to the present invention;
8 is an embodiment of a 3D interior modeled through a sketchup program engine unit according to the present invention;
9 is a configuration diagram showing the components of the metaverse platform control unit according to the present invention;
10 is a configuration diagram showing the components of the MR-type metaverse virtual interior space control unit according to the present invention;
11 is a configuration diagram showing the components of an MR module for driving a metaverse according to the present invention;
12 is an embodiment showing the components of an MR module for driving a metaverse according to the present invention;
13 is a metaverse virtual where the metaverse is driven in an MR atmosphere along with 3D interior modeling with a 360-degree panoramic view while interworking with the metaverse virtual interior space generation control module through the MR module for driving the metaverse according to the present invention. An embodiment showing experiencing the interior space,
14 shows a URL address that can link the metaverse virtual interior space completed with SNS, mail, and text through the meta event listener (MetaEventListener) according to the present invention, and connects to the metaverse virtual interior space. After checking whether the design is suitable for the metaverse virtual interior space, if the modifications are fed back, an embodiment showing the process of modifying the modifications to the metaverse virtual interior space,
15 is an embodiment showing that a 1:1 furniture sales shopping mall URL address is linked to furniture among specific objects in the metaverse through a metaevent listener unit according to the present invention;
16 is a flow chart showing a method for generating a lively and live metaverse virtual interior space according to the present invention;
17 is a 3D interior modeling with a 360-degree panoramic view generated through the sketchup program engine in the metaverse platform control unit of the metaverse virtual interior space creation control module according to the present invention, and setting an event A flowchart specifically showing that the platform is controlled so that the metaverse formed by 3D interior modeling with a 360-degree panoramic view is driven.

이하, 본 발명에 따른 바람직한 실시예를 도면을 첨부하여 설명한다.Hereinafter, a preferred embodiment according to the present invention will be described with accompanying drawings.

도 1은 본 발명에 따른 생동감·라이브형 메타버스 가상인테리어공간 생성장치의 구성요소를 도시한 구성도에 관한 것이고, 도 2는 본 발명에 따른 생동감·라이브형 메타버스 가상인테리어공간 생성장치의 구성요소를 도시한 일실시예도에 관한 것으로, 이는 메타버스를 구현하고자 하는 현장공간을 이동하면서 촬영한 현장공간 3D데이터를 수신받아, 360도 파노라마 뷰(View)를 갖는 3D 인테리어 모델링으로 변환시킨 후, 객체를 부여한 360도 파노라마 뷰(View)를 갖는 3D 인테리어 모델링과 함께, MR(Mixed Reality) 분위기로 메타버스가 구동되는 메타버스 가상인테리어공간을 생성시키도록 구성된다.1 relates to a configuration diagram showing the components of a lively/live type metaverse virtual interior space generating device according to the present invention, and FIG. 2 is a configuration of a lively/live type metaverse virtual interior space generating device according to the present invention. It relates to an embodiment diagram showing elements, which receives field space 3D data taken while moving the field space to implement the metaverse, converts it into 3D interior modeling with a 360-degree panoramic view, It is configured to create a metaverse virtual interior space in which the metaverse is driven in an MR (Mixed Reality) atmosphere, along with 3D interior modeling with a 360-degree panoramic view to which objects are assigned.

상기 생동감·라이브형 메타버스 가상인테리어공간 생성장치(1)는 보다 구체적으로, 현장촬영 이동로봇모듈(100), 메타버스 가상인테리어공간 생성 제어모듈(200), 메타버스구동용 MR모듈(300)로 구성된다.The lively and live metaverse virtual interior space generating device (1) is more specifically, a field shooting mobile robot module 100, a metaverse virtual interior space creation control module 200, a metaverse driving MR module 300 consists of

먼저, 본 발명에 따른 현장촬영 이동로봇모듈(100)에 관해 설명한다.First, the field shooting mobile robot module 100 according to the present invention will be described.

상기 현장촬영 이동로봇모듈(100)은 현장공간을 X축, Y축으로 이동하면서 360도 현장공간영상을 촬영한 후, 촬영한 현장공간 3D 데이터를 메타버스 가상인테리어공간 생성 제어모듈쪽으로 실시간전송시키는 역할을 한다.The field shooting mobile robot module 100 moves the field space in the X-axis and Y-axis, takes a 360-degree field space image, and transmits the filmed field space 3D data to the metaverse virtual interior space creation control module in real time play a role

여기서, 현장공간 3D 데이터는 상,하,좌,우의 360도 영상데이터, 360도 실사이미지를 모두 포함한다.Here, the field space 3D data includes all 360-degree image data and 360-degree real-life images of up, down, left, and right.

이는 도 3에 도시한 바와 같이, 이동로봇몸체부(110), 360도 회전카메라부(120), 무선통신부(130), 배터리부(140), 이동로봇제어부(150)로 구성된다.As shown in FIG. 3, it consists of a mobile robot body 110, a 360 degree rotation camera 120, a wireless communication unit 130, a battery unit 140, and a mobile robot control unit 150.

상기 이동로봇몸체부(110)는 이동수단이 구비된 몸체로 이루어져, 각 기기를 외압으로부터 보호하고 지지하는 역할을 한다.The mobile robot body 110 consists of a body equipped with a moving means, and serves to protect and support each device from external pressure.

이는 도 4에 도시한 바와 같이, 상단 일측에 360도 회전카메라부가 형성되고, 360도 회전카메라부 일측에 무선통신부가 형성되며, 무선통신부 일측에 배터리부가 형성되고, 배터리부 일측에 이동로봇제어부가 형성된다.As shown in FIG. 4, a 360 degree rotation camera unit is formed on one side of the top, a wireless communication unit is formed on one side of the 360 degree rotation camera unit, a battery unit is formed on one side of the wireless communication unit, and a mobile robot control unit is formed on one side of the battery unit. is formed

상기 이동수단은 이동바퀴구조, 궤도레일구조, 4족로봇구조 중 어느 하나가 선택되어 현장공간을 X축, Y축으로 이동시킨다.As the moving means, any one of a moving wheel structure, a track rail structure, and a quadrupedal robot structure is selected to move the field space in the X axis and the Y axis.

상기 360도 회전카메라부(120)는 이동로봇몸체부의 상단 일측에 위치되어, 360도 회전하면서 현장공간의 360도 영상을 촬영하거나 또는 360도 회전하면서 현장공간의 360도 실사 이미지를 캡쳐하는 역할을 한다.The 360-degree rotation camera unit 120 is located on one side of the upper end of the mobile robot body, and rotates 360 degrees to take a 360-degree video of the field space or rotate 360 degrees to capture a 360-degree real-life image of the field space. do.

상기 무선통신부(130)는 360도 회전카메라부 일측에 위치되어, 근거리 또는 원거리에 위치한 메타버스 가상인테리어공간 생성 제어모듈과 무선통신망으로 연결시켜, 양방향데이터통신을 수행하는 역할을 한다.The wireless communication unit 130 is located on one side of the 360-degree rotating camera unit and serves to perform two-way data communication by connecting a metaverse virtual interior space generation control module located at a short distance or a long distance through a wireless communication network.

여기서, 무선통신망은 WiFi통신모듈, 근거리무선통신모듈, 이동통신(5G, 4G, 3G)모듈 중 어느 하나 또는 둘 이상이 선택되어 이루어진다.Here, the wireless communication network is formed by selecting any one or two or more of a WiFi communication module, a short-distance wireless communication module, and a mobile communication (5G, 4G, 3G) module.

상기 배터리부(140)는 각 기기에 전원을 공급시키는 역할을 한다.The battery unit 140 serves to supply power to each device.

이는 리튬이온배터리, 리튬폴리머배터리 중 어느 하나가 선택되어 구성된다.This is configured by selecting any one of a lithium ion battery and a lithium polymer battery.

상기 이동로봇제어부(150)는 각 기기의 전반적인 동작을 제어하면서, 360도 회전카메라부에서 촬영한 360도 영상데이터, 360도 실사이미지를 고정밀 레이저 스캔제어를 통해 현장공간 3D 데이터로 변환시킨 후, 메타버스 가상인테리어공간 생성 제어모듈쪽으로 실시간전송시키도록 제어하는 역할을 한다.The mobile robot control unit 150 converts 360-degree video data and 360-degree real-life images captured by the 360-degree rotation camera unit into field space 3D data through high-precision laser scan control while controlling the overall operation of each device, It serves to control real-time transmission to the metaverse virtual interior space creation control module.

이는 메타버스 가상인테리어공간 생성 제어모듈로부터 전송된 제어신호에 따라, 메타버스를 구현하고자 하는 현장공간을 시간별로, 위치별로 주기적으로 이동하면서, 이동로봇몸체부쪽으로 이동출력신호를 출력시키거나, 또는 360도 회전카메라부쪽으로 영상촬영신호를 출력시킨다.According to the control signal transmitted from the metaverse virtual interior space generation control module, it outputs a movement output signal toward the mobile robot body while periodically moving the field space where the metaverse is to be implemented by time and location, or Outputs an image capture signal toward the 360-degree rotating camera unit.

상기 실시간전송은 메타버스 가상인테리어공간 생성 제어모듈의 데이터송수신부와 양방향데이터통신망을 형성하면서 미리 프로그램설정된 시간에 맞게 실시간전송시키는 것을 말한다.The real-time transmission refers to real-time transmission according to a pre-programmed time while forming a two-way data communication network with the data transmission and reception unit of the metaverse virtual interior space creation control module.

이처럼, 본 발명에 따른 이동로봇제어부의 제어하에 현장공간 3D 데이터를 실시간전송하는 것을 통해, 메타버스 가상인테리어공간 생성 제어모듈쪽으로 현장공간 3D 데이터를 전송시킬 수 있어, 건설업체에 건설 진척 상황을 메타버스 상에서 효율적으로 캡처하고 가상으로 관리할 수 있는 솔루션을 제공할 수 있고, 무엇보다, 생동감, 라이브를 요구하는 카페형 메타버스, 파티형 메타버스, 포토스팟형 메타버스, 콘서트/뮤지컬 공연형 메타버스를 다양하게 구현시킬 수가 있다.In this way, through real-time transmission of field space 3D data under the control of the mobile robot control unit according to the present invention, it is possible to transmit field space 3D data to the metaverse virtual interior space creation control module, so that construction companies can be informed of the progress of construction. It can provide a solution that can efficiently capture and manage virtually on the bus, and above all, a cafe-type metabus, a party-type metaverse, a photo spot-type metaverse, and a concert/musical performance-type meta that require liveliness and liveliness. Buses can be implemented in a variety of ways.

다음으로, 본 발명에 따른 메타버스 가상인테리어공간 생성 제어모듈(200)에 관해 설명한다.Next, the metaverse virtual interior space creation control module 200 according to the present invention will be described.

상기 메타버스 가상인테리어공간 생성 제어모듈(200)은 현장촬영 이동로봇모듈으로부터 촬영된 현장공간 3D데이터를 수신받아 360도 파노라마 뷰(View)를 갖는 3D 인테리어 모델링으로 변환시킨 후, 객체를 부여한 360도 파노라마 뷰(View)를 갖는 3D 인테리어 모델링과 함께, MR(Mixed Reality) 분위기로 메타버스가 구동되는 메타버스 가상인테리어공간을 생성시키도록 제어하는 역할을 한다.The metaverse virtual interior space creation control module 200 receives the field space 3D data taken from the field shooting mobile robot module, converts it into a 3D interior modeling with a 360-degree panoramic view, and then provides 360-degree objects. Along with 3D interior modeling with a panoramic view, it plays a role in controlling the creation of a metaverse virtual interior space in which the metaverse is driven in an MR (Mixed Reality) atmosphere.

여기서, 메타버스 가상인테리어공간은 메타버스 상에 표출되는 실내의 책상, 책장, 가구가 포함된 가상 인테리어공간범위 뿐만 아니라, 메타버스 상에 표출되는 실외의 도로, 인도, 골목길이 포함된 가상 인테리어공간범위를 모두 포함하는 것으로, 메타버스를 장식하고 아름답게 꾸미는 모든 것을 말한다. Here, the metaverse virtual interior space includes not only the range of virtual interior spaces including indoor desks, bookshelves, and furniture displayed on the metaverse, but also virtual interior spaces including outdoor roads, sidewalks, and alleys displayed on the metaverse. It includes all of the scope, and refers to everything that decorates and beautifies the metaverse.

상기 메타버스 가상인테리어공간 생성 제어모듈(200)은 도 5에 도시한 바와 같이, 데이터송수신부(210), 스케치업프로그램엔진부(220), 메타버스 플랫폼제어부(230), MR형 메타버스 가상인테리어공간 제어부(240)로 구성된다.The metaverse virtual interior space creation control module 200, as shown in FIG. It consists of an interior space control unit 240.

[데이터송수신부(210)][Data transmission/reception unit 210]

상기 데이터송수신부(210)는 현장공간에 이동하는 현장촬영 이동로봇모듈으로부터 촬영된 현장공간 3D데이터를 수신받아 스케치업프로그램엔진부쪽으로 전달시키고, 현장촬영 이동로봇모듈쪽으로 현장공간으로 이동하거나, 영상을 촬영시키는 제어신호를 송신시키는 역할을 한다.The data transceiver 210 receives the field space 3D data captured from the field shooting mobile robot module moving in the field space, transmits it to the sketchup program engine unit, moves to the field space toward the field shooting mobile robot module, or image It plays a role in transmitting a control signal for photographing.

이는 무선통신망이 포함되어 구성된다.This includes a wireless communication network.

여기서, 무선통신망은 WiFi통신모듈, 근거리무선통신모듈, 이동통신(5G, 4G, 3G)모듈 중 어느 하나 또는 둘 이상이 선택되어 이루어진다.Here, the wireless communication network is formed by selecting any one or two or more of a WiFi communication module, a short-distance wireless communication module, and a mobile communication (5G, 4G, 3G) module.

[스케치업프로그램엔진부(220)][Sketchup program engine unit 220]

상기 스케치업프로그램엔진부(220)는 데이터송수신부에서 수신받은 현장공간 3D데이터를 가지고, 스케치업하여 360도 파노라마 뷰(View)를 갖는 3D 인테리어 모델링으로 생성시키는 역할을 한다.The sketchup program engine unit 220 serves to generate 3D interior modeling with a 360-degree panoramic view by sketching up the field space 3D data received from the data transmission unit.

이는 간편한 인터페이스로 3D 인테리어 모델링 할 수 있는 특성을 가진다.It has the characteristic of 3D interior modeling with a simple interface.

즉, 기본 도구엔진, 그리기 도구엔진, 편집도구엔진, 축조도구엔진, 카메라 도구 엔진, 인스케이프(Enscape) 랜더 프로그램엔진으로 구성된다.That is, it consists of a basic tool engine, a drawing tool engine, an editing tool engine, a building tool engine, a camera tool engine, and an Enscape renderer program engine.

그리고, 도 6에 도시한 바와 같이, 3D BIM(건물정보모델링)엔진(221), 인스케이프(Enscape) 랜더 프로그램엔진(222)으로 구성된다.And, as shown in FIG. 6, it is composed of a 3D BIM (building information modeling) engine 221 and an Enscape render program engine 222.

본 발명에서 메타버스 체험자가 메타버스 상에서의 시각적 장면을 통해 현실과 유사하게 몰입감을 인지할 수 있도록 하는 3D 인테리어 모델링을 1차로 형성시킨다.In the present invention, 3D interior modeling is primarily formed so that metaverse experiencers can perceive a sense of immersion similar to reality through visual scenes on the metaverse.

이에 따라 메타버스를 구현하고자 하는 현장공간에 맞게 3D BIM(건물정보모델링)엔진(221)을 기반으로 현실 세계의 이미지를 참고함으로써 텍스처 매핑 위주로 3D 인테리어 모델링을 설계하도록 구성된다.Accordingly, it is configured to design 3D interior modeling based on texture mapping by referring to images of the real world based on the 3D BIM (Building Information Modeling) engine 221 according to the field space to implement the metaverse.

여기서, 3D BIM(건물정보모델링)엔진(221)은 건축정보 모델링으로 2D 캐드에서 구현되는 정보를 3D의 입체 설계로 전화하고 건축과 관련된 모든 정보를 DATA Base화해서 연계시키는 역할을 한다. Here, the 3D BIM (Building Information Modeling) engine 221 plays a role in converting the information implemented in 2D CAD into a 3D three-dimensional design through building information modeling, and converting all information related to architecture into a DATA base and linking them.

이는 3D의 메타버스에서 미리 건물을 디자인하고 시공까지 해보는 개념으로 각 공정이 데이터베이스화되어서 견적, 공기, 공정 등 알고 싶은 모든 정보를 제공한다.This is a concept of designing and constructing a building in advance in the 3D metaverse, and each process is databased to provide all the information you want to know, such as estimates, construction schedules, and processes.

이로 인해, 기존 건설 현장에서 2D 캐드로만 설계하다보니, 설계상에서 문제점들이 공사중에 파악되고, 그로 인해 재시공 또는 설계변경해야 하는 막대한 비용과 시간이 발생되는데 대해, 대책방안으로 3D BIM(건물정보모델링)엔진을 통해 3D 입체 설계(BIM)로 전환되면 원가절감 등을 사전에 발취할 수 있다는 장점이 있다.As a result, since the existing construction site designs only with 2D CAD, problems in the design are identified during construction, resulting in enormous costs and time for re-construction or design change. As a countermeasure, 3D BIM (Building Information Modeling) If converted to 3D three-dimensional design (BIM) through the engine, it has the advantage of being able to extract costs in advance.

또한, 특정 현장을 방문하거나 양방향 대면 미팅이 필요없고, 공간과 시간의 제약없이 실제 적용될 공간을 쌍방향으로 확인하고 정보를 공유할 수 있으며, 이로 인해, 프로젝트를 진행하는 기업과 기업, 또는 기업과 소비자간의 인테리어 설계에 대한 이해의 간극을 좁히고 실질적인 공간의 표현으로 보다 디테일한 설계 체크 및 사전 설계 수정이 가능하여, 각종 오류들로 인한 시공비를 줄여 기업 및 소비자에게 양질의 결과물을 제공할 수 있고, 결과물에 대한 만족도 및 품질을 기존에 비해 80% 향상시킬 수 있다.In addition, you do not need to visit a specific site or have a two-way face-to-face meeting, and you can interactively check the space to be actually applied and share information without space and time constraints. As a result, companies and companies conducting projects, or companies and consumers By narrowing the gap in understanding of interior design between people and enabling more detailed design checks and preliminary design corrections through the expression of practical space, it is possible to reduce construction costs due to various errors and provide quality results to companies and consumers. Satisfaction and quality can be improved by 80% compared to the existing ones.

도 7은 본 발명에 따른 현장촬영 이동로봇모듈에서 촬영한 현장공간 3D 데이터 중 일부를 캡쳐한 실사 이미지에 관한 일실시예도에 관한 것이고, 도 8은 본 발명에 따른 스케치업프로그램엔진부를 통해 3D 인테리어 모델링된 것에 관한 일실시예도에 관한 것이다.Figure 7 relates to an embodiment of a live action image capturing some of the field space 3D data taken by the field shooting mobile robot module according to the present invention, Figure 8 is a 3D interior through the sketchup program engine unit according to the present invention It also relates to an embodiment of what is modeled.

상기 스케치업프로그램엔진부(220)는 인스케이프(Enscape) 랜더 프로그램엔진(222)을 통해 2차로, 3D 인테리어 모델링에 360도 파노라마 뷰(View)를 부가시켜 제작한다.The sketchup program engine unit 220 is manufactured by adding a 360-degree panoramic view to the 3D interior modeling secondly through the Enscape renderer program engine 222.

이는 3D 인테리어 모델링에 360도 파노라마 뷰(View)를 부가시키고, 맵(Map)을 직접 수정 및 편집하면서, 객체 직렬화를 통해 쉽게 저장(Save)과 로드(Load)를 할 수 있다.This adds a 360-degree panoramic view to 3D interior modeling, and can easily save and load through object serialization while directly modifying and editing the map.

이러한 인스케이프(Enscape) 랜더 프로그램엔진을 통해 메타버스 상에서 360도 파노라마 뷰(View), 자유로운 공간이동을 생동감 있고, 현실감있게 표현할 수가 있다. Through this Enscape renderer program engine, it is possible to express a 360-degree panoramic view and free space movement on the metaverse in a lively and realistic way.

그리고, 3D 인테리어 모델링의 특정 객체 중 메타버스상의 구성객체인 건물, 도로, 인테리어소품, 가구, 나무, 액세사리, 차, 간판, 안내표지판에 마감재의 재질값을 설정하여, 생동감있고, 현실감을 향상시킬 수 있다.In addition, among the specific objects of 3D interior modeling, the material values of the finishing materials are set for the constituent objects on the metaverse, such as buildings, roads, interior items, furniture, trees, accessories, cars, signboards, and information signs, so that they are lively and realistic. can

또한, 상기 스케치업프로그램엔진부(220)는 인스케이프(Enscape) 랜더 프로그램엔진을 통해 360도 파노라마 뷰(View)를 갖는 3D 인테리어 모델링을 메타버스 EXE 실행 파일로 제작하여, MR형 메타버스 가상인테리어공간 제어부쪽으로 전달시킨다.In addition, the sketchup program engine unit 220 produces a 3D interior modeling with a 360-degree panoramic view as a metaverse EXE executable file through the Enscape renderer program engine, so that MR-type metaverse virtual interior forwarded to the space controller.

상기 스케치업프로그램엔진부는 1:1독립작업모드 뿐만 아니라, 1:N 협업작업모드를 통해 메타버스로 구현될 현장공간을 360도 파노라마 뷰(View)를 갖는 3D 인테리어 모델링으로 생성시킨다.The sketchup program engine unit creates a field space to be implemented as a metaverse through 1:1 independent work mode as well as 1:N collaborative work mode through 3D interior modeling with a 360-degree panoramic view.

여기서, 1:N 협업작업모드란 메타버스가 구동되는 메타버스 가상인테리어공간을 생성시키는 업체별로 나눠서 분할한 후, 자동으로 저장하고 한꺼번에 합쳐서 360도 파노라마 뷰(View)를 갖는 3D 인테리어 모델링으로 생성시키는 작업을 말한다.Here, the 1:N collaborative work mode is to create a 3D interior modeling with a 360-degree panoramic view by dividing and dividing the metaverse virtual interior space by company that creates the metaverse, automatically saving it, and combining it at once. say work

이처럼, 본 발명에서는 스케치업프로그램엔진부가 1:N 협업작업모드로 구동됨으로서, 360도 파노라마 뷰(View)를 갖는 3D 인테리어 모델링을 프로그램설정된 실시간으로 MR 메타버스 가상인테리어공간 제어부쪽으로 업로딩할 수 있고, 이로 인해, 건설업체에 건설 진척 상황을 메타버스 상에서 효율적으로 캡처하고 가상으로 관리할 수 있는 솔루션을 제공할 수 있고, 무엇보다, 동시다발, 실시간, 생동감을 요구하는 놀면서 인간관계를 형성하는 활동으로 모여 있는 카페형 메타버스나 파티형 메타버스, 사진을 찍는 포토스팟형 메타버스, 콘서트/뮤지컬 공연형 메타버스를 구현시킬 수가 있다.As such, in the present invention, since the sketchup program engine unit is driven in 1:N collaborative work mode, 3D interior modeling with a 360-degree panoramic view can be uploaded to the MR metaverse virtual interior space control unit in real time as programmed, As a result, it is possible to provide construction companies with a solution that can efficiently capture and virtually manage the construction progress on the metaverse, and above all, activities that form human relationships while playing that require simultaneous, real-time, and liveliness. It is possible to implement a cafe-type metaverse, a party-type metaverse, a photo spot-type metaverse for taking pictures, and a concert/musical performance-type metaverse.

여기서, 프로그램설정된 실시간이라는 것은 실제 흐르는 시간과 같은 1분, 1초를 의미하는 것이 아닌, 실제 흐르는 시간과 유사한 30분~60분 주기를 의미한다.Here, the programmed real time does not mean 1 minute or 1 second, which is the same as the actual running time, but means a period of 30 minutes to 60 minutes similar to the actual running time.

그 이유는 현장촬영 이동로봇모듈으로부터 촬영된 현장공간 3D데이터를 즉시 응답으로 수신받고, 스케치업프로그램엔진부를 1:N 협업작업모드로 구동시키더라도, 대략 30분~60분의 시간이 흐르기 때문에, 프로그램설정된 실시간이라는 개념을 실제 흐르는 시간과 유사한 30분~60분 주기로 설정한 것이다.The reason is that even if the field space 3D data captured from the field shooting mobile robot module is received as an immediate response and the sketchup program engine part is driven in 1:N collaboration work mode, about 30 to 60 minutes of time passes, The concept of programmed real-time is set to a period of 30 to 60 minutes similar to the actual running time.

[메타버스 플랫폼제어부(230)][Metabus platform control unit 230]

상기 메타버스 플랫폼제어부(230)는 스케치업프로그램엔진부를 통해 생성된 360도 파노라마 뷰(View)를 갖는 3D 인테리어 모델링에 객체를 부여하고, 이벤트를 설정하여, 360도 파노라마 뷰(View)를 갖는 3D 인테리어 모델링으로 형성된 메타버스가 구동되도록 플랫폼 제어하는 역할을 한다.The metaverse platform control unit 230 assigns an object to the 3D interior modeling with a 360-degree panoramic view generated through the sketchup program engine unit, sets an event, and creates a 3D interior model with a 360-degree panoramic view. It serves to control the platform so that the metaverse formed by interior modeling is driven.

여기서, 360도 파노라마 뷰(View)를 갖는 3D 인테리어 모델링으로 형성된 메타버스가 구동된다는 것은 온라인 웹, 웹VR, 어플, 웹MR 중 어느 하나에 선택되어 구동되는 것을 말한다.Here, that the metaverse formed by 3D interior modeling with a 360-degree panoramic view is driven means that any one of the online web, webVR, application, and webMR is selected and driven.

이는 도 9에 도시한 바와 같이, 메타제이프레임(MetaJFrame)부(231), 메타애니메이터(MetaAnimator)부(232), 메타클립(MetaClip)부(233), 메타비지터(MetaVisitor)부(234), 메타지알에프(MetaGRF)부(235), 메타이벤트리스너(MetaEventListener)부(236), 네트워크 메타연결부(237)로 구성된다.As shown in FIG. 9, this includes a MetaJFrame unit 231, a MetaAnimator unit 232, a MetaClip unit 233, a MetaVisitor unit 234, It is composed of a MetaGRF unit 235, a MetaEventListener unit 236, and a network meta connection unit 237.

첫째, 본 발명에 따른 메타제이프레임(MetaJFrame)부(231)에 관해 설명한다.First, the metaJFrame unit 231 according to the present invention will be described.

상기 메타제이프레임(MetaJFrame)부(231)는 오픈 그래픽 라이브러리(OpenGL)의 제이프레임 클래스(JFrame Class)를 상속받은 클래스로 주로 메타버스의 풀스크린(FullScreen) 제어, 또는 UI(User Interface) 컴포넌트(버튼 등의 구성요소)의 컨테이너(Container)(컴포넌트들을 담는 장소)역할을 한다.The MetaJFrame unit 231 is a class that inherits the JFrame Class of the open graphic library (OpenGL), and mainly controls the full screen of the metaverse, or a UI (User Interface) component ( It serves as a container (a place to contain components) of components such as buttons.

둘째, 본 발명에 따른 메타애니메이터(MetaAnimator)부(232)에 관해 설명한다.Second, the meta animator unit 232 according to the present invention will be described.

상기 메타애니메이터(MetaAnimator)부(232)는 프레임 레이트(Frame rate)와 동시에 처리할 수 있는 프로그램의 단위를 나타내는 메타버스 쓰레드(Thread)를 관리하는 클래스, 그리고 메타버스 프레임 레이트와 각종 쓰레드를 관리하는 역할을 한다.The meta animator unit 232 is a class that manages a metaverse thread that represents a unit of a program that can be processed simultaneously with the frame rate, and a class that manages the metaverse frame rate and various threads. play a role

이는 일정 시간을 고정시켜 수행하는 방식인 고정 프레임과 처리량에 따라 수행하는 방식을 나타내는 가변 프레임 등을 모두 사용하도록 구성된다.This is configured to use both a fixed frame, which is a method performed by fixing a certain time, and a variable frame, which indicates a method performed according to the amount of processing.

그리고, 네트워크 동기화(네트워크에서 서로 다른 메타버스의 상태를 똑같이 유지하는 방법) 관리역할을 수행한다.In addition, it plays a role in managing network synchronization (a method of maintaining the same status of different metaverses in the network).

상기 프레임 레이트(Frame rate)는 디스플레이장치가 화면 하나의 데이터를 표시하는 속도를 말한다. 이는 초당 화면으로 출력되는 프레임의 개수인 초당 프레임수(fps)를 나타낸다.The frame rate refers to the rate at which a display device displays data on one screen. This indicates frames per second (fps), which is the number of frames output to the screen per second.

셋째, 본 발명에 따른 메타클립(MetaClip)부(233)에 관해 설명한다.Third, the meta clip unit 233 according to the present invention will be described.

상기 메타클립(MetaClip)부(233)는 메타버스상의 객체를 정의하기 위한 최상위 추상 클래스의 역할을 수행한다.The MetaClip unit 233 serves as a top-level abstract class for defining objects on the metaverse.

여기서, 최상위 추상 클래스는 디자인 패턴의 컴포지트(Composite) 패턴을 사용하여 설계한다.Here, the top-level abstract class is designed using the Composite pattern of design patterns.

즉, 메타버스내에 객체를 만들고자 할 때, 클립(Clip) 클래스를 상속하면 메타버스엔진부 내에서 바로 사용할 수 있는 클래스로 되는데 이것은 새로운 클래스를 정의하는 매우 간단한 구성이다.In other words, when you want to create an object in the metaverse, if you inherit the Clip class, it becomes a class that can be used directly in the metaverse engine, which is a very simple configuration to define a new class.

또한 각종 링크드 리스트(Linked List), 어레이(Array), 맵(Map), 하쉬 테이블(Hash Table) 등의 자료구조를 클립(Clip)을 상속받은 클래스를 통해 객체들을 필요에 따라 원하는 자료구조로 관리를 할 수 있다.In addition, data structures such as various Linked Lists, Arrays, Maps, and Hash Tables are managed through a class that inherits from Clip into the desired data structure as needed. can do

상기 객체 정의는 메타버스상의 건물, 도로, 인테리어소품, 가구, 나무, 액세사리, 차, 아바타, 간판, 안내표지판, 랜드마크 등과 같은 객체를 정의하는 부분으로, 메타클립(MetaClip)부를 통해 메타버스에서 필요한 객체를 정의한다. The object definition is a part that defines objects such as buildings, roads, interior props, furniture, trees, accessories, cars, avatars, signboards, information signs, landmarks, etc. on the metaverse, and in the metaverse through the metaclip. Define the required objects.

여기서, 메타클립(MetaClip)부는 기본적으로 필요한 객체의 좌표들을 저장하고, 건물, 도로, 인테리어소품, 가구, 나무, 액세사리, 차, 아바타 클래스를 생성하기 위해서 물리적 특성아 적용된 클립피직스(ClipPhysics) 클래스를 상속받아 사용한다,Here, the MetaClip unit basically stores the coordinates of the necessary objects and uses the ClipPhysics class to which physical properties are applied to create buildings, roads, interior items, furniture, trees, accessories, cars, and avatar classes. inherit and use

메타버스 내에서 객체의 행동을 처리하기 위해서는 객체의 특성마다 각각 행동 단위를 따로 구현하여야 하는데, 코드의 복잡성을 증가시킬 뿐만 아니라 내부 구조가 비효율적인 구조가 된다.In order to handle the behavior of objects within the metaverse, each behavior unit must be implemented separately for each object's characteristics, which not only increases code complexity but also makes the internal structure inefficient.

이점을 보완하기 위해 각 처리의 행동요소를 분리하도록 설계된다.To complement this advantage, it is designed to separate the behavioral elements of each process.

상기 메타클립(MetaClip)부는 클립(Clip) 클래스, 클립스프라이트(ClipSprite)클래스, 클립피직스(ClipPhysics) 클래스, 에어플레인(Airplain)클래스의 순서로 상위 객체들을 상속받으며, 객체 지향적인 메타버스를 실시간으로, 생동감있게 생성시킬 수가 있다.The MetaClip part inherits parent objects in the order of the Clip class, ClipSprite class, ClipPhysics class, and Airplane class, and displays the object-oriented metaverse in real time. , can be created lively.

넷째, 본 발명에 따른 메타비지터(MetaVisitor)부(234)에 관해 설명한다.Fourth, the metavisitor unit 234 according to the present invention will be described.

상기 메타비지터(MetaVisitor)부(234)는 메타버스상의 객체들의 제어나 움직임을 위한 인터페이스역할을 수행한다.The metavisitor unit 234 serves as an interface for controlling or moving objects on the metaverse.

이는 재귀함수의 특징이 있는데, 간결하고 분석하기 편한 코드를 만드도록 구성된다.It has the characteristics of a recursive function, and is configured to make code concise and easy to analyze.

상기 메타비지터(MetaVisitor)부에서 비지터(Visitor)는 물리 엔진의 충돌 체크와 속도, 가속도 처리, 사용자 정의 랜더링을 위한 객체의 그리기 순서 정의 및 길 찾기 알고리즘엔진, 메타버스 메시징 처리를 한개의 인터페이스로 정의하여 코드의 재사용성을 높일 수 있는 인터페이스의 역할을 수행한다.In the MetaVisitor part, the Visitor defines the collision check of the physics engine, speed and acceleration processing, object drawing order definition for user-defined rendering, pathfinding algorithm engine, and metaverse messaging processing into one interface. It serves as an interface that can increase code reusability.

상기 메타비지터(MetaVisitor)부는 스케치업프로그램엔진부에서 제작된 3D 인테리어 모델링에 360도 파노라마 뷰(View)가 부가되어 제작되면, 제작된 3D 인테리어 모델링+360도 파노라마 뷰(View)에 이동방향 및 경로를 지정한다.When the MetaVisitor unit is produced by adding a 360-degree panoramic view to the 3D interior modeling produced in the SketchUp program engine unit, the direction and path of movement in the produced 3D interior modeling + 360-degree panoramic view to specify

여기서, 이동방향은 위도, 경도값 뿐만 아니라, 상하좌우의 3D화살표값을 모두 포함한다. 그리고, 경로는 동서남북의 모든 방향을 포함한다.Here, the movement direction includes not only latitude and longitude values, but also up, down, left and right 3D arrow values. And, the route includes all directions of north, south, east, west, and west.

즉, 메타버스 상에 구현되는 3D 인테리어 모델링+360도 파노라마 뷰(View)에 이동방향 및 경로를 지정함으로서, 가상화 시각 표현을 할 수가 있다.That is, virtualized visual expression can be performed by designating a movement direction and path to 3D interior modeling + 360-degree panoramic view implemented on the metaverse.

일예로, 안내표지판의 경우는 메타버스 가상인테리어공간 내 위치한 갈림길의 허공에서 방향을 제시하는 3D화살표 및 한글표시의 장소명을 표출시킨다. For example, in the case of a guide sign, a 3D arrow and a place name in Korean display are displayed in the air at a crossroads located in the metabus virtual interior space.

또한, 메타버스로 구현될 현장공간에서 특정 객체가 공간적으로 점유하고 있는 영역은 3D 인테리어 모델링 기능인 오프셋(Off-set)을 활용하여 해당 영역에 대한 시각적 강조를 표출시킨다.In addition, the area occupied spatially by a specific object in the field space to be implemented as a metaverse expresses visual emphasis on the area by utilizing the 3D interior modeling function Off-set.

그리고, 간판이나, 심볼마크, 브랜드명은 가상의 위치 마커 내에 해당 업종, 특징을 상징하는 기호로서, 픽토그램 및 색상을 매핑시켜 이동방향 및 경로를 지정한다.In addition, a signboard, symbol mark, or brand name is a sign symbolizing a corresponding industry or characteristic within a virtual location marker, and a pictogram and color are mapped to designate a movement direction and a route.

이러한 과정을 통해, 본 발명에 따른 360도 파노라마 뷰(View)를 갖는 3D 인테리어 모델링이 형성된 메타버스가 구동됨으로서, 사람이 직접 움직이고 걷는 것과 같은 생동감 있고, 라이브한 느낌을 줄 수가 있다. Through this process, the metaverse in which the 3D interior modeling with the 360-degree panoramic view according to the present invention is formed is driven, so that a lively and live feeling like a person moving and walking can be given.

다섯째, 본 발명에 따른 메타지알에프(MetaGRF)부(235)에 관해 설명한다.Fifth, the MetaGRF unit 235 according to the present invention will be described.

상기 메타지알에프(MetaGRF)부(235)는 현장공간 3D 데이터를 저장하기 위해 자료관리를 해주는 자체 저장 역할을 수행한다.The MetaGRF unit 235 performs a self-storage role of managing data to store field space 3D data.

이는 이미지 파일 처리에 있어서, 현장공간 3D 데이터 중 하나의 이미지(스틸컷) 뿐만 아니라 대량의 고속 이미지 처리를 위해 자바에 내장된 API를 사용하지 않고, GRF 코덱을 자바로 포팅하도록 구성된다.In image file processing, it is configured to port the GRF codec to Java without using the API built in Java for high-speed image processing of large quantities as well as one image (still cut) of field space 3D data.

여기서, GRF는 비손실 압축 알고리즘인 LZ77알고리즘을 사용한 인덱스드 이미지(Indexed Image : 팔레트 정보를 가지는 이미지)이다.Here, GRF is an indexed image using the LZ77 algorithm, which is a lossless compression algorithm (image with palette information).

또한 이미지를 한 번에 모두 불러 쓰는 것이 아니라, 실시간으로 이미지 래스터(Raster) 정보를 읽어오는 방식을 사용한다.In addition, rather than calling and writing all images at once, a method of reading image raster information in real time is used.

이 방식은 하나의 이미지(스틸컷) 뿐만 아니라 대량의 이미지를 불러올 때 속도가 느려지는 현상을 없앨 수 있다.This method can eliminate the slowdown when loading not only one image (still cut) but also a large number of images.

여섯째, 본 발명에 따른 메타이벤트리스너(MetaEventListener)부(236)에 관해 설명한다.Sixth, the meta event listener (MetaEventListener) unit 236 according to the present invention will be described.

상기 메타이벤트리스너(MetaEventListener)부(236)는 현되는 메타버스이벤트의 코드를 정의한 후, 메타버스상에서 이벤트를 구현시키도록 제어하는 역할을 한다.The meta event listener (MetaEventListener) unit 236 plays a role of controlling to implement the event on the metaverse after defining the current metaverse event code.

이는 고정 프레임과 동적 프레임율을 마음대로 적용할 수 있기 때문에 메타버스에 맞는 코드를 직접 제작할 수 있다.Since fixed frame and dynamic frame rate can be freely applied, it is possible to directly produce code suitable for the metaverse.

이 부분은 메타버스에 필요한 코드들만 담고 있기에 메타이벤트리스너(MetaEventListener)부를 객체 직렬화하면 어떠한 메타버스라도 메타버스의 저장(Save)/로드(Load) 기능을 간단하게 구현하는 기능을 수행한다.This part contains only the codes necessary for the metaverse, so if you serialize the metaevent listener part as an object, any metaverse performs the function of simply implementing the save/load function of the metaverse.

또한, 상기 메타이벤트리스너(MetaEventListener)부는 메타버스 전체, 또는 메타버스 일부, 메타버스 내의 특정 객체에 도메인의 하위 디렉토리 명으로 URL 주소를 생성시켜 링크시킨다.In addition, the meta event listener (MetaEventListener) unit generates a URL address as a subdirectory name of a domain to link the entire metaverse, a part of the metaverse, or a specific object in the metaverse.

즉, 메타이벤트리스너(MetaEventListener)부는 메타버스 내의 특정 객체 중 인테리어소품, 가구, 나무, 액세사리, 차, 아바타가 입고 있는 의류에 1:1로 해당 인테리어소품을 판매하는 쇼핑몰 URL 주소, 가구를 판매하는 쇼핑몰 URL 주소, 나무를 판매하는 쇼핑몰 URL 주소, 액세사리를 판매하는 쇼핑몰 URL 주소, 차를 판매하는 쇼핑몰 URL 주소, 아바타가 입고 있는 의류를 판매하는 쇼핑몰 URL 주소를 생성시켜 링크시킨다.In other words, the meta event listener (MetaEventListener) is a shopping mall URL address that sells interior props, furniture, trees, accessories, cars, clothes worn by avatars 1:1 among specific objects in the metaverse, and furniture that sells furniture. A URL address of a shopping mall, a URL address of a shopping mall that sells trees, a URL address of a shopping mall that sells accessories, a URL address of a shopping mall that sells cars, and a URL address of a shopping mall that sells clothes worn by the avatar are created and linked.

이로 인해, 메타버스 상에서 바로 쇼핑몰로 연계시켜, 메타버스 체험자가 메타버스를 체험하면서 바로 구매하거나, 사고싶은 분위기를 형성시킴으로서, 메타버스 쇼핑시장 수익창출을 2배~4배로 높일 수 있다.As a result, by linking directly to the shopping mall on the metaverse, the metaverse experiencer can buy right away while experiencing the metaverse, or create an atmosphere that wants to buy, thereby increasing the revenue generation of the metaverse shopping market by 2 to 4 times.

도 14는 본 발명에 따른 메타이벤트리스너(MetaEventListener)부를 통해 SNS, 메일, 문자로 완성된 메타버스 가상인테리어공간을 링크할 수 있는 URL 주소를 전달하고, 메타버스 가상인테리어공간에 접속하며, 현장공간에 맞는 메타버스 가상인테리어공간인지 디자인확인한 후, 수정사항을 피드백시키면, 수정사항을 메타버스 가상인테리어공간에 수정시키는 과정을 도시한 일실시예도에 관한 것이다.14 shows a URL address that can link the metaverse virtual interior space completed with SNS, mail, and text through the meta event listener (MetaEventListener) according to the present invention, and connects to the metaverse virtual interior space, field space After confirming whether the design is suitable for the metaverse virtual interior space, if the modifications are fed back, it relates to an embodiment showing a process of modifying the modifications to the metaverse virtual interior space.

도 15는 본 발명에 따른 메타이벤트리스너(MetaEventListener)부를 통해 메타버스 내의 특정 객체 중 가구에 1:1 가구 판매 쇼핑몰 URL 주소를 링크시킨 것을 도시한 일실시예도에 관한 것이다.FIG. 15 relates to an embodiment showing that a URL address of a 1:1 furniture sales shopping mall is linked to furniture among specific objects in the metaverse through a metaevent listener unit according to the present invention.

상기 메타이벤트리스너(MetaEventListener)부(236)는 소비자 IP 또는 사용자 IP를 중심으로, 메타버스의 구동의 관점을 설정시키도록 제어한다.The meta-event listener (MetaEventListener) unit 236 controls to set the viewpoint of driving the metaverse around the consumer IP or user IP.

이는 소비자 IP 관점구동부, 사용자 IP 관점 구동부로 구성된다.It consists of a consumer IP viewpoint driving unit and a user IP viewpoint driving unit.

상기 소비자 IP 관점구동부는 소비자 IP를 중심으로 메타버스의 구동의 관점을 설정시킨다.The consumer IP viewpoint driving unit sets the driving viewpoint of the metaverse around the consumer IP.

즉, 메타버스상에서 소비자가 원하는 객체를 선택하고, 소비자가 원하는 곳으로 이동할 수 있으며, 소비자 중심으로 대화방을 설정하고, 소비자 IP 중심으로 네트워크 메타연결부에 연결된 또 다른 네트워크 메타버스를 연결시킨다.That is, on the metaverse, the consumer can select the desired object, move to the desired location, set up a chat room centered on the consumer, and connect another network metaverse connected to the network metaconnection centered on the consumer IP.

상기 사용자 IP 관점구동부는 사용자 IP를 중심으로 메타버스의 구동의 관점을 설정시킨다. 여기서, 사용자는 메타버스 상에서 소비자에게 의뢰받은 가상인테리어를 설계하여 소비자에게 제공하는 가상인테리어설계자, 메타버스를 설계하고 구동시키는 메타버스 설계자, 메타버스 상에서 쇼핑몰을 운영하는 쇼핑몰 운영자를 모두 포함한다.The user IP viewpoint driving unit sets the driving viewpoint of the metaverse around the user IP. Here, users include virtual interior designers who design and provide virtual interiors requested by consumers on the metaverse, metaverse designers who design and operate the metaverse, and shopping mall operators who operate shopping malls on the metaverse.

즉, 메타버스상에서 사용자가 원하는 객체를 선택하고, 사용자가 원하는 곳으로 이동할 수 있으며, 사용자 중심으로 대화방을 설정하고, 사용자 IP 중심으로 네트워크 메타연결부에 연결된 또 다른 네트워크 메타버스를 연결시킨다.That is, on the metaverse, the user can select the desired object, move to the desired location, set up a chat room centered on the user, and connect another network metaverse connected to the network metaconnection centered on the user's IP.

일곱째, 본 발명에 따른 네트워크 메타연결부(237)에 관해 설명한다.Seventh, the network meta connection unit 237 according to the present invention will be described.

상기 네트워크 메타연결부(237)는 또다른 메타버스와 네트워크망으로 연결시켜 네트워크 메타버스를 지원해주면서, 대화방 방식의 기능을 수행하는 역할을 한다.The network meta-connection unit 237 plays a role of performing a function of a chat room method while supporting a network meta-bus by connecting another meta-bus to a network.

이는 XML-RPC알고리즘엔진을 사용하여 메타버스 프로토콜의 확장과 수정이 용이하게끔 한다.This makes it easy to expand and modify the metaverse protocol by using the XML-RPC algorithm engine.

여기서, XML-RPC알고리즘엔진은 네트워크를 지원하고, 네트워크 패킷의 쉬운 정의와 빠른 구현을 수행하는 역할을 한다.Here, the XML-RPC algorithm engine supports the network and plays a role in performing easy definition and quick implementation of network packets.

이는 패킷 데이터를 XML로 정의하여 원격의 함수 모듈을 호출하는 방식으로 메타버스 패킷 정의 및 처리가 용이하다.It is easy to define and process metaverse packets by defining packet data in XML and calling a remote function module.

상기 네트워크 메타연결부는 또다른 메타버스와 네트워크망으로 연결시키는 기능 이외에도, B2B, B2C, P2P, 기계간(M2M)통신과 커뮤니케이션을 수행하도록 구성된다.The network meta connection unit is configured to perform B2B, B2C, P2P, machine-to-machine (M2M) communication and communication, in addition to a function of connecting another metabus to a network.

이처럼, 메타제이프레임(MetaJFrame)부(231), 메타애니메이터(MetaAnimator)부(232), 메타클립(MetaClip)부(233), 메타비지터(MetaVisitor)부(234), 메타지알에프(MetaGRF)부(235), 메타이벤트리스너(MetaEventListener)부(236), 네트워크 메타연결부(237)로 이루어진 메타버스 플랫폼제어부는 메타결제제어부(238)가 포함되어 구성된다.As such, the MetaJFrame unit 231, the MetaAnimator unit 232, the MetaClip unit 233, the MetaVisitor unit 234, and the MetaGRF unit 235, the meta event listener (MetaEventListener) unit 236, the meta bus platform control unit consisting of the network meta connection unit 237 is configured to include the meta payment control unit 238.

상기 메타결제제어부(238)는 결제가 완료된 소비자를 중심으로 메타버스 상에 구동되는 가상인테리어 공간을 들어갈 수 있고, 가상인테리어 설계를 제공받을 수 있으며, 메타버스 상에 구동되는 쇼핑몰 URL에 들어가 소비자가 원하는 객체를 구매할 수 있도록 로그인 또는 중개역할을 수행하도록 제어한다.The meta payment control unit 238 can enter the virtual interior space driven on the metaverse centering on the consumer whose payment has been completed, receive a virtual interior design, enter the shopping mall URL driven on the metaverse, and It is controlled to perform login or intermediary role so that desired object can be purchased.

이는 신용카드결제, 페이결제, 포인트결제, 현금결제, 휴대폰결제, 가상화폐결제 중 어느 하나 또는 둘이상이 선택되어 이루어진다.This is done by selecting any one or two or more of credit card payment, pay payment, point payment, cash payment, mobile phone payment, and virtual currency payment.

본 발명에 따른 메타버스 플랫폼제어부는 다음과 같이 구동된다.The metabus platform control unit according to the present invention is driven as follows.

처음 메타버스를 구동시킬 때, 메타애니메이터(MetaAnimator)부와 메타제이프레임(MetaJFrame)부을 구동하여 메타버스 엔진에 필요한 쓰레드(Thread)를 생성하고, 윈도우(Window)를 띄우게 된다. 이때, 메타결제제어부를 통해 결제가 완료된 소비자인지 여부를 체크한다.When the metaverse is driven for the first time, the metaanimator part and the metaJFrame part are driven to create a thread necessary for the metaverse engine and open a window. At this time, it is checked whether the user is a consumer whose payment has been completed through the meta payment control unit.

이어서, 초기화가 완료되었으면, 실제로 메타버스 구현 부분이 있는 메타이벤트리스너(MetaEventListener)부를 통해 실제로 메타버스가 작성된 부분을 로드(Load)하게 된다.Subsequently, when the initialization is completed, the part in which the metaverse is actually written is loaded through the metaevent listener part where the metaverse implementation part is actually located.

이어서, 메타이벤트리스너(MetaEventListener)부 안에 정의된 가변 프레임 코드, 고정 프레임 코드, 렌더링 코드 등을 반복적으로 호출하게 되며, 이를 통해 메타버스내의 객체들을 제어하게 되고, 오픈 그래픽 라이브러리(OpenGL)을 사용하여 그래픽을 화면에 출력하여 메타버스가 구동하게 된다.Then, the variable frame code, fixed frame code, rendering code, etc. defined in the meta event listener (MetaEventListener) are repeatedly called, and through this, objects in the metaverse are controlled, and the open graphic library (OpenGL) is used to The graphic is displayed on the screen and the metaverse is driven.

또한, 메타버스에서 물리적 처리모드는 다음과 같은 과정을 거쳐 수행된다.In addition, the physical processing mode in the metaverse is performed through the following process.

즉, 메타이벤트리스너(MetaEventListener)부내에 정의되어 특정시간마다 계속 불러지도록 설계되고, 메타비지터(MetaVisitor)부의 비지터(Visitor)패턴과, 메타클립(MetaClip)부의 컴포지트(Composite) 패턴을 적용하여 간단하게 구현되도록 설계된다.That is, it is defined in the MetaEventListener part and is designed to be continuously called every specific time, and it is simple by applying the Visitor pattern of the MetaVisitor part and the Composite pattern of the MetaClip part. designed to be implemented.

그리고, 메타버스에서는 간단하게 물리 엔진을 구성할 수 있으며, 행동 처리에 대한 부분이 클래스로 따로 분리되었기 때문에 코드의 재활용이 가능하다.In addition, in the metaverse, it is possible to simply configure a physics engine, and code reuse is possible because the behavior processing part is separated into classes.

일예로, 비지터(Visitor) 클래스를 상속받은 클래스들은 또 다른 메타버스에 바로 가져와서 사용할 수 있다.For example, classes inherited from the Visitor class can be directly imported and used in another metaverse.

이러한 설계를 통해 물리 엔진뿐만 아니라, 각종 길 찾기, 렌더링, 네트워크 동기화 등과 같은 알고리즘 구성에도 효과적으로 재사용할 수가 있다.Through this design, it can be effectively reused not only for physics engines, but also for algorithm configurations such as various pathfinding, rendering, and network synchronization.

[MR형 메타버스 가상인테리어공간 제어부(240)][MR type metaverse virtual interior space control unit 240]

상기 MR형 메타버스 가상인테리어공간 제어부(240)는 360도 파노라마 뷰(View)를 갖는 3D 인테리어 모델링을 메타버스로 구현될 현장공간에 배치 후, 물리적 환경과 가상의 디지털 환경을 중첩시켜 MR(Mixed Reality) 분위기를 갖는 메타버스 가상인테리어공간을 생성시키도록 제어하는 역할을 한다.The MR-type metaverse virtual interior space controller 240 places the 3D interior modeling with a 360-degree panoramic view in the field space to be implemented as a metaverse, and then overlaps the physical environment and the virtual digital environment to create MR (Mixed It plays a role of controlling to create a metaverse virtual interior space with an atmosphere of reality.

이는 도 10에 도시한 바와 같이, 로데이터(Raw Data)엔진부(241), 유니티(Unity) 프로그램엔진부(242)로 구성된다.As shown in FIG. 10, it is composed of a raw data engine unit 241 and a Unity program engine unit 242.

먼저, 로데이터(Raw Data)엔진부(241)를 통해 360도 파노라마 뷰(View)를 갖는 3D 인테리어 모델링로부터 생성되는 데이터 포맷에서 소스 파일을 읽어오고, 또 다른 360도 파노라마 뷰(View)를 갖는 3D 인테리어 모델링을 제작하는데 필요한 객체(=건물, 도로, 인테리어소품, 가구, 나무, 액세사리, 차, 아바타)의 모델 데이터를 전환해 사용하도록 구성된다.First, a source file is read from a data format generated from 3D interior modeling with a 360-degree panoramic view through the raw data engine unit 241, and another 360-degree panoramic view It is configured to convert and use the model data of objects (= buildings, roads, interior items, furniture, trees, accessories, cars, avatars) necessary for producing 3D interior modeling.

그리고, 스케일이 조정된 모델의 이동 회전 크기조정이 가능하여 현장공간에서 1/300의 스케일과 같이 축소된 3D 인테리어 모델링과 360도 파노라마 뷰(View)를 복수의 인원이 시야를 공유하면서 회의 또는 협업을 진행할 수 있고, 현장에서 3D 인테리어 모델링과 360도 파노라마 뷰(View)를 1:1 스케일로 키워서 현장상황에 반영하여 비교할 수 있도록 구성된다.In addition, it is possible to move, rotate, and resize the scaled model, so that a 3D interior modeling reduced to a scale of 1/300 and a 360-degree panoramic view in the field space can be shared while meeting or collaborating with multiple people. can proceed, and the 3D interior modeling and 360-degree panoramic view are enlarged on a 1:1 scale and reflected in the field situation so that they can be compared.

또한, MR형 메타버스 가상인테리어공간 제어부를 통해, 현실공간과 가상인테리어공간이 혼합되어 서로 상호작용하기에 객체의 속성을 확인하거나 가상객체와 가상객체 간의 거리 현실과, 가상객체 간의 거리 현실공간 사이의 거리측정도 할 수 있다.In addition, through the MR-type metaverse virtual interior space control unit, real space and virtual interior space are mixed and interact with each other, so you can check the properties of objects or the distance between virtual objects and the distance between virtual objects between reality and real space. distance can also be measured.

그리고, 일예로, 건물의 리모델링시에 적용하여, 기존 시설 위에 새로운 장치를 투영하여 계획할 수 있고, 보이지 않는 기존 구조 벽 뒤나 천장속의 사용가능한 공간을 찾아 수리 및 개선작업을 진행할 수 있고, 건물이 다 지어진 후 유지보수를 할 때도 설계데이터를 기반으로 축적된 DB를 통해 필요한 정보를 취득할 수 있다.And, for example, when applied to the remodeling of a building, it is possible to plan by projecting a new device on top of an existing facility, find a usable space behind the wall of an existing structure that is invisible or in the ceiling, and carry out repair and improvement work. Even when performing maintenance after construction, necessary information can be obtained through the accumulated DB based on design data.

이처럼, 360도 파노라마 뷰(View)를 갖는 3D 인테리어 모델링과 함께, MR(Mixed Reality) 분위기로 메타버스가 구동되는 메타버스 가상인테리어공간 생성을 통해, 특정 현장을 방문하거나 양방향 대면 미팅이 필요없고, 공간과 시간의 제약없이 실제 적용될 공간을 쌍방향으로 확인하고 정보를 공유할 수 있으며, 이로 인해, 프로젝트를 진행하는 기업과 기업, 또는 기업과 소비자간의 인테리어 설계에 대한 이해의 간극을 좁히고 실질적인 공간의 표현으로 보다 디테일한 설계 체크 및 사전 설계 수정이 가능하여, 각종 오류들로 인한 시공비를 줄여 기업 및 소비자에게 양질의 결과물을 제공할 수 있고, 결과물에 대한 만족도 및 품질을 기존에 비해 80% 향상시킬 수 있다.In this way, through the creation of a metaverse virtual interior space in which the metaverse is driven in an MR (Mixed Reality) atmosphere, along with 3D interior modeling with a 360-degree panoramic view, there is no need to visit a specific site or have a two-way face-to-face meeting, It is possible to interactively check the actual space to be applied and share information without space and time constraints, thereby narrowing the gap in understanding of interior design between companies conducting projects or between companies and consumers, and expressing practical spaces. It enables more detailed design checks and preliminary design corrections, reducing construction costs due to various errors, providing high-quality results to companies and consumers, and improving satisfaction and quality of results by 80% compared to before. there is.

상기 MR형 메타버스 가상인테리어공간 제어부는 유니티(Unity) 프로그램엔진부(242)가 포함되어 구성된다.The MR-type metaverse virtual interior space control unit is configured by including a Unity program engine unit 242.

상기 유니티(Unity) 프로그램엔진부(242)는 MR 메타버스 가상인테리어공간이 형성된 메타버스 가상인테리어공간 생성 제어모듈과 메타버스구동용 MR모듈을 연동시켜주는 역할을 한다.The Unity program engine unit 242 serves to link the metaverse virtual interior space creation control module in which the MR metaverse virtual interior space is formed and the MR module for driving the metaverse.

이는 유니티(Unity) 프로그램엔진을 통해 메타버스구동용 MR모듈이 연결됨으로서, 메타버스로 구현될 현장공간이 메타버스 MR 그래픽으로 되어 메타버스구동용 MR모듈로 전달된다.As the MR module for driving the metaverse is connected through the Unity program engine, the field space to be implemented as the metaverse becomes the MR graphic of the metaverse and is transmitted to the MR module for driving the metaverse.

즉, 메타버스 체험자는 메타버스 내에 움직이면서 상호작용을 하고, 메타버스구동용 MR모듈의 베이스 스테이션 2대가 메타버스 체험자의 움직임을 추적한다.In other words, the metaverse experiencer interacts while moving within the metaverse, and two base stations of the MR module for driving the metaverse track the movement of the metaverse experiencer.

이때, 자기 센서가 작용하게 된다.At this time, the magnetic sensor works.

또한 손 위치 추적기는 메타버스 체험자의 왼손, 오른손의 컨트롤러에 해당하며, 베이스 스테이션이 양손 컨트롤러의 움직임도 추적한다.In addition, the hand position tracker corresponds to the left and right hand controllers of the metaverse experiencer, and the base station also tracks the movement of both hand controllers.

이러한 기능들을 통해서 메타버스에서의 3차원 가상인테리어공간을 인지한다.Through these functions, it recognizes the 3D virtual interior space in the metaverse.

그리고, 메타버스 체험자의 머리, 눈, 손의 위치가 동시 다발적으로 추적됨으로써 각각의 위치는 메타버스 MR 그래픽 생성제어모듈로 전달된다.In addition, as the positions of the head, eyes, and hands of the metaverse experiencer are simultaneously tracked, each position is transmitted to the metaverse MR graphic generation control module.

이에 따라 메타버스 MR 그래픽 생성제어모듈에서는 메타버스 체험자가 메타버스 상에서 상호작용하는 시각적 장면을 공유하게 된다.Accordingly, in the metaverse MR graphic generation control module, the metaverse experiencers share visual scenes interacting on the metaverse.

이처럼, 메타버스 가상인테리어공간 생성 제어모듈과 메타버스구동용 MR모듈이 상호적으로 연동됨에 따라서 메타버스 입출력 구조를 갖추게되고, 이로 인해 메타버스 체험이 가능하게 된다.In this way, as the metaverse virtual interior space creation control module and the metaverse driving MR module are mutually interlocked, a metaverse input/output structure is provided, thereby enabling the metaverse experience.

다음으로, 본 발명에 따른 메타버스구동용 MR모듈(300)에 관해 설명한다.Next, the MR module 300 for driving the metabus according to the present invention will be described.

상기 메타버스구동용 MR모듈(300)은 메타버스 체험자의 헤드상에 착용되어, 메타버스 가상인테리어공간 생성 제어모듈과 연동되면서, 온라인 웹기반으로 메타버스 가상인테리어공간으로 들어가 MR(Mixed Reality) 분위기와 함께 시각적, 청각적, 감각적으로 가상체험시키는 역할을 한다.The MR module 300 for driving the metaverse is worn on the head of the metaverse experiencer, interlocks with the metaverse virtual interior space creation control module, and enters the metaverse virtual interior space based on the online web to create an MR (Mixed Reality) atmosphere It plays the role of virtual experience visually, auditorily, and sensory.

이는 도 11에 도시한 바와 같이, 베이스 스테이션부(310), 링크 박스부(320), MR형 HMD부(330), 컨트롤러부(340)로 구성된다.As shown in FIG. 11, it is composed of a base station unit 310, a link box unit 320, an MR type HMD unit 330, and a controller unit 340.

첫째, 본 발명에 따른 베이스 스테이션부(310)에 관해 설명한다.First, the base station unit 310 according to the present invention will be described.

상기 베이스 스테이션부(310)는 메타버스 체험자의 움직임을 추적하여 센싱하고, 그 센싱한 추적센싱신호를 MR형 HMD부(Head Mounted Display)로 전달시키는 역할을 한다.The base station unit 310 tracks and senses the movement of the metaverse experiencer, and serves to transmit the sensed tracking and sensing signal to the MR type HMD unit (Head Mounted Display).

이는 사각박스형상의 몸체로 이루어지고, 몸체의 양쪽의 2개 베이스 스테이션이 구성되고, 각각의 베이스 스테이션에는 전원 어댑터가 포함되어 구성된다.It is composed of a rectangular box-shaped body, and consists of two base stations on both sides of the body, and each base station includes a power adapter.

베이스 스테이션 2개는 양쪽 구석에서 서로 마주보게 배치한다.The two base stations are placed facing each other in both corners.

각각의 베이스 스테이션은 150도의 수평 시야와 110도의 수직 시야를 가지고 있다.Each base station has a horizontal field of view of 150 degrees and a vertical field of view of 110 degrees.

배치되는 높이는 머리 높이 위가 이상적이며, 바닥으로부터 2m 이상이 적합하다.The height of the placement is ideal above the height of the head, and more than 2m from the floor is suitable.

메타버스의 플레이 영역을 완전하게 포함할 수 있게끔 베이스 스테이션이 아래쪽 30~45도 사이로 보도록 조정한다.Adjust the base station to look down between 30 and 45 degrees to completely cover the play area of the metaverse.

배치된 베이스 스테이션 2개 각각에 전원 케이블을 연결하고, 어댑터를 전원 콘센트에 꽂는다.Connect the power cable to each of the two deployed base stations, and plug the adapter into a power outlet.

이후 베이스 스테이션 2개 모두 상태등이 흰색 또는 녹색인지 확인함으로써 설치를 완료한다.Then, complete the installation by verifying that the status lights of both base stations are white or green.

둘째, 본 발명에 따른 링크 박스부(320)에 관해 설명한다.Second, the link box unit 320 according to the present invention will be described.

상기 링크 박스부(320)는 MR형 HMD부와 메타버스 MR 그래픽 생성제어모듈을 상호 연결시키는 역할을 한다.The link box unit 320 serves to interconnect the MR type HMD unit and the metaverse MR graphic generation control module.

이는 USB 3.0 케이블, 디스플레이포트 케이블, 전원 어댑터로 구성된다.It consists of a USB 3.0 cable, a DisplayPort cable, and a power adapter.

여기서, USB 3.0 케이블은 USB 3.0 이상 USB 포트에, 디스플레이포트 케이블은 MR형 HMD부의 홀로렌즈에 연결시킨다.Here, the USB 3.0 cable is connected to the USB 3.0 or higher USB port, and the DisplayPort cable is connected to the Holo lens of the MR type HMD unit.

셋째, 본 발명에 따른 MR형 HMD부(330)에 관해 설명한다.Third, the MR type HMD unit 330 according to the present invention will be described.

상기 MR형 HMD부(330)는 머리에 착용하여 메타버스 가상인테리어공간으로 들어가 MR(혼합현실)분위기와 함께 시각적, 청각적, 감각적으로 가상체험시키는 역할을 한다.The MR-type HMD unit 330 is worn on the head to enter the metaverse virtual interior space and serves to visually, aurally, and sensorily experience the MR (mixed reality) atmosphere.

이는 마이크로소프트사의 홀로렌즈(HoloLens)가 포함되어 구성된다.It is configured with Microsoft's HoloLens included.

그리고, 별도의 케이블 한쪽을 MR형 HMD부에 연결하고, 반대쪽을 링크 박스에 연결하며, 링크박스의 전원을 활성화시킨다.Then, one side of the separate cable is connected to the MR-type HMD unit, and the other side is connected to the link box, and the power of the link box is activated.

넷째, 본 발명에 따른 컨트롤러부(340)에 관해 설명한다.Fourth, the controller unit 340 according to the present invention will be described.

상기 컨트롤러부(340)는 터치패드(Touchpad), 트리거(Trigger), 그립(Grip) 버튼의 조작을 통해 메타버스 상에서의 상호작용을 가능하게 제어시키는 역할을 한다.The controller unit 340 serves to enable and control interactions on the metaverse through manipulation of a touchpad, a trigger, and a grip button.

이는 도 12에 도시한 바와 같이, 사용자의 왼손과 오른손에 위치되어 동작되어, 그립타입으로 2대가 구성된다.As shown in FIG. 12, it is operated by being located on the left and right hands of the user, and consists of two grip types.

각각의 컨트롤러는 MR형 HMD부와 페어링됨으로서 연동된다.Each controller is interlocked by being paired with the MR type HMD unit.

그리고, 메타버스 상에서의 이벤트에 따라 진동을 발생시키는 바이브레이션부가 포함되어 구성된다.And, it is configured to include a vibration unit that generates vibrations according to events on the metaverse.

일예로, 메타버스를 구현하고자 하는 현장공간 중 룸 스케일은 메타버스 체험자의 움직임이 자유로운 공간을 요구한다. 룸 스케일의 최소 플레이 영역 크기는 2m*1.5m이며, 최대 메타버스 플레이 영역 크기는 6m*6m이다.For example, among the on-site spaces to realize the metaverse, the room scale requires a space where the metaverse experiencers can move freely. The minimum play area size of the room scale is 2m*1.5m, and the maximum metaverse play area size is 6m*6m.

특히 해당 현장공간에서 베이스 스테이션 2대를 배치할 적절한 곳을 파악한다.In particular, identify an appropriate location in the site space to place the two base stations.

이하, 본 발명에 따른 생동감·라이브형 메타버스 가상인테리어공간 생성방법의 구체적인 동작과정에 관해 설명한다.Hereinafter, a detailed operation process of the method for generating a lively and live metaverse virtual interior space according to the present invention will be described.

도 16은 본 발명에 따른 생동감·라이브형 메타버스 가상인테리어공간 생성방법을 도시한 순서도에 관한 것이다.16 relates to a flow chart showing a method for generating a lively and live metaverse virtual interior space according to the present invention.

먼저, 현장촬영 이동로봇모듈을 통해 현장공간을 X축, Y축으로 이동하면서 360도 현장공간영상을 촬영한 후, 촬영한 현장공간 3D 데이터를 메타버스 가상인테리어공간 생성 제어모듈쪽으로 실시간전송시킨다(S100).First, after filming a 360-degree field space image while moving the field space in the X and Y axes through the field shooting mobile robot module, the filmed field space 3D data is transmitted in real time to the metaverse virtual interior space creation control module ( S100).

다음으로, 메타버스 가상인테리어공간 생성 제어모듈의 스케치업프로그램엔진부를 통해 현장촬영 이동로봇모듈으로부터 촬영된 현장공간 3D데이터를 수신받아 360도 파노라마 뷰(View)를 갖는 3D 인테리어 모델링으로 변환시킨다(S200).Next, the field space 3D data taken from the field shooting mobile robot module is received through the sketchup program engine of the metaverse virtual interior space creation control module and converted into 3D interior modeling with a 360 degree panoramic view (S200 ).

이는 스케치업프로그램엔진부를 통해 데이터송수신부에서 수신받은 현장공간 3D데이터를 가지고, 스케치업하여 360도 파노라마 뷰(View)를 갖는 3D 인테리어 모델링으로 생성시킨다.With the 3D data of the field space received from the data transmission and reception unit through the sketchup program engine unit, sketchup is performed to generate 3D interior modeling with a 360-degree panoramic view.

즉, 메타버스 체험자가 메타버스 상에서의 시각적 장면을 통해 현실과 유사하게 몰입감을 인지할 수 있도록 하는 3D 인테리어 모델링을 1차로 형성시킨다. 이때, 메타버스를 구현하고자 하는 현장공간에 맞게 3D BIM(건물정보모델링)엔진을 기반으로 현실 세계의 이미지를 참고함으로써 텍스처 매핑 위주로 3D 인테리어 모델링을 설계한다.In other words, 3D interior modeling is primarily formed so that metaverse experiencers can perceive a sense of immersion similar to reality through visual scenes on the metaverse. At this time, 3D interior modeling is designed with a focus on texture mapping by referring to images of the real world based on the 3D BIM (Building Information Modeling) engine to suit the field space to be implemented.

이어서, 스케치업프로그램엔진부에서 인스케이프(Enscape) 랜더 프로그램엔진을 통해 2차로, 3D 인테리어 모델링에 360도 파노라마 뷰(View)를 부가시켜 제작한다.Then, secondly, through the Enscape render program engine in the sketchup program engine unit, a 360-degree panoramic view is added to the 3D interior modeling to produce it.

이어서, 3D 인테리어 모델링에 360도 파노라마 뷰(View)를 부가시키고, 맵(Map)을 직접 수정 및 편집하면서, 객체 직렬화를 통해 쉽게 저장(Save)과 로드(Load)를 하고, 인스케이프(Enscape) 랜더 프로그램엔진을 통해 메타버스 상에서 360도 파노라마 뷰(View), 자유로운 공간이동을 생동감 있고, 현실감있게 표현한다.Then, add a 360-degree panoramic view to the 3D interior modeling, directly modify and edit the map, easily save and load through object serialization, and use Enscape Through the render program engine, a 360-degree panoramic view and free space movement are expressed vividly and realistically on the metaverse.

그리고, 3D 인테리어 모델링의 특정 객체 중 메타버스상의 구성객체인 건물, 도로, 인테리어소품, 가구, 나무, 액세사리, 차, 간판, 안내표지판에 마감재의 재질값을 설정한다.And, among the specific objects of 3D interior modeling, the material values of the finishing materials are set for the constituent objects on the metaverse, such as buildings, roads, interior items, furniture, trees, accessories, cars, signboards, and information signs.

다음으로, 메타버스 가상인테리어공간 생성 제어모듈의 메타버스 플랫폼제어부에서 스케치업프로그램엔진부를 통해 생성된 360도 파노라마 뷰(View)를 갖는 3D 인테리어 모델링에 객체를 부여하고, 이벤트를 설정하여, 360도 파노라마 뷰(View)를 갖는 3D 인테리어 모델링으로 형성된 메타버스가 구동되도록 플랫폼 제어한다(S300).Next, the metaverse platform control unit of the metaverse virtual interior space creation control module assigns an object to the 3D interior modeling with a 360-degree panoramic view generated through the sketchup program engine unit, sets an event, and The platform is controlled so that the metaverse formed by 3D interior modeling with a panoramic view is driven (S300).

이는 도 17에 도시한 바와 같이, 메타제이프레임(MetaJFrame)부(231)가 구동되어, 오픈 그래픽 라이브러리(OpenGL)의 제이프레임 클래스(JFrame Class)를 상속받은 클래스로 주로 메타버스의 풀스크린(FullScreen) 제어, 또는 UI(User Interface) 컴포넌트(버튼 등의 구성요소)의 컨테이너(Container)(컴포넌트들을 담는 장소)역할을 수행한다(S310).As shown in FIG. 17, this is a class that inherits the JFrame Class of the open graphic library (OpenGL) by driving the MetaJFrame unit 231, and is mainly a full screen (FullScreen) of the metaverse. ), or as a container (place to contain components) of UI (User Interface) components (components such as buttons) (S310).

이어서, 메타애니메이터(MetaAnimator)부(232)가 구동되어, 프레임 레이트(Frame rate)와 동시에 처리할 수 있는 프로그램의 단위를 나타내는 메타버스 쓰레드(Thread)를 관리하는 클래스, 그리고 메타버스 프레임 레이트와 각종 쓰레드를 관리한다(S320).Subsequently, the meta animator unit 232 is driven, and the class that manages the metaverse thread representing the unit of the program that can be processed simultaneously with the frame rate, and the metaverse frame rate and various Threads are managed (S320).

이어서, 메타클립(MetaClip)부(233)가 구동되어, 메타버스상의 객체를 정의하기 위한 최상위 추상 클래스의 역할을 수행한다(S330).Subsequently, the MetaClip unit 233 is driven and serves as a top-level abstract class for defining objects on the metaverse (S330).

이어서, 메타비지터(MetaVisitor)부(234)가 구동되어, 메타버스상의 객체들의 제어나 움직임을 위한 인터페이스역할을 수행한다(S340).Subsequently, the metavisitor unit 234 is driven and serves as an interface for controlling or moving objects on the metaverse (S340).

이어서, 메타지알에프(MetaGRF)부(235)가 구동되어, 현장공간 3D 데이터를 저장하기 위해 자료관리를 해주는 자체 저장 역할을 수행한다(S350).Subsequently, the MetaGRF unit 235 is driven and performs its own storage role of managing data to store 3D data in field space (S350).

이어서, 메타이벤트리스너(MetaEventListener)부(236)가 구동되어, 실제 구현되는 메타버스이벤트의 코드를 정의한 후, 메타버스상에서 이벤트를 구현시키도록 제어한다(S360).Subsequently, the meta-event listener (MetaEventListener) unit 236 is driven, defines the code of the meta-bus event that is actually implemented, and then controls to implement the event on the meta-verse (S360).

이어서, 네트워크 메타연결부(237)가 구동되어 메타버스와 네트워크망으로 연결시켜 네트워크 메타버스를 지원해주면서, 대화방 방식의 기능을 수행한다(S370).Subsequently, the network meta-connecting unit 237 is driven and connects the metaverse to the network to support the network metaverse and performs a chat room-type function (S370).

또한, 메타결제제어부(238)가 선택적으로 포함되어 구성됨으로서, 결제가 완료된 소비자를 중심으로 메타버스 상에 구동되는 가상인테리어 공간을 들어갈 수 있고, 가상인테리어 설계를 제공받을 수 있으며, 메타버스 상에 구동되는 쇼핑몰 URL에 들어가 소비자가 원하는 객체를 구매할 수 있도록 로그인 또는 중개역할을 수행하도록 제어한다.In addition, as the meta payment control unit 238 is selectively included and configured, it is possible to enter the virtual interior space driven on the metaverse centering on the consumer who has completed the payment, to be provided with a virtual interior design, and to be provided on the metaverse. It is controlled to log in or act as an intermediary so that a consumer can purchase a desired object by entering the driven shopping mall URL.

다음으로, 메타버스 가상인테리어공간 생성 제어모듈의 MR형 메타버스 가상인테리어공간 제어부를 통해 360도 파노라마 뷰(View)를 갖는 3D 인테리어 모델링을 메타버스로 구현될 현장공간에 배치 후, 물리적 환경과 가상의 디지털 환경을 중첩시켜 MR(Mixed Reality) 분위기를 갖는 메타버스 가상인테리어공간을 생성시키도록 제어한다(S400).Next, after placing the 3D interior modeling with a 360-degree panoramic view through the MR-type metaverse virtual interior space control unit of the metaverse virtual interior space creation control module in the field space to be implemented as a metaverse, physical environment and virtual Control to create a metaverse virtual interior space having an MR (Mixed Reality) atmosphere by overlapping the digital environment of (S400).

끝으로, 도 13에 도시한 바와 같이, 메타버스구동용 MR모듈을 통해, 메타버스 가상인테리어공간 생성 제어모듈과 연동되면서, 메타버스 가상인테리어공간으로 들어가 MR(Mixed Reality) 분위기와 함께 시각적, 청각적, 감각적으로 가상체험한다(S500).Finally, as shown in FIG. 13, through the MR module for driving the metaverse, while interlocking with the metaverse virtual interior space creation control module, entering the metaverse virtual interior space, visual and auditory with MR (Mixed Reality) atmosphere Virtually and sensibly experience (S500).

이때, 유니티(Unity) 프로그램엔진부가 구동되어, MR 메타버스 가상인테리어공간이 형성된 메타버스 가상인테리어공간 생성 제어모듈과 메타버스구동용 MR모듈을 연동시켜준다.At this time, the Unity program engine unit is driven to link the metaverse virtual interior space creation control module in which the MR metaverse virtual interior space is formed and the MR module for driving the metaverse.

1 : 생동감·라이브형 메타버스 가상인테리어공간 생성장치
100 : 현장촬영 이동로봇모듈
110 : 이동로봇몸체부
120 : 360도 회전카메라부
130 : 무선통신부
140 : 배터리부
150 : 이동로봇제어부
200 : 메타버스 가상인테리어공간 생성 제어모듈
210 : 데이터송수신부
220 : 스케치업프로그램엔진부
230 : 메타버스 플랫폼제어부
240 : MR형 메타버스 가상인테리어공간 제어부
300 : 메타버스구동용 MR모듈
1: Vivid/live metaverse virtual interior space creation device
100: field shooting mobile robot module
110: mobile robot body
120: 360 degree rotation camera unit
130: wireless communication unit
140: battery unit
150: mobile robot control unit
200: Metaverse virtual interior space creation control module
210: data transmission and reception unit
220: Sketchup program engine part
230: metaverse platform control unit
240: MR type metabus virtual interior space control unit
300: MR module for driving metabus

Claims (11)

메타버스를 구현하고자 하는 현장공간을 이동하면서 촬영한 현장공간 3D데이터를 수신받아, 360도 파노라마 뷰(View)를 갖는 3D 인테리어 모델링으로 변환시킨 후, 객체를 부여한 360도 파노라마 뷰(View)를 갖는 3D 인테리어 모델링과 함께, MR(Mixed Reality) 분위기로 메타버스가 구동되는 메타버스 가상인테리어공간을 생성시키는 것을 특징으로 하는 생동감·라이브형 메타버스 가상인테리어공간 생성장치.
After receiving the field space 3D data taken while moving the field space to implement the metaverse, converting it into a 3D interior modeling with a 360-degree panoramic view, and having a 360-degree panoramic view given an object Along with 3D interior modeling, a lively and live metaverse virtual interior space generating device characterized in that it creates a metaverse virtual interior space in which the metaverse is driven in an MR (Mixed Reality) atmosphere.
제1항에 있어서, 상기 생동감·라이브형 메타버스 가상인테리어공간 생성장치는
현장공간을 X축, Y축으로 이동하면서 360도 현장공간영상을 촬영한 후, 촬영한 현장공간 3D 데이터를 메타버스 가상인테리어공간 생성 제어모듈쪽으로 실시간전송시키는 현장촬영 이동로봇모듈(100)과,
현장촬영 이동로봇모듈으로부터 촬영된 현장공간 3D데이터를 수신받아 360도 파노라마 뷰(View)를 갖는 3D 인테리어 모델링으로 변환시킨 후, 객체를 부여한 360도 파노라마 뷰(View)를 갖는 3D 인테리어 모델링과 함께, MR(Mixed Reality) 분위기로 메타버스가 구동되는 메타버스 가상인테리어공간을 생성시키도록 제어하는 메타버스 가상인테리어공간 생성 제어모듈(200)과,
메타버스 체험자의 헤드상에 착용되어, 메타버스 가상인테리어공간 생성 제어모듈과 연동되면서, 온라인 웹기반으로 메타버스 가상인테리어공간으로 들어가 MR(Mixed Reality) 분위기와 함께 시각적, 청각적, 감각적으로 가상체험시키는 메타버스구동용 MR모듈(300)로 구성되는 것을 특징으로 하는 생동감·라이브형 메타버스 가상인테리어공간 생성장치.
The method of claim 1, wherein the lively and live metaverse virtual interior space generating device
After filming a 360-degree field space image while moving the field space in the X-axis and Y-axis, a field shooting mobile robot module 100 that transmits the 3D data of the filmed field space to the metaverse virtual interior space creation control module in real time;
After receiving the field space 3D data taken from the field shooting mobile robot module and converting it into a 3D interior modeling with a 360-degree panoramic view, 3D interior modeling with a 360-degree panoramic view given an object, A metaverse virtual interior space creation control module 200 that controls to generate a metaverse virtual interior space in which the metaverse is driven in an MR (Mixed Reality) atmosphere;
It is worn on the head of the metaverse experiencer, linked with the metaverse virtual interior space creation control module, and enters the metaverse virtual interior space based on the online web, providing a visual, auditory, and sensory virtual experience along with the MR (Mixed Reality) atmosphere. A lively, live-type metaverse virtual interior space generating device, characterized in that composed of an MR module 300 for driving a metaverse.
제2항에 있어서, 상기 현장촬영 이동로봇모듈(100)은
이동수단이 구비된 몸체로 이루어져, 각 기기를 외압으로부터 보호하고 지지하는 이동로봇몸체부(110)와,
이동로봇몸체부의 상단 일측에 위치되어, 360도 회전하면서 현장공간의 360도 영상을 촬영하거나 또는 360도 회전하면서 현장공간의 360도 실사 이미지를 캡쳐하는 360도 회전카메라부(120)와,
360도 회전카메라부 일측에 위치되어, 근거리 또는 원거리에 위치한 메타버스 가상인테리어공간 생성 제어모듈과 무선통신망으로 연결시켜, 양방향데이터통신을 수행하는 무선통신부(130)와,
각 기기에 전원을 공급시키는 배터리부(140)와,
각 기기의 전반적인 동작을 제어하면서, 360도 회전카메라부에서 촬영한 360도 영상데이터, 360도 실사이미지를 고정밀 레이저 스캔제어를 통해 현장공간 3D 데이터로 변환시킨 후, 메타버스 가상인테리어공간 생성 제어모듈쪽으로 실시간전송시키도록 제어하는 이동로봇제어부(150)로 구성되는 것을 특징으로 하는 생동감·라이브형 메타버스 가상인테리어공간 생성장치.
The method of claim 2, wherein the field shooting mobile robot module 100
A mobile robot body 110 composed of a body equipped with a moving means and protecting and supporting each device from external pressure;
A 360-degree rotating camera unit 120 that is located on one side of the upper end of the mobile robot body and captures a 360-degree image of the field space while rotating 360 degrees or captures a 360-degree live-action image of the field space while rotating 360 degrees,
A wireless communication unit 130 located on one side of the 360-degree rotating camera unit and connected to a metaverse virtual interior space generation control module located at a short or long distance through a wireless communication network to perform two-way data communication;
A battery unit 140 for supplying power to each device;
While controlling the overall operation of each device, after converting 360-degree video data and 360-degree real-life images taken by the 360-degree rotating camera unit into field space 3D data through high-precision laser scan control, metaverse virtual interior space creation control module A lively, live-type metaverse virtual interior space generating device, characterized in that composed of a mobile robot control unit 150 that controls to transmit in real time to the side.
제2항에 있어서, 상기 메타버스 가상인테리어공간 생성 제어모듈(200)은
현장공간에 이동하는 현장촬영 이동로봇모듈으로부터 촬영된 현장공간 3D데이터를 수신받아 스케치업프로그램엔진부쪽으로 전달시키고, 현장촬영 이동로봇모듈쪽으로 현장공간으로 이동하거나, 영상을 촬영시키는 제어신호를 송신시키는 데이터송수신부(210)와,
데이터송수신부에서 수신받은 현장공간 3D데이터를 가지고, 스케치업하여 360도 파노라마 뷰(View)를 갖는 3D 인테리어 모델링으로 생성시키는 스케치업프로그램엔진부(220)와,
스케치업프로그램엔진부를 통해 생성된 360도 파노라마 뷰(View)를 갖는 3D 인테리어 모델링에 객체를 부여하고, 이벤트를 설정하여, 360도 파노라마 뷰(View)를 갖는 3D 인테리어 모델링으로 형성된 메타버스가 구동되도록 플랫폼 제어하는 메타버스 플랫폼제어부(230)와,
360도 파노라마 뷰(View)를 갖는 3D 인테리어 모델링을 메타버스로 구현될 현장공간에 배치 후, 물리적 환경과 가상의 디지털 환경을 중첩시켜 MR(Mixed Reality) 분위기를 갖는 메타버스 가상인테리어공간을 생성시키도록 제어하는 MR형 메타버스 가상인테리어공간 제어부(240)로 구성되는 것을 특징으로 하는 생동감·라이브형 메타버스 가상인테리어공간 생성장치.
The method of claim 2, wherein the metaverse virtual interior space creation control module 200
Receives the field space 3D data captured from the field shooting mobile robot module moving to the field space, transmits it to the sketchup program engine, moves to the field space toward the field shooting mobile robot module, or transmits a control signal to shoot an image. a data transmission/reception unit 210;
A sketch-up program engine unit 220 that generates 3D interior modeling with a 360-degree panoramic view by sketch-up with the field space 3D data received from the data transmission and reception unit;
Objects are assigned to the 3D interior modeling with a 360-degree panoramic view created through the SketchUp program engine, and events are set so that the metaverse formed by the 3D interior modeling with a 360-degree panoramic view is driven. A metaverse platform control unit 230 for controlling the platform;
After placing the 3D interior modeling with a 360-degree panoramic view in the field space to be implemented as a metaverse, the physical environment and the virtual digital environment are overlapped to create a metaverse virtual interior space with an MR (Mixed Reality) atmosphere. A lively, live-type metaverse virtual interior space generating device, characterized in that composed of an MR-type metaverse virtual interior space control unit 240 for controlling.
제4항에 있어서, 상기 스케치업프로그램엔진부(220)는
인스케이프(Enscape) 랜더 프로그램엔진을 통해 2차로, 3D 인테리어 모델링에 360도 파노라마 뷰(View)를 부가시켜 제작하는 것을 특징으로 하는 생동감·라이브형 메타버스 가상인테리어공간 생성장치.
The method of claim 4, wherein the sketchup program engine unit 220
A lively and live metaverse virtual interior space generator characterized in that it is produced by adding a 360-degree panoramic view to 3D interior modeling through the second, 3D interior modeling through the Enscape render program engine.
제4항에 있어서, 상기 스케치업프로그램엔진부(220)는
1:N 협업작업모드를 통해 메타버스로 구현될 현장공간을 360도 파노라마 뷰(View)를 갖는 3D 인테리어 모델링으로 생성시키는 것을 특징으로 하는 생동감·라이브형 메타버스 가상인테리어공간 생성장치.
The method of claim 4, wherein the sketchup program engine unit 220
A lively and live metaverse virtual interior space generating device characterized by generating a 3D interior modeling with a 360-degree panoramic view of the field space to be implemented as a metaverse through a 1:N collaborative work mode.
제4항에 있어서, 상기 메타버스 플랫폼제어부(230)는
오픈 그래픽 라이브러리(OpenGL)의 제이프레임 클래스(JFrame Class)를 상속받은 클래스로 주로 메타버스의 풀스크린(FullScreen) 제어, 또는 UI(User Interface) 컴포넌트(버튼 등의 구성요소)의 컨테이너(Container)(컴포넌트들을 담는 장소)역할을 하는 메타제이프레임(MetaJFrame)부(231)와,
프레임 레이트(Frame rate)와 동시에 처리할 수 있는 프로그램의 단위를 나타내는 메타버스 쓰레드(Thread)를 관리하는 클래스, 그리고 메타버스 프레임 레이트와 각종 쓰레드를 관리하는 메타애니메이터(MetaAnimator)부(232)와,
메타버스상의 객체를 정의하기 위한 최상위 추상 클래스의 역할을 수행하는 메타클립(MetaClip)부(233)와,
메타버스상의 객체들의 제어나 움직임을 위한 인터페이스역할을 수행하는 메타비지터(MetaVisitor)부(234)와,
현장공간 3D 데이터를 저장하기 위해 자료관리를 해주는 자체 저장 역할을 수행하는 메타지알에프(MetaGRF)부(235)와,
현되는 메타버스이벤트의 코드를 정의한 후, 메타버스상에서 이벤트를 구현시키도록 제어하는 메타이벤트리스너(MetaEventListener)부(236)와,
또다른 메타버스와 네트워크망으로 연결시켜 네트워크 메타버스를 지원해주면서, 대화방 방식의 기능을 수행하는 네트워크 메타연결부(237)로 구성되는 것을 특징으로 하는 생동감·라이브형 메타버스 가상인테리어공간 생성장치.
The method of claim 4, wherein the metaverse platform control unit 230
It is a class that inherits the JFrame Class of the open graphic library (OpenGL) and is mainly used to control the full screen of the metaverse or the container of UI (User Interface) components (components such as buttons). A metaJFrame unit 231 serving as a place to contain components);
A class that manages a metaverse thread that represents a unit of a program that can be processed simultaneously with the frame rate, and a metaanimator unit 232 that manages the metaverse frame rate and various threads,
A metaclip unit 233 that serves as a top-level abstract class for defining objects on the metaverse;
A metavisitor unit 234 that serves as an interface for controlling or moving objects on the metaverse;
A MetaGRF unit 235 that performs its own storage role of managing data to store field space 3D data;
After defining the code of the current metaverse event, a meta event listener (MetaEventListener) unit 236 that controls to implement the event on the metaverse;
A device for creating a lively and live metaverse virtual interior space, characterized in that it consists of a network metaconnection unit 237 that performs the function of a chat room method while supporting a network metaverse by connecting to another metaverse through a network.
제7항에 있어서, 상기 메타비지터(MetaVisitor)부(234)는
스케치업프로그램엔진부에서 제작된 3D 인테리어 모델링에 360도 파노라마 뷰(View)가 부가되어 제작되면, 제작된 3D 인테리어 모델링과, 360도 파노라마 뷰(View)에 위도, 경도값의 이동방향 및 동서남북방향의 경로를 지정하는 것을 특징으로 하는 생동감·라이브형 메타버스 가상인테리어공간 생성장치.
The method of claim 7, wherein the metavisitor (MetaVisitor) unit 234
When a 360-degree panoramic view is added to the 3D interior modeling produced by the SketchUp program engine department and produced, the direction of movement of the latitude and longitude values and the direction of movement of the latitude and longitude values in the 360-degree panoramic view and the produced 3D interior modeling A lively, live-type metaverse virtual interior space generator, characterized in that for specifying the path of.
제2항에 있어서, 상기 메타버스구동용 MR모듈(300)은
메타버스 체험자의 움직임을 추적하여 센싱하고, 그 센싱한 추적센싱신호를 MR형 HMD부(Head Mounted Display)로 전달시키는 베이스 스테이션부(310)와,
MR형 HMD부와 메타버스 MR 그래픽 생성제어모듈을 상호 연결시키는 링크 박스부(320)와,
머리에 착용하여 메타버스 가상인테리어공간으로 들어가 MR(혼합현실)분위기와 함께 시각적, 청각적, 감각적으로 가상체험시키는 MR형 HMD부(330)와,
터치패드(Touchpad), 트리거(Trigger), 그립(Grip) 버튼의 조작을 통해 메타버스 상에서의 상호작용을 가능하게 제어시키는 컨트롤러부(340)로 구성되는 것을 특징으로 하는 생동감·라이브형 메타버스 가상인테리어공간 생성장치.
The method of claim 2, wherein the MR module 300 for driving the metabus
A base station unit 310 that tracks and senses the movement of the metaverse experiencer and transfers the sensed tracking and sensing signal to an MR-type HMD unit (Head Mounted Display);
A link box unit 320 interconnecting the MR type HMD unit and the metaverse MR graphic generation control module;
An MR-type HMD unit 330 that is worn on the head to enter the metaverse virtual interior space and visually, aurally, and sensorically experience the MR (mixed reality) atmosphere;
A lively, live-type metaverse virtual, characterized in that it consists of a controller unit 340 that enables and controls interactions on the metaverse through manipulation of touchpad, trigger, and grip buttons. Interior space generator.
현장촬영 이동로봇모듈을 통해 현장공간을 X축, Y축으로 이동하면서 360도 현장공간영상을 촬영한 후, 촬영한 현장공간 3D 데이터를 메타버스 가상인테리어공간 생성 제어모듈쪽으로 실시간전송시키는 단계(S100)와,
메타버스 가상인테리어공간 생성 제어모듈의 스케치업프로그램엔진부를 통해 현장촬영 이동로봇모듈으로부터 촬영된 현장공간 3D데이터를 수신받아 360도 파노라마 뷰(View)를 갖는 3D 인테리어 모델링으로 변환시키는 단계(S200)와,
메타버스 가상인테리어공간 생성 제어모듈의 메타버스 플랫폼제어부에서 스케치업프로그램엔진부를 통해 생성된 360도 파노라마 뷰(View)를 갖는 3D 인테리어 모델링에 객체를 부여하고, 이벤트를 설정하여, 360도 파노라마 뷰(View)를 갖는 3D 인테리어 모델링으로 형성된 메타버스가 구동되도록 플랫폼 제어하는 단계(S300)와,
메타버스 가상인테리어공간 생성 제어모듈의 MR형 메타버스 가상인테리어공간 제어부를 통해 360도 파노라마 뷰(View)를 갖는 3D 인테리어 모델링을 메타버스로 구현될 현장공간에 배치 후, 물리적 환경과 가상의 디지털 환경을 중첩시켜 MR(Mixed Reality) 분위기를 갖는 메타버스 가상인테리어공간을 생성시키도록 제어하는 단계(S400)와,
메타버스구동용 MR모듈을 통해, 메타버스 가상인테리어공간 생성 제어모듈과 연동되면서, 메타버스 가상인테리어공간으로 들어가 MR(Mixed Reality) 분위기와 함께 시각적, 청각적, 감각적으로 가상체험하는 단계(S500)로 이루어지는 것을 특징으로 하는 생동감·라이브형 메타버스 가상인테리어공간 생성방법.
After taking a 360-degree field space image while moving the field space in the X and Y axes through the field shooting mobile robot module, real-time transmission of the filmed field space 3D data to the metaverse virtual interior space creation control module (S100 )and,
Receiving the 3D data of the field space taken from the field shooting mobile robot module through the sketchup program engine of the metabus virtual interior space creation control module and converting it into 3D interior modeling with a 360 degree panoramic view (S200); ,
In the metaverse platform control unit of the metaverse virtual interior space creation control module, a 360-degree panoramic view ( Controlling the platform so that the metaverse formed by 3D interior modeling with View is driven (S300);
After placing 3D interior modeling with a 360-degree panoramic view through the MR-type metaverse virtual interior space control unit of the metaverse virtual interior space creation control module in the field space to be implemented as a metaverse, the physical environment and the virtual digital environment Controlling to generate a metaverse virtual interior space having an MR (Mixed Reality) atmosphere by overlapping (S400);
Through the MR module for driving the metaverse, while interlocking with the metaverse virtual interior space creation control module, entering the metaverse virtual interior space and experiencing the visual, auditory, and sensory virtual experience with the MR (Mixed Reality) atmosphere (S500) A lively, live-type metaverse virtual interior space creation method, characterized in that consisting of.
제10항에 있어서, 상기 단계(S300)는
메타제이프레임(MetaJFrame)부(231)가 구동되어, 오픈 그래픽 라이브러리(OpenGL)의 제이프레임 클래스(JFrame Class)를 상속받은 클래스로 주로 메타버스의 풀스크린(FullScreen) 제어, 또는 UI(User Interface) 컴포넌트(버튼 등의 구성요소)의 컨테이너(Container)(컴포넌트들을 담는 장소)역할을 수행하는 단계(S310)와,
메타애니메이터(MetaAnimator)부(232)가 구동되어, 프레임 레이트(Frame rate)와 동시에 처리할 수 있는 프로그램의 단위를 나타내는 메타버스 쓰레드(Thread)를 관리하는 클래스, 그리고 메타버스 프레임 레이트와 각종 쓰레드를 관리하는 단계(S320)와,
메타클립(MetaClip)부(233)가 구동되어, 메타버스상의 객체를 정의하기 위한 최상위 추상 클래스의 역할을 수행하는 단계(S330)와,
메타비지터(MetaVisitor)부(234)가 구동되어, 메타버스상의 객체들의 제어나 움직임을 위한 인터페이스역할을 수행하는 단계(S340)와,
메타지알에프(MetaGRF)부(235)가 구동되어, 현장공간 3D 데이터를 저장하기 위해 자료관리를 해주는 자체 저장 역할을 수행하는 단계(S350)와,
메타이벤트리스너(MetaEventListener)부(236)가 구동되어, 실제 구현되는 메타버스이벤트의 코드를 정의한 후, 메타버스상에서 이벤트를 구현시키도록 제어하는 단계(S360)와,
네트워크 메타연결부(237)가 구동되어 메타버스와 네트워크망으로 연결시켜 네트워크 메타버스를 지원해주면서, 대화방 방식의 기능을 수행하는 단계(S370)로 이루어지는 것을 특징으로 하는 생동감·라이브형 메타버스 가상인테리어공간 생성방법.
11. The method of claim 10, wherein the step (S300)
A class inherited from the JFrame Class of the open graphic library (OpenGL) by driving the MetaJFrame unit 231, mainly controlling the full screen of the metaverse, or UI (User Interface) A step of serving as a container (a place to contain components) of components (components such as buttons) (S310);
A class that manages a metaverse thread that represents a unit of a program that can be processed simultaneously with the frame rate when the meta animator unit 232 is driven, and the metaverse frame rate and various threads Managing step (S320);
A step in which the MetaClip unit 233 is driven and serves as a top-level abstract class for defining objects on the metaverse (S330);
A step in which the metavisitor unit 234 is driven and serves as an interface for controlling or moving objects on the metaverse (S340);
A step in which the MetaGRF unit 235 is driven and performs its own storage role of managing data to store field space 3D data (S350);
The meta event listener (MetaEventListener) unit 236 is driven, defining the code of the metaverse event that is actually implemented, and then controlling the event to be implemented on the metaverse (S360);
A lively and live metaverse virtual interior space characterized in that it consists of a step (S370) of performing a function of a chat room method while supporting the network metaverse by connecting the network metaverse to the network metaverse by driving the network metaconnection unit 237 creation method.
KR1020210111244A 2021-08-23 2021-08-23 Apparatus and method for creating dynamic, live-type metaverse virtual interior space KR20230029130A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210111244A KR20230029130A (en) 2021-08-23 2021-08-23 Apparatus and method for creating dynamic, live-type metaverse virtual interior space

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210111244A KR20230029130A (en) 2021-08-23 2021-08-23 Apparatus and method for creating dynamic, live-type metaverse virtual interior space

Publications (1)

Publication Number Publication Date
KR20230029130A true KR20230029130A (en) 2023-03-03

Family

ID=85510145

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210111244A KR20230029130A (en) 2021-08-23 2021-08-23 Apparatus and method for creating dynamic, live-type metaverse virtual interior space

Country Status (1)

Country Link
KR (1) KR20230029130A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101770648B1 (en) 2016-05-18 2017-08-23 주식회사 큐픽스 A method for providing indoor virtual experience based on panorama pictures and a 3d floor plan, a portable terminal and a method for providing floor plans using the portable terminal

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101770648B1 (en) 2016-05-18 2017-08-23 주식회사 큐픽스 A method for providing indoor virtual experience based on panorama pictures and a 3d floor plan, a portable terminal and a method for providing floor plans using the portable terminal

Similar Documents

Publication Publication Date Title
KR101918262B1 (en) Method and system for providing mixed reality service
US11263358B2 (en) Rapid design and visualization of three-dimensional designs with multi-user input
Bustillo et al. A flexible platform for the creation of 3D semi-immersive environments to teach Cultural Heritage
US20130218542A1 (en) Method and system for driving simulated virtual environments with real data
Montero et al. Designing and implementing interactive and realistic augmented reality experiences
CN103516808A (en) Virtual/reality interaction platform provided with mobile terminal for intelligent exhibition hall
Stock et al. SIEVE: Collaborative decision-making in an immersive online environment
Hirose Virtual reality technology and museum exhibit
Vajak et al. Combining photogrammetry, 3D modeling and real time information gathering for highly immersive VR experience
Barszcz et al. 3D scanning digital models for virtual museums
KR20200000288A (en) Operating system for model house with virtual realityand method thereof
Trapp et al. Colonia 3D communication of virtual 3D reconstructions in public spaces
CN111949904B (en) Data processing method and device based on browser and terminal
Kurillo et al. Teleimmersive 3D collaborative environment for cyberarchaeology
Echavarria et al. Augmented reality (AR) maps for experiencing creative narratives of cultural heritage
KR20230029130A (en) Apparatus and method for creating dynamic, live-type metaverse virtual interior space
CN111476873B (en) Mobile phone virtual graffiti method based on augmented reality
Stefan et al. Prototyping 3D virtual learning environments with X3D-based content and visualization tools
Tao A VR/AR-based display system for arts and crafts museum
Choi A technological review to develop an AR-based design supporting system
Moloney Augmented reality visualisation of the built environment to support design decision making
Huang et al. Immersive Campus Exploration: VR-Driven Navigation Solutions
Bhokare et al. Event Decoration with AR
Hsu et al. The visual web user interface design in augmented reality technology
Kieferl et al. Mixed realities: improving the planning process by using augmented and virtual reality