KR20230133624A - Method for interaction between vr device and object in virtual reality - Google Patents

Method for interaction between vr device and object in virtual reality Download PDF

Info

Publication number
KR20230133624A
KR20230133624A KR1020220030835A KR20220030835A KR20230133624A KR 20230133624 A KR20230133624 A KR 20230133624A KR 1020220030835 A KR1020220030835 A KR 1020220030835A KR 20220030835 A KR20220030835 A KR 20220030835A KR 20230133624 A KR20230133624 A KR 20230133624A
Authority
KR
South Korea
Prior art keywords
devices
virtual space
objects
interaction
target object
Prior art date
Application number
KR1020220030835A
Other languages
Korean (ko)
Inventor
박현정
배정인
Original Assignee
주식회사 블루캡슐
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 블루캡슐 filed Critical 주식회사 블루캡슐
Priority to KR1020220030835A priority Critical patent/KR20230133624A/en
Publication of KR20230133624A publication Critical patent/KR20230133624A/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Databases & Information Systems (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

본 발명은 VR장치가 현실 공간과 동기화된 가상 공간에 구비된 오브젝트와 인터렉션할 수 있는 방법에 관한 것이다. 본 발명의 일 실시예에 따른 가상 공간에서 VR장치와 오브젝트 간의 인터렉션 방법은 현실 공간과 동기화된 가상 공간과 상기 가상 공간 내 복수의 오브젝트를 VR장치에 출력하는 단계, 상기 VR장치의 위치정보에 기초하여 상기 복수의 오브젝트 중 대상 오브젝트를 결정하는 단계 및 상기 VR장치로부터 요청신호가 수신되면 상기 대상 오브젝트에 대응하는 인터렉션 이벤트를 상기 VR장치에 출력하는 단계를 포함한다.The present invention relates to a method by which a VR device can interact with objects provided in a virtual space synchronized with the real space. A method of interaction between a VR device and an object in a virtual space according to an embodiment of the present invention includes outputting a virtual space synchronized with a real space and a plurality of objects in the virtual space to a VR device, based on location information of the VR device. It includes determining a target object among the plurality of objects and, when a request signal is received from the VR device, outputting an interaction event corresponding to the target object to the VR device.

Description

가상 공간에서 VR장치와 오브젝트가 인터렉션하는 방법{METHOD FOR INTERACTION BETWEEN VR DEVICE AND OBJECT IN VIRTUAL REALITY}How VR devices and objects interact in virtual space {METHOD FOR INTERACTION BETWEEN VR DEVICE AND OBJECT IN VIRTUAL REALITY}

본 발명은 VR장치가 현실 공간과 동기화된 가상 공간에 구비된 오브젝트와 인터렉션하는 방법에 관한 것이다.The present invention relates to a method for a VR device to interact with objects provided in a virtual space synchronized with the real space.

가상현실(Virtual Reality)은 컴퓨터로 만들어 놓은 가상의 세계에서 사람이 실제와 같은 체험을 할 수 있도록 하는 기술이다.Virtual Reality is a technology that allows people to have a realistic experience in a virtual world created by a computer.

가상현실(VR: virtual reality)과 현실 세계에 가상정보를 더해 보여주는 기술인 증강현실(AR: augmented reality)을 혼합한 기술은 혼합현실(MR: mixed reality)이라고 한다. VR과 AR, MR은 모두 실제로 존재하지 않는 현실을 구현해 사람이 이를 인지할 수 있도록 하는 기술이라는 점에서 공통점이 있다. 다만 AR은 실제 현실에 가상의 정보를 더해 보여 주는 방식이고, VR은 모두 허구의 상황이 제시된다는 점에서 차이가 있다. Technology that combines virtual reality (VR) and augmented reality (AR), a technology that adds virtual information to the real world, is called mixed reality (MR). VR, AR, and MR all have something in common in that they are technologies that create a reality that does not actually exist and allow people to perceive it. However, AR is a method of adding virtual information to actual reality, and VR is different in that both present fictional situations.

최근, VR을 활용하여 산업현장, 사전실습 및 전시회장을 가상으로 경험할 수 있는 기술이 발달하고 있다. Recently, technology has been developed that allows users to virtually experience industrial sites, preliminary training, and exhibition halls using VR.

일 예로 산업현장에서 실제 작업 환경과 동일한 가상의 환경을 조성하고, 조성된 가상의 환경에서 발생된 문제점들로 인해 발생하는 안전사고를 최소화하며 작업자가 훈련을 수행할 수 있도록 하는 가상현실 기반 훈련 시뮬레이터들이 개발되고 있다.For example, a virtual reality-based training simulator that creates a virtual environment identical to the actual work environment at an industrial site, minimizes safety accidents that occur due to problems arising in the created virtual environment, and allows workers to perform training. are being developed.

그러나 기존 산업현장에서의 VR 기술은 사용자가 미리 정해진 단일 시나리오의 VR 컨텐츠를 단순 체험하는데 그쳐 산업현장에서의 다양한 상황 및 특성을 반영하는 데 한계가 있으며, 동시에 복수의 사용자가 협동하여 가상 상황을 체험할 수 없다는 문제점이 있다.However, existing VR technology in industrial sites only allows users to simply experience VR content in a single, predetermined scenario, and has limitations in reflecting various situations and characteristics in industrial sites. At the same time, multiple users cooperate to experience virtual situations. There is a problem that it cannot be done.

대한민국 공개특허공보 제10-2020-0114856호Republic of Korea Patent Publication No. 10-2020-0114856

본 발명은 VR장치를 착용한 사용자가 가상 공간에 구비된 다양한 오브젝트와 인터렉션할 수 있도록 하는 것을 목적으로 한다.The purpose of the present invention is to enable a user wearing a VR device to interact with various objects provided in a virtual space.

또한, 본 발명은 복수의 사용자가 하나의 오브젝트와 동시에 인터렉션할 수 있도록 하는 것을 목적으로 한다.Additionally, the purpose of the present invention is to allow multiple users to interact with one object simultaneously.

본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.The objects of the present invention are not limited to the objects mentioned above, and other objects and advantages of the present invention that are not mentioned can be understood by the following description and will be more clearly understood by the examples of the present invention. Additionally, it will be readily apparent that the objects and advantages of the present invention can be realized by the means and combinations thereof indicated in the patent claims.

전술한 목적을 달성하기 위한 본 발명의 일 실시예에 따른 가상 공간에서 VR장치와 오브젝트 간의 인터렉션 방법은 현실 공간과 동기화된 가상 공간과 상기 가상 공간 내 복수의 오브젝트를 VR장치에 출력하는 단계, 상기 VR장치의 위치정보에 기초하여 상기 복수의 오브젝트 중 대상 오브젝트를 결정하는 단계 및 상기 VR장치로부터 요청신호가 수신되면 상기 대상 오브젝트에 대응하는 인터렉션 이벤트를 상기 VR장치에 출력하는 단계를 포함하는 것을 특징으로 한다.An interaction method between a VR device and an object in a virtual space according to an embodiment of the present invention for achieving the above-described object includes outputting a virtual space synchronized with a real space and a plurality of objects in the virtual space to the VR device, It includes determining a target object among the plurality of objects based on the location information of the VR device, and outputting an interaction event corresponding to the target object to the VR device when a request signal is received from the VR device. Do it as

본 발명의 다른 실시예에 따른 가상 공간에서 VR장치와 오브젝트 간의 인터렉션 방법은 제1 및 제2 VR장치를 포함하는 가상 공간 스트리밍 시스템에 있어서, 현실 공간과 동기화된 가상 공간과 상기 가상 공간 내 복수의 오브젝트를 상기 제1 및 제2 VR장치에 출력하는 단계, 상기 제1 및 제2 VR장치의 위치정보에 기초하여 상기 복수의 오브젝트 중 대상 오브젝트를 결정하는 단계, 상기 제1 VR장치로부터 요청신호가 수신되면 상기 대상 오브젝트에 대응하는 인터렉션 이벤트를 상기 제1 및 제2 VR장치에 출력하고, 상기 제1 및 제2 VR장치 중 적어도 하나에 제어권한을 부여하는 단계 및 상기 제어권한이 부여된 VR장치로부터 제어신호가 수신되면 상기 제어신호에 따라 상기 인터렉션 이벤트를 제어하는 단계를 포함하는 것을 특징으로 한다.A method of interaction between a VR device and an object in a virtual space according to another embodiment of the present invention includes a virtual space synchronized with a real space and a plurality of objects within the virtual space in a virtual space streaming system including a first and a second VR device. Outputting an object to the first and second VR devices, determining a target object among the plurality of objects based on the location information of the first and second VR devices, receiving a request signal from the first VR device When received, outputting an interaction event corresponding to the target object to the first and second VR devices, granting control authority to at least one of the first and second VR devices, and the VR device to which the control authority has been granted. When a control signal is received from, controlling the interaction event according to the control signal.

본 발명에 따르면 VR장치를 착용한 사용자가 가상 공간에 구비된 다양한 오브젝트와 인터렉션할 수 있도록 함으로써, 사용자에게 다양한 체험을 제공하여 흥미를 유발시킬 수 있는 효과가 있다.According to the present invention, by allowing a user wearing a VR device to interact with various objects provided in a virtual space, there is an effect of arousing interest by providing a variety of experiences to the user.

본 발명에 의하면 복수의 사용자가 하나의 오브젝트와 동시에 인터렉션할 수 있도록 함으로써, 사용자 간의 협동심을 키울 수 있는 효과가 있다.According to the present invention, there is an effect of fostering cooperation between users by allowing multiple users to interact with one object at the same time.

상술한 효과와 더불어 본 발명의 구체적인 효과는 이하 발명을 실시하기 위한 구체적인 사항을 설명하면서 함께 기술한다.In addition to the above-described effects, specific effects of the present invention are described below while explaining specific details for carrying out the invention.

도 1은 본 발명의 일 실시예에 따른 인터렉션 시스템을 도시한 도면.
도 2는 본 발명의 일 실시예에 따른 가상 공간에서 VR장치와 오브젝트 간의 인터렉션 방법을 도시한 순서도.
도 3은 현실 공간과 동기화된 가상 공간을 예시적으로 도시한 도면.
도 4는 VR장치에서 출력되는 가상 공간을 예시적으로 도시한 도면.
도 5는 본 발명의 다른 실시예에 따른 가상 공간에서 VR장치와 오브젝트 간의 인터렉션 방법을 도시한 순서도.
도 6은 복수개의 VR장치를 통해 각 사용자가 대상 오브젝트에 대한 인터렉션을 수행하는 모습을 도시한 도면.
1 is a diagram illustrating an interaction system according to an embodiment of the present invention.
Figure 2 is a flowchart showing an interaction method between a VR device and an object in a virtual space according to an embodiment of the present invention.
Figure 3 is a diagram illustrating an example of a virtual space synchronized with a real space.
Figure 4 is a diagram illustrating an example of a virtual space output from a VR device.
Figure 5 is a flowchart showing an interaction method between a VR device and an object in a virtual space according to another embodiment of the present invention.
Figure 6 is a diagram showing each user interacting with a target object through a plurality of VR devices.

전술한 목적, 특징 및 장점은 첨부된 도면을 참조하여 상세하게 후술되며, 이에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 상세한 설명을 생략한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하기로 한다. 도면에서 동일한 참조부호는 동일 또는 유사한 구성요소를 가리키는 것으로 사용된다.The above-mentioned objects, features, and advantages will be described in detail later with reference to the attached drawings, so that those skilled in the art will be able to easily implement the technical idea of the present invention. In describing the present invention, if it is determined that a detailed description of known technologies related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description will be omitted. Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the attached drawings. In the drawings, identical reference numerals are used to indicate identical or similar components.

본 명세서에서 제1, 제2 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것으로, 특별히 반대되는 기재가 없는 한, 제1 구성요소는 제2 구성요소일 수도 있음은 물론이다.In this specification, first, second, etc. are used to describe various components, but of course, these components are not limited by these terms. These terms are only used to distinguish one component from another component, and unless specifically stated to the contrary, the first component may also be a second component.

또한, 본 명세서에서 어떤 구성요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 상기 구성요소들은 서로 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성요소 사이에 다른 구성요소가 "개재"되거나, 각 구성요소가 다른 구성요소를 통해 "연결", "결합" 또는 "접속"될 수도 있는 것으로 이해되어야 할 것이다.Additionally, in this specification, when a component is described as being “connected,” “coupled,” or “connected” to another component, the components may be directly connected or connected to each other, but there are other components between each component. It should be understood that elements may be “interposed,” or each component may be “connected,” “combined,” or “connected” through other components.

또한, 본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "구성된다" 또는 "포함한다" 등의 용어는 명세서 상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.Additionally, as used herein, singular expressions include plural expressions, unless the context clearly dictates otherwise. In the present application, terms such as “consists of” or “comprises” should not be construed as necessarily including all of the various components or steps described in the specification, and some of the components or steps may include It may not be included, or it should be interpreted as including additional components or steps.

또한, 본 명세서에서, "A 및/또는 B" 라고 할 때, 이는 특별한 반대되는 기재가 없는 한, A, B 또는 A 및 B 를 의미하며, "C 내지 D" 라고 할 때, 이는 특별한 반대되는 기재가 없는 한, C 이상이고 D 이하인 것을 의미한다In addition, in this specification, when referring to "A and/or B", this means A, B or A and B, unless otherwise specified, and when referring to "C to D", this means unless specifically stated to the contrary. Unless otherwise stated, it means C or higher and D or lower.

본 발명은 VR장치가 현실 공간과 동기화된 가상 공간에 구비된 오브젝트와 인터렉션할 수 있는 시스템 및 방법에 관한 것이다.The present invention relates to a system and method that allows a VR device to interact with objects provided in a virtual space synchronized with the real space.

이하 도 1 내지 도 4를 참조하여 일 실시예에 따른 가상 공간에서 VR장치와 오브젝트 간의 인터렉션 방법을 구체적으로 설명하도록 한다.Hereinafter, a method of interacting between a VR device and an object in a virtual space according to an embodiment will be described in detail with reference to FIGS. 1 to 4.

도 1은 본 발명의 일 실시예에 따른 인터렉션 시스템을 도시한 도면이고, 도 2는 본 발명의 일 실시예에 따른 가상 공간에서 VR장치와 오브젝트 간의 인터렉션 방법을 도시한 순서도이다.FIG. 1 is a diagram showing an interaction system according to an embodiment of the present invention, and FIG. 2 is a flowchart showing an interaction method between a VR device and an object in a virtual space according to an embodiment of the present invention.

도 3은 현실 공간과 동기화된 가상 공간을 예시적으로 도시한 도면이고, 도 4는 VR장치에서 출력되는 가상 공간을 예시적으로 도시한 도면이다.FIG. 3 is a diagram illustrating a virtual space synchronized with a real space, and FIG. 4 is a diagram illustrating an exemplary virtual space output from a VR device.

도 1을 참조하면 본 발명의 일 실시예에 따른 인터렉션 시스템(10)은 서버(100) 및 VR장치(200)를 포함할 수 있다. 서버(100)는 VR장치(200)로부터 위치정보 및 요청신호를 수신받고 이를 기초로 인터렉션 이벤트를 다시 VR장치(200)로 출력할 수 있다. 한편, VR장치(200)는 사용자가 안면에 착용하며, 서버(100)에서 출력하는 가상 공간 및 오브젝트를 사용자가 시야로 볼 수 있도록 할 수 있다.Referring to FIG. 1, the interaction system 10 according to an embodiment of the present invention may include a server 100 and a VR device 200. The server 100 may receive location information and a request signal from the VR device 200 and output an interaction event back to the VR device 200 based on this. Meanwhile, the VR device 200 can be worn on the user's face and allow the user to view the virtual space and objects output from the server 100.

도 2를 참조하면, 본 발명의 일 실시예에 따른 가상 공간에서 VR장치(200)와 오브젝트 간의 인터렉션 방법은 현실 공간과 동기화된 가상 공간과 가상 공간 내 복수의 오브젝트를 VR장치(200)에 출력하는 단계(S100), VR장치(200)의 위치정보에 기초하여 상기 복수의 오브젝트 중 대상 오브젝트를 결정하는 단계(S200) 및 VR장치(200)로부터 요청신호가 수신되면 대상 오브젝트에 대응하는 인터렉션 이벤트를 VR장치(200)에 출력하는 단계(S300)를 포함할 수 있다.Referring to FIG. 2, the interaction method between the VR device 200 and objects in a virtual space according to an embodiment of the present invention outputs a virtual space synchronized with the real space and a plurality of objects in the virtual space to the VR device 200. A step (S100), a step of determining a target object among the plurality of objects based on the location information of the VR device 200 (S200), and when a request signal is received from the VR device 200, an interaction event corresponding to the target object It may include a step (S300) of outputting to the VR device 200.

도 2에 도시된 각 단계들은 도 1에 도시된 서버에 의해 수행될 수 있으며, 서버(100)는 후술하는 동작을 수행하기 위하여 ASICs(application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 제어기(controller), 프로세서(processor), 마이크로 프로세서(microprocessor), 마이크로 컨트롤러(micro-controllers) 중 적어도 하나의 물리적인 요소를 포함할 수 있다.Each step shown in FIG. 2 can be performed by the server shown in FIG. 1, and the server 100 uses application specific integrated circuits (ASICs), digital signal processors (DSPs), and DSPDs (ASICs) to perform operations described later. At least one physical device among digital signal processing devices (PLDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), controllers, processors, microprocessors, and micro-controllers. May contain elements.

다만, 도 2에 도시된 가상 공간에서 VR장치(200)와 오브젝트 간의 인터렉션 방법은 일 실시예에 따른 것이고, 발명을 이루는 단계들이 도 2에 도시된 실시예에 한정되는 것은 아니며, 필요에 따라 일부 단계가 부가, 변경 또는 삭제될 수 있다. However, the method of interaction between the VR device 200 and objects in the virtual space shown in FIG. 2 is according to one embodiment, and the steps forming the invention are not limited to the embodiment shown in FIG. 2, and some may be used as necessary. Steps may be added, changed, or deleted.

도 3을 참조하면 서버(100)는 현실 공간과 동기화된 가상 공간과 상기 가상 공간 내 복수의 오브젝트를 VR장치(200)에 출력할 수 있다(S100). 도 3의 (a)은 현실 공간이며, 도 3의 (b)는 현실 공간에 동기화된 가상 공간이라고 할 때, 서버(100)는 도 3(a)와 같이 구성된 현실 공간의 구조를 도 3(b)와 같이 가상 공간에 동기화하여 사용자가 착용한 VR장치(200)에 출력할 수 있다. 즉, 현실 공간과 가상 공간은 동일한 면적과 구조를 가질 수 있다.Referring to FIG. 3, the server 100 can output a virtual space synchronized with the real space and a plurality of objects within the virtual space to the VR device 200 (S100). Assuming that (a) in FIG. 3 is a real space and (b) in FIG. 3 is a virtual space synchronized with the real space, the server 100 configures the structure of the real space as shown in FIG. 3 (a) in FIG. 3 ( As shown in b), it can be synchronized to the virtual space and output to the VR device 200 worn by the user. In other words, real space and virtual space can have the same area and structure.

다음으로 서버(100)는 가상 공간에 인터렉티브 가능한 복수의 오브젝트를 셋팅할 수 있다. 오브젝트는 사용자가 설정하는 가상 공간 컨셉에 따라 다양하게 구비될 수 있다. 일 예로 도 4에서 사용자가 가상 공간을 박물관이라고 설정하였을 때, 서버(100)는 오브젝트를 동상, 유물과 같은 전시품 등으로 셋팅할 수 있다. 이 외에도 가상 공간이 전시회, 교육환경과 같이 설정됨에 따라 서버(100)는 이에 알맞은 오브젝트를 다양하게 셋팅할 수 있다.Next, the server 100 can set a plurality of interactive objects in the virtual space. Objects can be provided in various ways depending on the virtual space concept set by the user. For example, in FIG. 4 , when the user sets the virtual space as a museum, the server 100 may set objects as exhibits such as statues and relics. In addition, as the virtual space is set up like an exhibition or educational environment, the server 100 can set various objects appropriate for it.

서버(100)는 VR장치(200)의 위치정보에 기초하여 복수의 오브젝트 중 대상 오브젝트를 결정할 수 있다(S200).The server 100 may determine a target object among a plurality of objects based on the location information of the VR device 200 (S200).

서버(100)는 VR장치(200)에 구비된 위치센서(미도시)로부터 사용자의 현재 위치, 이동방향 및 이동 속도를 수신하여 사용자의 위치정보를 파악할 수 있다. 이어서, 서버(100)는 위치정보에 기초하여 복수의 오브젝트 중 VR장치(200)와 기 설정된 거리 내에 위치한 오브젝트를 식별하고, 상기 식별된 오브젝트를 대상 오브젝트로 결정할 수 있다. 예를 들어, 서버(100)는 VR장치(200)를 중심으로 기 설정된 반경(예컨대, 1m)이내에 위치한 오브젝트를 식별하고 이를 대상 오브젝트로 결정할 수 있다.The server 100 can determine the user's location information by receiving the user's current location, movement direction, and movement speed from a location sensor (not shown) provided in the VR device 200. Next, the server 100 may identify an object located within a preset distance from the VR device 200 among the plurality of objects based on the location information, and determine the identified object as the target object. For example, the server 100 may identify an object located within a preset radius (eg, 1 m) around the VR device 200 and determine it as the target object.

서버(100)가 복수개의 오브젝트 중 VR장치(200)와 인터렉티브할 수 있는 대상 오브젝트를 결정하는 방법의 다른 예로, 서버(100)는 먼저 가상 공간에 복수의 오브젝트에 각각 대응하는 지정범위를 설정할 수 있다. 이후 VR장치(200)의 위치정보가 지정범위 이내이면 지정범위에 대응하는 오브젝트를 대상 오브젝트로 결정할 수 있다. As another example of a method for the server 100 to determine a target object that can interact with the VR device 200 among a plurality of objects, the server 100 may first set a designated range corresponding to each of the plurality of objects in the virtual space. there is. Afterwards, if the location information of the VR device 200 is within the designated range, the object corresponding to the designated range can be determined as the target object.

도 4를 예로 들어 설명하면, 서버(100)는 복수의 오브젝트 각각에 지정범위(예컨대, 근방 1m 또는 지정위치)를 미리 설정할 수 있다. 이후, VR장치(200)의 위치정보가 오브젝트(A)에 대응하는 지정범위(Ar)에서 인식되면 서버(100)는 해당 오브젝트(A)를 대상 오브젝트로 결정할 수 있다.4 as an example, the server 100 may preset a designated range (eg, 1 m nearby or a designated location) for each of the plurality of objects. Thereafter, when the location information of the VR device 200 is recognized in the designated range (Ar) corresponding to the object (A), the server 100 may determine the object (A) as the target object.

다음으로 서버(100)는 VR장치(200)로부터 요청신호가 수신되면 대상 오브젝트에 대응하는 인터렉션 이벤트를 VR장치(200)에 출력할 수 있다(S300).Next, when a request signal is received from the VR device 200, the server 100 may output an interaction event corresponding to the target object to the VR device 200 (S300).

일 예로, 요청신호는 VR장치(200)에 대상 오브젝트가 기 설정된 시간이상으로 출력되었을 때 생성될 수 있다. 예를 들어, 박물관으로 설정된 가상 공간에서 사용자가 VR장치(200)를 착용하고 오브젝트(A)를 기 설정된 시간(예컨대, 10초) 이상 응시하였을 때 오브젝트(A)에 대한 요청신호가 생성될 수 있다.As an example, a request signal may be generated when a target object is output to the VR device 200 for more than a preset time. For example, in a virtual space set as a museum, when a user wears the VR device 200 and gazes at the object A for more than a preset time (e.g., 10 seconds), a request signal for the object A may be generated. there is.

다른 예로, 요청신호는 VR장치(200)를 착용한 사용자가 컨트롤러로 대상 오브젝트를 선택하였을 때 생성될 수 있다. 예를 들어, 박물관으로 설정된 가상 공간에서 사용자가 VR장치(200)를 착용하고, VR장치(200)와 연동된 컨트롤러로 대상 오브젝트를 선택하였을 때 오브젝트(A)에 대한 요청신호가 생성될 수 있다. 이때 컨트롤러는 조이스틱 형태가 될 수 있으며, VR장치(200)를 착용한 사용자의 시야에 커서, 포인트 등과 같은 선택기호로 출력될 수 있다.As another example, a request signal may be generated when a user wearing the VR device 200 selects a target object with a controller. For example, when a user wears the VR device 200 in a virtual space set as a museum and selects a target object with a controller linked to the VR device 200, a request signal for the object (A) may be generated. . At this time, the controller may be in the form of a joystick, and may be output as selection symbols such as a cursor or point in the field of view of the user wearing the VR device 200.

또 다른 예로, 요청신호는 VR장치(200)의 위치와 대상 오브젝트의 위치가 기 설정된 시간 동안 기 설정된 거리 이내일 때 생성될 수 있다. 예를 들어, 박물관으로 설정된 가상 공간에서 사용자가 VR장치(200)를 착용하고 오브젝트(A)의 기 설정된 거리(예컨대, 1m)이내에서 기 설정된 시간(예컨대, 5초)동안 머물렀을 때 오브젝트(A)에 대한 요청신호가 생성될 수 있다.As another example, the request signal may be generated when the location of the VR device 200 and the location of the target object are within a preset distance for a preset time. For example, in a virtual space set as a museum, when the user wears the VR device 200 and stays within a preset distance (e.g., 1 m) of the object (A) for a preset time (e.g., 5 seconds), the object (A) ) A request signal can be generated.

전술한 방법에 따라 VR장치(200)에서 요청신호가 생성되면, 서버는 VR장치(200)로부터 요청신호를 수신할 수 있고, 대상 오브젝트에 대응하는 인터렉션 이벤트를 VR장치(200)에 출력할 수 있다.When a request signal is generated in the VR device 200 according to the above-described method, the server can receive the request signal from the VR device 200 and output an interaction event corresponding to the target object to the VR device 200. there is.

서버(100)는 대상 오브젝트에 대응하는 인터렉션 이벤트를 VR장치(200)에 출력할 때, 기저장된 상기 대상 오브젝트에 대한 정보를 음향, 영상 중 적어도 하나로 출력할 수 있다. When outputting an interaction event corresponding to a target object to the VR device 200, the server 100 may output pre-stored information about the target object as at least one of sound and video.

구체적으로, 서버에는 오브젝트 각각에 대응하는 인터렉션 이벤트가 음향, 영상 중 적어도 하나의 형태로 기 저장될 수 있다. 예를 들면, 오브젝트(A)에 대한 인터렉션 이벤트는 오브젝트(A)에 대한 설명일 수 있고, 해당 설명은 음향 또는 영상의 형태로 서버에 기 저장될 수 있다. 이에 따라, VR장치(200)로부터 요청신호가 수신되면 서버는 VR장치(200)에 대상 오브젝트에 대한 설명을 음향 또는 영상으로 출력할 수 있다.Specifically, interaction events corresponding to each object may be previously stored in the server in the form of at least one of sound and video. For example, an interaction event for the object A may be a description of the object A, and the description may be previously stored on the server in the form of sound or video. Accordingly, when a request signal is received from the VR device 200, the server can output a description of the target object in audio or video to the VR device 200.

다음으로 도 4 내지 도 6을 참조하여 본 발명의 다른 실시예에 따른 가상 공간에서 VR장치와 오브젝트 간의 인터렉션 방법을 구체적으로 설명하도록 한다.Next, with reference to FIGS. 4 to 6, an interaction method between a VR device and an object in a virtual space according to another embodiment of the present invention will be described in detail.

도 5는 본 발명의 다른 실시예에 따른 가상 공간에서 VR장치와 오브젝트 간의 인터렉션 방법을 도시한 순서도이다. 또한, 도 6은 복수개의 VR장치(200)를 통해 각 사용자가 대상 오브젝트에 대한 인터렉션을 수행하는 모습을 도시한 도면이다.Figure 5 is a flowchart showing an interaction method between a VR device and an object in a virtual space according to another embodiment of the present invention. Additionally, FIG. 6 is a diagram showing each user interacting with a target object through a plurality of VR devices 200.

도 5를 참조하면, 가상 공간에서 VR장치와 오브젝트 간의 인터렉션 방법은 제1 및 제2 VR장치를 포함하는 가상 공간 스트리밍 시스템(10)에 있어서, 현실 공간과 동기화된 가상 공간과 가상 공간 내 복수의 오브젝트를 제1 및 제2 VR장치에 출력하는 단계(S400), 제1 및 제2 VR장치의 위치정보에 기초하여 복수의 오브젝트 중 대상 오브젝트를 결정하는 단계(S500), 제1 VR장치로부터 요청신호가 수신되면 대상 오브젝트에 대응하는 인터렉션 이벤트를 제1 및 제2 VR장치에 출력하고, 제1 및 제2 VR장치 중 적어도 하나에 제어권한을 부여하는 단계(S600) 및 제어권한이 부여된 VR장치로부터 제어신호가 수신되면 제어신호에 따라 상기 인터렉션 이벤트를 제어하는 단계(S700)를 포함할 수 있다.Referring to FIG. 5, the method of interaction between a VR device and an object in a virtual space includes a virtual space synchronized with the real space and a plurality of objects within the virtual space in the virtual space streaming system 10 including the first and second VR devices. Outputting an object to the first and second VR devices (S400), determining a target object among a plurality of objects based on the location information of the first and second VR devices (S500), request from the first VR device When a signal is received, outputting an interaction event corresponding to the target object to the first and second VR devices, granting control authority to at least one of the first and second VR devices (S600), and VR to which control authority has been granted When a control signal is received from the device, it may include controlling the interaction event according to the control signal (S700).

다만 도 5에 도시된 가상 공간에서 VR장치와 오브젝트 간의 인터렉션 방법은 일 실시예에 따른 것이고, 발명을 이루는 단계들이 도 5에 도시된 실시예에 한정되는 것은 아니며, 필요에 따라 일부 단계가 부가, 변경 또는 삭제될 수 있다.However, the method of interaction between a VR device and an object in the virtual space shown in FIG. 5 is according to one embodiment, and the steps forming the invention are not limited to the embodiment shown in FIG. 5, and some steps are added as needed. It may be changed or deleted.

앞서 도시된 도면에서와 동일한 기능을 하는 요소는 동일 참조부호를 표기하며, 이하에서 설명되지 않는 구성요소의 동작은 일 실시예에서 전술한 동작과 동일한 것으로 이해되어야 한다. 한편, 도 5에 도시된 각 단계들은 도 1에 도시된 단계들과 마찬가지로 서버(100)에 의해 수행될 수 있다.Elements that perform the same functions as in the previously shown drawings are denoted by the same reference numerals, and operations of components not described below should be understood as the same as the operations described above in one embodiment. Meanwhile, each step shown in FIG. 5 can be performed by the server 100 like the steps shown in FIG. 1.

이하, 도 5에 도시된 각 단계를 설명하도록 한다. 제1 및 제2 VR장치를 포함하는 가상 공간 스트리밍 시스템(10)에 있어서, 현실 공간과 동기화된 가상 공간과 상기 가상 공간 내 복수의 오브젝트를 상기 제1 및 제2 VR장치에 출력할 수 있다(S400). 즉, 가상 공간 내에서 VR장치를 각각 착용한 복수의 사용자가 동시에 존재할 수 있다. Hereinafter, each step shown in FIG. 5 will be described. In the virtual space streaming system 10 including the first and second VR devices, a virtual space synchronized with the real space and a plurality of objects in the virtual space can be output to the first and second VR devices ( S400). In other words, multiple users, each wearing a VR device, can exist simultaneously within the virtual space.

서버(100)는 현실 공간과 상기 가상 공간의 구조를 동기화하고, 가상 공간에 인터렉티브 가능한 복수의 오브젝트를 셋팅할 수 있다.The server 100 can synchronize the structure of the real space and the virtual space and set a plurality of interactive objects in the virtual space.

서버(100)는 제1 및 제2 VR장치의 위치정보에 기초하여 복수의 오브젝트 중 대상 오브젝트를 결정할 수 있다(S500). 더 자세히 말하자면, 먼저 서버(100)는 제1 및 제2 VR장치에 구비된 위치센서로부터 각각의 위치정보를 수신할 수 있다. 이후 서버(100)는 위치정보에 기초하여 상기 제1 및 제2 VR장치 모두와 기 설정된 거리 내에 위치한 오브젝트를 식별하고, 식별된 오브젝트를 대상 오브젝트로 결정할 수 있다.The server 100 may determine a target object among a plurality of objects based on the location information of the first and second VR devices (S500). To be more specific, the server 100 may receive each location information from the location sensors provided in the first and second VR devices. Thereafter, the server 100 may identify objects located within a preset distance from both the first and second VR devices based on the location information, and determine the identified objects as target objects.

한편, 가상 공간에는 복수의 오브젝트에 각각 대응하는 두 지정범위가 미리 설정될 수 있다. 이 때, 서버(100)는 제1 VR장치의 위치정보가 두 지정범위 중 어느 하나 이내이고, 제2 VR장치의 위치정보가 두 지정범위 중 나머지 하나 이내이면, 두 지정범위에 대응하는 오브젝트를 대상 오브젝트로 결정할 수 있다.Meanwhile, two designated ranges corresponding to a plurality of objects may be set in advance in the virtual space. At this time, if the location information of the first VR device is within one of the two designated ranges and the location information of the second VR device is within the other one of the two designated ranges, the server 100 creates objects corresponding to the two designated ranges. It can be determined by the target object.

다시 도 4를 참조하여 설명하면, 오브젝트(B)에 대응하는 두 지정범위는 각각 Br1, Br2일 수 있다. 이 때, 제1 VR장치의 위치정보는 Br1 이내일 수 있고, 제2 VR장치의 위치정보는 Br2 이내일 수 있다. 이 경우, 서버(100)는 오브젝트(B)를 대상 오브젝트로 결정할 수 있다.Referring again to FIG. 4, the two designated ranges corresponding to the object B may be Br1 and Br2, respectively. At this time, the location information of the first VR device may be within Br1, and the location information of the second VR device may be within Br2. In this case, the server 100 may determine object B as the target object.

서버(100)는 제1 VR장치로부터 요청신호가 수신되면 상기 대상 오브젝트에 대응하는 인터렉션 이벤트를 제1 및 제2 VR장치에 출력하고, 제1 및 제2 VR장치 중 적어도 하나에 제어권한을 부여할 수 있다(S600).When a request signal is received from the first VR device, the server 100 outputs an interaction event corresponding to the target object to the first and second VR devices, and grants control authority to at least one of the first and second VR devices. You can do it (S600).

일 예로 제1 및 제2 VR장치에서 요청신호는 대상 오브젝트가 기 설정된 시간이상으로 출력되었을 때 생성될 수 있다. 예를 들어, 실습현장으로 설정된 가상 공간에서 두 사용자가 제1 및 제2 VR 장치를 각각 착용하고 대상 오브젝트를 기 설정된 시간(예컨대 5초)이상 동시에 응시하였을 때 오브젝트에 대한 요청신호가 생성될 수 있다.For example, in the first and second VR devices, a request signal may be generated when the target object is output for more than a preset time. For example, in a virtual space set as a practice site, when two users wear the first and second VR devices respectively and gaze at the target object simultaneously for more than a preset time (e.g. 5 seconds), a request signal for the object may be generated. there is.

다른 예로 제1 및 제2 VR장치에서 요청신호는 제1 및 제2 VR장치를 착용한 제1 사용자 및/또는 제2 사용자가 컨트롤러로 상기 대상 오브젝트를 선택하였을 때 생성될 수 있다. 예를 들어, 실습현장으로 설정된 가상 공간에서 제1 및 제2 VR장치를 착용한 두 사용자 중 한 명 이상의 사용자가 제1 및 제2 VR장치와 각각 연동된 컨트롤러로 대상 오브젝트를 선택하였을 때 오브젝트에 대한 요청신호가 생성될 수 있다.As another example, in the first and second VR devices, a request signal may be generated when the first user and/or the second user wearing the first and second VR devices select the target object with a controller. For example, when one or more of the two users wearing the first and second VR devices in a virtual space set as a practice site selects a target object with a controller linked to the first and second VR devices, respectively, the object A request signal may be generated.

또 다른 예로 제1 및 제2 VR장치에서 요청신호는 제1 및 제2 VR장치의 위치와 대상 오브젝트의 위치가 기 설정된 시간 동안 기 설정된 거리 이내일 때 생성될 수 있다. 예를 들어, 실습현장으로 설정된 가상 공간에서 두 사용자가 제1 및 제2 VR 장치를 각각 착용하고 대상 오브젝트로부터 기 설정된 거리(예컨대, 1m)이내에서 기 설정된 시간(예컨대, 5초)동안 머물렀을 때 오브젝트에 대한 요청신호가 생성될 수 있다.As another example, a request signal may be generated in the first and second VR devices when the positions of the first and second VR devices and the position of the target object are within a preset distance for a preset time. For example, in a virtual space set as a practice site, when two users wear the first and second VR devices respectively and stay within a preset distance (e.g., 1 m) from the target object for a preset time (e.g., 5 seconds) A request signal for an object may be generated.

전술한 방법에 따라 제1 및/또는 제2 VR장치에서 요청신호가 생성되면, 서버(100)는 제1 및/또는 제2 VR장치로부터 요청신호를 수신할 수 있고, 대상 오브젝트에 대응하는 인터렉션 이벤트를 제1 및 제2 VR장치 모두에 출력할 수 있다.When a request signal is generated from the first and/or second VR device according to the above-described method, the server 100 may receive the request signal from the first and/or second VR device and create an interaction corresponding to the target object. Events can be output to both the first and second VR devices.

서버(100)는 대상 오브젝트에 대응하는 인터렉션 이벤트를 VR장치에 출력할 때, 기저장된 상기 대상 오브젝트에 대한 정보를 음향, 영상 중 적어도 하나로 출력할 수 있다.When outputting an interaction event corresponding to a target object to a VR device, the server 100 may output pre-stored information about the target object as at least one of sound and video.

추가적으로, 서버(100)는 제1 및 제2 VR장치 중 적어도 하나에 요청신호 제어권한을 부여할 수 있고, 제어권한이 부여된 VR장치로부터 제어신호가 수신되면 제어신호에 따라 인터렉션 이벤트를 제어할 수 있다(S700). 이하에서는 설명의 편의를 위하여 제2 VR장치가 복수 개인 것으로 가정하도록 한다.Additionally, the server 100 may grant request signal control authority to at least one of the first and second VR devices, and when a control signal is received from a VR device to which control authority has been granted, the server 100 may control the interaction event according to the control signal. (S700). Hereinafter, for convenience of explanation, it is assumed that there are multiple second VR devices.

도 6을 참조하면 서버(100)는 제1 VR 장치(T)에 제어권한을 부여하고, 제2 VR 장치(S1~S4)에는 비제어권한을 부여할 수 있다. 제1 VR장치(T)를 교육자, 제2 내지 제5 VR장치(S1~S4)를 수강생이라고 가정하도록 한다. 서버(100)가 제1 VR장치(T)에 오브젝트(O)에 대한 제어권한을 부여하였을 때, 교육자인 제1 VR장치(T)만이 인터렉션 이벤트를 제어할 수 있고, 수강생인 제2 내지 제5 VR장치(S1~S4)는 인터렉션 이벤트의 제어가 불가능할 수 있다.Referring to FIG. 6, the server 100 may grant control rights to the first VR device (T) and non-control rights to the second VR devices (S1 to S4). Let us assume that the first VR device (T) is an educator and the second to fifth VR devices (S1 to S4) are students. When the server 100 grants control rights to the object O to the first VR device T, only the first VR device T, which is an educator, can control the interaction event, and the second to third VR devices, which are students, can control the interaction event. 5 VR devices (S1~S4) may not be able to control interaction events.

구체적 예시에서, 개구리 해부 실습을 위한 가상 환경에서 교육자만이 제1 VR장치(T)를 통해 제어신호를 서버(100)에 송신할 수 있고, 서버(100)는 제어신호에 따라 인터렉션 이벤트를 제어하여 개구리가 해부되는 모습을 제1 및 제2 VR장치(T, S1~S4)에 출력할 수 있다. 이 때, 제2 VR장치(S1~S4)에는 현재 제1 VR장치(T)에서 제어가 수행되고 있음을 알리는 신호가 출력될 수 있다.In a specific example, in a virtual environment for frog dissection practice, only an educator can transmit a control signal to the server 100 through the first VR device (T), and the server 100 controls the interaction event according to the control signal. Thus, the image of the frog being dissected can be output to the first and second VR devices (T, S1 to S4). At this time, a signal indicating that control is currently being performed in the first VR device (T) may be output to the second VR devices (S1 to S4).

한편, 서버(100)는 제1 VR장치(T)로부터 상기 제2 VR(S1~S4)장치에 대한 권한요청신호가 수신되면 상기 제2 VR장치(S1~S4)에 제어권한을 부여할 수 있다. 예를 들어, 교육자가 제1 VR장치(T)를 통해 수강생인 제2 VR장치(S1~S4)에 대한 권한요청신호를 서버(100)로 송신하면, 서버(100)는 제2 VR장치(S1~S4)에도 제어권한을 부여할 수 있고, 이후 제2 VR장치(S1~S4)도 제어신호를 서버(100)에 송신할 수 있다.Meanwhile, the server 100 can grant control authority to the second VR devices (S1 to S4) when a permission request signal for the second VR devices (S1 to S4) is received from the first VR device (T). there is. For example, when the educator transmits an authority request signal for the second VR device (S1 to S4) of the student to the server 100 through the first VR device (T), the server 100 sends the second VR device ( Control authority can also be granted to S1 to S4), and then the second VR device (S1 to S4) can also transmit a control signal to the server 100.

구체적 예시에서, 교육자가 제1 VR장치(T)를 통해 제어신호를 서버(100)에 송신함으로써 개구리가 해부되는 과정이 제1 및 제2 VR장치(T, S1~S4)에 출력된 후, 수강생의 실습을 위해 교육자는 제2 VR장치(S1~S4)에 대한 권한요청신호를 서버(100)에 송신할 수 있다. 이에 따라 서버(100)는 제2 VR장치(S1~S4)에도 제어권한을 부여할 수 있으며, 비로소 수강생은 제2 VR장치(S1~S4)를 통해 인터렉션 이벤트를 제어할 수 있다.In a specific example, after the educator transmits a control signal to the server 100 through the first VR device (T), the process of dissecting the frog is output to the first and second VR devices (T, S1 to S4), For students' practice, the educator may transmit an authority request signal for the second VR devices (S1 to S4) to the server 100. Accordingly, the server 100 can also grant control authority to the second VR devices (S1 to S4), and finally the student can control the interaction event through the second VR devices (S1 to S4).

다른 예로, 제1 VR 장치(S1)로부터 제1 제어신호가 수신되고 상기 제2 VR 장치(S1~S4)로부터 제2 제어신호가 수신되면 상기 제1 및 제2 제어신호에 따라 상기 인터렉션 이벤트를 제어할 수 있다. 이때 제1 VR장치(S1)를 제1 수강생, 제2 VR장치(S2)를 제2 수강생이라고 가정하면, 제1 VR장치(S1)와 제2 VR장치(S2)가 모두 동일한 인터렉션 이벤트에 대한 제1 및 제2 제어신호를 송신한 경우에 한해 서버(100)는 인터렉션 이벤트를 제어할 수 있다.As another example, when a first control signal is received from the first VR device (S1) and a second control signal is received from the second VR devices (S1 to S4), the interaction event is performed according to the first and second control signals. You can control it. At this time, assuming that the first VR device (S1) is the first student and the second VR device (S2) is the second student, both the first VR device (S1) and the second VR device (S2) are involved in the same interaction event. The server 100 can control the interaction event only when the first and second control signals are transmitted.

예컨대, 개구리 해부를 위해 개구리 피부를 양쪽에서 잡아당겨야 하는 과제에서, 제1 수강생은 제1 VR장치(S1)를 통해 피부를 좌측으로 잡아당기기 위한 제1 제어신호를 송신할 수 있고, 제2 수강생은 제2 VR장치(S2)를 통해 피부를 우측으로 잡아당기기 위한 제2 제어신호를 송신할 수 있다. 서버(100)는 제1 및 제2 VR장치(S1, S2)로부터 각각 제1 및 제2 제어신호가 수신된 경우에 인터렉션 이벤트를 제어함으로써 개구리가 해부되는 모습을 제1 및 제2 VR장치(S1, S2)에 출력할 수 있다.For example, in a task where frog skin must be pulled from both sides to dissect a frog, the first student may transmit a first control signal to pull the skin to the left through the first VR device (S1), and the second student may transmit the first control signal to pull the skin to the left through the first VR device (S1). Can transmit a second control signal to pull the skin to the right through the second VR device (S2). The server 100 controls the interaction event when the first and second control signals are received from the first and second VR devices (S1, S2), respectively, to display the frog being dissected through the first and second VR devices (S1, S2). It can be output to S1, S2).

또 다른 예로, 제1 VR 장치(S1)로부터 제1 제어신호가 수신되고 있는 동안 제2 VR 장치(S2)로부터 제2 제어신호가 수신되면 상기 제1 및 제2 제어신호에 따라 인터렉션 이벤트를 제어할 수 있다.As another example, if a second control signal is received from the second VR device (S2) while the first control signal is being received from the first VR device (S1), the interaction event is controlled according to the first and second control signals. can do.

구체적으로, 제1 제어신호와 제2 제어신호는 연속적인 시간동안 송신되는 신호일 수 있고, 서버(100)는 어느 한 제어신호가 수신되는 중에 다른 한 제어신호가 수신되는 경우에 한해 인터렉션 이벤트를 제어할 수 있다. 전술한 예시에서, 제1 수강생이 제1 VR장치(S1)를 통해 피부를 좌측으로 잡아당기기 위한 제1 제어신호를 연속적인 시간동안 송신하고 있는 도중에, 제2 수강생이 제2 VR장치(S2)를 통해 피부를 우측으로 잡아당기기 위한 제2 신호를 송신하면, 서버(100)는 인터렉션 이벤트를 제어함으로써 개구리가 해부되는 모습을 제1 및 제2 VR장치(S1, S2)에 출력할 수 있다.Specifically, the first control signal and the second control signal may be signals transmitted over a continuous period of time, and the server 100 controls the interaction event only when one control signal is received while the other control signal is received. can do. In the above example, while the first student is transmitting a first control signal for pulling the skin to the left through the first VR device (S1) for a continuous period of time, the second student uses the second VR device (S2) When a second signal for pulling the skin to the right is transmitted, the server 100 can output an image of a frog being dissected to the first and second VR devices (S1 and S2) by controlling the interaction event.

이상과 같이 본 발명에 대해서 예시한 도면을 참조로 하여 설명하였으나, 본 명세서에 개시된 실시 예와 도면에 의해 본 발명이 한정되는 것은 아니며, 본 발명의 기술사상의 범위 내에서 통상의 기술자에 의해 다양한 변형이 이루어질 수 있음은 자명하다. 아울러 앞서 본 발명의 실시 예를 설명하면서 본 발명의 구성에 따른 작용 효과를 명시적으로 기재하여 설명하지 않았을 지라도, 해당 구성에 의해 예측 가능한 효과 또한 인정되어야 함은 당연하다.As described above, the present invention has been described with reference to the illustrative drawings, but the present invention is not limited to the embodiments and drawings disclosed herein, and various modifications may be made by those skilled in the art within the scope of the technical idea of the present invention. It is obvious that transformation can occur. In addition, although the operational effects according to the configuration of the present invention were not explicitly described and explained while explaining the embodiments of the present invention above, it is natural that the predictable effects due to the configuration should also be recognized.

Claims (19)

현실 공간과 동기화된 가상 공간과 상기 가상 공간 내 복수의 오브젝트를 VR장치에 출력하는 단계;
상기 VR장치의 위치정보에 기초하여 상기 복수의 오브젝트 중 대상 오브젝트를 결정하는 단계; 및
상기 VR장치로부터 요청신호가 수신되면 상기 대상 오브젝트에 대응하는 인터렉션 이벤트를 상기 VR장치에 출력하는 단계를 포함하는
가상 공간에서 VR장치와 오브젝트 간의 인터렉션 방법.
Outputting a virtual space synchronized with the real space and a plurality of objects within the virtual space to a VR device;
determining a target object among the plurality of objects based on location information of the VR device; and
When a request signal is received from the VR device, outputting an interaction event corresponding to the target object to the VR device.
Method of interaction between VR devices and objects in virtual space.
제1항에 있어서,
상기 복수의 오브젝트를 VR장치에 출력하는 단계는
상기 현실 공간과 상기 가상 공간의 구조를 동기화하는 단계; 및
상기 가상 공간에 인터렉티브 가능한 복수의 오브젝트를 셋팅하는 단계를 포함하는
가상 공간에서 VR장치와 오브젝트 간의 인터렉션 방법.
According to paragraph 1,
The step of outputting the plurality of objects to the VR device is
synchronizing the structure of the real space and the virtual space; and
Including setting a plurality of interactive objects in the virtual space.
Method of interaction between VR devices and objects in virtual space.
제1항에 있어서,
상기 대상 오브젝트를 결정하는 단계는
상기 VR장치에 구비된 위치센서로부터 상기 위치정보를 수신하는 단계; 및
상기 위치정보에 기초하여 상기 VR장치와 기 설정된 거리 내에 위치한 오브젝트를 식별하고, 상기 식별된 오브젝트를 대상 오브젝트로 결정하는 단계를 포함하는
가상 공간에서 VR장치와 오브젝트 간의 인터렉션 방법.
According to paragraph 1,
The step of determining the target object is
Receiving the location information from a location sensor provided in the VR device; and
Identifying an object located within a preset distance from the VR device based on the location information, and determining the identified object as a target object.
Method of interaction between VR devices and objects in virtual space.
제1항에 있어서,
상기 가상 공간에는 상기 복수의 오브젝트에 각각 대응하는 지정범위가 설정되고,
상기 대상 오브젝트를 결정하는 단계는
상기 위치정보가 상기 지정범위 이내이면 상기 지정범위에 대응하는 오브젝트를 대상 오브젝트로 결정하는 단계를 포함하는
가상 공간에서 VR장치와 오브젝트 간의 인터렉션 방법.
According to paragraph 1,
In the virtual space, a designated range corresponding to each of the plurality of objects is set,
The step of determining the target object is
If the location information is within the designated range, determining an object corresponding to the designated range as the target object.
Method of interaction between VR devices and objects in virtual space.
제1항에 있어서,
상기 요청신호는 상기 VR장치에 상기 대상 오브젝트가 기 설정된 시간이상으로 출력되었을 때 생성되는
가상 공간에서 VR장치와 오브젝트 간의 인터렉션 방법.
According to paragraph 1,
The request signal is generated when the target object is output to the VR device for more than a preset time.
Method of interaction between VR devices and objects in virtual space.
제1항에 있어서,
상기 요청신호는 상기 VR장치를 착용한 사용자가 컨트롤러로 상기 대상 오브젝트를 선택하였을 때 생성되는
가상 공간에서 VR장치와 오브젝트 간의 인터렉션 방법.
According to paragraph 1,
The request signal is generated when a user wearing the VR device selects the target object with a controller.
Method of interaction between VR devices and objects in virtual space.
제1항에 있어서,
상기 요청신호는 상기 VR장치의 위치와 상기 대상 오브젝트의 위치가 기 설정된 시간 동안 기 설정된 거리 이내일 때 생성되는
가상 공간에서 VR장치와 오브젝트 간의 인터렉션 방법.
According to paragraph 1,
The request signal is generated when the location of the VR device and the location of the target object are within a preset distance for a preset time.
Method of interaction between VR devices and objects in virtual space.
제1항에 있어서,
상기 인터렉션 이벤트를 상기 VR장치에 출력하는 단계는
기저장된 상기 대상 오브젝트에 대한 정보를 음향, 영상 중 적어도 하나로 출력하는
가상 공간에서 VR장치와 오브젝트 간의 인터렉션 방법.
According to paragraph 1,
The step of outputting the interaction event to the VR device is
Outputting pre-stored information about the target object in at least one of audio and video
Method of interaction between VR devices and objects in virtual space.
제1 및 제2 VR장치를 포함하는 가상 공간 스트리밍 시스템에 있어서,
현실 공간과 동기화된 가상 공간과 상기 가상 공간 내 복수의 오브젝트를 상기 제1 및 제2 VR장치에 출력하는 단계;
상기 제1 및 제2 VR장치의 위치정보에 기초하여 상기 복수의 오브젝트 중 대상 오브젝트를 결정하는 단계;
상기 제1 VR장치로부터 요청신호가 수신되면 상기 대상 오브젝트에 대응하는 인터렉션 이벤트를 상기 제1 및 제2 VR장치에 출력하고, 상기 제1 및 제2 VR장치 중 적어도 하나에 제어권한을 부여하는 단계; 및
상기 제어권한이 부여된 VR장치로부터 제어신호가 수신되면 상기 제어신호에 따라 상기 인터렉션 이벤트를 제어하는 단계를 포함하는
가상 공간에서 VR장치와 오브젝트 간의 인터렉션 방법.
In a virtual space streaming system including a first and a second VR device,
outputting a virtual space synchronized with the real space and a plurality of objects within the virtual space to the first and second VR devices;
determining a target object among the plurality of objects based on the location information of the first and second VR devices;
When a request signal is received from the first VR device, outputting an interaction event corresponding to the target object to the first and second VR devices and granting control authority to at least one of the first and second VR devices. ; and
When a control signal is received from the VR device to which the control authority has been granted, controlling the interaction event according to the control signal.
Method of interaction between VR devices and objects in virtual space.
제9항에 있어서,
상기 복수의 오브젝트를 상기 제1 및 제2 VR장치에 출력하는 단계는
상기 현실 공간과 상기 가상 공간의 구조를 동기화하는 단계; 및
상기 가상 공간에 인터렉티브 가능한 복수의 오브젝트를 셋팅하는 단계를 포함하는
가상 공간에서 VR장치와 오브젝트 간의 인터렉션 방법.
According to clause 9,
The step of outputting the plurality of objects to the first and second VR devices
synchronizing the structure of the real space and the virtual space; and
Including setting a plurality of interactive objects in the virtual space.
Method of interaction between VR devices and objects in virtual space.
제9항에 있어서,
상기 대상 오브젝트를 결정하는 단계는
상기 제1 및 제2 VR장치에 구비된 위치센서로부터 위치정보를 수신하는 단계; 및
상기 위치정보에 기초하여 상기 제1 및 제2 VR장치와 기 설정된 거리 내에 위치한 오브젝트를 식별하고, 상기 식별된 오브젝트를 대상 오브젝트로 결정하는 단계를 포함하는
가상 공간에서 VR장치와 오브젝트 간의 인터렉션 방법.
According to clause 9,
The step of determining the target object is
Receiving location information from location sensors provided in the first and second VR devices; and
Identifying an object located within a preset distance from the first and second VR devices based on the location information, and determining the identified object as a target object.
Method of interaction between VR devices and objects in virtual space.
제9항에 있어서,
상기 가상 공간에는 상기 복수의 오브젝트에 각각 대응하는 두 지정범위가 설정되고,
상기 대상 오브젝트를 결정하는 단계는
상기 제1 VR장치의 위치정보가 상기 두 지정범위 중 어느 하나 이내이고, 상기 제2 VR장치의 위치정보가 상기 두 지정범위 중 나머지 하나 이내이면 상기 두 지정범위에 대응하는 오브젝트를 대상 오브젝트로 결정하는 단계를 포함하는
가상 공간에서 VR장치와 오브젝트 간의 인터렉션 방법.
According to clause 9,
In the virtual space, two designated ranges corresponding to each of the plurality of objects are set,
The step of determining the target object is
If the location information of the first VR device is within one of the two designated ranges and the location information of the second VR device is within the other one of the two designated ranges, the object corresponding to the two designated ranges is determined as the target object. containing the steps of
Method of interaction between VR devices and objects in virtual space.
제9항에 있어서,
상기 요청신호는 상기 제1 및 제2 VR 장치에 상기 대상 오브젝트가 기 설정된 시간이상으로 출력되었을 때 생성되는
가상 공간에서 VR장치와 오브젝트 간의 인터렉션 방법.
According to clause 9,
The request signal is generated when the target object is output to the first and second VR devices for more than a preset time.
Method of interaction between VR devices and objects in virtual space.
제9항에 있어서,
상기 요청신호는 상기 제1 및 제2 VR 장치를 착용한 각 사용자가 컨트롤러로 상기 대상 오브젝트를 선택하였을 때 생성되는
가상 공간에서 VR장치와 오브젝트 간의 인터렉션 방법.
According to clause 9,
The request signal is generated when each user wearing the first and second VR devices selects the target object with a controller.
Method of interaction between VR devices and objects in virtual space.
제9항에 있어서,
상기 요청신호는 상기 제1 및 제2 VR장치의 위치와 상기 대상 오브젝트의 위치가 기 설정된 시간 동안 기 설정된 거리 이내일 때 생성되는
가상 공간에서 VR장치와 오브젝트 간의 인터렉션 방법.
According to clause 9,
The request signal is generated when the positions of the first and second VR devices and the position of the target object are within a preset distance for a preset time.
Method of interaction between VR devices and objects in virtual space.
제9항에 있어서,
상기 제1 및 제2 VR 장치 중 적어도 하나에 제어권한을 부여하는 단계는
제1 VR 장치에 제어권한을 부여하고, 제2 VR 장치에는 비제어권한을 부여하는 단계를 포함하는
가상 공간에서 VR장치와 오브젝트 간의 인터렉션 방법.
According to clause 9,
The step of granting control authority to at least one of the first and second VR devices is
Comprising the step of granting control rights to the first VR device and granting non-control rights to the second VR device.
Method of interaction between VR devices and objects in virtual space.
제16항에 있어서,
상기 제1 VR장치로부터 상기 제2 VR장치에 대한 권한요청신호가 수신되면 상기 제2 VR장치에 제어권한을 부여하는 단계를 더 포함하는
가상 공간에서 VR장치와 오브젝트 간의 인터렉션 방법.
According to clause 16,
Further comprising granting control authority to the second VR device when a permission request signal for the second VR device is received from the first VR device.
Method of interaction between VR devices and objects in virtual space.
제17항에 있어서,
상기 제1 VR 장치로부터 제1 제어신호가 수신되고 상기 제2 VR 장치로부터 제2 제어신호가 수신되면 상기 제1 및 제2 제어신호에 따라 상기 인터렉션 이벤트를 제어하는
가상 공간에서 VR장치와 오브젝트 간의 인터렉션 방법.
According to clause 17,
When a first control signal is received from the first VR device and a second control signal is received from the second VR device, the interaction event is controlled according to the first and second control signals.
Method of interaction between VR devices and objects in virtual space.
제17항에 있어서,
상기 제1 VR 장치로부터 제1 제어신호가 수신되고 있는 동안 상기 제2 VR 장치로부터 제2 제어신호가 수신되면 상기 제1 및 제2 제어신호에 따라 상기 인터렉션 이벤트를 제어하는
가상 공간에서 VR장치와 오브젝트 간의 인터렉션 방법.
According to clause 17,
If a second control signal is received from the second VR device while the first control signal is being received from the first VR device, the interaction event is controlled according to the first and second control signals.
Method of interaction between VR devices and objects in virtual space.
KR1020220030835A 2022-03-11 2022-03-11 Method for interaction between vr device and object in virtual reality KR20230133624A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220030835A KR20230133624A (en) 2022-03-11 2022-03-11 Method for interaction between vr device and object in virtual reality

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220030835A KR20230133624A (en) 2022-03-11 2022-03-11 Method for interaction between vr device and object in virtual reality

Publications (1)

Publication Number Publication Date
KR20230133624A true KR20230133624A (en) 2023-09-19

Family

ID=88196573

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220030835A KR20230133624A (en) 2022-03-11 2022-03-11 Method for interaction between vr device and object in virtual reality

Country Status (1)

Country Link
KR (1) KR20230133624A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200114856A (en) 2019-03-29 2020-10-07 한국동서발전(주) Training System and Method for Preparing for Failure of Power Plant Using Virtual Reality Simulation Contents

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200114856A (en) 2019-03-29 2020-10-07 한국동서발전(주) Training System and Method for Preparing for Failure of Power Plant Using Virtual Reality Simulation Contents

Similar Documents

Publication Publication Date Title
US11915670B2 (en) Systems, methods, and media for displaying interactive augmented reality presentations
Rebelo et al. Virtual reality in consumer product design: methods and applications
US20210312887A1 (en) Systems, methods, and media for displaying interactive augmented reality presentations
Chen et al. Investigating different modalities of directional cues for multi-task visual-searching scenario in virtual reality
KR102647544B1 (en) Information processing system and information processing method
Kunz et al. Virtual navigation environment for blind and low vision people
KR20160020136A (en) Training system for treating disaster using virtual reality and role playing game
US20170371410A1 (en) Dynamic virtual object interactions by variable strength ties
KR20180134522A (en) Method for remote controlling virtual comtents and apparatus using the same
Viertler et al. Requirements and design challenges in rotorcraft flight simulations for research applications
Wheeler et al. Human factors research in immersive virtual reality firefighter training: A systematic review
Menin et al. The effects of VR in training simulators: Exploring perception and knowledge gain
US20190132614A1 (en) Information processing terminal apparatus and distribution apparatus
KR20160118568A (en) Method and apparatus for providing information terminal with hmd
Marougkas et al. Virtual reality in education: reviewing different technological approaches and their implementations
KR20230133624A (en) Method for interaction between vr device and object in virtual reality
Yang et al. Supporting multitracking performance with novel visual, auditory, and tactile displays
Esposito User interface issues for virtual reality systems
Smith Shared vision
Jang et al. Design and implementation of interworking system for device interaction in a virtual reality setting
EP1847963A1 (en) Method and system for displaying visual information on a display
Schönauer et al. Creating Informal Learning and First Responder Training XR Experiences with the ImmersiveDeck
Uhl et al. Stress Embodied: Developing Multi-sensory Experiences for VR Police Training
Gabel et al. Redirecting Rays: Evaluation of Assistive Raycasting Techniques in Virtual Reality
Sakuragi et al. Evaluation of Effect on Walking Behavior by Seeing Augmented Reality Objects