KR102389686B1 - Apparatus and method for switching mixed reality contents - Google Patents

Apparatus and method for switching mixed reality contents Download PDF

Info

Publication number
KR102389686B1
KR102389686B1 KR1020200127098A KR20200127098A KR102389686B1 KR 102389686 B1 KR102389686 B1 KR 102389686B1 KR 1020200127098 A KR1020200127098 A KR 1020200127098A KR 20200127098 A KR20200127098 A KR 20200127098A KR 102389686 B1 KR102389686 B1 KR 102389686B1
Authority
KR
South Korea
Prior art keywords
content
input
user
goal
result value
Prior art date
Application number
KR1020200127098A
Other languages
Korean (ko)
Other versions
KR20220043559A (en
Inventor
송용석
박형준
김대근
Original Assignee
주식회사 고담
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 고담 filed Critical 주식회사 고담
Priority to KR1020200127098A priority Critical patent/KR102389686B1/en
Publication of KR20220043559A publication Critical patent/KR20220043559A/en
Application granted granted Critical
Publication of KR102389686B1 publication Critical patent/KR102389686B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 개시의 일 실시 예에 따르면, 혼합 현실 (mixed reality, MR) 컨텐츠를 제공하기 위한 시스템은, 출력장치; 적어도 하나 이상의 센서; 및 상기 출력장치 및 상기 적어도 하나 이상의 센서와 전자기적으로 연결된 적어도 하나 이상의 제어부를 포함하며, 상기 적어도 하나 이상의 제어부는, 가상 현실 (virtual reality, VR) 컨텐츠를 재생하고, 제1 입력의 검출에 대응하여, 증강 현실 (Augmented reality, AR) 컨텐츠를 재생하고, 상기 AR 컨텐츠를 재생하는 동안 상기 AR 컨텐츠와 연관된 제2 입력을 검출하고, 상기 제2 입력과 미리 정해진 임계치를 비교하여 상기 AR 컨텐츠에 대한 결과 값을 산출하도록 구성되고, 상기 제1 입력의 검출은, 상기 VR 컨텐츠의 미리 정해진 재생 구간 내에서 수행된다.According to an embodiment of the present disclosure, a system for providing mixed reality (MR) content includes: an output device; at least one or more sensors; and at least one control unit electromagnetically connected to the output device and the at least one sensor, wherein the at least one control unit reproduces virtual reality (VR) content and responds to detection of a first input to play an augmented reality (AR) content, detect a second input associated with the AR content while playing the AR content, and compare the second input with a predetermined threshold for the AR content and calculate a result value, wherein the detection of the first input is performed within a predetermined playback period of the VR content.

Description

혼합 현실(mixed reality, MR) 컨텐츠 상호 간의 전환을 위한 장치 및 방법{Apparatus and method for switching mixed reality contents}Apparatus and method for switching mixed reality contents

본 개시의 다양한 실시 예들은 혼합 현실(mixed reality, MR) 컨텐츠 상호 간의 전환을 위한 기술에 관한 것으로, 예를 들어 가상 현실(virtual reality, VR) 컨텐츠와 증강 현실(augmented reality, AR) 컨텐츠 상호 간의 전환을 위한 장치 또는 방법을 제공한다.Various embodiments of the present disclosure relate to a technology for switching between mixed reality (MR) content, for example, between virtual reality (VR) content and augmented reality (AR) content. An apparatus or method for conversion is provided.

혼합 현실(mixed reality, MR)은 현실을 기반으로 가상 정보를 부가하는 증강 현실(augmented reality, AR)과 가상 환경에 현실 정보를 부가하는 증강 가상(augmented virtuality, AV)의 의미를 포함한다. 즉, 현실과 가상이 자연스럽게 연결된 스마트 환경을 제공하여 사용자는 풍부한 체험을 할 수 있다. 예로, 사용자의 손바닥에 놓인 가상의 애완 동물과 교감한다거나, 현실의 방 안에 가상의 게임 환경을 구축해 게임을 할 수 있다. 또 집안의 가구를 가상으로 재배치해 본다거나, 원격에 있는 사람들이 함께 모여 함께 작업하는 듯한 환경을 구축할 수 있다. 혼합현실의 구현은 통상적으로 실제 세계 인식, 가상 객체 생성, 실제와 가상의 융합(합성) 및 혼합 영상 뷰잉(viewing)으 로 이루어지는 네 단계의 처리 과정을 거치며, 이러한 과정에 따라 사용되는 기술은 실세계 인식을 위한 비전 기술, 3D 모델링 및 저작 기술, 실사영상과 가상영상의 합성 기술, 실시간 렌더링 기술, 인터페이스 기술 등을 포함한다. MR 컨텐츠는, 단순히 VR 컨텐츠와 AR 컨텐츠를 통칭하는 것에서 더 나아가, VR 컨텐츠와 AR 컨텐츠가 하나의 테마를 구성하며, 일련의 컨텐츠 서비스를 제공함으로써, 풍부한 사용자 경험을 전달하고자 하는 목적에서, 사용자의 지속적인 수요에 따라 발전하고 있다.Mixed reality (MR) includes the meaning of augmented reality (AR) in which virtual information is added based on reality and augmented virtuality (AV) in which real information is added to a virtual environment. In other words, by providing a smart environment in which reality and virtual are naturally connected, users can have a rich experience. For example, you can interact with a virtual pet placed on the user's palm, or play a game by building a virtual game environment in a real room. You can also virtually rearrange furniture in your home, or create an environment where remote people gather and work together. The implementation of mixed reality usually goes through a four-step process consisting of real world recognition, virtual object creation, real and virtual fusion (synthesis), and mixed image viewing, and the technology used according to these processes is the real world. It includes vision technology for recognition, 3D modeling and authoring technology, real-time image and virtual image synthesis technology, real-time rendering technology, and interface technology. MR content goes beyond simply being a generic term for VR content and AR content, VR content and AR content form a single theme, and by providing a series of content services, for the purpose of delivering a rich user experience, It is evolving according to the continuous demand.

본 개시(disclosure)는, 혼합 현실(mixed reality, MR) 컨텐츠를 제공하기 위한 시스템에서 재생되는 가상 현실(virtual reality, VR) 컨텐츠와 증강 현실(augmented reality, AR) 컨텐츠를 효과적으로 전환하기 위한 장치 및 방법을 제공한다. The present disclosure provides an apparatus for effectively switching between virtual reality (VR) content and augmented reality (AR) content reproduced in a system for providing mixed reality (MR) content, and provide a way

본 개시의 일 실시 예에 따르면, 혼합 현실 (mixed reality, MR) 컨텐츠를 제공하기 위한 시스템은, 출력장치; 적어도 하나 이상의 센서; 및 상기 출력장치 및 상기 적어도 하나 이상의 센서와 전자기적으로 연결된 적어도 하나 이상의 제어부를 포함하며, 상기 적어도 하나 이상의 제어부는, 가상 현실 (virtual reality, VR) 컨텐츠를 재생하고, 제1 입력의 검출에 대응하여, 증강 현실 (Augmented reality, AR) 컨텐츠를 재생하고, 상기 AR 컨텐츠를 재생하는 동안 상기 AR 컨텐츠와 연관된 제2 입력을 검출하고, 상기 제2 입력과 미리 정해진 임계치를 비교하여 상기 AR 컨텐츠에 대한 결과 값을 산출하도록 구성되고, 상기 제1 입력의 검출은, 상기 VR 컨텐츠의 미리 정해진 재생 구간 내에서 수행된다.According to an embodiment of the present disclosure, a system for providing mixed reality (MR) content includes: an output device; at least one or more sensors; and at least one control unit electromagnetically connected to the output device and the at least one sensor, wherein the at least one control unit reproduces virtual reality (VR) content and responds to detection of a first input to play an augmented reality (AR) content, detect a second input associated with the AR content while playing the AR content, and compare the second input with a predetermined threshold for the AR content and calculate a result value, wherein the detection of the first input is performed within a predetermined playback period of the VR content.

본 개시의 다양한 실시 예들에 따른 장치 및 방법은, 혼합 현실(mixed reality, MR) 컨텐츠를 제공하는 과정에서, 컨텐츠 상호 간의 전환을 효율적으로 수행함으로써 소모되는 자원을 저감할 수 있다.The apparatus and method according to various embodiments of the present disclosure may reduce resources consumed by efficiently performing a content conversion in a process of providing mixed reality (MR) content.

본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Effects obtainable in the present disclosure are not limited to the above-mentioned effects, and other effects not mentioned may be clearly understood by those of ordinary skill in the art to which the present disclosure belongs from the description below. will be.

도 1은 본 개시의 실시 예들이 수행되고 본 개시의 실시 예들에 따른 예시적인 HMD를 도시한다.
도 2는 본 개시의 일 실시 예에 따른, 혼합 현실 컨텐츠 제공을 위한 시스템에서 컨텐츠 상호 간의 전환 동작에 관한 순서를 도시한다.
도 3는, 본 개시의 일 실시 예에 따른 제어부의 동작을 표현한 구성도이다.
도 4는 본 개시의 일 실시 예에 따른, 컨텐츠 난이도 재설정을 위한 동작에 관한 순서도이다.
1 illustrates an exemplary HMD in accordance with embodiments of the present disclosure in which embodiments are performed and in accordance with embodiments of the present disclosure;
2 is a flowchart illustrating an operation of switching between contents in a system for providing mixed reality contents according to an embodiment of the present disclosure.
3 is a configuration diagram illustrating an operation of a control unit according to an embodiment of the present disclosure.
4 is a flowchart of an operation for resetting content difficulty according to an embodiment of the present disclosure.

아래의 상세한 설명에 들어가기 전에, 본 특허 문서 전체에서 사용되는 특정 단어 및 어구들의 정의를 기재하는 것이 본 발명을 이해하는데 도움이 될 수 있다. 용어 "커플(couple)" 및 그 파생어는 두 개 이상의 구성 요소 사이의 어떤 직접 또는 간접 통신을 나타내거나, 이들 요소가 서로 물리적으로 접촉하고 있는지의 여부를 나타낼 수 있다. 용어 "송신(transmit)", "수신(receive)" 그리고 "통신(communicate)"뿐만 아니라 그 파생어 또한, 이들의 직/간접 통신을 포함한다. 용어 "포함한다(include)" 및 "구성한다(comprise)" 뿐만 아니라 그 파생어 또한, 제한 없이 포함을 의미한다. 용어 "또는(or)"은 포괄적 의미로써, '및/또는'을 의미한다. 문구 "~와 관련되다(associated with)" 뿐만 아니라 그 파생어 또한 ~을 포함한다(include), ~에 포함된다(be included within), ~와 결합하다(interconnect with), ~을 함유하다(contain), ~에 함유되어 있다(be contained within), ~에 연결한다(connect to or with), ~와 결합하다(couple to or with), ~ 전달한다(be communicable with), 와 협력하다(cooperate with), ~를 끼우다(interleave), ~을 나란히 놓다(juxtapose), ~에 인접하다(be proximate to), 구속하다/구속되다(be bound to or with), 소유하다(have), 속성을 가지다(have a property of), ~와 관계를 가지다(have a relationship to or with) 등을 의미할 수 있다. 용어 "제어기(controller)"는 적어도 하나의 동작을 제어하는 어떤 장치, 시스템 또는 그 일부를 의미한다. 이러한 제어기는 하드웨어 또는 하드웨어와 소프트웨어의 조합 및/또는 펌웨어로 구현될 수 있다. 특정 제어기와 관련된 기능은 로컬 또는 원격으로 중앙 집중식으로(centralized) 또는 분산(distributed)처리될 수 있다. 문구 "적어도 하나"가 나열된 항목과 사용될 때, 나열된 항목 중 하나 이상의 상이한 조합이 사용될 수 있음을 의미한다. 예를 들어, "A, B, C 중 적어도 하나"는 A, B, C, A와 B, A와 C, B와 C, 그리고 A와 B와 C 결합들을 중 어느 하나를 포함한다.Before entering the detailed description below, it may be helpful in understanding the present invention to set forth definitions of certain words and phrases used throughout this patent document. The term “couple” and its derivatives may refer to any direct or indirect communication between two or more components, or whether these elements are in physical contact with each other. The terms “transmit”, “receive” and “communicate” as well as their derivatives include direct/indirect communication thereof. The terms "include" and "comprise", as well as their derivatives, mean including without limitation. The term “or” is inclusive and means 'and/or'. The phrase "associated with" as well as its derivatives include, be included within, interconnect with, contain , be contained within, connect to or with, couple to or with, be communicable with, cooperate with , interleave, juxtapose, be proximate to, be bound to or with, have, have a property of), to have a relationship to or with, etc. The term “controller” means any device, system, or part thereof that controls at least one operation. Such a controller may be implemented in hardware or a combination of hardware and software and/or firmware. Functions related to a particular controller may be centralized or distributed locally or remotely. When the phrase “at least one” is used with a listed item, it is meant that different combinations of one or more of the listed items may be used. For example, “at least one of A, B, C” includes any of A, B, C, A and B, A and C, B and C, and A and B and C bonds.

또한, 이하에서 설명하는 다양한 기능들은 하나 이상의 컴퓨터 프로그램에 의해 구현되거나 지원 될 수 있으며, 각각의 컴퓨터 프로그램은 컴퓨터 판독 가능 프로그램 코드로 형성되고 컴퓨터 판독 가능 매체에 구현된다. "어플리케이션"및 "프로그램"이라는 용어는 적절한 컴퓨터 판독 가능 프로그램에서 구현하기 위해 적응 된 하나 이상의 컴퓨터 프로그램, 소프트웨어 구성 요소, 명령어 세트, 절차, 기능, 객체, 클래스, 인스턴스, 관련 데이터 또는 그 일부를 나타낸다. "컴퓨터 판독 가능 프로그램 코드"라는 문구는 소스 코드, 오브젝트 코드 및 실행 가능 코드를 포함하여 모든 유형의 컴퓨터 코드를 포함한다. "컴퓨터 판독 가능 매체"라는 문구는 판독 전용 메모리 (read only memory, ROM), 랜덤 액세스 메모리(random access memory, RAM), 하드 디스크 드라이브, 컴팩트 디스크(compact disc, CD), 디지털 등의 컴퓨터에 의해 액세스 될 수 있는 임의의 유형의 매체를 포함한다. 비디오 디스크(digital video disc, DVD), 또는 임의의 다른 유형의 메모리 일 수 있다. "일시적이지 않은(non-transitory)"컴퓨터 판독 가능 매체는 일시적인 전기적 또는 다른 신호를 전송하는 유선, 무선, 광학 또는 다른 통신 링크를 배제한다. 비 일시적인 컴퓨터 판독 가능 매체는 데이터가 영구적으로 저장될 수 있는 매체 및 재기록 가능한 광 디스크 또는 소거 가능 메모리 장치와 같이 데이터가 저장되고 나중에 겹쳐 쓰기 될 수 있는 매체를 포함한다.In addition, various functions described below may be implemented or supported by one or more computer programs, each computer program being formed of computer readable program code and implemented in a computer readable medium. The terms "application" and "program" refer to one or more computer programs, software components, instruction sets, procedures, functions, objects, classes, instances, related data, or portions thereof, adapted for implementation in a suitable computer-readable program. . The phrase "computer readable program code" includes computer code of any type, including source code, object code and executable code. The phrase "computer readable medium" means read only memory (ROM), random access memory (RAM), hard disk drive, compact disc (CD), digital, etc., by a computer, such as It includes any type of media that can be accessed. It may be a digital video disc (DVD), or any other type of memory. "Non-transitory" computer-readable media excludes wired, wireless, optical, or other communication links that transmit transitory electrical or other signals. Non-transitory computer-readable media includes media in which data can be permanently stored and media in which data can be stored and later overwritten, such as a rewritable optical disk or a removable memory device.

특정 단어들 및 구문들의 정의가 본 개시 전반에 걸쳐서 제공되고, 통상의 기술자는 대부분의 경우에, 이러한 정의들이 정의된 단어들 및 구문들로 미래뿐 아니라 이전의 사용들에도 적용될 수 있음을 이해하여야 한다.Definitions of specific words and phrases are provided throughout this disclosure, and one of ordinary skill in the art should understand that in most cases, these definitions may apply to past as well as future uses of the defined words and phrases. do.

아래에 논의된 도 1 내지 도 4 및 본 개시의 원리를 설명하기 위해 이용되는 다양한 실시 예들은 단지 예시를 위한 것으로 어떠한 방식으로든 본 개시의 범위를 한정하는 의미로 해석되어서는 안 된다. 통상의 기술자들은 본 개시의 원리가 적절하게 배치된 무선 통신 시스템으로 구현될 수 있음을 이해할 것이다.1 to 4 discussed below and the various embodiments used to explain the principles of the present disclosure are for illustrative purposes only and should not be construed as limiting the scope of the present disclosure in any way. Those skilled in the art will appreciate that the principles of the present disclosure may be implemented in any suitably deployed wireless communication system.

도 1은 본 개시의 실시 예들이 수행될 수 있고 본 개시의 실시 예들에 따른 예시적인 HMD (100)을 도시한 것이다. 도 1에 도시된 HMD (100)의 실시 예는 단지 설명을 위한 것이며, HMD (100)은 각종의 다양한 구성들로 이루어지며, 도 1은 HMD에 대한 임의의 특정 구현으로 본 개시의 범위를 제한하지 않는다. 1 illustrates an exemplary HMD 100 in accordance with embodiments of the present disclosure in which embodiments of the present disclosure may be practiced. The embodiment of the HMD 100 shown in FIG. 1 is for illustrative purposes only, the HMD 100 is made of a variety of different configurations, and FIG. 1 limits the scope of the present disclosure to any specific implementation of the HMD. I never do that.

다양한 실시 예들에서, HMD (100)은 상이한 형태들을 가질 수 있고, 본 개시는 임의의 특정한 형태로 제한되지 않는다. 예를 들어, HMD (100)은 가상 현실(virtual reality, VR) 및/또는 증강 현실(augmented reality, AR) 어플리케이션들을 위한 헤드셋 내에 마운트될 수 있는 단말(user equipment), 이동국(mobile station), 텔레비전(television), 가입국(subscriber station), 무선 단말(wireless terminal), 스마트폰, 테블릿, 등과 같은 모바일 통신 장치일 수 있다. 다른 예를 들어, HMD (100)은 헤드셋을 포함하고 VR 및/또는 AR 어플리케이션들을 위한 안경, 고글, 헬멧, 등과 같은 웨어러블 전자 장치의 형태를 취할 수 있다.In various embodiments, HMD 100 may have different shapes, and the present disclosure is not limited to any particular shape. For example, HMD 100 may be mounted in a headset for virtual reality (VR) and/or augmented reality (AR) applications, user equipment, mobile station, television It may be a mobile communication device such as a television, a subscriber station, a wireless terminal, a smart phone, a tablet, and the like. As another example, HMD 100 may include a headset and take the form of a wearable electronic device such as glasses, goggles, helmet, etc. for VR and/or AR applications.

도 1에 도시된 것과 같이, HMD (100)은 안테나 (105), 무선 주파수(radio frequency, RF) 송수신기 (110), 송신(transmit, TX) 처리 회로 (115), 마이크로폰 (120), 및 수신(receive, RX) 처리 회로 (125)를 포함한다. 또한, HMD (100)은 스피커 (130), 프로세서 (140), 입/출력(input/output, I/O) 인터페이스(interface, IF) (145), 터치스크린 (150), 디스플레이 (155), 메모리 (160), 및 하나 이상의 센서들 (165)를 포함한다. 메모리 (160)은 기본 운영 시스템(operating system, OS) (161) 및 하나 이상의 애플리케이션들 (162)를 포함한다. 1 , the HMD 100 includes an antenna 105 , a radio frequency (RF) transceiver 110 , a transmit (TX) processing circuit 115 , a microphone 120 , and a receive (receive, RX) processing circuitry 125 . In addition, the HMD 100 includes a speaker 130 , a processor 140 , an input / output (I / O) interface (interface, IF) 145 , a touch screen 150 , a display 155 , memory 160 , and one or more sensors 165 . Memory 160 includes a basic operating system (OS) 161 and one or more applications 162 .

RF 송수신기 (110) 또는 수신기는 네트워크(예: WiFi, 블루투스, 셀룰러, 5G, LTE(long term evolution), LTE-A(advanced), WiMAX(worldwide interoperability for microwave access), 또는 무선 네트워크의 임의의 다른 타입)의 AP(access point)(예: 기지국, WiFi 라우터, 블루투스 장치)에 의해 송신되는 내향 RF 신호를 안테나 (105)로부터 수신한다. RF 송수신기 (110) 또는 수신기는 내향 RF 신호를 하향-변환하여, 중간 주파수(intermediate frequency, IF) 또는 기저대역 신호를 생성한다. IF 또는 기저대역 신호는, 그 기저대역 또는 IF 신호를 필터링하고, 디코딩하고, 및/또는 디지털화하는 것에 의해 처리된 기저대역 신호를 생성하는 RX 처리 회로 (125)로 전송된다. RX 처리 회로 (125)는 그 처리된 기저대역 신호를, 스피커 (130)로 송신하거나(예컨대, 음성 데이터), 또는 추가 처리를 위해 프로세서 (140)로 송신한다(예컨대, 웹 브라우징 데이터). The RF transceiver 110 or the receiver is a network (eg, WiFi, Bluetooth, cellular, 5G, long term evolution (LTE), LTE-A (advanced), worldwide interoperability for microwave access (WiMAX), or any other of a wireless network) type) receives an inbound RF signal transmitted by an access point (AP) (eg, a base station, a WiFi router, a Bluetooth device) from the antenna 105 . The RF transceiver 110 or receiver down-converts the inbound RF signal to generate an intermediate frequency (IF) or baseband signal. The IF or baseband signal is sent to RX processing circuitry 125, which generates a processed baseband signal by filtering, decoding, and/or digitizing the baseband or IF signal. The RX processing circuitry 125 transmits the processed baseband signal to the speaker 130 (eg, voice data), or to the processor 140 for further processing (eg, web browsing data).

TX 처리 회로 (115)는 마이크로폰 (120)으로부터 아날로그 또는 디지털 음성 데이터를 수신하거나 또는 프로세서 (140)으로부터 다른 외향 기저대역 데이터(예컨대, 웹 데이터, 이-메일, 또는 쌍방향 비디오 게임 데이터)를 수신한다. TX 처리 회로 (115)는 그 외향 기저대역 데이터를 인코딩, 멀티플렉싱, 및/또는 디지털화하여, 처리된 기저대역 또는 IF 신호를 생성한다. RF 송수신기 (110)은 TX 처리 회로 (115)로부터 외향 처리된 기저대역 또는 IF 신호를 수신하고, 그 기저대역 또는 IF 신호를, 안테나 (105)를 통해 송신되는 RF 신호로 상향-변환한다. The TX processing circuitry 115 receives analog or digital voice data from the microphone 120 or other outgoing baseband data (eg, web data, e-mail, or interactive video game data) from the processor 140 . . TX processing circuitry 115 encodes, multiplexes, and/or digitizes the outgoing baseband data to generate a processed baseband or IF signal. The RF transceiver 110 receives the outgoing processed baseband or IF signal from the TX processing circuitry 115 , and up-converts the baseband or IF signal into an RF signal that is transmitted via the antenna 105 .

프로세서 (140)은 하나 이상의 프로세서들 또는 다른 처리 장치들을 포함할 수 있으며, 메모리 (160)에 저장된 OS (161)을 실행함으로써 HMD (100)의 전반적인 동작을 제어할 수 있다. 예를 들어, 프로세서 (140)은 잘 알려진 원리들에 따라 RF 송수신기 (110), RX 처리 회로 (125), 및 TX 처리 회로 (115)에 의해 순방향 채널 신호들의 수신 및 역방향 채널 신호들의 송신을 제어할 수 있다. 몇몇 실시 예들에서, 프로세서 (140)은 적어도 하나의 마이크로프로세서 또는 마이크로컨트롤러를 포함한다. 다른 실시 예에서, 프로세서 (140)은 처리 회로로 구현될 수 있다. 프로세서 (140)은 본 명세서에 개시된 임의의 프로세스의 동작 또는 명령을 수행할 수 있다.The processor 140 may include one or more processors or other processing devices, and may control the overall operation of the HMD 100 by executing the OS 161 stored in the memory 160 . For example, processor 140 controls reception of forward channel signals and transmission of reverse channel signals by RF transceiver 110 , RX processing circuitry 125 , and TX processing circuitry 115 according to well-known principles. can do. In some embodiments, processor 140 includes at least one microprocessor or microcontroller. In another embodiment, the processor 140 may be implemented as a processing circuit. The processor 140 may perform the operations or instructions of any process disclosed herein.

또한, 프로세서 (140)은 메모리 (160)에 상주하는 다른 프로세스들 및 프로그램들을 실행할 수 있다. 프로세서 (140)은 실행 프로세스에 의한 요구에 따라 메모리 (160) 내로 또는 외부로 데이터를 이동할 수 있다. 몇몇 실시 예들에서, 프로세서 (140)은 OS (161)에 기초하여 또는 eNB들 또는 오퍼레이터로부터 수신된 신호들에 대한 응답으로 애플리케이션들 (162)를 실행하도록 구성된다. 또한, 프로세서 (140)은, 랩탑 컴퓨터 및 핸드헬드 컴퓨터와 같은 다른 장치들에 연결되는 능력을 HMD (100)에게 제공하는 I/O 인터페이스 (145)에 커플링되어 있다. I/O 인터페이스 (145)는 이 주변기기들과 프로세서 (140) 간의 통신 경로이다.In addition, the processor 140 may execute other processes and programs residing in the memory 160 . Processor 140 may move data into or out of memory 160 as required by an executing process. In some embodiments, processor 140 is configured to execute applications 162 based on OS 161 or in response to signals received from eNBs or an operator. The processor 140 is also coupled to an I/O interface 145 that provides the HMD 100 the ability to connect to other devices, such as laptop computers and handheld computers. The I/O interface 145 is a communication path between these peripherals and the processor 140 .

또한, 프로세서 (140)은 터치스크린 (150) 및 디스플레이 (155)에 커플링된다. HMD (100)의 사용자는 터치스크린 (150)를 사용하여 HMD (100)에 데이터를 입력할 수 있다. 디스플레이 (155)는 예를 들어, 비디오, 게임, 웹 사이트들로부터의 텍스트 또는 그래픽들, 또는 이들의 조합을 렌더링할 수 있는 액정 디스플레이(liquid crystal display), LED(light-emitting diode) 디스플레이, OLED(optical LED), AMOLED(active matrix OLED), 또는 다른 디스플레이일 수 있다. The processor 140 is also coupled to the touchscreen 150 and the display 155 . A user of the HMD 100 may input data into the HMD 100 using the touch screen 150 . Display 155 may be, for example, a liquid crystal display, light-emitting diode (LED) display, OLED capable of rendering text or graphics from video, games, websites, or a combination thereof. (optical LED), active matrix OLED (AMOLED), or other display.

메모리 (160)은 프로세서 (140)에 커플링된다. 메모리 (160)의 일부는 랜덤 액세스 메모리(random access memory, RAM)를 포함할 수 있으며, 메모리 (160)의 다른 일부는 플래시 메모리 또는 다른 판독 전용 메모리(read-only memory, ROM)를 포함할 수 있다.Memory 160 is coupled to processor 140 . Portions of memory 160 may include random access memory (RAM), and other portions of memory 160 may include flash memory or other read-only memory (ROM). there is.

HMD (100)은 물리적인 양을 측정하거나 HMD (100)의 활동 상태를 검출하고 측정되거나 검출된 정보를 전기적 신호로 변환할 수 있는 하나 이상의 센서(들) (165)를 추가적으로 포함한다. 예를 들어, 센서 (165)는 헤드셋 또는 HMD (100), 카메라에서 터치 입력을 위한 하나 이상의 버튼들, 제스처 센서, 자이로스코프 또는 자이로 센서, 공기 압력 센서, 자기 센서 또는 자력계, 가속도 센서 또는 가속도계, 그립 센서, 근접 센서, 컬러 센서 (165)H (예를 들어, RGB(red green blue) 센서), 바이오 - 물리적 센서, 온도 / 습도 센서, 조명 센서 (165)K, 자외선 (ultraviolet, UV) 센서, EMG(electromyography) 센서, EEG(electroencephalogram) 센서, ECG(electrocardiogram) 센서, IR(infrared ray) 센서, 초음파 센서, 홍채 센서, 지문 센서 등을 포함할 수 있다. 센서(들) (165)는 그 안에 포함된 센서들 중 적어도 하나를 제어하기 위한 제어 회로를 추가적으로 포함할 수 있다. 이들 센서(들) (165) 중 임의의 하나는 HMD (100) 내부, HMD (100)을 고정하도록 구성된 헤드셋, 또는 헤드셋과 HMD (100) 모두에 위치할 수 있다. 예를 들어, 일부 실시 예들에서, HMD (100)은 헤드셋을 포함할 수 있다.HMD 100 further includes one or more sensor(s) 165 capable of measuring a physical quantity or detecting an activity state of HMD 100 and converting the measured or detected information into an electrical signal. For example, the sensor 165 may include a headset or HMD 100, one or more buttons for touch input in a camera, a gesture sensor, a gyroscope or gyro sensor, an air pressure sensor, a magnetic sensor or magnetometer, an accelerometer or accelerometer, grip sensor, proximity sensor, color sensor (165)H (eg red green blue (RGB) sensor), bio-physical sensor, temperature / humidity sensor, light sensor (165)K, ultraviolet (ultraviolet, UV) sensor , an electromyography (EMG) sensor, an electroencephalogram (EEG) sensor, an electrocardiogram (ECG) sensor, an infrared (IR) sensor, an ultrasonic sensor, an iris sensor, a fingerprint sensor, and the like. The sensor(s) 165 may additionally include control circuitry for controlling at least one of the sensors included therein. Any one of these sensor(s) 165 may be located inside the HMD 100 , a headset configured to secure the HMD 100 , or both the headset and the HMD 100 . For example, in some embodiments, HMD 100 may include a headset.

터치스크린 (150)은 터치 패널, (디지털) 펜 센서, 키, 또는 초음파 입력 장치를 포함할 수 있다. 터치스크린 (150)은 예를 들어, 용량성 방식, 감압 방식, 적외선 방식, 또는 초음파 방식 중 적어도 하나의 방식에서 터치 입력을 인식할 수 있다. 터치스크린 (150)은 또한 제어 회로를 포함할 수 있다. 용량성 방식에서, 터치스크린 (150)은 터치 또는 근접을 인식할 수 있다.The touch screen 150 may include a touch panel, a (digital) pen sensor, a key, or an ultrasonic input device. The touch screen 150 may recognize a touch input using, for example, at least one of a capacitive method, a pressure reduction method, an infrared method, and an ultrasonic method. Touchscreen 150 may also include control circuitry. In a capacitive manner, touchscreen 150 may recognize touch or proximity.

도 1은 HMD (100)의 일 예를 도시한 것이지만, 다양한 변화들이 도 1에 대하여 이루어질 수 있다. 예를 들어, 도 1의 각종 컴포넌트들은 조합되거나, 더 세분화되거나, 생략될 수 있으며, 특정 필요들에 따라 추가 컴포넌트들이 부가될 수도 있다. 일 특정 예로서, 프로세서 (140)은 복수의 프로세서들, 예를 들어 하나 이상의 중앙 처리 유닛(central processing unit, CPU)들 및 하나 이상의 그래픽 처리 유닛(graphics processing unit, GPU)들로 분할될 수 있다. 또한, 도 1이 모바일 전화기나 스마트폰과 같이 구성된 HMD (100)을 도시하고 있지만, HMD (100)은 다른 타입의 모바일 또는 고정 장치들로서 동작하도록 구성될 수도 있다. 다른 실시 예들에서, HMD (100)이 텔레비전인 경우, HMD (100)은 송수신기, 터치스크린, 또는 마이크로폰을 포함하지 않을 수 있다. HMD (100)은 송신기 또는 인코더 없이 수신기 또는 디코더를 포함할 수 있다.Although FIG. 1 shows an example of an HMD 100 , various changes may be made to FIG. 1 . For example, the various components of FIG. 1 may be combined, further subdivided, or omitted, and additional components may be added according to specific needs. As one specific example, the processor 140 may be divided into a plurality of processors, such as one or more central processing units (CPUs) and one or more graphics processing units (GPUs). . Also, although FIG. 1 depicts an HMD 100 configured like a mobile phone or smart phone, the HMD 100 may be configured to operate as other types of mobile or stationary devices. In other embodiments, where HMD 100 is a television, HMD 100 may not include a transceiver, touchscreen, or microphone. HMD 100 may include a receiver or decoder without a transmitter or encoder.

도 2는 본 개시의 일 실시 예에 따른, 혼합 현실 컨텐츠 제공을 위한 시스템에서 컨텐츠 상호 간의 전환 동작에 관한 순서도이다. 2 is a flowchart illustrating an operation of switching between contents in a system for providing mixed reality contents according to an embodiment of the present disclosure.

혼합 현실 컨텐츠 제공을 위한 시스템은, 출력장치, 서버 및 네트워크를 포함할 수 있다. 출력장치는, VR 컨텐츠 또는 AR 컨텐츠를 서버로부터 수신하여 사용자에게 출력하기 위한 장치로서, 보다 구체적으로는 HDM (100)으로 정의될 수 있다. 네트워크는 서버와 출력장치의 무선 통신 연결을 설정하고 데이터 송수신을 가능하게 한다. 혼합 현실 컨텐츠 제공을 위한 시스템은, 적어도 하나의 센서를 더 포함할 수 있다. 센서는 출력장치에 포함된 것이거나, 출력장치와 독립적으로 구성되되, 서버, 네트워크 또는 출력장치 중 적어도 하나와 동작 가능하게 연결되어 데이터 송수신이 가능하도록 구성될 수 있다. 도 2에 도시된 각 단계들은, 혼합 현실 컨텐츠 제공을 위한 시스템의 동작이거나, 시스템의 일 구성으로 포함된 출력장치, 서버, 네트워크 또는 센서 중 적어도 하나의 동작으로 이해될 수 있다. 혼합 현실 컨텐츠 제공을 위한 시스템은 이하에서 '시스템'으로 지칭될 수 있다.A system for providing mixed reality content may include an output device, a server, and a network. The output device is a device for receiving VR content or AR content from a server and outputting it to a user, and more specifically, may be defined as the HDM 100 . The network establishes a wireless communication connection between the server and the output device and enables data transmission and reception. The system for providing mixed reality content may further include at least one sensor. The sensor may be included in the output device or configured independently of the output device, and may be operatively connected to at least one of a server, a network, or an output device to enable data transmission/reception. Each of the steps shown in FIG. 2 may be understood as an operation of a system for providing mixed reality content, or an operation of at least one of an output device, a server, a network, and a sensor included as a component of the system. A system for providing mixed reality content may be referred to as a 'system' hereinafter.

단계(201s)에서 시스템은 VR 컨텐츠를 재생한다. In step 201s, the system plays the VR content.

VR 컨텐츠는 시스템의 일 구성으로 포함된 출력장치에 의해 디스플레이 될 수 있다. VR 컨텐츠는 시스템의 일 구성으로 포함된 저장장치에 미리 저장된 것으로서, 저장장치와 동작 가능하게 연결된 출력장치로 전송되는 컨텐츠 데이터에 기반하여 재생될 수 있다. 다른 실시 예에 의할 때, VR 컨텐츠는 시스템의 일 구성으로 포함된 서버 또는 외부 서버와의 관계에서 설정된 무선 통신 연결에 기반하여 전송된 컨텐츠 데이터에 기반하여 재생될 수 있다. VR 컨텐츠는 가상 현실과 관련된 컨텐츠로서, 가상 현실 컨텐츠만으로 구성되거나, 출력이 출력 수단에 의해 시계열적으로 구현되는 동적인 이미지를 포함하는 것으로 이해될 수 있다. 본 개시의 일 실시 예에 따를 때, 사용자는 HMD와 같은 출력장치를 착용하고, 서버로부터 무선 통신 연결을 통해 전송되는 VR 컨텐츠를 감상할 수 있다. 시스템에서 재생되는 VR 컨텐츠는, 정보를 전달을 목적으로 하는 시청각 자료일 수 있다. 구체적으로, 역사적인 사건에 관한 컨텐츠로서, 컨텐츠를 시청하는 사용자가 이를 보다 현실적으로 체험하도록 하기 위한 문화 교육 컨텐츠일 수 있다. VR contents may be displayed by an output device included as one component of the system. The VR content is pre-stored in a storage device included as a component of the system, and may be reproduced based on content data transmitted to an output device operatively connected to the storage device. According to another embodiment, VR content may be played based on content data transmitted based on a wireless communication connection established in a relationship with a server or an external server included as a component of the system. VR contents are contents related to virtual reality, and may be understood to include only virtual reality contents or dynamic images whose output is implemented in time series by an output means. According to an embodiment of the present disclosure, a user can enjoy VR content transmitted from a server through a wireless communication connection while wearing an output device such as an HMD. VR contents reproduced in the system may be audiovisual materials for the purpose of delivering information. Specifically, as content related to a historical event, it may be cultural education content for a user who views the content to experience it more realistically.

단계(203s)에서, 시스템은 제1 입력을 검출할 수 있다. In step 203s, the system may detect a first input.

제1 입력은 시스템의 일 구성으로 포함된 센서에 의해 검출될 수 있다. 또한 센서부는 사용자가 착용 또는 이용할 수 있는 출력장치와 전기적으로 연결되거나 동작 가능하게 연결되어, 센서로부터 검출된 제1 입력과 연관된 신호를 수신할 수 있다. 제1 입력을 검출하기 위한 센서는 도 1에 도시된 센서와 동일하거나 유사한 기능을 수행할 수 있다. 센서는 사용자의 동작이나, 함성, 체온, 터치 등을 제1 입력으로 검출할 수 있다. 제1 입력은 미리 설정된 규칙에 따라 정의될 수 있고, 서버에 의해 미리 저장된 값 일 수 있다. 제1 입력은, 시스템을 이용하는 사용자에 의해 입력되거나, 외부에서 제 3자에 의해 입력될 수 있다. 제1 입력은 터치, 탭, 클릭, 제스처 등의 방식을 통해 조작가능한 입력 수단에 의해 입력될 수 있고, 이 경우, 입력 수단에 의해 입력된 제1 입력에 관한 신호는 출력장치 또는 제어부로 직접 전송될 수 있다. 제1 입력이 입력 수단을 통해 입력되는 경우, 제1 입력의 검출은 반드시 센서에 의해 이루어질 필요는 없다. 제1 입력이라고 표현하였으나, 사용자 또는 외부로부터 가해지는 입력 중 가장 선행하는 입력을 의미하는 것으로 한정해석 되어서는 아니된다.The first input may be detected by a sensor included as one component of the system. In addition, the sensor unit may be electrically connected or operatively connected to an output device that may be worn or used by the user to receive a signal associated with the first input detected from the sensor. The sensor for detecting the first input may perform the same or similar function as the sensor illustrated in FIG. 1 . The sensor may detect a user's motion, shout, body temperature, touch, etc. as a first input. The first input may be defined according to a preset rule, and may be a value stored in advance by the server. The first input may be input by a user using the system or may be input by a third party from the outside. The first input may be input by an input means operable through a method such as touch, tap, click, gesture, etc. In this case, a signal related to the first input input by the input means is directly transmitted to an output device or control unit can be When the first input is input through the input means, the detection of the first input is not necessarily made by the sensor. Although expressed as the first input, it should not be construed as meaning the most preceding input among the inputs applied from the user or the outside.

단계(205s)에서, 시스템은 제1 입력의 검출에 대응하여, AR 컨텐츠를 재생한다. AR 컨텐츠는 시스템의 일 구성으로서 포함된 출력장치에 의해 수행될 수 있다. AR 컨텐츠는 증강 현실과 관련된 컨텐츠로서, 증강 현실과 관련된 컨텐츠 만을 의미하거나, VR 컨텐츠와 혼합된 AR 컨텐츠를 의미하는 것일 수 있다. AR 컨텐츠가 출력장치를 통해 재생되는 경우, 출력장치는 AR 컨텐츠 만을 재생하거나, VR 컨텐츠와 함께 AR 컨텐츠를 재생할 수 있다. 시스템에 의해 제1 입력이 검출되면, 출력장치는 즉시 AR 컨텐츠를 재생할 수 있고, 일정한 시간 간격을 두고 AR 컨텐츠를 재생할 수 있다. 또한, 제1 입력이 감지되더라도 시스템에 미리 정의된 조건이 만족되었는지 여부에 대한 판단을 거쳐 AR 컨텐츠를 재생할 수 있다. 제1 입력은, VR 컨텐츠의 재생 중에 이루어질 수 있다. 따라서 AR 컨텐츠가 재생 중인 상황에서는 제1 입력은 검출되지 않을 수 있다. 미리 정의된 조건은, i) 컨텐츠 조건과 ii) 시간 조건으로 구분될 수 있다. In step 205s, the system plays the AR content in response to detection of the first input. AR content may be performed by an output device included as a component of the system. AR content is augmented reality-related content, and may mean only augmented reality-related content or AR content mixed with VR content. When the AR content is reproduced through the output device, the output device may play only the AR content or the AR content together with the VR content. When the first input is detected by the system, the output device may immediately play AR content, and may play AR content at regular time intervals. Also, even if the first input is detected, AR content may be reproduced after determining whether a condition predefined in the system is satisfied. The first input may be made while the VR content is being played. Accordingly, the first input may not be detected in a situation where AR content is being reproduced. The predefined condition may be divided into i) a content condition and ii) a time condition.

컨텐츠 조건은, 재생 중인 VR 컨텐츠에 기반하여 결정되는 조건을 의미할 수 있다. 구체적으로, 재생되는 VR 컨텐츠가 출력장치를 착용한 사용자에게 미리 정의된 특정한 정보를 제공하고 있는 지점에서, 해당 조건을 만족할 수 있다. 예를 들어, VR 컨텐츠에서, 배경으로 산(mountain)이 등장하는 경우에만, 제1 입력이 검출될 수 있다. 이 경우에는, 배경으로 산이 등장하지 않는 상황에서는, 사용자가 제1 입력에 대응되는 동작을 수행하거나, 소리를 발하더라도 제1 입력의 검출에 대응한 AR 컨텐츠의 재생이 수행되지 않을 수 있다. 또한, 제1 입력 자체가 검출되지 않는 것으로 결정될 수 있다. The content condition may mean a condition determined based on the VR content being reproduced. Specifically, at a point where the reproduced VR content provides predefined specific information to a user wearing an output device, the corresponding condition may be satisfied. For example, in VR content, the first input may be detected only when a mountain appears as a background. In this case, in a situation in which a mountain does not appear in the background, even if the user performs an operation corresponding to the first input or makes a sound, the AR content corresponding to the detection of the first input may not be reproduced. Also, it may be determined that the first input itself is not detected.

시간 조건은, 시스템에 의해 재생되는 VR 컨텐츠의 프레임에 기반하여, 조건의 만족 여부가 결정되는 것일 수 있다. 따라서, 전체 프레임 상의 특정 시점에서 또는 전체 프레임 상의 특정 구간에서 제1 입력이 검출되는 경우에만, AR 컨텐츠의 재생이 수행될 수 있다. 예를 들어, VR 컨텐츠의 재생 시작 시점으로부터 20.5~25.5초 사이에서 제1 입력이 감지되는 경우에만 AR 컨텐츠 재생이 수행될 수 있다. 전술한 두 가지 조건을 모두 만족하는 경우에, 제1 입력의 검출에 대응하여, AR 컨텐츠의 재생이 이루어지도록 설정할 수 있다. VR 컨텐츠의 재생 중, 제1 입력의 검출에 대응하여 AR 컨텐츠의 재생이 이루어지는 동작은 컨텐츠의 전환으로 지칭될 수 있다. 다만, 이러한 용어의 의미가 VR 컨텐츠의 재생이 제1 입력이 검출되는 시점으로부터 중단되는 것으로 제한해석 되어서는 아니될 것이다. VR 컨텐츠와 AR 컨텐츠는 제1 입력의 검출에 대응하여 동적으로 변경되거나 더하여 재생될 수 있으므로, 제1 입력은 MR 컨텐츠를 제생하는 시스템에서 재생되는 VR 컨텐츠 및 AR 컨텐츠의 전환하기 위한 입력으로 이해될 수 있다. 예를 들어, 역사적 사건에 기반하여 전개되는 의병 훈련 컨텐츠가 VR 컨텐츠로서 재생되는 경우를 가정할 때, 적군에 대응되는 이미지가 재생되는 경우, 사용자는 제1 입력을 가함으로써 AR 컨텐츠를 불러올 수 있다. 이 경우, 적군은 AR 컨텐츠 상에서 타겟으로 설정될 수 있고, 사용자는 센서 등의 입력 수단을 통해 타겟에 대한 후속 입력을 가함으로써 AR 컨텐츠를 즐길 수 있다. 이 상황에서 시간조건이 부가되는 경우에는, 적군이 나타나는 경우에도, 일정한 시간 내에 제1 입력이 이루어져야 하는 것으로, 제1 입력 조건이 제한될 수 있다. The time condition may be that whether or not the condition is satisfied is determined based on the frame of the VR content reproduced by the system. Accordingly, the AR content may be reproduced only when the first input is detected at a specific point in the entire frame or at a specific section in the entire frame. For example, AR content playback may be performed only when a first input is sensed between 20.5 and 25.5 seconds from a playback start time of VR content. When both of the above-described conditions are satisfied, the AR content may be reproduced in response to the detection of the first input. During the reproduction of the VR content, an operation in which the AR content is reproduced in response to detection of the first input may be referred to as content switching. However, the meaning of these terms should not be construed as limiting that the reproduction of the VR content is stopped from the point in time when the first input is detected. Since the VR content and AR content can be dynamically changed or reproduced in response to detection of the first input, the first input may be understood as an input for switching between the VR content and AR content reproduced in the system for generating the MR content. can For example, assuming that medical training content developed based on historical events is reproduced as VR content, when an image corresponding to the enemy is reproduced, the user may call up AR content by applying a first input. . In this case, the enemy may be set as a target on the AR content, and the user may enjoy the AR content by applying a subsequent input to the target through an input means such as a sensor. When a time condition is added in this situation, even when an enemy appears, the first input must be made within a predetermined time, and the first input condition may be limited.

단계(207s)에서, 시스템은 제2 입력을 검출한다.In step 207s, the system detects a second input.

제2 입력은, 제1 입력에 따라 AR 컨텐츠의 재생이 이루어진 경우에, AR 컨텐츠의 재생 중에 가해지는 후속입력으로 이해될 수 있다. 제2 입력은 제1 입력과 마찬가지로 출력장치 또는 출력장치에 부속되거나 출력장치와 동작 가능하게 연결된 센서를 통해 입력될 수 있다. 또한 외부 서버를 통해 제 3자에 의해 입력되거나 미리 설정된 조건에 따라 입력되거나 보정될 수 있다. 제1 입력은 제2 입력에 선행하는 입력으로 이해될 수 있으나, 제1과 제2의 의미가 시계열적인 순서를 강제하기 위한 용어로 이해되어서는 아니된다.The second input may be understood as a subsequent input applied while the AR content is being reproduced when the AR content is reproduced according to the first input. Like the first input, the second input may be input through an output device or a sensor attached to or operatively connected to the output device. In addition, it may be input by a third party through an external server, or may be input or corrected according to preset conditions. The first input may be understood as an input preceding the second input, but the meaning of the first input and the second input should not be understood as a term for forcing a chronological order.

AR 컨텐츠의 재생 중에 제2 입력이 가해지는 상황에서, 제2 입력은 AR 컨텐츠와 연관된 입력일 수 있다. 제2 입력에는 AR 컨텐츠 상에서 구현되는 타겟, 메시지, 상황, 소리 등에 대하여 사용자의 피드백 정보를 포함할 수 있다. 예를 들어, 재생되는 AR 컨텐츠가 갑작스럽게 출현하는 타겟이나, 사용자에게 특정 동작을 요청하는 메시지를 포함하는 경우, 사용자는 해당 타겟에 대한 활쏘기 동작, 메시지에 대응하는 후속 행동을 수행할 수 있고 이는 피드백 정보를 포함하는 제2 입력으로 이해될 수 있다. 나아가, 제2 입력은, 사용자의 신체에 부착된 센서나 사용자에 의해 조작 가능한 입력 수단을 통해 검출될 수 있다. 사용자의 심장 박동수, 체온 등을 감지하여 사용자의 건강, 심리 상태를 피드백 정보로서 검출할 수 있고, 이는 제2 입력에 포함될 수 있다. 또한, 제2 입력은 마이크로폰을 통해 검출되는 사운드 정보일 수 있다. In a situation where the second input is applied while the AR content is being reproduced, the second input may be an input related to the AR content. The second input may include user feedback information on a target, message, situation, sound, etc. implemented on AR content. For example, if the AR content to be reproduced includes a target that appears suddenly or a message requesting a specific action from the user, the user may perform an archery action for the target or a subsequent action corresponding to the message, which is It may be understood as a second input including feedback information. Furthermore, the second input may be detected through a sensor attached to the user's body or an input means operable by the user. By sensing the user's heart rate, body temperature, etc., the user's health and psychological state may be detected as feedback information, which may be included in the second input. Also, the second input may be sound information detected through a microphone.

단계(209s)에서, 시스템은 제2 입력의 검출에 대응하여, 미리 설정된 임계치에 기반하여 결과 값을 산출할 수 있다. In step 209s, the system may calculate a result value based on a preset threshold in response to detection of the second input.

미리 설정된 임계치라 함은, AR 컨텐츠를 경험하는 사용자가 달성할 것을 권장하는 목표치로 이해될 수 있다. AR 컨텐츠에 포함되고, 사용자에게 피드백 정보를 요구하는 액션들(타겟, 메시지 등)에 대응하여 제2 입력이 피드백 정보로서 검출되면, 제2 입력이 목표치 이상인지 여부를 결정할 수 있다. 이를 통해 각각의 액션들에 대한 사용자의 목표달성 여부를 개별적으로 결정할 수 있다. 미리 설정된 임계치에 대응되는 목표치는 초기 설정에 의해 변경 가능하게 결정된다. 사용자는 난이도, 챕터 등을 개별적으로 선택함으로써 목표치를 조절할 수 있다. 결과 값은, 제2 입력이 미리 설정된 임계치 이상으로 검출되었는지 여부에 관한 정보일 수 있다. AR 컨텐츠 상에서 사용자에게 피드백 정보를 요구하는 액션들의 횟수에 따라 결과 값은 개별적으로 산출될 수 있다. 또한 각각의 제2 입력에 대한 목표치 달성 여부를 종합하여, 해당 AR 컨텐츠에 대한 목표 달성 여부를 결과 값의 형태로 산출할 수 있다. 산출된 결과 값에 관한 정보는 사용자의 출력장치를 통해 표시되거나, 외부 서버를 통해 업로드 될 수 있다. The preset threshold may be understood as a target value that is recommended to be achieved by a user who experiences AR content. When the second input is detected as feedback information in response to actions (target, message, etc.) included in the AR content and requesting feedback information from the user, it may be determined whether the second input is equal to or greater than a target value. Through this, it is possible to individually determine whether the user achieves a goal for each action. The target value corresponding to the preset threshold is determined to be changeable by the initial setting. The user can adjust the target value by individually selecting the difficulty level, chapter, and the like. The result value may be information on whether the second input is detected to be greater than or equal to a preset threshold. A result value may be individually calculated according to the number of actions for requesting feedback information from the user on the AR content. In addition, by synthesizing whether the target value for each second input has been achieved, whether the target for the corresponding AR content has been achieved can be calculated in the form of a result value. Information on the calculated result value may be displayed through the user's output device or uploaded through an external server.

도 3는, 본 개시의 일 실시 예에 따른 제어부의 동작을 표현한 구성도이다.3 is a configuration diagram illustrating an operation of a control unit according to an embodiment of the present disclosure.

도 3를 참조하면, 제어부(300)는 검출된 제2 입력을 계층적으로 구분할 수 있다. 예를 들어, 제2 입력이, 사용자의 목소리인 경우, 목소리의 데시벨(dB), 음압 등을 측정하고 이를 수치화 하여 복수의 그룹으로 분류할 수 있다. 제2 입력이 사용자 몸의 자세 또는 움직임인 경우, 사용자의 신체에 부착된 센서 또는 출력장치에 부속된 센서에 의해, 이를 측정하고, 미리 저장된 기준 자세 또는 기준 움직임, 속도 등에 관한 데이터를 기준으로, 움직임의 정확성 여부를 평가하는 복수의 그룹을 생성하고, 제2 입력이 어떤 그룹에 속하는지 결정할 수 있다. 제2 입력이 AR 컨텐츠 상에서 구현된 타겟에 대한 사용자의 액션인 경우, 사용자의 해당 액션에 따라 타겟에 대한 명중률이 결정되면, 타겟 명중률에 기반하여 복수의 그룹을 생성하고, 이를 통해 목표치와 비교하여 목표 달성 여부를 확인할 수 있다. Referring to FIG. 3 , the controller 300 may hierarchically classify the detected second input. For example, when the second input is the user's voice, the decibels (dB) of the voice, the sound pressure, etc. may be measured, digitized, and classified into a plurality of groups. When the second input is a posture or movement of the user's body, it is measured by a sensor attached to the user's body or a sensor attached to an output device, and based on data related to a pre-stored reference posture or reference movement, speed, etc., A plurality of groups for evaluating whether the movement is accurate may be generated, and it may be determined which group the second input belongs to. When the second input is the user's action on the target implemented on the AR content, when the hit rate for the target is determined according to the user's corresponding action, a plurality of groups are created based on the target hit rate, and through this, the target is compared with the target. You can check whether the goal has been achieved.

제어부(300)는, 검출된 제2 입력에 기반하여 목표 달성도를 산출할 수 있다. 목표 달성도는 제2 입력과 미리 설정된 임계치에 기반하여 결정되고, 외적 목표 달성도와 내적 목표 달성도로 구분될 수 있다. 외적 목표 달성 여부는 시스템에서 검출된 행동지수에 기반하여 결정될 수 있다. 행동지수는 시스템의 일 구성으로 포함된 센서에 의해 측정된 사용자의 움직임, 반응속도, 자세, 타겟 명중률, 함성의 크기 등에 기반하여 결정될 수 있다. 제어부(300)는 행동지수가 미리 설정된 행동지수 임계 값 이상인 경우에, 외적 목표가 달성되었다고 판단할 수 있다. 내적 목표 달성 여부는, 시스템에서 검출된 심리지수에 기반하여 결정될 수 있다. 심리지수는 시스템의 일 구성으로 포함된 센서에 의해 측정된 사용자의 심장 박동, 체온, 동공의 움직임, 떨림, 심전도 등에 관한 데이터에 기반하여 결정될 수 있다. 제어부(300)는 심리지수가 미리 설정된 행동지수 임계 값 이상인 경우에, 내적 목표가 달성되었다고 판단할 수 있다. 제어부(300)는, 외적 목표 달성도와 내적 목표 달성도를 종합하여, AR 컨텐츠를 경험하는 사용자의 목표 달성도를 결정할 수 있다. 목표 달성도에 관한 데이터는 서버를 통해 전송되거나 시스템에 저장되어 사용자가 열람할 수 있다. AR 컨텐츠를 경험하는 사용자가 목표를 달성한 것으로 결정된 경우에는, 그 목표 달성에 대응하는 메시지를 출력장치에 표시할 수 있다. 예를 들어, 의병 훈련을 위한 MR 컨텐츠를 이용하는 사용자는, 지정된 목표를 모두 달성한 것으로 결정된 경우, 의병장 등과 관련된 인증 화면을 확인할 수 있다.The controller 300 may calculate a degree of goal achievement based on the detected second input. The goal achievement degree is determined based on the second input and a preset threshold, and may be divided into an external goal achievement degree and an internal goal achievement degree. Whether or not the external goal is achieved may be determined based on the behavior index detected in the system. The behavior index may be determined based on the user's movement, reaction speed, posture, target hit rate, size of shout, etc. measured by a sensor included as one component of the system. The controller 300 may determine that the external goal has been achieved when the behavioral index is equal to or greater than a preset behavioral index threshold. Whether to achieve the internal goal may be determined based on the psychological index detected in the system. The psychological index may be determined based on data about the user's heartbeat, body temperature, pupil movement, tremor, electrocardiogram, etc. measured by a sensor included as one component of the system. When the psychological index is equal to or greater than a preset behavior index threshold, the controller 300 may determine that the internal goal has been achieved. The controller 300 may determine the degree of achievement of the user who experiences the AR content by synthesizing the degree of achievement of the external goal and the degree of achievement of the internal goal. Data on goal achievement is transmitted through the server or stored in the system and can be viewed by the user. When it is determined that the user who experiences the AR content has achieved the goal, a message corresponding to the achievement of the goal may be displayed on the output device. For example, when it is determined that all specified goals have been achieved, a user using MR content for medical training may check an authentication screen related to a medical officer or the like.

도 4는 본 개시의 일 실시 예에 따른, 컨텐츠 난이도 재설정을 위한 동작에 관한 순서도이다. 4 is a flowchart of an operation for resetting content difficulty according to an embodiment of the present disclosure.

시스템은 AR 컨텐츠를 이용하는 복수의 사용자들이 제공한 데이터에 기반하여 목표 달성도의 난이도를 분류할 수 있다. 또한, 미리 저장된 데이터에 기반하여, 사용자의 성향이나, 선호도에 따른 난이도를 제안하고 결정할 수 있다.The system may classify the degree of difficulty of goal achievement based on data provided by a plurality of users who use AR content. In addition, based on the pre-stored data, it is possible to suggest and determine the user's tendency or difficulty according to the preference.

단계(401s)에서, 시스템은, 사용자의 제2 입력의 검출에 기반하여, 사용자의 목표 달성도를 평가할 수 있다. 사용자의 목표 달성도에 대한 평가는, 특정 사용자에 대한 AR 컨텐츠의 제공이 종료된 이후에 이루어지거나, AR 컨텐츠 재생 중에 실시간으로 이루어질 수 있다. 사용자의 제2 입력에 대응하는 목적 달성도가, 미리 정해진 임계 값에 지속적으로 미치지 못하는 경우에 시스템은 해당 사용자의 목표 달성도를 낮은 것으로 결정할 수 있다. 평가는, 사용자에게 피드백 정보를 요구하는 액션들마다 개별적으로 이루어질 수 있고, 이들의 총 합 또는 평균화 된 값에 기반하여 결정될 수 있다.In step 401s , the system may evaluate the user's degree of achievement of the goal based on the detection of the user's second input. The evaluation of the user's goal achievement may be performed after the provision of the AR content to a specific user is finished, or may be performed in real time while the AR content is being played. When the degree of goal achievement corresponding to the user's second input does not continuously fall below the predetermined threshold value, the system may determine that the target achievement degree of the corresponding user is low. The evaluation may be made individually for each action that requests feedback information from the user, and may be determined based on a total sum or averaged value thereof.

단계(403s)에서, 시스템은, 평가된 목표 달성도에 기반하여, 난이도를 재설정할 수 있다. 난이도는 복수의 그룹으로 분류될 수 있다. 시스템은 AR 컨텐츠를 이용한 복수의 사용자들에 관한 목표 달성도 데이터에 기반하여, 난이도를 분류하고, 수정할 수 있다. 특정 사용자의 목표 달성도와 데이터 베이스에 존재하는 다른 사용자들의 목표 달성도를 상호 비교하여, 특정 사용자의 목표 달성도에 대응하는 난이도를 제안할 수 있다. AR 컨텐츠 제공이 종료된 이후, 사용자의 목표 달성도를 평가하여 수치화하고, 목표 달성에 필요한 임계치를 초과한 경우에는 더 높은 난이도를 제안할 수 있다. 또한 사용자의 목표 달성도가 목표 달성에 필요한 임계치에 미치지 못하는 경우에는 더 낮은 난이도를 제안할 수 있다. 사용자가 MR 컨텐츠를 다시 이용하는 경우, 해당 사용자의 목표 달성도에 관한 데이터에 기반하여, 초기 설정화면에서 난이도 재설정을 제안할 수 있다. 또한, 난이도 재설정 제안 없이, 시스템에서 자체적으로, 해당 사용자의 사용기록에 기반하여, 사용자의 지난 목표 달성도에 대응되는 난이도를 재설정하고, 재설정된 난이도에 기반하여 MR 컨텐츠를 제공할 수 있다. In step 403s, the system may reset the difficulty level based on the assessed degree of achievement of the goal. The difficulty level may be classified into a plurality of groups. The system may classify and modify the difficulty level based on goal achievement data about a plurality of users using AR content. By comparing the target achievement degree of a specific user with the target achievement degree of other users existing in the database, a difficulty level corresponding to the target achievement degree of the specific user may be suggested. After the provision of AR content is finished, the user's degree of goal achievement is evaluated and quantified, and a higher difficulty level can be suggested when a threshold required to achieve the goal is exceeded. In addition, when the user's goal achievement level does not reach the threshold required to achieve the goal, a lower difficulty level may be suggested. When the user uses the MR content again, it is possible to suggest a difficulty reset on the initial setting screen based on the data on the target achievement level of the user. In addition, without a proposal to reset the difficulty, the system may reset the difficulty corresponding to the user's past goal achievement level by itself, based on the user's usage record, and provide MR content based on the reset difficulty level.

단계(405s)에서, 시스템은, 재설정 된 난이도를 업데이트 할 수 있다.In step 405s, the system may update the reset difficulty level.

시스템에 포함된 서버 또는 시스템과 동작 가능하게 연결된 외부 서버를 통해, 재설정된 특정 사용자에 대한 난이도 정보를 업로드 또는 업데이트 할 수 있다. 특정 사용자가 다시 MR 컨텐츠를 이용하고자 할 때, 업데이트된 난이도 정보에 기반하여 사용자에게 적절한 난이도를 제안할 수 있다. Through a server included in the system or an external server operatively connected to the system, it is possible to upload or update difficulty information for a specific reset user. When a specific user wants to use the MR content again, an appropriate difficulty level may be suggested to the user based on the updated difficulty level information.

본 개시의 일 실시 예에 따른, 혼합 현실 (mixed reality, MR) 컨텐츠를 제공하기 위한 시스템은, 출력장치; 적어도 하나 이상의 센서; 및 상기 출력장치 및 상기 적어도 하나 이상의 센서와 전자기적으로 연결된 적어도 하나 이상의 제어부를 포함하며, 상기 적어도 하나 이상의 제어부는, 가상 현실 (virtual reality, VR) 컨텐츠를 재생하고, 제1 입력의 검출에 대응하여, 증강 현실 (Augmented reality, AR) 컨텐츠를 재생하고, 상기 AR 컨텐츠를 재생하는 동안 상기 AR 컨텐츠와 연관된 제2 입력을 검출하고, 상기 제2 입력과 미리 정해진 임계치를 비교하여 상기 AR 컨텐츠에 대한 결과 값을 산출하도록 구성되고, 상기 제1 입력의 검출은, 상기 VR 컨텐츠의 미리 정해진 재생 구간 내에서 수행될 수 있다.According to an embodiment of the present disclosure, a system for providing mixed reality (MR) content includes: an output device; at least one or more sensors; and at least one control unit electromagnetically connected to the output device and the at least one sensor, wherein the at least one control unit reproduces virtual reality (VR) content and responds to detection of a first input to play an augmented reality (AR) content, detect a second input associated with the AR content while playing the AR content, and compare the second input with a predetermined threshold for the AR content and to calculate a result value, and the detection of the first input may be performed within a predetermined playback period of the VR content.

바람직하게는, 상기 제2 입력은, 사용자의 심리와 연관된 제3 입력과, 사용자의 행동과 연관된 제4 입력을 포함하고, 상기 제3 입력은, 소리, 임피던스, 진동 주기 또는 온도 중 적어도 하나에 기반하여 검출되고, 상기 제4 입력은, 속도, 각도 또는 이동방향 중 적어도 하나에 기반하여 검출될 수 있다.Preferably, the second input includes a third input related to the user's psychology and a fourth input related to the user's behavior, wherein the third input is related to at least one of sound, impedance, vibration period, and temperature. based on the detection, and the fourth input may be detected based on at least one of a speed, an angle, and a moving direction.

바람직하게는, 상기 미리 정해진 재생 구간은, 상기 VR 컨텐츠에서 출력되는 컨텐츠 데이터의 패킷의 양에 대한 임계 구간이거나, 재생되는 상기 VR 컨텐츠의 시간 구간 중 적어도 하나일 수 있다.Preferably, the predetermined playback period may be at least one of a threshold period for the amount of packets of content data output from the VR content or a time period of the VR content to be reproduced.

바람직하게는, 상기 적어도 하나 이상의 센서는, 계층화 된 임계치를 기준으로 상기 제2 입력을 검출할 수 있다.Preferably, the at least one sensor may detect the second input based on a layered threshold.

바람직하게는, 상기 적어도 하나 이상의 프로세서는, 상기 결과 값에 기반하여, AR 컨텐츠에 대한 사용자의 목표 달성 여부를 결정하고, 결정된 상기 목표 달성 여부를 표시하는 메시지를 출력하도록 더 구성될 수 있다.Preferably, the at least one processor may be further configured to determine whether the user has achieved a goal for AR content based on the result value, and output a message indicating whether the determined goal has been achieved.

바람직하게는, 상기 결과 값은, 상기 제2 입력에 의해 검출된 값이 상기 미리 저장된 임계 값 이상인지에 따라 결정될 수 있다.Preferably, the result value may be determined according to whether a value detected by the second input is equal to or greater than the pre-stored threshold value.

본 개시의 다른 실시 예에 따른, 혼합 현실 (mixed reality, MR) 컨텐츠를 제공하기 위한 시스템의 동작 방법은, 가상 현실 (virtual reality, VR) 컨텐츠를 재생하는 과정과, 제1 입력의 검출에 대응하여, 증강 현실 (Augmented reality, AR) 컨텐츠를 재생하는 과정과, 상기 AR 컨텐츠를 재생하는 동안 상기 AR 컨텐츠와 연관된 제2 입력을 검출 하는 과정과, 상기 제2 입력과 미리 정해진 임계치를 비교하여 상기 AR 컨텐츠에 대한 결과 값을 산출 하는 과정을 포함하고, 상기 제1 입력의 검출은, 상기 VR 컨텐츠의 미리 정해진 재생 구간 내에서 수행될 수 있다.According to another embodiment of the present disclosure, a method of operating a system for providing mixed reality (MR) content includes a process of reproducing virtual reality (VR) content, and a response to detection of a first input Thus, a process of playing an augmented reality (AR) content, a process of detecting a second input associated with the AR content while playing the AR content, and comparing the second input with a predetermined threshold, and calculating a result value for the AR content, and the detection of the first input may be performed within a predetermined playback section of the VR content.

바람직하게는, 상기 제2 입력은, 사용자의 심리와 연관된 제3 입력과, 사용자의 행동과 연관된 제4 입력을 포함하고, 상기 제3 입력은, 소리, 임피던스, 진동 주기 또는 온도 중 적어도 하나에 기반하여 검출되고, 상기 제4 입력은, 속도, 각도 또는 이동방향 중 적어도 하나에 기반하여 검출될 수 있다.Preferably, the second input includes a third input related to the user's psychology and a fourth input related to the user's behavior, wherein the third input is related to at least one of sound, impedance, vibration period, and temperature. based on the detection, and the fourth input may be detected based on at least one of a speed, an angle, and a moving direction.

바람직하게는, 상기 미리 정해진 재생 구간은, 상기 VR 컨텐츠에서 출력되는 컨텐츠 데이터의 패킷의 양에 대한 임계 구간이거나, 재생되는 상기 VR 컨텐츠의 시간 구간 중 적어도 하나일 수 있다.Preferably, the predetermined playback period may be at least one of a threshold period for the amount of packets of content data output from the VR content or a time period of the VR content to be reproduced.

바람직하게는, 상기 제2 입력을 검출하는 과정은, 계층화 된 임계치를 기준으로 수행될 수 있다.Preferably, the process of detecting the second input may be performed based on a layered threshold.

바람직하게는, 상기 결과 값에 기반하여, AR 컨텐츠에 대한 사용자의 목표 달성 여부를 결정하는 과정과, 결정된 상기 목표 달성 여부를 표시하는 메시지를 출력하는 과정을 더 포함할 수 있다.Preferably, the method may further include, based on the result value, determining whether the user has achieved a goal for the AR content, and outputting a message indicating whether the determined goal has been achieved.

바람직하게는, 상기 결과 값은, 상기 제2 입력에 의해 검출된 값이 상기 미리 저장된 임계 값 이상인지에 따라 결정될 수 있다. Preferably, the result value may be determined according to whether a value detected by the second input is equal to or greater than the pre-stored threshold value.

본 문서의 다양한 실시 예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시 예들로 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제1", "제2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제1) 구성요소가 다른(예: 제2) 구성요소에, "기능적으로” 또는 "통신적으로”라는 용어와 함께 또는 이런 용어 없이, "커플드” 또는 "커넥티드”라고 언급된 경우, 그것은 어떤 구성요소가 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.The various embodiments of this document and the terms used therein are not intended to limit the technical features described in this document to specific embodiments, and should be understood to include various modifications, equivalents, or substitutions of the embodiments. In connection with the description of the drawings, like reference numerals may be used for similar or related components. The singular form of the noun corresponding to the item may include one or more items, unless the relevant context clearly dictates otherwise. As used herein, "A or B", "at least one of A and B", "at least one of A or B", "A, B or C", "at least one of A, B and C", and "A , B, or C" each may include any one of the items listed together in the corresponding one of the phrases, or all possible combinations thereof. Terms such as “first”, “second”, or “first” or “second” may simply be used to distinguish the component from other components in question, and may refer to components in other aspects (e.g., importance or order) is not limited. that one (eg first) component is "coupled" or "connected" to another (eg, second) component with or without the terms "functionally" or "communicatively" When referenced, it means that one component can be coupled to another component directly (eg, by wire), wirelessly, or through a third component.

본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일 실시 예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다. As used herein, the term “module” may include a unit implemented in hardware, software, or firmware, and may be used interchangeably with terms such as, for example, logic, logic block, component, or circuit. A module may be an integrally formed part or a minimum unit of a part or a part thereof that performs one or more functions. For example, according to an embodiment, the module may be implemented in the form of an application-specific integrated circuit (ASIC).

본 문서의 다양한 실시 예들은 장치(machine)(예: 전자 장치) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리 또는 외장 메모리)에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램)로서 구현될 수 있다. 예를 들면, 장치(예: 전자 장치의 프로세서(예: 프로세서)는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 장치가 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 장치로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장매체가 실재(tangible)하는 장치이고, 신호(signal)(예: EM파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.Various embodiments of the present document include software (eg, a program) including one or more instructions stored in a storage medium (eg, internal memory or external memory) readable by a machine (eg, an electronic device). can be implemented as For example, a device (eg, a processor (eg, a processor) of an electronic device) may invoke and execute at least one of one or more instructions stored from a storage medium. In accordance with , the one or more instructions may include code generated by a compiler or code that can be executed by an interpreter. A device-readable storage medium includes: It may be provided in the form of a non-transitory storage medium, where 'non-transitory' means that the storage medium is a tangible device and does not include a signal (eg, EM wave). However, this term does not distinguish between a case in which data is semi-permanently stored in a storage medium and a case in which data is temporarily stored.

일 실시 예에 따르면, 본 문서에 개시된 다양한 실시 예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 장치로 읽을 수 있는 저장 매체(예: CD-ROM(compact disc read only memory))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 장치로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to an embodiment, the method according to various embodiments disclosed in this document may be provided by being included in a computer program product. Computer program products may be traded between sellers and buyers as commodities. The computer program product is distributed in the form of a device-readable storage medium (eg compact disc read only memory (CD-ROM)), or through an application store (eg Play Store™) or on two user devices ( It can be distributed (eg downloaded or uploaded) directly or online between smartphones (eg: smartphones). In the case of online distribution, at least a part of the computer program product may be temporarily stored or temporarily generated in a device-readable storage medium such as a memory of a server of a manufacturer, a server of an application store, or a relay server.

다양한 실시 예들에 따르면, 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있다. 다양한 실시 예들에 따르면, 전술된 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 통합 이전에 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시 예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.According to various embodiments, each component (eg, a module or a program) of the described components may include a singular or a plurality of entities. According to various embodiments, one or more components or operations among the above-described corresponding components may be omitted, or one or more other components or operations may be added. Alternatively or additionally, a plurality of components (eg, a module or a program) may be integrated into one component. In this case, the integrated component may perform one or more functions of each component of the plurality of components identically or similarly to those performed by the corresponding component among the plurality of components prior to integration. According to various embodiments, operations performed by a module, program, or other component are executed sequentially, in parallel, repeatedly, or heuristically, or one or more of the operations are executed in a different order, omitted, or Or one or more other operations may be added.

HMD 100
RF 송수신기 110
TX 처리 회로 115
마이크로폰 120
RX 처리 회로 125
스피커 130
프로세서 140
I/O IF 145
터치스크린 150
디스플레이 155
메모리 160
운영 시스템 161
어플리케이션들 162
센서(들) 165
HMD 100
RF transceiver 110
TX processing circuit 115
microphone 120
RX processing circuit 125
speaker 130
processor 140
I/O IF 145
touch screen 150
display 155
memory 160
operating system 161
Applications 162
sensor(s) 165

Claims (12)

혼합 현실 (mixed reality, MR) 컨텐츠를 제공하기 위한 시스템에 있어서, 상기 시스템은,
출력장치;
적어도 하나 이상의 센서; 및
상기 출력장치 및 상기 적어도 하나 이상의 센서와 전자기적으로 연결된 적어도 하나 이상의 제어부를 포함하며,
상기 적어도 하나 이상의 제어부는,
가상 현실 (virtual reality, VR) 컨텐츠를 재생하고,
제1 입력의 검출에 대응하여, 증강 현실 (Augmented reality, AR) 컨텐츠를 재생하고,
상기 AR 컨텐츠를 재생하는 동안 상기 AR 컨텐츠와 연관된 제2 입력을 검출하고,
상기 제2 입력과 미리 정해진 임계치를 비교하여 상기 AR 컨텐츠에 대한 결과 값을 산출하도록 구성되고,
상기 제1 입력의 검출은, 상기 VR 컨텐츠의 미리 정해진 재생 구간 내에서 수행되며,

상기 미리 정해진 재생 구간은,
상기 VR 컨텐츠에서 출력되는 컨텐츠 데이터의 패킷의 양에 대한 임계 구간이거나, 재생되는 상기 VR 컨텐츠의 시간 구간 중 적어도 하나인 시스템.
A system for providing mixed reality (MR) content, the system comprising:
output device;
at least one or more sensors; and
At least one control unit electromagnetically connected to the output device and the at least one sensor,
The at least one control unit,
Play virtual reality (VR) content,
in response to detection of the first input, play augmented reality (AR) content;
detecting a second input associated with the AR content while playing the AR content;
and calculate a result value for the AR content by comparing the second input with a predetermined threshold,
The detection of the first input is performed within a predetermined playback period of the VR content,

The predetermined playback section is,
The system is at least one of a threshold period for the amount of content data packets output from the VR content or a time period of the VR content to be reproduced.
청구항 1에 있어서,
상기 제2 입력은,
사용자의 심리와 연관된 제3 입력과, 사용자의 행동과 연관된 제4 입력을 포함하고,
상기 제3 입력은, 소리, 임피던스, 진동 주기 또는 온도 중 적어도 하나에 기반하여 검출되고,
상기 제4 입력은, 속도, 각도 또는 이동방향 중 적어도 하나에 기반하여 검출되는 시스템.
The method according to claim 1,
The second input is
a third input associated with the user's psychology and a fourth input associated with the user's behavior;
The third input is detected based on at least one of sound, impedance, vibration period, or temperature,
The fourth input is detected based on at least one of a speed, an angle, and a moving direction.
삭제delete 청구항 1에 있어서,
상기 적어도 하나 이상의 센서는,
계층화 된 임계치를 기준으로 상기 제2 입력을 검출하는 시스템.
The method according to claim 1,
The at least one or more sensors,
A system for detecting the second input based on a layered threshold.
청구항 1에 있어서,
상기 적어도 하나 이상의 프로세서는,
상기 결과 값에 기반하여, AR 컨텐츠에 대한 사용자의 목표 달성 여부를 결정하고,
결정된 상기 목표 달성 여부를 표시하는 메시지를 출력하도록 더 구성되는 시스템.
The method according to claim 1,
The at least one or more processors,
Based on the result value, it is determined whether the user's goal for AR content is achieved,
The system further configured to output a message indicating whether the determined goal has been achieved.
청구항 5에 있어서,
상기 결과 값은, 상기 제2 입력에 의해 검출된 값이 상기 미리 정해진 임계치 이상인지에 따라 결정되는 시스템.
6. The method of claim 5,
wherein the result value is determined according to whether a value detected by the second input is greater than or equal to the predetermined threshold.
혼합 현실 (mixed reality, MR) 컨텐츠를 제공하기 위한 시스템의 동작 방법에 있어서,
가상 현실 (virtual reality, VR) 컨텐츠를 재생하는 과정과,
제1 입력의 검출에 대응하여, 증강 현실 (Augmented reality, AR) 컨텐츠를 재생하는 과정과,
상기 AR 컨텐츠를 재생하는 동안 상기 AR 컨텐츠와 연관된 제2 입력을 검출하는 과정과,
상기 제2 입력과 미리 정해진 임계치를 비교하여 상기 AR 컨텐츠에 대한 결과 값을 산출하는 과정을 포함하고,
상기 제1 입력의 검출은, 상기 VR 컨텐츠의 미리 정해진 재생 구간 내에서 수행되며,

상기 미리 정해진 재생 구간은,
상기 VR 컨텐츠에서 출력되는 컨텐츠 데이터의 패킷의 양에 대한 임계 구간이거나, 재생되는 상기 VR 컨텐츠의 시간 구간 중 적어도 하나인 방법.
A method of operating a system for providing mixed reality (MR) content, the method comprising:
The process of playing virtual reality (VR) content, and
A process of reproducing augmented reality (AR) content in response to detection of a first input;
detecting a second input associated with the AR content while playing the AR content;
Comparing the second input with a predetermined threshold and calculating a result value for the AR content,
The detection of the first input is performed within a predetermined playback period of the VR content,

The predetermined playback section is,
The method is at least one of a threshold period for the amount of content data packets output from the VR content or a time period of the VR content to be reproduced.
청구항 7에 있어서,
상기 제2 입력은,
사용자의 심리와 연관된 제3 입력과, 사용자의 행동과 연관된 제4 입력을 포함하고,
상기 제3 입력은, 소리, 임피던스, 진동 주기 또는 온도 중 적어도 하나에 기반하여 검출되고,
상기 제4 입력은, 속도, 각도 또는 이동방향 중 적어도 하나에 기반하여 검출되는 방법.
8. The method of claim 7,
The second input is
a third input associated with the user's psychology and a fourth input associated with the user's behavior;
The third input is detected based on at least one of sound, impedance, vibration period, or temperature,
The fourth input is detected based on at least one of a speed, an angle, and a moving direction.
삭제delete 청구항 7에 있어서,
상기 제2 입력을 검출하는 과정은,
계층화 된 임계치를 기준으로 수행되는 방법.
8. The method of claim 7,
The process of detecting the second input is
How it is done based on stratified thresholds.
청구항 7에 있어서,
상기 결과 값에 기반하여, AR 컨텐츠에 대한 사용자의 목표 달성 여부를 결정하는 과정과,
결정된 상기 목표 달성 여부를 표시하는 메시지를 출력하는 과정을 더 포함하는 방법.
8. The method of claim 7,
Based on the result value, the process of determining whether the user's goal for AR content is achieved;
The method further comprising the step of outputting a message indicating whether the determined goal has been achieved.
청구항 11에 있어서,
상기 결과 값은, 상기 제2 입력에 의해 검출된 값이 상기 미리 정해진 임계치 이상인지에 따라 결정되는 방법.
12. The method of claim 11,
wherein the result value is determined according to whether a value detected by the second input is equal to or greater than the predetermined threshold.
KR1020200127098A 2020-09-29 2020-09-29 Apparatus and method for switching mixed reality contents KR102389686B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200127098A KR102389686B1 (en) 2020-09-29 2020-09-29 Apparatus and method for switching mixed reality contents

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200127098A KR102389686B1 (en) 2020-09-29 2020-09-29 Apparatus and method for switching mixed reality contents

Publications (2)

Publication Number Publication Date
KR20220043559A KR20220043559A (en) 2022-04-05
KR102389686B1 true KR102389686B1 (en) 2022-04-25

Family

ID=81182392

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200127098A KR102389686B1 (en) 2020-09-29 2020-09-29 Apparatus and method for switching mixed reality contents

Country Status (1)

Country Link
KR (1) KR102389686B1 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4206870A1 (en) * 2014-06-14 2023-07-05 Magic Leap, Inc. Method for updating a virtual world
KR102043104B1 (en) * 2017-08-07 2019-11-11 주식회사 비플렉스 Motion sensing method and apparatus

Also Published As

Publication number Publication date
KR20220043559A (en) 2022-04-05

Similar Documents

Publication Publication Date Title
US11842432B2 (en) Handheld controller with finger proximity detection
JP6700463B2 (en) Filtering and parental control methods for limiting visual effects on head mounted displays
US9095775B2 (en) User interface and method of user interaction
US10388071B2 (en) Virtual reality (VR) cadence profile adjustments for navigating VR users in VR environments
CN110227258B (en) Transitioning gameplay on head-mounted display
US11833430B2 (en) Menu placement dictated by user ability and modes of feedback
CN108984087B (en) Social interaction method and device based on three-dimensional virtual image
CN107147941A (en) Barrage display methods, device and the computer-readable recording medium of video playback
CN102749990A (en) Systems and methods for providing feedback by tracking user gaze and gestures
CN108259990A (en) A kind of method and device of video clipping
CN108876878B (en) Head portrait generation method and device
CN108536367B (en) Interactive page jamming processing method, terminal and readable storage medium
US20230053767A1 (en) System, game console and method for adjusting a virtual environment
CN108012158A (en) Direct broadcasting room main broadcaster bean vermicelli ranks method, apparatus and corresponding terminal
KR20200034716A (en) Unlock augmented reality experiences through target image detection
CN107809674A (en) A kind of customer responsiveness acquisition, processing method, terminal and server based on video
CN109545321A (en) A kind of policy recommendation method and device
CN112169327A (en) Control method of cloud game and related device
KR102389686B1 (en) Apparatus and method for switching mixed reality contents
US20170246534A1 (en) System and Method for Enhanced Immersion Gaming Room
TWI729323B (en) Interactive gamimg system
WO2017075992A1 (en) Interaction method and device
US11771993B2 (en) Changing response window for interactive content using user's reaction time
US20240238672A1 (en) Ultra-wideband radar devices for cloud-based gaming control
US20210350246A1 (en) Altering motion of computer simulation characters to account for simulation forces imposed on the characters

Legal Events

Date Code Title Description
GRNT Written decision to grant