KR20180098917A - 가상 현실 체험 중 이벤트 발생시 동작 방법 및 그 전자장치 - Google Patents

가상 현실 체험 중 이벤트 발생시 동작 방법 및 그 전자장치 Download PDF

Info

Publication number
KR20180098917A
KR20180098917A KR1020170025689A KR20170025689A KR20180098917A KR 20180098917 A KR20180098917 A KR 20180098917A KR 1020170025689 A KR1020170025689 A KR 1020170025689A KR 20170025689 A KR20170025689 A KR 20170025689A KR 20180098917 A KR20180098917 A KR 20180098917A
Authority
KR
South Korea
Prior art keywords
screen
user
event
dummy
electronic device
Prior art date
Application number
KR1020170025689A
Other languages
English (en)
Inventor
하유솔
문범석
김민혁
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020170025689A priority Critical patent/KR20180098917A/ko
Priority to EP17204041.2A priority patent/EP3367215B1/en
Priority to US15/877,313 priority patent/US10386635B2/en
Publication of KR20180098917A publication Critical patent/KR20180098917A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera

Abstract

가상 현실 체험 중 이벤트 발생시 동작 방법 및 그 전자장치가 개시된다. 본 발명에 따른 전자장치는, 가상 현실 컨텐츠에 대응되는 3D 화면을 디스플레이하는 디스플레이부와, 3D 화면이 디스플레이되는 동안 적어도 하나의 애플리케이션에서 이벤트가 발생되면, 이벤트 발생을 알려주는 알림 정보를 상기 3D 화면에 대응되게 출력하는 제어부와, 알림 정보가 출력되면 사용자의 움직임 정도를 감지하는 센싱부를 포함한다. 이때에, 제어부는, 이벤트 동안 감지된 사용자의 움직임 정도가 기설정된 조건을 만족하면, 3D 화면을3D 화면과 관련된 더미(dummy) 컨텐츠로 대체하고, 더미 컨텐츠는 이벤트가 종료되면 사라진다.

Description

가상 현실 체험 중 이벤트 발생시 동작 방법 및 그 전자장치{MOBILE TERMINAL AND METHOD FOR CONTROLLING THE SAME}
본 발명은 전자장치에서 가상 현실 체험 중에 이벤트 발생시 동작 방법 및 그 전자장치에 관한 것이다.
HMD(Head Mounted Display) 형태의 전자장치는, 사용자의 두부에 착용되며, 사용자의 눈 앞에 직접 영상을 제시할 수 있는 디스플레이 장치를 말한다. 이러한 전자장치는 TV나 또는 화면보다 더 거대한 영상으로 사용자가 영상 컨텐츠를 즐길 수 있도록 하고, 특히 가상 공간 화면을 표시하여 사용자가 가상 공간 체험을 즐길 수 있도록 할 수도 있다.
이러한 전자장치를 또 다른 장치, 예를 들어 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device) 등과 연동시켜서 사용하는 방안이 활발하게 연구되고 있다.
이때에, 전자장치를 이용하여 가상 공간 체험 중에 특정 이벤트가 발생하면, 사용자는 이벤트 확인을 위해 연동된 또 다른 장치를 전자장치로부터 분리해야하는 불편이 있었다. 또는, 전자장치를 착용한 상태로 이벤트 확인이 가능하더라도, 가상 공간 체험을 종료한 다음 대시보드(dash board)에 진입하는 등 이벤트 확인을 위한 단계 진입이 많고 복잡하였다.
그에 따라, 가상 공간 체험의 몰입이 방해되고 이벤트 확인 후에 다시 가상 공간 체험으로 복귀하였을 때 사용자의 실제 경험과 상이함으로 인하여 멀미가 유발되는 문제가 있었다.
본 발명은 상기와 같은 과제를 해결하기 위한 일 목적은, 전자장치를 착용한 상태로 이벤트를 확인하는 동안 그리고 이벤트 확인 후 컨텐츠 시청으로 다시 돌아왔을 때 사용자의 멀미 유발을 방지할 수 있는 전자장치를 제공하는데 있다.
또한, 본 발명의 또 다른 목적은 전자장치를 착용한 사용자가 이벤트 확인 후에 컨텐츠 시청으로 다시 복귀했을 때 컨텐츠 시청 환경에 순응하는데 도움을 줄 수 있는 전자장치를 제공하는데 있다.
이에, 본 발명의 일 실시 예에 따른 전자장치는, 본체; 가상 현실 컨텐츠에 대응되는 3D 화면을 디스플레이하는 디스플레이부; 상기 3D 화면이 디스플레이되는 동안 적어도 하나의 애플리케이션에서 이벤트가 발생되면, 이벤트 발생을 알려주는 알림 정보를 상기 3D 화면에 대응되게 출력하는 제어부; 상기 알림 정보가 출력되면 사용자의 움직임 정도를 센싱하는 센싱부를 포함하고, 상기 제어부는, 상기 이벤트 동안 감지된 사용자의 움직임 정도가 기설정된 조건을 만족하면, 상기 3D 화면을 상기 3D 화면과 연관된 더미(dummy) 컨텐츠로 대체하고, 상기 더미 컨텐츠는 상기 이벤트가 종료되면 사라지는 것을 특징으로 한다.
또한, 일 실시 예에서, 상기 더미 컨텐츠는 하나 이상의 더미 객체를 포함하는 제2 가상 현실 컨텐츠이고, 상기 더미 컨텐츠가 재생되는 동안에는 상기 3D 화면의 재생 중단 상태가 유지되는 것을 특징으로 한다.
또한, 일 실시 예에서, 상기 더미 컨텐츠는 상기 3D 화면과 연관되고 상기 더미 객체는 상기 3D 화면의 재생이 중단된 시점에 디스플레이되었던 가상 객체를 기초로 구성된 것을 특징으로 한다
또한, 일 실시 예에서, 상기 제어부는, 상기 이벤트 동안 사용자의 움직임이 기준범위 이내로 감소되면, 상기 3D 화면의 재생을 일시 중단하고 상기 3D 화면에 대응되는 더미 컨텐츠를 재생하는 것을 특징으로 한다.
또한, 일 실시 예에서, 상기 제어부는, 상기 알림 정보에 대응되는 이벤트 확인 동안 사용자의 움직임이 기준범위를 초과하는 것으로 감지되면, 상기 3D 화면의 재생을 계속 유지하는 것을 특징으로 한다.
또한, 일 실시 예에서, 상기 제어부는, 상기 더미 컨텐츠의 재생 동안 상기 이벤트가 종료되면, 상기 3D 화면을 재생이 중단되었던 제1시점에서 소정 시간 앞선 제2시점부터 재생하는 것을 특징으로 한다.
또한, 일 실시 예에서, 상기 제1시점과 상기 제2시점간의 간격은 상기 3D 화면의 컨텐츠 타입을 기초로 다르게 결정되는 것을 특징으로 한다.
또한, 일 실시 예에서, 상기 제1시점과 상기 제2시점간의 간격은 상기 더미 컨텐츠의 재생 시간에 비례하는 것을 특징으로 한다.
또한, 일 실시 예에서, 상기 더미 컨텐츠의 재생 시간이 기설정된 시간범위를 초과하면, 상기 제2시점부터 상기 제1시점까지 3D 화면이 다시 재생되는 동안 상기 3D 화면과 관련된 추가 정보가 제공되는 것을 특징으로 한다.
또한, 일 실시 예에서, 상기 더미 컨텐츠의 재생 중단 후 상기 제2시점부터 3D 화면이 재생되는 동안, 상기 제1 시점과 관련된 카운트 정보가 재생 중인 3D 화면 내에 출력되는 것을 특징으로 한다.
또한, 일 실시 예에서, 상기 제어부는, 상기 더미 컨텐츠의 재생 중단 후 상기 제2시점부터 3D 화면이 재생되는 동안 기설정된 입력이 수신되면, 상기 제1시점으로 점프하여 3D 화면을 재생하도록 제어하는 것을 특징으로 한다.
또한, 일 실시 예에서, 상기 제어부는, 상기 더미 컨텐츠의 재생 시간이 기설정된 시간범위를 초과하면, 상기 본체와 연동하여 3D 화면을 제어하는 컨트롤러의 안착을 안내하는 가이드 정보를 생성하고, 상기 가이드 정보를 상기 더미 컨텐츠에 대응되게 출력하는 것을 특징으로 한다.
또한, 일 실시 예에서, 상기 가이드 정보가 안내하는 위치에는, 실제 현실에 존재하는 오브젝트를 기초로 구성된 가상 객체가 디스플레이되는 것을 특징으로 한다.
또한, 일 실시 예에서, 상기 제어부는, 상기 3D 화면이 재생되는 제1레이어와 구분되는 제2레이어를 생성하고, 상기 이벤트 동안 사용자의 움직임이 기준범위 이내로 감소된 것에 응답하여, 상기 더미 컨텐츠를 상기 제2레이어상에서 재생하고, 상기 더미 컨텐츠가 재생되는 동안 상기 제1 레이어는 상기 제2 레이어의 하위에서 유지되는 것을 특징으로 한다.
본 발명의 실시 예에 따른 전자장치는 가상 현실 체험 중에 발생한 이벤트 확인 동안 사용자의 움직임이 둔화된 경우에도, 동일한 체험감을 느낄 수 있는 더미 컨텐츠를 재생해줌으로써 이벤트 확인 후 가상 현실 체험에 바로 복귀하더라도 멀리 유발이 발생하지 않는다. 또, 이벤트 확인 후 가상 현실 공간에 복귀시 디레이(delay) 구간을 제공함으로써, 사용자가 리얼 컨텐츠에 자연스럽게 순응할 수 있게 해준다.
도 1은 본 발명과 관련된 전자장치의 사용 예시를 보여주는 개념도이다.
도 2는 본 발명과 관련된 전자장치 및 이와 연동하여 사용하는 장치의 구성들을 보여주는 예시 개념도이다.
도 3a는 본 발명과 관련된 전자장치를 일 방향에서 바라본 개념도이고, 도 3b는 본 발명과 관련된 전자장치의 예시 구성을 설명하기 위한 블록도이다.
도 4a는 도 3a의 전자장치와 연동하여 사용하는 컨트롤러의 예시 개념도이고, 도 4b는 도 4a의 컨트롤러의 예시 구성을 설명하기 위한 블록도이다.
도 5는 본 발명과 관련된 전자장치에서 구현되는 동작을 설명하기 위한 대표 흐름도이다.
도 6은 본 발명과 관련된 전자장치에서 구현되는 동작을 보여주는 개념도들이다.
도 7은 본 발명의 일 실시 예에 따른 전자장치에서, 이벤트 종료시 3D 화면의 재생이 재개되는 동작을 보여주는 개념도들이다.
도 8 및 도 9는 본 발명의 일 실시 예에 따른 전자장치에서, 3D 화면의 재생 재개시 디레이 시간을 제공하는 방법과 관련된 개념도들이다.
도 10 및 도 11은 본 발명의 일 실시 예에 따른 전자장치에서, 3D 화면의 재생 재개시 제공되는 추가 정보와 관련된 예시 개념들이다.
도 12는 본 발명의 일 실시 예에 따른 전자장치에서, 연동된 컨트롤러의 안착 위치를 안내하는 방법과 관련된 예시 개념도이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소에는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 명세서에서 설명되는 전자장치에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device, 예를 들어, 워치형 단말기 (smartwatch), 글래스형 단말기 (smart glass), HMD(head mounted display)) 등이 포함될 수 있다.
그러나, 본 명세서에 기재된 실시 예에 따른 구성은 전자장치에만 적용 가능한 경우를 제외하면, 디지털 TV, 데스크탑 컴퓨터, 디지털 사이니지 등과 같은 고정 단말기에도 적용될 수도 있음을 본 기술분야의 당업자라면 쉽게 알 수 있을 것이다.
또한, 이하에 설명되는 실시 예들에서 사용되는 '사용자'는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능을 가진 로봇)를 의미할 수 있다. 또한, 이하에 설명되는 실시 예들에서는 가상 체험 중에 이벤트가 발생한 경우 전자장치의 동작들과 관련된 기술을 설명한다.
도 1은 본 발명과 관련된 전자장치의 사용 예시를 보여주는 개념도이고, 도 2는 본 발명과 관련된 전자장치 및 이와 연동하여 사용하는 주변 장치들의 구성을 보여주는 예시 개념도(1000)이다.
도 1을 참조하면, 본 발명의 실시 예에 따른 전자장치(100)는 라이트하우스(lighthouse) 시스템라는 위치 추적(positional tracking) 기술을 적용하여 전자장치(100)의 위치를 검출할 수 있다. 그리하여, 전자장치(100)가 사용자의 360도 모션을 추적하는데 도움을 준다. 여기서, 라이트하우스(lighthouse) 시스템은 도 1에 도시된 바와 같이, 닫힌 특정 공간내에 복수의 라이트하우스 장치들(300A, 300B)을 설치함으로써 구현될 수 있다. 또한, 상기 복수의 라이트하우스 장치들(300A, 300B)은 인식가능한 공간 범위가 극대화될 수 있는 위치, 예를 들어 대각선 방향으로 서로 마주보는 위치에 설치될 수 있다.
전자장치(100)는 복수의 라이트하우스 장치들(300A, 300B)에 포함된 LED 또는 레이저 방출기들로부터 방사되는 빛을 수신하고, 해당 빛이 수신된 위치와 시간간의 상관관계에 기초하여, 닫힌 특정 공간 내에서의 전자장치(100)의 위치를 정확하게 판단할 수 있다. 이를 위해, 라이트하우스 장치들(300A, 300B)에는 IR 램프와 2축의 모터가 각각 포함될 수 있으며, 이를 통해 전자장치(100)와 신호를 주고받는다.
또한, 전자장치(100)는 외부 장치(예, PC)(500)와 유/무선 통신을 수행할 수 있다. 이를 위해, 도 1에서는 전자장치(100)와 외부 장치(500)가 유선 케이블을 사용하여 연결된 것으로 도시되었으나, 이에 한정되는 것은 아니며, 예를 들어 무선 모듈 키트 등을 이용한 무선 연결도 가능하다. 전자장치(100)는 연결된 외부 장치(500)에 저장된 가상 공간 영상을 외부 장치(500)로부터 수신하여 사용자에게 디스플레이해줄 수 있다.
또한, 전자장치(100)를 통해 디스플레이되는 가상 공간 영상과 관련된 동작을 제어하기 위한 컨트롤러(200A, 200B)가 전자장치(100)의 또 다른 주변장치로 구비될 수 있다. 컨트롤러(200A, 200B)는 도 2에 도시된 바와 같이, 사용자가 양손에 쉽게 그립(grip)할 수 있는 형태로 이루어지며, 컨트롤러(200A, 200B)의 외측면에는 사용자 입력을 수신하기 위한 터치패드(또는 트랙패드), 버튼 등이 구비될 수 있다.
또한, 전자장치(100)는 컨트롤러(200A, 200B)에 구비된 다양한 센서들, 예를 들어, IR 센서나 모션 추적 센서 등을 통해, 사용자의 모션을 추적할 수 있으며 전자장치(100)와 상호 인터랙션을 수행할 수 있다. 또한, 컨트롤러(200A, 200B)는 전자장치(100)에 구비된 카메라를 통해 확인되는 실제 환경 이미지와 연동될 수 있다. 그에 따라, 사용자는 가상 공간 체험 중에도 전자장치(100)를 벗지 않고 컨트롤러(200A, 200B)의 조작을 통해 외부 환경을 즉시 확인할 수 있다.
도 3a는 본 발명과 관련된 전자장치를 일 방향에서 바라본 개념도이고, 도 3b는 본 발명과 관련된 전자장치의 예시 구성을 설명하기 위한 블록도이다.
도 3a에 도시된 바와 같이, 전자장치(100)의 착용부(101)는 착용시 사용자의 두부를 감쌀 수 있는 형태의 플랙서블 재질, 예를 들어 고무 등의 밴드로 이루어질 수 있다. 이때에, 밴드는 사용자의 두부에 착용시 두부의 둘레에 따라 길이를 조절할 수 있도록 이루어질 수 있다.
전자장치(100)의 전면, 즉 착용부(101)와 구별되는 또 다른 프레임에는 가상 공간 영상이 디스플레이되는 디스플레이부(151)와 사용자의 모션을 추적하기 위한 모션 센서들(142)이 구비될 수 있다. 또, 전자장치(100)를 착용한 상태에서도 외부 환경을 확인할 수 있도록 전면 카메라(121)가 더 구비될 수 있다.
본 발명과 관련된 전자장치(100)는, 이하 도 3b를 참조하여 설명될 구성요소들 중 적어도 하나를 포함하도록 구성될 수 있다.
도 3b를 참조하면, 전자장치(100)는 통신부(110), 카메라(121), 음향출력부(152), 센싱부(140), 디스플레이부(151), 인터페이스부(160), 및 제어부(180)를 포함하여 이루어질 수 있다. 또한, 제어부(180)는 이벤트 감지부(181)와, 이벤트 처리부(182)와, 더미 컨텐츠 생성부(183)를 포함할 수 있다.
인터페이스부(160)는 전자장치(100)와 외부 장치(500)를 유선으로 연결한다. 그에 따라, 전자장치(100)는 외부 장치(500)로부터 가상 현실 컨텐츠를 제공받을 수 있고, 다양한 입력 신호, 센싱 신호, 데이터를 주고받음으로써, 상호 인터랙션을 수행할 수 있다. 또한, 전자장치(100)는 인터페이스부(160)를 통해 외부 장치(500)로부터 전원을 공급받을 수도 있다. 다만, 위에서 이미 기술한 바와 같이 전자장치(100)와 외부 장치(500)는 무선 모듈 키트 등을 통해 무선 연결될 수도 있음은 물론이다.
예를 들어, 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트(port), 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 등이 인터페이스부(160)에 포함될 수 있다.
디스플레이부(151)는 사용자의 양 안에 대응되는 위치에 마련된다. 디스플레이부(151)에 출력되는 가상 현실 컨텐츠는 전자장치(100) 자체에 저장된 것이거나 또는 외부 장치(500)에 저장된 것일 수 있다.
예를 들어, 전자장치(100)에 저장된 가상 공간 영상인 경우, 전자장치(100)는 상기 가상 공간의 영상을 처리하기 위한 이미지 프로세싱 및 렌더링 처리를 수행하고, 이미지 프로세싱 및 렌더링 처리 결과 생성된 화상 정보를 디스플레이부(151)를 통해 출력할 수 있다. 반면, 외부 장치(500)에 저장된 가상 공간 영상인 경우, 외부 장치(500)가 이미지 프로세싱 및 렌더링 처리를 수행하고, 그 결과 생성된 화상 정보를 전자장치(100)에 전송해줄 수 있다. 그러면 전자장치(100)는 외부장치(500)로부터 수신된 3D 화상 정보를 디스플레이부(151)를 통해 출력할 수 있다.
또한, 전자장치(100)는 이외에도 입력부, 음향 출력부, 메모리, 및 전원공급부 중 적어도 하나를 더 포함할 수 있다. 상기 도 3b에 도시된 구성요소들은 전자장치(100)를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 전자장치(100)는 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다.
카메라(121)는, 전자장치(100)의 프레임부의 일면, 예를 들어, 전면에 배치될 수 있다. 카메라(121)는 전방의 영상을 촬영(수신, 입력)하도록 형성되고, 특히 사용자가 바라보는 장면을 영상으로 획득할 수 있다. 여기서는 카메라(121)가 하나 구비된 것을 예시하고 있으나, 반드시 이에 한정되는 것은 아니다. 카메라(121)는 복수 개로 구비되어 입체 영상을 획득하도록 이루어질 수도 있다.
센싱부(140)는, 근접센서, 조도 센서, 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 카메라(221 참조)), 마이크로폰(microphone), 배터리 게이지(battery gauge), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 화학 센서(예를 들어, 전자 코, 헬스케어 센서, 생체 인식 센서 등) 등을 포함할 수 있다.
일 예로, 제어부(180)는 센싱부(140)에 포함된 자이로스코프 센서, 중력 센서, 모션 센서 등을 이용하여 전자장치(100)나 사용자의 움직임을 감지할 수 있다. 또한, 전자장치(100)와 연동하여 동작하는 컨트롤러(200A, 200B)에 구비된 센서들을 통해서도 사용자의 움직임을 감지할 수 있다.
다른 예로, 제어부(180)는 센싱부(140)에 포함된 근접센서, 조도센서, 자기센서, 적외선 센서, 초음파 센서, 광 센서 등을 이용하여 전자장치(100)나 사용자 주변으로 다가오는 대상체를 감지할 수도 있다.
전자장치(100)는 제어명령을 입력받기 위해 조작되는 사용자 입력부(미도시)를 구비할 수 있다. 사용자 입력부는 터치, 푸시 등 사용자가 촉각적인 느낌을 가면서 조작하게 되는 방식(tactile manner)이라면 어떤 방식이든 채용될 수 있다. 본 도면에서는 도시되지 않았으나, 착용부(101) 또는 프레임부에 푸시 및 터치 입력 방식의 사용자 입력부가 구비될 수 있다.
또한, 전자장치(100)에는 사운드를 입력받아 전기적인 음성 데이터로 처리하는 마이크로폰(미도시) 및 음향을 출력하는 음향 출력부(미도시)가 구비될 수 있다. 음향 출력부는 일반적인 음향 출력 방식 또는 골전도 방식으로 음향을 전달하도록 이루어질 수 있다. 음향 출력부가 골전도 방식으로 구현되는 경우, 사용자가 전자장치(100)를 착용시, 음향 출력부는 두부에 밀착되며, 두개골을 진동시켜 음향을 전달하게 된다.
디스플레이부(151)는 프레임부에 장착되어, 사용자의 눈 앞에서 화면정보(예를 들어, 영상, 이미지, 동영상 등)를 출력하는 역할을 한다. 사용자가 전자장치(100)를 착용하였을 때, 사용자의 눈 앞에 화면정보가 표시될 수 있도록, 디스플레이부(151)는 좌안 및 우안 중 적어도 하나에 대응되게 배치될 수 있다. 즉, 디스플레이부(151)는 사용자의 좌안 및 우안 중 적어도 하나를 덮도록 (또는, 사용자의 좌안 및 우안 중 적어도 하나를 마주보도록) 형성될 수 있다.
일 예로, 본 발명과 관련된 전자장치(100)의 디스플레이부(151)는 전자장치(100)의 프레임부의 내측면에 위치할 수 있다. 구체적으로, 디스플레이부(151)는 사용자가 전자장치(100)를 사용자의 두부에 착용하였을 때, 사용자의 눈에 마주보는 위치에 배치될 수 있다.
또한, 전자장치(100)는 전자장치(100) 본체의 내부에 형성된 디스플레이부(151)에서 출력되는 화면정보를 사용자가 모두 볼 수 있도록, 렌즈부를 포함할 수 있다. 즉, 본 발명과 관련된 전자장치(100)는, 렌즈부를 통해, 디스플레이부(151)에서 출력되는 화면정보(또는 빛)이 모두 사용자의 안구(또는, 시야)로 투과될 수 있도록 형성될 수 있다.
일 예로, 상기 렌즈부는, 사용자의 양 안(즉, 좌안 및 우안) 중 적어도 하나에 대응되게 배치될 수 있다. 또한, 렌즈부는, 사용자가 전자장치(100)를 두부에 착용하였을 때, 사용자의 안구와 디스플레이부(151)의 사이에 놓이도록 배치될 수 있다. 또한, 상기 렌즈부는, 사용자의 안구와 디스플레이부(151) 사이의 거리에 따라 시야각이 달라질 수 있으므로, 사용자 제어에 의해 위치가 가변되도록 형성될 수 있다. 또한, 상기 렌즈부는, 오목렌즈 또는 볼록렌즈, 또는 이들의 조합을 통해 형성될 수 있다.
또한, 디스플레이부(151)는 프리즘을 이용하여 사용자의 눈으로 이미지를 투사할 수 있다. 또한, 사용자가 투사된 이미지와 전방의 일반 시야(사용자가 눈을 통하여 바라보는 범위)를 함께 볼 수 있도록, 프리즘은 투광성으로 형성될 수 있다.
이처럼, 디스플레이부(151)를 통하여 출력되는 영상은, 일반 시야와 오버랩(overlap)되어 보여질 수 있다. 전자장치(100)는 이러한 디스플레이의 특성을 이용하여 현실의 이미지나 배경에 가상 이미지를 겹쳐서 하나의 영상으로 보여주는 증강현실(Augmented Reality, AR)을 제공할 수도 있다.
즉, 상기 디스플레이부(151)는, 가상현실(Virtual Reality: VR)이 구현되도록 외부의 빛이 통과되지 못하게 형성되거나, 증강현실(Augmented Reality: AR)이 구현되도록 외부의 빛이 통과되게 형성될 수 있다.
또한, 도시되진 않았지만, 프레임부에는 좌안 및 우안 중 적어도 하나를 덮는 또 다른 디스플레이가 착탈 가능하게 장착될 수 있다.
통신부(110)는, 전자장치(100)와 통신 시스템 사이, 전자장치(100)와 외부장치(500)와의 사이, 전자장치(100)와 전자장치(100)의 제어장치 사이, 전자장치(100)와 외부에 설치되어 무선통신이 가능한 카메라 사이 또는 전자장치(100)와 외부서버 사이의 무선 통신을 가능하게 하는 하나 이상의 무선 통신 모듈을 포함할 수 있다. 이러한 무선 통신 모듈은, 방송 수신 모듈, 이동통신 모듈, 무선 인터넷 모듈, 근거리 통신 모듈, 위치정보 모듈 중 적어도 하나를 포함할 수 있다.
본 발명의 실시 예들에서, 제어부(180)는 가상 공간 영상의 재생 관련 동작을 전반적으로 제어한다.
이벤트 감지부(182)는 가상 공간 영상이 디스플레이되는 동안 적어도 하나의 애플리케이션에서 이벤트가 발생하는 것을 감지할 수 있다. 또한, 이벤트 처리부(182)는 이벤트 발생시, 이벤트 발생을 알려주는 알림 정보를 생성하여, 가상 공간 영상에 대응되게 출력시킬 수 있다. 또한, 이벤트 처리부(182)는 이벤트 발생에 대한 사용자의 응답을 기초로, 이벤트 확인, 이벤트 미응답, 이벤트 종료 중 어느 하나로 처리할 수 있다. 더미(dummy) 컨텐츠 생성부(183)는 이벤트 발생 후 사용자의 움직임이 둔화된 경우, 현재 가상 현실 컨텐츠와 연관된 더미(dummy) 컨텐츠의 재생 관련 동작을 제어한다. 더미(dummy) 컨텐츠의 생성과 관련된 동작은 이하에서 도면을 참조하여서 보다 구체적으로 설명하겠다.
도 4a는 도 3a의 전자장치와 연동하여 사용하는 컨트롤러의 예시 개념도이고, 도 4b는 도 4a의 컨트롤러의 예시 구성을 설명하기 위한 블록도이다.
도 4a에 도시된 컨트롤러(200)는 도 3a의 전자장치(100)와 연동하여 디스플레이부(151)에 출력되는 화면을 제어하는데 사용되며, 도시된 바와 같이 사용자가 컨트롤러(200)를 쥐는(grip) 그립부와, 그립부로부터 연장되며 다양한 센서들과 마이크로 프로세서가 내장된 헤드부를 포함하여 구성될 수 있다. 도시된 바와 같이, 그립부는 사용자가 쉽게 쥘 수 있도록 세로로 긴 바 형태로 이루어지고 헤드부는 링 형태로 이루어질 수 있다.
도 4b를 참조하면, 컨트롤러(200)는 IR 센서(241), 모션 추적 센서(242), 마이크로 프로세서(250), 및 입력부(260)를 포함할 수 있다.
다시 도 4a를 참조하면, 예를 들어 컨트롤러(200)의 헤드부의 외측면(201T)과 내측면(201B)에는 각각 11 개의 IR 센서(241)가 구비되고, 외측면(201T)과 내측면(201B) 사이 중앙에는 2개의 IR 센서(241)가 구비될 수 있다. 이때, 각각의 IR 센서(241)는 적외선 필터로 덮여 외부 환경으로부터 보호될 수 있다. 또한, IR 센서(241)는 라이트하우스 장치들(300A, 300B)로부터 방사되는 빛을 수신하여서, 사용자 동작을 추적하는데 사용된다.
모션 추적 센서(242)는 3축의 가속도 센서와, 3축의 자이로스코프, 디지털 모션 프로세서를 하나의 집합체로 포함하여 구성될 수 있다. 또한, 모션 추적 센서(242)는 도시된 바와 같이 컨트롤러(200)의 헤드부의 외측면을 따라 일정 간격을 두고 배치될 수 있고, 각 모션 추적 센서(242) 동그랗게 함몰된 개구부 형태를 띨 수 있다.
컨트롤러(200)의 그립부에는 복수의 사용자 입력부(260)가 마련될 수 있다. 사용자 입력부는 예를 들어, 그립부의 내측에 배치된 키들과, 그리부의 외측에 구비된 터치패드(트랙 패드), 트리거 버튼 등을 포함할 수 있다.
마이크로 프로세서(250)는 센서들을 통해 사용자의 모션 및 움직임을 추적하도록 제어할 수 있다. 또한, 마이크로 프로세서(250)는 전자장치(100)에 구비된 카메라(121)와 연동하여 가상 현실 체험 동안에도 외부 환경을 인식할 수 있게 해준다. 일 예로, 가상 공간 영상 내에서의 컨트롤러(200)의 위치에 PIP 형태의 외부 환경 이미지를 작은 사이즈로 표시해줄 수 있다.
도 5는 본 발명과 관련된 전자장치에서 구현되는 동작을 설명하기 위한 대표 흐름도이다.
도 5를 참조하면, 먼저 가상 현실 컨텐츠에 대응되는 3D 화면이 전자장치(100)의 디스플레이부(151, 도 3b)상에서 재생되는 단계가 개시된다(S510).
여기서, 재생되는 가상 현실 컨텐츠(이하, '제1 가상 현실 컨텐츠'라 명명함)는 전자장치(100)에 저장된 것 또는 전자장치(100)와 연결된 단말기(500, 도 1)로부터 수신된 것일 수 있다. 제1가상 현실 컨텐츠의 종류에는 아무런 제한이 없으며, 예를 들어 이동 단말기(100)의 디스플레이부(151)에 출력되는 홈 스크린(home screen)이나 특정 애플리케이션, 즉 이동 단말기(100)에서 구동가능한 모든 종류의 프로그램, 예를 들어 웹 브라우저, 동영상 재생, 일정 관리, 콜(call), 게임, 음악, 문서작업, 메시지, 금융, 전자책(e-book), 교통정보, 애플리케이션의 업데이트의 기능을 수행하는 프로그램 등과 관련된 프로그램 등이 가상 공간 영상으로 출력되는 경우를 모두 포함할 수 있다.
이와 같이 제1 가상 현실 컨텐츠에 대응되는 3D 화면이 재생되는 동안, 전자장치(100, 도 1)는 적어도 하나의 애플리케이션에서 이벤트가 발생한 것을 감지할 수 있다. 그리고 전자장치(100)의 제어부(180, 도 3b)는 이벤트 발생을 알려주는 알림 정보를 3D 화면에 대응되게 출력할 수 있다(S520).
여기서, 이벤트란 전자장치(100) 또는 전자장치(100)와 연결된 외부 장치(500)에 설치된 특정 애플리케이션에서 특정 액션(action)이 실행된 경우로, 예를 들어 메시지가 전송되거나, 콜(call)이 수신되거나, 자동 업데이트가 있거나, 기설정된 정보에 따라 뮤직 플레이, 동영상 플레이, 웹 브라우저 등이 실행된 경우, 또는 알람이 발생한 경우 등이 있을 수 있다. 전자장치(100)는 예를 들어 제어부(180)의 이벤트 감지부(181)를 통해 이러한 이벤트가 발생한 것을 인식할 수 있다.
또한, 이벤트 발생을 알려주는 알림 정보의 표시 방식은 이벤트의 종류와 재생중인 3D 화면의 종류에 따라 달라질 수 있다. 따라서, 이벤트에 대응되는 알림 정보가 3D 화면에 대응되게 출력된다는 것은, 3D 화면에 표시된 가상 객체의 위치 및 형상에 따라 알림 정보의 표시 방식이 다양하게 변형되는 것을 의미한다. 예를 들어, 3D 화면의 가상 광고판 내에 노출되는 형태로 알림 정보가 표시되거나 또는 3D 화면의 가상 객체(예, 의자, 테이블 등) 위에 편지 봉투가 놓이는 형태로 알림 정보가 표시될 수 있다.
알림 정보가 출력되면, 전자장치(100)는 구비된 센서들을 통해 감지된 본체의 움직임 정도를 지속적으로 센싱함으로써, 전자장치를 착용한 사용자의 움직임을 감시할 수 있다(S530).
구체적으로, 전자장치(100)는 전자장치(100)의 전면에 구비된 모든 동작 센서들과 컨트롤러(200A, 200B)에 구비된 동작 감지 센서들을 모두 활성화하여 지속적으로 사용자의 움직임 정도를 감시할 수 있다. 여기서, 사용자의 움직임으로 판단되는 범위는, 전자장치(100) 자체의 움직임뿐만 아니라 이와 연동된 컨트롤러(200A, 200B)의 움직임도 당연히 포함된다. 예를 들어, 전자장치(100) 자체의 움직임은 둔화되었으나 컨트롤러(200A, 200B)가 활발하게 움직이고 있다면, 사용자의 움직임이 활발한 것으로 판단한다. 이를 위해, 컨트롤러(200A, 200B)의 동작 감지 센서들을 통해 독자적으로 획득된 움직임 정보를 전자장치(100)에서 수신하여, 사용자의 움직임이 둔화되었는지를 판단할 수 있다.
다음, 이벤트 동안 감지된 사용자의 움직임 정도가 기설정된 조건을 만족하면, 제어부(180)는 재생중인 3D 화면을 3D 화면에 대응되는 더미(dummy) 컨텐츠로 대체한다(S540). 여기서, 기설정된 조건은 사용자의 움직임 정도가 임계범위 미만으로 둔화된 경우를 가리킨다. 또, 움직임 정도가 둔화되었는지를 판단하기 위한 임계범위는 재생중인 3D 화면에 대응되는 컨텐츠의 종류와 이벤트 발생 전 사용자의 평균 움직임 정도에 따라 달라질 수 있다.
구체적으로, 제어부(180)는 사용자의 움직임 정도가 기설정된 임계범위 이내로 감소되었는지를 지속적으로 비교할 수 있다. 비교 결과 임계범위 미만으로 사용자의 움직임이 둔화되면, 제어부(180)는 사용자가 이벤트를 확인하려는 의도가 있거나 이벤트에 응답한 것으로 판단한다. 즉, 본 발명의 실시 예에 따른 전자장치(100)는 알림 정보에 대하여 응답하였는지 여부로 사용자의 이벤트 확인 의사를 판단하지 않는다. 따라서, 사용자가 실제로 이벤트를 확인하고 있더라도 사용자의 움직임 정도가 임계범위 이내이거나 이를 초과하는 동안에는, 사용자가 가상 현실 체험을 계속하려는 의사가 있는 것으로 판단하여 3D 화면의 재생 상태를 계속 유지할 수 있다.
사용자의 움직임이 임계범위 미만으로 둔화된 시점에, 3D 화면의 재생 중단과 더미(dummy) 컨텐츠의 재생이 동시에(또는, 심리스하게 연결되어) 발생하므로, 사용자가 이벤트를 확인하는 동안 가상 현실 체험이 단절되지 않는다. 즉, 사용자는 더미(dummy) 컨텐츠가 재생되는 동안에도 이전의 3D 화면을 계속 보는 것과 같은 원근감, 객체의 움직임 등을 그대로 체험할 수 있다. 예를 들어, 전자장치(100)를 착용한 사용자가 손이나 헤드를 움직이거나 또는 닫힌 특정 공간 내에서 워킹(walking)을 수행함에 따라 더미(dummy) 컨텐츠 내의 객체들의 원근감, 명암, 채도 등도 다양하게 변형될 수 있다. 또한, 사용자가 움직이지 않더라도 더미(dummy) 컨텐츠의 재생에 따라, 컨테츠 내의 특정 객체가 특정 방향(예, 사용자가 있는 방향, 더미 컨텐츠 내의 타겟 등)을 향해 움직일 수 있다.
일 실시 예에서, 더미(dummy) 컨텐츠는, 하나 이상의 더미 객체를 포함하는 또 다른 가상 현실 컨텐츠(이하, '제2 가상 현실 컨텐츠'로 명명함)를 의미한다. 더미 컨텐츠가 재생되는 동안3D 화면의 재생 중단 상태는 계속 유지된다. 이때에, 3D 화면의 재생 중단 시점은 더미 컨텐츠가 재생된 시점과 일치되거나, 또는 3D 화면의 재생이 중단되자마자 심리스하게 더미 컨텐츠가 재생될 수 있다.
또한, 일 실시 예에서, 상기 더미 컨텐츠는 재생중이던 3D 화면과 연관된 것일 수 있다. 이러한 더미 컨텐츠는 전자장치(100) 또는 이와 연결된 외부 장치(500)에 미리 저장된 것이거나, 재생중이던 3D 화면에 대응되는 컨텐츠 자체에서 제공되는 것일 수 있다. 전자의 경우, 전자장치(100) 또는 이와 연결된 외부 장치(500)에는 복수의 더미 컨텐츠들이 미리 저장될 수 있으며, 이러한 경우 재생중이던 3D 화면의 종류와 동일 또는 가장 유사한 타입의 더미 컨텐츠가 선택적으로 검출될 수 있다.
또한, 일 실시 예에서 더미 컨텐츠의 재생 관련 설정은 3D 화면의 재생 관련 설정에 대응될 수 있다. 예를 들어, 더미 컨텐츠의 재생 속도와 음향 레벨은 3D 화면이 중단되기 이전의 재생 속도와 음향 레벨에 매칭될 수 있다. 그에 따라, 사용자가 이벤트를 확인하는 동안 그리고 이벤트 확인 후에 경험하게 되는 가상 현실 공간의 체험감 차이가 미세하거나 완전히 제거될 수 있다.
또한, 더미 컨텐츠 내에 출현하는 하나 이상의 더미 객체(dummy object)는 3D 화면의 재생이 중단된 시점에 등장했던 가상 객체를 기초로 구성된 것일 수 있다. 예를 들어, 3D 게임이 중단된 시점에 출현한 오브젝트와 동일 또는 유사한 형상의 이미지들이 더미 컨텐츠 내에 나타날 수 있으며, 이러한 오브젝트는 3D 게임에서와 동일한 속성 및 기능을 수행할 수 있다.
한편, 3D 화면에 출력된 알림 정보는 소정 시간이 경과하도록 사용자 확인이 없으면 재생중인 3D 화면에서 사라진다. 이후에는 더미 컨텐츠의 재생을 트리거 하기 위해 본체의 움직임이 둔화되었는지를 감시할 필요가 없으므로, 관련된 센서들이 비활성화 상태로 전환될 수 있다.
더미(dummy) 컨텐츠가 재생되는 동안 이벤트가 종료되면, 더미(dummy) 컨텐츠의 재생이 자연스럽게 중단된다. 즉, 이벤트가 종료되면, 제어부(180)는 이전에 보았던3D 화면, 즉 제1 가상 현실 컨텐츠를 다시 심리스하게 제공하기 위해 더미(dummy) 컨텐츠를 즉시 제거한다(S550).
구체적으로, 사용자는 이벤트 확인 동안에는 제2 가상 현실 컨텐츠를 경험하다가 이벤트가 종료됨과 동시에 3D 화면을 대응되는 제1 가상 현실 컨텐츠로 다시 복귀하게 된다. 즉, 이벤트를 확인하는 동안과 이벤트 종료 후에 경험하게 되는 컨텐츠의 내용은 달라지지만, 가상 공간에서 느끼는 체험감은 동일하게 유지되므로, 사용자가 이벤트 종료후 제1 가상 현실 컨텐츠로 다시 복귀하더라도 멀미가 유발되지 않게 된다.
이상에서 살펴본 실시 예에 따르면, 사용자가 가상 현실 체험 중에 이벤트를 확인하는 동안에도 가상 현실과의 단절이 발생하지 않고 이벤트 종료 후에도 멀미 유발 없이 3D 화면에 복귀할 수 있다.
도 6은 본 발명과 관련된 전자장치에서 구현되는 동작을 보여주는 개념도들이다.
도 6을 참조하면, 전자장치(100)의 디스플레이부(151)에 제1 가상 현실 컨텐츠에 대응되는 3D 게임 화면(601)이 디스플레이될 수 있다. 3D 게임 화면(601)이 디스플레이되는 동안, 콜(call) 수신 이벤트가 발생되면, 재생중인 3D 게임 화면(601)에는 콜(call) 수신 이벤트가 발생하였음을 알려주는 알림 정보(610), 예를 들어 'Incoming Call' 및 전화 이미지가 3D 게임 화면(601)내에 나타날 수 있다. 이때에, 알림 정보(610)는 예를 들어 도 6에 도시된 바와 같이 3D 게임 화면(601)의 하위에 증강 현실(AR) 객체 형태로 표시될 수 있다.
사용자가 콜(call) 수신에 응답하는 동안 사용자의 움직임이 기설정된 범위 미만으로 둔화되면, 3D 게임 화면(601)의 재생이 중단되고 제2 가상 현실 컨텐츠에 대응되는 대체 3D 화면(630)이 재생이 트리거된다.
여기서, 기설정된 범위 미만으로 둔화되었는지 여부는 전자장치(100)와 연동하여 동작하는 컨트롤러(200A, 200B)에 구비된 3축의 가속도 센서와 3축의 자이로스코프로 이루어진 6축 모션 추적 장치(motion tracking devices)를 통해 감지될 수 있다. 컨트롤러(200A, 200B)의 6축 모션 추적 장치를 통해 획득된 움직임 정보가 전자장치(100)에 수신되면, 전자장치(100)는 수신된 컨트롤러(200A, 200B)의 움직임 정보와 전자장치(100) 자체의 움직임 정도를 기초로(또는 컨트롤러(200A, 200B)의 움직임 정보만으로), 사용자의 움직임이 둔화되었는지 여부를 판단할 수 있다.
이때에, 도 6에 도시된 바와 같이, 3D 게임 화면(601)이 재생되었던 제1레이어는 유지되고, 공간 분리 개념의 새로운 제2 레이어가 생성된다. 그리고, 마치 유리 막과 같이, 제1 레이어의 상위에 제2레이어가 놓이면서 3D 화면(630)이 재생된다. 이를 위해, 제어부(180)는 사용자의 움직임 둔화가 감지된 초기 시점에, 3D 게임 화면이 재생되는 제1레이어와 구분되는 제2레이어를 생성하도록 제어할 수 있다. 그리고 사용자의 움직임이 기준범위 미만으로 감소된 것에 응답하여, 제2가상 현실 컨텐츠 즉 더미 컨텐츠를 상기 제2레이어상에서 재생할 수 있다. 이와 같이 더미 컨텐츠가 재생되는 동안, 3D 게임 화면(601)이 재생되었던 제1 레이어는 제2 레이어의 하위에서 계속 유지된다.
도 6에서는 더미 컨텐츠에 대응되는 대체 3D 화면(630)이 사용자의 양안을 기준으로 위에서 아래로 내려오는 것으로 도시되었으나, 이에 한정되지 않는다. 예를 들어, 제2레이어는 사용자의 양안을 기준으로 좌/우측으로부터 우/좌측으로 이동하는 형태로 등장하거나 또는 마치 제1레이어로부터 떠오르는 것과 같은 형태로 등장할 수 있다.
콜(call) 수신에 응답하는 동안, 대체 3D 화면(630)에는 콜(call) 응답중임을 알려주는 인디케이터(630)가 표시될 수 있다. 그리고, 통화 음성은 전자장치(100)의 헤드셋을 통해 출력될 수 있다. 또한, 비록 도시되지는 않았지만, 대체 3D 화면(630)이 재생되는 동안, 사용자의 헤드나 손의 움직임을 따라 대체 3D 화면(630)내에 표시된 가상 객체의 원근감, 명도, 채도가 대응되게 변형될 수 있다. 그에 따라, 사용자는 통화 중에도, 콜(call) 수신 이전과 동일한 가상 공간 체험감을 계속 유지하게 된다.
또한, 비록 도시되지는 않았지만 대체 3D 화면(630)이 디스플레이되는 동안, 현재 디스플레이되는 3D 화면이 더미(dummy) 컨텐츠임을 알려주는 그래픽 객체가 대체 3D 화면(630) 내에 표시될 수 있다.
한편, 콜(call) 수신에 응답하는 사용자 입력이 가해진 경우라도, 사용자의 움직임이 기설정된 범위 이내이거나 또는 이를 초과하는 동안에는 3D 게임 화면(601)의 재생 상태가 계속 유지된다. 여기서, 상기 기설정된 범위는 컨트롤러(200A, 200B)의 6축 모션 추적 장치를 통해 감지된 모션의 움직임이, 이벤트 발생 이전의 평균 모션 움직임 정도를 벗어나지 않는 것을 의미한다. 따라서, 사용자의 움직임이 기설정된 범위 이내이거나 또는 이를 초과하는 동안이라는 것은, 사용자의 움직임이 이벤트 발생 후에도 둔화되지 않은 것을 의미한다.
예를 들어, 사용자가 콜 수신에 응답하였으나 몸을 계속 움직이거나 또는 컨트롤러를 활발하게 움직이는 경우, 전자장치(100)는 사용자의 의도가 현재 보고 있는 3D 게임 화면(601)을 계속 체험하려는 것으로 판단하고, 3D 게임 화면을 중단 없이 계속 제공할 수 있다. 다만, 이때에도 통화를 유지하는 동안 지속적으로 사용자의 움직임 정도를 모니터링한다. 그에 따라, 통화를 수행하던 사용자의 움직임이 둔화되었다면, 제어부(180)는 사용자의 움직임이 둔화된 시점을 기준으로 3D 화면의 재생을 중단하고, 연관된 더미(dummy) 컨텐츠를 재생할 수 있다.
대체 3D 화면(630)이 재생되는 동안 통화가 종료되면, 재생중이던 대체 3D 화면(630)이 사라진다. 이때에, 도 6에 도시된 바와 같이 대체 3D 화면(630)이 재생되었던 제2레이어는 등장한 방향과 대향되는 방향, 예를 들어 위로 사라질 수 있다. 마치 유리 막이 사라지는 것과 같이 제2 레이어가 제거되면, 제1 레이어가 노출됨과 동시에 3D 게임 화면(601)이 재생된다. 이때에, 3D 게임 화면(601)에는 소정시간 이벤트 종료를 알려주는 알림 정보(예, 통화 종료)가 표시되었다가 사라질 수 있다.
한편, 대체 3D 화면(630)은 제2 레이어의 생성 없이 제1레이어상에서 재생될 수도 있다. 이러한 경우에도 이벤트 종료에 따라 다시 리얼 컨텐츠로 복귀시, 더미 컨텐츠와 리얼 컨텐츠 간의 전환이 심리스(seamless)하게 수행된다.
이상에서 살펴본 바와 같이, 본 발명에 따른 전자장치는 가상 공간 체험 중에 발생한 이벤트를 확인하고 다시 가상 공간 체험으로 복귀하는 동안, 가상 공간의 체험감은 계속 유지할 수 있도록 함으로써, 멀미 유발의 가능성을 해소할 수 있다.
도 7은 이벤트 확인 동안 재생되는 대체 3D 화면을 구성하는 방법의 예시를 보여주고 있다.
도 7을 참조하면, 사용자가 콜(call) 수신에 응답하는 동안 움직임이 둔화되면, 사용자의 움직임이 둔화된 시점에 재생 중단된 3D 화면(701) 에는 하나 이상의 가상 객체(711)가 표시될 수 있다.
가상 객체(711)는 제1 가상 현실 컨텐츠를 구성하는 프로그램 명령에 따라 일정 방향 또는 특정 타겟을 향해 움직일 수 있다. 또, 재생 중단된 3D 화면(701) 내에는 재생 중단 상태를 알려주는 제1 인디케이터(702a)가 표시된다.
제2 가상 현실 컨텐츠에 대응되는 3D 대체 화면(720) 내의 가상 객체(722)(이하, '더미 객체')는 재생 중단된 3D 화면(701)에 포함된 가상 객체(711)를 모방하여 생성될 수 있다. 이를 위해, 제어부(180)는 3D 화면(701)에서 가상 객체(711)를 검출할 수 있고, 검출된 가상 객체(711)의 형상 및 움직임 정보를 획득하여 제2 가상 현실 컨텐츠에 제공할 수 있다.
더미 객체(722)는 가상 객체(711)가 향했던 일정 방향 또는 특정 타겟과 유사하게 움직일 수 있다. 다만, 더미 객체(722)의 움직임은 가상 객체(711)가 움직임과 일치하는 것이 아니므로, 제1 가상 현실 컨텐츠의 치팅(cheating) 문제는 발생하지 않는다.
또한, 제2 가상 현실 컨텐츠에 대응되는 3D 대체 화면(720)의 배경 이미지가 재생 중단된 3D 화면(701)의 배경 이미지에 대응되도록 생성될 수도 있다. 이를 위해, 전자장치(100)는 재생 중단된 상태의 3D 화면(701)을 구 형태로 캡쳐한 다음, 구 형태로 캡쳐된 화면으로 또는 이를 원시 3D더미 컨텐츠와 합성하거나 3D 대체 화면(720)의 초기화면을 구성할 수도 있다.
이벤트가 종료되면, 재생 중단되었던 3D 화면(701)이 다시 재생되고, 화면 내에는 재생 중임을 알려주는 제2 인디케이터(702b)가 표시된다.
또한, 비록 도시되지는 않았지만, 다른 실시 예에서는, 제1 가상 현실 컨텐츠 중에서 이미 체험한 구간의 일부를 3D 대체 화면(720)으로 구성할 수도 있다. 예를 들어, 제어부(180)는 제1 가상 현실 컨텐츠를 재생 중단된 3D 화면(701)의 제1 시점으로부터 소정 구간 앞선 제2 시점으로 점프하여, 제2 시점부터 재생하는 것을 제2 가상 현실 컨텐츠로 대체할 수 있다. 이때에, 재생 중단된 3D 화면(701)에 대응되는 제1 시점에 근접할 때까지 이벤트 확인이 지속되면, 제어부(180)는 다시 제2 시점으로 점프하거나 또는 제2 시점으로부터 소정 구간 더 앞선 제3시점으로 점프하여 제1 가상 현실 컨텐츠를 재생할 수 있다. 이때에, 이벤트가 종료되면, 재생 중단된 상태의 3D 화면(701)에 대응되는 제1시점으로 바로 점프할 수 있다.
한편, 이와 같이 이벤트 확인 동안 더미(dummy) 컨텐츠를 제공함으로써, 사용자의 가상 공간 체험은 계속 유지되지만, 이벤트 종료 후 바로 리얼 컨텐츠에 복귀하는 경우 다시 리얼 컨텐츠에 적응하는데 시간이 소요될 수 있다. 특히, 리얼 컨텐츠가 점수에 영향을 주는 게임 컨텐츠인 경우, 또는 리얼 컨텐츠가 재개된 시점이 상황이 급변하는 장면인 경우, 사용자의 즉시 적응을 기대하기는 어렵다.
이에, 도 8은 이벤트가 종료된 시점에 재생이 중단된 시점부터 리얼 컨텐츠를 바로 제공하지 않고, 리얼 컨텐츠에의 순응을 위해 디레이(delay) 구간(804)을 제공하는 모습을 보여준다.
도 8의 그래프에서 가로 축은 시간 변화와 사용자의 행동 변화를 나타낸다. 리얼 컨텐츠(VR contents)가 재생되는 동안 특정 이벤트가 발생하면(801), 사용자는 이벤트를 확인하거나 또는 이벤트 발생을 무시하고 리얼 컨텐츠를 계속 체험할 수 있다. 또는, 이벤트를 확인하면서 동시에 리얼 컨텐츠 체험을 병행하려는 니즈(needs)가 있을 수 있다.
사용자는 이벤트를 확인하는 동안 움직임이 점차적으로 둔화될 수 있다. 그러다가 움직임이 기설정된 범위 미만으로 둔화된 시점에 이르면(t1), 즉시 리얼 컨텐츠의 재생이 중단된다. 이때에, 이벤트의 확인하기 위한 사용자 입력이 사용자의 움직임이 둔화되는 구간(802)에서 있었는지 또는 이벤트가 발생한 구간(801)에서 있었는지는 중요하지 않다. 전술한 바와 같이 사용자가 이벤트를 확인하면서 동시에 리얼 컨텐츠 체험을 병행할 수 있기 때문이다.
즉, 이벤트 확인 시점이 아니라 사용자의 움직임 정도가 기설정된 범위 미만으로 둔화된 시점(t1)이 리얼 컨텐츠의 재생 중단 및 더미 컨텐츠의 재생 시점이 된다. 더미 컨텐츠가 재생되는 구간(803)에서는 리얼 컨텐츠의 재생 중단 상태가 유지된다.
다음, 더미 컨텐츠가 재생되는 동안 이벤트가 종료되면, 제어부(180)는 리얼 컨텐츠 즉, 3D 화면을 재생이 중단되었던 제1시점(t1)에서 소정 시간 앞선 제2시점(t1-td)부터 리얼 컨텐츠를 재생한다. 여기서, 제2시점(t1-td)부터 3D 화면이 재생 중단된 제1 시점(t1)까지가 도 8에 도시된 디레이(delay) 구간(804)이 된다. 이와 같이, 리얼 컨텐츠의 재개시 디레이 구간을 제공함으로써, 사용자는 빠른 움직임을 요하는 게임 컨텐츠나 급변하는 장면에 자연스럽게 대비할 수 있다. 디레이 구간이 경과되면, 리얼 컨텐츠의 새로운 장면이 이어서 플레이된다(805).
일 실시 예에서, 디레이(delay) 구간은 리얼 컨텐츠의 타입을 기초로 다르게 결정될 수 있다. 구체적으로, 도 8에서 제2시점(t1-td)의 시각 또는 제2시점(t1-td)으로부터 제1시점(t1)까지의 시간 간격은 3D 화면의 컨텐츠 타입이 예를 들어 게임과 같이 사용자의 움직임을 많이 요구하는 컨텐츠나 장면 또는 상황 변화가 빠른 액션 영화 컨텐츠의 경우, 사용자의 순응을 고려하여 디레이 구간을 조금 길게 설정할 수 있다. 또한, 쇼핑 등과 같이 사용자가 특정 가상 객체를 꼼꼼하고 천천히 살펴보는 컨텐츠의 경우에는 디레이 구간을 짧게 설정하거나 예외적으로 생략할 수 있다.
또한, 동일한 컨텐츠라도 리얼 컨텐츠가 중단되기 바로 이전에 수집된 상황 정보, 예를 들어 게임 레벨, 게임 속 출현한 적의 수, 등에 따라 디레이 구간을 적응적으로 다르게 선택할 수 있다. 또는, 리얼 컨텐츠가 중단되기 이전 상황 중 특정 시점을 디레이 구간의 시작점으로 설정하는 것도 가능하다. 예를 들어, 특정 공간(예, 동굴)에 진입한 후 5초 후에 리얼 컨텐츠의 재생이 중단되었다면, 전자장치(100)의 제어부(180)는 디레이 구간의 시작점이 특정 공간에 진입하는 시점(예, 동굴 입구에서 진입하는 시점)과 매칭되도록, 재생 관련 동작을 제어할 수 있다.
또 다른 실시 예로, 사용자가 이벤트를 확인한 시간에 대응하도록 디레이 구간을 설정할 수도 있다. 이와 관련하여, 도 9를 참조하면, (B)보다 더미 컨텐츠의 재생 시간(D1)이 긴 (A)의 경우가, 디레이 구간(C1)의 길이도 (B)의 디레이 구간(C2) 보다 길게 설정된 것을 확인할 수 있다. 즉, 더미 컨텐츠의 재생 시간이 길다는 것은 사용자가 이벤트를 확인한 시간도 그만큼 길다고 말할 수 있으므로, 디레이 구간은 더미 컨텐츠의 총 재생 시간이 비례할 수 있다.
예를 들어, 사용자의 통화 시간이 10초 내외 였다면, 디레이 시간은 5초 내외로 제공될 수 있다. 또, 사용자의 통화 시간이 30분 이상이라면, 디레이 시간은 10초 ~ 20초 이상 길게 제공될 수 있다.
한편, 디레이 구간(C1 또는 C2)에서 제2이벤트가 발생하고 이후 사용자의 움직임이 기준범위 미만으로 둔화되면, 디레이 구간(C1 또는 C2)을 중단하고 더미 컨텐츠가 다시 재생될 수 있다.
이때에, 디레이 구간에서 리얼 컨텐츠가 중단된 시점은 전자장치(100)에 기록되지 않을 수 있다. 즉, 제2이벤트 종료 후에 디레이 구간의 중단 시점을 기준으로 하여 디레이 구간을 다시 설정하게 되면, 이제는 사용자의 순응시간이 필요 이상으로 길어지는 불편이 있다. 따라서, 제2 이벤트가 종료되면, 디레이 구간의 중단 시점이 아닌 리얼 컨텐츠가 처음 중단되었던 시점을 기준으로 다시 디레이 구간이 설정될 수 있다.
또한, 비록 도시되지는 않았지만, 제어부(180)는 디레이 구간의 시작점에서는 사운드 볼륨을 일정 레벨 미만으로 출력하다가, 디레이 구간 동안 점진적으로 볼륨을 증가하도록 제어함으로써, 사용자가 리얼 컨텐츠의 사운드에도 자연스럽게 순응하게끔 도와줄 수 있다.
이상에서 살펴본 바와 같이 이벤트 종료 후 리얼 컨텐츠 복귀시, 디레이 구간을 제공함으로써, 사용자가 리얼 컨텐츠에 자연스럽게 순응할 수 있게 해준다.
이하, 도 10 및 도 11은 디레이 구간 동안 리얼 컨텐츠와 관련된 추가 정보를 제공하는 서로 다른 예시들을 보여준다.
더미 컨텐츠의 재생 시간이 길수록(또는, 이벤트 확인 시간이 길수록) 사용자는 리얼 컨텐츠의 마지막 상황 또는 장면을 기억하기 어려워진다. 따라서, 일 실시 예에서, 제어부(180)는 더미 컨텐츠의 재생 시간이 기설정된 시간범위를 초과하면, 제2시점부터 상기 제1시점까지 리얼 컨텐츠가 다시 재생되는 동안, 즉 디레이 구간 동안, 재생 중단된 시점의 3D 화면과 관련된 추가 정보를 제공할 수 있다. 이를 위해, 디레이 구간의 3D 화면(1001)에는 정보 출력 영역(1010)이 포함될 수 있다.
여기서, 정보 출력 영역(1010)에 출력될 수 있는 추가 정보의 종류는 매우 다양하다. 예를 들어, 추가 정보는 사용자의 움직임 정보, 컨텐츠 사용 히스토리, 3D 화면의 제어 정보를 포함할 수 있다. 일 예로, 리얼 컨텐츠가 영화인 경우, 추가 정보로 재생 중단된 시점을 알려주는 재생 바, 볼륨 크기를 알려주는 볼륨 바 등이 출력될 수 있다. 다른 예로, 리얼 컨텐츠가 게임인 경우, 추가 정보로 게임 기록, 맵 상에서의 현재 위치를 알려주는 그래픽 객체 등이 출력될 수 있다. 사용자는 디레이 구간 동안 제공된 추가 정보를 보고 리얼 컨텐츠의 이전 상황에 보다 빠르게 몰입할 수 있다.
또한, 이러한 추가 정보는 디레이 구간이 종료되고 재생 중단된 시점의 3D 화면(1002)이 나타나면 화면에서 자연스럽게 사라진다.
또 다른 실시 예로, 도 11에 도시된 바와 같이, 디레이 구간 동안 제공되는 3D 화면(1101, 1102)에 리얼 컨텐츠가 재생 중단된 시점, 즉 제1시점과 관련된 카운트 정보(1110)가 표시될 수 있다. 카운트 정보(1110)는 제1시점까지 남은 시간을 역 카운트하는 방식(예, 5, 4, 3, 2, 1 순서로 숫자를 변형하는 형태)로 표시될 수 있다. 그에 따라, 사용자가 리얼 컨텐츠가 실제로 시작될 지점을 정확하게 예측할 수 있다.
한편, 비록 도시되지는 않았지만, 사용자는 디레이 구간 중이라도 리얼 컨텐츠가 재생 중단된 시점으로 바로 이동할 수 있다. 구체적으로, 제어부(180)는 디레이 구간, 즉 더미 컨텐츠의 재생 중단 후 제2시점부터 3D 화면이 재생되는 동안에 기설정된 입력이 수신되면, 제1시점으로 바로 점프하여 3D 화면을 재생하도록 제어할 수 있다. 여기서 기설정된 입력은 전자장치(100) 프레임에 구비된 버튼이나 컨트롤러에 구비된 버튼을 푸쉬 또는 터치하는 경우, 정해진 음성명령을 입력하는 경우 등을 모두 포함할 수 있다.
이하, 도 12는 사용자의 움직임이 둔화된 경우, 전자장치(100)와 연동된 컨트롤러의 안착 위치를 안내하는 방법과 관련된 예시를 보여준다.
이벤트 확인에 따라 사용자의 움직임이 둔화된 경우, 사용자는 연동된 주변장치인 컨트롤러(200A, 200B)를 내려놓고자 하는 니즈(needs)가 발생할 수 있다. 예를 들어, 통화 중에 컨트롤러를 사용하는 빈도가 줄어들어서, 전자장치(100)를 그대로 착용한 상태에서 컨트롤러를 내려놓고자 하는 사용자 니즈가 있을 수 있다.
이때에, 전자장치(100)에 구비된 전면 카메라(121)를 사용하여 실제 외부 환경을 인식하여서 컨트롤러를 내려놓을 수 있다. 그러나, 이러한 경우 전면 카메라(121)를 사용하여 컨트롤러를 내려놓은 실제 위치를 다시 확인해야하는 불편이 있다.
이에, 제어부(180)는, 적어도 하나의 컨트롤러(200A 또는 200B)의 그립(grip) 상태에서 더미(dummy) 컨텐츠의 재생 시간이 기설정된 시간범위를 초과하면, 컨트롤러를 내려놓고자 하는 사용자 니즈가 있는 것으로 판단한다. 그에 따라, 컨트롤러(200A, 200B)의 안착을 안내하는 가이드 정보를 생성하고, 생성된 가이드 정보를 더미 컨텐츠에 대응되게 출력한다.
이를 위해, 제어부(180)는 처음에는 전자장치(100)에 구비된 전면 카메라(121)를 구동하여 실제 외부 환경을 인식한다. 실제 외부 환경의 이미지로부터 컨트롤러를 안착시킬 수 있는 특정 객체(예, 테이블, 소파 등)의 위치를 추출한다. 이때에, 컨트롤러를 내려놓을 위치는 사용자가 팔을 뻗어 한번에 내려놓을 수 있는 위치가 바람직하므로, 특정 객체의 위치는 사용자의 현재 위치에서 가까운 것을 선택한다. 특정 객체의 위치가 추출되면, 추출된 위치를 더미 컨텐츠에 대응되는 대체 3D 화면의 위치에 매핑시킨다. 다음, 매핑된 위치를 안내하는 가이드 정보(예, 텍스트 정보 및 화살표 이미지)(1231)가 대체 3D 화면(1220) 내에 출력된다.
이와 같이 가이드 정보가 출력되면, 대체 3D 화면(1220) 내에는 컨트롤러에 대응되는 이미지(1211)가 표시됨으로써, 사용자의 안착 동작을 유도할 수 있다.
한편, 가이드 정보가 안내하는 위치에는, 실제 현실에 존재하는 오브젝트를 기초로 구성된 가상 객체(1232)가 디스플레이된다. 즉, 실제 외부 환경에 존재하는 특정 객체가 대체 3D 화면(1220)에도 표시되는 것이다. 다만, 가상 객체(1232)는 실제 오브젝트의 이미지가 아니라 재생중인 대체 3D 화면(1220)에 어울리는 객체(예, 바위 등)의 이미지로 변형되어 등장한다.
가상 객체(1232)는 디레이 구간에서도 계속 유지될 수 있다. 이때, 디레이 구간 동안에는 가상 객체(1232)에 놓인 컨트롤러를 다시 잡도록 유도하는 제2 가이드 정보(예, 컨트롤러를 잡으라는 메시지 및 화살표 이미지)가 디레이 구간 동안의 화면에 출력될 수 있다. 가상 객체(1232)는 사용자가 컨트롤러(200A, 200B)를 그립하거나 리얼 컨텐츠가 재생 중단된 시점(1201)에 도달하면, 화면에서 사라진다.
이상에서 살펴본 바와 같이, 본 발명의 실시 예에 따른 전자장치는 가상 현실 체험 중에 발생한 이벤트 확인 동안 사용자의 움직임이 둔화된 경우에도, 동일한 체험감을 느낄 수 있는 더미 컨텐츠를 재생해줌으로써 이벤트 확인 후 가상 현실 체험에 바로 복귀하더라도 멀리 유발이 발생하지 않는다. 또, 이벤트 확인 후 가상 현실 공간에 복귀시 디레이(delay) 구간을 제공함으로써, 사용자가 리얼 컨텐츠에 자연스럽게 순응할 수 있게 해준다.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 단말기의 제어부(180)를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.

Claims (14)

  1. 본체;
    가상 현실 컨텐츠에 대응되는 3D 화면을 디스플레이하는 디스플레이부;
    상기 3D 화면이 디스플레이되는 동안 적어도 하나의 애플리케이션에서 이벤트가 발생되면, 이벤트 발생을 알려주는 알림 정보를 상기 3D 화면에 대응되게 출력하는 제어부; 및
    상기 알림 정보가 출력되면 사용자의 움직임 정도를 감지하는 센싱부를 포함하고,
    상기 제어부는,
    상기 이벤트 동안 감지된 사용자의 움직임 정도가 기설정된 조건을 만족하면, 상기 3D 화면을 상기 3D 화면과 연관된 더미(dummy) 컨텐츠로 대체하고, 상기 더미 컨텐츠는 상기 이벤트가 종료되면 사라지는 것을 특징으로 하는 전자장치.
  2. 제1항에 있어서,
    상기 더미 컨텐츠는 하나 이상의 더미 객체를 포함하는 제2 가상 현실 컨텐츠이고, 상기 더미 컨텐츠가 재생되는 동안에는 상기 3D 화면의 재생 중단 상태가 유지되는 것을 특징으로 하는 전자장치.
  3. 제2 항에 있어서,
    상기 더미 컨텐츠는 상기 3D 화면과 연관되고 상기 더미 객체는 상기 3D 화면의 재생이 중단된 시점에 디스플레이되었던 가상 객체를 기초로 구성된 것을 특징으로 하는 전자장치.
  4. 제1항에 있어서,
    상기 제어부는,
    상기 이벤트 동안 사용자의 움직임이 기준범위 이내로 감소되면, 상기 3D 화면의 재생을 일시 중단하고 상기 3D 화면에 대응되는 더미 컨텐츠를 재생하는 것을 특징으로 하는 전자장치.
  5. 제1항에 있어서,
    상기 제어부는,
    상기 알림 정보에 대응되는 이벤트 확인 동안 사용자의 움직임이 기준범위를 초과하는 것으로 감지되면, 상기 3D 화면의 재생을 계속 유지하는 것을 특징으로 하는 전자장치.
  6. 제1항에 있어서.
    상기 제어부는,
    상기 더미 컨텐츠의 재생 동안 상기 이벤트가 종료되면, 상기 3D 화면을 재생이 중단되었던 제1시점에서 소정 시간 앞선 제2시점부터 재생하는 것을 특징으로 하는 전자장치.
  7. 제6항에 있어서,
    상기 제1시점과 상기 제2시점간의 간격은 상기 3D 화면의 컨텐츠 타입을 기초로 다르게 결정되는 것을 특징으로 하는 전자장치.
  8. 제6항에 있어서,
    상기 제1시점과 상기 제2시점간의 간격은 상기 더미 컨텐츠의 재생 시간에 비례하는 것을 특징으로 하는 전자장치.
  9. 제8항에 있어서,
    상기 더미 컨텐츠의 재생 시간이 기설정된 시간범위를 초과하면, 상기 제2시점부터 상기 제1시점까지 3D 화면이 다시 재생되는 동안 상기 3D 화면과 관련된 추가 정보가 제공되는 것을 특징으로 하는 전자장치.
  10. 제6항에 있어서,
    상기 더미 컨텐츠의 재생 중단 후 상기 제2시점부터 3D 화면이 재생되는 동안, 상기 제1 시점과 관련된 카운트 정보가 재생 중인 3D 화면 내에 출력되는 것을 특징으로 하는 전자장치.
  11. 제6항에 있어서,
    상기 제어부는,
    상기 더미 컨텐츠의 재생 중단 후 상기 제2시점부터 3D 화면이 재생되는 동안 기설정된 입력이 수신되면, 상기 제1시점으로 점프하여 3D 화면을 재생하도록 제어하는 것을 특징으로 하는 전자장치.
  12. 제1항에 있어서,
    상기 제어부는,
    상기 더미 컨텐츠의 재생 시간이 기설정된 시간범위를 초과하면, 상기 본체와 연동하여 3D 화면을 제어하는 컨트롤러의 안착을 안내하는 가이드 정보를 생성하고, 상기 가이드 정보를 상기 더미 컨텐츠에 대응되게 출력하는 것을 특징으로 하는 전자장치.
  13. 제12항에 있어서,
    상기 가이드 정보가 안내하는 위치에는, 실제 현실에 존재하는 오브젝트를 기초로 구성된 가상 객체가 디스플레이되는 것을 특징으로 하는 전자장치.
  14. 제1항에 있어서,
    상기 제어부는,
    상기 3D 화면이 재생되는 제1레이어와 구분되는 제2레이어를 생성하고,
    상기 이벤트 동안 사용자의 움직임이 기준범위 이내로 감소된 것에 응답하여, 상기 더미 컨텐츠를 상기 제2레이어상에서 재생하고,
    상기 더미 컨텐츠가 재생되는 동안 상기 제1 레이어는 상기 제2 레이어의 하위에서 유지되는 것을 특징으로 하는 전자장치.
KR1020170025689A 2017-02-27 2017-02-27 가상 현실 체험 중 이벤트 발생시 동작 방법 및 그 전자장치 KR20180098917A (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020170025689A KR20180098917A (ko) 2017-02-27 2017-02-27 가상 현실 체험 중 이벤트 발생시 동작 방법 및 그 전자장치
EP17204041.2A EP3367215B1 (en) 2017-02-27 2017-11-28 Electronic device for providing virtual reality content
US15/877,313 US10386635B2 (en) 2017-02-27 2018-01-22 Electronic device and method for controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170025689A KR20180098917A (ko) 2017-02-27 2017-02-27 가상 현실 체험 중 이벤트 발생시 동작 방법 및 그 전자장치

Publications (1)

Publication Number Publication Date
KR20180098917A true KR20180098917A (ko) 2018-09-05

Family

ID=63594289

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170025689A KR20180098917A (ko) 2017-02-27 2017-02-27 가상 현실 체험 중 이벤트 발생시 동작 방법 및 그 전자장치

Country Status (1)

Country Link
KR (1) KR20180098917A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200107289A (ko) * 2019-03-07 2020-09-16 주식회사 엘지유플러스 증강 현실 콘텐츠 표시를 위한 장치 및 그 제어방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200107289A (ko) * 2019-03-07 2020-09-16 주식회사 엘지유플러스 증강 현실 콘텐츠 표시를 위한 장치 및 그 제어방법

Similar Documents

Publication Publication Date Title
US10356398B2 (en) Method for capturing virtual space and electronic device using the same
US10943382B2 (en) Virtual reality
US9952652B2 (en) Virtual reality system and method for controlling operation modes of virtual reality system
EP3241088B1 (en) Methods and systems for user interaction within virtual or augmented reality scene using head mounted display
US9852549B2 (en) Image processing
US10198866B2 (en) Head-mountable apparatus and systems
KR20170129509A (ko) 헤드 마운티드 디스플레이 장치 및 그것의 제어방법
CN105377383A (zh) 在头戴式显示器上转变游戏过程
CN109803154B (zh) 棋类比赛的直播方法、设备及存储介质
CN109308115B (zh) 虚拟现实系统中显示用户移动的方法及相关装置
KR20160145054A (ko) 시선 추적 방법 및 디바이스에서의 시각적 변경의 비시각적 피드백
JP7416048B2 (ja) 情報処理装置、情報処理方法、およびプログラム
EP3367215B1 (en) Electronic device for providing virtual reality content
US20200089333A1 (en) Virtual reality
US20240005680A1 (en) Head-mounted display, display control method, and program
KR20180028211A (ko) 헤드 마운티드 디스플레이 및 그 제어 방법
CN111028566A (zh) 直播教学的方法、装置、终端和存储介质
WO2019031593A1 (ja) 映像音響再生装置およびその方法
KR20180101047A (ko) 전자장치 및 그 제어 방법
KR20180113406A (ko) 가상 공간을 이탈한 컨트롤러의 추적 방법 및 그 전자장치
CN112612387B (zh) 展示信息的方法、装置、设备及存储介质
KR20180098917A (ko) 가상 현실 체험 중 이벤트 발생시 동작 방법 및 그 전자장치
GB2517008A (en) Head-mountable apparatus and systems
JP2020025275A (ja) 映像音響再生装置およびその方法
KR20170046947A (ko) 이동 단말기 및 제어 방법