KR20180038175A - 가상 현실 서비스를 제공하는 서버, 디바이스 및 방법 - Google Patents

가상 현실 서비스를 제공하는 서버, 디바이스 및 방법 Download PDF

Info

Publication number
KR20180038175A
KR20180038175A KR1020160128921A KR20160128921A KR20180038175A KR 20180038175 A KR20180038175 A KR 20180038175A KR 1020160128921 A KR1020160128921 A KR 1020160128921A KR 20160128921 A KR20160128921 A KR 20160128921A KR 20180038175 A KR20180038175 A KR 20180038175A
Authority
KR
South Korea
Prior art keywords
user
virtual reality
image
height
reality service
Prior art date
Application number
KR1020160128921A
Other languages
English (en)
Inventor
강찬휘
김강태
김이길
소영준
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Priority to KR1020160128921A priority Critical patent/KR20180038175A/ko
Publication of KR20180038175A publication Critical patent/KR20180038175A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Health & Medical Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Computer Graphics (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

기설정된 영역에서 가상 현실 서비스를 제공하는 가상 현실 서비스 제공 서버는 가상 현실 디바이스로부터 사용자의 시선 변화에 따른 시점 정보를 수신하는 시점 정보 수신부, 가상 현실 디바이스와 분리되어 설치된 깊이 카메라로부터 사용자에 대한 깊이 정보를 수신하여 사용자의 움직임을 모니터링하는 깊이 정보 수신부, 깊이 정보에 기초하여 사용자의 특성을 추정하는 사용자 특성 추정부, 사용자의 움직임, 시점 정보 및 사용자의 특성에 기초하여 VR (Virtual Reality) 컨텐츠의 영상을 렌더링하는 영상 처리부 및 렌더링된 영상을 가상 현실 디바이스로 전송하는 영상 전송부를 포함할 수 있다.

Description

가상 현실 서비스를 제공하는 서버, 디바이스 및 방법{SERVER, DEVICE AND METHOD FOR PROVIDING VIRTUAL REALITY SERVICE}
본 발명은 가상 현실 서비스를 제공하는 서버, 디바이스 및 방법에 관한 것이다.
종래에는 가상 공간에서 사용자의 실제 움직임과 화면 이동 간의 동기화를 통한 가상 현실 서비스를 제공하는 방법으로, 고가의 HMD(Head mounted Display), 적외선 센서 및 고사양 PC의 결합을 이용한 방법과 저가의 HMD, 스마트폰 및 위치 센서의 결합을 이용한 방법이 있다.
고가의 HMD(예컨대, HTC VIVE 등), 적외선 센서 및 고사양 PC의 결합을 이용한 방법은 고사양 PC와 HMD를 유선으로 연결할 필요가 있고, 이로 인해 사용자의 이동성에 불편함을 줄 수 있고, 고사양의 장비를 구입하여야 하므로 시스템의 구축을 위해 많은 비용이 발생하는 문제점이 있었다.
저가의 HMD, 스마트폰 및 위치 센서의 결합을 이용한 방법은 스마트폰의 CPU/GPU를 통해 영상을 처리하기 때문에 고화질의 영상을 제공하기 어렵고, 위치 센서에 의해 센싱된 위치를 VR 컨텐츠 상의 사용자의 위치로 인식하여 처리하기 때문에 사용자의 특성(예컨대, 사용자의 키, 보폭, 몸동작 등)을 반영하기 어려운 문제점이 있었다.
선행 기술인 한국공개특허 제2016-0009213호에는 타겟 오브젝트의 정보를 획득하고, 카메라 유닛을 이용하여 외부 영역의 이미지를 획득하고, 외부 영역에 타겟 오브젝트의 증강현실 정보를 디스플레이하는 구성이 개시되어 있다.
가상 현실 서비스를 제공받는 가상 현실 디바이스의 사용자의 움직임, 사용자의 시선 변화에 따른 시점 정보 및 사용자의 특성을 반영하여 VR 컨텐츠의 영상을 제공하고자 한다. 다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 제 1 측면에 따른 기설정된 영역에서 가상 현실 서비스를 제공하는 가상 현실 서비스 제공 서버는 가상 현실 디바이스로부터 사용자의 시선 변화에 따른 시점 정보를 수신하는 시점 정보 수신부; 상기 가상 현실 디바이스와 분리되어 설치된 깊이 카메라로부터 상기 사용자에 대한 깊이 정보를 수신하여 상기 사용자의 움직임을 모니터링하는 깊이 정보 수신부; 상기 깊이 정보에 기초하여 상기 사용자의 특성을 추정하는 사용자 특성 추정부; 상기 사용자의 움직임, 상기 시점 정보 및 상기 사용자의 특성에 기초하여 VR (Virtual Reality) 컨텐츠의 영상을 렌더링하는 영상 처리부; 및 상기 렌더링된 영상을 상기 가상 현실 디바이스로 전송하는 영상 전송부를 포함할 수 있다.
일예에 있어서, 상기 사용자의 특성은 상기 사용자의 신장 및 걸음 속도를 포함할 수 있다. 일예에 있어서, 상기 사용자 특성 추정부는 상기 깊이 정보에 따른 상기 사용자의 높이 및 상기 깊이 카메라로부터 상기 사용자까지의 거리에 기초하여 상기 사용자의 신장 및 걸음 속도를 추정할 수 있다.
일예에 있어서, 상기 영상 처리부는 상기 사용자가 이동함으로써 상기 영상이 변화하는 화면 변화 속도를 결정하는 화면 변화 속도 결정부를 포함할 수 있다. 상기 영상 처리부는 상기 화면 변화 속도가 상기 걸음 속도에 비례하도록 기설정된 기준 속도에 상기 추정된 걸음 속도에 해당하는 보정 계수를 적용하여 상기 화면 변화 속도를 결정할 수 있다. 상기 영상 처리부는 기설정된 기준 시선 높이에 상기 추정된 사용자의 신장에 해당하는 보정 계수를 적용하여 상기 사용자의 시선 높이를 결정하는 시선 높이 결정부를 포함할 수 있다. 상기 영상 처리부는 상기 시점 정보, 상기 화면 변화 속도 및 상기 사용자의 시선 높이에 기초하여 상기 렌더링할 영상을 결정 및 렌더링할 수 있다.
일예에 있어서, 상기 사용자의 움직임에 기초하여 상기 사용자의 상기 기설정된 영역에 대한 이탈 여부를 판단하여 상기 사용자가 기설정된 영역에서 이탈하는 경우 이탈 정보를 상기 가상 현실 디바이스로 전송하는 이탈 정보 전송부를 더 포함할 수 있다.
본 발명의 제 2 측면에 따른 기설정된 영역에서 가상 현실 서비스를 제공하는 가상 현실 디바이스는 사용자의 시선 변화에 따른 시점 정보를 가상 현실 서비스 제공 서버로 전송하는 시점 정보 전송부; 깊이 카메라로부터 획득된 상기 사용자에 대한 깊이 정보에 기초하여 모니터링된 상기 사용자의 움직임, 상기 시점 정보 및 상기 깊이 정보에 기초하여 추정되는 상기 사용자의 특성에 기초하여 렌더링된 VR (Virtual Reality) 컨텐츠의 영상을 상기 가상 현실 서비스 제공 서버로부터 수신하는 영상 수신부; 및 상기 수신한 영상을 디코딩하여 출력하는 영상 출력부를 포함할 수 있다.
일예에 있어서, 상기 사용자의 특성은 상기 사용자의 신장 및 걸음 속도를 포함할 수 있다. 상기 사용자의 신장 및 걸음 속도는 상기 깊이 정보에 따른 상기 사용자의 높이 및 상기 깊이 카메라로부터 상기 사용자까지의 거리에 기초하여 추정된 것일 수 있다.
일예에 있어서, 상기 영상 수신부는 상기 시점 정보, 상기 걸음 속도에 비례하여 상기 영상이 변화하는 화면 변화 속도 및 상기 사용자의 시선 높이에 기초하여 렌더링된 VR 컨텐츠의 영상을 상기 가상 현실 서비스 제공 서버로부터 수신할 수 있다. 상기 화면 변화 속도는 상기 걸음 속도에 비례하도록 기설정된 기준 속도에 상기 추정된 걸음 속도에 해당하는 보정 계수가 적용된 것일 수 있다. 상기 사용자의 시선 높이는 기설정된 기준 시선 높이에 상기 추정된 사용자의 신장에 해당하는 보정 계수가 적용된 것일 수 있다.
일예에 있어서, 상기 사용자가 기설정된 영역에서 이탈하는 경우 이탈 정보를 상기 가상 현실 서비스 제공 서버로부터 수신하여 이탈 경고음을 발생하는 이탈 경고음 발생부를 더 포함할 수 있다.
본 발명의 제 3 측면에 따른 가상 현실 서비스 제공 서버를 통해 기설정된 영역에서 가상 현실 서비스를 제공하는 방법은 가상 현실 디바이스로부터 사용자의 시선 변화에 따른 시점 정보를 수신하는 단계; 상기 가상 현실 디바이스와 분리되어 설치된 깊이 카메라로부터 상기 사용자에 대한 깊이 정보를 수신하여 상기 사용자의 움직임을 모니터링하는 단계; 상기 깊이 정보에 기초하여 상기 사용자의 특성을 추정하는 단계; 상기 사용자의 움직임, 상기 시점 정보 및 상기 사용자의 특성에 기초하여 VR (Virtual Reality) 컨텐츠의 영상을 렌더링하는 단계; 및 상기 렌더링된 영상을 상기 가상 현실 디바이스로 전송하는 단계를 포함할 수 있다.
상술한 과제 해결 수단은 단지 예시적인 것으로서, 본 발명을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 기재된 추가적인 실시예가 존재할 수 있다.
전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 저가의 가상 현실 디바이스(예컨대, 스마트폰 기반의 저가의 HMD 장치)를 통해서도 고화질의 그래픽을 제공할 수 있고, 가상 현실 디바이스의 사용자의 움직임, 사용자의 시선 변화에 따른 시점 정보 및 사용자의 특성을 반영한 VR 컨텐츠의 영상을 제공받을 수 있다. 또한, 사용자의 움직임 및 특성에 기초하여 VR 컨텐츠의 영상을 제공하기 때문에 인지부조화에 따른 멀미감을 줄일 수 있고, 자연스러운 이동형 체험을 제공할 수 있다. 또한, 기설정된 영역을 이탈할 때 경고음을 발생시켜 안전사고를 미연에 방지할 수 있다. 또한, 고화질의 무선형의 VR 체험을 제공하기 때문에 움직임 또는 이동에 따른 불편함이 없다. 또한, 기존의 고가의 HMD 장비에 비해 본 발명의 가상 현실 디바이스의 장비에 대한 구매 비용이 저렴하기 때문에 시스템의 구축 비용을 획기적으로 낮출 수 있다.
도 1은 본 발명의 일 실시예에 따른, 가상 현실 서비스 제공 시스템의 구성도이다.
도 2는 본 발명의 일 실시예에 따른, 도 1에 도시된 가상 현실 서비스 제공 서버의 블록도이다.
도 3a 내지 3c는 본 발명의 일 실시예에 따른, 기설정된 영역에서 가상 현실 서비스를 제공하는 방법을 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따른, 사용자의 걸음 속도에 기초하여 VR (Virtual Reality) 컨텐츠의 영상을 렌더링하는 방법을 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른, 사용자의 시선 높이에 기초하여 VR 컨텐츠의 영상을 렌더링하는 방법을 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시예에 따른, 가상 현실 서비스 제공 서버에서 가상 현실 서비스를 제공하는 방법을 나타낸 동작 흐름도이다.
도 7은 본 발명의 일 실시예에 따른, 도 1에 도시된 가상 현실 디바이스의 블록도이다.
도 8은 본 발명의 일 실시예에 따른, 가상 현실 디바이스에서 가상 현실 서비스를 제공하는 방법을 나타낸 동작 흐름도이다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다.
본 명세서에 있어서 단말 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능 중 일부도 해당 서버와 연결된 단말 또는 디바이스에서 수행될 수도 있다.
이하, 첨부된 구성도 또는 처리 흐름도를 참고하여, 본 발명의 실시를 위한 구체적인 내용을 설명하도록 한다.
도 1은 본 발명의 일 실시예에 따른, 가상 현실 서비스 제공 시스템의 구성도이다.
도 1을 참조하면, 가상 현실 서비스 제공 시스템은 가상 현실 서비스 제공 서버(100), 가상 현실 디바이스(110) 및 깊이 카메라(120)를 포함할 수 있다. 다만, 이러한 도 1의 가상 현실 서비스 제공 시스템은 본 발명의 일 실시예에 불과하므로 도 1을 통해 본 발명이 한정 해석되는 것은 아니며, 본 발명의 다양한 실시예들에 따라 도 1과 다르게 구성될 수도 있다.
일반적으로, 도 1의 가상 현실 서비스 제공 시스템의 각 구성요소들은 네트워크(130)를 통해 연결된다. 네트워크는 단말들 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크(network)의 일례에는 3G, 4G, 5G, 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution), WIMAX(World Interoperability for Microwave Access), 와이파이(Wi-Fi) 등이 포함되나 이에 한정되지는 않는다.
가상 현실 서비스 제공 서버(100)는 기설정된 영역 내에서 이동하는 사용자에게 사용자가 착용하고 있는 가상 현실 디바이스(110)를 통해 가상 현실 서비스를 제공할 수 있다. 여기서, 기설정된 영역은 깊이 카메라(120)가 사용자를 인식할 수 있는 범위의 물리적인 이동 공간을 의미할 수 있다. 깊이 카메라(120)는 전방에 촬영되는 물체의 동작을 감지할 수 있다. 이러한 깊이 카메라(120)는 가상 현실 디바이스(110)를 착용한 사용자의 동작을 3차원으로 인식하고 영상화하여 가상 현실 내의 좌표계와 매칭시킬 수 있는 좌표 데이터를 가상 현실 서비스 제공 서버(100)에게 제공할 수 있다.
가상 현실 서비스 제공 서버(100)는 깊이 카메라(120)로부터 사용자에 대한 깊이 정보를 수신하고, 깊이 정보에 기초하여 사용자의 움직임을 모니터링할 수 있다. 가상 현실 서비스 제공 서버(100)는 깊이 정보로부터 사용자의 특성을 추정할 수 있다. 여기서, 사용자의 특성은 예를 들면, 사용자의 신장, 보폭 등을 포함할 수 있다.
가상 현실 서비스 제공 서버(100)는 가상 현실 디바이스(110)로부터 수신한 사용자의 시점 정보, 사용자의 움직임 및 깊이 정보에 기초하여 추정된 사용자의 특성에 기초하여 VR (Virtual Reality) 컨텐츠의 영상을 렌더링하고, 렌더링된 영상을 가상 현실 디바이스(110)에게 전송할 수 있다.
가상 현실 디바이스(110)는 사용자의 머리에 착용하는 디스플레이 장치로, 가상 현실 서비스 제공 서버(100)로부터 수신된 VR (Virtual Reality) 컨텐츠의 영상을 출력할 수 있다. 예를 들어, 본 발명의 일 실시예에 따른 가상 현실 디바이스(110)는 저가형 HMD(Head Mounted Device)로서 스마트폰을 거치함으로써 스마트폰을 통해 VR 컨텐츠를 제공하는 장치일 수 있다. 또는 자체적으로 VR 컨텐츠를 제공하는 고가형 HMD일 수도 있다. 후술할 가상 현실 디바이스(110)에서 동작하는 기능은 스마트폰에서 수행되거나(저가형 HMD의 경우) 가상 현실 디바이스(110)에서 자체적으로 수행될 수 있다(고가형 HMD의 경우).
가상 현실 디바이스(110)는 위치추적 센서 및 자이로 센서를 통해 가상 현실 디바이스(110)의 현재 위치 및 사용자의 시선 방향을 추적할 수 있다.
이하에서는 도 1의 가상 현실 서비스 제공 시스템의 각 구성요소의 동작에 대해 보다 구체적으로 설명한다.
도 2는 본 발명의 일 실시예에 따른, 도 1에 도시된 가상 현실 서비스 제공 서버(100)의 블록도이다.
도 2를 참조하면, 가상 현실 서비스 제공 서버(100)는 시점 정보 수신부(200), 깊이 정보 수신부(210), 사용자 특성 추정부(220), 영상 처리부(230), 영상 전송부(240), 이탈 정보 전송부(250) 및 DB(260)를 포함할 수 있다. 여기서, 영상 처리부(230)는 화면 변화 속도 결정부(232) 및 시선 높이 결정부(234)를 포함할 수 있다. 다만, 도 2에 도시된 가상 현실 서비스 제공 서버(100)는 본 발명의 하나의 구현 예에 불과하며, 도 2에 도시된 구성요소들을 기초로 하여 여러 가지 변형이 가능하다.
시점 정보 수신부(200)는 가상 현실 디바이스(110)로부터 사용자의 시선 변화에 따른 시점 정보를 수신할 수 있다. 예를 들면, 시점 정보 수신부(200)는 가상 현실 디바이스(110)의 자이로센서를 통해 인식된 사용자의 시선 방향에 대한 좌표 정보를 가상 현실 디바이스(110)로부터 수신할 수 있다.
깊이 정보 수신부(210)는 가상 현실 디바이스(110)와 분리되어 설치된 깊이 카메라(120)로부터 사용자에 대한 깊이 정보를 수신하여 사용자의 움직임을 모니터링할 수 있다. 잠시 도 3a 및 3b를 참조하면, 깊이 정보 수신부(210)는 사용자(302)에 대한 깊이 정보(304)에 기초하여, 사용자(302)가 기설정된 영역(300)를 이탈하지 않고, 기설정된 영역(300) 내에서 움직이고 있는지 여부를 확인할 수 있다.
사용자 특성 추정부(220)는 사용자에 대한 깊이 정보에 기초하여 사용자의 특성을 추정할 수 있다. 여기서, 사용자의 특성은 예를 들면, 사용자의 신장 및 걸음 속도를 포함할 수 있다. 예를 들어, 사용자 특성 추정부(220)는 깊이 정보에 따른 사용자의 높이 및 깊이 카메라(120)로부터 사용자까지의 거리에 기초하여 사용자의 신장 및 걸음 속도를 추정할 수 있다.
잠시 도 3c를 참조하면, 사용자 특성 추정부(220)는 깊이 카메라(120)에 의해 촬영된 영상(304)으로부터 사용자(302)의 전신을 포함하는 인식 객체(306)를 추출하고, 인식 객체(306)의 높이(308)에 깊이 정보에 따른 보정계수를 적용하여 사용자(302)의 신장을 추정할 수 있다. 여기서, 깊이 정보에 따른 보정계수는 깊이 카메라(120)로부터 사용자까지의 거리에 따른 인식 객체(306)의 높이(308)에 대한 사용자의 신장의 비율이다. 사용자 특성 추정부(220)는 인식 객체(306)의 다리 높이(310)에 깊이 정보에 따른 보정계수 및 소정의 임계값을 적용하여 사용자(302)의 보폭을 추정할 수 있다. 사용자 특성 추정부(220)는 사용자(302)의 보폭에 기초하여 걸음 속도를 추정할 수 있다.
다시 도 2로 돌아가면, 영상 처리부(230)는 사용자의 움직임, 시점 정보 및 사용자의 특성에 기초하여 VR 컨텐츠의 영상을 렌더링할 수 있다. 예를 들면, 영상 처리부(230)는 가상 현실 디바이스(110)로부터 수신된 시점 정보가 제 1 시점에서 제 2 시점으로의 사용자의 시선 변화를 포함한 경우, VR 컨텐츠의 영상 화면을 제 1 시점에 대응하는 화면 좌표에서 제 2 시점에 대응하는 화면 좌표로 전환하여 렌더링할 수 있다.
영상 처리부(230)는 시점 정보, 화면 변화 속도 및 사용자의 시선 높이에 기초하여 렌더링할 영상을 결정하고, 결정된 영상을 렌더링할 수 있다.
화면 변화 속도 결정부(232)는 사용자가 기설정된 영역 내에서 실제 이동함으로써 VR 컨텐츠의 영상이 변화하는 화면 변화 속도를 결정할 수 있다.
화면 변화 속도 결정부(232)는 화면 변화 속도가 사용자의 걸음 속도에 비례하도록 기설정된 기준 속도에 추정된 걸음 속도에 해당하는 보정 계수를 적용하여 화면 변화 속도를 결정할 수 있다.
잠시 도 4를 참조하면, 영상 처리부(230)는 사용자가 VR 컨텐츠 내의 제 1 위치에서 제 2 위치로 이동하는 경우, 사용자의 걸음 속도에 따라 제 1 위치에 해당하는 영상(400)으로부터 제 2 위치에 해당하는 영상(410)으로의 변화 속도를 제어함으로써, 사용자의 걸음 속도를 반영하여 영상을 렌더링할 수 있다. 사용자의 걸음 속도에 비례하도록 제 1 위치에 해당하는 영상(400)으로부터 제 2 위치에 해당하는 영상(410)으로의 변화 속도를 제어함으로써, 인지부조화에 따른 멀미감을 줄일 수 있고, 몰입감 높은 가상 현실 서비스를 제공할 수 있다.
다시 도 2로 돌아가면, 시선 높이 결정부(234)는 기설정된 기준 시선 높이에 추정된 사용자의 신장에 해당하는 보정 계수를 적용하여 사용자의 시선 높이를 결정할 수 있다.
잠시 도 5를 참조하면, 영상 처리부(230)는 결정된 사용자의 시선 높이에 기초하여 사용자의 시선 높이에 대응되는 렌더링할 영상(500 내지 520 중 어느 하나)을 결정할 수 있다. 예를 들어, 제 1 신장 구간(180cm 이상)의 경우, 제 1 높이에 해당하는 영상(500)을 렌더링할 수 있고, 제 2 신장 구간(170cm 이상 및 180cm 이하)의 경우, 제 2 높이에 해당하는 영상(510)을 렌더링할 수 있고, 제 3 신장 구간(170cm 이하)의 경우, 제 3 높이에 해당하는 영상(520)을 렌더링할 수 있고, 사용자의 시선 높이를 반영하여 렌더링할 영상을 결정하여 렌더링함으로써 인지부조화에 따른 멀미감을 줄일 수 있고, 몰입감 높은 가상 현실 서비스를 제공할 수 있다.
다시 도 2로 돌아가면, 영상 전송부(240)는 렌더링된 영상을 가상 현실 디바이스(110)에게 전송할 수 있다.
이탈 정보 전송부(250)는 사용자의 움직임에 기초하여 사용자의 기설정된 영역에 대한 이탈 여부를 판단하여 사용자가 기설정된 영역에서 이탈하는 경우 이탈 정보를 가상 현실 디바이스(110)에게 전송할 수 있다.
DB(260)는 가상 현실 서비스 제공 서버(100) 내부의 각 구성요소들 간에 입력 및 출력되는 데이터를 저장하고, 가상 현실 서비스 제공 서버(100)와 가상 현실 서비스 제공 서버(100) 외부의 구성요소들간에 입력 및 출력되는 데이터를 저장한다.
한편, 당업자라면, 시점 정보 수신부(200), 깊이 정보 수신부(210), 사용자 특성 추정부(220), 영상 처리부(230), 화면 변화 속도 결정부(232), 시선 높이 결정부(234), 영상 전송부(240), 이탈 정보 전송부(250) 및 DB(260) 각각이 분리되어 구현되거나, 이 중 하나 이상이 통합되어 구현될 수 있음을 충분히 이해할 것이다.
도 6은 본 발명의 일 실시예에 따른, 가상 현실 서비스 제공 서버(100)에서 가상 현실 서비스를 제공하는 방법을 나타낸 동작 흐름도이다.
도 6에 도시된 실시예에 따른 가상 현실 서비스 제공 방법은 도 1 내지 도 5에 도시된 실시예에 따른 가상 현실 서비스 제공 서버(100), 가상 현실 디바이스(110) 및 깊이 카메라(120)에서 시계열적으로 처리되는 단계들을 포함한다. 따라서, 이하 생략된 내용이라고 하더라도 도 1 내지 도 5의 가상 현실 서비스 제공 서버(100), 가상 현실 디바이스(110) 및 깊이 카메라(120)에 관하여 기술된 내용은 도 6에 도시된 실시예에 따른 가상 현실 서비스 제공 방법에도 적용될 수 있다.
도 6을 참조하면, 단계 S601에서 가상 현실 서비스 제공 서버(100)는 가상 현실 디바이스(110)로부터 사용자의 시선 변화에 따른 시점 정보를 수신할 수 있다.
단계 S603에서 가상 현실 서비스 제공 서버(100)는 가상 현실 디바이스(110)와 분리되어 설치된 깊이 카메라(120)로부터 사용자에 대한 깊이 정보를 수신하여 사용자의 움직임을 모니터링할 수 있다.
단계 S605에서 가상 현실 서비스 제공 서버(100)는 깊이 카메라(120)로부터 수신된 깊이 정보에 기초하여 사용자의 특성을 추정할 수 있다. 여기서, 사용자의 특성은 사용자의 신장 및 걸음 속도를 포함할 수 있다.
단계 S607에서 가상 현실 서비스 제공 서버(100)는 사용자의 움직임, 시점 정보 및 사용자의 특성에 기초하여 VR 컨텐츠의 영상을 렌더링할 수 있다.
단계 S609에서 가상 현실 서비스 제공 서버(100)는 렌더링된 영상을 가상 현실 디바이스(110)에게 전송할 수 있다.
상술한 설명에서, 단계 S601 내지 S609는 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다.
도 7은 본 발명의 일 실시예에 따른, 도 1에 도시된 가상 현실 디바이스(110)의 블록도이다.
도 7을 참조하면, 가상 현실 디바이스(110)는 시점 정보 전송부(700), 영상 수신부(710), 영상 출력부(720) 및 이탈 경고음 발생부(730)를 포함할 수 있다. 다만, 도 7에 도시된 가상 현실 디바이스(110)는 본 발명의 하나의 구현 예에 불과하며, 도 7에 도시된 구성요소들을 기초로 하여 여러 가지 변형이 가능하다.
시점 정보 전송부(700)는 사용자의 시선 변화에 따른 시점 정보를 가상 현실 서비스 제공 서버(100)에게 전송할 수 있다. 예를 들면, 시점 정보 전송부(700)는 위치추적 센서 및 자이로 센서에 의해 감지된 가상 현실 디바이스(110)의 3차원 위치좌표 및 방향 좌표를 포함하는 시점 정보를 가상 현실 서비스 제공 서버(100)에게 전송할 수 있다.
영상 수신부(710)는 사용자의 움직임, 시점 정보 및 사용자의 특성에 기초하여 렌더링된 VR 컨텐츠의 영상을 가상 현실 서비스 제공 서버(100)로부터 수신할 수 있다. 여기서, 사용자의 움직임은 깊이 카메라(120)로부터 획득된 사용자에 대한 깊이 정보에 기초하여 가상 현실 서비스 제공 서버(100)에서 모니터링된 것이고, 시점 정보는 사용자의 시선 변화에 대한 위치 및 방향 좌표 정보를 포함하고, 사용자의 특성은 깊이 정보에 기초하여 추정된 사용자의 신장 및 걸음 속도를 포함할 수 있다. 여기서, 사용자의 신장 및 걸음 속도는 깊이 정보에 따른 사용자의 높이 및 깊이 카메라(120)로부터 사용자까지의 거리에 기초하여 추정될 수 있다.
영상 수신부(710)는 사용자의 시점 정보, 사용자의 걸음 속도에 비례하여 VR 컨텐츠의 영상이 변화하는 화면 변화 속도 및 사용자의 시선 높이에 기초하여 렌더링된 VR 컨텐츠의 영상을 가상 현실 서비스 제공 서버(100)로부터 수신할 수 있다. 여기서, 화면 변화 속도는 걸음 속도에 비례하도록 기설정된 기준 속도에 추정된 걸음 속도에 해당하는 보정 계수가 적용된 것일 수 있다. 사용자의 시선 높이는 기설정된 기준 시선 높이에 추정된 사용자의 신장에 해당하는 보정 계수가 적용된 것일 수 있다.
영상 출력부(720)는 수신한 영상을 디코딩하여 출력할 수 있다. 이탈 경고음 발생부(730)는 사용자가 기설정된 영역에서 이탈하는 경우, 이탈 정보를 가상 현실 서비스 제공 서버(100)로부터 수신하여 이탈 경고음을 발생시킬 수 있다.
한편, 당업자라면, 시점 정보 전송부(700), 영상 수신부(710), 영상 출력부(720) 및 이탈 경고음 발생부(730) 각각이 분리되어 구현되거나, 이 중 하나 이상이 통합되어 구현될 수 있음을 충분히 이해할 것이다.
도 8은 본 발명의 일 실시예에 따른, 가상 현실 디바이스(110)에서 가상 현실 서비스를 제공하는 방법을 나타낸 동작 흐름도이다.
도 8에 도시된 실시예에 따른 가상 현실 서비스 제공 방법은 도 1 내지 도 7에 도시된 실시예에 따른 가상 현실 서비스 제공 서버(100), 가상 현실 디바이스(110) 및 깊이 카메라(120)에서 시계열적으로 처리되는 단계들을 포함한다. 따라서, 이하 생략된 내용이라고 하더라도 도 1 내지 도 7의 가상 현실 서비스 제공 서버(100), 가상 현실 디바이스(110) 및 깊이 카메라(120)에 관하여 기술된 내용은 도 8에 도시된 실시예에 따른 가상 현실 서비스 제공 방법에도 적용될 수 있다.
도 8을 참조하면, 단계 S801에서 가상 현실 디바이스(110)는 사용자의 시선 변화에 따른 시점 정보를 가상 현실 서비스 제공 서버(100)에게 전송할 수 있다.
단계 S803에서 가상 현실 디바이스(110)는 깊이 카메라(120)로부터 획득된 사용자에 대한 깊이 정보에 기초하여 모니터링된 사용자의 움직임, 시점 정보 및 깊이 정보에 기초하여 추정되는 사용자의 특성에 기초하여 렌더링된 VR 컨텐츠의 영상을 가상 현실 서비스 제공 서버(100)로부터 수신할 수 있다.
단계 S805에서 가상 현실 디바이스(110)는 가상 현실 서비스 제공 서버(100)로부터 수신한 영상을 디코딩하여 출력할 수 있다.
상술한 설명에서, 단계 S801 내지 S805는 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다.
본 발명의 일 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
100: 가상 현실 서비스 제공 서버
110: 가상 현실 디바이스
120: 깊이 카메라
200: 시점 정보 수신부
210: 깊이 정보 수신부
220: 사용자 특성 추정부
230: 영상 처리부
232: 화면 변화 속도 결정부
234: 시선 높이 결정부
240: 영상 전송부
250: 이탈 정보 전송부
260: DB
700: 시점 정보 전송부
710: 영상 수신부
720: 영상 출력부
730: 이탈 경고음 발생부

Claims (17)

  1. 기설정된 영역에서 가상 현실 서비스를 제공하는 가상 현실 서비스 제공 서버에 있어서,
    가상 현실 디바이스로부터 사용자의 시선 변화에 따른 시점 정보를 수신하는 시점 정보 수신부;
    상기 가상 현실 디바이스와 분리되어 설치된 깊이 카메라로부터 상기 사용자에 대한 깊이 정보를 수신하여 상기 사용자의 움직임을 모니터링하는 깊이 정보 수신부;
    상기 깊이 정보에 기초하여 상기 사용자의 특성을 추정하는 사용자 특성 추정부;
    상기 사용자의 움직임, 상기 시점 정보 및 상기 사용자의 특성에 기초하여 VR (Virtual Reality) 컨텐츠의 영상을 렌더링하는 영상 처리부; 및
    상기 렌더링된 영상을 상기 가상 현실 디바이스로 전송하는 영상 전송부
    를 포함하는 가상 현실 서비스 제공 서버.
  2. 제 1 항에 있어서,
    상기 사용자의 특성은 상기 사용자의 신장 및 걸음 속도를 포함하는 것인, 가상 현실 서비스 제공 서버.
  3. 제 2 항에 있어서,
    상기 사용자 특성 추정부는 상기 깊이 정보에 따른 상기 사용자의 높이 및 상기 깊이 카메라로부터 상기 사용자까지의 거리에 기초하여 상기 사용자의 신장 및 걸음 속도를 추정하는 것인, 가상 현실 서비스 제공 서버.
  4. 제 2 항에 있어서,
    상기 영상 처리부는 상기 사용자가 이동함으로써 상기 영상이 변화하는 화면 변화 속도를 결정하는 화면 변화 속도 결정부
    를 포함하는 것인, 가상 현실 서비스 제공 서버.
  5. 제 4 항에 있어서,
    상기 화면 변화 속도 결정부는 상기 화면 변화 속도가 상기 걸음 속도에 비례하도록 기설정된 기준 속도에 상기 추정된 걸음 속도에 해당하는 보정 계수를 적용하여 상기 화면 변화 속도를 결정하는 것인, 가상 현실 서비스 제공 서버.
  6. 제 4 항에 있어서,
    상기 영상 처리부는 기설정된 기준 시선 높이에 상기 추정된 사용자의 신장에 해당하는 보정 계수를 적용하여 상기 사용자의 시선 높이를 결정하는 시선 높이 결정부
    를 포함하는 것인, 가상 현실 서비스 제공 서버.
  7. 제 6 항에 있어서,
    상기 영상 처리부는 상기 시점 정보, 상기 화면 변화 속도 및 상기 사용자의 시선 높이에 기초하여 상기 렌더링할 영상을 결정 및 렌더링하는 것인, 가상 현실 서비스 제공 서버.
  8. 제 1 항에 있어서,
    상기 사용자의 움직임에 기초하여 상기 사용자의 상기 기설정된 영역에 대한 이탈 여부를 판단하여 상기 사용자가 기설정된 영역에서 이탈하는 경우 이탈 정보를 상기 가상 현실 디바이스로 전송하는 이탈 정보 전송부
    를 더 포함하는 것인, 가상 현실 서비스 제공 서버.
  9. 기설정된 영역에서 가상 현실 서비스를 제공하는 가상 현실 디바이스에 있어서,
    사용자의 시선 변화에 따른 시점 정보를 가상 현실 서비스 제공 서버로 전송하는 시점 정보 전송부;
    깊이 카메라로부터 획득된 상기 사용자에 대한 깊이 정보에 기초하여 모니터링된 상기 사용자의 움직임, 상기 시점 정보 및 상기 깊이 정보에 기초하여 추정되는 상기 사용자의 특성에 기초하여 렌더링된 VR (Virtual Reality) 컨텐츠의 영상을 상기 가상 현실 서비스 제공 서버로부터 수신하는 영상 수신부; 및
    상기 수신한 영상을 디코딩하여 출력하는 영상 출력부
    를 포함하는 것인, 가상 현실 디바이스.
  10. 제 9 항에 있어서,
    상기 사용자의 특성은 상기 사용자의 신장 및 걸음 속도를 포함하는 것인, 가상 현실 디바이스.
  11. 제 10 항에 있어서,
    상기 사용자의 신장 및 걸음 속도는 상기 깊이 정보에 따른 상기 사용자의 높이 및 상기 깊이 카메라로부터 상기 사용자까지의 거리에 기초하여 추정된 것인, 가상 현실 디바이스.
  12. 제 10 항에 있어서,
    상기 영상 수신부는 상기 시점 정보, 상기 걸음 속도에 비례하여 상기 영상이 변화하는 화면 변화 속도 및 상기 사용자의 시선 높이에 기초하여 렌더링된 VR 컨텐츠의 영상을 상기 가상 현실 서비스 제공 서버로부터 수신하는 것인, 가상 현실 디바이스.
  13. 제 12 항에 있어서,
    상기 화면 변화 속도는 상기 걸음 속도에 비례하도록 기설정된 기준 속도에 상기 추정된 걸음 속도에 해당하는 보정 계수가 적용된 것인, 가상 현실 디바이스.
  14. 제 12 항에 있어서,
    상기 사용자의 시선 높이는 기설정된 기준 시선 높이에 상기 추정된 사용자의 신장에 해당하는 보정 계수가 적용된 것인, 가상 현실 디바이스.
  15. 제 9 항에 있어서,
    상기 사용자가 기설정된 영역에서 이탈하는 경우 이탈 정보를 상기 가상 현실 서비스 제공 서버로부터 수신하여 이탈 경고음을 발생하는 이탈 경고음 발생부
    를 더 포함하는 것인, 가상 현실 디바이스.
  16. 가상 현실 서비스 제공 서버를 통해 기설정된 영역에서 가상 현실 서비스를 제공하는 방법에 있어서,
    가상 현실 디바이스로부터 사용자의 시선 변화에 따른 시점 정보를 수신하는 단계;
    상기 가상 현실 디바이스와 분리되어 설치된 깊이 카메라로부터 상기 사용자에 대한 깊이 정보를 수신하여 상기 사용자의 움직임을 모니터링하는 단계;
    상기 깊이 정보에 기초하여 상기 사용자의 특성을 추정하는 단계;
    상기 사용자의 움직임, 상기 시점 정보 및 상기 사용자의 특성에 기초하여 VR (Virtual Reality) 컨텐츠의 영상을 렌더링하는 단계; 및
    상기 렌더링된 영상을 상기 가상 현실 디바이스로 전송하는 단계
    를 포함하는 가상 현실 서비스 제공 방법.
  17. 제 16 항에 있어서,
    상기 사용자의 특성은 상기 사용자의 신장 및 걸음 속도를 포함하는 것인, 가상 현실 서비스 제공 방법.
KR1020160128921A 2016-10-06 2016-10-06 가상 현실 서비스를 제공하는 서버, 디바이스 및 방법 KR20180038175A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160128921A KR20180038175A (ko) 2016-10-06 2016-10-06 가상 현실 서비스를 제공하는 서버, 디바이스 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160128921A KR20180038175A (ko) 2016-10-06 2016-10-06 가상 현실 서비스를 제공하는 서버, 디바이스 및 방법

Publications (1)

Publication Number Publication Date
KR20180038175A true KR20180038175A (ko) 2018-04-16

Family

ID=62082082

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160128921A KR20180038175A (ko) 2016-10-06 2016-10-06 가상 현실 서비스를 제공하는 서버, 디바이스 및 방법

Country Status (1)

Country Link
KR (1) KR20180038175A (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101975150B1 (ko) 2018-10-12 2019-05-03 (주)셀빅 디지털 콘텐츠 테마파크 운용 시스템
CN109743626A (zh) * 2019-01-02 2019-05-10 京东方科技集团股份有限公司 一种图像显示方法、图像处理方法和相关设备
WO2022005226A1 (en) * 2020-07-01 2022-01-06 Samsung Electronics Co., Ltd. Efficient encoding of depth data across devices
US11475652B2 (en) 2020-06-30 2022-10-18 Samsung Electronics Co., Ltd. Automatic representation toggling based on depth camera field of view
WO2024058446A1 (ko) * 2022-09-15 2024-03-21 삼성전자주식회사 가상 현실 컨텐츠를 제어하는 방법 및 이를 지원하는 웨어러블 전자 장치

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101975150B1 (ko) 2018-10-12 2019-05-03 (주)셀빅 디지털 콘텐츠 테마파크 운용 시스템
CN109743626A (zh) * 2019-01-02 2019-05-10 京东方科技集团股份有限公司 一种图像显示方法、图像处理方法和相关设备
US11574613B2 (en) 2019-01-02 2023-02-07 Beijing Boe Optoelectronics Technology Co., Ltd. Image display method, image processing method and relevant devices
US11475652B2 (en) 2020-06-30 2022-10-18 Samsung Electronics Co., Ltd. Automatic representation toggling based on depth camera field of view
WO2023277253A1 (en) * 2020-06-30 2023-01-05 Samsung Electronics Co., Ltd. Automatic representation switching based on depth camera field of view
WO2022005226A1 (en) * 2020-07-01 2022-01-06 Samsung Electronics Co., Ltd. Efficient encoding of depth data across devices
WO2024058446A1 (ko) * 2022-09-15 2024-03-21 삼성전자주식회사 가상 현실 컨텐츠를 제어하는 방법 및 이를 지원하는 웨어러블 전자 장치

Similar Documents

Publication Publication Date Title
KR20180038175A (ko) 가상 현실 서비스를 제공하는 서버, 디바이스 및 방법
US10586395B2 (en) Remote object detection and local tracking using visual odometry
US11025959B2 (en) Probabilistic model to compress images for three-dimensional video
US20150371444A1 (en) Image processing system and control method for the same
JP5113426B2 (ja) 頭部装着型表示装置、及びその制御方法
US9773333B2 (en) Information processing device, information processing method, and program
US10277832B2 (en) Image processing method and image processing system
WO2016157677A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP6736944B2 (ja) 情報処理装置、情報処理方法およびプログラム
KR20110064544A (ko) 단일 카메라 영상 기반의 객체 거리 및 위치 추정 장치 및 방법
CN111627116A (zh) 图像渲染控制方法、装置及服务器
KR102456332B1 (ko) 헤드 장착형 디스플레이 및 접속된 원격 디스플레이에서 시각적으로 유도된 멀미를 감소시키는 방법
WO2015145541A1 (ja) 映像表示装置
US20150350637A1 (en) Electronic apparatus and display processing method
KR102437276B1 (ko) 바디 움직임 기반의 클라우드 vr 장치 및 방법
JP2020154569A (ja) 表示装置、表示制御方法、及び表示システム
JP2016109828A (ja) 画像処理装置、画像処理方法及びプログラム
KR102620477B1 (ko) 증강 현실 서비스를 제공하는 서버, 단말 및 방법
JPWO2017115587A1 (ja) 情報処理装置、制御方法、及びプログラム
CN107958478B (zh) 虚拟现实场景中物体的渲染方法和虚拟现实头戴设备
US20200396438A1 (en) Information processing device, information processing method, and computer program
KR102420166B1 (ko) 맞춤형 네트워크 전송 정보 퀄리티 조정 방법 및 시스템
US11615767B2 (en) Information processing apparatus, information processing method, and recording medium
US10962779B2 (en) Display control device, method for controlling display control device, and storage medium
EP3340013A1 (en) A gazed object identification module, a system for implementing gaze translucency, and a related method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal