KR102594054B1 - 가상 현실 제어 시스템 및 이를 제어하는 방법 - Google Patents

가상 현실 제어 시스템 및 이를 제어하는 방법 Download PDF

Info

Publication number
KR102594054B1
KR102594054B1 KR1020210175770A KR20210175770A KR102594054B1 KR 102594054 B1 KR102594054 B1 KR 102594054B1 KR 1020210175770 A KR1020210175770 A KR 1020210175770A KR 20210175770 A KR20210175770 A KR 20210175770A KR 102594054 B1 KR102594054 B1 KR 102594054B1
Authority
KR
South Korea
Prior art keywords
user
wearable display
display device
marker
control unit
Prior art date
Application number
KR1020210175770A
Other languages
English (en)
Other versions
KR20230087118A (ko
Inventor
최정환
육종현
백승범
권철
Original Assignee
(주)스코넥엔터테인먼트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)스코넥엔터테인먼트 filed Critical (주)스코넥엔터테인먼트
Priority to KR1020210175770A priority Critical patent/KR102594054B1/ko
Publication of KR20230087118A publication Critical patent/KR20230087118A/ko
Application granted granted Critical
Publication of KR102594054B1 publication Critical patent/KR102594054B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

실시 예의 가상 현실 제어 시스템은, 사용자가 착용하며, 영상을 출력하는 착용형 디스플레이 장치; 상기 착용형 디스플레이 장치에 장착되는 마커; 상기 마커의 위치를 검출하는 센싱부; 및 상기 센싱부로부터의 센싱 값에 기초하여 상기 착용형 디스플레이 장치로 출력되는 영상을 제어하는 제어부를 포함하고, 상기 제어부는 상기 마커의 위치를 검출하여 상기 사용자의 신장정보를 획득하고, 상기 신장정보에 기초하여 상기 영상을 제어하며, 상기 제어부는 상기 마커가 기준 범위내에 위치한 상태로 일정 시간 동안 경과하는 경우 상기 마커의 위치를 상기 사용자의 신장정보로 결정한다.

Description

가상 현실 제어 시스템 및 이를 제어하는 방법 {Virtual Reality Control System and Method of controlling thereof}
본 발명은 가상 현실 제어 시스템에 관한 것이다.
가상 현실은 현실을 기반으로 현실에 가상의 정보를 부가하여 사용자에게 제공하거나 현실에서의 대상체의 상태를 프로그램에 의해 생성된 가상 현실 이미지로써 제공하는 기술일 수 있다.
이러한 가상 현실 제공 기술에는 현실에 제공되는 사용자나 오브젝트 등의 대상체의 상태에 대한 정보를 기반으로 프로그램에 의해 가상 공간, 가상 캐릭터 및 가상 오브젝트 등을 생성하는 기술이 포함될 수 있고, 이 때 다양한 센서를 이용하여 대상체의 상태에 대한 정보를 획득하게 된다.
가상 현실 시스템은 다수의 사용자가 하나의 공간에서 이용할 수 있으며, 사용자의 신장이 다른 경우 이를 반영한 캐릭터를 출력해야할 필요성이 있다. 다만, 이 경우 가상 현실 시스템에서 사용자의 신장을 별도로 측정해야되는 번거로움이 있다.
실시 예는 현실감을 저해하지 않으면서 사용자의 신장 정보를 산출하는 가상현실 제어 시스템을 제공한다.
실시 예는 사용자의 신장 정보에 기초하여 현실감을 높일 수 있는 가상현실 제어 시스템을 제공한다.
본 발명이 해결하고자 하는 과제가 상술한 과제로 제한되는 것은 아니며, 언급되지 아니한 과제들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
실시 예의 가상 현실 제어 시스템은, 사용자가 착용하며, 영상을 출력하는 착용형 디스플레이 장치; 상기 착용형 디스플레이 장치에 장착되는 마커; 상기 마커의 위치를 검출하는 센싱부; 및 상기 센싱부로부터의 센싱 값에 기초하여 상기 착용형 디스플레이 장치로 출력되는 영상을 제어하는 제어부를 포함하고, 상기 제어부는 상기 마커의 위치를 검출하여 상기 사용자의 신장정보를 획득하고, 상기 신장정보에 기초하여 상기 영상을 제어하며, 상기 제어부는 상기 마커가 기준 범위내에 위치한 상태로 일정 시간 동안 경과하는 경우 상기 마커의 위치를 상기 사용자의 신장정보로 결정한다.
실시 예에 따른 가상 현실 제어 시스템의 제어 방법은, 착용형 디스플레이 장치에 장착되는 마커의 위치를 검출하는 단계; 상기 마커가 기준 범위 내에 위치하는지 판단하는 단계; 상기 마커가 기준 범위 내에 위치한 상태로 일정 시간이 경과하는지 판단하는 단계; 상기 마커가 기준 범위 내에 위치한 상태로 일정 시간이 경과하면 상기 마커의 위치를 사용자의 신장정보로 결정하는 단계; 및 상기 결정된 신장정보에 기초하여 착용형 디스플레이 장치로 출력되는 영상을 제어하는 단계를 포함할 수 있다.
실시 예에 따른 가상 현실 제어 시스템은 착용형 디스플레이 장치가 기준 범위 내에 위치하는 상태에서 일정시간이 경과하는 경우의 마커의 위치를 사용자의 신장정보로 결정함으로써 현실감을 해치지 않는 상태로 사용자의 신장정보를 결정할 수 있다.
실시 예에 따른 가상 현실 제어 시스템은, 캐릭터가 컨텐츠와 충돌하는 경우 자세를 변경시키거나 신장을 조정하여 현실감을 높일 수 있다.
본 발명의 효과가 상술한 효과들로 제한되는 것은 아니며, 언급되지 아니한 효과들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.
도 1은 제1 실시 예에 따른 가상 현실 제어 시스템을 나타내는 도면이다.
도 2는 제1 실시 예에 따른 디텍팅 장치를 나타내는 도면이다.
도 3은 제1 실시 예에 따른 서버를 나타내는 도면이다.
도 4는 제1 실시 예에 따른 보조 컴퓨팅 장치를 나타내는 도면이다.
도 5는 제1 실시 예에 따른 착용형 디스플레이 장치를 나타내는 도면이다.
도 6은 제1 실시 예에 따른 가상 현실 제어 시스템이 구현되는 것을 나타내는 도면이다.
도 7은 제1 실시 예에 따른 대상체 추적 방법을 나타내는 도면이다.
도 8은 제1 실시 예에 따른 가상 현실 이미지가 착용형 디스플레이 장치를 통해 출력되는 것을 나타내는 도면이다.
도 9는 제1 실시 예에 따른 가상 현실 시스템의 제어방법을 나타내는 도면이다.
도 10은 제1 실시 예에 따른 가상 현실 시스템에서 출력되는 캐릭터를 나타내는 도면이다.
도 11은 제1 실시 예에 따른 가상 현실 시스템에서 사용자의 신장을 결정하는 단계를 나타내는 도면이다.
도 12는 제1 실시 예에 따른 기준 범위를 설명하기 위한 도면이다.
도 13은 제1 실시 예에 따른 가상 현실 시스템의 컨텐츠 적용단계를 나타내는 도면이다.
도 14는 제1 실시 예에 따른 가상 현실 시스템의 캐릭터의 자세를 나타내는 도면이다.
도 15는 제2 실시 예에 따른 가상 현실 시스템의 컨텐츠 적용단계를 나타내는 도면이다.
본 발명의 상술한 목적, 특징들 및 장점은 첨부된 도면과 관련된 다음의 상세한 설명을 통해 보다 분명해질 것이다. 다만, 본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예들을 가질 수 있는 바, 이하에서는 특정 실시예들을 도면에 예시하고 이를 상세히 설명하고자 한다.
도면들에 있어서, 층 및 영역들의 두께는 명확성을 기하기 위하여 과장되어진 것이며, 또한, 구성요소(element) 또는 층이 다른 구성요소 또는 층의 "위(on)" 또는 "상(on)"으로 지칭되는 것은 다른 구성요소 또는 층의 바로 위 뿐만 아니라 중간에 다른 층 또는 다른 구성요소를 개재한 경우를 모두 포함한다. 명세서 전체에 걸쳐서 동일한 참조번호들은 원칙적으로 동일한 구성요소들을 나타낸다. 또한, 각 실시예의 도면에 나타나는 동일한 사상의 범위 내의 기능이 동일한 구성요소는 동일한 참조부호를 사용하여 설명한다.
본 발명과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제1, 제2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다.
또한, 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈", "유닛" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.
실시 예의 가상 현실 제어 시스템은, 사용자가 착용하며, 영상을 출력하는 착용형 디스플레이 장치; 상기 착용형 디스플레이 장치에 장착되는 마커; 상기 마커의 위치를 검출하는 센싱부; 및 상기 센싱부로부터의 센싱 값에 기초하여 상기 착용형 디스플레이 장치로 출력되는 영상을 제어하는 제어부를 포함하고, 상기 제어부는 상기 마커의 위치를 검출하여 상기 사용자의 신장정보를 획득하고, 상기 신장정보에 기초하여 상기 영상을 제어하며, 상기 제어부는 상기 마커가 기준 범위내에 위치한 상태로 일정 시간 동안 경과하는 경우 상기 마커의 위치를 상기 사용자의 신장정보로 결정한다.
상기 제어부는 상기 신장정보는 상기 마커가 기준 방향으로 배치된 상태에서 일정시간이 경과하는 경우 상기 마커의 위치를 상기 사용자의 신장정보로 결정할 수 있다.
상기 제어부는 상기 사용자의 신장정보에 기초하여, 다른 사용자의 착용형 디스플레이 장치의 출력 영상을 제어할 수 있다.
상기 제어부는 상기 사용자의 신장정보에 기초하여, 다른 사용자의 착용형 디스플레이 장치에 출력되는 상기 사용자의 캐릭터의 크기를 조절할 수 있다.
상기 제어부는 상기 착용형 디스플레이 장치가 턴온 된 이후 일정시간 범위내에의 기간에 상기 사용자의 신장정보를 결정할 수 있다.
상기 제어부는 상기 마커의 위치가 제1 기준위치와 제2 기준위치 사이인 경우 제1 자세를 가지는 캐릭터를 상기 다른 사용자의 착용형 디스플레이 장치의 출력영상으로 출력할 수 있다.
상기 제어부는 상기 마커의 위치가 제2 기준위치보다 높은 위치인 경우 제2 자세를 가지는 캐릭터를 상기 다른 사용자의 착용형 디스플레이 장치의 출력영상으로 출력하고, 상기 제1 자세와 제2 자세는 다른 자세일 수 있다.
상기 제어부는 상기 마커의 위치가 상기 제1 기준위치보다 낮은 경우 제3 자세를 가지는 캐릭터를 상기 다른 사용자의 착용형 디스플레이 장치의 출력영상으로 출력하고, 상기 제3 자세는 상기 제1 자세 및 제2 자세와 다른 자세일 수 있다.
상기 제어부는 상기 마커의 위치가 제1 기준위치보다 낮은 경우 제3 자세를 가지는 캐릭터를 상기 다른 사용자의 착용형 디스플레이 장치의 출력영상으로 출력하되, 상기 캐릭터가 가상 현실 공간에서의 컨텐츠와 충돌하는 경우 상기 캐릭터의 신장을 조정한 후 제3 자세를 가지는 캐릭터를 상기 다른 사용자의 착용형 디스플레이 장치의 출력영상으로 출력할 수 있다.
상기 제어부는 상기 마커의 위치가 제1 기준위치와 제2 기준위치의 사이인 경우 제1 자세를 가지는 캐릭터를 상기 다른 사용자의 착용형 디스플레이 장치의 출력영상으로 출력하되, 상기 캐릭터가 가상 현실 공간에서의 컨텐츠와 충돌하는 경우 상기 제3 자세를 가지는 캐릭터를 상기 다른 사용자의 착용형 디스플레이 장치의 출력영상으로 출력할 수 있다.
실시 예에 따른 가상 현실 제어 시스템의 제어 방법은, 착용형 디스플레이 장치에 장착되는 마커의 위치를 검출하는 단계; 상기 마커가 기준 범위 내에 위치하는지 판단하는 단계; 상기 마커가 기준 범위 내에 위치한 상태로 일정 시간이 경과하는지 판단하는 단계; 상기 마커가 기준 범위 내에 위치한 상태로 일정 시간이 경과하면 상기 마커의 위치를 사용자의 신장정보로 결정하는 단계; 및 상기 결정된 신장정보에 기초하여 착용형 디스플레이 장치로 출력되는 영상을 제어하는 단계를 포함할 수 있다.
본 명세서는 가상 현실 제어 시스템에 관한 것으로, 가상 현실 제어 시스템은 사용자가 현실에서는 공간, 시간의 제약 또는 구현이나 발생의 한계 등으로 인해 경험하기 어려운 상황을 가상 공간에서 체험하도록 가상 현실을 제공할 수 있다.
여기서, 가상 현실은 현실 세계와 달리 프로그램에 의해 생성된 인공적인 환경일 수 있다.
이러한 가상 현실은 통상적으로 프로그램에 의해 현실과 분리된 가상 공간을 생성하여 이에 대한 이미지를 제공하는 VR, 현실 세계를 기반으로 가상의 이미지를 겹쳐 하나의 이미지로 제공하는 AR 및 현실 세계와 가상 현실을 융합하여 가상 공간을 제공하고 이에 대한 이미지를 제공하는 MR로 구분될 수 있다.
이하에서 설명되는 가상 현실을 설명함에 있어서 가상 현실은 앞서 설명된 VR, AR 및 MR 뿐만 아니라 다양한 형태의 가상 공간을 제공하는 가상 환경을 의미할 수 있다.
이하에서는 도 1을 참조하여 제1 실시 예에 따른 가상 현실을 제공하기 위한 가상 현실 제어 시스템(10)에 대해서 설명하도록 한다.
도 1은 제1 실시 예에 따른 가상 현실 제어 시스템(10)을 나타내는 도면이다.
도 1을 참조하면, 가상 현실 제어 시스템(10)은 디텍팅 장치(100), 서버(200), 보조 컴퓨팅 장치(300), 착용형 디스플레이 장치(400) 및 입력 장치(500)를 포함할 수 있다.
일 실시예에 따르면 디텍팅 장치(100)는 서버(200)와 연결될 수 있다.
디텍팅 장치(100)는 대상체를 추적하여 디텍팅 정보를 획득할 수 있다.
일 실시예에 따른 대상체는 착용형 디스플레이 장치(400)를 통해 출력되는 이미지에 영향을 주는 물체일 수 있다. 예를 들어 대상체는 착용형 디스플레이 장치(400), 사용자, 입력 장치(500), 리얼 오브젝트(real object)와 같이 상기 사용자 주변에 위치한 물체 및 기준점 또는 특징점을 갖는 물체 중 적어도 하나가 포함될 수 있다.
또한 일 실시예에 따른 대상체의 추적은 현실 환경에서의 대상체의 위치에 대한 정보를 획득하는 것을 의미할 수 있다. 예를 들어 대상체의 추적은 현실 환경에서 대상체의 이동에 따라 변경되는 위치에 대한 정보를 획득할 수 있다. 이러한 대상체에 대한 위치 정보는 획득한 미리 정해진 주기로위치 정보 획득될 수 있으나, 이에 한정되는 것은 아니다.
일 실시예에 따르면 디텍팅 장치(100)는 디텍팅 정보를 서버(200)에 제공할 수 있다.
일 실시예에 따르면 서버(200)는 디텍팅 장치(100) 및 보조 컴퓨팅 장치(300)와 연결될 수 있다.
서버(200)는 연결된 구성으로부터 정보를 획득할 수 있다.
일 실시예에 따르면 서버(200)는 디텍팅 장치(100)로부터 디텍팅 정보, 디텍팅 장치(100)가 획득한 이미지 정보 및 디텍팅 장치(100)의 상태 정보 중 적어도 하나를 획득할 수 있다.
그 밖에도 서버(200)는 후술할 몇몇 실시예에 따라 다양한 정보를 획득할 수 있다.
일 실시예에 따르면 서버(200)는 연결된 구성을 제어할 수 있다.
일 실시예에 따르면 서버(200)는 보조 컴퓨팅 장치(300) 또는 착용형 디스플레이 장치(400)를 제어할 수 있다.
일 예로 서버(200)는 보조 컴퓨팅 장치(300)에 설치된 프로그램 또는 어플리케이션의 구동을 제어할 수 있다. 보다 구체적인 예를 들어 서버(200)는 보조 컴퓨팅 장치(300)에 설치된 프로그램 또는 어플리케이션의 시작 및/또는 종료를 제어할 수 있다.
다른 예로 서버(200)는 디텍팅 장치(100)의 동작에 필요한 다양한 설정을 제공할 수 있다.
또한 서버(200)는 디텍팅 정보에 기초하여 대상체의 위치 정보를 생성하거나 대상체의 위치에 대응하는 가상 현실에서의 가상 위치 정보를 생성할 수 있다.
또한 서버(200)는 보조 컴퓨팅 장치(300)에서 구동되는 프로그램 또는 어플리케이션의 인증을 수행할 수 있다.
일 실시예에 따른 서버(200)의 기능이 상술한 기능으로 한정되는 것은 아니며, 실시예에 따라 다양한 기능을 수행하는 서버(200)가 제공될 수 있다.
또한 일 실시예예 따른 서버(200)가 반드시 하나의 물리적인 구성으로 제공되어야 하는 것은 아니며, 상술한 기능을 세분화 하여 각각의 기능을 수행하는 복수의 장치로 제공될 수 있다.
예를 들어 서버(200)는 디텍팅 장치(100)와 연결되어 디텍팅 정보에 기초하여 위치 정보를 획득하는 디텍팅 서버, 가상 현실 제어 시스템(10)에 제공되는 구성 중 적어도 일부에 대한 제어를 수행하는 운영 서버 및 가상 현실 제어 시스템(10)의 각 구성 중 적어도 하나의 구성에서 실행되는 프로그램 또는 어플리케이션에 대한 인증을 수행하는 라이선스 서버 등으로 세분화되어 각 서버에서 수행될 수 있다.
한편, 서버(200)는 보조 컴퓨팅 장치(300)가 입력 장치(500)로부터 획득한 입력신호 또는 입력신호에 기초한 입력 정보를 제공 받을 수 있다.
입력 정보는 가상 현실 내 오브젝트 등에 대한 사용자의 선택 정보, 입력 장치(500)를 통하여 입력된 동작에 대한 정보, 입력 장치(500)의 지향 방향에 대한 지향 정보 등을 포함할 수 있다.
보조 컴퓨팅 장치는(300)는 디텍팅 장치(100), 서버(200), 착용형 디스플레이 장치(400) 및 입력 장치(500) 중 적어도 하나와 연결될 수 있다.
보조 컴퓨팅 장치(300)는 서버(200)로부터 획득한 위치 정보에 기초하여 가상 위치 정보를 산출할 수 있다.
또는 보조 컴퓨팅 장치(300)는 디텍팅 장치(100)로부터 획득한 디텍팅 정보를 가공하여 대상체의 위치 정보를 산출하거나 가상 위치 정보를 산출할 수 있다.
보조 컴퓨팅 장치(300)는 미리 저장된 프로그램 또는 어플리케이션을 통하여 착용형 디스플레이 장치(400)를 통하여 사용자에게 이미지를 제공할 수 있다.
또한 보조 컴퓨팅 장치(300)는 착용형 디스플레이 장치(400)를 통해 사용자에게 제공할 음향 정보를 제공할 수 있다.
일 실시예에 따르면, 보조 컴퓨팅 장치(300)는 미리 설치된 어플리케이션 또는 프로그램을 통해 위치 정보에 기초하여 사용자에게 제공될 이미지를 획득할 수 있다.
또한 보조 컴퓨팅 장치(300)는 입력 장치(500)로부터 획득한 입력신호에 기초하여 입력 정보를 획득할 수 있다.
또한 보조 컴퓨팅 장치(300)는 획득한 입력 정보를 고려하여 사용자에게 제공할 이미지를 획득할 수 있다.
착용형 디스플레이 장치(400)는 보조 컴퓨팅 장치(300)와 연결될 수 있다.
착용형 디스플레이 장치(400)는 사용자에게 가상 현실에 대한 이미지를 제공할 수 있다.
착용형 디스플레이 장치(400)는 보조 컴퓨팅 장치(300)로부터 획득한 가상 현실 이미지를 사용자에게 시각적으로 출력할 수 있다.
또한 착용형 디스플레이 장치(400)는 보조 컴퓨팅 장치(300)로부터 획득한 음향 정보를 출력할 수 있다.
입력 장치(500)는 가상 현실에 반영할 사용자의 입력에 대한 신호를 획득할 수 있다.
입력 장치(500)는 보조 컴퓨팅 장치(300)와 연결될 수 있다.
입력 장치(500)는 보조 컴퓨팅 장치(300)로 사용자의 입력에 대응하는 입력신호를 제공할 수 있다.
입력 장치(500)는 사용자의 동작에 대응하는 신호를 획득하기 위한 가속도 센서, 자이로스코프, 자이로 센서, MEMS, 지자기 센서, 관성 센서(IMU), 광 센서, 조도 센서, 포토 센서, 적외선 센서, 칼라 센서, 깊이 센서 및 전자파 센서 등을 포함할 수 있다.
또한 입력 장치(500)는 사용자의 선택에 대한 신호를 획득하기 위한 버튼, 스위치, 조그셔틀 및 휠 등을 포함할 수 있다.
또한 입력 장치(500)는 보조 컴퓨팅 장치(300)와 유선 통신 및 무선 통신 중 적어도 하나의 통신 방식으로 연결될 수 있다.
또한 입력 장치(500)는 보조 컴퓨팅 장치(300)와의 통신을 위한 통신 모듈을 포할 수 있다.
도 1에는 입력 장치(500)가 보조 컴퓨팅 장치(300)와 연결되는 것으로 도시하였으나 이에 한정되는 것은 아니며 입력 장치(500)는 선택에 따라 다양한 연결 형태로 제공될 수 있다.
예를 들어 입력 장치(500)는 서버(200) 및 착용형 디스플레이(400)등의 구성과 연결되어 입력 신호를 제공할 수 있다.
이상에서 설명된 가상 현실 제어 시스템(10)은 설명의 편의를 위한 예시일 뿐 일 실시예에 따른 가상 현실 제어 시스템(10)이 도 1에 도시된 구성 및 연결 관계로 한정되는 것은 아니며 선택에 따라 다양한 형태로 제공될 수 있다.
일 예로 보조 컴퓨팅 장치(300) 및 착용형 디스플레이 장치(400)는 하나의 구성으로 제공될 수 있으며, 이 경우 보조 컴퓨팅 장치(300)에서 수행하는 동작이 착용형 디스플레이 장치(400)에서 구현될 수 있다.
다만, 이하에서 다양한 실시예들을 설명함에 있어서 설명의 편의를 위하여 상술한 가상 현실 제어 시스템(10)을 예시로 하여 설명하도록 한다.
이하에서는 도 2를 참조하여 제1 실시 예에 따른 디텍팅 장치(100)에 대하여 설명하도록 한다.
도 2는 제1 실시 예에 따른 디텍팅 장치(100)를 나타내는 도면이다.
도 2를 참조하면, 디텍팅 장치(100)는 발광부(110) 및 센싱부(120)를 포함할 수 있다.
발광부(110)는 대상체 추적을 위해 상기 대상체 또는 그 주변에 신호를 송출할 수 있다.
일 예로, 발광부(110)는 가시광 및 적외선 등의 광 신호를 외부로 발신하는 발광 소자로 제공될 수 있다.
보다 구체적인 예를 들어 발광부는 가시광 LED 및 적외선 LED 등으로 제공될 수 있다.
센싱부(120)는 외부로부터 신호를 획득할 수 있다.
일 예로, 센싱부(120)는 발광부(110)가 송출한 신호에 대응하는 신호를 획득할 수 있다.
다른 예로, 센싱부(120)는 대상체에 제공되는 마커가 반사한 광에 대한 신호를 획득할 수 있다.
예를 들어 센싱부(120)는 이미지 센서, 광 센서, 조도 센서, 포토 센서, 적외선 센서, 칼라 센서, 깊이 센서 및 전자파 센서 등으로 제공될 수 있다.
도 3은 제1 실시 예에 따른 서버(200)를 나타내는 도면이다.
도 3을 참조하면, 서버(200)는 서버 통신부(210), 서버 저장부(220), 서버 입력부(230), 서버 제어부(240) 및 서버 디스플레이부(250)를 포함할 수 있다.
서버 통신부(210)는 디텍팅 장치(100), 보조 컴퓨팅 장치(300), 착용형 디스플레이 장치(400) 및 입력 장치(500) 중 적어도 하나와 연결되어 데이터를 획득하거나 제공할 수 있다.
서버 통신부(210)는 유선통신 및 무선통신 중 적어도 하나의 통신 방식으로 디텍팅 장치(100), 보조 컴퓨팅 장치(300), 착용형 디스플레이 장치(400) 및 입력 장치(500) 중 적어도 하나와 연결될 수 있다.
예를 들어 무선통신은 와이파이(Wi-Fi)망, 3G, LTE망, 5G, 로라(LoRa) 등의 이동통신망, wave(Wireless Access in Vehicular Environment), 비콘, 지그비(zigbee), 블루투스(Bluetooth), BLE(Bluetooth Low Energy) 등을 포함할 수 있다.
또한 유선통신은 트위스트 페어 케이블, 동축케이블 또는 광케이블 등을 포함할 수 있다.
서버 통신부(210)는 유선 통신 및 무선 통신 중 적어도 하나의 통신 방식을 제공하기 위한 통신 모듈로 제공될 수 있다.
서버 저장부(220)는 데이터를 저장할 수 있다.
서버 저장부(220)는 외부로부터 획득한 정보를 저장할 수 있다.
또한 서버 저장부(220)는 서버(200)의 동작에 필요한 정보를 저장할 수 있다.
예를 들어 서버 저장부(220)는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리, SSD, CD-ROM, DVD-ROM 또는 USB 등으로 제공될 수 있다.
서버 입력부(230)는 사용자의 입력에 대응하는 신호를 획득할 수 있다.
사용자의 입력은 예를 들어 버튼의 누름, 클릭, 터치 및 드래그 등일 수 있다.
서버 입력부(230)는 예를 들어 키보드, 키 패드, 버튼, 조그셔틀 및 휠 등으로 구현될 수 있다.
서버 제어부(240)는 서버(200)의 동작을 총괄할 수 있다.
일 예로 서버 제어부(240)는 서버(200)에 포함된 구성의 동작을 제어할 수 있다.
서버 디스플레이부(250)는 시각적인 정보를 출력할 수 있다.
서버 디스플레이부(250)는 시각적인 정보를 출력하는 모니터, TV, 디스플레이 패널 등으로 제공될 수 있다.
또한 서버 디스플레이부(250)가 터치 스크린으로 제공되는 경우, 서버 디스플레이부(250)는 서버 입력부(230)의 기능을 수행할 수 있다.
도 4는 제1 실시 예에 따른 보조 컴퓨팅 장치(300)를 나타내는 도면이다.
도 4를 참조하면, 보조 컴퓨팅 장치(300)는 보조 컴퓨팅 통신부(310), 보조 컴퓨팅 저장부(320), 보조 컴퓨팅 입력부(330) 및 보조 컴퓨팅 제어부(340)를 포함할 수 있다.
보조 컴퓨팅 통신부(310)는 서버(200), 착용형 디스플레이 장치(400) 및 입력 장치(500) 중 적어도 하나와 연결될 수 있다.
보조 컴퓨팅 통신부(310)는 유선통신 및 무선통신 중 적어도 하나의 통신 방식으로 서버(200), 착용형 디스플레이 장치(400) 및 입력 장치(500) 중 적어도 하나와 연결될 수 있다.
보조 컴퓨팅 통신부(310)는 연결된 서버(200), 착용형 디스플레이 장치(400) 및 입력 장치(500) 중 적어도 하나와 정보를 교환할 수 있다.
예를 들어 무선통신은 와이파이(Wi-Fi)망, 3G, LTE망, 5G, 로라(LoRa) 등의 이동통신망, wave(Wireless Access in Vehicular Environment), 비콘, 지그비(zigbee), 블루투스(Bluetooth), BLE(Bluetooth Low Energy) 등을 포함할 수 있다.
또한 유선통신은 트위스트 페어 케이블, 동축케이블 또는 광케이블 등을 포함할 수 있다.
보조 컴퓨팅 통신부(310)는 무선 통신 및 유선 통신 중 적어도 하나의 통신 방식을 제공하기 위한 통신 모듈로 제공될 수 있다.
보조 컴퓨팅 저장부(320)는 외부로부터 획득한 정보를 저장할 수 있다.
또한 보조 컴퓨팅 저장부(320)는 보조 컴퓨팅 장치(300)의 동작에 필요한 데이터 등을 저장할 수 있다.
또한, 보조 컴퓨팅 저장부(320)는 사용자에게 가상 체험을 제공하기 위한 어플리케이션 또는 프로그램 등을 저장할 수 있다.
보조 컴퓨팅 입력부(330)는 사용자의 입력에 대응하는 신호를 획득할 수 있다.
사용자의 입력은 예를 들어 버튼의 누름, 클릭, 터치 및 드래그 등일 수 있다.
예를 들어 보조 컴퓨팅 입력부(330)는 키보드, 키 패드, 버튼, 조그셔틀 및 휠 등으로 구현될 수 있다.
보조 컴퓨팅 제어부(340)는 보조 컴퓨팅 장치(300)의 동작을 총괄할 수 있다.
도 5는 제1 실시 예에 따른 착용형 디스플레이 장치(400)를 나타내는 도면이다.
도 5를 참조하면, 착용형 디스플레이 장치(400)는 착용형 디스플레이 통신부(410), 착용형 디스플레이 저장부(420), 착용형 디스플레이 센서부(430), 착용형 디스플레이 제어부(440) 및 착용형 디스플레이 출력부(450)를 포함할 수 있다.
착용형 디스플레이 통신부(410)는 보조 컴퓨팅 장치(300)와 연결될 수 있다.
착용형 디스플레이 통신부(410)는 유선통신 및 무선통신 중 적어도 하나의 통신 방식으로 보조 컴퓨팅 장치(300)와 연결될 수 있다.
착용형 디스플레이 저장부(420)는 데이터를 저장할 수 있다.
착용형 디스플레이 저장부(420)는 착용형 디스플레이 장치(400)의 동작에 필요한 어플리케이션 또는 프로그램을 저장할 수 있다.
또한 착용형 디스플레이 저장부(420)는 외부로부터 획득한 정보를 저장할 수 있다.
착용형 디스플레이 센서부(430)는 착용형 디스플레이 장치(400)의 상태 및 사용자의 입력에 대응하는 신호를 획득할 수 있다.
일 실시예에 따른 착용형 디스플레이 센서부(430)는 착용형 디스플레이 동작 센서모듈(431) 및 착용형 디스플레이 음향 센서모듈(432)을 포함할 수 있다.
착용형 디스플레이 동작 센서모듈(431)은 착용형 디스플레이 장치(400)의 상태에 대한 신호를 획득할 수 있다.
일 예로 착용형 디스플레이 동작 센서모듈(431)은 착용형 디스플레이 장치(400)의 회전에 대한 회전 정보를 획득할 수 있다.
다른 예로 착용형 디스플레이 동작 센서모듈(431)은 착용형 디스플레이 장치(400)의 위치 이동에 대한 이동 정보를 획득할 수 있다.
착용형 디스플레이 동작 센서모듈(431)은 가속도 센서, 자이로스코프, 자이로 센서, MEMS, 지자기 센서, 관성 센서(IMIU), 이미지 센서, 광 센서, 조도 센서, 포토 센서, 적외선 센서, 칼라 센서, 깊이 센서 또는 전자파 센서 등을 포함할 수 있다.
착용형 디스플레이 음향 센서모듈(432)는 외부로부터 유입되는 소리에 대응하는 신호를 획득할 수 있다.
일 예로 착용형 디스플레이 음향 센서모듈(432) 마이크일 수 있다.
착용형 디스플레이 제어부(440)는 착용형 디스플레이 장치(400)의 동작을 총괄할 수 있다.
착용형 디스플레이 화면 출력부(450)는 사용자에게 시각적인 정보를 출력할 수 있다.
일 예로 착용형 디스플레이 화면 출력부(450)는 가상 현실에 대한 이미지를 출력할 수 있다. 또한 다른 예로 착용형 디스플레이 화면 출력부(450)는 3차원 가상 현실에 대한 이미지를 출력할 수 있다.
착용형 디스플레이 화면 출력부(450)는 액정 디스플레이(LCD), 전자 종이, LED 디스플레이, OLED 디스플레이, 곡면 디스플레이, 스테레오스코피(양안 시차를 이용한 3차원 디스플레이) 등의 이미지 출력 장치로 제공될 수 있다.
착용형 디스플레이 음향 출력부(460)는 청각적인 정보를 출력할 수 있다.
착용형 디스플레이 음향 출력부(460)는 튜너, 재생장치, 앰프, 스피커 등의 음향장치로 제공될 수 있다.
도 6은 제1 실시 예에 따른 가상 현실 제어 시스템(10)이 구현되는 것을 나타내는 도면이다.
도 6을 참조하면 가상 현실 제어 시스템(10)은 적어도 하나의 사용자(800)에게 가상 체험을 위한 추적 영역(600)이 제공됨으로써 구현될 수 있다.
또한 추적 영역(600)에서 사용자(800)에게 보조 컴퓨팅 장치(300), 착용형 디스플레이 장치(400) 및 입력 장치(500) 중 적어도 하나가 제공될 수 있다.
또한 사용자(800)에게 제공되는 대상체에는 마커(M)가 제공될 수 있다.
일 예로 대상체가 착용형 디스플레이 장치(400) 및 입력 장치(500)인 경우 착용형 디스플레이 장치(400) 및 입력 장치(500)에는 서로 상이한 패턴의 마커(M)가 제공될 수 있다.
마커(M)가 제공되는 패턴에 대해서는 후술하도록 한다.
또한 추적 영역(600)에는 적어도 하나의 디텍팅 장치(100)가 제공될 수 있다.
일 예로 도 6에 도시된 바와 같이 추적 영역(600)에는 복수의 디텍팅 장치(100)가 제공될 수 있다.
이러한 디텍팅 장치(100)는 추적 영역(600)의 주변을 둘러 미리 정해진 간격으로 이격 되어 제공될 수 있다.
또한 디텍팅 장치(100)는 지면으로부터 미리 정해진 높이만큼 이격되어 제공될 수 있다.
또한 디텍팅 장치(100)는 추적 영역(600)을 지향하도록 제공될 수 있다.
디텍팅 장치(100)는 미리 설치된 프레임에 고정되어 설치 될 수 있다.
일 예로 도 6에 도시된 바와 같이 추적 영역(600) 주변에는 디텍팅 장치(100)를 설치하기 위한 프레임이 제공될 수 있다. 또한 디텍팅 장치(100)는 프레임에 고정되어 설치될 수 있다.
디텍팅 장치(100)는 추적 영역(600)에 대한 디텍팅 정보를 획득할 수 있다.
일 예로 디텍팅 장치(100)에 포함된 센싱부(120)는 추적 영역(600) 중 적어도 일부에 대한 디텍팅 정보를 획득할 수 있다.
디텍팅 장치(100)는 디텍팅 정보를 서버(200) 또는 보조 컴퓨팅 장치(300)에 제공할 수 있다.
일 예로 디텍팅 장치(100)는 센싱부(120)가 획득한 디텍팅 정보를 서버(200)에 제공할 수 있다.
서버(200)는 디텍팅 정보에 기초하여 대상체의 실시간 위치 정보를 획득할 수 있다.
도 6에 도시된 바와 같이 추적 영역(600)에 복수의 디텍팅 장치(100)가 제공되는 경우 서버(200) 또는 보조 컴퓨팅 장치(300)는 복수의 디텍팅 장치(100)로부터 디텍팅 정보를 획득할 수 있으며, 획득한 디텍팅 정보들에 기초하여 대상체의 현재 위치 정보를 획득할 수 있다.
또한 서버(200) 또는 보조 컴퓨팅 장치(300)는 대상체들의 위치 정보에 기초하여 적어도 하나의 대상체에 대한 가상 위치 정보를 획득할 수 있다.
일 예로 보조 컴퓨팅 장치(300)는 사용자(800)의 현실에서의 위치 정보에 포함된 좌표에 대응하는 가상 현실에서의 좌표를 가상 현실에서 사용자(800)에 대응하는 캐릭터의 가상 위치 정보로 획득할 수 있다.
서버(200)는 대상체의 위치 정보 및 가상 위치 정보 중 적어도 하나를 보조 컴퓨팅 장치(300)로 제공할 수 있다.
보조 컴퓨팅 장치(300)는 획득한 위치 정보에 기초하여 가상 위치 정보를 산출할 수 있다.
또한 보조 컴퓨팅 장치(300)는 가상 위치 정보에 기초하여 가상 현실 이미지를 획득할 수 있다.
일 예로, 보조 컴퓨팅 장치(300)는 보조 컴퓨팅 저장부(320)에 저장된 프로그램 또는 어플리케이션을 이용하여 가상 체험에 필요한 가상 현실을 구축하고 획득한 가상 위치 정보에 기초하여 가상 현실에서 시야 범위를 획득할 수 있다. 보조 컴퓨팅 장치(300)는 가상 현실 내 시야 범위에 기초하여 가상 현실 이미지를 획득할 수 있다.
보조 컴퓨팅 장치(300)는 가상 현실 이미지를 착용형 디스플레이 장치(400)로 제공할 수 있다.
착용형 디스플레이 장치(400)는 가상 현실 이미지를 사용자(800)에게 출력할 수 있다.
또한 서버(300)는 모니터링 디스플레이(700)로 가상 현실 이미지를 제공할 수 있다.
서버(300)는 보조 컴퓨팅 장치(300)로부터 획득한 가상 현실 이미지를 연결된 모니터링 디스플레이(700)로 제공할 수 있다.
또한 서버(300)가 복수의 보조 컴퓨팅 장치(300)와 연결된 경우 서버(300)는 복수의 보조 컴퓨팅 장치(300) 중 적어도 하나의 보조 컴퓨팅 장치(300)로부터 가상 현실 이미지를 획득할 수 있으며, 획득한 가상 현실 이미지를 연결된 모니터링 디스플레이(700)로 제공할 수 있다.
일 예로 서버(300)는 서버 입력부(230)를 통하여 서버(300)와 연결된 보조 컴퓨팅 장치(300) 중 가상 현실 이미지를 획득할 보조 컴퓨팅 장치(300)에 대한 선택을 획득할 수 있으며, 선택된 보조 컴퓨팅 장치(300)로부터 획득한 가상 현실 이미지를 모니터링 디스플레이(700)로 제공할 수 있다.
또한 서버(300)는 보조 컴퓨팅 장치(300)로부터 가상 위치 정보를 획득할 수 있으며, 획득한 가상 위치 정보 및 미리 설정된 가상 현실 내 가상 카메라 위치에 기초하여 가상 현실 이미지를 획득할 수 있다.
또한 서버(300)는 획득한 가상 현실 이미지를 연결된 모니터링 디스플레이(700)로 제공할 수 있다.
모니터링 디스플레이(700)는 서버(300)로부터 획득한 가상 현실 이미지를 출력할 수 있다.
또한 입력 장치(500)는 서버(200), 보조 컴퓨팅 장치(300) 및 착용형 디스플레이 장치(400) 중 적어도 하나와 연결되어 제공될 수 있다.
또한 입력 장치(500)는 적어도 하나의 마커(M)가 제공될 수 있다.
입력 장치(500)는 각각의 사용자(800)가 소지하도록 제공될 수 있다.
일 예로 사용자(800)는 입력 장치(400)를 손에 휴대할 수 있다.
일 실시예에 따르면 서버(200)는 디텍팅 장치(100)로부터 획득한 디텍팅 정보에 기초하여 입력 장치(500)의 위치 정보를 획득할 수 있다. 또한 입력 장치(500)의 위치 정보는 추적 영역(600)에서의 입력 장치(500)의 위치 정보 및 입력 장치(500)의 지향 방향 정보 중 적어도 하나를 포함할 수 있다.
보조 컴퓨팅 장치(300)는 입력 장치(500)의 위치 정보에 기초하여 가상 현실에서 입력 장치(500)에 대응하는 가상 오브젝트의 지향 방향을 판단할 수 있다.
또한 보조 컴퓨팅 장치(300)는 가상 현실에서 입력 장치(500)에 대응하는 가상 오브젝트의 지향 방향이 고려된 가상 이미지를 획득할 수 있다.
일 예로 보조 컴퓨팅 장치(300)는 가상 현실에서 입력 장치(500)에 대응하는 총이 입력 장치(500)의 지향 방향에 대응하는 방향으로 지향하는 가상 이미지를 획득할 수 있다.
또한 또한 보조 컴퓨팅 장치(300)는 가상 현실에서 입력 장치(500)를 통한 사용자(800)의 이벤트 발생 명령에 따른 이벤트 발생이 고려된 가상 이미지를 획득할 수 있다.
일 예로 보조 컴퓨팅 장치(300)는 입력 장치(500)에 제공되는 스위치가 사용자(800)에 의해 눌린 경우 가상 현실에서 사용자(800)에 대응하는 캐릭터가 소지한 총을 발사하는 가상 이미지를 획득할 수 있다.
도 7은 제1 실시 예에 따른 대상체 추적 방법을 나타내는 도면이다.
도 7을 참조하면 대상체 추적 방법은 외부에 제공되는 센서를 이용하여 대상체에 대한 정보를 획득하고, 획득한 대상체에 대한 정보에 기초하여 대상체의 위치를 판단할 수 있다.
이하에서는 도 7을 참조하여 대상체가 착용형 디스플레이 장치(400)인 경우를 예시적으로 설명하도록 한다.
도 7을 참조하면 대상체에는 대상체를 식별하기 위한 마커(M)가 제공될 수 있다.
마커(M)는 대상체에 제공되어 대상체를 식별하여 추적하는 기준을 제공할 수 있다.
대상체를 추적하기 위해서는 대상체와 대상체가 아닌 구성을 식별해야 할 필요가 있으며, 대상체에 마커(M)가 제공됨으로써 대상체임을 식별 가능할 수 있다.
또한 복수의 대상체가 제공되는 경우 각각의 대상체를 식별할 필요가 있으며, 이를 위하여 하나의 대상체에 제공되는 마커(M)는 다른 대상체에 제공되는 마커(M)와 구별 가능하게 제공될 수 있다.
예를 들어 하나의 대상체에 제공되는 마커(M)는 다른 대상체에 제공되는 마커(M)와 상이한 패턴으로 제공될 수 있다.
또한 패턴은 복수의 마커(M)가 상이한 위치에 제공되어 형성되는 패턴 및 하나의 디스플레이 패널 등에 제공되는 광 패턴 등 다양한 의미의 패턴을 포함할 수 있다.
패턴은 마커(M)의 마커 좌표에 의해 형성될 수 있다.
일 예로, 세 개의 마커(M)가 디텍팅 장치(100)에 의해 추적되어 디텍팅 정보로 제1 마커 좌표(MP1-1), 제2 마커 좌표(MP1-2) 및 제3 마커 좌표(MP1-3)가 획득될 수 있고 제1 마커 좌표(MP1-1) 내지 제3 마커 좌표(MP1-3)는 삼각형의 패턴을 형성할 수 있다.
또한 마커(M) 는 발광부(110)로부터 송출된 광 신호를 반사하거나 흡수하는 패시브 마커 및 자체적으로 광 신호를 송출할 수 있는 액티브 마커 등으로 제공될 수 있다.
일 예로, 패시브 마커는 광 반사 물질이 부착된 입체 모형, 인식 가능한 코드가 인쇄되어 있는 종이, 반사테이프 등을 포함할 수 있다.
또한 액티브 마커는 LED 모듈, 전파 발생기 등이 포함할 수 있다.
일 실시예에 따르면 대상체에는 적어도 하나의 마커(M)가 제공될 수 있다.
일 예로, 가상 현실 제어 시스템(10)이 하나의 대상체에 대해서만 위치를 추적하는 경우에는 대상체에는 하나의 마커(M)만 제공될 수 있다.
또한 가상 현실 제어 시스템(10)이 하나의 대상체에 대해서만 위치를 추적하는 경우라 하더라도 대상체에는 복수의 마커(M)가 제공될 수 있다.
또한 가상 현실 제어 시스템(10)이 복수의 대상체에 대해서 위치를 추적하는 경우, 복수의 대상체 각각을 식별하기 위해서 하나의 대상체에는 복수의 마커(M)가 패턴을 형성하여 제공될 수 있다.
일 예로 가상 현실 제어 시스템(10)에서 위치를 추적하는 대상체가 착용형 디스플레이 장치(400) 및 입력 장치(500)의 두 가지로 제공되는 경우 착용형 디스플레이 장치(400)에는 제1 패턴으로 마커(M)가 제공될 수 있고 입력 장치(500)에는 제2 패턴으로 마커가(M) 제공될 수 있다.
제1 패턴 및 제2 패턴은 서로 상이한 패턴으로, 위치 추적 시 제1 패턴이 검출된 경우 착용형 디스플레이 장치(400)로 식별할 수 있으며, 제2 패턴이 검출된 경우 입력 장치(500)로 식별할 수 있다.
이상에서는 복수의 대상체가 제공되는 경우 복수의 각각을 식별하기 위하여 복수의 대상체 각각에 제공되는 마커(M)들이 패턴을 형성하여 제공되는 것으로 설명하였으나, 이에 한정되는 것은 아니며, 하나의 대상체가 제공되는 경우에도 대상체에 제공되는 마커(M)들이 패턴을 형성하여 제공될 수 있다.
또한 대상체에 제공되는 마커(M)의 패턴은 사용자(800)의 식별에도 사용될 수 있다.
일 예로 제1 패턴은 제1 사용자가 착용한 착용형 디스플레이 장치로 식별될 수 있으며, 제2 패턴은 제1 사용자가 소지한 입력 장치로 식별될 수 있다. 또한 제3 패턴은 제2 사용자가 착용한 착용형 디스플레이 장치로 식별될 수 있으며, 제4 패턴은 제2 사용자가 소지한 입력 장치로 식별될 수 있다.
대상체의 추적에 대해서 설명하면 서버(200)는 디텍팅 장치(100)로부터 대상체에 대한 정보를 획득할 수 있으며, 획득한 정보에 기초하여 대상체의 위치에 대한 디텍팅 정보를 획득할 수 있다. 또한 서버(200)는 디텍팅 정보에 기초하여 대상체의 위치 정보를 산출할 수 있다.
디텍팅 장치(100)가 서버(200)로 대상체에 대한 정보를 제공하는 기술에 대해서 설명하면 디텍팅 장치(100)의 발광부(110)는 추적 영역(600)의 적어도 일부 영역에 신호를 발신할 수 있다.
일 예로 발광부(110)가 적외선 LED인 경우 발광부(100)는 추적 영역(600)의 적어도 일부 영역에 적외선 신호를 발신할 수 있다.
또한 센싱부(120)는 외부로부터 획득한 정보를 서버(200)로 제공할 수 있다.
일 예로 센싱부(120)가 카메라인 경우 센싱부(120)는 외부로부터 획득한 이미지 신호를 서버(200)로 제공할 수 있다.
도 7에는 하나의 센싱부(120)만 도시되어 있으나, 이에 한정되는 것은 아니며, 앞서 도 6에서 설명된 바와 같이 센싱부(120)는 복수로 제공될 수 있으며, 복수의 센싱부(120) 각각은 획득한 정보를 서버(200)로 제공할 수 있다.
서버(200)는 센싱부(120)로부터 획득한 정보에 기초하여 대상체의 위치를 판단할 수 있다.
서버(200)는 센싱부(120)로부터 획득한 정보에 마커(M)에 대한 정보가 포함되어 있는지 여부를 판단할 수 있다. 또한 서버(200)는 센싱부(120)로부터 획득한 정보에 마커(M)에 대한 정보가 포함된 경우 마커(M)의 패턴에 기초하여 대상체를 식별할 수 있다.
일 예로 서버(200)는 센싱부(120)로부터 획득한 정보에 제1 패턴이 포함된 경우 착용형 디스플레이 장치(400)임을 식별할 수 있다.
하나의 센싱부(120)로부터 획득한 정보에는 복수의 패턴이 존재할 수 있으며, 서버(200)는 복수의 패턴을 식별할 수 있다.
이러한 패턴은 서버(200)에 미리 저장될 수 있으며, 서버(200)는 획득한 정보에 미리 저장된 패턴이 존재하는 경우 해당 패턴이 존재하는 것으로 판단할 수 있으며, 해당 패턴에 대응하는 대상체를 식별할 수 있다.
서버(200)는 센싱부(120)로부터 획득한 정보에 기초하여 대상체의 위치를 판단할 수 있다.
한편, 서버(200)에 미리 저장된 패턴 각각에 대해 대표점(RP)이 설정될 수 있다.
대표점(RP)은 패턴을 대표하는 점(point)일 수 있다.
대표점(RP)은 패턴 밖에 존재할 수 있다.
일 예로, 대표점(RP)은 제1 마커 좌표(MK1-1), 제2 마커 좌표(MK1-2) 및 제3 마커 좌표(MK1-3)가 이루는 평면으로부터 일정 거리 떨어진 점으로 설정될 수 있다.
복수의 마커(M)를 통한 패턴이 제공되는 경우 패턴에 포함된 복수의 마커(M)에 대한 좌표 정보가 획득되며, 서버(200)는 패턴을 대표하는 대표점(RP)을 패턴이 제공된 대상체의 위치 정보로 획득할 수 있다.
따라서, 서버(200)는 대상체의 위치 정보를 획득함으로써 대상체를 추적할 수 있다.
일 실시예에 따른 대상체의 위치 추적이 상술한 방법으로 한정되는 것은 아니며, 선택에 따라 다양한 방식의 위치 추적 방법이 사용될 수 있다.
일 실시예에 따르면 센싱부(120)가 이미지 센서로 제공되는 경우 센싱부(120)는 외부에 대한 이미지를 획득할 수 있으며, 획득한 이미지에 기초하여 대상체에 대한 위치 정보를 획득할 수 있다..
일 예로 도 7에 도시된 센싱부(120)가 착용형 디스플레이 장치(400)에 제공되는 경우 센싱부(120)는 착용형 디스플레이 장치(400)의 일측에 제공되어 착용형 디스플레이 장치(400)의 내부에서 외부 방향으로 지향하여 착용형 디스플레이 장치(400)의 외부에 대한 이미지 정보를 획득할 수 있다.
또한 착용형 디스플레이 장치(400)는 보조 컴퓨팅 장치(300)로 획득한 이미지 정보를 제공할 수 있다.
일 실시예에 따르면 착용형 디스플레이 장치(400)는 미리 정해진 주기로 보조 컴퓨팅 장치(300)로 이미지 정보를 제공할 수 있다.
일 예로 착용형 디스플레이 장치(400)는 센싱부(120)를 통하여 이미지 정보를 획득하는 주기와 동일한 주기로 보조 컴퓨팅 장치(300)로 이미지 정보를 제공할 수 있다.
보조 컴퓨팅 장치(300)는 획득한 이미지 정보로부터 적어도 하나의 특징점을 획득할 수 있다.
일 실시예예 따르면 보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 사물을 특징점으로 획득할 수 있다.
일 실시예에 따르면 보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 사물 중 미리 정해진 크기 이상의 사물을 특징점으로 획득할 수 있다.
보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 사물을 식별할 수 있으며, 식별된 사물 중 미리 정해진 크기 이상의 사물을 특징점으로 획득할 수 있다. 또한 보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 사물이 차지하는 픽셀 수에 기초하여 사물의 크기를 판단할 수 있다.
일 실시예에 따르면 보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 사물 중 미리 설정된 유형의 사물을 특징점으로 획득할 수 있다.
일 예로 공 유형의 사물이 미리 설정된 경우 보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 야구공, 축구공 및 농구공 등과 같은 공 유형의 사물을 특징점으로 획득할 수 있다.
일 실시예에 따르면 보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 마커를 특징점으로 획득할 수 있다.
보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 바코드, QR 코드와 같은 마커를 식별하여 특징점으로 획득할 수 있다.
또한 보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 특징점의 위치를 판단할 수 있다.
보조 컴퓨팅 장치(300)는 착용형 디스플레이 장치(400)로부터 획득한 이미지 정보 들에 기초하여 특징점의 위치 변화 및 크기 변화 중 적어도 하나를 판단할 수 있다.
보조 컴퓨팅 장치(300)는 특징점의 위치 변화 방향, 위치 변화량 및 크기 변화량에 기초하여 착용형 디스플레이 장치(400)의 이동 방향 및 이동 거리를 판단할 수 있다.
일 예로 보조 컴퓨팅 장치(300)는 착용형 디스플레이 장치(400)로부터 획득한 이미지 정보 들에 기초하여 특징점의 위치 변화를 판단할 수 있다.
보조 컴퓨팅 장치(300)는 특징점의 위치 변화량에 기초하여 착용형 디스플레이 장치(400)의 이동 방향 및 이동 거리를 판단할 수 있다.
보조 컴퓨팅 장치(300)는 특징점의 위치 변화 방향, 위치 변화량 및 크기 변화량에 기초하여 착용형 디스플레이 장치(400)의 이동 방향 및 이동 거리를 판단할 수 있다.
일 예로 보조 컴퓨팅 장치(300)는 제1 시점에서 획득한 제1 이미지 정보에 포함된 특징점의 위치와 제1 시점보다 이후 시점인 제2 시점에서 획득한 제2 이미지 정보에 포함된 특징점의 위치를 비교한 결과 제1 이미지 정보의 특징점의 위치가 제2 이미지 정보에서는 우측으로 이동한 경우 착용형 디스플레이 장치(400)가 좌측으로 이동한 것으로 판단할 수 있다.
또한 보조 컴퓨팅 장치(300)는 특징점의 위치가 변경된 경우 특징점의 이동 거리를 판단할 수 있다.
보조 컴퓨팅 장치(300)는 제1 이미지 정보에서의 특징점의 위치와 제2 이미지 정보에서의 특징점의 위치 사이의 픽셀 수에 기초하여 특징점의 이동 거리를 판단할 수 있다.
또는 보조 컴퓨팅 장치(300)는 제1 이미지 정보에서의 특징점의 좌표와 제2 이미지에서의 특징점의 좌표에 기초하여 특징점의 이동 거리를 판단할 수 있다.
또한 일 예로 보조 컴퓨팅 장치(300)는 크기 변화량에 기초하여 착용형 디스플레이 장치(400)의 이동 방향 및 이동 거리를 판단할 수 있다.
보조 컴퓨팅 장치(300)는 제1 시점에서 획득한 제1 이미지 정보에 포함된 특징점의 크기와 제1 시점보다 이후 시점인 제2 시점에서 획득한 제2 이미지 정보에 포함된 특징점의 크기를 비교한 결과 제1 이미지 정보의 특징점의 위치가 제2 이미지 정보에서는 우측으로 이동한 경우 착용형 디스플레이 장치(400)가 좌측으로 이동한 것으로 판단할 수 있다.
따라서 보조 컴퓨팅 장치(300)는 미리 설정된 초기 위치로부터 대상체의 상대적인 위치 변화에 기초하여 대상체의 위치를 추적할 수 있다.
도 8은 제1 실시 예에 따른 가상 현실 이미지(452)가 착용형 디스플레이 장치(400)를 통해 출력되는 것을 나타내는 도면이다.
도 8을 참조하면, 가상 현실 제공 시스템(10)은 착용형 디스플레이 장치(400)를 통하여 사용자(800)에게 가상 현실의 적어도 일부에 대한 가상 현실 이미지(452)를 제공할 수 있다.
여기서, 가상 현실 이미지(452)는 사용자(800)가 가상 현실을 체험하기 위해 착용형 디스플레이 장치(400)를 통해 제공되는 것으로, 가상 현실에 대한 영상으로 구현되는 복수의 이미지 프레임 또는 특정 순간의 이미지 프레임으로 해석될 수 있음을 미리 밝혀둔다.
가상 현실 이미지(452)는 가상 위치 정보에 기초하여 표시되는 캐릭터 또는 가상 오브젝트를 포함할 수 있다. 이 때, 가상 위치 정보는 현실에서 대상체의 위치 좌표 및 지향 방향 중 적어도 하나를 포함하는 위치 정보에 기초하여 산출될 수 있다. 일 예로 위치 정보는 추적 영역(600) 상에 위치한 대상체의 위치 좌표일 수 있다.
서버(200)는 추적 영역(600)에 대한 좌표값을 미리 저장할 수 있다.
서버(200)는 추적 영역(600)에 대한 좌표계(coordinates system)를 미리 저장할 수 있다. 좌표계는 평면 좌표계, 직교 좌표계, 극좌표계, 공간 좌표계, 원기둥 좌표계, 구면좌표계 중 적어도 하나일 수 있다.
서버(200)는 디텍팅 정보 및 추적 영역(600)에 대한 좌표계에 기초하여 대상체의 추적 영역(600)에서의 좌표값을 획득할 수 있다. 또한 서버(200)는 획득한 대상체의 추적 영역(600)에서의 좌표값을 위치 정보로 획득할 수 있다.
일 예로 서버(200)는 디텍팅 정보가 적외선 이미지인 경우 적외선 이미지에서의 대상체에 대응하는 마커의 위치 및 적외선 이미지를 제공한 디텍팅 장치(100)의 설치 위치에 기초하여 마커의 추적 영역(600)에서의 좌표값을 획득할 수 있다. 또한 서버(200)는 마커의 추적 영역(600)에서의 좌표값에 기초하여 마커가 형성하는 패턴을 판단할 수 있으며, 마커가 형성하는 패턴에 대응하는 대상체를 식별할 수 있다. 또한 서버(200)는 마커가 형성하는 패턴 및 마커의 추적 영역(600)에서의 좌표값에 기초하여 대상체의 대표점(RP)을 획득할 수 있으며, 대상체의 대표점(RP)의 좌표값을 대상체의 위치 정보로 획득할 수 있다.
서버(200)는 위치 정보를 보조 컴퓨팅 장치(300)로 제공할 수 있다.
보조 컴퓨팅 장치(300)는 가상 현실에 대한 좌표값을 미리 저장할 수 있다.
보조 컴퓨팅 장치(300)는 가상 현실에 대한 좌표계(coordinates system)를 미리 저장할 수 있다. 좌표계는 평면 좌표계, 직교 좌표계, 극좌표계, 공간 좌표계, 원기둥 좌표계, 구면좌표계 중 적어도 하나일 수 있다.
보조 컴퓨팅 장치(300)는 위치 정보 및 가상 현실에 대한 좌표계에 기초하여 대상체의 가상 현실에서의 좌표값을 획득할 수 있다. 또한 보조 컴퓨팅 장치(300)는 획득한 대상체의 가상 현실에서의 좌표값을 가상 위치 정보로 획득할 수 있다.
일 예로 보조 컴퓨팅 장치(300)는 위치 정보에 포함된 좌표값에 대응하는 가상 현실에서의 좌표값을 획득할 수 있으며, 획득한 가상 현실에서의 좌표값을 가상 위치 정보로 획득할 수 있다.
보조 컴퓨팅 장치(300)는 가상 위치 정보에 기초하여 사용자(800)에게 출력할 가상 현실 이미지(452)를 획득할 수 있다.
일 실시예에 따르면 보조 컴퓨팅 장치(300)는 착용형 디스플레이 장치(400)의 가상 위치 정보를 가상 카메라의 가상 위치 정보로 획득할 수 있으며, 가상 카메라의 가상 위치 정보 및 가상 카메라의 지향 방향에 기초하여 가상 카메라의 시야 범위(451)를 획득할 수 있다.
보조 컴퓨팅 장치(300)는 착용형 디스플레이 장치(400)의 위치 정보에 포함된 지향 방향에 기초하여 가상 카메라의 지향 방향을 획득할 수 있다.
또한 보조 컴퓨팅 장치(300)는 가상 카메라의 지향 방향으로 미리 정해진 영역을 가상 카메라의 시야 범위(451)로 획득할 수 있다.
이와 같이, 착용형 디스플레이 장치(400)의 위치 정보에 기초하여 가상 카메라의 시야 범위(451)를 획득함으로써 사용자(800) 움직임에 따라 가상 현실에서 사용자(800)에 대응하는 캐릭터의 시야가 변경될 수 있고 사용자(800)에게 제공되는 가상 현실 이미지(452)에 이를 반영할 수 있다.
한편, 가상 카메라의 시야 범위(451)는 착용형 디스플레이 장치(400)의 가상 위치 정보 이외에도 가상 현실 내 특정 가상 위치 정보에 의해서도 획득될 수 있다.
또한 보조 컴퓨팅 장치(300)는 가상 현실에서 가상 카메라의 시야 범위(451)에 대응하는 가상 현실 이미지(452)를 획득할 수 있다.
보조 컴퓨팅 장치(300)는 가상 현실 이미지(452)를 착용형 디스플레이 장치(400)로 제공할 수 있다.
착용형 디스플레이 장치(400)는 획득한 가상 현실 이미지(452)를 착용형 디스플레이 화면 출력부(450)를 통하여 사용자(800)에게 출력할 수 있다.
도 9는 제1 실시 예에 따른 가상 현실 시스템의 제어방법을 나타내는 도면이다.
도 9를 참조하면, 제1 실시 예에 따른 가상 현실 시스템(10)의 제어부는 플레이어 신장 결정 단계(S1000), 플레이어 신장 저장 단계(S200) 및 컨텐츠 적용 단계(S3000)를 통해 상기 착용형 디스플레이 장치(400)에 영상을 출력하도록 제어할 수 있다.
여기서 제어부는 서버 제어부(240), 보조 컴퓨팅 제어부(340) 및 착용형 디스플레이 제어부(440) 중 적어도 어느 하나 이상일 수 있다. 즉, 아래에서 설명하는 제어부의 기능은 서버 제어부(240), 보조 컴퓨팅 제어부(340) 및 착용형 디스플레이 제어부(440) 중 어느 하나에서 단독적으로 수행될 수도 있고, 둘 이상의 제어부의 조합에 의해 수행될 수도 있다.
가상 현실 시스템(10)의 제어부는 사용자의 신장을 결정한다. (S1000)
상기 사용자가 다수인 경우 상기 제어부는 다수의 사용자의 신장을 각각 결정할 수 있다. 상기 제어부는 상기 착용형 디스플레이 장치(400)의 위치에 기초하여 사용자의 신장을 결정할 수 있다. 상기 제어부는 상기 착용형 디스플레이 장치(400)에 장착된 마커(M)의 위치에 기초하여 상기 사용자의 플레이어의 신장을 결정할 수 있다. 상기 제어부는 착용형 디스플레이 장치(400)의 위치가 기준 범위 내에 위치하면서 기준 방향으로 배치된 상태로 일정시간 유지되는 경우의 상기 마커(M)의 위치에 기초하여 상기 사용자의 신장을 결정할 수 있다.
가상 현실 시스템(10)의 제어부는 상기 사용자의 신장을 저장할 수 있다. (S2000)
상기 제어부는 상기 서버 저장부(220)에 상기 사용자의 신장을 저장할 수 있다. 다수의 사용자가 상기 가상 현실 시스템(10)을 이용하는 경우 상기 제어부는 상기 서버 저장부(220)에 다수의 사용자의 각각의 신장을 저장할 수 있다.
상기 가상 현실 시스템(10)의 제어부는 상기 사용자의 신장을 컨텐츠에 적용할 수 있다. (S3000)
상기 제어부는 저장된 사용자의 신장정보를 상기 컨텐츠에 적용할 수 있다. 상기 제어부는 저장된 사용자의 신장정보에 기초하여 캐릭터의 신장을 조정할 수 있다. 상기 제어부는 저장된 사용자의 신장정보에 기초하여 캐릭터의 크기를 조정할 수 있다.
다수의 사용자가 상기 가상 현실 시스템(10)을 이용하는 경우 상기 제어부는 각각의 사용자의 신장정보에 기초한 캐릭터를 생성하여 각각의 사용자가 착용하고 있는 착용형 디스플레이 장치(400)에 출력할 수 있다.
예를 들어, 제1 사용자의 저장된 신장정보를 이용하여 상기 제2 사용자가 착용한 착용형 디스플레이 장치에 제1 사용자와 대응되는 캐릭터를 출력할 수 있다. 이 때, 제1 사용자의 신장이 크게 측정되는 경우 상기 제2 사용자가 착용한 착용형 디스플레이 장치에는 제1 사용자의 캐릭터가 큰 신장을 가지는 형태로 출력될 수 있고, 제1 사용자의 신장이 작게 측정되는 경우 상기 제2 사용자가 착용한 착용형 디스플레이 장치에는 제1 사용자의 캐릭터가 작은 신장을 가지는 형태로 출력될 수 있다.
또는, 도 10과 같이 제1 사용자의 신장이 작게 측정되는 경우 상기 제2 사용자가 착용한 착용형 디스플레이 장치(400)에는 제1 사용자의 캐릭터가 작은 신장(h1)을 가지는 형태로 출력되며, 신장과 같은 비율로 캐릭터도 더 작은 부피를 가지는 형태로 출력될 수 있고, 제1 사용자의 신장이 크게 측정되는 경우 상기 제2 사용자가 착용한 착용형 디스플레이 장치(400)에는 제1 사용자의 캐릭터가 큰 신장(h2)을 가지는 형태로 출력되며, 신장과 같은 비율로 캐릭터도 더 큰 부피를 가지는 형태로 출력될 수 있다.
도 11은 제1 실시 예에 따른 가상 현실 시스템에서 사용자의 신장을 결정하는 단계를 나타내는 도면이고, 도 12는 제1 실시 예에 따른 기준 범위를 설명하기 위한 도면이다.
도 11 및 도 12를 참조하면, 제1 실시 예에 따른 가상 현실 시스템에서 착용형 디스플레이가 턴온될 수 있다. (S1100)
상기 착용형 디스플레이 장치(400)가 턴온되었는지 여부는 보조 컴퓨팅(300) 장치를 통해 서버(200)로 전달되는 정보에 의해 확인될 수 있다.
착용형 디스플레이 장치(400)가 턴온 된 이후 상기 마커(M)가 기준 범위(A1) 내에 위치하는지 여부를 확인할 수 있다. (S1200)
상기 기준 범위(A1)는 임의로 설정된 가상의 영역일 수 있다. 상기 기준 범위(A1)는 일반적인 가상 현실 시스템의 사용자들의 착용형 디스플레이 착용 위치 범위일 수 있다.
일반적으로 착용형 디스플레이 장치(400)는 가상 현실 체험이 시작되기전 추적영역(600) 내 또는 추적 영역 외부에 위치하며, 추적영역 바닥에 위치하거나 벽면에 거치된 상태로 보관될 수 있다. 만약 기준 범위(A1)를 설정하지 않는다면, 착용형 디스플레이 장치(400)가 턴 온 된 채로 보관되는 경우 사용자의 신장이 바닥 또는 거치공간으로 설정될 수 있다. 따라서, 제어부는 상기 마커(M)가 기준 범위(A1) 내에 위치하는 경우에만 사용자의 신장정보를 결정함으로써 사용자 신장 정보가 잘못 설정되는 것을 방지할 수 있다.
상기 기준 범위(A1)는 컨텐츠에 따라 다르게 설정될 수 있다. 예를 들어, 컨텐츠가 신장이 작은 사용자 위주로 체험이 진행된다면 기준 범위(A1)는 지면으로부터 가까운 영역으로 설정될 수 있고, 일반적인 컨텐츠라면, 비교적 기준 범위(A1)는 지면으로부터 멀어질 수 있다. 또한, 상기 제어부는 결정된 사용자의 신장정보를 누적하여 기준 범위(A1)를 가변적으로 설정할 수도 있다.
착용형 디스플레이 장치(400)가 추적 영역(600) 외부에 거치되는 경우 상기 제어부는 상기 착용형 디스플레이 장치(400)의 턴온 여부와 무관하게 상기 마커(M)가 기준 범위(A1) 내에 위치하는지 여부를 확인할 수 있다. 이 경우, 착용형 디스플레이 장치(400)가 턴 온된 상태로 거치된다고 하더라도, 디텍팅 장치(100)는 마커(M)의 위치를 검출할 수 없고, 사용자가 가상 현실 체험을 준비하는 과정에서 상기 마커(M)가 추적 영역(600) 내부로 들어오기 때문에 신장정보를 잘못 판단할 수 있는 상황을 제거할 수 있다. 따라서, 착용형 디스플레이 장치(400)가 추적 영역(600) 외부에 거치되는 경우 상기 제어부는 상기 마커(M)가 기준 범위(A1) 내에 위치하였는지 여부만 확인하더라도 정확한 신장정보를 산출할 수 있다.
상기 제어부(1300)는 상기 착용형 디스플레이 장치(400)가 기준 방향으로 배치되었는지 확인한다. (S1300)
사용자가 상기 가상 현실 시스템(10)을 체험하는 경우 상기 사용자는 착용형 디스플레이 장치(400)를 착용한다. 상기 제어부(1300)는 상기 착용형 디스플레이 장치(400)가 기준 방향으로 배치되었는지를 확인하여 사용자가 착용형 디스플레이 장치(400)를 착용하였는지 여부를 판단할 수 있다. 예를 들어, 사용자가 착용형 디스플레이 장치(400)를 착용하기 전에 기준 범위 내에 상기 착용형 디스플레이 장치(400)를 파지한 채로 있는 경우 사용자 신장정보를 결정하면 잘못된 신장 정보가 산출될 수 있다. 즉, 사용자가 착용형 디스플레이 장치(400)를 파지하는 경우의 착용형 디스플레이 장치(400)의 방향은 기준 방향이 아닐 수 있다. 따라서, 제어부(1300)는 상기 착용형 디스플레이 장치(400)가 기준방향으로 배치되었는지를 확인하여 사용자의 정확한 신장정보를 산출할 수 있다.
여기서, 기준 방향은 마커(M)의 방향에 의해 산출될 수 있다. 상기 제어부는 미리 저장된 마커(M)의 패턴과 현재 검출되는 마커(M)의 패턴을 비교하여 기준 방향으로 배치되었는지 여부를 확인할 수 있다.
상기 기준 방향은 롤(roll)과 피치(pitch)가 고려될 수 있고, 요(yaw)는 고려하지 않을 수 있다. 사용자가 착용형 디스플레이 장치(400)를 착용하고, 머리를 정자세로 유지하는 경우 요(yaw)는 변경될 수 있지만, 롤(roll)과 피치(pitch)는 변하지 않기 때문이다.
도면에서는 기준범위에 위치하는지 여부와 기준 방향으로 배치되었는지를 순차적으로 판단하는 것을 도시하였으나, 판단 순서는 바뀔 수 있고, 동시에 판단할 수도 있다.
상기 제어부는 착용형 디스플레이 장치(400)가 기준 범위 내에 위치하고, 기준 방향으로 배치된 상태에서 일정시간이 경과하였는지를 판단할 수 있다. (S1400)
상기 제어부는 착용형 디스플레이 장치(400)가 기준 범위 내에 위치하고, 기준 방향으로 배치된 상태에서 일정시간이 경과한 경우 사용자 신장을 결정할 수 있다. (S1500)
상기 제어부는 상기 마커(M)가 기준 범위 내에 위치하고, 기준 방향으로 배치된 상태에서 일정시간이 경과한 경우 사용자의 신장을 결정할 수 있다.
일반적으로 가상 현실 시스템의 사용자는 가상 현실 체험을 준비하는 단계에서 추적 영역(600) 내에서 착용형 디스플레이 장치(400)를 착용할 수 있다. 이 때, 착용형 디스플레이 장치(400)를 착용하는 과정에서 사용자가 착용형 디스플레이 장치(400)를 착용한 상태에서 일정 시간 정지하는 것이 일반적이다. 따라서, 착용형 디스플레이 장치(400)를 착용한 상태에서 정지한 상태로 일정시간이 경과 하는 경우 이 때의 마커(M)는 사용자의 신장정보를 정확하게 반영한 정보일 수 있다. 따라서, 제어부는 착용형 디스플레이 장치(400)를 착용하는 과정에서 착용형 디스플레이 장치(400)의 위치를 통해 사용자의 신장정보를 검출하므로써, 별도의 신장 측정 과정없이 사용자의 신장을 측정할 수 있어, 가상 현실 시스템의 현실감을 높일 수 있다.
또는, 추적 영역(600)외부에서 착용형 디스플레이 장치(400)를 착용하는 경우에도 가상 현실 컨텐츠가 시작되기전 또는 가상 현실 컨텐츠 초기에는 사용자가 직립하고 있을 가능성이 크므로, 착용형 디스플레이 장치가 기준 범위 내에 위치한 상태에서 기준방향으로 배치되고 일정시간이 경과하면 이 때의 착용형 디스플레이 장치(400)의 위치를 사용자의 신장정보로 결정함으로써 가상 현실 시스템의 현실감을 높일 수 있다. 이 때, 제어부는 착용형 디스플레이 장치에 사용자의 직립을 유도할 수 있는 컨텐츠를 출력하여 보다 더 정확한 신장정보를 측정할 수도 있다.
상기 제어부는 착용형 디스플레이 장치(400)가 기준 범위 내에 위치하고, 기준방향으로 배치되더라도 일정시간이 경과하지 않는다면 사용자 신장으로 결정하지 않고 다시 기준 범위 내에 위치하는지 여부를 판단할 수 있다. 일정시간이 경과하지 않는다는 것은 사용자의 움직임이 계속되고 있는 것이고, 이 때의 사용자의 신장을 결정하는 것은 정확한 값을 얻지 못할 수 있기 때문이다.
도 13은 제1 실시 예에 따른 가상 현실 시스템의 컨텐츠 적용단계를 나타내는 도면이고, 도 14는 제1 실시 예에 따른 가상 현실 시스템의 캐릭터의 자세를 나타내는 도면이다.
도 13 및 도 14를 참조하면, 제1 실시 예에 따른 가상 현실 시스템은 현재 위치를 측정할 수 있다. (S3100)
사용자의 현재 위치는 가상 현실 체험과정에서 디텍팅 장치(100)를 통해 지속적으로 측정될 수 있다. 특히 상기 제어부는 상기 디텍팅 장치(100)를 통해 상기 착용형 디스플레이 장치(400)의 수직방향으로의 위치를 지속적으로 측정할 수 있다.
상기 제어부는 착용형 디스플레이 장치(400)의 현재 위치를 제1 기준 위치 및 제2 기준 위치와 비교할 수 있다.
상기 제1 기준 위치는 제2 기준 위치보다 지면에서 가까울 수 있다. 상기 제1 기준 위치는 사용자가 직립하였을 때의 착용형 디스플레이 장치(400)의 위치와 상기 사용자가 앉았을 때의 착용형 디스플레이 장치(400)의 위치의 사이에 위치할 수 있다. 상기 제2 기준 위치는 사용자가 직립하였을 때의 착용형 디스플레이 장치(400)의 위치보다 높은 위치일 수 있다.
상기 제1 기준 위치는 상기 기준 범위 중 지면에 가장 가까운 위치와 대응되는 위치일 수 있다. 상기 제2 기준 위치는 상기 기준 범위 중 지면에 가장 먼 위치와 대응되는 위치일 수 있다.
상기 사용자의 현재 위치는 착용형 디스플레이 장치(400)의 위치일 수도 있고, 사용자의 신장에 기초하여 산출된 캐릭터의 신장일 수도 있다.
상기 제어부는 사용자의 현재 위치가 제1 기준 위치와 제2 기준 위치의 사이에 위치하는지 판단할 수 있다. (S3200)
상기 사용자의 현재 위치가 제1 기준 위치와 제2 기준 위치의 사이에 위치하는 경우 상기 제어부는 다른 사용자의 착용형 디스플레이 장치에 제1 자세를 가지는 캐릭터를 출력할 수 있다. (S3300)
상기 사용자의 현재 위치가 제1 기준 위치와 제2 기준 위치 사이에 위치하는 경우 상기 제어부는 사용자가 서 있는 상태라고 판단하고, 상기 다른 사용자의 착용형 디스플레이 장치에 도 14의 (a)와 같은 서있는 캐릭터를 출력할 수 있다.
이 때, 상기 제어부는 사용자의 신장에 기초하여 산출된 캐릭터의 신장이 제1 기준위치와 제2 기준위치 사이에 있는지 판단하여 제1 자세를 출력하도록 제어할 수도 있다. 이로써 다른 사용자의 착용형 디스플레이 장치에는 보다 자연스러운 캐릭터가 출력될 수 있다.
상기 제어부는 사용자의 현재 위치가 제2 기준 위치보다 높은 위치에 위치하는지 판단할 수 있다. (S3400)
상기 사용자의 현재 위치가 제2 기준위치보다 높은 위치에 위치하는 경우 상기 제어부는 다른 사용자의 착용형 디스플레이 장치에 제2 자세를 가지는 캐릭터를 출력할 수 있다. (S3500)
상기 사용자의 현재 위치가 제2 기준 위치보다 높은 위치에 위치하는 경우 상기 제어부는 사용자가 점프한 상태로 판단하고, 상기 다른 사용자의 착용형 디스플레이 장치에 도 14의 (b)와 같은 점프하는 캐릭터를 출력할 수 있다.
이 때, 상기 제어부는 사용자의 신장에 기초하여 산출된 캐릭터의 신장이 제2 기준 위치보다 높은지 판단하여 제2 자세를 출력하도록 제어할 수 있다. 이를 통해 다른 사용자의 착용형 디스플레이 장치에는 보다 자연스러운 캐릭터가 출력될 수 있다.
상기 제어부는 사용자의 현재 위치가 제1 기준 위치와 제2 기준 위치 사이에 위치하지 않고, 제2 기준 위치보다 큰 경우 다른 사용자가 착용형 디스플레이 장치에 제3 자세를 가지는 캐릭터를 출력할 수 있다. (S3600)
이 경우는 사용자의 현재 위치가 제1 기준 위치보다 낮은 경우이므로, 상기 사용자의 현재 위치가 제1 기준 위치보다 낮은 경우 상기 제어부는 상기 다른 사용자가 착용한 착용형 디스플레이 장치에 제3 자세를 가지는 캐릭터를 출력할 수 있다.
상기 사용자의 현재 위치가 제1 기준 위치보다 낮은 위치인 경우 상기 제어부는 사용자가 앉아 있는 상태라고 판단하고, 상기 다른 사용자의 착용형 디스플레이 장치에 도 14의 (c)와 같은 앉아있는 캐릭터를 출력할 수 있다.
이 때, 상기 제어부는 사용자의 신장에 기초하여 산출된 캐릭터의 신장이 제1 기준 위치보다 낮은지 판단하여 제3 자세를 출력하도록 제어할 수도 있다. 이를 통해 다른 사용자의 착용형 디스플레이 장치에는 보다 자연스러운 캐릭터가 출력될 수 있다.
도 15는 제2 실시 예에 따른 가상 현실 시스템의 컨텐츠 적용단계를 나타내는 도면이다.
제2 실시 예에 따른 가상 현실 시스템의 컨텐츠 적용단계는 제1 실시 예에 비해 컨텐츠와 캐릭터가 충돌하는 경우의 처리방법을 더 포함한다. 따라서, 제2 실시 예를 설명함에 있어서, 제1 실시 예와 공통되는 구성에 대해서는 동일한 도면번호를 부여하고 상세한 설명을 생략한다.
도 15를 참조하면, 제2 실시 예에 따른 가상 현실 시스템은 현재 위치를 측정할 수 있다. (S4100)
상기 제어부는 착용형 디스플레이 장치(400)의 현재 위치를 제1 기준 위치 및 제2 기준 위치와 비교할 수 있다.
상기 제어부는 사용자의 현재 위치가 제1 기준 위치보다 낮은 위치에 있는지 판단할 수 있다. (S4200)
상기 제어부는 사용자의 현재 위치가 제1 기준 위치보다 낮은 위치에 있는 경우 컨텐츠와 충돌하는지 여부를 판단할 수 있다. (S4300)
상기 제어부는 사용자의 캐릭터와 컨텐츠 상의 오브젝트가 충돌하는지 판단할 수 있다. 예를 들어, 가상 현실 컨텐츠 상에서 캐릭터가 낮은 통로를 통과하는 경우 상기 캐릭터가 앉아서 걷는 상황에서 천장과 캐릭터가 충돌하는지 판단할 수 있다.
상기 제어부는 사용자의 캐릭터와 컨텐츠가 충돌하는 경우 캐릭터의 신장을 조정할 수 있다. (S4400)
상기 제어부는 신장을 조정한 후 제3 자세를 가지는 캐릭터를 다른 사용자의 착용형 디스플레이 장치에 출력할 수 있다. (S4500)
상기 제어부는 사용자의 캐릭터와 컨텐츠가 충돌하는 경우 캐릭터의 신장을 조정하여 출력함으로써 가상현실 공간에서 캐릭터가 천장을 뚫고 지나가는 것으로 표현되는 것을 방지할 수 있다. 이를 통해, 가상 현실 체험을 보다 현실감 있게 제공할 수 있다.
이 때의 캐릭터는 사용자의 신장에 기초하여 산출된 캐릭터일 수 있다. 상기 캐릭터의 신장 조정은 일정범위내로 조정될 수 있다. 상기 캐릭터의 신장 조정 범위는 현재 위치와 지면을 사이의 거리를 기준으로 1/10이내일 수 있다. 만약 상기 캐릭터의 신장이 큰 범위로 조정되는 경우 오히려 현실감이 줄어들 수 있기 때문에 캐릭터의 신장을 다른 사용자가 체감할 수 없을 정도로 조정되는 것이 바람직하다.
상기 캐릭터의 신장은 컨텐츠와 충돌하지 않는 가장 큰 신장으로 조정될 수도 있다.
상기 제어부는 상기 제1 기준 위치가 현재 위치보다 높은 경우 상기 현재 위치가 제1 기준 위치와 제2 기준 위치의 사이에 위치하는지 판단할 수 있다. (S4600)
상기 제어부는 사용자의 현재 위치가 제1 기준 위치와 제2 기준 위치의 사이에 위치하는 경우 사용자의 캐릭터와 컨텐츠가 충돌하는지 판단할 수 있다. (S4700)
상기 제어부는 사용자의 캐릭터와 컨텐츠 상의 오브젝트가 충돌하는지 판단할 수 있다. 예를 들어, 가상 현실 컨텐츠 상에서 캐릭터가 낮은 천장을 통과하는 경우 상기 캐릭터가 서서 걷는 상황에서 천장과 캐릭터가 충돌하는지 판단할 수 있다.
상기 제어부는 사용자의 캐릭터가 컨텐츠와 충돌하지 않는 경우 제1 자세를 가지는 캐릭터를 다른 사용자의 착용형 디스플레이 장치에 출력할 수 있다. (S4750)
즉, 상기 제어부는 다른 사용자의 착용형 디스플레이 장치에 서 있는 자세를 가지는 캐릭터를 출력할 수 있다.
상기 제어부는 사용자의 캐릭터가 충돌하는 경우 제3 자세로 출력하면 컨텐츠와 충돌하는지 여부를 판단할 수 있다. (S4800)
상기 제어부는 사용자의 캐릭터를 제3 자세로 출력하는 경우 컨텐츠와 충돌하지 않는다면, 제3 자세를 가지는 캐릭터를 다른 사용자의 착용형 디스플레이 장치에 출력할 수 있다.
상기 제어부는 제3 자세로 출력하는 경우에도 컨텐츠와 충돌한다면, 상기 캐릭터의 신장을 조정한 후 조정된 신장을 가지는 제3 자세의 캐릭터를 출력할 수 있다.
상기 제어부는 상기 사용자의 현재 위치가 제1 기준 위치와 제2 기준 위치 사이에 위치하지 않는 경우 다시 컨텐츠와의 충돌 여부를 판단한다. (S4900)
이 때는 상기 사용자의 현재 위치가 제2 기준 위치보다 높은 위치이므로, 컨텐츠와 캐릭터가 충돌하지 않는 경우 제2 자세를 가지는 캐릭터를 출력한다. (S4910)
이 때, 제어부는 캐릭터와 컨텐츠가 충돌하는 경우에는 제1 자세로 출력하는 경우 컨텐츠와의 충돌여부를 판단한다. (S4930)
상기 제어부는 캐릭터를 제1 자세로 출력하는 경우 캐릭터와 컨텐츠가 충돌하지 않는다면, 다른 사용자의 착용형 디스플레이 장치에 제1 자세를 가지는 캐릭터를 출력한다.
또한, 제어부는 캐릭터와 컨텐츠가 충돌하면, 제1 자세를 가지는 캐릭터의 신장을 조정할 수 있다. (S4950)
상기 제어부는 사용자의 캐릭터와 컨텐츠가 충돌하는 경우 캐릭터의 신장을 조정하여 출력함으로써 가상현실 공간에서 캐릭터가 천장을 뚫고 지나가는 것으로 표현되는 것을 방지할 수 있다. 이를 통해, 가상 현실 체험을 보다 현실감 있게 제공할 수 있다.
이 때의 캐릭터는 사용자의 신장에 기초하여 산출된 캐릭터일 수 있다. 상기 캐릭터의 신장 조정은 일정범위내로 조정될 수 있다. 상기 캐릭터의 신장 조정 범위는 현재 위치와 제1 기준 위치 사이일 수 있다. 바람직하게는 상기 캐릭터의 신장 조정 범위는 현재 위치와 제1 기준 위치 사이의 거리의 1/10이내일 수 있다. 만약 상기 캐릭터의 신장이 큰 범위로 조정되는 경우 오히려 현실감이 줄어들 수 있기 때문에 캐릭터의 신장을 다른 사용자가 체감할 수 없을 정도로 조정되는 것이 바람직하다.
이 때 제어부는 제3 자세로 조정하는 대신 제1 자세에서 신장을 조정하는 형태로 캐릭터를 출력함으로써, 가상현실 체험의 현실감을 높일 수 있다.
상기 제어부는 캐릭터와 컨텐츠의 오브젝트 간의 충돌여부에 따라 서로 다른 시나리오로 자세와 신장을 조정함으로써 보다 현실감 있는 가상 현실 시스템을 제공 할 수 있다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.
가상 현실 제어 시스템 10 디텍팅 장치 100
서버 200 보조 컴퓨팅 장치 300
착용형 디스플레이 장치 400 입력 장치 500

Claims (11)

  1. 가상 현실 제어 시스템에 있어서,
    사용자가 착용하며, 영상을 출력하는 착용형 디스플레이 장치;
    상기 착용형 디스플레이 장치에 장착되는 마커;
    상기 마커의 위치를 검출하는 센싱부; 및
    상기 센싱부로부터의 센싱 값에 기초하여 상기 착용형 디스플레이 장치로 출력되는 영상을 제어하는 제어부를 포함하고,
    상기 제어부는 상기 마커의 위치를 검출하여 상기 사용자의 신장정보를 획득하고, 상기 신장정보에 기초하여 상기 영상을 제어하며,
    상기 제어부는 상기 마커가 기준 범위내에 위치한 상태로 일정 시간 동안 경과하는 경우 상기 마커의 위치를 상기 사용자의 신장정보로 결정하고,
    상기 제어부는 상기 사용자의 신장정보에 기초하여, 다른 사용자의 착용형 디스플레이 장치의 출력 영상을 제어하며,
    상기 제어부는 상기 마커의 위치가 제1 기준위치와 제2 기준위치의 사이인 경우 제1 자세를 가지는 캐릭터를 상기 다른 사용자의 착용형 디스플레이 장치의 출력영상으로 출력하고,
    상기 제어부는 상기 마커의 위치가 상기 제2 기준위치보다 높은 위치인 경우 제2 자세를 가지는 캐릭터를 상기 다른 사용자의 착용형 디스플레이 장치의 출력영상으로 출력하고,
    상기 제어부는 상기 마커의 위치가 상기 제1 기준위치보다 낮은 경우 제3 자세를 가지는 캐릭터를 상기 다른 사용자의 착용형 디스플레이 장치의 출력영상으로 출력하되, 상기 캐릭터가 가상 현실 공간에서의 컨텐츠와 충돌하는 경우 상기 캐릭터의 신장을 조정한 후 제3 자세를 가지는 캐릭터를 상기 다른 사용자의 착용형 디스플레이 장치의 출력영상으로 출력하며,
    상기 제1 자세, 제2 자세 및 제3 자세는 서로 다른 자세인 가상 현실 제어 시스템.
  2. 제1항에 있어서,
    상기 제어부는 상기 신장정보는 상기 마커가 기준 방향으로 배치된 상태에서 일정시간이 경과하는 경우 상기 마커의 위치를 상기 사용자의 신장정보로 결정하는 가상 현실 제어 시스템.
  3. 삭제
  4. 제1항에 있어서,
    상기 제어부는 상기 사용자의 신장정보에 기초하여, 다른 사용자의 착용형 디스플레이 장치에 출력되는 상기 사용자의 캐릭터의 크기를 조절하는 가상 현실 제어 시스템.
  5. 제1항에 있어서,
    상기 제어부는 상기 착용형 디스플레이 장치가 턴온 된 이후 일정시간 범위내에의 기간에 상기 사용자의 신장정보를 결정하는 가상 현실 제어 시스템.
  6. 삭제
  7. 삭제
  8. 삭제
  9. 삭제
  10. 제1항에 있어서,
    상기 제어부는 상기 마커의 위치가 제1 기준위치와 제2 기준위치의 사이인 경우 제1 자세를 가지는 캐릭터를 상기 다른 사용자의 착용형 디스플레이 장치의 출력영상으로 출력하되, 상기 캐릭터가 가상 현실 공간에서의 컨텐츠와 충돌하는 경우 상기 제3 자세를 가지는 캐릭터를 상기 다른 사용자의 착용형 디스플레이 장치의 출력영상으로 출력하는 가상 현실 제어 시스템.
  11. 가상 현실 제어 시스템의 제어 방법에 있어서,
    제어부가 착용형 디스플레이 장치에 장착되는 마커의 위치를 검출하는 단계;
    상기 제어부가 상기 마커가 기준 범위 내에 위치하는지 판단하는 단계;
    상기 제어부가 상기 마커가 기준 범위 내에 위치한 상태로 일정 시간이 경과하는지 판단하는 단계;
    상기 제어부가 상기 마커가 기준 범위 내에 위치한 상태로 일정 시간이 경과하면 상기 마커의 위치를 사용자의 신장정보로 결정하는 단계; 및
    상기 제어부가 상기 결정된 신장정보에 기초하여 착용형 디스플레이 장치로 출력되는 영상을 제어하는 단계를 포함하고,
    상기 제어부는 상기 사용자의 신장정보에 기초하여, 다른 사용자의 착용형 디스플레이 장치의 출력 영상을 제어하며,
    상기 제어부는 상기 마커의 위치가 제1 기준위치와 제2 기준위치의 사이인 경우 제1 자세를 가지는 캐릭터를 상기 다른 사용자의 착용형 디스플레이 장치의 출력영상으로 출력하고,
    상기 제어부는 상기 마커의 위치가 상기 제2 기준위치보다 높은 위치인 경우 제2 자세를 가지는 캐릭터를 상기 다른 사용자의 착용형 디스플레이 장치의 출력영상으로 출력하고,
    상기 제어부는 상기 마커의 위치가 상기 제1 기준위치보다 낮은 경우 제3 자세를 가지는 캐릭터를 상기 다른 사용자의 착용형 디스플레이 장치의 출력영상으로 출력하되,
    상기 캐릭터가 가상 현실 공간에서의 컨텐츠와 충돌하는 경우 상기 캐릭터의 신장을 조정한 후 제3 자세를 가지는 캐릭터를 상기 다른 사용자의 착용형 디스플레이 장치의 출력영상으로 출력하며,
    상기 제1 자세, 제2 자세 및 제3 자세는 서로 다른 자세인 가상 현실 제어 시스템의 제어방법.

KR1020210175770A 2021-12-09 2021-12-09 가상 현실 제어 시스템 및 이를 제어하는 방법 KR102594054B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210175770A KR102594054B1 (ko) 2021-12-09 2021-12-09 가상 현실 제어 시스템 및 이를 제어하는 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210175770A KR102594054B1 (ko) 2021-12-09 2021-12-09 가상 현실 제어 시스템 및 이를 제어하는 방법

Publications (2)

Publication Number Publication Date
KR20230087118A KR20230087118A (ko) 2023-06-16
KR102594054B1 true KR102594054B1 (ko) 2023-10-25

Family

ID=86948235

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210175770A KR102594054B1 (ko) 2021-12-09 2021-12-09 가상 현실 제어 시스템 및 이를 제어하는 방법

Country Status (1)

Country Link
KR (1) KR102594054B1 (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200341542A1 (en) * 2019-01-08 2020-10-29 V-Armed Inc. Full-body inverse kinematic (fbik) module for use in firearm simulation training

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102092464B1 (ko) * 2017-12-26 2020-03-23 (주)스코넥엔터테인먼트 착용형 디스플레이 장치 및 이를 이용한 가상 현실 제어 시스템

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200341542A1 (en) * 2019-01-08 2020-10-29 V-Armed Inc. Full-body inverse kinematic (fbik) module for use in firearm simulation training

Also Published As

Publication number Publication date
KR20230087118A (ko) 2023-06-16

Similar Documents

Publication Publication Date Title
US11334145B2 (en) Sensory feedback systems and methods for guiding users in virtual reality environments
KR102130892B1 (ko) 착용형 디스플레이 장치 및 이를 이용한 이미지 제공 방법
US10521944B2 (en) Repositioning user perspectives in virtual reality environments
US9216347B2 (en) Portable device, virtual reality system and method
CN103079661B (zh) 用于增强现实角色维持并体现观察者的认知的方法
US10609462B2 (en) Accessory device that provides sensor input to a media device
US20100201808A1 (en) Camera based motion sensing system
KR20170062533A (ko) 공유된 공간 증강 현실 경험을 생성하기 위한 프로젝터 구동 기술
US20170262050A1 (en) Interaction method for virtual reality
US11561609B2 (en) Virtual reality control system
US11662456B2 (en) Method to determine a present position of an object, positioning system, tracker and computer program
US10946271B2 (en) Controlling data processing
CN115917465A (zh) 使用卷帘快门相机的视觉惯性追踪
KR102594054B1 (ko) 가상 현실 제어 시스템 및 이를 제어하는 방법
JP6522092B1 (ja) 表示システム及び表示方法
KR102237608B1 (ko) 가상 현실 제어 시스템
KR102433080B1 (ko) 가상 현실 게임용 플레이어 위치 기반 조명 연출 방법 및 이를 수행하는 가상 현실 시스템
EP3695622B1 (en) Adaptation of presentation speed
KR102212508B1 (ko) 가상 환경 제어 시스템
KR102477531B1 (ko) 음성인식 기능이 구비된 가상 환경 제어 시스템
JP2020091758A (ja) プログラム、情報処理装置、情報処理システム、情報処理方法及びヘッドマウントディスプレイ
KR20200031260A (ko) 미러 디스플레이를 이용한 콘텐츠 디스플레이 장치 및 그 방법
KR20200031259A (ko) 인터랙션 콘텐츠에 대한 영상 데이터 공유 시스템 및 그 방법
KR20150009631A (ko) 가상 객체의 표시 장치 및 방법

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right