KR101914141B1 - 가상현실 체험장치 - Google Patents

가상현실 체험장치 Download PDF

Info

Publication number
KR101914141B1
KR101914141B1 KR1020180060339A KR20180060339A KR101914141B1 KR 101914141 B1 KR101914141 B1 KR 101914141B1 KR 1020180060339 A KR1020180060339 A KR 1020180060339A KR 20180060339 A KR20180060339 A KR 20180060339A KR 101914141 B1 KR101914141 B1 KR 101914141B1
Authority
KR
South Korea
Prior art keywords
image
boarding
time stamp
experience
unit
Prior art date
Application number
KR1020180060339A
Other languages
English (en)
Other versions
KR20180063002A (ko
Inventor
정범준
Original Assignee
주식회사 상화
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 상화 filed Critical 주식회사 상화
Publication of KR20180063002A publication Critical patent/KR20180063002A/ko
Application granted granted Critical
Publication of KR101914141B1 publication Critical patent/KR101914141B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63GMERRY-GO-ROUNDS; SWINGS; ROCKING-HORSES; CHUTES; SWITCHBACKS; SIMILAR DEVICES FOR PUBLIC AMUSEMENT
    • A63G23/00Rotating or rocking pots, e.g. by moving the whole body
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63GMERRY-GO-ROUNDS; SWINGS; ROCKING-HORSES; CHUTES; SWITCHBACKS; SIMILAR DEVICES FOR PUBLIC AMUSEMENT
    • A63G31/00Amusement arrangements
    • A63G31/02Amusement arrangements with moving substructures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06K9/00671
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 가상현실 체험장치에 관한 것으로서, 체험자에게 영상을 제공하는 영상장치; 및 체험자에게 움직임을 제공하는 탑승장치;를 포함함으로써, 체험자가 시각을 통해 감지하는 자극과 물리적 움직임을 통해 감지하는 자극이 서로 일치될 수 있다. 그리고, 상기 영상장치는 체험자를 둘러싸는 전방위 영상 중 체험자의 시야에 대응되는 영상을 제공하도록 형성됨으로써, 체험자의 실제 시야와 영상의 시야가 일치될 수 있다. 이에 의하여, 체험자가 이질감을 느끼는 것을 방지하고, 몰입도가 향상되며, 결과적으로 현실감이 향상될 수 있다.

Description

가상현실 체험장치{VIRTUAL REALITY EXPERIENCE APPARATUS}
본 발명은, 가상현실 체험장치에 관한 것으로서, 더욱 상세하게는, 영상과 물리적 움직임을 제공할 수 있도록 한 가상현실 체험장치에 관한 것이다.
일반적으로, 가상현실(Virtual Reality, VR)이란 어떤 특정한 환경이나 상황을 컴퓨터로 만들어서, 그것을 이용하는 사람이 실제 주변 상황이나 환경과 상호작용을 하고 있는 것처럼 만들어 주는 인간과 컴퓨터 사이의 인터페이스를 의미한다.
이러한 가상현실은 인공현실, 사이버 공간, 가상세계, 가상환경, 합성환경, 인공환경 등으로도 불리고 있다.
가상현실의 사용 목적은 사람들이 일상적으로 경험하기 어려운 환경을 직접 체험하지 않고도 그 환경에 들어와 있는 것처럼 보여주고 조작할 수 있게 하는 것으로서, 최근에는 교육, 고급 프로그래밍, 원격조작 등의 분야에 응용되고 있다.
대한민국 등록실용신안공보 0342223호에는 종래의 가상현실 체험장치가 개시되어 있다.
그러나, 이러한 종래의 가상현실 체험장치에 있어서는, 현실감이 저하되는 문제점이 있었다. 더욱 구체적으로, 종래의 가상현실 체험장치는 체험자에게 영상만을 제공하기 때문에, 체험자가 시각을 통해 감지하는 자극과 물리적 움직임을 통해 감지하는 자극이 서로 일치되지 않는 문제점이 있었다. 또한, 종래의 가상현실 체험장치는 체험자의 실제 시야와 영상의 시야가 일치되지 않는 문제점이 있었다. 이에 따라, 체험자가 이질감을 느끼고, 몰입도가 저하되며, 결국 현실감이 저하되는 문제점이 있었다.
대한민국 등록실용신안공보 0342223호
따라서, 본 발명은, 현실감을 향상시킬 수 있는 가상현실 체험장치를 제공하는 것을 그 목적으로 한다.
본 발명은, 상기한 바와 같은 목적 달성을 위해, 체험자에게 영상을 제공하는 영상장치; 및 체험자에게 움직임을 제공하는 탑승장치;를 포함하고, 상기 영상장치는 체험자를 둘러싸는 전방위 영상 중 체험자의 시야에 대응되는 영상을 제공하도록 형성되는 가상현실 체험장치를 제공한다.
상기 영상장치는 헤드 마운트 디스플레이(HMD: Head Mount Display) 기기로 형성될 수 있다.
상기 영상장치는 그 영상장치의 움직임을 검출하는 제1 검출부를 포함하고, 상기 제1 검출부를 통해 검출되는 상기 영상장치의 움직임에 기초하여 체험자의 시야를 연산하고, 상기 전방위 영상 중 연산된 시야에 대응되는 영상을 제공하도록 형성될 수 있다.
상기 제1 검출부는 상기 영상장치에 설치되는 자이로(Gyro) 센서로 형성될 수 있다.
상기 영상장치는 체험자의 시야 연산 시 상기 탑승장치의 움직임을 배제하도록 형성될 수 있다.
상기 탑승장치는 그 탑승장치의 움직임을 검출하는 제2 검출부를 포함하고, 상기 영상장치는 상기 제1 검출부의 측정값에서 상기 제2 검출부의 측정값을 차감하고, 그 차감된 값으로부터 체험자의 시야를 연산하도록 형성될 수 있다.
상기 탑승장치는, 체험자에게 탑승 공간을 제공하는 탑승부; 및 상기 탑승부에 움직임을 발생시키는 구동부;를 포함하고, 상기 제2 검출부는 상기 탑승부에 설치되어 그 탑승부의 움직임을 검출하는 자이로 센서로 형성될 수 있다.
상기 구동부는 복수의 자유도를 갖는 로봇암(Robot Arm)으로 형성될 수 있다.
상기 구동부는 상기 탑승부에 피칭, 요잉, 롤링 및 왕복 운동 중 적어도 하나를 발생시키는 자이로 기구로 형성될 수 있다.
상기 구동부는, 복수의 자유도를 갖는 로봇암; 및 상기 로봇암의 자유 단부와 상기 탑승부 사이에 개재되고, 상기 로봇암의 자유 단부를 기준으로 상기 탑승부에 피칭, 요잉, 롤링 및 왕복 운동 중 적어도 하나를 발생시키는 자이로 기구로 형성될 수 있다.
탑승부체험자에게 탑승 공간을 제공하는 탑승부; 및 상기 탑승부에 움직임을 발생시키는 구동부;를 포함하고, 상기 구동부는 복수의 자유도를 갖는 로봇암(Robot Arm)으로 형성되고, 상기 제2 검출부는 상기 로봇암의 동작을 측정하여 그 측정값으로부터 상기 탑승부의 움직임을 연산하는 RSI(Robot Sensor Interface) 방식으로 형성될 수 있다.
비체험자에게 영상을 제공하는 공용 스크린을 더 포함할 수 있다.
상기 공용 스크린은 체험자에게 제공되고 있는 영상과 동일한 영상을 비체험자에게 제공하도록 형성될 수 있다.
상기 공용 스크린은 상기 전방위 영상 중 사전에 결정된 시야로 바라본 영상을 비체험자에게 제공하도록 형성될 수 있다.
상기 영상에서 보여지는 움직임과 상기 탑승장치에서 제공되는 움직임이 서로 일치되게 형성될 수 있다.
체험자로부터 입력 데이터를 수신하는 조작장치를 더 포함하고, 상기 영상장치는 상기 입력 데이터에 대응되는 영상을 제공하고, 상기 구동부는 상기 입력 데이터에 대응되는 움직임을 제공하도록 형성될 수 있다.
본 발명에 의한 가상현실 체험장치는, 체험자에게 영상을 제공하는 영상장치 및 체험자에게 물리적 움직임을 제공하는 탑승장치를 포함함에 따라 체험자가 시각을 통해 감지하는 자극과 물리적 움직임을 통해 감지하는 자극이 서로 일치될 수 있고, 상기 영상장치는 체험자를 둘러싸는 전방위 영상 중 체험자의 시야에 대응되는 영상을 제공하도록 형성됨에 따라, 체험자의 실제 시야와 영상의 시야가 일치될 수 있다. 이에 의하여, 체험자가 이질감을 느끼는 것을 방지하고, 몰입도가 향상되며, 결과적으로 현실감이 향상될 수 있다.
도 1은 본 발명의 일 실시예에 따른 가상현실 체험장치를 도시한 사시도,
도 2는 도 1의 가상현실 체험장치가 제공하는 영상과 움직임을 도시한 사시도,
도 3은 도 1의 가상현실 체험장치의 구성요소를 도시한 계통도,
도 4는 도 1의 가상현실 체험장치에 대한 제1 제어방법의 일부를 도시한 순서도,
도 5는 도 4의 제1 제어방법의 다른 일부를 도시한 순서도,
도 6은 도 5의 시야 연산에 대한 개념을 설명하기 위해 도시한 도표,
도 7 내지 10은 각각 도 4의 제1 제어방법의 또 다른 일부를 도시한 순서도,
도 11은 도 1의 가상현실 체험장치에 대한 제2 제어방법의 일부를 도시한 순서도,
도 12는 도 1의 가상현실 체험장치에 대한 제3 제어방법의 일부를 도시한 순서도,
도 13 내지 도 19는 각각 도 12의 제3 제어방법의 다른 일부를 도시한 순서도,
도 20은 본 발명의 다른 실시예에 따른 가상현실 체험장치의 구성요소를 도시한 계통도,
도 21은 도 20의 가상현실 체험장치에 대한 제어방법의 일부를 도시한 순서도,
도 22 내지 도 24는 각각 도 21의 제어방법의 다른 일부를 도시한 순서도,
도 25는 본 발명의 또 다른 실시예에 따른 가상현실 체험장치를 도시한 사시도,
도 26 내지 도 29는 각각 도 25의 가상현실 체험장치가 제공하는 움직임을 도시한 평면도,
도 30은 본 발명의 또 다른 실시예에 따른 가상현실 체험장치를 도시한 사시도,
도 31 내지 도 34은 도 30의 가상현실 체험장치가 제공하는 움직임을 도시한 사시도이다.
이하, 본 발명에 의한 가상현실 체험장치를 첨부된 도면을 참조하여 상세히 설명한다.
도 1은 본 발명의 일 실시예에 따른 가상현실 체험장치를 도시한 사시도이고, 도 2는 도 1의 가상현실 체험장치가 제공하는 영상과 움직임을 도시한 사시도이고, 도 3은 도 1의 가상현실 체험장치의 구성요소를 도시한 계통도이다. 그리고, 도 4는 도 1의 가상현실 체험장치에 대한 제1 제어방법의 일부를 도시한 순서도이고, 도 5는 도 4의 제1 제어방법의 다른 일부를 도시한 순서도이고, 도 6은 도 5의 시야 연산에 대한 개념을 설명하기 위해 도시한 도표로서 체험자가 시선을 하방을 향한 상태에서 상방 이동될 때 시야 보정 여부에 따른 차이점을 도시한 도표이며, 도 7 내지 10은 각각 도 4의 제1 제어방법의 또 다른 일부를 도시한 순서도이다. 한편, 도 11은 도 1의 가상현실 체험장치에 대한 제2 제어방법의 일부를 도시한 순서도이다. 또한, 도 12 내지 도 19는 각각 도 1의 가상현실 체험장치에 대한 제3 제어방법의 일부를 도시한 순서도이다.
첨부된 도 1 내지 도 3을 참조하면, 본 발명의 일 실시예에 따른 가상현실 체험장치는, 체험자에게 가상현실 영상을 제공하는 영상장치(100), 체험자에게 물리적 움직임을 제공하는 탑승장치(200) 및 상기 영상장치(100)와 상기 탑승장치(200)를 제어하는 제어장치(미도시)를 포함할 수 있다. 이하에서는 체험자에게 제공되는 가상현실 영상을 체험 영상이라 하고, 체험자에게 제공되는 물리적 움직임을 체험 움직임이라 하겠다.
상기 영상장치(100)는 체험자가 시각적으로 가상현실을 체험할 수 있도록 하기 위한 것으로서, 상기 체험 영상을 보여주는 영상 표시부(110) 및 상기 영상 표시부(110)를 제어하는 영상 제어부(120)를 포함할 수 있다. 여기서, 상기 영상 제어부(120)는 본 실시예의 경우 상기 영상장치(100)에 포함되나, 상기 제어장치(미도시)에 포함될 수도 있다.
한편, 상기 영상장치(100)는, 도 2에 도시된 바와 같이, 체험자가 실제 환경에 들어와 있는 것과 같은 영상을 볼 수 있도록, 상기 체험 영상이 체험자를 둘러싸는 영상(이하, 전방위 영상)(FPk) 중 체험자의 시야에 대응되는 영상(이하, 시야 대응 영상)(VPk)으로 제공되는 방식(이하, 시야 대응 영상 제공 방식)으로 형성될 수 있다. 즉, 상기 체험 영상은 상기 전방위 영상(FPk)으로 형성되되 그 전방위 영상(FPk) 중 특정 부위(체험자의 시선이 향하는 부위)에 해당되는 상기 시야 대응 영상(VPk)이 상기 영상 표시부(110)에서 보여지도록 형성될 수 있다.
구체적으로, 상기 영상장치(100)는 예를 들어 체험자의 두부에 장착되는 헤드 마운트 디스플레이 기기(HMD: Head Mount Display)로 형성되고, 상기 영상장치(100)의 움직임을 검출하는 제1 검출부(130)를 더 포함할 수 있다. 여기서, 상기 제1 검출부(130)는 예를 들어 자이로 센서, 가속도 센서 등으로 형성될 수 있다.
그리고, 상기 영상장치(100)는, 상기 전방위 영상(FPk)이 상기 영상 제어부(120)에 저장되어 있고, 상기 제1 검출부(130)의 측정값(제1 검출부(130)를 통해 검출되는 영상장치(100)의 움직임)이 주기적으로 상기 영상 제어부(120)로 전송되고, 상기 영상 제어부(120)가 상기 제1 검출부(130)의 측정값에 기초하여 체험자의 시야를 연산하고, 상기 영상 제어부(120)가 상기 전방위 영상(FPk) 중 연산된 체험자의 시야에 대응되는 영상을 상기 영상 표시부(110)로 발송하며, 상기 영상 표시부(110)가 상기 영상 제어부(120)로부터 수신한 영상을 재생하도록 형성될 수 있다.
한편, 상기 제1 검출부(130)를 통해 검출되는 영상장치(100)의 움직임은 체험자의 시선 변경뿐만 아니라 상기 탑승장치(200)의 움직임(체험 움직임)에 의해 영향을 받을 수 있다. 예를 들어, 상기 탑승장치(200)가 상방으로 움직이나 체험자는 시선을 전방으로 유지하고 있는 경우에도 상기 제1 검출부(130)는 상기 영상장치(100)가 상방으로 이동된 것으로 검출할 수 있다. 이에 의하여, 상기 탑승장치(200)가 움직이지 않는 상태에서 체험자가 시선을 변경할 경우에는, 상기 제1 검출부(130)를 통해 검출되는 영상장치(100)의 움직임이 체험자의 시선 변경에 의한 영상장치(100)의 움직임과 일치되어, 상기 제1 검출부(130)의 측정값으로부터 연산된 체험자의 시야와 실제 체험자의 시야가 일치될 수 있다. 하지만, 상기 탑승장치(200)가 움직이는 경우에는, 상기 제1 검출부(130)를 통해 검출되는 영상장치(100)의 움직임이 체험자의 시선 변경에 의한 영상장치(100)의 움직임과 일치되지 않아, 상기 제1 검출부(130)의 측정값으로부터 연산된 체험자의 시야와 실제 체험자의 시야가 일치되지 않을 수 있다.
이를 고려하여, 본 실시예의 경우, 상기 영상장치(100)는 상기 체험자의 시야 연산 시 상기 탑승장치(200)의 움직임(체험 움직임)에 의한 상기 영상장치(100)의 움직임을 배제하는 방식(이하, 시야 보정 방식)으로 형성될 수 있다. 즉, 상기 탑승장치(200)는 그 탑승장치(200)의 움직임(체험 움직임)을 검출하는 제2 검출부(240)를 포함하고, 상기 영상장치(100)의 영상 제어부(120)는 상기 제1 검출부(130)의 측정값에서 상기 제2 검출부(240)의 측정값(탑승장치(200)의 움직임에 따른 영상부의 움직임)을 차감하고, 그 차감된 값(θ1-θ2)(체험자의 시야 변경에 따른 영상부의 움직임)으로부터 체험자의 시야를 연산하도록 형성될 수 있다.
구체적으로, 기준 벡터(예를 들어, 체험 시작 시점에서 체험자의 전방을 향하는 벡터)(α)로부터 체험자가 바라보는 시선 방향의 벡터(β)까지의 각도를 제1 각도(θ1)라 하고, 상기 기준 벡터(α)로부터 검출하고자 하는 시점에서 체험자의 전방을 향하는 벡터(γ)(후술할 탑승부(210)에 포함되는 의자(212) 등받이의 법선 벡터)(γ)까지의 각도를 제2 각도(θ2)라 하면, 상기 제1 검출부(130)는 상기 제1 각도(θ1)를 검출하여 상기 영상 제어부(120)로 발송하고, 상기 제2 검출부(240)는 상기 제2 각도(θ2)를 검출하여 상기 영상 제어부(120)로 발송하며, 상기 영상 제어부(120)는 상기 제1 각도(θ1)에서 상기 제2 각도(θ2)를 차감하고 그 차감된 값(θ1-θ2)으로부터 체험자의 시야를 연산할 수 있다. 이에 의하여, 도 6에 도시된 바와 같이, 실제 체험자의 시야에 대응되는 영상이 제공될 수 있다.
여기서, 상기 제2 검출부(240)는 후술할 탑승부(210)에 설치되는 자이로 센서, 가속도 센서 등으로 형성되거나, 후술할 로봇암(221)의 각 관절 움직임을 센싱하여 그 탑승부(210)의 움직임을 연산할 수 있는 RSI(Robot Sensor Interface) 방식으로 형성될 수도 있다.
상기 탑승장치(200)는 체험자가 물리적 움직임을 통해 가상현실을 체험할 수 있도록 하기 위한 것으로서, 체험자에게 탑승 가능한 공간을 제공하는 탑승부(210), 상기 탑승부(210)를 직선 운동 또는 회전 운동시킴으로써 상기 체험 움직임을 제공하는 구동부(220) 및 상기 구동부(220)를 제어하는 구동 제어부(230)를 포함할 수 있다. 여기서, 상기 구동 제어부(230)는 본 실시예의 경우 상기 탑승장치(200)에 포함되나, 상기 제어장치(미도시)에 포함될 수도 있다.
상기 탑승부(210)는 체험자가 착석 가능한 의자(212), 체험자가 상기 의자(212)로부터 이탈되는 것을 방지하는 안전벨트(214) 및 체험자를 심리적으로 안정시키도록 체험자가 파지 가능한 손잡이(216)를 포함할 수 있다.
그리고, 상기 탑승부(210)는 상기 영상장치(100)가 탈착 가능하게 안착되는 거치대(미도시), 상기 영상장치(100)가 상기 거치대(미도시)로부터 사전에 결정된 이격 거리보다 멀어지는 것을 방지하는 이탈방지수단(미도시), 상기 거치대(미도시)로부터 상기 영상장치(100) 측으로 전원을 공급하기 위한 전원케이블(미도시) 등을 더 포함할 수 있다.
상기 구동부(220)는 상대적으로 공간 제약을 덜 받으면서 체험자에게 그 체험자가 마치 실제 기구에 탑승한 것과 같은 물리적 움직임을 제공할 수 있도록 형성될 수 있다. 즉, 상기 체험 영상에서 표시되는 동작이 실제 기구를 통해 제공되는 것이 아니라, 그 실제 기구가 운행되는 공간보다 협소한 소정의 제한된 공간 안에서 운행되는 상기 구동부(220)에 의해 제공될 수 있다.
이러한 상기 구동부(220)는 상기 탑승부(210)를 3차원으로 움직일 수 있도록 하는 다양한 구성으로 형성될 수 있고, 본 실시예의 경우 복수의 암(Arm)과 관절을 포함하여 복수의 자유도(예를 들어, 6 자유도)를 갖고 운동할 수 있는 로봇암(Robot Arm)(221)으로 형성될 수 있다. 이때, 상기 탑승부(210)는 상기 로봇암(221)의 자유단부에 탈착 가능하게 결합될 수 있다.
여기서, 상기 탑승부(210)의 개수와 상기 구동부(220)의 개수는 적절히 조절될 수 있다. 즉, 한 번에 한 명의 체험자에게 가상현실 체험을 제공할 수 있도록 하나의 구동부(220)에 하나의 탑승부(210)가 결합될 수 있다. 또는, 한 번에 여러 명의 체험자에게 가상현실 체험을 제공하여 회전율을 향상시킬 수 있도록 하나의 구동부(220)에 복수의 탑승부(210)가 결합될 수도 있다. 또는, 회전율을 더욱 향상시킬 수 있도록, 상기 구동부(220)가 복수로 구비되고, 각 구동부(220)마다 적어도 하나의 탑승부(210)가 결합될 수도 있다. 즉, 가상현실 체험장치가 복수로 구비될 수 있다. 이 경우, 복수의 가상현실 체험장치는 각각 독립적으로 체험 영상과 체험 움직임을 제공할 수 있어, 복수 종류의 가상현실을 동시에 제공할 수 있다.
상기 제어장치(미도시)는 상기 영상장치(100) 및 상기 탑승장치(200)에 전기적으로 연결되는 서버 또는 컴퓨터로 형성되고, 후술할 편집부(310)와 후술할 제어부(C)의 적어도 일부(본 실시예의 경우, 후술할 통합 제어부(320))를 포함할 수 있다.
한편, 본 실시예에 따른 가상현실 체험장치는 홍보 및 체험자 유치를 위해 비체험자에게 가상현실 영상을 제공하는 공용 스크린(400)을 더 포함할 수도 있다. 이 경우, 상기 영상 제어부(120)가 상기 영상 표시부(110) 및 상기 공용 스크린(400)을 제어하도록 형성될 수 있다.
이러한 구성에 따른 가상현실 체험장치는 도 4 내지 도 10에 도시된 제1 제어방법으로 운행 가능하게 형성될 수 있다.
즉, 상기 가상현실 체험장치는, 전술한 바와 같이 상기 체험 영상이 상기 시야 대응 영상 제공 방식 및 상기 시야 보정 방식으로 제공되도록 형성될 뿐만 아니라, 체험 시작 시점부터 체험 종료 시점까지 체험 시간 중 매 순간 제공될 체험 영상과 체험 움직임이 미리 설정되고, 그 미리 설정된 체험 영상과 체험 움직임이 순차적으로 제공되며, 체험 영상과 체험 움직임이 서로 동기화되도록 형성될 수 있다. 여기서, 동기화란 상기 체험 영상에서 보여지는 영상적 움직임(시각적 움직임)과 상기 체험 움직임(물리적 움직임)이 일치되는 것을 의미한다.
구체적으로, 상기 체험 영상과 상기 체험 움직임이 서로 동기화되지 못할 경우, 예를 들어 상기 영상장치(100)에서는 하강하는 영상이 제공되고 있는데 상기 탑승장치(200)에서는 상승하는 움직임이 제공될 경우, 체험자가 이질감을 느끼고, 몰입도가 저하되며, 결국 현실감이 저하되는 문제점이 발생될 수 있다.
이를 고려하여, 본 실시예에 따른 가상현실 체험장치는, 상기 체험 영상과 상기 체험 움직임을 형성(규정)하는 편집부(310)를 통해 체험 전에 상기 체험 영상과 상기 체험 움직임을 동기화시키고, 상기 편집부(310)에서 형성(규정)되는 체험 영상과 체험 움직임에 기초하여 상기 영상장치(100)(더욱 정확히는, 영상 표시부(110))와 상기 탑승장치(200)(더욱 정확히는, 구동부(220))를 제어하는 제어부(C)를 통해 체험 중에 상기 체험 영상과 상기 체험 움직임을 동기화시키도록 형성될 수 있다.
더욱 구체적으로, 상기 편집부(310)는 상기 제어장치(미도시)에 구비되는 소프트웨어로서, 체험 시작 시점부터 체험 종료 시점까지의 체험 시간에 포함되는 복수의 시점들을 제1 내지 제n 타임 스탬프(Time Stamp)(T1 내지 Tn)로 규정하는 타임 스탬프 코드(TC)를 형성하고, 상기 제1 내지 제n 타임 스탬프(T1 내지 Tn)에 각각 재생될 체험 영상인 제1 내지 제n 영상(FP1 내지 FPn)을 규정하는 제1 데이터 베이스(DB1)를 형성하며, 상기 제1 내지 제n 타임 스탬프(T1 내지 Tn)에 각각 이행될 체험 움직임인 제1 내지 제n 움직임(M1 내지 Mn)을 규정하는 제2 데이터 베이스(DB2)를 형성할 수 있다.
여기서, 상기 타임 스탬프 코드(TC)는 후술할 통합 제어부(320)에 저장되고, 상기 제1 데이터 베이스(DB1)는 상기 영상 제어부(120)에 저장되며, 상기 제2 데이터 베이스(DB2)는 상기 구동 제어부(230)에 저장될 수 있다.
상기 제어부(C)는 상기 영상 제어부(120), 상기 구동 제어부(230) 및 상기 영상 제어부(120)와 상기 구동 제어부(230)를 제어하기 위한 통합 제어부(320)로 구성될 수 있다. 여기서, 상기 통합 제어부(320)는 상기 제어장치(미도시)에 구비될 수 있다.
상기 통합 제어부(320)는, 상기 타임 스탬프 코드(TC)에 기초하여, 체험이 시작되면 사전에 결정된 시간(예를 들어, 10ms) 간격으로 상기 제1 내지 제n 타임 스탬프(T1 내지 Tn)를 상기 영상 제어부(120)와 상기 구동 제어부(230)에 순차적으로 발송하도록 형성될 수 있다.
여기서, 상기 통합 제어부(320)는, 체험 중 동기화를 위해, 상기 제1 내지 제n 타임 스탬프(T1 내지 Tn) 중 임의의 타임 스탬프(Tk)를 상기 영상 제어부(120)와 상기 구동 제어부(230)에 동시에 발송하도록 형성될 수 있다.
상기 영상 제어부(120)는 상기 통합 제어부(320)로부터 수신하는 타임 스탬프(Tk)를 상기 제1 데이터 베이스(DB1)에 대입시켜 상기 제1 내지 제n 영상(FP1 내지 FPn) 중 수신한 타임 스탬프(Tk)에 대응되는 영상(FPk)을 선택하며, 선택한 영상(FPk) 중 시야 대응 영상(VPk)을 상기 영상 표시부(110)로 발송하도록 형성될 수 있다. 여기서, 본 실시예의 경우, 상기 영상 제어부(120)가 상기 영상 표시부(110)로 발송하는 영상(VPk)을 상기 공용 스크린(400)으로도 발송하도록 형성될 수 있다.
그리고, 상기 영상 제어부(120)는, 실행 중 동기화를 위해, 목표 영상과 실제 영상을 사전에 결정된 주파수(예를 들어, 60Hz) 간격으로 비교하고 일치시키도록 형성될 수 있다.
구체적으로, 상기 영상 제어부(120)는 상기 영상 표시부(110)로 발송한 영상에 대응되는 타임 스탬프인 실제 타임 스탬프(Tk')를 상기 통합 제어부(320)로부터 수신한 타임 스탬프(Tk)인 목표 타임 스탬프(Tk)와 비교하도록 형성될 수 있다. 여기서, 영상 데이터를 직접 비교하지 않고, 타임 스탬프를 비교함으로써, 상기 영상 제어부(120)에 인가되는 부담을 감소시키고, 그 영상 제어부(120)의 처리 속도를 향상시킬 수 있다.
그리고, 상기 영상 제어부(120)는, 상기 실제 타임 스탬프(Tk')가 상기 목표 타임 스탬프(Tk)보다 이른 시점일 경우, 상기 영상 표시부(110)가 상기 실제 타임 스탬프(Tk')에 대응되는 영상과 상기 목표 타임 스탬프(Tk)에 대응되는 영상 사이의 영상들을 사전에 결정된 재생속도보다 빠른 재생속도로 재생하도록 지시를 내릴 수 있다.
그리고, 상기 영상 제어부(120)는, 상기 실제 타임 스탬프(Tk')가 상기 목표 타임 스탬프(Tk)보다 나중 시점일 경우, 상기 영상 표시부(110)가 상기 실제 타임 스탬프(Tk')에 대응되는 영상 이후의 영상들을 사전에 결정된 재생속도보다 느린 재생속도로 재생하도록 지시를 내릴 수 있다.
또는, 상기 영상 제어부(120)는, 상기 실제 타임 스탬프(Tk')가 상기 목표 타임 스탬프(Tk)보다 나중 시점일 경우, 상기 영상 표시부(110)가 상기 실제 타임 스탬프(Tk')에 대응되는 영상을 반복적으로 재생하도록 지시를 내릴 수 있다.
상기 구동 제어부(230)는 상기 통합 제어부(320)로부터 수신하는 타임 스탬프(Tk)를 상기 제2 데이터 베이스(DB2)에 대입시켜 상기 제1 내지 제n 움직임(M1 내지 Mn) 중 수신한 타임 스탬프(Tk)에 대응되는 움직임(Mk)을 선택하며, 선택한 움직임(Mk)을 상기 구동부(220)로 발송하도록 형성될 수 있다.
그리고, 상기 구동 제어부(230)는, 체험 중 동기화를 위해, 목표 움직임과 실제 움직임을 사전에 결정된 시간(예를 들어, 12ms) 간격으로 비교하고 일치시키도록 형성될 수 있다.
구체적으로, 상기 구동 제어부(230)는 상기 구동부(220)에서 이행된 실제 움직임에 대응되는 타임 스탬프인 실제 타임 스탬프(Tk'')를 상기 통합 제어부(320)로부터 수신한 타임 스탬프(Tk)인 목표 타임 스탬프(Tk)와 비교하도록 형성될 수 있다. 여기서, 움직임 데이터를 직접 비교하지 않고, 타임 스탬프를 비교함으로써, 상기 구동 제어부(230)에 인가되는 부담을 감소시키고, 그 구동 제어부(230)의 처리 속도를 향상시킬 수 있다.
그리고, 상기 구동 제어부(230)는, 상기 실제 타임 스탬프(Tk'')가 상기 목표 타임 스탬프(Tk)보다 이른 시점일 경우, 상기 구동부(220)가 상기 실제 타임 스탬프(Tk'')에 대응되는 움직임과 상기 목표 타임 스탬프(Tk)에 대응되는 움직임 사이의 움직임들을 사전에 결정된 구동속도보다 빠른 구동속도로 이행하도록 지시를 내릴 수 있다.
그리고, 상기 구동 제어부(230)는, 상기 실제 타임 스탬프(Tk'')가 상기 목표 타임 스탬프(Tk)보다 나중 시점일 경우, 상기 구동부(220)가 상기 실제 타임 스탬프(Tk'')에 대응되는 움직임 이후의 움직임들을 사전에 결정된 구동속도보다 느린 구동속도로 이행하도록 지시를 내릴 수 있다.
여기서, 상기 구동 제어부(230)는 상기 제2 데이터 베이스(DB2)를 이용하여 상기 실제 타임 스탬프(Tk'')를 산출하도록 형성될 수 있다. 구체적으로, 사전에 결정된 시간 간격(예를 들어, 12ms)으로 검출되는 상기 제2 검출부(240)의 측정값은 상기 구동 제어부(230)에도 전송되고, 상기 구동 제어부(230)는 상기 제2 검출부(240)의 측정값을 상기 제2 데이터 베이스(DB2)에 대입하여 그 제2 검출부(240)의 측정값에 대응되는 타임 스탬프를 상기 실제 타임 스탬프(Tk'')로 산출하도록 형성될 수 있다. 이 경우, 상기 구동 제어부(230)에 인가되는 부담은 다소 증가되나, 상기 실제 타임 스탬프(Tk'')를 산출하기 위한 별도의 장치가 추가될 필요가 없어 비용이 절감될 수 있다.
또는, 상기 구동 제어부(230)는 상기 구동부(220)가 작동되는 시간을 카운팅하는 타이머(미도시)를 포함하고, 사전에 결정된 시간 간격(예를 들어, 12ms)으로 추출되는 상기 타이머(미도시)의 시각을 상기 실제 타임 스탬프(Tk'')로 산출하도록 형성될 수도 있다. 이 경우, 상기 실제 타임 스탬프(Tk'')를 산출하기 위한 별도의 장치(타이머(미도시))가 추가됨에 따라 비용이 다소 증가되나, 상기 구동 제어부(230)에 인가되는 부담이 경감될 수 있다.
이하에서는 상기 제1 제어방법에 대해 설명한다.
즉, 상기 제1 제어방법은, 체험 전에 상기 체험 영상과 상기 체험 움직임을 편집하는 편집단계 및 체험을 실행하는 실행단계를 포함할 수 있다.
상기 편집 단계에서는, 상기 편집부(310)에서 상기 타임 스탬프 코드(TC), 상기 제1 데이터 베이스(DB1) 및 상기 제2 데이터 베이스(DB2)가 형성되고, 상기 타임 스탬프 코드(TC)가 상기 통합 제어부(320)에 저장되고, 상기 제1 데이터 베이스(DB1)가 상기 영상 제어부(120)에 저장되며, 상기 제2 데이터 베이스(DB2)가 상기 구동 제어부(230)에 저장될 수 있다.
상기 실행단계에서는, 체험자가 상기 탑승장치(200)에 탑승하고 상기 영상장치(100)를 그 체험자의 두부에 장착하면, 체험이 시작될 수 있다.
체험이 시작되면, 제1 단계(S1)에서, 상기 통합 제어부(320)는 최초의 타임 스탬프인 상기 제1 타임 스탬프(T1)를 목표 타임 스탬프(Tk)로 저장할 수 있다.
그 다음, 제2 단계(S2)에서, 상기 통합 제어부(320)는 그 통합 제어부(320)에 저장된 목표 타임 스탬프(Tk)를 상기 영상 제어부(120)와 상기 구동 제어부(230)로 동시에 발송할 수 있다.
그 다음, 제3-1-1 단계(S311)에서, 상기 영상 제어부(120)는 상기 제2 단계(S2)를 통해 수신한 목표 타임 스탬프(Tk)를 상기 제1 데이터 베이스(DB1)에 대입시켜 상기 제1 내지 제n 영상(전방위 영상)(FP1 내지 FPn) 중 그 목표 타임 스탬프(Tk)에 대응되는 영상(전방위 영상)(FPk)을 선택할 수 있다.
그 다음, 제3-1-2 단계(S312)에서, 상기 제1 검출부(130)는 그 제1 검출부(130)의 측정값을 상기 영상 제어부(120)로 발송하고, 상기 제2 검출부(240)는 그 제2 검출부(240)의 측정값을 상기 영상 제어부(120)로 발송할 수 있다.
그 다음, 제3-1-3 단계(S313)에서, 상기 영상 제어부(120)는 상기 제1 검출부(130)의 측정값과 상기 제2 검출부(240)의 측정값을 기초로 체험자의 시야를 연산할 수 있다.
그 다음, 제3-1-4 단계(S314)에서, 상기 영상 제어부(120)는 상기 제3-1-1 단계(S311)에서 선택된 영상(전방위 영상)(FPk) 중 상기 제3-1-3 단계(S313)에서 연산된 체험자의 시야에 대응되는 영상(시야 대응 영상)(VPk)을 선택하여 상기 영상 표시부(110) 및 상기 공용 스크린(400)에 발송할 수 있다.
그 다음, 제3-1-5 단계(S315)에서, 상기 영상 표시부(110)와 상기 공용 스크린(400)은 상기 제3-1-4 단계(S314)를 통해 수신한 영상(VPk)을 각각 재생할 수 있다.
여기서, 상기 공용 스크린(400)은 로직 단순화를 위해 상기 영상 표시부(110)에서 보여지는 영상(VPk)과 동일한 영상을 비체험자에게 제공하도록 형성되나, 이에 한정되는 것은 아니고, 체험자가 여러 명일 경우 어느 체험자에게 제공되는 영상을 상기 공용 스크린(400)에서 재생할 것인지에 대한 문제를 해소하기 위해 후술할 제3 제어방법에서와 같이 상기 영상 표시부(110)에서 보여지는 영상(VPk)과 별개의 영상을 비체험자에게 제공하도록 형성될 수도 있고, 상기 공용 스크린(400)을 운영하기 위해 소요되는 시간과 비용도 절감하기 위해 상기 공용 스크린(400) 자체가 생략될 수도 있다.
한편, 제3-2-1 단계(S321)에서, 상기 구동 제어부(230)는 상기 제2 단계(S2)를 통해 수신한 목표 타임 스탬프(Tk)를 상기 제2 데이터 베이스(DB2)에 대입시켜 상기 제1 내지 제n 움직임(M1 내지 Mn) 중 그 목표 타임 스탬프(Tk)에 대응되는 움직임(Mk)을 선택하고, 그 선택한 움직임(Mk)을 상기 구동부(220)로 발송할 수 있다.
그 다음, 제3-2-2 단계(S322)에서, 상기 구동부(220)는 상기 제3-2-1 단계(S321)를 통해 수신한 움직임을 이행할 수 있다.
한편, 상기 제3-1-4 단계(S314) 및 상기 제3-2-2 단계(S322) 중 적어도 하나가 종료되면, 제4 단계(S4)에서, 상기 통합 제어부(320)는 체험이 종료되었는지 판단할 수 있다. 즉, 상기 통합 제어부(320)는 그 통합 제어부(320)에 저장된 목표 타임 스탬프(Tk)가 최종 타임 스탬프인 제n 타임 스탬프(Tn)와 일치되는지 판단할 수 있다.
그리고, 상기 제4 단계(S4)에서, 체험이 종료되었다고 판단될 경우(목표 타임 스탬프(Tk)가 제n 타임 스탬프(Tn)와 일치할 경우)에는 체험이 종료되고, 체험이 진행중이라고 판단될 경우(목표 타임 스탬프(Tk)가 제n 타임 스탬프(Tn)와 불일치할 경우)에는 후술할 제5 단계(S5)로 진행될 수 있다.
제5 단계(S5)에서는, 상기 통합 제어부(320)가 상기 제2 단계(S2)에서 목표 타임 스탬프(Tk)를 발송한 이후 사전에 결정된 시간(타임 스탬프들 사이 인터벌)이 경과했는지 판단할 수 있다.
그리고, 상기 제5 단계(S5)에서, 사전에 결정된 시간이 경과하였다고 판단될 경우 후술할 제6 단계(S6)로 진행되고, 사전에 결정된 시간이 경과하지 않았다고 판단될 경우 후술할 제7-1-1 단계(S711) 및 후술할 제7-2-1 단계(S721)로 동시에 진행될 수 있다.
제6 단계(S6)에서는, 상기 통합 제어부(320)가 지금까지 목표 타임 스탬프(Tk)로 저장하고 있던 타임 스탬프의 다음 타임 스탬프를 새로운 목표 타임 스탬프(Tk)로 저장할 수 있다. 예를 들어, 지금까지 목표 타임 스탬프(Tk)로 저장되어 있던 타임 스탬프가 상기 제1 타임 스탬프(T1)일 경우, 상기 제2 타임 스탬프(T2)가 새로운 목표 타임 스탬프(Tk)로 저장될 수 있다.
그리고, 상기 제6 단계(S6)가 종료된 후에는, 상기 제2 단계(S2)로 복귀될 수 있다.
제7-1-1 단계(S711)에서는, 상기 영상 제어부(120)가 상기 실제 타임 스탬프(Tk')를 산출할 수 있다.
그 다음, 제7-1-2 단계(S712)에서, 상기 영상 제어부(120)는 상기 제7-1-1 단계(S711)에서 산출된 실제 타임 스탬프(Tk')가 상기 제2 단계(S2)를 통해 수신한 목표 타임 스탬프(Tk)와 일치되는지 판단할 수 있다.
그리고, 상기 제7-1-2 단계(S712)에서, 목표 타임 스탬프(Tk)와 실제 타임 스탬프(Tk')가 일치된다고 판단될 경우 상기 제3-1-2 단계(S312)로 복귀되고, 목표 타임 스탬프(Tk)와 실제 타임 스탬프(Tk')가 불일치된다고 판단될 경우 후술할 제7-1-3 단계(S713)로 진행될 수 있다.
제7-1-3 단계(S713)에서, 상기 영상 제어부(120)는 실제 타임 스탬프(Tk')가 목표 타임 스탬프(Tk)보다 이른 시점인지 판단할 수 있다.
그리고, 상기 제7-1-3 단계(S713)에서, 실제 타임 스탬프(Tk')가 목표 타임 스탬프(Tk)보다 이른 시점이라 판단될 경우 후술할 제7-1-4 단계(S714)로 진행되고, 실제 타임 스탬프(Tk')가 목표 타임 스탬프(Tk)보다 나중 시점이라 판단될 경우 후술할 제7-1-5 단계(S715)로 진행될 수 있다.
제7-1-4 단계(S714)에서는, 상기 영상 제어부(120)가 상기 실제 타임 스탬프(Tk')에 대응되는 영상과 상기 목표 타임 스탬프(Tk)에 대응되는 영상 사이의 영상들을 사전에 결정된 재생속도보다 빠른 재생속도로 재생하도록 상기 영상 표시부(110)에 지시를 내릴 수 있다.
상기 제7-1-4 단계(S714)가 종료되면, 상기 제3-1-2 단계(S312)로 복귀될 수 있다.
제7-1-5 단계(S715)에서는, 상기 영상 제어부(120)가 상기 실제 타임 스탬프(Tk')에 대응되는 영상 이후의 영상들을 사전에 결정된 재생속도보다 느린 재생속도로 재생하도록 상기 영상 표시부(110)에 지시를 내릴 수 있다. 또는, 상기 영상 제어부(120)가 상기 실제 타임 스탬프(Tk')에 대응되는 영상을 반복적으로 재생하도록 상기 영상 표시부(110)에 지시를 내릴 수 있다.
상기 제7-1-5 단계(S715)가 종료되면, 상기 제3-1-2 단계(S312)로 복귀될 수 있다.
여기서, 상기 제7-1-1 내지 7-1-5 단계(S711 내지 S715)는 사전에 결정된 주파수(예를 들어, 60Hz) 간격으로 실행될 수 있다.
그리고, 상기 제7-1-2 단계(S712)에서 목표 타임 스탬프(Tk)와 실제 타임 스탬프(Tk')가 일치된다고 판단될 경우 또는 상기 제7-1-4 단계(S714)가 종료된 경우 또는 상기 제7-1-5 단계(S715)가 종료된 경우, 상기 제3-1-2 단계(S312)로 복귀되는 것은 그 사이 체험자의 시야 변동을 반영하기 위해서다.
한편, 제7-2-1 단계(S721)에서는, 상기 제2 검출부(240)가 그 제2 검출부(240)의 측정값(구동부(220)의 실제 움직임)을 상기 구동 제어부(230)로 발송할 수 있다.
그 다음, 제7-2-2 단계(S722)에서, 상기 구동 제어부(230)는 상기 제7-2-1 단계(S721)를 통해 수신한 제2 검출부(240)의 측정값에 기초하여 실제 타임 스탬프(Tk'')를 산출하고, 산출된 실제 타임 스탬프(Tk'')가 상기 제2 단계(S2)를 통해 수신한 목표 타임 스탬프(Tk)와 일치되는지 판단할 수 있다.
그리고, 상기 제7-2-2 단계(S722)에서, 목표 타임 스탬프(Tk)와 실제 타임 스탬프(Tk'')가 일치된다고 판단될 경우 상기 제5 단계(S5)로 복귀되고, 목표 타임 스탬프(Tk)와 실제 타임 스탬프(Tk'')가 불일치된다고 판단될 경우 후술할 제7-2-3 단계(S723)로 진행될 수 있다.
제7-2-3 단계(S723)에서, 상기 구동 제어부(230)는 실제 타임 스탬프(Tk'')가 목표 타임 스탬프(Tk)보다 이른 시점인지 판단할 수 있다.
그리고, 상기 제7-2-3 단계(S723)에서, 실제 타임 스탬프(Tk'')가 목표 타임 스탬프(Tk)보다 이른 시점이라 판단될 경우 후술할 제7-2-4 단계(S724)로 진행되고, 실제 타임 스탬프(Tk'')가 목표 타임 스탬프(Tk)보다 나중 시점이라 판단될 경우 후술할 제7-2-5 단계(S725)로 진행될 수 있다.
제7-2-4 단계(S724)에서는, 상기 구동 제어부(230)가 상기 실제 타임 스탬프(Tk'')에 대응되는 움직임과 상기 목표 타임 스탬프(Tk)에 대응되는 움직임 사이의 움직임들을 사전에 결정된 구동속도보다 빠른 구동속도로 이행하도록 상기 구동부(220)에 지시를 내릴 수 있다.
상기 제7-2-4 단계(S724)가 종료되면, 상기 제5 단계(S5)로 복귀될 수 있다.
제7-2-5 단계(S725)에서는, 상기 구동 제어부(230)가 상기 실제 타임 스탬프(Tk'')에 대응되는 움직임 이후의 움직임들을 사전에 결정된 구동속도보다 느린 구동속도로 이행하도록 상기 구동부(220)에 지시를 내릴 수 있다.
상기 제7-2-5 단계(S725)가 종료되면, 상기 제5 단계(S5)로 복귀될 수 있다.
여기서, 상기 제7-2-1 내지 7-2-5 단계(S721 내지 S725)는 사전에 결정된 시간 간격(예를 들어, 12ms)으로 실행될 수 있다.
이와 같은 상기 실행단계는 체험 시작 시점에 상기 제1 단계(S1)가 한 번 실행되고, 최종 타임 스탬프에 대응되는 영상과 움직임이 제공될 때까지 상기 제2 내지 제7-2-5 단계(S2 내지 S725)가 반복 실행된 후 종료될 수 있다.
여기서, 본 실시예에 따른 가상현실 체험장치는, 체험자에게 상기 영상장치(100) 및 상기 탑승장치(200)를 포함함에 따라, 체험자가 시각을 통해 감지하는 자극과 물리적 움직임을 통해 감지하는 자극이 서로 일치될 수 있다. 이에 의하여, 체험자가 이질감을 느끼는 것을 방지하고, 몰입도가 향상되며, 결과적으로 현실감이 향상될 수 있다.
그리고, 상기 체험 영상과 상기 체험 움직임이 동기화됨에 따라, 체험자가 시각을 통해 감지하는 자극과 물리적 움직임을 통해 감지하는 자극이 더욱 일치될 수 있다.
그리고, 상기 체험 영상과 상기 체험 움직임 사이 동기화가 단계적(체험 전, 체험 시작 시점, 체험 중)으로 실행되고, 체험 중에 주기적으로 실행됨에 따라, 체험자가 시각을 통해 감지하는 자극과 물리적 움직임을 통해 감지하는 자극이 더욱 효과적으로 일치될 수 있다.
그리고, 상기 영상장치(100)는 상기 전방위 영상(FPk) 중 상기 시야 대응 영상(VPk)을 제공하도록 형성됨에 따라, 현실감을 더욱 향상시킬 수 있다.
그리고, 상기 영상장치(100)는 체험자의 시야 연산 시 상기 탑승장치(200)의 움직임을 배제하도록 형성됨에 따라, 상기 탑승장치(200)의 움직임에 의해 체험자의 실제 시야와 영상의 시야가 불일치되는 경우를 미연에 방지할 수 있다.
그리고, 상기 탑승장치(200)의 상기 구동부(220)가 로봇암(221)으로 형성됨에 따라, 상대적으로 공간 제약을 덜 받으면서, 체험자에게 그 체험자가 마치 실제 기구에 탑승한 것과 같은 움직임을 제공할 수 있다.
한편, 상기 가상현실 체험장치는 도 11에 도시된 제2 제어방법으로 운행 가능하게 형성될 수도 있다.
즉, 상기 가상현실 체험장치는, 상기 제1 제어방법으로 운행 가능하게 형성될 경우 대비 대동 소이하게 형성되되, 상기 영상 제어부(120)가 목표 영상과 실제 영상을 비교 및 일치시키는 역할을 수행하지 않도록 형성되고, 상기 구동 제어부(230)가 목표 움직임과 실제 움직임을 비교 및 일치시키는 역할을 수행하지 않도록 형성되어, 체험 전 및 체험 시작 시점에만 동기화를 실행하도록 형성될 수 있다.
이하에서는 상기 제2 제어방법에 대해 설명한다.
상기 제2 제어방법은, 상기 제1 제어방법 대비, 도 8에 도시된 단계들이 도 11에 도시된 단계들로 대체되고, 도 9 및 도 10에 도시된 단계들이 삭제될 수 있다. 즉, 상기 제2 제어방법은 도 4, 도 5, 도 7, 도 11에 도시된 단계들을 포함할 수 있다. 이에 따라, 상기 제5 단계(S5)에서, 사전에 결정된 시간이 경과하였다고 판단될 경우 상기 제6 단계(S6)로 진행되고, 사전에 결정된 시간이 경과하지 않았다고 판단될 경우 상기 제3-1-2 단계(S312) 및 상기 제5 단계(S5)로 동시에 진행될 수 있다.
구체적으로, 상기 제2 제어방법은, 체험 전에 상기 체험 영상과 상기 체험 움직임을 편집하는 편집단계 및 체험을 실행하는 실행단계를 포함할 수 있다.
상기 편집 단계에서는, 상기 편집부(310)에서 상기 타임 스탬프 코드(TC), 상기 제1 데이터 베이스(DB1) 및 상기 제2 데이터 베이스(DB2)가 형성되고, 상기 타임 스탬프 코드(TC)가 상기 통합 제어부(320)에 저장되고, 상기 제1 데이터 베이스(DB1)가 상기 영상 제어부(120)에 저장되며, 상기 제2 데이터 베이스(DB2)가 상기 구동 제어부(230)에 저장될 수 있다.
상기 실행단계에서는, 체험자가 상기 탑승장치(200)에 탑승하고 상기 영상장치(100)를 그 체험자의 두부에 장착하면, 체험이 시작될 수 있다.
체험이 시작되면, 제1 단계(S1)에서, 상기 통합 제어부(320)는 최초의 타임 스탬프인 상기 제1 타임 스탬프(T1)를 목표 타임 스탬프(Tk)로 저장할 수 있다.
그 다음, 제2 단계(S2)에서, 상기 통합 제어부(320)는 그 통합 제어부(320)에 저장된 목표 타임 스탬프(Tk)를 상기 영상 제어부(120)와 상기 구동 제어부(230)로 동시에 발송할 수 있다.
그 다음, 제3-1-1 단계(S311)에서, 상기 영상 제어부(120)는 상기 제2 단계(S2)를 통해 수신한 목표 타임 스탬프(Tk)를 상기 제1 데이터 베이스(DB1)에 대입시켜 상기 제1 내지 제n 영상(전방위 영상)(FP1 내지 FPn) 중 그 목표 타임 스탬프(Tk)에 대응되는 영상(전방위 영상)(FPk)을 선택할 수 있다.
그 다음, 제3-1-2 단계(S312)에서, 상기 제1 검출부(130)는 그 제1 검출부(130)의 측정값을 상기 영상 제어부(120)로 발송하고, 상기 제2 검출부(240)는 그 제2 검출부(240)의 측정값을 상기 영상 제어부(120)로 발송할 수 있다.
그 다음, 제3-1-3 단계(S313)에서, 상기 영상 제어부(120)는 상기 제1 검출부(130)의 측정값과 상기 제2 검출부(240)의 측정값을 기초로 체험자의 시야를 연산할 수 있다.
그 다음, 제3-1-4 단계(S314)에서, 상기 영상 제어부(120)는 상기 제3-1-1 단계(S311)에서 선택된 영상(전방위 영상)(FPk) 중 상기 제3-1-3 단계(S313)에서 연산된 체험자의 시야에 대응되는 영상(시야 대응 영상)(VPk)을 선택하여 상기 영상 표시부(110) 및 상기 공용 스크린(400)에 발송할 수 있다.
그 다음, 제3-1-5 단계(S315)에서, 상기 영상 표시부(110)와 상기 공용 스크린(400)은 상기 제3-1-4 단계(S314)를 통해 수신한 영상(VPk)을 각각 재생할 수 있다.
여기서, 상기 공용 스크린(400)은 로직 단순화를 위해 상기 영상 표시부(110)에서 보여지는 영상(VPk)과 동일한 영상을 비체험자에게 제공하도록 형성되나, 이에 한정되는 것은 아니고, 체험자가 여러 명일 경우 어느 체험자에게 제공되는 영상을 상기 공용 스크린(400)에서 재생할 것인지에 대한 문제를 해소하기 위해 후술할 제3 제어방법에서와 같이 상기 영상 표시부(110)에서 보여지는 영상(VPk)과 별개의 영상을 비체험자에게 제공하도록 형성될 수도 있고, 상기 공용 스크린(400)을 운영하기 위해 소요되는 시간과 비용도 절감하기 위해 상기 공용 스크린(400) 자체가 생략될 수도 있다.
한편, 제3-2-1 단계(S321)에서, 상기 구동 제어부(230)는 상기 제2 단계(S2)를 통해 수신한 목표 타임 스탬프(Tk)를 상기 제2 데이터 베이스(DB2)에 대입시켜 상기 제1 내지 제n 움직임(M1 내지 Mn) 중 그 목표 타임 스탬프(Tk)에 대응되는 움직임(Mk)을 선택하고, 그 선택한 움직임(Mk)을 상기 구동부(220)로 발송할 수 있다.
그 다음, 제3-2-2 단계(S322)에서, 상기 구동부(220)는 상기 제3-2-1 단계(S321)를 통해 수신한 움직임을 이행할 수 있다.
한편, 상기 제3-1-4 단계(S314) 및 상기 제3-2-2 단계(S322) 중 적어도 하나가 종료되면, 제4 단계(S4)에서, 상기 통합 제어부(320)는 체험이 종료되었는지 판단할 수 있다. 즉, 상기 통합 제어부(320)는 그 통합 제어부(320)에 저장된 목표 타임 스탬프(Tk)가 최종 타임 스탬프인 제n 타임 스탬프(Tn)와 일치되는지 판단할 수 있다.
그리고, 상기 제4 단계(S4)에서, 체험이 종료되었다고 판단될 경우(목표 타임 스탬프(Tk)가 제n 타임 스탬프(Tn)와 일치할 경우)에는 체험이 종료되고, 체험이 진행중이라고 판단될 경우(목표 타임 스탬프(Tk)가 제n 타임 스탬프(Tn)와 불일치할 경우)에는 후술할 제5 단계(S5)로 진행될 수 있다.
제5 단계(S5)에서는, 상기 통합 제어부(320)가 상기 제2 단계(S2)에서 목표 타임 스탬프(Tk)를 발송한 이후 사전에 결정된 시간(타임 스탬프들 사이 인터벌)이 경과했는지 판단할 수 있다.
그리고, 상기 제5 단계(S5)에서, 사전에 결정된 시간이 경과하였다고 판단될 경우 상기 제6 단계(S6)로 진행되고, 사전에 결정된 시간이 경과하지 않았다고 판단될 경우 상기 제3-1-2 단계(S312) 및 상기 제5 단계(S5)로 동시에 진행될 수 있다.
제6 단계(S6)에서는, 상기 통합 제어부(320)가 지금까지 목표 타임 스탬프(Tk)로 저장하고 있던 타임 스탬프의 다음 타임 스탬프를 새로운 목표 타임 스탬프(Tk)로 저장할 수 있다. 예를 들어, 지금까지 목표 타임 스탬프(Tk)로 저장되어 있던 타임 스탬프가 상기 제1 타임 스탬프(T1)일 경우, 상기 제2 타임 스탬프(T2)가 새로운 목표 타임 스탬프(Tk)로 저장될 수 있다.
그리고, 상기 제6 단계(S6)가 종료된 후에는, 상기 제2 단계(S2)로 복귀될 수 있다.
이러한 구성에 따른 가상현실 체험장치의 경우, 상기 영상 제어부(120) 및 상기 구동 제어부(230)에 인가되는 부담이 경감되어, 상기 영상 제어부(120)의 처리 속도 및 상기 구동 제어부(230)의 처리 속도가 향상되고, 에러 발생율이 감소될 수 있다. 이에 따라, 체험 영상을 더욱 고화질로 형성할 수 있고, 체험 움직임을 더욱 정밀하게 형성할 수 있다. 다만, 이 경우, 동기화 측면에서 불리해지지만, 동기화의 상당 부분이 상기 편집부(310)에서 달성되기 때문에 크게 문제되지 않을 수 있다.
한편, 상기 가상현실 체험장치는 도 12 내지 도 19에 도시된 제3 제어방법으로 운행 가능하게 형성될 수도 있다.
즉, 상기 가상현실 체험장치는, 상기 제1 제어방법으로 운행 가능하게 형성될 경우 대비 대동 소이하게 형성되되, 상기 공용 스크린(400)이 체험자에게 제공되는 체험 영상과 별개의 영상인 상기 전방위 영상(FPk) 중 사전에 결정된 시야로 바라본 영상(SPk)을 비체험자에게 제공하도록 형성될 수 있다.
구체적으로, 상기 편집부(310)는 상기 공용 스크린(400)에서 상기 제1 내지 제n 타임 스탬프(T1 내지 Tn)에 각각 재생될 공용 영상들(SP1 내지 SPn)을 규정하는 제3 데이터 베이스(DB3)를 형성할 수 있다.
그리고, 상기 제3 데이터 베이스(DB3)는 상기 영상 제어부(120)에 저장될 수 있다.
그리고, 상기 영상 제어부(120)는 상기 통합 제어부(320)로부터 수신하는 타임 스탬프(Tk)를 상기 제3 데이터 베이스(DB3)에 대입시켜 상기 공용 영상들(SP1 내지 SPn) 중 수신한 타임 스탬프(Tk)에 대응되는 공용 영상(SPk)을 선택하며, 선택한 공용 영상(SPk)을 상기 공용 스크린(400)으로 발송하도록 형성될 수 있다. 여기서, 상기 공용 스크린(400)으로 발송되는 영상(SPk)은 상기 영상 표시부(110)로 발송되는 영상(VPk)과 상이한 시야로 바라본 영상일 수 있다.
그리고, 상기 영상 제어부(120)는 상기 체험 영상과 동일한 원리로 목표 공용 영상과 실제 공용 영상을 사전에 결정된 주파수(예를 들어, 60Hz) 간격으로 비교하고 일치시키도록 형성될 수 있다. 이에 대한 상세한 설명은 중복 회피를 위해 생략하도록 한다.
이하에서는 상기 제3 제어방법에 대해 설명한다.
상기 제3 제어방법은, 상기 제1 제어방법 대비, 도 3, 도 4, 도 6 내지 도 10에 도시된 단계들이 도 12 내지 도 19에 도시된 단계들로 대체될 수 있다. 즉, 상기 제3 제어방법은 도 12 내지 도 19에 도시된 단계들을 포함할 수 있다.
이에 따라, 상기 편집 단계에서는, 상기 편집부(310)에서 상기 제3 데이터 베이스(DB3)가 더 형성되고, 상기 제3 데이터 베이스(DB3)가 상기 제1 데이터 베이스(DB1)와 함께 상기 영상 제어부(120)에 저장될 수 있다.
그리고, 상기 제3-1-4 단계(S314)에서, 상기 영상 제어부(120)는 상기 제3-1-1 단계(S311)에서 선택된 영상(전방위 영상(FPk)) 중 상기 제3-1-3 단계(S313)에서 연산된 체험자의 시야에 대응되는 영상(시야 대응 영상(VPk))을 선택하여 상기 영상 표시부(110)에 발송할 수 있다.
그리고, 상기 제3-1-5 단계(S315)에서, 상기 영상 표시부(110)는 상기 제3-1-4 단계(S314)를 통해 수신한 영상(VPk)을 재생할 수 있다.
그리고, 제3-3-1 단계(S331)에서, 상기 영상 제어부(120)는 상기 제2 단계(S2)를 통해 수신한 목표 타임 스탬프(Tk)를 상기 제3 데이터 베이스(DB3)에 대입시켜 상기 공용 영상들(SP1 내지 SPk) 중 그 목표 타임 스탬프(Tk)에 대응되는 공용 영상(SPk)을 선택하여 상기 공용 스크린(400)에 발송할 수 있다.
그리고, 제3-3-2 단계(S332)에서, 상기 공용 스크린(400)은 상기 제3-3-1 단계(S331)를 통해 수신한 공용 영상(SPk)을 재생할 수 있다.
그리고, 상기 제3-1-4 단계(S314), 상기 제3-2-2 단계(S322) 및 상기 제3-3-2 단계(S332) 중 적어도 하나가 종료되면, 상기 제4 단계(S4)로 진행될 수 있다.
그리고, 상기 제5 단계(S5)에서, 사전에 결정된 시간이 경과하지 않았다고 판단될 경우 상기 제7-1-1 단계(S711), 상기 제7-2-1 단계(S721) 및 후술할 제7-3-1 단계(S731)로 동시에 진행될 수 있다.
제7-3-1 단계(S731)에서, 상기 영상 제어부(120)는 상기 공용 스크린(400)에서 재생되고 있는 공용 영상에 대응되는 타임 스탬프인 실제 타임 스탬프(Tk''')를 산출할 수 있다.
그 다음, 제7-3-2 단계(S732)에서, 상기 영상 제어부(120)는 상기 제7-3-1 단계(S731)에서 산출된 실제 타임 스탬프(Tk''')가 상기 제2 단계(S2)를 통해 수신한 목표 타임 스탬프(Tk)와 일치되는지 판단할 수 있다.
그리고, 상기 제7-3-2 단계(S732)에서, 목표 타임 스탬프(Tk)와 실제 타임 스탬프(Tk''')가 일치된다고 판단될 경우 상기 제2 단계(S2)로 복귀되고, 목표 타임 스탬프(Tk)와 실제 타임 스탬프(Tk''')가 불일치된다고 판단될 경우 후술할 제7-3-3 단계(S733)로 진행될 수 있다.
제7-3-3 단계(S733)에서, 상기 영상 제어부(120)는 실제 타임 스탬프(Tk''')가 목표 타임 스탬프(Tk)보다 이른 시점인지 판단할 수 있다.
그리고, 상기 제7-3-3 단계(S733)에서, 실제 타임 스탬프(Tk''')가 목표 타임 스탬프(Tk)보다 이른 시점이라 판단될 경우 후술할 제7-3-4 단계(S734)로 진행되고, 실제 타임 스탬프(Tk')가 목표 타임 스탬프(Tk)보다 나중 시점이라 판단될 경우 후술할 제7-3-5 단계(S735)로 진행될 수 있다.
제7-3-4 단계(S734)에서, 상기 영상 제어부(120)는 상기 공용 스크린(400)이 상기 실제 타임 스탬프(Tk''')에 대응되는 공용 영상과 상기 목표 타임 스탬프(Tk)에 대응되는 공용 영상 사이의 공용 영상들을 사전에 결정된 재생속도보다 빠른 재생속도로 재생하도록 상기 공용 스크린(400)에 지시를 내릴 수 있다.
상기 제7-3-4 단계(S734)가 종료되면, 상기 제2 단계(S2)로 복귀될 수 있다.
제7-3-5 단계(S735)에서, 상기 영상 제어부(120)는 상기 공용 스크린(400)이 상기 실제 타임 스탬프(Tk''')에 대응되는 공용 영상 이후의 공용 영상들을 사전에 결정된 재생속도보다 느린 재생속도로 재생하도록 상기 공용 스크린(400)에 지시를 내릴 수 있다. 또는, 상기 영상 제어부(120)는 상기 공용 스크린(400)이 상기 실제 타임 스탬프(Tk''')에 대응되는 공용 영상을 반복적으로 재생하도록 상기 공용 스크린(400)에 지시를 내릴 수 있다.
상기 제7-3-5 단계(S735)가 종료되면, 상기 제2 단계(S2)로 복귀될 수 있다.
여기서, 상기 제7-3-1 내지 7-3-5 단계(S731 내지 S735)는 사전에 결정된 주파수(예를 들어, 60Hz) 간격으로 실행될 수 있다.
이러한 구성에 따른 가상현실 체험장치의 경우, 체험자가 여러 명일 경우에도 공용 영상을 제공하여 홍보 및 체험자 유치를 할 수 있다.
한편, 전술한 실시예에 따른 가상현실 체험장치는, 체험자가 마치 영화를 관람하듯이 가상현실 체험을 하도록, 상기 체험 영상과 상기 체험 움직임이 체험자의 의지와는 무관하게 시간의 흐름에 따라 사전에 결정된 영상과 움직임이 제공되도록 형성된다. 하지만, 도 20 내지 도 24에 도시된 바와 같이, 가상현실 체험장치는, 체험자가 마치 게임을 하듯이 가상현실 체험을 하도록, 상기 체험 영상과 상기 체험 움직임이 체험자의 의지에 대응되는 영상과 움직임으로 제공되도록 형성될 수 있다.
도 20은 본 발명의 다른 실시예에 따른 가상현실 체험장치의 구성요소를 도시한 계통도이고, 도 21은 도 20의 가상현실 체험장치에 대한 제어방법의 일부를 도시한 순서도이고, 도 22 내지 도 24는 각각 도 21의 제어방법의 다른 일부를 도시한 순서도이다.
이 경우, 상기 영상장치(100), 상기 탑승장치(200) 및 상기 제어장치(미도시)는 전술한 실시예와 대동소이하게 형성될 수 있다.
다만, 이 경우, 상기 체험 영상이 체험자의 의지에 대응되는 영상으로 제공되고, 상기 체험 움직임이 체험자의 의지에 대응되는 움직임으로 제공되게 형성될 수 있다.
구체적으로, 본 실시예에 따른 가상현실 체험장치는, 상기 영상장치(100), 상기 탑승장치(200), 상기 제어장치(미도시) 및 상기 공용 스크린(400)을 포함하고, 체험자로부터 입력 데이터를 수신하는 조작장치(500)를 더 포함하며, 상기 영상장치(100)가 상기 입력 데이터에 대응되는 가상현실 영상을 체험자에게 제공하고, 상기 탑승장치(200)가 상기 입력 데이터에 대응되는 물리적 움직임을 체험자에게 제공하도록 형성될 수 있다.
상기 조작장치(500)는, 상기 입력 데이터가 위치, 방향성, 속도, 가속도, 회전 등에 대한 정보를 포함하도록, 예를 들어 조이스틱, 햅틱 디바이스, 버튼, 체험자의 시선 이동을 측정하는 센서(상기 제1 검출부(130)) 등으로 형성될 수 있다.
그리고, 상기 체험 영상은 상기 입력 데이터에 기초한 게임 컨텐츠로 형성될 수 있다.
상기 영상장치(100)와 상기 탑승장치(200)는 각각 마스터(master) 장치로 형성될 수 있다. 즉, 상기 영상장치(100)가 상기 조작장치(500)로부터 상기 입력 데이터를 수신하고 그 입력 데이터에 기초하여 상기 체험 영상을 제공하도록 형성되고, 상기 탑승장치(200)도 상기 조작장치(500)로부터 상기 입력 데이터를 수신하고 그 입력 데이터에 기초하여 상기 체험 움직임을 제공하도록 형성될 수 있다. 하지만, 이 경우, 상기 제1 데이터 베이스(DB1)와 상기 제2 데이터 베이스(DB2)의 용량이 커지고, 그 제1 데이터 베이스(DB1)와 제2 데이터 베이스(DB2)를 형성하는데 상당한 시간과 비용이 소요될 수 있다.
이를 고려하여, 본 실시예와 같이, 상기 영상장치(100)는 마스터 장치로 형성되고, 상기 탑승장치(200)는 슬레이브(slave) 장치로 형성될 수 있다. 즉, 상기 영상장치(100)는 상기 조작장치(500)로부터 상기 입력 데이터를 수신하고 그 입력 데이터에 기초하여 상기 체험 영상을 제공하도록 형성되나, 상기 탑승장치(200)는 상기 체험 영상을 기초로 상기 체험 움직임을 제공하도록 형성될 수 있다. 여기서, 상기 탑승장치(200)가 마스터 장치로 형성되고, 상기 영상장치(100)가 슬레이브 장치로 형성될 수도 있으나, 상기 영상장치(100)가 상기 탑승장치(200)보다 제약이 크므로, 상기 영상장치(100)가 마스터 장치로 형성되고 상기 영상장치(100)가 슬레이브 장치로 형성되는 것이 바람직할 수 있다.
이를 위하여, 상기 편집부(310)는 상기 제1 데이터 베이스(DB1)를 상기 체험 영상이 상기 입력 데이터에 따라 가변되게 형성하고, 상기 제2 데이터 베이스(DB2)를 상기 체험 영상에 따라 가변되게 형성할 수 있다. 즉, 상기 제1 데이터 베이스(DB1)는 상기 입력 데이터가 입력값이 되고 상기 체험 영상이 출력값이 되도록 형성되고, 상기 제2 데이터 베이스(DB2)튼 상기 체험 영상이 입력값이 되고 상기 체험 움직임이 출력값이 되도록 형성될 수 있다.
그리고, 상기 제어부(C)는, 상기 제1 데이터 베이스(DB1)와 상기 제2 데이터 베이스(DB2)를 저장하고, 상기 조작장치(500)로부터 상기 입력 데이터를 수신하며, 상기 제1 데이터 베이스(DB1), 상기 제2 데이터 베이스(DB2) 및 상기 입력 데이터에 기초하여 상기 영상장치(100)(더욱 정확히는, 영상 표시부(110))와 상기 구동장치(더욱 정확히는, 구동부(220))를 제어하도록 형성될 수 있다. 즉, 상기 제어부(C)는, 상기 조작장치(500)로부터 수신하는 입력 데이터를 상기 제1 데이터 베이스(DB1)에 대입시켜 그 입력 데이터에 대응되는 체험 영상을 선택하고, 선택한 체험 영상을 상기 영상 표시부(110)에 발송하고, 그 선택한 체험 영상을 상기 제2 데이터 베이스(DB2)에 대입시켜 그 영상에 대응되는 움직임을 선택하여 상기 구동부(220)로 발송하도록 형성될 수 있다.
그리고, 상기 제어부(C)는, 체험 중 동기화를 위해, 목표 움직임과 실제 움직임을 사전에 결정된 시간(예를 들어, 12ms) 간격으로 비교하고 일치시키도록 형성될 수 있다.
구체적으로, 상기 제2 검출부(240)의 측정값이 상기 제어부(C)에 전송되고, 상기 제어부(C)는 상기 제2 검출부(240)의 측정값에 대응되는 실제 움직임을 상기 구동부(220)로 발송한 목표 움직임과 비교하도록 형성될 수 있다.
그리고, 상기 제어부(C)는, 실제 움직임이 목표 움직임과 상이할 경우, 상기 구동부(220)가 사전에 결정된 구동속도보다 빠른 구동속도로 이행하도록 지시를 내릴 수 있다.
이러한 구성에 따른 가상현실 체험장치는 도 21 내지 도 24에 도시된 실시간 제어방법으로 운행될 수 있다.
즉, 편집 단계에서는, 상기 편집부(310)에서 상기 제1 데이터 베이스(DB1) 및 상기 제2 데이터 베이스(DB2)가 형성되고, 상기 제1 데이터 베이스(DB1)와 상기 제2 데이터 베이스(DB2)가 상기 제어부(C)에 저장될 수 있다.
실행단계에서는, 체험자가 상기 탑승장치(200)에 탑승하고 상기 영상장치(100)를 그 체험자의 두부에 장착하면, 체험이 시작될 수 있다.
체험이 시작되면, 제1' 단계(S1')에서, 상기 조작장치(500)는 체험자로부터 상기 입력 데이터를 수신할 수 있다.
그 다음, 제2' 단계(S2')에서, 상기 조작장치(500)는 상기 제1' 단계(S1')를 통해 수신한 입력 데이터를 상기 제어부(C)로 발송할 수 있다.
그 다음, 제3' 단계(S3')에서, 상기 제어부(C)는 상기 제2' 단계(S2')를 통해 수신한 입력 데이터를 상기 제1 데이터 베이스(DB1)에 대입시켜 그 입력 데이터에 대응되는 영상(전방위 영상)(FPk)을 선택할 수 있다.
그 다음, 제4-1-1' 단계(S411')에서, 상기 제1 검출부(130)는 그 제1 검출부(130)의 측정값을 상기 제어부(C)로 발송하고, 상기 제2 검출부(240)는 그 제2 검출부(240)의 측정값을 상기 제어부(C)로 발송할 수 있다.
그 다음, 제4-1-2' 단계(S412')에서, 상기 제어부(C)는 상기 제1 검출부(130)의 측정값과 상기 제2 검출부(240)의 측정값을 기초로 체험자의 시야를 연산할 수 있다.
그 다음, 제4-1-3' 단계(S413')에서, 상기 제어부(C)는 상기 제3' 단계(S3')에서 선택된 영상(전방위 영상)(FPk) 중 상기 제4-1-2' 단계(S412')에서 연산된 체험자의 시야에 대응되는 영상(시야 대응 영상)(VPk)을 선택하여 상기 영상 표시부(110) 및 상기 공용 스크린(400)에 발송할 수 있다.
그 다음, 제4-1-4' 단계(S414')에서, 상기 영상 표시부(110)와 상기 공용 스크린(400)은 상기 제4-1-3' 단계(S413')를 통해 수신한 영상(VPk)을 각각 재생할 수 있다.
한편, 제4-2-1' 단계(S421')에서, 상기 제어부(C)는 상기 제3' 단계(S3')에서 선택된 영상(전방위 영상)(FPk)에 대응되는 움직임(Mk)을 선택하고, 그 선택한 움직임(Mk)을 상기 구동부(220)로 발송할 수 있다.
그 다음, 제4-2-2' 단계(S422')에서, 상기 구동부(220)는 상기 제4-2-1' 단계(S421')를 통해 수신한 움직임(Mk)을 이행할 수 있다.
한편, 상기 제4-1-4' 단계(S414') 및 상기 제4-2-2' 단계(S422') 중 적어도 하나가 종료되면, 제5' 단계(S5')에서, 상기 제어부(C)는 체험이 종료되었는지 판단할 수 있다. 즉, 상기 제어부(C)는 별도로 설정된 체험 종료 조건(예를 들어, 게임 컨텐츠 상 게임 오버)이 충족되었는지 판단할 수 있다.
그리고, 상기 제5' 단계(S5')에서, 체험이 종료되었다고 판단될 경우(체험 종료 조건이 충족된 경우)에는 체험이 종료되고, 체험이 진행중이라고 판단될 경우(체험 종료 조건이 불충족된 경우)에는 후술할 제6' 단계(S6')로 진행될 수 있다.
제6' 단계(S6')에서는, 상기 제2 검출부(240)가 그 제2 검출부(240)의 측정값(구동부(220)의 실제 움직임)을 상기 제어부(C)로 발송할 수 있다.
그 다음, 제7' 단계(S7')에서, 상기 제어부(C)는 상기 제6' 단계(S6')를 통해 수신한 제2 검출부(240)의 측정값(구동부(220)의 실제 움직임)(Mk')이 구동부(220)의 목표 움직임(Mk)과 일치되는지 판단할 수 있다.
그리고, 상기 제7' 단계(S7')에서, 구동부(220)의 실제 움직임(Mk')과 목표 움직임(Mk)이 일치된다고 판단될 경우 상기 제1' 단계(S1')로 복귀되고, 구동부(220)의 실제 움직임(Mk')과 목표 움직임(Mk)이 불일치된다고 판단될 경우 후술할 제8' 단계(S8')로 진행될 수 있다.
제8' 단계(S8')에서, 상기 제어부(C)는 상기 구동부(220)가 사전에 결정된 구동속도보다 빠른 구동속도로 이행하도록 그 구동부(220)에 지시를 내릴 수 있다.
상기 제8' 단계(S8')가 종료되면, 상기 제1' 단계(S1')로 복귀될 수 있다.
여기서, 상기 제6' 단계(S6') 내지 제8' 단계(S8')는 사전에 결정된 시간 간격(예를 들어, 12ms)으로 실행될 수 있다.
한편, 전술한 실시예들의 경우 상기 구동부(220)가 로봇암(221)으로 형성되나, 도 25 및 도 29에 도시된 바와 같이 상기 구동부(220)가 상기 탑승부(210)에 피칭(Pitching), 요잉(Yawing), 롤링(Rolling) 및 왕복 운동을 발생시키는 자이로 기구(222)로 형성될 수 있다. 여기서, 왕복 운동이란 상기 탑승부(210)가 상기 자이로 기구(222)를 지지하는 구조물(223)로부터 멀어지고 가까워지는 방향으로 운동되는 것을 의미한다.
도 25는 본 발명의 또 다른 실시예에 따른 가상현실 체험장치를 도시한 사시도이고, 도 26 내지 도 29는 각각 도 25의 가상현실 체험장치가 제공하는 움직임을 도시한 평면도이다.
상기 자이로 기구(222)는 도 27에 도시된 바와 같이 상기 탑승부(210)에 요잉을 발생시키고 도 29에 도시된 바와 같이 상기 탑승부(210)에 왕복 운동을 발생시키는 제1 기구(2221), 도 26에 도시된 바와 같이 상기 탑승부(210)에 피칭을 발생시키는 제2 기구(2222) 및 도 28에 도시된 바와 같이 상기 탑승부(210)에 롤링을 발생시키는 제3 기구(2223)를 포함할 수 있다.
상기 제1 기구(2221)는 상기 구조물(223)을 기준으로 회전 및 왕복 운동 가능하게 형성될 수 있다.
구체적으로, 상기 구조물(223)에는 상기 제1 기구(2221)가 삽입되는 제1 체결홈(미도시)이 형성되고, 상기 제1 기구(2221)는 상기 제1 체결홈(미도시)에 삽입되는 베이스부(2221a) 및 상기 베이스부(2221a)로부터 상기 구조물(223)의 반대측으로 연장되고 상기 제2 기구(2222)를 지지하는 암부(2221b)를 포함할 수 있다.
상기 베이스부(2221a)는 상기 제1 체결홈(미도시)에 삽입된 상태에서 그 제1 체결홈(미도시)의 깊이 방향을 회전축으로 하여 회전 가능하게 형성되고, 상기 제1 체결홈(미도시)의 깊이방향으로 왕복 운동 가능하게 형성될 수 있다.
그리고, 상기 구조물(223)과 상기 제1 기구(2221)(더욱 정확히는, 베이스부(2221a)) 사이에는 상기 제1 기구(2221)의 회전 운동에 필요한 구동력을 발생시키는 제1 액추에이터(미도시) 및 상기 제1 기구(2221)의 왕복 운동에 필요한 구동력을 발생시키는 제2 액추에이터(미도시)가 형성될 수 있다.
상기 제1 액추에이터(미도시)와 상기 제2 액추에이터(미도시)는 각각 모터, 감속기 및 동력 전달 기구(예들 들어, 풀리, 스프라켓, 벨트, 체인)를 구비하여 구성될 수 있다.
여기서, 별도로 도시하지는 않았지만, 상기 제1 기구(2221)는 상기 구조물(223)을 기준으로 회전 가능하고, 상기 제2 기구(2222)를 지지하는 부위가 상기 구조물(223)로부터 멀어지고 가까워지는 방향으로 왕복 운동 가능하게 형성될 수도 있다. 즉, 상기 암부(2221b)는 상기 베이스부(2221a)와 고정 결합되는 제1 암부(2221ba) 및 상기 제2 기구(2222)를 지지하면서 상기 제1 암부(2221ba)에 대해 왕복 운동 가능하게 결합되는 제2 암부(2221bb)를 포함하고, 상기 베이스부(2221a)는 상기 제1 체결홈(미도시)에 삽입된 상태에서 그 제1 체결홈(미도시)의 깊이 방향을 회전축으로 하여 회전 운동만 가능하게 형성될 수 있다. 이 경우, 상기 구조물(223)과 상기 제1 기구(2221) 사이에는 상기 제1 액추에이터(미도시)가 형성되고, 상기 제1 암부(2221ba)와 상기 제2 암부(2221bb) 사이에는 상기 제2 암부(2221bb)의 왕복 운동에 필요한 구동력을 발생시키는 제2 액추에이터(미도시)가 형성될 수 있다.
상기 제2 기구(2222)는 상기 제1 기구(2221)(더욱 정확히는, 암부(2221b))에 지지되고, 상기 제1 기구(2221)의 회전축에 수직한 방향으로 회전 가능하게 형성될 수 있다.
구체적으로, 상기 제1 기구(2221)의 암부(2221b)에는 상기 제1 체결홈(미도시)의 깊이 방향과 수직한 방향으로 연장되는 제2 체결홈(미도시)에 형성되고, 상기 제2 기구(2222)는 상기 제2 체결홈(미도시)에 삽입되는 힌지부(미도시) 및 상기 힌지부(미도시)로부터 환형으로 연장되고 상기 제3 기구(2223)를 지지하는 환형부(2222b)를 포함할 수 있다. 여기서, 상기 힌지부(미도시)는 상기 환형부(2222b)의 외주부로부터 그 환형부(2222b)의 반경방향으로 연장되게 형성될 수 있다.
상기 힌지부(미도시)는 상기 제2 체결홈(미도시)에 삽입된 상태에서 그 제2 체결홈(미도시)의 깊이 방향을 회전축으로 하여 회전 가능하게 형성될 수 있다.
그리고, 상기 제1 기구(2221)의 암부(2221b)와 상기 제2 기구(2222)(더욱 정확히는, 힌지부(미도시)) 사이에는 상기 제2 기구(2222)의 회전 운동에 필요한 구동력을 발생시키는 제3 액추에이터(미도시)가 형성될 수 있다.
상기 제3 액추에이터(미도시)는 상기 제1 액추에이터(미도시)와 유사하게 형성될 수 있다.
상기 제3 기구(2223)는 상기 제2 기구(2222)(더욱 정확히는, 환형부(2222b))에 지지되고, 상기 제1 기구(2221)의 회전축과 상기 제2 기구(2222)의 회전축에 수직한 방향으로 회전 가능하게 형성될 수 있다. 이때, 상기 탑승부(210)은 상기 제3 기구(2223)에 고정 결합될 수 있다.
구체적으로, 상기 제3 기구(2223)는 상기 제2 기구(2222)(더욱 정확히는, 환형부(2222b))와 동심을 이루는 환형으로 형성되고, 그 제3 기구(2223)의 외주면이 상기 제2 기구(2222)(더욱 정확히는, 환형부(2222b))의 내주면에 회전 가능하게 결합될 수 있다.
그리고, 상기 제2 기구(2222)의 내주면과 상기 제3 기구(2223)의 외주면 사이에는 상기 제3 기구(2223)의 회전 운동에 필요한 구동력을 발생시키는 제4 액추에이터(미도시)가 형성될 수 있다.
여기서, 상기 제3 기구(2223)는 그 제3 기구(2223)의 외주면 전체가 상기 제2 기구(2222)의 내주면 전체에 대향된 상태로 그 제2 기구(2222)의 내주면에 대해 원주방향으로 슬라이딩 가능하게 결합될 수 있다.
이러한 구성에 따른 상기 자이로 기구(222)를 포함하는 가상현실 장치는 상기 로봇암(221)을 포함하는 가상현실 장치에 비하여 더욱 협소한 공간에서도 체험자에게 상기 체험 움직임을 제공할 수 있다.
한편, 도 25 내지 도 29에 도시된 실시예의 경우 상기 자이로 기구(222)는 피칭, 요잉, 롤링 및 왕복 운동을 모두 제공 가능하게 형성되나, 상기 자이로 기구(222)가 피칭, 요잉, 롤링 및 왕복 운동 중 일부만 제공 가능하게 형성될 수도 있다.
한편, 상기 구동부(220)는, 도 30 내지 도 34에 도시된 바와 같이, 상기 로봇암(221) 및 상기 자이로 기구(222)를 구비하여 구성될 수도 있다. 이때, 상기 탑승부(210)는 상기 자이로 기구(222)의 제3 기구(2223)에 결합되고, 상기 자이로 기구(222)는 상기 로봇암(221)의 자유 단부에 결합될 수 있다.
도 30은 본 발명의 또 다른 실시예에 따른 가상현실 체험장치를 도시한 사시도이고, 도 31 내지 도 34은 각각 도 30의 가상현실 체험장치가 제공하는 움직임을 도시한 사시도이다.
이 경우, 상기 로봇암(221)으로 구현할 수 없는 움직임을 제공할 수 있다.
예를 들어, 도 31 및 도 32를 참조하면, 상기 로봇암(221)이 상기 탑승부(210)를 상방 최대치로 위치시킨 상태에서, 상기 자이로 기구(222)가 상기 탑승부(210)에 피칭, 요잉, 롤링 및 왕복 운동 중 적어도 하나를 발생시켜, 체험자가 상측 최대 위치에서도 다양한 포지션을 취할 수 있다.
다른 예로, 도 33을 참조하면, 상기 로봇암(221)이 상기 탑승부(210)를 전방 최대치로 위치시킨 상태에서 상기 자이로 기구(222)가 상기 탑승부(210)에 피칭, 요잉, 롤링 및 왕복 운동 중 적어도 하나를 발생시켜, 체험자가 전방측 최대 위치에서도 다양한 포지션을 취할 수 있다.
또 다른 예로, 도 34를 참조하면, 상기 로봇암(221)이 지면을 기준으로 상기 탑승부(210)를 공전시키고 있는 상태에서 상기 자이로 기구(222)가 상기 탑승부(210)에 피칭, 요잉, 롤링 및 왕복 운동 중 적어도 하나를 가하여, 체험자가 공전되고 있는 상태에서 자전될 수도 있고, 다양한 포지션을 취할 수도 있다.
이에 의하여, 상기 구동부(220)가 제공하는 움직임의 한계가 감소되어, 영상 제작의 자유도가 향상되며, 결과적으로 구현하고자 하는 가상현실의 제약을 감소시킬 수 있다.
100: 영상장치 110: 영상 표시부
120: 영상 제어부 130: 제1 검출부
200: 탑승장치 210: 탑승부
220: 구동부 221: 로봇암
222: 자이로 기구 223: 구조물
230: 구동 제어부 240: 제2 검출부
310: 편집부 320: 통합 제어부
400: 공용 스크린 500: 조작장치
2221: 제1 기구 2222: 제2 기구
2223: 제3 기구

Claims (10)

  1. 체험자에게 영상을 제공하는 영상장치; 및
    체험자에게 움직임을 제공하는 탑승장치;를 포함하고,
    상기 영상장치는 그 영상장치의 움직임을 검출하는 제1 검출부를 포함하고, 상기 탑승장치는 그 탑승장치의 움직임을 검출하는 제2 검출부를 포함하고, 상기 제1 검출부의 측정값에서 상기 제2 검출부의 측정값이 차감되고, 그 차감된 값으로부터 체험자의 시야가 연산되며, 체험자를 둘러싸는 전방위 영상 중 연산된 시야에 대응되는 영상이 상기 영상장치에서 제공되도록 형성되고,
    상기 탑승장치는, 체험자에게 탑승 가능한 공간을 제공하는 탑승부; 및 상기 탑승부에 피칭, 요잉, 롤링 및 왕복 운동 중 적어도 하나를 발생시키는 자이로 기구;를 더 포함하고,
    상기 자이로 기구는, 상기 탑승부에 요잉 및 왕복 운동을 발생시키는 제1 기구; 상기 탑승부에 피칭을 발생시키는 제2 기구; 및 상기 탑승부에 롤링을 발생시키는 제3 기구;를 포함하고,
    상기 자이로 기구를 지지하는 구조물에는 상기 제1 기구가 삽입되는 제1 체결홈이 형성되고,
    상기 제1 기구는, 상기 제1 체결홈에 삽입된 상태에서 상기 제1 체결홈의 깊이 방향을 회전축으로 하여 회전 가능한 베이스부; 상기 베이스부와 고정 결합되는 제1 암부; 및 상기 제2 기구를 지지하면서 상기 구조물로부터 멀어지고 가까워지는 방향으로 상기 제1 암부에 왕복 운동 가능하게 결합되는 제2 암부;를 포함하고,
    상기 제2 기구는 상기 제2 암부에 지지되고, 상기 베이스부의 회전축에 수직한 축을 기준으로 회전 가능하게 형성되고,
    상기 제3 기구는 상기 제2 기구에 지지되고, 상기 제2 기구의 회전축에 수직한 축을 기준으로 회전 가능하게 형성되며,
    상기 탑승부는 상기 제3 기구에 결합되는 가상현실 체험장치.
  2. 제1항에 있어서,
    상기 영상장치는 헤드 마운트 디스플레이(HMD: Head Mount Display) 기기로 형성되는 가상현실 체험장치.
  3. 제1항에 있어서,
    상기 제1 검출부는 상기 영상장치에 설치되는 자이로(Gyro) 센서로 형성되는 가상현실 체험장치.
  4. 제1항에 있어서,
    상기 제2 검출부는 상기 탑승부에 설치되어 그 탑승부의 움직임을 검출하는 자이로 센서로 형성되는 가상현실 체험장치.
  5. 제1항에 있어서,
    상기 탑승장치는 복수의 자유도를 갖는 로봇암을 더 포함하고,
    상기 자이로 기구는 상기 로봇암의 자유 단부에 결합되는 것을 특징으로 하는 가상현실 체험장치.
  6. 제5항에 있어서,
    상기 제2 검출부는 상기 로봇암의 각 관절 움직임에 대한 데이터로부터 상기 탑승부의 움직임을 연산하는 RSI(Robot Sensor Interface) 방식으로 형성되는 가상현실 체험장치.
  7. 제1항에 있어서,
    비체험자에게 영상을 제공하는 공용 스크린을 더 포함하는 가상현실 체험장치.
  8. 제7항에 있어서,
    상기 공용 스크린은 체험자에게 제공되고 있는 영상과 동일한 영상을 비체험자에게 제공하도록 형성되는 가상현실 체험장치.
  9. 제7항에 있어서,
    상기 공용 스크린은 상기 전방위 영상 중 사전에 결정된 시야로 바라본 영상을 비체험자에게 제공하도록 형성되는 가상현실 체험장치.
  10. 제1항에 있어서,
    체험자로부터 입력 데이터를 수신하는 조작장치를 더 포함하고,
    상기 영상장치는 상기 입력 데이터에 대응되는 영상을 제공하고, 구동부는 상기 입력 데이터에 대응되는 움직임을 제공하도록 형성되는 가상현실 체험장치.
KR1020180060339A 2016-03-11 2018-05-28 가상현실 체험장치 KR101914141B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20160029466 2016-03-11
KR1020160029466 2016-03-11

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020160123258A Division KR20170106161A (ko) 2016-03-11 2016-09-26 가상현실 체험장치

Publications (2)

Publication Number Publication Date
KR20180063002A KR20180063002A (ko) 2018-06-11
KR101914141B1 true KR101914141B1 (ko) 2018-12-28

Family

ID=60033927

Family Applications (6)

Application Number Title Priority Date Filing Date
KR1020160123259A KR101885127B1 (ko) 2016-03-11 2016-09-26 가상현실 체험장치
KR1020160123260A KR20170106163A (ko) 2016-03-11 2016-09-26 가상현실 체험장치
KR1020160123258A KR20170106161A (ko) 2016-03-11 2016-09-26 가상현실 체험장치
KR1020160123261A KR101885128B1 (ko) 2016-03-11 2016-09-26 가상현실 체험장치
KR1020180060340A KR101914140B1 (ko) 2016-03-11 2018-05-28 가상현실 체험장치
KR1020180060339A KR101914141B1 (ko) 2016-03-11 2018-05-28 가상현실 체험장치

Family Applications Before (5)

Application Number Title Priority Date Filing Date
KR1020160123259A KR101885127B1 (ko) 2016-03-11 2016-09-26 가상현실 체험장치
KR1020160123260A KR20170106163A (ko) 2016-03-11 2016-09-26 가상현실 체험장치
KR1020160123258A KR20170106161A (ko) 2016-03-11 2016-09-26 가상현실 체험장치
KR1020160123261A KR101885128B1 (ko) 2016-03-11 2016-09-26 가상현실 체험장치
KR1020180060340A KR101914140B1 (ko) 2016-03-11 2018-05-28 가상현실 체험장치

Country Status (6)

Country Link
US (2) US10593115B2 (ko)
EP (1) EP3318958B1 (ko)
JP (1) JP6698825B2 (ko)
KR (6) KR101885127B1 (ko)
CN (3) CN107533377B (ko)
SG (1) SG11201709253YA (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210101459A (ko) * 2020-02-10 2021-08-19 주식회사 스토익엔터테인먼트 Vr 시스템 탑승 장비 제어 장치 및 방법

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9132352B1 (en) 2010-06-24 2015-09-15 Gregory S. Rabin Interactive system and method for rendering an object
KR102423644B1 (ko) * 2017-11-28 2022-07-21 주식회사 상화 통합 플랫폼
KR102167316B1 (ko) 2017-12-21 2020-10-20 주식회사 상화 체험장치
KR102083529B1 (ko) * 2017-12-21 2020-03-02 주식회사 상화 체험장치
KR102083528B1 (ko) * 2017-12-21 2020-03-02 주식회사 상화 체험장치
CN108339256A (zh) * 2018-02-26 2018-07-31 张石均 虚拟现实健身装置及其控制方法
PT3539628T (pt) 2018-03-16 2020-12-11 Vr Coaster Gmbh & Co Kg Dispositivo de sincronização para a sincronização de dispositivos de exibição montados na cabeça com um mundo virtual num passeio de diversão, passeio de diversão com um tal dispositivo de sincronização, bem como processo para a operação de um tal passeio de diversão
TWI676161B (zh) * 2018-05-04 2019-11-01 智崴資訊科技股份有限公司 體感模擬裝置
KR102139050B1 (ko) * 2018-06-20 2020-07-29 한국과학기술연구원 가상현실 네비게이션을 위한 인터랙션 장치의 점프 인식 방법
KR102205691B1 (ko) * 2018-11-23 2021-01-21 주식회사 쓰리디아이 Vr 모션 플랫폼을 위한 멀미저감 방법 및 장치
CN109876462B (zh) * 2018-12-17 2020-07-10 黎凯俊 一种具有离心配重系统的虚拟现实高空飞行体验装置
US10828573B1 (en) * 2019-05-23 2020-11-10 Disney Enterprises, Inc. Interactive toy
CN110327632A (zh) * 2019-07-04 2019-10-15 北京圣威特科技有限公司 一种基于agv运动系统的虚拟现实运动平台
CN110152289B (zh) * 2019-07-08 2022-08-16 青岛海科虚拟现实研究院 一种基于vr模拟的体感座椅
CN110152312B (zh) * 2019-07-08 2020-11-03 青岛海科虚拟现实研究院 一种基于vr模拟的飞行体感装置
US10997949B2 (en) * 2019-10-04 2021-05-04 Facebook Technologies, Llc Time synchronization between artificial reality devices
KR102319074B1 (ko) * 2019-12-11 2021-11-02 주식회사 시공테크 3축 움직임이 가능한 행잉 시뮬레이터 시스템 및 그 방법
KR102286502B1 (ko) * 2020-11-27 2021-08-05 마루전자 주식회사 탑승체 모터 제어 장치 및 그 제어 방법
CN113101642B (zh) * 2021-04-06 2023-11-28 长沙理工大学 一种虚拟现实自助游戏设备
KR102684795B1 (ko) 2023-11-28 2024-07-15 주식회사 동아테크 보안경 성능 체험장치

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003510864A (ja) 1999-09-22 2003-03-18 カナデアン スペース エージェンシー 頭に装着するディスプレイのための時間/動きを補償する方法およびシステム
US20060178221A1 (en) * 2002-03-22 2006-08-10 Threlkel David V Amusement ride
JP5092279B2 (ja) * 2006-05-23 2012-12-05 株式会社島津製作所 ヘッドモーショントラッカ装置及びその使用方法
US20150269780A1 (en) * 2014-03-18 2015-09-24 Dreamworks Animation Llc Interactive multi-rider virtual reality ride system

Family Cites Families (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS51136777U (ko) 1975-04-25 1976-11-04
US5060932A (en) * 1989-05-25 1991-10-29 Nisshinbo Techno Vehicle Inc. Amusement apparatus having rotary capsule
US5489212A (en) * 1990-07-02 1996-02-06 Sega Enterprises Ltd. Rotating simulator and body holding apparatus therefor
JPH0440691U (ko) 1990-08-06 1992-04-07
JP3211064B2 (ja) 1991-04-18 2001-09-25 大成建設株式会社 3次元空間内運動装置
JP3211063B2 (ja) 1991-04-18 2001-09-25 大成建設株式会社 3次元空間内運動装置
US5725435A (en) * 1993-08-13 1998-03-10 De Castro Faria; Mario Sergio Electro-mechanical amusement simulator with gravitational effects
US5768122A (en) * 1995-11-14 1998-06-16 Coard Technology Virtual motion programming and control
US5702307A (en) * 1996-04-11 1997-12-30 Moran; Kristen G. Pivotal, spherically shaped, motion simulator-with shifting means for controlling its' center of gravity
US5759107A (en) * 1996-10-03 1998-06-02 Amusement Technologies, Inc. Gyroscopic amusement apparatus
KR100342223B1 (ko) 1997-03-07 2002-09-18 기아자동차주식회사 차량의 종감속기어의 예압보정 제어장치
US6017276A (en) * 1998-08-25 2000-01-25 Elson; Matthew Location based entertainment device
DE19900528A1 (de) 1999-01-10 2000-09-21 Axel Holle Vorrichtung zum räumlichen Bewegen von Personen
US6629896B2 (en) * 2001-12-29 2003-10-07 Steven Jones Nimble virtual reality capsule using rotatable drive assembly
US7121159B2 (en) * 2002-03-01 2006-10-17 Ganid Productions, Llc Apparatus and method for gyroscopic propulsion
US7559766B2 (en) * 2004-11-29 2009-07-14 Epley Research, Llc Hemispheroidal-truss spatial manipulator system and apparatus
US7172511B2 (en) * 2005-01-03 2007-02-06 Casey Thomas P Amusement ride
US8784107B2 (en) * 2005-03-14 2014-07-22 Cubic Corporation Flight training system
US7686390B2 (en) * 2007-11-07 2010-03-30 Montecito Research Motion simulation chair
KR101228129B1 (ko) 2010-04-13 2013-02-06 주식회사 썬에어로시스 무한회전 다축 구동 모션 시스템
CN102971777B (zh) * 2010-05-21 2015-12-02 马克思-普朗克科学促进协会 运动模拟器及相应的方法
US9076041B2 (en) * 2010-08-26 2015-07-07 Blast Motion Inc. Motion event recognition and video synchronization system and method
CN103080983A (zh) * 2010-09-06 2013-05-01 国立大学法人东京大学 车辆系统
TWI440499B (zh) 2010-10-04 2014-06-11 雙四面體轉向機構
KR101035079B1 (ko) * 2010-11-05 2011-05-19 김상호 탑승부의 자체 회전 및 전후진이 가능한 시뮬레이터
US8689698B2 (en) * 2011-06-08 2014-04-08 Dennis Shasha Methods and systems for multi-dimensional motion
US9360093B2 (en) * 2011-08-16 2016-06-07 Baylor University Six-degree-of-freedom cam-controlled support platform
KR101198255B1 (ko) 2012-04-12 2012-11-07 주식회사 모션디바이스 모션 시뮬레이터
JP6030348B2 (ja) * 2012-06-15 2016-11-24 株式会社セガ・ライブクリエイション アトラクション装置
GB201220401D0 (en) * 2012-11-13 2012-12-26 Robocoaster Ltd Trackless manipulator
GB2516024A (en) * 2013-07-07 2015-01-14 Mark Waterman Activity frame
JP5813706B2 (ja) * 2013-08-08 2015-11-17 株式会社鷺宮製作所 加振装置、および、それを備えるシミュレーター用加振システム
KR101556721B1 (ko) * 2013-11-29 2015-10-05 주식회사 비주얼리액터 인터랙티브 오감형 익스트림 스포츠 체험장치
US9463394B2 (en) * 2014-02-14 2016-10-11 Lewis James Striggow Visual movement display system
KR101596943B1 (ko) * 2014-04-03 2016-02-23 신동호 복수 인원 탑승용 회전식 시뮬레이터 및 그를 사용한 원형 구조 시뮬레이션 시스템
KR101586195B1 (ko) * 2014-04-09 2016-01-20 전자부품연구원 탑승형 스튜어트 플랫폼을 이용한 가상환경 멀미 극복 장치 및 방법
US20160195923A1 (en) * 2014-12-26 2016-07-07 Krush Technologies, Llc Gyroscopic chair for virtual reality simulation
BR202015008770Y1 (pt) * 2015-04-17 2020-12-01 Motion Sphere Desenvolvimento De Tecnologia E Locações Ltda - Epp disposições aplicadas em simulador esférico de acelerações virtuais
CN204926595U (zh) * 2015-09-08 2015-12-30 重庆幻羽科技有限公司 具有三自由度的虚拟现实模拟器
GB2542434A (en) * 2015-09-21 2017-03-22 Figment Productions Ltd A System for Providing a Virtual Reality Experience
CN105788393A (zh) * 2016-04-18 2016-07-20 北京小鸟看看科技有限公司 一种空间运动模拟体验装置
US10293265B1 (en) * 2017-11-07 2019-05-21 Universal City Studios Llc Systems and methods for a sphere ride

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003510864A (ja) 1999-09-22 2003-03-18 カナデアン スペース エージェンシー 頭に装着するディスプレイのための時間/動きを補償する方法およびシステム
US20060178221A1 (en) * 2002-03-22 2006-08-10 Threlkel David V Amusement ride
JP5092279B2 (ja) * 2006-05-23 2012-12-05 株式会社島津製作所 ヘッドモーショントラッカ装置及びその使用方法
US20150269780A1 (en) * 2014-03-18 2015-09-24 Dreamworks Animation Llc Interactive multi-rider virtual reality ride system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210101459A (ko) * 2020-02-10 2021-08-19 주식회사 스토익엔터테인먼트 Vr 시스템 탑승 장비 제어 장치 및 방법
KR102351036B1 (ko) * 2020-02-10 2022-01-14 주식회사 스토익엔터테인먼트 Vr 시스템 탑승 장비 제어 장치 및 방법

Also Published As

Publication number Publication date
US20180365896A1 (en) 2018-12-20
JP6698825B2 (ja) 2020-05-27
EP3318958B1 (en) 2020-09-16
CN207133768U (zh) 2018-03-23
US10593115B2 (en) 2020-03-17
CN207074415U (zh) 2018-03-06
KR101914140B1 (ko) 2018-11-02
KR20170106162A (ko) 2017-09-20
KR20170106161A (ko) 2017-09-20
KR101885128B1 (ko) 2018-08-03
SG11201709253YA (en) 2017-12-28
CN107533377B (zh) 2020-11-20
KR20170106164A (ko) 2017-09-20
US20200105069A1 (en) 2020-04-02
KR20170106163A (ko) 2017-09-20
KR20180063002A (ko) 2018-06-11
KR101885127B1 (ko) 2018-08-03
KR20180061117A (ko) 2018-06-07
CN107533377A (zh) 2018-01-02
EP3318958A1 (en) 2018-05-09
EP3318958A4 (en) 2018-11-21
JP2018531655A (ja) 2018-11-01

Similar Documents

Publication Publication Date Title
KR101914141B1 (ko) 가상현실 체험장치
US11526206B2 (en) System and method for presenting virtual reality content to a user based on body posture
US6774885B1 (en) System for dynamic registration, evaluation, and correction of functional human behavior
US10675766B1 (en) System for introducing physical experiences into virtual reality (VR) worlds
KR101855863B1 (ko) 멀미를 방지하는 실시간 시뮬레이션 시스템
EP1131734B1 (en) System for dynamic registration, evaluation, and correction of functional human behavior
EP3525898A1 (en) Controlled dynamic multi-axis virtual reality system
US10832490B2 (en) Virtual reality experience apparatus capable of providing experiencing user with virtual reality image and physical motion
KR102083528B1 (ko) 체험장치
JP2020170207A (ja) 情報処理装置、情報処理方法、および、プログラム
CN207591284U (zh) 虚拟现实体验装置
JP2001191272A (ja) 人間型ロボット体感提示装置およびマスタスレーブ制御装置
Nawahdah et al. Helping physical task learning by automatic adjustment of a virtual teacher's rotation angle
KR20160095663A (ko) 영상 시뮬레이팅 시스템, 플랫폼 제어 장치 및 플랫폼 제어 방법
JP2002245489A (ja) 仮想現実再生装置とそのプログラム
KR20190075358A (ko) 체험장치
JP2020170501A (ja) 情報処理装置、情報処理方法、および、プログラム

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E701 Decision to grant or registration of patent right