KR102083529B1 - 체험장치 - Google Patents

체험장치 Download PDF

Info

Publication number
KR102083529B1
KR102083529B1 KR1020170176880A KR20170176880A KR102083529B1 KR 102083529 B1 KR102083529 B1 KR 102083529B1 KR 1020170176880 A KR1020170176880 A KR 1020170176880A KR 20170176880 A KR20170176880 A KR 20170176880A KR 102083529 B1 KR102083529 B1 KR 102083529B1
Authority
KR
South Korea
Prior art keywords
image
experience
movement
unit
boarding
Prior art date
Application number
KR1020170176880A
Other languages
English (en)
Other versions
KR20190075358A (ko
Inventor
정범준
Original Assignee
주식회사 상화
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 상화 filed Critical 주식회사 상화
Priority to KR1020170176880A priority Critical patent/KR102083529B1/ko
Publication of KR20190075358A publication Critical patent/KR20190075358A/ko
Application granted granted Critical
Publication of KR102083529B1 publication Critical patent/KR102083529B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 체험장치에 관한 것으로서, 체험자에게 영상을 제공하는 영상기기; 및 체험자에게 움직임을 제공하는 탑승기기;를 포함하고, 상기 탑승기기는, 체험자에게 탑승 가능한 공간을 제공하는 탑승부; 및 상기 탑승부에 피칭, 요잉, 롤링 및 왕복 운동을 발생시키는 구동부;를 포함함으로써, 체험자에게 가해지는 움직임의 자유도를 높이고, 영상에서 보여지는 시각적 움직임과 실제 제공되는 물리적 움직임을 서로 대응시켜, 현실감을 향상시킬 수 있다. 또한, 상기 탑승부는 상기 구동부를 기준으로 왕복 운동 가능하게 형성됨으로써, 체험자에게 물리적 움직임을 가하는데 소요되는 에너지를 절감하고, 응답성을 향상시키며, 내구성을 향상시킬 수 있다.

Description

체험장치{EXPERIENCE APPARATUS}
본 발명은, 체험장치에 관한 것으로서, 더욱 상세하게는, 체험자가 소정의 환경에 직접 노출된 것과 같은 체험을 할 수 있도록 한 체험장치에 관한 것이다.
일반적으로, 사람들에게는 소정의 환경(예를 들어, 일상적으로 경험하기 어려운 환경)을 직접 체험하지 않고서도 그 환경에 들어간 것과 같은 체험을 하고자 하는 욕구가 있었고, 이러한 욕구를 충족시키기 위해 최근에는 가상현실을 제작하고 그 제작된 가상현실을 체험자에게 제공하는 체험장치가 개발되고 있다.
대한민국 등록실용신안공보 20-0347158호에는 종래의 체험장치가 개시되어 있다.
대한민국 등록실용신안공보 20-0347158호를 참조하면, 종래의 체험장치는, 체험자에게 영상을 제공하는 화상스크린(52) 및 체험자에게 움직임을 제공하는 자이로모션 기구를 포함하고, 상기 자이로모션 기구는 지면을 기준으로 선회 운동하는 베이스 플레이트(20), 상기 베이스 플레이트(20)에 수직축(31) 기준으로 회전 가능하게 지지되는 수직고리(30), 상기 수직고리(30)에 수평축(41) 기준으로 회전 가능하게 지지되는 수평고리(40) 및 상기 수평고리(40)에 교축(51) 기준으로 회전 가능하게 지지되는 탑승실(53)을 포함한다.
이러한 구성에 따른 종래의 체험장치는, 상기 화상스크린(52)에서 영상에 제공되는 동안, 상기 자이로모션 기구가 상기 탑승실(53)에 피칭, 요잉 및 롤링을 발생시킨다.
여기서, 상기 베이스 플레이트(20)는 상기 수평고리(40)와 유사한 움직임을 발생시킨다. 즉, 상기 탑승실(53)은 상기 수평고리(40)에 의해 상기 수평축(41)을 기준으로 회전되고, 상기 베이스 플레이트(20)에 의해 상기 수평축(41)과 평행한 지면 위 일 축을 기준으로 선회(편측 승강)된다.
그러나, 이러한 종래의 체험장치에 있어서는, 체험자에게 피칭, 요잉 및 롤링만 가해지기 때문에 움직임의 자유도가 낮고, 영상에서 보여지는 시각적 움직임과 실제 제공되는 물리적 움직임이 서로 대응되지 못하여, 체험자가 이질감을 느끼고, 몰입도가 저하됨으로써, 현실감이 저하되는 문제점이 있었다.
또한, 체험자에게 물리적 움직임을 가하는데, 상당한 에너지가 소요되고, 응답성이 저하되며, 내구성이 저하되는 문제점이 있었다. 즉, 상기 수직축(31) 기준 회전 운동, 상기 수평축(41) 기준 회전 운동 및 상기 교축(51) 기준 회전 운동 이외의 운동(베이스 플레이트(20)의 선회 운동)을 발생시키고자 할 때, 상기 베이스 플레이트(20), 상기 수직고리(30), 상기 수평고리(40) 및 상기 탑승실(53)을 모두 운동시켜야 하므로, 상당한 에너지가 소요되고, 응답성이 저하되며, 내구성이 저하된다.
대한민국 등록실용신안공보 20-0347158호
따라서, 본 발명은, 체험자에게 가해지는 움직임의 자유도를 증가시키고, 영상에서 보여지는 시각적 움직임과 실제 제공되는 물리적 움직임을 서로 대응시켜, 현실감을 향상시킬 수 있는 체험장치를 제공하는 것을 그 목적으로 한다.
또한, 본 발명은, 체험자에게 물리적 움직임을 가하는데 소요되는 에너지를 절감하고, 응답성을 향상시키며, 내구성을 향상시킬 수 있는 체험장치를 제공하는 것을 다른 목적으로 한다.
본 발명은, 상기한 바와 같은 목적 달성을 위해, 체험자에게 영상을 제공하는 영상기기; 및 체험자에게 움직임을 제공하는 탑승기기;를 포함하고, 상기 탑승기기는, 체험자에게 탑승 가능한 공간을 제공하는 탑승부; 및 상기 탑승부에 피칭, 요잉, 롤링 및 왕복 운동을 발생시키는 구동부;를 포함하고, 상기 탑승부는 상기 구동부를 기준으로 왕복 운동 가능하게 형성되는 체험장치를 제공한다.
상기 구동부는, 그 구동부를 지지하는 지지물에 지지되고, 제1 축을 기준으로 회전 가능하게 형성되는 제1 기구; 상기 제1 기구에 지지되고, 상기 제1 축에 수직한 제2 축을 기준으로 회전 가능하게 형성되는 제2 기구; 및 상기 제2 기구에 지지되고, 상기 제2 축에 수직한 제3 축을 기준으로 회전 가능하게 형성되며, 상기 탑승부와 결합되는 제3 기구;를 포함하고, 상기 탑승부는 상기 제3 기구에 왕복 운동 가능하게 결합될 수 있다.
상기 탑승부는 적어도 한 방향으로 왕복 운동 가능하게 형성될 수 있다.
상기 탑승부는 체험자의 전후 방향, 체험자의 좌우 방향 및 체험자의 상하 방향 중 적어도 한 방향으로 왕복 운동 가능하게 형성될 수 있다.
상기 탑승부는 체험자의 전후 방향, 체험자의 좌우 방향 및 체험자의 상하 방향으로 왕복 운동 가능하게 형성될 수 있다.
상기 탑승부는 사전에 결정된 거리 범위 내에서 왕복 운동 가능하게 형성될 수 있다.
상기 사전에 결정된 거리 범위는 0(영) 이상 10cm 이하로 형성될 수 있다.
상기 영상기기는 체험자가 그 영상기기에서 제공되는 영상만 볼 수 있도록 형성될 수 있다.
상기 탑승부가 상기 사전에 결정된 거리 범위 내에서 왕복 운동 될 때, 상기 영상기기는 상기 탑승부가 상기 사전에 결정된 거리 범위보다 더 먼 거리를 이동하는 영상을 제공하도록 형성될 수 있다.
상기 탑승부는 가속 상황 또는 감속 상황에서만 상기 사전에 결정된 거리 범위 내에서 사전에 결정된 속도 이상으로 왕복 운동 되게 형성될 수 있다.
상기 사전에 결정된 속도는 체험자가 그 체험자에게 인가되는 물리적 자극으로 상기 탑승부의 왕복 운동을 체감할 수 있는 속도 중 가장 작은 속도로 형성될 수 있다.
본 발명에 의한 체험장치는, 체험자에게 영상을 제공하는 영상기기; 및 체험자에게 움직임을 제공하는 탑승기기;를 포함하고, 상기 탑승기기는, 체험자에게 탑승 가능한 공간을 제공하는 탑승부; 및 상기 탑승부에 피칭, 요잉, 롤링 및 왕복 운동을 발생시키는 구동부;를 포함함으로써, 체험자에게 가해지는 움직임의 자유도를 높이고, 영상에서 보여지는 시각적 움직임과 실제 제공되는 물리적 움직임을 서로 대응시켜, 현실감을 향상시킬 수 있다.
또한, 상기 탑승부는 상기 구동부를 기준으로 왕복 운동 가능하게 형성됨으로써, 체험자에게 물리적 움직임을 가하는데 소요되는 에너지를 절감하고, 응답성을 향상시키며, 내구성을 향상시킬 수 있다.
도 1은 본 발명의 일 실시예에 따른 체험장치를 도시한 사시도,
도 2는 도 1의 체험장치에서 탑승부의 왕복 운동 원리를 설명하기 위해 도시한 도표,
도 3은 본 발명의 다른 실시예에 따른 체험장치를 도시한 사시도,
도 4는 도 3의 체험장치에서 아바타를 확대하여 도시한 사시도로서 보디를 탈거하고 내부를 도시한 사시도이다.
이하, 본 발명에 의한 체험장치를 첨부된 도면을 참조하여 상세히 설명한다.
도 1은 본 발명의 일 실시예에 따른 체험장치를 도시한 사시도이고, 도 2는 도 1의 체험장치에서 탑승부의 왕복 운동 원리를 설명하기 위해 도시한 도표이다.
첨부된 도 1 및 도 2를 참조하면, 본 발명의 일 실시예에 따른 체험장치는, 제1 공간을 이동하며 겪는 시각적 움직임(이하, 영상) 및 물리적 움직임(이하, 움직임)을 형성하는 프로듀서(producer)(미도시) 및 그 프로듀서(미도시)에 의해 형성된 영상과 움직임을 상기 제1 공간과 상이한 공간인 제2 공간에 있는 체험자에게 제공하는 시뮬레이터(simulator)(2000)를 포함할 수 있다.
여기서, 공간은 현실 및 가상현실을 포함하는 개념이고, 시공간을 포함하는 개념이다. 즉, 상기 제1 공간과 상기 제2 공간은 위치가 상이하되 시간대가 일치하는 개념일 수도 있고, 위치뿐만 아니라 시간대까지 상이한 개념일 수도 있다.
상기 프로듀서(미도시)는 가상현실에서 겪는 영상 및 움직임을 형성(규정)하는 소프트웨어로서, 체험 시작 시점부터 체험 종료 시점까지의 체험 시간에 포함되는 복수의 시점들을 제1 내지 제n 타임 스탬프(Time Stamp)로 규정하는 타임 라인을 형성하고, 상기 제1 내지 제n 타임 스탬프에 각각 재생될 영상인 제1 내지 제n 영상을 규정하는 제1 데이터 베이스를 형성하며, 상기 제1 내지 제n 타임 스탬프에 각각 이행될 움직임인 제1 내지 제n 움직임을 규정하는 제2 데이터 베이스를 형성할 수 있다.
여기서, 상기 타임 라인은 후술할 통합 제어부에 저장되고, 상기 제1 데이터 베이스는 후술할 영상 제어부에 저장되며, 상기 제2 데이터 베이스는 후술할 구동 제어부에 저장될 수 있다.
상기 시뮬레이터(2000)는 상기 프로듀서(미도시)로부터 전달받은 영상 및 움직임을 체험자에게 제공하도록 형성될 수 있다.
구체적으로, 상기 시뮬레이터(2000)는, 체험자에게 영상을 제공하는 영상기기(2100), 체험자에게 움직임을 제공하는 탑승기기(2200) 및 상기 영상기기(2100)와 상기 탑승기기(2200)를 제어하는 제어기기(미도시)를 포함할 수 있다.
상기 영상기기(2100)는 체험자가 시각을 통해 상기 제1 공간에 노출된 것과 같은 체험을 할 수 있게 하기 위한 것으로서, 영상이 출사되는 영상 표시부(디스플레이 액정)를 포함할 수 있다.
상기 탑승기기(2200)는 체험자가 물리적 움직임을 통해 상기 제1 공간에 노출된 것과 같은 체험을 할 수 있게 하기 위한 것으로서, 체험자에게 탑승 가능한 공간을 제공하는 탑승부(2220) 및 그 탑승부(2220)에 움직임을 발생시켜 체험 움직임을 제공하는 구동부(2240)를 포함할 수 있다.
상기 탑승부(2220)는 체험자가 착석 가능한 의자(2221), 체험자가 상기 의자(2221)로부터 이탈되는 것을 방지하는 안전벨트(미도시) 및 체험자를 심리적으로 안정시키도록 체험자가 파지 가능한 손잡이(2223)를 포함할 수 있다.
그리고, 상기 탑승부(2220)는 상기 영상기기(2100)가 탈착 가능하게 안착되는 거치대(미도시), 상기 영상기기(2100)가 상기 거치대(미도시)로부터 사전에 결정된 이격 거리보다 멀어지는 것을 방지하는 이탈방지수단(미도시), 상기 거치대(미도시)로부터 상기 영상기기(2100) 측으로 전원을 공급하기 위한 전원케이블(미도시) 등을 더 포함할 수 있다.
상기 구동부(2240)는 상대적으로 공간 제약을 덜 받으면서 체험자에게 그 체험자가 마치 실제 기구에 탑승한 것과 같은 물리적 움직임을 제공할 수 있도록 형성될 수 있다. 즉, 체험 영상에서 표시되는 동작이 실제 기구를 통해 제공되는 것이 아니라, 그 실제 기구가 운행되는 공간보다 협소한 소정의 제한된 공간 안에서 운행되는 상기 구동부(2240)에 의해 제공될 수 있다.
이러한 상기 구동부(2240)는 상기 탑승부(2220)를 3차원으로 움직일 수 있도록 하는 다양한 구성으로 형성될 수 있으나, 본 실시예의 경우, 그 구동부(2240)의 설치에 필요한 공간을 최소화하되 그 공간 내에서 움직임의 자유도를 극대화시킬 수 있도록 상기 탑승부(2220)에 피칭(Pitching), 요잉(Yawing), 롤링(Rolling) 및 왕복 운동을 발생시키도록 형성되고, 특히 그 구동부(2240)의 소요 에너지 절감, 응답성 향상 및 내구성 향상을 위해 상기 탑승부(2220)가 상기 구동부(2240)를 기준으로 왕복 운동 가능하게 형성될 수 있다.
구체적으로, 상기 구동부(2240)는, 그 구동부(2240)를 지지하는 지지물(예를 들어, 지면)에 지지되고 제1 축을 기준으로 회전 가능하게 형성되는 제1 기구(2241), 상기 제1 기구(2241)에 지지되고 상기 제1 축에 수직한 제2 축을 기준으로 회전 가능하게 형성되는 제2 기구(2242) 및 상기 제2 기구(2242)에 지지되고 상기 제2 축에 수직한 제3 축을 기준으로 회전 가능하게 형성되며 상기 탑승부(2220)와 결합되는 제3 기구(2243)를 포함하고, 상기 탑승부(2220)는 상기 구동부(2240)를 기준으로 왕복 운동 가능하도록 상기 제3 기구(2243)에 왕복 운동 가능하게 결합될 수 있다.
더욱 구체적으로, 상기 제1 기구(2241)는, 상기 지지물에 상기 제1 축을 기준으로 회전 가능하게 지지되는 제1 기구 제1 부위(2241a) 및 상기 제1 기구 제1 부위(2241a)로부터 암(arm) 형태로 연장되고 상기 제2 기구(2242)를 지지하는 제1 기구 제2 부위(2241b)를 포함할 수 있다.
상기 지지물과 상기 제1 기구 제1 부위(2241a) 사이에는 상기 제1 기구(2241)의 회전에 필요한 구동력을 발생시키는 제1 액추에이터(미도시)가 형성될 수 있다.
상기 제2 기구(2242)는, 상기 제1 기구 제2 부위(2241b)에 상기 제2 축을 기준으로 회전 가능하게 지지되는 제2 기구 제1 부위(미도시) 및 상기 제2 기구 제1 부위(미도시)로부터 환형으로 연장되는 제2 기구 제2 부위(2242b)를 포함할 수 있다. 여기서, 상기 제2 기구 제1 부위(미도시)는 상기 제2 기구 제2 부위(2242b)의 외주부로부터 그 제2 기구 제2 부위(2242b)의 반경방향 외측으로 연장 형성될 수 있다.
상기 제1 기구 제2 부위(2241b)와 상기 제2 기구 제1 부위(미도시) 사이에는 상기 제2 기구(2242)의 회전에 필요한 구동력을 발생시키는 제2 액추에이터(미도시)가 형성될 수 있다.
상기 제3 기구(2243)는, 상기 제2 기구 제2 부위(2242b)에 수용되는 환형으로 형성되고 그 제2 기구 제2 부위(2242b)에 상기 제3 축을 기준으로 회전 가능하게 지지되는 제3 기구 제1 부위(2243a) 및 상기 제3 기구 제1 부위(2243a)의 내주부로부터 그 제3 기구 제1 부위(2243a)의 반경방향 내측으로 연장 형성되는 제3 기구 제2 부위(2243b)를 포함할 수 있다.
상기 제2 기구 제2 부위(2242b)와 상기 제3 기구 제1 부위(2243a) 사이에는 상기 제3 기구(2243)의 회전에 필요한 구동력을 발생시키는 제3 액추에이터(미도시)가 형성될 수 있다.
여기서, 상기 제3 기구(2243)는 상기 제3 기구 제1 부위(2243a)의 외주면 전체가 상기 제2 기구 제2 부위(2242b)의 내주면 전체에 대향된 상태로 상기 제3 액추에이터(미도시)에 의해 그 제2 기구 제2 부위(2242b)의 내주면에 대해 원주방향으로 회전 가능하게 형성될 수 있다.
상기 제3 기구 제2 부위(2243b)에는 상기 탑승부(2220)(더욱 정확히는, 의자(2221))가 그 제3 기구 제2 부위(2243b)를 기준으로 왕복 운동 가능하게 지지될 수 있다.
즉, 상기 제3 기구 제2 부위(2243b)와 상기 탑승부(2220) 사이에는 상기 탑승부(2220)가 체험자의 전후 방향(본 실시예의 경우, 제3 축과 평행한 방향)인 x축 방향으로 왕복 운동되는데 필요한 구동력을 발생시키는 제4 액추에이터(미도시)가 형성될 수 있다. 여기서, 상기 탑승부(2220)는 상기 x축 방향으로 사전에 결정된 거리 범위(예를 들어, 0(영) 이상 10cm 이하) 내에서 왕복 운동(진동을 포함하는 개념) 가능하게 형성될 수 있다.
그리고, 상기 제3 기구 제2 부위(2243b)와 상기 탑승부(2220) 사이에는 상기 탑승부(2220)가 체험자의 좌우 방향(본 실시예의 경우, x축에 수직한 방향)인 y축 방향으로 왕복 운동되는데 필요한 구동력을 발생시키는 제5 액추에이터(미도시)가 형성될 수 있다. 여기서, 상기 탑승부(2220)는 상기 y축 방향으로 사전에 결정된 거리 범위(예를 들어, 0(영) 이상 10cm 이하) 내에서 왕복 운동 가능하게 형성될 수 있다.
그리고, 상기 제3 기구 제2 부위(2243b)와 상기 탑승부(2220) 사이에는 상기 탑승부(2220)가 체험자의 상하 방향(본 실시예의 경우, x축과 y축에 수직한 방향)인 z축 방향으로 왕복 운동되는데 필요한 구동력을 발생시키는 제6 액추에이터(미도시)가 형성될 수 있다. 여기서, 상기 탑승부(2220)는 상기 z축 방향으로 사전에 결정된 거리 범위(예를 들어, 0(영) 이상 10cm 이하) 내에서 왕복 운동 가능하게 형성될 수 있다.
상기 제어기기(미도시)는 상기 프로듀서(미도시), 상기 영상기기(2100) 및 상기 탑승기기(2200)에 전기적으로 연결되는 서버 또는 컴퓨터로 형성되고, 상기 영상기기(2100)를 제어하는 영상 제어부, 상기 구동부(2240)를 제어하는 구동 제어부 및 상기 영상 제어부와 상기 구동 제어부를 제어하기 위한 통합 제어부를 포함할 수 있다.
여기서, 본 실시예에 따른 체험장치는, 체험자가 실제로 상기 제1 공간에 들어와 있는 것과 같은 영상을 볼 수 있도록, 체험자를 둘러싸는 영상(이하, 전방위 영상) 중 체험자의 시야에 대응되는 영상(체험자의 시선이 향하는 방향의 영상)(이하, 시야 대응 영상)을 제공하는 방식(이하, 시야 대응 영상 제공 방식)으로 형성될 수 있다.
구체적으로, 상기 프로듀서(미도시)는 상기 제1 내지 제n 영상을 각각 전방위 영상으로 형성하고, 상기 시뮬레이터(2000)는 상기 프로듀서(미도시)에서 형성된 각 전방위 영상 중 특정 부위(체험자의 시선이 향하는 부위)에 해당되는 시야 대응 영상이 상기 영상 표시부에서 보이도록 형성될 수 있다.
더욱 구체적으로, 상기 영상기기(2100)는 예를 들어 체험자의 두부에 장착되는 헤드 마운트 디스플레이 기기(HMD: Head Mount Display)로 형성되고, 상기 영상기기(2100)의 움직임을 검출하는 제1 검출부(미도시)를 더 포함할 수 있다. 여기서, 상기 제1 검출부(미도시)는 예를 들어 자이로 센서, 가속도 센서 등으로 형성될 수 있다.
그리고, 상기 제어기기(미도시)는, 상기 제1 검출부(미도시)의 측정값(제1 검출부(미도시)를 통해 검출되는 영상기기(2100)의 움직임)을 주기적으로 수신하고, 상기 제1 검출부(미도시)의 측정값에 기초하여 체험자의 시야를 연산하고, 그 제어기기(미도시)에 저장되어 있는 전방위 영상 중 연산된 체험자의 시야에 대응되는 영상을 상기 영상 표시부로 발송하도록(영상 표시부가 제어기기(미도시)로부터 수신한 영상을 재생하도록) 형성될 수 있다.
그런데, 이 경우, 상기 제1 검출부(미도시)를 통해 검출되는 영상기기(2100)의 움직임은 체험자의 시선 변경 뿐만 아니라 상기 탑승기기(2200)(정확히는, 탑승부(2220))의 움직임에 의해 영향을 받을 수 있다. 예를 들어, 상기 탑승기기(2200)가 상방으로 움직이나 체험자는 시선을 전방으로 유지하고 있는 경우에도 상기 제1 검출부(미도시)는 상기 영상기기(2100)가 상방으로 이동된 것으로 검출할 수 있다. 이에 의하여, 상기 탑승기기(2200)가 움직이지 않는 상태에서 체험자가 시선을 변경할 경우에는, 상기 제1 검출부(미도시)를 통해 검출되는 영상기기(2100)의 움직임이 체험자의 시선 변경에 의한 영상기기(2100)의 움직임과 일치되어, 상기 제1 검출부(미도시)의 측정값으로부터 연산된 체험자의 시야와 실제 체험자의 시야가 일치될 수 있다. 하지만, 상기 탑승기기(2200)가 움직이는 경우에는, 상기 제1 검출부(미도시)를 통해 검출되는 영상기기(2100)의 움직임이 체험자의 시선 변경에 의한 영상기기(2100)의 움직임과 일치되지 않아, 상기 제1 검출부(미도시)의 측정값으로부터 연산된 체험자의 시야와 실제 체험자의 시야가 일치되지 않을 수 있다.
이를 고려하여, 본 실시예에 따른 체험장치는, 상기 체험자의 시야 연산 시 상기 탑승기기(2200)의 움직임에 의한 상기 영상기기(2100)의 움직임을 배제하는 방식(이하, 시야 보정 방식)으로 형성될 수 있다. 즉, 상기 탑승기기(2200)는 그 탑승기기(2200)의 움직임을 검출하는 제2 검출부(미도시)를 포함하고, 상기 제어기기(미도시)는 상기 제1 검출부(미도시)의 측정값에서 상기 제2 검출부(미도시)의 측정값(탑승기기(2200)의 움직임에 따른 영상부의 움직임)을 차감하고, 그 차감된 값(체험자의 시야 변경에 따른 영상부의 움직임)으로부터 체험자의 시야를 연산하도록 형성될 수 있다.
즉, 기준 벡터(예를 들어, 체험 시작 시점에서 체험자의 전방을 향하는 벡터)(α)로부터 체험자가 바라보는 시선 방향의 벡터(β)까지의 각도를 제1 각도(θ1)라 하고, 상기 기준 벡터(α)로부터 검출하고자 하는 시점에서 체험자의 전방을 향하는 벡터(γ)까지의 각도를 제2 각도(θ2)라 하면, 상기 제1 검출부(미도시)는 상기 제1 각도(θ1)를 검출하여 상기 제어기기(미도시)로 발송하고, 상기 제2 검출부(미도시)는 상기 제2 각도(θ2)를 검출하여 상기 제어기기(미도시)로 발송하며, 상기 제어기기(미도시)는 상기 제1 각도(θ1)에서 상기 제2 각도(θ2)를 차감하고 그 차감된 값(θ1-θ2)으로부터 체험자의 시야를 연산할 수 있다. 이에 의하여, 실제 체험자의 시야에 대응되는 영상이 제공될 수 있다.
여기서, 상기 제2 검출부(미도시)는 상기 탑승부(2220)에 설치되는 자이로 센서, 가속도 센서 등으로 형성되거나, 상기 구동부(2240)의 각 액추에이터 움직임을 센싱하여 상기 탑승부(2220)의 움직임을 연산할 수 있는 센서 인터페이스 방식으로 형성될 수도 있다.
한편, 상기 영상기기(2100)에서 보여지는 영상과 상기 탑승기기(2200)에서 제공되는 움직임이 서로 대응되지 않을 경우, 체험자는 이질감을 느끼고, 몰입도가 저하되며, 결과적으로 현실감이 저하될 수 있다.
이를 고려하여, 본 실시예에 따른 체험장치는, 상기 영상기기(2100)에서 보여지는 영상과 상기 탑승기기(2200)에서 제공되는 움직임이 대응되게 형성될 수 있다. 즉, 시각적 움직임과 물리적 움직임이 서로 동기화되도록 형성될 수 있다.
구체적으로, 상기 프로듀서(미도시)를 통한 영상 및 움직임 형성 단계에서 일차적으로 영상과 움직임을 서로 대응시키고, 상기 시뮬레이터(2000)를 통한 영상 및 움직임 재생 단계에서 이차적으로 영상과 움직임을 서로 대응시키도록 형성될 수 있다.
더욱 구체적으로, 상기 프로듀서(미도시)는 전술한 바와 같이 상기 타임 라인을 규정하고, 그 타임 라인을 기준으로 상기 제1 내지 제n 영상(제1 데이터 베이스)을 규정하고, 그 타임 라인을 기준으로 상기 제1 내지 제n 움직임(제2 데이터 베이스)을 규정하도록 형성될 수 있다.
그리고, 상기 시뮬레이터(2000)는, 상기 타임 라인, 상기 제1 데이터 베이스 및 상기 제2 데이터 베이스에 기초하여, 상기 영상기기(2100)가 상기 타임 라인을 기준으로 영상을 체험자에게 제공하고, 상기 탑승기기(2200)가 상기 타임 라인을 기준으로 움직임을 체험자에게 제공하도록 형성될 수 있다.
즉, 상기 통합 제어부는 상기 타임 라인에 기초하여 사전에 결정된 시간(예를 들어, 10ms) 간격으로 상기 제1 내지 제n 타임 스탬프를 상기 영상 제어부와 상기 구동 제어부에 순차적으로 동시 발송하도록 형성될 수 있다.
그리고, 상기 영상 제어부는, 상기 통합 제어부로부터 수신하는 타임 스탬프를 상기 제1 데이터 베이스에 대입시켜 상기 제1 내지 제n 영상 중 상기 통합 제어부로부터 수신한 타임 스탬프에 대응되는 영상을 선택하고, 그 선택한 영상 중 시야 대응 영상을 상기 영상 표시부로 발송하도록 형성될 수 있다.
그리고, 상기 구동 제어부는, 상기 통합 제어부로부터 수신하는 타임 스탬프를 상기 제2 데이터 베이스에 대입시켜, 상기 제1 내지 제n 움직임 중 상기 통합 제어부로부터 수신한 타임 스탬프에 대응되는 움직임을 선택하여 상기 구동부(2240)로 발송하도록 형성될 수 있다.
그리고, 상기 시뮬레이터(2000)는, 체험 중에 영상과 움직임의 지속적인 동기화를 위해, 목표 영상(영상기기(2100)에서 제공되어야 하는 영상)과 실제 영상(영상기기(2100)에서 제공되는 영상)을 사전에 결정된 주파수(예를 들어, 60Hz) 간격으로 비교 및 일치시키고, 목표 움직임(탑승기기(2200)에서 제공되어야 하는 움직임)과 실제 움직임(탑승기기(2200)에서 제공되는 움직임)을 사전에 결정된 시간(예를 들어, 12ms) 간격으로 비교 및 일치시키도록 형성될 수 있다.
이에 대해 더욱 상세히 설명하기 위해, 이하에서는, 상기 제1 내지 제n 타임 스탬프 중 상기 목표 영상 및 상기 목표 움직임에 대응되는 타임 스탬프(통합 제어부로부터 발송된 타임 스탬프)를 목표 타임 스탬프라 하고, 상기 실제 영상에 대응되는 타임 스탬프(영상 표시부로 발송된 타임 스탬프)를 실제 영상 타임 스탬프라 하며, 상기 실제 움직임에 대응되는 타임 스탬프(구동부(2240)로 발송된 타임 스탬프)를 실제 움직임 타임 스탬프라 한다.
이때, 상기 시뮬레이터(2000)는 상기 목표 타임 스탬프와 상기 실제 영상 타임 스탬프를 비교하여 상기 목표 영상과 상기 실제 영상의 일치 여부를 비교하도록 형성될 수 있다. 그리고, 상기 시뮬레이터(2000)는, 상기 실제 영상 타임 스탬프가 상기 목표 타임 스탬프보다 이른 시점일 경우, 상기 영상기기(2100)가 사전에 결정된 속도보다 빠른 속도로 영상을 제공하도록 형성될 수 있다. 그리고, 상기 시뮬레이터(2000)는, 상기 실제 영상 타임 스탬프가 상기 목표 타임 스탬프보다 나중 시점일 경우, 상기 영상기기(2100)가 사전에 결정된 속도보다 느린 속도로 영상을 제공하도록 형성될 수 있다.
아울러, 상기 시뮬레이터(2000)는 상기 목표 타임 스탬프와 상기 실제 움직임 타임 스탬프를 비교하여 상기 목표 영상과 상기 실제 움직임의 일치 여부를 비교하도록 형성될 수 있다. 그리고, 상기 시뮬레이터(2000)는, 상기 실제 움직임 타임 스탬프가 상기 목표 타임 스탬프보다 이른 시점일 경우, 상기 구동부(2240)가 사전에 결정된 속도보다 빠른 속도로 움직임을 제공하도록 형성될 수 있다. 그리고, 상기 시뮬레이터(2000)는, 상기 실제 움직임 타임 스탬프가 상기 목표 타임 스탬프보다 나중 시점일 경우, 상기 구동부(2240)가 사전에 결정된 속도보다 느린 속도로 움직임을 제공하도록 형성될 수 있다.
여기서, 상기 실제 움직임 타임 스탬프는 상기 제2 데이터 베이스로부터 산출되도록 형성될 수 있다. 즉, 사전에 결정된 시간 간격(예를 들어, 12ms)으로 검출되는 상기 제2 검출부(미도시)의 측정값이 상기 제2 데이터 베이스에 대입되어 그 제2 검출부(미도시)의 측정값에 대응되는 타임 스탬프가 상기 실제 움직임 타임 스탬프로 산출되도록 형성될 수 있다. 이 경우, 상기 제어기기(미도시)에 인가되는 부담은 다소 증가되나, 상기 실제 움직임 타임 스탬프를 산출하기 위한 별도의 장치가 추가될 필요가 없어 비용이 절감될 수 있다.
또는, 상기 실제 움직임 타임 스탬프는 상기 구동부(2240)가 작동되는 시간을 카운팅하는 별도의 타이머로부터 산출되도록 형성될 수 있다. 즉, 사전에 결정된 시간 간격(예를 들어, 12ms)으로 추출되는 상기 타이머의 시각이 상기 실제 움직임 타임 스탬프로 산출되도록 형성될 수도 있다. 이 경우, 상기 실제 움직임 타임 스탬프를 산출하기 위한 별도의 장치(타이머)가 추가됨에 따라 비용이 다소 증가되나, 상기 제어기기(미도시)에 인가되는 부담이 경감될 수 있다.
이하, 본 실시예에 따른 체험장치의 작용효과에 대해 설명한다.
즉, 사전에 상기 프로듀서(미도시)에서 형성된 상기 타임 라인, 상기 제1 데이터 베이스 및 상기 제2 데이터 베이스가 상기 시뮬레이터(2000)에 저장되고, 체험자가 상기 시뮬레이터(2000)에 탑승하면, 체험이 시작될 수 있다.
체험이 시작되면, 상기 시뮬레이터(2000)는 다음의 제어방법에 따라 상기 영상기기(2100), 상기 탑승기기(2200) 및 상기 제어기기(미도시)를 통해 상기 제1 공간을 체험하는 듯한 영상과 움직임이 체험자에게 제공될 수 있다.
구체적으로, 제1 단계(S1)에서, 상기 통합 제어부는 최초의 타임 스탬프인 제1 타임 스탬프를 목표 타임 스탬프로 저장할 수 있다.
그 다음, 제2 단계(S2)에서, 상기 통합 제어부는 그 통합 제어부에 저장된 목표 타임 스탬프를 상기 영상 제어부와 상기 구동 제어부로 동시에 발송할 수 있다.
그 다음, 제3-1-1 단계(S311)에서, 상기 영상 제어부는 상기 제2 단계(S2)를 통해 수신한 목표 타임 스탬프를 상기 제1 데이터 베이스에 대입시켜 상기 제1 내지 제n 영상(전방위 영상) 중 그 목표 타임 스탬프에 대응되는 영상(전방위 영상)을 선택할 수 있다.
그 다음, 제3-1-2 단계(S312)에서, 상기 제1 검출부(미도시)는 그 제1 검출부(미도시)의 측정값을 상기 영상 제어부로 발송하고, 상기 제2 검출부(미도시)는 그 제2 검출부(미도시)의 측정값을 상기 영상 제어부로 발송할 수 있다.
그 다음, 제3-1-3 단계(S313)에서, 상기 영상 제어부는 상기 제1 검출부(미도시)의 측정값과 상기 제2 검출부(미도시)의 측정값을 기초로 체험자의 시야를 연산할 수 있다.
그 다음, 제3-1-4 단계(S314)에서, 상기 영상 제어부는 상기 제3-1-1 단계(S311)에서 선택된 영상(전방위 영상) 중 상기 제3-1-3 단계(S313)에서 연산된 체험자의 시야에 대응되는 영상(시야 대응 영상)을 선택하여 상기 영상 표시부에 발송할 수 있다.
그 다음, 제3-1-5 단계(S315)에서, 상기 영상 표시부는 상기 제3-1-4 단계(S314)를 통해 수신한 영상을 각각 재생할 수 있다.
한편, 제3-2-1 단계(S321)에서, 상기 구동 제어부는 상기 제2 단계(S2)를 통해 수신한 목표 타임 스탬프를 상기 제2 데이터 베이스에 대입시켜 상기 제1 내지 제n 움직임 중 그 목표 타임 스탬프에 대응되는 움직임을 선택하고, 그 선택한 움직임을 상기 구동부(2240)로 발송할 수 있다.
그 다음, 제3-2-2 단계(S322)에서, 상기 구동부(2240)는 상기 제3-2-1 단계(S321)를 통해 수신한 움직임을 이행할 수 있다.
한편, 상기 제3-1-4 단계(S314) 및 상기 제3-2-2 단계(S322) 중 적어도 하나가 종료되면, 제4 단계(S4)에서, 상기 통합 제어부는 체험이 종료되었는지 판단할 수 있다. 즉, 상기 통합 제어부는 그 통합 제어부에 저장된 목표 타임 스탬프가 최종 타임 스탬프인 제n 타임 스탬프와 일치되는지 판단할 수 있다.
그리고, 상기 제4 단계(S4)에서, 체험이 종료되었다고 판단될 경우(목표 타임 스탬프가 제n 타임 스탬프와 일치할 경우)에는 체험이 종료되고, 체험이 진행중이라고 판단될 경우(목표 타임 스탬프가 제n 타임 스탬프와 불일치할 경우)에는 후술할 제5 단계(S5)로 진행될 수 있다.
제5 단계(S5)에서는, 상기 통합 제어부가 상기 제2 단계(S2)에서 목표 타임 스탬프를 발송한 이후 사전에 결정된 시간(타임 스탬프들 사이 인터벌)이 경과했는지 판단할 수 있다.
그리고, 상기 제5 단계(S5)에서, 사전에 결정된 시간이 경과하였다고 판단될 경우 후술할 제6 단계(S6)로 진행되고, 사전에 결정된 시간이 경과하지 않았다고 판단될 경우 후술할 제7-1-1 단계(S711) 및 후술할 제7-2-1 단계(S721)로 동시에 진행될 수 있다.
제6 단계(S6)에서는, 상기 통합 제어부가 지금까지 목표 타임 스탬프로 저장하고 있던 타임 스탬프의 다음 타임 스탬프를 새로운 목표 타임 스탬프로 저장할 수 있다. 예를 들어, 지금까지 목표 타임 스탬프로 저장되어 있던 타임 스탬프가 상기 제1 타임 스탬프일 경우, 상기 제2 타임 스탬프가 새로운 목표 타임 스탬프로 저장될 수 있다.
그리고, 상기 제6 단계(S6)가 종료된 후에는, 상기 제2 단계(S2)로 복귀될 수 있다.
제7-1-1 단계(S711)에서는, 상기 영상 제어부가 실제 영상 타임 스탬프 산출할 수 있다.
그 다음, 제7-1-2 단계(S712)에서, 상기 영상 제어부는 상기 제7-1-1 단계(S711)에서 산출된 실제 영상 타임 스탬프 상기 제2 단계(S2)를 통해 수신한 목표 타임 스탬프와 일치되는지 판단할 수 있다.
그리고, 상기 제7-1-2 단계(S712)에서, 목표 타임 스탬프와 실제 영상 타임 스탬프 일치된다고 판단될 경우 상기 제3-1-2 단계(S312)로 복귀되고, 목표 타임 스탬프와 실제 영상 타임 스탬프 불일치된다고 판단될 경우 후술할 제7-1-3 단계(S713)로 진행될 수 있다.
제7-1-3 단계(S713)에서, 상기 영상 제어부는 실제 영상 타임 스탬프 목표 타임 스탬프보다 이른 시점인지 판단할 수 있다.
그리고, 상기 제7-1-3 단계(S713)에서, 실제 영상 타임 스탬프 목표 타임 스탬프보다 이른 시점이라 판단될 경우 후술할 제7-1-4 단계(S714)로 진행되고, 실제 영상 타임 스탬프 목표 타임 스탬프보다 나중 시점이라 판단될 경우 후술할 제7-1-5 단계(S715)로 진행될 수 있다.
제7-1-4 단계(S714)에서는, 상기 영상 제어부가 상기 실제 영상 타임 스탬프 대응되는 영상과 상기 목표 타임 스탬프에 대응되는 영상 사이의 영상들을 사전에 결정된 재생속도보다 빠른 재생속도로 재생하도록 상기 영상 표시부에 지시를 내릴 수 있다.
상기 제7-1-4 단계(S714)가 종료되면, 상기 제3-1-2 단계(S312)로 복귀될 수 있다.
제7-1-5 단계(S715)에서는, 상기 영상 제어부가 상기 실제 영상 타임 스탬프 대응되는 영상 이후의 영상들을 사전에 결정된 재생속도보다 느린 재생속도로 재생하도록 상기 영상 표시부에 지시를 내릴 수 있다. 또는, 상기 영상 제어부가 상기 실제 영상 타임 스탬프 대응되는 영상을 반복적으로 재생하도록 상기 영상 표시부에 지시를 내릴 수 있다.
상기 제7-1-5 단계(S715)가 종료되면, 상기 제3-1-2 단계(S312)로 복귀될 수 있다.
여기서, 상기 제7-1-1 내지 7-1-5 단계(S711 내지 S715)는 사전에 결정된 주파수(예를 들어, 60Hz) 간격으로 실행될 수 있다.
그리고, 상기 제7-1-2 단계(S712)에서 목표 타임 스탬프와 실제 영상 타임 스탬프 일치된다고 판단될 경우 또는 상기 제7-1-4 단계(S714)가 종료된 경우 또는 상기 제7-1-5 단계(S715)가 종료된 경우, 상기 제3-1-2 단계(S312)로 복귀되는 것은 그 사이 체험자의 시야 변동을 반영하기 위해서다.
한편, 제7-2-1 단계(S721)에서는, 상기 제2 검출부(미도시)가 그 제2 검출부(미도시)의 측정값(구동부(2240)의 실제 움직임)을 상기 구동 제어부로 발송할 수 있다.
그 다음, 제7-2-2 단계(S722)에서, 상기 구동 제어부는 상기 제7-2-1 단계(S721)를 통해 수신한 제2 검출부(미도시)의 측정값에 기초하여 실제 움직임 스탬프를 산출하고, 산출된 실제 움직임 스탬프가 상기 제2 단계(S2)를 통해 수신한 목표 타임 스탬프와 일치되는지 판단할 수 있다.
그리고, 상기 제7-2-2 단계(S722)에서, 목표 타임 스탬프와 실제 움직임 스탬프가 일치된다고 판단될 경우 상기 제5 단계(S5)로 복귀되고, 목표 타임 스탬프와 실제 움직임 스탬프가 불일치된다고 판단될 경우 후술할 제7-2-3 단계(S723)로 진행될 수 있다.
제7-2-3 단계(S723)에서, 상기 구동 제어부는 실제 움직임 스탬프가 목표 타임 스탬프보다 이른 시점인지 판단할 수 있다.
그리고, 상기 제7-2-3 단계(S723)에서, 실제 움직임 스탬프가 목표 타임 스탬프보다 이른 시점이라 판단될 경우 후술할 제7-2-4 단계(S724)로 진행되고, 실제 움직임 스탬프가 목표 타임 스탬프보다 나중 시점이라 판단될 경우 후술할 제7-2-5 단계(S725)로 진행될 수 있다.
제7-2-4 단계(S724)에서는, 상기 구동 제어부가 상기 실제 움직임 스탬프에 대응되는 움직임과 상기 목표 타임 스탬프에 대응되는 움직임 사이의 움직임들을 사전에 결정된 구동속도보다 빠른 구동속도로 이행하도록 상기 구동부(2240)에 지시를 내릴 수 있다.
상기 제7-2-4 단계(S724)가 종료되면, 상기 제5 단계(S5)로 복귀될 수 있다.
제7-2-5 단계(S725)에서는, 상기 구동 제어부가 상기 실제 움직임 스탬프에 대응되는 움직임 이후의 움직임들을 사전에 결정된 구동속도보다 느린 구동속도로 이행하도록 상기 구동부(2240)에 지시를 내릴 수 있다.
상기 제7-2-5 단계(S725)가 종료되면, 상기 제5 단계(S5)로 복귀될 수 있다.
여기서, 상기 제7-2-1 내지 7-2-5 단계(S721 내지 S725)는 사전에 결정된 시간 간격(예를 들어, 12ms)으로 실행될 수 있다.
이와 같은 제어방법은, 체험 시작 시점에 상기 제1 단계(S1)가 한 번 실행되고, 최종 타임 스탬프에 대응되는 영상과 움직임이 제공될 때까지 상기 제2 내지 제7-2-5 단계(S2 내지 S725)가 반복 실행된 후 종료될 수 있다.
여기서, 본 실시예에 따른 체험장치는, 체험자에게 영상 및 움직임을 제공하는 상기 시뮬레이터(2000)를 포함하여, 체험자가 시각적 자극과 물리적 자극을 통해 체험하게 함으로써, 체험자가 이질감을 느끼는 것을 방지하고, 몰입도가 향상되며, 결국 현실감이 향상될 수 있다.
그리고, 영상과 움직임이 서로 대응되게 제공됨에 따라, 현실감이 더욱 향상될 수 있다.
그리고, 전방위 영상 중 시야 대응 영상을 제공하도록 형성됨에 따라, 현실감을 더욱 향상시킬 수 있다. 특히, 상기 시야 대응 영상 제공에 필요한 체험자의 시야 연산 시 상기 탑승기기(2200)의 움직임을 배제하도록 형성됨에 따라, 상기 탑승기기(2200)의 움직임에 의해 체험자의 실제 시야와 영상의 시야가 불일치되는 경우를 미연에 방지하여, 현실감을 더욱 향상시킬 수 있다.
그리고, 상기 구동부(2240)가 상기 탑승부(2220)에 피칭(제2 축 기준 회전 운동), 요잉(제1 축 기준 회전 운동), 롤링(제3 축 기준 회전 운동), 왕복 운동(x축 방향 왕복 운동, y축 방향 왕복 운동, z축 방향 왕복 운동)을 발생시키도록 형성됨에 따라, 그 구동부(2240)의 설치에 필요한 공간을 최소화하고, 그 공간 내에서 움직임의 자유도를 극대화시켜, 효과적 및 효율적으로 현실감을 향상시킬 수 있다.
그리고, 상기 탑승부(2220)가 상기 구동부(2240)를 기준으로 왕복 운동되게 형성됨에 따라, 불필요하게 상기 제1 기구(2241), 상기 제2 기구(2242) 및 상기 제3 기구(2243)를 왕복 운동시키지 않고, 상기 탑승부(2220)만 왕복 운동시켜, 상기 탑승부(2220)를 왕복 운동시키는데 소요되는 에너지가 절감되고, 상기 탑승부(2220)의 왕복 운동 응답성이 향상되며, 상기 탑승부(2220)의 왕복 운동을 발생시키는 기구(제4 액추에이터(미도시), 제5 액추에이터(미도시), 제6 액추에이터(미도시))의 내구성이 향상될 수 있다.
그리고, 상기 탑승부(2220)가 상기 사전에 결정된 거리 범위 내에서 왕복 운동됨에 따라, 그 탑승부(2220)의 왕복 운동에 소요되는 에너지가 더욱 절감되고, 응답성이 더욱 향상되며, 내구성이 더욱 향상될 수 있다. 또한, 상기 탑승부(2220)가 지나치게 돌출되어 다른 구조물과 충돌되는 것이 미연에 방지될 수 있다.
여기서, 상기 탑승부(2220)가 상기 사전에 결정된 범위 내에서 왕복 운동됨에 따라, 체험자가 상기 사전에 결정됨 범위를 초과하여 이동하는 듯한 자극을 받는데 한계가 있을 수 있다. 이를 고려하여, 본 실시예에 따른 체험장치는, 상기 탑승부(2220)가 상기 사전에 결정된 범위 내에서 왕복 운동되더라도, 체험자는 상기 사전에 결정된 범위를 초과하여 이동하는 듯한 자극을 받도록 형성될 수 있다.
구체적으로, 실험 결과, 체험자는 시각적 자극과 물리적 자극을 통해 그 체험자의 움직임을 지각하는데, 시야를 가린 상태로, 사전에 결정된 속도 이상으로 물리적 자극을 받을 경우에는 그 물리적 자극을 인지하지만, 사전에 결정된 속도 미만으로 물리적 자극을 받을 경우에는 그 물리적 자극을 인지하지 못하는 것으로 판명되었다. 이를 이용하여, 본 실시예의 경우, 상기 영상기기(2100)는, 체험자가 그 영상기기(2100)에서 제공되는 영상만 볼 수 있도록 형성되고, 상기 탑승부(2220)가 상기 사전에 결정된 거리 범위 내에서 왕복 운동될 때 상기 탑승부(2220)가 상기 사전에 결정된 거리 범위보다 더 먼 거리를 이동하는 영상을 제공하도록 형성될 수 있다. 그리고, 상기 탑승부(2220)는 가속 상황 또는 감속 상황에서만 상기 사전에 결정된 거리 범위 내에서 사전에 결정된 속도(영상기기(2100)에 의해 시야가 가려진 체험자가 물리적 자극만으로 왕복 운동을 체감할 수 있는 속도 중 가장 작은 속도) 이상으로 왕복 운동되게 형성될 수 있다. 이에 의하여, 비록 상기 탑승부(2220)는 상기 사전에 결정된 거리 범위 내에서 왕복 운동되지만, 체험자는 상기 사전에 결정된 거리보다 더 먼 거리를 이동하는 듯한 자극을 받도록 할 수 있다.
예를 들어, 체험자가 HMD 형태의 영상기기(2100)를 착용하여 그 영상기기(2100)에서 제공되는 영상만 볼 수 있고 주변(체험자가 놓인 공간)에 대한 시야는 가려진 상태로 스키점프를 체험하는 상황(y축 방향 이동이 없는 상황)인 도 2를 참조하여 설명하면, 상기 영상기기(2100)는, 주행 기간(t0 내지 t2)에 x축 방향으로 80m만큼 전진하고 z축 방향으로 50m만큼 하강하는 영상을 제공하고, 도약 기간(t2 내지 t4)에 x축 방향으로 100m만큼 전진하고 z축 방향으로 30m만큼 상승하는 영상을 제공하고, 비행 기간(t4 내지 t6)에 x축 방향으로 120m만큼 전진하고 z축 방향으로 70m만큼 하강하는 영상을 제공하고, 착지 기간(t6 내지 t8)에 x축 방향으로 60m만큼 전진하고 z축 방향으로 10m만큼 하강하는 영상을 제공할 수 있다. 반면, 상기 탑승부(2220)는, 주행 기간 초반(t0 내지 t1) 동안 x축 방향을 따라 상기 사전에 결정된 속도 이상의 속도로 4cm만큼 전진되고 z축 방향을 따라 상기 사전에 결정된 속도 이상의 속도로 6cm만큼 하강되고, 주행 기간 중후반(t1 내지 t2) 동안 x축 방향 및 z축 방향 상 정지되고, 도약 기간 초반(t2 내지 t3) 동안 x축 방향으로 정지되고 z축 방향을 따라 상기 사전에 결정된 속도 이상의 속도로 6cm만큼 상승되고, 도약 기간 중후반(t3 내지 t4) 동안 x축 방향 및 z축 방향으로 정지되고, 비행 기간 초반(t4 내지 t5) 동안 x축 방향으로 정지되고 z축 방향을 따라 상기 사전에 결정된 속도 이상의 속도로 6cm만큼 하강되고, 비행 기간 중후반(t5 내지 t6) 동안 x축 방향으로 정지되고 z축 방향을 따라 상기 사전에 결정된 속도 미만의 속도로 6cm만큼 상승되고, 착지 기간 초반(t6 내지 t7) 동안 x축 방향을 따라 상기 사전에 결정된 속도 이상의 속도로 4cm만큼 후진되고 z축 방향을 따라 상기 사전에 결정된 속도 이상의 속도로 6cm만큼 하강되고, 착지 기간 중후반(t7 내지 t8) 동안 x축 방향 및 z축 방향으로 정지될 수 있다. 하지만, 체험자는 주행 기간(t0 내지 t2) 내내 x축 방향으로 80m만큼 전진하고 z축 방향으로 50m만큼 하강하는 움직임을 제공받고, 도약 기간(t2 내지 t4) 내내 x축 방향으로 100m만큼 전진하고 z축 방향으로 30m만큼 상승하는 움직임을 제공받고, 비행 기간(t4 내지 t6)에 x축 방향으로 120m만큼 전진하고 z축 방향으로 70m만큼 하강하는 움직임을 제공받고, 착지 기간(t6 내지 t8)에 x축 방향으로 60m만큼 전진하고 z축 방향으로 10m만큼 하강하는 움직임을 제공받는 것으로 인지할 수 있다.
한편, 본 실시예의 경우, 움직임의 자유도를 높이기 위해, 상기 제1 액추에이터(미도시) 내지 상기 제6 액추에이터(미도시)를 포함한다. 즉, 상기 탑승부(2220)가, 상기 제1 축을 기준으로 회전 가능하고, 상기 제2 축을 기준으로 회전 가능하고, 상기 제3 축을 기준으로 회전 가능하고, 상기 x축 방향으로 왕복 운동 가능하고, 상기 y축 방향으로 왕복 운동 가능하며, 상기 z축 방향으로 왕복 운동 가능하게 형성된다. 하지만, 이에 한정되는 것은 아니고, 상기 제1 액추에이터(미도시) 내지 상기 제3 액추에이터(미도시)를 포함하고, 상기 제4 액추에이터(미도시) 내지 상기 제6 액추에이터(미도시) 중 하나 또는 둘을 포함할 수 있다. 즉, 상기 탑승부(2220)가, 상기 제1 축을 기준으로 회전 가능하고, 상기 제2 축을 기준으로 회전 가능하고, 상기 제3 축을 기준으로 회전 가능하고, 상기 x축 방향, 상기 y축 방향 및 상기 z축 방향 중 한 방향 또는 두 방향으로 왕복 운동 가능하게 형성될 수 있다. 이 경우, 움직임의 자유도는 다소 낮아지나, 구동부(2240)를 제조 및 운행하는데 소요되는 원가가 절감될 수 있다.
한편, 본 실시예의 경우, 체험자의 의지와는 무관하게 시간의 흐름에 따라 사전에 결정된 영상과 움직임이 제공되게 형성된다. 하지만, 이에 한정되는 것은 아니고, 체험자의 의지에 대응되는 영상과 움직임이 제공되도록 형성될 수 있다.
구체적으로, 별도로 도시하지는 않았지만, 본 발명의 다른 실시예에 따른 체험장치는, 상기 영상기기(2100), 상기 탑승기기(2200), 상기 제어기기(미도시)를 포함하고, 체험자로부터 입력 데이터를 수신하는 조작기기(미도시)를 더 포함하며, 상기 영상기기(2100)가 상기 입력 데이터에 대응되는 영상을 체험자에게 제공하고, 상기 탑승기기(2200)가 상기 입력 데이터에 대응되는 움직임을 체험자에게 제공하도록 형성될 수 있다.
상기 조작기기(미도시)는, 상기 입력 데이터가 위치, 방향성, 속도, 가속도, 회전 등에 대한 정보를 포함하도록, 예를 들어 조이스틱, 햅틱 디바이스, 버튼, 체험자의 시선 이동을 측정하는 센서(제1 검출부(미도시)) 등으로 형성될 수 있다.
그리고, 영상은 상기 프로듀서(미도시)에 의해 상기 입력 데이터에 기초한 게임 컨텐츠로 형성될 수 있다.
상기 영상기기(2100)와 상기 탑승기기(2200)는 각각 마스터(master) 장치로 형성될 수 있다. 즉, 상기 영상기기(2100)가 상기 조작기기(미도시)로부터 상기 입력 데이터를 수신하고 그 입력 데이터에 기초하여 영상을 제공하도록 형성되고, 상기 탑승기기(2200)도 상기 조작기기(미도시)로부터 상기 입력 데이터를 수신하고 그 입력 데이터에 기초하여 움직임을 제공하도록 형성될 수 있다. 하지만, 이 경우, 상기 제1 데이터 베이스와 상기 제2 데이터 베이스의 용량이 커지고, 그 제1 데이터 베이스와 제2 데이터 베이스를 형성하는데 상당한 시간과 비용이 소요될 수 있다.
이를 고려하여, 상기 영상기기(2100)는 마스터 장치로 형성되고, 상기 탑승기기(2200)는 슬레이브(slave) 장치로 형성될 수 있다. 즉, 상기 영상기기(2100)는 상기 조작기기(미도시)로부터 상기 입력 데이터를 수신하고 그 입력 데이터에 기초하여 영상을 제공하도록 형성되나, 상기 탑승기기(2200)는 영상을 기초로 움직임을 제공하도록 형성될 수 있다. 여기서, 상기 탑승기기(2200)가 마스터 장치로 형성되고, 상기 영상기기(2100)가 슬레이브 장치로 형성될 수도 있으나, 상기 영상기기(2100)가 상기 탑승기기(2200)보다 제약이 크므로, 상기 영상기기(2100)가 마스터 장치로 형성되고 상기 영상기기(2100)가 슬레이브 장치로 형성되는 것이 바람직할 수 있다.
이를 위하여, 상기 프로듀서(미도시)는 상기 제1 데이터 베이스를 영상이 상기 입력 데이터에 따라 가변되게 형성하고, 상기 제2 데이터 베이스를 영상에 따라 가변되게 형성할 수 있다. 즉, 상기 제1 데이터 베이스는 상기 입력 데이터가 입력값이 되고 영상이 출력값이 되도록 형성되고, 상기 제2 데이터 베이스는 영상이 입력값이 되고 움직임이 출력값이 되도록 형성될 수 있다.
그리고, 상기 제어기기(미도시)는, 상기 제1 데이터 베이스와 상기 제2 데이터 베이스를 저장하고, 상기 조작기기(미도시)로부터 상기 입력 데이터를 수신하며, 상기 제1 데이터 베이스, 상기 제2 데이터 베이스 및 상기 입력 데이터에 기초하여 상기 영상기기(2100)와 상기 구동부(2240)를 제어하도록 형성될 수 있다. 즉, 상기 제어기기(미도시)는, 상기 조작기기(미도시)로부터 수신하는 입력 데이터를 상기 제1 데이터 베이스에 대입시켜 그 입력 데이터에 대응되는 영상을 선택하고, 선택한 영상을 상기 영상기기(2100)에 발송하고, 그 선택한 영상을 상기 제2 데이터 베이스에 대입시켜 그 영상에 대응되는 움직임을 선택하여 상기 구동부(2240)로 발송하도록 형성될 수 있다.
이러한 구성에 따른 본 발명의 다른 실시예에 따른 체험장치는 다음의 제어방법에 따라 운행될 수 있다.
즉, 체험이 시작되면, 제1' 단계(S1')에서, 상기 조작기기(미도시)는 체험자로부터 상기 입력 데이터를 수신할 수 있다.
그 다음, 제2' 단계(S2')에서, 상기 조작기기(미도시)는 상기 제1' 단계(S1')를 통해 수신한 입력 데이터를 상기 제어기기(미도시)로 발송할 수 있다.
그 다음, 제3' 단계(S3')에서, 상기 제어기기(미도시)는 상기 제2' 단계(S2')를 통해 수신한 입력 데이터를 상기 제1 데이터 베이스에 대입시켜 그 입력 데이터에 대응되는 영상(전방위 영상)을 선택할 수 있다.
그 다음, 제4-1-1' 단계(S411')에서, 상기 제1 검출부(미도시)는 그 제1 검출부(미도시)의 측정값을 상기 제어기기(미도시)로 발송하고, 상기 제2 검출부(미도시)는 그 제2 검출부(미도시)의 측정값을 상기 제어기기(미도시)로 발송할 수 있다.
그 다음, 제4-1-2' 단계(S412')서, 상기 제어기기(미도시)는 상기 제1 검출부(미도시)의 측정값과 상기 제2 검출부(미도시)의 측정값을 기초로 체험자의 시야를 연산할 수 있다.
그 다음, 제4-1-3' 단계(S413')에서, 상기 제어기기(미도시)는 상기 제3' 단계(S3')에서 선택된 영상(전방위 영상) 중 상기 제4-1-2' 단계(S412')서 연산된 체험자의 시야에 대응되는 영상(시야 대응 영상)을 선택하여 상기 영상 표시부에 발송할 수 있다.
그 다음, 제4-1-4' 단계(S414')에서, 상기 영상 표시부는 상기 제4-1-3' 단계(S413')를 통해 수신한 영상을 재생할 수 있다.
한편, 제4-2-1' 단계(S421')에서, 상기 제어기기(미도시)는 상기 제3' 단계(S3')에서 선택된 영상(전방위 영상)에 대응되는 움직임을 선택하고, 그 선택한 움직임을 상기 구동부(2240)로 발송할 수 있다.
그 다음, 제4-2-2' 단계(S422')에서, 상기 구동부(2240)는 상기 제4-2-1' 단계(S421')를 통해 수신한 움직임을 이행할 수 있다.
한편, 상기 제4-1-4' 단계(S414') 및 상기 제4-2-2' 단계(S422') 중 적어도 하나가 종료되면, 제5' 단계(S5')에서, 상기 제어기기(미도시)는 체험이 종료되었는지 판단할 수 있다. 즉, 상기 제어기기(미도시)는 별도로 설정된 체험 종료 조건(예를 들어, 게임 컨텐츠 상 게임 오버)이 충족되었는지 판단할 수 있다.
그리고, 상기 제5' 단계(S5')에서, 체험이 종료되었다고 판단될 경우(체험 종료 조건이 충족된 경우)에는 체험이 종료되고, 체험이 진행중이라고 판단될 경우(체험 종료 조건이 불충족된 경우)에는 후술할 제6' 단계(S6')로 진행될 수 있다.
제6' 단계(S6')에서는, 상기 제2 검출부(미도시)가 그 제2 검출부(미도시)의 측정값(구동부(2240)의 실제 움직임)을 상기 제어기기(미도시)로 발송할 수 있다.
그 다음, 제7' 단계(S7')에서, 상기 제어기기(미도시)는 상기 제6' 단계(S6')를 통해 수신한 제2 검출부(미도시)의 측정값(구동부(2240)의 실제 움직임)이 구동부(2240)의 목표 움직임과 일치되는지 판단할 수 있다.
그리고, 상기 제7' 단계(S7')에서, 구동부(2240)의 실제 움직임과 목표 움직임이 일치된다고 판단될 경우 상기 제1' 단계(S1')로 복귀되고, 구동부(2240)의 실제 움직임과 목표 움직임이 불일치된다고 판단될 경우 후술할 제8' 단계(S8')로 진행될 수 있다.
제8' 단계(S8')에서, 상기 제어기기(미도시)는 상기 구동부(2240)가 사전에 결정된 구동속도보다 빠른 구동속도로 이행하도록 그 구동부(2240)에 지시를 내릴 수 있다.
상기 제8' 단계(S8')가 종료되면, 상기 제1' 단계(S1')로 복귀될 수 있다.
여기서, 상기 제6' 단계(S6') 내지 제8' 단계(S8')는 사전에 결정된 시간 간격(예를 들어, 12ms)으로 실행될 수 있다.
한편, 본 실시예의 경우, 제작자가 소프트웨어를 통해 사전에 규정해 놓은 영상과 움직임을 체험자에게 제공하도록 형성된다. 즉, 체험자가 체험하는 환경은 제작자에 의해 사전에 제작된 가상현실이지, 실제 환경이 아니다. 하지만, 이에 한정되는 것은 아니고, 체험자가 실제 환경을 체험하도록 형성될 수 있다.
구체적으로, 본 발명의 또 다른 실시예에 따른 체험장치는, 상기 프로듀서(미도시)가 소프트웨어가 아닌 제1 공간을 이동하며 영상과 움직임을 수집하여 상기 시뮬레이터(2000)로 전송하는 아바타(1200)로 형성될 수 있다.
첨부된 도 3 및 도 4를 참조하여 더욱 구체적으로 설명하면, 본 발명의 또 다른 실시예에 따른 체험장치는, 제1 공간을 이동하는 아바타(avatar)(1200) 및 상기 제1 공간과 상이한 공간인 제2 공간에 있는 체험자가 상기 아바타(1200)에 탑승한 것과 같은 체험을 하도록 그 체험자에게 자극을 가하는 시뮬레이터(simulator)(2000)를 포함할 수 있다.
상기 아바타(1200)는 상기 제1 공간을 이동하는 동안 그 아바타(1200)가 겪는 영상 및 움직임을 수집하여 상기 시뮬레이터(2000)로 전송하도록 형성될 수 있다.
구체적으로, 상기 아바타(1200)는, 외관을 형성하는 보디(body)(1210), 상기 보디(1210)를 이동시키는 이송수단(1220), 상기 보디(1210)에서 보이는 영상을 수집하는 촬영기기(1230), 상기 보디(1210)에 가해지는 물리적 움직임을 수집하는 모션캡쳐(1240) 및 상기 촬영기기(1230)에 의해 수집되는 영상 및 상기 모션캡쳐(1240)에 의해 수집되는 움직임을 상기 시뮬레이터(2000)로 전송하는 전송기기(1250)를 포함할 수 있다.
상기 보디(1210)는, 상기 이송수단(1220), 상기 촬영기기(1230), 상기 모션캡쳐(1240) 및 상기 전송기기(1250)를 지지하는 프레임(1212) 및 상기 프레임(1212)을 복개하는 커버(1214)를 포함할 수 있다.
상기 이송수단(1220)은, 전력을 저장 및 방출하는 배터리(1222), 상기 배터리(1222)로부터 공급되는 전력을 구동력으로 전환하는 모터(1224), 상기 모터(1224)에서 발생되는 구동력을 전달하는 동력전달기구(1226) 및 상기 동력전달기구(1226)로부터 전달받은 구동력으로 회전되는 휠(1228)을 포함할 수 있다. 여기서, 상기 이송수단(1220)은 전력으로 구동되게 형성되나, 다른 방식(예를 들어, 화학에너지를 이용한 엔진 및 변속기 등)으로 구동되게 형성될 수도 있다.
상기 촬영기기(1230)는 상기 아바타(1200)(더욱 정확히는, 촬영기기(1230))를 둘러싸는 360도 전방위 영상 또는 그 전방위 영상 중 일부를 촬영하는 카메라(예를 들어, 전방위 카메라, 어안렌즈를 적용하여 화각이 180도 이상인 양안 방식 스테레오 카메라 등)로 형성될 수 있다.
상기 모션캡쳐(1240)는 방향 전환, 감속, 가속, 회전, 방향성 등을 수집할 수 있도록 예를 들어 자이로(gyro) 센서, 가속도 센서를 구비하여 구성될 수 있다.
상기 전송기기(1250)는 RF 대역의 무선 송수신 장치로 형성될 수 있다.
여기서, 본 실시예에 따른 아바타(1200)는 상기 제1 공간에 구비되는 궤도(3000)를 따라 이동 가능한 차량(예를 들어, 롤러코스터)으로 형성되고, 상기 궤도(3000)에는 광고를 위한 복수 종류의 광고판(미도시) 및 어트랙션(attraction) 향상을 위해 예를 들어 불, 물, 연무, 레이져 등을 방출하는 복수 종류의 특수 효과 장치(미도시)가 상기 궤도(3000)를 따라 배치될 수 있다. 그리고, 상기 아바타(1200), 상기 궤도(3000), 상기 광고판(미도시) 및 상기 특수 효과 장치(미도시)는, 설치 및 운영에 필요한 공간 및 비용을 절감하기 위해, 체험자가 탑승 가능하게 형성되는 경우보다 작은 스케일(예를 들어, 미니어쳐 스케일)로 형성될 수 있다.
한편, 상기 아바타(1200)는 상기 시뮬레이터(2000)와 함께 전술한 시야 대응 영상 제공 방식으로 영상을 제공하도록 형성될 수 있다. 이에 대한 상세한 설명은 후술한다.
또한, 상기 아바타(1200)는 정보 처리용 컴퓨팅 보드(1260)를 더 포함하여, 상기 시뮬레이터(2000)와 함께 영상과 움직임이 서로 일치되도록 형성될 수 있다. 이에 대한 상세한 설명은 후술한다.
또한, 상기 아바타(1200)는, 안정적이고 퀄러티 높은 영상을 수집하기 위해, 상기 보디(1210)와 상기 촬영기기(1230) 사이에 상기 보디(1210)의 진동이 상기 촬영기기(1230)로 전달되는 것을 방지하는 완충기기(1270)를 더 포함할 수 있다. 상기 완충기기(1270)는, 상기 촬영기기(1230)를 수용하면서 상기 보디(1210)(더욱 정확히는, 프레임(1212))에 고정되는 환형부(1272) 및 상기 환형부(1272)의 내주면과 상기 촬영기기(1230) 사이에 개재되고 상기 촬영기기(1230)가 상기 환형부(1272)의 내부에서 상대 운동 가능하도록 그 촬영기기(1230)를 지지하는 완충부(1274)를 포함할 수 있다. 상기 완충부(1274)는 상기 촬영기기(1230)를 중심으로 방사형으로 형성되고, 예를 들어 고무와 같은 탄성 재질로 형성될 수 있다.
상기 시뮬레이터(2000)는 전술한 실시예와 대동소이하게 형성될 수 있다. 다만, 본 실시예에 따른 시뮬레이터(2000)는 상기 아바타(1200)로부터 수신하는 영상 및 움직임을 체험자에게 제공하도록 형성될 수 있다.
구체적으로, 상기 시뮬레이터(2000)는, 상기 아바타(1200)의 전송기기(1250)와 전기적으로 연결되고 상기 아바타(1200)로부터 영상과 움직임(더욱 정확히는, 타임 라인, 그 타임 라인을 기준으로 수집된 영상과 움직임이 통합된 파일)을 수신하는 통신기기(미도시), 상기 통신기기(미도시)를 통해 수신한 영상을 체험자에게 제공하는 영상기기(2100), 상기 통신기기(미도시)를 통해 수신한 움직임을 체험자에게 제공하는 탑승기기(2200) 및 상기 영상기기(2100)와 상기 탑승기기(2200)를 제어하는 제어기기(미도시)를 포함할 수 있다.
상기 통신기기(미도시)는 무선 통신 장비로 형성되고, 상기 전송기기(1250)로부터 영상 및 움직임을 수신할 뿐만 아니라, 음성과 같은 다른 정보도 수신할 수 있고, 입력 데이터와 같은 정보를 상기 전송기기(1250)로 전송할 수 있도록 형성될 수 있다. 즉, 상기 전송기기(1250)와 상기 통신기기(미도시)는 양방향 통신이 가능하도록 형성될 수 있다.
상기 영상기기(2100)는 체험자가 시각을 통해 상기 아바타(1200)에 탑승한 것과 같은 체험을 할 수 있도록 하기 위한 것으로서, 전술한 실시예와 대동소이하게 형성될 수 있다.
상기 탑승기기(2200)는 체험자가 물리적 움직임을 통해 상기 아바타(1200)에 탑승한 것과 같은 체험을 할 수 있도록 하기 위한 것으로서, 전술한 실시예와 대동소이하게 형성될 수 있다.
상기 제어기기(미도시)는 상기 아바타(1200), 상기 영상기기(2100) 및 상기 탑승기기(2200)에 전기적으로 연결되는 서버 또는 컴퓨터로 형성되고, 상기 영상기기(2100)를 제어하는 영상 제어부, 상기 구동기기를 제어하는 구동 제어부 및 상기 영상 제어부와 상기 구동 제어부를 제어하기 위한 통합 제어부를 포함할 수 있다.
여기서, 상기 아바타(1200) 및 상기 시뮬레이터(2000)는, 체험자가 실제 환경에 들어와 있는 것(아바타(1200)에 탑승한 것)과 같은 영상을 볼 수 있도록, 아바타(1200)를 둘러싸는 영상(전방위 영상) 중 체험자가 아바타(1200)에 탑승한 상태를 전제로 체험자의 시선이 향하는 방향의 영상(시야 대응 영상)으로 제공되는 방식(시야 대응 영상 제공 방식)으로 형성될 수 있다. 즉, 상기 촬영기기(1230)는 전술한 바와 같이 상기 아바타(1200)를 둘러싸는 전방위 영상을 수집하도록 형성되고, 상기 영상기기(2100) 및 상기 제어기기(미도시)는 상기 아바타(1200)에서 수집된 전방위 영상 중 특정 부위(체험자의 시선이 향하는 부위)에 해당되는 시야 대응 영상을 상기 영상 표시부에서 보여지도록 형성될 수 있다. 이러한 시야 대응 영상 제공 및 시야 보정에 대한 더욱 상세한 설명은 전술한 실시예와 중복되므로 생략한다.
한편, 전술한 실시예와 유사하게, 상기 아바타(1200)와 상기 시뮬레이터(2000)는, 아바타(1200)를 통한 영상 및 움직임 수집단계에서 일차적으로 상기 시뮬레이터(2000)에서 제공될 영상과 움직임을 서로 대응시키고, 상기 시뮬레이터(2000)를 통한 영상 및 움직임 재생단계에서 이차적으로 영상과 움직임을 서로 대응시키도록 형성될 수 있다.
구체적으로, 상기 아바타(1200)는 상기 컴퓨팅 보드(1260)를 통해 상기 촬영기기(1230)가 촬영하는 영상을 타임 라인을 기준으로 수집하고, 상기 모션캡쳐(1240)가 측정하는 움직임을 상기 타임 라인을 기준으로 수집하며, 상기 타임 라인, 그 타임 라인을 기준으로 수집된 영상과 움직임을 하나의 파일로 통합하여 상기 시뮬레이터(2000)로 전송하도록 형성될 수 있다. 이하에서는 상기 파일을 통합 파일이라 한다. 이 경우, 영상과 움직임을 서로 별개로 수집 및 전송하는 경우보다, 영상과 움직임 수집 단계에서 영상과 움직임 사이 딜레이가 발생되는 현상이 현저히 감소되고, 결과적으로 상기 영상기기(2100)에서 보여질 움직임과 상기 탑승기기(2200)에서 제공될 움직임이 서로 일치되기 쉬워 질 수 있다.
상기 시뮬레이터(2000)는, 상기 아바타(1200)로부터 수신하는 상기 통합 파일에 기초하여, 상기 영상기기(2100)가 상기 타임 라인을 기준으로 영상을 체험자에게 제공하고, 상기 탑승기기(2200)가 상기 타임 라인을 기준으로 움직임을 체험자에게 제공하도록 형성될 수 있다.
즉, 상기 통합 파일은, 체험 시작 시점부터 체험 종료 시점까지의 체험 시간에 포함되는 복수의 시점들인 제1 내지 제n 타임 스탬프, 상기 제1 내지 제n 타임 스탬프에 각각 대응되는 영상인 제1 내지 제n 영상 및 상기 제1 내지 제n 타임 스탬프에 각각 대응되는 움직임인 제1 내지 제n 움직임을 포함할 수 있다. 여기서, 상기 제1 내지 제n 타임 스탬프는 상기 타임 라인을 형성한다.
이러한 상기 통합 파일은 상기 제어기기(미도시)에 저장되고, 상기 제어기기(미도시)의 통합 제어부는 사전에 결정된 시간(예를 들어, 10ms) 간격으로 상기 제1 내지 제n 타임 스탬프를 상기 영상 제어부와 상기 구동 제어부에 순차적으로 동시 발송하고, 상기 제어기기(미도시)의 영상 제어부는 상기 제1 내지 제n 영상 중 상기 통합 제어부로부터 수신하는 타임 스탬프에 대응되는 영상을 선택하고 그 선택한 영상 중 시야 대응 영상을 상기 영상 표시부로 발송하며, 상기 제어기기(미도시)의 구동 제어부는 상기 제1 내지 제n 움직임 중 상기 통합 제어부로부터 수신하는 타임 스탬프에 대응되는 움직임을 선택하여 상기 구동부(2240)로 발송하도록 형성될 수 있다.
그리고, 상기 시뮬레이터(2000)는, 체험 중에 영상과 움직임의 지속적인 동기화를 위해, 목표 영상(영상기기(2100)에서 제공되어야 하는 영상)과 실제 영상(영상기기(2100)에서 제공되는 영상)을 사전에 결정된 주파수(예를 들어, 60Hz) 간격으로 비교 및 일치시키고, 목표 움직임(탑승기기(2200)에서 제공되어야 하는 움직임)과 실제 움직임(탑승기기(2200)에서 제공되는 움직임)을 사전에 결정된 시간(예를 들어, 12ms) 간격으로 비교 및 일치시키도록 형성될 수 있다.
이에 대해 더욱 상세히 설명하기 위해, 이하에서는, 상기 제1 내지 제n 타임 스탬프 중 상기 목표 영상 및 상기 목표 움직임에 대응되는 타임 스탬프(통합 제어부로부터 발송된 타임 스탬프)를 목표 타임 스탬프라 하고, 상기 실제 영상에 대응되는 타임 스탬프(영상 표시부로 발송된 타임 스탬프)를 실제 영상 타임 스탬프라 하며, 상기 실제 움직임에 대응되는 타임 스탬프(구동부(2240)로 발송된 타임 스탬프)를 실제 움직임 타임 스탬프라 한다.
이때, 상기 시뮬레이터(2000)는 상기 목표 타임 스탬프와 상기 실제 영상 타임 스탬프를 비교하여 상기 목표 영상과 상기 실제 영상의 일치 여부를 비교하도록 형성될 수 있다. 그리고, 상기 시뮬레이터(2000)는, 상기 실제 영상 타임 스탬프가 상기 목표 타임 스탬프보다 이른 시점일 경우, 상기 영상기기(2100)가 사전에 결정된 속도보다 빠른 속도로 영상을 제공하도록 형성될 수 있다. 그리고, 상기 시뮬레이터(2000)는, 상기 실제 영상 타임 스탬프가 상기 목표 타임 스탬프보다 나중 시점일 경우, 상기 영상기기(2100)가 사전에 결정된 속도보다 느린 속도로 영상을 제공하도록 형성될 수 있다.
아울러, 상기 시뮬레이터(2000)는 상기 목표 타임 스탬프와 상기 실제 움직임 타임 스탬프를 비교하여 상기 목표 영상과 상기 실제 움직임의 일치 여부를 비교하도록 형성될 수 있다. 그리고, 상기 시뮬레이터(2000)는, 상기 실제 움직임 타임 스탬프가 상기 목표 타임 스탬프보다 이른 시점일 경우, 상기 구동부(2240)가 사전에 결정된 속도보다 빠른 속도로 움직임을 제공하도록 형성될 수 있다. 그리고, 상기 시뮬레이터(2000)는, 상기 실제 움직임 타임 스탬프가 상기 목표 타임 스탬프보다 나중 시점일 경우, 상기 구동부(2240)가 사전에 결정된 속도보다 느린 속도로 움직임을 제공하도록 형성될 수 있다.
이러한 구성에 따른 체험장치의 작용효과는 전술한 실시예와 대동소이할 수 있다. 다만, 이 경우, 제1 공간을 이동하는 아바타(1200) 및 제2 공간에 있는 체험자가 상기 아바타(1200)에 탑승한 것과 같은 체험을 하도록 그 체험자에게 자극을 가하는 시뮬레이터(2000)를 포함하여, 체험자가 가상현실이 아닌 실제 환경을 체험하게 함으로써, 현실감을 더욱 향상시킬 수 있다.
그리고, 상대적으로 적은 시간과 비용으로 다양한 환경을 체험하도록 할 수 있다. 즉, 가상현실을 제작하지 않으므로, 그 가상현실 제작에 소요되는 시간과 비용이 절감될 수 있다. 물론, 가상현실 제작 대신, 아바타(1200) 및 제1 공간(본 실시예의 경우, 궤도(3000))을 제작하는데 시간 및 비용이 소요되나, 가상현실 제작에 소요되는 시간과 비용보다는 적고, 아바타(1200) 및 제1 공간의 스케일을 미니어쳐 스케일로 제작할 경우 그 소요 시간과 비용은 현저히 감소될 수 있다. 여기서, 미니어쳐 스케일의 경우, 제1 공간의 구성을 변경하는데 소요되는 시간과 비용이 감소될 수 있다. 즉, 새로운 체험을 위해, 실제 롤러코스터에서 궤도(3000)를 변경하는데 상당한 시간과 비용이 소요되지만, 본 실시예의 경우 궤도(3000)를 변경하는데 매우 적은 시간과 비용이 소요될 수 있다. 그리고, 미니어쳐 스케일의 경우, 상기 광고판(미도시) 및 상기 특수 효과 장치(미도시)를 설치하는데 소요되는 시간과 비용이 감소되어, 최소 비용으로 최대 효과를 얻을 수 있다.
그리고, 아바타(1200)와 제1 공간을 구성하는데 소요되는 시간과 비용이 적으므로, 제한된 예산 내에서 다양한 위치에 각각 아바타(1200)와 제1 공간을 구성하고, 그 중 하나가 선택적으로 시뮬레이터(2000)에 링크되도록 형성될 수 있다. 즉, 예를 들어, 하와이에 제1 궤도 및 그 제1 궤도를 주행하는 제1 아바타, 알프스에 제2 궤도 및 그 제2 궤도를 주행하는 제2 아바타, 케냐에 제3 궤도 및 그 제3 궤도를 주행하는 제3 아바타, 태평양 바다 속에 제4 궤도 및 그 제4 궤도를 주행하는 제4 아바타를 형성하고, 선택적으로 상기 제1 아바타, 상기 제2 아바타, 상기 제3 아바타 및 상기 제4 아바타 중 어느 하나와 링크되는 시뮬레이터(2000)가 서울에 형성될 수 있다. 이 경우, 상대적으로 적은 시간과 비용으로 매우 다양한 체험을 경험하게 할 수 있다.
그리고, 상기 시뮬레이터(2000)를 통해 체험자에게 자극을 제공함으로써, 공간 제약을 덜 받으면서, 상대적으로 적은 시간과 비용으로, 체험자에게 그 체험자가 마치 실제 기구에 탑승한 것과 같은 움직임을 제공할 수 있다.
한편, 도 3 및 도 4에 도시된 실시예의 경우 상기 아바타(1200)는 궤도(3000)(사전에 결정된 코스)를 따라 이동하는 차량 형태로 형성되나, 이에 대한 매우 다양한 다른 실시예가 존재할 수 있다.
즉, 상기 아바타(1200)는 시뮬레이션 상 시야를 치환하며 자유롭게 이동 가능한 물체(이동수단)로 형성될 수 있다. 즉, 도로 위를 자유롭게 주행하는 차량, 드론과 같은 항공기, 미사일, 로켓, 선박 등으로 형성될 수 있다. 이 경우, 상기 아바타(1200)가 예를 들어 관광지, 해외 명소 등을 자유롭게 이동할 수 있어, 체험자가 마치 여행을 하는 것과 같은 체험을 할 수 있다.
여기서, 상기 아바타(1200)는 관리자에 의해 운전되도록 형성될 수도 있으나, 체험자가 원하는 환경을 체험할 수 있도록 체험자에 의해 운전되게 형성될 수도 있다. 즉, 상기 시뮬레이터(2000)는 체험자로부터 입력 데이터를 수신하는 조작기기(미도시)를 더 포함하고, 상기 입력 데이터가 상기 통신기기(미도시)를 통해 상기 아바타(1200)로 전송되고, 상기 아바타(1200)는 수신되는 입력 데이터에 따라 상기 이송수단(1220)이 운전되도록 형성될 수 있다.
그리고, 상기 아바타(1200)는 그 아바타(1200) 자체가 상기 이동하는 물체로 형성(이송수단(1220)이 이동하는 물체의 구동원으로 형성)되나, 상기 이동하는 물체에 장착되는 방식으로 형성(이송수단(1220)이 이동하는 물체로 형성)될 수도 있다. 즉, 상기 아바타(1200)는 차량, 항공기, 미사일, 로켓, 선박 등에 설치되는 유닛으로 형성될 수 있다. 이 경우, 체험자에게 그 체험자가 차량, 항공기, 미사일, 로켓, 선박 등에 탑승한 것과 같은 체험을 할 수 있고, 그 차량, 항공기 등의 개발, 성능 평가 등에 활용될 수도 있다. 또는, 상기 아바타(1200)가 웨어러블(wearable) 기기로 형성되어 생명체에 입혀질 수도 있다. 이 경우, 상기 아바타(1200)가 예를 들어 고래 등과 같은 동물에 장착되어, 체험자가 그 동물에 탑승한 것과 같은 체험을 할 수도 있고, 그 동물의 생태 연구에 활용될 수도 있다. 그리고, 상기 아바타(1200)가 예를 들어 스키점프 선수와 같은 사람에 장착되어, 체험자가 그 사람과 동일한 체험을 할 수도 있다.
한편, 도 3 및 도 4에 도시된 실시예의 경우 상기 아바타(1200)가 겪는 체험을 상기 시뮬레이터(2000)가 체험자에게 실시간으로 제공하게 형성되나, 상기 아바타(1200)가 겪는 체험을 저장하였다가 상기 시뮬레이터(2000)가 체험자에게 수시로(체험자가 체험을 원할 때마다) 제공하도록 형성될 수 있다. 예를 들어, 상기 아바타(1200)가 웨어러블 기기로 형성되고, 제1 시점에 어떠한 사람(이하, 이용자라 함)이 그 아바타(1200)를 장착한 후 스카이 다이빙을 체험할 수 있다. 그리고, 그 제1 시점에 겪은 체험을 소정의 저장기기(예를 들어, 시뮬레이터(2000)에 내장되는 메모리)에 파일로 저장하였다가, 상기 제1 시점보다 나중 시점인 제2 시점에 상기 이용자가 상기 시뮬레이터(2000)에 탑승하고 저장되어 있던 파일을 재생시켜 상기 제1 시점에서 겪었던 스카이 다이빙을 다시 경험할 수 있다. 이 경우, 제1 시점의 이용자(혹은, 제1 시점의 이용자가 장착한 웨어러블 기기)는 아바타(1200)가 되고, 제2 시점의 이용자는 시뮬레이터(2000)에 탑승하는 체험자가 될 수 있다. 이에 의하면, 체험자는 시공간을 초월하며 과거에 겪었던 체험을 다시 체험하면서 그 때의 감흥을 다시 느낄 수 있다.
한편, 도 3 및 도 4에 도시된 실시예의 경우, 상기 아바타(1200)(더욱 정확히는, 촬영기기(1230))는 전방위 영상을 수집하여 상기 시뮬레이터(2000)로 전송하고, 상기 시뮬레이터(2000)는 상기 아바타(1200)로부터 수신한 전방위 영상 중 시야 대응 영상을 제공하도록 형성된다. 그러나, 상기 아바타(1200)는 상기 전방위 영상 중 상기 촬영기기(1230)의 화각 내 영상을 수집하되, 그 촬영기기(1230)의 화각이 체험자의 시야에 따라 조절되고, 상기 시뮬레이터(2000)는 상기 촬영기기(1230)로 수집된 영상을 제공하도록 형성될 수 있다. 즉, 상기 아바타(1200)에서 영상을 수집하는 단계에서부터 상기 전방위 영상이 아닌 일부 영상을 수집하고, 그 일부 영상을 상기 시뮬레이터(2000)가 재생하되, 그 일부 영상이 체험자의 시야에 대응되는 영상이 되도록 형성될 수 있다. 여기서, 상기 촬영기기(1230)의 시선(화각)은 전술한 바와 같은 연산된 시야에 따라 조절되게 형성될 수 있다. 이 경우, 수집, 전송 및 저장해야 하는 데이터의 크기가 감소되어, 처리 속도가 향상될 수 있다.
한편, 상기 탑승부(2220)의 개수와 상기 구동부(2240)의 개수는 적절히 조절될 수 있다.
즉, 한 번에 한 명의 체험자가 체험할 수 있도록 하나의 구동부(2240)에 하나의 탑승부(2220)가 결합될 수 있다.
또는, 한 번에 여러 명의 체험자가 체험하여 회전율을 향상시킬 수 있도록 하나의 구동부(2240)에 복수의 탑승부(2220)가 결합될 수도 있다.
또는, 회전율을 더욱 향상시킬 수 있도록, 상기 구동부(2240)가 복수로 구비되고, 각 구동부(2240)마다 적어도 하나의 탑승부(2220)가 결합될 수도 있다. 즉, 상기 시뮬레이터(2000)가 복수로 구비될 수 있다. 이 경우, 복수의 시뮬레이터(2000)는 서로 독립적으로 영상과 움직임을 제공할 수 있다.
2100: 영상기기 2200: 탑승기기
2220: 탑승부 2240: 구동부
2241: 제1 기구 2242: 제2 기구
2243: 제3 기구

Claims (11)

  1. 체험자에게 영상을 제공하는 영상기기(2100); 및
    체험자에게 움직임을 제공하는 탑승기기(2200);를 포함하고,
    상기 탑승기기(2200)는,
    체험자에게 탑승 가능한 공간을 제공하는 탑승부(2220); 및
    상기 탑승부(2220)에 피칭, 요잉, 롤링 및 왕복 운동을 발생시키는 구동부(2240);를 포함하고,
    상기 탑승부(2220)는 상기 구동부(2240)를 기준으로 사전에 결정된 거리 범위 내에서 왕복 운동 가능하게 형성되고,
    상기 탑승부(2220)가 상기 사전에 결정된 거리 범위 내에서 왕복 운동 될 때, 상기 영상기기(2100)는 상기 탑승부(2220)가 상기 사전에 결정된 거리 범위보다 더 먼 거리를 이동하는 영상을 제공하도록 형성되고,
    상기 영상기기(2100)는 체험자가 그 영상기기(2100)에서 제공되는 영상만 볼 수 있도록 형성되고,
    상기 탑승부(2220)는 가속 상황 또는 감속 상황에서만 상기 사전에 결정된 거리 범위 내에서 사전에 결정된 속도 이상으로 왕복 운동 되게 형성되고,
    상기 사전에 결정된 속도는 체험자에게 인가되는 시각적 자극과 물리적 자극을 통해 움직임을 지각할 수 있는 체험자가 시각적 자극을 배제하고 단지 물리적 자극만으로 상기 탑승부(2220)의 왕복 운동을 체감할 수 있는 속도 중 가장 작은 속도로 형성되는 체험장치.
  2. 제1항에 있어서,
    상기 구동부(2240)는,
    그 구동부(2240)를 지지하는 지지물에 지지되고, 제1 축을 기준으로 회전 가능하게 형성되는 제1 기구(2241);
    상기 제1 기구(2241)에 지지되고, 상기 제1 축에 수직한 제2 축을 기준으로 회전 가능하게 형성되는 제2 기구(2242); 및
    상기 제2 기구(2242)에 지지되고, 상기 제2 축에 수직한 제3 축을 기준으로 회전 가능하게 형성되며, 상기 탑승부(2220)와 결합되는 제3 기구(2243);를 포함하고,
    상기 탑승부(2220)는 상기 제3 기구(2243)에 왕복 운동 가능하게 결합되는 체험장치.
  3. 제2항에 있어서,
    상기 탑승부(2220)는 적어도 한 방향으로 왕복 운동 가능하게 형성되는 체험장치.
  4. 제3항에 있어서,
    상기 탑승부(2220)는 체험자의 전후 방향, 체험자의 좌우 방향 및 체험자의 상하 방향 중 적어도 한 방향으로 왕복 운동 가능하게 형성되는 체험장치.
  5. 제4항에 있어서,
    상기 탑승부(2220)는 체험자의 전후 방향, 체험자의 좌우 방향 및 체험자의 상하 방향으로 왕복 운동 가능하게 형성되는 체험장치.
  6. 삭제
  7. 제1항에 있어서,
    상기 사전에 결정된 거리 범위는 0(영) 이상 10cm 이하로 형성되는 체험장치.
  8. 삭제
  9. 삭제
  10. 삭제
  11. 삭제
KR1020170176880A 2017-12-21 2017-12-21 체험장치 KR102083529B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170176880A KR102083529B1 (ko) 2017-12-21 2017-12-21 체험장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170176880A KR102083529B1 (ko) 2017-12-21 2017-12-21 체험장치

Publications (2)

Publication Number Publication Date
KR20190075358A KR20190075358A (ko) 2019-07-01
KR102083529B1 true KR102083529B1 (ko) 2020-03-02

Family

ID=67255327

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170176880A KR102083529B1 (ko) 2017-12-21 2017-12-21 체험장치

Country Status (1)

Country Link
KR (1) KR102083529B1 (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016189572A1 (ja) * 2015-05-27 2016-12-01 泉陽興業株式会社 遊戯施設

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR200347158Y1 (ko) 2004-01-09 2004-04-09 (주)엔틱스소프트 3차원 자이로모션 시뮬레이터
KR20170106161A (ko) * 2016-03-11 2017-09-20 주식회사 상화 가상현실 체험장치

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016189572A1 (ja) * 2015-05-27 2016-12-01 泉陽興業株式会社 遊戯施設

Also Published As

Publication number Publication date
KR20190075358A (ko) 2019-07-01

Similar Documents

Publication Publication Date Title
KR101914140B1 (ko) 가상현실 체험장치
CN1114882C (zh) 使使用者投入虚拟现实的方法及装置
CN104461018B (zh) 电磁式多自由度虚拟漫游行进平台
JP6798042B2 (ja) 着座式運動シミュレーション型遊園地アトラクション
US9599821B2 (en) Virtual reality system allowing immersion in virtual space to consist with actual movement in actual space
JP7141412B2 (ja) 仮想現実モバイルポッド
CN1190761C (zh) 使用户陷入虚拟现实中的系统
CN105144248A (zh) 信息处理设备和信息处理方法、显示设备和显示方法与信息处理系统
JP6242473B1 (ja) 仮想空間を提供するための方法、および当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
WO2024012394A1 (zh) 一种虚拟现实的交互平台
KR102083528B1 (ko) 체험장치
KR101922677B1 (ko) 체험장치
US10832490B2 (en) Virtual reality experience apparatus capable of providing experiencing user with virtual reality image and physical motion
KR102083529B1 (ko) 체험장치
JP2019046248A (ja) 仮想空間を提供するための方法、プログラム、および当該プログラムを実行するための情報処理装置
KR102167316B1 (ko) 체험장치
JP6820299B2 (ja) プログラム、情報処理装置、および方法
CN111544836A (zh) 一种模拟星球重力的空间定向适应性训练装置及方法
KR20210133344A (ko) 혼합 현실 체험 기구의 제어 장치 및 방법
US20220126198A1 (en) Gaming Vest
JP2021064399A (ja) プログラム、情報処理装置、および方法
JP2018106694A (ja) 仮想空間を提供するための方法、および当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
CN107715459A (zh) 一种水上运动模拟装置、系统和方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant