KR102052130B1 - 로봇을 활용한 가상현실 룸 - Google Patents

로봇을 활용한 가상현실 룸 Download PDF

Info

Publication number
KR102052130B1
KR102052130B1 KR1020180059393A KR20180059393A KR102052130B1 KR 102052130 B1 KR102052130 B1 KR 102052130B1 KR 1020180059393 A KR1020180059393 A KR 1020180059393A KR 20180059393 A KR20180059393 A KR 20180059393A KR 102052130 B1 KR102052130 B1 KR 102052130B1
Authority
KR
South Korea
Prior art keywords
virtual reality
room
image
divided
user
Prior art date
Application number
KR1020180059393A
Other languages
English (en)
Inventor
박원희
김성석
지용일
오영수
이철배
송성우
윤나라
장동호
Original Assignee
파콤영상시현 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 파콤영상시현 주식회사 filed Critical 파콤영상시현 주식회사
Priority to KR1020180059393A priority Critical patent/KR102052130B1/ko
Application granted granted Critical
Publication of KR102052130B1 publication Critical patent/KR102052130B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63GMERRY-GO-ROUNDS; SWINGS; ROCKING-HORSES; CHUTES; SWITCHBACKS; SIMILAR DEVICES FOR PUBLIC AMUSEMENT
    • A63G31/00Amusement arrangements
    • A63G31/16Amusement arrangements creating illusions of travel

Abstract

본 발명의 일 실시예에 따른 로봇을 활용한 가상현실 룸은, 사용자에게 폐쇄된 공간을 제공하며 가상현실 영상을 제공하는 룸; 상기 룸의 상하운동을 구현하는 구동부; 및 상기 가상현실 영상의 표시와 상기 구동부의 상하운동을 제어하는 제어부;를 포함하며, 상기 제어부는 상기 가상현실 영상을 기초로 하여 상기 구동부의 상하운동을 제어할 수 있다.

Description

로봇을 활용한 가상현실 룸{Virtual reality room using robot}
본 발명은 로봇을 활용한 가상현실 룸에 관한 것으로서, 더욱 상세하게는 룸이 형성하는 공간에 위치하는 사용자에게 현실감 있는 가상현실을 제공하는 로봇을 활용한 가상현실 룸에 관한 것이다.
가상현실(virtual reality)이란 어떤 특정한 환경이나 상황을 컴퓨터로 만들어서, 그것을 사용하는 사람이 마치 실제 주변 상황 환경과 상호작용을 하고 있는 것처럼 만들어 주는 인간-컴퓨터 사이의 인터페이스를 말한다.
가상현실은 AR로 약칭되기도 하며, 인공현실(artificial reality), 사이버 공간(cyberspace), 가상세계(virtual worlds), 가상환경(virtual environment), 합성환경(synthetic environment), 인공환경(artificial environment) 등이라고도 한다.
사용 목적은 사람들이 일상적으로 경험하기 어려운 환경을 직접 체험하지 않고서도 그 환경에 들어와 있는 것처럼 보여주고 조작할 수 있게 해주는 것이다.
응용분야는 교육, 고급 프로그래밍, 원격조작, 원격위성 표면탐사, 탐사자료 분석, 과학적 시각화(scientific visualization) 등이다. 구체적인 예로서, 탱크, 항공기의 조종법 훈련, 가구의 배치 설계, 수술 실습, 게임 등 다양하다.
가상현실 시스템에서는 인간 참여자와 실제 가상 작업공간이 하드웨어로 상호 연결된다.
또 가상적인 환경에서 일어나는 일을 참여자가 주로 시각으로 느끼도록 하며, 보조적으로 청각 촉각 등을 사용한다.
시스템은 사용자의 시점이나 동작의 변화를 감지하여 그에 대응하는 적절한 변화를 가상환경에 줄 수 있다. 또한 사용자의 현장감을 높여 주기 위해서 입체표시장치, 두부장착교시장치(Head-mounted display) 등의 이펙터(effector)들을 사용하며, 사용자의 반응을 감지하기 위해서 데이터 장갑(data glove), 두부위치센서 등의 센서(sensor)를 사용한다.
대한민국 공개특허 제2004-43280호에서는 종래 가상 현실 구현 시스템에서, 카메라를 통하여 측정 물체를 촬영한 평면 영상 및 HDRI 데이터를 이용하여 가상 현실이 구현된다. 가상 현실 구현 시스템의 영상 기반 모델링부는, 평면 영상의 좌표와 실제 좌표를 비교하여 변환 행렬을 계산하고 변환 행렬로부터 기준 벡터의 소실점을 계산하며 소실점을 이용하여 카메라 행렬을 계산한다. 그리고 카메라행렬과 변환 행렬을 이용하여 카메라의 회전 행렬 및 이동 벡터를 계산하고, 카메라의 회전 행렬 및 이동 벡터를 이용하여 평면 영상을 가상 모델로 모델링 한다. 그리고 가상 현실 구현 시스템의 영상 기반 렌더링부는 HDRI 데이터를 텍스처로 사용하여 가상 모델을 렌더링하며, 가상 모델을 VRML 환경에 적용하기 위하여 HDRI를 확장 VRML 노드로 구현하는 기술이 개시되었다.
또한 대한민국 공개특허 제2004-37608호에서는 정신 질환자 들이 느끼는 공포의 대상물이나 불안환경을 가상공간 상에서 경험케 함으로써 정신질환을 치료할 수 있도록 하는 시스템 및 방법에 관한 것으로, 본 발명은 불안공포감이나 치매 질환 등 정신질환을 진단 및 치료하기 위한 가상현실 시스템에 있어서, 사용자의 정신질환을 나타내는 환경 및 장애물에 대해 사실화 정도에 따라 단계적으로 가상환경을 객체화하고 외부 입력신호에 의해 그가 환경을 조작할 수 있는 가상현실 게임이 구축된 가상현실 게임 구축수단; 사용자의 정신질환 장애 정도에 따라 단계별로 가상현실 게임 구축수단에 구축된 게임에 대해 가상환경을 조작할 수 있는 신호 입력 및 사용자의 촉감신호가 입력되는 가상현실 게임 입력수단; 입력수단을 통해 입력된 신호에 의해 해당 가상환경을 제공하는 가상현실 게임 출력수단; 및 가상현실 게임 출력수단에서 출력된 가상환경에 따라 반응하는 사용자의 근전도 신호를 감지하여 정신질환의 장애 정도를 진단하는 근전도 감지수단을 포함하며, 근전도 감지수단을 통해 얻어진 정신질환자의 장애 정도에 따라 사용자에게 단계별로 가상환경을 반복 제시하는 것에 의해 그 가상환경에 적응되게 함으로써 정신질환을 치료할 수 있도록 하는 기술이 제안되었다.
또한 대한민국 공개특허 제2012-126153호에서는 스마트 기기의 증강현실 프로그램을 이용하여 대형 미로에서의 출구를 찾아 안내하는 방법에 관한 것으로서, 더욱 상세하게는 카메라가 내장된 스마트 기기의 출구 찾기 어플리케이션을 구동하는 단계와, 특정영상패턴을 스마트 기기에 내장된 카메라로 포커싱 하는 단계와, 카메라가 내장된 스마트 기기의 출구 찾기 어플리케이션이 특정영상패턴을 인식하는 단계와, 인식된 패턴값을 암호화 하는 단계와, 암호화된 패턴값을 해독하여 해당 방향전환 이미지 모듈과 매칭하는 단계와, 출구 방향을 나타내는 구분 동작 이미지가 스마트 기기의 디스플레이부에서 카메라를 통해 보여지는 현실화면과 중첩되면서 대형 미로의 출구 방향이 제시되는 단계를 포함하는 기술이 제안되었다.
상기 제안된 기술들은 가상현실을 구현하는 점에서는 공통되나 제한된 공간에서 공간분할을 통해 효율적으로 공간활용을 할 수 있는 기술적 사상이 제언되고 있지 못한 문제가 있다.
또한, 사용자에게 오로지 시각 청각적으로 가상현실 영상만을 제공할 뿐, 운동감을 제공하지 못하여 가상현실의 체험에 대한 현실감이 떨어지는 문제가 있다.
본 발명은 상기와 같은 문제를 해결하기 위한 것으로서, 사용자에게 보다 생동감 있고 높은 현실감을 제공할 수 있는 로봇을 활용한 가상현실 룸을 제공하고자 함이다.
본 발명이 해결하고자 하는 과제가 상술한 과제로 제한되는 것은 아니며, 언급되지 아니한 과제들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 발명의 일 실시예에 따른 로봇을 활용한 가상현실 룸은, 사용자에게 폐쇄된 공간을 제공하며 가상현실 영상을 제공하는 룸; 상기 룸의 상하운동을 구현하는 구동부; 및 상기 가상현실 영상의 표시와 상기 구동부의 상하운동을 제어하는 제어부;를 포함하며, 상기 제어부는 상기 가상현실 영상을 기초로 하여 상기 구동부의 상하운동을 제어할 수 있다.
본 발명의 일 실시예에 따른 로봇을 활용한 가상현실 룸에 따르면, 사용자에게 보다 생동감 있고 높은 현실감을 제공할 수 있는 장점이 있다.
본 발명의 효과가 상술한 효과들로 제한되는 것은 아니며, 언급되지 아니한 효과들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.
도 1은 본 발명의 일 실시예에 따른 로봇을 활용한 가상현실 룸의 개략 구성도.
도 2는 본 발명의 일 실시예에 따른 로봇을 활용한 가상현실 룸의 개략 사시도.
도 3은 본 발명의 일 실시예에 따른 로봇을 활용한 가상현실 룸에서 가상현실 영상이표시되는 예를 보여주는 사진.
도 4는 본 발명의 일 실시예에 따른 로봇을 활용한 가상현실 룸의 분할영상을 표현하기 위한 개략 부분도.
도 5는 본 발명의 일 실시예에 따른 로봇을 활용한 가상현실 룸의 분할영상을 동기화하는 기술을 설명하기 위한 개략 부분도.
이하에서는 도면을 참조하여 본 발명의 구체적인 실시예를 상세하게 설명한다. 다만, 본 발명의 사상은 제시되는 실시예에 제한되지 아니하고, 본 발명의 사상을 이해하는 당업자는 동일한 사상의 범위 내에서 다른 구성요소를 추가, 변경, 삭제 등을 통하여, 퇴보적인 다른 발명이나 본 발명 사상의 범위 내에 포함되는 다른 실시예를 용이하게 제안할 수 있을 것이나, 이 또한 본원 발명 사상 범위 내에 포함된다고 할 것이다.
본 발명의 일 실시예에 따른 로봇을 활용한 가상현실 룸은 사용자에게 폐쇄된 공간을 제공하며 가상현실 영상을 제공하는 룸; 상기 룸의 상하운동을 구현하는 구동부; 및 상기 가상현실 영상의 표시와 상기 구동부의 상하운동을 제어하는 제어부;를 포함하며, 상기 제어부는 상기 가상현실 영상를 기초로 하여 상기 구동부의 상하운동을 제어할 수 있다.
또, 사용자가 상기 가상현실 영상을 제어할 수 있도록 소정의 입력정보를 생성하는 입력부;를 더 포함하며, 상기 제어부는 상기 입력정보에 기초하여, 상기 가상현실 영상 및 상기 구동부의 상하운동을 제어할 수 있다.
또, 상기 룸은 6면으로 형성되어 있으며, 상기 가상현실 영상은 상기 룸의 6면에 표시될 수 있다.
또, 상기 룸은 복수의 디스플레이부를 구비하며, 상기 가상현실 영상은 복수의 상기 디스플레이 각각에 분할된 분할영상으로 표시될 수 있다.
또, 상기 제어부는 상기 분할영상 중 적어도 일부가 동기화되지 않는 경우, 동기화된 영상 중 다수가 동기화된 상기 분할영상으로 동기화를 구현할 수 있다.
또, 상기 제어부는 상기 분할영상 중 적어도 일부가 동기화되지 않는 경우, 동기화된 영상 중 다수 및 상기 분할영상간이 시간 차를 기초로 동기화를 구현할 수 있다.
각 실시예의 도면에 나타나는 동일한 사상의 범위 내의 기능이 동일한 구성요소는 동일한 참조부호를 사용하여 설명한다.
도 1은 본 발명의 일 실시예에 따른 로봇을 활용한 가상현실 룸의 개략 구성도이다.
도 2는 본 발명의 일 실시예에 따른 로봇을 활용한 가상현실 룸의 개략 사시도이다.
도 3은 본 발명의 일 실시예에 따른 로봇을 활용한 가상현실 룸에서 가상현실 영상이표시되는 예를 보여주는 사진이다.
도 4는 본 발명의 일 실시예에 따른 로봇을 활용한 가상현실 룸의 분할영상을 표현하기 위한 개략 부분도이다.
도 5는 본 발명의 일 실시예에 따른 로봇을 활용한 가상현실 룸의 분할영상을 동기화하는 기술을 설명하기 위한 개략 부분도이다.
첨부된 도면은 본 발명의 기술적 사상을 보다 명확하게 표현하기 위하여, 본 발명의 기술적 사상과 관련성이 떨어지거나 당업자로부터 용이하게 도출될 수 있는 부분은 간략화 하거나 생략하였다.
본 발명의 일 실시예에 따른 로봇을 활용한 가상현실 룸(10)는 사용자에게 가상현실 영상을 제공하는 장치일 수 있다.
일례로, 상기 로봇을 활용한 가상현실 룸(10)는 사용자에게 폐쇄된 공간을 제공하며 가상현실 영상을 제공하는 룸(Room, 100)을 포함할 수 있다.
일례로, 상기 룸(100)은 외부와 단절되는 폐쇄된 공간을 선택적으로 제공할 수 있다.
일례로, 상기 룸(100)은 도어(D)를 구비할 수 있으며, 도어(D)가 개방되는 경우 사용자가 상기 룸(100)이 형성하는 공간으로 출입할 수 있고, 상기 도어(D)가 개방되는 경우 공간 내에 위치하는 사용자에게 외부와 단절되는 폐쇄된 공간을 제공할 수 있다.
여기서, 상기 룸(100)은 복수의 디스플레이부(110)를 더 구비할 수 있다.
일례로, 상기 디스플레이부(110)는 상기 룸(100)의 내면을 형성할 수 있으며, 상기 룸(100)이 형성하는 공간 상에 위치하는 사용자는 상기 디스플레이부(110)가 표시하는 상기 가상현실 영상을 볼 수 있다.
여기서, 상기 로봇을 활용한 가상현실 룸(10)는 상기 룸(100)의 상하운동을 구현하는 구동부(200)를 더 포함할 수 있다.
상기 상기 구동부(200)는 '로봇'으로 명칭될 수도 있다.
일례로, 상기 구동부(200)는 상기 룸(100)과 연결되어 상기 룸(100)의 이동을 구현하는 장치일 수 있다.
일례로, 상기 구동부(200)는 상기 룸(100)의 하측에 위치되고 상기 룸(100)의 하면을 지지할 수 있다.
일례로, 상기 구동부(200)는 6축 모션 장치일 수 있다.
일례로, 6축 모션 장치는 6개의 유압 또는 공압 실린더가 신장 및 수축되어 구동되는 것으로서, 상기 룸(100)은 실린더의 신장 및 또는 수축 구동에 의해 상하 방향으로 이동될 수 있고, 나아가 경사지도록 이동될 수도 있다.
일례로, 상기 구동부(200)는 적재중량이 3.5ton 내외로 설계될 수 있으며, 상기 룸(100)에 탑승인원이 10명 내외로 되도록 설계될 수 있다.
일례로, 상기 구동부(200)는 상기 룸(100)의 상하 이동이 1m 이상 가능하도록 설계될 수 있다.
또한, 일례로, 상기 로봇을 활용한 가상현실 룸(10)는 상기 가상현실 영상의 표시와 상기 구동부(200)의 상하운동을 제어하는 제어부(300)를 더 포함할 수 있다.
상기 제어부(300)는 상기 가상현실 영상의 제어, 상기 구동부(200)의 제어를 위해 필요한 정보/데이터의 연산, 처리, 판단, 선택 등이 가능한 구성일 수 있다.
일례로, 상기 가상현실 영상의 제어, 상기 구동부(200)의 제어를 위해 필요한 정보/데이터는 메모리부(500)에 저장되어 있을 수 있다.
일례로, 상기 제어부(300)는 상기 메모리부(500)에 저장된 정보/데이터 등을 기초로 하여 상기 가상현실 영상을 제어할 수 있고 상기 구동부(200)의 구동을 제어할 수 있다.
여기서, 일례로, 상기 제어부(300)는 상기 가상현실 영상을 기초로 하여 상기 구동부(200)의 상하운동을 제어할 수 있다.
이를 보다 자세히 설명하자면, 도 3에 도시한 바와 같이, 상기 디스플레이부(110)로부터 표시되는 상기 가상현실 영상이 아래로 이동하는 영상이라면, 상기 제어부(300)는 상기 가상현실 영상에 대응되도록 상기 구동부(200)를 제어하여 상기 룸(100)을 아래 방향으로 이동되도록 할 수 있다.
이와 반대로, 상기 디스플레이부(110)로부터 표시되는 상기 가상현실 영상이 위로 이동하는 영상이라면, 상기 제어부(300)는 상기 가상현실 영상에 대응되도록 상기 구동부(200)를 제어하여 상기 룸(100)을 상 방향으로 이동되도록 할 수 있다.
여기서, 일례로, 상기 로봇을 활용한 가상현실 룸(10)는 사용자가 상기 가상현실 영상을 제어할 수 있도록 소정의 입력정보를 생성하는 입력부(400)를 더 포함할 수 있다.
일례로, 상기 입력부(400)는 상기 룸(100) 상에 조이스틱의 형태로 설치될 수도 있고, 음성을 인식하는 센서로 이루어져 사용자로부터 음성 형태의 정보를 입력 받는 구성일 수도 있으며, 또는 터치센서 형태로 설치되어 사용자의 터치에 의해 정보를 입력 받는 구성일 수도 있다.
즉, 상기 입력부(400)는 사용자로부터 상기 가상현실 영상을 제어할 수 있는 상기 입력정보를 입력 받을 수 있는 구성이라면 상기 입력부(400)에 해당할 수 있다.
일례로, 상기 룸(100) 상에 위치하는 사용자는 상기 입력부(400)를 통해 복수의 가상현실 영상 중 어느 하나의 가상현실 영상을 선택하는 상기 입력정보를 입력할 수 있고, 상기 가상현실 영상이 플레이 되는 상황에서 역으로 플레이 하도록 하는 상기 입력정보를 입력할 수도 있다.
이 때, 상기 제어부(300)는 상기 입력정보에 기초하여 상기 가상현실 영상 및 상기 구동부(200)의 상하운동을 제어할 수 있다.
즉, 상기 제어부(300)는 상기 입력정보에 대응되도록 상기 가상현실 영상이 상기 디스플레이부(110)를 통해 표시되도록 제어할 수도 있고, 이와 동시에 상기 구동부(200)가 구동되도록 제어할 수 있다.
따라서, 본 발명의 일 실시예에 따른 로봇을 활용한 가상현실 룸(10)는 사용자에게 일 방향으로만 가상현실 체험을 제공하는 것이 아니라 사용자로부터 상기 입력정보를 전달받아 사용자가 원하는 가상현실 체험을 제공할 수 있다.
일례로, 상기 룸(100)은 6면으로 형성되어 있을 수 있다.
즉, 도 2 및 도 3에 도시한 바와 같이, 상기 룸(100)은 상면, 하면, 4개의 측면을 구비하는 6면으로 형성될 수 있다.
이 때, 상기 디스플레이부(110)는 상기 룸(100)의 내면에 모두 배치될 수 있다.
즉, 상기 디스플레이부(110)는 상기 룸(100)의 6면의 내면에 모두 복수 개로 배치될 수 있다.
그 결과, 상기 가상현실 영상은 4개의 측면뿐만 아니라, 상면 및 하면에도 표시될 수 있다.
일례로, 상기 디스플레이부(110)는 각각 55인치일 수 있으며, 베젤은 3.5mm이하일 수 있다.
도 4는 상기 룸(100)의 하면만 도시한 일 예이다.
도 4에 도시한 바와 같이, 상기 룸(100)의 하면에는 복수의 디스플레이부(110)가 배치될 수 있다.
일례로, 상기 룸(100)의 하면에는 8개의 디스플레이부(110)가 배치될 수 있다.
여기서, 일례로, 상기 가상현실 영상은 복수의 상기 디스플레이 각각에 분할된 분할영상으로 표시될 수 있다.
이를 보다 자세히 설명하자면, 상기 가상현실 영상은 각각의 상기 디스플레이에 독립적으로 표시되는 것이 아닌, 복수의 상기 디스플레이부(110)에 분할된 상기 분할영상으로 표시될 수 있다.
여기서, 일례로, 상기 제어부(300)는 복수의 상기 디스플레이부(110)에 각각 표시되는 상기 분할영상 간을 동기화할 수 있다.
여기서, 동기화의 의미는 상기 분할영상 간의 플레이 시점을 동일하게 하는 의미일 수 있다.
그러나, 경우에 따라 복수의 상기 분할영상 중 일부가 동기화되지 않은 영상이 상기 디스플레이부(110)를 통해 표시될 수도 있다.
도 5는 상기 분할영상 중 적어도 일부가 동기화되지 않은 예를 도시한 것이다.
도 5에 도시한 바와 같이, 일례로, 제1 분할영상(M1), 제2 분할영상(M2), 제3 분할영상(M3), 제8 분할영상(M8)은 동기화되어 제1 시점의 영상이 각각의 상기 디스플레이부(110)를 통해 표시되는 영상이고, 제4 분할영상(M4), 제5 분할영상(M5), 제6 분할영상(M6)은 상기 제1 시점보다 1초 지연된 제2 시점의 영상이 각각의 상기 디스플레이부(110)를 통해 표시되는 영상이며, 제7 분할영상(M7)은 상기 제1 시점보다 2초 지연된 제3 시점의 영상이 상기 디스플레이부(110)를 통해 표시되는 영상임으로 가정할 수 있다.
여기서, 상기 제어부(300)는 상기 분할영상 중 적어도 일부가 동기화되지 않는 경우, 동기화된 영상 중 다수가 동기화된 상기 분할영상의 시점으로 나머지 상기 분할영상의 동기화를 구현할 수 있다.
이를 보다 자세히 설명하자면, 상기 제1 시점으로 동기화된 상기 분할영상은 상기 제1 분할영상(M1), 상기 제2 분할영상(M2), 상기 제3 분할영상(M3) 및 상기 제8 분할영상(M8)으로 4개이며, 상기 제2 시점으로 동기화된 상기 분할영상은 상기 제4 분할영상(M4), 상기 제5 분할영상(M5) 및 상기 제6 분할영상(M6)으로 3개이며, 상기 제3 시점의 상기 분할영상은 상기 제7 분할영상(M7)으로 1개라는 점에서, 상기 제2 시점의 분할영상 및 상기 제3 시점의 분할영상은 상기 제어부(300)에 의해 상기 제1 시점의 영상으로 동기화될 수 있다.
결과적으로, 상기 제어부(300)는 상기 분할영상 중 일부가 동기화되지 않은 상기 분할영상이 있는 경우 동기화된 상기 분할영상의 수를 기초로 하여 모든 상기 분할영상을 동기화 할 수 있다.
또한, 일례로, 도 5에서, 상기 제1 분할영상(M1), 상기 제2 분할영상(M2), 상기 제3 분할영상(M3)은 상기 제1 시점의 영상이 각각 상기 디스플레이부(110)를 통해 표시되는 영상이고, 상기 제4 분할영상(M4), 상기 제5 분할영상(M5) 및 상기 제6 분할영상(M6)은 상기 제2 시점의 영상이 각각 상기 디스플레이부(110)를 통해 표시되는 영상이며, 상기 제7 분할영상(M7) 및 상기 제8 분할영상(M8)은 상기 제3 시점의 영상의 각각 상기 디스플레이부(110)를 통해 표시되는 영상일 수도 있다.
이 경우, 상기 제어부(300)는 상기 분할영상 중 적어도 일부가 동기화되지 않는 경우 동기화된 영상 중 다수 및 상기 분할영상간이 시간 차를 기초로 동기화를 구현할 수 있다.
이를 보다 자세히 설명하자면, 상기 제1 시점으로 동기화된 상기 분할영상은 상기 제1 분할영상(M1), 상기 제2 분할영상(M2), 상기 제3 분할영상(M3)으로 3개이며, 상기 제2 시점으로 동기화된 상기 분할영상은 상기 제4 분할영상(M4), 상기 제5 분할영상(M5) 및 상기 제6 분할영상(M6)으로 3개이고, 상기 제3 시점의 상기 분할영상은 상기 제7 분할영상(M7) 및 상기 제8 분할영상(M8)으로 2개라는 점에서, 동기화된 다수의 상기 분할영상의 시점은 상기 제1 시점 및 상기 제2 시점이다.
이러한 경우, 상기 제어부(300)는 상기 분할영상간이 시간 차를 기초로 동기화를 구현할 수 있다.
즉, 상기 제1 시점의 상기 분할영상이 3개이고 상기 제2 시점의 상기 분할영상이 3개여서 서로 수가 동일하나, 상기 제1 시점의 상기 분할영상은 상기 제2 시점과 1초의 차이 및 상기 제3 시점과 2초의 차이가 있다.
반면, 상기 제2 시점의 상기 분할영상은 상기 제1 시점과 1초 차이 및 상기 제3 시점과 1초의 차이가 있다.
이러한 경우, 상기 제어부(300)는 상기 분할영상간의 시간 차가 작은 시점으로 동기화를 구현할 수 있다.
즉, 상기 제어부(300)는 상기 제1 시점의 상기 분할영상 및 상기 제3 시점의 분할영상을 상기 제2 시점의 상기 분할영상으로 동기화를 구현할 수 있다.
앞서 설명한 바와 같이, 본 발명의 일 실시예에 따른 상기 가상현실 룸(100)은 사용자에게 단순히 가상현실 영상만을 제공하는 것이 아니라, 상기 구동부(200)의 구동에 의해 보다 현실감 있는 가상현실 체험을 제공할 수 있으며, 나아가 상기 입력부(400)를 통해 사용자로부터 상기 입력정보를 전달받아 사용자가 원하는 가상현실 체험을 제공할 수 있다.
상기에서는 본 발명에 따른 실시예를 기준으로 본 발명의 구성과 특징을 설명하였으나 본 발명은 이에 한정되지 않으며, 본 발명의 사상과 범위 내에서 다양하게 변경 또는 변형할 수 있음은 본 발명이 속하는 기술분야의 당업자에게 명백한 것이며, 따라서 이와 같은 변경 또는 변형은 첨부된 특허청구범위에 속함을 밝혀둔다.
100: 룸
200: 구동부
300: 제어부
400: 입력부
500: 메모리부

Claims (6)

  1. 로봇을 활용한 가상현실 룸에 있어서,
    사용자에게 폐쇄된 공간을 제공하며 가상현실 영상을 제공하는 룸(ROOM);
    상기 룸의 상하운동을 구현하는 구동부; 및
    상기 가상현실 영상의 표시와 상기 구동부의 상하운동을 제어하는 제어부;를 포함하며,
    상기 제어부는,
    상기 가상현실 영상를 기초로 하여 상기 구동부의 상하운동을 제어하고,
    상기 룸은,
    6면으로 형성되어 있으며,
    상기 가상현실 영상은,
    상기 룸의 6면에 표시되며,
    상기 룸은,
    복수의 디스플레이부를 구비하며,
    상기 가상현실 영상은,
    복수의 상기 디스플레이 각각에 분할된 분할영상으로 표시되고,
    상기 제어부는,
    상기 분할영상 중 적어도 일부가 동기화되지 않는 경우,
    선순위로 동기화된 영상 중 다수인 시점으로 동기화를 구현하고,
    차순위로 상기 분할영상간이 시간 차를 기초로 동기화를 구현하는,
    로봇을 활용한 가상현실 룸.
  2. 제1항에 있어서,
    사용자가 상기 가상현실 영상을 제어할 수 있도록 소정의 입력정보를 생성하는 입력부;를 더 포함하며,
    상기 제어부는,
    상기 입력정보에 기초하여,
    상기 가상현실 영상 및 상기 구동부의 상하운동을 제어하는,
    로봇을 활용한 가상현실 룸.
  3. 삭제
  4. 삭제
  5. 삭제
  6. 삭제
KR1020180059393A 2018-05-25 2018-05-25 로봇을 활용한 가상현실 룸 KR102052130B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180059393A KR102052130B1 (ko) 2018-05-25 2018-05-25 로봇을 활용한 가상현실 룸

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180059393A KR102052130B1 (ko) 2018-05-25 2018-05-25 로봇을 활용한 가상현실 룸

Publications (1)

Publication Number Publication Date
KR102052130B1 true KR102052130B1 (ko) 2019-12-04

Family

ID=69004295

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180059393A KR102052130B1 (ko) 2018-05-25 2018-05-25 로봇을 활용한 가상현실 룸

Country Status (1)

Country Link
KR (1) KR102052130B1 (ko)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003066825A (ja) * 2001-08-24 2003-03-05 Mitsubishi Heavy Ind Ltd 擬似体感装置
KR100867407B1 (ko) * 2007-03-06 2008-11-06 한국과학기술원 이동식 몰입형 가상환경제공 시스템
KR20130016105A (ko) * 2011-08-04 2013-02-14 한국과학기술원 모듈화 기반 지능형 디지털 공간 시스템
KR20150111428A (ko) * 2014-03-21 2015-10-06 주식회사 플러 디지털 사이니지 장치 및 그 구동방법
KR20180005024A (ko) * 2016-07-05 2018-01-15 주식회사 인디고엔터테인먼트 보행 가능한 가상 현실 장치
KR20180057177A (ko) * 2016-11-22 2018-05-30 순천향대학교 산학협력단 가상체험을 위한 다면 부스 시스템 및 방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003066825A (ja) * 2001-08-24 2003-03-05 Mitsubishi Heavy Ind Ltd 擬似体感装置
KR100867407B1 (ko) * 2007-03-06 2008-11-06 한국과학기술원 이동식 몰입형 가상환경제공 시스템
KR20130016105A (ko) * 2011-08-04 2013-02-14 한국과학기술원 모듈화 기반 지능형 디지털 공간 시스템
KR20150111428A (ko) * 2014-03-21 2015-10-06 주식회사 플러 디지털 사이니지 장치 및 그 구동방법
KR20180005024A (ko) * 2016-07-05 2018-01-15 주식회사 인디고엔터테인먼트 보행 가능한 가상 현실 장치
KR20180057177A (ko) * 2016-11-22 2018-05-30 순천향대학교 산학협력단 가상체험을 위한 다면 부스 시스템 및 방법

Similar Documents

Publication Publication Date Title
US8217995B2 (en) Providing a collaborative immersive environment using a spherical camera and motion capture
US8615383B2 (en) Immersive collaborative environment using motion capture, head mounted display, and cave
Mihelj et al. Virtual reality technology and applications
US8487871B2 (en) Virtual desktop coordinate transformation
NL2002841C2 (en) Immersive collaborative environment using motion capture, head mounted display, and cave.
Sukan et al. Quick viewpoint switching for manipulating virtual objects in hand-held augmented reality using stored snapshots
Alnagrat et al. A review of extended reality (XR) technologies in the future of human education: Current trend and future opportunity
US11340697B2 (en) System and a method to create extended reality using wearables and virtual environment set
Ritter et al. Using a 3d puzzle as a metaphor for learning spatial relations
KR102396390B1 (ko) 증강 현실 기반의 3차원 조립 퍼즐을 제공하는 방법 및 단말
Vyas et al. Augmented Reality (AR) Applications: A survey on Current Trends, Challenges, & Future Scope.
KR20100067155A (ko) 증강 책을 통한 실감 콘텐츠를 제공하는 방법 및 장치
Zaldívar-Colado et al. A mixed reality for virtual assembly
KR102052130B1 (ko) 로봇을 활용한 가상현실 룸
Radoeva et al. Overview on hardware characteristics of virtual reality systems
Figueiredo et al. Fishtank everywhere: Improving viewing experience over 3D content
Aleotti et al. Object manipulation in visuo-haptic augmented reality with physics-based animation
KR20210105484A (ko) 문화유적복원 실감 장치
WO2017164604A1 (ko) 가상현실 기반 공간 배정 방법 및 디지털 미로 플랫폼
Fabri et al. Virtual and augmented reality
Leithinger Grasping information and collaborating through shape displays
Kim et al. A tangible user interface system for CAVE applicat
Rosenberg et al. Virtual hand representations to support natural interaction in immersive environments
Piumsomboon Natural hand interaction for augmented reality.
Asai et al. Palm-on haptic environment in augmented reality

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant