KR102490703B1 - 메타버스 환경 구현을 위한 시뮬레이터 - Google Patents

메타버스 환경 구현을 위한 시뮬레이터 Download PDF

Info

Publication number
KR102490703B1
KR102490703B1 KR1020220079348A KR20220079348A KR102490703B1 KR 102490703 B1 KR102490703 B1 KR 102490703B1 KR 1020220079348 A KR1020220079348 A KR 1020220079348A KR 20220079348 A KR20220079348 A KR 20220079348A KR 102490703 B1 KR102490703 B1 KR 102490703B1
Authority
KR
South Korea
Prior art keywords
camera
user
cameras
simulator
stage area
Prior art date
Application number
KR1020220079348A
Other languages
English (en)
Other versions
KR102490703B9 (ko
Inventor
김민석
Original Assignee
모델솔루션(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 모델솔루션(주) filed Critical 모델솔루션(주)
Priority to KR1020220079348A priority Critical patent/KR102490703B1/ko
Application granted granted Critical
Publication of KR102490703B1 publication Critical patent/KR102490703B1/ko
Publication of KR102490703B9 publication Critical patent/KR102490703B9/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Studio Devices (AREA)

Abstract

본 발명은 메타버스 환경 구현을 위한 시뮬레이터에 관한 것으로서, 헤드마운트 디스플레이(Head Mounted Display)를 착용한 사용자가 보행가능하게 마련되고, 메타버스의 가상공간과 매칭되는 스테이지 영역을 형성하는 베이스; 상기 베이스의 상방에 배치되어, 상기 스테이지 영역에 위치한 사용자의 위치를 탐지하는 복수의 카메라; 복수의 상기 카메라가 마련되는 카메라 클러스터 모듈; 및 상기 카메라 클러스터 모듈과 상기 베이스를 연결하는 프레임을 포함하는 것을 특징으로 한다.

Description

메타버스 환경 구현을 위한 시뮬레이터{SIMULATOR FOR IMPLEMENTING METAVERSE ENVIRONMENT}
본 발명은 메타버스 환경 구현을 위한 시뮬레이터에 관한 것으로서, 보다 상세하게는, 사용자 위치 정보 탐지의 오류를 방지하는 메타버스 환경 구현을 위한 시뮬레이터에 관한 것이다.
가상현실이란 원하는 특정한 환경이나 상황을 컴퓨터로 만들어서, 사용자가 마치 실제 주변 상황 및 환경과 상호 작용을 하고 있는 것처럼 느끼도록 만들어주는 인간과 컴퓨터 사이의 인터페이스를 말할 수 있다.
사용자가 가상현실을 통해 실재감을 느끼기 위해서는 시각, 청각, 촉각 등 사용자의 오감을 통해 획득되는 정보를 제공해야 한다. 특히, 사용자의 감각 중에 가장 많은 정보를 요구하는 것은 시각으로서, 가상현실의 발전에 따라 눈과 유사한 장치들이 개발되어 왔다.
헤드마운트 디스플레이(HMD, Head Mounted Display)는 사용자의 머리에 장착하는 디스플레이 장치로서, 그 종류와 원리는 다양하다. 헤드마운트 디스플레이를 이용하면, 많은 물리적 운용 공간을 필요로 하지 않으면서, 특정 상황에 적합해지도록 유연하게 적용할 수 있다.
사용자가 앉은 채로 헤드마운트 디스플레이에 출력된 화면에 따라 조작을 수행하면 상황에 따라 운동 체감을 주도록 하는 가상현실 장치와는 달리, 사용자가 서 있는 상태로 움직이면서 가상 현실을 경험할 수 있다면, 몰입감과 현실감을 향상하여 사용자는 실제 가상 공간에 머무르고 있는 듯한 느낌을 얻을 수 있을 것이다.
한편, 가상현실을 구현함에 있어서 공간적인 제약이 있을 수 있다. 가상현실을 구현하는 헤드마운트 디스플레이를 착용한 사용자 위치 정보를 탐지하기 위한 카메라의 시야갹(FOV, Field Of View)은 한정되어 있을 수 있고, 카메라가 외부의 객체 위치 정보를 탐지하는 오류가 발생할 수 있다.
따라서, 카메라가 탐지할 수 있는 시야각의 영역을 확장함과 동시에, 사용자 위치 정보의 탐지의 오류를 방지하고 최적화하는 시뮬레이터가 요구되고 있다.
등록특허공보 제10-1842600호, 2018.05.14
본 발명에 개시된 실시 예는 복수의 카메라를 이용하여, 사용자 위치 정보 탐지의 오류를 방지하는, 메타버스 환경 구현을 위한 시뮬레이터를 제공하는데 그 목적이 있다.
또한, 본 발명에 개시된 실시예는, 사용자의 신장에 대응하며, 시뮬레이터 내부에서의 사용자 위치 정보의 탐지를 최적화할 수 있는, 메타버스 환경 구현을 위한 시뮬레이터를 제공하는데 또 다른 목적이 있다.
본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
상술한 기술적 과제를 달성하기 위한 본 발명의 일 측면에 따른 메타버스 환경 구현을 위한 시뮬레이터는, 헤드마운트 디스플레이(Head Mounted Display)를 착용한 사용자가 보행가능하게 마련되고, 메타버스의 가상공간과 매칭되는 스테이지 영역을 형성하는 베이스; 상기 베이스의 상방에 배치되어, 상기 스테이지 영역에 위치한 사용자의 위치를 탐지하는 복수의 카메라; 복수의 상기 카메라가 마련되는 카메라 클러스터 모듈; 및 상기 카메라 클러스터 모듈과 상기 베이스를 연결하는 프레임을 포함할 수 있다.
여기서, 상기 프레임은, 상기 베이스의 상방에 상기 스테이지 영역을 가로지르며 배치되어, 상기 카메라 클러스터 모듈을 지지하는 크로스 바; 및 상기 스테이지 영역의 둘레를 따라 배치되어, 상기 크로스 바의 양단부를 각각 상기 베이스에 연결하는 복수의 포스트를 포함할 수 있다.
또한, 상기 카메라 클러스터 모듈은, 클러스터 바디; 상기 클러스터 바디와 상기 크로스바를 연결하는 연결부재; 및 상기 클러스터 바디와 복수의 상기 카메라를 각각 연결하는 복수의 연결 암을 포함할 수 있다.
상기 연결 암은 상기 클러스터 바디에 직선 왕복이동가능하게 마련되고, 상기 연결 암을 직선 왕복이동시키는 암 구동부를 더 포함할 수 있다.
복수의 상기 카메라의 시야각은 원형을 이루고, 복수의 상기 카메라의 시야각이 개별적으로 독립영역을 형성하고, 복수의 상기 카메라는 복수의 상기 카메라의 시야각이 중첩되는 합성영역을 형성하도록 상기 카메라 클러스터 모듈에 배치될 수 있다.
복수의 상기 카메라는, 상기 스테이지 영역에서의 사용자의 위치를 탐지하도록 제1영역을 형성하는 제1카메라; 상기 제1카메라의 시야각과 중첩되는 제2영역을 형성하는 제2카메라; 상기 제1카메라의 시야각 및 상기 제2카메라의 시야각과 중첩되는 제3영역을 형성하는 제3카메라; 및 상기 제1카메라의 시야각, 상기 제2카메라의 시야각, 및 상기 제3카메라의 시야각과 중첩되는 제4영역을 형성하는 제4카메라를 포함할 수 있다.
상기 연결 암은, 상기 연결 암에 마련된 상기 카메라의 시야각이 상기 스테이지 영역을 벗어나지 않도록 상기 스테이지 영역을 향해 하향 경사지게 마련될 수 있다.
상기 카메라 클러스터 모듈이 상기 베이스에 대해 승강하도록 상기 포스트를 승강시키는 포스트 승강부를 더 포함할 수 있다.
본 발명에 따르면, 복수의 카메라를 이용하여, 사용자 위치 정보 탐지의 오류를 방지하며, 메타버스 환경을 구현할 수 있다.
또한, 사용자의 신장에 대응하며, 시뮬레이터 내부에서의 사용자 위치 정보의 탐지를 최적화하며, 메타버스 환경을 구현할 수 있다.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 일 실시예에 따른 메타버스 환경 구현을 위한 시뮬레이터의 사시도이다.
도 2는 도 1의 저면 사시도이다.
도 3은 도 1의 요부 분해사시도이다.
도 4는 본 발명에 따른 복수의 카메라의 시야각을 표시한 도면이다.
도 5는 본 발명에 따른 복수의 카메라의 시야각이 형성하는 영역을 도시한 평면도이다.
도 6은 본 발명의 다른 실시예에 따른 메타버스 환경 구현을 위한 시뮬레이터의 사시도이다.
도 7은 일 예로서 도 6의 연결 암이 길이 신장하고, 포스트가 상승한 상태를 도시한 도면이다.
명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 명세서가 실시 예들의 모든 요소들을 설명하는 것은 아니며, 본 발명이 속하는 기술 분야에서 일반적인 내용 또는 실시 예들 간에 중복되는 내용은 생략한다.
명세서에서 사용되는 '부, 모듈, 부재, 블록'이라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시 예들에 따라 복수의 '부, 모듈, 부재, 블록'이 하나의 구성요소로 구현되거나, 하나의 '부, 모듈, 부재, 블록'이 복수의 구성요소들을 포함하는 것도 가능하다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐 아니라, 간접적으로 연결되어 있는 경우를 포함하고, 간접적인 연결은 무선 통신망을 통해 연결되는 것을 포함한다.
또한, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
명세서 전체에서, 어떤 부재가 다른 부재 "상에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.
제1, 제2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위해 사용되는 것으로, 구성요소가 전술된 용어들에 의해 제한되는 것은 아니다.
단수의 표현은 문맥상 명백하게 예외가 있지 않는 한, 복수의 표현을 포함한다.
각 단계들에 있어 식별부호는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 실시될 수 있다.
이하 첨부된 도면들을 참고하여 본 발명의 작용 원리 및 실시 예들에 대해 설명한다.
설명에 앞서, 여러 실시예에 있어서, 동일한 구성을 가지는 구성요소에 대해서는 동일 부호를 사용하여 대표적으로 일 실시예에서 설명하고, 그 외의 실시예에서는 일 실시예와 다른 구성에 대해 설명하기로 한다.
도 1 내지 도 3은 본 발명의 일 실시예에 따른 메타버스 환경 구현을 위한 시뮬레이터에 대한 도면들이다.
이들 도면에 도시된 바와 같이, 본 발명의 일 실시예에 따른 메타버스 환경 구현을 위한 시뮬레이터(1)는 베이스(100)와, 복수의 카메라(200)와, 카메라 클러스터 모듈(300)과, 프레임(400)을 포함한다.
베이스(100)는 본 발명에 따른 시뮬레이터(1)를 이용하는 사용자가 보행할 수 있는 구조를 가진다.
베이스(100)의 내부에는 메타버스의 가상공간과 매칭되는 스테이지 영역(110)을 형성된다.
이 스테이지 영역(110)에서 헤드마운트 디스플레이(1000, Head Mounted Display)를 착용한 사용자는 보행할 수 있게 된다.
본 실시예에서의 베이스(100)는 일 예로서, 장방형의 단면형상을 갖지만, 이에 한정되지 않고, 베이스(100)는 타원형, 다각형 등 다양한 단면형상을 가질 수 있다. 또한, 스테이지 영역(110)에는 별도의 받침대(미도시) 등을 포함할 수도 있다.
여기서, 본 발명에 따른 시뮬레이터(1)를 이용하는 사용자가 착용하는 헤드마운트 디스플레이(1000)에 대해 간략하게 설명하면, 헤드마운트 디스플레이(1000)는 사용자의 머리에 장착되어 사용자에게 시각 및/또는 청각은 물론 기타 가상 현실 컨텐츠의 체험에 가능한 자극을 제공할 수 있는 장치를 포함할 수 있다.
기본적으로 헤드마운트 디스플레이(1000)는 영상 및 음성 데이터를 사용자에게 제공할 수 있는데, 이러한 영상 및 음성 데이터는 헤드마운트 디스플레이(1000)가 본 발명에 따른 시뮬레이터(1)가 유선 또는 무선으로 네트워크에 의해 서로 연결된 가상현실 서버(미도시)로부터 수신하여 헤드마운트 디스플레이(1000) 내에 포함된 디스플레이 및 스피커를 통해 사용자에게 제공할 수 있다.
헤드마운트 디스플레이(1000)는 사용자의 음성과 같은 사용자 입력을 수신하여 가상현실 서버로 전달함으로써 가상 현실 컨텐츠를 제어할 수 있는 인터렉티브한 형태의 장치도 가능할 수 있다.
여기서, 헤드마운트 디스플레이(1000)는 휴대용 단말기를 포함할 수 있고, 휴대용 단말기는 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), WiBro(Wireless Broadband Internet) 단말, 스마트 폰(Smart Phone) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치와 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈 등과 같은 웨어러블 장치를 포함할 수 있다.
복수의 카메라(200)는 베이스(100)의 상방에 배치되어, 기 설정된 스테이지 영역(110)에 위치한 헤드마운트 디스플레이(1000)를 착용한 사용자의 위치 정보를 탐지할 수 있다. 여기서, 기 설정된 스테이지 영역(110)이란 복수의 카메라(200)가 사용자를 탐지 가능한 영역 시야각(FOV: Field Of View)을 의미할 수 있다.
복수의 카메라(200)는 각각, 원형의 시야각을 이루며 독립영역을 형성할 수 있고, 복수의 카메라(200)에 의해 형성된 복수의 시야각은 서로 중첩되어 전체적인 하나의 시야각으로 합성될 수 있다.
즉, 복수의 카메라(200)의 FOV는 복수의 카메라(200) 각각의 시야각이 개별적으로 형성하는 독립영역, 및 복수의 카메라(200)의 시야각이 중첩되어 형성되는 합성영역으로 이루어질 수 있다. 따라서, 복수의 카메라(200)의 독립영역 및 합성영역에 의해 복수의 카메라(200)의 전체적인 FOV가 결정될 수 있다.
본 실시예에서는 복수의 카메라(200)가 4개로 마련되는 것으로 도시되어 있지만, 이에 한정되지 않고, 복수의 카메라는 2개 이상 마련될 수도 있다. 또한, 복수의 카메라의 시야각은 타원형을 이룰 수 있다.
복수의 카메라(200)는, 도 4 및 도 5에 도시된 바와 같이, 크로스 바(410)의 전방에 배치되어 스테이지 영역(110)에서의 사용자의 위치를 탐지하도록 제1영역을 형성하는 제1카메라(210)와, 제1카메라(210)와 이격되도록 크로스 바(410)의 전방에 배치되어 제1카메라(210)의 시야각(211)과 중첩되는 제2영역을 형성하는 제2카메라(220)와, 크로스 바(410)의 후방에 배치되어 제1카메라(210)의 시야각(211) 및 제2카메라(220)의 시야각(221)과 중첩되는 제3영역을 형성하는 제3카메라(230)와, 제3카메라(230)와 이격되도록 크로스 바(410)의 후방에 배치되어 제1카메라(210)의 시야각(211), 제2카메라(220)의 시야각(221) 및 제3카메라(230)의 시야각(231)과 중첩되는 제4영역을 형성하는 제4카메라(240)를 포함할 수 있다.
제1카메라(210) 및 제2카메라(220)는 크로스 바(410)의 전방에서 후방을 향할 수 있고, 제3카메라(230) 및 제4카메라(240)는 크로스 바(410)의 후방에서 전방을 향할 수 있다.
제1카메라(210) 및 제2카메라(220)는 시뮬레이터(1)를 이용하는 사용자의 전방에서 후방을 향해 사용자의 위치 정보를 탐지할 수 있고, 제3카메라(230) 및 제4카메라(240)는 시뮬레이터(1)를 이용하는 사용자의 후방에서 전방을 향해 사용자의 위치 정보를 탐지할 수 있다.
복수의 카메라(200)는 특정 신호를 출력하는 소자를 탐지하여 탐지된 소자의 위치 정보를 추출할 수 있다. 이 경우, 헤드마운트 디스플레이(1000)는 복수의 발광소자(미도시)을 포함할 수 있고, 이러한 복수의 발광소자 각각은 일 방향에 대하여 검출 신호를 출력할 수 있으며, 이에 복수의 카메라(200)가 헤드마운트 디스플레이(1000)를 착용한 사용자의 위치를 탐지할 수 있게 된다.
그리고, 복수의 카메라(200)는 탐지된 사용자의 위치 정보를 후술할 제어부로 전송할 수 있다. 사용자의 위치 정보를 수신한 제어부는 헤드마운트 디스플레이(1000)에 대해 사용자의 위치 정보에 따른 그래픽 기타 다양한 이미지를 가상현실 서버(미도시)로 전송함으로써 가상 현실을 구현할 수 있다.
여기서, 복수의 카메라(200)는 적외선(IR; Infrared) 카메라, 적외선 센서 등 명칭에 구애받지 아니하고, 전술한 기능을 수행하는 모든 장치를 포함할 수도 있다. 적외선 카메라를 이용하는 경우, 모션 컨트롤 카메라(motion control camera) 등 다른 동작 감지 카메라를 이용하는 경우보다 비용, 전력 소모 및 인식 감도 등에 있어 효율적인 장점을 가질 수 있다.
이러한 복수의 카메라(200)는 카메라 클러스터 모듈(300)에 마련된다.
카메라 클러스터 모듈(300)은, 클러스터 바디(310)와, 연결부재(320)와, 복수의 연결 암(330)을 포함한다.
클러스터 바디(310)는 원형의 링 형상을 가지며, 스테이지 영역(110)의 상방에 배치된다. 여기서, 클러스터 바디(310)는 타원형, 다각형 등 다양한 단면의 링 형상을 가질 수도 있다.
연결부재(320)는 일정 길이의 봉 형상을 가지며, 클러스터 바디(310)와 후술할 프레임(400)의 크로스 바(410)를 연결한다. 연결부재(320)의 일측은 크로스 바(410)의 상부에 연결될 수 있고, 연결부재(320)의 타측은 클러스터 바디(310)의 하부에 연결될 수 있다.
본 실시예에서는 한 쌍의 연결부재(320)가 클러스터 바디(310)의 둘레를 따라 서로 대향하며 배치되는 것으로 도시되어 있지만, 연결부재는 3개 이상 마련될 수도 있다. 그리고, 도시되어 있지 않지만, 연결부재에는 그 길이방향을 따라 복수의 결합공이 간격을 두고 형성되고, 결합핀을 복수의 결합공 중 어느 하나의 결합공에 선택적으로 결합하여, 클러스터 바디를 연결부재 또는 크로스 바(410)에 지지함으로써, 크로스 바(410)와 클러스터 바디의 사이의 간격을 조절할 수도 있다.
복수의 연결 암(330)은 카메라(200)의 개수에 대응하며 마련되어, 복수의 카메라(200)를 클러스터 바디(310)에 연결한다.
따라서, 본 실시예에서는 4개의 카메라(300)에 대응하여 4개의 연결 암(330)이 마련되고, 4개의 연결 암(330)은 클러스터 바디(310)의 둘레를 따라 이격하며, 클러스터 바디(310)의 외측으로 돌출되어 있다.
복수의 연결 암(330)은 각각, 연결 암(330)에 마련된 카메라(200)의 시야각이 시뮬레이터(1)의 내부를 벗어나지 않도록, 하향 경사지게 마련될 수 있다. 이에 따라, 복수의 카메라(200)는 스테이지 영역(110)에 위치한 사용자를 향해 경사지게 배치될 수 있다.
복수의 연결 암(330)은, 클러스터 바디(310)와 제1카메라(210)를 연결하는 제1연결 암(340)과, 클러스터 바디(310)와 제2카메라(220)를 연결하는 제2연결 암(350)과, 클러스터 바디(310)와 제3카메라(230)를 연결하는 제3연결 암(360)과, 클러스터 바디(310)와 제4카메라(240)를 연결하는 제4연결 암(370)을 포함할 수 있다.
이러한 카메라 클러스터 모듈(300)은 프레임(400)에 의해 베이스(100)와 연결된다.
프레임(400)은 크로스 바(410)와, 복수의 포스트(420)를 포함한다.
크로스 바(410)는 유선형의 기둥형상을 가지며, 카메라 클러스터 모듈(300)을 지지하고, 베이스(100)의 상방에 스테이지 영역(110)을 가로지르며 배치된다.
크로스 바(410)는 베이스(100)의 스테이지 영역(110)으로부터 충분히 이격되어 사용자의 상부에 위치하며, 이에 시뮬레이터(1)를 이용하는 사용자가 서 있는 자세를 취하고 여러가지 동작을 수행함에 있어서 불편함이 없게 된다.
여기서, 크로스 바(410)에는 사용자의 신체에 탈부착 가능하게 연결되는 커넥터(미도시), 또는 사용자가 착용한 하네스와 연결된 와이어(미도시)가 연결될 수 있다.
포스트(420)는 복수로 마련되어, 크로스 바(410)의 양단부를 베이스(100)에 연결한다. 본 실시예에서는 한 쌍의 포스트(420)가 도시되어 있지만 이에 한정되지 않고, 포스트는 3개 이상 마련될 수 있다.
한 쌍의 포스트(420)는 스테이지 영역(110)의 둘레를 따라 베이스(100)에 기립 배치되어, 크로스 바(410)의 양단부를 각각 베이스(100)에 연결한다.
포스트(420)는 일정 길이의 바 형상을 가지며, 포스트(420)의 일단부는 베이스(100)에 연결될 수 있고, 포스트(420)의 타단부는 크로스 바(410)에 연결될 수 있다. 본 실시예에서는 포스트(420)가 사각기둥 형상으로 도시되었으나, 이에 한정되지 않고, 원기둥 형상, 다각형 기둥 형상 등을 가질 수도 있다.
이에 따라, 복수의 카메라(200)가 마련된 링 형상의 카메라 클러스터 모듈(300)은 프레임(400)에 의해 베이스(100)의 스테이지 영역(110)의 상부에 위치하게 된다.
즉, 본 발명에 따른 시뮬레이터(1)는, 복수의 카메라(200)가 장착되는 카메라 클러스터 모듈(300)을 베이스(100)의 스테이지 영역(110)의 상부에 위치되는 크로스 바(410)의 상부에 배치함으로써, 복수의 카메라(200)가 시뮬레이터(1) 외부의 객체 위치 정보를 탐지하는 오류를 방지할 수 있다.
따라서, 본 발명에 따른 시뮬레이터(1)의 복수의 카메라(200)의 FOV는 시뮬레이터(1)의 스테이지 영역(110)에만 형성될 수 있다. 따라서, 본 발명에 따른 시뮬레이터(1)는 복수의 카메라(200)의 설치 위치에 의해 시뮬레이터(1) 외부의 객체 위치 정보를 탐지하는 오류를 방지할 수 있다.
본 발명의 일 실시예에 따른 시뮬레이터(1)는 시뮬레이터(1)를 전체적으로 제어하기 위한 제어부(미도시)를 포함한다.
제어부는 시뮬레이터(1)를 이용하는 사용자의 위치 정보(User Geometric Information)를 저장하며, 시뮬레이터(1)를 이용하는 사용자의 위치 정보를 헤드마운트 디스플레이(1000)로 전송하여 사용자에게 가상현실을 구현할 수 있다.
일 실시 예로서, 복수의 카메라(200)에 의해 탐지된 사용자의 동작은 신호로 생성되어 제어부에 전송될 수 있다. 제어부는 생성된 신호에서 하나 이상의 동작을 검출할 수 있다. 예컨대, 제어부는 사용자의 오른손/왼손의 동작, 오른발/왼발의 동작 또는 몸통/머리의 움직임을 검출할 수 있다.
제어부는 생성된 신호에서 검출된 동작의 위치를 데이터로 나타낼 수 있도록 좌표를 설정할 수 있다. 예컨대, 좌표는 임의의 지점을 원점으로 지정하고, X축, Y축 및 Z축을 설정할 수 있다.
제어부는 설정된 좌표에서 검출된 하나 이상의 동작을 X값, Y값, 및 Z값으로 변환할 수 있다. 변환된 X값, Y값, 및 Z값은 네트워크를 통해 가상현실 서버로 전송되어 가상 현실 컨텐츠 내에서 동작 데이터로 입력될 수 있다.
입력된 동작 데이터는 가상 현실 컨텐츠 내에서 아바타의 동작으로 표현될 수 있고, 가상 현실 컨텐츠에서 장소 이동(예컨대, 발 동작에 관한 동작 데이터를 입력받는 경우), 또는 가상 객체와 인터렉션이 가능하도록(예컨대, 손 동작에 관한 동작 데이터를 입력받는 경우) 처리될 수 있다.
그리고, 제어부는 복수의 카메라(200)의 시야각이 개별적으로 독립영역을 형성하도록 제어할 수 있고, 또한 복수의 카메라(200)의 시야각이 중첩되는 합성영역을 형성하도록 제어할 수 있다.
여기서, 제어부는 프레임(400), 카메라 클러스터 모듈(300), 베이스(100) 등 시뮬레이터(1)의 일 영역에 마련될 수 있다. 또는, 제어부는 시뮬레이터(1)가 아닌 가상현실 서버 내에 구현될 수도 있다.
이러한 구성에 의하여, 사용자가 헤드마운트 디스플레이(1000)를 착용한 채로 본 발명의 일 실시예에 따른 시뮬레이터(1)의 스테이지 영역(110)에서 걷거나, 뛰거나, 점프하거나, 방향을 전환하는 등 서 있는 채로 여러 가지 자세를 취할 수 있다.
복수의 카메라(200)는 사용자가 시뮬레이터(1)의 스테이지 영역(110)에서 동작을 취하는 경우, 그 동작을 탐지한다.
복수의 카메라(200)에 의해 탐지된 사용자의 동작은 신호로 생성되어 제어부에 전송되고, 제어부는 생성된 신호에서 하나 이상의 동작을 검출할 수 있다.
제어부에 의해 생성된 제어 신호는 네트워크를 통해 가상현실 서버로 전송될 수 있고, 전송된 제어 신호는 가상현실 서버 상에 저장되어 처리되고 있는 가상 현실 컨텐츠를 제어하는 데에 사용된다.
따라서, 본 발명의 일 실시예에 따른 시뮬레이터(1)는 복수의 카메라(200)를 이용하여, 사용자 위치 정보 탐지의 오류를 방지하며, 메타버스 환경을 구현할 수 있게 된다.
한편, 도 6 및 도 7에는 본 발명의 다른 실시예에 따른 시뮬레이터가 도시되어 있다.
이들 도면에 도시된 바와 같이, 본 발명의 다른 실시예에 따른 시뮬레이터(1')는 전술한 일 실시예와 달리, 카메라(200)가 장착되는 연결 암(330)을 직선 왕복이동시키는 암 구동부(500)를 더 포함한다.
연결 암(330)은 클러스터 바디(310)에 직선 왕복이동가능하게 마련된다.
암 구동부(500)는 카메라(200)의 반대측 단부에 위치하는 연결 암(330)의 단부에 연결되어, 연결 암(330)을 클러스터 바디(310)의 방사방향을 따라 직선 왕복이동시켜, 카메라(200)가 클러스터 바디(310)로부터 돌출되는 간격을 가변 조절할 수 있게 된다.
암 구동부(500)로서, 직선 왕복운동이 가능한 리니어 구동모터 또는 유체압실린더가 마련될 수 있다.
이와 같이, 암 구동부(500)를 더 포함함으로써, 클러스터 바디(310)와 카메라(200) 사이의 간격을 가변 조절하여, 복수의 카메라(200)의 FOV를 쉽게 확장할 수 있고, 시뮬레이터(1') 내부에서의 사용자 위치 정보의 탐지를 최적화할 수 있게 된다.
또한, 본 발명의 다른 실시예에 따른 시뮬레이터(1')는 전술한 일 실시예와 달리, 카메라 클러스터 모듈(300)이 베이스(100)에 대해 승강하도록 포스트(420)를 승강시키는 포스트 승강부(600)를 더 포함한다.
포스트 승강부(600)는 각 포스트(420)의 하단부에 연결되어, 포스트(420)를 상하방향으로 직선 왕복이동시켜, 베이스(100)와 카메라(200) 사이의 간격을 가변 조절할 수 있게 된다.
포스트 승강부(600)로서, 직선 왕복운동이 가능한 리니어 구동모터 또는 유체압실린더가 마련될 수 있다.
이와 같이, 포스트 승강부(600)를 더 포함함으로써, 사용자의 신장이 작을 경우 카메라 클러스터 모듈(300)을 하강시키고, 사용자의 신장이 클 경우 카메라 클러스터 모듈(300)을 상승시켜, 사용자의 신장에 대응하며, 복수의 카메라(200)의 FOV를 확장할 수 있고, 시뮬레이터(1') 내부에서의 사용자 위치 정보의 탐지를 최적화할 수 있게 된다.
여기서, 본 발명의 다른 실시예에 따른 시뮬레이터(1')는 암 구동부(500)와 포스트 승강부(600)가 동시에 구비되는 것으로 설명하고 있지만 이에 한정되지 않고, 시뮬레이터(1')는 암 구동부(500) 또는 포스트 승강부(600) 중 어느 하나만 구비될 수도 있다.
한편, 전술한 실시예들에서는 도시되어 있지 않지만, 시뮬레이터는 카메라가 장착된 복수의 연결 암(330)이 각각, 클러스터 바디(310)에 회전 가능하게 연결될 수 있고, 이에 연결 암(330)을 회전시킴으로써, 연결 암(330)에 연결된 카메라의 FOV를 확장시킬 수 있고, 카메라에 의한 사용자 위치 정보의 탐지를 최적화할 수도 있다.
또한, 전술한 실시예들의 시뮬레이터는 가상현실 서버와 헤드마운트 디스플레이는 네트워크에 의해 서로 연결될 수 있다. 이러한 연결에는 유선 또는 무선 연결 방식이 사용되며, 당업계에 널리 알려진 여러 가능한 방법이 사용 가능하다.
그리고, 시뮬레이터는 헤드마운트 디스플레이를 통해 시뮬레이터를 이용하는 사용자에게 가상현실을 구현할 수 있다.
시뮬레이터는 가상 현실 컨텐츠의 처리에 있어 제어 신호를 수신하여, 이 제어 신호를 기초로 가상 현실 컨텐츠를 제어하고, 그 제어 결과에 따른 영상 및/또는 음성 신호를 헤드마운트 디스플레이로 전송할 수도 있다.
가상현실 서버는 외부 장치와 통신을 수행하여 정보를 처리하는 서버로서, 애플리케이션 서버, 컴퓨팅 서버, 데이터베이스 서버, 파일 서버, 게임 서버, 메일 서버, 프록시 서버 및 웹 서버 등을 포함할 수 있다.
그리고, 가상 현실 컨텐츠는 싱글 유저용 및/또는 멀티 유저용이 가능할 수 있다. 예컨대, 가상 현실 컨텐츠는 롤플레잉(role-playing) 유형의 컨텐츠 또는 서바이벌 전투 컨텐츠 등일 수 있다.
이상에서와 같이 첨부된 도면을 참조하여 개시된 실시 예들을 설명하였다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고도, 개시된 실시 예들과 다른 형태로 본 발명이 실시될 수 있음을 이해할 것이다. 개시된 실시 예들은 예시적인 것이며, 한정적으로 해석되어서는 안 된다.
1,1': 시뮬레이터
100: 베이스
110: 스테이지 영역
200: 카메라
210: 제1카메라
211: 제1시야각
220: 제2카메라
221: 제2시야각
230: 제3카메라
231: 제3시야각
240: 제4카메라
241: 제4시야각
300: 카메라 클러스터 모듈
310: 클러스터 바디
320: 연결부재
330: 연결 암
340: 제1연결 암
350: 제2연결 암
360: 제3연결 암
370: 제4연결 암
400: 프레임
410: 크로스 바
420: 포스트
500: 암 구동부
600: 포스트 승강부

Claims (8)

  1. 헤드마운트 디스플레이(Head Mounted Display)를 착용한 사용자가 보행가능하게 마련되고, 메타버스의 가상공간과 매칭되는 스테이지 영역을 형성하는 베이스;
    상기 베이스의 상방에 상기 스테이지 영역의 둘레를 따라 배치되어, 상기 스테이지 영역에 위치한 사용자의 위치를 탐지하는 복수의 카메라;
    복수의 상기 카메라가 마련되는 카메라 클러스터 모듈;
    상기 카메라 클러스터 모듈과 상기 베이스를 연결하는 프레임;
    상기 카메라 클러스터 모듈을 제어하는 제어부를 포함하고,
    상기 카메라 클러스터 모듈은, 상기 스테이지 영역의 상방에 상기 스테이지 영역의 둘레를 따라 배치되는 클러스터 바디, 상기 클러스터 바디와 상기 스테이지 영역을 가로지르며 배치되는 크로스 바를 연결하는 연결부재, 상기 클러스터 바디와 복수의 상기 카메라를 각각 연결하며 상기 클러스터 바디에 대해 직선 왕복이동가능하게 마련되는 복수의 연결 암, 상기 연결 암을 직선 왕복이동시키는 암 구동부, 상기 크로스 바의 양단부를 상기 베이스에 연결하는 복수의 포스트 및 상기 카메라 클러스터 모듈이 상기 베이스에 대해 승강하도록 상기 포스트를 승강시키는 포스트 승강부를 포함하고,
    복수의 상기 카메라는, 상기 스테이지 영역에서의 사용자의 위치를 탐지하도록 제1영역을 형성하는 제1카메라, 상기 제1카메라의 시야각과 중첩되는 제2영역을 형성하는 제2카메라, 상기 제1카메라의 시야각 및 상기 제2카메라의 시야각과 중첩되는 제3영역을 형성하는 제3카메라 및 상기 제1카메라의 시야각, 상기 제2카메라의 시야각 및 상기 제3카메라의 시야각과 중첩되는 제4영역을 형성하는 제4카메라를 포함하고,
    상기 제1카메라 및 상기 제2카메라는, 상기 크로스 바의 전방에서 후방을 향하도록 마련되고, 상기 사용자의 전방에서 후방을 향해 상기 사용자의 위치 정보를 탐지하고,
    상기 제3카메라 및 상기 제4카메라는, 상기 크로스 바의 후방에서 전방을 향하도록 마련되고, 상기 사용자의 후방에서 전방을 향해 상기 사용자의 위치 정보를 탐지하고,
    상기 제어부는,
    상기 제1 내지 제4 카메라 중 2개의 카메라에 의해 획득된 사용자의 오른발 동작 및 왼발 동작에 대한 제1 영상 데이터, 상기 제1 내지 제4 카메라 중 나머지 2개의 카메라에 의해 획득된 사용자의 오른손 동작 및 왼손 동작에 대한 제2 영상 데이터, 상기 제1 내지 제4 카메라 중 나머지 2개의 카메라에 의해 획득된 사용자의 몸통 움직임 및 머리 움직임에 대한 제3 영상 데이터를 서로 분산하여 처리하는 것을 특징으로 하는, 메타버스 환경 구현을 위한 시뮬레이터.
  2. 삭제
  3. 삭제
  4. 삭제
  5. 삭제
  6. 삭제
  7. 제1항에 있어서,
    상기 연결 암은, 상기 연결 암에 마련된 상기 제1 내지 제4 카메라의 시야각이 상기 스테이지 영역을 벗어나지 않도록 상기 스테이지 영역을 향해 하향 경사지게 마련되는, 메타버스 환경 구현을 위한 시뮬레이터.
  8. 삭제
KR1020220079348A 2022-06-29 2022-06-29 메타버스 환경 구현을 위한 시뮬레이터 KR102490703B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220079348A KR102490703B1 (ko) 2022-06-29 2022-06-29 메타버스 환경 구현을 위한 시뮬레이터

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220079348A KR102490703B1 (ko) 2022-06-29 2022-06-29 메타버스 환경 구현을 위한 시뮬레이터

Publications (2)

Publication Number Publication Date
KR102490703B1 true KR102490703B1 (ko) 2023-01-19
KR102490703B9 KR102490703B9 (ko) 2024-01-11

Family

ID=85077954

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220079348A KR102490703B1 (ko) 2022-06-29 2022-06-29 메타버스 환경 구현을 위한 시뮬레이터

Country Status (1)

Country Link
KR (1) KR102490703B1 (ko)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101492372B1 (ko) * 2014-04-23 2015-02-12 (주)스페이스링크 모션제어유닛을 포함하는 가상현실 시뮬레이션장치
KR20180005024A (ko) * 2016-07-05 2018-01-15 주식회사 인디고엔터테인먼트 보행 가능한 가상 현실 장치
KR101842600B1 (ko) 2017-02-08 2018-05-14 한림대학교 산학협력단 가상현실 시스템 및 이를 이용한 가상현실 제공 방법
KR102347026B1 (ko) * 2021-09-30 2022-01-04 주식회사 넥스트케이 복수의 고정 카메라로 구성된 다중 카메라를 이용한 영상 분석 장치

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101492372B1 (ko) * 2014-04-23 2015-02-12 (주)스페이스링크 모션제어유닛을 포함하는 가상현실 시뮬레이션장치
KR20180005024A (ko) * 2016-07-05 2018-01-15 주식회사 인디고엔터테인먼트 보행 가능한 가상 현실 장치
KR101842600B1 (ko) 2017-02-08 2018-05-14 한림대학교 산학협력단 가상현실 시스템 및 이를 이용한 가상현실 제공 방법
KR102347026B1 (ko) * 2021-09-30 2022-01-04 주식회사 넥스트케이 복수의 고정 카메라로 구성된 다중 카메라를 이용한 영상 분석 장치

Also Published As

Publication number Publication date
KR102490703B9 (ko) 2024-01-11

Similar Documents

Publication Publication Date Title
US10678324B2 (en) Systems and methods for augmented reality
AU2017214748B9 (en) Systems and methods for augmented reality
CN108156441B (zh) 头戴式设备及在其中的计算机实现的方法
US11768383B2 (en) Display control apparatus and display control method
CN105283816B (zh) 远程控制方法及终端
US10338688B2 (en) Electronic device and method of controlling the same
US10795446B2 (en) Portable electronic haptic vision device
EP3196734B1 (en) Control device, control method, and program
US11049325B2 (en) Information processing apparatus, information processing method, and program
WO2020241189A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2018072992A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるプログラム
KR102490703B1 (ko) 메타버스 환경 구현을 위한 시뮬레이터
KR102479585B1 (ko) 무게 중심 이동 힘 인가 장치
WO2017061890A1 (en) Wireless full body motion control sensor
JP6227732B1 (ja) 仮想空間において入力を支援するための方法および装置、ならびに当該方法をコンピュータに実行させるプログラム
US9984540B2 (en) Fan-driven force device
US11256090B2 (en) Systems and methods for augmented reality
JP6457446B2 (ja) 仮想空間におけるコミュニケーションを支援するための方法および装置ならびに当該方法をコンピュータに実行させるためのプログラム
JP2018101291A (ja) 仮想空間にオブジェクトを提示するためにコンピュータによって実行される方法、当該方法をコンピュータに実行させるプログラム、および、コンピュータ装置
KR102486191B1 (ko) 사용자 위치 정보 탐지의 오류를 방지하는 가상현실 시스템 및 이를 이용한 가상현실 제공 방법
US11281015B2 (en) Electronic device
JP2018032384A (ja) 仮想空間におけるコミュニケーションを支援するための方法および装置ならびに当該方法をコンピュータに実行させるためのプログラム
KR20230088100A (ko) 가상 입력 장치를 이용하기 위한 전자 장치 및 그 전자 장치에서의 동작 방법
US20230236321A1 (en) Electronic device for obtaining distance information and method for controlling the same
US20240169681A1 (en) Arrangements of illumination sources within and outside of a digit-occluded region of a top cover of a handheld controller to assist with positional tracking of the controller by an artificial-reality system, and systems and methods of use thereof

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Re-publication after modification of scope of protection [patent]