KR101799980B1 - Apparatus, system and method for controlling virtual reality image and simulator - Google Patents

Apparatus, system and method for controlling virtual reality image and simulator Download PDF

Info

Publication number
KR101799980B1
KR101799980B1 KR1020160041028A KR20160041028A KR101799980B1 KR 101799980 B1 KR101799980 B1 KR 101799980B1 KR 1020160041028 A KR1020160041028 A KR 1020160041028A KR 20160041028 A KR20160041028 A KR 20160041028A KR 101799980 B1 KR101799980 B1 KR 101799980B1
Authority
KR
South Korea
Prior art keywords
virtual reality
motion
character
reality image
simulator
Prior art date
Application number
KR1020160041028A
Other languages
Korean (ko)
Other versions
KR20170114371A (en
Inventor
곽동훈
Original Assignee
삼성물산 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성물산 주식회사 filed Critical 삼성물산 주식회사
Priority to KR1020160041028A priority Critical patent/KR101799980B1/en
Publication of KR20170114371A publication Critical patent/KR20170114371A/en
Application granted granted Critical
Publication of KR101799980B1 publication Critical patent/KR101799980B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings

Abstract

본 발명은 가상 현실 영상 및 모션 시뮬레이터 제어 장치, 시스템 및 방법에 관한 것으로서, 보다 상세하게는 가상 현실 영상 콘텐츠를 디스플레이하는 출력 장치와, 가상 현실 영상과 동기화되어 동작하며 사용자가 탑승할 수 있는 모션 시뮬레이터를 제어하는 제어 장치에 있어서, 사용자의 뇌파 또는 음성 신호를 입력받는 입력부; 뇌파 또는 음성 신호와 가상 현실 영상 내 캐릭터의 움직임 데이터가 매핑되어 저장된 데이터베이스; 및 입력된 뇌파 또는 음성 신호를 기초로 데이터베이스로부터 캐릭터의 움직임 데이터를 검색하여, 움직임 데이터를 기초로 출력 장치에 디스플레이되는 가상 현실 영상 콘텐츠와 모션 시뮬레이터를 동기화하여 제어하는 제어부를 포함한다. The present invention relates to an apparatus, a system and a method for controlling a virtual reality image and a motion simulator, and more particularly, to an apparatus and method for controlling a virtual reality image and a motion simulator by using an output device for displaying virtual reality image contents, The apparatus comprising: an input unit for receiving a user's brain wave or voice signal; A database in which brain waves or voice signals and motion data of a character in a virtual reality image are mapped and stored; And a control unit for retrieving motion data of the character from the database based on the inputted EEG or voice signal and synchronously controlling the motion simulator with the virtual reality image contents displayed on the output device based on the motion data.

Description

가상 현실 영상 및 모션 시뮬레이터 제어 장치, 시스템 및 방법{APPARATUS, SYSTEM AND METHOD FOR CONTROLLING VIRTUAL REALITY IMAGE AND SIMULATOR}TECHNICAL FIELD [0001] The present invention relates to an apparatus, a system, and a method for controlling a virtual reality image and a motion simulator,

본 발명은 가상 현실 영상 및 모션 시뮬레이터 제어 장치, 시스템 및 방법에 관한 것으로서, 보다 자세하게는 뇌파 또는 음성 신호를 입력 신호로 하여, 가상 현실 공간 속의 캐릭터를 제어하며, 움직이는 캐릭터의 시야를 반영한 가상 현실 영상 콘텐츠를 디스플레이하는 출력 장치 및 사용자가 탑승할 수 있는 모션 시뮬레이터를 제어하는 장치, 시스템 및 방법에 관한 것이다.The present invention relates to an apparatus, a system and a method for controlling a virtual reality image and a motion simulator. More particularly, the present invention relates to an apparatus, system and method for controlling a virtual reality space and a motion simulator by using a brain wave or a voice signal as an input signal, To an apparatus, a system and a method for controlling an output device for displaying contents and a motion simulator on which a user can ride.

가상 현실(Virtual Reality, VR)이란, 멀티미디어 기술을 응용하여 현실에서 존재하지 않는 환경을 실제로 존재하는 것처럼 느끼게 하는 것을 말한다. 이러한 가상 현실은 여러 가지 영상이나 컴퓨터 그래픽을 이용하여 가공의 세계나 원격지의 공간을 표시하여 마치 자신이 그 자리에 있는 것처럼 느끼게 하기에 ‘가상 현실’이라 지칭한다. Virtual Reality (VR) is the application of multimedia technology to make an environment that does not exist in reality feel like it actually exists. Such a virtual reality is called 'virtual reality' in order to display a processing world or a remote space using various images or computer graphics to make it feel as if it is in the spot.

최근에는 인간의 머리에 착용하여 가상 현실을 즐길 수 있는 HMD(Head Mounted Display)를 활용한 가상 현실 컨텐츠가 제공된다. 이들은 교육, 엔터테인먼트, 게임, 테마 파크 등의 다양한 분야에서 활용되고 있으며 일반 소비자 대상으로 시장이 점점 커지고 있다. In recent years, virtual reality contents using HMD (Head Mounted Display), which can be worn on a human head and enjoyed virtual reality, are provided. They are used in various fields such as education, entertainment, games, and theme parks.

특히 HMD가 보여주는 가상 현실 영상의 내용에 대응되도록 움직이는 모션 시뮬레이터를 결합한 시스템의 시장이 활발히 확대되고 있다. 이러한 가상 현실 영상에 모션 시뮬레이터를 결합한 시스템은, 영상의 진행 시간에 따라 정해진 모션 시뮬레이터의 움직임이 사전에 프로그램된 순서에 따라서 제공될 뿐, 사용자의 제어에 따라 실시간으로 가상 현실 영상에 변경을 가하고, 그에 따라 모션 시뮬레이터가 대응되는 움직임을 갖도록 할 수 없었다. 이로 인해 가상 현실의 효과가 반감될 뿐 아니라, 다양한 방식으로의 활용에 제약이 생긴다.In particular, the market of a system combining a motion simulator that moves to match the contents of a virtual reality image displayed by the HMD is actively expanding. In the system in which the motion simulator is combined with the virtual reality image, the movement of the motion simulator determined according to the progress time of the image is provided in accordance with the order programmed in advance, and the virtual reality image is changed in real- So that the motion simulator can not have a corresponding motion. This not only reduces the effects of virtual reality, but also limits the use of it in various ways.

한국 공개특허공보 제10-2015-0135154호: 가상현실 모션 시뮬레이터Korean Patent Publication No. 10-2015-0135154: Virtual Reality Motion Simulator

본 발명의 실시예는 전술한 문제점을 해결하기 위하여 안출된 것으로, 사용자가 원하는 명령대로 가상 현실 공간 속의 캐릭터를 움직이며, 캐릭터의 움직임에 맞추어 출력 장치가 디스플레이하는 가상 현실 영상 콘텐츠 및 모션 시뮬레이터를 제어하는 것을 목적으로 한다.According to an embodiment of the present invention, there is provided an apparatus and method for moving a character in a virtual reality space according to a command desired by a user and controlling a virtual reality image content and a motion simulator .

이때 특히 뇌파 또는 음성 신호 등을 이용하여 가상 현실 영상 콘텐츠와 모션 시뮬레이터의 움직임을 제어하는 것을 목적으로 한다. In this case, it is aimed to control the motion of the virtual reality image contents and the motion simulator by using brain waves or voice signals.

한편, 본 발명의 실시예가 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 이하에서 설명할 내용으로부터 통상의 기술자에게 자명한 범위 내에서 다양한 기술적 과제가 도출될 수 있다.The technical problem to be solved by the embodiments of the present invention is not limited to the technical problems mentioned above, and various technical problems can be derived from the contents to be described below within a range obvious to the ordinary artisan.

전술한 문제를 해결하기 위해, 가상 현실 영상 및 모션 시뮬레이터 제어 장치는 가상 현실 영상 콘텐츠를 디스플레이하는 출력 장치와, 상기 가상 현실 영상과 동기화되어 동작하며 사용자가 탑승할 수 있는 모션 시뮬레이터를 제어하는 제어 장치에 있어서, 사용자의 뇌파 또는 음성 신호를 입력받는 입력부; 상기 뇌파 또는 음성 신호와 상기 가상 현실 영상 내 캐릭터의 움직임 데이터가 매핑되어 저장된 데이터베이스; 및 상기 입력된 뇌파 또는 음성 신호를 기초로 상기 데이터베이스로부터 상기 캐릭터의 움직임 데이터를 검색하여, 상기 움직임 데이터를 기초로 상기 출력 장치에 디스플레이되는 상기 가상 현실 영상 콘텐츠와 상기 모션 시뮬레이터를 동기화하여 제어하는 제어부를 포함한다. In order to solve the above-mentioned problems, a virtual reality video and motion simulator control apparatus includes an output device for displaying virtual reality video contents, a control device for controlling a motion simulator operating in synchronization with the virtual reality video, An input unit for receiving a user's brain wave or voice signal; A database in which the brain wave or voice signal and motion data of a character in the virtual reality image are mapped and stored; And a controller for retrieving motion data of the character from the database based on the inputted EEG or voice signal and for controlling the motion simulator in synchronization with the virtual reality image contents displayed on the output device based on the motion data, .

이때 상기 움직임 데이터는, 상기 캐릭터의 이동 방향, 속도, 회전, 자세와 관련된 움직임을 포함할 수 있다. At this time, the motion data may include motions related to the moving direction, speed, rotation, and posture of the character.

또한 상기 디스플레이되는 가상 현실 영상 콘텐츠는, 상기 캐릭터의 시각에서 본 가상 현실 공간 배경을 포함하며, 상기 표시되는 가상 현실 공간 배경은 상기 캐릭터의 가상 현실 공간 내에서의 위치 좌표와, 상기 검색된 움직임 테이터를 기초로 결정될 수 있다. Also, the displayed virtual reality image content includes a virtual reality space background viewed from the character's viewpoint, and the displayed virtual reality space background includes position coordinates of the character in the virtual reality space, Can be determined on a basis.

더불어 상기 입력된 뇌파 또는 음성 신호는, 매핑된 움직임 데이터의 내용이 텍스트로 변환되어, 상기 가상 현실 영상 콘텐츠 내에 디스플레이될 수 있다. In addition, the inputted EEG or speech signal can be displayed in the virtual reality image content by converting the contents of the mapped motion data into text.

아울러 상기 제어 장치는, HMD(Head Mounted Device) 장치에 탑재될 수 있다. In addition, the control device may be mounted on an HMD (Head Mounted Device) device.

또한 상기 입력되는 뇌파 또는 음성 신호의 진폭의 세기에 따라, 상기 움직임 데이터가 상기 가상 현실 영상 콘텐츠 및 상기 모션 시뮬레이터에 반영되는 속도가 달라질 수 있다. In addition, the rate at which the motion data is reflected to the virtual reality image contents and the motion simulator may vary according to the magnitude of the amplitude of the input EEG or voice signal.

가상 현실 영상 시스템은 가상 현실 영상을 출력하는 출력 장치; 상기 가장 현실 영상과 동기화되어 동작하며 사람이 탑승할 수 있는 모션 시뮬레이터; 및 상기 출력 장치 및 상기 모션 시뮬레이터를 제어하는 제어 장치를 포함하고, 상기 제어 장치는 사용자의 뇌파 또는 음성 신호를 입력받는 입력부; 상기 뇌파 또는 음성 신호와 상기 가상 현실 영상 내 캐릭터의 움직임 데이터가 매핑되어 저장된 데이터베이스; 및 상기 입력된 뇌파 또는 음성 신호를 기초로 상기 데이터베이스로부터 상기 캐릭터의 움직임 데이터를 검색하여, 상기 움직임 데이터를 기초로 상기 출력 장치에 디스플레이되는 상기 가상 현실 영상 콘텐츠와 상기 모션 시뮬레이터를 동기화하여 제어하는 제어부를 포함한다. The virtual reality system includes an output device for outputting a virtual reality image; A motion simulator that operates in synchronization with the most realistic image and on which a person can ride; And a control device for controlling the output device and the motion simulator, wherein the control device comprises: an input unit for receiving a user's brain wave or voice signal; A database in which the brain wave or voice signal and motion data of a character in the virtual reality image are mapped and stored; And a controller for retrieving motion data of the character from the database based on the inputted EEG or voice signal and for controlling the motion simulator in synchronization with the virtual reality image contents displayed on the output device based on the motion data, .

이때 상기 움직임 데이터는, 상기 캐릭터의 이동 방향, 속도, 회전, 자세와 관련된 움직임을 포함할 수 있다. At this time, the motion data may include motions related to the moving direction, speed, rotation, and posture of the character.

또한 상기 디스플레이되는 가상 현실 영상 콘텐츠는, 상기 캐릭터의 시각에서 본 가상 현실 공간 배경을 포함하며, 상기 표시되는 가상 현실 공간 배경은 상기 캐릭터의 가상 현실 공간 내에서의 위치 좌표와, 상기 검색된 움직임 테이터를 기초로 결정될 수 있다. Also, the displayed virtual reality image content includes a virtual reality space background viewed from the character's viewpoint, and the displayed virtual reality space background includes position coordinates of the character in the virtual reality space, Can be determined on a basis.

더불어 상기 입력된 뇌파 또는 음성 신호는, 매핑된 움직임 데이터의 내용이 텍스트로 변환되어, 상기 가상 현실 영상 콘텐츠 내에 디스플레이될 수 있다. In addition, the inputted EEG or speech signal can be displayed in the virtual reality image content by converting the contents of the mapped motion data into text.

아울러 상기 제어 장치는, HMD(Head Mounted Device) 장치에 탑재될 수 있다. In addition, the control device may be mounted on an HMD (Head Mounted Device) device.

또한 상기 입력되는 뇌파 또는 음성 신호의 진폭의 세기에 따라, 상기 움직임 데이터가 상기 가상 현실 영상 콘텐츠 및 상기 모션 시뮬레이터에 반영되는 속도가 달라질 수 있다. In addition, the rate at which the motion data is reflected to the virtual reality image contents and the motion simulator may vary according to the magnitude of the amplitude of the input EEG or voice signal.

가상 현실 영상 및 모션 시뮬레이터 제어 방법은 사용자의 뇌파 또는 음성 신호에 따라 출력되는 가상 현실 영상 및 모션 시뮬레이터의 움직임을 제어하는 방법에 있어서, 사용자의 뇌파 또는 음성 신호를 입력받는 단계; 상기 입력된 뇌파 또는 음성 신호를 기초로 상기 데이터베이스로부터 상기 캐릭터의 움직임 데이터를 검색하는 단계; 상기 움직임 데이터를 기초로 상기 출력 장치에 디스플레이되는 상기 가상 현실 영상 콘텐츠와 상기 모션 시뮬레이터를 동기화하여 제어하는 단계를 포함한다. A method of controlling a virtual reality video and a motion simulator according to a user's brain wave or voice signal, the method comprising: receiving a user's brain wave or voice signal; Retrieving motion data of the character from the database based on the input brain wave or voice signal; And synchronizing the motion simulator with the virtual reality image content displayed on the output device based on the motion data.

이때 상기 움직임 데이터는, 상기 캐릭터의 이동 방향, 속도, 회전, 자세와 관련된 움직임을 포함할 수 있다. At this time, the motion data may include motions related to the moving direction, speed, rotation, and posture of the character.

또한 상기 디스플레이되는 가상 현실 영상 콘텐츠는, 상기 캐릭터의 시각에서 본 가상 현실 공간 배경을 포함하며, 상기 표시되는 가상 현실 공간 배경은 상기 캐릭터의 가상 현실 공간 내에서의 위치 좌표와, 상기 검색된 움직임 테이터를 기초로 결정될 수 있다. Also, the displayed virtual reality image content includes a virtual reality space background viewed from the character's viewpoint, and the displayed virtual reality space background includes position coordinates of the character in the virtual reality space, Can be determined on a basis.

더불어 상기 입력된 뇌파 또는 음성 신호는, 매핑된 움직임 데이터의 내용이 텍스트로 변환되어, 상기 가상 현실 영상 콘텐츠 내에 디스플레이될 수 있다. In addition, the inputted EEG or speech signal can be displayed in the virtual reality image content by converting the contents of the mapped motion data into text.

아울러 상기 제어 장치는, HMD(Head Mounted Device) 장치에 탑재될 수 있다. In addition, the control device may be mounted on an HMD (Head Mounted Device) device.

또한 상기 입력되는 뇌파 또는 음성 신호의 진폭의 세기에 따라, 상기 움직임 데이터가 상기 가상 현실 영상 콘텐츠 및 상기 모션 시뮬레이터에 반영되는 속도가 달라질 수 있다. In addition, the rate at which the motion data is reflected to the virtual reality image contents and the motion simulator may vary according to the magnitude of the amplitude of the input EEG or voice signal.

본 발명의 실시예는 가상 현실 영상 콘텐츠를 출력하는 출력 장치 및 모션 시뮬레이터의 움직임을 외부 신호의 실시간 입력에 따라 제어되도록 할 수 있다. The embodiment of the present invention can control the motion of the output device and the motion simulator for outputting the virtual reality image contents according to the real time input of the external signal.

특히 뇌파 또는 음성 신호를 입력 신호로 하여, 가상 현실 공간 속의 캐릭터를 제어하고, 캐릭터의 움직임에 대응되도록 가상 현실 영상 콘텐츠 및 모션 시뮬레이터를 제어할 수 있다. Especially, it is possible to control a character in a virtual reality space by using an EEG or voice signal as an input signal, and to control the virtual reality image contents and the motion simulator so as to correspond to the motion of the character.

본 발명의 실시예에 대한 효과는 이상에서 언급한 효과들로 제한되지 않으며, 이하에서 설명할 내용으로부터 통상의 기술자에게 자명한 범위 내에서 다양한 효과들이 포함될 수 있다. The effects of the embodiments of the present invention are not limited to the above-mentioned effects, and various effects can be included within the scope that is obvious to a person skilled in the art from the following description.

도 1은 본 발명의 일 실시예에 따른 가상 현실 영상 시스템의 구성을 나타낸 도면이다.
도 2는 본 발명의 일 실시예에 따라 특정 명령에 대해 가상 현실 영상 시점 이동 또는 모션 시뮬레이터의 움직임을 매핑하여 데이터베이스화하는 것을 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시예에 따른 가상 현실 영상 및 모션 시뮬레이터 제어 방법의 순서를 나타낸 도면이다.
1 is a block diagram of a virtual reality system according to an embodiment of the present invention.
FIG. 2 is a diagram for explaining how virtual reality video viewpoint movement or motion of a motion simulator is mapped to a specific instruction to form a database according to an embodiment of the present invention.
3 is a flowchart illustrating a method of controlling a virtual reality image and a motion simulator according to an exemplary embodiment of the present invention.

본 발명의 목적과 기술적 구성 및 그에 따른 작용 효과에 관한 자세한 사항은 본 발명의 명세서에 첨부된 도면에 의거한 이하의 상세한 설명에 의해 보다 명확하게 이해될 것이다. 첨부된 도면을 참조하여 본 발명에 따른 실시예를 상세하게 설명한다.DETAILED DESCRIPTION OF THE EMBODIMENTS Reference will now be made in detail to the preferred embodiments of the present invention, examples of which are illustrated in the accompanying drawings, wherein like reference numerals refer to the like elements throughout. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment according to the present invention will be described in detail with reference to the accompanying drawings.

본 명세서에서 개시되는 실시예들은 본 발명의 범위를 한정하는 것으로 해석되거나 이용되지 않아야 할 것이다. 이 분야의 통상의 기술자에게 본 명세서의 실시예를 포함한 설명은 다양한 응용을 갖는다는 것이 당연하다. 따라서, 본 발명의 상세한 설명에 기재된 임의의 실시예들은 본 발명을 보다 잘 설명하기 위한 예시적인 것이며 본 발명의 범위가 실시예들로 한정되는 것을 의도하지 않는다.The embodiments disclosed herein should not be construed or interpreted as limiting the scope of the present invention. It will be apparent to those of ordinary skill in the art that the description including the embodiments of the present specification has various applications. Accordingly, any embodiment described in the Detailed Description of the Invention is illustrative for a better understanding of the invention and is not intended to limit the scope of the invention to embodiments.

도면에 표시되고 아래에 설명되는 기능 블록들은 가능한 구현의 예들일 뿐이다. 다른 구현들에서는 상세한 설명의 사상 및 범위를 벗어나지 않는 범위에서 다른 기능 블록들이 사용될 수 있다. 또한, 본 발명의 하나 이상의 기능 블록이 개별 블록들로 표시되지만, 본 발명의 기능 블록들 중 하나 이상은 동일 기능을 실행하는 다양한 하드웨어 및 소프트웨어 구성들의 조합일 수 있다.The functional blocks shown in the drawings and described below are merely examples of possible implementations. In other implementations, other functional blocks may be used without departing from the spirit and scope of the following detailed description. Also, although one or more functional blocks of the present invention are represented as discrete blocks, one or more of the functional blocks of the present invention may be a combination of various hardware and software configurations that perform the same function.

또한, 어떤 구성요소들을 포함한다는 표현은 개방형의 표현으로서 해당 구성요소들이 존재하는 것을 단순히 지칭할 뿐이며, 추가적인 구성요소들을 배제하는 것으로 이해되어서는 안 된다.In addition, the expression "including any element" is merely an expression of an open-ended expression, and is not to be construed as excluding the additional elements.

나아가 어떤 구성요소가 다른 구성요소에 연결되어 있다거나 접속되어 있다고 언급될 때에는, 그 다른 구성요소에 직접적으로 연결 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 한다. Further, when a component is referred to as being connected or connected to another component, it may be directly connected or connected to the other component, but it should be understood that there may be other components in between.

또한 '제1, 제2' 등과 같은 표현은 복수의 구성들을 구분하기 위한 용도로만 사용된 표현으로써, 구성들 사이의 순서나 기타 특징들을 한정하지 않는다. Also, the expressions such as 'first, second', etc. are used only to distinguish a plurality of configurations, and do not limit the order or other features between configurations.

도 1은 본 발명의 일 실시예에 따른 가상 현실 영상 시스템을 나타낸 도면이다. 1 is a diagram illustrating a virtual reality image system according to an exemplary embodiment of the present invention.

도 1을 참조하면, 가상 현실 영상 시스템은 제어 장치(100), 출력 장치(200), 및 모션 시뮬레이터(300)를 포함한다. Referring to FIG. 1, a virtual reality imaging system includes a control device 100, an output device 200, and a motion simulator 300.

출력 장치(200)는 가상 현실 영상을 디스플레이하며, 사용자의 입력 신호에 따라 디스플레이되는 영상이 제어된다. The output device 200 displays a virtual reality image, and an image to be displayed is controlled according to a user's input signal.

이때 출력 장치(200)는 사용자의 안구 부위에 착용되는 고글 형태로서, 1인칭 영상을 출력할 수 있다. 예를 들면, 인간의 머리에 착용되어 안구를 감싸며 가상 현실을 즐길 수 있는 HMD(Head Mounted Display) 형태일 수 있다. At this time, the output device 200 is a goggle type worn on the user's eyeball portion, and can output a first-person image. For example, it may be in the form of an HMD (Head Mounted Display) which can be worn on a human head to cover an eyeball and enjoy a virtual reality.

여기서 가상 현실(Virtual Reality, VR)이란 멀티미디어 기술을 응용하여 현실에서 존재하지 않는 환경을 실재로 존재하는 것처럼 느끼게 하는 것을 말한다. 이러한 가상 현실은 여러 가지 영상이나 컴퓨터 그래픽을 이용하여 가공의 세계나 원격지의 공간을 표시하여 마치 자신이 그 자리에 있는 것처럼 느끼게 하기에 ‘가상 현실’이라 지칭한다. Here, virtual reality (VR) refers to the application of multimedia technology to make an environment that does not exist in reality actually exist. Such a virtual reality is called 'virtual reality' in order to display a processing world or a remote space using various images or computer graphics to make it feel as if it is in the spot.

모션 시뮬레이터(300)는 사용자의 몸에 착용되는 장치 또는 사용자가 탑승하는 동체로서, 사용자가 가상 현실 영상을 통해 느끼는 실감도를 움직임을 통해 증강하기 위한 장치이다. 모션 시뮬레이터(300)는 제어 장치(100)에 의하여 제어되며, 특히 가상 현실 영상과 동기화되어 동작될 수 있다. The motion simulator 300 is a device to be worn on the body of a user or a body on which a user is to ride, and is a device for enhancing the actual sensation felt by a user through a virtual reality image through movement. The motion simulator 300 is controlled by the controller 100, and can be operated in synchronization with the virtual reality image.

제어 장치(100)는 출력 장치(200) 및 모션 시뮬레이터(300)를 제어한다. 제어 장치(100)는 사용자로부터 입력 신호를 입력 받아, 출력 장치(200) 및 모션 시뮬레이터(300)를 제어하는데, 이때 입력 신호는 예를 들면 사용자의 인체에서 내보내는 모션, 뇌파, 음성 신호 등을 포함할 수 있다. The control device 100 controls the output device 200 and the motion simulator 300. The control device 100 receives an input signal from a user and controls the output device 200 and the motion simulator 300. The input signal includes a motion, a brain wave, a voice signal, etc., can do.

일 실시예에 따른 제어 장치(100)의 구성은 입력부(110), 데이터베이스(120) 및 제어부(130)를 포함할 수 있다. The controller 100 may include an input unit 110, a database 120, and a controller 130 according to an exemplary embodiment of the present invention.

입력부(110)는 사용자의 뇌파 또는 음성 신호를 입력 받을 수 있다. The input unit 110 may receive a user's brain wave or voice signal.

뇌파(Electroencephalogram)란 약 수십억 개가 되는 뇌 신경세포 상호의 결합 형태나 활동에 의해서 나타나는 움직임으로, 일반적으로 두피 상에 전극을 접착하여 측정되며, 수십 마이크로 볼트의 전위차와 주로 30Hz 이하의 주파수를 지닌 파장으로서 인간의 의식상태를 반영하는 물리 값이다.Electroencephalogram is an action that is caused by the binding form or activity of several billions of cranial nerve cells and is generally measured by adhering electrodes on the scalp. The electroencephalogram is a wave with a potential difference of tens of microvolts, Is a physical value reflecting the state of human consciousness.

특히 입력부(110)는 일 실시예로, 사용자의 머리에 전극을 접착하는 방식으로 사용자의 뇌파를 입력 받을 수 있으며, 뇌파를 측정하는 방법은 공지된 방법을 포함하며, 예를 들면 대한민국 공개특허공보 1999-0046503호 (헤드밴드를 이용한 실시간 뇌파측정 장치 및 그 방법)의 방법을 사용할 수도 있다. In particular, the input unit 110 may receive a user's brain wave in a manner that an electrode is attached to a head of a user, and a method of measuring brain waves includes a known method. For example, 1999-0046503 (an apparatus and method for real-time EEG using a headband) may be used.

이때 입력하는 신호로 사용될 뇌파는 사용자가 특정 명령 또는 행동을 지칭하는 언어를 생각하였을 경우 발생하는 뇌파를 입력 신호로 사용할 수 있다. In this case, an EEG to be used as an input signal can use an EEG generated when a user thinks about a specific instruction or a language that refers to an action.

보다 구체적으로 예를 들면, 사용자의 머리에 뇌파 측정 장치를 씌우고 특정 언어를 생각할 때 발생하는 뇌파를 측정하고, 이때 제어부(130)가 입력부(110)를 통해 수신한 뇌파를 데이터베이스(120)의 데이터를 기초로 분석하여 사용자가 특정 명령을 입력한 것이라고 판단할 수 있다(Stocco & Rao et al., “Playing 20 Questions with the Mind: Collaborative Problem Solving by Humans Using a Brain-to-Brain Interface”, PLOS ONE, Published:23 Sep 2015).More specifically, for example, an EEG measurement device is placed on a head of a user and an EEG occurring when a specific language is considered is measured. At this time, an EEG received by the control unit 130 through the input unit 110 is stored in the database 120 (Stocco & Rao et al., &Quot; Playing 20 Questions with the Mind: Collaborative Problem Solving by Humans Using a Brain-to-Brain Interface ", PLOS ONE , Published: 23 Sep 2015).

또한 입력부(110)는 입력되는 뇌파의 패턴이 비슷하더라도 진폭이 다름을 구분하여 사용자의 뇌파를 측정할 수 있다. 이때 사용자는 동일하게 “우측”으로 이동할 것을 의도해도 장애물이 다가오는 속도가 급박한 경우와 천천히 다가오는 경우, 뇌파의 진폭은 다를 수 있다. 그리하여 같은 사용자로부터의 명령의 입력, 예를 들면 우측으로의 이동, 에 대한 강도를 구분하여, 사용자가 어떠한 명령을 내렸을 때 그 명령에 따른 가상 현실 공간 내 캐릭터의 반응 속도, 즉 우측으로 이동하기 시작하기까지의 시간을 달리하는 데 이용할 수 있다. Also, the input unit 110 can measure the user's brain waves by classifying the amplitude of the input brain waves different from each other even if they are similar. At this time, even if the user intends to move to the "right" in the same way, the amplitude of the EEG may be different when the approaching speed of the obstacle is imminent and when it approaches slowly. Thus, the intensity of the command input from the same user, for example, movement to the right side, is divided, and when the user issues a command, the reaction speed of the character in the virtual reality space according to the command, that is, And can be used to vary the time until.

입력부(110)는 다른 실시예로, 소리를 입력 받는 마이크를 통해 음성 신호를 입력 받을 수 있다. 이때 제어부(130)는 음성 신호를 분석하여 사용자가 특정 명령 또는 행동을 입력한 것이라고 판단할 수 있다. The input unit 110 may receive a voice signal through a microphone that receives sound. At this time, the control unit 130 may analyze the voice signal and determine that the user has input a specific command or action.

또한 입력부(110)는 입력되는 입력 신호의 패턴이 비슷하더라도 진폭이 다름을 구분하여 사용자의 음성 신호를 측정할 수 있다. Also, the input unit 110 can measure a voice signal of a user by dividing the amplitude of the input signal by the amplitude of the input signal.

도 2를 참조하면, 데이터베이스(120)에는 뇌파 또는 음성 신호의 아날로그 특성(예를 들면 주파수 특성, 패턴 특성 등)에 의해 발생한 사용자의 명령에 따른 가상 현실 내 캐릭터의 움직임 데이터가 매핑되어 저장될 수 있다. Referring to FIG. 2, motion data of a character in a virtual reality according to a user command generated by analog characteristics (e.g., frequency characteristics, pattern characteristics, etc.) of brain waves or voice signals is mapped and stored in the database 120 have.

움직임 데이터란 뇌파 또는 음성 신호에 따른 캐릭터의 특정 행동이 매핑된 테이블이다. 특정 행동은 예를 들면 캐릭터의 이동 방향, 이동 속도, 회전, 자세와 관련된 움직임을 포함하는 데이터일 수 있다. 또한 추가적으로 뇌파 또는 음성 신호에 따라 수행될 모션 시뮬레이터(300)의 움직임 데이터가 저장되어 있을 수도 있다. The motion data is a table in which specific behaviors of characters according to brain waves or voice signals are mapped. The specific action may be, for example, data including movement related to the movement direction, speed, rotation, and posture of the character. In addition, movement data of the motion simulator 300 to be performed according to an EEG or a voice signal may be stored.

더하여 데이터베이스(120)에는 사용자가 가상 현실을 체험하기 위한 가상 현실 공간이 저장되어 있고, 가상 현실 공간의 각 위치마다 위치 좌표가 특정되어 저장될 수 있다. 가상 현실 공간은 가상의 3차원 공간으로서, 사용자는 출력 장치(100)를 통해 가상 현실 내 캐릭터의 1인칭 시점으로 표시되는 가상 현실 공간 배경을 가상 현실 영상 콘텐츠로서 볼 수 있다. In addition, the database 120 stores a virtual reality space for a user to experience a virtual reality, and position coordinates can be specified and stored for each position of the virtual reality space. The virtual reality space is a virtual three-dimensional space, and the user can view the virtual reality space background displayed as the first person's point of view of the character in the virtual reality through the output device 100 as the virtual reality image content.

제어부(130)는 입력된 뇌파 또는 음성 신호와 매핑된 캐릭터의 움직임 데이터를 데이터베이스(120)에서 검색하여, 검색된 움직임 데이터를 기초로 출력 장치에 디스플레이되는 가상 현실 영상 콘텐츠 및 모션 시뮬레이터를 동기화하여 제어할 수 있다. The control unit 130 searches the database 120 for the motion data of a character mapped with the input brain wave or voice signal and synchronizes and controls the virtual reality image contents and the motion simulator displayed on the output device based on the retrieved motion data .

이때 사용자가 출력 장치(200)를 통해 보는 가상 현실 영상 콘텐츠는 캐릭터의 시각에서 본 가상 현실 공간 배경을 포함하며, 표시되는 가상 현실 공간 배경은 캐릭터의 가상 현실 공간 내에서의 위치 좌표와 움직임 데이터를 기초로 결정될 수 있다. At this time, the virtual reality image content viewed by the user through the output device 200 includes the virtual reality space background viewed from the character's viewpoint, and the displayed virtual reality space background corresponds to the position coordinates and motion data of the character in the virtual reality space Can be determined on a basis.

예를 들어 사용자의 뇌파 또는 음성 신호에 따라 캐릭터가 움직여야 하는 명령이 매핑되었다면, 제어부(130)는 캐릭터가 위치하는 좌표를 변경하여 캐릭터를 움직일 수 있고, 이때 캐릭터의 위치 좌표를 기준으로 캐릭터가 가상 현실 공간을 바라보는 시야, 즉 가상 현실 영상 콘텐츠를 출력 장치(200)에 디스플레이할 수 있다. For example, if an instruction to move a character is mapped according to a brain wave or a voice signal of a user, the controller 130 can move the character by changing coordinates at which the character is located. At this time, It is possible to display a field of view looking at the real space, that is, a virtual reality image content on the output device 200.

이때 제어 장치(100)는 사용자의 입력, 예를 들면 머리 움직임을 감지하여 캐릭터의 움직임에 반영할 수 있어, 캐릭터의 시야는 같은 위치 좌표에서도 사용자의 머리의 움직임에 따라 시야의 방향을 달라지고, 상이한 가상 현실 공간 배경이 가상 현실 영상 콘텐츠로서 출력될 수 있다. At this time, the control device 100 can sense a user's input, for example, a head movement and reflect it on the movement of the character, so that the direction of the field of view changes according to the movement of the user's head, A different virtual reality space background can be output as the virtual reality image content.

이를 위하여 제어 장치(300)는 HMD(Head Mounted Device) 장치에 탑재되어 출력 장치(100)와 결합될 형태일 수도 있다. For this purpose, the controller 300 may be mounted on an HMD (Head Mounted Device) and coupled with the output device 100.

또한 캐릭터가 도달할 수 없도록 설정된 위치 좌표에서는 캐릭터가 움직이지 않는바, 이때 가상 현실 영상 콘텐츠 역시 캐릭터의 움직임에 대응되어 시야가 변하지 않을 수 있다. 예를 들면, 평지에서는 캐릭터의 위치 좌표 이동이 제한되지 않아 캐릭터의 움직임에 따라 시야가 변화할 수 있으나, 위치 좌표 이동이 제한된 벽이 있는 경우에는 캐릭터의 움직임이 제한되어 그에 따른 시야 변화도 제한될 수 있다. In addition, the character does not move at the position coordinates where the character can not be reached. At this time, the virtual reality image contents may also correspond to the movement of the character, so that the field of view may not change. For example, in the flat ground, the movement of the position coordinates of the character is not limited, so that the visual field may change according to the movement of the character. However, if there is a wall with limited movement of the position coordinates, the movement of the character is limited, .

한편 캐릭터가 움직이는 움직임, 예를 들면 이동 방향, 속도, 회전, 자세에 따라 모션 시뮬레이터(300)가 대응되어 움직이도록 미리 프로그램화 되어 있음이 바람직하다.Meanwhile, it is preferable that the motion simulator 300 is previously programmed so that the motion simulator 300 moves correspondingly with the movement of the character, for example, the moving direction, speed, rotation, and posture.

예를 들면, 제어부(130)가 입력부(110)로부터 입력 받은 뇌파 또는 음성 신호가 ‘오른쪽 이동’에 해당하는 명령인 경우, 데이터베이스(120)로부터 명령어 ‘오른쪽 이동’과 매핑된 움직임 데이터를 검색하여, 검색된 움직임 데이터에 따라 캐릭터의 위치 좌표를 오른쪽으로 변경시키고, 캐릭터의 위치 좌표를 기초로 가상 현실 영상 콘텐츠를 출력 장치(100)에 출력하며, 이와 동시에 캐릭터의 움직임에 맞추어 모션 시뮬레이터(300)가 오른쪽으로 움직임을 갖도록 할 수 있다. For example, when the controller 130 receives a command corresponding to 'right shift' from the brain wave or voice signal input from the input unit 110, the controller 120 searches for motion data mapped to the command 'right shift' from the database 120 The motion simulator 300 changes the position coordinates of the character to the right according to the searched motion data and outputs the virtual reality image contents to the output device 100 based on the position coordinates of the character, You can have it move to the right.

이때 제어부(130)는 입력되는 뇌파 또는 음성 신호의 진폭의 세기에 따라, 움직임 데이터가 가상 현실 영상 콘텐츠 및 모션 시뮬레이터에 반영되는 속도가 달라질 수 있다. 예를 들어 제어부(130)가 입력부(110)로부터 입력 받은 뇌파 또는 음성 신호가 ‘오른쪽 이동’에 해당하는 명령인 경우, 입력된 진폭이 강할수록 입력 받은 시간으로부터 제어부(130)가는 가상 현실 영상 내의 캐릭터의 위치 좌표를 오른쪽으로 이동시키기 시작하는 시간이 질 수 있다. 또한, 뇌파 또는 음성 신호의 진폭의 세기가 클수록 캐릭터의 움직임에 맞추어 모션 시뮬레이터(300)가 움직이기 시작하는 반응속도 역시 빨라질 할 수 있다.At this time, the controller 130 may vary the speed at which the motion data is reflected to the virtual reality video contents and the motion simulator, depending on the magnitude of the amplitude of the EEG or voice signal being input. For example, when the controller 130 receives a command corresponding to 'rightward movement' from the EEG or voice signal received from the input unit 110, the control unit 130 determines from the input time that the inputted amplitude is stronger, The time to start moving the position coordinates of the character to the right can be obtained. In addition, as the magnitude of the amplitude of the brain wave or the voice signal increases, the reaction speed at which the motion simulator 300 starts to move in accordance with the motion of the character can also be accelerated.

또한, 제어부(130)는 입력 받는 뇌파 또는 음성 신호의 진폭 세기에 따라 캐릭터의 움직임의 폭이 달라지거나, 캐릭터의 움직임 속도가 달라질 수 있다. 예를 들면 뇌파 또는 음성 신호의 진폭 세기가 클수록 캐릭터 움직임의 크기나 움직임의 반경을 더욱 늘릴 수 있고, 움직임의 신속성이 커질 수 있다. In addition, the control unit 130 may vary the motion of the character according to amplitude of the received EEG or voice signal, or may change the movement speed of the character. For example, the greater the amplitude of the brain waves or the voice signal, the larger the size of the character's movement or the radius of the movement, and the greater the speed of movement.

또한, 입력 신호가 음성 신호일 경우에는 사용자가 말하는 음성의 빠르기에 따라 움직임 데이터에 따른 제어되는 캐릭터의 움직임의 속도나, 캐릭터의 움직이기 시작하는 반응속도가 달라질 수 있다. 예를 들면, 음성 내 말하기의 속도가 빠를수록, 음성 신호 입력 후 캐릭터가 움직이기까지의 시간과 관련된 가상 현실 영상 또는 모션 시뮬레티이터의 반응속도나, 가상 현실 영상 내 캐릭터의 움직임의 속도가 빨라질 수 있다.In addition, when the input signal is a voice signal, the speed of movement of the controlled character according to the motion data or the reaction speed at which the character starts to move may be changed according to the speed of the voice the user speaks. For example, the faster the speech speed in speech, the faster the response speed of the virtual reality image or the motion simulator related to the time until the character moves after inputting the voice signal, or the speed of the character's movement in the virtual reality image .

또한 제어부(130)는 사용자의 뇌파 또는 음성 신호와 매핑된 움직임 데이터에 대한 내용이 텍스트로 변환되어, 가상 현실 영상 콘텐츠 내에 텍스트를 출력할 수 있다. 따라서 입력부(110)로부터 입력 받은 뇌파 또는 음성 신호가 ‘오른쪽 이동’에 해당하는 명령인 경우, 데이터베이스(120)로부터 명령어 ‘오른쪽 이동’과 매핑된 움직임 데이터를 검색 후 출력 장치(100)에 텍스트로 ‘오른쪽 이동’과 같이 디스플레이할 수 있다. In addition, the control unit 130 may convert the contents of the motion data mapped with the user's brain waves or voice signals into text, and output text in the virtual reality image contents. Accordingly, when the brain wave or the voice signal input from the input unit 110 is a command corresponding to the 'rightward movement', the motion data mapped with the command 'right shift' is retrieved from the database 120, 'Right Move'.

다른 실시예로 제어부(130)는 데이터베이스(120)에 뇌파 또는 음성신호와 가상 현실 영상의 움직임 데이터 및 모션 시뮬레이터(300)의 움직임 데이터가 각각 매핑되어 있는 경우에, 검색된 움직임 데이터에 따라 출력 장치(200) 및 모션 시뮬레이터(300)를 각각 제어할 수 있다. In another embodiment, when the EEG or voice signal, the motion data of the virtual reality image, and the motion data of the motion simulator 300 are respectively mapped to the database 120, the controller 130 controls the output device 200 and the motion simulator 300, respectively.

한편 가상 현실 영상의 시점 이동과 모션 시뮬레이터(300)의 움직임이 수행되는 시간 차이나, 서로 다른 동작을 행하는 오류를 줄이기 위해 데이터베이스(120)는 가상 현실 영상의 움직임 데이터를 저장하고, 제어부(130)는 모션 시뮬레이터(300)가 가상 현실 영상에 대응되는 움직임을 갖도록 미리 프로그램화하여 제어하는 구성이 바람직할 것이다. Meanwhile, the database 120 stores motion data of a virtual reality image in order to reduce a time difference between the viewpoint movement of the virtual reality image and the motion of the motion simulator 300, It is preferable that the motion simulator 300 preprograms and controls the motion simulator 300 so as to have a motion corresponding to the virtual reality image.

한편 상술한 실시예가 포함하는 제어부(130)는 이 들의 기능을 수행하도록 프로그램된 명령어를 포함하는 메모리, 및 상기 명령을 수행하는 마이크로프로세서를 포함하는 연산 장치에 의해 구현될 수 있다. Meanwhile, the control unit 130 included in the above-described embodiment may be implemented by an arithmetic unit including a memory including instructions programmed to perform these functions, and a microprocessor for executing the instructions.

도 3은 본 발명의 일 실시예에 따른 가상 현실 영상 및 모션 시뮬레이터 제어 방법의 순서를 나타낸 도면이다.3 is a flowchart illustrating a method of controlling a virtual reality image and a motion simulator according to an exemplary embodiment of the present invention.

가상 현실 영상 및 모션 시뮬레이터 제어 방법은, 사용자의 뇌파 또는 음성 신호에 따라 출력되는 가상 현실 영상 및 모션 시뮬레이터의 움직임을 제어하는 방법에 있어서, 사용자의 뇌파 또는 음성 신호를 입력받는 단계(S310); 입력된 뇌파 또는 음성 신호를 기초로 데이터베이스로부터 캐릭터의 움직임 데이터를 검색하는 단계(S320); 움직임 데이터를 기초로 출력 장치에 디스플레이되는 가상 현실 영상 콘텐츠와 모션 시뮬레이터를 동기화하여 제어하는 단계(S330)를 포함할 수 있다. 이때 각 단계는 제어 장치(100)에 의하여 구현된다. The virtual reality video and motion simulator control method includes: a step (S310) of receiving a user's brain wave or voice signal in a virtual reality video and motion simulator output control according to a user's brain wave or voice signal; (S320) of retrieving motion data of the character from the database based on the inputted EEG or speech signal; And synchronizing and controlling the motion simulator with the virtual reality image content displayed on the output device based on the motion data (S330). At this time, each step is implemented by the control device 100.

이때 움직임 데이터는 캐릭터의 이동 방향, 속도, 회전, 자세와 관련된 움직임을 포함할 수 있다. At this time, the motion data may include movements related to the moving direction, speed, rotation, and posture of the character.

또한 디스플레이되는 가상 현실 영상 콘텐츠는 캐릭터의 가상 현실 공간에서의 위치 좌표와, 검색된 움직임 데이터를 기초로 결정된다. Also, the displayed virtual reality image contents are determined based on the position coordinates of the character in the virtual reality space and the motion data searched.

더불어 입력된 뇌파 또는 음성 신호는 매핑된 움직임 데이터의 내용이 텍스트로 변환되어, 가상 현실 영상 콘텐츠 내에 디스플레이될 수 있다. In addition, the inputted EEG or speech signal can be converted into text and the contents of the mapped motion data can be displayed in the virtual reality image contents.

아울러 입력되는 뇌파 또는 음성 신호의 진폭의 세기에 따라, 상기 움직임 데이터가 가상 현실 영상 콘텐츠 및 모션 시뮬레이터에 반영되는 속도가 달라질 수 있다. In addition, the speed at which the motion data is reflected in the virtual reality image contents and the motion simulator may vary depending on the magnitude of the amplitude of the EEG or voice signal input.

상술한 본 발명의 실시예들은 다양한 수단을 통해 구현될 수 있다. 예를 들어, 본 발명의 실시예들은 하드웨어, 펌웨어(firmware), 소프트웨어 또는 그것들의 결합 등에 의해 구현될 수 있다.The above-described embodiments of the present invention can be implemented by various means. For example, embodiments of the present invention may be implemented by hardware, firmware, software, or a combination thereof.

하드웨어에 의한 구현의 경우, 본 발명의 실시예들에 따른 방법은 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 프로세서, 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.In the case of hardware implementation, the method according to embodiments of the present invention may be implemented in one or more Application Specific Integrated Circuits (ASICs), Digital Signal Processors (DSPs), Digital Signal Processing Devices (DSPDs), Programmable Logic Devices (PLDs) , FPGAs (Field Programmable Gate Arrays), processors, controllers, microcontrollers, microprocessors, and the like.

펌웨어나 소프트웨어에 의한 구현의 경우, 본 발명의 실시예들에 따른 방법은 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차 또는 함수 등의 형태로 구현될 수 있다. 소프트웨어 코드는 메모리 유닛에 저장되어 프로세서에 의해 구동될 수 있다. 상기 메모리 유닛은 상기 프로세서 내부 또는 외부에 위치하여, 이미 공지된 다양한 수단에 의해 상기 프로세서와 데이터를 주고 받을 수 있다.In the case of an implementation by firmware or software, the method according to embodiments of the present invention may be implemented in the form of a module, a procedure or a function for performing the functions or operations described above. The software code can be stored in a memory unit and driven by the processor. The memory unit may be located inside or outside the processor, and may exchange data with the processor by various well-known means.

이와 같이, 본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.Thus, those skilled in the art will appreciate that the present invention may be embodied in other specific forms without departing from the spirit or essential characteristics thereof. It is therefore to be understood that the embodiments described above are to be considered in all respects only as illustrative and not restrictive. The scope of the present invention is defined by the appended claims rather than the detailed description and all changes or modifications derived from the meaning and scope of the claims and their equivalents are to be construed as being included within the scope of the present invention do.

100: 제어 장치
110: 입력부
120: 데이터베이스
130: 제어부
200: 출력 장치
300: 모션 시뮬레이터
100: Control device
110: input unit
120: Database
130:
200: Output device
300: Motion simulator

Claims (20)

가상 현실 영상 콘텐츠를 디스플레이하는 출력 장치와, 상기 가상 현실 영상과 동기화되어 동작하며 사용자가 탑승할 수 있는 모션 시뮬레이터를 제어하는 제어 장치에 있어서,
사용자의 뇌파 또는 음성 신호를 입력받는 입력부;
상기 뇌파 중 상기 사용자가 소정의 명령 또는 행동을 생각하였을 경우 발생하는 뇌파, 또는 상기 음성 신호 중 소정의 명령 또는 행동을 지칭하는 음성 신호와 상기 가상 현실 영상 내 캐릭터의 움직임과 대응되는 움직임 데이터가 매핑되어 저장된 데이터베이스; 및
상기 입력된 뇌파 또는 음성 신호를 기초로 상기 데이터베이스로부터 상기 캐릭터의 움직임 데이터를 검색하여, 상기 검색된 움직임 데이터를 기초로 상기 출력 장치에 디스플레이되는 상기 가상 현실 영상 콘텐츠의 움직임과 상기 모션 시뮬레이터의 움직임을 동기화하여 제어하는 제어부;
를 포함하는 가상 현실 영상 및 모션 시뮬레이터 제어 장치.
An apparatus for controlling a motion simulator operating in synchronization with a virtual reality image, the apparatus comprising: an output device for displaying virtual reality image contents;
An input unit for receiving a user's brain wave or voice signal;
An EEG signal generated when the user considers a predetermined command or action of the EEG or a voice signal indicating a predetermined command or action of the voice signal and a motion data corresponding to a motion of the character in the virtual reality video are mapped A stored database; And
And a motion simulator for synchronizing the movement of the motion simulator with the motion of the virtual reality image content displayed on the output device based on the searched motion data by searching for motion data of the character from the database on the basis of the input brain wave or voice signal, ;
And a virtual reality image and a motion simulator.
제1항에 있어서,
상기 움직임 데이터는,
상기 캐릭터의 이동 방향, 속도, 회전, 자세와 관련된 움직임을 포함하는 가상 현실 영상 및 모션 시뮬레이터 제어 장치.
The method according to claim 1,
The motion data includes:
And a motion associated with the movement direction, speed, rotation, and posture of the character.
제1항에 있어서,
상기 디스플레이되는 가상 현실 영상 콘텐츠는,
상기 캐릭터의 시각에서 본 가상 현실 공간 배경을 포함하며, 상기 표시되는 가상 현실 공간 배경은 상기 캐릭터의 가상 현실 공간 내에서의 위치 좌표와, 상기 검색된 움직임 테이터를 기초로 결정되는 가상 현실 영상 및 모션 시뮬레이터 제어 장치.
The method according to claim 1,
The virtual reality image contents, which are displayed,
Wherein the displayed virtual reality space background includes position coordinates of the character in the virtual reality space and virtual reality images and motion simulators determined based on the searched data of motions, controller.
제1항에 있어서,
상기 입력된 뇌파 또는 음성 신호는,
매핑된 움직임 데이터의 내용이 텍스트로 변환되어, 상기 가상 현실 영상 콘텐츠 내에 디스플레이되는 가상 현실 영상 및 모션 시뮬레이터 제어 장치.
The method according to claim 1,
The input EEG or speech signal is transmitted to a user,
Wherein the content of the mapped motion data is converted into text and displayed in the virtual reality image content.
제1항에 있어서,
상기 제어 장치는,
HMD(Head Mounted Device) 장치에 탑재되는 가상 현실 영상 및 모션 시뮬레이터 제어 장치.
The method according to claim 1,
The control device includes:
An apparatus for controlling a virtual reality image and a motion simulator mounted on an HMD (Head Mounted Device) apparatus.
제1항에 있어서,
상기 입력되는 뇌파 또는 음성 신호의 진폭의 세기에 따라, 상기 움직임 데이터가 상기 가상 현실 영상 콘텐츠 및 상기 모션 시뮬레이터에 반영되는 속도, 상기 캐릭터의 움직임의 폭, 상기 캐릭터의 움직임의 속도 중 적어도 어느 하나가 달라지는 가상 현실 영상 및 모션 시뮬레이터 제어 장치.
The method according to claim 1,
At least one of a speed at which the motion data is reflected in the virtual reality image contents and the motion simulator, a width of the motion of the character, and a speed of movement of the character are determined according to the magnitude of the amplitude of the input EEG or voice signal A virtual reality video and motion simulator control device that changes.
제1항에 있어서,
상기 입력되는 음성 신호의 빠르기에 따라, 상기 움직임 데이터가 상기 가상 현실 영상 콘텐츠 및 상기 모션 시뮬레이터에 반영되는 속도, 상기 캐릭터의 움직임의 폭, 상기 캐릭터의 움직임의 속도 중 적어도 어느 하나가 가 달라지는 가상 현실 영상 및 모션 시뮬레이터 제어 장치.

The method according to claim 1,
Wherein the virtual reality image content and the motion simulator are arranged in a virtual reality mode in which at least one of a speed at which the motion data is reflected in the virtual reality image content and the motion simulator, a width of the motion of the character, Image and motion simulator control device.

가상 현실 영상을 출력하는 출력 장치;
상기 가상 현실 영상과 동기화되어 동작하며 사람이 탑승할 수 있는 모션 시뮬레이터; 및
상기 출력 장치 및 상기 모션 시뮬레이터를 제어하는 제어 장치;
를 포함하고,
상기 제어 장치는,
사용자의 뇌파 또는 음성 신호를 입력받는 입력부;
상기 뇌파 중 상기 사용자가 소정의 명령 또는 행동을 생각하였을 경우 발생하는 뇌파, 또는 상기 음성 신호 중 소정의 명령 또는 행동을 지칭하는 음성 신호와 상기 가상 현실 영상 내 캐릭터의 움직임과 대응되는 움직임 데이터가 매핑되어 저장된 데이터베이스; 및
상기 입력된 뇌파 또는 음성 신호를 기초로 상기 데이터베이스로부터 상기 캐릭터의 움직임 데이터를 검색하여, 상기 검색된 움직임 데이터를 기초로 상기 출력 장치에 디스플레이되는 상기 가상 현실 영상 콘텐츠의 움직임과 상기 모션 시뮬레이터의 움직임을 동기화하여 제어하는 제어부;
를 포함하는 가상 현실 영상 시스템.
An output device for outputting a virtual reality image;
A motion simulator operating in synchronization with the virtual reality image and capable of being carried by a person; And
A control device for controlling the output device and the motion simulator;
Lt; / RTI >
The control device includes:
An input unit for receiving a user's brain wave or voice signal;
An EEG signal generated when the user considers a predetermined command or action of the EEG or a voice signal indicating a predetermined command or action of the voice signal and a motion data corresponding to a motion of the character in the virtual reality video are mapped A stored database; And
And a motion simulator for synchronizing the movement of the motion simulator with the motion of the virtual reality image content displayed on the output device based on the searched motion data by searching for motion data of the character from the database on the basis of the input brain wave or voice signal, ;
And a virtual reality system.
제8항에 있어서,
상기 움직임 데이터는,
상기 캐릭터의 이동 방향, 속도, 회전, 자세와 관련된 움직임을 포함하는 가상 현실 영상 시스템.
9. The method of claim 8,
The motion data includes:
And a motion associated with the movement direction, speed, rotation, and posture of the character.
제8항에 있어서,
상기 디스플레이되는 가상 현실 영상 콘텐츠는,
상기 캐릭터의 시각에서 본 가상 현실 공간 배경을 포함하며, 상기 표시되는 가상 현실 공간 배경은 상기 캐릭터의 가상 현실 공간 내에서의 위치 좌표와, 상기 검색된 움직임 테이터를 기초로 결정되는 가상 현실 영상 시스템.
9. The method of claim 8,
The virtual reality image contents, which are displayed,
Wherein the virtual reality space background includes a virtual reality space background viewed from the time of the character and the displayed virtual reality space background is determined based on position coordinates of the character in the virtual reality space and the searched data.
제8항에 있어서,
상기 입력된 뇌파 또는 음성 신호는,
매핑된 움직임 데이터의 내용이 텍스트로 변환되어, 상기 가상 현실 영상 콘텐츠 내에 디스플레이되는 가상 현실 영상 시스템.
9. The method of claim 8,
The input EEG or speech signal is transmitted to a user,
Wherein the content of the mapped motion data is converted into text and displayed within the virtual reality video content.
제8항에 있어서,
상기 제어 장치는 HMD(Head Mounted Device) 장치에 탑재되는 가상 현실 영상 시스템.
9. The method of claim 8,
Wherein the control device is mounted on an HMD (Head Mounted Device) device.
제8항에 있어서,
상기 입력되는 뇌파 또는 음성 신호의 진폭의 세기에 따라, 상기 움직임 데이터가 상기 가상 현실 영상 콘텐츠 및 상기 모션 시뮬레이터에 반영되는 속도, 상기 캐릭터의 움직임의 폭, 상기 캐릭터의 움직임의 속도 중 적어도 어느 하나가 달라지는 가상 현실 영상 시스템.
9. The method of claim 8,
At least one of a speed at which the motion data is reflected in the virtual reality image contents and the motion simulator, a width of the motion of the character, and a speed of movement of the character are determined according to the magnitude of the amplitude of the input EEG or voice signal A Changing Virtual Reality Video System.
제8항에 있어서,
상기 입력되는 음성 신호의 빠르기에 따라, 상기 움직임 데이터가 상기 가상 현실 영상 콘텐츠 및 상기 모션 시뮬레이터에 반영되는 속도, 상기 캐릭터의 움직임의 폭, 상기 캐릭터의 움직임의 속도 중 적어도 어느 하나가 가 달라지는 가상 현실 영상 시스템.
9. The method of claim 8,
Wherein the virtual reality image content and the motion simulator are arranged in a virtual reality mode in which at least one of a speed at which the motion data is reflected in the virtual reality image content and the motion simulator, a width of the motion of the character, Image system.
사용자의 뇌파 또는 음성 신호에 따라 출력되는 가상 현실 영상 및 모션 시뮬레이터의 움직임을 제어하는 방법에 있어서,
사용자의 뇌파 또는 음성 신호를 입력받는 단계;
상기 입력된 뇌파 중 상기 사용자가 소정의 명령 또는 행동을 생각하였을 경우 발생하는 뇌파, 또는 상기 입력된 음성 신호 중 소정의 명령 또는 행동을 지칭하는 음성 신호를 기초로 데이터베이스에 저장된 상기 가상 현실 영상 내 캐릭터의 움직임과 대응되는 움직임 데이터를 검색하는 단계;
상기 검색된 움직임 데이터를 기초로 상기 가상 현실 영상을 출력하는 출력 장치에 디스플레이되는 상기 가상 현실 영상 콘텐츠의 움직임과 상기 모션 시뮬레이터의 움직임을 동기화하여 제어하는 단계;
를 포함하는 가상 현실 영상 및 모션 시뮬레이터 제어 방법.
A method for controlling movement of a virtual reality image and a motion simulator output according to a user's brain wave or voice signal,
Receiving a user's brain wave or voice signal;
A brain wave generated when the user considers a predetermined command or action among the input brain waves, or a voice in the virtual reality image stored in the database on the basis of a speech signal designating a predetermined command or action of the input voice signal, Searching for motion data corresponding to the motion of the motion data;
Synchronizing the movement of the motion simulator with the motion of the virtual reality image content displayed on an output device that outputs the virtual reality image based on the searched motion data;
And a virtual reality image and a motion simulator control method.
제15항에 있어서,
상기 움직임 데이터는,
상기 캐릭터의 이동 방향, 속도, 회전, 자세와 관련된 움직임을 포함하는 가상 현실 영상 및 모션 시뮬레이터 제어 방법.
16. The method of claim 15,
The motion data includes:
And a motion associated with the movement direction, speed, rotation, and posture of the character.
제15항에 있어서,
상기 디스플레이되는 가상 현실 영상 콘텐츠는,
상기 캐릭터의 시각에서 본 가상 현실 공간 배경을 포함하며, 상기 표시되는 가상 현실 공간 배경은 상기 캐릭터의 가상 현실 공간 내에서의 위치 좌표와, 상기 검색된 움직임 테이터를 기초로 결정되는 가상 현실 영상 및 모션 시뮬레이터 제어 방법.
16. The method of claim 15,
The virtual reality image contents, which are displayed,
Wherein the displayed virtual reality space background includes position coordinates of the character in the virtual reality space and virtual reality images and motion simulators determined based on the searched data of motions, Control method.
제15항에 있어서,
상기 입력된 뇌파 또는 음성 신호는 매핑된 움직임 데이터의 내용이 텍스트로 변환되어, 상기 가상 현실 영상 콘텐츠 내에 디스플레이되는 가상 현실 영상 및 모션 시뮬레이터 제어 방법.
16. The method of claim 15,
And the contents of the mapped motion data are converted into texts and displayed in the virtual reality image contents.
제15항에 있어서,
상기 입력되는 뇌파 또는 음성 신호의 진폭의 세기에 따라, 상기 움직임 데이터가 상기 가상 현실 영상 콘텐츠 및 상기 모션 시뮬레이터에 반영되는 속도, 상기 캐릭터의 움직임의 폭, 상기 캐릭터의 움직임의 속도 중 적어도 어느 하나가 달라지는 가상 현실 영상 및 모션 시뮬레이터 제어 방법.
16. The method of claim 15,
At least one of a speed at which the motion data is reflected in the virtual reality image contents and the motion simulator, a width of the motion of the character, and a speed of movement of the character are determined according to the magnitude of the amplitude of the input EEG or voice signal A Method for Controlling Different Virtual Reality Video and Motion Simulator.
제15항에 있어서,
상기 입력되는 음성 신호의 빠르기에 따라, 상기 움직임 데이터가 상기 가상 현실 영상 콘텐츠 및 상기 모션 시뮬레이터에 반영되는 속도, 상기 캐릭터의 움직임의 폭, 상기 캐릭터의 움직임의 속도 중 적어도 어느 하나가 가 달라지는 가상 현실 영상 및 모션 시뮬레이터 제어 방법.
16. The method of claim 15,
Wherein the virtual reality image content and the motion simulator are arranged in a virtual reality mode in which at least one of a speed at which the motion data is reflected in the virtual reality image content and the motion simulator, a width of the motion of the character, Control method of video and motion simulator.
KR1020160041028A 2016-04-04 2016-04-04 Apparatus, system and method for controlling virtual reality image and simulator KR101799980B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160041028A KR101799980B1 (en) 2016-04-04 2016-04-04 Apparatus, system and method for controlling virtual reality image and simulator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160041028A KR101799980B1 (en) 2016-04-04 2016-04-04 Apparatus, system and method for controlling virtual reality image and simulator

Publications (2)

Publication Number Publication Date
KR20170114371A KR20170114371A (en) 2017-10-16
KR101799980B1 true KR101799980B1 (en) 2017-11-21

Family

ID=60295733

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160041028A KR101799980B1 (en) 2016-04-04 2016-04-04 Apparatus, system and method for controlling virtual reality image and simulator

Country Status (1)

Country Link
KR (1) KR101799980B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190099681A (en) 2018-02-19 2019-08-28 (주)플레이솔루션 Real time filtering method for motion simulator interworking of contents based on game engine
KR20220062152A (en) 2020-11-06 2022-05-16 서정호 Computational acceleration method
KR20220062151A (en) 2020-11-06 2022-05-16 서정호 Collision computation control method

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102155103B1 (en) 2019-01-08 2020-09-11 주식회사 원이멀스 Korean input system and method in virtual reality environment
KR102181226B1 (en) 2019-01-08 2020-11-20 주식회사 원이멀스 Virtual reality locomotion integrated control system and method using grab motion
WO2023075083A1 (en) * 2021-10-25 2023-05-04 울산과학기술원 Virtual reality-based hitl experiment apparatus and method using real-time agent status linkage

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190099681A (en) 2018-02-19 2019-08-28 (주)플레이솔루션 Real time filtering method for motion simulator interworking of contents based on game engine
KR20220062152A (en) 2020-11-06 2022-05-16 서정호 Computational acceleration method
KR20220062151A (en) 2020-11-06 2022-05-16 서정호 Collision computation control method

Also Published As

Publication number Publication date
KR20170114371A (en) 2017-10-16

Similar Documents

Publication Publication Date Title
KR101799980B1 (en) Apparatus, system and method for controlling virtual reality image and simulator
CN106023289B (en) Image generation system and image generation method
EP3050046B1 (en) Method and device for controlling a haptic device
Motejlek et al. Taxonomy of virtual and augmented reality applications in education
KR20130098770A (en) Expanded 3d space based virtual sports simulation system
Zhang et al. The application of virtual reality technology in physical education teaching and training
Vourvopoulos et al. Brain-controlled serious games for cultural heritage
JP2011258130A (en) Program, information storage medium, and image generation system
Islam et al. Vibrotactile feedback in virtual motor learning: A systematic review
Deng et al. Multimodality with eye tracking and haptics: a new horizon for serious games?
Buń et al. Application of professional and low-cost head mounted devices in immersive educational application
Jerald et al. VR interactions
Edmond Jr et al. Virtual environments: Surgical simulation in otolaryngology
Tseng et al. Fingermapper: Mapping finger motions onto virtual arms to enable safe virtual reality interaction in confined spaces
Sziebig et al. Vibro-tactile feedback for VR systems
Lange et al. Vibrotactile assistance for user guidance towards selection targets in VR and the cognitive resources involved
Basori et al. Telerobotic 3D articulated arm-assisted surgery tools with augmented reality for surgery training
Nilsson Walking Without Moving: An exploration of factors influencing the perceived naturalness of Walking-in-Place techniques for locomotion in virtual environments
Leeb et al. Combining BCI and virtual reality: scouting virtual worlds
Ghosh et al. Education Applications of 3D Technology
Jadhav et al. Mixed reality in healthcare education
KR20190059352A (en) System for generating virtual and augmented reality images for experience using motion recognition camera and diorama and game method using the system
Elvestad Evidence of learning in virtual reality
Landry et al. A broad spectrum of sonic interactions at immersive interactive sonification platform (iISoP)
Mahalil et al. Integration of a heart rate monitoring system in a virtual reality relaxation therapy for supporting an immersion level measuring technique

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right