KR102477531B1 - Virtual reality control system with voice recognition facility - Google Patents
Virtual reality control system with voice recognition facility Download PDFInfo
- Publication number
- KR102477531B1 KR102477531B1 KR1020210171159A KR20210171159A KR102477531B1 KR 102477531 B1 KR102477531 B1 KR 102477531B1 KR 1020210171159 A KR1020210171159 A KR 1020210171159A KR 20210171159 A KR20210171159 A KR 20210171159A KR 102477531 B1 KR102477531 B1 KR 102477531B1
- Authority
- KR
- South Korea
- Prior art keywords
- user
- control device
- virtual environment
- motion
- wearable display
- Prior art date
Links
- 230000033001 locomotion Effects 0.000 claims abstract description 213
- 230000009471 action Effects 0.000 claims abstract description 5
- 230000004913 activation Effects 0.000 claims description 10
- 230000005236 sound signal Effects 0.000 claims description 4
- 230000000007 visual effect Effects 0.000 claims description 4
- 238000004891 communication Methods 0.000 description 67
- 230000006870 function Effects 0.000 description 55
- 108091006146 Channels Proteins 0.000 description 51
- 238000000034 method Methods 0.000 description 28
- 238000010586 diagram Methods 0.000 description 18
- 239000003550 marker Substances 0.000 description 16
- 238000012549 training Methods 0.000 description 14
- 230000003213 activating effect Effects 0.000 description 10
- 230000000694 effects Effects 0.000 description 8
- 230000008569 process Effects 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 230000036544 posture Effects 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002265 prevention Effects 0.000 description 2
- 230000001755 vocal effect Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- QVFWZNCVPCJQOP-UHFFFAOYSA-N chloralodol Chemical compound CC(O)(C)CC(C)OC(O)C(Cl)(Cl)Cl QVFWZNCVPCJQOP-UHFFFAOYSA-N 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000003412 degenerative effect Effects 0.000 description 1
- 238000007429 general method Methods 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
Abstract
Description
본 명세서는 음성인식 기능이 구비된 가상 환경 제어 시스템에 관한 것으로, 보다 상세하게는 가상 환경 내에서 플레이어가 음성인식 기능을 활용하여 특정 기능을 구현하거나 플레이어가 음성 인식 기능을 활용할 수 있도록 특정 조건 만족 시 가상 환경 내에서 음성인식 채널을 제공하는 가상 환경 제어 시스템에 관한 것이다.The present specification relates to a virtual environment control system equipped with a voice recognition function, and more particularly, in a virtual environment, a player implements a specific function by utilizing a voice recognition function or satisfies a specific condition so that a player can utilize a voice recognition function. A virtual environment control system providing a voice recognition channel within a city virtual environment.
최근 가상 환경에서의 가상 환경 체험이 보편화 되고 있으며, 다양한 목적에 기반한 가상 환경 체험에 대한 가상 환경 프로그램이 제작 및 개발되고 있는 실정이다. 이 중 직업 훈련을 위한 가상 환경 체험은 새로 직업을 얻게 된 사람들부터 경력이 많은 사람들까지 다양한 경력자들에게 제공될 수 있으며 직업 숙련도를 높이고 돌발 상황에 대비하는 역량을 키우는 등 그 역할이 점차 중요해지고 있다.Recently, virtual environment experience in a virtual environment has become common, and virtual environment programs for virtual environment experiences based on various purposes are being produced and developed. Among them, virtual environment experience for vocational training can be provided to people with various careers, from those who have newly acquired jobs to those with a lot of experience. .
한편, 가상 환경에서 특정 기능을 수행하는 일반적인 방법으로 가상 환경 체험을 위한 HMD(head mounted display) 상에 사용자 인터페이스를 제공하고, 사용자가 특정 기능을 선택함으로써 가상 환경 내에서 선택된 기능이 수행되는 것이 일반적이다. 다만, 이러한 경우 사용자의 시야범위는 한정되어 있어 많은 정보나 기능을 담기에는 다소 부족하다는 문제가 있다.On the other hand, as a general method of performing a specific function in the virtual environment, it is common to provide a user interface on a head mounted display (HMD) for experiencing the virtual environment, and to perform the selected function in the virtual environment when the user selects a specific function. to be. However, in this case, the user's field of view is limited, so there is a problem that it is somewhat insufficient to contain a lot of information or functions.
이러한 문제를 해결하기 위한 방안으로 가상 환경 내에서 음성인식 기능을 제공하는 방법이 있으며, 이에 따라 가상 환경 내에서 음성인식 기능을 구현하는 방법, 구현된 음성인식 기능을 이용하여 특정 기능을 구현하는 방법 등에 대한 구체적인 기술이 요구된다.As a way to solve this problem, there is a method of providing a voice recognition function in a virtual environment, and accordingly, a method of implementing a voice recognition function in a virtual environment, and a method of implementing a specific function using the implemented voice recognition function. A specific description is required.
본 명세서의 일 과제는 가상 환경 내에서 음성인식 기능을 활성화하는 가상 환경 제어 시스템을 제공하는 것이다.One object of the present specification is to provide a virtual environment control system for activating a voice recognition function in a virtual environment.
본 명세서의 일 과제는 가상 환경 내에서 음성인식 기능을 이용하여 다른 기능을 수행할 수 있도록 하는 가상 환경 제어 시스템을 제공하는 것이다.One object of the present specification is to provide a virtual environment control system capable of performing other functions using a voice recognition function in a virtual environment.
본 명세서의 일 과제는 가상 환경 내에서 플레이어(player)에 따라 서로 다른 커뮤니케이션 채널(communication channel)을 형성하는 가상 환경 제어 시스템을 제공하는 것이다.One object of the present specification is to provide a virtual environment control system that forms different communication channels according to players in a virtual environment.
본 명세서의 일 과제는 가상 환경 내에서 플레이어의 가상 훈련 과정을 평가할 수 있는 가상 환경 제어 시스템을 제공하는 것이다.One object of the present specification is to provide a virtual environment control system capable of evaluating a player's virtual training process in a virtual environment.
본 명세서에서 해결하고자 하는 과제가 상술한 과제로 제한되는 것은 아니며, 언급되지 아니한 과제들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The problem to be solved in this specification is not limited to the above-mentioned problem, and problems not mentioned will be clearly understood by those skilled in the art from this specification and the accompanying drawings. .
본 명세서의 일 실시예에 따르면, 가상 환경 제어 시스템에 있어서, 플레이 공간에서 사용자의 움직임을 감지하여 상기 사용자에 대한 위치 정보를 획득하는 디텍팅 장치; 사용자에게 착용되어 가상 환경에 대한 영상을 출력하는 착용형 디스플레이 장치; 상기 사용자에게 제공되어 상기 사용자의 동작에 관한 모션 정보를 획득하는 입력 장치; 및 상기 디텍팅 장치로부터 상기 위치 정보를 획득하고, 상기 입력 장치로부터 상기 모션 정보를 획득하며, 상기 위치 정보 및 상기 모션 정보를 이용하여 상기 착용형 디스플레이 장치에 출력되는 상기 영상을 제어하는 제어 장치;를 포함하고, 상기 제어 장치는, 상기 모션 정보로부터 상기 사용자가 상기 동작을 수행하는 데에 소요된 시간에 관한 수행 시간 데이터를 획득하고, 상기 모션 정보가 미리 설정된 제스처를 지시하는 경우, 채널 시간 동안 상기 사용자로부터 음성 데이터를 획득하되, 상기 채널 시간은 상기 수행 시간 데이터에 기초하여 설정되는 가상 환경 제어 시스템이 제공될 수 있다.According to one embodiment of the present specification, a virtual environment control system includes: a detecting device that detects a user's movement in a play space and obtains location information about the user; a wearable display device that is worn by a user and outputs an image of a virtual environment; an input device that is provided to the user and obtains motion information related to an action of the user; and a control device that obtains the location information from the detecting device, obtains the motion information from the input device, and controls the image output to the wearable display device using the location information and the motion information. wherein the control device obtains execution time data about a time required for the user to perform the operation from the motion information, and when the motion information indicates a preset gesture, during a channel time A virtual environment control system may be provided in which voice data is obtained from the user, and the channel time is set based on the execution time data.
본 명세서의 다른 실시예에 따르면, 가상 환경 제어 시스템에 있어서, 플레이 공간에서 제1 사용자의 움직임, 제2 사용자의 움직임, 및 제3 사용자의 움직임을 감지하여 상기 제1 사용자에 대한 제1 위치 정보, 상기 제2 사용자에 대한 제2 위치 정보, 및 상기 제3 사용자에 대한 제3 위치 정보를 획득하는 디텍팅 장치; 상기 제1 사용자에게 착용되어 가상 환경에 대한 제1 영상을 출력하는 제1 착용형 디스플레이 장치; 상기 제2 사용자에게 착용되어 가상 환경에 대한 제2 영상을 출력하는 제2 착용형 디스플레이 장치; 상기 제3 사용자에게 착용되어 가상 환경에 대한 제3 영상을 출력하는 제3 착용형 디스플레이 장치; 상기 제1 사용자에게 제공되어 상기 제1 사용자의 동작에 관한 제1 모션 정보를 획득하는 제1 입력 장치; 상기 디텍팅 장치로부터 상기 제1 내지 제3 위치 정보를 획득하고, 상기 제1 내지 제3 위치 정보를 이용하여 상기 제1 착용형 디스플레이 장치에 출력되는 상기 제1 영상을 제어하는 제1 제어 장치; 상기 디텍팅 장치로부터 상기 제1 내지 제3 위치 정보를 획득하고, 상기 제1 내지 제3 위치 정보를 이용하여 상기 제2 착용형 디스플레이 장치에 출력되는 상기 제2 영상을 제어하는 제2 제어 장치; 및 상기 디텍팅 장치로부터 상기 제1 내지 제3 위치 정보를 획득하고, 상기 제1 내지 제3 위치 정보를 이용하여 상기 제3 착용형 디스플레이 장치에 출력되는 상기 제3 영상을 제어하는 제3 제어 장치;를 포함하고, 상기 제1 제어 장치는 상기 제1 입력 장치로부터 상기 제1 모션 정보를 획득하고, 상기 제1 착용형 디스플레이 장치는 상기 제1 사용자로부터 제1 음성 신호를 획득하여 상기 제1 제어 장치에 제공하며, 상기 제1 제어 장치는 상기 제1 음성 신호에 기초하여 제1 음성 데이터를 획득하고, 상기 제1 제어 장치는 상기 제1 모션 정보가 제1 제스처를 지시하는 경우 상기 제2 제어 장치에 상기 제1 음성 데이터를 제공하고, 상기 제1 모션 정보가 제2 제스처를 지시하는 경우 상기 제3 제어 장치에 상기 제1 음성 데이터를 제공하는 가상 환경 제어 시스템이 제공될 수 있다.According to another embodiment of the present specification, in a virtual environment control system, motion of a first user, motion of a second user, and motion of a third user are sensed in a play space, and first location information for the first user is detected. , a detecting device for acquiring second location information about the second user and third location information about the third user; a first wearable display device worn by the first user to output a first image of a virtual environment; a second wearable display device worn by the second user to output a second image of a virtual environment; a third wearable display device worn by the third user to output a third image of a virtual environment; a first input device that is provided to the first user and obtains first motion information related to a motion of the first user; a first control device that obtains the first to third location information from the detecting device and controls the first image output to the first wearable display device using the first to third location information; a second control device that obtains the first to third location information from the detecting device and controls the second image output to the second wearable display device using the first to third location information; and a third control device that obtains the first to third location information from the detecting device and controls the third image output to the third wearable display device using the first to third location information. wherein the first control device acquires the first motion information from the first input device, and the first wearable display device obtains a first audio signal from the first user to control the first motion; The first control device obtains first voice data based on the first voice signal, and the first control device controls the second control device when the first motion information indicates a first gesture. A virtual environment control system may be provided that provides the first voice data to a device and, when the first motion information indicates a second gesture, provides the first voice data to the third control device.
본 명세서에 따르면, 사용자가 가상 환경 내에서 다양한 기능을 수행할 수 있는 기능 수행 툴(tool)이 제공될 수 있다.According to the present specification, a function execution tool through which a user can perform various functions within a virtual environment may be provided.
본 명세서에 따르면, 사용자는 가상 환경 내에서 원하는 사용자와 의사소통을 선택적으로 수행할 수 있다. According to the present specification, a user can selectively communicate with a desired user within a virtual environment.
본 명세서에 따르면, 사용자에게 보다 현실감 있는 가상 직업 훈련을 제공할 수 있고, 이에 따라 사용자의 직업 숙련도가 향상될 수 있다.According to the present specification, more realistic virtual job training can be provided to the user, and thus the user's job proficiency can be improved.
본 명세서에 따른 효과가 상술한 효과들로 제한되는 것은 아니며, 언급되지 아니한 효과들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.Effects according to the present specification are not limited to the above-mentioned effects, and effects not mentioned will be clearly understood by those skilled in the art from this specification and the accompanying drawings.
도 1은 본 명세서의 일 실시예에 따른 가상 환경 제어 시스템을 나타내는 도면이다.
도 2는 본 명세서의 일 실시예에 따른 디텍팅(detecting) 장치를 나타내는 도면이다.
도 3은 본 명세서의 일 실시예에 따른 제어 장치의 구성들을 나타내는 도면이다.
도 4는 본 명세서의 일 실시예에 따른 착용형 디스플레이 장치의 구성들을 나타내는 도면이다.
도 5는 본 명세서의 일 실시예에 따른 가상 환경 제어 시스템이 적용되는 사용자 환경을 나타내는 도면이다.
도 6은 본 명세서의 일 실시예에 따른 대상체 추적 방법을 나타내는 도면이다.
도 7은 본 명세서의 일 실시예에 따른 음성인식 기능을 제공하기 위한 제어 장치의 구성들을 나타내는 도면이다.
도 8은 본 명세서의 일 실시예에 따른 가상 환경에서 음성인식 채널을 활성화하는 방법을 나타내는 도면이다.
도 9 및 도 10은 본 명세서의 일 실시예에 따른 가상 환경에서 음성인식 기능이 제공되는 과정을 나타내는 순서도이다.
도 11 및 도 12는 본 명세서의 일 실시예에 따른 가상 환경에서 선택적 의사소통 기능이 제공되는 방법을 나타내는 도면이다.
도 13은 본 명세서의 일 실시예에 따른 가상 환경에서 선택적 의사소통 기능이 제공되는 과정을 나타내는 순서도이다.1 is a diagram showing a virtual environment control system according to an embodiment of the present specification.
2 is a diagram illustrating a detecting device according to an embodiment of the present specification.
3 is a diagram showing configurations of a control device according to an embodiment of the present specification.
4 is a diagram illustrating configurations of a wearable display device according to an embodiment of the present specification.
5 is a diagram illustrating a user environment to which a virtual environment control system according to an embodiment of the present specification is applied.
6 is a diagram illustrating a method for tracking an object according to an embodiment of the present specification.
7 is a diagram showing configurations of a control device for providing a voice recognition function according to an embodiment of the present specification.
8 is a diagram illustrating a method of activating a voice recognition channel in a virtual environment according to an embodiment of the present specification.
9 and 10 are flowcharts illustrating a process of providing a voice recognition function in a virtual environment according to an embodiment of the present specification.
11 and 12 are diagrams illustrating a method of providing a selective communication function in a virtual environment according to an embodiment of the present specification.
13 is a flowchart illustrating a process of providing a selective communication function in a virtual environment according to an embodiment of the present specification.
본 명세서의 상술한 목적, 특징들 및 장 점은 첨부된 도면과 관련된 다음의 상세한 설명을 통해 보다 분명해질 것이다. 다만, 본 명세서는 다양한 변경을 가할 수 있고 여러 가지 실시예들을 가질 수 있는 바, 이하에서는 특정 실시예들을 도면에 예시하고 이를 상세히 설명하고자 한다. The above-described objects, features and advantages of this specification will become more apparent through the following detailed description in conjunction with the accompanying drawings. However, the present specification may apply various changes and may have various embodiments. Hereinafter, specific embodiments will be illustrated in the drawings and described in detail.
도면들에 있어서, 층 및 영역들의 두께는 명확성을 기하기 위하여 과장되어진 것이며, 또한, 구성요소(element) 또는 층이 다른 구성요소 또는 층의 "위(on)" 또는 "상(on)"으로 지칭되는 것은 다른 구성요소 또는 층의 바로 위 뿐만 아니라 중간에 다른 층 또는 다른 구성요소를 개재한 경우를 모두 포함한다. 명세서 전체에 걸쳐서 동일한 참조번호들은 원칙적으로 동일한 구성요소들을 나타낸다. 또한, 각 실시예의 도면에 나타나는 동일한 사상의 범위 내의 기능이 동일한 구성 요소는 동일한 참조부호를 사용하여 설명한다.In the drawings, the thickness of layers and regions is exaggerated for clarity, and elements or layers may be "on" or "on" other elements or layers. What is referred to includes all cases where another layer or other component is intervened in the middle as well as immediately above another component or layer. Like reference numerals designate essentially like elements throughout the specification. In addition, components having the same function within the scope of the same idea appearing in the drawings of each embodiment are described using the same reference numerals.
본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제1, 제2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다.Numbers (eg, first, second, etc.) used in the description process of this specification are only identifiers for distinguishing one component from another component.
또한, 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. In addition, the suffixes "module" and "unit" for the components used in the following description are given or used together in consideration of ease of writing the specification, and do not have meanings or roles that are distinguished from each other by themselves.
이하에서는 도면을 참조하여 본 명세서의 구체적인 실시예를 상세하게 설명한다. 다만, 본 명세서의 사상은 제시되는 실시예에 제한되지 아니하고, 본 명세서의 사상을 이해하는 당업자는 동일한 사상의 범위 내에서 다른 구성요소를 추가, 변경, 삭제 등을 통하여, 퇴보적인 다른 발명이나 본 명세서의 사상의 범위 내에 포함되는 다른 실시예를 용이하게 제안할 수 있을 것이나, 이 또한 본 명세서의 기술적 사상 범위 내에 포함된다고 할 것이다. 또한, 각 실시예의 도면에 나타나는 동일한 사상의 범위 내의 기능이 동일한 구성요소는 동일한 참조부호를 사용하여 설명한다.Hereinafter, specific embodiments of the present specification will be described in detail with reference to the drawings. However, the spirit of the present specification is not limited to the presented embodiments, and those skilled in the art who understand the spirit of the present specification may add, change, or delete other elements within the scope of the same spirit, through other degenerative inventions or the present invention. Other embodiments that are included within the scope of the spirit of the specification can be easily proposed, but will also be included within the scope of the spirit of the present specification. In addition, components having the same function within the scope of the same idea appearing in the drawings of each embodiment are described using the same reference numerals.
본 명세서의 일 실시예에 따르면, 가상 환경 제어 시스템에 있어서, 플레이 공간에서 사용자의 움직임을 감지하여 상기 사용자에 대한 위치 정보를 획득하는 디텍팅 장치; 사용자에게 착용되어 가상 환경에 대한 영상을 출력하는 착용형 디스플레이 장치; 상기 사용자에게 제공되어 상기 사용자의 동작에 관한 모션 정보를 획득하는 입력 장치; 및 상기 디텍팅 장치로부터 상기 위치 정보를 획득하고, 상기 입력 장치로부터 상기 모션 정보를 획득하며, 상기 위치 정보 및 상기 모션 정보를 이용하여 상기 착용형 디스플레이 장치에 출력되는 상기 영상을 제어하는 제어 장치;를 포함하고, 상기 제어 장치는, 상기 모션 정보로부터 상기 사용자가 상기 동작을 수행하는 데에 소요된 시간에 관한 수행 시간 데이터를 획득하고, 상기 모션 정보가 미리 설정된 제스처를 지시하는 경우, 채널 시간 동안 상기 사용자로부터 음성 데이터를 획득하되, 상기 채널 시간은 상기 수행 시간 데이터에 기초하여 설정되는 가상 환경 제어 시스템이 제공될 수 있다.According to one embodiment of the present specification, a virtual environment control system includes: a detecting device that detects a user's movement in a play space and obtains location information about the user; a wearable display device that is worn by a user and outputs an image of a virtual environment; an input device that is provided to the user and obtains motion information related to an action of the user; and a control device that obtains the location information from the detecting device, obtains the motion information from the input device, and controls the image output to the wearable display device using the location information and the motion information. wherein the control device obtains execution time data about a time required for the user to perform the operation from the motion information, and when the motion information indicates a preset gesture, during a channel time A virtual environment control system may be provided in which voice data is obtained from the user, and the channel time is set based on the execution time data.
상기 채널 시간은 상기 사용자의 동작에 소요되는 시간에 비례하여 설정될 수 있다.The channel time may be set in proportion to the time required for the user's operation.
상기 제어 장치는 상기 모션 정보가 상기 미리 설정된 제스처를 지시하는 경우, 상기 착용형 디스플레이 장치를 이용하여 음성인식 채널의 활성화를 반영하는 영상을 상기 채널 시간 동안 출력할 수 있다.When the motion information indicates the preset gesture, the control device may output an image reflecting activation of a voice recognition channel during the channel time using the wearable display device.
상기 제어 장치는 상기 모션 정보가 상기 미리 설정된 제스처를 지시하는 경우, 상기 착용형 디스플레이 장치를 이용하여 상기 음성인식 채널의 활성화가 종료되기까지 남은 시간을 나타내는 영상을 출력할 수 있다.When the motion information indicates the preset gesture, the control device may output an image representing a remaining time until activation of the voice recognition channel is terminated using the wearable display device.
상기 제어 장치는 음성 인식부를 포함하고, 상기 음성 인식부를 이용하여 상기 음성 데이터를 기초로 상기 사용자가 미리 설정된 단어를 말했는지 여부를 판단하고, 상기 판단한 결과를 상기 착용형 디스플레이 장치를 통해 출력할 수 있다.The control device may include a voice recognition unit, use the voice recognition unit to determine whether or not the user has spoken a preset word based on the voice data, and output a result of the determination through the wearable display device. have.
상기 제어 장치는 용어 데이터베이스를 포함하고, 상기 미리 설정된 단어는 상기 용어 데이터베이스에 저장된 용어일 수 있다.The control device may include a terminology database, and the preset word may be a term stored in the terminology database.
상기 용어 데이터베이스는 무전 용어에 대한 단어들에 대한 정보를 포함할 수 있고, 상기 미리 설정된 단어는 상기 무전 용어에 대한 단어들 중 하나일 수 있다.The terminology database may include information on words of radio terms, and the preset word may be one of words of radio terms.
본 명세서의 다른 실시예에 따르면, 가상 환경 제어 시스템에 있어서, 플레이 공간에서 제1 사용자의 움직임, 제2 사용자의 움직임, 및 제3 사용자의 움직임을 감지하여 상기 제1 사용자에 대한 제1 위치 정보, 상기 제2 사용자에 대한 제2 위치 정보, 및 상기 제3 사용자에 대한 제3 위치 정보를 획득하는 디텍팅 장치; 상기 제1 사용자에게 착용되어 가상 환경에 대한 제1 영상을 출력하는 제1 착용형 디스플레이 장치; 상기 제2 사용자에게 착용되어 가상 환경에 대한 제2 영상을 출력하는 제2 착용형 디스플레이 장치; 상기 제3 사용자에게 착용되어 가상 환경에 대한 제3 영상을 출력하는 제3 착용형 디스플레이 장치; 상기 제1 사용자에게 제공되어 상기 제1 사용자의 동작에 관한 제1 모션 정보를 획득하는 제1 입력 장치; 상기 디텍팅 장치로부터 상기 제1 내지 제3 위치 정보를 획득하고, 상기 제1 내지 제3 위치 정보를 이용하여 상기 제1 착용형 디스플레이 장치에 출력되는 상기 제1 영상을 제어하는 제1 제어 장치; 상기 디텍팅 장치로부터 상기 제1 내지 제3 위치 정보를 획득하고, 상기 제1 내지 제3 위치 정보를 이용하여 상기 제2 착용형 디스플레이 장치에 출력되는 상기 제2 영상을 제어하는 제2 제어 장치; 및 상기 디텍팅 장치로부터 상기 제1 내지 제3 위치 정보를 획득하고, 상기 제1 내지 제3 위치 정보를 이용하여 상기 제3 착용형 디스플레이 장치에 출력되는 상기 제3 영상을 제어하는 제3 제어 장치;를 포함하고, 상기 제1 제어 장치는 상기 제1 입력 장치로부터 상기 제1 모션 정보를 획득하고, 상기 제1 착용형 디스플레이 장치는 상기 제1 사용자로부터 제1 음성 신호를 획득하여 상기 제1 제어 장치에 제공하며, 상기 제1 제어 장치는 상기 제1 음성 신호에 기초하여 제1 음성 데이터를 획득하고, 상기 제1 제어 장치는 상기 제1 모션 정보가 제1 제스처를 지시하는 경우 상기 제2 제어 장치에 상기 제1 음성 데이터를 제공하고, 상기 제1 모션 정보가 제2 제스처를 지시하는 경우 상기 제3 제어 장치에 상기 제1 음성 데이터를 제공하는 가상 환경 제어 시스템이 제공될 수 있다.According to another embodiment of the present specification, in a virtual environment control system, motion of a first user, motion of a second user, and motion of a third user are sensed in a play space, and first location information for the first user is detected. , a detecting device for acquiring second location information about the second user and third location information about the third user; a first wearable display device worn by the first user to output a first image of a virtual environment; a second wearable display device worn by the second user to output a second image of a virtual environment; a third wearable display device worn by the third user to output a third image of a virtual environment; a first input device that is provided to the first user and obtains first motion information related to a motion of the first user; a first control device that obtains the first to third location information from the detecting device and controls the first image output to the first wearable display device using the first to third location information; a second control device that obtains the first to third location information from the detecting device and controls the second image output to the second wearable display device using the first to third location information; and a third control device that obtains the first to third location information from the detecting device and controls the third image output to the third wearable display device using the first to third location information. wherein the first control device acquires the first motion information from the first input device, and the first wearable display device obtains a first audio signal from the first user to control the first motion; The first control device obtains first voice data based on the first voice signal, and the first control device controls the second control device when the first motion information indicates a first gesture. A virtual environment control system may be provided that provides the first voice data to a device and, when the first motion information indicates a second gesture, provides the first voice data to the third control device.
상기 제2 제어 장치는 상기 제1 제어 장치로부터 상기 제1 음성 데이터를 수신하는 경우 상기 제2 착용형 디스플레이 장치를 통해 상기 제1 음성 데이터에 대응되는 음향을 출력하고, 상기 제3 제어 장치는 상기 제1 제어 장치로부터 상기 제1 음성 데이터를 수신하는 경우 상기 제3 착용형 디스플레이 장치를 통해 상기 제1 음성 데이터에 대응되는 음향을 출력할 수 있다.When the second control device receives the first voice data from the first control device, the second control device outputs a sound corresponding to the first voice data through the second wearable display device, and the third control device outputs a sound corresponding to the first voice data. When receiving the first voice data from the first control device, a sound corresponding to the first voice data may be output through the third wearable display device.
상기 제2 제어 장치는 상기 제1 제어 장치로부터 상기 제1 음성 데이터를 수신하는 경우 상기 제2 착용형 디스플레이 장치를 통해 상기 제1 음성 데이터에 대응되는 이미지가 포함된 상기 제2 영상을 출력하고, 상기 제3 제어 장치는 상기 제1 제어 장치로부터 상기 제1 음성 데이터를 수신하는 경우 상기 제3 착용형 디스플레이 장치를 통해 상기 제1 음성 데이터에 대응되는 이미지가 포함된 상기 제3 영상을 출력할 수 있다.When receiving the first audio data from the first control device, the second control device outputs the second image including an image corresponding to the first audio data through the second wearable display device; When receiving the first audio data from the first control device, the third control device may output the third image including an image corresponding to the first audio data through the third wearable display device. have.
상기 제2 제어 장치가 상기 제1 제어 장치로부터 상기 제1 음성 데이터를 수신하는 경우, 상기 제2 착용형 디스플레이 장치는 상기 제2 사용자로부터 제2 음성 신호를 획득하여 상기 제2 제어 장치에 제공하고, 상기 제2 제어 장치는 상기 제2 음성 신호에 기초하여 제2 음성 데이터를 획득하고, 상기 제2 제어 장치는 상기 제1 제어 장치에 상기 제2 음성 데이터를 제공할 수 있다.When the second control device receives the first audio data from the first control device, the second wearable display device acquires a second audio signal from the second user and provides it to the second control device, , The second control device may acquire second voice data based on the second voice signal, and the second control device may provide the second voice data to the first control device.
상기 제1 제어 장치는 상기 제1 모션 정보가 제3 제스처를 지시하는 경우 상기 제2 제어 장치 및 상기 제3 제어 장치에 상기 제1 음성 데이터를 제공할 수 있다.The first control device may provide the first voice data to the second control device and the third control device when the first motion information indicates a third gesture.
상기 제1 제어 장치는 상기 제1 모션 정보가 상기 제1 제스처 또는 상기 제2 제스처인 경우, 상기 제1 착용형 디스플레이 장치의 음향 센서 모듈을 활성화시켜 상기 제1 사용자로부터 상기 제1 음성 신호를 입력 받을 수 있다.When the first motion information is the first gesture or the second gesture, the first control device activates a sound sensor module of the first wearable display device to input the first voice signal from the first user. can receive
상기 가상 환경 제어 시스템은 상기 제1 제어 장치, 상기 제2 제어 장치, 및 상기 제3 제어 장치와 데이터 통신하는 메인 제어 장치;를 더 포함하고, 상기 제1 제어 장치는 상기 제1 음성 데이터를 상기 메인 제어 장치를 통해 상기 제2 제어 장치 또는 상기 제3 제어 장치에 제공할 수 있다.The virtual environment control system further includes a main control device that communicates data with the first control device, the second control device, and the third control device, wherein the first control device transmits the first voice data to the first control device. It may be provided to the second control device or the third control device through the main control device.
본 명세서는 음성인식 기능이 구비된 가상 환경 제어 시스템에 관한 것이다.The present specification relates to a virtual environment control system equipped with a voice recognition function.
본 명세서에서 가상 환경은 프로그램에 의해 생성된 인공적인 환경을 의미할 수 있다. 예를 들어, 가상 환경은 프로그램에 의해 현실과 분리된 가상 공간을 생성하여 이에 대한 이미지를 제공하는 가상 현실(VR: virtual reality), 현실 세계를 기반으로 가상의 이미지를 겹쳐 하나의 이미지로 제공하는 증강 현실(AR: augmented reality) 및 현실 세계와 가상 현실을 융합하여 가상 공간을 제공하고 이에 대한 이미지를 제공하는 혼합 현실(MR: mixed reality)로 구분될 수 있다. 한편, 본 명세서에서 가상 환경은 확장 현실(XR: extended reality)로 인식될 수도 있다.In this specification, a virtual environment may refer to an artificial environment created by a program. For example, the virtual environment is virtual reality (VR), which creates a virtual space separated from reality by a program and provides images for it, and overlaps virtual images based on the real world to provide a single image. It can be divided into augmented reality (AR) and mixed reality (MR) that provides a virtual space by converging the real world and virtual reality and provides images for it. Meanwhile, in this specification, the virtual environment may be recognized as extended reality (XR).
나아가, 본 명세서에서 서술하는 가상 환경은 상술한 가상 현실, 증강 현실 및 혼합 현실 외에도 다양한 형태의 가상 공간을 제공하는 환경을 의미할 수 있다.Furthermore, the virtual environment described in this specification may refer to an environment that provides various types of virtual spaces in addition to the above-described virtual reality, augmented reality, and mixed reality.
본 명세서에서 서술하는 가상 환경 제어 시스템은 사용자에게 가상 환경 체험을 제공하는 것을 주된 목적으로 하며, 가상 환경 체험은 게임, 쇼핑, 스포츠, 및 직업 훈련 등 다양한 컨텐츠를 포함할 수 있다. The main purpose of the virtual environment control system described in this specification is to provide a user with a virtual environment experience, and the virtual environment experience may include various contents such as games, shopping, sports, and job training.
이하에서는 도 1을 참조하여 본 명세서의 일 실시예에 따른 가상 환경을 제공하기 위한 시스템에 대해서 서술한다.Hereinafter, a system for providing a virtual environment according to an embodiment of the present specification will be described with reference to FIG. 1 .
도 1은 본 명세서의 일 실시예에 따른 가상 환경 제어 시스템(10)을 나타내는 도면이다.1 is a diagram showing a virtual
도 1을 참조하면, 가상 환경 제어 시스템(10)은 디텍팅 장치(100), 제어 장치(200), 착용형 디스플레이 장치(400), 및 입력 장치(500)를 포함할 수 있다. Referring to FIG. 1 , the virtual
디텍팅 장치(100)는 대상체를 추적하여 디텍팅 정보를 획득할 수 있다. The detecting
여기서, 대상체는 사용자에게 가상 환경을 제공하기 위해 현실 공간에 제공되는 물체를 의미할 수 있다.Here, the object may refer to an object provided in a real space to provide a virtual environment to the user.
구체적으로, 대상체는 사용자, 사용자의 신체 부위, 사용자 주변에 위치한 물체, 착용형 디스플레이 장치(400), 입력 장치(500), 및 기준점이나 특징점을 갖는 물체를 포함할 수 있다. Specifically, the object may include a user, a body part of the user, an object located around the user, the
디텍팅 정보는 대상체에 대한 정보를 의미할 수 있다. 예를 들어, 디텍팅 정보는 대상체의 위치나 움직임 등을 감지하여 획득할 수 있는 대상체의 위치 정보, 속력 정보, 및 속도 정보 등을 포함할 수 있다.The detecting information may refer to information about an object. For example, the detecting information may include location information, speed information, speed information, and the like of an object that can be obtained by detecting the location or movement of the object.
디텍팅 장치(100)는 대상체에 대한 디텍팅 정보를 미리 정해진 주기로 획득할 수 있다.The detecting
디텍팅 장치(100)는 디텍팅 정보를 제어 장치(200)에 제공할 수 있다.The detecting
제어 장치(200)는 전반적으로 디텍팅 장치(100), 착용형 디스플레이 장치(400), 및 입력 장치(500)와 연결될 수 있다. The
제어 장치(200)는 연결된 구성들로부터 정보를 획득할 수 있다.The
일 예로, 제어 장치(200)는 디텍팅 장치(100)로부터 대상체에 관한 디텍팅 정보를 획득할 수 있다. 또는, 제어 장치(200)는 디텍팅 장치(100)로부터 대상체에 관한 이미지 정보를 획득할 수 있다. 또는, 제어 장치(200)는 디텍팅 장치(100)의 현재 상태에 관한 상태 정보를 획득할 수 있다. 제어 장치(200)는 디텍팅 장치(100)로부터 획득한 디텍팅 정보에 기초하여 가상 환경에서의 대상체 위치를 나타내는 가상 위치 정보를 생성할 수 있다. 가상 위치 정보에 관해서는 추후 구체적으로 서술한다.For example, the
제어 장치(200)는 착용형 디스플레이 장치(400)를 제어할 수 있다. 예를 들어, 제어 장치(200)는 착용형 디스플레이 장치(400)가 사용자에게 가상 환경에 관한 이미지 또는 영상을 출력하도록 제어할 수 있다. 보다 구체적으로, 제어 장치(200)는 후술하는 바와 같이 디텍팅 장치(100)로부터 획득되는 디텍징 정보에 기초하여 착용형 디스플레이 장치(400)에서 출력되는 이미지 또는 영상을 변경함으로써 사용자에게 가상 체험을 제공할 수 있다.The
다시 말해, 제어 장치(200)은 미리 저장된 어플리케이션을 실행시켜 착용형 디스플레이 장치(400)를 통해 사용자에게 가상 환경 체험을 위한 이미지 또는 영상을 제공할 수 있다. 예를 들어, 상술한 미리 저장된 어플리케이션은 범죄 예방 훈련, 교통 통제 훈련, 방범 훈련, 시위대 통제 훈련 등 경찰의 직업 훈련에 관한 시나리오를 구현하는 프로그램이고, 착용형 디스플레이 장치(400)를 통해 사용자에게 제공되는 이미지 또는 영상은 각 시나리오에 대응될 수 있다.In other words, the
제어 장치(200)는 입력 장치(500)로부터 입력 신호를 획득할 수 있다. 나아가, 제어 장치(200)는 입력 장치(500)로부터 획득한 입력 신호에 기초하여 입력 정보를 획득할 수 있다.The
여기서, 입력 신호는 사용자의 입력 장치(500) 조작에 의한 신호를 의미할 수 있고, 입력 정보는 사용자의 입력 장치(500) 조작에 대응되는 정보를 의미할 수 있다. 예를 들어, 입력 정보는 사용자의 입력 장치(500) 버튼 누름에 대응되는 선택 정보, 사용자의 동작에 대응되는 입력 장치(500)의 모션 정보, 입력 장치(500)의 지향 방향에 관한 지향 정보 등을 포함할 수 있다.Here, the input signal may mean a signal caused by the user's manipulation of the
제어 장치(200)는 입력 장치(500)로부터 획득한 입력 정보에 기초하여 착용형 디스플레이 장치(400)에 출력되는 이미지 또는 영상을 변경할 수 있다.The
한편, 제어 장치(200)는 반드시 하나의 물리적인 구성으로 제공되어야 하는 것은 아니며, 상술한 기능을 세분화하여 각각의 기능을 수행하는 복수의 장치로 제공될 수도 있다. Meanwhile, the
일 예로, 제어 장치(200)는 디텍팅 장치(100)와 연결되어 디텍팅 정보에 기초하여 가상 위치 정보를 획득하는 디텍팅 모듈, 가상 환경 시스템(10)의 구성들 중 적어도 일부에 대한 제어를 수행하는 운영 모듈 및 가상 환경 시스템(10)의 구성들 중 적어도 하나에서 실행되는 어플리케이션에 대한 인증을 수행하는 라이센스 모듈 등을 포함할 수 있다.For example, the
제어 장치(200)는 다양한 형태로 제공될 수 있다. 예를 들어, 제어 장치(200)는 사용자가 착용 가능한 백팩(backpack) PC 형태로 제공될 수 있다. 구체적으로, 제어 장치(200)는 사용자가 착용할 수 있는 가방에 결착된 형태로 제공될 수 있다.The
착용형 디스플레이 장치(400)는 제어 장치(200)와 연결될 수 있다.The
착용형 디스플레이 장치(400)는 사용자에게 가상 환경에 대한 이미지 또는 영상을 제공할 수 있다. 예를 들어, 착용형 디스플레이 장치(400)는 제어 장치(200)로부터 획득한 가상 이미지를 사용자에게 시각적으로 출력할 수 있다.The
착용형 디스플레이 장치(400)는 사용자에게 음향 효과를 출력할 수 있다. 예를 들어, 착용형 디스플레이 장치(400)는 제어 장치(200)로부터 이미지 또는 영상에 대응하는 음향 정보를 획득하고, 획득한 음향 정보에 기초하여 음향 효과를 출력할 수 있다.The
입력 장치(500)는 상술한 바와 같이 사용자의 조작에 따른 입력 신호를 획득할 수 있다. 입력 장치(500)는 획득한 입력 신호를 제어 장치(200)에 제공할 수 있다.As described above, the
입력 장치(500)는 가속도 센서, 자이로스코프, 자이로 센서, MEMS, 지자기 센서, 관성 센서(IMIU), 광 센서, 조도 센서, 포토 센서, 적외선 센서, 칼라 센서, 깊이 센서 및 전자파 센서 등을 포함할 수 있다. 입력 장치(500)는 이러한 센서들을 이용하여 사용자의 조작에 대응되는 입력 신호를 획득할 수 있다.The
추가적으로 입력 장치(500)는 버튼, 스위치, 조그셔틀 및 휠 등 물리적 조작 부재를 포함할 수 있다.Additionally, the
입력 장치(500)는 제어 장치(200)와 유선 통신 및 무선 통신 중 적어도 하나의 통신 방식으로 정보를 송수신할 수 있다. 이를 위해 입력 장치(500)는 통신 모듈을 포함할 수 있다.The
이상에서 설명된 가상 환경 제어 시스템(10)은 설명의 편의를 위한 일 실시예이며, 본 명세서의 기술적 사상이 이에 한정되는 것은 아니며 필요에 따라 다양한 형태로 구성될 수 있다. 예를 들어, 제어 장치(200) 및 착용형 디스플레이 장치(400)는 하나의 물리적 구성으로 제공될 수도 있다.The virtual
이하에서는 도 2 내지 도 4를 참조하여 가상 환경 제어 시스템(10)의 각 구성에 대해 구체적으로 서술한다.Hereinafter, each configuration of the virtual
도 2는 본 명세서의 일 실시예에 따른 디텍팅 장치(100)를 나타내는 도면이다.2 is a diagram showing a detecting
도 2를 참조하면, 디텍팅 장치(100)는 발광부(110) 및 센싱부(120)를 포함할 수 있다.Referring to FIG. 2 , the detecting
발광부(110)는 대상체 추적을 위해 대상체 또는 그 주변에 신호를 송출할 수 있다. 예를 들어, 발광부(110)는 가시광 및 적외선 등의 광 신호를 외부로 발신하는 발광 소자를 포함하고, 미리 설정된 영역에 광 신호를 발산할 수 있다. 보다 구체적으로, 발광부(110)는 가시광 LED 및/또는 적외선 LED 등으로 제공될 수 있다.The
센싱부(120)는 외부로부터 신호를 획득할 수 있다. 예를 들어, 센싱부(120)는 발광부(110)가 송출한 신호에 대응하는 신호를 획득할 수 있다. 구체적으로, 센싱부(120)는 발광부(110)에서 발산한 광이 대상체 도달한 후 반사된 광을 감지할 수 있다.The
센싱부(120)는 이미지 센서, 광 센서, 조도 센서, 포토 센서, 적외선 센서, 칼라 센서, 깊이 센서 및 전자파 센서 중 적어도 하나를 포함할 수 있다.The
도 3은 본 명세서의 일 실시예에 따른 제어 장치(200)의 구성들을 나타내는 도면이다. 3 is a diagram showing configurations of a
도 3을 참조하면, 제어 장치(200)는 제1 통신부(210), 제1 저장부(220), 제1 입력부(230), 제1 제어부(240) 및 제1 디스플레이부(250)를 포함할 수 있다.Referring to FIG. 3 , the
제1 통신부(210)는 디텍팅 장치(100) 및 착용형 디스플레이 장치(400) 중 적어도 하나와 연결되어 데이터를 획득하거나 제공할 수 있다.The
제1 통신부(210)는 유선통신 및 무선통신 중 적어도 하나의 방식으로 디텍팅 장치(100) 및 착용형 디스플레이 장치(400) 중 적어도 하나와 연결될 수 있다. 여기서, 무선통신은 와이파이(Wi-Fi)망, 3G, LTE망, 5G, 로라(LoRa) 등의 이동통신망, wave(Wireless Access in Vehicular Environment), 비콘, 지그비(zigbee), 블루투스(Bluetooth), BLE(Bluetooth Low Energy) 등을 포함할 수 있다. 또 여기서, 유선통신은 트위스트 페어 케이블, 동축케이블 또는 광케이블 등을 포함할 수 있다.The
제1 저장부(220)는 각종 데이터를 저장할 수 있다. 예를 들어, 제1 저장부(220)는 제어 장치(200)에서 이용되는 데이터를 저장할 수 있다. 구체적으로, 제1 저장부(220)는 제어 장치(200)의 동작에 필요한 정보를 저장할 수 있다. 또한, 제1 저장부(220)는 외부로부터 획득한 정보를 저장할 수 있다.The
제1 저장부(220)는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리, SSD, CD-ROM, DVD-ROM 또는 USB 등으로 제공될 수 있다.The
제1 입력부(230)는 사용자의 입력에 대응하는 신호를 획득할 수 있다. 사용자의 입력은 예를 들어 버튼의 누름, 클릭, 터치 및 드래그 등일 수 있다. 제1 입력부(230)는 사용자 입력을 수신하기 위해 키보드, 키 패드, 버튼, 조그셔틀 및 휠 등을 포함할 수 있다.The
제1 제어부(240)는 제어 장치(200)의 동작을 총괄할 수 있다. 구체적으로, 제1 제어부(240)는 제어 장치(200)에 포함된 구성의 동작을 제어할 수 있다. 예를 들어, 제1 제어부(240)는 마이크로 프로세서, 마이크로 컨트롤러, DSP, 프로세서, 제어기 기능 수행을 위한 전기적인 유닛 등으로 구현될 수 있다.The
제1 제어부(240)는 적어도 하나의 기능 또는 동작을 수행하는 소프트웨어 코드로 구현될 수 있다. 여기서, 소프트웨어 코드는 적절한 프로그램 언어로 작성되는 것으로 소프트웨어 코드에 의해 각종 명령어가 수행될 수 있다. 소프트웨어 코드는 제1 저장부(220)에 저장되고, 제1 제어부(240) 또는 구성요소 등에 의해 실행될 수 있다.The
제1 디스플레이부(250)는 시각적인 정보를 출력할 수 있다. The
제1 디스플레이부(250)는 시각적인 정보를 출력하는 모니터, TV, 디스플레이 패널 등으로 제공될 수 있다.The
한편, 제1 디스플레이부(250)가 터치 스크린으로 제공되는 경우, 제1 디스플레이부(250)는 제1 입력부(230)의 기능을 수행할 수 있다.Meanwhile, when the
도 4는 본 명세서의 일 실시예에 따른 착용형 디스플레이 장치(400)의 구성들을 나타내는 도면이다.4 is a diagram illustrating configurations of a
도 4를 참조하면, 착용형 디스플레이 장치(400)는 제2 통신부(410), 제2 저장부(420), 센서부(430), 제2 제어부(440) 및 제2 디스플레이부(450)를 포함할 수 있다.Referring to FIG. 4 , the
제2 통신부(410)는 제어 장치(200)와 연결될 수 있다.The
제2 통신부(410)는 제1 통신부(210)와 동일하게 유선통신 및 무선통신 중 적어도 하나의 통신 방식을 이용할 수 있다. Like the
제2 저장부(420)는 데이터를 저장할 수 있다. 예를 들어, 제2 저장부(420)는 착용형 디스플레이 장치(400)의 동작에 필요한 프로그램을 저장할 수 있다. 또한, 제2 저장부(420)는 외부로부터 획득한 정보를 저장할 수 있다. 제2 저장부(420)는 제1 저장부(410)와 유사하게 구현될 수 있다.The
센서부(430)는 착용형 디스플레이 장치(400)의 상태 및 사용자의 입력에 대응하는 신호를 획득할 수 있다.The
센서부(430)는 동작 센서모듈(431) 및 음향 센서모듈(432)을 포함할 수 있다.The
동작 센서모듈(431)은 착용형 디스플레이 장치(400)의 상태에 대한 신호를 획득할 수 있다. 예를 들어, 동작 센서모듈(431)은 착용형 디스플레이 장치(400)의 회전에 대한 회전 정보를 획득할 수 있다. 다른 예를 들어, 동작 센서모듈(431)은 착용형 디스플레이 장치(400)의 위치 이동에 따른 가속도 정보, 속도 정보 또는 이동 정보를 획득할 수 있다.The
동작 센서모듈(431)은 가속도 센서, 자이로스코프, 자이로 센서, MEMS, 지자기 센서, 관성 센서(IMIU), 이미지 센서, 광 센서, 조도 센서, 포토 센서, 적외선 센서, 칼라 센서, 깊이 센서 또는 전자파 센서 등을 포함할 수 있다.The
음향 센서모듈(432)는 외부로부터 유입되는 소리에 대응하는 신호를 획득할 수 있다. 예를 들어, 음향 센서모듈(432)은 사용자의 음성을 입력 신호로 수신하여 음성 데이터를 획득할 수 있다. The
음향 센서모듈(432)은 마이크 등의 음성 입력 장치를 포함할 수 있다.The
제2 제어부(440)는 착용형 디스플레이 장치(400)의 동작을 총괄할 수 있다. 제2 제어부(440)에 관한 내용은 상술한 제1 제어부(240)와 유사한 바 생략하도록 한다.The
제2 디스플레이부(450)는 사용자에게 이미지 또는 영상을 출력할 수 있다. 예를 들어, 제2 디스플레이부(450)는 사용자에게 제공되는 가상 환경 체험에 대한 이미지 또는 영상을 출력할 수 있다. 제2 디스플레이부(450)에서 출력되는 이미지 또는 영상은 2차원 또는 3차원일 수 있다.The
제2 디스플레이부(450)는 액정 디스플레이(LCD), 전자 종이, LED 디스플레이, OLED 디스플레이, 곡면 디스플레이, 스테레오스코피(양안 시차를 이용한 3차원 디스플레이) 등의 이미지 출력 장치로 제공될 수 있다.The
음향 출력부(460)는 청각적인 정보를 출력할 수 있다. 예를 들어, 음향 출력부(460)는 튜너, 재생장치, 앰프, 스피커 등의 음향장치로 제공될 수 있다.The
도 5는 본 명세서의 일 실시예에 따른 가상 환경 제어 시스템(10)이 적용되는 사용자 환경을 나타내는 도면이다.5 is a diagram showing a user environment to which the virtual
도 5을 참조하면 사용자 환경은 적어도 한 명의 사용자, 사용자가 가상 환경을 체험하기 위한 플레이 공간(PA), 사용자에게 제공되는 제어 장치(200), 착용형 디스플레이 장치(400), 및 입력 장치(500), 플레이 공간(PA)에서 사용자의 움직임을 감지할 수 있는 디텍팅 장치(100)를 포함할 수 있다.Referring to FIG. 5 , the user environment includes at least one user, a play space (PA) for the user to experience a virtual environment, a
플레이 공간(PA)은 적어도 한 명 이상의 사용자가 가상 환경을 체험하기 위한 현실 공간을 의미할 수 있다.The play space PA may refer to a real space for at least one user to experience a virtual environment.
사용자 환경에서 사용자의 움직임을 감지하기 위해 마커(M)가 제공될 수 있다. 마커(M)는 디텍팅 장치(100)에 의해 그 위치나 이동 정보가 감지되는 기준점 또는 특징점 역할을 수행할 수 있다. 예를 들어, 마커(M)가 대상체에 부착됨으로써 디텍팅 장치(100)는 사용자 환경 내 대상체의 움직임을 추적할 수 있다. 보다 구체적으로, 마커(M)는 착용형 디스플레이 장치(400) 및/또는 입력 장치(500) 등에 부착되고 디텍팅 장치(100)는 착용형 디스플레이 장치(400) 및/또는 입력 장치(500)에 대한 정보를 획득함으로써 사용자 환경 내 사용자의 위치를 추적할 수 있다. A marker M may be provided to detect a user's movement in the user environment. The marker M may serve as a reference point or feature point at which the location or movement information is sensed by the detecting
플레이 공간(PA)에서 디텍팅 장치(100)가 복수 개 제공될 수 있다. 예를 들어, 복수의 디텍팅 장치(100)는 플레이 공간(PA)의 주변을 미리 정해진 간격만큼 이격되어 배치되어 각 할당 영역에 대해 광을 발산하고 수집할 수 있다.A plurality of detecting
디텍팅 장치(100)는 플레이 공간(PA)에 대한 디텍팅 정보를 획득할 수 있다. 예를 들어, 디텍팅 장치(100)의 센싱부(120)는 플레이 공간(PA) 중 적어도 일부에 대한 디텍팅 정보를 획득할 수 있다.The detecting
플레이 공간(PA)에 복수의 디텍팅 장치(100)가 제공되는 경우 제어 장치(200)는 복수의 디텍팅 장치(100)로부터 디텍팅 정보를 획득할 수 있으며, 획득한 디텍팅 정보들에 기초하여 대상체의 현재 위치 정보를 획득할 수 있다.When a plurality of detecting
디텍팅 장치(100)는 지면으로부터 미리 정해진 높이만큼 이격 되어 배치될 수 있으며, 플레이 공간(PA)을 지향하도록 배치될 수도 있으며, 미리 설치된 프레임(frame)에 고정되어 설치될 수 있다.The detecting
제어 장치(200)는 디텍팅 장치(100)로부터 획득한 데이터에 기초하여 대상체들의 현실 위치 정보를 산출하고, 대상체들의 현실 위치 정보에 기초하여 그에 대응하는 가상 환경에서의 가상 위치 정보를 획득할 수 있다. 예를 들어, 제어 장치(200)는 디텍팅 장치(100)로부터 사용자가 착용하는 착용형 디스플레이 장치(400)에 대한 디텍팅 정보에 기초하여 플레이 공간(PA) 내 사용자의 위치 정보인 현실 위치 정보를 산출하고, 현실 위치 정보에 포함된 좌표에 대응하는 가상 환경에서의 좌표를 가상 환경 내 사용자의 캐릭터의 가상 위치 정보로 획득할 수 있다.The
제어 장치(200)은 상술한 가상 위치 정보에 기초하여 가상 환경에 관한 이미지 또는 영상을 획득할 수 있다. 예를 들어, 제어 장치(200)는 가상 위치 정보에 기초하여 가상 환경에서의 캐릭터에 대응하며 미리 설정된 시야 범위를 가지는 가상 카메라를 특정하고, 가상 카메라의 시야 범위에 대응하는 가상 이미지 또는 영상을 획득할 수 있다. 이 때, 제어 장치(200)는 가상 이미지 또는 영상을 획득함에 있어 착용형 디스플레이 장치(400)의 동작 센서모듈(431)로부터 획득한 지향 방향 정보를 더 고려할 수 있다.The
제어 장치(200)는 가상 이미지 또는 영상을 착용형 디스플레이 장치(400)로 제공할 수 있다. 착용형 디스플레이 장치(400)는 가상 이미지 또는 영상을 사용자에게 출력할 수 있다.The
입력 장치(500)는 사용자가 소지하는 형태로 제공될 수 있다. 예를 들어, 사용자는 입력 장치(500)를 손에 휴대할 수 있다.The
제어 장치(200)는 디텍팅 장치(100)로부터 획득한 디텍팅 정보에 기초하여 입력 장치(500)의 현실 위치 정보를 획득할 수 있다. 또한 입력 장치(500)는 제어 장치(200)에 사용자의 조작을 반영하는 모션 정보 또는 지향 정보 등을 제공할 수 있고, 제어 장치(200)는 입력 장치(500)의 현실 위치 정보, 모션 정보 및/또는 지향 정보를 이용하여 착용형 디스플레이 장치(400)에 출력되는 이미지 또는 영상을 제어할 수 있다.The
한편, 이상에서는 사용자가 한 명인 경우에 대해 주로 서술하였으나, 본 명세서의 기술적 사상이 이에 한정되는 것은 아니며, 복수의 사용자에게 가상 환경 체험이 제공되는 경우에도 상술한 내용이 적용될 수 있다.Meanwhile, in the foregoing, the case where there is only one user has been mainly described, but the technical concept of the present specification is not limited thereto, and the above-described content may be applied even when a virtual environment experience is provided to a plurality of users.
일 예로, 제1 사용자 및 제2 사용자에게 가상 환경 체험이 제공되는 경우, 제1 사용자에 대응하는 제1 제어 장치, 제1 착용형 디스플레이 장치, 및 제1 입력 장치가 존재하고, 제2 사용자에 대응하는 제2 제어 장치, 제2 착용형 디스플레이 장치, 및 제2 입력 장치가 존재할 수 있다. For example, when a virtual environment experience is provided to a first user and a second user, a first control device, a first wearable display device, and a first input device corresponding to the first user exist, and the second user A corresponding second control device, a second wearable display device, and a second input device may exist.
이 때, 디텍팅 장치(100)는 플레이 공간(PA) 내 위치한 제1 사용자 및 제2 사용자의 움직임을 감지하여 제1 사용자 및 제2 사용자의 위치에 관한 디텍팅 신호를 제1 제어 장치 및 제2 제어 장치에 제공할 수 있다. At this time, the detecting
제1 제어 장치는 플레이 공간(PA) 내 제1 사용자 제1 현실 위치 정보 및 제2 사용자의 제2 현실 위치 정보를 산출하며, 제1 현실 위치 정보 및 제2 현실 위치 정보에 기초하여 제1 착용형 디스플레이 장치에 제1 영상이 출력되도록 제어할 수 있다. The first control device calculates first real location information of the first user and second real location information of the second user in the play space (PA), and based on the first real location information and the second real location information, the first wearer is first worn. It is possible to control the first image to be output to the type display device.
마찬가지로, 제2 제어 장치는 플레이 공간(PA) 내 제1 사용자 제1 현실 위치 정보 및 제2 사용자의 제2 현실 위치 정보를 산출하며, 제1 현실 위치 정보 및 제2 현실 위치 정보에 기초하여 제2 착용형 디스플레이 장치에 제2 영상이 출력되도록 제어할 수 있다.Similarly, the second control device calculates first user's first real location information and second user's second real location information in the play space PA, and based on the first real location information and the second real location information, the second real location information is calculated. 2 It is possible to control the second image to be output to the wearable display device.
또는, 제1 제어 장치 및 제2 제어 장치를 제어하는 메인 제어 장치가 존재하고, 메인 제어 장치가 디텍팅 장치(100)로부터 제1 사용자 및 제2 사용자의 위치에 관한 정보를 수신하여 제1 현실 위치 정보 및 제2 현실 위치 정보를 산출하고, 제1 현실 위치 정보 및 제2 현실 위치 정보를 제1 제어 장치 및 제2 제어 장치에 제공할 수 있다. Alternatively, there is a main control device that controls the first control device and the second control device, and the main control device receives information about the locations of the first user and the second user from the detecting
또는, 제1 제어 장치 및 제2 제어 장치를 제어하는 메인 제어 장치가 존재하고, 메인 제어 장치가 디텍팅 장치(100)로부터 제1 사용자 및 제2 사용자의 위치에 관한 정보를 수신하여 제1 현실 위치 정보 및 제2 현실 위치 정보를 산출하되, 제1 현실 위치 정보 및 제2 현실 위치 정보를 반영하는 제1 영상 데이터를 제1 제어 장치에 제공하고, 제1 현실 위치 정보 및 제2 현실 위치 정보를 반영하는 제2 영상 데이터를 제2 제어 장치에 제공할 수도 있다.Alternatively, there is a main control device that controls the first control device and the second control device, and the main control device receives information about the locations of the first user and the second user from the detecting
가상 환경 체험이 제공되는 사용자 수가 1명 또는 2명으로 한정되는 것은 아니며, 사용자 수는 3명 이상일 수 있고, 그 경우에도 상술한 내용이 동일하게 적용될 수 있음은 물론이다.The number of users provided with the virtual environment experience is not limited to one or two, and the number of users may be three or more, and the above-described content can be equally applied even in that case.
도 6은 본 명세서의 일 실시예에 따른 대상체 추적 방법을 나타내는 도면이다.6 is a diagram illustrating a method for tracking an object according to an embodiment of the present specification.
이하에서는 설명의 편의를 위해 도 6에 도시된 바와 같이 대상체가 착용형 디스플레이 장치(400)인 경우를 중심으로 서술하나, 대상체가 다른 구성인 경우도 마찬가지로 적용될 수 있음은 물론이다.Hereinafter, for convenience of description, a case in which the object is the
대상체에는 마커(M)가 제공될 수 있다. 예를 들어, 적어도 하나 이상의 마커(M)가 대상체의 적어도 일부에 부착되어 대상체를 식별하거나 추적하는 기준을 제공할 수 있다. A marker M may be provided to the subject. For example, at least one marker M may be attached to at least a portion of an object to provide a criterion for identifying or tracking the object.
마커(M)는 상기 발광부(110)로부터 송출된 광 신호를 반사하거나 흡수하는 패시브(passive) 마커 및 자체적으로 광 신호를 송출할 수 있는 액티브(active) 마커 등으로 제공될 수 있다.The marker M may be provided as a passive marker that reflects or absorbs an optical signal transmitted from the
일 예로, 패시브 마커는 광 반사 물질이 부착된 입체 모형, 인식 가능한 코드가 인쇄되어 있는 종이, 반사테이프 등을 포함할 수 있다.For example, the passive marker may include a three-dimensional model to which a light reflective material is attached, paper on which a recognizable code is printed, reflective tape, and the like.
다른 예로, 액티브 마커는 LED 모듈, 전파 발생기 등이 포함할 수 있다.As another example, the active marker may include an LED module, a radio wave generator, and the like.
플레이 공간(PA)에서 복수의 대상체를 추적해야 하는 경우, 각각의 대상체는 식별될 필요가 있으며, 이를 위해 서로 다른 대상체에 서로 다른 패턴으로 마커(M)가 부착될 수 있다.When a plurality of objects are to be tracked in the play space PA, each object needs to be identified. To this end, markers M may be attached to different objects in different patterns.
일 예로, 플레이 공간(PA)에서 위치를 추적하고자 하는 대상체가 착용형 디스플레이 장치(400) 및 입력 장치(500)인 경우, 착용형 디스플레이 장치(400)에는 제1 패턴으로 마커(M)가 제공되고, 입력 장치(500)에는 제2 패턴으로 마커(M)가 제공될 수 있다. 이 때, 제1 패턴 및 제2 패턴은 서로 상이한 패턴으로, 위치 추적 시 제1 패턴이 검출된 경우 대상체를 착용형 디스플레이 장치(400)로 식별할 수 있으며, 제2 패턴이 검출된 경우 대상체를 입력 장치(500)로 식별할 수 있다.For example, when objects whose positions are to be tracked in the play space PA are the
다른 예로, 플레이 공간(PA)에서 검출되는 마커(M)의 패턴이 제1 패턴인 경우 제1 사용자의 제1 착용형 디스플레이 장치로 식별되고, 제2 패턴인 경우 제1 사용자의 제1 입력 장치로 식별되고, 제3 패턴인 경우 제2 사용자의 제2 착용형 디스플레이 장치로 식별될 수 있으며, 제4 패턴인 경우 제2 사용자의 제2 입력 장치로 식별될 수 있다. As another example, if the pattern of the marker M detected in the play space PA is the first pattern, it is identified as the first wearable display device of the first user, and if it is the second pattern, it is identified as the first input device of the first user. In the case of the third pattern, it may be identified as the second wearable display device of the second user, and in the case of the fourth pattern, it may be identified as the second input device of the second user.
이상에서는 복수의 대상체가 제공되는 경우 복수의 각각을 식별하기 위하여 복수의 대상체 각각에 제공되는 마커(M)들이 패턴을 형성하여 제공되는 것으로 설명하였으나, 이에 한정되는 것은 아니며, 하나의 대상체가 제공되는 경우에도 대상체에 제공되는 마커(M)들이 패턴을 형성하여 제공될 수 있다.In the above, when a plurality of objects are provided, it has been described that the markers M provided to each of the plurality of objects are provided in a pattern in order to identify each of the plurality of objects, but it is not limited thereto, and one object is provided Even in this case, the markers M provided to the object may be provided in a pattern.
제어 장치(200)는 디텍팅 장치(100)로부터 획득한 정보에 기초하여 대상체의 위치를 판단할 수 있다. 예를 들어, 디텍팅 장치(100)는 발광부(110) 및 센싱부(120)를 이용하여 마커(M)에 대한 디텍팅 신호를 획득하고, 제어 장치(200)는 디텍팅 장치(100)로부터 디텍팅 신호를 수신하여 마커(M)에 대한 위치 정보를 획득할 수 있다. 도 6을 참조하면, 제어 장치(200)는 세 개의 마커(M)에 대해 제1 내지 제3 마커 위치 정보(MP1-1, MP1-2, MP1-3)를 획득하고, 이에 기초하여 대상체에 대한 대표 위치 정보(RP)을 설정할 수 있다. 제어 장치(200)는 나아가 대표 위치 정보를 해당 대상체의 현실 위치 정보로 획득하고 이에 기초하여 가상 환경에서 대상체에 대응하는 가상 오브젝트롤 표시하는 등의 처리를 수행할 수 있다.The
대상체의 위치 추적 방법이 상술한 방법으로 한정되는 것은 아니며, 필요에 따라 다양한 방식의 위치 추적 방법이 사용될 수 있다.The location tracking method of the object is not limited to the above-described method, and various types of location tracking methods may be used as needed.
가상 환경 제어 시스템(10)을 통해 사용자에게 가상 체험을 제공함에 있어서, 가상 환경에 대한 사용자의 몰입감과 편의성은 매우 중요한 요소이다. 가상 환경 제어 시스템(10)에서 사용자는 수시로 이동하는 경우가 많으며, 특히 직업 훈련과 같이 다양한 움직임이 요구되는 컨텐츠의 경우 가상 환경에서 사용자에게 다양한 기능 구현이 필요함에도 제한적인 입력 수단이나 인터페이스로 인해 충족되지 않는 경우가 발생한다.In providing a virtual experience to a user through the virtual
이러한 입력 수단 또는 인터페이스의 자유도를 증가시키기 위한 방법으로 음성인식 기능이 구비된 가상 환경 제어 시스템이 제안될 수 있다. 예를 들어, 음성인식 기능이 구비된 가상 환경 제어 시스템에서 사용자는 자신의 음성으로 가상 환경 내 다양한 기능을 활용할 수 있고, 이러한 음성인식은 직관적이고 별도의 조작이 필요하지 않은 점에서 사용자의 편의성을 크게 향상시킬 수 있다.As a method for increasing the degree of freedom of the input means or interface, a virtual environment control system equipped with a voice recognition function may be proposed. For example, in a virtual environment control system equipped with a voice recognition function, the user can utilize various functions in the virtual environment with his or her own voice, and such voice recognition is intuitive and does not require a separate operation, which increases user convenience. can be greatly improved.
이하에서는 도 7 내지 도 13을 참조하여 음성인식 기능이 구비된 가상 환경 제어 시스템에 대해서 서술한다. Hereinafter, a virtual environment control system equipped with a voice recognition function will be described with reference to FIGS. 7 to 13 .
도 7은 본 명세서의 일 실시예에 따른 음성인식 기능을 제공하기 위한 제어 장치의 구성들을 나타내는 도면이다.7 is a diagram showing configurations of a control device for providing a voice recognition function according to an embodiment of the present specification.
도 7을 참조하면, 음성인식 기능을 제공하기 위한 제어 장치(200)는 모션 인식부(260), 음성 인식부(270), 및 데이터베이스(280)를 포함할 수 있다. 여기서, 제어 장치(200)는 도 3에서 서술한 구성들을 포함할 수 있음은 물론이다.Referring to FIG. 7 , a
모션 인식부(260)는 사용자의 움직임을 감지할 수 있다. 예를 들어, 모션 인식부(260)는 입력 장치(500)의 센서로부터 획득된 센서값 및 착용형 디스플레이 장치(400)의 센서로부터 획득한 센서값 중 적어도 하나를 이용하여 사용자의 움직임을 검출할 수 있다.The
여기서, 사용자의 움직임은 제스처(gesture) 및/또는 포스처(posture)를 포함하는 일련의 움직임을 의미할 수 있다. 다시 말해, 모션 인식부(260)는 사용자가 어떤 동작을 했는지 여부를 규명하고 해당 동작에 대한 모션 데이터를 제1 제어부(240)에 제공할 수 있다.Here, the user's movement may mean a series of movements including a gesture and/or a posture. In other words, the
모션 인식부(260)는 사용자의 움직임을 감지하는 데에 후술하는 모션 데이터베이스(281)를 활용할 수 있다. 예를 들어, 모션 인식부(260)는 획득한 센서값들과 모션 데이터베이스(281)에 저장된 모션 별 센서값들을 비교하고 가장 유사한 센서값을 가지는 모션을 사용자의 움직임으로 특정하고, 특정된 사용자의 움직임을 모션인식 데이터로 획득할 수 있다. 모션 인식부(260)는 모션인식 데이터를 제1 제어부(240)에 제공할 수 있다.The
음성 인식부(270)는 사용자의 음성을 감지할 수 있다. 예를 들어, 음성 인식부(270)는 착용형 디스플레이 장치(400)로부터 음성 데이터를 획득하여 그 의미를 규명할 수 있다. 구체적으로, 음성 인식부(270)는 후술하는 음성 데이터베이스(282)를 이용하여 착용형 디스플레이 장치(400)로부터 획득한 음성 데이터를 텍스트로 변환하고 용어 데이터베이스(283)를 이용하여 텍스트의 의미를 특정하고 해당 텍스트의 의미를 음성인식 데이터로 획득할 수 있다. 음성 인식부(270)는 음성 데이터에 대응하는 음성인식 데이터를 제1 제어부(240)에 제공할 수 있다.The
데이터베이스(280)는 모션 인식 및/또는 음성 인식을 위한 데이터가 저장될 수 있다. 도 7을 참조하면, 데이터베이스(280)는 모션 인식을 위한 모션 데이터베이스(281), 및 음성 인식을 위한 음성 데이터베이스(282)와 용어 데이터베이스(283)을 포함할 수 있다.The
모션 데이터베이스(281)는 사용자의 움직임에 관한 데이터를 포함할 수 있다. 예를 들어, 모션 데이터베이스(281)는 원 운동, 직선 운동 등 특정 도형을 그리는 움직임, 미리 설정된 시간 동안 수행되는 제스처 및 포스처와 각 움직임이나 제스처 또는 포스처에 대응하는 센서값들을 포함할 수 있다. 나아가 모션 데이터베이스(281)는 한 손으로 수행되는 움직임 뿐만 아니라 양손으로 수행되는 움직임에 대응하는 센서값들을 포함할 수도 있다.The
음성 데이터베이스(282)는 사용자의 음성을 인식하기 위한 데이터를 포함할 수 있다. 예를 들어, 음성 데이터베이스(282)는 자음 및 모음, 형태소, 단어나 문장에 대한 음성 신호, 나아가 언어의 종류에 따른 음성 신호를 포함할 수 있다.The
용어 데이터베이스(283)는 단어나 문장에 대해 그 의미가 라벨링(labeling)된 데이터를 포함할 수 있다. 용어 데이터베이스(283)는 나아가 전문 용어, 암구호, 무전 용어에 대한 데이터를 포함할 수도 있다.The
한편, 데이터베이스(280)는 제어 장치(200)에 포함되지 않고 외부에서 제공될 수도 있다. 예를 들어, 제어 장치(200)는 외부 서버에 위치한 데이터베이스(280)로부터 데이터를 획득하여 모션 인식 또는 음성 인식을 수행할 수 있다.Meanwhile, the
또한, 제어 장치(200)는 모션 인식 또는 음성 인식을 수행함에 있어서 인공 신경망, 나아가 딥러닝(deep-learning) 기법을 이용할 수 있고, 이 때, 데이터베이스(280)는 생략될 수도 있다.In addition, the
이하에서는 도 8 내지 도 10을 참조하여 음성인식 기능이 구비된 가상 환경 제어 시스템이 구현되는 형태에 대해 서술한다.Hereinafter, a form in which a virtual environment control system equipped with a voice recognition function is implemented will be described with reference to FIGS. 8 to 10 .
도 8은 본 명세서의 일 실시예에 따른 가상 환경에서 음성인식 채널을 활성화하는 방법을 나타내는 도면이다. 아래에서 음성인식 기능이 수행되는 과정에 대해 순차적으로 서술한다.8 is a diagram illustrating a method of activating a voice recognition channel in a virtual environment according to an embodiment of the present specification. Below, the process of performing the voice recognition function will be sequentially described.
제어 장치(200)는 사용자의 특정 움직임을 감지할 수 있다. 예를 들어, 제어 장치(200)의 모션 인식부(260)는 입력 장치(500)로부터 사용자가 입력 장치(500)를 조작하는 움직임에 대응하는 모션 데이터를 획득하고, 모션 데이터로부터 사용자의 특정 모션을 지시하는 모션인식 데이터를 획득하여 제1 제어부(240)에 전달할 수 있다.The
제어 장치(200)는 감지된 사용자의 특정 움직임이 음성인식 기능 수행을 위한 음성인식 모션인지 여부를 판단할 수 있다. 예를 들어, 제어 장치(200)는 모션 인식부(260)로부터 획득한 모션인식 데이터가 지시하는 사용자의 특정 움직임이 음성인식 모션인 경우 음성인식 채널을 활성화할 수 있다. 이 때, 제어 장치(200)는 착용형 디스플레이 장치(400)를 통해 음성인식 채널이 형성됨을 지시하는 음성 인식 알림 아이콘(VI), 음성인식 채널이 활성화된 상태임을 알리거나 음성인식 채널의 활성화가 종료되는 시점을 나타내기 위한 채널 시간 알림 아이콘(CI)을 출력할 수 있다. 여기서, 음성인식 알림 아이콘(VI)은 마이크 형상으로 출력될 수 있으며, 채널 시간 알림 아이콘(CI)은 점진적으로 색상이 채워지는 막대 바(bar) 형상으로 출력될 수 있다.The
한편, 음성인식 채널이 활성화되는 경우 사용자에게 제공되는 가상 환경 체험에 따라 사용자는 특정 미션(mission)을 수행하도록 유도될 수 있다. 예를 들어, 도 8을 참조하면 제어 장치(200)는 착용형 디스플레이 장치(400)를 통해 사용자에게 제공하는 이미지 또는 영상에 음성인식 채널 활성화에 대한 표시와 함께 전달 사항들이 포함된 미션 이미지를 함께 출력할 수 있다. 보다 구체적으로, 사용자에게 제공되는 가상 환경 체험이 경찰 직업 훈련에 관한 것이고, 그 중 무전 사용 방법에 관한 것인 경우, 제어 장치(200)는 착용형 디스플레이 장치(400)로 하여금 무전기를 사용하는 이미지 또는 영상을 출력하고, 무전으로 전달해야 하는 사항들이 기재된 리스트(IMG)를 함께 표시할 수 있다.Meanwhile, when the voice recognition channel is activated, the user may be guided to perform a specific mission according to the virtual environment experience provided to the user. For example, referring to FIG. 8 , the
제어 장치(200)는 사용자의 음성을 인식할 수 있다. 예를 들어, 착용형 디스플레이 장치(400)는 음성인식 채널이 활성화된 상태에서 사용자로부터 획득한 음성 데이터를 제어 장치(200)에 제공하고, 제어 장치(200)의 음성 인식부(270)는 획득한 음성 데이터에 대해 음성인식을 수행하여 음성인식 데이터를 획득할 수 있다.The
제어 장치(200)는 음성인식 데이터에 기초하여 착용형 디스플레이 장치(400)에 이미지 또는 영상을 출력할 수 있다. 예를 들어, 제어 장치(200)는 음성인식 데이터에 대응되는 텍스트를 착용형 디스플레이 장치(400)를 통해 출력할 수 있다. 다른 예를 들어, 제어 장치(200)는 음성인식 데이터를 사용자의 제1 착용형 디스플레이 장치에 출력하거나 사용자와 함께 가상 환경 체험을 제공받고 있는 다른 사용자의 제2 착용형 디스플레이 장치에 출력할 수도 있다. 출력되는 음성 데이터는 이미지, 영상 또는 음향 효과 등의 소리로 출력될 수 있다. The
한편, 제어 장치(200)는 필요에 따라 음성인식 데이터에 대한 평가를 수행할 수 있다. 예를 들어, 사용자에게 제공되는 가상 환경 체험이 경찰 직업 훈련이고, 그 중 무전기 사용 훈련인 경우 제어 장치(200)는 음성인식 데이터에 기초하여 사용자가 전달 사항을 정확히 말했는지 여부를 평가할 수 있다. 구체적으로, 제어 장치(200)는 음성인식 데이터에 특정 단어들(ex. 제1 무전 용어, 제2 무전 용어 등)이 포함되어 있는 경우 전달 사항을 바람직하게 말한 것으로 평가할 수 있다. 제어 장치(200)는 상술한 평가에 기초하여 사용자의 가상 환경 체험 종료 후 평가 점수를 제공할 수 있다.Meanwhile, the
도 9 및 도 10은 본 명세서의 일 실시예에 따른 가상 환경에서 음성인식 기능이 제공되는 과정을 나타내는 순서도이다.9 and 10 are flowcharts illustrating a process of providing a voice recognition function in a virtual environment according to an embodiment of the present specification.
도 9 및 도 10을 참조하면, 가상 환경에서 음성인식 기능 제공하는 방법은 사용자 모션을 감지하는 단계(S1100), 모션 데이터베이스(281)에서 매칭되는 모션을 탐색하는 단계(S1200), 사용자 모션의 수행 시간을 측정하는 단계(S1300), 수행 시간에 기초하여 채널 활성화 시간을 설정하는 단계(S1400), 사용자 모션이 음성 인식 기능 수행을 위한 음성인식 모션인지 여부를 판단하는 단계(S1500), 채널 시간 동안 음성 인식 채널을 활성화하는 단계(S1600), 사용자 음성을 감지하는 단계(S1700), 음성 데이터베이스(282)를 이용하여 사용자 음성을 분석하는 단계(S1800), 및 분석 결과에 기초하여 커맨드 실행 및/또는 이미지를 출력하는 단계(S1900)를 포함할 수 있다.9 and 10, a method for providing a voice recognition function in a virtual environment includes detecting user motion (S1100), searching for a matched motion in a motion database 281 (S1200), and performing user motion. Measuring time (S1300), setting a channel activation time based on the execution time (S1400), determining whether the user motion is a voice recognition motion for performing a voice recognition function (S1500), during the channel time Activating a voice recognition channel (S1600), detecting a user's voice (S1700), analyzing a user's voice using the voice database 282 (S1800), and executing a command based on the analysis result and/or It may include outputting an image (S1900).
이하에서 각 단계에 대해서 구체적으로 서술하나, 전술한 내용과 중복되는 내용은 생략하도록 한다.In the following, each step is described in detail, but the overlapping content with the above will be omitted.
제어 장치(200)는 사용자의 모션을 감지할 수 있다(S1100). 제어 장치(200)는 착용형 디스플레이 장치(400) 및/또는 입력 장치(500)로부터 사용자의 모션에 관한 센서값들을 모션 데이터로 획득함으로써 사용자의 모션을 감지할 수 있다. The
제어 장치(200)는 모션 데이터베이스(281)에서 모션 데이터에 대응되는 모션을 탐색할 수 있다(S1200). 제어 장치(200)는 모션 데이터에 대응되는 모션을 모션인식 데이터로 획득할 수 있다.The
제어 장치(200)는 모션 탐색 단계(S1200)와 병렬적으로 사용자 모션의 수행 시간을 측정할 수 있다(S1300). 제어 장치(200)는 모션 데이터에 기초하여 사용자가 모션을 수행한 시간을 측정하여 수행 시간 데이터를 획득할 수 있다. 여기서, 수행 시간은 사용자가 특정 모션을 수행하는 데에 소요된 시간을 나타내는 데이터로 해석될 수 있다.The
제어 장치(200)는 수행 시간에 기초하여 채널 시간을 설정할 수 있다(S1400). 제어 장치(200)는 수행 시간 측정 단계(S1300)에서 획득된 수행 시간 데이터에 기초하여 채널 시간을 설정할 수 있다. 여기서, 채널 시간은 음성인식 채널을 활성화하는 시간을 의미할 수 있다. 채널 시간이 수행 시간에 대응됨으로써, 사용자가 모션을 수행하는 빠르기에 따라 음성인식 채널이 활성화되는 시간이 조절될 수 있다. 채널 시간 설정 단계(S1400)는 모션 탐색 단계(S1200)에 대해 병렬적으로 또는 순차적으로 수행될 수 있다.The
제어 장치(200)는 사용자 모션이 음성 인식 기능 수행을 위한 음성인식 모션인지 여부를 판단할 수 있다(S1500). 제어 장치(200)는 모션 탐색 단계(S1200)에서 획득한 모션인식 데이터가 음성인식 모션을 지시하는지 여부를 판단할 수 있다. 모션인식 데이터가 음성인식 모션을 지시하는 경우 제어 장치(200)는 후술하는 바와 같이 음성 인식 채널을 활성화할 수 있다. 모션인식 데이터가 음성인식 모션을 지시하지 않는 경우 제어 장치(200)는 다시 사용자 모션을 감지하는 상태로 동작할 수 있다.The
제어 장치(200)는 채널 시간 동안 음성인식 채널을 활성화시킬 수 있다(S1600). 제어 장치(200)는 착용형 디스플레이 장치(400)의 음향 센서모듈(432)를 활성화시키거나 별도로 구비된 마이크를 활성화시켜 사용자로부터 음성 신호를 입력 받을 수 있다.The
제어 장치(200)는 사용자 음성을 감지할 수 있다(S2700). 제어 장치(200)는 착용형 디스플레이 장치(400) 또는 별도의 마이크를 통해 사용자의 음성에 대응하는 음성 데이터를 획득할 수 있다.The
제어 장치(200)는 음성 데이터베이스(282)를 이용하여 사용자 음성을 분석할 수 있다(S1800). 제어 장치(200)는 음성 데이터를 음성 데이터베이스(282)를 통해 텍스트로 변환하고, 용어 데이터베이스(283)를 이용하여 변환된 텍스트의 의미를 나타내는 음성인식 데이터를 획득할 수 있다.The
제어 장치(200)는 사용자 음성 분석 결과에 기초하여 커맨드를 실행하거나 이미지를 출력할 수 있다(S1900). 제어 장치(200)는 사용자가 체험하고 있는 가상 환경에서 획득한 음성인식 데이터에 대응되는 기능을 구현할 수 있다. 예를 들어, 음성인식 데이터가 가상 환경 내 특정 NPC(non-player character)를 지시하는 경우 제어 장치(200)는 착용형 디스플레이 장치(400)를 통해 해당 NPC의 정보를 출력할 수 있다. 다른 예를 들어, 복수의 사용자가 함께 가상 환경을 체험하는 경우 제1 사용자에 대한 음성인식 데이터가 제2 사용자를 지시하면 제어 장치(200)는 제1 사용자와 제2 사용자가 가상 환경에서 의사소통할 수 있는 소통 채널을 활성화할 수 있다.The
이상에서는 모션 인식이나 음성 인식 등이 제어 장치(200)에 의해 수행되는 경우를 주로 서술하였으나, 본 명세서의 기술적 사상이 이에 한정되는 것은 아니다. 예를 들어, 제어 장치(200)는 외부 서버에 모션 데이터 및 음성 데이터를 제공하고 외부 서버에서 모션 인식 및/또는 음성 인식이 수행되어 외부 서버가 모션인식 데이터 및/또는 음성인식 데이터를 획득하여 제어 장치(200)에 제공할 수도 있다.In the above, the case where motion recognition or voice recognition is performed by the
한편, 상술한 음성인식 채널의 활성화는 경우에 따라 선택적으로 이루어질 수도 있다. 예를 들어, 사용자에게 제공되는 가상 환경이 경찰 직업 훈련이고 그 중 시위를 통제하거나 대규모 행사에서 질서를 정리하는 경우 가상 환경에는 다수의 경찰 그룹이 포함될 수 있고, 사용자는 그룹별로 의사소통을 수행할 필요가 있다. 이러한 경우, 선택적으로 의사소통을 하기 위한 방법으로 후술하는 바와 같이 모션인식 기능이 이용될 수 있다.Meanwhile, activation of the above-described voice recognition channel may be selectively performed according to circumstances. For example, if the virtual environment provided to the user is police vocational training, of which is to control demonstrations or put order in large-scale events, the virtual environment may contain multiple police groups, and the user may communicate group by group. There is a need. In this case, as a method for selectively communicating, a motion recognition function may be used as described later.
이하에서는 도 11 내지 13을 참조하여 가상 환경에서 모션인식 기능을 활용하여 선택적으로 의사소통 기능을 수행하는 방법에 대해 서술한다.Hereinafter, a method of selectively performing a communication function by utilizing a motion recognition function in a virtual environment will be described with reference to FIGS. 11 to 13 .
도 11 및 도 12는 본 명세서의 일 실시예에 따른 가상 환경에서 선택적 의사소통 기능이 제공되는 방법을 나타내는 도면이다. 이하에서는 설명의 편의를 위해 사용자에게 제공되는 가상 환경 체험이 경찰 직업 훈련에 관한 것이고, 복수의 사용자가 그룹 A와 그룹 B로 나누어진 상태로 함께 가상 환경 체험을 제공받고 있는 것을 전제로 설명한다. 11 and 12 are diagrams illustrating a method of providing a selective communication function in a virtual environment according to an embodiment of the present specification. Hereinafter, for convenience of description, it is assumed that the virtual environment experience provided to the user relates to police job training, and that a plurality of users are divided into groups A and B and are provided with the virtual environment experience together.
도 11을 참조하면, 사용자는 가상 환경 내 그룹 A 및 그룹 B 중 그룹 A와 의사소통할 수 있다. 구체적으로, 사용자는 입력 장치(500)로 원을 그리는 제1 모션을 수행하고, 제어 장치(200)는 사용자의 제1 모션을 감지하여 가상 환경 내에서 그룹 A에 속하는 다른 사용자들에 대한 제1 의사소통 채널을 활성화할 수 있다. 이 경우, 사용자가 착용형 디스플레이 장치(400)의 음향 센서모듈(432)을 통해 전달하는 음성 및/또는 입력 장치(500) 조작을 통해 전달하는 텍스트 등은 그룹 A에 속하는 다른 사용자들에게만 전달될 수 있다.Referring to FIG. 11 , a user may communicate with group A of group A and group B in a virtual environment. Specifically, the user performs a first motion of drawing a circle with the
도 12를 참조하면, 사용자는 가상 환경 내 그룹 A 및 그룹 B 중 그룹 B와 의사소통할 수 있다. 구체적으로, 사용자는 입력 장치(500)로 직선을 그리는 제2 모션을 수행하고, 제어 장치(200)는 사용자의 제2 모션을 감지하여 가상 환경 내에서 그룹 B에 속하는 다른 사용자들에 대한 제2 의사소통 채널을 활성화할 수 있다. 이 경우, 사용자가 착용형 디스플레이 장치(400)의 음향 센서모듈(432)을 통해 전달하는 음성 및/또는 입력 장치(500) 조작을 통해 전달하는 텍스트 등은 그룹 B에 속하는 다른 사용자들에게만 전달될 수 있다.Referring to FIG. 12 , a user may communicate with group B of group A and group B in a virtual environment. Specifically, the user performs a second motion of drawing a straight line with the
도 11 및 도 12에서 제어 장치(200)는 착용형 디스플레이 장치(400)를 통해 사용자와 현재 의사소통 채널이 활성화되어 의사소통이 가능한 대상들이 표시된 이미지 또는 영상을 출력할 수 있다.In FIGS. 11 and 12 , the
이상에서는 서로 다른 두 그룹에 대해 모션인식 기능을 활용하여 선택적으로 의사소통 채널을 활성화하는 방법에 대해서 서술하였으나, 본 명세서의 기술적 사상이 이에 한정되는 것은 아니다. 예를 들어, 사용자는 가상 환경에서 특정 기관(ex. 경찰서, 파출소, 또는 지구대 등)과 사용자 그룹(ex. 경찰관 그룹) 사이에서 선택적으로 의사소통 채널을 활성화하는 경우나, 가상 환경 내 여러 지역 중 특정 지역에 위치한 다른 사용자에 대해 의사소통 채널을 활성화하는 경우에도 상술한 선택적 의사소통 채널 활성화 방법이 적용될 수 있다.In the above, a method of selectively activating a communication channel using a motion recognition function for two different groups has been described, but the technical idea of the present specification is not limited thereto. For example, when a user selectively activates a communication channel between a specific institution (ex. police station, police box, or police station) and a user group (ex. police officer group) in a virtual environment, or among various regions in the virtual environment. The aforementioned selective communication channel activating method can be applied even when a communication channel is activated for another user located in a specific area.
도 13은 본 명세서의 일 실시예에 따른 가상 환경에서 선택적 의사소통 기능이 제공되는 과정을 나타내는 순서도이다.13 is a flowchart illustrating a process of providing a selective communication function in a virtual environment according to an embodiment of the present specification.
도 13을 참조하면, 모션인식 기능을 활용한 선택적 의사소통 기능 제공 방법은 사용자 모션을 감지하는 단계(S2100), 모션 데이터베이스(281)에서 매칭되는 모션을 탐색하는 단계(S2200), 사용자 모션에 대응되는 소통 대상을 선택하는 단계(S2300), 사용자 모션의 수행 시간을 측정하는 단계(S2400), 수행 시간에 기초하여 소통 시간을 설정하는 단계(S2500), 소통 대상에 대해 소통 시간 동안 소통 채널을 활성화하는 단계(S2600), 및 소통 대상, 소통 시간, 및/또는 소통 채널을 출력하는 단계(S2700)를 포함할 수 있다.Referring to FIG. 13, a method for providing a selective communication function using a motion recognition function includes detecting a user's motion (S2100), searching for a matched motion in a motion database 281 (S2200), and responding to the user's motion. Selecting a communication target (S2300), measuring the execution time of the user's motion (S2400), setting a communication time based on the execution time (S2500), activating a communication channel for the communication target during the communication time It may include a step (S2600), and a step (S2700) of outputting a communication subject, a communication time, and/or a communication channel.
이하에서 각 단계에 대해 구체적으로 서술하나 전술한 내용과 중복되는 부분은 생략하도록 한다.In the following, each step is described in detail, but parts overlapping with the above are omitted.
제어 장치(200)는 사용자 모션을 감지할 수 있다(S2100). 제어 장치(200)는 착용형 디스플레이 장치(400) 및/또는 입력 장치(500)로부터 사용자의 모션에 관한 센서값들을 모션 데이터로 획득함으로써 사용자의 모션을 감지할 수 있다.The
제어 장치(200)는 모션 데이터베이스(281)에서 모션 데이터에 대응되는 모션을 탐색할 수 있다(S2200). 제어 장치(200)는 모션 데이터에 대응되는 모션을 모션인식 데이터로 획득할 수 있다.The
제어 장치(200)는 사용자 모션에 대응되는 소통 대상을 선택할 수 있다(S2300). 예를 들어, 제어 장치(200)는 모션 탐색 단계(S2200)에서 획득한 모션인식 데이터가 제1 모션을 나타내는 경우 제1 소통 대상을 선택하고, 모션인식 데이터가 제2 모션을 나타내는 경우 제2 소통 대상을 선택할 수 있다. 여기서, 소통 대상은 개인, 그룹, 특정 기관 및 지역 내 다른 사용자 중 적어도 하나를 포함할 수 있다.The
제어 장치(200)는 사용자 모션의 수행 시간을 측정할 수 있다(S2400). 제어 장치(200)는 모션 데이터에 기초하여 사용자가 모션을 수행한 시간을 측정하여 수행 시간 데이터를 획득할 수 있다. 여기서, 수행 시간은 사용자가 특정 모션을 수행하는 데에 소요된 시간을 나타내는 데이터로 해석될 수 있다. 사용자 모션의 수행 시간을 측정하는 단계(S2400)는 모션 탐색 단계(S2200) 및/또는 소통 대상 선택 단계(S2300)와 병렬적으로 또는 순차적으로 수행될 수 있다.The
제어 장치(200)는 수행 시간에 기초하여 소통 시간을 설정할 수 있다(S2500). 제어 장치(200)는 수행 시간 측정 단계(S2300)에서 획득된 수행 시간 데이터에 기초하여 소통 시간을 설정할 수 있다. 여기서, 소통 시간은 의사소통 채널을 활성화하는 시간을 의미할 수 있다. 소통 시간이 수행 시간에 대응됨으로써, 사용자가 모션을 수행하는 빠르기에 따라 의사소통 채널이 활성화되는 시간이 조절될 수 있다. 소통 시간 설정 단계(S2500)는 모션 탐색 단계(S2200) 및/또는 소통 대상 선택 단계(S2300)와 병렬적으로 또는 순차적으로 수행될 수 있다.The
제어 장치(200)는 소통 대상에 대해 소통 시간 동안 소통 채널을 활성화할 수 있다(S2600). 제어 장치(200)는 이전 단계에서 설정된 소통 대상 및 소통 시간을 기초로 가상 환경 내 소통 대상에 대해 의사소통 채널을 활성화할 수 있다. 이 때, 전술한 음성인식 기능이 수행될 수도 있다. 예를 들어, 제어 장치(200)는 소통 대상에 대해 의사소통 채널을 활성화하되 음성인식 기능도 활성화하여 사용자의 음성을 입력 받아 분석하고 분석결과에 따라 특정 기능을 수행하거나 가상 환경 내 사용자의 행동을 평가하는 데에 이용할 수 있다.The
제어 장치(200)는 소통 대상, 소통 시간, 및/또는 소통 채널을 출력할 수 있다(S2700). 제어 장치(200)는 착용형 디스플레이 장치(400)를 통해 사용자와 소통이 가능한 소통 대상에 대한 이미지나 소통 가능한 시간에 대한 이미지 등을 출력할 수 있다.The
이상에서 실시 형태들에 설명된 특징, 구조, 효과 등은 본 발명의 적어도 하나의 실시 형태에 포함되며, 반드시 하나의 실시 형태에만 한정되는 것은 아니다. 나아가, 각 실시 형태에서 예시된 특징, 구조, 효과 등은 실시 형태들이 속하는 분야의 통상의 지식을 가지는 자에 의해 다른 실시 형태들에 대해서도 조합 또는 변형되어 실시 가능하다. 따라서 이러한 조합과 변형에 관계된 내용들은 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.The features, structures, effects, etc. described in the embodiments above are included in at least one embodiment of the present invention, and are not necessarily limited to only one embodiment. Furthermore, the features, structures, effects, etc. illustrated in each embodiment can be combined or modified with respect to other embodiments by those skilled in the art in the field to which the embodiments belong. Therefore, contents related to these combinations and variations should be construed as being included in the scope of the present invention.
또한, 이상에서 실시 형태를 중심으로 설명하였으나 이는 단지 예시일 뿐 본 발명을 한정하는 것이 아니며, 본 발명이 속하는 분야의 통상의 지식을 가진 자라면 본 실시 형태의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 즉, 실시 형태에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부된 청구 범위에서 규정하는 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.In addition, although the embodiment has been described above, this is only an example and does not limit the present invention, and those skilled in the art to the present invention pertain to the above to the extent that does not deviate from the essential characteristics of the present embodiment. It will be appreciated that various modifications and applications not exemplified are possible. That is, each component specifically shown in the embodiment can be implemented by modifying it. And differences related to these modifications and applications should be construed as being included in the scope of the present invention as defined in the appended claims.
100: 디텍팅 장치 200: 제어 장치
400: 착용형 디스플레이 장치 500: 입력 장치100: detecting device 200: control device
400: wearable display device 500: input device
Claims (12)
플레이 공간에서 사용자의 움직임을 감지하여 상기 사용자에 대한 위치 정보를 획득하는 디텍팅 장치;
상기 사용자에게 착용되어 가상 환경에 대한 영상을 출력하는 착용형 디스플레이 장치;
상기 사용자에게 제공되어 상기 사용자의 동작에 관한 모션 정보를 획득하는 입력 장치; 및
상기 디텍팅 장치로부터 상기 위치 정보를 획득하고, 상기 입력 장치로부터 상기 모션 정보를 획득하며, 상기 위치 정보 및 상기 모션 정보를 이용하여 상기 착용형 디스플레이 장치에 출력되는 상기 영상을 제어하는 제어 장치;를 포함하고,
상기 제어 장치는,
상기 모션 정보를 획득함에 따라, 상기 모션 정보에 기반하여 상기 사용자의 동작의 시작부터 상기 사용자의 동작의 종료까지 소요된 시간과 관련된 수행 시간 데이터를 획득하고,
상기 모션 정보가 미리 설정된 제스처를 지시하는 경우:
상기 수행 시간 데이터에 기반하여 상기 사용자로부터 음성 데이터를 획득하는 음성인식 채널의 활성화 시간에 대한 채널 시간을 결정하고,
상기 가상 환경 내 다른 사용자에게 전달할 정보가 포함된 미션 이미지 및 상기 채널 시간을 나타내기 위한 시각적 객체를 상기 착용형 디스플레이 장치를 통해 출력하고, 및
상기 채널 시간 동안 상기 사용자로부터 상기 음성 데이터를 획득하는,
가상 환경 제어 시스템. In the virtual environment control system,
a detecting device that detects a user's movement in a play space and obtains location information of the user;
a wearable display device that is worn by the user and outputs an image of a virtual environment;
an input device that is provided to the user and obtains motion information related to an action of the user; and
a control device that obtains the location information from the detecting device, obtains the motion information from the input device, and controls the image output to the wearable display device using the location information and the motion information; include,
The control device,
As the motion information is obtained, execution time data related to a time elapsed from the start of the user's motion to the end of the user's motion is obtained based on the motion information;
When the motion information indicates a preset gesture:
Determine a channel time for an activation time of a voice recognition channel for obtaining voice data from the user based on the execution time data;
Outputting a mission image including information to be delivered to other users in the virtual environment and a visual object for indicating the channel time through the wearable display device, and
obtaining the voice data from the user during the channel time;
Virtual environment control system.
상기 채널 시간은 상기 사용자의 동작에 소요되는 시간에 비례하여 설정되는,
가상 환경 제어 시스템.According to claim 1,
The channel time is set in proportion to the time required for the user's operation,
Virtual environment control system.
상기 제어 장치는,
상기 모션 정보가 상기 미리 설정된 제스처를 지시하는 경우, 상기 착용형 디스플레이 장치를 이용하여 음성인식 채널의 활성화를 반영하는 영상을 상기 채널 시간 동안 출력하는,
가상 환경 제어 시스템.According to claim 1,
The control device,
When the motion information indicates the preset gesture, outputting an image reflecting activation of a voice recognition channel during the channel time using the wearable display device,
Virtual environment control system.
상기 제어 장치는,
상기 모션 정보가 상기 미리 설정된 제스처를 지시하는 경우, 상기 착용형 디스플레이 장치를 이용하여 상기 음성인식 채널의 활성화가 종료되기까지 남은 시간을 나타내는 영상을 출력하는,
가상 환경 제어 시스템.According to claim 3,
The control device,
When the motion information indicates the preset gesture, outputting an image representing a time remaining until activation of the voice recognition channel ends using the wearable display device,
Virtual environment control system.
상기 제어 장치는,
음성 인식부를 포함하고,
상기 음성 인식부를 이용하여 상기 음성 데이터를 기초로 상기 사용자가 미리 설정된 단어를 말했는지 여부를 판단하고, 상기 미리 설정된 단어는 상기 미션 이미지에 기반하며;
상기 판단한 결과를 상기 착용형 디스플레이 장치를 통해 출력하는,
가상 환경 제어 시스템. According to claim 1,
The control device,
Including a voice recognition unit,
determining whether the user speaks a preset word based on the voice data by using the voice recognition unit, and the preset word is based on the mission image;
Outputting the determined result through the wearable display device,
Virtual environment control system.
플레이 공간에서 제1 사용자의 움직임, 제2 사용자의 움직임, 및 제3 사용자의 움직임을 감지하여 상기 제1 사용자에 대한 제1 위치 정보, 상기 제2 사용자에 대한 제2 위치 정보, 및 상기 제3 사용자에 대한 제3 위치 정보를 획득하는 디텍팅 장치;
상기 제1 사용자에게 착용되어 가상 환경에 대한 제1 영상을 출력하는 제1 착용형 디스플레이 장치;
상기 제2 사용자에게 착용되어 가상 환경에 대한 제2 영상을 출력하는 제2 착용형 디스플레이 장치;
상기 제3 사용자에게 착용되어 가상 환경에 대한 제3 영상을 출력하는 제3 착용형 디스플레이 장치;
상기 제1 사용자에게 제공되어 상기 제1 사용자의 동작에 관한 제1 모션 정보를 획득하는 제1 입력 장치;
상기 디텍팅 장치로부터 상기 제1 내지 제3 위치 정보를 획득하고, 상기 제1 내지 제3 위치 정보를 이용하여 상기 제1 착용형 디스플레이 장치에 출력되는 상기 제1 영상을 제어하는 제1 제어 장치;
상기 디텍팅 장치로부터 상기 제1 내지 제3 위치 정보를 획득하고, 상기 제1 내지 제3 위치 정보를 이용하여 상기 제2 착용형 디스플레이 장치에 출력되는 상기 제2 영상을 제어하는 제2 제어 장치; 및
상기 디텍팅 장치로부터 상기 제1 내지 제3 위치 정보를 획득하고, 상기 제1 내지 제3 위치 정보를 이용하여 상기 제3 착용형 디스플레이 장치에 출력되는 상기 제3 영상을 제어하는 제3 제어 장치;를 포함하고,
상기 제1 제어 장치는,
상기 제1 모션 정보를 획득함에 따라, 상기 제1 모션 정보에 기반하여 상기 제1 사용자의 동작의 시작부터 상기 제1 사용자의 동작의 종료까지 소요된 시간과 관련된 수행 시간 데이터를 획득하고,
상기 제1 모션 정보가 제1 제스처 및 제2 제스처를 포함하는 미리 설정된 제스처를 지시하는 경우:
상기 수행 시간 데이터에 기반하여 상기 제1 사용자로부터 제1 음성 데이터를 획득하는 제1 음성인식 채널의 활성화 시간에 대한 채널 시간을 결정하고,
상기 제2 사용자 또는 제3 사용자 중 적어도 한 사용자에게 전달할 정보가 포함된 미션 이미지 및 상기 채널 시간을 나타내기 위한 시각적 객체를 상기 제1 착용형 디스플레이 장치를 통해 출력하고,
상기 채널 시간 동안 상기 제1 사용자로부터 제1 음성 데이터를 획득하고, 상기 제1 음성 데이터는 상기 제1 착용형 디스플레이 장치가 상기 제1 사용자로부터 획득한 제1 음성 신호에 기반하며,
상기 제1 모션 정보가 제1 제스처를 지시하는 경우, 상기 제2 제어 장치에 상기 제1 음성 데이터를 제공하고, 및
상기 제1 모션 정보가 제2 제스처를 지시하는 경우 상기 제3 제어 장치에 상기 제1 음성 데이터를 제공하는,
가상 환경 제어 시스템.In the virtual environment control system,
The first location information for the first user, the second location information for the second user, and the third location information for the first user are obtained by detecting the movement of the first user, the movement of the second user, and the movement of the third user in the play space. a detecting device that obtains third location information about a user;
a first wearable display device worn by the first user to output a first image of a virtual environment;
a second wearable display device worn by the second user to output a second image of a virtual environment;
a third wearable display device worn by the third user to output a third image of a virtual environment;
a first input device that is provided to the first user and obtains first motion information related to a motion of the first user;
a first control device that obtains the first to third location information from the detecting device and controls the first image output to the first wearable display device using the first to third location information;
a second control device that obtains the first to third location information from the detecting device and controls the second image output to the second wearable display device using the first to third location information; and
a third control device that obtains the first to third location information from the detecting device and controls the third image output to the third wearable display device using the first to third location information; including,
The first control device,
As the first motion information is obtained, execution time data related to a time elapsed from the start of the first user's motion to the end of the first user's motion is obtained based on the first motion information;
When the first motion information indicates a preset gesture including a first gesture and a second gesture:
Determine a channel time for an activation time of a first voice recognition channel for acquiring first voice data from the first user based on the execution time data;
Outputting a mission image including information to be delivered to at least one of the second user or the third user and a visual object for indicating the channel time through the first wearable display device;
Obtaining first voice data from the first user during the channel time, the first voice data being based on a first voice signal obtained from the first user by the first wearable display device;
providing the first voice data to the second control device when the first motion information indicates a first gesture; and
providing the first voice data to the third control device when the first motion information indicates a second gesture;
Virtual environment control system.
상기 제2 제어 장치는 상기 제1 제어 장치로부터 상기 제1 음성 데이터를 수신하는 경우 상기 제2 착용형 디스플레이 장치를 통해 상기 제1 음성 데이터에 대응되는 음향을 출력하고,
상기 제3 제어 장치는 상기 제1 제어 장치로부터 상기 제1 음성 데이터를 수신하는 경우 상기 제3 착용형 디스플레이 장치를 통해 상기 제1 음성 데이터에 대응되는 음향을 출력하는,
가상 환경 제어 시스템.According to claim 6,
When receiving the first voice data from the first control device, the second control device outputs a sound corresponding to the first voice data through the second wearable display device;
The third control device outputs a sound corresponding to the first voice data through the third wearable display device when receiving the first voice data from the first control device.
Virtual environment control system.
상기 제2 제어 장치는 상기 제1 제어 장치로부터 상기 제1 음성 데이터를 수신하는 경우 상기 제2 착용형 디스플레이 장치를 통해 상기 제1 음성 데이터에 대응되는 이미지가 포함된 상기 제2 영상을 출력하고,
상기 제3 제어 장치는 상기 제1 제어 장치로부터 상기 제1 음성 데이터를 수신하는 경우 상기 제3 착용형 디스플레이 장치를 통해 상기 제1 음성 데이터에 대응되는 이미지가 포함된 상기 제3 영상을 출력하는,
가상 환경 제어 시스템.According to claim 6,
When receiving the first audio data from the first control device, the second control device outputs the second image including an image corresponding to the first audio data through the second wearable display device;
When receiving the first audio data from the first control device, the third control device outputs the third image including an image corresponding to the first audio data through the third wearable display device.
Virtual environment control system.
상기 제2 제어 장치가 상기 제1 제어 장치로부터 상기 제1 음성 데이터를 수신하는 경우, 상기 제2 착용형 디스플레이 장치는 상기 제2 사용자로부터 제2 음성 신호를 획득하여 상기 제2 제어 장치에 제공하고, 상기 제2 제어 장치는 상기 제2 음성 신호에 기초하여 제2 음성 데이터를 획득하고,
상기 제2 제어 장치는 상기 제1 제어 장치에 상기 제2 음성 데이터를 제공하는,
가상 환경 제어 시스템.According to claim 6,
When the second control device receives the first audio data from the first control device, the second wearable display device acquires a second audio signal from the second user and provides it to the second control device, , the second control device acquires second voice data based on the second voice signal;
wherein the second control device provides the second voice data to the first control device;
Virtual environment control system.
상기 제1 제어 장치는 상기 제1 모션 정보가 제3 제스처를 지시하는 경우 상기 제2 제어 장치 및 상기 제3 제어 장치에 상기 제1 음성 데이터를 제공하는,
가상 환경 제어 시스템.According to claim 6,
wherein the first control device provides the first voice data to the second control device and the third control device when the first motion information indicates a third gesture;
Virtual environment control system.
상기 제1 제어 장치는 상기 제1 모션 정보가 상기 제1 제스처 또는 상기 제2 제스처인 경우, 상기 제1 착용형 디스플레이 장치의 음향 센서 모듈을 활성화시켜 상기 제1 사용자로부터 상기 제1 음성 신호를 입력 받는,
가상 환경 제어 시스템.According to claim 6,
When the first motion information is the first gesture or the second gesture, the first control device activates a sound sensor module of the first wearable display device to input the first voice signal from the first user. subject,
Virtual environment control system.
상기 제1 제어 장치, 상기 제2 제어 장치, 및 상기 제3 제어 장치와 데이터 통신하는 메인 제어 장치;를 더 포함하고,
상기 제1 제어 장치는 상기 제1 음성 데이터를 상기 메인 제어 장치를 통해 상기 제2 제어 장치 또는 상기 제3 제어 장치에 제공하는,
가상 환경 제어 시스템.According to claim 6,
A main control device that communicates data with the first control device, the second control device, and the third control device; further comprising,
The first control device provides the first voice data to the second control device or the third control device through the main control device.
Virtual environment control system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210171159A KR102477531B1 (en) | 2021-12-02 | 2021-12-02 | Virtual reality control system with voice recognition facility |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210171159A KR102477531B1 (en) | 2021-12-02 | 2021-12-02 | Virtual reality control system with voice recognition facility |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102477531B1 true KR102477531B1 (en) | 2022-12-14 |
Family
ID=84438641
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210171159A KR102477531B1 (en) | 2021-12-02 | 2021-12-02 | Virtual reality control system with voice recognition facility |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102477531B1 (en) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005100420A (en) * | 2003-09-25 | 2005-04-14 | Microsoft Corp | Visual instruction of current voice speaker |
KR101349769B1 (en) * | 2013-06-14 | 2014-01-09 | 주식회사 비투맥스 | Video service system using recognition of speech and motion |
KR20190078472A (en) * | 2017-12-26 | 2019-07-04 | (주)스코넥엔터테인먼트 | Virtual Reality Control System |
US20190344185A1 (en) * | 2009-03-18 | 2019-11-14 | Inxile Entertainment, Inc. | Virtual environment controls based on voice chat audio inputs |
KR20200056760A (en) * | 2018-11-15 | 2020-05-25 | 손진호 | System for evaluating educators and improving the educational achievement of the trainees using artificial intelligence and method thereof |
KR20200091258A (en) * | 2019-01-22 | 2020-07-30 | (주)스코넥엔터테인먼트 | Virtual reality control system |
KR102165590B1 (en) * | 2019-11-15 | 2020-10-14 | 가천대학교 산학협력단 | Social Virtual Reality System for the Treatment of Mild Cognitive Impairment and Social Virtual Reality Providing Method |
KR20210014558A (en) * | 2019-07-30 | 2021-02-09 | 일렉트로닉 아트 아이엔씨. | Contextually aware communications system in video games |
-
2021
- 2021-12-02 KR KR1020210171159A patent/KR102477531B1/en active IP Right Grant
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005100420A (en) * | 2003-09-25 | 2005-04-14 | Microsoft Corp | Visual instruction of current voice speaker |
US20190344185A1 (en) * | 2009-03-18 | 2019-11-14 | Inxile Entertainment, Inc. | Virtual environment controls based on voice chat audio inputs |
KR101349769B1 (en) * | 2013-06-14 | 2014-01-09 | 주식회사 비투맥스 | Video service system using recognition of speech and motion |
KR20190078472A (en) * | 2017-12-26 | 2019-07-04 | (주)스코넥엔터테인먼트 | Virtual Reality Control System |
KR20200056760A (en) * | 2018-11-15 | 2020-05-25 | 손진호 | System for evaluating educators and improving the educational achievement of the trainees using artificial intelligence and method thereof |
KR20200091258A (en) * | 2019-01-22 | 2020-07-30 | (주)스코넥엔터테인먼트 | Virtual reality control system |
KR20210014558A (en) * | 2019-07-30 | 2021-02-09 | 일렉트로닉 아트 아이엔씨. | Contextually aware communications system in video games |
KR102165590B1 (en) * | 2019-11-15 | 2020-10-14 | 가천대학교 산학협력단 | Social Virtual Reality System for the Treatment of Mild Cognitive Impairment and Social Virtual Reality Providing Method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103079661B (en) | Maintain for augmented reality role and embody the method for the cognition of observer | |
AU2017203641B2 (en) | Interactive virtual reality platforms | |
US10241566B2 (en) | Sensory feedback systems and methods for guiding users in virtual reality environments | |
US20180348882A1 (en) | Remote Control With 3D Pointing And Gesture Recognition Capabilities | |
US20210166491A1 (en) | Dynamic Integration of a Virtual Environment with a Physical Environment | |
CN103309608A (en) | Visual feedback for highlight-driven gesture user interfaces | |
EP3364272A1 (en) | Automatic localized haptics generation system | |
CN108475120A (en) | The method and mixed reality system of object motion tracking are carried out with the remote equipment of mixed reality system | |
KR20180041890A (en) | Method and apparatus for displaying virtual objects | |
US11755111B2 (en) | Spatially aware computing hub and environment | |
JP2018072992A (en) | Information processing method and equipment and program making computer execute the information processing method | |
US20170087455A1 (en) | Filtering controller input mode | |
CN102902352A (en) | Motion-based control of a controlled device | |
KR102477531B1 (en) | Virtual reality control system with voice recognition facility | |
KR102237608B1 (en) | Virtual reality control system | |
Hsieh et al. | Developing hand-worn input and haptic support for real-world target finding | |
KR20170038461A (en) | Emotional robot system using a smart device and the method for controlling operation modes | |
JP2005078310A (en) | Tactile presentation device, tactile presentation method and program thereof | |
Loviscach | Playing with all senses: Human–Computer interface devices for games | |
KR102594054B1 (en) | Virtual Reality Control System and Method of controlling thereof | |
Bouguila et al. | Active walking interface for human-scale virtual environment | |
JP2001134362A (en) | Doll type interface virtual space walking through system | |
CN112717411B (en) | Track recording method, device, equipment and storage medium of virtual vehicle | |
US20220362631A1 (en) | Virtual tastings and guided tours for augmented reality experiences | |
CN113220110A (en) | Display system and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |