KR20220108851A - Method of providing virtual reality for learning based on voice recognition - Google Patents

Method of providing virtual reality for learning based on voice recognition Download PDF

Info

Publication number
KR20220108851A
KR20220108851A KR1020210011400A KR20210011400A KR20220108851A KR 20220108851 A KR20220108851 A KR 20220108851A KR 1020210011400 A KR1020210011400 A KR 1020210011400A KR 20210011400 A KR20210011400 A KR 20210011400A KR 20220108851 A KR20220108851 A KR 20220108851A
Authority
KR
South Korea
Prior art keywords
information
hmd
voice
virtual reality
sound
Prior art date
Application number
KR1020210011400A
Other languages
Korean (ko)
Other versions
KR102500457B1 (en
Inventor
이창배
황효현
Original Assignee
주식회사 시온네트웍
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 시온네트웍 filed Critical 주식회사 시온네트웍
Priority to KR1020210011400A priority Critical patent/KR102500457B1/en
Publication of KR20220108851A publication Critical patent/KR20220108851A/en
Application granted granted Critical
Publication of KR102500457B1 publication Critical patent/KR102500457B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/367Ontology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities
    • G06F40/151Transformation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • G09B5/065Combinations of audio and video presentations, e.g. videotapes, videodiscs, television systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Optics & Photonics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Acoustics & Sound (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Disclosed is a voice recognition-based virtual reality learning providing method. The voice recognition-based virtual reality learning providing method according to the present invention, for recognizing a user's voice and interacting with a virtual reality character, comprises the steps of: displaying situation information on a display unit of an HMD; when voice information is input, allowing a voice analysis unit of the HMD to determine whether the input voice information is matched with situation information prepared in advance in a situation information storage unit of the HMD, and when the voice information matched with the situation information is input, providing an interaction gesture and interaction sound of a character through the display unit and a speaker unit of the HMD; when sound information not matched with the situation information is input, allowing the sound information analysis unit of the HMD to divide the sound information into predetermined time intervals, compare the divided sound information with sound information of an ontology-based word database unit and extract one or more keyword information; and allowing a phrase information generation unit of the HMD to convert the extracted one or more keywords into word information, sentence information, or syntax information and then determine whether the converted information is matched with situation information previously prepared in the situation information storage unit. Learning consistency can be provided.

Description

음성인식 기반 가상현실 학습제공 방법{METHOD OF PROVIDING VIRTUAL REALITY FOR LEARNING BASED ON VOICE RECOGNITION}Method of providing virtual reality learning based on voice recognition

본 발명은 가상현실 학습제공 방법에 관한 것으로 보다 상세하게는 음성인식 기반 가상현실 학습제공 방법에 대한 것이다. The present invention relates to a method of providing virtual reality learning, and more particularly, to a method of providing virtual reality learning based on voice recognition.

가상현실제공과 관련한 HMD(Head Mounted Display)장치는 360°의 3차원 영상을 재생할 수 있는 단말 장치가 내부에 설치되는 형태로 마련된다. 사용자가 HMD 장치를 머리에 장착한 다음, 단말 장치를 구동시키면, 단말 장치의 화면에서 3차원 영상, 즉 가상현실 콘텐츠가 재생된다. HMD 장치는 자이로(Gyro) 센서 등 각종 센서가 구비되어 있고, 이러한 센서를 기초로 사용자의 움직임에 대응되는 3차원 영상을 제공한다. The HMD (Head Mounted Display) device related to the provision of virtual reality is provided in a form in which a terminal device capable of reproducing a 360° 3D image is installed therein. When the user mounts the HMD device on the head and then drives the terminal device, a 3D image, that is, virtual reality content, is played on the screen of the terminal device. The HMD device is equipped with various sensors, such as a gyro sensor, and provides a 3D image corresponding to a user's movement based on these sensors.

실제 산업현장은 실기술을 학습할 수 있는 가장 좋은 공간이지만, 위험하거나 또는 잘못된 동작으로 인한 피해가 발생할 수 있다. 가상현실을 통한 실기술 제공의 경우 위험성과 피해를 낮추고 효율적인 학습을 할 수 있도록 실제와 유사한 환경을 제공할 수 있으므로 이를 활용하고자 하는 노력이 지속되고 있으며 특히, HMD장치를 활용한 가상현실 체험은 전적으로 가상환경과 가상의 공간을 구성하여 사용자에게 제공함으로써 물리적 제약을 최소화하고 다양한 체험을 할 수 있도록 한다.A real industrial site is the best place to learn practical skills, but damage can occur due to dangerous or incorrect operation. In the case of providing real technology through virtual reality, it is possible to reduce risks and damage and provide an environment similar to the real one for efficient learning, so efforts are being made to utilize it. By composing a virtual environment and virtual space and providing it to users, it minimizes physical restrictions and enables a variety of experiences.

HMD를 착용한 상태에서 HMD의 외부에 장착된 카메라 등을 통해 수집된 외부환경이 사용자에게 디스플레이될 수 있으나, 현실감을 높이기 위해서는 외부환경과 단절되도록 할 필요가 있다. 이러한 차단목적으로 인해 사용자가 전적으로 가상현실의 UI에 의존하여 학습을 진행하게 되므로 능동적인 학습보다는 다소 수동적인 학습으로 진행될 수 있다.While the HMD is worn, the external environment collected through a camera mounted on the outside of the HMD may be displayed to the user. Because of this blocking purpose, the user completely depends on the UI of the virtual reality for learning, so it may be a rather passive learning rather than an active learning.

특히, 실기술 각 단계마다 대상이 되는 객체를 조작하거나 또는 객체에 대하여 음성메세지를 전달할 필요가 있는 경우 학습조력자가 이를 파악하고 실기술 학습을 진행하는 학생에게 매번 객체 조작 또는 음성입력을 지시하는 것은 현장감을 저해할 뿐만 아니라 매우 번거로운 절차가 되므로 효율적인 교육이 이루어지기 어렵다.In particular, when it is necessary to manipulate the target object at each stage of the actual technology or to deliver a voice message to the object, the learning assistant understands this and instructs the student to manipulate the object or input the voice each time to proceed with the practical technology learning. Not only does it impair the sense of presence, but it also becomes a very cumbersome procedure, making it difficult to provide effective education.

특정 실기술 실습 중 간호 실기술을 예로 들면, 간호 실기술에서 가장 중요한 학습 내용 중 하나는 시뮬레이션 환경에서 환자로 설정된 객체와 커뮤니케이션하는 부분의 학습이다. 종래 가상현실을 이용한 실기술 학습방법은 환자와 소통하는 UI를 제공하지 되지 않아 원활한 케어를 학습하거나 평가하기 어려운 문제점이 존재하였다.Taking nursing practice technology as an example among specific practical skills practice, one of the most important learning contents in nursing practice technology is the learning of communication with an object set as a patient in a simulation environment. The conventional practical technology learning method using virtual reality does not provide a UI to communicate with the patient, so there is a problem in that it is difficult to learn or evaluate smooth care.

본 발명의 실시예에 따른 음성인식 기반 가상현실 학습제공 방법은 특수 목적의 학습을 위해 가상환경에서 제3 캐릭터와의 음성기반 인터렉션 환경을 제공하는 것을 목적으로 한다. A voice recognition-based virtual reality learning providing method according to an embodiment of the present invention aims to provide a voice-based interaction environment with a third character in a virtual environment for special purpose learning.

본 발명의 다른 실시예에 따른 음성인식 기반 가상현실 학습제공 방법은 특정 언어 특성에 따른 인식률 향상이 가능하도록 하여 효과적인 제3 캐릭터와의 효과적인 인터렉션이 이루어지도록 하는 것을 목적으로 한다. An object of the voice recognition-based virtual reality learning providing method according to another embodiment of the present invention is to enable effective interaction with a third character by enabling improvement of a recognition rate according to specific language characteristics.

본 발명의 또다른 실시예에 따른 음성인식 기반 가상현실 학습제공 방법은 주변의 소음 또는 제3 자로부터 제공되는 음성을 필터링하여 잘못된 인터렉션 정보의 입력이 차단되는 가상환경을 제공하는 것을 목적으로 한다. A voice recognition-based virtual reality learning providing method according to another embodiment of the present invention aims to provide a virtual environment in which input of erroneous interaction information is blocked by filtering surrounding noise or voice provided from a third party.

본 발명의 또다른 실시예에 따른 음성인식 기반 가상현실 학습제공 방법은 학습이 이루어지는 환경에서 발생할 수 있는 다양한 소음을 랜덤으로 발생하여 실제 실기술이 이루어지는 장소와 유사한 환경을 제공하되 제공되는 소음이 실기술 학습에 필요한 인터렉션에 영향을 미치지 않도록 제공하는 것을 목적으로 한다. A voice recognition-based virtual reality learning providing method according to another embodiment of the present invention provides an environment similar to a place where actual technology is performed by randomly generating various noises that may occur in an environment in which learning is performed, but the provided noise is not real. It aims to provide without affecting the interaction required for skill learning.

본 발명의 목적은 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 본 발명이 속하는 기술 분야의 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Objects of the present invention are not limited to those mentioned above, and other objects not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the following description.

상기 기술적 과제를 해결하기 위한 본 발명의 일양상에 따른 사용자의 음성을 인식하여 가상현실의 캐릭터와 인터렉션하기 위한 음성인식 기반 가상현실 학습제공 방법은, HMD의 디스플레이부에 상황정보를 디스플레이하는 단계; 음성정보의 입력이 있는 경우, 상기 HMD의 음성분석부가 상기 HMD의 상황정보저장부에 미리 준비된 상황정보와 매칭되는지 여부를 판정하고 상기 상황정보에 매칭되는 음성정보의 입력이 있는 경우, 상기 디스플레이부와 상기 HMD의 스피커부를 통해 상기 캐릭터의 인터렉션 제스쳐 및 인터렉션 음향을 제공하는 단계; 상기 상황정보에 매칭되지 않는 음향정보의 입력이 있는 경우, 상기 HMD의 음향정보분석부가 상기 음향정보를 소정의 시간간격으로 분할하고, 상기 분할된 음향정보를 온톨로지 기반 단어데이터베이스부의 음향정보와 비교하여 하나 이상의 키워드 정보를 추출하는 단계; 상기 HMD의 문구정보생성부가 상기 추출된 하나 이상의 키워드를 사용하여 단어정보, 문장정보 또는 구문정보로 변환한 후 상기 상황정보저장부에 미리 준비된 상황정보와 매칭되는지 여부를 판정하는 단계;를 포함한다.A voice recognition-based virtual reality learning providing method for recognizing a user's voice and interacting with a virtual reality character according to an aspect of the present invention for solving the above technical problem, the method comprising: displaying situation information on a display unit of an HMD; When there is input of voice information, the voice analysis unit of the HMD determines whether or not it matches the context information prepared in advance in the context information storage unit of the HMD, and when there is input of voice information matching the context information, the display unit and providing an interaction gesture and an interaction sound of the character through a speaker unit of the HMD; When there is input of sound information that does not match the context information, the sound information analysis unit of the HMD divides the sound information at predetermined time intervals, and compares the divided sound information with the sound information of the ontology-based word database unit. extracting one or more keyword information; and determining whether the phrase information generating unit of the HMD uses the extracted one or more keywords to convert it into word information, sentence information, or syntax information, and then determines whether it matches the context information prepared in advance in the context information storage unit; .

여기서, 상기 소정의 시간간격은 상기 미리 준비된 상황정보에 포함된 단어, 구문 또는 문장이 출력되는데 소요되는 각각의 시간간격을 기초로 산정되어 상기 음향정보를 분할하는데 사용될 수 있다. Here, the predetermined time interval may be calculated based on each time interval required to output a word, phrase, or sentence included in the previously prepared context information, and may be used to divide the sound information.

여기서, 상기 상황정보를 디스플레이하는 단계;는 상기 상황정보에 포함되는 제3 캐릭터를 디스플레이하는 단계;를 더 포함할 수 있다. Here, the displaying of the context information may further include displaying a third character included in the context information.

여기서, 상기 제3 캐릭터를 디스플레이하는 단계;는 상기 HMD의 스피커부를 통하여 상기 제3 캐릭터가 배치된 임의의 공간으로부터 발생하는 임의의 음향정보를 출력하는 단계;를 더 포함할 수 있다. Here, the displaying of the third character may further include outputting arbitrary sound information generated from an arbitrary space in which the third character is disposed through a speaker unit of the HMD.

여기서, 상기 임의의 음향정보는 상기 음향정보분석부로부터 인식될 수 있는 소정 영역의 주파수에 해당하는 필터링음향정보를 포함할 수 있다.Here, the arbitrary sound information may include filtering sound information corresponding to a frequency of a predetermined region that can be recognized by the sound information analysis unit.

여기서, 상기 온톨로지 기반 단어데이터베이스부의 음향정보와 비교하여 하나 이상의 키워드 정보를 추출하는 단계;는 상기 추출된 하나 이상의 키워드 정보를 상기 온톨로지 기반 단어데이터베이스부에 저장하는 단계;를 더 포함할 수 있다.Here, the step of extracting one or more keyword information by comparing it with the sound information of the ontology-based word database unit; storing the extracted one or more keyword information in the ontology-based word database unit; may further include.

여기서, 상기 음향정보분석부는 적어도 하나 이상의 언어를 미리 선정하도록 구비될 수 있다.Here, the sound information analysis unit may be provided to select at least one language in advance.

여기서, 상기 상황정보를 디스플레이하는 단계;는 상기 언어를 미리 선정하기 위한 언어선택 유저인터페이스를 디스플레이하는 단계;를 더 포함할 수 있다.Here, the displaying of the context information may further include displaying a language selection user interface for selecting the language in advance.

여기서, 상기 상황정보를 디스플레이하는 단계;는 상기 HMD에 구비된 자이로센서로부터 수신된 사용자의 시선방향이 상기 캐릭터가 위치한 임의의 가상공간 영역을 지향하는 경우인지 판정하는 단계;를 더 포함할 수 있다.Here, the displaying of the context information may further include determining whether the user's gaze direction received from the gyro sensor provided in the HMD is directed toward an arbitrary virtual space area in which the character is located. .

본 발명의 다른 양상에 따르면, 사용자의 음성을 인식하여 가상현실의 캐릭터와 인터렉션하기 위한 음성인식 기반 가상현실 학습제공 방법으로써, HMD의 디스플레이부에 상황정보를 디스플레이하는 단계; 음성정보의 입력이 있는 경우, 상기 HMD의 음성분석부가 상기 HMD의 상황정보저장부에 미리 준비된 상황정보와 매칭되는지 여부를 판정하고 상기 상황정보에 매칭되는 음성정보의 입력이 있는 경우, 상기 디스플레이부와 상기 HMD의 스피커부를 통해 상기 캐릭터의 인터렉션 제스쳐 및 인터렉션 음향을 제공하는 단계; 상기 상황정보에 매칭되지 않는 음향정보의 입력이 있는 경우, 상기 HMD의 음향정보분석부가 상기 음향정보를 소정의 시간간격으로 분할하고, 상기 분할된 음향정보를 온톨로지 기반 단어데이터베이스부의 음향정보와 비교하여 하나 이상의 키워드 정보를 추출하는 단계; 상기 HMD의 문구정보생성부가 상기 추출된 하나 이상의 키워드를 사용하여 단어정보, 문장정보 또는 구문정보로 변환한 후 상기 상황정보저장부에 미리 준비된 상황정보와 매칭되는지 여부를 판정하는 단계;를 수행하기 위한 프로그램이 저장된 저장매체가 제공된다.According to another aspect of the present invention, there is provided a voice recognition-based virtual reality learning providing method for recognizing a user's voice and interacting with a virtual reality character, the method comprising: displaying situation information on a display unit of an HMD; When there is input of voice information, the voice analysis unit of the HMD determines whether or not it matches the context information prepared in advance in the context information storage unit of the HMD, and when there is input of voice information matching the context information, the display unit and providing an interaction gesture and an interaction sound of the character through a speaker unit of the HMD; When there is input of sound information that does not match the context information, the sound information analysis unit of the HMD divides the sound information at predetermined time intervals, and compares the divided sound information with the sound information of the ontology-based word database unit. extracting one or more keyword information; Performing a step of converting the phrase information generating unit of the HMD into word information, sentence information or phrase information using the extracted one or more keywords and determining whether the situation information matches the situation information prepared in advance in the context information storage unit; A storage medium in which a program is stored is provided.

본 발명의 실시예에 따른 음성인식 기반 가상현실 학습제공 방법은 특수 목적의 학습을 위해 가상환경에서 제3 캐릭터와의 음성기반 인터렉션 환경을 제공함으로써 학습일관도를 제공할 수 있다.The voice recognition-based virtual reality learning providing method according to an embodiment of the present invention can provide learning consistency by providing a voice-based interaction environment with a third character in a virtual environment for special-purpose learning.

본 발명의 다른 실시예에 따른 음성인식 기반 가상현실 학습제공 방법은 특정 언어 특성에 따른 인식률 향상이 가능하도록 하여 효과적인 제3 캐릭터와의 효과적인 인터렉션이 이루어지도록 할 수 있다.The voice recognition-based virtual reality learning providing method according to another embodiment of the present invention can improve the recognition rate according to specific language characteristics so that effective interaction with the third character can be made.

본 발명의 또다른 실시예에 따른 음성인식 기반 가상현실 학습제공 방법은 주변의 소음 또는 제3 자로부터 제공되는 음성을 필터링하여 잘못된 인터렉션 정보의 입력이 차단되는 가상환경을 제공할 수 있다.The voice recognition-based virtual reality learning providing method according to another embodiment of the present invention can provide a virtual environment in which the input of erroneous interaction information is blocked by filtering surrounding noise or voice provided from a third party.

본 발명의 또다른 실시예에 따른 음성인식 기반 가상현실 학습제공 방법은 학습이 이루어지는 환경에서 발생할 수 있는 다양한 소음을 랜덤으로 발생하여 실제 실기술이 이루어지는 장소와 유사한 환경을 제공하되 제공되는 소음이 실기술 학습에 필요한 인터렉션에 영향을 미치지 않도록 제공할 수 있다.A voice recognition-based virtual reality learning providing method according to another embodiment of the present invention provides an environment similar to a place where actual technology is performed by randomly generating various noises that may occur in an environment in which learning is performed, but the provided noise is not real. It can be provided without affecting the interaction required for skill learning.

본 발명의 효과는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술 분야의 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to those mentioned above, and other effects not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the following description.

도 1은 본 발명의 실시예에 따른 음성인식 기반 가상현실 학습제공 방법를 제공하기 위한 HMD의 시스템블록도를 도시한 것이다.
도 2는 본 발명의 실시예에 따른 음성인식 기반 가상현실 학습제공 방법의 순서도를 도시한 것이다.
도 3은 본 발명의 실시예에 따른 음성인식 기반 가상현실 학습제공 방법의 음성인식의 개념도를 도시한 것이다.
1 is a diagram illustrating a system block diagram of an HMD for providing a voice recognition-based virtual reality learning providing method according to an embodiment of the present invention.
2 is a flowchart illustrating a method for providing virtual reality learning based on voice recognition according to an embodiment of the present invention.
3 is a conceptual diagram illustrating voice recognition of a method for providing virtual reality learning based on voice recognition according to an embodiment of the present invention.

본 발명의 목적 및 효과, 그리고 그것들을 달성하기 위한 기술적 구성들은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 본 발명을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명에서의 기증을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. Objects and effects of the present invention, and technical configurations for achieving them will become clear with reference to the embodiments described below in detail in conjunction with the accompanying drawings. In describing the present invention, if it is determined that a detailed description of a well-known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted. And the terms described below are terms defined in consideration of donation in the present invention, which may vary depending on the intention or custom of the user or operator.

그러나, 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있다. 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. However, the present invention is not limited to the embodiments disclosed below and may be implemented in various different forms. Only the present embodiments are provided so that the disclosure of the present invention is complete, and to fully inform those of ordinary skill in the art to which the present invention belongs, the scope of the invention, the present invention is defined by the scope of the claims it will only be Therefore, the definition should be made based on the content throughout this specification.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함" 또는 "구비"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "...유닛", "...부" 또는 "...모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. Throughout the specification, when a part "includes" or "includes" a certain element, it means that other elements may be further included, rather than excluding other elements, unless otherwise stated. . In addition, terms such as "...unit", "...unit" or "...module" described in the specification mean a unit that processes at least one function or operation, which includes hardware or software or hardware and It can be implemented by a combination of software.

또한, 명세서에 기재된 " HMD...유닛", " HMD...부" 또는 " HMD...모듈" 등의 용어는 HMD 자체 또는 HMD와 유선 또는 무선 통신에 의하여 데이터를 교환하도록 구비된 HMD의 기능을 확장하기 위한 용도의 범용 컴퓨터, 특수용 컴퓨터, 휴대용 노트북 컴퓨터, 네트워크 컴퓨터, 스마트폰과 같은 모바일 기기, 온라인 게임 서비스 제공 서버 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 의미할 수 있다.In addition, terms such as "HMD...unit", "HMD...unit" or "HMD...module" described in the specification refer to the HMD itself or an HMD equipped to exchange data with the HMD by wire or wireless communication. It may mean general-purpose computers, special-purpose computers, portable notebook computers, network computers, mobile devices such as smart phones, online game service providing servers, or other programmable data processing equipment for extending the functions of

한편, 본 발명의 실시 예에 있어서, 각 구성요소들, 기능 블록들 또는 수단들은 하나 또는 그 이상의 하부 구성요소로 구성될 수 있으며, 각 구성요소들이 수행하는 전기, 전자, 기계적 기능들은 전자회로, 집적회로, ASIC(Application Specific Integrated Circuit) 등 공지된 다양한 소자들 또는 기계적 요소들로 구현될 수 있으며, 각각 별개로 구현되거나 2 이상이 하나로 통합되어 구현될 수도 있다.On the other hand, in an embodiment of the present invention, each of the components, functional blocks or means may be composed of one or more sub-components, and the electrical, electronic, and mechanical functions performed by each component include an electronic circuit, It may be implemented with various well-known devices or mechanical elements, such as an integrated circuit, an application specific integrated circuit (ASIC), etc., and may be implemented separately or two or more may be integrated into one.

또한 첨부된 블록도의 각 블록과 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수도 있다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터, 휴대용 노트북 컴퓨터, 네트워크 컴퓨터, 스마트폰과 같은 모바일 기기, 온라인 게임 서비스 제공 서버 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 장치 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 아래에서 설명할 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 장치 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 장치에 이용 가능한 메모리 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 블록도의 각 블록 또는 흐름도 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조물을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 장치 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 장치 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되기 위한 프로세스를 생성하여 블록도의 각 블록 및 흐름도의 각 단계에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.Also, combinations of each block in the accompanying block diagram and each step in the flowchart may be performed by computer program instructions. These computer program instructions may be loaded into the processor of a general-purpose computer, special-purpose computer, portable notebook computer, network computer, mobile device such as a smart phone, an online game service providing server, or other programmable data processing equipment, so that the computer device or other program The instructions, which are executed via a processor of possible data processing equipment, will create means for performing the functions described in each block of the block diagrams described below or in each step of the flow diagrams. These computer program instructions may also be stored in a computer readable memory or memory available to a computer device that may direct a computer device or other programmable data processing equipment to implement a function in a particular manner, such that each block of the block diagram Alternatively, it is also possible to produce an article of manufacture containing instruction means for performing the functions described in each step of the flowchart. The computer program instructions may also be mounted on a computer device or other programmable data processing equipment, thereby creating a process for performing a series of operational steps on the computer device or other programmable data processing equipment, such that each block in the block diagram and the flowchart It is also possible to provide steps for executing the functions described in each step of .

또한, 각 블록 또는 각 단계는 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실시예들에서는 블록들 또는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들 또는 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들 또는 단계들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.Further, each block or each step may represent a module, segment, or portion of code that includes one or more executable instructions for executing the specified logical function(s). It should also be noted that in some alternative embodiments it is also possible for the functions recited in blocks or steps to occur out of order. For example, it is possible that two blocks or steps shown one after another may in fact be performed substantially simultaneously, or that the blocks or steps may sometimes be performed in the reverse order according to the corresponding function.

본 발명의 실시예에 있어서, 사용자 기기라고 함은 데스크탑 컴퓨터, 노트북 컴퓨터, 스마트폰, PDA, 휴대전화, 게임기 등 데이터를 수집, 판독, 처리, 가공, 저장, 표시할 수 있는 모든 계산 수단을 의미한다. 특히, 본 발명의 실시예에 있어서의 사용자 기기는 해독 가능한 코드로 작성된 소프트웨어를 실행시킬 수 있으며, 이를 사용자에게 표시하여 전달할 수 있는 기능을 갖는 장치이다. 또한, 필요에 따라서는 소프트웨어를 자체적으로 저장하기도 하고, 또는 외부로부터 데이터와 함께 읽어 들일 수도 있다.In an embodiment of the present invention, user equipment means all calculation means that can collect, read, process, process, store, and display data such as desktop computers, notebook computers, smart phones, PDA's, mobile phones, and game machines. do. In particular, the user device according to the embodiment of the present invention is a device having a function of executing software written in a decipherable code, and displaying and delivering it to the user. In addition, if necessary, the software may be stored by itself or may be read together with data from the outside.

또한, 본 발명의 실시예에 있어서의 단말기에는 위와 같은 데이터 처리 기능 뿐 아니라 입력, 출력, 저장 등의 기능이 포함되어 있으며, 이를 위하여 일반적인 컴퓨터 장치들이 갖는 CPU, 메인보드, 그래픽 카드, 하드디스크, 사운드 카드, 스피커, 키보드, 마우스, 모니터, USB, 통신 모뎀 등의 각종 요소들 뿐만 아니라 무선 스마트폰 단말기들이 갖는 CPU, 메인보드, 그래픽 칩, 메모리 칩, 사운드엔진, 스피커, 터치패드, USB 등의 외부 연결 단자, 통신 안테나, 3G, LTE, LTE-A, WiFi, 블루투스 등의 통신을 구현할 수 있는 통신 모뎀 등을 포함할 수 있다. 이러한 각종 요소들이 단독으로 또는 2 이상이 함께, 또는 각종 요소들의 일부분이 결합되어 하나 또는 그 이상의 기능을 구현할 수 있으며, 본 발명의 실시예에서 도면이나 상세한 설명에서 하나 또는 그 이상의 블록으로 표시된 장치 또는 그 일부분들은 위와 같은 사용자 기기에 포함되어 있는 각종 요소들이 단독으로 또는 2 이상이 함께, 또는 각종 요소들의 일부분이 결합되어 하나 또는 그 이상의 기능을 나타내는 것을 의미할 수 있다.In addition, the terminal according to the embodiment of the present invention includes functions such as input, output, and storage as well as the above data processing function, and for this purpose, a CPU, a main board, a graphic card, a hard disk, Various elements such as sound card, speaker, keyboard, mouse, monitor, USB, communication modem, as well as CPU, main board, graphic chip, memory chip, sound engine, speaker, touchpad, USB, etc. It may include an external connection terminal, a communication antenna, a communication modem capable of implementing communication such as 3G, LTE, LTE-A, WiFi, and Bluetooth. These various elements alone or two or more together, or a part of various elements may be combined to implement one or more functions, and in the embodiment of the present invention, a device indicated by one or more blocks in the drawings or detailed description, or The parts may mean that various elements included in the above-mentioned user equipment represent one or more functions alone, two or more together, or some of the various elements are combined.

한편, 본 발명의 실시예에서 사용자 기기, HMD등은 통신 기능을 가질 수 있으며, 통신 기능을 구현하기 위하여 유선 인터넷, 무선 인터넷, 적외선 통신, 블루투스, WCDMA, Wibro, WiFi, LTE, LTE-A, 5G 유무선 전화망 등의 각종 네트워크 수단을 구비할 수 있다.Meanwhile, in an embodiment of the present invention, a user device, HMD, etc. may have a communication function, and in order to implement the communication function, wired Internet, wireless Internet, infrared communication, Bluetooth, WCDMA, Wibro, WiFi, LTE, LTE-A, Various network means such as 5G wired/wireless telephone network may be provided.

이하에서는 본 발명의 실시예에 따른 음성인식 기반 가상현실 학습제공 방법에 대하여 첨부한 도면을 참고하여 구체적으로 설명하기로 한다.Hereinafter, a method for providing virtual reality learning based on voice recognition according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 실시예에 따른 음성인식 기반 가상현실 학습제공 방법을 제공하기 위한 HMD의 시스템블록도를 도시한 것이다. 도시되지는 않았으나, 사용자에 의하여 제공되는 음성 또는 기타 음향정보는 HMD에 구비된 마이크부에 의하여 수집될 수 있다.1 is a diagram illustrating a system block diagram of an HMD for providing a voice recognition-based virtual reality learning providing method according to an embodiment of the present invention. Although not shown, voice or other sound information provided by the user may be collected by a microphone unit provided in the HMD.

도 1을 참고하면, HMD는 디스플레이부, 음성분석부, 스피커부, 음향정보분석부, 단어데이터베이스부 및 문구정보생성부를 포함한다. Referring to FIG. 1 , the HMD includes a display unit, a voice analysis unit, a speaker unit, an acoustic information analysis unit, a word database unit, and a phrase information generation unit.

HMD의 디스플레이부는 사용자에게 가상현실공간의 이미지를 디스플레이하도록 구비된다. 상기 디스플레이부는 사용자의 시야 전체를 가리도록 구비되어 사용자가 HMD를 착용하고 있는 경우, 디스플레이부에 의하여 외부에서 스며드는 빛을 차단하도록 구비될 수 있다. The display unit of the HMD is provided to display an image of the virtual reality space to the user. The display unit may be provided to cover the entire field of view of the user and, when the user is wearing the HMD, may be provided to block the light penetrating from the outside by the display unit.

다음으로, 음성분석부는 HMD의 상황정보저장부에 미리 준비된 상황정보와 매칭되는 음성정보가 입력되는지 여부를 판정할 수 있도록 구비된다. 본 발명의 실시예에 있어서 음성분석부는 사용자가 기 숙지하고 있는 특정 상황정보의 문구와 동일성여부를 판정함으로써 시스템의 부하를 낮출 수 있도록 구비된다. Next, the voice analysis unit is provided to determine whether voice information matching the context information prepared in advance is input to the context information storage unit of the HMD. In an embodiment of the present invention, the voice analysis unit is provided to reduce the load on the system by determining whether the phrase is identical to the phrase of the specific context information that the user is familiar with.

다음으로, 스피커부는 사용자에게 디스플레이부의 가상공간에서 발생하는 이벤트에 따른 음성 또는 음향효과를 전달하도록 구비된다. 이때 스피커부는 적어도 2개 이상의 스피커유닛을 포함할 수 있고, 사용자가 바라보는 가상공간의 특정 위치와 동일한 지향점을 갖는 음성 또는 음향정보를 출력하도록 구비될 수 있다. Next, the speaker unit is provided to deliver a voice or sound effect according to an event occurring in the virtual space of the display unit to the user. In this case, the speaker unit may include at least two or more speaker units, and may be provided to output voice or sound information having the same orientation as a specific location in a virtual space that the user sees.

다음으로 음향정보분석부는 상기 음성분석부에서 필터링되어 해석이 필요한 것으로 판정된 음성 또는 음향을 분석하고 이를 온톨로지 기반 단어데이터베이스부의 음향정보와 비교하여 키워드를 추출하도록 구비될 수 있다. Next, the sound information analysis unit may be provided to analyze the voice or sound that has been filtered by the voice analysis unit and determined to require interpretation, and compares it with the sound information of the ontology-based word database unit to extract a keyword.

다음으로, 단어데이터베이스부는 온톨로지의 구성요소에 기반한 단어데이터를 미리 저장하거나 업데이트 하도록 구비될 수 있다. Next, the word database unit may be provided to store or update word data based on the components of the ontology in advance.

본 발명의 실시예를 설명함에 있어, 온톨로지(ontology)는 실존하거나 사람이 인식 가능한 것들을 컴퓨터에서 다룰 수 있는 형태로 표현한 것으로서, 온톨로지 구성요소들은 엔티티(entity; E)(또는 인스턴스(instance)), 클래스(class; C), 속성(property; P), 값(value; V)을 포함할 수 있다. In describing an embodiment of the present invention, an ontology is an expression of real or human-recognizable things in a form that can be handled by a computer, and the ontology components are an entity (E) (or an instance), It can include a class (C), a property (P), and a value (V).

보다 구체적으로 온톨로지의 구성 요소 중 클래스(Class)는 일반적으로 사물이나 개념 등에 붙이는 이름을 의미할 수 있다. "키보드", "모니터", "사랑"과 같은 단어는 클래스로 구분될 수 있다. 다음으로, 인스턴스(Instance)는 사물이나 개념의 구체물이나 사건 등의 실질적인 형태로 나타난 그 자체를 의미할 수 있다. 즉, "X사의 XT-10 슬림 키보드", "Y사의 마스터뷰 Wide OLED 모니터", "로미오와 줄리엣의 사랑"는 인스턴스를 의미할 수 있다. 이와 같은 클래스와 인스턴스의 구분은 응용과 사용목적에 따라서 같은 표현의 개체가 어떠한 경우에는 클래스가 되었다가 다른 경우에는 인스턴스가 될 수 있다. 다음으로, 속성(Property)은 클래스나 인스턴스의 특정한 성질, 성향 등을 나타내기 위하여 클래스나 인스턴스를 특정한 값(value)과 연결시킨 것으로 정의될 수 있다. 예를 들어, "Y사의 마스터뷰 Wide OLED 모니터는 XX인치이다."라는 것을 표현하기 위하여, hasSize와 같은 속성을 정의할 수 있다. 다음으로, 관계(Relation)는 엔티티간 속성 또는 클래스간 속성, 클래스, 인스턴스 간에 존재하는 관계들을 칭하며, 일반적으로 분류학적 관계(taxonomic relation)와 비-분류학적 관계(non-taxonomic relation)로 구분할 수 있다. 추가적으로, 온톨로지 구성요소들은, 함수 텀(function term), 제한(restriction), 규칙(rule), 사건(event) 등을 더 포함할 수 있다. 온톨로지 기반 단어데이터베이스부는 온톨로지에 기반하여 방대한 지식 데이터를 저장할 수 있고, 예컨대 온톨로지 기반 단어데이터베이스부는 RDF(Resource Description Framework)를 사용하여 표현된 지식 데이터를 포함할 수 있으며, 지식 데이터 단위로서 트리플(triple)이 사용될 수 있다. 온톨로지 기반 단어데이터베이스부는 쿼리, 예컨대 SPARQL(SPARQL Protocol and RDF Query Language) 쿼리에 응답하여 트리플을 반환할 수 있다. 일부 실시예들에서, 음향정보분석부는 문구정보생성부의 외부에 있는 자연어 인식 시스템(미도시)에 사용자의 음성을 온톨로지 구성요소로 구분할 수 있고, 자연어 인식 시스템으로부터 사용자의 음성으로부터 추출된 토큰들을 수신할 수 있다.More specifically, a class among the components of an ontology may generally mean a name attached to an object or concept. Words such as "keyboard", "monitor", and "love" can be divided into classes. Next, an instance may refer to itself expressed in a substantial form such as a concrete object or event of a thing or concept. In other words, "X's XT-10 slim keyboard", "Y's master view wide OLED monitor", and "Romeo and Juliet's love" can mean instances. The distinction between class and instance like this is that depending on the application and purpose of use, the object of the same expression may become a class in some cases and an instance in other cases. Next, a property may be defined as linking a class or instance with a specific value in order to represent a specific property or tendency of the class or instance. For example, to express "Y's masterview wide OLED monitor is XX inches", a property such as hasSize can be defined. Next, the relation refers to the relationships that exist between properties between entities or between properties, classes, and instances, and can be generally divided into taxonomic and non-taxonomic relations. have. Additionally, ontology components may further include a function term, a restriction, a rule, an event, and the like. The ontology-based word database unit may store vast amounts of knowledge data based on the ontology. For example, the ontology-based word database unit may include knowledge data expressed using RDF (Resource Description Framework), and a triple as a unit of knowledge data. this can be used The ontology-based word database unit may return a triple in response to a query, for example, a SPARQL Protocol and RDF Query Language (SPARQL) query. In some embodiments, the acoustic information analysis unit may classify the user's voice into an ontology component in a natural language recognition system (not shown) external to the phrase information generation unit, and receive tokens extracted from the user's voice from the natural language recognition system can do.

문구정보생성부는 외부에 있는 자연어 인식 시스템으로부터 토큰들을 수신할 수 있고, 수신된 토큰들에 대응하는 시맨틱 리소스들을 온톨로지 기반 데이터베이스로부터 획득할 수 있다. 예를 들면, "혈당측정 검사 설명"이라는 제1 질의 문장(Q1)에 대하여, "혈당측정"의 시맨틱 리소스로서 엔티티 "<Entity-Subject>"를 획득할 수 있고, "검사"의 시맨틱 리소스로서 속성 "<Property_Method>"을 획득할 수 있다. 이에 따라, 제1 패턴(P1)은 시맨틱 리소스들로서, "<Entity-Subject>" 및 "<Property_ Method>"을 포함할 수 있다. 또한, "목적과 절차 설명"라는 제2 질의 문장(Q2)에 대하여, "목적"의 시맨틱 리소스로서 엔티티 "<Entity_Subject>"를 획득할 수 있고, "절차"의 시맨틱 리소스로서 속성 "<Peoperty_Method>"을 획득할 수 있다. 제2 패턴(P2)은 "<Entity-Subject>" 및 "<Property_Method>"을 포함할 수 있고, 이에 따라 제1 패턴(P1)과 동일할 수 있다.The phrase information generator may receive tokens from an external natural language recognition system, and obtain semantic resources corresponding to the received tokens from an ontology-based database. For example, for the first query sentence Q1 of "description of blood glucose measurement test", entity "<Entity-Subject>" may be obtained as a semantic resource of "glucose measurement", and as a semantic resource of "test" You can get the property "<Property_Method>". Accordingly, the first pattern P1 may include "<Entity-Subject>" and "<Property_ Method>" as semantic resources. Also, for the second query sentence Q2 of "purpose and procedure description", entity "<Entity_Subject>" may be obtained as a semantic resource of "purpose", and attribute "<Peoperty_Method>" as a semantic resource of "procedure" " can be obtained. The second pattern P2 may include “<Entity-Subject>” and “<Property_Method>”, and thus may be the same as the first pattern P1 .

음향정보분석부가 추출하는 키워드는 온톨로지 구성요소 중 하나에 해당할 수 있다. 본 발명의 실시예를 설명함에 있어서, 클래스는 단어정보, 인스턴스는 구문정보, 속성은 문장정보에 상응한 것으로 해석될 수 있다.The keyword extracted by the acoustic information analysis unit may correspond to one of the ontology components. In describing an embodiment of the present invention, a class may be interpreted as word information, an instance as syntax information, and an attribute as corresponding to sentence information.

이하, 도2 및 도 3을 통하여 본 발명의 실시예에 따른 음성인식 기반 가상현실 학습제공 방법에 대하여 설명한다. Hereinafter, a voice recognition-based virtual reality learning providing method according to an embodiment of the present invention will be described with reference to FIGS. 2 and 3 .

도 2는 본 발명의 실시예에 따른 음성인식 기반 가상현실 학습제공 방법의 순서도를 도시한 것이고, 도 3은 본 발명의 실시예에 따른 음성인식 기반 가상현실 학습제공 방법의 음성인식의 개념도를 도시한 것이다.2 is a flowchart of a voice recognition-based virtual reality learning providing method according to an embodiment of the present invention, and FIG. 3 is a conceptual diagram illustrating voice recognition of a voice recognition-based virtual reality learning providing method according to an embodiment of the present invention. did it

도 2를 참고하면, 본 발명의 실시예에 따른 음성인식 기반 가상현실 학습제공 방법은 음성을 인식하여 가상현실의 캐릭터와 인터렉션하기 위한 음성인식 기반 가상현실 학습제공 방법으로써 HMD의 디스플레이부에 상황정보를 디스플레이하는 단계를 포함한다(S110).Referring to FIG. 2 , the voice recognition-based virtual reality learning providing method according to an embodiment of the present invention is a voice recognition-based virtual reality learning providing method for recognizing a voice to interact with a virtual reality character, and context information on the display unit of the HMD. and displaying ( S110 ).

예를 들면, 간호 실기술의 학습을 제공하기 위한 음성인식 기반 가상현실 학습에 있어서 병실의 침상에 누워있는 환자 캐릭터와 마주한 상황을 묘사하는 문구가 HMD 디스플레이부 상에 문장 또는 기호로 디스플레이되어 HMD를 착용한 학습자가 현재 상태를 인지하도록 상황정보를 디스플레이 할 수 있다. For example, in voice recognition-based virtual reality learning for providing nursing room technology learning, a phrase describing a situation facing a patient character lying on a bed in a hospital room is displayed as a sentence or symbol on the HMD display unit to display the HMD. Context information can be displayed so that the wearer recognizes the current state.

일예로 학습자가 마주한 환자캐릭터의 혈당을 측정하는 것을 연습하기 위한 상황에 해당하는 경우 '환자의 혈당측정이 필요한 상황임'과 같은 문구를 디스플레이부에 표시할 수 있다.For example, if the learner corresponds to a situation for practicing measuring the blood sugar of a patient character faced by the learner, a phrase such as 'a situation in which a patient's blood sugar measurement is required' may be displayed on the display unit.

이때, 학습자는 현재 상황을 환자캐릭터에게 음성으로 전달할 것을 요청하는 메시지가 디스플레이부에 표시된 경우 단어, 문구 또는 문장으로 음성을 발생하여 HMD에 음성정보를 입력할 수 있다.In this case, when a message requesting to transmit the current situation to the patient character by voice is displayed on the display unit, the learner may generate voice in words, phrases or sentences to input voice information into the HMD.

한편, 상기 상황정보를 디스플레이하는 단계는 상기 HMD에 구비된 자이로센서로부터 수신된 사용자의 시선방향이 상기 캐릭터가 위치한 임의의 가상공간 영역을 지향하는 경우인지 판정하는 단계를 더 포함할 수 있다. Meanwhile, the displaying of the context information may further include determining whether the user's gaze direction, received from the gyro sensor provided in the HMD, is directed toward an arbitrary virtual space area in which the character is located.

예를 들면, 환자를 마주하고 대화하여야 하는 상황을 묘사하기 위하여 사용자(학습자)의 시선방향이 환자캐릭터가 위치한 가상공간 영역을 바라보는지 여부를 판정함으로써 실제와 가까운 인터렉션을 연습하고 익숙해지도록 도울 수 있다. For example, in order to describe a situation in which a patient should face and have a conversation, it is possible to practice and familiarize with the interaction close to reality by determining whether the gaze direction of the user (learner) looks at the virtual space area where the patient character is located. .

이때, 상황정보를 디스플레이하는 단계는 상기 상황정보에 포함되는 제3 캐릭터를 디스플레이하는 단계를 더 포함할 수 있다. 간호 실기술을 연습하는 경우 실제 의료현장에서 발생할 수 있는 이벤트 중 제3 자의 등장 또는 실기술을 수행하는데 방해가 될 수 있는 잡음 등이 발생할 여지가 있다. 이와 같은 상황에서도 실기술을 적절히 수행하도록 연습하기 위하여, 상황정보를 디스플레이하는 단계는 상기 상황정보에 포함되는 제3 캐릭터를 디스플레이하는 단계를 더 포함할 수 있다.In this case, the step of displaying the context information may further include displaying a third character included in the context information. In the case of practicing nursing skills, there is a possibility that a third party may appear among events that may occur in the actual medical field, or noise that may interfere with performing actual techniques may occur. In order to properly practice the actual technique even in such a situation, the step of displaying the context information may further include the step of displaying a third character included in the context information.

이때 제3 캐릭터는 또다른 환자, 보호자, 의사, 또다른 간호사 등이 해당할 수 있고, 의료현장에서 예상할 수 있는 대화 등이 실기술 학습자에게 제공되도록 할 수 있다.In this case, the third character may correspond to another patient, guardian, doctor, another nurse, etc., and a conversation that can be expected in the medical field may be provided to the practical skill learner.

상기 제3 캐릭터를 디스플레이하는 단계는 상기 HMD의 스피커부를 통하여 상기 제3 캐릭터가 배치된 임의의 공간으로부터 발생하는 임의의 음향정보를 출력하는 단계를 더 포함할 수 있다.The displaying of the third character may further include outputting arbitrary sound information generated from an arbitrary space in which the third character is disposed through a speaker unit of the HMD.

이와 같은 단계를 통하여 HMD를 통해 제공되는 가상의 공간에서의 임의의 지점에서 발생하는 음향정보를 제공함으로써 실제와 현실과 가까운 현장감을 제공할 수 있다. Through these steps, sound information generated at any point in the virtual space provided through the HMD can be provided, thereby providing a sense of presence close to reality and reality.

한편, 제3 캐릭터에 의하여 제공되는 임의의 음향정보는 상기 음향정보분석부로부터 인식될 수 있는 소정 영역의 주파수에 해당하는 필터링음향정보를 포함할 수 있다.Meanwhile, the arbitrary sound information provided by the third character may include filtering sound information corresponding to a frequency of a predetermined region that can be recognized by the sound information analysis unit.

학습자의 음성 이외의 음성 또는 음향이 본 발명의 실시예에 따른 음성인식 기반 가상현실 학습제공 방법의 입력변수로 작용하는 것을 방지하기 위함이다. This is to prevent a learner's voice or sound other than the learner's voice from acting as an input variable of the voice recognition-based virtual reality learning providing method according to an embodiment of the present invention.

예를 들면, 사람의 가청주파수 이외의 영역의 저주파음 또는 고주파음을 상기 임의의 음향정보에 포함되도록 하여 이를 시스템에 입력되는 정보와 구별하도록 할 수 있다.For example, a low-frequency sound or a high-frequency sound in a region other than the human audible frequency may be included in the arbitrary acoustic information to distinguish it from information input to the system.

다음으로,음성정보의 입력이 있는 경우, 상기 HMD의 음성분석부가 상기 HMD의 상황정보저장부에 미리 준비된 상황정보와 매칭되는지 여부를 판정하고 상기 상황정보에 매칭되는 음성정보의 입력이 있는 경우, 상기 디스플레이부와 상기 HMD의 스피커부를 통해 상기 환자 캐릭터의 인터렉션 제스쳐 및 인터렉션 음향을 제공하는 단계를 포함한다(S120).Next, when there is input of voice information, the voice analysis unit of the HMD determines whether or not it matches the context information prepared in advance in the context information storage unit of the HMD, and when there is input of voice information matching the context information, and providing an interaction gesture and an interaction sound of the patient character through the display unit and the speaker unit of the HMD (S120).

예를 들면, 학습자는 미리 숙지한 상황별 단어, 문구 또는 문장 정보를 음성의 형태로 마이크를 통해 HMD에 전달하게 되는데, HMD의 상황정보저장부에 미리 준비된 상황정보와 매칭되는 음성정보가 입력할 수 있다. 정형적으로 반복되는 문구를 사용하므로 동일한 단어, 문구 또는 문장이 입력되는 경우 환자캐릭터의 응답에 해당하는 인터렉션 제스쳐 또는 인터렉션 음향을 확인할 수 있다. For example, the learner transmits word, phrase, or sentence information for each situation that he or she has learned in advance to the HMD in the form of voice through a microphone. can Since a repetitive phrase is used formally, when the same word, phrase or sentence is input, an interaction gesture or an interaction sound corresponding to the response of the patient character can be checked.

다만, 학습자가 완벽히 주어진 가상현실환경에 대한 대응 단어, 문구 또는 문장정보를 숙지하지 못한 경우로써 상황에 따른 임의적 문장을 음성으로 입력할 수 있으며 이하 단계가 계속된다.However, if the learner does not fully understand the corresponding words, phrases or sentence information for the given virtual reality environment, an arbitrary sentence according to the situation can be input by voice, and the following steps are continued.

한편, 상기 음향정보분석부는 적어도 하나 이상의 언어를 미리 선정하도록 구비될 수 있다. 한국어, 영어, 프랑스어, 베트남어, 중국어, 인도네시아어, 힌두어, 아랍어 등 각각의 언어는 특정 발음영역이 강하게 발음되거나 또는 생략되므로 각 언어의 특성에 대응하여 인식률을 제고할 수 있도록 미리 어떤 언어를 사용하여 학습할 것인지를 지정하는 것이 바람직하다. Meanwhile, the sound information analysis unit may be provided to select at least one language in advance. In each language, such as Korean, English, French, Vietnamese, Chinese, Indonesian, Hindi, and Arabic, a specific pronunciation area is strongly pronounced or omitted, so learn using a certain language in advance to increase the recognition rate in response to the characteristics of each language It is desirable to specify what to do.

국내의 경우 지속적인 외국인 환자의 증가로 인해 환자별로 사용하는 언어가 달라질 수 있고 각 언어에 대한 깊은 이해가 없더라도 각 상황별로 환자에게 정보를 제공하는데 충분한 문구를 숙지함으로써 실기술 학습자가 다양한 문화의 환자에 대한 의료기술을 연습할 수 있다. In the case of Korea, due to the continuous increase of foreign patients, the language used by each patient may vary, and even if there is no deep understanding of each language, by familiarizing yourself with sufficient phrases to provide information to patients in each situation, practical skill learners can learn from patients of various cultures. You can practice your medical skills.

여기서, 상기 상황정보를 디스플레이하는 단계는 상기 언어를 미리 선정하기 위한 언어선택 유저인터페이스를 디스플레이하는 단계를 더 포함할 수 있다. Here, the step of displaying the context information may further include displaying a language selection user interface for selecting the language in advance.

예를 들면, 유저인터페이스는 사용자가 발음할 언어가 어떤 것인지 화면에서 스크롤 또는 터치하여 선택할 수 있도록 제공될 수 있다. 다만, 인터페이스는 직관적이고 학습자가 디스플레이부에서 확인할 수 있는 것이라면 어느 것이든 제한되지 않는다.For example, the user interface may be provided so that the user can select which language to pronounce by scrolling or touching the screen. However, as long as the interface is intuitive and the learner can check it on the display unit, any one is not limited.

다음으로, 상기 상황정보에 매칭되지 않는 음향정보의 입력이 있는 경우, 상기 HMD의 음향정보분석부가 상기 음향정보를 소정의 시간간격으로 분할하고, 상기 분할된 음향정보를 온톨로지 기반 단어데이터베이스부의 음향정보와 비교하여 하나 이상의 키워드 정보를 추출하는 단계를 포함한다(S130).Next, when there is input of sound information that does not match the context information, the sound information analysis unit of the HMD divides the sound information at predetermined time intervals, and divides the divided sound information into the sound information of the ontology-based word database unit. and extracting one or more keyword information by comparing with (S130).

도 3을 참고하면 사용자(학습자)의 음성인식의 개념을 간략히 도시화하고 있다. 우선 사용자(USER)가 생성한 발음을 상용화된 인공지능 기반의 음성전처리 절차를 수행하고, 탐색엔진을 통하여 온톨로지 기반 단어별 시간경계정보를 출력하고 이를 어절(문구), 문장단위로 출력하여 키워드를 수집할 수 있다. 다음으로 음향모델을 이용하여 사용자의 음성을 지속적으로 입력하고 피드백하여 정상상태의 음성정보를 특정함으로써 음성인식 효율을 향상하도록 할 수 있다. Referring to FIG. 3 , the concept of voice recognition of a user (a learner) is briefly illustrated. First, the pronunciation generated by the user (USER) is subjected to a commercial artificial intelligence-based voice preprocessing procedure, and the time boundary information for each ontology-based word is output through the search engine, and the keyword is output by word phrase (phrase) and sentence unit. can be collected Next, the voice recognition efficiency can be improved by specifying the voice information in a normal state by continuously inputting and feeding back the user's voice using the acoustic model.

또한, 상기와 같은 음성인식을 고속 적용학습기술을 적용하여 특정언어 변화 성능 저하를 방지함으로써 성능 저하를 최소화할 수 있다. In addition, the performance degradation can be minimized by preventing the performance degradation of a specific language change by applying the high-speed application learning technology to the speech recognition as described above.

이러한 절차를 통해 연속 음성의 의미를 분석하고 온톨로지에 기반한 단어데이터베이스부(knowledge base)와 상호 연동하여 텍스트와 하는 절차가 수행될 수 있다. 이러한 절차는 하기 상술하도록 한다.Through this procedure, a procedure of analyzing the meaning of continuous speech and interworking with an ontology-based knowledge base can be performed with text. These procedures are detailed below.

다음으로 특정언어를 지정하여 언어별로 상이할 수 있는 발음, 주파수영역 등의 변수를 본 발명의 실시예에 따른 방법에 적용할 수 있다. Next, variables such as pronunciation and frequency domain that may be different for each language by designating a specific language may be applied to the method according to the embodiment of the present invention.

학습자의 언어, 학습자의 발음 등으로 인해 음성분석부가 상황정보저장부에 미리준비된 상황정보와 매칭되는지 여부를 판별하기 어려운 경우가 발생할 수 있다. 본 단계는 상황정보에 매칭되지 않는 음향정보 (음성 또는 음향)의 입력이 있는 경우에 이를 판단하기 위한 방안으로 학습자의 음성 등을 미리 설정된 규칙으로 분할 및 재구성함으로써 미리 준비된 상황정보에 해당하는지 여부를 확인하도록 하기 위함이다. Due to the language of the learner, the pronunciation of the learner, etc., it may be difficult to determine whether the voice analysis unit matches the context information prepared in advance in the context information storage unit. This step is a method to determine if there is an input of sound information (voice or sound) that does not match the context information, and it is determined whether or not the learner's voice corresponds to the prepared context information by dividing and reconstructing the learner's voice according to a preset rule. in order to confirm

소정의 시간간격은 상기 미리 준비된 상황정보에 포함된 단어, 구문 또는 문장이 출력되는데 소요되는 각각의 시간간격을 기초로 산정되어 상기 음향정보를 분할하는데 사용될 수 있다. 즉, 학습자가 입력하는 음향을 효율적으로 분리해 낼 수 있도록 미리 준비된 상황정보에 포함된 단어 등의 출력에 소요되는 시간을 이용하여 음향 등을 분할하여 분석하도록 구비될 수 있다.A predetermined time interval may be calculated based on each time interval required to output a word, phrase, or sentence included in the pre-prepared context information, and may be used to divide the sound information. That is, in order to efficiently separate the sound input by the learner, it may be provided to divide and analyze the sound by using the time required to output the words, etc. included in the context information prepared in advance.

예를 들면, '혈당측정의 목적'을 설명하는 상황정보와 매칭되는 음성정보는 '기저 인슐린의 혈당 강하 효과의 평가를 위함'이라는 문구라고 할 때, 학습자가 '혈당이 얼마나 강하되었는지를 확인하기 위함'이라는 답변을 입력할 경우, '기저', '인슐린', '혈당', '강하', '효과', '평가', '위함'의 각각의 단어를 발음하는데 소요되는 시간을 설정하고 이를 기초로 학습자가 입력한 문구를 분할하는 기준으로 사용할 수 있다. 예를 들면, '인슐린'이라는 단어를 발음하는데 소요되는 시간을 약 1~1.5초로 지정한 후 학습자가 입력한 단어, 문구 또는 문장을 상기 시간을 주기로 분할하고, 해당 단어에 매칭되는 음향의 패턴과 유사도가 90%, 95% 또는 100% 의 범위에서 일치하는 발음이 있는 경우 이를 '인슐린'으로 인식하도록 구비될 수 있다. 각기 인식된 사용자의 음성에 포함된 키워드는 온톨로지 기반 데이터베이스부에 저장되는 각각의 온톨로지 구성요소로 정의될 수 있다.For example, when the voice information matching the contextual information explaining the 'purpose of blood glucose measurement' is the phrase 'for evaluation of the blood glucose-lowering effect of basal insulin', the learner can 'check how much blood glucose has dropped' If you enter the answer 'for', set the time required to pronounce each word of 'basal', 'insulin', 'blood sugar', 'lowering', 'effect', 'evaluation', and 'for' It can be used as a basis for dividing the phrase entered by the learner as a basis. For example, after specifying the time required to pronounce the word 'insulin' as about 1 to 1.5 seconds, the word, phrase or sentence input by the learner is divided into the period of time, and the sound pattern and similarity matching the word If there is a pronunciation that matches in the range of 90%, 95% or 100%, it may be provided to recognize it as 'insulin'. A keyword included in each recognized user's voice may be defined as each ontology component stored in the ontology-based database unit.

한편, 상기 온톨로지 기반 단어데이터베이스부의 음향정보와 비교하여 하나 이상의 키워드 정보를 추출하는 단계는 상기 추출된 하나 이상의 키워드 정보를 상기 온톨로지 기반 단어데이터베이스부에 저장하는 단계를 더 포함할 수 있다.Meanwhile, the extracting of the one or more keyword information by comparing it with the sound information of the ontology-based word database unit may further include storing the extracted one or more keyword information in the ontology-based word database unit.

키워드를 추출하고 이를 다시 온톨로지 기반 데이터베이스부에 저장하는 단계를 반복함으로써 학습자가 제공할 수 있는 임의의 연관 키워드에 대한 정보를 보강하고 단어데이터베이스부를 강화할 수 있다. By repeating the steps of extracting keywords and storing them again in the ontology-based database unit, information on arbitrary related keywords that the learner can provide can be reinforced and the word database unit can be reinforced.

다음으로, 상기 HMD의 문구정보생성부가 상기 추출된 하나 이상의 키워드를 사용하여 단어정보, 문장정보 또는 구문정보로 변환한 후 상기 상황정보저장부에 미리 준비된 상황정보와 매칭되는지 여부를 판정하는 단계를 포함한다(S140).Next, after the phrase information generating unit of the HMD converts the extracted one or more keywords into word information, sentence information or syntax information, determining whether or not it matches the context information prepared in advance in the context information storage unit includes (S140).

앞선 단계에서 수집된 키워드는 문구정보생성부를 이용하여 각각 클래스, 인스턴스, 속성 등으로 분류되거나 조합되어 단어, 문구, 문장의 형태로 조합되고 이를 단어정보, 문장정보 또는 구문정보로 변환하여 상황정보저장부에 미리 준비된 상황정보와 매칭되는지 여부를 판정하도록 구비된다. The keywords collected in the previous step are classified or combined into classes, instances, attributes, etc., respectively, using the phrase information generator, and combined in the form of words, phrases, and sentences, and converted into word information, sentence information or phrase information to store context information It is provided to determine whether it matches the situation information prepared in advance in the department.

본 발명의 다른 양상에 따르면, 사용자의 음성을 인식하여 가상현실의 캐릭터와 인터렉션하기 위한 음성인식 기반 가상현실 학습제공 방법으로써, HMD의 디스플레이부에 상황정보를 디스플레이하는 단계, 음성정보의 입력이 있는 경우, 상기 HMD의 음성분석부가 상기 HMD의 상황정보저장부에 미리 준비된 상황정보와 매칭되는지 여부를 판정하고 상기 상황정보에 매칭되는 음성정보의 입력이 있는 경우, 상기 디스플레이부와 상기 HMD의 스피커부를 통해 상기 캐릭터의 인터렉션 제스쳐 및 인터렉션 음향을 제공하는 단계, 상기 상황정보에 매칭되지 않는 음향정보의 입력이 있는 경우, 상기 HMD의 음향정보분석부가 상기 음향정보를 소정의 시간간격으로 분할하고, 상기 분할된 음향정보를 온톨로지 기반 단어데이터베이스부의 음향정보와 비교하여 하나 이상의 키워드 정보를 추출하는 단계, 상기 HMD의 문구정보생성부가 상기 추출된 하나 이상의 키워드를 사용하여 단어정보, 문장정보 또는 구문정보로 변환한 후 상기 상황정보저장부에 미리 준비된 상황정보와 매칭되는지 여부를 판정하는 단계를 수행하기 위한 프로그램이 저장된 저장매체가 제공된다.According to another aspect of the present invention, as a voice recognition-based virtual reality learning providing method for recognizing a user's voice and interacting with a character in virtual reality, the step of displaying situation information on the display unit of the HMD, there is input of voice information In this case, the voice analysis unit of the HMD determines whether or not the context information is prepared in advance in the context information storage unit of the HMD, and when there is input of voice information matching the context information, the display unit and the speaker unit of the HMD providing the character's interaction gesture and interaction sound through the step; when there is input of sound information that does not match the context information, the sound information analysis unit of the HMD divides the sound information at predetermined time intervals, and the division extracting one or more keyword information by comparing the obtained sound information with the sound information of the ontology-based word database unit, the phrase information generating unit of the HMD converting the extracted one or more keywords into word information, sentence information or syntax information Then, a storage medium storing a program for performing the step of determining whether or not the context information is matched with the context information prepared in advance is provided in the context information storage unit.

본 명세서와 도면에는 본 발명의 바람직한 실시예에 대하여 개시하였으며, 비록 특정 용어들이 사용되었으나, 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예 외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.In the present specification and drawings, preferred embodiments of the present invention have been disclosed, and although specific terms are used, these are only used in a general sense to easily explain the technical content of the present invention and help the understanding of the present invention. It is not intended to limit the scope. It will be apparent to those of ordinary skill in the art to which the present invention pertains that other modifications based on the technical spirit of the present invention can be implemented in addition to the embodiments disclosed herein.

Claims (10)

사용자의 음성을 인식하여 가상현실의 캐릭터와 인터렉션하기 위한 음성인식 기반 가상현실 학습제공 방법에 있어서, 상기 방법은,
HMD의 디스플레이부에 상황정보를 디스플레이하는 단계;
음성정보의 입력이 있는 경우, 상기 HMD의 음성분석부가 상기 HMD의 상황정보저장부에 미리 준비된 상황정보와 매칭되는지 여부를 판정하고 상기 상황정보에 매칭되는 음성정보의 입력이 있는 경우, 상기 디스플레이부와 상기 HMD의 스피커부를 통해 상기 캐릭터의 인터렉션 제스쳐 및 인터렉션 음향을 제공하는 단계;
상기 상황정보에 매칭되지 않는 음향정보의 입력이 있는 경우, 상기 HMD의 음향정보분석부가 상기 음향정보를 소정의 시간간격으로 분할하고, 상기 분할된 음향정보를 온톨로지 기반 단어데이터베이스부의 음향정보와 비교하여 하나 이상의 키워드 정보를 추출하는 단계;
상기 HMD의 문구정보생성부가 상기 추출된 하나 이상의 키워드를 사용하여 단어정보, 문장정보 또는 구문정보로 변환한 후 상기 상황정보저장부에 미리 준비된 상황정보와 매칭되는지 여부를 판정하는 단계;를 포함하는 것을 특징으로 하는 음성인식 기반 가상현실 학습제공 방법.
In the voice recognition-based virtual reality learning providing method for recognizing a user's voice and interacting with a character in virtual reality, the method comprising:
displaying context information on a display unit of the HMD;
When there is input of voice information, the voice analysis unit of the HMD determines whether or not it matches the context information prepared in advance in the context information storage unit of the HMD, and when there is input of voice information matching the context information, the display unit and providing an interaction gesture and an interaction sound of the character through a speaker unit of the HMD;
When there is input of sound information that does not match the context information, the sound information analysis unit of the HMD divides the sound information at predetermined time intervals, and compares the divided sound information with the sound information of the ontology-based word database unit. extracting one or more keyword information;
Containing; a step of converting the phrase information generating unit of the HMD into word information, sentence information, or phrase information using the extracted one or more keywords, and then determining whether it matches the context information prepared in advance in the context information storage unit; A method for providing virtual reality learning based on voice recognition, characterized in that.
제1항에 있어서,
상기 소정의 시간간격은 상기 미리 준비된 상황정보에 포함된 단어, 구문 또는 문장이 출력되는데 소요되는 각각의 시간간격을 기초로 산정되어 상기 음향정보를 분할하는데 사용되는 것을 특징으로 하는 음성인식 기반 가상현실 학습제공 방법.
According to claim 1,
The predetermined time interval is calculated based on each time interval required to output the words, phrases or sentences included in the prepared context information, and is used to divide the sound information. How to provide learning.
제1항에 있어서,
상기 상황정보를 디스플레이하는 단계;는
상기 상황정보에 포함되는 제3 캐릭터를 디스플레이하는 단계;를 더 포함하는 것을 특징으로 하는 음성인식 기반 가상현실 학습제공 방법.
According to claim 1,
Displaying the context information;
Displaying a third character included in the context information; voice recognition-based virtual reality learning providing method, characterized in that it further comprises.
제3항에 있어서,
상기 제3 캐릭터를 디스플레이하는 단계;는 상기 HMD의 스피커부를 통하여 상기 제3 캐릭터가 배치된 임의의 공간으로부터 발생하는 임의의 음향정보를 출력하는 단계;를 더 포함하는 것을 특징으로 하는 음성인식 기반 가상현실 학습제공 방법.
4. The method of claim 3,
Displaying the third character; outputting arbitrary sound information generated from an arbitrary space in which the third character is disposed through the speaker unit of the HMD; voice recognition-based virtual, characterized in that it further comprises How to provide real learning.
제4항에 있어서,
상기 임의의 음향정보는 상기 음향정보분석부로부터 인식될 수 있는 소정 영역의 주파수에 해당하는 필터링음향정보를 포함하는 것을 특징으로 하는 음성인식 기반 가상현실 학습제공 방법.
5. The method of claim 4,
The voice recognition-based virtual reality learning providing method, characterized in that the arbitrary sound information includes filtering sound information corresponding to a frequency of a predetermined region that can be recognized by the sound information analysis unit.
제1항에 있어서,
상기 온톨로지 기반 단어데이터베이스부의 음향정보와 비교하여 하나 이상의 키워드 정보를 추출하는 단계;는
상기 추출된 하나 이상의 키워드 정보를 상기 온톨로지 기반 단어데이터베이스부에 저장하는 단계;를 더 포함하는 것을 특징으로 하는 음성인식 기반 가상현실 학습제공 방법.
According to claim 1,
Comparing with the sound information of the ontology-based word database unit, extracting one or more keyword information;
Storing the extracted one or more keyword information in the ontology-based word database unit; voice recognition-based virtual reality learning providing method further comprising a.
제1항에 있어서,
상기 음향정보분석부는 적어도 하나 이상의 언어를 미리 선정하도록 구비된 것을 특징으로 하는 음성인식 기반 가상현실 학습제공 방법.
According to claim 1,
The voice recognition-based virtual reality learning providing method, characterized in that the sound information analysis unit is provided to select at least one language in advance.
제7항에 있어서,
상기 상황정보를 디스플레이하는 단계;는 상기 언어를 미리 선정하기 위한 언어선택 유저인터페이스를 디스플레이하는 단계;를 더 포함하는 것을 특징으로 하는 음성인식 기반 가상현실 학습제공 방법.
8. The method of claim 7,
Displaying the context information; Displaying a language selection user interface for selecting the language in advance; Voice recognition-based virtual reality learning providing method further comprising a.
제1항에 있어서,
상기 상황정보를 디스플레이하는 단계;는 상기 HMD에 구비된 자이로센서로부터 수신된 사용자의 시선방향이 상기 캐릭터가 위치한 임의의 가상공간 영역을 지향하는 경우인지 판정하는 단계;를 더 포함하는 것을 특징으로 하는 음성인식 기반 가상현실 학습제공 방법.
According to claim 1,
The displaying of the context information further comprises: determining whether the user's gaze direction received from the gyro sensor provided in the HMD is directed toward an arbitrary virtual space region in which the character is located; A method of providing virtual reality learning based on voice recognition.
제1항 내지 제9항 중 어느 한 항에 따른 방법을 수행하기 위한 프로그램이 저장된 저장매체.A storage medium storing a program for performing the method according to any one of claims 1 to 9.
KR1020210011400A 2021-01-27 2021-01-27 Method of providing virtual reality for learning based on voice recognition KR102500457B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210011400A KR102500457B1 (en) 2021-01-27 2021-01-27 Method of providing virtual reality for learning based on voice recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210011400A KR102500457B1 (en) 2021-01-27 2021-01-27 Method of providing virtual reality for learning based on voice recognition

Publications (2)

Publication Number Publication Date
KR20220108851A true KR20220108851A (en) 2022-08-04
KR102500457B1 KR102500457B1 (en) 2023-02-17

Family

ID=82837085

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210011400A KR102500457B1 (en) 2021-01-27 2021-01-27 Method of providing virtual reality for learning based on voice recognition

Country Status (1)

Country Link
KR (1) KR102500457B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130065064A (en) * 2011-12-09 2013-06-19 김성헌 The sign language providing system using auto-transformed voice recognition data
KR101743230B1 (en) * 2016-04-18 2017-06-05 (주)케이디엠티 Apparatus and method for providing realistic language learning contents based on virtual reality and voice recognition
KR20190029913A (en) * 2017-09-13 2019-03-21 삼성전자주식회사 An electronic device and Method for controlling the electronic device thereof
KR20200128506A (en) * 2018-12-26 2020-11-13 (주)소프트젠 Virtual reality education system and method for language training of disabled person

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130065064A (en) * 2011-12-09 2013-06-19 김성헌 The sign language providing system using auto-transformed voice recognition data
KR101743230B1 (en) * 2016-04-18 2017-06-05 (주)케이디엠티 Apparatus and method for providing realistic language learning contents based on virtual reality and voice recognition
KR20190029913A (en) * 2017-09-13 2019-03-21 삼성전자주식회사 An electronic device and Method for controlling the electronic device thereof
KR20200128506A (en) * 2018-12-26 2020-11-13 (주)소프트젠 Virtual reality education system and method for language training of disabled person

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
비특허 1 *
비특허 2 *

Also Published As

Publication number Publication date
KR102500457B1 (en) 2023-02-17

Similar Documents

Publication Publication Date Title
Bragg et al. Sign language recognition, generation, and translation: An interdisciplinary perspective
US10977452B2 (en) Multi-lingual virtual personal assistant
US10229755B1 (en) Personal assistant computing system monitoring
US20220292269A1 (en) Method and apparatus for acquiring pre-trained model
US9805718B2 (en) Clarifying natural language input using targeted questions
Rubio-Drosdov et al. Seamless human-device interaction in the internet of things
CN112182252B (en) Intelligent medication question-answering method and device based on medicine knowledge graph
CN111985240B (en) Named entity recognition model training method, named entity recognition method and named entity recognition device
US20180301061A1 (en) Gesture recognition and communication
US20220405484A1 (en) Methods for Reinforcement Document Transformer for Multimodal Conversations and Devices Thereof
US9678947B2 (en) Pattern identification and correction of document misinterpretations in a natural language processing system
US10540445B2 (en) Intelligent integration of graphical elements into context for screen reader applications
US11756567B2 (en) Autocreation of conversational image representation
US10558760B2 (en) Unsupervised template extraction
Curtis et al. State of the art in AAC: a systematic review and taxonomy
US20200356251A1 (en) Conversion of handwriting to text in text fields
CN112232066A (en) Teaching outline generation method and device, storage medium and electronic equipment
US20180203855A1 (en) System for creating interactive media and method of operating the same
Zhang et al. A survey on mobile affective computing
US20230197063A1 (en) Generating emojis from user utterances
KR102500457B1 (en) Method of providing virtual reality for learning based on voice recognition
CN114841138A (en) Machine reading between rows
Nikam et al. Covid-19 Android chatbot using RASA
Judge et al. What is the potential for context aware communication aids?
Sicilia et al. ISABEL: An Inclusive and Collaborative Task-Oriented Dialogue System

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant