KR102330218B1 - Virtual reality education system and method for language training of disabled person - Google Patents

Virtual reality education system and method for language training of disabled person Download PDF

Info

Publication number
KR102330218B1
KR102330218B1 KR1020200147532A KR20200147532A KR102330218B1 KR 102330218 B1 KR102330218 B1 KR 102330218B1 KR 1020200147532 A KR1020200147532 A KR 1020200147532A KR 20200147532 A KR20200147532 A KR 20200147532A KR 102330218 B1 KR102330218 B1 KR 102330218B1
Authority
KR
South Korea
Prior art keywords
image
hmd device
control device
recognition result
hmd
Prior art date
Application number
KR1020200147532A
Other languages
Korean (ko)
Other versions
KR20200128506A (en
Inventor
김연표
Original Assignee
(주)소프트젠
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020180169239A external-priority patent/KR20200079748A/en
Application filed by (주)소프트젠 filed Critical (주)소프트젠
Priority to KR1020200147532A priority Critical patent/KR102330218B1/en
Publication of KR20200128506A publication Critical patent/KR20200128506A/en
Application granted granted Critical
Publication of KR102330218B1 publication Critical patent/KR102330218B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • G06Q50/205Education administration or guidance
    • G06Q50/2057Career enhancement or continuing education service
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Resources & Organizations (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Primary Health Care (AREA)
  • Health & Medical Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Marketing (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

본 발명은 발달장애인의 언어 훈련을 위한 가상현실 교육 시스템에 관한 것으로서, 2차원 영상을 360° VR 영상으로 변환하고 VR 영상을 복수의 영역들로 분할하며 분할된 각각의 영역에 위치 좌표를 설정하는 제어 장치와, 제어 장치로부터 VR 영상을 제공받아 표시하고 사용자의 음성을 감지하여 음성인식결과에 대응하여 VR 영상의 표시를 변경하는 HMD 장치를 포함한다.The present invention relates to a virtual reality education system for language training of persons with developmental disabilities, which converts a two-dimensional image into a 360° VR image, divides the VR image into a plurality of regions, and sets position coordinates in each of the divided regions. a control device; and an HMD device that receives and displays a VR image from the control device, detects a user's voice, and changes the display of the VR image in response to a voice recognition result.

Description

발달장애인의 언어 훈련을 위한 가상현실 교육 시스템 및 방법{VIRTUAL REALITY EDUCATION SYSTEM AND METHOD FOR LANGUAGE TRAINING OF DISABLED PERSON}Virtual reality education system and method for language training of persons with developmental disabilities

본 발명은 발달장애인의 언어 훈련을 위한 가상현실 교육 시스템 및 방법에 관한 것으로서, 더 상세하게는 가상현실 영상을 이용하여 언어 훈련과 함께 시각 교육을 함께 수행할 수 있는 가상현실 교육 시스템 및 방법에 관한 것이다.The present invention relates to a virtual reality education system and method for language training of persons with developmental disabilities, and more particularly, to a virtual reality education system and method capable of performing visual education together with language training using virtual reality images will be.

머리 착용 디스플레이(Head Mounted Display, 이하 "HMD"라 함) 기기가 보급화됨에 따라 가상현실(Virtual Reality, 이하 "VR"이라 함) 영상에 대한 관심도 높아지고 있다. HMD 기기는 마치 실제 주변 환경과 상호 작용을 하는 것처럼 느낄 수 있는 VR 영상을 사용자에게 제공할 수 있다.As head mounted display (hereinafter referred to as "HMD") devices become popular, interest in virtual reality (hereinafter referred to as "VR") images is also increasing. The HMD device can provide the user with a VR image that can feel as if they are interacting with the real surrounding environment.

360° VR 영상을 이용하면 사용자의 움직임에 따라 시점이 변화하여 다양한 시점의 영상이 제공될 수 있다. 이러한 특징을 활용하여 게임, 교육 등 다양한 분야에 적용하려는 시도가 활발하게 진행중에 있다.If a 360° VR image is used, the viewpoint changes according to the movement of the user, so that images from various viewpoints can be provided. Attempts to apply these characteristics to various fields such as games and education are actively underway.

하지만, 발달장애인과 같은 인지 능력이 부족한 사용자들은 VR 영상 시청에 따른 적절한 응답을 기대할 수 없으며, 특정 시점의 영상을 시청하도록 유도하는데 어려움이 있다. 따라서, 이러한 사용자들에게 제공되는 VR 영상을 이용한 시청각 교육 방법은 효율성이 떨어지는 문제가 있다.However, users who lack cognitive ability, such as those with developmental disabilities, cannot expect an appropriate response to VR video viewing, and have difficulty in guiding them to view a video at a specific point in time. Therefore, the audiovisual education method using the VR image provided to these users has a problem in that the efficiency is lowered.

선행문헌 1: 대한민국 공개특허공보 제10-2018-0098936호(2018.09.05 공개)Prior Document 1: Republic of Korea Patent Publication No. 10-2018-0098936 (published on September 5, 2018) 선행문헌 2: 대한민국 등록특허공보 제10-1696558호(2017.01.13 공고)Prior Document 2: Republic of Korea Patent Publication No. 10-1696558 (published on Jan. 13, 2017)

본 발명은 전술한 문제점을 해결하고자 하는 것으로서, 사용자의 음성을 감지하여 해당 사용자가 VR 영상 내의 어떤 오브젝트(object)를 인지하려고 하는지를 판단하고, 음성인식결과에 대응하는 오브젝트를 사용자가 정확하게 인지하는지 여부를 판단하는 발달장애인의 언어 훈련을 위한 가상현실 교육 시스템 및 방법을 제공함에 목적이 있다.The present invention is to solve the above-mentioned problems, by detecting the user's voice, determining which object the user is trying to recognize in the VR image, and whether the user accurately recognizes the object corresponding to the voice recognition result. The purpose of this is to provide a virtual reality education system and method for language training of people with developmental disabilities.

전술한 목적을 달성하기 위하여, 본 발명은 2차원 영상을 360° 가상현실(VR) 영상으로 변환하고, 상기 VR 영상을 복수의 영역들로 분할하며, 분할된 각각의 영역에 위치 좌표를 설정하는 제어 장치와, 상기 제어 장치로부터 상기 VR 영상을 제공받아 표시하고, 사용자의 음성을 감지하여 음성인식결과에 대응하여 상기 VR 영상의 표시를 변경하는 HMD 장치를 포함하는 발달장애인의 언어 훈련을 위한 가상현실 교육 시스템을 제공한다.In order to achieve the above object, the present invention converts a two-dimensional image into a 360° virtual reality (VR) image, divides the VR image into a plurality of regions, and sets position coordinates in each of the divided regions. Virtual for language training for people with developmental disabilities, comprising: a control device; and an HMD device that receives and displays the VR image from the control device, detects a user's voice, and changes the display of the VR image in response to a voice recognition result Provides a real education system.

실시 예에 따라, 상기 HMD 장치는, 상기 VR 영상을 표시하는 표시부와, 상기 사용자의 머리 움직임을 감지하여 동작 정보를 생성하는 센서부와, 상기 사용자의 음성을 감지하여 음성인식결과를 생성하는 음성 감지부와, 상기 동작 정보를 기초로 상기 사용자가 바라보는 중심 영역의 위치 좌표를 판단하고, 상기 음성인식결과에 대응하여 상기 표시부의 영상 표시를 제어하는 프로세서를 포함할 수 있다.According to an embodiment, the HMD device may include a display unit displaying the VR image, a sensor unit generating motion information by detecting a movement of the user's head, and a voice sensing unit detecting the user's voice and generating a voice recognition result. It may include a sensor and a processor for determining the coordinates of the location of the central region viewed by the user based on the motion information, and controlling the display of the image on the display unit in response to the voice recognition result.

실시 예에 따라, 상기 제어 장치는, 상기 HMD 장치로부터 상기 중심 영역의 위치 좌표를 수신하고, 상기 중심 영역의 위치 좌표를 기초로 상기 HMD 장치와 동일한 시점의 VR 영상을 표시할 수 있다.According to an embodiment, the control device may receive the position coordinates of the central region from the HMD device, and display a VR image of the same viewpoint as the HMD device based on the position coordinates of the central region.

실시 예에 따라, 상기 프로세서는 VR 영상에 포함된 복수의 오브젝트들 각각의 오브젝트 정보와 상기 음성인식결과를 비교하고, 상기 음성인식결과와 대응하는 오브젝트가 강조되어 표시되도록 상기 표시부를 제어할 수 있다.According to an embodiment, the processor may compare the voice recognition result with object information of each of a plurality of objects included in the VR image, and control the display unit to highlight and display an object corresponding to the voice recognition result .

실시 예에 따라, 상기 프로세서는, 상기 음성인식결과와 대응하는 오브젝트의 외곽선이 밝은 휘도로 강조되어 표시되도록 상기 표시부를 제어할 수 있다.According to an embodiment, the processor may control the display unit so that an outline of an object corresponding to the voice recognition result is highlighted and displayed with a bright luminance.

실시 예에 따라, 상기 프로세서는, 상기 음성인식결과와 대응하는 오브젝트를 포함한 영역의 휘도가 다른 영역의 휘도보다 증가되어 표시되도록 상기 표시부를 제어할 수 있다.According to an embodiment, the processor may control the display unit so that the luminance of the region including the object corresponding to the voice recognition result is displayed with increased luminance compared to the luminance of other regions.

실시 예에 따라, 상기 프로세서는, 상기 음성인식결과와 대응하는 오브젝트를 포함된 영역 이외의 영역의 휘도가 감소되어 표시되도록 상기 표시부를 제어할 수 있다.According to an embodiment, the processor may control the display unit to display the reduced luminance of a region other than the region including the object corresponding to the voice recognition result.

실시 예에 따라, 상기 오브젝트 정보는 오브젝트의 위치 좌표와 오브젝트를 지시하는 텍스트 정보를 포함하고, 상기 오브젝트 정보는 상기 제어 장치에 의해 생성될 수 있다.According to an embodiment, the object information may include position coordinates of the object and text information indicating the object, and the object information may be generated by the control device.

실시 예에 따라, 상기 제어 장치는, 상기 HMD 장치로부터 상기 음성인식결과를 수신하여 VR 영상에 포함된 복수의 오브젝트들 각각의 오브젝트 정보와 상기 음성인식결과를 비교하고, 상기 음성인식결과와 대응하는 오브젝트를 강조하여 표시할 수 있다.According to an embodiment, the control device receives the voice recognition result from the HMD device, compares the voice recognition result with object information of each of a plurality of objects included in the VR image, and uses the voice recognition result corresponding to the voice recognition result. You can highlight an object to make it visible.

또한, 전술한 목적을 달성하기 위하여, 본 발명은 가상현실(VR) 영상을 사용자에게 표시하는 HMD 장치와, 2차원 영상을 상기 VR 영상으로 변환하여 상기 HMD 장치에 제공하는 제어 장치를 이용한 발달장애인의 언어 훈련을 위한 가상현실 교육 방법에 있어서, 상기 HMD 장치가 사용자의 음성을 감지하여 음성인식결과를 생성하는 단계와, 상기 HMD 장치가, 상기 사용자에게 표시되는 VR 영상에 포함된 오브젝트들 중 상기 음성인식결과에 대응하는 오브젝트를 선별하는 단계와, 상기 HMD 장치가, 선별된 오브젝트를 상기 사용자에게 집중시키기 위해 상기 오브젝트를 강조하여 표시하는 단계와, 상기 HMD 장치가, 상기 사용자의 중심 시점의 위치 좌표를 판단하는 단계와, 상기 HMD 장치가, 상기 사용자의 중심 시점의 위치 좌표가 기 설정된 시간 동안 상기 선별된 오브젝트가 배치된 영역에 위치한 경우 교육 완료 메시지를 표시 화면상에 표시하는 단계를 포함하는 발달장애인의 언어 훈련을 위한 가상현실 교육 방법을 제공한다.In addition, in order to achieve the above object, the present invention is a developmentally disabled using an HMD device that displays a virtual reality (VR) image to a user, and a control device that converts a two-dimensional image into the VR image and provides it to the HMD device A virtual reality education method for language training, the method comprising: generating, by the HMD device, a voice recognition result by detecting a user's voice; Selecting an object corresponding to the voice recognition result, the HMD apparatus highlighting and displaying the object to focus the selected object on the user; Determining the coordinates and displaying, by the HMD device, an education completion message on a display screen when the location coordinates of the user's central viewpoint are located in the area where the selected object is disposed for a preset time Provides a virtual reality education method for language training for people with developmental disabilities.

실시 예에 따라, 상기 발달장애인의 언어 훈련을 위한 가상현실 교육 방법은, 상기 제어 장치가, 상기 HMD 장치로부터 상기 중심 시점의 위치 좌표를 수신하는 단계와, 상기 제어 장치가, 상기 중심 시점의 위치 좌표를 기초로 상기 HMD 장치가 표시하는 시점의 VR 영상과 동일한 VR 영상을 표시하는 단계를 더 포함할 수 있다.According to an embodiment, the virtual reality education method for language training of the developmentally disabled includes the steps of: receiving, by the control device, the coordinates of the position of the central viewpoint from the HMD device; The method may further include displaying the same VR image as the VR image of the viewpoint displayed by the HMD device based on the coordinates.

실시 예에 따라, 상기 발달장애인의 언어 훈련을 위한 가상현실 교육 방법은, 상기 제어 장치가, 상기 HMD 장치로부터 상기 음성인식결과를 수신하는 단계와, 상기 제어 장치가, 상기 VR 영상에 포함된 오브젝트들 중 상기 음성인식결과에 대응하는 오브젝트를 선별하는 단계와, 상기 제어 장치가, 선별된 오브젝트를 상기 오브젝트를 강조하여 표시하는 단계를 더 포함할 수 있다.According to an embodiment, the virtual reality education method for language training of the developmentally disabled includes the steps of: receiving, by the control device, the voice recognition result from the HMD device; The method may further include selecting an object corresponding to the voice recognition result from among them, and displaying, by the control device, the selected object by emphasizing the object.

실시 예에 따라, 상기 제어 장치가, 상기 HMD 장치로부터 교육 완료 신호를 수신하여 상기 교육 완료 메시지를 표시하는 단계를 더 포함할 수 있다.The method may further include, by the control device, receiving a training completion signal from the HMD device and displaying the training completion message.

본 발명의 발달장애인의 언어 훈련을 위한 가상현실 교육 시스템 및 방법에 따르면, 사용자의 음성을 감지하여 해당 사용자가 VR 영상 내의 어떤 오브젝트를 인지하려고 하는지를 판단할 수 있으며, 음성인식결과에 대응하는 오브젝트를 강조하여 표시함으로써 사용자의 오브젝트 인식을 도울 수 있다. According to the virtual reality education system and method for language training of persons with developmental disabilities of the present invention, it is possible to determine which object the user is trying to recognize in the VR image by detecting the user's voice, and to select the object corresponding to the voice recognition result. By highlighting the display, it is possible to help the user recognize the object.

또한, 본 발명의 발달장애인의 언어 훈련을 위한 가상현실 교육 시스템 및 방법에 따르면, 사용자의 중심 시점의 위치 좌표를 판단함으로써 사용자가 오브젝트를 효과적으로 인식하고 있는지를 정확하게 판단할 수 있다.In addition, according to the virtual reality education system and method for language training of persons with developmental disabilities of the present invention, it is possible to accurately determine whether the user effectively recognizes the object by determining the coordinates of the location of the user's central viewpoint.

도 1은 본 발명의 실시 예에 따른 발달장애인의 언어훈련을 위한 가상현실 교육 시스템의 개략적인 블록도이다.
도 2는 본 발명의 실시 예에 따른 HMD 장치의 개략적인 블록도이다.
도 3a와 도 3b는 본 발명의 실시 예에 따른 360°VR 영상을 설명하기 위한 도면이다.
도 4는 본 발명의 실시 예에 따른 발달장애인의 언어훈련을 위한 가상현실 교육 방법을 설명하기 위한 도면이다.
도 5는 본 발명의 실시 예에 따른 발달장애인의 언어훈련을 위한 가상현실 교육 방법을 설명하기 위한 흐름도이다.
도 6은 본 발명의 다른 실시 예에 따른 발달장애인의 언어훈련을 위한 가상현실 교육 방법을 설명하기 위한 흐름도이다.
1 is a schematic block diagram of a virtual reality education system for language training of persons with developmental disabilities according to an embodiment of the present invention.
2 is a schematic block diagram of an HMD device according to an embodiment of the present invention.
3A and 3B are diagrams for explaining a 360° VR image according to an embodiment of the present invention.
4 is a view for explaining a virtual reality education method for language training for persons with developmental disabilities according to an embodiment of the present invention.
5 is a flowchart illustrating a virtual reality education method for language training for persons with developmental disabilities according to an embodiment of the present invention.
6 is a flowchart illustrating a virtual reality education method for language training for persons with developmental disabilities according to another embodiment of the present invention.

이하에서는 본 발명의 실시 예에 관하여 첨부도면을 참조하여 상세하게 설명하기로 한다. 다만, 이하에서 설명되는 실시 예는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 발명을 쉽게 실시할 수 있을 정도로 상세하게 설명하기 위한 것에 불과하며, 이로 인해 본 발명의 보호범위가 한정되는 것을 의미하지는 않는다. 그리고 본 발명의 여러 실시 예를 설명함에 있어서, 동일한 기술적 특징을 갖는 구성요소에 대하여는 동일한 도면부호를 사용하기로 한다.Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings. However, the embodiments described below are merely for explaining in detail enough that a person of ordinary skill in the art to which the present invention pertains can easily implement the invention, thereby limiting the scope of protection of the present invention. doesn't mean And in describing various embodiments of the present invention, the same reference numerals will be used for components having the same technical characteristics.

도 1은 본 발명의 실시 예에 따른 발달장애인의 언어 훈련을 위한 가상현실 교육 시스템의 도면이고, 도 2는 본 발명의 실시 예에 따른 HMD 장치의 개략적인 블록도이다.1 is a diagram of a virtual reality education system for language training of persons with developmental disabilities according to an embodiment of the present invention, and FIG. 2 is a schematic block diagram of an HMD device according to an embodiment of the present invention.

도 1과 도 2를 참조하면, 본 발명의 실시 예에 따른 발달장애인 언어 훈련을 위한 가상현실 교육 시스템(10)은 HMD(head mounted display) 장치(100)와 제어 장치(200)를 포함할 수 있다.1 and 2 , the virtual reality education system 10 for language training for the developmentally disabled according to an embodiment of the present invention may include a head mounted display (HMD) device 100 and a control device 200 . have.

HMD 장치(100)는 웨어러블 표시장치, 예컨대 두부 장착형 표시 장치로 구현될 수 있으나, 이에 한정되는 것은 아니다. HMD 장치(100)는 프로세서(110), 표시부(120), 저장부(130), 센서부(140), 및 음성 감지부(150)를 포함할 수 있다.The HMD device 100 may be implemented as a wearable display device, for example, a head mounted display device, but is not limited thereto. The HMD device 100 may include a processor 110 , a display unit 120 , a storage unit 130 , a sensor unit 140 , and a voice sensing unit 150 .

프로세서(110)는 특정한 계산들 또는 태스크들을 수행할 수 있다. 예컨대, 프로세서(110)는 집적 회로(integrated circuit(IC)), 애플리케이션 프로세서(application processor(AP)), 모바일(mobile) AP를 제어할 수 있는 프로세서로 구현될 수 있으나 이에 한정되는 것은 아니다.The processor 110 may perform certain calculations or tasks. For example, the processor 110 may be implemented as a processor capable of controlling an integrated circuit (IC), an application processor (AP), and a mobile AP, but is not limited thereto.

프로세서(110)는 사용자의 음성에 기초하여 표시부(120)의 표시 동작을 제어할 수 있다. 예컨대, 프로세서(110)는 사용자의 음성이 영상의 특정 영역에 포함된 오브젝트와 관련이 있는 경우, 해당 오브젝트를 강조하여 표시하도록 표시부(120)를 제어할 수 있다.The processor 110 may control a display operation of the display unit 120 based on the user's voice. For example, when the user's voice is related to an object included in a specific region of the image, the processor 110 may control the display unit 120 to highlight and display the corresponding object.

또한, 프로세서(110)는 센서부(140)에서 측정된 사용자의 동작 정보를 기초로 사용자가 VR 영상을 바라보는 중심 영역의 위치 좌표를 판단할 수 있다.Also, the processor 110 may determine the coordinates of the location of the central region where the user views the VR image based on the user's motion information measured by the sensor unit 140 .

표시부(120)는 복수의 화소들을 포함하고, 입력된 영상 데이터를 이용하여 VR(virtual reality) 영상을 표시할 수 있다. 예컨대, 표시부(120)는 유기전계발광 표시 패널(Organic Light Emitting Display Panel), 액정 표시 패널(Liquid Crystal Display Panel), 플라즈마 표시 패널(Plasma Display Panel) 등으로 구현될 수 있으나, 이에 한정되는 것은 아니다.The display unit 120 includes a plurality of pixels, and may display a virtual reality (VR) image using input image data. For example, the display unit 120 may be implemented as an organic light emitting display panel, a liquid crystal display panel, a plasma display panel, etc., but is not limited thereto. .

저장부(130)는 제어 장치(200)로부터 제공된 VR 영상을 저장할 수 있다. 실시 예에 따라, 저장부(130)는 플래시(flash) 메모리 등과 같은 비휘발성 메모리 또는 DRAM(dynamic RAM) 등과 같은 휘발성 메모리로 구현될 수 있으나 이에 한정되는 것은 아니다.The storage unit 130 may store the VR image provided from the control device 200 . According to an embodiment, the storage unit 130 may be implemented as a non-volatile memory such as a flash memory or a volatile memory such as a dynamic RAM (DRAM), but is not limited thereto.

센서부(140)는 사용자의 머리 움직임을 감지하는 센서, 예컨대 자이로 센서를 포함할 수 있다. 상기 자이로 센서는 사용자의 움직임에 따라 자이로 센서의 x축, y축, 및 z축의 동작 정보를 생성하여 프로세서(110)에 제공할 수 있다. The sensor unit 140 may include a sensor that detects a user's head movement, for example, a gyro sensor. The gyro sensor may generate motion information on the x-axis, y-axis, and z-axis of the gyro sensor according to a user's movement and provide it to the processor 110 .

음성 감지부(150)는 HMD 장치(100) 주변에서 발생하는 사운드 중에서 사용자의 음성만을 추출하여 음성 데이터를 생성할 수 있으며, 상기 음성 데이터를 분석하여 사용자가 발화한 단어를 포함하는 음성인식결과를 프로세서(110)에 제공할 수 있다.The voice sensor 150 may generate voice data by extracting only the user's voice from the sounds generated around the HMD device 100, and analyze the voice data to obtain a voice recognition result including the words spoken by the user. It may be provided to the processor 110 .

제어 장치(200)는 무선 또는 유선으로 데이터를 주거나 받을 수 있는 무선 통신 장치기, 이동 장치기, 및 컴퓨팅 장치를 의미할 수 있다. The control device 200 may refer to a wireless communication device, a mobile device, and a computing device capable of sending or receiving data wirelessly or by wire.

예컨대, 제어 장치(200)는 서버, PC, 스마트폰(smart phone), 태블릿 (tablet) PC, 모바일 인터넷 장치(mobile internet device(MID)), 인터넷 태블릿, IoT(internet of things) 장치, IoE(internet of everything) 장치, 데스크 탑 컴퓨터(desktop computer), 랩탑(laptop) 컴퓨터, 워크스테이션 컴퓨터, 또는 PDA (personal digital assistant)를 의미할 수 있으나, 이에 한정되는 것은 아니다.For example, the control device 200 is a server, PC, smart phone (smart phone), tablet (tablet) PC, mobile internet device (mobile internet device (MID)), Internet tablet, IoT (internet of things) device, IoE ( internet of everything) device, a desktop computer, a laptop computer, a workstation computer, or a personal digital assistant (PDA), but is not limited thereto.

제어 장치(200)는 2차원 영상을 변환하여 360° VR 영상을 생성할 수 있고, 360° VR 영상을 HMD 장치(100)에 제공할 수 있다. 제어 장치(200)는 VR 영상을 복수의 영역들로 분할할 수 있고, 제어 장치(200)는 복수의 영역들 각각에 위치 좌표를 설정할 수 있다. The control device 200 may generate a 360° VR image by converting the 2D image, and may provide the 360° VR image to the HMD device 100 . The control device 200 may divide the VR image into a plurality of regions, and the control device 200 may set position coordinates in each of the plurality of regions.

또한, 제어 장치(200)는 HMD 장치(100)와의 무선 통신을 통해 HMD 장치(100)에서 표시되는 VR 영상과 동일한 VR 영상을 표시할 수 있다. HMD 장치(100)를 착용한 사용자는 발달장애인과 같이 의사소통이 원활하지 않은 자일 수 있기 때문에 교육자의 지도에 응답하여 피드백을 적절하게 제공하지 못할 수 있다. 따라서, 제어 장치(200)의 사용자는 HMD 장치(100)에서 표시되는 VR 영상과 동일한 VR 영상을 시청함으로써, HMD 장치(100)의 사용자가 교육자의 지도에 적절하게 반응하는지 여부를 판단할 수 있다.Also, the control device 200 may display the same VR image as the VR image displayed on the HMD device 100 through wireless communication with the HMD device 100 . A user wearing the HMD device 100 may not be able to properly provide feedback in response to the instruction of the educator because it may be a person with poor communication, such as a developmentally disabled person. Accordingly, the user of the control device 200 may determine whether the user of the HMD device 100 properly responds to the instruction of the educator by viewing the same VR image as the VR image displayed on the HMD device 100 . .

제어 장치(200)는 HMD 장치(100)의 사용자 움직임에 따른 시점 변화를 반영하여 표시되는 VR 영상의 시점을 변화시킬 수 있기 때문에, 교육자는 제어 장치(200)에서 표시되는 VR 영상을 확인하여 HMD 장치(100)의 사용자의 시점변화 추이를 관찰할 수 있다.Since the control device 200 may change the viewpoint of the displayed VR image by reflecting the viewpoint change according to the user's movement of the HMD device 100 , the educator checks the VR image displayed on the control device 200 to determine the HMD A change in the viewpoint of the user of the device 100 may be observed.

이를 위해, 제어 장치(200)는 HMD 장치(100)로부터 사용자의 현재 중심 시점, 즉 사용자가 바라보고 있는 중심 영역의 위치 좌표를 실시간으로 제공받을 수 있다. 제어 장치(200)는 중심 영역의 위치 좌표를 기초로 사용자가 바라보고 있는 중심 영역이 제어 장치(200)가 표시하는 화면 중심에 위치하도록 제어 장치(200)에서 표시되는 VR 영상을 제어할 수 있다.To this end, the control device 200 may receive from the HMD device 100 the current center point of view of the user, that is, the coordinates of the location of the center area that the user is looking at in real time. The control device 200 may control the VR image displayed on the control device 200 so that the central region viewed by the user is located at the center of the screen displayed by the control device 200 based on the position coordinates of the central region. .

도 3a와 도 3b는 본 발명의 실시 예에 따른 360°VR 영상을 설명하기 위한 도면이다.3A and 3B are diagrams for explaining a 360° VR image according to an embodiment of the present invention.

도 3a를 참조하면, 제어 장치(200)는 2차원 영상을 이용하여 구 형태의 360° VR 영상을 생성할 수 있다. 제어 장치(200)는 360° VR 영상을 복수의 영역(AR)들로 분할한 후, 각각의 영역(AR)에 위치 좌표를 설정할 수 있다. 이때, 영역(AR)들 각각의 크기는 관리자의 설정에 따라 다양하게 변경될 수 있다.Referring to FIG. 3A , the control device 200 may generate a spherical 360° VR image using a 2D image. After dividing the 360° VR image into a plurality of regions AR, the control device 200 may set position coordinates in each region AR. In this case, the size of each of the regions AR may be variously changed according to a setting of an administrator.

도 3b를 참조하면, HMD 장치(100)의 사용자는 360° 전방위에서 표시되는 VR 영상을 시청할 수 있다. HMD 장치(100)는 자이로 센서에서 측정된 정보를 이용하여 사용자가 어느 영역을 바라보고 있는지, 즉 중심 영역(ARM)을 판단할 수 있다.Referring to FIG. 3B , a user of the HMD device 100 may view a VR image displayed in 360° omnidirectional directions. The HMD device 100 may determine which area the user is looking at, ie, the center area ARM, by using information measured by the gyro sensor.

사용자의 움직임에 따라 자이로 센서의 x축, y축, 및 z축의 정보는 변경될 수 있으며, HMD 장치(100)는 변경된 x축, y축, 및 z축의 정보를 기초로 사용자가 바라보는 VR 영상의 중심 영역(ARM)을 판단할 수 있다. 그리고 HMD 장치(100)는 중심 영역(ARM)의 위치 좌표를 제어 장치(200)에 제공할 수 있다.Information on the x-axis, y-axis, and z-axis of the gyro sensor may be changed according to the user's movement, and the HMD device 100 displays a VR image viewed by the user based on the changed information on the x-axis, y-axis, and z-axis. It is possible to determine the center area ARM of . In addition, the HMD device 100 may provide the location coordinates of the center region ARM to the control device 200 .

도 4는 본 발명의 실시 예에 따른 발달장애인의 언어훈련을 위한 가상현실 교육 방법을 설명하기 위한 도면이다.4 is a view for explaining a virtual reality education method for language training for persons with developmental disabilities according to an embodiment of the present invention.

도 4를 참조하면, HMD 장치(100)는 제어장치로부터 VR 영상(IM)을 제공받거나 저장부(130)에 저장된 VR 영상(IM)을 재생하여 표시부(120)에 표시할 수 있다. VR 영상(IM)에는 사용자의 언어 교육을 위한 복수의 오브젝트들이 포함될 수 있다. Referring to FIG. 4 , the HMD device 100 may receive a VR image IM from the control device or reproduce the VR image IM stored in the storage unit 130 and display it on the display unit 120 . The VR image IM may include a plurality of objects for language education of a user.

VR 영상은 360° 전방위에 대한 표시 화면을 포함하고 있다. HMD 장치(100)에서 VR 영상은 가상현실을 제공하는 것으로서, 실제와 마찬가지로 전방위에 배치된 영상을 동시에 시청할 수는 없다. HMD 장치(100)의 사용자가 시청할 수 있는 영역은 사용자의 안구의 전방에 위치한 영역들이며, 사용자의 움직임에 따라 표시 영역은 변경될 수 있다. 각 표시 영역에는 오브젝트들이 배치될 수 있으며, 표시 화면이 변경되게 되면 인지할 수 있는 오브젝트들의 배치도 변경되게 된다.VR video includes a 360° omnidirectional display screen. In the HMD device 100 , the VR image provides virtual reality, and it is not possible to simultaneously view images arranged in all directions as in reality. The user-viewable area of the HMD device 100 is the area located in front of the user's eyeball, and the display area may be changed according to the user's movement. Objects may be arranged in each display area, and when the display screen is changed, the arrangement of recognizable objects is also changed.

예컨대, HMD 장치(100)의 중심 시점이 제1 중심 영역(ARM)을 바라보게 되면 표시 화면상에는 제1 내지 제3 오브젝트들(OB1 내지 OB3)이 표시될 수 있지만, 사용자의 중심 시점이 제1 중심 영역(ARM)이 아닌 다른 영역을 바라보게 되면 표시 화면이 변경되게 되어 오브젝트들의 배치도 달라지게 된다.For example, when the central viewpoint of the HMD device 100 looks at the first central region ARM, the first to third objects OB1 to OB3 may be displayed on the display screen, but the user's central viewpoint is the first When looking at an area other than the center area ARM, the display screen is changed and the arrangement of objects is also changed.

HMD 장치(100)는 오브젝트들 각각의 위치를 구분하기 위해, 오브젝트가 포함된 영역의 위치 좌표를 오브젝트 정보에 저장할 수 있다. 예컨대, 제1 오브젝트(OB1)에 대한 제1 오브젝트 정보는 제1 영역들(ARG1)의 위치 좌표를 포함할 수 있고, 제2 오브젝트(OB2)에 대한 제2 오브젝트 정보는 제2 영역들(ARG2)의 위치 좌표를 포함할 수 있고, 제3 오브젝트(OB3)에 대한 제3 오브젝트 정보는 제3 영역들(ARG3)의 위치 좌표를 포함할 수 있다.The HMD device 100 may store the position coordinates of a region including the object in object information in order to distinguish the positions of each of the objects. For example, the first object information on the first object OB1 may include position coordinates of the first regions ARG1 , and the second object information on the second object OB2 includes the second regions ARG2 . ), and the third object information on the third object OB3 may include position coordinates of the third regions ARG3.

한편, 제어 장치(200)는 HMD 장치(100)로부터 실시간으로 또는 기설정 주기마다 제공된 제 중심 영역(ARM)의 위치 좌표를 수신받아 HMD 장치(100)에서 표시되는 VR 영상(IM)과 동일한 시점의 VR 영상을 표시할 수 있다. 제어 장치(200)의 사용자는 HMD 장치(100)의 사용자와 동일한 화면을 시청함으로써 HMD 장치(100)의 사용자가 언어 훈련을 정상적으로 수행하고 있는지를 판단할 수 있다.Meanwhile, the control device 200 receives the position coordinates of the center region ARM provided in real time or every preset period from the HMD device 100 , and the same viewpoint as the VR image IM displayed on the HMD device 100 . of VR images can be displayed. The user of the control device 200 may determine whether the user of the HMD device 100 is normally performing language training by viewing the same screen as the user of the HMD device 100 .

예컨대, HMD 장치(100)의 중심 시점이 제1 중심 영역(ARM)을 바라보고 있는 경우, HMD 장치(100)는 제1 중심 영역(ARM)의 위치 좌표(PC)를 제어 장치(200)에 제공할 수 있다. 그리고 제어 장치(200)는 위치 좌표(PC)를 기초로 제1 중심 영역(ARM)이 표시 화면의 정중앙에 위치하도록 VR 영상(IM)을 표시할 수 있다.For example, when the central viewpoint of the HMD device 100 faces the first central region ARM, the HMD device 100 transmits the position coordinate PC of the first central region ARM to the control device 200 . can provide In addition, the control device 200 may display the VR image IM so that the first central region ARM is positioned at the exact center of the display screen based on the position coordinate PC.

HMD 장치(100)는 사용자의 음성을 인식하고, 해당 음성에 대응하는 영상을 강조하여 표시할 수 있다. HMD 장치(100)의 사용자는 언어 사용이 미숙한 발달장애를 가진자이기 때문에, HMD 장치(100)는 이러한 사용자를 위해 사물을 구분하는 훈련과 함께 언어 발달을 촉진하는 훈련을 제공할 수 있다.The HMD device 100 may recognize a user's voice and display an image corresponding to the corresponding voice by emphasizing it. Since the user of the HMD device 100 is a person with a developmental disability in which language use is immature, the HMD device 100 may provide training for facilitating language development as well as training for classifying objects for the user.

먼저, HMD 장치(100)는 사용자의 음성을 감지하여 음성을 분석할 수 있다. 언어 사용이 미숙한 자들의 발음은 부정확할 수 있기 때문에, HMD 장치(100)의 음성 감지부(150)는 HMM(Hidden Markov Model) 알고리즘 등의 음성인식 알고리즘을 이용하여 인식 대상 후보 단어와 감지된 단어를 비교하여 가장 유력한 후보 단어를 음성인식결과로 결정할 수 있다. 그리고 HMD 장치(100)는 결정된 음성인식결과를 제어 장치(200)에 제공할 수 있다.First, the HMD device 100 may detect a user's voice and analyze the voice. Since the pronunciation of those who are inexperienced in language may be inaccurate, the voice sensing unit 150 of the HMD device 100 uses a voice recognition algorithm such as a Hidden Markov Model (HMM) algorithm to identify candidate words and detected words. By comparing the words, the most likely candidate word may be determined as the speech recognition result. In addition, the HMD device 100 may provide the determined voice recognition result to the control device 200 .

HMD 장치(100)는 음성인식결과와 대응하는 오브젝트를 선별하여, 해당 오브젝트를 화면상에서 강조하여 표시할 수 있다.The HMD device 100 may select an object corresponding to the voice recognition result, and display the object by highlighting it on the screen.

구체적으로, HMD 장치(100)는 음성인식결과에 포함된 정보와 대응하는 오브젝트 정보를 비교하여 오브젝트들 중 음성인식결과에 대응하는 오브젝트를 선별할 수 있다. Specifically, the HMD device 100 may compare information included in the voice recognition result with the corresponding object information to select an object corresponding to the voice recognition result from among the objects.

예컨대, 음성인식결과에 '거울'이라는 텍스트 정보가 포함된 경우, HMD 장치(100)는 표시 화면상에 배치된 제1 내지 제3 오브젝트 정보들(OB1 내지 OB3)에 '거울'과 대응하는 정보가 포함되어 있는지 판단할 수 있다. 만약, 제1 오브젝트 정보에 '거울'에 관련된 정보가 포함되어 있는 경우, HMD 장치(100)는 제1 오브젝트(OB1)를 음성인식결과와 대응하는 것으로 판단할 수 있다.For example, when text information 'mirror' is included in the voice recognition result, the HMD device 100 may display information corresponding to 'mirror' in the first to third object information OB1 to OB3 disposed on the display screen. It can be determined whether or not If the first object information includes information related to 'mirror', the HMD device 100 may determine that the first object OB1 corresponds to the voice recognition result.

HMD 장치(100)는 선별된 오브젝트가 위치한 영역의 위치 좌표를 기초로 해당 영역의 오브젝트를 다른 영역의 오브젝트보다 강조하여 표시할 수 있다.The HMD apparatus 100 may display the object of the corresponding area with more emphasis than the object of the other area based on the coordinates of the location of the area where the selected object is located.

실시 예에 따라, HMD 장치(100)는 음성인식결과와 대응하는 오브젝트의 외곽선을 하이라이트 표시할 수 있다. According to an embodiment, the HMD device 100 may highlight and display an outline of an object corresponding to the voice recognition result.

예컨대, 제1 오브젝트(OB1)가 음성인식결과와 대응하는 것으로 판단된 경우, HMD 장치(100)는 제1 오브젝트(OB1)인 '거울 이미지'의 외곽선을 밝은 휘도로 강조하여 표시할 수 있다.For example, when it is determined that the first object OB1 corresponds to the voice recognition result, the HMD device 100 may highlight and display the outline of the 'mirror image' that is the first object OB1 with bright luminance.

다른 실시 예에 따라, HMD 장치(100)는 음성인식결과와 대응하는 오브젝트가 포함된 영역의 휘도를 다른 영역의 휘도보다 증가시켜서 높은 휘도로 표시된 오브젝트를 사용자에게 집중시킬 수 있다.According to another embodiment, the HMD apparatus 100 may increase the luminance of a region including an object corresponding to the voice recognition result from that of other regions to focus an object displayed with a high luminance on the user.

예컨대, 제1 오브젝트(OB1)가 음성인식결과와 대응하는 것으로 판단된 경우, HMD 장치(100)는 제1 오브젝트(OB1)가 포함된 제1 영역들(ARG1)의 휘도만을 증가시키고, 나머지 영역들의 휘도를 유지하여 제1 영역들(ARG1)에 포함된 제1 오브젝트(OB1)를 강조할 수 있다.For example, when it is determined that the first object OB1 corresponds to the voice recognition result, the HMD apparatus 100 increases only the luminance of the first areas ARG1 including the first object OB1, and the remaining area The first object OB1 included in the first regions ARG1 may be emphasized by maintaining the luminance.

또 다른 실시 예에 따라, HMD 장치(100)는 음성인식결과와 대응하는 오브젝트가 포함된 영역 이외의 영역의 휘도를 감소시켜서 높은 휘도로 표시된 오브젝트를 사용자에게 집중시킬 수 있다. According to another embodiment, the HMD apparatus 100 may reduce the luminance of a region other than the region including the object corresponding to the voice recognition result to focus the object displayed with high luminance on the user.

예컨대, 제1 오브젝트(OB1)가 음성인식결과와 대응하는 것으로 판단된 경우, HMD 장치(100)는 제1 오브젝트(OB1)가 포함된 제1 영역들(ARG1) 이외의 영역들의 휘도를 감소시키고, 제1 영역들(ARG1)의 휘도를 유지하여 제1 영역들(ARG1)에 포함된 제1 오브젝트(OB1)를 강조할 수 있다.For example, when it is determined that the first object OB1 corresponds to the voice recognition result, the HMD apparatus 100 reduces the luminance of regions other than the first regions ARG1 including the first object OB1 and , the first object OB1 included in the first regions ARG1 may be emphasized by maintaining the luminance of the first regions ARG1 .

이후, 사용자의 중심 시점의 위치 좌표가 기 설정된 시간 동안 선별된 오브젝트가 배치된 영역에 위치한 경우, HMD 장치(100)는 교육 완료 메시지를 표시화면 상에 표시하거나 교육 완료 음성을 외부에 송출할 수 있다.Thereafter, when the location coordinates of the user's central viewpoint are located in the area where the selected object is disposed for a preset time, the HMD device 100 may display a training completion message on the display screen or transmit a training completion voice to the outside. have.

예컨대, 사용자의 중심 시점의 위치 좌표가 제1 오브젝트(OB1)가 배치된 제1 영역들(ARG1) 상에 3초 이상 위치한 경우, HMD 장치(100)는 교육 완료 메시지를 표시화면상에 표시하거나 교육 완료 음성을 외부에 송출하여 교육과정을 종료할 수 있다.For example, when the position coordinates of the user's central viewpoint are located on the first regions ARG1 in which the first object OB1 is disposed for 3 seconds or longer, the HMD device 100 displays an education completion message on the display screen or The training course can be ended by transmitting the training completion voice to the outside.

한편, 제어 장치(200)는 HMD 장치(100)로부터 음성인식결과를 수신하여 HMD 장치(100)가 강조하여 표시하는 오브젝트를 동일하게 강조하여 표시할 수 있다.Meanwhile, the control device 200 may receive the voice recognition result from the HMD device 100 and display the object highlighted and displayed by the HMD device 100 with the same emphasis.

예컨대, 제어 장치(200)가 HMD 장치(100)로부터 수신한 음성인식결과에 '거울'이라는 텍스트 정보가 포함된 경우, 제어 장치(200)는 표시 화면상에 배치된 제1 내지 제3 오브젝트 정보들(OB1 내지 OB3)에 '거울'과 대응하는 정보가 포함되어 있는지 판단할 수 있다. 그리고 제1 오브젝트(OB1)에 '거울'에 관련된 정보가 포함되어 있는 경우, 제어 장치(200)는 제1 오브젝트(OB1)를 음성인식결과와 대응하는 것으로 판단하여 제1 오브젝트(OB1)를 제2 및 제3 오브젝트들(OB2 및 OB3)보다 강조하여 표시할 수 있다.For example, when the text information 'mirror' is included in the voice recognition result received by the control device 200 from the HMD device 100, the control device 200 provides information on the first to third objects disposed on the display screen. It may be determined whether information corresponding to the 'mirror' is included in the fields OB1 to OB3. And when the first object OB1 includes information related to 'mirror', the control device 200 determines that the first object OB1 corresponds to the voice recognition result and removes the first object OB1. The second and third objects OB2 and OB3 may be displayed with greater emphasis.

이와 같이, 본 발명의 실시 예에 따른 발달장애인 언어 훈련을 위한 가상현실 교육 시스템은 HMD 장치(100)의 사용자의 언어 사용과 사물 인지 능력을 강화시키기 위해 사용자의 음성을 감지하여 음성과 대응하는 오브젝트를 사용자에게 집중적으로 인지시킬 수 있다. As such, the virtual reality education system for language training for the developmentally disabled according to an embodiment of the present invention detects the user's voice in order to strengthen the user's language use and object recognition ability of the HMD device 100, and an object corresponding to the voice can be focused on the user.

도 5는 본 발명의 실시 예에 따른 발달장애인의 언어훈련을 위한 가상현실 교육 방법을 설명하기 위한 흐름도이다.5 is a flowchart illustrating a virtual reality education method for language training for persons with developmental disabilities according to an embodiment of the present invention.

도 5를 참조하면, HMD 장치(100)는 사용자의 음성을 감지하여 음성인식결과를 생성할 수 있다(S100).Referring to FIG. 5 , the HMD device 100 may detect the user's voice and generate a voice recognition result (S100).

그리고 HMD 장치(100)는 사용자에게 표시되는 VR 영상(IM)에 포함된 오브젝트들 중 음성인식결과에 대응하는 오브젝트를 선별할 수 있다(S110).In addition, the HMD device 100 may select an object corresponding to the voice recognition result from among the objects included in the VR image IM displayed to the user (S110).

그리고 HMD 장치(100)는 선별된 오브젝트를 사용자에게 집중시키기 위해 오브젝트를 강조하여 표시할 수 있다(S120).In addition, the HMD device 100 may highlight and display the selected object in order to focus the selected object on the user ( S120 ).

그리고 HMD 장치(100)는 사용자의 중심 시점의 위치 좌표(PC)를 판단할 수 있다(S130).In addition, the HMD device 100 may determine the location coordinates (PC) of the user's central viewpoint ( S130 ).

그리고 사용자의 중심 시점의 위치 좌표(PC)가 기 설정된 시간 동안 선별된 오브젝트가 배치된 영역에 위치한 경우, HMD 장치(100)는 교육 완료 메시지를 표시 화면상에 표시하여 언어 교육을 종료할 수 있다(S140).And when the location coordinates (PC) of the user's central viewpoint are located in the area where the selected object is disposed for a preset time, the HMD device 100 may display a training completion message on the display screen to end the language training. (S140).

도 6은 본 발명의 다른 실시 예에 따른 발달장애인의 언어훈련을 위한 가상현실 교육 방법을 설명하기 위한 흐름도이다.6 is a flowchart illustrating a virtual reality education method for language training for persons with developmental disabilities according to another embodiment of the present invention.

도 6을 참조하면, 제어 장치(200)는 HMD 장치(100)로부터 중심 시점의 위치 좌표(PC)를 수신할 수 있다(S200).Referring to FIG. 6 , the control device 200 may receive the location coordinates PC of the central viewpoint from the HMD device 100 ( S200 ).

그리고 제어 장치(200)는 중심 시점의 위치 좌표(PC)를 기초로 HMD 장치(100)가 표시하는 시점의 VR 영상(IM)과 동일한 VR 영상을 표시할 수 있다(S210).In addition, the control device 200 may display the same VR image as the VR image IM of the viewpoint displayed by the HMD device 100 based on the position coordinate PC of the central viewpoint ( S210 ).

그리고 제어 장치(200)는 HMD 장치(100)로부터 음성인식결과를 수신할 수 있다(S220).And the control device 200 may receive a voice recognition result from the HMD device 100 (S220).

그리고 제어 장치(200)는 VR 영상에 포함된 오브젝트들 중 음성인식결과에 대응하는 오브젝트를 선별할 수 있다(S230).In addition, the control device 200 may select an object corresponding to the voice recognition result from among the objects included in the VR image (S230).

그리고 제어 장치(200)는 선별된 오브젝트를 오브젝트를 강조하여 표시할 수 있다(S240).In addition, the control device 200 may display the selected object by emphasizing the object ( S240 ).

그리고 제어 장치(200)는 HMD 장치(100)로부터 교육 완료 신호를 수신하여 상기 교육 완료 메시지를 표시할 수 있다(S250).In addition, the control device 200 may receive the training completion signal from the HMD device 100 and display the training completion message (S250).

이상에서 본 발명의 실시 예에 관하여 설명하였으나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 본 발명의 특허청구범위를 벗어남이 없이 다양하게 변형 실시할 수 있을 것으로 이해된다.Although the embodiments of the present invention have been described above, it is understood that those of ordinary skill in the art to which the present invention pertains may make various modifications without departing from the scope of the claims of the present invention.

100: HMD 장치
110: 프로세서
120: 표시부
130: 저장부
140: 센서부
150: 음성 감지부
200: 제어 장치
100: HMD device
110: processor
120: display unit
130: storage
140: sensor unit
150: voice detection unit
200: control device

Claims (1)

발달장애인에 장착되어 가상현실(VR) 영상을 표시하는 HMD 장치와, 2차원 영상을 상기 VR 영상으로 변환하여 상기 HMD 장치에 제공하고, 상기 HMD 장치의 사용자 움직임에 따른 시점 변화를 반영하여 상기 VR 영상의 중심 시점을 변화시키는 제어 장치를 이용한 발달장애인의 언어 훈련을 위한 가상현실 교육 방법에 있어서,
상기 제어 장치가, 상기 2차원 영상을 이용하여 구 형태의 360° VR 영상을 생성하는 단계;
상기 제어 장치가, 상기 VR 영상을 복수의 영역들로 분할하여 상기 복수의 영역들 각각에 위치 좌표를 설정하는 단계;
상기 HMD 장치가, 상기 VR 영상을 상기 발달장애인에게 표시하는 단계;
상기 HMD 장치가 교육자의 음성을 감지하여 음성인식결과를 생성하는 단계;
상기 HMD 장치가, 상기 VR 영상 내 오브젝트들 중 상기 음성인식결과에 대응하는 오브젝트를 선별하는 단계;
상기 HMD 장치가, 선별된 오브젝트를 상기 발달장애인에게 집중시키기 위해 상기 오브젝트를 강조하여 표시하는 단계;
상기 HMD 장치가, 자이로 센서에 의해 측정된 상기 발달장애인의 움직임에 따라 변화하는 x축, y축, 및 z축의 정보를 기초로 상기 발달장애인이 바라보는 상기 VR 영상 내 중심 시점의 위치 좌표를 판단하는 단계;
상기 제어 장치가, 상기 HMD 장치로부터 상기 중심 시점의 위치 좌표를 수신하는 단계;
상기 제어 장치가, 상기 발달장애인의 시점 변화 추이를 상기 교육자에게 인식시키기 위해, 상기 중심 시점의 위치 좌표를 기초로 상기 HMD 장치와 동일한 시점의 VR 영상을 표시하는 단계;
상기 HMD 장치가, 오브젝트 정보와 상기 중심 시점의 위치 좌표를 이용하여, 상기 중심 시점의 위치 좌표가 기 설정된 시간 동안 상기 선별된 오브젝트가 배치된 영역의 위치 좌표에 위치한 경우 교육 완료 메시지를 표시 화면상에 표시하는 단계; 및
상기 제어 장치가, 상기 HMD 장치로부터 교육 완료 신호를 수신하여 상기 교육 완료 메시지를 표시하는 단계를 포함하며,
상기 제어 장치가, 상기 HMD 장치로부터 상기 음성인식결과를 수신하는 단계와, 상기 제어 장치가, 상기 VR 영상에 포함된 오브젝트들 중 상기 음성인식결과에 대응하는 오브젝트를 선별하는 단계와, 상기 제어 장치가, 선별된 오브젝트를 상기 오브젝트를 강조하여 표시하는 단계를 더 포함하고,
상기 HMD 장치는 상기 VR 영상 내 오브젝트들 각각의 위치를 구분하기 위해, 오브젝트가 포함된 영역의 위치 좌표를 상기 오브젝트 정보에 저장하는 발달장애인의 언어 훈련을 위한 가상현실 교육 방법.
An HMD device that is mounted on a person with developmental disabilities to display a virtual reality (VR) image, converts a two-dimensional image into the VR image and provides it to the HMD device. In a virtual reality education method for language training of persons with developmental disabilities using a control device that changes the central point of view of an image,
generating, by the control device, a spherical 360° VR image using the two-dimensional image;
dividing, by the control device, the VR image into a plurality of regions and setting position coordinates in each of the plurality of regions;
displaying, by the HMD device, the VR image to the developmentally disabled;
generating, by the HMD device, a voice recognition result by detecting an educator's voice;
selecting, by the HMD device, an object corresponding to the voice recognition result from among the objects in the VR image;
highlighting and displaying, by the HMD device, the selected object to focus the selected object on the developmentally disabled;
The HMD device determines the position coordinates of the central viewpoint in the VR image viewed by the developmentally disabled based on the x-axis, y-axis, and z-axis information that changes according to the movement of the developmentally disabled measured by the gyro sensor to do;
receiving, by the control device, the coordinates of the position of the central viewpoint from the HMD device;
displaying, by the control device, a VR image of the same viewpoint as the HMD device based on the location coordinates of the central viewpoint in order to recognize the change in viewpoint of the developmentally disabled to the educator;
The HMD device displays an education completion message on the display screen when the position coordinates of the central viewpoint are located at the position coordinates of the area in which the selected object is disposed for a preset time using the object information and the position coordinates of the central viewpoint to mark on; and
and receiving, by the control device, a training completion signal from the HMD device and displaying the training completion message,
receiving, by the control device, the voice recognition result from the HMD device; selecting, by the control device, an object corresponding to the voice recognition result from among the objects included in the VR image; A, further comprising the step of displaying the selected object by highlighting the object,
The HMD device stores the location coordinates of the area including the object in the object information in order to distinguish the location of each of the objects in the VR image.
KR1020200147532A 2018-12-26 2020-11-06 Virtual reality education system and method for language training of disabled person KR102330218B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200147532A KR102330218B1 (en) 2018-12-26 2020-11-06 Virtual reality education system and method for language training of disabled person

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020180169239A KR20200079748A (en) 2018-12-26 2018-12-26 Virtual reality education system and method for language training of disabled person
KR1020200147532A KR102330218B1 (en) 2018-12-26 2020-11-06 Virtual reality education system and method for language training of disabled person

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020180169239A Division KR20200079748A (en) 2018-12-26 2018-12-26 Virtual reality education system and method for language training of disabled person

Publications (2)

Publication Number Publication Date
KR20200128506A KR20200128506A (en) 2020-11-13
KR102330218B1 true KR102330218B1 (en) 2021-11-24

Family

ID=73398947

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200147532A KR102330218B1 (en) 2018-12-26 2020-11-06 Virtual reality education system and method for language training of disabled person

Country Status (1)

Country Link
KR (1) KR102330218B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240040277A (en) 2022-09-21 2024-03-28 배재대학교 산학협력단 Virtual reality-based education system for self-learning of people with developmental disabilities

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102500457B1 (en) * 2021-01-27 2023-02-17 주식회사 시온네트웍 Method of providing virtual reality for learning based on voice recognition

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101276097B1 (en) * 2012-11-16 2013-06-18 (주) 피디케이리미티드 Simulator and simulation method for treating adhd
KR101743230B1 (en) * 2016-04-18 2017-06-05 (주)케이디엠티 Apparatus and method for providing realistic language learning contents based on virtual reality and voice recognition

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150066779A (en) * 2013-12-09 2015-06-17 전자부품연구원 Wearable apparatus for learning and System supporting learning including the same
KR101696558B1 (en) 2015-12-02 2017-01-13 에스케이 주식회사 Reading/Learning Assistance System and Method using the Augmented Reality type HMD
KR20180017736A (en) * 2016-08-10 2018-02-21 (주) 씽크브릿지 Head mounted display and method for controlling the same
KR102664318B1 (en) * 2016-11-30 2024-05-09 주식회사 넥슨코리아 Device and method to control based on voice
KR20180098936A (en) 2017-02-27 2018-09-05 주식회사 에이투텍 HMD Working VR(virtual reality) Contents experience system based on Position Sensors

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101276097B1 (en) * 2012-11-16 2013-06-18 (주) 피디케이리미티드 Simulator and simulation method for treating adhd
KR101743230B1 (en) * 2016-04-18 2017-06-05 (주)케이디엠티 Apparatus and method for providing realistic language learning contents based on virtual reality and voice recognition

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240040277A (en) 2022-09-21 2024-03-28 배재대학교 산학협력단 Virtual reality-based education system for self-learning of people with developmental disabilities

Also Published As

Publication number Publication date
KR20200128506A (en) 2020-11-13

Similar Documents

Publication Publication Date Title
US11366516B2 (en) Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device
KR102257181B1 (en) Sensory eyewear
US6345111B1 (en) Multi-modal interface apparatus and method
US10037614B2 (en) Minimizing variations in camera height to estimate distance to objects
JP7339386B2 (en) Eye-tracking method, eye-tracking device, terminal device, computer-readable storage medium and computer program
EP4026318A1 (en) Intelligent stylus beam and assisted probabilistic input to element mapping in 2d and 3d graphical user interfaces
US10788902B2 (en) Information processing device and information processing method
US11922594B2 (en) Context-aware extended reality systems
KR102443214B1 (en) Image processing apparatus and control method thereof
JP2006350705A (en) Information providing device, method, and program
KR102330218B1 (en) Virtual reality education system and method for language training of disabled person
JP2009206924A (en) Information processing apparatus, information processing system and information processing program
KR20200079748A (en) Virtual reality education system and method for language training of disabled person
US11474595B2 (en) Display device and display device control method
JP2018005663A (en) Information processing unit, display system, and program
CN112907702A (en) Image processing method, image processing device, computer equipment and storage medium
KR101499044B1 (en) Wearable computer obtaining text based on gesture and voice of user and method of obtaining the text
JP2005267380A (en) Display character translation device and computer program
US20240119928A1 (en) Media control tools for managing communications between devices
US20240077983A1 (en) Interaction recording tools for creating interactive ar stories
US20240079031A1 (en) Authoring tools for creating interactive ar experiences
US20240050831A1 (en) Instructor avatars for augmented reality experiences
CN116956943A (en) Word alignment method, device, equipment and medium based on translation scene

Legal Events

Date Code Title Description
A107 Divisional application of patent
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant