KR101944675B1 - Voice training system through breathing measurement - Google Patents

Voice training system through breathing measurement Download PDF

Info

Publication number
KR101944675B1
KR101944675B1 KR1020180119995A KR20180119995A KR101944675B1 KR 101944675 B1 KR101944675 B1 KR 101944675B1 KR 1020180119995 A KR1020180119995 A KR 1020180119995A KR 20180119995 A KR20180119995 A KR 20180119995A KR 101944675 B1 KR101944675 B1 KR 101944675B1
Authority
KR
South Korea
Prior art keywords
sentence
user
data
breathing
training
Prior art date
Application number
KR1020180119995A
Other languages
Korean (ko)
Inventor
박정순
Original Assignee
박정순
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 박정순 filed Critical 박정순
Priority to KR1020180119995A priority Critical patent/KR101944675B1/en
Application granted granted Critical
Publication of KR101944675B1 publication Critical patent/KR101944675B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/04Speaking

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

The present invention relates to a voice training system through breathing measurement for providing a customizing voice training in accordance with a physical condition of a user. The voice training system through breathing measurement comprises: a voice measurement device including a breathing measurer; a voice data measurement module including a condition input module which receives user information including a target breathing condition from a user device, a gender, an age, a weight and a job of the user; a voice data input unit which receives breathing pressure including expiratory pressure and inspiratory pressure from the voice measurement device as voice data; and a main server including a result analysis module which includes a data comparative and analysis unit calculating result data compared to the target breathing condition and the voice data and an information supply module which provides training information to the user through the user device in accordance with the result data.

Description

호흡 측정을 통한 발성 훈련 시스템{VOICE TRAINING SYSTEM THROUGH BREATHING MEASUREMENT}{VOICE TRAINING SYSTEM THROUGH BREATHING MEASUREMENT}

본 발명은 호흡 측정을 통한 발성 훈련 시스템에 관한 것으로서, 보다 상세하게 설명하면 목표 호흡 조건을 입력받은 후 발성 측정 장치를 통해 호흡을 측정한 결과 데이터를 분석하여 제공함으로써 유저의 발성 훈련을 돕는, 호흡 측정을 통한 발성 훈련 시스템에 관한 것이다.The present invention relates to a vocal training system through breath measurement. More specifically, the present invention relates to a vocal training system for training breathing, To a vocal training system through measurement.

일반적으로 발성이라 함은 목소리를 내는 것을 의미하는데, 신체 구조 상 목소리를 낼 때마다 호흡이 같이 수반된다. 따라서 성악가나 강사와 같이 목소리를 크게 내야하는 직업을 가진 사람에게는 발성 훈련이 매우 중요한 사항 중 하나이며, 특히 호흡법을 훈련하는 것이 목소리를 크고 널리 퍼지도록 하는데 많은 도움을 준다.Generally speaking, vocalization refers to giving a voice, which is accompanied by breathing every time a voice is made in the body structure. Therefore, vocal training is one of the most important issues for those who have a vocal voice like a vocalist or lecturer, and training breathing techniques is very helpful in making voices bigger and more widespread.

종래의 호흡 훈련 방법은 실린더 안에 들어있는 공기의 높낮이를 변화시키면서 훈련시키는 방법이었으며, 또는 사용자가 시각적으로 호흡량을 알 수 있도록 훈련기가 개발되어 이용되고 있는 실정이었다.The conventional breathing training method was a method of training by changing the height of the air in the cylinder, or a training machine was developed and used so that the user can visually recognize the amount of breathing.

그러나 이러한 호흡 훈련기는 기기가 있는 장소로 이동해야 한다는 단점이 존재한다.However, there is a disadvantage that such a breathing trainer must be moved to the location of the device.

이러한 문제점을 해결하기 위해, 한국 등록특허공보 제 10-1620992호(발명의 명칭 : 사용자 호흡 패턴 분석을 통한 호흡 훈련 시스템 및 이를 이용한 호흡 훈련 콘텐츠 제공 방법)에서는 사용자의 흡기와 호기를 측정하고, 사용자의 흡기와 호기의 간격 및 강도를 포함하는 호흡 패턴을 추출하며, 추출된 호흡 패턴을 호흡 훈련 설정 모듈에서 설정된 호흡 훈련 목표 패턴과 비교하여 도출한 유사도를 반영하여 호흡 훈련 목표 패턴을 재설정하는 구성을 채택함으로써, 호흡의 정교한 패턴을 실시간으로 반영하여 사용자에게 최적화된 호흡 훈련을 제공할 수 있는 사용자 호흡 패턴 분석을 통한 호흡 훈련 시스템 및 이를 이용한 호흡 훈련 콘텐츠 제공 방법을 제안하고 있다.In order to solve such a problem, Korean Patent Registration No. 10-1620992 entitled " Breathing Training System Using User Breath Pattern Analysis ", and a method of providing breathing training contents using the same) measures a user's inspiration and expiration, And the respiration training target pattern is compared with the respiration training target pattern set in the breathing training setting module and the respiration training target pattern is reset by reflecting the similarity derived from the respiration training target pattern The present invention proposes a respiration training system through user breathing pattern analysis that can provide optimized breathing training to a user by reflecting sophisticated patterns of breathing in real time and a method of providing breathing training contents using the same.

상기 발명은 구체적으로 사용자의 호흡을 측정하는 호흡 측정 모듈; 상기 호흡 측정 모듈이 측정한 호흡을 분석하여 호흡 패턴을 추출하는 호흡 패턴 추출 모듈; 상기 사용자에 대응하는 호흡 훈련 목표 패턴을 설정하고 저장하는 호흡 훈련 설정 모듈; 상기 호흡 훈련 설정 모듈을 통하여 설정된 호흡 훈련 목표 패턴과, 상기 호흡 패턴 추출 모듈이 추출한 호흡 패턴을 비교하여 유사도를 도출하는 호흡 패턴 분석 모듈; 및 상기 호흡 패턴 분석 모듈이 도출한 유사도를 반영하여 상기 호흡 훈련 목표 패턴을 재설정하는 피드백 모듈을 제시한다.The present invention specifically relates to a respiration measurement module for measuring respiration of a user; A breathing pattern extracting module for extracting a breathing pattern by analyzing breathing measured by the breathing measuring module; A breathing training setting module for setting and storing a breathing training target pattern corresponding to the user; A breathing pattern analysis module for comparing the breathing training target pattern set through the breathing training setting module and the breathing pattern extracted by the breathing pattern extracting module to derive the similarity; And a feedback module for resetting the breathing training target pattern by reflecting the similarity derived by the breathing pattern analysis module.

그러나 상기 발명은 단순히 목표하는 호흡 훈련 패턴을 설정함으로써, 유저의 신체 조건, 나이, 직업을 고려하지 않아 효율적인 호흡 훈련을 실행할 수 없다는 문제점이 존재한다.However, the present invention has a problem in that it can not perform effective respiration training because it does not consider the user's physical condition, age and occupation by simply setting a target breathing training pattern.

따라서 상술한 바와 같은 문제점을 해결하기 위해 목표 호흡 훈련 조건뿐 아니라 유저의 성별, 나이, 체중, 직업을 고려하여 유저 맞춤형 발성 훈련을 제공하는 호흡 측정을 통한 발성 훈련 시스템을 개발할 필요성이 대두되는 실정이다.Therefore, in order to solve the above-mentioned problems, there is a need to develop a vocal training system through respiration measurement that provides user-customized vocal training in consideration of the user's gender, age, weight, and occupation as well as target breathing training conditions .

본 발명은 상기 기술의 문제점을 극복하기 위해 안출된 것으로, 호흡압 측정을 통해 발성 데이터를 입력받아 유저가 기 입력한 목표 조건과 비교한 후 유저의 발성 훈련 결과를 제공하는 것을 주요 목적으로 한다.The main object of the present invention is to overcome the problem of the above-described technique, and to provide a vocal training result of a user after inputting vocal data through respiratory pressure measurement and comparing with a target condition inputted by a user.

본 발명의 다른 목적은, 유저의 호흡을 측정하기 위해 유저의 특정 행위를 지시하는 문항 및 제시 문장을 생성하여 제공하는 것이다.Another object of the present invention is to generate and provide a question and a sentence for instructing a specific action of a user in order to measure a respiration of a user.

상기 목적을 달성하기 위하여, 본 발명에 따른 호흡 측정을 통한 발성 훈련 시스템은, 호흡 측정기를 포함하는 발성 측정 장치; 유저 단말로부터 목표 호흡 조건 및 유저의 성별, 나이, 체중, 직업을 포함하는 유저 정보를 입력받는 조건 입력 모듈과, 상기 발성 측정 장치로부터 호기압과 흡기압을 포함하는 호흡압을 발성 데이터로 입력받는 발성 데이터 입력부를 포함하는 발성 데이터 측정 모듈 및, 상기 목표 호흡 조건과 상기 발성 데이터를 비교하여 결과 데이터를 산출하는 데이터 비교 분석부를 포함하는 결과 분석 모듈과, 상기 결과 데이터를 상기 유저 단말에 출력하는 결과 출력 모듈을 포함하는 메인 서버;를 포함하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided a speech training system for breathing measurement comprising: a speech measurement device including a breathing meter; A condition input module for inputting user information including a target breathing condition and a user's sex, age, weight, and occupation from a user terminal; and a breathing apparatus for inputting breathing pressure including breath pressure and inspiration pressure as speech data A result analyzing module including a utterance data measuring module including a utterance data input unit and a data comparing and analyzing unit for comparing the target breathing condition with the utterance data and calculating result data; And a main server including an output module.

또한, 상기 발성 데이터 측정 모듈은, 상기 유저의 호흡 측정을 위해 상기 유저에게 특정한 행위를 지시하는 것으로서 지시문 및 노래를 포함하는 문항을 저장한 문항 데이터베이스와, 상기 문항을 상기 유저 단말에 제공하는 문항 제공부를 포함하며, 상기 발성 데이터 입력부는, 상기 유저가 상기 문항에서 지시한 행위가 수행됨에 따라 발성 데이터를 입력받는 것을 특징으로 한다.The vocalization data measurement module may include an item database storing items including directives and songs for instructing the user to perform a specific action for respiration measurement of the user, and providing an item to the user terminal Wherein the speech data input unit receives the speech data as the user performs the action indicated by the item.

나아가, 상기 결과 분석 모듈은, 상기 목표 호흡 조건 대비 상기 목표 호흡 조건과 상기 결과 데이터의 차를 기반으로 유사도를 산출하는 유사도 산출부와, 상기 유사도의 고저에 따라 상기 발성 데이터의 재측정 여부를 판단하는 재측정 판단부를 포함하며, 상기 결과 출력 모듈은, 상기 결과 데이터와 상기 유사도 및 상기 재측정 여부를 상기 유저 단말에 출력하는 것을 특징으로 한다.Further, the result analysis module may further include a similarity calculation unit for calculating a similarity based on the difference between the target breathing condition and the resultant data with respect to the target breathing condition, and a determination unit for determining whether or not the speech data is re- Wherein the result output module outputs the result data, the degree of similarity, and the re-measurement to the user terminal.

더하여, 상기 발성 데이터 측정 모듈은, 기존의 기사, 동화, 소설을 포함하는 글에 포함된 문장을 저장한 문장 데이터베이스와, 상기 문장 중 어느 하나를 제시 문장으로 지정하는 제시 문장 지정부를 포함하며, 상기 문항 제공부는, 상기 문항 및 상기 제시 문장을 상기 유저 단말에 제공하는 것을 특징으로 한다.In addition, the vocalization data measuring module may include a sentence database storing a sentence included in an article including an existing article, a story, and a novel, and a sentence sentence designating unit designating any one of the sentence as a presented sentence, And the item providing unit provides the item and the presented sentence to the user terminal.

본 발명에 따른 호흡 측정을 통한 발성 훈련 시스템은,A vocal training system based on breath measurement according to the present invention comprises:

1) 유저의 신체 조건에 따라 맞춤형 발성 훈련법을 제공할 수 있고,1) It is possible to provide a custom voice training method according to a user's physical condition,

2) 다양한 제시 문장을 통해 유저의 호흡압(즉, 발성 데이터)을 다양하게 입력받아 정확한 결과 산출이 가능한 효과를 제시한다.2) It provides effects of inputting respiratory pressure (that is, speech data) of the user through various presentation sentences and obtaining correct result.

삭제delete

도 1은 본 발명의 시스템에 대한 개략적인 구성을 나타낸 개념도.
도 2는 본 발명의 시스템의 전체적인 구성을 나타낸 블록도.
도 3은 본 발명의 보고서가 생성된 일 실시예를 나타낸 개념도.
1 is a conceptual diagram showing a schematic configuration of a system of the present invention;
2 is a block diagram showing the overall configuration of the system of the present invention;
3 is a conceptual diagram showing an embodiment in which a report of the present invention is generated;

이하 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세하게 설명하도록 한다. 첨부된 도면은 축척에 의하여 도시되지 않았으며, 각 도면의 동일한 참조 번호는 동일한 구성 요소를 지칭한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. The accompanying drawings are not drawn to scale and wherein like reference numerals in the various drawings refer to like elements.

도 1은 본 발명의 시스템에 대한 개략적인 구성을 나타낸 개념도이다.1 is a conceptual diagram showing a schematic configuration of a system of the present invention.

도 1을 참조하면, 본 발명의 호흡 측정을 통한 발성 훈련 시스템은 유저로부터 훈련 조건을 입력받은 후 발성 측정 장치(20)를 통해 유저의 호흡 및 음성을 측정하여 생성된 발성 데이터와 훈련 조건을 비교 분석하여 그 결과를 유저에게 제공하는 것으로서, 이러한 발성 훈련을 통해 성악 및 스피치의 기본을 효과적으로 쌓을 수 있는 기능을 제공한다.Referring to FIG. 1, a vocal training system based on breath measurement of the present invention compares training data generated by measuring respiration and speech of a user through a vocal measurement device 20 after receiving training conditions from a user, And provides the result to the user. The voice training provides a function of effectively accumulating vocal and speech basics.

이때 유저라 함은 본 발명의 시스템을 통해 발성 훈련을 하고자 하는 개인을 의미하는 것으로서, 스피치를 준비하는 사람 또는 성악을 전공하고자 하는 입시생 및 연습생과 같이 발성 훈련을 통해 목소리를 크고 정확하게 낼 수 있도록 대중 앞에서 강연 혹은 공연을 하고자 하는 사람을 말한다.Here, the term " user " means an individual who wishes to perform vocal training through the system of the present invention. The term " user " refers to an individual who intends to perform vocal training through the system of the present invention. A person who wants to give a lecture or performance in front of you.

또한, 일반적으로 발성이라 함은 목소리를 내는 행위를 의미하나, 노래 또는 스피치에 있어서 호흡이 가장 중요한 요소이므로 본 발명의 설명에서는 목소리를 내면서 발생하는 호흡 및 음성을 모두 포함하는 개념으로 이해한다.Generally speaking, the term 'vocalization' refers to an act of giving a voice, but since breathing is the most important factor in a song or speech, it is understood as a concept including both breathing and voice generated while voicing.

이러한 본 발명의 시스템은 기본적으로 유저 단말(30), 메인 서버(10), 발성 측정 장치(20)로 이루어진다.The system of the present invention basically comprises a user terminal 30, a main server 10, and a utterance measurement device 20. [

유저 단말(30)은 발성하는 방법을 훈련하고자 하는 유저가 소지한 단말로서, PC, 스마트폰, 태블릿 PC 등이 될 수 있다. 이때 유저 단말(30)은 본 발명의 시스템이 구현될 수 있는 어플리케이션이나 인터넷 웹페이지에 접속할 수 있는 환경이 마련되어 있는 단말이라면 그 종류에 제한이 없다. 이러한 유저 단말(30)을 통해 유저는 본 발명의 시스템을 이용하고 발성 훈련 및 연습을 수행할 수 있다.The user terminal 30 can be a PC, a smart phone, a tablet PC, or the like as a terminal carried by a user who wants to train a method of vocalizing. At this time, the user terminal 30 is not limited to an application capable of implementing the system of the present invention or a terminal provided with an environment capable of accessing an Internet web page. Through the user terminal 30, the user can use the system of the present invention and perform speech training and practice.

메인 서버(10)는 본 발명의 호흡 측정을 통한 발성 훈련 시스템을 구현하는 역할을 수행하는 것으로서, 유저의 신체조건(키, 몸무게, 나이, 성별 등을 포함한다.)을 기반으로 하여 유저로부터 입력받은 목표 조건과 유저로부터 입력받은 발성 데이터(이는 유저의 호흡압을 포함할 수 있으며 이에 대한 자세한 설명은 도 2와 함께 설명하기로 한다.)의 비교 분석을 통해 유저의 발성 능력을 수치적으로 알 수 있도록 하며, 유저에게 적절한 발성 훈련 정보를 제공하는 기능을 수행한다.The main server 10 plays a role of implementing a vocal training system based on breath measurement of the present invention and is provided with input from a user based on a physical condition (including height, weight, age, sex, etc.) The target condition and the speech data inputted from the user (which may include the respiratory pressure of the user, and a detailed description thereof will be described with reference to FIG. 2) And provides the user with appropriate vocal training information.

이러한 메인 서버(10)는 발성 호흡 장치를 통한 유저의 발성 데이터를 측정하기 위해 마련된 인터넷 웹페이지나 어플리케이션 혹은 컴퓨터 프로그램에 대한 관리 역할을 수행한다. 나아가, 메인 서버(10)는 기존의 발성법을 데이터로 저장하여 유저의 발성 데이터를 분석한 결과에 따라 유저에게 적절한 발성 훈련법을 제공하는 기능을 수행한다. 이때 메인 서버(10)가 관리하는 어플리케이션은 유저 단말(30)에 구비된 어플리케이션과 상호 동일하거나 서로 다른 구성으로 이루어질 수도 있다.The main server 10 plays a role of managing an Internet web page, an application, or a computer program, which is provided for measuring voice data of a user through a vocal breathing apparatus. Furthermore, the main server 10 stores the existing vocalization method as data, and performs a function of providing an appropriate vocal training method to the user according to the result of analyzing the user's vocal data. At this time, the applications managed by the main server 10 may be the same or different from the applications provided in the user terminal 30.

발성 측정 장치(20)는 유저의 발성을 측정하는 것으로서, 구체적으로 유저의 호흡을 측정함으로써 유저의 발성을 수치적으로 측정하는 기기를 의미한다. 이러한 발성 측정 장치(20)는 기본적으로 인스피로메타와 같은 호흡 측정기가 될 수 있으며, 마이크 혹은 흉부밴드를 포함하는 경우 유저의 음성까지 측정할 수 있어 유저의 발성 능력을 보다 정확하게 파악하도록 기여한다.The vocal measurement apparatus 20 measures the utterance of a user, and specifically refers to a device that numerically measures the utterance of a user by measuring the respiration of the user. The vocal measurement apparatus 20 may be basically a respiration measuring instrument such as an inspiration meter, and can measure a voice of a user when a microphone or a chest band is included, thereby contributing to more accurately grasp a user's utterance ability.

상술한 구성으로 이루어지는 본 발명의 시스템은 유저가 목표로 하는 발성 능력과 실제 유저의 발성 능력의 비교 분석을 통해 유저가 목표치에 도달할 때까지 반복적으로 발성 훈련을 수행하도록 기여하는 기능을 수행한다. 이러한 본 발명의 시스템을 통해 유저는 호흡 조절 또는 목소리를 내는 방법을 효율적으로 터득할 수 있게 된다.The system according to the present invention configured as described above performs a function of contributing to perform vocal training repeatedly until a user reaches a target value by comparing and analyzing a target vocal ability and an actual user's vocal ability. The system of the present invention allows a user to efficiently learn a method of controlling breathing or making a voice.

이때 본 발명의 설명에서 서버라 함은 통신부, RAM, ROM, CPU, 하드웨어 및 프로그램을 구현하는 소프트웨어를 포함하는 것을 의미하며, 후술할 본 발명의 시스템의 모듈은 이러한 서버 또는 서버의 조합체로서 메인 서버(10)를 구동시키는 기능을 수행한다.In the description of the present invention, a server includes software for implementing a communication unit, a RAM, a ROM, a CPU, a hardware and a program, and a module of the system of the present invention to be described later is a combination of such a server or a server, (Not shown).

이러한 기능을 수행하는 본 발명의 시스템이 구현되기 위한 전체 구성을 후술할 도 2와 함께 설명하면 다음과 같다.The overall structure for implementing the system of the present invention to perform these functions will be described with reference to FIG. 2 to be described later.

도 2는 본 발명의 메인 서버의 전체적인 구성을 나타낸 블록도이다.2 is a block diagram showing the overall configuration of the main server of the present invention.

도 2를 참조하면, 본 발명의 메인 서버(10)는 기본적으로 조건 입력 모듈(100), 발성 데이터 측정 모듈(200), 결과 분석 모듈(300), 훈련 정보 제공 모듈(400), 교육 훈련 모듈(600)로 이루어진다.2, the main server 10 of the present invention basically comprises a condition input module 100, a voicing data measurement module 200, a result analysis module 300, a training information providing module 400, (600).

조건 입력 모듈(100)은 유저 단말(30)로부터 목표 호흡 조건 및 유저의 성별, 나이, 체중, 직업을 포함하는 유저 정보를 입력받는 것으로서, 유저의 신체적 정보와 직업을 포함하는 유저 정보 및 유저가 본 발명의 시스템을 통해 달성하고자 하는 목표 호흡 조건을 입력받는 기능을 제공한다.The condition input module 100 receives the user information including the target breathing conditions and the sex, age, weight, and occupation of the user from the user terminal 30, and includes user information including the physical information of the user and the user, And provides a function of receiving target respiration conditions to be achieved through the system of the present invention.

이때 목표 호흡 조건이라 함은 유저가 달성하고자 하는 호흡 조건을 의미하는 것으로서, 특히 유저가 본 발명의 시스템을 통해 달성하고자 하는 호흡압(이때 호흡압은 호기 시 발생하는 압력인 호기압과 흡기 시 발생하는 압력인 흡기압을 포함하는 개념이다.) 수치를 의미한다.Here, the target breathing condition refers to the breathing condition that the user wishes to achieve, and in particular, the breathing pressure that the user wishes to achieve through the system of the present invention (the breathing pressure is the pressure generated during breathing, And the intake pressure, which is a pressure to be applied to the engine.

발성 데이터 측정 모듈(200)은 발성 측정 장치(20)를 통해 측정된 유저의 발성으로부터 발성 데이터를 생성하여 입력받는 것으로서, 이를 위해 구체적으로 발성 데이터 입력부(210)를 포함할 수 있다.The voicing data measurement module 200 receives voicing data from the voices of the user measured through the voicing measurement device 20 and receives the voicing data. The voicing data measurement module 200 may specifically include a voicing data input unit 210.

발성 데이터 입력부(210)는 발성 측정 장치(20)로부터 호기압과 흡기압을 포함하는 호흡압을 발성 데이터로 입력받는 기능을 수행하는 것으로서, 예를 들어 유저가 호흡 측정기에 입을 대고 호흡을 수행한 경우 이를 통해 측정된 호기압 및 흡기압을 유저의 발성 데이터로서 입력받는 기능을 수행한다.The utterance data input unit 210 receives the breathing pressure including the atmospheric pressure and the inspiration pressure from the utterance measurement apparatus 20 as speech data. For example, when the user performs breathing while wearing the breathing apparatus And performs a function of receiving the measured atmospheric pressure and inspiratory pressure as user's utterance data.

결과 분석 모듈(300)은 목표 호흡 조건과 발성 데이터를 비교 처리한 결과 데이터를 산출하여 유저가 발성 훈련을 한 결과를 분석하는 것으로서, 이를 위해 데이터 비교 분석부(310)를 포함할 수 있다.The result analysis module 300 may include a data comparison and analysis unit 310 for analyzing the result of speech training performed by the user by calculating result data obtained by comparing target breathing conditions and speech data.

데이터 비교 분석부(310)는 목표 호흡 조건과 발성 데이터를 비교하여 결과 데이터를 산출하는 것으로서, 구체적으로 목표 호흡 조건과 발성 데이터의 차를 통해 결과 데이터를 생성할 수 있다.The data comparison and analysis unit 310 compares the target breathing condition with the utterance data to calculate result data. Specifically, the data comparison and analysis unit 310 can generate the result data through the difference between the target breathing condition and the utterance data.

예를 들어, 유저로부터 입력받은 목표 호흡 조건(즉, 목표 호흡압)이 호기압 40mmH2O 및 흡기압 60mmH2O인 경우 호흡 측정 장치를 통해 측정된 유저의 호기압 및 흡기압이 각각 38mmH2O, 59mmH2O일 때 호기압에 대한 결과 데이터는 2mmH2O, 흡기압에 대한 결과 데이터는 1mmH2O가 될 수 있다.For example, each received target respiratory condition input by the user (i.e., a target respiratory pressure) The heading pressure 40mmH 2 O and the intake pressure 60mmH 2 O No. of measured user via the respiratory measuring device when the atmospheric pressure and the intake pressure 38mmH 2 O, 59 mm H 2 O, the resulting data for the atmospheric pressure can be 2 mm H 2 O, and the resulting data for the inspiratory pressure can be 1 mm H 2 O.

훈련 정보 제공 모듈(400)은 결과 데이터에 따라 상기 유저 단말(30)을 통해 유저에게 훈련 정보를 제공하는 것으로서, 결과 데이터의 고저에 따라 비강공명을 이용하는 벨간토 발성법, 쪽쪽 호흡법과 같은 훈련 정보를 제공하는 기능을 수행한다.(이때 쪽쪽 호흡법에 대한 설명은 후술하기로 한다.)The training information providing module 400 provides the training information to the user through the user terminal 30 according to the result data. The training information providing module 400 generates training information such as a Beltangato method using a nasal cavity resonance, a side breath method, (The explanation of the side breathing method will be described later.)

이때 결과 데이터의 고저에 따라 유저에게 어떤 훈련 정보를 제공할지 결정하는 것은 본 발명의 시스템 관리자에 의해 설정될 수 있으며, 이는 일 실시예에 불과할 뿐 그 방법에는 제한이 없음은 물론이다.It is needless to say that the system administrator of the present invention can determine which training information should be provided to the user according to the result of the result data.

교육 훈련 모듈(600)은 손가락을 다문 입술에 대고 '쪽' 행동을 1회 혹은 수차례 반복하여 호흡조임근육을 활성화시키는 기능과, 자음과 모음의 특성 분석에 의해 조합된 Hi, Hiya, Cha, Tcha, Ste, Sta, fit , Whouit 소리를 발음하도록 하는 기능 및, 호흡조임 운동을 할때 한 손은 입 앞에서 다른 한손은 허리선 바로 아래에 각각 10cm 내지 30cm앞에 두고 안쪽으로 공을 치는 듯한 모션을 수행하는 기능 중 적어도 어느 하나를 지시하는 기능을 수행한다.The training module (600) has a function of activating the respiratory tightening muscles by repeating the 'side' action once or several times with the fingers on the multi-lips and the function of Hi, Hiya, Cha, Tcha, Ste, Sta, fit, Whouit, and a breathing tightening motion with one hand in front of mouth and one hand in front of waist line 10cm to 30cm in front of each other, And performs a function of indicating at least one of the functions to be performed.

이러한 기능을 수행하는 교육 훈련 모듈(600)을 통해 본 발명의 시스템을 이용하는 유저는 기존의 발성 훈련에 비해 더 긴 호흡과 더 큰 음량 및 더 높은 압력을 유지하는 방법을 효율적으로 익힐 수 있다.Through the training module 600 performing this function, a user using the system of the present invention can efficiently learn a method of maintaining a longer breathing, a larger volume and a higher pressure as compared with the conventional vocal training.

상술한 발성 데이터 측정 모듈(200)은 유저의 발성 데이터를 입력받기 위해 유저에게 특정 행위를 지시하는 문항을 제공할 수 있는데, 이를 위해 문항 데이터베이스(220) 및 문항 제공부(230)를 포함할 수 있다.The voicing data measurement module 200 may provide a question for instructing a specific action to the user in order to receive the user's utterance data. For this purpose, the voicing data measurement module 200 may include an item database 220 and an item provider 230 have.

문항 데이터베이스(220)는 유저의 호흡 측정을 위해 상기 유저에게 특정한 행위를 지시하는 것으로서 지시문 및 노래를 포함하는 문항을 저장한 것을 의미하며, 문항 제공부(230)는 이러한 문항 중 적어도 어느 하나를 유저 단말(30)에 제공하는 기능을 수행한다.The item database 220 stores a question including an instruction and a song to indicate a specific action to the user in order to measure respiration of the user. The question provider 230 stores at least one of the items in question And provides it to the terminal 30.

이에 따라, 발성 데이터 입력부(210)는 유저가 문항에서 지시한 행위가 수행됨에 따라 생성되는 발성 데이터를 입력받는 기능을 수행한다.Accordingly, the utterance data input unit 210 performs a function of receiving utterance data generated as the user performs the action indicated by the item.

더하여, 결과 분석 모듈(300)은 유저의 발성 데이터와 목표 호흡 조건을 비교하여 유사도를 산출함으로써, 유저가 발성 훈련을 다시 수행해야하는지 여부를 판단할 수 있다. 이를 위해 결과 분석 모듈(300)은 유사도 산출부(320)와 재측정 판단부(330)를 포함할 수 있다.In addition, the result analysis module 300 can determine whether the user should perform speech training again by calculating the similarity by comparing the user's speech data with the target breathing condition. For this, the result analysis module 300 may include a similarity calculation unit 320 and a remeasurement determination unit 330.

유사도 산출부(320)는 목표 호흡 조건 대비 상기 목표 호흡 조건과 상기 결과 데이터의 차를 기반으로 유사도를 산출하는 것으로서, 목표 호흡 조건과 결과 데이터의 차가 작을수록 유사도가 크게 산출되는 것으로 이해할 수 있다.The degree of similarity calculation unit 320 calculates the degree of similarity based on the difference between the target breathing condition and the resultant data in comparison with the target breathing condition. It can be understood that the degree of similarity is calculated as the difference between the target breathing condition and the result data is small.

재측정 판단부(330)는 유사도의 고저에 따라 상기 발성 데이터의 재측정 여부를 판단하는 것으로서, 유사도가 높으면 유저가 발성 훈련을 제대로 수행하고 있다는 것으로 파악하여 발성 데이터를 재측정하지 않아도 되는 것으로 판단하고, 유사도가 낮으면 유저가 목표치만큼 발성 능력을 갖고 있지 않은 것으로 파악하여 발성 데이터를 한 번 더 재측정할 것으로 판단하는 기능을 제공한다.The re-measurement determination unit 330 determines whether or not the voice data is re-measured according to the degree of similarity. If the degree of similarity is high, the re-measurement determination unit 330 determines that the user is performing voice training properly, And if the degree of similarity is low, it is determined that the user does not have a vocalization ability as much as the target value, and the vocalization data is judged to be re-measured once more.

이에 따라, 훈련 정보 제공 모듈(400)은 결과 데이터와 유사도 및 재측정 여부를 유저 단말(30)에 출력함으로써 유저는 제공된 훈련 정보를 기반으로 호흡 훈련을 수행할 수 있다.Accordingly, the training information providing module 400 outputs the similarity and re-measurement to the user terminal 30, thereby allowing the user to perform breathing training based on the training information provided.

나아가, 발성 데이터 측정 모듈(200)은 유저에게 다양한 제시 문장을 제공함으로써 유저의 발성 데이터를 많이 입력받아 정확한 결과를 산출하기 위해 문장 데이터베이스(240)와 제시 문장 지정부(250)를 포함할 수 있다.Furthermore, the utterance data measurement module 200 may include a sentence database 240 and a sentence designation unit 250 for receiving a lot of user's utterance data and calculating an accurate result by providing various presenting sentences to the user .

문장 데이터베이스(240)는 기존의 기사, 동화, 소설을 포함하는 글에 포함된 문장을 저장한 것으로서, 유저가 다양한 발음을 낼 수 있는 문장을 데이터로 저장한 곳이라고 할 수 있다.The sentence database 240 stores sentences included in articles including existing articles, fairy tale, and novels, and is a place where the user can store various sentences that can be pronounced as data.

제시 문장 지정부(250)는 문장 중 어느 하나를 제시 문장으로 지정하는 것으로서, 문장 데이터베이스(240)에 저장된 문장 중 어느 하나를 제시 문장으로 임의로 지정하는 기능을 수행한다. 그러나 유저가 보다 다양한 발음을 낼 수 있는 문장을 선정하기 위해 제시 문장 지정부(250)는 구체적으로 후보 문장 선정파트(251), 문장 지정파트(252), 문장 분석파트(253), 문자열 생성파트(254), 서열행렬 생성파트(255), 좌표 생성파트(256), 발음 유사도 산출파트(257), 제시 문장 선정파트(258)를 포함할 수 있다.The presentation sentence designating unit 250 designates any one of the sentences as a presented sentence, and performs a function of arbitrarily designating any one of sentences stored in the sentence database 240 as a presented sentence. However, in order to select a sentence in which the user can produce a more diverse pronunciation, the presentation sentence designation unit 250 specifically includes a candidate sentence selection part 251, a sentence designation part 252, a sentence analysis part 253, A sequence generating part 254, a sequence matrix generating part 255, a coordinate generating part 256, a pronunciation similarity calculating part 257, and a presentation sentence selecting part 258.

먼저, 후보 문장 선정파트(251)는 문장 중 파열음을 내는 자음이 포함된 복수 개의 문장을 후보 문장으로 선정하는 기능을 제공하고, 문장 지정파트(252)는 후보 문장 중 어느 하나를 기준 문장으로, 상기 기준 문장을 제외한 후보 문장 중 어느 하나를 비교 문장으로 지정하는 기능을 제공하며, 문장 분석파트(253)는 기준 문장 및 상기 비교 문장을 형태소 단위로 분리한 후 상기 기준 문장 및 상기 비교 문장에 포함된 명사를 각각 파악하는 기능을 수행한다.First, the candidate sentence selection part 251 provides a function of selecting a plurality of sentences including a consonant for producing a plosive sound as candidate sentences. The sentence designation part 252 designates one of the candidate sentences as a reference sentence, The sentence analyzing part 253 separates the reference sentence and the comparison sentence into morpheme units, and then the reference sentence and the comparison sentence are included in the reference sentence and the comparison sentence And recognizes the respective nouns.

문자열 생성파트(254)는 기준 문장 및 상기 비교 문장에 포함된 명사를 음절로 분절한 다음 상기 음절을 음소로 분절한 후 상기 음소를 나열한 문자열을 각각 생성하는 것으로서, 예를 들어 ‘가나다’의 경우 ㄱ,ㅏ,ㄴ,ㅏ,ㄷ,ㅏ와 같은 문자열을 생성하는 기능을 수행한다.The character string generation part 254 generates a character string by segmenting the reference sentence and a noun included in the comparison sentence into syllables, segmenting the syllable into phonemes, and then generating the phonemes. For example, in the case of ' It generates a string such as a, a, b, a, c, a.

서열행렬 생성파트(255)는 서열정렬 알고리즘을 통해 각각의 상기 문자열에 해당하는 서열행렬을 생성하는 것으로서, 이때 서열정렬 알고리즘이라 함은 유전자나 단백질의 서열을 다이내믹 프로그래밍 기반의 컴퓨터 스트링 정렬 알고리즘을 이용하여 배열하는 것을 의미한다. 즉, 서열행렬 생성파트(255)는 유전자나 단백질의 염기 서열을 정렬한 것에서 착안하여 문자열로부터 서열행렬을 생성하는 기능을 수행한다.The sequence matrix generation part 255 generates a sequence matrix corresponding to each of the strings through a sequence sorting algorithm. Here, the sequence sort algorithm refers to a sequence of genes or proteins using a dynamic program-based computer string sorting algorithm . That is, the sequence matrix generation part 255 performs a function of generating a sequence matrix from a string by focusing on the arrangement of the nucleotide sequence of the gene or protein.

좌표 생성파트(256)는 서열행렬의 성분을 기반으로 문자열에 해당하는 명사의 좌표를 생성하는 것으로서, 이는 다차원 수치화 알고리즘을 기반으로 명사의 좌표를 생성한다. 이때 다차원 수치화 알고리즘은 음소들마다 수치화된 값을 산출하는 것으로서 예를 들어 한국외국어대학교 언어 연구실에서 도출한 값을 이용해보면 ‘ㄱ’의 좌표는 (-1.2, 1.1, 1.0)이 되고 ‘ㅏ’의 좌표는 (-1.4, -0.3, -0.6)이 되어 ‘가’의 좌표는 (-1.2, 1.1, 1.0, -1.4, -0.3, -0.6)이 된다.The coordinate generation part 256 generates coordinates of a noun corresponding to a character string based on the components of the sequence matrix, which generates coordinates of a noun based on a multidimensional quantization algorithm. In this case, the multidimensional quantization algorithm calculates numerical values for each phoneme. For example, when the value derived from the language laboratory of Hankuk University of Foreign Studies is used, the coordinates of 'a' become (-1.2, 1.1, 1.0) The coordinates become (-1.4, -0.3, -0.6), and the coordinates of 'a' become (-1.2, 1.1, 1.0, -1.4, -0.3, -0.6).

발음 유사도 산출파트(257)는 명사의 좌표 간의 거리를 기반으로 상기 기준 문장 및 상기 비교 문장 간의 발음 유사도를 산출하는 것으로서, 이러한 발음 유사도는 다음의 수학식 1을 통해 산출되는 것을 특징으로 한다.The pronunciation similarity calculating part 257 calculates pronunciation similarity between the reference sentence and the comparison sentence based on a distance between coordinates of a noun, and the pronunciation similarity is calculated through the following equation (1).

수학식 1.

Figure 112018099212613-pat00001
Equation 1
Figure 112018099212613-pat00001

(여기서,

Figure 112018099212613-pat00002
는 기준 문장 A 및 비교 문장 B의 발음 유사도,
Figure 112018099212613-pat00003
은 기준 문장 A에 포함된 명사의 좌표,
Figure 112018099212613-pat00004
은 비교 문장 B에 포함된 명사의 좌표, n은 상기 명사의 좌표 성분의 개수)(here,
Figure 112018099212613-pat00002
Is the pronunciation similarity of the reference sentence A and the comparison sentence B,
Figure 112018099212613-pat00003
The coordinates of a noun included in the reference sentence A,
Figure 112018099212613-pat00004
Is the coordinate of the noun included in the comparison sentence B, and n is the number of coordinate components of the noun)

수학식 1은 명사의 좌표를 기반으로 문장에 포함된 명사의 발음 유사도를 산출하는 식으로서, 좌표 간의 거리로부터 착안하여 기준 문장과 비교 문장 간의 발음 유사도를 산출하는 기능을 제공한다. 즉, 수학식 1은 산출된 발음 유사도의 고저에 따라 제시 문장으로 선정할지 여부를 파악하도록 하는 지표인 발음 유사도를 수치적으로 알려주는 기능을 수행한다.Equation 1 is a formula for calculating the pronunciation similarity of a noun included in a sentence based on the coordinates of a noun, and provides a function of calculating the pronunciation similarity between the reference sentence and the comparison sentence from the distance between the coordinates. In other words, Equation (1) performs a function of numerically indicating pronunciation similarity, which is an index for determining whether to select a presentation sentence according to the calculated degree of pronunciation similarity.

이때 상술한 수학식 1이 적용되기 위해서는 기준 문장과 비교 문장에 포함된 명사의 개수가 동일해야할 것이다.In order to apply Equation (1), the number of nouns included in the reference sentence and the comparison sentence should be the same.

제시 문장 선정파트(258)는 기 설정된 기준값 미만의 발음 유사도를 가지는 상기 비교 문장을 제시 문장으로 선정하는 기능을 수행함으로써, 유저에게 다양한 제시 문장을 제공할 수 있는 것이다.The presentation sentence selection part 258 can provide the user with various presentation sentences by performing the function of selecting the comparison sentence having the pronunciation similarity lower than the predetermined reference value as the presented sentence.

이와 같이 제시 문장이 선정되면 문항 제공부(230)는 문항 및 제시 문장을 유저 단말(30)에 제공하며, 이러한 제시 문장을 통해 유저의 발성 데이터를 측정할 수 있다.When the presented sentence is selected, the question provider 230 provides the question and the presented sentence to the user terminal 30, and the user's utterance data can be measured through the presented sentence.

도 3은 본 발명의 보고서가 생성된 일 실시예를 나타낸 개념도이다.3 is a conceptual diagram showing an embodiment in which a report of the present invention is generated.

도 3을 참조하면, 조건 입력 모듈(100)은 유저 단말(30)로부터 목표 점수를 입력받고, 발성 데이터는 유저가 흡기를 시작한 시점부터 호기를 마친 시점까지인 호흡 시간을 포함할 수 있으며, 이에 따라 메인 서버(10)는 발성 데이터 및 상기 유저 정보를 기반으로 상기 유저의 호흡 능력을 수치화한 결과 점수를 산출하는 결과 점수 산출부(510)를 포함하는 발성 데이터 분석 모듈(500)을 포함함으로써 유저의 호흡 능력을 수치화할 수 있다.3, the condition input module 100 receives the target score from the user terminal 30, and the utterance data may include a breathing time from the time when the user starts to take the air to the time when the user finishes the breathing, The main server 10 includes a vocalization data analysis module 500 including a vocalization data and a result score calculation unit 510 for calculating a score obtained by digitizing the breathing ability of the user based on the user information, Can be quantified.

이때 결과 점수는 다음의 수학식 2를 통해 산출되는 것을 특징으로 한다.The result score is calculated by the following equation (2).

수학식 2.

Figure 112018099212613-pat00005
(2)
Figure 112018099212613-pat00005

여기서,

Figure 112018099212613-pat00006
는 결과 점수,
Figure 112018099212613-pat00007
는 호기압(cmH2O),
Figure 112018099212613-pat00008
는 흡기압(cmH2O),
Figure 112018099212613-pat00009
는 상기 호흡 시간,
Figure 112018099212613-pat00010
는 성별 가중치,
Figure 112018099212613-pat00011
는 상기 유저의 체중(kg),
Figure 112018099212613-pat00012
는 직업 가중치를 의미한다.here,
Figure 112018099212613-pat00006
The result score,
Figure 112018099212613-pat00007
The call pressure (cmH 2 O),
Figure 112018099212613-pat00008
(CmH 2 O),
Figure 112018099212613-pat00009
The respiration time,
Figure 112018099212613-pat00010
Gender weight,
Figure 112018099212613-pat00011
(Kg) of the user,
Figure 112018099212613-pat00012
Means a work weight.

수학식 2는 호기압, 흡기압, 호흡 시간 및 유저 정보를 기반으로 결과 점수를 산출하는 식으로서, 단순히 발성 데이터인 호기압 및 흡기압을 기반으로 결과 점수를 산출하는 것이 아닌 유저의 신체조건 및 직업을 더 반영함으로써 보다 정확한 결과 점수를 산출할 수 있다.(유저가 남성인지 여성인지, 체중이 얼마나 나가는지, 성악가인지 그 외의 직업을 갖고 있는지에 따라 유저의 호흡 능력이 다르므로 그에 따라 수학식 2에 의한 결과 점수가 달리 산출될 수 있다.)Equation 2 is a formula for calculating a result score based on the atmospheric pressure, the inspiratory pressure, the breathing time, and the user information. It is not merely calculating the result score based on the speech pressure and the inspiratory pressure, By reflecting the profession more accurately, it is possible to calculate a more accurate result score (the user's respiratory ability differs depending on whether the user is male or female, how much weight is going, whether the user is a singer or other profession, The result score by 2 can be calculated differently.)

이에 따라 데이터 비교 분석부(310)는 목표 점수와 결과 점수를 비교하여 결과 데이터를 산출할 수 있으며, 이러한 결과 데이터를 유저 단말(30)에 출력할 수 있다. 따라서 유저는 보다 정확한 훈련법을 제공받을 수 있게 된다.Accordingly, the data comparison and analysis unit 310 can calculate the result data by comparing the target score and the result score, and output the result data to the user terminal 30. Therefore, the user can be provided with more accurate training method.

나아가, 발성 데이터 입력부(210)는 호흡 시간 동안 발성 측정 장치(20)를 통해 산출된 호흡량을 입력받고, 발성 데이터 분석 모듈(500)은 결과 점수에 상기 호흡량을 더 반영하여 보정 점수를 산출하는 보정 점수 산출부(520)를 포함함으로써 유저에게 보다 정확한 발성 훈련 결과를 제공할 수 있다.Further, the utterance data input unit 210 receives the breath amount calculated through the utterance measurement apparatus 20 during the breathing time, and the utterance data analysis module 500 calculates the correction score By including the score calculating unit 520, it is possible to provide the user with a more accurate speech training result.

이때 보정 점수는 다음의 수학식 3을 통해 산출될 수 있다.At this time, the correction score can be calculated by the following equation (3).

수학식 3.

Figure 112018099212613-pat00013
(3)
Figure 112018099212613-pat00013

여기서,

Figure 112018099212613-pat00014
는 보정 점수,
Figure 112018099212613-pat00015
는 호기압(cmH2O),
Figure 112018099212613-pat00016
는 흡기압(cmH2O),
Figure 112018099212613-pat00017
는 상기 호흡 시간,
Figure 112018099212613-pat00018
는 성별 가중치,
Figure 112018099212613-pat00019
는 상기 유저의 체중(kg),
Figure 112018099212613-pat00020
는 직업 가중치,
Figure 112018099212613-pat00021
는 호흡량(L)을 의미한다.here,
Figure 112018099212613-pat00014
A correction score,
Figure 112018099212613-pat00015
The call pressure (cmH 2 O),
Figure 112018099212613-pat00016
(CmH 2 O),
Figure 112018099212613-pat00017
The respiration time,
Figure 112018099212613-pat00018
Gender weight,
Figure 112018099212613-pat00019
(Kg) of the user,
Figure 112018099212613-pat00020
The work weight,
Figure 112018099212613-pat00021
Means the volume of breath (L).

수학식 3은 상기 수학식 2에 호흡량을 더 반영하여 보정 점수를 산출하는 식으로서, 호흡압뿐 아니라 유저의 폐활량이라고 할 수 있는 호흡량을 더 반영함으로써 유저의 호흡 능력을 보다 정확히 알 수 있도록 한다.Equation (3) is a formula for calculating the correction score by further reflecting the breathing amount in the above Equation (2). The breathing ability of the user is more accurately reflected by reflecting not only the breathing pressure but also the breathing amount which is called the user's lung capacity.

이로 인해 데이터 비교 분석부(310)는 목표 점수와 보정 점수를 비교하여 결과 데이터를 산출하게 된다.Accordingly, the data comparison and analysis unit 310 compares the target score and the correction score to calculate the resultant data.

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

지금까지 설명한 바와 같이, 본 발명에 따른 호흡 측정을 통한 발성 훈련 시스템의 구성 및 작용을 상기 설명 및 도면에 표현하였지만 이는 예를 들어 설명한 것에 불과하여 본 발명의 사상이 상기 설명 및 도면에 한정되지 않으며, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 다양한 변화 및 변경이 가능함은 물론이다.As described above, the construction and operation of the vocal training system through breath measurement according to the present invention are described in the above description and drawings, but the present invention is not limited to the above description and drawings, And various changes and modifications may be made without departing from the technical spirit of the present invention.

10 : 메인 서버 20 : 발성 측정 장치
30 : 유저 단말 100 : 조건 입력 모듈
200 : 발성 데이터 측정 모듈 210 : 발성 데이터 입력부
220 : 문항 데이터베이스 230 : 문항 제공부
240 : 문장 데이터베이스 250 : 제시 문장 지정부
251 : 후보 문장 선정파트 252 : 문장 지정파트
253 : 문장 분석파트 254 : 문자열 생성파트
255 : 서열행렬 생성파트 256 : 좌표 생성파트
257 : 발음 유사도 산출파트 258 : 제시 문장 선정파트
300 : 결과 분석 모듈 310 : 데이터 비교 분석부
320 : 유사도 산출부 330 : 재측정 판단부
400 : 훈련 정보 제공 모듈 500 : 발성 데이터 분석 모듈
510 : 결과 점수 산출부 520 : 보정 점수 산출부
600 : 교육 훈련 모듈
10: main server 20: vocal measurement device
30: user terminal 100: condition input module
200: vocalizing data measuring module 210: vocalizing data inputting part
220: item database 230:
240: sentence database 250:
251: Candidate sentence selection part 252: Sentence designation part
253: Sentence Analysis Part 254: String Generation Part
255: Create sequence matrix Part 256: Create coordinate sequence
257: pronunciation similarity degree calculation part 258: present sentence selection part
300: Result analysis module 310: Data comparison analysis part
320: degree-of-similarity calculation unit 330: re-
400: training information providing module 500: vocalizing data analysis module
510: Result score calculating unit 520: Correction score calculating unit
600: Training Module

Claims (15)

호흡 측정을 통한 발성 훈련 시스템으로서,
호흡 측정기를 포함하는 발성 측정 장치;
유저 단말로부터 목표 호흡 조건 및 유저의 성별, 나이, 체중, 직업을 포함하는 유저 정보와 목표 점수를 입력받는 조건 입력 모듈과, 상기 발성 측정 장치로부터 호기압과 흡기압을 포함하는 호흡압을 발성 데이터로 입력받되 상기 발성 데이터는 상기 유저가 흡기를 시작한 시점부터 호기를 마친 시점까지인 호흡 시간을 포함한 상태에서 상기 호흡 시간 동안 상기 발성 측정 장치를 통해 산출된 호흡량을 입력받는 발성 데이터 입력부를 포함하는 발성 데이터 측정 모듈 및, 상기 목표 호흡 조건과 상기 발성 데이터를 비교하여 결과 데이터를 산출하는 데이터 비교 분석부를 포함하는 결과 분석 모듈과, 상기 결과 데이터에 따라 상기 유저 단말을 통해 유저에게 훈련 정보를 제공하는 훈련 정보 제공 모듈 및, 상기 발성 데이터 및 상기 유저 정보를 기반으로 상기 유저의 호흡 능력을 수치화한 결과 점수를 산출하는 결과 점수 산출부와 상기 결과 점수에 상기 호흡량을 더 반영하여 보정 점수를 산출하는 보정 점수 산출부를 구비한 발성 데이터 분석 모듈을 포함하는 메인 서버;를 포함하되,
상기 데이터 비교 분석부는, 상기 목표 점수와 상기 결과 점수를 비교함과 아울러, 상기 목표 점수와 상기 보정 점수를 비교하여 결과 데이터를 산출하는 것을 특징으로 하는, 호흡 측정을 통한 발성 훈련 시스템.
As a vocal training system through breath measurement,
A vocal measurement device including a breath meter;
A condition input module for inputting user information including a target breathing condition and a user's gender, age, weight, and occupation from a user terminal and a target score; and a respiratory-pressure- Wherein the speech data includes a speech data input unit for inputting a breath volume calculated through the speech measurement apparatus during the breathing time in a state including a breathing time from the time when the user starts the inspiration to the time when the breathing is completed, And a data comparison / analysis module for comparing the target breathing condition with the utterance data to calculate result data, and a data analysis module for analyzing the target breathing condition and the utterance data to provide training information to the user through the user terminal according to the result data. An information providing module, and a storage unit for storing the utterance data and the user information A resultant score calculating unit for calculating a score of the breathing ability of the user, and a correction score calculating unit for calculating a correction score by further reflecting the breathing amount on the result score. , ≪ / RTI &
Wherein the data comparison / analysis unit compares the target score with the result score, and compares the target score and the correction score to calculate result data.
제 1항에 있어서,
상기 시스템은,
손가락을 다문 입술에 대고 '쪽' 행동을 복수 회 반복하여 호흡조임근육을 활성화시키는 기능과, 자음과 모음의 특성 분석에 의해 조합된 Hi, Hiya, Cha, Tcha, Ste, Sta, fit , Whouit 소리를 발음하도록 하는 기능 및, 호흡조임근육 활성화 시 한 손은 입 앞에서 다른 한 손은 허리선 바로 아래에 각각 10 내지 30cm 앞에 두고 안쪽으로 공을 치는 듯 한 모션을 수행하는 기능 중 적어도 어느 하나를 지시하는 교육 훈련 모듈을 포함하는 것을 특징으로 하는, 호흡 측정을 통한 발성 훈련 시스템.
The method according to claim 1,
The system comprises:
Hia, Hiya, Cha, Tcha, Ste, Sta, fit, and Whouit sounds combined by analyzing the characteristics of consonants and vowels. And a function of performing a motion in which the one hand is in front of the mouth and the other hand is in front of the waist line in front of the waist line and 10 to 30 cm in front of the waist line when the respiratory tightening muscle is activated, Wherein said training module comprises at least one of a training module and a training module.
제 1항에 있어서,
상기 발성 데이터 측정 모듈은,
상기 유저의 호흡 측정을 위해 상기 유저에게 특정한 행위를 지시하는 것으로서 지시문 및 노래를 포함하는 문항을 저장한 문항 데이터베이스와,
상기 문항을 상기 유저 단말에 제공하는 문항 제공부를 포함하며,
상기 발성 데이터 입력부는,
상기 유저가 상기 문항에서 지시한 행위가 수행됨에 따라 발성 데이터를 입력받는 것을 특징으로 하는, 호흡 측정을 통한 발성 훈련 시스템.
The method according to claim 1,
The voicing data measurement module includes:
An item database storing items including directives and songs for instructing the user to perform a specific action for respiration measurement of the user,
And an item provision unit for providing the item to the user terminal,
The speech data input unit may include:
Wherein the speech data is input as the user performs the action indicated in the item.
제 1항에 있어서,
상기 결과 분석 모듈은,
상기 목표 호흡 조건 대비 상기 목표 호흡 조건과 상기 결과 데이터의 차를 기반으로 유사도를 산출하는 유사도 산출부와,
상기 유사도의 고저에 따라 상기 발성 데이터의 재측정 여부를 판단하는 재측정 판단부를 포함하며,
상기 훈련 정보 제공 모듈은,
상기 결과 데이터와 상기 유사도 및 상기 재측정 여부를 상기 유저 단말에 출력하는 것을 특징으로 하는, 호흡 측정을 통한 발성 훈련 시스템.
The method according to claim 1,
The result analysis module,
A similarity degree calculating unit for calculating a degree of similarity based on a difference between the target breathing condition and the resultant data with respect to the target breathing condition;
And a remeasurement judgment unit for judging whether the voice data is re-measured according to the degree of the similarity,
The training information providing module includes:
And outputting the result data, the degree of similarity, and the re-measurement to the user terminal.
제 3항에 있어서,
상기 발성 데이터 측정 모듈은,
기존의 기사, 동화, 소설을 포함하는 글에 포함된 문장을 저장한 문장 데이터베이스와,
상기 문장 중 어느 하나를 제시 문장으로 지정하는 제시 문장 지정부를 포함하며,
상기 문항 제공부는,
상기 문항 및 상기 제시 문장을 상기 유저 단말에 제공하는 것을 특징으로 하는, 호흡 측정을 통한 발성 훈련 시스템.
The method of claim 3,
The voicing data measurement module includes:
A sentence database storing a sentence included in an article including an existing article, a story, and a novel,
And a presentation sentence designation unit designating any one of the sentences as a presentation sentence,
The item provider,
And providing the item and the presented sentence to the user terminal.
제 5항에 있어서,
상기 제시 문장 지정부는,
상기 문장 중 파열음을 내는 자음이 포함된 복수 개의 문장을 후보 문장으로 선정하는 후보 문장 선정파트와,
상기 후보 문장 중 어느 하나를 기준 문장으로, 상기 기준 문장을 제외한 후보 문장 중 어느 하나를 비교 문장으로 지정하는 문장 지정파트 및,
상기 기준 문장 및 상기 비교 문장을 형태소 단위로 분리한 후 상기 기준 문장 및 상기 비교 문장에 포함된 명사를 각각 파악하는 문장 분석파트와,
상기 기준 문장 및 상기 비교 문장에 포함된 명사를 음절로 분절한 다음 상기 음절을 음소로 분절한 후 상기 음소를 나열한 문자열을 각각 생성하는 문자열 생성파트 및,
서열정렬 알고리즘을 통해 각각의 상기 문자열에 해당하는 서열행렬을 생성하는 서열행렬 생성파트와,
상기 서열행렬의 성분을 기반으로 상기 문자열에 해당하는 상기 명사의 좌표를 생성하는 좌표 생성파트 및,
상기 명사의 좌표 간의 거리를 기반으로 상기 기준 문장 및 상기 비교 문장 간의 발음 유사도를 산출하는 발음 유사도 산출파트와,
기 설정된 기준값 미만의 발음 유사도를 가지는 상기 비교 문장을 제시 문장으로 선정하는 제시 문장 선정파트를 포함하는 것을 특징으로 하는, 호흡 측정을 통한 발성 훈련 시스템.
6. The method of claim 5,
The presentation sentence designation unit,
A candidate sentence selection part for selecting a plurality of sentences including a consonant to generate a plosive sound as a candidate sentence among the sentences,
A sentence designation part designating any one of the candidate sentences as a reference sentence and a candidate sentence excluding the reference sentence as a comparison sentence,
A sentence analysis part for separating the reference sentence and the comparison sentence into morpheme units and recognizing the nouns included in the reference sentence and the comparison sentence,
A string generating part for segmenting the nouns included in the reference sentence and the comparison sentence into syllables, segmenting the syllable into phonemes, and generating a string listing the phonemes,
A sequence matrix generating part for generating a sequence matrix corresponding to each of the strings through a sequence alignment algorithm;
A coordinate generating part for generating coordinates of the noun corresponding to the character string based on the components of the sequence matrix;
A pronunciation similarity degree calculating section for calculating a pronunciation similarity degree between the reference sentence and the comparison sentence based on a distance between coordinates of the noun;
And a presentation sentence selection part for selecting the comparison sentence having pronunciation similarity less than a preset reference value as a presented sentence.
제 6항에 있어서,
상기 발음 유사도는,
다음의 수학식 1을 통해 산출하는 것을 특징으로 하는, 호흡 측정을 통한 발성 훈련 시스템.
수학식 1.
Figure 112018099212613-pat00052

(여기서,
Figure 112018099212613-pat00053
는 기준 문장 A 및 비교 문장 B의 발음 유사도,
Figure 112018099212613-pat00054
은 기준 문장 A에 포함된 명사의 좌표,
Figure 112018099212613-pat00055
은 비교 문장 B에 포함된 명사의 좌표, n은 상기 명사의 좌표 성분의 개수)
The method according to claim 6,
The pronunciation similarity degree may be,
Wherein the speech training is performed through the following equation (1).
Equation 1
Figure 112018099212613-pat00052

(here,
Figure 112018099212613-pat00053
Is the pronunciation similarity of the reference sentence A and the comparison sentence B,
Figure 112018099212613-pat00054
The coordinates of a noun included in the reference sentence A,
Figure 112018099212613-pat00055
Is the coordinate of the noun included in the comparison sentence B, and n is the number of coordinate components of the noun)
삭제delete 제 1항에 있어서,
상기 결과 점수는,
다음의 수학식 2를 통해 산출하는 것을 특징으로 하는, 호흡 측정을 통한 발성 훈련 시스템.
수학식 2.
Figure 112018128261418-pat00056

(여기서,
Figure 112018128261418-pat00057
는 결과 점수,
Figure 112018128261418-pat00058
는 호기압(cmH2O),
Figure 112018128261418-pat00059
는 흡기압(cmH2O),
Figure 112018128261418-pat00060
는 상기 호흡 시간,
Figure 112018128261418-pat00061
는 성별 가중치,
Figure 112018128261418-pat00062
는 상기 유저의 체중(kg),
Figure 112018128261418-pat00063
는 직업 가중치)
The method according to claim 1,
The result score,
(2) is calculated by the following equation (2).
(2)
Figure 112018128261418-pat00056

(here,
Figure 112018128261418-pat00057
The result score,
Figure 112018128261418-pat00058
The call pressure (cmH 2 O),
Figure 112018128261418-pat00059
(CmH 2 O),
Figure 112018128261418-pat00060
The respiration time,
Figure 112018128261418-pat00061
Gender weight,
Figure 112018128261418-pat00062
(Kg) of the user,
Figure 112018128261418-pat00063
Job weighting)
삭제delete 제 1항에 있어서,
상기 보정 점수는,
다음의 수학식 3을 통해 산출하는 것을 특징으로 하는, 호흡 측정을 통한 발성 훈련 시스템.
수학식 3.
Figure 112018128261418-pat00064

(여기서,
Figure 112018128261418-pat00065
는 보정 점수,
Figure 112018128261418-pat00066
는 호기압(cmH2O),
Figure 112018128261418-pat00067
는 흡기압(cmH2O),
Figure 112018128261418-pat00068
는 상기 호흡 시간,
Figure 112018128261418-pat00069
는 성별 가중치,
Figure 112018128261418-pat00070
는 상기 유저의 체중(kg),
Figure 112018128261418-pat00071
는 직업 가중치,
Figure 112018128261418-pat00072
는 호흡량(L))
The method according to claim 1,
The above-
Wherein the speech training is performed through the following equation (3).
(3)
Figure 112018128261418-pat00064

(here,
Figure 112018128261418-pat00065
A correction score,
Figure 112018128261418-pat00066
The call pressure (cmH 2 O),
Figure 112018128261418-pat00067
(CmH 2 O),
Figure 112018128261418-pat00068
The respiration time,
Figure 112018128261418-pat00069
Gender weight,
Figure 112018128261418-pat00070
(Kg) of the user,
Figure 112018128261418-pat00071
The work weight,
Figure 112018128261418-pat00072
(L))
삭제delete 삭제delete 삭제delete 삭제delete
KR1020180119995A 2018-10-08 2018-10-08 Voice training system through breathing measurement KR101944675B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180119995A KR101944675B1 (en) 2018-10-08 2018-10-08 Voice training system through breathing measurement

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180119995A KR101944675B1 (en) 2018-10-08 2018-10-08 Voice training system through breathing measurement

Publications (1)

Publication Number Publication Date
KR101944675B1 true KR101944675B1 (en) 2019-01-31

Family

ID=65323391

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180119995A KR101944675B1 (en) 2018-10-08 2018-10-08 Voice training system through breathing measurement

Country Status (1)

Country Link
KR (1) KR101944675B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110033670A (en) * 2019-04-03 2019-07-19 平顶山教育学院(平顶山市文化旅游学校) A kind of vocal music pronounciation training device
CN111710212A (en) * 2020-07-10 2020-09-25 重庆沧海粟科技有限公司 Music teaching and study are with vocal music breath exercise device
KR102225288B1 (en) * 2019-09-09 2021-03-10 공효원 Method for providing bigdata based vocalization guidance service using comparative analysis of v0cal cord vibration pattern
KR20210083864A (en) * 2019-12-27 2021-07-07 (주)이튜 Respiratory training terminal for improving autism and ADHD symptoms

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130089043A (en) * 2012-02-01 2013-08-09 김형태 Multichannel phonokinetic evaluating apparatus and method
US20150258370A1 (en) * 2012-10-11 2015-09-17 Bezalel Arkush Breathing and Respiratory Muscle Training Method and System

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130089043A (en) * 2012-02-01 2013-08-09 김형태 Multichannel phonokinetic evaluating apparatus and method
US20150258370A1 (en) * 2012-10-11 2015-09-17 Bezalel Arkush Breathing and Respiratory Muscle Training Method and System

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110033670A (en) * 2019-04-03 2019-07-19 平顶山教育学院(平顶山市文化旅游学校) A kind of vocal music pronounciation training device
KR102225288B1 (en) * 2019-09-09 2021-03-10 공효원 Method for providing bigdata based vocalization guidance service using comparative analysis of v0cal cord vibration pattern
KR20210083864A (en) * 2019-12-27 2021-07-07 (주)이튜 Respiratory training terminal for improving autism and ADHD symptoms
KR102310590B1 (en) * 2019-12-27 2021-10-08 (주)이튜 Respiratory training terminal
CN111710212A (en) * 2020-07-10 2020-09-25 重庆沧海粟科技有限公司 Music teaching and study are with vocal music breath exercise device
CN111710212B (en) * 2020-07-10 2021-10-26 九江学院 Music teaching and study are with vocal music breath exercise device

Similar Documents

Publication Publication Date Title
KR101944675B1 (en) Voice training system through breathing measurement
US11322155B2 (en) Method and apparatus for establishing voiceprint model, computer device, and storage medium
Kondrak A new algorithm for the alignment of phonetic sequences
US6073099A (en) Predicting auditory confusions using a weighted Levinstein distance
JPWO2007010680A1 (en) Voice quality change location identification device
Kochanski et al. Quantitative measurement of prosodic strength in Mandarin
US20150371626A1 (en) Method and apparatus for speech synthesis based on large corpus
Gao et al. A study on robust detection of pronunciation erroneous tendency based on deep neural network.
JP2017058513A (en) Learning device, speech synthesis device, learning method, speech synthesis method, learning program, and speech synthesis program
US9087519B2 (en) Computer-implemented systems and methods for evaluating prosodic features of speech
EP3613046B1 (en) System and method for automatic speech analysis
CN104021786A (en) Speech recognition method and speech recognition device
Andreeva et al. Differences of pitch profiles in Germanic and Slavic languages
KR102225288B1 (en) Method for providing bigdata based vocalization guidance service using comparative analysis of v0cal cord vibration pattern
KR20210076921A (en) Lung Volume Estimation with Voice Analysis
CN109413351B (en) Music generation method and device
KR101579544B1 (en) Apparatus and Method for Calculating Similarity of Natural Language
Meltzner et al. Speech recognition for vocalized and subvocal modes of production using surface EMG signals from the neck and face.
Ali et al. Development and analysis of speech emotion corpus using prosodic features for cross linguistics
CN107610691B (en) English vowel sounding error correction method and device
Blache et al. Multimodal annotation of conversational data
CN108647346B (en) Old people voice interaction method and system for wearable electronic equipment
JP2003271160A (en) Music retrieving device
JP2000075894A (en) Method and device for voice recognition, voice interactive system and recording medium
JP3869448B2 (en) Voice assist device

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant