KR100926771B1 - Method of sasang constitution check using speech analysis - Google Patents

Method of sasang constitution check using speech analysis Download PDF

Info

Publication number
KR100926771B1
KR100926771B1 KR1020090042062A KR20090042062A KR100926771B1 KR 100926771 B1 KR100926771 B1 KR 100926771B1 KR 1020090042062 A KR1020090042062 A KR 1020090042062A KR 20090042062 A KR20090042062 A KR 20090042062A KR 100926771 B1 KR100926771 B1 KR 100926771B1
Authority
KR
South Korea
Prior art keywords
constitution
value
voice
specific
umin
Prior art date
Application number
KR1020090042062A
Other languages
Korean (ko)
Inventor
강재환
김종열
이혜정
Original Assignee
한국 한의학 연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국 한의학 연구원 filed Critical 한국 한의학 연구원
Priority to KR1020090042062A priority Critical patent/KR100926771B1/en
Application granted granted Critical
Publication of KR100926771B1 publication Critical patent/KR100926771B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4803Speech analysis specially adapted for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4854Diagnosis based on concepts of traditional oriental medicine

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Alternative & Traditional Medicine (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PURPOSE: A method for classifying sasang constitution using a sound analysis technique is provided to improve accuracy of specific constitution classification by applying a non-parametric statistical method to a sound variable extracted through a sound analysis. CONSTITUTION: In a first step(S10), constitution distribution about a sound feature variable extracted from a plurality of sound data is investigated by a non-parametric statistical method. In a second step(S20), a maximum value and a minimum value about constitution of an arbitrary sound feature variable are searched. In a third step(S30), gRule matrix is generated from the constitution distribution of the arbitrary sound feature variable. In a fourth step(S40), specific constitution is classified by applying the specific sound feature variable of the arbitrary inputted sound data to the gRule matrix corresponding to the specific sound feature variable.

Description

음성 분석을 통한 사상체질 구분 방법{METHOD OF SASANG CONSTITUTION CHECK USING SPEECH ANALYSIS}How to classify Sasang Constitution through Speech Analysis {METHOD OF SASANG CONSTITUTION CHECK USING SPEECH ANALYSIS}

본 발명은 음성 분석을 통한 사상체질 구분 방법에 관한 것으로서 음성 분석을 통한 사상체질 구분 방법에 관한 것이다.The present invention relates to a method for classifying filamentous constitution through voice analysis and to a method for classifying filamentous constitution through voice analysis.

사상 체질 이론은 사람의 장부의 강하고 약한 차이에 따라 네 가지 체질로 구분하고, 이를 각각 태양인, 태음인, 소양인, 소음인으로 명명한 이론이다.The ideological constitution theory is divided into four constitutions according to the strong and weak differences in the human ledger and named as the sun person, the Taeumin person, the Soyangin person, and the noise person respectively.

사람의 장부를 폐, 비, 간, 신으로 구분하여 폐와 간, 비와 신이 서로 짝이 되어 크고 작은 차이가 발생됨으로써 체질이 네 가지로 결정된다.The human ledger is divided into lungs, rain, liver, and god, and lungs and liver, rain and god are paired with each other, resulting in large and small differences in constitution.

이러한 사상 체질은 사람의 음성에도 영향을 미쳐, 동일한 사상 체질을 가진 사람은 음성에도 어느 정도 공통점을 가지게 된다.This thought constitution also affects the voice of a person, and people with the same thought constitution have some commonalities with voice.

이하, 일반적인 사상 체질별 음성의 특징을 살펴본다.Hereinafter, the characteristics of the speech of each general constitution will be described.

첫째로, 태양인은 말소리가 크고 우렁차며 거침이 없고 급하다. 구체적으로, 태양인의 음성은 목소리가 크고, 음성이 멀리까지 들리며, 청음이다. 또한, 고음이고, 음절이 명료하며, 목소리에 힘이 있는 것이 주된 특징이다.First, the sunin is loud and loud and hastily and urgent. Specifically, the Sunin's voice is loud, the voice is far away, and it is hearing. In addition, the main characteristics are treble, clear syllables, and powerful voice.

둘째로, 태음인은 침묵하여 말이 없다. 구체적으로, 태음인의 음성은 탁음이고, 말이 느리며, 저음이다. 또한, 목소리 톤이 굵고, 목소리가 중후하며, 음성이 명료하지 않은 것이 주된 특징이다.Second, the Taeumin are silent and silent. Specifically, the voice of the Taeumin is Takum, slow speech, and bass. The main feature is that the voice tone is thick, the voice is heavy, and the voice is not clear.

셋째로, 소양인은 말이 많고 경솔하다. 구체적으로, 소양인의 음성은 말이 빠르고, 고음이며, 음성이 맑다. 또한, 쇳소리가 나듯 거칠고, 목소리가 가벼운 것이 주된 특징이다.Third, Soyang is talkative and frivolous. Specifically, the voice of Soyangin is fast speaking, treble, and clear. In addition, the main feature is that the sound is rough, like a beep sound.

넷째로, 소음인은 조용하고, 말이 없으며, 침착하다. 구체적으로, 소음인의 음성은 말소리가 작고, 목소리에 힘이 없으며, 말을 천천히 한다. 또한, 음성이 명료하고, 음성이 낮으며, 음성의 선이 가는것이 주된 특징이다.Fourth, the noise person is quiet, silent, and calm. Specifically, the voice of the noise person is small in speech, has no power, and speaks slowly. In addition, the main features are clear voice, low voice, and thin line of voice.

이와 같이, 각 사상 체질별 음성의 특징에 따라 대상 음성의 사상 체질을 구분할 수 있다.In this way, the constitutional constituents of the target voice can be classified according to the characteristics of the speech for each constitutional constituent.

종래의 음성을 통한 사상 체질을 구분하는 방법은 추출된 소수의 음성 변수에 단순 모수적 통계 방법을 적용하거나, 구체적인 음성 분석 기술 및 그 알고리즘 내용이 모호하여 특정 체질을 정확하게 구분하지 못하는 문제점이 있었다.The conventional method of classifying sasang constitutions through speech has a problem in that a simple parametric statistical method is applied to a small number of extracted speech variables, or a specific speech analysis technique and its contents are ambiguous and thus it is not possible to accurately classify specific constitutions.

본 발명은 상기한 바와 같은 문제를 해결하기 위해 안출된 것으로, 음성 분석 기술을 이용하여 음성 변수를 추출하고 이에 비모수적인 통계 방법을 적용하여 특정 체질 구분의 정확성을 높인 사상체질 구분 방법을 제공하는 데 그 목적이 있다.The present invention has been made to solve the problems described above, to provide a Sasang constitution classification method to increase the accuracy of the specific constitution classification by applying a non-parametric statistical method to extracting the speech variable using the speech analysis technology The purpose is.

본 발명의 다른 목적은, 음성 뿐만 아니라 피부, 안면, 체형 등 여러가지 정보를 가지고 통합적으로 체질을 구분하는 시스템의 성능을 높일 수 있는 음성 분석을 통한 사상체질 구분 방법을 제공하는 것이다.It is another object of the present invention to provide a method for classifying filamentous constitution through voice analysis that can enhance the performance of a system for integrating the constitution with various information such as skin, face, and body as well as voice.

상기한 바와 같은 목적을 달성하기 위해 본 발명에 따른 음성 분석을 통한 사상 체질 구분 방법은 체질이 확진된 다수의 음성 데이터로부터 복수의 음성 특징 변수를 추출하되 각각의 음성 특징 변수에 대한 체질별 분포를 비모수 통계 방법으로 조사하는 제 1단계와, 임의의 상기 음성 특징 변수에 대한 체질별 분포에서 각 체질별로 최대값과 최소값을 서치(search)하는 제 2단계와, 임의의 상기 음성 특징 변수에 대한 각 체질별 최대값을 상호 비교한 후 상기 체질별 최대값 중에서 서치(search)된 최소치(uMin)와 상기 최소치(uMin)가 발생한 체질(ui)로 이루어지는 제 1 Logical Rule과 상기 임의의 음성 특징 변수의 각 체질별 최소값을 상호 비교한 후 상기 체질별 최소값 중에서 서치(search)된 최대치(lMax)와 상기 최대치(lMax)가 발생한 체질(li)로 이루어지는 제 2 Logical Rule로 구성되는 gRule(uMin, ui, lMax, li) 매트릭스를 생성하는 제 3단계 및 임의로 입력된 음성 데이터의 특정 음성 특징 변수를 상기 특정 음성 특징 변수에 대응하는 gRule(uMin, ui, lMax, li) 매트릭스에 적용하여 음성 데이터를 통한 특정 체질을 구분하는 제 4단계를 포함하는 것을 특징으로 한다.In order to achieve the object as described above, the Sasang constitution classification method through voice analysis according to the present invention extracts a plurality of voice feature variables from a plurality of voice data of which the constitution is confirmed, but the distribution of each voice feature variable for each constitution. A first step of searching by a nonparametric statistical method, a second step of searching for a maximum value and a minimum value for each of the constitutions in the distribution of the constitutions for any of the negative feature variables, and for each of the negative feature variables. After comparing the maximum values for each constitution, the first logical rule including the minimum value (uMin) searched among the maximum values for each constitution and the constitution (ui) in which the minimum value (uMin) is generated is obtained. A second log including a maximum value (lMax) searched among the minimum values for each constitution and a constitution (li) in which the maximum value (lMax) is generated after comparing the minimum values for each constitution. A third step of generating a gRule (uMin, ui, lMax, li) matrix consisting of a ical rule and a specific voice feature variable of the randomly input voice data corresponding to the specific voice feature variable gRule (uMin, ui, lMax, li) a fourth step of identifying a specific constitution through the voice data by applying to the matrix.

또한, 상기 제 4단계는 임의로 입력된 음성 데이터에 대해 특정 체질의 구분을 보류하는 경우와, 특정한 체질임을 구분하는 경우 및 특정한 체질이 아님을 구분하는 경우를 포함할 수 있다.In addition, the fourth step may include a case in which a classification of a specific constitution is suspended for a randomly input voice data, a case in which a specific constitution is distinguished, and a case in which a specific constitution is not distinguished.

또한, 상기 입력된 음성 데이터의 특정한 체질이 아님을 구분하는 경우는, 임의로 입력된 음성 데이터의 특정 음성 특징 변수값이 상기 gRule(uMin, ui, lMax, li) 매트릭스의 uMin 보다 클 경우, 하기의 제 1 Logical Rule에 의해 ui 가 아님을 구분할 수 있다.In addition, when distinguishing that the input voice data is not a specific constitution, when a value of a specific voice characteristic variable of the input voice data is arbitrarily larger than uMin of the gRule (uMin, ui, lMax, li) matrix, It can be distinguished that it is not ui by the first logical rule.

<제 1 Logical Rule><1st Logical Rule>

if(X>uMin), then NOT uiif (X> uMin), then NOT ui

(X는 임의로 입력된 음성 데이터의 특정 음성 특징 변수값)(X is a value of a specific voice characteristic variable of the voice data input arbitrarily)

또한, 상기 입력된 음성 데이터의 특정한 체질이 아님을 구분하는 경우는, 임의로 입력된 음성 데이터의 특정 음성 특징 변수값이 상기 gRule(uMin, ui, lMax, li) 매트릭스의 lMax 보다 작을 경우, 하기의 제 2 Logical Rule에 의해 li 가 아님을 구분할 수 있다.In addition, in the case of distinguishing that the input voice data is not a specific constitution, when the value of a specific voice characteristic variable of the input voice data is arbitrarily smaller than the lMax of the gRule (uMin, ui, lMax, li) matrix, It can be distinguished that it is not li by the second logical rule.

삭제delete

<제 2 Logical Rule><2nd Logical Rule>

if(X<lMax), then NOT liif (X <lMax), then NOT li

(X는 임의로 입력된 음성 데이터의 특정 음성 특징 변수값)(X is a value of a specific voice characteristic variable of the voice data input arbitrarily)

또한, 상기 제 3단계는 상기 음성 특징 변수가 특정 신체정보와 상관성이 있는 음성 특징 변수인 경우, 상기 특정 신체정보의 그룹별 sub 매트릭스를 상기 gRule(uMin, ui, lMax, li) 매트릭스에 포함시키는 단계를 더 포함할 수 있다.Further, in the third step, when the voice feature variable is a voice feature variable correlated with specific body information, the sub matrix for each group of the specific body information is included in the gRule (uMin, ui, lMax, li) matrix. It may further comprise a step.

또한, 상기 음성 특징 변수와 특정 신체정보의 상관성은 0.3 이상일 수 있다.In addition, the correlation between the voice feature variable and specific body information may be 0.3 or more.

또한, 상기 특정 신체정보는 피험자의 나이, 키, 몸무게, BMI(Body Mass Index) 일 수 있다.In addition, the specific body information may be a subject's age, height, weight, and body mass index (BMI).

또한, 상기 임의로 입력된 음성 데이터의 체질별 점수를 초기화시키는 제 1공정 및 상기 임의로 입력된 음성 데이터의 각각의 음성 특징 변수를 상기 gRule(uMin, ui, lMax, li) 매트릭스에 적용하여 상기 gRule(uMin, ui, lMax, li) 매트릭스를 만족하는 경우, 이와 관련된 체질의 점수에 패널티로 -1점을 부여하여 각각의 음성 특징 변수에 대한 최종 체질 점수를 생성하는 제 2공정을 포함할 수 있다.In addition, the first step of initializing the score for each constitution of the randomly input voice data and each voice feature variable of the randomly input voice data is applied to the gRule (uMin, ui, lMax, li) matrix by applying the gRule ( uMin, ui, lMax, li) may include a second step of generating a final constitution score for each voice feature variable by assigning a -1 point as a penalty to the score of the constitution related thereto.

또한, 상기 제 4단계는 상기 음성 특징 변수의 최종 체질 점수에서 최대값과, 중간값 및 최소값을 파인딩(finding)하는 제 3공정과, 상기 최대값과 최소값의 차이값을 계산하여 음성 특징 변수의 수(N_SP) × 0.1의 계산값과 비교하는 제 4공정과, 상기 차이값이 상기 계산값보다 작으면 특정 체질의 구분을 보류하고, 상기 차이값이 상기 계산값보다 크면 상기 최대값과 중간값의 차이값과, 중간값과 최소값의 차이값을 계산하는 제 5공정 및 상기 최대값과 중간값의 차이값이 중간값과 최소값의 차이값보다 클 경우 특정한 체질임을 구분하고, 상기 최대값과 중간값의 차이값이 중간값과 최소값의 차이값보다 작을 경우 특정한 체질이 아님을 구분하는 제 6공정을 포함할 수 있다.The fourth step may further include a third process of finding a maximum value, a median value, and a minimum value in the final constitution score of the voice feature variable, and calculating a difference value between the maximum value and the minimum value to determine the voice feature variable. A fourth step of comparing with a calculated value of number N_SP × 0.1, and if the difference value is less than the calculated value, the classification of a specific constitution is suspended; if the difference value is larger than the calculated value, the maximum value and the median value The fifth step of calculating the difference between the difference value of the median value and the minimum value, and if the difference value between the maximum value and the median value is greater than the difference value between the median value and the minimum value, distinguish the specific constitution, the maximum value and the median When the difference value of the value is smaller than the difference value between the median value and the minimum value, it may include a sixth step of distinguishing that the specific constitution.

상기한 바와 같이 본 발명에 따른 음성 분석을 통한 사상체질 구분 방법에 의하면 음성 분석 기술을 이용하여 음성 변수를 추출하고 이에 비모수적인 통계 방법을 적용하여 특정 체질 구분의 정확성을 높이는 효과가 있다.As described above, according to the Sasang constitution classification method through speech analysis according to the present invention, it is effective to extract a speech variable using a speech analysis technique and to apply a nonparametric statistical method to increase the accuracy of a specific constitution classification.

또한, 음성 뿐만 아니라 피부, 안면, 체형 등 여러가지 정보를 가지고 통합적으로 체질을 구분하는 시스템의 성능을 높일 수 있다.In addition, not only the voice but also the skin, face, body shape and various information to improve the performance of the system that can be divided into constitution.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세히 설명한다. 우선, 도면들 중 동일한 구성요소 또는 부품들은 가능한 한 동일한 참조부호를 나타내고 있음에 유의해야 한다. 본 발명을 설명함에 있어서 관련된 공지기능 혹은 구성에 대한 구체적인 설명은 본 발명의 요지를 모호하게 하지 않기 위해 생략한다.Hereinafter, with reference to the accompanying drawings will be described an embodiment of the present invention; First, it should be noted that the same components or parts in the drawings represent the same reference numerals as much as possible. In describing the present invention, detailed descriptions of related well-known functions or configurations are omitted in order not to obscure the gist of the present invention.

도 13a 및 도 13b는 본 발명의 일 실시예에 따른 음성 분석을 통한 사상체질 구분 방법의 블록도이다.13A and 13B are block diagrams of a method for classifying filamentous constitution through voice analysis according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 음성 분석을 통한 사상체질 구분 방법은 도 13a에 도시된 바와 같이, 제 1단계(S10)와, 제 2단계(S20)와, 제 3단계(S30) 및 제 4단계(S40)를 포함한다.Sasang constitution method through voice analysis according to an embodiment of the present invention, as shown in Figure 13a, the first step (S10), the second step (S20), the third step (S30) and fourth Step S40 is included.

상기 제 1단계(S10)는 체질이 확진된 다수의 음성 데이터로부터 음성 특징 변수를 추출하되, 각각의 음성 특징 변수에 대해서 체질별 분포를 비모수 통계 방법으로 조사하는 단계이다.The first step (S10) is a step of extracting a voice feature variable from a plurality of voice data of which the constitution is confirmed, the method for investigating the distribution for each voice feature variable by the non-parametric statistical method.

상기 비모수 통계(非母數統計, Non-parametric statistics)는 통계학에서 모수에 대한 가정을 전제로 하지 않고 모집단의 형태에 관계없이 주어진 데이터에서 직접 확률을 계산하여 통계학적 검정을 하는 분석법을 말한다.The non-parametric statistics refers to an analysis method that calculates a probability directly from a given data and performs a statistical test regardless of the shape of a population without assuming assumptions about parameters in statistics.

체질이 확진된 다수의 음성 데이터로부터 음성 특징 변수를 추출하기 위해, 본 발명에서는 '아(a)', '에(e)', '이(i)', '오(o)', '우(u)' 의 기본 5모음과, '우리는 맑은 공기를 마시고 왔습니다' 라는 문장을 2번 반복하여 음성 데이터를 수집하고, 수집된 음성 데이터에서 총 134개의 음성 특징 변수를 추출한다.In order to extract voice feature variables from a plurality of confirmed voice data, in the present invention, 'a (a)', 'e (e)', '(i)', '(o)', 'right' (u) 'and 5 sentences and' We've been drinking fresh air 'are repeated twice to collect voice data, and 134 voice feature variables are extracted from the collected voice data.

도 1은 본 발명에 따른 추출된 음성 특징 변수를 나타내는 도이고, 도 2는 본 발명에 따른 피치를 구하는 알고리즘을 나타내는 도이며, 도 3은 본 발명에 따른 MDVP변수를 구하는 식을 나타내는 도이다. 또한, 도 4는 본 발명에 따른 포만트를 구하는 알고리즘을 나타내는 도이고, 도 5는 본 발명에 따른 MFCC를 구하는 순서도이며, 도 6은 본 발명에 따른 임의의 음성 특징 변수의 분포를 나타내는 도이다.1 is a diagram showing an extracted speech feature variable according to the present invention, FIG. 2 is a diagram showing an algorithm for obtaining a pitch according to the present invention, and FIG. 3 is a diagram showing an equation for obtaining an MDVP variable according to the present invention. 4 is a diagram showing an algorithm for obtaining a formant according to the present invention, FIG. 5 is a flowchart for obtaining an MFCC according to the present invention, and FIG. 6 is a diagram showing a distribution of arbitrary speech feature variables according to the present invention. .

상기 음성 특징 변수는 도 1에 도시된 바와 같이, 첫째로, 각 모음에 대해서 피치(Pitch)와 포만트(Formant)에 관련된 음성 특징 변수 12개와, MFCC(Mel-Frequency Cepstral Coefficient) 13개를 추출하여 총 5모음 × 25개 = 125개의 음성 특징 변수를 추출한다.As shown in FIG. 1, first, 12 voice feature variables related to pitch and formant and 13 Mel-Frequency Cepstral Coefficients are extracted for each vowel. A total of 5 vowels × 25 = 125 speech feature variables are extracted.

둘째로, 각 문장에 대해서 시간별 피치(Pitch)와 Intensity의 series를 구하고, 여기서 10, 50, 90, percentile 값과 이 들 간의 비를 구하여 총 9개의 음성 특징 변수를 추출하여 총 134개의 음성 특징 변수를 추출한다.Secondly, a series of pitch and intensity for each sentence is obtained, and a total of 134 voice feature variables are extracted by extracting a total of 9 voice feature variables from the values of 10, 50, 90, percentile and the ratio between them. Extract

구체적으로, 음성 신호 분석에서는 가장 먼저 음의 높이를 나타내는 피치(Pitch)를 구한다. Specifically, in speech signal analysis, a pitch representing the height of sound is first obtained.

상기 피치(Pitch)를 구하는 알고리즘으로 도 2에 도시된 바와 같이, Autocorrelation 방법을 사용할 수 있고, 이때 추출된 변수는 2개로, xF0 와 xT0 이다. 이때, x는 '아(a)', '에(e)', '이(i)', '오(o)', '우(u)' 중 어느 하나를 의미한다.As an algorithm for obtaining the pitch, as shown in FIG. 2, an autocorrelation method may be used. In this case, two extracted variables are xF0 and xT0. In this case, x means any one of 'a (a)', 'e (e)', 'yi (i)', 'o (o)', and 'u (u)'.

또한, 도 3에 도시된 바와 같이, 상기 피치(Pitch)값과 음성 신호 파형을 이용하여 MDVP 변수를 구한다. 상기 MDVP 변수는 임상에서 많이 사용되고, 이때, 추출된 변수는 8개로, xSTD, xJITA, xJITT, xRAP, xPPQ, xSHDB, xSHIM, xAPQ 이다.In addition, as shown in FIG. 3, MDVP variables are obtained using the pitch value and the voice signal waveform. The MDVP variable is widely used in the clinic. At this time, the extracted variable is eight, xSTD, xJITA, xJITT, xRAP, xPPQ, xSHDB, xSHIM, and xAPQ.

이때, STD, Jita, RAP, PPQ는 일정 크기의 윈도우 안에서 피치(Pitch)의 변화량을 계산한 값이고, ShDB, ShIm, APQ는 일정 크기의 윈도우 안에서 음성 신호의 크기(Amplitude)의 변화량을 계산한 값이다.In this case, STD, Jita, RAP, and PPQ are calculated values of pitch change in a window of a constant size, and ShDB, ShIm, APQ are calculated values of change of amplitude of a voice signal in a window of a predetermined size. Value.

또한, 도 4에 도시된 바와 같이, LPC(Linear Prediction Coding) 모델과 Root Extraction 방법을 사용하여, 제 1포만트 및 제 2포만트를 구한다. 이때, 추출된 변수는 2개로, xF1, xF2 이다.In addition, as shown in FIG. 4, the first formant and the second formant are obtained by using a linear prediction coding (LPC) model and a root extraction method. At this time, two extracted variables are xF1 and xF2.

더불어, 도 5에 도시된 바와 같이, 음성 분석 및 인식 분야에서 많이 사용되 는 MFCC(Mel-Frequency Cepstral Coefficients)를 구한다. 이때, 추출된 변수는 13개로, 12차 MFCC 계수와 1개의 Energy 값(C0)이다. 즉, xMFCC1 ~ xMFCC12, xC0 이다.In addition, as shown in FIG. 5, Mel-Frequency Cepstral Coefficients (MFCC), which are widely used in speech analysis and recognition, are obtained. At this time, there are 13 extracted variables, that is, the twelfth order MFCC coefficient and one energy value (C0). That is, xMFCC1 to xMFCC12 and xC0.

상술한 바와 같이, 총 134개의 음성 특징 변수를 추출한 후, 도 6에 도시된 바와 같이, 각각의 음성 특징 변수에 대해서 체질별 분포를 조사한다.As described above, after extracting a total of 134 voice feature variables, as shown in FIG. 6, the distribution of each voice feature variable is examined for each constitution.

도 7은 본 발명에 따른 임의의 음성 특징 변수의 분포로부터 gRule(uMin, ui, lMax, li) 매트릭스를 생성하는 것을 나타내는 도이고, 도 8은 본 발명에 따른 4 ×134 Matrix의 gRule(uMin, ui, lMax, li) 매트릭스를 나타내는 도이다.7 is a diagram showing the generation of the gRule (uMin, ui, lMax, li) matrix from the distribution of any speech feature variable according to the present invention, Figure 8 is a gRule (uMin, of 4 × 134 Matrix according to the invention ui, lMax, li) matrix.

상기 제 2단계(S20)는 상기 음성 특징 변수에 대한 체질별 최대값과 최소값을 서치(search)하는 단계이다.The second step (S20) is a step of searching for the maximum value and the minimum value for each constitution for the speech feature variable.

상기 제 3단계(S30)는 상기 체질별 최대값에서 서치(search)된 최소치(uMin)와 상기 최소치(uMin)가 발생한 체질(ui)로 이루어지는 제 1 Logical Rule과, 상기 체질별 최소값에서 서치(search)된 최대치(lMax)와 상기 최대치(lMax)가 발생한 체질(li)로 이루어지는 제 2 Logical Rule로 구성되는 gRule(uMin, ui, lMax, li) 매트릭스를 생성하는 단계이다.The third step (S30) is a first logical rule consisting of a minimum value (uMin) searched from the maximum value for each constitution and a constitution (ui) in which the minimum value (uMin) occurred, and the search (at the minimum value for each constitution) A step of generating a gRule (uMin, ui, lMax, li) matrix consisting of a second Logical Rule consisting of the searched maximum value lMax and the maximum value lMax generated.

구체적으로, 도 7에 도시된 바와 같이, 3개의 최대값에서 최소치를 서치하여 uMin에 저장하고, 상기 최소치가 발생했을 때의 체질을 ui에 저장한다.Specifically, as shown in FIG. 7, the minimum value is searched at three maximum values and stored in uMin, and the constitution when the minimum value is generated is stored in ui.

또한, 3개의 최소값에서 최대치를 서치하여 lMax에 저장하고, 상기 최대치가 발생했을 때의 체질을 li에 저장한다.In addition, the maximum value is searched for in three minimum values and stored in lMax, and the constitution when the maximum value occurs is stored in li.

따라서, 상기의 4개의 값을 이용하면 제 1 Logical Rule과, 제 2 Logical Rule의 논리식을 얻을 수 있고, 상기의 논리식을 이용하여 도 8에 도시된 바와 같이, 4개의 조건 변수가 포함된 gRule(uMin, ui, lMax, li) 매트릭스를 생성할 수 있다.Therefore, using the above four values, a logical expression of the first logical rule and the second logical rule can be obtained, and as shown in FIG. 8 using the above logical expression, gRule (4) including four condition variables ( uMin, ui, lMax, li) matrix can be created.

상기 gRule(uMin, ui, lMax, li) 매트릭스는 상기한 바와 같이, 2개의 논리식으로 생성이 가능하므로 4개의 변수를 총 134개의 음성 특징 변수로 확대하면 결국, 총 268개의 논리식을 만들 수 있다.As described above, the gRule (uMin, ui, lMax, li) matrix can be generated by two logical expressions, so when four variables are expanded to a total of 134 voice feature variables, a total of 268 logical expressions can be made.

이는 4 × 134 매트릭스로 저장하여 관리가 가능하다.It can be stored and managed as a 4 × 134 matrix.

한편, 상기 제 3단계(S30)는 도 13b에 도시된 바와 같이, 상기 음성 특징 변수가 특정 신체정보와 상관성이 있는 음성 특징 변수인 경우, 상기 특정 신체정보의 그룹별 sub 매트릭스를 상기 gRule(uMin, ui, lMax, li) 매트릭스에 포함시키는 상관성 추가 단계(S31)를 더 포함한다.Meanwhile, as illustrated in FIG. 13B, when the voice feature variable is a voice feature variable correlated with specific body information, the third step S30 may include a sub-matrix for each group of the specific body information as gRule (uMin). , ui, lMax, li) further includes a correlation step (S31) to include in the matrix.

총 134개의 음성 특징 변수에는 그 특성상 피험자의 성별, 나이, 키, 몸무게와 같은 특정 신체정보와 어느 정도 상관성이 있는 변수들이 포함되어 있다. 따라서, 상기 sub 매트릭스를 상기 gRule(uMin, ui, lMax, li) 매트릭스에 포함시키는 상관성 추가 단계(S31)는 이러한 상관성을 반영하기 위한 단계이다.A total of 134 voice characteristic variables include variables that have some correlation with specific physical information such as sex, age, height, and weight of the subject. Accordingly, the correlation addition step S31 of including the sub matrix in the gRule (uMin, ui, lMax, li) matrix is a step for reflecting such correlation.

이때, 상기 음성 특징 변수와 특정 신체정보의 상관성은 0.3 이상이고, 상기 특정 신체정보는 피험자의 나이, 키, 몸무게, BMI 이다.In this case, the correlation between the voice feature variable and specific body information is 0.3 or more, and the specific body information is a subject's age, height, weight, and BMI.

구체적으로, 피험자를 성별로 나누고, 134개의 음성 특징 변수와 나이, 키, 몸무게, BMI의 상관관계를 조사하여 그 상관성이 0.3 이상이 되는 관계를 추출한다. 이때, 이러한 상관성은 남자는 나이와 키, 여자는 나이와 BMI에만 있다.Specifically, the subjects are divided by gender, and the correlation between 134 voice feature variables, age, height, weight, and BMI is examined to extract a relationship having a correlation of 0.3 or more. At this time, these correlations are only for men's age and height, and women's age and BMI.

도 9는 본 발명에 따른 음성 특징 변수와 특정 신체정보의 상관성을 나타내는 도이다.9 is a diagram illustrating a correlation between a voice feature variable and specific body information according to the present invention.

도 9에 도시된 바와 같이, 남성의 경우 나이와 상관성이 0.3 이상 되는 변수는 총 9개로, eSHDB, eSHIM, iF2, P10, P50, eMFCC8, iMFCC8, oMFCC8, uMFCC8 이고, 키와 상관성이 0.3 이상 되는 변수는 2개로, uF0, P50 이다.As shown in FIG. 9, in the case of men, there are nine variables having a correlation with age of 0.3 or more, eSHDB, eSHIM, iF2, P10, P50, eMFCC8, iMFCC8, oMFCC8, uMFCC8, and correlation with height of 0.3 or more. There are two variables, uF0 and P50.

또한, 여성의 경우 나이와 상관성이 0.3 이상 되는 변수는 총 22개로, aF0, aT0, eFO, iFO, oFO, oTO, uFO, p10, p50, p90, aMFCC9, aMFCC12, eMFCC6, eMFCC11, eMFCC12, iMFCC6, iMFCC9, oMFCC9, uMFCC7, uMFCC9, uMFCC12 이고, BMI와 상관성이 0.3 이상 되는 변수는 5개로, eFO, P10, P50, P90, aMFCC12 이다.In addition, in women, there are 22 variables that have a correlation with age of 0.3 or more, including aF0, aT0, eFO, iFO, oFO, oTO, uFO, p10, p50, p90, aMFCC9, aMFCC12, eMFCC6, eMFCC11, eMFCC12, iMFCC6, iMFCC9, oMFCC9, uMFCC7, uMFCC9, uMFCC12, and five variables that correlate with BMI of 0.3 or more are eFO, P10, P50, P90, and aMFCC12.

도 10은 본 발명에 따른 그룹별 sub 매트릭스를 포함된 gRule(uMin, ui, lMax, li) 매트릭스를 나타내는 도이다.10 is a diagram illustrating a gRule (uMin, ui, lMax, li) matrix including a sub matrix for each group according to the present invention.

0.3 이상의 상관성을 보이는 변수에 대해서는 하기 [표 1]와 같이, 각 그룹별로 나누고, 이 그룹별로 따로 gRule의 sub 매트릭스를 생성한다.Variables showing a correlation of 0.3 or more are divided into groups, as shown in Table 1 below, and subgroups of gRules are generated for each group.

Figure 112009028932254-pat00001
Figure 112009028932254-pat00001

이후, 도 10에 도시된 바와 같이, 임의의 입력 음성 데이터에 대해서는 그의 신체정보를 조사하여 이에 맞는 sub 매트릭스를 gRule에 대체한다.Then, as shown in FIG. 10, any input voice data is examined for its body information and the corresponding sub matrix is replaced with gRule.

상기 제 4단계(S40)는 임의로 입력된 음성 데이터의 특정 음성 특징 변수를 상기 특정 음성 특징 변수의 gRule(uMin, ui, lMax, li) 매트릭스에 적용하여 음성 데이터를 통한 특정 체질을 구분하는 단계이다.The fourth step (S40) is a step of distinguishing a specific constitution through the voice data by applying a specific voice feature variable of the voice data randomly input to the gRule (uMin, ui, lMax, li) matrix of the specific voice feature variable. .

이때, 상기 제 4단계(S40)는 임의로 입력된 음성 데이터에 대해 특정 체질의 구분을 보류하는 경우와, 특정한 체질임을 구분하는 경우 및 특정한 체질이 아님을 구분하는 경우를 포함한다.At this time, the fourth step (S40) includes a case of holding a classification of a specific constitution with respect to the randomly input voice data, a case of distinguishing a specific constitution and a case of distinguishing that it is not a specific constitution.

상기 입력된 음성 데이터의 특정한 체질이 아님을 구분하는 경우는 첫째로, 임의로 입력된 음성 데이터의 특정 음성 특징 변수값이 상기 gRule(uMin, ui, lMax, li) 매트릭스의 uMin 보다 클 경우, 하기의 제 1 Logical Rule에 의해 ui 가 아님을 구분할 수 있다.In the case of distinguishing that the input voice data is not a specific constitution, first, when a specific voice characteristic variable value of the input voice data is larger than uMin of the gRule (uMin, ui, lMax, li) matrix, It can be distinguished that it is not ui by the first logical rule.

<제 1 Logical Rule><1st Logical Rule>

if(X>uMin), then NOT uiif (X> uMin), then NOT ui

(X는 임의로 입력된 음성 데이터의 특정 음성 특징 변수값)(X is the value of a certain voice characteristic variable of the voice data input randomly)

즉, 입력된 음성의 특정 음성 특징 변수값이 uMin보다 클 경우 최소 ui가 아닐 가능성이 그 반대보다 더 크다.In other words, if the value of a particular voice characteristic variable of the input voice is greater than uMin, the likelihood is not the minimum ui.

또한, 둘째로, 임의로 입력된 음성 데이터의 특정 음성 특징 변수값이 상기 gRule(uMin, ui, lMax, li) 매트릭스의 lMax 보다 작을 경우, 하기의 제 2 Logical Rule에 의해 li 가 아님을 구분할 수 있다.Secondly, when the value of a specific voice feature variable of the randomly input voice data is smaller than lMax of the gRule (uMin, ui, lMax, li) matrix, it can be distinguished that it is not li by the following second Logical Rule. .

<제 2 Logical Rule><2nd Logical Rule>

if(X<lMax), then NOT liif (X <lMax), then NOT li

(X는 임의로 입력된 음성 데이터의 특정 음성 특징 변수값)(X is a value of a specific voice characteristic variable of the voice data input arbitrarily)

즉, 입력된 음성의 특정 음성 특징 변수값이 lMax보다 작을 경우 최소 li가 아닐 가능성이 그 반대보다 더 크다.In other words, if the value of a particular voice characteristic variable of the input voice is less than lMax, the probability of not being at least li is greater than vice versa.

도 14a 및 도 14b는 도 13a 또는 13b의 제 4단계의 블록도이다.14A and 14B are block diagrams of a fourth step of FIG. 13A or 13B.

상기 제 4단계(S40)는 도 14a에 도시된 바와 같이, 제 1공정(S41)과 제 2공정(S42)을 포함한다.As shown in FIG. 14A, the fourth step S40 includes a first step S41 and a second step S42.

도 11은 본 발명에 따른 임의로 입력된 음성 데이터의 최종 체질 점수를 나타내는 도이다.11 is a view showing the final constitution score of the randomly input voice data according to the present invention.

상기 제 1공정(S41)은 임의로 입력되는 음성 데이터의 체질별 점수를 초기화시키는 공정이다.The first step (S41) is a step of initializing the score for each constitution of the voice data input arbitrarily.

상기 제 2공정(S42)은 상기 음성 데이터의 각각의 음성 특징 변수를 상기 gRule(uMin, ui, lMax, li) 매트릭스에 적용하여 상기 gRule(uMin, ui, lMax, li) 매트릭스를 만족하는 경우, 이와 관련된 체질의 점수에 패널티로 -1점을 부여하여 각각의 음성 특징 변수에 대한 최종 체질 점수를 생성하는 공정이다.The second step (S42) applies each voice feature variable of the voice data to the gRule (uMin, ui, lMax, li) matrix to satisfy the gRule (uMin, ui, lMax, li) matrix, A process of generating a final constitution score for each voice feature variable by assigning a -1 point to the score of the constitution related thereto.

구체적으로 도 11에 도시된 바와 같이, 임의로 입력된 음성 데이터는 상기 음성 데이터에 대한 소음/소양/태음 점수가 0점으로 초기화되며, 이후, gRule 매트릭스의 논리식을 통과하면서, 이 논리식의 조건이 만족되는 경우에 이에 관련된 체질의 점수에 페널티 형식으로 -1점을 부여 받게 된다.Specifically, as shown in FIG. 11, the randomly input voice data is initialized with zero noise / quantity / tone sound scores for the voice data, and then passes the logical formula of the gRule matrix, and the condition of the logical formula is satisfied. In the event of a penalty, -1 points will be awarded in the form of penalty for the score of the related constitution.

예를 들어, 상기 gRule 매트릭스의 논리식이 if(X>uMin), then NOT ui 이고, 특정 음성 특징 변수에서 X값이 uMin을 넘었을 경우, 이 때의 ui가 무엇인지 확인하고, 이 ui에 해당되는 체질점수에 -1점을 부여한다.For example, if the logical expressions of the gRule matrix are if (X> uMin), then NOT ui, and if the X value exceeds uMin in a specific voice characteristic variable, check what the ui is at this time and correspond to this ui. -1 point is given to the constitution score.

이러한 과정으로 상기 gRule 매트릭스를 통과한 음성 데이터는 최종 체질 점수를 가지게 된다.In this process, the voice data passing through the gRule matrix has a final constitution score.

한편, 상기 제 4단계(S40)는 도 14b에 도시된 바와 같이, 상기 제 1공정(S41), 제 2공정(S42) 후, 제 3공정(S43)과, 제 4공정(S44)과, 제 5공정(S45) 및 제 6공정(S46)을 포함한다.On the other hand, the fourth step (S40) is, as shown in Figure 14b, after the first step (S41), the second step (S42), the third step (S43), the fourth step (S44), The fifth step (S45) and the sixth step (S46) are included.

상기 제 3공정(S43)은 상기 음성 특징 변수의 최종 체질 점수에서 최대값과, 중간값 및 최소값을 파인딩(finding)하는 공정이다.The third step (S43) is a step of finding (finding) the maximum value, the median value and the minimum value in the final constitution score of the speech feature variable.

상기 제 4공정(S44)은 상기 최대값과 최소값의 차이값을 계산하여 음성 특징 변수의 수(N_SP) × 0.1의 계산값과 비교하는 공정이다.The fourth step S44 is a step of calculating a difference value between the maximum value and the minimum value and comparing the calculated value with the number N_SP × 0.1 of voice feature variables.

상기 제 5공정(S45)은 상기 차이값이 상기 계산값보다 작으면 특정 체질의 구분을 보류하고, 상기 차이값이 상기 계산값보다 크면 상기 최대값과 중간값의 차이값과, 중간값과 최소값의 차이값을 계산하는 공정이다.The fifth step (S45) suspends the classification of a specific constitution if the difference value is less than the calculated value, and if the difference value is greater than the calculated value, the difference value between the maximum value and the median value, the median value and the minimum value. The difference is calculated.

상기 제 6공정(S46)은 상기 최대값과 중간값의 차이값이 중간값과 최소값의 차이값보다 클 경우 특정한 체질임을 구분하고, 상기 최대값과 중간값의 차이값이 중간값과 최소값의 차이값보다 작을 경우 특정한 체질이 아님을 구분하는 공정이다.The sixth step (S46) distinguishes a specific constitution when the difference between the maximum value and the median value is greater than the difference value between the median value and the minimum value, and the difference value between the maximum value and the median value is the difference between the median value and the minimum value. If it is smaller than the value, it is a process to distinguish that it is not a specific constitution.

도 12는 본 발명에 따른 음성 분석을 통한 특정 체질을 구분하는 순서도이다.12 is a flow chart for classifying a specific constitution through voice analysis according to the present invention.

체질 구분 결과에 대해 최종 결정을 내리기 위해 도 12에 도시된 바와 같이, 상기 제 3공정(S43)에서는 gRule을 통과하면서 부여된 체질 점수에서 최대값과, 중간값 및 최소값을 파인딩한다.As shown in FIG. 12 in order to make a final decision on the constitution classification result, in the third step S43, the maximum value, the median value, and the minimum value are found in the constitution score given while passing through the gRule.

이후, 제 4공정(S44) 및 제 5공정(S45)에서는 상기 최대값과 최소값의 차이를 계산하여 이 값이 상기 음성 특징 변수의 수(N_SP) × 0.1의 계산값, 즉, 134 × 0.1 ≒ 13 보다 작으면 구분을 보류하고, 그 이상일 때만 구분하도록 최대값과 중간값의 차이값과, 중간값과 최소값의 차이값을 계산한다.Subsequently, in the fourth step S44 and the fifth step S45, the difference between the maximum value and the minimum value is calculated and this value is a calculated value of the number N_SP × 0.1 of the voice characteristic variable, that is, 134 × 0.1 ≒. If it is less than 13, the classification is suspended, and the difference between the maximum and the median and the difference between the median and the minimum are calculated so that the classification is made only when there is more than that.

이후, 제 6공정(S46)에서는 만약, 최대값과 중간값의 차이값이 중간값과 최소값의 차이값보다 클 경우, 입력된 음성 데이터는 '(최대값을 가지고 있는) 특정 체질이다.' 와 같은 구분을 내리고, 이와 반대로, 상기 최대값과 중간값의 차이값이 중간값과 최소값의 차이값보다 작을 경우, 입력된 음성 데이터는 '(최소값을 가지고 있는) 특정 체질은 아니다.' 와 같은 구분을 내린다.Then, in the sixth step (S46), if the difference between the maximum value and the median value is greater than the difference value between the median value and the minimum value, the input voice data is 'a specific constitution (having a maximum value).' On the contrary, if the difference between the maximum value and the median value is smaller than the difference value between the median value and the minimum value, the input voice data is 'not a specific constitution (having a minimum value).' Make the same distinction as

이상과 같이 본 발명에 따른 음성 분석을 통한 사상체질 구분 방법을 예시한 도면을 참조로 하여 설명하였으나, 본 명세서에 개시된 실시예와 도면에 의해 본 발명이 한정되는 것은 아니며, 본 발명의 기술사상 범위내에서 당업자에 의해 다양한 변형이 이루어질 수 있음은 물론이다.As described above with reference to the drawings illustrating a method for distinguishing filamentous constitution through voice analysis according to the present invention, the present invention is not limited by the embodiments and drawings disclosed herein, the scope of the technical spirit of the present invention Of course, various modifications can be made by those skilled in the art.

도 1은 본 발명에 따른 추출된 음성 특징 변수를 나타내는 도.1 is a diagram illustrating an extracted speech feature variable according to the present invention.

도 2는 본 발명에 따른 피치를 구하는 알고리즘을 나타내는 도.2 illustrates an algorithm for obtaining a pitch in accordance with the present invention.

도 3은 본 발명에 따른 MDVP변수를 구하는 식을 나타내는 도.3 is a diagram showing an equation for obtaining an MDVP variable according to the present invention.

도 4는 본 발명에 따른 포만트를 구하는 알고리즘을 나타내는 도.4 is a diagram illustrating an algorithm for obtaining formants according to the present invention.

도 5는 본 발명에 따른 MFCC를 구하는 순서도.5 is a flowchart for obtaining an MFCC according to the present invention.

도 6은 본 발명에 따른 임의의 음성 특징 변수의 분포를 나타내는 도.6 illustrates the distribution of any speech feature variable in accordance with the present invention.

도 7은 본 발명에 따른 임의의 음성 특징 변수의 분포로부터 gRule(uMin, ui, lMax, li) 매트릭스를 생성하는 것을 나타내는 도.7 shows the generation of a gRule (uMin, ui, lMax, li) matrix from the distribution of any speech feature variable according to the present invention.

도 8은 본 발명에 따른 4 ×134 Matrix의 gRule(uMin, ui, lMax, li) 매트릭스를 나타내는 도.8 shows a gRule (uMin, ui, lMax, li) matrix of 4 x 134 Matrix in accordance with the present invention.

도 9는 본 발명에 따른 음성 특징 변수와 특정 신체정보의 상관성을 나타내는 도.9 is a diagram showing a correlation between a voice feature variable and specific body information according to the present invention;

도 10은 본 발명에 따른 그룹별 sub 매트릭스를 포함된 gRule(uMin, ui, lMax, li) 매트릭스를 나타내는 도.10 is a view showing a gRule (uMin, ui, lMax, li) matrix including a sub matrix for each group according to the present invention.

도 11은 본 발명에 따른 임의로 입력된 음성 데이터의 최종 체질 점수를 나타내는 도.Fig. 11 is a diagram showing the final constitution score of randomly input voice data according to the present invention.

도 12는 본 발명에 따른 음성 분석을 통한 특정 체질을 구분하는 순서도.12 is a flow chart for classifying specific constitutions through voice analysis according to the present invention.

도 13a는 본 발명의 일 실시예에 따른 음성 분석을 통한 사상체질 구분 방법의 일 블록도.13A is a block diagram of a method for classifying filamentous constitution through voice analysis according to an embodiment of the present invention.

도 13b는 본 발명의 일 실시예에 따른 음성 분석을 통한 사상체질 구분 방법의 다른 블록도.Figure 13b is another block diagram of a method for classifying filamentous constitution through voice analysis according to an embodiment of the present invention.

도 14a는 도 13a 또는 13b의 제 4단계의 일 블록도.14A is a block diagram of the fourth stage of FIG. 13A or 13B.

도 14b는 도 13a 또는 13b의 제 4단계의 다른 블록도.14B is another block diagram of the fourth stage of FIG. 13A or 13B.

< 도면의 주요 부분에 대한 부호의 설명 ><Description of Symbols for Main Parts of Drawings>

S10: 음성 특징 변수에 대한 체질별 분포를 조사하는 제 1단계S10: first step of examining the distribution of the constitution for the speech feature variable

S20: 음성 특징 변수의 체질별 최대값과 최소값을 서치하는 제 2단계S20: a second step of searching for the maximum and minimum values for each constitution of the voice feature variable

S30: gRule(uMin, ui, lMax, li) 매트릭스를 생성하는 제 3단계S30: third step of generating a gRule (uMin, ui, lMax, li) matrix

S31: sub 매트릭스를 gRule(uMin, ui, lMax, li)에 포함시키는 상관성 추가 단계S31: Additional Correlation Step to Include the Sub Matrix in gRule (uMin, ui, lMax, li)

S40: 음성 데이터를 통한 특정 체질을 구분하는 제 4단계S40: fourth step of identifying a specific constitution through voice data

S41: 음성 데이터의 체질별 점수를 초기화하는 제 1공정S41: First step of initializing scores for each constitution of voice data

S42: 음성 특징 변수에 대한 최종 체질 점수를 생성하는 제 2공정S42: second process of generating final constitution score for speech feature variable

S43: 최종 체질 점수의 최대값,중간값,최소값을 파인딩하는 제 3공정S43: Third process of finding the maximum, middle, and minimum values of the final constitution score

S44: 최대값과 최소값의 차이값을 음성 특징 변수의 수 × 0.1의 계산값과 비교하는 제 4공정S44: Fourth step of comparing the difference between the maximum value and the minimum value with a calculated value of the number of negative feature variables x 0.1

S45: 특정 체질의 구분을 보류하는 제 5공정S45: fifth process withholding the distinction of specific constitution

S46: 특정 체질임을 구분 또는 특정 체질이 아님을 구분하는 제 6공정S46: sixth process of identifying that a specific constitution or not a specific constitution

Claims (9)

체질이 확진된 다수의 음성 데이터로부터 복수의 음성 특징 변수를 추출하되, 각각의 음성 특징 변수에 대한 체질별 분포를 비모수 통계 방법으로 조사하는 제 1단계;Extracting a plurality of voice feature variables from the plurality of voice data in which the constitution is confirmed, and examining a distribution of each voice feature variable for each voice feature variable by a nonparametric statistical method; 임의의 상기 음성 특징 변수에 대한 체질별 분포에서 각 체질별로 최대값과 최소값을 서치(search)하는 제 2단계;A second step of searching for a maximum value and a minimum value for each constitution in the distribution for each constitution for any of the voice feature variables; 임의의 상기 음성 특징 변수에 대한 각 체질별 최대값을 상호 비교한 후 상기 체질별 최대값 중에서 서치(search)된 최소치(uMin)와 상기 최소치(uMin)가 발생한 체질(ui)로 이루어지는 제 1 Logical Rule과, 상기 임의의 음성 특징 변수의 각 체질별 최소값을 상호 비교한 후 상기 체질별 최소값 중에서 서치(search)된 최대치(lMax)와 상기 최대치(lMax)가 발생한 체질(li)로 이루어지는 제 2 Logical Rule로 구성되는 gRule(uMin, ui, lMax, li) 매트릭스를 생성하는 제 3단계; 및A first logical that consists of a minimum value (uMin) searched among the maximum values for each constitution and a constitution (ui) in which the minimum value (uMin) is generated after comparing the maximum values of each constitution with respect to any of the voice feature variables A second logical comprising a rule and a maximum value (lMax) searched among the minimum values for each constitution and a constitution (li) in which the maximum value (lMax) is generated after comparing the minimum values for each constitution of the arbitrary voice feature variable with each other; Generating a gRule (uMin, ui, lMax, li) matrix composed of a rule; And 임의로 입력된 음성 데이터의 특정 음성 특징 변수를 상기 특정 음성 특징 변수에 대응하는 gRule(uMin, ui, lMax, li) 매트릭스에 적용하여 음성 데이터를 통한 특정 체질을 구분하는 제 4단계를 포함하는 것을 특징으로 하는 음성 분석을 통한 사상 체질 구분 방법.And applying a specific voice feature variable of the randomly input voice data to a gRule (uMin, ui, lMax, li) matrix corresponding to the specific voice feature variable to distinguish a specific constitution through the voice data. Sasang constitution classification method through voice analysis. 제 1항에 있어서,The method of claim 1, 상기 제 4단계는,The fourth step, 임의로 입력된 음성 데이터에 대해 특정 체질의 구분을 보류하는 경우와, 특정한 체질임을 구분하는 경우 및 특정한 체질이 아님을 구분하는 경우를 포함하는 것을 특징으로 하는 음성 분석을 통한 사상 체질 구분 방법.The method for distinguishing trait constitution through voice analysis, comprising: suspending the classification of a specific constitution with respect to randomly input voice data; and distinguishing between a specific constitution and a case in which it is not a specific constitution. 제 2항에 있어서,The method of claim 2, 상기 입력된 음성 데이터의 특정한 체질이 아님을 구분하는 경우는,When distinguishing that it is not a specific constitution of the input voice data, 임의로 입력된 음성 데이터의 특정 음성 특징 변수값이 상기 gRule(uMin, ui, lMax, li) 매트릭스의 uMin 보다 클 경우, 하기의 제 1 Logical Rule에 의해 ui 가 아님을 구분하는 것을 특징으로 하는 음성 분석을 통한 사상 체질 구분 방법.Speech analysis, characterized in that if the value of a particular voice feature variable of the randomly input voice data is larger than the uMin of the gRule (uMin, ui, lMax, li) matrix, it is not ui by the first Logical Rule below Sasang constitution classification method through. <제 1 Logical Rule><1st Logical Rule> if(X>uMin), then NOT uiif (X> uMin), then NOT ui (X는 임의로 입력된 음성 데이터의 특정 음성 특징 변수값)(X is a value of a specific voice characteristic variable of the voice data input arbitrarily) 제 2항에 있어서,The method of claim 2, 상기 입력된 음성 데이터의 특정한 체질이 아님을 구분하는 경우는,When distinguishing that it is not a specific constitution of the input voice data, 임의로 입력된 음성 데이터의 특정 음성 특징 변수값이 상기 gRule(uMin, ui, lMax, li) 매트릭스의 lMax 보다 작을 경우, 하기의 제 2 Logical Rule에 의해 li 가 아님을 구분하는 것을 특징으로 하는 음성 분석을 통한 사상 체질 구분 방법.Speech analysis characterized in that it is not li according to the second Logical Rule below, when the value of a certain voice feature variable of the randomly input voice data is less than lMax of the gRule (uMin, ui, lMax, li) matrix Sasang constitution classification method through. <제 2 Logical Rule><2nd Logical Rule> if(X<lMax), then NOT liif (X <lMax), then NOT li (X는 임의로 입력된 음성 데이터의 특정 음성 특징 변수값)(X is a value of a specific voice characteristic variable of the voice data input arbitrarily) 제 1항에 있어서,The method of claim 1, 상기 제 3단계는,The third step, 상기 음성 특징 변수가 특정 신체정보와 상관성이 있는 음성 특징 변수인 경우, 상기 특정 신체정보의 그룹별 sub 매트릭스를 상기 gRule(uMin, ui, lMax, li) 매트릭스에 포함시키는 단계를 더 포함하는 것을 특징으로 하는 음성 분석을 통한 사상 체질 구분 방법.If the voice feature variable is a voice feature variable that correlates with specific body information, further comprising including a sub matrix for each group of the specific body information in the gRule (uMin, ui, lMax, li) matrix Sasang constitution classification method through voice analysis. 삭제delete 제 5항에 있어서,The method of claim 5, 상기 특정 신체정보는 피험자의 나이, 키, 몸무게, BMI 인 것을 특징으로 하는 음성 분석을 통한 사상 체질 구분 방법.The specific body information is Sasang constitution classification method through the voice analysis, characterized in that the subject's age, height, weight, BMI. 제 3항 또는 제 4항에 있어서,The method according to claim 3 or 4, 상기 제 4단계는,The fourth step, 상기 임의로 입력된 음성 데이터의 체질별 점수를 초기화시키는 제 1공정; 및A first step of initializing scores for each constitution of the randomly input voice data; And 상기 임의로 입력된 음성 데이터의 각각의 음성 특징 변수를 상기 gRule(uMin, ui, lMax, li) 매트릭스에 적용하여 상기 gRule(uMin, ui, lMax, li) 매트릭스를 만족하는 경우, 이와 관련된 체질의 점수에 패널티로 -1점을 부여하여 각각의 음성 특징 변수에 대한 최종 체질 점수를 생성하는 제 2공정을 포함하는 것을 특징으로 하는 음성 분석을 통한 사상 체질 구분 방법.When the speech feature variable of the randomly input speech data is applied to the gRule (uMin, ui, lMax, li) matrix, when the gRule (uMin, ui, lMax, li) matrix is satisfied, the score of the constitution related thereto And a second step of generating a final constitution score for each voice feature variable by assigning -1 as a penalty to the filamentous constitution. 제 8항에 있어서,The method of claim 8, 상기 제 4단계는,The fourth step, 상기 음성 특징 변수의 최종 체질 점수에서 최대값과, 중간값 및 최소값을 파인딩(finding)하는 제 3공정;A third step of finding a maximum value, a median value, and a minimum value in a final constitution score of the speech feature variable; 상기 최대값과 최소값의 차이값을 계산하여 음성 특징 변수의 수(N_SP) × 0.1의 계산값과 비교하는 제 4공정;A fourth step of calculating a difference value between the maximum value and the minimum value and comparing the calculated value with a number N_SP × 0.1 of a voice feature variable; 상기 차이값이 상기 계산값보다 작으면 특정 체질의 구분을 보류하고, 상기 차이값이 상기 계산값보다 크면 상기 최대값과 중간값의 차이값과, 중간값과 최소값의 차이값을 계산하는 제 5공정; 및If the difference is less than the calculated value, the classification of a specific constitution is suspended; and if the difference is greater than the calculated value, a fifth difference value between the maximum value and the median value and a difference value between the median value and the minimum value are calculated. fair; And 상기 최대값과 중간값의 차이값이 중간값과 최소값의 차이값보다 클 경우 특정한 체질임을 구분하고, 상기 최대값과 중간값의 차이값이 중간값과 최소값의 차이값보다 작을 경우 특정한 체질이 아님을 구분하는 제 6공정을 포함하는 것을 특징으로 하는 음성 분석을 통한 사상 체질 구분 방법.If the difference between the maximum value and the median value is greater than the difference between the median value and the minimum value, it is classified as a specific constitution. Sasang constitution classification method through the voice analysis, characterized in that it comprises a sixth step of classifying.
KR1020090042062A 2009-05-14 2009-05-14 Method of sasang constitution check using speech analysis KR100926771B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090042062A KR100926771B1 (en) 2009-05-14 2009-05-14 Method of sasang constitution check using speech analysis

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090042062A KR100926771B1 (en) 2009-05-14 2009-05-14 Method of sasang constitution check using speech analysis

Publications (1)

Publication Number Publication Date
KR100926771B1 true KR100926771B1 (en) 2009-11-16

Family

ID=41605040

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090042062A KR100926771B1 (en) 2009-05-14 2009-05-14 Method of sasang constitution check using speech analysis

Country Status (1)

Country Link
KR (1) KR100926771B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101265841B1 (en) 2011-09-01 2013-05-20 한국 한의학 연구원 System of voice recorder feedback and method of the same

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040008559A (en) * 2002-07-18 2004-01-31 강희정 Method to examinate health condition using natal information and voice analysis
KR20050063475A (en) * 2003-12-22 2005-06-28 송광빈 Physical constitution detecting system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040008559A (en) * 2002-07-18 2004-01-31 강희정 Method to examinate health condition using natal information and voice analysis
KR20050063475A (en) * 2003-12-22 2005-06-28 송광빈 Physical constitution detecting system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101265841B1 (en) 2011-09-01 2013-05-20 한국 한의학 연구원 System of voice recorder feedback and method of the same

Similar Documents

Publication Publication Date Title
Venkataramanan et al. Emotion recognition from speech
WO2021208287A1 (en) Voice activity detection method and apparatus for emotion recognition, electronic device, and storage medium
Lee Noise robust pitch tracking by subband autocorrelation classification
Hu et al. A tandem algorithm for pitch estimation and voiced speech segregation
CN110473566A (en) Audio separation method, device, electronic equipment and computer readable storage medium
Zhao et al. Robust emotion recognition in noisy speech via sparse representation
CN105023573A (en) Speech syllable/vowel/phone boundary detection using auditory attention cues
CN113012720B (en) Depression detection method by multi-voice feature fusion under spectral subtraction noise reduction
Kaleem et al. Pathological speech signal analysis and classification using empirical mode decomposition
Korkmaz et al. Turkish vowel classification based on acoustical and decompositional features optimized by Genetic Algorithm
Levitan et al. Combining Acoustic-Prosodic, Lexical, and Phonotactic Features for Automatic Deception Detection.
CN110534091A (en) A kind of people-car interaction method identified based on microserver and intelligent sound
Kandali et al. Vocal emotion recognition in five native languages of Assam using new wavelet features
Shareef et al. Gender voice classification with huge accuracy rate
Revathy et al. Performance comparison of speaker and emotion recognition
JP5083951B2 (en) Voice processing apparatus and program
CN112885379A (en) Customer service voice evaluation method, system, device and storage medium
KR100926771B1 (en) Method of sasang constitution check using speech analysis
JP5091202B2 (en) Identification method that can identify any language without using samples
KR100989867B1 (en) An automatic song transcription method
White et al. Optimizing an Automatic Creaky Voice Detection Method for Australian English Speaking Females.
KR100991464B1 (en) An automatic song transcription apparatus
Shah et al. Speaker recognition for pashto speakers based on isolated digits recognition using accent and dialect approach
Kurian et al. Connected digit speech recognition system for Malayalam language
Nguyen et al. DCASE 2018 task 2: iterative training, label smoothing, and background noise normalization for audio event tagging.

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121105

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20131022

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20140925

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20150831

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20161102

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20171107

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20190926

Year of fee payment: 11