KR101293867B1 - Apparatus and Method for Producing Constitution Decision Function Using Sound - Google Patents

Apparatus and Method for Producing Constitution Decision Function Using Sound Download PDF

Info

Publication number
KR101293867B1
KR101293867B1 KR1020110088395A KR20110088395A KR101293867B1 KR 101293867 B1 KR101293867 B1 KR 101293867B1 KR 1020110088395 A KR1020110088395 A KR 1020110088395A KR 20110088395 A KR20110088395 A KR 20110088395A KR 101293867 B1 KR101293867 B1 KR 101293867B1
Authority
KR
South Korea
Prior art keywords
voice
variable
variables
generating
constitution
Prior art date
Application number
KR1020110088395A
Other languages
Korean (ko)
Other versions
KR20130025081A (en
Inventor
김근호
구본초
강남식
김영수
이유정
김종열
Original Assignee
한국 한의학 연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국 한의학 연구원 filed Critical 한국 한의학 연구원
Priority to KR1020110088395A priority Critical patent/KR101293867B1/en
Publication of KR20130025081A publication Critical patent/KR20130025081A/en
Application granted granted Critical
Publication of KR101293867B1 publication Critical patent/KR101293867B1/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Health & Medical Sciences (AREA)
  • Epidemiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Pathology (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

음성 정보를 이용한 체질 판단 함수 생성 장치 및 방법이 개시된다. 본 발명의 일실시예에 따른 사용자의 체질을 판단하기 위한 체질 판별 함수를 생성하는 체질 판단 함수 생성 방법은, 복수 개의 음성 변수를 포함하는 참조 음성 정보를 복수 개 입력 받는 단계; 상기 복수 개의 음성 변수로부터 적어도 하나의 주요 음성 변수를 추출하는 단계; 및 상기 추출된 주요 음성 변수 및 미리 설정된 분류 모델을 이용하여, 상기 체질 판단 함수를 생성하는 단계를 포함할 수 있다. Disclosed are an apparatus and method for generating a constitution determination function using voice information. According to an embodiment of the present invention, a method of generating a constitution determining function for generating a constitution determining function for determining a constitution of a user may include receiving a plurality of reference voice information including a plurality of voice variables; Extracting at least one main voice variable from the plurality of voice variables; And generating the constitution determination function by using the extracted main speech variable and a preset classification model.

Description

음성 정보를 이용한 체질 판단 함수 생성 장치 및 방법{Apparatus and Method for Producing Constitution Decision Function Using Sound}Apparatus and Method for Producing Constitution Decision Function Using Sound}

본 발명의 실시예들은 체질 판단 함수 생성 장치 및 방법에 관한 것으로서, 보다 구체적으로는 음성 정보를 이용하여 체질을 판단할 수 있는 함수를 생성하는 장치 및 방법에 관한 것이다.Embodiments of the present invention relate to an apparatus and method for generating a constitution determining function, and more particularly, to an apparatus and method for generating a function capable of determining the constitution using voice information.

현대 사회는 건강에 대한 관심이 나날이 증가하고 있다.In modern society, interest in health is increasing day by day.

이러한 시대적인 관심과 더불어, 실시간 데이터 수집에 의한 데이터 분석 방식 및 툴(tool)이 고도화되는 등 기술이 비약적으로 발전함에 따라서, 건강 상태를 모니터링하고 개인화된 건강관리 서비스를 제공받는 것이 가능하게 되었다.Along with this era of interest, as technologies such as data analysis method and tool by real-time data collection are advanced, it becomes possible to monitor health condition and provide personalized health care service.

또한, 소비자의 의식 변화에 따른 고객 요구의 다양화와 기대수준의 향상으로 건강 서비스 및 관련 시스템 이용의 편리성 및 맞춤화가 강화되고 있는 추세이며, 축적된 개인의 건강 데이터를 바탕으로 생활 습관병 예방이나 체중관리 등의 개인화(personalized) 건강관리 사업이 급속도로 성장하고 있다.In addition, convenience and customization of health services and related systems are being strengthened due to diversification of customers 'demands and improvement of expectations according to changes in consumers' consciousness. Based on accumulated personal health data, prevention of lifestyle- Personalized health care projects such as weight management are rapidly growing.

이는 과거 건강관리 서비스가 환자를 대상으로 병원이나 의료기관에서 이루어지는 질병 치료에만 국한되는 헬스케어(Healthcare) 중심으로 이루어졌다면, 최근 소비자들의 건강관리 니즈(needs)는 건강한 사람을 대상으로 하는 질병의 사전예방 및 건강유지로 선회되고 있음을 반증하는 결과이다.If the past health care services were centered on healthcare, which is limited to the treatment of illnesses in hospitals and medical institutions, patients' health care needs in recent years have been limited to the prevention of disease And health maintenance.

즉, 생활수준의 향상과 함께 삶의 질(Quality of Life)과 웰빙/wellness에 대한 관심이 증대하면서 소비자들은 차츰 건강상태 측정, 적정 운동량 관리 등의 사전 예방적인 건강관리에 대한 선호도가 높아지고 있다.In other words, as the level of living improves and the interest in quality of life and well-being / wellness grows, consumers are gradually increasing their preference for proactive health management such as health status measurement and proper exercise management.

본 발명의 일실시예에 따른 사용자의 체질을 판단하기 위한 체질 판별 함수를 생성하는 체질 판단 함수 생성 방법은, 복수 개의 음성 변수를 포함하는 참조 음성 정보를 복수 개 입력 받는 단계; 상기 복수 개의 음성 변수로부터 적어도 하나의 주요 음성 변수를 추출하는 단계; 및 상기 추출된 주요 음성 변수 및 미리 설정된 분류 모델을 이용하여, 상기 체질 판단 함수를 생성하는 단계를 포함할 수 있다. According to an embodiment of the present invention, a method of generating a constitution determining function for generating a constitution determining function for determining a constitution of a user may include receiving a plurality of reference voice information including a plurality of voice variables; Extracting at least one main voice variable from the plurality of voice variables; And generating the constitution determination function by using the extracted main speech variable and a preset classification model.

본 발명의 일실시예에 따른 사용자의 체질을 판단하기 위한 체질 판별 함수를 생성하는 체질 판단 함수 생성 방법은, 복수 개의 음성 변수를 포함하는 참조 음성 정보를 복수 개 입력 받는 단계; 상기 복수 개의 참조 음성 정보를 성별 및 연령대 별로 분류하는 단계; 상기 복수 개의 음성 변수로부터 적어도 하나의 주요 음성 변수를 상기 성별 및 연령대 별로 추출하는 단계; 및 상기 성별 및 연령대 별로 추출된 주요 음성 변수, 상기 성별 및 연령대 별로 분류된 참조 음성 정보 및 미리 설정된 분류 모델을 이용하여, 상기 체질 판단 함수를 상기 성별 및 연령대 별로 생성하는 단계를 포함할 수 있다.According to an embodiment of the present invention, a method of generating a constitution determining function for generating a constitution determining function for determining a constitution of a user may include receiving a plurality of reference voice information including a plurality of voice variables; Classifying the plurality of reference voice information by gender and age group; Extracting at least one main voice variable by the gender and age group from the plurality of voice variables; And generating the constitution determination function for each gender and age group by using the main voice variable extracted for each gender and age group, reference voice information classified for each gender and age group, and a preset classification model.

본 발명의 일실시예에 따른 사용자의 체질을 판단하기 위한 체질 판별 함수를 생성하는 체질 판단 함수 생성 장치는, 복수 개의 음성 변수를 포함하는 참조 음성 정보를 복수 개 입력 받는 입력부; 상기 복수 개의 음성 변수로부터 적어도 하나의 주요 음성 변수를 추출하는 추출부; 및 상기 추출된 주요 음성 변수 및 미리 설정된 분류 모델을 이용하여, 상기 체질 판단 함수를 생성하는 생성부를 포함할 수 있다. An apparatus for generating a constitution determining function, which generates a constitution determining function for determining a constitution of a user according to an embodiment of the present invention, includes: an input unit configured to receive a plurality of reference voice information including a plurality of voice variables; An extraction unit for extracting at least one main voice variable from the plurality of voice variables; And a generator configured to generate the constitution determination function by using the extracted main voice variable and a preset classification model.

본 발명의 일실시예에 따른 사용자의 체질을 판단하기 위한 체질 판별 함수를 생성하는 체질 판단 함수 생성 장치는, 복수 개의 음성 변수를 포함하는 참조 음성 정보를 복수 개 입력 받는 입력부; 상기 복수 개의 참조 음성 정보를 성별 및 연령대 별로 분류하는 처리부; 상기 복수 개의 음성 변수로부터 적어도 하나의 주요 음성 변수를 상기 성별 및 연령대 별로 추출하는 추출부; 및 상기 성별 및 연령대 별로 추출된 주요 음성 변수, 상기 성별 및 연령대 별로 분류된 참조 음성 정보 및 미리 설정된 분류 모델을 이용하여, 상기 체질 판단 함수를 상기 성별 및 연령대 별로 생성하는 생성부를 포함할 수 있다.An apparatus for generating a constitution determining function, which generates a constitution determining function for determining a constitution of a user according to an embodiment of the present invention, includes: an input unit configured to receive a plurality of reference voice information including a plurality of voice variables; A processing unit classifying the plurality of reference voice information by gender and age group; An extraction unit for extracting at least one main voice variable from the plurality of voice variables by the gender and age group; And a generation unit configured to generate the constitution determination function for each gender and age group by using the main voice variable extracted for each gender and age group, reference voice information classified for each gender and age group, and a preset classification model.

본 발명의 실시예들에 따르면, 음성을 이용하여 사용자의 체질을 판단하는데 활용될 수 있는 체질 판단 함수를 생성할 수 있다. According to embodiments of the present invention, a constitution determining function that may be used to determine the constitution of a user using voice may be generated.

도 1은 본 발명의 일실시예에 따른 음성 정보를 이용하여 사용자의 체질을 판단하는 방법의 전체 알고리즘을 나타내는 도면이다.
도 2는 본 발명의 일실시예에 따른 체질 판단 함수 생성 장치의 구성을 나타내는 도면이다.
도 3 및 도 4는 성별 및 연령대에 따른 음성 변수 값의 차이를 나타내는 도면이다.
도 5는 본 발명의 일실시예에 따른 성별 및 연령대 별로 체질 판단 함수를 생성하는 체질 판단 함수 생성 장치의 구성을 나타내는 도면이다.
도 6은 본 발명의 일실시예에 따른 체질 판단 함수 생성 방법을 나타내는 흐름도이다.
도 7은 본 발명의 일실시예에 따른 성별 및 연령대 별로 체질 판단 함수를 생성하는 체질 판단 함수 생성 방법을 나타내는 흐름도이다.
1 is a diagram illustrating an overall algorithm of a method of determining a user's constitution using voice information according to an embodiment of the present invention.
2 is a diagram illustrating a configuration of an apparatus for generating a constitution determination function according to an embodiment of the present invention.
3 and 4 are diagrams showing the difference between voice variable values according to gender and age group.
5 is a diagram illustrating a configuration of an apparatus for generating a constitution determination function for generating a constitution determination function for each gender and age group according to an embodiment of the present invention.
6 is a flowchart illustrating a method of generating a constitution determination function according to an embodiment of the present invention.
7 is a flowchart illustrating a method of generating a constitution determination function for generating a constitution determination function for each gender and age group according to an embodiment of the present invention.

이하에서, 본 발명에 따른 실시예를 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, embodiments according to the present invention will be described in detail with reference to the accompanying drawings. However, the present invention is not limited to or limited by the embodiments. Like reference symbols in the drawings denote like elements.

도 1은 본 발명의 일실시예에 따른 음성 정보를 이용하여 사용자의 체질을 판단하는 방법의 전체 알고리즘을 나타내는 도면이다. 1 is a diagram illustrating an overall algorithm of a method of determining a user's constitution using voice information according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일실시예에 따른 음성 정보(100)를 이용하여 사용자의 체질(130)을 판단하는 방법은 사용자에 대한 음성 정보(100) 및 사용자의 신상에 대한 신상 정보(110)를 입력 받을 수 있다. Referring to FIG. 1, a method of determining a user's constitution 130 using voice information 100 according to an embodiment of the present invention includes voice information 100 for a user and personal information about a user's image ( 110) can be input.

신상 정보(110)는 사용자의 나이, 성별, 키, 몸무게, BMI(체질량 지수), 직업, 교육 수준 등 사용자의 신상에 대한 정보를 포함할 수 있다.The personal information 110 may include information about the user's personal information such as age, gender, height, weight, BMI (body mass index), occupation, and education level of the user.

음성 정보(100)는 사용자의 음성에 대한 정보를 나타낸다. 이 때, 음성 정보(100)는 사용자의 음성과 연관된 복수 개의 음성 변수에 대하여 센싱된 값을 포함할 수 있다. 실시예에 따라서는, 음성 정보는 사용자의 모음 발성(101)에 대한 음성 변수 및 문장 발성(102)에 대한 음성 변수를 포함할 수 있다. The voice information 100 represents information about the voice of the user. At this time, the voice information 100 may include a value sensed for a plurality of voice variables associated with the voice of the user. According to an embodiment, the voice information may include a voice variable for the vowel voice 101 of the user and a voice variable for the sentence voice 102.

입력 받은 신상 정보(110) 및 음성 정보(100)는 사용자의 체질(130)을 판단하기 위한 체질 판단 함수(120)의 변수로서 입력될 수 있다.The input image information 110 and the voice information 100 may be input as variables of the constitution determining function 120 for determining the constitution 130 of the user.

체질 판단 함수(120)는 사용자의 체질(130)을 판단하기 위한 함수로서, 사용자에 대한 음성 정보(100) 및 신상 정보(110)를 입력 받아 사용자의 체질(130)을 산출할 수 있는 함수일 수 있다. 체질 판단 함수(120)는 복수 개의 임상 데이터 및 참조 음성 데이터를 이용하여 생성될 수 있다. 예를 들어, 복수 개의 임상 데이터 및 참조 음성 데이터가 분류 모델에 입력되어 함수식이 산출될 수 있고, 이 때 산출된 함수식이 체질 판단 함수(120)로서 사용될 수 있다. 분류 모델은 선형 판별 분석(LDA), 로지스틱 회귀 분석(Logistic Regression Analysis), 뉴럴 네트워크 분석, 서포트 벡터 머신(Support Vector Machine) 분석, 의사 결정 트리 분석 등일 수 있다. The constitution determination function 120 is a function for determining the constitution of the user 130 and may be a function capable of calculating the constitution of the user by receiving the voice information 100 and the personal information 110 of the user. have. The constitution determination function 120 may be generated using a plurality of clinical data and reference voice data. For example, a plurality of clinical data and reference voice data may be input to a classification model to calculate a function, and the calculated function may be used as the constitution determination function 120. The classification model may be linear discriminant analysis (LDA), logistic regression analysis, neural network analysis, support vector machine analysis, decision tree analysis, or the like.

또한, 입력 받은 음성 정보(100) 및 신상 정보(110)를 체질 판단 함수(120)에 입력함으로써, 사용자의 체질(130)을 판단할 수 있다. 즉, 사용자의 체질(130)은 태양(131), 태음(132), 소양(133), 소음(134) 중 어느 하나로 판단될 수 있다.In addition, the user's constitution 130 may be determined by inputting the received voice information 100 and the personal information 110 to the constitution determining function 120. That is, the user's constitution 130 may be determined as one of the sun 131, the lunar 132, the yangyang 133, and the noise 134.

상술한 것과 같이, 사용자에 대한 음성 정보(100) 및 신상 정보(110)가 마련되면, 체질 판단 함수(120)에 입력함으로써 쉽게 사용자의 체질(130)을 판단할 수 있기 때문에 체질 판단 함수(120)가 주요한 역할을 하게 되고, 이에 본 명세서에서는 체질 판단 함수(120)를 생성하는 새로운 방법에 대해서 제안한다.
As described above, when the voice information 100 and the personal information 110 for the user are provided, the constitution determination function 120 may be easily determined by inputting the constitution determination function 120. ) Plays a major role, and therefore, the present specification proposes a new method for generating the constitution determination function 120.

도 2는 본 발명의 일실시예에 따른 체질 판단 함수 생성 장치의 구성을 나타내는 도면이다. 2 is a diagram illustrating a configuration of an apparatus for generating a constitution determination function according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 일실시예에 따른 체질 판단 함수 생성 장치(200)는 입력부(210), 추출부(220) 및 생성부(230)를 포함할 수 있다.Referring to FIG. 2, the constitution determination function generating device 200 according to an embodiment of the present invention may include an input unit 210, an extractor 220, and a generator 230.

체질 판단 함수 생성 장치(200)는 사용자의 체질을 판단하기 위한 체질 판단 함수를 생성하는 장치를 나타낸다.
The constitution determination function generating device 200 represents an apparatus for generating a constitution determination function for determining the constitution of a user.

입력부(210)는 복수 명의 임상 시험 대상자 각각의 음성에 대한 참조 음성 정보(201)를 복수 개 입력 받을 수 있다. 이 때, 참조 음성 정보(201)는 복수 개의 음성 변수(202)를 포함할 수 있다. 음성 변수(202)에 대해서는 뒤에서 다시 상세히 설명한다.The input unit 210 may receive a plurality of reference voice information 201 for each voice of a plurality of clinical trial subjects. In this case, the reference voice information 201 may include a plurality of voice variables 202. The negative variable 202 will be described in detail later.

상술한 것과 같이 입력부(210)는 다수의 임상 시험 대상자에 대한 음성 정보를 수집함으로써, 체질 판단 함수 생성 장치(200)는 체질 판단 함수를 생성하기 위한 통계 자료를 수집할 수 있고, 수집된 자료들에 기반하여 체질 판단 함수를 생성할 수 있다.
As described above, the input unit 210 collects voice information about a plurality of clinical trial subjects, so that the constitution determination function generating apparatus 200 may collect statistical data for generating a constitution determination function, and the collected data Based on the constitution determination function can be generated.

추출부(220)는 복수 개의 음성 변수(202)로부터 적어도 하나의 주요 음성 변수를 추출할 수 있다. The extractor 220 may extract at least one main voice variable from the plurality of voice variables 202.

본 발명의 일측에 따르면, 추출부(220)는 복수 개의 음성 변수(202)에 대한 변동 계수(CV, Coefficient of Variation)의 값을 이용하여 복수 개의 음성 변수(202)로부터 주요 음성 변수를 추출할 수 있다. 자세히 설명하면, 추출부(220)는 복수 개의 음성 변수(202)에 대한 변동 계수(CV, Coefficient of Variation)의 값을 연산할 수 있다. 또한, 추출부(220)는 연산된 변동 계수의 값에 기반하여, 복수 개의 음성 변수(202)에 대한 음성 차원을 축소하는 동작을 수행할 수 있다. 이 때, 추출부(220)는 음성 차원이 축소된 음성 변수(202)로부터 주요 음성 변수를 추출할 수 있다. According to one side of the present invention, the extractor 220 extracts the main voice variable from the plurality of voice variables 202 using the values of the coefficient of variation (CV) for the plurality of voice variables 202. Can be. In detail, the extractor 220 may calculate values of coefficients of variation (CV) for the plurality of voice variables 202. In addition, the extraction unit 220 may perform an operation of reducing the voice dimension of the plurality of voice variables 202 based on the calculated value of the variation coefficient. In this case, the extractor 220 may extract the main voice variable from the voice variable 202 whose voice dimension is reduced.

본 발명의 또 다른 일측에 따르면, 추출부(220)는 복수 개의 음성 변수(202)에 대하여 변수 간 상관성 최소화 작업을 수행하여, 주요 음성 변수를 추출할 수 있다. 예를 들어, 추출부(220)는 복수 개의 음성 변수(202)에 대한 VIF(Variation Inflation Factor)의 값을 연산할 수 있다. 또한, 추출부(220)는 복수 개의 음성 변수(202) 중 연산된 VIF의 값이 기준값 이상인 음성 변수(202)를 제거하여, 주요 음성 변수를 추출할 수 있다. 또 다른 실시예에 따라서는, 추출부(220)는 VIF의 값 대신 주성분 분석과 같은 독립적 변수 선택 방법을 적용하여 변수 간 상관성 최소화 작업을 수행할 수 있다.According to another aspect of the present invention, the extraction unit 220 may extract the main voice variable by performing a correlation between the variables for the plurality of voice variables 202 to minimize. For example, the extractor 220 may calculate values of a variation inflation factor (VIF) for the plurality of voice variables 202. In addition, the extractor 220 may extract the main voice variable by removing the voice variable 202 having a calculated VIF value greater than or equal to the reference value among the plurality of voice variables 202. According to another exemplary embodiment, the extractor 220 may apply an independent variable selection method such as principal component analysis instead of the value of VIF to minimize correlation between variables.

본 발명의 또 다른 일측에 따르면, 추출부(220)는 복수 개의 음성 변수(202)에 대한 IQR(InterQuartile Range)의 값을 이용하여 복수 개의 음성 변수(202)로부터 주요 음성 변수를 추출할 수 있다. 자세히 설명하면, 추출부(220)는 복수 개의 음성 변수(202)에 대한 IQR의 값을 연산할 수 있다. 또한, 추출부(220)는 IQR의 값을 이용하여 복수 개의 음성 변수(202)로부터 이상치(Outlier)에 대응하는 음성 변수(202)를 제거하여, 주요 음성 변수를 추출할 수 있다.
According to another aspect of the present invention, the extraction unit 220 may extract the main voice variable from the plurality of voice variables 202 using the value of the InterQuartile Range (IQR) for the plurality of voice variables 202. . In detail, the extractor 220 may calculate IQR values for the plurality of voice variables 202. In addition, the extractor 220 may extract the main voice variable by removing the voice variable 202 corresponding to the outlier from the plurality of voice variables 202 using the value of IQR.

생성부(230)는 추출된 주요 음성 변수 및 미리 설정된 분류 모델을 이용하여, 체질 판단 함수를 생성할 수 있다. 일실시예에 따른 분류 모델은 로지스틱 회귀 분석(Logistic Regression Analysis), 뉴럴 네트워크 분석, 서포트 벡터 머신(Support Vector Machine) 분석, 의사 결정 트리 분석 및 선형 판별 분석(Linear Discriminant Analysis, LDA) 중 적어도 하나를 포함할 수 있다.The generation unit 230 may generate a constitution determination function by using the extracted main voice variable and a preset classification model. According to an embodiment, the classification model may include at least one of logistic regression analysis, neural network analysis, support vector machine analysis, decision tree analysis, and linear discriminant analysis (LDA). It may include.

본 발명의 일측에 따르면, 생성부(230)는 참조 음성 정보(201) 및 분류 모델을 이용하여, 복수 개의 음성 변수와 체질 사이의 상관 관계를 연산할 수 있다. 이 때 연산되는 상관 관계는 분류 모델의 각 음성 변수에 대한 계수로서 활용될 수 있다. 예를 들어, 생성부(230)는 복수 개의 음성 변수와 체질(태양, 태음, 소양, 소음) 사이의 상관 관계를 연산하고, 연산된 상관 관계에 대한 값을 분류 모델의 각 변수에 대한 계수로서 활용할 수 있다. 따라서, 분류 모델의 각 음성 변수에 대한 계수가 연산되면, 생성부(230)는 분류 모델에 연산된 계수 및 주요 음성 변수를 입력하여, 체질 판단 함수를 생성할 수 있다.
According to an aspect of the present invention, the generation unit 230 may calculate a correlation between the plurality of voice variables and the constitution using the reference voice information 201 and the classification model. The correlation calculated at this time may be utilized as a coefficient for each voice variable of the classification model. For example, the generation unit 230 calculates a correlation between the plurality of voice variables and the constitutions (sun, lunar, literacy, noise), and uses the values for the calculated correlations as coefficients for each variable of the classification model. It can be utilized. Therefore, when coefficients for each voice variable of the classification model are calculated, the generation unit 230 may input the calculated coefficient and the main voice variable to the classification model to generate a constitution determination function.

이하, 음성 정보 및 음성 변수에 대해서 상세히 설명한다.Hereinafter, the voice information and the voice variable will be described in detail.

음성 정보는 사용자 또는 임상 시험 대상자의 음성과 연관된 복수 개의 음성 변수를 포함할 수 있다. 또한, 음성 변수는 사용자 또는 임상 시험 대상자의 모음 발성과 연관된 모음 변수 및 사용자 또는 임상 시험 대상자의 문장 발성과 연관된 음성 변수를 포함할 수 있다. 이 때, 모음 발성은 사용자가 미리 설정된 모음(아(a), 에(e), 이(i), 오(o), 우(u) 등)을 발성하여 기록한 음성을 나타내며, 문장 발성은 사용자가 미리 설정된 문장을 읽은 음성을 나타낸다.The voice information may include a plurality of voice variables associated with the voice of the user or clinical trial subject. Further, the negative variable may include a vowel variable associated with vowel speech of a user or a clinical trial subject and a negative variable associated with sentence utterance of a user or a clinical trial subject. At this time, the vowel utterance refers to a voice recorded by the user uttering a predetermined vowel (a, a, e, i, i, o, u, etc.), and the sentence utterance is the user. Indicates a voice that reads a preset sentence.

일실시예에 따른 모음 변수는 모음 발성에 대한 피치(Pitch)의 평균 주파수, 포먼트(Formant), 주파수 차이, 주파수 비율, 피치 주기의 평균 변화율을 나타내는 JITA, JITA에 대한 백분율, JITA와 연관된 RAP 및 JITA와 연관된 PPQ 중 적어도 하나를 포함할 수 있다.According to one embodiment, the vowel variable is a JITA representing the average frequency of the pitch, the formant, the frequency difference, the frequency ratio, the average rate of change of the pitch period, the percentage of the JITA, and the RAP associated with the JITA. And PPQ associated with JITA.

표 1 및 2는 모음 변수를 정리한 것으로서, 표 1은 모음 발성에 대한 기본 변수를 나타내고, 표 2는 모음 발성에 대한 추가 변수를 나타내나. 이 때, 표 1 및 2는 하나의 실시예일 뿐이며, 본 발명이 표 1 및 2의 내용으로 제한 해석되는 것은 아니다.Tables 1 and 2 summarize the vowel variables. Table 1 shows the basic variables for vowel vowels and Table 2 shows additional variables for vowel vowels. In this case, Tables 1 and 2 are only examples, and the present invention is not limited to the contents of Tables 1 and 2.

표 1Table 1

Figure 112011068344179-pat00001
Figure 112011068344179-pat00001

표 2Table 2

Figure 112011068344179-pat00002
Figure 112011068344179-pat00002

이 때, 표 1 및 표 2에서 F0는 피취(Pitch)의 평균 주파수를 나타낸다. F0는 성대의 떨림으로 발생하는 1초당 펄스 반복도의 평균으로 연산될 수 있고, 이를 수식으로 표현하면 수식 1과 같다.At this time, in Table 1 and Table 2, F0 represents the average frequency of the pitch. F0 may be calculated as an average of pulse repetition rates per second caused by tremors of the vocal cords.

수식 1Equation 1

Figure 112011068344179-pat00003
Figure 112011068344179-pat00003

표 1 및 표 2에서 aF0, eF0, iF0, oF0, uF0 각각은 아(a), 에(e), 이(i), 오(o), 우(u) 발성 각각에 대한 피취의 평균 주파수를 나타낸다.In Table 1 and Table 2, aF0, eF0, iF0, oF0, and uF0 each represent the average frequency of the odor for each of a (a), (e), (i), (o), and (u) vocalizations. Indicates.

또한, 표 1, 2에서 F1, F2, F3, F4는 성대의 떨림 및 발성구조에서 발생하는 공진 주파수인 포먼트(Formant)를 나타낸다. F1, F2, F3, F4 앞에 a, e, i, o, u가 붙는 경우, 붙는 모음의 발성 각각에 대한 포먼트를 나타낸다. 예를 들어, aF1는 아(a) 발성에 대한 포먼트를 나타낸다. 첫 번째 포먼트 주파수를 나타내는 F1은 턱(jaw and lip)의 개폐 여부와 연관성이 있을 수 있고, 두 번째 포먼트 주파수를 나타내는 F2는 설체(Tongue Body)의 모양과 연관성이 있을 수 있으며, 세 번째 포먼트 주파수를 나타내는 F3는 설첨(Tip of a Tongue)의 위치와 연관성이 있을 수 있고, 네 버째 포먼트 주파수를 나타내는 F4는 발성 기관의 여러 통로에 따라 달라질 수 있다.Also, in Tables 1 and 2, F1, F2, F3, and F4 represent formants, which are resonance frequencies occurring in the tremor and voice structure of the vocal cords. If a, e, i, o, u is preceded by F1, F2, F3, F4, this indicates the formant for each vocalization of the attached vowel. For example, aF1 represents a formant for a (a) vocalization. F1, which represents the first formant frequency, may be related to whether the jaw and lip is opened or closed, and F2, which represents the second formant frequency, may be related to the shape of the tongue body. F3, which represents the formant frequency, may be related to the position of the tip of a Tongue, and F4, which represents the fourth formant frequency, may vary according to various passages of the vocal organs.

표 2의 주파수 차이 변수(aF0-eF0, aF0-iF0 등)는 상대적 주파수 차이를 skxksose다. 예를 들어, aF0-eF0는 아(a) 발성 시의 주파수 및 에(e) 발성 시의 주파수 차이를 나타내고, aF0-iF0는 아(a) 발성 시의 주파수 및 이(i) 발성 시의 주파수 차이를 나타낸다.Frequency difference variables (aF0-eF0, aF0-iF0, etc.) in Table 2 are skxksose relative frequency differences. For example, aF0-eF0 represents the difference between the frequencies of a (a) utterance and (e) utterances, and aF0-iF0 represents the frequencies of a (a) utterances and frequencies of two (i) utterances. Indicates a difference.

표 1의 주파수 비율 변수(aF0/aF1, aF0/F2 등)는 주파수 사이의 상대적 크기 비율을 나타낸다. The frequency ratio variables (aF0 / aF1, aF0 / F2, etc.) of Table 1 represent the relative magnitude ratios between frequencies.

표 1의 JITA는 피치 주기의 평균 변화율을 나타낸다. JITA는 음성 화자 피치 주기의 변화 비율을 나타내는 음성 변수로서, 주기의 불규칙성을 표현한다. 일실시예에 따른 JITA는 수식 2와 같이 연산될 수 있다.JITA in Table 1 shows the average rate of change of the pitch period. JITA is a speech variable that represents the rate of change of the speaker's pitch period, and expresses irregularities in the period. JITA according to an embodiment may be calculated as Equation 2.

수식 2Equation 2

Figure 112011068344179-pat00004
Figure 112011068344179-pat00004

표 1의 JITT는 JITA를 백분율로 나타낸 음성 변수를 나타낸다.JITT in Table 1 represents negative variables representing JITA as a percentage.

표 1의 RAP는 JITA 주위의 값을 스무딩하여 나타내는 파라미터(Parameter)를 나타내며, JITA와 같은 개념으로서 구간을 늘려서 오류를 감소시킬 수 있다. JITA는 수식 3과 같이 연산될 수 있다. JITA 주위의 어느 정도 범위의 값을 스무딩할지는 사용자에 의해 설정될 수 있다.The RAP in Table 1 represents a parameter that smoothes the value around JITA. The concept of JITA can reduce errors by increasing the interval. JITA can be calculated as shown in Equation 3. The range of values around JITA can be set by the user.

수식 3Equation 3

Figure 112011068344179-pat00005
Figure 112011068344179-pat00005

표 1의 PPQ는 JITA 주위의 값을 스무딩하여 나타내는 파라미터(Parameter)를 나타내며, JITA와 같은 개념으로서 구간을 늘려서 오류를 감소시킬 수 있다. JITA는 수식 4와 같이 연산될 수 있다. JITA 주위의 어느 정도 범위의 값을 스무딩할지는 사용자에 의해 설정될 수 있다.PPQ in Table 1 represents a parameter that smoothes the value around JITA. The concept of JITA can reduce errors by increasing the interval. JITA can be calculated like Equation 4. The range of values around JITA can be set by the user.

수식 4Equation 4

Figure 112011068344179-pat00006

Figure 112011068344179-pat00006

일실시예에 따른 문장 변수는 문장 발성에 대한 문장 평균 기본 주파수, 문장 평균 기본 주파수의 표준 편차, 문장 평균 기본 주파수의 10백분위 값, 문장 평균 기본 주파수의 50백분위 값, 문장 평균 기본 주파수의 90백분위 값, PHL, 문장 강도, 문장 강도의 표준 편차, 문장 강도의 10백분위 값, 문장 강도의 50백분위 값, 문장 강도의 90백분위 값, IHL, 구간별 평균 기본 주파수와 강도 신호 크기 사이의 피어슨 상관 계수 및 문장 속도 중 적어도 하나를 포함할 수 있다.A sentence variable according to an embodiment may include a sentence mean fundamental frequency, a standard deviation of a sentence mean fundamental frequency, a tenth percentile value of a sentence mean fundamental frequency, a 50th percentile value of a sentence mean fundamental frequency, and a 90th percentile of a sentence mean fundamental frequency. Value, PHL, sentence strength, standard deviation of sentence strength, 10th percentile value of sentence strength, 50th percentile value of sentence strength, 90th percentile value of sentence strength, IHL, Pearson's correlation coefficient between mean fundamental frequency and intensity signal magnitude per interval And sentence speed.

표 3 및 4는 문장 발성에 대한 음성 변수(변수)을 정리한 것으로서, 표 3은 문장 발성에 대한 기본 변수를 나타내고, 표 4는 문장 발성에 대한 추가 변수를 나타내나. 이 때, 표 3 및 4는 하나의 실시예일 뿐이며, 본 발명이 표 3 및 4의 내용으로 제한 해석되는 것은 아니다.Tables 3 and 4 summarize the negative variables (variables) for sentence utterances, Table 3 shows the basic variables for sentence utterances, and Table 4 shows additional variables for sentence utterances. At this time, Tables 3 and 4 are only examples, and the present invention is not limited to the contents of Tables 3 and 4.

표 3TABLE 3

Figure 112011068344179-pat00007
Figure 112011068344179-pat00007

표 4Table 4

Figure 112011068344179-pat00008
Figure 112011068344179-pat00008

표 3 및 표 4에서 SF0는 문장 평균 기본 주파수를 나타낸다. 실시예에 따라서는, SF0는 구간 4ms를 기준으로 하는 문장 평균 기본 주파수일 수 있다.In Tables 3 and 4, SF0 represents the sentence average fundamental frequency. According to an embodiment, SF0 may be a sentence average fundamental frequency based on the section 4 ms.

표 3의 SSTD는 문장 평균 기본 주파수의 표준 편차를 나타낸다.SSTD in Table 3 represents the standard deviation of the sentence mean fundamental frequency.

표 3의 P10는 평균 기본 주파수의 10백분위 값을 나타내고, P50는 평균 기본 주파수의 50백분위 값을 나타내며, P90는 평균 기본 주파수의 90백분위 값을 나타낸다. P10 in Table 3 represents the 10th percentile value of the average fundamental frequency, P50 represents the 50th percentile value of the average fundamental frequency, and P90 represents the 90th percentile value of the average fundamental frequency.

표 3의 PHL는 (P90-P50)/(P50-P10)의 값을 나타낸다.PHL of Table 3 shows the value of (P90-P50) / (P50-P10).

표 3의 SITS는 문장 강도를 나타내고, 수식 5와 같이 연산될 수 있다.SITS in Table 3 represents the sentence strength and may be calculated as shown in Equation 5.

수식 5Equation 5

Figure 112011068344179-pat00009
Figure 112011068344179-pat00009

표 3의 SISTD는 문장 강도의 표준 편차를 나타낸다.The SISTD in Table 3 represents the standard deviation of sentence strength.

표 3의 I10는 강도의 10백분위 값을 나타내고, I50는 강도의 50백분위 값을 나타내며, I90는 강도의 90백분위 값을 나타내고, IHL은 (I90-I50)/(I50-I10)의 값을 나타낸다.I10 in Table 3 represents the tenth percentile value of intensity, I50 represents the 50th percentile value of intensity, I90 represents the 90th percentile value of intensity, and IHL represents the value of (I90-I50) / (I50-I10). .

표 3의 CORR는 구간별 F0와 강도 신호 크기 사이의 피어슨 상관 계수를 나타낸다. CORR in Table 3 shows Pearson's correlation coefficient between interval F0 and strength signal magnitude.

표 3의 SSPD는 한 문장 읽는 시간인 문장 속도를 나타내고, 수식 6과 같이 연산될 수 있다.SSPD of Table 3 represents a sentence speed, which is a sentence read time, and may be calculated as shown in Equation 6.

수식 6Equation 6

Figure 112011068344179-pat00010

Figure 112011068344179-pat00010

음성 변수는 모음 발성 및 문장 발성의 조합에 대한 특징도 포함할 수 있다. 실시예에 따라서는, 음성 변수는 모음 발성 및 문장 발성 사이의 배음(Harmonics) 및 배음 사이의 사애 비율을 포함할 수 있다.The negative variable may also include features for the combination of vowel and sentence vowels. According to an embodiment, the phonetic variable may include the harmonics between vowel and sentence utterances and the love rate between the overtones.

모음 발성 및 문장 발성 사이의 배음은 120-240Hz, 240-480Hz, 480-960Hz, 960-1920Hz, 1920-3840Hz의 파워(power)를 나타낼 수 있다.
The overtones between vowel speech and sentence speech can represent powers of 120-240 Hz, 240-480 Hz, 480-960 Hz, 960-1920 Hz, and 1920-3840 Hz.

도 3 및 도 4는 성별 및 연령대에 따른 음성 변수 값의 차이를 나타내는 도면이다.3 and 4 are diagrams showing the difference between voice variable values according to gender and age group.

도 3을 참조하면, 아(a) 모음에 대한 평균 주파수(aF0, aF1)(310, 320) 및 오(a)음의 MFCC(aMFCC1)(330)는 남자, 여자의 성별에 따라 값이 다르게 나타날 수 있다. Referring to FIG. 3, the average frequencies (aF0, aF1) (310, 320) of the vowels (a) and the MFCC (aMFCC1) 330 of the negative (a) sound are different according to the genders of men and women. May appear.

또한, 도 4를 참조하면, 아(a) 모음에 대한 평균 주파수(aF0)(401)의 남자에 대한 시간에 따른 변화 그래프(410)를 보면 남자는 변성기 이후(20대 이후) 70대까지 aFO(401) 값은 계속 증가하는 것으로 나타난다. 하지만, 아(a) 모음에 대한 평균 주파수(aF0)(401)의 여자에 대한 시간에 따른 변화 그래프(420)를 보면 여자는 10대부터 70대까지 aFO(401) 값은 계속 선형 감소하는 것으로 나타난다. In addition, referring to FIG. 4, when the graph of time-varying 410 of the average frequency (aF0) 401 of the vowels (a) is shown, the male is aFO up to 70's after the metamorphic period (after 20's). The value 401 appears to increase continuously. However, in the graph of time-dependent change of the average frequency (aF0) (401) for the vowels (420) for the excitation, the excitation rate of the aFO (401) continues to decrease linearly from the teens to the seventies. appear.

따라서, 도 3 및 도 4에 나타난 것과 같이, 음성 변수에 대한 값의 차이는 성별 및 연령대에 따라 차이가 크게 나타날 수 있다. 따라서, 상술한 차이점에 의한 신뢰성 하락을 방지하기 위하여, 체질 판단 함수는 성별 및 연령대 별로 분류되어 개별적으로 생성될 수 있다. 이하, 체질 판단 함수 생성 장치가 체질 판단 함수를 성별 및 연령대 별로 분류하여 생성하는 동작에 대해서 상세히 설명한다.
Therefore, as shown in FIG. 3 and FIG. 4, the difference in the value for the negative variable may vary greatly according to gender and age group. Therefore, in order to prevent the reliability deterioration due to the above-described difference, the constitution determination function may be generated by classifying by gender and age group. Hereinafter, an operation of generating the constitution determination function by classifying the constitution determination function by gender and age group will be described in detail.

도 5는 본 발명의 일실시예에 따른 성별 및 연령대 별로 체질 판단 함수를 생성하는 체질 판단 함수 생성 장치의 구성을 나타내는 도면이다. 5 is a diagram illustrating a configuration of an apparatus for generating a constitution determination function for generating a constitution determination function for each gender and age group according to an embodiment of the present invention.

도 5를 참조하면, 본 발명의 일실시예에 따른 성별 및 연령대 별로 체질 판단 함수를 생성하는 체질 판단 함수 생성 장치(500)는 입력부(510), 처리부(520), 추출부(530) 및 생성부(540)를 포함할 수 있다.
Referring to FIG. 5, an apparatus 500 for generating a constitution determination function for each gender and age group according to an embodiment of the present invention includes an input unit 510, a processor 520, an extractor 530, and a generator. It may include a portion 540.

입력부(510)는 복수 명의 임상 시험 대상자 각각의 음성에 대한 참조 음성 정보(501)를 복수 개 받을 수 있다. 이 때, 참조 음성 정보(501)는 복수 개의 음성 변수(502)를 포함할 수 있다.The input unit 510 may receive a plurality of reference voice information 501 for the voices of each of the plurality of clinical trial subjects. In this case, the reference voice information 501 may include a plurality of voice variables 502.

처리부(520)는 입력 받은 복수 개의 참조 음성 정보(501)를 성별 및 연령대 별로 분류할 수 있다. 예를 들어, 처리부(520)는 복수 개의 참조 음성 정보(501)를 남자 및 여자로 분류할 수 있다. 또한, 처리부(520)는 복수 개의 참조 음성 정보(501)를 20대/30-40대/50대 이상으로 분류할 수 있다. 또한, 처리부(520)는 복수 개의 참조 음성 정보(501)를 성별 및 연령대를 동시에 고려하여 분류할 수 있다.The processor 520 may classify the received plurality of reference voice information 501 by gender and age group. For example, the processor 520 may classify the plurality of reference voice information 501 into a male and a female. In addition, the processor 520 may classify the plurality of reference voice information 501 into 20s / 30-40s / 50s or more. In addition, the processor 520 may classify the plurality of pieces of reference voice information 501 in consideration of gender and age group.

추출부(530)는 복수 개의 음성 변수(502)로부터 적어도 하나의 주요 음성 변수를 성별 및 연령대 별로 추출할 수 있다. 따라서, 실시예에 따라서는 주요 음성 변수는 성별 및 연령대 별로 다르게 추출될 수 있다. 추출부(530)가 주요 음성 변수를 성별 및 연령대 별로 추출하는 동작에는 도 2에서 설명한 주요 음성 변수를 추출하는 방법이 동일하게 적용될 수 있다.The extractor 530 may extract at least one main voice variable from the plurality of voice variables 502 by gender and age group. Therefore, according to the exemplary embodiment, the main negative variable may be extracted differently according to gender and age group. The extractor 530 extracts the main voice variable by gender and age group, and the same method of extracting the main voice variable described with reference to FIG. 2 may be applied.

생성부(540)는 (1) 성별 및 연령대 별로 추출된 주요 음성 변수, (2) 성별 및 연령대 별로 분류된 참조 음성 정보(501) 및 (3) 미리 설정된 분류 모델을 이용하여, 체질 판단 함수를 성별 및 연령대 별로 생성할 수 있다. The generation unit 540 uses the (1) the main voice variable extracted by gender and age group, (2) the reference voice information 501 classified by gender and age group, and (3) a pre-set classification model to determine a constitution determination function. Can be created by gender and age group.

일실시예에 따른 분류 모델은 로지스틱 회귀 분석(Logistic Regression Analysis), 뉴럴 네트워크 분석, 서포트 벡터 머신(Support Vector Machine) 분석, 의사 결정 트리 분석 및 선형 판별 분석(Linear Discriminant Analysis, LDA) 중 적어도 하나를 포함할 수 있다.According to an embodiment, the classification model may include at least one of logistic regression analysis, neural network analysis, support vector machine analysis, decision tree analysis, and linear discriminant analysis (LDA). It may include.

본 발명의 일측에 따르면, 생성부(540)는 성별 및 연령대 별로 분류된 참조 음성 정보(501) 및 분류 모델을 이용하여, 복수 개의 음성 변수(502)와 체질 사이의 상관 관계를 연산할 수 있다. 이 때 연산되는 상관 관계는 성별 및 연령대 별로 분류 모델의 각 음성 변수(502)에 대한 계수로서 활용될 수 있다. 예를 들어, 생성부(540)는 복수 개의 음성 변수(502)와 체질(태양, 태음, 소양, 소음) 사이의 상관 관계를 연산하고, 연산된 상관 관계에 대한 값을 성별 및 연령대 별 분류 모델의 각 변수에 대한 계수로서 활용할 수 있다. 따라서, 분류 모델의 각 음성 변수(502)에 대한 계수가 연산되면, 생성부(540)는 성별 및 연령대 별 분류 모델에 연산된 계수 및 주요 음성 변수를 입력하여, 성별 및 연령대 별로 체질 판단 함수를 생성할 수 있다.According to an aspect of the present invention, the generation unit 540 may calculate a correlation between the plurality of voice variables 502 and the constitution using the reference voice information 501 classified by gender and age group, and a classification model. . The correlation calculated at this time may be utilized as a coefficient for each voice variable 502 of the classification model for each gender and age group. For example, the generation unit 540 calculates a correlation between the plurality of voice variables 502 and the constitutions (sun, lunar, literacy, noise), and calculates values for the calculated correlations by gender and age group. Can be used as a factor for each variable in. Therefore, when coefficients for each voice variable 502 of the classification model are calculated, the generation unit 540 inputs the coefficients and main voice variables calculated in the classification model for each gender and age group, and calculates a constitution determination function for each gender and age group. Can be generated.

표 5는 생성부(540)가 남성 30-40대로 분류된 음성 변수(502)에 대한 각 체질의 분류 함수의 계수를 연산한 결과를 나타내는 표이다. 표 5는 하나의 실시예일 뿐이며, 본 발명이 이에 한정되는 것은 아니다.Table 5 is a table showing the results of the calculation unit 540 calculated the coefficients of the classification function of each constitution for the voice variable 502 classified into 30-40 male. Table 5 is only one embodiment, the present invention is not limited thereto.

표 5Table 5

Figure 112011068344179-pat00011
Figure 112011068344179-pat00011

또한, 표 6은 생성부(540)가 여성 30-40대로 분류된 음성 변수(502)에 대한 각 체질의 분류 함수의 계수를 연산한 결과를 나타내는 표이다. 표 6은 하나의 실시예일 뿐이며, 본 발명이 이에 한정되는 것은 아니다.In addition, Table 6 is a table showing the result of the generation unit 540 calculated the coefficient of the classification function of each constitution for the voice variable 502 classified into 30-40 women. Table 6 is only one embodiment, but the present invention is not limited thereto.

표 6Table 6

Figure 112011068344179-pat00012
Figure 112011068344179-pat00012

따라서, 생성부(540)는 표 5, 6과 같이 성별 및 연령대 별로 분류 모델의 각 주요 음성 변수에 대한 계수를 연산한 이후에, 연산된 계수 및 주요 음성 변수를 분류 모델에 입력하여, 성별 및 연령대 별로 체질 판단 함수를 생성할 수 있다.
Therefore, the generator 540 calculates the coefficients for each of the main voice variables of the classification model for each gender and age group, as shown in Tables 5 and 6, and then inputs the calculated coefficients and the main voice variables to the classification model. A constitution judgment function can be generated for each age group.

도 6은 본 발명의 일실시예에 따른 체질 판단 함수 생성 방법을 나타내는 흐름도이다.6 is a flowchart illustrating a method of generating a constitution determination function according to an embodiment of the present invention.

도 6을 참조하면, 본 발명의 일실시예에 따른 체질 판단 함수 생성 방법은 사용자의 체질을 판단하기 위한 체질 판단 함수를 생성할 수 있다.Referring to FIG. 6, the method of generating a constitution determination function according to an embodiment of the present invention may generate a constitution determination function for determining a constitution of a user.

체질 판단 함수 생성 방법은 복수 명의 임상 시험 대상자 각각의 음성에 대한 참조 음성 정보를 복수 개 입력 받을 수 있다(610). 이 때, 참조 음성 정보는 복수 개의 음성 변수를 포함할 수 있다. 상술한 것과 같이 체질 판단 함수 생성 방법은 다수의 임상 시험 대상자에 대한 음성 정보를 수집함으로써, 체질 판단 함수를 생성하기 위한 통계 자료를 수집할 수 있고, 수집된 자료들에 기반하여 체질 판단 함수를 생성할 수 있다.
The method of generating a constitution determination function may receive a plurality of reference voice information for each of a plurality of clinical test subjects' voices (610). In this case, the reference voice information may include a plurality of voice variables. As described above, the method of generating a constitution determination function may collect statistical data for generating a constitution determination function by collecting voice information of a plurality of clinical trial subjects, and generate a constitution determination function based on the collected data. can do.

체질 판단 함수 생성 방법은 복수 개의 음성 변수로부터 적어도 하나의 주요 음성 변수를 추출할 수 있다(620). The method of generating a constitution determination function may extract at least one main voice variable from the plurality of voice variables (620).

본 발명의 일측에 따르면, 체질 판단 함수 생성 방법은 복수 개의 음성 변수에 대한 변동 계수(CV, Coefficient of Variation)의 값을 이용하여 복수 개의 음성 변수로부터 주요 음성 변수를 추출할 수 있다. 자세히 설명하면, 체질 판단 함수 생성 방법은 복수 개의 음성 변수에 대한 변동 계수(CV, Coefficient of Variation)의 값을 연산할 수 있다. 또한, 체질 판단 함수 생성 방법은 연산된 변동 계수의 값에 기반하여, 복수 개의 음성 변수에 대한 음성 차원을 축소하는 동작을 수행할 수 있다. 이 때, 체질 판단 함수 생성 방법은 음성 차원이 축소된 음성 변수로부터 주요 음성 변수를 추출할 수 있다. According to one aspect of the present invention, the method for generating a constitution determination function may extract a main voice variable from a plurality of voice variables by using values of a coefficient of variation (CV) for a plurality of voice variables. In detail, the method of generating a constitution determination function may calculate values of coefficients of variation (CV) for a plurality of voice variables. In addition, the method of generating a constitution determination function may perform an operation of reducing the speech dimension of the plurality of speech variables based on the calculated variation coefficient. In this case, the method of generating a constitution determination function may extract a main voice variable from the voice variable whose voice dimension is reduced.

본 발명의 또 다른 일측에 따르면, 체질 판단 함수 생성 방법은 복수 개의 음성 변수에 대하여 변수 간 상관성 최소화 작업을 수행하여, 주요 음성 변수를 추출할 수 있다. 예를 들어, 체질 판단 함수 생성 방법은 복수 개의 음성 변수에 대한 VIF(Variation Inflation Factor)의 값을 연산할 수 있다. 또한, 체질 판단 함수 생성 방법은 복수 개의 음성 변수 중 연산된 VIF의 값이 기준값 이상인 음성 변수를 제거하여, 주요 음성 변수를 추출할 수 있다. 또 다른 실시예에 따라서는, 체질 판단 함수 생성 방법은 VIF의 값 대신 주성분 분석과 같은 독립적 변수 선택 방법을 적용하여 변수 간 상관성 최소화 작업을 수행할 수 있다.According to another aspect of the present invention, the method for generating a constitution determination function may extract a main voice variable by performing a correlation between variables for a plurality of voice variables. For example, the method of generating a constitution determination function may calculate values of a variation inflation factor (VIF) for a plurality of voice variables. In addition, the method of generating a constitution determination function may extract a main voice variable by removing a voice variable having a calculated VIF value equal to or greater than a reference value among a plurality of voice variables. According to another embodiment, the method of generating a constitution determination function may perform an operation of minimizing correlation between variables by applying an independent variable selection method such as principal component analysis instead of the value of VIF.

본 발명의 또 다른 일측에 따르면, 체질 판단 함수 생성 방법은 복수 개의 음성 변수에 대한 IQR(InterQuartile Range)의 값을 이용하여 복수 개의 음성 변수로부터 주요 음성 변수를 추출할 수 있다. 자세히 설명하면, 체질 판단 함수 생성 방법은 복수 개의 음성 변수에 대한 IQR의 값을 연산할 수 있다. 또한, 체질 판단 함수 생성 방법은 IQR의 값을 이용하여 복수 개의 음성 변수로부터 이상치(Outlier)에 대응하는 음성 변수를 제거하여, 주요 음성 변수를 추출할 수 있다.
According to another aspect of the present invention, the method for generating a constitution determination function may extract a main voice variable from a plurality of voice variables using the value of an interquart range (IQR) for a plurality of voice variables. In detail, the method of generating a constitution determination function may calculate values of IQRs for a plurality of voice variables. In addition, the method of generating a constitution determination function may extract a main voice variable by removing a voice variable corresponding to an outlier from a plurality of voice variables using the value of IQR.

체질 판단 함수 생성 방법은 추출된 주요 음성 변수 및 미리 설정된 분류 모델을 이용하여, 체질 판단 함수를 생성할 수 있다(630). 일실시예에 따른 분류 모델은 로지스틱 회귀 분석(Logistic Regression Analysis), 뉴럴 네트워크 분석, 서포트 벡터 머신(Support Vector Machine) 분석, 의사 결정 트리 분석 및 선형 판별 분석(Linear Discriminant Analysis, LDA) 중 적어도 하나를 포함할 수 있다.The method of generating a constitution determination function may generate a constitution determination function by using the extracted main speech variable and a preset classification model (630). According to an embodiment, the classification model may include at least one of logistic regression analysis, neural network analysis, support vector machine analysis, decision tree analysis, and linear discriminant analysis (LDA). It may include.

본 발명의 일측에 따르면, 체질 판단 함수 생성 방법은 참조 음성 정보 및 분류 모델을 이용하여, 복수 개의 음성 변수와 체질 사이의 상관 관계를 연산할 수 있다. 이 때 연산되는 상관 관계는 분류 모델의 각 음성 변수에 대한 계수로서 활용될 수 있다. 예를 들어, 체질 판단 함수 생성 방법은 복수 개의 음성 변수와 체질(태양, 태음, 소양, 소음) 사이의 상관 관계를 연산하고, 연산된 상관 관계에 대한 값을 분류 모델의 각 변수에 대한 계수로서 활용할 수 있다. 따라서, 분류 모델의 각 음성 변수에 대한 계수가 연산되면, 체질 판단 함수 생성 방법은 분류 모델에 연산된 계수 및 주요 음성 변수를 입력하여, 체질 판단 함수를 생성할 수 있다.
According to one aspect of the present invention, the method of generating a constitution determination function may calculate a correlation between a plurality of speech variables and a constitution using reference speech information and a classification model. The correlation calculated at this time may be utilized as a coefficient for each voice variable of the classification model. For example, the method of generating a constitution determination function calculates a correlation between a plurality of voice variables and a constitution (sun, lunar, literacy, noise), and calculates the value of the calculated correlation as a coefficient for each variable of the classification model. It can be utilized. Therefore, when the coefficient for each voice variable of the classification model is calculated, the constitution determination function generating method may generate the constitution determination function by inputting the calculated coefficient and the main voice variable to the classification model.

음성 정보는 사용자 또는 임상 시험 대상자의 음성과 연관된 복수 개의 음성 변수를 포함할 수 있다. 또한, 음성 변수는 사용자 또는 임상 시험 대상자의 모음 발성과 연관된 모음 변수 및 사용자 또는 임상 시험 대상자의 문장 발성과 연관된 음성 변수를 포함할 수 있다. 이 때, 모음 발성은 사용자가 미리 설정된 모음(아(a), 에(e), 이(i), 오(o), 우(u) 등)을 발성하여 기록한 음성을 나타내며, 문장 발성은 사용자가 미리 설정된 문장을 읽은 음성을 나타낸다.The voice information may include a plurality of voice variables associated with the voice of the user or clinical trial subject. Further, the negative variable may include a vowel variable associated with vowel speech of a user or a clinical trial subject and a negative variable associated with sentence utterance of a user or a clinical trial subject. At this time, the vowel utterance refers to a voice recorded by the user uttering a predetermined vowel (a, a, e, i, i, o, u, etc.), and the sentence utterance is the user. Indicates a voice that reads a preset sentence.

일실시예에 따른 모음 변수는 모음 발성에 대한 피치(Pitch)의 평균 주파수, 포먼트(Formant), 주파수 차이, 주파수 비율, 피치 주기의 평균 변화율을 나타내는 JITA, JITA에 대한 백분율, JITA와 연관된 RAP 및 JITA와 연관된 PPQ 중 적어도 하나를 포함할 수 있다.According to one embodiment, the vowel variable is a JITA representing the average frequency of the pitch, the formant, the frequency difference, the frequency ratio, the average rate of change of the pitch period, the percentage of the JITA, and the RAP associated with the JITA. And PPQ associated with JITA.

일실시예에 따른 문장 변수는 문장 발성에 대한 문장 평균 기본 주파수, 문장 평균 기본 주파수의 표준 편차, 문장 평균 기본 주파수의 10백분위 값, 문장 평균 기본 주파수의 50백분위 값, 문장 평균 기본 주파수의 90백분위 값, PHL, 문장 강도, 문장 강도의 표준 편차, 문장 강도의 10백분위 값, 문장 강도의 50백분위 값, 문장 강도의 90백분위 값, IHL, 구간별 평균 기본 주파수와 강도 신호 크기 사이의 피어슨 상관 계수 및 문장 속도 중 적어도 하나를 포함할 수 있다.A sentence variable according to an embodiment may include a sentence mean fundamental frequency, a standard deviation of a sentence mean fundamental frequency, a tenth percentile value of a sentence mean fundamental frequency, a 50th percentile value of a sentence mean fundamental frequency, and a 90th percentile of a sentence mean fundamental frequency. Value, PHL, sentence strength, standard deviation of sentence strength, 10th percentile value of sentence strength, 50th percentile value of sentence strength, 90th percentile value of sentence strength, IHL, Pearson's correlation coefficient between mean fundamental frequency and intensity signal magnitude per interval And sentence speed.

음성 변수는 모음 발성 및 문장 발성의 조합에 대한 특징도 포함할 수 있다. 실시예에 따라서는, 음성 변수는 모음 발성 및 문장 발성 사이의 배음(Harmonics) 및 배음 사이의 사애 비율을 포함할 수 있다.The negative variable may also include features for the combination of vowel and sentence vowels. According to an embodiment, the phonetic variable may include the harmonics between vowel and sentence utterances and the love rate between the overtones.

모음 발성 및 문장 발성 사이의 배음은 120-240Hz, 240-480Hz, 480-960Hz, 960-1920Hz, 1920-3840Hz의 파워(power)를 나타낼 수 있다.
The overtones between vowel speech and sentence speech can represent powers of 120-240 Hz, 240-480 Hz, 480-960 Hz, 960-1920 Hz, and 1920-3840 Hz.

도 7은 본 발명의 일실시예에 따른 성별 및 연령대 별로 체질 판단 함수를 생성하는 체질 판단 함수 생성 방법을 나타내는 흐름도이다.7 is a flowchart illustrating a method of generating a constitution determination function for generating a constitution determination function for each gender and age group according to an embodiment of the present invention.

도 7을 참조하면, 본 발명의 일실시예에 따른 성별 및 연령대 별로 체질 판단 함수를 생성하는 체질 판단 함수 생성 방법은 복수 명의 임상 시험 대상자 각각의 음성에 대한 참조 음성 정보를 복수 개 받을 수 있다(710). 이 때, 참조 음성 정보는 복수 개의 음성 변수를 포함할 수 있다.Referring to FIG. 7, in the method of generating a constitution determination function for generating a constitution determination function for each gender and age group according to an embodiment of the present invention, a plurality of reference voice information of each voice of a plurality of clinical subjects may be received ( 710). In this case, the reference voice information may include a plurality of voice variables.

체질 판단 함수 생성 방법은 입력 받은 복수 개의 참조 음성 정보를 성별 및 연령대 별로 분류할 수 있다(720). 예를 들어, 체질 판단 함수 생성 방법은 복수 개의 참조 음성 정보를 남자 및 여자로 분류할 수 있다. 또한, 체질 판단 함수 생성 방법은 복수 개의 참조 음성 정보를 20대/30-40대/50대 이상으로 분류할 수 있다. 또한, 체질 판단 함수 생성 방법은 복수 개의 참조 음성 정보를 성별 및 연령대를 동시에 고려하여 분류할 수 있다.The method of generating a constitution determination function may classify the plurality of input reference voice information by gender and age group (720). For example, the method of generating a constitution determination function may classify a plurality of reference voice information into a male and a female. In addition, the method of generating a constitution determination function may classify a plurality of reference voice information into 20s / 30-40s / 50s or more. In addition, the method of generating a constitution determination function may classify a plurality of reference voice information in consideration of gender and age group.

체질 판단 함수 생성 방법은 복수 개의 음성 변수로부터 적어도 하나의 주요 음성 변수를 성별 및 연령대 별로 추출할 수 있다(730). 따라서, 실시예에 따라서는 주요 음성 변수는 성별 및 연령대 별로 다르게 추출될 수 있다. 체질 판단 함수 생성 방법이 주요 음성 변수를 성별 및 연령대 별로 추출하는 동작에는 도 2에서 설명한 주요 음성 변수를 추출하는 방법이 동일하게 적용될 수 있다.The method of generating a constitution determination function may extract at least one main voice variable from a plurality of voice variables by gender and age group (730). Therefore, according to the exemplary embodiment, the main negative variable may be extracted differently according to gender and age group. The method of extracting the main voice variable described with reference to FIG. 2 may be applied to an operation of extracting the main voice variable by gender and age group.

체질 판단 함수 생성 방법은 (1) 성별 및 연령대 별로 추출된 주요 음성 변수, (2) 성별 및 연령대 별로 분류된 참조 음성 정보 및 (3) 미리 설정된 분류 모델을 이용하여, 체질 판단 함수를 성별 및 연령대 별로 생성할 수 있다(740). The method of generating a constitution judgment function is performed by using (1) main voice variables extracted by gender and age group, (2) reference voice information classified by gender and age group, and (3) preset classification model. The generation may be performed separately (740).

일실시예에 따른 분류 모델은 로지스틱 회귀 분석(Logistic Regression Analysis), 뉴럴 네트워크 분석, 서포트 벡터 머신(Support Vector Machine) 분석, 의사 결정 트리 분석 및 선형 판별 분석(Linear Discriminant Analysis, LDA) 중 적어도 하나를 포함할 수 있다.According to an embodiment, the classification model may include at least one of logistic regression analysis, neural network analysis, support vector machine analysis, decision tree analysis, and linear discriminant analysis (LDA). It may include.

본 발명의 일측에 따르면, 체질 판단 함수 생성 방법은 성별 및 연령대 별로 분류된 참조 음성 정보 및 분류 모델을 이용하여, 복수 개의 음성 변수와 체질 사이의 상관 관계를 연산할 수 있다. 이 때 연산되는 상관 관계는 성별 및 연령대 별로 분류 모델의 각 음성 변수에 대한 계수로서 활용될 수 있다. 예를 들어, 체질 판단 함수 생성 방법은 복수 개의 음성 변수와 체질(태양, 태음, 소양, 소음) 사이의 상관 관계를 연산하고, 연산된 상관 관계에 대한 값을 성별 및 연령대 별 분류 모델의 각 변수에 대한 계수로서 활용할 수 있다. 따라서, 분류 모델의 각 음성 변수에 대한 계수가 연산되면, 체질 판단 함수 생성 방법은 성별 및 연령대 별 분류 모델에 연산된 계수 및 주요 음성 변수를 입력하여, 성별 및 연령대 별로 체질 판단 함수를 생성할 수 있다.
According to an aspect of the present invention, the method of generating a constitution determination function may calculate a correlation between a plurality of voice variables and a constitution by using reference voice information and a classification model classified by gender and age group. The correlation calculated at this time may be utilized as a coefficient for each voice variable of the classification model for each gender and age group. For example, the method of generating a constitution determination function calculates a correlation between a plurality of voice variables and constitutions (sun, lunar, literacy, noise), and calculates the values of the calculated correlations for each variable of the classification model by gender and age group. It can be used as a coefficient for. Therefore, when the coefficient for each voice variable of the classification model is calculated, the constitution determination method generating method may generate the constitution determination function for each gender and age group by inputting the coefficient and the main voice variable calculated in the classification model for each gender and age group. have.

본 발명에 따른 실시예들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(Floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Embodiments according to the present invention may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be those specially designed and constructed for the present invention or may be available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as a hard disk, a floppy disk, and a magnetic tape; optical media such as CD-ROM and DVD; magnetic recording media such as a floppy disk; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.As described above, the present invention has been described by way of limited embodiments and drawings, but the present invention is not limited to the above embodiments, and those skilled in the art to which the present invention pertains various modifications and variations from such descriptions. This is possible.

그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined by the equivalents of the claims, as well as the claims.

200: 체질 판단 함수 생성 장치
201: 참조 음성 정보
202: 음성 변수
210: 입력부
220: 추출부
230: 생성부
200: constitution determination function generator
201: Reference voice information
202: negative variable
210:
220: extraction unit
230: generation unit

Claims (12)

삭제delete 사용자의 체질을 판단하기 위한 체질 판별 함수를 생성하는 장치가 체질 판단 함수를 생성하는 방법에 있어서, 상기 방법은,
상기 장치의 입력부가 복수 개의 음성 변수를 포함하는 참조 음성 정보를 복수 개 입력 받는 단계;
상기 장치의 추출부가 상기 복수 개의 음성 변수로부터 적어도 하나의 주요 음성 변수를 추출하는 단계; 및
상기 장치의 생성부가 상기 추출된 주요 음성 변수 및 미리 설정된 분류 모델을 이용하여, 상기 체질 판단 함수를 생성하는 단계
를 포함하고,
상기 체질 판단 함수를 생성하는 단계는
상기 복수 개의 음성 변수를 이용하여 상기 추출된 주요 음성 변수에 대한 상기 분류 모델의 계수를 연산하고,
상기 분류 모델에 상기 연산된 계수 및 상기 주요 음성 변수를 입력하여 상기 체질 판단 함수를 생성하는 체질 판단 함수 생성 방법.
In the method for generating a constitution determination function by the apparatus for generating a constitution determination function for determining the constitution of the user, the method,
Receiving a plurality of input voice information including a plurality of voice variables by an input unit of the device;
Extracting, by the extracting unit of the device, at least one main speech variable from the plurality of speech variables; And
Generating, by the generation unit of the device, the constitution determination function by using the extracted main speech variable and a preset classification model;
Lt; / RTI >
Generating the constitution determination function
Calculating coefficients of the classification model for the extracted main speech variables using the plurality of speech variables,
And generating the constitution determination function by inputting the calculated coefficient and the main speech variable to the classification model.
삭제delete 삭제delete 사용자의 체질을 판단하기 위한 체질 판별 함수를 생성하는 장치가 체질 판단 함수를 생성하는 방법에 있어서, 상기 방법은,
상기 장치의 입력부가 복수 개의 음성 변수를 포함하는 참조 음성 정보를 복수 개 입력 받는 단계;
상기 장치의 추출부가 상기 복수 개의 음성 변수로부터 적어도 하나의 주요 음성 변수를 추출하는 단계; 및
상기 장치의 생성부가 상기 추출된 주요 음성 변수 및 미리 설정된 분류 모델을 이용하여, 상기 체질 판단 함수를 생성하는 단계
를 포함하고,
상기 주요 음성 변수를 추출하는 단계는
상기 복수 개의 음성 변수에 대한 변동 계수(CV, Coefficient of Variation)의 값을 연산하는 단계;
상기 연산된 변동 계수의 값에 기반하여, 상기 복수 개의 음성 변수에 대한 음성 차원을 축소하는 동작을 수행하는 단계; 및
상기 음성 차원이 축소된 음성 변수로부터 상기 주요 음성 변수를 추출하는 단계
를 포함하는 체질 판단 함수 생성 방법.
In the method for generating a constitution determination function by the apparatus for generating a constitution determination function for determining the constitution of the user, the method,
Receiving a plurality of input voice information including a plurality of voice variables by an input unit of the device;
Extracting, by the extracting unit of the device, at least one main speech variable from the plurality of speech variables; And
Generating, by the generation unit of the device, the constitution determination function by using the extracted main speech variable and a preset classification model;
Lt; / RTI >
Extracting the main negative variable
Calculating a value of a coefficient of variation (CV) for the plurality of voice variables;
Reducing a speech dimension for the plurality of speech variables based on the calculated variation coefficients; And
Extracting the main speech variable from the speech variable whose speech dimension is reduced
Constitution determination function generation method comprising a.
사용자의 체질을 판단하기 위한 체질 판별 함수를 생성하는 장치가 체질 판단 함수를 생성하는 방법에 있어서, 상기 방법은,
상기 장치의 입력부가 복수 개의 음성 변수를 포함하는 참조 음성 정보를 복수 개 입력 받는 단계;
상기 장치의 추출부가 상기 복수 개의 음성 변수로부터 적어도 하나의 주요 음성 변수를 추출하는 단계; 및
상기 장치의 생성부가 상기 추출된 주요 음성 변수 및 미리 설정된 분류 모델을 이용하여, 상기 체질 판단 함수를 생성하는 단계
를 포함하고,
상기 주요 음성 변수를 추출하는 단계는
상기 복수 개의 음성 변수에 대하여 변수 간 상관성 최소화 작업을 수행하여, 상기 주요 음성 변수를 추출하는 체질 판단 함수 생성 방법.
In the method for generating a constitution determination function by the apparatus for generating a constitution determination function for determining the constitution of the user, the method,
Receiving a plurality of input voice information including a plurality of voice variables by an input unit of the device;
Extracting, by the extracting unit of the device, at least one main speech variable from the plurality of speech variables; And
Generating, by the generation unit of the device, the constitution determination function by using the extracted main speech variable and a preset classification model;
Lt; / RTI >
Extracting the main negative variable
And generating the main speech variable by performing correlation minimization between the plurality of speech variables.
제6항에 있어서,
상기 변수 간 상관성 최소화 작업을 수행하는 동작은
상기 복수 개의 음성 변수에 대한 VIF(Variation Inflation Factor)의 값을 연산하는 단계;
상기 복수 개의 음성 변수 중 상기 연산된 VIF의 값이 기준값 이상인 음성 변수를 제거하여, 상기 주요 음성 변수를 추출하는 체질 판단 함수 생성 방법.
The method according to claim 6,
The operation of minimizing the correlation between the variables
Calculating a value of a variation inflation factor (VIF) for the plurality of voice variables;
And extracting the main voice variable by removing a voice variable having a value of the calculated VIF equal to or greater than a reference value among the plurality of voice variables.
사용자의 체질을 판단하기 위한 체질 판별 함수를 생성하는 장치가 체질 판단 함수를 생성하는 방법에 있어서, 상기 방법은,
상기 장치의 입력부가 복수 개의 음성 변수를 포함하는 참조 음성 정보를 복수 개 입력 받는 단계;
상기 장치의 추출부가 상기 복수 개의 음성 변수로부터 적어도 하나의 주요 음성 변수를 추출하는 단계; 및
상기 장치의 생성부가 상기 추출된 주요 음성 변수 및 미리 설정된 분류 모델을 이용하여, 상기 체질 판단 함수를 생성하는 단계
를 포함하고,
상기 주요 음성 변수를 추출하는 단계는
상기 복수 개의 음성 변수에 대한 IQR(InterQuartile Range)의 값을 연산하는 단계;
상기 IQR의 값을 이용하여 상기 복수 개의 음성 변수로부터 이상치(Outlier)에 대응하는 음성 변수를 제거하여, 상기 주요 음성 변수를 추출하는 체질 판단 함수 생성 방법.
In the method for generating a constitution determination function by the apparatus for generating a constitution determination function for determining the constitution of the user, the method,
Receiving a plurality of input voice information including a plurality of voice variables by an input unit of the device;
Extracting, by the extracting unit of the device, at least one main speech variable from the plurality of speech variables; And
Generating, by the generation unit of the device, the constitution determination function by using the extracted main speech variable and a preset classification model;
Lt; / RTI >
Extracting the main negative variable
Calculating values of InterQuartile Range (IQR) for the plurality of speech variables;
And extracting the main voice variable by removing a voice variable corresponding to an outlier from the plurality of voice variables using the value of the IQR.
삭제delete 제2항, 제5항, 제6항, 제7항 또는 제8항 중 어느 한 항의 방법을 실행하는 프로그램을 기록한 컴퓨터 판독 가능 기록 매체.A computer-readable recording medium having recorded thereon a program for executing the method of any one of claims 2, 5, 6, 7, or 8. 삭제delete 삭제delete
KR1020110088395A 2011-09-01 2011-09-01 Apparatus and Method for Producing Constitution Decision Function Using Sound KR101293867B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110088395A KR101293867B1 (en) 2011-09-01 2011-09-01 Apparatus and Method for Producing Constitution Decision Function Using Sound

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110088395A KR101293867B1 (en) 2011-09-01 2011-09-01 Apparatus and Method for Producing Constitution Decision Function Using Sound

Publications (2)

Publication Number Publication Date
KR20130025081A KR20130025081A (en) 2013-03-11
KR101293867B1 true KR101293867B1 (en) 2013-08-07

Family

ID=48176864

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110088395A KR101293867B1 (en) 2011-09-01 2011-09-01 Apparatus and Method for Producing Constitution Decision Function Using Sound

Country Status (1)

Country Link
KR (1) KR101293867B1 (en)

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
강재환 외 2명, ‘SVM을 이용한 음성 사상체질 분류 알고리즘’, 사상체질의학학회지, Vol.22, No.1, pp.17-25, 2010*
강재환 외 2명, 'SVM을 이용한 음성 사상체질 분류 알고리즘', 사상체질의학학회지, Vol.22, No.1, pp.17-25, 2010 *
신상훈 외 1명, ‘맥파를 이용한 사상체질의 진단에 있어서 분류방법에 따른 진단의 정확도 비교’, 한국콘텐츠학회논문지, Vol.9, No.10, pp.249-257, 2009*
신상훈 외 1명, '맥파를 이용한 사상체질의 진단에 있어서 분류방법에 따른 진단의 정확도 비교', 한국콘텐츠학회논문지, Vol.9, No.10, pp.249-257, 2009 *

Also Published As

Publication number Publication date
KR20130025081A (en) 2013-03-11

Similar Documents

Publication Publication Date Title
Narendra et al. Glottal source information for pathological voice detection
Karam et al. Ecologically valid long-term mood monitoring of individuals with bipolar disorder using speech
Khan et al. Classification of speech intelligibility in Parkinson's disease
Lee et al. Modeling mutual influence of interlocutor emotion states in dyadic spoken interactions.
CN106073706B (en) A kind of customized information and audio data analysis method and system towards Mini-mental Status Examination
Narendra et al. Dysarthric speech classification from coded telephone speech using glottal features
Helfer et al. Classification of depression state based on articulatory precision.
Narendra et al. Automatic assessment of intelligibility in speakers with dysarthria from coded telephone speech using glottal features
US20150154980A1 (en) Cepstral separation difference
Seneviratne et al. Extended Study on the Use of Vocal Tract Variables to Quantify Neuromotor Coordination in Depression.
Hahm et al. Parkinson's condition estimation using speech acoustic and inversely mapped articulatory data
US10789966B2 (en) Method for evaluating a quality of voice onset of a speaker
KR101894390B1 (en) Apparatus and method diagnosing health using voice
Vojtech et al. Refining algorithmic estimation of relative fundamental frequency: Accounting for sample characteristics and fundamental frequency estimation method
CN103249353B (en) Method for determining physical constitutions using integrated information
Vásquez Correa et al. New computer aided device for real time analysis of speech of people with Parkinson's disease
Khodabakhsh et al. Analysis of speech-based measures for detecting and monitoring Alzheimer’s disease
Usman et al. Heart rate detection and classification from speech spectral features using machine learning
Agurto et al. Analyzing progression of motor and speech impairment in ALS
Cordeiro et al. Spectral envelope first peak and periodic component in pathological voices: A spectral analysis
Selvakumari et al. A voice activity detector using SVM and Naïve Bayes classification algorithm
Kazinczi et al. Automatic detection of voice disorders
KR101293869B1 (en) Apparatus and Method for Determining Health using Sound
Vydana et al. Detection of emotionally significant regions of speech for emotion recognition
Lustyk et al. Evaluation of disfluent speech by means of automatic acoustic measurements

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160704

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170703

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180704

Year of fee payment: 6