KR101220399B1 - 통합정보를 이용한 체질정보 분석방법 - Google Patents

통합정보를 이용한 체질정보 분석방법 Download PDF

Info

Publication number
KR101220399B1
KR101220399B1 KR20100096068A KR20100096068A KR101220399B1 KR 101220399 B1 KR101220399 B1 KR 101220399B1 KR 20100096068 A KR20100096068 A KR 20100096068A KR 20100096068 A KR20100096068 A KR 20100096068A KR 101220399 B1 KR101220399 B1 KR 101220399B1
Authority
KR
South Korea
Prior art keywords
constitution
information
variable
score
integrated information
Prior art date
Application number
KR20100096068A
Other languages
English (en)
Other versions
KR20120034475A (ko
Inventor
김종열
도준형
장은수
구본초
이혜정
Original Assignee
한국 한의학 연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국 한의학 연구원 filed Critical 한국 한의학 연구원
Priority to KR20100096068A priority Critical patent/KR101220399B1/ko
Priority to CN201080070478.1A priority patent/CN103249353B/zh
Priority to PCT/KR2010/009264 priority patent/WO2012043935A1/ko
Publication of KR20120034475A publication Critical patent/KR20120034475A/ko
Application granted granted Critical
Publication of KR101220399B1 publication Critical patent/KR101220399B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4854Diagnosis based on concepts of traditional oriental medicine

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Alternative & Traditional Medicine (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physiology (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)

Abstract

본 발명은 사상의학에 근거하여 분류된 인체의 체질을 판단하는 방법에 관한 것으로, 더 상세하게는, 사람의 얼굴, 설문, 체형, 음성 등의 정보를 종합적으로 이용하여 보다 정확하게 체질을 판정할 수 있도록 하는 통합정보를 이용한 체질판단방법에 관한 것으로서, 본 발명에 따르면, 인체의 특정한 한 부분에 대한 정보와 사용자가 입력한 설문결과에만 근거하여 체질을 판정하므로 판정결과의 객관성 및 정확도에 한계를 가질 수밖에 없었던 종래의 체질진단방법들의 문제점을 해결하여, 사람의 얼굴, 설문, 체형, 음성 등의 정보를 종합적으로 이용하여 보다 객관적이고 정확하게 체질을 판별할 수 있도록 하는 통합정보를 이용한 체질판단방법이 제공된다.

Description

통합정보를 이용한 체질정보 분석방법{A physical constitution information analysis method using integrated information}
본 발명은 사상의학에 근거하여 분류된 인체의 체질을 판단하는 방법에 관한 것으로, 더 상세하게는, 사람의 얼굴, 설문, 체형, 음성 등의 정보를 종합적으로 이용하여 보다 정확하게 체질을 판정할 수 있도록 하는 통합정보를 이용한 체질판단방법에 관한 것이다.
종래, 사상의학에 의한 체질의 분류는 1894년에 이제마에 의해 처음으로 제시된 사상체질의학에서 비롯되었으며, 그 핵심적인 내용은, 사람의 체질은 오장육부의 편차에 따라 4가지, 즉, 태양인, 태음인, 소양인, 소음인으로 나눌 수 있으며, 같은 질병이나 증상에 대하여도 체질에 따라 치료방법을 다르게 하는 것이 효과적이라는 것이다.
또한, 이러한 사상의학에 근거한 체질의 판별은, 예를 들면, 진맥을 통해 판별하거나, 사상체질별 체형기상, 성질재간, 용모사기, 병증약리에서 나타나는 특징을 근거로 삼는 전통적인 방법이 있고, 최근에는, 1997년에 사상체질의학회에서 인증한 '설문지를 이용한 사상체질판별 프로그램(QSSCCII)'을 통해 각각의 체질병증을 찾아 확인하는 방법이 사용되고 있다.
그러나 이러한 종래의 방식은, 진단자의 주관적인 판단에 의존하게 되는 경우가 많아 그 객관적인 신빙성에 한계가 있으므로, 보다 객관적인 사실에 근거하여 체질을 판정하기 위한 연구가 활발하게 진행되고 있다.
이와 같은 체질판정방법에 대한 연구의 예로서, 종래에는, 예를 들면, 한국 공개특허공보 제10-2004-0028895호(2004.04.03. 공개)에 개시된 "사상음성분석기"와 같은 것이 있다.
더 상세하게는, 음성에서 개인적인 특징을 나타내는 요소들은 크게 선천적인 요소와 후천적인 요소로 구분될 수 있는데, 선천적인 요소들은 음성기관의 해부학적 특징에 의하여 나타나며, 후천적인 요소들은 언어 습득과정에서 얻어지는 발음상의 특징에 의하여 나타난다.
음성기관의 해부학적 특징에 의하여 나타나는 요소들 중에서 성문(Sound Spectrogram)을 이용하여 측정할 수 있는 성도(Vocal Track)의 공명주파수(Formant Frequency)와, 성도(Vocal Cords)의 특징에 따라 영향을 받는 기본주파수(Fundamental Frequency)는 음성에 의한 개인의 특징인 사상체질을 결정하는 주요한 요소가 된다.
즉, 음성분석을 통해서 나타나는 공명주파수는 성도(성대)의 해부학적 구조와 조음기관의 움직임에 많은 영향을 받는 요소이고, 기본주파수는 주로 성대의 구조에 의해 결정된다.
또한, 성대의 구조는 성별, 연령별 변화에 따라 다양하게 변화되므로, 신체적 상황변화를 감지하는 중요한 요인이 되고 있다.
따라서 상기 특허문헌은, 이러한 음성분석적 특성들을 토대로 사상체질별로 각각 다른 특성의 음성특성을 구하여 사상체질을 객관적으로 진단하는 음성분석기를 제공하고자 하는 것이다.
그러나 상기한 특허문헌에 기재된 방법은, 음성에만 의존하므로, 예를 들면, 감기에 걸렸을 때나 임의로 목소리를 변조하거나 하는 경우와 같이, 정상적인 목소리가 아닌 경우에는 대처할 수 없으며, 따라서 판단의 기준이 한 가지 정보에만 국한되므로 정확도에 그만큼 한계가 있는 것이었다.
또한, 체질판정방법에 대한 종래기술의 다른 예로서, 예를 들면, 한국 공개특허공보 제10-2005-0110093호(2005.11.22. 공개)에 기재된 바와 같은 "휴대단말기를 이용한 사상의학 체질 운용장치 및 방법"이 있다.
상기 특허문헌에 기재된 방법은, 사상의학 체질확인을 위하여 얼굴을 촬영 입력하는 카메라부, 카메라부로부터 인가되는 얼굴 촬영신호를 처리하여 윤곽을 검출하고 비교검색에 의하여 사상의학에 의한 체질을 확인하는 제어부, 사상의학에 의한 체질분석 기준 데이터와 체질별 적합한 음악신호와 색상신호 데이터를 각각 기록저장하고 출력하는 사상의학부, 사상의학 분석처리와 체질 확인을 위한 제어명령을 입력하는 키보드부, 사상의학에 의한 체질확인용 설문을 표시 출력하는 표시부를 포함하여 이루어지는 것으로, 휴대단말기를 이용하여 사상의학적인 체질을 분석하고 분석된 체질에 적합한 심리적인 안정과 건강을 증진하는 소리 신호와 빛 신호를 출력하도록 하는 휴대단말기의 사상의학 체질 운용장치 및 방법을 제공하고자 하는 것이다.
그러나 상기한 특허문헌에 기재된 방법은, 얼굴 윤곽과 사용자가 입력한 설문결과에만 근거하여 체질을 판정하고 있으므로, 마찬가지로 판정결과의 객관성 및 정확도에 한계가 있는 것이었다.
계속해서, 체질판정방법에 대한 종래기술의 또 다른 예로서, 예를 들면, 한국 공개특허공보 제10-2007-0031145호(2007.03.19. 공개)에 기재된 바와 같은 "신체정보를 이용한 사용자 진단 방법" 및 한국 등록특허공보 제10-0902575호(2009.06.05. 등록)에 기재된 바와 같은 "홍채를 촬영한 이미지를 4타입으로 분류하는 홍채 이미지 분석방법"이 있다.
상기한 특허문헌에 기재된 방법들은 각각 지문인식과 홍채인식에 근거하여 체질을 판정하는 방법에 관한 것이나, 상기한 종래기술의 내용과 마찬가지로, 판단의 근거가 한가지 신체정보에만 국한되므로, 판정결과의 객관성 및 정확도에 한계가 있는 것이었다.
이러한 한계를 극복하기 위해, 예를 들면, 한국 공개특허공보 제10-2009-0101557호(2009.09.29. 공개)의 "사상체질 자동진단기"에서는, 피사체의 영상을 3D로 획득하여 디지털 정보로 전송시키는 카메라, 설문 내용을 전산입력시키는 설문 정보 입력기, 사상체질 판단 정보들에 대한 데이터 베이스, 카메라와 설문 정보 입력기의 전송 정보를 분석하고 연산하며 데이터 베이스와 비교 처리하여 피사체의 용모사기, 체형기상, 성질재간, 병증약리를 판단하여 출력시키는 제어부, 제어부의 출력을 표시하는 디스플레이, 제어부의 정보를 저장하는 메모리로 구성되는 것을 특징으로 하는 사상체질 자동진단기를 개시하고 있다.
즉, 상기한 특허문헌의 사상체질 자동진단기는, 3차원 안면자동인식기를 사용하여 안면표준점의 3차원적 좌표를 계산하고 이를 바탕으로 안면형태학적 특징을 검출할 수 있는 것을 특징으로 하나, 결과적으로는, 상기한 공개특허공보 제10-2005-0110093호에 개시된 방법과 마찬가지로, 얼굴 윤곽에 대한 정보와 사용자가 입력한 설문결과에만 근거하여 체질을 판정하는 것이므로, 마찬가지로 판정결과의 객관성 및 정확도에 한계를 가질 수밖에 없게 된다는 문제가 있는 것이었다.
따라서 상기한 바와 같이, 종래의 체질진단방법들의 문제점을 해결하여 보다 객관적이고 정확하게 체질을 판별할 수 있는 새로운 체질판별방법이나 장치를 제공하는 것이 바람직하나, 아직까지 그러한 요구를 모두 만족시키는 장치나 방법은 제공되지 못하고 있는 실정이다.
본 발명은 상기한 바와 같은 종래의 체질진단방법들의 문제점을 해결하기 위한 것으로, 따라서 본 발명의 목적은, 보다 객관적이고 정확하게 체질을 판별할 수 있도록, 사람의 얼굴, 설문, 체형, 음성 등의 정보를 종합적으로 이용하여 보다 정확하게 체질을 판정할 수 있도록 하는 통합정보를 이용한 체질판단방법을 제공하고자 하는 것이다.
상기한 바와 같은 목적을 달성하기 위해, 본 발명에 따르면, 사람의 얼굴, 설문, 체형, 음성에 대한 정보를 포함하는 통합정보를 컴퓨터를 통하여 처리함으로써 체질을 판단하는 통합정보를 이용한 체질판단방법에 있어서, 상기 처리는, 안면에 대한 정보를 획득하여 처리하는 단계; 설문에 대한 정보를 획득하여 처리하는 단계; 체형에 대한 정보를 획득하여 처리하는 단계; 음성에 대한 정보를 획득하여 처리하는 단계; 및 상기한 각각의 단계에서 얻어진 처리결과들에 근거하여 최종적인 체질을 판단하는 단계;를 포함하는 통합정보를 이용한 체질판단방법이 제공된다.
여기서, 상기 안면에 대한 정보를 획득하여 처리하는 단계는, 사진으로부터 특정점을 추출하는 추출단계; 약리점수, 전문가 확신도 점수, 설문점수, 체험점수를 합산하여, 합산 결과 상위 90%에 해당하는 피험자를 선택하는 선택단계; 틸팅(tilting)된 정면사진에 대한 각도보정 및 얼굴 기준선을 추정하는 추정단계; 보정된 사진을 바탕으로 거리, 각도, 기울기, 비율, 면적, 곡률정보에 대한 계산을 행하는 계산단계; 각 표본에 대한 자동생성변수의 취합 및 자동생성시 나타나는 오류 표본을 제거하는 취합단계; 결측이 발생한 변수 및 표본에 대한 미싱 임퓨테이션(missing imputation)을 행하는 단계; 측정범위를 벗어나는 값을 검출하는 아웃라이어 디텍션(outlier detection) 단계; 및 각 변수의 표준화와 연령효과를 조정하는 조정단계;를 포함하는 것을 특징으로 한다.
또한, 상기 조정단계는, 연령에 따라 여러 변수의 값들이 증가하거나 감소하는 패턴을 보정하기 위해, 각 연령 구간별로 표준화한 Z 스코어(Z-score) 점수를 계산하여 보정하며, 상기 각 연령 구간별로 표준화를 위한 연령 구간별 변수의 대표값은, 해당 연령을 기준으로 ±2세 구간의 평균과 표준편차를 이용하는 것을 특징으로 한다.
아울러, 상기 설문에 대한 정보를 획득하여 처리하는 단계는, 약리점수, 전문가 확신도 점수, 설문점수, 체험점수를 합산하여, 합산 결과 상위 90%에 해당하는 피험자를 선택하는 선택단계; 주요변수를 추출(significant varibles extrection)하는 단계; 가중치(weight)를 계산하는 단계; 체질별 주요변수 스코어(constitutional significant varible score)를 산출하는 단계; 및 표본 체질별 설문점수(typical constitutional questionnaire score)를 산출하는 판별식 분석(discriminant analysis)단계;를 포함하는 것을 특징으로 한다.
또, 상기 주요변수를 추출하는 단계는, Oi는 관측빈도(observed frequency), Ei는 기대빈도(expected frequency), n은 각 이벤트의 가능한 발생(outcome)의 수를 각각 나타내는 것으로 할 때, 이하의 [식 1]을 이용하여 수행되는 것을 특징으로 한다.
[식 1]
Figure 112010063722229-pat00001

계속해서, 상기 가중치를 계산하는 단계는, -log X2의 식을 이용하여 수행되는 것을 특징으로 한다.
또한, 상기 체질별 주요변수 스코어를 산출하는 단계는, a는 양의 가중값이고, b는 음의 가중값을 각각 나타낼 때, 이하의 [식 2]를 이용하여 수행되는 것을 특징으로 한다.
[식 2]
Figure 112010063722229-pat00002

또, 상기 표본 체질별 설문점수를 산출하는 판별식 분석단계는, 태음인(TE), 소음인(SE), 소양인(SY)의 각각에 대하여, 상기 A의 값과 상기 B의 값의 차(A - B)를 계산하여 수행되는 것을 특징으로 한다.
더욱이, 상기 체형에 대한 정보를 획득하여 처리하는 단계는, 약리점수, 전문가 확신도 점수, 설문점수, 체험점수를 합산하여, 합산 결과 상위 90%에 해당하는 피험자를 선택하는 선택단계; 독립 샘플 T-테스트(independent sample T-test) 단계; 및 판별식 분석단계;를 포함하는 것을 특징으로 한다.
여기서, 상기 독립 샘플 T-테스트 단계는, X1은 표본 1의 평균이고, X2는 표본 2의 평균이며, s1, s2는 각 표본의 분산을 나타내고, n1 및 n2는 각각 표본 1 및 표본 2의 크기를 나타내는 것으로 할 때, 이하의 [식 3]을 이용하여 수행되는 것을 특징으로 한다.
[식 3]
Figure 112010063722229-pat00003

또, 상기 판별식 분석단계는, 태음인(TE), 소음인(SE), 소양인(SY)의 각각에 대하여 퍼센트로 표본 체질적 체형(typical constitutional body shape)을 나타내는 것을 특징으로 한다.
또한, 상기 음성에 대한 정보를 획득하여 처리하는 단계는, 약리점수, 전문가 확신도 점수, 설문점수, 체험점수를 합산하여, 합산 결과 상위 90%에 해당하는 피험자를 선택하는 선택단계; 음성특징변수 후보를 선별하는 단계; 판별분석에 사용할 변수를 선택 및 변환하는 단계; 및 체질을 판별하고 분석하는 단계;를 포함하는 것을 특징으로 한다.
아울러, 상기 음성특징변수 후보를 선별하는 단계는, 피치, 세기, 포먼트와 MDVP 변수를 추출하는 단계; 및 MFCC 변수를 추출하는 단계;를 포함하는 것을 특징으로 한다.
여기서, 상기 피치, 세기, 포먼트와 MDVP 변수를 추출하는 단계는, 각 모음(母音, vowel)에서 피치, 세기, 1차 포먼트 및 2차 포먼트, 상기 1차 포먼트 및 상기 2차 포먼트에 대한 -3dB 대역폭, 최대 진폭, 최소 진폭 값을 계산하는 단계; 문장에서 피치와 세기를 구하여 두 신호의 10, 50, 90번째 백분위수와 이들간의 비, 상관도를 계산하는 단계; 및 지정된 모음 구간에 대하여 상기 피치와 상기 최대 진폭 값 및 상기 최소 진폭 값을 이용하여, 발성시 피치의 변화 정도를 나타내는 지터(Jitter) 계열 변수(Jita, Jitt, RAP, PPQ) 및 진폭의 변화 정도를 나타내는 시머(Shimmer) 계열 변수(ShdB, Shim, APQ)를 추출하여 MDVP 변수를 추출하는 단계;를 포함하는 것을 특징으로 한다.
또, 상기 MFCC 변수를 추출하는 단계는, 각 모음별로 유효한 분절 구간에 대해 12차 MFCC 변수와 1개의 에너지 변수를 추출하는 것을 특징으로 한다.
또한, 상기 판별분석에 사용할 변수를 선택 및 변환하는 단계는, 두 개 이상의 모집단 평균간의 차이를 검증하는 분산분석(ANOVA)과 사후검정을 수행하여 통계적으로 유의미한 변수를 추출하는 단계;를 포함하는 것을 특징으로 한다.
아울러, 상기 체질을 판별하고 분석하는 단계는, 체질분류에 사용할 변수들의 값의 범위가 상이한 것을 조정하기 위해 표준화 변환을 수행하는 단계;를 포함하고, 상기 표준화 변환은, i는 변수명이고, Zi는 표준화된 체질분류변수, Xi는 체질분류변수, mi, σi는 각 변수의 평균과 표준편차를 각각 나타내는 것으로 할 때, 이하의 [식 4]를 이용하여 변수들의 표준화 변환을 수행하도록 구성된 것을 특징으로 한다.
[식 4]
Figure 112010063722229-pat00004

계속해서, 상기 최종적인 체질을 판단하는 단계는, 각각의 개별 알고리즘에서 산출되는 태음인(TE), 소음인(SE), 소양인(SY)의 확률값을 체질별로 모두 더한 값 중 가장 큰 값을 가지는 체질을 최종적인 체질로 판별하는 것을 특징으로 한다.
여기서, 상기 최종적인 체질을 판단하는 단계는, 설문, 체형, 안면, 음성의 개별 진단결과에서 각 체질별로 확률값을 합산하여, 음성결과가 없는 경우는 최대값이 1.2보다, 음성결과가 있는 경우는 최대값이 1.6보다 큰 경우에만 해당하는 체질로 판별하는 것을 특징으로 한다.
상기한 바와 같이 본 발명에 따르면, 인체의 특정한 한 부분에 대한 정보와 사용자가 입력한 설문결과에만 근거하여 체질을 판정하므로 판정결과의 객관성 및 정확도에 한계를 가질 수밖에 없었던 종래의 체질진단방법들의 문제점을 해결하여, 사람의 얼굴, 설문, 체형, 음성 등의 정보를 종합적으로 이용하여 보다 객관적이고 정확하게 체질을 판별할 수 있도록 하는 통합정보를 이용한 체질판단방법을 제공할 수 있다.
도 1은 본 발명에 따른 통합정보를 이용한 체질판단방법의 전체적인 처리과정을 나타내는 플로차트이다.
도 2는 본 발명에 따른 통합정보를 이용한 체질판단방법의 안면정보 처리과정을 나타내는 플로차트이다.
도 3은 연령에 따라 변동하는 변수에 대한 연령구간을 나타내는 그래프이다.
도 4는 도 4는 본 발명에 따른 통합정보를 이용한 체질판단방법의 설문정보 처리과정을 개략적으로 나타내는 플로차트이다.
도 5는 본 발명에 따른 통합정보를 이용한 체질판단방법의 체형정보 처리과정을 개략적으로 나타내는 플로차트이다.
도 6은 본 발명에 따른 통합정보를 이용한 체질판단방법의 음성정보 처리과정을 개략적으로 나타내는 플로차트이다.
이하, 첨부된 도면을 참조하여, 본 발명에 따른 통합정보를 이용한 체질판단방법의 상세한 내용에 대하여 설명한다.
여기서, 이하에 설명하는 내용은 본 발명을 실시하기 위한 하나의 실시예일 뿐이며, 본 발명은 이하에 설명하는 실시예의 내용으로만 한정되는 것은 아니라는 사실에 유념해야 한다.
먼저, 도 1을 참조하여, 본 발명에 따른 통합정보를 이용한 체질판단방법의 전체적인 처리과정에 대하여 설명한다.
즉, 본 발명은, 사람의 얼굴, 설문, 체형, 음성 등의 정보를 종합적으로 이용하여 보다 객관적이고 정확하게 체질을 판별할 수 있도록 하는 통합정보를 이용한 체질판단방법에 관한 것으로, 도 1에 나타낸 바와 같이, 크게 나누어, 안면에 대한 정보를 획득하여 처리하는 단계(S11)와, 설문에 대한 정보를 획득하여 처리하는 단계(S12)와, 체형에 대한 정보를 획득하여 처리하는 단계(S13)와, 음성에 대한 정보를 획득하여 처리하는 단계(S14) 및 상기한 각각의 단계에서 얻어진 처리결과들을 종합하여 최종적인 체질을 판단하는 단계(S15)를 각각 포함하여 이루어진다.
계속해서, 도 2를 참조하여, 본 발명에 따른 통합정보를 이용한 체질판단방법의 안면정보 처리과정에 대하여 설명한다.
도 2를 참조하면, 도 1은 본 발명에 따른 통합정보를 이용한 체질판단방법의 안면정보 처리과정을 개략적으로 나타내는 플로차트이다.
도 2에 나타낸 바와 같이, 안면정보 처리과정은, 사진으로부터 특정점을 추출하는 추출단계(S21)와, 정면 및 측면에 대하여 안면정보가 측정된 피험자의 약리점수, 전문가 확신도 점수, 설문점수, 체험점수를 합산하여, 합산 결과 상위 90%의 피험자를 선택하는 선택단계(S22)와, 틸팅(tilting)된 정면사진에 대한 각도보정 및 얼굴 기준선을 추정하는 추정단계(S23)와, 보정된 사진을 바탕으로 거리, 각도, 기울기, 비율, 면적, 곡률정보에 대한 계산을 행하는 계산단계(S24)와, 각 표본에 대한 자동생성변수의 취합 및 자동생성시 나타나는 오류 표본을 제거하는 취합단계(S25)와, 결측이 발생한 변수 및 표본에 대한 미싱 임퓨테이션(missing imputation) 단계(S26)와, 측정범위를 벗어나는 값을 검출하는 아웃라이어 디텍션(outlier detection) 단계(S27) 및 각 변수의 표준화와 연령효과를 조정하는 조정단계(S28)를 포함하여 이루어진다.
여기서, 연령효과의 보정은, 도 3에 나타낸 바와 같이, 사람의 얼굴은 노화에 기인한 형태 변화로 인해 연령에 따라 여러 변수들의 값이 증가 또는 감소하는 패턴을 보이게 되므로, 정확한 판정을 위해서는 이러한 패턴을 보정해줄 필요가 있다.
따라서 연령에 따라 여러 변수의 값들이 증가하거나 감소하는 패턴을 보정하기 위해, 각 연령 구간별로 표준화한 Z 스코어(Z-score) 점수를 계산하여 보정하며, 이때, 구간별 표준화를 위한 연령 구간별 변수의 대표값은 해당 연령을 기준으로 ±2세 구간의 평균과 표준편차를 이용한다.
또한, 본 실시예에서, 현재는 연령변화에 따른 대표값의 변동이 크지만, 추후 충분한 양의 표본을 수집할 경우 연령 구간별 변동폭이 감소할 것으로 기대할 수 있다.
상기한 바와 같이 하여 안면변수를 이용한 진단을 실시하였으며, 이때, 연령패턴을 보정한 62개 변수를 사용하여 남, 여 각각 판별 분석을 실시하였고, 모형에 사용되는 변수는 계단식 선택(stepwise selection) 방법으로 선택되었다.
그 결과, 남녀 선택변수로 나타난 판별함수 결과 및 판별정확도 결과는 남자의 경우 판별정확도 51.8%, 여자의 경우는 53.5%로 다소 낮았으나, 이는 안면만을 이용한 결과이므로 다소 낮게 나타난 것으로 판단할 수 있다.
다음으로, 도 4를 참조하여, 본 발명에 따른 통합정보를 이용한 체질판단방법의 설문정보 처리과정에 대하여 설명한다.
도 4를 참조하면, 도 4는 본 발명에 따른 통합정보를 이용한 체질판단방법의 설문정보 처리과정을 개략적으로 나타내는 플로차트이다.
도 4에 나타낸 바와 같이, 설문정보 처리과정은, 주요변수를 추출(significant varibles extrection)하는 단계(S41)와, 가중치(weight)를 계산하는 단계(S42)와, 체질별 주요변수 스코어(constitutional significant varible score)를 산출하는 단계(S43)와, 표본 체질별 설문점수(typical constitutional questionnaire score)를 산출하는 판별식 분석(discriminant analysis) 단계(S44)를 포함하여 이루어진다.
도 4에 있어서, TE는 태음인, SE는 소음인, SY는 소양인을 나타내며, 그룹 구성은 태음인과 비태음인 그룹, 소음인과 비소음인 그룹, 소양인과 비소양인 그룹으로 나누어 실시하였다.
여기서, 설문정보 처리과정은, 상기한 안면정보 처리과정과 마찬가지로, 상기한 바와 같이 상위 90%의 피험자를 선택하는 선택단계를 더 포함할 수 있다.
또한, 주요변수를 추출하는 단계(S41)는 이하의 [식 1]을 이용하여 수행되며, 이하의 [식 1]에서 Oi는 관측빈도(observed frequency), Ei는 기대빈도(expected frequency), n은 각 이벤트의 가능한 발생(outcome)의 수를 각각 나타낸다.
[식 1]
Figure 112010063722229-pat00005

다음으로, 가중치를 계산하는 단계(S42)는, 도 4에 나타낸 바와 같이, -log X2의 식을 이용하여 수행되고, 여기서, 관측빈도(Oi)의 값이 기대빈도(Ei)의 값보다 크면 가중치가 양의 값이 되고, 관측빈도(Oi)의 값이 기대빈도(Ei)의 값보다 작으면 가중치가 음의 값이 된다.
계속해서, 체질별 주요변수 스코어를 산출하는 단계(S43)는, 이하의 [식 2]를 이용하여 수행된다.
[식 2]
Figure 112010063722229-pat00006

여기서, a는 양의 가중값이고, b는 음의 가중값을 각각 나타내며, 따라서 A는 양의 가중값의 합이고, B는 음의 가중값의 합이 된다.
다음으로, 표본 체질별 설문점수를 산출하는 판별식 분석단계(S44)는, TE, SE, SY의 각각에 대하여 A-B 점수를 계산하여 수행된다.
또한, 상기한 바와 같이 하여 설문 진단 모델을 이용한 결과, 남성은 64.3%, 여성은 57.5%의 일치율을 나타내었다.
계속해서, 도 5를 참조하여, 본 발명에 따른 통합정보를 이용한 체질판단방법의 체형정보 처리과정에 대하여 설명한다.
도 5를 참조하면, 도 5는 본 발명에 따른 통합정보를 이용한 체질판단방법의 체형정보 처리과정을 개략적으로 나타내는 플로차트이다.
도 5에 나타낸 바와 같이, 체형정보 처리과정은, 대상군을 태음인: 비태음인, 소음인: 비소음인, 소양인: 비소양인으로 나누어 5부위 너비, 8부위 둘레, 키, 몸무게, 체질량 지수를 이용하여 유의항목을 도출하고, 이를 판별, 분석하여 체질확률값(각 체질의 전형성을 나타내는 확률값)을 도출함으로써, 체형진단모델을 개발하는 것이다.
즉, 상기한 체형모델 개발과정은, 먼저, 독립 샘플 T-테스트(independent sample T-test) 단계(S51)와, 판별식 분석단계(S52)를 포함하여 이루어진다.
또한, 체형모델 개발과정에서도, 상기한 안면정보 처리과정 및 설문정보 처리과정과 마찬가지로, 상기한 바와 같이 상위 90%의 피험자를 선택하는 선택단계를 더 포함할 수 있다.
여기서 독립 샘플 T-테스트 단계(S51)는, 이하의 [식 3]을 이용하여 수행되며, 이하의 [식 3]에 있어서, X1은 표본 1의 평균이고, X2는 표본 2의 평균이며, s1, s2는 각 표본의 분산을 나타내고, n1 및 n2는 각각 표본 1 및 표본 2의 크기를 나타낸다.
[식 3]
Figure 112010063722229-pat00007

여기서, 변수(variables)는 남(man)과 여(woman)에 대하여 각각 도 4에 나타낸 바와 같으며, 판별식 분석단계(S52)에서는, TE, SE, SY의 각각에 대하여 퍼센트로 표본 체질적 체형(typical constitutional body shape)을 나타낸다.
또한, 상기한 바와 같이 하여 체형 진단 모델을 이용한 결과, 남성은 60.8%, 여성은 57.0%의 일치율을 나타내었다.
다음으로, 도 6을 참조하여, 본 발명에 따른 통합정보를 이용한 체질판단방법의 음성정보 처리과정에 대하여 설명한다.
도 6을 참조하면, 도 6은 본 발명에 따른 통합정보를 이용한 체질판단방법의 음성정보 처리과정을 개략적으로 나타내는 플로차트이다.
도 6에 나타낸 바와 같이, 음성정보 처리과정은, 5개의 모음과 문장에서 총 144개의 음성특징변수를 추출하고, 추출된 음성특징변수 후보로부터 음성 체질진단 모델을 개발하는 것이다.
즉, 더 상세하게는 음성 체질진단 모델의 개발과정은, 음성특징변수 후보를 선별하는 단계(S61)와, 판별분석에 사용할 변수를 선택 및 변환하는 단계(S62)와, 체질을 판별하고 분석하는 단계(S63)를 포함하여 이루어진다.
또한, 음성 체질진단 모델의 개발과정에서도, 상기한 과정들과 마찬가지로, 상위 90%의 피험자를 선택하는 선택단계를 더 포함할 수 있다.
여기서, 음성특징변수 후보를 선별하는 단계(S61)는, 피치, 세기, 포먼트와 MDVP 변수를 추출하는 단계와, MFCC 변수를 추출하는 단계로 이루어지며, 피치, 세기, 포먼트와 MDVP 변수를 추출하는 단계는, 각 모음에서 피치, 세기, 1차 및 2차 포먼트, 이에 대한 -3dB 대역폭, 최대 진폭, 최소 진폭 값을 계산하고, 문장에서 피치와 세기를 구하여 두 신호의 10, 50, 90번째 백분위수와 이들간의 비, 상관도를 계산한 후, 지정된 모음구간에 대해서 피치와 최대/최소 진폭신호를 이용하여 윈도우 크기를 달리하면서 발성시 피치의 변화정도를 나타내는 지터(Jitter) 계열 변수들(Jita, Jitt, RAP, PPQ)과 진폭의 변화정도를 나타내는 시머(Shimmer) 계열 변수들(ShdB, Shim, APQ)을 추출하여 MDVP 변수를 추출한다.
또한, MFCC 변수를 추출하는 단계는, 각 모음별로 유효한 분절 구간에 대해 12차 MFCC 변수와 1개의 에너지 변수 추출하여 이루어진다.
다음으로, 판별분석에 사용할 변수를 선택 및 변환하는 단계(S62)는, 두 개 이상의 모집단 평균간의 차이를 검증하는 분산분석(ANOVA)과 사후검정을 수행하여 통계적으로 유의미한(p < 0.05) 변수를 추출한다.
그 결과, 남자의 경우는 F0 계열 변수와 MFCC 변수, 여자의 경우는 포먼트 계열 변수와 MFCC 변수가 체질을 구분하는 주요 변수로 작용하게 된다.
이어서, 체질을 판별하고 분석하는 단계(S63)에서는, 체질분류에 사용할 변수들의 값의 범위가 상이한 것을 조정하기 위해, 이하의 [식 4]를 이용하여 변수들의 표준화 변환을 수행하고 Z 점수를 산출한다.
[식 4]
Figure 112010063722229-pat00008

상기한 [식 4]에서, i는 변수명이고, Zi는 표준화된 체질분류변수, Xi는 체질분류변수, mi, σi는 각 변수의 평균과 표준편차를 각각 나타낸다.
또한, 상기한 바와 같이 하여 산출된 Z점수를 이용하여 음성 진단 모델을 이용한 판별분석을 수행한 결과, 남성은 51.7%, 여성은 43.3%의 일치율을 나타내었다.
다음으로, 상기한 바와 같은 각각의 정보를 이용한 판별방법을 종합하여 통합정보를 이용한 체질판단방법을 제공하기 위한 통합 체질진단방법의 구체적인 내용에 대하여 설명한다.
즉, 본 발명은, 상기한 바와 같은 개별 진단결과를 기반으로, 각 개별 진단결과를 활용하여 보다 정확하게 체질을 판별하기 위한 통합정보를 이용한 체질진단방법을 제공하고자 하는 것이다.
먼저, 상기한 바와 같은 각각의 설문, 체형, 안면의 개별 진단결과 중 2개 이상의 체질진단 결과가 일치하는 경우의 진단결과의 일치율과 판별정확도를 계산한 결과, 일치율은 남성 85.8%, 여성 86.8%에서 2개 이상의 진단결과가 일치하였고, 이때의 판별정확도는 남성 68.5%, 여성 67.1%로 나타난 것을 확인하였다.
또한,설문, 체형, 안면의 개별 진단결과가 모두 일치한 경우는, 진단결과가 모두 일치하는 비율은 비록 50% 이하였지만, 그 판별정확도는 80% 이상으로 높아진 것을 확인할 수 있었다.
따라서 상기한 바와 같은 결과를 토대로, 개별 알고리즘에서 산출되는 TE, SE, SY의 확률값을 체질별로 모두 더한 값 중 가장 큰 값을 가지는 체질을 최종적인 체질로 판별하도록 함으로써, 개별 체질진단 확률에 기반하는 통합정보를 이용한 체질진단방법을 제공할 수 있다.
또한, 이때, 설문, 체형, 안면, 음성의 개별 진단결과에서 각 체질별로 확률값을 합산하여 최대값이 1.2(음성결과가 없는 경우) 또는 1.6(음성결과가 있는 경우)보다 큰 경우에만 그 값에 해당하는 체질로 판별하도록 한다.
즉, 상기한 바와 같이, 각 체질별로 확률값을 합산하여 최대값이 1.2(음성결과가 없는 경우) 또는 1.6(음성결과가 있는 경우)보다 큰 경우에만 그 값에 해당하는 체질로 판별하도록 했을 때, 판정율은 남성 88.1%, 여성 83.0%이었고, 판별 정확도는 남성 74.9%, 여성 70.8%로 매우 높게 나타난 것을 확인하였다.
따라서 본 발명에 따르면, 상기한 바와 같이 하여 개별 알고리즘에서 산출되는 TE, SE, SY의 확률값을 체질별로 모두 더한 값 중 가장 큰 값을 가지는 체질을 최종적인 체질로 판별하도록 함으로써, 통합정보를 이용한 체질판단방법을 제공할 수 있다.
이상 상기한 바와 같은 본 발명의 실시예를 통하여 본 발명에 따른 통합정보를 이용한 체질판단방법의 상세한 내용에 대하여 설명하였으나, 본 발명은 상기한 실시예에 기재된 내용으로만 한정되는 것은 아니며, 따라서 본 발명은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 설계상의 필요 및 기타 다양한 요인에 따라 여러 가지 수정, 변경, 결합 및 대체 등이 가능한 것임은 당연한 일이라 하겠다.

Claims (19)

  1. 사람의 얼굴, 설문, 체형, 음성에 대한 정보를 포함하는 통합정보를 컴퓨터를 통하여 처리함으로써 상기 통합정보로부터 체질정보를 분석하여 출력하는 통합정보를 이용한 체질정보 분석방법에 있어서,
    상기 처리는,
    상기 통합정보 중 안면에 대한 정보를 획득하여 처리하는 단계;
    상기 통합정보 중 설문에 대한 정보를 획득하여 처리하는 단계;
    상기 통합정보 중 체형에 대한 정보를 획득하여 처리하는 단계;
    상기 통합정보 중 음성에 대한 정보를 획득하여 처리하는 단계; 및
    상기한 각각의 단계에서 얻어진 처리결과들에 근거하여 최종적으로 분석된 체질정보를 출력장치에 출력하는 단계;
    를 포함하는 통합정보를 이용한 체질정보 분석방법.
  2. 제 1항에 있어서,
    상기 안면에 대한 정보를 획득하여 처리하는 단계는,
    사진으로부터 특정점을 추출하는 추출단계;
    약리점수, 전문가 확신도 점수, 설문점수, 체험점수를 합산하여, 합산 결과 상위 90%에 해당하는 피험자를 선택하는 선택단계;
    틸팅(tilting)된 정면사진에 대한 각도보정 및 얼굴 기준선을 추정하는 추정단계;
    보정된 사진을 바탕으로 거리, 각도, 기울기, 비율, 면적, 곡률정보에 대한 계산을 행하는 계산단계;
    각 표본에 대한 자동생성변수의 취합 및 자동생성시 나타나는 오류 표본을 제거하는 취합단계;
    결측이 발생한 변수 및 표본에 대한 미싱 임퓨테이션(missing imputation)을 행하는 단계;
    측정범위를 벗어나는 값을 검출하는 아웃라이어 디텍션(outlier detection) 단계; 및
    각 변수의 표준화와 연령효과를 조정하는 조정단계;
    를 포함하는 것을 특징으로 하는 통합정보를 이용한 체질정보 분석방법.
  3. 제 2항에 있어서,
    상기 조정단계는, 연령에 따라 여러 변수의 값들이 증가하거나 감소하는 패턴을 보정하기 위해, 각 연령 구간별로 표준화한 Z 스코어(Z-score) 점수를 계산하여 보정하며,
    상기 각 연령 구간별로 표준화를 위한 연령 구간별 변수의 대표값은, 해당 연령을 기준으로 ±2세 구간의 평균과 표준편차를 이용하는 것을 특징으로 하는 통합정보를 이용한 체질정보 분석방법.
  4. 제 1항에 있어서,
    상기 설문에 대한 정보를 획득하여 처리하는 단계는,
    약리점수, 전문가 확신도 점수, 설문점수, 체험점수를 합산하여, 합산 결과 상위 90%에 해당하는 피험자를 선택하는 선택단계;
    주요변수를 추출(significant varibles extrection)하는 단계;
    가중치(weight)를 계산하는 단계;
    체질별 주요변수 스코어(constitutional significant varible score)를 산출하는 단계; 및
    표본 체질별 설문점수(typical constitutional questionnaire score)를 산출하는 판별식 분석(discriminant analysis)단계;
    를 포함하는 것을 특징으로 하는 통합정보를 이용한 체질정보 분석방법.
  5. 제 4항에 있어서,
    상기 주요변수를 추출하는 단계는,
    Oi는 관측빈도(observed frequency), Ei는 기대빈도(expected frequency), n은 각 이벤트의 가능한 발생(outcome)의 수를 각각 나타내는 것으로 할 때, 이하의 [식 1]을 이용하여 수행되는 것을 특징으로 하는 통합정보를 이용한 체질정보 분석방법.

    [식 1]

  6. 제 4항에 있어서,
    상기 가중치를 계산하는 단계는, -log X2의 식을 이용하여 수행되는 것을 특징으로 하는 통합정보를 이용한 체질정보 분석방법.
  7. 제 4항에 있어서,
    상기 체질별 주요변수 스코어를 산출하는 단계는, a는 양의 가중값이고, b는 음의 가중값을 각각 나타낼 때, 이하의 [식 2]를 이용하여 수행되는 것을 특징으로 하는 통합정보를 이용한 체질정보 분석방법.

    [식 2]
    Figure 112012043800912-pat00010

  8. 제 7항에 있어서,
    상기 표본 체질별 설문점수를 산출하는 판별식 분석단계는, 태음인(TE), 소음인(SE), 소양인(SY)의 각각에 대하여, 상기 A의 값과 상기 B의 값의 차(A - B)를 계산하여 수행되는 것을 특징으로 하는 통합정보를 이용한 체질정보 분석방법.
  9. 제 1항에 있어서,
    상기 체형에 대한 정보를 획득하여 처리하는 단계는,
    약리점수, 전문가 확신도 점수, 설문점수, 체험점수를 합산하여, 합산 결과 상위 90%에 해당하는 피험자를 선택하는 선택단계;
    독립 샘플 T-테스트(independent sample T-test) 단계; 및
    판별식 분석단계;
    를 포함하는 것을 특징으로 하는 통합정보를 이용한 체질정보 분석방법.
  10. 제 9항에 있어서,
    상기 독립 샘플 T-테스트 단계는, X1은 표본 1의 평균이고, X2는 표본 2의 평균이며, s1, s2는 각 표본의 분산을 나타내고, n1 및 n2는 각각 표본 1 및 표본 2의 크기를 나타내는 것으로 할 때, 이하의 [식 3]을 이용하여 수행되는 것을 특징으로 하는 통합정보를 이용한 체질정보 분석방법.

    [식 3]
    Figure 112012043800912-pat00011

  11. 제 10항에 있어서,
    상기 판별식 분석단계는, 태음인(TE), 소음인(SE), 소양인(SY)의 각각에 대하여 퍼센트로 표본 체질적 체형(typical constitutional body shape)을 나타내는 것을 특징으로 하는 통합정보를 이용한 체질정보 분석방법.
  12. 제 1항에 있어서,
    상기 음성에 대한 정보를 획득하여 처리하는 단계는,
    약리점수, 전문가 확신도 점수, 설문점수, 체험점수를 합산하여, 합산 결과 상위 90%에 해당하는 피험자를 선택하는 선택단계;
    음성특징변수 후보를 선별하는 단계;
    판별분석에 사용할 변수를 선택 및 변환하는 단계; 및
    체질을 판별하고 분석하는 단계;
    를 포함하는 것을 특징으로 하는 통합정보를 이용한 체질정보 분석방법.
  13. 제 12항에 있어서,
    상기 음성특징변수 후보를 선별하는 단계는,
    피치, 세기, 포먼트와 MDVP 변수를 추출하는 단계; 및
    MFCC 변수를 추출하는 단계;
    를 포함하는 것을 특징으로 하는 통합정보를 이용한 체질정보 분석방법.
  14. 제 13항에 있어서,
    상기 피치, 세기, 포먼트와 MDVP 변수를 추출하는 단계는,
    각 모음(母音, vowel)에서 피치, 세기, 1차 포먼트 및 2차 포먼트, 상기 1차 포먼트 및 상기 2차 포먼트에 대한 -3dB 대역폭, 최대 진폭, 최소 진폭 값을 계산하는 단계;
    문장에서 피치와 세기를 구하여 두 신호의 10, 50, 90번째 백분위수와 이들간의 비, 상관도를 계산하는 단계; 및
    지정된 모음 구간에 대하여 상기 피치와 상기 최대 진폭 값 및 상기 최소 진폭 값을 이용하여, 발성시 피치의 변화 정도를 나타내는 지터(Jitter) 계열 변수(Jita, Jitt, RAP, PPQ) 및 진폭의 변화 정도를 나타내는 시머(Shimmer) 계열 변수(ShdB, Shim, APQ)를 추출하여 MDVP 변수를 추출하는 단계;
    를 포함하는 것을 특징으로 하는 통합정보를 이용한 체질정보 분석방법.
  15. 제 13항에 있어서,
    상기 MFCC 변수를 추출하는 단계는,
    각 모음별로 유효한 분절 구간에 대해 12차 MFCC 변수와 1개의 에너지 변수를 추출하는 것을 특징으로 하는 통합정보를 이용한 체질정보 분석방법.
  16. 제 13항에 있어서,
    상기 판별분석에 사용할 변수를 선택 및 변환하는 단계는,
    두 개 이상의 모집단 평균간의 차이를 검증하는 분산분석(ANOVA)과 사후검정을 수행하여 통계적으로 유의미한 변수를 추출하는 단계;
    를 포함하는 것을 특징으로 하는 통합정보를 이용한 체질정보 분석방법.
  17. 제 12항에 있어서,
    상기 체질을 판별하고 분석하는 단계는,
    체질분류에 사용할 변수들의 값의 범위가 상이한 것을 조정하기 위해 표준화 변환을 수행하는 단계;
    를 포함하고,
    상기 표준화 변환을 수행하는 단계는, i는 변수명이고, Zi는 표준화된 체질분류변수, Xi는 체질분류변수, mi, σi는 각 변수의 평균과 표준편차를 각각 나타내는 것으로 할 때, 이하의 [식 4]를 이용하여 상기 표준화 변환을 수행하는 것을 특징으로 하는 통합정보를 이용한 체질정보 분석방법.

    [식 4]
    Figure 112012043800912-pat00012

  18. 제 1항에 있어서,
    상기 최종적으로 분석된 체질정보를 출력장치에 출력하는 단계는,
    각각의 개별 알고리즘에서 산출되는 태음인(TE), 소음인(SE), 소양인(SY)의 확률값을 체질별로 모두 더한 값 중 가장 큰 값을 가지는 체질을 최종적인 체질로 결정하여 상기 체질정보를 출력하는 것을 특징으로 하는 통합정보를 이용한 체질정보 분석방법.
  19. 제 18항에 있어서,
    상기 최종적으로 분석된 체질정보를 출력장치에 출력하는 단계는,
    설문, 체형, 안면, 음성의 개별 진단결과에서 각 체질별로 확률값을 합산하여, 음성결과가 없는 경우는 최대값이 1.2보다, 음성결과가 있는 경우는 최대값이 1.6보다 큰 경우에만 해당하는 체질을 최종적인 체질로 결정하여 상기 체질정보를 출력하는 것을 특징으로 하는 통합정보를 이용한 체질정보 분석방법.
KR20100096068A 2010-10-01 2010-10-01 통합정보를 이용한 체질정보 분석방법 KR101220399B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR20100096068A KR101220399B1 (ko) 2010-10-01 2010-10-01 통합정보를 이용한 체질정보 분석방법
CN201080070478.1A CN103249353B (zh) 2010-10-01 2010-12-23 用于利用整合的信息确定体质的方法
PCT/KR2010/009264 WO2012043935A1 (ko) 2010-10-01 2010-12-23 통합정보를 이용한 체질판단방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20100096068A KR101220399B1 (ko) 2010-10-01 2010-10-01 통합정보를 이용한 체질정보 분석방법

Publications (2)

Publication Number Publication Date
KR20120034475A KR20120034475A (ko) 2012-04-12
KR101220399B1 true KR101220399B1 (ko) 2013-01-09

Family

ID=45893354

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20100096068A KR101220399B1 (ko) 2010-10-01 2010-10-01 통합정보를 이용한 체질정보 분석방법

Country Status (3)

Country Link
KR (1) KR101220399B1 (ko)
CN (1) CN103249353B (ko)
WO (1) WO2012043935A1 (ko)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101387896B1 (ko) * 2012-09-24 2014-04-21 한국 한의학 연구원 체질 및 건강 판단 장치 및 그의 체질 및 건강 판단 방법
CN106137128A (zh) * 2016-06-24 2016-11-23 何颖 人体健康检测方法
KR101715567B1 (ko) * 2016-07-21 2017-03-13 동국대학교 경주캠퍼스 산학협력단 사상체질전문가의 체질 진단에서의 시진(視診) 또는 망진(望診) 상의 오류를 교정하기 위한 얼굴 분석 시스템
KR102002279B1 (ko) * 2017-04-06 2019-07-23 한국한의학연구원 3차원 안면 진단 장치
KR102156699B1 (ko) 2018-11-14 2020-09-17 한국한의학연구원 소음인 판별용 조성물
KR102181022B1 (ko) 2018-12-03 2020-11-19 박상순 사상 체질 판단 방법 및 그 방법을 이용한 프로그램
US11779222B2 (en) 2019-07-10 2023-10-10 Compal Electronics, Inc. Method of and imaging system for clinical sign detection

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030095474A (ko) * 2002-06-10 2003-12-24 휴먼씽크(주) 피치 분석 방법 및 그 장치와, 사상체질 감별 방법 및 그시스템과, 사상체질 감별 프로그램을 내장한 컴퓨터가판독 가능한 기록매체
KR20050110093A (ko) * 2004-05-17 2005-11-22 엘지전자 주식회사 휴대단말기를 이용한 사상의학 체질 운용장치 및 방법
KR20070031145A (ko) * 2005-09-14 2007-03-19 엘지전자 주식회사 신체정보를 이용한 사용자 진단 방법
KR20090101557A (ko) * 2008-03-24 2009-09-29 학교법인 동의학원 사상체질 자동진단기

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1120923A (zh) * 1993-09-18 1996-04-24 孙绍山 便携式四项体质鉴别健康卡及其应用
JPH09231413A (ja) * 1996-02-22 1997-09-05 Suzuki Nobuo 体格プロセッサ
CN1716267A (zh) * 2005-07-21 2006-01-04 高春平 个性化立体养生保健方法及装置
KR100919838B1 (ko) * 2009-05-14 2009-10-01 한국 한의학 연구원 건강관리장치 및 그 장치의 제어방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030095474A (ko) * 2002-06-10 2003-12-24 휴먼씽크(주) 피치 분석 방법 및 그 장치와, 사상체질 감별 방법 및 그시스템과, 사상체질 감별 프로그램을 내장한 컴퓨터가판독 가능한 기록매체
KR20050110093A (ko) * 2004-05-17 2005-11-22 엘지전자 주식회사 휴대단말기를 이용한 사상의학 체질 운용장치 및 방법
KR20070031145A (ko) * 2005-09-14 2007-03-19 엘지전자 주식회사 신체정보를 이용한 사용자 진단 방법
KR20090101557A (ko) * 2008-03-24 2009-09-29 학교법인 동의학원 사상체질 자동진단기

Also Published As

Publication number Publication date
CN103249353B (zh) 2015-04-22
WO2012043935A1 (ko) 2012-04-05
KR20120034475A (ko) 2012-04-12
CN103249353A (zh) 2013-08-14

Similar Documents

Publication Publication Date Title
KR101220399B1 (ko) 통합정보를 이용한 체질정보 분석방법
Al-Nasheri et al. An investigation of multidimensional voice program parameters in three different databases for voice pathology detection and classification
CN103730130B (zh) 一种病理嗓音的检测系统
Saenz-Lechon et al. Methodological issues in the development of automatic systems for voice pathology detection
CN106073706B (zh) 一种面向简易精神状态量表的个性化信息和音频数据分析方法及系统
CN107657964A (zh) 基于声学特征和稀疏数学的抑郁症辅助检测方法及分类器
Sáenz-Lechón et al. Automatic assessment of voice quality according to the GRBAS scale
Ali et al. Intra-and inter-database study for Arabic, English, and German databases: do conventional speech features detect voice pathology?
CN110600053A (zh) 一种基于ResNet与LSTM网络的脑卒中构音障碍风险预测方法
Egas López et al. Assessing Parkinson’s disease from speech using fisher vectors
Giuliano et al. Selection of voice parameters for Parkinson´ s disease prediction from collected mobile data
Majda-Zdancewicz et al. Deep learning vs feature engineering in the assessment of voice signals for diagnosis in Parkinson’s disease
Al-Dhief et al. Dysphonia detection based on voice signals using naive bayes classifier
US20240057936A1 (en) Speech-analysis based automated physiological and pathological assessment
Seedat et al. Automated and interpretable m-health discrimination of vocal cord pathology enabled by machine learning
Yu et al. Multidimensional acoustic analysis for voice quality assessment based on the GRBAS scale
Gidaye et al. Application of glottal flow descriptors for pathological voice diagnosis
US20230386504A1 (en) System and method for pathological voice recognition and computer-readable storage medium
AL-Dhief et al. Voice Pathology Detection Using Decision Tree Classifier
Karan Speech-Based Parkinson’s Disease Prediction Using XGBoost-Based Features Selection and the Stacked Ensemble of Classifiers
Kumar et al. Parkinson’s Speech Detection Using YAMNet
Carullo et al. Rehabilitation monitoring of post-laryngectomy patients through the extraction of vocal parameters
Carullo et al. Vocal-Feature-Based Classification of Post-Laryngectomy Patients for Rehabilitation Monitoring
Kashyap et al. Automated tongue-twister phrase-based screening for Cerebellar Ataxia using Vocal tract Biomarkers
Kurmi et al. Classification of Amyotrophic Lateral Sclerosis Patients using speech signals

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20151230

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170103

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180403

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20190108

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20200103

Year of fee payment: 8