KR20140142330A - 환자 소리들을 처리하기 위한 방법 및 장치 - Google Patents

환자 소리들을 처리하기 위한 방법 및 장치 Download PDF

Info

Publication number
KR20140142330A
KR20140142330A KR1020147030062A KR20147030062A KR20140142330A KR 20140142330 A KR20140142330 A KR 20140142330A KR 1020147030062 A KR1020147030062 A KR 1020147030062A KR 20147030062 A KR20147030062 A KR 20147030062A KR 20140142330 A KR20140142330 A KR 20140142330A
Authority
KR
South Korea
Prior art keywords
cough
sounds
pneumonia
patient
features
Prior art date
Application number
KR1020147030062A
Other languages
English (en)
Other versions
KR102081241B1 (ko
Inventor
우단다 알. 아비라트네
비나약 스완카르
유수프 에이. 암룰로
Original Assignee
더 유니버서티 어브 퀸슬랜드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from AU2012901255A external-priority patent/AU2012901255A0/en
Application filed by 더 유니버서티 어브 퀸슬랜드 filed Critical 더 유니버서티 어브 퀸슬랜드
Publication of KR20140142330A publication Critical patent/KR20140142330A/ko
Application granted granted Critical
Publication of KR102081241B1 publication Critical patent/KR102081241B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B7/00Instruments for auscultation
    • A61B7/003Detecting lung or respiration noise
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • A61B5/0823Detecting or evaluating cough events
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B7/00Instruments for auscultation
    • A61B7/02Stethoscopes
    • A61B7/04Electric stethoscopes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/66Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for extracting parameters related to health condition
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • A61B5/0803Recording apparatus specially adapted therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/08Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/12Classification; Matching
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Pulmonology (AREA)
  • Biophysics (AREA)
  • Acoustics & Sound (AREA)
  • Epidemiology (AREA)
  • Physiology (AREA)
  • Databases & Information Systems (AREA)
  • Primary Health Care (AREA)
  • Data Mining & Analysis (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Surgical Instruments (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)

Abstract

환자 소리들을 처리하기 위해 계산 장치를 동작시키는 방법으로서, 상기 방법은: 상기 환자의 소리들의 세그먼트들로부터 특징들을 추출하는 단계; 상기 추출된 특징들 및 미리 정해진 기준에 기초하여 상기 세그먼트들을 기침 또는 비 기침 소리들로서 분류하는 단계; 및 기침 소리들로서 분류되는 환자 소리들의 세그먼트들에 기초하여 계산 장치의 제어 하에 디스플레이 상에 질병 관련 상태의 진단을 제시하는 단계를 포함한다.

Description

환자 소리들을 처리하기 위한 방법 및 장치{A METHOD AND APPARATUS FOR PROCESSING PATIENT SOUNDS}
제1 양태에서, 본 발명은 환자의 기침 소리(cough sound)들을 검출하기 위한 방법 및 장치와 관련된다. 제2 양태에서, 본 발명은 기침 소리들과 같은 환자 소리들로부터 질병 상태들을 진단하기 위한 방법 및 장치와 관련된다.
종래 기술의 방법들, 장치들 또는 문서들에 대한 어떠한 참고문헌들도 이들이 보통의 일반적 지식을 형성하였다거나 또는 이런 지식의 일부를 형성한다는 증거 또는 승인을 구성하는 것으로 여겨서는 안 된다.
기침은 우연히 들이마시거나 감염에 의해 내부적으로 생성되는 이 물질(foreign material)들로부터 기도(respiratory tract)를 깨끗하게 하기 위한 몸의 방어 기제이다[1]. 이것은 천식과 백일해(pertussis)뿐만 아니라 폐렴(pneumonia)과 같은 호흡기 질환 영역에서의 공통 증상인데, 이는 5세 미만의 소아들에게는 사망의 1급 요인이다. 폐렴이 이 연령대에서 연간 160만 명을 넘는 사망을 초래한다고 추정되었는데[2], 97%를 넘는 경우가 개발 도상 국가에서 발생하고 있다[3]. 세계 보건 기구(WHO)는 또한 그런 국가들에서, 백일해가 주요 유아기 이환율(morbidity)들 중 하나가 되었고 매년 5천만명의 추정 환자와 30만명의 사망자를 낳는다고 보고하였다[4].
기침이 호흡기 질환들에 흔한 것이고 중요한 임상적 증상으로 여겨지기는 하지만, 그것을 평가하기 위한 어떤 황금 표준도 없다. 전형적 진찰 모임에서, 의사들은 기침의 "젖음 정도(wetness)"와 같은 정성적 정보를 획득하기 위해, 자연적 또는 자발적 기침들의 여러 에피소드들을 들을 수 있다. 그와 같은 정성적 정보는 호흡기 질환들의 진단뿐만 아니라 처치에도 매우 유용하다. 그러나, 수작업 분석은 운용자의 편견 때문에 결함을 가지며 주관적 결과들로 이어진다.
진찰 모임 동안, 의사들은 주어진 시 구간에 걸쳐서 기침 이벤트들의 발생 빈도와 같은 기침들에 대한 정량적 정보를 또한 구할 수 있다. 이 정보는 처치의 효능을 모니터링할 뿐만 아니라 기침들의 성질(예를 들어, 급성, 만성)과 심각도를 결정하는데 사용될 수 있다. 그러나, 이 정보를 획득하기 위해, 의사들은 환자들 또는 이들의 보호자들의 주관적 보고에 크게 의존한다. 특히 소아 질환들에서, 기침들의 회수를 계수할 수 있는 자동화 장치에 대한 큰 필요가 존재한다. 더 중요하게는, 장시간의 소아과 녹음(long pediatric recordings)으로부터 자동적으로 기침 이벤트들을 추출할 수 있는 기술은 폐렴, 백일해 및 천식과 같은 질병들의 진단을 용이하게 하기 위해 필요하다.
여러 접근법들이 자동화된 기침 계수 시스템들를 개발하기 위해 취해졌다(예를 들어, Hull Automatic Cough Counter (HACC)[5], Leicester Cough Monitor (LCM) [6], LifeShirt [7], VitaloJAK [8], 및 PulmoTrack [9]). 이러한 장치들의 성능들은 제각각이다. HACC는 (80%, 96%)의 민감도(sensitivity) 및 특정도(specificity)를 주장했다. 라이프셔츠(LifeShirt), 풀모트랙(Pulmotrack), LCM, 및 비탈로작(Vitalojak)에 대한 수치들은 제각기 (78%, 99%), (94%, 96%), (85.7%, 99.9%) 및 (97.5%, 97.7%)이다[6, 10-13]. 이들은 소리 세기 종속적 기법에 의존하고, 그에 따라 이들이 녹음 상태들 및 이용된 특정 기구들에서의 변동들에 민감하도록 만든다. 본 발명자들이 알고 있는 바로는, 이러한 상용 장치들 중 어느 것도 소아과 모집단들에서 테스트되지 않았다.
소아들에 대한 기침 녹음, 특히 더 어린 소아들에 대한 그런 녹음은 몇 가지 추가적 문제들을 제기한다. 더 어린 소아들은 요청을 받아도 자발적 기침을 생성할 수 없다. 소아과 모집단들을 목표로 하는 어떤 방법도 관심 기간에 걸쳐서 녹음되는 자연적 기침들을 이용할 수 있어야 한다. 소아과 녹음들에서, 외침 소리, 발성(vocalization) 및 끙끙거림(grunting)이 풍부하게 발견되고, 기침 소리들과 혼합된다. 결과적으로, 성인들에 대해 개발된 기술은 소아들에 사용하는 데에 최적일 가능성은 별로 없다. 소아들로부터의 기침 녹음에서의 또 다른 문제는 기침 소리 세기 변동이다. 심한 소아기 폐렴과 같은 질병들은 기침 소리의 진폭을 극적으로 낮출 수 있다. 심지어 건강한 사람들에서도, 기침 소리들은 큰 동적 범위를 가질 수 있어서, 큰 소리의 기침들로부터 거의 들을 수 없는 기침까지 퍼져 있다. 이 상태는 현장에서 세기 기반 기법을 사용하는 것을 신뢰할 수 없게 만들 수 있다. 그 성능은 또한 특정한 소리 포착 장비, 교정 상태, 및 사용된 측정 프로토콜들에 의존할 것이다.
라이프셔츠, 비탈로작 및 풀모트랙과 같은 기존의 상업적 기침 계수 장치는 접촉 센서들을 채택한다. 접촉 센서들의 사용은 몇몇 이점을 가질 수 있기는 하지만, 이들은 또한 여러 결점들도 수반한다. 개입하는 근육 조직은 접촉 센서들을 이용하여 녹음되는 기침의 대역폭을 심하게 줄인다; 자유 공기 시스템은 이런 것으로부터 안전하다. 비접촉식(자유 공기) 마이크로폰들과 비교하여, 접촉 센서들은 공기를 통해 전파되는 배경 소음에 대항하여 강건하다. 그러나, 이들은 조직과 뼈들을 통해 전도되는 소리에 더 취약하다; 센서 움직임으로 인한 가짜 마찰 소음도 문제가 될 수 있다. 감염성 질환들에서, 접촉 도구들을 통한 환자들의 교차 감염을 피하기 위해서는 정교한 노력을 필요로 한다. 게다가, 소아 피험자들에 대해, 접촉 센서들은 환자 불편 때문에도 부착시키기가 어려울 수 있다.
기침 소리들은 기도들의 상태에 대해 핵심적으로 유용한 정보를 전달할 수 있다. 그러나, 기존 장치들은 이벤트들의 존재는 검출할 수 있지만("기침 검출"), 추가적 분석을 위해 기침 이벤트들을 자동적으로 추출("기침 세그먼테이션")할 수는 없는 방법을 이용한다. 그러므로, 이들은 기침들의 계수(counting)에 제한된다. 기침 세그먼테이션은, 기침 검출 능력에 더하여, 각각의 기침 이벤트의 정확한 시작뿐만 아니라 그 종료에 대한 지식을 필요로 한다. 기침 간 갭들, 기침들의 지속 시간들, 및 기침들의 진폭이 호흡기 질환들과 관련된 정보를 전달할 수 있다는 것이 알려져 있다[14].
그 증상이 기침을 포함하는 하나의 질환은 폐렴이다. 폐렴은 전세계에 걸쳐서 주요 소아 사망 원인이다. 이것은 매년 5세 미만의 소아 사망 중 19% 넘는 비율을 차지한다. 이것은 가난한 자의 질환이고, 영양실조 및 부족한 의료 설비들과 강하게 관련된다. 그 결과 소아 폐렴 사망은 개발 도상 국가들에서 위험할 정도로 높다. 폐렴은 전 세계적으로 노인들 중의 문제이기도 하다.
폐렴은 폐포들에서의 염증성 세포들 및 분비들의 축적을 가진 폐들에서의 감염으로서 정의된다. 폐렴의 공통 증상은, 기침, 호흡 곤란, 열, 두통, 식욕 상실, 코감기, 및 천명(wheezing)을 포함한다. 심각한 폐렴의 경우에, 유아들은 호흡하기에 애를 먹을 수 있고, 경련들, 피부 창백(skin pallor), 무의식, 저체온증 및 혼수 상태를 겪을 수 있다.
폐렴은 진단하기에 어려운 질환이다. 현재 진단 방법들은 임상 검사(예: 신체적 징후들, 흉부 청진), 생화학 테스트(예: 객담 분석, 산소 포화) 및 의료 영상(예: 흉부 X선들 및 일부 경우들에서 X선 CT)을 포함한다.
기존 진단 방법이 가진 문제들은 무엇인가?
흉부 X선(CXR)은 폐렴을 진단하기 위한 일반적으로 이용 가능한 참조 표준으로 간주된다. 그러나, 이것은 최고의 표준이 아니다. 질병의 초기 단계들에서 또는 질병이 쉽게 CXR에서 보이지 않는 폐의 부분을 수반할 때, 폐렴은 CXR만을 이용하여 진단하기가 어려울 수 있다. 더욱이, 때때로 CXR 결과들은 CXR상에서 폐렴을 흉내 낼 수 있는 폐 흉터 형성 또는 울혈성 심부전으로 인해 오도할 수 있다. X선 CT가 더 좋은 결과들을 제공할 수 있기는 하지만, 이들은 개발 도상 국가들에서 3차 의료 기관들에서조차도 널리 이용 가능한 것은 아니다. 객담 테스트들은 실험실 배양들을 요구하고, 최소 2-3 일이 걸릴 수 있어서 이것을 초기 진단에 쓰기에는 너무 느리다. 폐렴의 원인이 되는 많은 병원균이 건강한 사람들의 목에도 자연적으로 존재하기 때문에 양성 객담 테스트가 반드시 폐렴의 존재를 나타내는 것은 아니다. 그러므로, 객담 테스트는 이미 환자에 대해 치료가 시작된 특정 항생물질의 민감도를 점검하기 위해 주로 행해진다. 임상 검사는 청진기를 통한 흉부 청진과 함께 임상적 진단 활동에서 폐렴의 초기 진단에 사용되는 최전선 접근법이다; X선이 이용 가능할 때 진단을 확인하는데 사용될 수 있다.
위에서 기술된 방법들 중 어느 것도 폐렴이 만연한 전 세계의 외딴 지역들에서 대량 배치하는 데에 활용할 수 없다. 이들은 비싸고 자원 집약적이고, 이들을 실행할 훈련된 의료 전문가들을 요구한다.
이 문제를 극복하기 위해, 세계 보건 기구(WHO)는 전 세계에서 자원이 부족하고 외딴 지역들에서 유아기 폐렴을 진단하기 위한 한 세트의 대단히 단순화된 가이드라인[참고문헌 3]를 개발했다. 이것들에 따라, 호흡 곤란 또는 기침이 생긴 소아는 이들이 다호흡(tachyponea)(빠른 호흡)을 갖는다면 폐렴으로 진단된다. 빠른 호흡은 2 개월 미만의 유아에게 60회 이상 호흡, 2 개월에서 12개월 사이의 유아에게 분당 50회 이상 호흡, 및 12개월에서 5살 사이의 소아에게 분당 40회 이상 호흡으로 정의된다[참고문헌 3, 4]. 흉부 내측 함몰(Chest in-drawing), 피부 창백 및 무의식은 심한 폐렴을 표시할 수 있고, WHO 위험 징후에도 속한다. 이 시스템은 현장에서 구현하는 데에 더 쉽고, 높은 진단 민감도를 갖도록 설계된다(질병을 가진 환자 중 약 90%가 발견된다). 그러나, WHO 가이드라인은 부족한 진단 특정도로 인해 결함을 가진다; 폐렴에 안 걸린 수많은 환자들도 폐렴에 걸린 것으로 뽑힌다. WHO 알고리즘의 특정도는 약 20%인 것으로 알려져 있다.
WHO 가이드라인이 매년 유아기 사망률을 160만 명까지 감소시키도록 기여하기는 하였지만, 몇 가지 문제들이 이 방법에 남아 있다. 이것의 낮은 특정도[참고문헌 6] 때문에, 수많은 비 폐렴 소아들이 불필요하게 항생 물질들을 투여받고 있다. 이것은 지역 사회 항생제 내성에서 비롯되는 처치 실패라는 결과를 낳고 있다. 대다수의 폐렴 풍토병 지역들에서, 말라리아와 같은 질병들도 흔하다. 폐렴과 말라리아 모두는 열, 빠른 호흡 및 기침과 같은 증상을 공유하고, 폐렴에 대한 WHO 알고리즘은 오진 및 처치 지연을 낳을 수 있다. 항생 물질들을 요구하지 않는 몇몇 기타 질병/상태들(COPD, 천식, 폐수종, 폐암, 기타 등등과 같음)이 폐렴과 비슷한 임상적 특징들을 나타낼 수 있다.
WHO 기준의 특정도를 향상시키기 위해, 카르도소(Cardoso) 등([참고문헌 6])은 폐렴을 진단하기 위해 열의 존재를 포함하는 것을 제안하였다. 이들은 열을 추가하는 것이 현저하게 진단 특정도를 (최고 50%까지) 향상시킨다는 것을 보여주었다. 과거의 몇몇 기타 연구자들이 유아기 폐렴 진단에 있어서 WHO 기준의 정확도를 평가했다. 하라리(Harari) 등([참고문헌 7])은 185명의 소아들에게서 어떤 임상적 징후들이 가장 잘 폐렴의 방사선 증거를 예측하는지를 결정하기 위해 다호흡을 포함하여 여러 변수들을 연구했다. 이들은 다호흡만을 예측자로 하여 폐렴을 진단할 때 73%의 민감도 및 64% 특정도를 보고했다(12 개월 미만의 소아들에 대해 호흡률(RR)≥50회 호흡/분 및 1 년 이상 나이가 들었다면 RR≥40회 호흡/분). 이들이 다호흡에 흉부 내측 함몰을 더했을 때, 민감도는 특정도를 희생하여(6%만큼 떨어짐) 4%만큼 향상되었다. 유사하게 코벌렁임(nasal flaring), 열, 부족한 수면 기침 > 2 일 등과 같은 기타 임상적 증상들에 의해, 민감도 및 특정도는 20% 에서 90% 사이에서 변화했다[참고문헌 6-10]. 높은 민감도는 특정도를 희생하여 달성되고, 그 반대도 마찬가지이다.
기침 소리들을 식별하기 위한 향상된 방법을 제공하는 것은 본 발명의 주된 양태의 목적이다.
게다가, 기침 소리들로부터 특정 질병 상태들, 예로 폐렴, 천식, 및 비인두염을 진단하기 위한 방법을 제공하는 것이 본 발명의 또 다른 양태의 목적이다.
본 발명의 첫째 양태에 따라 환자 소리들을 처리하기 위한 계산 장치를 동작시키는 방법이 제공되고, 본 방법은 다음을 포함한다:
상기 환자 소리들의 세그먼트들로부터 특징들을 추출하는 단계; 및
추출된 특징들 및 미리 정해진 기준에 기초하여 기침 또는 비 기침 소리(non-cough sound)들로 세그먼트들을 분류하는 단계.
환자 소리들은 양호하게는 환자의 소리 녹음들을 포함할 것이다.
본 발명의 양호한 실시예에서 환자 소리 녹음들로부터 특징들을 추출하는 단계는 미리 정해진 통계적 파라미터들을 결정하기 위해 세그먼트들을 처리하는 단계를 포함한다.
예를 들어, 양호한 실시예에서 미리 정해진 통계적 파라미터들은 세그먼트들에 대응하는 MFCC(mel-frequency cepstral coefficients) "
Figure pct00001
"를 포함한다.
미리 정해진 통계적 파라미터들은 또한 가우시안 모델로부터 세그먼트들의 편차(deviation)를 표시하는 비 가우시안 점수들(non-Gaussianity scores) "
Figure pct00002
"를 포함할 수 있다.
환자 소리 녹음들로부터 특징들을 추출하는 단계는 또한 상기 세그먼트들에 대한 포르만트 주파수들(formant frequencies) "
Figure pct00003
"를 추정하는 단계를 포함할 수 있다.
양호하게는 특징 추출 단계는 세그먼트들에 대한 ZCR(zero crossing rate)들 "
Figure pct00004
"를 결정하여 그에 의해 그와 관련된 주기성을 검출하는 단계를 포함한다.
본 발명의 양호한 실시예에서 세그먼트들로부터 특징들을 추출하는 단계는 웨이블릿 섀넌 엔트로피 값들 "
Figure pct00005
"를 결정하고, 첨도(kurtosis)(
Figure pct00006
), 피치(
Figure pct00007
), 이변량 스펙트럼 점수들(bispectrum scores:
Figure pct00008
), 로그 에너지(
Figure pct00009
)를 계산하는 단계를 포함한다.
양호하게는 본 방법은 상기
Figure pct00010
Figure pct00011
에 기초하여 정규화된 특징 벡터
Figure pct00012
를 계산하는 단계를 포함한다.
양호하게는 세그먼트들을 기침 또는 비 기침 소리들로 분류하는 단계는 이들이, 추출된 특징들, 또는 정규화된 특징 벡터와 같은 추출된 특징으로부터 도출된 파라미터를 미리 녹음된 기침 소리들의 데이터 세트의 특징들과 비교함으로써 미리 정해진 기준들을 만족시키는지를 결정하는 단계를 포함한다.
세그먼트들을 분류하는 단계는 테스트 소리 세그먼트들에 대응하는 테스트 특징들의 뒤이은 분류를 위해 미리 녹음된 기침 소리들의 데이터 세트의 특징들로 인공 신경망을 훈련하고 그에 의해 테스트 소리 세그먼트들을 비 기침 또는 기침 부류로 분류하는 단계를 포함할 수 있다. 대안적으로 다른 패턴 분류기들, 예를 들어 로지스틱 회귀 분류 방법이 또한 이용될 수 있다.
양호하게는, 방법은 기침 소리들로서 분류되는 환자 소리 녹음들의 세그먼트들에 기초하여 질병 관련 상태를 진단하는 단계를 추가로 포함한다.
방법은 수많은 센서들로부터 환자 데이터를 모니터링하는 단계를 추가로 포함할 수 있다.
예를 들어, 방법은 다음 중 하나 이상으로부터 환자 데이터를 모니터링하는 단계를 포함할 수 있다: 호흡 검출 센서, 온도 센서, 움직임 센서; EEG 센서; 산소 레벨 센서.
방법은 "젖은 기침(wet cough)" 또는 "젖지 않은 기침(non-wet cough)"으로서 기침 소리들을 분류하는 단계를 포함할 수 있다.
방법이 질환 상태를 진단하는 단계를 포함하는 경우에, 이것은 하기 단계들을 추가로 포함할 것이다:
환자 소리들의 기침 이벤트들을 병적인 것(diseased) 또는 비병적인 것(non-diseased)으로 분류하는 단계;
분류된 병적인 기침 이벤트들의 비율을 표시하는 병적인 기침 인덱스를 계산하는 단계; 및
병적인 기침 인덱스가 미리 정해진 요건에 부합하는 경우에는 환자가 특정 질병 상태로 고통을 겪고 있다고 여기는 단계.
미리 정해진 요건은 병적인 기침 인덱스가 미리 정해진 임계값을 초과하는 것일 수 있다.
양호하게는 병적인 것 또는 비병적인 것으로 기침 이벤트들을 분류하는 단계는 분류 절차에 따라 기침 이벤트들로부터 추출되는 특징들을 처리하는 단계를 포함한다. 예를 들어, 분류 절차는 로지스틱 회귀 모델(logistic regression model)의 적용을 포함할 수 있다. 대안적으로, 분류기는 훈련된 인공 신경망의 적용을 포함할 수 있다.
본 발명의 또 다른 양태에 따라, 프로세서가 상기 녹음들의 세그먼트들을 기침 또는 비 기침 소리들로서 분류하기 위해 환자의 녹음들을 처리하기 위한 앞서 기술된 방법을 수행하기 위한 명령어들을 포함하는 전자적 메모리와 통신하는 적어도 하나의 전자적 프로세서를 포함하는 계산 장치가 제공된다.
예를 들어, 계산 장치는 앞서 기술된 방법을 수행하도록 프로그래밍된 이동 전화기 또는 유사한 장치를 포함할 수 있다.
본 발명의 추가 양태에 따라, 앞서 기술된 방법을 수행하기 위한 전자적 프로세서에 의한 실행을 위한 유형(tangible) 명령어들을 실은 머신 판독 가능 매체가 제공된다.
본 발명의 또 하나의 양태에 따라, 환자의 환자 소리들을 처리하고 그에 의해 환자의 특정 질병 상태의 진단을 표시하게 상기 소리들을 변환하도록 계산 장치를 동작시키는 방법이 제공된다. 예를 들어, 질병 상태는 폐렴을 포함할 수 있다.
양호하게는 환자 소리들은 환자의 소리 녹음을 포함한다.
양호하게는 진단을 위한 방법은 하기 단계들을 포함한다:
병적인 것 또는 비병적인 것으로서 소리 녹음의 기침 이벤트들을 분류하는 단계;
분류된 병적인 기침 이벤트들의 비율을 표시하는 병적인 기침 인덱스를 계산하는 단계; 및
병적인 기침 인덱스가 미리 정해진 요건에 부합하는 경우에는 환자가 특정 질병 상태로 고통을 겪고 있다고 여기는 단계.
예를 들어, 미리 정해진 요건은 병적인 기침 인덱스가 미리 정해진 임계값을 초과하는 것일 수 있다.
방법은 다음 중 하나 이상으로부터 환자 데이터를 모니터링하는 단계를 포함할 수 있다: 움직임 센서; EEG 센서; 산소 레벨 센서, 호흡 검출 센서 및 온도 센서.
양호하게는 병적인 것 또는 비병적인 것으로 기침 이벤트들을 분류하는 단계는 분류 절차에 따라 기침 이벤트들로부터 추출된 특징들을 처리하는 단계를 포함한다.
예를 들어, 분류 절차는 로지스틱 회귀 모델의 적용을 포함할 수 있다. 대안적으로, 분류기는 훈련된 인공 신경망, 베이스 분류기, HMM(Hidden Markov Model) 기반 분류기, SVM(Support Vector Machine) 등등의 적용을 포함할 수 있다. 일 실시예에서 분류기를 위한 훈련 세트는 예를 들어, 천식, 기관지염, 비인두염 및 천명, 편도인두염, 울혈성 심질환, 후두연골연화증 및 이물질 흡입으로 인한 불편 증상들로 고통을 겪고 있는 환자들로부터 녹음된 비 폐렴 소리들을 포함한다.
본 발명의 여러 실시예들은 요양원과 같은 고령자 보호 시설에서의 입원자들의 장기간 모니터링(접촉 센서들 없음)을 포괄한다. 폐렴이 노령자들 중에서 심각한 문제이고 가능한 한 초기에 처치를 시작하는 것이 가장 좋다는 것을 알 것이다. 의사의 개입을 필요로 하는 어떠한 호흡 상태도 긴급한 방식으로 의료진이 알아차려야만 하고, 여기서 기술된 방법들의 적용은 이런 요구 사항을 만족시키는 것을 지원하기 위한 것이다. 본 발명의 양태의 실시예에 따라, 그러한 방법은 예를 들어 에이즈(AIDS) 환자들과 같은 (면역계 또는 호흡계 질병들을 가진) 만성 질환 환자들에게 적용될 수 있다.
본 발명의 여러 양태들의 실시예들은, 병원 환경 내에서 및 그 외부에서 특정 전문가에게 진찰받기 위해 기다리는 호흡기 환자들의 질병 정도에 따른 분류(triaging)를 포괄한다.
본 발명의 또 다른 양태에 따라, 프로세서가 환자의 소리 녹음들을 처리하여 상기 녹음들의 세그먼트들을 기침 또는 비 기침 소리들로서 분류하는 앞서 기술된 방법을 수행하기 위한 명령어들을 포함하는 전자적 메모리와 통신하는 적어도 하나의 전자적 프로세서를 포함하는 계산 장치가 제공된다.
본 발명의 추가 양태에 따라, 앞서 기술된 방법을 수행하기 위한 전자적 프로세서에 의한 실행을 위한 유형 명령어들을 실은 머신 판독 가능 매체가 제공된다.
본 발명의 또 다른 양태에 따라 디지털 전자 포맷으로 환자 소리들을 처리하기 위해 계산 장치를 동작시키는 방법이 제공되고, 이 방법은,
상기 환자 소리들의 세그먼트들로부터 특징들을 추출하기 위해 계산 장치의 적어도 하나의 프로세서를 동작시키는 단계,
추출된 특징들 및 미리 정해진 기준에 기초하여 세그먼트들을 기침 또는 비 기침 소리들로서 분류하는 단계, 및
계산 장치에 의한 추가적 처리를 위해 분류된 기침 또는 비 기침으로서 세그먼트들을 유형적으로 마킹하는 단계
를 포함한다.
본 발명의 양호한 특징들, 실시예들 및 변형들은 본 발명을 수행하기 위해 당업자에게 충분한 정보를 제공하는 하기 상세한 설명으로부터 분간해낼 수 있다. 상세한 설명은 어떤 식으로든 앞서의 [과제의 해결 수단]의 범위를 제한하는 것으로 간주해서는 안 된다. 상세한 설명은 다음과 같은 수많은 도면들을 참조할 것이다:
도 1은 본 발명의 실시예에 따른 기침 처리 시스템의 블록도이다.
도 2는 본 발명의 양태의 양호한 실시예에 따른 방법의 흐름도이다.
도 3은 TDNN의 구조. 이것은 입력 층, 은닉 층 및 출력 층으로 구성된다. TDNN의 입력은 d 개의 연속적 특징 벡터
Figure pct00013
이다. 예로서, d = 5에 대해, 입력은
Figure pct00014
이다. 모든 부 블록들을 분류하기 위해, 입력은 한 부 블록만큼 우측으로 시프팅된다.
도 4는 기침 세그먼트들의 지속 시간(
Figure pct00015
)의 평활화된 확률밀도함수. 이것은 0.373 초의 평균과 0.144 초의 표준편차를 갖는다.
도 5는 잡음 저감 처리를 도해한다. (A)는 녹음에서의 전형적 신호이고, (B)는 고역통과필터의 출력이고, (C)는 출력 스펙트럼 감산 필터이다. 개발된 필터는 신호의 SNR(신호 대 잡음비)를 상당하게 향상시켰다.
도 6은 무작위로 선택된 MFCC(Mel-frequency cepstral coefficient)(표시 목적을 위해 평활화됨)의 확률밀도함수(pdf). 중첩이 있기는 하지만, 계수 M(4)는 기침과 기기 소리를 분간하는데, 계수 M(9)는 기침에서 외침까지를 분간하는데, M(11)은 기침과 음성을 분간하는 데에 사용될 수 있다.
도 7은 5개의 제1 포르만트 주파수들(F(1) - F(5))의 pdf. 포르만트 주파수들의 분포가 중첩되기는 하지만, 이들은 특히 F(1), F(3) 및 F(5)에 대해, 상이한 평균, 비대칭도(skewness), 및 첨도를 갖는다.
도 8은 에너지, ZCR, 섀넌 엔트로피 및 비 가우시안 점수(NGS)의 pdf. ZCR은 기침과 기기 소리를 분간하는 한편, NGS는 음성을 가진 기침과 외침을 분간하는데 사용될 수 있다. 소리들 간의 로그 에너지 및 섀넌 엔트로피의 프로파일은 비슷하지만 이들은 상이한 비대칭도와 첨도를 갖는다.
도 9는 기침 세그먼트 식별을 도해한다. (A) 잡음 저감 처리로부터의 소리 신호, (B) TDNN으로부터의 출력 신호, (C) 평활화 처리 후의 출력 신호, 및 (D) 스레시홀딩 처리 후의 출력 신호. 스레시홀딩 처리로부터의 신호는 잘못된 세그먼트(예를 들어, FD 세그먼트)를 포함할 수 있다.
도 10은 세그먼테이션 알고리즘으로부터의 입력 신호 및 출력 신호의 도해. 파선은 각각의 기침 세그먼트의 시작 및 종료가 결정될 수 있는 세그먼테이션 출력을 표시한다. 잘못된 세그먼트 FD(도 9(D)에 도시됨)는 그 지속 시간이 지속 시간 기준(
Figure pct00016
)을 벗어나기 때문에 폐기된다. 이 알고리즘은 음성(SP)과 중첩하는 CG3을 포함하는 모든 기침 소리들을 성공적으로 세그먼팅한다.
도 11은 기침 및 외침 소리들을 포함하는 신호의 세그먼테이션 출력(파선). 본 발명자들의 세그먼테이션 알고리즘은 성공적으로 두 개의 기침 소리를 세그먼팅했고 외침 소리들을 폐기했다. 외침 소리들의 적은 양만이 실수로 기침 세그먼트로서 검출되었다.
도 12는 기침 특징을 이용하여 폐렴 진단을 하기 위해 제안된 알고리즘에 대한 블록도.
도 13은 폐렴 기침 소리 샘플. 기침 이벤트들의 시작 및 종료는 주의 깊게 기침 이벤트들을 청취한 후 수작업으로 마킹되었다.
도 14는 디지털 고역통과 필터의 크기 응답. 기침 분류 방법.
도 15는 젖은 및 마른 기침 소리 분류를 위해 제안된 알고리즘에 대한 블록도이다.
도 16은 200개의 훈련 및 테스트 데이터 세트에 대해 성취된 민감도 및 특정도의 히스토그램. 선택된 특징들만이 LR 모델 설계에 대해 사용되었다.
도 17은 질환 상태, 예를 들어 폐렴에 대한 진단을 위한 본 발명의 추가 실시예에 따른 방법의 흐름도이다.
도 18은 도 17의 방법의 적용과 관련된 대상들의 상세 사항들을 제시하는 차트들을 포함한다.
도 19는 (a) 폐렴-기침, (c) 천식-기침, (e) 기관지염-기침 및 (g) 세기관지염-기침 파형들 및 이들의 대응하는 파워 스펙트로그램의 전형적인 예들을 보여준다.
도 20은 본 발명의 양태의 추가적 및 양호한 실시예에 따른 자동화된 기침 분류 절차의 블록도이다.
도 21은 2 명의 환자로부터의 마름 기침 파형 및 젖은 기침 파형의 전형적 예를 보여준다.
도 22a 및 도 22b는 기침 소리에 대한 SNR의 히스토그램들이다.
도 23은 도 20에 도해된 방법의 분석 및 논의에 사용되는 통계적 정보를 보여준다.
I. 기침 분류를 위한 제1 방법
2.1. 기침 녹음 프로토콜
기침 녹음 시스템은 하이퍼카르디오드 빔 패턴(hypercardiod beam pattern)(모델 NT3, RODE®, 시드니, 오스트레일리아)을 갖는 저 잡음 마이크로폰들(53, 55)고, 이들에 이어서 신호 수집을 위한 전치 증폭기(52) 및 A/D 컨버터(51)(모델 모바일 Pre-USB, M-Audio®, CA, 미국)로 구성되었다. 모바일 Pre-USB의 출력은 랩톱 컴퓨터(52)의 USB 포트(50)에 연결되었다. 마이크로폰들에서 대상(42)의 입까지의 공칭 거리는 50cm 이었다. 실제 거리는 대상의 움직임 때문에 40cm 내지 100cm 까지 변할 수 있다. 그러나, 제안 방법은 소리 세기에 의존하지 않았고 그 결과들은 입에서 마이크로폰까지의 거리와 무관하였다. 본 발명자들은 최고의 소리 품질을 획득하기 위해 샘플링 레이트를 44.1 k 샘플/초 및 16비트 분해능에 유지했다.
컴퓨터 시스템(52)은 곧 기술될 컴퓨터 프로그램을 실행하면서, 본 발명의 여러 양태들의 양호한 실시예들에 따른 기침/비 기침 분류 시스템 및/또는 기침 기반 진단 시스템으로서 동작한다. 개인용 컴퓨터 시스템(52)은 포인팅 디바이스(60)와 키보드(58) 형태의 데이터 입력 장치들과 디스플레이(56) 형태의 데이터 출력 장치를 포함한다. 데이터 입력 및 출력 장치들은 중앙 처리 장치(70)를 포함하는 처리 박스(54)에 결합된다. 디스플레이(56)는 여기서 기술된 방법들에 의해 구현되는 여러 분류 절차들의 결과들을 제시하기 위한 인간-기계 인터페이스를 포함한다. 예를 들어 스마트 폰 또는 프린터와 같은 기타 인간-기계 인터페이스들이 또한 가능하다.
중앙 처리 장치(CPU)(70)는 머신 판독 가능하고 또한 CPU에 의해 실행될 수 있는 명령어들의 프로그램들을 유형적으로 구현하는 저장 장치들과 인터페이싱한다. 이러한 저장 장치들은 메인 보드(68)를 경유해 RAM(62), ROM(64) 및 보조 저장 장치, 즉 자성 하드 디스크(66) 및 광학 디스크 판독기(48)를 포함한다. 개인용 컴퓨터 시스템은 또한 마이크로폰들(53, 55)로부터의 신호들을 전치 증폭하고, 필터링하고, 디지털화하는 외부 ADC 모듈(51)과 통신하기 위한 USB 포트(50)를 포함한다. 마이크로폰들은 침대(40)에 누워 있는 대상(42)으로부터, 소리들, 예를 들어 기침 소리들을 포착한다.
보조 저장 장치(66)는 중앙 처리기(70)에 의한 실행을 위해, 유형의 명령어들을 실은 자성 데이터 저장 매체이다. 이러한 명령어들은 이들이 또한 원격 서버 설치로부터 컴퓨터 네트워크를 통해 또는 메모리 집적 회로에서 제공될 수 있기도 하지만, 광학 디스크(46)와 같은 설치 디스크로부터 전형적으로 설치될 것이다. 명령어들은 RAM(62)의 전자적 메모리 내로 로딩되는 소프트웨어 제품(72)을 구성한다. 실행될 때 명령어들은 컴퓨터 시스템(52)으로 하여금 기침 기반 진단 시스템, 및/또는 기침 또는 비 기침 환자 소리 분류기로서 동작하고, 특히 곧 기술될 수많은 방법 중 하나를 구현하도록 야기한다.
소프트웨어 제품(72)의 프로그래밍이 본 발명의 방법을 비추어 보아 간단할 것이라는 점이 당업자에게 인식될 것인데, 그 실시예들이 이제 설명될 것이다. 하기 방법에서 여러 변수들이 조작된다. 방법을 구현하기 위한 컴퓨터 시스템(52)의 동작 동안 CPU(70)의 대응 레지스터들이 증분될 것이고, 데이터가 메인 보드(68)상에 에칭된 도전성 버스들을 따라 이동하는 전기 신호들에 의해 보조 저장 장치(66) 및 RAM(62)에 기입되고 그로부터 검색될 것이다. 결과적으로, 컴퓨터 시스템(52)이 이제 기술될 방법을 구현하기 위해 소프트웨어(72)를 실행함에 따라 컴퓨터 시스템 내에서 물리적 효과들 및 변환들이 일어날 것이다.
도시된 계산 장치가 개인용 컴퓨터, 예를 들어 데스크톱 또는 랩톱 컴퓨터를 포함하기는 하지만, 본 발명의 실시예들은 기타 계산 장치들을 포괄한다. 예를 들어, 본 발명의 실시예들은 전용 의료 기기, 및 여기 기술된 방법들 중 하나 이상을 구현시키기 위한 애플리케이션, 즉 "앱(app)"이 로딩된 스마트폰을 포괄한다. 스마트폰의 경우에, 폰의 온보드 마이크로폰이 환자 소리를 모니터링하는데 사용될 수 있거나 또는 대안적으로 하나 이상의 고품질 외부 마이크로폰들이 그와 같은 모니터링을 위해 스마트폰에 연결될 수 있다. 스마트폰은 환자 소리들의 디지털 녹음들을 셀룰러 전화 네트워크들 및/또는 인터넷을 통해 원격의 컴퓨터에 전송할 수 있고, 컴퓨터는 이후 여기서 기술되는 방법들에 따라 디지털 녹음들을 처리한다. 처리 결과들은 디스플레이를 위해 스마트폰으로 전송되거나 또는 대안적으로 떨어져 있는 컴퓨터의 제어 하에서 전자 장치 디스플레이 장치상에 디스플레이될 수 있다.
계산 장치는 예를 들어 움직임 센서; EEG 센서; 산소 레벨 센서, 호흡 검출 센서, 온도 센서와 같은 수많은 환자 센서에게 또한 인터페이싱될 수 있다. 이러한 센서들로부터의 데이터는 또한 여기서 기술된 여러 방법들의 실행 동안 이용될 수 있다.
이 작업을 위한 데이터는 인도네시아, 요그야카르타에 소재한 사르드지토 병원에서 호흡 불편 증상들로 입원한 소아과 환자들로부터 녹음되었다. 본 발명자들은 본 발명자들의 녹음 시스템을 침대 옆에 배치하는 것 외에, 어떤 식으로도 자연적 병원 환경을 변경하지 않고서 그 환경에서 데이터를 획득했다(도 1 참조). 녹음들은 주간 동안 두 가지 유형의 병실(1인실 및 2인실)에서 수행되었다. 연구 프로토콜은 사르드지토 병원 및 오스트레일리아, 퀸즈랜드 대학교로부터 윤리 강령 관련 허가를 받았다.
본 발명자들의 데이터베이스는 5 ― 64 개월의 연령 범위에 걸쳐 있는 소아로부터의 기침 소리들로 구성되었다. 포함 및 제외 기준들을 위한 상세 사항들에 대해 표 1을 참조하라.
Figure pct00017
녹음들은 의사들이 대상들을 검사했고 또한 초기 처치가 착수된 후에 시작되었다. 각각의 대상에 대한 녹음의 지속 시간은 4 ― 6시간이었다. 표 2에서, 본 발명자들은 대상들의 인구 통계학적 상세 사항들을 예시한다.
Figure pct00018
2.2. 기침 세그먼테이션 방법
나누어진 소리 녹음(discretized sound recording), r[n] 은 하기와 같이 기침 소리들
Figure pct00019
, 배경 잡음들 b[n], 비 기침 소리들
Figure pct00020
(예를 들어, 말하기, 외침, 발성, 기기 움직임, 등등)의 합으로서 모델링될 수 있다:
Figure pct00021
본 발명의 실시예는 녹음 r[n] 으로부터
Figure pct00022
을 추출하기 위한 자동화된 방법을 제공한다. 전체 방법의 블록도가 도 2에 도시된다. 이것은 4개의 주 처리로 구성된다: (a) 잡음 저감, (b) 데이터의 부 블록들로부터의 특징 추출, (c) 기침 그룹(CG)과 비 기침 그룹(NG) 부류들로의 데이터의 부 블록들의 분류, 및 (d) 데이터의 CG/NG 분류된 연속 부 블록들을 적절히 그룹화함으로써 기침 세그먼트들을 식별하고/형성하는 것.
섹션들 2.2.1 내지 2.2.4에서, 본 발명자들은 방법의 상세한 설명을 제공한다.
2.2.1 잡음 저감
배경 잡음 b[n] 을 감소시키기 위해, 본 발명자들은 두 개의 상이한 필터를 통하여 r[n] 을 처리했다: (a) 고역통과필터(HPF), 및 (b) 파워 스펙트럼 감산(power spectral subtractions: PSS) 필터. HPF는 4차 버터워스 필터로서 설계되었다. 이것은 마이크로폰 스탠드 또는 침대의 움직임에서 유래할 수 있는 저주파 간섭을 감소시키는데 사용되었다. PSS 필터는 국지적으로 정적인 배경 잡음을 감소시키기 위해 채택되었다. 이것은 원 소리 신호의 파워 스펙트럼에서 추정되는 배경 잡음을 감산함으로써 순수한 소리 신호를 추정한다[15]. 필터링 후의 출력 신호 s[n]는 다음과 같이 다시 쓰여질 수 있다:
Figure pct00023
본 발명자들은, 잡음 저감 처리 전 및 후에, 배경 잡음에 상대적인 신호 크기의 측도로서 정의되는 신호 대 잡음비[SNR]를 계산함으로써 필터의 성능을 측정했다. SNR는 다음과 같이 계산된다:
Figure pct00024
여기서
Figure pct00025
Figure pct00026
는 제각기 신호
Figure pct00027
및 배경 잡음 b[n] 의 rms(root mean square) 값이다.
잡음 저감 처리 후에,
Figure pct00028
는 특징 추출 유닛으로의 입력으로서 이용된다.
2.2.2 소리 신호의 특징 추출
본 섹션에서, 본 발명자들은 기침 소리 산출의 모델 및 특징 추출 유닛의 상세 사항들을 기술한다.
(a) 기침 소리 모델링
생리적 고려들에 기초하여, 기침 소리들은 종종 네 개의 상이한 국면의 조합으로서 고려된다 [1]: 흡입, 수축, 압박, 및 배출(inspiratory, contractive, compressive, and expulsive). 흡입 국면은 숨을 들이쉼으로써 개시되고 성문, 성문상 괄약근들 또는 양쪽 모두의 닫힘에 의해 종결된다. 수축 국면에서, 호흡 근육들의 그룹들이 성문 구조들에 대항하여 수축하고, 폐포, 흉막, 및 부 성문 기도 압력(sub glottis airway pressures)들의 현저한 상승을 특징으로 하는 압박 국면으로 이어진다. 배출 국면에서, 성문은 재빨리 열리고, 큰 기압 기울기 하에서 공기의 빠른 내쉬기가 이어진다. 폐에서 뿜어져 나오는 공기의 빠른 움직임은 호흡계의 상이한 영역들에서 유래하는 기여들에 의해 기침 소리들을 생성한다. 기침 소리 생성의 기제는 음성 생성의 기제와 몇 가지 유사성들을 공유한다.
(b) 특징 설계 및 추출
소리 신호의 특징들을 획득하기 위해, 본 발명자들은 길이 N의 직사각형 슬라이딩 윈도
Figure pct00029
Figure pct00030
에게 적용하여, 데이터 부 블록들을 생성한다. k번째 데이터 부 블록이
Figure pct00031
에 의해 표시되도록 하자; 따라서
Figure pct00032
은 부 블록들
Figure pct00033
의 연쇄(concatenation)로 표현될 수 있는데, 즉
Figure pct00034
이고, 여기서 K는
Figure pct00035
에서 부 블록들의 총 수이다. 본 발명자들은 각각의 부 블록
Figure pct00036
에 대해 하기 특징들을 계산한다.
i) MFCC들(Mel - frequency cepstral coefficients): MFCC는 음성 처리에 널리 사용되고 [16, 17], 코 골기 분석 [18-21]에 대해서도 마찬가지로 대단히 유용하다는 것이 발견되었다. 이 작업에서, 기침/호흡 소리들의 코 골기 및 음성과의 유사성들에 고무 받아서, 본 발명자들은 기침 세그먼테이션(Cough Segmentation)에서 MFCC의 사용을 탐구한다. 본 발명자들은 각각의 부 블록들
Figure pct00037
의 제1 L MFCC들(Mel-frequency cepstral coefficients)
Figure pct00038
을 계산한다. 계수는 신호
Figure pct00039
을 해밍 윈도
Figure pct00040
와 곱셈처리하고 이어서 다음의 계속적 처리: FFT(Fast Fourier Transform), 멜 주파수 필터(Mel-frequency filter) 뱅크
Figure pct00041
필터링, 및 DCT(discrete cosine transform)를 적용함으로써 계산되었다. 멜 주파수 필터 은 수학식 4에 정의되고,
Figure pct00043
는 수학식 5에 주어진다.
Figure pct00044
Figure pct00045
여기서,
Figure pct00046
는 멜 필터 뱅크들의 출력이다.
ii) 포르만트 주파수(Formant frequency ): 음성에서, 포르만트 주파수들은 성도 공명들의 특성들을 보여준다; 코 골기 소리 분석에서 이들은 상부 기도의 공명을 나타낸다. 본 발명자들은 기침/호흡 소리들에서, 포르만트가 전체 기도의 공명들을 전달할 수 있다고 가정하였다. 이를테면, 폐의 세기관지들의 진동들에 기인하는 천명음들이 기침 소리들에서 더 높은 주파수 포르만트들(공명 주파수들)에 기여할 수 있다. 이 작업에서, 본 발명자들은 제1의 P 포르만트 주파수들
Figure pct00047
를 추정했다. LPC 스펙트럼 및 그 파라미터들은 레빈슨-더빈 회귀(Levinson-Durbin recursion)를 통해 율-워커 방정식들(Yule-Walker equations)을 푸는 것에 의해 결정되었다[22].
iii) ZCR ( Zero crossing rates ): 신호가 제로 축을 가로지르는 총 회수로서 정의되는 ZCR은 그 크기에 상관없이 신호의 주기적 속성을 검출하기 위한 단순하지만 유용한 방법이다. ZCR 특징
Figure pct00048
는 다음과 같이 계산된다.
Figure pct00049
여기서 표시함수
Figure pct00050
는 독립 변수 A가 참(true)이면 1이고, 다른 경우에는 0이다.
iv) 가우시안 점수( Non - Gaussianity score : NGS): 비 가우시안 점수(NGS)는 가우시안 모델로부터 주어진 신호의 편차를 정량화하기 위한 쉬운 방법을 제공한다. 코 골기 소리 분석[23]에 대한 본 발명자들의 이전 작업에서, 이 특징은 수면 무호흡 방해를 차단하는 능력을 보여주었다. NGS를 획득하기 위해, 각각의 및 모든
Figure pct00051
마다에서, 본 발명자들은 수학식 7에서 주어진 것처럼 정규 누적분포함수
Figure pct00052
의 역
Figure pct00053
을 계산했다.
Figure pct00054
여기서,
Figure pct00055
는 제각기
Figure pct00056
의 평균 및 표준 편차이고, p는 수학식 8에서 정의된다.
Figure pct00057
Figure pct00058
는 수학식 9에서 주어진 그 참조 가우시안 확률도(g)에 대한
Figure pct00059
의 확률도의 편차이며, 여기서
Figure pct00060
Figure pct00061
은 제각기 참조 정규 데이터 및 분석된 데이터의 확률들을 나타낸다.
Figure pct00062
v) 섀넌 엔트로피: 기침 소리는 기도의 여러 부 구조들로부터의 기여들을 나타내는 복합 신호이다. 이러한 성분들의 몇몇은 의사 주기적 구조들을 나타내는 반면, 다른 것들은 무작위 확률론적 성질을 갖는다. 몇몇의 경우에, 기침 소리들은 흡입 국면으로부터 배출 국면으로의 돌발 전이들을 갖는다. 이 기간은 순간 중단(instant break)뿐만 아니라 고주파 성분들을 포함할 수 있다. 이 작업에서, 본 발명자들은 이러한 특징들을 포착하는 섀넌 웨이블릿 엔트로피를 계산했다. 웨이블릿 분석에서, 규모 i에서의 신호
Figure pct00063
은 저역 및 고역 통과 필터로 구성되는 상보 필터(complementary filter)를 이용하여 그 고주파 및 저주파 성분들로 분해될 수 있다. 저역 및 고역 필터로부터의 출력들은 근사( approximation )상세 사항들( details )(제각기
Figure pct00064
Figure pct00065
)로 정의된다. 웨이블릿 섀넌 엔트로피
Figure pct00066
는 수학식 10에서와 같이 웨이블릿 에너지 스펙트럼
Figure pct00067
를 계산함으로써 수학식 9의 정의를 이용하여 획득된다[24].
[수학식 9]
Figure pct00068
Figure pct00069
B(i)―B(v)에서 기술된 특징은 각각의 부 블록들
Figure pct00070
에 대해 계산된다. 각각의 특징에서, 본 발명자들은
Figure pct00071
Figure pct00072
의 각각의 특징에서의 최소값 및 최대값을 계산했다. 본 발명자들은 대응하는 특징의 구성요소들을 -1에서 1까지의 범위가 되도록 정규화하기 위해 이러한 값들을 이용했다.
그러면
Figure pct00073
의 정규화된 파라미터 벡터
Figure pct00074
는 다음과 같이 정의된다:
Figure pct00075
. 그러면 j번째 환자들에 대한 전체적 특징 행렬
Figure pct00076
Figure pct00077
에 의해 주어진다.
도 2에 도시된 것과 같이, 본 발명의 실시예에 따른 기침 세그먼테이션 기법은 각각의 및 모든 데이터 부 블록들
Figure pct00078
마다를 특징 벡터
Figure pct00079
에 기초하여 기침 그룹(CG)과 비 기침 그룹(NG)의 두 개의 비 중첩 범주로 분류하는 것으로 시작한다.
섹션 2.2.3에서, 본 발명자들은 부 블록 수준에서 이 CG/NG 분류를 위해 개발한 패턴 분류 방식을 기술한다.
2.2.3 부 블록들의 기침 및 비 기침 부류들로의 분류
본 발명의 일 실시예는 부 블록 수준에서 CG/NG 패턴 분류기로서 인공 신경망(Artificial Neural Network: ANN)을 이용한다. 본 발명자들은 기침 소리들의 상이한 유형들을 이들의 세기, 지속 시간, 또는 젖음 정도에 상관없이 인식하기 위해 인간 두뇌의 능력에 의해 고무된 ANN을 이용했다. 더욱이, ANN은 주어진 예들의 세트에 의한 교사 학습 처리에 기초하여, 비선형 결정 경계들을 이용하여 데이터를 분류할 수 있다는 점에서 여러 장점들을 갖는다. 이것은 종래 방법들과 비교해 제한된 훈련 데이터 세트들로 작업할 수 있는 입증된 능력을 갖는다[25]. 이 작업에서, 본 발명자들은 음성 인식 적용들에서 성공 사례를 만든 TDNN(Time Delay Neural Network)[26]으로 알려진 ANN의 특별한 형태를 사용했다. TDNN은 입력 특징 세트의 시간적 평행 이동(temporal translation)[26]들을 무시(discount)하여 데이터 부 블록들
Figure pct00080
을 분류할 수 있다.
본 발명자들은 도 3에서 TDDN의 구조를 보여준다. 이것은 입력 층, 은닉 층 및 출력 층으로 구성된다. TDNN에서, 본 발명자들은 부 블록을 CG/NG 부류로 분류하기 위해, 행렬
Figure pct00081
의 d 개의 연속적 특징 벡터를 이용했다. 다음 차례의 부 블록을 분류하기 위해, 본 발명자들은 입력을 부 블록만큼 우측으로 시프팅시켰고, 특징 벡터들의 다음의 그룹을 사용했다. 본 발명자들은 행렬
Figure pct00082
의 처음부터 끝까지 이 처리를 실행했고, 따라서
Figure pct00083
에서의 모든 부 블록들이 CG/NG 부류로 분류될 수 있다.
TDNN을 이용하는 부 블록들의 분류는 훈련, 검증(validation) 및 테스트 처리를 통해 수행되었다. 이러한 처리들을 완료하기 위해, 본 발명자들은 데이터 세트를 준비했고, 훈련 파라미터들을 선택했고, TDNN을 훈련했고, 및 분류 결과들을 검증했다. 이러한 처리들의 상세 사항들은 하기 부 섹션들에서 기술된다.
(a) TDNN 데이터 세트 준비
본 발명자들은 녹음으로부터의 기침 및 기타 소리들로 구성되는 데이터 세트를 개발했다. 본 발명자들의 데이터 세트에는 665개의 기침 소리가 있다. 본 발명자들은 본 발명자들의 데이터 세트를 세 개의 비 중첩 무작위 파티션이 되도록 나누었고, 이들을 제각기 훈련(TDS), 검증(VDS) 및 테스트(TeDS)로 명명했다. 데이터베이스로부터의 TDS, VDS 및 TeDS 의 비율들은 (제각기 40%, 30% 및 30%) 이다. 본 발명자들은 기호
Figure pct00084
m = 1, 2, …, M 에 의해 m번째의 그와 같은 무작위 파티션들을 표시하며, 여기서 M은 이 작업에서 사용되는 무작위 파티션들의 총 수이다. 모든 분류 데이터 세트는 독립적으로 분석되었다. 본 발명자들은 무작위 부 샘플링 기술을 이용하는 K-폴드 교차 검증법을 적용함으로써 효과적으로 본 발명자들의 데이터 세트를 이용했다.
분류 데이터 세트의 기침 세그먼트들의 로케이션 정보를 이용하여, 본 발명자들은 행렬
Figure pct00085
을 정의했는데, 여기서
Figure pct00086
는 Π{CG class}의 독립 변수가 정확(correct)할 때 "1"로 그리고 다른 경우에는 "0"으로 채워지는
Figure pct00087
의 각각의 부 블록의 부류이다. 행렬 는 훈련 처리에서 목표로서 이용되었다.
Figure pct00089
의 차원이
Figure pct00090
와 유사한 것에 주목하자.
(b) TDNN 훈련 처리
이 연구에서 이용되는 TDNN 은 표 3에서 규정된 파라미터들을 갖는다.
Figure pct00091
본 발명자들은 섹션 3.4에서 뉴런 수의 선택을 결정하는데 이용되는 절차를 설명한다.
본 발명자들은 입력 층
Figure pct00092
, 은닉 층
Figure pct00093
와 출력 층
Figure pct00094
로 구성되는
Figure pct00095
로서 표기되는 TDNN 네트워크를 구축했다. 선형 및 시그모이드 함수들이 층들 간의 활성화 함수로서 선택되었다. 시작 가중치 및 바이어스를 결정하기 위해, 본 발명자들은 느구옌-위드로 초기화 방법(Nguyen-Widrow initialization method)을 이용했다.
훈련 처리 동안 뉴런의 바이어스 항 및 가중치들을 갱신하기 위해, 본 발명자들은 RPROP(resilient back propagation) 알고리즘을 사용했다[27]. RPROP는 뉴런들의 가중치들을 갱신하기 위해 학습율을 결정하는 문제를 극복하는 데에 성공적이라는 점이 발견되었다. 기울기 하강 알고리즘(gradient descent algorithm)에서, 너무 작은 학습율은 계산 시간을 늘리는 반면에, 너무 큰 학습율은 합리적 오차로 최적 점에 도달하기 전에 진동을 생성할 것이다. 대조적으로, RPROP는 가중치를 갱신하기 위해 적응 값을 이용하고, 그러므로 이것은 신속하게 최대 최적화를 달성할 수 있다. 이 알고리즘의 상세 사항들은 [27]에 기술된다.
훈련 처리에서, 본 발명자들은 중단 기준을 정의했다: (a) 훈련 데이터의 평균 제곱오차(mse)는 10-5 미만임, (b) 검증 오차가 증가하기 시작함, 및 (c) 10- 10 의 훈련 성능에서의 최소 기울기가 도달됨. 훈련이 더 일찍 중단되지 않았다면, 신경망은 최고 100 시기(epoch)까지 훈련하도록 허용되었다.
일단 이러한 파라미터들이 설정되었다면, 본 발명자들은 TDNN을 훈련하기 시작했다. 훈련 처리에서, 본 발명자들은 TDNN의 네트워크,
Figure pct00096
가 부 블록들을 CG/NG 부류로 분류하는 것을 배우도록 허용한다. 이 처리는
Figure pct00097
에서의 목표를 근사화하기 위해,
Figure pct00098
에서부터
Figure pct00099
까지의 d 연속적 특징 벡터들을 제공함으로써 수행되었다. 본 발명자들은 CGNG 부류들을 분류하는 데에 최고의 결과들을 제공하는 입력들의 조합을 발견하기 위해
Figure pct00100
에서 특징들의 몇 가지 조합들을 탐구했다. 본 발명자들은 훈련 처리 동안
Figure pct00101
의 출력을
Figure pct00102
의 근사인
Figure pct00103
로서 표기했다. 기침 세그먼트들을 식별하기 위해,
Figure pct00104
는 하기 섹션에서와 같이 처리되었다.
2.2.4 기침 세그먼트의 식별
이 섹션에서, 본 발명자들은 세그먼트 식별 처리를 통하여 TDNN (
Figure pct00105
)의 출력을 처리함으로써 기침 세그먼트를 획득하기 위한 기술을 설명한다. 이 처리는 하기의 것으로 구성된다: TDNN의 출력을 평활화하는 것, 세그먼트들을 획득하기 위해 평활화된 신호에 임계값을 적용하는 것, 세그먼트들의 지속 시간의 측정, 및 기준에 기초한 세그먼트들의 선택. 전체 처리들이 하기 단계들에서 기술된다:
(S1) 이동평균 필터
Figure pct00106
의 스팬(span)을 결정하는 작은 양의 정수인 파라미터
Figure pct00107
를 정의한다. 평활화된 신호
Figure pct00108
를 산출하기 위해
Figure pct00109
를 필터 H에 적용한다.
(S2) 임계값
Figure pct00110
을 평활화된 신호
Figure pct00111
에 적용한다. 이 처리로부터의 출력 신호는 수학식 11에 주어진
Figure pct00112
로서 표기된다.
Figure pct00113
에서의 연속하는 성분들의 그룹은 기침 세그먼트 후보들로서 정의되었다.
Figure pct00114
(S3)
Figure pct00115
에서 '1'을 포함하는 대응하는 세그먼트들의 지속 시간
Figure pct00116
를 계산한다. 이 처리는 각각의 세그먼트의 시작과 종료를 결정함으로써 수행된다.
a. k = 1 로 시작하여, k 의 최소값(이른바
Figure pct00117
)을 찾는데, 여기서 모든 부 블록들
Figure pct00118
NG 부류의 범주에 대응한다. 부 블록
Figure pct00119
의 시작, k =
Figure pct00120
NG 세그먼트의 시작으로서 취해졌다.
b. 기침 세그먼트의 시작을 식별하기 위해,
Figure pct00121
의 도메인에서 검색을 개시한다.
Figure pct00122
에서의 부 블록들 중 어느 것도 NG에 대응하지 않도록, 해당 도메인에서의 k 의 최소값(이른바
Figure pct00123
)을 찾는다. 부 블록
Figure pct00124
의 시작,
Figure pct00125
CG 세그먼트의 시작으로서 취해진다.
c. NG의 종료가,
Figure pct00126
에 설정된 k 에 대한 검색 도메인에 의해, 단계(S3.a)과 유사한 처리에서 결정된다.
(S4) 소아로부터의 전형적 기침 소리의 최소 및 최대 세그먼트 지속 시간을 결정하는 작은 양의 분수값(positive fraction)인
Figure pct00127
Figure pct00128
파라미터들을 정의한다. 그 지속 시간들이 이 제약 조건을 벗어나는 세그먼트들은 폐기될 것이다. 본 발명자들은 이 처리의 출력 신호를
Figure pct00129
로서 표기했다.
단계들 (S1)―(S4)는
Figure pct00130
의 각각의 세그먼트의 시작 및 종료를 결정하고 또한 녹음에서
Figure pct00131
의 세그먼트들을 무시(discount)하기 위한 방법을 설명한다. 이 결과들을 검증하기 위해,
Figure pct00132
에서의 모든 획득된 기침 세그먼트들이
Figure pct00133
에서의 기침 세그먼트들과 비교되었다.
II. 결과 및 논의
3.1 기침 세그먼트 지속 시간
본 발명자들의 임상 데이터에서, 본 발명자들은 시각적 관찰 및 청취의 조합된 처리에 의해 각각의 기침 세그먼트
Figure pct00134
의 지속 시간을 식별했다.
Figure pct00135
의 평활화된 확률밀도함수는 도 4에 도시된다. 기침 세그먼트들은 (
Figure pct00136
= 0.18 초 및
Figure pct00137
= 11.6 초)의 최소 및 최대 지속 시간을 갖는다. 기침 세그먼트들의 평균 및 표준 편차는 (
Figure pct00138
,
Figure pct00139
)이다. 세그먼테이션 처리에서, 본 발명자들은 예측된 세그먼트들을 기침 또는 비 기침 소리로서 결정하기 위한 기준들 중 하나로서
Figure pct00140
Figure pct00141
를 이용한다. 본 발명자들은 섹션 3.5에서 이 처리를 기술한다.
3.2 잡음 저감
통제되지 않은 환경에서의 녹음은 데이터를 배경 잡음에 더 민감하도록 만든다. 본 발명자들의 녹음들에서, 본 발명자들은 잡음의 2 가지 별개 구성 요소를 식별했다: (a) 10 Hz 미만의 저주파 잡음 및 (b) 백색 가우시안 잡음(도 5(A) 참조). 도면으로부터, 녹음이 범위 1.54 ― 5.92 dB에 걸치는 나쁜 신호 대 잡음비(SNR)를 갖는다는 것을 알 수 있다. 이런 잡음들을 감소시키기 위해, 본 발명자들은 10 Hz의 차단 주파수를 갖는 4차 버터워스 고역통과필터(HPF) 및 PSS(power spectral subtraction) 필터를 사용했다.
이러한 필터들은 현저하게 SNR를 향상시켰다. HPF는 이를 11.98 ― 17.19 dB로 증가시키고(도 5(B)), PSS는 추가로 12.62 ― 17.44 dB로 증가시킨다(도 5(C)). 이러한 결과들은 개발된 필터들이 배경 잡음을 감소시키고 또한 신호 녹음의 SNR를 향상시킬 수 있다는 것을 보여준다.
3.3 소리 특징의 특성
섹션 2.2.2에서 기술된 바와 같이, 본 발명자들은
Figure pct00142
의 각각의 부 블록에 대해 특징 벡터
Figure pct00143
를 계산했다. 본 발명자들은 부 블록 크기 N = 882 (20 ms)를 이용했다. 선택된 부 블록 크기는 MFCC의 특징 추출을 위한 기본 단위이다. 더 작은 크기들(예를 들어, 10 ms)이 멜 필터 적분에 수반되는 극소수 샘플 때문에 일반적으로 왜곡된 결과들로 이어지고; 더 큰 크기들은 워드 오류율을 증가시키는 경향을 갖는다[28].
특징 벡터
Figure pct00144
는 22 성분을 포함한다:
Figure pct00145
의 14 계수(로그 에너지 및 0번째 ― 12번째 켑스트랄 계수(cepstral coefficients)),
Figure pct00146
의 5 계수, 및 각각의
Figure pct00147
,
Figure pct00148
, 및
Figure pct00149
의 1 계수. 이러한 특징들의 특성을 발견해 내기 위해, 본 발명자들은 CG 및 NG 부류들에서 특정 소리의 확률밀도함수(pdf)를 계산했다. NG는 그러므로 이 작업에서, 광범위한 범위의 비 기침 소리들을 나타낸다; 본 발명자들은 외침(CY), 발성(약어로 VC, 예를 들어, 음성, 전형적 아기 소리) 및 기기 소리(약어로 AS, 예를 들어 문 여닫는 소리, 환자 운반 수레, 침대로부터의 소리)와 같은 가장 우세한 소리를 선택한다.
본 발명자들은 도 6 ― 8에서
Figure pct00150
의 각각의 특징의 평활화된 pdf를 예시한다. 이러한 도면들로부터 알 수 있는 것처럼, 기침과 기타 소리들 간의 특징들(
Figure pct00151
Figure pct00152
)의 분포는 중첩하고 있다. 그러나, 이 특징들의 각각의 구성요소는 고유한 분포를 갖는다.
도 6은 MFCC (M(1), M(4), M(9), 및 M(11))의 무작위로 선택된 성분들로부터의 pdf를 보여준다. 도 5(A) 및 도 5(B)로부터, CG 및 AS 부류들에서의 M(1)의 pdf가 상이한 평균(
Figure pct00153
= 0.31 내지 0.18)을 갖는다는 것을 알 수 있다. 도 5(C)의 M(9)의 pdf는 CG가 CY보다 더 낮은 평균(제각기,
Figure pct00154
= -0.01 내지
Figure pct00155
= -0.13)을 갖는다는 것을 보여준다.
도 7은 포르만트 주파수들의 pdf를 나타낸다. CG와 AS 사이의 F(1), F(3) 및 F(5)의 포르만트 주파수들의 통계적 분포(평균, 표준 편차, 비대칭도 및 첨도)는 구별할 수 있다. CG, CY, VC와 AS에서의 F(2)의 분포는 비슷한 것처럼 보이지만, CG는 최저 평균 (-0.06)를 갖는다. 더욱이, TS에서의 F(4)의 분포는 부류들 중에서 최저 평균 (-0.003)을 갖는다.
도 8에서 본 발명자들은 CG, CY, VC 및 AS의 NGS 인덱스를 도해한다. NGS는 VC 및 CY로부터 CG를 구분하는 잠재력을 갖는다(도 7(D)). 유사하게, 도 6(B)로부터 ZCR이 AS로부터의 CG를 구분하는데 사용될 수 있다는 것을 알 수 있다.
특징들의 pdf는 TDNN이 CG/NG 부류를 분류하기 위한 입력으로서 홀로 이용될 수 있는 어떤 우세한 특징도 없다는 것을 보여준다. 그러므로, 특징들의 각각의 구성요소의 최대 이익을 획득하기 위해, 본 발명자들은 이들을 조합시켰고, CG/NG 부류를 분류하기 위해 d 연속적 특징 벡터를 TDNN의 입력으로서 사용했다.
3.4 CG / NG 분류에서의 TDNN 기반 분석
이 작업에서, 본 발명자들은 5개의 연속적 특징 벡터(d = 5)를 이용했다; 그러므로 입력 층에서의 뉴런들의 수는 (L i =110)이다. 출력 층에서, CG 또는 NG 부류를 대표하는 단 하나의 뉴런 (L o =1)이 있다. L h 에서의 뉴런들의 수를 결정하기 위해, 본 발명자들은 훈련 처리 동안 뉴런들의 몇 가지 수를 테스트했다. 네트워크 (net c )의 성능을 평가하기 위해, 본 발명자들은 하기 수학식들에 의해 정의된 민감도 및 특정도를 계산했다.
Figure pct00156
Figure pct00157
여기서 TP = 진 양성(True Positive), TN = 진 음성(True Negative), FP = 가 양성(False Positive)과 FN = 가 음성(False Negative).
표 4에서, 본 발명자들은 L h 의 다른 값들에 대한 net c 의 성능을 보여준다.
Figure pct00158
표 4로부터 테스트 세트(TeDS)에서, 은닉 층에서의 20 뉴런을 가진 netc가 가장 높은 민감도 및 특정도(둘 모두 91.51%)를 갖는다는 것을 알 수 있다. 그러므로, 이 논의의 나머지에서 본 발명자들은 네트워크 net c (L i =110, L h =20, L o =1)로 고정한다. netc의 뉴런들의 수는 제한된 컴퓨팅 리소스들을 가진 시스템에 사용되기에 충분할 만큼 작다. 소수의 층 및 뉴런들은 CG/NG 분류에 대한 최고 모델을 개발하고 및 훈련에서 주어진 샘플들을 기억하는 것을 회피하기 위한 네트워크의 능력을 또한 향상시킨다.
본 발명자들은, 표 5의 특징들의 상이한 조합을 이용하여, 부 블록 s k [n] 를 기침(CG) 및 비 기침(NG) 부류들로 분류하는 성능을 보여준다.
Figure pct00159
테스트 세트(TeDS)에서, {Z k S hk N k }를 이용하는 분류 결과는 제각기 최저 민감도 및 특정도(79.95 및 99.98)를 보여준다. 조합 {M k F k }는 89.37%의 민감도와 특정도를 가진 더 높은 결과를 갖는다. 대조적으로, {M k F k Z k S hk N k }의 조합은 91.51%의 최고 민감도 및 특정도를 달성했다. 다음으로, 본 발명자들은 TDNN에 대한 입력으로서 조합 {M k F k Z k S hk N k }를 탐구했다.
M = 14, (C m , m = 1, 2, …, 14) 에 대한 TDNN의 성능이 표 6에 도시된다.
Figure pct00160
각각의 실현에 대한 분류 결과들, C m , m = 1, 2, …, 14이 계산되었고, 민감도 및 특정도의 평균과 표준편차가 추정되었다(제각기 91.13 ± 0.0073% 및 91.14 ± 0.0073 %).
2.3. 부 블록들로부터의 기침 세그먼트들의 형성
본 발명자들은 도 9에서, 섹션 3.4에서 분류된 부 블록들로부터 시작하여 기침 세그먼트들의 형성을 설명한다. 도 9(A)는 잡음 저감 처리로부터의 신호를 보여주는 한편, 도 9(B)는 TDNN 기반 분류로부터의 출력 신호(
Figure pct00161
)를 도해한다. 도 9(B)에서, 본 발명자들은 CG 및 NG 부류들(제각기 1 및 0)의 상태의 근사를 나타내는 네트워크 net c 의 출력을 보여준다. 알 수 있는 것처럼, 기침 소리들에 연관된 부 블록들의 그룹들은 1에 가까운 값을 갖는 세그먼트들을 형성하고, 그 외의 경우에는 비 기침 소리로부터의 부 블록들의 그룹들에 대한 것이다. 도 9(B)로부터 이들이 음성들과 중첩한다 하더라도(CG3 신호로 예시됨), 네트워크 net c 가 부 블록들을 CG 및 NG 부류들이 되도록 효과적으로 분류한다는 것을 또한 알 수 있다. 그러나, CG2와 CG5 세그먼트들의 중앙부들에서의 부 블록들의 몇몇은 높은 값으로부터 낮은 값들로의 날카로운 전이에 의해 표시되는 NG 부류로서 잘못 분류되었다.
세그먼트들을 순화(refine)하고 세그먼트들에서 잘못 분류된 부 블록들을 감소시키기 위해, 본 발명자들은 신호를 이동평균 필터에 기초한 평활화 처리로 처리했다. 이 국면에서, 본 발명자들은 주의 깊게 이동평균 필터의 스팬을 (
Figure pct00162
= 9)로서 선택했다. 본 발명자들은 도 9(C)에 평활화 처리로부터 획득된 평활화된 신호 (
Figure pct00163
)를 보여준다. 도 9(C)로부터 알 수 있는 것처럼, 대응하는 세그먼트들에서의 날카로운 전이 부분들이 감소되었다.
기침 세그먼트들의 시작 및 종료를 결정하기 위해,
Figure pct00164
에서의 모든 성분들은 임계값 (
Figure pct00165
)에 대하여 비교되었다. 대응 성분은
Figure pct00166
이면 1에 설정될 것이고, 그렇지 않으면(
Figure pct00167
) 0에 설정될 것인데,
Figure pct00168
는 0.05에 설정되었다. 이
Figure pct00169
값은 분류기 성능을 최대화하도록 선택되었다. 본 발명자들은 도 9(D)에서 스레시홀딩 처리로부터의 출력 신호(
Figure pct00170
)를 보여준다. 이것은 1과 0 성분들로부터 형성되는 두 개의 세그먼트들의 그룹을 포함한다. 본 발명자들은 기침 세그먼트 후보들로서 1의 성분들을 가진 세그먼트들을 표시했다.
다음으로, 본 발명자들은 세그먼트의 시작으로서의 기침 세그먼트 후보에서의 제1 성분 및 세그먼트의 종료로서의 마지막 성분을 정의했다. 섹션 3.3 및 3.4로부터 본 발명자들은 세그먼트에서의 각각의 성분이 20 ms 부 블록의 부류를 나타내는 것을 알았다. 그러므로, 본 발명자들은 세그먼트의 시작 및 종료 사이의 성분들의 수를 20ms와 곱셈처리함으로써 세그먼트의 지속 시간을 계산할 수 있다. 본 발명자들은 각각의 세그먼트의 지속 시간 (
Figure pct00171
)을 계산했고, 섹션 3.1에서 획득된 최소 및 최대 기침 지속 시간에 대하여
Figure pct00172
를 테스트했다. 경계 내의 지속 시간(
Figure pct00173
)을 갖는 기침 세그먼트 후보들만이 기침 세그먼트들로 선택되었다. 이 처리의 도해가 도 10에 도시된다. 도면으로부터, 제안된 방법이 이들이 상이한 세기 및 지속 시간을 가진다 하더라도 효과적으로 기침(CG1―CG6)을 세그먼팅할 수 있다는 것을 알 수 있었다. 더욱이, 기침 소리 CG3이 음성과 중첩할지라도, 본 방법은 대응 기침 소리를 추출할 수 있다. 또한 도 9(D)에 도시된 잘못된 세그먼트(FD)도 제거되었다.
도 11은 외침 소리들과 혼합된 기침 소리들을 포함하는 전형적 신호에서의 세그먼테이션 방법의 출력을 도해한다. 본 방법은 신호로부터 성공적으로 2개의 기침 소리를 추출했고, 외침의 긴 지속 시간으로부터 하나의 잘못된 세그먼트만을 검출했다.
본 발명자들은 표 7에서 M = 14, (C m , m = 1, 2, …, 14)에 대한 본 발명자들의 세그먼테이션 방법의 성능을 보여준다.
Figure pct00174
각각의 구현에 대한 세그먼테이션 결과들, C m , m = 1, 2, …, 14 가 계산되었고, 민감도 및 특정도의 평균과 표준 편차가 추정되었다(제각기, 95.07±3.43%와 94.76±4.02%). 이 결과는 또한 부 블록들 처리로부터의 기침 세그먼트들의 형성이 부 블록들 분류의 결과들과 비교하여 민감도 및 특정도를 약 4% 만큼 향상시킨다는 것을 보여준다. 제안된 방법은 외침, 음성, 및 기타 환경 소리들과 같은 소리들을 성공적으로 무시하였다.
이 작업에서, 본 발명자들은 비 접촉식 센서를 이용하여 인도네시아의 소아 병동에서 소아들로부터 기침을 녹음했다. 본 발명자들은 비 접촉식 센서가 배치 및 감염 제어의 용이성 때문에 이 목적들을 위해 바람직하다는 것을 발견했다.
본 작업은 이전 연구들이 손대지 않은 채 남겨두었던 영역인 5.5세 미만의 소아 집단들에 초점을 맞췄다. 이 연령 범위에서의 소아는 높은 비율의 이환율 및 사망률에 의해 보여지는 호흡기 질환들에 더욱 취약하다. 그러므로, 모집단들로부터의 신호를 분석하기 위한 방법을 개발하기 위한 조사는 매우 중요하다.
폐렴/비 폐렴 및 젖은 기침/젖지 않은 기침 소리 분류 방법
도 12를 이제 참조하면, 본 발명의 추가 양태의 양호한 실시예에 따른 방법을 도해하는 블록도를 보여준다. 도 12에 도해된 방법은 환자와 연관되는 특정 질병 상태들, 예를 들어 폐렴/비 폐렴 분류의 진단을 위해 개발된다. 본 발명의 실시예에 따른 분류 방법의 추가 실시예는 본 명세서의 끝에서 논의된다.
임상 평가와 포함-제외 기준
이 작업에 대한 데이터 수집 환경은 인도네시아, 가드자 마다 대학, 사르드지토 병원의 호흡 의약부이다. 대상의 모집단은 호흡기 질환 증상을 갖는 개인들을 포함한다. 병원의 일반 병동에 입원한 환자들이 제시된 증상들에 대해 임상의에 의해 평가되었다. 모든 관찰들은 표준 시트로 문서화되었다. 관찰들은 기침, 콧물, 열, 호흡 곤란, 설사 등의 존재를 포함했다. 임상의는 또한 체온, 호흡율, SpO2 및 심박수를 기록했다.
표 8은 포함 및 제외 기준을 열거한다. 포함 기준을 충족하는 모든 모든 환자들과 교섭하였다. 사전 동의가 이루어졌다. 환자들은 이들의 입원 후 처음 12 시간 내에 모집되었다. 사전 동의 후에 연속적 소리 녹음이 다음 4―6 시간 동안 이루어졌다.
Figure pct00175
A. 데이터 수집 및 녹음 시스템.
소리 녹음들은 병원의 일반 성인 병동에서 이루어졌다. 환자는 커튼들로 분리되어 5명의 다른 환자와 방을 공유했다. 환자들은 자신들의 가족 구성원들을 동반했다. 주치의는 정기적으로 환자를 방문했지만, 환자와 관련된 어떤 은밀한 정보도 녹음되지 않았다. 녹음들에 존재하는 흔한 잡음은 천장 선풍기, 발걸음, 음성, 문 여닫는 소리, 환자 운반 수레 움직임, 및 방 외부로부터의 기타 모호한 잡음들로부터 온 것이다.
기침 소리 녹음들은 두 가지 시스템을 이용하여 이루어졌다.
(i) 전산화된 데이터 수집 시스템 ― 하이퍼카르디오드(hypercardiod) 빔 패턴을 갖는 매칭된 저잡음 마이크로폰들의 쌍(모델 NT3, RODE, 시드니, 오스트레일리아)을 구비한 고 충실도, 전문 품질의 전치 증폭기 및 A/D 컨버터 유닛(모델 모바일-Pre USB, M-Audio, 캘리포니아, 미국).
( ii ) 휴대용 녹음 시스템 ― 두 개의 정밀 콘덴서 마이크로폰을 구비한 최고급, 경량의 휴대용 2-AA 배터리 전력 공급 오디오 녹음기(올림푸스 LS-11).
양쪽의 녹음 장치들에서 본 발명자들은 16 비트 분해능을 가진 44.1 kHz의 샘플링 레이트를 이용했다. 마이크로폰에서 환자 입까지의 공칭 거리는 50 cm이었지만, 환자 움직임으로 인해 40 cm 내지 70 cm까지 변할 수 있었다.
본 발명자들은 병원으로부터의 임상적 진단 정보의 지원을 받는 디지털 소리 데이터를 수령했다. 데이터는 비밀번호 관리의 엄격한 정책 하에서, 완전하게 식별 해제되었고 안전한 방화벽 배후에 저장되었다. 데이터의 액세스는 주요 연구자에 의해 개별적으로 권한 부여된 연구 참가자들로 제한되었다.
B. 기침 소리 데이터로부터의 특징 계산
도 12는 폐렴/비 폐렴 분류를 위해 개발된 전체 알고리즘의 블록도를 도시하는 한편, 도 15는 젖은 기침/젖지 않은 기침 소리 분류를 위해 개발된 알고리즘의 블록도를 도시한다.
도 13은 두 개의 기침 이벤트를 가진 기침 소리 데이터의 샘플을 보여준다. 기침 이벤트들의 시작 및 종료는 주의 깊은 청취 후에 수작업으로 마킹되었다. 기침 이벤트들의 시작 및 종료의 수작업 점수 매기기(manual scoring) 후에, 본 발명자들은 기침 사건 데이터로부터 수학적 특징들을 계산하기 위해 하기 단계들을 따랐다.
[C1]. x[k]가 이산 시간 기침 소리의 k 번째 샘플을 표시하도록 하자. y[k]를 얻기 위해 디지털 고역통과필터를 이용하여 x[k]를 필터링한다. z-변환에서의 필터의 전달함수는 수학식 1에 의해 주어진다. 도 14는 B=[1 - 0.85] 및 A = [1]을 가진 필터 응답을 보여준다.
[수학식 1]
Figure pct00176
젖은 기침/젖지 않은 기침 소리 분류를 위해, y[k] 를 'n'개의 동일 크기 세그먼트들로 분할한다. yn[k] 가 y[k]의 n번째 세그먼트를 나타내도록 하자.
폐렴/비 폐렴 분류에 대해 이런 부 세그먼테이션은 고려되지 않는다.
[C2]. 폐렴 분류의 경우에는 필터링된 기침 세그먼트 y[k]로부터, 및 젖음/젖지 않음 분류의 경우에는 각각의 필터링된 부 세그먼트(subsegment) yn[k]로부터 하기 특징들을 계산한다.
1. 가우시안 점수( Non - Gaussianity Score : NGS ) ― NGS는 데이터의 주어진 세그먼트의 비 가우시안의 측도를 나타낸다. 정규 확률도가 데이터 세트의 가우시안의 시각적 측도를 획득하기 위해 활용될 수 있다. 데이터 세그먼트 y[k]의 NGS는 수학식 2를 이용하여 계산될 수 있다. 수학식 2에서, p(k) 및 q(k)가 확률들을 나타내고
Figure pct00177
Figure pct00178
가 제각기 참조 정규 데이터와 분석된 데이터의 평균을 나타낸다는 것을 유의하라. NGS를 계산하는 상세 방법은 [29]에서 찾을 수 있다.
[수학식 2]
Figure pct00179
2. 포르만트 주파수들 ― 인간 음성 분석에서 포르만트는 인간 성도의 공명으로서 지칭된다. 이들은 음향 신호의 LPC 스펙트럼에서의 진폭 피크로서 시현된다. 본 발명자들은 첫번째 4개의 포르만트 주파수 (F1, F2, F3, F4)를 특징 세트에 포함시켰다. 음성 및 음향 분석에 대한 과거의 연구는 F1―F4가 상부 기도의 여러 음향 특징에 대응한다는 것을 보여주었다[30]. 본 발명자들은 LPC 스펙트럼을 피크 선택(peak picking)하여 F1―F4를 계산했다. 이 작업을 위해 본 발명자들은 14번째 차수 LPC 스펙트럼을 이용했고 그것의 파라미터들은 레빈슨-더빈 회귀 절차와 함께 율-워커 자기회귀 방법을 통해 결정되었다[31].
3. 로그 에너지( LogE ) ― 세그먼트 y[k]에 대한 로그 에너지는 수학식 3을 이용하여 계산되었다.
[수학식 3]
Figure pct00180
여기서
Figure pct00181
는 0의 로그의 임의의 예기치 않은 계산을 방지하기 위해 더해진 임의의 작은 양의 상수이다.
4. 제로 크로싱 ( Zcr ) ― 제로 크로싱 수는 각각의 기침 이벤트에 대해 계수되었다.
5. 첨도( Kurt ) ― 첨도는 수학식 4를 이용하여 계산된, 기침 이벤트 데이터 y[k]의 확률 분포와 연관되는 피크화 정도(peaked-ness)의 측도이고, 여기서 수학식 4에서의
Figure pct00182
Figure pct00183
는 y[k]의 평균 및 표준편차이다.
[수학식 4]
Figure pct00184
6. MFCC ( Mel - frequency cepstral coefficients ) ― MFCC들은 음성 분석 시스템들에 흔하게 사용된다[32]. 이들은 주파수의 비선형 멜 스케일상에서의 로그 파워 스펙트럼의 코사인 변환에 기초하여 음향 신호의 단기간 파워 스펙트럼(short term power spectrum)을 나타낸다. 본 발명자들은 특징 세트에 12개의 MFCC 계수를 포함시켰다.
7. 이변량 스펙트럼 점수( Bispectrum Score : BS ) ― 신호의 3번째 차수 스펙트럼은 이변량 스펙트럼으로서 알려져 있다. 이변량 스펙트럼은 3번째 차수 누적률(cumulant)을 추정하고 이후 2D-푸리에 변환을 취하는 것을 통해 추정될 수 있고, 이변량 스펙트럼을 추정하는 간접 방법으로서 알려진 본 방법이 이어졌다. 3번째 차수 누적률
Figure pct00185
는 [33]에서 정의된 수학식 5를 이용하여 추정될 수 있다.
[수학식 5]
Figure pct00186
누적률 추정에 이변량 스펙트럼 윈도 함수를 적용함으로써, 윈도 처리된 누적률 함수
Figure pct00187
가 획득되었다. 본 발명자는 이 목적을 위해 [34]에 기술된 최소 이변량 스펙트럼 바이어싱 최소 상계(supremum) 윈도를 사용하였다.
세그먼트 y[k]의 이변량 스펙트럼 B(ω12)는 수학식 6을 이용하여 누적률 추정치
Figure pct00188
의 2-D 푸리에 변환으로서 추정되었다. 본 발명자들은 512개 포인트의 FFT 길이를 이용했다.
[수학식 6]
Figure pct00189
주파수 도메인에서, 양
Figure pct00190
는 양
Figure pct00191
만큼
Figure pct00192
-축을 따라 원점으로부터 시프팅되고 또한 각
Figure pct00193
Figure pct00194
-축에 경사진 1차원 슬라이스를 기술하는
[수학식 7]
Figure pct00195
이도록 데이터 세그먼트 y[k]에 대해 정의될 수 있다[5]. 이 작업을 위해, 본 발명자들은
Figure pct00196
Figure pct00197
로 설정하여 고려되는 이변량스펙트럼의 슬라이스가 45도 만큼
Figure pct00198
-축에 대해 경사지고, 원점을 통과해 나아가도록 한다(즉,
Figure pct00199
평면에서
Figure pct00200
에 의해 기술되는 선분).
이변량 스펙트럼 점수(BS)는 수학식 8을 이용하여 계산된다. 수학식 8에서, 본 발명자들은 = 90hz, ω2= 5khz,
Figure pct00202
= 6khz 및
Figure pct00203
= 10.5khz를 사용했다.
[수학식 8]
Figure pct00204
특징 계산 후에, 각각의 기침 세그먼트에 대해, 폐렴 분류의 경우에 본 발명자들은 21개의 특징을 포함하는 특징 벡터를 형성하고(MFCC로부터 12개; 4 ―포르만트 주파수; NGS, LogE, Zcr, Kurt 및 이변량 스펙트럼으로부터 각각 1) 및 젖은 기침/젖지 않은 기침의 분류의 경우에 본 발명자들은 63개의 특징을 포함하는 벡터를 얻는다(MFCC로부터 36; 12 ― 포르만트 주파수; NGS, LogE, Zcr, Kurt 및 이변량 스펙트럼으로부터 각각 3).
C. 폐렴 분류 모델 및 특징 최적화
본 발명자들은 기침 기반 특징들을 이용하는 폐렴 분류에 대한 3단계 처리를 따랐는데, 이는 하기와 같다 ―
단계 1. 제1 단계에서, 본 발명자들은 각각의 기침 이벤트를 2개의 범주, '폐렴 기침' 또는 '비 폐렴 기침' 중 하나로 분류했다. 이 문제를 해결하기 위해, 본 발명자들은 각각의 기침 이벤트에 대한 특징 벡터를 형성했고, 기침 이벤트들을 2개의 범주로 분리할 수 있는 모델을 도출했다. 상이한 모델들이 표 9에 나타난 바와 같이 상이한 특징 세트에 의해 도출되었다.
Figure pct00205
기침 분류를 위해, 로지스틱 회귀 통계 모델(Logistic Regression statistical model)을 사용했다. 이것은 일반화된 선형 모델이고 범주형 이벤트(종속 변수)의 확률을 추정하기 위해 몇가지 예측기들(predictors)(독립 변수들)을 이용한다.
이 작업(폐렴 분류 모델링)에서, 종속변수 Y는 폐렴 기침에 대해서는 "1"(Y=1)에 비 폐렴 기침에 대해서는 "0"(Y=0)에 동일한 것으로 가정된다.
모델은 다음과 같이 독립변수들(즉, 특징 세트)이 주어지면 확률 Y=1(즉, 기침 이벤트는 '폐렴 기침' 범주에 속한다)을 추정하기 위해 로지스틱 회귀 함수를 이용하여 도출된다:
[수학식 9]
Figure pct00206
[수학식 10]
Figure pct00207
수학식 10에서
Figure pct00208
는 인터셉트(intercept)로 불리고,
Figure pct00209
및 등등은 제각기 독립변수들(특징들) x1, x2 의 회귀 계수로 불린다.
로지스틱 회귀 모델은 MATLAB 통계 툴 박스 버전 7.5를 이용하여 설계되었다. 특징들은 최종 모델에서, 분류를 용이하게 하는 최고의 독립변수들(낮은 'p' 값을 가진 변수들)만을 포함하기 위해 선택되었다. 최종 모델은 이후 확률 P를 추정하는데 사용되고, 각각의 기침 이벤트는 확률 임계값 P th 를 이용하여 2개의 범주 중 어느 한 쪽에 속하는 것으로 분류된다.
단계 2. 각각의 환자에 대한 제2 단계에서, 본 발명자들은 '폐렴 기침'의 수를 합산했고, (9)를 이용하여 'PCI(Pneumonic Cough Index)'로 불리는 인덱스를 계산했다.
[수학식 11]
Figure pct00210
단계 3. 제3 단계에서 본 발명자들은 환자들을 두 가지 부류, '부류I―폐렴' 및 '부류 II―비 폐렴'으로 분류하기 위해 미리 정해진 임계값 PCI th (특정도 > 75%를 유지하는 한편 높은 민감도에 대해 최적화됨)를 PCI에 적용했다.
젖은/젖지 않은 기침 분류 모델
젖은 기침 및 젖지 않은 기침 분류를 위해, 본 발명자들은 다시 로지스틱 회귀 통계 모델을 사용했다. 이 경우에, 종속변수 Y는 젖은 기침에 대해 "1"(Y=1)과 및 젖지 않은 기침에 대해 "0"(Y=0)과 동일한 것으로 가정된다.
모델은 수학식 9 및 수학식 10을 이용하여 독립변수들(즉, 특징 세트)이 주어지면 확률 Y=1을 추정하기 위해 (즉, 기침 이벤트가 '젖은 기침'의 범주에 속함) 로지스틱 회귀 함수를 이용하여 도출된다. 특징들은 이후 최종 모델에서, 분류를 용이하게 하는 최고의 독립변수들(낮은 'p' 값을 가진 변수들)만을 포함하기 위해 선택되었다. 최종 모델은 이후 확률 P를 추정하는데 사용되고 각각의 기침 이벤트는 확률 임계값을 이용하여 2개의 범주 중 어느 한 쪽에 속하는 것으로 분류된다.
III. 3. 폐렴 분류 결과들
A. 데이터베이스 및 임상적 진단
총 541 기침 이벤트가 81명의 대상 소리 녹음으로부터 분석되었다(최소 2회, 최대 12회, 및 평균하여 6.6±2.14회의 기침 이벤트들). 81명의 대상 중에서, 50명은 폐렴 환자들이었고 31명은 비 폐렴 환자들이었다. 비 폐렴 환자들은, 예를 들어, 천식 ― 11, 기관지염 ― 8, 비인두염 ― 6 및 기타(천명, 인두편도선염, 심장 질환, 후두연화증, 이물질 흡입) ― 6과 같은 질환들을 가지며 포함되었다. 흉부 X선이 모든 폐렴 의심 환자들에 대해 실행되었다. 흉부 X선이 수행되지 않은 19명의 환자 중에서는, 8명은 천식, 5명은 비인두염, 2명은 기관지염, 4명은 기타 질병 환자들이었다. 표 10은 환자 데이터베이스의 연령 및 성 통계치를 제공한다.
Figure pct00211
섹션 2.D. 단계 1에서의 로지스틱 회귀를 이용하여 기침 분류 모델을 도출하기 위해, 본 발명자들은 2개의 그룹, 훈련 세트 및 테스트 세트로 본 발명자의 데이터베이스를 무작위로 분할했다. 모델을 검증하기 위해, 본 발명자들은 81 대상의 데이터베이스로부터 200 개의 상이한 훈련 및 테스트 데이터 세트를 생성했다. 각각의 훈련 세트 및 테스트 세트는 상호 배타적이었고, 제각기 56 및 25 대상을 가졌다.
B. 폐렴 진단에 대한 WHO 기준 대 임상 진단
표 11은 81 대상의 데이터베이스에 대한 WHO 기준을 이용한 폐렴 진단 및 임상적으로 진단된 폐렴 사례에 대한 분할표(contingency table)이다.
Figure pct00212
C. 폐렴 기침 인덱스에 기초한 폐렴 진단
표 12는 표 9에 주어진 설계된 4개의 로지스틱 회귀 모델을 이용하여 기침 이벤트들을 2개의 범주로 분리하는 데 있어서 훈련 및 테스트 분류 결과들을 보여준다.
Figure pct00213
표 13은 폐렴 기침 인덱스를 이용하는 폐렴 분류 결과들을 제공한다. 표 12에 따라, LR-모델5는 기침 이벤트 분류에 대한 최고 분류 결과들을 제공한다(평균 민감도 및 특정도가 제각기 85.6±8% 및 80.1±12% 였다). 그러나 폐렴 분류 작업에서는 LR-모델4가 LR-모델5보다 성능이 더 양호하였다. 이것은 제각기 86.2±9.6 및 84.3±15의 평균 민감도 및 특정도를 달성했다.
Figure pct00214
IV. 젖음/젖지 않음 분류 결과들
A. 훈련 및 테스트 데이터 세트
46 대상으로부터의 총 178회 기침 이벤트가 분석되었다. 데이터베이스에서의 대상들의 남성 대 여성 비는 1:1이었다. 대상들의 평균 연령은 3살 1개월이었다. 만성 기침, 천식 및 기타 호흡기 질환들에 전문성을 가지고 소아 질병 분야에서 20년 이상의 임상 및 연구 경험을 가진 소아과 의사가 수작업으로 178개 기침 이벤트를 주의 깊은 청취 후에 젖음 및 젖지 않음으로 분류하였다. 본 발명자들은 이 수작업 분류를 설계된 LR 모델에 의한 자동 분류의 결과들과의 비교 대상인 '참조 표준'으로서 간주한다.
참조 표준에 의해 분류된 바로는, 178 기침 이벤트 중 82개가 젖음이었고, 96개는 다른 것이었다. 본 발명자들은 훈련용으로 기침 이벤트들 중 70%(124개 기침 이벤트) 및 모델 테스트용으로 30%(54개 기침 이벤트)를 사용했다. 기침 이벤트들을 훈련하고 테스트하는 것은 난수 발생기를 이용하여 무작위로 선택되었다. 모델을 검증하기 위해, 본 발명자들은 178개 기침 이벤트로부터 200개의 상이한 훈련 및 테스트 데이터 세트를 생성했다.
B. 분류 결과들
LR-모델을 이용한 젖음/젖지 않음 분류에 대한 평균 민감도 및 특정도는 모든 기침 특징들이 모델을 훈련하는데 사용되었을 때 테스트 데이터 세트에 대해 제각기 74.8±9%와 69.9±9.4%였다. 평균 민감도 및 특정도 값들은 선택된 기침 특징들만이 이용되었을 때 79±9%와 72.7±8.7%로 도약했다. 특징 최적화 후에 63개 중에서 모두 22개 특징이 선택되었다. 선택된 특징들은 BSG, LogE 및 Kurt로부터 각각 1; NGS로부터 2; ZCR로부터 3; 포르만트 주파수로부터 5; 및 MFCC로부터 9였다.
표 14는 훈련 및 테스트 데이터 세트에 대한 평균 민감도, 특정도, 정확도 및 카파(kappa) 결과들을 보여준다.
LR-모델과 참조 방법 사이의 카파 일치는 모든 기침 특징들이 이용될 때 0.45±0.12이었고, 선택된 기침 특징들만이 이용될 때 0.52±0.1이었다.
Figure pct00215
도 16은 200 훈련 및 테스트 데이터 세트를 이용하여 획득된 민감도 및 특정도에 대한 히스토그램도를 보여준다.
표 15는 200 중에서 최고 LR-모델에 대한 분할표를 보여준다. 이것은 90%의 민감도, 80%의 특정도 및 0.71의 높은 카파 일치를 갖는다.
Figure pct00216
본 발명의 양태의 추가의 및 바람직한 실시예에 따른 제2 폐렴 진단 방법이 지금 기술될 것이다.
V. 2. 제2 폐렴 진단 방법을 위한 물질 및 방법
본 발명의 양호한 실시예의 전반적 접근법이 도 17에 요약된다. 본 방법은 3개의 주요 국면으로 구성된다: 대상들로부터의 데이터의 수집, 특징들의 개발 및 패턴 분류기들의 훈련, 및 예측적 검증(prospective validation) 및 기술 성능 평가. 섹션 2A-2C에서 본 발명자들은 이러한 단계들의 상세 사항들을 제공한다.
D. 기침 소리 데이터베이스의 개발
이 작업을 위한 임상 데이터 수집 환경은 인도네시아, 가드자 마다 대학, 사르드지토 병원의 호흡 의약부이다. 표 16은 대상들의 포함 및 제외 기준들을 열거한다.
Figure pct00217
폐렴, 세기관지염, 기관지염, 천식, 비인두염 등등과 같은 급성 호흡기 질환을 의심받는 환자가 연구를 위해 모집되었다. 사전 동의는 가드자 마다 대학교 및 퀸즈랜드 대학교의 인간 윤리위원회들에 의해 승인 받은 양식을 이용하여 이루어졌다. 환자들은 이들의 입원 후 12 시간 내에 모집되었다.
소아과 임상의는 제시된 증상에 대해 환자를 평가했다. 기침의 존재, 코감기, 열, 호흡 곤란, 설사 등등과 같은 모든 관찰들이 표준 시트로 문서화되었다. 데이터베이스는 또한 일상적 인구 통계학적 정보 및 임상 결과들(예를 들어 흉부 청진, 호흡률, 산소 측정, 온도)뿐만 아니라 실험실 (예: 피, 침 분석) 검사들을 포함했다. 이 논의에서의 폐렴 진단에 사용되는 참조 표준은 임상적 제시, 실험실 테스트들, 흉부 X선 및 질병의 임상 경과를 기초로 하여, 의사들이 제공한 전체적 진단이다. 소아들에 대한 방사선 노출을 최소화하기 위해, X선은 임상적으로 폐렴이 의심되는 대상들에만, 또는 이것을 위한 명백한 임상적 필요가 있다면, 수행되었다. 그러므로, 본 발명자들의 데이터베이스에서의 모든 대상들이 X선 촬영을 받지는 않았다.
초기 의료적 평가 후에, 소리 녹음들은 호흡기 병동의 자연적 환경에서 이루어졌다. 본 발명자들은 침대 옆 마이크로폰들(Rode® NT7 또는 Olympus® LS11, 44.1kHz 샘플링 레이트)을 이용하여 각각의 환자로부터 6-8 시간의 지속 시간의 소리 데이터 녹음들을 수집하였다. 입에서부터 마이크로폰까지의 거리는 환자 머리의 위치에 의존하여 40cm에서 70cm까지 변할 수 있다. 본 발명자들의 목적은 입에서부터 녹음 장치까지의 거리가 진단에서 어떤 중요한 역할도 하지 않도록, 세기 변동들에 대항하는 강건한 기술을 개발하는 것이었다.
본 발명자들은 본 발명자들의 기술을 개발하고 검증하기 위해 총 91명의 환자(63명의 폐렴 및 28명의 비 폐렴 대상)를 이용했다. 세기관지염, 천식, 기관지염, 인두염, 후두연화증과 같은 질병들이 비 폐렴 그룹으로 함께 묶인다. 대상들의 상세 사항들이 도 18에 주어진다. 본 발명자들이 마음대로 할 수 있는 전체적 데이터 세트는 두 개의 비 중첩 그룹으로 분리되었다: 모델 개발 데이터 세트(Dmd) 및 예측적 데이터 세트(Dpv). 이러한 2개의 데이터 세트는 서로 완전히 독립적이다. 세트들 Dmd 및 Dpv 는 기침들 또는 어떠한 대상들도 공유하지 않았다. 환자들은 병원의 호흡기 클리닉에 제시된 순서에 기초하여 각각의 그룹에 할당되었다. Dmd 및 Dpv 는 제각기 Nmd =66 및 Npv=25로 구성되었다.
각각의 대상으로부터의 소리 데이터가 약 6-8시간의 또는 연속적인 녹음들로 구성되었다. 기침 소리들은 주의 깊은 청취 처리 후에 수작업으로 세그먼팅되었다. 기침들의 자동 식별을 위한 어떤 수용된 방법도 없고 수작업 분석이 연구 저술에서뿐만 아니라 임상적 작업에서도 황금 표준으로서 여전히 이용된다. 도 19는 (a) 폐렴-기침, (c) 천식-기침, (e) 기관지염-기침 및 (g) 세기관지염-기침 파형들 및 이들의 대응 파워 스펙트로그램(power spectrogram)의 전형적 예들을 보여준다. 지속 시간 및 파워 스펙트로그램 크기에서의 폐렴 기침과 기타 기침들 간의 명백한 특징 차이를 알 수 있다.
E. 특징 추출 및 패턴 분류기 설계
본 발명자들은 이 섹션에서 기술되는 작업에 대한 모델 개발 데이터 세트 Dmd 를 이용했다. Cmd 가 Dmd에서의 대상들로부터의 기침 이벤트들의 전체 수라고 하자. 여기서 취하는 접근법은 특징들을 개발하고 모델 파라미터들을 최적화하기 위해 리브-원-아웃 모델 구축(leave-one-out model building) 및 검증 처리를 사용한다. 이 프레임워크 내에서, 본 발명자들의 방법은 네 개의 주요 처리 단계(도 17 참조), 하기 기술된 단계-1 내지 단계-4로 기술될 수 있다.
제1 단계에서 본 발명자들은 특징 행렬을 계산한다. 제2 단계에서 본 발명자들은 기침 소리들을 '폐렴 기침'과 '비 폐렴 기침' 부류들로 분류하기 위해 단계 1로부터의 특징 행렬을 이용하는 자동 분류기들을 설계한다. 제3 단계에서 본 발명자들은 최적 분류기를 선택하고 제4 단계에서 본 발명자들은 폐렴을 가진 환자들을 식별하기 위해 PCI(Pneumonic Cough Index)로 불리는 새로운 인덱스를 정의한다.
단계-1: 기침 특징들의 추출 및 확장
이 단계에서, 제1 목표는 폐렴 진단 알고리즘에 사용될 기침 소리들로부터의 특징을 추출하는 것이다. Dmd 에서의 각각의 기침 이벤트로부터의 수학적 특징들은 다음과 같이 계산되었다:
[1]. x가 임의의 기침 이벤트로부터 이산 시간 소리 신호를 표시한다고 하자.
[2]. x를 'n=3'의 동일 크기의 비 중첩 부 세그먼트들로 세그먼팅한다. 문헌1 9에서, 임상의들 및 과학자는 동일하게 다음의 3 국면으로 구성되는 기침 소리들을 기술하였다: (i) 초기 오프닝 버스트, (ii) 이어지는 잡음성 기류 및 최종의 (iii) 성문 폐쇄(glottal closure). 이러한 국면들이 기침의 품질에 특정적인 상이한 중요 정보를 나른다는 것이 보여졌다. 이를 토대로 본 발명자들은 각각의 기침 세그먼트를 n=3 부 세그먼트들로 나누었다. xi가 x의 i번째 부 세그먼트(여기서 i = 1, 2, 3,…., n )를 나타낸다고 하자.
[3]. 각각의 부 세그먼트들에 대해, xi 는 하기 특징들을 계산한다: 이변량 스펙트럼 점수(Bispectrum Score: BGS), 비가우시안 점수(Non-Gaussianity score: NGS), 처음 4개 포르만트 주파수(FF), 로그 에너지(LogE), 제로 크로싱(ZCR), 첨도(Kurt), 및 12개의 MFCC(Mel-frequency cepstral coefficients). 본 발명자들이 신호 xi에서 에너지를 표현하는 MFCC의 0번째 계수를 이용하지 않는다는 것에 주목하자.
[4]. Dmd에서 모든 Cmd 기침 이벤트들에 대해 단계들 (i)―(iii)을 반복한다.
이 처리는 각각의 부 세그먼트 xi 에 대해 크기
Figure pct00218
의 후보 기침 특징 행렬 Mc로 이끈다. 여기서 Cf = 63 은 기침 기반 특징들을 나타내고 Cmd 는 데이터베이스 Dmd에서의 총 기침 이벤트이다.
진단 알고리즘의 가장 단순한 형태에서는, 본 발명자들은 폐렴을 진단하기 위해 기침 기반 특징들만을 이용할 것이다. 그러나, 본 발명자들은 복잡도에 있어서 최소의 비용으로 본 발명자들의 알고리즘들을 향상시키는데 사용될 수 있는 몇몇 단순한 임상적 측정들의 존재를 인식한다. 지원 빈약 지역들에 대한 WHO 알고리즘인, 표 17은 연령 및 호흡률들을 이용하고, 기타 연구자들은 열의 존재를 이용했다.
Figure pct00219
단독으로든 또는 조합으로든 이것들 중 어느 것도 외딴 지역들에서의 바라는 진단 성능을 산출하지 못했지만, 이런 측정들은 기침 도출된 특징들을 확장시키는 잠재력을 갖는다. 파라미터들 중 하나로서 연령을 이용하는 WHO 알고리즘에 자극을 받아서, 본 발명자들은 본 발명자들의 모델들의 후보 파라미터로서 개월 수로서의 연령을 이용했다. 본 발명자들은 또한 열의 존재 또는 결여를 2진 변수로 사용했다. WHO 알고리즘에서, 호흡률은 폐렴을 진단하기 위한 가장 중요한 파라미터로서 이용된다. 본 발명자들의 작업에서, 본 발명자들은 새로운 측도(수학식 1 참조)를 제안하는데, 본 발명자들은 이것을 폐렴에서의 호흡률 상승들을 포착하기 위한 BrI(Breathing Index)로 부른다.
[수학식 1]
Figure pct00220
수학식 1에서 BR은 호흡률이고, 연령은 개월 수로서의 환자의 나이이다. 열이 폐렴의 흔한 증상이기는 하지만, 이것은 폐렴에 특유한 것이 아니다. 비슷한 관찰이 호흡률에 대해서도 성립한다. 표 18은 후보 특징 세트 Fc={Cf, f 1, f 2, ....f f}를 보여주는데, 여기서 Cf는 기침 도출된 특징들을 보여주고, 나머지는 본 발명자들의 모델들에 사용되는 확장된 특징을 나타낸다.
Figure pct00221
여기서 체크 표시는 모델 설계에서 해당 특징의 포함을 표시한다. 호흡 인덱스는 녹음된 호흡률로부터 호흡 임계값을 감산함으로써 계산되었다.
본 알고리즘들의 최종 특징들은 후보 특징들의 그룹으로부터 도출될 것이다. 특징 선택, 모델 개발 및 검증의 상세 사항들은 하기 단계 2에서 기술될 것이다.
[단계 2] 특징 선택 및 자동 분류기 설계 ― 본 발명자들은 LRM(Logistic-regression model)을 양호한 패턴 분류기로 사용했지만, 당업자는 기타 분류기 방법들이 또한 적용 가능하다는 것을 알 것이다. LRM은 범주형 이벤트(종속 변수)의 확률을 추정하기 위해 몇 가지 독립적 특징들을 이용하는 일반화 선형 모델이다. 이 작업에서, 종속 변수 Y는 폐렴 기침에 대해 "1"(Y=1) 및 비 폐렴 기침에 대해 "0"(Y=0)과 동일한 것으로 가정된다. 폐렴의 진단 분류에 의해 대상으로부터 도출된 기침 이벤트들은 폐렴 기침들이라고 표식이 붙고 그 반대로도 된다. 모델은 하기와 같이 독립적 기침 특징들(즉, Fc={Cf, f 1, f 2, ....f f })이 주어지면 확률 Y를 추정하기 위해 회귀 함수를 이용하여 도출된다:
[수학식 2]
Figure pct00222
[수학식 3]
Figure pct00223
수학식 2 및 수학식 3에서, f1, f2, ...fF는 특징 벡터 Fc의 성분들(독립변수들)이고,
Figure pct00224
는 인터셉트로 불리고,
Figure pct00225
및 기타 등등은 독립변수들의 회귀 계수로 불린다. Y 로부터 최적 판정 임계값
Figure pct00226
를 선택하기 위해(Y 가
Figure pct00227
를 초과하면 기침이 폐렴이고, 그외의 경우에는 비 폐렴이다) 본 발명자들은 ROC(Receiver-Operating Curve) 분석을 이용했다.
본 발명자들은 LRM 설계를 위한 리브 원 아웃 교차 검증(leave-1-out cross validation: LOV) 기술을 이용했다. 이름이 알려주는 바와 같이, LOV 기술은 모델을 훈련하기 위한 하나와 모델을 검증하기 위한 한 환자로부터의 기침 이벤트들을 제외하고 모든 환자로부터의 데이터를 이용하는 것을 수반한다. 이 처리는 Dmd 에서의 각각의 환자가 정확히 한번 검증 데이터로서 이용되도록 체계적으로 반복되었다. 이 처리의 끝에서, 본 발명자들은 결국은 Nmd 상이한 LRM 모델을 낳았다. 설계된 Nmd LRM들의 성능을 평가하기 위해, 민감도, 특정도, 정확도, PPV(Positive Predicted Value), NPV(Negative Predicted Value), 코헨의 카파(K) 통계량과 같은 성능 측도들이 계산되었다.
(i) 특징 선택: 특징 선택은 강건한 학습 모델을 구축하기 위한 적절한 특징들의 부 세트를 선택하는 기술이다. 이론상으로, 최적 특징 선택은 특징의 모든 가능한 특징들의 부 세트들의 전면 탐색을 요구한다. 그러나, 많은 수의 특징에 대해 그렇게 하기 위해서는, 계산량이 과도하고 비실제적일 것이다. 그러므로 본 발명자들은 p 값을 이용하는 만족스러운 특징 세트를 찾아 내었다. LRM 설계에서 p 값은 각각의 특징에 대해 계산되고, 이것은 얼마나 현저하게 해당 특징이 모델의 개발에 기여했는지를 표시한다. 중요한 특징들은 낮은 p 값을 갖는다. 본 발명자들은 훈련 국면 동안의 모델에서, 분류를 용이하게 하는 특징들의 합리적 조합(낮은 p 값을 가진 독립변수들)을 선택하기 위해 LRM의 이 특성을 이용했다. Nmd LRM들에 걸쳐서 Fc 특징들에 대해 평균 p 값을 계산한다. pths에 의해 주어진 임계값보다 작은 평균 p 값을 가진 특징을 선택한다. Cf s 가 Cf 로부터의 선택된 기침 특징들의 부 세트라고 하고, Fc s 가 선택된 기침 특징들로부터 특징들을 확장시킴으로써 형성되는 후보 특징 세트라고 하자.
( ii ) 강건한 LRM 설계: 일단 부세트 Fc s 가 알려지면, 본 발명자들은 그런 특징들을 이용하고, 또 다른 리브 원 아웃 검증 처리에 따라 다시 한번 새로운 세트의 LRM들을 구축한다. 이 처리의 끝에서, 본 발명자들은 Fc s를 입력 특징 세트로 이용하여 Nmd 개의 LRM들을 갖는다.
[단계 3] N md LRM 들로부터 양호한 모델을 선택하는 것 ― 선택된 특징들 Fc s 를 입력 특징들로서 사용하는 후보 LRM들로부터, 본 발명자들은 k-평균 클러스터링 알고리즘에 기초하여 하나의 모델을 최고의 것으로 선택했다. k-평균 클러스터링 알고리즘에서, 목표는 d 차원 공간에서의 q 데이터 포인트들을 k 클러스터들로 나누어서, 클러스터 내에서 무게중심(centroid)으로부터의 제곱 거리의 합이 최소화되도록 하는 것이다. 여기 직면한 문제는 본 발명자들이 이용 가능한 Nmd 모델로부터 양호한 모델을 선택하는 것이다. 그렇게 하기 위해 본 발명자들은 d 차원 공간에서의 Nmd 모델들을 k=2 클러스터들로, 즉 고 성능 모델 클러스터와 저 성능 모델 클러스터로 나누었다. 본 발명자들은 공간 차원 d를 모델 파라미터들에 세 가지 성능 측도(민감도, 특정도 및 카파)을 더한 것과 동일하게 설정했다. 이후 고성능 모델들의 클러스터로부터, 본 발명자들은 무게중심에 대하여 최저 평균제곱오차 값을 갖는 모델을 선택했다.
Figure pct00228
가 선택된 LRM을 나타내고,
Figure pct00229
가 특징들의 특정한 조합에 대해 대응하는 확률 판정 임계값(분류기 성능이 극대화되도록 ROC 곡선들을 이용하여 결정된 값)이라고 하자.
일단
Figure pct00230
가 선택되면, 본 발명자들은 모델의 모든 파라미터들을 고정하고, 훈련 처리를 완전히 종결시킨다. 모델
Figure pct00231
는 이후 각각의 개별 기침 이벤트를 '폐렴 기침' 또는 '비 폐렴 기침' 그룹들로 분류하기 위한 최상의 모델로서 이용된다.
[단계 4] 폐렴 기침 인덱스 ― 이 단계에서, Dmd 에서의 각각의 Nmd = 66 환자에 대해, 본 발명자들은 하기 정의를 이용하여 폐렴 기침 인덱스(PCI)를 계산한다.
폐렴 기침 인덱스( PCI )의 정의 : 'P'가 환자에 대해 녹음되고 분석된 기침들의 총 수라고 하자. 'P' 기침들 중에서 'Q'가 단계 3에서 선택된 LRM
Figure pct00232
를 이용하여 폐렴 기침으로서 분류된 것이라고 하자. 이후 환자에 대한 PCI 인덱스가
[수학식 4]
Figure pct00233
로서 계산된다.
이후 ROC 분석을 이용하여 본 발명자들은 환자를 2개 부류, '폐렴'과 '비 폐렴'으로 분류하기 위해 임계값 PCI th (수용가능한 특정도를 유지하는 한편 높은 민감도에 대해 최적화됨)를 계산했다.
F. Dpv 에서의 선택된 LRM
Figure pct00234
PCI 테스트
섹션 2-B[단계 1]에 기술된 절차에 따라 그리고 데이터 세트 Dpv 에서의 Npv = 25 환자로부터의 기침 이벤트 소리 데이터를 이용하여 크기
Figure pct00235
의 기침 이벤트 특징 행렬 Mc Dpv을 계산한다. Cpv는 Dpv에서의 총 기침 이벤트이고, Cf = 63은 기침 기반 특징들을 나타낸다. 선택된 기침 특징들 Cf s 로 임상적 특징들을 확장함으로써 Mfc sDpv 로부터 Mc Dpv 를 형성한다. Mfc sDpv 에서의 데이터를 부류들 '폐렴 기침'과 '비 폐렴 기침'으로 분류하기 위해 섹션 2-B[단계 3]에서 선택된 LRM
Figure pct00236
를 사용한다. 이후 수학식 4를 이용하여, Dpv 에서의 각각의 환자에 대해 PCI를 계산한다. 섹션 2-B [단계 4]에서 계산된 PCIths를 PCI에 적용하고, PCI>PCIth 이면 환자들을 '폐렴'으로 분류하고, 그렇지 않으면 '비 폐렴'으로 분류한다.
임상의에 의한 분류와 PCI에 의한 자동분류의 결과들을 비교하고 성능 측도들을 계산한다.
D. 데이터베이스 및 임상적 진단
N = 91 환자(48명의 남아 및 43명의 여아)로부터의 소리 녹음들이 이용되었다. 대상들의 평균 연령은 3살 1개월이었다(표준 편차는 3살 11개월). 대상들의 연령 범위는 1 개월에서부터 15살까지 다양했다. 91 대상 중에서, 63명은 폐렴 환자들이었고 28명은 비 폐렴 환자들이었다. 비 폐렴 환자들은 천식, 기관지염, 비인두염 및 기타(천명, 인두편도선염, 심장병, 이물질 흡입)와 같은 질병들을 가지고 있었다. 흉부 X 선(CXR)은 진단을 확인하기 위해 65명의 환자에 대해 실행되었다. CXR가 행해지지 않았던 26명의 환자 중에서, 8명은 폐렴인 것으로 임상적으로 진단되었고 17명이 비 폐렴 환자들로서 진단되었다. 도 18은 데이터베이스에서의 연령 분포 및 질병 범주들을 제공한다.
E. 기침 소리 특징들
도 4는 폐렴 기침, 천식 기침, 기관지염 기침 및 세기관지염 기침 파형들 및 이들의 대응하는 파워 스펙트로그램의 전형적 예를 도시한다. 본 발명자들은 지속 시간과 파워 스펙트로그램 크기에서의 폐렴 기침과 기타 기침들 간의 명백한 특징 차이를 볼 수 있었다. 폐렴 기침은 20 kHz까지의 넓게 퍼져 있는 파워 스펙트럼을 가지며 짧은 지속 시간을 갖는다. 반대로 기타 기침들은 15 kHz까지의 파워 스펙트럼을 가지며 긴 지속 시간을 갖는다. 폐렴 기침의 평균 지속 시간(n = 401 기침을 이용하면 0.26±0.7s)은 기타 기침의 평균 지속 시간(n = 198 기침을 이용하면 0.32±0.08s)보다 상당히 작았다(2-tailed t-test, r<0.005, t=-8.6786). 기침 소리 파형들은 높은 신호대잡음비(SNR)를 가져서 일반적으로 깨끗하였다. Dmd 에 대한 평균 SNR은 15.8±5.6 db (최대 = 28.05db 및 최소 = 2.08 db)이었고 Dpv 에 대한 평균 SNR은 16.7±5 db (최대 = 26.7 db및 최소 = 7.9 db)이었다.
F. WHO 기준에 기초한 폐렴 진단
표 19는 WHO 기준을 이용하는 폐렴 진단 및 임상적으로 진단된 폐렴에 대한 분할표를 보여준다.
Figure pct00237
집단 환경에서의 폐렴 진단을 위한 WHO 가이드라인은 2 개월 내지 5 살의 연령 그룹의 소아를 위해 설계된다18. "폐렴 징후들을 가진 2 개월 미만의 유아들은 이들이 심한 병 또는 사망을 겪을 높은 위험성이 있기 때문에 가장 가까운 의료 기관을 신속하게 알아본다"18. 그러므로 표 19는 2 개월에서 5 살까지의 연령 범위에 드는, 본 발명자들의 데이터베이스에서의 #68 대상들을 이용하여 생성된다. WHO 기준은 임상적으로 확인된 폐렴 사례들을 고르는데 있어서 83%의 높은 민감도를 달성했지만, 47%의 나쁜 특정도로 제공된 것이다.
G. 훈련/검증 데이터 세트에 대한 설계된 모델을 이용하는 폐렴 진단
N=91 환자로부터 총 C=599 기침 이벤트가 분석되었다. 평균적으로 환자당 6.6±2 기침 이벤트가 분석되었다(각각의 환자당 최소 = 2 및 최대 = 12). 섹션 2-A에서, 본 발명자들은 N=91 환자를 두 개의 데이터 세트 Dmd (훈련/검증 데이터 세트) 및 Dpv (예측적 연구(Prospective study) 데이터 세트)로 나누었다. Dmd 는 Cmd = 440 기침 이벤트(평균 = 6.7±2, 최소 = 2, 최대 = 12)를 가진 Nmd = 66 환자로부터의 데이터를 가진다. Dpv 는 Cpv = 159 기침 이벤트(평균 = 6.4±1, 최소 = 5, 최대 = 10)를 가진 Npv = 25 환자로부터의 데이터를 가진다.
특징 행렬: 섹션 2-B [단계 1] 에서 주어진 방법에 따라서 본 발명자들은 특징 행렬 Mc 를 계산했다. 본 발명자들은 각각의 기침 세그먼트를 3개의 부 세그먼트로 나누기 위해 n=3을 이용했다. n=3으로 설정하는 것은 (36 MFCC) + (12 FF) + (BSG, NGS, LogE, ZCR 및 Kurt의 각각에 대해 3)으로 구성되는 각각의 기침 이벤트로부터의 63 수학적 특징을 제공하였다. 기침 특징 6 기침 이벤트 특징 행렬 Mfc로 임상적 특징들을 확장하는 것이 만들어졌다. LOV 기술에 따라 Nmd = 66 LRM들이 설계되었다(Dmd 에서의 Nmd = 66 환자이므로).
특징 선택 전에 LRM 을 이용하는 폐렴 기침 분류: F1 특징 조합(기침의 수학적 특징만)에 대해, 기침 이벤트들을 폐렴과 비 폐렴 기침 부류들로 분류하는 데 있어서의 66 LRM에 걸친 평균 훈련 민감도와 특정도는 81±1% 였다. 검증 민감도 및 특정도는 제각기 63%와 52% 였다. BrI가 특징으로서 포함되었을 때, 검증 세트의 민감도 및 특정도는 제각기 71%와 55%로 도약했다. 모든 특징들, 연령, 열의 존재 및 BrI가 기침의 수학적 특징들과 함께 LRM를 훈련하는 데에 포함되었을 때, 민간도 및 특정도는 제각기 73%와 62%로 추가로 증가했다. 표 20은 특징들의 상이한 조합을 이용하여 기침 이벤트들을 폐렴과 비 폐렴 기침 부류들로 분류하는 데 있어서 모델의 성능을 제공한다.
Figure pct00238
특징 선택 후의 LRM 을 이용한 폐렴 기침 분류: 섹션 2-B [단계 2]에서 기술되고 p 값을 이용하는 절차에 따라서, 본 발명자들은 Fc s 의 각각에 대한 특징들을 선택했다. 표 6은 선택된 기침 특징들의 상세 사항들 및 선택에 사용된 pths 를 제공한다.
Figure pct00239
표 22는 기침 이벤트들을 폐렴과 비 폐렴 기침 부류들로 분류하는 데 있어서 특징 선택 후의 모델의 성능을 제공한다.
Figure pct00240
표 22에 따라 본 발명자들은 모든 Fc 에 대한 특징 선택 후의 모델 성능의 일반적 향상을 본다. F1 s 에 대한 검증 민감도 및 특정도는, (여기서 기침 이벤트들로부터의 수학적 특징만이 모델을 훈련하는데 사용됨), K = 0.31일 때 제각기 69%와 64%로 증가했다. 제각기 80%와 73%의 최고 민감도 및 특정도가 F6 s 에 대해 달성되었다.
PCI 기반 분류: Dmd 로부터의 데이터를 이용하여 각각의 Fc s 에 대해 Nmd =66 설계된 LRM들에 대해, 강건한 모델
Figure pct00241
가 섹션 2-B [단계 3]에서 논의된 것처럼 k-평균 클러스터링 방법을 이용하여 선택되었다. 선택된 모델
Figure pct00242
와 모든 그것의 파라미터들은 섹션 2-B의 단계 [4]에서 사용하기 위해 고정되었다. 섹션 2-B [단계 4]에서 주어진 정의를 이용하여, PCI 인덱스가 각각의 환자에 대해 계산되었다. ROC 분석에 의해 PCIth 가 선택되고 환자들을 '폐렴'과 '비 폐렴'으로 분류하기 위해 PCI에 적용되었다. 표 23은 6개의 특징 조합 Fc s 에 대한 PCI 기반 폐렴/비 폐렴 분류 결과들을 보여준다.
Figure pct00243
모든 특징 조합들은 86%의 다소 더 낮은 특정도를 등록한 F3 s를 제외하고 90%보다 더 큰 민감도 및 특정도를 달성했다. 기침 특징만을 이용하는 F1 s 가 K=0.83일 때 93%의 민감도 및 특정도 90.5%를 갖는다.
H. 예측적 연구 데이터 세트에 대한 설계된 모델을 이용한 폐렴 진단
섹션 2-B[단계 3]에서 선택된 모델
Figure pct00244
가 Npv = 25 환자 및 Cpv = 159 기침 이벤트로 구성되는 완전히 새로운 데이터 세트 Dpv 에 대해 테스트되었다. 모델은 기침 이벤트들을 폐렴과 비 폐렴 기침으로 분류하는 데 있어서 및 PCI를 이용하여 비 폐렴으로부터 폐렴을 가진 환자들을 분리하는 데 있어서의 성능 둘 모두에 대해 테스트되었다. 표 24는 기침 이벤트들을 폐렴과 비 폐렴 기침 부류들로 분류하는데 있어서의 선택된 LRM
Figure pct00245
의 성능을 보여준다.
Figure pct00246
표 25는 환자를 폐렴 및 비 폐렴으로 분류하는 데 있어서 모델의 성능을 보여준다.
Figure pct00247
기침 분류를 위해, 모델
Figure pct00248
(열, 연령 및 BrI의 존재와 함께 선택된 기침 특징들)는 민감도 = 88%와 특정도 = 85%의 최고 분류를 달성했다. 기침 특징들만을 사용한
Figure pct00249
은 제각기 83%와 58%의 민감도 및 특정도를 갖는다. 폐렴과 비 폐렴 환자들을 분리하는데 있어서, 상위에 있는 3개의 실행 모델은 모두 실질적 일치로 0.7보다 큰 카파 일치를 갖는
Figure pct00250
Figure pct00251
였다.
Figure pct00252
이 제각기 94%와 75%의 높은 민감도 및 특정도를 달성했다.
VI. 4. 논의 및 결론 - 2번째 폐렴 진단 방법
본 발명의 앞서의 실시예는 기침 소리들을 이용하여 폐렴을 진단하기 위한 자동화된 절차를 제공한다. 본 방법은 초기에 개별 기침 이벤트들을 '폐렴 기침' 및 '비 폐렴 기침' 부류들로 분류하고 이후 녹음된 모든 기침 이벤트들에 걸쳐서 폐렴 기침 인덱스(PCI)를 계산하는 것에 기초한다. 다양한 호흡기 질환들을 가진 것으로 진단된 91명의 소아과 환자로부터 599회 기침 이벤트들에 대하여 작업하여, 본 발명자들은 특정도를 >85%에 유지하는 한편 민감도 >90%로 폐렴을 분류할 수 있다는 것을 보여주었다.
본 발명자들이 알고 있는 한, 이것은 기침 소리들에 중심을 둔 폐렴 진단을 위한 객관적 모델을 개발하는 데 있어서 전 세계적으로 처음 시도이다. 결과들은 지원 빈약한 지역들에서 폐렴을 진단하기 위한 기침 중심적 접근을 취하는 것의 실현 가능성을 보여준다. 게다가, 기침만으로 도출되는 특징들을 이용하여, 본 발명자들은 75%의 특정도에서 민감도>90%를 획득했다. 기침은 비접촉식 도구로 녹음될 수 있고, 본 발명자들의 알고리즘들은 최소한으로 훈련된 인력에 의해 이용될 준비가 되는 형태로 스마트 폰들과 같은 편재적 플랫폼들상에 구현될 수 있다. 본 장치는 대상과의 물리적 접촉을 요구하지 않을 것이어서, 살균을 쉽게 만들고, 현장 사용에 대한 최소한의 운용자 훈련을 요구한다. 본 기술은, 가장 단순한 버전에서, 5-10회 기침 소리를 요구할 것이고, 자동적으로 및 즉각적으로 진단을 제공할 것이다. 그러한 시스템은 외딴 지역들에서의 폐렴 진단 분야에서 패러다임 전환적 새로움을 줄 것으로 예상된다.
제안된 기술의 단순성 및 유비쿼터스 장치들상에서의 잠재적 저가 구현은 장기간 모니터링에 있어서 본 발명자들의 접근법을 가치 있게 한다. 이것은 또한 새로운 백신들을 개발하는 데 있어서뿐만 아니라 유아기 폐렴을 위한 관리 전략들에 있어서 실질적인 전략적 가치를 가질 것이다. 세계의 자원 제한된 영역들에서 수행되는 새로운 폐렴 백신들의 임상 테스트들은 개입의 효능을 측정하기 위한 신뢰성 있는 도구들을 요구한다. 동일한 점이 큰 모집단들을 목표로 하는 임의의 새로운 폐렴 관리 전략의 실효성을 평가하는 데에도 적용된다. 폐렴, 특히 흉부 X선 검사도 실패하는 초기 단계 (심하지 않은) 질병을 진단하기 위한 어떠한 현장 배치 가능한 황금 표준도 없다4. 기존 WHO 알고리즘은 이것의 낮은 진단 성능 때문에 제한된다. 이 알고리즘이 폐렴의 잠재적 경우들을 뽑아 내기 위한 매우 유용한 역할을 하기는 하지만, 그렇게 하기 위한 희생인 낮은 특정도는 새로운 개입의 타당성을 평가하는 데에 사용하는 것을 어렵게 한다.
로지스틱 회귀를 이용하는 자동화된 기침 분류기
도 20은 본 발명의 실시예에 따른 자동화된 기침 분류 처리의 블록도를 보여준다. 이것은 네 개의 단계로 나누어진다, (A) 데이터 수집 처리 (B) 기침 소리 데이터베이스를 생성하고 전문 점수 기록원에 의해 젖음/젖지 않음 부류들로의 분류 (C) 자동 분류기의 설계 (D) 예측적 기침 소리 데이터 세트(prospective cough sound dataset)에 대한 분류기의 테스트. 섹션 II-D 내지 섹션 II-A에서 본 발명자들은 본 방법의 상세 사항들을 기술한다.
A. 데이터 수집
이 작업을 위한 임상적 데이터 수집 환경은 인도네시아, 가드자 마다 대학, 사르드지토 병원의 호흡 의약부이다. 표 26은 대상들의 포함 및 제외 기준을 열거한다.
Figure pct00253
포함 기준을 충족하는 모든 환자들과 교섭하였다. 사전 동의가 가드자 마자 대학과 퀸즈랜드 대학교로부터 인간 윤리 위원회로부터 승인받은 양식을 이용하여 이루어졌다. 환자들은 이들의 입원 후 처음 12 시간 내에 모집되었다. 초기 의료적 평가 후에, 소리 녹음들이 호흡기 병동의 자연적 환경 하에서 다음 4―6 시간 동안 이루어졌다.
소리 녹음들은 다음 두 가지 시스템을 이용하여 만들어졌다.
1. 전산화된 데이터 수집 시스템 ― 전문 품질의 전치 증폭기 및 A/D 컨버터 유닛(모델 모바일-Pre USB, M-Audio, 캘리포니아, 미국)과 하이퍼카르디오드(hypercardiod) 빔 패턴을 갖는 매칭된 저잡음 마이크로폰들의 쌍(모델 NT3, RODE, 시드니, 오스트레일리아)을 구비한 하이 파이 시스템. 어도비 오디션 소프트웨어 버전 2는 랩톱 컴퓨터상으로 소리 데이터를 녹음하는데 사용되었다 ― 이런 유형의 배열의 예시를 위해 도 1을 참조하자.
2. 휴대용 녹음 시스템 ― 두 개의 정밀 콘덴서 마이크로폰을 구비한 최고급, 경량의 휴대용 2-AA 배터리 전력 공급 오디오 녹음기(올림푸스 LS-11).
양쪽의 소리 녹음 시스템들에서 본 발명자들은 16 비트 분해능을 가진 44.1 khz의 샘플링 레이트를 이용했다(CD 수준의 품질 녹음). 마이크로폰에서 환자 입까지의 공칭 거리는 50 cm이었지만, 환자 움직임으로 인해 40 cm 내지 70 cm까지 변할 수 있다. 각각의 환자에 대해, 본 발명자들은 모든 실험실 및 임상적 테스트 결과들뿐만 아니라 최종 진단도 얻었다.
B. 기침 소리 데이터 세트 및 전문 인간 점수 기록원에 의한 젖음 또는 마름으로의 분류
N이 그 소리 녹음이 이용되는 환자들의 수이고 C가 N 환자들로부터의 기침 이벤트들의 총 수라고 하자. 이러한 C 기침 이벤트는 각각의 환자의 소리 데이터의 6-8시간을 통한 의학적 검사(screening) 후에 수작업으로 세그먼팅되었다. 기침 이벤트의 시작 및 종료를 자동 마킹하기 위한 어떠한 수용된 방법도 없다. 수작업 마킹이 여전히 황금 표준이라고 여겨진다. 주의 깊은 청취 후에 모든 기침 이벤트들의 시작 및 종료가 수작업으로 마킹되었다.
본 발명자들은 C 기침 이벤트를 가진 N 환자를 2개의 데이터 세트, (i) DS1(모델 설계 데이터 세트) 및 (ii) DS2(예측적 연구 데이터 세트)로 나눴다. 환자들은 병원의 호흡기 클리닉에 소개된 순서에 기초하여 DS1과 DS2로 나누어졌다. 데이터 세트들 DS1과 DS2에서의 환자들은 상호 배타적이었다.
(i) DS1 ― N1 환자들로부터의 C1 기침 이벤트들로 구성된다. 이 데이터 세트로부터의 기침 이벤트들은 최적 모델을 설계하는데 사용되었다.
(ii) DS2 ― N2 환자들로부터의 C2 기침 이벤트들로 구성된다. 이 데이터 세트로부터의 기침 이벤트들은 설계된 모델을 테스트하는데 사용되었다. DS2로부터의 기침 이벤트들은 모델 설계의 처리에 보이지 않았다.
이후 소아과 호흡기 질병 분야에서 15-20 년의 경험을 가진 두 명의 전문 점수 기록원들이 2개 데이터 세트로부터의 기침 이벤트들을 점수 매겨서 두 개의 부류, 젖음 또는 마름으로 분류했다. 점수 기록원들은 대상의 이력 및 진단에 보이지 않았다. 이런 수작업 분류는 자동 분류의 결과들과의 비교 대상인 참조 표준으로서 간주된다.
C. 기침 소리의 분류기의 설계
기침 소리들의 자동 분류를 위한 시스템을 설계하기 위해, 본 발명자들은 DS1로부터의 기침 이벤트들을 이용했다. DS11이 점수 기록원들 모두가 기침 소리들의 부류에 대해 일치한 그런 기침 이벤트들을 포함하는 DS1의 부 세트라고 하자. 본 발명자들은 DS11에서의 C11 기침 이벤트를 가졌다. 자동적 분류기 모델을 설계하기 위해 DS11에서의 기침 이벤트들을 이용하자. 이것은 3단 처리이다.
[단계 1] 기침 이벤트 특징 행렬 계산: 이 단계에서, 'F' 수학적 특징들을 포함하는 특징 벡터는 C11 기침 이벤트들의 각각으로부터 계산되고 크기 C11×F의 기침 이벤트 특징 행렬
Figure pct00254
이 형성되었다. 기침 이벤트로부터 'F'특징들을 계산하기 위해 하기 단계들을 이용한다.
(i) x가 기침 이벤트로부터 이산 시간 소리 신호를 표시한다고 하자.
(ii) 절대치 최대값에 의해 이것을 나눔으로써 x를 정규화한다.
(iii) x를 'n'의 동일 크기 비 중첩 부 세그먼트들로 세그먼팅한다. xi 가 x의 i번째 부 세그먼트를 나타낸다고 하고, 여기서 i = 1, 2, 3,...., n.
(iv) 각각의 부 세그먼트에 대해 하기 특징들을 계산하고, F 특징들을 포함하는 특징 벡터를 형성한다: 이변량 스펙트럼 점수(BGS), 비 가우시안 점수(NGS), 포르만트 주파수들(FF), 피치(P), 로그 에너지(LogE), 제로 크로싱(ZCR), 첨도(Kurt), 및 12개 MFCC(mel-frequency cepstral coefficients).
(v) 모든 C11 기침 이벤트들에 대해 단계 (i) ― (iii)를 반복하고, 크기 C11×F의 기침 이벤트 특징 행렬
Figure pct00255
를 형성한다.
[단계 2] 자동 분류기 설계: 본 발명의 현재 기술된 양태의 양호한 실시예에서 본 발명자들은 LRM(Logistic-regression model)을 패턴 분류기로 사용했다. LRM은 범주적 이벤트(종속 변수)의 확률을 추정하기 위해 몇 가지 독립적 예측기(predictor)들을 이용하는 일반화 선형 모델이다. 이 작업에서, 종속 변수 Y 는 젖은 기침에 대해 "1"(Y=1)과 동일하고 젖지 않은 기침에 대해 "0"(Y=0)과 동일한 것으로 가정된다. 모델은 하기과 같이 독립 변수들(즉, F 특징들)이 주어지면 확률 Y=1(즉, 기침 이벤트가 '젖은 기침'의 범주에 속한다)을 추정하기 위한 회귀 함수를 이용하여 도출된다:
[수학식 1]
Figure pct00256
[수학식 2]
Figure pct00257
수학식 1 및 수학식 2에서, f1, f2,…fF는 특징 벡터(독립변수들)의 성분들이고,
Figure pct00258
는 인터셉트라고 불리고,
Figure pct00259
및 기타 등등은 독립 변수들의 회귀 계수라고 불린다. Y로부터 최적 판정 임계값
Figure pct00260
를 선택하기 위해 (기침은 Y가
Figure pct00261
를 넘어서면 젖음이고, 다른 경우에는 젖지 않음이다), 본 발명자들은 ROC(Receiver-Operating Curve) 분석을 이용했다.
(F 독립변수들로부터의 C11 관찰들) 행렬
Figure pct00262
에서의 데이터를 사용하고, LRM 설계를 위해 리브 원 아웃 교차 검증(LOV) 기술을 채택한다. 명칭이 말해주는 것처럼, LOV 기술은 모델을 훈련하기 위한 하나와 모델을 검증하기 위한 하나의 기침 이벤트를 제외하고 모든 기침 이벤트들로부터의 데이터를 이용하는 것을 수반한다. 이 처리는 DS11에서의 각각의 기침 이벤트가 한번 검증 데이터로서 이용되도록 C11회 체계적으로 반복되었다. 이것은 LC11 개의 LRM들을 생성했다.
설계된 LC11의 성능을 평가하기 위해, 민감도, 특정도, 정확도, PPV(Positive Predicted Value), NPV(Negative Predicted Value), 코헨의 카파(K) 통계량과 같은 성능 측도들이 계산되었다. K 값들을 해석하는 방법에 대해서는 부록 A2를 참조하자.
하기를 위한 설계 로지스틱 회귀 모델(LRM)
(i) 특징 선택: 특징 선택은 강건한 학습 모델을 구축하기 위한 관련 특징들의 부 세트를 선택하는 기술이다. 이론상으로, 최적 특징 선택은 특징들의 모든 가능한 부 세트들의 전면 탐색을 요구한다. 그러나, 많은 수의 특징에 대해 그렇게 하는 것은 계산량이 과도하고 비실제적일 것이다. 그러므로 본 발명자들은 p 값을 이용하는 만족스러운 특징들의 세트를 찾아 내었다. LRM 설계에서 p 값이 각각의 특징에 대해 계산되고, 이것은 얼마나 현저하게 해당 특징이 모델의 개발에 기여했는지를 표시한다. 중요한 특징들은 낮은 p 값을 갖는다. 본 발명자들은 훈련 국면 동안의 모델에서, 분류를 용이하게 하는 특징들의 합리적 조합(낮은 p 값을 가진 독립변수들)을 선택하기 위해 LRM의 이 특성을 이용했다. C11 LRM들에 걸쳐서 'F' 특징들에 대해 평균 p 값을 계산한다. pths 보다 작은 평균 p 값을 가진 특징들을 선택한다. Fs 가 F 로부터 선택된 특징들의 부 세트라고 하자.
( ii ) 강건한 LRM 설계: MDS11 로부터 크기 C11×Fs 의 M'DS11 을 생성한다. 행렬 M'DS11은 DS11의 C11 기침 이벤트들로부터의 선택된 특징들 Fs 만을 가진 기침 이벤트 특징 행렬이다. M'DS11를 이용하고 LOV를 채택하여, C11 LRM들을 재훈련한다.
[단계 3] LC11 LRM 들로부터 양호한 모델을 선택한다: LC11 LRM들로부터 본 발명자들은 예측적 연구 데이터 세트 DS2에 대해 테스트하기 위해 k-평균 클러스터링 알고리즘9을 이용하여, 하나의 모델을 최고로서 선택하였다. k-평균 클러스터링 알고리즘에서, 목표는 d-차원 공간에서의 q 데이터 포인트들을 k 클러스터로 나누어서, 클러스터 내에서 무게중심으로부터의 제곱 거리의 합이 최소화되도록 하는 것이다.
본 발명자들에게 당면한 문제는 이용 가능한 LC11 모델들로부터 좋은 모델을 선택하는 것이다. 그렇게 하기 위해 본 발명자들은 d-차원 공간에서의 LC11 모델들을 k=2 클러스터, 즉 고성능 모델 클러스터와 저 성능 모델 클러스터로 나누었다. 본 발명자들은 공간 차원 d를 모델 파라미터들에 3개의 성능 측도(민감도, 특정도 및 카파)를 더한 것과 동일하게 설정했다. 이후 고성능 모델들의 클러스터로부터, 본 발명자들은 무게중심에 대하여 최저 평균제곱오차 값을 갖는 해당 모델을 선택했다.
Figure pct00263
은 선택된 LRM을 나타내고,
Figure pct00264
은 대응 확률 판정 임계값(분류기 성능이 극대화되도록 ROC 곡선들을 이용하여 결정된 값)이라고 하자. 일단
Figure pct00265
가 선택되면, 본 발명자들은 모델의 모든 파라미터들을 고정하고, 예측적 데이터 세트 DS2에서 기침 소리들을 분류하기 위해 이것을 이용한다.
D. 선택된 LRM
Figure pct00266
의 테스트
섹션 C [단계 1]에서 기술된 절차를 따라 및 데이터 세트 DS2로부터의 기침 이벤트들을 이용하여, C2×F 크기의 기침 이벤트 특징 행렬 MDS2를 계산한다. C2는 DS2에서의 총 기침 이벤트들이고 'F'는 특징 벡터이다. 강건한 Fs 특징들만을 선택함으로써 MDS2 로부터 M'DS2 를 형성한다. M'DS2 에서의 데이터를 젖음 또는 마름 부류들로 분류하기 위해 선택된 LRM
Figure pct00267
을 이용한다.
Figure pct00268
의 출력으로부터의 젖음/마름 부류의 판정 처리는 하기와 같다:
주어진 기침 입력으로의
Figure pct00269
의 출력을
Figure pct00270
이라고 하면, 이후 기침은
Figure pct00271
이면 젖음으로 분류되고, 그외의 경우에는 마름으로 분류된다.
Figure pct00272
에 의한 자동 분류의 결과들을 전문 점수 기록원들의 것과 비교하고, 섹션 C[단계 2]에 기술된 성능 측도들을 계산한다. 모든 알고리즘들은 소프트웨어 프로그래밍 언어 MATLAB 버전 7.14.0.739(R2012a)를 이용하여 개발되었다.
기침 소리 데이터 세트들 및 전문 점수 기록원들 간의 일치
본 발명자들은 N=78 환자로부터의 소리 녹음 데이터를 사용했다(41명은 남자이고 37명은 여아였다). 대상들의 평균 연령은 2살 11개월이었다. 대상들의 연령 범위는 1개월에서부터 15살까지 다양했고, 천식, 폐렴, 기관지염 및 비인두염과 같은 질병들을 갖는다. 표 27은 환자의 인구 통계학적 및 임상적 상세 사항들을 제공한다.
Figure pct00273
N=78 환자들로부터 총 C=536의 기침 이벤트들이 분석되었다. 평균하여 환자당 7회 기침 이벤트가 분석되었다(최소 = 2 및 최대 = 13). 데이터 세트 DS1은 N1=60 환자들로부터의 C1=385 기침 이벤트들을 가지고 데이터 세트 DS2는 N2=18 환자들로부터 C2=151 기침 이벤트들을 갖는다.
표 28은 DS1과 DS2로부터의 기침 소리들을 2개의 부류, 젖음과 마름으로 분류하는 데 있어서의 2명의 점수 기록원 사이의 분할표를 보여준다.
Figure pct00274
DS1에서 385개 기침 이벤트에서, 점수 기록원들은 부 세트 DS11을 형성하는데 사용된 기침 이벤트들의 부류들에 대해 C11=310회(80.5%) 일치했다. 데이터 세트 DS2에서 이들은 151중에서 117회 일치했다(77.5%). 점수 기록원 1과 점수 기록원 2 간의 카파 일치는 DS1에 대해 0.55이고 DS2에 대해 0.54 이다. DS11에서의 310회 기침 이벤트 중에서 82회는 젖음 부류에 속했고, 228회는 마름 부류에 속했다. DS11 기침 이벤트들은 이후 섹션 II-C에서 기술된 LRM 모델들을 설계하는데 사용되었다.
E.본 발명자들의 데이터베이스들에서의 기침 소리 특징들
DS11에서의 마른 기침의 평균 지속 시간은 260±77 ms 였고(228회 마른 기침을 이용하여 계산됨) 젖은 기침의 평균 지속 시간은 238±54 ms 였다(82 젖은 기침을 이용하여 계산됨). 도 21은 제각기 아이디가 #35 및 #38인 두 명의 환자로부터의 마른 기침 파형 및 젖은 기침 파형의 전형적 예를 보여준다. 기침 소리 파형들은 높은 신호 대 잡음비(SNR)를 가져서 일반적으로 깨끗하였다. DS11에 대한 평균 신호 대 잡음비는 15.2±5.5 db (최대 = 28.65db 및 최소 = 2.9 db)이었고, DS2에 대한 평균 신호 대 잡음비는 18.6±4.5 db (최대 = 27.8 db 및 최소 = 11.1 db)이었다. 도 23a 및 도 22b는 DS11과 DS2에서의 기침 소리에 대한 SNR의 히스토그램들이다.
각각의 기침들의 시작 및 종료는 도 21에 도시된 바와 같이 기침 소리들을 청취한 후에 인간 운영자에 의해 주의 깊게 마킹되었다. 섹션 II-C-[단계 1]에 주어진 방법에 따라서 본 발명자들은 특징 행렬 MDS11 를 계산했다. 본 발명자들은 각각의 기침 세그먼트를 3개의 부 세그먼트로 나누기 위해 n=3을 이용했다. 문헌에서, 임상의 및 과학자는 3개 국면: (i) 초기 오프닝 버스트, (ii) 잡음성 기류가 이어지고, 마지막의 (ii) 성문 폐쇄로 구성되는 기침 소리들을 똑같이 기술했다24 , 25. 이러한 국면들은 젖거나 마른 기침의 품질에 특정적인 상이한 중요한 정보를 나른다는 것이 보여졌다. 이 기초 위에서, 본 발명자들은 각각의 기침 세그먼트들을 3개의 부 세그먼트들로 나누었다. n=3으로 설정하는 것은 하기 특징들
Figure pct00275
로 구성되는 길이 66의 특징 벡터 F를 야기했다. C11=310 기침 이벤트 및 F=66 특징으로부터, 기침 이벤트 특징 행렬 MDS11이 생성되었다.
F. LRM 을 이용한 자동 분류
훈련 단계 동안의 특징 행렬 및 LRM 성능: LOV 기술에 따라, LC11= 310 LRM들이 설계되었다.
310 LRM들에 대한 평균 훈련 민감도 및 특정도는 제각기 92±1% 및 93±0.5% 였다. 이러한 모델들에 대한 검증 민감도 및 특정도는 제각기 62%와 84% 였다. 표 4-(A)는 모든 F=66 특징이 LRM들을 훈련하는데 사용되었을 때 상세한 분류 결과들을 제공한다.
Figure pct00276
섹션 II-B[단계 2]에서 기술된 처리에 따라 그리고 pths = 0.06을 이용하여, 본 발명자들은 Fs = 31 특징들을 선택했다. 도 23은 C11=310 LRM들에 걸쳐서 계산된 F=66 특징들과 연관된 평균 'p 값'을 보여준다. pths = 0.06 보다 작은 평균 'p 값'을 갖는 모든 특징들이 선택되었다. 선택된 특징들은 이변량 스펙트럼 점수, 첨도, 및 제로 크로싱의 수로부터 각각 1이고, 비 가우시안 점수와 로그 에너지로부터 각각 2이고, 포르만트 주파수들로부터 5이고, MFCC(mel-frequency cepstral coefficients)로부터 19였다. 표 30은 최종 LRM을 설계하기 위해 선택된 특징의 상세 사항들을 제공한다.
Figure pct00277
이 표에 따르면 MFCC 기반 특징들이 가장 지배적이었다. 31개의 선택된 특징 중에서, 19개 특징은 상이한 MFCC 성분들로부터 기여된 것이다. MFCC 뒤로는, 포르만트 주파수들이 5 특징을 가지며 제2의 가장 지배적 기여를 하였다. 더욱이, 완전히 생략된, 4번째 포르만트 주파수 및 피치 기반 특징들을 제외하고, 다른 모든 특징들이 최종 LRM 모델의 구축을 향해 적어도 하나의 부 세그먼트로부터의 특징들로 기여했다.
선택된 특징 Fs 만이 LRM들을 재훈련하는 데에 사용될 때, 평균 훈련 민감도 및 특정도가 제각기 87±1% 및 88±0.5% 로 기록되고, 검증 민감도 및 특정도는 81%와 83% 였다. LRM과 점수 기록원들 사이의 검증 카파 일치는 모든 특징들이 LRM을 훈련하는데 사용되었을 때 0.46 이었고, 이것은 선택된 특징들만이 이용되었을 때 0.58까지 증가했다. 표 29-(B)는 특징 선택 후의 상세한 훈련 및 검증 결과들을 제공한다.
LRM (
Figure pct00278
)의 선택: DS11로부터의 데이터를 이용하는 LC11 = 310 설계된 LRM들로부터, 최적 모델
Figure pct00279
이 섹션 II-C-[단계 3]에서 논의된 것과 같은 k-평균 클러스터링 방법을 이용하여 선택되었다. 모델들은 모델 파라미터들 및 성능 측도들에 기초하여 2개의 그룹, 고성능 모델과 저성능 모델들로 클러스터링되었다. 310 모델 중에서, 202개가 고성능 모델 그룹으로 클러스터링되었고, 108개가 저성능 모델 그룹으로 클러스터링되었다. LRM 모델 #26은 고성능 모델들의 무게중심에 대하여 최저 평균제곱오차 값을 갖는다. 이 모델
Figure pct00280
이 선택되었고, 모든 이것의 파라미터들은 향후 사용을 위해 고정되었다.
Figure pct00281
는 예측적 데이터 세트 DS2에 대해 테스트되었다.
예측적 데이터 세트 DS2 에 대한
Figure pct00282
성능: 표 31은 전문 점수 기록원들에 대한
Figure pct00283
분류 결과들을 제공하였다.
Figure pct00284
점수 기록원 1, 젖음/마름 분류가 참조 표준으로서 이용되었을 때,
Figure pct00285
는 77.5%의 민감도, 76%의 특정도와 0.47의 카파 일치를 갖는다. 점수 기록원 2에 대해, 결과들은 민감도 75%, 특정도 64%와 카파 0.31 이었다. 모델
Figure pct00286
이 점수 기록원 1과 점수 기록원 2가 분류에 대해 일치하는 그런 이벤트들(117개 기침 이벤트)에 대해서만 테스트되었을 때, 민감도는 84%까지 도약하였고, 카파 값은 0.51까지 도약하였다. 표 32는 분할표를 보여준다.
Figure pct00287
연령과 성에 대해 매칭될 때의 LRM 결과들: 표 33은 연령 및 성에 대해 매칭될 때 DS11 및 DS2에 대한 LRM의 성능을 보여준다.
Figure pct00288
데이터의 제한된 가용성 때문에 본 발명자들은 4개의 분할을 고려했다; (i) 연령 <= 60 개월의 남아, (ii) 연령 <= 60 개월의 여아, (iii) 연령 > 60 개월의 남아 및 (iv) 연령 > 60 개월의 여아. 이 표에 따라 모델 설계 단계 동안, 일반적으로는 어떤 유의미한 차이도 어떤 분할도 고려되지 않았을 때와 비교하여 4개의 분할에 걸친 모델 검증 성능에서 보이지 않았다(표 29 및 표 33(A)). 이와 유사하게 예측적 데이터 세트 DS2에 대해, 선택된 모델
Figure pct00289
은 성능이 매우 나쁜 3번째 분할(연령 >60 인 남아)을 제외하고, 모든 분할에 걸쳐서 성능이 좋았다(표 31 및 표 33(B)).
본 발명의 실시예들은 젖음 및 마름 범주들로 기침 소리들을 분류하기 위한 자동화된 객관적 방법을 포괄한다. 본 발명자들이 인식하는 한, 이것은 특히 폐렴과 같은 질환들에서 소아과 기침 소리들의 마름/젖음 분류를 위한 객관적 기술을 개발하기 위한 첫번째 시도인 것으로 안다. 여기서 기술된 결과들은, 그들의 기술적 분석들에서 30회 이하의 기침을 이용하는 기존 작업과 비교하여, 78 대상으로부터 536개 기침 이벤트에 기초한 것이다. 이런 이유로, 직접적으로 그 결과들과 비교할 어떤 다른 작업도 이용할 수 없었다.
본 발명자들의 기술의 평가에 사용되는 참조 방법은 상이한 국가들로부터의 두 명의 소아과 호흡기 의사에 의한 기침 소리들의 젖음/마름 부류들로의 주관적 분류이다. 이러한 점수 기록원들은 대상들의 실제 임상적 진단에 대해서는 가리워졌다. 이벤트별 기침 분류에 있어서, 2명의 전문가는 중간 레벨(
Figure pct00290
=0.54의 카파 값)에서 서로 일치했다. 5에서, 젖은/마른 기침에 대한 임상의 간 일치가
Figure pct00291
=0.88로 보고된다. 그러나 5에서, 임상의들은 개별 기침 수준이 아니라 환자 수준에서의 기침의 젖음 정도를 평가했다는 것을 유의해야 한다. 본 발명자들이 환자 수준에서 점수 기록원들 간의 일치를 계산했을 때, 카파 값은
Figure pct00292
= 0.66(실질적 일치)까지 증가했다. 이러한 수들은 마름/젖음 분류의 주관적인 특성을 추가로 예시한다.
본 발명자들의 분류기 기술은 양 점수 기록원들이 일치에 도달한 이벤트들만을 이용하여 훈련 세트(세트 DS1)로부터의 기침들에 대해 훈련되었다. 훈련 처리의 출력으로서, 본 발명자들은 좋은 로지스틱 회귀 모델(
Figure pct00293
)을 식별하였고 그것의 파라미터들을 고정하였다. 이후 모델은 몇 가지 상이한 방식들로 예측적 세트(세트 DS2)에 대해 테스트되었다. 분류의 최고 민감도 및 특정도(84%와 76%)가 본 발명자들이 DS2 내의 일치 이벤트들에 대하여
Figure pct00294
을 테스트하였을 때 달성되었다. 이러한 수들이 각각의 점수 기록원의 개별 분류 결과들에 대하여 테스트함으로써 얻은 것보다 일관되게 높았다는 것은 흥미로운 일이다.
본 발명자들의 방법의 또 다른 뚜렷한 특징은, 점수 기록원 일치 데이터가 비교 기준값(ground truth)으로서 이용될 때, 높은 부정 예측율(NPV = 93%)을 갖는다는 것이다. 이것은 모델이 기침을 젖지 않음(마름)으로 분류하면, 2명의 전문가 점수 기록원들이 동일 결론에 독립적으로 도달할 가능성이 크다는 것을 의미한다. 그러나, 인간 점수 기록원들과 비교한 본 발명자들의 방법의 양성 예측율은 하락한다(PPV = 55%). 그러므로, 젖음으로 모델에 의해 분류된 기침들의 꽤 큰 부분이 인간 점수 기록원들에 의해 마름으로서 일치 분류되는 것으로 끝난다. 이 현상은 인간 점수 기록원들이 젖은 기침들을 낮게 점수 매기는 것을 발견한 장(Chang) 등5에 의해 제시된 결과들에 의해 설명되는 것으로 보인다. 5에서 이들은 전문 임상의들의 주관적 마름/젖음 분류들을 기도 점액의 기관지경 표시들과 체계적으로 비교하였다. 이들은 임상의의 마른 기침의 분류가 반드시 분비들의 결여를 보여주지는 않는다고 보고했다. 기도들에서의 특정 상황들, 이를테면 소량의 분비들이 인간 관찰자에 의해 검출되기에 충분한 크기로 기침 소리들에 반영되지 않을 수 있다. 본 발명자들의 방법에서 발견된 더 낮은 PPV 값에 대한 가능한 이유들 중 하나는 본 발명자들의 성능 통계치를 생성하는데 사용되는 황금 표준인 인간 점수 기록원들의 이런 약점일 수 있다. 이 가설은 장래에 기관지경 발견들에 대하여 주의 깊게 검증될 필요가 있다.
올바르게 기도 점액을 검출하는 능력은 화농성 폐 질환들의 관리에 특히 중요할 수 있다3 ,5. 기침은 폐렴, 기관지염 및 세기관지염과 같은 질환의 초기 증상이다. 이 증상의 정확한 평가는 급성 질환의 진단 또는 만성 증상의 모니터링 및 처치 효험을 위한 결정적 요인이 된다. 소아에서, 젖은 기침들은 하기도 호흡기 감염(lower respiratory tract infection)들과 관련될 가능성이 큰 것으로 알려져 있다3. 젖은 기침들의 주관적 분류는 심지어 전문 임상의들이 맡는다 하더라도, 기도 점액을 검출하는 방법으로서는 낮은 민감도를 갖는다. 마른/젖은 기침들의 분류를 위한 정확한 객관적 기술은 상업적으로나 연구 수준으로나 지금까지는 이용 가능하지 않았다. 본 발명자들이 아는 한도에서는, 본 작업은 그와 같은 기술을 개발하기 위한 전세계에서의 첫 번째 시도이다.
본 발명자들은 기침들의 마름/젖음 분류를 자동화하기 위한 사상 최초의 접근법을 제시하였다. 여기서 제시된 결과들은 파라미터들을 체계적으로 최적화하고 분류기의 훈련 처리들을 정밀 조정함으로써 향상될 수 있다. 논의되었던 발견적(heuristic) 모델 선택 처리는 보고된 결과들을 비관적 추정치들(pessimistic estimates)로 만든다. 본 발명자들은 또한 특징 세트가 향상될 수 있고 방법의 분류 정확도가 추가로 증가될 수 있다고 믿는다. 그러나 최적화 시도 전에, 본 발명자들이 해결할 필요가 있는 문제는 임상적 진단에 사용되는 '황금 표준'을 향상시키는 것이다. 주의 깊게 제어된 기관지 내시경술 연구는 황금 표준으로서 가장 알맞을 것이다.
이 연구에 대한 또 다른 가능한 제한 요소는 마른 기침들 쪽으로 향하는 기침 소리 데이터베이스의 편향성(biasedness)이다; 거의 70% 기침 소리들이 전문가 인간 점수 기록원들에 의해 인식되는 대로는 마른 것으로 된다. 그러나, 이러한 요인들에도 불구하고, 본 발명의 실시예들은 높은 민감도(84%)와 특정도(76%)를 가지며 또한 전문 인간 점수 기록원들과의 양호한 일치(
Figure pct00295
=0.51)를 가지면서 젖은 및 마른 기침들을 현재 분류할 수 있다.
앞의 내용에 비추어 볼 때, 여기서 기술된 본 발명의 실시예들에 따른 방법들은 소아과 의사들과의 양호한 일치와 높은 정확도로 기침 소리들을 마름 및 젖음 부류들을 분류할 수 있는 것이 실현되었다. 본 발명자들이 알고 있는 바로는, 이것은 상당하게 큰 기침 샘플들에 대한 완전한 훈련 및 테스트 결과들로 제시되는, 젖음/마름 분류들에 대한 최초의 알려진 방법이다. 이것은 또한 호흡기 전염 질환들의 범위에 속하는 소아과 모집단에서 젖음/마름 분류를 자동화하는 최초의 노력이다. 이것은 장 기간 기침 모니터링을 위한 유용한 임상적 도구로서 및 처치 효능의 평가에서 또는 하기도 감염을 특징짓는데 있어서 개발될 잠재력을 갖고 있다. 이것은 매 시간마다의 기준으로 기침 품질의 시간적 패턴들(젖음/마름)이 필요한 임상적 또는 탐색 연구에 근본적으로 유용할 것이다.
여기서 기술된 방법들은 폐들에서의 경화 및 점액을 검출할 수 있는 마이크로웨이브 촬영 및 초음파 촬영과 같은 기타 잠재력 있는 기술들과 동시에 구현될 수 있다.
앞서의 실시예를 설명하기 위해 이용되는 용어들의 몇몇의 설명들이 하기에 주어진다:
[A2]. 카파 통계는 두 개의 기술 사이의 일치가 비교되어야 하는 상황들에 널리 사용된다. 카파 값들을 해석하기 위한 가이드라인이 하기에 있다.
카파 해석
< 0 우연보다 떨어지는 일치(less than chance agreement)
0.01 ― 0.20 약간의 일치
0.21 ―0.40 보통 정도의 일치
0.41 ―0.60 적당한 일치
0.61 ―0.80 실질적 일치
0.81 ―1 거의 완벽한 일치
[A3]. LRM의 성능을 평가하는데 사용되는 통계 측도의 정의.
진 양성(True Positive: TP) ― 젖은 기침(Wet cough)이 LRM에 의한 올바르게 '젖음(WET)'으로 식별됨.
가 양성(False Positive: FP) ― 마른 기침(Dry cough)이 LRM에 의해 부정확하게 '젖음(WET)'으로 식별됨.
진 음성(True Negative: TN) ― 마른 기침이 LRM에 의해 올바르게 '마름(DRY)'으로 식별됨.
가 음성(False Negative: FN) ― 젖은 기침이 LRM에 의해 부정확하게 '마름'으로 식별됨.
[수학식 10]
Figure pct00296
[수학식 11]
Figure pct00297
[수학식 12]
Figure pct00298
본 발명의 한 양태의 양호한 실시예는 기침 세그먼트들의 시작 및 종료를 정의함으로써 녹음으로부터 기침 소리들을 추출할 수 있는 방법을 포함한다. 상이한 특징들의 세트가 소리 신호로부터 계산되었고 판정 엔진, 예를 들어 적응적 신경망 기반 패턴 인식 알고리즘 또는 로지스틱 회귀 모델로의 입력으로서 이용되었다. 일 실시예에서 제안된 방법은 약 95%의 세그먼테이션 민감도 및 특정도를 달성했다. 이 방법은 기침 분석 시스템의 프론트엔드로서 이용될 수 있다; 그러므로 녹음에서의 대단히 많은 수의 기침 소리들로부터의 정량적 및 정성적 정보가 자동적으로 분석될 수 있다.
본 발명의 추가 양태의 바람직한 실시예에 따라 환자의 특정 질환 상태의 진단을 위해 환자의 소리 녹음을 처리하기 위한 계산 장치를 동작시키는 방법이 제공된다. 예를 들어, 여기서 상세히 논의된 것처럼, 질환 상태는 폐렴을 포함할 수 있다.
참고문헌
[1] A. J. Hotaling and G. T. Moynihan, "Cough," in Pediatirc Otolaryngology. vol. 2, ed Philadelphia: Saunders, 2003, pp. 1395-1404.
[2] R. E. Black, et al ., "Global, regional, and national causes of child mortality in 2008: a systematic analysis," The Lancet , vol. 375, pp. 1969-1987, 2010.
[3] Igor Rudan, et al ., "Epidemiology and etiology of childhood pneumonia," Bulletin of the World Health Organization , vol. 86, pp. 408-416, 2008.
[4] WHO, "WHO-recommended standards for surveillance of selected-preventable diseases," Geneva, WHO/ V&B/03.01, 2003.
[5] S. Barry, et al ., "The automatic recognition and counting of cough," Cough , vol. 2, p. 8, 2006.
[6] S. Matos, et al ., "An Automated System for 24-h Monitoring of Cough Frequency: The Leicester Cough Monitor," Biomedical Engineering , IEEE Transactions on , vol. 54, pp. 1472-1479, 2007.
[7] PDA Cortex. (acessed at 12 October 2011). LifeShirt a new era in ambulatory monitoring. Available: http://www.pdacortex.com/VivoMetrics.htm
[8] J. Thomas. (accessed at 12 October 2011). VitaloJAK Cough Monitor. Available: http://www.trustech.org.uk/case-study/the-vitalojak/
[9] KarmelSonix. (accessed at 12 October 2011). PulmoTrack. Available: http://www.karmelsonix.com/solution-pulmotrack.html
[10] M. A. Coyle, et al ., "Evaluation of an ambulatory system for the quantification of cough frequency in patients with chronic obstructive pulmonary disease," Cough, vol. 1, p. 3, 2005.
[11] E. Vizel, et al ., "Validation of an ambulatory cough detection and counting application using voluntary cough under different conditions," Cough , vol. 6, p. 3, 2010.
[12] K. McGuinness, et al ., "Automated cough detection: a novel approach [abstract]," Am J Resp Crit Care Med , p. 175: A381, 2007.
[13] J. Smith and A. Woodcock, "New Developments in the Objective Assessment of Cough," Lung , vol. 186, pp. 48-54, 2008.
[14] S. Ferrari, et al ., "Cough sound analysis to identify respiratory infection in pigs," Computers and Electronics in Agriculture , vol. 64, pp. 318-325, 2008.
[15] R. Martin, "Noise power spectral density estimation based on optimal smoothing and minimum statistics," Speech and Audio Processing , IEEE Transactions on , vol. 9, pp. 504-512, 2001.
[16] S. Greenberg, et al ., Speech processing in auditory system. New York: Springer, 2004.
[17] S. Chatterjee and W. B. Kleijn, "Auditory model based modified MFCC features," in Acoustics Speech and Signal Processing ( ICASSP ), 2010 IEEE International Conference on, 2010, pp. 4590-4593.
[18] W. D. Duckitt, et al ., "Automatic detection, segmentation and assessment of snoring from ambient acoustic data," Physiological Measurement , vol. 27, p. 1047, 2006.
[19] E. Goldshtein, et al ., "Automatic Detection of Obstructive Sleep Apnea Using Speech Signals," Biomedical Engineering , IEEE Transactions on , vol. 58, pp. 1373-1382, 2011.
[20] S. K. Asela, et al ., "Multi-feature snore sound analysis in obstructive sleep apnea-hypopnea syndrome," Physiological Measurement , vol. 32, p. 83, 2011.
[21] U. R. Abeyratne, et al ., "Multi-parametric analysis of snore sounds for the community screening of sleep apnea with non-gaussianity index," US Patent, 2010.
[22] J. E. Markel and A. H. Gray, Linear Prediction of Speech: Springer-Verlag New York, Inc. , 1982.
[23] H. Ghaemmaghami, et al ., "Normal probability testing of snore signals for diagnosis of obstructive sleep apnea," in Engineering in Medicine and Biology Society, 2009. EMBC 2009. Annual International Conference of the IEEE, 2009, pp. 5551-5554.
[24] S. El Safty and A. El-Zonkoly, "Applying wavelet entropy principle in fault classification," International Journal of Electrical Power & Energy Systems , vol. 31, pp. 604-607, 2008.
[25] G. M. Foody, "Using prior knowledge in artificial neural network classification with a minimal training set," International Journal of Remote Sensing , vol. 16, pp. 301-312, 1995/01/01 1995.
[26] A. Waibel, et al ., "Phoneme recognition using time-delay neural networks," Acoustics, Speech and Signal Processing , IEEE Transactions on , vol. 37, pp. 328-339, 1989.
[27] M. Riedmiller and H. Braun, "A direct adaptive method for faster backpropagation learning: the RPROP algorithm," in Neural Networks , 1993., IEEE International Conference on, 1993, pp. 586-591 vol.1.
[28] V. Tyagi, et al ., "A variable-scale piecewise stationary spectral analysis technique applied to ASR," in Machine learning for multimodal interaction, Edinburgh, 2005, pp. 274-284.
[29]1. Ghaemmaghami, H., U. Abeyratne, and C. Hukins. Normal probability testing of snore signals for diagnosis of obstructive sleep apnea. 2009: IEEE.
[30]. Ng, A.K., et al., Could formant frequencies of snore signals be an alternative means for the diagnosis of obstructive sleep apnea ? Sleep medicine, 2008. 9(8): p. 894-898.
[31] Oppenheim, A.V., R.W. Schafer, and J.R. Buck, Discrete - time signal processing. Vol. 1999. 1989: Prentice hall Englewood Cliffs, NJ:.
[32] Zheng, F., G. Zhang, and Z. Song, Comparison of different implementations of MFCC . Journal of Computer Science and Technology, 2001. 16(6): p. 582-589.
[33] Abeyratne, U. Blind reconstruction of non - minimum - phase systems from 1-D oblique slices of bispectrum. 1999: IET.
[34] Mendel, J.M., Tutorial on higher - order statistics ( spectra ) in signal processing and system theory : Theoretical results and some applications . Proceedings of the IEEE, 1991. 79(3): p. 278-305.
3. Tessa Wardlaw, E.W. Johansson, and M. Hodge, Pneumonia : The forgotten killer of children . UNICEF/WHO, 2006.
4. Berman, S., E. Simoes, and C. Lanata, Respiratory rate and pneumonia in infancy. Archives of disease in childhood, 1991. 66(1): p. 81-84.
5. WHO, Childhood disease, WHO.
6. Cardoso, M.R.A., et al., Adding fever to WHO criteria for diagnosing pneumonia enhances the ability to identify pneumonia cases among wheezing children . Archives of disease in childhood, 2011. 96(1): p. 58.
7. Harari, M., et al., Clinical signs of pneumonia in children . The Lancet, 1991. 338(8772): p. 928-930.
8. Lozano, J., et al., Clinical predictors of acute radiological pneumonia and hypoxaemia at high altitude . Archives of disease in childhood, 1994. 71(4): p. 323-327.
9. Mulholland, E., et al., Standardized diagnosis of pneumonia in developing countries. The Pediatric infectious disease journal, 1992. 11(2): p. 77.
10. Palafox, M., et al., Diagnostic value of tachypnoea in pneumonia defined radiologically . Archives of disease in childhood, 2000. 82(1): p. 41-45.
본 발명의 어떤 실시예도 단지 예시적인 것으로 의도된 것이고, 본 발명에 제한을 두도록 의도되지 않았다. 그러므로, 다양한 기타 변화들 및 변경들이 본 발명의 사상 및 범위를 벗어나지 않고서 기술된 임의의 실시예에 대해 이루어질 수 있다는 것을 알아야 한다.
본 명세서 및 특허청구범위에서, "포함하는(comprising) " 및 그와 관련되고 파생되는 용어들인 "포함한다(comprises)", "포함한다(comprise)"는 진술된 완전체(integer)들의 각각을 포함하는 것으로서 하나 이상의 추가적 완전체들을 포함하는 것을 배제하지 않게끔 포괄적 의미로 해석해야 한다.

Claims (18)

  1. 환자 소리들을 처리하기 위해 계산 장치를 동작시키는 방법으로서,
    상기 환자 소리들의 세그먼트들로부터 특징들을 추출하는 단계; 및
    상기 추출된 특징들 및 미리 정해진 기준에 기초하여 상기 세그먼트들을 기침 또는 비 기침 소리들로 분류하는 단계; 및
    기침 소리들로서 분류되는 상기 환자 소리들의 세그먼트들에 기초하여 상기 계산 장치의 제어 하에 디스플레이 상에 질병 관련 상태의 진단을 제시하는 단계
    를 포함하는 방법.
  2. 제1항에 있어서, 기침 소리들을 "젖은 기침" 또는 "젖지 않은 기침" 소리들인 것으로서 분류하는 단계를 포함하는 방법.
  3. 제2항에 있어서,
    상기 환자 소리들의 기침 이벤트들을 병적인 것 또는 비병적인 것 중 하나로서 분류하는 단계; 및
    분류된 병적인 기침 이벤트들의 비율을 표시하는 병적인 기침 인덱스를 계산하는 단계
    를 더 포함하는 방법.
  4. 제3항에 있어서, 상기 병적인 기침 인덱스가 미리 정해진 요건에 부합하는 경우에는 상기 환자가 특정 질환 상태로 고통받고 있다고 여기는 단계
    를 포함하는 방법.
  5. 환자의 소리 녹음을 처리하고 그에 의해 계산 장치의 제어 하에 디스플레이를 이용해 상기 환자의 특정 질병 상태의 진단을 제시하기 위해 상기 계산 장치를 동작시키는 방법.
  6. 제5항에 있어서, 폐렴을 포함하는 질병 상태를 진단하기 위한 단계들을 포함하는 방법.
  7. 제5항 또는 제6항에 있어서,
    상기 소리 녹음의 기침 이벤트들을 병적인 것 또는 비병적인 것 중 하나로서 분류하는 단계;
    분류된 병적인 기침 이벤트들의 비율을 표시하는 병적인 기침 인덱스를 계산하는 단계; 및
    상기 병적인 기침 인덱스가 미리 정해진 요건에 부합하는 경우에는 상기 환자가 상기 특정 질환 상태로 고통받고 있다고 여기는 단계
    를 포함하는 방법.
  8. 제8항에 있어서, 상기 미리 정해진 요건은 상기 병적인 기침 인덱스가 미리 정해진 임계값을 초과하는 것을 포함하는 방법.
  9. 제7항 또는 제8항에 있어서, 상기 기침 이벤트들을 상기 병적인 것 또는 비병적인 것 중 하나로서 분류하는 단계는 분류 절차에 따라 상기 기침 이벤트들로부터 추출된 특징들을 처리하는 단계를 포함하는 방법.
  10. 제9항에 있어서, 상기 분류 절차는 로지스틱 회귀 모델(logistic regression model)의 적용을 포함하는 방법.
  11. 제9항에 있어서, 상기 분류 절차는 훈련된 인공 신경망의 적용을 포함하는 방법.
  12. 제10항 또는 제11항에 있어서,
    천식, 기관지염, 비인두염, 천명, 인두편도선염, 심장병, 후두연화증, 말라리아, 및 이물질 흡입의 불편 증상들 중 하나 이상으로부터 고통받고 있는 환자들로부터 녹음된 비 폐렴 소리들을 포함하는 유형의 분류기를 위한 훈련 세트의 적용을 포함하는 방법
  13. 적어도 하나의 전자적 프로세서가 제1항 내지 제12항 중 어느 한 항에 따른 방법을 수행하기 위한 명령어들을 포함하는 전자적 메모리와 통신하는 상기 적어도 하나의 전자적 프로세서를 포함하는 계산 장치.
  14. 제13항에 있어서, 상기 계산 장치는 상기 방법을 수행하도록 프로그래밍되는 이동 전화기 또는 유사한 장치를 포함하는 계산 장치.
  15. 제1항 내지 제12항 중 어느 한 항에 따른 방법을 수행하기 위한 하나 이상의 전자적 프로세서들에 의한 실행을 위한 유형적 명령어들을 저장한 머신 판독 가능 매체.
  16. 환자 소리들을 처리하기 위해 계산 장치를 동작시키는 방법으로서,
    상기 환자 소리들의 세그먼트들로부터 특징들을 추출하는 단계; 및
    상기 추출된 특징들 및 미리 정해진 기준에 기초하여 상기 세그먼트들을 기침 또는 비 기침 소리들로서 분류하는 단계
    를 포함하는 방법.
  17. 제1항에 있어서, 기침 소리들로서 분류된 상기 환자 소리들의 세그먼트들에 기초하여 질병 관련 상태를 진단하고 상기 계산 장치에 의해 제어되는 전자적 디스플레이상에서 상기 진단을 제시하는 단계를 더 포함하는 방법.
  18. 제2항에 있어서, 기침 소리들을 "젖은 기침" 또는 "젖지 않은 기침" 소리들인 것으로서 분류하는 단계를 포함하는 방법.
KR1020147030062A 2012-03-29 2013-03-28 환자 소리들을 처리하기 위한 방법 및 장치 KR102081241B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
AU2012901255A AU2012901255A0 (en) 2012-03-29 A method and apparatus for processing patient sounds
AU2012901255 2012-03-29
PCT/AU2013/000323 WO2013142908A1 (en) 2012-03-29 2013-03-28 A method and apparatus for processing patient sounds

Publications (2)

Publication Number Publication Date
KR20140142330A true KR20140142330A (ko) 2014-12-11
KR102081241B1 KR102081241B1 (ko) 2020-02-25

Family

ID=49257951

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020147030062A KR102081241B1 (ko) 2012-03-29 2013-03-28 환자 소리들을 처리하기 위한 방법 및 장치

Country Status (8)

Country Link
US (1) US10098569B2 (ko)
EP (2) EP4241676A3 (ko)
JP (1) JP6435257B2 (ko)
KR (1) KR102081241B1 (ko)
CN (2) CN110353685B (ko)
AU (1) AU2013239327B2 (ko)
ES (1) ES2947765T3 (ko)
WO (1) WO2013142908A1 (ko)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106364542A (zh) * 2016-09-20 2017-02-01 智易行科技(武汉)有限公司 基于支持向量机的多传感器融合智能婴儿体态安抚方法
WO2019190071A1 (ko) * 2018-03-28 2019-10-03 (주)오상헬스케어 호흡 질환 진단 장치 및 방법
KR20200122301A (ko) * 2017-12-21 2020-10-27 더 유니버서티 어브 퀸슬랜드 호흡기 질병 진단을 위한 질병 시그니처를 이용한 기침 소리 분석 방법
KR20210137606A (ko) * 2020-05-11 2021-11-18 한양대학교 산학협력단 감염 질환을 모니터링 및 진단하는 방법 및 장치
WO2022015010A1 (ko) * 2020-07-13 2022-01-20 다인기술 주식회사 음향 신호를 분석하여 기침을 계수하는 방법, 이를 수행하는 서버 및 비일시성의 컴퓨터 판독 가능 기록 매체
KR20220075483A (ko) * 2020-11-30 2022-06-08 한국전자기술연구원 호흡음을 포함한 생체신호 기반 호흡기 감염증 진단 방법 및 시스템
KR102410650B1 (ko) * 2021-10-09 2022-06-17 전상현 비대면 종합 건강 관리 서비스 제공방법
WO2023014063A1 (ko) * 2021-08-03 2023-02-09 다인기술 주식회사 음향 신호를 분석하여 연하장애 가능성을 평가하는 방법, 이를 수행하는 서버 및 비일시성의 컴퓨터 판독 가능 기록 매체
WO2023243754A1 (ko) * 2022-06-17 2023-12-21 주식회사 엔씨소프트 지정된 모션이 캡쳐된 시점을 추출하는 전자 장치 및 방법

Families Citing this family (120)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105193443A (zh) 2010-04-16 2015-12-30 田纳西大学研究基金会 用于预测胃肠损害的系统和方法
EP2608714A4 (en) * 2010-08-25 2017-03-08 Diacoustic Medical Devices (Pty) Ltd A system and method for classifying a heart sound
US11315687B2 (en) * 2012-06-18 2022-04-26 AireHealth Inc. Method and apparatus for training and evaluating artificial neural networks used to determine lung pathology
CN103730130B (zh) * 2013-12-20 2019-03-01 中国科学院深圳先进技术研究院 一种病理嗓音的检测系统
JP6320109B2 (ja) * 2014-03-27 2018-05-09 旭化成株式会社 心疾患識別装置
EP2945084A1 (en) * 2014-05-12 2015-11-18 Electrosalus Biyomedikal Sanayi ve Ticaret Anonim Sirketi Auscultation data acquisition, communication and evaluation system incorporating mobile facilities
US9186479B1 (en) 2014-06-05 2015-11-17 Morphy Inc. Methods and systems for gathering human biological signals and controlling a bed device
CN106471567B (zh) * 2015-05-15 2019-04-26 深圳市大疆创新科技有限公司 色彩校正系统和方法
US9687208B2 (en) * 2015-06-03 2017-06-27 iMEDI PLUS Inc. Method and system for recognizing physiological sound
EP3359023A4 (en) * 2015-10-08 2019-05-22 Cordio Medical Ltd. ASSESSMENT OF A PULMONARY SUFFERING BY LANGUAGE ANALYSIS
US20170135883A1 (en) * 2015-11-16 2017-05-18 Eight Sleep Inc. Adjustable bedframe and operating methods
US10105092B2 (en) 2015-11-16 2018-10-23 Eight Sleep Inc. Detecting sleeping disorders
US10154932B2 (en) 2015-11-16 2018-12-18 Eight Sleep Inc. Adjustable bedframe and operating methods for health monitoring
US9899034B2 (en) * 2015-12-22 2018-02-20 Intel IP Corporation Technologies for robust crying detection using temporal characteristics of acoustic features
WO2017141165A1 (en) 2016-02-17 2017-08-24 Bat Call D. Adler Ltd. Digital stethoscopes, and auscultation and imaging systems
US11116478B2 (en) 2016-02-17 2021-09-14 Sanolla Ltd. Diagnosis of pathologies using infrasonic signatures
US9998487B2 (en) * 2016-04-25 2018-06-12 General Electric Company Domain level threat detection for industrial asset control system
CN105962897B (zh) * 2016-04-27 2018-10-02 南京理工大学 一种自适应的鼾声信号检测方法
US10592733B1 (en) * 2016-05-20 2020-03-17 Educational Testing Service Computer-implemented systems and methods for evaluating speech dialog system engagement via video
JP6915036B2 (ja) * 2016-07-14 2021-08-04 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 喘息症状を監視するシステム及び方法
US10008218B2 (en) 2016-08-03 2018-06-26 Dolby Laboratories Licensing Corporation Blind bandwidth extension using K-means and a support vector machine
US11783947B2 (en) 2016-09-26 2023-10-10 University Of Queensland Method and apparatus for automatic disease state diagnosis
HUE063834T2 (hu) * 2016-11-15 2024-02-28 Boehringer Ingelheim Vetmedica Gmbh Eljárás specifikus légúti kórokozó elõrejelzésére
JP6907553B2 (ja) * 2017-01-23 2021-07-21 富士フイルムビジネスイノベーション株式会社 咳検知装置及びプログラム
EP3566225B1 (en) * 2017-02-01 2021-04-07 Resapp Health Limited Methods and apparatus for cough detection in background noise environments
CN110891486A (zh) * 2017-03-10 2020-03-17 梅西莫股份有限公司 肺炎筛查仪
WO2018187664A1 (en) * 2017-04-06 2018-10-11 Brown University Improved diagnostic instrument and methods
KR101924852B1 (ko) * 2017-04-14 2018-12-04 네이버 주식회사 네트워크에 연결된 음향기기와의 멀티모달 인터렉션 방법 및 시스템
WO2018204934A1 (en) * 2017-05-05 2018-11-08 Canary Speech, LLC Selecting speech features for building models for detecting medical conditions
CN107591162B (zh) * 2017-07-28 2021-01-12 南京邮电大学 基于模式匹配的哭声识别方法及智能看护系统
CN108701469B (zh) * 2017-07-31 2023-06-20 深圳和而泰智能控制股份有限公司 咳嗽声音识别方法、设备和存储介质
CN107693043B (zh) * 2017-08-18 2019-10-11 中国人民解放军总医院 肠鸣音信号的非线性动力学分析方法
CN110021435A (zh) * 2017-09-07 2019-07-16 医疗财团法人徐元智先生医药基金会亚东纪念医院 嗓音侦测分类系统
EP3684463A4 (en) 2017-09-19 2021-06-23 Neuroenhancement Lab, LLC NEURO-ACTIVATION PROCESS AND APPARATUS
EP3471027A1 (en) * 2017-10-13 2019-04-17 Siemens Aktiengesellschaft A method for computer-implemented determination of a data-driven prediction model
CN108053841A (zh) * 2017-10-23 2018-05-18 平安科技(深圳)有限公司 利用语音进行疾病预测的方法及应用服务器
WO2019079909A1 (en) * 2017-10-27 2019-05-02 Ecole De Technologie Superieure SYSTEM FOR CLASSIFYING INTRA-AURICULAR NON-VERB AUDIO EVENTS AND ASSOCIATED METHOD
WO2019096714A1 (en) 2017-11-17 2019-05-23 Koninklijke Philips N.V. Cough detection in a respiratory support system
US11717686B2 (en) 2017-12-04 2023-08-08 Neuroenhancement Lab, LLC Method and apparatus for neuroenhancement to facilitate learning and performance
USD865167S1 (en) 2017-12-20 2019-10-29 Bat Call D. Adler Ltd. Digital stethoscope
US10957335B2 (en) * 2017-12-28 2021-03-23 Sleep Number Corporation Home automation having user privacy protections
CN108090686B (zh) * 2017-12-29 2022-01-25 北京大学 一种医疗事件风险评估分析方法及系统
US11273283B2 (en) 2017-12-31 2022-03-15 Neuroenhancement Lab, LLC Method and apparatus for neuroenhancement to enhance emotional response
GB2584242B (en) 2018-01-09 2022-09-14 Eight Sleep Inc Systems and methods for detecting a biological signal of a user of an article of furniture
GB2584241B (en) 2018-01-19 2023-03-08 Eight Sleep Inc Sleep pod
US11364361B2 (en) 2018-04-20 2022-06-21 Neuroenhancement Lab, LLC System and method for inducing sleep by transplanting mental states
JP7197922B2 (ja) * 2018-05-08 2022-12-28 国立大学法人徳島大学 機械学習装置、解析装置、機械学習方法および解析方法
EA201800377A1 (ru) * 2018-05-29 2019-12-30 Пт "Хэлси Нэтворкс" Способ диагностики заболеваний органов дыхания и система для его реализации
US20210090593A1 (en) * 2018-06-29 2021-03-25 Deeply Inc. Method and device for analyzing real-time sound
EP3817650A4 (en) * 2018-07-02 2022-04-13 3M Innovative Properties Company DETECTION SYSTEM AND METHOD FOR MONITORING TIME DEPENDENT PROCESSES
US10832673B2 (en) 2018-07-13 2020-11-10 International Business Machines Corporation Smart speaker device with cognitive sound analysis and response
US10832672B2 (en) 2018-07-13 2020-11-10 International Business Machines Corporation Smart speaker system with cognitive sound analysis and response
GB2578418B (en) * 2018-07-25 2022-06-15 Audio Analytic Ltd Sound detection
KR102092543B1 (ko) * 2018-08-31 2020-03-24 재단법인 아산사회복지재단 폐음을 이용한 폐 정보 획득 방법, 그 장치 및 그 프로그램
US11298101B2 (en) * 2018-08-31 2022-04-12 The Trustees Of Dartmouth College Device embedded in, or attached to, a pillow configured for in-bed monitoring of respiration
US11452839B2 (en) 2018-09-14 2022-09-27 Neuroenhancement Lab, LLC System and method of improving sleep
US11380351B2 (en) * 2018-09-20 2022-07-05 Samsung Electronics Co., Ltd. System and method for pulmonary condition monitoring and analysis
US10847177B2 (en) 2018-10-11 2020-11-24 Cordio Medical Ltd. Estimating lung volume by speech analysis
AU2019360358A1 (en) * 2018-10-17 2021-05-27 The University Of Queensland A method and apparatus for diagnosis of maladies from patient sounds
US20200135334A1 (en) * 2018-10-26 2020-04-30 AIRx Health, Inc. Devices and methods for remotely managing chronic medical conditions
CN109498228B (zh) * 2018-11-06 2021-03-30 林枫 基于咳嗽音反馈的肺康复治疗装置
US20200152330A1 (en) * 2018-11-13 2020-05-14 CurieAI, Inc. Scalable Personalized Treatment Recommendation
BR112021011270A2 (pt) * 2018-12-13 2021-08-31 Liminal Sciences, Inc. Dispositivo, método para operar um dispositivo, e, aparelho
WO2020132528A1 (en) * 2018-12-20 2020-06-25 University Of Washington Detection of agonal breathing using a smart device
US11216742B2 (en) 2019-03-04 2022-01-04 Iocurrents, Inc. Data compression and communication using machine learning
US11011188B2 (en) 2019-03-12 2021-05-18 Cordio Medical Ltd. Diagnostic techniques based on speech-sample alignment
US11024327B2 (en) 2019-03-12 2021-06-01 Cordio Medical Ltd. Diagnostic techniques based on speech models
CN113519024A (zh) * 2019-03-12 2021-10-19 科蒂奥医疗公司 基于语音模型的诊断技术
CA3136549A1 (en) 2019-04-16 2020-10-22 Entac Medical, Inc. Enhanced detection and analysis of biological acoustic signals
US11786694B2 (en) 2019-05-24 2023-10-17 NeuroLight, Inc. Device, method, and app for facilitating sleep
SG11202113302UA (en) * 2019-05-30 2021-12-30 Insurance Services Office Inc Systems and methods for machine learning of voice attributes
CN111883174A (zh) * 2019-06-26 2020-11-03 深圳数字生命研究院 声音的识别方法及装置、存储介质和电子装置
US11948690B2 (en) * 2019-07-23 2024-04-02 Samsung Electronics Co., Ltd. Pulmonary function estimation
DE102019210929B4 (de) * 2019-07-24 2023-07-20 Zf Friedrichshafen Ag Computerimplementiertes Verfahren zum maschinellen Lernen von Husten- und/oder Niesgeräuschen von ein Beförderungsmittel nutzenden Fahrgästen, um bei erkannten Husten- und/oder Niesgeräuschen Maßnahmen zur Reinigung des Beförderungsmittels einzuleiten, und Steuergerät, Verfahren, Vorrichtung, Beförderungsmittel und Computerprogramm zum Einleiten der Maßnahmen
CN110367934B (zh) * 2019-07-25 2023-02-03 深圳大学 一种基于非语音身体声音的健康监测方法及监测系统
US11526780B2 (en) * 2019-08-05 2022-12-13 Microsoft Technology Licensing, Llc Converting nonnative skills for conversational computing interfaces
AU2020332707A1 (en) * 2019-08-19 2022-03-03 The University Of Queensland A method and apparatus for processing asthma patient cough sound for application of appropriate therapy
US10716534B1 (en) 2019-10-21 2020-07-21 Sonavi Labs, Inc. Base station for a digital stethoscope, and applications thereof
US10709414B1 (en) 2019-10-21 2020-07-14 Sonavi Labs, Inc. Predicting a respiratory event based on trend information, and applications thereof
US10702239B1 (en) 2019-10-21 2020-07-07 Sonavi Labs, Inc. Predicting characteristics of a future respiratory event, and applications thereof
US10750976B1 (en) * 2019-10-21 2020-08-25 Sonavi Labs, Inc. Digital stethoscope for counting coughs, and applications thereof
US10709353B1 (en) 2019-10-21 2020-07-14 Sonavi Labs, Inc. Detecting a respiratory abnormality using a convolution, and applications thereof
US11741986B2 (en) * 2019-11-05 2023-08-29 Samsung Electronics Co., Ltd. System and method for passive subject specific monitoring
US20210161502A1 (en) * 2019-12-03 2021-06-03 Samsung Electronics Co., Ltd. System and method for determining a likelihood of paradoxical vocal cord motion (pvcm) in a person
CA3164369A1 (en) * 2019-12-16 2021-06-24 ResApp Health Limited Diagnosing respiratory maladies from subject sounds
CA3164373A1 (en) * 2019-12-16 2021-06-24 ResApp Health Limited Method and apparatus for automatic cough detection
CN111179967B (zh) * 2019-12-17 2022-05-24 华南理工大学 颈脊髓损伤患者真假咳嗽音线性分类算法、介质和设备
US20210199503A1 (en) * 2019-12-26 2021-07-01 Industrial Technology Research Institute Data processing system disposed on sensor and method thereof
CN111009263A (zh) * 2019-12-28 2020-04-14 哈尔滨工业大学 一种用于肺部啰音识别的系统及方法
CN111260835B (zh) * 2020-01-19 2022-08-09 上海瑞皇管业科技股份有限公司 城市综合管廊监控报警系统及其控制方法
US11484211B2 (en) 2020-03-03 2022-11-01 Cordio Medical Ltd. Diagnosis of medical conditions using voice recordings and auscultation
US11468908B2 (en) 2020-04-15 2022-10-11 Optum, Inc. Hybrid input machine learning frameworks
CN111584069B (zh) * 2020-05-07 2023-04-18 成都兰途网络科技有限公司 基于语音深-浅特征堆栈稀疏自动编码的精神病识别系统
CA3186024A1 (en) * 2020-06-04 2021-12-09 Entac Medical, Inc. Apparatus and methods for predicting in vivo functional impairments and events
CN111653273A (zh) * 2020-06-09 2020-09-11 杭州叙简科技股份有限公司 一种基于智能手机的院外肺炎初步识别方法
US11134354B1 (en) 2020-06-15 2021-09-28 Cirrus Logic, Inc. Wear detection
US11219386B2 (en) 2020-06-15 2022-01-11 Cirrus Logic, Inc. Cough detection
MX2022015673A (es) * 2020-06-18 2023-01-16 Resapp Health Ltd Deteccion de eventos en sonidos de sujetos.
US11417342B2 (en) 2020-06-29 2022-08-16 Cordio Medical Ltd. Synthesizing patient-specific speech models
US20220047088A1 (en) * 2020-08-12 2022-02-17 Cvb Inc Method for analyzing sound data for use in an anti-snoring system and apparatus
KR102241399B1 (ko) * 2020-08-25 2021-04-16 주식회사 쓰리빌리언 증상의 질병 특이도 측정 시스템
US20240015445A1 (en) * 2020-09-04 2024-01-11 Level 42 Ai Inc. Non-contact sensor systems and methods
CN112233700A (zh) * 2020-10-09 2021-01-15 平安科技(深圳)有限公司 基于音频的用户状态识别方法、装置及存储介质
US11862188B2 (en) * 2020-10-22 2024-01-02 Google Llc Method for detecting and classifying coughs or other non-semantic sounds using audio feature set learned from speech
US20220338756A1 (en) * 2020-11-02 2022-10-27 Insubiq Inc. System and method for automatic detection of disease-associated respiratory sounds
CN112754502A (zh) * 2021-01-12 2021-05-07 曲阜师范大学 一种基于脑电信号的音乐自动切换方法
EP4284243A1 (en) * 2021-01-28 2023-12-06 Sivan, Danny Detection of diseases and viruses by ultrasonic frequency
RU2752453C1 (ru) * 2021-03-29 2021-07-28 Елена Алексеевна Терешко Телемедицинский терминал для осмотра и тестирования работников промышленных и транспортных предприятий
CN113158916B (zh) * 2021-04-26 2022-04-22 华南理工大学 一种咳嗽音自动识别算法、装置、介质和设备
CN115414025A (zh) * 2021-05-31 2022-12-02 华为技术有限公司 筛查方法、设备、存储介质及程序产品
KR102580057B1 (ko) * 2021-08-23 2023-09-21 한양대학교 산학협력단 웨어러블 디바이스 및 그 동작방법
CN114041779A (zh) * 2021-11-26 2022-02-15 河南牧原智能科技有限公司 用于对牲畜呼吸道疾病进行识别的识别系统和计算机设备
KR102376188B1 (ko) * 2021-12-15 2022-03-17 가천대학교 산학협력단 딥러닝 기반의 호흡음 분류를 위한 피쳐정보 선택방법 및 시스템
KR102429256B1 (ko) * 2021-12-31 2022-08-04 주식회사 에이슬립 음향 정보를 통해 사용자의 수면 상태를 분석하기 위한 방법, 컴퓨팅 장치 및 컴퓨터 프로그램
US11948599B2 (en) * 2022-01-06 2024-04-02 Microsoft Technology Licensing, Llc Audio event detection with window-based prediction
TWI820704B (zh) * 2022-05-12 2023-11-01 財團法人工業技術研究院 聲音訊號的分析方法及裝置、晶片的設計方法及裝置
CN114822567B (zh) * 2022-06-22 2022-09-27 天津大学 一种基于能量算子的病理嗓音频谱重构方法
CN117770790A (zh) * 2022-09-28 2024-03-29 华为技术有限公司 呼吸健康检测方法及可穿戴电子设备
WO2024081343A1 (en) * 2022-10-14 2024-04-18 The Johns Hopkins University Systems and methods for acoustic-based diagnosis
CN117357754A (zh) * 2023-11-15 2024-01-09 江苏麦麦医疗科技有限公司 智能家居制氧机及控制系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003038460A (ja) * 2001-08-03 2003-02-12 Mitsubishi Pharma Corp 咳嗽音検出装置、咳嗽音検出方法、咳嗽音検出プログラム及び情報記憶媒体
JP2008178635A (ja) * 2007-01-26 2008-08-07 Konica Minolta Medical & Graphic Inc 咳漱解析装置
JP2011524769A (ja) * 2008-06-17 2011-09-08 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 音声分類器とマイクロホンを用いる音響患者モニタリング
US20120071777A1 (en) * 2009-09-18 2012-03-22 Macauslan Joel Cough Analysis

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5598508A (en) * 1991-10-18 1997-01-28 Goldman; Julian M. Real-time waveform analysis using artificial neural networks
US6436057B1 (en) * 1999-04-22 2002-08-20 The United States Of America As Represented By The Department Of Health And Human Services, Centers For Disease Control And Prevention Method and apparatus for cough sound analysis
US6443907B1 (en) * 2000-10-06 2002-09-03 Biomedical Acoustic Research, Inc. Acoustic detection of respiratory conditions
JP4832289B2 (ja) 2003-04-10 2011-12-07 アディダス アーゲー 呼吸事象検出システムおよび方法
US7207948B2 (en) * 2004-06-24 2007-04-24 Vivometrics, Inc. Systems and methods for monitoring cough
US20080082018A1 (en) * 2003-04-10 2008-04-03 Sackner Marvin A Systems and methods for respiratory event detection
CA2578684C (en) 2004-06-24 2017-07-25 Vivometrics, Inc. Systems and methods for monitoring cough
JP2007125360A (ja) 2005-10-05 2007-05-24 Konica Minolta Medical & Graphic Inc 咳検出装置
US7479115B2 (en) * 2006-08-25 2009-01-20 Savic Research, Llc Computer aided diagnosis of lung disease
GB0711524D0 (en) * 2007-06-15 2007-07-25 Univ Leuven Kath Online recognition and localisation of sick pig cough sounds
WO2010019831A1 (en) * 2008-08-14 2010-02-18 21Ct, Inc. Hidden markov model for speech processing with training method
US8880207B2 (en) * 2008-12-10 2014-11-04 The University Of Queensland Multi-parametric analysis of snore sounds for the community screening of sleep apnea with non-gaussianity index
AU2009330121B2 (en) * 2008-12-22 2013-02-28 Pneumoflex Systems, Llc Involuntary contraction induced pressure as a medical diagnostic tool using involuntary reflex cough test
US8758262B2 (en) * 2009-11-25 2014-06-24 University Of Rochester Respiratory disease monitoring system
CN101894551B (zh) * 2010-07-02 2012-05-09 华南理工大学 一种咳嗽自动识别装置
US8784311B2 (en) * 2010-10-05 2014-07-22 University Of Florida Research Foundation, Incorporated Systems and methods of screening for medical states using speech and other vocal behaviors

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003038460A (ja) * 2001-08-03 2003-02-12 Mitsubishi Pharma Corp 咳嗽音検出装置、咳嗽音検出方法、咳嗽音検出プログラム及び情報記憶媒体
JP2008178635A (ja) * 2007-01-26 2008-08-07 Konica Minolta Medical & Graphic Inc 咳漱解析装置
JP2011524769A (ja) * 2008-06-17 2011-09-08 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 音声分類器とマイクロホンを用いる音響患者モニタリング
US20120071777A1 (en) * 2009-09-18 2012-03-22 Macauslan Joel Cough Analysis

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106364542A (zh) * 2016-09-20 2017-02-01 智易行科技(武汉)有限公司 基于支持向量机的多传感器融合智能婴儿体态安抚方法
KR20200122301A (ko) * 2017-12-21 2020-10-27 더 유니버서티 어브 퀸슬랜드 호흡기 질병 진단을 위한 질병 시그니처를 이용한 기침 소리 분석 방법
WO2019190071A1 (ko) * 2018-03-28 2019-10-03 (주)오상헬스케어 호흡 질환 진단 장치 및 방법
KR20210137606A (ko) * 2020-05-11 2021-11-18 한양대학교 산학협력단 감염 질환을 모니터링 및 진단하는 방법 및 장치
WO2022015010A1 (ko) * 2020-07-13 2022-01-20 다인기술 주식회사 음향 신호를 분석하여 기침을 계수하는 방법, 이를 수행하는 서버 및 비일시성의 컴퓨터 판독 가능 기록 매체
US11877841B2 (en) 2020-07-13 2024-01-23 Dain Technology, Inc. Method for counting coughs by analyzing sound signal, server performing same, and non-transitory computer-readable recording medium
KR20220075483A (ko) * 2020-11-30 2022-06-08 한국전자기술연구원 호흡음을 포함한 생체신호 기반 호흡기 감염증 진단 방법 및 시스템
WO2023014063A1 (ko) * 2021-08-03 2023-02-09 다인기술 주식회사 음향 신호를 분석하여 연하장애 가능성을 평가하는 방법, 이를 수행하는 서버 및 비일시성의 컴퓨터 판독 가능 기록 매체
KR102410650B1 (ko) * 2021-10-09 2022-06-17 전상현 비대면 종합 건강 관리 서비스 제공방법
WO2023243754A1 (ko) * 2022-06-17 2023-12-21 주식회사 엔씨소프트 지정된 모션이 캡쳐된 시점을 추출하는 전자 장치 및 방법

Also Published As

Publication number Publication date
JP2015514456A (ja) 2015-05-21
AU2013239327B2 (en) 2018-08-23
EP2830496A1 (en) 2015-02-04
CN110353685A (zh) 2019-10-22
ES2947765T3 (es) 2023-08-18
US20150073306A1 (en) 2015-03-12
WO2013142908A1 (en) 2013-10-03
EP4241676A3 (en) 2023-10-18
EP2830496A4 (en) 2015-12-16
JP6435257B2 (ja) 2018-12-05
EP4241676A2 (en) 2023-09-13
AU2013239327A1 (en) 2014-11-06
CN104321015A (zh) 2015-01-28
US10098569B2 (en) 2018-10-16
KR102081241B1 (ko) 2020-02-25
CN110353685B (zh) 2022-03-04
EP2830496B1 (en) 2023-04-26

Similar Documents

Publication Publication Date Title
KR102081241B1 (ko) 환자 소리들을 처리하기 위한 방법 및 장치
Amrulloh et al. Automatic cough segmentation from non-contact sound recordings in pediatric wards
Abeyratne et al. Cough sound analysis can rapidly diagnose childhood pneumonia
Abeyratne et al. Pitch jump probability measures for the analysis of snoring sounds in apnea
Dafna et al. Automatic detection of whole night snoring events using non-contact microphone
Swarnkar et al. Automatic identification of wet and dry cough in pediatric patients with respiratory diseases
Cavusoglu et al. An efficient method for snore/nonsnore classification of sleep sounds
US11712198B2 (en) Estimation of sleep quality parameters from whole night audio analysis
Swarnkar et al. Neural network based algorithm for automatic identification of cough sounds
Datta et al. Automated lung sound analysis for detecting pulmonary abnormalities
Dar et al. Lung anomaly detection from respiratory sound database (sound signals)
EP4167835A1 (en) Systems and methods for screening obstructive sleep apnea during wakefulness using anthropometric information and tracheal breathing sounds
Ghaemmaghami et al. Normal probability testing of snore signals for diagnosis of obstructive sleep apnea
CN114340487A (zh) 一种处理哮喘患者咳嗽音以应用适当治疗的方法和装置
Çavuşoğlu et al. Acoustics of snoring and automatic snore sound detection in children
Aly et al. A new model to detect COVID-19 coughing and breathing sound symptoms classification from CQT and Mel spectrogram image representation using deep learning
Vatanparvar et al. Speechspiro: Lung function assessment from speech pattern as an alternative to spirometry for mobile health tracking
Snider et al. Automatic classification of breathing sounds during sleep
Kim et al. Non-invasive way to diagnose dysphagia by training deep learning model with voice spectrograms
Amrulloh et al. Optimum features computation using genetic algorithm for wet and dry cough classification
Markandeya et al. Severity Analysis of Upper Airway Obstructions: Oesophageal Pressure Versus Snoring Sounds
Sreerama Respiratory Sound Analysis for the Evidence of Lung Health
Koravanavar et al. Lung Sound Based Pulmonary Disease Classification Using Deep Learning
Soumya et al. Hybrid Algorithm To Classify The Lung Abnormalities Using The Stethoscope Recordings
CS et al. Hybrid Algorithm To Classify The Lung Abnormalities Using The Stethoscope Recordings.

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant