KR20230110231A - 배뇨에 관한 소리를 분석하기 위한 방법, 시스템 및비일시성의 컴퓨터 판독 가능한 기록 매체 - Google Patents

배뇨에 관한 소리를 분석하기 위한 방법, 시스템 및비일시성의 컴퓨터 판독 가능한 기록 매체 Download PDF

Info

Publication number
KR20230110231A
KR20230110231A KR1020230088937A KR20230088937A KR20230110231A KR 20230110231 A KR20230110231 A KR 20230110231A KR 1020230088937 A KR1020230088937 A KR 1020230088937A KR 20230088937 A KR20230088937 A KR 20230088937A KR 20230110231 A KR20230110231 A KR 20230110231A
Authority
KR
South Korea
Prior art keywords
urination
data
interval
sound
time interval
Prior art date
Application number
KR1020230088937A
Other languages
English (en)
Inventor
두경연
정지영
송지영
Original Assignee
다인기술 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 다인기술 주식회사 filed Critical 다인기술 주식회사
Publication of KR20230110231A publication Critical patent/KR20230110231A/ko

Links

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/20Measuring for diagnostic purposes; Identification of persons for measuring urological functions restricted to the evaluation of the urinary system
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/681Wristwatch-type devices
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6898Portable consumer electronic devices, e.g. music players, telephones, tablet computers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Veterinary Medicine (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Epidemiology (AREA)
  • Artificial Intelligence (AREA)
  • Primary Health Care (AREA)
  • Databases & Information Systems (AREA)
  • Physiology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Urology & Nephrology (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Psychiatry (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Fuzzy Systems (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

본 발명의 일 태양에 따르면, 배뇨에 관한 소리를 분석하기 위한 방법으로서, 배뇨 소리가 포함된 타겟 음향 데이터를 획득하는 단계, 상기 타겟 음향 데이터를 시간 차원에서 세그먼트화하는 단계, 및 상기 세그먼트화된 타겟 음향 데이터를 학습 모델을 이용하여 분석함으로써, 상기 타겟 음향 데이터에서 배뇨 구간을 판별하는 단계를 포함하고, 상기 학습 모델은, 시간 차원에서 세그먼트화된 음향 데이터, 상기 세그먼트화된 음향 데이터에서 추출된 적어도 하나의 특징에 관한 데이터 및 상기 세그먼트화된 음향 데이터에 라벨링된 태깅 정보 중 적어도 하나를 포함하는 학습 데이터에 기초하여 음향 데이터로부터 배뇨 구간을 판별하기 위한 단서로서 활용될 수 있는 데이터를 출력하도록 학습되는 방법이 제공된다.

Description

배뇨에 관한 소리를 분석하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체{METHOD, SYSTEM AND NON-TRANSITORY COMPUTER-READABLE RECORDING MEDIUM FOR ANALYZING URINATION-RELATED SOUNDS}
본 발명은 배뇨에 관한 소리를 분석하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체에 관한 것이다.
환자의 신체로부터 발생하는 소리는 환자의 건강 상태를 진단하기 위한 중요한 데이터로서 사용되어 왔다. 최근에는, 환자의 배뇨 시 발생하는 소리로부터 환자의 배뇨 기능을 진단하는 기술이 개발되고 있다. 구체적으로, 환자의 배뇨가 진행되는 동안에 환자의 배뇨 소리가 포함된 음향 데이터를 획득하고, 이를 기초로 하여 환자의 배뇨 속도, 배뇨량 등을 예측하는 기술이 제안된 바 있다.
하지만, 위와 같은 종래 기술에 따르면, 환자의 배뇨 기능을 진단하기 위해 획득한 음향 데이터에는, 환자의 배뇨 소리에 해당하는 데이터 외에도 주변 환경으로부터 발생하는 다양한 소리에 해당하는 데이터도 포함되어 있었기 때문에, 음향 데이터에서 배뇨 구간과 비 배뇨 구간을 정확하게 구분할 수 없다는 문제점이 존재하였다. 종래 기술은 이러한 문제점으로 인해, 환자의 배뇨 기능에 대한 오진 가능성을 배제할 수 없었으므로 기술의 신뢰성이 크게 떨어지게 되었다.
이에 본 발명자(들)은, 환자의 배뇨 소리가 포함된 음향 데이터를 학습 모델을 이용하여 분석함으로써, 환자의 배뇨 소리가 포함된 음향 데이터에서 배뇨 구간을 정확하게 판별하는 기술을 제안하는 바이다.
(특허문헌 0001) 국제공개공보 WO 2020/036496 (2020.02.20.)
본 발명은 상술한 문제점을 모두 해결하는 것을 그 목적으로 한다.
또한, 본 발명은 환자의 배뇨 소리가 포함된 음향 데이터에서 배뇨 구간을 정확하게 판별함으로써, 환자의 배뇨 기능에 관한 진단을 내리는 데에 도움이 될 수 있는 정보를 제공하는 것을 다른 목적으로 한다.
상기 목적을 달성하기 위한 본 발명의 대표적인 구성은 다음과 같다.
본 발명의 일 태양에 따르면, 배뇨에 관한 소리를 분석하기 위한 방법으로서, 배뇨 소리가 포함된 타겟 음향 데이터를 획득하는 단계, 상기 타겟 음향 데이터를 시간 차원에서 세그먼트화하는 단계, 및 상기 세그먼트화된 타겟 음향 데이터를 학습 모델을 이용하여 분석함으로써, 상기 타겟 음향 데이터에서 배뇨 구간을 판별하는 단계를 포함하고, 상기 학습 모델은, 시간 차원에서 세그먼트화된 음향 데이터, 상기 세그먼트화된 음향 데이터에서 추출된 적어도 하나의 특징에 관한 데이터 및 상기 세그먼트화된 음향 데이터에 라벨링된 태깅 정보 중 적어도 하나를 포함하는 학습 데이터에 기초하여 음향 데이터로부터 배뇨 구간을 판별하기 위한 단서로서 활용될 수 있는 데이터를 출력하도록 학습되는 방법이 제공된다.
본 발명의 다른 태양에 따르면, 배뇨에 관한 소리를 분석하기 위한 시스템으로서, 배뇨 소리가 포함된 타겟 음향 데이터를 획득하는 데이터 획득부, 상기 타겟 음향 데이터를 시간 차원에서 세그먼트화하는 데이터 전처리부, 및 상기 세그먼트화된 타겟 음향 데이터를 학습 모델을 이용하여 분석함으로써, 상기 타겟 음향 데이터에서 배뇨 구간을 판별하는 배뇨 구간 판별부를 포함하고, 상기 학습 모델은, 시간 차원에서 세그먼트화된 음향 데이터, 상기 세그먼트화된 음향 데이터에서 추출된 적어도 하나의 특징에 관한 데이터 및 상기 세그먼트화된 음향 데이터에 라벨링된 태깅 정보 중 적어도 하나를 포함하는 학습 데이터에 기초하여 음향 데이터로부터 배뇨 구간을 판별하기 위한 단서로서 활용될 수 있는 데이터를 출력하도록 학습되는 시스템이 제공된다.
이 외에도, 본 발명을 구현하기 위한 다른 방법, 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램을 기록하기 위한 비일시성의 컴퓨터 판독 가능한 기록 매체가 더 제공된다.
본 발명에 의하면, 환자의 배뇨 소리가 포함된 음향 데이터에서 배뇨 구간을 정확하게 판별함으로써, 환자의 배뇨 기능에 관한 진단을 내리는 데에 도움이 될 수 있는 정보를 제공할 수 있게 된다.
도 1은 본 발명의 일 실시예에 따른 배뇨에 관한 소리를 분석하기 위한 전체 시스템의 구성을 개략적으로 나타내는 도면이다.
도 2는 본 발명의 일 실시예에 따른 소리 분석 시스템의 내부 구성을 예시적으로 나타내는 도면이다.
도 3은 본 발명의 일 실시예에 따라 타겟 음향 데이터를 예시적으로 나타내는 도면이다.
도 4는 본 발명의 일 실시예에 따라 타겟 음향 데이터에서 배뇨 구간을 판별한 결과를 예시적으로 나타내는 도면이다.
도 5는 본 발명의 일 실시예에 따라 배뇨 구간 판별 결과의 오류를 보정한 것을 예시적으로 나타내는 도면이다.
도 6은 본 발명의 일 실시예에 따라 타겟 음향 데이터에서 배뇨 진행 구간을 판별한 결과를 예시적으로 나타내는 도면이다.
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.
이하에서는, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 바람직한 실시예들에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.
전체 시스템의 구성
도 1은 본 발명의 일 실시예에 따른 배뇨에 관한 소리를 분석하기 위한 전체 시스템의 구성을 개략적으로 나타내는 도면이다.
도 1에 도시되어 있는 바와 같이, 본 발명의 일 실시예에 따른 전체 시스템은, 통신망(100), 소리 분석 시스템(200) 및 디바이스(300)로 구성될 수 있다.
먼저, 본 발명의 일 실시예에 따른 통신망(100)은 유선 통신이나 무선 통신과 같은 통신 양태를 가리지 않고 구성될 수 있으며, 근거리 통신망(LAN, Local Area Network), 도시권 통신망(MAN, Metropolitan Area Network), 광역 통신망(WAN, Wide Area Network) 등 다양한 통신망으로 구성될 수 있다. 바람직하게는, 본 명세서에서 말하는 통신망(100)은 와이파이(Wi-Fi), 와이파이 다이렉트(Wi-Fi Direct), LTE 다이렉트(LTE Direct), 블루투스(Bluetooth)와 같은 공지의 근거리 무선 통신망을 포함할 수 있다. 그러나, 통신망(100)은, 굳이 이에 국한될 필요 없이, 공지의 유무선 데이터 통신망, 공지의 전화망 또는 공지의 유무선 텔레비전 통신망을 그 적어도 일부에 있어서 포함할 수도 있다.
예를 들면, 통신망(100)은 무선 데이터 통신망으로서, 와이파이(WiFi) 통신, 와이파이 다이렉트(WiFi-Direct) 통신, 롱텀 에볼루션(LTE, Long Term Evolution) 통신, 블루투스 통신(저전력 블루투스(BLE; Bluetooth Low Energy) 포함), 적외선 통신, 초음파 통신 등과 같은 종래의 통신 방법을 적어도 그 일부분에 있어서 구현하는 것일 수 있다. 다른 예를 들면, 통신망(100)은 광 통신망으로서, 라이파이(LiFi, Light Fidelity) 등과 같은 종래의 통신 방법을 적어도 그 일부분에 있어서 구현하는 것일 수 있다.
다음으로, 본 발명의 일 실시예에 따른 소리 분석 시스템(200)은, 배뇨 소리가 포함된 타겟 음향 데이터를 획득하고, 획득된 타겟 음향 데이터를 시간 차원에서 세그먼트화하고, 세그먼트화된 타겟 음향 데이터를 학습 모델을 이용하여 분석함으로써, 타겟 음향 데이터에서 배뇨 구간을 판별하는 기능을 수행할 수 있다.
소리 분석 시스템(200)의 기능에 관하여는 아래에서 더 자세하게 알아보기로 한다. 한편, 소리 분석 시스템(200)에 관하여 위와 같이 설명되었으나, 이러한 설명은 예시적인 것이고, 소리 분석 시스템(200)에 요구되는 기능이나 구성요소의 적어도 일부가 필요에 따라 디바이스(300) 내에서 실현되거나 디바이스(300) 내에 포함될 수도 있음은 당업자에게 자명하다.
마지막으로, 본 발명의 일 실시예에 따른 디바이스(300)는 소리 분석 시스템(200)에 접속한 후 통신할 수 있는 기능을 포함하는 디지털 기기로서, 메모리 수단을 구비하고 마이크로 프로세서를 탑재하여 연산 능력을 갖춘 디지털 기기라면 얼마든지 본 발명에 따른 디바이스(300)로서 채택될 수 있다. 디바이스(300)는 스마트 글래스, 스마트 워치, 스마트 밴드, 스마트 링, 스마트 넥클리스 등과 같은 웨어러블 디바이스이거나 스마트폰, 스마트 패드, 데스크탑 컴퓨터, 노트북 컴퓨터, 워크스테이션, PDA, 웹 패드, 이동 전화기 등과 같은 다소 전통적인 디바이스일 수 있다.
특히, 본 발명의 일 실시예에 따른 디바이스(300)는 소리 신호(예를 들어, 배뇨에 관한 소리 신호, 주변 환경에 관한 소리 신호 등)를 획득하기 위한 획득(또는, 감지) 모듈(예를 들어, 마이크, 집음기 등)을 포함할 수 있다.
한편, 본 발명의 일 실시예에 따르면, 디바이스(300)에는 본 발명에 따른 기능을 수행하기 위한 애플리케이션 프로그램이 더 포함되어 있을 수 있다. 이러한 애플리케이션은 해당 디바이스(300) 내에서 프로그램 모듈의 형태로 존재할 수 있다. 이러한 프로그램 모듈의 성격은 후술할 바와 같은 소리 분석 시스템(200)의 데이터 획득부(210), 데이터 전처리부(220), 배뇨 구간 판별부(230), 통신부(240) 및 제어부(250)와 전반적으로 유사할 수 있다. 여기서, 애플리케이션은 그 적어도 일부가 필요에 따라 그것과 실질적으로 동일하거나 균등한 기능을 수행할 수 있는 하드웨어 장치나 펌웨어 장치로 치환될 수도 있다.
소리 분석 시스템의 구성
이하에서는, 본 발명의 구현을 위하여 중요한 기능을 수행하는 소리 분석 시스템(200)의 내부 구성 및 각 구성요소의 기능에 대하여 살펴보기로 한다.
도 2는 본 발명의 일 실시예에 따른 소리 분석 시스템(200)의 내부 구성을 예시적으로 나타내는 도면이다.
도 2를 참조하면, 본 발명의 일 실시예에 따른 소리 분석 시스템(200)은 데이터 획득부(210), 데이터 전처리부(220), 배뇨 구간 판별부(230), 통신부(240) 및 제어부(250)를 포함할 수 있다. 본 발명의 일 실시예에 따르면, 소리 분석 시스템(200)의 데이터 획득부(210), 데이터 전처리부(220), 배뇨 구간 판별부(230), 통신부(240) 및 제어부(250)는 그 중 적어도 일부가 외부 시스템(미도시됨)과 통신하는 프로그램 모듈들일 수 있다. 이러한 프로그램 모듈들은 운영 시스템, 응용 프로그램 모듈 및 기타 프로그램 모듈의 형태로 소리 분석 시스템(200)에 포함될 수 있으며, 물리적으로는 여러 가지 공지의 기억 장치 상에 저장될 수 있다. 또한, 이러한 프로그램 모듈들은 소리 분석 시스템(200)과 통신 가능한 원격 기억 장치에 저장될 수도 있다. 한편, 이러한 프로그램 모듈들은 본 발명에 따라 후술할 특정 업무를 수행하거나 특정 추상 데이터 유형을 실행하는 루틴, 서브루틴, 프로그램, 오브젝트, 컴포넌트, 데이터 구조 등을 포괄하지만, 이에 제한되지는 않는다.
먼저, 본 발명의 일 실시예에 따른 데이터 획득부(210)는 배뇨 소리가 포함된 타겟 음향 데이터를 획득하는 기능을 수행할 수 있다.
구체적으로, 본 발명의 일 실시예에 따르면, 사용자에 의해 배뇨가 진행되는 동안에 그 소변이 변기에 부딪히거나 그 소변이 변기의 물에 닿게 되면서 소리 신호가 발생될 수 있고, 해당 사용자 또는 해당 사용자의 주변 환경으로부터 다양한 소음이 발생될 수 있다. 따라서, 데이터 획득부(210)는 해당 사용자의 배뇨에 의해 발생되는 소리 신호와 위의 소음에 관한 소리 신호가 포함된 음향 데이터를 타겟 음향 데이터로서 획득할 수 있다.
보다 구체적으로, 도 3을 참조하면, 본 발명의 일 실시예에 따라 데이터 획득부(210)가 획득한 타겟 음향 데이터에는, 사용자의 배뇨에 의해 발생되는 소리 신호와 위의 소음에 관한 소리 신호가 조합되어, 시간 차원(time domain)에서 진폭 값(amplitude)을 가지는 파형으로 나타날 수 있다.
한편, 본 발명의 일 실시예에 따라 데이터 획득부(210)가 획득한 타겟 음향 데이터는 사용자의 배뇨에 의해 발생되는 소리 신호와 위의 소음에 관한 소리 신호가 포함된 미가공 데이터(raw data)에 해당하므로, 타겟 음향 데이터에서 배뇨 구간을 정확하게 판별하기 위해서는, 아래에서 설명할 바와 같이 타겟 음향 데이터를 전처리하는 과정과 학습 모델을 이용하여 타겟 음향 데이터를 분석하는 과정이 요구된다
다음으로, 본 발명의 일 실시예에 따른 데이터 전처리부(220)는 데이터 획득부(210)가 획득한 타겟 음향 데이터를 시간 차원에서 세그먼트화하는 기능을 수행할 수 있다.
구체적으로, 본 발명의 일 실시예에 따른 데이터 전처리부(220)는, 타겟 음향 데이터를 시간 차원에서 복수의 구간으로 세그먼트화하는 전처리 과정을 수행할 수 있다. 예를 들어, 본 발명의 일 실시예에 따른 데이터 전처리부(220)는 타겟 음향 데이터를 세그먼트화하기 위한 시간 간격을 짧게 하여(예를 들어, 0.05초) 타겟 음향 데이터를 많은 구간으로 세그먼트화할 수 있다.
본 발명의 일 실시예에 따라, 데이터 전처리부(230)가 타겟 음향 데이터를 세그먼트화하기 위한 시간 간격을 짧게 하여 타겟 음향 데이터를 많은 구간으로 세그먼트화할 경우, 다양한 양상의 파형(예를 들어, 배뇨가 연속적으로 진행되는 양상의 파형, 배뇨가 여러 번 끊어져 진행되는 양상의 파형 등)으로 나타나는 타겟 음향 데이터에 대응할 수 있게 된다.
또한, 본 발명의 일 실시예에 따라, 데이터 전처리부(230)가 타겟 음향 데이터를 세그먼트화하기 위한 시간 간격을 짧게 하여 타겟 음향 데이터를 많은 구간으로 세그먼트화하고, 그 세그먼트화된 타겟 음향 데이터를 후술할 학습 모델의 학습 데이터로서 사용하는 경우, 학습 모델을 학습시키기 위하여 입력되는 학습 데이터의 수가 많아지게 되므로 학습 모델의 성능이 향상될 수 있게 된다.
한편, 본 발명의 일 실시예에 따른 타겟 음향 데이터는 시간 차원에서의 분석뿐만 아니라 주파수 차원(frequency domain)에서의 분석 또한 수행될 수 있으므로, 데이터 전처리부(230)가 시간 간격을 짧게 하여 타겟 음향 데이터를 세그먼트화하더라도, 타겟 음향 데이터는 배뇨 구간을 판별하기 위한 데이터로서 사용될 수 있다.
다음으로, 본 발명의 일 실시예에 따른 배뇨 구간 판별부(230)는 데이터 전처리부(220)에 의해 세그먼트화된 타겟 음향 데이터를 학습 모델을 이용하여 분석함으로써, 세그먼트화된 타겟 음향 데이터에서 배뇨 구간을 판별하는 기능을 수행할 수 있다.
구체적으로, 도 4를 참조하면, 본 발명의 일 실시예에 따른 배뇨 구간 판별부(230)는, 세그먼트화된 타겟 음향 데이터에서, 배뇨 소리가 인식된 구간(예를 들어, a2 구간, a3 구간, a4 구간, a6 구간)을 배뇨 구간으로 판별하고, 배뇨 소리가 인식되지 않은 구간(예를 들어, a1 구간, a5 구간, a7 구간)을 비 배뇨 구간으로 판별할 수 있다. 여기서, 배뇨 구간 판별부(230)는, 판별된 배뇨 구간에 대하여 제1 신호(예를 들어, 1)를 출력할 수 있고, 판별된 비 배뇨 구간에 대하여 제2 신호(예를 들어, 0)을 출력할 수 있다.
한편, 본 발명의 일 실시예에 따른 배뇨 구간 판별부(230)는, 세그먼트화된 타겟 음향 데이터에서 배뇨 소리가 인식되는지 여부를 학습 모델을 이용하여 판단할 수 있다. 본 발명의 일 실시예에 따른 학습 모델은, 시간 차원에서 세그먼트화된 음향 데이터에서 추출된 적어도 하나의 특징에 관한 데이터가 입력되는 경우에, 해당 음향 데이터로부터 배뇨 구간을 판별하기 위한 단서로서 활용될 수 있는 데이터를 출력(예를 들어, 이러한 데이터는 확률(probability), 벡터(vector), 행렬(matrix) 및 좌표(coordinate) 중 적어도 하나에 관한 값 등으로 다양한 형태로 출력될 수 있음)하는 학습 모델일 수 있다.
예를 들어, 본 발명의 일 실시예에 따른 학습 모델은, 지도 학습 알고리즘(예를 들어, 로지스틱 회귀(Logistic Regression), 서포트 벡터 머신(Support Vector Machine; SVM), 랜덤 포레스트(Random Forest) 등), 비지도 학습 알고리즘, 인공 신경망(Artificial Neural Networks; ANN) 등의 머신 러닝 알고리즘으로 구성되거나, 완전 연결 네트워크(Fully-Connected Network), 합성곱 신경망(Convolutional Neural Network; CNN) 등의 딥 러닝 알고리즘으로 구성되는 것일 수 있다. 한편, 본 발명에 따른 학습 모델이 반드시 위의 열거된 것에만 한정되는 것은 아니며, 본 발명의 목적을 달성할 수 있는 범위 내에서 다양하게 변경될 수 있다.
한편, 본 발명의 일 실시예에 따른 학습 모델은, 시간 차원에서 세그먼트화된 음향 데이터, 세그먼트화된 음향 데이터에서 추출된 적어도 하나의 특징(세그먼트화된 음향 데이터의 시간 차원에서의 실효치(RMS; Root Mean Square), 주파수 차원에서의 실효치, 음향 데이터에서 소음을 제거한 데이터에서의 실효치, 주파수 차원에서의 센트로이드(centroid), 주파수 차원에서 센트로이드와 다른 특징 사이의 비율, STFT(Short-time Fourier transform) 스펙트럼 등)에 관한 데이터 및 세그먼트화된 음향 데이터에 라벨링된 태깅 정보(예를 들어, 배뇨 소리 대응 여부에 관한 정보, 배뇨 소리 종류에 관한 정보 등; 이러한 라벨링은 의료 전문가에 의해 사전 수행될 수 있음) 중 적어도 하나를 학습 데이터로 이용하여 학습될 수 있다.
본 발명의 일 실시예에 따른 학습 모델을 학습시키는 과정은, 소리 분석 시스템(200)에 포함되는 학습 관리부(미도시됨)에서 수행되거나, 소리 분석 시스템(200)과는 별개의 구성(예를 들어, 서버 등)에서 수행될 수 있다.
다음으로, 본 발명의 일 실시예에 따른 배뇨 구간 판별부(230)는 학습 모델을 이용하여 배뇨 구간을 판별한 결과에 오류가 발생한 경우, 이러한 오류를 판정하고 보정하는 기능을 더 수행할 수 있다. 구체적으로, 배뇨 구간 판별부(230)는, 타겟 음향 데이터에서 판별된 배뇨 구간과 비 배뇨 구간의 배치 형태 및 각각의 길이를 참조하여 오류를 판정하고 보정할 수 있다.
예를 들어, 도 4를 다시 참조하면, 타겟 음향 데이터에서, 약 30초에서 약 40초 사이의 구간(a2 구간), 약 40초에서 약 55초 사이의 구간(a3 구간) 및 약 55초에서 약 65초 사이의 구간(a4 구간)은 배뇨 구간으로 판별되었고, 약 40초에서의 데이터 포인트(data point) 구간(b1 구간)과 약 55초에서의 데이터 포인트 구간(b2 구간)은 비 배뇨 구간으로 판별되었다. 하지만, 배뇨가 진행되는 중에 단일의 데이터 포인트 구간(b1 구간, b2 구간)이 가리키는 극히 짧은 시간 동안 배뇨가 발생하지 않았다는 것은, 실제 배뇨 상황에서는 발생하기 어려운 상황이다.
본 발명의 일 실시예에 따라, 특정 비 배뇨 구간(예를 들어, b1 구간)이 배뇨 구간들(a1 구간, a2 구간) 사이에 위치하고, 특정 비 배뇨 구간의 길이가 소정 수준 이하인 경우, 특정 비 배뇨 구간은 실제 배뇨 상황에서는 배뇨 중인 상황일 수 있으므로, 배뇨 구간 판별부(230)는 특정 비 배뇨 구간에 대하여 판별 오류가 발생하였다고 판정할 수 있다.
또한, 도 4에는 도시되지는 않았으나, 본 발명의 일 실시예에 따라, 특정 배뇨 구간이 비 배뇨 구간들 사이에 위치하고, 특정 배뇨 구간의 길이가 소정 수준 이하인 경우, 특정 배뇨 구간은 실제 배뇨 상황에서는 비 배뇨 중인 상황일 수 있으므로, 배뇨 구간 판별부(230)는 특정 배뇨 구간에 대하여 마찬가지로 판별 오류가 발생하였다고 판정할 수 있다.
본 발명의 일 실시예에 따른 배뇨 구간 판별부(230)는 위와 같은 배뇨 구간의 판별 결과에 발생한 오류를 올바르게 보정할 수 있다.
예를 들어, 도 5를 참조하면, 배뇨 구간 판별부(230)는, 도 4에서의 약 40초에서의 데이터 포인트 구간(b1 구간)과 약 55초에서의 데이터 포인트 구간(b2 구간)은 배뇨 구간임에도 비 배뇨 구간으로 잘못 판별한 것이므로, 두 데이터 포인트 구간(b1 구간, b2 구간)을 비 배뇨 구간에서 배뇨 구간으로 보정하고, 약 30초에서 약 60초 사이의 구간(a8 구간) 전체를 단일의 배뇨 구간으로 판별할 수 있다.
즉, 본 발명의 일 실시예에 따른 배뇨 구간 판별부(230)는 배뇨 구간을 비 배뇨 구간으로 잘못 판별한 오류에 대하여, 비 배뇨 구간을 배뇨 구간으로 보정하고, 보정 전의 비 배뇨 구간, 보정 전의 비 배뇨 구간 전단에 위치한 배뇨 구간 및 보정 전의 비 배뇨 구간 후단에 위치한 배뇨 구간을 단일의 배뇨 구간으로 판별할 수 있다.
또한, 본 발명의 일 실시예에 따른 배뇨 구간 판별부(230)는 비 배뇨 구간을 배뇨 구간으로 잘못 판별한 오류에 대하여, 배뇨 구간을 비 배뇨 구간으로 보정하고, 보정 전의 배뇨 구간, 보정 전의 배뇨 구간 전단에 위치한 비 배뇨 구간 및 보정 전의 배뇨 구간 후단에 위치한 비 배뇨 구간을 단일의 비 배뇨 구간으로 판별할 수 있다.
다음으로, 본 발명의 일 실시예에 따른 배뇨 구간 판별부(230)는, 타겟 음향 데이터에서 배뇨 진행 구간(voiding time)을 판별하는 기능을 더 수행할 수 있다. 여기서, 배뇨 진행 구간은 배뇨가 진행되는 전체 구간으로서, 배뇨 구간과 비 배뇨 구간을 포함하는 구간을 의미할 수 있다.
구체적으로, 본 발명의 일 실시예에 따른 배뇨 구간 판별부(230)는, 적어도 하나의 배뇨 구간의 시점과 종점을 이용하여 배뇨 진행 구간을 판별할 수 있다. 예를 들어, 도 6을 참조하면, 배뇨 구간 판별부(230)는, 약 12초에서 약 18초 사이의 구간(a9 구간)과 약 20초에서 약 27초 사이의 구간(a10 구간)을 배뇨 구간으로 판별하고, 약 12초에서 약 18초 사이의 구간(a9 구간)의 시점인 12초와 약 20초에서 약 27초 사이의 구간(a10 구간)의 종점인 27초를 이용하여, 약 12초에서 약 27초 사이의 구간(c1 구간)을 배뇨 진행 구간으로 판별할 수 있다.
다음으로, 본 발명의 일 실시예에 따른 통신부(240)는 데이터 획득부(210), 데이터 전처리부(220) 및 배뇨 구간 판별부(230)로부터의/로의 데이터 송수신이 가능하도록 하는 기능을 수행할 수 있다.
마지막으로, 본 발명의 일 실시예에 따른 제어부(250)는 데이터 획득부(210), 데이터 전처리부(220), 배뇨 구간 판별부(230) 및 통신부(240) 간의 데이터의 흐름을 제어하는 기능을 수행할 수 있다. 즉, 본 발명에 따른 제어부(250)는 소리 분석 시스템(200)의 외부로부터의/로의 데이터 흐름 또는 소리 분석 시스템(200)의 각 구성요소 간의 데이터 흐름을 제어함으로써, 데이터 획득부(210), 데이터 전처리부(220), 배뇨 구간 판별부(230) 및 통신부(240)에서 각각 고유 기능을 수행하도록 제어할 수 있다.
이상 설명된 본 발명에 따른 실시예들은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 비일시성의 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 비일시성의 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 비일시성의 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다. 비일시성의 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명이 상기 실시예들에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있다.
따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 발명의 사상의 범주에 속한다고 할 것이다.
100: 통신망
200: 소리 분석 시스템
210: 데이터 획득부
220: 데이터 전처리부
230: 배뇨 구간 판별부
240: 통신부
250: 제어부
300: 디바이스

Claims (11)

  1. 소리 분석 시스템에 의해 수행되는 배뇨에 관한 소리를 분석하는 방법으로,
    배뇨 소리가 녹음된 타겟 음향 데이터를 획득하는 단계 -상기 타겟 음향 데이터는 시작 시점 및 종료 시점을 가짐-;
    상기 타겟 음향 데이터로부터 복수의 세그먼트 데이터를 획득하는 단계 -상기 복수의 세그먼트 데이터는 적어도 제1 세그먼트 데이터 및 제2 세그먼트 데이터를 포함하고, 상기 제1 세그먼트 데이터는 상기 시작 시점 및 상기 종료 시점 사이의 제1 시간 구간에 대응하고, 상기 제2 세그먼트 데이터는 상기 시작 시점 및 상기 종료 시점 사이의 제2 시간 구간에 대응하며, 상기 제1 시간 구간 및 상기 제2 시간 구간은 연속되는 구간임-;
    배뇨 구간 판별부를 이용하여 상기 제1 세그먼트 데이터에 대응하는 제1 판단 값을 획득하는 단계 -상기 배뇨 구간 판별부는 세그먼트화된 데이터를 입력 받아 배뇨 구간인지 여부에 관한 판단 값을 출력하도록 학습된 학습 모델을 포함함-;
    상기 배뇨 구간 판별부를 이용하여 상기 제2 세그먼트 데이터에 대응하는 제2 판단 값을 획득하는 단계; 및
    상기 제1 판단 값에 기초하여 상기 제1 시간 구간을 배뇨 구간 또는 비-배뇨 구간으로 판별하고, 상기 제2 판단 값에 기초하여 상기 제2 시간 구간을 배뇨 구간 또는 비-배뇨 구간으로 판별하는 단계;를 포함하는,
    방법.
  2. 제1 항에 있어서,
    상기 제1 판단 값 및 상기 제2 판단 값은 각각 배뇨 구간 해당 여부에 대한 확률 값인,
    방법.
  3. 제1 항에 있어서,
    상기 배뇨 구간 판별부를 이용하여 제3 세그먼트 데이터에 대응하는 제3 판단 값을 획득하는 단계 -상기 제3 세그먼트 데이터는 상기 시작 시점 및 상기 종료 시점 사이의 제3 시간 구간에 대응하며, 상기 제2 시간 구간 및 상기 제3 시간 구간은 연속되는 구간임-; 및
    상기 제3 판단 값에 기초하여 상기 제3 시간 구간을 배뇨 구간 또는 비-배뇨 구간으로 판별하는 단계;를 더 포함하는,
    방법.
  4. 제3 항에 있어서,
    상기 제1 시간 구간 및 상기 제3 시간 구간이 배뇨 구간으로 판별되고, 상기 제2 시간 구간이 비-배뇨 구간으로 판별된 경우,
    상기 제2 시간 구간의 길이가 임계 길이 이하이면 상기 제2 시간 구간을 배뇨 구간으로 보정하는 단계를 더 포함하는,
    방법.
  5. 제3 항에 있어서,
    상기 제1 시간 구간 및 상기 제3 시간 구간이 비-배뇨 구간으로 판별되고, 상기 제2 시간 구간이 배뇨 구간으로 판별된 경우,
    상기 제2 시간 구간의 길이가 임계 길이 이하이면 상기 제2 시간 구간을 비-배뇨 구간으로 보정하는 단계를 더 포함하는,
    방법.
  6. 제1 항에 있어서,
    상기 배뇨 구간 판별부를 이용하여 상기 제1 세그먼트 데이터에 대응하는 상기 제1 판단 값을 획득하는 단계는,
    상기 제1 세그먼트 데이터로부터 제1 특징 데이터를 추출하는 단계, 및
    상기 제1 특징 데이터를 상기 배뇨 구간 판별부에 입력하여 상기 제1 판단 값을 획득하는 단계를 포함하는,
    방법.
  7. 제6 항에 있어서,
    상기 제1 특징 데이터는 상기 제1 세그먼트 데이터에 대한 주파수 차원에서의 데이터를 포함하는,
    방법.
  8. 제1 항에 있어서,
    상기 학습 모델은,
    배뇨에 관한 소리가 포함된 음향 데이터를 세그먼트화한 학습용 세그먼트 데이터 및 상기 학습용 세그먼트 데이터에 라벨링된 태깅 정보를 포함하는 학습 데이터를 이용하여 학습되는,
    방법.
  9. 제8 항에 있어서,
    상기 라벨링된 태깅 정보는 배뇨 소리 대응 여부에 관한 정보 또는 배뇨 소리 종류에 관한 정보인,
    방법.
  10. 제1 항에 있어서,
    상기 배뇨 소리가 녹음된 타겟 음향 데이터를 획득하는 단계는 적어도 스마트 폰 또는 스마트 워치에 의해 수행되는,
    방법.
  11. 제1 항에 따른 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 비일시성의 컴퓨터 판독 가능 기록 매체.
KR1020230088937A 2020-04-24 2023-07-10 배뇨에 관한 소리를 분석하기 위한 방법, 시스템 및비일시성의 컴퓨터 판독 가능한 기록 매체 KR20230110231A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR20200050387 2020-04-24
KR1020200050387 2020-04-24
KR1020210053977A KR102555235B1 (ko) 2020-04-24 2021-04-26 배뇨에 관한 소리를 분석하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020210053977A Division KR102555235B1 (ko) 2020-04-24 2021-04-26 배뇨에 관한 소리를 분석하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체

Publications (1)

Publication Number Publication Date
KR20230110231A true KR20230110231A (ko) 2023-07-21

Family

ID=78505478

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020210053977A KR102555235B1 (ko) 2020-04-24 2021-04-26 배뇨에 관한 소리를 분석하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
KR1020230088937A KR20230110231A (ko) 2020-04-24 2023-07-10 배뇨에 관한 소리를 분석하기 위한 방법, 시스템 및비일시성의 컴퓨터 판독 가능한 기록 매체

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020210053977A KR102555235B1 (ko) 2020-04-24 2021-04-26 배뇨에 관한 소리를 분석하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체

Country Status (1)

Country Link
KR (2) KR102555235B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024048875A1 (ko) * 2022-09-02 2024-03-07 다인기술 주식회사 배뇨 정보 획득 방법 및 그 장치

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020036496A1 (en) 2018-08-17 2020-02-20 Agresearch Limited A method, apparatus and system for detecting urination events for livestock

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019119050A1 (en) * 2017-12-21 2019-06-27 The University Of Queensland A method for analysis of cough sounds using disease signatures to diagnose respiratory diseases

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020036496A1 (en) 2018-08-17 2020-02-20 Agresearch Limited A method, apparatus and system for detecting urination events for livestock

Also Published As

Publication number Publication date
KR20210131919A (ko) 2021-11-03
KR102555235B1 (ko) 2023-07-13

Similar Documents

Publication Publication Date Title
KR102451795B1 (ko) 심전도 신호의 검출 방법
Luz Longitudinal monitoring and detection of Alzheimer's type dementia from spontaneous speech data
CN109452935B (zh) 使用统计后处理从血管容积图估计血压的无创方法和系统
US20190192110A1 (en) Classifier ensemble for detection of abnormal heart sounds
AU2018214442A1 (en) Methods and apparatus for cough detection in background noise environments
US9754607B2 (en) Acoustic scene interpretation systems and related methods
KR20230110231A (ko) 배뇨에 관한 소리를 분석하기 위한 방법, 시스템 및비일시성의 컴퓨터 판독 가능한 기록 매체
CN111461337B (zh) 数据处理方法、装置、终端设备及存储介质
US20200034739A1 (en) Method and device for estimating user's physical condition
CN110853605B (zh) 音乐生成方法、装置及电子设备
KR102261473B1 (ko) 세미 슈퍼바이즈드 학습을 이용한 진단 시스템 제공방법 및 이를 이용하는 진단 시스템
KR102247730B1 (ko) 배뇨에 관한 정보를 산출하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
US20190325862A1 (en) Neural network for continuous speech segmentation and recognition
KR102272413B1 (ko) 관상동맥 혈관조영술 기반의 기계 학습을 통한 허혈 병변 정보 제공 장치, 정보 제공 방법 및 이의 기록매체
WO2020000523A1 (zh) 一种信号处理方法及装置
US10956792B2 (en) Methods and apparatus to analyze time series data
US20240057936A1 (en) Speech-analysis based automated physiological and pathological assessment
CN111297327A (zh) 一种睡眠分析方法、系统、电子设备及存储介质
EP2769668B1 (fr) Ensemble pour le diagnostic adaptatif de l'insuffisance cardiaque moyennant des classifieurs et un arbre de décision booléen
CN117275525A (zh) 一种咳嗽音的检测提取方法
KR102219378B1 (ko) 인공 신경망을 이용하여 부정맥을 인식하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
KR102426291B1 (ko) 머신러닝을 이용한 고혈압 예측시스템에서 수행되는 고혈압 예측방법 및 시스템, 이를 수행하는 컴퓨터 프로그램
CN111738439B (zh) 一种支持在线学习的人工智能处理方法及处理器
KR20230043320A (ko) 심박변이도 특징 값을 추출하기 위한 방법
Pettinati et al. Automatic and robust identification of spontaneous coughs from covid-19 patients

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination