KR102390119B1 - System and method for predicting flowrate using LSTM deep learning prediction - Google Patents

System and method for predicting flowrate using LSTM deep learning prediction Download PDF

Info

Publication number
KR102390119B1
KR102390119B1 KR1020190175594A KR20190175594A KR102390119B1 KR 102390119 B1 KR102390119 B1 KR 102390119B1 KR 1020190175594 A KR1020190175594 A KR 1020190175594A KR 20190175594 A KR20190175594 A KR 20190175594A KR 102390119 B1 KR102390119 B1 KR 102390119B1
Authority
KR
South Korea
Prior art keywords
yaw velocity
signal
population
yaw
prediction algorithm
Prior art date
Application number
KR1020190175594A
Other languages
Korean (ko)
Other versions
KR20210083024A (en
Inventor
박준홍
전진용
조정기
김걸
김완승
정영빈
Original Assignee
한양대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한양대학교 산학협력단 filed Critical 한양대학교 산학협력단
Priority to KR1020190175594A priority Critical patent/KR102390119B1/en
Publication of KR20210083024A publication Critical patent/KR20210083024A/en
Application granted granted Critical
Publication of KR102390119B1 publication Critical patent/KR102390119B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/20Measuring for diagnostic purposes; Identification of persons for measuring urological functions restricted to the evaluation of the urinary system
    • A61B5/207Sensing devices adapted to collect urine
    • A61B5/208Sensing devices adapted to collect urine adapted to determine urine quantity, e.g. flow, volume
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Artificial Intelligence (AREA)
  • Physiology (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Psychiatry (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Urology & Nephrology (AREA)
  • Databases & Information Systems (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Fuzzy Systems (AREA)
  • Investigating Or Analysing Biological Materials (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

요속 예측 시스템이 개시된다. 요속 예측 시스템은 요류음을 측정하는 요류음 측정부; 상기 요류음 측정부로부터 요류음 신호를 수신하고, 상기 요류음 신호로부터 라우드니스 신호와 러프니스 신호를 산출하는 신호 분석부; 및 상기 라우드니스 신호와 상기 러프니스 신호를 입력값으로 기 설정된 예측 알고리즘을 적용하여 요속을 예측하는 요속 예측부를 포함한다.A yaw velocity prediction system is disclosed. The yaw velocity prediction system includes: a yaw noise measurement unit for measuring yo yo yo sound; a signal analysis unit for receiving a urine noise signal from the urine flow measurement unit, and calculating a loudness signal and a roughness signal from the urine flow sound signal; and a yaw velocity predictor for predicting yaw velocity by applying a preset prediction algorithm to the loudness signal and the roughness signal as input values.

Description

LSTM 딥러닝 예측 모델을 이용한 요속 예측 시스템 및 방법{System and method for predicting flowrate using LSTM deep learning prediction}System and method for predicting flowrate using LSTM deep learning prediction

본 발명은 요속 예측 시스템 및 방법에 관련된 것으로, 보다 상세하게는 LSTM 딥러닝 예측 모델을 이용한 요속 예측 시스템 및 방법에 관한 것이다.The present invention relates to a yaw velocity prediction system and method, and more particularly, to a yaw velocity prediction system and method using an LSTM deep learning prediction model.

인구 고령화에 따른 의료비 증가는 국가 및 개인 의료비 부담으로 이어지고, ICT 헬스케어 자가진단을 이용한 의료비 절감에 관심이 높아지고 있다. 또한 정기적으로 시간을 내고 병원에 내원하여 검사하는 비정기적인 단발성 검진이 아닌 평범한 일상생활 속에서 건강이 지속적으로 모니터링 되는 기술에 대한 관심과 수요가 높아지고 있다. An increase in medical expenses due to an aging population leads to a burden of national and individual medical expenses, and interest in reducing medical expenses using ICT healthcare self-diagnosis is growing. In addition, interest in and demand for technology that continuously monitors health in ordinary daily life, rather than an irregular, one-time check-up that regularly takes time and visits a hospital for examination, is growing.

몸에서 배출되는 노폐물 중에서도 오줌은 건강과 관련된 많은 정보를 포함하고 있을 뿐만 아니라 정상인의 경우 하루 5~6 번 정도로 배뇨 횟수도 높아 매우 활용성이 높다. 기존 요속 검사의 경우 환자가 소변을 억지로 참고 오거나 긴장 상태에서 검사를 시행하여 실제와 차이가 있으므로 정확한 진단을 위해서는 이러한 어려움이 개선하고 비침습적이며 간편한 헬스기기 개발이 필요하다. 현재 요속 측정기기는 병원이나 보건소 등 의료기관에만 설치되는 의료 기구이나, 이제는 가정과 공공장소에 보급하여 언제 어디서라도 편리하게 소변 검사 및 요속 측정이 가능함으로써, 장기간의 데이터를 모아 사용자의 정확한 건강 진단을 도모할 필요가 있다. Among the waste products discharged from the body, urine not only contains a lot of health-related information, but also has a high frequency of urination about 5 to 6 times a day for normal people, so it is very useful. In the case of the existing urine velocity test, it is necessary to improve these difficulties and develop a non-invasive and convenient fitness device for accurate diagnosis because there is a difference from the actual test because the patient is forced to hold the urine or conducted the test under tension. Currently, urine velocity measuring devices are medical devices that are only installed in medical institutions such as hospitals and public health centers, but now they are distributed to homes and public places, allowing convenient urine testing and measurement of urine velocity anytime, anywhere, collecting long-term data to promote accurate health diagnosis of users Needs to be.

미국 특허출원공개공보 US2014/0018702호(2014.01.16 공개)US Patent Application Publication No. US2014/0018702 (published on January 16, 2014)

본 발명은 환자의 요류음을 이용하여 관련 요로하부증상 지표값을 간단하고 신속하고, 위생적으로 예측할 수 있는 요속 예측 시스템 및 방법을 제공한다.The present invention provides a urinary velocity prediction system and method capable of predicting a related lower urinary tract symptom index value simply, quickly and hygienically using a patient's urine flow.

본 발명에 따른 요속 예측 시스템은 요류음을 측정하는 요류음 측정부; 상기 요류음 측정부로부터 요류음 신호를 수신하고, 상기 요류음 신호로부터 라우드니스 신호와 러프니스 신호를 산출하는 신호 분석부; 및 상기 라우드니스 신호와 상기 러프니스 신호를 입력값으로 기 설정된 예측 알고리즘을 적용하여 요속을 예측하는 요속 예측부를 포함한다.A yaw velocity prediction system according to the present invention includes: a yaw noise measurement unit for measuring yo yo yo sound; a signal analysis unit for receiving a urine noise signal from the urine flow measurement unit, and calculating a loudness signal and a roughness signal from the urine flow sound signal; and a yaw velocity predictor for predicting yaw velocity by applying a preset prediction algorithm to the loudness signal and the roughness signal as input values.

또한, 상기 기 설정된 예측 알고리즘을 도출하는 요속 예측 알고리즘 도출부를 더 포함하되, 상기 요속 예측 알고리즘 도출부는, 제1모집단의 요류음 신호들과 실제 요속값들을 저장하는 학습 데이터 저장부; 제2모집단의 요류음 신호들과 실제 요속값들을 저장하는 검증 데이터 저장부; 및 상기 제1모집단의 요류음 신호들 각각의 라우드니스 신호와 러프니스 신호를 입력값으로 하고, 상기 제1모집단의 실제 요속값들을 출력값으로 하여 LSTM 딥러닝 예측 모델을 통해 요속 예측 알고리즘을 도출하는 알고리즘 생성부; 및 상기 요속 예측 알고리즘에 상기 제2모집단의 요류음 신호들 각각의 라우드니스 신호와 러프니스 신호를 입력값으로 하여 예측 요속값을 얻고, 상기 예측 요속값과 상기 제2모집단의 실제 요속값들을 비교하여 상기 요속 예측 알고리즘을 검증하는 알고리즘 검증부를 포함하되, 상기 예측 요속값과 상기 제2모집단의 실제 요속값의 정확도가 기준 값 이상일 경우, 상기 요속 예측 알고리즘을 상기 기 설정된 예측 알고리즘으로 적용할 수 있다.In addition, further comprising a yaw velocity prediction algorithm derivation unit for deriving the preset prediction algorithm, wherein the yaw velocity prediction algorithm derivation unit includes: a learning data storage unit for storing the yaw sound signals and actual yaw velocity values of the first population; a verification data storage unit for storing the yaw sound signals of the second population and actual yaw velocity values; and an algorithm for deriving a yaw velocity prediction algorithm through an LSTM deep learning prediction model using the loudness signal and roughness signal of each of the yaw sound signals of the first population as input values, and using the actual yaw velocity values of the first population as output values. generating unit; and obtaining a predicted yaw velocity value by using the loudness signal and roughness signal of each of the yaw sound signals of the second population as input values to the yaw velocity prediction algorithm, and comparing the predicted yaw velocity value with the actual yaw velocity values of the second population. An algorithm verifying unit for verifying the yaw velocity prediction algorithm, wherein when the accuracy of the predicted yaw velocity value and the actual yaw velocity value of the second population is equal to or greater than a reference value, the yaw velocity prediction algorithm may be applied as the preset prediction algorithm.

또한, 상기 제1모집단의 실제 요속값들과 상기 제2모집단의 실제 요속값들은 시간에 따른 요류 무게 변화를 측정하여 얻을 수 있다.In addition, the actual yaw velocity values of the first population and the actual yaw velocity values of the second population may be obtained by measuring changes in yaw flow weight with time.

또한, 상기 제1모집단의 요류음 신호들과 상기 제2모집단의 요류음 신호들은, 상단이 금속판으로 제공된 요류 수집부에서의 배뇨 과정에서 획득될 수 있다.In addition, the urine flow sound signals of the first population and the urine flow sound signals of the second population may be obtained during urination in a urine flow collecting unit provided with a metal plate at an upper end.

본 발명에 따른 요속 예측 방법은 요류음을 측정하여 요류음 신호를 생성하는 요류음 신호 생성 단계; 상기 요류음 신호를 분석하여 라우드니스 신호와 러프니스 신호를 산출하는 신호 분석 단계; 상기 라우드니스 신호와 상기 러프니스 신호를 입력값으로 기 설정된 예측 알고리즘을 적용하여 요속을 예측하는 요속 예측 단계를 포함한다.A urine flow prediction method according to the present invention includes the steps of generating a urine noise signal by measuring a urine flow sound signal; a signal analysis step of analyzing the noise signal to calculate a loudness signal and a roughness signal; and predicting the yaw velocity by applying a preset prediction algorithm to the loudness signal and the roughness signal as input values.

또한, 상기 기 설정된 예측 알고리즘을 도출하는 알고리즘 도출 단계를 더 포함하되, 상기 알고리즘 도출 단계는, 제1모집단의 요류음 신호들 각각의 라우드니스 신호와 러프니스 신호를 입력값으로 하고, 상기 제1모집단의 실제 요속값들을 출력값으로 하여 LSTM 딥러닝 예측 모델을 통해 요속 예측 알고리즘을 도출하고, 상기 요속 예측 알고리즘에 제2모집단의 요류음 신호들 각각의 라우드니스 신호와 러프니스 신호를 입력값으로 하여 예측 요속값을 얻고, 상기 예측 요속값과 상기 제2모집단의 실제 요속값들을 비교하여 상기 요속 예측 알고리즘을 검증하되, 상기 예측 요속값과 상기 제2모집단의 실제 요속값의 정확도가 기준 값 이상일 경우, 상기 요속 예측 알고리즘을 상기 기 설정된 예측 알고리즘으로 적용할 수 있다.In addition, the method further includes an algorithm deriving step of deriving the preset prediction algorithm, wherein the algorithm deriving step uses a loudness signal and a roughness signal of each of the rush sound signals of a first population as input values, and the first population The yaw velocity prediction algorithm is derived through the LSTM deep learning prediction model using the actual yaw velocity values of obtaining a value, and verifying the yaw velocity prediction algorithm by comparing the predicted yaw velocity value with the actual yaw velocity values of the second population, wherein the accuracy of the predicted yaw velocity value and the actual yaw velocity value of the second population is greater than or equal to a reference value, the The yaw velocity prediction algorithm may be applied as the preset prediction algorithm.

또한, 상기 어느 하나에 따른 요속 예측 방법을 컴퓨터로 읽을 수 있는 기록 매체를 포함한다.In addition, it includes a computer-readable recording medium for predicting the yaw velocity according to any one of the above.

본 발명에 의하면, 요류음 신호에 포함된 라우드니스 신호와 러프니스 신호를 LSTM 딥러닝 예측 모델을 통해 도출된 요속 예측 알고리즘에 입력값으로 적용하여 요속을 예측할 수 있다. 이를 통해 요속을 간단하고 신속하고, 그리고 위생적으로 예측할 수 있다. According to the present invention, the yaw velocity can be predicted by applying the loudness signal and the roughness signal included in the yaw sound signal as input values to the yaw velocity prediction algorithm derived through the LSTM deep learning prediction model. Through this, the urine velocity can be predicted simply, quickly, and hygienically.

또한, 본 발명에 의하면, 요류음만으로 요속 예측이 가능하므로 병원이나 보건소 등 의료기관뿐만 아니라 가정이나 공공장소에서도 요속을 간단하고 신속하게 측정할 수 있다.In addition, according to the present invention, since the urine velocity can be predicted only with the urine flow sound, the urine velocity can be measured simply and quickly at home or public places as well as medical institutions such as hospitals and public health centers.

또한, 본 발명의 의하면 요속 데이터를 장기간 수집하여 사용자의 정확한 건강 진단이 가능하다.In addition, according to the present invention, it is possible to accurately diagnose the user's health by collecting urine velocity data for a long period of time.

도 1은 본 발명의 실시 예에 따른 요속 예측 시스템을 나타내는 도면이다.
도 2는 도 1의 요속 예측 시스템을 나타내는 블록도이다.
도 3은 본 발명의 실시 예에 따라 제1 및 제2 모집단의 요류음 신호들과 실제 요속값들이 획득되는 과정을 설명하기 위한 도면이다.
도 4는 본 발명의 실시 예에 따라 LSTM 딥러닝 예측 모델의 적용하여 요속 예측 알고리즘을 도출하는 과정을 나타내는 도면이다.
도 5는 본 발명의 실시 예에 따라 LSTM 딥러닝 예측 모델이 적용되는 과정을 나타내는 도면이다.
도 6은 본 발명의 실시 예에 따라 예측된 요속값과 실제 측정된 요속값을 시간경과에 따라 비교한 그래프이다.
도 7은 본 발명의 실시 예에 따른 요속 예측 방법을 설명하기 위한 순서도이다.
1 is a diagram illustrating a yaw velocity prediction system according to an embodiment of the present invention.
FIG. 2 is a block diagram illustrating the yaw velocity prediction system of FIG. 1 .
FIG. 3 is a diagram for explaining a process in which yaw noise signals and actual yaw velocity values of first and second populations are acquired according to an embodiment of the present invention.
4 is a diagram illustrating a process of deriving a yaw velocity prediction algorithm by applying an LSTM deep learning prediction model according to an embodiment of the present invention.
5 is a diagram illustrating a process in which an LSTM deep learning prediction model is applied according to an embodiment of the present invention.
6 is a graph comparing a predicted yaw velocity value and an actual measured yaw velocity value over time according to an embodiment of the present invention.
7 is a flowchart illustrating a yaw velocity prediction method according to an embodiment of the present invention.

이하, 첨부된 도면들을 참조하여 본 발명의 바람직한 실시 예를 상세히 설명할 것이다. 그러나 본 발명의 기술적 사상은 여기서 설명되는 실시 예에 한정되지 않고 다른 형태로 구체화 될 수도 있다. 오히려, 여기서 소개되는 실시 예는 개시된 내용이 철저하고 완전해질 수 있도록 그리고 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 제공되는 것이다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, the technical spirit of the present invention is not limited to the embodiments described herein and may be embodied in other forms. Rather, the embodiments introduced herein are provided so that the disclosed content may be thorough and complete, and the spirit of the present invention may be sufficiently conveyed to those skilled in the art.

본 명세서에서, 어떤 구성요소가 다른 구성요소 상에 있다고 언급되는 경우에 그것은 다른 구성요소 상에 직접 형성될 수 있거나 또는 그들 사이에 제 3의 구성요소가 개재될 수도 있다는 것을 의미한다. 또한, 도면들에 있어서, 막 및 영역들의 두께는 기술적 내용의 효과적인 설명을 위해 과장된 것이다. In this specification, when a component is referred to as being on another component, it means that it may be directly formed on the other component or a third component may be interposed therebetween. In addition, in the drawings, thicknesses of films and regions are exaggerated for effective description of technical content.

또한, 본 명세서의 다양한 실시 예 들에서 제1, 제2, 제3 등의 용어가 다양한 구성요소들을 기술하기 위해서 사용되었지만, 이들 구성요소들이 이 같은 용어들에 의해서 한정되어서는 안 된다. 이들 용어들은 단지 어느 구성요소를 다른 구성요소와 구별시키기 위해서 사용되었을 뿐이다. 따라서, 어느 한 실시 예에 제 1 구성요소로 언급된 것이 다른 실시 예에서는 제 2 구성요소로 언급될 수도 있다. 여기에 설명되고 예시되는 각 실시 예는 그것의 상보적인 실시 예도 포함한다. 또한, 본 명세서에서 '및/또는'은 전후에 나열한 구성요소들 중 적어도 하나를 포함하는 의미로 사용되었다.In addition, in various embodiments of the present specification, terms such as first, second, third, etc. are used to describe various components, but these components should not be limited by these terms. These terms are only used to distinguish one component from another. Accordingly, what is referred to as a first component in one embodiment may be referred to as a second component in another embodiment. Each embodiment described and illustrated herein also includes a complementary embodiment thereof. Also, in the present specification, 'and/or' is used in the sense of including at least one of the components listed before and after.

명세서에서 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함한다. 또한, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 구성요소 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 구성요소 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 배제하는 것으로 이해되어서는 안 된다. 또한, 본 명세서에서 "연결"은 복수의 구성 요소를 간접적으로 연결하는 것, 및 직접적으로 연결하는 것을 모두 포함하는 의미로 사용된다. In the specification, the singular expression includes the plural expression unless the context clearly dictates otherwise. In addition, terms such as "comprise" or "have" are intended to designate that a feature, number, step, element, or a combination thereof described in the specification exists, but one or more other features, number, step, configuration It should not be construed as excluding the possibility of the presence or addition of elements or combinations thereof. In addition, in this specification, "connection" is used in a sense including both indirectly connecting a plurality of components and directly connecting a plurality of components.

또한, 하기에서 본 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략할 것이다.In addition, in the following description of the present invention, if it is determined that a detailed description of a related well-known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted.

도 1은 본 발명의 실시 예에 따른 요속 예측 시스템을 나타내는 도면이고, 도 2는 도 1의 요속 예측 시스템을 나타내는 블록도이다.1 is a diagram illustrating a yaw velocity prediction system according to an embodiment of the present invention, and FIG. 2 is a block diagram illustrating the yaw velocity prediction system of FIG. 1 .

도 1 및 도 2를 참조하면, 요속 예측 시스템(100)은 요류음 측정부(110), 신호 분석부(120), 요속 예측부(130), 그리고 요속 예측 알고리즘 도출부(140)를 포함한다.1 and 2 , the yaw velocity prediction system 100 includes a yaw noise measurement unit 110 , a signal analyzer 120 , a yaw velocity predictor 130 , and a yaw velocity prediction algorithm derivation unit 140 . .

요류음 측정부(110)는 배뇨 과정에서 발생하는 요류음을 시간 경과에 따라 측정한다. 요류음 측정부(110)는 마이크로폰이 사용될 수 있다. 요류음 측정부(110)는 요류음이 발생되는 요류 수집부를 향해 배치될 수 있다. 요류 수집부는 변기를 포함한다.The urine flow measurement unit 110 measures the urine flow sound generated during the urination process over time. A microphone may be used as the turbulence sound measurement unit 110 . The urine flow measurement unit 110 may be disposed toward the urine flow collection unit that generates the urine flow sound. The urine collection unit includes a toilet bowl.

신호 분석부(120)는 요류음 측정부(110)로부터 요류음 신호를 수신하고, 요류음 신호에 포함된 음질인자들을 분석한다.The signal analysis unit 120 receives the urine flow sound signal from the urine flow measurement unit 110 , and analyzes sound quality factors included in the urine flow sound signal.

도 2는 요류음 음질인자와 요속을 비교한 그래프이다.2 is a graph comparing urine flow sound quality factors and urine velocity.

도 2를 참조하면, 요류음 음질인자에는 라우드니스(roudness) 신호, 샤프니스(sharpness) 신호, 요동강도(fluctuation strength) 신호, 그리고 러프니스(roughness) 신호를 포함한다. 각각의 신호들과 요속(flow rate) 신호를 비교해보면 요류음 음질인자 중 소리의 크기를 나타내는 라우드니스 신호와 소리의 거칠기를 표현하는 러프니스 신호가 요속 신호와 가장 유사한 경향을 보이는 것을 알 수 있다. 따라서, 본 발명에서는 요속 예측에 라우드니스 신호와 러프니스 신호가 사용된다. 신호 분석부(120)는 요류음 신호에서 라우드니스 신호와 러프니스 신호를 시간 경과에 따라 산출한다.Referring to FIG. 2 , the noise quality factor includes a loudness signal, a sharpness signal, a fluctuation strength signal, and a roughness signal. Comparing each signal with the flow rate signal, it can be seen that among the flow rate sound quality factors, the loudness signal representing the loudness and the roughness signal representing the roughness of the sound show the most similar tendency to the flow rate signal. Accordingly, in the present invention, a loudness signal and a roughness signal are used for yaw velocity prediction. The signal analyzer 120 calculates a loudness signal and a roughness signal from the yaw sound signal over time.

요속 예측부(130)는 신호 분석부(120)로부터 라우드니스 신호와 러프니스 신호를 수신하고, 라우드니스 신호와 러프니스 신호를 입력값으로 기 설정된 예측 알고리즘을 적용하여 요속값을 예측한다. The yaw velocity predictor 130 receives the loudness signal and the roughness signal from the signal analyzer 120 , and predicts the yaw velocity value by applying a preset prediction algorithm to the loudness signal and the roughness signal as input values.

요속 예측 알고리즘 도출부(140)는 LSTM(Long Short-Term Memory) 딥러닝 예측 모델을 통해 상기 기 설정된 예측 알고리즘을 도출한다. 요속 예측 알고리즘 도출부(140)는 학습 데이터 저장부(141), 검증 데이터 저장부(142), 알고리즘 생성부(143), 그리고 알고리즘 검증부(144)를 포함한다. The yaw velocity prediction algorithm deriving unit 140 derives the preset prediction algorithm through a Long Short-Term Memory (LSTM) deep learning prediction model. The yaw velocity prediction algorithm deriving unit 140 includes a learning data storage unit 141 , a verification data storage unit 142 , an algorithm generation unit 143 , and an algorithm verification unit 144 .

학습 데이터 저장부(141)는 LSTM 딥러닝 예측 모델에 적용되는 학습 데이터가 저장된다. 학습데이터는 제1모집단의 요류음 신호들과 실제 요속값들이 저장된다.The training data storage unit 141 stores training data applied to the LSTM deep learning prediction model. As the learning data, the yaw sound signals and actual yaw velocity values of the first population are stored.

검증 데이터 저장부(142)는 요속 예측 알고리즘의 검증에 사용되는 검증 데이터가 저장된다. 검증 데이터는 제2모집단의 요류음 신호들과 실제 요속값들이 저장된다.The verification data storage unit 142 stores verification data used for verification of the yaw velocity prediction algorithm. As the verification data, the yaw signal signals of the second population and actual yaw velocity values are stored.

도 3은 본 발명의 실시 예에 따라 제1 및 제2 모집단의 요류음 신호들과 실제 요속값들이 획득되는 과정을 설명하기 위한 도면이다.FIG. 3 is a diagram for explaining a process in which yaw noise signals and actual yaw velocity values of first and second populations are acquired according to an embodiment of the present invention.

도 3를 참조하면, 제1 및 제2모집단의 요류음 신호들은 명확한 라우드니스(roudness) 신호와 러프니스(roughness) 신호를 얻기 위하여 상단(21)이 금속 재질의 얇은 판으로 제공되고, 하단(22)이 플라스틱 재질로 제공되는 요류 수집부(20)에서 측정되었다. 요류 수집부(20)의 상단(21)은 배뇨 과정에서 요류가 직접 충돌하는 영역으로, 금속판으로 제공됨에 따라 높은 크기의 요류음이 발생될 수 있다. 요류음 측정부(110)는 요류 수집부(20)의 상단(21)을 향해 배치된다. Referring to FIG. 3 , in order to obtain clear loudness and roughness signals, the flow-on sound signals of the first and second populations have an upper end 21 provided as a thin metal plate, and a lower end 22 ) was measured in the urine flow collection unit 20 provided of a plastic material. The upper end 21 of the urine collection unit 20 is a region where urine flow directly collides during urination, and as it is provided as a metal plate, a high-level urine flow sound may be generated. The urine flow measurement unit 110 is disposed toward the upper end 21 of the urine flow collection unit 20 .

요류 수집부(20)의 하부에는 요류 무게 측정부(150)가 위치한다. 요류 무게 측정부(150)는 배뇨 과정에서 시간 경과에 따른 요류의 무게 변화를 측정한다. 시간 경과에 따른 요류의 무게 변화는 제1 및 제2모집단의 실제 요속값으로 제공된다.A urine flow weight measuring unit 150 is positioned at a lower portion of the urine flow collecting unit 20 . The urine flow weight measurement unit 150 measures a change in the weight of urine flow over time in the urination process. The change in the weight of the yaw over time is provided as the actual yaw velocity values of the first and second populations.

도 4는 본 발명의 실시 예에 따라 LSTM 딥러닝 예측 모델의 적용하여 요속 예측 알고리즘을 도출하는 과정을 나타내는 도면이다.4 is a diagram illustrating a process of deriving a yaw velocity prediction algorithm by applying an LSTM deep learning prediction model according to an embodiment of the present invention.

도 4를 참조하면, 알고리즘 생성부(143)는 제1모집단의 요류음 신호들 각각에서 산출된 라우드니스 신호(11)와 러프니스 신호(12)를 입력값으로 하고, 제1모집단의 실제 요속값(13)들을 출력값으로 하여 LSTM 딥러닝 예측 모델(21)을 적용한다. 알고리즘 생성부(143)는 LSTM 딥러닝 예측 모델(21)의 적용으로 요속 예측 알고리즘을 도출한다.Referring to FIG. 4 , the algorithm generating unit 143 uses the loudness signal 11 and the roughness signal 12 calculated from each of the yaw noise signals of the first population as input values, and the actual yaw velocity value of the first population. Using (13) as output values, the LSTM deep learning prediction model 21 is applied. The algorithm generator 143 derives a yaw velocity prediction algorithm by applying the LSTM deep learning prediction model 21 .

도 5는 본 발명의 실시 예에 따라 LSTM 딥러닝 예측 모델이 적용되는 과정을 나타내는 도면이다.5 is a diagram illustrating a process in which an LSTM deep learning prediction model is applied according to an embodiment of the present invention.

도 5를 참조하면, LSTM 딥러닝 예측 모델(21)은 은닉층(Hidden layer)의 메모리 셀에 입력 게이트, 삭제 게이트, 출력 게이트를 추가하여 불필요한 기억을 지우고, 기억해야 할 것들을 결정한다. Referring to FIG. 5 , the LSTM deep learning prediction model 21 erases unnecessary memories by adding an input gate, an erase gate, and an output gate to a memory cell of a hidden layer, and determines what to remember.

구체적으로 삭제 게이트(21a)는 기억을 삭제하기 위한 게이트로, 현재 시점 t의 x값과 이전 시점 t-1의 은닉 상태가 아래 수식 1의 제1시그모이드 함수를 지닌다.Specifically, the deletion gate 21a is a gate for erasing memory, and the x value of the current time t and the hidden state of the previous time t-1 have the first sigmoid function of Equation 1 below.

Figure 112019134334866-pat00001
(수식 1)
Figure 112019134334866-pat00001
(Formula 1)

제1시그모이드 함수를 지나면 0과 1 사이의 값이 나오게 되는데, 이 값이 곧 삭제 과정을 거친 정보의 양이다. 0에 가까울수록 정보가 많이 삭제된 것이고 1에 가까울수록 정보를 온전히 기억한 것이다. 이를 가지고 셀 상태를 구하게 된다.After passing through the first sigmoid function, a value between 0 and 1 is obtained, and this value is the amount of information that has undergone the deletion process. The closer it is to 0, the more information has been deleted, and the closer it is to 1, the more information is fully remembered. With this, the cell state is obtained.

입력 게이트(21b)는 현재 정보를 기억하기 위한 게이트이다. 우선 현재 시점 t의 x값과 입력 게이트로 이어지는 가중치 Wxi를 곱한 값과 이전 시점 t-1의 은닉 상태가 입력 게이트로 이어지는 가중치 Whi를 곱한 값을 더하여 아래 수식 2의 제2시그모이드 함수를 지난다. 이를 it라고 합니다. The input gate 21b is a gate for storing current information. First, the value obtained by multiplying the x value of the current time t by the weight Wxi leading to the input gate and the value obtained by multiplying the value obtained by multiplying the value obtained by multiplying the value obtained by multiplying the x value of the current time point t by the weight Whi that the hidden state of the previous time point t-1 leads to the input gate passes through the second sigmoid function of Equation 2 below . This is called it.

Figure 112019134334866-pat00002
(수식 2)
Figure 112019134334866-pat00002
(Equation 2)

그리고 현재 시점 t의 x값과 입력 게이트로 이어지는 가중치 Wxi를 곱한 값과 이전 시점 t-1의 은닉 상태가 입력 게이트로 이어지는 가중치 Whg를 곱한 값을 더하여 하이퍼볼릭탄젠트 함수를 지난다. 이를 gt라고 한다. 시그모이드 함수를 지나 0과 1 사이의 값과 하이퍼볼릭탄젠트 함수를 지나 -1과 1사이의 값 두 개가 나오게 된다. 이 두 개의 값을 가지고 이번에 선택된 기억할 정보의 양을 결정한다.Then, the value obtained by multiplying the x value of the current time t by the weight Wxi leading to the input gate and the value obtained by multiplying the value Whg by the weight Whg leading to the hidden state at the previous time t-1 pass through the hyperbolic tangent function. This is called gt. After passing through the sigmoid function, two values between 0 and 1 and the hyperbolic tangent function come out between -1 and 1. With these two values, we determine the amount of information to be remembered this time.

셀 상태를 구하기 위하여 도면번호 21c와 같이, 아래 수식 3과 같이 입력 게이트에서 구한 it, gt 이 두 개의 값에 대해서 원소별 곱(entrywise product)을 진행하고 삭제 게이트의 결과값과 더한다. 이 값을 현재 시점 t의 셀 상태라고 하며, 이 값은 다음 t+1 시점의 LSTM 셀로 넘겨진다.In order to obtain the cell state, as shown in figure 21c, an entrywise product is performed on the two values of it and gt obtained from the input gate as shown in Equation 3 below, and the result value of the deletion gate is added. This value is called the cell state of the current time t, and this value is transferred to the LSTM cell of the next time t+1.

Figure 112019134334866-pat00003
(수식 3)
Figure 112019134334866-pat00003
(Equation 3)

출력 게이트(21d)는 현재 시점 t의 x값과 이전 시점 t-1의 은닉 상태가 아래 수식 4의 제3시그모이드 함수를 지난 값이다. 은닉 상태는 셀 상태의 값이 하이퍼볼릭탄젠트 함수를 지나 -1과 1사이의 값이다. 해당 값은 수식 4와 같이 출력 게이트의 값과 연산되면서, 값이 걸러지는 효과가 발생한다. The output gate 21d is a value in which the x value of the current time point t and the hidden state of the previous time point t-1 have passed the third sigmoid function of Equation 4 below. The hidden state is a value between -1 and 1 through the hyperbolic tangent function of the cell state. The corresponding value is calculated with the value of the output gate as shown in Equation 4, and the effect of filtering the value occurs.

Figure 112019134334866-pat00004
(수식 4)
Figure 112019134334866-pat00004
(Equation 4)

Figure 112019134334866-pat00005
(수식 5)
Figure 112019134334866-pat00005
(Equation 5)

위 수식 1 내지 4에서, σ는 시그모이드 함수를 의미하고, tanh는 하이퍼볼릭탄젠트 함수를 의미하고, Wχi, Wχg, Wχf, Wχo는 χt와 함께 각 게이트에서 사용되는 4개의 가중치를 의미하고, Whi, Whg, Whf, Who는 ht- 1와 함께 각 게이트에서 사용되는 4개의 가중치를 의미하고, bi, bg, bf, bo는 각 게이트에서 사용되는 4개의 편향을 의미한다.In Equations 1 to 4, σ denotes a sigmoid function, tanh denotes a hyperbolic tangent function, and W χi , W χg , W χf , W χo are four mean weights, W hi , W hg , W hf , W ho mean the four weights used in each gate together with h t- 1 , b i , b g , b f , b o are at each gate It means the four biases used.

상술한 LSTM 딥러닝 예측 모델은 시간 경과에 따른 신호 변화를 갖는 라우드니스 신호(11)와 러프니스 신호(12)와 같이 긴 시퀀스의 입력을 처리하는데 탁월한 성능을 갖는다.The above-described LSTM deep learning prediction model has excellent performance in processing a long sequence of inputs such as a loudness signal 11 and a roughness signal 12 having signal changes over time.

알고리즘 검증부(144)는 알고리즘 생성부(143)에서 도출된 요속 예측 알고리즘에 제2모집단의 요류음 신호들 각각에서 산출된 라우드니스 신호와 러프니스 신호를 입력값으로 적용하여 요속 예측값을 얻는다. 그리고 요속 예측값과 상기 제2모집단의 실제 요속값 사이의 평균제급근오차(RMSE)를 계산하여 LSTM 딥러닝 예측 모델의 정확도를 검증한다. 요속 예측값과 제2모집단의 실제 요속값들의 정확도가 기 설정된 기준 값 이상일 경우, 알고리즘 생성부에서 도출된 요속 예측 알고리즘을 상기 기 설정된 예측 알고리즘으로 적용한다.The algorithm verifying unit 144 obtains a yaw velocity prediction value by applying the loudness signal and the roughness signal calculated from each of the yaw noise signals of the second population as input values to the yaw velocity prediction algorithm derived from the algorithm generating unit 143 . Then, the accuracy of the LSTM deep learning prediction model is verified by calculating the root mean square error (RMSE) between the yaw velocity predicted value and the actual yaw velocity value of the second population. When the accuracy of the yaw velocity prediction value and the actual yaw velocity values of the second population is equal to or greater than a preset reference value, the yaw velocity prediction algorithm derived from the algorithm generator is applied as the preset prediction algorithm.

요속 예측부(140)는 상기 기 설정된 예측 알고리즘이 도출되면, 요류음 신호의 입력만으로 요속을 예측할 수 있다. When the preset prediction algorithm is derived, the yaw velocity predictor 140 may predict yaw velocity only by inputting the yaw sound signal.

도 6은 본 발명의 실시 예에 따라 예측된 요속값과 실제 측정된 요속값을 시간경과에 따라 비교한 그래프이다.6 is a graph comparing a predicted yaw velocity value and an actual measured yaw velocity value over time according to an embodiment of the present invention.

도 6을 참조하면, 본 발명에 따라 예측된 요속값(Predicted flowrate)이 실제 측정된 요속값(Measured flowrate)과 높은 정확도를 나타냄을 확인할 수 있다.Referring to FIG. 6 , it can be confirmed that the predicted flowrate according to the present invention exhibits high accuracy with the actual measured flowrate.

도 7은 본 발명의 실시 예에 따른 요속 예측 방법을 설명하기 위한 순서도이다.7 is a flowchart illustrating a yaw velocity prediction method according to an embodiment of the present invention.

도 7을 참조하면, 요속 예측 방법은 요류음 신호 생성 단계(S110), 신호 분석 단계(S120), 그리고 요속 예측 단계(S130)를 포함한다.Referring to FIG. 7 , the yaw velocity prediction method includes a yaw sound signal generation step S110 , a signal analysis step S120 , and a yaw velocity prediction step S130 .

요류음 신호 생성 단계(S110)는 요류음 측정부를 통해 요류음을 측정하여 요류음 신호를 생성한다.In step S110 of generating a urine-induced noise signal, a urine-induced noise signal is generated by measuring the urine-induced noise measurement unit.

신호 분석 단계(S120)는 요류음 신호를 분석하여 라우드니스 신호와 러프니스 신호를 산출한다.In the signal analysis step ( S120 ), a loudness signal and a roughness signal are calculated by analyzing the turbulent sound signal.

요속 예측 단계(S130)는 라우드니스 신호와 러프니스 신호를 입력값으로 기 설정된 예측 알고리즘을 적용하여 요속을 예측한다.In the yaw velocity prediction step S130, the yaw velocity is predicted by applying a preset prediction algorithm to the loudness signal and the roughness signal as input values.

요속 예측 방법은 알고리즘 도출 단계(S140)를 더 포함한다. 알고리즘 도출 단계(S140)는 상기 기 설정된 예측 알고리즘을 도출한다. 알고리즘 도출 단계(S140)는 요속 예측 알고리즘 도출 단계(S141)와 요속 예측 알고리즘 검증 단계(S142)를 포함한다.The yaw velocity prediction method further includes an algorithm derivation step (S140). In the algorithm deriving step (S140), the preset prediction algorithm is derived. The algorithm deriving step (S140) includes a yaw speed prediction algorithm deriving step (S141) and a yaw speed prediction algorithm verification step (S142).

요속 예측 알고리즘 도출 단계(S141)는 제1모집단의 요류음 신호들 각각의 라우드니스 신호와 러프니스 신호를 입력값으로 하고, 제1모집단의 실제 요속값들을 출력값으로 하여 LSTM 딥러닝 예측 모델을 통해 요속 예측 알고리즘을 도출한다.The yaw velocity prediction algorithm deriving step (S141) takes the loudness signal and roughness signal of each of the yaw sound signals of the first population as input values, and uses the actual yaw velocity values of the first population as output values, and the yaw velocity through the LSTM deep learning prediction model. Derive a prediction algorithm.

요속 예측 알고리즘 검증 단계(S142)는 요속 예측 알고리즘 도출 단계(S141)에서 도출된 요속 예측 알고리즘에 제2모집단의 요류음 신호들 각각의 라우드니스 신호와 러프니스 신호를 입력값으로 하여 예측 요속값을 얻고, 예측 요속값과 상기 제2모집단의 실제 요속값 사이의 평균제급근오차(RMSE)를 계산하여 LSTM 딥러닝 예측 모델의 정확도를 검증한다. 요속 예측 알고리즘 검증 단계(S142)는 예측 요속값과 상기 제2모집단의 실제 요속값의 정확도가 기준 값 이상일 경우, 요속 예측 알고리즘을 상기 기 설정된 예측 알고리즘으로 적용한다.In the yaw velocity prediction algorithm verification step (S142), the predicted yaw velocity value is obtained by using the loudness signal and the roughness signal of each of the yaw noise signals of the second population as input values to the yaw velocity prediction algorithm derived in the yaw velocity prediction algorithm derivation step (S141). , calculates the root mean square error (RMSE) between the predicted yaw velocity value and the actual yaw velocity value of the second population to verify the accuracy of the LSTM deep learning prediction model. In the yaw velocity prediction algorithm verification step S142, when the accuracy of the predicted yaw velocity value and the actual yaw velocity value of the second population is equal to or greater than a reference value, the yaw velocity prediction algorithm is applied as the preset prediction algorithm.

이상, 본 발명을 바람직한 실시 예를 사용하여 상세히 설명하였으나, 본 발명의 범위는 특정 실시 예에 한정되는 것은 아니며, 첨부된 특허청구범위에 의하여 해석되어야 할 것이다. 또한, 이 기술분야에서 통상의 지식을 습득한 자라면, 본 발명의 범위에서 벗어나지 않으면서도 많은 수정과 변형이 가능함을 이해하여야 할 것이다.As mentioned above, although the present invention has been described in detail using preferred embodiments, the scope of the present invention is not limited to specific embodiments and should be construed according to the appended claims. In addition, those skilled in the art should understand that many modifications and variations are possible without departing from the scope of the present invention.

100: 요속 예측 시스템
110: 요류음 측정부
120: 신호 분석부
130: 요속 예측부
140: 요속 예측 알고리즘 도출부
100: yaw velocity prediction system
110: urine flow sound measurement unit
120: signal analysis unit
130: yaw velocity prediction unit
140: yaw velocity prediction algorithm derivation unit

Claims (7)

금속 재질의 얇은 판으로 제공되며 배뇨 과정에서 요류가 직접 충돌하는 상단과, 상기 상단의 하부에 제공되며 플라스틱 재질로 제공되는 하단을 가지는 요류 수집부;
상기 요류 수집부의 상단을 향해 배치되며, 배뇨 과정에서 발생하는 요류음을 측정하는 요류음 측정부;
상기 요류음 측정부로부터 요류음 신호를 수신하고, 상기 요류음 신호로부터 라우드니스 신호와 러프니스 신호를 산출하는 신호 분석부; 및
상기 라우드니스 신호와 상기 러프니스 신호를 입력값으로 기 설정된 예측 알고리즘을 적용하여 요속을 예측하는 요속 예측부를 포함하는 요속 예측 시스템.
a urine collection unit having an upper end provided as a thin metal plate and directly collided with urine flow during urination, and a lower end provided under the upper end and provided with a plastic material;
a urine flow sound measurement unit disposed toward the upper end of the urine flow collection unit and measuring a urine flow sound generated during urination;
a signal analyzer configured to receive a urine flow signal from the urine flow measurement unit, and to calculate a loudness signal and a roughness signal from the urine flow signal; and
and a yaw velocity prediction unit for predicting yaw velocity by applying a preset prediction algorithm to the loudness signal and the roughness signal as input values.
제 1 항에 있어서,
상기 기 설정된 예측 알고리즘을 도출하는 요속 예측 알고리즘 도출부를 더 포함하되,
상기 요속 예측 알고리즘 도출부는,
제1모집단의 요류음 신호들과 실제 요속값들을 저장하는 학습 데이터 저장부;
제2모집단의 요류음 신호들과 실제 요속값들을 저장하는 검증 데이터 저장부; 및
상기 제1모집단의 요류음 신호들 각각의 라우드니스 신호와 러프니스 신호를 입력값으로 하고, 상기 제1모집단의 실제 요속값들을 출력값으로 하여 LSTM 딥러닝 예측 모델을 통해 요속 예측 알고리즘을 도출하는 알고리즘 생성부; 및
상기 요속 예측 알고리즘에 상기 제2모집단의 요류음 신호들 각각의 라우드니스 신호와 러프니스 신호를 입력값으로 하여 예측 요속값을 얻고, 상기 예측 요속값과 상기 제2모집단의 실제 요속값들을 비교하여 상기 요속 예측 알고리즘을 검증하는 알고리즘 검증부를 포함하되,
상기 예측 요속값과 상기 제2모집단의 실제 요속값의 정확도가 기준 값 이상일 경우, 상기 요속 예측 알고리즘을 상기 기 설정된 예측 알고리즘으로 적용하는 요속 예측 시스템.
The method of claim 1,
Further comprising a yaw velocity prediction algorithm deriving unit for deriving the preset prediction algorithm,
The yaw velocity prediction algorithm derivation unit,
a learning data storage unit for storing the yo-yo sound signals and actual yo-speed values of the first population;
a verification data storage unit for storing the yaw sound signals of the second population and actual yaw velocity values; and
Using the loudness signal and roughness signal of each of the yaw sound signals of the first population as input values, and using the actual yaw velocity values of the first population as output values, an algorithm for deriving a yaw velocity prediction algorithm through an LSTM deep learning prediction model is generated. wealth; and
The predicted yaw velocity value is obtained by using the loudness signal and the roughness signal of each of the yaw sound signals of the second population as input values to the yaw velocity prediction algorithm, and the predicted yaw velocity value is compared with the actual yaw velocity values of the second population. Including an algorithm verification unit for verifying the yaw velocity prediction algorithm,
When the accuracy of the predicted yaw velocity value and the actual yaw velocity value of the second population is equal to or greater than a reference value, the yaw velocity prediction algorithm is applied as the preset prediction algorithm.
제 2 항에 있어서,
상기 제1모집단의 실제 요속값들과 상기 제2모집단의 실제 요속값들은 시간에 따른 요류 무게 변화를 측정하여 얻는 요속 예측 시스템.
3. The method of claim 2,
The actual yaw velocity values of the first population and the actual yaw velocity values of the second population are obtained by measuring a yaw weight change with time.
삭제delete 요류 수집부로 배뇨 과정에서 발생하는 요류음을 측정하여 요류음 신호를 생성하는 요류음 신호 생성 단계;
상기 요류음 신호를 분석하여 라우드니스 신호와 러프니스 신호를 산출하는 신호 분석 단계;
상기 라우드니스 신호와 상기 러프니스 신호를 입력값으로 기 설정된 예측 알고리즘을 적용하여 요속을 예측하는 요속 예측 단계를 포함하되
상기 요류 수집부는 금속 재질의 얇은 판으로 제공되며 배뇨 과정에서 요류가 직접 충돌하는 상단과, 상기 상단의 하부에 제공되며 플라스틱 재질로 제공되는 하단을 가지는 요속 예측 방법.
a urine flow sound signal generating step of generating a urine flow sound signal by measuring a urine flow sound generated during urination with a urine flow collection unit;
a signal analysis step of analyzing the turbulent sound signal to calculate a loudness signal and a roughness signal;
A yaw velocity prediction step of predicting yaw velocity by applying a preset prediction algorithm to the loudness signal and the roughness signal as input values;
The urine flow collection unit is provided as a thin metal plate and has an upper end where urine flow directly collides during urination, and a lower end provided under the upper end and provided with a plastic material.
제 5 항에 있어서,
상기 기 설정된 예측 알고리즘을 도출하는 알고리즘 도출 단계를 더 포함하되,
상기 알고리즘 도출 단계는,
제1모집단의 요류음 신호들 각각의 라우드니스 신호와 러프니스 신호를 입력값으로 하고, 상기 제1모집단의 실제 요속값들을 출력값으로 하여 LSTM 딥러닝 예측 모델을 통해 요속 예측 알고리즘을 도출하고,
상기 요속 예측 알고리즘에 제2모집단의 요류음 신호들 각각의 라우드니스 신호와 러프니스 신호를 입력값으로 하여 예측 요속값을 얻고, 상기 예측 요속값과 상기 제2모집단의 실제 요속값들을 비교하여 상기 요속 예측 알고리즘을 검증하되,
상기 예측 요속값과 상기 제2모집단의 실제 요속값의 정확도가 기준 값 이상일 경우, 상기 요속 예측 알고리즘을 상기 기 설정된 예측 알고리즘으로 적용하는 요속 예측 방법.
6. The method of claim 5,
Further comprising an algorithm derivation step of deriving the preset prediction algorithm,
The algorithm derivation step is,
A yaw velocity prediction algorithm is derived through an LSTM deep learning prediction model using the loudness signal and roughness signal of each of the yaw sound signals of the first population as input values and the actual yaw velocity values of the first population as output values,
A predicted yaw velocity value is obtained by inputting a loudness signal and a roughness signal of each of the yaw sound signals of a second population to the yaw velocity prediction algorithm, and the predicted yaw velocity value is compared with the actual yaw velocity values of the second population to compare the yaw velocity Validate the prediction algorithm,
When the accuracy of the predicted yaw velocity value and the actual yaw velocity value of the second population is equal to or greater than a reference value, the yaw velocity prediction algorithm is applied as the preset prediction algorithm.
제 5 항 및 제 6 항 중 어느 하나에 따른 요속 예측 방법을 컴퓨터로 읽을 수 있는 기록 매체.A computer-readable recording medium for estimating the yaw velocity according to any one of claims 5 and 6.
KR1020190175594A 2019-12-26 2019-12-26 System and method for predicting flowrate using LSTM deep learning prediction KR102390119B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190175594A KR102390119B1 (en) 2019-12-26 2019-12-26 System and method for predicting flowrate using LSTM deep learning prediction

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190175594A KR102390119B1 (en) 2019-12-26 2019-12-26 System and method for predicting flowrate using LSTM deep learning prediction

Publications (2)

Publication Number Publication Date
KR20210083024A KR20210083024A (en) 2021-07-06
KR102390119B1 true KR102390119B1 (en) 2022-04-25

Family

ID=76860902

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190175594A KR102390119B1 (en) 2019-12-26 2019-12-26 System and method for predicting flowrate using LSTM deep learning prediction

Country Status (1)

Country Link
KR (1) KR102390119B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140018702A1 (en) * 2010-09-08 2014-01-16 Edward Belotserkovsky Urine Flow Monitoring Device and Method
JP2018500949A (en) * 2014-08-22 2018-01-18 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Method and apparatus for measuring blood pressure using acoustic signals

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101921734B1 (en) * 2015-11-26 2018-11-23 부산대학교 산학협력단 Method and apparatus for determining skeletal muscle cross-sectional area calculation model of subject based on demographic element and kinematic element

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140018702A1 (en) * 2010-09-08 2014-01-16 Edward Belotserkovsky Urine Flow Monitoring Device and Method
JP2018500949A (en) * 2014-08-22 2018-01-18 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Method and apparatus for measuring blood pressure using acoustic signals

Also Published As

Publication number Publication date
KR20210083024A (en) 2021-07-06

Similar Documents

Publication Publication Date Title
US10010288B2 (en) Screening for neurological disease using speech articulation characteristics
Ballard et al. A predictive model for diagnosing stroke-related apraxia of speech
v. Latoszek et al. A meta-analysis: acoustic measurement of roughness and breathiness
Manfredi et al. A comparative analysis of fundamental frequency estimation methods with application to pathological voices
US9058816B2 (en) Emotional and/or psychiatric state detection
US20140122063A1 (en) Method and system for estimating physiological parameters of phonation
Flynn et al. Enhanced detection through low-order stochastic modeling for guided-wave structural health monitoring
Hillenbrand Acoustic analysis of voice: a tutorial
CN104661703A (en) Corrective prompting system for appropriate chest compressions
US9916844B2 (en) Method for determining alcohol consumption, and recording medium and terminal for carrying out same
CN110464303B (en) Sleep quality evaluation method and device
US20090234241A1 (en) Recording medium, device, and method for sleep apnea detection
Abou-Abbas et al. A fully automated approach for baby cry signal segmentation and boundary detection of expiratory and inspiratory episodes
Rathnayake et al. Nonlinear features for single-channel diagnosis of sleep-disordered breathing diseases
US12023146B2 (en) Multi-modal lung capacity measurement for respiratory illness prediction
Kashyap et al. Automated topographic prominence based quantitative assessment of speech timing in cerebellar ataxia
Vojtech et al. Refining algorithmic estimation of relative fundamental frequency: Accounting for sample characteristics and fundamental frequency estimation method
Farsaie Alaie et al. Cry‐Based Classification of Healthy and Sick Infants Using Adapted Boosting Mixture Learning Method for Gaussian Mixture Models
Castellana et al. Cepstral Peak Prominence Smoothed distribution as discriminator of vocal health in sustained vowel
TW299435B (en)
CN103190911B (en) Upper airway change monitoring method based on snore formants and power ratio tracks
JP5293329B2 (en) Audio signal evaluation program, audio signal evaluation apparatus, and audio signal evaluation method
Kaiser et al. Design and learnability of vortex whistles for managing chronic lung function via smartphones
KR101603308B1 (en) Biological age calculation model generation method and system thereof, biological age calculation method and system thereof
Jalali-najafabadi et al. Acoustic analysis and digital signal processing for the assessment of voice quality

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant