WO2022186607A1 - Method for acquiring urination information with high accuracy - Google Patents

Method for acquiring urination information with high accuracy Download PDF

Info

Publication number
WO2022186607A1
WO2022186607A1 PCT/KR2022/002956 KR2022002956W WO2022186607A1 WO 2022186607 A1 WO2022186607 A1 WO 2022186607A1 KR 2022002956 W KR2022002956 W KR 2022002956W WO 2022186607 A1 WO2022186607 A1 WO 2022186607A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
urination
windows
classification
value
Prior art date
Application number
PCT/KR2022/002956
Other languages
French (fr)
Korean (ko)
Inventor
송지영
두경연
정지영
김대연
Original Assignee
다인기술 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 다인기술 주식회사 filed Critical 다인기술 주식회사
Priority to US17/891,630 priority Critical patent/US11763802B2/en
Publication of WO2022186607A1 publication Critical patent/WO2022186607A1/en
Priority to US18/362,436 priority patent/US20230377566A1/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/20Measuring for diagnostic purposes; Identification of persons for measuring urological functions restricted to the evaluation of the urinary system
    • A61B5/207Sensing devices adapted to collect urine
    • A61B5/208Sensing devices adapted to collect urine adapted to determine urine quantity, e.g. flow, volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks

Definitions

  • the present specification relates to a method of obtaining urination information with high accuracy, and more particularly, to a method of extracting urination information from sound data related to urination recorded using a urination/non-urination section classification model and a urine velocity prediction model will be.
  • Sound generated from a person's body has been used as important information in confirming the person's health status or disease.
  • the sound generated during the urination process of a person may include important information for diagnosing the person's urination function
  • research on a method of obtaining urination information by analyzing the urination sound is continuously being conducted.
  • the urination rate or amount of urination of the person may be predicted by analyzing the acoustic data obtained by recording the urination process of the person.
  • the sound generated during the urination process of a person may include various sounds generated by the surrounding environment in addition to the sound related to urination.
  • the sound caused by the surrounding environment may be included in the urination section or the non-urination section during the urination process. there was.
  • a method of analyzing sound data for a urination process is required in consideration of a case in which a sound from the surrounding environment is included in a non-urination section.
  • An object to be solved in the present specification is to provide a method for obtaining urination information for obtaining urination information with high accuracy from acoustic data obtained by recording a human urination process.
  • An object to be solved in the present specification is to provide a method for acquiring urination information using a model for dividing a urination process into a urination section and a non-urination section and a model for predicting a urine velocity in the urination process.
  • An object to be solved in the present specification is to provide a method of first determining whether a urination process exists with respect to the collected acoustic data and then performing a urine velocity prediction.
  • a method for obtaining urination information with high accuracy comprising: obtaining sound data, the sound data having a start point and an end point; Acquiring first to mth engraving target data corresponding to m windows from the sound data -
  • Each of the m windows has a predetermined time interval, and continuously between the start point and the end point is determined and consecutive windows among the m windows partially overlap each other, and m is a natural number equal to or greater than 2;
  • the urination/non-urination classification model forms a first data matrix learning to receive input and output data including at least one value for classifying a urination section or a non-urination section; Acquiring first to n-th engraving target data corresponding to n windows from the sound data -
  • the n windows each have a predetermined time interval, and continuously between
  • n is a natural number of 2 or more and m or less;
  • Obtaining the first to n-th piece yaw velocity data by inputting the first to n-th piece target data into a pre-trained yaw velocity prediction model -
  • the yaw velocity prediction model receives a second data matrix and at least a value related to the yaw velocity learned to output data containing one or more; and obtaining urination data using at least the first to m-th piece classification data and the first to n-th piece urine velocity data.
  • the above acoustic data has a start point and an end point; Acquiring first to n-th engraving target data corresponding to first to n-th windows from the sound data -
  • the first to n-th windows each have a predetermined time interval, the starting point and the determined continuously between the end points, wherein n is a natural number greater than or equal to 2;
  • the urination/non-urination classification model is a first receiving a data matrix and learning to output data including at least one value for classifying a urination section or a non-urination section, wherein
  • FIG. 1 is a diagram illustrating an environment for analyzing urination information according to an embodiment of the present specification.
  • FIG. 2 is a diagram illustrating a configuration of an acoustic analysis system according to an embodiment of the present specification.
  • FIG. 3 is a diagram illustrating a process in which a configuration of an acoustic analysis system according to an embodiment of the present specification operates.
  • 4 and 5 are diagrams illustrating a method of classifying sound data according to a window according to an embodiment of the present specification.
  • FIG. 6 is a diagram illustrating a process of extracting a feature value from sound data according to an embodiment of the present specification.
  • FIG. 7 and 8 are diagrams illustrating a process of acquiring target data to be analyzed according to an embodiment of the present specification.
  • FIG. 9 is a diagram illustrating a process of acquiring yaw velocity data using a yaw velocity prediction model according to an embodiment of the present specification.
  • FIG. 10 is a diagram illustrating a method of obtaining candidate yaw velocity data according to an embodiment of the present specification.
  • FIG. 11 is a diagram illustrating a process of acquiring classification data using a urination/non-urination classification model according to an embodiment of the present specification.
  • FIG. 12 is a diagram illustrating a method of acquiring urination classification data according to an embodiment of the present specification.
  • FIG. 13 is a diagram illustrating a method of acquiring urination classification data according to another embodiment of the present specification.
  • 14 and 15 are diagrams illustrating a method of acquiring urination data using candidate urine velocity data and voiding classification data according to an embodiment of the present specification.
  • 16 and 17 are flowcharts illustrating a method for analyzing urination information according to an embodiment of the present specification.
  • FIG. 18 is a diagram illustrating a graph comparing the results of not using and using the urination/non-urination classification model according to an embodiment of the present specification.
  • 19 is a flowchart illustrating a process of learning a yaw velocity prediction model according to an embodiment of the present specification.
  • 20 is a flowchart illustrating a process of training a urination/non-urination classification model according to an embodiment of the present specification.
  • 21 is a diagram illustrating measured data and predicted data according to an embodiment of the present specification.
  • 22 is a diagram illustrating actual measurement data, prediction data, and corrected prediction data according to an embodiment of the present specification.
  • 23 is a flowchart illustrating a data correction method according to an embodiment of the present specification.
  • 24 is a diagram illustrating a data correction process according to an embodiment of the present specification.
  • 25 is a graph illustrating a relationship between measured data and predicted data before data correction according to an embodiment of the present specification.
  • 26 is a graph illustrating a relationship between measured data and predicted data after data correction according to an embodiment of the present specification.
  • a method for obtaining urination information with high accuracy comprising: obtaining sound data, the sound data having a start point and an end point; Acquiring first to mth engraving target data corresponding to m windows from the sound data -
  • Each of the m windows has a predetermined time interval, and continuously between the start point and the end point is determined and consecutive windows among the m windows partially overlap each other, and m is a natural number equal to or greater than 2;
  • the urination/non-urination classification model forms a first data matrix learning to receive input and output data including at least one value for classifying a urination section or a non-urination section; Acquiring first to n-th engraving target data corresponding to n windows from the sound data -
  • the n windows each have a predetermined time interval, and continuously between
  • n is a natural number of 2 or more and m or less;
  • Obtaining the first to n-th piece yaw velocity data by inputting the first to n-th piece target data into a pre-trained yaw velocity prediction model -
  • the yaw velocity prediction model receives a second data matrix and at least a value related to the yaw velocity learned to output data containing one or more; and obtaining urination data using at least the first to m-th piece classification data and the first to n-th piece urine velocity data.
  • An overlapping degree of successive windows among the m windows may be different from an overlapping degree of successive windows among the n windows.
  • An overlapping degree of successive windows among the m windows may be smaller than an overlapping degree of successive windows among the n windows.
  • the first to mth engraving target data and the first to nth engraving target data may each include a feature value extracted from at least a portion of the sound data.
  • the acquiring of the first to mth pieces of target data may include: converting the sound data into spectrogram data; and obtaining the first to mth slice target data corresponding to the first to mth windows from the spectogram data.
  • the acquiring of the first to mth engraving target data may include: acquiring first to mth sculptural sound data corresponding to the first to mth windows; and converting the first to mth sculptural sound data into spectrogram data to obtain the first to mth sculptural target data.
  • the spectrogram data may be Mel-spectrogram data to which a Mel-filter is applied.
  • the first to m-th piece classification data is obtained by sequentially inputting the first to m-th piece target data to the urination/non-urination classification model, and the first to n-th piece urine velocity data is the urine velocity prediction model It may be obtained by sequentially inputting the first to n-th piece target data into the .
  • the urination/non-urination classification model comprises at least a first input layer, a first convolution layer, a first hidden layer, and a first output layer
  • the yaw velocity prediction model may include at least a second input layer, a second convolution layer, a second hidden layer, and a second output layer.
  • a size of the first data matrix may be the same as a size of the second data matrix.
  • the acquiring of the urination data may include: acquiring urination classification data using the first to m-th piece classification data; obtaining candidate yaw velocity data using the first to nth piece yaw velocity data; and obtaining the urination data by processing the candidate urine velocity data using the urination classification data.
  • the urination data may be obtained by performing a convolution operation on the urination classification data and the candidate urine velocity data.
  • the method for obtaining the urination information includes: determining whether or not a urination process is present with respect to the sound data using the first to mth fragment classification data obtained after the acquiring of the first to mth fragment classification data is performed further comprising; if it is determined that a urination process exists with respect to the sound data, obtaining the first to nth pieces of target data from the sound data; Obtaining the first to nth piece urine velocity data by input to the model, and obtaining the urination data using at least the first to mth piece classification data and the first to nth piece urine velocity data can be performed.
  • the sound data includes a starting point and having an end point-; Acquiring first to n-th engraving target data corresponding to the first to n-th windows from the sound data -
  • the first to n-th windows each have a predetermined time interval, and between the start point and the end point is determined continuously in , wherein n is a natural number greater than or equal to 2;
  • the urination/non-urination classification model is a first receiving a data matrix and learning to output data including at least one value for classifying a urination section or a non-urination section, wherein
  • Two consecutive windows among the first to nth windows may overlap.
  • n Two consecutive windows among the first to nth windows do not overlap each other, and m may be the same as n.
  • Each of the first to nth pieces of target data may include a feature value extracted from at least a portion of the sound data.
  • the obtaining of the first to nth pieces of target data may include: converting the sound data into spectrogram data; and obtaining the first to nth slice target data corresponding to the first to nth windows from the spectogram data.
  • the acquiring of the first to n-th engraving target data may include: acquiring first to n-th engraving sound data corresponding to the first to n-th windows; and converting the first to nth sculptural sound data into spectrogram data, respectively, to obtain the first to nth engraving target data.
  • the spectrogram data may be Mel-spectrogram data.
  • the first to mth piece classification data are obtained by sequentially inputting m pieces of piece target data corresponding to m non-overlapping windows among the first to nth windows to the urination/non-urination classification model
  • the first to nth piece yaw velocity data may be obtained by sequentially inputting the first to nth piece yaw velocity data into the yaw velocity prediction model.
  • the voiding/non-urination classification model includes at least a first input layer, a first convolutional layer, a first hidden layer, and a first output layer
  • the urine velocity prediction model includes at least a second input layer, a second convolution It may include a layer, a second hidden layer, and a second output layer, and a data type input to the first input layer and a data type input to the second input layer may be the same.
  • a size of the first data matrix may be the same as a size of the second data matrix.
  • the acquiring of the urination data may include: acquiring urination classification data using the first to m-th piece classification data; obtaining candidate yaw velocity data using the first to nth piece yaw velocity data; and obtaining the urination data by processing the candidate urine velocity data using the urination classification data.
  • the urination data may be obtained by performing a convolution operation on the urination classification data and the candidate urine velocity data.
  • obtaining a measured data group for a plurality of entities in a data collection period wherein the measured data group includes at least first measured data including a measurement value of a urination amount of the first entity and a second entity including second measured data including a measurement value of the amount of urination; obtaining a prediction data group for the urination process of the plurality of individuals in the data collection period, wherein the prediction data group includes first prediction data including a voiding amount predicted value of the first individual and a urination amount prediction of the second individual and second prediction data including a value, wherein the predicted urination amount of the first object is generated from first sound data recorded with the urination process of the first object, and the predicted urination amount of the second object is the second generated from second acoustic data recording the subject's urination process; obtaining a compensation value using the measured data group and the predicted data group; Obtaining the target prediction data for the urination process of the target object
  • the obtaining of the correction value may include: generating a data set group using the measured data group and the predicted data group; and calculating the correction value from the data set group using a regression analysis technique.
  • the data set group may include a first data set generated by matching a representative value of the urination amount measurement values included in the first actual data to a representative value of the urination amount predicted values included in the first prediction data.
  • the data set group is a representative value of the urine quantity measurement values of a first time interval among the urine quantity measurement values of the plurality of days included in the first measured data, among the urine quantity measurement values of the plurality of days included in the second actual measurement data.
  • the first data set may include a first data set generated by matching representative values of measurement values of urination in a second time interval, and the length of the first time interval may be the same as the length of the second time interval.
  • the regression analysis technique may be a linear regression analysis technique, and the correction value may be a slope of a function obtained using the linear regression analysis technique.
  • a value obtained from the first measured data is used as either an independent variable or a dependent variable, and obtained from the first prediction data
  • the value is used as the other of the independent variable and the dependent variable, and the correction value may be a regression coefficient calculated through the regression analysis technique.
  • the acquiring of the target prediction data may include: generating target urine velocity data for a urination process of the target entity using the target acoustic data; and calculating a urination amount predicted value for the urination process of the target individual from the target urine velocity data.
  • the obtaining of the measured data group and the obtaining of the predicted data group may be performed simultaneously.
  • the method may include: acquiring actual measurement data reflecting an amount of urination measured in a urination process of a target object in a first period, wherein the measured data includes at least one measurement value of the amount of urination; acquiring an acoustic data group in which the urination process of the target object is recorded in the first period, wherein the acoustic data group includes first acoustic data in which a first urination process is recorded; obtaining predictive data using the sound data group, wherein the predictive data includes a voiding amount predictive value calculated from the first sound data; obtaining a compensation value using the measured data and the predicted data; acquiring second sound data by recording a second urination process of the target object in a second period after the first period; calculating a target urination amount predicted value from the second sound data; and correcting the target urination amount predicted value by using the correction value.
  • a regression analysis technique is used, the value obtained from the measured data is used as either an independent variable or a dependent variable, and the value obtained from the prediction data is used as the other of the independent variable or the dependent variable.
  • used and the correction value may be a regression coefficient calculated through the regression analysis technique.
  • the value obtained from the actual measurement data may be a urination amount measurement value corresponding to the first urination process during the first period, and the value obtained from the prediction data may be a urination amount predicted value calculated from the first sound data.
  • Calculating the target urination amount predicted value from the second acoustic data may include: generating target urine velocity data using the second acoustic data; and calculating the target urination amount predicted value from the target urine velocity data.
  • the method may include: acquiring actually measured data reflecting the amount of urination measured in the urination process of the subject in a first period, wherein the measured data includes a plurality of measurement values of the amount of urination; acquiring sound data by recording the urination process of the target object in a second period after the first period; obtaining urination amount prediction data using the sound data; and correcting the urination amount prediction data by using the statistical values of the actually measured data, wherein the statistical values are the mode, median, average, variance, and A data correction method that is at least one of standard deviation values may be provided.
  • Numbers (eg, first, second, etc.) used in the description process of the present specification are only identifiers for distinguishing one component from other components.
  • a specific process sequence may be performed different from the described sequence.
  • two processes described in succession may be performed substantially simultaneously, or may be performed in an order opposite to the order described.
  • the present specification relates to a method of obtaining urination information with high accuracy, and more particularly, a urination/non-urination classification model that records a human urination process to obtain acoustic data, and divides the urination section into a urination section and a non-urination section, and
  • the present invention relates to a method of obtaining urination data by analyzing acoustic data using a urine velocity prediction model, and obtaining urination information using the obtained urination data.
  • FIG. 1 is a diagram illustrating an environment for analyzing urination information according to an embodiment of the present specification.
  • an acoustic analysis system 1000 may be used to obtain urination information for a urination process.
  • a recording device 2000 may be used to obtain urination information for a urination process.
  • an external server 3000 may be used to obtain urination information for a urination process.
  • the acoustic analysis system 1000 may acquire urination information based on data about the urination process. For example, the acoustic analysis system 1000 may acquire acoustic data recorded with a urination process from the recording apparatus 2000 , and acquire urination information using the acquired acoustic data. A process in which the acoustic analysis system 1000 acquires urination information from the acoustic data will be described in detail later.
  • the acoustic analysis system 1000 may communicate with the external server 3000 .
  • the sound analysis system 1000 may obtain the above-described sound data from the recording apparatus 2000 or may also obtain it from the external server 3000 .
  • the sound analysis system 1000 may provide urination information obtained by analyzing the sound data to the external server 3000 .
  • the acoustic analysis system 1000 may obtain urination information by analyzing acoustic data for a urination process received from the outside, and output or provide it to the outside.
  • the recording apparatus 2000 may record a urination-related sound.
  • the recording apparatus 2000 may be worn by a person or installed in a space where a person urinates to record a sound generated during a urination process.
  • the recording device 2000 is a wearable device equipped with a recording function, such as a smart watch, a smart band, a smart ring, and a smart neckless. It may include a smart phone, tablet, desktop, laptop, portable recorder, or installation recorder.
  • the recording apparatus 2000 may acquire sound data by recording a urination process.
  • the sound data may be obtained by digitizing an analog sound signal for the urination process.
  • the recording device 2000 includes an Analog to Digital Converter (ADC) module, and a specific sampling rate such as 8 kHz, 16 kHz, 22 kHz, 32 kHz, 44.1 kHz, 48 kHz, 96 kHz, 192 kHz, or 384 kHz. can be used to obtain acoustic data from the acoustic signal for the urination process.
  • ADC Analog to Digital Converter
  • the recording apparatus 2000 may provide the acquired sound data to the sound analysis system 1000 and/or the external server 3000 . To this end, the recording apparatus 2000 may perform wired and/or wireless data communication with the acoustic analysis system 1000 and/or the external server 3000 .
  • the recording apparatus 2000 may also be used as a means for delivering urination information to the user.
  • the recording apparatus 2000 may obtain urination information from the sound analysis system 1000 and output it to the user.
  • the external server 3000 may store or provide various data.
  • the external server 3000 may store acoustic data acquired from the recording apparatus 2000 or urination information acquired from the acoustic analysis system 1000 .
  • the external server 3000 provides the acoustic data obtained from the recording device 2000 to the acoustic analysis system 1000 , and provides the urination information obtained from the acoustic analysis system 1000 to the recording device 2000 . can provide
  • the acoustic analysis system 1000 and the recording apparatus 2000 may be implemented as one device.
  • the sound analysis system 1000 may acquire sound data by including a module having a recording function by itself.
  • the components of the sound analysis system 1000 may be built in the recording apparatus 2000 so that the recording apparatus 2000 may provide a function of analyzing sound data by itself.
  • FIG. 2 is a diagram illustrating a configuration of an acoustic analysis system 1000 according to an embodiment of the present specification.
  • FIG 3 is a diagram illustrating a process in which the configuration of the acoustic analysis system 1000 according to an embodiment of the present specification operates.
  • the acoustic analysis system 1000 includes a preprocessor 1100 , a feature extraction unit 1200 , a urine velocity prediction unit 1300 , a urination/non-urination classification unit 1400 , and a urination information extraction unit 1500 . ), an input unit 1600 , an output unit 1700 , a communication unit 1800 , and a control unit 1900 .
  • the preprocessor 1100 may pre-process the sound data received by the sound analysis system 1000 .
  • Pre-processing is a process performed prior to extracting feature values from sound data, and may include filtering as described below.
  • the preprocessor 1100 may perform filtering for noise removal on the sound data.
  • the filtering may refer to a process of excluding noise-related data from sound data, and for this purpose, a high-pass filter, a low-pass filter, and a band-pass filter are used. etc. may be used.
  • the filtering of the preprocessor 1100 may be omitted.
  • windowing which will be described later, may be performed.
  • the feature extraction unit 1200 may extract a feature value from the preprocessed sound data.
  • the feature value may mean digitizing the unique features of the sound data.
  • the feature value is a time-domain spectral magnitude value, spectral centroid, frequency-band spectral magnitude value, frequency-band root mean square (RMS) value, spectrogram magnitude value, Mel-spectrogram magnitude value, and Bispectrum.
  • Score BGS
  • Non-Gaussianity Score NGS
  • Formants Frequencies FF
  • Log Energy LogE
  • ZCR Zero Crossing Rate
  • Kurtosis Kurt
  • MFCC Mel-frequency cepstral coefficient
  • the feature extractor 1200 may convert the preprocessed sound data and extract a feature value therefrom.
  • the feature extraction unit 1200 may change the conversion form according to a feature value to be extracted from the sound data. For example, when the feature value to be extracted is a spectral value, the feature extractor 1200 may convert the preprocessed sound data into spectral data having a frequency axis. As another example, when the feature value to be extracted is a mel-spectrogram image value, the feature extractor 1200 may convert the preprocessed sound data into spectrogram image data having a time axis and a frequency axis. If there are a plurality of types of feature values to be extracted, the feature extraction unit 1200 may convert the preprocessed sound data into various types of data.
  • the feature values to be extracted by the feature extraction unit 1200 are values of a mel-spectrogram image
  • the technical spirit of the present specification is not limited thereto, and the feature values are different forms. It can be applied similarly to the case of .
  • the feature extractor 1200 may acquire engraving target data through windowing on Mel-spectrogram image data obtained by converting pre-processed sound data.
  • the windowing may refer to discriminating between the start point and the end point of sound data or converted data using a window having a time interval of a certain size. A detailed windowing method will be described later.
  • the fragment target data obtained through windowing may be understood as vector data in each window section, matrix data, or data having other formats.
  • the engraving target data may be understood as a set of vector data in which values of the above-described Mel-spectrogram image are arranged in a line in each window section.
  • the engraving target data may be understood as a set of matrix-type data in which the values of the above-described mel-spectrogram image are taken into consideration in each window section on a time axis and a frequency axis.
  • the feature extraction unit 1200 may divide the sound data into different pieces of sound data through windowing before converting the sound data and extracting the feature values.
  • windowing is performed in the pre-processing unit 1100
  • the feature extracting unit 1200 obtains the piece sound data from the pre-processing unit 1100 , and the obtained piece sound data is used as data including a feature value (eg, a spectrum). , spectrogram, or Mel-spectrogram) to extract a feature value, and data in a vector form, a matrix form, or other form of the extracted feature values may be obtained as engraving target data.
  • a feature value eg, a spectrum
  • spectrogram or Mel-spectrogram
  • the feature extractor 1200 may transmit the piece target data to the urine velocity predictor 1300 and/or the urination/non-urination classification unit 1400 .
  • the urine velocity prediction unit 1300 may predict the urine velocity during urination.
  • the yaw velocity predictor 1300 may calculate predicted yaw velocity values for the acoustic data using a pre-learned yaw velocity prediction model.
  • the yaw velocity prediction model may refer to a model trained using machine learning.
  • machine learning may be understood as a comprehensive concept including an artificial neural network and further deep-learning.
  • the urine velocity prediction model may be implemented as an artificial neural network trained with a training data set in which the data obtained by precisely measuring the urination rate in the urination process are labeled with the acoustic data acquired by recording the urination process.
  • the structure and learning method of the yaw velocity prediction model will be described in detail later.
  • the urine velocity prediction unit 1300 may obtain urine velocity values according to time in the urination process using the urine velocity prediction model and provide the urine velocity values to the urination information extractor 1500 .
  • the urination/non-urination classification unit 1400 may classify a urination section and a non-urination section in the urination process. For example, the urination/non-urination classification unit 1400 may obtain classification data obtained by dividing urination sections and non-urination sections from the acoustic data using a pre-trained urination/non-urination classification model.
  • the urination/non-urination classification model may refer to a model trained using machine learning.
  • data indicating the urination/non-urination section obtained using precisely measured urination data during the urination process is labeled on the acoustic data obtained by recording the urination process. It can be implemented as an artificial neural network trained with a training data set. The structure and learning method of the urination/non-urination classification model will be described in detail later.
  • the urination/non-urination classification unit 1400 acquires classification values indicating whether urination/non-urination according to time in the urination process using the urination/non-urination classification model, and sends the classification values to the urination information extraction unit 1500 can provide
  • the urination information extractor 1500 may acquire urination information for a urination process.
  • the urination information extraction unit 1500 may generate urination data using the urine velocity values obtained from the above-described urine velocity prediction unit 1300 and the classification values obtained from the urination/non-urination classification unit 1400. and urination information may be extracted from the generated urination data.
  • the urination information extractor 1500 may generate candidate urine velocity data for the recorded urination process by using the obtained urine velocity values. Also, the urination information extraction unit 1500 may generate urination classification data for the recorded urination process by using the obtained classification values. The urination information extractor 1500 may acquire urination data based on the candidate urine velocity data and the urination classification data described above by using the urination data calculation model.
  • the urination data may be understood as a set of urine velocity values according to time for a recorded urination process.
  • the urination information extraction unit 1500 may extract urination information from the urination data.
  • the voiding information includes a maximum flow rate, an average flow rate, a voiding amount, a urination start and end time, a flow time, and a time to maximum flow in the urination process. rate) and urination time (with or without interruption time), and the like.
  • the above-described preprocessor 1100 , feature extraction unit 1200 , urine velocity prediction unit 1300 , urination/non-urination classification unit 1400 , and urination information extraction unit 1500 may refer to software programs.
  • the urination/non-urination classification model of 1400 and the urination data calculation model of the urination information extraction unit 1500 are in the memory unit (not shown) of the acoustic analysis system 1000 to be described later in the form of a plurality of functions or commands. It may be stored and executed by being loaded by the controller 1900 .
  • the input unit 1600 may receive a user input from a user.
  • the user input may be made in various forms, including a key input, a touch input, and a voice sound.
  • Examples of the input unit 1600 include a traditional keypad, keyboard, and mouse, as well as a touch sensor for sensing a user's touch, and various types of input means for sensing or receiving various types of user input.
  • the output unit 1700 may output urination information and provide it to the user.
  • the output unit 1700 is a comprehensive concept including a display that outputs an image, a speaker that outputs a sound, a haptic device that generates vibration, and other various types of output means.
  • the communication unit 1800 may communicate with an external device.
  • the sound analysis system 1000 may transmit/receive data to and from the recording device 2000 or the external server 3000 through the communication unit 1800 .
  • the acoustic analysis system 1000 may provide urination information to the recording device 2000 and/or the external server 3000 through the communication unit 1800 , and transmit the acoustic data to the recording device 2000 and/or the external server 3000 . It can be received from the external server (3000).
  • the controller 1900 may control the overall operation of the acoustic analysis system 1000 .
  • the control unit 1900 may include the preprocessor 1100 , the feature extraction unit 1200 , the urine velocity prediction unit 1300 , the urination/non-urination classification unit 1400 , and the urination information extraction unit 1500 related to By loading and executing the program, it is possible to obtain urination information from the sound data.
  • the controller 1900 may be implemented as a central processing unit (CPU) or a similar device according to hardware, software, or a combination thereof. In hardware, it may be provided in the form of an electronic circuit that performs a control function by processing an electrical signal, and in software, it may be provided in the form of a program or code for driving a hardware circuit.
  • the acoustic analysis system 1000 may further include a memory unit for storing various types of information. Various data may be temporarily or semi-permanently stored in the memory unit. Examples of the memory unit may include a hard disk (HDD), a solid state drive (SSD), a flash memory, a read-only memory (ROM), and a random access memory (RAM). have.
  • the memory unit may be provided in a form embedded in the sound analysis system 1000 or in a form detachable.
  • FIGS. 4 and 5 are diagrams illustrating a method of classifying sound data according to a window according to an embodiment of the present specification.
  • a method of dividing a window with respect to sound data will be described for convenience of explanation, but the window dividing method may be equally applied not only to sound data but also to data obtained by converting sound data to extract feature values.
  • the acoustic data may have a starting point and an ending point.
  • the length of the sound data may be determined as the time between the start point and the end point.
  • the length of the sound data may be determined according to the length at which the sound data is recorded.
  • the sound data may be divided into at least one window.
  • the sound data may be divided into at least one or more windows sequentially determined between the start point and the end point, and pieces of sound data corresponding to each window may be obtained.
  • the sequential determination of at least one window means that the plurality of windows are sequentially arranged from the start point to the end point of the sound data.
  • at least one window may be assigned a specific section between the start point and the end point of the sound data in time series.
  • the window may have a predetermined size. The size of the window may be determined according to the length of the sound data and the number of windows for dividing the sound data. Also, when the number of windows is plural, consecutive windows may overlap each other.
  • sound data may be divided into a plurality of windows having 0 seconds as a starting point, 120 seconds as an ending point, and a size of 2.5 seconds.
  • the kth window is 37.50 seconds to 40.00 seconds
  • the k+1th window is 37.55 seconds to 40.05 seconds
  • the k+2 window is 37.60 to 40.10 seconds
  • the k+3th window may correspond to 37.65 seconds to 40.15 seconds
  • the k+4th window may correspond to 37.70 seconds to 40.20 seconds.
  • the successive windows may overlap each other, and the overlapping degree may be determined according to the resolution of the sound data, the sliding degree of the successive windows, the window size, and the number of windows.
  • the resolution of the acoustic data may be 0.05 seconds
  • the sliding degree may be 0.05 seconds
  • the window size may be 2.5 seconds
  • the overlapping degree of successive windows may be 2.45 seconds.
  • the resolution, sliding degree, and window size of the sound data are not limited to the above-mentioned numerical values
  • the resolution is about 0.01 seconds to about 2.00 seconds
  • the sliding degree is about 0.01 seconds to about 5.00 seconds
  • the window size is about 0.05 It can be determined between seconds and about 5.00 seconds. More preferably, the resolution may be determined between about 0.05 seconds and about 1.00 seconds, the sliding degree between about 0.05 seconds and about 2.50 seconds, and the window size between about 0.10 seconds and about 3.00 seconds.
  • the sound data is divided into a plurality of windows having 0 seconds as a starting point, 120 seconds as an ending point, and having a size of 2.5 seconds.
  • successive windows do not overlap each other. it may not be Specifically, looking at a time interval of 37.5 seconds to 45 seconds, which is a part of the sound data, the k-th window is from 37.50 seconds to 40.00 seconds, the k+1th window is from 40.00 seconds to 42.50 seconds, and the k+2 window is from 42.50 seconds to 45.00 seconds.
  • accuracy of data may be lowered in a data merging process to be described later, but data processing speed may be reduced and data processing speed may be relatively fast.
  • the predicted urine velocity value divides the acoustic data into a plurality of windows because high accuracy is required. It may be desirable to improve
  • a case in which the acoustic data is divided into a plurality of windows so that the overlapping degree of the windows to be overlapped is low or the continuous windows are not overlapped is mainly described, but the technical spirit of the present specification is not limited thereto, and the process of predicting the yaw velocity
  • the sound data may be divided into a plurality of windows so that the overlapping degree of successive windows is the same for both the process of classifying the urination section and the non-urination section, and conversely, in both processes, the sound data is divided into a plurality of windows so that the continuous windows do not overlap. Of course, it can also be separated by a window.
  • FIG. 6 is a diagram illustrating a process of extracting a feature value from sound data according to an embodiment of the present specification.
  • the feature value is mainly described as being extracted from the image data of the spectrogram, but it goes without saying that extracting other types of feature values described above may also be included in the technical spirit of the present specification.
  • Acoustic data may generally include amplitude values over time.
  • the sound data may be converted into spectral data including magnitude values according to frequency through processing.
  • the spectral data uses a Fourier Transform (FT), a Fast Fourier Transform (FFT), a Discrete Fourier Transform (DFT), and a Short Time Fourier Transform (STFT).
  • FT Fourier Transform
  • FFT Fast Fourier Transform
  • DFT Discrete Fourier Transform
  • STFT Short Time Fourier Transform
  • the spectrogram image may be obtained using the above-described acoustic data and spectrum data.
  • the spectrogram image may be a Mel-spectrogram image to which Mel-scale is applied.
  • the feature extractor 1200 may extract data from the spectrogram image.
  • Data extraction may be understood as a process in which spectrogram image values corresponding to each of a plurality of windows dividing sound data are extracted.
  • FIG. 7 and 8 are diagrams illustrating a process of acquiring target data to be analyzed according to an embodiment of the present specification.
  • the target data may refer to a set of data generated by extracting a feature value from the converted sound data.
  • a plurality of pieces of target data may be generated from a spectrogram image of the sound data, and the target data may be understood as a set of a plurality of pieces of target data.
  • the number of target data that is, the number of pieces of target data included in the target data may be the same as the number of windows.
  • the target data when sound data is divided into first to m-th windows (m is a natural number greater than or equal to 2), the target data is a first to m-th engraving target corresponding to each of the first to m-th windows. It may contain data.
  • the target data when the sound data is divided into first to n-th windows (n is a natural number greater than or equal to 2), the target data may include first to n-th piece target data corresponding to each of the first to n-th windows. have.
  • the number of pieces of target data included in the target data may not be the same as the number of windows.
  • the target data may include a number of pieces of target data greater than the number of windows.
  • a classification method may be used.
  • the number of target data used in a urine velocity prediction model or a urination/non-urination classification model to be described later may be different from each other.
  • the number of target data used in the urine velocity prediction model may be greater than the number of target data used in the urination/non-urination classification model.
  • the target data used for the urine velocity prediction model and the target data used for the urination/non-urination classification model may be respectively generated from the spectrogram image.
  • the size of each piece of target data included in the target data used in the urinary velocity prediction model and the size of each piece of target data included in the target data used in the urination / non-urination classification model are the same, but the sizes used in each model are the same.
  • the total number of pieces of target data may be different.
  • the target data generated from the spectrogram image may be used for the urine velocity prediction model, and at least a portion may be used for the urination/non-urination classification model.
  • the entire first to mth slice target data generated from the spectrogram image is used for the yaw velocity prediction model, and the first to nth slice target data among the first to mth slice target data (n is 2 or more and , less than m) can be used for the voiding/non-voiding classification model.
  • the first to m-th engraving target data correspond to each of the first to m-th windows in which the acoustic data or spectrogram image data is divided so that successive windows overlap each other
  • the first to n-th engraving target data are the first to m-th windows.
  • the overlapping degree of the mth window may be smaller than the overlapping degree of successive windows in the yaw velocity prediction model, or may correspond to each of the n pieces of data that do not overlap each other.
  • the accuracy in the urine velocity prediction model is increased, and the data processing speed in the urination/non-urination classification model can be improved. have.
  • the number of pieces of target data used in the urine velocity prediction model or the urination/non-urination classification model may be the same.
  • the first to mth piece target data generated from the spectrogram image may be input to each of the urine velocity prediction model and the urination/non-urination classification model.
  • the shape of the slice target data used in the urine velocity prediction model (ex. data size, total number, etc.) and the shape of the slice target data used in the urination/non-urination classification model may be different. .
  • FIG. 9 is a diagram illustrating a process of acquiring yaw velocity data using a yaw velocity prediction model according to an embodiment of the present specification.
  • the yaw velocity prediction model may obtain first to mth fragment yaw velocity data by receiving first to mth slice target data.
  • the yaw velocity prediction model is a model trained using machine learning, and its algorithms include k-Nearest Neighbors, Linear Regression, Logistic Regression, and Support Vector Machine (SVM: Support). At least one of a vector machine, a decision tree, a random forest, or a neural network may be used.
  • a neural network one of Artificial Neural Network (ANN), Time Delay Neural Network (TDNN), Deep Neural Network (DNN), Convolution Neural Network (CNN), Recurrent Neural Network (RNN), or Long short-term Memory (LSTM). At least one may be selected.
  • ANN Artificial Neural Network
  • TDNN Time Delay Neural Network
  • DNN Deep Neural Network
  • CNN Convolution Neural Network
  • RNN Recurrent Neural Network
  • LSTM Long short-term Memory
  • the yaw velocity prediction model may include an input layer, a hidden layer, and an output layer.
  • the input layer may sequentially receive the first to mth fragment target data with an input size of z*p.
  • the input layer may have an input size of m*z*p and receive the first to mth piece target data at once.
  • the hidden layer may include a convolution layer, a pooling layer, and a fully-connected layer.
  • the output layer may output fragment yaw velocity data including yaw velocity values.
  • the fragment yaw velocity data output from the output layer may correspond to a window corresponding to the input target data.
  • the first fragment yaw velocity data may include yaw velocity values corresponding to the first window. have.
  • the urine velocity prediction model performs a function of outputting predicted urine velocity values, and unlike a urination/non-urination classification model to be described later, a step function, a sigmoid function, or a softmax function function) or an activation function or classifier.
  • FIG. 10 is a diagram illustrating a method of obtaining candidate yaw velocity data according to an embodiment of the present specification.
  • the urination information extraction unit 1500 may generate candidate urine velocity data by processing the piece of urine velocity data.
  • the candidate urine velocity data may include predicted urine velocity values according to time in the recorded urination process.
  • Each predicted yaw velocity value included in the candidate yaw velocity data may be obtained from a plurality of pieces of yaw velocity data.
  • the predicted yaw velocity value of a specific time interval in the candidate yaw velocity data may be obtained by using predicted yaw velocity values corresponding to the specific time interval in each of the entire piece of yaw velocity data (eg, using an average value or an intermediate value).
  • kth to k+3 piece yaw velocity data a part of the data output through the yaw velocity prediction model is referred to as kth to k+3 piece yaw velocity data, and the k th fragment yaw velocity data is in the k th window of 37.50 seconds to 40.00 seconds.
  • the k+1th fragment yaw velocity data corresponds to the k+1th window of 37.55 seconds to 40.05 seconds
  • the k+2th fragment yaw velocity data corresponds to the k+2th window from 37.60 seconds to 40.10 seconds
  • k+ When the three-piece yaw velocity data corresponds to the k+3th window of 37.65 seconds to 40.15 seconds, the predicted yaw velocity values corresponding to 37.65 seconds to 37.70 seconds among the candidate yaw velocity data for the acoustic data are from 37.65 seconds to 37.70 seconds in the k-th piece yaw velocity data.
  • the predicted yaw velocity value corresponding to the second (k,4), the predicted yaw velocity value corresponding to 37.65 seconds to 37.70 seconds in the k+1 piece yaw velocity data (k+1,3), and 37.65 seconds in the k+2 piece yaw velocity data A predicted yaw velocity value corresponding to 37.70 seconds in (k+2,2), a predicted yaw velocity value corresponding to 37.65 seconds to 37.70 seconds in the k+3 piece yaw velocity data (k+3,1), and the k th slice yaw velocity data It may be calculated as an average value of predicted yaw velocity values corresponding to 37.65 seconds to 37.70 seconds in each of the previous pieces of yaw velocity data.
  • the target data used in the yaw velocity prediction model is obtained based on acoustic data divided into a plurality of overlapping windows
  • the target data used in the yaw velocity prediction model includes a plurality of windows that do not overlap each other It may be obtained based on the sound data separated by .
  • the candidate yaw velocity data may be obtained by concatenating a data concatenation operation, which will be described later, for pieces of yaw velocity data that do not overlap each other in a time band.
  • the candidate yaw velocity data may be generated by a method different from the above-described method.
  • the candidate yaw velocity data may be generated using spectral data obtained by converting the acoustic data.
  • the acoustic data is divided into a plurality of non-overlapping time windows to obtain fragment spectrum data corresponding to each time window, a frequency band of the fragment spectrum data is divided into a plurality of frequency windows, and RMS in each frequency window Extracting a value as a feature value, obtaining a yaw velocity prediction value in a corresponding time window using the feature values in each frequency window, and obtaining the yaw velocity prediction values obtained in each of a plurality of time windows as candidate yaw velocity data .
  • FIG. 11 is a diagram illustrating a process of acquiring classification data using a urination/non-urination classification model according to an embodiment of the present specification.
  • the urination/non-urination classification model may obtain first to nth piece classification data by receiving first to nth piece target data.
  • a urination/non-urination classification model is a model trained using machine learning, and its algorithm uses at least one of k-nearest neighbors, linear regression, logistic regression, support vector machine, decision tree and random forest, or neural network. Available. Here, at least one of ANN, TDNN, DNN, CNN, RNN, and LSTM may be selected as the neural network.
  • the voiding/non-urination classification model may have the same structure as the aforementioned urine velocity prediction model.
  • the urination/non-urination classification model may include an input layer, a hidden layer, and an output layer.
  • the input layer may sequentially receive first to n-th piece target data with an input size of z*p.
  • the input layer may have an input size of n*z*p and receive the first to nth piece target data at once.
  • the hidden layer may include a convolutional layer, a pooling layer, and a fully connected layer.
  • the output layer may output fragment classification data including classification values.
  • the fragment classification data output from the output layer may correspond to a window corresponding to the input fragment target data.
  • the first piece of classification data is predictive classification corresponding to the first window It can contain values.
  • the first fragment classification data may include prediction classification values per unit time interval for a time corresponding to the window size from the start point of the first window, that is, the sound data, and the number is the size of the fragment target data described above.
  • Predicted classification values output through the urination/non-urination classification model may be values indicating a probability of a urination section or a non-urination section.
  • the predicted classification values have a value between 0 and 1, and the closer to 1, the higher the probability of the urination section, and the closer to 0, the higher the probability of the non-urination section.
  • the urination information extraction unit 1500 described later uses an activation function or a classifier such as a step function, a sigmoid function, or a softmax function to generate predicted classification values or a value generated by using the predicted classification values in the urination section. It can be changed to a value indicating a value or a value indicating a non-urination interval.
  • the predicted classification values output through the urination/non-urination classification model may be either a value indicating a urination interval (ex. 1) or a value indicating a non-urination interval (ex. 0).
  • the urination/non-urination classification model may use a softmax function or a softmax classifier, unlike the aforementioned urine velocity prediction model.
  • FIG. 12 is a diagram illustrating a method of acquiring urination classification data according to an embodiment of the present specification.
  • the urination information extraction unit 1500 may generate urination classification data by processing a plurality of pieces of classification data.
  • the urination information extraction unit 1500 may process a plurality of pieces of classification data to generate urination determination data.
  • the urination presence/absence determination data may include values regarding whether urination/non-urination according to time in the recorded urination process.
  • the urination/non-urination-related values included in the urination presence/absence determination data may be understood as a probability value of a urination section or a probability value of a non-urination section.
  • Each of the values included in the urination presence determination data may be obtained from a plurality of pieces of classification data.
  • a value corresponding to a specific window (or a specific time interval) in the urination presence or absence determination data uses prediction classification values corresponding to a specific window (or a specific time interval) in each of the entire fragment classification data (eg, an average value or a median value). value) can be obtained.
  • the kth to k+3 pieces that are a part of the data output through the urination/non-urination classification model The classification data may correspond to 37.50 seconds to 40.00 seconds, 38.75 seconds to 41.25 seconds, 40.00 seconds to 42.50 seconds, and 41.25 seconds to 43.75 seconds, respectively, and the value in a specific window of the urination determination data is specific in each of the slice classification data. It may be obtained as an average value or a median value of prediction classification values corresponding to the window.
  • the urination presence determination data may be used to determine the presence or absence of a urination section, which will be described later.
  • the urination information extraction unit 1500 may obtain urination classification data for the sound data by processing the urination presence/absence determination data.
  • the urination information extractor 1500 applies a step function, a sigmoid function, or a softmax function to the urination presence or absence determination data to indicate a urination section value (ex. 1)
  • urination classification data including values (ex. 0) indicating a non-urination interval may be generated.
  • FIG. 13 is a diagram illustrating a method of acquiring urination classification data according to another embodiment of the present specification.
  • the urination information extraction unit 1500 may generate urination classification data by processing the fragment classification data.
  • the urination classification data may include predicted classification values according to time in the recorded urination process.
  • Each of the prediction classification values included in the urination classification data may be obtained by concatenating a plurality of pieces of classification data.
  • the prediction classification value of a specific time interval in the urination classification data may be obtained as a prediction classification value corresponding to the specific time interval in the fragment classification data corresponding to the window including the specific time interval.
  • the predicted classification value may be a probability value related to a urination section or a non-urination section (eg, a value between 0 and 1, which may be understood to be a higher probability of a urination section as the value is closer to 1).
  • the predicted classification value may be a value indicating a urination interval (ex. 1) or a value indicating a non-urination interval (ex. 0).
  • kth to k+2 fragment classification data a part of the data output through the urination/non-urination classification model is referred to as kth to k+2 fragment classification data
  • the kth fragment classification data is from 37.50 seconds to 40.00 seconds.
  • the k+1th fragment classification data corresponds to the k+1th window of 40.00 seconds to 42.50 seconds
  • the k+2th fragment classification data corresponds to the k+2th window from 42.50 seconds to 45.00 seconds.
  • the prediction classification values corresponding to 37.50 seconds to 40.00 seconds among the urination classification data for the acoustic data are the prediction classification values (0,...,1,...,1) of the k-th piece classification data, 40.00 seconds
  • the prediction classification values corresponding to 42.50 seconds in are the prediction classification values (1,...,1,1...1) of the k+1th piece classification data
  • the prediction classification values corresponding to the 42.50 seconds to 45.00 seconds are It may be obtained as predicted classification values (1,0,0,1,...,0) of the k+2th piece of classification data.
  • the urination classification data may be generated by a method other than the above-described method.
  • the urine classification data may be generated using spectrum data obtained by converting sound data. Specifically, the acoustic data is divided into a plurality of time windows to obtain fragment spectrum data corresponding to each time window, a frequency band of the fragment spectrum data is divided into a plurality of frequency windows, and the RMS value in each frequency window is characterized It is extracted as a value, and it is determined whether the corresponding time window is a urination section or a non-urination section using the feature values in each frequency window, and the result can be obtained as urination classification data.
  • the urination classification data may be generated using sound data. Specifically, the zero-crossing rate is extracted as a feature value for the acoustic data, a urination section and a non-urination section are determined in the acoustic data based on the extracted feature value, and the result can be obtained as urination classification data. .
  • 14 and 15 are diagrams illustrating a method of acquiring urination data using candidate urine velocity data and voiding classification data according to an embodiment of the present specification.
  • the urination information extractor 1500 may calculate urination data by using the candidate urine velocity data and the urination classification data.
  • the urination data may be obtained in a form including time-dependent predicted values of urination for a recorded urination process.
  • urination data may be obtained by convolving candidate urine velocity data and voiding classification data.
  • the urination data may be obtained by multiplying each of the time-dependent urine velocity prediction values included in the candidate urine velocity data by each of the temporal classification prediction values included in the urination classification data.
  • the urination data may be expressed as a matrix of discrete values.
  • the urination information extraction unit 1500 may extract urination information by using the obtained urination data. For example, the urination information extraction unit 1500 obtains the largest value among the predicted urine velocity values included in the obtained urination data as the maximum urine velocity value, and calculates the voiding amount or total voiding amount for each section through discrete integration. can do. On the other hand, referring to FIG.
  • the urination information extraction unit 1500 may obtain a urination graph for the recorded urination process by processing the urination data (eg, smoothing, interpolation, etc.), and the maximum urine velocity value from the urination graph, It is possible to calculate the average urine velocity value, urination time, voiding amount for each section and total voiding amount.
  • the urination data may be obtained by processing the candidate urine velocity data and the urination classification data, respectively, and then performing an operation on the processed data.
  • the urination information extraction unit 1500 processes the candidate urine velocity data to generate a candidate urine velocity graph for the recorded urination process, and processes the urination classification data to urinate / for the recorded urination process.
  • a non-urination section graph is generated, and a urination graph for the recorded urination process can be obtained by performing a convolution operation on the generated candidate urine velocity graph and the urination/non-urination section graph.
  • the operation of smoothing or interpolation may be performed.
  • 16 and 17 are flowcharts illustrating a method for analyzing urination information according to an embodiment of the present specification.
  • the acoustic analysis method includes: acquiring acoustic data (S110), processing the acquired acoustic data (S120), estimating the urinary velocity (S130), and classifying a urination/non-urination section It may include a step (S140), a step of obtaining urination data (S150), and a step of outputting urination information (S160).
  • the acoustic analysis system 1000 may acquire acoustic data (S110).
  • the acoustic analysis system 1000 may acquire acoustic data recorded by a human urination process from the recording apparatus 2000 .
  • the acoustic analysis system 1000 may acquire arbitrary acoustic data from the outside, but the corresponding acoustic data may not be a recording of a urination process.
  • the acoustic analysis system 1000 may process the acquired acoustic data (S120).
  • the acoustic analysis system 1000 may process the acquired acoustic data using the preprocessor 1100 and the feature extraction unit 1200 .
  • the method of processing the sound data the detailed description thereof will be omitted as described above.
  • the acoustic analysis system 1000 may predict the yaw velocity (S130).
  • the acoustic analysis system 1000 obtains a piece urine velocity data group corresponding to each window in which the acoustic data is separated from the processed sound data using the urine velocity prediction unit 1300 , and uses the urination information extraction unit 1500 . to obtain candidate yaw velocity data from the fragment yaw velocity data group.
  • the candidate yaw velocity data may include values predicted by yaw velocity in the overall acoustic data. Since the process of generating the candidate yaw velocity data has been described above, specific details thereof will be omitted.
  • the acoustic analysis system 1000 may classify a urination section and a non-urination section ( S140 ).
  • the acoustic analysis system 1000 obtains a fragment classification data group corresponding to each window in which the acoustic data is separated from the acoustic data processed data using the urination/non-urination classification unit 1400, and a urination information extraction unit ( 1500) to obtain urination classification data from the fragment classification data group.
  • the urination classification data may include classification values for classifying a urination section and a non-urination section in the overall sound data. As for the process of generating the urination classification data, the above-described details will be omitted.
  • Predicting the above-described urine speed (S130) and classifying the urination/non-urination section (S140) may be performed in parallel or sequentially.
  • the acoustic analysis system 1000 may acquire urination data (S150).
  • the acoustic analysis system 1000 may acquire urination data from the candidate urine velocity data and the urination classification data by using the urination information extractor 1500 .
  • the urination data may be understood as including the urine velocity prediction values selected by the urination classification data from among the urine velocity prediction values included in the candidate urine velocity data in the acoustic data.
  • the process of generating urination data the above-described details will be omitted.
  • the acoustic analysis system 1000 may output urination information (S160).
  • the acoustic analysis system 1000 extracts urination information from urination data using the urination information extraction unit 1500 , and provides the extracted urination information to the user through the output unit 1700 or the recording device 2000 and/or It can be provided to the external server (3000).
  • the output urination information may include a voiding amount, a maximum urine velocity, an average urine velocity, and a urination time as shown in FIG. 3 .
  • the urination information analysis method may perform a judgment on the presence or absence of urination prior to the prediction of the urine velocity in order to improve the efficiency in the data processing process.
  • the method for analyzing urination information includes: acquiring acoustic data (S210), processing the acquired acoustic data (S220), classifying urination/non-urination sections (S230), presence or absence of a urination section It may include a step of determining (S240), a step of predicting a urine speed (S250), a step of obtaining urination data (S260), and a step of outputting urination information (S270).
  • the step of obtaining the sound data (S210), the step of processing the obtained sound data (S220), and the step of outputting the urination information (S270) have been described above in FIG. 16 , so the duplicated content will be omitted.
  • the acoustic analysis system 1000 may classify the urination/non-urination section prior to predicting the urinary velocity ( S230 ).
  • the acoustic analysis system 1000 may acquire urination classification data from the data processed by the acoustic data using the urination/non-urination classification unit 1400 and the urination information extraction unit 1500 .
  • the acoustic analysis system 1000 may determine whether there is a urination section (S240).
  • the acoustic analysis system 1000 may determine whether the acoustic data is data recorded with a urination process using the urination classification data obtained in the urination/non-urination classification step S230 .
  • the sound analysis system 1000 may determine whether a urination section exists between a start point and an end point of the sound data.
  • the acoustic analysis system 1000 may determine whether a urination process is reflected in the acoustic data based on the above-described urination presence or absence determination data.
  • a value included in the urination presence/absence determination data is referred to as a determination value.
  • the acoustic analysis system 1000 may determine that the urination process is reflected in the acoustic data when at least one of the determination values included in the urination presence determination data is greater than or equal to a threshold value.
  • the acoustic analysis system 1000 determines that the urination process is reflected in the acoustic data when the ratio of the judgment value equal to or greater than the threshold value among the judgment values included in the urination determination data is a certain ratio (ex. 5% to 50%) or more.
  • a threshold value for determining whether there is a urination section may be set in various ways. For example, the threshold value may be determined between 0.30 and 0.95. More preferably, the threshold value may be determined between 0.50 and 0.80.
  • the acoustic analysis system 1000 may determine whether a urination process is reflected in the acoustic data based on the urination classification data. Specifically, when the number of classification values indicating the urination section in the urination classification data is greater than or equal to a predetermined number, the acoustic analysis system 1000 may determine that the sound related to the urination process is reflected in the acoustic data.
  • the acoustic analysis system 1000 calculates a ratio of the number of classification values indicating a urination section to the number of classification values indicating a non-urination section in the urination classification data, and if the calculated ratio is greater than a certain ratio, the urination section It can be judged that there is
  • the acoustic analysis system 1000 may generate only urination determination data or both urination presence determination data and urination classification data according to the above-described determination method in step S240 of determining the presence or absence of a urination section.
  • the acoustic analysis system 1000 may enter the urination velocity prediction step S260 , and when it is determined that there is no urination section in the acoustic data, the acoustic analysis may be terminated. When it is determined that there is no urination section in the acoustic data, the acoustic analysis system 1000 may not generate urination classification data from the urination presence/absence determination data when determining whether there is a urination section using the urination presence/absence determination data.
  • the acoustic analysis system 1000 may predict the urine velocity (S250).
  • the acoustic analysis system 1000 obtains a piece urine velocity data group corresponding to each window in which the acoustic data is separated from the processed sound data using the urine velocity prediction unit 1300 , and uses the urination information extraction unit 1500 . to obtain candidate yaw velocity data from the fragment yaw velocity data group.
  • the candidate yaw velocity data may include values predicted from the overall acoustic data, and the process of generating the candidate yaw velocity data will be omitted as described above.
  • the processed acoustic data used in the urine velocity prediction unit 1300 may be different from the data used in the urination/non-urination section classification step S230 .
  • the data used by the urine velocity prediction unit 1300 is data corresponding to each window when the sound data is divided into m windows so that consecutive windows are overlapped, and in the urination/non-urination section classification step (S230) Data used is data corresponding to each window when sound data is divided into n windows so that consecutive windows do not overlap, and n may be smaller than m.
  • the acoustic analysis system 1000 may acquire urination data (S260).
  • the acoustic analysis system 1000 may acquire urination data by using the urination classification data obtained in the urination/non-urination section classification step S230 and the candidate urine velocity data obtained in the urine velocity prediction step S250 .
  • the urination information analysis method if the urination-related sound is not reflected in the sound data to be analyzed by determining the presence or absence of a urination section prior to performing the urine velocity prediction step (S250), it is necessary to analyze the data in advance. can be prevented in
  • FIG. 18 is a diagram illustrating a graph comparing the results of not using and using the urination/non-urination classification model according to an embodiment of the present specification.
  • the amount of urination may be excessively predicted compared to the case where the urination/non-urination classification model is used.
  • the urination/non-urination classification model was measured to be larger than the case in which the urination/non-urination classification model was not applied.
  • the urination amount differs by about two times between the case where the urination/non-urination classification model is applied and the case where the urination classification model is not applied.
  • the maximum urinary velocity may be overestimated than when the urination/non-urination classification model is used.
  • the maximum urinary velocity (Qmax) was measured to be greater when the voiding/non-urination classification model was not applied than when the urination/non-urination classification model was not applied.
  • the maximum urinary velocity value is a very important factor in diagnosing urination function, so it is very important not to measure the maximum urine velocity excessively.
  • voiding information such as the amount of voiding, the maximum urinary velocity, and the voiding time
  • it is absolutely essential to use a voiding/non-urination classification model.
  • 19 is a flowchart illustrating a process of learning a yaw velocity prediction model according to an embodiment of the present specification.
  • the urine velocity prediction model learning method includes the steps of collecting acoustic data in the urination process ( S310 ), processing the collected acoustic data to generate characteristic data ( S320 ), and a urine velocity value at a preset cycle in the urination process.
  • Measuring (S330), generating measured yaw velocity data using the measured yaw velocity value (S340), generating a learning data set by labeling the measured yaw velocity data in the feature data (S350), and a learning data set It may include generating a yaw velocity prediction model using (S360).
  • Each step is described below.
  • Each step of the yaw velocity prediction model learning method may be performed by a human or a separate processor.
  • acoustic data for the urination process may be collected (S310).
  • the acoustic data may be obtained by recording a human urination process.
  • acoustic data that does not include a human urination process may be collected in order to improve the performance of the urine velocity prediction model.
  • the above-described recording apparatus 2000 may be used to collect sound data.
  • Feature data may be generated from the acoustic data collected in the course of learning the yaw velocity prediction model (S320).
  • the feature data may refer to data including feature values extracted from the sound data.
  • the feature value is a spectrum time domain spectrum magnitude value, a frequency band spectrum magnitude value, a frequency band root mean square value, a spectrogram magnitude value, a Mel-spectrogram magnitude value, Bispectrum Score, Non-Gaussianity Score, Formants Frequencies, Log Energy , Zero Crossing Rate, Kurtosis, and Mel-frequency cepstral coefficient may be included.
  • the feature data may be divided into a plurality of windows.
  • the feature data may include a plurality of pieces of feature data corresponding to each of a plurality of windows continuously determined between a start point and an end point of the sound data or feature data.
  • the urine velocity value may be measured at a preset period for the urination process ( S330 ).
  • a urine velocity value in the process of urination may be measured using a scale.
  • the urine velocity value may be measured using a toilet with a built-in scale or a toilet mounted on the scale.
  • the amount of urination over time can be measured using the change over time of the weight measured by the scale, and from the data on the amount of urination over time A yaw velocity value over time can be measured.
  • the period in which the urine velocity value is measured or the period in which the amount of urination is measured may correspond to the resolution of the sound data.
  • the measured yaw velocity data may be generated using the yaw velocity value measured in the yaw velocity measurement step ( S330 ) ( S340 ).
  • the measured yaw velocity data may include yaw velocity values measured or calculated at a preset period.
  • the measured yaw velocity data may be divided into a plurality of windows.
  • the measured urine velocity data may include a plurality of pieces of measured urine velocity data corresponding to each of a plurality of windows continuously determined between a measurement start time and a measurement end time of the urination process.
  • the size of the window dividing the measured yaw velocity data may be the same as the size of the window dividing the above-described characteristic data.
  • the number of pieces of measured yaw velocity data included in the measured yaw velocity data may be the same as the number of pieces of measured yaw velocity data included in the aforementioned feature data.
  • Steps (S310, S320) of collecting the above-described acoustic data and generating characteristic data from the collected acoustic data are steps of measuring a urine velocity value in the urination process and generating actual measured urine velocity data using the measured urine velocity value (S330, S340) ), it may be performed at a previous time point or a later time point based on it, or it may be performed in parallel.
  • the measured yaw velocity data may be labeled with the feature data to generate a training data set (S350).
  • the feature data and the measured yaw velocity data may be labeled with data corresponding to each window section.
  • the first piece characteristic data included in the feature data and corresponding to the first window section is included in the measured yaw velocity data, and is labeled with the first piece measured yaw velocity data corresponding to the first window section to form the first learning data can be created.
  • the yaw velocity prediction model may be generated using the aforementioned training data set (S360).
  • the yaw velocity prediction model may be trained using a training data set.
  • the learned yaw velocity prediction model may be used to obtain the fragment yaw velocity data using the above-described fragment target data.
  • 20 is a flowchart illustrating a process of training a urination/non-urination classification model according to an embodiment of the present specification.
  • the urination/non-urination classification model learning method includes the steps of collecting acoustic data in the urination process (S410), processing the collected acoustic data to generate characteristic data (S420), and in the urination process in advance. Determining whether urination or non-urination in a set cycle (S430), generating urination/non-urination determination data (S440), labeling the urination/non-urination determination data in the feature data to generate a learning data set It may include step S450 and generating a urination/non-urination classification model using the training data set (S460).
  • Each step is described below.
  • Each step of the urination/non-urination classification model training method may be performed by a human or a processor.
  • the step (S410) of collecting the sound data and the step (S420) of generating the characteristic data by processing the collected sound data are the same as the steps (S310) and (S320) described in FIG. 19 , and specific details are omitted. let it do
  • a urination or non-urination section may be determined with respect to the urination process using sound data recorded during the urination process. Specifically, the intensity in each time section in the sound data recorded with the urination process may be compared with a preset value to determine the urination section or the non-urination section.
  • a urination section and a non-urination section may be determined in the urination process by using the voiding amount data obtained by measuring the urination amount over time in the urination process. In measuring the amount of urination for the urination process, the above-described method for measuring the amount of urination may be used.
  • Urination/non-urination determination data may be generated using the urination section and the non-urination section determined in the urination or non-urination determination step ( S430 ) ( S440 ).
  • the urination/non-urination determination data may include determination values determined at a preset period in the time domain.
  • the urination/non-urination determination data may be divided into a plurality of windows.
  • the urination/non-urination determination data may include a plurality of pieces of determination data corresponding to each of a plurality of windows continuously determined between a measurement start time and a measurement end time of the urination process.
  • the size of the window dividing the urination/non-urination determination data may be the same as the size of the window dividing the characteristic data generated in step S420 .
  • the number of pieces of piece determination data included in the urination/non-urination determination data may be the same as the number of pieces of piece characteristic data included in the feature data generated in step S420 .
  • Steps (S410, S420) of collecting the above-described acoustic data and generating characteristic data from the collected acoustic data is a step of determining whether urination or non-urination in the urination process and generating judgment data using the judgment value (S430) , S440) may be performed at an earlier time or a later time, or may be performed in parallel.
  • the urination/non-urination determination data may be labeled with the feature data to generate a training data set (S450).
  • the feature data and the urination/non-urination determination data may be labeled with data corresponding to each window section.
  • the first piece of feature data included in the feature data and corresponding to the first window section is included in the urination/non-urination determination data, and is labeled with the first piece of determination data corresponding to the first window section.
  • 1 Learning data may be generated.
  • the urination/non-urination classification model may be generated using the above-described training data set (S460). Specifically, the urination/non-urination classification model may be trained using a training data set. The learned urination/non-urination classification model may be used to obtain fragment classification data using the above-described fragment target data.
  • the urination data or urination information corrected by applying the data correction method may be urination data or urination information obtained by other methods as well as when obtained by the method of obtaining urination information with high accuracy described through FIGS. 1 to 20. make it clear in advance that
  • the following mainly describes the case where the urination data or urination information to be corrected is a predicted value regarding the amount of urination, but the technical spirit of the present specification is not limited thereto, and the above-described maximum urine velocity, average urine velocity, and error time , or a case of correcting a predicted value for urination time may be similarly applied.
  • 21 is a diagram illustrating measured data and predicted data according to an embodiment of the present specification.
  • the actual data may include measurement values of the amount of urine measured during the urination process of any one individual (eg, a general public, a patient, or a subject, etc.) for a certain period of time.
  • the actual measurement data may include a measurement value of the amount of urine measured during a person's urination process for one day.
  • the actual measurement data may include a measurement value of a voiding amount measured in a urination process of a person for a plurality of days.
  • the urine output measurement value may be obtained in various ways.
  • the urine output measurement value may be obtained by using a measuring device such as a measuring container such as a paper cup or a graduated cup, or a portable, household urine velocity measuring device or a urine velocity measuring device used in a medical institution, a scale, or the like.
  • a measuring device such as a measuring container such as a paper cup or a graduated cup, or a portable, household urine velocity measuring device or a urine velocity measuring device used in a medical institution, a scale, or the like.
  • the number of measurement values of the amount of urination included in the actual data may be the same as the number of times of urination of the subject.
  • the prediction data may include voiding amount prediction values calculated in the urination process of any one individual for a certain period of time.
  • the prediction data may include a urination amount prediction value obtained by recording a urination process of a person during one day and using the corresponding acoustic data.
  • the prediction data may include a urination amount prediction value obtained by recording a urination process of a person for a plurality of days and using sound data according thereto.
  • the urination amount predicted value may be obtained in various ways.
  • the predicted value of urination may refer to a value derived from a process of estimating a urine velocity or an amount of urination by analyzing sound data obtained by recording a human urination process by any method.
  • the urination amount predicted value may be obtained using the aforementioned acoustic analysis system 1000 .
  • the urination amount predicted value is calculated from the candidate urine velocity data obtained through the urine velocity predictor 1300 and the urination information extraction unit 1500 or the urine velocity predictor 1300, the urination / non-urination classification unit 1400, and It may be calculated from urination data obtained through the urination information extraction unit 1500 .
  • the number of urination amount prediction values included in the prediction data may be the same as the number of urinations of the subject.
  • the measured data (signal ⁇ ) and predicted data (marker ⁇ ) for a person's urination process for an arbitrary period are graphically shown, and the prediction The data has a relatively large value when compared with the actual data.
  • the measurement values for the amount of urination for the urination process from January 29 to February 1 are within about 100 mL to about 500 mL
  • the predicted values for the amount of urine for the urination process from February 2 to February 5 are from about 300 mL to about 1000 mL.
  • the urination amount when the urination amount is predicted using the acoustic data, it may have a value greater than the actually measured urination amount, and this needs to be corrected.
  • the predicted urination amount has a larger value than that of the actual measurement is mainly described, but the technical spirit of the present specification is not limited thereto. can be applied similarly to
  • 22 is a diagram illustrating actual measurement data, prediction data, and corrected prediction data according to an embodiment of the present specification.
  • corrected prediction data (marked ⁇ ) obtained by correcting the prediction data is displayed in the graph shown in FIG. 21 .
  • corrected predicted values obtained by scaling the urination amount predicted values from February 2 to February 5 are displayed, and the corrected predicted values have a value within about 100 mL to about 400 mL.
  • a person's urination amount is proportional to the size of the bladder, and even in different urination processes, the voiding amount value may have a value within a certain range.
  • the predicted data for the human urination process may be corrected by using the actual data on the human urination process. For example, when the urination amount measurement values of the actual data have a first range and the urination amount prediction values of the prediction data have a second range, the urination amount prediction values of the prediction data are set such that the second range is the same as or similar to the first range. can be corrected.
  • the human urination amount may be maintained within a range of its value within a certain period.
  • a person's urination amount can be determined according to the size of the person's bladder, the range of a person's urination value cannot be maintained unless there are circumstances such as a change in physical characteristics, treatment, or the occurrence of a disease.
  • data at one time point may be corrected based on the data at one time point.
  • current or future forecast data may be corrected using past measured data
  • current or future forecast data may be corrected using past measured data and predicted data, and vice versa. It is possible.
  • urination-related data may be collected again.
  • 23 is a flowchart illustrating a data correction method according to an embodiment of the present specification.
  • the data correction method includes the steps of obtaining measured data ( S510 ), obtaining predicted data ( S520 ), obtaining a compensation value using the measured data and the predicted data ( S530 ), and predicting a target It may include obtaining data (S540), and correcting the target prediction data using the correction value (S550).
  • At least a part of each step in the data correction method may be performed through the control unit 1900 of the aforementioned acoustic analysis system 1000 or a separate processor.
  • the data compensator may be provided in the form of an electronic circuit that performs a control function by processing an electrical signal in hardware, or may be provided in the form of a program or code that drives the hardware circuit in software.
  • the data corrector may receive data from the outside and perform a data correction method using the received data or on the received data.
  • actual measurement data may be obtained (S510).
  • the measured data refers to data obtained by measuring the amount of urination during the urination process of one individual.
  • the actual measurement data may include a measurement value of the amount of urination measured for each urination process of one person.
  • a group of measured data for a plurality of entities may be acquired.
  • the above-described measured data group may include first to s-th measured data (s is a natural number equal to or greater than 2) for the first to s-th entities.
  • Each actual measurement data may include at least one urination amount measurement value related to the urination process of the corresponding individual.
  • acquiring the actual data group may be understood as collecting measurement values of the amount of urine measured in the urination process of a plurality of people.
  • prediction data may be obtained (S520).
  • the prediction data refers to data that predicts the amount of urination in the urination process of any one individual.
  • the prediction data may include a urination amount predicted value calculated using sound data recorded in the urination process of one person.
  • prediction data groups for a plurality of entities may be obtained.
  • the prediction data group may include first to t-th prediction data (t is a natural number equal to or greater than 2, which may be the same as or different from s) for the first to t-th individuals.
  • Each prediction data may include at least one urination amount prediction value related to the urination process of the corresponding individual.
  • acquiring the prediction data group may be understood as collecting the urination amount prediction values calculated in the urination process of a plurality of people.
  • the step of obtaining the measured data ( S510 ) and the step of obtaining the prediction data ( S520 ) may be performed sequentially or in parallel.
  • a compensation value may be obtained using measured data and predicted data ( S530 ).
  • the compensation value may be understood as a value for correcting the collected prediction data or the prediction data to be collected later.
  • the compensation value may be calculated by applying a data analysis technique to the measured data acquired in the actual data acquisition step S510 and the predicted data acquired in the predicted data acquisition step S520 .
  • the compensation value may be calculated using a descriptive statistical analysis technique.
  • the compensation value is a representative value of the actual measurement data (eg, the average value, median value, mode value, variance value, and/or standard deviation value of at least some of the measurement values of urination) and a representative value of the prediction data (ex. It may be calculated by comparing an average value, a median value, a mode value, a variance value, and/or a standard deviation value for at least some of the voiding amount predicted values.
  • the compensation value may be calculated using a regression analysis technique. Specifically, when a value obtained from measured data is used as either an independent variable or a dependent variable, and a value obtained from prediction data is used as the other of the independent variable or dependent variable, a regression coefficient calculated through a regression analysis technique coefficient) can be obtained as a compensation value.
  • simple liner regression, multi linear regression, logistic regression, ridge regression, lasso regression, and multinomial regression are regression analysis. Polynomial regression or non-linear regression may be selected.
  • the reward value may be obtained using machine learning other than multi-dimensional scaling (MDS), principal component analysis (PCA), or regression analysis in addition to the above-described data analysis technique.
  • MDS multi-dimensional scaling
  • PCA principal component analysis
  • regression analysis in addition to the above-described data analysis technique.
  • the compensation value may be calculated using the measured data group and the predicted data group.
  • the compensation value may be calculated using the measured data and the predicted data for a single entity, or may be calculated using the measured data group and the predicted data group for a plurality of entities, that is, several people. A specific method of calculating the compensation value will be described later.
  • target prediction data may be obtained (S540).
  • the target prediction data may refer to data to be corrected using the above-described compensation value.
  • the target prediction data may refer to a urination amount predicted value calculated from acoustic data acquired before or after the data collection period in which the predicted data used to calculate the compensation value or the actual data is acquired.
  • prediction data or urination amount prediction values used to obtain a compensation value may be target prediction data.
  • the target prediction data to be corrected may be prediction data for an arbitrary entity.
  • the predicted data group and the actually measured data group used to calculate the correction value include at least the first measured data and the first predicted data for the first entity, and the second measured data and the second predicted data for the second entity.
  • the data to be corrected may include prediction data or measurement values of voiding volume for the first and second individuals as well as for a third individual different from the first and second individuals.
  • the above-described correction value is not limited to the prediction data of a specific entity involved in calculating the correction value, but may also be used to correct the prediction data of an entity not involved in calculating the correction value.
  • the target prediction data may be corrected using the correction value ( S550 ).
  • a corrected urination amount predicted value may be generated by multiplying the target voiding amount predicted value and the corrected value of the target predicted data.
  • 24 is a diagram illustrating a data correction process according to an embodiment of the present specification.
  • 25 is a graph illustrating a relationship between measured data and predicted data before data correction according to an embodiment of the present specification.
  • 26 is a graph illustrating a relationship between measured data and predicted data after data correction according to an embodiment of the present specification.
  • the urination amount prediction for the subject may be performed using the data collected during the data collection period.
  • a group of measured data may be acquired.
  • the measured data group is data for a plurality of entities, and may mean a set of measured data for each entity.
  • the measured data group may include first to s-th measured data for the first to s-th objects.
  • a group of acoustic data may be acquired in the data collection period.
  • the sound data group is data for a plurality of entities, and may mean a set of sound data for each entity.
  • the sound data group may include first to t-th sound data for the first to t-th objects.
  • Acoustic data for each individual may be understood to be obtained by recording a urination process during a data collection period of the subject, and may refer to data obtained by recording a single or multiple urination processes.
  • a group of prediction data may be obtained in the data collection period.
  • the prediction data group is data for a plurality of entities, and may mean a set of prediction data for each entity.
  • the prediction data group may include first to t-th prediction data for the first to t-th entities.
  • the prediction data group may be calculated from the acoustic data group.
  • the first prediction data for the first object may be calculated from the first sound data for the first object.
  • the first prediction data may include at least one urination amount prediction value, and the number of urination amount prediction values included in the first prediction data may correspond to the number of urination processes reflected in the first acoustic data.
  • the first to t-th entities related to the prediction data group may include first to s-th entities related to the actual measurement data group.
  • the data collection period may be a short period of time or days, or a long period of months or years.
  • the data collection period may be 6 hours, 12 hours, 18 hours, 1 day, 4 days, 7 days, 10 days, 14 days, 1 month, 3 months, 6 months, or 1 year.
  • a data set group Prior to calculating the correction value, a data set group may be generated from the measured data group and the predicted data group.
  • the data set group may include a plurality of data sets.
  • the data set group may include a data set for each of a plurality of entities.
  • the data set may be generated from the measured data in the measured data group and the predicted data in the predicted data group.
  • the data set may include a value related to the measurement of the amount of urination and a value related to the prediction of the amount of urination.
  • the first data set included in the data set group is generated from the first measured data and the first predicted data, and specifically, the representative measured value and the first prediction that are representative values of the urination amount measured values included in the first measured data It may be generated by associating a representative predicted value that is a representative value of the voiding amount predicted values included in the data.
  • the representative measured value may be a sum, average, median, mode, variance, or standard deviation value of the urination amount measured values included in the actual data
  • the representative predicted value is the voiding amount predicted value included in the predicted data. It may be a sum of these values, a mean value, a median value, a mode value, a variance value, or a standard deviation value.
  • the data set may be understood as a concept in which at least some of the measured data and the predicted data for one individual are expressed as one set. Accordingly, one data set may be generated for one entity, or a plurality of data sets may be generated.
  • the data set when a data set group is generated from the actual data group and the predicted data group collected for a plurality of subjects during one day, the data set includes the average measured value for one day and the average predicted value for one day.
  • a group can contain one data set per entity.
  • a group of data sets is generated from a group of ground truth data and a group of predicted data collected for a plurality of subjects over 4 days, and the data set includes the average measured value over the day and the average predicted value over the day per subject.
  • Four data sets can be created.
  • the process of generating a data set is not limited to the above-described example, and a data set may be generated for each of a plurality of urination processes occurring on the same day, and one data set for all urination processes occurring during a plurality of days for each individual. Three may be created.
  • a data set can be expressed in various forms. For example, as shown in FIGS. 25 and 26 , the data set may be displayed in the form of coordinates on a graph.
  • a calibration value may be calculated from a group of data sets using a calibration process.
  • the data set group may include a data set in which the average of the voiding amount predicted values for each individual is an independent variable and the average of the urination amount measured values for each individual is a dependent variable, and the data set group is used.
  • a function representing the relationship between the urination amount predicted value and the urination amount measured value may be obtained.
  • the obtained function may be a linear function, and a slope thereof may be obtained as a correction value.
  • the slope since the predicted value of urination has a larger value than the measured value of urination, the slope may have a value between 0 and 1.
  • Target prediction data for the target object may be corrected using the calculated correction value.
  • the target entity may refer to an entity for which urination information is to be acquired.
  • the target prediction data may refer to prediction data regarding the urination process of the target object. For example, a first target predicted value may be calculated from acoustic data obtained by recording the urination process of the first target object, and the first corrected data may be obtained by applying a correction value to the first target predicted value. can Similarly, a second target predicted value may be calculated from the acoustic data obtained by recording the urination process of the second target, and the second corrected data may be obtained by applying a correction value to the second predicted target value. .
  • the target prediction data may be acquired after the data collection period, and the prediction data acquired during the data collection period may also be the target prediction data.
  • the target prediction data can be corrected in a range similar to the measured value.
  • the voiding amount predicted value has a larger value than the voiding amount measured values and is far from the direct proportional baseline, whereas in FIG. 26 , the data after correction In the set group, most data sets can be located near the direct proportional baseline.
  • actual measurement data may be collected for the target entity during the data collection period, statistical values of the collected actual measurement data may be calculated, and prediction data of the target entity may be corrected based on the calculated statistical values.
  • the statistical value of the actually measured data may be at least one of a mode value, a median value, an average value, a variance value, or a standard deviation value of measurement values of the amount of urination measured in the urination process of the subject during the data collection period.
  • the predicted data for the target object may be corrected by correcting the voiding amount predicted values so that the statistical values of the voiding amount prediction values included in the prediction data for the target object correspond to the statistical values of the actually measured data for the target object.
  • the prediction data for the target object to be corrected may be calculated from acoustic data about the urination process of the target object obtained before the data collection period, during the data collection period, or after the data collection period.
  • the correction of the predicted data for the urination process may be performed using the measured data for the urination process or the measured data and the predicted data for the urination process.
  • the corrected prediction data can secure a certain level of accuracy while the correction value is easily calculated. It can be said that it is very useful in that it can be used.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Theoretical Computer Science (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Physiology (AREA)
  • Signal Processing (AREA)
  • Urology & Nephrology (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

According to one embodiment of the present specification, provided is a method for acquiring urination information with high accuracy, the method comprising: dividing acoustic data into a plurality of windows; acquiring, from the acoustic data, fragment target data corresponding to each window; using the acquired fragment target data to acquire fragment uroflow data and fragment classification data for dividing a urination section or a non-urination section; and acquiring urination data by using the acquired fragment classification data and fragment uroflow data.

Description

정확도 높은 배뇨 정보 획득 방법How to obtain high-accuracy urination information
본 명세서는 정확도 높은 배뇨 정보를 획득하는 방법에 관한 것으로, 보다 상세하게는 배뇨/비-배뇨 구간 분류 모델 및 요속 예측 모델을 이용하여 녹음된 배뇨에 관한 음향 데이터로부터 배뇨 정보를 추출하는 방법에 관한 것이다.The present specification relates to a method of obtaining urination information with high accuracy, and more particularly, to a method of extracting urination information from sound data related to urination recorded using a urination/non-urination section classification model and a urine velocity prediction model will be.
사람의 신체로부터 발생하는 소리는 그 사람의 건강 상태나 질병 유무를 확인함에 있어서 중요한 정보로 사용되어 왔다. 특히, 사람의 배뇨 과정에서 발생하는 소리는 그 사람의 배뇨 기능을 진단하는 데에 주요한 정보를 포함할 수 있어, 배뇨 소리를 분석하여 배뇨 정보를 얻는 방법에 대한 연구가 지속적으로 진행되고 있다. 구체적으로, 사람의 배뇨 과정을 녹음하여 획득되는 음향 데이터를 분석하여 그 사람의 배뇨 속도나 배뇨량을 예측할 수 있다.Sound generated from a person's body has been used as important information in confirming the person's health status or disease. In particular, since the sound generated during the urination process of a person may include important information for diagnosing the person's urination function, research on a method of obtaining urination information by analyzing the urination sound is continuously being conducted. Specifically, the urination rate or amount of urination of the person may be predicted by analyzing the acoustic data obtained by recording the urination process of the person.
한편, 사람의 배뇨 과정에서 발생하는 소리는 배뇨에 관한 소리 외에도 주변 환경으로 인해 발생하는 다양한 소리를 포함할 수 있다. 주변 환경에 의한 소리는 배뇨 과정 중 배뇨 구간이나 비-배뇨 구간에 포함될 수 있고, 특히 비-배뇨 구간에 주변 환경에 의한 소리가 포함되어 음향 데이터에 반영되는 경우 분석 결과가 정확하지 않게 되는 문제점이 있었다.Meanwhile, the sound generated during the urination process of a person may include various sounds generated by the surrounding environment in addition to the sound related to urination. The sound caused by the surrounding environment may be included in the urination section or the non-urination section during the urination process. there was.
따라서, 보다 정확도 높은 배뇨 정보를 획득하기 위해서는 비-배뇨 구간에 주변 환경에 의한 소리가 포함되는 경우를 고려하여 배뇨 과정에 대한 음향 데이터를 분석하는 방법이 요구된다.Therefore, in order to obtain more accurate urination information, a method of analyzing sound data for a urination process is required in consideration of a case in which a sound from the surrounding environment is included in a non-urination section.
본 명세서에서 해결하고자 하는 일 과제는, 사람의 배뇨 과정을 녹음하여 획득되는 음향 데이터로부터 정확도 높은 배뇨 정보를 획득하는 배뇨 정보 획득 방법을 제공하는 것이다.An object to be solved in the present specification is to provide a method for obtaining urination information for obtaining urination information with high accuracy from acoustic data obtained by recording a human urination process.
본 명세서에서 해결하고자 하는 일 과제는, 배뇨 과정을 배뇨 구간 및 비-배뇨 구간으로 구분하는 모델 및 배뇨 과정에서 요속을 예측하는 모델을 이용하여 배뇨 정보를 획득하는 방법을 제공하는 것이다.An object to be solved in the present specification is to provide a method for acquiring urination information using a model for dividing a urination process into a urination section and a non-urination section and a model for predicting a urine velocity in the urination process.
본 명세서에서 해결하고자 하는 일 과제는, 수집된 음향 데이터에 대해 배뇨 과정 유무를 먼저 판단하고 요속 예측을 수행하는 방법을 제공하는 것이다. An object to be solved in the present specification is to provide a method of first determining whether a urination process exists with respect to the collected acoustic data and then performing a urine velocity prediction.
본 명세서에서 해결하고자 하는 과제가 상술한 과제로 제한되는 것은 아니며, 언급되지 아니한 과제들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The problem to be solved in this specification is not limited to the above-mentioned problems, and the problems not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the present specification and the accompanying drawings. .
본 명세서의 일 실시예에 따르면, 정확도(accuracy) 높은 배뇨 정보를 획득하는 방법에 있어서, 음향 데이터를 획득하는 단계 -상기 음향 데이터는 시작 지점 및 종료 지점을 가짐-; 상기 음향 데이터로부터 m개의 윈도우(window)에 대응하는 제1 내지 제m 조각 대상 데이터를 획득하는 단계 -상기 m개의 윈도우는 각각 미리 정해진 시간 구간을 가지며, 상기 시작 지점 및 상기 종료 지점 사이에서 연속적으로 정해지고 상기 m 개의 윈도우 중 연속되는 윈도우는 서로 일부가 중첩되고, 상기 m은 2 이상의 자연수임-; 상기 제1 내지 제m 조각 대상 데이터를 미리 학습된 배뇨/비-배뇨 분류 모델에 입력하여 제1 내지 제m 조각 분류 데이터를 획득하는 단계 -상기 배뇨/비-배뇨 분류 모델은 제1 데이터 행렬을 입력 받아 배뇨 구간 또는 비-배뇨 구간을 구분하기 위한 값을 적어도 하나 이상 포함하는 데이터를 출력하도록 학습됨-; 상기 음향 데이터로부터 n개의 윈도우에 대응하는 제1 내지 제n 조각 대상 데이터를 획득하는 단계 -상기 n개의 윈도우는 각각 미리 정해진 시간 구간을 가지며, 상기 시작 지점 및 상기 종료 지점 사이에서 연속적으로 정해지되 상기 n개의 윈도우 중 연속되는 윈도우는 서로 일부가 중첩되고, 상기 n은 2 이상 상기 m 이하의 자연수임-; 상기 제1 내지 제n 조각 대상 데이터를 미리 학습된 요속 예측 모델에 입력하여 제1 내지 제n 조각 요속 데이터를 획득하는 단계 -상기 요속 예측 모델은 제2 데이터 행렬을 입력 받아 요속에 관한 값을 적어도 하나 이상 포함하는 데이터를 출력하도록 학습됨-; 및 적어도 상기 제1 내지 제m 조각 분류 데이터 및 상기 제1 내지 제n 조각 요속 데이터를 이용하여 배뇨 데이터를 획득하는 단계;를 포함하는, 배뇨 정보 획득 방법이 제공될 수 있다.According to an embodiment of the present specification, there is provided a method for obtaining urination information with high accuracy, the method comprising: obtaining sound data, the sound data having a start point and an end point; Acquiring first to mth engraving target data corresponding to m windows from the sound data - Each of the m windows has a predetermined time interval, and continuously between the start point and the end point is determined and consecutive windows among the m windows partially overlap each other, and m is a natural number equal to or greater than 2; Inputting the first to mth fragment target data into a pre-trained urination/non-urination classification model to obtain first to mth fragment classification data - The urination/non-urination classification model forms a first data matrix learning to receive input and output data including at least one value for classifying a urination section or a non-urination section; Acquiring first to n-th engraving target data corresponding to n windows from the sound data - The n windows each have a predetermined time interval, and are continuously determined between the start point and the end point. consecutive windows among the n windows partially overlap each other, and n is a natural number of 2 or more and m or less; Obtaining the first to n-th piece yaw velocity data by inputting the first to n-th piece target data into a pre-trained yaw velocity prediction model - The yaw velocity prediction model receives a second data matrix and at least a value related to the yaw velocity learned to output data containing one or more; and obtaining urination data using at least the first to m-th piece classification data and the first to n-th piece urine velocity data.
본 명세서의 다른 실시예에 따르면, 정확도(accuracy) 높은 배뇨 정보를 획득하는 방법에 있어서, 외부 기기를 통해 배뇨 과정을 녹음하여 획득된 음향 신호를 샘플링(sampling)하여 음향 데이터를 획득하는 단계 -상기 음향 데이터는 시작 지점 및 종료 지점을 가짐-; 상기 음향 데이터로부터 제1 내지 제n 윈도우(window)에 대응하는 제1 내지 제n 조각 대상 데이터를 획득하는 단계 -상기 제1 내지 제n 윈도우는 각각 미리 정해진 시간 구간을 가지며, 상기 시작 지점 및 상기 종료 지점 사이에서 연속적으로 정해지고, 상기 n은 2 이상의 자연수임-; 상기 제1 내지 제n 조각 대상 데이터 중 적어도 일부를 미리 학습된 배뇨/비-배뇨 분류 모델에 입력하여 제1 내지 제m 조각 분류 데이터를 획득하는 단계 -상기 배뇨/비-배뇨 분류 모델은 제1 데이터 행렬을 입력 받아 배뇨 구간 또는 비-배뇨 구간을 구분하기 위한 값을 적어도 하나 이상 포함하는 데이터를 출력하도록 학습되고, 상기 m은 2 이상 상기 n 이하의 자연수임-; 상기 제1 내지 제n 조각 대상 데이터를 미리 학습된 요속 예측 모델에 입력하여 제1 내지 제n 조각 요속 데이터를 획득하는 단계 -상기 요속 예측 모델은 제2 데이터 행렬을 입력 받아 요속에 관한 값을 적어도 하나 이상 포함하는 데이터를 출력하도록 학습됨-; 및 적어도 상기 제1 내지 제m 조각 분류 데이터 및 상기 제1 내지 제n 조각 요속 데이터를 이용하여 배뇨 데이터를 획득하는 단계;를 포함하는, 배뇨 정보 획득 방법이 제공될 수 있다.According to another embodiment of the present specification, in a method of obtaining urination information with high accuracy, the step of acquiring sound data by sampling an acoustic signal obtained by recording a urination process through an external device -The above acoustic data has a start point and an end point; Acquiring first to n-th engraving target data corresponding to first to n-th windows from the sound data - The first to n-th windows each have a predetermined time interval, the starting point and the determined continuously between the end points, wherein n is a natural number greater than or equal to 2; Inputting at least a portion of the first to n-th piece target data into a pre-trained urination/non-urination classification model to obtain first to m-th piece classification data - The urination/non-urination classification model is a first receiving a data matrix and learning to output data including at least one value for classifying a urination section or a non-urination section, wherein m is a natural number greater than or equal to 2 and less than or equal to n; Obtaining the first to n-th piece yaw velocity data by inputting the first to n-th piece target data into a pre-trained yaw velocity prediction model - The yaw velocity prediction model receives a second data matrix and at least a value related to the yaw velocity learned to output data containing one or more; and obtaining urination data using at least the first to m-th piece classification data and the first to n-th piece urine velocity data.
본 명세서의 과제의 해결 수단이 상술한 해결 수단들로 제한되는 것은 아니며, 언급되지 아니한 해결 수단들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Solutions of the problems of the present specification are not limited to the above-described solutions, and solutions not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the present specification and the accompanying drawings. will be able
본 명세서의 일 예에 의하면, 배뇨 과정을 배뇨 구간 및 비-배뇨 구간으로 분류한 결과 및 배뇨 과정에서 요속을 예측한 결과를 함께 이용함으로써 배뇨 과정에 대해 정확도 높은 요속 예측 결과를 획득할 수 있다According to an example of the present specification, by using the result of classifying the urination process into a urination section and a non-urination section and a result of predicting the urine speed in the urination process together, it is possible to obtain a highly accurate urine velocity prediction result for the urination process.
본 명세서의 일 예에 의하면, 배뇨 과정을 배뇨 구간 및 비-배뇨 구간으로 분류한 데이터가 이용됨으로써 비-배뇨 구간에서의 요속 데이터가 배뇨 과정의 요속 예측 결과에 포함되는 것이 방지될 수 있다.According to an example of the present specification, by using data obtained by classifying the urination process into a urination section and a non-urination section, it is possible to prevent the urine rate data in the non-urination section from being included in the urine velocity prediction result of the urination process.
본 명세서의 일 예에 의하면, 요속 예측에 앞서 배뇨 과정 유무를 먼저 판단하여 불필요한 데이터 분석을 미연에 방지할 수 있다.According to an example of the present specification, it is possible to prevent unnecessary data analysis in advance by first determining the presence or absence of a urination process prior to predicting the urinary velocity.
본 명세서에 따른 효과가 상술한 효과들로 제한되는 것은 아니며, 언급되지 아니한 효과들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.Effects according to the present specification are not limited to the above-described effects, and effects not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention pertains from this specification and the accompanying drawings.
도 1은 본 명세서의 일 실시예에 따른 배뇨 정보를 분석하기 위한 환경을 나타내는 도면이다.1 is a diagram illustrating an environment for analyzing urination information according to an embodiment of the present specification.
도 2는 본 명세서의 일 실시예에 따른 음향 분석 시스템의 구성을 나타내는 도면이다.2 is a diagram illustrating a configuration of an acoustic analysis system according to an embodiment of the present specification.
도 3은 본 명세서의 일 실시예에 따른 음향 분석 시스템의 구성이 동작하는 과정을 나타내는 도면이다.3 is a diagram illustrating a process in which a configuration of an acoustic analysis system according to an embodiment of the present specification operates.
도 4 및 도 5는 본 명세서의 일 실시예에 따른 음향 데이터를 윈도우에 따라 구분하는 방법을 나타내는 도면이다.4 and 5 are diagrams illustrating a method of classifying sound data according to a window according to an embodiment of the present specification.
도 6은 본 명세서의 일 실시예에 따른 음향 데이터로부터 특징 값을 추출하는 과정을 나타내는 도면이다.6 is a diagram illustrating a process of extracting a feature value from sound data according to an embodiment of the present specification.
도 7 및 도 8은 본 명세서의 일 실시예에 따른 분석 대상이 되는 대상 데이터를 획득하는 과정을 나타내는 도면이다. 7 and 8 are diagrams illustrating a process of acquiring target data to be analyzed according to an embodiment of the present specification.
도 9는 본 명세서의 일 실시예에 따른 요속 예측 모델을 이용하여 요속 데이터를 획득하는 과정을 나타내는 도면이다.9 is a diagram illustrating a process of acquiring yaw velocity data using a yaw velocity prediction model according to an embodiment of the present specification.
도 10은 본 명세서의 일 실시예에 따른 후보 요속 데이터를 획득하는 방법을 나타내는 도면이다.10 is a diagram illustrating a method of obtaining candidate yaw velocity data according to an embodiment of the present specification.
도 11은 본 명세서의 일 실시예에 따른 배뇨/비-배뇨 분류 모델을 이용하여 분류 데이터를 획득하는 과정을 나타내는 도면이다.11 is a diagram illustrating a process of acquiring classification data using a urination/non-urination classification model according to an embodiment of the present specification.
도 12는 본 명세서의 일 실시예에 따른 배뇨 구분 데이터를 획득하는 방법을 나타내는 도면이다.12 is a diagram illustrating a method of acquiring urination classification data according to an embodiment of the present specification.
도 13은 본 명세서의 또 다른 일 실시예에 따른 배뇨 구분 데이터를 획득하는 방법을 나타내는 도면이다.13 is a diagram illustrating a method of acquiring urination classification data according to another embodiment of the present specification.
도 14 및 도 15는 본 명세서의 일 실시예에 따른 후보 요속 데이터 및 배뇨 구분 데이터를 이용하여 배뇨 데이터를 획득하는 방법을 나타내는 도면이다.14 and 15 are diagrams illustrating a method of acquiring urination data using candidate urine velocity data and voiding classification data according to an embodiment of the present specification.
도 16 및 도 17은 본 명세서의 일 실시예에 따른 배뇨 정보 분석 방법을 나타내는 순서도이다.16 and 17 are flowcharts illustrating a method for analyzing urination information according to an embodiment of the present specification.
도 18은 본 명세서의 일 실시예에 따른 배뇨/비-배뇨 분류 모델을 이용하지 않은 경우와 이용한 경우의 결과를 비교하는 그래프를 나타내는 도면이다.18 is a diagram illustrating a graph comparing the results of not using and using the urination/non-urination classification model according to an embodiment of the present specification.
도 19는 본 명세서의 일 실시예에 따른 요속 예측 모델을 학습시키는 과정을 나타내는 순서도이다.19 is a flowchart illustrating a process of learning a yaw velocity prediction model according to an embodiment of the present specification.
도 20은 본 명세서의 일 실시예에 따른 배뇨/비-배뇨 분류 모델을 학습시키는 과정을 나타내는 순서도이다.20 is a flowchart illustrating a process of training a urination/non-urination classification model according to an embodiment of the present specification.
도 21은 본 명세서의 일 실시예에 따른 실측 데이터 및 예측 데이터를 나타내는 도면이다.21 is a diagram illustrating measured data and predicted data according to an embodiment of the present specification.
도 22는 본 명세서의 일 실시예에 따른 실측 데이터, 예측 데이터, 및 보정된 예측 데이터를 나타내는 도면이다.22 is a diagram illustrating actual measurement data, prediction data, and corrected prediction data according to an embodiment of the present specification.
도 23은 본 명세서의 일 실시예에 따른 데이터 보정 방법을 나타내는 순서도이다.23 is a flowchart illustrating a data correction method according to an embodiment of the present specification.
도 24는 본 명세서의 일 실시예에 따른 데이터 보정 과정을 나타내는 도면이다.24 is a diagram illustrating a data correction process according to an embodiment of the present specification.
도 25는 본 명세서의 일 실시예에 따른 데이터 보정 전 실측 데이터와 예측 데이터 사이의 관계를 그래프로 나타낸 도면이다.25 is a graph illustrating a relationship between measured data and predicted data before data correction according to an embodiment of the present specification.
도 26은 본 명세서의 일 실시예에 따른 데이터 보정 후 실측 데이터와 예측 데이터 사이의 관계를 그래프로 나타낸 도면이다.26 is a graph illustrating a relationship between measured data and predicted data after data correction according to an embodiment of the present specification.
본 명세서의 일 실시예에 따르면, 정확도(accuracy) 높은 배뇨 정보를 획득하는 방법에 있어서, 음향 데이터를 획득하는 단계 -상기 음향 데이터는 시작 지점 및 종료 지점을 가짐-; 상기 음향 데이터로부터 m개의 윈도우(window)에 대응하는 제1 내지 제m 조각 대상 데이터를 획득하는 단계 -상기 m개의 윈도우는 각각 미리 정해진 시간 구간을 가지며, 상기 시작 지점 및 상기 종료 지점 사이에서 연속적으로 정해지고 상기 m 개의 윈도우 중 연속되는 윈도우는 서로 일부가 중첩되고, 상기 m은 2 이상의 자연수임-; 상기 제1 내지 제m 조각 대상 데이터를 미리 학습된 배뇨/비-배뇨 분류 모델에 입력하여 제1 내지 제m 조각 분류 데이터를 획득하는 단계 -상기 배뇨/비-배뇨 분류 모델은 제1 데이터 행렬을 입력 받아 배뇨 구간 또는 비-배뇨 구간을 구분하기 위한 값을 적어도 하나 이상 포함하는 데이터를 출력하도록 학습됨-; 상기 음향 데이터로부터 n개의 윈도우에 대응하는 제1 내지 제n 조각 대상 데이터를 획득하는 단계 -상기 n개의 윈도우는 각각 미리 정해진 시간 구간을 가지며, 상기 시작 지점 및 상기 종료 지점 사이에서 연속적으로 정해지되 상기 n개의 윈도우 중 연속되는 윈도우는 서로 일부가 중첩되고, 상기 n은 2 이상 상기 m 이하의 자연수임-; 상기 제1 내지 제n 조각 대상 데이터를 미리 학습된 요속 예측 모델에 입력하여 제1 내지 제n 조각 요속 데이터를 획득하는 단계 -상기 요속 예측 모델은 제2 데이터 행렬을 입력 받아 요속에 관한 값을 적어도 하나 이상 포함하는 데이터를 출력하도록 학습됨-; 및 적어도 상기 제1 내지 제m 조각 분류 데이터 및 상기 제1 내지 제n 조각 요속 데이터를 이용하여 배뇨 데이터를 획득하는 단계;를 포함하는, 배뇨 정보 획득 방법이 제공될 수 있다.According to an embodiment of the present specification, there is provided a method for obtaining urination information with high accuracy, the method comprising: obtaining sound data, the sound data having a start point and an end point; Acquiring first to mth engraving target data corresponding to m windows from the sound data - Each of the m windows has a predetermined time interval, and continuously between the start point and the end point is determined and consecutive windows among the m windows partially overlap each other, and m is a natural number equal to or greater than 2; Inputting the first to mth fragment target data into a pre-trained urination/non-urination classification model to obtain first to mth fragment classification data - The urination/non-urination classification model forms a first data matrix learning to receive input and output data including at least one value for classifying a urination section or a non-urination section; Acquiring first to n-th engraving target data corresponding to n windows from the sound data - The n windows each have a predetermined time interval, and are continuously determined between the start point and the end point. consecutive windows among the n windows partially overlap each other, and n is a natural number of 2 or more and m or less; Obtaining the first to n-th piece yaw velocity data by inputting the first to n-th piece target data into a pre-trained yaw velocity prediction model - The yaw velocity prediction model receives a second data matrix and at least a value related to the yaw velocity learned to output data containing one or more; and obtaining urination data using at least the first to m-th piece classification data and the first to n-th piece urine velocity data.
상기 m개의 윈도우 중 연속하는 윈도우가 중첩되는 정도는 상기 n개의 윈도우 중 연속하는 윈도우가 중첩되는 정도와 다를 수 있다.An overlapping degree of successive windows among the m windows may be different from an overlapping degree of successive windows among the n windows.
상기 m개의 윈도우 중 연속하는 윈도우가 중첩되는 정도는 상기 n개의 윈도우 중 연속하는 윈도우가 중첩되는 정도 보다 작을 수 있다.An overlapping degree of successive windows among the m windows may be smaller than an overlapping degree of successive windows among the n windows.
상기 제1 내지 제m 조각 대상 데이터 및 상기 제1 내지 제n 조각 대상 데이터는 각각 상기 음향 데이터의 적어도 일부로부터 추출된 특징 값을 포함할 수 있다.The first to mth engraving target data and the first to nth engraving target data may each include a feature value extracted from at least a portion of the sound data.
상기 제1 내지 제m 조각 대상 데이터를 획득하는 단계는, 상기 음향 데이터를 스펙트로그램(spectrogram) 데이터로 변환하는 단계; 및 상기 스펙토그램 데이터로부터 상기 제1 내지 제m 윈도우에 대응하는 상기 제1 내지 제m 조각 대상 데이터를 획득하는 단계;를 포함할 수 있다.The acquiring of the first to mth pieces of target data may include: converting the sound data into spectrogram data; and obtaining the first to mth slice target data corresponding to the first to mth windows from the spectogram data.
상기 제1 내지 제m 조각 대상 데이터를 획득하는 단계는, 상기 제1 내지 제m 윈도우에 대응하는 제1 내지 제m 조각 음향 데이터를 획득하는 단계; 및 상기 제1 내지 제m 조각 음향 데이터를 각각 스펙트로그램 데이터로 변환하여 상기 제1 내지 제m 조각 대상 데이터를 획득하는 단계;를 포함할 수 있다.The acquiring of the first to mth engraving target data may include: acquiring first to mth sculptural sound data corresponding to the first to mth windows; and converting the first to mth sculptural sound data into spectrogram data to obtain the first to mth sculptural target data.
상기 스펙트로그램 데이터는 멜-필터(Mel-filter)가 적용된 멜-스펙트로그램(Mel-spectrogram) 데이터일 수 있다.The spectrogram data may be Mel-spectrogram data to which a Mel-filter is applied.
상기 제1 내지 제m 조각 분류 데이터는 상기 배뇨/비-배뇨 분류 모델에 상기 제1 내지 제m 조각 대상 데이터를 순차적으로 입력하여 획득되고, 상기 제1 내지 제n 조각 요속 데이터는 상기 요속 예측 모델에 상기 제1 내지 제n 조각 대상 데이터를 순차적으로 입력하여 획득될 수 있다.The first to m-th piece classification data is obtained by sequentially inputting the first to m-th piece target data to the urination/non-urination classification model, and the first to n-th piece urine velocity data is the urine velocity prediction model It may be obtained by sequentially inputting the first to n-th piece target data into the .
상기 배뇨/비-배뇨 분류 모델은 적어도 제1 입력 레이어(input layer), 제1 컨볼루션 레이어(convolution layer), 제1 히든 레이어(hidden layer), 및 제1 출력 레이어(output layer)를 포함하고, 상기 요속 예측 모델은 적어도 제2 입력 레이어, 제2 컨볼루션 레이어, 제2 히든 레이어, 및 제2 출력 레이어를 포함할 수 있다.The urination/non-urination classification model comprises at least a first input layer, a first convolution layer, a first hidden layer, and a first output layer, and , the yaw velocity prediction model may include at least a second input layer, a second convolution layer, a second hidden layer, and a second output layer.
상기 제1 데이터 행렬의 크기는 상기 제2 데이터 행렬의 크기와 동일할 수 있다.A size of the first data matrix may be the same as a size of the second data matrix.
상기 배뇨 데이터를 획득하는 단계는, 상기 제1 내지 제m 조각 분류 데이터를 이용하여 배뇨 구분 데이터를 획득하는 단계; 상기 제1 내지 제n 조각 요속 데이터를 이용하여 후보 요속 데이터를 획득하는 단계; 및 상기 배뇨 구분 데이터를 이용하여 상기 후보 요속 데이터를 가공함으로써 상기 배뇨 데이터를 획득하는 단계;를 포함할 수 있다.The acquiring of the urination data may include: acquiring urination classification data using the first to m-th piece classification data; obtaining candidate yaw velocity data using the first to nth piece yaw velocity data; and obtaining the urination data by processing the candidate urine velocity data using the urination classification data.
상기 배뇨 데이터는 상기 배뇨 구분 데이터 및 상기 후보 요속 데이터를 합성곱(convolution) 연산하여 획득될 수 있다.The urination data may be obtained by performing a convolution operation on the urination classification data and the candidate urine velocity data.
상기 배뇨 정보 획득 방법은 상기 제1 내지 제m 조각 분류 데이터를 획득하는 단계가 수행된 이후 획득된 상기 제1 내지 제m 조각 분류 데이터를 이용하여 상기 음향 데이터에 대해 배뇨 과정의 유무를 판단하는 단계;를 더 포함하고, 상기 음향 데이터에 대해 배뇨 과정이 존재한다고 판단되면, 상기 음향 데이터로부터 상기 제1 내지 제n 조각 대상 데이터를 획득하는 단계, 상기 제1 내지 제n 조각 대상 데이터를 상기 요속 예측 모델에 입력하여 상기 제1 내지 제n 조각 요속 데이터를 획득하는 단계, 및 적어도 상기 제1 내지 제m 조각 분류 데이터 및 상기 제1 내지 제n 조각 요속 데이터를 이용하여 상기 배뇨 데이터를 획득하는 단계가 수행될 수 있다.The method for obtaining the urination information includes: determining whether or not a urination process is present with respect to the sound data using the first to mth fragment classification data obtained after the acquiring of the first to mth fragment classification data is performed further comprising; if it is determined that a urination process exists with respect to the sound data, obtaining the first to nth pieces of target data from the sound data; Obtaining the first to nth piece urine velocity data by input to the model, and obtaining the urination data using at least the first to mth piece classification data and the first to nth piece urine velocity data can be performed.
본 명세서의 다른 실시예에 따르면, 정확도 높은 배뇨 정보를 획득하는 방법에 있어서, 외부 기기를 통해 배뇨 과정을 녹음하여 획득된 음향 신호를 샘플링하여 음향 데이터를 획득하는 단계 -상기 음향 데이터는 시작 지점 및 종료 지점을 가짐-; 상기 음향 데이터로부터 제1 내지 제n 윈도우에 대응하는 제1 내지 제n 조각 대상 데이터를 획득하는 단계 -상기 제1 내지 제n 윈도우는 각각 미리 정해진 시간 구간을 가지며, 상기 시작 지점 및 상기 종료 지점 사이에서 연속적으로 정해지고, 상기 n은 2 이상의 자연수임-; 상기 제1 내지 제n 조각 대상 데이터 중 적어도 일부를 미리 학습된 배뇨/비-배뇨 분류 모델에 입력하여 제1 내지 제m 조각 분류 데이터를 획득하는 단계 -상기 배뇨/비-배뇨 분류 모델은 제1 데이터 행렬을 입력 받아 배뇨 구간 또는 비-배뇨 구간을 구분하기 위한 값을 적어도 하나 이상 포함하는 데이터를 출력하도록 학습되고, 상기 m은 2 이상 상기 n 이하의 자연수임-; 상기 제1 내지 제n 조각 대상 데이터를 미리 학습된 요속 예측 모델에 입력하여 제1 내지 제n 조각 요속 데이터를 획득하는 단계 -상기 요속 예측 모델은 제2 데이터 행렬을 입력 받아 요속에 관한 값을 적어도 하나 이상 포함하는 데이터를 출력하도록 학습됨-; 및 적어도 상기 제1 내지 제m 조각 분류 데이터 및 상기 제1 내지 제n 조각 요속 데이터를 이용하여 배뇨 데이터를 획득하는 단계;를 포함하는, 배뇨 정보 획득 방법이 제공될 수 있다.According to another embodiment of the present specification, in a method for obtaining urination information with high accuracy, the step of obtaining sound data by sampling an acoustic signal obtained by recording a urination process through an external device - The sound data includes a starting point and having an end point-; Acquiring first to n-th engraving target data corresponding to the first to n-th windows from the sound data - The first to n-th windows each have a predetermined time interval, and between the start point and the end point is determined continuously in , wherein n is a natural number greater than or equal to 2; Inputting at least a portion of the first to n-th piece target data into a pre-trained urination/non-urination classification model to obtain first to m-th piece classification data - The urination/non-urination classification model is a first receiving a data matrix and learning to output data including at least one value for classifying a urination section or a non-urination section, wherein m is a natural number greater than or equal to 2 and less than or equal to n; Obtaining the first to n-th piece yaw velocity data by inputting the first to n-th piece target data into a pre-trained yaw velocity prediction model - The yaw velocity prediction model receives a second data matrix and at least a value related to the yaw velocity learned to output data containing one or more; and obtaining urination data using at least the first to m-th piece classification data and the first to n-th piece urine velocity data.
상기 제1 내지 제n 윈도우 중 연속하는 두 윈도우는 중첩될 수 있다.Two consecutive windows among the first to nth windows may overlap.
상기 제1 내지 제n 윈도우 중 연속하는 두 윈도우는 서로 중첩되지 않고, 상기 m은 상기 n과 동일할 수 있다.Two consecutive windows among the first to nth windows do not overlap each other, and m may be the same as n.
상기 제1 내지 제n 조각 대상 데이터는 각각 상기 음향 데이터의 적어도 일부로부터 추출된 특징 값을 포함할 수 있다.Each of the first to nth pieces of target data may include a feature value extracted from at least a portion of the sound data.
상기 제1 내지 제n 조각 대상 데이터를 획득하는 단계는, 상기 음향 데이터를 스펙트로그램(spectrogram) 데이터로 변환하는 단계; 및 상기 스펙토그램 데이터로부터 상기 제1 내지 제n 윈도우에 대응하는 상기 제1 내지 제n 조각 대상 데이터를 획득하는 단계;를 포함할 수 있다.The obtaining of the first to nth pieces of target data may include: converting the sound data into spectrogram data; and obtaining the first to nth slice target data corresponding to the first to nth windows from the spectogram data.
상기 제1 내지 제n 조각 대상 데이터를 획득하는 단계는, 상기 제1 내지 제n 윈도우에 대응하는 제1 내지 제n 조각 음향 데이터를 획득하는 단계; 및 상기 제1 내지 제n 조각 음향 데이터를 각각 스펙트로그램 데이터로 변환하여 상기 제1 내지 제n 조각 대상 데이터를 획득하는 단계;를 포함할 수 있다.The acquiring of the first to n-th engraving target data may include: acquiring first to n-th engraving sound data corresponding to the first to n-th windows; and converting the first to nth sculptural sound data into spectrogram data, respectively, to obtain the first to nth engraving target data.
상기 스펙트로그램 데이터는 멜-스펙트로그램 데이터일 수 있다.The spectrogram data may be Mel-spectrogram data.
상기 제1 내지 제m 조각 분류 데이터는 상기 배뇨/비-배뇨 분류 모델에 상기 제1 내지 제n 윈도우 중 서로 중첩하지 않는 m개의 윈도우에 대응하는 m개의 조각 대상 데이터를 순차적으로 입력하여 획득되고, 상기 제1 내지 제n 조각 요속 데이터는 상기 요속 예측 모델에 상기 제1 내지 제n 조각 대상 데이터를 순차적으로 입력하여 획득될 수 있다.The first to mth piece classification data are obtained by sequentially inputting m pieces of piece target data corresponding to m non-overlapping windows among the first to nth windows to the urination/non-urination classification model, The first to nth piece yaw velocity data may be obtained by sequentially inputting the first to nth piece yaw velocity data into the yaw velocity prediction model.
상기 배뇨/비-배뇨 분류 모델은 적어도 제1 입력 레이어, 제1 컨볼루션 레이어, 제1 히든 레이어, 및 제1 출력 레이어를 포함하고, 상기 요속 예측 모델은 적어도 제2 입력 레이어, 제2 컨볼루션 레이어, 제2 히든 레이어, 및 제2 출력 레이어를 포함하고, 상기 제1 입력 레이어에 입력되는 데이터 형태와 상기 제2 입력 레이어에 입력되는 데이터 형태는 동일할 수 있다.The voiding/non-urination classification model includes at least a first input layer, a first convolutional layer, a first hidden layer, and a first output layer, and the urine velocity prediction model includes at least a second input layer, a second convolution It may include a layer, a second hidden layer, and a second output layer, and a data type input to the first input layer and a data type input to the second input layer may be the same.
상기 제1 데이터 행렬의 크기는 상기 제2 데이터 행렬의 크기와 동일할 수 있다.A size of the first data matrix may be the same as a size of the second data matrix.
상기 배뇨 데이터를 획득하는 단계는, 상기 제1 내지 제m 조각 분류 데이터를 이용하여 배뇨 구분 데이터를 획득하는 단계; 상기 제1 내지 제n 조각 요속 데이터를 이용하여 후보 요속 데이터를 획득하는 단계; 및 상기 배뇨 구분 데이터를 이용하여 상기 후보 요속 데이터를 가공함으로써 상기 배뇨 데이터를 획득하는 단계;를 포함할 수 있다.The acquiring of the urination data may include: acquiring urination classification data using the first to m-th piece classification data; obtaining candidate yaw velocity data using the first to nth piece yaw velocity data; and obtaining the urination data by processing the candidate urine velocity data using the urination classification data.
상기 배뇨 데이터는 상기 배뇨 구분 데이터 및 상기 후보 요속 데이터를 합성곱 연산하여 획득될 수 있다.The urination data may be obtained by performing a convolution operation on the urination classification data and the candidate urine velocity data.
본 명세서의 다른 실시예에 따르면, 데이터 수집 기간에서 복수의 개체에 대한 실측 데이터 그룹을 획득하는 단계 -상기 실측 데이터 그룹은 적어도 제1 개체의 배뇨량 측정 값을 포함하는 제1 실측 데이터 및 제2 개체의 배뇨량 측정 값을 포함하는 제2 실측 데이터를 포함함-; 상기 데이터 수집 기간에서 상기 복수의 개체의 배뇨 과정에 대한 예측 데이터 그룹을 획득하는 단계 -상기 예측 데이터 그룹은 상기 제1 개체의 배뇨량 예측 값을 포함하는 제1 예측 데이터 및 상기 제2 개체의 배뇨량 예측 값을 포함하는 제2 예측 데이터를 포함하고, 상기 제1 개체의 배뇨량 예측 값은 상기 제1 개체의 배뇨 과정을 녹음한 제1 음향 데이터로부터 생성되며 상기 제2 개체의 배뇨량 예측 값은 상기 제2 개체의 배뇨 과정을 녹음한 제2 음향 데이터로부터 생성됨-; 상기 실측 데이터 그룹 및 상기 예측 데이터 그룹을 이용하여 보정 값(compensation value)을 획득하는 단계; 상기 데이터 수집 기간 이후 대상 개체의 배뇨 과정에 대한 대상 예측 데이터를 획득하는 단계 -상기 대상 예측 데이터는 상기 대상 개체의 배뇨 과정에 대한 배뇨량 예측 값을 포함하고, 상기 대상 개체의 배뇨량 예측 값은 상기 대상 개체의 배뇨 과정을 녹음한 대상 음향 데이터로부터 생성됨-; 및 상기 보정 값을 이용하여 상기 대상 예측 데이터를 보정하는 단계;를 포함하는 데이터 보정 방법이 제공될 수 있다.According to another embodiment of the present specification, obtaining a measured data group for a plurality of entities in a data collection period, wherein the measured data group includes at least first measured data including a measurement value of a urination amount of the first entity and a second entity including second measured data including a measurement value of the amount of urination; obtaining a prediction data group for the urination process of the plurality of individuals in the data collection period, wherein the prediction data group includes first prediction data including a voiding amount predicted value of the first individual and a urination amount prediction of the second individual and second prediction data including a value, wherein the predicted urination amount of the first object is generated from first sound data recorded with the urination process of the first object, and the predicted urination amount of the second object is the second generated from second acoustic data recording the subject's urination process; obtaining a compensation value using the measured data group and the predicted data group; Obtaining the target prediction data for the urination process of the target object after the data collection period - The target prediction data includes a urination amount predicted value for the urination process of the target object, the urination amount predicted value of the target object is the target generated from subject acoustic data recording the subject's urination process; and correcting the target prediction data using the correction value.
상기 보정 값을 획득하는 단계는 상기 실측 데이터 그룹 및 상기 예측 데이터 그룹을 이용하여 데이터 셋(data set) 그룹을 생성하는 단계; 및 회귀분석(regression analysis) 기법을 이용하여 상기 데이터 셋 그룹으로부터 상기 보정 값을 산출하는 단계;를 포함할 수 있다.The obtaining of the correction value may include: generating a data set group using the measured data group and the predicted data group; and calculating the correction value from the data set group using a regression analysis technique.
상기 데이터 셋 그룹은, 상기 제1 실측 데이터에 포함된 배뇨량 측정 값들의 대표 값에 상기 제1 예측 데이터에 포함된 배뇨량 예측 값들의 대표 값을 대응시켜 생성되는 제1 데이터 셋을 포함할 수 있다.The data set group may include a first data set generated by matching a representative value of the urination amount measurement values included in the first actual data to a representative value of the urination amount predicted values included in the first prediction data.
상기 데이터 셋 그룹은, 상기 제1 실측 데이터에 포함된 복수의 날들의 배뇨량 측정 값들 중 제1 시간 구간의 배뇨량 측정 값들의 대표 값에 상기 제2 실측 데이터에 포함된 복수의 날들의 배뇨량 측정 값들 중 제2 시간 구간의 배뇨량 측정 값들의 대표 값을 대응시켜 생성되는 제1 데이터 셋을 포함하고, 상기 제1 시간 구간의 길이는 상기 제2 시간 구간의 길이와 동일할 수 있다.The data set group is a representative value of the urine quantity measurement values of a first time interval among the urine quantity measurement values of the plurality of days included in the first measured data, among the urine quantity measurement values of the plurality of days included in the second actual measurement data. The first data set may include a first data set generated by matching representative values of measurement values of urination in a second time interval, and the length of the first time interval may be the same as the length of the second time interval.
상기 회귀분석 기법은 선형 회귀분석(linear regression analysis) 기법이고, 상기 보정 값은 상기 선형 회귀분석 기법을 이용하여 획득되는 함수의 기울기일 수 있다.The regression analysis technique may be a linear regression analysis technique, and the correction value may be a slope of a function obtained using the linear regression analysis technique.
상기 회귀분석 기법을 이용하여 상기 데이터 셋 그룹으로부터 상기 보정 값을 산출하는 단계에서, 상기 제1 실측 데이터로부터 획득되는 값을 독립 변수 또는 종속 변수 중 어느 하나로 이용되고, 상기 제1 예측 데이터로부터 획득되는 값을 독립 변수 또는 종속 변수 중 다른 하나로 이용되며, 상기 보정 값은 상기 회귀분석 기법을 통해 산출되는 회귀계수(regression coefficient)일 수 있다.In the step of calculating the correction value from the data set group by using the regression analysis technique, a value obtained from the first measured data is used as either an independent variable or a dependent variable, and obtained from the first prediction data The value is used as the other of the independent variable and the dependent variable, and the correction value may be a regression coefficient calculated through the regression analysis technique.
상기 대상 예측 데이터를 획득하는 단계는, 상기 대상 음향 데이터를 이용하여 상기 대상 개체의 배뇨 과정에 대한 대상 요속 데이터를 생성하는 단계; 및 상기 대상 요속 데이터로부터 상기 대상 개체의 배뇨 과정에 대한 배뇨량 예측 값을 산출하는 단계;를 포함할 수 있다.The acquiring of the target prediction data may include: generating target urine velocity data for a urination process of the target entity using the target acoustic data; and calculating a urination amount predicted value for the urination process of the target individual from the target urine velocity data.
상기 실측 데이터 그룹을 획득하는 단계 및 상기 예측 데이터 그룹을 획득하는 단계는 동시에 수행될 수 있다.The obtaining of the measured data group and the obtaining of the predicted data group may be performed simultaneously.
본 명세서의 다른 실시예에 따르면, 제1 기간(term)에서 대상 개체의 배뇨 과정에서 측정된 배뇨량이 반영된 실측 데이터를 획득하는 단계 -상기 실측 데이터는 적어도 하나의 배뇨량 측정 값을 포함함-; 상기 제1 기간에서 상기 대상 개체의 배뇨 과정이 녹음된 음향 데이터 그룹을 획득하는 단계 -상기 음향 데이터 그룹은 제1 배뇨 과정을 녹음한 제1 음향 데이터를 포함함-; 상기 음향 데이터 그룹을 이용하여 예측 데이터를 획득하는 단계 -상기 예측 데이터는 상기 제1 음향 데이터로부터 산출된 배뇨량 예측 값을 포함함-; 상기 실측 데이터 및 상기 예측 데이터를 이용하여 보정 값(compensation value)을 획득하는 단계; 상기 제1 기간 이후의 제2 기간에서 상기 대상 개체의 제2 배뇨 과정을 녹음하여 제2 음향 데이터를 획득하는 단계; 상기 제2 음향 데이터로부터 대상 배뇨량 예측 값을 산출하는 단계; 및 상기 보정 값을 이용하여 상기 대상 배뇨량 예측 값을 보정하는 단계;를 포함하는 데이터 보정 방법이 제공될 수 있다.According to another embodiment of the present specification, the method may include: acquiring actual measurement data reflecting an amount of urination measured in a urination process of a target object in a first period, wherein the measured data includes at least one measurement value of the amount of urination; acquiring an acoustic data group in which the urination process of the target object is recorded in the first period, wherein the acoustic data group includes first acoustic data in which a first urination process is recorded; obtaining predictive data using the sound data group, wherein the predictive data includes a voiding amount predictive value calculated from the first sound data; obtaining a compensation value using the measured data and the predicted data; acquiring second sound data by recording a second urination process of the target object in a second period after the first period; calculating a target urination amount predicted value from the second sound data; and correcting the target urination amount predicted value by using the correction value.
상기 보정 값을 획득하는 단계는 회기분석 기법을 이용하되, 상기 실측 데이터로부터 획득되는 값이 독립 변수 또는 종속 변수 중 어느 하나로 이용하고, 상기 예측 데이터로부터 획득되는 값이 독립 변수 또는 종속 변수 중 다른 하나로 이용되며 상기 보정 값은 상기 회귀분석 기법을 통해 산출되는 회귀계수일 수 있다.In the obtaining of the correction value, a regression analysis technique is used, the value obtained from the measured data is used as either an independent variable or a dependent variable, and the value obtained from the prediction data is used as the other of the independent variable or the dependent variable. used and the correction value may be a regression coefficient calculated through the regression analysis technique.
상기 실측 데이터로부터 획득되는 값은 상기 제1 기간 중 상기 제1 배뇨 과정에 대응하는 배뇨량 측정 값이고, 상기 예측 데이터로부터 획득되는 값은 상기 제1 음향 데이터로부터 산출된 배뇨량 예측 값일 수 있다.The value obtained from the actual measurement data may be a urination amount measurement value corresponding to the first urination process during the first period, and the value obtained from the prediction data may be a urination amount predicted value calculated from the first sound data.
상기 제2 음향 데이터로부터 대상 배뇨량 예측 값을 산출하는 단계는, 상기 제2 음향 데이터를 이용하여 대상 요속 데이터를 생성하는 단계; 및 상기 대상 요속 데이터로부터 상기 대상 배뇨량 예측 값을 산출하는 단계;를 포함할 수 있다.Calculating the target urination amount predicted value from the second acoustic data may include: generating target urine velocity data using the second acoustic data; and calculating the target urination amount predicted value from the target urine velocity data.
본 명세서의 다른 실시예에 따르면, 제1 기간(term)에서 대상 개체의 배뇨 과정에서 측정된 배뇨량이 반영된 실측 데이터를 획득하는 단계 -상기 실측 데이터는 복수의 배뇨량 측정 값을 포함함-; 상기 제1 기간 이후의 제2 기간에서 상기 대상 개체의 배뇨 과정을 녹음하여 음향 데이터를 획득하는 단계; 상기 음향 데이터를 이용하여 배뇨량 예측 데이터를 획득하는 단계; 및 상기 실측 데이터의 통계 값을 이용하여 상기 배뇨량 예측 데이터를 보정하는 단계;를 포함하고, 상기 통계 값은 상기 실측 데이터에 포함되는 배뇨량 측정 값들의 최빈 값, 중앙 값, 평균 값, 분산 값, 및 표준편차 값 중 적어도 하나인 데이터 보정 방법이 제공될 수 있다.According to another embodiment of the present specification, the method may include: acquiring actually measured data reflecting the amount of urination measured in the urination process of the subject in a first period, wherein the measured data includes a plurality of measurement values of the amount of urination; acquiring sound data by recording the urination process of the target object in a second period after the first period; obtaining urination amount prediction data using the sound data; and correcting the urination amount prediction data by using the statistical values of the actually measured data, wherein the statistical values are the mode, median, average, variance, and A data correction method that is at least one of standard deviation values may be provided.
본 명세서의 상술한 목적, 특징들 및 장점은 첨부된 도면과 관련된 다음의 상세한 설명을 통해 보다 분명해질 것이다. 다만, 본 명세서는 다양한 변경을 가할 수 있고 여러 가지 실시예들을 가질 수 있는 바, 이하에서는 특정 실시예들을 도면에 예시하고 이를 상세히 설명하고자 한다.The above-mentioned objects, features and advantages of the present specification will become more apparent from the following detailed description in conjunction with the accompanying drawings. However, since the present specification may have various changes and may have various embodiments, specific embodiments will be exemplified in the drawings and described in detail below.
명세서 전체에 걸쳐서 동일한 참조번호들은 원칙적으로 동일한 구성요소들을 나타낸다. 또한, 각 실시예의 도면에 나타나는 동일한 사상의 범위 내의 기능이 동일한 구성요소는 동일한 참조부호를 사용하여 설명하며, 이에 대한 중복되는 설명은 생략하기로 한다.Throughout the specification, like reference numerals refer to like elements in principle. In addition, components having the same function within the scope of the same idea shown in the drawings of each embodiment will be described using the same reference numerals, and overlapping descriptions thereof will be omitted.
본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제1, 제2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다.Numbers (eg, first, second, etc.) used in the description process of the present specification are only identifiers for distinguishing one component from other components.
또한, 이하의 실시예에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.In addition, the suffixes "module" and "part" for the components used in the following embodiments are given or mixed in consideration of only the ease of writing the specification, and do not have distinct meanings or roles by themselves.
구체적으로 언급되거나 문맥상 명백하지 않는 한, 수치와 관련하여 "약"이라는 용어는 언급된 수치 및 그 수치의 +/-10%까지를 의미하는 것으로 이해될 수 있고, 수치범위와 관련하여 "약"이라는 용어는 수치범위의 하한 값보다 10% 낮은 수치부터 수치범위의 상한 값보다 10% 높은 수치까지의 범위를 의미하는 것으로 이해될 수 있다. Unless specifically stated or clear from the context, the term "about" in reference to a numerical value shall be understood to mean the stated numerical value and up to +/−10% of that value, and in reference to a numerical range "about" The term " can be understood to mean a range from a value 10% lower than the lower limit of the numerical range to a value 10% higher than the upper limit of the numerical range.
이하의 실시예에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.In the following examples, the singular expression includes the plural expression unless the context clearly dictates otherwise.
이하의 실시예에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다.In the following examples, terms such as "comprise" or "have" mean that the feature or element described in the specification is present, and the possibility of adding one or more other features or elements is excluded in advance. it is not doing
도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 두께는 설명의 편의를 위해 임의로 나타낸 것으로, 본 발명이 반드시 도시된 바에 한정되지 않는다.In the drawings, the size of the components may be exaggerated or reduced for convenience of description. For example, the size and thickness of each component shown in the drawings are arbitrarily indicated for convenience of description, and the present invention is not necessarily limited to the illustrated bar.
어떤 실시예가 달리 구현 가능한 경우에 특정한 공정 순서는 설명되는 순서와 다르게 수행될 수도 있다. 예를 들어, 연속하여 설명되는 두 공정이 실질적으로 동시에 수행될 수도 있고, 설명되는 순서와 반대의 순서로 진행될 수 있다.In cases where certain embodiments are otherwise practicable, a specific process sequence may be performed different from the described sequence. For example, two processes described in succession may be performed substantially simultaneously, or may be performed in an order opposite to the order described.
이하의 실시예에서, 막, 영역, 구성 요소 등이 연결되었다고 할 때, 막, 영역, 구성 요소들이 직접적으로 연결된 경우뿐만 아니라 막, 영역, 구성요소들 중간에 다른 막, 영역, 구성 요소들이 개재되어 간접적으로 연결된 경우도 포함한다.In the following embodiments, when a film, region, or component is connected, other films, regions, and components are interposed between the films, regions, and components as well as when the films, regions, and components are directly connected. It also includes cases where it is indirectly connected.
예컨대, 본 명세서에서 막, 영역, 구성 요소 등이 전기적으로 연결되었다고 할 때, 막, 영역, 구성 요소 등이 직접 전기적으로 연결된 경우뿐만 아니라, 그 중간에 다른 막, 영역, 구성 요소 등이 개재되어 간접적으로 전기적 연결된 경우도 포함한다.For example, in the present specification, when it is said that a film, a region, a component, etc. are electrically connected, not only the case where the film, a region, a component, etc. are directly electrically connected, but also other films, regions, and components are interposed therebetween. Indirect electrical connection is also included.
본 명세서는 정확도 높은 배뇨 정보를 획득하는 방법에 관한 것으로, 보다 상세하게는 사람의 배뇨 과정을 녹음하여 음향 데이터를 획득하고, 배뇨 구간 및 비-배뇨 구간으로 구분하는 배뇨/비-배뇨 분류 모델 및 요속 예측 모델을 이용하여 음향 데이터를 분석하여 배뇨 데이터를 획득하며, 획득된 배뇨 데이터를 이용하여 배뇨 정보를 획득하는 방법에 관한 발명이다.The present specification relates to a method of obtaining urination information with high accuracy, and more particularly, a urination/non-urination classification model that records a human urination process to obtain acoustic data, and divides the urination section into a urination section and a non-urination section, and The present invention relates to a method of obtaining urination data by analyzing acoustic data using a urine velocity prediction model, and obtaining urination information using the obtained urination data.
이하에서는 도 1을 참고하여, 상술한 배뇨 정보를 획득하는 방법이 수행되는 일반적인 환경에 대해 서술한다.Hereinafter, with reference to FIG. 1, a general environment in which the above-described method of obtaining urination information is performed will be described.
도 1은 본 명세서의 일 실시예에 따른 배뇨 정보를 분석하기 위한 환경을 나타내는 도면이다. 도1을 참고하면, 배뇨 과정에 대한 배뇨 정보를 획득함에 있어서 음향 분석 시스템(1000), 녹음 장치(2000), 및 외부 서버(3000)가 이용될 수 있다. 1 is a diagram illustrating an environment for analyzing urination information according to an embodiment of the present specification. Referring to FIG. 1 , an acoustic analysis system 1000 , a recording device 2000 , and an external server 3000 may be used to obtain urination information for a urination process.
음향 분석 시스템(1000)은 배뇨 과정에 대한 데이터에 기초하여 배뇨 정보를 획득할 수 있다. 예를 들어, 음향 분석 시스템(1000)은 녹음 장치(2000)로부터 배뇨 과정을 녹음한 음향 데이터를 획득하고, 획득한 음향 데이터를 이용하여 배뇨 정보를 획득할 수 있다. 음향 분석 시스템(1000)이 음향 데이터로부터 배뇨 정보를 획득하는 과정에 대해서는 추후 구체적으로 서술하도록 한다.The acoustic analysis system 1000 may acquire urination information based on data about the urination process. For example, the acoustic analysis system 1000 may acquire acoustic data recorded with a urination process from the recording apparatus 2000 , and acquire urination information using the acquired acoustic data. A process in which the acoustic analysis system 1000 acquires urination information from the acoustic data will be described in detail later.
음향 분석 시스템(1000)은 외부 서버(3000)와 통신할 수 있다. 음향 분석 시스템(1000)은 상술한 음향 데이터를 녹음 장치(2000)로부터 획득할 수도 있으나, 외부 서버(3000)로부터 획득할 수도 있다. 또한, 음향 분석 시스템(1000)은 음향 데이터를 분석하여 획득한 배뇨 정보를 외부 서버(3000)에 제공할 수 있다. 다시 말해, 음향 분석 시스템(1000)은 외부로부터 수신되는 배뇨 과정에 대한 음향 데이터를 분석하여 배뇨 정보를 획득하고 이를 출력하거나 외부에 제공할 수 있다.The acoustic analysis system 1000 may communicate with the external server 3000 . The sound analysis system 1000 may obtain the above-described sound data from the recording apparatus 2000 or may also obtain it from the external server 3000 . Also, the sound analysis system 1000 may provide urination information obtained by analyzing the sound data to the external server 3000 . In other words, the acoustic analysis system 1000 may obtain urination information by analyzing acoustic data for a urination process received from the outside, and output or provide it to the outside.
녹음 장치(2000)는 배뇨 관련 소리를 녹음할 수 있다. 구체적으로, 녹음 장치(2000)는 사람에게 착용되거나 사람의 배뇨가 이루어지는 공간에 설치되어 배뇨 과정에서 발생하는 소리를 녹음할 수 있다. 예를 들어, 녹음 장치(2000)는 스마트 워치(smart watch), 스마트 밴드(smart band), 스마트 링(smart ring), 및 스마트 넥클리스(smart neckless) 등 녹음 기능이 탑재된 웨어러블 장치(wearable device)나 스마트폰(smart phone), 태블릿(tablet), 데스크탑, 노트북, 휴대용 녹음기, 설치형 녹음기 등을 포함할 수 있다. The recording apparatus 2000 may record a urination-related sound. Specifically, the recording apparatus 2000 may be worn by a person or installed in a space where a person urinates to record a sound generated during a urination process. For example, the recording device 2000 is a wearable device equipped with a recording function, such as a smart watch, a smart band, a smart ring, and a smart neckless. It may include a smart phone, tablet, desktop, laptop, portable recorder, or installation recorder.
녹음 장치(2000)는 배뇨 과정을 녹음하여 음향 데이터를 획득할 수 있다. The recording apparatus 2000 may acquire sound data by recording a urination process.
여기서, 음향 데이터는 배뇨 과정에 대한 아날로그 음향 신호를 디지털화하여 획득될 수 있다. 예를 들어, 녹음 장치(2000)는 ADC(Analog to Digital Converter) 모듈을 포함하고, 8kHz, 16kHz, 22kHz, 32kHz, 44.1kHz, 48kHz, 96kHz, 192kHz, 또는 384kHz 등의 특정 샘플링 레이트(sampling rate)를 이용하여 배뇨 과정에 대한 음향 신호로부터 음향 데이터를 획득할 수 있다.Here, the sound data may be obtained by digitizing an analog sound signal for the urination process. For example, the recording device 2000 includes an Analog to Digital Converter (ADC) module, and a specific sampling rate such as 8 kHz, 16 kHz, 22 kHz, 32 kHz, 44.1 kHz, 48 kHz, 96 kHz, 192 kHz, or 384 kHz. can be used to obtain acoustic data from the acoustic signal for the urination process.
녹음 장치(2000)는 획득된 음향 데이터를 음향 분석 시스템(1000) 및/또는 외부 서버(3000)에 제공할 수 있다. 이를 위해 녹음 장치(2000)는 음향 분석 시스템(1000) 및/또는 외부 서버(3000)와 유선 및/또는 무선 데이터 통신을 수행할 수 있다.The recording apparatus 2000 may provide the acquired sound data to the sound analysis system 1000 and/or the external server 3000 . To this end, the recording apparatus 2000 may perform wired and/or wireless data communication with the acoustic analysis system 1000 and/or the external server 3000 .
녹음 장치(2000)는 사용자에게 배뇨 정보를 전달하기 위한 수단으로도 이용될 수 있다. 예를 들어, 녹음 장치(2000)는 음향 분석 시스템(1000)으로부터 배뇨 정보를 획득하여 사용자에게 출력할 수 있다.The recording apparatus 2000 may also be used as a means for delivering urination information to the user. For example, the recording apparatus 2000 may obtain urination information from the sound analysis system 1000 and output it to the user.
외부 서버(3000)는 각종 데이터를 저장하거나 제공할 수 있다. 예를 들어, 외부 서버(3000)는 녹음 장치(2000)로부터 획득된 음향 데이터나 음향 분석 시스템(1000)으로부터 획득된 배뇨 정보를 저장할 수 있다. 다른 예를 들어, 외부 서버(3000)는 녹음 장치(2000)로부터 획득된 음향 데이터를 음향 분석 시스템(1000)에 제공하고, 음향 분석 시스템(1000)으로부터 획득한 배뇨 정보를 녹음 장치(2000)에 제공할 수 있다.The external server 3000 may store or provide various data. For example, the external server 3000 may store acoustic data acquired from the recording apparatus 2000 or urination information acquired from the acoustic analysis system 1000 . As another example, the external server 3000 provides the acoustic data obtained from the recording device 2000 to the acoustic analysis system 1000 , and provides the urination information obtained from the acoustic analysis system 1000 to the recording device 2000 . can provide
한편, 음향 분석 시스템(1000) 및 녹음 장치(2000)는 하나의 장치로 구현될 수 있다. 예를 들어, 음향 분석 시스템(1000)이 자체적으로 녹음 기능을 가지는 모듈을 포함하여 음향 데이터를 획득할 수 있다. 다른 예를 들어, 녹음 장치(2000)에 음향 분석 시스템(1000)의 구성들이 내장되어 녹음 장치(2000)가 자체적으로 음향 데이터를 분석하는 기능을 제공할 수 있다.Meanwhile, the acoustic analysis system 1000 and the recording apparatus 2000 may be implemented as one device. For example, the sound analysis system 1000 may acquire sound data by including a module having a recording function by itself. As another example, the components of the sound analysis system 1000 may be built in the recording apparatus 2000 so that the recording apparatus 2000 may provide a function of analyzing sound data by itself.
음향 분석 시스템acoustic analysis system
이하에서는 도 2 및 도3을 참고하여 음향 분석 시스템(1000)의 구성 및 그 동작 과정에 대해 상세하게 서술한다.Hereinafter, a configuration of the acoustic analysis system 1000 and an operation process thereof will be described in detail with reference to FIGS. 2 and 3 .
도 2는 본 명세서의 일 실시예에 따른 음향 분석 시스템(1000)의 구성을 나타내는 도면이다.2 is a diagram illustrating a configuration of an acoustic analysis system 1000 according to an embodiment of the present specification.
도 3은 본 명세서의 일 실시예에 따른 음향 분석 시스템(1000)의 구성이 동작하는 과정을 나타내는 도면이다.3 is a diagram illustrating a process in which the configuration of the acoustic analysis system 1000 according to an embodiment of the present specification operates.
도 2를 참고하면, 음향 분석 시스템(1000)은 전처리부(1100), 특징 추출부(1200), 요속 예측부(1300), 배뇨/비-배뇨 분류부(1400), 배뇨 정보 추출부(1500), 입력부(1600), 출력부(1700), 통신부(1800), 및 제어부(1900)를 포함할 수 있다.Referring to FIG. 2 , the acoustic analysis system 1000 includes a preprocessor 1100 , a feature extraction unit 1200 , a urine velocity prediction unit 1300 , a urination/non-urination classification unit 1400 , and a urination information extraction unit 1500 . ), an input unit 1600 , an output unit 1700 , a communication unit 1800 , and a control unit 1900 .
전처리부(1100)는 음향 분석 시스템(1000)이 수신한 음향 데이터에 대해 전처리(pre-processing)를 수행할 수 있다. 전처리는 음향 데이터로부터 특징 값을 추출하기에 앞서 수행되는 과정으로, 후술하는 바와 같이 필터링(filtering)을 포함할 수 있다. The preprocessor 1100 may pre-process the sound data received by the sound analysis system 1000 . Pre-processing is a process performed prior to extracting feature values from sound data, and may include filtering as described below.
전처리부(1100)에서는 음향 데이터에 대해 노이즈 제거를 위한 필터링이 수행될 수 있다. 여기서, 필터링은 음향 데이터 중 잡음에 관한 데이터를 제외하는 과정을 의미할 수 있고, 이를 위해 고역 필터(high-pass filter), 저역 필터(low-pass filter), 및 대역 필터(band-pass filter) 등이 이용될 수 있다. 전처리부(1100)의 필터링은 생략될 수도 있다.The preprocessor 1100 may perform filtering for noise removal on the sound data. Here, the filtering may refer to a process of excluding noise-related data from sound data, and for this purpose, a high-pass filter, a low-pass filter, and a band-pass filter are used. etc. may be used. The filtering of the preprocessor 1100 may be omitted.
한편, 전처리부(1100)에서는 후술하는 윈도윙(windowing)이 수행될 수도 있다.Meanwhile, in the preprocessor 1100 , windowing, which will be described later, may be performed.
특징 추출부(1200)는 전처리된 음향 데이터로부터 특징 값을 추출할 수 있다. 여기서, 특징 값은 음향 데이터가 가지는 고유의 특징들을 수치화한 것을 의미할 수 있다. 예를 들어, 특징 값은 시간대역 스펙트럼 크기 값, spectral centroid, 주파수대역 스펙트럼 크기 값, 주파수대역 root mean square(RMS) 값, 스펙트로그램 크기 값, 멜-스펙트로그램(Mel-spectrogram) 크기 값, Bispectrum Score(BGS), Non-Gaussianity Score(NGS), Formants Frequencies(FF), Log Energy(LogE), Zero Crossing Rate(ZCR), Kurtosis(Kurt), 및 Mel-frequency cepstral coefficient(MFCC) 중 적어도 하나를 포함할 수 있다.특징 추출부(1200)는 전처리된 음향 데이터를 변환하고, 그로부터 특징 값을 추출할 수 있다. 특징 추출부(1200)는 음향 데이터로부터 추출하고자 하는 특징 값에 따라 변환 형태를 다르게 할 수 있다. 예를 들어, 추출하고자 하는 특징 값이 스펙트럼 값인 경우, 특징 추출부(1200)는 전처리된 음향 데이터를 주파수 축을 가지는 스펙트럼 데이터로 변환할 수 있다. 다른 예를 들어, 추출하고자 하는 특징 값이 멜-스펙트로그램 이미지 값인 경우, 특징 추출부(1200)는 전처리된 음향 데이터를 시간 축 및 주파수 축을 가지는 스펙트로그램 이미지 데이터로 변환할 수 있다. 만약, 추출하고자 하는 특징 값의 종류가 복수인 경우, 특징 추출부(1200)는 전처리된 음향 데이터를 다양한 형태의 데이터로 변환할 수 있다. 이하에서는 설명의 편의를 위해 특징 추출부(1200)에서 추출하고자 하는 특징 값은 멜-스펙트로그램 이미지의 값들인 경우를 주로 서술하나, 본 명세서의 기술적 사상이 이에 한정되는 것은 아니며 특징 값이 다른 형태인 경우에도 유사하게 적용될 수 있다.The feature extraction unit 1200 may extract a feature value from the preprocessed sound data. Here, the feature value may mean digitizing the unique features of the sound data. For example, the feature value is a time-domain spectral magnitude value, spectral centroid, frequency-band spectral magnitude value, frequency-band root mean square (RMS) value, spectrogram magnitude value, Mel-spectrogram magnitude value, and Bispectrum. Score (BGS), Non-Gaussianity Score (NGS), Formants Frequencies (FF), Log Energy (LogE), Zero Crossing Rate (ZCR), Kurtosis (Kurt), and Mel-frequency cepstral coefficient (MFCC) The feature extractor 1200 may convert the preprocessed sound data and extract a feature value therefrom. The feature extraction unit 1200 may change the conversion form according to a feature value to be extracted from the sound data. For example, when the feature value to be extracted is a spectral value, the feature extractor 1200 may convert the preprocessed sound data into spectral data having a frequency axis. As another example, when the feature value to be extracted is a mel-spectrogram image value, the feature extractor 1200 may convert the preprocessed sound data into spectrogram image data having a time axis and a frequency axis. If there are a plurality of types of feature values to be extracted, the feature extraction unit 1200 may convert the preprocessed sound data into various types of data. Hereinafter, for convenience of explanation, a case where the feature values to be extracted by the feature extraction unit 1200 are values of a mel-spectrogram image is mainly described, but the technical spirit of the present specification is not limited thereto, and the feature values are different forms. It can be applied similarly to the case of .
특징 추출부(1200)는 전처리된 음향 데이터를 변환한 멜-스펙트로그램 이미지 데이터에 대해 윈도윙(windowing)을 통해 조각 대상 데이터를 획득할 수 있다. 여기서, 윈도윙은 일정 크기의 시간 구간을 가지는 윈도우(window)를 이용하여 음향 데이터 또는 변환된 데이터의 시작 지점부터 종료 지점 사이를 구분하는 것을 의미할 수 있다. 구체적인 윈도윙 방법에 대해서는 후술하도록 한다.The feature extractor 1200 may acquire engraving target data through windowing on Mel-spectrogram image data obtained by converting pre-processed sound data. Here, the windowing may refer to discriminating between the start point and the end point of sound data or converted data using a window having a time interval of a certain size. A detailed windowing method will be described later.
윈도윙을 통해 얻어지는 조각 대상 데이터는 각 윈도우 구간에서의 벡터 데이터, 행렬 데이터, 또는 그 외의 형식을 가지는 데이터로 이해될 수 있다. 예를 들어, 조각 대상 데이터는 상술한 멜-스펙트로그램 이미지의 값들을 각 윈도우 구간에서 일렬로 나열한 벡터 데이터들의 집합으로 이해될 수 있다. 다른 예를 들어, 조각 대상 데이터는 상술한 멜-스펙트로그램 이미지의 값들을 각 윈도우 구간에서 시간 축 및 주파수 축을 고려한 행렬 형태의 데이터들의 집합으로 이해될 수 있다.The fragment target data obtained through windowing may be understood as vector data in each window section, matrix data, or data having other formats. For example, the engraving target data may be understood as a set of vector data in which values of the above-described Mel-spectrogram image are arranged in a line in each window section. As another example, the engraving target data may be understood as a set of matrix-type data in which the values of the above-described mel-spectrogram image are taken into consideration in each window section on a time axis and a frequency axis.
한편, 특징 추출부(1200)는 음향 데이터를 변환하여 특징 값을 추출하기에 앞서 윈도윙을 통해 음향 데이터를 서로 다른 조각 음향 데이터로 나눌 수도 있다. 또는, 전처리부(1100)에서 윈도윙이 수행되고, 특징 추출부(1200)는 전처리부(1100)로부터 조각 음향 데이터를 획득하며, 획득된 조각 음향 데이터를 특징 값을 포함하는 데이터(ex. 스펙트럼, 스펙트로그램, 또는 멜-스펙트로그램 등)로 변환하여 특징 값을 추출하고, 추출한 특징 값들의 벡터 형태, 행렬 형태, 또는 그 외의 형태의 데이터를 조각 대상 데이터로 획득할 수 있다.Meanwhile, the feature extraction unit 1200 may divide the sound data into different pieces of sound data through windowing before converting the sound data and extracting the feature values. Alternatively, windowing is performed in the pre-processing unit 1100 , the feature extracting unit 1200 obtains the piece sound data from the pre-processing unit 1100 , and the obtained piece sound data is used as data including a feature value (eg, a spectrum). , spectrogram, or Mel-spectrogram) to extract a feature value, and data in a vector form, a matrix form, or other form of the extracted feature values may be obtained as engraving target data.
특징 추출부(1200)는 조각 대상 데이터를 요속 예측부(1300) 및/또는 배뇨/비-배뇨 분류부(1400)에 전달할 수 있다.The feature extractor 1200 may transmit the piece target data to the urine velocity predictor 1300 and/or the urination/non-urination classification unit 1400 .
요속 예측부(1300)는 배뇨 과정에서 요속을 예측할 수 있다. 예를 들어, 요속 예측부(1300)는 미리 학습된 요속 예측 모델을 이용하여 음향 데이터에 대한 예측 요속 값들을 산출할 수 있다. The urine velocity prediction unit 1300 may predict the urine velocity during urination. For example, the yaw velocity predictor 1300 may calculate predicted yaw velocity values for the acoustic data using a pre-learned yaw velocity prediction model.
요속 예측 모델은 기계 학습(machine learning)을 이용하여 학습된 모델을 의미할 수 있다. 여기서, 기계 학습은 인공신경망(artificial neural network), 나아가 딥러닝(deep-learning)을 포함하는 포괄적인 개념으로 이해될 수 있다. 예를 들어, 요속 예측 모델은 배뇨 과정에서 배뇨 속도를 정밀하게 측정하여 획득된 데이터를 해당 배뇨 과정을 녹음하여 획득한 음향 데이터를 라벨링한 학습 데이터 셋으로 학습된 인공 신경망으로 구현될 수 있다. 요속 예측 모델의 구조와 학습 방법에 대해서는 추후 구체적으로 서술한다.The yaw velocity prediction model may refer to a model trained using machine learning. Here, machine learning may be understood as a comprehensive concept including an artificial neural network and further deep-learning. For example, the urine velocity prediction model may be implemented as an artificial neural network trained with a training data set in which the data obtained by precisely measuring the urination rate in the urination process are labeled with the acoustic data acquired by recording the urination process. The structure and learning method of the yaw velocity prediction model will be described in detail later.
요속 예측부(1300)는 요속 예측 모델을 이용하여 배뇨 과정에서 시간에 따른 요속 값들을 획득하고 이를 배뇨 정보 추출부(1500)에 제공할 수 있다.The urine velocity prediction unit 1300 may obtain urine velocity values according to time in the urination process using the urine velocity prediction model and provide the urine velocity values to the urination information extractor 1500 .
배뇨/비-배뇨 분류부(1400)는 배뇨 과정에서 배뇨 구간 및 비-배뇨 구간을 구분할 수 있다. 예를 들어, 배뇨/비-배뇨 분류부(1400)는 미리 학습된 배뇨/비-배뇨 분류 모델을 이용하여 음향 데이터로부터 배뇨 구간들과 비-배뇨 구간들을 구분한 분류 데이터를 획득할 수 있다. The urination/non-urination classification unit 1400 may classify a urination section and a non-urination section in the urination process. For example, the urination/non-urination classification unit 1400 may obtain classification data obtained by dividing urination sections and non-urination sections from the acoustic data using a pre-trained urination/non-urination classification model.
배뇨/비-배뇨 분류 모델은 기계 학습을 이용하여 학습된 모델을 의미할 수 있다. 예를 들어, 배뇨/비-배뇨 분류 모델은 배뇨 과정에서 정밀하게 측정한 배뇨량 데이터를 이용하여 획득한 배뇨/비-배뇨 구간을 지시하는 데이터를 해당 배뇨 과정을 녹음하여 획득한 음향 데이터에 라벨링한 학습 데이터 셋으로 학습된 인공 신경망으로 구현될 수 있다. 배뇨/비-배뇨 분류 모델의 구조와 학습 방법에 대해서는 추후 구체적으로 서술한다.The urination/non-urination classification model may refer to a model trained using machine learning. For example, in the urination/non-urination classification model, data indicating the urination/non-urination section obtained using precisely measured urination data during the urination process is labeled on the acoustic data obtained by recording the urination process. It can be implemented as an artificial neural network trained with a training data set. The structure and learning method of the urination/non-urination classification model will be described in detail later.
배뇨/비-배뇨 분류부(1400)는 배뇨/비-배뇨 분류 모델을 이용하여 배뇨 과정에서 시간에 따른 배뇨/비-배뇨 여부를 지시하는 분류 값들을 획득하고 이를 배뇨 정보 추출부(1500)에 제공할 수 있다.The urination/non-urination classification unit 1400 acquires classification values indicating whether urination/non-urination according to time in the urination process using the urination/non-urination classification model, and sends the classification values to the urination information extraction unit 1500 can provide
배뇨 정보 추출부(1500)는 배뇨 과정에 대한 배뇨 정보를 획득할 수 있다. 예를 들어, 배뇨 정보 추출부(1500)는 상술한 요속 예측부(1300)로부터 획득한 요속 값들과 배뇨/비-배뇨 분류부(1400)로부터 획득한 분류 값들을 이용하여 배뇨 데이터를 생성할 수 있고, 생성된 배뇨 데이터로부터 배뇨 정보를 추출할 수 있다.The urination information extractor 1500 may acquire urination information for a urination process. For example, the urination information extraction unit 1500 may generate urination data using the urine velocity values obtained from the above-described urine velocity prediction unit 1300 and the classification values obtained from the urination/non-urination classification unit 1400. and urination information may be extracted from the generated urination data.
구체적으로, 배뇨 정보 추출부(1500)는 획득한 요속 값들을 이용하여 녹음된 배뇨 과정에 대한 후보 요속 데이터를 생성할 수 있다. 또한, 배뇨 정보 추출부(1500)는 획득한 분류 값들을 이용하여 녹음된 배뇨 과정에 대한 배뇨 구분 데이터를 생성할 수 있다. 배뇨 정보 추출부(1500)는 배뇨 데이터 산출 모델을 이용하여 상술한 후보 요속 데이터 및 배뇨 구분 데이터에 기초한 배뇨 데이터를 획득할 수 있다. 여기서, 배뇨 데이터는 녹음된 배뇨 과정에 대한 시간에 따른 요속 값들의 집합으로 이해될 수 있다.Specifically, the urination information extractor 1500 may generate candidate urine velocity data for the recorded urination process by using the obtained urine velocity values. Also, the urination information extraction unit 1500 may generate urination classification data for the recorded urination process by using the obtained classification values. The urination information extractor 1500 may acquire urination data based on the candidate urine velocity data and the urination classification data described above by using the urination data calculation model. Here, the urination data may be understood as a set of urine velocity values according to time for a recorded urination process.
배뇨 정보 추출부(1500)는 배뇨 데이터로부터 배뇨 정보를 추출할 수 있다. 여기서, 배뇨 정보는 배뇨 과정에서의 최대 요속(maximum flow rate), 평균 요속(average flow rate), 배뇨량, 배뇨 시작 시점 및 종료 시점, 요류 시간(flow time), 최대요속 도달 시간(time to maximum flow rate) 및 배뇨시간(중단 시간 포함 또는 불포함) 등을 포함할 수 있다.The urination information extraction unit 1500 may extract urination information from the urination data. Here, the voiding information includes a maximum flow rate, an average flow rate, a voiding amount, a urination start and end time, a flow time, and a time to maximum flow in the urination process. rate) and urination time (with or without interruption time), and the like.
상술한 전처리부(1100), 특징 추출부(1200), 요속 예측부(1300), 배뇨/비-배뇨 분류부(1400) 및 배뇨 정보 추출부(1500)는 소프트웨어적 프로그램을 의미할 수 있다. 예를 들어, 전처리부(1100)의 노이즈 제거 및 윈도윙 과정, 특징 추출부(1200)의 데이터 변환 및 대상 데이터 생성 과정, 요속 예측부(1300)의 요속 예측 모델, 배뇨/비-배뇨 분류부(1400)의 배뇨/비-배뇨 분류 모델 및 배뇨 정보 추출부(1500)의 배뇨 데이터 산출 모델은 복수의 함수 또는 명령어 등의 형태로 후술하는 음향 분석 시스템(1000)의 메모리부(미도시)에 저장되고, 제어부(1900)에 의해 로딩됨으로써 실행될 수 있다.The above-described preprocessor 1100 , feature extraction unit 1200 , urine velocity prediction unit 1300 , urination/non-urination classification unit 1400 , and urination information extraction unit 1500 may refer to software programs. For example, the noise removal and windowing process of the preprocessor 1100, the data conversion and target data generation process of the feature extraction unit 1200, the urine velocity prediction model of the urine velocity prediction unit 1300, urination / non-urination classification unit The urination/non-urination classification model of 1400 and the urination data calculation model of the urination information extraction unit 1500 are in the memory unit (not shown) of the acoustic analysis system 1000 to be described later in the form of a plurality of functions or commands. It may be stored and executed by being loaded by the controller 1900 .
입력부(1600)는 사용자로부터 사용자 입력을 수신할 수 있다. 사용자 입력은 키 입력, 터치 입력, 음성 음력을 비롯한 다양한 형태로 이루어질 수 있다. 입력부 (1600)의 예로는 전통적인 형태의 키패드나 키보드, 마우스는 물론, 사용자의 터치를 감지하는 터치 센서 및 그 외의 다양한 형태의 사용자 입력을 감지하거나 입력 받는 다양한 형태의 입력 수단을 모두 포함하는 포괄적인 개념이다.The input unit 1600 may receive a user input from a user. The user input may be made in various forms, including a key input, a touch input, and a voice sound. Examples of the input unit 1600 include a traditional keypad, keyboard, and mouse, as well as a touch sensor for sensing a user's touch, and various types of input means for sensing or receiving various types of user input. Concept.
출력부(1700)는 배뇨 정보를 출력해 사용자에게 이를 제공할 수 있다. 출력부(1700)는 영상을 출력하는 디스플레이, 소리를 출력하는 스피커, 진동을 발생시키는 햅틱 장치 및 그 외의 다양한 형태의 출력 수단을 모두 포함하는 포괄적인 개념이다. The output unit 1700 may output urination information and provide it to the user. The output unit 1700 is a comprehensive concept including a display that outputs an image, a speaker that outputs a sound, a haptic device that generates vibration, and other various types of output means.
통신부(1800)는 외부 기기와 통신을 수행할 수 있다. 음향 분석 시스템(1000)은 통신부(1800)를 통해 녹음 장치(2000)나 외부 서버(3000)와 데이터 송수신을 할 수 있다. 예를 들어, 음향 분석 시스템(1000)은 통신부(1800)를 통해 배뇨 정보를 녹음 장치(2000) 및/또는 외부 서버(3000)에 제공할 수 있고, 음향 데이터를 녹음 장치(2000) 및/또는 외부 서버(3000)로부터 수신할 수 있다.The communication unit 1800 may communicate with an external device. The sound analysis system 1000 may transmit/receive data to and from the recording device 2000 or the external server 3000 through the communication unit 1800 . For example, the acoustic analysis system 1000 may provide urination information to the recording device 2000 and/or the external server 3000 through the communication unit 1800 , and transmit the acoustic data to the recording device 2000 and/or the external server 3000 . It can be received from the external server (3000).
제어부(1900)는 음향 분석 시스템(1000)의 전반적인 동작을 제어할 수 있다. 예를 들어, 제어부(1900)는 전처리부(1100), 특징 추출부(1200), 요속 예측부(1300), 배뇨/비-배뇨 분류부(1400), 및 배뇨 정보 추출부(1500)와 관련된 프로그램을 로딩하여 실행함으로써 음향 데이터로부터 배뇨 정보를 획득할 수 있다. 제어부(1900)는 하드웨어나 소프트웨어 또는 이들의 조합에 따라 CPU(Central Processing Unit)나 이와 유사한 장치로 구현될 수 있다. 하드웨어적으로 전기적 신호를 처리하여 제어 기능을 수행하는 전자 회로 형태로 제공될 수 있으며, 소프트웨어적으로는 하드웨어적 회로를 구동시키는 프로그램이나 코드 형태로 제공될 수 있다.The controller 1900 may control the overall operation of the acoustic analysis system 1000 . For example, the control unit 1900 may include the preprocessor 1100 , the feature extraction unit 1200 , the urine velocity prediction unit 1300 , the urination/non-urination classification unit 1400 , and the urination information extraction unit 1500 related to By loading and executing the program, it is possible to obtain urination information from the sound data. The controller 1900 may be implemented as a central processing unit (CPU) or a similar device according to hardware, software, or a combination thereof. In hardware, it may be provided in the form of an electronic circuit that performs a control function by processing an electrical signal, and in software, it may be provided in the form of a program or code for driving a hardware circuit.
음향 분석 시스템(1000)은 각종 정보를 저장하기 위한 메모리부를 더 포함할 수 있다. 메모리부에는 각종 데이터가 임시적으로 또는 반영구적으로 저장될 수 있다. 메모리부의 예로는 하드 디스크(HDD: Hard Disk Drive), SSD(Solid State Drive), 플래쉬 메모리(flash memory), 롬(ROM: Read-Only Memory), 램(RAM: Random Access Memory) 등이 있을 수 있다. 메모리부는 음향 분석 시스템(1000)에 내장되는 형태나 탈부착 가능한 형태로 제공될 수 있다.The acoustic analysis system 1000 may further include a memory unit for storing various types of information. Various data may be temporarily or semi-permanently stored in the memory unit. Examples of the memory unit may include a hard disk (HDD), a solid state drive (SSD), a flash memory, a read-only memory (ROM), and a random access memory (RAM). have. The memory unit may be provided in a form embedded in the sound analysis system 1000 or in a form detachable.
음향 분석 과정Acoustic Analysis Course
이하에서는 도 4 내지 도 14를 참고하여 상술한 음향 분석 시스템(1000)에서 수행되는 음향 분석 과정의 각 단계에 대해서 구체적으로 서술한다.Hereinafter, each step of the acoustic analysis process performed in the aforementioned acoustic analysis system 1000 will be described in detail with reference to FIGS. 4 to 14 .
윈도우 구분 방법How to separate windows
도 4 및 도 5는 본 명세서의 일 실시예에 따른 음향 데이터를 윈도우에 따라 구분하는 방법을 나타내는 도면이다. 이하에서는 설명의 편의를 위해 음향 데이터에 대해 윈도우를 구분하는 방법에 대해 서술하되, 윈도우 구분 방법은 음향 데이터 뿐만 아니라 특징 값 추출을 위해 음향 데이터를 변환한 데이터에 대해서도 동일하게 적용될 수 있다.4 and 5 are diagrams illustrating a method of classifying sound data according to a window according to an embodiment of the present specification. Hereinafter, a method of dividing a window with respect to sound data will be described for convenience of explanation, but the window dividing method may be equally applied not only to sound data but also to data obtained by converting sound data to extract feature values.
음향 데이터는 시작 지점 및 종료 지점을 가질 수 있다. 이 때, 음향 데이터의 길이는 시작 지점과 종료 지점 사이의 시간으로 결정될 수 있다. 음향 데이터의 길이는 음향 데이터가 녹음된 길이에 따라 결정될 수 있다.The acoustic data may have a starting point and an ending point. In this case, the length of the sound data may be determined as the time between the start point and the end point. The length of the sound data may be determined according to the length at which the sound data is recorded.
음향 데이터는 적어도 하나 이상의 윈도우로 구분될 수 있다. 예를 들어, 음향 데이터는 그 시작 지점과 종료 지점 사이에서 순차적으로 결정되는 적어도 하나 이상의 윈도우로 구분되고, 각 윈도우에 대응되는 조각 음향 데이터가 획득될 수 있다. 여기서, 적어도 하나 이상의 윈도우가 순차적으로 결정되는 것의 의미는 음향 데이터의 시작 지점부터 종료 지점까지 복수의 윈도우가 순서대로 나열되는 것을 의미한다. 한편, 적어도 하나 이상의 윈도우는 시계열적으로 음향 데이터의 시작 지점과 종료 지점 사이의 특정 구간을 할당 받을 수 있다. 윈도우는 미리 정해진 크기를 가질 수 있다. 윈도우의 크기는 음향 데이터의 길이와 음향 데이터를 구분하고자 하는 윈도우 개수에 따라 결정될 수 있다. 또한, 윈도우 개수가 복수인 경우 연속하는 윈도우는 서로 중첩될 수 있다. The sound data may be divided into at least one window. For example, the sound data may be divided into at least one or more windows sequentially determined between the start point and the end point, and pieces of sound data corresponding to each window may be obtained. Here, the sequential determination of at least one window means that the plurality of windows are sequentially arranged from the start point to the end point of the sound data. Meanwhile, at least one window may be assigned a specific section between the start point and the end point of the sound data in time series. The window may have a predetermined size. The size of the window may be determined according to the length of the sound data and the number of windows for dividing the sound data. Also, when the number of windows is plural, consecutive windows may overlap each other.
일 예로, 도 4를 참고하면, 음향 데이터는 0초를 시작 지점으로, 120초를 종료 지점으로 가지고, 2.5초의 크기를 가지는 복수의 윈도우로 구분될 수 있다. 구체적으로, 음향 데이터의 일부인 37.5초 내지 40.05초의 시간 구간을 보면, 제k 윈도우는 37.50초에서 40.00초, 제k+1 윈도우는 37.55초에서 40.05초, 제k+2 윈도우는 37.60에서 40.10초, 제k+3 윈도우는 37.65초에서 40.15초, 제k+4 윈도우는 37.70초에서 40.20초에 대응될 수 있다. 이처럼, 연속되는 윈도우는 서로 중첩될 수 있으며, 중첩되는 정도는 음향 데이터의 해상도, 연속되는 윈도우의 슬라이딩(sliding) 정도, 윈도우 크기, 및 윈도우 개수에 따라 정해질 수 있다. 예를 들어, 도 4에서 음향 데이터의 해상도는 0.05초, 슬라이딩 정도는 0.05초, 윈도우 크기는 2.5초로, 연속되는 윈도우가 중첩되는 정도는 2.45초일 수 있다. 한편, 음향 데이터의 해상도, 슬라이딩 정도, 및 윈도우 크기가 상술한 수치로 한정되는 것은 아니며, 해상도는 약 0.01초 내지 약 2.00초, 슬라이딩 정도는 약 0.01초 내지 약 5.00초, 그리고 윈도우 크기는 약 0.05초 내지 약 5.00초 사이에서 결정될 수 있다. 보다 바람직하게, 해상도는 약 0.05초 내지 약 1.00초, 슬라이딩 정도는 약 0.05초 내지 약 2.50초, 그리고 윈도우 크기는 약 0.10초 내지 약 3.00초 사이에서 결정될 수 있다.For example, referring to FIG. 4 , sound data may be divided into a plurality of windows having 0 seconds as a starting point, 120 seconds as an ending point, and a size of 2.5 seconds. Specifically, looking at the time interval of 37.5 seconds to 40.05 seconds, which is a part of the sound data, the kth window is 37.50 seconds to 40.00 seconds, the k+1th window is 37.55 seconds to 40.05 seconds, the k+2 window is 37.60 to 40.10 seconds, The k+3th window may correspond to 37.65 seconds to 40.15 seconds, and the k+4th window may correspond to 37.70 seconds to 40.20 seconds. As such, the successive windows may overlap each other, and the overlapping degree may be determined according to the resolution of the sound data, the sliding degree of the successive windows, the window size, and the number of windows. For example, in FIG. 4 , the resolution of the acoustic data may be 0.05 seconds, the sliding degree may be 0.05 seconds, the window size may be 2.5 seconds, and the overlapping degree of successive windows may be 2.45 seconds. On the other hand, the resolution, sliding degree, and window size of the sound data are not limited to the above-mentioned numerical values, the resolution is about 0.01 seconds to about 2.00 seconds, the sliding degree is about 0.01 seconds to about 5.00 seconds, and the window size is about 0.05 It can be determined between seconds and about 5.00 seconds. More preferably, the resolution may be determined between about 0.05 seconds and about 1.00 seconds, the sliding degree between about 0.05 seconds and about 2.50 seconds, and the window size between about 0.10 seconds and about 3.00 seconds.
후술하는 데이터 병합 과정을 고려할 때, 연속되는 윈도우의 중첩되는 정도가 커질수록 데이터의 정확도가 높아질 수 있으나 데이터 처리량이 많아져 데이터 처리 속도가 느려질 수 있다. 따라서, 데이터의 정확도와 데이터의 처리 속도 사이의 우선순위를 고려하여 연속되는 윈도우의 중첩되는 정도를 결정할 필요가 있다.In consideration of the data merging process to be described later, as the overlapping degree of successive windows increases, the accuracy of data may increase, but the data processing speed may decrease due to an increase in the amount of data processing. Therefore, it is necessary to determine the overlapping degree of successive windows in consideration of the priority between data accuracy and data processing speed.
다른 예로, 도 5를 참고하면, 음향 데이터는 0초를 시작 지점으로, 120초를 종료 지점으로 가지고, 2.5초의 크기를 가지는 복수의 윈도우로 구분되되, 도 4와 다르게 연속하는 윈도우가 서로 중첩되지 않을 수 있다. 구체적으로, 음향 데이터의 일부인 37.5초 내지 45초의 시간 구간을 보면, 제k 윈도우는 37.50초에서 40.00초, 제k+1 윈도우는 40.00초에서 42.50초, 제k+2 윈도우는 42.50초에서 45.00초에 대응될 수 있다. 연속되는 윈도우가 중첩되지 않도록 음향 데이터를 윈도우로 구분하는 경우, 후술하는 데이터 병합 과정에서 데이터의 정확도는 낮아질 수 있으나 데이터 처리량이 줄어들어 데이터 처리 속도가 상대적으로 빠를 수 있다.As another example, referring to FIG. 5 , the sound data is divided into a plurality of windows having 0 seconds as a starting point, 120 seconds as an ending point, and having a size of 2.5 seconds. Unlike FIG. 4 , successive windows do not overlap each other. it may not be Specifically, looking at a time interval of 37.5 seconds to 45 seconds, which is a part of the sound data, the k-th window is from 37.50 seconds to 40.00 seconds, the k+1th window is from 40.00 seconds to 42.50 seconds, and the k+2 window is from 42.50 seconds to 45.00 seconds. can correspond to When sound data is divided into windows so that successive windows do not overlap, accuracy of data may be lowered in a data merging process to be described later, but data processing speed may be reduced and data processing speed may be relatively fast.
음향 데이터를 복수의 윈도우로 구분함에 있어서 연속되는 윈도우의 중첩 여부 및 중첩되는 경우 그 중첩되는 정도는 음향 데이터로부터 얻고자 하는 목적 데이터에 따라 달라질 수 있다.When sound data is divided into a plurality of windows, whether successive windows overlap and, if overlapped, the degree of overlap may vary depending on target data to be obtained from the sound data.
일 예로, 음향 데이터를 이용하여 배뇨 과정에서 요속을 예측함에 있어서, 예측 요속 값은 높은 정확도가 요구되는 점에서 음향 데이터를 복수의 윈도우로 구분하되, 도 4와 같이 연속되는 윈도우는 중첩되도록 하여 정확도를 향상시키는 것이 바람직할 수 있다.As an example, in predicting the urine velocity in the urination process using the acoustic data, the predicted urine velocity value divides the acoustic data into a plurality of windows because high accuracy is required. It may be desirable to improve
다른 예로, 음향 데이터를 이용하여 배뇨 과정을 배뇨 구간 및 비-배뇨 구간으로 분류함에 있어서, 배뇨/비-배뇨 여부를 판단하는 것은 상대적으로 용이하여 정확도가 대체로 높은 점에서, 음향 데이터를 복수의 윈도우로 구분하되, 상술한 요속을 예측하는 과정에서 연속되는 윈도우가 중첩되는 정도보다 낮도록 윈도우 슬라이딩 정도를 크게 하거나, 도 5와 같이 연속되는 윈도우는 중첩되지 않도록 하여 데이터 처리 속도를 향상시키는 것이 바람직할 수 있다.As another example, in classifying a urination process into a urination section and a non-urination section using the sound data, it is relatively easy to determine whether urination/non-urination is present and the accuracy is generally high. However, in the process of predicting the above-mentioned yaw speed, it is desirable to increase the window sliding degree to be lower than the overlapping degree of successive windows, or to improve the data processing speed by not overlapping successive windows as shown in FIG. can
이하에서는, 설명의 편의를 위해 요속을 예측하는 과정에서는 연속되는 윈도우가 중첩되도록 음향 데이터를 복수의 윈도우로 구분하고, 배뇨 구간 및 비-배뇨 구간을 분류하는 과정에서는 요속을 예측하는 과정에서보다 연속되는 윈도우의 중첩되는 정도가 낮도록 또는 연속되는 윈도우가 중첩되지 않도록 음향 데이터를 복수의 윈도우로 구분하는 경우에 대해 주로 서술하나, 본 명세서의 기술적 사상이 이에 한정되는 것은 아니며, 요속을 예측하는 과정과 배뇨 구간 및 비-배뇨 구간을 구분하는 과정 모두 연속되는 윈도우가 중첩되는 정도가 동일하도록 음향 데이터를 복수의 윈도우로 구분할 수도 있고, 반대로 두 과정 모두 연속되는 윈도우가 중첩되지 않도록 음향 데이터를 복수의 윈도우로 구분할 수도 있음은 물론이다.Hereinafter, for convenience of explanation, in the process of predicting the urine speed, sound data is divided into a plurality of windows so that consecutive windows overlap, and in the process of classifying the urination section and the non-urination section, it is more continuous than in the process of predicting the urine speed. A case in which the acoustic data is divided into a plurality of windows so that the overlapping degree of the windows to be overlapped is low or the continuous windows are not overlapped is mainly described, but the technical spirit of the present specification is not limited thereto, and the process of predicting the yaw velocity The sound data may be divided into a plurality of windows so that the overlapping degree of successive windows is the same for both the process of classifying the urination section and the non-urination section, and conversely, in both processes, the sound data is divided into a plurality of windows so that the continuous windows do not overlap. Of course, it can also be separated by a window.
특징 값 추출Feature value extraction
도 6은 본 명세서의 일 실시예에 따른 음향 데이터로부터 특징 값을 추출하는 과정을 나타내는 도면이다. 여기서, 특징 값은 스펙트로그램의 이미지 데이터로부터 추출되는 것을 주로 서술하나, 상술한 다른 종류의 특징 값을 추출하는 경우도 본 명세서의 기술적 사상에 포함될 수 있음은 물론이다.6 is a diagram illustrating a process of extracting a feature value from sound data according to an embodiment of the present specification. Here, the feature value is mainly described as being extracted from the image data of the spectrogram, but it goes without saying that extracting other types of feature values described above may also be included in the technical spirit of the present specification.
음향 데이터는 일반적으로 시간에 따른 진폭 값들을 포함할 수 있다. 음향 데이터는 가공을 통해 주파수에 따른 크기 값들을 포함하는 스펙트럼 데이터로 변환될 수 있다. 여기에서, 스펙트럼 데이터는 푸리에 변환(FT: Fourier Transform), 고속 푸리에 변환(FFT: Fast Fourier Transform), 이산 푸리에 변환(DFT: Discrete Fourier Transform), 단시간 푸리에 변환(STFT: Short Time Fourier Transform)을 이용하여 얻어질 수 있다.Acoustic data may generally include amplitude values over time. The sound data may be converted into spectral data including magnitude values according to frequency through processing. Here, the spectral data uses a Fourier Transform (FT), a Fast Fourier Transform (FFT), a Discrete Fourier Transform (DFT), and a Short Time Fourier Transform (STFT). can be obtained by
스펙트로그램 이미지는 상술한 음향 데이터 및 스펙트럼 데이터를 이용하여 획득될 수 있다. 여기서, 스펙트로그램 이미지는 멜-스케일(Mel-scale)을 적용한 멜-스펙트로그램 이미지일 수 있다. The spectrogram image may be obtained using the above-described acoustic data and spectrum data. Here, the spectrogram image may be a Mel-spectrogram image to which Mel-scale is applied.
특징 추출부(1200)는 스펙트로그램 이미지로부터 데이터를 추출할 수 있다. 데이터 추출은 음향 데이터를 구분한 복수의 윈도우 각각에 대응하는 스펙트로그램 이미지 값이 추출되는 과정으로 이해될 수 있다. The feature extractor 1200 may extract data from the spectrogram image. Data extraction may be understood as a process in which spectrogram image values corresponding to each of a plurality of windows dividing sound data are extracted.
분석을 위한 대상 데이터 획득Acquire target data for analysis
도 7 및 도 8은 본 명세서의 일 실시예에 따른 분석 대상이 되는 대상 데이터를 획득하는 과정을 나타내는 도면이다.7 and 8 are diagrams illustrating a process of acquiring target data to be analyzed according to an embodiment of the present specification.
대상 데이터는 변환된 음향 데이터로부터 특징 값을 추출하여 생성한 데이터의 집합을 의미할 수 있다. 예를 들어, 음향 데이터의 스펙트로그램 이미지로부터 조각 대상 데이터가 복수 개 생성될 수 있고, 대상 데이터는 복수 개 조각 대상 데이터의 집합으로 이해될 수 있다. The target data may refer to a set of data generated by extracting a feature value from the converted sound data. For example, a plurality of pieces of target data may be generated from a spectrogram image of the sound data, and the target data may be understood as a set of a plurality of pieces of target data.
대상 데이터의 개수, 즉 대상 데이터가 포함하는 조각 대상 데이터의 개수는 윈도우 개수와 동일할 수 있다. 예를 들어, 도 7을 참고하면, 음향 데이터를 제1 내지 제m 윈도우(m은 2 이상의 자연수)로 구분하는 경우 대상 데이터는 제1 내지 제m 윈도우 각각에 대응하는 제1 내지 제m 조각 대상 데이터를 포함할 수 있다. 다른 예를 들어, 음향 데이터를 제1 내지 제n 윈도우(n은 2 이상의 자연수)로 구분하는 경우 대상 데이터는 제1 내지 제n 윈도우 각각에 대응하는 제1 내지 제n 조각 대상 데이터를 포함할 수 있다. The number of target data, that is, the number of pieces of target data included in the target data may be the same as the number of windows. For example, referring to FIG. 7 , when sound data is divided into first to m-th windows (m is a natural number greater than or equal to 2), the target data is a first to m-th engraving target corresponding to each of the first to m-th windows. It may contain data. For another example, when the sound data is divided into first to n-th windows (n is a natural number greater than or equal to 2), the target data may include first to n-th piece target data corresponding to each of the first to n-th windows. have.
한편, 대상 데이터가 포함하는 조각 대상 데이터 개수는 윈도우 개수와 동일하지 않을 수도 있다. 예를 들어, 대상 데이터는 윈도우 개수보다 많은 수의 조각 대상 데이터 개수를 포함할 수도 있다.On the other hand, the number of pieces of target data included in the target data may not be the same as the number of windows. For example, the target data may include a number of pieces of target data greater than the number of windows.
조각 대상 데이터 각각의 크기는 스펙트로그램의 시간 축의 단위 시간(또는 해상도), 주파수 축의 단위 구간 수, 및 윈도우의 크기에 따라 결정될 수 있다. 예를 들어, 하나의 조각 대상 데이터 크기를 z*p라고 할 때, 스펙트로그램의 시간 축 단위 시간이 0.05초, 주파수 축의 단위 구간 수가 512개, 윈도우의 크기가 2.5초인 경우 z=2.5/0.05=50, p=512일 수 있다.The size of each piece of data to be sliced may be determined according to the unit time (or resolution) of the time axis of the spectrogram, the number of unit sections on the frequency axis, and the size of the window. For example, assuming that the data size for one slice is z*p, if the time axis unit time of the spectrogram is 0.05 seconds, the number of unit sections on the frequency axis is 512, and the window size is 2.5 seconds, z=2.5/0.05= 50, p=512.
대상 데이터가 생성되는 과정에서 음향 데이터를 복수의 윈도우로 구분하는 방식으로 도 7에 도시된 바와 같이 연속되는 윈도우가 중첩되도록 구분하는 방식과, 도 8에 도시된 바와 같이 연속되는 윈도우가 중첩되지 않도록 구분하는 방식이 이용될 수 있다. In a method of dividing sound data into a plurality of windows in the process of generating target data, a method of dividing consecutive windows so as to overlap as shown in FIG. A classification method may be used.
후술하는 요속 예측 모델 또는 배뇨/비-배뇨 분류 모델에 이용되는 대상 데이터의 개수는 서로 다를 수 있다. 예를 들어, 요속 예측 모델에 이용되는 대상 데이터의 개수는 배뇨/비-배뇨 분류 모델에 이용되는 대상 데이터의 개수보다 클 수 있다. The number of target data used in a urine velocity prediction model or a urination/non-urination classification model to be described later may be different from each other. For example, the number of target data used in the urine velocity prediction model may be greater than the number of target data used in the urination/non-urination classification model.
이 때, 요속 예측 모델에 이용되는 대상 데이터 및 배뇨/비-배뇨 분류 모델에 이용되는 대상 데이터는 스펙트로그램 이미지로부터 각각 생성될 수 있다. 여기서, 요속 예측 모델에 이용되는 대상 데이터에 포함되는 조각 대상 데이터 각각의 크기와 배뇨/비-배뇨 분류 모델에 이용되는 대상 데이터에 포함되는 조각 대상 데이터 각각의 크기는 동일하되, 각 모델에서 이용되는 조각 대상 데이터의 총 개수는 다를 수 있다.In this case, the target data used for the urine velocity prediction model and the target data used for the urination/non-urination classification model may be respectively generated from the spectrogram image. Here, the size of each piece of target data included in the target data used in the urinary velocity prediction model and the size of each piece of target data included in the target data used in the urination / non-urination classification model are the same, but the sizes used in each model are the same. The total number of pieces of target data may be different.
또는 스펙트로그램 이미지로부터 생성된 대상 데이터 중 적어도 일부를 요속 예측 모델에 이용하고 적어도 일부를 배뇨/비-배뇨 분류 모델에 이용할 수 있다. 예를 들어, 스펙트로그램 이미지로부터 생성된 제1 내지 제m 조각 대상 데이터 전체를 요속 예측 모델에 이용하고, 제1 내지 제m 조각 대상 데이터 중 제1 내지 제n 조각 대상 데이터(n은 2 이상이고, m보다 작음)를 배뇨/비-배뇨 분류 모델에 이용할 수 있다. 여기서, 제1 내지 제m 조각 대상 데이터는 연속되는 윈도우가 중첩되도록 음향 데이터 또는 스펙트로그램 이미지 데이터를 구분한 제1 내지 제m 윈도우 각각에 대응되고, 제1 내지 제n 조각 대상 데이터는 제1 내지 제m 윈도우 중 서로 중첩되는 정도가 요속 예측 모델에서의 연속되는 윈도우의 중첩되는 정도보다 작거나 서로 중첩되지 않는 n개의 데이터 각각에 대응될 수 있다.Alternatively, at least a portion of the target data generated from the spectrogram image may be used for the urine velocity prediction model, and at least a portion may be used for the urination/non-urination classification model. For example, the entire first to mth slice target data generated from the spectrogram image is used for the yaw velocity prediction model, and the first to nth slice target data among the first to mth slice target data (n is 2 or more and , less than m) can be used for the voiding/non-voiding classification model. Here, the first to m-th engraving target data correspond to each of the first to m-th windows in which the acoustic data or spectrogram image data is divided so that successive windows overlap each other, and the first to n-th engraving target data are the first to m-th windows. The overlapping degree of the mth window may be smaller than the overlapping degree of successive windows in the yaw velocity prediction model, or may correspond to each of the n pieces of data that do not overlap each other.
상술한 바와 같이, 요속 예측 모델 및 배뇨/비-배뇨 분류 모델에 이용되는 조각 대상 데이터의 개수를 달리함으로써 요속 예측 모델에서는 정확도를 높이고, 배뇨/비-배뇨 분류 모델에서는 데이터 처리 속도를 향상시킬 수 있다.As described above, by varying the number of pieces of target data used in the urine velocity prediction model and the urination/non-urination classification model, the accuracy in the urine velocity prediction model is increased, and the data processing speed in the urination/non-urination classification model can be improved. have.
한편, 요속 예측 모델 또는 배뇨/비-배뇨 분류 모델에 이용되는 조각 대상 데이터의 개수는 동일할 수도 있다. 예를 들어, 스펙트로그램 이미지로부터 생성된 제1 내지 제m 조각 대상 데이터는 요속 예측 모델 및 배뇨/비-배뇨 분류 모델 각각에 입력될 수 있다. On the other hand, the number of pieces of target data used in the urine velocity prediction model or the urination/non-urination classification model may be the same. For example, the first to mth piece target data generated from the spectrogram image may be input to each of the urine velocity prediction model and the urination/non-urination classification model.
또한, 학습 방법에 따라 요속 예측 모델에 이용되는 조각 대상 데이터의 형태(ex. 데이터 크기, 총 개수 등)와 배뇨/비-배뇨 분류 모델에 이용되는 조각 대상 데이터의 형태가 다를 수 있음은 물론이다.In addition, according to the learning method, the shape of the slice target data used in the urine velocity prediction model (ex. data size, total number, etc.) and the shape of the slice target data used in the urination/non-urination classification model may be different. .
요속 예측 방법How to predict yaw velocity
이하에서는 도 9 및 도 10을 참고하여 대상 데이터로부터 후보 요속 데이터를 획득하는 과정에 대해 서술한다.Hereinafter, a process of obtaining candidate yaw velocity data from target data will be described with reference to FIGS. 9 and 10 .
도 9는 본 명세서의 일 실시예에 따른 요속 예측 모델을 이용하여 요속 데이터를 획득하는 과정을 나타내는 도면이다.9 is a diagram illustrating a process of acquiring yaw velocity data using a yaw velocity prediction model according to an embodiment of the present specification.
도 9를 참고하면, 요속 예측 모델은 제1 내지 제m 조각 대상 데이터를 입력 받아 제1 내지 제m 조각 요속 데이터를 획득할 수 있다.Referring to FIG. 9 , the yaw velocity prediction model may obtain first to mth fragment yaw velocity data by receiving first to mth slice target data.
요속 예측 모델은 기계학습을 이용하여 학습된 모델로, 그 알고리즘으로 k-최근접 이웃(k-Nearest Neighbors), 선형 회귀(Linear Regression), 로지스틱 회귀(Logistic Regression), 서포트 벡터 머신(SVM: Support Vector Machine), 결정 트리(Decision Tree)와 랜덤 포레스트(Random Forest), 또는 신경망(Neural Network) 중 적어도 어느 하나를 이용할 수 있다. 여기서, 신경망으로 ANN(Artificial Neural Network), TDNN(Time Delay Neural Network), DNN(Deep Neural Network), CNN(Convolution Neural Network), RNN(Recurrent Neural Network), 또는 LSTM(Long short-term Memory) 중 적어도 하나가 선택될 수 있다.The yaw velocity prediction model is a model trained using machine learning, and its algorithms include k-Nearest Neighbors, Linear Regression, Logistic Regression, and Support Vector Machine (SVM: Support). At least one of a vector machine, a decision tree, a random forest, or a neural network may be used. Here, as a neural network, one of Artificial Neural Network (ANN), Time Delay Neural Network (TDNN), Deep Neural Network (DNN), Convolution Neural Network (CNN), Recurrent Neural Network (RNN), or Long short-term Memory (LSTM). At least one may be selected.
일 예로, 도 9를 참고하면 요속 예측 모델은 입력 레이어(input layer), 히든 레이어(hidden layer), 및 출력 레이어(output layer)를 포함할 수 있다. For example, referring to FIG. 9 , the yaw velocity prediction model may include an input layer, a hidden layer, and an output layer.
여기서, 입력 레이어는 z*p의 입력 크기를 가지고 제1 내지 제m 조각 대상 데이터를 순차적으로 입력 받을 수 있다. 또는, 입력 레이어는 m*z*p의 입력 크기를 가지고 제1 내지 제m 조각 대상 데이터를 한 번에 입력 받을 수도 있다.Here, the input layer may sequentially receive the first to mth fragment target data with an input size of z*p. Alternatively, the input layer may have an input size of m*z*p and receive the first to mth piece target data at once.
여기서, 요속 예측 모델이 CNN 알고리즘을 이용하는 경우, 히든 레이어는 컨볼루션 레이어(convolution layer), 풀링 레이어(pooling layer) 및 풀리 커넥티드 레이어(fully-connected layer)를 포함할 수 있다. Here, when the yaw velocity prediction model uses a CNN algorithm, the hidden layer may include a convolution layer, a pooling layer, and a fully-connected layer.
여기서, 출력 레이어는 요속 값들을 포함하는 조각 요속 데이터를 출력할 수 있다. 이 때, 출력 레이어에서 출력되는 조각 요속 데이터는 입력된 대상 데이터에 대응하는 윈도우에 대응될 수 있다. 예를 들어, 요속 예측 모델에 제1 윈도우에 대응하는 제1 조각 대상 데이터가 입력되어 제1 조각 요속 데이터가 출력될 때, 제1 조각 요속 데이터는 제1 윈도우에 대응하는 요속 값들을 포함할 수 있다. 구체적으로, 제1 조각 요속 데이터는 제1 윈도우, 즉 음향 데이터의 시작 지점으로부터 윈도우 크기 만큼의 시간 동안에서 단위 시간 구간 당 예측 요속 값들을 포함할 수 있고, 그 개수는 전술한 대상 데이터의 크기 또는 스펙트로그램의 시간 축 단위 시간에 따라 결정될 수 있다(ex. 스펙트로그램의 시간 축 단위 시간이 0.05초이고 윈도우의 크기가 2.5초인 경우 하나의 조각 요속 데이터가 포함하는 예측 요속 값들의 개수는 2.5/0.05=50개이다).Here, the output layer may output fragment yaw velocity data including yaw velocity values. In this case, the fragment yaw velocity data output from the output layer may correspond to a window corresponding to the input target data. For example, when the first fragment target data corresponding to the first window is input to the yaw velocity prediction model and the first fragment yaw velocity data is output, the first fragment yaw velocity data may include yaw velocity values corresponding to the first window. have. Specifically, the first piece of yaw velocity data may include predicted yaw velocity values per unit time interval in the first window, that is, from the start point of the sound data for a time equal to the window size, and the number is the size or It may be determined according to the time axis unit time of the spectrogram (ex. If the time axis unit time of the spectrogram is 0.05 seconds and the window size is 2.5 seconds, the number of predicted yaw velocity values included in one piece of yaw velocity data is 2.5/0.05 = 50 pieces).
한편, 요속 예측 모델은 예측 요속 값들을 출력하는 기능을 수행하여, 후술하는 배뇨/비-배뇨 분류 모델과 달리 계단 함수(step function), 시그모이드 함수(sigmoid function), 또는 소프트맥스 함수(softmax function)와 같은 활성화 함수 또는 분류기(classifier)는 이용하지 않는다.On the other hand, the urine velocity prediction model performs a function of outputting predicted urine velocity values, and unlike a urination/non-urination classification model to be described later, a step function, a sigmoid function, or a softmax function function) or an activation function or classifier.
도 10은 본 명세서의 일 실시예에 따른 후보 요속 데이터를 획득하는 방법을 나타내는 도면이다.10 is a diagram illustrating a method of obtaining candidate yaw velocity data according to an embodiment of the present specification.
배뇨 정보 추출부(1500)는 조각 요속 데이터들을 가공하여 후보 요속 데이터를 생성할 수 있다. 여기서, 후보 요속 데이터는 녹음된 배뇨 과정에서 시간에 따른 예측 요속 값들을 포함할 수 있다. 후보 요속 데이터에 포함되는 예측 요속 값 각각은 복수의 조각 요속 데이터로부터 획득될 수 있다. 구체적으로, 후보 요속 데이터에서 특정 시간 구간의 예측 요속 값은 전체 조각 요속 데이터 각각에서 특정 시간 구간에 대응하는 예측 요속 값들을 이용(ex. 평균 값 또는 중간 값을 이용)하여 획득될 수 있다.The urination information extraction unit 1500 may generate candidate urine velocity data by processing the piece of urine velocity data. Here, the candidate urine velocity data may include predicted urine velocity values according to time in the recorded urination process. Each predicted yaw velocity value included in the candidate yaw velocity data may be obtained from a plurality of pieces of yaw velocity data. Specifically, the predicted yaw velocity value of a specific time interval in the candidate yaw velocity data may be obtained by using predicted yaw velocity values corresponding to the specific time interval in each of the entire piece of yaw velocity data (eg, using an average value or an intermediate value).
일 예로, 도 4 및 도 10을 참고하면 요속 예측 모델을 통해 출력된 데이터의 일부를 제k 내지 제k+3 조각 요속 데이터라고 하고, 제k 조각 요속 데이터는 37.50초에서 40.00초의 제k 윈도우에 대응되고, 제k+1 조각 요속 데이터는 37.55초에서 40.05초의 제k+1 윈도우에 대응되고, 제k+2 조각 요속 데이터는 37.60초에서 40.10초의 제k+2 윈도우에 대응되고, 제k+3 조각 요속 데이터는 37.65초에서 40.15초의 제k+3 윈도우에 대응될 때, 음향 데이터에 대한 후보 요속 데이터 중 37.65초에서 37.70초에 해당하는 예측 요속 값은 제k 조각 요속 데이터에서 37.65초에서 37.70초에 대응하는 예측 요속 값(k,4), 제k+1 조각 요속 데이터에서 37.65초에서 37.70초에 대응하는 예측 요속 값(k+1,3), 제k+2 조각 요속 데이터에서 37.65초에서 37.70초에 대응하는 예측 요속 값(k+2,2), 제k+3 조각 요속 데이터에서 37.65초에서 37.70초에 대응하는 예측 요속 값(k+3,1), 및 제k 조각 요속 데이터 이전의 조각 요속 데이터 각각에서 37.65초에서 37.70초에 대응하는 예측 요속 값들의 평균 값으로 산출될 수 있다.As an example, referring to FIGS. 4 and 10 , a part of the data output through the yaw velocity prediction model is referred to as kth to k+3 piece yaw velocity data, and the k th fragment yaw velocity data is in the k th window of 37.50 seconds to 40.00 seconds. Correspondingly, the k+1th fragment yaw velocity data corresponds to the k+1th window of 37.55 seconds to 40.05 seconds, the k+2th fragment yaw velocity data corresponds to the k+2th window from 37.60 seconds to 40.10 seconds, and k+ When the three-piece yaw velocity data corresponds to the k+3th window of 37.65 seconds to 40.15 seconds, the predicted yaw velocity values corresponding to 37.65 seconds to 37.70 seconds among the candidate yaw velocity data for the acoustic data are from 37.65 seconds to 37.70 seconds in the k-th piece yaw velocity data. The predicted yaw velocity value corresponding to the second (k,4), the predicted yaw velocity value corresponding to 37.65 seconds to 37.70 seconds in the k+1 piece yaw velocity data (k+1,3), and 37.65 seconds in the k+2 piece yaw velocity data A predicted yaw velocity value corresponding to 37.70 seconds in (k+2,2), a predicted yaw velocity value corresponding to 37.65 seconds to 37.70 seconds in the k+3 piece yaw velocity data (k+3,1), and the k th slice yaw velocity data It may be calculated as an average value of predicted yaw velocity values corresponding to 37.65 seconds to 37.70 seconds in each of the previous pieces of yaw velocity data.
이상에서는 요속 예측 모델에서 이용되는 대상 데이터가 서로 중첩되는 복수의 윈도우들로 구분된 음향 데이터에 기초하여 얻어진 경우에 대해 서술하였으나, 요속 예측 모델에서 이용되는 대상 데이터는 서로 중첩되지 않는 복수의 윈도우들로 구분된 음향 데이터에 기초하여 얻어질 수도 있다. 이 때 후보 요속 데이터는 시간 대역에서 서로 중첩하지 않는 조각 요속 데이터를 후술하는 데이터 연결(data concatenation) 작업을 연결함으로써 획득될 수 있다. In the above description, the case in which the target data used in the yaw velocity prediction model is obtained based on acoustic data divided into a plurality of overlapping windows has been described, but the target data used in the yaw velocity prediction model includes a plurality of windows that do not overlap each other It may be obtained based on the sound data separated by . In this case, the candidate yaw velocity data may be obtained by concatenating a data concatenation operation, which will be described later, for pieces of yaw velocity data that do not overlap each other in a time band.
한편, 후보 요속 데이터는 상술한 방법과 다른 방법으로도 생성될 수 있다. 예를 들어, 후보 요속 데이터는 음향 데이터를 변환하여 얻어지는 스펙트럼 데이터를 이용하여 생성될 수 있다. 구체적으로, 음향 데이터를 중첩되지 않는 복수의 시간 윈도우로 구분하여 각 시간 윈도우에 대응하는 조각 스펙트럼 데이터를 획득하고, 조각 스펙트럼 데이터의 주파수 대역을 복수의 주파수 윈도우로 구분하고, 각 주파수 윈도우에서의 RMS 값을 특징 값으로 추출하며, 각 주파수 윈도우에서의 특징 값들을 이용하여 해당 시간 윈도우에서의 요속 예측 값을 획득하고, 복수의 시간 윈도우 각각에서 획득된 요속 예측 값들을 후보 요속 데이터로 획득할 수 있다.Meanwhile, the candidate yaw velocity data may be generated by a method different from the above-described method. For example, the candidate yaw velocity data may be generated using spectral data obtained by converting the acoustic data. Specifically, the acoustic data is divided into a plurality of non-overlapping time windows to obtain fragment spectrum data corresponding to each time window, a frequency band of the fragment spectrum data is divided into a plurality of frequency windows, and RMS in each frequency window Extracting a value as a feature value, obtaining a yaw velocity prediction value in a corresponding time window using the feature values in each frequency window, and obtaining the yaw velocity prediction values obtained in each of a plurality of time windows as candidate yaw velocity data .
배뇨/비-배뇨 분류 방법How to classify urination/non-urination
도 11은 본 명세서의 일 실시예에 따른 배뇨/비-배뇨 분류 모델을 이용하여 분류 데이터를 획득하는 과정을 나타내는 도면이다.11 is a diagram illustrating a process of acquiring classification data using a urination/non-urination classification model according to an embodiment of the present specification.
도 11을 참고하면, 배뇨/비-배뇨 분류 모델은 제1 내지 제n 조각 대상 데이터를 입력 받아 제1 내지 제n 조각 분류 데이터를 획득할 수 있다.Referring to FIG. 11 , the urination/non-urination classification model may obtain first to nth piece classification data by receiving first to nth piece target data.
배뇨/비-배뇨 분류 모델은 기계학습을 이용하여 학습된 모델로, 그 알고리즘으로 k-최근접 이웃, 선형 회귀, 로지스틱 회귀, 서포트 벡터 머신, 결정 트리와 랜덤 포레스트, 또는 신경망 중 적어도 어느 하나를 이용할 수 있다. 여기서, 신경망으로 ANN, TDNN, DNN, CNN, RNN, 또는 LSTM 중 적어도 하나가 선택될 수 있다. 배뇨/비-배뇨 분류 모델은 전술한 요속 예측 모델과 동일한 구조를 가질 수 있다.A urination/non-urination classification model is a model trained using machine learning, and its algorithm uses at least one of k-nearest neighbors, linear regression, logistic regression, support vector machine, decision tree and random forest, or neural network. Available. Here, at least one of ANN, TDNN, DNN, CNN, RNN, and LSTM may be selected as the neural network. The voiding/non-urination classification model may have the same structure as the aforementioned urine velocity prediction model.
일 예로, 도 11을 참고하면 배뇨/비-배뇨 분류 모델은 입력 레이어, 히든 레이어, 및 출력 레이어를 포함할 수 있다. For example, referring to FIG. 11 , the urination/non-urination classification model may include an input layer, a hidden layer, and an output layer.
여기서, 입력 레이어는 z*p의 입력 크기를 가지고 제1 내지 제n 조각 대상 데이터를 순차적으로 입력 받을 수 있다. 또는, 입력 레이어는 n*z*p의 입력 크기를 가지고 제1 내지 제n 조각 대상 데이터를 한 번에 입력 받을 수도 있다. Here, the input layer may sequentially receive first to n-th piece target data with an input size of z*p. Alternatively, the input layer may have an input size of n*z*p and receive the first to nth piece target data at once.
여기서, 배뇨/비-배뇨 분류 모델이 CNN 알고리즘을 이용하는 경우 히든 레이어는 컨볼루션 레이어, 풀링 레이어 및 풀리 커넥티드 레이어를 포함할 수 있다.Here, when the urination/non-urination classification model uses a CNN algorithm, the hidden layer may include a convolutional layer, a pooling layer, and a fully connected layer.
여기서, 출력 레이어는 분류 값들을 포함하는 조각 분류 데이터를 출력할 수 있다. 이 때, 출력 레이어에서 출력되는 조각 분류 데이터는 입력된 조각 대상 데이터에 대응하는 윈도우에 대응될 수 있다. 예를 들어, 배뇨/비-배뇨 분류 모델에 제1 윈도우에 대응하는 제1 조각 대상 데이터가 입력되어 제1 조각 분류 데이터가 출력될 때, 제1 조각 분류 데이터는 제1 윈도우에 대응하는 예측 분류 값들을 포함할 수 있다. 구체적으로, 제1 조각 분류 데이터는 제1 윈도우, 즉 음향 데이터의 시작 지점으로부터 윈도우 크기 만큼의 시간 동안에서 단위 시간 구간 당 예측 분류 값들을 포함할 수 있고, 그 개수는 전술한 조각 대상 데이터의 크기 또는 스펙트로그램의 시간 축 단위 시간에 따라 결정될 수 있다(ex. 스펙트로그램의 시간 축 단위 시간이 0.05초이고 윈도우의 크기가 2.5초인 경우 하나의 조각 분류 데이터가 포함하는 예측 분류 값들의 개수는 2.5/0.05=50개이다).Here, the output layer may output fragment classification data including classification values. In this case, the fragment classification data output from the output layer may correspond to a window corresponding to the input fragment target data. For example, when the first piece of target data corresponding to the first window is input to the urination/non-urination classification model and the first piece of classification data is output, the first piece of classification data is predictive classification corresponding to the first window It can contain values. Specifically, the first fragment classification data may include prediction classification values per unit time interval for a time corresponding to the window size from the start point of the first window, that is, the sound data, and the number is the size of the fragment target data described above. Alternatively, it may be determined according to the time axis unit time of the spectrogram (ex. If the time axis unit time of the spectrogram is 0.05 seconds and the window size is 2.5 seconds, the number of prediction classification values included in one piece of classification data is 2.5/ 0.05 = 50 pieces).
배뇨/비-배뇨 분류 모델을 통해 출력되는 예측 분류 값들은 배뇨 구간 또는 비-배뇨 구간일 확률을 나타내는 값일 수 있다. 예를 들어, 예측 분류 값들은 0에서 1 사이의 값을 가지되, 1에 가까울수록 배뇨 구간일 가능성이 높고, 0에 가까울수록 비-배뇨 구간일 확률이 높은 것으로 이해될 수 있다. 이 때, 후술하는 배뇨 정보 추출부(1500)에서 계단 함수, 시그모이드 함수, 또는 소프트맥스 함수와 같은 활성화 함수 또는 분류기를 이용하여 예측 분류 값들 또는 예측 분류 값들을 이용하여 생성한 값을 배뇨 구간을 지시하는 값 또는 비-배뇨 구간을 지시하는 값으로 변경할 수 있다.Predicted classification values output through the urination/non-urination classification model may be values indicating a probability of a urination section or a non-urination section. For example, it may be understood that the predicted classification values have a value between 0 and 1, and the closer to 1, the higher the probability of the urination section, and the closer to 0, the higher the probability of the non-urination section. At this time, the urination information extraction unit 1500 described later uses an activation function or a classifier such as a step function, a sigmoid function, or a softmax function to generate predicted classification values or a value generated by using the predicted classification values in the urination section. It can be changed to a value indicating a value or a value indicating a non-urination interval.
한편, 배뇨/비-배뇨 분류 모델을 통해 출력되는 예측 분류 값들은 배뇨 구간임을 지시하는 값(ex. 1) 또는 비-배뇨 구간임을 지시하는 값(ex. 0) 중 어느 하나일 수도 있다. 이처럼 예측 분류 값을 특정 클래스(class)를 지시하는 값의 형태로 제공하기 위해, 배뇨/비-배뇨 분류 모델은 전술한 요속 예측 모델과 달리 소프트맥스 함수 또는 소프트맥스 분류기를 이용할 수 있다.Meanwhile, the predicted classification values output through the urination/non-urination classification model may be either a value indicating a urination interval (ex. 1) or a value indicating a non-urination interval (ex. 0). In order to provide the predicted classification value in the form of a value indicating a specific class as described above, the urination/non-urination classification model may use a softmax function or a softmax classifier, unlike the aforementioned urine velocity prediction model.
도 12는 본 명세서의 일 실시예에 따른 배뇨 구분 데이터를 획득하는 방법을 나타내는 도면이다.12 is a diagram illustrating a method of acquiring urination classification data according to an embodiment of the present specification.
배뇨 정보 추출부(1500)는 복수의 조각 분류 데이터를 가공하여 배뇨 구분 데이터를 생성할 수 있다. The urination information extraction unit 1500 may generate urination classification data by processing a plurality of pieces of classification data.
먼저, 배뇨 정보 추출부(1500)는 복수의 조각 분류 데이터들을 가공하여 배뇨 유무 판단 데이터를 생성할 수 있다. 배뇨 유무 판단 데이터는 녹음된 배뇨 과정에서 시간에 따른 배뇨/비-배뇨 여부에 관한 값들을 포함할 수 있다. 여기서, 배뇨 유무 판단 데이터가 포함하는 배뇨/비-배뇨 여부에 관한 값들은 배뇨 구간일 확률 값 또는 비-배뇨 구간일 확률 값 등으로 이해될 수 있다. 배뇨 유무 판단 데이터에 포함되는 값들 각각은 복수의 조각 분류 데이터로부터 획득될 수 있다. 구체적으로, 배뇨 유무 판단 데이터에서 특정 윈도우(또는 특정 시간 구간)에 대응하는 값은 전체 조각 분류 데이터 각각에서 특정 윈도우(또는 특정 시간 구간)에 대응하는 예측 분류 값들을 이용(ex. 평균 값 또는 중간 값을 이용)하여 획득될 수 있다.First, the urination information extraction unit 1500 may process a plurality of pieces of classification data to generate urination determination data. The urination presence/absence determination data may include values regarding whether urination/non-urination according to time in the recorded urination process. Here, the urination/non-urination-related values included in the urination presence/absence determination data may be understood as a probability value of a urination section or a probability value of a non-urination section. Each of the values included in the urination presence determination data may be obtained from a plurality of pieces of classification data. Specifically, a value corresponding to a specific window (or a specific time interval) in the urination presence or absence determination data uses prediction classification values corresponding to a specific window (or a specific time interval) in each of the entire fragment classification data (eg, an average value or a median value). value) can be obtained.
일 예로, 도 12를 참고하면 음향 데이터를 구분하는 윈도우 크기를 2.5초, 슬라이딩 정도를 1.25초라고 할 때, 배뇨/비-배뇨 분류 모델을 통해 출력된 데이터의 일부인 제k 내지 제k+3 조각 분류 데이터는 각각 37.50초에서 40.00초, 38.75초에서 41.25초, 40.00초에서 42.50초, 41.25초에서 43.75초에 대응될 수 있고, 배뇨 유무 판단 데이터의 특정 윈도우에서의 값은 조각 분류 데이터 각각에서 특정 윈도우에 대응되는 예측 분류 값들의 평균 값 또는 중간 값으로 획득될 수 있다.As an example, referring to FIG. 12 , when the window size for separating the acoustic data is 2.5 seconds and the sliding degree is 1.25 seconds, the kth to k+3 pieces that are a part of the data output through the urination/non-urination classification model The classification data may correspond to 37.50 seconds to 40.00 seconds, 38.75 seconds to 41.25 seconds, 40.00 seconds to 42.50 seconds, and 41.25 seconds to 43.75 seconds, respectively, and the value in a specific window of the urination determination data is specific in each of the slice classification data. It may be obtained as an average value or a median value of prediction classification values corresponding to the window.
배뇨 유무 판단 데이터는 후술하는 배뇨 구간 유무 판단에 이용될 수 있다.The urination presence determination data may be used to determine the presence or absence of a urination section, which will be described later.
배뇨 정보 추출부(1500)는 배뇨 유무 판단 데이터를 가공하여 음향 데이터에 대한 배뇨 구분 데이터를 획득할 수 있다. 예를 들어, 배뇨 정보 추출부(1500)는 배뇨 유무 판단 데이터에 대해 계단 함수(step function), 시그모이드 함수(sigmoid function), 또는 소프트맥스 함수 등을 적용하여 배뇨 구간을 지시하는 값(ex. 1) 또는 비-배뇨 구간을 지시하는 값(ex. 0)들을 포함하는 배뇨 구분 데이터를 생성할 수 있다.The urination information extraction unit 1500 may obtain urination classification data for the sound data by processing the urination presence/absence determination data. For example, the urination information extractor 1500 applies a step function, a sigmoid function, or a softmax function to the urination presence or absence determination data to indicate a urination section value (ex. 1) Alternatively, urination classification data including values (ex. 0) indicating a non-urination interval may be generated.
도 13은 본 명세서의 또 다른 일 실시예에 따른 배뇨 구분 데이터를 획득하는 방법을 나타내는 도면이다.13 is a diagram illustrating a method of acquiring urination classification data according to another embodiment of the present specification.
배뇨 정보 추출부(1500)는 조각 분류 데이터들을 가공하여 배뇨 구분 데이터를 생성할 수 있다. 여기서, 배뇨 구분 데이터는 녹음된 배뇨 과정에서 시간에 따른 예측 분류 값들을 포함할 수 있다. 배뇨 구분 데이터에 포함되는 예측 분류 값 각각은 복수의 조각 분류 데이터들을 연결(concatenate)시켜 획득될 수 있다. 구체적으로, 배뇨 구분 데이터에서 특정 시간 구간의 예측 분류 값은 그 특정 시간 구간을 포함하는 윈도우에 대응하는 조각 분류 데이터에서 그 특정 시간 구간에 대응하는 예측 분류 값으로 획득될 수 있다. 여기서, 예측 분류 값은 배뇨 구간 또는 비-배뇨 구간에 관한 확률 값(ex. 0에서 1 사이의 값으로, 1에 가까울수록 배뇨 구간일 확률이 높은 것으로 이해될 수 있음)일 수 있다. 또는, 예측 분류 값은 배뇨 구간을 지시하는 값(ex. 1) 또는 비-배뇨 구간을 지시하는 값(ex. 0)일 수 있다. The urination information extraction unit 1500 may generate urination classification data by processing the fragment classification data. Here, the urination classification data may include predicted classification values according to time in the recorded urination process. Each of the prediction classification values included in the urination classification data may be obtained by concatenating a plurality of pieces of classification data. Specifically, the prediction classification value of a specific time interval in the urination classification data may be obtained as a prediction classification value corresponding to the specific time interval in the fragment classification data corresponding to the window including the specific time interval. Here, the predicted classification value may be a probability value related to a urination section or a non-urination section (eg, a value between 0 and 1, which may be understood to be a higher probability of a urination section as the value is closer to 1). Alternatively, the predicted classification value may be a value indicating a urination interval (ex. 1) or a value indicating a non-urination interval (ex. 0).
일 예로, 도 5 및 도 13을 참고하면 배뇨/비-배뇨 분류 모델을 통해 출력된 데이터의 일부를 제k 내지 제k+2 조각 분류 데이터라고 하고, 제k 조각 분류 데이터는 37.50초에서 40.00초의 제k 윈도우에 대응되고, 제k+1 조각 분류 데이터는 40.00초에서 42.50초의 제k+1 윈도우에 대응되고, 제k+2 조각 분류 데이터는 42.50초에서 45.00초의 제k+2 윈도우에 대응될 때, 음향 데이터에 대한 배뇨 구분 데이터 중 37.50초에서 40.00초에 해당하는 예측 분류 값들은 제k 조각 분류 데이터의 예측 분류 값들(0,...,1,...,1)로, 40.00초에서 42.50초에 해당하는 예측 분류 값들은 제k+1 조각 분류 데이터의 예측 분류 값들(1,...,1,1...1)로, 42.50초에서 45.00초에 해당하는 예측 분류 값들은 제k+2 조각 분류 데이터의 예측 분류 값들(1,0,0,1,...,0)로 획득될 수 있다.As an example, referring to FIGS. 5 and 13 , a part of the data output through the urination/non-urination classification model is referred to as kth to k+2 fragment classification data, and the kth fragment classification data is from 37.50 seconds to 40.00 seconds. Corresponds to the kth window, the k+1th fragment classification data corresponds to the k+1th window of 40.00 seconds to 42.50 seconds, and the k+2th fragment classification data corresponds to the k+2th window from 42.50 seconds to 45.00 seconds. At this time, the prediction classification values corresponding to 37.50 seconds to 40.00 seconds among the urination classification data for the acoustic data are the prediction classification values (0,...,1,...,1) of the k-th piece classification data, 40.00 seconds The prediction classification values corresponding to 42.50 seconds in , are the prediction classification values (1,...,1,1...1) of the k+1th piece classification data, and the prediction classification values corresponding to the 42.50 seconds to 45.00 seconds are It may be obtained as predicted classification values (1,0,0,1,...,0) of the k+2th piece of classification data.
한편, 배뇨 구분 데이터는 상술한 방법 외에 다른 방법으로도 생성될 수 있다.Meanwhile, the urination classification data may be generated by a method other than the above-described method.
일 예로, 배뇨 구분 데이터는 음향 데이터를 변환하여 얻어지는 스펙트럼 데이터를 이용하여 생성될 수 있다. 구체적으로, 음향 데이터를 복수의 시간 윈도우로 구분하여 각 시간 윈도우에 대응하는 조각 스펙트럼 데이터를 획득하고, 조각 스펙트럼 데이터의 주파수 대역을 복수의 주파수 윈도우로 구분하고, 각 주파수 윈도우에서의 RMS 값을 특징 값으로 추출하며, 각 주파수 윈도우에서의 특징 값들을 이용하여 해당 시간 윈도우가 배뇨 구간인지 또는 비-배뇨 구간인지 판단하고, 그 결과가 배뇨 구분 데이터로 획득될 수 있다.For example, the urine classification data may be generated using spectrum data obtained by converting sound data. Specifically, the acoustic data is divided into a plurality of time windows to obtain fragment spectrum data corresponding to each time window, a frequency band of the fragment spectrum data is divided into a plurality of frequency windows, and the RMS value in each frequency window is characterized It is extracted as a value, and it is determined whether the corresponding time window is a urination section or a non-urination section using the feature values in each frequency window, and the result can be obtained as urination classification data.
다른 예로, 배뇨 구분 데이터는 음향 데이터를 이용하여 생성될 수 있다. 구체적으로, 음향 데이터에 대해 zero-crossing rate를 특징 값으로 추출하여, 추출된 특징 값을 기초로 음향 데이터에서 배뇨 구간 및 비-배뇨 구간을 판단하고, 그 결과가 배뇨 구분 데이터로 획득될 수 있다.As another example, the urination classification data may be generated using sound data. Specifically, the zero-crossing rate is extracted as a feature value for the acoustic data, a urination section and a non-urination section are determined in the acoustic data based on the extracted feature value, and the result can be obtained as urination classification data. .
배뇨 데이터 획득 방법How to acquire urination data
이하에서는 도 14 및 도 15를 참고하여 배뇨 데이터를 생성하는 방법에 대해 서술한다.Hereinafter, a method of generating urination data will be described with reference to FIGS. 14 and 15 .
도 14 및 도 15는 본 명세서의 일 실시예에 따른 후보 요속 데이터 및 배뇨 구분 데이터를 이용하여 배뇨 데이터를 획득하는 방법을 나타내는 도면이다.14 and 15 are diagrams illustrating a method of acquiring urination data using candidate urine velocity data and voiding classification data according to an embodiment of the present specification.
배뇨 정보 추출부(1500)는 후보 요속 데이터 및 배뇨 구분 데이터를 이용하여 배뇨 데이터를 산출할 수 있다. 배뇨 데이터는 녹음된 배뇨 과정에 대한 시간에 따른 요속 예측 값들을 포함하는 형태로 얻어질 수 있다. 예를 들어, 도 14를 참고하면 배뇨 데이터는 후보 요속 데이터 및 배뇨 구분 데이터를 컨볼루션(convolution)시켜 획득될 수 있다. 다른 예를 들어, 배뇨 데이터는 후보 요속 데이터가 포함하는 시간에 따른 요속 예측 값들 각각을 배뇨 구분 데이터가 포함하는 시간에 따른 분류 예측 값들 각각과 곱하여 획득될 수 있다. 이 때, 배뇨 데이터는 이산 값들(discrete values)의 행렬로 표현될 수 있다.The urination information extractor 1500 may calculate urination data by using the candidate urine velocity data and the urination classification data. The urination data may be obtained in a form including time-dependent predicted values of urination for a recorded urination process. For example, referring to FIG. 14 , urination data may be obtained by convolving candidate urine velocity data and voiding classification data. For another example, the urination data may be obtained by multiplying each of the time-dependent urine velocity prediction values included in the candidate urine velocity data by each of the temporal classification prediction values included in the urination classification data. In this case, the urination data may be expressed as a matrix of discrete values.
배뇨 정보 추출부(1500)는 획득된 배뇨 데이터를 이용하여 배뇨 정보를 추출할 수 있다. 예를 들어, 배뇨 정보 추출부(1500)는 획득된 배뇨 데이터에 포함된 예측 요속 값 중 가장 큰 값을 최대 요속 값으로 획득하고, 이산 적분(discrete integration)을 통해 구간별 배뇨량 또는 총 배뇨량을 산출할 수 있다. 한편, 도 14를 참고하면, 배뇨 정보 추출부(1500)는 배뇨 데이터를 가공(ex. smoothing, interpolation 등)하여 녹음된 배뇨 과정에 대한 배뇨 그래프를 획득할 수 있고, 배뇨 그래프로부터 최대 요속 값, 평균 요속 값, 배뇨시간, 구간별 배뇨량 및 총 배뇨량 등을 산출할 수 있다.The urination information extraction unit 1500 may extract urination information by using the obtained urination data. For example, the urination information extraction unit 1500 obtains the largest value among the predicted urine velocity values included in the obtained urination data as the maximum urine velocity value, and calculates the voiding amount or total voiding amount for each section through discrete integration. can do. On the other hand, referring to FIG. 14 , the urination information extraction unit 1500 may obtain a urination graph for the recorded urination process by processing the urination data (eg, smoothing, interpolation, etc.), and the maximum urine velocity value from the urination graph, It is possible to calculate the average urine velocity value, urination time, voiding amount for each section and total voiding amount.
배뇨 데이터는 후보 요속 데이터 및 배뇨 구분 데이터를 각각 가공한 후 가공된 데이터에 대해 연산을 수행하여 획득될 수도 있다. 예를 들어, 도 15를 참고하면 배뇨 정보 추출부(1500)는 후보 요속 데이터를 가공하여 녹음된 배뇨 과정에 대한 후보 요속 그래프를 생성하고, 배뇨 구분 데이터를 가공하여 녹음된 배뇨 과정에 대한 배뇨/비-배뇨 구간 그래프를 생성하며, 생성한 후보 요속 그래프 및 배뇨/비-배뇨 구간 그래프를 컨볼루션 연산하여 녹음된 배뇨 과정에 대한 배뇨 그래프를 획득할 수 있다. 여기서, 후보 요속 데이터를 가공하는 과정 또는 배뇨 구분 데이터를 가공하는 과정에서 스무딩(smoothing)이나 보간(interpolation)의 작업이 수행될 수 있다.The urination data may be obtained by processing the candidate urine velocity data and the urination classification data, respectively, and then performing an operation on the processed data. For example, referring to FIG. 15 , the urination information extraction unit 1500 processes the candidate urine velocity data to generate a candidate urine velocity graph for the recorded urination process, and processes the urination classification data to urinate / for the recorded urination process. A non-urination section graph is generated, and a urination graph for the recorded urination process can be obtained by performing a convolution operation on the generated candidate urine velocity graph and the urination/non-urination section graph. Here, in the process of processing the candidate urine velocity data or in the process of processing the urination classification data, the operation of smoothing or interpolation may be performed.
음향 분석 방법Acoustic analysis method
이하에서는, 도 16 및 도 17을 참고하여 음향 분석 시스템(1000)을 이용하여 배뇨 과정에 대한 배뇨 정보를 획득하는 음향 분석 방법을 단계적으로 서술하되, 앞서 서술한 부분과 중복되는 내용은 생략하도록 한다.Hereinafter, an acoustic analysis method for obtaining urination information for a urination process using the acoustic analysis system 1000 will be described in stages with reference to FIGS. 16 and 17 , but overlapping with the above-described parts will be omitted. .
배뇨 구간 유무 판단 없이 음향 분석 진행Acoustic analysis proceeds without judging the presence or absence of a urination section
도 16 및 도 17은 본 명세서의 일 실시예에 따른 배뇨 정보 분석 방법을 나타내는 순서도이다.16 and 17 are flowcharts illustrating a method for analyzing urination information according to an embodiment of the present specification.
도 16을 참고하면, 음향 분석 방법은 음향 데이터를 획득하는 단계(S110), 획득한 음향 데이터를 가공하는 단계(S120), 요속을 예측하는 단계(S130), 배뇨/비-배뇨 구간을 분류하는 단계(S140), 배뇨 데이터를 획득하는 단계(S150) 및 배뇨 정보를 출력하는 단계(S160)를 포함할 수 있다.Referring to FIG. 16 , the acoustic analysis method includes: acquiring acoustic data (S110), processing the acquired acoustic data (S120), estimating the urinary velocity (S130), and classifying a urination/non-urination section It may include a step (S140), a step of obtaining urination data (S150), and a step of outputting urination information (S160).
음향 분석 시스템(1000)은 음향 데이터를 획득할 수 있다(S110). 음향 분석 시스템(1000)은 녹음 장치(2000)로부터 사람의 배뇨 과정을 녹음한 음향 데이터를 획득할 수 있다. 또는, 음향 분석 시스템(1000)은 외부로부터 임의의 음향 데이터를 획득하되, 해당 음향 데이터는 배뇨 과정을 녹음한 것이 아닐 수 있다.The acoustic analysis system 1000 may acquire acoustic data (S110). The acoustic analysis system 1000 may acquire acoustic data recorded by a human urination process from the recording apparatus 2000 . Alternatively, the acoustic analysis system 1000 may acquire arbitrary acoustic data from the outside, but the corresponding acoustic data may not be a recording of a urination process.
음향 분석 시스템(1000)은 획득한 음향 데이터를 가공할 수 있다(S120). 음향 분석 시스템(1000)은 전처리부(1100) 및 특징 추출부(1200)를 이용하여 획득한 음향 데이터를 가공할 수 있다. 음향 데이터를 가공하는 방법에 대해서는 전술한 바 구체적인 내용은 생략하도록 한다.The acoustic analysis system 1000 may process the acquired acoustic data (S120). The acoustic analysis system 1000 may process the acquired acoustic data using the preprocessor 1100 and the feature extraction unit 1200 . As for the method of processing the sound data, the detailed description thereof will be omitted as described above.
음향 분석 시스템(1000)은 요속을 예측할 수 있다(S130). 음향 분석 시스템(1000)은 요속 예측부(1300)를 이용하여 음향 데이터를 가공한 데이터로부터 음향 데이터를 구분한 윈도우 각각에 대응되는 조각 요속 데이터 그룹을 획득하고, 배뇨 정보 추출부(1500)를 이용하여 조각 요속 데이터 그룹으로부터 후보 요속 데이터를 획득할 수 있다. 후보 요속 데이터는 음향 데이터 전반에서 요속을 예측한 값들을 포함할 수 있다. 후보 요속 데이터를 생성하는 과정에 대해서는 전술한 바 구체적인 내용은 생략하도록 한다.The acoustic analysis system 1000 may predict the yaw velocity (S130). The acoustic analysis system 1000 obtains a piece urine velocity data group corresponding to each window in which the acoustic data is separated from the processed sound data using the urine velocity prediction unit 1300 , and uses the urination information extraction unit 1500 . to obtain candidate yaw velocity data from the fragment yaw velocity data group. The candidate yaw velocity data may include values predicted by yaw velocity in the overall acoustic data. Since the process of generating the candidate yaw velocity data has been described above, specific details thereof will be omitted.
음향 분석 시스템(1000)은 배뇨 구간 및 비-배뇨 구간을 분류할 수 있다(S140). 음향 분석 시스템(1000)은 배뇨/비-배뇨 분류부(1400)를 이용하여 음향 데이터를 가공한 데이터로부터 음향 데이터를 구분한 윈도우 각각에 대응되는 조각 분류 데이터 그룹을 획득하고, 배뇨 정보 추출부(1500)를 이용하여 조각 분류 데이터 그룹으로부터 배뇨 구분 데이터를 획득할 수 있다. 배뇨 구분 데이터는 음향 데이터 전반에서 배뇨 구간 및 비-배뇨 구간을 구분하기 위한 분류 값들을 포함할 수 있다. 배뇨 구분 데이터를 생성하는 과정에 대해서는 전술한 바 구체적인 내용은 생략하도록 한다.The acoustic analysis system 1000 may classify a urination section and a non-urination section ( S140 ). The acoustic analysis system 1000 obtains a fragment classification data group corresponding to each window in which the acoustic data is separated from the acoustic data processed data using the urination/non-urination classification unit 1400, and a urination information extraction unit ( 1500) to obtain urination classification data from the fragment classification data group. The urination classification data may include classification values for classifying a urination section and a non-urination section in the overall sound data. As for the process of generating the urination classification data, the above-described details will be omitted.
상술한 요속을 예측하는 단계(S130) 및 배뇨/비-배뇨 구간을 분류하는 단계(S140)은 병렬적으로 또는 순차적으로 수행될 수 있다.Predicting the above-described urine speed (S130) and classifying the urination/non-urination section (S140) may be performed in parallel or sequentially.
음향 분석 시스템(1000)은 배뇨 데이터를 획득할 수 있다(S150). 음향 분석 시스템(1000)은 배뇨 정보 추출부(1500)를 이용하여 후보 요속 데이터와 배뇨 구분 데이터로부터 배뇨 데이터를 획득할 수 있다. 배뇨 데이터는 음향 데이터에 후보 요속 데이터가 포함하는 요속 예측 값들 중 배뇨 구분 데이터에 의해 선택된 요속 예측 값들을 포함하는 것으로 이해될 수 있다. 배뇨 데이터를 생성하는 과정에 대해서는 전술한 바 구체적인 내용은 생략하도록 한다.The acoustic analysis system 1000 may acquire urination data (S150). The acoustic analysis system 1000 may acquire urination data from the candidate urine velocity data and the urination classification data by using the urination information extractor 1500 . The urination data may be understood as including the urine velocity prediction values selected by the urination classification data from among the urine velocity prediction values included in the candidate urine velocity data in the acoustic data. As for the process of generating urination data, the above-described details will be omitted.
음향 분석 시스템(1000)은 배뇨 정보를 출력할 수 있다(S160). 음향 분석 시스템(1000)은 배뇨 정보 추출부(1500)를 이용하여 배뇨 데이터로부터 배뇨 정보를 추출하고, 추출된 배뇨 정보를 출력부(1700)를 통해 사용자에게 제공하거나 녹음 장치(2000) 및/또는 외부 서버(3000)에 제공할 수 있다. 여기서, 출력되는 배뇨 정보는, 도 3에 도시된 바와 같이 배뇨량, 최대요속, 평균 요속, 및 배뇨시간을 포함할 수 있다.The acoustic analysis system 1000 may output urination information (S160). The acoustic analysis system 1000 extracts urination information from urination data using the urination information extraction unit 1500 , and provides the extracted urination information to the user through the output unit 1700 or the recording device 2000 and/or It can be provided to the external server (3000). Here, the output urination information may include a voiding amount, a maximum urine velocity, an average urine velocity, and a urination time as shown in FIG. 3 .
배뇨 구간 유무 판단 후 음향 분석 진행Acoustic analysis proceeds after determining whether there is a urination section
한편, 배뇨 정보 분석 방법은 데이터 처리 과정에서 효율성을 향상시키기 위해 요속 예측에 앞서 배뇨 유무에 대한 판단을 수행할 수 있다.On the other hand, the urination information analysis method may perform a judgment on the presence or absence of urination prior to the prediction of the urine velocity in order to improve the efficiency in the data processing process.
도 17을 참고하면, 배뇨 정보 분석 방법은 음향 데이터를 획득하는 단계(S210), 획득한 음향 데이터를 가공하는 단계(S220), 배뇨/비-배뇨 구간을 분류하는 단계(S230), 배뇨 구간 유무를 판단하는 단계(S240), 요속을 예측하는 단계(S250), 배뇨 데이터를 획득하는 단계(S260), 및 배뇨 정보를 출력하는 단계(S270)를 포함할 수 있다. 여기서, 음향 데이터를 획득하는 단계(S210), 획득한 음향 데이터를 가공하는 단계(S220), 배뇨 정보를 출력하는 단계(S270)는 앞서 도 16에서 서술하였는 바, 중복된 내용은 생략하도록 한다.Referring to FIG. 17 , the method for analyzing urination information includes: acquiring acoustic data (S210), processing the acquired acoustic data (S220), classifying urination/non-urination sections (S230), presence or absence of a urination section It may include a step of determining (S240), a step of predicting a urine speed (S250), a step of obtaining urination data (S260), and a step of outputting urination information (S270). Here, the step of obtaining the sound data (S210), the step of processing the obtained sound data (S220), and the step of outputting the urination information (S270) have been described above in FIG. 16 , so the duplicated content will be omitted.
음향 분석 시스템(1000)은 요속을 예측하기에 앞서 배뇨/비-배뇨 구간을 분류할 수 있다(S230). 음향 분석 시스템(1000)은 배뇨/비-배뇨 분류부(1400) 및 배뇨 정보 추출부(1500)를 이용하여 음향 데이터를 가공한 데이터로부터 배뇨 구분 데이터를 획득할 수 있다. The acoustic analysis system 1000 may classify the urination/non-urination section prior to predicting the urinary velocity ( S230 ). The acoustic analysis system 1000 may acquire urination classification data from the data processed by the acoustic data using the urination/non-urination classification unit 1400 and the urination information extraction unit 1500 .
음향 분석 시스템(1000)은 배뇨 구간의 유무를 판단할 수 있다(S240). 음향 분석 시스템(1000)은 배뇨/비-배뇨 분류 단계(S230)에서 획득한 배뇨 구분 데이터를 이용하여 음향 데이터가 배뇨 과정을 녹음한 데이터인지 여부를 판단할 수 있다. 예를 들어, 음향 분석 시스템(1000)은 음향 데이터의 시작 지점 및 종료 지점 사이에 배뇨 구간이 존재하는지 여부를 판단할 수 있다. The acoustic analysis system 1000 may determine whether there is a urination section (S240). The acoustic analysis system 1000 may determine whether the acoustic data is data recorded with a urination process using the urination classification data obtained in the urination/non-urination classification step S230 . For example, the sound analysis system 1000 may determine whether a urination section exists between a start point and an end point of the sound data.
일 예로, 음향 분석 시스템(1000)은 상술한 배뇨 유무 판단 데이터에 기초하여 음향 데이터에 배뇨 과정이 반영되어 있는지 여부를 판단할 수 있다. 설명의 편의를 위해 배뇨 유무 판단 데이터가 포함하는 값을 판단 값이라고 한다. 음향 분석 시스템(1000)은 배뇨 유무 판단 데이터가 포함하는 판단 값 중 적어도 하나의 값이 임계 값 이상인 경우 음향 데이터에 배뇨 과정이 반영되어 있는 것으로 판단할 수 있다. 또는, 음향 분석 시스템(1000)은 배뇨 유무 판단 데이터가 포함하는 판단 값 중 임계 값 이상인 판단 값의 비율이 일정 비율(ex. 5% 내지 50%) 이상이면 음향 데이터에 배뇨 과정이 반영되어 있는 것으로 판단할 수 있다. 배뇨 구간 유무를 판단하기 위한 임계 값은 다양하게 설정될 수 있다. 예를 들어, 임계 값은 0.30 내지 0.95 사이에서 결정될 수 있다. 보다 바람직하게, 임계 값은 0.50 내지 0.80 사이에서 결정될 수 있다.As an example, the acoustic analysis system 1000 may determine whether a urination process is reflected in the acoustic data based on the above-described urination presence or absence determination data. For convenience of explanation, a value included in the urination presence/absence determination data is referred to as a determination value. The acoustic analysis system 1000 may determine that the urination process is reflected in the acoustic data when at least one of the determination values included in the urination presence determination data is greater than or equal to a threshold value. Alternatively, the acoustic analysis system 1000 determines that the urination process is reflected in the acoustic data when the ratio of the judgment value equal to or greater than the threshold value among the judgment values included in the urination determination data is a certain ratio (ex. 5% to 50%) or more. can judge A threshold value for determining whether there is a urination section may be set in various ways. For example, the threshold value may be determined between 0.30 and 0.95. More preferably, the threshold value may be determined between 0.50 and 0.80.
다른 예로, 음향 분석 시스템(1000)은 배뇨 구분 데이터에 기초하여 음향 데이터에 배뇨 과정이 반영되어 있는지 여부를 판단할 수도 있다. 구체적으로, 음향 분석 시스템(1000)은 배뇨 구분 데이터에서 배뇨 구간을 지시하는 분류 값의 개수가 미리 정해진 개수 이상이면 음향 데이터에 배뇨 과정에 관한 소리가 반영되어 있다고 판단할 수 있다. 또는, 음향 분석 시스템(1000)은 배뇨 구분 데이터에서 배뇨 구간을 지시하는 분류 값의 개수와 비-배뇨 구간을 지시하는 분류 값의 개수의 비율을 계산하고, 계산된 비율이 일정 비율 이상이면 배뇨 구간이 있는 것으로 판단할 수 있다. As another example, the acoustic analysis system 1000 may determine whether a urination process is reflected in the acoustic data based on the urination classification data. Specifically, when the number of classification values indicating the urination section in the urination classification data is greater than or equal to a predetermined number, the acoustic analysis system 1000 may determine that the sound related to the urination process is reflected in the acoustic data. Alternatively, the acoustic analysis system 1000 calculates a ratio of the number of classification values indicating a urination section to the number of classification values indicating a non-urination section in the urination classification data, and if the calculated ratio is greater than a certain ratio, the urination section It can be judged that there is
음향 분석 시스템(1000)은 배뇨 구간의 유무를 판단하는 단계(S240)에서 상술한 판단 방법에 따라 배뇨 유무 판단 데이터만을 생성하거나 배뇨 유무 판단 데이터 및 배뇨 구분 데이터를 모두 생성할 수 있다.The acoustic analysis system 1000 may generate only urination determination data or both urination presence determination data and urination classification data according to the above-described determination method in step S240 of determining the presence or absence of a urination section.
음향 분석 시스템(1000)은 음향 데이터에 배뇨 구간이 존재하는 것으로 판단되면 요속 예측 단계(S260)에 진입하고, 음향 데이터에 배뇨 구간이 없는 것으로 판단되면 음향 분석을 종료할 수 있다. 음향 분석 시스템(1000)은 배뇨 유무 판단 데이터를 이용하여 배뇨 구간의 유무를 판단하는 경우, 음향 데이터에 배뇨 구간이 없는 것으로 판단되면 배뇨 유무 판단 데이터로부터 배뇨 구분 데이터를 생성하지 않을 수 있다.When it is determined that there is a urination section in the acoustic data, the acoustic analysis system 1000 may enter the urination velocity prediction step S260 , and when it is determined that there is no urination section in the acoustic data, the acoustic analysis may be terminated. When it is determined that there is no urination section in the acoustic data, the acoustic analysis system 1000 may not generate urination classification data from the urination presence/absence determination data when determining whether there is a urination section using the urination presence/absence determination data.
음향 분석 시스템(1000)은 음향 데이터에 배뇨 구간이 존재하는 것으로 판단되면 요속을 예측할 수 있다(S250). 음향 분석 시스템(1000)은 요속 예측부(1300)를 이용하여 음향 데이터를 가공한 데이터로부터 음향 데이터를 구분한 윈도우 각각에 대응되는 조각 요속 데이터 그룹을 획득하고, 배뇨 정보 추출부(1500)를 이용하여 조각 요속 데이터 그룹으로부터 후보 요속 데이터를 획득할 수 있다. 후보 요속 데이터는 음향 데이터 전반에서 요속을 예측한 값들을 포함할 수 있으며, 후보 요속 데이터를 생성하는 과정에 대해서는 전술한 바 구체적인 내용은 생략한다.When it is determined that a urination section exists in the acoustic data, the acoustic analysis system 1000 may predict the urine velocity (S250). The acoustic analysis system 1000 obtains a piece urine velocity data group corresponding to each window in which the acoustic data is separated from the processed sound data using the urine velocity prediction unit 1300 , and uses the urination information extraction unit 1500 . to obtain candidate yaw velocity data from the fragment yaw velocity data group. The candidate yaw velocity data may include values predicted from the overall acoustic data, and the process of generating the candidate yaw velocity data will be omitted as described above.
여기서, 요속 예측부(1300)에서 이용되는 가공된 음향 데이터는 배뇨/비-배뇨 구간 분류 단계(S230)에서 이용된 데이터와 다를 수 있다. 예를 들어, 요속 예측부(1300)에서 이용하는 데이터는 음향 데이터를 m개의 윈도우로 연속되는 윈도우가 중첩되도록 구분했을 때 각 윈도우에 대응하는 데이터이고, 배뇨/비-배뇨 구간 분류 단계(S230)에서 이용되는 데이터는 음향 데이터를 n개의 윈도우로 연속되는 윈도우가 중첩되지 않도록 구분했을 때 각 윈도우에 대응하는 데이터이며, n은 m 보다 작을 수 있다. Here, the processed acoustic data used in the urine velocity prediction unit 1300 may be different from the data used in the urination/non-urination section classification step S230 . For example, the data used by the urine velocity prediction unit 1300 is data corresponding to each window when the sound data is divided into m windows so that consecutive windows are overlapped, and in the urination/non-urination section classification step (S230) Data used is data corresponding to each window when sound data is divided into n windows so that consecutive windows do not overlap, and n may be smaller than m.
음향 분석 시스템(1000)은 배뇨 데이터를 획득할 수 있다(S260). 음향 분석 시스템(1000)은 배뇨/비-배뇨 구간 분류 단계(S230)에서 획득한 배뇨 구분 데이터 및 요속 예측 단계(S250)에서 획득한 후보 요속 데이터를 이용하여 배뇨 데이터를 획득할 수 있다.The acoustic analysis system 1000 may acquire urination data (S260). The acoustic analysis system 1000 may acquire urination data by using the urination classification data obtained in the urination/non-urination section classification step S230 and the candidate urine velocity data obtained in the urine velocity prediction step S250 .
상술한 바와 같이, 배뇨 정보 분석 방법에 있어서 요속 예측 단계(S250)를 수행하기에 앞서 배뇨 구간 유무를 판단함으로써 분석하고자 하는 음향 데이터에 배뇨 관련 소리가 반영되지 않은 경우 불필요하게 데이터를 분석하는 것을 사전에 방지할 수 있다.As described above, in the urination information analysis method, if the urination-related sound is not reflected in the sound data to be analyzed by determining the presence or absence of a urination section prior to performing the urine velocity prediction step (S250), it is necessary to analyze the data in advance. can be prevented in
음향 분석 시스템 효과Acoustic analysis system effect
이하에서는, 음향 분석 시스템(1000)을 이용한 배뇨 정보 분석 방법에 있어서, 배뇨/비-배뇨 분류 과정이 수행되는 경우의 실질적 효과에 대해서 서술한다.Hereinafter, in the method for analyzing urination information using the acoustic analysis system 1000 , a practical effect when the urination/non-urination classification process is performed will be described.
도 18은 본 명세서의 일 실시예에 따른 배뇨/비-배뇨 분류 모델을 이용하지 않은 경우와 이용한 경우의 결과를 비교하는 그래프를 나타내는 도면이다.18 is a diagram illustrating a graph comparing the results of not using and using the urination/non-urination classification model according to an embodiment of the present specification.
배뇨 정보 분석 방법에 있어서 배뇨/비-배뇨 분류 모델을 이용하지 않은 경우, 배뇨/비-배뇨 분류 모델을 이용한 경우 보다 배뇨량이 과도하게 예측될 수 있다. 예를 들어, 도 18의 (a) 내지 (d)에서 배뇨량(volume)은 배뇨/비-배뇨 분류 모델을 적용한 경우보다 적용하지 않은 경우가 더 크게 측정되었다. 특히, 도 18의 (a)와 (c)의 경우 배뇨/비-배뇨 분류 모델을 적용한 경우와 적용하지 않은 경우의 배뇨량은 약 2배 가까이 차이가 나는 것을 알 수 있다.When the urination/non-urination classification model is not used in the urination information analysis method, the amount of urination may be excessively predicted compared to the case where the urination/non-urination classification model is used. For example, in (a) to (d) of FIG. 18 , the urination/non-urination classification model was measured to be larger than the case in which the urination/non-urination classification model was not applied. In particular, in the case of (a) and (c) of FIG. 18, it can be seen that the urination amount differs by about two times between the case where the urination/non-urination classification model is applied and the case where the urination classification model is not applied.
배뇨 정보 분석 방법에 있어서 배뇨/비-배뇨 분류 모델을 이용하지 않은 경우, 배뇨/비-배뇨 분류 모델을 이용한 경우 보다 최대 요속이 과도하게 예측될 수 있다. 예를 들어, 도 18의 (a) 및 (c)에서 최대 요속(Qmax)은 배뇨/비-배뇨 분류 모델을 적용한 경우보다 적용하지 않은 경우가 더 크게 측정되었다. 남성의 경우 최대 요속 값은 배뇨 기능을 진단함에 있어서 매우 중요한 요소이므로, 최대 요속을 과도하게 측정하지 않는 것은 매우 중요한 문제이다.In the case of not using the urination/non-urination classification model in the urination information analysis method, the maximum urinary velocity may be overestimated than when the urination/non-urination classification model is used. For example, in (a) and (c) of FIG. 18 , the maximum urinary velocity (Qmax) was measured to be greater when the voiding/non-urination classification model was not applied than when the urination/non-urination classification model was not applied. For men, the maximum urinary velocity value is a very important factor in diagnosing urination function, so it is very important not to measure the maximum urine velocity excessively.
배뇨 정보 분석 방법에 있어서 배뇨/비-배뇨 분류 모델을 이용하지 않은 경우, 배뇨/비-배뇨 분류 모델을 이용한 경우 보다 배뇨관련 시간(flowtime, voiding time)이 정확하게 측정되기 어렵다. 예를 들어, 도 18의 (a) 및 (c)에서 배뇨/비-배뇨 분류 모델을 적용하지 않은 경우 다수의 피크 값들이 있어 배뇨 시작 지점과 종료 지점 및 그에 따른 배뇨 시간을 측정하기가 어려운 반면, 배뇨/비-배뇨 분류 모델을 적용한 경우 시작 지점과 종료 지점이 명확하여 총 배뇨 시간을 정확히 산출할 수 있는 것을 알 수 있다.In the case of not using the urination/non-urination classification model in the method of analyzing the voiding information, it is difficult to accurately measure the flowtime, voiding time, than when the urination/non-urination classification model is used. For example, when the urination/non-urination classification model is not applied in (a) and (c) of FIG. 18 , there are a number of peak values, making it difficult to measure the start and end points of urination and the resulting urination time. , it can be seen that when the urination/non-urination classification model is applied, the start point and the end point are clear, so that the total urination time can be accurately calculated.
상술한 바와 같이, 배뇨량, 최대 요속, 및 배뇨 시간 등의 배뇨 정보를 정확하게 측정하기 위해서는 배뇨/비-배뇨 분류 모델을 이용하는 것이 가히 필수적이라고 할 수 있다.As described above, in order to accurately measure voiding information such as the amount of voiding, the maximum urinary velocity, and the voiding time, it is absolutely essential to use a voiding/non-urination classification model.
모델 학습 방법How to train a model
이하에서는, 도 19 및 도 20을 참고하여 상술한 요속 예측 모델 및 배뇨/비-배뇨 분류 모델을 학습시키는 과정에 대해 구체적으로 서술한다.Hereinafter, a process of learning the urinary velocity prediction model and the urination/non-urination classification model described above with reference to FIGS. 19 and 20 will be described in detail.
요속 예측 모델 학습 방법How to train a yaw velocity prediction model
도 19는 본 명세서의 일 실시예에 따른 요속 예측 모델을 학습시키는 과정을 나타내는 순서도이다.19 is a flowchart illustrating a process of learning a yaw velocity prediction model according to an embodiment of the present specification.
도 19를 참고하면, 요속 예측 모델 학습 방법은 배뇨 과정에서 음향 데이터를 수집하는 단계(S310), 수집한 음향 데이터를 가공하여 특징 데이터를 생성하는 단계(S320), 배뇨 과정에서 미리 설정된 주기로 요속 값을 측정하는 단계(S330), 측정된 요속 값을 이용하여 실측 요속 데이터를 생성하는 단계(S340), 특징 데이터에 실측 요속 데이터를 라벨링하여 학습 데이터 셋을 생성하는 단계(S350), 및 학습 데이터 셋을 이용하여 요속 예측 모델을 생성하는 단계(S360)를 포함할 수 있다.Referring to FIG. 19 , the urine velocity prediction model learning method includes the steps of collecting acoustic data in the urination process ( S310 ), processing the collected acoustic data to generate characteristic data ( S320 ), and a urine velocity value at a preset cycle in the urination process. Measuring (S330), generating measured yaw velocity data using the measured yaw velocity value (S340), generating a learning data set by labeling the measured yaw velocity data in the feature data (S350), and a learning data set It may include generating a yaw velocity prediction model using (S360).
이하에서 각 단계에 대해 서술한다. 요속 예측 모델 학습 방법의 각 단계는 사람 또는 별도의 프로세서(processor)에 의해 수행될 수 있다.Each step is described below. Each step of the yaw velocity prediction model learning method may be performed by a human or a separate processor.
요속 예측 모델 학습 과정에서 배뇨 과정에 대한 음향 데이터가 수집될 수 있다(S310). 음향 데이터는 사람의 배뇨 과정을 녹음하여 획득될 수 있다. 한편, 음향 데이터 수집 단계(S310)에서 요속 예측 모델의 성능을 높이기 위해 사람의 배뇨 과정이 포함되지 않은 음향 데이터가 수집될 수 있다. 음향 데이터 수집에는 전술한 녹음 장치(2000)가 이용될 수 있다.In the course of learning the urinary velocity prediction model, acoustic data for the urination process may be collected (S310). The acoustic data may be obtained by recording a human urination process. Meanwhile, in the acoustic data collection step ( S310 ), acoustic data that does not include a human urination process may be collected in order to improve the performance of the urine velocity prediction model. The above-described recording apparatus 2000 may be used to collect sound data.
요속 예측 모델 학습 과정에서 수집된 음향 데이터로부터 특징 데이터가 생성될 수 있다(S320). 특징 데이터는 음향 데이터로부터 추출된 특징 값들을 포함하는 데이터를 의미할 수 있다. 여기서, 특징 값은 스펙트럼 시간대역 스펙트럼 크기 값, 주파수대역 스펙트럼 크기 값, 주파수대역 root mean square 값, 스펙트로그램 크기 값, 멜-스펙트로그램 크기 값, Bispectrum Score, Non-Gaussianity Score, Formants Frequencies, Log Energy, Zero Crossing Rate, Kurtosis, 및 Mel-frequency cepstral coefficient 중 적어도 하나를 포함할 수 있다.Feature data may be generated from the acoustic data collected in the course of learning the yaw velocity prediction model (S320). The feature data may refer to data including feature values extracted from the sound data. Here, the feature value is a spectrum time domain spectrum magnitude value, a frequency band spectrum magnitude value, a frequency band root mean square value, a spectrogram magnitude value, a Mel-spectrogram magnitude value, Bispectrum Score, Non-Gaussianity Score, Formants Frequencies, Log Energy , Zero Crossing Rate, Kurtosis, and Mel-frequency cepstral coefficient may be included.
특징 데이터는 복수의 윈도우로 구분될 수 있다. 예를 들어, 특징 데이터는 음향 데이터 또는 특징 데이터의 시작 지점부터 종료 지점 사이에서 연속적으로 정해지는 복수의 윈도우 각각에 대응하는 복수의 조각 특징 데이터를 포함할 수 있다.The feature data may be divided into a plurality of windows. For example, the feature data may include a plurality of pieces of feature data corresponding to each of a plurality of windows continuously determined between a start point and an end point of the sound data or feature data.
특징 데이터 및 조각 특징 데이터가 생성되는 과정은 전술한 대상 데이터 및 조각 대상 데이터가 생성되는 과정과 동일한 바, 구체적인 설명은 생략한다.Since the process of generating the feature data and the engraving feature data is the same as the process of generating the above-described target data and the engraving target data, a detailed description thereof will be omitted.
요속 예측 모델 학습 과정에서 배뇨 과정에 대해 미리 설정된 주기로 요속 값이 측정될 수 있다(S330). 예를 들어, 배뇨 과정에서의 요속 값은 저울을 이용하여 측정될 수 있다. 예를 들어, 배뇨 과정에서 요속 값은 저울이 내장된 변기나 저울에 올려진 변기를 이용하여 측정될 수 있다. 구체적으로, 저울이 내장된 변기나 저울에 올려진 변기를 통해 배뇨 과정이 이루어지면서 저울에서 측정되는 무게의 시간에 따른 변화를 이용하여 시간에 따른 배뇨량이 측정될 수 있고, 시간에 따른 배뇨량 데이터로부터 시간에 따른 요속 값이 측정될 수 있다. 이 때, 요속 값이 측정되는 주기 또는 배뇨량이 측정되는 주기와 음향 데이터의 해상도가 서로 대응될 수 있다.In the course of learning the urine velocity prediction model, the urine velocity value may be measured at a preset period for the urination process ( S330 ). For example, a urine velocity value in the process of urination may be measured using a scale. For example, during urination, the urine velocity value may be measured using a toilet with a built-in scale or a toilet mounted on the scale. Specifically, as the urination process is performed through a toilet with a built-in scale or a toilet mounted on the scale, the amount of urination over time can be measured using the change over time of the weight measured by the scale, and from the data on the amount of urination over time A yaw velocity value over time can be measured. In this case, the period in which the urine velocity value is measured or the period in which the amount of urination is measured may correspond to the resolution of the sound data.
요속 값 측정 단계(S330)에서 측정된 요속 값을 이용하여 실측 요속 데이터가 생성될 수 있다(S340). 실측 요속 데이터는 미리 설정된 주기로 측정된 또는 산출된 요속 값들을 포함할 수 있다. The measured yaw velocity data may be generated using the yaw velocity value measured in the yaw velocity measurement step ( S330 ) ( S340 ). The measured yaw velocity data may include yaw velocity values measured or calculated at a preset period.
실측 요속 데이터는 복수의 윈도우로 구분될 수 있다. 예를 들어, 실측 요속 데이터는 배뇨 과정의 측정 시작 시점부터 측정 종료 시점 사이에서 연속적으로 정해지는 복수의 윈도우 각각에 대응하는 복수의 조각 실측 요속 데이터를 포함할 수 있다. 이 때, 실측 요속 데이터를 구분하는 윈도우의 크기는 전술한 특징 데이터를 구분하는 윈도우의 크기와 동일할 수 있다. 또한, 실측 요속 데이터가 포함하는 조각 실측 요속 데이터의 개수와 전술한 특징 데이터가 포함하는 조각 특징 데이터의 개수는 동일할 수 있다.The measured yaw velocity data may be divided into a plurality of windows. For example, the measured urine velocity data may include a plurality of pieces of measured urine velocity data corresponding to each of a plurality of windows continuously determined between a measurement start time and a measurement end time of the urination process. In this case, the size of the window dividing the measured yaw velocity data may be the same as the size of the window dividing the above-described characteristic data. In addition, the number of pieces of measured yaw velocity data included in the measured yaw velocity data may be the same as the number of pieces of measured yaw velocity data included in the aforementioned feature data.
상술한 음향 데이터를 수집하고 수집한 음향 데이터로부터 특징 데이터를 생성하는 단계(S310, S320)는 배뇨 과정에서 요속 값을 측정하고 측정된 요속 값을 이용하여 실측 요속 데이터를 생성하는 단계(S330, S340)를 기준으로 이전 시점 또는 이후 시점에 수행되거나 병렬적으로 수행될 수 있다.Steps (S310, S320) of collecting the above-described acoustic data and generating characteristic data from the collected acoustic data are steps of measuring a urine velocity value in the urination process and generating actual measured urine velocity data using the measured urine velocity value (S330, S340) ), it may be performed at a previous time point or a later time point based on it, or it may be performed in parallel.
요속 예측 모델 학습 과정에서, 특징 데이터에 실측 요속 데이터가 라벨링(labeling)되어 학습 데이터 셋이 생성될 수 있다(S350). 특징 데이터 및 실측 요속 데이터는 각 윈도우 구간에 대응되는 데이터끼리 라벨링될 수 있다. 예를 들어, 특징 데이터에 포함되고, 제1 윈도우 구간에 대응하는 제1 조각 특징 데이터는 실측 요속 데이터에 포함되고, 제1 윈도우 구간에 대응하는 제1 조각 실측 요속 데이터와 라벨링되어 제1 학습 데이터가 생성될 수 있다.In the course of learning the yaw velocity prediction model, the measured yaw velocity data may be labeled with the feature data to generate a training data set (S350). The feature data and the measured yaw velocity data may be labeled with data corresponding to each window section. For example, the first piece characteristic data included in the feature data and corresponding to the first window section is included in the measured yaw velocity data, and is labeled with the first piece measured yaw velocity data corresponding to the first window section to form the first learning data can be created.
요속 예측 모델은 전술한 학습 데이터 셋을 이용하여 생성될 수 있다(S360). 요속 예측 모델은 학습 데이터 셋을 이용하여 학습될 수 있다. 학습된 요속 예측 모델은 상술한 조각 대상 데이터를 이용하여 조각 요속 데이터를 획득하는 데에 이용될 수 있다.The yaw velocity prediction model may be generated using the aforementioned training data set (S360). The yaw velocity prediction model may be trained using a training data set. The learned yaw velocity prediction model may be used to obtain the fragment yaw velocity data using the above-described fragment target data.
배뇨/비-배뇨 분류 모델 학습 방법How to train a urination/non-urination classification model
도 20은 본 명세서의 일 실시예에 따른 배뇨/비-배뇨 분류 모델을 학습시키는 과정을 나타내는 순서도이다.20 is a flowchart illustrating a process of training a urination/non-urination classification model according to an embodiment of the present specification.
도 20을 참고하면, 배뇨/비-배뇨 분류 모델 학습 방법은 배뇨 과정에서 음향 데이터를 수집하는 단계(S410), 수집한 음향 데이터를 가공하여 특징 데이터를 생성하는 단계(S420), 배뇨 과정에서 미리 설정된 주기로 배뇨 또는 비-배뇨 여부를 판단하는 단계(S430), 배뇨/비-배뇨 판단 데이터를 생성하는 단계(S440), 특징 데이터에 배뇨/비-배뇨 판단 데이터를 라벨링하여 학습 데이터 셋을 생성하는 단계(S450), 및 학습 데이터 셋을 이용하여 배뇨/비-배뇨 분류 모델을 생성하는 단계(S460)를 포함할 수 있다.Referring to FIG. 20 , the urination/non-urination classification model learning method includes the steps of collecting acoustic data in the urination process (S410), processing the collected acoustic data to generate characteristic data (S420), and in the urination process in advance. Determining whether urination or non-urination in a set cycle (S430), generating urination/non-urination determination data (S440), labeling the urination/non-urination determination data in the feature data to generate a learning data set It may include step S450 and generating a urination/non-urination classification model using the training data set (S460).
이하에서 각 단계에 대해 서술한다. 배뇨/비-배뇨 분류 모델 학습 방법의 각 단계는 사람 또는 프로세서에 의해 수행될 수 있다. 여기서, 음향 데이터를 수집하는 단계(S410) 및 수집한 음향 데이터를 가공하여 특징 데이터를 생성하는 단계(S420)는 도 19에서 서술한 단계(S310) 및 단계(S320)과 동일한 바 구체적인 내용은 생략하도록 한다.Each step is described below. Each step of the urination/non-urination classification model training method may be performed by a human or a processor. Here, the step (S410) of collecting the sound data and the step (S420) of generating the characteristic data by processing the collected sound data are the same as the steps (S310) and (S320) described in FIG. 19 , and specific details are omitted. let it do
배뇨/비-배뇨 분류 모델 학습 과정에서 배뇨 과정에 대해 배뇨 또는 비-배뇨 여부가 판단될 수 있다(S430). 예를 들어, 배뇨 과정을 녹음한 음향 데이터를 이용하여 배뇨 과정에 대해 배뇨 또는 비-배뇨 구간을 판단할 수 있다. 구체적으로, 배뇨 과정을 녹음한 음향 데이터에서 각 시간 구간에서의 세기를 미리 설정된 값과 비교하여 배뇨 구간 또는 비-배뇨 구간으로 판단할 수 있다. 다른 예를 들어, 배뇨 과정에서 시간에 따라 배뇨량을 측정하여 획득된 배뇨량 데이터를 이용하여 배뇨 과정에서 배뇨 구간 및 비-배뇨 구간을 판단할 수 있다. 배뇨 과정에 대한 배뇨량 측정에 있어서, 전술한 배뇨량 측정 방식이 이용될 수 있다.In the urination/non-urination classification model learning process, it may be determined whether urination or non-urination with respect to the urination process ( S430 ). For example, a urination or non-urination section may be determined with respect to the urination process using sound data recorded during the urination process. Specifically, the intensity in each time section in the sound data recorded with the urination process may be compared with a preset value to determine the urination section or the non-urination section. For another example, a urination section and a non-urination section may be determined in the urination process by using the voiding amount data obtained by measuring the urination amount over time in the urination process. In measuring the amount of urination for the urination process, the above-described method for measuring the amount of urination may be used.
배뇨 또는 비-배뇨 여부 판단 단계(S430)에서 판단된 배뇨 구간 및 비-배뇨 구간을 이용하여 배뇨/비-배뇨 판단 데이터가 생성될 수 있다(S440). 배뇨/비-배뇨 판단 데이터는 시간 영역에서 미리 설정된 주기로 판단된 판단 값들을 포함할 수 있다. Urination/non-urination determination data may be generated using the urination section and the non-urination section determined in the urination or non-urination determination step ( S430 ) ( S440 ). The urination/non-urination determination data may include determination values determined at a preset period in the time domain.
배뇨/비-배뇨 판단 데이터는 복수의 윈도우로 구분될 수 있다. 예를 들어, 배뇨/비-배뇨 판단 데이터는 배뇨 과정의 측정 시작 시점부터 측정 종료 시점 사이에서 연속적으로 정해지는 복수의 윈도우 각각에 대응하는 복수의 조각 판단 데이터를 포함할 수 있다. 이 때, 배뇨/비-배뇨 판단 데이터를 구분하는 윈도우의 크기는 단계(S420)에서 생성되는 특징 데이터를 구분하는 윈도우의 크기와 동일할 수 있다. 또한, 배뇨/비-배뇨 판단 데이터가 포함하는 조각 판단 데이터의 개수와 단계(S420)에서 생성되는 특징 데이터가 포함하는 조각 특징 데이터의 개수는 동일할 수 있다.The urination/non-urination determination data may be divided into a plurality of windows. For example, the urination/non-urination determination data may include a plurality of pieces of determination data corresponding to each of a plurality of windows continuously determined between a measurement start time and a measurement end time of the urination process. In this case, the size of the window dividing the urination/non-urination determination data may be the same as the size of the window dividing the characteristic data generated in step S420 . Also, the number of pieces of piece determination data included in the urination/non-urination determination data may be the same as the number of pieces of piece characteristic data included in the feature data generated in step S420 .
상술한 음향 데이터를 수집하고 수집한 음향 데이터로부터 특징 데이터를 생성하는 단계(S410, S420)는 배뇨 과정에서 배뇨 또는 비-배뇨 여부를 판단하고 그 판단 값을 이용하여 판단 데이터를 생성하는 단계(S430, S440)를 기준으로 보다 이전 시점 또는 이후 시점에 수행되거나, 병렬적으로 수행될 수 있다.Steps (S410, S420) of collecting the above-described acoustic data and generating characteristic data from the collected acoustic data is a step of determining whether urination or non-urination in the urination process and generating judgment data using the judgment value (S430) , S440) may be performed at an earlier time or a later time, or may be performed in parallel.
배뇨/비-배뇨 분류 모델 학습 과정에서, 특징 데이터에 배뇨/비-배뇨 판단 데이터가 라벨링(labeling)되어 학습 데이터 셋이 생성될 수 있다(S450). 특징 데이터 및 배뇨/비-배뇨 판단 데이터는 각 윈도우 구간에 대응되는 데이터끼리 라벨링될 수 있다. 예를 들어, 특징 데이터에 포함되고, 제1 윈도우 구간에 대응하는 제1 조각 특징 데이터는 배뇨/비-배뇨 판단 데이터에 포함되고, 제1 윈도우 구간에 대응하는 제1 조각 판단 데이터와 라벨링되어 제1 학습 데이터가 생성될 수 있다.In the process of training the urination/non-urination classification model, the urination/non-urination determination data may be labeled with the feature data to generate a training data set (S450). The feature data and the urination/non-urination determination data may be labeled with data corresponding to each window section. For example, the first piece of feature data included in the feature data and corresponding to the first window section is included in the urination/non-urination determination data, and is labeled with the first piece of determination data corresponding to the first window section. 1 Learning data may be generated.
배뇨/비-배뇨 분류 모델은 전술한 학습 데이터 셋을 이용하여 생성될 수 있다(S460). 구체적으로, 배뇨/비-배뇨 분류 모델은 학습 데이터 셋을 이용하여 학습될 수 있다. 학습된 배뇨/비-배뇨 분류 모델은 상술한 조각 대상 데이터를 이용하여 조각 분류 데이터를 획득하는 데에 이용될 수 있다.The urination/non-urination classification model may be generated using the above-described training data set (S460). Specifically, the urination/non-urination classification model may be trained using a training data set. The learned urination/non-urination classification model may be used to obtain fragment classification data using the above-described fragment target data.
이하에서는 음향 데이터를 이용하여 획득되는 배뇨 데이터 또는 배뇨 정보를 보정하는 데이터 보정 방법에 대해 서술한다. 여기서 데이터 보정 방법을 적용하여 보정하는 배뇨 데이터 또는 배뇨 정보는 도 1 내지 도 20을 통해 서술한 정확도 높은 배뇨 정보를 획득하는 방법으로 획득된 경우 뿐만 아니라 다른 방법으로 획득된 배뇨 데이터 또는 배뇨 정보일 수 있음을 미리 밝혀 둔다.Hereinafter, a data correction method for correcting urination data or urination information obtained using sound data will be described. Here, the urination data or urination information corrected by applying the data correction method may be urination data or urination information obtained by other methods as well as when obtained by the method of obtaining urination information with high accuracy described through FIGS. 1 to 20. make it clear in advance that
또한, 이하에서는 설명의 편의를 위해 보정하고자 하는 배뇨 데이터 또는 배뇨 정보가 배뇨량에 관한 예측 값인 경우를 주로 서술하나, 본 명세서의 기술적 사상이 이에 한정되는 것은 아니며 전술한 최대 요속, 평균 요속, 오류 시간, 또는 배뇨 시간에 관한 예측 값을 보정하는 경우에도 마찬가지로 적용될 수 있다.In addition, for convenience of explanation, the following mainly describes the case where the urination data or urination information to be corrected is a predicted value regarding the amount of urination, but the technical spirit of the present specification is not limited thereto, and the above-described maximum urine velocity, average urine velocity, and error time , or a case of correcting a predicted value for urination time may be similarly applied.
배뇨 데이터 보정 방법How to correct urination data
도 21은 본 명세서의 일 실시예에 따른 실측 데이터 및 예측 데이터를 나타내는 도면이다.21 is a diagram illustrating measured data and predicted data according to an embodiment of the present specification.
실측 데이터는 일정 기간 동안 어느 한 개체(ex. 일반인, 환자, 또는 피험자 등)의 배뇨 과정에서 측정된 배뇨량 측정 값들을 포함할 수 있다. 예를 들어, 실측 데이터는 하루 동안 한 사람의 배뇨 과정에서 측정된 배뇨량 측정 값을 포함할 수 있다. 다른 예를 들어, 실측 데이터는 복수의 날들 동안 한 사람의 배뇨 과정에서 측정된 배뇨량 측정 값을 포함할 수 있다. 배뇨량 측정 값은 다양한 방법으로 획득될 수 있다. 예를 들어, 배뇨량 측정 값은 종이컵, 눈금이 그려진 컵 등의 측량 용기나 휴대용, 가정용 요속 측정기기나 의료기관에서 사용되는 요속 측정기기, 저울 등의 측정 기기를 이용하여 획득될 수 있다. The actual data may include measurement values of the amount of urine measured during the urination process of any one individual (eg, a general public, a patient, or a subject, etc.) for a certain period of time. For example, the actual measurement data may include a measurement value of the amount of urine measured during a person's urination process for one day. As another example, the actual measurement data may include a measurement value of a voiding amount measured in a urination process of a person for a plurality of days. The urine output measurement value may be obtained in various ways. For example, the urine output measurement value may be obtained by using a measuring device such as a measuring container such as a paper cup or a graduated cup, or a portable, household urine velocity measuring device or a urine velocity measuring device used in a medical institution, a scale, or the like.
실측 데이터가 포함하는 배뇨량 측정 값의 개수는 해당 개체의 배뇨 횟수와 동일할 수 있다. The number of measurement values of the amount of urination included in the actual data may be the same as the number of times of urination of the subject.
예측 데이터는 일정 기간 동안 어느 한 개체의 배뇨 과정에서 산출된 배뇨량 예측 값들을 포함할 수 있다. 예를 들어, 예측 데이터는 하루 동안 한 사람의 배뇨 과정을 녹음하고, 그에 따른 음향 데이터를 이용하여 획득한 배뇨량 예측 값을 포함할 수 있다. 다른 예를 들어, 예측 데이터는 복수의 날들 동안 한 사람의 배뇨 과정을 녹음하고, 그에 따른 음향 데이터를 이용하여 획득한 배뇨량 예측 값을 포함할 수 있다. 배뇨량 예측 값은 다양한 방법으로 획득될 수 있다. 일 예로, 배뇨량 예측 값은 사람의 배뇨 과정을 녹음하여 획득한 음향 데이터를 임의의 방법으로 분석하여 요속 또는 배뇨량을 추정하는 과정에서 도출된 값을 의미할 수 있다. 구체적으로, 배뇨량 예측 값은 전술한 음향 분석 시스템(1000)을 이용하여 획득될 수 있다. 이 때, 배뇨량 예측 값은 요속 예측부(1300) 및 배뇨 정보 추출부(1500)를 통해 획득되는 후보 요속 데이터로부터 산출되거나 요속 예측부(1300), 배뇨/비-배뇨 분류부(1400), 및 배뇨 정보 추출부(1500)를 통해 획득되는 배뇨 데이터로부터 산출될 수 있다.The prediction data may include voiding amount prediction values calculated in the urination process of any one individual for a certain period of time. For example, the prediction data may include a urination amount prediction value obtained by recording a urination process of a person during one day and using the corresponding acoustic data. As another example, the prediction data may include a urination amount prediction value obtained by recording a urination process of a person for a plurality of days and using sound data according thereto. The urination amount predicted value may be obtained in various ways. For example, the predicted value of urination may refer to a value derived from a process of estimating a urine velocity or an amount of urination by analyzing sound data obtained by recording a human urination process by any method. Specifically, the urination amount predicted value may be obtained using the aforementioned acoustic analysis system 1000 . At this time, the urination amount predicted value is calculated from the candidate urine velocity data obtained through the urine velocity predictor 1300 and the urination information extraction unit 1500 or the urine velocity predictor 1300, the urination / non-urination classification unit 1400, and It may be calculated from urination data obtained through the urination information extraction unit 1500 .
예측 데이터가 포함하는 배뇨량 예측 값의 개수는 해당 개체의 배뇨 횟수와 동일할 수 있다. The number of urination amount prediction values included in the prediction data may be the same as the number of urinations of the subject.
도 21을 참고하면, 임의의 기간(1월 29일~2월 5일) 동안 어느 한 사람의 배뇨 과정에 대한 실측 데이터(Χ 표식) 및 예측 데이터(● 표식)가 그래프로 도시되어 있으며, 예측 데이터는 실측 데이터와 비교할 때 상대적으로 큰 값을 가진다. 구체적으로, 1월 29일 내지 2월 1일까지의 배뇨 과정에 대한 배뇨량 측정 값들은 약 100mL 내지 약 500mL 이내인 반면, 2월 2일에서 2월 5일까지의 배뇨 과정에 대한 배뇨량 예측 값들은 약 300mL 내지 약 1000mL 이내이다. 다시 말해, 음향 데이터를 이용하여 배뇨량을 예측하는 경우 실제로 측정한 배뇨량 보다 큰 값을 가질 수 있으며, 이를 보정할 필요가 있다. 이하에서는 배뇨량을 예측하는 경우가 실제로 측정하는 경우보다 큰 값을 가지는 경우에 대해 주로 서술하나, 본 명세서의 기술적 사상이 이에 한정되는 것은 아니며, 실제로 측정한 배뇨량이 예측한 배뇨량 보다 큰 값을 가지는 경우에도 유사하게 적용될 수 있다.Referring to FIG. 21 , the measured data (signal Χ) and predicted data (marker ●) for a person's urination process for an arbitrary period (January 29 to February 5) are graphically shown, and the prediction The data has a relatively large value when compared with the actual data. Specifically, the measurement values for the amount of urination for the urination process from January 29 to February 1 are within about 100 mL to about 500 mL, whereas the predicted values for the amount of urine for the urination process from February 2 to February 5 are from about 300 mL to about 1000 mL. In other words, when the urination amount is predicted using the acoustic data, it may have a value greater than the actually measured urination amount, and this needs to be corrected. Hereinafter, a case in which the predicted urination amount has a larger value than that of the actual measurement is mainly described, but the technical spirit of the present specification is not limited thereto. can be applied similarly to
도 22는 본 명세서의 일 실시예에 따른 실측 데이터, 예측 데이터, 및 보정된 예측 데이터를 나타내는 도면이다.22 is a diagram illustrating actual measurement data, prediction data, and corrected prediction data according to an embodiment of the present specification.
도 22를 참고하면, 도 21에 도시된 그래프에서 예측 데이터를 보정한 보정된 예측 데이터(□ 표식)가 표시되어 있다. 구체적으로, 도 22에는 2월 2일 내지 2월 5일까지의 배뇨량 예측 값들을 스케일링(scaling)한 보정된 예측 값들이 표시되어 있으며, 보정된 예측 값들은 약 100mL 내지 약 400mL 이내의 값을 가질 수 있다.Referring to FIG. 22 , corrected prediction data (marked □) obtained by correcting the prediction data is displayed in the graph shown in FIG. 21 . Specifically, in FIG. 22, corrected predicted values obtained by scaling the urination amount predicted values from February 2 to February 5 are displayed, and the corrected predicted values have a value within about 100 mL to about 400 mL. can
일반적으로, 사람의 배뇨량은 방광의 크기에 비례하며, 서로 다른 배뇨 과정이라 하더라도 그 배뇨량 값은 일정 범위 내의 값을 가질 수 있다.In general, a person's urination amount is proportional to the size of the bladder, and even in different urination processes, the voiding amount value may have a value within a certain range.
이러한 사정을 고려할 때, 사람의 배뇨 과정에 대한 실측 데이터를 이용하여 사람의 배뇨 과정에 대한 예측 데이터를 보정할 수 있다. 예를 들어, 실측 데이터의 배뇨량 측정 값들이 제1 범위를 가지고, 예측 데이터의 배뇨량 예측 값들이 제2 범위를 가질 때, 제2 범위가 제1 범위와 동일하거나 유사하도록 예측 데이터의 배뇨량 예측 값들을 보정할 수 있다.In consideration of such circumstances, the predicted data for the human urination process may be corrected by using the actual data on the human urination process. For example, when the urination amount measurement values of the actual data have a first range and the urination amount prediction values of the prediction data have a second range, the urination amount prediction values of the prediction data are set such that the second range is the same as or similar to the first range. can be corrected.
한편, 사람의 배뇨량은 일정 기간 내에서는 그 값의 범위가 유지될 수 있다. 다시 말해, 사람의 배뇨량은 그 사람의 방광의 크기에 따라 정해질 수 있으므로, 신체적 특성이 변하거나, 치료를 받거나, 또는 질환이 발생하는 등의 사정이 없는 한 사람의 배뇨량 값의 범위는 유지될 수 있다.On the other hand, the human urination amount may be maintained within a range of its value within a certain period. In other words, since a person's urination amount can be determined according to the size of the person's bladder, the range of a person's urination value cannot be maintained unless there are circumstances such as a change in physical characteristics, treatment, or the occurrence of a disease. can
이러한 사정을 고려할 때, 서로 다른 시점에서 수집된 배뇨 관련 데이터에 대해, 어느 한 시점의 데이터를 기반으로 다른 한 시점의 데이터를 보정할 수 있다. 예를 들어, 과거의 실측 데이터를 이용하여 현재 또는 향후의 예측 데이터를 보정할 수도 있고, 과거의 실측 데이터 및 예측 데이터를 이용하여 현재 또는 향후의 예측 데이터를 보정할 수도 있으며, 그 반대의 경우도 가능하다. 한편, 상술한 신체적 특성의 변화, 치료, 또는 질병 발생 등의 특별한 사정이 있는 경우 배뇨 관련 데이터를 다시 수집할 수 있다.In consideration of such circumstances, with respect to urination-related data collected at different time points, data at one time point may be corrected based on the data at one time point. For example, current or future forecast data may be corrected using past measured data, current or future forecast data may be corrected using past measured data and predicted data, and vice versa. It is possible. Meanwhile, when there is a special circumstance such as a change in the above-described physical characteristics, treatment, or occurrence of a disease, urination-related data may be collected again.
이하에서는 도 23 내지 도 26을 참고하여 기존에 수집된 배뇨량에 대한 실측 데이터를 이용하여 기존에 수집된 또는 향후 수집되는 배뇨량에 대한 예측 데이터를 보정하는 방법에 대해 서술한다.Hereinafter, with reference to FIGS. 23 to 26 , a method of correcting the predicted data for the amount of urine collected in the past or to be collected in the future using the actually measured data on the amount of urine collected will be described below.
도 23은 본 명세서의 일 실시예에 따른 데이터 보정 방법을 나타내는 순서도이다.23 is a flowchart illustrating a data correction method according to an embodiment of the present specification.
도 23을 참고하면, 데이터 보정 방법은 실측 데이터를 획득하는 단계(S510), 예측 데이터를 획득하는 단계(S520), 실측 데이터 및 예측 데이터를 이용하여 보상 값을 획득하는 단계(S530), 대상 예측 데이터를 획득하는 단계(S540), 및 보정 값을 이용하여 대상 예측 데이터를 보정하는 단계(S550)를 포함할 수 있다.Referring to FIG. 23 , the data correction method includes the steps of obtaining measured data ( S510 ), obtaining predicted data ( S520 ), obtaining a compensation value using the measured data and the predicted data ( S530 ), and predicting a target It may include obtaining data (S540), and correcting the target prediction data using the correction value (S550).
데이터 보정 방법에서 각 단계의 적어도 일부는 전술한 음향 분석 시스템(1000)의 제어부(1900) 또는 별도의 프로세서를 통해서 수행될 수 있다. At least a part of each step in the data correction method may be performed through the control unit 1900 of the aforementioned acoustic analysis system 1000 or a separate processor.
일 예로, 데이터 보정 방법의 적어도 일부는 데이터 보정부에 의해 수행될 수 있다. 데이터 보정부는 하드웨어적으로 전기적 신호를 처리하여 제어 기능을 수행하는 전자회로 형태로 제공되거나, 소프트웨어적으로 하드웨어적 회로를 구동시키는 프로그램 또는 코드 형태로 제공될 수 있다. 데이터 보정부는 외부로부터 데이터를 수신하고, 수신한 데이터를 이용하여 또는 수신한 데이터에 대해 데이터 보정 방법을 수행할 수 있다.For example, at least a part of the data correction method may be performed by the data correction unit. The data compensator may be provided in the form of an electronic circuit that performs a control function by processing an electrical signal in hardware, or may be provided in the form of a program or code that drives the hardware circuit in software. The data corrector may receive data from the outside and perform a data correction method using the received data or on the received data.
이하에서는 각 단계에 대해 구체적으로 서술한다.Hereinafter, each step will be described in detail.
데이터 보정 방법에 있어서, 실측 데이터가 획득될 수 있다(S510). 실측 데이터는 전술한 것과 같이 어느 한 개체의 배뇨 과정에서 배뇨량을 측정한 데이터를 의미한다. 구체적으로, 실측 데이터는 한 사람의 배뇨 과정 마다 측정되는 배뇨량 측정 값을 포함할 수 있다.In the data correction method, actual measurement data may be obtained (S510). As described above, the measured data refers to data obtained by measuring the amount of urination during the urination process of one individual. Specifically, the actual measurement data may include a measurement value of the amount of urination measured for each urination process of one person.
실측 데이터가 획득되는 단계(S510)에서 복수의 개체에 대한 실측 데이터 그룹이 획득될 수도 있다. 예를 들어, 상술한 실측 데이터 그룹은 제1 내지 제s 개체에 대한 제1 내지 제s 실측 데이터(s는 2 이상의 자연수)를 포함할 수 있다. 각 실측 데이터는 대응하는 개체의 배뇨 과정에 관한 배뇨량 측정 값을 적어도 하나 이상 포함할 수 있다. 결과적으로, 실측 데이터 그룹을 획득하는 것은 복수의 사람들의 배뇨 과정에서 측정된 배뇨량 측정 값들을 수집하는 것으로 이해될 수 있다.In operation S510 in which the measured data is acquired, a group of measured data for a plurality of entities may be acquired. For example, the above-described measured data group may include first to s-th measured data (s is a natural number equal to or greater than 2) for the first to s-th entities. Each actual measurement data may include at least one urination amount measurement value related to the urination process of the corresponding individual. As a result, acquiring the actual data group may be understood as collecting measurement values of the amount of urine measured in the urination process of a plurality of people.
데이터 보정 방법에 있어서, 예측 데이터가 획득될 수 있다(S520). 예측 데이터는 전술한 바와 같이 어느 한 개체의 배뇨 과정에서 배뇨량을 예측한 데이터를 의미한다. 구체적으로, 예측 데이터는 한 사람의 배뇨 과정을 녹음한 음향 데이터를 이용하여 산출되는 배뇨량 예측 값을 포함할 수 있다.In the data correction method, prediction data may be obtained (S520). As described above, the prediction data refers to data that predicts the amount of urination in the urination process of any one individual. Specifically, the prediction data may include a urination amount predicted value calculated using sound data recorded in the urination process of one person.
예측 데이터가 획득되는 단계(S520)에서 복수의 개체에 대한 예측 데이터 그룹이 획득될 수도 있다. 예를 들어, 예측 데이터 그룹은 제1 내지 제t 개체에 대한 제1 내지 제t 예측 데이터(t는 2 이상의 자연수로, s와 동일하거나 다를 수 있음)를 포함할 수 있다. 각 예측 데이터는 대응하는 개체의 배뇨 과정에 관한 배뇨량 예측 값을 적어도 하나 이상 포함할 수 있다. 결과적으로, 예측 데이터 그룹을 획득하는 것은 복수의 사람들의 배뇨 과정에서 산출되는 배뇨량 예측 값들을 수집하는 것으로 이해될 수 있다.In operation S520 in which prediction data is obtained, prediction data groups for a plurality of entities may be obtained. For example, the prediction data group may include first to t-th prediction data (t is a natural number equal to or greater than 2, which may be the same as or different from s) for the first to t-th individuals. Each prediction data may include at least one urination amount prediction value related to the urination process of the corresponding individual. As a result, acquiring the prediction data group may be understood as collecting the urination amount prediction values calculated in the urination process of a plurality of people.
실측 데이터를 획득하는 단계(S510) 및 예측 데이터를 획득하는 단계(S520)는 순차적으로 또는 병렬적으로 수행될 수 있다.The step of obtaining the measured data ( S510 ) and the step of obtaining the prediction data ( S520 ) may be performed sequentially or in parallel.
데이터 보정 방법에 있어서, 실측 데이터 및 예측 데이터를 이용하여 보상 값(compensation value)이 획득될 수 있다(S530). 보상 값은 수집된 예측 데이터 또는 이후 수집될 예측 데이터를 보정하기 위한 값으로 이해될 수 있다.In the data correction method, a compensation value may be obtained using measured data and predicted data ( S530 ). The compensation value may be understood as a value for correcting the collected prediction data or the prediction data to be collected later.
보상 값은 실측 데이터 획득 단계(S510)에서 획득되는 실측 데이터 및 예측 데이터 획득 단계(S520)에서 획득되는 예측 데이터에 대해 데이터 분석 기법을 적용하여 산출될 수 있다. The compensation value may be calculated by applying a data analysis technique to the measured data acquired in the actual data acquisition step S510 and the predicted data acquired in the predicted data acquisition step S520 .
일 예로, 보상 값은 기술통계 분석 기법을 이용하여 산출될 수 있다. 구체적으로, 보상 값은 실측 데이터의 대표 값(ex. 배뇨량 측정 값들 중 적어도 일부에 대한 평균 값, 중앙 값, 최빈 값, 분산 값, 및/또는 표준편차 값)과 예측 데이터의 대표 값(ex. 배뇨량 예측 값들 중 적어도 일부에 대한 평균 값, 중앙 값, 최빈 값, 분산 값, 및/또는 표준편차 값 등)을 비교하여 산출될 수 있다. As an example, the compensation value may be calculated using a descriptive statistical analysis technique. Specifically, the compensation value is a representative value of the actual measurement data (eg, the average value, median value, mode value, variance value, and/or standard deviation value of at least some of the measurement values of urination) and a representative value of the prediction data (ex. It may be calculated by comparing an average value, a median value, a mode value, a variance value, and/or a standard deviation value for at least some of the voiding amount predicted values.
다른 예로, 보상 값은 회귀분석(regression analysis) 기법을 이용하여 산출될 수 있다. 구체적으로, 실측 데이터로부터 획득되는 값을 독립 변수 또는 종속 변수 중 어느 하나로 이용하고, 예측 데이터로부터 획득되는 값을 독립 변수 또는 종속 변수 중 다른 하나로 이용할 때, 회귀분석 기법을 통해 산출되는 회귀계수(regression coefficient)를 보상 값으로 획득할 수 있다. 여기서, 회귀분석으로 단순선형 회귀분석(simple liner regression), 다중선형 회귀분석(multi linear regression), 로지스틱 회귀분석(logistic regression), 리지 회귀분석(ridge regression), 라쏘 회귀(lasso regression), 다항 회귀분석(polynomial regression) 또는 비선형 회귀분석(non-linear regression)이 선택될 수 있다.As another example, the compensation value may be calculated using a regression analysis technique. Specifically, when a value obtained from measured data is used as either an independent variable or a dependent variable, and a value obtained from prediction data is used as the other of the independent variable or dependent variable, a regression coefficient calculated through a regression analysis technique coefficient) can be obtained as a compensation value. Here, simple liner regression, multi linear regression, logistic regression, ridge regression, lasso regression, and multinomial regression are regression analysis. Polynomial regression or non-linear regression may be selected.
보상 값은 전술한 데이터 분석 기법 외에도 다차원 척도법(MDS: Multi-Dimensional Scaling), 주성분 분석(PCA: Principal Component Analysis), 또는 회귀분석 이외의 기계학습을 이용하여 획득될 수도 있다.The reward value may be obtained using machine learning other than multi-dimensional scaling (MDS), principal component analysis (PCA), or regression analysis in addition to the above-described data analysis technique.
보상 값은 실측 데이터 그룹 및 예측 데이터 그룹을 이용하여 산출될 수도 있다. 다시 말해, 보상 값은 어느 한 개체에 대한 실측 데이터 및 예측 데이터를 이용하여 산출되거나 복수의 개체, 즉 여러 사람에 대한 실측 데이터 그룹 및 예측 데이터 그룹을 이용하여 산출될 수도 있다. 보상 값을 산출하는 구체적인 방법에 대해서는 후술한다.The compensation value may be calculated using the measured data group and the predicted data group. In other words, the compensation value may be calculated using the measured data and the predicted data for a single entity, or may be calculated using the measured data group and the predicted data group for a plurality of entities, that is, several people. A specific method of calculating the compensation value will be described later.
데이터 보정 방법에 있어서, 대상 예측 데이터가 획득될 수 있다(S540). 대상 예측 데이터는 전술한 보상 값을 이용하여 보정하고자 하는 데이터를 의미할 수 있다. 예를 들어, 대상 예측 데이터는 보상 값 산출에 이용된 예측 데이터 또는 실측 데이터가 획득되는 데이터 수집 기간 이전에 획득된 또는 이후에 새로 획득되는 음향 데이터로부터 산출된 배뇨량 예측 값을 의미할 수 있다. 보상 값을 획득하는 데에 이용되는 예측 데이터 또는 배뇨량 예측 값들이 대상 예측 데이터가 될 수 있음은 물론이다.In the data correction method, target prediction data may be obtained (S540). The target prediction data may refer to data to be corrected using the above-described compensation value. For example, the target prediction data may refer to a urination amount predicted value calculated from acoustic data acquired before or after the data collection period in which the predicted data used to calculate the compensation value or the actual data is acquired. Of course, prediction data or urination amount prediction values used to obtain a compensation value may be target prediction data.
보정 대상이 되는 대상 예측 데이터는 임의의 개체에 대한 예측 데이터일 수 있다. 예를 들어, 보정 값 산출에 이용된 예측 데이터 그룹 및 실측 데이터 그룹이 적어도 제1 개체에 대한 제1 실측 데이터 및 제1 예측 데이터를 포함하고, 제2 개체에 대한 제2 실측 데이터 및 제2 예측 데이터를 포함할 때, 보정 대상이 되는 데이터는 제1 개체 및 제2 개체 뿐만 아니라 제1 개체 및 제2 개체와 다른 제3 개체에 대한 예측 데이터 또는 배뇨량 측정 값들을 포함할 수 있다. 다시 말해, 전술한 보정 값은 그 보정 값을 산출하는 데에 관여한 특정 개체의 예측 데이터에만 한정되어 적용되는 것이 아닌, 보정 값 산출에 관여하지 않은 개체의 예측 데이터의 보정에도 이용될 수 있다.The target prediction data to be corrected may be prediction data for an arbitrary entity. For example, the predicted data group and the actually measured data group used to calculate the correction value include at least the first measured data and the first predicted data for the first entity, and the second measured data and the second predicted data for the second entity. When data is included, the data to be corrected may include prediction data or measurement values of voiding volume for the first and second individuals as well as for a third individual different from the first and second individuals. In other words, the above-described correction value is not limited to the prediction data of a specific entity involved in calculating the correction value, but may also be used to correct the prediction data of an entity not involved in calculating the correction value.
데이터 보정 방법에 있어서, 보정 값을 이용하여 대상 예측 데이터가 보정될 수 있다(S550). 예를 들어, 대상 예측 데이터의 대상 배뇨량 예측 값과 보정 값을 곱 연산함으로써 보정된 배뇨량 예측 값이 생성될 수 있다. In the data correction method, the target prediction data may be corrected using the correction value ( S550 ). For example, a corrected urination amount predicted value may be generated by multiplying the target voiding amount predicted value and the corrected value of the target predicted data.
이하에서는, 도 24 내지 도 26을 참고하여 데이터 보정 방법에 대해 구체적으로 서술한다.Hereinafter, a data correction method will be described in detail with reference to FIGS. 24 to 26 .
도 24는 본 명세서의 일 실시예에 따른 데이터 보정 과정을 나타내는 도면이다.24 is a diagram illustrating a data correction process according to an embodiment of the present specification.
도 25는 본 명세서의 일 실시예에 따른 데이터 보정 전 실측 데이터와 예측 데이터 사이의 관계를 그래프로 나타낸 도면이다.25 is a graph illustrating a relationship between measured data and predicted data before data correction according to an embodiment of the present specification.
도 26은 본 명세서의 일 실시예에 따른 데이터 보정 후 실측 데이터와 예측 데이터 사이의 관계를 그래프로 나타낸 도면이다.26 is a graph illustrating a relationship between measured data and predicted data after data correction according to an embodiment of the present specification.
도 24를 참고하면, 데이터 수집 기간 동안 수집된 데이터를 이용하여 대상자에 대한 배뇨량 예측이 수행될 수 있다. Referring to FIG. 24 , the urination amount prediction for the subject may be performed using the data collected during the data collection period.
데이터 수집 기간에서 실측 데이터 그룹이 획득될 수 있다. 실측 데이터 그룹은 복수의 개체에 대한 데이터로, 각 개체에 대한 실측 데이터의 집합을 의미할 수 있다. 예를 들어, 실측 데이터 그룹은 제1 내지 제s 개체에 대한 제1 내지 제s 실측 데이터를 포함할 수 있다.In the data collection period, a group of measured data may be acquired. The measured data group is data for a plurality of entities, and may mean a set of measured data for each entity. For example, the measured data group may include first to s-th measured data for the first to s-th objects.
데이터 수집 기간에서 음향 데이터 그룹이 획득될 수 있다. 음향 데이터 그룹은 복수의 개체에 대한 데이터로, 각 개체에 대한 음향 데이터의 집합을 의미할 수 있다. 예를 들어, 음향 데이터 그룹은 제1 내지 제t 개체에 대한 제1 내지 제t 음향 데이터를 포함할 수 있다. 각 개체에 대한 음향 데이터는 해당 개체의 데이터 수집 기간에서의 배뇨 과정을 녹음하여 획득된 것으로 이해될 수 있으며, 단일 또는 복수의 배뇨 과정을 녹음하여 획득되는 데이터를 의미할 수 있다. A group of acoustic data may be acquired in the data collection period. The sound data group is data for a plurality of entities, and may mean a set of sound data for each entity. For example, the sound data group may include first to t-th sound data for the first to t-th objects. Acoustic data for each individual may be understood to be obtained by recording a urination process during a data collection period of the subject, and may refer to data obtained by recording a single or multiple urination processes.
데이터 수집 기간에서 예측 데이터 그룹이 획득될 수 있다. 예측 데이터 그룹은 복수의 개체에 대한 데이터로, 각 개체에 대한 예측 데이터의 집합을 의미할 수 있다. 예를 들어, 예측 데이터 그룹은 제1 내지 제t 개체에 대한 제1 내지 제t 예측 데이터를 포함할 수 있다. A group of prediction data may be obtained in the data collection period. The prediction data group is data for a plurality of entities, and may mean a set of prediction data for each entity. For example, the prediction data group may include first to t-th prediction data for the first to t-th entities.
예측 데이터 그룹은 음향 데이터 그룹으로부터 산출될 수 있다. 예를 들어, 제1 개체에 대한 제1 에측 데이터는 제1 개체에 대한 제1 음향 데이터로부터 산출될 수 있다. 제1 예측 데이터는 적어도 하나 이상의 배뇨량 예측 값을 포함할 수 있고, 제1 예측 데이터가 포함하는 배뇨량 예측 값의 개수는 제1 음향 데이터에 반영된 배뇨 과정의 횟수에 대응될 수 있다.The prediction data group may be calculated from the acoustic data group. For example, the first prediction data for the first object may be calculated from the first sound data for the first object. The first prediction data may include at least one urination amount prediction value, and the number of urination amount prediction values included in the first prediction data may correspond to the number of urination processes reflected in the first acoustic data.
예측 데이터 그룹에 관한 제1 내지 제t 개체에는 실측 데이터 그룹에 관한 제1 내지 제s 개체가 포함될 수 있다. The first to t-th entities related to the prediction data group may include first to s-th entities related to the actual measurement data group.
데이터 수집 기간은 시간 단위 또는 일 단위의 짧은 기간일 수도 있고, 월 단위 또는 연 단위의 긴 기간일 수도 있다. 예를 들어, 데이터 수집 기간은 6시간, 12시간, 18시간, 1일, 4일, 7일, 10일, 14일, 1개월, 3개월, 6개월, 또는 1년일 수 있다.The data collection period may be a short period of time or days, or a long period of months or years. For example, the data collection period may be 6 hours, 12 hours, 18 hours, 1 day, 4 days, 7 days, 10 days, 14 days, 1 month, 3 months, 6 months, or 1 year.
보정 값 산출에 앞서 실측 데이터 그룹 및 예측 데이터 그룹으로부터 데이터 셋 그룹이 생성될 수 있다. Prior to calculating the correction value, a data set group may be generated from the measured data group and the predicted data group.
데이터 셋 그룹은 복수의 데이터 셋을 포함할 수 있다. 예를 들어, 데이터 셋 그룹은 복수의 개체 각각에 대한 데이터 셋을 포함할 수 있다.The data set group may include a plurality of data sets. For example, the data set group may include a data set for each of a plurality of entities.
데이터 셋은 실측 데이터 그룹 내의 실측 데이터 및 예측 데이터 그룹 내의 예측 데이터로부터 생성될 수 있다. 데이터 셋은 배뇨량 측정에 관련된 값과 배뇨량 예측에 관련된 값을 포함할 수 있다. 예를 들어, 데이터 셋 그룹에 포함되는 제1 데이터 셋은 제1 실측 데이터 및 제1 예측 데이터로부터 생성되며, 구체적으로 제1 실측 데이터에 포함된 배뇨량 측정 값들의 대표 값인 대표 측정 값과 제1 예측 데이터에 포함된 배뇨량 예측 값들의 대표 값인 대표 예측 값을 연관시킴으로써 생성될 수 있다. 이 때, 대표 측정 값은 실측 데이터에 포함되는 배뇨량 측정 값들의 합산 값, 평균 값, 중위 값, 최빈 값, 분산 값, 또는 표준편차 값일 수 있고, 대표 예측 값은 예측 데이터에 포함되는 배뇨량 예측 값들의 합산 값, 평균 값, 중위 값, 최빈 값, 분산 값, 또는 표준편차 값일 수 있다.The data set may be generated from the measured data in the measured data group and the predicted data in the predicted data group. The data set may include a value related to the measurement of the amount of urination and a value related to the prediction of the amount of urination. For example, the first data set included in the data set group is generated from the first measured data and the first predicted data, and specifically, the representative measured value and the first prediction that are representative values of the urination amount measured values included in the first measured data It may be generated by associating a representative predicted value that is a representative value of the voiding amount predicted values included in the data. In this case, the representative measured value may be a sum, average, median, mode, variance, or standard deviation value of the urination amount measured values included in the actual data, and the representative predicted value is the voiding amount predicted value included in the predicted data. It may be a sum of these values, a mean value, a median value, a mode value, a variance value, or a standard deviation value.
다시 말해, 데이터 셋은 어느 한 개체에 대한 실측 데이터 및 예측 데이터 중 적어도 일부를 하나의 세트로 표현한 개념으로 이해될 수 있다. 따라서, 하나의 개체에 대해 하나의 데이터 셋이 생성될 수도 있고, 복수의 데이터 셋이 생성될 수도 있다.In other words, the data set may be understood as a concept in which at least some of the measured data and the predicted data for one individual are expressed as one set. Accordingly, one data set may be generated for one entity, or a plurality of data sets may be generated.
일 예로, 하루 동안 복수의 개체에 대해 수집된 실측 데이터 그룹 및 예측 데이터 그룹으로부터 데이터 셋 그룹이 생성될 때, 데이터 셋이 하루 동안의 평균 측정 값 및 하루 동안의 평균 예측 값을 포함하는 경우 데이터 셋 그룹은 개체 하나 당 하나의 데이터 셋을 포함할 수 있다.For example, when a data set group is generated from the actual data group and the predicted data group collected for a plurality of subjects during one day, the data set includes the average measured value for one day and the average predicted value for one day. A group can contain one data set per entity.
다른 에로, 4일 동안 복수의 개체에 대해 수집된 실측 데이터 그룹 및 예측 데이터 그룹으로부터 데이터 셋 그룹이 생성되고, 데이터 셋이 하루 동안의 평균 측정 값 및 하루 동안의 평균 예측 값을 포함하는 경우 개체 당 4개의 데이터 셋이 생성될 수 있다. In another example, a group of data sets is generated from a group of ground truth data and a group of predicted data collected for a plurality of subjects over 4 days, and the data set includes the average measured value over the day and the average predicted value over the day per subject. Four data sets can be created.
데이터 셋이 생성되는 과정은 상술한 예로 한정되지 않으며, 동일한 날에 발생한 복수의 배뇨 과정 각각에 대해 데이터 셋이 생성될 수도 있으며, 각 개체에 대해 복수의 날 동안 발생한 배뇨 과정 전부에 대해 하나의 데이터 셋이 생성될 수도 있다.The process of generating a data set is not limited to the above-described example, and a data set may be generated for each of a plurality of urination processes occurring on the same day, and one data set for all urination processes occurring during a plurality of days for each individual. Three may be created.
데이터 셋은 다양한 형태로 표현될 수 있다. 예를 들어, 도 25 및 도 26에 도시된 바와 같이 데이터 셋은 그래프 상에서 좌표 형태로 표시될 수 있다.A data set can be expressed in various forms. For example, as shown in FIGS. 25 and 26 , the data set may be displayed in the form of coordinates on a graph.
보정 프로세스를 이용하여 데이터 셋 그룹으로부터 보정 값이 산출될 수 있다.A calibration value may be calculated from a group of data sets using a calibration process.
일 예로, 보정 값을 산출함에 있어서 회귀분석 기법이 이용될 수 있다. 도 25를 참고하면 데이터 셋 그룹은 각 개체에 대한 배뇨량 예측 값들의 평균을 독립 변수로, 각 개체에 대한 배뇨량 측정 값들의 평균을 종속 변수로 하는 데이터 셋을 포함할 수 있고, 데이터 셋 그룹을 이용하여 배뇨량 예측 값과 배뇨량 측정 값 사이의 관계를 나타내는 함수가 획득될 수 있다. 이 때, 획득되는 함수는 선형 함수일 수 있고, 그 기울기가 보정 값으로 획득될 수 있다. 또한, 배뇨량 예측 값이 배뇨량 측정 값에 비해 큰 값을 가지는 점에서, 기울기는 0에서 1사이의 값을 가질 수 있다.For example, a regression analysis technique may be used in calculating the correction value. Referring to FIG. 25 , the data set group may include a data set in which the average of the voiding amount predicted values for each individual is an independent variable and the average of the urination amount measured values for each individual is a dependent variable, and the data set group is used. Thus, a function representing the relationship between the urination amount predicted value and the urination amount measured value may be obtained. In this case, the obtained function may be a linear function, and a slope thereof may be obtained as a correction value. Also, since the predicted value of urination has a larger value than the measured value of urination, the slope may have a value between 0 and 1.
산출된 보정 값을 이용하여 대상 개체에 대한 대상 예측 데이터가 보정될 수 있다. 대상 개체는 배뇨 정보를 획득하고자 하는 개체를 의미할 수 있다. 대상 예측 데이터는 대상 개체의 배뇨 과정에 관한 예측 데이터를 의미할 수 있다. 예를 들어, 제1 대상 개체의 배뇨 과정을 녹음하여 획득되는 음향 데이터로부터 제1 대상 예측 값이 산출될 수 있고, 제1 대상 예측 값에 대해 보정 값을 적용하여 제1 보정된 데이터가 획득될 수 있다. 마찬가지로, 제2 대상 개체의 배뇨 과정을 녹음하여 획득되는 음향 데이터로부터 제2 대상 예측 값이 산출될 수 있고, 제2 대상 예측 값에 대해 보정 값을 적용하여 제2 보정된 데이터가 획득될 수 있다.Target prediction data for the target object may be corrected using the calculated correction value. The target entity may refer to an entity for which urination information is to be acquired. The target prediction data may refer to prediction data regarding the urination process of the target object. For example, a first target predicted value may be calculated from acoustic data obtained by recording the urination process of the first target object, and the first corrected data may be obtained by applying a correction value to the first target predicted value. can Similarly, a second target predicted value may be calculated from the acoustic data obtained by recording the urination process of the second target, and the second corrected data may be obtained by applying a correction value to the second predicted target value. .
대상 예측 데이터는 데이터 수집 기간 이후에 획득될 수도 있고, 데이터 수집 기간 동안 획득된 예측 데이터도 대상 예측 데이터가 될 수 있다.The target prediction data may be acquired after the data collection period, and the prediction data acquired during the data collection period may also be the target prediction data.
보정 값을 이용함으로써 대상 예측 데이터는 측정 값과 유사한 범위로 보정될 수 있다. 도 25 및 도 26을 참고하면, 도 25에서는 보정 전 데이터 셋 그룹에서 과반 이상의 데이터 셋에서 배뇨량 예측 값이 배뇨량 측정 값들에 비해 큰 값을 가져 정비례 기준선으로부터 멀리 떨어져 있는 반면, 도 26에서는 보정 후 데이터 셋 그룹에서 대부분의 데이터 셋이 정비례 기준선 근방에 위치할 수 있다.By using the correction value, the target prediction data can be corrected in a range similar to the measured value. Referring to FIGS. 25 and 26 , in FIG. 25 , in a data set of more than half of the pre-correction data set group, the voiding amount predicted value has a larger value than the voiding amount measured values and is far from the direct proportional baseline, whereas in FIG. 26 , the data after correction In the set group, most data sets can be located near the direct proportional baseline.
이상에서는 복수의 개체에 대한 실측 데이터 그룹 및 예측 데이터 그룹을 이용하여 보정 값을 산출하는 과정에 대해 서술하였으나, 본 명세서의 기술적 사상이 이에 한정되는 것은 아니며, 하나의 개체에 대한 실측 데이터만을 이용해서 예측 데이터를 보정할 수도 있다.In the above, the process of calculating the correction value using the measured data group and the predicted data group for a plurality of entities has been described, but the technical idea of the present specification is not limited thereto, and only the measured data for one entity is used It is also possible to correct the prediction data.
일 예로, 데이터 수집 기간 동안 대상 개체에 대해 실측 데이터를 수집하고, 수집된 실측 데이터의 통계 값을 산출하며, 산출된 통계 값을 기초로 대상 개체에 대한 예측 데이터를 보정할 수 있다. As an example, actual measurement data may be collected for the target entity during the data collection period, statistical values of the collected actual measurement data may be calculated, and prediction data of the target entity may be corrected based on the calculated statistical values.
여기서, 실측 데이터의 통계 값은 데이터 수집 기간 동안 대상 개체의 배뇨 과정에서 측정된 배뇨량 측정 값들의 최빈 값, 중앙 값, 평균 값, 분산 값, 또는 표준편차 값 중 적어도 하나일 수 있다. Here, the statistical value of the actually measured data may be at least one of a mode value, a median value, an average value, a variance value, or a standard deviation value of measurement values of the amount of urination measured in the urination process of the subject during the data collection period.
대상 개체에 대한 예측 데이터에 포함된 배뇨량 예측 값들의 통계 값이 대상 개체에 대한 실측 데이터의 통계 값에 대응되도록 배뇨량 예측 값들을 보정함으로써 대상 개체에 대한 예측 데이터가 보정될 수 있다.The predicted data for the target object may be corrected by correcting the voiding amount predicted values so that the statistical values of the voiding amount prediction values included in the prediction data for the target object correspond to the statistical values of the actually measured data for the target object.
한편, 보정 대상이 되는 대상 객체에 대한 예측 데이터는 데이터 수집 기간 이전, 데이터 수집 기간 동안, 또는 데이터 수집 기간 이후에 획득되는 대상 개체의 배뇨 과정에 대한 음향 데이터로부터 산출된 것일 수 있다.Meanwhile, the prediction data for the target object to be corrected may be calculated from acoustic data about the urination process of the target object obtained before the data collection period, during the data collection period, or after the data collection period.
전술한 데이터 보정 방법을 통해, 배뇨 과정에 대한 실측 데이터를 이용하거나 배뇨 과정에 대한 실측 데이터와 예측 데이터를 이용하여 배뇨 과정에 대한 예측 데이터의 보정이 수행될 수 있다. 이러한 보정 과정은 실측 데이터의 수집이 용이한 경우, 예를 들어 종이 컵을 이용하여 배뇨 과정에서의 배뇨량을 측정하는 경우, 보정 값이 용이하게 산출되면서도 보정된 예측 데이터가 일정 수준의 정확도를 확보할 수 있는 점에서 그 활용성이 매우 크다고 할 수 있다.Through the above-described data correction method, the correction of the predicted data for the urination process may be performed using the measured data for the urination process or the measured data and the predicted data for the urination process. In this correction process, when the actual data collection is easy, for example, when measuring the amount of urination in the urination process using a paper cup, the corrected prediction data can secure a certain level of accuracy while the correction value is easily calculated. It can be said that it is very useful in that it can be used.
이상에서 실시 형태들에 설명된 특징, 구조, 효과 등은 본 발명의 적어도 하나의 실시 형태에 포함되며, 반드시 하나의 실시 형태에만 한정되는 것은 아니다. 나아가, 각 실시 형태에서 예시된 특징, 구조, 효과 등은 실시 형태들이 속하는 분야의 통상의 지식을 가지는 자에 의해 다른 실시 형태들에 대해서도 조합 또는 변형되어 실시 가능하다. 따라서 이러한 조합과 변형에 관계된 내용들은 본 명세서의 범위에 포함되는 것으로 해석되어야 할 것이다.Features, structures, effects, etc. described in the above embodiments are included in at least one embodiment of the present invention, and are not necessarily limited to only one embodiment. Furthermore, the features, structures, effects, etc. illustrated in each embodiment can be combined or modified for other embodiments by those of ordinary skill in the art to which the embodiments belong. Accordingly, the contents related to such combinations and modifications should be interpreted as being included in the scope of the present specification.
또한, 이상에서 실시 형태를 중심으로 설명하였으나 이는 단지 예시일 뿐 본 명세서의 기술적 사상을 한정하는 것이 아니며, 본 명세서가 속하는 분야의 통상의 지식을 가진 자라면 본 실시 형태의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 즉, 실시 형태에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부된 청구 범위에서 규정하는 본 명세서의 범위에 포함되는 것으로 해석되어야 할 것이다.In addition, although the embodiment has been described above, it is merely an example and does not limit the technical idea of the present specification, and those of ordinary skill in the art to which this specification belongs are within the scope not departing from the essential characteristics of the present embodiment It can be seen that various modifications and applications not exemplified above are possible. That is, each component specifically shown in the embodiment can be implemented by modification. And differences related to such modifications and applications should be construed as being included in the scope of the present specification defined in the appended claims.

Claims (25)

  1. 정확도(accuracy) 높은 배뇨 정보를 획득하는 방법에 있어서,In a method of acquiring high accuracy urination information,
    음향 데이터를 획득하는 단계 -상기 음향 데이터는 시작 지점 및 종료 지점을 가짐-;obtaining sound data, the sound data having a start point and an end point;
    상기 음향 데이터로부터 m개의 윈도우(window)에 대응하는 제1 내지 제m 조각 대상 데이터를 획득하는 단계 -상기 m개의 윈도우는 각각 미리 정해진 시간 구간을 가지며, 상기 시작 지점 및 상기 종료 지점 사이에서 연속적으로 정해지고 상기 m 개의 윈도우 중 연속되는 윈도우는 서로 일부가 중첩되고, 상기 m은 2 이상의 자연수임-;Acquiring first to mth engraving target data corresponding to m windows from the sound data - Each of the m windows has a predetermined time interval, and continuously between the start point and the end point is determined and consecutive windows among the m windows partially overlap each other, and m is a natural number equal to or greater than 2;
    상기 제1 내지 제m 조각 대상 데이터를 미리 학습된 배뇨/비-배뇨 분류 모델에 입력하여 제1 내지 제m 조각 분류 데이터를 획득하는 단계 -상기 배뇨/비-배뇨 분류 모델은 제1 데이터 행렬을 입력 받아 배뇨 구간 또는 비-배뇨 구간을 구분하기 위한 값을 적어도 하나 이상 포함하는 데이터를 출력하도록 학습됨-;Inputting the first to mth fragment target data into a pre-trained urination/non-urination classification model to obtain first to mth fragment classification data - The urination/non-urination classification model forms a first data matrix learning to receive input and output data including at least one value for classifying a urination section or a non-urination section;
    상기 음향 데이터로부터 n개의 윈도우에 대응하는 제1 내지 제n 조각 대상 데이터를 획득하는 단계 -상기 n개의 윈도우는 각각 미리 정해진 시간 구간을 가지며, 상기 시작 지점 및 상기 종료 지점 사이에서 연속적으로 정해지되 상기 n개의 윈도우 중 연속되는 윈도우는 서로 일부가 중첩되고, 상기 n은 2 이상 상기 m 이하의 자연수임-;Acquiring first to n-th engraving target data corresponding to n windows from the sound data - The n windows each have a predetermined time interval, and are continuously determined between the start point and the end point. consecutive windows among the n windows partially overlap each other, and n is a natural number of 2 or more and m or less;
    상기 제1 내지 제n 조각 대상 데이터를 미리 학습된 요속 예측 모델에 입력하여 제1 내지 제n 조각 요속 데이터를 획득하는 단계 -상기 요속 예측 모델은 제2 데이터 행렬을 입력 받아 요속에 관한 값을 적어도 하나 이상 포함하는 데이터를 출력하도록 학습됨-; 및Obtaining the first to n-th piece yaw velocity data by inputting the first to n-th piece target data into a pre-trained yaw velocity prediction model - The yaw velocity prediction model receives a second data matrix and at least a value related to the yaw velocity learned to output data containing one or more; and
    적어도 상기 제1 내지 제m 조각 분류 데이터 및 상기 제1 내지 제n 조각 요속 데이터를 이용하여 배뇨 데이터를 획득하는 단계;를 포함하는,Containing, including;
    배뇨 정보 획득 방법.How to obtain urination information.
  2. 제1 항에 있어서,The method of claim 1,
    상기 m개의 윈도우 중 연속하는 윈도우가 중첩되는 정도는 상기 n개의 윈도우 중 연속하는 윈도우가 중첩되는 정도와 다른,The overlapping degree of successive windows among the m windows is different from the overlapping degree of successive windows among the n windows,
    배뇨 정보 획득 방법.How to obtain urination information.
  3. 제1 항에 있어서,The method of claim 1,
    상기 m개의 윈도우 중 연속하는 윈도우가 중첩되는 정도는 상기 n개의 윈도우 중 연속하는 윈도우가 중첩되는 정도 보다 작은,The overlapping degree of successive windows among the m windows is smaller than the overlapping degree of successive windows among the n windows,
    배뇨 정보 획득 방법.How to obtain urination information.
  4. 제1 항에 있어서,The method of claim 1,
    상기 제1 내지 제m 조각 대상 데이터 및 상기 제1 내지 제n 조각 대상 데이터는 각각 상기 음향 데이터의 적어도 일부로부터 추출된 특징 값을 포함하는,The first to mth engraving target data and the first to nth engraving target data each include a feature value extracted from at least a portion of the sound data,
    배뇨 정보 획득 방법.How to obtain urination information.
  5. 제1 항에 있어서,The method of claim 1,
    상기 제1 내지 제m 조각 대상 데이터를 획득하는 단계는,Acquiring the first to mth piece target data comprises:
    상기 음향 데이터를 스펙트로그램(spectrogram) 데이터로 변환하는 단계; 및converting the sound data into spectrogram data; and
    상기 스펙토그램 데이터로부터 상기 제1 내지 제m 윈도우에 대응하는 상기 제1 내지 제m 조각 대상 데이터를 획득하는 단계;를 포함하는,Including; obtaining the first to mth slice target data corresponding to the first to mth windows from the spectogram data;
    배뇨 정보 획득 방법.How to obtain urination information.
  6. 제1 항에 있어서,The method of claim 1,
    상기 제1 내지 제m 조각 대상 데이터를 획득하는 단계는,Acquiring the first to mth piece target data comprises:
    상기 제1 내지 제m 윈도우에 대응하는 제1 내지 제m 조각 음향 데이터를 획득하는 단계; 및acquiring first to mth piece sound data corresponding to the first to mth windows; and
    상기 제1 내지 제m 조각 음향 데이터를 각각 스펙트로그램 데이터로 변환하여 상기 제1 내지 제m 조각 대상 데이터를 획득하는 단계;를 포함하는,Containing; converting the first to mth sculptural sound data into spectrogram data, respectively, to obtain the first to mth engraving target data;
    배뇨 정보 획득 방법.How to obtain urination information.
  7. 제5 항 또는 제6 항에 있어서,7. The method according to claim 5 or 6,
    상기 스펙트로그램 데이터는 멜-필터(Mel-filter)가 적용된 멜-스펙트로그램(Mel-spectrogram) 데이터인,The spectrogram data is Mel-filter applied Mel-spectrogram data,
    배뇨 정보 획득 방법.How to obtain urination information.
  8. 제1 항에 있어서,The method of claim 1,
    상기 제1 내지 제m 조각 분류 데이터는 상기 배뇨/비-배뇨 분류 모델에 상기 제1 내지 제m 조각 대상 데이터를 순차적으로 입력하여 획득되고,The first to mth pieces of classification data are obtained by sequentially inputting the first to mth pieces of target data into the urination/non-urination classification model,
    상기 제1 내지 제n 조각 요속 데이터는 상기 요속 예측 모델에 상기 제1 내지 제n 조각 대상 데이터를 순차적으로 입력하여 획득되는,The first to n-th fragment yaw velocity data is obtained by sequentially inputting the first to n-th fragment target data to the yaw velocity prediction model,
    배뇨 정보 획득 방법.How to obtain urination information.
  9. 제1 항에 있어서,The method of claim 1,
    상기 배뇨/비-배뇨 분류 모델은 적어도 제1 입력 레이어(input layer), 제1 컨볼루션 레이어(convolution layer), 제1 히든 레이어(hidden layer), 및 제1 출력 레이어(output layer)를 포함하고,The urination/non-urination classification model comprises at least a first input layer, a first convolution layer, a first hidden layer, and a first output layer, and ,
    상기 요속 예측 모델은 적어도 제2 입력 레이어, 제2 컨볼루션 레이어, 제2 히든 레이어, 및 제2 출력 레이어를 포함하는,The yaw velocity prediction model includes at least a second input layer, a second convolutional layer, a second hidden layer, and a second output layer,
    배뇨 정보 획득 방법.How to obtain urination information.
  10. 제1 항에 있어서,The method of claim 1,
    상기 제1 데이터 행렬의 크기는 상기 제2 데이터 행렬의 크기와 동일한,The size of the first data matrix is the same as the size of the second data matrix,
    배뇨 정보 획득 방법.How to obtain urination information.
  11. 제1 항에 있어서,The method of claim 1,
    상기 배뇨 데이터를 획득하는 단계는,The step of obtaining the urination data includes:
    상기 제1 내지 제m 조각 분류 데이터를 이용하여 배뇨 구분 데이터를 획득하는 단계;obtaining urination classification data using the first to mth fragment classification data;
    상기 제1 내지 제n 조각 요속 데이터를 이용하여 후보 요속 데이터를 획득하는 단계; 및obtaining candidate yaw velocity data using the first to nth piece yaw velocity data; and
    상기 배뇨 구분 데이터를 이용하여 상기 후보 요속 데이터를 가공함으로써 상기 배뇨 데이터를 획득하는 단계;를 포함하는,Obtaining the urination data by processing the candidate urine velocity data using the urination classification data;
    배뇨 정보 획득 방법.How to obtain urination information.
  12. 제11 항에 있어서,12. The method of claim 11,
    상기 배뇨 데이터는 상기 배뇨 구분 데이터 및 상기 후보 요속 데이터를 합성곱(convolution) 연산하여 획득되는,The urination data is obtained by convolution operation of the urination classification data and the candidate urine velocity data,
    배뇨 정보 획득 방법.How to obtain urination information.
  13. 제1 항에 있어서,The method of claim 1,
    상기 제1 내지 제m 조각 분류 데이터를 획득하는 단계가 수행된 이후 획득된 상기 제1 내지 제m 조각 분류 데이터를 이용하여 상기 음향 데이터에 대해 배뇨 과정의 유무를 판단하는 단계;를 더 포함하고,Further comprising; determining the presence or absence of a urination process with respect to the sound data using the first to mth fragment classification data obtained after the step of obtaining the first to mth fragment classification data is performed;
    상기 음향 데이터에 대해 배뇨 과정이 존재한다고 판단되면, 상기 음향 데이터로부터 상기 제1 내지 제n 조각 대상 데이터를 획득하는 단계, 상기 제1 내지 제n 조각 대상 데이터를 상기 요속 예측 모델에 입력하여 상기 제1 내지 제n 조각 요속 데이터를 획득하는 단계, 및 적어도 상기 제1 내지 제m 조각 분류 데이터 및 상기 제1 내지 제n 조각 요속 데이터를 이용하여 상기 배뇨 데이터를 획득하는 단계가 수행되는,If it is determined that a urination process exists with respect to the sound data, obtaining the first to n-th piece target data from the sound data; Acquiring the 1st to nth piece of urine velocity data, and at least the first to mth fragment classification data and the step of obtaining the urination data using the first to nth piece of urine velocity data are performed,
    배뇨 정보 획득 방법.How to obtain urination information.
  14. 정확도(accuracy) 높은 배뇨 정보를 획득하는 방법에 있어서,In a method of acquiring high accuracy urination information,
    외부 기기를 통해 배뇨 과정을 녹음하여 획득된 음향 신호를 샘플링(sampling)하여 음향 데이터를 획득하는 단계 -상기 음향 데이터는 시작 지점 및 종료 지점을 가짐-;obtaining sound data by sampling a sound signal obtained by recording a urination process through an external device, the sound data having a start point and an end point;
    상기 음향 데이터로부터 제1 내지 제n 윈도우(window)에 대응하는 제1 내지 제n 조각 대상 데이터를 획득하는 단계 -상기 제1 내지 제n 윈도우는 각각 미리 정해진 시간 구간을 가지며, 상기 시작 지점 및 상기 종료 지점 사이에서 연속적으로 정해지고, 상기 n은 2 이상의 자연수임-;Acquiring first to n-th engraving target data corresponding to first to n-th windows from the sound data - The first to n-th windows each have a predetermined time interval, the starting point and the determined continuously between the end points, wherein n is a natural number greater than or equal to 2;
    상기 제1 내지 제n 조각 대상 데이터 중 적어도 일부를 미리 학습된 배뇨/비-배뇨 분류 모델에 입력하여 제1 내지 제m 조각 분류 데이터를 획득하는 단계 -상기 배뇨/비-배뇨 분류 모델은 제1 데이터 행렬을 입력 받아 배뇨 구간 또는 비-배뇨 구간을 구분하기 위한 값을 적어도 하나 이상 포함하는 데이터를 출력하도록 학습되고, 상기 m은 2 이상 상기 n 이하의 자연수임-;Inputting at least a portion of the first to n-th piece target data into a pre-trained urination/non-urination classification model to obtain first to m-th piece classification data - The urination/non-urination classification model is a first receiving a data matrix and learning to output data including at least one value for classifying a urination section or a non-urination section, wherein m is a natural number greater than or equal to 2 and less than or equal to n;
    상기 제1 내지 제n 조각 대상 데이터를 미리 학습된 요속 예측 모델에 입력하여 제1 내지 제n 조각 요속 데이터를 획득하는 단계 -상기 요속 예측 모델은 제2 데이터 행렬을 입력 받아 요속에 관한 값을 적어도 하나 이상 포함하는 데이터를 출력하도록 학습됨-; 및Obtaining the first to n-th piece yaw velocity data by inputting the first to n-th piece target data into a pre-trained yaw velocity prediction model - The yaw velocity prediction model receives a second data matrix and at least a value related to the yaw velocity learned to output data containing one or more; and
    적어도 상기 제1 내지 제m 조각 분류 데이터 및 상기 제1 내지 제n 조각 요속 데이터를 이용하여 배뇨 데이터를 획득하는 단계;를 포함하는,Containing, including;
    배뇨 정보 획득 방법.How to obtain urination information.
  15. 제14 항에 있어서,15. The method of claim 14,
    상기 제1 내지 제n 윈도우 중 연속하는 두 윈도우는 중첩되는,Two consecutive windows of the first to nth windows overlap,
    배뇨 정보 획득 방법.How to obtain urination information.
  16. 제14 항에 있어서,15. The method of claim 14,
    상기 제1 내지 제n 윈도우 중 연속하는 두 윈도우는 서로 중첩되지 않고,Two consecutive windows among the first to nth windows do not overlap each other,
    상기 m은 상기 n과 동일한,wherein m is the same as n,
    배뇨 정보 획득 방법.How to obtain urination information.
  17. 제14 항에 있어서,15. The method of claim 14,
    상기 제1 내지 제n 조각 대상 데이터는 각각 상기 음향 데이터의 적어도 일부로부터 추출된 특징 값을 포함하는,Each of the first to nth pieces of target data includes a feature value extracted from at least a portion of the sound data,
    배뇨 정보 획득 방법.How to obtain urination information.
  18. 제14 항에 있어서,15. The method of claim 14,
    상기 제1 내지 제n 조각 대상 데이터를 획득하는 단계는,Acquiring the first to n-th piece target data comprises:
    상기 음향 데이터를 스펙트로그램(spectrogram) 데이터로 변환하는 단계; 및converting the sound data into spectrogram data; and
    상기 스펙토그램 데이터로부터 상기 제1 내지 제n 윈도우에 대응하는 상기 제1 내지 제n 조각 대상 데이터를 획득하는 단계;를 포함하는,Including; obtaining the first to nth slice target data corresponding to the first to nth windows from the spectogram data;
    배뇨 정보 획득 방법.How to obtain urination information.
  19. 제14 항에 있어서,15. The method of claim 14,
    상기 제1 내지 제n 조각 대상 데이터를 획득하는 단계는,Acquiring the first to n-th piece target data comprises:
    상기 제1 내지 제n 윈도우에 대응하는 제1 내지 제n 조각 음향 데이터를 획득하는 단계; 및acquiring first to n-th pieces of sound data corresponding to the first to n-th windows; and
    상기 제1 내지 제n 조각 음향 데이터를 각각 스펙트로그램 데이터로 변환하여 상기 제1 내지 제n 조각 대상 데이터를 획득하는 단계;를 포함하는,Containing the; converting the first to n-th sculptural sound data into spectrogram data, respectively, to obtain the first to n-th engraving target data;
    배뇨 정보 획득 방법.How to obtain urination information.
  20. 제18 항 또는 제19 항에 있어서,20. The method of claim 18 or 19,
    상기 스펙트로그램 데이터는 멜-스펙트로그램(Mel-spectrogram) 데이터인,The spectrogram data is Mel-spectrogram data,
    배뇨 정보 획득 방법.How to obtain urination information.
  21. 제14 항에 있어서,15. The method of claim 14,
    상기 제1 내지 제m 조각 분류 데이터는 상기 배뇨/비-배뇨 분류 모델에 상기 제1 내지 제n 윈도우 중 서로 중첩하지 않는 m개의 윈도우에 대응하는 m개의 조각 대상 데이터를 순차적으로 입력하여 획득되고,The first to mth piece classification data are obtained by sequentially inputting m pieces of piece target data corresponding to m non-overlapping windows among the first to nth windows to the urination/non-urination classification model,
    상기 제1 내지 제n 조각 요속 데이터는 상기 요속 예측 모델에 상기 제1 내지 제n 조각 대상 데이터를 순차적으로 입력하여 획득되는,The first to n-th fragment yaw velocity data is obtained by sequentially inputting the first to n-th fragment target data to the yaw velocity prediction model,
    배뇨 정보 획득 방법.How to obtain urination information.
  22. 제14 항에 있어서,15. The method of claim 14,
    상기 배뇨/비-배뇨 분류 모델은 적어도 제1 입력 레이어(input layer), 제1 컨볼루션 레이어(convolution layer), 제1 히든 레이어(hidden layer), 및 제1 출력 레이어(output layer)를 포함하고,The urination/non-urination classification model comprises at least a first input layer, a first convolution layer, a first hidden layer, and a first output layer, and ,
    상기 요속 예측 모델은 적어도 제2 입력 레이어, 제2 컨볼루션 레이어, 제2 히든 레이어, 및 제2 출력 레이어를 포함하고,The yaw velocity prediction model includes at least a second input layer, a second convolution layer, a second hidden layer, and a second output layer,
    상기 제1 입력 레이어에 입력되는 데이터 형태와 상기 제2 입력 레이어에 입력되는 데이터 형태는 동일한,The data type input to the first input layer and the data type input to the second input layer are the same;
    배뇨 정보 획득 방법.How to obtain urination information.
  23. 제14 항에 있어서,15. The method of claim 14,
    상기 제1 데이터 행렬의 크기는 상기 제2 데이터 행렬의 크기와 동일한,The size of the first data matrix is the same as the size of the second data matrix,
    배뇨 정보 획득 방법.How to obtain urination information.
  24. 제14 항에 있어서,15. The method of claim 14,
    상기 배뇨 데이터를 획득하는 단계는,The step of obtaining the urination data includes:
    상기 제1 내지 제m 조각 분류 데이터를 이용하여 배뇨 구분 데이터를 획득하는 단계;obtaining urination classification data using the first to mth fragment classification data;
    상기 제1 내지 제n 조각 요속 데이터를 이용하여 후보 요속 데이터를 획득하는 단계; 및obtaining candidate yaw velocity data using the first to nth piece yaw velocity data; and
    상기 배뇨 구분 데이터를 이용하여 상기 후보 요속 데이터를 가공함으로써 상기 배뇨 데이터를 획득하는 단계;를 포함하는,Obtaining the urination data by processing the candidate urine velocity data using the urination classification data;
    배뇨 정보 획득 방법.How to obtain urination information.
  25. 제24 항에 있어서,25. The method of claim 24,
    상기 배뇨 데이터는 상기 배뇨 구분 데이터 및 상기 후보 요속 데이터를 합성곱(convolution) 연산하여 획득되는,The urination data is obtained by convolution operation of the urination classification data and the candidate urine velocity data,
    배뇨 정보 획득 방법.How to obtain urination information.
PCT/KR2022/002956 2021-03-02 2022-03-02 Method for acquiring urination information with high accuracy WO2022186607A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US17/891,630 US11763802B2 (en) 2021-03-02 2022-08-19 Method of obtaining high accuracy urination information
US18/362,436 US20230377566A1 (en) 2021-03-02 2023-07-31 Method of obtaining high accuracy urination information

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2021-0027771 2021-03-02
KR20210027771 2021-03-02

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/891,630 Continuation US11763802B2 (en) 2021-03-02 2022-08-19 Method of obtaining high accuracy urination information

Publications (1)

Publication Number Publication Date
WO2022186607A1 true WO2022186607A1 (en) 2022-09-09

Family

ID=83155448

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/002956 WO2022186607A1 (en) 2021-03-02 2022-03-02 Method for acquiring urination information with high accuracy

Country Status (2)

Country Link
US (2) US11763802B2 (en)
WO (1) WO2022186607A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110029603A1 (en) * 2006-09-08 2011-02-03 University Of Vermont And State Agricultural College Systems For and Methods Of Assessing Urinary Flow Rate Via Sound Analysis
WO2012121772A1 (en) * 2011-03-06 2012-09-13 Edward Belotserkovsky Urine flow monitoring device and method
KR20200002093A (en) * 2018-06-29 2020-01-08 다인기술 주식회사 Method, system and non-transitory computer-readable recording medium for calculating information relating to urination

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090062644A1 (en) * 2002-06-07 2009-03-05 Mcmorrow Gerald System and method for ultrasound harmonic imaging
TWI681759B (en) * 2014-08-26 2020-01-11 日商大塚醫療設備股份有限公司 Ultrasonic urine volume measuring device and method for creating and displaying urine volume management data using ultrasound volume measuring device
US10837163B2 (en) * 2016-12-13 2020-11-17 Newtonoid Technologies, L.L.C. Smart urinals and methods of making and using same
KR102013418B1 (en) 2017-09-27 2019-08-22 다인기술 주식회사 Method, system and non-transitory computer-readable recording medium for monitoring residual urine using bioimpedance
KR102198846B1 (en) 2018-06-29 2021-01-05 다인기술 주식회사 Method, system and non-transitory computer-readable recording medium for carrying out a survey relating to urination
US11585804B2 (en) * 2018-10-19 2023-02-21 Youcount Inc. Urinalysis device and test strip for home and point of care use
US11172856B2 (en) * 2020-03-05 2021-11-16 Emano Metrics, Inc. Systems and methods for uroflowmetry

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110029603A1 (en) * 2006-09-08 2011-02-03 University Of Vermont And State Agricultural College Systems For and Methods Of Assessing Urinary Flow Rate Via Sound Analysis
WO2012121772A1 (en) * 2011-03-06 2012-09-13 Edward Belotserkovsky Urine flow monitoring device and method
KR20200002093A (en) * 2018-06-29 2020-01-08 다인기술 주식회사 Method, system and non-transitory computer-readable recording medium for calculating information relating to urination

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HURTIK PETR; BURDA MICHAL; KRHUT JAN; ZVARA PETER; LUNACEK LIBOR: "Automatic Diagnosis of Voiding Dysfunction From Sound Signal", 2015 IEEE SYMPOSIUM SERIES ON COMPUTATIONAL INTELLIGENCE, IEEE, 7 December 2015 (2015-12-07), pages 1331 - 1336, XP032843207, ISBN: 978-1-4799-7560-0, DOI: 10.1109/SSCI.2015.190 *
JIN JIE, CHUNG YOUNGBEEN, PARK JUNHONG: "Development of a Flowmeter Using Vibration Interaction between Gauge Plate and External Flow Analyzed by LSTM", SENSORS, vol. 20, no. 5922, pages 1 - 14, XP055963427, DOI: 10.3390/s20205922 *

Also Published As

Publication number Publication date
US11763802B2 (en) 2023-09-19
US20230377566A1 (en) 2023-11-23
US20220392438A1 (en) 2022-12-08

Similar Documents

Publication Publication Date Title
WO2020017849A1 (en) Electronic device and method for providing artificial intelligence services based on pre-gathered conversations
WO2020246634A1 (en) Artificial intelligence device capable of controlling operation of other devices, and operation method thereof
WO2018043991A1 (en) Speech recognition method and apparatus based on speaker recognition
WO2020196955A1 (en) Artificial intelligence device and method for operation of artificial intelligence device
WO2019039834A1 (en) Voice data processing method and electronic device supporting the same
WO2021225403A1 (en) Electronic device for speech recognition and method of speech recognition using thereof
WO2020036297A1 (en) Electronic apparatus and controlling method thereof
WO2017143692A1 (en) Smart television and voice control method therefor
WO2020218650A1 (en) Electronic device
WO2020230933A1 (en) Artificial intelligence device for recognizing voice of user and method for same
WO2020230926A1 (en) Voice synthesis apparatus for evaluating quality of synthesized voice by using artificial intelligence, and operating method therefor
WO2022031038A1 (en) Computing device for predicting sleep state on basis of data measured in sleep environment of user
WO2022154457A1 (en) Action localization method, device, electronic equipment, and computer-readable storage medium
WO2019000466A1 (en) Face recognition method and apparatus, storage medium, and electronic device
WO2022186607A1 (en) Method for acquiring urination information with high accuracy
WO2020153717A1 (en) Electronic device and controlling method of electronic device
WO2020218635A1 (en) Voice synthesis apparatus using artificial intelligence, method for operating voice synthesis apparatus, and computer-readable recording medium
WO2023033275A1 (en) Method and system for generating personalized biological age prediction model
WO2023085584A1 (en) Speech synthesis device and speech synthesis method
WO2020061887A1 (en) Heart rate measurement method and device, and computer readable storage medium
WO2023182774A1 (en) Method for monitoring user disease on basis of heart rate information, and server performing same
WO2020060161A1 (en) Statistical analysis system and statistical analysis method using conversational interface
WO2023163489A1 (en) Method for processing user's audio input and apparatus therefor
WO2023014063A1 (en) Method for evaluating possibility of dysphagia by analyzing acoustic signals, and server and non-transitory computer-readable recording medium performing same
WO2023080766A1 (en) Apparatus for generating disease-specific risk gene mutation information using time-varying covariate-based prs model, and method therefor

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22763588

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22763588

Country of ref document: EP

Kind code of ref document: A1