WO2020045709A1 - Sleep measurement device, and sleep measurement system having same - Google Patents

Sleep measurement device, and sleep measurement system having same Download PDF

Info

Publication number
WO2020045709A1
WO2020045709A1 PCT/KR2018/010151 KR2018010151W WO2020045709A1 WO 2020045709 A1 WO2020045709 A1 WO 2020045709A1 KR 2018010151 W KR2018010151 W KR 2018010151W WO 2020045709 A1 WO2020045709 A1 WO 2020045709A1
Authority
WO
WIPO (PCT)
Prior art keywords
sleep
snoring
sleeper
processor
signal
Prior art date
Application number
PCT/KR2018/010151
Other languages
French (fr)
Korean (ko)
Inventor
최용진
김태환
장준혁
송광섭
정구영
Original Assignee
엘지전자 주식회사
한양대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사, 한양대학교 산학협력단 filed Critical 엘지전자 주식회사
Priority to PCT/KR2018/010151 priority Critical patent/WO2020045709A1/en
Publication of WO2020045709A1 publication Critical patent/WO2020045709A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb

Definitions

  • the present invention relates to a sleep measurement device, and a sleep measurement system having the same, and more particularly, to a sleep measurement device that can accurately calculate the sleep efficiency using a complex sensor, and a sleep measurement system having the same.
  • the sleep measurement device is a device that measures the sleep state of the sleeper.
  • Wearable sleep measurement apparatus of the band type there is an inconvenience that the sleeper wears the wearable device, rather there is an element that interferes with sleep.
  • Another object of the present invention is to provide a sleep measurement apparatus capable of calculating a sleep stage or a sleep score using a non-contact composite sensor, and a sleep measurement system having the same.
  • Sleep measurement apparatus and a sleep measurement system having the same, to achieve the above object is based on a radar sensor for receiving a radar signal, a microphone for receiving an audio signal, and the audio signal from the microphone Detects whether the sleeper is snoring and apnea, detects the sleeper's movement, breathing, and heart rate signals based on the radar signal, calculates snoring data calculated on the basis of an audio signal from the microphone, and sleep And a processor for calculating sleep efficiency based on the movement, respiration, and heart rate signals of the child.
  • the processor may calculate the sleep stage of the sleeper.
  • the processor may calculate a sleep score based on the calculated sleep efficiency, sleep stage, snoring data, and apnea data.
  • the processor extracts the snoring candidate event from the audio signal from the microphone, extracts the snoring feature based on the extracted snoring candidate event, and performs the learning based classification based on the extracted snoring feature. According to, it can calculate whether or not snoring.
  • the apnea feature may be extracted from the audio signal from the microphone, and based on the extracted apnea feature, the processor may calculate apnea according to the learning-based classification performed. .
  • the processor classifies whether the sleeper wakes or sleeps based on the detected sleeper's movement, breathing, and heart rate signals, and when the sleeper sleeps, the processor determines whether it is a rapid eye movement (REM) sleep state, Or you can classify whether you are in a non-REM sleep state.
  • REM rapid eye movement
  • the processor may calculate the sleep stage of the sleeper.
  • the processor detects the sleeper based on the radar signal, and can control such that the period of the output radar signal output when the sleeper is absent increases as compared with when the sleeper is present.
  • the processor may control the cycle of the output radar signal to be output according to the power level of the battery.
  • the processor may perform noise canceling for a certain noise of the audio signal from the microphone, and detect whether the sleeper is snoring and apnea based on the noise canceled audio signal.
  • Sleep measurement apparatus and a sleep measurement system having the same, the snoring of the sleeper based on the radar sensor for receiving the radar signal, the microphone for receiving the audio signal, and the audio signal from the microphone Whether or not apnea is detected, and based on the radar signal, the sleeper's movement, breathing, and heartbeat signals are detected, and the snoring data calculated based on the audio signal from the microphone, and the sleeper's movement, breathing, and heart rate. And a processor that calculates sleep efficiency based on the signal. Accordingly, it is possible to accurately calculate the sleep efficiency using the complex sensor.
  • the processor may calculate the sleep stage of the sleeper. Accordingly, the sleep stage can be accurately calculated using the non-contact composite sensor.
  • the processor may calculate a sleep score based on the calculated sleep efficiency, sleep stage, snoring data, and apnea data. Accordingly, the sleep score can be accurately calculated using the non-contact composite sensor.
  • the processor extracts the snoring candidate event from the audio signal from the microphone, extracts the snoring feature based on the extracted snoring candidate event, and performs the learning based classification based on the extracted snoring feature. According to, it can calculate whether or not snoring. Accordingly, it is possible to accurately calculate whether the snoring using a non-contact composite sensor.
  • the apnea feature may be extracted from the audio signal from the microphone, and based on the extracted apnea feature, the processor may calculate apnea according to the learning-based classification performed. . Accordingly, it is possible to accurately calculate whether apnea using a non-contact composite sensor.
  • the processor classifies whether the sleeper wakes or sleeps based on the detected sleeper's movement, breathing, and heart rate signals, and when the sleeper sleeps, the processor determines whether it is a rapid eye movement (REM) sleep state, Or you can classify whether you are in a non-REM sleep state. Accordingly, the non-contact composite sensor can be used to accurately calculate the sleeping phase.
  • REM rapid eye movement
  • the processor may calculate the sleep stage of the sleeper. Accordingly, the sleep stage can be accurately calculated using the non-contact composite sensor.
  • the processor detects the sleeper based on the radar signal, and can control such that the period of the output radar signal output when the sleeper is absent increases as compared with when the sleeper is present. As a result, unnecessary power consumption can be reduced.
  • the processor may control the cycle of the output radar signal to be output according to the power level of the battery. Thereby, power consumption can be reduced.
  • the processor may perform noise canceling for a certain noise of the audio signal from the microphone, and detect whether the sleeper is snoring and apnea based on the noise canceled audio signal. Accordingly, it is possible to accurately detect whether the sleeper is snoring and whether apnea is present.
  • FIG. 1 is a view showing a sleep measurement system having a sleep measurement apparatus according to an embodiment of the present invention.
  • FIG. 2 is an example of an internal block diagram of the sleep measurement apparatus of FIG. 1.
  • FIG. 3 is another example of an internal block diagram of the sleep measurement apparatus of FIG. 1.
  • FIG. 4 is an example of a flowchart illustrating a method of operating the sleep measurement apparatus of FIG. 1.
  • 5A to 5B are views referred to for describing the operating method of FIG. 4.
  • FIG. 6 is an example of a flowchart illustrating a method of operating the sleep measurement apparatus of FIG. 1.
  • FIG. 7A to 7B are views referred to for describing the operating method of FIG. 6.
  • FIG. 8 is an example of an internal block diagram of the mobile terminal of FIG. 1.
  • 9A to 9C are views illustrating various information displayed on the mobile terminal of FIG. 1.
  • module and “unit” for components used in the following description are merely given in consideration of ease of preparation of the present specification, and do not impart any particular meaning or role by themselves. Therefore, the “module” and “unit” may be used interchangeably.
  • FIG. 1 is a view showing a sleep measurement system having a sleep measurement apparatus according to an embodiment of the present invention.
  • the sleep measurement system 10 may include a sleep measurement apparatus 100, a terminal 600, and a server 200.
  • the sleep measurement apparatus 100 is a sleep measurement apparatus using a non-contact composite sensor and calculates a sleep efficiency of the sleeper USR.
  • the sleep measurement apparatus 100 is preferably disposed in a space where the sleeper USR sleeps.
  • the sleeper USR sleeps may be placed on a bed or on a separate table spaced from the bed.
  • the sleep measurement apparatus 100 may be provided in another home appliance.
  • Sleep measurement apparatus 100 based on the radar sensor 130 for receiving a radar signal, the microphone 135 for receiving an audio signal, and the audio signal from the microphone 135, Detecting snoring and apnea of the sleeper, detecting movement of the sleeper, breathing, and heart rate signals based on the radar signal, and calculating snoring data calculated based on an audio signal from the microphone 135; And a processor 170 that calculates sleep efficiency based on the sleeper's movement, breathing, and heart rate signals. Accordingly, it is possible to accurately calculate the sleep efficiency using the complex sensor.
  • the processor 170 may calculate the sleep stage of the sleeper. Accordingly, the sleep stage can be accurately calculated using the non-contact composite sensor.
  • the processor 170 may calculate a sleep score based on the calculated sleep efficiency, sleep stage, snoring data, and apnea data. Accordingly, the sleep score can be accurately calculated using the non-contact composite sensor.
  • the terminal 600 may perform wireless data communication with the sleep measurement apparatus 100 and output information such as sleep efficiency received from the sleep measurement apparatus 100 through a display or an audio output unit. .
  • the terminal 600 may output sleep state information, sleep stage information, sleep score information, snoring information, apnea information, etc. received from the sleep measurement apparatus 100.
  • the server 200 may receive the user-specific, sleep efficiency information, and the like, compare them, and make a database.
  • the server 200 may receive, compare, and database each user, sleep state information, sleep stage information, sleep score information, snoring information, apnea information, and the like.
  • FIG. 2 is an example of an internal block diagram of the sleep measurement apparatus of FIG. 1.
  • the sleep measurement apparatus 100 according to an embodiment of the present invention, the radar sensor 130, the microphone 135, the communication unit 145, memory 140, audio output unit 160, processor ( 170, and a power supply 190.
  • the radar sensor 130 may output the output radar to the outside and receive the radar signal SLar reflected by the external object.
  • the received radar signal SLar may be transmitted to the processor 170.
  • the radar signal may be a continuous wave (CW) radar signal or a frequency modulated continuous wave (FMCW) radar signal.
  • CW continuous wave
  • FMCW frequency modulated continuous wave
  • the microphone 135 may collect or receive the audio signal Sau.
  • the received audio signal Sau may be transmitted to the processor 170.
  • the communication unit 145 may provide an interface for communicating with an external device.
  • the communication unit 145 may include at least one of a mobile communication module (not shown), a wireless Internet module (not shown), a short range communication module (not shown), a GPS module (not shown), and the like.
  • the communication unit 145 may perform Bluetooth communication or WiFi communication, thereby transmitting information about the sleep measured by the processor 170 to the paired terminal 600.
  • the terminal 600 may be a mobile terminal such as a smart phone capable of a voice call.
  • the information on sleep may include sleep efficiency information, sleep stage information, sleep score information, snoring information, apnea information, and the like.
  • the memory 140 may store a program for processing or controlling the processor 170 in the sleep measurement apparatus 100, or may perform a function for temporarily storing input or output data.
  • the memory 140 may store information about sleep measured by the processor 170 in the sleep measurement apparatus 100, together with time information. Furthermore, user information can also be stored.
  • the audio output unit 160 may output information about the measured sleep as audio.
  • the position adjustment message for the sleep measurement apparatus 100 may be output as audio or a notification message may be output as audio.
  • the processor 170 may control the operation of each unit in the sleep measurement apparatus 100 to control the overall operation of the sleep measurement apparatus 100.
  • the processor 170 detects whether the sleeper is snoring and apnea based on the audio signal Sau from the microphone 135, and based on the radar signal, moves the breather, breathing,
  • the heart rate signal may be detected, and the sleep efficiency may be calculated based on the snoring data calculated based on the audio signal from the microphone 135 and the movement, breathing, and heart rate signals of the sleeper. Accordingly, it is possible to accurately calculate the sleep efficiency using the complex sensor.
  • the processor 170 based on the audio signal Sau from the microphone 135, the movement of the sleeper USR, the breath, the heartbeat signal, the breath, the heartbeat signal detector 171,
  • the sleep efficiency detector 172 may calculate a sleep efficiency based on the movement, respiration, and heart rate signals of the sleeper USR from the movement, respiration, and heart rate signal detector 171.
  • the sleep efficiency detector 172 calculates sleep efficiency based on snoring data calculated based on the movement, respiration, and heart rate signals of the sleeper USR, as well as the audio signal from the microphone 135. can do.
  • the processor 170 may calculate the sleep stage of the sleeper USR. Accordingly, the sleep stage can be accurately calculated using the non-contact composite sensor.
  • the processor 170 may further include a sleep detector 173 that calculates a sleep stage based on the sleep efficiency calculated by the sleep efficiency detector 172.
  • the processor 170 extracts the snoring candidate event from the audio signal Sau from the microphone 135, extracts the snoring feature based on the extracted snoring candidate event, and extracts the extracted snoring feature. Based on the learning-based classification that is performed, it can be calculated whether or not snoring. Accordingly, it is possible to accurately calculate whether the snoring using a non-contact composite sensor.
  • the processor 170 may calculate whether to snore based on the candidate snoring signal detector 176 that detects the candidate snoring signal from the audio signal Sau from the microphone 135, and the candidate snoring signal.
  • a snoring detector 177 and an apnea detector 178 that detects apnea based on snoring data from the snoring detector 177 may be further provided.
  • snoring data calculated by the snoring detector 177 may be input to the sleep efficiency detector 172.
  • the processor 170 extracts an apnea feature from the audio signal Sau from the microphone 135 and performs learning based on the extracted apnea feature. According to the base classification, it can be calculated whether or not apnea. Accordingly, it is possible to accurately calculate whether apnea using a non-contact composite sensor.
  • the processor 170 classifies whether the sleeper USR is in a wake state or a sleep state based on the detected sleeper USR movement, respiration, and heart rate signals. Rapid Eye Movement and REM sleep or non-REM sleep. Accordingly, the non-contact composite sensor can be used to accurately calculate the sleeping phase.
  • the processor 170 may calculate the sleep stage of the sleeper USR. Accordingly, the sleep stage can be accurately calculated using the non-contact composite sensor.
  • the processor 170 detects the sleeper USR based on the radar signal SLar, and when the sleeper USR is absent, the period of the output radar signal outputted when the sleeper USR is present. In comparison, it can be controlled to increase. As a result, unnecessary power consumption can be reduced.
  • the processor 170 may control the cycle of the output radar signal to be output according to the power level of the battery. Thereby, power consumption can be reduced.
  • the processor 170 performs noise canceling on a certain noise among the audio signals Sa from the microphone 135, and based on the noise canceled audio signal Sa, the snoring of the sleeper USR is snoring. Whether or not apnea can be detected. As a result, it is possible to accurately detect whether the sleeping person USR is snoring and whether apnea is present.
  • the power supply unit 190 may supply power required for the operation of each component under the control of the processor 170.
  • the power supply unit 190 may be provided with a battery.
  • FIG. 3 is another example of an internal block diagram of the sleep measurement apparatus of FIG. 1.
  • the sleep measurement apparatus 100b of FIG. 2 is similar to the sleep measurement apparatus 100 of FIG. 2, but an audio converter 162 is disposed between the microphone 135 and the processor 170.
  • the difference between the radar sensor 130 and the processor 170 is that the signal amplifier 164 and the converter 157 are further provided.
  • the audio converter 162 may perform preprocessing on the audio signal Sau from the microphone 135.
  • the audio converter 162 may perform encoding processing on the audio signal Sau from the microphone 135. Accordingly, the audio converter 162 may perform encoding processing on the audio signal Sau using the stored audio codec.
  • the signal amplifier 164 may amplify the radar signal SLar from the radar sensor 130. To understand this, the signal amplifier 164 may include an OP AMP.
  • the converter 167 may convert the radar signal SLar from the signal amplifier 164 into a digital signal.
  • the converter 167 may include an ADC converter.
  • the processor 170 may detect snoring based on the audio signal Sau from the microphone 135.
  • the candidate snoring signal detector 176 in the processor 170 may detect an event on a predetermined time basis from the audio signal Sau from the sleeper USR.
  • the candidate snoring signal detector 176 in the processor 170 may classify the snoring event and the non-snoring event among the detected events.
  • snoring event detection is essential for apnea symptoms detection, sleep stage calculation, and the like.
  • the candidate snoring signal detector 176 in the processor 170 performs noise canceling on various noises that may occur during sleep, such as a tossing sound of the sleeper USR, a refrigerator sound, a fan sound, and snoring. It is desirable to distinguish only events.
  • the candidate snoring signal detector 176 in the processor 170 removes background noise using a pre-trained DD model for removing background noise in the sleeping environment, and generates an event based on the signal from which the background noise has been removed. To detect, the energy values for all frames can be found.
  • the candidate snoring signal detector 176 in the processor 170 may calculate an histogram after obtaining energy values for all frames, and calculate a threshold value based on the calculated values.
  • the threshold value at this time may be used to accurately locate the start and end points of the event.
  • the candidate snoring signal detector 176 in the processor 170 uses a statistical length feature of the snoring event to detect an event, using a predetermined length, for example, 200 ms or more and 3500 ms or less. The remaining events except for the event can be removed by assuming snoring.
  • DMFCC dynamic MFCC
  • the difference in frequency centroid between the first half and the other half of an event can be used as a feature vector.
  • pitch, pitch force, pitch density may be illustrated as the feature vectors associated with the spectral.
  • a total of six feature vectors are extracted based on a current event, for example, a RP (rhythm period) and a PS (period strength) before and after a predetermined time, for example, about 10 seconds.
  • the ratio of the feature vectors can be used as the feature vector.
  • ZCR zero crossing rate
  • an eLU function may be used as an activation function.
  • the output layer of the deep neural network is composed of two nodes, and the target value may be for the presence and absence of the voice. have.
  • cross entropy between the estimated value and the target value can be used in the output layer to proceed the supervised learning using the back propagation, the parameters of the deep neural network can be updated.
  • the slope parameter and the bias parameter of the sigmoid function for estimating the voice presence probability may be used, respectively.
  • the two parameters of the sigmoid function for estimating the probability of snoring events can be obtained through differential learning to minimize the negative log-likelihood (cross entropy error function).
  • the deep neural network is learned separately for the snoring event and non-snoring event, the parameters of the sigmoid function for estimating the probability of snoring event may also be learned separately.
  • the candidate snoring signal detector 176 in the processor 170 compares the difference between the two probabilities and a specific threshold to classify the snoring as an event if it is greater than the threshold and if the snoring is small, Can be classified as an event.
  • the snoring detection technique by this method as a snoring detection technique based on the deep neural network, when compared with the Gaussian mixture model, it will lead to better classification performance.
  • the distribution of the likelihood ratio values of the snoring detection technique based on the deep neural network proposed by the present invention is better compared to the distribution of the likelihood ratio values of the snoring detection technique based on the Gaussian mixture model.
  • the snoring detection based on the deep neural network proposed in the present invention may be largely divided into a learning step and a classification step.
  • the candidate snoring signal detector 176 removes the background noise through the DD in the learning step, and then detects the event in units of a predetermined period based on the energy of the input signal.
  • the candidate snoring signal detector 176 in the processor 170 extracts a feature vector associated with energy, a feature vector associated with spectral, and a feature vector associated with time, before entering full-scale learning.
  • the candidate snoring signal detector 176 in the processor 170 uses the extracted feature vectors to individually train the deep neural network model for snoring and snoring, respectively, which normalizes the feature vector immediately before learning. Go through the process.
  • the candidate snoring signal detector 176 in the processor 170 skips the previous learning process and learns through a back-propagation algorithm in the fine tuning process.
  • the candidate snoring signal detector 176 in the processor 170 using a rectified linear unit (ReLU) to solve the problem of the slope disappearance of the activation function for each node, the learning rate in the advanced learning step of the deep neural network You can use adadelta to set this adaptively.
  • ReLU rectified linear unit
  • the snoring detector 177 in the classification step, removes the background noise with respect to the input signal in the same manner as in the learning step, detects an event through the event detector, and based on the event, the feature vector. After estimating the likelihood ratio value through the deep learning neural network model and the non-snoring deep neural network model previously detected for snoring detection, snoring and snoring can be classified based on a specific threshold value.
  • the snoring detector 177 in the processor 170 may classify the snoring event as the likelihood event when the likelihood ratio value is less than the specific threshold value and classify the snoring event as the snoring event.
  • the processor 170 may calculate a sleep stage and detect wake, NREM, or REM sleep based on sleep-related signals extracted from the sleeper USR to detect the sleep stage.
  • the processor 170 extracts sleep-related movement, breathing, heart rate-related features, randomized for sleep phase classification A forest classifier is used, and the microphone 135 is used as an auxiliary sensor, and situational recognition technology is applied to greatly improve sleep stage detection performance.
  • the sleep stage is calculated using the composite sensor, in particular, the radar sensor 130 and the microphone 135.
  • the processor 170 may perform preprocessing on the continuous wave radar signal SLar and the audio signal Sau.
  • the radar signal SLar transmitted in the time domain may include continuous wave and phase noise of a carrier frequency of 24 GHz generated from a voltage controlled oscillator (VCO).
  • VCO voltage controlled oscillator
  • the Doppler signal reflected from the body of the sleeper USR may be sampled, and the sampled signal may include movement information, respiration information, and heartbeat information of the sleeper USR.
  • the radar sensor 130 may include a quadrature receiver antenna.
  • the radar signal SLar received through the antenna is divided into a baseband signal, an in-phase signal, and a quadrature signal, which are characterized by a 90 ° phase difference.
  • the audio signal Sau in the time domain measured from the microphone 135 is sampled at 16000 Hz, and the sampled signal may include an audio signal and noise having sleep state data of the sleeper USR.
  • the processor 170 may remove noise from the input audio signal Sau by using a data-driven technique.
  • the processor 170 frames the radar signal SLar extracted from the sleeper USR during a sleep time in units of a predetermined period (for example, 30 seconds), and the radar signal SLar in units of frames.
  • a predetermined period for example, 30 seconds
  • the processor 170 extracts signals related to movement, respiration, and heartbeat by using three Butterworth filters having different bandwidths, and then min, max, mean, rms, median, 1st-quartile, and 3rd from the signals. -Quartile, standard deviation, interquartile range, number of peaks, average distance between peaks, peak average height, zero cross rate, linear regression slope are extracted. The maximum peak can be extracted by converting the respiratory and heartbeat signals into the frequency domain.
  • the processor 170 may extract skewness and kurtosis from the raw signal.
  • the processor 170 extracts 46 features for every frame for each radar signal (SLar) frame, and then applies singular value decomposition to this matrix to add column vector features located at three maximum eigenvalues for each frame.
  • principal component analysis can also be applied to add column vector features located at three maximum eigenvalues, frame by frame. Accordingly, 52 feature vectors may be generated per frame.
  • the processor 170 may detect sleep related movements and the absence of the sleeper USR.
  • the processor 170 is an algorithm (WRMEnAD, wake) for detecting the absence of the sleeper (USR), the sleeper (USR) shows a movement meaning a wake state during sleep, or out of the sleeping space such as sleepwalking
  • the level cross rate feature is extracted on the frame of the raw radar signal SLar from which only DC-offset is removed, based on the heuristic threshold determined by the experiment. ) Feature can be detected.
  • the processor 170 may determine the number of snoring events based on the snoring signal based on a frame unit for a predetermined period (for example, 30 seconds) from the audio signal Sau extracted from the sleeper USR during sleep. And detect respiratory signal based cycle intensity (CI) features.
  • a predetermined period for example, 30 seconds
  • CI respiratory signal based cycle intensity
  • the processor 170 in order to detect the CI, calculates a spectrogram on the noise-free audio signal (Sau), calculates the time-domain autocorrelation for the signal corresponding to each frequency bin, and as a result
  • the first peak amplification can be defined as the CI for the frame by sorting them in order of magnitude, based on the amplitude of the first peak in.
  • the processor 170 may first perform wake / sleep classification of the sleeper USR before classifying the sleep stage as wake, NREM, or REM sleep.
  • the processor 170 selects 44 feature vectors selected as a result of the distribution analysis for the wake / sleep class from the 52 radar signal SLar based features previously extracted for the wake / sleep classification. In addition, the processor 170 performs normalization of a standardization method for the feature vector.
  • the result of passing the normalized 44 feature vectors through the wake / sleep binary random forest classifier outputs the probability of wake and sleep for each frame.
  • the processor 170 performs probability smoothing based on these output values. Proceed. However, the first and second frames, that is, the first minute, are assumed to be awake state unconditionally.
  • the processor 170 may calculate the wake / sleep likelihood ratio for the entire frame after the probability smoothing is performed, and may know the author.
  • the processor 170 may calculate a wake / sleep personal-adjusted threshold.
  • Personal adjusted threshold is a kind of adaptive threshold for optimizing the algorithm for all people because sleep pattern and biosignal pattern are different for each person, and this is the main parameter to be used for final wake / sleep decision.
  • the processor 170 sorts the probability ratio for each class output from the random forest classifier in ascending order, and then based on the specific percentile parameter obtained through grid-search, The likelihood ratio for that percentile is set to the personal-adjusted threshold.
  • the processor 170 may improve the wake / sleep detection performance by applying context awareness technology based on the extracted features.
  • This technique is designed as a result of comparing the distribution of the number of snore events for the wake / sleep class. Therefore, when the wake / sleep random forest classifier decides to wake up in a specific frame, it is corrected to sleep.
  • the processor 170 passes the NREM / REM random forest classifier for the frames determined as the sleep class.
  • the radar feature vectors used in the NREM / REM classifier are 35 feature vectors selected from the analysis of the distribution of 52 feature vectors for NREM and REM classes.
  • the processor 170 uses a threshold that lowers the probability of REM detection for a first period of time (50 minutes). After the period, the percentage parameter determined by grid-search can be used.
  • the processor 170 classifies wake and sleep based on previously stored wake / sleep related parameters to determine a final sleep stage, and then performs NREM / REM class determination on the frames determined to be sleep.
  • the processor 170 determines a sleep class when the likelihood ratio of a frame is greater than a wake / sleep personal adjusted threshold for a final determination of wake / sleep, and determines a wake when the frame is small.
  • the processor 170 assumes that the sleeper USR is an unconditional wake class for a predetermined period, for example, the first minute.
  • the processor 170 may use the number of snoring events previously extracted to correct an error of a frame designated as a wake class.
  • the processor 170 may correct this to sleep. This is determined by the distribution of snoring events for the wake / sleep class.
  • the processor 170 may perform the last wake / sleep correction by using the motion-related feature of the sleeper USR previously extracted before determining the frame determined by the Sleep class as the NREM / REM class. have.
  • the processor 170 may correct the class of the frame to wake.
  • the processor 170 compares the likelihood ratio based on the NREM / REM personal adjusted threshold of the low REM detection rate when the sleep phase test has been started or less than the first period for the frame determined to be sleep, and the likelihood ratio is large In case of REM, it can be determined by NREM.
  • the processor 170 may determine the NREM or the REM by comparing the likelihood ratio based on the heuristic threshold determined by rid-search.
  • the processor 170 may finally perform post-processing before finally determining the sleep stage.
  • the processor 170 may improve the wake detection performance by applying context awareness technology based on the extracted respiratory signal-based feature CI and the snoring signal-based feature.
  • the processor 170 estimates a place where a plurality of CIs are gathered as a wake interval, and then determines a case where the continuous frame length is a predetermined interval (110 to 170) as the wake interval.
  • the processor 170 may correct the NREM if the continuous continuation is less than 3 frames in the REM class to reduce the detection error of the NREM and the REM, and correct the adjacent REM frames in one REM sleep interval. .
  • FIGS. 4 is an example of a flowchart illustrating a method of operating the sleep measurement apparatus of FIG. 1, and FIGS. 5A to 5B are views referred to for describing the method of FIG. 4. In particular, FIGS. 4 to 5B are views referred to for description of the sleep step calculation of the sleeper.
  • the processor 170 detects a movement, respiration, and heart rate signal from the radar signal SLar from the radar sensor 130 (S410).
  • the processor 170 receives snoring data calculated based on the audio signal Sau from the microphone 135 (S420), snoring data, movement of the sleeper USR, and breathing.
  • the sleep efficiency is calculated based on the heartbeat signal.
  • the processor 170 calculates a sleep step (S450).
  • FIG. 5A illustrates detection of the sleeper USR movement signal Wva, the respiration signal Wvb, and the heart rate signal Wvc from the radar signals SLara and SLarb of two channels.
  • the motion, respiration, and heart rate signal detector 171 in the processor 170 detects the motion signal Wva, the respiration signal Wvb, and the heart rate signal Wvc of the sleeper USR from the radar signals SLara and SLarb. can do.
  • the wake / sleep classifier 511 in the processor 170 may wake the sleeper USR based on the movement signal Wva, the breathing signal Wvb, and the heartbeat signal Wvc of the sleeper USR. It can be distinguished from the wake state or the sleep state.
  • the motion / absence detector 513 in the processor 170 may move the motion signal Wva of the sleeper USR. , Based on the respiration signal Wvb and the heart rate signal Wvc, it is possible to detect whether the sleeper USR is in a moving state or an absent state.
  • the sleeper USR movement signal Wva and the respiration signal Wvb Based on the heartbeat signal Wvc, it is possible to classify whether the sleep state USR is in the REM state or the NREM state.
  • FIG. 5B is a diagram showing a sleep step in the case where the sleep state of the sleeper USR includes both the REM state and the NREM state.
  • the processor 170 detects whether the sleeper USR is snoring and apnea based on the audio signal Sau from the microphone 135, and detects the radar signal SLar. ) Detects movement of the sleeper USR, breathing, and heart rate signals, and calculates snoring data and movement of the sleeper USR calculated based on the audio signal Sau from the microphone 135. Based on the respiration, heart rate signals, sleep efficiency can be calculated. Accordingly, it is possible to accurately calculate the sleep efficiency using the complex sensor.
  • the processor 170 may calculate the sleep stage of the sleeper USR. Accordingly, the sleep stage can be accurately calculated using the non-contact composite sensor.
  • the processor 170 may calculate a sleep score based on the calculated sleep efficiency, sleep stage, snoring data, and apnea data. Accordingly, the sleep score can be accurately calculated using the non-contact composite sensor.
  • the processor 170 may calculate the sleep stage of the sleeper USR.
  • the processor 170 classifies whether the sleeper USR is in a wake state or a sleep state based on the detected sleeper USR movement, respiration, and heart rate signals. Rapid Eye Movement and REM sleep or non-REM sleep.
  • FIG. 6 is an example of a flowchart illustrating a method of operating the sleep measurement apparatus of FIG. 1, and FIGS. 7A to 7B are views referred to for describing the method of FIG. 6. In particular, FIGS. 6 to 7B are views referred to for description of the sleep stage calculation of the sleeper.
  • the processor 170 performs preprocessing on the audio signal Sau from the microphone 135 (S610). For example, the processor 170 may remove noise in the audio signal Sau from the microphone 135 in advance.
  • the processor 170 detects a snoring candidate event from the audio signal Sau from the microphone 135 (S610).
  • the processor 170 extracts a snoring characteristic based on the extracted snoring candidate event (S620), and based on the learning-based classification performed based on the extracted snoring characteristic, whether or not the snoring is performed. Can be calculated (S620). Accordingly, it is possible to accurately calculate whether the snoring using a non-contact composite sensor.
  • the processor 170 may transmit the calculated snoring data for sleep efficiency detection (S630).
  • the snore detector 177 may transmit the calculated snoring data to the sleep efficiency detector 172.
  • the processor 170 extracts the apnea feature based on the snoring data (S640), and calculates the apnea based on the extracted apnea feature (S650).
  • 7A is a diagram referred to for apnea calculations.
  • the processor 170 performs preprocessing on the audio signal Sau from the microphone 135, and the candidate snoring signal detector 176 in the processor 170, from the microphone 135.
  • a snoring candidate event is detected from the audio signal Sau.
  • the snoring detector 177 in the processor 170 extracts the snoring feature based on the extracted snoring candidate event, and based on the learning-based classification performed based on the extracted snoring feature. You can operate on this. Accordingly, by using the non-contact composite sensor, it is possible to accurately calculate whether snoring is snoring or not.
  • the apnea detector 178 in the processor 170 is computed as snoring, the apnea feature is extracted, and based on the extracted apnea feature, the apnea detector 178 calculates the apnea according to the learning-based classification performed. can do. Accordingly, by using the non-contact composite sensor, it is possible to accurately calculate whether apnea is detected or not apnea.
  • the processor 170 may calculate the sleep stage of the sleeper USR. Accordingly, the sleep stage can be accurately calculated using the non-contact composite sensor.
  • the processor 170 detects the sleeper USR based on the radar signal SLar, and when the sleeper USR is absent, the period of the output radar signal outputted when the sleeper USR is present. In comparison, it can be controlled to increase. As a result, unnecessary power consumption can be reduced.
  • the processor 170 may control the cycle of the output radar signal to be output according to the power level of the battery. Thereby, power consumption can be reduced.
  • the processor 170 performs noise canceling on a certain noise among the audio signals Sa from the microphone 135, and based on the noise canceled audio signal Sa, the snoring of the sleeper USR is snoring. Whether or not apnea can be detected. As a result, it is possible to accurately detect whether the sleeping person USR is snoring and whether apnea is present.
  • FIG. 8 is an example of an internal block diagram of the mobile terminal of FIG. 1.
  • the mobile terminal 600 includes a wireless communication unit 610, an A / V (Audio / Video) input unit 620, a user input unit 630, a sensing unit 640, an output unit 650, and a memory. 660, an interface unit 625, a control unit 670, and a power supply unit 690.
  • a / V Audio / Video
  • the wireless communication unit 610 may include a broadcast receiving module 611, a mobile communication module 613, a wireless internet module 615, an acoustic communication unit 617, a GPS module 619, and the like.
  • the broadcast receiving module 611 may receive at least one of a broadcast signal and broadcast related information from an external broadcast management server through a broadcast channel.
  • the broadcast signal and / or broadcast related information received through the broadcast receiving module 611 may be stored in the memory 660.
  • the mobile communication module 613 transmits and receives a radio signal with at least one of a base station, an external terminal, and a server on a mobile communication network.
  • the wireless signal may include various types of data according to voice call signal, video call signal, or text / multimedia message transmission and reception.
  • the wireless internet module 615 refers to a module for wireless internet access, and the wireless internet module 615 may be embedded or external to the mobile terminal 600.
  • the acoustic communication unit 617 may perform acoustic communication.
  • the acoustic communication unit 617 may output sound by adding predetermined information data to the audio data to be output in the acoustic communication mode.
  • the acoustic communication unit 617 may extract predetermined information data from a sound received from the outside.
  • the GPS (Global Position System) module 619 may receive location information from a plurality of GPS satellites.
  • the A / V input unit 620 is for inputting an audio signal or a video signal, and may include a camera 621 and a microphone 623.
  • the user input unit 630 generates key input data input by the user for controlling the operation of the terminal.
  • the user input unit 630 may include a key pad, a dome switch, a touch pad (constant voltage / capacitance), and the like.
  • the touch pad forms a mutual layer structure with the display 680, this may be referred to as a touch screen.
  • the sensing unit 640 detects a current state of the mobile terminal 600 such as an open / closed state of the mobile terminal 600, a location of the mobile terminal 600, a presence or absence of a user contact, and controls the operation of the mobile terminal 600.
  • the sensing signal may be generated.
  • the sensing unit 640 may include a detection sensor 641, a pressure sensor 643, a motion sensor 645, and the like.
  • the motion sensor 645 may detect a movement or position of the mobile terminal 600 using an acceleration sensor, a gyro sensor, a gravity sensor, or the like.
  • the gyro sensor is a sensor for measuring the angular velocity, and may sense a direction (angle) returned with respect to the reference direction.
  • the output unit 650 may include a display 680, a sound output unit 653, an alarm unit 655, and a haptic module 657.
  • the display 680 displays and outputs information processed by the mobile terminal 600. For example, the information received from the communication unit 610 is displayed.
  • the display 680 and the touch pad form a mutual layer structure and constitute a touch screen
  • the display 680 may also be used as an input device capable of inputting information by a user's touch in addition to the output device. Can be.
  • the sound output unit 653 outputs audio data received from the wireless communication unit 610 or stored in the memory 660.
  • the sound output unit 653 may include a speaker, a buzzer, and the like.
  • the alarm unit 655 outputs a signal for notifying occurrence of an event of the mobile terminal 600.
  • the signal may be output in the form of vibration. .
  • the haptic module 657 generates various tactile effects that a user can feel.
  • a representative example of the haptic effect generated by the haptic module 657 is a vibration effect.
  • the memory 660 may store a program for processing and controlling the controller 670, and may provide a function for temporarily storing input or output data (eg, a phone book, a message, a still image, a video, etc.). It can also be done.
  • input or output data eg, a phone book, a message, a still image, a video, etc.
  • the interface unit 625 serves as an interface with all external devices connected to the mobile terminal 600.
  • the interface unit 625 may receive data from such an external device or receive power and transmit the data to each component inside the mobile terminal 600, and may transmit data within the mobile terminal 600 to the external device. .
  • the controller 670 typically controls the operations of each unit to control the overall operation of the image display apparatus 600. For example, perform related control and processing for voice calls, data communications, video calls, and the like.
  • the controller 670 may include a multimedia playback module 681 for multimedia playback.
  • the multimedia playback module 681 may be configured in hardware within the controller 670 or may be configured in software separately from the controller 670.
  • the controller 670 may include an application processor (not shown) for driving an application. Alternatively, the application processor (not shown) may be provided separately from the controller 670.
  • the power supply unit 690 receives an external power source and an internal power source under the control of the controller 670 to supply power for operation of each component.
  • a block diagram of the mobile terminal 600 shown in FIG. 8 is a block diagram for one embodiment of the present invention.
  • Each component of the block diagram may be integrated, added, or omitted according to the specifications of the mobile terminal 600 that is actually implemented. That is, two or more components may be combined into one component as needed, or one component may be divided into two or more components.
  • the function performed in each block is for explaining an embodiment of the present invention, the specific operation or device does not limit the scope of the present invention.
  • 9A to 9C are views illustrating various information displayed on the mobile terminal of FIG. 1.
  • FIG. 9A illustrates a screen 910 that includes the calculated sleep score, which may be displayed on the display 680 of the mobile terminal 600. In the figure, it illustrates that the calculated sleep score is 88.
  • FIG. 9B illustrates a screen 920 that includes sleep status information, which may be displayed on the display 680 of the mobile terminal 600.
  • it illustrates that the sleep state information without snoring is displayed in the sleep state.
  • FIG. 9B illustrates a screen 930 including sleep state information that may be displayed on the display 680 of the mobile terminal 600.
  • the sleep state information including snoring information is displayed in the sleep state.
  • the user can easily grasp his or her sleeping state.
  • the sleep measurement apparatus according to the embodiment of the present invention and the sleep measurement system having the same, are not limited to the configuration and method of the embodiments described as described above, the above embodiments may be variously modified. All or some of the embodiments may be configured to be selectively combined so as to.

Abstract

The present invention relates to a sleep measurement device, and a sleep measurement system having same. A sleep measurement device, according to an embodiment of the present invention, comprises: a radar sensor for receiving a radar signal; a microphone for receiving an audio signal; and a processor for detecting whether a sleeper is snoring and suffering from apnea on the basis of the audio signal from the microphone, detecting the sleeper's movement, respiration, and heart rate signal on the basis of the radar signal, and calculating sleep efficiency on the basis of the sleeper's movement, respiration, and heart rate signal, and data on the presence or absence of snoring that is calculated on the basis of the audio signal from the microphone. Accordingly, it is possible to accurately calculate the sleep efficiency by using a composite sensor.

Description

수면측정장치, 및 이를 구비하는 수면측정 시스템Sleep measurement apparatus, and sleep measurement system having same
본 발명은 수면측정장치, 및 이를 구비하는 수면측정 시스템에 관한 것이며, 더욱 상세하게는 복합 센서를 이용하여 수면 효율을 정확하게 연산할 수 있는 수면측정장치, 및 이를 구비하는 수면측정 시스템에 관한 것이다.The present invention relates to a sleep measurement device, and a sleep measurement system having the same, and more particularly, to a sleep measurement device that can accurately calculate the sleep efficiency using a complex sensor, and a sleep measurement system having the same.
수면측정장치는, 수면자의 수면 상태를 측정하는 장치이다.The sleep measurement device is a device that measures the sleep state of the sleeper.
최근 IOT 기기들의 등장으로, 수면자의 수면 상태를 측정하기 위한 방안이 연구되고 있다.Recently, with the advent of IOT devices, a method for measuring a sleep state of a sleeper has been studied.
밴드 형태의 웨어러블 수면측정장치는, 수면자가 웨어러블 기기를 착용하여하는 불편함이 있으며, 오히려 수면에 방해가 되는 요소가 있다.Wearable sleep measurement apparatus of the band type, there is an inconvenience that the sleeper wears the wearable device, rather there is an element that interferes with sleep.
이에 따라, 비접촉식 방식의 수면측정장치에 대한 연구가 진행되고 있다.Accordingly, research on a non-contact type sleep measurement device is in progress.
본 발명의 목적은, 복합 센서를 이용하여 수면 효율을 정확하게 연산할 수 있는 수면측정장치, 및 이를 구비하는 수면측정 시스템을 제공함에 있다.It is an object of the present invention to provide a sleep measurement apparatus capable of accurately calculating sleep efficiency using a complex sensor, and a sleep measurement system having the same.
본 발명의 다른 목적은, 비접촉 복합 센서를 이용하여 수면 단계 또는 수면 스코어를 연산할 수 있는 수면측정장치, 및 이를 구비하는 수면측정 시스템을 제공함에 있다.Another object of the present invention is to provide a sleep measurement apparatus capable of calculating a sleep stage or a sleep score using a non-contact composite sensor, and a sleep measurement system having the same.
상기 목적을 달성하기 위한 본 발명의 실시예에 따른 수면측정장치, 및 이를 구비하는 수면측정 시스템은, 레이더 신호를 수신하는 레이더 센서와, 오디오 신호를 수신하는 마이크와, 마이크로부터의 오디오 신호에 기초하여, 수면자의 코골이 여부, 및 무호흡 여부를 검출하고, 레이더 신호에 기초하여, 수면자의 움직임, 호흡, 심박 신호를 검출하고, 마이크로부터의 오디오 신호에 기초하여 연산된 코골이 여부 데이터와, 수면자의 움직임, 호흡, 심박 신호에 기초하여, 수면 효율을 연산하는 프로세서를 포함한다.Sleep measurement apparatus according to an embodiment of the present invention, and a sleep measurement system having the same, to achieve the above object is based on a radar sensor for receiving a radar signal, a microphone for receiving an audio signal, and the audio signal from the microphone Detects whether the sleeper is snoring and apnea, detects the sleeper's movement, breathing, and heart rate signals based on the radar signal, calculates snoring data calculated on the basis of an audio signal from the microphone, and sleep And a processor for calculating sleep efficiency based on the movement, respiration, and heart rate signals of the child.
한편, 프로세서는, 연산된 수면 효율이 제1 기준치 이상인 경우, 수면자의 수면 단계를 연산할 수 있다.On the other hand, when the calculated sleep efficiency is greater than or equal to the first reference value, the processor may calculate the sleep stage of the sleeper.
한편, 프로세서는, 연산된 수면 효율, 수면 단계, 코골이 여부 데이터, 및 무호흡증 여부 데이터에 기초하여, 수면 스코어를 연산할 수 있다.Meanwhile, the processor may calculate a sleep score based on the calculated sleep efficiency, sleep stage, snoring data, and apnea data.
한편, 프로세서는, 마이크로부터의 오디오 신호로부터 코골이 후보 이벤트를 추출하고, 추출된 코골이 후보 이벤트에 기초하여, 코골이 특징을 추출하고, 추출된 코골이 특징에 기초하여, 수행되는 학습 기반 분류에 따라, 코골이 여부에 대해 연산할 수 있다.Meanwhile, the processor extracts the snoring candidate event from the audio signal from the microphone, extracts the snoring feature based on the extracted snoring candidate event, and performs the learning based classification based on the extracted snoring feature. According to, it can calculate whether or not snoring.
한편, 프로세서는, 수면자가 코골이로 연산되는 경우, 마이크로부터의 오디오 신호로부터 무호흡 특징을 추출하고, 추출된 무호흡 특징에 기초하여, 수행되는 학습 기반 분류에 따라, 무호흡 여부에 대해 연산할 수 있다.On the other hand, if the sleeper is calculated as a snoring, the apnea feature may be extracted from the audio signal from the microphone, and based on the extracted apnea feature, the processor may calculate apnea according to the learning-based classification performed. .
한편, 프로세서는, 검출되는 수면자의 움직임, 호흡, 심박 신호에 기초하여, 수면자가 웨이크(wake) 또는 수면 상태인지 분류하고, 수면 상태인 경우, 렘(Rapid Eye Movement와, REM) 수면 상태인지, 또는 비렘(non-REM) 수면 상태인지 분류할 수 있다.On the other hand, the processor classifies whether the sleeper wakes or sleeps based on the detected sleeper's movement, breathing, and heart rate signals, and when the sleeper sleeps, the processor determines whether it is a rapid eye movement (REM) sleep state, Or you can classify whether you are in a non-REM sleep state.
한편, 프로세서는, 수면자가 비렘 수면 상태인 경우, 수면자의 수면 단계를 연산할 수 있다.On the other hand, when the sleeper is in a berm sleep state, the processor may calculate the sleep stage of the sleeper.
한편, 프로세서는, 레이더 신호에 기초하여, 수면자를 검출하고, 수면자가 부재시, 출력되는 출력 레이더 신호의 주기가, 수면자 존재시에 비해, 증가하도록 제어할 수 있다.On the other hand, the processor detects the sleeper based on the radar signal, and can control such that the period of the output radar signal output when the sleeper is absent increases as compared with when the sleeper is present.
한편, 프로세서는, 전원 공급부가 배터리를 구비하는 경우, 배터리의 전원 레벨에 따라, 출력되는 출력 레이더 신호의 주기가 달라지도록 제어할 수 있다.In the meantime, when the power supply unit includes the battery, the processor may control the cycle of the output radar signal to be output according to the power level of the battery.
한편, 프로세서는, 마이크로부터의 오디오 신호 중 일정 노이즈에 대한 노이즈 캔슬링을 수행하고, 노이즈 캔슬링된 오디오 신호에 기초하여, 수면자의 코골이 여부, 및 무호흡 여부를 검출할 수 있다.On the other hand, the processor may perform noise canceling for a certain noise of the audio signal from the microphone, and detect whether the sleeper is snoring and apnea based on the noise canceled audio signal.
본 발명의 실시예에 따른 수면측정장치, 및 이를 구비하는 수면측정 시스템은, 레이더 신호를 수신하는 레이더 센서와, 오디오 신호를 수신하는 마이크와, 마이크로부터의 오디오 신호에 기초하여, 수면자의 코골이 여부, 및 무호흡 여부를 검출하고, 레이더 신호에 기초하여, 수면자의 움직임, 호흡, 심박 신호를 검출하고, 마이크로부터의 오디오 신호에 기초하여 연산된 코골이 여부 데이터와, 수면자의 움직임, 호흡, 심박 신호에 기초하여, 수면 효율을 연산하는 프로세서를 포함한다. 이에 따라, 복합 센서를 이용하여 수면 효율을 정확하게 연산할 수 있게 된다.Sleep measurement apparatus according to an embodiment of the present invention, and a sleep measurement system having the same, the snoring of the sleeper based on the radar sensor for receiving the radar signal, the microphone for receiving the audio signal, and the audio signal from the microphone Whether or not apnea is detected, and based on the radar signal, the sleeper's movement, breathing, and heartbeat signals are detected, and the snoring data calculated based on the audio signal from the microphone, and the sleeper's movement, breathing, and heart rate. And a processor that calculates sleep efficiency based on the signal. Accordingly, it is possible to accurately calculate the sleep efficiency using the complex sensor.
한편, 프로세서는, 연산된 수면 효율이 제1 기준치 이상인 경우, 수면자의 수면 단계를 연산할 수 있다. 이에 따라, 비접촉 복합 센서를 이용하여 수면 단계를 정확하게 연산할 수 있게 된다.On the other hand, when the calculated sleep efficiency is greater than or equal to the first reference value, the processor may calculate the sleep stage of the sleeper. Accordingly, the sleep stage can be accurately calculated using the non-contact composite sensor.
한편, 프로세서는, 연산된 수면 효율, 수면 단계, 코골이 여부 데이터, 및 무호흡증 여부 데이터에 기초하여, 수면 스코어를 연산할 수 있다. 이에 따라, 비접촉 복합 센서를 이용하여 수면 스코어를 정확하게 연산할 수 있게 된다.Meanwhile, the processor may calculate a sleep score based on the calculated sleep efficiency, sleep stage, snoring data, and apnea data. Accordingly, the sleep score can be accurately calculated using the non-contact composite sensor.
한편, 프로세서는, 마이크로부터의 오디오 신호로부터 코골이 후보 이벤트를 추출하고, 추출된 코골이 후보 이벤트에 기초하여, 코골이 특징을 추출하고, 추출된 코골이 특징에 기초하여, 수행되는 학습 기반 분류에 따라, 코골이 여부에 대해 연산할 수 있다. 이에 따라, 비접촉 복합 센서를 이용하여 코골이 여부에 대해 정확하게 연산할 수 있다.Meanwhile, the processor extracts the snoring candidate event from the audio signal from the microphone, extracts the snoring feature based on the extracted snoring candidate event, and performs the learning based classification based on the extracted snoring feature. According to, it can calculate whether or not snoring. Accordingly, it is possible to accurately calculate whether the snoring using a non-contact composite sensor.
한편, 프로세서는, 수면자가 코골이로 연산되는 경우, 마이크로부터의 오디오 신호로부터 무호흡 특징을 추출하고, 추출된 무호흡 특징에 기초하여, 수행되는 학습 기반 분류에 따라, 무호흡 여부에 대해 연산할 수 있다. 이에 따라, 비접촉 복합 센서를 이용하여 무호흡 여부에 대해 정확하게 연산할 수 있다.On the other hand, if the sleeper is calculated as a snoring, the apnea feature may be extracted from the audio signal from the microphone, and based on the extracted apnea feature, the processor may calculate apnea according to the learning-based classification performed. . Accordingly, it is possible to accurately calculate whether apnea using a non-contact composite sensor.
한편, 프로세서는, 검출되는 수면자의 움직임, 호흡, 심박 신호에 기초하여, 수면자가 웨이크(wake) 또는 수면 상태인지 분류하고, 수면 상태인 경우, 렘(Rapid Eye Movement와, REM) 수면 상태인지, 또는 비렘(non-REM) 수면 상태인지 분류할 수 있다. 이에 따라, 비접촉 복합 센서를 이용하여 수면 상테에 대해 정확하게 연산할 수 있다.On the other hand, the processor classifies whether the sleeper wakes or sleeps based on the detected sleeper's movement, breathing, and heart rate signals, and when the sleeper sleeps, the processor determines whether it is a rapid eye movement (REM) sleep state, Or you can classify whether you are in a non-REM sleep state. Accordingly, the non-contact composite sensor can be used to accurately calculate the sleeping phase.
한편, 프로세서는, 수면자가 비렘 수면 상태인 경우, 수면자의 수면 단계를 연산할 수 있다. 이에 따라, 비접촉 복합 센서를 이용하여 수면 단계를 정확하게 연산할 수 있다.On the other hand, when the sleeper is in a berm sleep state, the processor may calculate the sleep stage of the sleeper. Accordingly, the sleep stage can be accurately calculated using the non-contact composite sensor.
한편, 프로세서는, 레이더 신호에 기초하여, 수면자를 검출하고, 수면자가 부재시, 출력되는 출력 레이더 신호의 주기가, 수면자 존재시에 비해, 증가하도록 제어할 수 있다. 이에 따라, 불필요한 전력 소비를 저감할 수 있다.On the other hand, the processor detects the sleeper based on the radar signal, and can control such that the period of the output radar signal output when the sleeper is absent increases as compared with when the sleeper is present. As a result, unnecessary power consumption can be reduced.
한편, 프로세서는, 전원 공급부가 배터리를 구비하는 경우, 배터리의 전원 레벨에 따라, 출력되는 출력 레이더 신호의 주기가 달라지도록 제어할 수 있다. 이에 따라, 전력 소비를 저감할 수 있다.In the meantime, when the power supply unit includes the battery, the processor may control the cycle of the output radar signal to be output according to the power level of the battery. Thereby, power consumption can be reduced.
한편, 프로세서는, 마이크로부터의 오디오 신호 중 일정 노이즈에 대한 노이즈 캔슬링을 수행하고, 노이즈 캔슬링된 오디오 신호에 기초하여, 수면자의 코골이 여부, 및 무호흡 여부를 검출할 수 있다. 이에 따라, 수면자의 코골이 여부, 및 무호흡 여부를 정확하게 검출할 수 있다.On the other hand, the processor may perform noise canceling for a certain noise of the audio signal from the microphone, and detect whether the sleeper is snoring and apnea based on the noise canceled audio signal. Accordingly, it is possible to accurately detect whether the sleeper is snoring and whether apnea is present.
도 1은 본 발명의 일 실시예에 따른 수면측정장치를 구비하는 수면측정 시스템을 도시한 도면이다. 1 is a view showing a sleep measurement system having a sleep measurement apparatus according to an embodiment of the present invention.
도 2는 도 1의 수면측정장치의 내부 블록도의 일예이다.FIG. 2 is an example of an internal block diagram of the sleep measurement apparatus of FIG. 1.
도 3은 도 1의 수면측정장치의 내부 블록도의 다른 예이다.3 is another example of an internal block diagram of the sleep measurement apparatus of FIG. 1.
도 4는 도 1의 수면측정장치의 동작방법을 나타내는 순서도의 일예이다.4 is an example of a flowchart illustrating a method of operating the sleep measurement apparatus of FIG. 1.
도 5a 내지 도 5b는 도 4의 동작방법의 설명에 참조되는 도면이다.5A to 5B are views referred to for describing the operating method of FIG. 4.
도 6은 도 1의 수면측정장치의 동작방법을 나타내는 순서도의 일예이다.6 is an example of a flowchart illustrating a method of operating the sleep measurement apparatus of FIG. 1.
도 7a 내지 도 7b는 도 6의 동작방법의 설명에 참조되는 도면이다.7A to 7B are views referred to for describing the operating method of FIG. 6.
도 8은 도 1의 이동 단말기의 내부 블록도의 일예이다.8 is an example of an internal block diagram of the mobile terminal of FIG. 1.
도 9a 내지 도 9c는 도 1의 이동 단말기에 다양한 정보가 표시되는 것을 도시한 도면이다.9A to 9C are views illustrating various information displayed on the mobile terminal of FIG. 1.
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다. Hereinafter, with reference to the drawings will be described the present invention in more detail.
이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 단순히 본 명세서 작성의 용이함만이 고려되어 부여되는 것으로서, 그 자체로 특별히 중요한 의미 또는 역할을 부여하는 것은 아니다. 따라서, 상기 "모듈" 및 "부"는 서로 혼용되어 사용될 수도 있다.The suffixes "module" and "unit" for components used in the following description are merely given in consideration of ease of preparation of the present specification, and do not impart any particular meaning or role by themselves. Therefore, the "module" and "unit" may be used interchangeably.
도 1은 본 발명의 일 실시예에 따른 수면측정장치를 구비하는 수면측정 시스템을 도시한 도면이다. 1 is a view showing a sleep measurement system having a sleep measurement apparatus according to an embodiment of the present invention.
도면을 참조하면, 도 1의 본 발명의 실시예에 따른 수면측정 시스템(10)은, 수면측정장치(100)와, 단말기(600), 및 서버(200)를 구비할 수 있다.Referring to the drawings, the sleep measurement system 10 according to the embodiment of the present invention of FIG. 1 may include a sleep measurement apparatus 100, a terminal 600, and a server 200.
본 발명의 실시예에 따른 수면측정장치(100)는, 비접촉식 복합 센서를 이용한 수면측정장치로서, 수면자(USR)의 수면 효율을 연산하는 장치이다.The sleep measurement apparatus 100 according to the embodiment of the present invention is a sleep measurement apparatus using a non-contact composite sensor and calculates a sleep efficiency of the sleeper USR.
이를 위해, 수면측정장치(100)는, 수면자(USR)가 수면하는 공간 내에 배치되는 것이 바람직하다. 예를 들어, 침대 위, 또는 침대와 이격된 별도의 탁자 위에 배치될 수 있다. To this end, the sleep measurement apparatus 100 is preferably disposed in a space where the sleeper USR sleeps. For example, it may be placed on a bed or on a separate table spaced from the bed.
한편, 수면측정장치(100)는, 다른 홈 어플라이언스 내에 구비되는 것도 가능하다. 예를 들어, 공기 청정기, 에어컨, TV, 전화기, 시계, 스피커, 조명 장치 등에 구비되는 것이 가능하다.On the other hand, the sleep measurement apparatus 100 may be provided in another home appliance. For example, it is possible to be equipped with an air purifier, an air conditioner, a TV, a telephone, a clock, a speaker, a lighting device, and the like.
본 발명의 실시예에 따른 수면측정장치(100)는, 레이더 신호를 수신하는 레이더 센서(130)와, 오디오 신호를 수신하는 마이크(135)와, 마이크(135)로부터의 오디오 신호에 기초하여, 수면자의 코골이 여부, 및 무호흡 여부를 검출하고, 레이더 신호에 기초하여, 수면자의 움직임, 호흡, 심박 신호를 검출하고, 마이크(135)로부터의 오디오 신호에 기초하여 연산된 코골이 여부 데이터와, 수면자의 움직임, 호흡, 심박 신호에 기초하여, 수면 효율을 연산하는 프로세서(170)를 포함한다. 이에 따라, 복합 센서를 이용하여 수면 효율을 정확하게 연산할 수 있게 된다. Sleep measurement apparatus 100 according to an embodiment of the present invention, based on the radar sensor 130 for receiving a radar signal, the microphone 135 for receiving an audio signal, and the audio signal from the microphone 135, Detecting snoring and apnea of the sleeper, detecting movement of the sleeper, breathing, and heart rate signals based on the radar signal, and calculating snoring data calculated based on an audio signal from the microphone 135; And a processor 170 that calculates sleep efficiency based on the sleeper's movement, breathing, and heart rate signals. Accordingly, it is possible to accurately calculate the sleep efficiency using the complex sensor.
한편, 프로세서(170)는, 연산된 수면 효율이 제1 기준치 이상인 경우, 수면자의 수면 단계를 연산할 수 있다. 이에 따라, 비접촉 복합 센서를 이용하여 수면 단계를 정확하게 연산할 수 있게 된다.On the other hand, when the calculated sleep efficiency is greater than or equal to the first reference value, the processor 170 may calculate the sleep stage of the sleeper. Accordingly, the sleep stage can be accurately calculated using the non-contact composite sensor.
한편, 프로세서(170)는, 연산된 수면 효율, 수면 단계, 코골이 여부 데이터, 및 무호흡증 여부 데이터에 기초하여, 수면 스코어를 연산할 수 있다. 이에 따라, 비접촉 복합 센서를 이용하여 수면 스코어를 정확하게 연산할 수 있게 된다.The processor 170 may calculate a sleep score based on the calculated sleep efficiency, sleep stage, snoring data, and apnea data. Accordingly, the sleep score can be accurately calculated using the non-contact composite sensor.
한편, 단말기(600)는, 수면측정장치(100)와 무선 데이터 통신을 수행하고, 수면측정장치(100)로부터 수신한 수면 효율 등의 정보를, 디스플레이 또는 오디오 출력부 등을 통해 출력할 수 있다.Meanwhile, the terminal 600 may perform wireless data communication with the sleep measurement apparatus 100 and output information such as sleep efficiency received from the sleep measurement apparatus 100 through a display or an audio output unit. .
한편, 단말기(600)는, 수면측정장치(100)로부터 수신한, 수면 상태 정보, 수면 단계 정보, 수면 스코어 정보, 코골이 여부 정보, 무호흡증 여부 정보 등을 출력할 수 있다.Meanwhile, the terminal 600 may output sleep state information, sleep stage information, sleep score information, snoring information, apnea information, etc. received from the sleep measurement apparatus 100.
한편, 서버(200)는, 사용자 별, 수면 효율 정보 등을, 수신하고, 이를 비교하여, 데이터베이스화할 수 있다.On the other hand, the server 200 may receive the user-specific, sleep efficiency information, and the like, compare them, and make a database.
한편, 서버(200)는, 사용자 별, 수면 상태 정보, 수면 단계 정보, 수면 스코어 정보, 코골이 여부 정보, 무호흡증 여부 정보 등을, 수신하고, 이를 비교하여, 데이터베이스화할 수 있다.Meanwhile, the server 200 may receive, compare, and database each user, sleep state information, sleep stage information, sleep score information, snoring information, apnea information, and the like.
도 2는 도 1의 수면측정장치의 내부 블록도의 일예이다.FIG. 2 is an example of an internal block diagram of the sleep measurement apparatus of FIG. 1.
도면을 참조하면, 본 발명의 실시예에 따른 수면측정장치(100)는, 레이더 센서(130), 마이크(135), 통신부(145), 메모리(140), 오디오 출력부(160), 프로세서(170), 및 전원 공급부(190)를 포함할 수 있다Referring to the drawings, the sleep measurement apparatus 100 according to an embodiment of the present invention, the radar sensor 130, the microphone 135, the communication unit 145, memory 140, audio output unit 160, processor ( 170, and a power supply 190.
레이더 센서(130)는, 출력 레이더를 외부로 출력하고, 외부 대상에 반사된 레이더 신호(SLar)를 수신할 수 있다. 수신된 레이더 신호(SLar)는 프로세서(170)로 전달될 수 있다. The radar sensor 130 may output the output radar to the outside and receive the radar signal SLar reflected by the external object. The received radar signal SLar may be transmitted to the processor 170.
이때의 레이더 신호는 연속파(CW) 레이더 신호 또는 FMCW(Frequency Modulated Continuous Wave) 레이더 신호일 수 있다.In this case, the radar signal may be a continuous wave (CW) radar signal or a frequency modulated continuous wave (FMCW) radar signal.
마이크(135)는, 오디오 신호(Sau)를 수집 또는 수신할 수 있다. 수신된 오디오 신호(Sau)는 프로세서(170)로 전달될 수 있다. The microphone 135 may collect or receive the audio signal Sau. The received audio signal Sau may be transmitted to the processor 170.
통신부(145)는, 외부 장치와의 통신을 위한 인터페이스를 제공할 수 있다. 이를 위해, 통신부(145)는, 이동통신 모듈(미도시), 무선 인터넷 모듈(미도시), 근거리 통신 모듈(미도시), 및 GPS 모듈(미도시) 등 중 적어도 하나를 포함할 수 있다. The communication unit 145 may provide an interface for communicating with an external device. To this end, the communication unit 145 may include at least one of a mobile communication module (not shown), a wireless Internet module (not shown), a short range communication module (not shown), a GPS module (not shown), and the like.
예를 들어, 통신부(145)는, 블루투스 통신, 또는 WiFi 통신 등을 수행할 수 있으며, 이에 의해, 페어링된 단말기(600)로, 프로세서(170)에서 측정된 수면에 관한 정보를 전송할 수 있다. 이때의 단말기(600)는 음성 통화가 가능한 스마트 폰 등의 이동 단말기일 수 있다.For example, the communication unit 145 may perform Bluetooth communication or WiFi communication, thereby transmitting information about the sleep measured by the processor 170 to the paired terminal 600. At this time, the terminal 600 may be a mobile terminal such as a smart phone capable of a voice call.
한편, 수면에 관한 정보는, 수면 효율 정보, 수면 단계 정보, 수면 스코어 정보, 코골이 여부 정보, 무호흡 여부 정보 등을 포함할 수 있다.The information on sleep may include sleep efficiency information, sleep stage information, sleep score information, snoring information, apnea information, and the like.
메모리(140)는, 수면측정장치(100) 내의 프로세서(170)의 처리 또는 제어를 위한 프로그램이 저장될 수도 있고, 입력되거나 출력되는 데이터들의 임시 저장을 위한 기능을 수행할 수도 있다. The memory 140 may store a program for processing or controlling the processor 170 in the sleep measurement apparatus 100, or may perform a function for temporarily storing input or output data.
특히, 메모리(140)는, 수면측정장치(100) 내의 프로세서(170)에서 측정된 수면에 관한 정보를, 시간 정보와 함께, 저장할 수 있다. 나아가, 사용자 정보도 함께 저장할 수 있다.In particular, the memory 140 may store information about sleep measured by the processor 170 in the sleep measurement apparatus 100, together with time information. Furthermore, user information can also be stored.
오디오 출력부(160)는, 측정된 수면에 관한 정보를 오디오로 출력할 수 있다. 또는, 수면측정장치(100)에 대한 위치 조정 메시지를 오디오로 출력하거나, 알림 메시지를 오디오로 출력할 수 있다.The audio output unit 160 may output information about the measured sleep as audio. Alternatively, the position adjustment message for the sleep measurement apparatus 100 may be output as audio or a notification message may be output as audio.
프로세서(170)는, 수면측정장치(100) 내의 각 유닛의 동작을 제어하여, 수면측정장치(100)의 전반적인 동작을 제어할 수 있다.The processor 170 may control the operation of each unit in the sleep measurement apparatus 100 to control the overall operation of the sleep measurement apparatus 100.
예를 들어, 프로세서(170)는, 마이크(135)로부터의 오디오 신호(Sau)에 기초하여, 수면자의 코골이 여부, 및 무호흡 여부를 검출하고, 레이더 신호에 기초하여, 수면자의 움직임, 호흡, 심박 신호를 검출하고, 마이크(135)로부터의 오디오 신호에 기초하여 연산된 코골이 여부 데이터와, 수면자의 움직임, 호흡, 심박 신호에 기초하여, 수면 효율을 연산할 수 있다. 이에 따라, 복합 센서를 이용하여 수면 효율을 정확하게 연산할 수 있게 된다.For example, the processor 170 detects whether the sleeper is snoring and apnea based on the audio signal Sau from the microphone 135, and based on the radar signal, moves the breather, breathing, The heart rate signal may be detected, and the sleep efficiency may be calculated based on the snoring data calculated based on the audio signal from the microphone 135 and the movement, breathing, and heart rate signals of the sleeper. Accordingly, it is possible to accurately calculate the sleep efficiency using the complex sensor.
이를 위해, 프로세서(170)는, 마이크(135)로부터의 오디오 신호(Sau)에 기초하여, 수면자(USR)의 움직임, 호흡, 심박 신호를 검출하는 움직임, 호흡, 심박 신호 검출기(171), 상기 움직임, 호흡, 심박 신호 검출기(171)로부터의 수면자(USR)의 움직임, 호흡, 심박 신호에 기초하여 수면 효율을 연산하는 수면 효율 검출기(172)를 구비할 수 있다.To this end, the processor 170, based on the audio signal Sau from the microphone 135, the movement of the sleeper USR, the breath, the heartbeat signal, the breath, the heartbeat signal detector 171, The sleep efficiency detector 172 may calculate a sleep efficiency based on the movement, respiration, and heart rate signals of the sleeper USR from the movement, respiration, and heart rate signal detector 171.
특히, 수면 효율 검출기(172)는, 수면자(USR)의 움직임, 호흡, 심박 신호는 물론, 마이크(135)로부터의 오디오 신호에 기초하여 연산된 코골이 여부 데이터에 기초하여, 수면 효율을 연산할 수 있다.In particular, the sleep efficiency detector 172 calculates sleep efficiency based on snoring data calculated based on the movement, respiration, and heart rate signals of the sleeper USR, as well as the audio signal from the microphone 135. can do.
한편, 프로세서(170)는, 연산된 수면 효율이 제1 기준치 이상인 경우, 수면자(USR)의 수면 단계를 연산할 수 있다. 이에 따라, 비접촉 복합 센서를 이용하여 수면 단계를 정확하게 연산할 수 있게 된다.On the other hand, when the calculated sleep efficiency is equal to or greater than the first reference value, the processor 170 may calculate the sleep stage of the sleeper USR. Accordingly, the sleep stage can be accurately calculated using the non-contact composite sensor.
이를 위해, 프로세서(170)는, 수면 효율 검출기(172)에서 연산된 수면 효율에 기초하여 수면 단계를 연산하는 수면 검출기(173)를 더 구비할 수 있다.To this end, the processor 170 may further include a sleep detector 173 that calculates a sleep stage based on the sleep efficiency calculated by the sleep efficiency detector 172.
한편, 프로세서(170)는, 연산된 수면 효율, 수면 단계, 코골이 여부 데이터, 및 무호흡증 여부 데이터에 기초하여, 수면 스코어를 연산할 수 있다. 이를 위해, 프로세서(170)는, 연산된 수면 효율, 수면 단계, 코골이 여부 데이터, 및 무호흡증 여부 데이터에 기초하여, 수면 스코어를 연산하는 수면 스코어 연산부(175)를 더 구비할 수 있다. 이에 따라, 비접촉 복합 센서를 이용하여 수면 스코어를 정확하게 연산할 수 있게 된다.The processor 170 may calculate a sleep score based on the calculated sleep efficiency, sleep stage, snoring data, and apnea data. To this end, the processor 170 may further include a sleep score calculator 175 that calculates a sleep score based on the calculated sleep efficiency, sleep stage, snoring data, and apnea data. Accordingly, the sleep score can be accurately calculated using the non-contact composite sensor.
한편, 프로세서(170)는, 마이크(135)로부터의 오디오 신호(Sau)로부터 코골이 후보 이벤트를 추출하고, 추출된 코골이 후보 이벤트에 기초하여, 코골이 특징을 추출하고, 추출된 코골이 특징에 기초하여, 수행되는 학습 기반 분류에 따라, 코골이 여부에 대해 연산할 수 있다. 이에 따라, 비접촉 복합 센서를 이용하여 코골이 여부에 대해 정확하게 연산할 수 있다.Meanwhile, the processor 170 extracts the snoring candidate event from the audio signal Sau from the microphone 135, extracts the snoring feature based on the extracted snoring candidate event, and extracts the extracted snoring feature. Based on the learning-based classification that is performed, it can be calculated whether or not snoring. Accordingly, it is possible to accurately calculate whether the snoring using a non-contact composite sensor.
이를 위해, 프로세서(170)는, 마이크(135)로부터의 오디오 신호(Sau)로부터 후보 코골이 신호를 검출하는 후보 코골이 신호 검출기(176), 후보 코골이 신호에 기초하여 코골이 여부를 연산하는 코골이 검출기(177), 코골이 검출기(177)로부터의 코골이 데이터에 기초하여 무호흡증 여부를 검출하는 무호흡증 검출기(178)를 더 구비할 수 있다.To this end, the processor 170 may calculate whether to snore based on the candidate snoring signal detector 176 that detects the candidate snoring signal from the audio signal Sau from the microphone 135, and the candidate snoring signal. A snoring detector 177 and an apnea detector 178 that detects apnea based on snoring data from the snoring detector 177 may be further provided.
한편, 코골이 검출기(177)에서 연산된 코골이 여부 데이터는, 수면 효율 검출기(172)로 입력될 수 있다.Meanwhile, snoring data calculated by the snoring detector 177 may be input to the sleep efficiency detector 172.
한편, 프로세서(170)는, 수면자(USR)가 코골이로 연산되는 경우, 마이크(135)로부터의 오디오 신호(Sau)로부터 무호흡 특징을 추출하고, 추출된 무호흡 특징에 기초하여, 수행되는 학습 기반 분류에 따라, 무호흡 여부에 대해 연산할 수 있다. 이에 따라, 비접촉 복합 센서를 이용하여 무호흡 여부에 대해 정확하게 연산할 수 있다.On the other hand, when the sleeper USR is calculated as snoring, the processor 170 extracts an apnea feature from the audio signal Sau from the microphone 135 and performs learning based on the extracted apnea feature. According to the base classification, it can be calculated whether or not apnea. Accordingly, it is possible to accurately calculate whether apnea using a non-contact composite sensor.
한편, 프로세서(170)는, 검출되는 수면자(USR)의 움직임, 호흡, 심박 신호에 기초하여, 수면자(USR)가 웨이크(wake) 또는 수면 상태인지 분류하고, 수면 상태인 경우, 렘(Rapid Eye Movement와, REM) 수면 상태인지, 또는 비렘(non-REM) 수면 상태인지 분류할 수 있다. 이에 따라, 비접촉 복합 센서를 이용하여 수면 상테에 대해 정확하게 연산할 수 있다.Meanwhile, the processor 170 classifies whether the sleeper USR is in a wake state or a sleep state based on the detected sleeper USR movement, respiration, and heart rate signals. Rapid Eye Movement and REM sleep or non-REM sleep. Accordingly, the non-contact composite sensor can be used to accurately calculate the sleeping phase.
한편, 프로세서(170)는, 수면자(USR)가 비렘 수면 상태인 경우, 수면자(USR)의 수면 단계를 연산할 수 있다. 이에 따라, 비접촉 복합 센서를 이용하여 수면 단계를 정확하게 연산할 수 있다.On the other hand, when the sleeper USR is in a berm sleep state, the processor 170 may calculate the sleep stage of the sleeper USR. Accordingly, the sleep stage can be accurately calculated using the non-contact composite sensor.
한편, 프로세서(170)는, 레이더 신호(SLar)에 기초하여, 수면자(USR)를 검출하고, 수면자(USR)가 부재시, 출력되는 출력 레이더 신호의 주기가, 수면자(USR) 존재시에 비해, 증가하도록 제어할 수 있다. 이에 따라, 불필요한 전력 소비를 저감할 수 있다.On the other hand, the processor 170 detects the sleeper USR based on the radar signal SLar, and when the sleeper USR is absent, the period of the output radar signal outputted when the sleeper USR is present. In comparison, it can be controlled to increase. As a result, unnecessary power consumption can be reduced.
한편, 프로세서(170)는, 전원 공급부(190)가 배터리를 구비하는 경우, 배터리의 전원 레벨에 따라, 출력되는 출력 레이더 신호의 주기가 달라지도록 제어할 수 있다. 이에 따라, 전력 소비를 저감할 수 있다.Meanwhile, when the power supply unit 190 includes a battery, the processor 170 may control the cycle of the output radar signal to be output according to the power level of the battery. Thereby, power consumption can be reduced.
한편, 프로세서(170)는, 마이크(135)로부터의 오디오 신호(Sau) 중 일정 노이즈에 대한 노이즈 캔슬링을 수행하고, 노이즈 캔슬링된 오디오 신호(Sau)에 기초하여, 수면자(USR)의 코골이 여부, 및 무호흡 여부를 검출할 수 있다. 이에 따라, 수면자(USR)의 코골이 여부, 및 무호흡 여부를 정확하게 검출할 수 있다.Meanwhile, the processor 170 performs noise canceling on a certain noise among the audio signals Sa from the microphone 135, and based on the noise canceled audio signal Sa, the snoring of the sleeper USR is snoring. Whether or not apnea can be detected. As a result, it is possible to accurately detect whether the sleeping person USR is snoring and whether apnea is present.
전원 공급부(190)는, 프로세서(170)의 제어에 의해, 각 구성요소들의 동작에 필요한 전원을 공급할 수 있다.The power supply unit 190 may supply power required for the operation of each component under the control of the processor 170.
한편, 전원 공급부(190)는, 배터리를 구비할 수 있다.On the other hand, the power supply unit 190 may be provided with a battery.
도 3은 도 1의 수면측정장치의 내부 블록도의 다른 예이다.3 is another example of an internal block diagram of the sleep measurement apparatus of FIG. 1.
도면을 참조하면, 도 2의 수면측정장치(100b)는, 도 2의 수면측정장치(100)와 유사하나, 마이크(135)와 프로세서(170) 사이에, 오디오 변환부(162)가 배치되고, 레이더 센서(130)와 프로세서(170) 사이에, 신호 증폭부(164)와, 변환기(157)을 더 구비하는 것에 그 차이가 있다.Referring to the drawing, the sleep measurement apparatus 100b of FIG. 2 is similar to the sleep measurement apparatus 100 of FIG. 2, but an audio converter 162 is disposed between the microphone 135 and the processor 170. The difference between the radar sensor 130 and the processor 170 is that the signal amplifier 164 and the converter 157 are further provided.
오디오 변환부(162)는, 마이크(135)로부터의 오디오 신호(Sau)에 대한 전처리를 수행할 수 있다.The audio converter 162 may perform preprocessing on the audio signal Sau from the microphone 135.
또는, 오디오 변환부(162)는, 마이크(135)로부터의 오디오 신호(Sau)에 대한 부호화 처리를 수행할 수 있다. 이에 따라, 오디오 변환부(162)는, 저장된 오디오 코덱을 이용하여, 오디오 신호(Sau)에 대한 부호화 처리를 수행할 수 있다.Alternatively, the audio converter 162 may perform encoding processing on the audio signal Sau from the microphone 135. Accordingly, the audio converter 162 may perform encoding processing on the audio signal Sau using the stored audio codec.
한편, 신호 증폭부(164)는, 레이더 센서(130)로부터의 레이더 신호(SLar)를 증폭할 수 있다. 이를 이해, 신호 증폭부(164)는, OP AMP를 구비할 수 있다.The signal amplifier 164 may amplify the radar signal SLar from the radar sensor 130. To understand this, the signal amplifier 164 may include an OP AMP.
다음, 변환기(167)는, 신호 증폭부(164)로부터의 레이더 신호(SLar)를 디지털 신호로 변환할 수 있다. 이를 위해, 변환기(167)는, ADC 변환기를 구비할 수 있다.Next, the converter 167 may convert the radar signal SLar from the signal amplifier 164 into a digital signal. To this end, the converter 167 may include an ADC converter.
한편, 프로세서(170)는, 마이크(135)로부터의 오디오 신호(Sau)에 기초하여 코골이를 검출할 수 있다.The processor 170 may detect snoring based on the audio signal Sau from the microphone 135.
이를 위해, 프로세서(170) 내의, 후보 코골이 신호 검출기(176)는, 수면자(USR)로부터의 오디오 신호(Sau) 로부터, 소정 시간 단위로 이벤트를 검출할 수 있다.To this end, the candidate snoring signal detector 176 in the processor 170 may detect an event on a predetermined time basis from the audio signal Sau from the sleeper USR.
그리고, 프로세서(170) 내의, 후보 코골이 신호 검출기(176)는, 검출된 이벤트 중 코골이 이벤트와 비코골이 이벤트를 분류할 수 있다.The candidate snoring signal detector 176 in the processor 170 may classify the snoring event and the non-snoring event among the detected events.
한편, 무호흡 증상을 호소하는 수면자(USR)들의 약 90%는 코골이 증상을 나타내고 있으며, 따라서, 무호흡 증상을 검출하기 위해서는 고성능의 코골이 검출 기술이 필요하다.On the other hand, about 90% of sleepers (USR) complaining of apnea symptoms have snoring symptoms, and therefore, a high-performance snoring detection technique is required to detect apnea symptoms.
이에 따라, 코골이 이벤트 검출은, 무호흡 증상 검출, 수면 단계 연산 등을 위해, 필수적이다.Accordingly, snoring event detection is essential for apnea symptoms detection, sleep stage calculation, and the like.
한편, 프로세서(170) 내의, 후보 코골이 신호 검출기(176)는, 수면자(USR)의 뒤척임 소리, 냉장고 소리, 선풍기 소리 등 수면 중에 발생할 수 있는 다양한 잡음에 대한 노이즈 캔슬링을 수행하고, 코골이 이벤트만을 구분하는 것이 바람직하다.Meanwhile, the candidate snoring signal detector 176 in the processor 170 performs noise canceling on various noises that may occur during sleep, such as a tossing sound of the sleeper USR, a refrigerator sound, a fan sound, and snoring. It is desirable to distinguish only events.
한편, 코골이 이벤트 검출시, 가우시안 혼합 모델 보다는, 본 발명에서는, 코골이 이벤트와 비코골이 이벤트에 대한 별도의 심화 신경망을 모델링하는 것으로 한다.On the other hand, when snoring events are detected, rather than a Gaussian mixture model, in the present invention, separate deep neural networks for snoring events and non-snoring events are modeled.
프로세서(170) 내의, 후보 코골이 신호 검출기(176)는, 수면 환경에서의 배경 잡음 제거를 위해 미리 학습된 DD 모델을 이용하여 배경잡음을 제거하고, 배경잡음이 제거된 신호를 기반으로 이벤트를 검출하기 위해, 모든 프레임에 대한 에너지 값을 구할 수 있다.The candidate snoring signal detector 176 in the processor 170 removes background noise using a pre-trained DD model for removing background noise in the sleeping environment, and generates an event based on the signal from which the background noise has been removed. To detect, the energy values for all frames can be found.
그리고, 프로세서(170) 내의, 후보 코골이 신호 검출기(176)는, 모든 프레임에 대해서 에너지 값을 구한 후, 히스토그램을 연산하고, 연산된 값을 기반으로 문턱값을 연산할 수 있다.In addition, the candidate snoring signal detector 176 in the processor 170 may calculate an histogram after obtaining energy values for all frames, and calculate a threshold value based on the calculated values.
이때의 문턱값은 이벤트의 시작점과 끝점의 위치를 정확하게 찾기 위해, 사용될 수 있다. The threshold value at this time may be used to accurately locate the start and end points of the event.
한편, 프로세서(170) 내의, 후보 코골이 신호 검출기(176)는, 이벤트 검출을 위해, 코골이 이벤트의 통계적인 길이의 특징을 이용해서, 소정 구간, 예를 들어, 200 ms이상 3500 ms 이하의 이벤트를 제외한 나머지 이벤트들을 비코골이로 가정해서 제거할 수 있다.On the other hand, the candidate snoring signal detector 176 in the processor 170 uses a statistical length feature of the snoring event to detect an event, using a predetermined length, for example, 200 ms or more and 3500 ms or less. The remaining events except for the event can be removed by assuming snoring.
한편, 코골이 이벤트 분류를 위한 요소는, 에너지, 스펙트랄, 시간으로서 3가지일 수 있다.On the other hand, there are three factors for snoring event classification, energy, spectral, time.
에너지와 관련된 특징 벡터는, 총 7가지로 시간축에서의 진폭과 에너지 분포도에 대한 대칭도 및 비대칭도, 정규화된 에너지 신호의 포락선에 대한 넓이, 볼륨 밀도, 첫 프레임과 최대값 사이의 기울기일 수 있다. There are seven kinds of energy-related feature vectors: symmetry and asymmetry for amplitude and energy distribution on the time axis, area for envelope of normalized energy signal, volume density, and slope between first frame and maximum. .
그리고, 스펙트랄과 관련된 특징 벡터는, 총 21개가 있으며, 16 ms와 50% 오버랩된 프레임을 구성한 후 모든 프레임에 대해 구해진 20차 MFCC (mel-frequency cepstral coefficient)의 각 차수 별 중앙값을 특징 벡터로 사용하며, 이때, 1차부터 16차 까지만 특징 벡터로 사용할 수 있다.In addition, there are 21 feature vectors related to the spectral, and the median of each order of the 20th order MFCC (mel-frequency cepstral coefficient) obtained for all frames after constructing 16 ms and 50% overlapped frames is used as the feature vector. In this case, only the first to the sixteenth order can be used as the feature vector.
이에 기초하여, DMFCC (dynamic MFCC) 거리, 스펙트랄 플럭스, frequency centroid가 연산될 수 있다.Based on this, dynamic MFCC (DMFCC) distance, spectral flux, frequency centroid can be calculated.
한편, 한 이벤트 중 처음 절반과 나머지 절반 사이의 frequency centroid의 차이를 특징 벡터로 사용할 수 있다.Meanwhile, the difference in frequency centroid between the first half and the other half of an event can be used as a feature vector.
마지막으로, 스펙트랄과 관련된 특징 벡터로 피치, 피치 힘, 피치 밀도가 예시될 수 있다.Finally, pitch, pitch force, pitch density may be illustrated as the feature vectors associated with the spectral.
한편, 시간과 관련된 특징 벡터는, 총 6개로 현재 이벤트를 기준으로 소정 시간, 예를 들어, 10초 전후의 RP (rhythm period), PS (period strength)를 추출하며, 인접한 이벤트 전후에 대해 각각의 특징 벡터의 비가, 특징벡터로 사용될 수 있다. 마지막으로 ZCR (zero crossing rate)를 추출하여 학습에 사용할 수 있다.On the other hand, a total of six feature vectors are extracted based on a current event, for example, a RP (rhythm period) and a PS (period strength) before and after a predetermined time, for example, about 10 seconds. The ratio of the feature vectors can be used as the feature vector. Finally, ZCR (zero crossing rate) can be extracted and used for learning.
본 발명에서는 활성화 함수로, eLU 함수를 사용할 수 있다. In the present invention, an eLU function may be used as an activation function.
한편, 코골이 검출기(177)가, 코골이의 존재와 부재에 대한 두 가지 경우를 고려하므로, 심화신경망의 출력층은 두 개의 노드 로 구성되며, 목표 값은 음성 존재, 및 음성 부재에 대한 것일 수 있다.On the other hand, since the snoring detector 177 considers two cases of the presence and absence of snoring, the output layer of the deep neural network is composed of two nodes, and the target value may be for the presence and absence of the voice. have.
한편, 출력층까지 feed forward를 진행한 후, back propagation을 이용한 지도 학습을 진행하기 위해 출력층에서 추정치와 타겟 값 사이의 cross entropy가 사용될 수 있으며, 심화 신경망의 파라미터가 업데이트될 수 있다.On the other hand, after the feed forward to the output layer, cross entropy between the estimated value and the target value can be used in the output layer to proceed the supervised learning using the back propagation, the parameters of the deep neural network can be updated.
한편, 심화 신경망을 적응적으로 학습하기 위해, adadelta를 통한 추정이 수행될 수 있다. 그리고, sigmoid를 이용하여 출력층에서 확률 값이 연산될 수 있다.Meanwhile, in order to adaptively learn the deep neural network, estimation through adadelta may be performed. In addition, the probability value may be calculated in the output layer using the sigmoid.
이를 위해, 음성존재확률 추정을 위한 sigmoid 함수의 기울기 파라미터와 바이어스 파라미터가 각각 사용될 수 있다.To this end, the slope parameter and the bias parameter of the sigmoid function for estimating the voice presence probability may be used, respectively.
한편, 코골이 이벤트 존재 확률추정을 위한 sigmoid함수의 두 파라미터는 negative log-likelihood(cross entropy error function)를 최소화하는 변별적 학습을 통해서 구할 수 있다.On the other hand, the two parameters of the sigmoid function for estimating the probability of snoring events can be obtained through differential learning to minimize the negative log-likelihood (cross entropy error function).
한편, 심화신경망은 코골이 이벤트와 비코골이 이벤트에 대하여 별도로 학습되며, 코골이 이벤트 존재 확률 추정을 위한 sigmoid함수의 파라미터 또한 각각 따로 학습될 수 있다. On the other hand, the deep neural network is learned separately for the snoring event and non-snoring event, the parameters of the sigmoid function for estimating the probability of snoring event may also be learned separately.
최종적으로, 한편, 프로세서(170) 내의, 후보 코골이 신호 검출기(176)는, 두 확률의 차이와 특정 문턱값을 비교하여 문턱값보다 큰 경우 코골이 이벤트로 분류하고, 작을 경우에는 비코골이 이벤트로 분류할 수 있다. Finally, the candidate snoring signal detector 176 in the processor 170 compares the difference between the two probabilities and a specific threshold to classify the snoring as an event if it is greater than the threshold and if the snoring is small, Can be classified as an event.
한편, 이러한 방식에 의한, 코골이 검출 기법은, 심화신경망에 기반하는 코골이 검출 기법으로서, 가우시안 혼합 모델과 비교하였을 때, 더 우수한 분류성능을 도출하게 된다.On the other hand, the snoring detection technique by this method, as a snoring detection technique based on the deep neural network, when compared with the Gaussian mixture model, it will lead to better classification performance.
특히, 가우시간 혼합 모델 기반의 코골이 검출 기술의 우도비 값에 대한 분포도 대비하여, 본 발명에서 제안하는 심화신경망에 기반하는 코골이 검출 기법의 우도비 값의 분포가 더욱 잘 분리되게 된다.In particular, the distribution of the likelihood ratio values of the snoring detection technique based on the deep neural network proposed by the present invention is better compared to the distribution of the likelihood ratio values of the snoring detection technique based on the Gaussian mixture model.
결국, 본 발명에서 제안하는 심화 신경망 기반의 코골이 검출은, 가장 크게 학습 단계, 분류 단계로 나뉘어 수행될 수 있다.As a result, the snoring detection based on the deep neural network proposed in the present invention may be largely divided into a learning step and a classification step.
프로세서(170) 내의, 후보 코골이 신호 검출기(176)는, 학습 단계에서, DD를 통해 배경 잡음을 제거한 후 입력된 신호의 에너지를 기반으로 소정 기간 단위로 이벤트를 검출한다. In the processor 170, the candidate snoring signal detector 176 removes the background noise through the DD in the learning step, and then detects the event in units of a predetermined period based on the energy of the input signal.
그리고, 프로세서(170) 내의, 후보 코골이 신호 검출기(176)는, 본격적인 학습에 들어가기에 앞서, 에너지와 관련된 특징 벡터와 스펙트랄과 관련된 특징 벡터 그리고 시간과 관련된 특징 벡터들을 추출한다. In addition, the candidate snoring signal detector 176 in the processor 170 extracts a feature vector associated with energy, a feature vector associated with spectral, and a feature vector associated with time, before entering full-scale learning.
프로세서(170) 내의, 후보 코골이 신호 검출기(176)는, 추출된 특징 벡터들을 이용하여 코골이와 비코골이에 대해서 각각 심화 신경망 모델을 개별적으로 학습하는데, 학습하기 직전에 특징 벡터를 정규화하는 과정을 거친다. The candidate snoring signal detector 176 in the processor 170 uses the extracted feature vectors to individually train the deep neural network model for snoring and snoring, respectively, which normalizes the feature vector immediately before learning. Go through the process.
한편, 프로세서(170) 내의, 후보 코골이 신호 검출기(176)는, 선행학습과정을 생략하고, 미세조정과정에서 역전 (back-propagation) 알고리즘을 통해서 학습한다. On the other hand, the candidate snoring signal detector 176 in the processor 170 skips the previous learning process and learns through a back-propagation algorithm in the fine tuning process.
한편, 프로세서(170) 내의, 후보 코골이 신호 검출기(176)는, 각 노드 별 활성화 함수의 기울기 사라짐 문제를 해결하기 위해 ReLU (rectified linear unit)를 사용하였고, 심화 신경망의 선행학습단계에서의 학습율을 적응적으로 설정하기 위해 adadelta를 사용할 수 있다.On the other hand, the candidate snoring signal detector 176 in the processor 170, using a rectified linear unit (ReLU) to solve the problem of the slope disappearance of the activation function for each node, the learning rate in the advanced learning step of the deep neural network You can use adadelta to set this adaptively.
프로세서(170) 내의, 코골이 검출기(177)는, 분류 단계에서는 입력된 신호에 대해 학습 단계와 마찬가지로 동일하게 배경잡음을 제거한 후, 이벤트 검출기를 통해 이벤트를 검출하고, 해당 이벤트를 기준으로 특징 벡터를 추출한 후 코골이 검출을 위해 사전에 학습된 심화 신경망 모델과 비코골이 검출 심화 신경망 모델을 통해 우도비 값을 추정한 후 특정 문턱 값을 기준으로 코골이 및 비코골이를 분류할 수 있다.  In the processor 170, the snoring detector 177, in the classification step, removes the background noise with respect to the input signal in the same manner as in the learning step, detects an event through the event detector, and based on the event, the feature vector. After estimating the likelihood ratio value through the deep learning neural network model and the non-snoring deep neural network model previously detected for snoring detection, snoring and snoring can be classified based on a specific threshold value.
따라서, 프로세서(170) 내의, 코골이 검출기(177)는, 우도비 값이 특정 문턱 값보다 작을 경우에는 비코골이 이벤트로 분류하고 그 보다 클 경우에는 코골이 이벤트로 분류할 수 있다.Accordingly, the snoring detector 177 in the processor 170 may classify the snoring event as the likelihood event when the likelihood ratio value is less than the specific threshold value and classify the snoring event as the snoring event.
한편, 프로세서(170)는, 수면 단계를 연산할 수 있으며, 수면 단계 검출을 위해, 수면자(USR)로부터 추출된 수면 관련 신호들을 기반으로 wake, NREM, 혹은 REM 수면을 검출할 수 있다.The processor 170 may calculate a sleep stage and detect wake, NREM, or REM sleep based on sleep-related signals extracted from the sleeper USR to detect the sleep stage.
본 발명에서는, 연속파 도플러 레이더 (continuous wave Doppler radar) 센서(130)를 주축으로 사용하여, 프로세서(170)가, 수면과 관련된 움직임, 호흡, 심장박동 관련 특징들을 추출하고, 수면 단계분류를 위해 랜덤포레스트 (random forest) 분류기를 사용하며, 마이크(135)를 보조 센서로 사용하여, 상황인지 기술을 적용하여 수면단계 검출 성능을 대폭 향상시키는 것으로 한다.In the present invention, using the continuous wave Doppler radar sensor 130 as the main axis, the processor 170 extracts sleep-related movement, breathing, heart rate-related features, randomized for sleep phase classification A forest classifier is used, and the microphone 135 is used as an auxiliary sensor, and situational recognition technology is applied to greatly improve sleep stage detection performance.
한편, 레이더 센서(130)를 단일 센서로 사용하여, 수면 단계를 연산하는 경우, 수면자(USR) 수면단계 검출 성능을 높이는 데에 중요한 요소인, 주변상황을 인지할 수 있는 상황인지 능력이 저조하다. 이에 따라, 본 발명에서는, 복합 센서, 특히, 레이더 센서(130)와 마이크(135)를 이용하여, 수면 단계를 연산하는 것으로 한다.On the other hand, when using the radar sensor 130 as a single sensor, when calculating the sleep stage, the ability to recognize the surrounding situation, which is an important factor in improving the sleeper (USR) sleep stage detection performance, is poor. Do. Accordingly, in the present invention, the sleep stage is calculated using the composite sensor, in particular, the radar sensor 130 and the microphone 135.
이를 위해, 프로세서(170)는, 연속파 레이더 신호(SLar) 및 오디오 신호(Sau)에 대해 전처리를 수행할 수 있다.To this end, the processor 170 may perform preprocessing on the continuous wave radar signal SLar and the audio signal Sau.
예를 들어, 시간 도메인에서 송신되는 레이더 신호(SLar)는, 전압 제어 발진기 (VCO, voltage controlled oscillator)로부터 생성된 24GHz의 캐리어 주파수 의 연속파와 위상 잡음을 포함할 수 있다.For example, the radar signal SLar transmitted in the time domain may include continuous wave and phase noise of a carrier frequency of 24 GHz generated from a voltage controlled oscillator (VCO).
수면자(USR)의 신체로부터 반사된 도플러 신호는, 샘플링되고, 샘플링된 신호는, 수면자(USR)의 움직임 정보, 호흡 정보, 그리고 심장 박동 정보를 포함할 수 있다. The Doppler signal reflected from the body of the sleeper USR may be sampled, and the sampled signal may include movement information, respiration information, and heartbeat information of the sleeper USR.
한편, 레이더 센서(130)는, quadrature receiver 방식의 안테나를 포함할 수 있다. 이러한 안테나를 통해 수신되는 레이더 신호(SLar)는, 90°위상차의 특징을 가지고 있는 baseband 신호, in-phase 신호와 quadrature 신호로 분리된다.The radar sensor 130 may include a quadrature receiver antenna. The radar signal SLar received through the antenna is divided into a baseband signal, an in-phase signal, and a quadrature signal, which are characterized by a 90 ° phase difference.
마이크(135)로부터 측정된 시간 도메인에서 오디오신호(Sau)는, 16000 Hz로 샘플링되고, 샘플링된 신호는, 수면자(USR)의 수면 상황 데이터를 지니고 있는 오디오 신호와 잡음을 포함할 수 있다.The audio signal Sau in the time domain measured from the microphone 135 is sampled at 16000 Hz, and the sampled signal may include an audio signal and noise having sleep state data of the sleeper USR.
프로세서(170)는, data-driven 기법으로, 입력되는 오디오 신호(Sau)로부터 잡음을 제거할 수 있다.The processor 170 may remove noise from the input audio signal Sau by using a data-driven technique.
한편, 프로세서(170)는, 수면 시간 동안 수면자(USR)로부터 추출된 레이더 신호(SLar)를 소정 기간(예를 들어, 30초) 단위로 프레임화하고, 프레임 단위로 레이더 신호(SLar)의 DC-offset을 제거하기 위해 raw 신호의 평균값을 제거할 수 있다.On the other hand, the processor 170 frames the radar signal SLar extracted from the sleeper USR during a sleep time in units of a predetermined period (for example, 30 seconds), and the radar signal SLar in units of frames. To remove the DC offset, we can remove the mean value of the raw signal.
그리고, 프로세서(170)는, 각 bandwidth가 다른 3개의 Butterworth filter를 이용하여, 움직임, 호흡, 심장박동 관련 신호들을 추출한 뒤, 각각 신호로부터 min, max, mean, rms, median, 1st-quartile, 3rd-quartile, standard deviation, interquartile range, peak 갯수, peak 사이의 평균거리, peak 평균 높이, zero cross rate, linear regression slope를 추출하고. 호흡신호와 심장박동 신호를 주파수 도메인으로 변환하여 maximum peak를 추출할 수 있다.The processor 170 extracts signals related to movement, respiration, and heartbeat by using three Butterworth filters having different bandwidths, and then min, max, mean, rms, median, 1st-quartile, and 3rd from the signals. -Quartile, standard deviation, interquartile range, number of peaks, average distance between peaks, peak average height, zero cross rate, linear regression slope are extracted. The maximum peak can be extracted by converting the respiratory and heartbeat signals into the frequency domain.
한편, 프로세서(170)는, raw 신호로부터 skewness와 kurtosis를 추출할 수 있다.On the other hand, the processor 170 may extract skewness and kurtosis from the raw signal.
한편, 프로세서(170)는, 레이더 신호(SLar) 프레임별로 46개의 특징들을 모든 프레임에 대해 추출한 뒤, 이 matrix에 대하여 singular value decomposition을 적용하여 3개의 최대 eigenvalue에 위치한 column vector feature들을 각각 프레임별로 추가하고, principal component analysis또한 적용하여 3개의 최대 eigenvalue에 위치한 column vector feature들을 각각 프레임별로 추가할 수 있다. 이에 따라, 한 프레임 당 52개의 특징 벡터들이 생성될 수 있다.Meanwhile, the processor 170 extracts 46 features for every frame for each radar signal (SLar) frame, and then applies singular value decomposition to this matrix to add column vector features located at three maximum eigenvalues for each frame. In addition, principal component analysis can also be applied to add column vector features located at three maximum eigenvalues, frame by frame. Accordingly, 52 feature vectors may be generated per frame.
한편, 프로세서(170)는, 수면관련 움직임 및 수면자(USR)의 부재를 검출할 수 있다.Meanwhile, the processor 170 may detect sleep related movements and the absence of the sleeper USR.
한편, 프로세서(170)는, 수면자(USR)가 수면 중 wake 상태를 의미하는 움직임을 보이거나, 몽유병과 같은 수면공간을 벗어나는, 수면자(USR)의 부재를 검출하기 위한 알고리즘 (WRMEnAD, wake-related movement existence and absence detection)을 구현하기 위해, DC-offset만 제거한 raw 레이더 신호(SLar)의 프레임에 대하여, 실험에 의해 결정된 heuristic threshold을 기준으로 level cross rate feature를 추출하여, 수면자(USR)의 부재와 wake상태를 의미하는 feature 을 검출할 수 있다.On the other hand, the processor 170 is an algorithm (WRMEnAD, wake) for detecting the absence of the sleeper (USR), the sleeper (USR) shows a movement meaning a wake state during sleep, or out of the sleeping space such as sleepwalking In order to implement -related movement existence and absence detection, the level cross rate feature is extracted on the frame of the raw radar signal SLar from which only DC-offset is removed, based on the heuristic threshold determined by the experiment. ) Feature can be detected.
한편, 프로세서(170)는, 수면 중 수면자(USR)로부터 추출된 오디오 신호(Sau)로부터, 소정 기간(예를 들어, 30초)의 프레임 단위로, 코골이 신호기반의 코골이 이벤트 개수를 검출하고, 호흡 신호 기반의 cycle intensity (CI) 특징을 검출할 수 있다.Meanwhile, the processor 170 may determine the number of snoring events based on the snoring signal based on a frame unit for a predetermined period (for example, 30 seconds) from the audio signal Sau extracted from the sleeper USR during sleep. And detect respiratory signal based cycle intensity (CI) features.
한편, 프로세서(170)는, CI를 검출하기 위해, 잡음이 제거된 오디오 신호(Sau)에 대하여 spectrogram을 연산하고, 각 주파수 bin에 해당하는 신호에 대하여 time-domain autocorrelation을 연산한 뒤, 그 결과에서의 첫 번째 peak에 대한 진폭을 기준으로 하여 크기가 큰 순서대로 정렬하여 가장 첫 번째의 peak 증폭을 그 프레임에 대한 CI라고 정의할 수 있다.On the other hand, the processor 170, in order to detect the CI, calculates a spectrogram on the noise-free audio signal (Sau), calculates the time-domain autocorrelation for the signal corresponding to each frequency bin, and as a result The first peak amplification can be defined as the CI for the frame by sorting them in order of magnitude, based on the amplitude of the first peak in.
한편, 프로세서(170)는, 수면단계를 wake, NREM, REM 수면으로 분류하기 전에, 수면자(USR)의 wake/sleep 분류를 먼저 수행할 수 있다.Meanwhile, the processor 170 may first perform wake / sleep classification of the sleeper USR before classifying the sleep stage as wake, NREM, or REM sleep.
프로세서(170)는, Wake/sleep 분류를 위해, 앞에서 추출된 52개의 레이더 신호(SLar) 기반 특징들로부터, wake/sleep 클래스에 대한 분포 분석결과 선별된 44개의 특징 벡터들을 선별한다. 그리고 프로세서(170)는, 특징벡터에 대한 standardization 방식의 normalization 을 진행한다.The processor 170 selects 44 feature vectors selected as a result of the distribution analysis for the wake / sleep class from the 52 radar signal SLar based features previously extracted for the wake / sleep classification. In addition, the processor 170 performs normalization of a standardization method for the feature vector.
정규화된 44개의 특징벡터들을 wake/sleep binary 랜덤포레스트 분류기를 통과시켜 나온 결과물은 각 프레임마다 wake일 확률과 sleep일 확률값들 이 출력되는데, 프로세서(170)는, 이러한 출력 값을 기반으로 확률 smoothing을 진행한다. 단, 첫 번째와 두 번째 프레임, 즉 첫 1분은 무조건 사람이 wake상태라고 가정한다.The result of passing the normalized 44 feature vectors through the wake / sleep binary random forest classifier outputs the probability of wake and sleep for each frame. The processor 170 performs probability smoothing based on these output values. Proceed. However, the first and second frames, that is, the first minute, are assumed to be awake state unconditionally.
한편, 프로세서(170)는, 확률 smoothing이 진행된 후, 전체 프레임에 대한 wake/sleep 우도비열을 연산하고, 이를 저자알 수 있다.Meanwhile, the processor 170 may calculate the wake / sleep likelihood ratio for the entire frame after the probability smoothing is performed, and may know the author.
한편, 프로세서(170)는, wake/sleep personal-adjusted threshold를 연산할 수 있다.The processor 170 may calculate a wake / sleep personal-adjusted threshold.
Personal adjusted threshold란, 사람마다 수면패턴과 생체신호 패턴이 다르기에 모든 사람들에 대해 알고리즘을 최적화시키기 위한 adaptive threshold의 일종이며, 이는 추후 wake/sleep 최종 결정에 사용될 주요 파라미터이다. Personal adjusted threshold is a kind of adaptive threshold for optimizing the algorithm for all people because sleep pattern and biosignal pattern are different for each person, and this is the main parameter to be used for final wake / sleep decision.
한편, 프로세서(170)는, Personal-adjusted threshold를 구하기 위해, 랜덤포레스트 분류기에서 출력된 각 클래스에 대한 확률 ratio를 오름차순으로 정렬하고, 그 후, grid-search를 통해 얻어진 특정 percentile parameter를 기반으로, 그 percentile에 해당하는 우도비값을 personal-adjusted threshold로 지정한다. In order to obtain a personal-adjusted threshold, the processor 170 sorts the probability ratio for each class output from the random forest classifier in ascending order, and then based on the specific percentile parameter obtained through grid-search, The likelihood ratio for that percentile is set to the personal-adjusted threshold.
한편, 프로세서(170)는, NREM/REM 랜덤포레스트 분류기를 적용하기 전에, 앞에서 추출한 feature들을 기반으로 상황인지 기술을 적용하여 wake/sleep 검출 성능을 향상시킬 수 있다.Meanwhile, before applying the NREM / REM random forest classifier, the processor 170 may improve the wake / sleep detection performance by applying context awareness technology based on the extracted features.
이 기법은 wake/sleep 클래스에 대하여 snore event 횟수 분포를 비교한 결과로 고안한 알고리즘이므로, 특정 프레임에서 wake/sleep 랜덤포레스트 분류기의 결과가 wake로 결정되었을 당시, sleep으로 보정해주는 알고리즘이다.This technique is designed as a result of comparing the distribution of the number of snore events for the wake / sleep class. Therefore, when the wake / sleep random forest classifier decides to wake up in a specific frame, it is corrected to sleep.
한편, 프로세서(170)는, sleep 클래스로 결정된 프레임들에 대하여, NREM/REM 랜덤포레스트 분류기를 통과시킨다. Meanwhile, the processor 170 passes the NREM / REM random forest classifier for the frames determined as the sleep class.
NREM/REM 분류기에 사용되는 레이더 특징벡터들은 기존 52개의 특징벡터들의 NREM과 REM 클래스에 대한 분포를 분석결과 선별된 35개의 특징 벡터들이다. The radar feature vectors used in the NREM / REM classifier are 35 feature vectors selected from the analysis of the distribution of 52 feature vectors for NREM and REM classes.
한편, 제1 기간, 예를 들어, 50분까지는 REM 수면이 발생되지 않는다는 실험 결과를 통해, 프로세서(170)는, 제1 기간(50분)은 REM검출 확률을 낮춘 threshold을 사용하고, 제1 기간 이후, grid-search를 통해 결정된 percentage 파라미터를 사용할 수 있다.On the other hand, based on an experimental result that no REM sleep occurs for a first period of time, for example, 50 minutes, the processor 170 uses a threshold that lowers the probability of REM detection for a first period of time (50 minutes). After the period, the percentage parameter determined by grid-search can be used.
한편, 프로세서(170)는, 최종 수면 단계를 결정하기 위해 앞서 저장된 wake/sleep 관련 파라미터들을 기반으로 wake과 sleep을 구분 한 뒤, sleep으로 결정된 프레임들에 대하여 NREM/REM 클래스 결정을 수행한다.Meanwhile, the processor 170 classifies wake and sleep based on previously stored wake / sleep related parameters to determine a final sleep stage, and then performs NREM / REM class determination on the frames determined to be sleep.
그리고, 프로세서(170)는, Wake/sleep 최종 결정을 위해 프레임의 우도비가 wake/sleep personal adjusted threshold 보다 큰 경우 sleep 클래스로 결정하고, 작을 경우 wake로 결정한다. The processor 170 determines a sleep class when the likelihood ratio of a frame is greater than a wake / sleep personal adjusted threshold for a final determination of wake / sleep, and determines a wake when the frame is small.
한편, 프로세서(170)는, 소정 기간, 예를 들어, 첫 1분 동안은, 수면자(USR)가 무조건 wake 클래스라고 가정한다. Meanwhile, the processor 170 assumes that the sleeper USR is an unconditional wake class for a predetermined period, for example, the first minute.
이때, 프로세서(170)는, 프레임 인덱스가 소정치(예를 들어, 2)보다 큰 경우, wake 클래스로 지정된 프레임의 오류를 보정하기 위해 앞서 추출한 코골이 이벤트 개수를 사용할 수 있다.In this case, when the frame index is larger than a predetermined value (for example, 2), the processor 170 may use the number of snoring events previously extracted to correct an error of a frame designated as a wake class.
한편, 프로세서(170)는, 코골이 이벤트 횟수가 3번 이상일 경우 이를 sleep으로 보정하할 수 있다. 이는 wake/sleep 클래스에 대한 코골이 이벤트 개수 분포에 의해 결정된다. On the other hand, when the snoring event number is three or more times, the processor 170 may correct this to sleep. This is determined by the distribution of snoring events for the wake / sleep class.
한편, 프로세서(170)는, Sleep 클래스로 결정된 프레임을 NREM/REM 클래스로 결정짓기 전에, 미리 추출한 수면자(USR)의 움직임 관련 특징(feature)을 이용하여, 마지막 wake/sleep 보정을 수행할 수 있다.Meanwhile, the processor 170 may perform the last wake / sleep correction by using the motion-related feature of the sleeper USR previously extracted before determining the frame determined by the Sleep class as the NREM / REM class. have.
예를 들어, 프로세서(170)는, 프레임이 sleep으로 결정되었으나, 면자(USR)의 움직임이 검출되었거나 부재로 판단되는 경우, 프레임의 클래스를 wake로 보정할 수 있다.For example, when the frame is determined to be sleep but the movement of the facer USR is detected or determined to be absent, the processor 170 may correct the class of the frame to wake.
한편, 프로세서(170)는, Sleep으로 확정된 프레임에 대해, 수면 단계 검사를 시작한지 제1 기간 이하인 경우, 낮은 REM 검출률의 NREM/REM personal adjusted threshold를 기준으로 우도비를 비교하고, 우도비가 클 경우 REM으로 결정하고, 작을 경우 NREM으로 결정할 수 있다.On the other hand, the processor 170 compares the likelihood ratio based on the NREM / REM personal adjusted threshold of the low REM detection rate when the sleep phase test has been started or less than the first period for the frame determined to be sleep, and the likelihood ratio is large In case of REM, it can be determined by NREM.
한편, 프로세서(170)는, 제1 기간 초과시, rid-search로 결정된 heuristic threshold를 기준으로 우도비를 비교하여 NREM 혹은 REM을 결정할 수 있다.Meanwhile, when the first period is exceeded, the processor 170 may determine the NREM or the REM by comparing the likelihood ratio based on the heuristic threshold determined by rid-search.
한편, 프로세서(170)는, 최종적으로 수면 단계를 결정짓기 전에, 마지막으로 후처리를 수행할 수 있다.Meanwhile, the processor 170 may finally perform post-processing before finally determining the sleep stage.
예를 들어, 프로세서(170)는, 추출한 호흡신호 기반의 특징 CI와 코골이 신호 기반의 특징을 기반으로, 상황인지 기술을 적용하여 wake 검출 성능을 향상시킬 수 있다.For example, the processor 170 may improve the wake detection performance by applying context awareness technology based on the extracted respiratory signal-based feature CI and the snoring signal-based feature.
이때, 프로세서(170)는, CI가 다수 모여있는 곳을 wake 구간으로 추정한 후, 연속된 frame길이가 소정 구간(110에서 170 사이)인 경우를 wake 구간으로 결정한다. In this case, the processor 170 estimates a place where a plurality of CIs are gathered as a wake interval, and then determines a case where the continuous frame length is a predetermined interval (110 to 170) as the wake interval.
프로세서(170)는, NREM 및 REM의 검출 오류를 줄이기 위해 REM 클래스로 연속적으로 3프레임 이하로 지속 될 경우, 이를 NREM으로 보정하고, 가까이 붙어있는 REM 프레임들은 하나의 REM 수면 구간으로 보정할 수 있다. The processor 170 may correct the NREM if the continuous continuation is less than 3 frames in the REM class to reduce the detection error of the NREM and the REM, and correct the adjacent REM frames in one REM sleep interval. .
도 4는 도 1의 수면측정장치의 동작방법을 나타내는 순서도의 일예이고, 도 5a 내지 도 5b는 도 4의 동작방법의 설명에 참조되는 도면이다. 특히, 도 4 내지 도 5b는, 수면자의 수면 단계 연산에 대한 설명에 참조되는 도면이다. 4 is an example of a flowchart illustrating a method of operating the sleep measurement apparatus of FIG. 1, and FIGS. 5A to 5B are views referred to for describing the method of FIG. 4. In particular, FIGS. 4 to 5B are views referred to for description of the sleep step calculation of the sleeper.
도면을 참조하면, 프로세서(170)는, 레이더 센서(130)로부터의 레이더 신호(SLar)로부터 움직임, 호흡, 심박 신호를 검출한다(S410).Referring to the figure, the processor 170 detects a movement, respiration, and heart rate signal from the radar signal SLar from the radar sensor 130 (S410).
그리고, 프로세서(170)는, 마이크(135)로부터의 오디오 신호(Sau)에 기초하여 연산된 코골이 여부 데이터를 수신하고(S420), 코골이 여부 데이터와, 수면자(USR)의 움직임, 호흡, 심박 신호에 기초하여, 수면 효율을 연산한다(S430).In addition, the processor 170 receives snoring data calculated based on the audio signal Sau from the microphone 135 (S420), snoring data, movement of the sleeper USR, and breathing. In operation S430, the sleep efficiency is calculated based on the heartbeat signal.
다음, 프로세서(170)는, 연산된 수면 효율이 제1 기준치 이상인 경우, 수면 단계를 연산한다(S450).Next, when the calculated sleep efficiency is greater than or equal to the first reference value, the processor 170 calculates a sleep step (S450).
도 5a는 2채널의 레이더 신호(SLara,SLarb)로부터 수면자(USR)의 움직임 신호(Wva), 호흡 신호(Wvb), 심박 신호(Wvc)를 검출하는 것을 예시한다.FIG. 5A illustrates detection of the sleeper USR movement signal Wva, the respiration signal Wvb, and the heart rate signal Wvc from the radar signals SLara and SLarb of two channels.
프로세서(170) 내의 움직임, 호흡, 심박 신호 검출기(171)는, 레이더 신호(SLara,SLarb)로부터 수면자(USR)의 움직임 신호(Wva), 호흡 신호(Wvb), 심박 신호(Wvc)를 검출할 수 있다.The motion, respiration, and heart rate signal detector 171 in the processor 170 detects the motion signal Wva, the respiration signal Wvb, and the heart rate signal Wvc of the sleeper USR from the radar signals SLara and SLarb. can do.
다음, 프로세서(170) 내의 웨이크/슬립 분류기(511)는, 수면자(USR)의 움직임 신호(Wva), 호흡 신호(Wvb), 심박 신호(Wvc)에 기초하여, 수면자(USR)가 웨이크(wake) 상태인지, 슬립(Sleep) 상태인지 구분할 수 있다.Next, the wake / sleep classifier 511 in the processor 170 may wake the sleeper USR based on the movement signal Wva, the breathing signal Wvb, and the heartbeat signal Wvc of the sleeper USR. It can be distinguished from the wake state or the sleep state.
한편, 프로세서(170) 내의 웨이크/슬립 분류기(511)에서 슬립(Sleep) 상태로 판단되는 경우, 프로세서(170) 내의 움직임/부재 검출기(513)는, 수면자(USR)의 움직임 신호(Wva), 호흡 신호(Wvb), 심박 신호(Wvc)에 기초하여, 수면자(USR)가 움직임 상태인지 부재 상태인지 검출할 수 있다.Meanwhile, when it is determined that the sleep / slip classifier 511 in the processor 170 is in the sleep state, the motion / absence detector 513 in the processor 170 may move the motion signal Wva of the sleeper USR. , Based on the respiration signal Wvb and the heart rate signal Wvc, it is possible to detect whether the sleeper USR is in a moving state or an absent state.
다음, 프로세서(170) 내의 REM/NREM 분류기(515)는, 웨이크/슬립 분류기(511)에서 슬립(Sleep) 상태로 판단되는 경우, 수면자(USR)의 움직임 신호(Wva), 호흡 신호(Wvb), 심박 신호(Wvc)에 기초하여, 수면자(USR)의 수면 상태가, REM 상태인지, NREM 상태인지 분류할 수 있다.Next, when it is determined that the REM / NREM classifier 515 in the processor 170 is in the sleep state in the wake / sleep classifier 511, the sleeper USR movement signal Wva and the respiration signal Wvb ), Based on the heartbeat signal Wvc, it is possible to classify whether the sleep state USR is in the REM state or the NREM state.
도 5b는, 수면자(USR)의 수면 상태가, REM 상태인 경우와, NREM 상태인 경우를 모두 포함하는 경우의, 수면 단계를 도시한 도면이다.FIG. 5B is a diagram showing a sleep step in the case where the sleep state of the sleeper USR includes both the REM state and the NREM state.
본 발명의 실시예에 따르면, 프로세서(170)는, 마이크(135)로부터의 오디오 신호(Sau)에 기초하여, 수면자(USR)의 코골이 여부, 및 무호흡 여부를 검출하고, 레이더 신호(SLar)에 기초하여, 수면자(USR)의 움직임, 호흡, 심박 신호를 검출하고, 마이크(135)로부터의 오디오 신호(Sau)에 기초하여 연산된 코골이 여부 데이터와, 수면자(USR)의 움직임, 호흡, 심박 신호에 기초하여, 수면 효율을 연산할 수 있다. 이에 따라, 복합 센서를 이용하여 수면 효율을 정확하게 연산할 수 있게 된다.According to the exemplary embodiment of the present invention, the processor 170 detects whether the sleeper USR is snoring and apnea based on the audio signal Sau from the microphone 135, and detects the radar signal SLar. ) Detects movement of the sleeper USR, breathing, and heart rate signals, and calculates snoring data and movement of the sleeper USR calculated based on the audio signal Sau from the microphone 135. Based on the respiration, heart rate signals, sleep efficiency can be calculated. Accordingly, it is possible to accurately calculate the sleep efficiency using the complex sensor.
한편, 프로세서(170)는, 연산된 수면 효율이 제1 기준치 이상인 경우, 수면자(USR)의 수면 단계를 연산할 수 있다. 이에 따라, 비접촉 복합 센서를 이용하여 수면 단계를 정확하게 연산할 수 있게 된다.On the other hand, when the calculated sleep efficiency is equal to or greater than the first reference value, the processor 170 may calculate the sleep stage of the sleeper USR. Accordingly, the sleep stage can be accurately calculated using the non-contact composite sensor.
한편, 프로세서(170)는, 연산된 수면 효율, 수면 단계, 코골이 여부 데이터, 및 무호흡증 여부 데이터에 기초하여, 수면 스코어를 연산할 수 있다. 이에 따라, 비접촉 복합 센서를 이용하여 수면 스코어를 정확하게 연산할 수 있게 된다.The processor 170 may calculate a sleep score based on the calculated sleep efficiency, sleep stage, snoring data, and apnea data. Accordingly, the sleep score can be accurately calculated using the non-contact composite sensor.
한편, 프로세서(170)는, 수면자(USR)가 비렘 수면 상태인 경우, 수면자(USR)의 수면 단계를 연산할 수 있다. On the other hand, when the sleeper USR is in a berm sleep state, the processor 170 may calculate the sleep stage of the sleeper USR.
한편, 프로세서(170)는, 검출되는 수면자(USR)의 움직임, 호흡, 심박 신호에 기초하여, 수면자(USR)가 웨이크(wake) 또는 수면 상태인지 분류하고, 수면 상태인 경우, 렘(Rapid Eye Movement와, REM) 수면 상태인지, 또는 비렘(non-REM) 수면 상태인지 분류할 수 있다.Meanwhile, the processor 170 classifies whether the sleeper USR is in a wake state or a sleep state based on the detected sleeper USR movement, respiration, and heart rate signals. Rapid Eye Movement and REM sleep or non-REM sleep.
도 6은 도 1의 수면측정장치의 동작방법을 나타내는 순서도의 일예이고, 도 7a 내지 도 7b는 도 6의 동작방법의 설명에 참조되는 도면이다. 특히, 도 6 내지 도 7b는, 수면자의 수면 단계 연산에 대한 설명에 참조되는 도면이다. FIG. 6 is an example of a flowchart illustrating a method of operating the sleep measurement apparatus of FIG. 1, and FIGS. 7A to 7B are views referred to for describing the method of FIG. 6. In particular, FIGS. 6 to 7B are views referred to for description of the sleep stage calculation of the sleeper.
도면을 참조하면, 프로세서(170)는, 마이크(135)로부터의 오디오 신호(Sau)에 대한 전처리를 수행한다(S610). 예를 들어, 프로세서(170)는, 전치리로, 마이크(135)로부터의 오디오 신호(Sau) 내의 잡음 등을 제거할 수 있다.Referring to the figure, the processor 170 performs preprocessing on the audio signal Sau from the microphone 135 (S610). For example, the processor 170 may remove noise in the audio signal Sau from the microphone 135 in advance.
다음, 프로세서(170)는, 마이크(135)로부터의 오디오 신호(Sau)로부터 코골이 후보 이벤트를 검출한다(S610).Next, the processor 170 detects a snoring candidate event from the audio signal Sau from the microphone 135 (S610).
그리고, 프로세서(170)는, 추출된 코골이 후보 이벤트에 기초하여, 코골이 특징을 추출하고(S620), 추출된 코골이 특징에 기초하여, 수행되는 학습 기반 분류에 따라, 코골이 여부에 대해 연산할 수 있다(S620). 이에 따라, 비접촉 복합 센서를 이용하여 코골이 여부에 대해 정확하게 연산할 수 있다.The processor 170 extracts a snoring characteristic based on the extracted snoring candidate event (S620), and based on the learning-based classification performed based on the extracted snoring characteristic, whether or not the snoring is performed. Can be calculated (S620). Accordingly, it is possible to accurately calculate whether the snoring using a non-contact composite sensor.
다음, 프로세서(170)는, 연산된 코골이 여부 데이터를 수면 효율 검출을 위해 전송할 수 있다(S630). 예를 들어, 코걸이 검출기(177)는, 연산된 코골이 여부 데이터를 수면 효율 검출기(172)로 전송할 수 있다.Next, the processor 170 may transmit the calculated snoring data for sleep efficiency detection (S630). For example, the snore detector 177 may transmit the calculated snoring data to the sleep efficiency detector 172.
다음, 프로세서(170)는, 코골이 여부 데이터에 기초하여, 무호흡 특징을 추출히고(S640), 추출된 무호흡 특징에 기초하여, 무호흡 여부를 연산한다(S650).Next, the processor 170 extracts the apnea feature based on the snoring data (S640), and calculates the apnea based on the extracted apnea feature (S650).
도 7a는 무호흡 연산에 대해 참조되는 도면이다.7A is a diagram referred to for apnea calculations.
도면을 참조하면, 프로세서(170)는, 마이크(135)로부터의 오디오 신호(Sau)에 대한 전처리를 수행하고, 프로세서(170) 내의 후보 코골이 신호 검출기(176)는, 마이크(135)로부터의 오디오 신호(Sau)로부터 코골이 후보 이벤트를 검출한다.Referring to the figure, the processor 170 performs preprocessing on the audio signal Sau from the microphone 135, and the candidate snoring signal detector 176 in the processor 170, from the microphone 135. A snoring candidate event is detected from the audio signal Sau.
도 7b는, 수면자(USR)의 오디오 신호(Sau)(630))의 일예이다.7B is an example of the audio signal Sau 630 of the sleeper USR.
그리고, 프로세서(170) 내의 코골이 검출기(177)는, 추출된 코골이 후보 이벤트에 기초하여, 코골이 특징을 추출하고, 추출된 코골이 특징에 기초하여, 수행되는 학습 기반 분류에 따라, 코골이 여부에 대해 연산할 수 있다. 이에 따라, 비접촉 복합 센서를 이용하여, 코골이 인지, 코골이가 아닌지 여부를 정확하게 연산할 수 있다.The snoring detector 177 in the processor 170 extracts the snoring feature based on the extracted snoring candidate event, and based on the learning-based classification performed based on the extracted snoring feature. You can operate on this. Accordingly, by using the non-contact composite sensor, it is possible to accurately calculate whether snoring is snoring or not.
다음, 프로세서(170) 내의 무호흠증 검출기(178)는, 코골이로 연산된 경우, 무호흡 특징을 추출하고, 추출된 무호흡 특징에 기초하여, 수행되는 학습 기반 분류에 따라, 무호흡증 여부에 대해 연산할 수 있다. 이에 따라, 비접촉 복합 센서를 이용하여, 무호흡증 인지, 무호흡증이 아닌지 여부를 정확하게 연산할 수 있다.Next, when the apnea detector 178 in the processor 170 is computed as snoring, the apnea feature is extracted, and based on the extracted apnea feature, the apnea detector 178 calculates the apnea according to the learning-based classification performed. can do. Accordingly, by using the non-contact composite sensor, it is possible to accurately calculate whether apnea is detected or not apnea.
한편, 프로세서(170)는, 수면자(USR)가 비렘 수면 상태인 경우, 수면자(USR)의 수면 단계를 연산할 수 있다. 이에 따라, 비접촉 복합 센서를 이용하여 수면 단계를 정확하게 연산할 수 있다.On the other hand, when the sleeper USR is in a berm sleep state, the processor 170 may calculate the sleep stage of the sleeper USR. Accordingly, the sleep stage can be accurately calculated using the non-contact composite sensor.
한편, 프로세서(170)는, 레이더 신호(SLar)에 기초하여, 수면자(USR)를 검출하고, 수면자(USR)가 부재시, 출력되는 출력 레이더 신호의 주기가, 수면자(USR) 존재시에 비해, 증가하도록 제어할 수 있다. 이에 따라, 불필요한 전력 소비를 저감할 수 있다.On the other hand, the processor 170 detects the sleeper USR based on the radar signal SLar, and when the sleeper USR is absent, the period of the output radar signal outputted when the sleeper USR is present. In comparison, it can be controlled to increase. As a result, unnecessary power consumption can be reduced.
한편, 프로세서(170)는, 전원 공급부(190)가 배터리를 구비하는 경우, 배터리의 전원 레벨에 따라, 출력되는 출력 레이더 신호의 주기가 달라지도록 제어할 수 있다. 이에 따라, 전력 소비를 저감할 수 있다.Meanwhile, when the power supply unit 190 includes a battery, the processor 170 may control the cycle of the output radar signal to be output according to the power level of the battery. Thereby, power consumption can be reduced.
한편, 프로세서(170)는, 마이크(135)로부터의 오디오 신호(Sau) 중 일정 노이즈에 대한 노이즈 캔슬링을 수행하고, 노이즈 캔슬링된 오디오 신호(Sau)에 기초하여, 수면자(USR)의 코골이 여부, 및 무호흡 여부를 검출할 수 있다. 이에 따라, 수면자(USR)의 코골이 여부, 및 무호흡 여부를 정확하게 검출할 수 있다.Meanwhile, the processor 170 performs noise canceling on a certain noise among the audio signals Sa from the microphone 135, and based on the noise canceled audio signal Sa, the snoring of the sleeper USR is snoring. Whether or not apnea can be detected. As a result, it is possible to accurately detect whether the sleeping person USR is snoring and whether apnea is present.
도 8은 도 1의 이동 단말기의 내부 블록도의 일예이다.8 is an example of an internal block diagram of the mobile terminal of FIG. 1.
도면을 참조하면, 이동 단말기(600)는, 무선 통신부(610), A/V(Audio/Video) 입력부(620), 사용자 입력부(630), 센싱부(640), 출력부(650), 메모리(660), 인터페이스부(625), 제어부(670), 및 전원 공급부(690)를 포함할 수 있다. Referring to the drawings, the mobile terminal 600 includes a wireless communication unit 610, an A / V (Audio / Video) input unit 620, a user input unit 630, a sensing unit 640, an output unit 650, and a memory. 660, an interface unit 625, a control unit 670, and a power supply unit 690.
한편, 무선 통신부(610)는, 방송수신 모듈(611), 이동통신 모듈(613), 무선 인터넷 모듈(615), 음향 통신부(617), 및 GPS 모듈(619) 등을 포함할 수 있다.The wireless communication unit 610 may include a broadcast receiving module 611, a mobile communication module 613, a wireless internet module 615, an acoustic communication unit 617, a GPS module 619, and the like.
방송수신 모듈(611)은 방송 채널을 통하여 외부의 방송관리 서버로부터 방송 신호 및 방송관련 정보 중 적어도 하나를 수신할 수 있다. The broadcast receiving module 611 may receive at least one of a broadcast signal and broadcast related information from an external broadcast management server through a broadcast channel.
방송수신 모듈(611)을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 메모리(660)에 저장될 수 있다.The broadcast signal and / or broadcast related information received through the broadcast receiving module 611 may be stored in the memory 660.
이동통신 모듈(613)은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호, 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. The mobile communication module 613 transmits and receives a radio signal with at least one of a base station, an external terminal, and a server on a mobile communication network. Here, the wireless signal may include various types of data according to voice call signal, video call signal, or text / multimedia message transmission and reception.
무선 인터넷 모듈(615)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 무선 인터넷 모듈(615)은 이동 단말기(600)에 내장되거나 외장될 수 있다. The wireless internet module 615 refers to a module for wireless internet access, and the wireless internet module 615 may be embedded or external to the mobile terminal 600.
음향 통신부(617)는 음향 통신을 수행할 수 있다. 음향 통신부(617)는, 음향 통신 모드에서, 출력할 오디오 데이터에, 소정의 정보 데이터를 부가하여, 사운드를 출력할 수 있다. 또한, 음향 통신부(617)는, 음향 통신 모드에서, 외부로부터 수신되는 사운드로부터 소정의 정보 데이터를 추출할 수 있다. The acoustic communication unit 617 may perform acoustic communication. The acoustic communication unit 617 may output sound by adding predetermined information data to the audio data to be output in the acoustic communication mode. In addition, in the acoustic communication mode, the acoustic communication unit 617 may extract predetermined information data from a sound received from the outside.
GPS(Global Position System) 모듈(619)은 복수 개의 GPS 인공위성으로부터 위치 정보를 수신할 수 있다. The GPS (Global Position System) module 619 may receive location information from a plurality of GPS satellites.
A/V(Audio/Video) 입력부(620)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(621)와 마이크(623) 등이 포함될 수 있다. The A / V input unit 620 is for inputting an audio signal or a video signal, and may include a camera 621 and a microphone 623.
사용자 입력부(630)는 사용자가 단말기의 동작 제어를 위하여 입력하는 키 입력 데이터를 발생시킨다. 이를 위해, 사용자 입력부(630)는, 키 패드(key pad), 돔 스위치(dome switch), 터치 패드(정압/정전) 등으로 구성될 수 있다. 특히, 터치 패드가 디스플레이(680)와 상호 레이어 구조를 이룰 경우, 이를 터치스크린(touch screen)이라 부를 수 있다.The user input unit 630 generates key input data input by the user for controlling the operation of the terminal. To this end, the user input unit 630 may include a key pad, a dome switch, a touch pad (constant voltage / capacitance), and the like. In particular, when the touch pad forms a mutual layer structure with the display 680, this may be referred to as a touch screen.
센싱부(640)는 이동 단말기(600)의 개폐 상태, 이동 단말기(600)의 위치, 사용자 접촉 유무 등과 같이 이동 단말기(600)의 현 상태를 감지하여 이동 단말기(600)의 동작을 제어하기 위한 센싱 신호를 발생시킬 수 있다.The sensing unit 640 detects a current state of the mobile terminal 600 such as an open / closed state of the mobile terminal 600, a location of the mobile terminal 600, a presence or absence of a user contact, and controls the operation of the mobile terminal 600. The sensing signal may be generated.
센싱부(640)는, 감지센서(641), 압력센서(643), 및 모션 센서(645) 등을 포함할 수 있다. 모션 센서(645)는 가속도 센서, 자이로 센서, 중력 센서 등을 이용하여 이동 단말기(600)의 움직임이나 위치 등을 감지할 수 있다. 특히, 자이로 센서는 각속도를 측정하는 센서로서, 기준 방향에 대해 돌아간 방향(각도)을 감지할 수 있다. The sensing unit 640 may include a detection sensor 641, a pressure sensor 643, a motion sensor 645, and the like. The motion sensor 645 may detect a movement or position of the mobile terminal 600 using an acceleration sensor, a gyro sensor, a gravity sensor, or the like. In particular, the gyro sensor is a sensor for measuring the angular velocity, and may sense a direction (angle) returned with respect to the reference direction.
출력부(650)는 디스플레이(680), 음향 출력부(653), 알람부(655), 및 햅틱 모듈(657) 등을 포함할 수 있다.The output unit 650 may include a display 680, a sound output unit 653, an alarm unit 655, and a haptic module 657.
디스플레이(680)는 이동 단말기(600)에서 처리되는 정보를 표시 출력한다. 예를 들어, 통신부(610)로부터 수신되는 정보를 표시한다. The display 680 displays and outputs information processed by the mobile terminal 600. For example, the information received from the communication unit 610 is displayed.
한편, 전술한 바와 같이, 디스플레이(680)와 터치패드가 상호 레이어 구조를 이루어 터치스크린으로 구성되는 경우, 디스플레이(680)는 출력 장치 이외에 사용자의 터치에 의한 정보의 입력이 가능한 입력 장치로도 사용될 수 있다. Meanwhile, as described above, when the display 680 and the touch pad form a mutual layer structure and constitute a touch screen, the display 680 may also be used as an input device capable of inputting information by a user's touch in addition to the output device. Can be.
음향 출력부(653)는 무선 통신부(610)로부터 수신되거나 메모리(660)에 저장된 오디오 데이터를 출력한다. 이러한 음향 출력부(653)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The sound output unit 653 outputs audio data received from the wireless communication unit 610 or stored in the memory 660. The sound output unit 653 may include a speaker, a buzzer, and the like.
알람부(655)는 이동 단말기(600)의 이벤트 발생을 알리기 위한 신호를 출력한다. 예를 들면, 진동 형태로 신호를 출력할 수 있다. .The alarm unit 655 outputs a signal for notifying occurrence of an event of the mobile terminal 600. For example, the signal may be output in the form of vibration. .
햅틱 모듈(haptic module)(657)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(657)이 발생시키는 촉각 효과의 대표적인 예로는 진동 효과가 있다. The haptic module 657 generates various tactile effects that a user can feel. A representative example of the haptic effect generated by the haptic module 657 is a vibration effect.
메모리(660)는 제어부(670)의 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 입력되거나 출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)의 임시 저장을 위한 기능을 수행할 수도 있다. The memory 660 may store a program for processing and controlling the controller 670, and may provide a function for temporarily storing input or output data (eg, a phone book, a message, a still image, a video, etc.). It can also be done.
인터페이스부(625)는 이동 단말기(600)에 연결되는 모든 외부기기와의 인터페이스 역할을 수행한다. 인터페이스부(625)는 이러한 외부 기기로부터 데이터를 전송받거나 전원을 공급받아 이동 단말기(600) 내부의 각 구성 요소에 전달할 수 있고, 이동 단말기(600) 내부의 데이터가 외부 기기로 전송되도록 할 수 있다.The interface unit 625 serves as an interface with all external devices connected to the mobile terminal 600. The interface unit 625 may receive data from such an external device or receive power and transmit the data to each component inside the mobile terminal 600, and may transmit data within the mobile terminal 600 to the external device. .
제어부(670)는 통상적으로 상기 각부의 동작을 제어하여 영상표시장치(600)의 전반적인 동작을 제어한다. 예를 들어 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행한다. 또한, 제어부(670)는 멀티 미디어 재생을 위한 멀티미디어 재생 모듈(681)을 구비할 수도 있다. 멀티미디어 재생 모듈(681)은 제어부(670) 내에 하드웨어로 구성될 수도 있고, 제어부(670)와 별도로 소프트웨어로 구성될 수도 있다. 한편, 제어부(670)는, 애플리케이션 구동을 위한 애플리케이션 프로세서(미도시)를 구비할 수 있다. 또는 애플리케이션 프로세서(미도시)는 제어부(670)와 별도로 마련되는 것도 가능하다. The controller 670 typically controls the operations of each unit to control the overall operation of the image display apparatus 600. For example, perform related control and processing for voice calls, data communications, video calls, and the like. In addition, the controller 670 may include a multimedia playback module 681 for multimedia playback. The multimedia playback module 681 may be configured in hardware within the controller 670 or may be configured in software separately from the controller 670. The controller 670 may include an application processor (not shown) for driving an application. Alternatively, the application processor (not shown) may be provided separately from the controller 670.
그리고, 전원 공급부(690)는 제어부(670)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.In addition, the power supply unit 690 receives an external power source and an internal power source under the control of the controller 670 to supply power for operation of each component.
한편, 도 8에 도시된 이동 단말기(600)의 블록도는 본 발명의 일실시예를 위한 블록도이다. 블록도의 각 구성요소는 실제 구현되는 이동 단말기(600)의 사양에 따라 통합, 추가, 또는 생략될 수 있다. 즉, 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다. 또한, 각 블록에서 수행하는 기능은 본 발명의 실시예를 설명하기 위한 것이며, 그 구체적인 동작이나 장치는 본 발명의 권리범위를 제한하지 아니한다.Meanwhile, a block diagram of the mobile terminal 600 shown in FIG. 8 is a block diagram for one embodiment of the present invention. Each component of the block diagram may be integrated, added, or omitted according to the specifications of the mobile terminal 600 that is actually implemented. That is, two or more components may be combined into one component as needed, or one component may be divided into two or more components. In addition, the function performed in each block is for explaining an embodiment of the present invention, the specific operation or device does not limit the scope of the present invention.
도 9a 내지 도 9c는 도 1의 이동 단말기에 다양한 정보가 표시되는 것을 도시한 도면이다.9A to 9C are views illustrating various information displayed on the mobile terminal of FIG. 1.
먼저, 도 9a는, 이동 단말기(600)의 디스플레이(680)에 표시될 수 있는, 연산된 수면 스코어를 포함하는 화면(910)을 예시한다. 도면에서는, 연산된 수면 스코어가 88인 것을 예시한다.First, FIG. 9A illustrates a screen 910 that includes the calculated sleep score, which may be displayed on the display 680 of the mobile terminal 600. In the figure, it illustrates that the calculated sleep score is 88.
다음, 도 9b는, 이동 단말기(600)의 디스플레이(680)에 표시될 수 있는, 수면 상태 정보를 포함하는 화면(920)을 예시한다. 도면에서는, 수면 상태에서 코골이가 제외된 수면 상태 정보가 표시되는 것을 예시한다.Next, FIG. 9B illustrates a screen 920 that includes sleep status information, which may be displayed on the display 680 of the mobile terminal 600. In the figure, it illustrates that the sleep state information without snoring is displayed in the sleep state.
다음, 도 9b는, 이동 단말기(600)의 디스플레이(680)에 표시될 수 있는, 수면 상태 정보를 포함하는 화면(930)을 예시한다. 도면에서는, 수면 상태에서 코골이 정보가 포함된 수면 상태 정보가 표시되는 것을 예시한다.Next, FIG. 9B illustrates a screen 930 including sleep state information that may be displayed on the display 680 of the mobile terminal 600. In the figure, the sleep state information including snoring information is displayed in the sleep state.
이러한 화면(910,920,930)으로 인하여, 사용자는, 자신의 수면 상태 등을 간편하게 파악할 수 있게 된다.Due to the screens 910, 920, and 930, the user can easily grasp his or her sleeping state.
본 발명의 실시예에 따른 수면측정장치, 및 이를 구비하는 수면측정 시스템은, 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.The sleep measurement apparatus according to the embodiment of the present invention, and the sleep measurement system having the same, are not limited to the configuration and method of the embodiments described as described above, the above embodiments may be variously modified. All or some of the embodiments may be configured to be selectively combined so as to.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해어져서는 안될 것이다.In addition, while the preferred embodiments of the present invention have been shown and described above, the present invention is not limited to the specific embodiments described above, but the technical field to which the invention belongs without departing from the spirit of the invention claimed in the claims. Of course, various modifications can be made by those skilled in the art, and these modifications should not be individually understood from the technical spirit or the prospect of the present invention.

Claims (14)

  1. 레이더 신호를 수신하는 레이더 센서;A radar sensor for receiving a radar signal;
    오디오 신호를 수신하는 마이크;A microphone for receiving an audio signal;
    상기 마이크로부터의 오디오 신호에 기초하여, 수면자의 코골이 여부, 및 무호흡 여부를 검출하고, 상기 레이더 신호에 기초하여, 수면자의 움직임, 호흡, 심박 신호를 검출하고, 상기 마이크로부터의 오디오 신호에 기초하여 연산된 코골이 여부 데이터와, 상기 수면자의 움직임, 호흡, 심박 신호에 기초하여, 수면 효율을 연산하는 프로세서;를 포함하는 것을 특징으로 하는 수면측정장치.Based on the audio signal from the microphone, the snoring and apnea of the sleeper are detected, and based on the radar signal, the sleeper's movement, respiration, and heart rate signals are detected and based on the audio signal from the microphone. And a processor that calculates sleep efficiency based on the calculated snoring data and the sleeper's movement, respiration, and heart rate signal.
  2. 제1항에 있어서,The method of claim 1,
    상기 프로세서는,The processor,
    상기 연산된 수면 효율이 제1 기준치 이상인 경우, 상기 수면자의 수면 단계를 연산하는 것을 특징으로 하는 수면측정장치.And when the calculated sleep efficiency is equal to or greater than a first reference value, calculating a sleep stage of the sleeper.
  3. 제2항에 있어서,The method of claim 2,
    상기 프로세서는,The processor,
    상기 연산된 수면 효율, 수면 단계, 코골이 여부 데이터, 및 무호흡증 여부 데이터에 기초하여, 수면 스코어를 연산하는 것을 특징으로 하는 수면측정장치.And a sleep score is calculated based on the calculated sleep efficiency, sleep stage, snoring data, and apnea data.
  4. 제1항에 있어서,The method of claim 1,
    상기 프로세서는,The processor,
    상기 마이크로부터의 오디오 신호로부터 코골이 후보 이벤트를 추출하고, 상기 추출된 코골이 후보 이벤트에 기초하여, 코골이 특징을 추출하고, 상기 추출된 코골이 특징에 기초하여, 수행되는 학습 기반 분류에 따라, 코골이 여부에 대해 연산하는 것을 특징으로 하는 수면측정장치.Extracts a snoring candidate event from the audio signal from the microphone, extracts a snoring feature based on the extracted snoring candidate event, and based on the extracted snoring feature, according to a learning-based classification performed Sleep measurement device, characterized in that the operation for snoring.
  5. 제4항에 있어서,The method of claim 4, wherein
    상기 프로세서는,The processor,
    상기 수면자가 코골이로 연산되는 경우, 상기 마이크로부터의 오디오 신호로부터 무호흡 특징을 추출하고, 상기 추출된 무호흡 특징에 기초하여, 수행되는 학습 기반 분류에 따라, 무호흡 여부에 대해 연산하는 것을 특징으로 하는 수면측정장치.When the sleeper is calculated to be snoring, the apnea feature is extracted from the audio signal from the microphone, and based on the extracted apnea feature, the apnea is calculated according to a learning-based classification performed. Sleep measurement device.
  6. 제1항에 있어서,The method of claim 1,
    상기 프로세서는,The processor,
    상기 검출되는 수면자의 움직임, 호흡, 심박 신호에 기초하여, 상기 수면자가 웨이크(wake) 또는 수면 상태인지 분류하고, 상기 수면 상태인 경우, 렘(Rapid Eye Movement; REM) 수면 상태인지, 또는 비렘(non-REM) 수면 상태인지 분류하는 것을 특징으로 하는 수면측정장치.Based on the detected sleeper's movement, breathing, and heart rate signals, the sleeper is classified as a wake or sleep state, and in the sleep state, whether the sleeper is a rapid eye movement (REM) sleep state or a non-rem non-REM) Sleep measuring device characterized in that the classification of sleep.
  7. 제6항에 있어서,The method of claim 6,
    상기 프로세서는,The processor,
    상기 수면자가 상기 비렘 수면 상태인 경우, 상기 수면자의 수면 단계를 연산하는 것을 특징으로 하는 수면측정장치.The sleep measurement device, characterized in that for calculating the sleep stage of the sleeper, when the sleeper is in the berem sleep state.
  8. 제1항에 있어서,The method of claim 1,
    상기 프로세서는, The processor,
    상기 레이더 신호에 기초하여, 상기 수면자를 검출하고, 상기 수면자가 부재시, 출력되는 출력 레이더 신호의 주기가, 상기 수면자 존재시에 비해, 증가하도록 제어하는 것을 특징으로 하는 수면측정장치.The sleep measurement device, characterized in that for detecting the sleeper based on the radar signal, controls the period of the output radar signal output when the sleeper is absent to increase as compared with when the sleeper is present.
  9. 제1항에 있어서,The method of claim 1,
    전원을 공급하는 전원 공급부;를 더 포함하며,Further comprising; a power supply for supplying power,
    상기 프로세서는,The processor,
    상기 전원 공급부가 배터리를 구비하는 경우, 상기 배터리의 전원 레벨에 따라, 출력되는 출력 레이더 신호의 주기가 달라지도록 제어하는 것을 특징으로 하는 수면측정장치.When the power supply unit is provided with a battery, the sleep measurement device, characterized in that for controlling the cycle of the output radar signal output according to the power level of the battery.
  10. 제1항에 있어서,The method of claim 1,
    상기 프로세서는,The processor,
    상기 마이크로부터의 오디오 신호 중 일정 노이즈에 대한 노이즈 캔슬링을 수행하고, 노이즈 캔슬링된 오디오 신호에 기초하여, 수면자의 코골이 여부, 및 무호흡 여부를 검출하는 것을 특징으로 하는 수면측정장치.And performing noise canceling on a predetermined noise among the audio signals from the microphone, and detecting whether the sleeper is snoring and apnea based on the noise canceled audio signal.
  11. 제1항에 있어서,The method of claim 1,
    상기 마이크로부터의 오디오 신호에 대한 전처리를 수행하는 오디오 변환부;를 더 포함하는 것을 특징으로 하는 수면측정장치.And an audio converter configured to perform preprocessing of the audio signal from the microphone.
  12. 제1항에 있어서,The method of claim 1,
    상기 레이더 센서로부터의 상기 레이더 신호를 증폭하는 신호 증폭부; 및 A signal amplifier for amplifying the radar signal from the radar sensor; And
    상기 신호 증폭부로부터의 상기 레이더 신호를 디지털 신호로 변환하는 변환기;를 더 포함하며,And a converter for converting the radar signal from the signal amplifier into a digital signal.
    상기 변환기에서 변환된 레이더 신호가, 상기 프로세서에 입력되는 것을 특징으로 하는 수면측정장치.And a radar signal converted by the converter is input to the processor.
  13. 단말기; 및terminal; And
    제1항 내지 제12항 중 어느 한 항의 수면측정장치;를 포함하는 것을 특징으로 하는 수면측정 시스템.Sleep measurement system according to any one of claims 1 to 12; comprising a sleep measurement system.
  14. 제13항에 있어서,The method of claim 13,
    상기 단말기는, The terminal,
    상기 수면측정장치에서 연산된 수면 단계 또는 수면 스코어 정보를 출력하는 것을 특징으로 하는 수면측정 시스템.Sleep measurement system, characterized in that for outputting the sleep stage or sleep score information calculated by the sleep measurement device.
PCT/KR2018/010151 2018-08-31 2018-08-31 Sleep measurement device, and sleep measurement system having same WO2020045709A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2018/010151 WO2020045709A1 (en) 2018-08-31 2018-08-31 Sleep measurement device, and sleep measurement system having same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2018/010151 WO2020045709A1 (en) 2018-08-31 2018-08-31 Sleep measurement device, and sleep measurement system having same

Publications (1)

Publication Number Publication Date
WO2020045709A1 true WO2020045709A1 (en) 2020-03-05

Family

ID=69644976

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2018/010151 WO2020045709A1 (en) 2018-08-31 2018-08-31 Sleep measurement device, and sleep measurement system having same

Country Status (1)

Country Link
WO (1) WO2020045709A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114176525A (en) * 2021-12-28 2022-03-15 深圳市伟晴大健康科技有限公司 Sleep quality analysis method and device, computer equipment and storage medium
AU2021107071B4 (en) * 2021-08-24 2022-06-30 Rudder Technology Pty Ltd Radar based non-contact detection of sleep stage

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010094379A (en) * 2008-10-17 2010-04-30 Tanita Corp Sleep evaluation apparatus and sleep evaluation method
KR20120036638A (en) * 2010-10-08 2012-04-18 에이스웨이브텍(주) Healthcare system integrated muti kinds sensor
KR20170057038A (en) * 2015-11-16 2017-05-24 엘지전자 주식회사 Device for analyzing sleep step and operating method thereof
KR20170108462A (en) * 2016-03-17 2017-09-27 경희대학교 산학협력단 System for sleep apnea monitoring
KR20180096176A (en) * 2017-02-20 2018-08-29 가천대학교 산학협력단 Apparatus for analyzing sleeping state and method of analyzing for sleeping state

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010094379A (en) * 2008-10-17 2010-04-30 Tanita Corp Sleep evaluation apparatus and sleep evaluation method
KR20120036638A (en) * 2010-10-08 2012-04-18 에이스웨이브텍(주) Healthcare system integrated muti kinds sensor
KR20170057038A (en) * 2015-11-16 2017-05-24 엘지전자 주식회사 Device for analyzing sleep step and operating method thereof
KR20170108462A (en) * 2016-03-17 2017-09-27 경희대학교 산학협력단 System for sleep apnea monitoring
KR20180096176A (en) * 2017-02-20 2018-08-29 가천대학교 산학협력단 Apparatus for analyzing sleeping state and method of analyzing for sleeping state

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2021107071B4 (en) * 2021-08-24 2022-06-30 Rudder Technology Pty Ltd Radar based non-contact detection of sleep stage
CN114176525A (en) * 2021-12-28 2022-03-15 深圳市伟晴大健康科技有限公司 Sleep quality analysis method and device, computer equipment and storage medium
CN114176525B (en) * 2021-12-28 2023-11-24 深圳市伟晴大健康科技有限公司 Sleep quality analysis method, apparatus, computer device and storage medium

Similar Documents

Publication Publication Date Title
WO2019182226A1 (en) System for processing sound data and method of controlling system
WO2018155951A1 (en) Method of obtaining biometric information in electronic device and electronic device for the same
WO2021015308A1 (en) Robot and trigger word recognition method therefor
WO2017131384A1 (en) Electronic device and control method thereof
WO2015053418A1 (en) Multifunctional sport headset
WO2016003144A1 (en) Operating method for microphones and electronic device supporting the same
WO2020231230A1 (en) Method and apparatus for performing speech recognition with wake on voice
WO2020045709A1 (en) Sleep measurement device, and sleep measurement system having same
WO2020055051A1 (en) Electronic device including electromagnetic sensor module and control method thereof
WO2020045710A1 (en) Sleep measurement device and sleep measurement system including same
WO2020196955A1 (en) Artificial intelligence device and method for operation of artificial intelligence device
WO2020230933A1 (en) Artificial intelligence device for recognizing voice of user and method for same
WO2022119082A1 (en) Method for detecting disaster on basis of artificial intelligence model, and electronic device for performing same
WO2019146970A1 (en) Method for responding to user utterance and electronic device for supporting same
WO2020184748A1 (en) Artificial intelligence device and method for controlling auto-stop system on basis of traffic information
CN107886969B (en) Audio playing method and audio playing device
WO2020091505A1 (en) Electronic device and method for intelligent interaction thereof
WO2017023140A1 (en) Device and method for managing power in electronic device
WO2020013666A1 (en) Method for user voice input processing and electronic device supporting same
WO2018217059A1 (en) Method and electronic device for managing loudness of audio signal
WO2022080612A1 (en) Portable audio device
WO2019221440A1 (en) System for processing user utterance and control method thereof
WO2016182361A1 (en) Gesture recognition method, computing device, and control device
CN111387978A (en) Method, device, equipment and medium for detecting action section of surface electromyogram signal
WO2018129973A1 (en) Power supply control method and apparatus, storage medium, and electronic device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18931492

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18931492

Country of ref document: EP

Kind code of ref document: A1