WO2011010384A1 - 睡眠時無呼吸症候群の検査装置及びプログラム - Google Patents

睡眠時無呼吸症候群の検査装置及びプログラム Download PDF

Info

Publication number
WO2011010384A1
WO2011010384A1 PCT/JP2009/063255 JP2009063255W WO2011010384A1 WO 2011010384 A1 WO2011010384 A1 WO 2011010384A1 JP 2009063255 W JP2009063255 W JP 2009063255W WO 2011010384 A1 WO2011010384 A1 WO 2011010384A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
sound
state
acoustic signal
acoustic
Prior art date
Application number
PCT/JP2009/063255
Other languages
English (en)
French (fr)
Inventor
田中 正清
鈴木 政直
大田 恭士
Original Assignee
富士通株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士通株式会社 filed Critical 富士通株式会社
Priority to JP2011523522A priority Critical patent/JP5177293B2/ja
Priority to EP09847569.2A priority patent/EP2457504B1/en
Priority to PCT/JP2009/063255 priority patent/WO2011010384A1/ja
Publication of WO2011010384A1 publication Critical patent/WO2011010384A1/ja
Priority to US13/355,860 priority patent/US9307950B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B7/00Instruments for auscultation
    • A61B7/003Detecting lung or respiration noise
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4806Sleep evaluation
    • A61B5/4818Sleep apnoea
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7253Details of waveform analysis characterised by using transforms
    • A61B5/7257Details of waveform analysis characterised by using transforms using Fourier transforms

Definitions

  • the present invention relates to a sleep apnea syndrome inspection apparatus that detects an apnea state during sleep.
  • Sleep apnea syndrome is defined as an apnea in which breathing stops for 10 seconds or more, or is observed 30 times or more during 7 hours of sleep, or 5 or more times per hour of sleep. Is done. Sleep apnea syndrome causes symptoms such as intolerable daytime sleepiness, depression, poor concentration, and snoring. In addition, since patients with sleep apnea syndrome themselves are sleeping, the discovery of sleep apnea syndrome is often delayed when there is no family member or the like living together.
  • An object of one embodiment of the present invention is to provide an inspection device for sleep apnea syndrome capable of detecting an apnea state during sleep.
  • This sleep apnea syndrome inspection device includes an analysis unit that analyzes an acoustic signal generated during sleep of a subject collected by the sound collection device, and The analysis result of the analysis unit includes a determination unit that determines whether or not the acoustic signal includes a characteristic sound generated when the sleep state recovers from the apnea state to the respiratory state.
  • Another aspect of the present invention is the aforementioned sleep apnea syndrome testing method.
  • the other aspect of this invention can contain the program which functions an information processing apparatus as a test
  • a sleep apnea state can be detected.
  • FIG. 6 is a diagram illustrating an example in a case where an acoustic signal spans an acoustic frame F and an acoustic frame F-1 immediately before the acoustic frame F.
  • FIG. It is a figure which shows the structural example of the test
  • the sleep apnea syndrome inspection apparatus will be described.
  • a microphone as a sound collecting device is installed at an appropriate position near the sleeping place of the subject, and acoustic signals around the subject and the subject are collected. That is, the subject undergoes a test in a normal sleep state without being constrained such as having a sensor attached to the body.
  • the sleep apnea syndrome inspection apparatus detects an apnea state during sleep of a subject by analyzing an acoustic signal generated by the subject during sleep collected by a microphone and obtaining a frequency characteristic. .
  • a characteristic sound generated immediately before or immediately after an apnea patient transitions from the apnea state to the respiratory state is referred to as a “characteristic sound”.
  • the sleep apnea syndrome inspection apparatus uses characteristic sounds that are likely to occur when a patient with sleep apnea syndrome recovers from the apnea state to detect the sleep apnea state.
  • the characteristic sounds obtained from the survey were as shown below.
  • (Characteristic Sound A) A short breathing sound of about 0.2 seconds to 0.3 seconds, such as breathing or being surprised.
  • (Characteristic sound C) A sound generated by movement of the patient's body. For example, it is a friction sound between a patient and a futon that is generated when the patient moves his / her body.
  • FIGS. 1A and 1B are graphs showing an example of a frequency spectrum of an acoustic signal including a characteristic sound A, a characteristic sound B, and a characteristic sound C.
  • the horizontal axis represents time
  • the vertical axis represents frequency
  • the color shading represents the magnitude of the frequency component.
  • a portion surrounded by a dotted line indicates a characteristic sound A (short breathing sound that holds the patient's breath).
  • a characteristic sound A short breathing sound that holds the patient's breath.
  • the characteristic sound A is followed by a breathing sound and a breathing sound. After the characteristic sound A, it is shown that breathing has recovered.
  • the portion surrounded by the first dotted line indicates the characteristic sound B (short groan).
  • the portion surrounded by the second dotted line indicates the characteristic sound C (the sound of the body moving or the sound of the futon slid by the movement of the body).
  • the characteristic sound B indicates that the patient's breathing is stopped, that is, the patient is in an apnea state.
  • the characteristic sound C a sound similar to that of FIG.
  • the characteristic sound A, the characteristic sound B, and the characteristic sound C may be generated individually or in combination as shown in FIG. 1B.
  • FIG. 2 is a diagram illustrating a configuration example of an inspection system for sleep apnea syndrome.
  • the sleep apnea syndrome test system includes a sleep apnea syndrome test apparatus 1 (hereinafter simply referred to as test apparatus 1) and a microphone 2 that collects sound generated by the subject 3.
  • test apparatus 1 sleep apnea syndrome test apparatus 1
  • microphone 2 that collects sound generated by the subject 3.
  • the inspection device 1 is a device that detects the apnea state of the subject 3 using the characteristic sound A, the characteristic sound B, and the characteristic sound C as shown in FIGS. 1A and 1B.
  • the microphone 2 is arranged close to the subject 3 and facing the subject 3 at a position where the voice uttered by the subject 3 and the body motion sound of the subject 3 can be accurately collected.
  • the microphone 2 is installed above the sleeping place of the subject 3.
  • the microphone 2 is connected to the inspection apparatus 1.
  • the microphone 2 collects sound signals around the subject including breathing sounds and voices generated by the subject 3 and body motion sounds of the subject 3.
  • the microphone 2 outputs the collected acoustic electric signal to the inspection apparatus 1.
  • an acoustic electric signal is referred to as an “acoustic signal”.
  • the inspection apparatus 1 is connected to the microphone 2 and obtains an acoustic signal from the microphone 2 as an input.
  • the inspection apparatus 1 analyzes the input acoustic signal and detects the apnea state of the subject based on the analysis result.
  • the inspection device 1 outputs the detection result of the apnea state to at least one of the network 5, the display 6, the speaker 7, and the secondary storage device 8 to which the inspection device 1 is connected.
  • the inspection device 1 includes an input unit 11, an output unit 15, a CPU (Central Processing Unit) 16, an analog / digital converter (A / D converter) 17, a buffer 18, and a main storage device 19.
  • An information processing apparatus can be applied as the inspection apparatus.
  • the input unit 11 is an interface with an external input device. An acoustic signal is input from the microphone 2 to the input unit 11. The input unit 11 outputs the input acoustic signal to the A / D converter 17.
  • the A / D converter 17 receives an acoustic signal as an input.
  • the A / D converter 17 converts the acoustic signal from an analog signal to a digital signal.
  • the A / D converter 17 outputs the acoustic data converted into the digital signal to the buffer 18.
  • the buffer 18 receives as input the acoustic data converted from the A / D converter 17 into a digital signal.
  • the buffer 18 buffers input sound data.
  • the CPU 16 sequentially extracts the sound signals for one frame from the buffer 18 and performs processing.
  • One frame is a unit time length.
  • One frame is defined, for example, from 1 second to several seconds.
  • an acoustic signal for one frame is referred to as an acoustic frame.
  • the main memory device 19 holds a sleep apnea syndrome test program 19a loaded in the work area.
  • the CPU 16 operates as the acoustic analysis unit 12, the sleep state determination unit 13, and the apnea determination unit 14 by reading and executing the sleep apnea syndrome test program 19 a from the main storage device 19.
  • the acoustic analysis unit 12 obtains an acoustic frame as an input.
  • the acoustic analysis unit 12 analyzes the acoustic frame and calculates a feature amount of the acoustic frame.
  • the feature amount includes, for example, a frequency spectrum of an acoustic frame, a power spectrum of the frequency spectrum, and a sound volume.
  • the acoustic analysis unit 12 outputs the calculated feature amount of the acoustic frame to the sleep state determination unit 13. Details of the acoustic analysis unit 12 will be described later.
  • the sleep state determination unit 13 obtains the feature value of the acoustic frame calculated by the acoustic analysis unit 12 as an input.
  • the sleep state determination unit 13 calculates a parameter (hereinafter referred to as a determination parameter) that is a material for determining the sleep state of the acoustic frame based on the feature value of the acoustic frame.
  • a determination parameter a value obtained based on the feature value of the acoustic frame calculated by the acoustic analysis unit 12 is employed.
  • the determination parameter is a physical quantity representing the frequency characteristics such as the duration of the acoustic signal in the acoustic frame, the formant number, and the dispersion of the power spectrum.
  • the sleep state determination unit 13 holds values of determination parameters (hereinafter referred to as comparison values) calculated in advance for the characteristic sound A, the characteristic sound B, the characteristic sound C, and the respiratory sound.
  • the sleep state determination unit 13 compares the value of the acoustic data determination parameter with the comparison value of the characteristic sounds A to C and the comparison value of the respiratory sound to determine the sleep state of the acoustic frame.
  • the sleep state includes a breathing sound in the acoustic frame, that is, a “breathing state” in which the subject is breathing. Further, the sleep state includes any one of the characteristic sounds A to C in the acoustic frame, that is, the “apnea recovery state” in which the subject transitions from the breathing stop state to the breathing state.
  • the sleep state includes a “no breathing state” in which none of the characteristic sounds A to C and the breathing sound are included in the acoustic frame, that is, the subject's breathing is stopped.
  • the sleep state determination unit 13 outputs the sleep state of the acoustic frame to the apnea determination unit 14. Details of the sleep state determination unit 13 will be described later.
  • the apnea determination unit 14 obtains the sleep state of the acoustic frame as an input from the sleep state determination unit 13.
  • the apnea determination unit 14 checks the sleep state history of the acoustic frame and detects the apnea state of the subject.
  • the apnea determination unit 14 outputs the detection result of the subject's apnea state to the output unit 15. Details of the apnea determination unit 14 will be described later.
  • the output unit 15 is an interface with an external device.
  • the output unit 15 receives the detection result of the apnea state of the subject as an input.
  • the output unit 15 outputs the detection result of the subject's apnea state to any one or more of the network 5, the display 6, the speaker 7, and the secondary storage device 8.
  • the output unit 15 may output a warning sound indicating the detection result of the apnea state from the speaker 7 to notify the subject.
  • the detection result of the subject's apnea state in the sound frame output from the output unit 15 may be stored in the secondary storage device 8.
  • the apnea detection result output from the output unit 15 may be displayed on the display 6.
  • the detection result of the apnea state of the subject output from the output unit 15 may be transmitted through the network 5 to a specialized institution for examination of sleep apnea syndrome.
  • the acoustic analysis unit 12 analyzes the acoustic frame and calculates a feature amount of the acoustic frame. In the first embodiment, the acoustic analysis unit 12 calculates, for example, a frequency power spectrum as the feature amount of the acoustic frame.
  • FIG. 3 is a diagram illustrating a configuration example of the acoustic analysis unit 12.
  • the acoustic analysis unit 12 includes a subframe division unit 121, a time / frequency conversion unit 122, and a power spectrum calculation unit 123.
  • the subframe dividing unit 121 obtains an acoustic frame as an input.
  • the subframe dividing unit 121 divides the acoustic frame into subframes having a predetermined time length. When the time length of the acoustic frame is 2 seconds, the subframe dividing unit 121 divides the acoustic frame into 100 equal parts, for example, and divides the sound frame into 20 millisecond subframes as a predetermined time length.
  • the subframe dividing unit 121 outputs the acoustic frame divided into subframes to the time / frequency converting unit 122.
  • the time / frequency converter 122 obtains as input an acoustic frame divided into subframes.
  • the time / frequency conversion unit 122 performs Fourier transform in units of subframes, and converts time domain acoustic signals into frequency domain signals.
  • the time / frequency conversion unit 122 finishes calculating the frequency spectrum of all subframes included in one frame, the time / frequency conversion unit 122 outputs the frequency spectrum of all subframes included in the calculated one frame to the power spectrum calculation unit 123.
  • the power spectrum calculation unit 123 receives the frequency spectrum of all subframes included in one frame calculated by the time / frequency conversion unit 122 as an input.
  • the power spectrum calculation unit 123 calculates the power spectrum of each subframe from the frequency spectrum of each subframe.
  • the power spectrum calculation unit 123 outputs the power spectrum of all subframes included in the calculated one frame.
  • the sleep state determination unit 13 calculates the value of the acoustic frame determination parameter from the feature value of the acoustic frame, compares it with the comparison values of the characteristic sounds A to C and the respiratory sound that are calculated in advance, and sleep state of the acoustic frame To decide.
  • the sleep state determination unit 13 calculates the value of the determination parameter based on information obtained from the power spectrum of all subframes included in one frame input from the acoustic analysis unit 12.
  • the determination parameter the duration of the acoustic signal included in the acoustic frame, the number of formants, and the dispersion of the fine structure power spectrum are used.
  • FIG. 4 is a diagram illustrating a configuration example of the sleep state determination unit 13.
  • the sleep state determination unit 13 includes a signal duration calculation unit 131, a frequency characteristic comparison unit 132, and a storage unit 133.
  • the storage unit 133 is created in the storage area of the main storage device 19.
  • the storage unit 133 stores comparison values of the characteristic sound A, the characteristic sound B, the characteristic sound C, and the respiratory sound.
  • the breathing sound is a series of sounds generated in association with a breathing operation and a breathing operation, that is, sounds such as sleeping and snoring.
  • the types of comparison values of the characteristic sound A, the characteristic sound B, the characteristic sound C, and the respiratory sound and the value of the determination parameter calculated from the input acoustic frame are the same type.
  • the duration of an acoustic signal and information obtained from the frequency characteristics of the acoustic signal are used as determination parameters.
  • the information obtained from the frequency characteristics of the acoustic signal includes, for example, the formant number and the dispersion value of the fine structure power spectrum.
  • FIG. 5A, FIG. 5B, and FIG. 5C are diagrams showing examples of frequency characteristics of breathing sound, characteristic sound B, and characteristic sound C, respectively.
  • the information obtained from the frequency characteristics that is, the determination parameter, the duration of the acoustic signal, the number of formants, and the dispersion of the fine structure power spectrum are shown. .
  • FIG. 5A is a diagram illustrating an example of frequency characteristics of breathing sound.
  • the range of the duration of the acoustic signal of the breathing sound is 0.5 to 2.0 seconds.
  • the range of the formant number of the breathing sound is 0 to 1.
  • the dispersion of the fine structure power spectrum of the respiratory sound which shows the variation from the average of the power spectrum, It can take a certain range of values.
  • the relationship between the frequency of the characteristic sound A, that is, the short breathing sound, and the power spectrum is similar to the graph showing the relationship between the frequency and the power spectrum of the breathing sound shown in FIG. 5A.
  • the duration of the acoustic signal of the characteristic sound A is 0.2 seconds to 0.3 seconds.
  • the graph showing the relationship between the frequency of the characteristic sound A and the power spectrum is similar to the graph showing the relationship between the frequency of the breathing sound and the power spectrum shown in FIG. 5A, so the number of formants contained in the characteristic sound A
  • the range is 0 to 1.
  • the dispersion of the fine structure power spectrum of the characteristic sound A can also take a value that approximates the dispersion of the power spectrum of the fine structure of the respiratory sound.
  • FIG. 5B is a diagram showing an example of the characteristic sound B, that is, the frequency characteristic of the roar.
  • the range of the duration time of the acoustic signal of the characteristic sound B is from 0.1 seconds to 0.3 seconds.
  • the graph showing the relationship between the frequency of the characteristic sound B and the power spectrum shows two to three distinct peaks.
  • the range of the number of formants included in the characteristic sound B is 2 to 4.
  • FIG. 5C is a diagram showing an example of the frequency characteristic of the characteristic sound C, that is, the sound of the subject's body moving.
  • the range of the duration of the acoustic signal of the characteristic sound C is 0.5 seconds to 3.0 seconds.
  • the graph showing the relationship between the frequency of the characteristic sound C and the power spectrum is flat with no clear peak. Since there is no clear peak in the graph showing the relationship between the frequency of the characteristic sound C and the power spectrum, the number of formants included in the characteristic sound C is zero.
  • the graph showing the relationship between the frequency of the characteristic sound C and the power spectrum shown in FIG. 5C is compared with the graph showing the relationship between the frequency of the breathing sound and the power spectrum shown in FIG. The fluctuation of the value of the power spectrum is smaller. Therefore, the dispersion value of the fine structure power spectrum of the characteristic sound C is smaller than the dispersion value of the fine structure power spectrum of the respiratory sound.
  • FIG. 6 is an example of a table summarizing the frequency characteristics of breathing sound, characteristic sound A, characteristic sound B, and characteristic sound C.
  • the range of dispersion of the fine structure power spectrum is classified into “large”, “medium”, and “small” in advance, and the values of the dispersion of the fine structure power spectrum of respiratory sounds can be taken.
  • An example when the range is defined as “medium” is shown.
  • the dispersion of the fine structure power spectrum of the characteristic sound A is “medium” which is the same as the breathing sound.
  • the graph of the characteristic sound B is better.
  • the dispersion of power spectrum values is large. Therefore, the dispersion value of the fine structure power spectrum of the characteristic sound B is “large”.
  • the graph of the characteristic sound C is better.
  • the dispersion of power spectrum values is small. Therefore, the dispersion value of the fine structure power spectrum of the characteristic sound C is “small”.
  • the signal duration calculation unit 131 receives the power spectrum of all subframes included in one frame as an input.
  • the signal duration calculation unit 131 calculates the duration of the acoustic signal included in the acoustic frame from the power spectrum of all subframes included in one frame.
  • FIG. 7 is a diagram illustrating an example of a flow of a duration calculation process of an acoustic signal by the signal duration calculation unit 131.
  • the signal duration calculation unit 131 obtains a correlation coefficient r T (t) between the acoustic signal in the subframe T and the acoustic signal in the subframe Tt that is temporally previous. Calculate the duration of the acoustic signal.
  • the number of subframes included in the acoustic frame is determined as M (M is a natural number not including 0).
  • the signal duration calculation unit 131 starts the acoustic signal duration calculation process.
  • the range of the variable T indicating the subframe is 1 ⁇ T ⁇ M ⁇ 1.
  • the range of the variable t indicating the number of subframes temporally before the subframe T is 1 ⁇ t ⁇ T.
  • the signal duration calculation unit 131 calculates a correlation coefficient r T (t) between the acoustic signal included in the subframe T and the acoustic signal included in the subframe Tt using the following Equation 1 ( OP3).
  • the correlation coefficient r T (t) between the acoustic signal included in the subframe T and the acoustic signal included in the subframe Tt is “correlation coefficient r between the subframe T and the subframe Tt”. T (t) ".
  • the signal duration calculation unit 131 determines whether or not the calculated value of the correlation coefficient r T (t) between the subframe T and the subframe Tt is equal to or greater than a predetermined threshold (OP4).
  • a predetermined threshold is 0.7.
  • the acoustic signal included in the subframe T and the subframe T-t are regarded as the same acoustic signal. That is, when the value of the correlation coefficient r T (t) between the subframe T and the subframe Tt is equal to or greater than the threshold value, the acoustic signal continues from the subframe Tt to the subframe T. It is shown.
  • the signal duration calculation unit 131 sets t to the variable T It is determined whether it is smaller (OP5). That is, it is determined whether or not there is a subframe Tt preceding the subframe T in time.
  • the subframe T-t for which the correlation coefficient r T (t) with the subframe T is not obtained is temporally before the subframe T. It is shown to exist. That is, it is indicated that the process for obtaining the correlation coefficient r T (t) for the subframe T is continued.
  • the correlation coefficient r T (t) with the subframe T has been obtained for all subframes temporally before the subframe T. Indicated. That is, for the subframe T, the process for obtaining the correlation coefficient r T (t) is completed. At this time, the process moves to OP9 and moves to a process for obtaining the correlation coefficient r T (t) for the subframe T + 1 next to the subframe T.
  • the signal duration calculation unit 131 calculates the subframe T and the subframe T from The process of obtaining the correlation coefficient r T (t) with respect to the previous subframe in time is terminated.
  • the signal duration calculation unit 131 determines the boundary between the subframe Tt and the subframe Tt + 1 as the boundary of the duration of the acoustic signal (OP7).
  • the duration of the acoustic signal is simply referred to as “section”.
  • the signal duration calculation unit 131 determines whether or not the variable T is smaller than M ⁇ 1 (OP8). That is, the signal duration calculation unit 131, for all subframes T included in the acoustic frame, a correlation coefficient r T (t) between the subframe T and the subframe Tt temporally preceding the subframe T. It is determined whether or not the process for obtaining is completed.
  • variable T is smaller than M ⁇ 1 (OP8: Yes)
  • the signal duration calculation unit 131 determines the duration of the acoustic signal based on the boundary between the intervals determined in OP7, and calculates the duration of the acoustic signal included in each interval (OP10).
  • the signal duration calculation unit 131 calculates the number of subframes included in each section, and calculates the duration of the acoustic signal in each section.
  • the time length of an acoustic frame is 2 seconds and the time length of a subframe is 20 milliseconds, which is 1 / 100th of an acoustic frame, when 5 subframes are included in one section Is calculated assuming that the duration of the acoustic signal in that section is 0.1 seconds.
  • FIG. 8 is a diagram for explaining the acoustic signal duration calculation process of FIG.
  • the first subframe of the acoustic frame is indicated as subframe 0, and is indicated as subframe 1, subframe 2,... Along the time axis.
  • subframes 0 to 17 of the acoustic frame are shown.
  • the vertical axis indicates the value of the variable T indicating the subframe
  • the horizontal axis indicates the value of the subframe Tt that is t before the subframe T.
  • the value described in the coordinates (T, Tt) of the table T1 is the value of the correlation coefficient r T (t) between the subframe T and the subframe Tt that is temporally previous from the subframe T by t. Indicates.
  • the table T1 is created as follows according to the flow shown in FIG.
  • the correlation coefficient r T (t) between the subframe T and the subframe Tt temporally prior to the subframe T is calculated for all subframes T included in the acoustic frame.
  • the signal duration calculation unit 131 obtains the duration of the acoustic signal.
  • the boundary of the duration of the acoustic signal is determined between the coordinates that are less than “0.7” and the coordinates that are “0.7” or more in the table T1.
  • the signal duration calculation unit 131 detects the section A including the subframe 8 to the subframe 13 and the section B including the subframe 16 and the subframe 17.
  • the signal duration calculation unit 131 calculates the duration of the acoustic signal for each of the sections A and B.
  • the time length of the subframe is 0.02 seconds. Therefore, in the example shown in FIG. 8, the duration of the section A is 0.12 seconds (0.02 seconds ⁇ 6).
  • the duration of section B is 0.04 seconds (0.02 seconds ⁇ 2).
  • the signal duration calculation unit 131 outputs the duration of each acoustic signal included in the acoustic frame and the duration of the acoustic signal in the duration of the acoustic signal to the frequency characteristic comparison unit 132.
  • the frequency characteristic comparison unit 132 receives as input the power spectrum of all subframes included in one frame, the duration of the acoustic signal included in the corresponding acoustic frame, and the duration of the duration of each acoustic signal.
  • the frequency characteristic comparison unit 132 extracts only the duration of the acoustic signal in which the duration of the acoustic signal is a certain value or more from the acoustic frame.
  • the duration of the acoustic signal is equal to or greater than a certain value.
  • the duration of the acoustic signal of the characteristic sound C is 0.1 second to 0.3 second, so the duration of the acoustic signal included in the acoustic frame is 0. 0. It means that it is 1 second or more.
  • the frequency characteristic comparison unit 132 calculates an average power spectrum for the extracted section. From the average power spectrum of the extracted section, the frequency characteristic comparison unit 132 separates the acoustic signal in the extracted section into an envelope portion and a fine structure portion using a known method such as a cepstrum analysis method. The frequency characteristic comparison unit 132 calculates the power spectrum of the separated envelope part. The frequency characteristic comparison unit 132 obtains the number of maximum values (peaks) of the power spectrum of the envelope portion and sets it as the formant number. At this time, a minute peak may be excluded from the formant number.
  • the frequency characteristic comparison unit 132 calculates the variance of the power spectrum of the fine structure of the acoustic signal in the extracted section using the following Equation 2.
  • the frequency characteristic comparison unit 132 calculates the formant number and the dispersion value of the fine structure power spectrum for each section in which the duration of the acoustic signal included in the acoustic frame is a certain value or more.
  • the frequency characteristic comparison unit 132 extracts the section A in the case of the acoustic signal shown in FIG.
  • the frequency characteristic comparison unit 132 calculates the formant number and the dispersion value of the fine structure power spectrum of the extracted acoustic signal included in the section A.
  • the frequency characteristic comparison unit 132 compares the formant number of the acoustic signal and the dispersion of the fine structure power spectrum in each extracted section, and the comparison value of the formant number of the characteristic sounds A to C and respiratory sound and the dispersion of the fine structure power spectrum. Compare with each of the ranges.
  • the formant number of the acoustic signal included in the section and the dispersion value of the fine structure power spectrum are referred to as “sleep state determination parameters”.
  • the frequency characteristic comparison unit 132 displays the characteristic sound in the section. Detect inclusion. That the characteristic sound is included in the section indicates that the characteristic sound is included in the acoustic frame having the section.
  • the state in which the characteristic sound is included in the acoustic frame is called “an apnea recovery state” in which the subject transitions from the breathing stop state to the breathing state. That is, the frequency characteristic comparison unit 132 determines that the sleep state of the acoustic frame is the “apnea recovery state” when at least one of the extracted intervals includes a characteristic sound.
  • the frequency characteristic comparison unit 132 determines that the section includes the breathing sound. To detect.
  • the frequency characteristic comparison unit 132 determines the sleep state of the sound frame when no extracted sound includes a feature sound and at least one of the extracted sections includes a breathing sound. It is determined that the patient is breathing.
  • the frequency characteristic comparison unit 132 detects that neither the characteristic sound nor the respiratory sound is included in the acoustic frame when none of the extracted sections includes the characteristic sound or the respiratory sound. If the sound frame does not include a feature sound or a breathing sound, it is estimated that the subject is in a breathing stop state. A state in which the subject is inferred to be in a respiratory stop state is defined as a “no breathing state”. That is, if the value of any sleep state determination parameter in the extracted section is not included in the comparison value range of any sleep state determination parameter of characteristic sounds A to C and respiratory sound, the frequency characteristics The comparison unit 132 determines that the sleep state of the acoustic frame is the “no breathing state”.
  • the sleep state of the acoustic signal of the example shown in FIG. It is determined.
  • the frequency characteristic comparison unit 132 outputs one of the “apnea recovery state”, the “respiration state”, and the “no respiration state” to the apnea determination unit 14 as the determination result of the sleep state of the sound frame.
  • FIG. 9 is a diagram illustrating an example of a flow of sleep state determination processing of an acoustic frame by the frequency characteristic comparison unit 132.
  • the frame sleep state determination process is started.
  • the frequency characteristic comparison unit 132 determines whether or not a section in which the duration of the acoustic signal is a certain value or more is included in the acoustic frame (OP12). For example, the frequency characteristic comparison unit 132 determines whether the duration of the acoustic signal is 0.1 seconds or longer for each section included in the acoustic frame.
  • the frequency characteristic comparison unit 132 extracts the section in which the duration of the acoustic signal has a certain value or more.
  • the frequency characteristic comparison unit 132 calculates the frequency characteristic of the acoustic signal within the duration for each extracted section (OP13).
  • the calculated frequency characteristic is the formant number, the dispersion of the fine structure power spectrum, and the like, and is calculated based on the power spectrum of the subframe included in each section.
  • the frequency characteristic comparison unit 132 compares the extracted frequency characteristic value of the acoustic signal of each section with the range of comparison values of the frequency characteristics of the characteristic sounds A to C stored in the storage unit 133, and extracts them. It is determined whether or not a characteristic sound is included in any of the sections (OP14).
  • the frequency characteristic comparison unit 132 determines the sleep state of the acoustic frame as the “apnea recovery state” (OP16).
  • the frequency characteristic comparison unit 132 outputs “an apnea recovery state” as the sleep state of the sound frame, and ends the sleep state determination process of the sound frame.
  • the frequency characteristic comparison unit 132 determines whether or not at least one of the extracted sections includes a breathing sound. (OP15).
  • the frequency characteristic comparison unit 132 determines the sleep state of the acoustic frame to be “with breathing” (OP17).
  • the frequency characteristic comparison unit 132 outputs “state with breath” as the sleep state of the acoustic frame, and ends the sleep state determination process of the acoustic frame.
  • the frequency characteristic comparison unit 132 determines the sleep state of the acoustic frame to be “no breathing state” ( OP18). Further, when none of the extracted sections includes the feature sound and the breathing sound (OP15; No), the frequency characteristic comparison unit 132 determines the sleep state of the acoustic frame to be “no breathing state” (OP18). ). The frequency characteristic comparison unit 132 outputs “no breathing state” as the sleep state of the sound frame, and ends the sleep state determination process of the sound frame.
  • the apnea determination unit 14 receives as input any one of “sleep state”, “no breath state”, and “apnea recovery state”, which are sleep states of the acoustic frame.
  • the apnea determination unit 14 detects the apnea state of the subject based on the sleep state history of the acoustic frame.
  • FIG. 10 is a diagram illustrating a configuration example of the apnea determination unit 14.
  • the apnea determination unit 14 includes a state transition investigation unit 141, a delay element 142, and a state memory 143.
  • the sleep state of the input sound frame is input to the state transition investigation unit 141 and the delay element 142.
  • the delay element 142 stores the sleep state of the acoustic frame in the state memory 143 with a delay of one frame process. That is, the delay element 142 once holds the sleep state of the acoustic frame, and stores the sleep state of the previous acoustic frame in the state memory 143 when the sleep state of the next acoustic frame is input. Store.
  • the state memory 143 stores the sleep state of the sound frame in order along the time series.
  • the state memory 143 stores a history of sleep states of sound frames for several minutes, for example, going back in time from the current sound frame.
  • the state transition investigation unit 141 obtains the sleep state of the acoustic frame as an input.
  • the sleep state of the acoustic frame is “apnea recovery state”
  • the state transition investigation unit 141 retrospectively investigates the sleep state history of the acoustic frame stored in the state memory 143.
  • FIG. 11 is a graph showing an example of breathing during sleep of a patient with sleep apnea syndrome.
  • Patients with sleep apnea syndrome transition from a breathing state to a respiratory arrest state during sleep. After a certain period of time (for example, about 10 seconds to 2 minutes) has elapsed in the respiratory stop state, a characteristic sound is generated, and a patient with sleep apnea syndrome begins to breathe. That is, a patient with sleep apnea syndrome sleeps in a state with breathing, then continues in a state without breathing for a certain period of time, and transitions to an apnea recovery state.
  • a certain period of time for example, about 10 seconds to 2 minutes
  • the state transition investigation unit 141 uses that the sleep state of the patient with sleep apnea syndrome changes in the order of “with breathing” and “without breathing” for a certain period of time, followed by “apnea recovery state”. Detect the apnea state of the subject. That is, when the sleep state of the acoustic frame is “apnea recovery state”, the state transition investigation unit 141 investigates the sleep state history of the acoustic frame stored in the state memory 143. The state transition investigation unit 141 investigates whether or not the “no breathing state” continues for a predetermined time before the current sound frame, and whether or not the “no breathing state” exists before the “no breathing state”.
  • the state transition investigation unit 141 indicates that the subject's sleep state has changed in the order of “with breathing” and “without breathing” for a certain period of time and then with “apnea recovery state”. Detect that is apnea.
  • the state transition investigation unit 141 ends the process when the sleep state of the sound frame is “with breathing” and “without breathing”.
  • the state transition investigation unit 141 outputs the detection result of the apnea state to the output unit 15.
  • FIG. 12 is a diagram showing a flow of an example of apnea state detection processing of the state transition investigation unit 141 of the apnea determination unit 14.
  • the state transition survey unit 141 starts the apnea state determination process when the sleep state of the current acoustic frame is input from the sleep state determination unit 13.
  • the state transition investigation unit 141 determines whether or not the sleep state of the current sound frame is “an apnea recovery state” (OP21).
  • the state transition investigation unit 141 performs apnea. The state determination process ends.
  • the state transition investigation unit 141 performs a retrospective investigation of the sleep state history of the acoustic frame stored in the state memory 143. To do.
  • the state transition investigation unit 141 examines the sleep state history of the acoustic frame retroactively, and investigates whether the “no breathing state” continues for a predetermined time before the current acoustic frame (OP22). If the state of not breathing continues for 10 seconds or more, it is determined as an apnea state. However, when the state where the subject is not breathing continues for several minutes or more, it is possible that the microphone for recording the sound is facing the opposite direction to the subject. Therefore, the state transition investigation unit 141 investigates whether or not the “no breathing state” continues for, for example, 10 seconds or more and less than 2 minutes.
  • the duration of the “no breathing state” can be detected by the number of consecutive sound frames in which the sleep state is the “no breathing state”. For example, when one acoustic frame is 2 seconds, when 5 or more acoustic frames whose sleep state is “no breathing” are continuous, “no breathing state” continues for 10 seconds or more. Is detected.
  • the state transition investigation unit 141 ends the apnea state determination process.
  • the state transition investigation unit 141 investigates whether there is a “breathing state” before the “no breathing state”. (OP23). If there is no “breathing state” before the “no breathing state” (OP23: No), it is not possible to determine that the subject is in an apnea state, so the state transition investigation unit 141 determines the apnea state. The process ends.
  • the state transition investigating unit 141 detects that the subject is in an apnea state (OP24).
  • the state transition investigation unit 141 outputs the apnea state detection result to the output unit 15 and ends the apnea state detection process.
  • FIG. 13 is a diagram illustrating a flow of an example of an inspection process for sleep apnea syndrome of the inspection apparatus 1.
  • Subject 3 starts testing sleep apnea syndrome by activating testing device 1 at bedtime.
  • the subject 3 directs the microphone 2 (FIG. 2) in a direction in which the breathing sound and voice emitted by the subject 3 and the body motion sound of the subject can be collected with high accuracy.
  • the microphone 2 is arranged above the sleeping position of the subject 3. Subject 3 then goes to bed.
  • test apparatus 1 When the test apparatus 1 accepts a sleep apnea syndrome test operation from the subject 3, the test apparatus 1 starts a sleep apnea syndrome test process.
  • the input unit 11 of the inspection apparatus 1 receives an input of an acoustic signal from the microphone 2 (OP31).
  • the acoustic signal is converted into an acoustic frame via the analog / digital converter 17 (FIG. 2) and the buffer 18 (FIG. 2), and is input to the subframe division 121 of the acoustic analysis unit 12.
  • the subframe dividing unit 121 divides the acoustic frame into subframes (OP32).
  • the subframe dividing unit 121 outputs the acoustic frame divided into subframes to the time / frequency converting unit 122.
  • the time / frequency conversion unit 122 of the acoustic analysis unit 12 performs Fourier transform on the acoustic signal included in the acoustic frame to convert the acoustic signal into a frequency domain acoustic signal.
  • the time / frequency conversion unit 122 outputs the acoustic frame converted into the frequency domain acoustic signal to the power spectrum calculation unit 123.
  • the power spectrum calculation unit 123 calculates a power spectrum as a feature amount for each subframe included in the acoustic frame (OP33).
  • the power spectrum calculation unit 123 outputs the power spectra of all subframes included in the calculated acoustic frame to the sleep state determination unit 13.
  • the sleep state determination unit 13 When the power spectrums of all subframes included in the acoustic frame are input, the sleep state determination unit 13 performs, for example, the acoustic signal duration calculation process illustrated in FIG. 7 and the sleep state determination process illustrated in FIG. Execute and determine the sleep state of the acoustic frame (OP34). The sleep state determination unit 13 outputs the determined sleep state of the acoustic frame to the apnea determination unit 14.
  • the apnea determination unit 14 executes the apnea state detection process shown in FIG. 12, for example, and determines the apnea state of the subject from the sleep state history of the acoustic frame. Detect (OP35). The apnea determination unit 14 outputs the detection result of the apnea state of the subject to the output unit 15 (FIG. 2).
  • the output unit 15 outputs an apnea detection result to at least one of the network 5, the display 6, the speaker 7, and the secondary storage device 8.
  • the inspection apparatus 1 determines whether or not the test operation for the sleep apnea syndrome has been performed by the subject 3 (OP36).
  • OP36 the test operation for the sleep apnea syndrome test
  • the process returns to OP31. That is, the process from OP31 to OP35 is repeated while the subject 3 is sleeping.
  • test apparatus 1 When the test subject 3 gets up, operates the test apparatus 1 and performs an operation for ending the sleep apnea syndrome, the test apparatus 1 detects the end operation (OP36: Yes), and the test for the sleep apnea syndrome is performed. finish.
  • the sleep apnea syndrome test apparatus 1 uses a characteristic sound generated when a patient with sleep apnea syndrome transitions from an apnea state to a breathing state, and the subject's apnea state Is detected. That is, the sound of the subject during sleep is analyzed, and whether or not the subject is in an apnea state is determined based on whether or not the characteristic sound is included. Therefore, a simple sleep apnea syndrome test using sound can be performed without attaching an instrument to the subject. Furthermore, since the determination is performed using the frequency characteristics obtained by sound analysis, it is possible to prevent false detection of apnea conditions and accuracy of detection of apnea conditions compared to the case where determination is made based only on volume. Will improve.
  • the inspection apparatus 1 determines whether or not the acoustic signal included in the acoustic frame is a characteristic sound and a breathing sound, and sets the sleep state of the acoustic frame to “with breathing”, “without breathing”, and “apnea recovery”. It is determined as one of “state”.
  • the inspection apparatus 1 investigates the history of the sleep state of the sound frame, and the sleep state is “respiratory state”, “no respiration” state. It is determined whether or not has transitioned in the order of “apnea recovery state” for a certain period of time.
  • the inspection apparatus 1 confirms that the subject is in an apneic state when the sleep state of the sound frame transitions in the order of “with breathing”, “without breathing” for a certain period of time, and “apnea recovery state” in this order. To detect. Thereby, erroneous detection of an apnea state due to erroneous detection of a characteristic sound or the like can be prevented, and the accuracy of detection of the apnea state can be increased.
  • the sleep apnea syndrome can be easily tested by the test apparatus 1.
  • the subject Upon receiving the test result of the sleep apnea syndrome of the test apparatus 1, the subject can know his / her sleep apnea condition, and when there is a suspicion of the sleep apnea syndrome, Can make judgments to receive an examination.
  • the sleep state determination unit 13 and the apnea determination unit 14 of the inspection device 1 according to the first embodiment may be configured as follows.
  • the sleep state determination unit 13 detects that the characteristic sound is included in the acoustic frame
  • the sleep state determination unit 13 outputs a detection result indicating that the characteristic sound is detected to the apnea determination unit 14.
  • the detection result indicating that the characteristic sound is detected is input from the sleep state determination unit 13
  • the apnea determination unit 14 detects that the sleep state of the subject is the apnea state.
  • the apnea determination unit 14 outputs the detection result of the apnea state to the output unit 15 (FIG. 2).
  • the signal duration calculation unit 131 of the inspection apparatus 1 obtained the duration of the acoustic signal as described in the example shown in FIGS.
  • the signal duration calculation unit 131 may determine in advance the number of subframes Tt going back in time for obtaining a correlation coefficient with the reference subframe T.
  • the number w of subframes that go back in time including the reference subframe T is called a window size.
  • the signal duration calculation unit 131 obtains the correlation coefficient between each subframe included in the window and the reference subframe
  • the signal duration calculation unit 131 obtains the correlation coefficient for the next reference subframe T-1 by shifting the window. .
  • the signal duration calculation unit 131 calculates the correlation coefficient between the reference subframe T and the subframe T-1 immediately before it, and then shifts the window to Further, let subframe T-1 be a reference subframe.
  • the signal duration calculation unit 131 obtains a correlation coefficient between the reference subframe T-1 and the subframe T-2 included in the window. Further, the signal duration calculation unit 131 shifts the window, sets the reference to the subframe T-2, and obtains a correlation coefficient between the subframe T-2 and the subframe T-3 included in the window. In this way, the signal duration calculation unit 131 shifts the window so as to go back in time, and calculates the correlation coefficient while shifting the reference subframe.
  • the acoustic signal in the reference subframe T and the acoustic signal in the subframe Tt at that time are regarded as different acoustic signals.
  • the signal duration calculation unit 131 determines the boundary between the subframe Tt and the subframe Tt + 1 as the boundary of the duration of the acoustic signal.
  • test apparatus for sleep apnea syndrome according to the second embodiment has a configuration common to the configuration of the test apparatus 1 according to the first embodiment, only differences will be described.
  • the sleep apnea syndrome test apparatus according to the second embodiment is different from the test apparatus 1 according to the first embodiment in the configuration of the sleep state determination unit 13.
  • FIG. 14 is a diagram illustrating a configuration example of the sleep state determination unit 13b of the inspection apparatus according to the second embodiment.
  • the sleep state determination unit 13b of the second embodiment includes a signal duration calculation unit 131b, a frequency characteristic comparison unit 132b, a storage unit 133, a delay element 134, and a power spectrum storage unit 135.
  • the power spectrum of all subframes included in the acoustic frame is input to the sleep state determination unit 13b, the power spectrum of all subframes included in the acoustic frame is converted into the delay element 134, the signal duration calculation unit 131b, and the frequency characteristics.
  • the data is input to the comparison unit 132b.
  • the delay element 134 delays by one frame processing, and the power spectrum storage unit 135 powers all subframes included in one acoustic frame. Store the spectrum.
  • the power spectrum storage unit 135 stores the power spectrum of all subframes included in the acoustic frame for a predetermined time.
  • the signal duration calculation unit 131b obtains the power spectrum of all subframes included in one acoustic frame as an input.
  • the signal duration calculation unit 131b calculates the duration and duration of the acoustic signal included in the acoustic frame based on the power spectrum of all subframes included in one acoustic frame.
  • the duration calculation process of the acoustic signal included in the acoustic frame may be the same as the processing described in the signal duration calculation unit 131 of the first embodiment.
  • the signal duration calculation unit 131b obtains a correlation coefficient r T (t) between the subframe T and the subframe Tt temporally preceding the subframe T by using, for example, Equation 1.
  • the initial value of the variable T indicating the number of the subframe is 1.
  • the signal duration calculation unit 131 of the second embodiment treats the initial value of the variable T indicating the subframe number as 0.
  • FIG. 15 is a diagram illustrating an example of a flow of acoustic signal duration calculation processing executed by the signal duration calculation unit 131b.
  • the head subframe included in the currently processed acoustic frame F (F is a natural number including 0) is represented as a subframe (F, 0).
  • the T + 1th subframe from the beginning included in the acoustic frame F is represented as a subframe (F, T).
  • the signal duration calculation unit 131b starts the acoustic signal duration calculation process.
  • the range of the variable T indicating the subframe is 0 ⁇ T ⁇ M ⁇ 1 (M is the number of subframes included in one frame).
  • the range of the variable t is 1 ⁇ t.
  • the signal duration calculation unit 131b determines whether Tt is smaller than 0 (OP43).
  • the signal duration calculation unit 131b includes the subframe (F, T) included in the acoustic frame F and the subframe included in the acoustic frame F-1.
  • a correlation coefficient r T (t) with the frame (F ⁇ 1, M + T ⁇ t) is obtained (OP44).
  • the signal duration calculation unit 131b reads the value of the power spectrum of the subframe (F-1, M + Tt) included in the acoustic frame F-1 immediately before the acoustic frame F from the power spectrum storage unit 135, and uses Equation 1 Is used to find the correlation coefficient r T (t).
  • the signal duration calculation unit 131b correlates the correlation coefficient r T (T) between the subframe (F, T) and the t-th previous subframe (F, Tt) when viewed from the subframe (F, T). t) is obtained (OP45).
  • the signal duration calculation unit 131b obtains the correlation coefficient r T (t) using Equation 1.
  • the signal duration calculation unit 131b determines whether or not the calculated value of the correlation coefficient r T (t) is equal to or greater than a predetermined threshold (OP46).
  • a predetermined threshold is 0.7.
  • the acoustic signal included in the subframe (F, T) and the subframe (F, Tt) are considered to be the same acoustic signal.
  • the acoustic signal included in the subframe (F, T) and the subframe (F-1, M + T ⁇ t) are considered to be the same acoustic signal.
  • the acoustic signal included in the subframe (F, T) and the subframe (F, T ⁇ t) ) are considered to be different acoustic signals.
  • the acoustic signal included in the subframe (F, T) and the subframe (F ⁇ 1) , M + T ⁇ t) are considered to be different acoustic signals.
  • the signal duration calculation unit 131b subframe (F, T) and subframe (F, T)
  • the process of obtaining the correlation coefficient r T (t) with the t-th previous subframe is terminated.
  • the signal duration calculation unit 131b adds the subframe (F, Tt) and the next one Is defined as the boundary of the duration of the acoustic signal (OP48). Alternatively, the signal duration calculation unit 131b determines the boundary between the subframe (F ⁇ 1, M + T ⁇ t) and the next subframe as the boundary of the duration of the acoustic signal (OP48).
  • the signal duration calculation unit 131b determines whether or not the variable T is smaller than M ⁇ 1 (OP49). That is, the signal duration calculation unit 131b, for all subframes (F, T) included in the acoustic frame F, correlation coefficient r T (t with t subframes before the subframe (F, T). ) To determine whether or not the processing for obtaining is completed.
  • variable T is smaller than M ⁇ 1 (OP49: Yes)
  • all the subframes (F, T) included in the acoustic frame F are compared with the t-th previous subframe from the subframe (F, T). It is indicated that the process for obtaining the correlation coefficient r T (t) is not completed.
  • the signal duration calculation unit 131b determines a section in which the acoustic signal lasts based on the section boundary determined in OP48, and calculates the duration of the acoustic signal included in each section (OP51).
  • the signal duration calculation unit 131 calculates the number of subframes included in each section, and calculates the duration of the acoustic signal in each section.
  • the signal duration calculation unit 131b performs the subframe (F, T) and the subframe (F, T) until the value of the correlation coefficient r T (t) with the subframe (F, T) is equal to or less than the threshold value. Then, a process for obtaining a correlation coefficient r T (t) with the t-th subframe from the subframe (F, T) is performed. That is, when the acoustic signal included in the subframe (F, T) extends over the acoustic frame F-1 immediately before the acoustic frame F, the signal duration calculation unit 131b performs the acoustic frame from the immediately preceding acoustic frame F-1. The duration of the acoustic signal lasting at F is calculated.
  • the signal duration calculation unit 131b includes a section and duration of the acoustic signal that covers the acoustic frame F-1, a section and duration of the acoustic signal included in the other acoustic frame F, and a portion that spans the acoustic frame F-1.
  • the power spectrum of the subframe of the acoustic frame F-1 including the acoustic signal is output to the frequency characteristic comparison unit 132b.
  • the frequency characteristic comparison unit 132b receives as input the power spectrum of all subframes included in the acoustic frame F, and the sections and durations of the acoustic signals included in the acoustic frame F. In addition, when the acoustic signal included in the acoustic frame F reaches the acoustic frame F-1 immediately before the acoustic frame F, the frequency characteristic comparison unit 132b performs the sound corresponding to the acoustic frame F-1 that has just reached the acoustic frame F-1. The power spectrum of the subframe in which the signal is included is also obtained as an input.
  • the frequency characteristic comparison unit 132b extracts a section in which the duration time of the acoustic signal is equal to or greater than a certain value in the same manner as the frequency characteristic comparison unit 132b of the first embodiment.
  • the frequency characteristic comparison unit 132b calculates the number of formants and the variance of the fine structure power spectrum from the power spectrum of the subframe including the acoustic signal of the extracted section.
  • the frequency characteristic comparison unit 132b includes subframes of the acoustic frame F-1 corresponding to the acoustic frame F-1. The formant number of the acoustic signal in the section and the variance of the fine structure power spectrum are calculated.
  • the frequency characteristic comparison unit 132b includes the formant number of the acoustic signal and the dispersion value of the fine structure power spectrum included in the extracted section, and the formant number and fineness of the characteristic sounds A to C and the respiratory sound stored in the storage unit 133.
  • the range of the comparison value with the variance of the structure power spectrum is compared.
  • the frequency characteristic comparison unit 132b determines the sleep state of the sound frame F as one of “with breathing”, “without breathing”, and “an apnea recovery state”. That is, the frequency characteristic comparison unit 132b executes the sleep state determination process shown in FIG.
  • the frequency characteristic comparison unit 132b outputs the sleep state of the current acoustic frame to the apnea determination unit 14.
  • the sleep state determination unit 13b includes a power spectrum storage unit 135 that stores power spectrum values of all subframes included in the past acoustic frame. Accordingly, the signal duration calculation unit 131b can calculate the duration of the acoustic signal using the power spectrum of the subframe included in the acoustic frame immediately before the current acoustic frame. By using the power spectrum of the subframe included in the immediately preceding acoustic frame, for example, even when the acoustic signal extends to the immediately preceding acoustic frame, the sleep state of the acoustic frame can be accurately determined.
  • FIG. 16 is a diagram illustrating an example of the operation and effect of the second embodiment.
  • the sound signal of the characteristic sound is divided into a continuous sound frame F-1 and sound frame F.
  • the sleep state determination unit 13 of the first embodiment cannot calculate the duration of the acoustic signal using the power spectrum of the subframe included in the immediately preceding acoustic frame F-1. That is, the sleep state determination unit 13 of the first embodiment calculates the duration, the number of formants, and the dispersion of the fine structure power spectrum of only the acoustic signal included in the acoustic frame F. Therefore, in the example shown in FIG.
  • the sound signals of the characteristic sounds included in each of the sound frame F-1 and the sound frame F may have a duration less than a certain value.
  • the values of the sleep state determination parameters (formant number and dispersion of the fine structure power spectrum) of the acoustic signal of the characteristic sound included in each of the acoustic frames F-1 and F are the characteristic sounds A to C and the respiratory sounds. Any of the formant numbers and the comparison value with the dispersion of the fine structure power spectrum may not be included. That is, in the case of the example shown in FIG. 16, the sleep state determination unit 13 of the first embodiment determines the sleep state of the sound frame F-1 and the sound frame F as “no breathing state”, An error may occur.
  • the acoustic signal of the breathing sound spans the acoustic frame F-1 and the acoustic frame F.
  • the value of the sleep state determination parameter of the acoustic signal of the respiratory sound included in the sound frame F-1 or the sound frame F is included in the range of values that can be taken by the sleep state determination parameter of any of the characteristic sounds A to C. there is a possibility. Therefore, the sleep state determination unit 13 of the first embodiment determines the sleep state of the sound frame F-1 or the sound frame F even though the breathing sound is included in the sound frame F-1 and the sound frame F. An “apnea recovery state” is determined, and an error in the sleep state may occur.
  • the duration of the acoustic signal included in the acoustic frame F can be calculated using the power spectrum of the subframe included in the immediately preceding acoustic frame F-1.
  • the sleep state determination process for the acoustic frame F is performed using the power spectrum of the subframe of the acoustic signal that extends to the immediately preceding acoustic frame F-1.
  • the sleep state determination unit 13b according to the second embodiment can detect that the sound frame F in FIG. 16 includes a characteristic sound, and determines the sleep state of the sound frame F as the “apnea recovery state”. be able to. That is, according to the sleep state determination unit 13b of the second embodiment, errors in determining the sleep state of the acoustic frame can be suppressed.
  • the signal duration calculation unit 131b may perform the following processing instead of the processing in OP44 of FIG.
  • the duration of the acoustic signal can be calculated. That is, even when the acoustic signal persists over two or more acoustic frames, the duration of the acoustic signal can be calculated.
  • test apparatus for sleep apnea syndrome according to the third embodiment has the same configuration as the configuration of the test apparatus 1 according to the first embodiment, only differences will be described.
  • FIG. 17 is a diagram illustrating a configuration example of an inspection system for sleep apnea syndrome.
  • the inspection system for sleep apnea syndrome according to the third embodiment includes an inspection device 1c and a medium driving device 20 connected to the inspection device 1c.
  • the inspection apparatus 1c according to the third embodiment inspects sleep apnea syndrome from the acoustic data of the subject that has been recorded in advance while sleeping.
  • the inspection device 1c includes an input unit 11c, a CPU 16, a main storage device 19, an output unit 15, a buffer 18, and a display 6.
  • the input unit 11c is connected to the medium driving device 20 that reads the acoustic data from the portable recording medium 21, and the acoustic data stored in the portable recording medium 21 is input from the medium driving device 20.
  • the input unit 11 c is connected to the network 10, and acoustic data is input from the subject's terminal through the network 10. At this time, the input acoustic data has been converted into a digital signal.
  • the input unit 11 c outputs acoustic data to the buffer 18.
  • the CPU 16 reads the sleep apnea syndrome test program stored in the main storage device 19 and operates as the acoustic analysis unit 12, the sleep state determination unit 13, and the apnea determination unit 14. Since the acoustic analysis unit 12, the sleep state determination unit 13, and the apnea determination unit 14 are the same as the configuration described in the first embodiment, description thereof is omitted.
  • the output unit 15 receives an apnea detection result from the apnea determination unit 14 as an input.
  • the output unit 15 outputs an apnea detection result to the network 5, the printer 30, and the display 6.
  • the apnea detection result output from the output unit 15 may be displayed on the display 6.
  • the detection result of the apnea state output from the output unit 15 may be transmitted to the subject's terminal through the network 5.
  • the apnea detection result output from the output unit 15 may be output to the printer 30 and printed on a paper medium.
  • the information processing apparatus can be applied to the inspection apparatus 1 of the first embodiment, the inspection apparatus of the second embodiment, and the inspection apparatus 1c (hereinafter collectively referred to as “inspection apparatus”) of the third embodiment.
  • the information processing apparatus can be realized by using, for example, a general-purpose computer such as a personal computer or a dedicated computer for performing a sleep apnea syndrome test.
  • the inspection apparatus of 1st Embodiment and 2nd Embodiment is realizable using a mobile telephone.
  • the inspection device includes an interface device with a peripheral device such as a processor, a main storage device, an input device, an output device, a secondary storage device, and a communication interface device.
  • a peripheral device such as a processor, a main storage device, an input device, an output device, a secondary storage device, and a communication interface device.
  • the main storage device and the secondary storage device are computer-readable recording media.
  • the processor loads a program stored in the recording medium into the work area of the main storage device and executes the program, and the peripheral device is controlled through the execution of the program, thereby realizing a function meeting a predetermined purpose. be able to.
  • the processor is, for example, a CPU (Central Processing Unit) or a DSP (Digital Signal Processor).
  • the main storage device includes, for example, a ROM (Read Only Memory) and a RAM (Random Access Memory).
  • the secondary storage device is, for example, an EPROM (Erasable Programmable ROM) or a hard disk drive (Hard Disk Drive). Further, the secondary storage device can include a removable medium, that is, a portable recording medium.
  • the removable media is, for example, a USB (Universal Serial Bus) memory, or a disc recording medium such as a CD (Compact Disc) or a DVD (Digital Versatile Disc).
  • the communication interface device is connected to a wired network and a wireless network.
  • the communication interface device is, for example, a LAN (Local Area Network) interface boat or a wireless communication circuit for wireless communication.
  • LAN Local Area Network
  • the peripheral device includes an input device such as a keyboard and a pointing device, and an output device such as a display device and a printer.
  • the input device may include an audio input device such as a microphone.
  • the output device may include an audio output device such as a speaker.
  • the computer used as the inspection device controls the peripheral device through the execution of the sleep apnea syndrome inspection program on the recording medium by the processor, whereby the acoustic analysis unit 12, the sleep state determination unit 13, and the apnea
  • the function as the determination unit 14 is realized.
  • the storage unit 133, the state memory 143, and the power spectrum storage unit 135 are created in the storage area of the main storage device or the secondary storage device statically or in the course of program execution.
  • FIG. 18 is a diagram illustrating a configuration example of a sleep apnea syndrome inspection system according to the fourth embodiment.
  • the sleep apnea syndrome inspection system according to the fourth embodiment includes an inspection device 100 and a sound collection device 50.
  • the inspection apparatus 100 includes an analysis unit 101, a determination unit 102, a detection unit 103, and a storage unit 104.
  • the sound collection device 50 collects acoustic signals generated during sleep of the subject and outputs them to the inspection device 100.
  • the analysis unit 101 of the inspection apparatus 100 obtains, as an input, acoustic signals generated during sleep of the subject collected by the sound collection device.
  • the analysis unit 101 analyzes the input acoustic signal.
  • the analysis unit 101 outputs the analysis result of the acoustic signal to the determination unit 102.
  • the determination unit 102 receives the analysis result of the acoustic signal from the analysis unit 101 as an input. The determination unit 102 determines whether or not a characteristic sound is included in the acoustic signal in the analysis result of the analysis unit 101. The characteristic sound is a sound generated when the sleep state recovers from the apnea state to the respiratory state. The determination unit 102 outputs a determination result as to whether or not a characteristic sound is included to the detection unit 103.
  • the detection unit 103 receives a determination result as to whether or not a characteristic sound is included as an input. When it is determined that the characteristic sound is included, the detection unit 103 detects an apnea state. The detection unit 103 outputs an apnea detection result.
  • the sleep apnea syndrome inspection apparatus 100 determines that the characteristic sound generated when the sleep state recovers from the apnea state to the respiratory state is included in the acoustic signal generated during the sleep of the subject. As a result, the apnea state is not detected unless the characteristic sound is detected, so that the apnea state during sleep can be detected with high accuracy.
  • the inspection apparatus 100 may be configured as follows.
  • the analysis unit 101 analyzes the input acoustic signal every unit time.
  • the analysis unit 101 outputs the analysis result of the unit time acoustic signal to the determination unit 102.
  • the determination unit 102 determines whether or not a characteristic sound is included in the unit time acoustic signal. When the characteristic sound is not included in the unit time acoustic signal, the determination unit 102 determines whether or not the unit time acoustic signal includes a breathing sound.
  • the determination unit 102 determines that the sleep state is the “apnea recovery state” when the sound signal of unit time includes the characteristic sound.
  • the determination unit 102 determines that the sleep state is the “respiratory state” when the sound signal of unit time does not include the characteristic sound but includes the breathing sound.
  • the determination unit 102 determines that the sleep state is the “no breathing state” when the sound signal of unit time does not include the characteristic sound and the breathing sound.
  • the determination unit 102 outputs the determined sleep state to the detection unit 103 and the storage unit 104.
  • the storage unit 104 obtains the sleep state from the determination unit 102 as an input.
  • the storage unit 104 stores sleep states in order along the time series. That is, the storage unit 104 holds a sleep state history.
  • the detection unit 103 obtains a sleep state from the determination unit 102 as an input.
  • the apnea state is detected when the history of the sleep state stored in the storage unit indicates at least a transition from the “no breathing state” to the “apnea recovery state”.
  • the detection unit 103 outputs an apnea detection result.
  • the sleep apnea syndrome testing apparatus 100 analyzes an acoustic signal every unit time and determines whether a characteristic sound and a respiratory sound are included in the unit time acoustic signal. Based on the determination result, the inspection apparatus 100 determines that the sleep state of the subject viewed from the acoustic signal of unit time is any one of “an apnea recovery state”, “a state with breathing”, and “a state without breathing”. To do.
  • the inspection apparatus 100 detects the apnea state of the subject when the history of the sleep state of the subject per unit time indicates at least a transition from the “no breathing state” to the “apnea recovery state”. As a result, the apnea state can be detected more carefully, and the accuracy of the detection of the apnea state can be increased.
  • the analysis unit 101 of the inspection apparatus 100 calculates the duration and frequency characteristics of the sound signal generated by the subject included in the sound signal, and the determination unit 102 determines the duration and frequency of the sound signal generated by the subject. You may make it determine whether a characteristic corresponds with a characteristic sound.
  • the analysis unit 101 of the inspection apparatus 100 divides the acoustic signal in unit time into M time segments (natural numbers not including M: 0) with a predetermined time interval length, and calculates a power spectrum for each time interval. You may do it.
  • the determination unit 102 determines the power spectrum of the acoustic signal in a certain time section T (0 ⁇ T ⁇ M ⁇ 1) and the power spectrum of the acoustic signal in the time section (T ⁇ t) (0 ⁇ t) before the time section T. Is obtained. If the correlation coefficient is equal to or greater than the threshold, the determination unit 102 may calculate the duration of the acoustic signal by detecting the acoustic signal that lasts from the time interval (Tt) to the time interval T.
  • the determination unit 102 determines the power spectrum of the acoustic signal in the time interval T and the unit before the unit time. A correlation coefficient with the power spectrum in the time interval (Tt) included in the time may be obtained. Thus, if the correlation coefficient is equal to or greater than the threshold, an acoustic signal that lasts from the time interval (Tt) included in the unit time before the unit time to the time interval T can be detected.
  • the determination unit 102 can detect a characteristic sound or an acoustic signal in an acoustic signal of a certain unit time. It can be accurately determined that a breathing sound is included.
  • the determination unit 102 can accurately determine the sleep state of a certain unit time by accurately determining that a characteristic sound or a breathing sound is included in an acoustic signal of a certain unit time. As a result, the accuracy of detecting an apnea state during sleep is improved.
  • the determination unit 102 may calculate an acoustic parameter representing acoustic characteristics of the acoustic signal including the duration of the acoustic signal that lasts from the time interval (Tt) to the time interval T, the number of formants, and the dispersion characteristics of the power spectrum. Good.
  • the determination unit 102 compares the acoustic parameter with the acoustic characteristics of the predetermined characteristic sound and breathing sound, so that the sleep state can be any one of “apnea recovery state”, “respiratory state”, and “no respiratory state”. You may determine whether it is.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Pulmonology (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

 睡眠時無呼吸症候群の検査装置は、被験者の睡眠時に生じる音響信号を単位時間毎に分析する分析部と、単位時間の音響信号に睡眠時無呼吸症候群患者が無呼吸状態から呼吸状態へ回復する際に生じる特徴音又は呼吸音が含まれているか否かを判定し、単位時間の音響信号に特徴音が含まれている場合には単位時間の音響信号から見た被験者の睡眠状態が「無呼吸回復状態」であると判定し、単位時間の音響信号に特徴音が含まれていないが呼吸音が含まれている場合には単位時間の被験者の睡眠状態が「呼吸あり状態」であると判定し、単位時間の音響信号に特徴音及び呼吸音が含まれていない場合には単位時間の被験者の睡眠状態が「呼吸なし状態」であると判定する判定部と、単位時間毎の被験者の睡眠状態を格納する格納部と、被験者の睡眠状態の履歴が少なくとも「呼吸なし状態」から「無呼吸回復状態」への推移を示す場合に、被験者の無呼吸状態を検出する検出部とを含む。

Description

睡眠時無呼吸症候群の検査装置及びプログラム
本発明は、睡眠時の無呼吸状態を検出する睡眠時無呼吸症候群の検査装置に関する。
 睡眠時無呼吸症候群は、10秒以上呼吸が停止する状態である無呼吸状態が、7時間の睡眠中に30回以上認められるもの、または、睡眠1時間当りに5回以上認められるものと定義される。睡眠時無呼吸症候群は、昼間の耐えがたい眠気,抑うつ,集中力の低下,いびき等の症状を引き起こす。また、睡眠時無呼吸症候群の患者自身は睡眠中であるため、家族等の同居者がいない場合などは、睡眠時無呼吸症候群の発見が遅れることが多い。
 睡眠時無呼吸症候群の精密検査では、検査用のデータ取得装置の備えつけてある病室を有する病院への入院,及び専門医によるデータの解析が必要となる。すなわち、患者に費用及び時間の負担がかかる上、体にセンサを取りつける等が必要であることが多く、患者の肉体的負担となる。また、このような睡眠時無呼吸症候群の精密検査は、一度に検査できる人数が限られてしまい、病院側としても効率が悪い。
 かかる観点から、睡眠時無呼吸症候群の精密検査が必要であるか否かを、事前に自宅等で検査できる簡易検査方法が望まれている。
特開2001-29328号公報
 本発明の一態様は、睡眠時の無呼吸状態を検出可能な睡眠時無呼吸症候群の検査装置を提供することを目的とする。
 本発明の態様の一つは、睡眠時無呼吸症候群の検査装置である。この睡眠時無呼吸症候群の検査装置は、収音装置で収音された被験者の睡眠時に生じる音響信号を分析する分析部と、
 前記分析部の分析結果において、前記音響信号に睡眠状態が無呼吸状態から呼吸状態へ回復する際に生じる特徴音が含まれているか否かを判定する判定部と、を含む。
 本発明の他の態様の一つは、上述した睡眠時無呼吸症候群の検査方法である。また、本発明の他の態様は、情報処理装置を睡眠時無呼吸症候群の検査装置として機能させるプログラム、及び当該プログラムを記録したコンピュータ読み取り可能な記録媒体を含むことができる。
 開示の睡眠時無呼吸症候群の検査装置によれば、睡眠時無呼吸状態を検出することができる。
特徴音を含む音響信号の周波数スペクトルの一例を示すグラフである。 特徴音を含む音響信号の周波数スペクトルの一例を示すグラフである。 睡眠時無呼吸症候群の検査システムの構成例を示す図である。 音響分析部の構成例を示す図である。 睡眠状態決定部の構成例を示す図である。 呼吸音の周波数特性の例を示す図である。 特徴音Bの周波数特性の例を示す図である。 特徴音Cの周波数特性の例を示す図である。 呼吸音,特徴音A,特徴音B,および特徴音Cの周波数特性の例を示す図である。 信号持続時間算出部における音響信号の持続時間算出処理のフローの例を示す図である。 音響信号の持続算出処理を説明する図である。 周波数特性比較部における睡眠状態決定処理のフローの例を示す図である。 無呼吸判定部の構成例を示す図である。 睡眠時無呼吸症候群の患者の睡眠時の呼吸の例を示すグラフである。 状態推移調査部の無呼吸状態判定処理のフローの例を示す図である。 睡眠時無呼吸症候群の検査装置の動作例のフローを示す図である。 睡眠状態決定部の構成例を示す図である。 信号持続時間算出部における音響信号の持続時間算出処理のフローの例を示す図である。 音響信号が音響フレームFと音響フレームFの直前の音響フレームF-1とにまたがる場合の例を示す図である。 睡眠時無呼吸症候群の検査システムの構成例を示す図である。 睡眠時無呼吸症候群の検査システムの構成例を示す図である。
 以下、図面を参照して、本発明の実施をするための形態(以下、実施形態という)について説明する。以下の実施形態の構成は例示であり、本発明は実施形態の構成に限定されない。
 <第1実施形態>
 第1実施形態における睡眠時無呼吸症候群の検査装置について説明する。被験者の就寝場所付近の適宜の位置に収音装置としてのマイクロフォンが設置され、被験者及び被験者の周囲の音響信号が収集される。すなわち、被験者は体にセンサが付けられるなどの拘束をされることなく、普段の睡眠時の状態で検査を受ける。第1実施形態における睡眠時無呼吸症候群の検査装置は、マイクロフォンが収集する、睡眠時の被験者によって生じる音響信号を分析し、周波数特性を求めることによって、被験者の睡眠時の無呼吸状態を検出する。
 発明者らが実施した睡眠時の音響信号の調査によって、無呼吸状態の被験者が無呼吸状態から回復する、すなわち、無呼吸状態から呼吸状態に遷移する直前又は直後に以下で述べるような特徴的な音が生じることが分かった。以降、無呼吸状態の患者が、無呼吸状態から呼吸状態に遷移する直前又は直後に生じる特徴的な音は「特徴音」と呼ばれる。第1実施形態における睡眠時無呼吸症候群の検査装置は、睡眠時無呼吸症候群の患者が無呼吸状態から回復するときに生じやすい特徴音を、睡眠時無呼吸状態の検出に利用する。
 調査によって得られた特徴音には、以下に示されるものがあった。
(特徴音A)息を呑むような、又は、驚いたときに発せられるような、0.2秒から0.3秒程度の短い呼吸音。
(特徴音B)短いうなり声。
(特徴音C)患者の体の動きにより生じる音。例えば、患者が体を動かすことで生じる患者と布団との摩擦音である。
 これらの特徴音はいずれも、無呼吸状態の患者が、体内の酸素が不足することによって苦しむときに発生するものと考えられる。
 図1Aおよび図1Bは、特徴音A,特徴音B,および特徴音Cを含む音響信号の周波数スペクトルの一例を示すグラフである。図1Aおよび図1Bに示されるグラフは、横軸が時間,縦軸が周波数,色の濃淡が周波数成分の大きさを示す。
 図1Aでは、点線で囲まれた箇所が、特徴音A(患者の息を呑むような短い呼吸音)を示す。特徴音Aまでは、患者の呼吸が停止している、すなわち、患者が無呼吸状態であるのに対し、特徴音Aのあとでは患者の息をはく音と息を吸う音が続いており、特徴音A以降では呼吸が回復したことが示される。
 図1Bでは、1つめの点線で囲まれた箇所が、特徴音B(短い唸り声)を示す。2つめの点線で囲まれた箇所が、特徴音C(体が動く音や体の動きによって布団がすれる音)を示す。特徴音Bまでは、患者の呼吸が停止している、すなわち、患者が無呼吸状態であることを示す。また、図1Bには示されていないが、特徴音Cのあと、図1Aと同様な、患者の息を吸う音とはく音が続き、呼吸が回復している。
 特徴音A,特徴音B,および特徴音Cは、それぞれが単独に発生することもあるし、図1Bに示されるように、組み合わせて発生することもある。
 <<睡眠時無呼吸症候群の検査装置の構成例>>
 図2は、睡眠時無呼吸症候群の検査システムの構成例を示す図である。睡眠時無呼吸症候群の検査システムは、睡眠時無呼吸症候群の検査装置1(以下、単に検査装置1),及び被験者3によって生じる音響を集音するマイクロフォン2を含む。
 検査装置1は、図1Aおよび図1Bに示されるような特徴音A,特徴音B,および特徴音Cを用いて、被験者3の無呼吸状態を検出する装置である。
 マイクロフォン2は、被験者3に近く、且つ、被験者3が発する音声や被験者3の体動音を精度よく収音できる位置に、被験者3の方を向いて配置される。例えば、マイクロフォン2は、被験者3の就寝場所の上方に設置される。
 マイクロフォン2は、検査装置1と接続される。マイクロフォン2は、被験者3が発する呼吸音や音声、及び被験者3の体動音を含んだ被験者の周囲の音響信号を収集する。マイクロフォン2は、収集された音響の電気信号を検査装置1に出力する。以降、音響の電気信号を「音響信号」と呼ぶ。
 検査装置1は、マイクロフォン2と接続されており、マイクロフォン2からの音響信号を入力として得る。検査装置1は、入力された音響信号を分析し、分析結果に基づいて、被験者の無呼吸状態を検出する。検査装置1は、無呼吸状態の検出結果を、検査装置1が接続されているネットワーク5,ディスプレイ6,スピーカ7,二次記憶装置8の少なくとも1つに出力する。
 検査装置1は、入力部11,出力部15,CPU(Central Processing Unit)16,アナログ/ディジタル変換器(A/D変換器)17,バッファ18,及び主記憶装置19を備える。検査装置として、情報処置装置を適用することができる。
 入力部11は、外部の入力装置とのインタフェースである。入力部11には、マイクロフォン2から音響信号が入力される。入力部11は、入力された音響信号をA/D変換器17に出力する。
 A/D変換器17は、音響信号を入力として得る。A/D変換器17は、音響信号をアナログ信号からディジタル信号に変換する。A/D変換器17は、ディジタル信号に変換された音響データをバッファ18に出力する。
 バッファ18は、A/D変換器17からディジタル信号に変換された音響データを入力として得る。バッファ18は、入力される音響データをバッファする。
 CPU16は、バッファ18から1フレーム分の音響信号を順次取り出して処理を行う。1フレームとは、単位時間長である。1フレームは、例えば、1秒から数秒で規定される。以降、1フレーム分の音響信号は、音響フレームと呼ばれる。
 主記憶装置19は、作業領域にロードされた睡眠時無呼吸症候群の検査プログラム19aを保持する。CPU16は、主記憶装置19から睡眠時無呼吸症候群の検査プログラム19aを読み出して、実行することによって、音響分析部12,睡眠状態決定部13,及び無呼吸判定部14として動作する。
 音響分析部12は、音響フレームを入力として得る。音響分析部12は、音響フレームを分析し、音響フレームの特徴量を算出する。特徴量には、例えば、音響フレームの周波数スペクトル,周波数スペクトルのパワースペクトル,音量などがある。音響分析部12は、算出された音響フレームの特徴量を睡眠状態決定部13に出力する。音響分析部12の詳細については後述される。
 睡眠状態決定部13は、音響分析部12によって算出された音響フレームの特徴量を入力として得る。睡眠状態決定部13は、音響フレームの特徴量に基づいて、音響フレームの睡眠状態の判定材料となるパラメータ(以下、判定用パラメータと称する)を算出する。判定用パラメータには、音響分析部12によって算出された音響フレームの特徴量に基づいて得られる値が採用される。例えば、判定用パラメータは、音響フレームにおける音響信号の持続時間や、ホルマント数及びパワースペクトルの分散などの周波数的特徴を表す物理量である。睡眠状態決定部13は、特徴音A,特徴音B,特徴音C,および呼吸音に対して予め算出された判定用パラメータの値(以降、比較値と称する)を保持する。睡眠状態決定部13は、音響データの判定用パラメータの値と、特徴音A~Cの比較値および呼吸音の比較値とを比較して、音響フレームの睡眠状態を決定する。睡眠状態には、音響フレームに呼吸音が含まれる、すなわち、被験者が呼吸をしている状態である「呼吸あり状態」が含まれる。また、睡眠状態には、音響フレームに特徴音A~Cの何れかが含まれる、すなわち、被験者が呼吸停止の状態から呼吸状態に遷移する状態である「無呼吸回復状態」が含まれる。さらに、睡眠状態には、音響フレームに特徴音A~Cおよび呼吸音のいずれも含まれない、すなわち、被験者の呼吸が停止している「呼吸なし状態」が含まれる。睡眠状態決定部13は、音響フレームの睡眠状態を無呼吸判定部14に出力する。睡眠状態決定部13の詳細については、後述される。
 無呼吸判定部14は、睡眠状態決定部13から、音響フレームの睡眠状態を入力として得る。無呼吸判定部14は、音響フレームの睡眠状態の履歴を調査して、被験者の無呼吸状態を検出する。無呼吸判定部14は、被験者の無呼吸状態の検出結果を出力部15に出力する。無呼吸判定部14の詳細については、後述される。
 出力部15は、外部の装置とのインタフェースである。出力部15は、被験者の無呼吸状態の検出結果を入力として得る。出力部15は、被験者の無呼吸状態の検出結果を、ネットワーク5,ディスプレイ6,スピーカ7,又は二次記憶装置8の何れか1つ又は2つ以上に出力する。
 例えば、被験者の無呼吸状態が検出された場合には、出力部15はスピーカ7から無呼吸状態の検出結果を示す警告音を出力して被験者に報知してもよい。例えば、出力部15から出力される音響フレームの被験者の無呼吸状態の検出結果は、二次記憶装置8に格納されてもよい。例えば、出力部15から出力される無呼吸状態の検出結果は、ディスプレイ6に表示されてもよい。例えば、出力部15から出力される被験者の無呼吸状態の検出結果は、睡眠時無呼吸状態症候群の検査の専門機関に、ネットワーク5を通じて送信されてもよい。
 <<音響分析部の構成例>>
 音響分析部12は、音響フレームを分析し、音響フレームの特徴量を算出する。第1実施形態では、音響分析部12は、音響フレームの特徴量として、例えば、周波数のパワースペクトルを算出する。
 図3は、音響分析部12の構成例を示す図である。音響分析部12は、サブフレーム分割部121,時間/周波数変換部122,及びパワースペクトル算出部123を含む。
 サブフレーム分割部121は、音響フレームを入力として得る。サブフレーム分割部121は、音響フレームを所定の時間長のサブフレームに分割する。音響フレームの時間長が2秒である場合、サブフレーム分割部121は、音響フレームを、例えば、100等分し、所定の時間長として20ミリ秒のサブフレームに分割する。サブフレーム分割部121は、サブフレームに分割された音響フレームを時間/周波数変換部122に出力する。
 時間/周波数変換部122は、サブフレームに分割された音響フレームを入力として得る。時間/周波数変換部122は、サブフレーム単位でフーリエ変換を実行し、時間領域の音響信号を周波数領域の信号に変換する。時間/周波数変換部122は、1フレームに含まれる全サブフレームの周波数スペクトルを算出し終えると、算出された1フレームに含まれる全サブフレームの周波数スペクトルを、パワースペクトル算出部123に出力する。
 パワースペクトル算出部123は、時間/周波数変換部122によって算出された1フレームに含まれる全サブフレームの周波数スペクトルを入力として得る。パワースペクトル算出部123は、各サブフレームの周波数スペクトルから各サブフレームのパワースペクトルを算出する。パワースペクトル算出部123は、1フレームに含まれる全サブフレームのパワースペクトルを算出し終えると、算出された1フレームに含まれる全サブフレームのパワースペクトルを出力する。
 <<睡眠状態決定部の構成例>>
 睡眠状態決定部13は、音響フレームの特徴量から音響フレームの判定用パラメータの値を算出し、予め算出されている特徴音A~Cおよび呼吸音の比較値と比較し、音響フレームの睡眠状態を決定する。第1実施形態では、睡眠状態決定部13は、音響分析部12から入力される、1フレームに含まれる全サブフレームのパワースペクトルから得られる情報に基づいて、判定用パラメータの値を算出する。第1実施形態では、判定用パラメータとして、音響フレームに含まれる音響信号の持続時間,ホルマント数,および微細構造パワースペクトルの分散が用いられる。
 図4は、睡眠状態決定部13の構成例を示す図である。睡眠状態決定部13は、信号持続時間算出部131と、周波数特性比較部132と、格納部133とを備える。
 格納部133は、主記憶装置19の記憶領域に作成される。格納部133は、特徴音A,特徴音B,特徴音C,および呼吸音の比較値を格納する。呼吸音とは、息を吸う動作および息を吐く動作に伴って発生する一連の音、すなわち、寝息やいびき等の音である。特徴音A,特徴音B,特徴音C,および呼吸音の比較値の種類と、入力される音響フレームから算出される判定用パラメータの値は同じ種類のものが用いられる。第1実施形態では、音響信号の持続時間と音響信号の周波数特性から得られる情報とが判定用パラメータとして用いられる。音響信号の周波数特性から得られる情報には、例えば、ホルマント数および微細構造パワースペクトルの分散値がある。
 図5A,図5B,および図5Cは、それぞれ呼吸音,特徴音B,および特徴音Cの周波数特性の一例を示す図である。また、図5A,図5B,および図5Cに示される例では、周波数特性から得られる情報、すなわち、判定用パラメータとして、音響信号の持続時間,ホルマント数,および微細構造パワースペクトルの分散が示される。
 図5Aは、呼吸音の周波数特性の一例について示す図である。呼吸音の周波数とパワースペクトルとの関係を示すグラフでは、明確なピークはないが、細かい凹凸が見られる。呼吸音の音響信号の持続時間の範囲は、0.5秒から2.0秒である。呼吸音のホルマント数の範囲は、0個から1個である。図5Aに示されるように、呼吸音の周波数とパワースペクトルとの関係を示すグラフには細かい凹凸があるため、パワースペクトルの平均からのばらつきを示す、呼吸音の微細構造パワースペクトルの分散は、一定の範囲の値をとり得る。
 特徴音A、すなわち、短い呼吸音の周波数とパワースペクトルとの関係は、図5Aに示される呼吸音の、周波数とパワースペクトとの関係を示すグラフに類似する。特徴音Aの音響信号の持続時間は0.2秒から0.3秒である。また、特徴音Aの周波数とパワースペクトルとの関係を示すグラフは、図5Aに示される呼吸音の周波数とパワースペクトルとの関係を示すグラフに類似するため、特徴音Aに含まれるホルマント数の範囲は0個から1個である。さらに、特徴音Aの微細構造パワースペクトルの分散も、呼吸音の微細構造のパワースペクトルの分散と近似する値をとり得る。
 図5Bは、特徴音B、すなわち、うなり声の周波数特性の一例について示す図である。特徴音Bの音響信号の持続時間の範囲は、0.1秒から0.3秒である。図5Bに示されるように、特徴音Bの周波数とパワースペクトルとの関係を示すグラフは、2個から3個の明確なピークが見られる。特徴音Bに含まれるホルマント数の範囲は、2個から4個である。図5Bに示される、特徴音Bの周波数とパワースペクトルとの関係を示すグラフと、図5Aに示される呼吸音の周波数とパワースペクトルとの関係を示すグラフとを比べると、特徴音Bのグラフの方がパワースペクトルの値の変動が大きい。従って、特徴音Bの微細構造パワースペクトルの分散の値は、呼吸音の微細構造パワースペクトルの分散の値よりも、大きい。
 図5Cは、特徴音C、すなわち、被験者の体が動く音の周波数特性の一例について示す図である。特徴音Cの音響信号の持続時間の範囲は、0.5秒から3.0秒である。図5Cに示されるように、特徴音Cの周波数とパワースペクトルとの関係を示すグラフは、明確なピークはなく、平坦である。特徴音Cの周波数とパワースペクトルとの関係を示すグラフには明確なピークはないため、特徴音Cに含まれるホルマント数は、0個である。図5Cに示される、特徴音Cの周波数とパワースペクトルとの関係を示すグラフと、図5Aに示される呼吸音の周波数とパワースペクトルとの関係を示すグラフとを比べると、特徴音Cのグラフの方がパワースペクトルの値の変動が小さい。従って、特徴音Cの微細構造パワースペクトルの分散の値は、呼吸音の微細構造パワースペクトルの分散の値よりも小さい。
 図6は、呼吸音,特徴音A,特徴音B,および特徴音Cの周波数特性をまとめた表の例である。図6に示される例では、微細構造パワースペクトルの分散の範囲を予め“大”,“中”,“小”の3つに分類し、呼吸音の微細構造パワースペクトルの分散の取り得る値の範囲を“中”と定めた場合の例を示す。
 特徴音Aの周波数とパワースペクトルとの関係を示すグラフ(図示せず)は、呼吸音の周波数とパワースペクトとの関係を示すグラフ(図5A)に類似するため、微細構造パワースペクトルの分散の値も類似する。従って、特徴音Aの微細構造パワースペクトルの分散の値は、呼吸音と同じ“中”である。
 特徴音Bの周波数とパワースペクトルとの関係を示すグラフ(図5B)と、呼吸音の周波数とパワースペクトルとの関係を示すグラフ(図5A)とを比べると、特徴音Bのグラフの方がパワースペクトルの値の分散が大きい。従って、特徴音Bの微細構造パワースペクトルの分散の値は、“大”である。
 特徴音Cの周波数とパワースペクトルとの関係を示すグラフ(図5C)と、呼吸音の周波数とパワースペクトルとの関係を示すグラフ(図5A)とを比べると、特徴音Cのグラフの方がパワースペクトルの値の分散が小さい。従って、特徴音Cの微細構造パワースペクトルの分散の値は、“小”である。
 図4に戻って、信号持続時間算出部131は、1フレームに含まれる全サブフレームのパワースペクトルを入力として得る。信号持続時間算出部131は、1フレームに含まれる全サブフレームのパワースペクトルから、当該音響フレームに含まれる音響信号の持続時間を算出する。
 図7は、信号持続時間算出部131による、音響信号の持続時間算出処理のフローの例を示す図である。図7に示される例では、信号持続時間算出部131は、サブフレームTにおける音響信号と、その時間的に前のサブフレームT-tにおける音響信号との相関係数r(t)を求め、音響信号の持続時間を算出する。音響フレームに含まれるサブフレームの数はM(Mは0を含まない自然数)と定められる。
 信号持続算出部131は、音響フレームに含まれる全サブフレームのパワースペクトルが音響分析部12から入力されると、音響信号の持続時間算出処理を開始する。
 信号持続時間算出部131は、サブフレームを示す変数Tの初期値をT=1に設定する(OP1)。サブフレームを示す変数Tの範囲は、1≦T≦M-1である。
 次に、信号持続時間算出部131は、サブフレームTから時間的に遡るサブフレームの個数を示す変数tの値の初期値をt=1に設定する(OP2)。サブフレームTより時間的に前のサブフレームの個数を示す変数tの範囲は、1≦t≦Tである。
 信号持続時間算出部131は、サブフレームTに含まれる音響信号と、サブフレームT-tに含まれる音響信号との相関係数r(t)を、以下の式1を用いて算出する(OP3)。以降、サブフレームTに含まれる音響信号と、サブフレームT-tに含まれる音響信号との相関係数r(t)は、「サブフレームTとサブフレームT-tとの相関係数r(t)」と呼ばれる。
Figure JPOXMLDOC01-appb-M000001
信号持続時間算出部131は、算出されたサブフレームTとサブフレームT-tとの相関係数r(t)の値が、所定の閾値以上か否かを判定する(OP4)。例えば、所定の閾値は、0.7である。
 算出されたサブフレームTとサブフレームT-tとの相関係数r(t)の値が、閾値以上である場合には(OP4:Yes)、サブフレームTに含まれる音響信号と、サブフレームT-tに含まれる音響信号が同じ音響信号であるとみなされる。すなわち、サブフレームTとサブフレームT-tとの相関係数r(t)の値が閾値以上である場合には、音響信号が、サブフレームT-tからサブフレームTまで持続していることが示される。
 サブフレームTとサブフレームT-tとの相関係数r(t)の値が閾値以上である場合には(OP4:Yes)、次に、信号持続時間算出部131は、tが変数Tより小さいか否かを判定する(OP5)。すなわち、サブフレームTより時間的に前のサブフレームT-tが存在するか否かを判定する。
 変数tが変数Tより小さい場合には(OP5:Yes)、サブフレームTより時間的に前に、サブフレームTとの相関係数r(t)が求められていないサブフレームT-tが存在することが示される。すなわち、サブフレームTについて相関係数r(t)を求める処理が継続していることが示される。
 変数tが変数Tより小さい場合には(OP5:Yes)、信号持続時間算出部131は、変数t=t+1とする(OP6)。
 変数tが変数T以上の場合には(OP5:No)、サブフレームTより時間的に前の全てのサブフレームについて、サブフレームTとの相関係数r(t)が求められたことが示される。すなわち、サブフレームTについて、相関係数r(t)を求める処理が終了することが示される。このとき、処理はOP9に移り、サブフレームTの次のサブフレームT+1について相関係数r(t)を求める処理に移る。
 算出されたサブフレームTとサブフレームT-tとの相関係数r(t)の値が、閾値未満である場合には(OP4:No)、サブフレームTに含まれる音響信号と、サブフレームT-tに含まれる音響信号とが異なる音響信号であるとみなされる。算出されたサブフレームTとサブフレームT-tとの相関係数r(t)の値が、閾値未満である場合には、信号持続時間算出部131は、サブフレームTとサブフレームTより時間的に前のサブフレームとの相関係数r(t)を求める処理を終了する。
 信号持続時間算出部131は、サブフレームT-tと、サブフレームT-t+1との境界を音響信号の持続区間の境界に定める(OP7)。以降、音響信号の持続区間は、単に、「区間」とも呼ばれる。
 次に、信号持続時間算出部131は、変数TがM-1より小さいか否かを判定する(OP8)。すなわち、信号持続時間算出部131は、音響フレームに含まれるすべてのサブフレームTについて、サブフレームTとサブフレームTの時間的に前のサブフレームT-tとの相関係数r(t)を求める処理が終了したか否かを判定する。
 変数TがM-1より小さい場合には(OP8:Yes)、音響フレームに含まれるすべてのサブフレームTについて、サブフレームTとサブフレームTの時間的に前のサブフレームT-tとの相関係数r(t)を求める処理が終了していないことが示される。変数TがM-1より小さい場合には、信号持続時間算出部131は、変数T=T+1とする(OP9)。その後、処理がOP2に移り、次のサブフレームTについて、サブフレームTとサブフレームTの時間的に前のサブフレームとの相関係数r(t)を求める処理が実行される。
 変数TがM-1以上の場合には(OP8:No)、音響フレームに含まれるすべてのサブフレームTについて、サブフレームTとサブフレームTの時間的に前のサブフレームT-tとの相関係数r(t)を求める処理が終了したことが示される。信号持続時間算出部131は、OP7において定められた区間の境界に基づいて、音響信号の持続する区間を決定し、各区間に含まれる音響信号の持続時間を算出する(OP10)。信号持続時間算出部131は、各区間に含まれるサブフレームの数を計算し、各区間における音響信号の持続時間を算出する。例えば、音響フレームの時間長が2秒であり、サブフレームの時間長が音響フレームの100分の1の20ミリ秒であるとすると、1つの区間にサブフレームが5つ含まれている場合には、その区間における音響信号の持続時間は0.1秒として算出される。
 図8は、図7の音響信号の持続時間算出処理を説明する図である。図8において、音響フレームの先頭のサブフレームはサブフレーム0と示され、時間軸に沿って、サブフレーム1,サブフレーム2,・・・と示される。図8に示される例では、音響フレームのサブフレーム0からサブフレーム17までが示される。
 図8に示される例では、サブフレーム8からサブフレーム13にまたがって、特徴音が含まれるものとする。また、図8に示される音響信号について、図7に示される処理を行った結果の一例をテーブルT1で示す。すなわち、グラフG1の音響信号を含む音響フレームに含まれるすべてのサブフレームTについて、サブフレームTとサブフレームTからtだけ時間的に前のサブフレームT-tとの相関係数r(t)を求める処理を行った結果の一部をテーブルT1で示す。テーブルT1では、縦がサブフレームを示す変数Tの値であり、横がサブフレームTからtだけ前のサブフレームT-tの値を示す。テーブルT1の座標(T,T-t)に記載された値が、サブフレームTとサブフレームTからtだけ時間的に前のサブフレームT-tとの相関係数r(t)の値を示す。
 例えば、テーブルT1は、図7に示すフローに従って、以下に示すようにして作成される。
 信号持続時間算出部131は、まず、T=1、t=1に設定する(図7:OP1,OP2)。信号持続時間算出部131は、サブフレーム1とサブフレーム0との相関係数r(t)を求める(図7:OP3)。信号持続時間算出部131は、サブフレーム1とサブフレーム0との相関係数r(t)の値をテーブルT1の座標(1,0)に記録する。サブフレーム1とサブフレーム0との相関係数r(t)の値があらかじめ定められた閾値である0.7以上である場合(図7:OP4、Yes)、信号持続時間算出131は、tはTより小さいか否かを判定する(図7:OP5)。t=1、T=1であるので、すなわち、tはTと等しいので(図7:OP5、No)、信号持続時間算出部131は、T=T+1=1+1=2にする(図7:OP9)。次に、信号持続時間算出部131は、t=1に設定し(図7:OP2)、サブフレーム2とサブフレーム1との相関係数r(t)を求める(図7:OP3)。
 以降、図7のOP2~OP9の処理を行って、信号持続時間算出部131は、図8に示されるテーブルT1を得る。
 図7のOP10の処理において、音響フレームに含まれる全サブフレームTについて、サブフレームTとサブフレームTより時間的に前のサブフレームT-tとの相関係数r(t)が算出されると、信号持続時間算出部131は、音響信号の持続区間を求める。図8に示される例では、テーブルT1中の「0.7」未満となる座標と、「0.7」以上となる座標との間で音響信号の持続区間の境界が決定される。信号持続時間算出部131は、サブフレーム8からサブフレーム13を含む区間A,サブフレーム16とサブフレーム17とを含む区間Bを検出する。
 信号持続時間算出部131は、区間A,および区間Bそれぞれについて、音響信号の持続時間を算出する。図8に示される例では、サブフレームの時間長が0.02秒であるとする。従って、図8に示される例では、区間Aの持続時間は0.12秒(0.02秒×6)である。区間Bの持続時間は0.04秒(0.02秒×2)である。
 信号持続時間算出部131は、音響フレームに含まれる各音響信号の持続区間と、音響信号の持続区間における音響信号の持続時間とを、周波数特性比較部132に出力する。
 周波数特性比較部132は、1フレームに含まれる全サブフレームのパワースペクトル,該当する音響フレームに含まれる音響信号の持続区間,及びそれぞれの音響信号の持続区間の持続時間を入力として得る。周波数特性比較部132は、音響フレームから、音響信号の持続時間が一定値以上である音響信号の持続区間のみを抽出する。音響信号の持続時間が一定値以上とは、例えば、特徴音Cの音響信号の持続時間の値が0.1秒から0.3秒なので、音響フレームに含まれる音響信号の持続時間が0.1秒以上であることをいう。
 周波数特性比較部132は、抽出された区間について、平均パワースペクトルを算出する。抽出された区間の平均パワースペクトルから、周波数特性比較部132は、ケプストラム分析法等公知の方法を用いて、抽出された区間内での音響信号を包絡部分と微細構造部分とに分離する。周波数特性比較部132は、分離された包絡部分のパワースペクトルを算出する。周波数特性比較部132は、包絡部分のパワースペクトルの極大値(ピーク)の数を求め、ホルマント数とする。このとき、微小なピークはホルマント数から除いてもよい。
 周波数特性比較部132は、以下の式2を用いて、抽出された区間における音響信号の微細構造のパワースペクトルの分散を算出する。
Figure JPOXMLDOC01-appb-M000002
 以上のようにして、周波数特性比較部132は、音響フレームに含まれる音響信号の持続時間が一定値以上の区間それぞれについて、ホルマント数と微細構造パワースペクトルの分散の値とを算出する。
 例えば、図8に示される音響信号の場合には、区間Aの持続時間は0.12秒,区間Bの持続時間は0.04秒であるので、区間Aのみ持続時間が一定値(例えば、0.1秒)以上である。従って、周波数特性比較部132は、図8に示される音響信号の場合には、区間Aを抽出する。周波数特性比較部132は、抽出された、区間Aに含まれる音響信号の、ホルマント数と微細構造パワースペクトルの分散の値とを算出する。
 周波数特性比較部132は、抽出された各区間における音響信号のホルマント数及び微細構造パワースペクトルの分散の値と、特徴音A~C及び呼吸音のホルマント数及び微細構造パワースペクトルの分散の比較値の範囲とをそれぞれ比較する。以降、区間に含まれる音響信号のホルマント数及び微細構造パワースペクトルの分散の値は、「睡眠状態判定用パラメータ」と呼ばれる。
 周波数特性比較部132は、抽出された区間における睡眠状態判定用パラメータの値が、特徴音A~Cの睡眠状態判定用パラメータの比較値の範囲に含まれる場合には、当該区間に特徴音が含まれることを検出する。当該区間に特徴音が含まれることは、すなわち、当該区間を有する音響フレームに特徴音が含まれていることを示す。音響フレームに特徴音が含まれる状態は、被験者が呼吸停止状態から呼吸状態に遷移する状態である、「無呼吸回復状態」と呼ばれる。すなわち、周波数特性比較部132は、抽出された区間の内の少なくとも1つの区間が特徴音を含む場合には、音響フレームの睡眠状態を「無呼吸回復状態」であると判定する。
 周波数特性比較部132は、抽出された区間の睡眠状態判定用パラメータの値が呼吸音の睡眠状態判定用パラメータの比較値の範囲に含まれる場合には、当該区間に呼吸音が含まれることを検出する。
 周波数特性比較部132は、抽出された何れの区間にも特徴音が含まれず、且つ、抽出された区間のうち少なくとも1つの区間に呼吸音が含まれる場合には、音響フレームの睡眠状態を「呼吸あり状態」と判定する。
 周波数特性比較部132は、抽出された区間のいずれも、特徴音も呼吸音も含まない場合には、音響フレームに特徴音も呼吸音も含まれていないことを検出する。音響フレームに特徴音も呼吸音も含まれていない場合には、被験者は呼吸停止状態であることが推測される。被験者が呼吸停止状態である推測される状態を、「呼吸なし状態」と定義する。すなわち、抽出された区間のいずれの睡眠状態判定用パラメータの値も、特徴音A~C及び呼吸音のいずれかの睡眠状態判定用パラメータの比較値の範囲に含まれない場合には、周波数特性比較部132は、音響フレームの睡眠状態を「呼吸なし状態」であると判定する。
 例えば、図8に示される例の音響信号の場合には、区間Aに特徴音が含まれることが検出されるので、図8に示される例の音響信号の睡眠状態は「無呼吸回復状態」と判定される。
 周波数特性比較部132は、音響フレームの睡眠状態の判定結果として「無呼吸回復状態」,「呼吸あり状態」,及び「呼吸なし状態」のいずれかを無呼吸判定部14に出力する。
 図9は、周波数特性比較部132の音響フレームの睡眠状態決定処理のフローの例を示す図である。
 周波数特性比較部132は、1フレームに含まれる全サブフレームのパワースペクトル,該当する音響フレームに含まれる音響信号の持続区間,及びそれぞれの音響信号の持続区間の持続時間が入力されると、音響フレームの睡眠状態決定処理を開始する。
 周波数特性比較部132は、音響信号の持続時間が一定値以上の区間が、音響フレームに含まれるか否かを判定する(OP12)。例えば、周波数特性比較部132は、音響フレームに含まれる各区間について、音響信号の持続時間が0.1秒以上であるか否かを判定する。
 音響信号の持続時間が一定値以上の区間が、音響フレームに含まれる場合には(OP12:Yes)、周波数特性比較部132は、音響信号の持続時間が一定値以上の区間を抽出する。周波数特性比較部132は、抽出された各区間について、持続時間内の音響信号の周波数特性を算出する(OP13)。算出される周波数特性は、ホルマント数や微細構造パワースペクトルの分散等であり、各区間に含まれるサブフレームのパワースペクトルに基づいて算出される。
 周波数特性比較部132は、抽出された各区間の音響信号の周波数特性の値と、格納部133に格納される特徴音A~Cの周波数特性の比較値の範囲とを比較し、抽出された区間の何れかに特徴音が含まれるか否かを判定する(OP14)。
 抽出された区間の少なくとも1つに特徴音が含まれる場合には(OP14:Yes)、周波数特性比較部132は、音響フレームの睡眠状態を「無呼吸回復状態」と決定する(OP16)。周波数特性比較部132は、音響フレームの睡眠状態として「無呼吸回復状態」を出力し、音響フレームの睡眠状態決定処理を終了する。
 抽出された区間の何れにも特徴音が含まれない場合には(OP14:No)、周波数特性比較部132は、抽出された区間の少なくとも1つに呼吸音が含まれているか否かを判定する(OP15)。
 抽出された区間の少なくとも1つに呼吸音が含まれている場合には(OP15;Yes)、周波数特性比較部132は、音響フレームの睡眠状態を「呼吸あり状態」に決定する(OP17)。周波数特性比較部132は、音響フレームの睡眠状態として「呼吸あり状態」を出力し、音響フレームの睡眠状態決定処理を終了する。
 音響信号の持続時間が一定値以上の区間が、音響フレームに含まれない場合には(OP12:No)、周波数特性比較部132は、音響フレームの睡眠状態を「呼吸なし状態」に決定する(OP18)。また、抽出された各区間のいずれも特徴音及び呼吸音を含まない場合には(OP15;No)、周波数特性比較部132は、音響フレームの睡眠状態を「呼吸なし状態」に決定する(OP18)。周波数特性比較部132は、音響フレームの睡眠状態として「呼吸なし状態」を出力し、音響フレームの睡眠状態決定処理を終了する。
 <<無呼吸判定部の構成例>>
 無呼吸判定部14は、音響フレームの睡眠状態である、「呼吸あり状態」,「呼吸なし状態」,および「無呼吸回復状態」の何れか1つを入力として得る。無呼吸判定部14は、音響フレームの睡眠状態の履歴に基づいて、被験者の無呼吸状態を検出する。
 図10は、無呼吸判定部14の構成例を示す図である。無呼吸判定部14は、状態推移調査部141,遅延素子142,及び状態メモリ143を含む。
 入力された音響フレームの睡眠状態は、状態推移調査部141と、遅延素子142に入力される。遅延素子142は、1フレーム処理分遅延させて、音響フレームの睡眠状態を状態メモリ143に格納する。すなわち、遅延素子142は、音響フレームの睡眠状態が入力されると、一旦保持し、次の音響フレームの睡眠状態が入力されたときに、1つ前の音響フレームの睡眠状態を状態メモリ143に格納する。
 状態メモリ143には、音響フレームの睡眠状態が時系列に沿って順番に格納される。状態メモリ143は、現音響フレームから時間的に遡って、例えば、数分間分の音響フレームの睡眠状態の履歴を格納する。
 状態推移調査部141は、音響フレームの睡眠状態を入力として得る。音響フレームの睡眠状態が「無呼吸回復状態」である場合には、状態推移調査部141は、状態メモリ143に格納される音響フレームの睡眠状態の履歴を遡って調査する。
 図11は、睡眠時無呼吸症候群の患者の睡眠時の呼吸の例を示すグラフである。睡眠時無呼吸症候群の患者は、睡眠中、呼吸状態から、呼吸停止状態に遷移する。呼吸停止状態が一定時間(例えば、10秒から2分程度)経過したのち、特徴音が発生して、睡眠時無呼吸症候群の患者は呼吸を開始する。すなわち、睡眠時無呼吸症候群の患者は、睡眠中、「呼吸あり状態」ののち、「呼吸なし状態」を一定時間継続し、「無呼吸回復状態」へと推移する。
 状態推移調査部141は、睡眠時無呼吸症候群の患者の睡眠状態が、「呼吸あり状態」,「呼吸なし状態」を一定時間継続,「無呼吸回復状態」の順に推移することを利用し、被験者の無呼吸状態を検出する。すなわち、状態推移調査部141は、音響フレームの睡眠状態が「無呼吸回復状態」の場合には、状態メモリ143に格納される音響フレームの睡眠状態の履歴を調査する。状態推移調査部141は、現音響フレームの前に、「呼吸なし状態」が一定時間継続し、かつ、「呼吸なし状態」のさらに前に「呼吸あり状態」があるか否かを調査する。状態推移調査部141は、調査の結果、「呼吸あり状態」,「呼吸なし状態」が一定時間継続,その後「無呼吸回復状態」の順に被験者の睡眠状態が推移している場合には、被験者が無呼吸状態であることを検出する。
 状態推移調査部141は、音響フレームの睡眠状態が「呼吸あり状態」および「呼吸なし状態」の場合には、処理を終了する。状態推移調査部141は、無呼吸状態の検出結果を出力部15に出力する。
 図12は、無呼吸判定部14の状態推移調査部141の無呼吸状態検出処理の例のフローを示す図である。状態推移調査部141は、睡眠状態決定部13から、現音響フレームの睡眠状態が入力されることによって、無呼吸状態判定処理を開始する。
 状態推移調査部141は、現音響フレームの睡眠状態が「無呼吸回復状態」であるか否かを判定する(OP21)。
 現音響フレームの睡眠状態が「無呼吸回復状態」でない場合には(OP21:No)、すなわち、「呼吸なし状態」または「呼吸あり状態」の場合には、状態推移調査部141は、無呼吸状態判定処理を終了する。
 現音響フレームの睡眠状態が「無呼吸回復状態」である場合には(OP21:Yes)、状態推移調査部141は、状態メモリ143に格納されている音響フレームの睡眠状態の履歴を遡って調査する。
 状態推移調査部141は、音響フレームの睡眠状態の履歴を遡って調査し、現音響フレームの前に、「呼吸なし状態」が一定時間継続しているか否かを調査する(OP22)。呼吸をしていない状態が10秒以上継続すると、無呼吸状態と判断される。しかし、被験者が呼吸していない状態が数分以上続くような場合は、音響を収録するマイクが被験者とは逆の方向を向いている等の状態が考えられる。したがって、状態推移調査部141は、「呼吸なし状態」が、例えば、10秒以上2分未満継続しているか否かを調査する。なお、「呼吸なし状態」の継続時間は、睡眠状態が「呼吸なし状態」である音響フレームの連続している数によって検出可能である。例えば、1つの音響フレームが2秒である場合には、睡眠状態が「呼吸なし状態」である音響フレームが5つ以上連続している場合に、「呼吸なし状態」が10秒以上継続していることが検出される。
 「呼吸なし状態」が一定時間継続していない場合には(OP22:No)、被験者が単に特徴音を発しただけの場合等が考えられ、被験者が無呼吸状態であるとは確定できない。したがって、状態推移調査部141は、無呼吸状態判定処理を終了する。
 「呼吸なし状態」が一定時間継続している場合には(OP22:Yes)、状態推移調査部141は、「呼吸なし状態」のさらに前に、「呼吸あり状態」があるか否かを調査する(OP23)。「呼吸なし状態」のさらに前に、「呼吸あり状態」がない場合には(OP23:No)、被験者が無呼吸状態であるとは確定できないため、状態推移調査部141は、無呼吸状態判定処理を終了する。
 「呼吸なし状態」のさらに前に、「呼吸あり状態」がある場合には(OP23:Yes)、状態推移調査部141は、被験者が無呼吸状態であることを検出する(OP24)。状態推移調査部141は、無呼吸状態検出結果を出力部15に出力し、無呼吸状態検出処理を終了する。
 <<睡眠時無呼吸症候群の検査装置の動作例>>
 図13は、検査装置1の睡眠時無呼吸症候群の検査処理の例のフローを示す図である。
 被験者3(図2)は、就寝時に、検査装置1を起動することによって、睡眠時無呼吸症候群の検査を開始する。被験者3は、マイクロフォン2(図2)が被験者3の発する呼吸音や音声、および被験者の体動音を精度よく収集可能な向きに向ける。例えば、被験者3の就寝時の位置に対して上方にマイクロフォン2が配置される。被験者3は、その後、就寝する。
 検査装置1は、被験者3からの睡眠時無呼吸症候群の検査の開始操作を受け付けると、睡眠時無呼吸症候群の検査処理を開始する。
 検査装置1の入力部11は、マイクロフォン2からの音響信号の入力を受け付ける(OP31)。音響信号は、アナログ/ディジタル変換器17(図2),およびバッファ18(図2)を介して、音響フレームに変換され、音響分析部12のサブフレーム分割121に入力される。
 サブフレーム分割部121は音響フレームが入力されると、音響フレームをサブフレームに分割する(OP32)。サブフレーム分割部121は、サブフレームに分割された音響フレームを時間/周波数変換部122に出力する。
 サブフレームに分割された音響フレームが入力されると、音響分析部12の時間/周波数変換部122は、音響フレームに含まれる音響信号をフーリエ変換して、周波数領域の音響信号に変換する。時間/周波数変換部122は、周波数領域の音響信号に変換された音響フレームをパワースペクトル算出部123に出力する。パワースペクトル算出部123は、周波数領域の音響信号に変換された音響フレームが入力されると、音響フレームに含まれるサブフレームごとに、特徴量としてパワースペクトルを算出する(OP33)。パワースペクトル算出部123は、算出された音響フレームに含まれる全サブフレームのパワースペクトルを、睡眠状態決定部13に出力する。
 音響フレームに含まれる全サブフレームのパワースペクトルが入力されると、睡眠状態決定部13は、例えば、図7に示される音響信号の持続時間算出処理,及び図9に示される睡眠状態決定処理を実行し、音響フレームの睡眠状態を決定する(OP34)。睡眠状態決定部13は、決定された音響フレームの睡眠状態を無呼吸判定部14に出力する。
 無呼吸判定部14は、音響フレームの睡眠状態が入力されると、例えば、図12に示される、無呼吸状態検出処理を実行し、音響フレームの睡眠状態の履歴から、被験者の無呼吸状態を検出する(OP35)。無呼吸判定部14は、被験者の無呼吸状態の検出結果を、出力部15(図2)に出力する。
 出力部15は、無呼吸状態の検出結果を、ネットワーク5,ディスプレイ6,スピーカ7,二次記憶装置8の少なくとも1つに出力する。
 検査装置1は、被験者3によって、睡眠時無呼吸症候群の検査の終了操作が行われたか否かを判定する(OP36)。被験者3によって睡眠時無呼吸症候群の検査の終了操作が行われない場合には(OP36:No)、処理がOP31に戻る。すなわち、被験者3が就寝中はOP31からOP35の処理が繰り返される。
 被験者3が起床し、検査装置1を操作し、睡眠時無呼吸症候群の検査終了の操作を行うと、検査装置1が終了操作を検知し(OP36:Yes)、睡眠時無呼吸症候群の検査が終了する。
 <<第1実施形態の作用効果>>
 第1実施形態の睡眠時無呼吸症候群の検査装置1は、睡眠時無呼吸症候群の患者が無呼吸状態から呼吸状態に遷移する際に生じる特徴的な音を利用して、被験者の無呼吸状態を検出する。すなわち、被験者の睡眠時の音の解析を行い、特徴音が含まれているか否かを以て、被験者が無呼吸状態か否かを判定する。従って、被験者に器具を取り付けることなく、音を用いた簡易的な睡眠時無呼吸症候群の検査を実施することができる。さらに、音の解析によって得られた周波数特性を用いて判定を行うので、音量のみに基づき判定を行う場合に比べて、無呼吸状態の誤検出を防ぐことができ、無呼吸状態の検出の精度が向上する。
 また、検査装置1は、音響フレームに含まれる音響信号が特徴音および呼吸音か否かを判定し、音響フレームの睡眠状態を「呼吸あり状態」,「呼吸なし状態」,および「無呼吸回復状態」の何れかに決定する。音響フレームの睡眠状態が「無呼吸回復状態」と判定された場合には、検査装置1は、音響フレームの睡眠状態の履歴を調査し、睡眠状態が「呼吸あり状態」、「呼吸なし」状態が一定時間継続、「無呼吸回復状態」の順に遷移しているか否かを判定する。検査装置1は、音響フレームの睡眠状態が「呼吸あり状態」,「呼吸なし状態」が一定時間以上継続,「無呼吸回復状態」の順に推移する場合に、被験者が無呼吸状態であることを検出する。これによって、特徴音の誤検出等による無呼吸状態の誤検出を防止することができ、無呼吸状態の検出の精度を高めることができる。
 被験者にとっては、検査装置1によって、簡易に睡眠時無呼吸症候群の検査を行うことができる。検査装置1の睡眠時無呼吸症候群の検査結果を受けて、被験者は自身の睡眠時無呼吸状態を知ることができ、睡眠時無呼吸症候群の疑いがある場合には、専門の機関に精密な検査を受けるための判断をすることができる。
 <<第1実施形態の変形例>>
 第1実施形態の検査装置1の睡眠状態決定部13及び無呼吸判定部14は、以下の様に構成されてもよい。睡眠状態決定部13は、音響フレームに特徴音が含まれることを検出した場合に、特徴音が検出された旨の検出結果を無呼吸判定部14に出力する。睡眠状態決定部13から特徴音が検出された旨の検出結果が入力されると、無呼吸判定部14は、被験者の睡眠状態が無呼吸状態であることを検出する。無呼吸判定部14は、無呼吸状態の検出結果を、出力部15(図2)に出力する。
 また、第1実施形態の検査装置1の信号持続時間算出部131は、図7及び図8に示される例で説明されたようにして、音響信号の持続区間を求めた。これに代えて、信号持続時間算出部131は、基準のサブフレームTとの相関係数を求める、時間的に前に遡るサブフレームT-tの数を予め決めておいてもよい。基準のサブフレームTを含めて、時間的に前に遡るサブフレームの数wはウィンドウサイズと呼ばれる。信号持続時間算出部131は、ウィンドウに含まれるサブフレームそれぞれと基準のサブフレームとの相関係数を求めると、ウィンドウをずらして、次の基準のサブフレームT-1について、相関係数を求める。例えば、ウィンドウサイズがw=2の場合には、信号持続時間算出部131は、基準のサブフレームTとその直前のサブフレームT-1との相関係数を求めると、ウィンドウをずらして、次に、サブフレームT-1を基準のサブフレームとする。信号持続時間算出部131は、基準のサブフレームT-1とウィンドウに含まれるサブフレームT-2との相関係数を求める。さらに、信号持続時間算出部131は、ウィンドウをずらして、基準をサブフレームT-2とし、サブフレームT-2とウィンドウに含まれるサブフレームT-3との相関係数を求める。このように、信号持続時間算出部131は、ウィンドウを時間的に前に遡るようにしてずらしていき、基準のサブフレームをずらしながら、相関係数を求める。相関係数が閾値未満であるときには、その時の基準のサブフレームTにおける音響信号とサブフレームT-tにおける音響信号とは異なる音響信号であるとみなされる。信号持続時間算出部131は、サブフレームT-tとサブフレームT-t+1との境界を音響信号の持続区間の境界に定める。
 <第2実施形態>
 第2実施形態の睡眠時無呼吸症候群の検査装置は、第1実施形態の検査装置1の構成と共通する構成を有するため、相違する点についてのみ説明する。第2実施形態の睡眠時無呼吸症候群の検査装置は、第1実施形態の検査装置1と、睡眠状態決定部13の構成が異なる。
 図14は、第2実施形態の検査装置の睡眠状態決定部13bの構成例を示す図である。第2実施形態の睡眠状態決定部13bは、信号持続時間算出部131b,周波数特性比較部132b,格納部133,遅延素子134,およびパワースペクトル格納部135を備える。
 睡眠状態決定部13bに音響フレームに含まれる全サブフレームのパワースペクトルが入力されると、音響フレームに含まれる全サブフレームのパワースペクトルは、遅延素子134,信号持続時間算出部131b,および周波数特性比較部132bに入力される。遅延素子134は、1つの音響フレームに含まれる全サブフレームのパワースペクトルが入力されると、1フレーム処理分遅延させて、パワースペクトル格納部135に1つの音響フレームに含まれる全サブフレームのパワースペクトルを格納する。
 パワースペクトル格納部135は、所定時間分の音響フレームに含まれる全サブフレームのパワースペクトルを格納する。
 信号持続時間算出部131bは、1つの音響フレームに含まれる全サブフレームのパワースペクトルを入力として得る。信号持続時間算出部131bは、1つの音響フレームに含まれる全サブフレームのパワースペクトルに基づいて、音響フレームに含まれる音響信号の持続区間と持続時間とを算出する。音響フレームに含まれる音響信号の持続時間算出処理は、第1実施形態の信号持続時間算出部131で説明された処理と同様でよい。
 信号持続時間算出部131bは、例えば、式1を用いて、サブフレームTとサブフレームTよりtだけ時間的に前のサブフレームT-tとの相関係数r(t)を求める。このとき、第1実施形態の信号持続時間算出部131では、サブフレームの番号を示す変数Tの初期値は1であった。第2実施形態の信号持続時間算出部131は、サブフレームの番号を示す変数Tの初期値を0として扱う。
 図15は、信号持続時間算出部131bが実行する音響信号の持続時間算出処理のフローの例を示す図である。図15では、現在処理中の音響フレームF(Fは0を含む自然数)に含まれる先頭サブフレームはサブフレーム(F,0)と表わされる。音響フレームFに含まれる先頭からT+1番目のサブフレームはサブフレーム(F,T)と表わされる。
 信号持続時間算出部131bは、音響フレームに含まれる全サブフレームのパワースペクトルを、音響分析部12から入力されると、音響信号の持続時間算出処理を開始する。
 信号持続時間算出部131bは、サブフレームを示す変数Tの初期値をT=0に設定する(OP41)。サブフレームを示す変数Tの範囲は、0≦T≦M-1である(Mは1フレームに含まれるサブフレームの個数)。
 次に、信号持続時間算出部131bは、サブフレームTから時間的に遡るサブフレームの個数を示す変数tの値の初期値をt=1に設定する(OP42)。変数tの範囲は、1≦tである。
 信号持続時間算出部131bは、T-tが0より小さいか否かを判定する(OP43)。
 T-tが0より小さい場合には(OP43:Yes)、サブフレーム(F,T)の時間的にt個前のサブフレームが、音響フレームFの直前の音響フレームF-1に含まれるサブフレームであることを示す。従って、T-tが0より小さい場合には(OP43:Yes)、信号持続時間算出部131bは、音響フレームFに含まれるサブフレーム(F,T)と、音響フレームF-1に含まれるサブフレーム(F-1,M+T-t)との相関係数r(t)を求める(OP44)。信号持続時間算出部131bは、音響フレームFの直前の音響フレームF-1に含まれるサブフレーム(F-1,M+T-t)のパワースペクトルの値をパワースペクトル格納部135から読み出して、式1を用いて、相関係数r(t)を求める。
 T-tが0以上の場合には(OP43:No)、サブフレーム(F,T)の時間的にt個前のサブフレームが、音響フレームFに含まれることを示す。従って、信号持続時間算出部131bは、サブフレーム(F,T)と、サブフレーム(F,T)から見てt個前のサブフレーム(F,T-t)との相関係数r(t)を求める(OP45)。信号持続時間算出部131bは、式1を用いて、相関係数r(t)を求める。
 信号持続時間算出部131bは、算出された相関係数r(t)の値が、所定の閾値以上か否かを判定する(OP46)。例えば、所定の閾値は、0.7である。
 算出された相関係数r(t)の値が、閾値以上である場合には(OP46:Yes)、サブフレーム(F,T)に含まれる音響信号とサブフレーム(F,T-t)に含まれる音響信号が同じ音響信号であるとみなされる。または、算出された相関係数r(t)の値が、閾値以上である場合には(OP46:Yes)、サブフレーム(F,T)に含まれる音響信号とサブフレーム(F-1,M+T-t)に含まれる音響信号が同じ音響信号であるとみなされる。従って、算出された相関係数r(t)の値が閾値以上である場合には、信号持続時間算出部131bは、次に、サブフレーム(F,T)と、サブフレーム(F-1,M+T-t)のさらに1つ前のサブフレームとの相関係数r(t)を求める。すなわち、信号持続時間算出部131bは、変数t=t+1とする(OP47)。その後、処理がOP43に移り、サブフレーム(F,T)と、サブフレーム(F-1,M+T-t)との相関係数r(t)が求められる。
 算出された相関係数r(t)の値が、閾値未満である場合には(OP46:No)、サブフレーム(F,T)に含まれる音響信号と、サブフレーム(F,T-t)に含まれる音響信号が異なる音響信号であるとみなされる。又は、算出された相関係数r(t)の値が、閾値未満である場合には(OP46:No)、サブフレーム(F,T)に含まれる音響信号と、サブフレーム(F-1,M+T-t)に含まれる音響信号が異なる音響信号であるとみなされる。信号持続時間算出部131bは、算出された相関係数r(t)の値が閾値未満である場合には(OP46:No)、サブフレーム(F,T)とサブフレーム(F,T)のt個前のサブフレームとの相関係数r(t)を求める処理を終了する。
 算出された相関係数r(t)の値が閾値未満である場合には(OP46:No)、信号持続時間算出部131bは、サブフレーム(F,T-t)と、その1つ後のサブフレームとの境界を音響信号の持続区間の境界に定める(OP48)。または、信号持続時間算出部131bは、サブフレーム(F-1,M+T-t)と、その1つ後のサブフレームとの境界を音響信号の持続区間の境界に定める(OP48)。
 次に、信号持続時間算出部131bは、変数TがM-1より小さいか否かを判定する(OP49)。すなわち、信号持続時間算出部131bは、音響フレームFに含まれるすべてのサブフレーム(F,T)について、サブフレーム(F,T)からt個前のサブフレームとの相関係数r(t)を求める処理が終了したか否かを判定する。
 変数TがM-1より小さい場合には(OP49:Yes)、音響フレームFに含まれるすべてのサブフレーム(F,T)について、サブフレーム(F,T)からt個前のサブフレームとの相関係数r(t)を求める処理が終了していないことが示される。サブフレーム(F,T)の次のサブフレーム(F,T+1)について、サブフレーム(F,T+1)からt個前のサブフレームとの相関係数r(t)を求めるため、信号持続時間算出部131bは、変数T=T+1とする(OP50)。その後、処理がOP41に移る。
 変数TがM-1以上の場合には(OP49:No)、音響フレームFに含まれるすべてのサブフレーム(F,T)について、サブフレーム(F,T)からt個前のサブフレームとの相関係数r(t)を求める処理が終了したことが示される。信号持続時間算出部131bは、OP48において定められた区間の境界に基づいて、音響信号の持続する区間を決定し、各区間に含まれる音響信号の持続時間を算出する(OP51)。信号持続時間算出部131は、各区間に含まれるサブフレームの数を計算し、各区間における音響信号の持続時間を算出する。
 図15に示される例では、信号持続時間算出部131bは、サブフレーム(F,T)との相関係数r(t)の値が閾値以下になるまで、サブフレーム(F,T)と、サブフレーム(F,T)からt個前のサブフレームとの相関係数r(t)を求める処理を行う。すなわち、サブフレーム(F,T)に含まれる音響信号が音響フレームFの直前の音響フレームF-1にまたがる場合には、信号持続時間算出部131bは、直前の音響フレームF-1から音響フレームFに持続する音響信号の持続時間を算出する。
 信号持続時間算出部131bは、音響フレームF-1におよぶ音響信号の区間と持続時間,その他の音響フレームFに含まれる音響信号の区間と持続時間,及び音響フレームF-1におよんだ分の音響信号を含む音響フレームF-1のサブフレームのパワースペクトルとを周波数特性比較部132bに出力する。
 周波数特性比較部132bは、音響フレームFに含まれる全サブフレームのパワースペクトルと、音響フレームFに含まれる音響信号の区間と持続時間と、を入力として得る。また、音響フレームFに含まれる音響信号が、音響フレームFの直前の音響フレームF-1に及ぶ場合には、周波数特性比較部132bは、直前の音響フレームF-1に及んだ分の音響信号が含まれるサブフレームのパワースペクトルも入力として得る。周波数特性比較部132bは、第1実施形態の周波数特性比較部132bと同様にして、音響信号の持続時間が一定値以上である区間を抽出する。周波数特性比較部132bは、抽出された区間の音響信号を含むサブフレームのパワースペクトルから、ホルマント数と微細構造パワースペクトルの分散とを算出する。音響フレームFに含まれる音響信号が、直前の音響フレームF-1に及ぶ場合には、周波数特性比較部132bは、音響フレームF-1に及ぶ分の音響フレームF-1のサブフレームを含んだ区間の音響信号のホルマント数と微細構造パワースペクトルの分散とを算出する。
 周波数特性比較部132bは、抽出された区間に含まれる音響信号のホルマント数と微細構造パワースペクトルの分散の値と、格納部133に格納される特徴音A~C及び呼吸音のホルマント数と微細構造パワースペクトルの分散との比較値の範囲とを比較する。比較の結果によって、周波数特性比較部132bは、音響フレームFの睡眠状態を「呼吸あり状態」,「呼吸なし状態」,及び「無呼吸回復状態」の何れかに決定する。すなわち、周波数特性比較部132bは、図9に示される睡眠状態決定処理を実行する。
 周波数特性比較部132bは、現音響フレームの睡眠状態を無呼吸判定部14に出力する。
 <<第2実施形態の作用効果>>
 睡眠状態決定部13bに、過去の音響フレームに含まれる全サブフレームのパワースペクトルの値を格納するパワースペクトル格納部135を備える。これによって、信号持続時間算出部131bは、現音響フレームの直前の音響フレームに含まれるサブフレームのパワースペクトルを用いて、音響信号の持続時間を算出することができる。直前の音響フレームに含まれるサブフレームのパワースペクトルを用いることによって、例えば、音響信号が直前の音響フレームに及ぶ場合にも、音響フレームの睡眠状態を精度よく決定することができる。
 図16は、第2実施形態の作用効果を説明するため例の図である。図16に示される例では、特徴音の音響信号が連続する音響フレームF-1と音響フレームFとに分断される。第1実施形態の睡眠状態決定部13は、直前の音響フレームF-1に含まれるサブフレームのパワースペクトルを用いて音響信号の持続時間を算出することができない。すなわち、第1実施形態の睡眠状態決定部13は、音響フレームFに含まれる音響信号のみの持続時間,ホルマント数,微細構造パワースペクトルの分散を算出する。したがって、図16に示される例における、音響フレームF-1及び音響フレームFのそれぞれに含まれる特徴音の音響信号は、持続時間が一定値未満となってしまう可能性がある。また、音響フレームF-1及び音響フレームFのそれぞれに含まれる特徴音の音響信号の睡眠状態判断用パラメータ(ホルマント数及び微細構造パワースペクトルの分散)の値は、特徴音A~C及び呼吸音の何れのホルマント数及び微細構造パワースペクトルの分散との比較値の範囲に含まれない可能性がある。すなわち、図16に示される例の場合には、第1実施形態の睡眠状態決定部13は、音響フレームF-1及び音響フレームFの睡眠状態を「呼吸なし状態」と決定し、睡眠状態の誤りが発生する可能性がある。
 また、呼吸音の音響信号が音響フレームF-1と音響フレームFとにまたがる場合も考えられる。音響フレームF-1又は音響フレームFに含まれる呼吸音の音響信号の睡眠状態判定用パラメータの値が、特徴音A~Cのいずれかの睡眠状態判定用パラメータが取り得る値の範囲に含まれる可能性がある。従って、第1実施形態の睡眠状態決定部13は、呼吸音が音響フレームF-1と音響フレームFとに含まれているにもかかわらず、音響フレームF-1又は音響フレームFの睡眠状態を「無呼吸回復状態」と決定し、睡眠状態の誤りが発生する可能性がある。
 第2実施形態の睡眠状態決定部13bでは、直前の音響フレームF-1に含まれるサブフレームのパワースペクトルを用いて、音響フレームFに含まれる音響信号の持続時間を算出することができる。また、音響信号が直前の音響フレームF-1に及ぶ場合には、直前の音響フレームF-1に及ぶ音響信号のサブフレームのパワースペクトルを用いて、音響フレームFの睡眠状態決定処理を行うことができる。したがって、第2実施形態の睡眠状態決定部13bは、図16における音響フレームFに特徴音が含まれることを検出することができ、音響フレームFの睡眠状態を「無呼吸回復状態」と決定することができる。すなわち、第2実施形態の睡眠状態決定部13bによれば、音響フレームの睡眠状態決定の誤りを抑えることができる。
 <<第2実施形態の変形例>>
 信号持続時間算出部131bは、2つ以上の音響フレームにわたって持続する音響信号の持続時間を算出する場合には、図15のOP44における処理の代わりに、以下のような処理を行ってもよい。
 図15のOP43において、T-tが0より小さい場合には、信号持続時間算出部131bは、サブフレーム(F,T)と、サブフレーム(F,T)よりt個前のサブフレーム(F-n,Mn+T-t)との相関係数r(t)を算出する。すなわち、サブフレーム(F,T)よりt個前のサブフレームが、音響フレームF-nに含まれることを示す。nは、以下の式3を満たす最大の0を含まない自然数である。
Figure JPOXMLDOC01-appb-M000003
 これによって、音響信号が音響フレームF-nに含まれるサブフレームから、音響フレームFに含まれるサブフレーム(F,T)まで持続する場合でも、音響信号の持続時間を算出することができる。すなわち、音響信号が2つ以上の音響フレームにわたって持続する場合でも、音響信号の持続時間を算出することができる。
 <第3実施形態>
 第3実施形態の睡眠時無呼吸症候群の検査装置は、第1実施形態の検査装置1の構成と共通する構成を有するため、相違する点についてのみ説明する。
 図17は、睡眠時無呼吸症候群の検査システムの構成例を示す図である。第3実施形態の睡眠時無呼吸症候群の検査システムは、検査装置1cと、検査装置1cに接続された媒体駆動装置20とを含む。第3実施形態の検査装置1cは、事前に録音された被験者の就寝中の音響データから、睡眠時無呼吸症候群の検査を行う。
 検査装置1cは、入力部11c,CPU16,主記憶装置19,出力部15,バッファ18,及びディスプレイ6を備える。
 入力部11cは、可搬記録媒体21から音響データを読み出す媒体駆動装置20と接続し、媒体駆動装置20から可搬記録媒体21に格納された音響データが入力される。または、入力部11cは、ネットワーク10と接続しており、ネットワーク10を通じて被験者の端末から音響データが入力される。このとき、入力される音響データは、ディジタル信号に変換済みである。入力部11cは、バッファ18に音響データを出力する。
 バッファ18,主記憶装置19,及びCPU16については、第1実施形態で説明された構成と同様のため、説明は省略される。なお、CPU16は、主記憶装置19に保持される睡眠時無呼吸症候群の検査プログラムを読み出し、音響分析部12,睡眠状態決定部13,及び無呼吸判定部14として動作する。音響分析部12,睡眠状態決定部13,及び無呼吸判定部14についても、第1実施形態で説明された構成と同様のため、説明は省略される。
 出力部15は、無呼吸判定部14から無呼吸状態の検出結果を入力として得る。出力部15は、無呼吸状態の検出結果をネットワーク5、プリンタ30、及びディスプレイ6に出力する。出力部15から出力される無呼吸状態の検出結果は、ディスプレイ6に表示されてもよい。出力部15から出力される無呼吸状態の検出結果は、ネットワーク5を通じて、被験者の端末に送信されてもよい。出力部15から出力される無呼吸状態の検出結果は、プリンタ30に出力され、紙媒体に印刷されてもよい。
 <睡眠時無呼吸症候群の検査装置のハードウェア構成>
 第1実施形態の検査装置1,第2実施形態の検査装置,及び第3実施形態の検査装置1c(以下、まとめて「検査装置」)は、情報処理装置(コンピュータ)を適用できる。情報処理装置とは、例えば、パーソナルコンピュータのような汎用のコンピュータや睡眠時無呼吸症候群の検査を実施する専用のコンピュータを用いて実現することができる。また、第1実施形態及び第2実施形態の検査装置は、携帯電話機を用いて実現することができる。
 検査装置は、プロセッサ,主記憶装置,入力装置,出力装置,二次記憶装置,及び通信インタフェース装置のような周辺装置とのインタフェース装置を含む。主記憶装置及び二次記憶装置はコンピュータ読み取り可能な記録媒体である。
 検査装置は、プロセッサが記録媒体に記憶されたプログラムを主記憶装置の作業領域にロードして実行し、プログラムの実行を通じて周辺装置が制御されることによって、所定の目的に合致した機能を実現することができる。
 プロセッサは、例えば、CPU(Central Prosessing Unit)や、DSP(Digital Signal Processor)である。主記憶装置は、例えば、ROM(Read Only Memory)やRAM(Random Access Memory)を含む。
 二次記憶装置は、例えば、EPROM(Erasable Programmable ROM),又はハードディスクドライブ(Hard Disk Drive)である。また、二次記憶装置は、リムーバブルメディア、すなわち可搬記録媒体を含むことができる。リムーバブルメディアは、例えば、USB(Universal Serial Bus)メモリ、或いは、CD(Compact Disc)やDVD(Degital Versatile Disc)のようなディスク記録媒体である。
 通信インタフェース装置は、有線のネットワーク、および、無線のネットワークと接続する。通信インタフェース装置は、例えば、LAN(Local Area Network)インタフェースボートや、無線通信のための無線通信回路である。
 さらに、周辺装置は、キーボードやポインティングデバイスのような入力装置や、ディスプレイ装置やプリンタのような出力装置を含む。また、入力装置はマイクロフォンのような音声の入力装置を含むことができる。また、出力装置は、スピーカのような音声の出力装置を含むことができる。
 検査装置として使用されるコンピュータは、プロセッサによる記録媒体上の睡眠時無呼吸症候群の検査プログラムの実行を通じて、周辺装置が制御されることによって、音響分析部12,睡眠状態決定部13,及び無呼吸判定部14としての機能を実現する。格納部133,状態メモリ143,パワースペクトル格納部135は、静的に又はプログラムの実行過程で主記憶装置又は二次記憶装置の記憶領域に作成される。
 <第4実施形態>
 図18は、第4実施形態の睡眠時無呼吸症候群の検査システムの構成例を示す図である。第4実施形態の睡眠時無呼吸症候群の検査システムは、検査装置100と、収音装置50とを含む。検査装置100は、分析部101,判定部102,検出部103,及び格納部104を含む。
 収音装置50は、被験者の睡眠時に生じた音響信号を収集し、検査装置100に出力する。
 検査装置100の分析部101は、収音装置で収集された被験者の睡眠時に生じた音響信号を入力として得る。分析部101は、入力された音響信号を分析する。分析部101は、音響信号の分析結果を判定部102に出力する。
 判定部102は、分析部101から音響信号の分析結果を入力として得る。判定部102は、分析部101の分析結果において、音響信号に特徴音が含まれているか否かを判定する。特徴音は、睡眠状態が無呼吸状態から呼吸状態へ回復する際に生じる音である。判定部102は、特徴音が含まれるか否かの判定結果を検出部103に出力する。
 検出部103は、特徴音が含まれるか否かの判定結果を入力として得る。検出部103は、特徴音が含まれると判定された場合、無呼吸状態を検出する。検出部103は、無呼吸状態の検出結果を出力する。
 睡眠時無呼吸症候群の検査装置100は、睡眠状態が無呼吸状態から呼吸状態へ回復する際に生じる特徴音が、被験者の睡眠時に生じた音響信号に含まれることを判定する。これによって、特徴音が検出されない限り無呼吸状態は検出されないので、睡眠時の無呼吸状態を精度よく検出することができる。
 また、検査装置100は、以下のように構成されてもよい。分析部101は、入力された音響信号を単位時間毎に分析する。分析部101は、単位時間の音響信号の分析結果を判定部102に出力する。
 判定部102は、単位時間の音響信号に特徴音が含まれているかを判定する。判定部102は、単位時間の音響信号に特徴音が含まれていない場合には、当該単位時間の音響信号に呼吸音が含まれているか否かを判定する。
 判定部102は、単位時間の音響信号に特徴音が含まれている場合には、睡眠状態が「無呼吸回復状態」であると判定する。
 判定部102は、単位時間の音響信号に特徴音が含まれていないが呼吸音が含まれている場合には睡眠状態が「呼吸あり状態」であると判定する。
 判定部102は、単位時間の音響信号に特徴音及び呼吸音が含まれていない場合には睡眠状態が「呼吸なし状態」であると判定する。
 判定部102は、判定された睡眠状態を、検出部103と格納部104に出力する。
 格納部104は、判定部102からの睡眠状態を入力として得る。格納部104は、睡眠状態を時系列に沿った順番で格納する。すなわち、格納部104は、睡眠状態の履歴を保持する。
 検出部103は、判定部102から睡眠状態を入力として得る。格納部に格納された睡眠状態の履歴が少なくとも「呼吸なし状態」から「無呼吸回復状態」への遷移を示す場合に、無呼吸状態を検出する。検出部103は、無呼吸状態の検出結果を出力する。
 睡眠時無呼吸症候群の検査装置100は、単位時間毎に音響信号を分析し、単位時間の音響信号に特徴音及び呼吸音が含まれているかを判定する。検査装置100は、判定結果に基づいて、単位時間の音響信号から見た被験者の睡眠状態を「無呼吸回復状態」,「呼吸あり状態」,及び「呼吸なし状態」の何れかであると判定する。検査装置100は、単位時間の被験者の睡眠状態の履歴が、少なくとも「呼吸なし状態」から「無呼吸回復状態」への遷移を示す場合に、被験者の無呼吸状態を検出する。これによって、より慎重に無呼吸状態を検出することができ、無呼吸状態の検出の精度を高めることができる。
 また、検査装置100の分析部101は、音響信号に含まれる被験者により生じる音の音響信号の持続時間と周波数特性を算出し、判定部102は、被験者により生じる音の音響信号の持続時間及び周波数特性が特徴音と一致するか否かを判定するようにしてもよい。
 また、検査装置100の分析部101は、単位時間における音響信号を所定の時間区間長でM個(M:0を含まない自然数)の時間区間に分割し、時間区間毎のパワースペクトルを算出するようにしてもよい。判定部102は、或る時間区間T(0≦T≦M-1)における音響信号のパワースペクトルと時間区間T以前の時間区間(T-t)(0<t)における音響信号のパワースペクトルとの相関係数を求める。当該相関係数が閾値以上であれば、判定部102は、時間区間(T-t)から時間区間Tまで持続する音響信号を検出することで、当該音響信号の持続時間を算出してもよい。さらに判定部102は、時間区間(T-t)が当該単位時間より以前の単位時間に含まれる時間区間を示す場合には、時間区間Tにおける音響信号のパワースペクトルと当該単位時間より以前の単位時間に含まれる時間区間(T-t)におけるパワースペクトルとの相関係数を求めてもよい。これによって、当該相関係数が閾値以上であれば、当該単位時間より以前の単位時間に含まれる時間区間(T-t)から時間区間Tまで持続する音響信号を検出することができる。当該単位時間より以前の単位時間に含まれる時間区間(T-t)から時間区間Tまで持続する音響信号が検出されることによって、判定部102は、或る単位時間の音響信号に特徴音又は呼吸音が含まれることを精度よく判定することができる。或る単位時間の音響信号に特徴音又は呼吸音が含まれることが精度よく判定されることによって、判定部102は、或る単位時間の睡眠状態を精度よく判定することができる。結果として、睡眠時の無呼吸状態の検出の精度が向上する。
 判定部102は、時間区間(T-t)から時間区間Tまで持続する音響信号の持続時間、ホルマント数及びパワースペクトルの分散特性を含む音響信号の音響的特徴を表す音響パラメータを算出してもよい。判定部102は、音響パラメータをあらかじめ定められた特徴音及び呼吸音の音響的特徴と比較することで、睡眠状態を「無呼吸回復状態」,「呼吸あり状態」,「呼吸なし状態」のいずれであるかを判定してもよい。
1,1c,100     睡眠時無呼吸症候群の検査装置
2     マイクロフォン
3     被験者
5     ネットワーク
6     ディスプレイ
7     スピーカ
8     二次記憶装置
11,11c  入力部
12   音響分析部
13,13b   睡眠状態決定部
14   無呼吸判定部
15   出力部
17   アナログ/ディジタル変換部
18   バッファ
20   媒体駆動装置
21   可搬記録媒体
30   プリンタ
50   収音装置
101 分析部
102 判定部
103 検出部
104 格納部
121 サブフレーム分割部
122 時間/周波数変換部
123 パワースペクトル算出部
131,131b      信号持続時間算出部
132 周波数特性比較部
133 格納部
134 遅延素子
135 パワースペクトル格納部
141 状態推移調査部
142 遅延素子
143 状態メモリ

Claims (12)

  1.  収音装置で収音された被験者の睡眠時に生じる音響信号を分析する分析部と、
     前記分析部の分析結果に基づいて、前記音響信号に前記被験者の睡眠状態が無呼吸状態から呼吸状態へ回復する際に生じる特徴音が含まれているか否かを判定する判定部と、
    を含む睡眠時無呼吸症候群の検査装置。
  2.  前記音響信号に前記特徴音が含まれている場合に、無呼吸状態を検出する検出部をさらに含む請求項1に記載の睡眠時無呼吸症候群の検査装置。
  3.  前記分析部は、前記音響信号の分析を単位時間毎に行い、
     前記判定部は、前記分析部の分析結果に基づいて、当該単位時間の音響信号に少なくとも前記特徴音が含まれているか否かを判定し、当該単位時間の音響信号に前記特徴音が含まれている場合には睡眠状態が「無呼吸回復状態」であると判定し、当該単位時間の音響信号に前記特徴音及び呼吸音が含まれていない場合には前記睡眠状態が「呼吸なし状態」であると判定し、
     前記睡眠状態が少なくとも「呼吸なし状態」から「無呼吸回復状態」への推移を示す場合に、無呼吸状態を検出する検出部と、
    をさらに含む請求項1又は2に記載の睡眠時無呼吸症候群の検査装置。
  4.  前記睡眠状態の履歴を保持する格納部
    をさらに含む請求項3に記載の睡眠時無呼吸症候群の検査装置。
  5.  前記判定部は、当該単位時間の音響信号に前記特徴音は含まれていないが前記呼吸音が含まれている場合は前記睡眠状態が「呼吸あり状態」と判定し、
     前記検出部は、前記格納部に格納された前記睡眠状態の履歴が「呼吸あり状態」,「呼吸なし状態」,「無呼吸回復状態」の順に推移する場合に、前記無呼吸状態を検出する
    請求項4に記載の睡眠時無呼吸症候群の検査装置。
  6.  前記分析部は、前記音響信号に含まれる被験者によって生じる音と認められる音響信号の持続時間と周波数特性を算出し、
     前記判定部は、当該音響信号の前記持続時間及び前記周波数特性が前記特徴音と一致するか否かを判定する
    請求項1から5いずれか一項に記載の睡眠時無呼吸症候群の検査装置。
  7.  前記分析部は、単位時間における音響信号を所定の時間区間長でM個(M:0を含まない自然数)の時間区間に分割し、時間区間毎のパワースペクトルを算出し、
     前記判定部は、或る時間区間T(0≦T≦M-1)における音響信号のパワースペクトルと前記時間区間T以前の時間区間(T-t)(0<t)における音響信号のパワースペクトルとの相関係数を求め、当該相関係数が閾値以上であれば、前記時間区間(T-t)から前記時間区間Tまで持続する音響信号を検出することで、当該音響信号の持続時間を算出する
    請求項1から6のいずれか一項に記載の睡眠時無呼吸症候群の検査装置。
  8.  前記判定部は、前記時間区間(T-t)が当該単位時間より以前の単位時間に含まれる時間区間を示す場合には、前記時間区間Tにおける音響信号のパワースペクトルと当該単位時間より以前の単位時間に含まれる時間区間(T-t)におけるパワースペクトルとの相関係数を求め、当該相関係数が前記閾値以上であれば、当該単位時間より以前の単位時間に含まれる時間区間(T-t)から前記時間区間Tまで持続する音響信号を検出することで、当該音響信号の持続時間を算出する
    請求項7に記載の睡眠時無呼吸症候群の検査装置。
  9.  前記判定部は、前記音響信号の音響的特徴を表す音響パラメータを算出し、
     前記音響パラメータをあらかじめ定められる前記特徴音及び前記呼吸音の前記音響的特徴と比較することで、前記睡眠状態を「無呼吸回復状態」,「呼吸あり状態」,「呼吸なし状態」のいずれであるかを判定する
    請求項7又は8に記載の睡眠時無呼吸症候群の検査装置。
  10.  前記音響パラメータは、前記音響信号の持続時間、ホルマント数及びパワースペクトルの分散特性である
    請求項9に記載の睡眠時無呼吸症候群の検査装置。
  11.  コンピュータが、
     収音装置で収音された睡眠時に生じる音響信号を分析し、
     前記分析部の分析結果に基づいて、前記音響信号に無呼吸状態から呼吸状態へ回復する際に生じる特徴音が含まれているか否かを判定する
    睡眠時無呼吸症候群の検査方法。
  12.  睡眠時無呼吸症候群の検査装置として動作するコンピュータに、
     収音装置で収音された睡眠時に生じる音響信号を分析するステップと、
     前記分析の結果に基づいて、前記音響信号に無呼吸状態から呼吸状態へ回復する際に生じる特徴音が含まれているか否かを判定するステップと
    を実行させるためのプログラム。
     
PCT/JP2009/063255 2009-07-24 2009-07-24 睡眠時無呼吸症候群の検査装置及びプログラム WO2011010384A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2011523522A JP5177293B2 (ja) 2009-07-24 2009-07-24 睡眠時無呼吸症候群の検査装置及びプログラム
EP09847569.2A EP2457504B1 (en) 2009-07-24 2009-07-24 Sleep apnea syndrome examination device and program
PCT/JP2009/063255 WO2011010384A1 (ja) 2009-07-24 2009-07-24 睡眠時無呼吸症候群の検査装置及びプログラム
US13/355,860 US9307950B2 (en) 2009-07-24 2012-01-23 Sleep apnea syndrome testing apparatus, test method for sleep apnea syndrome and tangible recording medium recording program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2009/063255 WO2011010384A1 (ja) 2009-07-24 2009-07-24 睡眠時無呼吸症候群の検査装置及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/355,860 Continuation US9307950B2 (en) 2009-07-24 2012-01-23 Sleep apnea syndrome testing apparatus, test method for sleep apnea syndrome and tangible recording medium recording program

Publications (1)

Publication Number Publication Date
WO2011010384A1 true WO2011010384A1 (ja) 2011-01-27

Family

ID=43498869

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/063255 WO2011010384A1 (ja) 2009-07-24 2009-07-24 睡眠時無呼吸症候群の検査装置及びプログラム

Country Status (4)

Country Link
US (1) US9307950B2 (ja)
EP (1) EP2457504B1 (ja)
JP (1) JP5177293B2 (ja)
WO (1) WO2011010384A1 (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012155257A1 (en) * 2011-05-17 2012-11-22 University Health Network Osa/csa diagnosis using recorded breath sound amplitude profile and pitch contour
EP2526864A1 (en) * 2011-05-25 2012-11-28 Fujitsu Limited Body movement detecting apparatus and method
JPWO2011155048A1 (ja) * 2010-06-10 2013-08-01 富士通株式会社 音声処理装置および呼吸検出方法
WO2013113950A1 (es) * 2012-01-31 2013-08-08 Torytrans, S.L. Metodo y sistema de electroestimulacion para el tratamiento de la apnea del sueño
EP2644096A1 (en) 2012-03-27 2013-10-02 Fujitsu Limited Apnea episode determination device
EP2653107A1 (en) * 2012-04-19 2013-10-23 Fujitsu Limited Apnea determining program, apnea determining device, and apnea determining method
EP2653108A1 (en) * 2012-04-19 2013-10-23 Fujitsu Limited Apnea determining program, apnea determining apparatus, and apnea determining method
US9232910B2 (en) 2008-11-17 2016-01-12 University Health Network Method and apparatus for monitoring breathing cycle by frequency analysis of an acoustic data stream
US9649087B2 (en) 2011-05-17 2017-05-16 University Health Network Method and device for apnea and hypopnea detection
US9949667B2 (en) 2008-11-17 2018-04-24 University Health Network Mask and method for use in respiratory monitoring and diagnostics
JP2018527985A (ja) * 2015-08-17 2018-09-27 レスメッド センサー テクノロジーズ リミテッド 睡眠障害呼吸のためのスクリーナー
US10506969B2 (en) 2015-11-03 2019-12-17 University Health Network Acoustic upper airway assessment system and method, and sleep apnea assessment system and method relying thereon
JP2020069113A (ja) * 2018-10-31 2020-05-07 パイオニア株式会社 処理装置、システム、処理方法、およびプログラム
WO2023048158A1 (ja) * 2021-09-22 2023-03-30 国立大学法人電気通信大学 睡眠時無呼吸症候群判定装置、睡眠時無呼吸症候群判定方法およびプログラム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013179254A1 (en) * 2012-05-31 2013-12-05 Ben Gurion University Of The Negev Research And Development Authority Apparatus and method for diagnosing sleep quality
GB2562664A (en) * 2016-02-03 2018-11-21 Univ Nanyang Tech Methods for detecting a sleep disorder and sleep disorder detection devices
CN112788986A (zh) * 2018-10-01 2021-05-11 皇家飞利浦有限公司 用于睡眠分阶段的系统和方法
CN114754905B (zh) * 2021-01-08 2023-10-31 深圳爱根斯通科技有限公司 对象状态检测方法、装置、智能终端及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001029328A (ja) 1999-07-23 2001-02-06 Toshiba Corp 事故防止装置
JP2003339674A (ja) * 2002-05-29 2003-12-02 Yokogawa Electric Corp 睡眠段階推定方法及びその方法を用いた装置
JP2005152328A (ja) * 2003-11-26 2005-06-16 Denso Corp 無呼吸症候群の検査装置
JP2007014501A (ja) * 2005-07-06 2007-01-25 Toshiba Corp 呼吸状態判定装置、呼吸状態判定方法および呼吸状態判定プログラム
JP2007061203A (ja) * 2005-08-29 2007-03-15 Kitakyushu Foundation For The Advancement Of Industry Science & Technology 体温センサ付き検出端を用いた睡眠中呼吸音の解析による睡眠時無呼吸症候群の検出・評価システム
JP2007300951A (ja) * 2006-05-08 2007-11-22 Mitsubishi Electric Corp 健康状態測定装置及び健康管理システム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5522382A (en) * 1987-06-26 1996-06-04 Rescare Limited Device and method for treating obstructed breathing having a delay/ramp feature
US6168568B1 (en) * 1996-10-04 2001-01-02 Karmel Medical Acoustic Technologies Ltd. Phonopneumograph system
US6290654B1 (en) * 1998-10-08 2001-09-18 Sleep Solutions, Inc. Obstructive sleep apnea detection apparatus and method using pattern recognition
US6666830B1 (en) * 2000-08-17 2003-12-23 East River Ventures, Lp System and method for detecting the onset of an obstructive sleep apnea event
JP3823887B2 (ja) 2002-06-27 2006-09-20 株式会社デンソー 無呼吸症候群の検査装置
US6932774B2 (en) 2002-06-27 2005-08-23 Denso Corporation Respiratory monitoring system
US7567900B2 (en) * 2003-06-11 2009-07-28 Panasonic Corporation Harmonic structure based acoustic speech interval detection method and device
JP4472294B2 (ja) * 2003-08-22 2010-06-02 株式会社サトー 睡眠時無呼吸症候群診断装置、並びに、信号解析装置及びその方法
US7306564B2 (en) 2003-11-26 2007-12-11 Denso Corporation Breath monitor
JP4407365B2 (ja) 2004-04-23 2010-02-03 パナソニック電工株式会社 睡眠状態検出装置
JP2008507316A (ja) * 2004-07-23 2008-03-13 インターキュア リミティド 非接触マイクを使用する呼吸パターン決定のための装置と方法
US7559903B2 (en) * 2007-03-28 2009-07-14 Tr Technologies Inc. Breathing sound analysis for detection of sleep apnea/popnea events

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001029328A (ja) 1999-07-23 2001-02-06 Toshiba Corp 事故防止装置
JP2003339674A (ja) * 2002-05-29 2003-12-02 Yokogawa Electric Corp 睡眠段階推定方法及びその方法を用いた装置
JP2005152328A (ja) * 2003-11-26 2005-06-16 Denso Corp 無呼吸症候群の検査装置
JP2007014501A (ja) * 2005-07-06 2007-01-25 Toshiba Corp 呼吸状態判定装置、呼吸状態判定方法および呼吸状態判定プログラム
JP2007061203A (ja) * 2005-08-29 2007-03-15 Kitakyushu Foundation For The Advancement Of Industry Science & Technology 体温センサ付き検出端を用いた睡眠中呼吸音の解析による睡眠時無呼吸症候群の検出・評価システム
JP2007300951A (ja) * 2006-05-08 2007-11-22 Mitsubishi Electric Corp 健康状態測定装置及び健康管理システム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HIROSHI NAKANO: "Suiminji Mukokyu Shokogun to Ibikion no Kaiseki", THE JAPANESE JOURNAL OF CHEST DISEASES, vol. 63, no. 7, 20 July 2004 (2004-07-20), pages 644 - 653, XP008149419 *
See also references of EP2457504A4 *

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9949667B2 (en) 2008-11-17 2018-04-24 University Health Network Mask and method for use in respiratory monitoring and diagnostics
US9232910B2 (en) 2008-11-17 2016-01-12 University Health Network Method and apparatus for monitoring breathing cycle by frequency analysis of an acoustic data stream
JPWO2011155048A1 (ja) * 2010-06-10 2013-08-01 富士通株式会社 音声処理装置および呼吸検出方法
JP5765338B2 (ja) * 2010-06-10 2015-08-19 富士通株式会社 音声処理装置および音声処理装置の作動方法
US9801590B2 (en) 2011-05-17 2017-10-31 University Health Network Breathing disorder identification, characterization and diagnosis methods, devices and systems
US11751817B2 (en) 2011-05-17 2023-09-12 University Health Network Breathing disorder identification, characterization and diagnosis methods, devices and systems
WO2012155257A1 (en) * 2011-05-17 2012-11-22 University Health Network Osa/csa diagnosis using recorded breath sound amplitude profile and pitch contour
US9649087B2 (en) 2011-05-17 2017-05-16 University Health Network Method and device for apnea and hypopnea detection
CN103687540A (zh) * 2011-05-17 2014-03-26 大学健康网络 使用记录的呼吸音振幅谱图和音高升降曲线诊断osa/csa
EP2526864A1 (en) * 2011-05-25 2012-11-28 Fujitsu Limited Body movement detecting apparatus and method
WO2013113950A1 (es) * 2012-01-31 2013-08-08 Torytrans, S.L. Metodo y sistema de electroestimulacion para el tratamiento de la apnea del sueño
US9114256B2 (en) 2012-01-31 2015-08-25 Torytrans, S.L Electrostimulation method and system for the treatment of sleep apnea
US20130261485A1 (en) * 2012-03-27 2013-10-03 Fujitsu Limited Apnea episode determination device and apnea episode determination method
EP2644096A1 (en) 2012-03-27 2013-10-02 Fujitsu Limited Apnea episode determination device
US9629582B2 (en) 2012-03-27 2017-04-25 Fujitsu Limited Apnea episode determination device and apnea episode determination method
EP2653108A1 (en) * 2012-04-19 2013-10-23 Fujitsu Limited Apnea determining program, apnea determining apparatus, and apnea determining method
EP2653107A1 (en) * 2012-04-19 2013-10-23 Fujitsu Limited Apnea determining program, apnea determining device, and apnea determining method
JP2013223532A (ja) * 2012-04-19 2013-10-31 Fujitsu Ltd 無呼吸判定プログラム、無呼吸判定装置及び無呼吸判定方法
CN103371829A (zh) * 2012-04-19 2013-10-30 富士通株式会社 无呼吸确定装置和无呼吸确定方法
CN103371830A (zh) * 2012-04-19 2013-10-30 富士通株式会社 无呼吸确定装置和无呼吸确定方法
CN103371830B (zh) * 2012-04-19 2016-06-29 富士通株式会社 无呼吸确定装置和无呼吸确定方法
JP2018527985A (ja) * 2015-08-17 2018-09-27 レスメッド センサー テクノロジーズ リミテッド 睡眠障害呼吸のためのスクリーナー
JP2021142338A (ja) * 2015-08-17 2021-09-24 レスメッド センサー テクノロジーズ リミテッド 睡眠障害呼吸のためのスクリーナー
JP7100576B2 (ja) 2015-08-17 2022-07-13 レスメッド センサー テクノロジーズ リミテッド 睡眠障害呼吸のためのスクリーナー
JP7418376B2 (ja) 2015-08-17 2024-01-19 レスメッド センサー テクノロジーズ リミテッド 睡眠障害呼吸のためのスクリーナー
US10506969B2 (en) 2015-11-03 2019-12-17 University Health Network Acoustic upper airway assessment system and method, and sleep apnea assessment system and method relying thereon
JP2020069113A (ja) * 2018-10-31 2020-05-07 パイオニア株式会社 処理装置、システム、処理方法、およびプログラム
JP7122225B2 (ja) 2018-10-31 2022-08-19 エア・ウォーター・バイオデザイン株式会社 処理装置、システム、処理方法、およびプログラム
WO2023048158A1 (ja) * 2021-09-22 2023-03-30 国立大学法人電気通信大学 睡眠時無呼吸症候群判定装置、睡眠時無呼吸症候群判定方法およびプログラム

Also Published As

Publication number Publication date
JP5177293B2 (ja) 2013-04-03
EP2457504A1 (en) 2012-05-30
US9307950B2 (en) 2016-04-12
US20120190996A1 (en) 2012-07-26
JPWO2011010384A1 (ja) 2012-12-27
EP2457504A4 (en) 2013-07-10
EP2457504B1 (en) 2014-07-16

Similar Documents

Publication Publication Date Title
JP5177293B2 (ja) 睡眠時無呼吸症候群の検査装置及びプログラム
US11000223B2 (en) Methods for detecting a sleep disorder and sleep disorder detection devices
EP2608717B1 (en) Apparatus for diagnosing obstructive sleep apnea
JP4472294B2 (ja) 睡眠時無呼吸症候群診断装置、並びに、信号解析装置及びその方法
US20080312547A1 (en) Cough Detecting Apparatus and Cough Detecting Method
US8834386B2 (en) Noise reduction of breathing signals
WO2010044162A1 (ja) 無呼吸検出プログラム、無呼吸検出装置および無呼吸検出方法
Kalkbrenner et al. Apnea and heart rate detection from tracheal body sounds for the diagnosis of sleep-related breathing disorders
US10004452B2 (en) System and methods for estimating respiratory airflow
US20050182337A1 (en) Method and system for analysing respiratory tract air flow
Chang et al. Performance evaluation and enhancement of lung sound recognition system in two real noisy environments
JP2013123495A (ja) 呼吸音解析装置、呼吸音解析方法、呼吸音解析プログラムおよび記録媒体
Dafna et al. Sleep-quality assessment from full night audio recordings of sleep apnea patients
JP6019659B2 (ja) 無呼吸状態判定装置,無呼吸状態判定方法,及び無呼吸状態判定プログラム
Doheny et al. Estimation of respiratory rate and exhale duration using audio signals recorded by smartphone microphones
Abeyratne et al. Pitch-jitter analysis of snoring sounds for the diagnosis of sleep apnea
JP2009233103A (ja) 咳嗽検出装置及び咳嗽検出装置のプログラム
Hsu et al. Development of a portable device for home monitoring of snoring
US20100210962A1 (en) Respiratory signal detection and time domain signal processing method and system
Ankişhan et al. A new portable device for the snore/non-snore classification
US20230263423A1 (en) Processing recordings of a subject's breathing
Kulkas et al. Developing computational detection of individual respiratory cycle phases from tracheal sound signal during sleep
Ng Acquisition and analysis of snore signals for diagnosis of obstructive sleep apnea

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09847569

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2011523522

Country of ref document: JP

Ref document number: 2009847569

Country of ref document: EP