WO2012077239A1 - 音響信号処理装置、音響信号処理方法及び音響信号処理プログラム - Google Patents

音響信号処理装置、音響信号処理方法及び音響信号処理プログラム Download PDF

Info

Publication number
WO2012077239A1
WO2012077239A1 PCT/JP2010/072290 JP2010072290W WO2012077239A1 WO 2012077239 A1 WO2012077239 A1 WO 2012077239A1 JP 2010072290 W JP2010072290 W JP 2010072290W WO 2012077239 A1 WO2012077239 A1 WO 2012077239A1
Authority
WO
WIPO (PCT)
Prior art keywords
acoustic signal
effective volume
signal processing
unit
snoring
Prior art date
Application number
PCT/JP2010/072290
Other languages
English (en)
French (fr)
Inventor
田中 正清
猛 大谷
鈴木 政直
Original Assignee
富士通株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士通株式会社 filed Critical 富士通株式会社
Priority to EP10860523.9A priority Critical patent/EP2650873B1/en
Priority to PCT/JP2010/072290 priority patent/WO2012077239A1/ja
Priority to JP2012547666A priority patent/JP5672309B2/ja
Publication of WO2012077239A1 publication Critical patent/WO2012077239A1/ja
Priority to US13/913,956 priority patent/US20130274632A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B7/00Instruments for auscultation
    • A61B7/003Detecting lung or respiration noise
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F5/00Orthopaedic methods or devices for non-surgical treatment of bones or joints; Nursing devices; Anti-rape devices
    • A61F5/56Devices for preventing snoring

Definitions

  • the present invention relates to an acoustic signal processing device, an acoustic signal processing method, and an acoustic signal processing program.
  • a technique for improving sleep of a user by detecting an acoustic signal in the vicinity of the user during sleep is known.
  • an acoustic signal processing device that detects snoring of a user and causes the user to stop snoring. For example, when the volume of the acoustic signal detected in the vicinity of the user is equal to or higher than the threshold, the acoustic signal processing device detects the corresponding acoustic signal as snoring. Then, when the detected number of snoring times reaches a predetermined number, the acoustic signal processing device wakes up the user with sound or vibration, and causes the user to stop snoring.
  • FIG. 18 is a diagram for explaining the prior art.
  • the vertical axis in FIG. 18 indicates the volume of the acoustic signal, and the horizontal axis indicates time.
  • the numerical value on the horizontal axis indicates the number of times the acoustic signal is detected.
  • the sound volume threshold is Pw
  • the detection frequency threshold is three.
  • the acoustic signal processing device compares the volume of the acoustic signal with a threshold value Pw and snores the first, third, and sixth acoustic signals. Detect as. Then, when the detected number of snoring reaches three times, that is, when the sixth acoustic signal is detected, the user is awakened using sound, vibration, or the like.
  • the acoustic signal emitted from the user is not always emitted at a constant volume, and fluctuations occur, such as being emitted at a high volume or a low volume. For this reason, in the conventional technology, even if the other person subjectively recognizes the snoring of the user as annoying snoring, it takes time without being detected as snoring until the number of snoring detected reaches a predetermined number of times. “Detection delay” occurred. In the example shown in FIG. 18, even when the other person subjectively recognizes the snoring as the snoring when the third sound signal is detected, the conventional sound signal processing device detects the sixth sound signal. Until then, the user did not detect snoring.
  • the problem as described above is not limited to snoring, but is also a problem that occurs in the same manner when detecting an acoustic signal emitted from the human body, such as tooth cracking or monologue.
  • the disclosed technology has been made in view of the above, and an object thereof is to provide an acoustic signal processing device, an acoustic signal processing method, and an acoustic signal processing program capable of accurately determining an acoustic signal.
  • the technology disclosed in the present application includes a detection unit, a calculation unit, an accumulation unit, and a determination unit.
  • the detection unit detects an acoustic signal emitted from the human body included in the sound input signal.
  • the calculation unit calculates an effective volume indicating an effective volume of the acoustic signal detected by the detection unit from the input signal.
  • the accumulating unit accumulates the effective sound volume calculated by the calculating unit, and calculates the accumulated effective sound volume.
  • the determination unit determines whether or not the accumulated effective sound volume calculated by the accumulation unit has reached a predetermined threshold value.
  • FIG. 1 is a block diagram illustrating an example of the configuration of the acoustic signal processing device according to the first embodiment.
  • FIG. 2 is a diagram for explaining the nuisance level.
  • FIG. 3 is a diagram for explaining the nuisance level.
  • FIG. 4 is a diagram for explaining the relationship between the snoring volume and the subjective evaluation value.
  • FIG. 5 is a diagram for explaining the relationship between the number of snores and the subjective evaluation value.
  • FIG. 6 is a block diagram illustrating an example of the configuration of the detection unit according to the first embodiment.
  • FIG. 7 is a diagram for explaining the characteristics of snoring.
  • FIG. 8 is a diagram for explaining the characteristics of snoring.
  • FIG. 9 is a diagram for explaining the processing of the duration calculation unit.
  • FIG. 1 is a block diagram illustrating an example of the configuration of the acoustic signal processing device according to the first embodiment.
  • FIG. 2 is a diagram for explaining the nuisance level.
  • FIG. 3
  • FIG. 10 is a diagram illustrating an example of a detection result by the detection unit.
  • FIG. 11 is a diagram for explaining a method of calculating the nuisance level.
  • FIG. 12 is a diagram illustrating an example of a calculation result by the calculation unit.
  • FIG. 13 is a diagram illustrating an example of the accumulation result by the accumulation unit.
  • FIG. 14 is a flowchart illustrating the processing procedure of the acoustic signal processing device according to the first embodiment.
  • FIG. 15 is a block diagram illustrating an example of the configuration of the mobile terminal device according to the second embodiment.
  • FIG. 16 is a diagram for explaining a method of calculating the nuisance level.
  • FIG. 17 is a diagram illustrating an example of a computer that executes an acoustic signal processing program.
  • FIG. 18 is a diagram for explaining the prior art.
  • FIG. 1 is a block diagram illustrating an example of the configuration of the acoustic signal processing device according to the first embodiment.
  • the acoustic signal processing device 100 includes an input memory 110, a detection unit 120, a calculation unit 130, an accumulation memory 140, an accumulation unit 150, and a determination unit 160.
  • the acoustic signal processing apparatus 100 determines annoying snoring by accumulating the troublesome degree calculated according to the volume of snoring.
  • the nuisance level will be described.
  • FIGS. 2 and 3 are diagrams for explaining the nuisance level. 2 and 3, the vertical axis indicates the cumulative nuisance level, and the horizontal axis indicates time. Also, the numerical value on the horizontal axis indicates how many times the snoring is detected. In the example shown in FIGS. 2 and 3, the threshold value is Pw.
  • FIG. 2 illustrates a case where the nuisance level due to one snoring is calculated to be large because the volume of snoring is large
  • FIG. 3 illustrates that the nuisance level due to one snoring is small because the volume of snoring is low. The case where it is calculated will be exemplified. As shown in FIG.
  • the acoustic signal processing apparatus 100 determines that the user's snoring is annoying when the third snoring is detected.
  • the acoustic signal processing apparatus 100 determines that the user's snoring is annoying when the seventh snoring is detected.
  • FIG. 4 is a diagram for explaining the relationship between the snoring volume and the subjective evaluation value.
  • the subjective evaluation value is a score obtained by scoring a subjective evaluation felt by another person when the other person hears snoring.
  • the evaluation “I don't care at all” is “2”
  • the evaluation “I don't care” is “1”
  • the evaluation “I can't say either” is “0”
  • “very interested” is evaluated as “ ⁇ 2”.
  • FIG. 4 indicates the subjective evaluation value, and the horizontal axis indicates the volume of snoring.
  • FIG. 4 shows experimental data in which the average value of subjective evaluation values evaluated by the subject is plotted when the number of snoring is fixed to 5 and the volume of snoring is changed. As shown in FIG. 4, there is a relationship between the snoring volume and the subjective evaluation value that the subjective evaluation value decreases as the snoring volume increases. That is, the experimental data shown in FIG. 4 indicates that the higher the snoring volume, the more annoying it is to others.
  • FIG. 5 is a diagram for explaining the relationship between the number of snores and the subjective evaluation value.
  • the vertical axis in FIG. 5 represents the subjective evaluation value
  • the horizontal axis represents the number of snores.
  • FIG. 5 shows experimental data in which the average value of subjective evaluation values evaluated by the subject is plotted when the snoring volume is fixed at 70 dBA and the number of snoring is changed.
  • the experimental data shown in FIG. 5 indicates that the more the number of snores is, the more annoying it is to others.
  • the acoustic signal processing apparatus 100 shown in FIG. 1 determines annoying snoring by accumulating the troublesome degree calculated according to the volume of snoring.
  • the input memory 110 stores sound input signals.
  • the input memory 110 associates the data of the input signal divided into a plurality of frames having a predetermined number of samples and the frame identification number, and accumulates them as input signal data.
  • the sound input signal stored in the input memory 110 is, for example, an input signal collected by a sound collecting device such as a microphone in the vicinity of the sleeping user.
  • the detecting unit 120 detects an acoustic signal emitted from the human body included in the sound input signal. For example, when the input signal similar to the past input signal exists continuously for a predetermined time, the detection unit 120 detects the corresponding input signal as snoring.
  • FIG. 6 is a block diagram illustrating an example of the configuration of the detection unit according to the first embodiment. As illustrated in FIG. 6, the detection unit 120 includes an FFT (Fast Fourier Transform) unit 121, a power spectrum calculation unit 122, a similarity calculation unit 123, a duration calculation unit 124, and a snoring determination unit 125. .
  • Snoring is an example of an acoustic signal.
  • the detection unit 120 uses the characteristics of snoring in order to detect snoring.
  • 7 and 8 are diagrams for explaining the characteristics of snoring.
  • the vertical axis in FIG. 7 indicates the magnitude of the frequency of the input signal, and the horizontal axis indicates time.
  • signals existing in the time zones 7a, 7b, 7c, 7d, and 7e correspond to snoring.
  • snoring is repeated in a T1 cycle.
  • T1 is about 3-5 seconds.
  • One snoring lasts for T2 hours.
  • T2 is about 0.4 to 2 seconds.
  • the vertical axis in FIG. 8 indicates the power of the input signal, and the horizontal axis indicates the frequency.
  • a waveform 8a indicated by a solid line corresponds to the frequency characteristics of one frame in the time zone 7a
  • a waveform 8b indicated by a broken line corresponds to the frequency characteristics of one frame in the time zone 7b.
  • the waveform 8a and the waveform 8b are similar. That is, the frequency characteristics of each snore are similar.
  • the detection unit 120 detects snoring using the characteristics of snoring will be described.
  • the FFT unit 121 converts a sound input signal into a frequency domain signal by Fourier transform. For example, the FFT unit 121 acquires an input signal divided into a plurality of frames having a predetermined number of samples, and generates a frequency domain signal for each frame by Fourier transforming the input signal of the acquired frame. Then, FFT section 121 outputs a frequency domain signal generated for each frame to power spectrum calculation section 122.
  • the sound input signal input to the FFT unit 121 is, for example, an input signal collected by a sound collection device such as a microphone in the vicinity of the sleeping user.
  • the power spectrum calculation unit 122 calculates a power spectrum from the frequency domain signal converted by the FFT unit 121. For example, the power spectrum calculation unit 122 calculates the power spectrum for each band by calculating the square sum of the real part and the imaginary part for each band for the signal in the frequency domain of the current frame received from the FFT unit 121. To do. Then, the power spectrum calculation unit 122 outputs the calculated power spectrum for each band to the similarity calculation unit 123.
  • the similarity calculation unit 123 calculates the similarity between the current power spectrum and the past power spectrum.
  • the similarity is a value indicating the similarity between the current power spectrum and the past power spectrum. For example, the similarity is larger as the waveform 8a and the waveform 8b illustrated in FIG. 8 are similar.
  • the similarity calculation unit 123 receives the power spectrum of the current time “t” from the power spectrum calculation unit 122, the similarity calculation unit 123 stores the power spectrum of the time “tx” that is “x” backward from the time “t” in the past. Select as the power spectrum.
  • the similarity calculation unit 123 calculates a difference between the selected past power spectrum and the current power spectrum for each band, and determines whether the calculated difference is equal to or less than a threshold value.
  • the similarity calculation unit 123 determines that the value is equal to or less than the threshold, the similarity calculation unit 123 adds “1” to the similarity. On the other hand, when the similarity calculation unit 123 determines that the similarity is greater than the threshold, it adds “0” to the similarity.
  • the similarity calculation unit 123 calculates the similarity for each band by executing the above processing for all the bands. Then, the similarity calculation unit 123 calculates the similarity between the power spectrum at time “t” and the power spectrum at time “tx” by totaling the calculated similarities for each band.
  • the threshold is 3 dB, for example. About a threshold value, it is not restricted to this illustration, The user using the acoustic signal processing apparatus 100 may set to arbitrary values.
  • the duration calculation unit 124 calculates the duration of similarity.
  • FIG. 9 is a diagram for explaining the processing of the duration calculation unit.
  • FIG. 9 is a table in which the degree of similarity is stored with the current time “t” in the horizontal direction and the time “x” retroactive from the current time in the vertical direction.
  • the shaded portion in FIG. 9 indicates that the identifier F is stored. This identifier F indicates that the similarity of the frame at time “t” is equal to or greater than the threshold.
  • the duration calculation unit 124 stores the received similarity in a table.
  • the duration calculation unit 124 sets “2” in the lower left column of the table. Is stored. Similarly, the duration calculation unit 124 stores the similarity for the other time “x”. The duration calculation unit 124 determines whether the stored similarity is equal to or greater than a threshold value. If the duration calculation unit 124 determines that the duration is greater than or equal to the threshold, the identifier F is stored in the column of the corresponding table.
  • the threshold is “10”, for example. About a threshold value, it is not restricted to this illustration, The user using the acoustic signal processing apparatus 100 may set to arbitrary values.
  • the duration calculation unit 124 When the duration calculation unit 124 receives the similarity of the frame at the next time “t + 1” from the similarity calculation unit 123, the duration calculation unit 124 stores the received similarity in a table in the same manner as described above. It is determined whether or not the threshold value is exceeded. If the identifier F continues from time “t” to time “t + 1” at the same time “x”, the duration calculation unit 124 repeats the above processing. The duration calculation unit 124 repeatedly executes the above processing until the continuation of the identifier F is interrupted. In the example shown in FIG. 9, the process for the frame at time “t + 7” is executed, and the above process is executed until the continuation of the identifier F is interrupted.
  • the duration calculation unit 124 counts the number of consecutive identifiers F when the identifiers F are interrupted.
  • the duration calculation unit 124 converts the counted number of consecutive identifiers F into a duration, and outputs the duration to the snoring determination unit 125.
  • the identifier F continues seven times in seven frames from time “t” to time “t + 6”.
  • the duration calculation unit 124 outputs the time corresponding to the continuous frames to the snoring determination unit 125 as the duration.
  • the duration calculation unit 124 executes the above-described process for the longest number of identifiers F.
  • the snoring determination unit 125 determines the presence or absence of snoring. For example, the snoring determination unit 125 determines whether or not the duration received from the duration calculation unit 124 is included in the time range “y”. This time range “y” corresponds to, for example, T2 time shown in FIG. 7 and is about 0.4 to 2 seconds. If the snoring determination unit 125 determines that the duration is included in the time range “y”, the snoring determination unit 125 determines that the input signal of the sound corresponding to the corresponding duration includes snoring. Then, the snoring determination unit 125 outputs a section of the input signal determined to include snoring as a snoring section.
  • FIG. 10 is a diagram illustrating an example of a detection result by the detection unit.
  • the vertical axis in FIG. 10 indicates volume, and the horizontal axis indicates time. Also, the numerical value on the horizontal axis indicates how many times the snoring is detected.
  • the detection unit 120 detects a snoring section corresponding to one snoring. This snoring section is information including information indicating a frame where snoring has started and information indicating a frame where snoring has ended.
  • the detection unit 120 outputs the detected snoring interval to the calculation unit 130 every time the snoring interval is detected.
  • the calculation unit 130 calculates the nuisance level of snoring detected by the detection unit 120 from the sound input signal. For example, the calculation unit 130 acquires input signal data corresponding to the snoring interval detected by the detection unit 120 from the input memory 110. The calculation unit 130 calculates the snore volume using the acquired input signal data. As the snore volume, for example, an average volume calculated as a mean square value of power values in the snore section is used. For example, the calculation unit 130 calculates the volume of snoring using the following equation (1).
  • n indicates a frame number.
  • fpow (n) indicates the volume of the nth frame.
  • sample (k) indicates the kth sample.
  • N indicates the frame length.
  • the calculation unit 130 calculates the average volume for each frame included in the snoring section using Equation (1), and calculates the volume of the snore by totaling the calculated average volume for each frame.
  • the calculation unit 130 calculates the snoring trouble level based on the snoring volume. For example, the calculation unit 130 calculates the nuisance level of snoring using the following equation (2).
  • n indicates the number of snoring times.
  • Annoy (n) indicates the trouble level of the nth snoring.
  • fpow (n) represents the volume of the nth snoring.
  • AMax indicates the maximum value of the nuisance level defined in advance, and is “100”, for example.
  • Amin indicates the minimum value of the nuisance level defined in advance, and is “0”, for example.
  • TH1 and TH2 indicate threshold values. For example, TH1 is “60 dBA” and TH2 is “80 dBA”. Note that, for example, AMax corresponds to the minimum value of the snoring volume that others feel annoying just once, and is set to the same value as the threshold set by the determination unit 160 described later.
  • the AMax setting method is not limited to this setting method.
  • the AMax exceeds the threshold set by the determination unit 160.
  • a small value may be set.
  • AMax, Amin, TH1, and TH2 are not limited to this example, and a user who uses the acoustic signal processing device 100 may set arbitrary values.
  • FIG. 11 is a diagram for explaining a method of calculating the nuisance level.
  • the vertical axis in FIG. 11 indicates the nuisance level, and the horizontal axis indicates the volume [dBA].
  • the calculation unit 130 is proportional to the volume fpow (n) as the nuisance level Annoy (n). Calculate numerical values.
  • the calculation unit 130 calculates Amin as the nuisance level Annoy (n).
  • the calculation unit 130 calculates Amax as the nuisance level Annoy (n) when the sound volume fpow (n) is equal to or greater than the threshold value TH2.
  • FIG. 12 is a diagram illustrating an example of a calculation result by the calculation unit.
  • the vertical axis in FIG. 12 indicates the nuisance level, and the horizontal axis indicates time. Also, the numerical value on the horizontal axis indicates how many times the snoring is detected.
  • the calculation unit 130 calculates the n-th snoring trouble level every time the n-th snoring is detected from the detection unit 120. Then, every time the n-th snoring trouble level is calculated, the calculation unit 130 outputs the calculated trouble level to the accumulating unit 150.
  • the nuisance level is an example of an effective volume.
  • the accumulation memory 140 accumulates the accumulated nuisance level accumulated by the accumulation unit 150 described later.
  • the cumulative memory 140 stores the cumulative nuisance level in which the nuisance levels of snoring from the first time to the (n-1) th time are accumulated.
  • the accumulating unit 150 accumulates the nuisance level calculated by the calculation unit 130 and calculates the accumulated nuisance level. For example, when the accumulating unit 150 receives the n-th snoring trouble level from the calculating unit 130, the accumulating unit 150 acquires the accumulative trouble level of snoring from the first time to the (n ⁇ 1) th time from the accumulating memory 140. And the calculation part 130 calculates the accumulative nuisance degree of snoring from the 1st time to the nth time, for example using the following formula
  • n indicates the number of snoring times.
  • Annoy_total (n) indicates the cumulative nuisance level of snoring from the first time to the nth time.
  • Annoy_total (n ⁇ 1) indicates the cumulative nuisance level of snoring from the first time to the (n ⁇ 1) th time.
  • Annoy (n) indicates the trouble level of the nth snoring.
  • the accumulating unit 150 adds the n-th snoring nuisance level and the 1st to (n-1) th snoring nuisance level to calculate the 1st to n-th snore cumulative nuisance level.
  • FIG. 13 is a diagram illustrating an example of an accumulation result by the accumulation unit.
  • the vertical axis in FIG. 13 indicates the cumulative nuisance level
  • the horizontal axis indicates time.
  • the numerical value on the horizontal axis indicates how many times the snoring is detected.
  • the accumulating unit 150 every time the accumulating unit 150 receives the n-th snoring trouble level from the calculating unit 130, the accumulating part 150 causes the n-th snoring trouble level and the accumulated snoring troubles from the first time to the (n ⁇ 1) -th time. Add degrees.
  • the accumulating unit 150 outputs the accumulated nuisance level of snoring from the first time to the nth time to the determining unit 160. Further, the accumulating unit 150 stores the accumulative nuisance level of snoring from the first time to the nth time in the accumulating memory 140.
  • the cumulative nuisance level is an example of a cumulative effective volume.
  • the determination unit 160 determines whether or not the cumulative nuisance level accumulated by the accumulation unit 150 has reached a threshold value. For example, each time the cumulative nuisance level of snoring from the first time to the nth time is received from the cumulative unit 150, the determination unit 160 determines whether or not the received cumulative nuisance level has reached a threshold value. If it is determined that the threshold value has been reached, the determination unit 160 outputs information indicating that the threshold value has been reached to a speaker, a monitor, or the like. On the other hand, if the determination unit 160 does not determine that the threshold value has been reached, the determination unit 160 waits until the cumulative nuisance level is received from the accumulation unit 150.
  • FIG. 14 is a flowchart illustrating the processing procedure of the acoustic signal processing device according to the first embodiment. The process illustrated in FIG. 14 is executed, for example, when the detection unit 120 detects snoring.
  • the calculating unit 130 calculates the nuisance level of snoring detected by the detecting unit 120 from the sound input signal (step S102). .
  • the accumulating unit 150 accumulates the nuisance level calculated by the calculation unit 130, and calculates the accumulated nuisance level (step S103).
  • the determination unit 160 determines whether or not the cumulative nuisance level accumulated by the accumulation unit 150 has reached a threshold (step S104). If it is determined that the threshold value has been reached (Yes at Step S104), the determination unit 160 outputs information indicating that the threshold value has been reached to a speaker or a monitor (Step S105). On the other hand, when the determination unit 160 determines that the threshold value has not been reached (No at Step S104), the determination unit 160 proceeds to Step S101.
  • the acoustic signal processing apparatus 100 detects the user's snoring included in the sound input signal, and calculates the nuisance level of the detected snoring from the sound input signal. Then, the acoustic signal processing apparatus 100 calculates the cumulative nuisance level by accumulating the calculated nuisance levels, and determines whether or not the calculated cumulative nuisance level has reached a threshold value. For this reason, the acoustic signal processing device 100 can accurately determine the acoustic signal emitted from the human body. For example, the acoustic signal processing apparatus 100 can prevent annoying snoring detection omission and detection delay and accurately determine annoying snoring even if the snore volume fluctuates.
  • the acoustic signal processing apparatus 100 calculates a numerical value proportional to the volume as the nuisance level. Moreover, the acoustic signal processing apparatus 100 calculates the minimum value prescribed
  • the configuration of the acoustic signal processing device 100 shown in FIG. 1 is an example, and the acoustic signal processing device 100 does not necessarily have all the processing units shown in FIG.
  • the acoustic signal processing device 100 only needs to include a detection unit, a calculation unit, an accumulation unit, and a determination unit.
  • the detection unit detects an acoustic signal emitted from the human body included in the sound input signal.
  • the calculation unit calculates an effective volume indicating an effective volume of the acoustic signal detected by the detection unit from the input signal.
  • the accumulating unit accumulates the effective sound volume calculated by the calculating unit, and calculates the accumulated effective sound volume.
  • the determination unit determines whether or not the accumulated effective sound volume calculated by the accumulation unit has reached a predetermined threshold value.
  • FIG. 15 is a block diagram illustrating an example of the configuration of the mobile terminal device according to the second embodiment.
  • the mobile terminal device 200 includes a sound collection unit 210, an acoustic signal processing circuit 220, and an operation execution unit 230.
  • the mobile terminal device 200 is an example of an acoustic signal processing device.
  • the sound collection unit 210 collects a sound input signal. For example, the sound collection unit 210 collects an input signal of a sound emitted in the vicinity of a sleeping user. The sound collecting unit 210 divides the input signal of the collected sound into a plurality of frames having a predetermined number of samples, and generates input signal data. The sound collection unit 210 outputs the input signal data to the acoustic signal processing circuit 220.
  • the sound collection unit 210 corresponds to, for example, a sound collection device such as a microphone.
  • the acoustic signal processing circuit 220 detects snoring emitted from the user included in the sound input signal, and calculates the nuisance level according to the volume of the detected snoring.
  • the acoustic signal processing circuit 220 accumulates the nuisance level each time a user's snoring is detected, and determines whether or not the accumulated nuisance level has reached a threshold value.
  • the acoustic signal processing circuit 220 receives input signal data from the sound collection unit 210 and detects snoring of the user from the input signal data.
  • the acoustic signal processing circuit 220 calculates the nuisance level according to the detected snoring volume, and accumulates the calculated nuisance level.
  • the acoustic signal processing circuit 220 determines that the user's snoring is annoying when the accumulated cumulative inconvenience reaches a threshold value.
  • the acoustic signal processing circuit 220 includes an input memory 221, a detection unit 222, a calculation unit 223, an accumulation memory 224, an accumulation unit 225, and a determination unit 226.
  • the description of the input memory 221, the detection unit 222, the calculation unit 223, the accumulation memory 224, the accumulation unit 225, and the determination unit 226 illustrated in FIG. 15 is the same as the input memory 110, the detection unit 120, the calculation unit 130, and the accumulation This is the same as the description of the memory 140, the accumulation unit 150, and the determination unit 160.
  • the operation execution unit 230 executes a specified operation when the determination unit 226 determines that the cumulative nuisance level has reached a threshold value.
  • the operation execution unit 230 corresponds to, for example, a vibration device or a speaker. For example, when it is determined that the user's snoring is annoying, the operation executing unit 230 vibrates with a predetermined pattern or outputs a sound with a predetermined volume.
  • the mobile terminal device 200 when the mobile terminal device 200 according to the second embodiment determines that the cumulative nuisance level has reached the threshold value, the mobile terminal device 200 awakens the user by stopping the user from snoring by performing a predetermined operation. Can do.
  • the acoustic signal processing apparatus includes an input memory 110, a detection unit 120, a calculation unit 130, an accumulation memory 140, an accumulation unit 150, And a determination unit 160.
  • the description of the input memory 110, the detection unit 120, the accumulation memory 140, the accumulation unit 150, and the determination unit 160 will be described with reference to the input memory 110, the detection unit 120, the accumulation memory 140, the accumulation unit 150, and the determination unit 160 illustrated in FIG. It is the same as that of description.
  • the calculation unit 130 has the same function as the calculation unit 130 shown in FIG.
  • the method using said Formula (1) was demonstrated as a calculation method of a nuisance degree, it is not limited to this method.
  • the calculation unit 130 may calculate the nuisance level of snoring using the following equation (4).
  • n indicates the number of snoring times.
  • Annoy (n) indicates the trouble level of the nth snoring.
  • fpow (n) represents the volume of the nth snoring.
  • COEFF represents an arbitrary constant.
  • FIG. 16 is a diagram for explaining a method of calculating the nuisance level.
  • the vertical axis in FIG. 16 indicates the nuisance level, and the horizontal axis indicates the volume [dBA].
  • the calculation unit 130 calculates a numerical value proportional to the sound volume fpow (n) as the nuisance degree Annoy (n). Then, every time the n-th snoring trouble level is calculated, the calculation unit 130 outputs the calculated trouble level to the accumulating unit 150.
  • the acoustic signal processing device 100 calculates a numerical value proportional to the volume of snoring as the snoring trouble level. For this reason, the acoustic signal processing apparatus 100 can accurately determine annoying snoring with a light processing load.
  • the acoustic signal processing apparatus will be described.
  • the acoustic signal processing device reduces the cumulative nuisance level when the predetermined minimum value is calculated as the nuisance level continuously for a predetermined time. This utilizes the fact that even if the nuisance level is accumulated, if snoring with a low sound volume continues for a predetermined time, the other person does not feel that snoring is annoying.
  • the acoustic signal processing device according to the fourth embodiment is similar to the acoustic signal processing device 100 illustrated in FIG. 1 in that the input memory 110, the detection unit 120, the calculation unit 130, the accumulation memory 140, the accumulation unit 150, And a determination unit 160.
  • the description of the input memory 110, the detection unit 120, the calculation unit 130, the cumulative memory 140, and the determination unit 160 is the same as the input memory 110, the detection unit 120, the calculation unit 130, the cumulative memory 140, and the determination unit illustrated in FIG. This is the same as the description of 160.
  • the accumulating unit 150 has the same function as the accumulating unit 150 shown in FIG.
  • the accumulating unit 150 reduces the accumulated nuisance level when the minimum value previously defined by the calculation unit 130 is calculated as the nuisance level continuously for a predetermined time. For example, the accumulating unit 150 calculates the nuisance level of snoring using the following equation (5).
  • n represents the number of snoring times.
  • Annoy_total (n) indicates the cumulative nuisance level of snoring from the first time to the nth time.
  • Annoy_total (n ⁇ 1) indicates the cumulative nuisance level of snoring from the first time to the (n ⁇ 1) th time.
  • Annoy (n) indicates the trouble level of the nth snoring.
  • N indicates the number of snores included in a predetermined time specified in advance in order to reduce the cumulative nuisance level.
  • the accumulating unit 150 sets the accumulated nuisance level of snoring up to the nth time to “0” when the nuisance level of snoring to be accepted between the nNth time and the nth time is “0”. To reduce. On the other hand, if the above case does not apply, the accumulating unit 150 adds the n-th snoring trouble level and the cumulative snoring degree from the first time to the (n-1) th snoring time from the first time to the n-th time. Calculate the cumulative level of annoying snoring. Then, the accumulating unit 150 outputs the accumulated nuisance level of snoring from the first time to the nth time to the determining unit 160.
  • the accumulating unit 150 stores the accumulative nuisance level of snoring from the first time to the nth time in the accumulating memory 140.
  • the accumulating unit 150 may halve the accumulated nuisance level.
  • the acoustic signal processing apparatus 100 reduces the cumulative nuisance level when the minimum value defined in advance by the calculation unit 130 is calculated as the nuisance level continuously for a predetermined time. For this reason, the acoustic signal processing apparatus 100 can accurately determine annoying snoring in consideration of the fact that when snoring with a low volume continues for a predetermined time, the other person does not feel snoring as annoying.
  • the acoustic signal processing device 100 and the mobile terminal device 200 detect snoring as an acoustic signal emitted from a human body has been described, but the present invention is not limited to this.
  • the acoustic signal processing device 100 and the mobile terminal device 200 may detect other acoustic signals such as toothpaste and monologue as acoustic signals emitted from the human body.
  • the acoustic signal processing device 100 and the mobile terminal device 200 may detect an acoustic signal in a frequency band that others feel annoying.
  • a known technique such as a technique disclosed in Japanese Patent Laid-Open No. 7-184948 and a technique disclosed in Japanese Patent Laid-Open No. 2004-187916 can be arbitrarily selected. You can select and use.
  • each component of the acoustic signal processing device 100 and the portable terminal device 200 shown in FIGS. 1 and 15 is functionally conceptual, and does not necessarily need to be physically configured as illustrated. That is, the specific form of the dispersion / integration of the acoustic signal processing device 100 and the mobile terminal device 200 is not limited to the illustrated one, and all or a part thereof can be arbitrarily determined according to various loads and usage conditions. It can be configured functionally or physically distributed and integrated. For example, the calculation unit 130 and the accumulation unit 150 illustrated in FIG. 1 may be integrated.
  • the processing functions performed by the detection units 120 and 222, the calculation units 130 and 223, the accumulation units 150 and 225, and the determination units 160 and 226 are realized as follows. That is, all or any part of these processing functions can be realized by a CPU (Central Processing Unit) and a program that is analyzed and executed by the CPU, or can be realized as hardware by wired logic. .
  • CPU Central Processing Unit
  • the input memories 110 and 221 and the cumulative memories 140 and 224 are, for example, semiconductor memory elements such as RAM (Random Access Memory), ROM (Read Only Memory), and flash memory (Flash Memory), and storage devices such as hard disks and optical disks.
  • semiconductor memory elements such as RAM (Random Access Memory), ROM (Read Only Memory), and flash memory (Flash Memory), and storage devices such as hard disks and optical disks.
  • the acoustic signal processing device 100 and the mobile terminal device 200 can be realized by mounting the functions of the acoustic signal processing device 100 and the mobile terminal device 200 in a known information processing device.
  • the known information processing apparatus corresponds to a device such as a personal computer, a workstation, a mobile phone, a PHS (Personal Handy-phone System) terminal, a mobile communication terminal, or a PDA (Personal Digital Assistant).
  • FIG. 17 is a diagram illustrating an example of a computer that executes an acoustic signal processing program.
  • the computer 300 includes a CPU 301 that executes various arithmetic processes, an input device 302 that receives data input from a user, and a monitor 303.
  • the computer 300 also includes a medium reading device 304 that reads programs and the like from a storage medium, and an interface device 305 that exchanges data with other devices.
  • the computer 300 also includes a RAM (Random Access Memory) 306 that temporarily stores various information and a hard disk device 307.
  • the devices 301 to 307 are connected to the bus 308.
  • the hard disk device 307 is an acoustic signal processing program having the same functions as the processing units of the detection units 120 and 222, the calculation units 130 and 223, the accumulation units 150 and 225, and the determination units 160 and 226 shown in FIGS. 307a is stored. Further, the hard disk device 307 stores various data 307b for realizing the acoustic signal processing program 307a.
  • the CPU 301 reads out the acoustic signal processing program 307a from the hard disk device 307, develops it in the RAM 306, and executes it, whereby the acoustic signal processing program 307a functions as the acoustic signal processing process 306a. That is, the acoustic signal processing program 307a functions as a process similar to the processing units of the detection units 120 and 222, the calculation units 130 and 223, the accumulation units 150 and 225, and the determination units 160 and 226.
  • the acoustic signal processing program 307a is not necessarily stored in the hard disk device 307.
  • the computer 300 may read and execute a program stored in a computer-readable recording medium.
  • the computer-readable recording medium corresponds to, for example, a portable recording medium such as a CD-ROM, a DVD disk, and a USB memory, a semiconductor memory such as a flash memory, a hard disk drive, and the like.
  • the program may be stored in a device connected to a public line, the Internet, a LAN (Local Area Network), a WAN (Wide Area Network), etc., and the computer 300 may read and execute the program therefrom. good.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Pulmonology (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Nursing (AREA)
  • Computational Linguistics (AREA)
  • Vascular Medicine (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Otolaryngology (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Orthopedics, Nursing, And Contraception (AREA)

Abstract

 本願の開示する音響信号処理装置(100)は、検出部(120)と、算出部(130)と、累積部(150)と、判定部(160)とを有する。検出部(120)は、音の入力信号に含まれる、人体から発せられる音響信号を検出する。算出部(130)は、検出部(120)により検出された音響信号の実効的な音量を示す実効音量を入力信号から算出する。累積部(150)は、算出部(130)により算出された実効音量を累積させ、累積実効音量を算出する。判定部(160)は、累積部(150)により算出された累積実効音量が所定の閾値に到達したか否かを判定する。

Description

音響信号処理装置、音響信号処理方法及び音響信号処理プログラム
 本発明は、音響信号処理装置、音響信号処理方法及び音響信号処理プログラムに関する。
 従来、睡眠中のユーザの近傍で音響信号を検出することで、ユーザの睡眠を改善させる技術が知られている。例えば、ユーザのいびきを検出し、ユーザにいびきを止めさせる音響信号処理装置が存在する。この音響信号処理装置は、例えば、ユーザの近傍で検出した音響信号の音量が閾値以上である場合に、該当する音響信号をいびきとして検出する。そして、検出したいびきの回数が所定回数に到達した時点で、音響信号処理装置は、音や振動などでユーザを目覚めさせ、ユーザにいびきを止めさせる。
 図18を用いて、従来の音響信号処理装置がいびきを検出する場合を説明する。図18は、従来技術を説明するための図である。図18の縦軸は音響信号の音量を示し、横軸は時間を示す。また、横軸上の数値は、何回目に検出された音響信号であるかを示す。図18に示す例では、音量の閾値をPwとし、検出回数の閾値を3回とする。図18に示すように、例えば、音響信号処理装置は、音響信号を検出するごとに、音響信号の音量と閾値Pwとを比較し、1回目と、3回目と、6回目の音響信号をいびきとして検出する。そして、検出したいびきの回数が3回に到達した時点、つまり、6回目の音響信号を検出した時点で、音や振動などを用いてユーザを目覚めさせる。
実用新案登録第3096078号公報
 しかしながら、上記従来技術では、迷惑ないびきを正確に判定することができないという問題があった。
 例えば、従来技術では、検出された音響信号をいびきとして他者が主観的に認識していたとしても、閾値未満の音量の音響信号をいびきとして検出しない「検出漏れ」が生じていた。図18に示す例では、2回目の音響信号をいびきとして他者が主観的に認識していたとしても、従来の音響信号処理装置は、2回目の音響信号をいびきとして検出しなかった。仮に、音量の閾値を低下させたとしても、低下させた閾値において同様の問題が生じていた。
 また、ユーザから発せられる音響信号は常に一定の音量で発せられるとは限らず、大きな音量で発せられたり、小さな音量で発せられるなど、ゆらぎが発生する。このため、従来技術では、ユーザのいびきを迷惑ないびきとして他者が主観的に認識していたとしても、検出したいびきの回数が所定回数に到達するまで、いびきとして検出されずに時間がかかる「検出遅れ」が生じていた。図18に示す例では、3回目の音響信号を検出した時点で、迷惑ないびきとして他者が主観的に認識していたとしても、従来の音響信号処理装置は、6回目の音響信号を検出するまで、ユーザのいびきを検出しなかった。仮に、検出回数の閾値を低下させたとしても、低下させた閾値において同様の問題が生じていた。上記のような問題は、いびきに限らず、歯軋りや独り言など、人体から発せられる音響信号を検出する上で同様に生じる問題である。
 開示の技術は、上記に鑑みてなされたものであって、音響信号を正確に判定することができる音響信号処理装置、音響信号処理方法及び音響信号処理プログラムを提供することを目的とする。
 本願の開示する技術は、一つの態様において、検出部と、算出部と、累積部と、判定部とを有する。検出部は、音の入力信号に含まれる、人体から発せられる音響信号を検出する。算出部は、検出部により検出された音響信号の実効的な音量を示す実効音量を入力信号から算出する。累積部は、算出部により算出された実効音量を累積させ、累積実効音量を算出する。判定部は、累積部により算出された累積実効音量が所定の閾値に到達したか否かを判定する。
 本願の開示する技術の一つの態様によれば、音響信号を正確に判定することができるという効果を奏する。
図1は、実施例1に係る音響信号処理装置の構成の一例を示すブロック図である。 図2は、迷惑度について説明するための図である。 図3は、迷惑度について説明するための図である。 図4は、いびきの音量と主観評価値との関係を説明するための図である。 図5は、いびきの回数と主観評価値との関係を説明するための図である。 図6は、実施例1に係る検出部の構成の一例を示すブロック図である。 図7は、いびきの特徴について説明するための図である。 図8は、いびきの特徴について説明するための図である。 図9は、持続時間算出部の処理を説明するための図である。 図10は、検出部による検出結果の一例を示す図である。 図11は、迷惑度の算出方法を説明するための図である。 図12は、算出部による算出結果の一例を示す図である。 図13は、累積部による累積結果の一例を示す図である。 図14は、実施例1に係る音響信号処理装置の処理手順を示すフローチャートである。 図15は、実施例2に係る携帯端末装置の構成の一例を示すブロック図である。 図16は、迷惑度の算出方法を説明するための図である。 図17は、音響信号処理プログラムを実行するコンピュータの一例を示す図である。 図18は、従来技術を説明するための図である。
 以下に、本願の開示する音響信号処理装置、音響信号処理方法及び音響信号処理プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。各実施例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
 実施例1に係る音響信号処理装置の構成の一例について説明する。図1は、実施例1に係る音響信号処理装置の構成の一例を示すブロック図である。図1に示すように、音響信号処理装置100は、入力メモリ110と、検出部120と、算出部130と、累積メモリ140と、累積部150と、判定部160とを有する。この音響信号処理装置100は、いびきの音量に応じて算出される迷惑度を累積させることで、迷惑ないびきを判定する。以下において、迷惑度について説明する。
 図2及び図3は、迷惑度について説明するための図である。図2及び図3の縦軸は累積迷惑度を示し、横軸は時間を示す。また、横軸上の数値は、何回目に検出されたいびきであるかを示す。図2及び図3に示す例では、閾値をPwとする。図2には、いびきの音量が大きいために1回のいびきによる迷惑度が大きく算出される場合を例示し、図3には、いびきの音量が小さいために1回のいびきによる迷惑度が小さく算出される場合を例示する。図2に示すように、いびきの音量が大きい場合には、例えば、累積迷惑度が閾値Pwに到達するまでに要するいびきの回数は3回である。この場合、音響信号処理装置100は、3回目のいびきを検出した時点で、ユーザのいびきを迷惑であると判定する。一方、図3に示すように、いびきの音量が小さい場合には、例えば、累積迷惑度が閾値Pwに到達するまでに要するいびきの回数は7回である。この場合、音響信号処理装置100は、7回目のいびきを検出した時点で、ユーザのいびきを迷惑であると判定する。
 ここで、迷惑度を用いて判定するのは、ユーザ以外の他者がいびきを迷惑であると感じるには、いびきの音量といびきの回数とが関係するという知見を発明者が得たからである。図4は、いびきの音量と主観評価値との関係を説明するための図である。主観評価値は、他者がいびきを聞いた際に、他者が感じる主観的な評価を点数化したものである。図4においては、「全く気にならない」という評価を「2」とし、「気にならない」という評価を「1」とし、「どちらとも言えない」という評価を「0」とし、「気になる」という評価を「-1」とし、「非常に気になる」という評価を「-2」とする。図4の縦軸は主観評価値を示し、横軸はいびきの音量を示す。図4は、いびきの回数を5回に固定し、いびきの音量を変化させた場合に、被験者が評価した主観評価値の平均値をプロットした実験データである。図4に示すように、いびきの音量と主観評価値との間には、いびきの音量が大きくなるほど主観評価値が低下するという関係がある。つまり、図4に示した実験データは、いびきの音量が大きくなるほど、他者に対して迷惑であることを示す。
 また、図5は、いびきの回数と主観評価値との関係を説明するための図である。図5の縦軸は主観評価値を示し、横軸はいびきの回数を示す。図5は、いびきの音量を70dBAに固定し、いびきの回数を変化させた場合に、被験者が評価した主観評価値の平均値をプロットした実験データである。図5に示すように、いびきの回数と主観評価値との間には、いびきの回数が増加するほど主観評価値が低下するという関係がある。つまり、図5に示した実験データは、いびきの回数が増加するほど、他者に対して迷惑であることを示す。図1に示した音響信号処理装置100は、いびきの音量に応じて算出される迷惑度を累積させることで、迷惑ないびきを判定する。
 図1の説明に戻る。入力メモリ110は、音の入力信号を蓄積する。例えば、入力メモリ110は、所定のサンプル数からなる複数のフレームに分割された入力信号のデータと、フレームの識別番号とを対応付けて、入力信号データとして蓄積する。なお、入力メモリ110に蓄積される音の入力信号は、例えば、睡眠中のユーザの近傍でマイクなどの集音装置により集音された入力信号である。
 検出部120は、音の入力信号に含まれる、人体から発せられる音響信号を検出する。この検出部120は、例えば、過去の入力信号と類似する入力信号が一定時間連続して存在する場合に、該当する入力信号をいびきとして検出する。図6は、実施例1に係る検出部の構成の一例を示すブロック図である。図6に示すように、検出部120は、FFT(Fast Fourier Transform)部121と、パワースペクトル算出部122と、類似度算出部123と、持続時間算出部124と、いびき判定部125とを有する。なお、いびきは、音響信号の一例である。
 ここで、検出部120は、いびきを検出するために、いびきの特徴を利用する。図7及び図8は、いびきの特徴について説明するための図である。図7の縦軸は入力信号の周波数の大きさを示し、横軸は時間を示す。図7に示す例では、時間帯7a,7b,7c,7d,7eにそれぞれ存在する信号は、いびきに対応する。図7に示すように、いびきは、T1周期で繰り返される。例えば、T1は約3~5秒である。また、1回のいびきは、T2時間持続する。例えば、T2は約0.4~2秒である。図8の縦軸は入力信号のパワーを示し、横軸は周波数を示す。図8に示す例では、実線で示した波形8aは時間帯7aのうちの1フレームの周波数特性に対応し、破線で示した波形8bは時間帯7bのうちの1フレームの周波数特性に対応する。図8に示すように、波形8aと波形8bとは類似する。つまり、1回ごとのいびきの周波数特性は類似する。以下では、検出部120がいびきの特徴を利用していびきを検出する処理について説明する。
 図6の説明に戻る。FFT部121は、音の入力信号をフーリエ変換することで、周波数領域の信号に変換する。例えば、FFT部121は、所定のサンプル数からなる複数のフレームに分割された入力信号を取得し、取得したフレームの入力信号をフーリエ変換することで、周波数領域の信号をフレームごとに生成する。そして、FFT部121は、フレームごとに生成した周波数領域の信号をパワースペクトル算出部122に出力する。なお、FFT部121に入力される音の入力信号は、例えば、睡眠中のユーザの近傍でマイクなどの集音装置により集音された入力信号である。
 パワースペクトル算出部122は、FFT部121により変換された周波数領域の信号からパワースペクトルを算出する。例えば、パワースペクトル算出部122は、FFT部121から受け付けた現在のフレームの周波数領域の信号について、帯域ごとの実数部と虚数部との二乗和を算出することで、帯域ごとのパワースペクトルを算出する。そして、パワースペクトル算出部122は、算出した帯域ごとのパワースペクトルを類似度算出部123に出力する。
 類似度算出部123は、現在のパワースペクトルと過去のパワースペクトルとの類似度を算出する。この類似度は、現在のパワースペクトルと過去のパワースペクトルとの類似性を示す値であり、例えば、図8に示した波形8aと波形8bとが類似するほど大きい値となる。例えば、類似度算出部123は、現在の時間「t」のパワースペクトルをパワースペクトル算出部122から受け付けると、時間「t」から時間「x」遡った時間「t-x」のパワースペクトルを過去のパワースペクトルとして選択する。類似度算出部123は、選択した過去のパワースペクトルと、現在のパワースペクトルとの差分を帯域ごとに算出し、算出した差分が閾値以下であるか否かを判定する。類似度算出部123は、閾値以下であると判定した場合には、類似度に「1」を加算する。一方、類似度算出部123は、閾値より大きいと判定した場合には、類似度に「0」を加算する。類似度算出部123は、全ての帯域について上記の処理を実行することで、帯域ごとの類似度を算出する。そして、類似度算出部123は、算出した帯域ごとの類似度を集計することで、時間「t」のパワースペクトルと時間「t-x」のパワースペクトルとの類似度を算出する。なお、閾値は、例えば、3dBである。閾値については、この例示に限るものではなく、音響信号処理装置100を利用するユーザが任意の値に設定して良い。
 また、類似度算出部123は、時間「x」を「x1」から「x2」に変化させ、類似度を算出する。つまり、類似度算出部123は、時間「t-x1」から時間「t-x2」の各時間におけるパワースペクトルと、時間「t」のパワースペクトルとの類似度を算出する。この時間「x」は、例えば、図7に示したT1周期に対応し、x1=3秒、x2=5秒である。そして、類似度算出部123は、算出した類似度を時間「t」のフレームの類似度として持続時間算出部124に出力する。なお、類似度算出部123は、過去のパワースペクトルを保持するものとする。
 持続時間算出部124は、類似度の持続時間を算出する。図9は、持続時間算出部の処理を説明するための図である。図9は、横方向を現在の時間「t」とし、縦方向を現在の時間から遡った時間「x」として、類似度を格納したテーブルである。図9の網掛け部分は、識別子Fを格納することを示す。この識別子Fは、時間「t」のフレームの類似度が閾値以上であることを示す。図9に示すように、例えば、持続時間算出部124は、現在の時間「t」のフレームの類似度を類似度算出部123から受け付けると、受け付けた類似度をテーブルに格納する。例えば、持続時間算出部124は、現在の時間「t」のパワースペクトルと時間「t-x1」のパワースペクトルとの類似度が「2」である場合には、テーブルの左下欄に「2」を格納する。同様に、持続時間算出部124は、他の時間「x」についても類似度を格納する。持続時間算出部124は、格納した類似度が閾値以上であるか否かを判定する。持続時間算出部124は、閾値以上であると判定した場合には、対応するテーブルの欄に識別子Fを格納する。なお、閾値は、例えば、「10」である。閾値については、この例示に限るものではなく、音響信号処理装置100を利用するユーザが任意の値に設定して良い。
 また、持続時間算出部124は、次の時間「t+1」のフレームの類似度を類似度算出部123から受け付けると、上記と同様に、受け付けた類似度をテーブルに格納し、格納した類似度が閾値以上であるか否かを判定する。持続時間算出部124は、同一の時間「x」において、時間「t」から時間「t+1」にかけて識別子Fが連続する場合には、上記の処理を繰り返し実行する。持続時間算出部124は、識別子Fの連続が途切れるまで、上記の処理を繰り返し実行する。図9に示す例では、時間「t+7」のフレームについての処理を実行し、識別子Fの連続が途切れるまで上記の処理を実行する。
 また、持続時間算出部124は、識別子Fの連続が途切れた場合には、識別子Fの連続数を計数する。持続時間算出部124は、計数した識別子Fの連続数を持続時間に換算し、持続時間をいびき判定部125に出力する。図9に示す例では、時間「t」から時間「t+6」までの7フレームにおいて識別子Fが7回連続する。持続時間算出部124は、連続したフレームに対応する時間を持続時間としていびき判定部125に出力する。なお、複数の時間「x」において識別子Fが連続する場合には、持続時間算出部124は、識別子Fの連続数が最長のものについて上記の処理を実行する。
 図6の説明に戻る。いびき判定部125は、いびきの有無を判定する。例えば、いびき判定部125は、持続時間算出部124から受け付けた持続時間が時間範囲「y」に含まれるか否かを判定する。この時間範囲「y」は、例えば、図7に示したT2時間に対応し、約0.4~2秒である。いびき判定部125は、持続時間が時間範囲「y」に含まれると判定した場合には、該当する持続時間に対応する音の入力信号にいびきが含まれると判定する。そして、いびき判定部125は、いびきが含まれると判定された入力信号の区間を、いびき区間として出力する。
 このように、検出部120は、いびきの特徴を利用することで、音の入力信号からいびきを検出する。図10は、検出部による検出結果の一例を示す図である。図10の縦軸は音量を示し、横軸は時間を示す。また、横軸上の数値は、何回目に検出されたいびきであるかを示す。図10に示すように、例えば、検出部120は、1回のいびきに対応するいびき区間を検出する。このいびき区間は、いびきが開始されたフレームを示す情報と、いびきが終了したフレームを示す情報とを含む情報である。そして、検出部120は、いびき区間を検出するごとに、検出したいびき区間を算出部130に出力する。
 図1の説明に戻る。算出部130は、検出部120により検出されたいびきの迷惑度を音の入力信号から算出する。例えば、算出部130は、検出部120により検出されたいびき区間に対応する入力信号データを、入力メモリ110から取得する。算出部130は、取得した入力信号データを用いて、いびきの音量を算出する。このいびきの音量は、例えば、いびき区間の電力値の二乗平均値として算出される平均音量が用いられる。例えば、算出部130は、下記の式(1)を用いて、いびきの音量を算出する。
Figure JPOXMLDOC01-appb-M000001
 式(1)において、nは、フレーム番号を示す。fpow(n)は、n番目のフレームの音量を示す。sample(k)は、k番目のサンプルを示す。Nは、フレーム長を示す。例えば、算出部130は、いびき区間に含まれるフレームごとの平均音量を式(1)を用いて算出し、算出したフレームごとの平均音量を集計することで、いびきの音量を算出する。
 また、算出部130は、いびきの音量に基づいて、いびきの迷惑度を算出する。例えば、算出部130は、下記の式(2)を用いて、いびきの迷惑度を算出する。
Figure JPOXMLDOC01-appb-M000002
 式(2)において、nは、何回目のいびきであるかを示す。Annoy(n)は、n回目のいびきの迷惑度を示す。fpow(n)は、n回目のいびきの音量を示す。AMaxは、予め規定された迷惑度の最大値を示し、例えば、「100」である。Aminは、予め規定された迷惑度の最小値を示し、例えば、「0」である。TH1及びTH2は閾値を示し、例えば、TH1が「60dBA」であり、TH2が「80dBA」である。なお、AMaxは、例えば、他者が1度聞いただけで迷惑であると感じるいびきの音量の最小値に対応し、後述する判定部160で設定される閾値と同一の値が設定される。ただし、AMaxの設定方法は、この設定方法に限定されるものではない。例えば、AMaxは、いびき以外の大きな音を検出した場合に、判定部160により迷惑度が閾値に到達したと誤判定される可能性を防止するために、判定部160で設定される閾値よりも小さな値が設定されても良い。また、AMax、Amin、TH1及びTH2については、この例示に限るものではなく、音響信号処理装置100を利用するユーザが任意の値に設定して良い。
 ここで、算出部130が式(2)を用いて迷惑度を算出する方法を説明する。図11は、迷惑度の算出方法を説明するための図である。図11の縦軸は迷惑度を示し、横軸は音量[dBA]を示す。図11に示すように、例えば、算出部130は、音量fpow(n)が閾値TH1以上、かつ、閾値TH2未満である場合には、迷惑度Annoy(n)として音量fpow(n)に比例した数値を算出する。また、算出部130は、音量fpow(n)が閾値TH1未満である場合には、迷惑度Annoy(n)としてAminを算出する。また、算出部130は、音量fpow(n)が閾値TH2以上である場合には、迷惑度Annoy(n)としてAmaxを算出する。
 図12は、算出部による算出結果の一例を示す図である。図12の縦軸は迷惑度を示し、横軸は時間を示す。また、横軸上の数値は、何回目に検出されたいびきであるかを示す。図12に示すように、例えば、算出部130は、検出部120からn回目のいびきを検出するごとに、n回目のいびきの迷惑度を算出する。そして、算出部130は、n回目のいびきの迷惑度を算出するごとに、算出した迷惑度を累積部150に出力する。なお、迷惑度は、実効音量の一例である。
 図1の説明に戻る。累積メモリ140は、後述する累積部150により累積された累積迷惑度を蓄積する。例えば、累積メモリ140は、1回目からn-1回目までのいびきの迷惑度が累積された累積迷惑度を蓄積する。
 累積部150は、算出部130により算出された迷惑度を累積させ、累積迷惑度を算出する。例えば、累積部150は、n回目のいびきの迷惑度を算出部130から受け付けると、1回目からn-1回目までのいびきの累積迷惑度を累積メモリ140から取得する。そして、算出部130は、例えば、下記の式(3)を用いて、1回目からn回目までのいびきの累積迷惑度を算出する。
Figure JPOXMLDOC01-appb-M000003
 式(3)において、nは、何回目のいびきであるかを示す。Annoy_total(n)は、1回目からn回目までのいびきの累積迷惑度を示す。Annoy_total(n-1)は、1回目からn-1回目までのいびきの累積迷惑度を示す。Annoy(n)は、n回目のいびきの迷惑度を示す。つまり、累積部150は、n回目のいびきの迷惑度と1回目からn-1回目までのいびきの累積迷惑度とを加算し、1回目からn回目までのいびきの累積迷惑度を算出する。
 図13は、累積部による累積結果の一例を示す図である。図13の縦軸は累積迷惑度を示し、横軸は時間を示す。また、横軸上の数値は、何回目に検出されたいびきであるかを示す。図13に示すように、累積部150は、n回目のいびきの迷惑度を算出部130から受け付けるごとに、n回目のいびきの迷惑度と、1回目からn-1回目までのいびきの累積迷惑度とを加算する。そして、累積部150は、1回目からn回目までのいびきの累積迷惑度を判定部160に出力する。また、累積部150は、1回目からn回目までのいびきの累積迷惑度を累積メモリ140に格納する。なお、累積迷惑度は、累積実効音量の一例である。
 判定部160は、累積部150により累積された累積迷惑度が閾値に到達したか否かを判定する。例えば、判定部160は、1回目からn回目までのいびきの累積迷惑度を累積部150から受け付けるごとに、受け付けた累積迷惑度が閾値に到達したか否かを判定する。判定部160は、閾値に到達したと判定した場合には、閾値に到達した旨を示す情報をスピーカーやモニタなどに出力する。一方、判定部160は、閾値に到達したと判定しなかった場合には、次に累積迷惑度を累積部150から受け付けるまで待機する。
 次に、実施例1に係る音響信号処理装置100の処理手順について説明する。図14は、実施例1に係る音響信号処理装置の処理手順を示すフローチャートである。図14に示す処理は、例えば、検出部120がいびきを検出したことを契機として実行される。
 図14に示すように、検出部120がいびきを検出すると(ステップS101,Yes)、算出部130は、検出部120により検出されたいびきの迷惑度を音の入力信号から算出する(ステップS102)。累積部150は、算出部130により算出された迷惑度を累積させ、累積迷惑度を算出する(ステップS103)。判定部160は、累積部150により累積された累積迷惑度が閾値に到達したか否かを判定する(ステップS104)。判定部160は、閾値に到達したと判定した場合には(ステップS104,Yes)、閾値に到達した旨を示す情報をスピーカーやモニタなどに出力する(ステップS105)。一方、判定部160は、閾値に到達していないと判定した場合には(ステップS104,No)、ステップS101に移行する。
 次に、実施例1に係る音響信号処理装置100の効果について説明する。上述してきたように、音響信号処理装置100は、音の入力信号に含まれるユーザのいびきを検出し、検出したいびきの迷惑度を音の入力信号から算出する。そして、音響信号処理装置100は、算出した迷惑度を累積させて累積迷惑度を算出し、算出した累積迷惑度が閾値に到達したか否かを判定する。このため、音響信号処理装置100は、人体から発せられる音響信号を正確に判定することができる。例えば、音響信号処理装置100は、いびきの音量がゆらいでいても、迷惑ないびきの検出漏れや検出遅れを防止し、迷惑ないびきを正確に判定することができる。
 また、音響信号処理装置100は、いびきの音量が閾値TH1以上、かつ、閾値TH2未満である場合には、迷惑度として音量に比例した数値を算出する。また、音響信号処理装置100は、いびきの音量が閾値TH1未満である場合には、迷惑度として予め規定された最小値を算出する。また、音響信号処理装置100は、いびきの音量が閾値TH2以上である場合には、迷惑度として予め規定された最大値を算出する。このため、音響信号処理装置100は、ユーザのいびきが迷惑であると実際に他者が感じる度合いを考慮して、迷惑ないびきを正確に判定することができる。
 ところで、図1に示した音響信号処理装置100の構成は一例であり、音響信号処理装置100は、必ずしも図1に示した各処理部を全て有していなくても良い。例えば、音響信号処理装置100は、検出部と、算出部と、累積部と、判定部とを有していれば良い。
 すなわち、検出部は、音の入力信号に含まれる、人体から発せられる音響信号を検出する。算出部は、検出部により検出された音響信号の実効的な音量を示す実効音量を入力信号から算出する。累積部は、算出部により算出された実効音量を累積させ、累積実効音量を算出する。判定部は、累積部により算出された累積実効音量が所定の閾値に到達したか否かを判定する。
 実施例2に係る携帯端末装置について説明する。実施例2では、携帯端末装置が迷惑ないびきを判定する場合を説明する。図15は、実施例2に係る携帯端末装置の構成の一例を示すブロック図である。図15に示すように、この携帯端末装置200は、集音部210と、音響信号処理回路220と、動作実行部230とを有する。なお、携帯端末装置200は、音響信号処理装置の一例である。
 集音部210は、音の入力信号を集音する。例えば、集音部210は、睡眠中のユーザの近傍で発せられた音の入力信号を集音する。集音部210は、集音した音の入力信号を所定のサンプル数からなる複数のフレームに分割し、入力信号データを生成する。集音部210は、入力信号データを音響信号処理回路220に出力する。集音部210は、例えば、マイクなどの集音装置に対応する。
 音響信号処理回路220は、音の入力信号に含まれる、ユーザから発せられるいびきを検出し、検出したいびきの音量に応じて迷惑度を算出する。音響信号処理回路220は、ユーザのいびきを検出するごとに迷惑度を累積させ、累積迷惑度が閾値に到達したか否かを判定する。例えば、音響信号処理回路220は、入力信号データを集音部210から受け付けて、入力信号データからユーザのいびきを検出する。音響信号処理回路220は、検出したいびきの音量に応じて迷惑度を算出し、算出した迷惑度を累積させる。音響信号処理回路220は、累積させた累積迷惑度が閾値に到達した場合に、ユーザのいびきが迷惑であると判定する。
 図15に示すように、音響信号処理回路220は、入力メモリ221と、検出部222と、算出部223と、累積メモリ224と、累積部225と、判定部226とを有する。図15に示した入力メモリ221、検出部222、算出部223、累積メモリ224、累積部225、判定部226の説明は、図1に示した入力メモリ110、検出部120、算出部130、累積メモリ140、累積部150、判定部160の説明と同様である。
 動作実行部230は、判定部226により累積迷惑度が閾値に到達したと判定された場合に、規定の動作を実行する。動作実行部230は、例えば、振動装置やスピーカーに対応する。例えば、動作実行部230は、ユーザのいびきが迷惑であると判定された場合に、予め規定したパターンで振動したり、予め規定した音量の音を出力したりする。
 このように、実施例2に係る携帯端末装置200は、累積迷惑度が閾値に到達したと判定した場合に、予め規定した動作を実行することでユーザを目覚めさせ、ユーザにいびきを止めさせることができる。
 実施例3に係る音響信号処理装置について説明する。実施例3に係る音響信号処理装置は、図1に示した音響信号処理装置100と同様に、入力メモリ110と、検出部120と、算出部130と、累積メモリ140と、累積部150と、判定部160とを有する。このうち、入力メモリ110、検出部120、累積メモリ140、累積部150、判定部160の説明は、図1に示した入力メモリ110、検出部120、累積メモリ140、累積部150、判定部160の説明と同様である。
 算出部130は、図1に示した算出部130と同様の機能を有する。なお、迷惑度の算出方法としては、上記の式(1)を用いる方法を説明したが、この方法に限定されるものではない。例えば、算出部130は、下記の式(4)を用いて、いびきの迷惑度を算出するようにしても良い。
Figure JPOXMLDOC01-appb-M000004
 式(4)において、nは、何回目のいびきであるかを示す。Annoy(n)は、n回目のいびきの迷惑度を示す。fpow(n)は、n回目のいびきの音量を示す。COEFFは、任意の定数を示す。
 ここで、算出部130が式(4)を用いて迷惑度を算出する方法を説明する。図16は、迷惑度の算出方法を説明するための図である。図16の縦軸は迷惑度を示し、横軸は音量[dBA]を示す。図16に示すように、例えば、算出部130は、迷惑度Annoy(n)として音量fpow(n)に比例した数値を算出する。そして、算出部130は、n回目のいびきの迷惑度を算出するごとに、算出した迷惑度を累積部150に出力する。
 このように、実施例3に係る音響信号処理装置100は、いびきの音量に比例した数値をいびきの迷惑度として算出する。このため、音響信号処理装置100は、軽い処理負荷で迷惑ないびきを正確に判定することができる。
 実施例4に係る音響信号処理装置について説明する。実施例4に係る音響信号処理装置は、所定時間継続して、予め規定された最小値が迷惑度として算出される場合には、累積迷惑度を低減する。これは、迷惑度が累積していたとしても、音量の小さいいびきが所定時間継続すると、いびきを迷惑であると他者が感じなくなることを利用したものである。実施例4に係る音響信号処理装置は、図1に示した音響信号処理装置100と同様に、入力メモリ110と、検出部120と、算出部130と、累積メモリ140と、累積部150と、判定部160とを有する。このうち、入力メモリ110、検出部120、算出部130と、累積メモリ140、判定部160の説明は、図1に示した入力メモリ110、検出部120、算出部130、累積メモリ140、判定部160の説明と同様である。
 累積部150は、図1に示した累積部150と同様の機能を有する。また、累積部150は、所定時間継続して、算出部130により予め規定された最小値が迷惑度として算出される場合に、累積迷惑度を低減する。例えば、累積部150は、下記の式(5)を用いて、いびきの迷惑度を算出する。
Figure JPOXMLDOC01-appb-M000005
 式(5)において、nは、何回目のいびきであるかを示す。Annoy_total(n)は、1回目からn回目までのいびきの累積迷惑度を示す。Annoy_total(n-1)は、1回目からn-1回目までのいびきの累積迷惑度を示す。Annoy(n)は、n回目のいびきの迷惑度を示す。Nは、累積迷惑度を低減するために予め規定された所定時間に含まれるいびきの回数を示す。つまり、累積部150は、n-N回目からn回目までの間に受け付けたいびきの迷惑度がいずれも「0」である場合には、n回目までのいびきの累積迷惑度を「0」に低減する。一方、累積部150は、上記の場合に該当しない場合には、n回目のいびきの迷惑度と1回目からn-1回目までのいびきの累積迷惑度とを加算し、1回目からn回目までのいびきの累積迷惑度を算出する。そして、累積部150は、1回目からn回目までのいびきの累積迷惑度を判定部160に出力する。また、累積部150は、1回目からn回目までのいびきの累積迷惑度を累積メモリ140に格納する。なお、累積迷惑度を低減する値が「0」である場合を説明したが、これに限定されるものではない。例えば、累積部150は、累積迷惑度を半減するようにしても良い。
 このように、実施例4に係る音響信号処理装置100は、所定時間継続して、算出部130により予め規定された最小値が迷惑度として算出される場合に、累積迷惑度を低減する。このため、音響信号処理装置100は、音量の小さいいびきが所定時間継続すると、いびきを迷惑であると他者が感じなくなることを考慮して、迷惑ないびきを正確に判定することができる。
 さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以外にも、その他の実施例にて実施されても良い。そこで、以下では、その他の実施例について説明する。
 例えば、上述した実施例では、音響信号処理装置100及び携帯端末装置200は、人体から発せられる音響信号としていびきを検出する場合を説明したが、本発明はこれに限定されるものではない。例えば、音響信号処理装置100及び携帯端末装置200は、人体から発せられる音響信号として歯軋りや独り言などの他の音響信号を検出するようにしても良い。また、例えば、音響信号処理装置100及び携帯端末装置200は、他者が迷惑であると感じる周波数帯の音響信号を検出するようにしても良い。このように、人体から発せられる音響信号を検出する技術としては、特開平7-184948号公報に開示される技術や特開2004-187961号公報に開示される技術など、公知の技術を任意に選択して使用できる。
 また、図1,15に示した音響信号処理装置100及び携帯端末装置200の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、音響信号処理装置100及び携帯端末装置200の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、図1に示した算出部130及び累積部150を統合しても良い。
 また、検出部120,222、算出部130,223、累積部150,225及び判定部160,226にて行われる各処理機能は、以下のように実現される。すなわち、これらの各処理機能は、その全部または任意の一部が、CPU(Central Processing Unit)および当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
 また、入力メモリ110,221及び累積メモリ140,224は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子、ハードディスクや光ディスクなどの記憶装置に対応する。
 また、音響信号処理装置100及び携帯端末装置200は、音響信号処理装置100及び携帯端末装置200の各機能を既知の情報処理装置に搭載することによって実現することもできる。既知の情報処理装置は、例えば、パーソナルコンピュータ、ワークステーション、携帯電話、PHS(Personal Handy-phone System)端末、移動体通信端末またはPDA(Personal Digital Assistant)などの装置に対応する。
 図17は、音響信号処理プログラムを実行するコンピュータの一例を示す図である。図17に示すように、コンピュータ300は、各種演算処理を実行するCPU301と、ユーザからデータの入力を受け付ける入力装置302と、モニタ303とを有する。また、コンピュータ300は、記憶媒体からプログラム等を読み取る媒体読み取り装置304と、他の装置とデータの授受を行うインターフェース装置305とを有する。また、コンピュータ300は、各種情報を一時記憶するRAM(Random Access Memory)306と、ハードディスク装置307を有する。また、各装置301~307は、バス308に接続される。
 ハードディスク装置307は、図1,15に示した、検出部120,222、算出部130,223、累積部150,225及び判定部160,226の各処理部と同様の機能を有する音響信号処理プログラム307aを記憶する。また、ハードディスク装置307は、音響信号処理プログラム307aを実現するための各種データ307bを記憶する。
 CPU301が音響信号処理プログラム307aをハードディスク装置307から読み出してRAM306に展開して実行することにより、音響信号処理プログラム307aは、音響信号処理プロセス306aとして機能する。すなわち、音響信号処理プログラム307aは、検出部120,222、算出部130,223、累積部150,225及び判定部160,226の各処理部と同様のプロセスとして機能する。
 なお、上記の音響信号処理プログラム307aは、必ずしもハードディスク装置307に記憶されている必要はない。例えば、コンピュータが読み取り可能な記録媒体に記憶されたプログラムを、コンピュータ300が読み出して実行するようにしても良い。コンピュータが読み取り可能な記録媒体は、例えば、CD-ROMやDVDディスク、USBメモリ等の可搬型記録媒体、フラッシュメモリ等の半導体メモリ、ハードディスクドライブ等が対応する。また、公衆回線、インターネット、LAN(Local Area Network)、WAN(Wide Area Network)等に接続された装置にこのプログラムを記憶させておき、コンピュータ300がこれらからプログラムを読み出して実行するようにしても良い。
100   音響信号処理装置
110   入力メモリ
120   検出部
121   FFT部
122   パワースペクトル算出部
123   類似度算出部
124   持続時間算出部
125   いびき判定部
130   算出部
140   累積メモリ
150   累積部
160   判定部
200   携帯端末装置
210   集音部
220   音響信号処理回路
221   入力メモリ
222   検出部
223   算出部
224   累積メモリ
225   累積部
226   判定部
230   動作実行部
300   コンピュータ
301   CPU
302   入力装置
303   モニタ
304   媒体読み取り装置
305   インターフェース装置
306a  音響信号処理プロセス
307   ハードディスク装置
307a  音響信号処理プログラム
307b  各種データ
308   バス

Claims (12)

  1.  音の入力信号に含まれる、人体から発せられる音響信号を検出する検出部と、
     前記検出部により検出された前記音響信号の実効的な音量を示す実効音量を前記入力信号から算出する算出部と、
     前記算出部により算出された前記実効音量を累積させ、累積実効音量を算出する累積部と、
     前記累積部により算出された前記累積実効音量が所定の閾値に到達したか否かを判定する判定部と
     を備えることを特徴とする音響信号処理装置。
  2.  前記算出部は、前記入力信号のレベルが第1閾値以上、かつ、第2閾値未満である場合には、前記実効音量として前記レベルに比例した数値を算出し、前記レベルが第1閾値未満である場合には、前記実効音量として予め規定された最小値を算出し、前記レベルが第2閾値以上である場合には、前記実効音量として予め規定された最大値を算出することを特徴とする請求項1に記載の音響信号処理装置。
  3.  前記累積部は、所定時間継続して、前記算出部により前記実効音量として前記最小値が算出される場合に、前記累積実効音量を低減することを特徴とする請求項1又は2に記載の音響信号処理装置。
  4.  前記判定部により前記累積実効音量が所定の閾値に到達したと判定された場合に、規定の動作を実行する動作実行部を更に備えることを特徴とする請求項1又は2に記載の音響信号処理装置。
  5.  コンピュータにより実行される音響信号処理方法であって、
     音の入力信号に含まれる、人体から発せられる音響信号を検出し、
     前記音響信号を検出する処理により検出された前記音響信号の実効的な音量を示す実効音量を前記入力信号から算出し、
     前記実効音量を算出する処理により算出された前記実効音量を累積させ、累積実効音量を算出し、
     前記累積実効音量を算出する処理により算出された前記累積実効音量が所定の閾値に到達したか否かを判定する
     ことを特徴とする音響信号処理方法。
  6.  前記実効音量を算出する処理は、前記入力信号のレベルが第1閾値以上、かつ、第2閾値未満である場合には、前記実効音量として前記レベルに比例した数値を算出し、前記レベルが第1閾値未満である場合には、前記実効音量として予め規定された最小値を算出し、前記レベルが第2閾値以上である場合には、前記実効音量として予め規定された最大値を算出することを特徴とする請求項5に記載の音響信号処理方法。
  7.  前記累積実効音量を算出する処理は、所定時間継続して、前記実効音量を算出する処理により前記実効音量として前記最小値が算出される場合に、前記累積実効音量を低減することを特徴とする請求項5又は6に記載の音響信号処理方法。
  8.  前記閾値に到達したか否かを判定する処理により前記累積実効音量が所定の閾値に到達したと判定された場合に、規定の動作を更に実行することを特徴とする請求項5又は6に記載の音響信号処理方法。
  9.  コンピュータに、
     音の入力信号に含まれる、人体から発せられる音響信号を検出し、
     前記音響信号を検出する処理により検出された前記音響信号の実効的な音量を示す実効音量を前記入力信号から算出し、
     前記実効音量を算出する処理により算出された前記実効音量を累積させ、累積実効音量を算出し、
     前記累積実効音量を算出する処理により算出された前記累積実効音量が所定の閾値に到達したか否かを判定する
     処理を実行させることを特徴とする音響信号処理プログラム。
  10.  前記実効音量を算出する処理は、前記入力信号のレベルが第1閾値以上、かつ、第2閾値未満である場合には、前記実効音量として前記レベルに比例した数値を算出し、前記レベルが第1閾値未満である場合には、前記実効音量として予め規定された最小値を算出し、前記レベルが第2閾値以上である場合には、前記実効音量として予め規定された最大値を算出することを特徴とする請求項9に記載の音響信号処理プログラム。
  11.  前記累積実効音量を算出する処理は、所定時間継続して、前記実効音量を算出する処理により前記実効音量として前記最小値が算出される場合に、前記累積実効音量を低減することを特徴とする請求項9又は10に記載の音響信号処理プログラム。
  12.  前記閾値に到達したか否かを判定する処理により前記累積実効音量が所定の閾値に到達したと判定された場合に、規定の動作を実行する処理をコンピュータに更に実行させることを特徴とする請求項9又は10に記載の音響信号処理プログラム。
PCT/JP2010/072290 2010-12-10 2010-12-10 音響信号処理装置、音響信号処理方法及び音響信号処理プログラム WO2012077239A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP10860523.9A EP2650873B1 (en) 2010-12-10 2010-12-10 Acoustic signal processing device, acoustic signal processing method, and acoustic signal processing program
PCT/JP2010/072290 WO2012077239A1 (ja) 2010-12-10 2010-12-10 音響信号処理装置、音響信号処理方法及び音響信号処理プログラム
JP2012547666A JP5672309B2 (ja) 2010-12-10 2010-12-10 音響信号処理装置、音響信号処理方法及び音響信号処理プログラム
US13/913,956 US20130274632A1 (en) 2010-12-10 2013-06-10 Acoustic signal processing apparatus, acoustic signal processing method, and computer readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2010/072290 WO2012077239A1 (ja) 2010-12-10 2010-12-10 音響信号処理装置、音響信号処理方法及び音響信号処理プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/913,956 Continuation US20130274632A1 (en) 2010-12-10 2013-06-10 Acoustic signal processing apparatus, acoustic signal processing method, and computer readable storage medium

Publications (1)

Publication Number Publication Date
WO2012077239A1 true WO2012077239A1 (ja) 2012-06-14

Family

ID=46206758

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/072290 WO2012077239A1 (ja) 2010-12-10 2010-12-10 音響信号処理装置、音響信号処理方法及び音響信号処理プログラム

Country Status (4)

Country Link
US (1) US20130274632A1 (ja)
EP (1) EP2650873B1 (ja)
JP (1) JP5672309B2 (ja)
WO (1) WO2012077239A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI475558B (zh) 2012-11-08 2015-03-01 Ind Tech Res Inst 詞語驗證的方法及裝置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0396078U (ja) * 1990-01-22 1991-10-01
JPH0728486A (ja) * 1993-07-13 1995-01-31 Nec Corp 音声圧縮装置
JPH07184948A (ja) 1993-12-27 1995-07-25 Matsushita Electric Ind Co Ltd いびき検出装置
JP3096078B2 (ja) 1991-03-20 2000-10-10 本田技研工業株式会社 4サイクルエンジンの排気装置
JP2004187961A (ja) 2002-12-12 2004-07-08 Toshiba Corp 睡眠状態検出装置および睡眠状態管理システム
JP2007511812A (ja) * 2003-05-21 2007-05-10 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 可聴のメッセージを生成可能なモニタシステム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4700392A (en) * 1983-08-26 1987-10-13 Nec Corporation Speech signal detector having adaptive threshold values
JP3096078U (ja) * 2003-02-24 2003-08-29 行信 阿部 いびき/歯ぎしり/寝言等の計測・目覚まし装置
US8193941B2 (en) * 2009-05-06 2012-06-05 Empire Technology Development Llc Snoring treatment
US8410942B2 (en) * 2009-05-29 2013-04-02 L&P Property Management Company Systems and methods to adjust an adjustable bed

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0396078U (ja) * 1990-01-22 1991-10-01
JP3096078B2 (ja) 1991-03-20 2000-10-10 本田技研工業株式会社 4サイクルエンジンの排気装置
JPH0728486A (ja) * 1993-07-13 1995-01-31 Nec Corp 音声圧縮装置
JPH07184948A (ja) 1993-12-27 1995-07-25 Matsushita Electric Ind Co Ltd いびき検出装置
JP2004187961A (ja) 2002-12-12 2004-07-08 Toshiba Corp 睡眠状態検出装置および睡眠状態管理システム
JP2007511812A (ja) * 2003-05-21 2007-05-10 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 可聴のメッセージを生成可能なモニタシステム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2650873A4

Also Published As

Publication number Publication date
JPWO2012077239A1 (ja) 2014-05-19
US20130274632A1 (en) 2013-10-17
EP2650873A1 (en) 2013-10-16
EP2650873B1 (en) 2017-06-21
JP5672309B2 (ja) 2015-02-18
EP2650873A4 (en) 2014-09-03

Similar Documents

Publication Publication Date Title
US20220201125A1 (en) Howl detection in conference systems
US10818313B2 (en) Method for detecting audio signal and apparatus
JP5418666B2 (ja) ブラキシズム検出装置及びブラキシズム検出用コンピュータプログラム
JPWO2012042611A1 (ja) 呼吸検出装置および呼吸検出方法
WO2008041730A1 (en) Method and system for detecting wind noise
CN105249927A (zh) 一种鼾声识别方法及止鼾装置
Carbonneau et al. Detection of alarms and warning signals on an digital in-ear device
JP6294747B2 (ja) 報知音感知装置、報知音感知方法及びプログラム
CN109767784B (zh) 鼾声识别的方法及装置、存储介质和处理器
JP5672309B2 (ja) 音響信号処理装置、音響信号処理方法及び音響信号処理プログラム
JP5765338B2 (ja) 音声処理装置および音声処理装置の作動方法
CN110556128B (zh) 一种语音活动性检测方法、设备及计算机可读存储介质
CN109213471B (zh) 一种音量的调节方法及系统
CN108062959B (zh) 一种声音降噪方法及装置
US10109298B2 (en) Information processing apparatus, computer readable storage medium, and information processing method
JP2007072005A (ja) 非定常雑音判別方法、その装置、そのプログラム及びその記録媒体
JP2018081277A (ja) 音声区間検出方法、音声区間検出装置および音声区間検出プログラム
JP2021015137A5 (ja)
CN108520755B (zh) 一种检测方法及装置
CN110534128A (zh) 一种噪音处理方法、装置、设备及存储介质
Kopyto et al. Audio-Based Onset Detection applied to Chewing Cycle Segmentation
JP6031863B2 (ja) 心音分析装置、心音分析方法および心音分析プログラム
Tanigawa et al. Detecting mastication by using microwave doppler sensor
JP2018180482A (ja) 音声検出装置及び音声検出プログラム
NL2016471B1 (en) Teeth grinding detection.

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10860523

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2012547666

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

REEP Request for entry into the european phase

Ref document number: 2010860523

Country of ref document: EP