WO2021014935A1 - 放音システム - Google Patents

放音システム Download PDF

Info

Publication number
WO2021014935A1
WO2021014935A1 PCT/JP2020/026172 JP2020026172W WO2021014935A1 WO 2021014935 A1 WO2021014935 A1 WO 2021014935A1 JP 2020026172 W JP2020026172 W JP 2020026172W WO 2021014935 A1 WO2021014935 A1 WO 2021014935A1
Authority
WO
WIPO (PCT)
Prior art keywords
sound
concealed
signal
emitting system
environmental
Prior art date
Application number
PCT/JP2020/026172
Other languages
English (en)
French (fr)
Inventor
靖彦 加藤
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to JP2021533911A priority Critical patent/JPWO2021014935A1/ja
Publication of WO2021014935A1 publication Critical patent/WO2021014935A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones

Definitions

  • This technology relates to a sound emitting system, and in particular, a sound emitting system that makes it difficult to hear sound leaking outside the specified direction.
  • Line array speakers are a technology that has been released by various companies and has already been commercialized, and by arranging multiple speakers in a row, directivity can be formed in the vertical direction of the speaker rows. In addition, some array-shaped speakers enable directivity control by further using signal processing technology.
  • Patent Document 1 a technique for controlling directivity by signal processing using an array speaker has also been proposed (see, for example, Patent Document 1 and Patent Document 2).
  • This technology was made in view of such a situation, and makes it possible to make it difficult to hear the sound leaking out of the specified direction.
  • the sound emitting system of one aspect of the present technology produces one or a plurality of first speakers that emit a target sound and a directional concealed sound that is arranged adjacent to the one or a plurality of the first speakers. It is provided with one or more second speakers that emit sound.
  • the target sound is emitted by one or more first speakers, and one or more second speakers arranged adjacent to the one or more first speakers.
  • a directional concealed sound is emitted.
  • FIG. 1 is a diagram showing a configuration example of an embodiment of a sound emitting system to which the present technology is applied.
  • the sound emitting system 11 shown in FIG. 1 includes an audio player 21-1, an audio player 21-2, an audio player 22, an audio amplifier 23-1, an audio amplifier 23-2, an audio amplifier 24, and an array speaker 25-1. , Array speaker 25-2, and array speaker 26.
  • a concealed sound signal which is an audio signal of a pre-recorded recording environment sound, is recorded.
  • the pre-recorded environmental sound is used as a concealing sound for making it difficult to perceive sound leakage.
  • the audio player 21-1 and the audio player 21-2 start playing the sound by the playback start signal or the button operation (not shown), and transmit the analog or digital hidden sound signal to the audio amplifier 23-1 and the audio. Output to amplifier 23-2.
  • the audio amplifier 23-1 and the audio amplifier 23-2 amplify the hidden sound signal supplied from the audio player 21-1 and the audio player 21-2, and the array speaker 25- based on the amplified hidden sound signal. 1 and the array speaker 25-2 are driven to emit a concealed sound.
  • the audio player 21 when it is not necessary to distinguish between the audio player 21-1 and the audio player 21-2, it is also simply referred to as the audio player 21.
  • the audio amplifier 23-1 and the audio amplifier 23-2 when it is not necessary to distinguish between the audio amplifier 23-1 and the audio amplifier 23-2, it is also simply referred to as the audio amplifier 23, and the array speaker 25-1 and the array speaker 25-2 do not need to be particularly distinguished. , Simply referred to as the array speaker 25.
  • the audio player 22 records a target sound signal, which is an audio signal of the target sound, for example, a pre-recorded explanation of an advertisement to be exhibited.
  • the target sound here is a sound that the listener wants to hear.
  • the audio player 22 starts sound reproduction by a reproduction start signal or a button operation (not shown), and outputs an analog or digital target sound signal to the audio amplifier 24.
  • the audio amplifier 24 amplifies the target sound signal supplied from the audio player 22, and drives the array speaker 26 based on the amplified target sound signal to emit the target sound.
  • the array speaker 25 and the array speaker 26 are each composed of 16 speakers (speaker units) arranged at equal intervals in the horizontal direction.
  • the array speakers 25-1 and the array speakers 25-2 are arranged adjacent to the ends of the array speakers 26 on different sides, that is, the left and right ends.
  • the array speakers 25 and the speakers constituting the array speakers 26 are arranged linearly, that is, at equal intervals in the horizontal direction. Therefore, in this example, 16 ⁇ 3 speakers are linearly arranged at equal intervals.
  • the array speaker 25 is used as the speaker for emitting the concealed sound
  • only one speaker may be used for emitting the concealed sound.
  • some speakers on the array speaker 26 side of the array speaker 25 may be used not only for concealing sound but also for emitting target sound.
  • some speakers on the array speaker 25 side of the array speaker 26 may be used to emit not only the target sound but also the concealed sound.
  • FIG. 2 sound leakage that occurs when a line array speaker or the like is used as the array speaker 25 or the array speaker 26 will be described.
  • the parts corresponding to those in FIG. 1 are designated by the same reference numerals, and the description thereof will be omitted as appropriate.
  • the concealment sound A is emitted from the array speaker 25-1, and the sound such as the explanation of the advertisement to be exhibited, that is, the target sound is emitted from the array speaker 26. It is assumed that the concealment sound B is emitted from 25-2.
  • the region where the sound can be heard best due to the directivity of the sound that is, the region where the sound pressure level is high is defined as the region R11.
  • the array speaker 25-1 outputs the concealed sound A having directivity so that the concealed sound A is basically heard only in the area R11.
  • the output (sound emission) of the concealed sound A having directivity is, for example, directional formation using a line array speaker or a directional speaker as the array speaker 25-1, and each of the components constituting the array speaker 25-1. It is realized by wave surface synthesis that synthesizes the wave surface of the sound from the speaker.
  • the region where the sound can be heard best due to the directivity of the sound is set as the area R12, and when the sound is emitted from the array speaker 25-2, the sound is emitted.
  • the area where the sound can be heard best due to the directivity is defined as the area R13.
  • the array speaker 26 outputs a target sound having directivity so that the target sound is basically heard only in the area R12.
  • the emission of the target sound having directivity may be realized by directivity formation using a line array speaker or a directional speaker as the array speaker 26, wave field synthesis, or the like.
  • the target sound does not necessarily have to have directivity.
  • the array speaker 25-2 also emits a concealed sound B having directivity as in the case of the array speaker 25-1.
  • the concealed sound B can be given directivity by forming directivity using a line array speaker or a directional speaker as the array speaker 25-2, or by wave field synthesis.
  • the target sound emitted from the array speaker 26 is the region R11 at the left and right ends of the array speaker 26, that is, near the boundary of the region R12 with the region R11 and near the boundary of the region R12 with the region R13. And leaks to area R13. That is, sound leakage occurs.
  • the target sound leaked in this way is heard, for example, in the area R11, overlapping with the concealed sound A emitted by the array speaker 25-1.
  • the sound leakage of the target sound that is, the diffusion of the target sound can be made difficult to notice (difficult to perceive) due to the influence of the concealed sound A.
  • auditory masking occurs due to the effect of overlapping concealed sounds, making it difficult to notice sound leakage.
  • the auditory masking effect can be enhanced by frequency-analyzing the target sound and equalizing the frequency of the concealed sound A so as to hide (mask) the peak of the frequency based on the principle of auditory masking.
  • the target sound is frequency-analyzed and a sound that destroys its characteristics is superimposed on the concealed sound A and emitted, the leaking target sound can be made an unclear sound. It is possible to make it difficult for the listener to notice the leakage of the target sound.
  • destroying the characteristics of the target sound means that when the target sound and the sound that destroys the characteristics of the target sound are played back at the same time, the target sound is heard as an unclear sound, that is, it is heard as a meaningful sound. Make it difficult.
  • the sound that destroys the characteristics of the target sound is a sound that has a frequency characteristic that cancels the characteristics of the target sound.
  • the frequency component of the lower protruding part (valley part) is large, and when the target sound is synthesized, the frequency waveform of the synthesized sound becomes a roughly flat waveform.
  • Such a sound may be generated as a sound that destroys the characteristics of the target sound.
  • the concealed sound A leaks to the right side in the figure of the area R11. This leaked sound is heard in the area R14 adjacent to the right side of the area R11.
  • the actual environmental sound heard in the area R14 and the concealed sound A that has leaked sound overlap.
  • the concealed sound A is a sound having characteristics similar to the actual environmental sound of the region R14, the listener is less likely to notice the sound leakage of the concealed sound A.
  • the actual environmental sound heard in the area R14 is not the sound emitted by the array speaker 25-1, but the sound emitted from one or a plurality of sound sources existing around the area R14.
  • the actual environmental sound heard in the region R14 is also referred to as the environmental sound C.
  • the sound observed in the region R14 is recorded (picked up) in advance, and the result is obtained.
  • the sound (environmental sound C) may be emitted from the array speaker 25-1 as the concealed sound A.
  • the present invention is not limited to this, and the concealed sound may be emitted toward the region vertically adjacent to the region R12, that is, the region adjacent to the region R12 in the upward or downward direction.
  • step S11 the audio player 21 outputs the concealed sound signal held in advance to the audio amplifier 23.
  • the concealed sound signal output from the audio player 21 is obtained by collecting environmental sounds in advance in an area adjacent to the area opposite to the array speaker 26 with respect to the area where the array speaker 25 emits sound, for example. It may be the obtained audio signal, or it may be obtained by further performing an equalizing process or the like on the audio signal.
  • the equalizing process referred to here is a process of adjusting the magnitude of each frequency component of the concealed sound so that the frequency component that becomes the peak of the frequency waveform in the target sound is masked, for example.
  • the audio signal of the environmental sound, or a signal obtained by equalizing the audio signal, and the audio signal of the sound that destroys the characteristics of the target sound may be added as the concealed sound signal.
  • the one obtained by applying the above may be used as a concealed sound signal.
  • step S12 the audio player 22 outputs the target sound signal held in advance to the audio amplifier 24.
  • step S13 the audio amplifier 23 and the audio amplifier 24 amplify the concealed sound signal supplied from the audio player 21 and the target sound signal supplied from the audio player 22, and supply them to the array speaker 25 and the array speaker 26. ..
  • step S14 the array speaker 25 and the array speaker 26 output (sound) sound based on the concealed sound signal and the target sound signal supplied from the audio amplifier 23 and the audio amplifier 24.
  • the concealed sound is reproduced by the array speaker 25, and the target sound is reproduced by the array speaker 26.
  • the sound emitting system 11 emits not only the target sound but also the hidden sound. By doing so, it is possible to make it difficult to hear the sound leaking out of the designated direction.
  • the target sound is out of the designated direction, that is, It is possible to make it difficult for the sound leakage of the target sound to be perceived in the region R11 or region R13 in a direction different from the target direction.
  • ⁇ Second Embodiment> ⁇ Configuration example of sound emission system> (Sound is picked up by a microphone and emitted as a concealed sound) Further, the sound emitting system to which the present technology is applied may have the configuration shown in FIG. 4, for example. In FIG. 4, the same reference numerals are given to the parts corresponding to the cases in FIG. 1, and the description thereof will be omitted as appropriate.
  • the sound emitting system 51 shown in FIG. 4 includes a microphone 61-1, a microphone 61-2, a microphone processing device 62-1, a microphone processing device 62-2, an audio player 22, an audio amplifier 23-1, and an audio amplifier 23-2. , Audio amplifier 24, array speaker 25-1, array speaker 25-2, and array speaker 26.
  • a microphone 61-1 and a microphone 61-2 are newly provided, and a microphone processing device 62-1 and a microphone processing device 62-2 are provided in place of the audio player 21. It differs from the sound emitting system 11 in that it has the same configuration as the sound emitting system 11 in other respects.
  • the microphone 61-1 is arranged at a position separated by a predetermined distance on the right side when the array speaker 25-1 is viewed from the front direction when viewed from the listener, that is, on the side opposite to the array speaker 26 when viewed from the array speaker 25-1. ing.
  • the microphone 61-1 collects the ambient sound in real time when the target sound is emitted, and supplies the resulting environmental sound signal to the microphone processing device 62-1. It should be noted that the collection of environmental sounds by the microphone 61-1 does not necessarily have to be performed in real time.
  • the microphone processing device 62-1 converts an analog signal into a digital signal by A / D (Analog / Digital) conversion of the environmental sound signal supplied from the microphone 61-1, and the result is obtained.
  • the digital signal is supplied to the audio amplifier 23-1 as a concealed sound signal.
  • the audio amplifier 23-1 amplifies the hidden sound signal supplied from the microphone processing device 62-1 and drives the array speaker 25-1 to emit sound based on the amplified hidden sound signal.
  • the microphone 61-2 is located on the left side of the array speaker 25-2 when viewed from the front, that is, on the side opposite to the array speaker 26 when viewed from the array speaker 25-2 by a predetermined distance. It is located in.
  • the microphone 61-2 collects the ambient sound in real time, for example, when the target sound is emitted, and supplies the resulting environmental sound signal to the microphone processing device 62-2. It should be noted that the collection of environmental sounds by the microphone 61-2 does not necessarily have to be performed in real time.
  • the microphone processing device 62-2 converts an analog signal into a digital signal by A / D converting the environmental sound signal supplied from the microphone 61-2, and hides the resulting digital signal. It is supplied to the audio amplifier 23-2 as a sound signal.
  • the audio amplifier 23-2 amplifies the concealed sound signal supplied from the microphone processing device 62-2, and drives the array speaker 25-2 to emit sound based on the concealed sound signal after amplification.
  • the microphone 61-1 and the microphone 61-2 are simply referred to as the microphone 61.
  • the microphone processing device 62-1 and the microphone processing device 62-2 it will be simply referred to as the microphone processing device 62.
  • the speaker 25 and the speakers constituting the array speaker 26 are arranged linearly, that is, at equal intervals in the horizontal direction. Therefore, in this example, 16 ⁇ 3 speakers are arranged at equal intervals.
  • the array speaker 25-1 emits the concealed sound A obtained by collecting the environmental sound by the microphone 61-1, and the array speaker 25-2 emits the concealed sound A, and the array speaker 25-2 emits the microphone 61-2. It is assumed that the concealed sound B obtained by collecting the environmental sound is emitted.
  • the microphone 61-1 and the microphone 61-2 are arranged in the region R14 and the region R15, that is, in the region near the region R11 and the region R13 where the concealed sound is emitted, respectively.
  • the array speaker 26 emits a sound such as an explanation of an advertisement to be exhibited, that is, a target sound.
  • the region where the concealed sound A emitted by the array speaker 25-1 is most audible is the region R11
  • the region where the target sound is most audible is the region R12
  • the array speaker 25 It is assumed that the region where the concealed sound B emitted by -2 can be heard best is the region R13.
  • the target sound emitted by the array speaker 26 is located near the boundary between the area R11 and the area R12 and near the boundary between the area R12 and the area R13, in a direction other than the designated direction, that is, on the area R11 side or the area R13. It leaks to the side.
  • the target sound leaked in this way is heard, for example, in the area R11, overlapping with the concealed sound A emitted by the array speaker 25-1.
  • the sound leakage of the target sound can be made difficult to notice (difficult to perceive) due to the influence of the concealed sound A.
  • auditory masking occurs due to the effect of concealed sound A that overlaps due to the characteristics of the human ear known as the auditory masking effect, making it difficult to notice sound leakage.
  • the auditory masking effect can be enhanced by frequency-analyzing the target sound and equalizing the frequency of the concealed sound A so as to hide (mask) the peak of the frequency based on the principle of auditory masking.
  • the target sound is frequency-analyzed and a sound that destroys its characteristics is superimposed on the concealed sound A and emitted, the leaking target sound can be made an unclear sound. It is possible to make it difficult for the listener to notice the leakage of the target sound.
  • the concealed sound A leaks to the right side in the figure of the area R11. This leaked sound is heard in the area R14 adjacent to the right side of the area R11.
  • the concealed sound A is a sound having characteristics similar to the actual environmental sound C in the area R14, the listener is less likely to notice the sound leakage of the concealed sound A.
  • the concealed sound A is obtained by collecting the actual environmental sound C by the microphone 61-1. Therefore, the concealed sound A heard by the listener in the region R14 is observed at substantially the same place as the actual environmental sound heard overlapping with the concealed sound A, so that it is difficult to notice the sound leakage.
  • the reproduction process described with reference to FIG. 3 is basically performed, but in the process corresponding to step S11, the environmental sound signal obtained by collecting the sound by the microphone 61 is performed.
  • the concealed sound signal obtained from the above is output to the audio amplifier 23.
  • ⁇ Modification 1 of the second embodiment> ⁇ Configuration example of sound emission system> (When there are multiple microphones) Further, in the sound emitting system 51 shown in FIG. 4, an example in which one microphone 61 is arranged in an area adjacent to the area in which the concealed sound is emitted by the array speaker 25 has been described, but the present invention is not limited to this. A plurality of microphones may be arranged.
  • the microphone 61 is used to collect the actual environmental sound of the place (area) where the concealed sound A and the concealed sound B emitted from the array speaker 25 leak out. Therefore, the area R14 and the area R15 where sound leakage occurs are in a certain range.
  • the sound emitting system is configured as shown in FIG. 6, for example.
  • FIG. 6 the same reference numerals are given to the parts corresponding to the cases in FIG. 4, and the description thereof will be omitted as appropriate.
  • the sound emitting system 91 shown in FIG. 6 includes microphones 101-1 to 101-6, microphone processing device 62-1, microphone processing device 62-2, audio player 22, audio amplifier 23-1, and audio amplifier 23-2. , Audio amplifier 24, array speaker 25-1, array speaker 25-2, and array speaker 26.
  • the configuration of the sound emitting system 91 is different from that of the sound emitting system 51 in that microphones 101-1 to 101-6 are provided in place of the microphone 61, and is the same configuration as the sound emitting system 51 in other respects. ing.
  • the microphones 101-1 to 101-3 are separated from the array speaker 25-1 on the right side when viewed from the front of the listener, that is, on the side opposite to the array speaker 26 when viewed from the array speaker 25-1 by a predetermined distance. It is placed in the same position.
  • the microphones 101-1 to 101-3 collect the ambient sound and supply the resulting environmental sound signal to the microphone processing device 62-1.
  • the microphone processing device 62-1 generates one final hidden sound signal by A / D converting and mixing the environmental sound signals supplied from the microphones 101-1 to 101-3, and is an audio amplifier. Supply to 23-1.
  • the microphones 101-4 to 101-6 are separated from the array speaker 25-2 on the left side when viewed from the front of the listener, that is, on the side opposite to the array speaker 26 when viewed from the array speaker 25-2 by a predetermined distance. It is placed in the same position.
  • the microphones 101-4 to 101-6 collect the ambient sound and supply the resulting environmental sound signal to the microphone processing device 62-2.
  • the microphones 101 when it is not necessary to distinguish between the microphones 101-1 and the microphones 101-6, they are also simply referred to as the microphones 101.
  • FIG. 7 shows an arrangement example of the microphone 101.
  • the same reference numerals are given to the parts corresponding to the cases in FIG. 5, and the description thereof will be omitted as appropriate.
  • the array speakers 25 and the speakers constituting the array speakers 26 are arranged linearly, that is, at equal intervals in the horizontal direction, as in the case shown in FIG. Therefore, in this example, 16 ⁇ 3 speakers are arranged at equal intervals.
  • three microphones 101-1 to 101-3 are arranged at positions separated from each other in the region R14, and similarly, three microphones 101-4 to 101-6 are arranged in the region R15. They are located far from each other.
  • each microphone 101 starts collecting the ambient sound, and supplies the resulting environmental sound signal to the microphone processing device 62.
  • each environmental sound signal obtained by the microphones 101-1 to 101-3 is supplied to the microphone processing device 62-1, and each environmental sound signal obtained by the microphones 101-4 to 101-6 is used. It is supplied to the microphone processing device 62-2.
  • step S41 the microphone processing device 62 converts each environmental sound signal supplied from each microphone 101 into an analog signal to a digital signal by A / D conversion.
  • step S42 the microphone processing device 62 performs mixing, that is, addition processing, based on each A / D-converted environmental sound signal to generate a hidden sound signal.
  • each environmental sound signal supplied from microphones 101-1 to 101-3 and A / D converted is added to form one hidden sound signal.
  • the weights corresponding to the arrangement positions of the microphones 101 are used, and the environmental sound signals obtained by the sound collection by each microphone 101 are weighted and added, that is, they are mixed at a constant ratio.
  • the concealed sound signal may be generated by such a method.
  • step S43 the microphone processing device 62 outputs the digital concealed sound signal obtained by mixing to the audio amplifier 23.
  • step S44 the audio player 22 outputs the target sound signal held in advance to the audio amplifier 24.
  • the audio player 22 records a target sound signal, which is a pre-recorded audio signal of the target sound such as an explanation of an advertisement to be exhibited.
  • the audio player 22 outputs a digital target sound signal to the audio amplifier 24 in response to a playback start signal or a button operation (not shown).
  • step S45 the audio amplifier 23 and the audio amplifier 24 amplify the concealed sound signal supplied from the microphone processing device 62 and the target sound signal supplied from the audio player 22, and supply them to the array speaker 25 and the array speaker 26. ..
  • step S46 the array speaker 25 and the array speaker 26 output (sound) sound based on the concealed sound signal and the target sound signal supplied from the audio amplifier 23 and the audio amplifier 24.
  • the concealed sound is reproduced by the array speaker 25, and the target sound is reproduced by the array speaker 26.
  • the sound emitting system 91 emits not only the target sound but also the hidden sound. By doing so, it is possible to make it difficult to hear the sound leaking out of the designated direction.
  • the sound emission system 91 by mixing the environmental sound signals obtained by the microphones 101 arranged at a plurality of different positions, it is possible to record the averaged environmental noise and more perceive sound leakage. It can be made difficult to do.
  • ⁇ Modification 2 of the second embodiment> ⁇ Configuration example of sound emission system> (When selecting from multiple concealed sound signals held in advance)
  • concealment of a plurality of concealed sounds different from each other obtained by preliminarily recording a plurality of environmental sounds in the microphone processing device 62-1 and the microphone processing device 62-2.
  • the sound signal may be retained.
  • the one to be output to the audio amplifier 23 is selected from the plurality of concealed sound signals held in advance based on the environmental sound signal obtained by the microphone 61.
  • the environmental sound of the installed place may change with time.
  • the characteristics of environmental sounds differ between the environmental sound when it is crowded due to commuting in the morning and the environmental sound (environmental noise) when it is off in the daytime.
  • This characteristic data may be any data as long as it is data showing characteristics related to frequency, such as frequency characteristics of a concealed sound signal.
  • the sound emitting system 51 When the plurality of concealed sound signals recorded in advance and the feature data are stored in association with each other in this way, the sound emitting system 51 performs the reproduction process shown in FIG. That is, the reproduction process performed by the sound emitting system 51 will be described below with reference to the flowchart of FIG.
  • each microphone 61 starts collecting the ambient sound, and supplies the resulting environmental sound signal to the microphone processing device 62.
  • step S71 the microphone processing device 62 converts an analog signal into a digital signal by A / D converting the environmental sound signal supplied from the microphone 61.
  • step S72 the microphone processing device 62 accumulates the environmental sound signal for a predetermined time obtained in step S71, and performs frequency analysis on the accumulated environmental sound signal to generate characteristic data.
  • step S73 the microphone processing device 62 compares the feature data obtained in step S72 with the plurality of feature data held in advance, and among the plurality of feature data, the feature obtained in step S72. Select the one that is closest to the data. Further, the microphone processing device 62 selects a hidden sound signal associated with the feature data selected in this way.
  • the closest feature data is defined as, for example, the one with the smallest difference between the feature data or the one with the shortest distance between the feature data.
  • the concealed sound signal selected in this way is the concealed sound signal held in advance that is closest (similar) to the actual environmental sound signal, that is, has the most similar characteristics.
  • step S74 the microphone processing device 62 outputs a hidden sound signal associated with and held in the feature data selected in step S73 to the audio amplifier 23.
  • the sound emitting system 51 selects from a plurality of concealed sound signals prepared in advance and is close to the environmental sound signal actually obtained by picking up the sound with the microphone 61, and conceals the selected sound.
  • a concealed sound is emitted based on the sound signal.
  • the voice loop (howling) described later can be suppressed by emitting a hidden sound having characteristics similar to the actual environmental sound.
  • the concealed sound signal is amplified by the audio amplifier 23 and supplied to the array speaker 25, and the concealed sound is emitted from the array speaker 25.
  • the concealed sound emitted from the array speaker 25 may be picked up again by the microphone 61.
  • the target sound emitted from the array speaker 26 may also be picked up by the microphone 61. Then, a voice loop occurs, and a howling phenomenon occurs in some cases.
  • the target sound and concealed sound components (sound pressure level) included in the environmental sound signal obtained by the sound picking up are equal to or less than a predetermined value (predetermined level). It is conceivable to arrange the microphone 61 at such a position.
  • a directional microphone is used as the microphone 61 so that the sound selectively emitted from the array speaker 25 or the array speaker 26 is not picked up by the microphone 61. There is also a way to make it.
  • the microphone 61 does not collect the concealed sound or the sound from the direction of arrival of the target sound depending on the orientation of the sharp directional microphone.
  • the microphone 61 may be arranged so that the direction in which the sound collection sensitivity of the microphone 61 is lower than the other directions (null directivity direction) faces the direction in which the concealed sound or the target sound arrives.
  • the microphone processing device 62 performs beamforming on the environmental sound signal.
  • the microphone processing device 62 may be subjected to arbitrary filter processing or the like for suppressing voice loops (howling) on the environmental sound signal to generate a hidden sound signal. Good.
  • a voice loop (howling) is performed by performing delay processing for delaying the environmental sound signal obtained by the microphone 61 by a predetermined time, that is, adding a delay to the environmental sound signal to obtain a hidden sound signal. ) May be suppressed.
  • a notch filter process for the frequency amplified by the voice loop is performed on the environmental sound signal obtained by the microphone 61, and the signal obtained as a result is used as a concealed sound signal.
  • the voice loop (howling) may be suppressed. As a result, the frequency component in which the voice loop occurs is reduced.
  • the ambient sound signal obtained by the microphone 61 is gain-corrected by applying a predetermined gain to attenuate the voice loop, and the resulting signal is used as a concealed sound signal.
  • the voice loop (howling) may be suppressed.
  • ⁇ Modified example 4 of the second embodiment> ⁇ Correction of frequency characteristics> (Corrects the characteristics of the array speaker and microphone to bring the hidden sound closer to the environmental sound) Further, in the sound emitting system 51 shown in FIG. 4, the ambient sound is picked up by the microphone 61, and the environmental sound signal obtained as a result is A / D converted by the microphone processing device 62 to be a digital concealed sound. Explained that it is a signal.
  • the concealed sound signal is amplified by the audio amplifier 23 and supplied to the array speaker 25, and the concealed sound is emitted from the array speaker 25.
  • the array speaker 25 emits a sound having a frequency characteristic that depends on the characteristics of the microphone 61 and the array speaker 25.
  • the array speaker 25 has the frequency characteristics shown by the arrow Q11 in FIG. 10, the horizontal axis indicates the frequency, and the vertical axis indicates the level of each frequency component.
  • the frequency characteristics are such that the mid-high range is raised.
  • the frequency characteristic is adjusted with respect to the concealed sound signal by the audio equalizer so that the corrected frequency characteristic of the array speaker 25 becomes the flat characteristic shown by the arrow Q12.
  • An equalizing process for correction may be performed.
  • the microphone 61 has the frequency characteristics shown by the arrow Q21 in FIG. 11, the horizontal axis indicates the frequency, and the vertical axis indicates the level of each frequency component.
  • the frequency characteristics are such that the high frequency range is raised.
  • the frequency characteristic is corrected with respect to the environmental sound signal by the audio equalizer so that the corrected frequency characteristic of the microphone 61 becomes the flat characteristic shown by the arrow Q22.
  • Equalizing treatment may be performed.
  • Such an equalizing process can be realized, for example, by a filter process using one filter, a filter process in which a plurality of filters are combined, and the like.
  • the microphone 61 When the sound picked up by the microphone 61 is emitted from the array speaker 25 as a concealed sound, if the frequency characteristics of the microphone 61 and the array speaker 25 are flat, the hidden sound is emitted in the process from the sound collection to the sound emission. The characteristics will be closer to the characteristics of the environmental sound, which is the original sound.
  • an equalizing process for correcting the frequency characteristics of the environmental sound signal is performed by an audio equalizer, and the resulting signal is used as a concealed sound signal to conceal a sound closer to the environmental sound. It can be output as sound.
  • the environmental sound signal obtained by the microphone 61 is subjected to equalizing processing by the audio equalizer so that the environmental sound signal has the flat characteristics shown by the arrow Q22 in FIG. 11, and the resulting signal is concealed. It can be a sound signal.
  • the concealed sound signal may be equalized by an audio equalizer so that the emitted concealed sound has the flat characteristics shown by the arrow Q12 in FIG. ..
  • the environmental sound signal hidden sound signal
  • the environmental sound signal is subjected to an equalizing process in which only one of the frequency characteristic shown by the arrow Q12 in FIG. 10 and the frequency characteristic shown by the arrow Q22 in FIG. 11 is added. Good.
  • the correction of the frequency characteristics may be realized by any other method without limitation.
  • the impul response may be measured in advance, a filter having an inverse characteristic of the impul response may be calculated, and the obtained filter may be used to filter the environmental sound signal and the concealed sound signal.
  • the impulse response can be measured in advance for each of the microphone 61 and the array speaker 25, or for the entire system of the microphone 61 and the array speaker 25.
  • the filter processing by the combined filter of the filter that adds the inverse characteristic of the frequency characteristic shown by the arrow Q11 in FIG. 10 and the filter that adds the inverse characteristic of the frequency characteristic shown by the arrow Q21 in FIG. The signal may be equalized, and the obtained signal may be used as a concealed sound signal.
  • the filter processing by one of the filter that adds the inverse characteristic of the frequency characteristic shown by the arrow Q11 in FIG. 10 and the filter that adds the inverse characteristic of the frequency characteristic shown by the arrow Q21 in FIG. 11 is performed. It may be performed as an equalizing process for the environmental sound signal.
  • the concealed sound is further made to have a frequency characteristic that cancels the characteristic of the target sound. May be good.
  • the concealed sound signal is subjected to an equalizing process that adds a frequency characteristic that cancels the characteristic of the target sound, or a sound signal having a frequency characteristic that cancels the characteristic of the target sound is concealed. It may be added to the final concealed sound signal.
  • ⁇ Third embodiment> ⁇ About concealed sound and target sound> Further, in the above, in the sound emitting system 11, the sound emitting system 51, and the sound emitting system 91, a total of three array speakers consisting of two array speakers 25 and one array speaker 26 are arranged in a row (straight line). Explained that it will be placed.
  • one target sound is emitted by the array speaker 26 arranged in the center of the three array speakers, and a concealed sound is emitted from each array speaker 15 arranged on the left and right of the array speaker 26.
  • the example to be done was explained.
  • the target sound is not limited to one, and a plurality of target sounds may be emitted at the same time.
  • the concealed sound 1, the target sound 1, the concealed sound 2, the target sound 2, and the concealed sound 3 are emitted in order from the left array speaker to the right array speaker. You may try to do it.
  • the concealed sound is directed to the area adjacent to the area where the target sound is emitted.
  • the diffusion sound leakage
  • the voice loop (howling) can be suppressed by selecting an appropriate one from a plurality of concealed sound signals and performing gain correction or the like on the concealed sound signal. Further, by correcting the frequency characteristics of the array speaker and the microphone, the characteristics of the hidden sound can be brought closer to the characteristics of the actual environmental sound.
  • the series of processes described above can be executed by hardware or software.
  • the programs that make up the software are installed on the computer.
  • the computer includes a computer embedded in dedicated hardware and, for example, a general-purpose personal computer capable of executing various functions by installing various programs.
  • FIG. 12 is a block diagram showing a configuration example of computer hardware that executes the above-mentioned series of processes programmatically.
  • the CPU Central Processing Unit
  • the ROM ReadOnly Memory
  • the RAM RandomAccessMemory
  • An input / output interface 505 is further connected to the bus 504.
  • An input unit 506, an output unit 507, a recording unit 508, a communication unit 509, and a drive 510 are connected to the input / output interface 505.
  • the input unit 506 includes a keyboard, a mouse, a microphone, an image sensor, and the like.
  • the output unit 507 includes a display, a speaker, and the like.
  • the recording unit 508 includes a hard disk, a non-volatile memory, and the like.
  • the communication unit 509 includes a network interface and the like.
  • the drive 510 drives a removable recording medium 511 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
  • the CPU 501 loads the program recorded in the recording unit 508 into the RAM 503 via the input / output interface 505 and the bus 504 and executes the above-described series. Is processed.
  • the program executed by the computer (CPU501) can be recorded and provided on a removable recording medium 511 as a package medium or the like, for example. Programs can also be provided via wired or wireless transmission media such as local area networks, the Internet, and digital satellite broadcasting.
  • the program can be installed in the recording unit 508 via the input / output interface 505 by mounting the removable recording medium 511 in the drive 510. Further, the program can be received by the communication unit 509 and installed in the recording unit 508 via a wired or wireless transmission medium. In addition, the program can be pre-installed in the ROM 502 or the recording unit 508.
  • the program executed by the computer may be a program in which processing is performed in chronological order in the order described in this specification, in parallel, or at a necessary timing such as when a call is made. It may be a program in which processing is performed.
  • the embodiment of the present technology is not limited to the above-described embodiment, and various changes can be made without departing from the gist of the present technology.
  • this technology can have a cloud computing configuration in which one function is shared by a plurality of devices via a network and processed jointly.
  • each step described in the above flowchart can be executed by one device or can be shared and executed by a plurality of devices.
  • the plurality of processes included in the one step can be executed by one device or shared by a plurality of devices.
  • this technology can also have the following configurations.
  • a sound emitting system including one or a plurality of second speakers arranged adjacent to the one or a plurality of the first speakers and emitting a directional concealed sound.
  • the one or a plurality of second speakers emit the concealed sound based on the concealed sound signal obtained based on the signal of the environmental sound picked up in the vicinity of the region where the concealed sound is emitted.
  • the sound emitting system according to (4) further comprising a plurality of microphones for collecting environmental sounds.
  • the concealed sound signal is generated by mixing signals obtained by collecting sounds with the plurality of microphones at a constant ratio.
  • the one or the plurality of second speakers may be selected from among the plurality of concealed sound signals obtained based on each of the plurality of environmental sound signals previously picked up by the microphone at different timings.
  • the sound emitting system according to (5) or (6) which emits the concealed sound based on the selected concealed sound signal.
  • the concealed sound signal is any of (4) to (6) obtained by subjecting the environmental sound signal to a filter process for suppressing the sound loop of the target sound or the concealed sound.
  • the sound emitting system described in item 1. (11)
  • the concealed sound signal is any one of (4) to (6) obtained by performing gain correction on the environmental sound signal to suppress the sound loop of the target sound or the concealed sound.
  • the plurality of microphones are arranged at positions where the level of the target sound or the concealed sound included in the collected environmental sound is equal to or lower than a predetermined level.
  • the concealed sound signal is a signal obtained by performing an equalizing process for adding a frequency feature that cancels the feature of the target sound to the signal of the environmental sound, and is any one of (4) to (6).
  • the sound emitting system described in. (14) The concealed sound signal is any one of (4) to (6) obtained by adding an audio signal having a frequency characteristic that cancels the characteristic of the target sound to the signal of the environmental sound.
  • the concealed sound signal is subjected to an equalizing process based on at least one of the frequency characteristics of the plurality of microphones measured in advance and the frequency characteristics of the one or the plurality of second speakers.
  • the sound emitting system according to any one of (4) to (6) which is a signal obtained by applying the signal.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Soundproofing, Sound Blocking, And Sound Damping (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

本技術は、指定方向外に漏れる音を聞こえにくくすることができるようにする放音システムに関する。 放音システムは、目的音を放音する1または複数の第1のスピーカと、1または複数の第1のスピーカに隣接して配置され、指向性を有する隠蔽音を放音する1または複数の第2のスピーカとを備える。本技術は放音システムに適用することができる。

Description

放音システム
 本技術は、放音システムに関し、特に、指定方向外に漏れる音を聞こえにくくすることができるようにした放音システムに関する。
 例えば広告などのディスプレイ展示で、ディスプレイの見える位置でのみ音声が聞こえるようにし、周りがうるさくならないようにしたいとのニーズがある。
 通常のスピーカを用いて放音する場合、放音された音が拡散されて周囲に音が漏れてうるさく感じる場合があった。
 このような場合に、ラインアレイスピーカなど、複数のスピーカを用いて指向性を形成するシステムを用いて音声の拡散をなるべく少なくすることができる。
 ラインアレイスピーカは各社から発売され既に商用化されている技術であり、一列に複数のスピーカを配置することで、スピーカ列の垂直方向に対して指向性を形成することができる。また、アレイ形状のスピーカで信号処理技術をさらに用いて指向性の制御を行うことができるようにするものもある。
 さらに、アレイスピーカを用いて信号処理により指向性を制御する技術も提案されている(例えば、特許文献1および特許文献2参照)。
特開2006-115396号公報 特開2011-41023号公報
 しかし、ラインアレイスピーカや、それを用いた信号処理による指向性制御を用いても、ラインアレイスピーカの中心は鋭い指向性が形成されるものの、アレイスピーカの端の方では中央に比べて指向性が鈍くなり、音が拡散しやすくなる。
 なぜならば、指向性形成は複数のスピーカの相互の作用により形成されるもので、例えばラインアレイスピーカを地面に対して水平に設置した場合、ラインアレイスピーカの右端では、右方向に拡散する音に作用するスピーカが存在しないためである。
 このような原理のため、ラインアレイスピーカを水平に設置した場合、右端側および左端側から音が漏れる(拡散する)ことになる。
 本技術は、このような状況に鑑みてなされたものであり、指定方向外に漏れる音を聞こえにくくすることができるようにするものである。
 本技術の一側面の放音システムは、目的音を放音する1または複数の第1のスピーカと、前記1または複数の第1のスピーカに隣接して配置され、指向性を有する隠蔽音を放音する1または複数の第2のスピーカとを備える。
 本技術の一側面においては、1または複数の第1のスピーカにより目的音が放音され、前記1または複数の第1のスピーカに隣接して配置された1または複数の第2のスピーカにより、指向性を有する隠蔽音が放音される。
放音システムの構成例を示す図である。 音の漏れ出しについて説明する図である。 再生処理を説明するフローチャートである。 放音システムの構成例を示す図である。 音の漏れ出しについて説明する図である。 放音システムの構成例を示す図である。 音の漏れ出しについて説明する図である。 再生処理を説明するフローチャートである。 再生処理を説明するフローチャートである。 アレイスピーカの周波数特性の補正について説明する図である。 マイクロホンの周波数特性の補正について説明する図である。 コンピュータの構成例を示す図である。
 以下、図面を参照して、本技術を適用した実施の形態について説明する。
〈第1の実施の形態〉
〈放音システムの構成例〉
(予め持っている隠蔽音声を放音)
 本技術は、ラインアレイスピーカなど、1または複数のスピーカを用いて指向性を形成する放音システムで、指向方向外に漏れる音を感じにくくするものである。
 本技術では、例えばラインアレイスピーカの端から漏れる音を、漏れる音が聞こえる領域の音と似た音、またはその領域で収音した音とすることで、その領域の音と区別しづらくし、受聴者に漏れてきた音であることを感じにくくさせることができる。
 図1は、本技術を適用した放音システムの一実施の形態の構成例を示す図である。
 図1に示す放音システム11は、オーディオ再生機21-1、オーディオ再生機21-2、オーディオ再生機22、オーディオアンプ23-1、オーディオアンプ23-2、オーディオアンプ24、アレイスピーカ25-1、アレイスピーカ25-2、およびアレイスピーカ26を有している。
 オーディオ再生機21-1およびオーディオ再生機21-2では、予め録音された収録環境音のオーディオ信号である隠蔽音信号が記録されている。ここでは、予め収録された環境音が、音漏れを知覚させにくくするための隠蔽音として利用される。
 オーディオ再生機21-1およびオーディオ再生機21-2は、再生開始の信号やボタン動作(図示せず)によって音声の再生を開始し、アナログまたはデジタルの隠蔽音信号をオーディオアンプ23-1およびオーディオアンプ23-2に出力する。
 オーディオアンプ23-1およびオーディオアンプ23-2は、オーディオ再生機21-1およびオーディオ再生機21-2から供給された隠蔽音信号を増幅し、増幅後の隠蔽音信号に基づいてアレイスピーカ25-1およびアレイスピーカ25-2を駆動して隠蔽音を放音させる。
 なお、以下、オーディオ再生機21-1およびオーディオ再生機21-2を特に区別する必要のない場合、単にオーディオ再生機21とも称することとする。
 また、以下、オーディオアンプ23-1およびオーディオアンプ23-2を特に区別する必要のない場合、単にオーディオアンプ23とも称し、アレイスピーカ25-1およびアレイスピーカ25-2を特に区別する必要のない場合、単にアレイスピーカ25と称する。
 オーディオ再生機22には、例えば予め録音された、展示される広告の説明などの目的音のオーディオ信号である目的音信号が記録されている。ここでいう目的音とは、受聴者に聞かせたい音声である。
 オーディオ再生機22は、再生開始の信号やボタン動作(図示せず)によって音声の再生を開始し、アナログまたはデジタルの目的音信号をオーディオアンプ24に出力する。
 オーディオアンプ24は、オーディオ再生機22から供給された目的音信号を増幅し、増幅後の目的音信号に基づいてアレイスピーカ26を駆動して目的音を放音させる。
 例えばアレイスピーカ25およびアレイスピーカ26は、それぞれ水平方向に等間隔で配置された16個のスピーカ(スピーカユニット)から構成されている。
 また、ここではアレイスピーカ25-1およびアレイスピーカ25-2は、アレイスピーカ26の互いに異なる側の端、すなわち左右の各端に隣接して配置されている。
 さらに、アレイスピーカ25およびアレイスピーカ26を構成する各スピーカが直線状に、すなわち水平方向に等間隔で配置されている。したがって、この例では16×3個のスピーカが直線状に等間隔で配置されている。
 なお、ここでは目的音を放音するためのスピーカとして複数のスピーカからなるアレイスピーカ26を用いる例について説明するが、目的音の放音に用いられるスピーカは1つであってもよい。
 同様に、ここでは隠蔽音を放音するスピーカとしてアレイスピーカ25を用いる例について説明するが、隠蔽音の放音に用いられるスピーカは1つであってもよい。但し、そのような場合には、隠蔽音が所望の指向性を有するように、指向性を有するスピーカを用いて隠蔽音を放音するとよい。
 さらに、アレイスピーカ25におけるアレイスピーカ26側にあるいくつかのスピーカは、隠蔽音だけでなく目的音の放音にも用いられるようにしてもよい。同様に、アレイスピーカ26におけるアレイスピーカ25側にあるいくつかのスピーカは、目的音だけでなく隠蔽音の放音にも用いられるようにしてもよい。
 次に図2を参照して、アレイスピーカ25やアレイスピーカ26としてラインアレイスピーカ等を使った場合に生じる音漏れについて説明する。なお、図2において図1における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 図2の例において、例えばアレイスピーカ25-1から隠蔽音Aが放音されており、アレイスピーカ26から、展示される広告の説明などの音声、すなわち目的音が放音されており、アレイスピーカ25-2から隠蔽音Bが放音されているとする。
 また、アレイスピーカ25-1から音が放音された場合に、その音の指向性によって最もよく音が聞こえる領域、つまり音圧レベルが高い領域を領域R11とする。
 換言すれば、アレイスピーカ25-1は、基本的に領域R11内においてのみ隠蔽音Aが聴取されるように、指向性を有する隠蔽音Aを出力する。
 ここで指向性を有する隠蔽音Aの出力(放音)は、例えばアレイスピーカ25-1としてのラインアレイスピーカや指向性スピーカなどを用いた指向性形成や、アレイスピーカ25-1を構成する各スピーカからの音の波面を合成する波面合成などにより実現される。
 また、アレイスピーカ26から音が放音された場合に、その音の指向性によって最もよく音が聞こえる領域を領域R12とし、アレイスピーカ25-2から音が放音された場合に、その音の指向性によって最もよく音が聞こえる領域を領域R13とする。
 すなわち、例えばアレイスピーカ26は、基本的に領域R12内においてのみ目的音が聴取されるように、指向性を有する目的音を出力する。
 例えば指向性を有する目的音の放音は、アレイスピーカ26としてのラインアレイスピーカや指向性スピーカなどを用いた指向性形成や、波面合成などにより実現すればよい。なお、目的音は必ずしも指向性を有していなくてもよい。
 また、アレイスピーカ25-2からも、アレイスピーカ25-1における場合と同様に、指向性を有する隠蔽音Bが放音される。この場合、アレイスピーカ25-2としてのラインアレイスピーカや指向性スピーカなどを用いた指向性形成や、波面合成などにより隠蔽音Bに指向性をもたせることができる。
 上述したように、アレイスピーカ26から放音される目的音は、アレイスピーカ26の左右の端、すなわち領域R12の領域R11との境界付近、および領域R12の領域R13との境界付近では、領域R11や領域R13へと漏れ出してしまう。つまり、音漏れが生じる。
 このようにして漏れ出した目的音は、例えば領域R11では、アレイスピーカ25-1により放音されている隠蔽音Aと重なって聞こえる。
 そして、これらの重なった音を受聴者が聞く場合、隠蔽音Aの影響により目的音の音漏れ、すなわち目的音の拡散を気付きにくく(知覚されにくく)することができる。
 例えば、聴覚マスキング効果として知られる人間の耳の特徴によって重なる隠蔽音の影響で聴覚マスキングが生じ、音漏れに気が付きにくくなる。
 さらに、目的音を周波数分析し、周波数のピークを聴覚マスキングの原理に基づき隠す(マスキングする)ように隠蔽音Aの周波数をイコライジングして放音することで、聴覚マスキング効果を高めることができる。
 また、目的音を周波数分析して、その特徴を壊すような音声を隠蔽音Aに重畳して放音すれば、漏れ出してくる目的音が不明瞭な音声となるようにすることができ、受聴者に目的音の音漏れを気付きにくくさせることができる。
 ここで、目的音の特徴を壊すとは、目的音と、その目的音の特徴を壊す音声とを同時に再生したときに、目的音が不明瞭な音声に聞こえること、つまり意味のある音声として聞こえにくくすることである。換言すれば、目的音の特徴を壊す音声とは、目的音の特徴を打ち消す周波数的な特徴を有している音声である。
 そのため、例えば目的音の周波数波形(スペクトル)における下に突の部分(谷の部分)の周波数成分が大きく、かつ目的音を合成したときに、その合成音の周波数波形が大よそ平坦な波形となるような音声が、目的音の特徴を壊す音声として生成されればよい。
 このような、ある音声の特徴を壊すような音声の生成方法等については、例えば「赤木正人,入江佳洋,” Privacy protection for speech based on concepts of auditory scene analysis” 電子情報通信学会技術研究報告. EA, 応用音響 111(333), 19-24, 2011-12-02」などに詳細に記載されている。
 なお、以上においては領域R12へ向けて放音される目的音と、領域R11へと放音される隠蔽音Aとの関係について説明したが、領域R12へ向けて放音される目的音と、領域R13へと放音される隠蔽音Bとの関係についても同様のことがいえる。
 次に、アレイスピーカ25-1によって領域R11に放音される隠蔽音Aの音漏れについて説明する。
 前述の目的音の領域R11への音漏れと同様に、隠蔽音Aは領域R11の図中、右側へと音漏れする。この漏れた音は領域R11の右側に隣接する領域R14で聞こえる。
 そのような場合、領域R11の右側に隣接する領域R14では、その領域R14において聞こえる実際の環境音と、音漏れしてきた隠蔽音Aとが重なって聞こえることになる。このとき、隠蔽音Aが領域R14の実際の環境音と似た特徴の音であれば、受聴者は隠蔽音Aの音漏れに気付きにくくなる。
 なお、領域R14において聞こえる実際の環境音とは、アレイスピーカ25-1によって放音された音ではなく、領域R14の周囲に実在する1または複数の各音源から発せられた音である。ここでは、領域R14において聞こえる実際の環境音を環境音Cとも称することとする。
 ここで、隠蔽音Aと領域R14における実際の環境音Cを類似する特徴の音声とするには、例えば予め領域R14において観測される音声を録音(収音)しておき、その結果得られた音(環境音C)を隠蔽音Aとしてアレイスピーカ25-1から放音すればよい。
 なお、ここでは領域R11に向けて放音される隠蔽音Aの音漏れについて説明したが、領域R13へと向けて放音される隠蔽音Bについても同様のことがいえる。
 すなわち、領域R13の図中、左側に隣接する領域R15における実際の環境音を予め収音しておき、その収音された音を隠蔽音Bとしてアレイスピーカ25-2から放音すれば、領域R15での隠蔽音Bの音漏れを気付きにくくさせることができる。
 また、ここでは目的音が放音される領域R12の水平方向、すなわち左右の両側に隣接する領域R11および領域R13に向けて隠蔽音が放音される例について説明した。しかし、これに限らず、領域R12の垂直方向、つまり上方向や下方向に隣接する領域に向けて隠蔽音が放音されるようにしてもよい。
〈再生処理の説明〉
 次に、図3のフローチャートを参照して、放音システム11により行われる再生処理について説明する。
 ステップS11においてオーディオ再生機21は、予め保持している隠蔽音信号をオーディオアンプ23に出力する。
 ここで、オーディオ再生機21から出力される隠蔽音信号は、例えばアレイスピーカ25が放音する領域に対して、アレイスピーカ26とは反対側に隣接する領域で予め環境音を収音することで得られたオーディオ信号とされてもよいし、そのオーディオ信号に対して、さらにイコライジング処理等を施すことで得られたものとされてもよい。
 ここでいうイコライジング処理は、例えば目的音における、周波数波形のピークとなる周波数の成分がマスキングされるように、隠蔽音の各周波数成分の大きさを調整する処理である。また、環境音のオーディオ信号、またはそのオーディオ信号に対してイコライジング処理が施された信号に、さらに目的音の特徴を壊すような音声のオーディオ信号を加算したものを隠蔽音信号としてもよい。
 その他、環境音のオーディオ信号、またはそのオーディオ信号に対して目的音のマスキングのためのイコライジング処理が施された信号に、さらに目的音の特徴を壊すような周波数的な特徴を付加するイコライジング処理等を施すことで得られたものを隠蔽音信号としてもよい。
 ステップS12においてオーディオ再生機22は、予め保持している目的音信号をオーディオアンプ24に出力する。
 ステップS13においてオーディオアンプ23およびオーディオアンプ24は、オーディオ再生機21から供給された隠蔽音信号、およびオーディオ再生機22から供給された目的音信号を増幅し、アレイスピーカ25およびアレイスピーカ26に供給する。
 ステップS14においてアレイスピーカ25およびアレイスピーカ26は、オーディオアンプ23およびオーディオアンプ24から供給された隠蔽音信号および目的音信号に基づいて音を出力(放音)する。これにより、アレイスピーカ25によって隠蔽音が再生され、アレイスピーカ26によって目的音が再生される。
 このようにして隠蔽音と目的音が再生されると、再生処理は終了する。
 以上のようにして放音システム11は、目的音だけでなく隠蔽音も放音する。このようにすることで、指定方向外に漏れる音を聞こえにくくすることができる。
 例えば図2を参照して説明した例では、上述したイコライジング処理を行うことで得られた隠蔽音信号に基づく隠蔽音Aや隠蔽音Bを放音することで、目的音の指定方向外、つまり目的とする方向とは異なる方向にある領域R11や領域R13において目的音の音漏れを知覚されにくくすることができる。
 また、実際に環境音を収音して得られた信号から得られる隠蔽音信号に基づいて隠蔽音Aや隠蔽音Bを放音することで、領域R14や領域R15において音漏れを知覚されにくくすることができるだけでなく、領域R11や領域R13においてもあたかも実際の環境音のみが聞こえているかのようにすることができる。
〈第2の実施の形態〉
〈放音システムの構成例〉
(マイクロホンで収音して隠蔽音として放音)
 また、本技術を適用した放音システムは、例えば図4に示す構成とすることもできる。なお、図4において図1における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 図4に示す放音システム51は、マイクロホン61-1、マイクロホン61-2、マイク処理装置62-1、マイク処理装置62-2、オーディオ再生機22、オーディオアンプ23-1、オーディオアンプ23-2、オーディオアンプ24、アレイスピーカ25-1、アレイスピーカ25-2、およびアレイスピーカ26を有している。
 図4に示す放音システム51の構成は、新たにマイクロホン61-1およびマイクロホン61-2が設けられ、オーディオ再生機21に代えてマイク処理装置62-1およびマイク処理装置62-2が設けられた点で放音システム11と異なり、その他の点では放音システム11の構成と同じとなっている。
 マイクロホン61-1は、アレイスピーカ25-1を正面方向から見る受聴者から見て右側、すなわちアレイスピーカ25-1から見てアレイスピーカ26とは反対側に所定の距離だけ離れた位置に配置されている。
 マイクロホン61-1は、例えば目的音の放音時にリアルタイムで周囲の環境音を収音し、その結果得られた環境音信号をマイク処理装置62-1に供給する。なお、マイクロホン61-1による環境音の収音は必ずしもリアルタイムで行われる必要はない。
 マイク処理装置62-1は、マイクロホン61-1から供給された環境音信号をA/D(Analog/Digital)変換することで、アナログの信号からデジタルの信号へと変換し、その結果得られたデジタルの信号を隠蔽音信号としてオーディオアンプ23-1に供給する。
 オーディオアンプ23-1は、マイク処理装置62-1から供給された隠蔽音信号を増幅し、増幅後の隠蔽音信号に基づいてアレイスピーカ25-1を駆動して放音させる。
 同様に、マイクロホン61-2は、アレイスピーカ25-2を正面方向から見る受聴者から見て左側、すなわちアレイスピーカ25-2から見てアレイスピーカ26とは反対側に所定の距離だけ離れた位置に配置されている。
 マイクロホン61-2は、例えば目的音の放音時にリアルタイムで周囲の環境音を収音し、その結果得られた環境音信号をマイク処理装置62-2に供給する。なお、マイクロホン61-2による環境音の収音は必ずしもリアルタイムで行われる必要はない。
 マイク処理装置62-2は、マイクロホン61-2から供給された環境音信号をA/D変換することで、アナログの信号からデジタルの信号へと変換し、その結果得られたデジタルの信号を隠蔽音信号としてオーディオアンプ23-2に供給する。
 オーディオアンプ23-2は、マイク処理装置62-2から供給された隠蔽音信号を増幅し、増幅後の隠蔽音信号に基づいてアレイスピーカ25-2を駆動して放音させる。
 なお、以下、マイクロホン61-1およびマイクロホン61-2を特に区別する必要のない場合、単にマイクロホン61とも称することとする。また、以下、マイク処理装置62-1およびマイク処理装置62-2を特に区別する必要のない場合、単にマイク処理装置62とも称することとする。
 放音システム51においても放音システム11における場合と同様に、アレイスピーカ25およびアレイスピーカ26を構成する各スピーカが直線状に、すなわち水平方向に等間隔で配置されている。したがって、この例では16×3個のスピーカが等間隔で配置されている。
 次に図5を参照して、アレイスピーカ25やアレイスピーカ26としてラインアレイスピーカ等を使った場合に生じる音漏れについて説明する。なお、図5において図2または図4における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 図5の例では、アレイスピーカ25-1からは、マイクロホン61-1により環境音を収音することで得られた隠蔽音Aが放音され、アレイスピーカ25-2からは、マイクロホン61-2により環境音を収音することで得られた隠蔽音Bが放音されるとする。
 ここでは、マイクロホン61-1およびマイクロホン61-2は、それぞれ領域R14および領域R15内、すなわち隠蔽音が放音される領域R11や領域R13の近傍の領域に配置されている。
 また、アレイスピーカ26からは、展示される広告の説明などの音声、すなわち目的音が放音されるとする。
 さらに、図2における例と同様に、アレイスピーカ25-1により放音された隠蔽音Aが最もよく聞こえる領域が領域R11であり、目的音が最もよく聞こえる領域が領域R12であり、アレイスピーカ25-2により放音された隠蔽音Bが最もよく聞こえる領域が領域R13であるとする。
 上述のように、アレイスピーカ26により放音された目的音は、領域R11と領域R12の境界付近、および領域R12と領域R13の境界付近において、指定方向外の方向、つまり領域R11側や領域R13側へと漏れ出してしまう。
 このようにして漏れ出した目的音は、例えば領域R11では、アレイスピーカ25-1により放音されている隠蔽音Aと重なって聞こえる。これらの重なった音を受聴者が聞く場合、隠蔽音Aの影響により目的音の音漏れを気付きにくく(知覚されにくく)することができる。
 例えば、聴覚マスキング効果として知られる人間の耳の特徴によって重なる隠蔽音Aの影響で聴覚マスキングが生じ、音漏れに気が付きにくくなる。
 さらに、目的音を周波数分析し、周波数のピークを聴覚マスキングの原理に基づき隠す(マスキングする)ように隠蔽音Aの周波数をイコライジングして放音することで、聴覚マスキング効果を高めることができる。
 また、目的音を周波数分析して、その特徴を壊すような音声を隠蔽音Aに重畳して放音すれば、漏れ出してくる目的音が不明瞭な音声となるようにすることができ、受聴者に目的音の音漏れを気付きにくくさせることができる。
 なお、以上においては領域R12へ向けて放音される目的音と、領域R11へと放音される隠蔽音Aとの関係について説明したが、領域R12へ向けて放音される目的音と、領域R13へと放音される隠蔽音Bとの関係についても同様のことがいえる。
 次に、アレイスピーカ25-1によって領域R11に放音される隠蔽音Aの音漏れについて説明する。
 前述の目的音の領域R11への音漏れと同様に、隠蔽音Aは領域R11の図中、右側へと音漏れする。この漏れた音は領域R11の右側に隣接する領域R14で聞こえる。
 そのような場合、領域R14では、その領域R14において聞こえる実際の環境音Cと、音漏れしてきた隠蔽音Aとが重なって聞こえることになる。
 このとき、隠蔽音Aが領域R14の実際の環境音Cと似た特徴の音であれば、受聴者は隠蔽音Aの音漏れに気付きにくくなる。
 この例では、隠蔽音Aはマイクロホン61-1により実際の環境音Cを収音して得られるものである。したがって、領域R14内にいる受聴者が聴取する隠蔽音Aは、その隠蔽音Aと重なって聞こえる実際の環境音と略同じ場所で観測され音となるので、音漏れに気付きにくくなる。
 なお、ここでは領域R11に向けて放音される隠蔽音Aの音漏れについて説明したが、領域R13へと向けて放音される隠蔽音Bについても同様のことがいえる。
 以上において説明した放音システム51では、基本的には図3を参照して説明した再生処理が行われるが、ステップS11に対応する処理では、マイクロホン61により収音して得られた環境音信号から得られる隠蔽音信号がオーディオアンプ23へと出力される。
〈第2の実施の形態の変形例1〉
〈放音システムの構成例〉
(マイクロホンが複数ある場合)
 また、図4に示した放音システム51では、アレイスピーカ25により隠蔽音が放音される領域に対して隣接する領域に1つのマイクロホン61を配置する例について説明したが、これに限らず、複数のマイクロホンを配置するようにしてもよい。
 例えば図5に示した例では、マイクロホン61はアレイスピーカ25から放音された隠蔽音Aや隠蔽音Bが漏れ出してくる場所(領域)の実際の環境音を収音するために用いられるものであり、音漏れが生じる領域R14や領域R15はある程度の範囲の領域となる。
 そのため、これらの領域R14内や領域R15内で聞こえる実際の環境音は、その聴取位置によって完全に同じではない。そこで、それらの各位置(場所)で環境音を収音し、ミキシングすることで、音漏れが生じる領域R14全体や領域R15全体での平均的な環境音を隠蔽音として得ることができるようにしてもよい。
 そのような場合、放音システムは、例えば図6に示すように構成される。なお、図6において図4における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 図6に示す放音システム91は、マイクロホン101-1乃至マイクロホン101-6、マイク処理装置62-1、マイク処理装置62-2、オーディオ再生機22、オーディオアンプ23-1、オーディオアンプ23-2、オーディオアンプ24、アレイスピーカ25-1、アレイスピーカ25-2、およびアレイスピーカ26を有している。
 放音システム91の構成は、マイクロホン61に代えてマイクロホン101-1乃至マイクロホン101-6が設けられた点で放音システム51の構成と異なり、その他の点では放音システム51と同じ構成となっている。
 マイクロホン101-1乃至マイクロホン101-3は、アレイスピーカ25-1を正面方向から見る受聴者から見て右側、すなわちアレイスピーカ25-1から見てアレイスピーカ26とは反対側に所定の距離だけ離れた位置に配置されている。
 マイクロホン101-1乃至マイクロホン101-3は、周囲の環境音を収音し、その結果得られた環境音信号をマイク処理装置62-1に供給する。
 マイク処理装置62-1は、マイクロホン101-1乃至マイクロホン101-3から供給された環境音信号をA/D変換するとともにミキシングすることで、最終的な1つの隠蔽音信号を生成し、オーディオアンプ23-1に供給する。
 マイクロホン101-4乃至マイクロホン101-6は、アレイスピーカ25-2を正面方向から見る受聴者から見て左側、すなわちアレイスピーカ25-2から見てアレイスピーカ26とは反対側に所定の距離だけ離れた位置に配置されている。
 マイクロホン101-4乃至マイクロホン101-6は、周囲の環境音を収音し、その結果得られた環境音信号をマイク処理装置62-2に供給する。
 マイク処理装置62-2は、マイクロホン101-4乃至マイクロホン101-6から供給された環境音信号をA/D変換するとともにミキシングすることで、最終的な1つの隠蔽音信号を生成し、オーディオアンプ23-2に供給する。
 なお、以下、マイクロホン101-1乃至マイクロホン101-6を特に区別する必要のない場合、単にマイクロホン101とも称することとする。
 ここで、図7にマイクロホン101の配置例を示す。なお、図7において図5における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 図7に示す例では、図5に示した場合と同様に、アレイスピーカ25およびアレイスピーカ26を構成する各スピーカが直線状に、すなわち水平方向に等間隔で配置されている。したがって、この例では16×3個のスピーカが等間隔で配置されている。
 また、領域R14内には3個のマイクロホン101-1乃至マイクロホン101-3が互いに離れた位置に配置されており、同様に領域R15内には3個のマイクロホン101-4乃至マイクロホン101-6が互いに離れた位置に配置されている。
 例えば領域R14内の互いに離れた位置に配置された3個の各マイクロホン101により実際の環境音を収音し、その結果得られた環境音信号をミキシングすれば、領域R14内で聞こえるであろう平均的な環境騒音の隠蔽音信号を得ることができる。領域R15についても領域R14と同様のことがいえる。
〈再生処理の説明〉
 続いて、放音システム91の動作について説明する。すなわち、以下、図8のフローチャートを参照して、放音システム91により行われる再生処理について説明する。
 再生処理が開始されると、各マイクロホン101は周囲の環境音の収音を開始し、その結果得られた環境音信号をマイク処理装置62に供給する。
 特に、ここではマイクロホン101-1乃至マイクロホン101-3で得られた各環境音信号はマイク処理装置62-1に供給され、マイクロホン101-4乃至マイクロホン101-6で得られた各環境音信号はマイク処理装置62-2に供給される。
 ステップS41においてマイク処理装置62は、各マイクロホン101から供給された各環境音信号をA/D変換することで、アナログの信号からデジタルの信号へと変換する。
ステップS42においてマイク処理装置62は、A/D変換された各環境音信号に基づいてミキシング、すなわち加算処理を行い、隠蔽音信号を生成する。
 例えばマイク処理装置62-1では、マイクロホン101-1乃至マイクロホン101-3から供給され、A/D変換された各環境音信号が加算されて1つの隠蔽音信号とされる。
 なお、環境音信号のミキシング時には、各マイクロホン101の配置位置に応じた重みを用いて、各マイクロホン101での収音により得られた環境音信号を重み付き加算する、つまり一定の割り合いで混合するなどして隠蔽音信号を生成するようにしてもよい。
 ステップS43においてマイク処理装置62は、ミキシングにより得られたデジタルの隠蔽音信号をオーディオアンプ23に出力する。
 ステップS44においてオーディオ再生機22は、予め保持している目的音信号をオーディオアンプ24に出力する。
 例えばオーディオ再生機22には、例えば予め録音された、展示される広告の説明などの目的音のオーディオ信号である目的音信号が記録されている。オーディオ再生機22は、再生開始の信号やボタン動作(図示せず)に応じて、デジタルの目的音信号をオーディオアンプ24に出力する。
 ステップS45においてオーディオアンプ23およびオーディオアンプ24は、マイク処理装置62から供給された隠蔽音信号、およびオーディオ再生機22から供給された目的音信号を増幅し、アレイスピーカ25およびアレイスピーカ26に供給する。
 ステップS46においてアレイスピーカ25およびアレイスピーカ26は、オーディオアンプ23およびオーディオアンプ24から供給された隠蔽音信号および目的音信号に基づいて音を出力(放音)する。これにより、アレイスピーカ25によって隠蔽音が再生され、アレイスピーカ26によって目的音が再生される。
 このようにして隠蔽音と目的音が再生されると、再生処理は終了する。
 以上のようにして放音システム91は、目的音だけでなく隠蔽音も放音する。このようにすることで、指定方向外に漏れる音を聞こえにくくすることができる。特に、放音システム91では、互いに異なる複数の位置に配置されたマイクロホン101で得られた環境音信号をミキシングすることで、平均化された環境騒音を収録することができ、より音漏れを知覚されにくくすることができる。
〈第2の実施の形態の変形例2〉
〈放音システムの構成例〉
(予め保持している複数の隠蔽音信号のなかから選択を行う場合)
 ところで、図4に示した放音システム51において、マイク処理装置62-1やマイク処理装置62-2に、予め複数の環境音を収録することで得られた、互いに異なる複数の隠蔽音の隠蔽音信号を保持しておくようにしてもよい。
 この場合、例えばマイク処理装置62では、マイクロホン61で得られた環境音信号に基づいて、予め保持している複数の隠蔽音信号のなかから、オーディオアンプ23に出力するものが選択される。
 例えば駅の通路に放音システム51を設置する場合、設置された場所の環境音は時刻とともに変化することが考えられる。
 具体的には、例えば朝の通勤で混雑する時の環境音と、昼の閑散時の環境音(環境騒音)とでは、それらの環境音の特徴が異なる。
 このようなことから、予め時刻や曜日が異なる、つまり収音のタイミングが異なる複数の環境音を録音(収音)し、各マイク処理装置62にそれらの環境音の信号を隠蔽音信号として保持しておくようにすることができる。
 このとき、各隠蔽音信号に対して予め周波数分析が行われ、その結果得られた特徴データと、隠蔽音信号とが対応付けられてマイク処理装置62で保持される。この特徴データは、隠蔽音信号の周波数特性など、周波数に関する特性を示すデータであれば、どのようなものであってもよい。
 このように予め収録された複数の隠蔽音信号と特徴データとを対応付けて保持しておく場合、放音システム51では、図9に示す再生処理が行われる。すなわち、以下、図9のフローチャートを参照して、放音システム51により行われる再生処理について説明する。
 再生処理が開始されると、各マイクロホン61は周囲の環境音の収音を開始し、その結果得られた環境音信号をマイク処理装置62に供給する。
 ステップS71においてマイク処理装置62は、マイクロホン61から供給された環境音信号をA/D変換することで、アナログの信号からデジタルの信号へと変換する。
 ステップS72においてマイク処理装置62は、ステップS71で得られた所定時間分の環境音信号を蓄積するとともに、その蓄積した環境音信号に対して周波数分析を行って特徴データを生成する。
 ステップS73においてマイク処理装置62は、ステップS72で得られた特徴データと、予め保持している複数の特徴データとを比較し、それらの複数の特徴データのなかから、ステップS72で得られた特徴データと最も近いものを選択する。また、マイク処理装置62は、このようにして選択した特徴データに対応付けられている隠蔽音信号を選択する。
 ここで、特徴データが最も近いとは、例えば特徴データ同士の差分が最も小さいものや、特徴データ間の距離が最も短いものなどとされる。
 このようにして選択された隠蔽音信号は、予め保持されている隠蔽音信号のうち、実際の環境音の信号に最も近い(類似した)もの、すなわち最も類似した特徴を有するものである。
 ステップS74においてマイク処理装置62は、ステップS73で選択した特徴データに対応付けられて保持されている隠蔽音信号をオーディオアンプ23に出力する。
 このようにして隠蔽音信号が出力されると、その後、ステップS75乃至ステップS77の処理が行われて再生処理は終了するが、これらの処理は図8のステップS44乃至ステップS46の処理と同様であるので、その説明は省略する。
 以上のようにして放音システム51は、予め用意された複数の隠蔽音信号のなかから、マイクロホン61で実際に収音して得られた環境音信号に近いものを選択し、その選択した隠蔽音信号に基づいて隠蔽音を放音する。
 このようにすることで、目的音だけでなく隠蔽音も放音し、指定方向外に漏れる音を聞こえにくくすることができる。特に、実際の環境音に類似した特徴をもつ隠蔽音を放音し、漏れ出した音を聞こえにくくする効果をさらに向上させることができる。
 しかも、実際の環境音に類似した特徴をもつ隠蔽音を放音することで、後述する音声ループ(ハウリング)も抑制することができる。
〈第2の実施の形態の変形例3〉
〈ハウリングの抑制について〉
 ところで、図4に示した放音システム51においては、マイクロホン61で周囲の環境音が収音され、その結果得られた環境音信号がマイク処理装置62でA/D変換されてデジタルの隠蔽音信号とされる。
 そして、その隠蔽音信号は、オーディオアンプ23により増幅されてアレイスピーカ25に供給され、アレイスピーカ25から隠蔽音が放音される。
 このとき、マイクロホン61の配置位置によっては、アレイスピーカ25から放音される隠蔽音が再びマイクロホン61で収音されることがある。同様に、アレイスピーカ26から放音された目的音もマイクロホン61で収音されてしまうことがある。そうすると、音声ループが生じ、場合によってはハウリング現象が発生する。
 そこで、そのようなハウリングを抑制するために、アレイスピーカ25から指向性をもって放音される音の領域、すなわち上述した図5の領域R11や領域R13から離れた位置にマイクロホン61を配置してもよい。
 具体的には、例えばマイクロホン61で収音を行ったときに、収音により得られた環境音信号に含まれる目的音や隠蔽音の成分(音圧レベル)が所定値(所定レベル)以下となるような位置にマイクロホン61を配置することが考えられる。
 また、音声ループ(ハウリング)を抑制する別の方法として、マイクロホン61として指向性マイクロホンを用いることで、選択的にアレイスピーカ25やアレイスピーカ26から放音された音がマイクロホン61で収音されないようにする方法も考えられる。
 例えば、そのような方法として、鋭指向性マイクロホンの向きにより、マイクロホン61で隠蔽音や目的音の到来方向からの音が収音されないようにする方法が考えられる。
 すなわち、この例では、マイクロホン61の収音の感度が他の方向よりも低い方向(ヌル指向性の方向)が隠蔽音や目的音の到来方向に向くように、マイクロホン61を配置すればよい。
 その他、例えばマイクロホンビームフォーミング技術によってマイクロホン61のヌル指向性をアレイスピーカ25の方向に向けるようにすることで、マイクロホン61で隠蔽音や目的音が収音されないようにしてもよい。この場合、マイク処理装置62において環境音信号に対してビームフォーミングが行われる。
 また、ビームフォーミングに限らず、マイク処理装置62において、音声ループ(ハウリング)を抑制するための任意のフィルタ処理等が環境音信号に対して施されて隠蔽音信号が生成されるようにしてもよい。
 例えばマイク処理装置62において、マイクロホン61で得られた環境音信号を所定時間だけ遅延させる遅延処理を行って、つまり環境音信号に遅延を付加して隠蔽音信号とすることで、音声ループ(ハウリング)を抑制してもよい。
 その他、マイク処理装置62において、音声ループによって増幅される周波数に対するノッチフィルタ処理を、マイクロホン61で得られた環境音信号に対して行い、その結果得られた信号を隠蔽音信号とすることで、音声ループ(ハウリング)を抑制してもよい。これにより、音声ループが生じている周波数の成分が低減される。
 さらに、マイク処理装置62において、マイクロホン61で得られた環境音信号に対して、音声ループを減衰させる所定のゲインをかけるゲイン補正を行い、その結果得られた信号を隠蔽音信号とすることで、音声ループ(ハウリング)を抑制してもよい。
 なお、以上において説明したマイクロホン61の配置やフィルタ処理など、音声ループを抑制する方法を複数組み合わせてもよい。
〈第2の実施の形態の変形例4〉
〈周波数特性の補正について〉
(アレイスピーカとマイクロホンの特性を補正して隠蔽音を環境音に近づける)
 また、図4に示した放音システム51においては、マイクロホン61で周囲の環境音が収音され、その結果得られた環境音信号がマイク処理装置62でA/D変換されてデジタルの隠蔽音信号とされると説明した。
 そして、その隠蔽音信号は、オーディオアンプ23により増幅されてアレイスピーカ25に供給され、アレイスピーカ25から隠蔽音が放音される。
 このような隠蔽音が放音される過程において、アレイスピーカ25からは、マイクロホン61およびアレイスピーカ25の特性に依存した周波数特性の音が放音される。
 例えばアレイスピーカ25が図10の矢印Q11に示す周波数特性を有しているとする。なお、図10において横軸は周波数を示しており、縦軸は各周波数成分のレベルを示している。
 図10の矢印Q11に示す例では、中高域が持ち上がるような周波数特性となっている。このような周波数特性を有するアレイスピーカ25を用いる場合に、例えばアレイスピーカ25の補正後の周波数特性が矢印Q12に示すフラットな特性となるように、オーディオイコライザにより隠蔽音信号に対して周波数特性を補正するイコライジング処理を施してもよい。
 また、例えばマイクロホン61が図11の矢印Q21に示す周波数特性を有しているとする。なお、図11において横軸は周波数を示しており、縦軸は各周波数成分のレベルを示している。
 図11の矢印Q21に示す例では、高域が持ち上がるような周波数特性となっている。このような周波数特性を有するマイクロホン61を用いる場合に、例えばマイクロホン61の補正後の周波数特性が矢印Q22に示すフラットな特性となるように、オーディオイコライザにより環境音信号に対して周波数特性を補正するイコライジング処理を施してもよい。このようなイコライジング処理は、例えば1つのフィルタによるフィルタ処理や、複数のフィルタを組わせたフィルタ処理などにより実現することができる。
 マイクロホン61で収音された音をアレイスピーカ25から隠蔽音として放音する場合、マイクロホン61とアレイスピーカ25のそれぞれの周波数特性がフラットであれば、収音から放音の過程において、隠蔽音の特徴がより原音である環境音の特徴に近づくことになる。
 そこで、マイク処理装置62において、オーディオイコライザにより環境音信号に対して周波数特性を補正するイコライジング処理を施し、その結果得られた信号を隠蔽音信号とすることで、より環境音に近い音を隠蔽音として出力することができる。
 すなわち、例えばマイクロホン61で得られた環境音信号が図11の矢印Q22に示すフラットな特性を有するように、オーディオイコライザにより環境音信号に対してイコライジング処理を施し、その結果得られた信号を隠蔽音信号とすることができる。
 さらに、その隠蔽音信号に対して、放音した隠蔽音が図10の矢印Q12に示すフラットな特性を有するように、オーディオイコライザにより隠蔽音信号に対してイコライジング処理を施すようにすることもできる。その他、環境音信号(隠蔽音信号)に対して、図10の矢印Q12に示す周波数特性と、図11の矢印Q22に示す周波数特性の何れか一方のみを付加するイコライジング処理を施すようにしてもよい。
 このように周波数特性がフラットになるように、オーディオイコライザにより中高域や高域など、所定の周波数帯域のレベルを持ち上げたり抑制したりすることで、より原音の環境音に近い隠蔽音を放音することができるようになる。
 なお、以上においてはオーディオイコライザにより周波数特性の補正を行う方法について説明したが、これに限らず、他のどのような方法により周波数特性の補正を実現してもよい。
 例えばインパル応答を事前に計測し、そのインパル応答の逆特性のフィルタを算出して、得られたフィルタにより環境音信号や隠蔽音信号に対してフィルタ処理を行うようにしてもよい。このインパルス応答の事前の測定は、マイクロホン61とアレイスピーカ25のそれぞれについて行ってもよいし、マイクロホン61とアレイスピーカ25の全体の系に対して行ってもよい。
 したがって、例えば図10の矢印Q11に示した周波数特性の逆特性を付加するフィルタと、図11の矢印Q21に示した周波数特性の逆特性を付加するフィルタとの合成フィルタによるフィルタ処理を、環境音信号に対するイコライジング処理として行い、得られた信号を隠蔽音信号としてもよい。
 また、例えば図10の矢印Q11に示した周波数特性の逆特性を付加するフィルタと、図11の矢印Q21に示した周波数特性の逆特性を付加するフィルタの何れか一方のフィルタによるフィルタ処理を、環境音信号に対するイコライジング処理として行ってもよい。
 さらに、以上で説明したように音声ループを抑制したり、より環境音に近い隠蔽音となるようにしたりする場合でも、さらに隠蔽音が目的音の特徴を打ち消す周波数的な特徴を有するようにしてもよい。
 そのような場合、隠蔽音信号に対して、目的音の特徴を打ち消す周波数的な特徴を付加するイコライジング処理を施したり、目的音の特徴を打ち消す周波数的な特徴を有する音声の信号を隠蔽音信号に加算して、最終的な隠蔽音信号としたりすればよい。
〈第3の実施の形態〉
〈隠蔽音と目的音について〉
 さらに、以上においては、放音システム11や放音システム51、放音システム91において、2個のアレイスピーカ25と1個のアレイスピーカ26からなる合計3個のアレイスピーカが一列(直線状)に配置されると説明した。
 特に、それらの3個のアレイスピーカのうちの中央に配置されたアレイスピーカ26により1つの目的音が放音され、そのアレイスピーカ26の左右に配置された各アレイスピーカ15から隠蔽音が放音される例について説明した。
 しかし、本技術を適用した放音システムでは、目的音は1つに限らず、複数の目的音が同時に放音されるようにしてもよい。
 具体的には、例えば5個のアレイスピーカが一列(直線状)に配置されているとする。この場合、それらのアレイスピーカを正面から見たときに、左側のアレイスピーカから右側のアレイスピーカまで順番に隠蔽音1、目的音1、隠蔽音2、目的音2、および隠蔽音3を放音するようにしてもよい。
 以上のように、本技術によれば、指向性を有するスピーカを利用しても目的音が拡散してしまう場合でも、その目的音が放音される領域に隣接する領域に向けて隠蔽音を放音することで、目的音や隠蔽音の拡散(音漏れ)を気付きにくくすることができる。すなわち、指定方向外に漏れる音を聞こえにくくすることができる。
 特に、隠蔽音が漏れ出す領域で実際の環境音をマイクロホンにより収音して隠蔽音とすることで、指定方向外に漏れる音をさらに聞こえにくくすることができる。
 また、複数の隠蔽音信号のなかから適切なものを選択したり、隠蔽音信号に対してゲイン補正等を行うことで、音声ループ(ハウリング)を抑制することができる。さらに、アレイスピーカやマイクロホンの周波数特性を補正することで、隠蔽音の特徴を、実際の環境音の特徴に近づけることができる。
〈コンピュータの構成例〉
 ところで、上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
 図12は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
 コンピュータにおいて、CPU(Central Processing Unit)501,ROM(Read Only Memory)502,RAM(Random Access Memory)503は、バス504により相互に接続されている。
 バス504には、さらに、入出力インターフェース505が接続されている。入出力インターフェース505には、入力部506、出力部507、記録部508、通信部509、及びドライブ510が接続されている。
 入力部506は、キーボード、マウス、マイクロホン、撮像素子などよりなる。出力部507は、ディスプレイ、スピーカなどよりなる。記録部508は、ハードディスクや不揮発性のメモリなどよりなる。通信部509は、ネットワークインターフェースなどよりなる。ドライブ510は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブル記録媒体511を駆動する。
 以上のように構成されるコンピュータでは、CPU501が、例えば、記録部508に記録されているプログラムを、入出力インターフェース505及びバス504を介して、RAM503にロードして実行することにより、上述した一連の処理が行われる。
 コンピュータ(CPU501)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブル記録媒体511に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
 コンピュータでは、プログラムは、リムーバブル記録媒体511をドライブ510に装着することにより、入出力インターフェース505を介して、記録部508にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部509で受信し、記録部508にインストールすることができる。その他、プログラムは、ROM502や記録部508に、あらかじめインストールしておくことができる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
 さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
 さらに、本技術は、以下の構成とすることも可能である。
(1)
 目的音を放音する1または複数の第1のスピーカと、
 前記1または複数の第1のスピーカに隣接して配置され、指向性を有する隠蔽音を放音する1または複数の第2のスピーカと
 を備える放音システム。
(2)
 前記1または複数の第1のスピーカにおける複数の各端側に隣接して、前記1または複数の第2のスピーカが配置されている
 (1)に記載の放音システム。
(3)
 前記隠蔽音は、前記目的音の特徴を打ち消す周波数特徴を有している
 (1)または(2)に記載の放音システム。
(4)
 前記1または複数の第2のスピーカは、前記隠蔽音が放音される領域近傍で収音された環境音の信号に基づいて得られた隠蔽音信号に基づいて、前記隠蔽音を放音する
 (1)乃至(3)の何れか一項に記載の放音システム。
(5)
 前記環境音を収音する複数のマイクロホンをさらに備える
 (4)に記載の放音システム。
(6)
 前記隠蔽音信号は、前記複数のマイクロホンでの収音により得られた信号を一定の割り合いで混合することにより生成される
 (5)に記載の放音システム。
(7)
 前記1または複数の第2のスピーカは、前記マイクロホンにより、互いに異なるタイミングで予め収音された複数の前記環境音の信号のそれぞれに基づいて得られた複数の前記隠蔽音信号のそれぞれのなかから選択された前記隠蔽音信号に基づいて、前記隠蔽音を放音する
 (5)または(6)に記載の放音システム。
(8)
 前記マイクロホンは、放音された前記目的音または前記隠蔽音を抑制する指向性を有している
 (4)乃至(7)の何れか一項に記載の放音システム。
(9)
 前記隠蔽音信号は、前記環境音の信号に対して遅延処理を施すことにより得られた信号である
 (4)乃至(6)の何れか一項に記載の放音システム。
(10)
 前記隠蔽音信号は、前記環境音の信号に対して、前記目的音または前記隠蔽音の音声ループを抑制するフィルタ処理を施すことにより得られた信号である
 (4)乃至(6)の何れか一項に記載の放音システム。
(11)
 前記隠蔽音信号は、前記環境音の信号に対して、前記目的音または前記隠蔽音の音声ループを抑制するゲイン補正を行うことにより得られた信号である
 (4)乃至(6)の何れか一項に記載の放音システム。
(12)
 前記複数のマイクロホンは、収音された前記環境音に含まれる前記目的音または前記隠蔽音のレベルが所定レベル以下となる位置に配置されている
 (4)乃至(11)の何れか一項に記載の放音システム。
(13)
 前記隠蔽音信号は、前記環境音の信号に対して前記目的音の特徴を打ち消す周波数特徴を付加するイコライジング処理を施すことにより得られた信号である
 (4)乃至(6)の何れか一項に記載の放音システム。
(14)
 前記隠蔽音信号は、前記目的音の特徴を打ち消す周波数特徴を有する音声の信号を前記環境音の信号に対して加算することで得られた信号である
 (4)乃至(6)の何れか一項に記載の放音システム。
(15)
 前記隠蔽音信号は、事前に測定された前記複数のマイクロホンの周波数特性と、前記1または複数の第2のスピーカの周波数特性のうちの少なくとも何れか一方に基づくイコライジング処理を前記環境音の信号に対して施すことにより得られた信号である
 (4)乃至(6)の何れか一項に記載の放音システム。
 11 放音システム, 21-1,21-2,21 オーディオ再生機, 22 オーディオ再生機, 25-1,25-2,25 アレイスピーカ, 26 アレイスピーカ, 61-1,61-2,61 マイクロホン, 62-1,62-2,62 マイク処理装置, 101-1乃至101-6,101 マイクロホン

Claims (15)

  1.  目的音を放音する1または複数の第1のスピーカと、
     前記1または複数の第1のスピーカに隣接して配置され、指向性を有する隠蔽音を放音する1または複数の第2のスピーカと
     を備える放音システム。
  2.  前記1または複数の第1のスピーカにおける複数の各端側に隣接して、前記1または複数の第2のスピーカが配置されている
     請求項1に記載の放音システム。
  3.  前記隠蔽音は、前記目的音の特徴を打ち消す周波数特徴を有している
     請求項1に記載の放音システム。
  4.  前記1または複数の第2のスピーカは、前記隠蔽音が放音される領域近傍で収音された環境音の信号に基づいて得られた隠蔽音信号に基づいて、前記隠蔽音を放音する
     請求項1に記載の放音システム。
  5.  前記環境音を収音する複数のマイクロホンをさらに備える
     請求項4に記載の放音システム。
  6.  前記隠蔽音信号は、前記複数のマイクロホンでの収音により得られた信号を一定の割り合いで混合することにより生成される
     請求項5に記載の放音システム。
  7.  前記1または複数の第2のスピーカは、前記マイクロホンにより、互いに異なるタイミングで予め収音された複数の前記環境音の信号のそれぞれに基づいて得られた複数の前記隠蔽音信号のそれぞれのなかから選択された前記隠蔽音信号に基づいて、前記隠蔽音を放音する
     請求項5に記載の放音システム。
  8.  前記マイクロホンは、放音された前記目的音または前記隠蔽音を抑制する指向性を有している
     請求項4に記載の放音システム。
  9.  前記隠蔽音信号は、前記環境音の信号に対して遅延処理を施すことにより得られた信号である
     請求項4に記載の放音システム。
  10.  前記隠蔽音信号は、前記環境音の信号に対して、前記目的音または前記隠蔽音の音声ループを抑制するフィルタ処理を施すことにより得られた信号である
     請求項4に記載の放音システム。
  11.  前記隠蔽音信号は、前記環境音の信号に対して、前記目的音または前記隠蔽音の音声ループを抑制するゲイン補正を行うことにより得られた信号である
     請求項4に記載の放音システム。
  12.  前記複数のマイクロホンは、収音された前記環境音に含まれる前記目的音または前記隠蔽音のレベルが所定レベル以下となる位置に配置されている
     請求項4に記載の放音システム。
  13.  前記隠蔽音信号は、前記環境音の信号に対して前記目的音の特徴を打ち消す周波数特徴を付加するイコライジング処理を施すことにより得られた信号である
     請求項4に記載の放音システム。
  14.  前記隠蔽音信号は、前記目的音の特徴を打ち消す周波数特徴を有する音声の信号を前記環境音の信号に対して加算することで得られた信号である
     請求項4に記載の放音システム。
  15.  前記隠蔽音信号は、事前に測定された前記複数のマイクロホンの周波数特性と、前記1または複数の第2のスピーカの周波数特性のうちの少なくとも何れか一方に基づくイコライジング処理を前記環境音の信号に対して施すことにより得られた信号である
     請求項4に記載の放音システム。
PCT/JP2020/026172 2019-07-19 2020-07-03 放音システム WO2021014935A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021533911A JPWO2021014935A1 (ja) 2019-07-19 2020-07-03

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-133280 2019-07-19
JP2019133280 2019-07-19

Publications (1)

Publication Number Publication Date
WO2021014935A1 true WO2021014935A1 (ja) 2021-01-28

Family

ID=74193162

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/026172 WO2021014935A1 (ja) 2019-07-19 2020-07-03 放音システム

Country Status (2)

Country Link
JP (1) JPWO2021014935A1 (ja)
WO (1) WO2021014935A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7134449B1 (ja) * 2021-09-17 2022-09-12 株式会社ドリーム 規制装置、規制方法
WO2023286413A1 (ja) * 2021-07-14 2023-01-19 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ エリア再生システム及びエリア再生方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01240099A (ja) * 1988-03-18 1989-09-25 Toa Tokushu Denki Kk スピーカの周波数特性補正装置
JP2002540696A (ja) * 1999-03-19 2002-11-26 シーメンス アクチエンゲゼルシヤフト ノイズ音響に満ちた環境でのオーディオ信号の受信と処理のための方法
JP2012073411A (ja) * 2010-09-29 2012-04-12 Yamaha Corp マスカ音出力制御装置
JP2012098631A (ja) * 2010-11-05 2012-05-24 Yamaha Corp 音声処理装置
JP2012113130A (ja) * 2010-11-25 2012-06-14 Yamaha Corp サウンドマスキング装置
JP2013162212A (ja) * 2012-02-02 2013-08-19 Yamaha Corp 会話情報漏洩防止装置
JP2014130251A (ja) * 2012-12-28 2014-07-10 Glory Ltd 会話保護システム及び会話保護方法
JP2016177204A (ja) * 2015-03-20 2016-10-06 ヤマハ株式会社 サウンドマスキング装置
JP2017050847A (ja) * 2015-08-31 2017-03-09 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America エリア再生システム及びエリア再生方法
JP2017126888A (ja) * 2016-01-14 2017-07-20 パナソニックIpマネジメント株式会社 指向性制御システム及び音声出力制御方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01240099A (ja) * 1988-03-18 1989-09-25 Toa Tokushu Denki Kk スピーカの周波数特性補正装置
JP2002540696A (ja) * 1999-03-19 2002-11-26 シーメンス アクチエンゲゼルシヤフト ノイズ音響に満ちた環境でのオーディオ信号の受信と処理のための方法
JP2012073411A (ja) * 2010-09-29 2012-04-12 Yamaha Corp マスカ音出力制御装置
JP2012098631A (ja) * 2010-11-05 2012-05-24 Yamaha Corp 音声処理装置
JP2012113130A (ja) * 2010-11-25 2012-06-14 Yamaha Corp サウンドマスキング装置
JP2013162212A (ja) * 2012-02-02 2013-08-19 Yamaha Corp 会話情報漏洩防止装置
JP2014130251A (ja) * 2012-12-28 2014-07-10 Glory Ltd 会話保護システム及び会話保護方法
JP2016177204A (ja) * 2015-03-20 2016-10-06 ヤマハ株式会社 サウンドマスキング装置
JP2017050847A (ja) * 2015-08-31 2017-03-09 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America エリア再生システム及びエリア再生方法
JP2017126888A (ja) * 2016-01-14 2017-07-20 パナソニックIpマネジメント株式会社 指向性制御システム及び音声出力制御方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023286413A1 (ja) * 2021-07-14 2023-01-19 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ エリア再生システム及びエリア再生方法
JP7134449B1 (ja) * 2021-09-17 2022-09-12 株式会社ドリーム 規制装置、規制方法
WO2023042916A1 (ja) * 2021-09-17 2023-03-23 株式会社アクティサポート 規制装置、音響出力装置、規制方法

Also Published As

Publication number Publication date
JPWO2021014935A1 (ja) 2021-01-28

Similar Documents

Publication Publication Date Title
JP6102179B2 (ja) 音声処理装置および方法、並びにプログラム
KR100626233B1 (ko) 스테레오 확장 네트워크에서의 출력의 등화
JP5455657B2 (ja) 音声の再現を高めるための方法および装置
JP5637661B2 (ja) 時変性の指向特性を有する音源を録音および再生する方法
KR101370373B1 (ko) 데이터 처리 디바이스 및 방법
US8238564B2 (en) Sound reproduction method and apparatus for assessing real-world performance of hearing and hearing aids
US7804972B2 (en) Method and apparatus for calibrating a sound beam-forming system
JP4167286B2 (ja) 残響調整装置、残響補正方法、および、音響再生システム
WO2021014935A1 (ja) 放音システム
KR101533347B1 (ko) 다중 오디오 채널의 재생을 강화하는 방법
ATE469505T1 (de) Audiosystem und verfahren zur akustischen echolöschung
US10104470B2 (en) Audio processing device, audio processing method, recording medium, and program
JP2018518893A (ja) 状況認識を備えたスポーツヘッドフォン
EP1056310A3 (en) Automotive audio system
US20070058816A1 (en) Sound reproduction apparatus and method of enhancing low frequency component
WO2020036058A1 (ja) 信号処理装置および方法、並びにプログラム
US20050244010A1 (en) Stereophonic sound reproducing system and stereophonic sound reproducing apparatus
CN117882394A (zh) 通过使用线性化和/或带宽扩展产生第一控制信号和第二控制信号的装置和方法
JP2012113130A (ja) サウンドマスキング装置
JP6225901B2 (ja) 音声信号処理装置、音声信号処理方法およびコンピュータプログラム
US20230254630A1 (en) Acoustic output device and method of controlling acoustic output device
JP3374425B2 (ja) 音響装置
JP6984559B2 (ja) 集音拡声装置、その方法、およびプログラム
JPH0984200A (ja) テレビジョン受信機用音声再生回路
JP4027645B2 (ja) 音声信号処理装置、および、音声信号処理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20844639

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021533911

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20844639

Country of ref document: EP

Kind code of ref document: A1