WO2021215242A1 - 音響処理装置、音響処理方法、制御方法、プログラム - Google Patents

音響処理装置、音響処理方法、制御方法、プログラム Download PDF

Info

Publication number
WO2021215242A1
WO2021215242A1 PCT/JP2021/014670 JP2021014670W WO2021215242A1 WO 2021215242 A1 WO2021215242 A1 WO 2021215242A1 JP 2021014670 W JP2021014670 W JP 2021014670W WO 2021215242 A1 WO2021215242 A1 WO 2021215242A1
Authority
WO
WIPO (PCT)
Prior art keywords
signal
acoustic
speaker
processing unit
signal processing
Prior art date
Application number
PCT/JP2021/014670
Other languages
English (en)
French (fr)
Inventor
慎平 土谷
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Priority to US17/919,722 priority Critical patent/US20230179914A1/en
Priority to CN202180029302.XA priority patent/CN115462094A/zh
Priority to JP2022516943A priority patent/JPWO2021215242A1/ja
Priority to DE112021002524.4T priority patent/DE112021002524T5/de
Publication of WO2021215242A1 publication Critical patent/WO2021215242A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/027Spatial or constructional arrangements of microphones, e.g. in dummy heads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/406Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1781Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase characterised by the analysis of input or output signals, e.g. frequency range, modes, transfer functions
    • G10K11/17821Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase characterised by the analysis of input or output signals, e.g. frequency range, modes, transfer functions characterised by the analysis of the input signals only
    • G10K11/17823Reference signals, e.g. ambient acoustic environment
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1785Methods, e.g. algorithms; Devices
    • G10K11/17857Geometric disposition, e.g. placement of microphones
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1787General system configurations
    • G10K11/17879General system configurations using both a reference signal and an error signal
    • G10K11/17881General system configurations using both a reference signal and an error signal the reference signal being an acoustic signal, e.g. recorded with a microphone
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1787General system configurations
    • G10K11/17885General system configurations additionally using a desired external signal, e.g. pass-through audio such as music or speech
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1083Reduction of ambient noise
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K2210/00Details of active noise control [ANC] covered by G10K11/178 but not provided for in any of its subgroups
    • G10K2210/10Applications
    • G10K2210/108Communication systems, e.g. where useful sound is kept and noise is cancelled
    • G10K2210/1081Earphones, e.g. for telephones, ear protectors or headsets
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K2210/00Details of active noise control [ANC] covered by G10K11/178 but not provided for in any of its subgroups
    • G10K2210/30Means
    • G10K2210/321Physical
    • G10K2210/3215Arrays, e.g. for beamforming
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K2210/00Details of active noise control [ANC] covered by G10K11/178 but not provided for in any of its subgroups
    • G10K2210/30Means
    • G10K2210/321Physical
    • G10K2210/3219Geometry of the configuration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2203/00Details of circuits for transducers, loudspeakers or microphones covered by H04R3/00 but not provided for in any of its subgroups
    • H04R2203/12Beamforming aspects for stereophonic sound reproduction with loudspeaker arrays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2460/00Details of hearing devices, i.e. of ear- or headphones covered by H04R1/10 or H04R5/033 but not provided for in any of their subgroups, or of hearing aids covered by H04R25/00 but not provided for in any of its subgroups
    • H04R2460/01Hearing devices using active noise cancellation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/11Transducers incorporated or for use in hand-held devices, e.g. mobile phones, PDA's, camera's

Definitions

  • This technology relates to an acoustic processing device, an acoustic processing method, a control method, and a program, and is related to a technology suitable for, for example, a headphone or earphone system.
  • Patent Document 1 discloses a technique relating to a noise canceling system that can be mounted on an acoustic output device.
  • a processor for acoustic signal processing and control as a CPU (Central Processing Unit), DSP (Digital Signal Processor), etc. can be installed, and Bluetooth (BLUETOOTH: registered trademark).
  • CPU Central Processing Unit
  • DSP Digital Signal Processor
  • Bluetooth BLUETOOTH: registered trademark.
  • the sound processing apparatus uses the input audio signal from the first group of microphones to generate a first signal process that generates a positive signal to be supplied to the positive terminal of each of the first speaker and the second speaker.
  • a unit and a second signal processing unit that generates a negative signal to be supplied to the respective negative terminal terminals of the first speaker and the second speaker by using the input audio signal from the second group of microphones.
  • Such an audio processing device performs signal processing applicable to devices and systems having a plurality of speakers (drivers), such as headphones, earphones, and speaker systems.
  • the configuration is as follows. By connecting the negative electrode terminal to the ground, the first and second speakers are in a state of performing acoustic output according to the positive signal given to the positive electrode terminal, respectively.
  • the control unit is composed of, for example, a processor (arithmetic processing unit), and controls to switch between a state in which a negative signal is supplied to the negative electrode terminals and a state in which the negative electrode terminals are ground-connected by a predetermined switching determination.
  • the control unit uses the second signal processing unit. It is conceivable to control the power off. That is, when it is not necessary to generate a negative signal, the second signal processing unit is set to power off control.
  • the power-off state may be a completely power-off state, or a state in which the power supply for the main processing is cut off, such as putting the second signal processing unit into a sleep state.
  • the control unit inputs the input audio signal from the first group of microphones from the first signal processing unit, performs audio signal analysis, and obtains the analysis result. Therefore, it is conceivable to control the second signal processing unit.
  • the control of the second signal processing unit is assumed to be, for example, a negative signal supply / ground connection switching control for the negative electrode terminal, a power on / off control of the second signal processing unit, and the like.
  • control unit controls the second signal processing unit based on the information acquired by communication from the external device.
  • control of the second signal processing unit is assumed to be, for example, control of switching the negative signal supply / ground connection for the negative electrode terminal, control of power on / off of the second signal processing unit, and the like.
  • the external device is assumed to be, for example, a mobile terminal device or a remote control device.
  • the first signal processing unit includes a first sound signal generation unit that generates a first positive signal supplied to the positive terminal of the first speaker, and the above-mentioned first sound processing unit. It has a second acoustic signal generation unit that generates a second positive signal to be supplied to the positive terminal of the second speaker, and the second signal processing unit supplies the negative signal to the negative terminal of the first speaker. It may have a third acoustic signal generation unit that generates a first negative signal, and a fourth acoustic signal generation unit that generates a second negative signal supplied to the negative terminal of the second speaker. Conceivable.
  • the first and second acoustic signal generation units generate individual positive signals for each of the first and second speakers, and similarly, the second signal processing unit generates individual positive signals.
  • the third and fourth acoustic signal generation units are configured to generate individual negative signals for each of the first and second speakers.
  • one or both of the first signal processing unit and the second signal processing unit includes an acoustic signal generation unit that generates a noise canceling signal.
  • a noise canceling signal is generated as one or both of a positive signal and a negative signal, and is supplied to the first and second speakers.
  • one or both of the first signal processing unit and the second signal processing unit includes an acoustic signal generation unit that generates a beamforming signal.
  • a beamforming signal is generated as one or both of a positive signal and a negative signal, and is supplied to the first and second speakers.
  • the positive signal generated by the first signal processing unit is the acoustic signal generated by the acoustic signal generation unit in the first signal processing unit and the input acoustic signal. It is conceivable that it is a synthesized signal. For example, a noise canceling signal and a beamforming signal are generated by an acoustic signal generation unit, and an acoustic signal such as input music is synthesized to obtain a positive signal.
  • the positive signal generated by the first signal processing unit and the negative signal generated by the second signal processing unit include signal components having the same acoustic function. It is conceivable to do.
  • the functions are various acoustic functions such as a noise canceling function, an external sound enhancement function, a specific frequency enhancement function, a voice enhancement function by beamforming, and an incoming sound enhancement function in a specific direction.
  • the first and second signal processing units are assumed to be configured to generate signals having the same function.
  • the signal components for a specific acoustic function are a positive signal generated by the first signal processing unit and a negative signal generated by the second signal processing unit. It is conceivable to include it in one of them. It is assumed that a signal having a certain function is generated only on one of the first and second signal processing units.
  • the sound processing device includes the first speaker and the second speaker.
  • a configuration example in which a first signal processing unit and a second signal processing unit are built in a stereo headphone having a speaker, a stereo earphone, or the like is assumed.
  • the sound processing device includes the first group of microphones and the second group of microphones.
  • the configuration is provided with a microphone for collecting external voice for generating a noise canceling signal and a beamforming signal.
  • the control method according to the present technology is the control method of the information processing device capable of communicating with the sound processing device, and is based on the situation determination process and the result of the situation determination process, with respect to the sound processing device.
  • the transmission process of transmitting the control signal of the signal processing unit of 2 is performed.
  • the control of the second signal processing unit is assumed to be, for example, a negative signal supply / ground connection switching control for the negative electrode terminal, a power on / off control of the second signal processing unit, and the like. Such control is performed from an information processing device such as a mobile terminal.
  • the status determination process is assumed to determine the surrounding environment status, noise status, current position status, sound processing device status, user status, and the like.
  • the program according to the present technology is a program that causes an information processing apparatus to execute such a control method. This program realizes an information processing device that executes a control method.
  • Example of acoustic output device> Examples of an acoustic processing device of the present technology that can be realized as an embodiment are shown in FIGS. 1 and 2.
  • the sound processing device may be realized as, for example, the sound output device 1 itself shown in FIGS. 1 and 2, or as a sound processing circuit, a sound processing unit, or the like built in or detachable from the sound output device 1. ..
  • FIG. 1 shows overhead headphones 1A and 1B and canal type earphones 1C. Further, FIG. 2A shows a neckband type earphone 1D.
  • Headphones 1A, 1B, earphones 1C, and 1D each include a left housing 5L corresponding to the left ear and a right housing 5R corresponding to the right ear.
  • the left housing 5L and the right housing 5R are a housing for the ear pad portion of the overhead headphone, a housing for inserting the ear canal of the earphone, and a housing in the vicinity thereof.
  • the headphones 1A and 1B are positioned so that the left housing 5L and the right housing 5R cover the user's left ear and right ear when the user wears the headband on the head.
  • the earphones 1C and 1D are worn by the user, a part of the left housing 5L and the right housing 5R is inserted into the user's left ear canal and right ear canal.
  • the neckband type earphone 1D is used by inserting the left housing 5L and the right housing 5R into the left ear canal and the right ear canal while the user hangs the neckband part around the neck as shown in FIG. 2B. Will be done.
  • the left housing 5L and the right housing 5R are physically connected by a headband, a cord, a neckband, and the like, and it is possible to form wiring for transmitting an acoustic signal or the like inside them.
  • the headphone 1B is an example of a device capable of wireless communication with a terminal device 90 such as a smartphone, for example.
  • the headphone 1B can reproduce music by transmitting an acoustic signal such as music from the terminal device 90. Further, wireless transmission of various control signals may be performed.
  • the sound processing device of the embodiment is not limited to the sound output device 1 itself such as the above headphones, earphones, and speaker system, or a unit built in or mounted on the sound output device 1, for example, headphones. It may be realized as an audio processing device used separately from earphones, speakers, and the like.
  • the parts that output sound of each channel such as the left channel and the right channel are physically continuous, for example, the left housing 5L and the right housing 5R.
  • the wired communication is performed.
  • it is suitable when it is provided with a noise canceling function and a beamforming function as in the third to sixth embodiments described later.
  • the left housing 5L and the right housing 5R may not be physically continuous, and wireless communication may be performed.
  • a configuration in which wireless communication may be performed between the left housing 5L and the right housing 5R may be used.
  • the technique of the present disclosure can be applied to the left and right separated earphones (headphones).
  • FIG. 3 shows the configuration of the acoustic output device 1 as the first embodiment.
  • the acoustic output device 1 has signal processing units 10 and 20.
  • the signal processing units 10 and 20 are each formed as an LSI chip or the like, and specifically include a processor (arithmetic processing device) such as a CPU or DSP, or a chip including a processor and peripheral circuits.
  • the signal processing units 10 and 20 may be separately arranged in the left housing 5L and the right housing 5R of the acoustic output device 1, respectively, or both the signal processing units 10 and 20 are housed in the left housing 5L. Or both may be in the right housing 5R.
  • the signal processing unit 10 includes a plurality of microphones 30, a plurality of A / D converters (hereinafter referred to as “ADC”) 11 corresponding to the plurality of microphones 30, acoustic signal generators 15, 16 and adders 12L and 12R. It has a power amplifier 13L, 13R, a D / A converter (hereinafter referred to as “DAC”) 14L, 14R, and a sound quality correction processing unit 18.
  • the microphone 30 is shown to include a microphone amplifier for the voice signal obtained by collecting sound, for example, a microphone amplifier may be separately provided in front of the ADC 11. The same applies to the microphone 40 described later and the microphones shown in other figures.
  • the signal processing unit 20 has a plurality of microphones 40, a plurality of ADCs 21 corresponding to the plurality of microphones 30, acoustic signal generation units 25 and 26, power amplifiers 23L, 23R, DAC 24L, and 24R.
  • All of the plurality of microphones 30 may be provided in the left housing 5L, or all may be provided in the right housing 5R. Further, the plurality of microphones 30 may be partially provided in the left housing 5L and partly in the right housing 5R. The same applies to the plurality of microphones 40, all of which may be provided in the left housing 5L, or all of which may be provided in the right housing 5R. Further, the plurality of microphones 40 may be partially provided in the left housing 5L and partly in the right housing 5R. Therefore, for example, both the microphones 30 and 40 may be arranged in the left housing 5L or the right housing 5R.
  • the microphones 30 and 40 are separate from the sound output device 1, and a configuration is also conceivable in which the collected voice signals are transmitted to the signal processing units 10 and 20 by wireless communication.
  • Such microphones 30 and 40 are supposed to collect the sound of the surrounding environment, for example, but are specifically provided to realize functions such as noise canceling processing and beamforming processing. ..
  • the speakers 50 and 60 are, for example, speakers corresponding to L channel and R channel, the speaker 50 is arranged in the left housing 5L, and the speaker 60 is arranged in the right housing 5R. As a result, acoustic output is performed to the left and right ears of the user.
  • the L / R stereo sound output device of the L (left) channel and the R (right) channel will be described as an example, but the signal processing units 10 and 20 are individually divided into the L channel and the R channel. Not corresponding. That is, the signal processing units 10 and 20 do not always correspond to the channel at a ratio of 1: 1.
  • the signal processing unit 10 has a function of generating a positive signal to be supplied to each positive electrode terminal (also referred to as a + terminal or a positive terminal) of the speakers 50 and 60. That is, the signal processing unit 10 is a positive signal generation device.
  • the signal processing unit 20 has a function of generating a negative signal to be supplied to each negative electrode terminal (also referred to as a ⁇ terminal or a negative terminal) of the speakers 50 and 60. That is, the signal processing unit 20 is a negative signal generation device.
  • the "positive signal” is used to mean a signal (or signal component) supplied to the positive electrode terminal, and the type of signal, for example, what kind of audio signal is used, and the phase relationship with the negative signal. It does not specify such things.
  • the "negative signal” means a signal (or signal component) supplied to the negative electrode terminal, and defines the type of signal, for example, what kind of audio signal is, and the phase relationship with the positive signal. is not it.
  • the input audio signal from the microphone 30 is converted into a digital signal by the ADC 11 and input to the acoustic signal generation units 15 and 16.
  • the acoustic signal generation unit 15 generates an acoustic signal for the L channel and supplies the generated acoustic signal to the adder 12L.
  • the acoustic signal generation unit 16 generates an acoustic signal for the R channel, and supplies the generated acoustic signal to the adder 12R.
  • the L-channel acoustic signal SL and the R-channel acoustic signal SR are input to the signal processing unit 10 from the outside.
  • the acoustic signals SL and SR for example, music from a music source, call voice, broadcast / communication voice, etc. (hereinafter, these are referred to as “music, etc.”) are assumed.
  • the acoustic signals SL and SR are signal-processed by the sound quality correction processing unit 18. For example, processing such as equalizing, tone control, volume adjustment, reverb echo, special effects such as pitch conversion, acoustic signal SL, and noise reduction of SR itself may be performed.
  • the acoustic signals SL and SR that have undergone sound quality correction processing are supplied to the adders 12L and 12R, respectively.
  • the adder 12L the acoustic signal generated by the acoustic signal generation unit 15 and the acoustic signal SL are combined.
  • the output of the adder 12L is amplified by the power amplifier 13L, converted into an analog signal by the DAC 14L, and supplied to the positive electrode terminal of the speaker 50.
  • the acoustic output of the L channel based on the positive signal is executed.
  • the adder 12R the acoustic signal generated by the acoustic signal generation unit 16 and the acoustic signal SR are combined.
  • the output of the adder 12R is amplified by the power amplifier 13R, converted into an analog signal by the DAC 14R, and supplied to the positive electrode terminal of the speaker 60.
  • the acoustic output of the L channel based on the positive signal is executed.
  • the "positive signal” may be understood as the meaning of the acoustic signal generated by the acoustic signal generation units 15 and 16 (the “component” of the signal supplied to the positive electrode terminal). It may be grasped by the meaning of the acoustic signal (the signal “itself” supplied to the positive electrode terminal) after being synthesized by the adders 12L and 12R.
  • the audio signal picked up by the microphone 40 is converted into a digital signal by the ADC 21 and input to the acoustic signal generation units 25 and 26.
  • the acoustic signal generation unit 25 generates an acoustic signal for the L channel and supplies the generated acoustic signal to the power amplifier 23L. Then, the acoustic signal (negative signal) amplified by the power amplifier 23L is converted into an analog signal by the DAC 24L and supplied to the negative electrode terminal of the speaker 50. As a result, the acoustic output of the L channel based on the negative signal is executed.
  • the acoustic signal generation unit 26 generates an acoustic signal for the R channel and supplies the generated acoustic signal to the power amplifier 23R. Then, the acoustic signal (negative signal) amplified by the power amplifier 23R is converted into an analog signal by the DAC 24R and supplied to the negative electrode terminal of the speaker 60. As a result, the acoustic output of the R channel based on the negative signal is executed.
  • the “negative signal” means the acoustic signal generated by the acoustic signal generation units 25 and 26 (the signal “itself” supplied to the positive electrode terminal).
  • the signal processing unit 10 the negative signal may be regarded as the signal "itself” supplied to the positive terminal as the added acoustic signal, or after the addition, the adder may perform addition with other acoustic signals. It may be interpreted as a component in the signal (acoustic signal generated by the acoustic signal generation units 25 and 26).
  • the acoustic signal generation units 15, 16, 25, and 26 function as a part or a combination thereof.
  • all of the acoustic signal generation units 15, 16, 25, and 26 may be noise canceling signal generation processing units.
  • all of the acoustic signal generation units 15, 16, 25, and 26 may be used as beamforming signal generation processing units.
  • the acoustic signal generation units 15 and 16 that generate positive signals are used as noise canceling signal generation processing units, and the acoustic signal generation units 25 and 26 that generate negative signals are used as beam forming signal generation processing units.
  • the signal and the negative signal may be signals having different functions.
  • the acoustic signal generation units 15 and 25 that generate the positive signal and the negative signal for the L channel speaker 50 perform the same kind of signal generation processing as described above, and generate the positive signal and the negative signal for the R channel speaker 50.
  • the signal generation units 16 and 26 may perform the same type of signal generation processing (however, different from the L channel side) among the above. Further, all of the acoustic signal generation units 15, 16, 25, and 26 may be different types of signal generation processing units among the above.
  • each of the acoustic signal generation units 15, 16, 25, and 26 may perform the plurality of types of signal generation processing described above. For example, signal generation with emphasis on incoming sound in a specific direction and emphasis on specific frequency, signal generation with noise canceling and beamforming, and the like.
  • both of the signal processing units 10 and 20 may function, or one of them may function.
  • the signal processing units 10 and 20 can output signals with enhanced functions.
  • the configuration of the second embodiment in which a partial configuration is added to FIG. 3 will be described with reference to FIG. FIG. 4 is different from FIG. 3 only in that the signal processing unit 20 is provided with the switch units 27L and 27R.
  • the switch units 27L and 27R supply a negative signal from the acoustic signal generation units 25 and 26 to the negative electrode terminals of the speakers 50 and 60, and connect the negative electrode terminals of the speakers 50 and 60 to the ground (GND). It is a switch to switch.
  • the sound output device 1 By connecting the negative electrode terminals of the speakers 50 and 60 to the ground, the sound output device 1 is in a state where sound reproduction can be executed only on the signal processing unit 10 side. For example, music and the like are reproduced by the acoustic signals SL and SR, and the acoustic signals generated by the acoustic signal generation units 15 and 16 are output. In this case, the signal processing unit 20 may be turned off.
  • the negative signals from the acoustic signal generation units 25 and 26 are supplied to the negative electrode terminals of the speakers 50 and 60, the configuration is the same as in FIG.
  • both of the signal processing units 10 and 20 may function, or only the signal processing unit 10 may function.
  • the signal processing units 10 and 20 can output signals with enhanced functions.
  • the signal processing unit 10 supplies an acoustic signal (positive signal) to the positive terminal terminals of the speakers 50 and 60, stereo output can be executed only by the signal processing unit 10. That is, the signal processing unit 20 may be off. It can also operate normally as a music playback system.
  • switch units 27L and 27R are shown as internal circuits of the signal processing unit 20, they may be configured as external circuits of the signal processing unit 20. Further, a switch unit for switching the positive electrode terminals of the speakers 50 and 60 to the ground connection is provided, only the signal processing unit 20 functions when the signal processing unit 10 is turned off, and negative signals from the acoustic signal generating units 25 and 26 are transmitted. It may be supplied to the negative electrode terminals of the speakers 50 and 60. In this case, only the signal processing unit 20 functions, and stereo output such as an external sound can be executed.
  • NC processing [3-1: Comparative example]
  • BF beamforming
  • 10A, 10B, and 10C are used for the "signal processing unit” depending on the function and the like, but when they are generically referred to regardless of the function, they are referred to as “signal processing unit 10". The same applies to the "signal processing unit 20".
  • acoustic signal generation units 15, 16, 25, and 26 are given different names according to their functions, and alphabets and numbers are added to the codes after the same numbers (for example, "NC signal generation unit 15A"). Etc.) are collectively referred to as “acoustic signal generation unit 15” or the like in the expression of FIG. Alphabets and numbers may be added to the end of the words for the microphone 30 and the microphone 40, but they are collectively referred to as "microphone 30" and "microphone 40".
  • the acoustic output device 1 provided with the NC function will be described, but first, the NC system will be briefly described here.
  • an NC system a configuration is known in which an NC signal having an opposite phase that minimizes the sound pressure at the user's ear is generated from a noise signal collected by a microphone for collecting ambient noise to cancel the noise. There is.
  • FIG. 5 shows a configuration example of the NC system.
  • the noise signal collected by the microphone 130 is input to the DNC (digital noise canceling) filter 103L via the microphone amplifier 101L and the ADC 102L, and the NC signal is generated by the DNC filter 103L.
  • the NC signal is supplied to the adder 105L via the amplifier 104L and is synthesized with the acoustic signal SL such as music.
  • the acoustic signal SL is supplied to the adder 105L via, for example, the equalizer 106L and the amplifier 109L.
  • the output of the adder 105L which is a combination of an NC signal and a signal such as music, is converted into an analog signal by the DAC 106L, amplified by the power amplifier 107L, and supplied to the speaker 150 of the L channel. From the speaker 150, an acoustic output based on the acoustic signal SL and the NC signal for the L channel is performed.
  • the noise signal collected by the microphone 140 is input to the DNC filter 103R via the microphone amplifier 101R and the ADC 102R, and the NC signal is generated by the DNC filter 103R.
  • the NC signal is supplied to the adder 105R via the amplifier 104R and is combined with the acoustic signal SR such as music.
  • the acoustic signal SR is supplied to the adder 105R via, for example, the equalizer 106R and the amplifier 109R.
  • the output of the adder 105R which is a combination of an NC signal and a signal such as music, is converted into an analog signal by the DAC 106R, amplified by the power amplifier 107R, and supplied to the speaker 150 of the R channel. From the speaker 150, an acoustic output based on the acoustic signal SR and the NC signal for the R channel is performed.
  • the microphone 130 is provided in the left housing 5L and the microphone 140 is provided in the right housing 5R in the headphone 1A and the like shown in FIG. That is, in the configuration of FIG. 5, the acoustic signal system is separated for each channel, and the DNC filter 103L has a role for the L channel and the DNC filter 103R has a role for the R channel.
  • FIG. 6 shows an example in which the NC device 100 for the L channel and the NC device 200 for the R channel are used.
  • the NC device 100 corresponds to the input of a total of six microphones 130, that is, a microphone 130F for FF (feedforward) and five microphones 130B for FB (feedback).
  • the NC device 100 generates an NC signal based on the inputs of these six microphones 130 and supplies the NC signal to the speaker 150.
  • the NC device 200 also supports the input of a total of six microphones 140, that is, the microphone 140F for FF and the five microphones 140B for FB.
  • the NC device 200 generates an NC signal based on the inputs of these six microphones 140 and supplies the NC signal to the speaker 160.
  • NC devices 100 and 200 since a plurality of LSIs (NC devices 100 and 200) are always activated, the power consumption may increase and the operating time of the product may be reduced. .. In the case of FIG. 6, NC devices 100 and 200 need to be always operating at the same time for stereo reproduction.
  • the NC device 100 for the L channel also performs a process of inputting the acoustic signal SL of the L channel.
  • the acoustic signals SL and SR are received by short-range wireless communication such as Bluetooth, and a chip for wireless communication may be provided, but the NC devices 100 and 200 always have the acoustic signal of the channel in charge. Processing must be done.
  • the LSIs as NC devices 100 and 200 have a low power consumption function, as long as two identical LSIs are activated, the LSI fixed power, the power of peripheral circuits, and the like are applied. For example, even when NC processing is not required in a quiet environment, it is necessary to start two LSIs at the same time for music playback, and the same control such as LSI volume control is performed on the L channel / R channel. In order to do so, they must be controlled independently using a control bus such as I2C.
  • the place where devices can be communicated between devices by a single serial transfer such as I2S from the host CPU must be demultiplexed from the host CPU, separated into L channels / R channels, and connected to each LSI. ..
  • I2S serial transfer
  • the microphone of the NC function is used together with the microphone for telephone call, and when the microphone signal between the left and right is transmitted to the host CPU, one I2S is multiplexed and two systems of I2S are required.
  • the circuit scale has increased, resulting in an increase in power consumption.
  • FIG. 7 shows an arrangement of the microphones 30 and 40 and a configuration example by the signal processing units 10A and 20A.
  • a total of six microphones are arranged as the microphone 30 and the microphone 40 in the left housing 5L of the sound output device 1 as shown below.
  • ⁇ Microphone 30FL for L channel FF ⁇ Microphone 30BL1 for L channel FB ⁇ Microphone 30BL2 for FB of L channel ⁇ Microphone 40BL1 for L channel FB ⁇ Microphone 40BL2 for FB of L channel ⁇ Microphone 40BL3 for FB of L channel
  • a total of six microphones are arranged as the microphone 30 and the microphone 40 as shown below.
  • ⁇ Microphone 30FR for R channel FF ⁇ Microphone 30BR1 for FB of R channel ⁇ Microphone 30BR2 for FB of R channel ⁇ Microphone 40BR1 for FB of R channel ⁇ Microphone 40BR2 for FB of R channel ⁇ Microphone 40BR3 for FB of R channel
  • the microphones 30 and 40 are arranged symmetrically for the purpose of capturing noise widely.
  • the signal path for generating or outputting a positive signal is shown by a solid line
  • the signal path for generating or outputting a negative signal is shown by a dotted line.
  • the voice signal picked up by the microphones 30FL, 30BL1, 30BL2, 30FR, 30BR1 and 30BR2 is supplied to the signal processing unit 10A as shown by a solid line.
  • the voice signal picked up by the microphones 40BL1, 40BL2, 40BL3, 40BR1, 40BR2, and 40BR3 is supplied to the signal processing unit 20A as shown by the dotted line.
  • the signal processing units 10A and 20A are NC devices and generate NC signals. Then, the signal processing unit 10A supplies a positive signal including NC signal components of the FF system and the FB system to the positive electrode terminals of the speakers 50 and 60. Further, the signal processing unit 20A supplies a negative signal, which is an FB type NC signal, to the negative electrode terminals of the speakers 50 and 60.
  • FIG. 8 shows the internal configurations of the signal processing units 10A and 20A.
  • the signal processing units 10A and 20A have the same configuration as the signal processing units 10 and 20 in FIG. 4, but in particular, the configuration corresponding to the acoustic signal generation units 15, 16, 25 and 26 in FIG. 4 generates NC signals.
  • the NC signal generation unit 15A generates NC signals of the FF system and the FB system for the L channel based on the audio signals by the microphones 30FL, 30BL1 and 30BL2.
  • the NC signal generated by the NC signal generation unit 15A is combined with the acoustic signal SL by the adder 12L, and then supplied to the positive electrode terminal of the speaker 50 via the power amplifier 13L and the DAC 14L.
  • the NC signal generation unit 16A generates NC signals of the FF system and the FB system for the R channel based on the voice signals by the microphones 30FR, 30BR1 and 30BR2.
  • the NC signal generated by the NC signal generation unit 16A is combined with the acoustic signal SR by the adder 12R, and then supplied to the positive electrode terminal of the speaker 60 via the power amplifier 13R and the DAC 14R.
  • the NC signal generation unit 25A generates an FB type NC signal for the L channel based on the voice signal by the microphones 40BL1, 40BL2, 40BL3.
  • the NC signal generated by the NC signal generation unit 25A is supplied to the negative electrode terminal of the speaker 50 via the power amplifier 23L, the DAC 24L, and the switch unit 27L.
  • the NC signal generation unit 26A generates an FB type NC signal for the R channel based on the voice signal by the microphones 40BR1, 40BR2, and 40BR3.
  • the NC signal generated by the NC signal generation unit 26A is supplied to the negative electrode terminal of the speaker 60 via the power amplifier 23R, the DAC24R, and the switch unit 27R.
  • the input signals of the six microphones 30 arranged for positive signal generation are subjected to NC filter processing of each of the left and right channels in the signal processing unit 10, and then sounded via the positive electrode terminals of the speakers 50 and 60. Can be output.
  • the input signals of the six microphones 40 arranged for generating the negative signal can be acoustically output via the negative electrode terminals of the speakers 50 and 60 after being subjected to NC filter processing of each of the left and right channels in the signal processing unit 20. Therefore, the NC signals using the input signals of all 12 microphones connected to the two NC devices (that is, the signal processing units 10A and 20A) can be output from the left and right speakers 50 and 60, respectively, and the NC signal can be output.
  • reproduction of music or the like by acoustic signals SL and SR can coexist. That is, it is possible to realize an NC system with greatly improved NC performance.
  • the negative electrode terminals of the speakers 50 and 60 can be connected to the ground by the switch units 27L and 27R.
  • the switch units 27L and 27R can be switched by manual operation by the user.
  • a positive signal from the signal processing unit 10A is supplied to the speakers 50 and 60. That is, while the NC effect by the NC signal of the FF system and the FB system using six microphones 30 as the microphones 30FL, 30BL1, 30BL2, 30FR, 30BR1 and 30BR2 can be obtained, music and the like can be reproduced by the acoustic signals SL and SR. Will be done.
  • the signal processing unit 20A may be turned off. That is, when playing music or the like by the acoustic signals SL and SR, the signal processing units 10A and 20A are both functioned to obtain a high NC effect, and only the signal processing unit 10A is operated to obtain a normal NC effect. You can use it properly when you get it. Then, by providing a period during which the signal processing unit 20A is turned off, the effects of reducing power consumption and prolonging the reproduction time can be obtained. For example, in an environment where there is little noise such as indoors or offices where it is not necessary to enhance the NC effect, by turning off the signal processing unit 20A, it is possible to enjoy good music playback while suppressing power consumption.
  • FIG. 9 shows a configuration example of the fourth embodiment. This is an example in which the CPU 70 is provided and the switches 27L and 27R are automatically controlled.
  • the CPU 70 includes a noise analysis unit 71, for example, inputs all or a part of the voice signals picked up by the microphones 30FL, 30BL1, 30BL2, 30FR, 30BR1 and 30BR2, and analyzes the noise situation. For example, the noise level, frequency characteristics, noise continuation state, etc. are analyzed.
  • the CPU 70 determines whether the noise is large or not based on the noise analysis result, and controls the signal processing unit 20A. Specifically, if it is determined that the noise is not large, the CPU 70 controls to switch the switch units 27L and 27R to the ground side, and also controls to turn off the power of the signal processing unit 20A. If it is determined that the noise is large, the CPU 70 controls the switch units 27L and 27R to switch to a state in which the negative signal can be supplied to the negative electrode terminal, and also controls the signal processing unit 20A to turn on the power.
  • the circuit configuration is such that the ground connection is maintained even when the signal processing unit 20A is turned off (for example, the negative electrode terminal is not opened). Needless to say.
  • the NC effect is automatically adjusted according to the ambient noise situation, and in a relatively quiet environment, the signal processing unit 20A is automatically turned off to save power. Become.
  • switching control of the switch units 27L and 27R and power off control of the signal processing unit 20A may be performed according to a situation other than the noise situation, not the noise situation or in addition to the noise situation.
  • the CPU 70 monitors the battery status as the status of the acoustic output device 1, and when the remaining battery level falls below a predetermined value, the switch units 27L and 27R are switched to the ground side and the signal processing unit 20A is turned off. Control may be performed. This is advantageous for long-time driving of the acoustic output device 1. Further, the CPU 70 may monitor the volume setting status as the status of the acoustic output device 1, and perform switching control of the switch units 27L and 27R and power supply control of the signal processing unit 20A depending on whether the volume is low or not. good. This is because it is possible that the normal NC function is sufficient when playing music at a relatively loud volume.
  • the noise situation may be estimated according to the current position and position fluctuation of the user instead of the noise situation itself, and the switching control of the switch units 27L and 27R and the power supply control of the signal processing unit 20A may be performed.
  • the acoustic output device 1 (CPU 70) is provided with a current position detection function. Then, when the CPU 70 determines, for example, indoors, outdoors, or while the train is moving, and it is necessary to enhance the NC effect, the signal processing unit 20A is turned on and the switch units 27L and 27R are set to the negative signal side. Is.
  • the CPU 70 determines the switch units 27L and 27R according to the type of situation such as music reproduced by the input acoustic signals SL and SR, for example, music, conversation sound, environmental sound, electronic sound, notification sound and the like. Switching control and power supply control of the signal processing unit 20A may be performed. Further, the CPU 70 determines the situation of the music reproduced by the input acoustic signals SL and SR, for example, by genre such as rock, jazz, classic, and popular, and the average sound pressure level of the currently playing song. Switching control of the switch units 27L and 27R and power supply control of the signal processing unit 20A may be performed according to the frequency characteristics and the like.
  • the CPU 70 may perform switching control of the switch units 27L and 27R and power supply control of the signal processing unit 20A according to the physical condition of the user.
  • a sensor for detecting a physical condition such as an electroencephalogram sensor, a pulse sensor, and a blood pressure sensor is provided, and control is performed according to the physical condition of the user determined by the sensors.
  • the CPU 70 may perform switching control of the switch units 27L and 27R and power supply control of the signal processing unit 20A according to the operating status of the user.
  • an angular velocity sensor, an acceleration sensor, and the like are provided, and control is performed according to the operating condition of the user determined by them.
  • FIG. 3-4 A configuration example of the fifth embodiment is shown in FIG. This is an example in which the sound output device 1 of the L and R2 channels has a plurality of speakers (headphone drivers) of each channel to perform higher-performance NC control.
  • the acoustic output device 1 includes two speakers 50-1 and 50-2 as L-channel speakers arranged in the left housing 5L. Further, two speakers 60-1 and 60-2 are provided as R channel speakers arranged in the right housing 5R.
  • the signal processing unit 10A includes four NC signal generation units 15A1, 15A2, 16A1 and 16A2 that generate positive signals.
  • the NC signal generation unit 15A1 generates an FF type NC signal for the L channel based on the voice signal from the microphone 30FL, for example. This NC signal is combined with the acoustic signal SL by the adder 12L1 and supplied to the positive electrode terminal of the speaker 50-1 via the power amplifier 13L1 and the DAC 14L1.
  • the NC signal generation unit 15A2 generates an FB type NC signal for the L channel based on, for example, the voice signal by the microphones 30BL1 and 30BL2. This NC signal is combined with the acoustic signal SL by the adder 12L2, and is supplied to the positive electrode terminal of the speaker 50-2 via the power amplifier 13L2 and the DAC 14L2.
  • the NC signal generation unit 16A1 generates an FF type NC signal for the R channel based on the voice signal from the microphone 30FR, for example.
  • This NC signal is combined with the acoustic signal SR by the adder 12R1 and supplied to the positive electrode terminal of the speaker 60-1 via the power amplifier 13R1 and the DAC 14R1.
  • the NC signal generation unit 16A2 generates an FB type NC signal for the R channel based on the voice signal by the microphones 30BR1 and 30BR2, for example.
  • This NC signal is combined with the acoustic signal SR by the adder 12R2, and is supplied to the positive electrode terminal of the speaker 60-2 via the power amplifier 13R2 and the DAC 14R2.
  • the NC signal generation units 15A1 and 16A1 generate FF type NC signals
  • the NC signal generation units 15A2 and 16A2 generate FB type NC signals, but this is only an example.
  • the signal processing unit 20A includes four NC signal generation units 25A1, 25A2, 26A1 and 26A2 that generate negative signals.
  • the sound signals SL'and SR' are input to the signal processing unit 20A and processed by the sound quality correction processing unit 28.
  • the acoustic signals SL'and SR' may be the same signals as the acoustic signals SL and SR, may be signals adjusted by the acoustic signals SL and SR, or may be signals different from the acoustic signals SL and SR.
  • the NC signal generation unit 25A1 generates an FB type NC signal for the L channel based on, for example, the voice signal by the microphones 40BL1 and 40BL2. This NC signal is combined with the acoustic signal SL'by the adder 22L1 and supplied to the negative electrode terminal of the speaker 50-1 via the power amplifier 23L1 and the DAC24L1.
  • the NC signal generation unit 25A2 generates an FB type NC signal for the L channel based on the voice signal from the microphone 40BL3, for example. This NC signal is combined with the acoustic signal SL'by the adder 22L2, and is supplied to the negative electrode terminal of the speaker 50-2 via the power amplifier 23L2 and the DAC24L2.
  • the NC signal generation unit 26A1 generates an FB type NC signal for the R channel based on the voice signal by the microphones 40BR1 and 40BR2, for example. This NC signal is combined with the acoustic signal SR'by the adder 22R1 and supplied to the negative electrode terminal of the speaker 60-1 via the power amplifier 23R1 and the DAC24R1.
  • the NC signal generation unit 26A2 generates an FB type NC signal for the R channel based on the voice signal from the microphone 40BR3, for example. This NC signal is combined with the acoustic signal SR'by the adder 22R2, and is supplied to the negative electrode terminal of the speaker 60-2 via the power amplifier 23R2 and the DAC24R2.
  • the signal processing units 10A and 20A which are NC devices, are configured so that they can perform stereo processing by themselves.
  • the LSI as the signal processing unit 10A is provided with a total of four outputs, two positive signals for the L channel and two positive signals for the Rch.
  • the LSI as the signal processing unit 20A is provided with a total of four outputs, two negative signals for the L channel and two negative signals for the Rch.
  • the signal processing unit 20A can be turned on / off while continuing 4-channel output, and NC function operation with reduced power consumption can be realized.
  • the configuration in which the acoustic signals SL'and SR'are input to the signal processing unit 20A is shown, but such acoustic signals SL'and SR' are not input, and the sound quality correction processing unit 28 and the sound quality correction processing unit 28
  • the adder 22L1,22L2, 22R1,22R2 may not be provided.
  • FIG. 11 shows an arrangement of the microphones 30 and 40 and a configuration example by the signal processing units 10B and 20B.
  • a total of three microphones are arranged as the microphones 30 in the left housing 5L of the sound output device 1 as shown below.
  • ⁇ Microphone 30FL for L channel FF ⁇ Microphone 30BL1 for L channel FB ⁇ Microphone 30BL2 for FB of L channel
  • a total of nine microphones are arranged as the microphone 30 and the microphone 40 as shown below.
  • the microphones 30BR1 + and 30BR2 + are used together for NC and BF. Due to the NC effect, the microphones 30BL1, 30BL2, 30BR1 + and 30BR2 + used for NC are arranged symmetrically for the purpose of capturing noise widely. On the other hand, in order to create strong directivity in BF, the microphones 40BF1, 40BF2, 40BF3, 30BR1 +, 40BF4, 30BR2 +, 40BF5, and 40BF6 for BF are arranged continuously in one direction (for example, the right housing 5R).
  • the signal processing units 10B and 20B are LSIs that support 6-channel input, respectively. Similar to FIG. 7, FIG. 11 also shows a signal path for generating or outputting a positive signal with a solid line, and a signal path for generating or outputting a negative signal with a dotted line.
  • the signal processing unit 10B has a function of generating NC and BF signals as well as playing music, and as shown by a solid line, six microphones 30 (30FL, 30BL1, 30BL2, 30FR, 30BR1 +, 30BR2 +). Input the audio signal picked up by.
  • the signal processing unit 20B has a function of generating a BF signal, and as shown by a dotted line, an audio signal picked up by six microphones 40 (40BF1, 40BF2, 40BF3, 40BF4, 40BF5, 40BF6) is used. input. That is, the LSI as the signal processing unit 10B is in charge of music reproduction and NC + BF processing, and the signal processing unit 20B, which is another LSI, is in charge of only BF processing.
  • the signal processing unit 10B supplies the positive signal including the NC signal component of the FF system and the FB system and the BF signal to the positive electrode terminals of the speakers 50 and 60. Further, the signal processing unit 20B supplies a negative signal, which is regarded as a BF signal, to the negative electrode terminals of the speakers 50 and 60.
  • FIG. 12 shows the internal configurations of the signal processing units 10B and 20B.
  • the signal processing units 10B and 20B have the same configuration as the signal processing units 10 and 20 in FIG. 4, but in particular, the configuration corresponding to the acoustic signal generation units 15 and 16 in FIG. 4 is an NC + BF signal that generates NC and BF signals. It is said that the generation units 15B and 16B. Further, the configuration corresponding to the acoustic signal generation units 25 and 26 in FIG. 4 is the BF signal generation units 25B and 26B that generate the BF signal.
  • the NC + BF signal generation unit 15B generates FF and FB NC signals for the L channel based on the voice signals of the microphones 30FL, 30BL1 and 30BL2, and generates a BF signal based on the voice signals of the microphones 30BR1 + and 30BR2 +. Also do.
  • the acoustic signal generated by the NC + BF signal generation unit 15B is combined with the acoustic signal SL by the adder 12L, and then supplied to the positive terminal of the speaker 50 via the power amplifier 13L and the DAC 14L.
  • the NC + BF signal generation unit 16B generates FF and FB NC signals for the R channel based on the voice signals of the microphones 30FR, 30BR1 + and 30BR2 +, and generates a BF signal based on the voice signals of the microphones 30BR1 + and 30BR2 +. I do.
  • the acoustic signal generated by the NC + BF signal generation unit 16B is combined with the acoustic signal SR by the adder 12R, and then supplied to the positive terminal of the speaker 60 via the power amplifier 13R and the DAC 14R.
  • the BF signal generation unit 25B generates a BF signal for the L channel based on the voice signals from the six microphones 40. This BF signal is supplied to the negative electrode terminal of the speaker 50 via the power amplifier 23L, the DAC 24L, and the switch unit 27L.
  • the BF signal generation unit 26B generates a BF signal for the R channel based on the voice signals from the six microphones 40. This BF signal is supplied to the negative electrode terminal of the speaker 60 via the power amplifier 23R, the DAC24R, and the switch unit 27R.
  • FIG. 13 shows a configuration only on the L channel side. Although not shown, the R channel has the same configuration as the L channel side.
  • An example is shown in which a total of 11 microphones, 5 microphones 30 and 6 microphones 40, are arranged in the left housing 5L as a configuration on the L channel side in the left-right separated type acoustic output device 1. ..
  • 11 is an example.
  • FIG. 13 also shows a signal path for generating or outputting a positive signal with a solid line, and a signal path for generating or outputting a negative signal with a dotted line.
  • the signal processing units 10C and 20C are LSIs that support 6-channel input, respectively.
  • the signal processing unit 10C has a processing function for playing music or the like, and inputs voice signals picked up by five microphones 30 as shown by a solid line. As shown by the dotted line, the signal processing unit 20C inputs the voice signals picked up by the six microphones 40.
  • the signal processing unit 10C supplies a positive signal including an acoustic signal generated based on the microphone 30 to the positive electrode terminals of the speakers 50 and 60. Further, the signal processing unit 20C supplies a negative signal including an acoustic signal generated based on the microphone 40 to the negative electrode terminals of the speakers 50 and 60.
  • FIG. 14 shows the internal configurations of the signal processing units 10C and 20C.
  • the signal processing units 10C and 20C are provided with a configuration corresponding to the L channel corresponding portion in the signal processing units 10 and 20 of FIG. That is, the acoustic signal generation unit 15C is provided as a configuration corresponding to the acoustic signal generation unit 15 of FIG. 4, and the acoustic signal generation unit 25C is provided as a configuration corresponding to the acoustic signal generation unit 25 of FIG.
  • the acoustic signal generation unit 15C generates an acoustic signal for the L channel based on the audio signals from the five microphones 30. In the case of the arrangement of the microphone 30 as shown in FIG. 13, NC signals and BF signals can be generated.
  • the acoustic signal generated by the acoustic signal generation unit 15C is combined with the acoustic signal SL by the adder 12L, and then supplied to the positive terminal of the speaker 50 via the power amplifier 13L and the DAC 14L.
  • the acoustic signal generation unit 25C generates an acoustic signal for the L channel based on the audio signals from the six microphones 40.
  • the BF signal can be generated.
  • This acoustic signal is supplied to the negative electrode terminal of the speaker 50 via the power amplifier 23L, the DAC 24L, and the switch unit 27L.
  • the signal processing units 10C and 20C are used only in the L channel, and by making both the signal processing units 10C and 20C function, NC is performed at the time of sound output such as music or foreign voice.
  • NC is performed at the time of sound output such as music or foreign voice.
  • An effect, a BF effect, or another effect can be obtained.
  • the power saving effect can be obtained by turning off the power of the signal processing unit 20C, grounding the negative electrode terminal of the speaker 50 by the switch unit 27L, and the like.
  • Such a seventh embodiment is suitable when a larger number of microphones are used for one channel and it is desired to improve the performance of various signal processing.
  • the acoustic signal generation units 15C and 25C are not limited to NC signal generation processing and BF signal generation processing, but perform external sound enhancement signal generation processing, specific frequency enhancement signal generation processing, arrival sound enhancement processing in a specific direction, and the like. This, or a combination of these, is also conceivable.
  • FIG. 15 shows an example in which, for example, the acoustic output device 1 having the same configuration as that of FIG. 4 further includes a configuration as a communication control unit 72.
  • the communication control unit 72 is, for example, a chip (System-on-a-chip) as a communication control unit for Bluetooth, and enables short-range wireless communication with the terminal device 90. Further, the communication control unit 72 can control the signal processing units 10 and 20 in the same manner as the CPU 70 shown in FIG. For example, the communication control unit 72 can perform power on / off control of the signal processing unit 20 and switching control of the switch units 27L and 27R. The communication control unit 72 can also control the stop of the signal generation functions of the acoustic signal generation units 15 and 16 of the signal processing unit 10.
  • the terminal device 90 transmits a control signal to the acoustic output device 1 according to the user's operation and various situations, and the communication control unit 72 controls the operation of the signal processing units 10 and 20.
  • the figure shows how an interface for operation is displayed on the screen of a terminal device 90 such as a smartphone so that the user can operate the power saving mode on / off.
  • the terminal device 90 transmits a control signal to the communication control unit 72.
  • the terminal device 90 is configured as a so-called information processing device, and internally has a processor such as a CPU, a storage unit such as a ROM, RAM, and a non-volatile memory, an interface device unit such as a display unit and an operation unit, various sensor units, and a communication device unit. It is configured with such as.
  • the CPU in the terminal device 90 performs the control signal transmission process by the process as shown in FIG.
  • step S101 the CPU of the terminal device 90 currently branches the process depending on whether it is in the auto mode or the manual mode.
  • the manual mode is a mode in which the signal processing unit 20 in the sound output device 1 is turned on / off according to the operation of the user.
  • the auto mode is a mode in which the signal processing unit 20 is automatically turned on / off according to the situation determination.
  • the CPU of the terminal device 90 monitors the user operation in steps S102 and S103. When it is detected that the user has performed the operation of turning off the power saving mode as shown in FIG. 15, the CPU of the terminal device 90 proceeds from step S102 to step S120, and the signal processing unit for the sound output device 1 20 on control signals are transmitted.
  • the communication control unit 72 of the acoustic output device 1 controls the on control of the signal processing unit 20 and the switching of the switch units 27L and 27R to the negative signal connection in response to receiving the on control signal.
  • a part of the processing function (for example, BF function) on the signal processing unit 10 side may be started. That is, by turning off the power saving mode, the signal processing units 10 and 20 are in a state of functioning together.
  • the CPU of the terminal device 90 proceeds from step S103 to step S121 and signals the sound output device 1.
  • the off control signal of the processing unit 20 is transmitted.
  • the communication control unit 72 of the acoustic output device 1 controls the power off control of the signal processing unit 20 and the switching of the switch units 27L and 27R to the ground connection in response to receiving the off control signal.
  • Some processing functions (for example, BF function) on the signal processing unit 10 side may be stopped. That is, by turning on the power saving mode, the signal processing unit 20 is turned off, and only the signal processing unit 10 side is in a functioning state.
  • step S101 the CPU of the terminal device 90 proceeds from step S101 to step S110 to perform the status determination process.
  • Various situation judgments can be considered as follows. -Judgment of ambient noise status-Judgment of current position status-Judgment of battery level status of sound output device 1 performed by communicating with communication control unit 72-Volume of sound output device 1 performed by communicating with communication control unit 72 Judgment of settings ⁇ Judgment of user's operation status (whether or not there is a large movement such as walking) ⁇ Judgment of user's physical condition (physical condition due to user's brain waves, pulse, blood pressure, etc.) ⁇ Judgment of playback acoustic status ( Acoustic signal SL, SR type, genre, volume, etc.)
  • the CPU of the terminal device 90 proceeds from step S111 to step S112 and transmits an on control signal or an off control signal to the acoustic output device 1. ..
  • the communication control unit 72 of the acoustic output device 1 controls on / off control of the signal processing unit 20 and switching of the switch units 27L and 27R in response to receiving the on control signal or the off control signal. A part of the processing functions on the signal processing unit 10 side may be started or stopped.
  • the acoustic output device 1 side can accurately control the on / off of the signal processing unit 20 accurately even if it does not have a computing resource or a detection means having a particularly high processing capacity. You will be able to do it.
  • the sound processing device of the embodiment is configured as the sound output device 1 itself such as headphones 1A, 1B, earphones 1C, 1D, or an internal circuit thereof.
  • Such an audio processing device uses the input audio signal from the first group of microphones 30 to generate a first signal that generates a positive signal to be supplied to the respective positive terminal terminals of the first and second speakers 50 and 60.
  • a second signal processing unit 20 that uses the input audio signals from the processing unit 10 and the second group of microphones 40 to generate a negative signal to be supplied to the negative terminals of the first and second speakers 50 and 60, respectively. To be equipped.
  • the signal processing units 10 and 20 can be variously configured together with the number and arrangement of the microphones 30 in the first group and the number and arrangement of the microphones 40 in the second group. Then, since the signal processing unit 10 generates and supplies a positive signal (positive electrode terminal signal) to the positive electrode terminals of the speakers 50 and 60, the signal processing unit 10 can function independently. Further, since the signal processing unit 20 generates and supplies a negative signal (negative electrode terminal signal) to each of the negative electrode terminals of the speakers 50 and 60, the signal processing unit 20 increases or changes the function of the signal processing unit 10. It can be configured so that it can be used. In some cases, the signal processing unit 20 may function independently.
  • the negative electrode terminals of the speakers 50 and 60 are configured to be switchable to the ground connection state.
  • the speakers 50 and 60 output acoustics only in response to the positive signal.
  • the signal processing unit 20 can be turned off. That is, depending on the situation, the signal processing units 10 and 20 can be made to function, and only the signal processing unit 10 side can be made to function. This makes it possible to reduce power consumption, lengthen the acoustic output time, switch desirable acoustic output according to the situation, and the like.
  • Switching between the state in which the signal processing unit 20 supplies a negative signal to each of the negative electrode terminals of the speakers 50 and 60 and the state in which each negative electrode terminal is connected to the ground can be switched according to a manual operation by the user or by automatic control. Switching by control via communication is expected.
  • a control unit that controls switching between a state in which the signal processing unit 20 supplies a negative signal to the negative electrode terminals of the speakers 50 and 60 and a state in which the negative electrode terminals are connected to the ground.
  • An example including a CPU 70 and a communication control unit 72) has been given.
  • the state in which the signal processing units 10 and 20 are made to function and the state in which only the signal processing unit 10 is made to function are automatically executed depending on the situation or executed according to the operation (including remote control). Will come to do. This makes it possible to reduce power consumption, lengthen the acoustic output time, switch desirable acoustic output according to the situation, and the like.
  • the control unit controls the signal processing unit 20 to turn off the power when the negative electrode terminals of the speakers 50 and 60 are connected to the ground.
  • the control unit controls the signal processing unit 20 to turn off the power when the negative electrode terminals of the speakers 50 and 60 are connected to the ground.
  • the power-off state may be a completely power-off state, or a state in which the power supply for the main processing is cut off, such as putting the signal processing unit 20 into a sleep state.
  • the control unit inputs the input audio signal from the group of microphones 30 from the signal processing unit 10 to perform audio signal analysis, and controls the signal processing unit 20 according to the analysis result.
  • the control unit inputs the input audio signal from the group of microphones 30 from the signal processing unit 10 to perform audio signal analysis, and controls the signal processing unit 20 according to the analysis result.
  • the signal processing unit 10 inputs the voice signals of the group of microphones 30, the CPU 70 can always detect and analyze the input voice signals. Therefore, for example, if the noise situation is determined by performing noise analysis and the signal processing unit 20 is turned on / off and the negative signal supply / ground connection is switched, the NC function is performed according to the surrounding noise situation. Can be automatically strengthened or made unnecessary. That is, the signal processing unit 20 can be made to function at an appropriate timing.
  • the control unit shows an example of controlling the signal processing unit 20 based on the information acquired by the communication from the terminal device 90 which is an external device.
  • the communication control unit 72 can acquire operation information and control information, for example, by communicating with the terminal device 90. Then, the communication control unit 72 controls the signal processing unit 20 according to the received information. This enables remote control using the terminal device 90 or the like. Further, it is possible to determine the surrounding environment state, noise state, current position, state of the sound output device 1, user situation, etc. using the resources of the terminal device 90, and control the signal processing unit 20 accordingly. It is possible to control the operation state to be suitable without increasing the processing load on the sound output device 1 side.
  • the terminal device 90 as an external device is not limited to a smartphone, but a personal computer, a mobile phone, a tablet terminal, a remote controller, and various other devices are assumed.
  • the signal processing unit 10 supplies the first acoustic signal generation unit 15 that generates the first positive signal supplied to the positive terminal of the speaker 50 and the positive terminal of the speaker 60.
  • the signal processing unit 20 has a second acoustic signal generation unit 16 that generates a second positive signal, and the signal processing unit 20 generates a third acoustic signal generation unit that generates a first negative signal to be supplied to the negative terminal of the speaker 50. It is assumed to have 25 and a fourth acoustic signal generation unit 26 that generates a second negative signal supplied to the negative terminal of the speaker 60. Thereby, for example, appropriate acoustic output can be performed from the L channel and R channel speakers 50 and 60, respectively.
  • the signal processing unit 10 supplies an NC signal based on the microphones (30FL, 30BL1, 30BL2) on the L channel side to the speaker 50 on the L channel, and supplies the NC signal to the speaker 50 on the R channel side. It can be said that the NC signal based on the microphones (30FR, 30BR1, 30BR2) of the above is supplied to the speaker 60 of the R channel.
  • the signal processing unit 20 side when the signal processing unit 20 side also generates a negative signal as an NC signal, the NC signal based on the microphones (40BL1, 40BL2, 40BL3) on the L channel side is supplied to the speaker 50 of the L channel, and R It can be said that the NC signal based on the microphones (40BR1, 40BR2, 40BR3) on the channel side is supplied to the speaker 60 of the R channel. That is, the signal processing units 10 and 20 can appropriately supply signals to the L channel and the R channel, respectively.
  • a configuration example in which the signal processing unit 10 branches the positive signal generated by one acoustic signal generation unit and supplies it to the positive electrode terminals of the speakers 50 and 60 can be considered.
  • a configuration example in which the signal processing unit 20 branches the negative signal generated by one acoustic signal generation unit and supplies it to the negative electrode terminals of the speakers 50 and 60 can be considered.
  • the signal processing units 10 and 20 include an acoustic signal generation unit (15, 16, 25, 26) that generates an NC signal.
  • an acoustic signal generation unit 15, 16, 25, 26
  • NC signal generation units 15A, 16A, 25A, 26A and the like and NC + BF signal generation units 15B, 16B.
  • NC signal generation units 15A, 16A, 25A, 26A and the like and NC + BF signal generation units 15B, 16B.
  • one or both of the signal processing units 10 and 20 includes an acoustic signal generation unit (15, 16, 25, 26) that generates a BF signal.
  • an acoustic signal generation unit 15, 16, 25, 26
  • the positive signals generated by the signal processing unit 10 include the acoustic signal generated by the acoustic signal generation units (15, 16) in the signal processing unit 10 and the input acoustic signal ( An example of a signal obtained by synthesizing SL and SR) has been described.
  • the signal processing unit 10 synthesizes the input acoustic signals SL and SR of music and the like and the internally generated acoustic signals (NC signal, BF signal, etc.) to obtain a positive signal, for example, music reproduction. NC processing and BF processing can be realized in the system. In that case, an appropriate operation can be realized by switching the signal processing units 10 and 20.
  • the signal processing unit 20 combines the input acoustic signals SL and SR of music and the like with the internally generated acoustic signal (NC signal, BF signal, etc.) to form a negative signal.
  • the positive signal generated by the signal processing unit 10 and the negative signal generated by the signal processing unit 20 include signal components having the same acoustic function.
  • the signal processing units 10 and 20 both generate NC signals, and the positive signal and the negative signal include NC signal components (or BF signal components).
  • the emphasis or cancellation of the function for example, NC function or BF function.
  • a signal component for a specific acoustic function is included in one of a positive signal generated by the signal processing unit 10 and a negative signal generated by the signal processing unit 20.
  • the signal component of the NC signal is included only in the positive signal. That is, the signal processing unit 10 generates an NC signal and a BF signal, and the positive signal includes an NC signal component and a BF signal component, while the signal processing unit 20 generates a BF signal and the negative signal contains a BF signal component (NC). Does not contain signal components).
  • the NC function it is possible to use the NC function only and the NC function and the BF function properly. Further, as a modified example of the configuration of the sixth embodiment, it is assumed that the power is turned off on the signal processing unit 10 side and the positive electrode terminals of the speakers 50 and 60 are connected to the ground. In that case, the NC function can be turned on / off depending on the situation. Although not shown, for example, if the signal processing unit 10 generates a positive signal including an NC signal component and the signal processing unit 20 generates a negative signal including a specific frequency emphasized signal component, signal processing can be performed. By turning on / off the unit 20, the specific frequency enhancement function can be turned on / off.
  • the operations of the signal processing units 10 and 20 can be executed according to the required functions, and the functions can be used properly or at the same time / one. It is possible to switch the part operation.
  • the acoustic output device 1 including the speakers 50 and 60 is mentioned.
  • the signal processing units 10 and 20 By realizing headphones and earphones incorporating the signal processing units 10 and 20, it is possible to provide headphones and earphones that are useful to the user.
  • the acoustic output device 1 including the first group of microphones 30 and the second group of microphones 40 is mentioned.
  • the microphones 30 and 40 By providing the microphones 30 and 40 and configuring the signal processing units 10 and 20 to process the audio signals picked up by them, signal processing can be performed appropriately according to a specific microphone arrangement, the number of microphones, and the like. This can be done in parts 10 and 20.
  • the microphones 30 and 40 necessary for the processing of the signal processing units 10 and 20 in an appropriate number and arrangement, the positive signal and the negative signal generated by the signal processing units 10 and 20 are used. The effect of the acoustic function can be made more appropriate.
  • the terminal device 90 is an information processing device capable of communicating with the sound output device 1 (sound processing device), and is sound based on the results of the situation determination process (S110) and the situation determination process.
  • An example of performing a transmission process (S112) for transmitting a control signal of the signal processing unit 20 to the output device 1 has been given.
  • the operating state of the sound output device 1 can be automatically controlled by determining the surrounding environment state, noise state, current position, state of the sound output device 1, user situation, and the like.
  • the sound output device 1 does not have to have the resource for the determination process.
  • the program of the embodiment is a program for causing, for example, a CPU, a DSP, etc. in an information processing device capable of communicating with an audio processing device, or a device including these to execute the processing as shown in FIG. That is, the program of the embodiment is a program that causes the acoustic output device 1 to execute the situation determination process and the transmission process of transmitting the control signal of the signal processing unit 20 based on the result of the situation determination process. .. With such a program, the terminal device 90 described above can be realized.
  • Such a program can be recorded in advance in an HDD as a recording medium built in a device such as a terminal device 90, a ROM in a microcomputer having a CPU, or the like.
  • a recording medium built in a device such as a terminal device 90, a ROM in a microcomputer having a CPU, or the like.
  • flexible discs CD-ROMs (Compact Disc Read Only Memory), MO (Magneto Optical) discs, DVDs (Digital Versatile Discs), Blu-ray discs (Blu-ray Discs (registered trademarks)), magnetic discs, semiconductor memories, It can be temporarily or permanently stored (recorded) on a removable recording medium such as a memory card.
  • a removable recording medium can be provided as so-called package software.
  • it can also be downloaded from a download site via a network such as a LAN (Local Area Network) or the Internet.
  • LAN Local Area Network
  • the terminal device 90 of the embodiment it is suitable for a wide range of provision of the terminal device 90 of the embodiment.
  • a mobile terminal device such as a smartphone or tablet, a mobile phone, a personal computer, a game device, a video device, a PDA (Personal Digital Assistant), etc.
  • these devices function as the terminal device 90 of the present disclosure.
  • a mobile terminal device such as a smartphone or tablet
  • a mobile phone such as a personal computer, a game device, a video device, a PDA (Personal Digital Assistant), etc.
  • PDA Personal Digital Assistant
  • the sound processing device (sound output device 1 itself or its built-in device, or a separate device) of the embodiment is not limited to devices such as headphones and earphones for playing music and the like, but also headphones for calling, earphones, and the like. , Can also be realized as a sound collector, hearing aid, etc. It is also applicable not only to wearable headphones and earphones, but also as a stationary speaker system.
  • the present technology can also adopt the following configurations.
  • a first signal processing unit that generates a positive signal to be supplied to the respective positive electrode terminals of the first speaker and the second speaker by using the input audio signal from the first group of microphones.
  • An acoustic system including a second signal processing unit that generates a negative signal to be supplied to each negative terminal of the first speaker and the second speaker by using an input audio signal from a second group of microphones. Processing equipment.
  • a state in which a negative signal is supplied to the negative electrode terminal of the first speaker and the negative electrode terminal of the second speaker and a state in which the negative signal is connected to the ground can be switched.
  • the acoustic processing device which includes a control unit that controls the switching.
  • the control unit controls the power off of the second signal processing unit when the negative electrode terminal of the first speaker and the negative electrode terminal of the second speaker are connected to the ground. Sound processing equipment.
  • the control unit The input audio signal from the first group of microphones is input from the first signal processing unit to perform audio signal analysis, and the second signal processing unit is controlled according to the analysis result (3). ) Or (4).
  • the sound processing device according to any one of (3) to (5) above, wherein the control unit controls the second signal processing unit based on information acquired by communication from an external device.
  • the first signal processing unit A first acoustic signal generation unit that generates a first positive signal supplied to the positive electrode terminal of the first speaker, and a first acoustic signal generation unit.
  • a second acoustic signal generation unit that generates a second positive signal supplied to the positive electrode terminal of the second speaker, and Have
  • the second signal processing unit A third acoustic signal generation unit that generates a first negative signal supplied to the negative electrode terminal of the first speaker, and a third acoustic signal generation unit.
  • (8) One or both of the first signal processing unit and the second signal processing unit The acoustic processing apparatus according to any one of (1) to (7) above, comprising an acoustic signal generation unit that generates a noise canceling signal.
  • One or both of the first signal processing unit and the second signal processing unit The acoustic processing apparatus according to any one of (1) to (8) above, comprising an acoustic signal generation unit that generates a beamforming signal.
  • the positive signal generated by the first signal processing unit is a signal obtained by synthesizing the acoustic signal generated by the acoustic signal generation unit in the first signal processing unit and the input acoustic signal. ).
  • the sound processing apparatus according to any one of. (11)
  • the positive signal generated by the first signal processing unit and the negative signal generated by the second signal processing unit are described in any one of (1) to (10) above, which include signal components having the same acoustic function. Sound processing equipment.
  • the signal component for a specific acoustic function is included in one of a positive signal generated by the first signal processing unit and a negative signal generated by the second signal processing unit (1).
  • the sound processing apparatus according to any one of.
  • the sound processing device comprising the first speaker and the second speaker.
  • the sound processing apparatus according to any one of (1) to (13) above, comprising the first group of microphones and the second group of microphones.
  • a first signal processing that uses the input audio signal from the first group of microphones to generate a positive signal to be supplied to the respective positive electrode terminals of the first speaker and the second speaker.
  • a second signal processing that uses the input audio signal from the second group of microphones to generate a negative signal to be supplied to the respective negative electrode terminals of the first speaker and the second speaker. Sound processing method to perform.
  • a first signal processing unit that uses the input audio signal from the first group of microphones to generate a positive signal to be supplied to the respective positive terminal of the first speaker and the second speaker, and a second group of microphones.
  • a first signal processing unit that uses the input audio signal from the first group of microphones to generate a positive signal to be supplied to the respective positive terminal of the first speaker and the second speaker, and a second group of microphones. Can communicate with an audio processing device including a second signal processing unit that generates a negative signal to be supplied to each negative terminal of the first speaker and the second speaker by using the input voice signal by the above.
  • Situation judgment processing and A transmission process for transmitting a control signal of the second signal processing unit to the sound processing device based on the result of the situation determination process, and a transmission process.
  • a program that executes.
  • the "first pole terminal” in (101) to (117) below is a positive electrode terminal
  • the "first signal” is a positive signal
  • the “second pole terminal” is a negative electrode terminal
  • the “second signal” is a negative signal.
  • the "first pole terminal” is the negative electrode terminal
  • the "first signal” is the negative signal
  • the “second pole terminal” is the positive electrode terminal
  • the “second signal” can also be considered as a positive signal, and in that case, the same effect as that described in the embodiment can be obtained.
  • a first signal processing unit that generates a first signal to be supplied to the respective first pole terminals of the first speaker and the second speaker by using the input voice signal from the first group of microphones.
  • a second signal processing unit that generates a second signal to be supplied to the respective second pole terminals of the first speaker and the second speaker by using the input audio signal from the second group of microphones. Equipped with sound processing equipment.
  • (102) A state in which the second signal is supplied to the second pole terminal of the first speaker and the second pole terminal of the second speaker and a state in which the second signal is connected to the ground can be switched.
  • the sound processing device according to any one of (103) to (105) above, wherein the control unit controls the second signal processing unit based on information acquired by communication from an external device.
  • the first signal processing unit A first acoustic signal generation unit that generates a first first signal supplied to the first pole terminal of the first speaker, and a first acoustic signal generation unit.
  • a second acoustic signal generation unit that generates a second first signal supplied to the first pole terminal of the second speaker, and a second acoustic signal generation unit.
  • the second signal processing unit A third acoustic signal generation unit that generates a first second signal supplied to the second pole terminal of the first speaker, and a third acoustic signal generation unit.
  • a fourth acoustic signal generation unit that generates a second second signal supplied to the second pole terminal of the second speaker, and a fourth acoustic signal generation unit.
  • the acoustic processing apparatus according to any one of (101) to (106) above.
  • One or both of the first signal processing unit and the second signal processing unit The acoustic processing apparatus according to any one of (101) to (107) above, comprising an acoustic signal generation unit that generates a noise canceling signal.
  • One or both of the first signal processing unit and the second signal processing unit The acoustic processing apparatus according to any one of (101) to (108) above, which includes an acoustic signal generation unit that generates a beamforming signal.
  • the first signal generated by the first signal processing unit is a signal obtained by synthesizing an acoustic signal generated by an acoustic signal generation unit in the first signal processing unit and an input acoustic signal from the above (101).
  • the sound processing apparatus according to any one of (109).
  • the first signal generated by the first signal processing unit and the second signal generated by the second signal processing unit include any of the above (101) to (110) including signal components having the same acoustic function.
  • the sound processing device described in. (112) The signal component for a specific acoustic function is included in one of the first signal generated by the first signal processing unit and the second signal generated by the second signal processing unit (the above).
  • the sound processing apparatus according to any one of 101) to (111).
  • the sound processing apparatus according to any one of (101) to (112), further comprising the first speaker and the second speaker.
  • a first signal processing that uses the input audio signal from the first group of microphones to generate a first signal to be supplied to the respective first pole terminals of the first speaker and the second speaker.
  • a second signal processing that uses the input audio signal from the second group of microphones to generate a second signal to be supplied to the respective second pole terminals of the first speaker and the second speaker. Sound processing method to perform.
  • a first signal processing unit and a second signal processing unit that generate a first signal to be supplied to the respective first pole terminals of the first speaker and the second speaker by using the input audio signal from the first group of microphones.
  • An acoustic system including a second signal processing unit that uses input audio signals from a group of microphones to generate a second signal to be supplied to the respective second pole terminals of the first speaker and the second speaker.
  • a first signal processing unit and a second signal processing unit that generate a first signal to be supplied to the respective first pole terminals of the first speaker and the second speaker by using the input audio signal from the first group of microphones.
  • An acoustic system including a second signal processing unit that uses input audio signals from a group of microphones to generate a second signal to be supplied to the respective second pole terminals of the first speaker and the second speaker.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Otolaryngology (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Soundproofing, Sound Blocking, And Sound Damping (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

第1の一群のマイクロフォンによる入力音声信号を用いて、第1のスピーカ及び第2のスピーカにおけるそれぞれの正極端子に供給するポジティブ信号を生成する第1の信号処理部と、第2の一群のマイクロフォンによる入力音声信号を用いて、第1のスピーカ及び第2のスピーカにおけるそれぞれの負極端子に供給するネガティブ信号を生成する第2の信号処理部と、を備えるようにする。

Description

音響処理装置、音響処理方法、制御方法、プログラム
 本技術は音響処理装置、音響処理方法、制御方法、プログラムに関し、例えばヘッドフォンやイヤフォンのシステムなどに好適な技術に関する。
 近年、ヘッドフォンやイヤフォンなどの音響出力装置においては、例えばワイヤレス通信機能、ノイズキャンセル機能、ビームフォーミング機能など、高度な付加機能が搭載されるものがある。
 下記特許文献1には音響出力装置に搭載できるノイズキャンセリングシステムに関する技術が開示されている。
特開2008-193421号公報
 ところで多様な機能の搭載により、ヘッドフォン等の音響出力装置において、CPU(Central Processing Unit)、DSP(Digital Signal Processor)等として音響信号処理や制御用のプロセッサが搭載されたり、ブルートゥース(BLUETOOTH:登録商標)などの近距離無線通信のための送受信用ユニットが搭載されたりする現状があるが、必ずしも適宜必要に応じた動作とはなっておらず、無駄な消費電力を発生させることも多い。
 そこで本技術は、例えば複数の信号処理部を有する構成において、より的確な処理を実行できるようにする技術を提案する。
 本技術に係る音響処理装置は、第1の一群のマイクロフォンによる入力音声信号を用いて、第1のスピーカ及び第2のスピーカにおけるそれぞれの正極端子に供給するポジティブ信号を生成する第1の信号処理部と、第2の一群のマイクロフォンによる入力音声信号を用いて、前記第1のスピーカ及び前記第2のスピーカにおけるそれぞれの負極端子に供給するネガティブ信号を生成する第2の信号処理部と、を備える。
 このような音響処理装置は、例えばヘッドフォン、イヤフォン、スピーカシステムなど、複数のスピーカ(ドライバ)を有する機器やシステムに適用できる信号処理を行う。
 上記した本技術に係る音響処理装置においては、前記第1のスピーカの負極端子及び前記第2のスピーカの負極端子に対して、ネガティブ信号を供給する状態と、グランド接続される状態とが切り替え可能な構成とされていることが考えられる。
 負極端子をグランド接続することで、第1、第2のスピーカは、それぞれ正極端子に与えられるポジティブ信号に応じた音響出力を行う状態となる。
 上記した本技術に係る音響処理装置においては、前記第1のスピーカの負極端子及び前記第2のスピーカの負極端子に対して、ネガティブ信号を供給する状態と、グランド接続される状態とが切り替え可能な構成とされており、当該切り替えの制御を行う制御部を備えることが考えられる。
 制御部は、例えばプロセッサ(演算処理装置)により構成され、所定の切り替え判定により、負極端子にネガティブ信号を供給する状態と、負極端子をグランド接続する状態を切り替える制御を行う。
 上記した本技術に係る音響処理装置においては、前記制御部は、前記第1のスピーカの負極端子及び前記第2のスピーカの負極端子をグランド接続状態とする場合、前記第2の信号処理部を電源オフに制御することが考えられる。
 即ちネガティブ信号を生成する必要がない場合に、第2の信号処理部を電源オフ制御とする。電源オフ状態とは、完全な電源オフでもよいし、第2の信号処理部をスリープ状態とするなど、主たる処理の電源供給を絶つ状態でもよい。
 上記した本技術に係る音響処理装置においては、前記制御部は、前記第1の一群のマイクロフォンによる入力音声信号を、前記第1の信号処理部から入力して音声信号解析を行い、解析結果に応じて、前記第2の信号処理部の制御を行うことが考えられる。
 第2の信号処理部の制御とは、例えば負極端子についてのネガティブ信号供給/グランド接続の切り替え制御や、第2の信号処理部の電源オン/オフの制御などが想定される。
 上記した本技術に係る音響処理装置においては、前記制御部は、外部装置からの通信により取得した情報に基づいて、前記第2の信号処理部の制御を行うことが考えられる。
 この場合も第2の信号処理部の制御とは、例えば負極端子についてのネガティブ信号供給/グランド接続の切り替え制御や、第2の信号処理部の電源オン/オフの制御などが想定される。外部装置とは、例えば携帯端末装置や遠隔操作装置などが想定される。
 上記した本技術に係る音響処理装置においては、前記第1の信号処理部は、前記第1のスピーカの正極端子に供給する第1のポジティブ信号を生成する第1の音響信号生成部と、前記第2のスピーカの正極端子に供給する第2のポジティブ信号を生成する第2の音響信号生成部と、を有し、前記第2の信号処理部は、前記第1のスピーカの負極端子に供給する第1のネガティブ信号を生成する第3の音響信号生成部と、前記第2のスピーカの負極端子に供給する第2のネガティブ信号を生成する第4の音響信号生成部と、を有することが考えられる。
 即ち第1の信号処理部では、第1,第2の音響信号生成部で、第1,第2のスピーカのそれぞれに対して個別のポジティブ信号を生成し、同様に第2の信号処理部では、第3,第4の音響信号生成部で、第1,第2のスピーカのそれぞれに対して個別のネガティブ信号を生成する構成とする。
 上記した本技術に係る音響処理装置においては、前記第1の信号処理部と前記第2の信号処理部の一方又は両方は、ノイズキャンセリング信号を生成する音響信号生成部を備えることが考えられる。
 ポジティブ信号、又はネガティブ信号の一方又は両方としてノイズキャンセリング信号が生成され、第1,第2のスピーカに供給される構成とする。
 上記した本技術に係る音響処理装置においては、前記第1の信号処理部と前記第2の信号処理部の一方又は両方は、ビームフォーミング信号を生成する音響信号生成部を備えることが考えられる。
 ポジティブ信号、又はネガティブ信号の一方又は両方としてビームフォーミング信号が生成され、第1,第2のスピーカに供給される構成とする。
 上記した本技術に係る音響処理装置においては、前記第1の信号処理部が生成するポジティブ信号は、第1の信号処理部内の音響信号生成部で生成した音響信号と、入力された音響信号を合成した信号であることが考えられる。
 例えば音響信号生成部でノイズキャンセリング信号やビームフォーミング信号が生成されるとともに、入力された音楽等の音響信号が合成されてポジティブ信号とされる。
 上記した本技術に係る音響処理装置においては、前記第1の信号処理部が生成するポジティブ信号と、前記第2の信号処理部が生成するネガティブ信号は、同じ音響機能の信号成分を含むようにすることが考えられる。
 例えば機能とは、ノイズキャンセリング機能、外音強調機能、特定周波数強調機能、ビームフォーミングによるボイス強調機能、特定方向の到来音強調機能など、各種の音響的な機能である。第1,第2の信号処理部は、同じ機能の信号を生成する構成が想定される。
 上記した本技術に係る音響処理装置においては、特定の音響機能のための信号成分が、前記第1の信号処理部が生成するポジティブ信号と、前記第2の信号処理部が生成するネガティブ信号のうちの一方に含まれるようにすることが考えられる。
 第1,第2の信号処理部の一方でのみ、或る機能の信号が生成される構成が想定される。
 上記した本技術に係る音響処理装置においては、前記第1のスピーカと、前記第2のスピーカと、を備えることが考えられる。
 例えばスピーカを有するステレオヘッドフォン、ステレオイヤフォンなどに第1の信号処理部、第2の信号処理部が内蔵される構成例が想定される。
 上記した本技術に係る音響処理装置においては、前記第1の一群のマイクロフォンと、前記第2の一群のマイクロフォンと、を備えることが考えられる。
 例えばノイズキャンセリング信号やビームフォーミング信号の生成のための外来音声収音のためのマイクロフォンを備えた構成とする。
 本技術に係る制御方法は、上記の音響処理装置と通信可能な情報処理装置の制御方法として、状況判定処理と、前記状況判定処理の結果に基づいて、前記音響処理装置に対して、前記第2の信号処理部の制御信号を送信する送信処理とを行う。
 第2の信号処理部の制御とは、例えば負極端子についてのネガティブ信号供給/グランド接続の切り替え制御や、第2の信号処理部の電源オン/オフの制御などが想定される。このような制御を、例えば携帯端末等の情報処理装置から行う。
 状況判定処理とは、周囲の環境状況、ノイズ状況、現在位置状況、音響処理装置の状況、ユーザ状況などの判定が想定される。
 本技術に係るプログラムは、このような制御方法を情報処理装置に実行させるプログラムである。このプログラムにより制御方法を実行する情報処理装置を実現する。
本技術の実施の形態の音響出力装置の例の説明図である。 実施の形態の音響出力装置の例の説明図である。 第1の実施の形態の音響処理装置のブロック図である。 第2の実施の形態の音響処理装置のブロック図である。 比較例のノイズキャンセリング処理の構成のブロック図である。 比較例のノイズキャンセリングシステム構成の説明図である。 第3の実施の形態のノイズキャンセリングシステム構成の説明図である。 第3の実施の形態の音響処理装置のブロック図である。 第4の実施の形態の音響処理装置のブロック図である。 第5の実施の形態の音響処理装置のブロック図である。 第6の実施の形態の構成の説明図である。 第6の実施の形態の音響処理装置のブロック図である。 第7の実施の形態の構成の説明図である。 第7の実施の形態の音響処理装置のブロック図である。 第8の実施の形態の説明図である。 第8の実施の形態の端末装置の処理のフローチャートである。
 以下、実施の形態を次の順序で説明する。
<1.音響出力装置の例>
<2.第1,第2の実施の形態>
<3.NC処理に適用した例>
 [3-1:比較例]
 [3-2:第3の実施の形態]
 [3-3:第4の実施の形態]
 [3-4:第5の実施の形態]
<4.BF処理及びNC処理への適用:第6の実施の形態>
<5.左右分離型イヤフォンへの適用:第7の実施の形態>
<6.外部装置と連携:第8の実施の形態>
<7.まとめ及び変形例>
<1.音響出力装置の例>
 実施の形態として実現されうる本技術の音響処理装置の例を図1,図2に挙げる。
 音響処理装置は、例えば図1、図2に示す音響出力装置1自体として実現されたり、音響出力装置1に内蔵される、あるいは着脱可能な、音響処理回路、音響処理ユニット等として実現されたりする。
 音響出力装置1の例として、図1にはオーバーヘッド型のヘッドフォン1A、1Bや、カナル型のイヤフォン1Cを示している。また図2Aにはネックバンド型のイヤフォン1Dを示している。
 ヘッドフォン1A、1B、イヤフォン1C、1Dは、それぞれ左耳に対応する左筐体5L、右耳に対応する右筐体5Rを備える。左筐体5L、右筐体5Rは、オーバーヘッド型のヘッドフォンにおけるイヤーパッド部の筐体や、イヤフォンの耳孔挿入部分やその近辺の筐体などである。
 ヘッドフォン1A、1Bはユーザがヘッドバンドを頭部に装着することで左筐体5L、右筐体5Rがユーザの左耳、右耳を覆うように位置する。イヤフォン1C、1Dはユーザが装着することで、左筐体5L、右筐体5Rの一部がユーザの左耳孔、右耳孔に挿入される。なおネックバンド型のイヤフォン1Dは、図2Bのようにユーザがネックバンド部分を首にかけた状態で、左筐体5L、右筐体5Rを左耳孔、右耳孔に挿入して使用することが想定される。
 これら左筐体5Lと右筐体5Rは、ヘッドバンド、コード、ネックバンドなどにより物理的に連続されており、それらの内部に音響信号等を伝送する配線を形成することが可能である。
 なお、ヘッドフォン1Bは、例えばスマートフォン等の端末装置90と無線通信可能な装置とした例である。例えばヘッドフォン1Bは、端末装置90から音楽等の音響信号が送信されて、音楽再生を行うことが可能とされる。さらに各種の制御信号の無線伝送が行われるようにしてもよい。
 図1,図2のヘッドフォン1A、1B、イヤフォン1C、1Dは一例であり、他にも音響出力装置1としては、インナーイヤー型のイヤフォン、2チャネルや3チャネル以上のスピーカシステムなども考えられる。
 また実施の形態の音響処理装置は、以上のヘッドフォン、イヤフォン、スピーカシステムのような音響出力装置1自体や、音響出力装置1に内蔵あるいは装着されるユニット等としての形態に限らず、例えばヘッドフォン、イヤフォン、スピーカ等とは別体で使用される音響処理デバイスとして実現されるようにしてもよい。
 実施の形態の音響出力装置1(あるいは音響処理装置)は、例えば左筐体5Lと右筐体5Rのように、左チャネルと右チャネルなどの各チャネルの音響出力を行う部位が物理的に連続して有線通信を行うものであることが好適である。特に後述する第3から第6の実施の形態のようにノイズキャンセリング機能やビームフォーミング機能を備える場合に好適となる。
 但し具備する機能によっては、例えば左筐体5Lと右筐体5Rが物理的に連続しておらず、無線通信を行う形態でもよい。例えば無線通信による処理負荷の増加、遅延等が問題とならないような機能、構成を有する場合、例えば左筐体5Lと右筐体5Rの間で無線通信を行う構成としてもよい。
 また、第7の実施の形態で述べるが、左右分離型のイヤフォン(ヘッドフォン)であっても本開示の技術は適用できる。
<2.第1,第2の実施の形態>
 以下、ヘッドフォン1A、1B、あるいはイヤフォン1C、1Dのような音響出力装置1を想定して実施の形態の構成の詳細を説明していく。
 図3は第1の実施の形態としての音響出力装置1の構成を示す。
 音響出力装置1は、信号処理部10,20を有する。信号処理部10,20は、それぞれLSIチップ等として形成され、具体的にはCPU、DSP等のプロセッサ(演算処理装置)を含む、もしくはプロセッサと周辺回路を含むチップとされる。
 この信号処理部10,20は、それぞれが音響出力装置1の左筐体5Lと右筐体5Rに分かれて配置されてもよいし、信号処理部10,20の両方が左筐体5Lに収納されたり、両方が右筐体5Rにされたりしてもよい。
 信号処理部10は、複数のマイクロフォン30、複数の各マイクロフォン30に対応する複数のA/D変換器(以下「ADC」と表記)11、音響信号生成部15,16、加算器12L、12R、パワーアンプ13L、13R、D/A変換器(以下「DAC」と表記)14L、14R、音質補正処理部18を有する。
 なお、マイクロフォン30は、収音により得た音声信号に対するマイクアンプも含むものとして示しているが、例えばADC11の前段にマイクアンプが別途設けられてもよい。後述のマイクロフォン40及び他の図で示すマイクロフォンも同様である。
 信号処理部20は、複数のマイクロフォン40、複数の各マイクロフォン30に対応する複数のADC21、音響信号生成部25,26、パワーアンプ23L、23R、DAC24L、24Rを有する。
 複数のマイクロフォン30は、全てが左筐体5Lに設けられる場合もあるし、全てが右筐体5Rに設けられる場合もある。また複数のマイクロフォン30は、一部が左筐体5L、一部が右筐体5Rに分かれて設けられる場合もある。
 複数のマイクロフォン40も同様であり、全てが左筐体5Lに設けられる場合もあるし、全てが右筐体5Rに設けられる場合もある。また複数のマイクロフォン40は、一部が左筐体5L、一部が右筐体5Rに分かれて設けられる場合もある。
 従って例えば左筐体5Lや右筐体5Rに、マイクロフォン30、40の両方が配置される場合もある。
  なお、マイクロフォン30、40は音響出力装置1とは別体とされ、収音した音声信号を無線通信により信号処理部10,20に送信してくる構成も考えられる。
 このようなマイクロフォン30、40は、例えば周囲環境の音声の収音を行うことを想定するものであるが、具体的にはノイズキャンセリング処理やビームフォーミング処理などの機能を実現するために設けられる。
 スピーカ50,60は、例えばLチャネル、Rチャネルに対応したスピーカとされ、スピーカ50は左筐体5Lに配置され、スピーカ60は右筐体5Rに配置される。これによりユーザの左右の耳に対して音響出力を行う。
 本実施の形態の場合、L(左)チャネル、R(右)チャネルのL/Rステレオ音響出力装置を例にして説明するが、信号処理部10、20は、Lチャネル、Rチャネルに個別に対応するものではない。つまり信号処理部10,20は、チャネルに1:1で対応するものとは限らない。
 信号処理部10は、スピーカ50,60の各正極端子(+端子やポジティブ端子ともいわれる)に供給するポジティブ信号を生成する機能を有する。つまり信号処理部10はポジティブ信号生成デバイスである。
 信号処理部20は、スピーカ50,60の各負極端子(-端子やネガティブ端子ともいわれる)に供給するネガティブ信号を生成する機能を有する。つまり信号処理部20はネガティブ信号生成デバイスである。
 なお本開示において「ポジティブ信号」とは、正極端子に供給する信号(又は信号成分)という意味で用いており、信号の種類、例えばどのような音声の信号であるとか、ネガティブ信号との位相関係とかを規定するものではない。
 同様に「ネガティブ信号」とは、負極端子に供給する信号(又は信号成分)という意味で、信号の種類、例えばどのような音声の信号であるとか、ポジティブ信号との位相関係とかを規定するものではない。
 このような構成において、マイクロフォン30からの入力音声信号は、ADC11でデジタル信号に変換され、音響信号生成部15,16に入力される。
 この例では、音響信号生成部15は、Lチャネル用の音響信号を生成し、生成した音響信号を加算器12Lに供給する。
 また音響信号生成部16は、Rチャネル用の音響信号を生成し、生成した音響信号を加算器12Rに供給する。
 信号処理部10には、外部からLチャネルの音響信号SLとRチャネルの音響信号SRが入力される。音響信号SL、SRとしては、例えば音楽ソースからの音楽、通話音声、放送・通信の音声など(以下これらを「音楽等」とする)が想定される。
 音響信号SL、SRは音質補正処理部18で信号処理される。例えばイコライジング、トーンコントロール、音量調整、リバーブ・エコー、ピッチ変換等の特殊エフェクト、音響信号SL、SR自体のノイズリダクションなどの処理などが行われることが考えられる。
 音質補正処理を施された音響信号SL、SRは、それぞれ加算器12L、12Rに供給される。
 加算器12Lでは、音響信号生成部15で生成された音響信号と、音響信号SLが合成される。そして加算器12Lの出力はパワーアンプ13Lで増幅され、DAC14Lでアナログ信号に変換されてスピーカ50の正極端子に供給される。これによりポジティブ信号に基づくLチャネルの音響出力が実行される。
 加算器12Rでは、音響信号生成部16で生成された音響信号と、音響信号SRが合成される。そして加算器12Rの出力はパワーアンプ13Rで増幅され、DAC14Rでアナログ信号に変換されてスピーカ60の正極端子に供給される。これによりポジティブ信号に基づくLチャネルの音響出力が実行される。
 なお、このような構成の場合、「ポジティブ信号」とは、音響信号生成部15、16で生成される音響信号の意味(正極端子に供給する信号の「成分」)でとらえてもよいし、加算器12L、12Rで合成された後の音響信号の意味(正極端子に供給する信号「自体」)でとらえてもよい。
 一方、マイクロフォン40によって収音された音声信号は、ADC21でデジタル信号に変換され、音響信号生成部25,26に入力される。
 この例では、音響信号生成部25は、Lチャネル用の音響信号を生成し、生成した音響信号をパワーアンプ23Lに供給する。そしてパワーアンプ23Lで増幅された音響信号(ネガティブ信号)は、DAC24Lでアナログ信号に変換されてスピーカ50の負極端子に供給される。これによりネガティブ信号に基づくLチャネルの音響出力が実行される。
 また、音響信号生成部26は、Rチャネル用の音響信号を生成し、生成した音響信号をパワーアンプ23Rに供給する。そしてパワーアンプ23Rで増幅された音響信号(ネガティブ信号)は、DAC24Rでアナログ信号に変換されてスピーカ60の負極端子に供給される。これによりネガティブ信号に基づくRチャネルの音響出力が実行される。
 なお、この構成の場合、「ネガティブ信号」とは、音響信号生成部25、26で生成される音響信号の意味(正極端子に供給する信号「自体」)となるが、例えば信号処理部10のように加算器で他の音響信号と加算が行われる構成も考えられ、その場合、ネガティブ信号が、加算後の音響信号として正極端子に供給する信号「自体」ととらえてもよいし、加算後の信号における成分(音響信号生成部25、26で生成される音響信号)として解釈されてもよい。
 この図3のような構成の場合、まずスピーカ50,60の正極端子には音楽等の音響信号SL、SRが供給されるため、音楽等の再生が通常に行われる。
 これに加えて、音響信号生成部15、16、25、26で生成される音響信号に基づく音響出力も行われることになる。
 音響信号生成部15、16、25、26が行う処理としては、以下例示するように多様に考えられる。
・ノイズキャンセル信号生成処理
・外音強調信号生成処理
・特定周波数強調信号生成処理
・ビームフォーミングによるボイス強調信号処理
・特定方向の到来音強調処理
 音響信号生成部15、16、25、26は、これらの一部又は組み合わせとして機能することが想定される。
 例えば音響信号生成部15、16、25、26の全てがノイズキャンセリング信号生成処理部とされてもよい。
 また音響信号生成部15、16、25、26の全てがビームフォーミング信号生成処理部とされてもよい。
 またポジティブ信号を生成する音響信号生成部15、16がノイズキャンセリング信号生成処理部とされ、ネガティブ信号を生成する音響信号生成部25、26がビームフォーミング信号生成処理部とされるように、ポジティブ信号とネガティブ信号が異なる機能の信号とされてもよい。
 またLチャネルのスピーカ50に対するポジティブ信号とネガティブ信号を生成する音響信号生成部15、25が上記のうちの同種の信号生成処理を行い、Rチャネルのスピーカ50に対するポジティブ信号とネガティブ信号を生成する音響信号生成部16、26が上記のうちで同種の信号生成処理(但しLチャネル側とは別)を行うようにしてもよい。
 また音響信号生成部15、16、25、26の全てが、上記のうちで異なる種類の信号生成処理部とされてもよい。
 また音響信号生成部15、16、25、26のそれぞれは、上記のうちの複数の種類の信号生成処理を行うようにしてもよい。例えば特定方向の到来音強調かつ特定周波数強調の信号生成や、ノイズキャンセリングかつビームフォーミングの信号生成などである。
 もちろん上記の例示に限らず、音響信号生成部15、16、25、26がどのような信号生成処理を行うかは多様に考えられる。
 いずれにしても、信号処理部10,20は、両方が機能してもよいし、一方が機能してもよい。信号処理部10,20が、それぞれポジティブ信号とネガティブ信号をスピーカ50,60に供給することで、機能を増強する信号出力を行うことが可能となる。
 ここで、図3に一部構成を追加した第2の実施の形態の構成を図4で説明しておく。
 図4は信号処理部20においてスイッチ部27L、27Rが設けられている点が図3と異なるのみである。
 スイッチ部27L、27Rは、スピーカ50,60の負極端子に音響信号生成部25,26からのネガティブ信号を供給する状態と、スピーカ50,60の負極端子をグランド(GND)に接続する状態とを切り替えるスイッチである。
 スピーカ50,60の負極端子がグランド接続されることで、当該音響出力装置1は、信号処理部10側のみで音響再生が実行できる状態となる。例えば音響信号SL、SRによる音楽等の再生が行われるとともに、音響信号生成部15、16により生成された音響信号の出力が行われる。この場合、信号処理部20は電源オフとされていてもよい。
 一方、スピーカ50,60の負極端子に音響信号生成部25,26からのネガティブ信号を供給する状態とされると図3と同様の構成となる。
 つまり、信号処理部10,20は、両方が機能してもよいし、信号処理部10のみが機能してもよい。信号処理部10,20が、それぞれポジティブ信号とネガティブ信号をスピーカ50,60に供給することで、機能を増強する信号出力を行うことが可能となる。
 加えて、信号処理部10は、スピーカ50,60の正極端子に音響信号(ポジティブ信号)を供給するため、信号処理部10のみでステレオ出力が実行可能である。つまり信号処理部20が動作オフであってもよい。音楽等の再生システムとしても通常に動作できる。
 なお、スイッチ部27L,27Rは、信号処理部20の内部回路として示しているが、信号処理部20の外部の回路として構成されてもよい。
 また、スピーカ50,60の正極端子をグランド接続に切り替えるようなスイッチ部を設け、信号処理部10が電源オフで信号処理部20のみが機能し、音響信号生成部25,26からのネガティブ信号がスピーカ50,60の負極端子に供給されるようにしてもよい。この場合、信号処理部20のみが機能して、外来音等のステレオ出力が実行可能である。
<3.NC処理に適用した例>
 [3-1:比較例]

 第3の実施の形態以降では、より具体的な信号生成に適用する例を説明していく。
 なお本開示の説明や図面においては、「ノイズキャンセリング」を「NC」と表記する場合がある。また「ビームフォーミング」を「BF」と表記する場合がある。
 また、以下では、「信号処理部」について機能等に応じて符号「10A」「10B」「10C」を用いるが、機能によらずに総称する場合は「信号処理部10」と表記する。「信号処理部20」ついても同様である。
  また、音響信号生成部15,16,25,26については、機能に応じて異なる名称を付し、符号には、同じ数字に続けてアルファベットや数字を付加する(例えば「NC信号生成部15A」など)が、総称する場合は、「音響信号生成部15」等と図3の表現で記載する。
 マイクロフォン30、マイクロフォン40に対しても、語尾にアルファベット」や数字を付加する場合があるが、総称する場合は「マイクロフォン30」「マイクロフォン40」と表記する。
 第3から第6の実施の形態ではNC機能を備えた音響出力装置1を説明するが、まずここでは、NCシステムについて簡単に説明する。
 一般にNCシステムでは、周囲ノイズ集音用のマイクロフォンで集音されたノイズ信号から、ユーザの耳元で音圧が最小となるような逆位相のNC信号を生成し、騒音を打ち消す構成が知られている。
 図5にNCシステムの構成例を示している。
 マイクロフォン130で集音されたノイズ信号は、マイクアンプ101L、ADC102Lを経てDNC(デジタルノイズキャンセリング)フィルタ103Lに入力され、DNCフィルタ103LでNC信号が生成される。NC信号はアンプ104Lを介して加算器105Lに供給され、音楽等の音響信号SLと合成される。なお音響信号SLは例えばイコライザ106L,アンプ109Lを介して加算器105Lに供給される。NC信号と音楽等の信号が合成された加算器105Lの出力は、DAC106Lでアナログ信号に変換され、パワーアンプ107Lで増幅されてLチャネルのスピーカ150に供給される。スピーカ150からは、音響信号SLとLチャネル用のNC信号に基づく音響出力が行われる。
 またマイクロフォン140で集音されたノイズ信号は、マイクアンプ101R、ADC102Rを経てDNCフィルタ103Rに入力され、DNCフィルタ103RでNC信号が生成される。NC信号はアンプ104Rを介して加算器105Rに供給され、音楽等の音響信号SRと合成される。音響信号SRは例えばイコライザ106R,アンプ109Rを介して加算器105Rに供給される。NC信号と音楽等の信号が合成された加算器105Rの出力は、DAC106Rでアナログ信号に変換され、パワーアンプ107Rで増幅されてRチャネルのスピーカ150に供給される。スピーカ150からは、音響信号SRとRチャネル用のNC信号に基づく音響出力が行われる。
 このような構成により、例えば音楽を聴きながら周囲ノイズだけ打ち消すことができる。
 実際にはこのように2チャネル分の処理が可能な形で、NCデバイスとして、LSI化や回路デバイス化されている。
 なお、この構成の場合、マイクロフォン130は、図1のヘッドフォン1A等でいえば、左筐体5Lに設けられ、マイクロフォン140は右筐体5Rに設けられる。
 つまりこの図5の構成は、チャネル毎に音響信号系統が分離され、DNCフィルタ103LはLチャネル用、DNCフィルタ103RはRチャネル用という役割を持つ。
 このようなNCシステムで、よりノイズキャンセリングの効果を高める手法の一つとして、マイクロフォンの複数化という考え方がある。
 一般的には片耳当たり外側と内側に一つずつマイクロフォンを設置し、外側マイクロフォンを使ってフィードフォワードNC、内側マイクを使ってフィードバックNCを行い、性能を高めている。そのため、一般的なNCデバイスとしては、4チャネル入力のNC用LSI等により、単体で4チャネルのマイクロフォン入力と2チャネルのスピーカ出力をサポートしているものがある。
 NC性能をさらに向上させるために、マイクロフォンをさらに増やすことは有効である。このため左右それぞれNCデバイスを独立に使用することも考えられる。
 図6にLチャネル用のNCデバイス100とRチャネル用のNCデバイス200を用いる例を示している。
 NCデバイス100は、FF(フィードフォワード)用のマイクロフォン130Fと、FB(フィードバック)用の5つのマイクロフォン130Bの、合計6個のマイクロフォン130の入力に対応する。NCデバイス100はこれらの6個のマイクロフォン130の入力に基づいてNC信号を生成し、スピーカ150に供給する。
 NCデバイス200も、FF用のマイクロフォン140Fと、FB用の5つのマイクロフォン140Bの、合計6個のマイクロフォン140の入力に対応する。NCデバイス200はこれらの6個のマイクロフォン140の入力に基づいてNC信号を生成し、スピーカ160に供給する。
 もちろん、NC性能向上のために、片チャネルあたりのマイクロフォン数をさらに増やすことも考えられるが、仮にNCデバイス100,200が6入力サポートの場合、これ以上、マイクロフォン数を増加させることはできず、その場合は、搭載するNCデバイスを、より多チャネルの入力に対応するものに変更したり、搭載するNCデバイス数を増やしたりする等の対応が必要になる。
 ここで、図6のような構成を考えた場合、常に複数のLSI(NCデバイス100,200)を起動しているので、消費電力が増え、製品の稼働時間を低下させてしまうということが生じる。
 図6の場合、ステレオ再生のために、NCデバイス100,200は常に同時に動作している必要がある。
 図示していないがLチャネル用のNCデバイス100は、Lチャネルの音響信号SLを入力する処理も行う。場合によってはブルートゥース等の近距離無線通信により音響信号SL、SRを受信するものもあり、無線通信用のチップも設けられる場合もあるが、NCデバイス100,200は、常に担当するチャネルの音響信号処理を行わなければならない。
 仮にNCデバイス100,200としてのLSIの中に低消費電力機能があったとしても、2個の同じLSIを起動している以上、LSI固定電力や、周辺回路の電力等がかかる。
 例えば、周りが静かな状況でNC処理が不要な時にも、音楽再生のために、2個のLSIを同時に起動している必要があり、LSIの音量制御などLチャネル/Rチャネルで同じ制御をする為にも、I2Cなどの制御バスを使って、それぞれ独立に制御しなければならない。音楽再生もホストCPUから通常I2Sなどの一本のシリアル転送でデバイス間を通信できるところを、ホストCPUからデマルチプレクスしてLチャネル/Rチャネルに分離し、それぞれのLSIに接続しなければいけない。
 また、NC機能のマイクロフォンを通話用マイクロフォンと併用する場合、左右間のマイクロフォン信号をホストCPUに伝送する場合も、一つのI2Sにマルチプレクスし、2系統のI2Sが必要になる。
 このように2個のLSIを使ったステレオアプリケーションの実現のために、回路規模が増え、結果電力増加につながっている。
 [3-2:第3の実施の形態]
 このようにステレオ音響システムにおいてNCシステムを実現する場合であって、特にマイクロフォン数を増やして高性能化するために複数のLSIを用いる場合には、電力増加、換言すれば電力消費の削減が困難という事情がある。
 一方で第1,第2の実施の形態で示した構成では、信号処理部10,20が両方機能することで性能向上を実現するが、一方のみでもステレオ出力に対応できると説明した。これをNCシステムに適用する例を第3の実施の形態として説明する。
 なお、各実施の形態において、既述の図と同じ部位は同じ符号を付し、重複説明を避ける。
 図7にマイクロフォン30、40の配置と信号処理部10A,20Aによる構成例を示す。
 音響出力装置1の左筐体5Lに、マイクロフォン30、マイクロフォン40として、以下のように合計6個のマイクロフォンが配置される。
・LチャネルのFF用のマイクロフォン30FL
・LチャネルのFB用のマイクロフォン30BL1
・LチャネルのFB用のマイクロフォン30BL2
・LチャネルのFB用のマイクロフォン40BL1
・LチャネルのFB用のマイクロフォン40BL2
・LチャネルのFB用のマイクロフォン40BL3
 また右筐体5Rには、マイクロフォン30、マイクロフォン40として、以下のように合計6個のマイクロフォンが配置される。
・RチャネルのFF用のマイクロフォン30FR
・RチャネルのFB用のマイクロフォン30BR1
・RチャネルのFB用のマイクロフォン30BR2
・RチャネルのFB用のマイクロフォン40BR1
・RチャネルのFB用のマイクロフォン40BR2
・RチャネルのFB用のマイクロフォン40BR3
 なおNC効果のために、騒音を広く捉える目的で、各マイクロフォン30,40は、左右対称に配置されることが望ましい。
 この図7ではポジティブ信号の生成又は出力のための信号経路を実線で示し、ネガティブ信号の生成又は出力のための信号経路を点線で示している。
 マイクロフォン30FL、30BL1、30BL2、30FR、30BR1、30BR2で収音される音声信号は、実線で示すように信号処理部10Aに供給される。
 マイクロフォン40BL1、40BL2、40BL3、40BR1、40BR2、40BR3で収音される音声信号は、点線で示すように信号処理部20Aに供給される。
 信号処理部10A,20Aは、この場合、NCデバイスとされ、NC信号を生成する。
 そして信号処理部10Aは、FF方式及びFB方式のNC信号成分を含むポジティブ信号をスピーカ50,60の正極端子に供給する。
 また信号処理部20Aは、FB方式のNC信号とされるネガティブ信号をスピーカ50,60の負極端子に供給する。
 図8に信号処理部10A,20Aの内部構成を示している。
 信号処理部10A,20Aは図4の信号処理部10,20と同様の構成であるが、特に図4の音響信号生成部15,16,25,26に相当する構成は、NC信号を生成するNC信号生成部15A,16A,25A,26Aとされている。
 NC信号生成部15Aは、マイクロフォン30FL、30BL1、30BL2による音声信号に基づいて、Lチャネル用のFF方式及びFB方式のNC信号を生成する。
 このNC信号生成部15Aで生成されたNC信号は加算器12Lで音響信号SLと合成されたうえで、パワーアンプ13L、DAC14Lを介してスピーカ50の正極端子に供給される。
 NC信号生成部16Aは、マイクロフォン30FR、30BR1、30BR2による音声信号に基づいて、Rチャネル用のFF方式及びFB方式のNC信号を生成する。
 このNC信号生成部16Aで生成されたNC信号は加算器12Rで音響信号SRと合成されたうえで、パワーアンプ13R、DAC14Rを介してスピーカ60の正極端子に供給される。
 NC信号生成部25Aは、マイクロフォン40BL1、40BL2、40BL3による音声信号に基づいて、Lチャネル用のFB方式のNC信号を生成する。
 このNC信号生成部25Aで生成されたNC信号は、パワーアンプ23L、DAC24L、スイッチ部27Lを介してスピーカ50の負極端子に供給される。
 NC信号生成部26Aは、マイクロフォン40BR1、40BR2、40BR3による音声信号に基づいて、Rチャネル用のFB方式のNC信号を生成する。
 このNC信号生成部26Aで生成されたNC信号は、パワーアンプ23R、DAC24R、スイッチ部27Rを介してスピーカ60の負極端子に供給される。
 この構成により、ポジティブ信号生成用に配置された6個のマイクロフォン30の入力信号は、信号処理部10内で左右チャネルのそれぞれのNCフィルタ処理されたのち、スピーカ50,60の正極端子経由で音響出力できる。
 またネガティブ信号生成用に配置された6個のマイクロフォン40の入力信号は、信号処理部20内で左右チャネルのそれぞれのNCフィルタ処理されたのち、スピーカ50,60の負極端子経由で音響出力できる。
 従って、左右それぞれのスピーカ50,60から、2個のNCデバイス(つまり信号処理部10A,20A)に接続された全部の12個のマイクロフォンの入力信号を使用したNC信号を出力でき、またNC信号と合わせて、音響信号SL、SRによる音楽等の再生も共存可能となる。
 つまり、NC性能を大きく向上させたNCシステムを実現できる。
 その上でこの構成の場合、スイッチ部27L、27Rにより、スピーカ50,60の負極端子をグランドに接続することができる。例えばユーザの手動操作等によりスイッチ部27L、27Rの切り替えができるようにする。
 スピーカ50,60の負極端子をグランドに接続した状態では、信号処理部10Aによるポジティブ信号がスピーカ50,60に供給される。つまりマイクロフォン30FL、30BL1、30BL2、30FR、30BR1、30BR2としての6個のマイクロフォン30を使用したFF方式及びFB方式のNC信号によるNC効果が得られながら、音響信号SL、SRによる音楽等の再生が行われる。
 これは、信号処理部20Aを電源オフとしてもよいことを意味する。
 つまり、音響信号SL、SRによる音楽等の再生の際に、信号処理部10A,20Aをともに機能させて、高いNC効果を得る場合と、信号処理部10Aのみを機能させて通常のNC効果を得る場合とを使い分けることができる。そして信号処理部20Aを電源オフとする期間が得られるようにすることで、消費電力削減、再生時間の長時間化の効果を得ることができる。
 例えば室内やオフィスなど、NC効果を高めなくともよいような騒音が少ない環境では、信号処理部20Aをオフとすることで、消費電力を抑えながら良好な音楽再生を楽しむことができる。
 [3-3:第4の実施の形態]
 第4の実施の形態の構成例を図9に示す。
 これはCPU70を備え、スイッチ部27L,27Rの制御を自動的に行う例である。
 CPU70はノイズ解析部71を備え、例えばマイクロフォン30FL、30BL1、30BL2、30FR、30BR1、30BR2で収音された音声信号の全部又は一部を入力し、ノイズ状況の解析を行う。
 例えばノイズレベル、周波数特性、ノイズの継続状態などを解析する。
 そしてCPU70は、ノイズ解析結果に基づいて、ノイズが大きい状況か、ノイズが大きくない状況かを判定し、信号処理部20Aを制御する。
 具体的には、ノイズが大きくない状況と判定したら、CPU70は、スイッチ部27L,27Rをグランド側に切り替える制御を行うとともに、信号処理部20Aを電源オフとする制御を行う。
 ノイズが大きい状況と判定したら、CPU70はスイッチ部27L,27Rを、ネガティブ信号を負極端子に供給できる状態に切り替える制御を行うとともに、信号処理部20Aを電源オンとする制御を行う。
 なお、スイッチ部27L,27Rが信号処理部20A内に構成される場合は、信号処理部20Aが電源オフの状態でもグランド接続が維持される回路構成とする(例えば負極端子がオープンにならない状態とする)ことはいうまでもない。
 CPU70が上記の制御を行うことで、周囲のノイズ状況に応じて、NC効果が自動調整されるとともに、比較的静かな環境では自動的に信号処理部20Aが電源オフとされて省電力動作となる。
 なお、ノイズ状況ではなく、あるいはノイズ状況に加えて、ノイズ状況以外の状況に応じてスイッチ部27L,27Rの切り替え制御や信号処理部20Aの電源オフ制御が行われるようにしてもよい。
 例えばCPU70は、音響出力装置1の状況として、バッテリーの状況を監視し、バッテリー残量が所定値以下になったら、スイッチ部27L,27Rをグランド側に切り替えるとともに信号処理部20Aを電源オフとする制御を行うようにしてもよい。これにより音響出力装置1の長時間駆動に有利となる。
 またCPU70は、音響出力装置1の状況として、例えば音量設定状況を監視し、音量が小さいか否かにより、スイッチ部27L,27Rの切り替え制御や信号処理部20Aの電源制御を行うようにしてもよい。比較的大きな音量での音楽再生時には、通常のNC機能でも十分であることも考えられるためである。
 またノイズ状況自体ではなく、ユーザの現在位置や位置変動に応じてノイズ状況を推定し、スイッチ部27L,27Rの切り替え制御や信号処理部20Aの電源制御を行ってもよい。例えば音響出力装置1(CPU70)が現在位置検出機能を備えるようにする。そしてCPU70は、例えば屋内、屋外、電車移動中などを判定して、NC効果を高める必要があるとするときは、信号処理部20Aを電源オンとしてスイッチ部27L,27Rをネガティブ信号側とするなどである。
 また、CPU70は、入力される音響信号SL、SRにより再生される音楽等の種類の状況、例えば音楽、会話音声、環境音、電子音、通知音などの別に応じて、スイッチ部27L,27Rの切り替え制御や信号処理部20Aの電源制御を行ってもよい。
 また、CPU70は、入力される音響信号SL、SRにより再生される音楽の状況、例えばロック、ジャズ、クラシック、ポピュラー等のジャンルの別や、現在の再生中の曲の平均的な音圧レベル、周波数特性などに応じて、スイッチ部27L,27Rの切り替え制御や信号処理部20Aの電源制御を行ってもよい。
 また、CPU70は、ユーザの身体状況に応じて、スイッチ部27L,27Rの切り替え制御や信号処理部20Aの電源制御を行ってもよい。例えば脳波センサ、脈拍センサ、血圧センサなどの身体状況を検出するセンサを備えるようにし、それらにより判定されるユーザの身体状況に応じて制御を行う。
 また、CPU70は、ユーザの動作状況に応じて、スイッチ部27L,27Rの切り替え制御や信号処理部20Aの電源制御を行ってもよい。例えば角速度センサ、加速度センサ等を備えるようにし、それらにより判定されるユーザの動作状況に応じて制御を行う。
 [3-4:第5の実施の形態]
 第5の実施の形態の構成例を図10に示す。
 これはL、R2チャネルの音響出力装置1において、各チャネルのスピーカ(ヘッドフォンドライバ)を複数化して、より高性能なNC制御を行うようにする例である。
 図10において、音響出力装置1は、左筐体5L内に配置されるLチャネルのスピーカとして2つのスピーカ50-1,50-2を備える。また右筐体5R内に配置されるRチャネルのスピーカとして2つのスピーカ60-1,60-2を備える。
 信号処理部10Aは、ポジティブ信号を生成する4つのNC信号生成部15A1、15A2、16A1、16A2を備える。
  NC信号生成部15A1は、例えば、マイクロフォン30FLによる音声信号に基づいて、Lチャネル用のFF方式のNC信号を生成する。このNC信号は加算器12L1で音響信号SLと合成され、パワーアンプ13L1、DAC14L1を介してスピーカ50-1の正極端子に供給される。
  NC信号生成部15A2は、例えば、マイクロフォン30BL1、30BL2による音声信号に基づいて、Lチャネル用のFB方式のNC信号を生成する。このNC信号は加算器12L2で音響信号SLと合成され、パワーアンプ13L2、DAC14L2を介してスピーカ50-2の正極端子に供給される。
  NC信号生成部16A1は、例えば、マイクロフォン30FRによる音声信号に基づいて、Rチャネル用のFF方式のNC信号を生成する。このNC信号は加算器12R1で音響信号SRと合成され、パワーアンプ13R1、DAC14R1を介してスピーカ60-1の正極端子に供給される。
  NC信号生成部16A2は、例えば、マイクロフォン30BR1、30BR2による音声信号に基づいて、Rチャネル用のFB方式のNC信号を生成する。このNC信号は加算器12R2で音響信号SRと合成され、パワーアンプ13R2、DAC14R2を介してスピーカ60-2の正極端子に供給される。
 なお、以上では、NC信号生成部15A1、16A1はFF方式のNC信号生成、NC信号生成部15A2、16A2はFB方式のNC信号生成を行うとしたが、これは一例にすぎない。
 信号処理部20Aは、ネガティブ信号を生成する4つのNC信号生成部25A1、25A2、26A1、26A2を備える。
 なお、信号処理部20Aには音響信号SL’、SR’が入力され、音質補正処理部28で処理されるものとしている。音響信号SL’、SR’は、音響信号SL、SRと同じ信号でもよいし、音響信号SL、SRが調整された信号でもよいし、音響信号SL、SRとは異なる信号でもよい。
  NC信号生成部25A1は、例えば、マイクロフォン40BL1、40BL2による音声信号に基づいて、Lチャネル用のFB方式のNC信号を生成する。このNC信号は加算器22L1で音響信号SL’と合成され、パワーアンプ23L1、DAC24L1を介してスピーカ50-1の負極端子に供給される。
  NC信号生成部25A2は、例えば、マイクロフォン40BL3による音声信号に基づいて、Lチャネル用のFB方式のNC信号を生成する。このNC信号は加算器22L2で音響信号SL’と合成され、パワーアンプ23L2、DAC24L2を介してスピーカ50-2の負極端子に供給される。
  NC信号生成部26A1は、例えば、マイクロフォン40BR1、40BR2による音声信号に基づいて、Rチャネル用のFB方式のNC信号を生成する。このNC信号は加算器22R1で音響信号SR’と合成され、パワーアンプ23R1、DAC24R1を介してスピーカ60-1の負極端子に供給される。
  NC信号生成部26A2は、例えば、マイクロフォン40BR3による音声信号に基づいて、Rチャネル用のFB方式のNC信号を生成する。このNC信号は加算器22R2で音響信号SR’と合成され、パワーアンプ23R2、DAC24R2を介してスピーカ60-2の負極端子に供給される。
 この図10のような構成例では、それぞれがNCデバイスである信号処理部10A,20Aは、単体でもステレオ処理できるように構成される。
 単体でステレオ処理をする場合の出力としては、信号処理部10AとしてのLSIは、Lチャネル用の2つのポジティブ信号、Rch用の2つのポジティブ信号の計4つの出力が設けられている。また信号処理部20AとしてのLSIは、Lチャネル用の2つのネガティブ信号、Rch用の2つのネガティブ信号の計4つの出力が設けられている。
 この構成によって、4チャネル出力を続けながら信号処理部20Aを電源オン/電源オフすることができ、消費電力を削減したNC機能動作を実現できる。
 なお図10の例では、音響信号SL’、SR’を信号処理部20Aに入力する構成を示したが、このような音響信号SL’、SR’の入力はなされず、音質補正処理部28や加算器22L1,22L2,22R1,22R2が設けられない構成でもよい。
<4.BF処理及びNC処理への適用:第6の実施の形態>
 第6の実施の形態として、NC機能に加えてBF(ビームフォーミング)機能を備える場合の例を説明する。
 図11にマイクロフォン30、40の配置と信号処理部10B,20Bによる構成例を示す。
 音響出力装置1の左筐体5Lに、マイクロフォン30として、以下のように合計3個のマイクロフォンが配置される。
・LチャネルのFF用のマイクロフォン30FL
・LチャネルのFB用のマイクロフォン30BL1
・LチャネルのFB用のマイクロフォン30BL2
 また右筐体5Rには、マイクロフォン30、マイクロフォン40として、以下のように合計9個のマイクロフォンが配置される。
・RチャネルのFF用のマイクロフォン30FR
・BF用及びRチャネルのFB用のマイクロフォン30BR1+
・BF用及びRチャネルのFB用のマイクロフォン30BR2+
・BF用のマイクロフォン40BF1
・BF用のマイクロフォン40BF2
・BF用のマイクロフォン40BF3
・BF用のマイクロフォン40BF4
・BF用のマイクロフォン40BF5
・BF用のマイクロフォン40BF6
 マイクロフォン30BR1+、30BR2+は、NC用とBF用として併用する。
 NC効果のために、騒音を広く捉える目的で、NC用に用いるマイクロフォン30BL1,30BL2,30BR1+、30BR2+は、左右対称に配置される。
 一方、BFでは強い指向性を作る為、BF用のマイクロフォン40BF1、40BF2、40BF3、30BR1+、40BF4、30BR2+、40BF5、40BF6は、片方向(例えば右筐体5R)に連続した配置としている。
 信号処理部10B,20Bは、それぞれ6チャネル入力対応のLSIとしている。
 この図11も図7と同様に、ポジティブ信号の生成又は出力のための信号経路を実線で示し、ネガティブ信号の生成又は出力のための信号経路を点線で示している。
 信号処理部10Bは、音楽等の再生とともに、NC及びBF信号を生成する機能を有しており、実線で示すように、6個のマイクロフォン30(30FL、30BL1、30BL2、30FR、30BR1+、30BR2+)で収音された音声信号を入力する。
 信号処理部20Bは、BF信号を生成する機能を有しており、点線で示すように、6個のマイクロフォン40(40BF1、40BF2、40BF3、40BF4、40BF5、40BF6)で収音された音声信号を入力する。
 つまり信号処理部10BとしてのLSIは音楽再生とNC+BF処理を担当し、もう一つのLSIである信号処理部20BはBF処理のみを担当する。
 そして信号処理部10Bは、FF方式及びFB方式のNC信号成分、BF信号を含むポジティブ信号をスピーカ50,60の正極端子に供給する。
 また信号処理部20Bは、BF信号とされるネガティブ信号をスピーカ50,60の負極端子に供給する。
 図12に信号処理部10B,20Bの内部構成を示している。
 信号処理部10B,20Bは図4の信号処理部10,20と同様の構成であるが、特に図4の音響信号生成部15,16に相当する構成は、NC及びBF信号を生成するNC+BF信号生成部15B,16Bとされている。
 また図4の音響信号生成部25,26に相当する構成は、BF信号を生成するBF信号生成部25B,26Bとされている。
 NC+BF信号生成部15Bは、マイクロフォン30FL、30BL1、30BL2による音声信号に基づいて、Lチャネル用のFF方式及びFB方式のNC信号を生成するとともに、マイクロフォン30BR1+、30BR2+による音声信号に基づいてBF信号生成も行う。このNC+BF信号生成部15Bで生成された音響信号は加算器12Lで音響信号SLと合成されたうえで、パワーアンプ13L、DAC14Lを介してスピーカ50の正極端子に供給される。
 NC+BF信号生成部16Bは、マイクロフォン30FR、30BR1+、30BR2+による音声信号に基づいて、Rチャネル用のFF方式及びFB方式のNC信号を生成するとともに、マイクロフォン30BR1+、30BR2+による音声信号に基づいてBF信号生成を行う。このNC+BF信号生成部16Bで生成された音響信号は加算器12Rで音響信号SRと合成されたうえで、パワーアンプ13R、DAC14Rを介してスピーカ60の正極端子に供給される。
 BF信号生成部25Bは、6個のマイクロフォン40による音声信号に基づいて、Lチャネル用のBF信号を生成する。このBF信号は、パワーアンプ23L、DAC24L、スイッチ部27Lを介してスピーカ50の負極端子に供給される。
 BF信号生成部26Bは、6個のマイクロフォン40による音声信号に基づいて、Rチャネル用のBF信号を生成する。このBF信号は、パワーアンプ23R、DAC24R、スイッチ部27Rを介してスピーカ60の負極端子に供給される。
 この構成により、信号処理部10B,20Bの両方を機能させることで、音楽や外来音声などの音響出力時にNC効果やBF効果を得ることができる。
 また、BF処理が不要な場合は、信号処理部20Bの電源オフ、スイッチ部27L,27Rによるスピーカ50,60の負極端子のグランド接続、及び信号処理部10BにおけるNC処理の停止を行うようにすればよい。これにより大きな省電力効果を得ることができる。
<5.左右分離型イヤフォンへの適用:第7の実施の形態>
 第7の実施の形態として、左右分離型のイヤフォンにNC及びBF機能を適用する例を述べる。
 図13は、Lチャネル側のみの構成を示している。Rチャネルについて図示を省略するが、Lチャネル側と同様の構成となる。
 左右分離型の音響出力装置1におけるLチャネル側の構成として、左筐体5Lに、5個のマイクロフォン30と、6個のマイクロフォン40の、計11個のマイクロフォンが配置された例を示している。もちろん11個というのは一例である。
 この図13も図7と同様に、ポジティブ信号の生成又は出力のための信号経路を実線で示し、ネガティブ信号の生成又は出力のための信号経路を点線で示している。
 信号処理部10C,20Cは、それぞれ6チャネル入力対応のLSIとしている。
 信号処理部10Cは、音楽等の再生のための処理機能を有するとともに、実線で示すように5個のマイクロフォン30で収音された音声信号を入力する。
 信号処理部20Cは、点線で示すように、6個のマイクロフォン40で収音された音声信号を入力する。
 そして信号処理部10Cは、マイクロフォン30に基づいて生成した音響信号を含むポジティブ信号をスピーカ50,60の正極端子に供給する。
 また信号処理部20Cは、マイクロフォン40に基づいて生成した音響信号を含むネガティブ信号をスピーカ50,60の負極端子に供給する。
 図14に信号処理部10C,20Cの内部構成を示している。
 信号処理部10C,20Cは図4の信号処理部10,20におけるLチャネル対応部分に相当する構成を備えることになる。つまり図4の音響信号生成部15に相当する構成として音響信号生成部15Cを備え、また図4の音響信号生成部25に相当する構成として音響信号生成部25Cを有する。
 音響信号生成部15Cは、5つのマイクロフォン30による音声信号に基づいて、Lチャネル用の音響信号を生成する。図13のようなマイクロフォン30の配置の場合、NC信号やBF信号を生成することができる。この音響信号生成部15Cで生成された音響信号は加算器12Lで音響信号SLと合成されたうえで、パワーアンプ13L、DAC14Lを介してスピーカ50の正極端子に供給される。
 音響信号生成部25Cは、6個のマイクロフォン40による音声信号に基づいて、Lチャネル用の音響信号を生成する。図13のようなマイクロフォン40の配置の場合、BF信号を生成することができる。この音響信号は、パワーアンプ23L、DAC24L、スイッチ部27Lを介してスピーカ50の負極端子に供給される。
 つまりこの第7の実施の形態では、Lチャネルのみで、信号処理部10C,20Cを用いており、信号処理部10C,20Cの両方を機能させることで、音楽や外来音声などの音響出力時にNC効果やBF効果、あるいは他の効果を得ることができる。
 また、それらの処理が不要な場合は、信号処理部20Cの電源オフ、スイッチ部27Lによるスピーカ50の負極端子のグランド接続等を行うことで、省電力効果を得ることができる。
 このような第7の実施の形態は、一つのチャネルにつき、より多数のマイクロフォンを使用し、各種信号処理の性能を向上させたい場合に適している。
 音響信号生成部15C、25Cとしては、NC信号生成処理、BF信号生成処理に限らず、外音強調信号生成処理、特定周波数強調信号生成処理、特定方向の到来音強調処理などを行うようにすること、あるいはこれらの組み合わせも考えられる。
<6.外部装置と連携:第8の実施の形態>
 第8の実施の形態として音響出力装置1が外部の端末装置90と連携する例を説明する。図15では、例えば図4と同様の構成の音響出力装置1が、さらに通信制御部72としての構成を備える例を示している。
 通信制御部72は、例えばブルートゥース用の通信制御部としてのチップ(SoC:System-on-a-chip)であり、端末装置90との間で近距離無線通信が可能とされる。
 また通信制御部72は図9に示したCPU70と同様に、信号処理部10,20に対する制御が可能である。例えば通信制御部72は、信号処理部20の電源オン/オフ制御や、スイッチ部27L,27Rの切り替え制御を行うことができるものとする。また通信制御部72は、信号処理部10の音響信号生成部15,16の信号生成機能の停止等も制御できる。
 このような構成により、例えば端末装置90は、ユーザの操作や各種状況に応じて、音響出力装置1に対して制御信号を送信し、通信制御部72によって、信号処理部10,20の動作制御を行うようにする。
 例えば図では、スマートフォン等の端末装置90の画面において操作用のインタフェース表示を行い、ユーザが省電力モードのオン/オフを操作できる様子を示している。
 このインタフェースを用いたユーザ操作に応じて、端末装置90は制御信号を通信制御部72に送信する。
 端末装置90は、いわゆる情報処理装置として構成され、内部にCPU等のプロセッサ、ROM、RAM、不揮発性メモリ等の記憶部、表示部や操作部等のインタフェース装置部、各種センサ部、通信装置部などを有して構成されている。
 この端末装置90におけるCPUは図16のような処理で制御信号送信処理を行う。
 端末装置90のCPUは、ステップS101で、現在、オートモードかマニュアルモードかにより処理を分岐する。マニュアルモードは、ユーザの操作に応じて音響出力装置1における信号処理部20のオン/オフを行うモードである。オートモードは状況判定に応じて信号処理部20のオン/オフを自動的に行うモードである。
 マニュアルモードの場合は、端末装置90のCPUはステップS102,S103でユーザ操作を監視する。
 ユーザが図15に示したように省電力モードをオフとする操作を行ったことを検知したら、端末装置90のCPUは、ステップS102からステップS120に進み、音響出力装置1に対して信号処理部20のオン制御信号を送信する。
 音響出力装置1の通信制御部72は、オン制御信号を受信することに応じて、信号処理部20のオン制御、スイッチ部27L,27Rのネガティブ信号接続への切り替えの制御を行う。信号処理部10側の一部の処理機能(例えばBF機能)を開始させる場合もある。つまり省電力モードをオフとすることで、信号処理部10,20が共に機能する状態となる。
 また、ユーザが図15に示したように省電力モードをオンとする操作を行ったことを検知したら、端末装置90のCPUは、ステップS103からステップS121に進み、音響出力装置1に対して信号処理部20のオフ制御信号を送信する。
 音響出力装置1の通信制御部72は、オフ制御信号を受信することに応じて、信号処理部20の電源オフ制御、スイッチ部27L,27Rのグランド接続への切り替えの制御を行う。信号処理部10側の一部の処理機能(例えばBF機能)を停止させる場合もある。
 つまり省電力モードをオンとすることで、信号処理部20がオフとされ、信号処理部10側のみが機能する状態となる。
 オートモードの場合は、端末装置90のCPUは、ステップS101からステップS110に進み、状況判定処理を行う。状況判定は次のように各種考えられる。
・周囲ノイズ状況の判定
・現在の位置状況の判定
・通信制御部72と通信して行う音響出力装置1のバッテリー残量状況の判定
・通信制御部72と通信して行う音響出力装置1の音量設定の判定
・ユーザの動作状況(歩行中等の動きが大きい状況か否かなど)の判定
・ユーザの身体状況(ユーザの脳波、脈拍、血圧等による身体状況)の判定
・再生音響状況の判定(音響信号SL、SRの種別、ジャンル、音量など)
 これらのように、周囲状況、環境状況、音響出力装置1の状況、ユーザの状況などを検出/判定して、ネガティブ信号を生成する信号処理部20側の動作を実行させるか否かを判定する。
 信号処理部20の動作をオン又はオフに切り替えるべきと判定した場合、端末装置90のCPUはステップS111からステップS112に進み、音響出力装置1に対してオン制御信号、又はオフ制御信号を送信する。
 音響出力装置1の通信制御部72は、オン制御信号又はオフ制御信号を受信することに応じて、信号処理部20のオン/オフ制御、スイッチ部27L,27Rの切り替えの制御を行う。信号処理部10側の一部の処理機能を開始又は停止させる場合もある。
 このような処理を端末装置90側で行うことで、音響出力装置1側は、特に処理能力の高い演算リソースや検出手段等を持たなくとも、信号処理部20のオン/オフの自動制御を的確に行うことができるようになる。
<7.まとめ及び変形例>
 以上の実施の形態では次のような効果が得られる。
 実施の形態の音響処理装置は、ヘッドフォン1A、1B、イヤフォン1C、1D等の音響出力装置1自体、又はその内部回路として構成される。
 このような音響処理装置は、第1の一群のマイクロフォン30による入力音声信号を用いて、第1,第2のスピーカ50、60におけるそれぞれの正極端子に供給するポジティブ信号を生成する第1の信号処理部10と、第2の一群のマイクロフォン40による入力音声信号を用いて、第1,第2のスピーカ50、60におけるそれぞれの負極端子に供給するネガティブ信号を生成する第2の信号処理部20を備える。
 この構成の場合、第1の一群のマイクロフォン30の数や配置、第2の一群のマイクロフォン40の数や配置などとあわせて、信号処理部10,20を多様に構成できる。
 そして信号処理部10側でスピーカ50,60のそれぞれの正極端子に対するポジティブ信号(正極端子信号)を生成し供給するため、信号処理部10は、独立して機能できる構成となる。
 また信号処理部20側でスピーカ50,60のそれぞれの負極端子に対するネガティブ信号(負極端子信号)を生成し供給するため、信号処理部20は、信号処理部10の機能を上昇させたり、変化させたりすることのできる構成とすることができる。なお、場合によっては信号処理部20側だけで独立して機能することもありえる。
 第2から第8実施の形態では、スピーカ50,60の負極端子を、グランド接続状態に切り替え可能な構成とした。
 スピーカ50,60の各負極端子がグランド接続状態となることで、スピーカ50,60はポジティブ信号のみに応じて音響出力を行う。この場合、信号処理部20は機能オフとすることができる。つまり状況に応じて、信号処理部10,20を機能させることと、信号処理部10側のみを機能させることができる。これにより、消費電力削減、音響出力時間の長時間化、状況に応じた望ましい音響出力の切り替え、などが可能となる。
 信号処理部20がスピーカ50,60の各負極端子にネガティブ信号を供給する状態と、各負極端子がグランド接続される状態の切り替えは、ユーザによる手動操作に応じた切り替えや、自動制御による切り替え、通信を介した制御に依る切り替えなどが想定される。
 第4、第8の実施の形態では、信号処理部20がスピーカ50,60の各負極端子にネガティブ信号を供給する状態と、各負極端子がグランド接続される状態の切り替え制御を行う制御部(CPU70や通信制御部72)を備える例を挙げた。
 これにより、信号処理部10,20を機能させる状態と、信号処理部10側のみを機能させる状態が、状況に応じて自動的に実行されたり、操作(遠隔操作を含む)に応じて実行されたりするようになる。これにより、消費電力削減、音響出力時間の長時間化、状況に応じた望ましい音響出力の切り替え、などが可能となる。
 第4、第8の実施の形態では、制御部(CPU70や通信制御部72)は、スピーカ50,60の負極端子をグランド接続状態とする場合、信号処理部20を電源オフに制御するとした。
 これにより、特に省電力効果や音響出力時間長の増加の効果を得ることができる。例えば第4の実施の形態のように信号処理部20がNC信号生成の機能を持つ場合、静かな環境である場合に、信号処理部20を電源オフ状態としても、ユーザはノイズによって不快に感じることも無い上で、消費電力削減効果を得ることができるようになる。
 なお電源オフ状態とは、完全な電源オフでもよいし、信号処理部20をスリープ状態とするなど、主たる処理の電源供給を絶つ状態でもよい。
 第4の実施の形態では、制御部(CPU70)は、一群のマイクロフォン30による入力音声信号を信号処理部10から入力して音声信号解析を行い、解析結果に応じて、信号処理部20の制御を行う例を示した。
 信号処理部10は一群のマイクロフォン30の音声信号を入力しているため、CPU70は、常にその入力音声信号の検出、解析等を行うことができる。
 従って、例えばノイズ解析などを行ってノイズ状況を判定し、信号処理部20のオン/オフ制御やネガティブ信号供給/グランド接続の切り替え制御を行うようにすれば、周囲のノイズ状況に応じてNC機能を自動的に強くしたり、不要としたりすることができる。すなわち適切なタイミングで信号処理部20を機能させることができる。
 第8の実施の形態では、制御部(通信制御部72)は、外部装置である端末装置90からの通信により取得した情報に基づいて、信号処理部20の制御を行う例を示した。
 通信制御部72は、例えば端末装置90との通信により、操作情報や制御情報を取得することができる。そして通信制御部72は受信した情報に応じて、信号処理部20の制御を行う。これにより、端末装置90等を用いた遠隔制御が可能となる。さらに端末装置90のリソースを用いて周囲の環境状態、ノイズ状態、現在位置、音響出力装置1の状態、ユーザ状況などを判定し、それに応じて信号処理部20の制御を行うことも可能となり、音響出力装置1側の処理負担を増大させずに、適した動作状態とする制御が可能となる。
 なお外部装置としての端末装置90はスマートフォンに限らず、パーソナルコンピュータ、携帯電話機、タブレット端末、リモートコントローラ、その他の各種機器が想定される。
 第1から第6の実施の形態では、信号処理部10は、スピーカ50の正極端子に供給する第1のポジティブ信号を生成する第1の音響信号生成部15と、スピーカ60の正極端子に供給する第2のポジティブ信号を生成する第2の音響信号生成部16を有し、信号処理部20は、スピーカ50の負極端子に供給する第1のネガティブ信号を生成する第3の音響信号生成部25と、スピーカ60の負極端子に供給する第2のネガティブ信号を生成する第4の音響信号生成部26とを有するものとした。
 これにより、例えばLチャネル、Rチャネルのスピーカ50,60から、それぞれ適切な音響出力を行うことができる。
 例えば信号処理部10は、NC信号としてのポジティブ信号を生成する場合であれば、Lチャネル側のマイクロフォン(30FL、30BL1,30BL2)に基づくNC信号をLチャネルのスピーカ50に供給し、Rチャネル側のマイクロフォン(30FR、30BR1,30BR2)に基づくNC信号をRチャネルのスピーカ60に供給するということができる。
 信号処理部20側も同様に、NC信号としてのネガティブ信号を生成する場合であれば、Lチャネル側のマイクロフォン(40BL1,40BL2,40BL3)に基づくNC信号をLチャネルのスピーカ50に供給し、Rチャネル側のマイクロフォン(40BR1,40BR2,40BR3)に基づくNC信号をRチャネルのスピーカ60に供給するということができる。
 つまり信号処理部10,20は、Lチャネル、Rチャネルそれぞれに、適切な信号供給を行うことができる。
 なお変形例としては、信号処理部10が、1つの音響信号生成部で生成したポジティブ信号を分岐してスピーカ50,60の正極端子に供給する構成例も考えられる。
 また同様に、信号処理部20が、1つの音響信号生成部で生成したネガティブ信号を分岐してスピーカ50,60の負極端子に供給する構成例も考えられる。
 第3から第7の実施の形態では、信号処理部10,20の一方又は両方がNC信号を生成する音響信号生成部(15,16,25,26)を備える例を述べた。例えばNC信号生成部15A,16A,25A,26A等や、NC+BF信号生成部15B,16Bである。
 これにより、信号処理部10,20を有する音響処理装置を用いたNCシステムを実現できる。そしてNCシステムにおいて、信号処理部10,20の両方を機能させる場合と、信号処理部10のみを機能させる場合を切り替えることができる。
 第6から第8の実施の形態では、信号処理部10,20の一方又は両方はBF信号を生成する音響信号生成部(15,16,25,26)を備える例を述べた。例えばNC+BF信号生成部15B,16Bや、BF信号生成部25B,26Bなどである。
 これにより、信号処理部10,20を有する音響処理装置を用いたBFシステムを実現できる。そしてBFシステムにおいて、信号処理部10,20の両方を機能させる場合と、信号処理部10のみを機能させる場合を切り替えることができる。
 第1から第7の実施の形態では、信号処理部10が生成するポジティブ信号は、信号処理部10内の音響信号生成部(15,16)で生成した音響信号と、入力された音響信号(SL、SR)を合成した信号である例を述べた。
 これにより、信号処理部10は、音楽等の入力された音響信号SL、SRと、内部で生成した音響信号(NC信号やBF信号など)を合成してポジティブ信号とするものとなり、例えば音楽再生システムにおいて、NC処理やBF処理が実現できる。その場合に信号処理部10,20の切り替えによる適切な動作を実現できる。
 なお、信号処理部20が、音楽等の入力された音響信号SL、SRと、内部で生成した音響信号(NC信号やBF信号など)を合成してネガティブ信号とする構成も考えられる。
 第1から第6の実施の形態では、信号処理部10が生成するポジティブ信号と、信号処理部20が生成するネガティブ信号は、同じ音響機能の信号成分を含む例を挙げた。
 例えば信号処理部10,20は、共にNC信号を生成し、ポジティブ信号とネガティブ信号が、NC信号成分(又はBF信号成分)を含むものであるといった例が想定される。この場合、信号処理部20のオン/オフにより、当該機能(例えばNC機能やBF機能)の強調や強調解除を切り替えることができるようになる。
 第6の実施の形態では、特定の音響機能のための信号成分が、信号処理部10が生成するポジティブ信号と、信号処理部20が生成するネガティブ信号のうちの一方に含まれる例を挙げた。
 例えば第6の実施の形態では、NC信号の信号成分はポジティブ信号にのみ含まれる。つまり信号処理部10はNC信号とBF信号を生成し、ポジティブ信号がNC信号成分とBF信号成分を含むものである一方、信号処理部20はBF信号を生成しネガティブ信号はBF信号成分を含む(NC信号成分を含まない)。
 このようにポジティブ信号とネガティブ信号で異なる音響機能の信号を含むことで、使い分けを多様化することができる。第6の実施の形態でいえば、NC機能のみを使いたい場合と、NC機能とBF機能を使いたい場合とで、使い分けが可能となる。
 また第6の実施の形態の構成の変形例として、信号処理部10側を電源オフとし、スピーカ50,60の正極端子をグランド接続してしまうような例も想定される。その場合、状況に応じてNC機能をオン/オフできることになる。
 また、図示はしていないが、例えば信号処理部10でNC信号成分を含むポジティブ信号を生成し、信号処理部20で特定周波数強調信号成分を含むネガティブ信号を生成するようにすれば、信号処理部20のオン/オフで、特定周波数強調機能のオン/オフが可能となる。
 これらの例のように、ポジティブ信号とネガティブ信号で異なる音響機能の信号を含むことで、必要な機能に応じて信号処理部10,20の動作を実行させ、機能を使い分けたり、同時動作/一部動作を切り替えたりすることができる。
 各実施の形態ではスピーカ50,60を備える音響出力装置1を挙げた。
 信号処理部10,20を内蔵するヘッドフォンやイヤフォンを実現することで、ユーザにとって有用なヘッドフォンやイヤフォンを提供できる。
 また各実施の形態では、第1の一群のマイクロフォン30と、第2の一群のマイクロフォン40とを備える音響出力装置1を挙げた。
 マイクロフォン30,40を備えて、それらで収音された音声信号を信号処理部10,20で処理する構成とすることで、特定のマイクロフォン配置、マイクロフォン数などに応じた適切な処理を、信号処理部10,20で行うことができる。換言すれば、信号処理部10,20の処理に必要なマイクロフォン30,40を、一体的に適切な数や配置で備えることで、信号処理部10,20で生成されるポジティブ信号、ネガティブ信号による音響機能の効果をより適切化できる。
 第8の実施の形態では、端末装置90は、音響出力装置1(音響処理装置)と通信可能な情報処理装置であり、状況判定処理(S110)と、状況判定処理の結果に基づいて、音響出力装置1に対して、信号処理部20の制御信号を送信する送信処理(S112)を行う例を挙げた。
 これにより周囲の環境状態、ノイズ状態、現在位置、音響出力装置1の状態、ユーザ状況などの判定により、音響出力装置1の動作状態を自動制御できる。しかも音響出力装置1で判定処理のリソースを持たせなくてもよい。
 実施の形態のプログラムは、図16のような処理を、例えば音響処理装置と通信可能な情報処理装置におけるCPU、DSP等、或いはこれらを含むデバイスに実行させるプログラムである。
 即ち、実施の形態のプログラムは、状況判定処理と、状況判定処理の結果に基づいて、音響出力装置1に対して、信号処理部20の制御信号を送信する送信処理とを実行させるプログラムである。このようなプログラムにより、上述した端末装置90を実現できる。
 このようなプログラムは端末装置90等の機器に内蔵されている記録媒体としてのHDDや、CPUを有するマイクロコンピュータ内のROM等に予め記録しておくことができる。
 あるいはまた、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory)、MO(Magneto Optical)ディスク、DVD(Digital Versatile Disc)、ブルーレイディスク(Blu-ray Disc(登録商標))、磁気ディスク、半導体メモリ、メモリカードなどのリムーバブル記録媒体に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウェアとして提供することができる。
 また、このようなプログラムは、リムーバブル記録媒体からパーソナルコンピュータ等にインストールする他、ダウンロードサイトから、LAN(Local Area Network)、インターネットなどのネットワークを介してダウンロードすることもできる。
 またこのようなプログラムによれば、実施の形態の端末装置90の広範な提供に適している。例えばスマートフォンやタブレット等の携帯端末装置、携帯電話機、パーソナルコンピュータ、ゲーム機器、ビデオ機器、PDA(Personal Digital Assistant)等にプログラムをダウンロードすることで、これらの機器を、本開示の端末装置90として機能させることができる。
 実施の形態の音響処理装置(音響出力装置1自体又はその内蔵装置、あるいは別体装置)は、例えば音楽等の再生のためのヘッドフォン、イヤフォン等の装置に限らず、通話用のヘッドフォン、イヤフォンや、収音器、補聴器等としても実現できる。
 またウェアラブルなヘッドフォンやイヤフォン等に限らず、据え置き型のスピーカシステムとしての適用可能性もある。
 なお、本明細書に記載された効果はあくまでも例示であって限定されるものではなく、また他の効果があってもよい。
 なお本技術は以下のような構成も採ることができる。
 (1)
 第1の一群のマイクロフォンによる入力音声信号を用いて、第1のスピーカ及び第2のスピーカにおけるそれぞれの正極端子に供給するポジティブ信号を生成する第1の信号処理部と、
 第2の一群のマイクロフォンによる入力音声信号を用いて、前記第1のスピーカ及び前記第2のスピーカにおけるそれぞれの負極端子に供給するネガティブ信号を生成する第2の信号処理部と、を備えた
 音響処理装置。
 (2)
 前記第1のスピーカの負極端子及び前記第2のスピーカの負極端子に対して、ネガティブ信号を供給する状態と、グランド接続される状態とが切り替え可能な構成とされている
 上記(1)に記載の音響処理装置。
 (3)
 前記第1のスピーカの負極端子及び前記第2のスピーカの負極端子に対して、ネガティブ信号を供給する状態と、グランド接続される状態とが切り替え可能な構成とされており、
 当該切り替えの制御を行う制御部を備える
 上記(1)又は(2)に記載の音響処理装置。
 (4)
 前記制御部は、前記第1のスピーカの負極端子及び前記第2のスピーカの負極端子をグランド接続状態とする場合、前記第2の信号処理部を電源オフに制御する
 上記(3)に記載の音響処理装置。
 (5)
 前記制御部は、
 前記第1の一群のマイクロフォンによる入力音声信号を、前記第1の信号処理部から入力して音声信号解析を行い、解析結果に応じて、前記第2の信号処理部の制御を行う
 上記(3)又は(4)に記載の音響処理装置。
 (6)
 前記制御部は、外部装置からの通信により取得した情報に基づいて、前記第2の信号処理部の制御を行う
 上記(3)から(5)のいずれかに記載の音響処理装置。
 (7)
 前記第1の信号処理部は、
 前記第1のスピーカの正極端子に供給する第1のポジティブ信号を生成する第1の音響信号生成部と、
 前記第2のスピーカの正極端子に供給する第2のポジティブ信号を生成する第2の音響信号生成部と、
 を有し、
 前記第2の信号処理部は、
 前記第1のスピーカの負極端子に供給する第1のネガティブ信号を生成する第3の音響信号生成部と、
 前記第2のスピーカの負極端子に供給する第2のネガティブ信号を生成する第4の音響信号生成部と、
 を有する
 上記(1)から(6)のいずれかに記載の音響処理装置。
 (8)
 前記第1の信号処理部と前記第2の信号処理部の一方又は両方は、
 ノイズキャンセリング信号を生成する音響信号生成部を備える
 上記(1)から(7)のいずれかに記載の音響処理装置。
 (9)
 前記第1の信号処理部と前記第2の信号処理部の一方又は両方は、
 ビームフォーミング信号を生成する音響信号生成部を備える
 上記(1)から(8)のいずれかに記載の音響処理装置。
 (10)
 前記第1の信号処理部が生成するポジティブ信号は、第1の信号処理部内の音響信号生成部で生成した音響信号と、入力された音響信号を合成した信号である
 上記(1)から(9)のいずれかに記載の音響処理装置。
 (11)
 前記第1の信号処理部が生成するポジティブ信号と、前記第2の信号処理部が生成するネガティブ信号は、同じ音響機能の信号成分を含む
 上記(1)から(10)のいずれかに記載の音響処理装置。
 (12)
 特定の音響機能のための信号成分が、前記第1の信号処理部が生成するポジティブ信号と、前記第2の信号処理部が生成するネガティブ信号のうちの一方に含まれる
 上記(1)から(11)のいずれかに記載の音響処理装置。
 (13)
 前記第1のスピーカと、前記第2のスピーカと、を備える
 上記(1)から(12)のいずれかに記載の音響処理装置。
 (14)
 前記第1の一群のマイクロフォンと、前記第2の一群のマイクロフォンと、を備える
 上記(1)から(13)のいずれかに記載の音響処理装置。
 (15)
 第1の一群のマイクロフォンによる入力音声信号を用いて、第1のスピーカ及び第2のスピーカにおけるそれぞれの正極端子に供給するポジティブ信号を生成する第1の信号処理と、
 第2の一群のマイクロフォンによる入力音声信号を用いて、前記第1のスピーカ及び前記第2のスピーカにおけるそれぞれの負極端子に供給するネガティブ信号を生成する第2の信号処理と、
 を行う音響処理方法。
 (16)
 第1の一群のマイクロフォンによる入力音声信号を用いて、第1のスピーカ及び第2のスピーカにおけるそれぞれの正極端子に供給するポジティブ信号を生成する第1の信号処理部と、第2の一群のマイクロフォンによる入力音声信号を用いて、前記第1のスピーカ及び前記第2のスピーカにおけるそれぞれの負極端子に供給するネガティブ信号を生成する第2の信号処理部と、を備えた音響処理装置と通信可能な情報処理装置の制御方法として、
 状況判定処理と、
 前記状況判定処理の結果に基づいて、前記音響処理装置に対して、前記第2の信号処理部の制御信号を送信する送信処理と、
 を行う制御方法。
 (17)
 第1の一群のマイクロフォンによる入力音声信号を用いて、第1のスピーカ及び第2のスピーカにおけるそれぞれの正極端子に供給するポジティブ信号を生成する第1の信号処理部と、第2の一群のマイクロフォンによる入力音声信号を用いて、前記第1のスピーカ及び前記第2のスピーカにおけるそれぞれの負極端子に供給するネガティブ信号を生成する第2の信号処理部と、を備えた音響処理装置と通信可能な情報処理装置に、
 状況判定処理と、
 前記状況判定処理の結果に基づいて、前記音響処理装置に対して、前記第2の信号処理部の制御信号を送信する送信処理と、
 を実行させるプログラム。
 ここまで正極端子と正極端子に供給されるポジティブ信号、及び負極端子と負極信号に供給されるネガティブ信号を明確にして説明してきたが、以上の全ての説明は、正極/負極の関係が逆であってもよい。そのため、以下の(101)から(117)のように第1極端子と第2極端子、第1信号と第2信号を想定した技術が可能である。
 例えば下記(101)から(117)における「第1極端子」を正極端子、「第1信号」をポジティブ信号、「第2極端子」を負極端子、「第2信号」をネガティブ信号とした場合は、上述の(1)から(17)と同様であるが、一方で、「第1極端子」を負極端子、「第1信号」をネガティブ信号、「第2極端子」を正極端子、「第2信号」をポジティブ信号と考えることもでき、その場合も実施の形態で説明したものと同様の効果を得ることができる。
 (101)
 第1の一群のマイクロフォンによる入力音声信号を用いて、第1のスピーカ及び第2のスピーカにおけるそれぞれの第1極端子に供給する第1信号を生成する第1の信号処理部と、
 第2の一群のマイクロフォンによる入力音声信号を用いて、前記第1のスピーカ及び前記第2のスピーカにおけるそれぞれの第2極端子に供給する第2信号を生成する第2の信号処理部と、を備えた
 音響処理装置。
 (102)
 前記第1のスピーカの前記第2極端子及び前記第2のスピーカの前記第2極端子に対して、前記第2信号を供給する状態と、グランド接続される状態とが切り替え可能な構成とされている
 上記(101)に記載の音響処理装置。
 (103)
 前記第1のスピーカの前記第2極端子及び前記第2のスピーカの前記第2極端子に対して、前記第2信号を供給する状態と、グランド接続される状態とが切り替え可能な構成とされており、
 当該切り替えの制御を行う制御部を備える
 上記(101)又は(102)に記載の音響処理装置。
 (104)
 前記制御部は、前記第1のスピーカの前記第2極端子及び前記第2のスピーカの前記第2極端子をグランド接続状態とする場合、前記第2の信号処理部を電源オフに制御する
 上記(103)に記載の音響処理装置。
 (105)
 前記制御部は、
 前記第1の一群のマイクロフォンによる入力音声信号を、前記第1の信号処理部から入力して音声信号解析を行い、解析結果に応じて、前記第2の信号処理部の制御を行う
 上記(103)又は(104)に記載の音響処理装置。
 (106)
 前記制御部は、外部装置からの通信により取得した情報に基づいて、前記第2の信号処理部の制御を行う
 上記(103)から(105)のいずれかに記載の音響処理装置。
 (107)
 前記第1の信号処理部は、
 前記第1のスピーカの前記第1極端子に供給する第1の第1信号を生成する第1の音響信号生成部と、
 前記第2のスピーカの前記第1極端子に供給する第2の第1信号を生成する第2の音響信号生成部と、
 を有し、
 前記第2の信号処理部は、
 前記第1のスピーカの前記第2極端子に供給する第1の第2信号を生成する第3の音響信号生成部と、
 前記第2のスピーカの前記第2極端子に供給する第2の第2信号を生成する第4の音響信号生成部と、
 を有する
 上記(101)から(106)のいずれかに記載の音響処理装置。
 (108)
 前記第1の信号処理部と前記第2の信号処理部の一方又は両方は、
 ノイズキャンセリング信号を生成する音響信号生成部を備える
 上記(101)から(107)のいずれかに記載の音響処理装置。
 (109)
 前記第1の信号処理部と前記第2の信号処理部の一方又は両方は、
 ビームフォーミング信号を生成する音響信号生成部を備える
 上記(101)から(108)のいずれかに記載の音響処理装置。
 (110)
 前記第1の信号処理部が生成する前記第1信号は、第1の信号処理部内の音響信号生成部で生成した音響信号と、入力された音響信号を合成した信号である
 上記(101)から(109)のいずれかに記載の音響処理装置。
 (111)
 前記第1の信号処理部が生成する第1信号と、前記第2の信号処理部が生成する前記第2信号は、同じ音響機能の信号成分を含む
 上記(101)から(110)のいずれかに記載の音響処理装置。
 (112)
 特定の音響機能のための信号成分が、前記第1の信号処理部が生成する前記第1信号と、前記第2の信号処理部が生成する前記第2信号のうちの一方に含まれる
 上記(101)から(111)のいずれかに記載の音響処理装置。
 (113)
 前記第1のスピーカと、前記第2のスピーカと、を備える
 上記(101)から(112)のいずれかに記載の音響処理装置。
 (114)
 前記第1の一群のマイクロフォンと、前記第2の一群のマイクロフォンと、を備える
 上記(101)から(113)のいずれかに記載の音響処理装置。
 (115)
 第1の一群のマイクロフォンによる入力音声信号を用いて、第1のスピーカ及び第2のスピーカにおけるそれぞれの第1極端子に供給する第1信号を生成する第1の信号処理と、
 第2の一群のマイクロフォンによる入力音声信号を用いて、前記第1のスピーカ及び前記第2のスピーカにおけるそれぞれの第2極端子に供給する第2信号を生成する第2の信号処理と、
 を行う音響処理方法。
 (116)
 第1の一群のマイクロフォンによる入力音声信号を用いて、第1のスピーカ及び第2のスピーカにおけるそれぞれの第1極端子に供給する第1信号を生成する第1の信号処理部と、第2の一群のマイクロフォンによる入力音声信号を用いて、前記第1のスピーカ及び前記第2のスピーカにおけるそれぞれの第2極端子に供給する第2信号を生成する第2の信号処理部と、を備えた音響処理装置と通信可能な情報処理装置の制御方法として、
 状況判定処理と、
 前記状況判定処理の結果に基づいて、前記音響処理装置に対して、前記第2の信号処理部の制御信号を送信する送信処理と、
 を行う制御方法。
 (117)
 第1の一群のマイクロフォンによる入力音声信号を用いて、第1のスピーカ及び第2のスピーカにおけるそれぞれの第1極端子に供給する第1信号を生成する第1の信号処理部と、第2の一群のマイクロフォンによる入力音声信号を用いて、前記第1のスピーカ及び前記第2のスピーカにおけるそれぞれの第2極端子に供給する第2信号を生成する第2の信号処理部と、を備えた音響処理装置と通信可能な情報処理装置に、
 状況判定処理と、
 前記状況判定処理の結果に基づいて、前記音響処理装置に対して、前記第2の信号処理部の制御信号を送信する送信処理と、
 を実行させるプログラム。
1 音響出力装置
1A,1B ヘッドフォン
1C,1D イヤフォン
5L 左筐体
5R 右筐体
10,10A,10B,10C 信号処理部
15,15C,16,25,25C,26 音響信号生成部
15A,15A1,15A2,25A,25A1,25A2 NC信号生成部
16A,16A1,16A2,26A,26A1,26A2 NC信号生成部
15B,16B,NC+BF信号生成部
25B,26B BF信号生成部
20,20A,20B,20C 信号処理部
27L,27R スイッチ部
30,40 マイクロフォン
50,60 スピーカ
70 CPU
71 ノイズ解析部
72 通信制御部
90 端末装置

Claims (17)

  1.  第1の一群のマイクロフォンによる入力音声信号を用いて、第1のスピーカ及び第2のスピーカにおけるそれぞれの正極端子に供給するポジティブ信号を生成する第1の信号処理部と、
     第2の一群のマイクロフォンによる入力音声信号を用いて、前記第1のスピーカ及び前記第2のスピーカにおけるそれぞれの負極端子に供給するネガティブ信号を生成する第2の信号処理部と、を備えた
     音響処理装置。
  2.  前記第1のスピーカの負極端子及び前記第2のスピーカの負極端子に対して、ネガティブ信号を供給する状態と、グランド接続される状態とが切り替え可能な構成とされている
     請求項1に記載の音響処理装置。
  3.  前記第1のスピーカの負極端子及び前記第2のスピーカの負極端子に対して、ネガティブ信号を供給する状態と、グランド接続される状態とが切り替え可能な構成とされており、
     当該切り替えの制御を行う制御部を備える
     請求項1に記載の音響処理装置。
  4.  前記制御部は、前記第1のスピーカの負極端子及び前記第2のスピーカの負極端子をグランド接続状態とする場合、前記第2の信号処理部を電源オフに制御する
     請求項3に記載の音響処理装置。
  5.  前記制御部は、
     前記第1の一群のマイクロフォンによる入力音声信号を、前記第1の信号処理部から入力して音声信号解析を行い、解析結果に応じて、前記第2の信号処理部の制御を行う
     請求項3に記載の音響処理装置。
  6.  前記制御部は、外部装置からの通信により取得した情報に基づいて、前記第2の信号処理部の制御を行う
     請求項3に記載の音響処理装置。
  7.  前記第1の信号処理部は、
     前記第1のスピーカの正極端子に供給する第1のポジティブ信号を生成する第1の音響信号生成部と、
     前記第2のスピーカの正極端子に供給する第2のポジティブ信号を生成する第2の音響信号生成部と、
     を有し、
     前記第2の信号処理部は、
     前記第1のスピーカの負極端子に供給する第1のネガティブ信号を生成する第3の音響信号生成部と、
     前記第2のスピーカの負極端子に供給する第2のネガティブ信号を生成する第4の音響信号生成部と、
     を有する
     請求項1に記載の音響処理装置。
  8.  前記第1の信号処理部と前記第2の信号処理部の一方又は両方は、
     ノイズキャンセリング信号を生成する音響信号生成部を備える
     請求項1に記載の音響処理装置。
  9.  前記第1の信号処理部と前記第2の信号処理部の一方又は両方は、
     ビームフォーミング信号を生成する音響信号生成部を備える
     請求項1に記載の音響処理装置。
  10.  前記第1の信号処理部が生成するポジティブ信号は、第1の信号処理部内の音響信号生成部で生成した音響信号と、入力された音響信号を合成した信号である
     請求項1に記載の音響処理装置。
  11.  前記第1の信号処理部が生成するポジティブ信号と、前記第2の信号処理部が生成するネガティブ信号は、同じ音響機能の信号成分を含む
     請求項1に記載の音響処理装置。
  12.  特定の音響機能のための信号成分が、前記第1の信号処理部が生成するポジティブ信号と、前記第2の信号処理部が生成するネガティブ信号のうちの一方に含まれる
     請求項1に記載の音響処理装置。
  13.  前記第1のスピーカと、前記第2のスピーカと、を備える
     請求項1に記載の音響処理装置。
  14.  前記第1の一群のマイクロフォンと、前記第2の一群のマイクロフォンと、を備える
     請求項1に記載の音響処理装置。
  15.  第1の一群のマイクロフォンによる入力音声信号を用いて、第1のスピーカ及び第2のスピーカにおけるそれぞれの正極端子に供給するポジティブ信号を生成する第1の信号処理と、
     第2の一群のマイクロフォンによる入力音声信号を用いて、前記第1のスピーカ及び前記第2のスピーカにおけるそれぞれの負極端子に供給するネガティブ信号を生成する第2の信号処理と、
     を行う音響処理方法。
  16.  第1の一群のマイクロフォンによる入力音声信号を用いて、第1のスピーカ及び第2のスピーカにおけるそれぞれの正極端子に供給するポジティブ信号を生成する第1の信号処理部と、第2の一群のマイクロフォンによる入力音声信号を用いて、前記第1のスピーカ及び前記第2のスピーカにおけるそれぞれの負極端子に供給するネガティブ信号を生成する第2の信号処理部と、を備えた音響処理装置と通信可能な情報処理装置の制御方法として、
     状況判定処理と、
     前記状況判定処理の結果に基づいて、前記音響処理装置に対して、前記第2の信号処理部の制御信号を送信する送信処理と、
     を行う制御方法。
  17.  第1の一群のマイクロフォンによる入力音声信号を用いて、第1のスピーカ及び第2のスピーカにおけるそれぞれの正極端子に供給するポジティブ信号を生成する第1の信号処理部と、第2の一群のマイクロフォンによる入力音声信号を用いて、前記第1のスピーカ及び前記第2のスピーカにおけるそれぞれの負極端子に供給するネガティブ信号を生成する第2の信号処理部と、を備えた音響処理装置と通信可能な情報処理装置に、
     状況判定処理と、
     前記状況判定処理の結果に基づいて、前記音響処理装置に対して、前記第2の信号処理部の制御信号を送信する送信処理と、
     を実行させるプログラム。
PCT/JP2021/014670 2020-04-25 2021-04-06 音響処理装置、音響処理方法、制御方法、プログラム WO2021215242A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US17/919,722 US20230179914A1 (en) 2020-04-25 2021-04-06 Acoustic processing device, acoustic processing method, control method, and program
CN202180029302.XA CN115462094A (zh) 2020-04-25 2021-04-06 声学处理装置、声学处理方法、控制方法和程序
JP2022516943A JPWO2021215242A1 (ja) 2020-04-25 2021-04-06
DE112021002524.4T DE112021002524T5 (de) 2020-04-25 2021-04-06 Akustische verarbeitungsvorrichtung, akustisches verarbeitungsverfahren, steuerverfahren und programm

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-077860 2020-04-25
JP2020077860 2020-04-25

Publications (1)

Publication Number Publication Date
WO2021215242A1 true WO2021215242A1 (ja) 2021-10-28

Family

ID=78269158

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/014670 WO2021215242A1 (ja) 2020-04-25 2021-04-06 音響処理装置、音響処理方法、制御方法、プログラム

Country Status (5)

Country Link
US (1) US20230179914A1 (ja)
JP (1) JPWO2021215242A1 (ja)
CN (1) CN115462094A (ja)
DE (1) DE112021002524T5 (ja)
WO (1) WO2021215242A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009021826A (ja) * 2007-07-12 2009-01-29 Sony Corp 信号処理装置、信号処理方法、プログラム、ノイズキャンセリングシステム
JP2012063483A (ja) * 2010-09-15 2012-03-29 Audio Technica Corp ノイズキャンセルヘッドホン及びノイズキャンセルイヤーマフ

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4882773B2 (ja) 2007-02-05 2012-02-22 ソニー株式会社 信号処理装置、信号処理方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009021826A (ja) * 2007-07-12 2009-01-29 Sony Corp 信号処理装置、信号処理方法、プログラム、ノイズキャンセリングシステム
JP2012063483A (ja) * 2010-09-15 2012-03-29 Audio Technica Corp ノイズキャンセルヘッドホン及びノイズキャンセルイヤーマフ

Also Published As

Publication number Publication date
CN115462094A (zh) 2022-12-09
US20230179914A1 (en) 2023-06-08
DE112021002524T5 (de) 2023-04-06
JPWO2021215242A1 (ja) 2021-10-28

Similar Documents

Publication Publication Date Title
JP5526042B2 (ja) 音響システム及びサウンドを提供する方法
JP4542702B2 (ja) バイノーラル・デジタル補聴システム
US10410654B2 (en) Active noise control headphones
US9398381B2 (en) Hearing instrument
US6741708B1 (en) Acoustic system comprised of components connected by wireless
CN111902866A (zh) 头戴式耳机中的双耳自适应噪声消除系统中的回声控制
JP2008131089A (ja) 音響システム、音響装置及び最適音場生成方法
US20050281422A1 (en) In-ear monitoring system and method with bidirectional channel
JP5593852B2 (ja) 音声信号処理装置、音声信号処理方法
JP2012511869A (ja) ワイヤレスヘッドセットにおける同時マルチソースオーディオ出力
JP2009530950A (ja) ウェアラブル装置のためのデータ処理
US9992591B2 (en) Arranging an audio signal based on the number of loudspeakers
CN105100990A (zh) 防止反馈话筒信号的饱和效应的anc噪声有源控制音频头戴组件
US11202161B2 (en) System, method, and apparatus for generating and digitally processing a head related audio transfer function
CN112954530B (zh) 一种耳机降噪方法、装置、系统及无线耳机
JP2011128617A (ja) 信号処理装置及び方法
KR20150065809A (ko) 바이노럴 청취 시스템 및 방법
JP4967894B2 (ja) 信号処理装置、信号処理方法、プログラム、ノイズキャンセリングシステム
US20140211970A1 (en) Earphone arrangements
US20190347062A1 (en) Sound Enhancement Adapter
WO2023098401A1 (zh) 具有主动降噪功能的耳机及主动降噪方法
CN112399301A (zh) 耳机及降噪方法
US9679551B1 (en) Noise reduction headphone with two differently configured speakers
WO2021215242A1 (ja) 音響処理装置、音響処理方法、制御方法、プログラム
JP2010130415A (ja) 音声信号再生装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21791815

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022516943

Country of ref document: JP

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 21791815

Country of ref document: EP

Kind code of ref document: A1