WO2016002358A1 - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
WO2016002358A1
WO2016002358A1 PCT/JP2015/063919 JP2015063919W WO2016002358A1 WO 2016002358 A1 WO2016002358 A1 WO 2016002358A1 JP 2015063919 W JP2015063919 W JP 2015063919W WO 2016002358 A1 WO2016002358 A1 WO 2016002358A1
Authority
WO
WIPO (PCT)
Prior art keywords
listening environment
characteristic information
music signal
environment characteristic
signal
Prior art date
Application number
PCT/JP2015/063919
Other languages
English (en)
French (fr)
Inventor
祐史 山邉
宏平 浅田
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to JP2016531177A priority Critical patent/JP6572894B2/ja
Priority to CN201580034441.6A priority patent/CN106664473B/zh
Priority to US15/321,408 priority patent/US9892721B2/en
Priority to EP15815725.5A priority patent/EP3163902A4/en
Publication of WO2016002358A1 publication Critical patent/WO2016002358A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1787General system configurations
    • G10K11/17879General system configurations using both a reference signal and an error signal
    • G10K11/17881General system configurations using both a reference signal and an error signal the reference signal being an acoustic signal, e.g. recorded with a microphone
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1781Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase characterised by the analysis of input or output signals, e.g. frequency range, modes, transfer functions
    • G10K11/17813Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase characterised by the analysis of input or output signals, e.g. frequency range, modes, transfer functions characterised by the analysis of the acoustic paths, e.g. estimating, calibrating or testing of transfer functions or cross-terms
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1781Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase characterised by the analysis of input or output signals, e.g. frequency range, modes, transfer functions
    • G10K11/17821Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase characterised by the analysis of input or output signals, e.g. frequency range, modes, transfer functions characterised by the analysis of the input signals only
    • G10K11/17827Desired external signals, e.g. pass-through audio such as music or speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1785Methods, e.g. algorithms; Devices
    • G10K11/17853Methods, e.g. algorithms; Devices of the filter
    • G10K11/17854Methods, e.g. algorithms; Devices of the filter the filter being an adaptive filter
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1787General system configurations
    • G10K11/17885General system configurations additionally using a desired external signal, e.g. pass-through audio such as music or speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K15/00Acoustics not otherwise provided for
    • G10K15/08Arrangements for producing a reverberation or echo sound
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M9/00Arrangements for interconnection not involving centralised switching
    • H04M9/08Two-way loud-speaking telephone systems with means for conditioning the signal, e.g. for suppressing echoes for one or both directions of traffic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1083Reduction of ambient noise
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/04Circuits for transducers, loudspeakers or microphones for correcting frequency response
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1008Earpieces of the supra-aural or circum-aural type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1041Mechanical or electronic switches, or control elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2410/00Microphones
    • H04R2410/05Noise reduction with a separate noise microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2460/00Details of hearing devices, i.e. of ear- or headphones covered by H04R1/10 or H04R5/033 but not provided for in any of their subgroups, or of hearing aids covered by H04R25/00 but not provided for in any of its subgroups
    • H04R2460/01Hearing devices using active noise cancellation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/033Headphones for stereophonic communication

Definitions

  • the present disclosure relates to an information processing apparatus, an information processing method, and a program.
  • Patent Document 1 is equipped with both a noise canceling function and a monitor function for superimposing and outputting an external audio signal (so-called monitor signal) on a music signal, while obtaining a noise reduction effect on the music signal,
  • monitor signal an external audio signal
  • the present disclosure proposes a new and improved information processing apparatus, information processing method, and program that can give a sense of openness to the user.
  • a listening environment characteristic information acquisition unit that acquires listening environment characteristic information indicating characteristics of a listening environment based on external sound collected by at least one microphone, and the acquired listening environment characteristic information
  • a music signal processing unit that filters the music signal with a filter characteristic based on the information processing apparatus.
  • the processor acquires the listening environment characteristic information indicating the characteristics of the listening environment based on the external sound collected by the at least one microphone, and the processor acquires the acquired listening sound.
  • An information processing method includes filtering a music signal with a filter characteristic based on environmental characteristic information.
  • a function of acquiring listening environment characteristic information indicating characteristics of a listening environment based on external sound collected by at least one microphone in a computer processor, and the acquired listening environment A program for realizing a function of filtering a music signal with a filter characteristic based on characteristic information is provided.
  • the listening space characteristic information representing the acoustic characteristics of the listening space is acquired based on the external sound. And the acoustic characteristic of listening space is provided to a music signal based on the acquired listening space characteristic information. Therefore, a more open music that is more familiar to external sounds can be provided to the user.
  • First embodiment 1-1 Overview of First Embodiment 1-2.
  • System configuration 1-3 About listening environment characteristic information acquisition unit 1-4.
  • System configuration 2-3 About listening environment characteristic information acquisition unit 2-3-1.
  • Music signal processor 3.
  • Information processing method Modified example 4-1. Modified example in which sound pressure is adjusted 4-2.
  • voice related to speech by a user wearing headphones (hereinafter also referred to as speech voice) is collected by a microphone as external voice.
  • listening environment characteristic information representing the acoustic characteristics of a space where the user exists (hereinafter also referred to as a listening environment) is acquired based on the collected speech.
  • the audio signal of the music content (hereinafter also referred to as a music signal) is filtered with a filter characteristic based on the acquired listening environment characteristic information.
  • FIG. 1 is a schematic diagram illustrating a configuration example of the headphones according to the first embodiment.
  • the headphone 100 includes a housing 140 attached to a user's ear, and a pair of microphones 110 a and 110 b provided on the outside and inside of the housing 140, respectively.
  • FIG. 1 shows only the housing 140 that is worn on one ear of the user among the headphones 100, but the headphones 100 actually include a pair of housings 140.
  • the other housing 140 may be attached to the other ear of the user.
  • the headphones 100 may be so-called overhead headphones in which the pair of housings 140 are connected to each other by a support member that is curved in an arch shape, for example.
  • the headphone 100 may be a so-called inner ear type headphone in which a pair of housings 140 are connected by a wire or a support member.
  • the housing 140 is supplied with a driver unit (speaker) that generates sound by vibrating the diaphragm in accordance with the music signal, and the music signal is supplied to the driver unit.
  • a driver unit speaker
  • Various configurations of general headphones, such as a cable for performing, may be mounted.
  • the microphone 110a provided outside the housing 140 is a microphone (hereinafter also referred to as an FF microphone 110a) provided for a noise canceling function by a so-called feedforward method. Based on the external sound collected by the FF microphone 110a, a sound signal (hereinafter also referred to as a noise cancellation signal) that cancels a sound that may be noise can be generated.
  • the music signal on which the noise cancellation signal is superimposed is output from the speaker, so that music with reduced noise is provided to the user.
  • the external sound collected by the FF microphone 110a may be used for a so-called monitor function that takes in the external sound and outputs it from a speaker.
  • a sound signal (hereinafter also referred to as a monitor signal) for allowing the user to listen to the external sound can be generated.
  • the music signal on which the monitor signal is superimposed is output from the speaker, so that external sound is provided to the user together with the music.
  • the output of a sound corresponding to an audio signal from a speaker is also referred to as an output of an audio signal.
  • the microphones 110a and 110b collecting sounds according to the audio signals are also referred to as collecting audio signals for convenience.
  • the signals collected by the microphones 110a and 110b are also referred to as sound collection signals.
  • the microphone 110b provided inside the housing 140 is a microphone (hereinafter also referred to as an FB microphone 110b) provided for a noise cancellation function by a so-called feedback method.
  • the external sound that has leaked into the inside of the housing 140 is collected by the FB microphone 110b, and a noise cancellation signal can be generated based on the collected external sound.
  • the headphones 100 can also function as an input / output device for inputting / outputting various types of information to / from an information processing device such as a smartphone.
  • an information processing device such as a smartphone
  • the user can input various instructions to the information processing apparatus by voice while wearing the headphones 100.
  • the headphones 100 may function as a so-called headset, and the user may make a call via the headphones 100.
  • the transfer function of the user's listening environment is used as the listening environment characteristic information based on the user's utterance voice such as the above instruction or a call.
  • H 2 is calculated. Specifically, the speech of a user wearing the headphone 100, a transfer function of H 2 until it reaches the FF microphone 110a is for acoustic characteristics of the listening environment is reflected.
  • the transfer function H 1 to the speech reaches the FB microphone 110b is, for example meat conduction and bone conduction or the like, the transfer function when the sound through the body of the user is transmitted, acoustic listening environment The characteristics are not reflected.
  • the transfer function of H 2 listening environment it can be calculated.
  • the filtering based on the calculated transfer function H 2 is performed on the music signal, so that the user can be provided with music that is more familiar with the external sound in consideration of the acoustic characteristics of the external environment. This makes it possible to give an open feeling.
  • FIG. 2 is a block diagram illustrating a configuration example of the sound adjustment system according to the first embodiment.
  • the acoustic adjustment system 10 includes a microphone 110, a speaker 120, and a control unit 130.
  • the microphone 110 collects sound and converts the sound into an electric signal, thereby acquiring a signal corresponding to the sound (that is, a sound collection signal).
  • the microphone 110 corresponds to the microphones 110a and 110b shown in FIG. 1, and schematically shows these together.
  • the microphone 110 collects external sound used for the noise cancellation function and the monitor function.
  • the microphone 110 collects the user's uttered voice in order to acquire listening environment characteristic information.
  • the collected sound signal from the microphone 110 is appropriately amplified by an amplifier 111, converted into a digital signal by an ADC (Analog-to-Digital Converter) 112, and then a listening environment characteristic information acquisition unit 131 of a control unit 130, which will be described later, a monitor signal
  • ADC Analog-to-Digital Converter
  • the data is input to the generation unit 133 and the noise cancellation signal generation unit 134.
  • an amplifier 111 and an ADC 112 are provided for each of the microphones 110a and 110b.
  • the speaker 120 outputs a sound corresponding to the sound signal by vibrating the diaphragm according to the sound signal.
  • the speaker 120 corresponds to a driver unit mounted on the headphones 100 shown in FIG.
  • the speaker 120 can output a music signal that has been subjected to filtering based on the listening environment characteristic information (that is, the listening environment transfer function H 2 ).
  • a noise cancellation signal and / or a monitor signal may be superimposed on the music signal output from the speaker 120.
  • an audio signal which is converted into an analog signal by a DAC (Digital-to-Analog Converter) 122 and appropriately amplified by an amplifier 121 is output.
  • DAC Digital-to-Analog Converter
  • the control unit 130 is configured by various processors such as a CPU (Central Processing Unit) and a DSP (Digital Signal Processor), and various signals performed in the sound adjustment system 10. Execute the process.
  • the control unit 130 includes a listening environment characteristic information acquisition unit 131, a music signal processing unit 132, a monitor signal generation unit 133, and a noise cancellation signal generation unit 134 as its functions.
  • Each function of the control unit 130 can be realized by a processor constituting the control unit 130 operating according to a predetermined program.
  • the processor constituting the control unit 130 may be mounted on the headphones 100 shown in FIG. 1 or an information processing device different from the headphones 100 shown in FIG. 1 (for example, a mobile terminal such as a smartphone carried by the user).
  • control unit 130 may be mounted on.
  • the function of the control unit 130 may be executed by a processor of an information processing apparatus such as a server provided on a network (so-called cloud).
  • a processor of an information processing apparatus such as a server provided on a network (so-called cloud).
  • the processor constituting the control unit 130 is mounted on a portable terminal or a server other than the headphone 100, the headphone 100 on which at least the speaker 120 and the microphone 110 are mounted is attached to the user, and the headphone 100 and the headphone 100 Various processes in the acoustic adjustment system 10 can be executed by transmitting and receiving various types of information to and from the portable terminal or the server.
  • control unit 130 is connected to be able to communicate with an external device, and a music signal is input from the external device to the listening environment characteristic information acquisition unit 131 and the music signal processing unit 132 of the control unit 130.
  • the external device may be a playback device capable of playing back music content such as a CD (Compact Disc) player, a DVD (Digital Versatile Disc) player, and a Blu-ray (registered trademark) player.
  • the external device can read music signals recorded in accordance with various recording methods from various recording media.
  • the above-described portable terminal may have the function of the external device (playback device).
  • the listening environment characteristic information acquisition unit 131 acquires listening environment characteristic information representing the acoustic characteristics of the listening environment based on the external sound collected by the microphone 110.
  • the listening environment characteristic information obtaining unit 131 based on the uttered voice of the user picked up by the microphone 110, as listening environment characteristic information to obtain a transfer function of H 2 listening environment.
  • the listening environment characteristic information acquisition unit 131 provides information about the acquired transfer function H 2 to the music signal processing unit 132.
  • the function of the listening environment characteristic information acquisition unit 131 will be described in detail below (1-3. About the listening environment characteristic information acquisition unit).
  • the timing at which the listening environment characteristic information acquisition unit 131 starts acquiring the listening environment characteristic information is, for example, a predetermined condition (hereinafter referred to as listening environment characteristic information acquisition) such as power-on, a prescribed timer count (that is, a predetermined timing) (It is also referred to as a condition).
  • listening environment characteristic information acquisition such as power-on
  • a prescribed timer count that is, a predetermined timing
  • the listening environment characteristic information acquisition unit 131 acquires the listening environment characteristic information at the timing when the user's utterance is detected. May start.
  • the listening environment characteristic information acquisition condition is, for example, a GPS (Global Positioning System) sensor mounted on the portable terminal. The movement of the user may be detected by the sensor, or the operation input to the portable terminal may be detected.
  • the music signal processing unit 132 performs predetermined signal processing on the music signal based on the listening environment characteristic information acquired by the listening environment characteristic information acquisition unit 131.
  • the music signal processing unit 132 filters the music signal based on the transfer function H 2 acquired by the listening environment characteristic information acquisition unit 131.
  • the music signal processing unit 132 by filtering the music signal by a filter having a filter characteristic that reflects the characteristics of the transfer function of H 2 listening spaces, for example, the reverberation characteristics according to the external environment (initial reflection time And reverberation time) can be added to the music signal.
  • the music signal subjected to the signal processing by the music signal processing unit 132 (hereinafter also referred to as a music signal after the signal processing) is appropriately adjusted by the variable amplifier 150a, and then the speaker is passed through the DAC 122 and the amplifier 121. 120.
  • the music signal after the signal processing may be output to the speaker 120 in a state where the noise cancel signal and / or the monitor signal are added by the adder 160, as shown in FIG.
  • the function of the music signal processing unit 132 will be described in detail in (1-4. Music signal processing unit).
  • the monitor signal generation unit 133 Based on the external sound collected by the microphone 110, the monitor signal generation unit 133 generates a monitor signal that is a sound signal for allowing the user to listen to the external sound.
  • the monitor signal generation unit 133 can adjust the sound related to the monitor signal (hereinafter also referred to as monitor sound) so that the external sound becomes a natural sound together with the sound leaked directly into the housing.
  • the monitor signal generation unit 133 is configured by, for example, a high-pass filter (HPF) and a gain circuit, and a sound collection signal from the microphone 110 is input to the HPF via the amplifier 111 and the ADC 112.
  • the cut-off frequency of the HPF may be set so as to remove a low-frequency component that is likely to contain an audible noise component.
  • the monitor signal generated by the monitor signal generating unit 133 can be added to the music signal after the signal processing by the adder 160 after the gain is appropriately adjusted by the variable amplifier 150 b and output from the speaker 120. By superimposing the monitor signal, the user can listen to, for example, external sound such as in-car announcement with music while wearing the headphones 100.
  • the noise cancellation signal generation unit 134 generates a noise cancellation signal that is an audio signal for canceling a noise component included in the external audio, based on the external audio collected by the microphone 110.
  • the noise cancellation signal generation unit 134 includes an inverter that generates a signal having a phase opposite to that of the external audio signal, and a filter circuit that adjusts the cancellation band.
  • a signal characteristic ⁇ corresponding to a noise canceling system based on the FF method is set in the noise cancellation signal generation unit 134, and the noise cancellation signal generation unit 134 corresponds to a sound collection signal by the FF microphone 110 a of the microphone 110.
  • the signal characteristic ⁇ is provided.
  • a noise cancellation signal is generated so that the external sound is canceled and listened to by the user in consideration of the transfer function of each circuit and space in the FF noise canceling system. As shown, it represents signal characteristics (for example, frequency-amplitude characteristics and frequency-phase characteristics) to be given to the collected sound signal.
  • the filter circuit of the noise cancellation signal generation unit 134 can be configured to be able to give such a signal characteristic ⁇ to the collected sound signal, for example.
  • the noise cancellation signal generated by the noise cancellation signal generation unit 134 may be added to the music signal after the signal processing by the adder 160 after the gain is appropriately adjusted by the variable amplifier 150 c and output from the speaker 120. By superimposing the noise cancellation signal, the user can listen to music with better sound quality with reduced noise.
  • the noise cancellation signal generation unit 134 may generate a noise cancellation signal corresponding to a noise canceling system based on the FB method. In that case, the noise cancellation signal generation unit 134 may be configured to generate a noise cancellation signal by giving a predetermined signal characteristic to the sound collection signal by the FB microphone 110b in the microphone 110.
  • monitor signal generation unit 133 and the noise cancellation signal generation unit 134 various known functions that are generally performed to generate the monitor signal and the noise cancellation signal may be applied. Therefore, detailed descriptions of the specific configurations of the monitor signal generation unit 133 and the noise cancellation signal generation unit 134 are omitted.
  • functions of the monitor signal generation unit 133 and the noise cancellation signal generation unit 134 reference can be made to, for example, the description in Patent Document 1 that is a prior application by the applicant of the present application.
  • the generation of the monitor signal by the monitor signal generation unit 133 and the generation of the noise cancellation signal by the noise cancellation signal generation unit 134 are not necessarily performed. Even when the monitor signal and the noise cancellation signal are not superimposed, the music signal processed by the music signal processing unit 132 based on the listening environment characteristic information is output to the user. The music with a more open feeling considered will be provided to the user.
  • each processing in the control unit 130 may be executed by, for example, one processor or one information processing apparatus, or may be performed by a plurality of processors or a plurality of processors. It may be executed by cooperation of the information processing apparatus. Or as above-mentioned, these signal processing may be performed by information processing apparatuses, such as a server provided on a network (on what is called cloud), or an information processing apparatus group.
  • the device configuration that can realize the acoustic adjustment system 10 according to the first embodiment is not limited to the configuration shown in FIG. 1 and may be arbitrary.
  • the acoustic adjustment system 10 illustrated in FIG. 1 may be configured as an integrated device.
  • An external device (playback device) that provides a music signal to the control unit 130 may also be included in the device.
  • the device can be, for example, a headphone-type portable music player.
  • FIG. 3 is a block diagram illustrating an example of a functional configuration of the listening environment characteristic information acquisition unit 131.
  • the listening environment characteristic information acquisition unit 131 functions as an FB microphone signal buffer unit 161, an FB microphone signal FFT unit 162, a transfer function calculation unit 163, an FF microphone signal buffer unit 164, An FF microphone signal FFT unit 165.
  • 3 illustrates the functional configuration of the listening environment characteristic information acquisition unit 131, and the configuration related to each function of the listening environment characteristic information acquisition unit 131 in the configuration of the acoustic adjustment system 10 illustrated in FIG. It is extracted and shown together.
  • S is a parameter representing a voice (uttered voice) uttered from the user's mouth when various instructions are given to the information processing apparatus or during a telephone call.
  • the transfer function of the speech from the mouth of the user to reach the FB microphone 110b and H 1 speech is the transfer function from the user's mouth to reach the FF microphone 110a and H 2.
  • the transfer function H 1 is speech is represents the transfer function until it reaches the FB microphone 110a via, for example, meat conduction and bone conduction such as a user's body.
  • the transfer function H 2 is speech is represents the transfer function up via the space (listening environment) there is a user reaches the FF microphone 110a.
  • the transfer function H 1 indicates a sound transfer characteristic in a state that does not include the acoustic characteristics of the listening environment (for example, reverberation characteristics, reflection characteristics due to wall surfaces, etc.), and the transfer function H 2 indicates the external listening environment. It can be said that the transmission characteristic of the sound reflecting the acoustic characteristic is shown. Therefore, the transfer function H 1 does not change depending on the listening environment, and is a known value that can be acquired in advance by, for example, measuring in an anechoic room or the like when the headphones 100 are designed. On the other hand, the transfer function H 2 is the unknown value to be changed by the listening environment.
  • listening environment characteristic information obtaining unit 131 based on the uttered voice of the user picked up respectively by FF microphones 110a and FB microphone 110b, a listening environment characteristic information, the transfer function of H 2 listening space may be obtained.
  • the collected sound signal from the FB microphone 110b is appropriately amplified by the amplifier 111b, converted into a digital signal by the ADC 112b, and then input to the FB microphone signal buffer unit 161 of the listening environment characteristic information acquisition unit 131.
  • the FB microphone signal buffer unit 161 buffers the sound pickup signal from the FB microphone 110b with a predetermined frame length, and provides it to the subsequent FB microphone signal FFT unit 162.
  • the FB microphone signal FFT unit 162 performs Fast Fourier Transform (FFT) on the collected sound signal, and provides it to the transfer function calculation unit 163 in the subsequent stage. It picked up by the FB microphone 110b, collected sound signal input to the transfer function calculating unit 163 via the FB microphone signal buffer section 161 and FB microphone signal FFT unit 162, by using the parameters S and the transfer function H 1 " S * H 1 ”.
  • the collected sound signal from the FF microphone 110a is appropriately amplified by the amplifier 111a, converted into a digital signal by the ADC 112a, and then input to the FF microphone signal buffer unit 164 of the listening environment characteristic information acquisition unit 131.
  • the FF microphone signal buffer unit 164 buffers the sound collection signal from the FF microphone 110a with a predetermined frame length, and provides it to the FF microphone signal FFT unit 165 at the subsequent stage.
  • the FF microphone signal FFT unit 165 performs fast Fourier transform on the collected sound signal and provides it to the transfer function calculation unit 163 in the subsequent stage. It picked up by the FF microphone 110a, sound collection signal inputted to the transfer function calculating unit 163 via the FF microphone signal buffer section 164 and FF microphone signal FFT unit 165, using the parameters S and the transfer function H 2 " S * H 2 ”.
  • the signal S * H 1 and the signal S * H 2 may be known values acquired as measured values as described above.
  • the transfer function H 1 may be a known value by prior measurement. Therefore, the transfer function calculating unit 163 can be based on the following equation (1), to calculate a transfer function of H 2 listening space.
  • the transfer function calculation unit 163 provides the calculated transfer function H 2 of the listening space to the music signal processing unit 132.
  • the music signal processing unit 132 so that the filtering of the various is performed on the music signal by using a transfer function of H 2 listening space.
  • the timing at which the FB microphone signal buffer unit 161 and the FF microphone signal buffer unit 164 start buffering the collected sound signal may be the timing at which the listening environment characteristic information acquisition condition is detected.
  • FIG. 4 is a block diagram illustrating a configuration example of the music signal processing unit 132.
  • FIG. 4 schematically shows an example of a filter circuit that can constitute the music signal processing unit 132.
  • the music signal processing unit 132 can be preferably configured by an FIR (Finite Impulse Response) filter.
  • FIR Finite Impulse Response
  • the transfer function h of the time domain representation obtained by inverse Fourier transform of the transfer function H 2 (frequency domain representation) of the listening space acquired by the listening environment characteristic information acquisition unit 131 as a parameter of the FIR filter.
  • a filter circuit reflecting the acoustic characteristics of the space can be realized.
  • the music signal processing unit 132 obtains a transfer function h expressed in time domain by the following mathematical formula (2), and then convolves the music signal with the FIR filter of the transfer function h. Thereby, the acoustic characteristics (for example, reverberation characteristics, frequency characteristics, etc.) of the listening space are given to the music signal.
  • N is the number of points of the discrete Fourier transform.
  • the music signal processing unit 132 outputs the music signal to which the acoustic characteristic of the listening space is given by filtering to the speaker 120 via the DAC 122 and the amplifier 121.
  • the music signal filtered by the music signal processing unit 132 may be output from the speaker 120 with the noise canceling signal and / or the monitor signal superimposed by the adder 160. Good. Accordingly, music that is more familiar to the monitor sound can be provided to the user in a state where noise is further reduced.
  • the transfer function H 2 is used in the frequency domain, the music signal is subjected to discrete Fourier transform, and the music signal after the discrete Fourier transform is multiplied by the transfer function H 2 in the frequency domain.
  • a filter circuit having the same effect can be realized. Further, it is possible to mount the FIR filter and the FFT in combination.
  • the transfer function h of the time domain expression is used as a parameter of the FIR filter.
  • the music signal processing unit 132 uses the newly obtained FIR filter parameter (that is, If the transfer function h) is not significantly different from the current set value, these parameters in the FIR filter need not be updated. For example, when the difference between the current parameters set in the FIR filter and the new parameters obtained by the current measurement is larger than a predetermined threshold, the music signal processing unit 132 sets these parameters. It may be updated. If the characteristics of the FIR filter are changed too frequently, the music signal may fluctuate, which may impair the user's sense of listening. Therefore, when the newly obtained parameter does not greatly differ from the current set value, it is possible to provide music more stably to the user by not updating the parameter. It becomes possible.
  • the transfer function H 2 of the listening space is acquired based on the user's uttered voice, and the acoustic characteristics of the listening space are included in the music signal based on the transfer function H 2. Is granted. Therefore, a more open music that is more familiar to external sounds can be provided to the user.
  • the transfer function H 2 is an arbitrary value that the user has spoken as a normal operation, for example, when the user gives an instruction to the information processing apparatus by voice, or when the user is making a call using the telephone function. Can be acquired at timing. Therefore, even if the user does not dare to obtain the transfer function H 2 (speaking), the transfer function H 2 is automatically acquired based on words uttered by the user for other purposes, and the music signal is corrected. Therefore, the convenience for the user is improved.
  • a predetermined measurement sound is used as the external sound.
  • sound related to a music signal, uncorrelated noise in a listening environment, or the like can be used.
  • the listening environment characteristic information is acquired based on the measurement sound collected by the microphone.
  • the music signal is filtered with a filter characteristic based on the acquired listening environment characteristic information. As a result, music that more closely matches the external sound, reflecting the acoustic characteristics of the listening environment, is provided to the user.
  • FIG. 5 is a schematic diagram illustrating a configuration example of the headphones according to the second embodiment.
  • a headphone 200 includes a pair of housings 240 attached to a user's ears, and an arch-shaped support member 250 that connects the pair of housings 240 to each other.
  • a driver unit 220b (speaker 220b) that is provided inside the housing 240 and generates sound by vibrating the diaphragm according to the music signal, and a speaker that outputs the music signal toward the listening environment that is an external space 220a, and a microphone 210 that is provided outside the housing 240 and picks up external sound.
  • the headphones 200 are equipped with various configurations of general headphones, such as cables for supplying music signals to the speakers 220a and 220b, for example. It's okay.
  • the microphone 210 is a microphone provided for a noise canceling function by a so-called feedforward method.
  • a noise cancellation signal may be generated based on the external sound collected by the microphone 210. Further, the external sound collected by the microphone 210 may be used for the monitor function.
  • a monitor signal can be generated based on the external sound collected by the microphone 210.
  • the music signal on which the noise cancellation signal is superimposed is output from the speakers 220a and 220b, so that music with reduced noise is provided to the user.
  • the music signal on which the monitor signal is superimposed is output from the speakers 220a and 220b, so that external sound is provided to the user together with the music.
  • a transfer function of the user's listening environment is calculated as listening environment characteristic information based on the external sound collected by the microphone 210.
  • a transfer function can be obtained by outputting a music signal from the speaker 220a toward the listening environment and using the music signal as a measurement audio signal (measurement signal).
  • a measurement audio signal measurement signal
  • a correlation function between the output music signal and the collected sound signal can be acquired as listening environment characteristic information.
  • the autocorrelation function of the collected sound signal can be acquired as the listening environment characteristic information.
  • Filtering based on the acquired transfer function or correlation function is performed on the music signal, so that the user can be provided with music that is more familiar with external sound in consideration of the acoustic characteristics of the external environment, It is possible to give a sense of openness to the user.
  • FIG. 6 is a block diagram illustrating a configuration example of an acoustic adjustment system according to the second embodiment.
  • the acoustic adjustment system 20 according to the second embodiment includes a microphone 210, speakers 220 a and 220 b, and a control unit 230.
  • the acoustic adjustment system 20 according to the second embodiment is different from the acoustic adjustment system 10 according to the first embodiment shown in FIG. This corresponds to a case where the functions of the information acquisition unit 131 and the music signal processing unit 132 are changed. Therefore, in the following description of the configuration of the acoustic adjustment system 20, differences from the acoustic adjustment system 10 according to the first embodiment will be mainly described, and detailed descriptions of overlapping items will be omitted. .
  • the microphone 210 collects a sound and converts the sound into an electric signal, thereby acquiring a signal corresponding to the sound (that is, a sound collection signal).
  • the microphone 210 corresponds to the microphone 210 shown in FIG.
  • the microphone 210 collects predetermined measurement sound as external sound.
  • the measurement voice includes voice related to a music signal output from the speaker 220a to the outside, and uncorrelated noise such as noise noise.
  • the collected sound signal from the microphone 210 is appropriately amplified by the amplifier 211 and converted into a digital signal by the ADC 212, and then the listening environment characteristic information acquisition unit 231, the monitor signal generation unit 133, and the noise cancellation signal generation unit of the control unit 230 described later. It is input to 134.
  • Speakers 220a and 220b output a sound corresponding to the sound signal by vibrating the diaphragm according to the sound signal.
  • the speakers 220a and 220b correspond to the speakers 220a and 220b shown in FIG.
  • the speaker 220b is provided inside the housing 240 and outputs a music signal reflecting the acoustic characteristics of the listening environment to the user's ear. From the speaker 220b, a noise cancellation signal and / or a monitor signal may be output superimposed on the music signal.
  • the speaker 220a outputs a music signal toward an external space (that is, a listening environment).
  • the music signal output from the speaker 220a may be a music signal before signal processing (for example, before performing filtering) provided from an external device (for example, various playback devices), for example.
  • the music signal output from the speaker 220a only needs to have a known characteristic, and may be a music signal after signal processing. Similar to the speaker 120 according to the first embodiment, DACs 222a and 222b and amplifiers 221a and 221b are provided in front of the speakers 220a and 220b, respectively.
  • the control unit 230 is configured by various processors such as a CPU and a DSP, for example, and executes various signal processes performed in the acoustic adjustment system 20.
  • the control unit 230 includes a listening environment characteristic information acquisition unit 231, a music signal processing unit 232, a monitor signal generation unit 133, and a noise cancellation signal generation unit 134 as its functions.
  • Each function of the control unit 230 can be realized by a processor constituting the control unit 230 operating according to a predetermined program.
  • the processor constituting the control unit 230 may be mounted on the headphones 200 shown in FIG. 5 or an information processing device different from the headphones 200 shown in FIG. 5 (for example, a mobile terminal such as a smartphone carried by the user). It may be mounted on.
  • the function of the control unit 230 may be executed by a processor of an information processing apparatus such as a server provided on a network (so-called cloud).
  • a processor of an information processing apparatus such as a server provided on a network (so-called cloud).
  • the processor constituting the control unit 230 is mounted on a portable terminal or server other than the headphone 200, the headphone 200 and the portable terminal or the server transmit and receive various kinds of information to each other, thereby adjusting the sound.
  • Various processes in the system 20 may be performed.
  • the functions of the monitor signal generation unit 133 and the noise cancellation signal generation unit 134 are the same as the functions of these configurations shown in FIG.
  • the listening environment characteristic information acquisition unit 231 acquires listening environment characteristic information representing the acoustic characteristics of the listening environment based on the external sound collected by the microphone 210.
  • the listening environment characteristic information acquisition unit 231 uses, as the listening environment characteristic information, the listening environment transfer function, the output music signal and the collected sound signal based on the measurement sound collected by the microphone 210. And / or an autocorrelation function of uncorrelated noise can be obtained.
  • the listening environment characteristic information acquisition unit 131 provides the acquired listening environment characteristic information to the music signal processing unit 232. Similar to the listening environment characteristic information acquisition unit 131 according to the first embodiment, the listening environment characteristic information acquisition unit 231 acquires the listening environment characteristic information at the timing when the listening environment characteristic information acquisition condition is detected. Can start. The function of the listening environment characteristic information acquisition unit 231 will be described in detail below (2-3. About the listening environment characteristic information acquisition unit).
  • the music signal processing unit 232 performs predetermined signal processing on the music signal based on the listening environment characteristic information acquired by the listening environment characteristic information acquisition unit 231.
  • the music signal processing unit 232 performs filtering on the music signal based on the transfer function and the correlation function that can be acquired by the listening environment characteristic information acquisition unit 231.
  • the music signal processing unit 232 filters the music signal with a filter having filter characteristics reflecting the transfer function and / or correlation function characteristics of the listening environment, for example, reverberation characteristics (for example, according to the external environment ( Initial reflection time, reverberation time, etc.) can be added to the music signal.
  • the music signal processing unit 232 can impart frequency characteristics according to the external environment to the music signal based on the transfer function and / or correlation function of the listening environment, for example, using an equalizer.
  • the music signal that has been subjected to signal processing by the music signal processing unit 232 is appropriately adjusted in gain by the variable amplifier 150a, then output from the speaker 220b via the DAC 222b and the amplifier 221b, and provided to the user.
  • the music signal after the signal processing may be output to the speaker 220b in a state where a noise cancel signal and / or a monitor signal are superimposed by the adder 160, as shown in FIG.
  • the function of the music signal processing unit 232 will be described in detail in (2-4. Music signal processing unit).
  • the configuration of the acoustic adjustment system 20 according to the second embodiment has been described above.
  • various signal processes in the acoustic adjustment system 20, particularly each process in the control unit 230 are performed by, for example, one processor or one information processing apparatus. Or may be executed by cooperation of a plurality of processors or a plurality of information processing apparatuses.
  • achieve the acoustic adjustment system 20 which concerns on 2nd Embodiment is not limited to the structure shown in FIG. 6, You may be arbitrary.
  • the sound adjustment system 20 illustrated in FIG. 2 may be configured as an integrated device, and the device may include an external device (playback device) that provides a music signal to the control unit 230.
  • the listening environment characteristic information acquisition unit 231 performs, as listening environment characteristic information, based on the measurement sound collected by the microphone 210, the transfer function of the listening environment, the output music signal, and the collected sound signal. A correlation function and / or an autocorrelation function of uncorrelated noise can be obtained.
  • the listening environment characteristic information acquisition unit 231 can have different configurations depending on the acquired listening environment characteristic information.
  • (2-3-1 Configuration for acquiring a transfer function using a music signal as a measurement signal
  • listening environment characteristic information acquiring unit 231 Configuration for acquiring correlation function using uncorrelated noise as measurement signal
  • the configuration of listening environment characteristic information acquiring unit 231 according to the acquired listening environment characteristic information will be described. 7, 8, and 10 below, for the sake of convenience, different symbols (listening environment characteristics) are used for the listening environment characteristic information acquisition unit 231 in order to describe different configurations in the listening environment characteristic information acquisition unit 231.
  • Information acquisition units 231a, 231b, and 231c) are attached, and these all correspond to the listening environment characteristic information acquisition unit 231 shown in FIG.
  • FIG. 7 is a block diagram illustrating a configuration example for acquiring a transfer function using a music signal as a measurement signal in the listening environment characteristic information acquisition unit 231.
  • the listening environment characteristic information acquisition unit 231a includes a music signal characteristic calculation unit 261 and a reverberation characteristic estimation unit 262 as its functions. 7 illustrates the functional configuration of the listening environment characteristic information acquisition unit 231a, and the configuration related to each function of the listening environment characteristic information acquisition unit 231 in the configuration of the acoustic adjustment system 20 illustrated in FIG. It is extracted and shown together.
  • a music signal is output as a measurement signal from the speaker 220 a, and the music signal is collected by the microphone 210.
  • a parameter representing a music signal used for measurement is S
  • a transfer function combining the microphone 210, the amplifier 211, and the ADC 212 is M
  • a transfer function combining the DAC 222a, the amplifier 221a, and the speaker 220a is D.
  • the transfer functions M and D are both known values that can be determined at the time of design.
  • Ha be the transfer function until the music signal output from the speaker 220a reaches the microphone 210 through the space where the user is (that is, the listening environment). Furthermore, transfer of the function Ha, H 1 a component corresponding to the path that directly waves arrive with no reflection by the wall of a room or the like from the speaker 220a to the microphone 210, the components other than H 1 of the transfer function Ha H 2 And The transfer function H 1 represents a component which is not influenced by the listening environment. On the other hand, the transfer function H 2 is changed according to the listening environment, the acoustic characteristics of the listening environment represents the reflection components. H 1 is a known value that can be acquired in advance, for example, by measuring it in an anechoic room or the like when designing the headphones 200. At this time, Ha, H 1 and H 2 satisfy the following mathematical formula (3).
  • a music signal is input as a measurement signal from an external device (playback device) to the music signal characteristic calculation unit 261.
  • the music signal characteristic calculation unit 261 buffers and Fourier-transforms the music signal with a predetermined frame length in response to a measurement start trigger. Thereby, the music signal characteristic calculation unit 261 obtains the parameter S (Source) representing the above-described music signal.
  • the music signal characteristic calculation unit 261 provides the acquired parameter S to the reverberation characteristic estimation unit 262. Further, the music signal characteristic calculation unit 261 provides the music signal to the DAC 222a.
  • the music signal is output from the speaker 220a via the DAC 222a and the amplifier 221a.
  • the music signal output from the speaker 220a is collected by the microphone 210.
  • the music signal collected by the microphone 210 (ie, the collected sound signal) is input to the reverberation characteristic estimation unit 262 via the amplifier 211 and the ADC 212.
  • the reverberation characteristic estimation unit 262 buffers and collects the collected sound signal with the same frame length as the music signal characteristic calculation unit 261 in response to a trigger for starting measurement.
  • a signal obtained as a result of the calculation by the reverberation characteristic estimation unit 262 can be expressed as “M * D * S * Ha”.
  • the transfer function Ha can be expressed as the following equation (4).
  • the transfer function H 2 can be expressed as the following formula (5).
  • the transfer functions H 1 , A, and D are known values.
  • the parameter S is calculated by the music signal characteristic calculator 261. Accordingly, the reverberation characteristic estimation unit 262, by performing the calculation shown in the equation (5) using these known values, it is possible to calculate the transfer function of H 2 listening environment.
  • the reverberation characteristic estimation unit 262 provides the calculated listening space transfer function H 2 to the music signal processing unit 232.
  • the music signal processing unit 232 so that the filtering of the various is performed on the music signal by using a transfer function of H 2 listening space.
  • the trigger for the music signal characteristic calculation unit 261 and the reverberation characteristic estimation unit 262 to start buffering the music signal and the collected sound signal may be that the listening environment characteristic information acquisition condition has been detected.
  • the example of 1 structure for acquiring a transfer function using a music signal as a measurement signal was demonstrated.
  • it has been calculated transfer function H 2 using a spoken voice of a user. Since the characteristic of the uttered voice is unknown, as described in the above (1-3. About listening environment characteristic information acquisition unit), in the first embodiment, the transfer function H is used without parameterizing the sound source. 2 was applied.
  • the characteristic of the speaker 220a transfer function D as described above
  • it can determine the transfer function H 2 using a sound source which is parameterized Become.
  • the transfer function H 2 of the listening space is used by using various methods depending on the configuration of the headphones 100 and 200 (more specifically, the number and positions of the speakers 120, 220a, and 220b and the microphones 110 and 210). Can be calculated.
  • FIG. 8 is a block diagram illustrating a configuration example for acquiring a correlation function using a music signal as a measurement signal in the listening environment characteristic information acquisition unit 231.
  • the listening environment characteristic information acquisition unit 231b includes an output signal buffer unit 271, a sound collection signal buffer unit 272, and a correlation function calculation unit 273 as its functions. 8 illustrates the functional configuration of the listening environment characteristic information acquisition unit 231b, and the configuration related to each function of the listening environment characteristic information acquisition unit 231 in the configuration of the acoustic adjustment system 20 illustrated in FIG. It is extracted and shown together.
  • a music signal is output as a measurement signal from the speaker 220 a, and the music signal is collected by the microphone 210. Then, a correlation function between the output music signal and the collected music signal (that is, the collected sound signal) is calculated.
  • the correlation function can be said to reflect the acoustic characteristics of the listening environment.
  • a music signal input from an external device is output from the speaker 220a via the DAC 222a and the amplifier 221a.
  • the output signal buffer unit 271 buffers the music signal for a predetermined time by a measurement start trigger.
  • the output signal buffer unit 271 provides the buffered music signal to the correlation function calculation unit 273.
  • the music signal output from the speaker 220a is collected by the microphone 210.
  • the collected sound signal from the microphone 210 is input to the collected sound signal buffer unit 272 via the amplifier 211 and the ADC 212.
  • the sound collection signal buffer unit 272 buffers the sound collection signal at the same timing and the same time as the music signal buffer by the output signal buffer unit 271 in synchronization with the output signal buffer unit 271.
  • the collected sound signal buffer unit 272 provides the buffered collected sound signal to the correlation function calculation unit 273.
  • the correlation function calculation unit 273 calculates a correlation function between the music signal at the time of output buffered by the output signal buffer unit 271 and the music signal at the time of sound collection buffered by the sound collection signal buffer unit 272.
  • An example of a correlation function that can be calculated by the correlation function calculator 273 is shown in FIG.
  • FIG. 9 is a schematic diagram illustrating an example of a correlation function that can be calculated by the correlation function calculation unit 273. As shown in FIG. 9, the correlation function peaks at times t 1 , t 2 , t 3 ,..., T n and at predetermined times.
  • Peak appearing at time t 1 shows a component transmitted directly from the speaker 220a to the microphone 210, the peak appearing at time t 2 later, after being output from the speaker 220a, and reflected on a wall or ceiling or the like of the listening environment
  • the components input to the microphone 210 from FIG. Component corresponding to the peak appearing at time t 2 later exponentially decays over time, approaches zero. From the time up to the time t n and the slope of attenuation, the time until the initial reflected sound, the reverberation time, etc., which are the main factors of the reverberation characteristics, can be estimated.
  • the correlation function calculation unit 273 provides the calculated correlation function to the music signal processing unit 232.
  • the music signal processing unit 232 for example, the reverberation characteristics of the listening environment as described above are estimated from the correlation function, and various kinds of filter processing are performed on the music signal using the estimated reverberation characteristics.
  • the trigger for the output signal buffer unit 271 and the collected sound signal buffer unit 272 to start buffering the music signal and the collected signal may be that the listening environment characteristic information acquisition condition has been detected.
  • a correlation function of music signals before and after output may be acquired instead of a transfer function.
  • the music signal is used as the measurement signal, but the second embodiment Is not limited to such an example.
  • the measurement sound for example, a dedicated sound whose frequency band, volume level, and the like are adjusted for measurement may be used. For example, more stable characteristic information can be obtained by using a dedicated measurement sound having a sufficient frequency band and volume level.
  • a dedicated measurement sound in which the frequency band and volume level are appropriately adjusted.
  • FIG. 10 is a block diagram illustrating a configuration example for acquiring a correlation function using uncorrelated noise as a measurement signal in the listening environment characteristic information acquisition unit 231.
  • the listening environment characteristic information acquisition unit 231c has an autocorrelation function calculation unit 281 as its function. 10 illustrates the functional configuration of the listening environment characteristic information acquisition unit 231c, and the configuration related to each function of the listening environment characteristic information acquisition unit 231 in the configuration of the acoustic adjustment system 20 illustrated in FIG. It is extracted and shown together.
  • uncorrelated noise external sound including uncorrelated noise (uncorrelated noise) is collected by the microphone 210. Then, an autocorrelation function is calculated for the uncorrelated noise collected.
  • the collected uncorrelated noise includes components that reflect the acoustic characteristics of the listening environment, such as reverberation components, so the autocorrelation function can be said to reflect the acoustic characteristics of the listening environment. .
  • external sound including uncorrelated noise is collected by the microphone 210.
  • the music signal collected by the microphone 210 ie, the collected sound signal
  • the autocorrelation function calculator 281 buffers the collected sound signal for a predetermined time and calculates an autocorrelation function in response to a measurement start trigger.
  • the autocorrelation function Rx ( ⁇ ) of the noise itself becomes 1 at time 0 and becomes 0 at other times.
  • the noise source of uncorrelated noise is x (t) and the collected signal is y (t)
  • the mutual function of x (t) and y (t) is the autocorrelation function Rx of the noise that is the input signal. It is expressed by convolution of ( ⁇ ) and a spatial impulse response.
  • Rx ( ⁇ ) becomes a delta function, and an autocorrelation function of an impulse response can be obtained as an autocorrelation function of y (t).
  • the autocorrelation function calculation unit 281 repeatedly performs the above autocorrelation function calculation a plurality of times. Then, an autocorrelation function to be finally adopted is determined based on the calculation result. For example, the autocorrelation function calculation unit 281 can employ, as the autocorrelation function, one having a good S / N ratio among the plurality of calculated autocorrelation functions. Further, for example, the autocorrelation function calculation unit 281 can employ an average value of a plurality of calculated autocorrelation functions as the autocorrelation function.
  • the autocorrelation function calculation unit 281 extracts a common component of the calculated plurality of autocorrelation functions, and when the sound collection signal includes a pitch component, the autocorrelation function calculation unit 281 calculates based on the sound collection signal.
  • the autocorrelation function to be finally adopted can be determined based on the remaining autocorrelation functions by excluding the autocorrelation function.
  • the autocorrelation function calculation unit 281 provides the music signal processing unit 232 with the autocorrelation function finally determined to be adopted.
  • the music signal processing unit 232 for example, reverberation characteristics of the listening environment are estimated from the autocorrelation function, and various filter processes are performed on the music signal using the estimated reverberation characteristics.
  • the trigger for the autocorrelation function calculation unit 281 to start calculating the buffer of the collected sound signal and the autocorrelation function may be that the listening environment characteristic information acquisition condition has been detected.
  • the correlation function representing the acoustic characteristics of the listening environment can be measured using uncorrelated noise as a measurement signal. Therefore, it is not necessary to output a measurement signal such as a music signal, and the listening environment characteristic information can be acquired more easily.
  • uncorrelated noise is used for the measurement signal, it is possible to acquire the acoustic characteristics of the listening environment using not only the autocorrelation function but also the cross spectrum method in the frequency domain.
  • the method for obtaining the correlation function based on the uncorrelated noise described above can be executed if a microphone capable of collecting external sound is provided, and outputs a measurement signal toward the outside. There is no need. Therefore, even if the headphone 100 according to the first embodiment shown in FIG. 1 does not have a speaker that outputs sound toward the outside, it can collect external sound like the microphone 110a. If it has an easy structure, the method of acquiring a correlation function based on the uncorrelated noise mentioned above can be performed.
  • FIG. 11 is a schematic diagram illustrating an example of a correlation function that can be acquired by the listening environment characteristic information acquisition unit 231.
  • FIG. 12 is a block diagram illustrating an example of a functional configuration of the music signal processing unit 232.
  • FIG. 13 is a block diagram illustrating a configuration example of the reverberation component adding unit 293 included in the music signal processing unit 232.
  • the music signal processing unit 232 obtains a correlation function using the above (2-3-2. Music signal as a measurement signal. Or a reverberation time, initial reflection time, reverberation based on the correlation function obtained by the method described in (2-3-3. Configuration for obtaining correlation function using uncorrelated noise as measurement signal). A case will be described in which the ratio and frequency characteristics of sound are estimated and parameterized and reflected in the music signal.
  • the music signal processing unit 232 may be configured to have other functions.
  • the music signal processing unit 232 described above based on the transfer function H 2 obtained by the method described in (2-3-1.
  • the music signal processing unit 232 may be configured by an FIR filter in the same manner as the music signal processing unit 132 according to the first embodiment described in (1-4. About the music signal processing unit). The FIR filter is used to filter the music signal based on the transfer function H 2 obtained by the method described in (2-3-1. Transfer function is obtained using the music signal as a measurement signal). May be.
  • the music signal processing unit 132 according to the first embodiment may have the configuration shown in FIG. In that case, the music signal processing unit 132 estimates and parameterizes the above-described characteristics based on the transfer function H 2 acquired by the method described in the first embodiment, and uses the configuration shown in FIG. Each characteristic may be reflected in the music signal
  • the reverberation of the listening environment such as reverberation time and initial reflection time is obtained from the obtained correlation function.
  • Characteristics can be estimated.
  • FIG. 9 An example when the correlation function shown in FIG. 9 is measured for a longer time is shown in FIG.
  • FIG. 11 from the correlation function measured by the listening environment characteristic information acquisition unit 231, a component corresponding to the direct sound, a component corresponding to the initial reflected sound, and a component corresponding to the reverberant sound can be observed.
  • various acoustic characteristics such as reverberation time, initial reflection time, ratio of reverberation sound (rear reverberation sound), and frequency characteristics are estimated and parameterized from the characteristics of the correlation function.
  • FIG. 12 shows an example of a functional configuration of the music signal processing unit 232 according to the second embodiment.
  • the music signal processing unit 232 includes a parameter generation unit 291, an EQ unit 292, and a reverberation component addition unit 293 as functions thereof.
  • 12 illustrates the functional configuration of the music signal processing unit 232, and extracts the configuration related to each function of the music signal processing unit 232 from the configuration of the acoustic adjustment system 20 illustrated in FIG. It is shown.
  • the parameter generation unit 291 generates parameters representing various acoustic characteristics such as reverberation time, initial reflection time, ratio of rear reverberation, and frequency characteristics based on the correlation function measured by the listening environment characteristic information acquisition unit 231. .
  • the EQ unit 292 is configured by, for example, an equalizer, and adjusts the frequency characteristic of the music signal based on the parameter relating to the frequency characteristic generated from the correlation function by the parameter generation unit 291.
  • the reverberation component adding unit 293 is configured by, for example, an IIR (Infinite Impulse Response) filter shown in FIG. Based on this, the reverberation characteristic of the listening environment is given to the music signal.
  • FIG. 13 shows a configuration example of an IIR filter that can configure the reverberation component adding unit 293.
  • the length of the delay line and the amplifier coefficient ER (ER1 to ERn) shown in FIG. 13 may reflect a parameter related to the initial reflection time generated from the correlation function.
  • the parameters relating to the reverberation time generated from the correlation function are reflected in the coefficients g (g1 to g4) and the coefficients ⁇ ( ⁇ 1 to ⁇ 4) in the comb filters (Comb filter1 to Comb filter4) shown in FIG. obtain.
  • the IIR filter reflecting various parameters to the music signal, the acoustic characteristics of the listening environment such as reverberation are artificially added to the music signal.
  • the EQ is these parameters in the part 292 and the IIR filter need not be updated.
  • the parameter generation unit 291 The parameters may be updated.
  • the characteristic of the EQ unit 292 and the IIR filter is frequently changed by not updating the parameter. Therefore, music can be provided to the user more stably.
  • the initial reflection time can be defined as the time T1 (eg, t 2 -t 1 shown in FIG. 9) between the first peak of the correlation function (direct sound) and the peak of the subsequent correlation function.
  • the parameter generation unit 291 calculates the initial reflection time T1 from the correlation function and provides it to the reverberation component addition unit 293.
  • the reverberation component adding unit 293 the length of the delay line and the coefficient ER shown in FIG. 13 are changed according to T1. Thereby, the characteristic of the initial reflection time of the listening environment can be reflected on the music signal.
  • the coefficient ER a value obtained from a correlation function or an impulse response may be directly used.
  • several types of values that can be applied as the coefficient ER are prepared in advance, and the characteristics obtained from the correlation function are closer to that. It is also possible to select and use.
  • the reverberation time Tr can be estimated by performing Schroeder integration of the obtained correlation function to obtain an energy decay curve.
  • Schroeder integration is shown in the following formula (6).
  • ⁇ S 2 (t)> is a collective average of reverberation waveforms
  • h (t) is a correlation function or impulse response acquired by the listening environment characteristic information acquisition unit 231.
  • the parameter generation unit 291 can obtain the attenuation curve of the energy of the reverberation component by performing the calculation shown in the above mathematical formula (6).
  • An example of the attenuation curve of the energy of the reverberation component calculated by the parameter generation unit 291 is shown in FIG.
  • FIG. 14 is a diagram illustrating an example of an attenuation curve of reverberation component energy.
  • the reverberation time Tr is defined as the time when the sound energy in the measurement environment becomes ⁇ 60 (dB).
  • the energy decreases by ⁇ 30 (dB) at 1 (sec) (that is, the energy decay curve has a slope of ⁇ 30 (dB / sec)), and thus is estimated.
  • the reverberation time Tr is 2 (sec). For example, when the listening environment is a relatively large indoor space such as a music hall, the reverberation time is considered to be longer.
  • the delay and gain in the filter are changed in accordance with the reverberation time Tr obtained by the parameter generation unit 291.
  • the coefficient g and the coefficient ⁇ in the comb filter can be changed using the reverberation time Tr.
  • the parameter generation unit 291 can calculate the coefficient g and the coefficient ⁇ in the comb filter based on the reverberation time Tr obtained from the correlation function.
  • the coefficient g, the coefficient ⁇ , and the reverberation time Tr are in the relationship shown in the following formula (7).
  • the parameter generation unit 291 applies a combination of the coefficient g and the coefficient ⁇ such that the left side of the equation (7) is 2 to each comb filter.
  • the coefficient g of each comb filter is a value that satisfies the following equation (8).
  • the parameter generation unit 291 provides the coefficient g obtained in this way and the coefficient ⁇ set as a fixed value to the reverberation component adding unit 293.
  • the value calculated by the parameter generating unit 291 is applied to the coefficient g and the coefficient ⁇ in the comb filter shown in FIG. Can be reflected.
  • D value is a value indicating the ratio of the initial energy (within 50 ms) to the energy of the entire sound, and is represented by the following mathematical formula (9).
  • h (t) is a correlation function or impulse response acquired by the listening environment characteristic information acquisition unit 231.
  • the value representing the ratio of the initial energy of the reverberation and the total energy, such as the D value, obtained from the measurement result, and the initial component of the reverberation and the rear reverberation component provided by the IIR filter correspond to each other.
  • characteristics such as DRY gain, ER gain, Reverb gain, and WET gain shown in FIG. 13, the proportion of the reverberant sound in the listening environment can be reflected in the music signal.
  • the parameter generation unit 291 calculates a D value from the formula (9), and based on the D value, sets parameters related to characteristics such as DRY gain, ER gain, Reverb gain, and WET gain that satisfy the above conditions. Can be calculated.
  • the parameter generation unit 291 provides the parameters obtained in this way to the reverberation component adding unit 293.
  • the parameters calculated by the parameter generating unit 291 are applied to the DRY gain, ER gain, Reverb gain, and WET gain shown in FIG. The characteristics of the sound ratio can be reflected.
  • the parameter generation unit 291 estimates the frequency characteristic of the listening environment from the correlation function acquired by the listening environment characteristic information acquisition unit 231, generates a parameter that can reflect the frequency characteristic, and provides the parameter to the EQ unit 292. be able to.
  • the EQ unit 292 reflects the frequency characteristics of the listening environment on the music signal. For example, when high frequency attenuation is observed in the estimated frequency characteristics of the listening environment, the EQ unit 292 can execute processing for attenuating the high frequency of the music signal.
  • the frequency characteristics of music radiated to a space vary depending on the transfer function of the space. Therefore, for example, the frequency characteristic of the listening environment is acquired from the transfer function H 2 acquired by the method described in (2-3-1. Configuration for acquiring a transfer function using a music signal as a measurement signal). It is also possible to reflect the frequency characteristics on the music signal using the IIR filter shown in FIG. In this case, for example, the parameter generation unit 291, a transfer function H 2 by Fourier transform, it is possible to obtain a parameter for reflecting the frequency-amplitude characteristics in the IIR filter. By appropriately setting the parameter acquired by the parameter generation unit 291 for the IIR filter, it is possible to give a frequency characteristic that simulates the characteristics of the listening environment to the music signal.
  • the transfer function H 2 acquired by the method described in the above (2-3-1. Configuration for acquiring transfer function using music signal as measurement signal) is shown in FIG. It is also possible to add frequency characteristics to the music signal by convolving the music signal with the FIR filter shown in FIG.
  • the function of the music signal processing unit 232 according to the second embodiment has been described above.
  • values calculated from the transfer function and / or correlation function are not used as they are, but some of the values prepared in advance are not used. A value closer to the calculated value may be selected.
  • the parameter and the relationship between the category and the parameter are stored as a table in a storage unit (not shown in FIG. 6) provided in the acoustic adjustment system 20, for example.
  • the parameter generation unit 291 determines a category corresponding to the listening environment from the characteristics of the transfer function and / or correlation function acquired by the listening environment characteristic information acquisition unit 231.
  • the parameter generation unit 291 can select a parameter according to the listening environment by referring to a table indicating the relationship between the category and the parameter stored in the storage unit.
  • the transfer function and / or correlation function of the listening space is acquired based on the predetermined measurement sound, and the music signal is acquired based on the transfer function and / or the correlation function.
  • the music signal is acquired based on the transfer function and / or the correlation function.
  • a more open music that is more familiar to external sounds can be provided to the user.
  • Various voices such as music signals and noise can be used as measurement voices. Therefore, for example, in an environment where it is difficult to output music to the outside, the listening environment characteristic information is acquired by using an appropriate measurement sound according to the listening environment, such as using noise for noise measurement or inaudible band measurement sound. Measurement can be performed in various listening environments.
  • FIG. 15 is a flowchart illustrating an example of a processing procedure of the information processing method according to the first and second embodiments.
  • the listening environment described above (2-3-1. Configuration for acquiring transfer function using music signal as measurement signal) It may be performed in the sound adjustment system 20 according to the second embodiment having the characteristic information obtaining unit 231a, an information processing method in a case where using a music signal as a measurement signal, the transfer function H 2 is obtained as the listening environment characteristic information Will be described.
  • the information processing method according to the first and second embodiments is not limited to such an example, and as described above as the first and second embodiments, as the measurement signal, the user's uttered voice or uncorrelated Noise may be used, and a correlation function may be acquired as the listening environment characteristic information.
  • a music signal is output toward the listening environment (step S101).
  • the process shown in step S101 can be executed, for example, by driving the speaker 220a under the control of the control unit 230 shown in FIG. Note that, as described above (1. First embodiment) and (2-3-3. Configuration for obtaining correlation function using uncorrelated noise as measurement signal), a music signal is used as the measurement signal. When not used, the process shown in step S101 may be omitted.
  • step S103 it is determined whether or not the listening environment characteristic information acquisition condition has been detected.
  • the process shown in step S103 and step S105 described below can be executed by the listening environment characteristic information acquisition unit 231 shown in FIG. 6, for example. If it is 1st Embodiment, the process shown to step S103, S105 may be performed by the listening environment characteristic information acquisition part 131 shown in FIG. 2, for example.
  • the listening environment characteristic information acquisition condition for example, power-on to the control unit 230, a prescribed timer count, or the like can be detected.
  • the processor constituting the control unit 230 is mounted on a portable terminal different from the headphones 200
  • the listening environment characteristic information acquisition condition is, for example, that a user's movement is detected by a sensor mounted on the portable terminal. Or a case where an operation input to the portable terminal is detected.
  • the user's utterance may be detected as the listening environment characteristic information acquisition condition.
  • step S103 If it is determined in step S103 that the listening environment characteristic information acquisition condition is not detected, the process does not proceed to the subsequent processing, but waits until the listening environment characteristic information acquisition condition is detected. On the other hand, if it is determined in step S103 that the listening environment characteristic information acquisition condition has been detected, the process proceeds to step S105.
  • step S105 listening environment characteristic information is acquired.
  • the transfer function is calculated using the above (2-3-1. Music signal as a measurement signal). by the method described with reference to obtaining configuration), the transfer function of H 2 listening environment is calculated. If the first embodiment, in the process shown in step S105, based on the sound signals picked up by the microphone 110 in accordance with the speech of the user, the transfer function of H 2 listening environment it is calculated. In the above (2-3-2. Configuration for acquiring correlation function using music signal as measurement signal) and (2-3-3. Configuration for acquiring correlation function using uncorrelated noise as measurement signal) As described, a correlation function may be acquired as the listening environment characteristic information.
  • step S107 parameters for correcting the music signal are calculated based on the acquired listening environment characteristic information.
  • the processing shown in step S107 and steps S109 and S111 described later can be executed by, for example, the music signal processing unit 232 shown in FIG.
  • the characteristics of the EQ unit 292 and the reverberation component adding unit 293 that is, the IIR filter shown in FIG. 12 as described in (2-4. About the music signal processing unit) are determined.
  • the parameters to be calculated are calculated.
  • the processes shown in steps S107, S109, and S111 can be executed by, for example, the music signal processing unit 132 shown in FIG.
  • the process shown in step S107 for example, parameters that determine the characteristics of the FIR filter shown in FIG. 4 as described in (1-4. Music signal processing unit) are calculated. .
  • step S109 it is determined whether the calculated parameter is sufficiently different from the current set value.
  • step S109 for example, the difference between the current parameter set in the EQ unit 292 and / or the IIR filter described above and the new parameter obtained by the current measurement is compared with a predetermined threshold value. Is done. In the first embodiment, the same processing is performed on the FIR filter.
  • step S109 If it is determined that the parameter calculated in step S109 is not significantly different from the current set value, the process returns to step S103 without proceeding to the subsequent processing. This is because if the characteristics of the EQ unit 292, the IIR filter, and the FIR filter are frequently changed, the music signal may fluctuate, which may impair the user's sense of listening. On the other hand, if it is determined that the parameter calculated in step S109 is sufficiently different from the current set value, the process proceeds to step S111.
  • step S111 the parameters of the EQ unit 292 and / or the IIR filter are updated using the parameters calculated in step S107.
  • the parameters of the FIR filter are updated using the parameters calculated in step S107, and the acoustic characteristics of the listening environment are reflected on the music signal by the FIR filter.
  • the reverberation characteristics and frequency characteristics of the listening environment are given to the music signal as the acoustic characteristics of the listening environment.
  • 1st and 2nd embodiment is not limited to this example, The other acoustic characteristic of listening environment may be provided with respect to a music signal.
  • a modification in which the sound pressure of the music signal is adjusted according to the listening environment will be described.
  • FIG. 16 is a block diagram illustrating a configuration example of an acoustic adjustment system according to a modification example in which the sound pressure is adjusted.
  • FIG. 17 is a block diagram illustrating an example of a functional configuration of a music signal processing unit according to a modification in which the sound pressure is adjusted.
  • the acoustic adjustment system shown in FIG. 16 corresponds to the acoustic adjustment system 10 according to the first embodiment shown in FIG. 2 in which the function of the music signal processing unit 132 is changed, and has other configurations.
  • the function is the same as that of the acoustic adjustment system 10. Therefore, in the following description of the acoustic adjustment system according to the present modification, differences from the acoustic adjustment system 10 according to the first embodiment will be mainly described, and detailed descriptions will be provided for overlapping items. Omitted.
  • the acoustic adjustment system 30 includes a microphone 110, a speaker 120, and a control unit 330.
  • the functions of the microphone 110 and the speaker 120 are the same as those of these components shown in FIG.
  • the control unit 330 is configured by various processors such as a CPU and a DSP, for example, and executes various signal processes performed in the acoustic adjustment system 30.
  • the control unit 330 includes a listening environment characteristic information acquisition unit 131, a music signal processing unit 332, a monitor signal generation unit 133, and a noise cancellation signal generation unit 134 as its functions.
  • Each function of the control unit 330 can be realized by a processor constituting the control unit 330 operating according to a predetermined program.
  • the functions of the listening environment characteristic information acquisition unit 131, the monitor signal generation unit 133, and the noise cancellation signal generation unit 134 are the same as the functions of these configurations shown in FIG. .
  • a sound collection signal by the microphone 110 is input to the music signal processing unit 332 together with the music signal. Further, the variable amplifier 150a provided for the music signal and the variable provided for the monitor signal according to the sound pressure ratio between the sound pressure of the sound related to the music signal calculated by the music signal processing unit 332 and the sound pressure of the external sound. The gain of the amplifier 150b is adjusted.
  • FIG. 17 shows an example of the functional configuration of the music signal processing unit 332.
  • the music signal processing unit 332 includes an FIR filter 351 and a sound pressure ratio calculation unit 352 as its functions.
  • the functional configuration of the music signal processing unit 332 is illustrated, and the configuration related to each function of the music signal processing unit 332 is extracted from the configuration of the acoustic adjustment system 30 illustrated in FIG. It is shown.
  • the FIR filter 351 corresponds to the FIR filter according to the first embodiment shown in FIG. 4 (that is, the music signal processing unit 132 shown in FIG. 2). Since the function of the FIR filter 351 is the same as the function of the FIR filter (music signal processing unit 132) according to the first embodiment, detailed description thereof is omitted. Thus, it can be said that the music signal processing unit 332 according to this modification has both the function of the music signal processing unit 132 according to the first embodiment and the function of the sound pressure ratio calculation unit 352.
  • the sound pressure ratio calculation unit 352 analyzes the sound pressure of the music signal and the sound pressure of the collected sound signal (ie, the sound pressure of the external sound), and the sound pressure of the sound related to the music signal and the external sound (ie, the monitor sound).
  • the sound pressure of the music signal and the sound pressure of the signal related to the external signal are calculated so that the sound pressure ratio with the sound pressure becomes an appropriate value. For example, when the external sound is excessively high, the sound pressures of both are calculated so as to relatively reduce the sound pressure of the external sound. In this case, the sound pressure of the music signal may be increased, or the sound pressure of the monitor signal may be decreased. Thereby, the situation where music is buried in external sound is prevented.
  • the sound pressure ratio is calculated so as to relatively reduce the sound pressure of the sound related to the music signal.
  • the sound pressure of the music signal may be decreased, or the sound pressure of the monitor signal may be increased. Thereby, the situation where music leaks outside the headphones 100 is prevented.
  • an appropriate value may be set in advance by a designer or the like of the sound adjustment system 40, or a value may be appropriately set by the user depending on the situation.
  • the parameter calculated by the sound pressure ratio calculation unit 352 is reflected in the gain of the variable amplifier 150a provided for the music signal and the variable amplifier 150b provided for the monitor signal. Thereby, the sound pressure ratio between the music signal and the monitor signal corresponding to the external sound is appropriately controlled.
  • the configuration of the sound adjustment system according to this modification has been described above with reference to FIGS. 16 and 17.
  • the sound pressure ratio between the sound related to the music signal and the external sound is automatically adjusted according to the external sound in the listening environment. . Therefore, music and external sound are provided with a more comfortable volume balance by the user, and the convenience for the user can be improved.
  • the sound pressure of the external sound is calculated by the sound pressure ratio calculation unit 352 of the music signal processing unit 332, but the present modification is not limited to such an example.
  • the sound pressure of the external sound may be calculated by analyzing the collected sound signal by the listening environment characteristic information acquisition unit 131 as a part of the listening environment characteristic information.
  • the listening environment characteristic information is acquired based on the external sound collected by the microphones 110 and 210 every time the listening environment characteristic information acquisition condition is detected.
  • the first and second embodiments are not limited to this example.
  • the listening environment characteristic information for each place (that is, for each listening environment) is associated with the position information of the place and is made into a database (DB).
  • the listening environment characteristic information acquisition unit may acquire the listening environment characteristic information of a place corresponding to the current position of the user from the DB.
  • FIG. 18 is a block diagram illustrating a configuration example of an acoustic adjustment system according to the present modification. 18 is different from the acoustic adjustment system 10 according to the first embodiment shown in FIG. 1 in that a communication unit 170, a portable terminal 50, and a listening environment characteristic information DB 60 described later are included. Corresponding to what has been added, the functions of other configurations are the same as those of the acoustic adjustment system 10. Therefore, in the following description of the acoustic adjustment system according to the present modification, differences from the acoustic adjustment system 10 according to the first embodiment will be mainly described, and detailed descriptions will be provided for overlapping items. Omitted.
  • the acoustic adjustment system 40 includes a microphone 110, a speaker 120, a control unit 130, a communication unit 170, a portable terminal 50, and a listening environment characteristic information DB 60.
  • the functions of the microphone 110, the speaker 120, and the control unit 130 are the same as the functions of these configurations shown in FIG. 1, detailed descriptions thereof are omitted.
  • the communication unit 170 is configured by a communication device that can transmit and receive various types of information to and from an external device.
  • a communication device that can function as the communication unit 170 is mounted on the headphones 100 illustrated in FIG. 1.
  • the communication unit 170 can transmit and receive various types of information to and from the mobile terminal 50.
  • the communication between the communication unit 170 and the portable terminal 50 may be wireless communication based on a communication method such as Bluetooth (registered trademark), or may be wired communication.
  • the communication unit 170 transmits the listening environment characteristic information acquired based on the collected sound signal by the listening environment characteristic information acquisition unit 131 of the control unit 130 to the portable terminal 50.
  • the communication unit 170 can receive the listening environment characteristic information of the place corresponding to the current position of the user from the portable terminal 50 and can provide it to the listening environment characteristic information acquisition unit 131.
  • the portable terminal 50 is an information processing apparatus carried by the user, such as a smartphone or a tablet PC (Personal Computer).
  • the portable terminal 50 has a communication unit 510 and a position detection unit 520 as its functions.
  • the portable terminal 50 may further have various functions which portable terminals, such as a common smart phone and bullet PC, have.
  • the mobile terminal 50 can include a configuration such as a control unit that performs various signal processing and controls the operation of the mobile terminal 50, and a storage unit that stores various types of information processed in the mobile terminal 50.
  • the driving of the communication unit 510 and the position detection unit 520 described above can be controlled by a processor that constitutes the control unit operating according to a predetermined program. Note that, as described in (1-2. System Configuration) above, the control unit 130 may be realized as a function of the mobile terminal 50.
  • the communication unit 510 is configured by a communication device that can transmit and receive various types of information to and from an external device.
  • the communication unit 510 can transmit and receive various types of information to and from the communication unit 170.
  • the communication unit 510 receives the listening environment characteristic information acquired from the collected sound signal by the listening environment characteristic information acquisition unit 131 of the control unit 130 and transmitted from the communication unit 170.
  • the communication unit 510 uses the received listening environment characteristic information as position information detected by the position detection unit 520 (this corresponds to the current position information of the mobile terminal 50, that is, the current position information of the user).
  • it transmits to listening environment characteristic information DB60.
  • the communication unit 510 receives the listening environment characteristic information of the place corresponding to the current position of the user from the listening environment characteristic information stored in the listening environment characteristic information DB 60 and transmits it to the communication unit 170. .
  • the position detection unit 520 is configured by a position detection sensor such as a GPS sensor, and detects the current position of the mobile terminal 50, that is, the current position of the user.
  • the position detection unit 520 provides the communication unit 510 with the detected current position information of the user.
  • the communication unit 510 associates the listening environment characteristic information acquired based on the collected sound signal by the listening environment characteristic information acquisition unit 131 of the control unit 130 with the current position information of the user.
  • the listening environment characteristic information DB 60 can be transmitted.
  • the listening environment characteristic information DB 60 is configured by a storage device capable of storing various types of information, such as a magnetic storage device such as an HDD (Hard Disk Drive), a semiconductor storage device, an optical storage device, or a magneto-optical storage device.
  • the listening environment characteristic information DB 60 manages location information of a place (that is, listening environment) and listening environment characteristic information in the listening environment in association with each other.
  • the listening environment characteristic information DB 60 may be installed, for example, on a network (so-called cloud), and the mobile terminal 50 can communicate with the listening environment characteristic information DB 60 via a communication network constructed according to various communication methods. it can.
  • the control unit 130 may be realized as a function of an information processing apparatus such as a server provided on the cloud together with the listening environment characteristic information DB 60.
  • the listening environment characteristic information DB 60 obtained by a plurality of users is collected and stored at any time in the listening environment characteristic information DB 60.
  • the position detection unit 520 detects the current position of the user, and the position information of the current position is transmitted to the listening environment characteristic information DB 60.
  • the listening environment characteristic information DB 60 it is searched based on the position introduction whether or not the listening environment characteristic information of the place corresponding to the current position of the user is stored in the listening environment characteristic information DB 60.
  • the listening environment characteristic information of the place corresponding to the current position of the user is stored in the listening environment characteristic information DB 60
  • the listening environment characteristic information is transmitted from the listening environment characteristic information DB 60 via the communication units 170 and 510. , And transmitted to the listening environment characteristic information acquisition unit 131 of the control unit 130.
  • the music signal processing unit 132 filters the music signal using the listening environment characteristic information provided from the listening environment characteristic information acquisition unit 131, thereby changing the acoustic characteristic of the listening environment where the user is currently located with respect to the music signal. Can be granted.
  • the listening environment characteristic information is obtained from the past history without performing a series of processes for acquiring the listening environment characteristic information based on the collected external sound. Can be acquired. Therefore, the process of calculating the transfer function, the correlation function, etc. can be omitted, and the configuration of the control unit 130 can be further simplified.
  • the configuration of the acoustic adjustment system according to this modification has been described above with reference to FIG.
  • a series of processes for collecting external sound and acquiring listening environment characteristic information based on the collected external sound by referring to the listening environment characteristic information DB 60 is performed. Even if not performed, it is possible to acquire listening environment characteristic information. Therefore, the process performed by the control unit 130 can be further simplified.
  • parameters for determining the characteristics of the EQ unit 292 and the reverberation component adding unit 293 that is, the IIR filter
  • parameters for determining the characteristics of the FIR filter shown in FIG. 12 may be stored in association with the information about the position information of the listening environment together with the transfer function and the correlation function. Accordingly, the music signal processing unit 132 can correct the music signal using the parameters stored in the listening environment characteristic information DB 60 without calculating the parameters for correcting the music signal. Therefore, the process of calculating these parameters can be omitted, and the configuration of the control unit 130 can be further simplified.
  • the listening environment characteristic information DB 60 stores the statistical values (for example, average values) of the listening environment characteristic information of the place. It may be stored as listening environment characteristic information. Thereby, the precision of the listening environment characteristic information memorize
  • the listening environment characteristic information acquisition unit 131 newly obtains the listening environment characteristic based on the external sound. Information may be acquired. Then, the listening environment characteristic information stored in the listening environment characteristic information DB 60 is compared with the newly acquired listening environment characteristic information. If the values are greatly different, the information in the listening environment characteristic information DB 60 is While being updated, the music signal may be filtered based on the newly acquired listening environment characteristic information. This is because, even in the same place, the listening environment characteristic information can also be changed by changing the surrounding environment, so that the latest listening environment characteristic information is considered to be more reliable.
  • FIG. 19 is a schematic diagram illustrating a configuration example of the headphones according to the present modification.
  • FIG. 20 is a block diagram illustrating a configuration example of an acoustic adjustment system according to this modification.
  • the present modification is applied to the first embodiment.
  • the present modification can be similarly applied to the second embodiment. is there.
  • a headphone 100a includes a pair of housings 140L and 140R that are respectively attached to the left and right ears of a user, and an arch-shaped support member 180 that connects the housings 140L and 140R. Is provided.
  • the headphones 100a are so-called overhead headphones.
  • a pair of microphones 110a and 110b are provided on the outer and inner sides of the housings 140L and 140R, respectively.
  • the user's voice is collected by the microphones 110a and 110b provided in the left and right cases 140L and 140R, respectively, and the listening environment characteristic information is acquired based on the left and right collected signals.
  • the acoustic adjustment system 70 includes a left channel acoustic adjustment unit 10L (left channel acoustic adjustment unit 10L), a right channel acoustic adjustment unit 10R (right channel acoustic adjustment unit 10R), and listening.
  • An environmental characteristic information integration unit 190 the configurations of the left channel acoustic adjustment unit 10L and the right channel acoustic adjustment unit 10R are the same as those of the acoustic adjustment system 10 according to the first embodiment shown in FIG. Accordingly, the detailed description of the configurations of the left channel sound adjustment unit 10L and the right channel sound adjustment unit 10R that have already been described in the first embodiment is omitted here.
  • the listening environment characteristic information acquisition unit 131 of the left channel acoustic adjustment unit 10L is based on the user's uttered voice collected by the microphones 110a and 110b of the housing 140L attached to the left ear of the user.
  • the listening environment characteristic information acquisition unit 131 of the right channel acoustic adjustment unit 10R is based on the user's uttered voice collected by the microphones 110a and 110b of the housing 140R attached to the right ear of the user. Get characteristic information.
  • the microphone 110 shown in FIG. 20 corresponds to the microphones 110a and 110b shown in FIG. 19, and schematically shows these together.
  • the listening environment characteristic information acquired by the listening environment characteristic information acquisition unit 131 of the left channel sound adjustment unit 10L is also referred to as left channel listening environment characteristic information.
  • the listening environment characteristic information acquired by the listening environment characteristic information acquisition unit 131 of the right channel sound adjustment unit 10R is also referred to as right channel listening environment property information.
  • the listening environment characteristic information acquired by the listening environment characteristic information acquisition unit 131 is directly provided to the music signal processing unit 132 and converted into a music signal by the music signal processing unit 132, as in the first embodiment.
  • a filtering process based on the listening environment characteristic information may be appropriately performed.
  • the music signals of the left and right channels are independently corrected based on the listening environment characteristic information acquired by the left and right listening environment characteristic information acquisition units 131.
  • the listening environment characteristic information acquired by the listening environment characteristic information acquisition unit 131 is not directly provided to the music signal processing unit 132, but the left channel listening environment characteristic information and the right channel listening environment characteristic information.
  • the music signals of the left and right channels can be corrected using the listening environment characteristic information obtained by integrating.
  • the left ch listening environment characteristic information acquired by the listening environment characteristic information acquisition unit 131 of the left ch sound adjustment unit 10L is not directly provided to the music signal processing unit 132, and the listening environment once It can be provided to the characteristic information integration unit 190.
  • the right channel listening environment characteristic information acquired by the listening environment characteristic information acquiring unit 131 of the right channel sound adjusting unit 10R can be provided to the listening environment characteristic information integrating unit 190.
  • the listening environment characteristic information integration unit 190 integrates the left channel listening environment characteristic information and the right channel listening environment characteristic information, and finally calculates the listening environment characteristic information used for correcting the music signal.
  • the listening environment characteristic information integration unit 190 can calculate the integrated listening environment characteristic information by averaging the left channel listening environment characteristic information and the right channel listening environment characteristic information.
  • the integration process performed by the listening environment characteristic information integration unit 190 is not limited to this example. The integration process only needs to calculate new listening environment characteristic information based on the left ch listening environment characteristic information and the right ch listening environment characteristic information.
  • the left ch listening environment characteristic information and the right ch listening environment characteristic information Other processes such as multiplying each by a weighting factor and adding them may be used.
  • the listening environment characteristic information integration unit 190 provides the calculated listening environment characteristic information to the music signal processing unit 132 of the left channel sound adjustment unit 10L and the right channel sound adjustment unit 10R, respectively.
  • Each music signal processing unit 132 performs a filtering process on the music signal based on the integrated listening environment characteristic information. As described above, by integrating a plurality of pieces of listening environment characteristic information acquired independently of each other, more accurate listening environment characteristic information can be obtained. Further, by performing the filtering process on the music signal using the listening environment characteristic information after integration, it is possible to execute the filtering process that more reflects the characteristics of the listening environment.
  • the listening environment characteristic information integration unit 190 calculates the left listening environment characteristic information and the right channel listening information when calculating the integrated listening environment characteristic information based on the left channel listening environment characteristic information and the right channel listening environment characteristic information.
  • the listening environment characteristic information is not calculated, and the listening environment characteristic information may not be provided to the music signal processing unit 132, that is, the music signal processing unit 132 performs filter correction. It is not necessary to update the parameters.
  • the left channel listening environment characteristic information and the right channel listening environment characteristic information are significantly different, at least one of the values is abnormal, and acquisition of the listening environment characteristic information by the left or right listening environment characteristic information acquisition unit 131 is obtained. It is conceivable that processing is not performed normally.
  • the filter processing based on the abnormal listening environment characteristic information is executed by not updating the parameters in the music signal processing unit 132. Can be prevented.
  • the listening environment characteristic information integration unit 190 determines the certainty of the acquired left channel listening environment characteristic information and right channel listening environment characteristic information based on the left channel listening environment characteristic information and the right channel listening environment characteristic information. You may judge.
  • casing was demonstrated.
  • the left channel listening environment characteristic information and the right channel listening environment are based on the collected sound signal collected by the microphone 110 provided in each of the pair of housings 140L and 140R.
  • Each characteristic information is acquired.
  • the music signal is filtered using the listening environment characteristic information obtained by integrating the left channel listening environment characteristic information and the right channel listening environment characteristic information. Therefore, it is possible to execute a filter process that more reflects the characteristics of the listening environment.
  • the function of the listening environment characteristic information integration unit 190 can be realized by various processors such as a CPU and a DSP operating according to a predetermined program.
  • the processor that realizes the function of the listening environment characteristic information integration unit 190 may be the same as the processor that configures the control unit 130 of either the left channel sound adjustment unit 10L or the right channel sound adjustment unit 10R.
  • a processor separate from the processor constituting the control unit 130 may be used.
  • FIG. 21 is a block diagram illustrating an example of a hardware configuration of the information processing apparatus according to the first and second embodiments.
  • the illustrated information processing apparatus 900 is, for example, the apparatus in the case where the above-described acoustic adjustment systems 10, 20, 30, and 70 illustrated in FIGS. 1, 6, 16, and 20 are realized as an integrated apparatus.
  • the portable terminal 50 shown in FIG. 18 and the like can be realized.
  • the illustrated information processing apparatus 900 includes, for example, the control units 130, 230, and 330 shown in FIGS. 1, 6, 16, 18, and 20, or the listening environment characteristic information integration unit 190 shown in FIG.
  • the configuration of an information processing apparatus such as a portable terminal or a server on which the above function is installed can be realized.
  • the information processing apparatus 900 includes a CPU 901, a ROM (Read Only Memory) 903, and a RAM (Random Access Memory) 905. Further, the information processing apparatus 900 includes a host bus 907, a bridge 909, an external bus 911, an interface 913, an input device 915, an output device 917, a storage device 919, a drive 921, a connection port 923, a communication device 925, and a sensor 935. Good.
  • the information processing apparatus 900 may include a processing circuit called DSP or ASIC (Application Specific Integrated Circuit) instead of or in addition to the CPU 901.
  • the CPU 901 functions as an arithmetic processing unit and a control unit, and controls all or a part of the operation in the information processing apparatus 900 according to various programs recorded in the ROM 903, the RAM 905, the storage apparatus 919, or the removable recording medium 927.
  • the ROM 903 stores programs used by the CPU 901, calculation parameters, and the like.
  • the RAM 905 primarily stores programs used in the execution of the CPU 901, parameters that change as appropriate during the execution, and the like.
  • the CPU 901, the ROM 903, and the RAM 905 are connected to each other by a host bus 907 configured by an internal bus such as a CPU bus.
  • the host bus 907 is connected to an external bus 911 such as a PCI (Peripheral Component Interconnect / Interface) bus via a bridge 909.
  • the CPU 901 corresponds to, for example, the control units 130, 230, and 330 illustrated in FIGS. 1, 6, 16, 18, and 20. Further, the CPU 901 can constitute a listening environment characteristic information integration unit 190 shown in FIG.
  • the input device 915 is a device operated by the user, such as a mouse, a keyboard, a touch panel, a button, a switch, and a lever.
  • the input device 915 may be, for example, a remote control device that uses infrared rays or other radio waves, or may be an external connection device 929 such as a mobile phone that supports the operation of the information processing device 900.
  • the input device 915 includes an input control circuit that generates an input signal based on information input by the user and outputs the input signal to the CPU 901.
  • the input device 915 may be a voice input device such as a microphone.
  • the user operates the input device 915 to input various data and instruct processing operations to the information processing device 900.
  • the input device 915 includes the microphones 110 and 210 in the device. Can correspond to.
  • the output device 917 is a device that can notify the user of the acquired information visually or audibly.
  • the output device 917 can be, for example, a display device such as an LCD, a PDP (plasma display panel), an organic EL display, a lamp, or an illumination, an audio output device such as a speaker and headphones, and a printer device.
  • the output device 917 outputs the result obtained by the processing of the information processing device 900 as a video such as text or an image, or outputs it as a sound or sound.
  • the audio output device includes the speaker 120, This corresponds to 220a and 220b.
  • the storage device 919 is a data storage device configured as an example of a storage unit of the information processing device 900.
  • the storage device 919 includes, for example, a magnetic storage device such as an HDD (Hard Disk Drive), a semiconductor storage device, an optical storage device, or a magneto-optical storage device.
  • the storage device 919 stores programs executed by the CPU 901, various data, various data acquired from the outside, and the like.
  • the storage device 919 includes various types of information processed by the control units 130, 230, and 330 shown in FIGS. 1, 6, 16, 18, and 20, and the control units 130, 230, Various processing results obtained by 330 can be stored.
  • the storage device 919 can store information such as a music signal input from an external device (playback device), acquired listening environment characteristic information, a parameter for correcting the calculated music signal, and the like.
  • the drive 921 is a reader / writer for a removable recording medium 927 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and is built in or externally attached to the information processing apparatus 900.
  • the drive 921 reads information recorded on the attached removable recording medium 927 and outputs the information to the RAM 905.
  • the drive 921 writes a record in the attached removable recording medium 927.
  • the drive 921 Corresponds to the playback device in the device.
  • the drive 921 reads out and reproduces music content recorded on the removable recording medium 927, and outputs a music signal corresponding to the music content to the control unit 130 shown in FIGS. 1, 6, 16, 18, and 20.
  • 230, 330 can be provided. Further, for example, the drive 921 reads various information processed by the control units 130, 230, and 330 and various processing results by the control units 130, 230, and 330 from the removable recording medium 927, or removes the removable recording medium. 927 can be written.
  • the connection port 923 is a port for directly connecting a device to the information processing apparatus 900.
  • the connection port 923 can be, for example, a USB (Universal Serial Bus) port, an IEEE 1394 port, a SCSI (Small Computer System Interface) port, or the like.
  • the connection port 923 may be an RS-232C port, an optical audio terminal, an HDMI (registered trademark) (High-Definition Multimedia Interface) port, or the like.
  • various types of data can be exchanged between the information processing apparatus 900 and the external connection device 929. For example, various information processed by the control units 130, 230, and 330 shown in FIGS. 1, 6, 16, 18, and 20 and various types of information by the control units 130, 230, and 330 through the connection port 923. These processing results may be transmitted to and received from the external connection device 929.
  • the communication device 925 is a communication interface configured by a communication device for connecting to the communication network 931, for example.
  • the communication device 925 can be, for example, a communication card for wired or wireless LAN (Local Area Network), Bluetooth, or WUSB (Wireless USB). Further, the communication device 925 may be a router for optical communication, a router for ADSL (Asymmetric Digital Subscriber line), a modem for various communication, or the like.
  • the communication device 925 transmits and receives signals and the like using a predetermined protocol such as TCP / IP with the Internet and other communication devices, for example.
  • the communication network 931 connected to the communication device 925 is a network connected by wire or wireless, such as the Internet, home LAN, infrared communication, radio wave communication, satellite communication, or the like.
  • the communication device 925 includes various types of information processed by the control units 130, 230, and 330 illustrated in FIGS. 1, 6, 16, 18, and 20 and various types of processing performed by the control units 130, 230, and 330. The results may be transmitted to and received from other external devices via the communication network 931.
  • the communication device 925 corresponds to the communication units 170 and 510 illustrated in FIG.
  • the sensor 935 is various sensors such as an acceleration sensor, a gyro sensor, a geomagnetic sensor, an optical sensor, a sound sensor, and a distance measuring sensor.
  • the sensor 935 acquires information on the state of the information processing apparatus 900 itself, such as the attitude of the information processing apparatus 900, and information on the surrounding environment of the information processing apparatus 900, such as brightness and noise around the information processing apparatus 900, for example. To do.
  • the sensor 935 may also include a GPS sensor that receives GPS signals and measures the latitude, longitude, and altitude of the device. For example, the sensor 935 corresponds to the position detection unit 520 illustrated in FIG.
  • Each component described above may be configured using a general-purpose member, or may be configured by hardware specialized for the function of each component. Such a configuration can be appropriately changed according to the technical level at the time of implementation.
  • a computer program for realizing the functions of the information processing apparatus 900 as described above, in particular, the functions of the control units 130, 230, and 330 described above can be produced and mounted on a PC or the like.
  • a computer-readable recording medium storing such a computer program can be provided.
  • the recording medium is, for example, a magnetic disk, an optical disk, a magneto-optical disk, a flash memory, or the like.
  • the above computer program may be distributed via a network, for example, without using a recording medium.
  • the listening space characteristic information representing the acoustic characteristics of the listening space is acquired based on the external sound.
  • the acoustic characteristic of listening space is provided to a music signal based on the acquired listening space characteristic information. Therefore, a more open music that is more familiar to external sounds can be provided to the user. For example, even when the user uses sealed headphones with high sound insulation, it is possible to listen to music with a feeling like BGM while listening to external sound.
  • a listening environment characteristic information acquisition unit that acquires listening environment characteristic information indicating characteristics of a listening environment based on external sound collected by at least one microphone, and a filter based on the acquired listening environment characteristic information
  • An information processing apparatus comprising: a music signal processing unit that filters music signals according to characteristics.
  • the external sound is a user's utterance voice
  • the listening environment characteristic information acquisition unit is configured to determine the utterance voice collected by the first microphone via the user's body and the listening environment.
  • the information processing apparatus according to (1), wherein the listening environment characteristic information is acquired based on the uttered voice picked up by a second microphone that is different from the first microphone.
  • the information processing apparatus wherein the listening environment characteristic information is a transfer function until the uttered voice reaches the second microphone via the listening environment.
  • the external sound is a predetermined measurement sound output from a speaker toward the listening environment, and the listening environment characteristic information acquisition unit is based on the measurement sound collected by the microphone.
  • the information processing apparatus according to (1), wherein the listening environment characteristic information is acquired.
  • the information processing apparatus wherein the listening environment characteristic information is a transfer function until the measurement sound reaches the microphone via the listening environment.
  • the listening environment characteristic information is a correlation function between the measurement sound before being output from the speaker and the measurement sound collected by the microphone via the listening environment.
  • the information processing apparatus according to (4).
  • the information processing apparatus acquires the listening environment characteristic information based on uncorrelated noise collected by the microphone.
  • the listening environment characteristic information is an autocorrelation function of the uncorrelated noise.
  • the music signal processing unit imparts at least reverberation characteristics of the listening environment to the music signal.
  • the music signal processing unit adds a reverberation characteristic of the listening environment to the music signal by convolving the transfer function of the external sound in the listening environment with the music signal using an FIR filter.
  • the music signal processing unit filters the music signal using a parameter indicating acoustic characteristics of the listening environment calculated from the listening environment characteristic information.
  • the music signal processing unit includes: an IIR filter that reflects a parameter indicating a reverberation characteristic of the listening environment; and an equalizer that reflects a parameter indicating the frequency characteristic of the listening environment.
  • the information processing apparatus described in 1. (13) The information according to any one of (1) to (12), wherein the music signal processing unit adjusts a sound pressure ratio between a sound pressure of sound related to the music signal and a sound pressure of external sound. Processing equipment.
  • the processor acquires listening environment characteristic information indicating characteristics of the listening environment based on the external sound collected by the at least one microphone, and the processor is based on the acquired listening environment characteristic information. Filtering the music signal with a filter characteristic.
  • a function of acquiring listening environment characteristic information indicating characteristics of the listening environment based on external sound collected by at least one microphone in the processor of the computer, and a filter based on the acquired listening environment characteristic information A program for realizing a function of filtering music signals by characteristics.
  • Sound adjustment system 50 Portable terminal 60 Listening environment characteristic information DB 100, 200 Headphone 110, 110a, 110b, 210 Microphone 120, 220a, 220b Speaker 130, 230, 330 Control unit 131, 231 Listening environment characteristic information acquisition unit 132, 232, 332 Music signal processing unit 133 Monitor signal generation unit 134 Noise Cancel signal generation unit 170, 510 communication unit 190 listening environment characteristic information integration unit 520 position detection unit

Abstract

【課題】ユーザに対してより開放感を与えることが可能にする。 【解決手段】少なくとも1つのマイクロフォンによって収音された外部音声に基づいて、聴取環境の特性を示す聴取環境特性情報を取得する聴取環境特性情報取得部と、取得された前記聴取環境特性情報に基づくフィルタ特性で音楽信号をフィルタリングする音楽信号処理部と、を備える、情報処理装置を提供する。

Description

情報処理装置、情報処理方法及びプログラム
 本開示は、情報処理装置、情報処理方法及びプログラムに関する。
 ヘッドホンやイヤホン等の音響機器においては、外部の雑音(ノイズ)を低減するための、いわゆるノイズキャンセリングシステムが搭載されたものがある。例えば、特許文献1には、ノイズキャンセル機能と、外部音声の音声信号(いわゆるモニタ信号)を音楽信号に重畳して出力するモニタ機能とをともに搭載し、音楽信号に対するノイズ低減効果を得ながら、車内アナウンス等の外部の音声を聴取することが可能なヘッドホンが開示されている。
特開2009-21826号公報
 ここで、特許文献1に記載の技術では、外部音声の音声信号を音楽信号に重畳して出力することにより、あたかもヘッドホンを装着せずにその場にいるような感覚をユーザに対して与えることができる。しかしながら、音楽信号自体は原音で再生されるため、音楽がヘッドホン特有のいわゆるドライな音になってしまい、外部音声となじまず、ユーザの開放感が低減されてしまう可能性がある。
 上記事情に鑑みれば、ユーザに対してより外部音声となじんだ音楽を提供することにより、ユーザに対してより開放感を与えることが求められていた。そこで、本開示では、ユーザに対してより開放感を与えることが可能な、新規かつ改良された情報処理装置、情報処理方法及びプログラムを提案する。
 本開示によれば、少なくとも1つのマイクロフォンによって収音された外部音声に基づいて、聴取環境の特性を示す聴取環境特性情報を取得する聴取環境特性情報取得部と、取得された前記聴取環境特性情報に基づくフィルタ特性で音楽信号をフィルタリングする音楽信号処理部と、を備える、情報処理装置が提供される。
 また、本開示によれば、プロセッサが、少なくとも1つのマイクロフォンによって収音された外部音声に基づいて、聴取環境の特性を示す聴取環境特性情報を取得することと、プロセッサが、取得された前記聴取環境特性情報に基づくフィルタ特性で音楽信号をフィルタリングすることと、を含む、情報処理方法が提供される。
 また、本開示によれば、コンピュータのプロセッサに、少なくとも1つのマイクロフォンによって収音された外部音声に基づいて、聴取環境の特性を示す聴取環境特性情報を取得する機能と、取得された前記聴取環境特性情報に基づくフィルタ特性で音楽信号をフィルタリングする機能と、を実現させる、プログラムが提供される。
 本開示によれば、外部音声に基づいて聴取空間の音響特性を表す聴取空間特性情報が取得される。そして、取得された聴取空間特性情報に基づいて音楽信号に聴取空間の音響特性が付与される。従って、より外部の音声になじんだ、より開放感のある音楽がユーザに対して提供され得る。
 以上説明したように本開示によれば、ユーザに対してより開放感を与えることが可能となる。なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
第1の実施形態に係るヘッドホンの一構成例を示す概略図である。 第1の実施形態に係る音響調整システムの一構成例を示すブロック図である。 聴取環境特性情報取得部の機能構成の一例を示すブロック図である。 音楽信号処理部の一構成例を示すブロック図である。 第2の実施形態に係るヘッドホンの一構成例を示す概略図である。 第2の実施形態に係る音響調整システムの一構成例を示すブロック図である。 聴取環境特性情報取得部において、音楽信号を測定信号に用いて伝達関数を取得するための一構成例を示すブロック図である。 聴取環境特性情報取得部において、音楽信号を測定信号に用いて相関関数を取得するための一構成例を示すブロック図である。 相関関数計算部によって計算され得る相関関数の一例を示す概略図である。 聴取環境特性情報取得部において、無相関雑音を測定信号に用いて相関関数を取得するための一構成例を示すブロック図である。 聴取環境特性情報取得部によって取得され得る相関関数の一例を示す概略図である。 音楽信号処理部の機能構成の一例を示すブロック図である。 音楽信号処理部に含まれる残響成分付与部の一構成例を示すブロック図である。 残響成分のエネルギーの減衰カーブの一例を示す図である。 第1及び第2の実施形態に係る情報処理方法の処理手順の一例を示すフロー図である。 音圧が調整される変形例に係る音響調整システムの一構成例を示すブロック図である。 音圧が調整される変形例に係る音楽信号処理部の機能構成の一例を示すブロック図である。 DBに記憶された聴取環境特性情報を用いる変形例に係る音響調整システムの一構成例を示すブロック図である。 一対の筐体のそれぞれにより聴取環境特性情報を取得する変形例に係るヘッドホンの一構成例を示す概略図である。 一対の筐体のそれぞれにより聴取環境特性情報を取得する変形例に係る音響調整システムの一構成例を示すブロック図である。 第1及び第2の実施形態に係る情報処理装置のハードウェア構成の一例を示すブロック図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 なお、説明は以下の順序で行うものとする。
 1.第1の実施形態
  1-1.第1の実施形態の概要
  1-2.システムの構成
  1-3.聴取環境特性情報取得部について
  1-4.音楽信号処理部について
 2.第2の実施形態
  2-1.第2の実施形態の概要
  2-2.システムの構成
  2-3.聴取環境特性情報取得部について
   2-3-1.音楽信号を測定信号に用いて伝達関数を取得する構成
   2-3-2.音楽信号を測定信号に用いて相関関数を取得する構成
   2-3-3.無相関雑音を測定信号に用いて相関関数を取得する構成
  2-4.音楽信号処理部について
 3.情報処理方法
 4.変形例
  4-1.音圧が調整される変形例
  4-2.DBに記憶された聴取環境特性情報を用いる変形例
  4-3.一対の筐体のそれぞれにより聴取環境特性情報を取得する変形例
 5.ハードウェア構成
 6.まとめ
 (1.第1の実施形態)
 まず、本開示の第1の実施形態について説明する。本開示の第1の実施形態では、ヘッドホンを装着したユーザによる発話に係る音声(以下、発話音声とも呼称する。)が、外部音声としてマイクロフォンによって収音される。そして、収音された発話音声に基づいてユーザが存在する空間(以下、聴取環境とも呼称する。)の音響特性を表す聴取環境特性情報が取得される。更に、取得された聴取環境特性情報に基づくフィルタ特性で音楽コンテンツの音声信号(以下、音楽信号とも呼称する。)がフィルタリングされる。これにより、聴取環境の音響特性が反映された、より外部音声となじんだ音楽がユーザに対して提供されることとなる。
 (1-1.第1の実施形態の概要)
 図1を参照して、第1の実施形態に係るヘッドホンの一構成例について説明するとともに、第1の実施形態の概要について説明する。図1は、第1の実施形態に係るヘッドホンの一構成例を示す概略図である。
 図1を参照すると、第1の実施形態に係るヘッドホン100は、ユーザの耳に装着される筐体140と、筐体140の外側及び内側にそれぞれ設けられる一対のマイクロフォン110a、110bを備える。なお、簡単のため、図1では、ヘッドホン100のうち、ユーザの一方の耳に装着される筐体140のみを図示しているが、実際には、ヘッドホン100は、一対の筐体140を備えており、ユーザの他方の耳にもう一方の筐体140が装着され得る。また、ヘッドホン100は、例えば、これら一対の筐体140がアーチ状に湾曲された支持部材によって互いに連結された、いわゆるオーバーヘッド型のヘッドホンであってよい。もしくは、ヘッドホン100は、一対の筐体140が線材又は支持部材によって連結された、いわゆるインナーイヤー型のヘッドホンであってもよい。また、同じく図示を省略しているが、筐体140内には、音楽信号に応じて振動板を振動させることにより音を発生させるドライバユニット(スピーカ)や、当該ドライバユニットに当該音楽信号を供給するためのケーブル等の、一般的なヘッドホンが有する各種の構成が搭載されてよい。
 筐体140の外側に設けられるマイクロフォン110aは、いわゆるフィードフォワード方式によるノイズキャンセル機能のために設けられるマイクロフォン(以下、FFマイク110aとも呼称する。)である。FFマイク110aによって収音された外部音声に基づいて、ノイズとなり得る音声を打ち消すような音声信号(以下、ノイズキャンセル信号とも呼称する。)が生成され得る。ノイズキャンセル信号が重畳された音楽信号がスピーカから出力されることにより、ノイズが低減された音楽がユーザに対して提供されることとなる。
 また、FFマイク110aによって収音された外部音声は、外部音声を取り込んでスピーカから出力する、いわゆるモニタ機能に用いられてもよい。FFマイク110aによって収音された外部音声に基づいて、当該外部音声をユーザに聴取させるための音声信号(以下、モニタ信号とも呼称する。)が生成され得る。モニタ信号が重畳された音楽信号がスピーカから出力されることにより、音楽とともに外部音声がユーザに対して提供されることとなる。
 ここで、本明細書では、スピーカから音声信号に応じた音が出力されることを、簡単のため、便宜的に、音声信号が出力されるとも呼称することとする。また、マイクロフォン110a、110bについても、同様に、マイクロフォン110a、110bが音声信号に応じた音を収音することを、便宜的に、音声信号を収音するとも呼称することとする。また、マイクロフォン110a、110bによって収音された信号のことを、収音信号とも呼称する。
 一方、筐体140の内側に設けられるマイクロフォン110bは、いわゆるフィードバック方式によるノイズキャンセル機能のために設けられるマイクロフォン(以下、FBマイク110bとも呼称する。)である。FBマイク110bによって、筐体140の内側に漏れ込んできた外部音声が収音され、収音された当該外部音声に基づいてノイズキャンセル信号が生成され得る。
 ここで、ヘッドホン100は、例えばスマートフォン等の情報処理装置に対して各種の情報を入出力するための入出力装置としても機能し得る。例えば、ユーザは、ヘッドホン100を装着した状態で、音声で各種の指示を情報処理装置に対して入力することができる。また、当該情報処理装置が電話機能を有している場合には、ヘッドホン100はいわゆるヘッドセットの機能を果たしてもよく、ユーザは、ヘッドホン100を介して通話を行ってもよい。
 第1の実施形態では、例えば図1に示す構成を有するヘッドホン100を用いて、上記の指示や通話のようなユーザの発話音声に基づいて、聴取環境特性情報として、ユーザの聴取環境の伝達関数Hが計算される。具体的には、ヘッドホン100を装着しているユーザの発話音声が、FFマイク110aに到達するまでの伝達関数Hは、聴取環境の音響特性が反映されたものである。一方、発話音声がFBマイク110bに到達するまでの伝達関数Hは、例えば肉伝導や骨伝導等、ユーザの身体を経由して音声が伝達される際の伝達関数であり、聴取環境の音響特性が反映されていないものである。第1の実施形態では、FFマイク110a及びFBマイク110bのそれぞれによって収音されたユーザの発話音声に基づいて、聴取環境特性情報として、聴取環境の伝達関数Hが計算され得る。計算された伝達関数Hに基づくフィルタリングが音楽信号に対して行われることにより、外部の環境の音響特性が考慮された、より外部の音声になじんだ音楽がユーザに提供されることとなり、ユーザにより開放感を与えることが可能となる。
 以下では、まず、(1-2.システムの構成)で、以上説明した第1の実施形態に係る各処理を実現する音響調整システムの一構成例について説明する。次に、(1-3.聴取環境特性情報取得部について)で、第1の実施形態における聴取環境特性情報の取得方法について詳しく説明する。更に、(1-4.音楽信号処理部について)で、取得された聴取環境特性情報に基づく音楽信号のフィルタリングについて詳しく説明する。
 (1-2.システムの構成)
 図2を参照して、第1の実施形態に係る音響調整システムの構成について説明する。図2は、第1の実施形態に係る音響調整システムの一構成例を示すブロック図である。
 図2を参照すると、第1の実施形態に係る音響調整システム10は、マイクロフォン110、スピーカ120及び制御部130を備える。
 マイクロフォン110は、音声を収音し、当該音声を電気信号に変換することにより、当該音声に対応する信号(すなわち収音信号)を取得する。マイクロフォン110は、図1に示すマイクロフォン110a、110bに対応するものであり、これらを併せて概略的に示すものである。第1の実施形態では、マイクロフォン110は、ノイズキャンセル機能及びモニタ機能に用いられる外部音声を収音する。また、マイクロフォン110は、聴取環境特性情報を取得するためにユーザの発話音声を収音する。マイクロフォン110による収音信号は、アンプ111によって適宜増幅され、ADC(Analog-to-Digital Converter)112によってデジタル信号に変換された後、後述する制御部130の聴取環境特性情報取得部131、モニタ信号生成部133及びノイズキャンセル信号生成部134に入力される。なお、実際には、アンプ111及びADC112が、各マイクロフォン110a、110bに対してそれぞれ設けられる。
 スピーカ120は、音声信号に応じて振動板を振動させることにより、当該音声信号に応じた音を出力する。スピーカ120は、図1に示すヘッドホン100に搭載されるドライバユニットに対応している。第1の実施形態では、スピーカ120からは、聴取環境特性情報(すなわち、聴取環境の伝達関数H)に基づくフィルタリングが施された音楽信号が出力され得る。また、スピーカ120から出力される音楽信号には、ノイズキャンセル信号及び/又はモニタ信号が重畳されていてもよい。スピーカ120からは、DAC(Digital-to-Analog Converter)122によってアナログ信号に変換され、アンプ121によって適宜増幅された音声信号が出力される。
 制御部(本開示の情報処理装置に対応する。)130は、例えばCPU(Central Processing Unit)やDSP(Digital Signal Pocessor)等の各種のプロセッサによって構成され、音響調整システム10において行われる各種の信号処理を実行する。制御部130は、その機能として、聴取環境特性情報取得部131と、音楽信号処理部132と、モニタ信号生成部133と、ノイズキャンセル信号生成部134と、を有する。制御部130の各機能は、制御部130を構成するプロセッサが、所定のプログラムに従って動作することによって実現され得る。制御部130を構成するプロセッサは、図1に示すヘッドホン100に搭載されてもよいし、図1に示すヘッドホン100とは別の情報処理装置(例えばユーザが携帯しているスマートフォン等の携帯端末)に搭載されてもよい。あるいは、制御部130の機能は、ネットワーク上(いわゆるクラウド上)に設けられるサーバ等の情報処理装置のプロセッサによって実行されてもよい。制御部130を構成するプロセッサがヘッドホン100とは別の携帯端末又はサーバ等に搭載される場合には、少なくともスピーカ120及びマイクロフォン110が搭載されたヘッドホン100がユーザに装着され、当該ヘッドホン100と当該携帯端末又は当該サーバとが互いに各種の情報を送受信することにより、音響調整システム10における各種の処理が実行され得る。
 また、制御部130は、外部機器と通信可能に接続されており、当該外部機器から制御部130の聴取環境特性情報取得部131及び音楽信号処理部132に対して、音楽信号が入力される。当該外部機器は、例えばCD(Compact Disc)プレイヤー、DVD(Digital Versatile Disc)プレイヤー、Blu-ray(登録商標)プレイヤー等の音楽コンテンツを再生可能な再生機器であってよい。当該外部機器は、各種の記録媒体(メディア)から、各種の記録方式に従って記録されている音楽信号を読み出すことができる。なお、上述した携帯端末が、当該外部機器(再生機器)の機能を有してもよい。
 聴取環境特性情報取得部131は、マイクロフォン110によって収音される外部音声に基づいて、聴取環境の音響特性を表す聴取環境特性情報を取得する。第1の実施形態では、聴取環境特性情報取得部131は、マイクロフォン110によって収音されるユーザの発話音声に基づいて、聴取環境特性情報として、聴取環境の伝達関数Hを取得する。聴取環境特性情報取得部131は、取得した伝達関数Hについての情報を、音楽信号処理部132に提供する。なお、聴取環境特性情報取得部131の機能については、下記(1-3.聴取環境特性情報取得部について)で詳しく説明する。
 ここで、聴取環境特性情報取得部131が聴取環境特性情報の取得を開始するタイミングは、例えば電源投入、規定のタイマーカウント(すなわち所定のタイミング)等、所定の条件(以下、聴取環境特性情報取得条件とも呼称する。)が検出されたタイミングであってよい。また、第1の実施形態では、ユーザの発話音声に基づいて聴取環境特性情報が取得されるため、聴取環境特性情報取得部131は、ユーザの発声が検出されたタイミングで聴取環境特性情報の取得を開始してもよい。また、制御部130を構成するプロセッサがヘッドホン100とは別の携帯端末に搭載される場合には、聴取環境特性情報取得条件は、例えば当該携帯端末に搭載されるGPS(Global Positioning System)センサ等のセンサによりユーザの移動が検出されることや、当該携帯端末に対する操作入力が検出されることを含んでもよい。
 音楽信号処理部132は、聴取環境特性情報取得部131によって取得された聴取環境特性情報に基づいて、音楽信号に対して所定の信号処理を施す。第1の実施形態では、音楽信号処理部132は、聴取環境特性情報取得部131によって取得された伝達関数Hに基づいて、音楽信号をフィルタリングする。具体的には、音楽信号処理部132は、聴取空間の伝達関数Hの特性を反映したフィルタ特性を有するフィルタによって音楽信号をフィルタリングすることにより、例えば外部環境に応じた残響特性(初期反射時間や残響時間等)を音楽信号に付与することができる。音楽信号処理部132によって信号処理が施された音楽信号(以下、信号処理後の音楽信号とも呼称する。)は、可変アンプ150aによって適宜ゲインが調整された後、DAC122及びアンプ121を介してスピーカ120から出力される。なお、信号処理後の音楽信号は、図2に示すように、加算器160によってノイズキャンセル信号及び/又はモニタ信号が加算された状態でスピーカ120に対して出力されてもよい。なお、音楽信号処理部132の機能については、(1-4.音楽信号処理部について)で詳しく説明する。
 モニタ信号生成部133は、マイクロフォン110によって収音された外部音声に基づいて、当該外部音声をユーザに聴取させるための音声信号であるモニタ信号を生成する。モニタ信号生成部133は、外部音声が、筐体に直接漏れこむ音と合わせて自然な音となるように、モニタ信号に係る音声(以下、モニタ音とも呼称する。)を調整することができる。モニタ信号生成部133は、例えば、ハイパスフィルタ(HPF:High-Pass Filter)及びゲイン回路によって構成され、マイクロフォン110による収音信号は、アンプ111及びADC112を介して、当該HPFに入力される。ここで、当該HPFのカットオフ周波数としては、聴感上耳障りとされるノイズ成分が多分に含まれる低域の成分を除去するように設定され得る。これにより、低域の耳障りなノイズ成分が除去され、例えば車内アナウンス等の外部音声が聴取しやすくなるように調整されたモニタ信号が生成され得る。モニタ信号生成部133によって生成されたモニタ信号は、可変アンプ150bによって適宜ゲインが調整された後、加算器160によって、信号処理後の音楽信号に加算されて、スピーカ120から出力され得る。モニタ信号が重畳されることにより、ユーザは、ヘッドホン100を装着した状態で、例えば車内アナウンス等の外部音声を音楽とともに聴取することが可能となる。
 ノイズキャンセル信号生成部134は、マイクロフォン110によって収音された外部音声に基づいて、当該外部音声に含まれるノイズ成分を打ち消すための音声信号であるノイズキャンセル信号を生成する。例えば、ノイズキャンセル信号生成部134は、外部の音声信号の逆相の信号を生成するインバータと、キャンセル帯域を調整するフィルタ回路とから構成される。ノイズキャンセル信号生成部134には、例えばFF方式によるノイズキャンセリングシステムに対応する信号特性αが設定されており、ノイズキャンセル信号生成部134は、マイクロフォン110のうちFFマイク110aによる収音信号に対して、当該信号特性αを与えるように構成される。当該信号特性αは、FF方式によるノイズキャンセリングシステムの系中における各回路や空間の伝達関数を考慮して、外部音がキャンセルされてユーザに聴取されるようにするためのノイズキャンセル信号が生成されるように、収音信号に対して与えるべき信号特性(例えば周波数-振幅特性や周波数-位相特性)を表している。ノイズキャンセル信号生成部134の上記フィルタ回路は、例えば、このような信号特性αを収音信号に対して与えることが可能なように構成され得る。ノイズキャンセル信号生成部134によって生成されたノイズキャンセル信号は、可変アンプ150cによって適宜ゲインが調整された後、加算器160によって、信号処理後の音楽信号に加算されて、スピーカ120から出力され得る。ノイズキャンセル信号が重畳されることにより、ユーザは、ノイズが低減されたよりよい音質で音楽を聴取することが可能となる。
 なお、ノイズキャンセル信号生成部134は、FB方式によるノイズキャンセリングシステムに対応するノイズキャンセル信号を生成してもよい。その場合、ノイズキャンセル信号生成部134は、マイクロフォン110のうちFBマイク110bによる収音信号に対して、所定の信号特性を与えることによりノイズキャンセル信号を生成するように構成され得る。
 ここで、モニタ信号生成部133及びノイズキャンセル信号生成部134としては、モニタ信号及びノイズキャンセル信号を生成するために一般的に行われている各種の公知な機能が適用されてよい。従って、モニタ信号生成部133及びノイズキャンセル信号生成部134の具体的な構成については詳細な説明を省略する。モニタ信号生成部133及びノイズキャンセル信号生成部134の機能の一例としては、例えば、本願出願人による先行出願である、上記特許文献1の記載を参照することができる。
 また、第1の実施形態では、モニタ信号生成部133によるモニタ信号の生成及びノイズキャンセル信号生成部134によるノイズキャンセル信号の生成は、必ずしも行われなくてもよい。モニタ信号及びノイズキャンセル信号が重畳されない場合であっても、音楽信号処理部132によって聴取環境特性情報に基づく信号処理が施された音楽信号がユーザに対して出力されることにより、外部の環境が考慮されたより開放感のある音楽がユーザに対して提供されることとなる。
 以上、第1の実施形態に係る音響調整システム10の構成について説明した。なお、以上説明した音響調整システム10における各種の信号処理、特に制御部130における各処理は、例えば、1つのプロセッサ又は1台の情報処理装置によって実行されてもよいし、複数のプロセッサ又は複数の情報処理装置の協働によって実行されてもよい。あるいは、上述したように、これらの信号処理は、ネットワーク上(いわゆるクラウド上)に設けられるサーバ等の情報処理装置又は情報処理装置群によって実行されてもよい。
 また、第1の実施形態に係る音響調整システム10を実現し得る装置構成は、図1に示す構成に限定されず、任意であってよい。例えば、図1に示す音響調整システム10が、一体的な装置として構成されてもよい。また、制御部130に音楽信号を提供する外部機器(再生機器)も、当該装置に含まれてもよい。音響調整システム10に示す構成及び当該再生機器が一体的な装置として構成される場合には、当該装置は、例えば、ヘッドホン型の携帯音楽プレイヤーであり得る。
 (1-3.聴取環境特性情報取得部について)
 図3を参照して、図2に示す聴取環境特性情報取得部131の機能について説明する。図3は、聴取環境特性情報取得部131の機能構成の一例を示すブロック図である。
 図3を参照すると、聴取環境特性情報取得部131は、その機能として、FBマイク信号バッファ部161と、FBマイク信号FFT部162と、伝達関数計算部163と、FFマイク信号バッファ部164と、FFマイク信号FFT部165と、を有する。なお、図3では、聴取環境特性情報取得部131の機能構成を図示するとともに、図2に示す音響調整システム10の構成の中で、聴取環境特性情報取得部131の各機能と関連する構成を抜き出し、併せて図示している。
 図3において、例えば情報処理装置に対して各種の指示を与える際や電話の通話時等に、ユーザの口から発せられる音声(発話音声)を表すパラメータをSとする。また、発話音声がユーザの口からFBマイク110bに到達するまでの伝達関数をHとし、発話音声がユーザの口からFFマイク110aに到達するまでの伝達関数をHとする。伝達関数Hは、発話音声が、例えば肉伝導や骨伝導等ユーザの身体を経由してFBマイク110aに到達するまでの伝達関数を表している。一方、伝達関数Hは、発話音声が、ユーザがいる空間(聴取環境)を経由してFFマイク110aに到達するまでの伝達関数を表している。
 伝達関数Hは、聴取環境の音響特性(例えば残響特性や壁面等による反射特性等)を含まない状態での音声の伝達特性を示すものであり、伝達関数Hは、外部の聴取環境の音響特性が反映された音声の伝達特性を示すものであると言える。従って、伝達関数Hは、聴取環境によって変化せず、例えばヘッドホン100の設計時に無響室等で測定することにより、事前に取得することができる既知の値である。一方、伝達関数Hは、聴取環境によって変化する未知の値である。聴取環境特性情報取得部131では、FFマイク110a及びFBマイク110bによってそれぞれ収音されたユーザの発話音声に基づいて、聴取環境特性情報として、聴取空間の伝達関数Hが取得され得る。
 図3に示すように、FBマイク110bによる収音信号は、アンプ111bによって適宜増幅され、ADC112bによってデジタル信号に変換された後、聴取環境特性情報取得部131のFBマイク信号バッファ部161に入力される。FBマイク信号バッファ部161は、FBマイク110bによる収音信号を所定のフレーム長でバッファし、後段のFBマイク信号FFT部162に提供する。FBマイク信号FFT部162は、収音信号に対して高速フーリエ変換(FFT:Fast Fourier Transform)を施し、後段の伝達関数計算部163に提供する。FBマイク110bによって収音され、FBマイク信号バッファ部161及びFBマイク信号FFT部162を介して伝達関数計算部163に入力される収音信号は、上記パラメータS及び伝達関数Hを用いて「S*H」と表現され得る。
 同様に、FFマイク110aによる収音信号は、アンプ111aによって適宜増幅され、ADC112aによってデジタル信号に変換された後、聴取環境特性情報取得部131のFFマイク信号バッファ部164に入力される。FFマイク信号バッファ部164は、FFマイク110aによる収音信号を収音信号を所定のフレーム長でバッファし、後段のFFマイク信号FFT部165に提供する。FFマイク信号FFT部165は、収音信号に対して高速フーリエ変換を施し、後段の伝達関数計算部163に提供する。FFマイク110aによって収音され、FFマイク信号バッファ部164及びFFマイク信号FFT部165を介して伝達関数計算部163に入力される収音信号は、上記パラメータS及び伝達関数Hを用いて「S*H」と表現され得る。
 ここで、信号S*H及び信号S*Hは、上記のように測定値として取得される既知の値であり得る。また、上述したように、伝達関数Hは事前の測定によって既知の値であり得る。従って、伝達関数計算部163は、下記数式(1)に基づいて、聴取空間の伝達関数Hを計算することができる。
Figure JPOXMLDOC01-appb-M000001
 伝達関数計算部163は、計算した聴取空間の伝達関数Hを、音楽信号処理部132に提供する。音楽信号処理部132では、聴取空間の伝達関数Hを用いて音楽信号に対して各種のフィルタ処理が行われることとなる。なお、FBマイク信号バッファ部161及びFFマイク信号バッファ部164が収音信号のバッファを開始するタイミングは、聴取環境特性情報取得条件が検出されたタイミングであってよい。
 (1-4.音楽信号処理部について)
 図4を参照して、図2に示す音楽信号処理部132の機能について説明する。図4は、音楽信号処理部132の一構成例を示すブロック図である。
 図4では、音楽信号処理部132を構成し得るフィルタ回路の一例を概略的に図示している。図4に示すように、第1の実施形態では、音楽信号処理部132は、好適にFIR(Finite Impulse Response)フィルタによって構成され得る。聴取環境特性情報取得部131によって取得された聴取空間の伝達関数H(周波数領域表現)を逆フーリエ変換して得られる時間領域表現の伝達関数hを、FIRフィルタのパラメータとして用いることにより、聴取空間の音響特性が反映されたフィルタ回路が実現され得る。
 具体的には、音楽信号処理部132は、下記数式(2)により時間領域表現の伝達関数hを得た後、音楽信号に対して、当該伝達関数hのFIRフィルタによる畳み込みを行う。これにより、音楽信号に対して聴取空間の音響特性(例えば残響特性や周波数特性等)が付与されることとなる。ここで、Nは離散フーリエ変換の点の数である。
Figure JPOXMLDOC01-appb-M000002
 音楽信号処理部132は、フィルタリングにより聴取空間の音響特性が付与された音楽信号を、DAC122及びアンプ121を介してスピーカ120に対して出力する。信号処理後の音楽信号がスピーカ120から出力されることにより、ユーザに対して聴取空間の音響特性に応じた、より外部音声になじんだ、より開放感のある音楽が提供されることとなる。なお、図2に示すように、音楽信号処理部132によってフィルタリングが施された音楽信号は、加算器160によってノイズキャンセル信号及び/又はモニタ信号が重畳された状態で、スピーカ120から出力されてもよい。これにより、ノイズがより低減された状態で、また、モニタ音によりなじんだ音楽がユーザに対して提供され得る。
 なお、演算量低減の目的で、伝達関数Hを周波数領域のまま用い、音楽信号を離散フーリエ変換し、離散フーリエ変換後の音楽信号と伝達関数Hとを周波数領域で乗算する手法でも、同様の作用を奏するフィルタ回路を実現可能である。また、FIRフィルタとFFTとを併用した形での実装も可能である。
 ここで、上述したように、第1の実施形態では、時間領域表現の伝達関数hがFIRフィルタのパラメータとして用いられるが、音楽信号処理部132は、新たに得られたFIRフィルタのパラメータ(すなわち伝達関数h)が、現在の設定値と大きく異ならない場合には、FIRフィルタにおけるこれらのパラメータを更新しなくてもよい。例えば、音楽信号処理部132は、FIRフィルタに設定されている現在のパラメータと、今回の測定によって得られた新たなパラメータとの差分が所定のしきい値よりも大きい場合に、これらのパラメータを更新してもよい。FIRフィルタの特性があまりにも頻繁に変更されると、音楽信号がふらついてしまい、かえってユーザの聴取感を損なう可能性がある。従って、このように、新たに得られたパラメータが現在の設定値と大きく異ならない場合には、当該パラメータを更新しないようにすることにより、ユーザに対してより安定的に音楽を提供することが可能となる。
 以上、第1の実施形態について説明した。以上説明したように、第1の実施形態によれば、ユーザの発話音声に基づいて聴取空間の伝達関数Hが取得され、当該伝達関数Hに基づいて音楽信号に聴取空間の音響特性が付与される。従って、より外部の音声になじんだ、より開放感のある音楽がユーザに対して提供され得る。また、伝達関数Hは、例えばユーザが音声によって情報処理装置に指示を与える場合や、ユーザが電話機能を用いて通話を行っている場合等、ユーザが通常の動作として言葉を発した任意のタイミングで取得され得る。よって、ユーザがあえて伝達関数Hを得るための動作(発声)をしなくても、他の目的でユーザが発した言葉に基づいて自動的に伝達関数Hが取得され、音楽信号が補正されるため、ユーザの利便性が向上する。
 (2.第2の実施形態)
 次に、本開示の第2の実施形態について説明する。第2の実施形態では、外部音声として所定の測定用音声が用いられる。当該測定用音声としては、音楽信号に係る音声や、聴取環境における無相関雑音等が用いられ得る。マイクロフォンによって収音された測定用音声に基づいて、聴取環境特性情報が取得される。そして、取得された聴取環境特性情報に基づくフィルタ特性で音楽信号がフィルタリングされる。これにより、聴取環境の音響特性が反映された、より外部音声となじんだ音楽がユーザに対して提供されることとなる。
 (2-1.第2の実施形態の概要)
 図5を参照して、第2の実施形態に係るヘッドホンの一構成例について説明するとともに、第2の実施形態の概要について説明する。図5は、第2の実施形態に係るヘッドホンの一構成例を示す概略図である。
 図5を参照すると、第2の実施形態に係るヘッドホン200は、ユーザの耳に装着される一対の筐体240と、一対の筐体240を互いに連結するアーチ状に湾曲された支持部材250と、筐体240の内側に設けられ音楽信号に応じて振動板を振動させることにより音を発生させるドライバユニット220b(スピーカ220b)と、外部の空間である聴取環境に向かって音楽信号を出力するスピーカ220aと、筐体240の外側に設けられ外部音声を収音するマイクロフォン210と、を備える。なお、簡単のため、図5では図示を省略しているが、ヘッドホン200は、例えばスピーカ220a、220bに音楽信号を供給するためのケーブル等の、一般的なヘッドホンが有する各種の構成が搭載されてよい。
 マイクロフォン210は、いわゆるフィードフォワード方式によるノイズキャンセル機能のために設けられるマイクロフォンである。マイクロフォン210によって収音された外部音声に基づいてノイズキャンセル信号が生成され得る。また、マイクロフォン210によって収音された外部音声はモニタ機能に用いられてもよい。マイクロフォン210によって収音された外部音声に基づいてモニタ信号が生成され得る。ノイズキャンセル信号が重畳された音楽信号がスピーカ220a、220bから出力されることにより、ノイズが低減された音楽がユーザに対して提供されることとなる。また、モニタ信号が重畳された音楽信号がスピーカ220a、220bから出力されることにより、音楽とともに外部音声がユーザに対して提供されることとなる。
 第2の実施形態では、例えば図5に示す構成を有するヘッドホン200を用いて、マイクロフォン210によって収音される外部音声に基づいて、聴取環境特性情報として、ユーザの聴取環境の伝達関数が計算される。例えば、第2の実施形態では、スピーカ220aから聴取環境に向かって音楽信号を出力し、当該音楽信号を測定用音声の信号(測定信号)として用いることにより、伝達関数が取得され得る。また、例えば、第2の実施形態では、音楽信号を測定信号として用いることにより、聴取環境特性情報として、出力した音楽信号と収音信号との相関関数が取得され得る。また、例えば、第2の実施形態では、喧騒音等の無相関雑音を測定信号として用いることにより、聴取環境特性情報として、収音信号の自己相関関数が取得され得る。取得された伝達関数又は相関関数に基づくフィルタリングが音楽信号に対して行われることにより、外部の環境の音響特性が考慮された、より外部の音声になじんだ音楽がユーザに提供されることとなり、ユーザにより開放感を与えることが可能となる。
 以下では、まず、(2-2.システムの構成)で、以上説明した第2の実施形態に係る各処理を実現する音響調整システムの一構成例について説明する。次に、(2-3.聴取環境特性情報取得部について)で、第2の実施形態における聴取環境特性情報の取得方法について詳しく説明する。更に、(2-4.音楽信号処理部について)で、取得された聴取環境特性情報に基づく音楽信号のフィルタリングについて詳しく説明する。
 (2-2.システムの構成)
 図6を参照して、第2の実施形態に係る音響調整システムの構成について説明する。図6は、第2の実施形態に係る音響調整システムの一構成例を示すブロック図である。
 図6を参照すると、第2の実施形態に係る音響調整システム20は、マイクロフォン210と、スピーカ220a、220bと、制御部230と、を備える。なお、第2の実施形態に係る音響調整システム20は、上述した図2に示す第1の実施形態に係る音響調整システム10に対して、マイクロフォン110及びスピーカ120の構成が変更され、聴取環境特性情報取得部131及び音楽信号処理部132の機能が変更されたものに対応する。従って、以下の音響調整システム20の構成についての説明では、第1の実施形態に係る音響調整システム10との相違点について主に説明することとし、重複する事項についてはその詳細な説明を省略する。
 マイクロフォン210は、音声を収音し、当該音声を電気信号に変換することにより、当該音声に対応する信号(すなわち収音信号)を取得する。マイクロフォン210は、図5に示すマイクロフォン210に対応している。第2の実施形態では、マイクロフォン210は外部音声として所定の測定用音声を収音する。例えば、当該測定用音声には、スピーカ220aから外部に向かって出力される音楽信号に係る音声、及び喧騒音等の無相関雑音が含まれる。マイクロフォン210による収音信号は、アンプ211によって適宜増幅され、ADC212によってデジタル信号に変換された後、後述する制御部230の聴取環境特性情報取得部231、モニタ信号生成部133及びノイズキャンセル信号生成部134に入力される。
 スピーカ220a、220bは、音声信号に応じて振動板を振動させることにより、当該音声信号に応じた音を出力する。スピーカ220a、220bは、図5に示すスピーカ220a、220bに対応している。スピーカ220bは、筐体240の内側に設けられ、ユーザの耳に対して、聴取環境の音響特性が反映された音楽信号を出力する。スピーカ220bからは、音楽信号に重畳させて、ノイズキャンセル信号及び/又はモニタ信号が出力されてもよい。一方、スピーカ220aは、外部の空間(すなわち聴取環境)に向けて音楽信号を出力する。スピーカ220aから出力される音楽信号は、例えば外部機器(例えば各種の再生機器)から提供される信号処理前(例えばフィルタリング実施前)の音楽信号であり得る。ただし、スピーカ220aから出力される音楽信号は、その特性が既知のものであればよく、信号処理後の音楽信号であってもよい。第1の実施形態に係るスピーカ120と同様に、スピーカ220a、220bの前段には、それぞれ、DAC222a、222b及びアンプ221a、221bが設けられる。
 制御部230は、例えばCPUやDSP等の各種のプロセッサによって構成され、音響調整システム20において行われる各種の信号処理を実行する。制御部230は、その機能として、聴取環境特性情報取得部231と、音楽信号処理部232と、モニタ信号生成部133と、ノイズキャンセル信号生成部134と、を有する。制御部230の各機能は、制御部230を構成するプロセッサが、所定のプログラムに従って動作することによって実現され得る。制御部230を構成するプロセッサは、図5に示すヘッドホン200に搭載されてもよいし、図5に示すヘッドホン200とは別の情報処理装置(例えばユーザが携帯しているスマートフォン等の携帯端末)に搭載されてもよい。あるいは、制御部230の機能は、ネットワーク上(いわゆるクラウド上)に設けられるサーバ等の情報処理装置のプロセッサによって実行されてもよい。制御部230を構成するプロセッサがヘッドホン200とは別の携帯端末又はサーバ等に搭載される場合には、ヘッドホン200と当該携帯端末又は当該サーバとが互いに各種の情報を送受信することにより、音響調整システム20における各種の処理が実行され得る。なお、モニタ信号生成部133及びノイズキャンセル信号生成部134の機能は、図2に示すこれらの構成の各機能と同様であるため、その詳細な説明は省略する。
 聴取環境特性情報取得部231は、マイクロフォン210によって収音される外部音声に基づいて、聴取環境の音響特性を表す聴取環境特性情報を取得する。第2の実施形態では、聴取環境特性情報取得部231は、マイクロフォン210によって収音される測定用音声に基づいて、聴取環境特性情報として、聴取環境の伝達関数、出力した音楽信号と収音信号との相関関数、及び/又は、無相関雑音の自己相関関数を取得することができる。聴取環境特性情報取得部131は、取得した聴取環境特性情報を、音楽信号処理部232に提供する。なお、第1の実施形態に係る聴取環境特性情報取得部131と同様に、聴取環境特性情報取得部231は、聴取環境特性情報取得条件が検出されたタイミングで、聴取環境特性情報を取得する処理を開始することができる。なお、聴取環境特性情報取得部231の機能については、下記(2-3.聴取環境特性情報取得部について)で詳しく説明する。
 音楽信号処理部232は、聴取環境特性情報取得部231によって取得された聴取環境特性情報に基づいて、音楽信号に対して所定の信号処理を施す。第2の実施形態では、音楽信号処理部232は、聴取環境特性情報取得部231によって取得され得る伝達関数や相関関数に基づいて、音楽信号に対してフィルタリングを行う。具体的には、音楽信号処理部232は、聴取環境の伝達関数及び/又は相関関数の特性を反映したフィルタ特性を有するフィルタによって音楽信号をフィルタリングすることにより、例えば外部環境に応じた残響特性(初期反射時間や残響時間等)を音楽信号に付与することができる。また、音楽信号処理部232では、聴取環境の伝達関数及び/又は相関関数に基づいて、例えばイコライザ(Equalizer)を用いて、外部環境に応じた周波数特性を音楽信号に付与することができる。音楽信号処理部232によって信号処理が施された音楽信号は、可変アンプ150aによって適宜ゲインが調整された後、DAC222b及びアンプ221bを介してスピーカ220bから出力され、ユーザに提供される。なお、信号処理後の音楽信号は、図2に示すように、加算器160によってノイズキャンセル信号及び/又はモニタ信号が重畳された状態で、スピーカ220bに対して出力されてもよい。なお、音楽信号処理部232の機能については、(2-4.音楽信号処理部について)で詳しく説明する。
 以上、第2の実施形態に係る音響調整システム20の構成について説明した。なお、第2の実施形態においても、第1の実施形態と同様に、音響調整システム20における各種の信号処理、特に制御部230における各処理は、例えば、1つのプロセッサ又は1台の情報処理装置によって実行されてもよいし、複数のプロセッサ又は複数の情報処理装置の協働によって実行されてもよい。また、第2の実施形態に係る音響調整システム20を実現し得る装置構成は、図6に示す構成に限定されず、任意であってよい。例えば、図2に示す音響調整システム20は、一体的な装置として構成されてもよく、当該装置は、制御部230に音楽信号を提供する外部機器(再生機器)を含んでもよい。
 (2-3.聴取環境特性情報取得部について)
 第2の実施形態に係る聴取環境特性情報取得部231の機能について説明する。上述したように、聴取環境特性情報取得部231は、マイクロフォン210によって収音される測定用音声に基づいて、聴取環境特性情報として、聴取環境の伝達関数、出力した音楽信号と収音信号との相関関数、及び/又は、無相関雑音の自己相関関数を取得することができる。聴取環境特性情報取得部231は、取得する聴取環境特性情報に応じて、互いに異なる構成を取ることができる。ここでは、下記(2-3-1.音楽信号を測定信号に用いて伝達関数を取得する構成)、(2-3-2.音楽信号を測定信号に用いて相関関数を取得する構成)及び(2-3-3.無相関雑音を測定信号に用いて相関関数を取得する構成)において、取得する聴取環境特性情報に応じた、聴取環境特性情報取得部231の構成について説明する。なお、以下の図7、図8及び図10では、聴取環境特性情報取得部231における互いに異なる構成について説明するために、聴取環境特性情報取得部231に対して便宜的に異なる符号(聴取環境特性情報取得部231a、231b、231c)を付しているが、これらは全て、図6に示す聴取環境特性情報取得部231に対応するものである。
 (2-3-1.音楽信号を測定信号に用いて伝達関数を取得する構成)
 図7を参照して、図2に示す聴取環境特性情報取得部231において、音楽信号を測定信号に用いて伝達関数を取得するための一構成例について説明する。図7は、聴取環境特性情報取得部231において、音楽信号を測定信号に用いて伝達関数を取得するための一構成例を示すブロック図である。
 図7を参照すると、聴取環境特性情報取得部231aは、その機能として、音楽信号特性計算部261と、残響特性推定部262と、を有する。なお、図7では、聴取環境特性情報取得部231aの機能構成を図示するとともに、図6に示す音響調整システム20の構成の中で、聴取環境特性情報取得部231の各機能と関連する構成を抜き出し、併せて図示している。
 図7に示す構成例では、スピーカ220aから測定信号として音楽信号が出力され、当該音楽信号がマイクロフォン210によって収音される。測定に用いられる音楽信号を表すパラメータをSとし、マイクロフォン210、アンプ211及びADC212を合わせた伝達関数をMとし、DAC222a、アンプ221a及びスピーカ220aを合わせた伝達関数をDとする。ここで、伝達関数M、Dは、ともに、設計時に決定され得る既知の値である。
 また、スピーカ220aから出力された音楽信号がユーザのいる空間(すなわち聴取環境)を通してマイクロフォン210に到達するまでの伝達関数をHaとする。また、伝達関数Haのうち、スピーカ220aからマイクロフォン210まで部屋の壁等による反射がない状態で直接音波が届く経路に対応する成分をH、伝達関数HaのうちH以外の成分をHとする。伝達関数Hは、聴取環境の影響を受けない成分を表している。一方、伝達関数Hは、聴取環境に応じて変化する、聴取環境の音響特性が反映された成分を表している。なお、Hは、例えばヘッドホン200の設計時に無響室等で測定することにより、事前に取得することができる既知の値である。このとき、Ha、H、Hは、下記数式(3)を満たす。
Figure JPOXMLDOC01-appb-M000003
 聴取環境特性情報取得部231aでは、スピーカ220aから発せられ、マイクロフォン210によって収音された音楽信号に基づいて、聴取空間の音響特性が反映された伝達関数Hが取得され得る。具体的には、音楽信号特性計算部261に対して、外部機器(再生機器)から測定信号として音楽信号が入力される。音楽信号特性計算部261は、測定開始のトリガによって、所定のフレーム長で音楽信号をバッファしフーリエ変換する。これにより、音楽信号特性計算部261は、上述した音楽信号を表すパラメータS(Source)を得る。音楽信号特性計算部261は、取得したパラメータSを残響特性推定部262に提供する。また、音楽信号特性計算部261は、音楽信号をDAC222aに提供する。音楽信号は、DAC222a及びアンプ221aを介してスピーカ220aから出力される。
 スピーカ220aから出力された音楽信号は、マイクロフォン210によって収音される。マイクロフォン210によって収音された音楽信号(すなわち収音信号)は、アンプ211及びADC212を介して残響特性推定部262に入力される。残響特性推定部262は、測定開始のトリガによって、音楽信号特性計算部261と同様のフレーム長で収音信号をバッファしフーリエ変換する。残響特性推定部262による計算の結果得られる信号は、「M*D*S*Ha」と表現され得る。
 当該信号A*D*S*Haを用いれば、伝達関数Haは、下記数式(4)のように表現され得る。
Figure JPOXMLDOC01-appb-M000004
 また、上記数式(3)及び上記数式(4)から、伝達関数Hは、下記数式(5)のように表現され得る。
Figure JPOXMLDOC01-appb-M000005
 ここで、上述したように、伝達関数H、A、Dは既知の値である。また、パラメータSは、音楽信号特性計算部261によって算出されている。従って、残響特性推定部262は、これらの既知の値を用いて上記数式(5)に示す計算を行うことにより、聴取環境の伝達関数Hを計算することができる。
 残響特性推定部262は、計算した聴取空間の伝達関数Hを、音楽信号処理部232に提供する。音楽信号処理部232では、聴取空間の伝達関数Hを用いて音楽信号に対して各種のフィルタ処理が行われることとなる。なお、音楽信号特性計算部261及び残響特性推定部262が音楽信号及び収音信号のバッファを開始するトリガは、聴取環境特性情報取得条件が検出されたことであってよい。
 以上、音楽信号を測定信号に用いて伝達関数を取得するための一構成例について説明した。ここで、第1の実施形態では、ユーザの発話音声を用いて伝達関数Hを計算していた。当該発話音声は、その特性が不明であるため、上記(1-3.聴取環境特性情報取得部について)で説明したように、第1の実施形態では、音源をパラメータ化せずに伝達関数Hを求める手法が適用されていた。一方、第2の実施形態では、スピーカ220aの特性(上述した伝達関数D)が既知であり得るため、上記のように、パラメータ化された音源を用いて伝達関数Hを求めることが可能となる。このように、ヘッドホン100、200の構成(より詳細にはスピーカ120、220a、220b及びマイクロフォン110、210の配置数や配置位置)に応じて、多様な手法を用いて聴取空間の伝達関数Hを算出することができる。
 (2-3-2.音楽信号を測定信号に用いて相関関数を取得する構成)
 図8を参照して、図2に示す聴取環境特性情報取得部231において、音楽信号を測定信号に用いて相関関数を取得するための一構成例について説明する。図8は、聴取環境特性情報取得部231において、音楽信号を測定信号に用いて相関関数を取得するための一構成例を示すブロック図である。
 図8を参照すると、聴取環境特性情報取得部231bは、その機能として、出力信号バッファ部271と、収音信号バッファ部272と、相関関数計算部273と、を有する。なお、図8では、聴取環境特性情報取得部231bの機能構成を図示するとともに、図6に示す音響調整システム20の構成の中で、聴取環境特性情報取得部231の各機能と関連する構成を抜き出し、併せて図示している。
 図8に示す構成例では、スピーカ220aから測定信号として音楽信号が出力され、当該音楽信号がマイクロフォン210によって収音される。そして、出力した音楽信号と、収音された音楽信号(すなわち収音信号)との相関関数が計算される。当該相関関数は、聴取環境の音響特性が反映されたものであると言える。
 具体的には、図8に示すように、外部機器(再生機器)から入力された音楽信号が、DAC222a及びアンプ221aを介してスピーカ220aから出力される。音楽信号がスピーカ220aから出力されている状態で、出力信号バッファ部271は、測定開始のトリガによって、所定の時間分、音楽信号をバッファする。出力信号バッファ部271は、バッファした音楽信号を相関関数計算部273に提供する。
 スピーカ220aから出力された音楽信号は、マイクロフォン210によって収音される。マイクロフォン210による収音信号は、アンプ211及びADC212を介して収音信号バッファ部272に入力される。収音信号バッファ部272は、出力信号バッファ部271と同期して、出力信号バッファ部271による音楽信号のバッファと同じタイミング、同じ時間分、収音信号をバッファする。収音信号バッファ部272は、バッファした収音信号を相関関数計算部273に提供する。
 相関関数計算部273は、出力信号バッファ部271によってバッファされた出力時の音楽信号と、収音信号バッファ部272によってバッファされた収音時の音楽信号と、の相関関数を計算する。相関関数計算部273によって計算され得る相関関数の一例を、図9に示す。図9は、相関関数計算部273によって計算され得る相関関数の一例を示す概略図である。図9に示すように、時刻t、t、t、……、tと、所定に時刻において相関関数のピークが現れる。時刻tに現れるピークは、スピーカ220aからマイクロフォン210に直接伝わる成分を示しており、時刻t以降に現れるピークは、スピーカ220aから出力された後、聴取環境の壁や天井等に反射してからマイクロフォン210に入力された成分を示している。時刻t以降に現れるピークに対応する成分は、時間の経過につれて指数関数的に減衰し、0に近付いていく。時刻tまでの時間と、減衰の傾きから、残響特性の主なファクターである、初期反射音までの時間や残響時間等を推定することができる。
 相関関数計算部273は、計算した相関関数を、音楽信号処理部232に提供する。音楽信号処理部232では、相関関数から、例えば上述したような聴取環境の残響特性が推定され、推定された残響特性を用いて音楽信号に対して各種のフィルタ処理が行われる。なお、出力信号バッファ部271及び収音信号バッファ部272が音楽信号及び収音信号のバッファを開始するトリガは、聴取環境特性情報取得条件が検出されたことであってよい。
 以上、音楽信号を測定信号に用いて相関関数を取得するための一構成例について説明した。以上説明したように、第2に実施形態では、聴取環境特性情報として、伝達関数の代わりに、出力前後の音楽信号の相関関数が取得されてもよい。なお、上記(2-3-1.音楽信号を測定信号に用いて伝達関数を取得する構成)及び本項で説明した構成では、測定信号として音楽信号を用いているが、第2の実施形態はかかる例に限定されない。測定用音声としては、例えば周波数帯域や音量レベル等が測定用に調整された専用の音声が用いられてもよい。例えば、十分な周波数帯域や音量レベルを有する専用の測定音を用いることにより、より安定した特性情報が得られる。また、聴取環境によっては、外部に向かって音楽を出力すると、周囲の他の人に不快感を与えてしまう可能性がある。そのような場合は、周波数帯域や音量レベルを適切に調整した専用の測定音を用いることで、不快感を低減することができる。
 (2-3-3.無相関雑音を測定信号に用いて相関関数を取得する構成)
 図10を参照して、図2に示す聴取環境特性情報取得部231において、無相関雑音を測定信号に用いて相関関数を取得するための一構成例について説明する。図10は、聴取環境特性情報取得部231において、無相関雑音を測定信号に用いて相関関数を取得するための一構成例を示すブロック図である。
 図10を参照すると、聴取環境特性情報取得部231cは、その機能として、自己相関関数計算部281を有する。なお、図10では、聴取環境特性情報取得部231cの機能構成を図示するとともに、図6に示す音響調整システム20の構成の中で、聴取環境特性情報取得部231の各機能と関連する構成を抜き出し、併せて図示している。
 図10に示す構成例では、マイクロフォン210によって、無相関なノイズ(無相関雑音)を含む外部音声が収音される。そして、収音された無相関雑音について自己相関関数が計算される。収音された無相関雑音には、残響成分等、聴取環境の音響特性が反映された成分が含まれているため、当該自己相関関数は聴取環境の音響特性が反映されたものであると言える。
 具体的には、図10に示すように、無相関雑音を含む外部音声が、マイクロフォン210によって収音される。マイクロフォン210によって収音された音楽信号(すなわち収音信号)は、アンプ211及びADC212を介して自己相関関数計算部281に入力される。自己相関関数計算部281は、測定開始のトリガによって、所定の時間分、収音信号をバッファし、自己相関関数を算出する。
 ここで、周囲の喧騒等の雑音が十分に無相関な雑音であるとすると、雑音自体の自己相関関数Rx(τ)は、時刻0で1となり、それ以外の時刻で0となる。一方、無相関雑音の騒音源をx(t)、収音信号をy(t)とすると、x(t)とy(t)との相互関数は、入力信号である雑音の自己相関関数Rx(τ)と、空間のインパルス応答との畳み込みで表される。ここで、上述したように、入力信号が無相関雑音であるとすると、Rx(τ)はデルタ関数となり、y(t)の自己相関関数としてインパルス応答の自己相関関数を得ることができる。
 自己相関関数計算部281は、上記の自己相関関数の計算を繰り返し複数回実行する。そして、その計算結果に基づいて、最終的に採用する自己相関関数を決定する。例えば、自己相関関数計算部281は、計算された複数の自己相関関数の中からS/N比が良好であるものを自己相関関数として採用することができる。また、例えば、自己相関関数計算部281は、計算された複数の自己相関関数の平均値を自己相関関数として採用することができる。また、例えば、自己相関関数計算部281は、計算された複数の自己相関関数の共通成分を抽出し、収音信号にピッチ成分が含まれていた場合にはその収音信号に基づいて計算された自己相関関数を除外して、残りの自己相関関数に基づいて最終的に採用する自己相関関数を決定することができる。
 自己相関関数計算部281は、最終的に採用することが決定された自己相関関数を、音楽信号処理部232に提供する。音楽信号処理部232では、自己相関関数から、例えば聴取環境の残響特性が推定され、推定された残響特性を用いて音楽信号に対して各種のフィルタ処理が行われる。なお、自己相関関数計算部281が収音信号のバッファ及び自己相関関数の計算を開始するトリガは、聴取環境特性情報取得条件が検出されたことであってよい。
 以上、無相関雑音を測定信号に用いて相関関数を取得するための一構成例について説明した。以上説明したように、本構成例では、無相関雑音を測定信号に用いて、聴取環境の音響特性を表す相関関数を測定することができる。従って、音楽信号等の測定用の信号を出力する必要がなく、より簡便に聴取環境特性情報を取得することができる。なお、無相関雑音を測定信号に用いた場合には、自己相関関数のみでなく、周波数領域でのクロススペクトル法等を用いて聴取環境の音響特性を取得することも可能である。
 ここで、以上説明した無相関雑音に基づいて相関関数を取得する方法は、外部音声を収音可能なマイクロフォンを有していれば実行可能であり、自身が外部に向かって測定信号を出力する必要はない。従って、図1に示す第1の実施形態に係るヘッドホン100のように、外部に向かって音声を出力するスピーカを有していない構成であっても、マイクロフォン110aのように外部音声を収音可能な構成を有していれば、上述した無相関雑音に基づいて相関関数を取得する方法を実行することができる。
 (2-4.音楽信号処理部について)
 図11-図13を参照して、図6に示す音楽信号処理部232の機能について説明する。図11は、聴取環境特性情報取得部231によって取得され得る相関関数の一例を示す概略図である。図12は、音楽信号処理部232の機能構成の一例を示すブロック図である。図13は、音楽信号処理部232に含まれる残響成分付与部293の一構成例を示すブロック図である。
 なお、ここでは、第2の実施形態に係る音楽信号処理部232の機能の一例として、音楽信号処理部232が、上記(2-3-2.音楽信号を測定信号に用いて相関関数を取得する構成)又は上記(2-3-3.無相関雑音を測定信号に用いて相関関数を取得する構成)で説明した方法により取得された相関関数に基づいて、残響時間、初期反射時間、残響音の割合及び周波数特性等を推定してパラメータ化し、音楽信号に反映する場合について説明する。ただし、第2の実施形態はかかる例に限定されず、音楽信号処理部232は他の機能を有するように構成されてもよい。例えば、音楽信号処理部232は、上記(2-3-1.音楽信号を測定信号に用いて伝達関数を取得する構成)で説明した方法により取得された伝達関数Hに基づいて、上述した各特性を推定してパラメータ化し、音楽信号に反映してもよい。また、例えば、音楽信号処理部232は、上記(1-4.音楽信号処理部について)で説明した第1の実施形態に係る音楽信号処理部132と同様に、FIRフィルタによって構成されてもよく、上記(2-3-1.音楽信号を測定信号に用いて伝達関数を取得する構成)で説明した方法により取得された伝達関数Hに基づいて、FIRフィルタを用いて音楽信号をフィルタリングしてもよい。また、第1の実施形態に係る音楽信号処理部132が、下記図12に示す構成を有してもよい。その場合、音楽信号処理部132は、第1の実施形態において説明した方法により取得された伝達関数Hに基づいて、上述した各特性を推定してパラメータ化し、下記図12に示す構成を用いて音楽信号に各特性を反映してもよい
 上記(2-3-2.音楽信号を測定信号に用いて相関関数を取得する構成)で説明したように、取得された相関関数からは、残響時間、初期反射時間等の、聴取環境の残響特性を推定することが出来る。図9に示す相関関数を更に長時間測定した場合の一例を図11に示す。図11に示すように、聴取環境特性情報取得部231によって測定された相関関数からは、直接音に対応する成分、初期反射音に対応する成分、残響音に対応する成分が、それぞれ観察され得る。音楽信号処理部232では、このような相関関数の特性から、残響時間、初期反射時間、残響音(後部残響音)の割合及び周波数特性等の各種の音響特性が推定され、パラメータ化される。
 図12に、第2の実施形態に係る音楽信号処理部232の機能構成の一例を示す。図12を参照すると、音楽信号処理部232は、その機能として、パラメータ生成部291と、EQ部292と、残響成分付与部293と、を有する。なお、図12では、音楽信号処理部232の機能構成を図示するとともに、図6に示す音響調整システム20の構成の中で、音楽信号処理部232の各機能と関連する構成を抜き出し、併せて図示している。
 パラメータ生成部291は、聴取環境特性情報取得部231によって測定された相関関数に基づいて、残響時間、初期反射時間、後部残響音の割合及び周波数特性等の各種の音響特性を表すパラメータを生成する。EQ部292は、例えばイコライザによって構成され、パラメータ生成部291によって相関関数から生成された周波数特性に係るパラメータに基づいて、音楽信号の周波数特性を調整する。残響成分付与部293は、例えば図13に示すIIR(Infinite Impulse Response)フィルタによって構成され、パラメータ生成部291によって相関関数から生成された残響時間、初期反射時間及び後部残響音の割合に係るパラメータに基づいて、音楽信号に聴取環境の残響特性を付与する。
 図13に、残響成分付与部293を構成し得るIIRフィルタの一構成例を示す。例えば、図13に示すDelay lineの長さ及びアンプの係数ER(ER1~ERn)には、相関関数から生成された初期反射時間に係るパラメータが反映され得る。また、例えば、図13に示すコムフィルタ(Comb filter1~Comb filter4)における係数g(g1~g4)及び係数τ(τ1~τ4)には、相関関数から生成された残響時間に係るパラメータが反映され得る。また、例えば、図13に示すDRY gain、ER gain、Reverb gain及びWET gain等には、相関関数から生成された後部残響音の割合に係るパラメータが反映され得る。このように各種のパラメータが反映されたIIRフィルタを音楽信号に作用させることにより、残響等の聴取環境の音響特性が、疑似的に音楽信号に付与されることとなる。
 なお、第2の実施形態においても、第1の実施形態と同様に、新たに得られたEQ部292及びIIRフィルタに適用されるパラメータが、現在の設定値と大きく異ならない場合には、EQ部292及びIIRフィルタにおけるこれらのパラメータは更新されなくてもよい。例えば、パラメータ生成部291は、EQ部292及びIIRフィルタに設定されている現在のパラメータと、今回の測定によって得られた新たなパラメータとの差分が所定のしきい値よりも大きい場合に、これらのパラメータを更新してもよい。このように、新たに得られたパラメータが現在の設定値と大きく異ならない場合には、当該パラメータを更新しないようにすることにより、EQ部292及びIIRフィルタの特性が頻繁に変更される事態が防止され、ユーザに対してより安定的に音楽を提供することが可能となる。
 以下、パラメータ生成部291によって相関関数から生成される各パラメータについて詳しく説明する。
 (初期反射時間に係るパラメータ)
 初期反射時間は、相関関数の最初のピーク(直接音)と、その後の相関関数のピークとの間の時間T1(例えば、図9に示すt-t)として定められ得る。例えば、聴取環境が音楽ホールのような比較的広い室内空間である場合には、初期反射時間はより長くなると考えられる。パラメータ生成部291は、相関関数から当該初期反射時間T1を求め、残響成分付与部293に提供する。残響成分付与部293では、T1に応じて、図13に示すDelay lineの長さや係数ERが変更される。これにより、音楽信号に対して聴取環境の初期反射時間の特性を反映することができる。係数ERとして、相関関数やインパルス応答から求められる値を直接用いてもよいが、係数ERとして適用され得る値を予め数種類用意しておき、その中から、相関関数から得られた特性により近いものを選択して用いることも可能である。
 (残響時間に係るパラメータ)
 残響時間Trは、得られた相関関数をシュレーダー積分し、エネルギーの減衰カーブを求めることによって推定され得る。シュレーダー積分の一例を下記数式(6)に示す。ここで、<S(t)>は残響波形の集合平均であり、h(t)は、聴取環境特性情報取得部231によって取得された相関関数やインパルス応答である。
Figure JPOXMLDOC01-appb-M000006
 パラメータ生成部291は、上記数式(6)に示す計算を行うことにより、残響成分のエネルギーの減衰カーブを求めることができる。パラメータ生成部291によって算出される残響成分のエネルギーの減衰カーブの一例を、図14に示す。図14は、残響成分のエネルギーの減衰カーブの一例を示す図である。
 ここで、一般的に、残響時間Trは、測定環境における音のエネルギーが-60(dB)になる時間として定義される。図14に示す例では、1(sec)でエネルギーが-30(dB)低下している(すなわち、エネルギーの減衰カーブが-30(dB/sec)の傾きを有している)ため、推定される残響時間Trは2(sec)となる。例えば、聴取環境が音楽ホールのような比較的広い室内空間である場合には、残響時間はより長くなると考えられる。
 後段の残響成分付与部293では、パラメータ生成部291によって求められた残響時間Trに応じて、フィルタ内の遅延やゲインが変更される。例えば、図13に示すIIRフィルタであれば、残響時間Trを用いてコムフィルタにおける係数g及び係数τを変更することができる。パラメータ生成部291は、相関関数から求めた残響時間Trに基づいて、コムフィルタにおける係数g及び係数τを算出することができる。ここで、係数g及び係数τと、残響時間Trとは下記数式(7)に示す関係にある。
Figure JPOXMLDOC01-appb-M000007
 上記の例では、残響時間Tr=2(sec)なので、パラメータ生成部291は、上記数式(7)の左辺が2になるような係数gと係数τの組み合わせを、各コムフィルタに適用する係数として算出すればよい。ここでは、一例として、係数τを固定して係数gのみを変化させる場合について説明する。上記数式(7)から、各コムフィルタの係数gは、下記数式(8)を満たす値となる。
Figure JPOXMLDOC01-appb-M000008
 パラメータ生成部291は、上記数式(8)に、Tr=2(sec)を代入し、各コムフィルタにおいて固定値として設定される係数τの値を代入することにより、係数gを算出することができる。パラメータ生成部291は、このようにして求めた係数gと、固定値として設定される係数τを、残響成分付与部293に提供する。残響成分付与部293において、図13に示すコムフィルタにおける係数g及び係数τに、パラメータ生成部291によって算出された値が適用されることにより、音楽信号に対して聴取環境の残響時間の特性を反映することができる。
 (後部残響音の割合に係るパラメータ)
 後部残響音の割合の指標としては、例えばD値が挙げられる。D値は、音全体のエネルギーに対する初期(50ms以内)のエネルギーの割合を示す値であり、下記数式(9)によって表される。ここで、h(t)は、聴取環境特性情報取得部231によって取得された相関関数やインパルス応答である。
Figure JPOXMLDOC01-appb-M000009
 測定結果から得られた、D値のような残響の初期のエネルギーと全体のエネルギーとの比を表す値と、IIRフィルタによって付与される残響の初期成分と後部残響成分とが対応するように、図13に示すDRY gain、ER gain、Reverb gain及びWET gain等の特性を適宜調整することにより、聴取環境の後部残響音の割合を音楽信号に反映することが出来る。パラメータ生成部291は、上記数式(9)からD値を算出し、当該D値に基づいて、上記の条件を満たすようなDRY gain、ER gain、Reverb gain及びWET gain等の特性に係るパラメータを算出することができる。パラメータ生成部291は、このようにして求めたパラメータを、残響成分付与部293に提供する。残響成分付与部293において、図13に示すDRY gain、ER gain、Reverb gain及びWETgain等に、パラメータ生成部291によって算出されたパラメータが適用されることにより、音楽信号に対して聴取環境の後部残響音の割合の特性を反映することができる。
 (周波数特性に係るパラメータ)
 パラメータ生成部291は、聴取環境特性情報取得部231によって取得された相関関数から、聴取環境の周波数特性を推定し、当該周波数特性を反映し得るようなパラメータを生成し、EQ部292に提供することができる。EQ部292によって、音楽信号に対して聴取環境の周波数特性が反映されることとなる。例えば、推定された聴取環境の周波数特性に高域の減衰が見られる場合には、EQ部292において、音楽信号の高域を減衰させる処理が実行され得る。
 ここで、一般的に、空間に放射された音楽の周波数特性は、当該空間の伝達関数によって変化する。従って、例えば上記(2-3-1.音楽信号を測定信号に用いて伝達関数を取得する構成)で説明した方法により取得された伝達関数Hから、聴取環境の周波数特性を取得し、当該周波数特性を図13に示すIIRフィルタを用いて音楽信号に反映することも可能である。この場合、例えば、パラメータ生成部291は、伝達関数Hをフーリエ変換することにより、その周波数振幅特性をIIRフィルタに反映するためのパラメータを得ることができる。IIRフィルタに対して、パラメータ生成部291によって取得されたパラメータが適宜設定されることにより、音楽信号に対してより聴取環境の特性が模擬された周波数特性を付与することが可能となる。また、第1の実施形態と同様に、上記(2-3-1.音楽信号を測定信号に用いて伝達関数を取得する構成)で説明した方法により取得された伝達関数Hを、図4に示すFIRフィルタを用いて音楽信号に畳み込むことにより、音楽信号に周波数特性を付与することも可能である
 以上、第2の実施形態に係る音楽信号処理部232の機能について説明した。なお、上述したEQ部292及び/又はIIRフィルタに適用されるパラメータとしては、伝達関数及び/又は相関関数から算出される値をそのまま用いるのではなく、予め用意されているいくつかの値の中から当該算出された値により近いものが選択されてもよい。例えば、小さい部屋、音楽ホール等、聴取環境を予め想定され得るいくつかのカテゴリに分類し、当該カテゴリごとにそのカテゴリに応じたパラメータを用意しておくことができる。当該パラメータや、カテゴリとパラメータとの関係は、例えば音響調整システム20に設けられる記憶部(図6には図示せず。)にテーブルとして記憶させておく。パラメータ生成部291は、聴取環境特性情報取得部231によって取得された伝達関数及び/又は相関関数の特性から、その聴取環境に対応するカテゴリを決定する。そして、パラメータ生成部291は、上記記憶部に格納されているカテゴリとパラメータとの関係を示すテーブルを参照することにより、当該聴取環境に応じたパラメータを選択することができる。
 以上、第2の実施形態について説明した。以上説明したように、第2の実施形態によれば、所定の測定用音声に基づいて聴取空間の伝達関数及び/又は相関関数が取得され、当該伝達関数及び/又は相関関数に基づいて音楽信号に聴取空間の音響特性が付与される。従って、より外部の音声になじんだ、より開放感のある音楽がユーザに対して提供され得る。また、測定用音声としては、音楽信号や喧騒音等、多様な音声が用いられ得る。従って、例えば外部に向かって音楽を出力することが困難である環境では、喧騒音や非可聴帯域の測定用音声を用いる等、聴取環境に応じた適切な測定用音声により聴取環境特性情報を取得することができ、様々な聴取環境において測定を行うことが可能となる。
 (3.情報処理方法)
 次に、図15を参照して、以上説明した第1及び第2の実施形態に係る情報処理方法について説明する。図15は、第1及び第2の実施形態に係る情報処理方法の処理手順の一例を示すフロー図である。なお、ここでは、第1及び第2の実施形態に係る情報処理方法の一例として、上記(2-3-1.音楽信号を測定信号に用いて伝達関数を取得する構成)で説明した聴取環境特性情報取得部231aを有する第2の実施形態に係る音響調整システム20において実行され得る、音楽信号を測定信号として用いて、聴取環境特性情報として伝達関数Hが取得される場合における情報処理方法について説明する。ただし、第1及び第2の実施形態に係る情報処理方法はかかる例に限定されず、上記で第1及び第2の実施形態として説明したように、測定信号としてはユーザの発話音声や無相関雑音が用いられてもよいし、聴取環境特性情報としては相関関数が取得されてもよい。
 図15を参照すると、第2の実施形態に係る情報処理方法では、まず、聴取環境に向かって音楽信号が出力される(ステップS101)。ステップS101に示す処理は、例えば、図6に示す制御部230からの制御により、スピーカ220aが駆動されることにより実行され得る。なお、上記(1.第1の実施形態)や、上記(2-3-3.無相関雑音を測定信号に用いて相関関数を取得する構成)で説明したように、測定信号として音楽信号が用いられない場合には、ステップS101に示す処理は省略されてもよい。
 次に、聴取環境特性情報取得条件が検出されたかどうかが判断される(ステップS103)。ステップS103及び後述するステップS105に示す処理は、例えば、図6に示す聴取環境特性情報取得部231によって実行され得る。第1の実施形態であれば、ステップS103、S105に示す処理は、例えば、図2に示す聴取環境特性情報取得部131によって実行され得る。聴取環境特性情報取得条件としては、例えば、制御部230に対する電源投入、規定のタイマーカウント等が検出され得る。また、制御部230を構成するプロセッサがヘッドホン200とは別の携帯端末に搭載される場合には、聴取環境特性情報取得条件は、例えば当該携帯端末に搭載されるセンサによりユーザの移動が検出された場合や、当該携帯端末に対する操作入力が検出された場合を含んでもよい。また、第1の実施形態では、ユーザの発話音声に基づいて聴取環境特性情報が取得されるため、聴取環境特性情報取得条件としては、ユーザの発話が検出されてもよい。
 ステップS103で聴取環境特性情報取得条件が検出されないと判断された場合には、以降の処理には進まずに、聴取環境特性情報取得条件が検出されるまで待機する。一方、ステップS103で聴取環境特性情報取得条件が検出されたと判断された場合には、ステップS105に進む。
 ステップS105では、聴取環境特性情報が取得される。ステップS105に示す処理では、例えば、ステップS101で出力された音楽信号に応じたマイクロフォン210での収音信号に基づいて、上記(2-3-1.音楽信号を測定信号に用いて伝達関数を取得する構成)で説明した手法により、聴取環境の伝達関数Hが計算される。第1の実施形態であれば、ステップS105に示す処理では、ユーザの発話音声に応じたマイクロフォン110での収音信号に基づいて、聴取環境の伝達関数Hが計算される。なお、上記(2-3-2.音楽信号を測定信号に用いて相関関数を取得する構成)及び(2-3-3.無相関雑音を測定信号に用いて相関関数を取得する構成)で説明したように、聴取環境特性情報としては相関関数が取得されてもよい。
 次に、取得された聴取環境特性情報に基づいて、音楽信号を補正するためのパラメータが計算される(ステップS107)。ステップS107及び後述するステップS109、S111に示す処理は、例えば、図6に示す音楽信号処理部232によって実行され得る。ステップS107に示す処理では、例えば、上記(2-4.音楽信号処理部について)で説明したような、図12に示すEQ部292及び残響成分付与部293(すなわち、IIRフィルタ)の特性を決定するパラメータが計算される。なお、第1の実施形態であれば、ステップS107、S109、S111に示す処理は、例えば、図2に示す音楽信号処理部132によって実行され得る。第1の実施形態では、ステップS107に示す処理では、例えば、上記(1-4.音楽信号処理部について)で説明したような、図4に示すFIRフィルタの特性を決定するパラメータが計算される。
 次に、計算されたパラメータが現在の設定値と十分に異なるかが判断される(ステップS109)。ステップS109に示す処理では、例えば、上述したEQ部292及び/又はIIRフィルタに設定されている現在のパラメータと、今回の測定によって得られた新たなパラメータとの差分が所定のしきい値と比較される。第1の実施形態であれば、FIRフィルタに対して同様の処理が行われる。
 ステップS109で計算されたパラメータが現在の設定値と大きくは異ならないと判断された場合には、以降の処理には進まずに、ステップS103に戻る。EQ部292やIIRフィルタ、FIRフィルタの特性が頻繁に変更されると、音楽信号がふらついてしまい、かえってユーザの聴取感を損なう可能性があるからである。一方、ステップS109で計算されたパラメータが現在の設定値と十分異なると判断された場合には、ステップS111に進む。
 ステップS111では、ステップS107で計算されたパラメータを用いて、EQ部292及び/又はIIRフィルタのパラメータが更新される。これにより、EQ部292及び/又はIIRフィルタによって音楽信号に対して聴取環境の音響特性が反映されることとなる。第1の実施形態であれば、ステップS107で計算されたパラメータを用いてFIRフィルタのパラメータが更新され、当該FIRフィルタによって音楽信号に対して聴取環境の音響特性が反映されることとなる。
 以上、図15を参照して、第1及び第2の実施形態に係る情報処理方法について説明した。
 (4.変形例)
 次に、以上説明した第1及び第2の実施形態についてのいくつかの変形例について説明する。なお、以下では、一例として、上述した第1の実施形態についての変形例について説明するが、以下に説明する変形例に係る構成は、上述した第2の実施形態に対しても同様に適用可能である。
 (4-1.音圧が調整される変形例)
 以上説明した第1及び第2の実施形態では、聴取環境の音響特性として、音楽信号に対して聴取環境の残響特性や周波数特性等が付与されていた。ただし、第1及び第2の実施形態はかかる例に限定されず、音楽信号に対して聴取環境の他の音響特性が付与されてもよい。ここでは、一例として、聴取環境に応じて音楽信号の音圧が調整される変形例について説明する。
 図16及び図17を参照して、本変形例に係る音響調整システムの構成について説明する。図16は、音圧が調整される変形例変形例に係る音響調整システムの一構成例を示すブロック図である。また、図17は、音圧が調整される変形例に係る音楽信号処理部の機能構成の一例を示すブロック図である。なお、図16に示す音響調整システムは、図2に示す第1の実施形態に係る音響調整システム10に対して、音楽信号処理部132の機能が変更されたものに対応し、その他の構成の機能は音響調整システム10と同様である。従って、以下の本変形例に係る音響調整システムについての説明では、第1の実施形態に係る音響調整システム10との相違点について主に説明することとし、重複する事項についてはその詳細な説明を省略する。
 図16を参照すると、本変形例に係る音響調整システム30は、マイクロフォン110と、スピーカ120と、制御部330と、を備える。ここで、マイクロフォン110及びスピーカ120の機能は、図1に示すこれらの構成の各機能と同様であるため、その詳細な説明を省略する。
 制御部330は、例えばCPUやDSP等の各種のプロセッサによって構成され、音響調整システム30において行われる各種の信号処理を実行する。制御部330は、その機能として、聴取環境特性情報取得部131と、音楽信号処理部332と、モニタ信号生成部133と、ノイズキャンセル信号生成部134と、を有する。制御部330の各機能は、制御部330を構成するプロセッサが、所定のプログラムに従って動作することによって実現され得る。ここで、聴取環境特性情報取得部131、モニタ信号生成部133及びノイズキャンセル信号生成部134の機能は、図1に示すこれらの構成の各機能と同様であるため、その詳細な説明を省略する。
 第1の実施形態との相違点として、本変形例では、図16に示すように、音楽信号とともにマイクロフォン110による収音信号が音楽信号処理部332に入力される。また、音楽信号処理部332によって計算された音楽信号に係る音声の音圧と外部音声の音圧との音圧比によって、音楽信号に対して設けられる可変アンプ150a及びモニタ信号に対して設けられる可変アンプ150bのゲインが調整される。
 図17に、音楽信号処理部332の機能構成の一例を示す。図17を参照すると、音楽信号処理部332は、その機能として、FIRフィルタ351と、音圧比計算部352と、を有する。なお、図17では、音楽信号処理部332の機能構成を図示するとともに、図16に示す音響調整システム30の構成の中で、音楽信号処理部332の各機能と関連する構成を抜き出し、併せて図示している。
 FIRフィルタ351は、図4に示す第1の実施形態に係るFIRフィルタ(すなわち、図2に示す音楽信号処理部132)に対応するものである。FIRフィルタ351の機能は、第1の実施形態に係るFIRフィルタ(音楽信号処理部132)の機能と同様であるため、その詳細な説明を省略する。このように、本変形例に係る音楽信号処理部332は、第1の実施形態に係る音楽信号処理部132の機能と、音圧比計算部352の機能とを併せ持つものであると言える。
 音圧比計算部352は、音楽信号の音圧と、収音信号の音圧(すなわち、外部音声の音圧)を解析し、音楽信号に係る音声の音圧と外部音声(すなわちモニタ音)の音圧との音圧比が適切な値になるような、音楽信号の音圧及び外部信号に係る信号(すなわちモニタ信号)の音圧を計算する。例えば、外部音声が過剰に大きい場合には、外部音声の音圧を相対的に減少させるように、両者の音圧が計算される。この場合、音楽信号の音圧が増加されてもよいし、モニタ信号の音圧が減少されてもよい。これにより、音楽が外部音声に埋もれてしまう事態が防止される。また、例えば、音楽信号に係る音声が過剰に大きい場合には、音楽信号に係る音声の音圧を相対的に減少させるように、音圧比が計算される。この場合、音楽信号の音圧が減少されてもよいし、モニタ信号の音圧が増加されてもよい。これにより、音楽がヘッドホン100の外部に漏れてしまう事態が防止される。なお、当該音圧比の値としては、音響調整システム40の設計者等によって予め適切な値が設定されていてもよいし、状況に応じてユーザによって値が適宜設定されてもよい。
 音圧比計算部352によって計算されたパラメータは、音楽信号に対して設けられる可変アンプ150a及びモニタ信号に対して設けられる可変アンプ150bのゲインに反映される。これにより、音楽信号と、外部音声に対応するモニタ信号との音圧比が適切に制御される。
 以上、図16及び図17を参照して、本変形例に係る音響調整システムの構成について説明した。以上説明したように、本変形例によれば、聴取環境における外部音声に応じて、音楽信号に係る音声と当該外部音声との音圧比が、適切な値になるように自動的に調整される。従って、ユーザによってより快適な音量バランスで音楽及び外部音声が提供されることとなり、ユーザの利便性を向上させることができる。
 なお、上記の説明では、外部音声の音圧が、音楽信号処理部332の音圧比計算部352によって計算されていたが、本変形例はかかる例に限定されない。外部音声の音圧は、聴取環境特性情報の一部として、聴取環境特性情報取得部131によって収音信号が解析されることにより算出されてもよい。
 (4-2.DBに記憶された聴取環境特性情報を用いる変形例)
 以上説明した第1及び第2の実施形態では、聴取環境特性情報取得条件が検出される度に、マイクロフォン110、210によって収音された外部音声に基づいて、聴取環境特性情報が取得されていた。ただし、第1及び第2の実施形態はかかる例に限定されず、例えば場所ごと(すなわち聴取環境ごと)の聴取環境特性情報が、当該場所の位置情報と対応付けてデータベース(DB)化されていてもよく、聴取環境特性情報取得部は、当該DBからユーザの現在位置に対応する場所の聴取環境特性情報を取得してもよい。
 図18を参照して、DBに記憶された聴取環境特性情報を用いる変形例に係る音響調整システムの構成について説明する。図18は、本変形例に係る音響調整システムの一構成例を示すブロック図である。なお、図18に示す音響調整システムは、図1に示す第1の実施形態に係る音響調整システム10に対して、後述する通信部170と、携帯端末50と、聴取環境特性情報DB60と、が追加されたものに対応し、その他の構成の機能は音響調整システム10と同様である。従って、以下の本変形例に係る音響調整システムについての説明では、第1の実施形態に係る音響調整システム10との相違点について主に説明することとし、重複する事項についてはその詳細な説明を省略する。
 図18を参照すると、本変形例に係る音響調整システム40は、マイクロフォン110と、スピーカ120と、制御部130と、通信部170と、携帯端末50と、聴取環境特性情報DB60と、を備える。ここで、マイクロフォン110、スピーカ120及び制御部130の機能は、図1に示すこれらの構成の各機能と同様であるため、その詳細な説明を省略する。
 通信部170は、外部機器との間で各種の情報を送受信可能な通信装置によって構成される。本変形例では、例えば図1に示すヘッドホン100に、通信部170として機能し得る通信装置が搭載される。通信部170は、携帯端末50との間で各種の情報を送受信することができる。通信部170と携帯端末50との間の通信は、例えばBluetooth(登録商標)等の通信方式による無線通信であってもよいし、有線による通信であってもよい。例えば、通信部170は、制御部130の聴取環境特性情報取得部131によって収音信号に基づいて取得された聴取環境特性情報を、携帯端末50に対して送信する。また、例えば、通信部170は、携帯端末50から、ユーザの現在位置に対応する場所の聴取環境特性情報を受信し、聴取環境特性情報取得部131に対して提供することができる。
 携帯端末50は、例えばスマートフォン、タブレットPC(Personal Computer)等の、ユーザによって携帯される情報処理装置である。携帯端末50は、その機能として、通信部510と、位置検出部520と、を有する。なお、簡単のため図示は省略するが、携帯端末50は、一般的なスマートフォンやブレットPC等の携帯端末が有する各種の機能を更に有してもよい。例えば、携帯端末50は、各種の信号処理を行い携帯端末50の動作を制御する制御部や、携帯端末50において処理される各種の情報を記憶する記憶部等の構成を備えることができる。上述した通信部510及び位置検出部520は、当該制御部を構成するプロセッサが、所定のプログラムに従って動作することによってその駆動が制御され得る。なお、上記(1-2.システムの構成)で説明したように、制御部130が携帯端末50の一機能として実現されてもよい。
 通信部510は、外部機器との間で各種の情報を送受信可能な通信装置によって構成される。通信部510は、通信部170との間で各種の情報を送受信することができる。本変形例では、通信部510は、通信部170から送信される、制御部130の聴取環境特性情報取得部131によって収音信号に基づいて取得された聴取環境特性情報を受信する。通信部510は、受信した聴取環境特性情報を、位置検出部520によって検出される位置情報(これは、携帯端末50の現在の位置情報、すなわち、ユーザの現在の位置情報に対応する。)と対応付けて、聴取環境特性情報DB60に送信する。また、通信部510は、聴取環境特性情報DB60に格納されている聴取環境特性情報の中から、ユーザの現在位置に対応する場所の聴取環境特性情報を受信し、通信部170に対して送信する。
 位置検出部520は、例えばGPSセンサ等の位置検出用のセンサによって構成され、携帯端末50の現在の位置、すなわち、ユーザの現在の位置を検出する。位置検出部520は、検出したユーザの現在の位置情報を、通信部510に対して提供する。これにより、上述したように、通信部510は、制御部130の聴取環境特性情報取得部131によって収音信号に基づいて取得された聴取環境特性情報を、ユーザの現在の位置情報と対応付けて、聴取環境特性情報DB60に送信することができる。
 聴取環境特性情報DB60は、例えばHDD(Hard Disk Drive)等の磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等の、各種の情報を記憶可能な記憶装置によって構成される。聴取環境特性情報DB60は、場所(すなわち聴取環境)の位置情報と、当該聴取環境での聴取環境特性情報と、を対応付けて管理する。聴取環境特性情報DB60は、例えばネットワーク上(いわゆるクラウド上)に設置されてよく、携帯端末50は各種の通信方式に従って構築された通信ネットワークを介して、聴取環境特性情報DB60と通信を行うことができる。なお、上記(1-2.システムの構成)で説明したように、聴取環境特性情報DB60とともに、制御部130もクラウド上に設けられるサーバ等の情報処理装置の一機能として実現されてもよい。
 本変形例では、聴取環境特性情報DB60には、例えば複数のユーザによって取得された、あらゆる場所での聴取環境特性情報が随時集積され、記憶される。そして、あるユーザがある場所で音楽を聴こうとした場合には、位置検出部520によってユーザの現在位置が検出され、当該現在位置の位置情報が聴取環境特性情報DB60に送信される。聴取環境特性情報DB60では、当該位置紹鴎に基づいて、ユーザの現在位置に対応する場所の聴取環境特性情報が聴取環境特性情報DB60に記憶されているかどうかが探索される。ユーザの現在位置に対応する場所の聴取環境特性情報が聴取環境特性情報DB60に記憶されている場合には、当該聴取環境特性情報が、聴取環境特性情報DB60から、通信部170、510を介して、制御部130の聴取環境特性情報取得部131に送信される。音楽信号処理部132は、聴取環境特性情報取得部131から提供される当該聴取環境特性情報を用いて音楽信号をフィルタリングすることにより、ユーザが現在位置する聴取環境の音響特性を音楽信号に対して付与することができる。このように、本変形例では、外部音声を収音し収音された外部音声に基づいて聴取環境特性情報を取得する一連の処理を行わなくても、聴取環境特性情報をいわば過去の履歴から取得することができる。従って、伝達関数や相関関数等を算出する処理を省くことができ、制御部130の構成をより簡略化することができる。
 以上、図18を参照して、本変形例に係る音響調整システムの構成について説明した。以上説明したように、本変形例によれば、聴取環境特性情報DB60を参照することにより、外部音声を収音し収音された外部音声に基づいて聴取環境特性情報を取得する一連の処理を行わなくても、聴取環境特性情報を取得することができる。従って、制御部130によって行われる処理をより簡略化することができる。
 なお、聴取環境特性情報DB60には、図12に示すEQ部292及び残響成分付与部293(すなわち、IIRフィルタ)の特性を決定するパラメータや、図4に示すFIRフィルタの特性を決定するパラメータ等の、音楽信号を補正するためのパラメータが、伝達関数や相関関数とともに、聴取環境の位置情報についての情報と対応付けて格納されてもよい。これにより、音楽信号処理部132では、音楽信号を補正するためのパラメータを計算することなく、聴取環境特性情報DB60に記憶されているパラメータを用いて、音楽信号を補正することが可能となる。従って、これらのパラメータを算出する処理を省くことができ、制御部130の構成を更に簡略化することができる。
 また、複数のユーザによって同一の場所における聴取環境特性情報が複数取得された場合には、聴取環境特性情報DB60では、それらの聴取環境特性情報の統計値(例えば平均値等)が、当該場所の聴取環境特性情報として記憶されてよい。これにより、聴取環境特性情報DB60に記憶される聴取環境特性情報の精度をより向上させることができる。
 また、聴取環境特性情報DB60に、ユーザの現在位置に対応する場所の聴取環境特性情報が格納されている場合であっても、聴取環境特性情報取得部131において外部音声に基づく新たに聴取環境特性情報が取得されてもよい。そして、聴取環境特性情報DB60に記憶されている聴取環境特性情報と、新たに取得された聴取環境特性情報とが比較され、その値が大きく異なる場合には、聴取環境特性情報DB60内の情報が更新されるとともに、新たに取得された聴取環境特性情報に基づく音楽信号のフィルタリングが行われてもよい。同一の場所であっても、周囲の環境が変化することにより聴取環境特性情報も変化し得るため、最新の聴取環境特性情報の方がより信頼性が高いと考えられるからである。
 (4-3.一対の筐体のそれぞれにより聴取環境特性情報を取得する変形例)
 以上説明した第1及び第2の実施形態では、ヘッドホン100、200を構成する一対の筐体140、240のうち、一方の筐体140、240に設けられるマイクロフォン110、210によって収音された音声に基づいて、聴取環境特性情報が取得されていた。しかしながら、一対の筐体140、240のそれぞれによって、外部音声を収音し、聴取環境特性情報を取得することにより、より高精度に聴取環境特性情報を取得することが可能となる。
 図19及び図20を参照して、このような、一対の筐体のそれぞれにより聴取環境特性情報を取得する変形例について説明する。図19は、本変形例に係るヘッドホンの一構成例を示す概略図である。図20は、本変形例に係る音響調整システムの一構成例を示すブロック図である。なお、ここでは、一例として、第1の実施形態に対して本変形例が適用された場合について説明するが、第2の実施形態に対しても同様に本変形例を適用することが可能である。
 図19を参照すると、本変形例に係るヘッドホン100aは、ユーザの左右の耳にそれぞれ装着される一対の筐体140L、140Rと、筐体140L、140Rを連結するアーチ状の支持部材180と、を備える。ヘッドホン100aは、いわゆるオーバーヘッド型のヘッドホンである。また、筐体140L、140Rの外側及び内側には、それぞれ、一対のマイクロフォン110a、110bが設けられる。本変形例では、左右の筐体140L、140Rのそれぞれに設けられるマイクロフォン110a、110bによってユーザの音声が収音され、その左右それぞれの収音信号に基づいて聴取環境特性情報が取得される。ここで、図19では左右の筐体を区別するために便宜的に異なる符号を付しているが、筐体140L、140Rそれぞれの構成は、図1に示す筐体140と同様である。従って、ここでは、筐体140L、140Rの構成についての詳細な説明を省略する。
 図20を参照して、本変形例に係る音響調整システムの構成について説明する。図20を参照すると、本変形例に係る音響調整システム70は、左チャンネル音響調整部10L(左ch音響調整部10L)と、右チャンネル音響調整部10R(右ch音響調整部10R)と、聴取環境特性情報統合部190と、を備える。ここで、左ch音響調整部10L及び右ch音響調整部10Rの構成は、それぞれ、図2に示す第1の実施形態に係る音響調整システム10と同様である。従って、ここでは、左ch音響調整部10L及び右ch音響調整部10Rの構成について、第1の実施形態において既に説明している事項についてはその詳細な説明を省略する。
 本変形例では、左ch音響調整部10Lの聴取環境特性情報取得部131は、ユーザの左側の耳に装着される筐体140Lのマイクロフォン110a、110bによって収音されたユーザの発話音声に基づいて、聴取環境特性情報を取得する。また、右ch音響調整部10Rの聴取環境特性情報取得部131は、ユーザの右側の耳に装着される筐体140Rのマイクロフォン110a、110bによって収音されたユーザの発話音声に基づいて、聴取環境特性情報を取得する。なお、図20に示すマイクロフォン110は、図19に示すマイクロフォン110a、110bに対応するものであり、これらを併せて概略的に示すものである。以下の説明では、便宜的に、左ch音響調整部10Lの聴取環境特性情報取得部131によって取得される聴取環境特性情報のことを、左ch聴取環境特性情報とも呼称する。また、右ch音響調整部10Rの聴取環境特性情報取得部131によって取得される聴取環境特性情報のことを、右ch聴取環境特性情報とも呼称する。
 本変形例においても、第1の実施形態と同様に、聴取環境特性情報取得部131によって取得された聴取環境特性情報が音楽信号処理部132に直接提供され、音楽信号処理部132によって音楽信号に対して聴取環境特性情報に基づくフィルタ処理が適宜行われてよい。この場合、左右のそれぞれの聴取環境特性情報取得部131によって取得された聴取環境特性情報に基づいて、左右のチャンネルの音楽信号が、それぞれ独立に補正されることになる。しかしながら、本変形例では、聴取環境特性情報取得部131によって取得された聴取環境特性情報が音楽信号処理部132に直接提供されるのではなく、左ch聴取環境特性情報及び右ch聴取環境特性情報を統合して得られる聴取環境特性情報を用いて、左右のチャンネルの音楽信号を補正することができる。
 具体的には、本変形例では、左ch音響調整部10Lの聴取環境特性情報取得部131によって取得された左ch聴取環境特性情報は、直接音楽信号処理部132に提供されず、一旦聴取環境特性情報統合部190に提供され得る。同様に、右ch音響調整部10Rの聴取環境特性情報取得部131によって取得された右ch聴取環境特性情報が、聴取環境特性情報統合部190に提供され得る。
 聴取環境特性情報統合部190は、左ch聴取環境特性情報及び右ch聴取環境特性情報を統合し、最終的に音楽信号の補正に用いられる聴取環境特性情報を計算する。例えば、聴取環境特性情報統合部190は、左ch聴取環境特性情報及び右ch聴取環境特性情報を平均することにより、統合後の聴取環境特性情報を算出することができる。ただし、聴取環境特性情報統合部190が行う統合処理はかかる例に限定されない。当該統合処理は、左ch聴取環境特性情報及び右ch聴取環境特性情報に基づいて新たな聴取環境特性情報を算出するものであればよく、例えば左ch聴取環境特性情報及び右ch聴取環境特性情報にそれぞれ重み係数を乗じて足し合わせる等、他の処理であってもよい。
 聴取環境特性情報統合部190は、算出した聴取環境特性情報を、左ch音響調整部10L及び右ch音響調整部10Rの音楽信号処理部132にそれぞれ提供する。各音楽信号処理部132において、音楽信号に対して当該統合後の聴取環境特性情報に基づくフィルタ処理がそれぞれ行われる。このように、互いに独立に取得された複数の聴取環境特性情報を統合することにより、より高精度な聴取環境特性情報を得ることができる。また、統合後の聴取環境特性情報を用いて音楽信号に対するフィルタ処理が行われることにより、より聴取環境の特性が反映されたフィルタ処理を実行することが可能となる。
 なお、聴取環境特性情報統合部190は、左ch聴取環境特性情報及び右ch聴取環境特性情報に基づいて統合後の聴取環境特性情報を計算する際に、左ch聴取環境特性情報及び右ch聴取環境特性情報が著しく異なる場合には、聴取環境特性情報の計算を行わず、聴取環境特性情報を音楽信号処理部132に提供しなくてもよい、すなわち、音楽信号処理部132においてフィルタ補正を行うためのパラメータを更新しなくてもよい。左ch聴取環境特性情報及び右ch聴取環境特性情報が著しく異なる場合には、少なくともいずれかの値が異常であり、左右いずれか又は双方の聴取環境特性情報取得部131による聴取環境特性情報の取得処理が正常に行われていないことが考えられる。従って、上記のように、左ch聴取環境特性情報及び右ch聴取環境特性情報が著しく異なる場合に音楽信号処理部132におけるパラメータを更新しないことにより、異常な聴取環境特性情報に基づくフィルタ処理が実行されることを防止することができる。このように、聴取環境特性情報統合部190は、左ch聴取環境特性情報及び右ch聴取環境特性情報に基づいて、取得された左ch聴取環境特性情報及び右ch聴取環境特性情報の確からしさを判断してもよい。
 以上、図19及び図20を参照して、一対の筐体のそれぞれにより聴取環境特性情報を取得する変形例について説明した。以上説明したように、本変形例によれば、一対の筐体140L、140Rのそれぞれに設けられるマイクロフォン110によって収音された収音信号に基づいて、左ch聴取環境特性情報及び右ch聴取環境特性情報がそれぞれ取得される。そして、左ch聴取環境特性情報及び右ch聴取環境特性情報が統合されて得られる聴取環境特性情報を用いて、音楽信号に対してフィルタ処理が行われる。従って、より聴取環境の特性が反映されたフィルタ処理を実行することが可能となる。
 なお、聴取環境特性情報統合部190の機能は、CPUやDSP等の各種のプロセッサが所定のプログラムに従って動作することにより実現され得る。聴取環境特性情報統合部190の機能を実現するプロセッサは、左ch音響調整部10L及び右ch音響調整部10Rのいずれかの制御部130を構成するプロセッサと同一のものであってもよいし、制御部130を構成するプロセッサとは別個のプロセッサであってもよい。
 (5.ハードウェア構成)
 次に、図21を参照して、第1及び第2の実施形態に係る情報処理装置のハードウェア構成について説明する。図21は、第1及び第2の実施形態に係る情報処理装置のハードウェア構成の一例を示すブロック図である。図示される情報処理装置900は、例えば、上述した図1、図6、図16及び図20に示す音響調整システム10、20、30、70が一体的な装置として実現される場合における当該装置や、図18に示す携帯端末50等を実現し得る。また、図示される情報処理装置900は、例えば、図1、図6、図16、図18及び図20に示す制御部130、230、330、又は図20に示す聴取環境特性情報統合部190等の機能が搭載される携帯端末やサーバ等の情報処理装置の構成を実現し得る。
 情報処理装置900は、CPU901、ROM(Read Only Memory)903及びRAM(Random Access Memory)905を含む。また、情報処理装置900は、ホストバス907、ブリッジ909、外部バス911、インターフェース913、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート923、通信装置925及びセンサ935を含んでもよい。情報処理装置900は、CPU901に代えて、またはこれとともに、DSP又はASIC(Application Specific Integrated Circuit)と呼ばれるような処理回路を有してもよい。
 CPU901は、演算処理装置及び制御装置として機能し、ROM903、RAM905、ストレージ装置919又はリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理装置900内の動作全般又はその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM905は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一次記憶する。CPU901、ROM903及びRAM905は、CPUバス等の内部バスにより構成されるホストバス907により相互に接続されている。更に、ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。CPU901は、本実施形態では、例えば、図1、図6、図16、図18及び図20に示す制御部130、230、330に対応する。また、CPU901は、図20に示す聴取環境特性情報統合部190を構成し得る。
 入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ及びレバー等、ユーザによって操作される装置である。入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置900の操作に対応した携帯電話などの外部接続機器929であってもよい。入力装置915は、ユーザが入力した情報に基づいて入力信号を生成してCPU901に出力する入力制御回路を含む。また、入力装置915は、マイクロフォン等の音声入力装置であってもよい。ユーザは、この入力装置915を操作することによって、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりする。例えば、図1、図6、図16及び図20に示す音響調整システム10、20、30、70が一体的な装置として実現される場合には、入力装置915は、当該装置におけるマイクロフォン110、210に対応し得る。
 出力装置917は、取得した情報をユーザに対して視覚的又は聴覚的に通知することが可能な装置で構成される。出力装置917は、例えば、LCD、PDP(plasma Display Panel)、有機ELディスプレイ、ランプ、照明等の表示装置、スピーカ及びヘッドホン等の音声出力装置、並びに、プリンタ装置等であり得る。出力装置917は、情報処理装置900の処理により得られた結果を、テキスト又は画像等の映像として出力したり、音声又は音響などの音声として出力したりする。例えば、図1、図6、図16及び図20に示す音響調整システム10、20、30、70が一体的な装置として実現される場合には、当該音声出力装置は、当該装置におけるスピーカ120、220a、220bに対応する。
 ストレージ装置919は、情報処理装置900の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等により構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ及び外部から取得した各種のデータ等を格納する。本実施形態では、例えば、ストレージ装置919は、図1、図6、図16、図18及び図20に示す制御部130、230、330によって処理される各種の情報及び当該制御部130、230、330による各種の処理結果を記憶することができる。例えば、ストレージ装置919は、外部機器(再生機器)から入力される音楽信号や、取得された聴取環境特性情報、算出された音楽信号を補正するためのパラメータ等の情報を記憶することができる。
 ドライブ921は、磁気ディスク、光ディスク、光磁気ディスク又は半導体メモリ等のリムーバブル記録媒体927のためのリーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ921は、装着されているリムーバブル記録媒体927に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されているリムーバブル記録媒体927に記録を書き込む。例えば、図1、図6、図16及び図20に示す音響調整システム10、20、30、70に示す構成及び外部機器(再生機器)が一体的な装置として実現される場合には、ドライブ921は、当該装置における当該再生機器に対応する。ドライブ921は、リムーバブル記録媒体927に記録されている音楽コンテンツを読み出し、再生し、当該音楽コンテンツに対応する音楽信号を、図1、図6、図16、図18及び図20に示す制御部130、230、330に提供することができる。また、例えば、ドライブ921は、当該制御部130、230、330によって処理される各種の情報及び当該制御部130、230、330による各種の処理結果を、リムーバブル記録媒体927から読み出したり、リムーバブル記録媒体927に書き込んだりすることができる。
 接続ポート923は、機器を情報処理装置900に直接接続するためのポートである。接続ポート923は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポート等であり得る。また、接続ポート923は、RS-232Cポート、光オーディオ端子、HDMI(登録商標)(High-Definition Multimedia Interface)ポート等であってもよい。接続ポート923に外部接続機器929を接続することで、情報処理装置900と外部接続機器929との間で各種のデータが交換され得る。例えば、接続ポート923を介して、図1、図6、図16、図18及び図20に示す制御部130、230、330によって処理される各種の情報及び当該制御部130、230、330による各種の処理結果が、外部接続機器929との間で互いに送受信されてよい。
 通信装置925は、例えば、通信ネットワーク931に接続するための通信デバイス等で構成された通信インターフェースである。通信装置925は、例えば、有線又は無線LAN(Local Area Network)、Bluetooth又はWUSB(Wireless USB)用の通信カード等であり得る。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber line)用のルータ又は各種通信用のモデム等であってもよい。通信装置925は、例えば、インターネットや他の通信機器との間で、TCP/IP等の所定のプロトコルを用いて信号等を送受信する。また、通信装置925に接続される通信ネットワーク931は、有線又は無線によって接続されたネットワークであり、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信又は衛星通信等である。例えば、通信装置925は、図1、図6、図16、図18及び図20に示す制御部130、230、330によって処理される各種の情報及び当該制御部130、230、330による各種の処理結果を、通信ネットワーク931を介して外部の他の機器との間で互いに送受信してよい。また、例えば、通信装置925は、図18に示す通信部170、510に対応する。
 センサ935は、例えば、加速度センサ、ジャイロセンサ、地磁気センサ、光センサ、音センサ、測距センサ等の各種のセンサである。センサ935は、例えば情報処理装置900の筐体の姿勢等、情報処理装置900自体の状態に関する情報や、情報処理装置900の周辺の明るさや騒音等、情報処理装置900の周辺環境に関する情報を取得する。また、センサ935は、GPS信号を受信して装置の緯度、経度及び高度を測定するGPSセンサを含んでもよい。例えば、センサ935は、図18に示す位置検出部520に対応する。
 以上、情報処理装置900のハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。かかる構成は、実施する時々の技術レベルに応じて適宜変更されうる。
 なお、上述のような情報処理装置900の各機能、特に上述した制御部130、230、330の機能を実現するためのコンピュータプログラムを作製し、PC等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ等である。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。
 (6.まとめ)
 以上、本開示の第1及び第2の実施形態、並びに、第1及び第2の実施形態のいくつかの変形例について説明した。以上説明したように、第1及び第2の実施形態によれば、外部音声に基づいて聴取空間の音響特性を表す聴取空間特性情報が取得される。そして、取得された聴取空間特性情報に基づいて音楽信号に聴取空間の音響特性が付与される。従って、より外部の音声になじんだ、より開放感のある音楽がユーザに対して提供され得る。例えば、ユーザが遮音性の高い密閉型のヘッドホンを用いている場合であっても、外部音声を聞きながら、BGMのような感覚で音楽を聴くことが可能となる。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 例えば、以上説明した第1及び第2の実施形態、並びに、各変形例における各種の処理や機能は、互いに可能な範囲において任意に組み合わされて実行されてよい。各実施形態及び各変形例に係る各種の処理や機能が任意に組み合わされて実行されることにより、各実施形態及び各変形例でそれぞれ得られる効果を重畳的に得ることが可能となる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)少なくとも1つのマイクロフォンによって収音された外部音声に基づいて、聴取環境の特性を示す聴取環境特性情報を取得する聴取環境特性情報取得部と、取得された前記聴取環境特性情報に基づくフィルタ特性で音楽信号をフィルタリングする音楽信号処理部と、を備える、情報処理装置。
(2)前記外部音声は、ユーザの発話音声であり、前記聴取環境特性情報取得部は、前記ユーザの身体を経由して第1のマイクロフォンによって収音される前記発話音声と、前記聴取環境を経由して前記第1のマイクロフォンとは異なる第2のマイクロフォンによって収音される前記発話音声と、に基づいて、前記聴取環境特性情報を取得する、前記(1)に記載の情報処理装置。
(3)前記聴取環境特性情報は、前記発話音声が前記聴取環境を経由して前記第2のマイクロフォンに到達するまでの伝達関数である、前記(2)に記載の情報処理装置。
(4)前記外部音声は、スピーカから前記聴取環境に向かって出力される所定の測定用音声であり、前記聴取環境特性情報取得部は、前記マイクロフォンによって収音された前記測定用音声に基づいて、前記聴取環境特性情報を取得する、前記(1)に記載の情報処理装置。
(5)前記聴取環境特性情報は、前記測定用音声が前記聴取環境を経由して前記マイクロフォンに到達するまでの伝達関数である、前記(4)に記載の情報処理装置。
(6)前記聴取環境特性情報は、前記スピーカから出力される前の前記測定用音声と、前記聴取環境を経由して前記マイクロフォンによって収音された前記測定用音声との相関関数である、前記(4)に記載の情報処理装置。
(7)前記聴取環境特性情報取得部は、前記マイクロフォンによって収音された無相関雑音に基づいて、前記聴取環境特性情報を取得する、前記(1)に記載の情報処理装置。
(8)前記聴取環境特性情報は、前記無相関雑音の自己相関関数である、前記(7)に記載の情報処理装置。
(9)前記音楽信号処理部は、少なくとも前記聴取環境の残響特性を前記音楽信号に付与する、前記(1)~(8)のいずれか1項に記載の情報処理装置。
(10)前記音楽信号処理部は、FIRフィルタを用いて、前記聴取環境における前記外部音声の伝達関数を前記音楽信号に畳み込むことにより、前記聴取環境の残響特性を前記音楽信号に付与する、前記(9)に記載の情報処理装置。
(11)前記音楽信号処理部は、前記聴取環境特性情報から算出される前記聴取環境の音響特性を示すパラメータを用いて、前記音楽信号をフィルタリングする、前記(1)~(9)のいずれか1項に記載の情報処理装置。
(12)前記音楽信号処理部は、前記聴取環境の残響特性を示すパラメータが反映されたIIRフィルタと、前記聴取環境の周波数特性を示すパラメータが反映されたイコライザと、を含む、前記(11)に記載の情報処理装置。
(13)前記音楽信号処理部は、前記音楽信号に係る音声の音圧と外部音声の音圧との音圧比を調整する、前記(1)~(12)のいずれか1項に記載の情報処理装置。
(14)プロセッサが、少なくとも1つのマイクロフォンによって収音された外部音声に基づいて、聴取環境の特性を示す聴取環境特性情報を取得することと、プロセッサが、取得された前記聴取環境特性情報に基づくフィルタ特性で音楽信号をフィルタリングすることと、を含む、情報処理方法。
(15)コンピュータのプロセッサに、少なくとも1つのマイクロフォンによって収音された外部音声に基づいて、聴取環境の特性を示す聴取環境特性情報を取得する機能と、取得された前記聴取環境特性情報に基づくフィルタ特性で音楽信号をフィルタリングする機能と、を実現させる、プログラム。
 10、20、30、40、70  音響調整システム
 50  携帯端末
 60  聴取環境特性情報DB
 100、200  ヘッドホン
 110、110a、110b、210  マイクロフォン
 120、220a、220b  スピーカ
 130、230、330  制御部
 131、231  聴取環境特性情報取得部
 132、232、332  音楽信号処理部
 133  モニタ信号生成部
 134  ノイズキャンセル信号生成部
 170、510  通信部
 190  聴取環境特性情報統合部
 520  位置検出部

Claims (15)

  1.  少なくとも1つのマイクロフォンによって収音された外部音声に基づいて、聴取環境の特性を示す聴取環境特性情報を取得する聴取環境特性情報取得部と、
     取得された前記聴取環境特性情報に基づくフィルタ特性で音楽信号をフィルタリングする音楽信号処理部と、
     を備える、情報処理装置。
  2.  前記外部音声は、ユーザの発話音声であり、
     前記聴取環境特性情報取得部は、前記ユーザの身体を経由して第1のマイクロフォンによって収音される前記発話音声と、前記聴取環境を経由して前記第1のマイクロフォンとは異なる第2のマイクロフォンによって収音される前記発話音声と、に基づいて、前記聴取環境特性情報を取得する、
     請求項1に記載の情報処理装置。
  3.  前記聴取環境特性情報は、前記発話音声が前記聴取環境を経由して前記第2のマイクロフォンに到達するまでの伝達関数である、
     請求項2に記載の情報処理装置。
  4.  前記外部音声は、スピーカから前記聴取環境に向かって出力される所定の測定用音声であり、
     前記聴取環境特性情報取得部は、前記マイクロフォンによって収音された前記測定用音声に基づいて、前記聴取環境特性情報を取得する、
     請求項1に記載の情報処理装置。
  5.  前記聴取環境特性情報は、前記測定用音声が前記聴取環境を経由して前記マイクロフォンに到達するまでの伝達関数である、
     請求項4に記載の情報処理装置。
  6.  前記聴取環境特性情報は、前記スピーカから出力される前の前記測定用音声と、前記聴取環境を経由して前記マイクロフォンによって収音された前記測定用音声との相関関数である、
     請求項4に記載の情報処理装置。
  7.  前記聴取環境特性情報取得部は、前記マイクロフォンによって収音された無相関雑音に基づいて、前記聴取環境特性情報を取得する、
     請求項1に記載の情報処理装置。
  8.  前記聴取環境特性情報は、前記無相関雑音の自己相関関数である、
     請求項7に記載の情報処理装置。
  9.  前記音楽信号処理部は、少なくとも前記聴取環境の残響特性を前記音楽信号に付与する、
     請求項1に記載の情報処理装置。
  10.  前記音楽信号処理部は、FIRフィルタを用いて、前記聴取環境における前記外部音声の伝達関数を前記音楽信号に畳み込むことにより、前記聴取環境の残響特性を前記音楽信号に付与する、
     請求項9に記載の情報処理装置。
  11.  前記音楽信号処理部は、前記聴取環境特性情報から算出される前記聴取環境の音響特性を示すパラメータを用いて、前記音楽信号をフィルタリングする、
     請求項9に記載の情報処理装置。
  12.  前記音楽信号処理部は、前記聴取環境の残響特性を示すパラメータが反映されたIIRフィルタと、前記聴取環境の周波数特性を示すパラメータが反映されたイコライザと、を含む、
     請求項11に記載の情報処理装置。
  13.  前記音楽信号処理部は、前記音楽信号に係る音声の音圧と外部音声の音圧との音圧比を調整する、
     請求項1に記載の情報処理装置。
  14.  プロセッサが、少なくとも1つのマイクロフォンによって収音された外部音声に基づいて、聴取環境の特性を示す聴取環境特性情報を取得することと、
     プロセッサが、取得された前記聴取環境特性情報に基づくフィルタ特性で音楽信号をフィルタリングすることと、
     を含む、情報処理方法。
  15.  コンピュータのプロセッサに、
     少なくとも1つのマイクロフォンによって収音された外部音声に基づいて、聴取環境の特性を示す聴取環境特性情報を取得する機能と、
     取得された前記聴取環境特性情報に基づくフィルタ特性で音楽信号をフィルタリングする機能と、
     を実現させる、プログラム。
PCT/JP2015/063919 2014-06-30 2015-05-14 情報処理装置、情報処理方法及びプログラム WO2016002358A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2016531177A JP6572894B2 (ja) 2014-06-30 2015-05-14 情報処理装置、情報処理方法及びプログラム
CN201580034441.6A CN106664473B (zh) 2014-06-30 2015-05-14 信息处理装置、信息处理方法和程序
US15/321,408 US9892721B2 (en) 2014-06-30 2015-05-14 Information-processing device, information processing method, and program
EP15815725.5A EP3163902A4 (en) 2014-06-30 2015-05-14 Information-processing device, information processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-134909 2014-06-30
JP2014134909 2014-06-30

Publications (1)

Publication Number Publication Date
WO2016002358A1 true WO2016002358A1 (ja) 2016-01-07

Family

ID=55018913

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/063919 WO2016002358A1 (ja) 2014-06-30 2015-05-14 情報処理装置、情報処理方法及びプログラム

Country Status (5)

Country Link
US (1) US9892721B2 (ja)
EP (1) EP3163902A4 (ja)
JP (1) JP6572894B2 (ja)
CN (1) CN106664473B (ja)
WO (1) WO2016002358A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018084594A (ja) * 2016-11-21 2018-05-31 日本電信電話株式会社 特徴量抽出装置、音響モデル学習装置、音響モデル選択装置、特徴量抽出方法、およびプログラム
CN108605193A (zh) * 2016-02-01 2018-09-28 索尼公司 声音输出设备、声音输出方法、程序和声音系统
WO2019053995A1 (ja) * 2017-09-13 2019-03-21 ソニー株式会社 イヤホン装置、ヘッドホン装置及び方法
WO2019082389A1 (ja) * 2017-10-27 2019-05-02 ヤマハ株式会社 音信号出力装置及びプログラム
WO2020208926A1 (ja) * 2019-04-08 2020-10-15 ソニー株式会社 信号処理装置、信号処理方法及びプログラム
JP2020534574A (ja) * 2017-09-20 2020-11-26 ボーズ・コーポレーションBose Corporation 音響デバイスの並列能動騒音低減(anr)及びヒアスルー信号伝達経路
WO2023074654A1 (ja) * 2021-10-27 2023-05-04 パイオニア株式会社 情報処理装置、情報処理方法、プログラムおよび記録媒体

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9728179B2 (en) 2015-10-16 2017-08-08 Avnera Corporation Calibration and stabilization of an active noise cancelation system
CN107533839B (zh) * 2015-12-17 2021-02-23 华为技术有限公司 一种对周围环境音的处理方法及设备
US10200800B2 (en) * 2017-02-06 2019-02-05 EVA Automation, Inc. Acoustic characterization of an unknown microphone
US10483931B2 (en) * 2017-03-23 2019-11-19 Yamaha Corporation Audio device, speaker device, and audio signal processing method
US10157627B1 (en) * 2017-06-02 2018-12-18 Bose Corporation Dynamic spectral filtering
JP7031668B2 (ja) * 2017-06-28 2022-03-08 ソニーグループ株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム
CN109429147B (zh) * 2017-08-30 2021-01-05 美商富迪科技股份有限公司 电子装置与电子装置的控制方法
US11087776B2 (en) * 2017-10-30 2021-08-10 Bose Corporation Compressive hear-through in personal acoustic devices
US10235987B1 (en) * 2018-02-23 2019-03-19 GM Global Technology Operations LLC Method and apparatus that cancel component noise using feedforward information
CN108989931B (zh) * 2018-06-19 2020-10-09 美特科技(苏州)有限公司 听力保护耳机及其听力保护方法、计算机可读存储介质
JP7119210B2 (ja) * 2018-08-02 2022-08-16 ドルビー ラボラトリーズ ライセンシング コーポレイション 能動ノイズ制御システムの自動較正
CN108985277B (zh) * 2018-08-24 2020-11-10 广东石油化工学院 一种功率信号中背景噪声滤除方法及系统
KR20210030708A (ko) * 2019-09-10 2021-03-18 엘지전자 주식회사 복수의 사용자의 음성 신호 추출 방법과, 이를 구현하는 단말 장치 및 로봇
US10834494B1 (en) 2019-12-13 2020-11-10 Bestechnic (Shanghai) Co., Ltd. Active noise control headphones
US11485231B2 (en) * 2019-12-27 2022-11-01 Harman International Industries, Incorporated Systems and methods for providing nature sounds
JP2021131434A (ja) * 2020-02-19 2021-09-09 ヤマハ株式会社 音信号処理方法および音信号処理装置
CN114286278B (zh) * 2021-12-27 2024-03-15 北京百度网讯科技有限公司 音频数据处理方法、装置、电子设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001224100A (ja) * 2000-02-14 2001-08-17 Pioneer Electronic Corp 自動音場補正システム及び音場補正方法
JP2008282042A (ja) * 2008-07-14 2008-11-20 Sony Corp 再生装置
JP2011530218A (ja) * 2008-07-29 2011-12-15 ドルビー・ラボラトリーズ・ライセンシング・コーポレーション 電子音響チャンネルの適応制御とイコライゼーションの方法
JP2013541275A (ja) * 2010-09-08 2013-11-07 ディーティーエス・インコーポレイテッド 拡散音の空間的オーディオの符号化及び再生
JP2014505420A (ja) * 2011-01-05 2014-02-27 コーニンクレッカ フィリップス エヌ ヴェ オーディオ・システムおよびその動作方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8081780B2 (en) * 2007-05-04 2011-12-20 Personics Holdings Inc. Method and device for acoustic management control of multiple microphones
US20090074216A1 (en) * 2007-09-13 2009-03-19 Bionica Corporation Assistive listening system with programmable hearing aid and wireless handheld programmable digital signal processing device
CN101828410B (zh) * 2007-10-16 2013-11-06 峰力公司 用于无线听力辅助的方法和系统
US8155340B2 (en) * 2008-07-24 2012-04-10 Qualcomm Incorporated Method and apparatus for rendering ambient signals
US8571226B2 (en) * 2010-12-10 2013-10-29 Sony Corporation Automatic polarity adaptation for ambient noise cancellation
CN102158778A (zh) * 2011-03-11 2011-08-17 青岛海信移动通信技术股份有限公司 一种降低耳机噪声的方法、设备和系统
JP2013102411A (ja) * 2011-10-14 2013-05-23 Sony Corp 音声信号処理装置、および音声信号処理方法、並びにプログラム
US20140126733A1 (en) * 2012-11-02 2014-05-08 Daniel M. Gauger, Jr. User Interface for ANR Headphones with Active Hear-Through

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001224100A (ja) * 2000-02-14 2001-08-17 Pioneer Electronic Corp 自動音場補正システム及び音場補正方法
JP2008282042A (ja) * 2008-07-14 2008-11-20 Sony Corp 再生装置
JP2011530218A (ja) * 2008-07-29 2011-12-15 ドルビー・ラボラトリーズ・ライセンシング・コーポレーション 電子音響チャンネルの適応制御とイコライゼーションの方法
JP2013541275A (ja) * 2010-09-08 2013-11-07 ディーティーエス・インコーポレイテッド 拡散音の空間的オーディオの符号化及び再生
JP2014505420A (ja) * 2011-01-05 2014-02-27 コーニンクレッカ フィリップス エヌ ヴェ オーディオ・システムおよびその動作方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3163902A4 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11037544B2 (en) 2016-02-01 2021-06-15 Sony Corporation Sound output device, sound output method, and sound output system
CN108605193A (zh) * 2016-02-01 2018-09-28 索尼公司 声音输出设备、声音输出方法、程序和声音系统
EP3413590A4 (en) * 2016-02-01 2018-12-19 Sony Corporation Audio output device, audio output method, program, and audio system
US10685641B2 (en) 2016-02-01 2020-06-16 Sony Corporation Sound output device, sound output method, and sound output system for sound reverberation
JP2018084594A (ja) * 2016-11-21 2018-05-31 日本電信電話株式会社 特徴量抽出装置、音響モデル学習装置、音響モデル選択装置、特徴量抽出方法、およびプログラム
WO2019053995A1 (ja) * 2017-09-13 2019-03-21 ソニー株式会社 イヤホン装置、ヘッドホン装置及び方法
JP2019054337A (ja) * 2017-09-13 2019-04-04 ソニー株式会社 イヤホン装置、ヘッドホン装置及び方法
US11741938B2 (en) 2017-09-13 2023-08-29 Sony Group Corporation Earphone device, headphone device, and method
JP2020534574A (ja) * 2017-09-20 2020-11-26 ボーズ・コーポレーションBose Corporation 音響デバイスの並列能動騒音低減(anr)及びヒアスルー信号伝達経路
JP7008806B2 (ja) 2017-09-20 2022-01-25 ボーズ・コーポレーション 音響デバイスの並列能動騒音低減(anr)及びヒアスルー信号伝達経路
WO2019082389A1 (ja) * 2017-10-27 2019-05-02 ヤマハ株式会社 音信号出力装置及びプログラム
WO2020208926A1 (ja) * 2019-04-08 2020-10-15 ソニー株式会社 信号処理装置、信号処理方法及びプログラム
WO2023074654A1 (ja) * 2021-10-27 2023-05-04 パイオニア株式会社 情報処理装置、情報処理方法、プログラムおよび記録媒体

Also Published As

Publication number Publication date
CN106664473A (zh) 2017-05-10
EP3163902A1 (en) 2017-05-03
CN106664473B (zh) 2020-02-14
US20170200442A1 (en) 2017-07-13
EP3163902A4 (en) 2018-02-28
US9892721B2 (en) 2018-02-13
JP6572894B2 (ja) 2019-09-11
JPWO2016002358A1 (ja) 2017-04-27

Similar Documents

Publication Publication Date Title
JP6572894B2 (ja) 情報処理装置、情報処理方法及びプログラム
US10332502B2 (en) Noise reducing device, noise reducing method, noise reducing program, and noise reducing audio outputting device
EP2202998B1 (en) A device for and a method of processing audio data
US8675884B2 (en) Method and a system for processing signals
CN104918177B (zh) 信号处理装置、信号处理方法和程序
JP3670562B2 (ja) ステレオ音響信号処理方法及び装置並びにステレオ音響信号処理プログラムを記録した記録媒体
US9544698B2 (en) Signal enhancement using wireless streaming
JP2013527491A (ja) オーディオ再生のための適応的環境ノイズ補償
CN108235181B (zh) 在音频处理装置中降噪的方法
JP2009530950A (ja) ウェアラブル装置のためのデータ処理
WO2016153825A1 (en) System and method for improved audio perception
US9137619B2 (en) Audio signal correction and calibration for a room environment
US20140161281A1 (en) Audio signal correction and calibration for a room environment
CN112956210B (zh) 基于均衡滤波器的音频信号处理方法及装置
WO2022048334A1 (zh) 检测方法、装置、耳机和可读存储介质
WO2022256577A1 (en) A method of speech enhancement and a mobile computing device implementing the method
CN113424558A (zh) 智能个人助理
WO2018234618A1 (en) AUDIO SIGNAL PROCESSING
TW201506913A (zh) 麥克風系統及其聲音處理方法
KR101602298B1 (ko) 음량측정기를 이용한 오디오시스템
JP5880753B2 (ja) ヘッドホン、ヘッドホンのノイズ低減方法、ノイズ低減処理用プログラム
JP5224613B2 (ja) 音場補正システム及び音場補正方法
JP2012095254A (ja) 音量調整装置、音量調整方法及び音量調整プログラム並びに音響機器
JP2012100117A (ja) 音響処理装置及び方法
CN116419111A (zh) 耳机的控制方法、参数生成方法、装置、存储介质及耳机

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15815725

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016531177

Country of ref document: JP

Kind code of ref document: A

REEP Request for entry into the european phase

Ref document number: 2015815725

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2015815725

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 15321408

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE