WO2016121519A1 - 音響信号処理装置、音響信号処理方法、及び、プログラム - Google Patents

音響信号処理装置、音響信号処理方法、及び、プログラム Download PDF

Info

Publication number
WO2016121519A1
WO2016121519A1 PCT/JP2016/051073 JP2016051073W WO2016121519A1 WO 2016121519 A1 WO2016121519 A1 WO 2016121519A1 JP 2016051073 W JP2016051073 W JP 2016051073W WO 2016121519 A1 WO2016121519 A1 WO 2016121519A1
Authority
WO
WIPO (PCT)
Prior art keywords
speaker
output signal
listening position
output
signal
Prior art date
Application number
PCT/JP2016/051073
Other languages
English (en)
French (fr)
Inventor
健司 中野
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US15/542,764 priority Critical patent/US10721577B2/en
Publication of WO2016121519A1 publication Critical patent/WO2016121519A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S5/00Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation 
    • H04S5/02Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation  of the pseudo four-channel type, e.g. in which rear channel signals are derived from two-channel stereo signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S5/00Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/02Spatial or constructional arrangements of loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/01Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]

Definitions

  • the present technology relates to an acoustic signal processing device, an acoustic signal processing method, and a program, and in particular, an acoustic signal processing device and an acoustic signal processing capable of widening the range of listening positions where the effect of the transoral reproduction method can be obtained.
  • the present invention relates to a method and a program.
  • the method of reproducing the sound recorded by the microphones arranged at both ears with the headphones at both ears is known as a binaural recording / reproducing method.
  • a two-channel signal recorded by binaural recording is called a binaural signal and includes acoustic information regarding the position of the sound source in the vertical direction and the front-rear direction as well as the left and right for humans.
  • a method of reproducing this binaural signal using left and right two-channel speakers instead of headphones is called a trans-oral reproduction method (see, for example, Patent Document 1).
  • the range of the listening position where the effect of the trans-oral playback method is obtained is very narrow.
  • the range is narrow in the left-right direction, and the effect of the trans-oral playback method is greatly reduced when the listener is shifted slightly to the left or right from the ideal listening position.
  • this technique is intended to widen the range of listening positions where the effect of the trans-oral playback method can be obtained.
  • the acoustic signal processing device includes a first speaker disposed in the first direction and the left side in front of or behind a predetermined listening position, and the first direction of the listening position. And a transoral for localizing a sound image by sound from a second speaker arranged on the right side in a second direction on the left side of the first position and on the left side in the first position on the left side of the listening position.
  • a first output signal for the left speaker and a second output signal for the right speaker are generated, and the first direction and the left side of the listening position.
  • the third speaker arranged on the right side of the first speaker, and the first speaker arranged in the first direction of the listening position and on the right side of the second speaker.
  • Transoral processing for localizing the sound image from the sound from the speaker in the second direction on the right side of the listening position in the third direction on the right side of the second position and on the right side of the second position is used as the second acoustic signal.
  • a transoral processing unit for generating a third output signal for the left speaker and a fourth output signal for the right speaker, and outputting the first output signal to the first speaker. And outputting the second output signal to the second speaker, outputting the third output signal to the third speaker, and outputting the fourth output signal to the fourth speaker.
  • an output control unit for controlling.
  • the first speaker to the fourth speaker can be further provided.
  • the distance between the first speaker and the second speaker and the distance between the third speaker and the fourth speaker can be made substantially equal.
  • the first speaker to the fourth speaker can be arranged in a line in the horizontal direction with respect to the listening position.
  • the acoustic signal processing method includes a first speaker disposed in the first direction on the left side in front of or behind a predetermined listening position, and the first direction of the listening position. And a transoral for localizing a sound image by sound from a second speaker arranged on the right side in a second direction on the left side of the first position and on the left side in the first position on the left side of the listening position.
  • a first output signal for the left speaker and a second output signal for the right speaker are generated, and the first direction and the left side of the listening position.
  • the third speaker arranged on the right side of the first speaker, and the first speaker arranged in the first direction of the listening position and on the right side of the second speaker.
  • Transoral processing for localizing the sound image from the sound from the speaker in the second direction on the right side of the listening position in the third direction on the right side of the second position and on the right side of the second position is used as the second acoustic signal.
  • the program according to the first aspect of the present technology includes a first speaker arranged in the first direction and the left side that is in front of or behind a predetermined listening position, and the first direction and the right side of the listening position.
  • Transoral processing for localizing a sound image by sound from the second speaker arranged in a second direction and a left side in front of or behind the first position at a first position on the left side of the listening position. 1 to generate a first output signal for the left speaker and a second output signal for the right speaker, the first direction and the left side of the listening position.
  • the third speaker disposed on the right side of the first speaker, and the fourth speaker disposed on the right side of the first direction and the second speaker of the listening position.
  • Transoral processing for localizing the sound image from the sound from the sounder in the second direction on the right side of the listening position in the third direction on the right side of the second position and the right side of the second position is used as the second acoustic signal.
  • the acoustic signal processing device includes a first speaker disposed on the left side in a first direction that is forward or rearward of a predetermined listening position, and the first direction of the listening position.
  • a sound image generated by a sound from a second speaker disposed substantially in front of or substantially behind the listening position is a first position on the left side of the listening position that is in front of or behind the first position.
  • the first acoustic signal for the left speaker and the second output signal for the right speaker are generated by performing the trans-oral processing for localization in the direction of 2 and the left side on the first acoustic signal,
  • a sound image by sound from the second speaker and the third speaker arranged on the right side in the first direction of the listening position is a second position on the right side of the listening position.
  • the third output signal for the left speaker and the right side are obtained by performing transoral processing on the second acoustic signal in a third direction that is in front of or behind the second position and in the right direction.
  • a transoral processing unit for generating a fourth output signal for the speaker, and outputting the first output signal to the first speaker, and a combined signal of the second output signal and the third output signal Is output to the second speaker, and an output control unit is configured to control to output the fourth output signal to the third speaker.
  • the first speaker to the third speaker can be further provided.
  • the distance between the first speaker and the second speaker and the distance between the second speaker and the third speaker can be made substantially equal.
  • the first to third speakers can be arranged substantially in a row in the horizontal direction with respect to the listening position.
  • the acoustic signal processing method includes a first speaker disposed on the left side in the first direction that is forward or rearward of a predetermined listening position, and the first direction of the listening position.
  • a sound image generated by a sound from a second speaker disposed substantially in front of or substantially behind the listening position is a first position on the left side of the listening position that is in front of or behind the first position.
  • the first acoustic signal for the left speaker and the second output signal for the right speaker are generated by performing the trans-oral processing for localization in the direction of 2 and the left side on the first acoustic signal,
  • a sound image by sound from the second speaker and the third speaker arranged on the right side in the first direction of the listening position is a second position on the right side of the listening position.
  • the third output signal for the left speaker and the right side are obtained by performing transoral processing on the second acoustic signal in a third direction that is in front of or behind the second position and in the right direction.
  • the program according to the second aspect of the present technology is a first speaker arranged in the first direction and on the left side that is forward or rearward of a predetermined listening position, and the first direction of the listening position.
  • a second direction that is a front or rear of the first position at a first position on the left side of the listening position is a sound image from a second speaker disposed substantially in front of or behind the listening position.
  • a sound image by sound from the speaker and a third speaker arranged on the right side in the first direction of the listening position is placed at a second position on the right side of the listening position.
  • a third output signal for the left speaker and the right speaker are obtained by performing a trans-oral process for localizing the second acoustic signal in the third direction that is in front of or behind the second position and in the right direction.
  • the acoustic signal processing device includes a first speaker disposed on the left side in the first direction that is forward or rearward of the predetermined listening position, the first direction of the listening position, and the first direction.
  • a second speaker disposed on the right side, a third speaker disposed on the right side of the first speaker in the first direction and on the left side of the listening position, and the first speaker on the listening position.
  • a fourth speaker disposed on the right side of the second speaker, and a sound image generated by sound from the first speaker and the second speaker is a first position on the left side of the listening position.
  • the sound based on the first output signal is output from the first speaker
  • the sound based on the second output signal is output from the first output signal.
  • the third output signal for the left speaker and the fourth output signal for the right speaker which are generated by performing the transoral processing for directional and right localization on the second acoustic signal. 3 outputs a sound based on the third output signal from the third speaker, and outputs a sound based on the fourth output signal from the fourth speaker.
  • the distance between the first speaker and the second speaker and the distance between the third speaker and the fourth speaker can be made substantially equal.
  • the first speaker to the fourth speaker can be arranged in a line in the horizontal direction with respect to the listening position.
  • the first speaker is disposed in the first direction and the left side in front of or behind the predetermined listening position
  • the second speaker is disposed in the first position of the listening position.
  • 1 is arranged on the right side and a third speaker is arranged in the first direction and on the left side of the listening position, on the right side of the first speaker, and a fourth speaker is arranged on the right side of the listening position.
  • the first position is located on the right side of the second speaker in the first direction, and the sound image by the sound from the first speaker and the second speaker is the first position at the first position on the left side of the listening position.
  • a first output signal for the left speaker which is generated by performing transoral processing on the first sound signal in a second direction that is in front of or behind the sound source and to the left.
  • a sound based on the first output signal among the second output signals for the speaker on the side is output from the first speaker, and a sound based on the second output signal is output from the second speaker;
  • the acoustic signal processing device includes a first speaker disposed on the left side in the first direction that is in front of or behind the predetermined listening position, and the first direction in the listening position.
  • a second speaker disposed substantially in front of or substantially behind the listening position, and a third speaker disposed in the first direction and on the right side of the listening position, the first speaker and Transoral processing for localizing the sound image from the sound from the second speaker in a second direction that is in front of or behind the first position and on the left side in the first position on the left side of the listening position.
  • a sound based on the first output signal is generated.
  • the sound image output from the first speaker and the sound image from the second speaker and the third speaker is in front of or behind the second position at the second position on the right side of the listening position.
  • the third output signal for the left speaker and the fourth output signal for the right speaker which are generated by performing transoral processing for localization in the direction 3 and the right side on the second acoustic signal.
  • a sound based on the fourth output signal is output from the third speaker, and a sound based on a combined signal of the second output signal and the third output signal is output from the second speaker.
  • the distance between the first speaker and the second speaker and the distance between the second speaker and the third speaker can be made substantially equal.
  • the first to third speakers can be arranged substantially in a row in the horizontal direction with respect to the listening position.
  • the first speaker is disposed in the first direction and on the left side in front of or behind the predetermined listening position
  • the second speaker is disposed at the first position of the listening position.
  • the first speaker and the second speaker are arranged in the first direction and substantially in front of or behind the listening position
  • a third speaker is arranged in the first direction and on the right side of the listening position.
  • Transoral processing is performed on the first acoustic signal to localize the sound image of the sound from the first sound signal in the second direction that is the front or rear of the first position and the left side at the first position on the left side of the listening position.
  • the first speaker Output from the second speaker and the third speaker in a third direction that is in front of or behind the second position in the second position on the right side of the listening position and on the right side.
  • the fourth output of the third output signal for the left speaker and the fourth output signal for the right speaker generated by performing transoral processing for localization to the second acoustic signal A sound based on the signal is output from the third speaker, and a sound based on a synthesized signal of the second output signal and the third output signal is output from the second speaker.
  • the first speaker disposed in the first direction and the left side that is the front or rear of the predetermined listening position, and the first speaker disposed in the first direction and the right side of the listening position.
  • the first output signal for the left speaker and the second output signal for the right speaker are generated by performing on the acoustic signal, and the first direction and the left side of the listening position,
  • the third speaker arranged on the right side of the first speaker, and the fourth speaker arranged on the right side of the first direction of the listening position and the second speaker.
  • Transoral processing is performed on the second acoustic signal to localize the sound image from the sound from the mosquito at a second position on the right side of the listening position in a third direction that is forward or rearward of the second position and on the right side.
  • a third output signal for the left speaker and a fourth output signal for the right speaker are generated, and the first output signal is output to the first speaker, and the second output signal is output to the second speaker.
  • An output signal is output to the second speaker, the third output signal is output to the third speaker, and the fourth output signal is output to the fourth speaker.
  • the first speaker disposed in the first direction and the left side that is the front or rear of the predetermined listening position, and the first direction of the listening position, A sound image by sound from a second speaker disposed substantially in front of or substantially behind the listening position in a second direction that is in front of or behind the first position at a first position on the left side of the listening position;
  • a first output signal for the left speaker and a second output signal for the right speaker are generated, and the second speaker is generated.
  • the third output signal for the left speaker and the right speaker are obtained by performing the trans-oral processing for localizing the second sound signal in the third direction that is in front of or behind the second position and in the right direction.
  • a fourth output signal is generated, the first output signal is output to the first speaker, and a combined signal of the second output signal and the third output signal is output to the second speaker. And the fourth output signal is output to the third speaker.
  • the first speaker is disposed in the first direction and the left side that is the front or rear of the predetermined listening position
  • the second speaker is in the first direction of the listening position and
  • the third speaker is disposed on the right side
  • the third speaker is disposed in the first direction and the left side of the listening position, and is disposed on the right side of the first speaker
  • the fourth speaker is disposed in the first direction of the listening position.
  • the sound image by the sound from the first speaker and the second speaker is disposed on the right side of the second speaker, and the front or rear of the first position at the first position on the left side of the listening position.
  • the first output signal for the left speaker and the right generated by performing the transoral processing for localization in the second direction and the left side on the first acoustic signal.
  • a sound based on the first output signal is output from the first speaker
  • a sound based on the second output signal is output from the second speaker
  • a sound based on the third output signal is generated.
  • the sound output from the third speaker and based on the fourth output signal is output from the fourth speaker.
  • the first speaker is disposed in the first direction and the left side that is the front or rear of the predetermined listening position, and the second speaker is disposed in the first direction of the listening position.
  • the third speaker is disposed substantially in front of or behind the listening position, and the third speaker is disposed in the first direction and on the right side of the listening position, and is based on sound from the first speaker and the second speaker.
  • the first output signal for the left speaker and the second output signal for the right speaker Sound based on the first output signal is output from the first speaker.
  • the sound image of the sound from the second speaker and the third speaker is applied to the third direction on the right side of the listening position and in the third direction on the right side of the second position.
  • the fourth output signal generated by performing transoral processing for localization on the second acoustic signal. Is output from the third speaker, and a sound based on a synthesized signal of the second output signal and the third output signal is output from the second speaker.
  • the range of the listening position where the effect of the transoral reproduction method can be obtained can be expanded.
  • a technique for reproducing binaural signals using left and right two-channel speakers is called a trans-oral reproduction system.
  • the sound based on the binaural signal is output from the speaker as it is, for example, a crosstalk that causes the right ear sound to be heard in the listener's left ear will occur.
  • the sound transfer characteristic from the speaker to the right ear is superimposed and the waveform is deformed until the right ear sound reaches the listener's right ear.
  • pre-processing for canceling crosstalk and extra sound transfer characteristics is performed on the binaural signal.
  • this pre-processing is referred to as crosstalk correction processing.
  • the binaural signal can be generated without recording with the microphone at the ear.
  • the binaural signal is obtained by superimposing an HRTF (Head-Related Transfer Function) from the position of the sound source to both ears on the sound signal. Therefore, if the HRTF is known, a binaural signal can be generated by performing signal processing for superimposing the HRTF on the acoustic signal.
  • this process is referred to as a binaural process.
  • the above binaural processing and crosstalk correction processing are performed.
  • the front surround system is a virtual surround system that artificially creates a surround sound field using only front speakers.
  • a process combining the binaural process and the crosstalk correction process is a trans-oral process.
  • sound images output from the speakers 12L and 12R are transmitted to the target position TPLa to the listener 13 at the predetermined listening position LPa by the transoral reproduction method using the sound image localization filters 11L and 11R.
  • An example of localization is shown.
  • a virtual sound source virtual speaker
  • the target position TPLa is set to the left of the listening position LPa and to the left of the speaker 12L.
  • the sound source side HRTF between the target position TPLa and the left ear of the listener 13 is referred to as a head acoustic transfer function HL
  • the sound source reverse side HRTF between the target position TPLa and the listener's 13 right ear is referred to as the head.
  • This is referred to as an acoustic transfer function HR.
  • the HRTF between the speaker 12L and the left ear of the listener 13 is the same as the HRTF between the speaker 12R and the right ear of the listener 13, and the HRTF is This is referred to as a head acoustic transfer function G1.
  • the HRTF between the speaker 12L and the right ear of the listener 13 is the same as the HRTF between the speaker 12R and the left ear of the listener 13, and the HRTF is referred to as a head acoustic transfer function G2.
  • the sound source side is the one closer to the sound source (for example, the target position TPLa) in the left-right direction with respect to the listening position LPa, and the sound source opposite side is the one far from the sound source.
  • the sound source side is the same side as the sound source when the space is divided into left and right with reference to the median plane of the listener 13 at the listening position LPa, and the sound source reverse side is the opposite side.
  • the sound source side HRTF is the HRTF corresponding to the listener's sound source side ear
  • the sound source reverse side HRTF is the HRTF corresponding to the listener's sound source reverse side ear.
  • the head acoustic transfer function G1 is superimposed before the sound from the speaker 12L reaches the left ear of the listener 13, and the sound from the speaker 12R reaches the left ear of the listener 13.
  • the head acoustic transfer function G2 is superimposed.
  • the sound image localization filters 11L and 11R function ideally, the influence of the head acoustic transfer functions G1 and G2 is canceled in the sound waveform obtained by synthesizing the sound from both speakers in the left ear of the listener 13.
  • the waveform is obtained by superimposing the head acoustic transfer function HL on the acoustic signal Sin.
  • the head acoustic transfer function G1 is superimposed by the time the sound from the speaker 12R reaches the right ear of the listener 13, and the head acoustic transfer function by the time the sound from the speaker 12L reaches the right ear of the listener 13.
  • G2 is superimposed.
  • the sound image localization filters 11L and 11R act ideally, the influence of the head acoustic transfer functions G1 and G2 is canceled in the sound waveform obtained by synthesizing the sound from both speakers in the right ear, and the acoustic signal The waveform is obtained by superimposing the head acoustic transfer function HR on Sin.
  • a target HRTF that is, an ideal head acoustic transfer function HL (dotted line graph) and a head acoustic transfer function HR (solid line graph). If this target HRTF can be realized in the left and right ears of the listener 13, the listener 13 can feel as if the sound image of the sound from the speakers 12L and 12R is localized at the target position TPLa.
  • the lower right graph in FIG. 1 shows the reception characteristics of both ears of the listener 13, that is, the measured value of the head acoustic transfer function HL (dotted line graph) in the left ear of the listener 13, and the right of the listener 13.
  • the measured value (graph of a continuous line) of the head acoustic transfer function HR in the ear is shown.
  • FIG. 2 shows a case where the listener 13 has moved to the right side from the listening position LPa.
  • the lower left graph in the figure shows the target HRTF as in the lower left graph in FIG.
  • the lower right graph in the figure shows the reception characteristics of both ears of the listener 13 in the position shown in FIG.
  • the listener 13 when the listener 13 is shifted to the right from the listening position LPa, the receiving characteristics of both ears of the listener 13 are greatly different from the target HRTF. As a result, the sound image felt by the listener 13 is not localized at the target position TPLa. This is the same when the listener 13 is shifted to the left from the listening position LPa.
  • an area (hereinafter referred to as an effect area) where the listener can feel that the sound image is localized at the target position is narrow.
  • the effect area is narrow in the left-right direction. Therefore, when the listener's position is shifted in the left-right direction from the listening position, the sound image is not localized at the target position immediately.
  • a target band when attention is paid only to a band below a predetermined frequency (hereinafter referred to as a target band), even if the listener 13 is shifted to the right side from the listening position LPa, the reception characteristics of both ears are The characteristics are almost similar to HRTF. Therefore, the listener 13 can feel as if the sound image in the band of interest is localized at the target position TPLa ′ close to the target position TPLa. That is, for the attention band, the effect area becomes wider and the localization position is slightly shifted compared to the frequency band higher than the attention band, but the virtual feeling is maintained. In particular, the effect area expands in the left-right direction.
  • the effect area EALa of the band of interest with respect to the target position TPLa does not spread symmetrically with respect to the listening position LPa. That is, the effect area EALa is biased to the opposite side of the target position TPLa with respect to the listening position LPa, the target position TPLa side is narrow, and the opposite side of the target position TPLa is widened. In other words, the effect area EALa is narrower on the left side and wider on the right side than the listening position LPa.
  • the sound image is rarely localized only to either the left or right with respect to the listening position.
  • a sound image is usually localized at a target position TPRa that is diagonally to the right of the listening position LPa and to the right of the speaker 12R. .
  • the effect area EARa of the target band with respect to the target position TPRa is biased to the opposite side of the target position TPRa with respect to the listening position LPa, the target position TPRa side is narrow, and the opposite side of the target position TPRa is wide. That is, in the effect area EARa, on the contrary to the effect area EALa, the left side is wider and the right side is narrower than the listening position LPa.
  • the sound image of the band of interest felt by the listener 13 is localized at the target position TPLa and the target position TPRa.
  • the sound image of the band of interest felt by the listener 13 will not be localized to at least one of the target position TPLa or the target position TPRa. That is, the sense of localization of the listener 13 with respect to the band of interest deteriorates.
  • the effect area EALa and the effect area EARa are biased in the opposite directions from each other with respect to the listening position LPa. Accordingly, the service area SAa where the effect area EALa and the effect area EARa overlap is very narrow in the left-right direction. As a result, the listener 13 moves out of the service area SAa only by moving slightly from the listening position LPa to the left and right, and the listener 13 feels less localized with respect to the band of interest.
  • the service area for the band of interest is expanded particularly in the left-right direction.
  • FIG. 6 illustrates an example of a functional configuration of the acoustic signal processing system 101 according to the first embodiment of the present technology.
  • the acoustic signal processing system 101 is configured to include an acoustic signal processing unit 111 and speakers 112LL to 112RR.
  • FIG. 7 shows an arrangement example of the speakers 112LL to 112RR.
  • Speakers 112LL to 112RR are arranged in a substantially horizontal row in the order of the speaker 112LL, the speaker 112RL, the speaker 112LR, and the speaker 112RR from the left in front of the listening position LPC.
  • the speaker 112LL and the speaker 112RL are disposed on the left side from the listening position LPC, and the speaker 112LR and the speaker 112RR are disposed on the right side from the listening position LPC. Further, the distance between the speaker 112LL and the speaker 112LR and the distance between the speaker 112RL and the speaker 112RR are set to approximately the same distance.
  • the acoustic signal processing system 101 performs processing for localizing the sound image from the sound from the speaker 112LL and the speaker 112LR to the target position TPLb at the virtual listening position LPLb on the left side of the listening position LPC.
  • Virtual listening position LPLb is located approximately at the center of speaker 112LL and speaker 112LR in the left-right direction.
  • the target position TPLb is located on the front side and the left side of the virtual listening position LPLb and on the left side of the speaker 112LL.
  • the acoustic signal processing system 101 performs processing to localize the sound image from the sound from the speaker 112RL and the speaker 112RR to the target position TPRb at the virtual listening position LPRb on the right side of the listening position LPC.
  • the virtual listening position LPRb is located approximately at the center between the speaker 112RL and the speaker 112RR in the left-right direction.
  • the target position TPRb is located in front of and right of the virtual listening position LPRb and on the right side of the speaker 112RR.
  • the sound source side HRTF between the target position TPLb and the left ear of the listener 102 when the listener 102 is at the virtual listening position LPLb is referred to as a head acoustic transfer function HLL
  • the target position TPLb and the right ear of the listener 102 The sound source side HRTF between and is referred to as a head acoustic transfer function HLR.
  • the HRTF is referred to as a head acoustic transfer function G1L.
  • the HRTF between the speaker 112LL and the right ear of the listener 102 when the listener 102 is at the virtual listening position LPLb and the HRTF between the speaker 112LR and the left ear of the listener 102 are the same,
  • the HRTF is referred to as a head acoustic transfer function G2L.
  • the sound source side HRTF between the target position TPRb and the left ear of the listener 102 when the listener 102 is at the virtual listening position LPRb is referred to as a head acoustic transfer function HRL
  • the target position TPRb and the right ear of the listener 102 The sound source side HRTF between the head and the head is referred to as a head acoustic transfer function HRR.
  • the HRTF is referred to as a head acoustic transfer function G1R.
  • the HRTF between the speaker 112RL and the right ear of the listener 102 when the listener 102 is at the virtual listening position LPRb and the HRTF between the speaker 112RR and the left ear of the listener 102 are the same,
  • the HRTF is referred to as a head acoustic transfer function G2R.
  • the acoustic signal processing unit 111 is configured to include a trans-oral processing unit 121 and an output control unit 122.
  • the trans-oral processing unit 121 is configured to include a binauralization processing unit 131 and a crosstalk correction processing unit 132.
  • the binauralization processing unit 131 is configured to include binaural signal generation units 141LL to 141RR.
  • the crosstalk correction processing unit 132 is configured to include signal processing units 151LL to 151RR, signal processing units 152LL to 152RR, and addition units 153LL to 153RR.
  • the binaural signal generation unit 141LL generates the binaural signal BLL by superimposing the head acoustic transfer function HLL on the externally input acoustic signal SLin.
  • the binaural signal generation unit 141LL supplies the generated binaural signal BLL to the signal processing unit 151LL and the signal processing unit 152LL.
  • the binaural signal generation unit 141LR generates the binaural signal BLR by superimposing the head acoustic transfer function HLR on the externally input acoustic signal SLin.
  • the binaural signal generation unit 141LR supplies the generated binaural signal BLR to the signal processing unit 151LR and the signal processing unit 152LR.
  • the binaural signal generator 141RL generates the binaural signal BRL by superimposing the head acoustic transfer function HRL on the externally input acoustic signal SRin.
  • the binaural signal generation unit 141RL supplies the generated binaural signal BRL to the signal processing unit 151RL and the signal processing unit 152RL.
  • the binaural signal generator 141RR generates the binaural signal BRR by superimposing the head-related transfer function HRR on the externally input acoustic signal SRin.
  • the binaural signal generation unit 141RR supplies the generated binaural signal BRR to the signal processing unit 151RR and the signal processing unit 152RR.
  • the signal processing unit 151LL generates the acoustic signal SLL1 by superimposing a predetermined function f1 (G1L, G2L) having the head acoustic transfer functions G1L, G2L as variables on the binaural signal BLL.
  • the signal processing unit 151LL supplies the generated acoustic signal SLL1 to the addition unit 153LL.
  • the signal processing unit 151LR generates the acoustic signal SLR1 by superimposing the function f1 (G1L, G2L) on the binaural signal BLR.
  • the signal processing unit 151LR supplies the generated acoustic signal SLR1 to the addition unit 153LR.
  • the signal processing unit 152LL generates the acoustic signal SLL2 by superimposing a predetermined function f2 (G1L, G2L) having the head acoustic transfer functions G1L, G2L as variables on the binaural signal BLL.
  • the signal processing unit 152LL supplies the generated acoustic signal SLL2 to the adding unit 153LR.
  • the signal processing unit 152LR generates the acoustic signal SLR2 by superimposing the function f2 (G1L, G2L) on the binaural signal BLR.
  • the signal processing unit 152LR supplies the generated acoustic signal SLR2 to the adding unit 153LL.
  • the signal processing unit 151RL generates the acoustic signal SRL1 by superimposing a predetermined function f1 (G1R, G2R) having the head acoustic transfer functions G1R, G2R as variables on the binaural signal BRL.
  • the signal processing unit 151RL supplies the generated acoustic signal SRL1 to the addition unit 153RL.
  • the signal processing unit 151RR generates the acoustic signal SRR1 by superimposing the function f1 (G1R, G2R) on the binaural signal BRR.
  • the signal processing unit 151RR supplies the generated acoustic signal SRR1 to the addition unit 153RR.
  • the signal processing unit 152RL generates the acoustic signal SRL2 by superimposing a predetermined function f2 (G1R, G2R) having the head acoustic transfer functions G1R, G2R as variables on the binaural signal BRL.
  • the signal processing unit 152RL supplies the generated acoustic signal SRL2 to the adding unit 153RR.
  • the signal processing unit 152RR generates the acoustic signal SRR2 by superimposing the function f2 (G1R, G2R) on the binaural signal BRR.
  • the signal processing unit 152RR supplies the generated acoustic signal SRR2 to the adding unit 153RL.
  • the addition unit 153LL adds the acoustic signal SLL1 and the acoustic signal SLR2 to generate an output signal SLLout that is an acoustic signal for output, and supplies the output signal SLLout to the output control unit 122.
  • the output control unit 122 outputs the output signal SLLout to the speaker 112LL.
  • Speaker 112LL outputs a sound based on output signal SLLout.
  • the adding unit 153LR adds the acoustic signal SLR1 and the acoustic signal SLL2 to generate an output signal SLRout that is an acoustic signal for output, and supplies the output signal SLRout to the output control unit 122.
  • the output control unit 122 outputs the output signal SLRout to the speaker 112LR.
  • the speaker 112LR outputs a sound based on the output signal SLRout.
  • the addition unit 153RL adds the acoustic signal SRL1 and the acoustic signal SRR2 to generate an output signal SRLout that is an acoustic signal for output, and supplies the output signal SRLout to the output control unit 122.
  • the output control unit 122 outputs the output signal SRLout to the speaker 112RL.
  • Speaker 112RL outputs a sound based on output signal SRLout.
  • the adding unit 153RR adds the acoustic signal SRR1 and the acoustic signal SRL2 to generate an output signal SRRout that is an acoustic signal for output, and supplies the output signal SRRout to the output control unit 122.
  • the output control unit 122 outputs the output signal SRRout to the speaker 112RR.
  • Speaker 112RR outputs a sound based on output signal SRRout.
  • step S1 the binaural signal generators 141LL to 141RR perform binaural processing. Specifically, the binaural signal generation unit 141LL generates the binaural signal BLL by superimposing the head acoustic transfer function HLL on the externally input acoustic signal SLin. The binaural signal generation unit 141LL supplies the generated binaural signal BLL to the signal processing unit 151LL and the signal processing unit 152LL.
  • the binaural signal generation unit 141LR generates the binaural signal BLR by superimposing the head acoustic transfer function HLR on the externally input acoustic signal SLin.
  • the binaural signal generation unit 141LR supplies the generated binaural signal BLR to the signal processing unit 151LR and the signal processing unit 152LR.
  • the binaural signal generator 141RL generates the binaural signal BRL by superimposing the head acoustic transfer function HRL on the externally input acoustic signal SRin.
  • the binaural signal generation unit 141RL supplies the generated binaural signal BRL to the signal processing unit 151RL and the signal processing unit 152RL.
  • the binaural signal generator 141RR generates the binaural signal BRR by superimposing the head-related transfer function HRR on the externally input acoustic signal SRin.
  • the binaural signal generation unit 141RR supplies the generated binaural signal BRR to the signal processing unit 151RR and the signal processing unit 152RR.
  • step S2 the crosstalk correction processing unit 132 performs a crosstalk correction process.
  • the signal processing unit 151LL generates the acoustic signal SLL1 by superimposing the above-described function f1 (G1L, G2L) on the binaural signal BLL.
  • the signal processing unit 151LL supplies the generated acoustic signal SLL1 to the addition unit 153LL.
  • the signal processing unit 151LR generates the acoustic signal SLR1 by superimposing the function f1 (G1L, G2L) on the binaural signal BLR.
  • the signal processing unit 151LR supplies the generated acoustic signal SLR1 to the addition unit 153LR.
  • the signal processing unit 152LL generates the acoustic signal SLL2 by superimposing the above-described function f2 (G1L, G2L) on the binaural signal BLL.
  • the signal processing unit 152LL supplies the generated acoustic signal SLL2 to the adding unit 153LR.
  • the signal processing unit 151LR generates the acoustic signal SLR2 by superimposing the function f2 (G1L, G2L) on the binaural signal BLR.
  • the signal processing unit 151LR supplies the generated acoustic signal SLR2 to the addition unit 153LL.
  • the signal processing unit 151RL generates the acoustic signal SRL1 by superimposing the function f1 (G1R, G2R) described above on the binaural signal BRL.
  • the signal processing unit 151RL supplies the generated acoustic signal SRL1 to the addition unit 153RL.
  • the signal processing unit 151RR generates the acoustic signal SRR1 by superimposing the function f1 (G1R, G2R) on the binaural signal BRR.
  • the signal processing unit 151RR supplies the generated acoustic signal SRR1 to the addition unit 153RR.
  • the signal processing unit 152RL generates the acoustic signal SRL2 by superimposing the function f2 (G1R, G2R) described above on the binaural signal BRL.
  • the signal processing unit 152RL supplies the generated acoustic signal SRL2 to the adding unit 153RR.
  • the signal processor 152RR generates the acoustic signal SRR2 by superimposing the function f2 (G1R, G2R) on the binaural signal BRR.
  • the signal processing unit 152RR outputs the generated acoustic signal SRR2 to the adding unit 153RL.
  • the addition unit 153LL generates the output signal SLLout by adding the acoustic signal SLL1 and the acoustic signal SLR2, and supplies the output signal SLLout to the output control unit 122.
  • the addition unit 153LR generates the output signal SLRout by adding the acoustic signal SLR1 and the acoustic signal SLL2, and supplies the output signal SLRout to the output control unit 122.
  • the addition unit 153RL generates the output signal SRLout by adding the acoustic signal SRL1 and the acoustic signal SRR2, and supplies the output signal SRLout to the output control unit 122.
  • the adding unit 153RR adds the acoustic signal SRR1 and the acoustic signal SRL2 to generate an output signal SRRout and supplies the output signal SRRout to the output control unit 122.
  • step S3 the acoustic signal processing system 101 outputs sound.
  • the output control unit 122 outputs the output signal SLLout to the speaker 112LL, and the speaker 112LL outputs a sound based on the output signal SLLout.
  • the output control unit 122 outputs the output signal SLRout to the speaker 112LR, and the speaker 112LR outputs a sound based on the output signal SLRout.
  • the output control unit 122 outputs the output signal SRLout to the speaker 112RL, and the speaker 112RL outputs a sound based on the output signal SRLout.
  • the output control unit 122 outputs the output signal SRRout to the speaker 112RR, and the speaker 112RR outputs a sound based on the output signal SRRout.
  • the sound image from the sound from the speaker 112LL and the speaker 112LR is localized at the target position TPLb at the virtual listening position LPLb on the left side of the listening position LPC.
  • the sound image from the speaker 112RL and the sound from the speaker 112RR is localized at the target position TPRb at the virtual listening position LPRb on the right side of the listening position LPC.
  • the effect area EALb for the target position TPLb is biased to the opposite side of the target position TPLb with respect to the virtual listening position LPLb, the target position TPLb side is narrow, and the opposite side of the target position TPLb is wide. That is, the effect area EALb is narrower on the left side and wider on the right side than the virtual listening position LPLb.
  • the listening position LPC is on the right side of the virtual listening position LPLb
  • the left-right bias of the effect area EALb is smaller in the listening position LPC than in the virtual listening position LPLb.
  • the effect area EARb with respect to the target position TPRb is biased to the opposite side of the target position TPRb with respect to the virtual listening position LPRb, the target position TPRb side is narrow, and the opposite side of the target position TPRb is widened. That is, the effect area EARb is narrower on the right side and wider on the left side than the virtual listening position LPRb.
  • the listening position LPC is on the left side of the virtual listening position LPRb
  • the left-right bias of the effect area EARb is smaller in the listening position LPC than in the virtual listening position LPRb.
  • the service area SAb which is an area where the effect area EALb and the effect area EARb overlap, expands in the left-right direction compared to the service area SAa in FIG. Therefore, even if the listener 102 moves to the left and right to some extent from the listening position LPC, the listener 102 stays in the service area SAb, and the sound image for the band of interest felt by the listener 13 is localized near the target position TPLb and the target position TPRb. As a result, the sense of localization of the listener 13 with respect to the band of interest is improved.
  • the effect area EALb becomes wider as the distance between the speaker 112LL and the target position TPLb becomes shorter.
  • the effect area EARb becomes wider as the distance between the speaker 112RR and the target position TPRb becomes shorter. Then, at least one of the effect area EALb and the effect area EARb is widened, so that the service area SAb is also widened.
  • FIG. 10 is a front view illustrating a configuration example of the external appearance of the acoustic signal processing system 101.
  • the acoustic signal processing system 101 is configured to include a housing 201, speakers 211C, speakers 211L1 to 211L3, speakers 211R1 to 211R3, a tweeter 212L, and a tweeter 212R.
  • the housing 201 has a thin box shape, and the left end and the right end are triangular protrusions.
  • an acoustic signal processing unit 111 (not shown) is built in the housing 201.
  • speakers 211C, speakers 211L1 to 211L3, speakers 211R1 to 211R3, a tweeter 212L, and a tweeter 212R are arranged in a horizontal row.
  • the tweeter 212L and the speaker 211L3 constitute one speaker unit
  • the tweeter 212R and the speaker 211R3 constitute one speaker unit.
  • the speaker 211C is disposed in the center of the front surface of the housing 201.
  • the speakers 211L1 to 211L3 and the tweeter 212L, and the speakers 211R1 to 211R3 and the tweeter 212R are arranged symmetrically about the speaker 211C.
  • the speaker 211L1 is disposed on the left side of the speaker 211C
  • the speaker 211R1 is disposed on the right side of the speaker 211C.
  • the speaker 211L2 is disposed on the left side of the speaker 211L1, and the speaker 211R2 is disposed on the right side of the speaker 211R1.
  • the tweeter 212L is disposed near the left end of the front surface of the housing 201, and the speaker 211L3 is disposed on the right side of the tweeter 212L.
  • the tweeter 212R is disposed near the right end of the front surface of the housing 201, and the speaker 211R3 is disposed on the left side of the tweeter 212R.
  • the speaker 112RL in FIG. 6 is configured by the speaker 211L1.
  • the speaker 112LL is configured by a speaker unit including a tweeter 212L and a speaker 211L3
  • the speaker 112RL is configured by the speaker 211L1 or the speaker 211L2.
  • the speaker 112RR in FIG. 6 is configured by a speaker 211R2 or a speaker unit including a tweeter 212R and a speaker 211R3.
  • the speaker 112LR in FIG. 6 is configured by the speaker 211R1.
  • the speaker 112RR is configured by a speaker unit including a tweeter 212R and a speaker 211R3
  • the speaker 112LR is configured by the speaker 211R1 or the speaker 211R2.
  • the acoustic signal processing unit 111 and the speakers 112LL to 112RR are integrated is shown, but the acoustic signal processing unit 111 and the speakers 112LL to 112RR may be provided separately. Further, the speakers 112LL to 112RR may be individually provided so that the positions can be individually adjusted.
  • FIG. 11 illustrates a configuration example of the functions of the acoustic signal processing system 301 according to the second embodiment of the present technology.
  • parts corresponding to those in FIG. 6 are denoted by the same reference numerals, and description of parts having the same processing will be omitted as appropriate because the description will be repeated.
  • the acoustic signal processing system 301 is different from the acoustic signal processing system 101 in FIG. 6 in that an acoustic signal processing unit 311 is provided instead of the acoustic signal processing unit 111.
  • the acoustic signal processing unit 311 is different from the acoustic signal processing unit 111 in that a trans-oral integrated processing unit 321 which is another form of the trans-oral processing unit is provided instead of the trans-oral processing unit 121.
  • the trans-oral integration processing unit 321 is configured to include signal processing units 331LL to 331RR.
  • the signal processing units 331LL to 331RR are configured by, for example, FIR (finite impulse response) filters.
  • the trans-oral integration processing unit 321 performs integration processing of binaural processing and crosstalk correction processing on the acoustic signal SLin and the acoustic signal SRin.
  • the signal processing unit 331LL performs the process represented by the following equation (5) on the acoustic signal SLin to generate the output signal SLLout.
  • the output signal SLLout is the same signal as the output signal SLLout in the acoustic signal processing system 101.
  • the signal processing unit 331LL supplies the output signal SLLout to the output control unit 122.
  • the signal processing unit 331LR performs processing shown in the following equation (6) on the acoustic signal SLin to generate an output signal SLRout.
  • the output signal SLRout is the same signal as the output signal SLRout in the acoustic signal processing system 101.
  • the signal processing unit 331LR supplies the output signal SLRout to the output control unit 122.
  • the signal processing unit 331RL performs a process represented by the following expression (7) on the acoustic signal SRin to generate an output signal SRLout.
  • SRLout ⁇ HRL * f1 (G1R, G2R) + HRR * f2 (G1R, G2R) ⁇ ⁇ SRin (7)
  • the output signal SRLout is the same signal as the output signal SRLout in the acoustic signal processing system 101.
  • the signal processing unit 331RL supplies the output signal SRLout to the output control unit 122.
  • the signal processing unit 331RR performs processing shown in the following equation (8) on the acoustic signal SRin to generate an output signal SRRout.
  • the output signal SRRout is the same signal as the output signal SRRout in the acoustic signal processing system 101.
  • the signal processing unit 331RR supplies the output signal SRRout to the output control unit 122.
  • the service area for the band of interest can be expanded in the left-right direction. Further, in the acoustic signal processing system 301, it can be expected that the signal processing load is generally reduced as compared with the acoustic signal processing system 101.
  • FIG. 12 shows an example of the functional configuration of an acoustic signal processing system 401 that is the third embodiment of the present technology.
  • parts corresponding to those in FIG. 6 are denoted by the same reference numerals, and description of parts having the same processing will be omitted as appropriate because the description will be repeated.
  • the acoustic signal processing system 401 includes an acoustic signal processing unit 411 instead of the acoustic signal processing unit 111 and a speaker 112C instead of the speaker 112LR and the speaker 112RL, as compared with the acoustic signal processing system 101 of FIG. Is different.
  • the acoustic signal processing unit 411 is different from the acoustic signal processing unit 111 in that an output control unit 421 is provided instead of the output control unit 122.
  • the output control unit 421 is configured to include an addition unit 431.
  • the output control unit 421 outputs the output signal SLLout supplied from the addition unit 153LL to the speaker 112LL, and outputs the output signal SRRout supplied from the addition unit 153RR to the speaker 112RR.
  • the adding unit 431 of the output control unit 421 adds the output signal SLRout supplied from the adding unit 153LR and the output signal SRLout supplied from the adding unit 153RL to generate an output signal SCout.
  • Adder 431 outputs output signal SCout to speaker 112C.
  • Speaker 112LL outputs sound based on output signal SLLout
  • speaker 112RR outputs sound based on output signal SRRout
  • Speaker 112C outputs a sound based on output signal SCout.
  • FIG. 13 shows an arrangement example of the speakers 112LL to 112RR.
  • the speakers 112LL to 112RR are arranged in a substantially horizontal row in the order of the speaker 112LL, the speaker 112C, and the speaker 112RR from the left in front of the listening position LPC.
  • the speaker 112LL and the speaker 112RR are arranged at the same position as in FIG.
  • the speaker 112C is disposed substantially in front of the listening position LPC.
  • the distance between the speaker 112LL and the speaker 112C and the distance between the speaker 112C and the speaker 112RR are set to be approximately equal.
  • the sound image by the sound from the speaker 112LL and the speaker 112C is localized at the target position TPLc at the virtual listening position LPLc on the left side of the listening position LPC.
  • Virtual listening position LPLc is located approximately at the center of speaker 112LL and speaker 112C in the left-right direction.
  • the target position TPLc is located in front of the virtual listening position LPLc and on the left side of the speaker 112LL.
  • the sound image by the sound from the speaker 112C and the speaker 112RR is localized at the target position TPRc at the virtual listening position LPRc on the right side of the listening position LPC.
  • the virtual listening position LPRc is located approximately at the center between the speaker 112C and the speaker 112RR in the left-right direction.
  • the target position TPRc is located in front of and on the right side of the virtual listening position LPRc and on the right side of the speaker 112RR.
  • the effect area EALc for the target position TPLc is biased to the opposite side of the target position TPLc with respect to the virtual listening position LPLc, the target position TPLc side is narrow, and the opposite side of the target position TPLc is wide. That is, the effect area EALc is narrower on the left side and wider on the right side than the virtual listening position LPLc.
  • the listening position LPC is on the right side of the virtual listening position LPLc
  • the left-right bias of the effect area EALc is smaller in the listening position LPC than in the virtual listening position LPLc.
  • the effect area EARc with respect to the target position TPRc is biased to the opposite side of the target position TPRc with respect to the virtual listening position LPRc, the target position TPRc side is narrow, and the opposite side of the target position TPRc is widened. That is, the effect area EARc is narrower on the right side and wider on the left side than the virtual listening position LPRc.
  • the listening position LPC is on the left side of the virtual listening position LPRc
  • the left-right bias of the effect area EARc is smaller in the listening position LPC than in the virtual listening position LPRc.
  • the service area SAc which is an area where the effect area EALc and the effect area EARc overlap, expands in the left-right direction compared to the service area SAa in FIG. Therefore, even if the listener 102 moves to the left and right to some extent from the listening position LPC, the listener 102 stays in the service area SAc, and the sound image for the band of interest felt by the listener 13 is localized near the target position TPLc and the target position TPRc. As a result, although the number of speakers is reduced, the sense of localization of the listener 13 with respect to the band of interest is improved.
  • the acoustic signal processing system 401 can achieve substantially the same effect as the acoustic signal processing system 101 when the speaker 112LR and the speaker 112RL are disposed almost in front of the listening position LPC.
  • FIG. 14 is a diagram illustrating a functional configuration example of the acoustic signal processing system 501 according to the fourth embodiment of the present technology.
  • portions corresponding to those in FIGS. 11 and 12 are denoted by the same reference numerals, and description of portions having the same processing will be omitted as appropriate because the description will be repeated.
  • the acoustic signal processing system 501 is different from the acoustic signal processing system 401 in FIG. 12 in that an acoustic signal processing unit 511 is provided instead of the acoustic signal processing unit 411.
  • the acoustic signal processing unit 511 is different from the acoustic signal processing unit 411 in that a trans-oral integrated processing unit 321 of the acoustic signal processing system 301 in FIG. 11 is provided instead of the trans-oral processing unit 121. .
  • the acoustic signal processing system 501 is different from the acoustic signal processing system 401 in FIG. 12 in that transoral integration processing is performed. Thereby, in the acoustic signal processing system 501, compared with the acoustic signal processing system 401, it can be generally expected that the load of signal processing is reduced.
  • FIG. 15 is a diagram illustrating a configuration example of functions of an acoustic signal processing system 601 according to the fifth embodiment of the present technology.
  • portions corresponding to those in FIG. 14 are denoted by the same reference numerals, and description of portions having the same processing will be omitted as appropriate because the description will be repeated.
  • the acoustic signal processing system 601 can be implemented as a modification of the acoustic signal processing system 501 in FIG. 14 when the following equations (9) to (12) are established.
  • the processing of the signal processing unit 331LR and the signal processing unit 331RL of the acoustic signal processing system 501 is the same processing. Therefore, the acoustic signal processing system 601 has a configuration in which the signal processing unit 331RL is deleted from the acoustic signal processing system 501.
  • the acoustic signal processing system 601 is different from the acoustic signal processing system 501 in that an acoustic signal processing unit 611 is provided instead of the acoustic signal processing unit 511.
  • the acoustic signal processing unit 611 is configured to include a trans-oral integration processing unit 621 and an output control unit 622.
  • the trans-oralization integrated processing unit 621 is different from the trans-oral integration processing unit 321 of the acoustic signal processing system 501 in that an addition unit 631 is added and a signal processing unit 331RL is deleted.
  • the adder 631 adds the acoustic signal SLin and the acoustic signal SRin to generate the acoustic signal SCin.
  • the adding unit 631 supplies the acoustic signal SCin to the signal processing unit 331LR.
  • the signal processing unit 331LR performs the process represented by the above-described equation (6) on the acoustic signal SCin to generate the output signal SCout.
  • the output signal SCout is the same signal as the output signal SCout of the acoustic signal processing system 501. That is, the process shown in Expression (6) is simultaneously performed on the acoustic signal SLin and the acoustic signal SRin, and the output signal SCout obtained by synthesizing the output signal SLRout and the output signal SRLout is generated.
  • the output control unit 622 is different from the output control unit 421 of the acoustic signal processing system 501 in that the addition unit 431 is deleted. Then, the output control unit 622 outputs the output signals SLLout, SCout, and SRRout supplied from the transoral integration processing unit 621 to the speakers 112LL, 112C, and 112RR, respectively.
  • the signal processing unit 331RL may be provided instead of the signal processing unit 331LR.
  • the speakers 112LL to 112RR are not necessarily arranged in a horizontal row, and may be, for example, front and back with respect to the listening position LPC.
  • the speakers 112LL to 112RR may be arranged at different heights.
  • the interval between the speakers 112LL and 112LR and the interval between the speakers 112RL and 112RR need not necessarily match.
  • the speakers 112LL to 112RR are arranged in a substantially horizontal row and the distance between the speakers 112LL and 112LR and the distance between the speakers 112RL and 112RR are substantially equal, the acoustic design is facilitated and the sound image is localized at a predetermined position. It becomes easy.
  • the speakers 112 LL to 112 RR are not necessarily arranged in a horizontal row, and may be, for example, front and back with respect to the listening position LPC.
  • the speakers 112LL to 112RR may be arranged at different heights.
  • the distance between the speakers 112LL and 112C and the distance between the speakers 112C and 112RR do not necessarily match.
  • the speakers 112LL to 112RR are arranged substantially in a horizontal line and the distance between the speakers 112LL and 112C and the distance between the speakers 112C and 112RR are substantially equal, the acoustic design is facilitated, and the sound image is localized at a predetermined position. It becomes easy.
  • the speakers 112LL to 112RR are arranged behind the listening position LPC.
  • the positional relationship of the speakers 112LL to 112RR in the left-right direction with respect to the listening position LPC is the same as when all the speakers 112LL to 112RR are arranged in front of the listening position LPC. Therefore, for example, the speaker 112 ⁇ / b> C is disposed almost at the back of the listening position LPC.
  • the target position TPLb and the target position TPRb in FIG. 7 do not necessarily need to be arranged at symmetrical positions with respect to the listening position LPC. Further, the target position TPLb is arranged in front of and left of the virtual listening position LPLb and on the right side of the speaker 112LL, and the target position TPRb is arranged in front of and right of the virtual listening position LPRb and on the left of the speaker 112RR. It is also possible to do.
  • the target position TPLb behind the listening position LPC.
  • the target position TPRb can be arranged behind the listening position LPC. Note that one of the target position TPLb and the target position TPRb may be disposed in front of the listening position LPC, and the other may be disposed behind the listening position LPC.
  • the target position TPLc and the target position TPRc in FIG. 13 do not necessarily have to be arranged symmetrically with respect to the listening position LPC. Further, the target position TPLc is arranged in front of and left of the virtual listening position LPLc and on the right side of the speaker 112LL, and the target position TPRc is arranged in front of and right of the virtual listening position LPRc and on the left of the speaker 112RR. It is also possible to do.
  • the target position TPLc behind the listening position LPC.
  • the target position TPRc can be arranged behind the listening position LPC. Note that one of the target position TPLc and the target position TPRc may be disposed in front of the listening position LPC, and the other may be disposed behind the listening position LPC.
  • ⁇ About attention band The bandwidth of interest differs depending on factors such as the system configuration and performance, speaker placement, and the environment in which the system is installed. Therefore, it is desirable to set the attention band in consideration of each factor. In the case of the same system, it has been experimentally found that the band of interest tends to become wider as the distance between the paired speakers becomes narrower.
  • the series of processes described above can be executed by hardware or can be executed by software.
  • a program constituting the software is installed in the computer.
  • the computer includes, for example, a general-purpose personal computer capable of executing various functions by installing various programs by installing a computer incorporated in dedicated hardware.
  • FIG. 16 is a block diagram showing an example of the hardware configuration of a computer that executes the above-described series of processing by a program.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • An input / output interface 705 is further connected to the bus 704.
  • An input unit 706, an output unit 707, a storage unit 708, a communication unit 709, and a drive 710 are connected to the input / output interface 705.
  • the input unit 706 includes a keyboard, a mouse, a microphone, and the like.
  • the output unit 707 includes a display, a speaker, and the like.
  • the storage unit 708 includes a hard disk, a nonvolatile memory, and the like.
  • the communication unit 709 includes a network interface.
  • the drive 710 drives a removable medium 711 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
  • the CPU 701 loads the program stored in the storage unit 708 to the RAM 703 via the input / output interface 705 and the bus 704 and executes the program, for example. Is performed.
  • the program executed by the computer (CPU 701) can be provided by being recorded in, for example, a removable medium 711 as a package medium or the like.
  • the program can be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
  • the program can be installed in the storage unit 708 via the input / output interface 705 by attaching the removable medium 711 to the drive 710. Further, the program can be received by the communication unit 709 via a wired or wireless transmission medium and installed in the storage unit 708. In addition, the program can be installed in advance in the ROM 702 or the storage unit 708.
  • the program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.
  • the system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether all the components are in the same housing. Accordingly, a plurality of devices housed in separate housings and connected via a network and a single device housing a plurality of modules in one housing are all systems. .
  • the present technology can take a cloud computing configuration in which one function is shared by a plurality of devices via a network and is jointly processed.
  • each step described in the above flowchart can be executed by one device or can be shared by a plurality of devices.
  • the plurality of processes included in the one step can be executed by being shared by a plurality of apparatuses in addition to being executed by one apparatus.
  • the present technology can take the following configurations.
  • Sound images of sounds from the third speaker and the fourth speaker arranged on the right side of the second speaker in the first direction of the listening position are For the left speaker, the transoral processing is performed on the second acoustic signal for localization in the third direction that is the front or rear of the second position and the right side at the second position on the right side of the singing position.
  • a trans-oral processing unit for generating a third output signal and a fourth output signal for the right speaker Outputting the first output signal to the first speaker; outputting the second output signal to the second speaker; outputting the third output signal to the third speaker;
  • an output control unit for controlling the output signal to be output to the fourth speaker.
  • Sound images of sounds from the third speaker and the fourth speaker arranged on the right side of the second speaker in the first direction of the listening position are For the left speaker, the transoral processing is performed on the second acoustic signal for localization in the third direction that is the front or rear of the second position and the right side at the second position on the right side of the singing position.
  • a trans-oral processing step for generating a third output signal and a fourth output signal for the right speaker Outputting the first output signal to the first speaker; outputting the second output signal to the second speaker; outputting the third output signal to the third speaker;
  • an output control step for controlling the output signal to be output to the fourth speaker.
  • Sound images of sounds from the third speaker and the fourth speaker arranged on the right side of the second speaker in the first direction of the listening position are For the left speaker, the transoral processing is performed on the second acoustic signal for localization in the third direction that is the front or rear of the second position and the right side at the second position on the right side of the singing position.
  • a program for causing a computer to execute a process including: an output control step of controlling the output signal of 4 to be output to the fourth speaker.
  • a first speaker disposed in the first direction and on the left side in front of or behind a predetermined listening position, and disposed substantially in front of or behind the listening position in the first direction of the listening position; Transoral processing for localizing a sound image of the sound from the second speaker that has been performed in a second direction that is in front of or behind the first position and on the left side at the first position on the left side of the listening position.
  • Transoral processing for localizing a sound image of the sound from the second speaker that has been performed in a second direction that is in front of or behind the first position and on the left side at the first position on the left side of the listening position.
  • Transoral processing for generating a third output signal for the left speaker and a fourth output signal for the right speaker by performing transoral processing for localization in the direction 3 and on the right side with respect to the second acoustic signal.
  • a processing unit The first output signal is output to the first speaker, the combined signal of the second output signal and the third output signal is output to the second speaker, and the fourth output signal is output to the first speaker.
  • An acoustic signal processing apparatus comprising: an output control unit that controls to output to a third speaker. (8) The acoustic signal processing device according to (7), further including the first speaker to the third speaker.
  • Transoral processing for generating a third output signal for the left speaker and a fourth output signal for the right speaker by performing transoral processing for localization in the direction 3 and on the right side with respect to the second acoustic signal. Processing steps; The first output signal is output to the first speaker, the combined signal of the second output signal and the third output signal is output to the second speaker, and the fourth output signal is output to the first speaker.
  • An acoustic signal processing method comprising: an output control step of controlling to output to a third speaker.
  • a first speaker disposed in the first direction and on the left side in front of or behind a predetermined listening position, and disposed substantially in front of or behind the listening position in the first direction of the listening position; Transoral processing for localizing a sound image of the sound from the second speaker that has been performed in a second direction that is in front of or behind the first position and on the left side at the first position on the left side of the listening position.
  • Transoral processing for localizing a sound image of the sound from the second speaker that has been performed in a second direction that is in front of or behind the first position and on the left side at the first position on the left side of the listening position.
  • the sound image by the sound from the third speaker arranged on the right side and in the right direction is in front of or behind the second position at the second position on the right side of the listening position.
  • Transoral processing for generating a third output signal for the left speaker and a fourth output signal for the right speaker by performing transoral processing for localization in the direction 3 and on the right side with respect to the second acoustic signal. Processing steps;
  • the first output signal is output to the first speaker, the combined signal of the second output signal and the third output signal is output to the second speaker, and the fourth output signal is output to the first speaker.
  • a program for causing a computer to execute processing including an output control step of controlling to output to a third speaker.
  • a first speaker arranged in a first direction and on the left side in front of or behind a predetermined listening position; A second speaker disposed on the right side in the first direction of the listening position; A third speaker arranged on the left side in the first direction of the listening position and on the right side of the first speaker; A fourth speaker arranged in the first direction of the listening position and on the right side of the second speaker; Transformer that localizes sound images of sound from the first speaker and the second speaker in a second direction on the left side of the first position and on the left side in the first position on the left side of the listening position.
  • the sound based on the first output signal Is output from the first speaker, Outputting a sound based on the second output signal from the second speaker;
  • a transformer that localizes sound images of sounds from the third speaker and the fourth speaker in a third direction that is in front of or behind the second position in the second position on the right side of the listening position and on the right side.
  • the first speaker is arranged in the first direction and the left side which is the front or rear of the predetermined listening position, A second speaker is disposed on the right side in the first direction of the listening position; A third speaker is disposed in the first direction and the left side of the listening position and on the right side of the first speaker, A fourth speaker is arranged in the first direction of the listening position and on the right side of the second speaker; Transformer that localizes sound images of sound from the first speaker and the second speaker in a second direction on the left side of the first position and on the left side in the first position on the left side of the listening position.
  • the sound based on the first output signal Is output from the first speaker, Outputting a sound based on the second output signal from the second speaker;
  • a transformer that localizes sound images of sounds from the third speaker and the fourth speaker in a third direction that is in front of or behind the second position in the second position on the right side of the listening position and on the right side.
  • a first speaker arranged in a first direction and on the left side in front of or behind a predetermined listening position;
  • a second speaker arranged in the first direction of the listening position and substantially in front of or behind the listening position;
  • a third speaker disposed on the right side in the first direction of the listening position, Transformer that localizes sound images of sound from the first speaker and the second speaker in a second direction on the left side of the first position and on the left side in the first position on the left side of the listening position.
  • a transformer that localizes sound images of sounds from the second speaker and the third speaker in a third direction that is in front of or behind the second position in the second position on the right side of the listening position and on the right side.
  • An acoustic signal processing device that outputs a sound based on a synthesized signal of the second output signal and the third output signal from the second speaker.
  • the first speaker is arranged in the first direction and the left side which is the front or rear of the predetermined listening position, Placing a second speaker in the first direction of the listening position and substantially in front of or behind the listening position; A third speaker is disposed on the right side in the first direction of the listening position; Transformer that localizes sound images of sound from the first speaker and the second speaker in a second direction on the left side of the first position and on the left side in the first position on the left side of the listening position.
  • a transformer that localizes sound images of sounds from the second speaker and the third speaker in a third direction that is in front of or behind the second position in the second position on the right side of the listening position and on the right side.
  • 101 acoustic signal processing system, 102 listener, 111 acoustic signal processing unit, 112LL to 112RR, 112C speaker, 121 transoral processing unit, 122 output control unit, 131 binauralization processing unit, 132 crosstalk correction processing unit, 141LL to 141RR binaural Signal generation unit, 151LL to 151RR, 152LL to 152RR signal processing unit, 153LL to 153RR addition unit, 201 housing, 211C, 211L1 to 211L3, 211R1 to 211R3 speaker, 212L, 212R tweeter, 301 acoustic signal processing system, 311 acoustic signal Processing unit, 321 transoral integrated processing unit, 331LL to 331RR signal processing unit, 01 acoustic signal processing system, 411 acoustic signal processing unit, 421 output control unit, 431 addition unit, 501 acoustic signal processing system, 511 acoustic signal processing unit, 601 acoustic signal processing

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Stereophonic System (AREA)

Abstract

 本技術は、トランスオーラル再生方式の効果を得られるリスニング位置の範囲を広げることができるようにする音響信号処理装置、音響信号処理方法、及び、プログラムに関する。 リスニング位置より左側の第1の位置の前方又は後方かつ左側に音像を定位させる第1及び第2の出力信号が第1及び第2のスピーカから出力される。リスニング位置より右側の第2の位置の前方又は後方かつ右側に音像を定位させる第3及び第4の出力信号が第3及び第4のスピーカから出力される。第1のスピーカはリスニング位置の前方又は後方である第1の方向かつ左側に配置され、第2のスピーカはリスニング位置の第1の方向かつ右側に配置される。第3のスピーカはリスニング位置の第1の方向かつ左側であって、第1のスピーカより右側に配置され、第4のスピーカはリスニング位置の第1の方向かつ第2のスピーカより右側に配置される。本技術は、例えば音響処理システムに適用できる。

Description

音響信号処理装置、音響信号処理方法、及び、プログラム
 本技術は、音響信号処理装置、音響信号処理方法、及び、プログラムに関し、特に、トランスオーラル再生方式の効果が得られるリスニング位置の範囲を広げることができるようにした音響信号処理装置、音響信号処理方法、及び、プログラムに関する。
 両耳元に配置したマイクロフォンで録音した音をヘッドフォンにより両耳元で再生する手法は、バイノーラル録音/再生方式として知られている。バイノーラル録音により録音された2チャンネルの信号はバイノーラル信号と呼ばれ、人間にとって左右だけでなく上下方向や前後方向の音源の位置に関する音響情報が含まれる。また、このバイノーラル信号を、ヘッドフォンではなく左右の2チャンネルのスピーカを用いて再生する手法は、トランスオーラル再生方式と呼ばれている(例えば、特許文献1参照)。
特開2013-110682号公報
 しかしながら、トランスオーラル再生方式の効果が得られるリスニング位置の範囲は非常に狭い。特に、当該範囲は左右方向に狭く、リスナーが理想的なリスニング位置から左又は右に少しずれただけで、トランスオーラル再生方式の効果が大幅に低減してしまう。
 そこで、本技術は、トランスオーラル再生方式の効果を得られるリスニング位置の範囲を広げるようにするものである。
 本技術の第1の側面の音響信号処理装置は、所定のリスニング位置の前方又は後方である第1の方向かつ左側に配置された第1のスピーカ、及び、前記リスニング位置の前記第1の方向かつ右側に配置された第2のスピーカからの音による音像を、前記リスニング位置より左側の第1の位置において前記第1の位置の前方又は後方である第2の方向かつ左側に定位させるトランスオーラル処理を第1の音響信号に対して行うことにより、左側のスピーカ用の第1の出力信号及び右側のスピーカ用の第2の出力信号を生成し、前記リスニング位置の前記第1の方向かつ左側であって、前記第1のスピーカより右側に配置された前記第3のスピーカ、及び、前記リスニング位置の前記第1の方向かつ前記第2のスピーカより右側に配置された第4のスピーカからの音による音像を、前記リスニング位置より右側の第2の位置において前記第2の位置の前方又は後方である第3の方向かつ右側に定位させるトランスオーラル処理を第2の音響信号に対して行うことにより、左側のスピーカ用の第3の出力信号及び右側のスピーカ用の第4の出力信号を生成するトランスオーラル処理部と、前記第1の出力信号を前記第1のスピーカに出力し、前記第2の出力信号を前記第2のスピーカに出力し、前記第3の出力信号を前記第3のスピーカに出力し、前記第4の出力信号を前記第4のスピーカに出力するように制御する出力制御部とを備える。
 前記第1のスピーカ乃至前記第4のスピーカをさらに設けることができる。
 前記第1のスピーカと前記第2のスピーカの間隔と、前記第3のスピーカと前記第4のスピーカの間隔とがほぼ等しくすることができる。
 前記リスニング位置に対して、前記第1のスピーカ乃至前記第4のスピーカを横方向にほぼ一列に並べることができる。
 本技術の第1の側面の音響信号処理方法は、所定のリスニング位置の前方又は後方である第1の方向かつ左側に配置された第1のスピーカ、及び、前記リスニング位置の前記第1の方向かつ右側に配置された第2のスピーカからの音による音像を、前記リスニング位置より左側の第1の位置において前記第1の位置の前方又は後方である第2の方向かつ左側に定位させるトランスオーラル処理を第1の音響信号に対して行うことにより、左側のスピーカ用の第1の出力信号及び右側のスピーカ用の第2の出力信号を生成し、前記リスニング位置の前記第1の方向かつ左側であって、前記第1のスピーカより右側に配置された前記第3のスピーカ、及び、前記リスニング位置の前記第1の方向かつ前記第2のスピーカより右側に配置された第4のスピーカからの音による音像を、前記リスニング位置より右側の第2の位置において前記第2の位置の前方又は後方である第3の方向かつ右側に定位させるトランスオーラル処理を第2の音響信号に対して行うことにより、左側のスピーカ用の第3の出力信号及び右側のスピーカ用の第4の出力信号を生成するトランスオーラル処理ステップと、前記第1の出力信号を前記第1のスピーカに出力し、前記第2の出力信号を前記第2のスピーカに出力し、前記第3の出力信号を前記第3のスピーカに出力し、前記第4の出力信号を前記第4のスピーカに出力するように制御する出力制御ステップとを含む。
 本技術の第1の側面のプログラムは、所定のリスニング位置の前方又は後方である第1の方向かつ左側に配置された第1のスピーカ、及び、前記リスニング位置の前記第1の方向かつ右側に配置された第2のスピーカからの音による音像を、前記リスニング位置より左側の第1の位置において前記第1の位置の前方又は後方である第2の方向かつ左側に定位させるトランスオーラル処理を第1の音響信号に対して行うことにより、左側のスピーカ用の第1の出力信号及び右側のスピーカ用の第2の出力信号を生成し、前記リスニング位置の前記第1の方向かつ左側であって、前記第1のスピーカより右側に配置された前記第3のスピーカ、及び、前記リスニング位置の前記第1の方向かつ前記第2のスピーカより右側に配置された第4のスピーカからの音による音像を、前記リスニング位置より右側の第2の位置において前記第2の位置の前方又は後方である第3の方向かつ右側に定位させるトランスオーラル処理を第2の音響信号に対して行うことにより、左側のスピーカ用の第3の出力信号及び右側のスピーカ用の第4の出力信号を生成するトランスオーラル処理ステップと、前記第1の出力信号を前記第1のスピーカに出力し、前記第2の出力信号を前記第2のスピーカに出力し、前記第3の出力信号を前記第3のスピーカに出力し、前記第4の出力信号を前記第4のスピーカに出力するように制御する出力制御ステップとを含む処理をコンピュータに実行させることができる。
 本技術の第2の側面の音響信号処理装置は、所定のリスニング位置の前方又は後方である第1の方向かつ左側に配置された第1のスピーカ、及び、前記リスニング位置の前記第1の方向であって前記リスニング位置のほぼ正面又はほぼ背面に配置された第2のスピーカからの音による音像を、前記リスニング位置より左側の第1の位置において前記第1の位置の前方又は後方である第2の方向かつ左側に定位させるトランスオーラル処理を第1の音響信号に対して行うことにより、左側のスピーカ用の第1の出力信号及び右側のスピーカ用の第2の出力信号を生成し、前記第2のスピーカ、及び、前記リスニング位置の前記第1の方向かつ右側に配置された第3のスピーカからの音による音像を、前記リスニング位置より右側の第2の位置において前記第2の位置の前方又は後方である第3の方向かつ右側に定位させるトランスオーラル処理を第2の音響信号に対して行うことにより、左側のスピーカ用の第3の出力信号及び右側のスピーカ用の第4の出力信号を生成するトランスオーラル処理部と、前記第1の出力信号を前記第1のスピーカに出力し、前記第2の出力信号と前記第3の出力信号の合成信号を前記第2のスピーカに出力し、前記第4の出力信号を前記第3のスピーカに出力するように制御する出力制御部とを備える。
 前記第1のスピーカ乃至前記第3のスピーカをさらに設けることができる。
 前記第1のスピーカと前記第2のスピーカの間隔と、前記第2のスピーカと前記第3のスピーカの間隔とをほぼ等しくすることができる。
 前記リスニング位置に対して、前記第1のスピーカ乃至前記第3のスピーカを横方向にほぼ一列に並べることができる。
 本技術の第2の側面の音響信号処理方法は、所定のリスニング位置の前方又は後方である第1の方向かつ左側に配置された第1のスピーカ、及び、前記リスニング位置の前記第1の方向であって前記リスニング位置のほぼ正面又はほぼ背面に配置された第2のスピーカからの音による音像を、前記リスニング位置より左側の第1の位置において前記第1の位置の前方又は後方である第2の方向かつ左側に定位させるトランスオーラル処理を第1の音響信号に対して行うことにより、左側のスピーカ用の第1の出力信号及び右側のスピーカ用の第2の出力信号を生成し、前記第2のスピーカ、及び、前記リスニング位置の前記第1の方向かつ右側に配置された第3のスピーカからの音による音像を、前記リスニング位置より右側の第2の位置において前記第2の位置の前方又は後方である第3の方向かつ右側に定位させるトランスオーラル処理を第2の音響信号に対して行うことにより、左側のスピーカ用の第3の出力信号及び右側のスピーカ用の第4の出力信号を生成するトランスオーラル処理ステップと、前記第1の出力信号を前記第1のスピーカに出力し、前記第2の出力信号と前記第3の出力信号の合成信号を前記第2のスピーカに出力し、前記第4の出力信号を前記第3のスピーカに出力するように制御する出力制御ステップとを含む。
 本技術の第2の側面のプログラムは、所定のリスニング位置の前方又は後方である第1の方向かつ左側に配置された第1のスピーカ、及び、前記リスニング位置の前記第1の方向であって前記リスニング位置のほぼ正面又はほぼ背面に配置された第2のスピーカからの音による音像を、前記リスニング位置より左側の第1の位置において前記第1の位置の前方又は後方である第2の方向かつ左側に定位させるトランスオーラル処理を第1の音響信号に対して行うことにより、左側のスピーカ用の第1の出力信号及び右側のスピーカ用の第2の出力信号を生成し、前記第2のスピーカ、及び、前記リスニング位置の前記第1の方向かつ右側に配置された第3のスピーカからの音による音像を、前記リスニング位置より右側の第2の位置において前記第2の位置の前方又は後方である第3の方向かつ右側に定位させるトランスオーラル処理を第2の音響信号に対して行うことにより、左側のスピーカ用の第3の出力信号及び右側のスピーカ用の第4の出力信号を生成するトランスオーラル処理ステップと、前記第1の出力信号を前記第1のスピーカに出力し、前記第2の出力信号と前記第3の出力信号の合成信号を前記第2のスピーカに出力し、前記第4の出力信号を前記第3のスピーカに出力するように制御する出力制御ステップとを含む処理をコンピュータに実行させることができる。
 本技術の第3の側面の音響信号処理装置は、所定のリスニング位置の前方又は後方である第1の方向かつ左側に配置された第1のスピーカと、前記リスニング位置の前記第1の方向かつ右側に配置された第2のスピーカと、前記リスニング位置の前記第1の方向かつ左側であって、前記第1のスピーカより右側に配置された第3のスピーカと、前記リスニング位置の前記第1の方向かつ前記第2のスピーカより右側に配置された第4のスピーカとを備え、前記第1のスピーカ及び前記第2のスピーカからの音による音像を、前記リスニング位置より左側の第1の位置において前記第1の位置の前方又は後方である第2の方向かつ左側に定位させるトランスオーラル処理を第1の音響信号に対して行うことにより生成される、左側のスピーカ用の第1の出力信号及び右側のスピーカ用の第2の出力信号のうち前記第1の出力信号に基づく音を前記第1のスピーカから出力し、前記第2の出力信号に基づく音を前記第2のスピーカから出力し、前記第3のスピーカ及び前記第4のスピーカからの音による音像を、前記リスニング位置より右側の第2の位置において前記第2の位置の前方又は後方である第3の方向かつ右側に定位させるトランスオーラル処理を第2の音響信号に対して行うことにより生成される、左側のスピーカ用の第3の出力信号及び右側のスピーカ用の第4の出力信号のうち前記第3の出力信号に基づく音を前記第3のスピーカから出力し、前記第4の出力信号に基づく音を前記第4のスピーカから出力する。
 前記第1のスピーカと前記第2のスピーカの間隔と、前記第3のスピーカと前記第4のスピーカの間隔とをほぼ等しくすることができる。
 前記リスニング位置に対して、前記第1のスピーカ乃至前記第4のスピーカを横方向にほぼ一列に並べることができる。
 本技術の第3の側面の音響信号処理方法は、第1のスピーカを所定のリスニング位置の前方又は後方である第1の方向かつ左側に配置し、第2のスピーカを前記リスニング位置の前記第1の方向かつ右側に配置し、第3のスピーカを前記リスニング位置の前記第1の方向かつ左側であって、前記第1のスピーカより右側に配置し、第4のスピーカを前記リスニング位置の前記第1の方向かつ前記第2のスピーカより右側に配置し、前記第1のスピーカ及び前記第2のスピーカからの音による音像を、前記リスニング位置より左側の第1の位置において前記第1の位置の前方又は後方である第2の方向かつ左側に定位させるトランスオーラル処理を第1の音響信号に対して行うことにより生成される、左側のスピーカ用の第1の出力信号及び右側のスピーカ用の第2の出力信号のうち前記第1の出力信号に基づく音を前記第1のスピーカから出力し、前記第2の出力信号に基づく音を前記第2のスピーカから出力し、前記第3のスピーカ及び前記第4のスピーカからの音による音像を、前記リスニング位置より右側の第2の位置において前記第2の位置の前方又は後方である第3の方向かつ右側に定位させるトランスオーラル処理を第2の音響信号に対して行うことにより生成される、左側のスピーカ用の第3の出力信号及び右側のスピーカ用の第4の出力信号のうち前記第3の出力信号に基づく音を前記第3のスピーカから出力し、前記第4の出力信号に基づく音を前記第4のスピーカから出力する。
 本技術の第4の側面の音響信号処理装置は、所定のリスニング位置の前方又は後方である第1の方向かつ左側に配置された第1のスピーカと、前記リスニング位置の前記第1の方向であって前記リスニング位置のほぼ正面又はほぼ背面に配置された第2のスピーカと、前記リスニング位置の前記第1の方向かつ右側に配置された第3のスピーカとを備え、前記第1のスピーカ及び前記第2のスピーカからの音による音像を、前記リスニング位置より左側の第1の位置において前記第1の位置の前方又は後方である第2の方向かつ左側に定位させるトランスオーラル処理を第1の音響信号に対して行うことにより生成される、左側のスピーカ用の第1の出力信号及び右側のスピーカ用の第2の出力信号のうち前記第1の出力信号に基づく音を前記第1のスピーカから出力し、前記第2のスピーカ及び前記第3のスピーカからの音による音像を、前記リスニング位置より右側の第2の位置において前記第2の位置の前方又は後方である第3の方向かつ右側に定位させるトランスオーラル処理を第2の音響信号に対して行うことにより生成される、左側のスピーカ用の第3の出力信号及び右側のスピーカ用の第4の出力信号のうち前記第4の出力信号に基づく音を前記第3のスピーカから出力し、前記第2の出力信号と前記第3の出力信号の合成信号に基づく音を前記第2のスピーカから出力する。
 前記第1のスピーカと前記第2のスピーカの間隔と、前記第2のスピーカと前記第3のスピーカの間隔とをほぼ等しくすることができる。
 前記リスニング位置に対して、前記第1のスピーカ乃至前記第3のスピーカを横方向にほぼ一列に並べることができる。
 本技術の第4の側面の音響信号処理方法は、第1のスピーカを所定のリスニング位置の前方又は後方である第1の方向かつ左側に配置し、第2のスピーカを前記リスニング位置の前記第1の方向であって前記リスニング位置のほぼ正面又はほぼ背面に配置し、第3のスピーカを前記リスニング位置の前記第1の方向かつ右側に配置し、前記第1のスピーカ及び前記第2のスピーカからの音による音像を、前記リスニング位置より左側の第1の位置において前記第1の位置の前方又は後方である第2の方向かつ左側に定位させるトランスオーラル処理を第1の音響信号に対して行うことにより生成される、左側のスピーカ用の第1の出力信号及び右側のスピーカ用の第2の出力信号のうち前記第1の出力信号に基づく音を前記第1のスピーカから出力し、前記第2のスピーカ及び前記第3のスピーカからの音による音像を、前記リスニング位置より右側の第2の位置において前記第2の位置の前方又は後方である第3の方向かつ右側に定位させるトランスオーラル処理を第2の音響信号に対して行うことにより生成される、左側のスピーカ用の第3の出力信号及び右側のスピーカ用の第4の出力信号のうち前記第4の出力信号に基づく音を前記第3のスピーカから出力し、前記第2の出力信号と前記第3の出力信号の合成信号に基づく音を前記第2のスピーカから出力する。
 本技術の第1の側面においては、所定のリスニング位置の前方又は後方である第1の方向かつ左側に配置された第1のスピーカ、及び、前記リスニング位置の前記第1の方向かつ右側に配置された第2のスピーカからの音による音像を、前記リスニング位置より左側の第1の位置において前記第1の位置の前方又は後方である第2の方向かつ左側に定位させるトランスオーラル処理を第1の音響信号に対して行うことにより、左側のスピーカ用の第1の出力信号及び右側のスピーカ用の第2の出力信号が生成され、前記リスニング位置の前記第1の方向かつ左側であって、前記第1のスピーカより右側に配置された前記第3のスピーカ、及び、前記リスニング位置の前記第1の方向かつ前記第2のスピーカより右側に配置された第4のスピーカからの音による音像を、前記リスニング位置より右側の第2の位置において前記第2の位置の前方又は後方である第3の方向かつ右側に定位させるトランスオーラル処理を第2の音響信号に対して行うことにより、左側のスピーカ用の第3の出力信号及び右側のスピーカ用の第4の出力信号が生成され、前記第1の出力信号が前記第1のスピーカに出力され、前記第2の出力信号が前記第2のスピーカに出力され、前記第3の出力信号が前記第3のスピーカに出力され、前記第4の出力信号が前記第4のスピーカに出力される。
 本技術の第2の側面においては、所定のリスニング位置の前方又は後方である第1の方向かつ左側に配置された第1のスピーカ、及び、前記リスニング位置の前記第1の方向であって前記リスニング位置のほぼ正面又はほぼ背面に配置された第2のスピーカからの音による音像を、前記リスニング位置より左側の第1の位置において前記第1の位置の前方又は後方である第2の方向かつ左側に定位させるトランスオーラル処理を第1の音響信号に対して行うことにより、左側のスピーカ用の第1の出力信号及び右側のスピーカ用の第2の出力信号が生成され、前記第2のスピーカ、及び、前記リスニング位置の前記第1の方向かつ右側に配置された第3のスピーカからの音による音像を、前記リスニング位置より右側の第2の位置において前記第2の位置の前方又は後方である第3の方向かつ右側に定位させるトランスオーラル処理を第2の音響信号に対して行うことにより、左側のスピーカ用の第3の出力信号及び右側のスピーカ用の第4の出力信号が生成され、前記第1の出力信号が前記第1のスピーカに出力され、前記第2の出力信号と前記第3の出力信号の合成信号が前記第2のスピーカに出力され、前記第4の出力信号が前記第3のスピーカに出力される。
 本技術の第3の側面においては、第1のスピーカが所定のリスニング位置の前方又は後方である第1の方向かつ左側に配置され、第2のスピーカが前記リスニング位置の前記第1の方向かつ右側に配置され、第3のスピーカが前記リスニング位置の前記第1の方向かつ左側であって、前記第1のスピーカより右側に配置され、第4のスピーカが前記リスニング位置の前記第1の方向かつ前記第2のスピーカより右側に配置され、前記第1のスピーカ及び前記第2のスピーカからの音による音像を、前記リスニング位置より左側の第1の位置において前記第1の位置の前方又は後方である第2の方向かつ左側に定位させるトランスオーラル処理を第1の音響信号に対して行うことにより生成される、左側のスピーカ用の第1の出力信号及び右側のスピーカ用の第2の出力信号のうち前記第1の出力信号に基づく音が前記第1のスピーカから出力され、前記第2の出力信号に基づく音が前記第2のスピーカから出力され、前記第3のスピーカ及び前記第4のスピーカからの音による音像が、前記リスニング位置より右側の第2の位置において前記第2の位置の前方又は後方である第3の方向かつ右側に定位させるトランスオーラル処理を第2の音響信号に対して行うことにより生成される、左側のスピーカ用の第3の出力信号及び右側のスピーカ用の第4の出力信号のうち前記第3の出力信号に基づく音を前記第3のスピーカから出力され、前記第4の出力信号に基づく音が前記第4のスピーカから出力される。
 本技術の第4の側面においては、第1のスピーカが所定のリスニング位置の前方又は後方である第1の方向かつ左側に配置され、第2のスピーカが前記リスニング位置の前記第1の方向であって前記リスニング位置のほぼ正面又はほぼ背面に配置され、第3のスピーカが前記リスニング位置の前記第1の方向かつ右側に配置され、前記第1のスピーカ及び前記第2のスピーカからの音による音像を、前記リスニング位置より左側の第1の位置において前記第1の位置の前方又は後方である第2の方向かつ左側に定位させるトランスオーラル処理を第1の音響信号に対して行うことにより生成される、左側のスピーカ用の第1の出力信号及び右側のスピーカ用の第2の出力信号のうち前記第1の出力信号に基づく音が前記第1のスピーカから出力され、前記第2のスピーカ及び前記第3のスピーカからの音による音像を、前記リスニング位置より右側の第2の位置において前記第2の位置の前方又は後方である第3の方向かつ右側に定位させるトランスオーラル処理を第2の音響信号に対して行うことにより生成される、左側のスピーカ用の第3の出力信号及び右側のスピーカ用の第4の出力信号のうち前記第4の出力信号に基づく音が前記第3のスピーカから出力され、前記第2の出力信号と前記第3の出力信号の合成信号に基づく音が前記第2のスピーカから出力される。
 本技術の第1の側面乃至第4の側面によれば、トランスオーラル再生方式の効果を得られるリスニング位置の範囲を広げることができる。
 なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
トランスオーラル再生方式の特性について説明するための図である。 トランスオーラル再生方式の特性について説明するための図である。 トランスオーラル再生方式の特性について説明するための図である。 効果エリアの例を示す図である。 サービスエリアの例を示す図である。 本技術を適用した音響信号処理システムの第1の実施の形態を示すブロック図である。 スピーカの配置例を示す図である。 音響信号処理を説明するためのフローチャートである。 サービスエリアの例を示す図である。 音響信号処理システムの第1の実施の形態の外観の構成例を示す正面図である。 本技術を適用した音響信号処理システムの第2の実施の形態を示すブロック図である。 本技術を適用した音響信号処理システムの第3の実施の形態を示すブロック図である。 スピーカの配置例を示す図である。 本技術を適用した音響信号処理システムの第4の実施の形態を示すブロック図である。 本技術を適用した音響信号処理システムの第5の実施の形態を示すブロック図である。 コンピュータの構成例を示すブロック図である。
 以下、本技術を実施するための形態(以下、実施の形態という)について説明する。なお、説明は以下の順序で行う。
1.トランスオーラル再生方式の特性
2.第1の実施の形態(通常のトランスオーラル処理を行い、スピーカを4台用いる例)
3.第2の実施の形態(トランスオーラル一体化処理を行い、スピーカを4台用いる例)
4.第3の実施の形態(通常のトランスオーラル処理を行い、スピーカを3台用いる例)
5.第4の実施の形態(トランスオーラル一体化処理を行い、スピーカを3台用いる第1の例)
6.第5の実施の形態(トランスオーラル一体化処理を行い、スピーカを3台用いる第2の例)
7.変形例
<1.トランスオーラル再生方式の特性>
 まず、図1乃至図5を参照して、トランスオーラル再生方式の特性について説明する。
 上述したように、バイノーラル信号を左右の2チャンネルのスピーカを用いて再生する手法は、トランスオーラル再生方式と呼ばれている。ただし、バイノーラル信号に基づく音をそのままスピーカから出力しただけでは、例えば、右耳用の音がリスナーの左耳にも聴こえてしまうようなクロストークが発生してしまう。さらに、例えば、右耳用の音がリスナーの右耳に到達するまでの間に、スピーカから右耳までの音響伝達特性が重畳され、波形が変形してしまう。
 そのため、トランスオーラル再生方式では、クロストークや余計な音響伝達特性をキャンセルするための事前処理が、バイノーラル信号に対して行われる。以下、この事前処理を、クロストーク補正処理と称する。
 ところで、バイノーラル信号は、耳元のマイクで録音しなくても生成することができる。具体的には、バイノーラル信号は、音響信号に対し、その音源の位置から両耳元までのHRTF(Head-Related Transfer Function、頭部音響伝達関数)を重畳したものである。従って、HRTFが分かっていれば、音響信号に対してHRTFを重畳する信号処理を施すことによりバイノーラル信号を生成することができる。以下、この処理をバイノーラル化処理と称する。
 HRTFをベースにしたフロントサラウンド方式では、以上のバイノーラル化処理及びクロストーク補正処理が行われる。ここで、フロントサラウンド方式とは、フロントスピーカだけでサラウンド音場を擬似的に作り出す仮想サラウンド方式である。そして、このバイノーラル化処理及びクロストーク補正処理を組み合わせた処理が、トランスオーラル処理である。
 図1は、音像定位フィルタ11L,11Rを用いて、トランスオーラル再生方式により、所定のリスニング位置LPaにいるリスナー13に対して、スピーカ12L,12Rから出力される音の像を、ターゲット位置TPLaに定位させる例を示している。換言すれば、リスニング位置LPaにいるリスナー13に対して、ターゲット位置TPLaに仮想音源(仮想スピーカ)を生成する例を示している。なお、以下、ターゲット位置TPLaが、リスニング位置LPaの左斜め前方であって、スピーカ12Lより左側に設定されている場合について説明する。
 また、以下、ターゲット位置TPLaとリスナー13の左耳との間の音源側HRTFを頭部音響伝達関数HLと称し、ターゲット位置TPLaとリスナー13の右耳との間の音源逆側HRTFを頭部音響伝達関数HRと称する。さらに、以下、説明を簡単にするために、スピーカ12Lとリスナー13の左耳との間のHRTFと、スピーカ12Rとリスナー13の右耳との間のHRTFが同じであるものとし、当該HRTFを頭部音響伝達関数G1と称する。同様に、スピーカ12Lとリスナー13の右耳との間のHRTFと、スピーカ12Rとリスナー13の左耳との間のHRTFが同じであるものとし、当該HRTFを頭部音響伝達関数G2と称する。
 ここで、音源側とは、リスニング位置LPaを基準とする左右方向のうち音源(例えば、ターゲット位置TPLa)に近い方であり、音源逆側とは、音源から遠い方である。換言すれば、音源側とは、リスニング位置LPaにおけるリスナー13の正中面を基準にして左右に空間を分けた場合の音源と同じ側であり、音源逆側とは、その逆側である。また、音源側HRTFとは、リスナーの音源側の耳に対応するHRTFのことであり、音源逆側HRTFとは、リスナーの音源逆側の耳に対応するHRTFのことである。
 図1に示されるように、スピーカ12Lからの音がリスナー13の左耳に到達するまでに頭部音響伝達関数G1が重畳され、スピーカ12Rからの音がリスナー13の左耳に到達するまでに頭部音響伝達関数G2が重畳される。ここで、音像定位フィルタ11L,11Rが理想的に作用すれば、両方のスピーカからの音をリスナー13の左耳において合成した音の波形は、頭部音響伝達関数G1及びG2の影響がキャンセルされ、音響信号Sinに頭部音響伝達関数HLを重畳した波形となる。
 同様に、スピーカ12Rからの音がリスナー13の右耳に到達するまでに頭部音響伝達関数G1が重畳され、スピーカ12Lからの音がリスナー13の右耳に到達するまでに頭部音響伝達関数G2が重畳される。ここで、音像定位フィルタ11L,11Rが理想的に作用すれば、両方のスピーカからの音を右耳において合成した音の波形は、頭部音響伝達関数G1及びG2の影響がキャンセルされ、音響信号Sinに頭部音響伝達関数HRを重畳した波形となる。
 図1の下方の左側のグラフは、ターゲットHRTF、すなわち、理想的な頭部音響伝達関数HL(点線のグラフ)及び頭部音響伝達関数HR(実線のグラフ)を示している。このターゲットHRTFをリスナー13の左右の耳において実現できれば、リスナー13は、スピーカ12L及び12Rからの音の音像が、ターゲット位置TPLaに定位しているように感じることができる。
 一方、図1の下方の右側のグラフは、リスナー13の両耳の受信特性、すなわち、リスナー13の左耳における頭部音響伝達関数HLの測定値(点線のグラフ)、及び、リスナー13の右耳における頭部音響伝達関数HRの測定値(実線のグラフ)を示している。リスナー13がリスニング位置LPaにいる場合、この図に示されるように、リスナー13の両耳の受信特性は、全帯域にわたってターゲットHRTFとほぼ似た特性となる。従って、リスナー13は、ターゲット位置TPLaに音像が定位していると感じることができる。
 一方、図2は、リスナー13がリスニング位置LPaより右側に移動した場合を示している。図内の下方の左側のグラフは、図1の下方の左側のグラフと同様にターゲットHRTFを示している。図内の下方の右側のグラフは、図2に示される位置にいる場合のリスナー13の両耳の受信特性を示している。
 この図に示されるように、リスナー13がリスニング位置LPaから右にずれると、リスナー13の両耳の受信特性は、ターゲットHRTFと大きく異なってしまう。これにより、リスナー13が感じる音像は、ターゲット位置TPLaに定位しなくなる。これは、リスナー13が、リスニング位置LPaから左にずれた場合も同様である。
 このように、トランスオーラル再生方式では、リスナーの位置が理想的なリスニング位置からずれてしまうと、ターゲット位置に音像が定位しなくなる。すなわち、トランスオーラル再生方式では、リスナーがターゲット位置に音像が定位していると感じることができるエリア(以下、効果エリアと称する)が狭い。特に、効果エリアは左右方向に狭い。従って、リスナーの位置がリスニング位置から左右方向にずれると、すぐに音像がターゲット位置に定位しなくなる。
 一方、図3に示されるように、所定の周波数以下の帯域(以下、注目帯域と称する)のみに注目すると、リスナー13がリスニング位置LPaから右側にずれても、両耳の受信特性は、ターゲットHRTFとほぼ似た特性となる。そのため、リスナー13は、注目帯域の音像については、ターゲット位置TPLaに近いターゲット位置TPLa’に定位しているように感じることができる。すなわち、注目帯域については、注目帯域より高い周波数帯域と比較して、効果エリアが広くなり、多少定位位置がずれるが、バーチャル感は維持される。特に、左右方向に効果エリアが広がる。
 しかし、実際には、リスナーが、注目帯域に対して効果エリアが広いと感じることは稀である。具体的には、図4に示されるように、ターゲット位置TPLaに対する注目帯域の効果エリアEALaは、リスニング位置LPaに対して左右対称に広がるわけではない。すなわち、効果エリアEALaは、リスニング位置LPaを基準にして、ターゲット位置TPLaの反対側に偏り、ターゲット位置TPLa側が狭く、ターゲット位置TPLaの反対側が広くなる。換言すれば、効果エリアEALaは、リスニング位置LPaより左側が狭くなり、右側が広くなる。
 また、トランスオーラル再生方式を用いた仮想サラウンド方式では、リスニング位置に対して左右のいずれか一方のみに音像を定位させることは少ない。例えば、図5に示されるように、ターゲット位置TPLaに加えて、リスニング位置LPaの右斜め前方であって、スピーカ12Rより右側のターゲット位置TPRaにも音像を定位させるようにすることが通常行われる。
 この場合、ターゲット位置TPRaに対する注目帯域の効果エリアEARaは、リスニング位置LPaを基準にして、ターゲット位置TPRaの反対側に偏り、ターゲット位置TPRa側が狭く、ターゲット位置TPRaの反対側が広くなる。すなわち、効果エリアEARaは、効果エリアEALaとは逆に、リスニング位置LPaより左側が広くなり、右側が狭くなる。
 そして、効果エリアEALaと効果エリアEARaとが重なるエリア(以下、サービスエリアと称する)SAa内にリスナー13がいる場合、リスナー13が感じる注目帯域の音像は、ターゲット位置TPLa及びターゲット位置TPRaに定位する。一方、リスナー13がサービスエリアSAa外に出ると、リスナー13が感じる注目帯域の音像は、少なくともターゲット位置TPLa又はターゲット位置TPRaの一方には定位しなくなる。すなわち、注目帯域に対するリスナー13の定位感が悪化する。
 また、図5に示されるように、効果エリアEALaと効果エリアEARaは、リスニング位置LPaを基準にして、互いに左右逆方向に偏っている。従って、効果エリアEALaと効果エリアEARaとが重なるサービスエリアSAaは、左右方向に非常に狭くなる。その結果、リスナー13は、リスニング位置LPaから左右に少し移動するだけで、サービスエリアSAa外に出てしまい、注目帯域に対するリスナー13の定位感が悪化する。
 そこで、本技術では、以下に説明するように、注目帯域に対するサービスエリアを、特に左右方向に拡大する。
<2.第1の実施の形態>
 次に、図6乃至図10を参照して、本技術を適用した音響信号処理システムの第1の実施の形態について説明する。
{音響信号処理システム101の構成例}
 図6は、本技術の第1の実施の形態である音響信号処理システム101の機能の構成例を示している。
 音響信号処理システム101は、音響信号処理部111、及び、スピーカ112LL乃至112RRを含むように構成される。
 図7は、スピーカ112LL乃至112RRの配置例を示している。
 スピーカ112LL乃至112RRは、リスニング位置LPCの前方に、左からスピーカ112LL、スピーカ112RL、スピーカ112LR、スピーカ112RRの順にほぼ横一列に並べられている。スピーカ112LL及びスピーカ112RLは、リスニング位置LPCより左側に配置され、スピーカ112LR及びスピーカ112RRは、リスニング位置LPCより右側に配置されている。また、スピーカ112LLとスピーカ112LRの間隔と、スピーカ112RLとスピーカ112RRの間隔とは、ほぼ等しい距離に設定されている。
 音響信号処理システム101は、スピーカ112LL及びスピーカ112LRからの音による音像を、リスニング位置LPCより左側にある仮想リスニング位置LPLbにおいてターゲット位置TPLbに定位させる処理を行う。仮想リスニング位置LPLbは、左右方向においてスピーカ112LLとスピーカ112LRのほぼ中央に位置する。ターゲット位置TPLbは、仮想リスニング位置LPLbの前方かつ左側であって、スピーカ112LLより左側に位置する。
 また、音響信号処理システム101は、スピーカ112RL及びスピーカ112RRからの音による音像を、リスニング位置LPCより右側にある仮想リスニング位置LPRbにおいてターゲット位置TPRbに定位させる処理を行う。仮想リスニング位置LPRbは、左右方向においてスピーカ112RLとスピーカ112RRのほぼ中央に位置する。ターゲット位置TPRbは、仮想リスニング位置LPRbの前方かつ右側であって、スピーカ112RRより右側に位置する。
 なお、以下、リスナー102が仮想リスニング位置LPLbにいる場合のターゲット位置TPLbとリスナー102の左耳との間の音源側HRTFを頭部音響伝達関数HLLと称し、ターゲット位置TPLbとリスナー102の右耳との間の音源側HRTFを頭部音響伝達関数HLRと称する。また、以下、リスナー102が仮想リスニング位置LPLbにいる場合のスピーカ112LLとリスナー102の左耳との間のHRTFと、スピーカ112LRとリスナー102の右耳との間のHRTFが同じであるものとし、当該HRTFを頭部音響伝達関数G1Lと称する。さらに、以下、リスナー102が仮想リスニング位置LPLbにいる場合のスピーカ112LLとリスナー102の右耳との間のHRTFと、スピーカ112LRとリスナー102の左耳との間のHRTFが同じであるものとし、当該HRTFを頭部音響伝達関数G2Lと称する。
 また、以下、リスナー102が仮想リスニング位置LPRbにいる場合のターゲット位置TPRbとリスナー102の左耳との間の音源側HRTFを頭部音響伝達関数HRLと称し、ターゲット位置TPRbとリスナー102の右耳との間の音源側HRTFを頭部音響伝達関数HRRと称する。また、以下、リスナー102が仮想リスニング位置LPRbにいる場合のスピーカ112RLとリスナー102の左耳との間のHRTFと、スピーカ112RRとリスナー102の右耳との間のHRTFが同じであるものとし、当該HRTFを頭部音響伝達関数G1Rと称する。さらに、以下、リスナー102が仮想リスニング位置LPRbにいる場合のスピーカ112RLとリスナー102の右耳との間のHRTFと、スピーカ112RRとリスナー102の左耳との間のHRTFが同じであるものとし、当該HRTFを頭部音響伝達関数G2Rと称する。
 音響信号処理部111は、トランスオーラル処理部121及び出力制御部122を含むように構成される。トランスオーラル処理部121は、バイノーラル化処理部131、及び、クロストーク補正処理部132を含むように構成される。バイノーラル化処理部131は、バイノーラル信号生成部141LL乃至141RRを含むように構成される。クロストーク補正処理部132は、信号処理部151LL乃至151RR、信号処理部152LL乃至152RR、及び、加算部153LL乃至153RRを含むように構成される。
 バイノーラル信号生成部141LLは、外部から入力される音響信号SLinに対して頭部音響伝達関数HLLを重畳することにより、バイノーラル信号BLLを生成する。バイノーラル信号生成部141LLは、生成したバイノーラル信号BLLを信号処理部151LL及び信号処理部152LLに供給する。
 バイノーラル信号生成部141LRは、外部から入力される音響信号SLinに対して頭部音響伝達関数HLRを重畳することにより、バイノーラル信号BLRを生成する。バイノーラル信号生成部141LRは、生成したバイノーラル信号BLRを信号処理部151LR及び信号処理部152LRに供給する。
 バイノーラル信号生成部141RLは、外部から入力される音響信号SRinに対して頭部音響伝達関数HRLを重畳することにより、バイノーラル信号BRLを生成する。バイノーラル信号生成部141RLは、生成したバイノーラル信号BRLを信号処理部151RL及び信号処理部152RLに供給する。
 バイノーラル信号生成部141RRは、外部から入力される音響信号SRinに対して頭部音響伝達関数HRRを重畳することにより、バイノーラル信号BRRを生成する。バイノーラル信号生成部141RRは、生成したバイノーラル信号BRRを信号処理部151RR及び信号処理部152RRに供給する。
 信号処理部151LLは、頭部音響伝達関数G1L,G2Lを変数とする所定の関数f1(G1L,G2L)をバイノーラル信号BLLに重畳することにより、音響信号SLL1を生成する。信号処理部151LLは、生成した音響信号SLL1を加算部153LLに供給する。
 同様に、信号処理部151LRは、関数f1(G1L,G2L)をバイノーラル信号BLRに重畳することにより、音響信号SLR1を生成する。信号処理部151LRは、生成した音響信号SLR1を加算部153LRに供給する。
 なお、関数f1(G1L,G2L)は、例えば、次式(1)により表される。
 f1(G1L,G2L)=1/(G1L+G2L)+1/(G1L-G2L) ・・・(1)
 信号処理部152LLは、頭部音響伝達関数G1L,G2Lを変数とする所定の関数f2(G1L,G2L)をバイノーラル信号BLLに重畳することにより、音響信号SLL2を生成する。信号処理部152LLは、生成した音響信号SLL2を加算部153LRに供給する。
 同様に、信号処理部152LRは、関数f2(G1L,G2L)をバイノーラル信号BLRに重畳することにより、音響信号SLR2を生成する。信号処理部152LRは、生成した音響信号SLR2を加算部153LLに供給する。
 なお、関数f2(G1L,G2L)は、例えば、次式(2)により表される。
 f2(G1L,G2L)=1/(G1L+G2L)-1/(G1L-G2L) ・・・(2)
 信号処理部151RLは、頭部音響伝達関数G1R,G2Rを変数とする所定の関数f1(G1R,G2R)をバイノーラル信号BRLに重畳することにより、音響信号SRL1を生成する。信号処理部151RLは、生成した音響信号SRL1を加算部153RLに供給する。
 同様に、信号処理部151RRは、関数f1(G1R,G2R)をバイノーラル信号BRRに重畳することにより、音響信号SRR1を生成する。信号処理部151RRは、生成した音響信号SRR1を加算部153RRに供給する。
 なお、関数f1(G1R,G2R)は、例えば、次式(3)により表される。
 f1(G1R,G2R)=1/(G1R+G2R)+1/(G1R-G2R) ・・・(3)
 信号処理部152RLは、頭部音響伝達関数G1R,G2Rを変数とする所定の関数f2(G1R,G2R)をバイノーラル信号BRLに重畳することにより、音響信号SRL2を生成する。信号処理部152RLは、生成した音響信号SRL2を加算部153RRに供給する。
 同様に、信号処理部152RRは、関数f2(G1R,G2R)をバイノーラル信号BRRに重畳することにより、音響信号SRR2を生成する。信号処理部152RRは、生成した音響信号SRR2を加算部153RLに供給する。
 なお、関数f2(G1R,G2R)は、例えば、次式(4)により表される。
 f2(G1R,G2R)=1/(G1R+G2R)-1/(G1R-G2R) ・・・(4)
 加算部153LLは、音響信号SLL1と音響信号SLR2を加算することにより、出力用の音響信号である出力信号SLLoutを生成し、出力制御部122に供給する。出力制御部122は、出力信号SLLoutをスピーカ112LLに出力する。スピーカ112LLは、出力信号SLLoutに基づく音を出力する。
 加算部153LRは、音響信号SLR1と音響信号SLL2を加算することにより、出力用の音響信号である出力信号SLRoutを生成し、出力制御部122に供給する。出力制御部122は、出力信号SLRoutをスピーカ112LRに出力する。スピーカ112LRは、出力信号SLRoutに基づく音を出力する。
 加算部153RLは、音響信号SRL1と音響信号SRR2を加算することにより、出力用の音響信号である出力信号SRLoutを生成し、出力制御部122に供給する。出力制御部122は、出力信号SRLoutをスピーカ112RLに出力する。スピーカ112RLは、出力信号SRLoutに基づく音を出力する。
 加算部153RRは、音響信号SRR1と音響信号SRL2を加算することにより、出力用の音響信号である出力信号SRRoutを生成し、出力制御部122に供給する。出力制御部122は、出力信号SRRoutをスピーカ112RRに出力する。スピーカ112RRは、出力信号SRRoutに基づく音を出力する。
{音響信号処理システム101による音響信号処理}
 次に、図8のフローチャートを参照して、音響信号処理システム101により実行される音響信号処理について説明する。
 ステップS1において、バイノーラル信号生成部141LL乃至141RRは、バイノーラル化処理を行う。具体的には、バイノーラル信号生成部141LLは、外部から入力される音響信号SLinに対して頭部音響伝達関数HLLを重畳することにより、バイノーラル信号BLLを生成する。バイノーラル信号生成部141LLは、生成したバイノーラル信号BLLを信号処理部151LL及び信号処理部152LLに供給する。
 バイノーラル信号生成部141LRは、外部から入力される音響信号SLinに対して頭部音響伝達関数HLRを重畳することにより、バイノーラル信号BLRを生成する。バイノーラル信号生成部141LRは、生成したバイノーラル信号BLRを信号処理部151LR及び信号処理部152LRに供給する。
 バイノーラル信号生成部141RLは、外部から入力される音響信号SRinに対して頭部音響伝達関数HRLを重畳することにより、バイノーラル信号BRLを生成する。バイノーラル信号生成部141RLは、生成したバイノーラル信号BRLを信号処理部151RL及び信号処理部152RLに供給する。
 バイノーラル信号生成部141RRは、外部から入力される音響信号SRinに対して頭部音響伝達関数HRRを重畳することにより、バイノーラル信号BRRを生成する。バイノーラル信号生成部141RRは、生成したバイノーラル信号BRRを信号処理部151RR及び信号処理部152RRに供給する。
 ステップS2において、クロストーク補正処理部132は、クロストーク補正処理を行う。具体的には、信号処理部151LLは、上述した関数f1(G1L,G2L)をバイノーラル信号BLLに重畳することにより、音響信号SLL1を生成する。信号処理部151LLは、生成した音響信号SLL1を加算部153LLに供給する。
 信号処理部151LRは、関数f1(G1L,G2L)をバイノーラル信号BLRに重畳することにより、音響信号SLR1を生成する。信号処理部151LRは、生成した音響信号SLR1を加算部153LRに供給する。
 信号処理部152LLは、上述した関数f2(G1L,G2L)をバイノーラル信号BLLに重畳することにより、音響信号SLL2を生成する。信号処理部152LLは、生成した音響信号SLL2を加算部153LRに供給する。
 信号処理部151LRは、関数f2(G1L,G2L)をバイノーラル信号BLRに重畳することにより、音響信号SLR2を生成する。信号処理部151LRは、生成した音響信号SLR2を加算部153LLに供給する。
 信号処理部151RLは、上述した関数f1(G1R,G2R)をバイノーラル信号BRLに重畳することにより、音響信号SRL1を生成する。信号処理部151RLは、生成した音響信号SRL1を加算部153RLに供給する。
 信号処理部151RRは、関数f1(G1R,G2R)をバイノーラル信号BRRに重畳することにより、音響信号SRR1を生成する。信号処理部151RRは、生成した音響信号SRR1を加算部153RRに供給する。
 信号処理部152RLは、上述した関数f2(G1R,G2R)をバイノーラル信号BRLに重畳することにより、音響信号SRL2を生成する。信号処理部152RLは、生成した音響信号SRL2を加算部153RRに供給する。
 信号処理部152RRは、関数f2(G1R,G2R)をバイノーラル信号BRRに重畳することにより、音響信号SRR2を生成する。信号処理部152RRは、生成した音響信号SRR2を加算部153RLに出力する。
 加算部153LLは、音響信号SLL1と音響信号SLR2を加算することにより、出力信号SLLoutを生成し、出力制御部122に供給する。
 加算部153LRは、音響信号SLR1と音響信号SLL2を加算することにより、出力信号SLRoutを生成し、出力制御部122に供給する。
 加算部153RLは、音響信号SRL1と音響信号SRR2を加算することにより、出力信号SRLoutを生成し、出力制御部122に供給する。
 加算部153RRは、音響信号SRR1と音響信号SRL2を加算することにより、出力信号SRRoutを生成し、出力制御部122に供給する。
 ステップS3において、音響信号処理システム101は、音を出力する。具体的には、出力制御部122は、出力信号SLLoutをスピーカ112LLに出力し、スピーカ112LLは、出力信号SLLoutに基づく音を出力する。出力制御部122は、出力信号SLRoutをスピーカ112LRに出力し、スピーカ112LRは、出力信号SLRoutに基づく音を出力する。出力制御部122は、出力信号SRLoutをスピーカ112RLに出力し、スピーカ112RLは、出力信号SRLoutに基づく音を出力する。出力制御部122は、出力信号SRRoutをスピーカ112RRに出力し、スピーカ112RRは、出力信号SRRoutに基づく音を出力する。
 これにより、図9に示されるように、スピーカ112LL及びスピーカ112LRからの音による音像が、リスニング位置LPCより左側の仮想リスニング位置LPLbにおいて、ターゲット位置TPLbに定位する。スピーカ112RL及びスピーカ112RRからの音による音像が、リスニング位置LPCより右側の仮想リスニング位置LPRbにおいて、ターゲット位置TPRbに定位する。
 ここで、ターゲット位置TPLbに対する効果エリアEALbは、仮想リスニング位置LPLbを基準にしてターゲット位置TPLbの反対側に偏り、ターゲット位置TPLb側が狭く、ターゲット位置TPLbの反対側が広くなる。すなわち、効果エリアEALbは、仮想リスニング位置LPLbより左側が狭くなり、右側が広くなる。一方、リスニング位置LPCは、仮想リスニング位置LPLbより右側にあるため、リスニング位置LPCにおいては、仮想リスニング位置LPLbと比較して、効果エリアEALbの左右の偏りが小さくなる。
 一方、ターゲット位置TPRbに対する効果エリアEARbは、仮想リスニング位置LPRbを基準にしてターゲット位置TPRbの反対側に偏り、ターゲット位置TPRb側が狭く、ターゲット位置TPRbの反対側が広くなる。すなわち、効果エリアEARbは、仮想リスニング位置LPRbより右側が狭くなり、左側が広くなる。一方、リスニング位置LPCは、仮想リスニング位置LPRbより左側にあるため、リスニング位置LPCにおいては、仮想リスニング位置LPRbと比較して、効果エリアEARbの左右の偏りが小さくなる。
 以上により、効果エリアEALbと効果エリアEARbとが重なるエリアであるサービスエリアSAbが、図5のサービスエリアSAaと比較して左右方向に広がり、面積が大きくなる。従って、リスナー102が、リスニング位置LPCからある程度左右方向に移動しても、サービスエリアSAb内に留まり、リスナー13が感じる注目帯域に対する音像が、ターゲット位置TPLb及びターゲット位置TPRbの近くに定位する。その結果、注目帯域に対するリスナー13の定位感が向上する。
 なお、効果エリアEALbは、スピーカ112LLとターゲット位置TPLbとの間の距離が近くなるほど広くなる。同様に、効果エリアEARbは、スピーカ112RRとターゲット位置TPRbとの間の距離が近くなるほど広くなる。そして、効果エリアEALb又は効果エリアEARbの少なくとも一方が広くなることにより、サービスエリアSAbも広くなる。
{音響信号処理システム101の外観構成例}
 図10は、音響信号処理システム101の外観の構成例を示す正面図である。音響信号処理システム101は、筐体201、スピーカ211C、スピーカ211L1乃至211L3、スピーカ211R1乃至211R3、トゥイータ212L、及び、トゥイータ212Rを含むように構成される。
 筐体201は、薄い箱状であり、左端及び右端が三角形の突起状になっている。例えば、筐体201内に、図示せぬ音響信号処理部111が内蔵される。
 筐体201の前面には、スピーカ211C、スピーカ211L1乃至211L3、スピーカ211R1乃至211R3、トゥイータ212L、及び、トゥイータ212Rが横一列に並ぶように配置されている。なお、トゥイータ212Lとスピーカ211L3により1つのスピーカユニットが構成され、トゥイータ212Rとスピーカ211R3により1つのスピーカユニットが構成される。
 スピーカ211Cは、筐体201の前面の中央に配置されている。スピーカ211L1乃至211L3及びトゥイータ212Lと、スピーカ211R1乃至211R3及びトゥイータ212Rとは、スピーカ211Cを中心に左右対称に並べられている。スピーカ211L1は、スピーカ211Cの左隣に配置され、スピーカ211R1は、スピーカ211Cの右隣に配置されている。スピーカ211L2は、スピーカ211L1の左隣に配置され、スピーカ211R2は、スピーカ211R1の右隣に配置されている。トゥイータ212Lは、筐体201の前面の左端付近に配置され、トゥイータ212Lの右隣にスピーカ211L3が配置されている。トゥイータ212Rは、筐体201の前面の右端付近に配置され、トゥイータ212Rの左隣にスピーカ211R3が配置されている。
 図6のスピーカ112LLは、スピーカ211L2、又は、トゥイータ212Lとスピーカ211L3によるスピーカユニットにより構成される。スピーカ112LLがスピーカ211L2により構成される場合、図6のスピーカ112RLは、スピーカ211L1により構成される。スピーカ112LLがトゥイータ212Lとスピーカ211L3によるスピーカユニットにより構成される場合、スピーカ112RLは、スピーカ211L1又はスピーカ211L2により構成される。
 図6のスピーカ112RRは、スピーカ211R2、又は、トゥイータ212Rとスピーカ211R3によるスピーカユニットにより構成される。スピーカ112RRがスピーカ211R2により構成される場合、図6のスピーカ112LRは、スピーカ211R1により構成される。スピーカ112RRがトゥイータ212Rとスピーカ211R3によるスピーカユニットにより構成される場合、スピーカ112LRは、スピーカ211R1又はスピーカ211R2により構成される。
 なお、図10の例では、音響信号処理部111と、スピーカ112LL乃至112RRとを一体化する例を示したが、音響信号処理部111とスピーカ112LL乃至112RRを個別に設けるようにしてもよい。また、スピーカ112LL乃至112RRをそれぞれ個別に設け、個別に位置を調整できるようにしてもよい。
<3.第2の実施の形態>
 次に、図11を参照して、本技術を適用した音響信号処理システムの第2の実施の形態について説明する。
 図11は、本技術の第2の実施の形態である音響信号処理システム301の機能の構成例を示している。なお、図中、図6と対応する部分には、同じ符号を付してあり、処理が同じ部分については、その説明は繰り返しになるので適宜省略する。
 音響信号処理システム301は、図6の音響信号処理システム101と比較して、音響信号処理部111の代わりに音響信号処理部311が設けられている点が異なる。音響信号処理部311は、音響信号処理部111と比較して、トランスオーラル処理部121の代わりにトランスオーラル処理部の別形態であるトランスオーラル一体化処理部321が設けられている点が異なる。トランスオーラル一体化処理部321は、信号処理部331LL乃至331RRを含むように構成される。信号処理部331LL乃至331RRは、例えば、FIR(有限インパルス応答)フィルタにより構成される。
 トランスオーラル一体化処理部321は、音響信号SLin及び音響信号SRinに対して、バイノーラル化処理及びクロストーク補正処理の一体化処理を行う。例えば、信号処理部331LLは、音響信号SLinに対して次式(5)に示される処理を施し、出力信号SLLoutを生成する。
 SLLout={HLL*f1(G1L,G2L)+HLR*f2(G1L,G2L)}×SLin ・・・(5)
 この出力信号SLLoutは、音響信号処理システム101における出力信号SLLoutと同じ信号となる。信号処理部331LLは、出力信号SLLoutを出力制御部122に供給する。
 信号処理部331LRは、音響信号SLinに対して次式(6)に示される処理を施し、出力信号SLRoutを生成する。
 SLRout={HLR*f1(G1L,G2L)+HLL*f2(G1L,G2L)}×SLin ・・・(6)
 この出力信号SLRoutは、音響信号処理システム101における出力信号SLRoutと同じ信号となる。信号処理部331LRは、出力信号SLRoutを出力制御部122に供給する。
 信号処理部331RLは、音響信号SRinに対して次式(7)に示される処理を施し、出力信号SRLoutを生成する。
 SRLout={HRL*f1(G1R,G2R)+HRR*f2(G1R,G2R)}×SRin ・・・(7)
 この出力信号SRLoutは、音響信号処理システム101における出力信号SRLoutと同じ信号となる。信号処理部331RLは、出力信号SRLoutを出力制御部122に供給する。
 信号処理部331RRは、音響信号SRinに対して次式(8)に示される処理を施し、出力信号SRRoutを生成する。
 SRRout={HRR*f1(G1R,G2R)+HRL*f2(G1R,G2R)}×SRin ・・・(8)
 この出力信号SRRoutは、音響信号処理システム101における出力信号SRRoutと同じ信号となる。信号処理部331RRは、出力信号SRRoutを出力制御部122に供給する。
 これにより、音響信号処理システム301でも、音響信号処理システム101と同様に、注目帯域に対するサービスエリアを左右方向に拡大することができる。また、音響信号処理システム301では、音響信号処理システム101と比較して、一般的に信号処理の負荷を軽減することが期待できる。
<4.第3の実施の形態>
 次に、図12及び図13を参照して、本技術を適用した音響信号処理システムの第3の実施の形態について説明する。
 図12は、本技術の第3の実施の形態である音響信号処理システム401の機能の構成例を示している。なお、図中、図6と対応する部分には、同じ符号を付してあり、処理が同じ部分については、その説明は繰り返しになるので適宜省略する。
 音響信号処理システム401は、図6の音響信号処理システム101と比較して、音響信号処理部111の代わりに音響信号処理部411が設けられ、スピーカ112LR及びスピーカ112RLの代わりに、スピーカ112Cが設けられている点が異なる。音響信号処理部411は、音響信号処理部111と比較して、出力制御部122の代わりに出力制御部421が設けられている点が異なる。出力制御部421は、加算部431を含むように構成される。
 出力制御部421は、図6の出力制御部122と同様に、加算部153LLから供給される出力信号SLLoutをスピーカ112LLに出力し、加算部153RRから供給される出力信号SRRoutをスピーカ112RRに出力する。一方、出力制御部421の加算部431は、加算部153LRから供給される出力信号SLRoutと、加算部153RLから供給される出力信号SRLoutとを加算し、出力信号SCoutを生成する。加算部431は、出力信号SCoutをスピーカ112Cに出力する。
 スピーカ112LLは、出力信号SLLoutに基づく音を出力し、スピーカ112RRは、出力信号SRRoutに基づく音を出力する。スピーカ112Cは、出力信号SCoutに基づく音を出力する。
 図13は、スピーカ112LL乃至112RRの配置例を示している。例えば、スピーカ112LL乃至112RRは、リスニング位置LPCの前方に、左からスピーカ112LL、スピーカ112C、スピーカ112RRの順にほぼ横一列に並べられている。スピーカ112LL及びスピーカ112RRは、上述した図7と同じ位置に配置される。一方、スピーカ112Cは、リスニング位置LPCのほぼ正面に配置される。また、スピーカ112LLとスピーカ112Cの間隔と、スピーカ112Cとスピーカ112RRの間隔とは、ほぼ等しい距離に設定されている。
 そして、スピーカ112LL及びスピーカ112Cからの音による音像が、リスニング位置LPCより左側の仮想リスニング位置LPLcにおいてターゲット位置TPLcに定位する。仮想リスニング位置LPLcは、左右方向においてスピーカ112LLとスピーカ112Cのほぼ中央に位置する。ターゲット位置TPLcは、仮想リスニング位置LPLcの前方かつ左側であって、スピーカ112LLより左側に位置する。
 また、スピーカ112C及びスピーカ112RRからの音による音像が、リスニング位置LPCより右側の仮想リスニング位置LPRcにおいてターゲット位置TPRcに定位する。仮想リスニング位置LPRcは、左右方向においてスピーカ112Cとスピーカ112RRのほぼ中央に位置する。ターゲット位置TPRcは、仮想リスニング位置LPRcの前方かつ右側であって、スピーカ112RRより右側に位置する。
 ここで、ターゲット位置TPLcに対する効果エリアEALcは、仮想リスニング位置LPLcを基準にしてターゲット位置TPLcの反対側に偏り、ターゲット位置TPLc側が狭く、ターゲット位置TPLcの反対側が広くなる。すなわち、効果エリアEALcは、仮想リスニング位置LPLcより左側が狭くなり、右側が広くなる。一方、リスニング位置LPCは、仮想リスニング位置LPLcより右側にあるため、リスニング位置LPCにおいては、仮想リスニング位置LPLcと比較して、効果エリアEALcの左右の偏りが小さくなる。
 一方、ターゲット位置TPRcに対する効果エリアEARcは、仮想リスニング位置LPRcを基準にしてターゲット位置TPRcの反対側に偏り、ターゲット位置TPRc側が狭く、ターゲット位置TPRcの反対側が広くなる。すなわち、効果エリアEARcは、仮想リスニング位置LPRcより右側が狭くなり、左側が広くなる。一方、リスニング位置LPCは、仮想リスニング位置LPRcより左側にあるため、リスニング位置LPCにおいては、仮想リスニング位置LPRcと比較して、効果エリアEARcの左右の偏りが小さくなる。
 以上により、効果エリアEALcと効果エリアEARcとが重なるエリアであるサービスエリアSAcが、図5のサービスエリアSAaと比較して左右方向に広がり、面積が大きくなる。従って、リスナー102が、リスニング位置LPCからある程度左右方向に移動しても、サービスエリアSAc内に留まり、リスナー13が感じる注目帯域に対する音像が、ターゲット位置TPLc及びターゲット位置TPRcの近くに定位する。その結果、スピーカの数を削減したにも関わらず、注目帯域に対するリスナー13の定位感が向上する。
 なお、音響信号処理システム401は、音響信号処理システム101において、スピーカ112LRとスピーカ112RLをリスニング位置LPCのほぼ正面に配置した場合とほぼ同様の効果を奏することができる。
<5.第4の実施の形態>
 次に、図14を参照して、本技術を適用した音響信号処理システムの第4の実施の形態について説明する。
 図14は、本技術の第4の実施の形態である音響信号処理システム501の機能の構成例を示す図である。なお、図中、図11及び図12と対応する部分には、同じ符号を付してあり、処理が同じ部分については、その説明は繰り返しになるので適宜省略する。
 音響信号処理システム501は、図12の音響信号処理システム401と比較して、音響信号処理部411の代わりに音響信号処理部511が設けられている点が異なる。音響信号処理部511は、音響信号処理部411と比較して、トランスオーラル処理部121の代わりに、図11の音響信号処理システム301のトランスオーラル一体化処理部321が設けられている点が異なる。
 すなわち、音響信号処理システム501は、図12の音響信号処理システム401と比較して、トランスオーラル一体化処理が行われる点が異なる。これにより、音響信号処理システム501では、音響信号処理システム401と比較して、一般的に信号処理の負荷を軽減することが期待できる。
<6.第5の実施の形態>
 次に、図15を参照して、本技術を適用した音響信号処理システムの第5の実施の形態について説明する。
 図15は、本技術の第5の実施の形態である音響信号処理システム601の機能の構成例を示す図である。なお、図中、図14と対応する部分には、同じ符号を付してあり、処理が同じ部分については、その説明は繰り返しになるので適宜省略する。
 音響信号処理システム601は、以下の式(9)乃至(12)が成立する場合に、図14の音響信号処理システム501の変形例として実施することができる。
 頭部音響伝達関数HLL=頭部音響伝達関数HRR ・・・(9)
 頭部音響伝達関数HLR=頭部音響伝達関数HRL ・・・(10)
 頭部音響伝達関数G1L=頭部音響伝達関数G1R ・・・(11)
 頭部音響伝達関数G2L=頭部音響伝達関数G2R ・・・(12)
 すなわち、式(9)乃至(12)が成立する場合、音響信号処理システム501の信号処理部331LRと信号処理部331RLの処理は同じ処理となる。そこで、音響信号処理システム601では、音響信号処理システム501から信号処理部331RLを削除した構成を有している。
 具体的には、音響信号処理システム601は、音響信号処理システム501と比較して、音響信号処理部511の代わりに音響信号処理部611が設けられている点が異なる。音響信号処理部611は、トランスオーラル一体化処理部621及び出力制御部622を含むように構成される。
 トランスオーラル化一体処理部621は、音響信号処理システム501のトランスオーラル一体化処理部321と比較して、加算部631が追加され、信号処理部331RLが削除されている点が異なる。
 加算部631は、音響信号SLinと音響信号SRinを加算し、音響信号SCinを生成する。加算部631は、音響信号SCinを信号処理部331LRに供給する。
 信号処理部331LRは、音響信号SCinに対して、上述した式(6)に示される処理を施し、出力信号SCoutを生成する。この出力信号SCoutは、音響信号処理システム501の出力信号SCoutと同じ信号となる。すなわち、音響信号SLinと音響信号SRinに対して同時に式(6)に示される処理が施され、出力信号SLRoutと出力信号SRLoutを合成した出力信号SCoutが生成される。
 出力制御部622は、音響信号処理システム501の出力制御部421と比較して、加算部431が削除されている点が異なる。そして、出力制御部622は、トランスオーラル一体化処理部621から供給される出力信号SLLout、SCout、及び、SRRoutを、それぞれスピーカ112LL、112C、及び、112RRに出力する。
 なお、上述したように、信号処理部331LRと信号処理部331RLの処理は同じ処理なので、信号処理部331LRの代わりに信号処理部331RLを設けてもよい。
<7.変形例>
 以下、上述した本技術の実施の形態の変形例について説明する。
{スピーカの位置に関する変形例}
 音響信号処理システム101及び音響信号処理システム301において、スピーカ112LL乃至112RRは、必ずしも横一列に並べる必要はなく、例えば、リスニング位置LPCに対して互いに前後してもよい。また、例えば、スピーカ112LL乃至112RRが、互いに異なる高さに配置されてもよい。さらに、スピーカ112LLとスピーカ112LRの間隔と、スピーカ112RLとスピーカ112RRの間隔とが、必ずしも一致していなくてもよい。
 なお、スピーカ112LL乃至112RRがほぼ横一列に並び、スピーカ112LLとスピーカ112LRの間隔と、スピーカ112RLとスピーカ112RRの間隔とがほぼ等しい場合、音響設計が容易になり、音像を所定の位置に定位させやすくなる。
 また、スピーカ112LL乃至112RRを全てリスニング位置LPCの後方に配置することも可能である。この場合、スピーカ112LL乃至112RRのリスニング位置LPCに対する左右方向の位置関係は、スピーカ112LL乃至112RRを全てリスニング位置LPCの前方に配置する場合と同様になる。
 同様に、音響信号処理システム401乃至601において、スピーカ112LL乃至112RRは、必ずしも横一列に並べる必要はなく、例えば、リスニング位置LPCに対して互いに前後してもよい。また、例えば、スピーカ112LL乃至112RRが、互いに異なる高さに配置されてもよい。さらに、スピーカ112LLとスピーカ112Cの間隔と、スピーカ112Cとスピーカ112RRの間隔とが、必ずしも一致していなくてもよい。
 なお、スピーカ112LL乃至112RRがほぼ横一列に並び、スピーカ112LLとスピーカ112Cの間隔と、スピーカ112Cとスピーカ112RRの間隔とがほぼ等しい場合、音響設計が容易になり、音像を所定の位置に定位させやすくなる。
 また、スピーカ112LL乃至112RRを全てリスニング位置LPCの後方に配置することも可能である。この場合、スピーカ112LL乃至112RRのリスニング位置LPCに対する左右方向の位置関係は、スピーカ112LL乃至112RRを全てリスニング位置LPCの前方に配置する場合と同様になる。従って、例えば、スピーカ112Cは、リスニング位置LPCのほぼ背面に配置される。
{ターゲット位置に関する変形例}
 また、図7のターゲット位置TPLbとターゲット位置TPRbは、必ずしもリスニング位置LPCを基準にして左右対称の位置に配置させる必要はない。また、ターゲット位置TPLbを仮想リスニング位置LPLbの前方かつ左側であって、スピーカ112LLより右側に配置したり、ターゲット位置TPRbを仮想リスニング位置LPRbの前方かつ右側であって、スピーカ112RRより左側に配置したりすることも可能である。
 また、ターゲット位置TPLbをリスニング位置LPCの後方に配置することも可能である。同様に、ターゲット位置TPRbをリスニング位置LPCの後方に配置することも可能である。なお、ターゲット位置TPLb及びターゲット位置TPRbの一方をリスニング位置LPCの前方に配置し、他方をリスニング位置LPCの後方に配置することも可能である。
 同様に、図13のターゲット位置TPLcとターゲット位置TPRcは、必ずしもリスニング位置LPCを基準にして左右対称の位置に配置させる必要はない。また、ターゲット位置TPLcを仮想リスニング位置LPLcの前方かつ左側であって、スピーカ112LLより右側に配置したり、ターゲット位置TPRcを仮想リスニング位置LPRcの前方かつ右側であって、スピーカ112RRより左側に配置したりすることも可能である。
 また、ターゲット位置TPLcをリスニング位置LPCの後方に配置することも可能である。同様に、ターゲット位置TPRcをリスニング位置LPCの後方に配置することも可能である。なお、ターゲット位置TPLc及びターゲット位置TPRcの一方をリスニング位置LPCの前方に配置し、他方をリスニング位置LPCの後方に配置することも可能である。
{注目帯域について}
 注目帯域は、システムの構成や性能、スピーカの配置、システムを設置する環境等の要因によって異なる。従って、各要因を考慮して、注目帯域を設定することが望ましい。なお、同じシステムの場合、対になるスピーカの間隔が狭くなるほど、注目帯域が広くなる傾向にあることが実験的に分かっている。
 また、注目帯域より上の周波数帯域については、上述した方法と異なる方法でサービスエリアを広げるようにすることが望ましい。
{コンピュータの構成例}
 上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
 図16は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
 コンピュータにおいて、CPU(Central Processing Unit)701,ROM(Read Only Memory)702,RAM(Random Access Memory)703は、バス704により相互に接続されている。
 バス704には、さらに、入出力インタフェース705が接続されている。入出力インタフェース705には、入力部706、出力部707、記憶部708、通信部709、及びドライブ710が接続されている。
 入力部706は、キーボード、マウス、マイクロフォンなどよりなる。出力部707は、ディスプレイ、スピーカなどよりなる。記憶部708は、ハードディスクや不揮発性のメモリなどよりなる。通信部709は、ネットワークインタフェースなどよりなる。ドライブ710は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア711を駆動する。
 以上のように構成されるコンピュータでは、CPU701が、例えば、記憶部708に記憶されているプログラムを、入出力インタフェース705及びバス704を介して、RAM703にロードして実行することにより、上述した一連の処理が行われる。
 コンピュータ(CPU701)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア711に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
 コンピュータでは、プログラムは、リムーバブルメディア711をドライブ710に装着することにより、入出力インタフェース705を介して、記憶部708にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部709で受信し、記憶部708にインストールすることができる。その他、プログラムは、ROM702や記憶部708に、あらかじめインストールしておくことができる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
 さらに、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
 さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
 また、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
 さらに、例えば、本技術は以下のような構成も取ることができる。
(1)
 所定のリスニング位置の前方又は後方である第1の方向かつ左側に配置された第1のスピーカ、及び、前記リスニング位置の前記第1の方向かつ右側に配置された第2のスピーカからの音による音像を、前記リスニング位置より左側の第1の位置において前記第1の位置の前方又は後方である第2の方向かつ左側に定位させるトランスオーラル処理を第1の音響信号に対して行うことにより、左側のスピーカ用の第1の出力信号及び右側のスピーカ用の第2の出力信号を生成し、前記リスニング位置の前記第1の方向かつ左側であって、前記第1のスピーカより右側に配置された前記第3のスピーカ、及び、前記リスニング位置の前記第1の方向かつ前記第2のスピーカより右側に配置された第4のスピーカからの音による音像を、前記リスニング位置より右側の第2の位置において前記第2の位置の前方又は後方である第3の方向かつ右側に定位させるトランスオーラル処理を第2の音響信号に対して行うことにより、左側のスピーカ用の第3の出力信号及び右側のスピーカ用の第4の出力信号を生成するトランスオーラル処理部と、
 前記第1の出力信号を前記第1のスピーカに出力し、前記第2の出力信号を前記第2のスピーカに出力し、前記第3の出力信号を前記第3のスピーカに出力し、前記第4の出力信号を前記第4のスピーカに出力するように制御する出力制御部と
 を備える音響信号処理装置。
(2)
 前記第1のスピーカ乃至前記第4のスピーカを
 さらに備える前記(1)に記載の音響信号処理装置。
(3)
 前記第1のスピーカと前記第2のスピーカの間隔と、前記第3のスピーカと前記第4のスピーカの間隔とがほぼ等しい
 前記(2)に記載の音響信号処理装置。
(4)
 前記リスニング位置に対して、前記第1のスピーカ乃至前記第4のスピーカが横方向にほぼ一列に並んでいる
 前記(2)又は(3)に記載の音響信号処理装置。
(5)
 所定のリスニング位置の前方又は後方である第1の方向かつ左側に配置された第1のスピーカ、及び、前記リスニング位置の前記第1の方向かつ右側に配置された第2のスピーカからの音による音像を、前記リスニング位置より左側の第1の位置において前記第1の位置の前方又は後方である第2の方向かつ左側に定位させるトランスオーラル処理を第1の音響信号に対して行うことにより、左側のスピーカ用の第1の出力信号及び右側のスピーカ用の第2の出力信号を生成し、前記リスニング位置の前記第1の方向かつ左側であって、前記第1のスピーカより右側に配置された前記第3のスピーカ、及び、前記リスニング位置の前記第1の方向かつ前記第2のスピーカより右側に配置された第4のスピーカからの音による音像を、前記リスニング位置より右側の第2の位置において前記第2の位置の前方又は後方である第3の方向かつ右側に定位させるトランスオーラル処理を第2の音響信号に対して行うことにより、左側のスピーカ用の第3の出力信号及び右側のスピーカ用の第4の出力信号を生成するトランスオーラル処理ステップと、
 前記第1の出力信号を前記第1のスピーカに出力し、前記第2の出力信号を前記第2のスピーカに出力し、前記第3の出力信号を前記第3のスピーカに出力し、前記第4の出力信号を前記第4のスピーカに出力するように制御する出力制御ステップと
 を含む音響信号処理方法。
(6)
 所定のリスニング位置の前方又は後方である第1の方向かつ左側に配置された第1のスピーカ、及び、前記リスニング位置の前記第1の方向かつ右側に配置された第2のスピーカからの音による音像を、前記リスニング位置より左側の第1の位置において前記第1の位置の前方又は後方である第2の方向かつ左側に定位させるトランスオーラル処理を第1の音響信号に対して行うことにより、左側のスピーカ用の第1の出力信号及び右側のスピーカ用の第2の出力信号を生成し、前記リスニング位置の前記第1の方向かつ左側であって、前記第1のスピーカより右側に配置された前記第3のスピーカ、及び、前記リスニング位置の前記第1の方向かつ前記第2のスピーカより右側に配置された第4のスピーカからの音による音像を、前記リスニング位置より右側の第2の位置において前記第2の位置の前方又は後方である第3の方向かつ右側に定位させるトランスオーラル処理を第2の音響信号に対して行うことにより、左側のスピーカ用の第3の出力信号及び右側のスピーカ用の第4の出力信号を生成するトランスオーラル処理ステップと、
 前記第1の出力信号を前記第1のスピーカに出力し、前記第2の出力信号を前記第2のスピーカに出力し、前記第3の出力信号を前記第3のスピーカに出力し、前記第4の出力信号を前記第4のスピーカに出力するように制御する出力制御ステップと
 を含む処理をコンピュータに実行させるためのプログラム。
(7)
 所定のリスニング位置の前方又は後方である第1の方向かつ左側に配置された第1のスピーカ、及び、前記リスニング位置の前記第1の方向であって前記リスニング位置のほぼ正面又はほぼ背面に配置された第2のスピーカからの音による音像を、前記リスニング位置より左側の第1の位置において前記第1の位置の前方又は後方である第2の方向かつ左側に定位させるトランスオーラル処理を第1の音響信号に対して行うことにより、左側のスピーカ用の第1の出力信号及び右側のスピーカ用の第2の出力信号を生成し、前記第2のスピーカ、及び、前記リスニング位置の前記第1の方向かつ右側に配置された第3のスピーカからの音による音像を、前記リスニング位置より右側の第2の位置において前記第2の位置の前方又は後方である第3の方向かつ右側に定位させるトランスオーラル処理を第2の音響信号に対して行うことにより、左側のスピーカ用の第3の出力信号及び右側のスピーカ用の第4の出力信号を生成するトランスオーラル処理部と、
 前記第1の出力信号を前記第1のスピーカに出力し、前記第2の出力信号と前記第3の出力信号の合成信号を前記第2のスピーカに出力し、前記第4の出力信号を前記第3のスピーカに出力するように制御する出力制御部と
 を備える音響信号処理装置。
(8)
 前記第1のスピーカ乃至前記第3のスピーカを
 さらに備える前記(7)に記載の音響信号処理装置。
(9)
 前記第1のスピーカと前記第2のスピーカの間隔と、前記第2のスピーカと前記第3のスピーカの間隔とがほぼ等しい
 前記(8)に記載の音響信号処理装置。
(10)
 前記リスニング位置に対して、前記第1のスピーカ乃至前記第3のスピーカが横方向にほぼ一列に並んでいる
 前記(8)又は(9)に記載の音響信号処理装置。
(11)
 所定のリスニング位置の前方又は後方である第1の方向かつ左側に配置された第1のスピーカ、及び、前記リスニング位置の前記第1の方向であって前記リスニング位置のほぼ正面又はほぼ背面に配置された第2のスピーカからの音による音像を、前記リスニング位置より左側の第1の位置において前記第1の位置の前方又は後方である第2の方向かつ左側に定位させるトランスオーラル処理を第1の音響信号に対して行うことにより、左側のスピーカ用の第1の出力信号及び右側のスピーカ用の第2の出力信号を生成し、前記第2のスピーカ、及び、前記リスニング位置の前記第1の方向かつ右側に配置された第3のスピーカからの音による音像を、前記リスニング位置より右側の第2の位置において前記第2の位置の前方又は後方である第3の方向かつ右側に定位させるトランスオーラル処理を第2の音響信号に対して行うことにより、左側のスピーカ用の第3の出力信号及び右側のスピーカ用の第4の出力信号を生成するトランスオーラル処理ステップと、
 前記第1の出力信号を前記第1のスピーカに出力し、前記第2の出力信号と前記第3の出力信号の合成信号を前記第2のスピーカに出力し、前記第4の出力信号を前記第3のスピーカに出力するように制御する出力制御ステップと
 を含む音響信号処理方法。
(12)
 所定のリスニング位置の前方又は後方である第1の方向かつ左側に配置された第1のスピーカ、及び、前記リスニング位置の前記第1の方向であって前記リスニング位置のほぼ正面又はほぼ背面に配置された第2のスピーカからの音による音像を、前記リスニング位置より左側の第1の位置において前記第1の位置の前方又は後方である第2の方向かつ左側に定位させるトランスオーラル処理を第1の音響信号に対して行うことにより、左側のスピーカ用の第1の出力信号及び右側のスピーカ用の第2の出力信号を生成し、前記第2のスピーカ、及び、前記リスニング位置の前記第1の方向かつ右側に配置された第3のスピーカからの音による音像を、前記リスニング位置より右側の第2の位置において前記第2の位置の前方又は後方である第3の方向かつ右側に定位させるトランスオーラル処理を第2の音響信号に対して行うことにより、左側のスピーカ用の第3の出力信号及び右側のスピーカ用の第4の出力信号を生成するトランスオーラル処理ステップと、
 前記第1の出力信号を前記第1のスピーカに出力し、前記第2の出力信号と前記第3の出力信号の合成信号を前記第2のスピーカに出力し、前記第4の出力信号を前記第3のスピーカに出力するように制御する出力制御ステップと
 を含む処理をコンピュータに実行させるためのプログラム。
(13)
 所定のリスニング位置の前方又は後方である第1の方向かつ左側に配置された第1のスピーカと、
 前記リスニング位置の前記第1の方向かつ右側に配置された第2のスピーカと、
 前記リスニング位置の前記第1の方向かつ左側であって、前記第1のスピーカより右側に配置された第3のスピーカと、
 前記リスニング位置の前記第1の方向かつ前記第2のスピーカより右側に配置された第4のスピーカと
 を備え、
 前記第1のスピーカ及び前記第2のスピーカからの音による音像を、前記リスニング位置より左側の第1の位置において前記第1の位置の前方又は後方である第2の方向かつ左側に定位させるトランスオーラル処理を第1の音響信号に対して行うことにより生成される、左側のスピーカ用の第1の出力信号及び右側のスピーカ用の第2の出力信号のうち前記第1の出力信号に基づく音を前記第1のスピーカから出力し、
 前記第2の出力信号に基づく音を前記第2のスピーカから出力し、
 前記第3のスピーカ及び前記第4のスピーカからの音による音像を、前記リスニング位置より右側の第2の位置において前記第2の位置の前方又は後方である第3の方向かつ右側に定位させるトランスオーラル処理を第2の音響信号に対して行うことにより生成される、左側のスピーカ用の第3の出力信号及び右側のスピーカ用の第4の出力信号のうち前記第3の出力信号に基づく音を前記第3のスピーカから出力し、
 前記第4の出力信号に基づく音を前記第4のスピーカから出力する
 音響信号処理装置。
(14)
 前記第1のスピーカと前記第2のスピーカの間隔と、前記第3のスピーカと前記第4のスピーカの間隔とがほぼ等しい
 前記(13)に記載の音響信号処理装置。
(15)
 前記リスニング位置に対して、前記第1のスピーカ乃至前記第4のスピーカが横方向にほぼ一列に並んでいる
 前記(13)又は(14)に記載の音響信号処理装置。
(16)
 第1のスピーカを所定のリスニング位置の前方又は後方である第1の方向かつ左側に配置し、
 第2のスピーカを前記リスニング位置の前記第1の方向かつ右側に配置し、
 第3のスピーカを前記リスニング位置の前記第1の方向かつ左側であって、前記第1のスピーカより右側に配置し、
 第4のスピーカを前記リスニング位置の前記第1の方向かつ前記第2のスピーカより右側に配置し、
 前記第1のスピーカ及び前記第2のスピーカからの音による音像を、前記リスニング位置より左側の第1の位置において前記第1の位置の前方又は後方である第2の方向かつ左側に定位させるトランスオーラル処理を第1の音響信号に対して行うことにより生成される、左側のスピーカ用の第1の出力信号及び右側のスピーカ用の第2の出力信号のうち前記第1の出力信号に基づく音を前記第1のスピーカから出力し、
 前記第2の出力信号に基づく音を前記第2のスピーカから出力し、
 前記第3のスピーカ及び前記第4のスピーカからの音による音像を、前記リスニング位置より右側の第2の位置において前記第2の位置の前方又は後方である第3の方向かつ右側に定位させるトランスオーラル処理を第2の音響信号に対して行うことにより生成される、左側のスピーカ用の第3の出力信号及び右側のスピーカ用の第4の出力信号のうち前記第3の出力信号に基づく音を前記第3のスピーカから出力し、
 前記第4の出力信号に基づく音を前記第4のスピーカから出力する
 音響信号処理方法。
(17)
 所定のリスニング位置の前方又は後方である第1の方向かつ左側に配置された第1のスピーカと、
 前記リスニング位置の前記第1の方向であって前記リスニング位置のほぼ正面又はほぼ背面に配置された第2のスピーカと、
 前記リスニング位置の前記第1の方向かつ右側に配置された第3のスピーカと
 を備え、
 前記第1のスピーカ及び前記第2のスピーカからの音による音像を、前記リスニング位置より左側の第1の位置において前記第1の位置の前方又は後方である第2の方向かつ左側に定位させるトランスオーラル処理を第1の音響信号に対して行うことにより生成される、左側のスピーカ用の第1の出力信号及び右側のスピーカ用の第2の出力信号のうち前記第1の出力信号に基づく音を前記第1のスピーカから出力し、
 前記第2のスピーカ及び前記第3のスピーカからの音による音像を、前記リスニング位置より右側の第2の位置において前記第2の位置の前方又は後方である第3の方向かつ右側に定位させるトランスオーラル処理を第2の音響信号に対して行うことにより生成される、左側のスピーカ用の第3の出力信号及び右側のスピーカ用の第4の出力信号のうち前記第4の出力信号に基づく音を前記第3のスピーカから出力し、
 前記第2の出力信号と前記第3の出力信号の合成信号に基づく音を前記第2のスピーカから出力する
 音響信号処理装置。
(18)
 前記第1のスピーカと前記第2のスピーカの間隔と、前記第2のスピーカと前記第3のスピーカの間隔とがほぼ等しい
 前記(17)に記載の音響信号処理装置。
(19)
 前記リスニング位置に対して、前記第1のスピーカ乃至前記第3のスピーカが横方向にほぼ一列に並んでいる
 前記(17)又は(18)に記載の音響信号処理装置。
(20)
 第1のスピーカを所定のリスニング位置の前方又は後方である第1の方向かつ左側に配置し、
 第2のスピーカを前記リスニング位置の前記第1の方向であって前記リスニング位置のほぼ正面又はほぼ背面に配置し、
 第3のスピーカを前記リスニング位置の前記第1の方向かつ右側に配置し、
 前記第1のスピーカ及び前記第2のスピーカからの音による音像を、前記リスニング位置より左側の第1の位置において前記第1の位置の前方又は後方である第2の方向かつ左側に定位させるトランスオーラル処理を第1の音響信号に対して行うことにより生成される、左側のスピーカ用の第1の出力信号及び右側のスピーカ用の第2の出力信号のうち前記第1の出力信号に基づく音を前記第1のスピーカから出力し、
 前記第2のスピーカ及び前記第3のスピーカからの音による音像を、前記リスニング位置より右側の第2の位置において前記第2の位置の前方又は後方である第3の方向かつ右側に定位させるトランスオーラル処理を第2の音響信号に対して行うことにより生成される、左側のスピーカ用の第3の出力信号及び右側のスピーカ用の第4の出力信号のうち前記第4の出力信号に基づく音を前記第3のスピーカから出力し、
 前記第2の出力信号と前記第3の出力信号の合成信号に基づく音を前記第2のスピーカから出力する
 音響信号処理方法。
 101 音響信号処理システム, 102 リスナー, 111 音響信号処理部, 112LL乃至112RR,112C スピーカ, 121 トランスオーラル処理部, 122 出力制御部, 131 バイノーラル化処理部, 132 クロストーク補正処理部, 141LL乃至141RR バイノーラル信号生成部, 151LL乃至151RR,152LL乃至152RR 信号処理部, 153LL乃至153RR 加算部, 201 筐体, 211C,211L1乃至211L3,211R1乃至211R3 スピーカ, 212L,212R トゥイータ, 301 音響信号処理システム, 311 音響信号処理部, 321 トランスオーラル一体化処理部, 331LL乃至331RR 信号処理部, 401 音響信号処理システム, 411 音響信号処理部, 421 出力制御部, 431 加算部, 501 音響信号処理システム, 511 音響信号処理部, 601 音響信号処理システム, 611 音響信号処理部, 621 トランスオーラル一体化処理部, 622 出力制御部, 631 加算部, LPa,LPC リスニング位置, LPLb,LPLc,LPRb,LPRc 仮想リスニング位置, TPLa乃至TPLc,TPRa乃至TPRc ターゲット位置, EALa乃至EALc,EARa乃至EARc 効果エリア, SAa乃至SAc サービスエリア

Claims (20)

  1.  所定のリスニング位置の前方又は後方である第1の方向かつ左側に配置された第1のスピーカ、及び、前記リスニング位置の前記第1の方向かつ右側に配置された第2のスピーカからの音による音像を、前記リスニング位置より左側の第1の位置において前記第1の位置の前方又は後方である第2の方向かつ左側に定位させるトランスオーラル処理を第1の音響信号に対して行うことにより、左側のスピーカ用の第1の出力信号及び右側のスピーカ用の第2の出力信号を生成し、前記リスニング位置の前記第1の方向かつ左側であって、前記第1のスピーカより右側に配置された前記第3のスピーカ、及び、前記リスニング位置の前記第1の方向かつ前記第2のスピーカより右側に配置された第4のスピーカからの音による音像を、前記リスニング位置より右側の第2の位置において前記第2の位置の前方又は後方である第3の方向かつ右側に定位させるトランスオーラル処理を第2の音響信号に対して行うことにより、左側のスピーカ用の第3の出力信号及び右側のスピーカ用の第4の出力信号を生成するトランスオーラル処理部と、
     前記第1の出力信号を前記第1のスピーカに出力し、前記第2の出力信号を前記第2のスピーカに出力し、前記第3の出力信号を前記第3のスピーカに出力し、前記第4の出力信号を前記第4のスピーカに出力するように制御する出力制御部と
     を備える音響信号処理装置。
  2.  前記第1のスピーカ乃至前記第4のスピーカを
     さらに備える請求項1に記載の音響信号処理装置。
  3.  前記第1のスピーカと前記第2のスピーカの間隔と、前記第3のスピーカと前記第4のスピーカの間隔とがほぼ等しい
     請求項2に記載の音響信号処理装置。
  4.  前記リスニング位置に対して、前記第1のスピーカ乃至前記第4のスピーカが横方向にほぼ一列に並んでいる
     請求項2に記載の音響信号処理装置。
  5.  所定のリスニング位置の前方又は後方である第1の方向かつ左側に配置された第1のスピーカ、及び、前記リスニング位置の前記第1の方向かつ右側に配置された第2のスピーカからの音による音像を、前記リスニング位置より左側の第1の位置において前記第1の位置の前方又は後方である第2の方向かつ左側に定位させるトランスオーラル処理を第1の音響信号に対して行うことにより、左側のスピーカ用の第1の出力信号及び右側のスピーカ用の第2の出力信号を生成し、前記リスニング位置の前記第1の方向かつ左側であって、前記第1のスピーカより右側に配置された前記第3のスピーカ、及び、前記リスニング位置の前記第1の方向かつ前記第2のスピーカより右側に配置された第4のスピーカからの音による音像を、前記リスニング位置より右側の第2の位置において前記第2の位置の前方又は後方である第3の方向かつ右側に定位させるトランスオーラル処理を第2の音響信号に対して行うことにより、左側のスピーカ用の第3の出力信号及び右側のスピーカ用の第4の出力信号を生成するトランスオーラル処理ステップと、
     前記第1の出力信号を前記第1のスピーカに出力し、前記第2の出力信号を前記第2のスピーカに出力し、前記第3の出力信号を前記第3のスピーカに出力し、前記第4の出力信号を前記第4のスピーカに出力するように制御する出力制御ステップと
     を含む音響信号処理方法。
  6.  所定のリスニング位置の前方又は後方である第1の方向かつ左側に配置された第1のスピーカ、及び、前記リスニング位置の前記第1の方向かつ右側に配置された第2のスピーカからの音による音像を、前記リスニング位置より左側の第1の位置において前記第1の位置の前方又は後方である第2の方向かつ左側に定位させるトランスオーラル処理を第1の音響信号に対して行うことにより、左側のスピーカ用の第1の出力信号及び右側のスピーカ用の第2の出力信号を生成し、前記リスニング位置の前記第1の方向かつ左側であって、前記第1のスピーカより右側に配置された前記第3のスピーカ、及び、前記リスニング位置の前記第1の方向かつ前記第2のスピーカより右側に配置された第4のスピーカからの音による音像を、前記リスニング位置より右側の第2の位置において前記第2の位置の前方又は後方である第3の方向かつ右側に定位させるトランスオーラル処理を第2の音響信号に対して行うことにより、左側のスピーカ用の第3の出力信号及び右側のスピーカ用の第4の出力信号を生成するトランスオーラル処理ステップと、
     前記第1の出力信号を前記第1のスピーカに出力し、前記第2の出力信号を前記第2のスピーカに出力し、前記第3の出力信号を前記第3のスピーカに出力し、前記第4の出力信号を前記第4のスピーカに出力するように制御する出力制御ステップと
     を含む処理をコンピュータに実行させるためのプログラム。
  7.  所定のリスニング位置の前方又は後方である第1の方向かつ左側に配置された第1のスピーカ、及び、前記リスニング位置の前記第1の方向であって前記リスニング位置のほぼ正面又はほぼ背面に配置された第2のスピーカからの音による音像を、前記リスニング位置より左側の第1の位置において前記第1の位置の前方又は後方である第2の方向かつ左側に定位させるトランスオーラル処理を第1の音響信号に対して行うことにより、左側のスピーカ用の第1の出力信号及び右側のスピーカ用の第2の出力信号を生成し、前記第2のスピーカ、及び、前記リスニング位置の前記第1の方向かつ右側に配置された第3のスピーカからの音による音像を、前記リスニング位置より右側の第2の位置において前記第2の位置の前方又は後方である第3の方向かつ右側に定位させるトランスオーラル処理を第2の音響信号に対して行うことにより、左側のスピーカ用の第3の出力信号及び右側のスピーカ用の第4の出力信号を生成するトランスオーラル処理部と、
     前記第1の出力信号を前記第1のスピーカに出力し、前記第2の出力信号と前記第3の出力信号の合成信号を前記第2のスピーカに出力し、前記第4の出力信号を前記第3のスピーカに出力するように制御する出力制御部と
     を備える音響信号処理装置。
  8.  前記第1のスピーカ乃至前記第3のスピーカを
     さらに備える請求項7に記載の音響信号処理装置。
  9.  前記第1のスピーカと前記第2のスピーカの間隔と、前記第2のスピーカと前記第3のスピーカの間隔とがほぼ等しい
     請求項8に記載の音響信号処理装置。
  10.  前記リスニング位置に対して、前記第1のスピーカ乃至前記第3のスピーカが横方向にほぼ一列に並んでいる
     請求項8に記載の音響信号処理装置。
  11.  所定のリスニング位置の前方又は後方である第1の方向かつ左側に配置された第1のスピーカ、及び、前記リスニング位置の前記第1の方向であって前記リスニング位置のほぼ正面又はほぼ背面に配置された第2のスピーカからの音による音像を、前記リスニング位置より左側の第1の位置において前記第1の位置の前方又は後方である第2の方向かつ左側に定位させるトランスオーラル処理を第1の音響信号に対して行うことにより、左側のスピーカ用の第1の出力信号及び右側のスピーカ用の第2の出力信号を生成し、前記第2のスピーカ、及び、前記リスニング位置の前記第1の方向かつ右側に配置された第3のスピーカからの音による音像を、前記リスニング位置より右側の第2の位置において前記第2の位置の前方又は後方である第3の方向かつ右側に定位させるトランスオーラル処理を第2の音響信号に対して行うことにより、左側のスピーカ用の第3の出力信号及び右側のスピーカ用の第4の出力信号を生成するトランスオーラル処理ステップと、
     前記第1の出力信号を前記第1のスピーカに出力し、前記第2の出力信号と前記第3の出力信号の合成信号を前記第2のスピーカに出力し、前記第4の出力信号を前記第3のスピーカに出力するように制御する出力制御ステップと
     を含む音響信号処理方法。
  12.  所定のリスニング位置の前方又は後方である第1の方向かつ左側に配置された第1のスピーカ、及び、前記リスニング位置の前記第1の方向であって前記リスニング位置のほぼ正面又はほぼ背面に配置された第2のスピーカからの音による音像を、前記リスニング位置より左側の第1の位置において前記第1の位置の前方又は後方である第2の方向かつ左側に定位させるトランスオーラル処理を第1の音響信号に対して行うことにより、左側のスピーカ用の第1の出力信号及び右側のスピーカ用の第2の出力信号を生成し、前記第2のスピーカ、及び、前記リスニング位置の前記第1の方向かつ右側に配置された第3のスピーカからの音による音像を、前記リスニング位置より右側の第2の位置において前記第2の位置の前方又は後方である第3の方向かつ右側に定位させるトランスオーラル処理を第2の音響信号に対して行うことにより、左側のスピーカ用の第3の出力信号及び右側のスピーカ用の第4の出力信号を生成するトランスオーラル処理ステップと、
     前記第1の出力信号を前記第1のスピーカに出力し、前記第2の出力信号と前記第3の出力信号の合成信号を前記第2のスピーカに出力し、前記第4の出力信号を前記第3のスピーカに出力するように制御する出力制御ステップと
     を含む処理をコンピュータに実行させるためのプログラム。
  13.  所定のリスニング位置の前方又は後方である第1の方向かつ左側に配置された第1のスピーカと、
     前記リスニング位置の前記第1の方向かつ右側に配置された第2のスピーカと、
     前記リスニング位置の前記第1の方向かつ左側であって、前記第1のスピーカより右側に配置された第3のスピーカと、
     前記リスニング位置の前記第1の方向かつ前記第2のスピーカより右側に配置された第4のスピーカと
     を備え、
     前記第1のスピーカ及び前記第2のスピーカからの音による音像を、前記リスニング位置より左側の第1の位置において前記第1の位置の前方又は後方である第2の方向かつ左側に定位させるトランスオーラル処理を第1の音響信号に対して行うことにより生成される、左側のスピーカ用の第1の出力信号及び右側のスピーカ用の第2の出力信号のうち前記第1の出力信号に基づく音を前記第1のスピーカから出力し、
     前記第2の出力信号に基づく音を前記第2のスピーカから出力し、
     前記第3のスピーカ及び前記第4のスピーカからの音による音像を、前記リスニング位置より右側の第2の位置において前記第2の位置の前方又は後方である第3の方向かつ右側に定位させるトランスオーラル処理を第2の音響信号に対して行うことにより生成される、左側のスピーカ用の第3の出力信号及び右側のスピーカ用の第4の出力信号のうち前記第3の出力信号に基づく音を前記第3のスピーカから出力し、
     前記第4の出力信号に基づく音を前記第4のスピーカから出力する
     音響信号処理装置。
  14.  前記第1のスピーカと前記第2のスピーカの間隔と、前記第3のスピーカと前記第4のスピーカの間隔とがほぼ等しい
     請求項13に記載の音響信号処理装置。
  15.  前記リスニング位置に対して、前記第1のスピーカ乃至前記第4のスピーカが横方向にほぼ一列に並んでいる
     請求項13に記載の音響信号処理装置。
  16.  第1のスピーカを所定のリスニング位置の前方又は後方である第1の方向かつ左側に配置し、
     第2のスピーカを前記リスニング位置の前記第1の方向かつ右側に配置し、
     第3のスピーカを前記リスニング位置の前記第1の方向かつ左側であって、前記第1のスピーカより右側に配置し、
     第4のスピーカを前記リスニング位置の前記第1の方向かつ前記第2のスピーカより右側に配置し、
     前記第1のスピーカ及び前記第2のスピーカからの音による音像を、前記リスニング位置より左側の第1の位置において前記第1の位置の前方又は後方である第2の方向かつ左側に定位させるトランスオーラル処理を第1の音響信号に対して行うことにより生成される、左側のスピーカ用の第1の出力信号及び右側のスピーカ用の第2の出力信号のうち前記第1の出力信号に基づく音を前記第1のスピーカから出力し、
     前記第2の出力信号に基づく音を前記第2のスピーカから出力し、
     前記第3のスピーカ及び前記第4のスピーカからの音による音像を、前記リスニング位置より右側の第2の位置において前記第2の位置の前方又は後方である第3の方向かつ右側に定位させるトランスオーラル処理を第2の音響信号に対して行うことにより生成される、左側のスピーカ用の第3の出力信号及び右側のスピーカ用の第4の出力信号のうち前記第3の出力信号に基づく音を前記第3のスピーカから出力し、
     前記第4の出力信号に基づく音を前記第4のスピーカから出力する
     音響信号処理方法。
  17.  所定のリスニング位置の前方又は後方である第1の方向かつ左側に配置された第1のスピーカと、
     前記リスニング位置の前記第1の方向であって前記リスニング位置のほぼ正面又はほぼ背面に配置された第2のスピーカと、
     前記リスニング位置の前記第1の方向かつ右側に配置された第3のスピーカと
     を備え、
     前記第1のスピーカ及び前記第2のスピーカからの音による音像を、前記リスニング位置より左側の第1の位置において前記第1の位置の前方又は後方である第2の方向かつ左側に定位させるトランスオーラル処理を第1の音響信号に対して行うことにより生成される、左側のスピーカ用の第1の出力信号及び右側のスピーカ用の第2の出力信号のうち前記第1の出力信号に基づく音を前記第1のスピーカから出力し、
     前記第2のスピーカ及び前記第3のスピーカからの音による音像を、前記リスニング位置より右側の第2の位置において前記第2の位置の前方又は後方である第3の方向かつ右側に定位させるトランスオーラル処理を第2の音響信号に対して行うことにより生成される、左側のスピーカ用の第3の出力信号及び右側のスピーカ用の第4の出力信号のうち前記第4の出力信号に基づく音を前記第3のスピーカから出力し、
     前記第2の出力信号と前記第3の出力信号の合成信号に基づく音を前記第2のスピーカから出力する
     音響信号処理装置。
  18.  前記第1のスピーカと前記第2のスピーカの間隔と、前記第2のスピーカと前記第3のスピーカの間隔とがほぼ等しい
     請求項17に記載の音響信号処理装置。
  19.  前記リスニング位置に対して、前記第1のスピーカ乃至前記第3のスピーカが横方向にほぼ一列に並んでいる
     請求項17に記載の音響信号処理装置。
  20.  第1のスピーカを所定のリスニング位置の前方又は後方である第1の方向かつ左側に配置し、
     第2のスピーカを前記リスニング位置の前記第1の方向であって前記リスニング位置のほぼ正面又はほぼ背面に配置し、
     第3のスピーカを前記リスニング位置の前記第1の方向かつ右側に配置し、
     前記第1のスピーカ及び前記第2のスピーカからの音による音像を、前記リスニング位置より左側の第1の位置において前記第1の位置の前方又は後方である第2の方向かつ左側に定位させるトランスオーラル処理を第1の音響信号に対して行うことにより生成される、左側のスピーカ用の第1の出力信号及び右側のスピーカ用の第2の出力信号のうち前記第1の出力信号に基づく音を前記第1のスピーカから出力し、
     前記第2のスピーカ及び前記第3のスピーカからの音による音像を、前記リスニング位置より右側の第2の位置において前記第2の位置の前方又は後方である第3の方向かつ右側に定位させるトランスオーラル処理を第2の音響信号に対して行うことにより生成される、左側のスピーカ用の第3の出力信号及び右側のスピーカ用の第4の出力信号のうち前記第4の出力信号に基づく音を前記第3のスピーカから出力し、
     前記第2の出力信号と前記第3の出力信号の合成信号に基づく音を前記第2のスピーカから出力する
     音響信号処理方法。
PCT/JP2016/051073 2015-01-29 2016-01-15 音響信号処理装置、音響信号処理方法、及び、プログラム WO2016121519A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/542,764 US10721577B2 (en) 2015-01-29 2016-01-15 Acoustic signal processing apparatus and acoustic signal processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015015540A JP2016140039A (ja) 2015-01-29 2015-01-29 音響信号処理装置、音響信号処理方法、及び、プログラム
JP2015-015540 2015-01-29

Publications (1)

Publication Number Publication Date
WO2016121519A1 true WO2016121519A1 (ja) 2016-08-04

Family

ID=56543138

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/051073 WO2016121519A1 (ja) 2015-01-29 2016-01-15 音響信号処理装置、音響信号処理方法、及び、プログラム

Country Status (3)

Country Link
US (1) US10721577B2 (ja)
JP (1) JP2016140039A (ja)
WO (1) WO2016121519A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11838742B2 (en) 2017-12-12 2023-12-05 Sony Group Corporation Signal processing device and method, and program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6900350B2 (ja) * 2018-09-27 2021-07-07 Kddi株式会社 音響信号のミキシング装置及びプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001069599A (ja) * 1999-07-29 2001-03-16 Lucent Technol Inc 音響クロストークキャンセルシステム
JP2012054669A (ja) * 2010-08-31 2012-03-15 Mitsubishi Electric Corp オーディオ再生装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5442102A (en) * 1977-09-10 1979-04-03 Victor Co Of Japan Ltd Stereo reproduction system
US6442277B1 (en) * 1998-12-22 2002-08-27 Texas Instruments Incorporated Method and apparatus for loudspeaker presentation for positional 3D sound
JP5245368B2 (ja) * 2007-11-14 2013-07-24 ヤマハ株式会社 仮想音源定位装置
JP2013110682A (ja) 2011-11-24 2013-06-06 Sony Corp 音響信号処理装置、音響信号処理方法、プログラム、および、記録媒体
US9661436B2 (en) * 2012-08-29 2017-05-23 Sharp Kabushiki Kaisha Audio signal playback device, method, and recording medium

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001069599A (ja) * 1999-07-29 2001-03-16 Lucent Technol Inc 音響クロストークキャンセルシステム
JP2012054669A (ja) * 2010-08-31 2012-03-15 Mitsubishi Electric Corp オーディオ再生装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11838742B2 (en) 2017-12-12 2023-12-05 Sony Group Corporation Signal processing device and method, and program

Also Published As

Publication number Publication date
US10721577B2 (en) 2020-07-21
JP2016140039A (ja) 2016-08-04
US20180007485A1 (en) 2018-01-04

Similar Documents

Publication Publication Date Title
US11172318B2 (en) Virtual rendering of object based audio over an arbitrary set of loudspeakers
JP4743790B2 (ja) 前方配置ラウドスピーカからのマルチチャネルオーディオサラウンドサウンドシステム
JP4924119B2 (ja) アレイスピーカ装置
JP4979837B2 (ja) 多重オーディオチャンネル群の再現の向上
EP3289779B1 (en) Sound system
WO2013077226A1 (ja) 音響信号処理装置、音響信号処理方法、プログラム、および、記録媒体
US8320590B2 (en) Device, method, program, and system for canceling crosstalk when reproducing sound through plurality of speakers arranged around listener
JP4297077B2 (ja) 仮想音像定位処理装置、仮想音像定位処理方法およびプログラム並びに音響信号再生方式
WO2015166814A1 (ja) 音響信号処理装置、音響信号処理方法、および、プログラム
US10681487B2 (en) Acoustic signal processing apparatus, acoustic signal processing method and program
WO2016121519A1 (ja) 音響信号処理装置、音響信号処理方法、及び、プログラム
KR20060005829A (ko) 최적 가상음원을 제공하는 음향재생장치 및 음향재생방법
JP2009100144A (ja) 音場制御装置、音場制御方法およびプログラム
JP2985704B2 (ja) サラウンド信号処理装置
JP2945634B2 (ja) 音場再生装置
JP2013176170A (ja) 再生装置および再生方法
JP3942914B2 (ja) ステレオ信号処理装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16743123

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15542764

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16743123

Country of ref document: EP

Kind code of ref document: A1