WO2019198314A1 - 音響処理装置、音響処理方法及びプログラム - Google Patents

音響処理装置、音響処理方法及びプログラム Download PDF

Info

Publication number
WO2019198314A1
WO2019198314A1 PCT/JP2019/003804 JP2019003804W WO2019198314A1 WO 2019198314 A1 WO2019198314 A1 WO 2019198314A1 JP 2019003804 W JP2019003804 W JP 2019003804W WO 2019198314 A1 WO2019198314 A1 WO 2019198314A1
Authority
WO
WIPO (PCT)
Prior art keywords
processing
audio signal
sound
processing unit
listening position
Prior art date
Application number
PCT/JP2019/003804
Other languages
English (en)
French (fr)
Inventor
健司 中野
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to CN201980024305.7A priority Critical patent/CN111937414A/zh
Priority to DE112019001916.3T priority patent/DE112019001916T5/de
Priority to US17/044,933 priority patent/US11477595B2/en
Publication of WO2019198314A1 publication Critical patent/WO2019198314A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/02Spatial or constructional arrangements of loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • H04S1/002Non-adaptive circuits, e.g. manually adjustable or static, for enhancing the sound image or the spatial distribution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • H04S1/007Two-channel systems in which the audio signals are in digital form
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field

Definitions

  • the present disclosure relates to an acoustic processing device, an acoustic processing method, and a program.
  • an object of the present disclosure to provide an acoustic processing device, an acoustic processing method, and a program that perform correction processing according to a change in the position of a listener on an audio signal that has been subjected to transoral processing. To do.
  • a trans-oral processing unit that performs trans-oral processing on a predetermined audio signal; And a correction processing unit that performs a correction process according to a change in the listening position on the audio signal subjected to the trans-oral process.
  • the trans-oral processing unit performs trans-oral processing on a predetermined audio signal
  • the trans-oral processing unit performs trans-oral processing on a predetermined audio signal
  • the correction processing unit is a program for causing a computer to execute an acoustic processing method for performing a correction process according to a change in a listening position on an audio signal subjected to transoral processing.
  • the effect of transoral processing is not necessarily limited, and may be any effects described in the present disclosure. Further, the contents of the present disclosure are not construed as being limited by the exemplified effects.
  • FIG. 1A and 1B are diagrams for explaining problems to be considered in the embodiment.
  • 2A and 2B are diagrams for explaining problems to be considered in the embodiment.
  • 3A and 3B are diagrams illustrating time-axis waveforms of the transfer function according to the embodiment.
  • 4A and 4B are diagrams illustrating frequency-amplitude characteristics of the transfer function according to the embodiment.
  • 5A and 5B are diagrams showing frequency-phase characteristics of the transfer function according to the embodiment.
  • FIG. 6 is a diagram for explaining the outline of the embodiment.
  • FIG. 7 is a diagram for explaining the outline of the embodiment.
  • FIG. 8 is a diagram for explaining a configuration example of the sound processing apparatus according to the first embodiment.
  • FIG. 9 is a diagram for explaining an example of a transfer function from the speaker device to the dummy head.
  • FIG. 10 is a diagram illustrating a configuration example of the sound image localization processing filter unit according to the embodiment.
  • FIG. 11 is a diagram illustrating a configuration example of the trans-oral system filter unit according to the embodiment.
  • FIG. 12 is a diagram for explaining a configuration example of the speaker rearrangement processing unit according to the embodiment.
  • FIG. 13 is a diagram for explaining a configuration example of the sound processing apparatus according to the second embodiment.
  • FIG. 14 is a diagram for explaining an operation example of the sound processing apparatus according to the second embodiment.
  • a technique of equalizing the arrival time and signal level of audio signals from a plurality of speaker devices for example, two in the case of a two-channel speaker device
  • these methods are insufficient to obtain the transoral effect satisfactorily.
  • the expected angle from the listener to the speaker device must be matched with the expected angle related to the service area, but the above method can satisfy it. It is not possible.
  • FIG. 1A and 1B are diagrams schematically showing a speaker device and a listener's listening position in the case of transoral reproduction of a two-channel audio signal.
  • L (Left) channel audio signal subjected to trans-oral processing (hereinafter appropriately referred to as trans-oral signal) is supplied to a speaker device SPL (hereinafter appropriately referred to as actual speaker device SPL) which is an actual speaker device. And played.
  • the trans-oral signal of the R (Right) channel that has been subjected to the trans-oral processing is supplied to and reproduced by a speaker device SPR that is an actual speaker device (hereinafter referred to as an actual speaker device SPR as appropriate).
  • the listening position is set, for example, on an extension on the central axis of the two actual speaker devices (on an axis that passes through the midpoint between the two actual speaker devices and is substantially parallel to the sound emission direction). That is, when viewed from the listener, the two actual speaker devices are arranged at positions that are substantially symmetrical.
  • An angle formed by three points with the position of at least two speaker devices (in this example, the positions of the actual speaker devices SPL and SPR) and the listening position of the listener U as apexes (referred to as a prospective angle in this specification as appropriate) ) Is A [deg].
  • the prospective angle A [deg] is, for example, a preset angle, and optimized signal processing for performing transaural reproduction is performed based on a setting corresponding to the prospective angle A [deg].
  • FIG. 1B shows a state in which the listener U has moved backward and the listening position has deviated from the service area.
  • the prospective angle is changed from A [deg] to B [deg] (where A> B). Since the listening position is deviated from the service area, the effect of transoral playback is reduced.
  • FIG. 2A is a head acoustic transfer function (HRTF (Head Related Transfer Function)) from the actual speaker devices SPL, SPR to the listener U when the listening position of the listener U is a position corresponding to the service area.
  • HRTF ⁇ HA1, HA2 ⁇ and HRTF ⁇ HB1, HB2 ⁇ which are head acoustic transfer functions from the actual speaker devices SPL, SPR to the listener U when the listening position is shifted from the service area as shown in FIG. 2B This is because there is a significant difference between Note that HRTF is an impulse response obtained by measuring an impulse signal emitted from an arbitrarily arranged sound source in the vicinity of the listener's ear canal entrance.
  • FIG. 3A shows a time axis waveform of HRTF ⁇ HA1, HA2 ⁇ .
  • the prospective angle is, for example, 24 [deg].
  • FIG. 3B shows a time axis waveform of HRTF ⁇ HB1, HB2 ⁇ .
  • the prospective angle is, for example, 12 [deg]. Note that the sampling frequency is 44.1 [kHz].
  • HA1 since the distance from one real speaker device to the ear is short, a rise in level that is earlier in time than HA2 is observed. After that, a rise in the level of HA2 is observed. With respect to HA2, the distance from one real speaker device to one ear is increased, and the ear may be a shadow-side ear when viewed from the real speaker device, and the rising level is smaller than that of HA1.
  • FIG. 4A shows the frequency-amplitude characteristics of HRTF ⁇ HA1, HA2 ⁇
  • FIG. 4B shows the frequency-amplitude characteristics of HRTF ⁇ HB1, HB2 ⁇
  • the horizontal axis is shown by logarithmic semilogarithmic display.) 4A and 4B, the horizontal axis indicates the frequency, and the vertical axis indicates the amplitude (signal level).
  • a level difference is observed between HA1 and HA2 over the entire band.
  • FIG. 4B a level difference is also observed between HB1 and HB2 over the entire band.
  • the difference in distance from one actual speaker device to each ear is small, so the level difference is smaller than the level difference between HA1 and HA2.
  • FIG. 5A shows the frequency-phase characteristics of HRTF ⁇ HA1, HA2 ⁇
  • FIG. 5B shows the frequency-phase characteristics of HRTF ⁇ HB1, HB2 ⁇
  • the horizontal axis indicates the frequency
  • the vertical axis indicates the phase.
  • a phase difference is observed between HA1 and HA2 at higher frequencies.
  • a phase difference is also observed between HB1 and HB2 at higher frequencies.
  • the difference in distance from one actual speaker device to each ear is small, so the phase difference is smaller than the phase difference between HA1 and HA2.
  • the HRTF is not transmitted from the actual speaker device disposed at the position of the prospective angle A [deg], instead of HRTF ⁇ HB1, HB2 ⁇ , for the listener U deviated from the service area It is only necessary to create an environment in which the audio signal reaches the listener U's ear with the characteristics of ⁇ HA1, HA2 ⁇ . That is, as shown in FIG. 6, it is only necessary to create an environment in which the prospective angle is A [deg] by moving the actual speaker devices SPL and SPR. However, in practice, the actual speaker devices SPL and SPR themselves cannot be physically moved as shown in FIG. 6, or are difficult or inconvenient.
  • virtual speaker devices (hereinafter referred to as virtual speaker devices as appropriate) VSPL and VSPR are set. Then, the positions of the two actual speaker devices SPL and SPR are set to the virtual speaker devices VSPL and VSPR so that the angle between the position of the two virtual speaker devices VSPL and VSPR and the listening position coincides with the prospective angle A [deg]. Correction processing for virtually rearranging at the position is performed. In the following description, the correction process is appropriately referred to as a speaker rearrangement process.
  • FIG. 8 is a block diagram illustrating a configuration example of the sound processing apparatus (sound processing apparatus 1) according to the first embodiment.
  • the acoustic processing device 1 includes, for example, a sound image localization processing filter unit 10, a trans-oral system filter unit 20, a speaker rearrangement processing unit 30, a control unit 40, a position detection sensor 50 that is an example of a sensor unit, It has speaker devices SPL and SPR.
  • a 2-channel audio signal is supplied to the sound processing apparatus 1. Therefore, as shown in FIG. 8, the sound processing apparatus 1 includes a left channel input terminal Lin that receives supply of a left channel audio signal and a right channel input terminal Rin that receives supply of a right channel audio signal. ing.
  • the sound image localization processing filter unit 10 is a filter that performs processing to localize a sound image at an arbitrary position.
  • the trans-oral system filter unit 20 is a filter that performs trans-oral processing on the audio signal Lout1 and the audio signal Rout1 that are outputs from the sound image localization processing filter unit 10.
  • the speaker rearrangement processing unit 30 which is an example of a correction processing unit, performs speaker rearrangement processing on the audio signal Lout2 and the audio signal Rout2 that are output from the transoral system filter unit 20 according to the change in the listening position. It is a filter.
  • the audio signal Lout3 and the audio signal Rout3, which are outputs from the speaker rearrangement processing unit 30, are supplied to each of the actual speaker devices SPL and SPR, and a predetermined sound is reproduced.
  • the predetermined sound may be anything such as music, human voice, natural sound, or a combination of these.
  • the control unit 40 includes a CPU (Central Processing Unit) and the like, and controls each unit of the sound processing apparatus 1.
  • the control unit 40 has a memory (not shown).
  • the memory includes a ROM (Read Only Memory) in which a program executed by the control unit 40 is stored and a RAM (Random Access Memory) used as a work memory when the control unit 40 executes the program.
  • the control unit 40 has a function of calculating a prospective angle that is an angle formed by the listening position of the listener U detected by the position detection sensor 50 and the actual speaker devices SPL and SPR. Moreover, the control part 40 acquires HRTF according to a prospective angle.
  • the control unit 40 may acquire the HRTF corresponding to the prospective angle by reading it from its own memory, or may acquire it by reading the HRTF corresponding to the prospective angle stored in another memory. . Further, the control unit 40 may acquire the HRTF according to the prospective angle via a network or the like.
  • the position detection sensor 50 is composed of, for example, an imaging device, and is a sensor that detects the position of the listener U, that is, the listening position.
  • the position detection sensor 50 itself may be independent, or is incorporated in a television device that displays video that is reproduced in synchronization with audio reproduced from other devices, for example, the actual speaker devices SPL and SPR. It may be.
  • the detection result of the position detection sensor 50 is supplied to the control unit 40.
  • FIG. 9 is a diagram for explaining the principle of sound image localization processing.
  • the position of the dummy head DH is set to the position of the listener U, and the left and right of the sound image to be localized with respect to the listener U at the position of the dummy head DH
  • Actual speaker devices SPL and SPR are actually installed at a virtual speaker position (a position where it is assumed that there is a speaker).
  • the transfer function of the sound from the real speaker device SPL to the left ear of the dummy head DH is M11
  • the sound from the real speaker device SPL to the right ear of the dummy head DH Is assumed to be M12.
  • the transfer function of sound from the real speaker device SPR to the left ear of the dummy head DH is M12
  • the transfer function of sound from the real speaker device SPR to the right ear of the dummy head DH is M11.
  • processing is performed using the HRTF measured in advance as described above with reference to FIG. 9, and the sound of the audio signal after the processing is reproduced at the ear of the listener U.
  • the sound image of the sound reproduced from the actual speaker devices SPL and SPR can be localized at an arbitrary position.
  • the dummy head DH is used for the HRTF measurement, but the present invention is not limited to this.
  • a person may actually sit in the reproduction sound field for measuring the HRTF, and a microphone may be placed near the ear to measure the HRTF of the voice.
  • the HTRF is not limited to that measured, but may be calculated by computer simulation or the like.
  • the localization position of the sound image is not limited to two positions on the left and right, but may be, for example, five positions (specifically, positions corresponding to a sound reproduction system for five channels (specifically, center, front left, front right, rear left, rear right)). In that case, the HRTF from the actual speaker device placed at each position to both ears of the dummy head DH is obtained.
  • the position where the sound image is localized may be set not only in the front-rear direction but also in the vertical direction, for example, the ceiling (above the dummy head DH).
  • the sound image localization processing filter unit 10 shown in FIG. is capable of processing left and right two-channel audio signals. As shown in FIG. 10, four filters 101, 102, 103, 104, Adders 105 and 106 are included.
  • the filter 101 processes the left channel audio signal supplied through the left channel input terminal Lin with HRTF: M11, and supplies the processed audio signal to the adder 105 for the left channel.
  • the filter 102 processes the left-channel audio signal supplied through the left-channel input terminal Lin with HRTF: M12 and supplies the processed audio signal to the right-channel adder 106.
  • the filter 103 processes the audio signal of the right channel supplied through the right channel input terminal Rin with HRTF: M12, and supplies the processed audio signal to the adder 105 for the left channel.
  • the filter 104 processes the right-channel audio signal supplied through the right-channel input terminal Rin with HRTF: M11, and supplies the processed audio signal to the adder 106 for the right channel.
  • the sound based on the audio signal output from the adder 105 for the left channel and the sound based on the audio signal output from the adder 106 for the right channel are detected from the left and right virtual speaker positions where the sound image is to be localized.
  • the sound image is localized so that it can be reproduced.
  • the adder 105 outputs an audio signal Lout1
  • the adder 106 outputs an audio signal Rout1.
  • the processing using the trans-oral system filter unit 20 is performed on the audio signal output from the sound image localization processing filter unit 10 to be reproduced from the actual speaker devices SPL and SPR.
  • the sound is accurately localized as if it was played from a predetermined position.
  • the transoral system filter unit 20 is an audio filter (for example, FIR (Finite Impulse Response) filter) formed by applying a transoral system.
  • the trans-oral system is a technique for realizing the same effect as that of the binaural system system, which is a system for strictly reproducing sound at the ear using headphones, even when a speaker device is used.
  • the transoral system will be described by taking the case of FIG. 8 as an example.
  • the left and right ears of the listener U of the audio reproduced from each actual speaker device are explained.
  • the HRTF ⁇ HB1, HB2 ⁇ By canceling the influence of the HRTF ⁇ HB1, HB2 ⁇ , the sound reproduced from the actual speaker devices SPL, SPR is strictly reproduced.
  • the trans-oral system filter unit 20 shown in FIG. 8 cancels the influence of the HRTF in the reproduction sound field on the sound to be reproduced from the actual speaker devices SPL and SPR, thereby canceling the effects from the actual speaker devices SPL and SPR.
  • the sound image of the reproduced voice is accurately localized at a predetermined virtual position.
  • the transoral system filter unit 20 is configured so that the real speaker devices SPL and SPR can receive the listener U from the real speaker devices SPL and SPR in order to cancel the influence of the HRTF from the right and left ears of the listener U.
  • filters 201, 202, 203, and 204, and adders 205 and 206 that process audio signals in accordance with the inverse function of HRTF ⁇ HB1, HB2 ⁇ to the left and right ears.
  • the filters 201, 202, 203, and 204 perform processing that also considers the inverse filter characteristics so that more natural reproduced sound can be reproduced.
  • Each of the filters 201, 202, 203, and 204 performs a predetermined process using the filter coefficient set by the control unit 40. Specifically, each filter of the trans-oral system filter unit 20 forms an inverse function of HRTF ⁇ HB1, HB2 ⁇ based on the coefficient data set by the control unit 40, thereby processing the audio signal. Thus, the influence of HRTF ⁇ HB1, HB2 ⁇ on the reproduction sound field is canceled.
  • the output from the filter 201 is supplied to the adder 205 for the left channel, and the output from the filter 202 is supplied to the adder 206 for the right channel.
  • the output from the filter 203 is supplied to the adder 205 for the left channel, and the output from the filter 204 is supplied to the adder 206 for the right channel.
  • the adders 205 and 206 add the audio signals supplied thereto.
  • the adder 205 outputs an audio signal Lout2.
  • the adder 206 outputs an audio signal Rout2.
  • FIG. 12 is a diagram illustrating a configuration example of the speaker rearrangement processing unit 30.
  • the speaker rearrangement processing unit 30 includes a filter 301, a filter 302, a filter 303, a filter 304, an adder 305 that adds the output of the filter 301 and the output of the filter 303, the output of the filter 302, and the filter 304 And an adder 306 for adding the outputs.
  • the same filter coefficient C1 is set for the filters 301 and 304, and the same filter coefficient is set for the filters 302 and 303.
  • C2 is set.
  • HRTF ⁇ HB1, HB2 ⁇ is assumed to be the HRTF to the ear of the listener U who is in the listening position deviated from the service area. Further, the HRTF up to the ear of the listener U at the listening position corresponding to the service area is assumed to be HRTF ⁇ HA1, HA2 ⁇ .
  • the positions of the virtual speaker devices VSPL and VSPR indicated by dotted lines in FIG. 12 indicate the position where the position of the listener U and the expected angle are A [deg], that is, the expected angle where the effect of the transoral processing is obtained. It is a thing.
  • the control unit 40 sets the filter coefficients C1 and C2 based on, for example, the following formulas (1) and (2), so that the positions of the actual speaker devices SPL and SPR are the positions of the virtual speaker devices.
  • the speaker devices VSPL and VSPR are virtually rearranged.
  • the filter coefficients C1 and C2 are filter coefficients that correct an angle at which a deviation occurs with respect to the prospective angle A [deg] to the prospective angle A [deg].
  • the filter processing based on the filter coefficients C1 and C2 by the speaker rearrangement processing unit 30 By performing the filter processing based on the filter coefficients C1 and C2 by the speaker rearrangement processing unit 30, even when the listening position of the listener U deviates from the service area, the effect of the transoral processing is prevented from being reduced. can do. In other words, even when the listening position of the listener U deviates from the service area, it is possible to prevent the sound image localization effect for the listener U from being deteriorated.
  • Transoral processing is performed.
  • Audio signals Lout2 and Rout2 are output from the trans-oral system filter unit 20.
  • the audio signals Lout2 and Rout2 are transoral signals that have been subjected to transoral processing.
  • sensor information regarding the listening position of the listener U is supplied from the position detection sensor 50 to the control unit 40.
  • the control unit 40 calculates an angle formed by the actual speaker devices SPL, SPR and the listening position of the listener U, that is, a prospective angle.
  • the calculated expected angle is an expected angle corresponding to the service area
  • the sound based on the audio signals Lout2 and Rout2 is reproduced from the actual speaker devices SPL and SPR without being processed by the speaker rearrangement processing unit 30.
  • the control unit 40 acquires HRTF ⁇ HB1, HB2 ⁇ corresponding to the calculated prospective angle.
  • the control unit 40 stores, for example, HRTF ⁇ HB1, HB2 ⁇ corresponding to each angle of 5 to 20 [deg].
  • HRTF ⁇ HB1, HB2 ⁇ corresponding to the calculated prospective angle is read. It should be noted that the resolution of the angle, that is, how much the angle increment (for example, 1, 0.5 [deg], etc.) is used to store HRTF ⁇ HB1, HB2 ⁇ can be set as appropriate.
  • control unit 40 stores HRTF ⁇ HA1, HA2 ⁇ corresponding to the prospective angle corresponding to the service area. Then, the control unit 40 applies the read HRTF ⁇ HB1, HB2 ⁇ and the previously held HRTF ⁇ HA1, HA2 ⁇ to the above-described equations (1) and (2) to obtain the filter coefficients C1 and C2. Then, the obtained filter coefficients C1 and C2 are appropriately set in the filters 301 to 304 of the speaker rearrangement processing unit 30. Speaker rearrangement processing by the speaker rearrangement processing unit 30 is performed using the filter coefficients C1 and C2. The audio signal Lout3 and the audio signal Rout3 are output from the speaker rearrangement processing unit 30. The audio signal Lout3 is reproduced from the actual speaker device SPL, and the audio signal Rout3 is reproduced from the actual speaker device SPR.
  • the listening position of the listener U is shifted in the front-rear direction from the service area. That is, even when the listening position of the listener U deviates from the service area, it is assumed that the substantially symmetrical arrangement of the actual speaker devices SPL and SPR with respect to the listening position is maintained.
  • the listener U may move not only in the front-rear direction but also in the left-right direction with respect to the speaker device. That is, it is also assumed that the listening position after movement is a position shifted from the service area, and the substantially symmetrical arrangement of the actual speaker devices SPL and SPR with respect to the listening position is not maintained.
  • the second embodiment is an embodiment corresponding to such a case.
  • FIG. 13 is a block diagram illustrating a configuration example of the sound processing apparatus (sound processing apparatus 1a) according to the second embodiment.
  • the sound processing apparatus 1a is different from the structure of the sound processing apparatus 1 according to the first embodiment in that it includes a sound processing unit 60.
  • the acoustic processing unit 60 is provided, for example, at the subsequent stage of the speaker rearrangement processing unit 30.
  • the acoustic processing unit 60 performs predetermined acoustic processing on the audio signals Lout3 and Rout3 that are outputs from the speaker rearrangement processing unit 30.
  • the predetermined acoustic processing includes, for example, a process for substantially equalizing the arrival times at which the audio signals reproduced from the two actual speaker devices SPL and SPR reach the current listening position and the two actual speaker devices SPL and SPR, respectively. At least one of the processes for making the level of the audio signal reproduced from the audio signal substantially equal. It should be noted that “substantially equal” includes being completely equal and not more than a threshold that does not cause the listener U to feel uncomfortable in the arrival time and level of the sound reproduced from the two actual speaker devices SPL and SPR. It means that there may be errors.
  • audio signals Lout4 and Rout4 which are audio signals subjected to acoustic processing by the acoustic processing unit 60, are output.
  • the audio signal Lout4 is reproduced from the actual speaker device SPL, and the audio signal Rout4 is reproduced from the actual speaker device SPR.
  • FIG. 14 shows a listener U who listens to the sound at the listening position PO1 (the prospective angle is A [deg]) corresponding to the service area.
  • the listener U moves to the listening position PO2 on the left diagonally rear side in FIG. 14 and the listening position is out of the service area.
  • the movement of the listener U is detected by the position detection sensor 50.
  • Sensor information detected by the position detection sensor 50 is supplied to the control unit 40.
  • the control unit 40 grasps the listening position PO2 based on the sensor information supplied from the position detection sensor 50. Then, the control unit 40 is on a virtual line segment that extends forward from the listening position PO2 (specifically, generally on a virtual line segment that extends in the direction in which the face of the listener U faces).
  • the virtual speaker device VSPL1 is set so that the predetermined location is substantially the center between the virtual speaker device VSPL1 and the actual speaker device SPR.
  • the prospective angle formed by the listening position PO2 of the listener U and the real speaker device SPR and the virtual speaker device VSPL1 is B [deg] which is smaller than A [deg].
  • processing by the speaker rearrangement processing unit 30 is performed so that the prospective angle B [deg] becomes A [deg].
  • the control unit 40 acquires HRTF ⁇ HB1, HB2 ⁇ corresponding to the prospective angle B [deg].
  • the control unit 40 acquires the filter coefficients C1 and C2 based on the expressions (1) and (2) described in the first embodiment, and uses the acquired filter coefficients C1 and C2 as a filter in the speaker rearrangement processing unit 30. 301, 302, 303, and 304 are set as appropriate.
  • the processing by the speaker rearrangement processing unit 30 is performed so that the positions of the actual speaker devices SPL and SPR are virtually rearranged in the speaker devices VSPL2 and VSPR2. Audio signals Lout3 and Rout3 are output from the processing unit 30.
  • the acoustic processing unit 60 performs predetermined acoustic processing on the audio signals Lout3 and Rout3 according to the control of the control unit 40. For example, the acoustic processing unit 60 performs acoustic processing that substantially equalizes the arrival times at which the audio signals reproduced from the actual speaker devices SPL and SPR reach the listening position PO2. For example, the acoustic processing unit 60 performs a delay process on the audio signal Lout3 so that the arrival times at which the audio signals reproduced from the two actual speaker devices SPL and SPR reach the listening position PO2 are substantially equal.
  • the delay amount may be appropriately set based on a distance difference between the real speaker device SPL and the virtual speaker device VSPL.
  • a microphone is arranged at the listening position PO2 of the listener U, and the time for each audio signal from the actual speaker devices SPL and SPR detected by the microphone to reach the listening position PO2 is substantially equal.
  • a delay amount may be set.
  • the microphone may be a single microphone, or another device such as a remote control device of a television device or a smart phone may be used. By such processing, the arrival time of the sound reproduced from the actual speaker devices SPL and SPR with respect to the listener U at the listening position PO2 becomes substantially equal.
  • the sound processing unit 60 may perform processing for adjusting the signal level.
  • the audio processing unit 60 Due to the processing by the acoustic processing unit 60, the arrival times for the audio signals reproduced from the actual speaker devices SPL and SPR to reach the listening position PO2 become substantially equal.
  • the audio processing unit 60 outputs an audio signal Lout4 and an audio signal Rout4.
  • the audio signal Lout4 is reproduced from the actual speaker device SPL, and the audio signal Rout4 is reproduced from the actual speaker device SPR. Also in the second embodiment described above, the same effects as in the first embodiment can be obtained.
  • the sound processing apparatuses 1 and 1a may not have the position detection sensor 50.
  • calibration is performed in advance before listening to audio (which may be synchronized with video) as content.
  • the calibration is performed as follows, for example.
  • the listener U reproduces an audio signal at a predetermined listening position.
  • the control unit 40 performs control to change the HRTF ⁇ HB1, HB2 ⁇ corresponding to the prospective angle, that is, change the filter coefficients C1 and C2 for the speaker rearrangement processing unit 30 to reproduce the audio signal.
  • the listener U gives instructions to the sound processing apparatus when a predetermined sense of localization is obtained.
  • the sound processing apparatus that has received the instruction sets the filter coefficients C1 and C2 at that time in the speaker rearrangement processing unit 30.
  • a configuration in which the user performs the setting related to the speaker rearrangement processing may be employed.
  • the position detection sensor 50 can be dispensed with.
  • the listener U since the listener U performs the setting based on his / her audibility, the listener U can obtain a sense of satisfaction. Note that when calibration is performed, the listening position does not change significantly thereafter, and the filter coefficients C1 and C2 may not be changed even when the listening position is shifted.
  • the processing described in the embodiment may be performed in real time as the content is played back. However, if the above-described processing is performed even when the listening position is slightly shifted, there is a possibility that a sense of incongruity may occur in terms of hearing. Therefore, the processing described in the embodiment may be performed when the listening position of the listener U is shifted by a predetermined amount or more.
  • the filter coefficients C1 and C2 set in the speaker rearrangement processing unit 30 may be calculated by a method other than the equations (1) and (2) described above.
  • the filter coefficients C1 and C2 may be calculated by a simplified method compared to the method of calculating by the equations (1) and (2).
  • filter coefficients C1 and C2 may be calculated in advance.
  • filter coefficients C1 and C2 corresponding to a prospective angle between the two prospective angles may be calculated by interpolation from filter coefficients C1 and C2 corresponding to a certain two prospective angles.
  • the above processing is performed with priority given to the listening positions of the listeners at the listening positions where the two speaker devices are symmetrical. May be.
  • the position detection sensor 50 is not limited to the imaging device, and may be another sensor.
  • the position detection sensor 50 may be a sensor that detects the position of a transmitter that the user has.
  • the present disclosure may be a method, a program, and a medium that stores the program.
  • the program is stored in a predetermined memory included in the sound processing apparatus.
  • a trans-oral processing unit that performs trans-oral processing on a predetermined audio signal
  • a sound processing apparatus comprising: a correction processing unit that performs a correction process according to a change in a listening position on the audio signal subjected to the transoral processing.
  • the acoustic processing apparatus according to (1) wherein the change in the listening position is a difference between a predetermined angle and an angle formed from at least two speaker devices and three points having the listening position as a vertex.
  • the predetermined angle is a preset angle.
  • the correction processing unit virtually sets the position of the two actual speaker devices to the position of the virtual speaker device so that the angle formed by the position of the two virtual speaker devices and the listening position matches the predetermined angle.
  • the sound processing apparatus according to (2) or (3).
  • the correction processing unit includes a filter, The acoustic processing apparatus according to any one of (2) to (4), wherein the correction processing unit performs correction processing using a filter coefficient that corrects the angle at which the deviation occurs to the predetermined angle.
  • a process for making the arrival times at which the audio signals reproduced from the two actual speaker devices reach the listening position substantially equal and a process for making the levels of the audio signals reproduced from the two actual speaker devices substantially equal The sound processing apparatus according to (4) or (6), wherein at least one of the processes is performed.
  • the acoustic processing device according to any one of (1) to (8), further including an actual speaker device that reproduces an audio signal that has been subjected to correction processing by the correction processing unit.
  • the trans-oral processing unit performs trans-oral processing on a predetermined audio signal, An acoustic processing method in which a correction processing unit performs correction processing according to a change in a listening position on the audio signal subjected to the trans-oral processing.
  • the trans-oral processing unit performs trans-oral processing on a predetermined audio signal, A program that causes a computer to execute an acoustic processing method in which a correction processing unit performs correction processing according to a change in a listening position on the audio signal that has been subjected to the trans-oral processing.
  • SYMBOLS 1, 1a ... Sound processing apparatus, 20 ... Trans-oral system filter part, 30 ... Speaker rearrangement processing part, 40 ... Control part, 50 ... Position detection sensor, SPL, SPR ... Real speaker device, VSPL, VSPR ... Virtual speaker device

Abstract

所定のオーディオ信号に対してトランスオーラル処理を行うトランスオーラル処理部と、トランスオーラル処理がなされたオーディオ信号に対して、聴取位置の変化に応じた補正処理を行う補正処理部とを有する音響処理装置である。 図8

Description

音響処理装置、音響処理方法及びプログラム
 本開示は、音響処理装置、音響処理方法及びプログラムに関する。
 聴取者であるユーザの位置の変化に応じて、オーディオ信号に対する遅延処理や音像定位の場所を変化させる処理を行う音響処理装置が提案されている(例えば、下記特許文献1、2を参照のこと)。
特開2007-142856号公報
特開平09-46800号公報
 ところで、バイノーラル信号をヘッドホンではなく、スピーカ装置で再生するトランスオーラル再生システムが提案されている。上述した特許文献1、2に記載の技術では、聴取者の位置の変化に応じてトランスオーラル処理の効果が減退してしまう点についての考慮がなされていない。
 従って、本開示は、トランスオーラル処理がなされたオーディオ信号に対して、聴取者の位置の変化に応じた補正処理を行う、音響処理装置、音響処理方法及びプログラムを提供することを目的の一つとする。
 本開示は、例えば、
 所定のオーディオ信号に対してトランスオーラル処理を行うトランスオーラル処理部と、
 トランスオーラル処理がなされたオーディオ信号に対して、聴取位置の変化に応じた補正処理を行う補正処理部と
 を有する音響処理装置である。
 本開示は、例えば、
 トランスオーラル処理部が、所定のオーディオ信号に対してトランスオーラル処理を行い、
 補正処理部が、トランスオーラル処理がなされたオーディオ信号に対して、聴取位置の変化に応じた補正処理を行う
 音響処理方法である。
 本開示は、例えば、
 トランスオーラル処理部が、所定のオーディオ信号に対してトランスオーラル処理を行い、
 補正処理部が、トランスオーラル処理がなされたオーディオ信号に対して、聴取位置の変化に応じた補正処理を行う
 音響処理方法をコンピュータに実行させるプログラムである。
 本開示の少なくとも一つの実施の形態によれば、聴取者の位置の変化によって、トランスオーラル処理の効果が減退してしまうことを防止することができる。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれの効果であってもよい。また、例示された効果により本開示の内容が限定して解釈されるものではない。
図1A及び図1Bは、実施の形態において考慮すべき問題を説明するための図である。 図2A及び図2Bは、実施の形態において考慮すべき問題を説明するための図である。 図3A及び図3Bは、実施の形態に係る伝達関数の時間軸波形を示す図である。 図4A及び図4Bは、実施の形態に係る伝達関数の周波数-振幅特性を示す図である。 図5A及び図5Bは、実施の形態に係る伝達関数の周波数-位相特性を示す図である。 図6は、実施の形態の概要を説明するための図である。 図7は、実施の形態の概要を説明するための図である。 図8は、第1の実施の形態に係る音響処理装置の構成例を説明するための図である。 図9は、スピーカ装置からダミーヘッドまでの伝達関数の一例を説明するための図である。 図10は、実施の形態に係る音像定位処理フィルタ部の構成例を示す図である。 図11は、実施の形態に係るトランスオーラルシステムフィルタ部の構成例を示す図である。 図12は、実施の形態に係るスピーカ再配置処理部の構成例等を説明するための図である。 図13は、第2の実施の形態に係る音響処理装置の構成例を説明するための図である。 図14は、第2の実施の形態に係る音響処理装置の動作例を説明するための図である。
 以下、本開示の実施の形態等について図面を参照しながら説明する。なお、説明は以下の順序で行う。
<実施の形態において考慮すべき問題>
<実施の形態の概要>
<第1の実施の形態>
<第2の実施の形態>
<変形例>
 以下に説明する実施の形態等は本開示の好適な具体例であり、本開示の内容がこれらの実施の形態等に限定されるものではない。
<実施の形態において考慮すべき問題>
 本開示の理解を容易とするために、始めに、実施の形態において考慮すべき問題について説明する。所謂トランスオーラル再生では、その効果が得られるエリア(以下、サービスエリアと適宜、称する)は非常に狭く、局所的(ピンポイント的)と言われている。特に聴取者が、オーディオ信号を再生するスピーカ装置に対し左右にずれた場合において、トランスオーラル効果の減退が著しくなる。
 このため、サービスエリアが局所的ではありながらも、聴取者(リスナー)の聴取位置に応じてサービスエリアを当該聴取位置に移動させ、結果として多様な位置でトランスオーラルの効果を得られるようにできればユーザビリティが大きく向上する。
 一般に、サービスエリアを移動する手法として、複数のスピーカ装置(例えば、2チャンネルのスピーカ装置の場合は2個)から聴取者へのオーディオ信号の到達時間や信号レベルを等しくする技術が考えられる。しかしながらトランスオーラルの効果を満足に得られるようにするには、これらの手法は不十分である。その理由としては、トランスオーラルの効果を得るには聴取者からスピーカ装置までの見込み角を、サービスエリアに係る見込み角と合わせることが不可欠であるにも関わらず、上記手法ではそれを満たすことができないからである。
 この点について、図1を参照して説明する。図1A及び図1Bは、2チャンネルのオーディオ信号をトランスオーラル再生する場合の、スピーカ装置と聴取者の聴取位置とを模式的に示した図である。トランスオーラル処理が施されたL(Left)チャンネルのオーディオ信号(以下、トランスオーラル信号と適宜、称する)が実際のスピーカ装置であるスピーカ装置SPL(以下、実スピーカ装置SPLと適宜、称する)に供給され再生される。また、トランスオーラル処理が施されたR(Right)チャンネルのトランスオーラル信号が実際のスピーカ装置であるスピーカ装置SPR(以下、実スピーカ装置SPRと適宜、称する)に供給され再生される。聴取位置は、例えば、2個の実スピーカ装置の中心軸上(2個の実スピーカ装置の間の中点を通り、音の放射方向に略平行な軸上)の延長上に設定される。即ち、聴取者からみた場合、2個の実スピーカ装置は略対称となる位置に配置されている。
 少なくとも2つのスピーカ装置の位置(本例では、実スピーカ装置SPL、SPRの位置)と聴取者Uの聴取位置を頂点とした3点から形成される角度(本明細書では見込み角と適宜、称する)がA[deg]となっている。図1Aに示す見込み角A[deg]がトランスオーラス再生の効果が得られる角度とする。即ち、図1Aに示す聴取位置がサービスエリアに対応する位置である。この見込み角A[deg]は例えば予め設定された角度であり、見込み角A[deg]に対応する設定に基づいて、トランスオーラル再生を行うための最適化された信号処理が行われる。
 図1Bは、聴取者Uが後退し、聴取位置がサービスエリアからずれた状態を示している。聴取者Uの聴取位置の変化に応じて、見込み角がA[deg]からB[deg](但し、A>B)となる。聴取位置がサービスエリアからずれているため、トランスオーラル再生による効果は減退する。
 この事象については以下のように解釈することができる。図2Aに示す、聴取者Uの聴取位置がサービスエリアに対応する位置の場合の、実スピーカ装置SPL、SPRから聴取者Uまでの頭部音響伝達関数(HRTF(Head Related Transfer Function))であるHRTF{HA1,HA2}と、図2Bに示す、聴取位置がサービスエリアからずれた位置の場合の実スピーカ装置SPL、SPRから聴取者Uまでの頭部音響伝達関数であるHRTF{HB1,HB2}との間に有意差があるからである。なお、HRTFとは、任意に配置された音源から発せられたインパルス信号を、受聴者の外耳道入り口付近で測定したインパルス応答である。
 図3から図5を参照して、HRTF{HA1,HA2}及びHRTF{HB1,HB2}の具体例について説明する。図3AはHRTF{HA1,HA2}の時間軸波形を示している。見込み角は、例えば、24[deg]である。図3BはHRTF{HB1,HB2}の時間軸波形を示している。見込み角は、例えば、12[deg]である。なお、サンプリング周波数はいずれも44.1[kHz]である。
 図3Aに示すように、HA1に関しては一方の実スピーカ装置から耳までの距離が近いため、HA2に比べ時間的に早いレベルの立ち上がりが観察される。そして、その後に、HA2のレベルの立ち上がりが観察される。HA2に関しては一方の実スピーカ装置から一方の耳までの距離が遠くなり、また、当該実スピーカ装置から見て影側の耳となることもあり、立ち上がりのレベルはHA1に比べて小さくなる。
 図3Bに示すように、HB1、HB2に関してもHA1、HA2と同様の変化が見られる。但し、聴取者Uが後方に移動することにより、スピーカ装置からそれぞれの耳までの距離差が小さくなる。従って、信号レベルの立ち上がりタイミングのずれ及び立ち上がり後の信号レベルの差がHA1、HA2に比べて小さくなる。
 図4AはHRTF{HA1,HA2}の周波数-振幅特性を示し、図4BはHRTF{HB1,HB2}の周波数-振幅特性を示している(なお、図4は両対数表示、後述する図5は、横軸が対数の片対数表示により示されている。)。図4A及び図4Bにおいて、横軸は周波数を示し、縦軸は振幅(信号レベル)を示している。図4Aに示すように、全帯域的にHA1とHA2との間にレベル差が観察される。また、図4Bに示すように、全帯域的にHB1とHB2との間にも同様にレベル差が観察される。但し、HB1、HB2の場合は、一方の実スピーカ装置からそれぞれの耳までの距離差が小さくなるため、HA1とHA2との間のレベル差に比べてレベル差が小さくなる。
 図5AはHRTF{HA1,HA2}の周波数-位相特性を示し、図5BはHRTF{HB1,HB2}の周波数-位相特性を示している。図5A及び図5Bにおいて、横軸は周波数を示し、縦軸は位相を示している。図5Aに示すように、高域側ほどHA1とHA2との間に位相差が観察される。また、図5Bに示すように、高域側ほどHB1とHB2との間にも位相差が観察される。但し、HB1、HB2の場合は、一方の実スピーカ装置からそれぞれの耳までの距離差が小さくなるため、HA1とHA2との間の位相差に比べて位相差が小さくなる。
[実施の形態の概要]
 上述した考慮すべき問題に対応するために、サービスエリアからずれた聴取者Uに対してHRTF{HB1,HB2}ではなく、見込み角A[deg]となる位置に配置された実スピーカ装置からHRTF{HA1,HA2}の特性を伴って聴取者Uの耳にオーディオ信号が到達する環境を作り出せば良い。つまり、図6に示すように、実スピーカ装置SPL、SPRを移動して見込み角がA[deg]となる環境を作り出せば良い。しかしながら、実際上、図6のように実スピーカ装置SPL、SPR自体を物理的に移動できない、若しくは、困難又は不便である。そこで、本実施の形態では、図7に示すように、仮想的なスピーカ装置(以下、仮想スピーカ装置と適宜、称する)VSPL、VSPRを設定する。そして、2つの仮想スピーカ装置VSPL、VSPRの位置と聴取位置とがなす角度が、見込み角A[deg]と一致するように、2つの実スピーカ装置SPL、SPRの位置を仮想スピーカ装置VSPL、VSPRの位置に仮想的に再配置する補正処理を行う。なお、以下の説明では、補正処理をスピーカ再配置処理と適宜、称する。
<第1の実施の形態>
(音響処理装置の構成例)
 図8は、第1の実施の形態に係る音響処理装置(音響処理装置1)の構成例を示すブロック図である。音響処理装置1は、例えば、音像定位処理フィルタ部10と、トランスオーラルシステムフィルタ部20と、スピーカ再配置処理部30と、制御部40と、センサ部の一例である位置検出センサ50と、実スピーカ装置SPL、SPRとを有している。音響処理装置1に対して、例えば、2チャンネルのオーディオ信号が供給される。このため、音響処理装置1は、図8に示すように、左チャンネルのオーディオ信号の供給を受け付ける左チャンネル入力端子Linと、右チャンネルのオーディオ信号の供給を受け付ける右チャンネル入力端子Rinとを有している。
 音像定位処理フィルタ部10は、任意の位置に音像を定位させる処理を行うフィルタである。トランスオーラルシステムフィルタ部20は、音像定位処理フィルタ部10からの出力であるオーディオ信号Lout1及びオーディオ信号Rout1に対してトランスオーラル処理を行うフィルタである。
 補正処理部の一例であるスピーカ再配置処理部30は、トランスオーラルシステムフィルタ部20からの出力であるオーディオ信号Lout2及びオーディオ信号Rout2に対して、聴取位置の変化に応じたスピーカ再配置処理を行うフィルタである。スピーカ再配置処理部30からの出力であるオーディオ信号Lout3及びオーディオ信号Rout3が、実スピーカ装置SPL、SPRのそれぞれに供給され、所定の音声が再生される。所定の音声は、音楽、人の声、自然音、これらを組み合わせもの等、何でも良い。
 制御部40は、CPU(Central Processing Unit)等から構成されており、音響処理装置1の各部を制御する。制御部40は、図示しないメモリを有している。メモリは、制御部40により実行されるプログラムが格納されたROM(Read Only Memory)や、制御部40がプログラムを実行する際のワークメモリとして使用されるRAM(Random Access Memory)が挙げられる。詳細は後述するが、制御部40は、位置検出センサ50により検出される聴取者Uの聴取位置と、実スピーカ装置SPL、SPRとがなす角度である見込み角を算出する機能を有する。また、制御部40は、見込み角に応じたHRTFを取得する。制御部40は、見込み角に応じたHRTFを自身が有するメモリから読み出すことで取得しても良いし、他のメモリに記憶されている見込み角に応じたHRTFを読み出すことで取得しても良い。また、制御部40は、ネットワーク等を介して見込み角に応じたHRTFを取得するようにしても良い。
 位置検出センサ50は、例えば、撮像装置から構成されており、聴取者Uの位置、即ち、聴取位置を検出するセンサである。位置検出センサ50は、それ自体、独立したものであっても良いし、他の機器、例えば、実スピーカ装置SPL、SPRから再生される音声と同期再生される映像を表示するテレビジョン装置に組み込まれていても良い。位置検出センサ50の検出結果が、制御部40に供給される。
(音像定位処理フィルタ部)
 以下、音響処理装置1の各部について詳細に説明する。まず、音像定位処理フィルタ部10を説明するに当たり、音像定位処理の原理について説明する。図9は、音像定位処理の原理を説明するための図である。
 図9に示すように、所定の再生音場において、ダミーヘッドDHの位置を聴取者Uの位置とし、このダミーヘッドDHの位置の聴取者Uに対して、音像を定位させようとする左右の仮想スピーカ位置(スピーカがあるものと想定する位置)に実際に実スピーカ装置SPL、SPRを設置する。
 そして、実スピーカ装置SPL、SPRから再生される音声をダミーヘッドDHの両耳部分において収音し、実スピーカ装置SPL、SPRから再生された音声が、ダミーヘッドDHの両耳部分に到達したときには、どのように変化するか示す伝達関数であるHRTFを予め測定しておく。
 図9に示すように、本実施の形態においては、実スピーカ装置SPLからダミーヘッドDHの左耳までの音声の伝達関数はM11であり、実スピーカ装置SPLからダミーヘッドDHの右耳までの音声の伝達関数はM12であるとする。同様に、実スピーカ装置SPRからダミーヘッドDHの左耳までの音声の伝達関数はM12であり、実スピーカ装置SPRからダミーヘッドDHの右耳までの音声の伝達関数はM11であるとする。
 この場合、図9を用いて上述したように予め測定したHRTFを用いて処理し、その処理後のオーディオ信号による音声を聴取者Uの耳元で再生するようにする。これにより、実スピーカ装置SPL、SPRから再生される音声の音像を任意の位置に定位させることができる。
 なお、ここではHRTFの測定に際し、ダミーヘッドDHを用いるようにしたがこれに限るものではない。HRTFを測定する再生音場に実際に人間を座らせ、その耳近傍にマイクを置いて音声のHRTFを測定するようにしても良い。更に。HTRFは測定されたものに限らず、計算機シミュレーションなどにより算出されたものでも良い。音像の定位位置は、左右の2箇所に限らず例えば5箇所(5チャンネルにかかる音響再生システムに対応する位置(具体的には、センター、フロントレフト、フロントライト、リアレフト、リアライト))でも良く、その場合には、各位置に置いた実際のスピーカ装置からダミーヘッドDHの両耳までのHRTFがそれぞれ求められる。前後方向のみに限らず上下方向、例えば天井(ダミーヘッドDHの上方)に音像が定位する位置が設定されても良い。
 このように、所定の位置に音像を定位させるために、予め測定などで得た音声のHRTFによる処理を行なう部分が、図8に示した音像定位処理フィルタ部10である。本実施の形態の音像定位処理フィルタ部10は、左右2チャンネルのオーディオ信号を処理することができるものであり、図10に示すように、4つのフィルタ101、102、103、104と、2つの加算器105、106とからなるものである。
 フィルタ101は、左チャンネル入力端子Linを通じて供給を受けた左チャンネルのオーディオ信号をHRTF:M11で処理するものであり、処理後のオーディオ信号を左チャンネル用の加算器105に供給する。また、フィルタ102は、左チャンネル入力端子Linを通じて供給を受けた左チャンネルのオーディオ信号をHRTF:M12で処理するものであり、処理後のオーディオ信号を右チャンネル用の加算器106に供給する。
 また、フィルタ103は、右チャンネル入力端子Rinを通じて供給を受けた右チャンネルのオーディオ信号をHRTF:M12で処理するものであり、処理後のオーディオ信号を左チャンネル用の加算器105に供給する。また、フィルタ104は、右チャンネル入力端子Rinを通じて供給を受けた右チャンネルのオーディオ信号をHRTF:M11で処理するものであり、処理後のオーディオ信号を右チャンネル用の加算器106に供給する。
 これにより、左チャンネル用の加算器105から出力されるオーディオ信号による音声と、右チャンネル用の加算器106から出力されるオーディオ信号による音声が、音像を定位させようとする左右の仮想スピーカ位置から再生されるように、その音像が定位するようになされる。加算器105からはオーディオ信号Lout1が出力され、加算器106からはオーディオ信号Rout1が出力される。
(トランスオーラルシステムフィルタ部)
 音像定位処理フィルタ部10による音像定位処理が施されていても、図8に模式的に示すように、聴取者Uの耳元から離間された実スピーカ装置SPL、SPRから再生する場合は実際の再生音場におけるHRTF{HB1,HB2}の影響を受けて、再生音の音像を、目的とする位置に正確に定位させることができない場合がある。
 そこで、本実施の形態においては、トランスオーラルシステムフィルタ部20を用いた処理を、音像定位処理フィルタ部10から出力されるオーディオ信号に対して行なうことにより、実スピーカ装置SPL、SPRから再生される音声を、所定位置から再生されたように正確に定位させる。
 トランスオーラルシステムフィルタ部20は、トランスオーラルシステムが適用されて形成された音声フィルタ(例えば、FIR(Finite Impulse Response)フィルタ)である。トランスオーラルシステムは、ヘッドホンを用いて音声を耳元で厳密に再生するようにする方式であるバイノーラルシステム方式と同様の効果を、スピーカ装置を用いた場合にも実現しようとする技術である。
 トランスオーラルシステムについて、図8の場合を例にして説明すると、実スピーカ装置SPL、SPRから再生される音声について、それぞれの実スピーカ装置から再生される音声の聴取者Uの左右それぞれの耳部までのHRTF{HB1,HB2}の影響をキャンセルすることにより、実スピーカ装置SPL、SPRから再生される音声を厳密に再生させるようにするものである。
 従って、図8に示すトランスオーラルシステムフィルタ部20は、実スピーカ装置SPL、SPRから再生されることになる音声について、再生音場におけるHRTFの影響をキャンセルすることにより、実スピーカ装置SPL、SPRから再生される音声の音像を仮想的な所定の位置に正確に定位させる。
 図11に示すように、トランスオーラルシステムフィルタ部20は、実スピーカ装置SPL、SPRから聴取者Uの左右の耳までのHRTFの影響をキャンセルするために、実スピーカ装置SPL、SPRから聴取者Uの左右の耳までのHRTF{HB1,HB2}の逆関数に応じてオーディオ信号を処理するフィルタ201、202、203、204と、加算器205及び206とを備えたものである。なお、本実施の形態において、フィルタ201、202、203、204においては、逆フィルタ特性をも考慮した処理を行ないより自然な再生音声を再生できるようにしている。
 各フィルタ201、202、203、204のそれぞれは、制御部40により設定されたフィルタ係数を用いて所定の処理を行う。具体的には、トランスオーラルシステムフィルタ部20の各フィルタは、制御部40によりセットされた係数データに基づいて、HRTF{HB1,HB2}の逆関数を形成し、これによりオーディオ信号を処理することによって、再生音場におけるHRTF{HB1,HB2}の影響をキャンセルするようにしている。
 そして、フィルタ201からの出力は、左チャンネル用の加算器205に供給され、フィルタ202からの出力は、右チャンネル用の加算器206に供給される。同様に、フィルタ203からの出力は、左チャンネル用の加算器205に供給され、フィルタ204からの出力は、右チャンネル用の加算器206に供給される。
 そして、各加算器205、206は、これらに供給されたオーディオ信号を加算する。加算器205からは、オーディオ信号Lout2が出力される。また、加算器206からはオーディオ信号Rout2が出力される。
(スピーカ再配置処理部)
 上述したように、聴取者Uの聴取位置がサービスエリアからずれている場合には、トランスオーラルシステムフィルタ部20によるトランスオーラル処理の効果が減退してしまう。そこで、本実施の形態では、スピーカ再配置処理部30によるスピーカ再配置処理を行うことにより、トランスオーラル処理の効果が減退してしまうことを防止する。
 図12は、スピーカ再配置処理部30の構成例等を示す図である。スピーカ再配置処理部30は、フィルタ301と、フィルタ302と、フィルタ303と、フィルタ304と、フィルタ301の出力とフィルタ303の出力とを加算する加算器305と、フィルタ302の出力とフィルタ304の出力とを加算する加算器306とを有している。本実施の形態では、実スピーカ装置SPL、SPRが対称性のある位置に配置されているので、フィルタ301、304には同一のフィルタ係数C1が設定され、フィルタ302、303には同一のフィルタ係数C2が設定される。
 これまでの例と同様に、サービスエリアからずれた聴取位置にいる聴取者Uの耳までのHRTFをHRTF{HB1,HB2}とする。また、サービスエリアに対応する聴取位置にいる聴取者Uの耳までのHRTFをHRTF{HA1,HA2}とする。図12において点線で示す仮想スピーカ装置VSPL、VSPRの位置は、聴取者Uの位置と見込み角がA[deg]となる位置、つまり、トランスオーラル処理の効果が得られる見込み角となる位置を示したものである。
 制御部40は、フィルタ係数C1、C2を、例えば、下記の式(1)、(2)に基づいて設定することにより、実スピーカ装置SPL、SPRの位置を仮想的なスピーカ装置の位置であるスピーカ装置VSPL、VSPRに仮想的に再配置する。フィルタ係数C1、C2は、見込み角A[deg]に対してずれが発生している角度を見込み角A[deg]に補正するフィルタ係数である。
 (式1)
 C1=(HB1*HA1-HB2*HA2)/(HB1*HB1-HB2*HB2)
 (式2)
 C2=(HB1*HA2-HB2*HA1)/(HB1*HB1-HB2*HB2)
 スピーカ再配置処理部30によるフィルタ係数C1、C2に基づくフィルタ処理が行われることにより、聴取者Uの聴取位置がサービスエリアからずれた場合でも、トランスオーラル処理の効果が減退してしまうことを防止することができる。換言すれば、聴取者Uの聴取位置がサービスエリアからずれた場合でも、聴取者Uに対する音像定位効果が劣化してしまうことを防止することができる。
(音響処理装置の動作例)
 次に、音響処理装置1の動作例について説明する。左チャンネル入力端子Linから入力される左チャンネルのオーディオ信号及び右チャンネル入力端子Rinから入力される右チャンネルのオーディオ信号に対して、音像定位処理フィルタ部10による音像定位処理及びトランスオーラルシステムフィルタ部20によるトランスオーラル処理が行われる。トランスオーラルシステムフィルタ部20から、オーディオ信号Lout2、Rout2が出力される。オーディオ信号Lout2、Rout2は、トランスオーラル処理がなされたトランスオーラル信号である。
 一方、制御部40に対して、位置検出センサ50から聴取者Uの聴取位置に関するセンサ情報が供給される。制御部40は、センサ情報から得られる聴取者Uの聴取位置に基づいて、実スピーカ装置SPL、SPRと聴取者Uの聴取位置とがなす角度、即ち、見込み角を算出する。算出された見込み角がサービスエリアに対応する見込み角である場合には、スピーカ再配置処理部30による処理は行われずに、オーディオ信号Lout2、Rout2に基づく音声が実スピーカ装置SPL、SPRから再生される。
 算出された見込み角がサービスエリアに対応する見込み角でない場合には、スピーカ再配置処理部30によるスピーカ再配置処理が行われる。例えば、制御部40は、算出した見込み角に応じたHRTF{HB1,HB2}を取得する。一例として、サービスエリアに対応する見込み角が15[deg]の場合には、制御部40は、例えば、5~20[deg]の各角度に応じたHRTF{HB1,HB2}を記憶しており、算出した見込み角に応じたHRTF{HB1,HB2}を読み出す。なお、角度の分解能、即ち、どの程度の角度刻み(例えば、1、0.5[deg]等)でHRTF{HB1,HB2}を記憶するかは適宜、設定可能である。
 また、制御部40は、サービスエリアに対応する見込み角に対応するHRTF{HA1,HA2}を記憶している。そして、制御部40は、読み出したHRTF{HB1,HB2}及び予め有しているHRTF {HA1,HA2}を上述した式(1)、(2)に当てはめ、フィルタ係数C1、C2を求める。そして、求めたフィルタ係数C1、C2をスピーカ再配置処理部30のフィルタ301~304に適宜、設定する。係るフィルタ係数C1、C2を用いてスピーカ再配置処理部30によるスピーカ再配置処理が行われる。スピーカ再配置処理部30から、オーディオ信号Lout3及びオーディオ信号Rout3が出力される。オーディオ信号Lout3が実スピーカ装置SPLから再生され、オーディオ信号Rout3が実スピーカ装置SPRから再生される。
 以上説明した第1の実施の形態によれば、聴取者Uの聴取位置がサービスエリアからずれた場合でも、トランスオーラル処理の効果が減退してしまうことを防止することができる。
<第2の実施の形態>
 次に、第2の実施の形態について説明する。なお、第2の実施の形態において、第1の実施の形態と同一、同質の構成については、同一の参照符号を付している。また、第1の実施の形態で説明した事項は、特に断らない限り、第2の実施の形態に適用することができる。
 第1の実施の形態では、聴取者Uの聴取位置がサービスエリアから前後方向にずれた場合を想定していた。即ち、聴取者Uの聴取位置がサービルエリアからずれた場合であっても、聴取位置に対する実スピーカ装置SPL、SPRの略対称的な配置が維持される場合を想定していた。しかしながら、聴取者Uは、スピーカ装置に対して前後方向だけではなく、左右方向に移動することもある。つまり、移動後の聴取位置が、サービスエリアからずれた位置であり、且つ、聴取位置に対する実スピーカ装置SPL、SPRの略対称的な配置が維持されない場合も想定される。第2の実施の形態では、係る場合に対応する実施の形態である。
(音響処理装置の構成例)
 図13は、第2の実施の形態に係る音響処理装置(音響処理装置1a)の構成例を示すブロック図である。音響処理装置1aが、第1の実施の形態に係る音響処理装置1の構成と異なる点は、音響処理部60を有する点である。音響処理部60は、例えば、スピーカ再配置処理部30の後段に設けられている。
 音響処理部60は、スピーカ再配置処理部30からの出力であるオーディオ信号Lout3、Rout3に対して、所定の音響処理を行う。所定の音響処理は、例えば、2つの実スピーカ装置SPL、SPRのそれぞれから再生されるオーディオ信号が現在の聴取位置に到達する到達時間を略等しくする処理及び2つの実スピーカ装置SPL、SPRのそれぞれから再生されるオーディオ信号のレベルを略等しくする処理の、少なくとも一方の処理である。なお、略等しいとは、完全に等しいことを含み、且つ、2つの実スピーカ装置SPL、SPRから再生される音声の到達時間やレベルに、聴取者Uに対して違和感を生じさせない程度の閾値以下の誤差があっても良いことを意味する。
 音響処理部60からは、音響処理部60による音響処理が施されたオーディオ信号である、オーディオ信号Lout4、Rout4が出力される。オーディオ信号Lout4が実スピーカ装置SPLから再生され、オーディオ信号Rout4が実スピーカ装置SPRから再生される。
(音響処理装置の動作例)
 次に、図14を参照して、音響処理装置1aの動作例について説明する。図14では、サービスエリアに対応する聴取位置PO1(見込み角はA[deg]とする)で音声を聴取する聴取者Uが示されている。ここで、例えば、聴取者Uが図14における左斜め後ろ側の聴取位置PO2に移動し、聴取位置がサービスエリアから外れた場合を想定する。係る聴取者Uの移動が位置検出センサ50により検出される。位置検出センサ50により検出されたセンサ情報が制御部40に供給される。
 制御部40は、位置検出センサ50から供給されるセンサ情報に基づいて、聴取位置PO2を把握する。そして、制御部40は、聴取位置PO2から前方に延在する仮想的な線分上(具体的には、一般に、聴取者Uの顔が向く方向に延在する仮想的な線分上)の所定の箇所が、仮想スピーカ装置VSPL1と実スピーカ装置SPRとの略中央となるように、仮想スピーカ装置VSPL1を設定する。このままでは、図14に示すように、聴取者Uの聴取位置PO2と、実スピーカ装置SPR及び仮想スピーカ装置VSPL1とがなす見込み角がA[deg]より小さいB[deg]となっており、トランスオーラルの効果が減退する。従って、見込み角B[deg]がA[deg]となるようにスピーカ再配置処理部30による処理が行われる。
 スピーカ再配置処理部30による処理は、第1の実施の形態で説明しているので、ここでは、概略的な説明に留める。制御部40は、見込み角B[deg]に応じたHRTF{HB1,HB2}を取得する。制御部40は、第1の実施の形態で説明した式(1)、(2)に基づいてフィルタ係数C1、C2を取得し、取得したフィルタ係数C1、C2をスピーカ再配置処理部30におけるフィルタ301、302、303、304に適宜、設定する。係るフィルタ係数C1、C2に基づいて、実スピーカ装置SPL、SPRの位置がスピーカ装置VSPL2、VSPR2に仮想的に再配置されるように、スピーカ再配置処理部30による処理が行われ、スピーカ再配置処理部30からオーディオ信号Lout3、Rout3が出力される。
 オーディオ信号Lout3、Rout3に対して、制御部40の制御に応じて、音響処理部60が所定の音響処理を実行する。例えば、音響処理部60は、実スピーカ装置SPL、SPRから再生されるオーディオ信号が聴取位置PO2に到達する到達時間を略等しくする音響処理を行う。例えば、音響処理部60が、オーディオ信号Lout3に対する遅延処理を行うことにより、2つの実スピーカ装置SPL、SPRのそれぞれから再生されるオーディオ信号が聴取位置PO2に到達する到達時間を略等しくする。
 なお、遅延量は、実スピーカ装置SPLと仮想スピーカ装置VSPLとの間の距離差に基づいて適切に設定されても良い。また、例えば、聴取者Uの聴取位置PO2にマイクロホンを配置し、マイクロホンで検出される実スピーカ装置SPL、SPRからのそれぞれのオーディオ信号が聴取位置PO2までに到達する時間が略等しくなるように、遅延量が設定されるようにしても良い。マイクロホンは、マイクロホン単体でも良いし、他の機器、例えば、テレビジョン装置のリモートコントロール装置やスマートホンに組み込まれたものが使用されても良い。係る処理により、聴取位置PO2にいる聴取者Uに対する、実スピーカ装置SPL、SPRから再生される音声の到達時間が略等しくなる。なお、必要に応じて、信号レベルを調整する処理等が音響処理部60により行われるようにしても良い。
 音響処理部60による処理により、実スピーカ装置SPL、SPRから再生されるオーディオ信号が聴取位置PO2までに到達する到達時間が略等しくなる。音響処理部60からは、オーディオ信号Lout4及びオーディオ信号Rout4が出力される。オーディオ信号Lout4が実スピーカ装置SPLから再生され、オーディオ信号Rout4が実スピーカ装置SPRから再生される。以上説明した第2の実施の形態においても、第1の実施の形態と同様の効果が得られる。
(第2の実施の形態の変形例)
 上述した第2の実施の形態では、実スピーカ装置SPLを仮想スピーカ装置VSPL1の位置に遠ざけるように遅延処理が行われる例を説明したが、実スピーカ装置SPRを仮想スピーカ装置VSPL1の位置に近づけるような遅延処理が行われるようにしても良い。
<変形例>
 以上、本開示の実施の形態について具体的に説明したが、本開示の内容は上述した実施の形態に限定されるものではなく、本開示の技術的思想に基づく各種の変形が可能である。
 上述した実施の形態において、音響処理装置1、1aが位置検出センサ50を有しない構成であっても良い。この場合には、コンテンツである音声(映像と同期したものでも良い)を聴取する前に事前にキャリブレーション(調整)が行われる。キャリブレーションは、例えば、以下のように行われる。聴取者Uが所定の聴取位置でオーディオ信号を再生する。このとき、制御部40は、見込み角に応じたHRTF{HB1,HB2}を変化させ、即ち、スピーカ再配置処理部30に対するフィルタ係数C1、C2を変化させてオーディオ信号を再生する制御を行う。聴取者Uは、聴感上、所定の定位感が得られた段階で音響処理装置に対する指示を行う。指示を受信した音響処理装置は、その時点でのフィルタ係数C1、C2をスピーカ再配置処理部30に設定する。このように、スピーカ再配置処理に関する設定がユーザによりなされる構成でも良い。
 キャリブレーション後に、実際のコンテンツを再生する。本例によれば、位置検出センサ50を不要とすることができる。また、聴取者Uが自身の聴感に基づく設定を行っているので、当該聴取者Uが納得感を得ることができる。なお、キャリブレーションを行った場合は、その後に聴取位置が大幅に変化することはないものとして、聴取位置がずれた場合でもフィルタ係数C1、C2を変化させないようにしても良い。
 キャリブレーションを行うのではなく、コンテンツの再生の進行と共に、実施の形態で説明した処理がリアルタイムに行われても良い。但し、聴取位置の僅かにずれた場合にも上述した処理が行われると、聴感上、違和感を生じさせる虞がある。そこで、聴取者Uの聴取位置が所定以上ずれた場合に、実施の形態で説明した処理が行われるようにしても良い。
 スピーカ再配置処理部30に設定されるフィルタ係数C1、C2は、上述した式(1)、(2)以外の方法で算出されても良い。例えば、フィルタ係数C1、C2を、式(1)、(2)により算出する方法に比べて簡略化した方法で算出するようにしても良い。また、フィルタ係数C1、C2は予め算出しておいたものを使用しても良い。更には、ある2つの見込み角に応じたフィルタ係数C1、C2から、2つの見込み角の間の見込み角に対応するフィルタ係数C1、C2を補間により算出するようにしても良い。
 複数の聴取者が位置検出センサ50により検出された場合には、2個のスピーカ装置が対称的な位置となる聴取位置にいる聴取者の聴取位置を優先して、上述した処理を行うようにしても良い。
 本開示は、2チャンネル以外のマルチチャンネルでオーディオ信号を再生するシステムに対しても適用することができる。また、位置検出センサ50は、撮像装置に限定されることはなく、他のセンサでも良い。例えば、位置検出センサ50は、ユーザが有する発信器の位置を検出するセンサでも良い。
 上述の実施の形態において挙げた構成、方法、工程、形状、材料及び数値などはあくまでも例に過ぎず、必要に応じてこれと異なる構成、方法、工程、形状、材料及び数値などを用いてもよい。上述した実施の形態および変形例は、適宜組み合わせることができる。また、本開示は、方法、プログラム、当該プログラムを記憶した媒体であっても良い。プログラムは、例えば、音響処理装置が有する所定のメモリに格納される。
 本開示は、以下の構成も採ることができる。
(1)
 所定のオーディオ信号に対してトランスオーラル処理を行うトランスオーラル処理部と、
 前記トランスオーラル処理がなされたオーディオ信号に対して、聴取位置の変化に応じた補正処理を行う補正処理部と
 を有する音響処理装置。
(2)
 前記聴取位置の変化は、少なくとも2つのスピーカ装置の位置と前記聴取位置を頂点とした3点から形成される角度と、所定の角度とのずれである
 (1)に記載の音響処理装置。
(3)
 前記所定の角度は、予め設定された角度である
 (2)に記載の音響処理装置。
(4)
 前記補正処理部は、2つの仮想スピーカ装置の位置と前記聴取位置とがなす角度が、前記所定の角度と一致するように、2つの実スピーカ装置の位置を前記仮想スピーカ装置の位置に仮想的に再配置する処理を行う
 (2)又は(3)に記載の音響処理装置。
(5)
 前記補正処理部は、フィルタから構成されており、
 前記補正処理部は、前記ずれが発生している角度を前記所定の角度に補正するフィルタ係数を用いて補正処理を行う
 (2)から(4)までの何れかに記載の音響処理装置。
(6)
 前記2つの実スピーカ装置の間の中点を通る軸上の所定位置に前記聴取位置が設定されている
 (4)に記載の音響処理装置。
(7)
 前記2つの実スピーカ装置のそれぞれから再生されるオーディオ信号が前記聴取位置に到達する到達時間を略等しくする処理及び前記2つの実スピーカ装置のそれぞれから再生されるオーディオ信号のレベルを略等しくする処理の、少なくとも一方の処理を行う
 (4)又は(6)に記載の音響処理装置。
(8)
 前記聴取位置を検出するセンサ部を有する
 (1)から(7)までの何れかに記載の音響処理装置。
(9)
 前記補正処理部による補正処理がなされたオーディオ信号を再生する実スピーカ装置を有する
 (1)から(8)までの何れかに記載の音響処理装置。
(10)
 前記補正処理に関する設定がユーザによりなされる構成とされている
 (1)から(9)までの何れかに記載の音響処理装置。
(11)
 トランスオーラル処理部が、所定のオーディオ信号に対してトランスオーラル処理を行い、
 補正処理部が、前記トランスオーラル処理がなされたオーディオ信号に対して、聴取位置の変化に応じた補正処理を行う
 音響処理方法。
(12)
 トランスオーラル処理部が、所定のオーディオ信号に対してトランスオーラル処理を行い、
 補正処理部が、前記トランスオーラル処理がなされたオーディオ信号に対して、聴取位置の変化に応じた補正処理を行う
 音響処理方法をコンピュータに実行させるプログラム。
1,1a・・・音響処理装置、20・・・トランスオーラルシステムフィルタ部、30・・・スピーカ再配置処理部、40・・・制御部、50・・・位置検出センサ、SPL,SPR・・・実スピーカ装置、VSPL、VSPR・・・仮想スピーカ装置

Claims (12)

  1.  所定のオーディオ信号に対してトランスオーラル処理を行うトランスオーラル処理部と、
     前記トランスオーラル処理がなされたオーディオ信号に対して、聴取位置の変化に応じた補正処理を行う補正処理部と
     を有する音響処理装置。
  2.  前記聴取位置の変化は、少なくとも2つのスピーカ装置の位置と前記聴取位置を頂点とした3点から形成される角度と、所定の角度とのずれである
     請求項1に記載の音響処理装置。
  3.  前記所定の角度は、予め設定された角度である
     請求項2に記載の音響処理装置。
  4.  前記補正処理部は、2つの仮想スピーカ装置の位置と前記聴取位置とがなす角度が、前記所定の角度と一致するように、2つの実スピーカ装置の位置を前記仮想スピーカ装置の位置に仮想的に再配置する処理を行う
     請求項2に記載の音響処理装置。
  5.  前記補正処理部は、フィルタから構成されており、
     前記補正処理部は、前記ずれが発生している角度を前記所定の角度に補正するフィルタ係数を用いて補正処理を行う
     請求項2に記載の音響処理装置。
  6.  前記2つの実スピーカ装置の間の中点を通る軸上の所定位置に前記聴取位置が設定されている
     請求項4に記載の音響処理装置。
  7.  前記2つの実スピーカ装置のそれぞれから再生されるオーディオ信号が前記聴取位置に到達する到達時間を略等しくする処理及び前記2つの実スピーカ装置のそれぞれから再生されるオーディオ信号のレベルを略等しくする処理の、少なくとも一方の処理を行う
     請求項4に記載の音響処理装置。
  8.  前記聴取位置を検出するセンサ部を有する
     請求項1に記載の音響処理装置。
  9.  前記補正処理部による補正処理がなされたオーディオ信号を再生する実スピーカ装置を有する
     請求項1に記載の音響処理装置。
  10.  前記補正処理に関する設定がユーザによりなされる構成とされている
     請求項1に記載の音響処理装置。
  11.  トランスオーラル処理部が、所定のオーディオ信号に対してトランスオーラル処理を行い、
     補正処理部が、前記トランスオーラル処理がなされたオーディオ信号に対して、聴取位置の変化に応じた補正処理を行う
     音響処理方法。
  12.  トランスオーラル処理部が、所定のオーディオ信号に対してトランスオーラル処理を行い、
     補正処理部が、前記トランスオーラル処理がなされたオーディオ信号に対して、聴取位置の変化に応じた補正処理を行う
     音響処理方法をコンピュータに実行させるプログラム。
PCT/JP2019/003804 2018-04-10 2019-02-04 音響処理装置、音響処理方法及びプログラム WO2019198314A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201980024305.7A CN111937414A (zh) 2018-04-10 2019-02-04 音频处理装置、音频处理方法和程序
DE112019001916.3T DE112019001916T5 (de) 2018-04-10 2019-02-04 Audioverarbeitungsvorrichtung, audioverarbeitungsverfahren und programm
US17/044,933 US11477595B2 (en) 2018-04-10 2019-02-04 Audio processing device and audio processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018075652 2018-04-10
JP2018-075652 2018-04-10

Publications (1)

Publication Number Publication Date
WO2019198314A1 true WO2019198314A1 (ja) 2019-10-17

Family

ID=68164038

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/003804 WO2019198314A1 (ja) 2018-04-10 2019-02-04 音響処理装置、音響処理方法及びプログラム

Country Status (4)

Country Link
US (1) US11477595B2 (ja)
CN (1) CN111937414A (ja)
DE (1) DE112019001916T5 (ja)
WO (1) WO2019198314A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102609084B1 (ko) * 2018-08-21 2023-12-06 삼성전자주식회사 전자장치, 그 제어방법 및 기록매체
US11741093B1 (en) 2021-07-21 2023-08-29 T-Mobile Usa, Inc. Intermediate communication layer to translate a request between a user of a database and the database
US11924711B1 (en) 2021-08-20 2024-03-05 T-Mobile Usa, Inc. Self-mapping listeners for location tracking in wireless personal area networks

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4975954A (en) * 1987-10-15 1990-12-04 Cooper Duane H Head diffraction compensated stereo system with optimal equalization
JP2007028198A (ja) * 2005-07-15 2007-02-01 Yamaha Corp 音響装置
JP2009124395A (ja) * 2007-11-14 2009-06-04 Yamaha Corp 仮想音源定位装置
US20140064493A1 (en) * 2005-12-22 2014-03-06 Samsung Electronics Co., Ltd. Apparatus and method of reproducing virtual sound of two channels based on listener's position

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4893342A (en) 1987-10-15 1990-01-09 Cooper Duane H Head diffraction compensated stereo system
GB9324240D0 (en) * 1993-11-25 1994-01-12 Central Research Lab Ltd Method and apparatus for processing a bonaural pair of signals
JPH0946800A (ja) 1995-07-28 1997-02-14 Sanyo Electric Co Ltd 音像制御装置
ATE502311T1 (de) * 2003-10-10 2011-04-15 Harman Becker Automotive Sys System und verfahren zur bestimmung der position einer schallquelle
US7634092B2 (en) * 2004-10-14 2009-12-15 Dolby Laboratories Licensing Corporation Head related transfer functions for panned stereo audio content
US20060182284A1 (en) * 2005-02-15 2006-08-17 Qsound Labs, Inc. System and method for processing audio data for narrow geometry speakers
EP1858296A1 (en) * 2006-05-17 2007-11-21 SonicEmotion AG Method and system for producing a binaural impression using loudspeakers
JP5682103B2 (ja) * 2009-08-27 2015-03-11 ソニー株式会社 音声信号処理装置および音声信号処理方法
KR102443054B1 (ko) * 2014-03-24 2022-09-14 삼성전자주식회사 음향 신호의 렌더링 방법, 장치 및 컴퓨터 판독 가능한 기록 매체

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4975954A (en) * 1987-10-15 1990-12-04 Cooper Duane H Head diffraction compensated stereo system with optimal equalization
JP2007028198A (ja) * 2005-07-15 2007-02-01 Yamaha Corp 音響装置
US20140064493A1 (en) * 2005-12-22 2014-03-06 Samsung Electronics Co., Ltd. Apparatus and method of reproducing virtual sound of two channels based on listener's position
JP2009124395A (ja) * 2007-11-14 2009-06-04 Yamaha Corp 仮想音源定位装置

Also Published As

Publication number Publication date
US20210168549A1 (en) 2021-06-03
DE112019001916T5 (de) 2020-12-24
CN111937414A (zh) 2020-11-13
US11477595B2 (en) 2022-10-18

Similar Documents

Publication Publication Date Title
US7978866B2 (en) Acoustics correcting apparatus
US7382885B1 (en) Multi-channel audio reproduction apparatus and method for loudspeaker sound reproduction using position adjustable virtual sound images
US7123731B2 (en) System and method for optimization of three-dimensional audio
JP6824155B2 (ja) 音声再生システム及び方法
JP4780119B2 (ja) 頭部伝達関数測定方法、頭部伝達関数畳み込み方法および頭部伝達関数畳み込み装置
KR101567461B1 (ko) 다채널 사운드 신호 생성 장치
US7602921B2 (en) Sound image localizer
JP3435141B2 (ja) 音像定位装置、並びに音像定位装置を用いた会議装置、携帯電話機、音声再生装置、音声記録装置、情報端末装置、ゲーム機、通信および放送システム
US20050238176A1 (en) Binaural sound reproduction apparatus and method, and recording medium
AU2001239516A1 (en) System and method for optimization of three-dimensional audio
WO2019198314A1 (ja) 音響処理装置、音響処理方法及びプログラム
WO2010076850A1 (ja) 音場制御装置及び音場制御方法
JP4735920B2 (ja) 音響処理装置
JP2008311718A (ja) 音像定位制御装置及び音像定位制御プログラム
JP5691130B2 (ja) 聴者を取り囲むように配置される複数のスピーカで音響再生を行う際にクロストークをキャンセルする装置、方法、プログラム、およびシステム
JP4297077B2 (ja) 仮想音像定位処理装置、仮想音像定位処理方法およびプログラム並びに音響信号再生方式
JP2003230198A (ja) 音像定位制御装置
JP2004128854A (ja) 音響再生装置
JP2008154082A (ja) 音場再生装置
JPWO2020036077A1 (ja) 信号処理装置、信号処理方法、およびプログラム
JP2006352728A (ja) オーディオ装置
JP2010093403A (ja) 音響再生システム、音響再生装置及び音響再生方法
JP5163685B2 (ja) 頭部伝達関数測定方法、頭部伝達関数畳み込み方法および頭部伝達関数畳み込み装置
JP2016039568A (ja) 音響処理装置および方法、並びにプログラム
JP2013176170A (ja) 再生装置および再生方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19785724

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 19785724

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP