WO2015060696A1 - 입체 음향 재생 방법 및 장치 - Google Patents

입체 음향 재생 방법 및 장치 Download PDF

Info

Publication number
WO2015060696A1
WO2015060696A1 PCT/KR2014/010134 KR2014010134W WO2015060696A1 WO 2015060696 A1 WO2015060696 A1 WO 2015060696A1 KR 2014010134 W KR2014010134 W KR 2014010134W WO 2015060696 A1 WO2015060696 A1 WO 2015060696A1
Authority
WO
WIPO (PCT)
Prior art keywords
channel
signal
rendered
rendering
signals
Prior art date
Application number
PCT/KR2014/010134
Other languages
English (en)
French (fr)
Inventor
전상배
김선민
조현
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to EP23166702.3A priority Critical patent/EP4221261A1/en
Priority to US15/029,143 priority patent/US10091600B2/en
Priority to CN201480058551.1A priority patent/CN105684466B/zh
Priority to EP21154301.2A priority patent/EP3833054B1/en
Priority to EP14855641.8A priority patent/EP3035711B1/en
Priority to EP20150554.2A priority patent/EP3664475B1/en
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to MX2016004750A priority patent/MX355499B/es
Priority to JP2016523302A priority patent/JP6382965B2/ja
Priority to PL20150554T priority patent/PL3664475T3/pl
Publication of WO2015060696A1 publication Critical patent/WO2015060696A1/ko
Priority to US16/114,843 priority patent/US10645513B2/en
Priority to US16/861,354 priority patent/US11051119B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/002Non-adaptive circuits, e.g. manually adjustable or static, for enhancing the sound image or the spatial distribution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/307Frequency adjustment, e.g. tone control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/03Aspects of down-mixing multi-channel audio to configurations with lower numbers of playback channels, e.g. 7.1 -> 5.1
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/07Synergistic effects of band splitting and sub-band processing

Definitions

  • the present invention relates to a stereophonic reproduction method and apparatus, and more particularly, to a method and apparatus for reproducing a multi-channel audio signal.
  • Stereophonic sound is a technique in which a plurality of speakers are arranged at different positions on a horizontal plane, and the same or different acoustic signals are output from the respective speakers, thereby allowing the user to feel a sense of space.
  • actual sound may occur not only at various positions on the horizontal plane but also at different altitudes. Therefore, there is a need for a technique for reproducing sound signals generated at different altitudes through a speaker disposed on a horizontal plane.
  • the present invention relates to a stereophonic reproduction method and apparatus, and more particularly, to a method for reproducing a multi-channel audio signal including a high-frequency sound signal in a horizontal plane layout environment.
  • a stereo sound reproducing apparatus can reproduce a high level component of a voice signal from a speaker disposed on a horizontal plane with high image quality.
  • the stereo sound reproducing apparatus when a multi-channel audio signal is reproduced in an environment with a small number of channels, the stereo sound reproducing apparatus can minimize a tone color or a sound disappearing.
  • FIGS. 1 and 2 are block diagrams showing an internal structure of a stereophonic sound reproducing apparatus according to an embodiment.
  • FIG. 3 is a flowchart illustrating a stereophonic sound reproducing method according to an exemplary embodiment of the present invention.
  • FIG. 4 is a flowchart illustrating a stereophonic sound reproducing method for an audio signal including an application signal, according to an exemplary embodiment of the present invention.
  • FIG. 5 is a block diagram illustrating an internal structure of a 3D renderer according to an exemplary embodiment of the present invention.
  • FIG. 6 is a flowchart illustrating a method of mixing a rendered audio signal according to an embodiment.
  • FIG. 7 is a flowchart illustrating a method of mixing rendered audio signals according to one embodiment according to frequency.
  • FIG. 8 is a diagram illustrating an example of mixing a rendered audio signal according to an embodiment according to a frequency.
  • FIGS. 9 and 10 are block diagrams showing an internal structure of a stereophonic sound reproducing apparatus according to an embodiment.
  • a stereo sound reproducing method includes: obtaining a multi-channel audio signal; Rendering a channel to be reproduced according to channel information and frequency of the multi-channel audio signal; And mixing the rendered signals.
  • the stereo sound reproducing method may further include the step of separating an application signal from the multi-channel audio signal, wherein the application signal is rendered according to a 2D rendering method or the angle of the application signal And rendering the output channel as a closest channel among output channels arranged horizontally on a channel-by-channel basis.
  • the mixing step may include mixing the rendered application signal according to an energy boosting method.
  • the step of separating the application signal comprises the steps of determining whether there is a non-tuned broadband signal in the multi-channel input signal, whether the level of the broadband signal is similar for each channel, whether the impulse form of the short interval is repeated, Determining whether the multi-channel input signal includes the application signal based on at least one of whether the multi-channel input signal is low or not; And separating the application signal according to the determination result.
  • the rendering comprises: separating the multi-channel audio signal into a horizontal plane channel signal and an overhead channel signal based on the channel information; Separating the overhead channel signal into a low frequency signal and a high frequency signal; Rendering the low frequency signal to the nearest channel among output channels arranged on a horizontal plane for each channel of the low frequency signal; Rendering the high frequency signal according to a 3D rendering method; And rendering the horizontal plane channel signal according to a 2D rendering method.
  • the mixing comprises: determining a gain to be applied to the rendered signals according to the channel information and the frequency; And applying and mixing the determined gain to the rendered signals.
  • the mixing may include mixing the rendered signals so that the power values are stored based on the power values of the rendered signals.
  • the mixing comprises mixing the rendered signals on a predetermined interval basis based on the power values of the rendered signals; Separating the low frequency signal among the rendered signals; And the low frequency signal includes mixing the rendered signals based on a power value of the rendered signals in a previous section.
  • the stereophonic sound reproducing apparatus includes a renderer for obtaining a multi-channel audio signal and rendering the multi-channel audio signal as a channel to be reproduced according to channel information and frequency of the multi-channel audio signal; And a mixer for mixing the rendered signals.
  • FIGS. 1 and 2 are block diagrams showing an internal structure of a stereophonic sound reproducing apparatus according to an embodiment.
  • the stereophonic sound reproducing apparatus 100 may output a multi-channel audio signal downmixed to a channel to be reproduced.
  • Stereoscopic sound means sound that adds spatial information that allows a listener who is not located in a space where a sound source is generated to perceive a sense of direction, distance, and space, it means.
  • the channel of the audio signal may mean the number of speakers to which sound is output.
  • the stereophonic sound reproducing apparatus 100 may render and mix a multi-channel audio signal into a channel to be reproduced so that a multi-channel audio signal having a large number of channels can be output and reproduced in an environment with a small number of channels.
  • the multi-channel audio signal may include a channel capable of outputting a high-level sound.
  • a channel capable of outputting a high-level sound may be a channel capable of outputting an acoustic signal through a speaker located on the head of the listener so that the user can feel the high-level feeling.
  • the horizontal plane channel may refer to a channel capable of outputting acoustic signals through a speaker located on a horizontal plane with the listener.
  • the environment having a small number of channels as described above may not include a channel capable of outputting a high sound level, and may mean an environment capable of outputting sound through a speaker disposed on a horizontal plane according to a horizontal plane channel.
  • a horizontal channel may denote a channel including an audio signal that can be output through a speaker disposed on a horizontal plane.
  • the overhead channel may refer to a channel that includes an audio signal that can be output through a speaker disposed on an elevation other than a horizontal plane and capable of outputting a high level sound.
  • a stereophonic sound reproducing apparatus 100 may include a renderer 110 and a mixer 120.
  • the stereophonic sound reproducing apparatus 100 may render a multi-channel audio signal, mix it, and output it to a channel to be reproduced.
  • a multi-channel audio signal is a 22.2 channel signal
  • a channel to be reproduced may be 5.1 or 7.1 channels.
  • the stereophonic sound reproducing apparatus 100 performs rendering by defining a channel to which the channels of the multi-channel audio signal are to be associated, mixes the rendered audio signals by combining the signals of the channels corresponding to the channel to be reproduced, .
  • the renderer 110 may render a multi-channel audio signal according to channel and frequency.
  • the renderer 110 may render a multi-channel audio signal in 3D and a 2D, respectively, according to the overhead channel and the horizontal plane channel.
  • the renderer 110 may render the overhead channels passed through HRTF (Head Related Transfer filter) filters in different ways according to the frequency to 3D render the overhead channel.
  • HRTF Head Related Transfer filter
  • the HRTF filter has a complicated path characteristic such as diffraction at the head surface and reflection by the auricle as well as a simple path difference such as a level difference between two ears and an acoustic time difference between two ears, It enables stereoscopic sound to be recognized by the changing phenomenon.
  • the HRTF filter can process the audio signals contained in the overhead channel so that the stereo sound can be recognized by changing the sound quality of the audio signal.
  • the renderer 110 renders a low frequency signal of the overhead channel signal according to an add to closest channel method and renders a high frequency signal according to a multichannel panning method can do.
  • each channel signal of the multi-channel audio signal can be rendered on at least one horizontal plane channel by applying a gain value differently set for each channel to be rendered in each channel signal.
  • the signals of each channel to which the gain value is applied can be output as the final signal by mixing through mixing.
  • the multi-channel panning method may render the channels of the multi-channel audio signal into a plurality of channels rather than rendering them separately. Accordingly, the stereophonic sound reproducing apparatus 100 according to an exemplary embodiment renders a low-frequency signal according to an add-to-clause-channel method, thereby preventing sound quality deterioration that may occur as a result of mixing a plurality of channels into one output channel can do. That is, when a plurality of channels are mixed in one output channel, the sound quality may be amplified or decreased due to interference between the respective channel signals, so that it is possible to prevent deterioration of sound quality by mixing one channel to one output channel.
  • each channel of a multi-channel audio signal can be rendered on the nearest channel among the channels to be reproduced instead of being divided into a plurality of channels.
  • the stereophonic sound reproducing apparatus 100 can render sweet spots without degrading sound quality by performing rendering in different ways according to frequencies. That is, for a low-frequency signal having a strong diffraction characteristic, rendering is performed according to the add-close channel method, thereby preventing sound quality deterioration that may occur as a result of mixing a plurality of channels into one output channel.
  • the sweet spot means a predetermined range in which the listener can optimally listen to the unaltered stereo sound. The wider the sweet spot, the more the listener can listen to the undistorted stereo sound in a wide range and the listener can hear the distorted sound, such as sound quality or sound, if it is not located in the sweet spot.
  • FIG. 4 A method of rendering by a different panning method according to frequency will be described in more detail with reference to FIG. 4 or FIG. 5.
  • FIG. 5 A method of rendering by a different panning method according to frequency will be described in more detail with reference to FIG. 4 or FIG. 5.
  • the mixer 120 may combine the signals of the respective channels corresponding to the horizontal channel by the renderer 110 and output the resultant signal as a final signal.
  • the mixer 120 may mix signals of the respective channels by a predetermined interval. For example, the mixer 120 may mix signals of respective channels by one frame.
  • the mixer 120 may mix based on the power value of the rendered signals on each of the channels to be reproduced.
  • the mixer 120 can determine the amplitude of the final signal or the gain to be applied to the final signal based on the power value of the rendered signals on each of the channels to be reproduced.
  • the stereophonic sound reproducing apparatus 200 may include an acoustic analysis unit 210, a renderer 220, a mixer 230, and an output unit 240.
  • the stereo sound reproducing apparatus 200, the renderer 220 and the mixer 230 of FIG. 2 correspond to the stereo sound reproducing apparatus 100, the renderer 210 and the mixer 220 of FIG. 1, .
  • the sound analysis unit 210 may analyze a multi-channel audio signal to select a rendering mode, and may separately output some signals included in the multi-channel audio signal.
  • the sound analysis unit 210 may include a rendering mode selection unit 211 and a rendering signal separation unit 212.
  • the rendering mode selection unit 211 may determine whether there are many transient signals such as an applause sound or a rain sound in the multi-channel audio signal for each predetermined interval.
  • an audio signal that is transient such as an applause sound or a rain sound, that has a large amount of transient and transient signals is referred to as an applause signal.
  • the stereophonic sound reproducing apparatus 200 can separate the application signal and process the channel rendering and mixing according to characteristics of the application signal.
  • the rendering mode selection unit 211 may select either the general mode or the application mode depending on whether the application signal is included in the multi-channel audio signal.
  • the renderer 220 can render according to the mode selected by the rendering mode selection unit 211. That is, the renderer 220 may perform rendering on the application signal according to the selected mode.
  • the rendering mode selection unit 211 can select the normal mode when the application signal is not included in the multi-channel audio signal. According to the normal mode, the overhead channel signal can be rendered by the 3D renderer 221 and the horizontal channel signal can be rendered by the 2D renderer 222. [ That is, rendering can be performed without considering the application signal.
  • the rendering mode selection unit 211 can select the application mode when the application signal is included in the multi-channel audio signal. According to the application mode, the application signal is separated and the rendering can be performed on the separated application signal.
  • the rendering mode selection unit 211 determines whether or not the application signal is included in the multi-channel audio signal or the application signal is included in the multi-channel audio signal using the application bit information separately received from another device .
  • the application bit information includes bsTsEnable or bsTempShapeEnableChannel flag information according to the codec of the MPEG series, and the rendering mode can be selected by the rendering mode selection unit 211 by the above-described flag information.
  • the rendering mode selection unit 211 can select the rendering mode based on the characteristics of the multi-channel audio signal of the predetermined interval to be determined. That is, the rendering mode selection unit 211 can select the rendering mode according to whether the characteristic of the multi-channel audio signal of the predetermined interval has characteristics of the audio signal including the application signal.
  • the rendering mode selection unit 211 determines whether a wideband signal that is not tonal to a plurality of input channels exists in a predetermined interval of the multi-channel audio signal and whether the level of the signal is similar for each channel, It can be determined whether or not an applause signal is included in the multi-channel audio signal based on at least one of whether the impulse form is repeated and whether correlation between channels is low .
  • the rendering mode selection unit 211 may select the rendering mode as the application mode when it is determined that the applause signal is included in the multi-channel audio signal in the current section.
  • the rendering signal separation unit 212 can separate the application signal included in the multi-channel audio signal from the general audio signal.
  • the bsTsdEnable flag in the MPEG USAC series When the bsTsdEnable flag in the MPEG USAC series is used, it can be 2D-rendered as a horizontal channel signal according to flag information irrespective of the elevation of the channel.
  • the overhead signal can also be mixed assuming a horizontal channel signal according to the flag information. That is, the rendering signal demultiplexing unit 212 may separate the application signal included in the multi-channel audio signal of the predetermined interval according to the flag information, and the separated application signal may be 2D rendered as the horizontal channel signal. have.
  • the rendering signal separator 212 may separate the application signal components by analyzing the signals between the channels. Among the overhead signals, the separated application signal is 2D rendered, and the rest of the signals other than the application signal can be 3D rendered.
  • the renderer 220 may include a 3D renderer 221 that renders the overhead signal according to the 3D rendering method and a 2D renderer 222 that renders the horizontal plane channel signal or the application signal according to the 2D rendering method.
  • the 3D renderer 221 may render the overhead signals in different ways depending on the frequency.
  • the 3D renderer 221 may render the low-frequency signal by the add-close channel method and render the high-frequency signal by the 3D rendering method.
  • the 3D rendering method refers to a method of rendering an overhead signal, and the 3D rendering method may include a multi-channel panning method.
  • the 2D renderer 222 may render the horizontal plane channel signal or the application signal according to at least one of a 2D rendering method, an add-through clause channel method, and an energy boost method.
  • the 2D rendering method refers to a method of rendering a horizontal plane channel signal
  • the 2D rendering method may include a downmix equation or a VBAP method.
  • the 3D renderer 221 and the 2D renderer 222 may be simplified into a matrix.
  • the 3D renderer 221 can downmix through a 3D downmix matrix that can be defined as a function of input channel, output channel, and frequency.
  • the 2D renderer 222 can be downmixed through a 2D downmix matrix that can be defined as a function of the input and output channels. That is, the 3D or 2D downmix matrix includes coefficients that can be determined according to the input channel, the output channel, or the frequency, thereby downmixing the input multi-channel audio signal.
  • the 3D renderer 221 and the 2D renderer 222 are rendered using a downmix matrix including coefficients that can be determined according to frequency values, Thereby making it possible to simplify the amount of rendering operations.
  • the signals rendered through the downmix matrix may be mixed according to the power conservation module of the mixer 230 and output as a final signal.
  • the mixer 230 may calculate the rendered signals for each channel and output a final signal.
  • the mixer 230 may mix the rendered signals based on the power values of the signals included in each channel. Accordingly, the stereophonic sound reproducing apparatus 200 according to one embodiment can reduce the color tone distortion that can be generated according to the frequency enhancement or cancellation by mixing based on the power value of the rendered signal.
  • the output unit 240 may finally output the mixed signal by the mixer 230 through the speaker. At this time, the output unit 240 may output sound signals through different speakers according to the channel of the mixed signal.
  • FIG. 3 is a flowchart illustrating a stereophonic sound reproducing method according to an exemplary embodiment of the present invention.
  • the stereophonic sound reproducing apparatus 100 may render a multi-channel audio signal according to channel information and frequency.
  • the stereophonic sound reproducing apparatus 100 may perform 3D rendering or 2D rendering according to channel information, and may render the low frequency signal in consideration of characteristics of a low frequency signal.
  • the stereophonic sound reproducing apparatus 100 may mix the signals rendered in step S301 to generate a final signal.
  • the stereophonic sound reproducing apparatus 100 may render by rendering channels for outputting signals of respective channels of a multi-channel audio signal, and may mix or sum the rendered signals to generate a final signal.
  • FIG. 4 is a flowchart illustrating a stereophonic sound reproducing method for an audio signal including an application signal, according to an exemplary embodiment of the present invention.
  • the stereo sound reproducing apparatus 200 may analyze a multi-channel audio signal by a predetermined interval to determine whether the multi-channel audio signal includes an application signal.
  • the stereo sound reproducing apparatus 200 can determine whether the application signal is included in the input multi-channel audio signal by a predetermined interval. For example, it can be judged for each frame.
  • the stereophonic sound reproducing apparatus 200 can determine whether the application signal is included in a predetermined section by analyzing flag information or a multi-channel audio signal of a predetermined section to be determined.
  • the stereo sound reproducing apparatus 200 can separate the application signal from the overhead signal or the horizontal plane channel signal and minimize the sound quality distortion that may occur when mixing the application signal.
  • step S405 If it is determined in step S405 that the application signal is included, the stereo sound reproducing apparatus 200 separates the application signal, and in step S407, the application signal and the signal of the horizontal plane channel can be 2D rendered have.
  • the signals of the horizontal plane channels can be 2D rendered according to a downmix equation or a vector base amplitude panning (VBAP) method.
  • VBAP vector base amplitude panning
  • the application signal may be rendered on the nearest channel if it is projected on a horizontal plane, or it may be rendered according to the 2D rendering method, and then mixed according to the energy boosting scheme, according to the add-on clock channel method.
  • the stereo sound reproducing apparatus 200 renders the application signal according to the add-to-clause channel method or the energy boost method used when 3D low- Can be mixed.
  • the energy boost method is a method of mixing energy by raising the energy of the horizontal plane channel signal to prevent the whitening of the tone due to the change of the transient period when the audio signals of various channels are mixed into one channel.
  • the energy boost approach relates to mixing rendered application signals.
  • the method of mixing the application signal according to the energy boost method can be performed according to Equation 1 below.
  • ⁇ in, out means downmixing gain, and the application signal is rendered into a channel to be reproduced by each channel of the multi-channel audio signal, and a downmixing gain may be applied to each channel when it is mixed .
  • the downmixing gain may be predetermined to a predetermined value according to the channel on which each channel is rendered.
  • x in out [l, k] /
  • x in out [l, k]
  • the values in the root of Equation (1) may mean the power of the application signals corresponding to the same output channel, i.e., the sum of the energy values.
  • the gain of each channel to be reproduced can be modified by the power value of the values to which downmixing gain is applied to a plurality of application signals rendered in one channel of the output layout. Therefore, the amplitude of the application signal can be increased by the sum of the energy values, and the whitening phenomenon that may occur due to the phase difference can be prevented.
  • step S409 if it is determined that the application signal is not included, the stereo sound reproducing apparatus 200 can 2D-render the signal of the horizontal channel.
  • the stereo sound reproducing apparatus 200 may filter the overhead channel signal with an HRTF filter so that a stereo sound signal can be provided. If the overhead channel signal is a signal in the frequency domain or a filter bank sample, HRTF filtering can be performed by simple multiplication since it is a filter for providing only the relative weighting of the spectrum.
  • the stereo sound reproducing apparatus 200 can separate the overhead channel signal into a high frequency and a low frequency.
  • the stereophonic sound reproducing apparatus 200 can separate an acoustic signal having a frequency lower than 1 kHz into a low frequency.
  • the low frequency components can be rendered according to the add-close channel method according to the acoustical characteristics of diffraction.
  • the stereo sound reproducing apparatus 200 can render the signal separated into the high frequency signal according to the 3D rendering method.
  • the 3D rendering method may include a multi-channel panning method.
  • Multi-channel panning may mean that each channel signal of a multi-channel audio signal is distributed to the channels to be reproduced. At this time, each channel signal to which the panning coefficient is applied can be distributed to the channels to be reproduced.
  • the signal can be distributed to the surround channel to provide a characteristic in which the level difference (interaural level difference, ILD) between the two outputs decreases as the high definition increases.
  • the direction of the sound signal can be oriented by the number of the plurality of channels to be panned with the front channel.
  • the stereo sound reproducing apparatus 100 may render the low-frequency signal according to the above-described add-close channel method.
  • the stereophonic sound reproducing apparatus 100 can map the nearest channel as shown in Table 1 below when projecting on the horizontal plane of each channel in order to prevent the above-described sound quality deterioration.
  • Table 1 The input channel (22.2) Output channel (5.1) Top Front Left (TFL) Front Left (FL) Top Front Right (TFR) Front Right (FR) Top Surr Left (TSL) Surround Left (SL) Top Surr Right (TSR) Surround Right (SR) Top Back Left (TBL) Surround Left (SL) Top Back Right (TBR) Surround Right (SR) Top Front Center (TFC) Front Center (FC) Top Back Center (TBC) Surrounds (SL & SR) Voice of God (VOG) Front & Surr (FL, FR, SL, SR)
  • channels such as TBC and VOG having a plurality of nearby channels among the overhead channels can be allocated to 5.1 channels by panning coeffiecient for sound image localization.
  • mapping relationships shown in Table 1 are for illustrative purposes only, and each channel can be mapped differently.
  • a bin or a band corresponding to a low frequency is an add-through channel channel method
  • a bin corresponding to a high frequency band Can be rendered according to the channel panning method.
  • a bin or a band may denote a signal interval of a predetermined unit in the frequency domain.
  • the stereophonic sound reproducing apparatus 100 may mix the signals rendered on each channel based on the power value. At this time, the stereophonic sound reproducing apparatus 100 can mix in the frequency domain. The method of mixing the signals rendered on each channel based on the power value will be described in more detail below with reference to FIGS. 6 to 7. FIG.
  • step S421 the stereo sound reproducing apparatus 100 can output the final mixed signal.
  • FIG. 5 is a block diagram illustrating an internal structure of a 3D renderer according to an exemplary embodiment of the present invention.
  • the 3D renderer 500 of FIG. 5 corresponds to the 3D renderer 221 of FIG. 2 and redundant description is omitted.
  • the 3D renderer 500 may include an HRTF filter 510, an LPF 520, an HPF 530, an add-to-close channel 540, and a multi-channel panning 550 .
  • the HRTF filter 510 may HRTF filter the overhead channel signal among the multi-channel audio signals.
  • the LPF 520 can separate and output the low frequency component of the HRTF filtered overhead channel signal.
  • the HPF 320 can separate and output the high frequency component of the HRTF filtered overhead channel signal.
  • the add-close channel 540 can render the nearest channel when the low-frequency component of the overhead channel signal is projected on the horizontal plane of each channel.
  • the multi-channel panning 550 may render a high-frequency component of the overhead channel signal according to a multi-channel panning method.
  • FIG. 6 is a flowchart illustrating a method of mixing a rendered audio signal according to an embodiment. Steps S601 to S605 of FIG. 6 correspond to step S419 of FIG. 4, and a duplicate description will be omitted.
  • the stereo sound reproducing apparatus 100 may acquire a rendered audio signal.
  • the stereo sound reproducing apparatus 100 may acquire the power values of the signals rendered for the respective channels, and generate the final signal by mixing based on the power values obtained for each channel in step S605.
  • FIG. 7 is a flowchart illustrating a method of mixing rendered audio signals according to one embodiment according to frequency. Steps S701 and S703 of FIG. 7 correspond to steps S601 and S603 of FIG. 6, and a duplicate description will be omitted.
  • the stereo sound reproducing apparatus 100 may acquire a rendered audio signal.
  • step S703 the stereophonic sound reproducing apparatus 100 acquires the power values of the signals rendered on a channel-by-channel basis according to a power preserving module, and may mix on the basis of the obtained power values in step S705 .
  • the power values of the signals rendered for each channel can be obtained by finding the sum of the squares of the signals rendered for each channel.
  • x in and out represent audio signals rendered on any one of the channels
  • x out represents the total sum of signals rendered on any one channel
  • 1 represents a current section of the multi-channel audio signal.
  • k represents the frequency
  • y out represents the signal mixed according to the power conservation module.
  • the power of the final mixed signal can be mixed so as to be maintained at the power before mixing.
  • the mixed signal can be prevented from distorting the acoustic signal due to reinforcement or destructive interference when the rendered signals are added.
  • the stereophonic sound reproducing apparatus 100 may be configured to apply a power value of signals rendered for each channel to a phase of a total sum of signals rendered for each channel according to a power saving module, Signals can be mixed.
  • the signal obtained in step S701 is time domain, it can be converted into the frequency domain and then mixed according to equation (2). At this time, the time domain acoustic signal can be converted into the frequency domain according to the frequency or the filter bank scheme.
  • the stereophonic sound reproducing apparatus 100 applies the power saving module for each predetermined interval, the power value of each signal is estimated for each predetermined interval.
  • the estimated power value may be different for each section, so that a discontinuous portion may occur at the boundary of the section where the power saving module is applied.
  • the possibility that a discontinuous portion occurs at the boundary of the section may be low. That is, the one-pole smoothing method described below can be applied depending on whether or not the interval over which the power value can be estimated is sufficient for the wavelength.
  • the stereophone player 100 may determine whether a portion corresponding to the low-frequency signal exists in the mixed signal in step S705. If there is a portion corresponding to the low frequency signal in the mixed signal, the stereophonic sound reproducing apparatus 100 generates at the boundary of the section where the power saving module is applied by using the simple poling method of Equation (3) in steps S709 to S711 The discontinuous portion can be removed.
  • P out can be obtained on the basis of the total value of the power arrangement of the mixing signals of the previous section P out and the current section.
  • the power value of the previous period may be applied to the equation depending on the ⁇ that can be applied to the P out or P in of the previous section.
  • the ⁇ may be determined to have a smaller value as the wavelength of the low frequency becomes longer or the frequency value becomes smaller.
  • the stereophonic sound reproducing apparatus 100 can adjust the gain of the mixed signal based on the power value of the signal that is rendered in the previous section or the rendered signal in order to remove the discontinuous portion .
  • the gain of the output signal can be obtained based on the gain value of the output signal of the previous section, so that it can be processed as shown in Equation 4 to eliminate the discontinuous portion.
  • the stereophonic sound reproducing apparatus 100 can adjust the gain of the mixed signal based on the gain value applied to the signal obtained by adding the rendered signals or the rendered signals in the previous section in order to remove the discontinuous portion have.
  • FIG. 8 is a diagram illustrating an example of mixing a rendered audio signal according to an embodiment according to a frequency.
  • the rendered audio signals 801 and 802 due to the phase difference, As a result, the sound may become louder.
  • the stereophonic sound reproducing apparatus 100 can determine the gain of the signal 803 during the mixing process based on the power values of the rendered audio signals 801 and 802 by applying the power conservation module have.
  • the mixed signal 804 according to the power saving module is adjusted to have an amplitude similar to that of the rendered audio signals 801 and 802. However, since the power saving module is applied to each predetermined interval, the signal 804 includes discontinuous portions can do.
  • the stereophonic sound reproducing apparatus 100 can obtain the final signal 805 by smoothing the mixed signal with reference to the power value of the previous section according to the one-pillar smoothing technique.
  • FIGS. 9 and 10 are block diagrams showing an internal structure of a stereophonic sound reproducing apparatus according to an embodiment.
  • the stereophonic sound reproducing apparatus 900 may include a 3D renderer 910, a 2D renderer 920, a weighting application unit 930, and a mixer 940.
  • the 3D renderer 910, the 2D renderer 920 and the mixer 940 of FIG. 9 correspond to the 3D renderer 221, the 2D renderer 222, and the mixer 230 of FIG. 2, have.
  • the 3D renderer 910 may render overhead channel signals among the multi-channel audio signals.
  • the 2D renderer 920 may render the horizontal plane channel signal among the multi-channel audio signals.
  • the weighting application unit 930 is a component for outputting a multi-channel audio signal according to a channel layout to be reproduced when the layout of the signal to be reproduced out of the layout that can be rendered by the 3D renderer 910 does not match.
  • the layout of the channel to be reproduced may refer to arrangement information of speakers to which a channel signal to be reproduced is to be output.
  • the stereo sound reproducing apparatus 900 can obtain a panning gain in an arbitrary speaker environment and can render a multi-channel audio signal by only a simple calculation based on a vector.
  • the weighting can be determined according to the degree to which any playback channel layout is similar to the layout rendered by the 3D renderer 910. [ For example, when the 3D renderer 910 renders a multi-channel audio signal in a 5.1-channel playback environment, the weighting may be determined depending on how the layout environment of the 5.1 channel is different from the layout environment of the 5.1 channel have.
  • the 3D weighting application unit 930 may apply the determined weighting to the signals rendered by the 3D renderer 910 and the 2D renderer 920, respectively, and output them.
  • the stereophonic sound reproducing apparatus 1000 may include a 3D renderer 1010, a 2D renderer 1020, and a mixer 1030.
  • the 3D renderer 1010, the 2D renderer 1020 and the mixer 1030 of FIG. 9 correspond to the 3D renderer 221, the 2D renderer 222, and the mixer 230 of FIG. 2, have.
  • the 3D renderer 1010 can render the layout most similar to the layout of the channel to be output among the renderable layouts.
  • the 2D renderer 1020 can repan and render the signal rendered by the 3D renderer 1010 in the channel layout of the signal to be output for each channel.
  • the 2D renderer 1020 may generate a 3D rendered signal according to an arbitrary layout channel environment to be rendered according to the VBAP method It can be re-panned and rendered.
  • a stereo sound reproducing apparatus can reproduce a high level component of a voice signal from a speaker disposed on a horizontal plane with high image quality.
  • the stereo sound reproducing apparatus when a multi-channel audio signal is reproduced in an environment with a small number of channels, the stereo sound reproducing apparatus can minimize a tone color or a sound disappearing.
  • the method according to one embodiment can be implemented as a computer-readable code on a computer-readable recording medium (including all devices having an information processing function).
  • a computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored. Examples of computer-readable recording devices include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, and the like.

Abstract

다채널 오디오 신호를 획득하고, 다채널 오디오 신호의 채널 정보 및 주파수에 따라 재생될 채널로 렌더링하고, 렌더링된 신호들을 믹싱하는 것을 특징으로 하는 입체 음향 재생 방법이 개시된다.

Description

입체 음향 재생 방법 및 장치
본 발명은 입체 음향 재생 방법 및 장치에 관한 것으로, 특히 다채널 오디오 신호를 재생하는 방법 및 장치에 관한 것이다.
영상 및 음향 처리 기술의 발달에 힘입어 고화질 고음질의 컨텐츠가 다량 생산되고 있다. 고화질 고음질의 컨텐츠를 요구하던 사용자는 현실감 있는 영상 및 음향을 원하고 있으며, 이에 따라 입체 영상 및 입체 음향에 대한 연구가 활발히 진행되고 있다.
입체 음향은 복수 개의 스피커를 수평면상의 다른 위치에 배치하고, 각각의 스피커에서 동일한 또는 상이한 음향 신호를 출력함으로써 사용자가 공간감을 느끼도록 하는 기술이다. 그러나, 실제 음향은 수평면상의 다양한 위치에서 발생할 뿐만 아니라 상이한 고도에서도 발생할 수 있다. 따라서, 상이한 고도에서 발생하는 음향 신호를 수평면상에 배치된 스피커를 통해 재생하는 기술이 필요하다.
본 발명은 입체 음향 재생 방법 및 장치에 관한 것으로, 고도 음향 신호를 포함하는 다채널 오디오 신호를 수평면 레이아웃 환경에서 재생하기 위한 방법에 관한 것이다.
일 실시 예에 의한, 입체 음향 재생 장치는 음성 신호 중 고도 성분을 수평면 상에 배치된 스피커에서 고도감 있게 재생할 수 있다.
일 실시 예에 의한, 입체 음향 재생 장치는 다채널 오디오 신호를 채널 수가 적은 환경에서 재생할 때, 음색이 변하거나 소리가 사라지는 현상을 최소화할 수 있다.
도 1 및 도 2는 일 실시 예에 의한 입체 음향 재생 장치의 내부 구조를 나타낸 블록도이다.
도 3은 일 실시 예에 의한 입체 음향 재생 방법을 도시한 순서도이다.
도 4는 일 실시 예에 있어서, 어플라우즈 신호를 포함하는 오디오 신호에 대한 입체 음향 재생 방법을 도시한 순서도이다.
도 5는 일 실시 예에 있어서, 3D 렌더러의 내부 구조를 나타낸 블록도이다.
도 6은 일 실시 예에 의한 렌더링된 오디오 신호를 믹싱하는 방법을 도시한 순서도이다.
도 7은 일 실시 예에 의한 렌더링된 오디오 신호를 주파수에 따라 믹싱하는 방법을 도시한 순서도이다.
도 8은 일 실시 예에 의한 렌더링된 오디오 신호를 주파수에 따라 믹싱하는 일 예를 도시한 예시도이다.
도 9 및 도 10은 일 실시 예에 의한 입체 음향 재생 장치의 내부 구조를 나타낸 블록도이다.
일 실시 예에 의한, 입체 음향 재생 방법은 다채널 오디오 신호를 획득하는 단계; 상기 다채널 오디오 신호의 채널 정보 및 주파수에 따라 재생될 채널로 렌더링하는 단계; 및 상기 렌더링된 신호들을 믹싱하는 단계를 포함하는 것을 특징으로 한다.
상기 입체 음향 재생 방법은 상기 다채널 오디오 신호에서 어플라우즈 신호를 분리하는 단계를 더 포함하고, 상기 렌더링하는 단계는 상기 어플라우즈 신호는 2D 렌더링 방법에 따라 렌더링되거나 상기 어플라우즈 신호의 각 채널 별로 수평면상 배치된 출력 채널 중 가장 가까운 채널로 렌더링되는 단계를 포함하는 것을 특징으로 한다.
상기 믹싱하는 단계는 상기 렌더링된 어플라우즈 신호를 에너지 부스트 방식에 따라 믹싱하는 단계를 포함하는 것을 특징으로 한다.
상기 어플라우즈 신호를 분리하는 단계는 상기 다채널 입력 신호에 토널하지 않은 광대역 신호가 존재하고, 상기 광대역 신호의 레벨이 채널 별로 유사한지 여부, 짧은 구간의 임펄스 형태가 반복되는지 여부 및 채널간 연관성이 낮은지 여부 중 적어도 하나에 기초하여 상기 다채널 입력 신호가 상기 어플라우즈 신호를 포함하는지 여부를 판단하는 단계; 상기 판단 결과에 따라 상기 어플라우즈 신호를 분리하는 단계를 포함하는 것을 특징으로 한다.
상기 렌더링하는 단계는 상기 다채널 오디오 신호를 상기 채널 정보에 기초하여 수평면 채널 신호 및 오버헤드 채널 신호로 분리하는 단계; 상기 오버헤드 채널 신호를 저주파 신호와 고주파 신호로 분리하는 단계; 상기 저주파 신호는 상기 저주파 신호의 각 채널 별로 수평면상 배치된 출력 채널 중 가장 가까운 채널로 렌더링하는 단계; 상기 고주파 신호는 3D 렌더링 방법에 따라 렌더링하는 단계; 상기 수평면 채널 신호는 2D 렌더링 방법에 따라 렌더링하는 단계를 포함하는 것을 특징으로 한다.
상기 믹싱하는 단계는 상기 채널 정보 및 주파수에 따라 상기 렌더링된 신호들에 적용할 게인을 결정하는 단계; 및 상기 결정된 게인을 상기 렌더링된 신호들에 적용하고 믹싱하는 단계를 포함하는 것을 특징으로 한다.
상기 믹싱하는 단계는 상기 렌더링된 신호들의 파워 값에 기초하여, 상기 파워 값이 보존되도록 상기 렌더링된 신호들을 믹싱하는 단계를 포함하는 것을 특징으로 한다.
상기 믹싱하는 단계는 상기 렌더링된 신호들의 파워 값에 기초하여, 소정 구간 단위로 믹싱하는 단계; 상기 렌더링된 신호들 중 저주파 신호를 분리하는 단계; 상기 저주파 신호는 이전 구간에서의 상기 렌더링된 신호들의 파워 값에 기초하여 상기 렌더링된 신호들을 믹싱하는 단계를 포함하는 것을 특징으로 한다.
일 실시 예에 의한 입체 음향 재생 장치는 다채널 오디오 신호를 획득하고, 상기 다채널 오디오 신호의 채널 정보 및 주파수에 따라 재생될 채널로 렌더링하는 렌더러; 상기 렌더링된 신호들을 믹싱하는 믹서를 포함하는 것을 특징으로 한다.
이하 바람직한 실시 예를 첨부한 도면을 참조하여 상세히 설명한다. 다만, 하기의 설명 및 첨부된 도면에서 본 발명의 요지를 흐릴 수 있는 공지 기능 또는 구성에 대한 상세한 설명은 생략한다. 또한, 도면 전체에 걸쳐 동일한 구성 요소들은 가능한 한 동일한 도면 부호로 나타내고 있음에 유의하여야 한다.
이하에서 설명되는 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위한 용어로 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서 본 명세서에 기재된 실시 예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시 예에 불과할 뿐이고, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 예들이 있을 수 있음을 이해하여야 한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.
아래에서는 첨부한 도면을 참고하여 일 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 설명 한다.
도 1 및 도 2는 일 실시 예에 의한 입체 음향 재생 장치의 내부 구조를 나타낸 블록도이다.
일 실시 예에 의한 입체 음향 재생 장치(100)는 재생될 채널로 다운 믹싱된 다채널 오디오 신호를 출력할 수 있다.
입체 음향이란, 음의 고저, 음색뿐만 아니라 방향이나 거리감까지 재생하여 임장감을 가지게 하고, 음원이 발생한 공간에 위치하지 않은 청취자에게 방향감, 거리감 및 공간감을 지각할 수 있게 하는 공간 정보를 부가한 음향을 의미한다.
이하 설명에서 오디오 신호의 채널은 음향이 출력되는 스피커의 개수를 의미할 수 있다. 채널 수가 많을수록, 음향이 출력되는 스피커의 개수가 많아질 수 있다. 일 실시 예에 의한 입체 음향 재생 장치(100)는 채널 수가 많은 다채널 오디오 신호가 채널 수가 적은 환경에서 출력되고 재생될 수 있도록 다채널 오디오 신호를 재생될 채널로 렌더링하고 믹싱할 수 있다. 이때 다채널 오디오 신호는 고도 음향을 출력할 수 있는 채널을 포함할 수 있다.
고도 음향을 출력할 수 있는 채널은 고도감을 느낄 수 있도록 청취자의 머리 위에 위치한 스피커를 통해 음향 신호를 출력할 수 있는 채널을 의미할 수 있다. 수평면 채널은 청취자와 수평한 면에 위치한 스피커를 통해 음향 신호를 출력할 수 있는 채널을 의미할 수 있다.
상술된 채널 수가 적은 환경은 고도 음향을 출력할 수 있는 채널을 포함하지 않고, 수평면 채널에 따라 수평면 상에 배치된 스피커를 통해 음향을 출력할 수 있는 환경을 의미할 수 있다.
또한, 이하 설명에서 수평면 채널(horizontal channel)은 수평면 상에 배치된 스피커를 통해 출력될 수 있는 오디오 신호를 포함하는 채널을 의미할 수 있다. 오버헤드 채널(Overhead channel)은 수평면이 아닌 고도 상에 배치되어 고도음을 출력할 수 있는 스피커를 통해 출력될 수 있는 오디오 신호를 포함하는 채널을 의미할 수 있다.
도 1을 참조하면, 일 실시 예에 의한 입체 음향 재생 장치(100)는 렌더러(110) 및 믹서(120)를 포함할 수 있다.
일 실시 예에 의한, 입체 음향 재생 장치(100)는 다채널 오디오 신호를 렌더링하고, 믹싱하여 재생될 채널로 출력할 수 있다. 예를 들면, 다채널 오디오 신호는 22.2 채널 신호이고, 재생될 채널은 5.1 또는 7.1 채널일 수 있다. 입체 음향 재생 장치(100)는 다채널 오디오 신호의 각 채널들을 대응시킬 채널을 정함으로써 렌더링을 수행하고 재생될 채널과 대응된 각 채널들의 신호를 합쳐 최종 신호로 출력함으로써 렌더링된 오디오 신호들을 믹싱할 수 있다.
렌더러(110)는 다채널 오디오 신호를 채널 및 주파수에 따라 렌더링할 수 있다. 렌더러(110)는 다채널 오디오 신호를 오버헤드 채널과 수평면 채널에 따른 신호를 각각 3D(dimensional) 렌더링 및 2D(dimensional) 렌더링할 수 있다.
렌더러(110)는 오버헤드 채널을 3D 렌더링하기 위해 HRTF(Head Related Transfer filter) 필터를 통과한 오버헤드 채널을 주파수에 따라 각각 다른 방법으로 렌더링할 수 있다. HRTF 필터는 두 귀간의 레벨 차이 및 두 귀 간에서 음향 시간이 도달하는 시간 차이 등의 단순한 경로 차이뿐만 아니라, 머리 표면에서의 회절, 귓바퀴에 의한 반사 등 복잡한 경로상의 특성이 음의 도래 방향에 따라 변화하는 현상에 의하여 입체 음향을 인식할 수 있도록 한다. HRTF 필터는 오디오 신호의 음질을 변화시킴으로써 입체 음향이 인식될 수 있도록 오버헤드 채널에 포함된 오디오 신호들을 처리할 수 있다.
렌더러(110)는 오버해드 채널 신호 중 저주파 신호에 대하여는 애드-투-클로지스트-채널(Add to the closest channel) 방법에 따라 렌더링하고, 고주파 신호에 대하여는 멀티채널 패닝(Multichannel panning) 방법에 따라 렌더링할 수 있다. 멀티 채널 패닝 방법에 의하면, 다채널 오디오 신호의 각 채널의 신호가 각 채널 신호에 렌더링될 채널마다 서로 다르게 설정된 게인 값이 적용되어 적어도 하나의 수평면 채널에 각각 렌더링될 수 있다. 게인 값이 적용된 각 채널의 신호들은 믹싱을 통해 합쳐짐으로써 최종 신호로 출력될 수 있다.
저주파 신호는 회절성이 강하므로, 멀티 채널 패닝 방법에 따라 다채널 오디오 신호의 각 채널을 여러 채널에 각각 나누어 렌더링하지 않고, 하나의 채널에만 렌더링하여도 청취자가 듣기에 비슷한 음질을 가질 수 있다. 따라서, 일 실시 예에 의한 입체 음향 재생 장치(100)는 저주파 신호를 애드-투-클로지스트-채널 방법에 따라 랜더링함으로써 하나의 출력 채널에 여러 채널이 믹싱됨에 따라 발생될 수 있는 음질 열화를 방지할 수 있다. 즉, 하나의 출력 채널에 여러 채널이 믹싱되면 각 채널 신호 간의 간섭에 따라 음질이 증폭되거나 감소되어 열화될 수 있으므로, 하나의 출력 채널에 하나의 채널을 믹싱함으로써 음질 열화를 방지할 수 있다.
애드 투 클로지스트 채널 방법에 의하면, 다채널 오디오 신호의 각 채널은 여러 채널에 나누어 렌더링하는 대신 재생될 채널들 중 가장 가까운 채널에 렌더링될 수 있다.
또한, 입체 음향 재생 장치(100)는 주파수에 따라 다른 방법으로 렌더링을 수행함으로써 스위트 스팟(sweet spot)을 음질 열화 없이 넓힐 수 있다. 즉, 회절 특성이 강한 저주파 신호에 대하여는 애드 투 클로지스트 채널 방법에 따라 렌더링함으로써, 하나의 출력 채널에 여러 채널이 믹싱됨에 따라 발생될 수 있는 음질 열화를 방지할 수 있다. 스위트 스팟이란, 청취자가 왜곡되지 않은 입체 음향을 최적으로 청취할 수 있는 소정 범위를 의미한다. 스위트 스팟이 넓을수록 청취자는 넓은 범위에서 왜곡되지 않은 입체 음향을 최적으로 청취할 수 있고, 청취자가 스위트 스팟에 위치하지 않는 경우, 음질 또는 음상 등이 왜곡된 음향을 청취할 수 있다.
주파수에 따라 다른 패닝(Panning) 방법으로 렌더링하는 방법에 관하여는 이하 도 4 또는 도 5에서 더 자세히 설명하기로 한다.
믹서(120)는 렌더러(110)에 의해 수평 채널과 대응된 각 채널들의 신호를 합쳐 최종 신호로 출력할 수 있다. 믹서(120)는 소정 구간별로 각 채널들의 신호를 믹싱할 수 있다. 예를 들면, 믹서(120)는 1 프레임 별로 각 채널들의 신호를 믹싱할 수 있다.
일 실시 예에 의한 믹서(120)는 재생될 각 채널들에 렌더링된 신호들의 파워 값에 기초하여 믹싱할 수 있다. 다시 말하면, 믹서(120)는 재생될 각 채널들에 렌더링된 신호들의 파워 값에 기초하여 최종 신호의 진폭 또는 최종 신호에 적용될 게인(gain)을 결정할 수 있다.
도 2를 참조하면, 일 실시 예에 의한 입체 음향 재생 장치(200)는 음향 분석부(210), 렌더러(220), 믹서(230) 및 출력부(240)를 포함할 수 있다. 도 2의 입체 음향 재생 장치(200), 렌더러(220) 및 믹서(230)는 도 1의 입체 음향 재생 장치(100), 렌더러(210) 및 믹서(220)와 대응되고, 중복되는 설명은 생략하기로 한다.
음향 분석부(210)는 다채널 오디오 신호를 분석하여 렌더링 모드를 선택하고, 다채널 오디오 신호에 포함된 일부 신호를 분리하여 출력할 수 있다. 음향 분석부(210)는 렌더링 모드 선택부(211)와 렌더링 신호 분리부(212)를 포함할 수 있다.
렌더링 모드 선택부(211)는 다채널 오디오 신호에 박수 소리나 빗(rain) 소리와 같이 트랜지언트(transient)한 신호가 많은지 여부를 소정 구간별로 판단할 수 있다. 이하 설명에서 박수(applause) 소리나 빗소리와 같이 트랜지언트(transient)한, 즉 순간적이고 일시적인 신호가 많은 오디오 신호를 어플라우즈(applause) 신호로 지칭하기로 한다.
일 실시 예에 의한 입체 음향 재생 장치(200)는 어플라우즈 신호를 분리하여, 어플라우즈 신호의 특징에 따라 채널 렌더링 및 믹싱을 처리할 수 있다.
렌더링 모드 선택부(211)는 어플라우즈 신호가 다채널 오디오 신호에 포함되어 있는지 여부에 따라 렌더링 모드를 일반(general) 모드 또는 어플라우즈 모드 중 하나로 선택할 수 있다. 렌더러(220)는 렌더링 모드 선택부(211)에 의해 선택된 모드에 따라 렌더링할 수 있다. 즉, 렌더러(220)는 선택된 모드에 따라 어플라우즈 신호에 대한 렌더링을 수행할 수 있다.
렌더링 모드 선택부(211)는 어플라우즈 신호가 다채널 오디오 신호에 포함되어 있지 않은 경우, 일반 모드를 선택할 수 있다. 일반 모드에 의하면, 오버헤드 채널 신호는 3D 렌더러(221)에 의해 렌더링될 수 있고, 수평 채널 신호는 2D 렌더러(222)에 의해 렌더링될 수 있다. 즉, 어플라우즈 신호의 고려 없이 렌더링이 수행될 수 있다.
렌더링 모드 선택부(211)는 어플라우즈 신호가 다채널 오디오 신호에 포함되어 있는 경우, 어플라우즈 모드를 선택할 수 있다. 어플라우즈 모드에 의하면, 어플라우즈 신호가 분리되고, 분리된 어플라우즈 신호에 대해 렌더링이 수행될 수 있다.
렌더링 모드 선택부(211)는 다채널 오디오 신호에 포함되어 있거나 다른 장치로부터 별도로 수신된 어플라우즈 비트 정보를 이용하여 어플라우즈 신호가 다채널 오디오 신호에 포함되어 있는지 여부를 소정 구간별로 판단할 수 있다. 어플라우즈 비트 정보는 MPEG 계열의 코덱에 의하면 bsTsEnable 또는 bsTempShapeEnableChannel 플래그 정보를 포함하여, 상술된 플래그 정보에 의해 렌더링 모드가 렌더링 모드 선택부(211)에 의해 선택될 수 있다.
또한, 렌더링 모드 선택부(211)는 판단하고자 하는 소정 구간의 다채널 오디오 신호의 특성에 기초하여 렌더링 모드를 선택할 수 있다. 즉, 렌더링 모드 선택부(211)는 소정 구간의 다채널 오디오 신호의 특성이 어플라우즈 신호를 포함하는 오디오 신호의 특성을 가지는지 여부에 따라 렌더링 모드를 선택할 수 있다.
렌더링 모드 선택부(211)는 소정 구간의 다채널 오디오 신호에 다수의 입력 채널에 토널(Tonal) 하지 않은 광대역(wideband) 신호가 존재하고, 그 신호의 레벨이 채널 별로 유사한지 여부, 짧은 구간의 임펄스(impulse) 형태가 반복되는지 여부 및 채널 간 연관성(correlation)이 낮은지 여부 중 적어도 하나의 조건에 기초하여 어플라우즈(applause) 신호가 다채널 오디오 신호에 포함되어 있는지 여부를 판단할 수 있다.
렌더링 모드 선택부(211)는 어플라우즈(applause) 신호가 현재 구간에서 다채널 오디오 신호에 포함되어 있는 것으로 판단한 경우, 렌더링 모드를 어플라우즈 모드로 선택할 수 있다.
렌더링 신호 분리부(212)는 렌더링 신호 선택부(211)에 의해 어플라우즈 모드가 선택된 경우, 다채널 오디오 신호에 포함된 어플라우즈 신호를 일반 음향 신호와 분리할 수 있다.
MPEG USAC 계열에서의 bsTsdEnable 플래그가 사용되는 경우, 해당 채널의 고도(elevation)에 관련 없이 플래그 정보에 따라 수평 채널 신호와 같이 2D 렌더링될 수 있다. 또한, 오버헤드 신호도 플래그 정보에 따라 수평 채널 신호로 가정되어 믹싱될 수 있다. 즉, 렌더링 신호 분리부(212)는 플래그 정보에 따라 소정 구간의 다채널 오디오 신호에 포함된 어플라우즈 신호를 분리할 수 있고, 분리된 어플라우즈 신호는 수평 채널 신호와 같이 2D 랜더링될 수 있다.
플래그가 사용되지 않는 경우, 렌더링 신호 분리부(212)는 채널들간의 신호를 분석하여 어플라우즈 신호 성분을 분리할 수 있다. 오버헤드 신호 중에서 분리된 어플라우즈 신호는 2D 렌더링되고, 어플라우즈 신호가 아닌 나머지 신호는 3D 렌더링될 수 있다.
렌더러(220)는 오버 헤드 신호를 3D 랜더링 방법에 따라 렌더링하는 3D 렌더러(221)와 수평면 채널 신호 또는 어플라우즈 신호를 2D 랜더링 방법에 따라 렌더링하는 2D 렌더러(222)를 포함할 수 있다.
3D 렌더러(221)는 오버 헤드 신호를 주파수에 따라 각각 다른 방법으로 렌더링할 수 있다. 3D 랜더러(221)는 저주파 신호는 애드 투 클로지스트 채널 방법으로 랜더링하고, 고주파 신호는 3D 랜더링 방법에 따라 랜더링할 수 있다. 이하에서, 3D 랜더링 방법은 오버헤드 신호를 랜더링하는 방법을 의미하는 것으로, 3D 랜더링 방법은 멀티 채널 패닝 방법을 포함할 수 있다.
2D 렌더러(222)는 수평면 채널 신호 또는 어플라우즈 신호를 2D 랜더링 방법, 애드 투 클로지스트 채널 방법 및 에너지 부스트(energy boost) 방법 중 적어도 하나의 방법에 따라 렌더링할 수 있다. 이하에서 2D 랜더링 방법은 수평면 채널 신호를 랜더링하는 방법을 의미하는 것으로, 2D 랜더링 방법은 다운믹스 수식(Downmix Equation) 또는 VBAP 방법을 포함할 수 있다.
3D 렌더러(221)와 2D 렌더러(222)는 각각 매트릭스화하여 간략화될 수 있다. 3D 렌더러(221)는 입력 채널, 출력 채널, 주파수의 함수로 정해질 수 있는 3D 다운믹스 매트릭스를 통해 다운 믹싱할 수 있다. 2D 렌더러(222)는 입력 채널, 출력 채널의 함수로 정해질 수 있는 2D 다운믹스 매트릭스를 통해 다운믹싱될 수 있다. 즉, 3D 또는 2D 다운믹스 매트릭스는 입력 채널, 출력 채널 또는 주파수에 따라 결정될 수 있는 계수들을 포함함으로써, 입력된 다채널 오디오 신호를 다운믹싱할 수 있다.
이는 렌더링 시 음향 신호의 위상(phase) 부분보다는 주파수 별 진폭 부분이 중요하므로 3D 렌더러(221)와 2D 렌더러(222)는 각각 주파수 값에 따라 결정될 수 있는 계수들을 포함하는 다운믹스 매트릭스를 이용하여 렌더링함으로써 렌더링의 연산량을 간략화할 수 있다. 다운믹스 매트릭스를 통해 렌더링된 신호는 믹서(230)의 파워 보존 모듈에 따라 믹싱되고, 최종 신호로 출력될 수 있다.
믹서(230)는 렌더링된 신호들을 각 채널별로 연산하여 최종 신호를 출력할 수 있다. 일 실시 예에 의한 믹서(230)는 각 채널에 포함된 신호들의 파워 값들에 기초하여 렌더링된 신호들을 믹싱할 수 있다. 따라서, 일 실시 예에 의한 입체 음향 재생 장치(200)는 렌더링된 신호의 파워값에 기초하여 믹싱함으로써 주파수 보강 또는 상쇄에 따라 발생될 수 있는 음색 왜곡을 감소시킬 수 있다.
출력부(240)는 믹서(230)에 의해 믹싱된 신호를 스피커를 통해 최종 출력시킬 수 있다. 이때 출력부(240)는 믹싱된 신호의 채널에 따라 각각 다른 스피커를 통해 음향 신호를 출력시킬 수 있다.
도 3은 일 실시 예에 의한 입체 음향 재생 방법을 도시한 순서도이다.
도 3을 참조하면, 단계 S301에서 입체 음향 재생 장치(100)는 채널 정보 및 주파수에 따라 다채널 오디오 신호를 렌더링할 수 있다. 입체 음향 재생 장치(100)는 채널 정보에 따라 3D 렌더링 또는 2D 렌더링을 수행하되, 저주파 신호에 대하여는 저주파 신호의 특성을 고려하여 렌더링할 수 있다.
단계 S303에서, 입체 음향 재생 장치(100)는 단계 S301에서 렌더링된 신호들을 믹싱하여 최종 신호를 생성할 수 있다. 입체 음향 재생 장치(100)는 다채널 오디오 신호의 각 채널의 신호들을 출력할 채널을 정함으로써 렌더링하고, 렌더링된 신호들을 합하거나 연산함으로써 믹싱하고, 최종 신호를 생성할 수 있다.
도 4는 일 실시 예에 있어서, 어플라우즈 신호를 포함하는 오디오 신호에 대한 입체 음향 재생 방법을 도시한 순서도이다.
도 4를 참조하면, 단계 S401에서 입체 음향 재생 장치(200)는 다채널 오디오 신호에 어플라우즈 신호가 포함되어 있는지 판단하기 위해 다채널 오디오 신호를 소정 구간 별로 분석할 수 있다.
단계 S403에서, 입체 음향 재생 장치(200)는 입력된 다채널 오디오 신호에 어플라우즈 신호가 포함되어 있는지 여부를 소정 구간 별로 판단할 수 있다. 예를 들면, 1 프레임 별로 판단될 수 있다. 입체 음향 재생 장치(200)는 플래그 정보 또는 판단하고자 하는 소정 구간의 다채널 오디오 신호를 분석함으로써 어플라우즈 신호의 포함 여부를 소정 구간 별로 판단할 수 있다. 입체 음향 재생 장치(200)는 어플라우즈 신호를 오버 헤드 신호 또는 수평면 채널 신호와는 분리하여 처리함으로써 어플라우즈 신호를 믹싱할 때 발생될 수 있는 음질 왜곡을 최소화할 수 있다.
단계 S405에서, 어플라우즈 신호가 포함되어 있는 것으로 판단된 경우, 입체 음향 재생 장치(200)는 어플라우즈 신호를 분리하여, 단계 S407에서 어플라우즈 신호와 수평면 채널의 신호를 2D 렌더링할 수 있다.
수평면 채널의 신호는 다운 믹스 수식(Downmix Equation) 또는 VBAP(vector base amplitude panning) 방법에 따라 2D 렌더링될 수 있다.
어플라우즈 신호는 애드 투 클로지스트 채널 방법에 따라 고도 음향을 포함하는 채널을 수평면에 투영하였을 경우 가장 가까운 채널에 렌더링되거나 2D 렌더링 방법에 따라 렌더링된 후, 에너지 부스트 방식에 따라 믹싱될 수 있다.
어플라우즈 신호는 2D 또는 3D 렌더링 방법에 따라 렌더링하여 믹싱하는 경우, 믹싱된 신호에 트랜지언트한 성분의 개수가 많아져 화이트닝(whitening) 현상이 발생하거나 채널간 크로스-연관성(correlation)이 높아져 음상이 좁아질 수 있다. 따라서, 화이트닝 현상이나 음상이 좁아지는 현상을 방지하기 위해 입체 음향 재생 장치(200)는 저주파 신호를 3D 렌더링할 때 사용되는 애드 투 클로지스트 채널 방법 또는 에너지 부스트 방식에 따라 어플라우즈 신호를 렌더링하고 믹싱할 수 있다.
에너지 부스트 방식은, 여러 채널의 오디오 신호들이 하나의 채널로 믹싱되는 경우에, 트랜지언트한 주기가 바뀌어 음색이 화이트닝되는 현상을 막기 위해서 수평면 채널 신호의 에너지를 키워주는 방법으로 믹싱하는 방법을 의미한다. 에너지 부스트 방식은 렌더링된 어플라우즈 신호를 믹싱하는 방법에 관한 것이다.
에너지 부스트 방식에 따른 어플라우즈 신호를 믹싱하는 방법은 아래 수학식 1에 따라 수행될 수 있다.
수학식 1
Figure PCTKR2014010134-appb-M000001
ωin,out은 다운 믹싱 게인(downmixing gain)을 의미하는 것으로, 어플라우즈 신호는 다채널 오디오 신호의 각 채널들이 재생될 채널로 렌더링되고, 믹싱될 때 각 채널별로 다운 믹싱 게인이 적용될 수 있다. 다운 믹싱 게인은 각 채널들이 렌더링되는 채널에 따라 소정 값으로 미리 결정될 수 있다. xin=out[l,k]은 출력 레이아웃에 대응되도록 렌더링된 어플라우즈 신호를 나타내는 것으로 어느 하나의 어플라우즈 신호를 의미한다. l은 음향 신호의 소정 구간을 식별하기 위한 값이고, k는 주파수를 나타낸다. xin=out[l,k]/|xin=out[l,k]| 는 입력된 어플라우즈 신호의 위상 값을 나타내고, 수학식 1의 루트 안의 값들은 동일한 출력 채널에 대응된 어플라우즈 신호들의 파워, 즉 에너지 값들의 합을 의미할 수 있다.
수학식 1을 참조하면, 출력 레이아웃의 한 채널에 렌더링된 다수의 어플라우즈 신호에 다운 믹싱 게인이 적용된 값들의 파워 값만큼 재생될 각 채널의 게인이 수정될 수 있다. 따라서, 어플라우즈 신호는 에너지 값들의 합만큼 진폭이 커질 수 있고, 위상차로 인해 발생될 수 있는 화이트닝 현상이 방지될 수 있다.
단계 S409에서, 입체 음향 재생 장치(200)는 어플라우즈 신호가 포함되어 있지 않은 것으로 판단된 경우, 수평 채널의 신호를 2D 렌더링할 수 있다.
단계 S411에서, 입체 음향 재생 장치(200)는 오버헤드 채널 신호를 입체 음향 신호가 제공될 수 있도록 HRTF 필터로 필터링할 수 있다. 오버헤드 채널 신호가 주파수 도메인의 신호이거나 필터 뱅크 샘플인 경우, 스펙트럼의 상대적인 웨이팅(weighting)만 제공하기 위한 필터이므로 단순한 곱셈으로 HRTF 필터링이 수행될 수 있다.
단계 S413에서, 입체 음향 재생 장치(200)는 오버헤드 채널 신호를 고주파와 저주파로 분리할 수 있다. 예를 들면, 입체 음향 재생 장치(200)는 1kHz를 기준으로 그 이하의 주파수를 갖는 음향 신호를 저주파로 분리할 수 있다. 저주파 성분은 회절이 강한 음향적인 특징에 따라 애드 투 클로지스트 채널 방법에 따라 렌더링될 수 있다.
단계 S415에서, 입체 음향 재생 장치(200)는 고주파 신호로 분리된 신호는 3D 렌더링 방법에 따라 렌더링할 수 있다. 3D 렌더링 방법은 멀티 채널 패닝 방법을 포함할 수 있다. 멀티 채널 패닝(panning)이란 다채널 오디오 신호의 각 채널 신호들이 재생될 채널들에 배분되는 것을 의미할 수 있다. 이때, 패닝 계수가 적용된 각 채널 신호들이 재생될 채널들에 배분될 수 있다. 고주파 신호의 경우, 고도감이 올라갈수록 두 귀간의 레벨 차이(Interaural level difference, ILD)가 줄어드는 특성을 제공하기 위해 서라운드 채널에 신호가 배분될 수 있다. 또한, 프론트 채널과 패닝되는 다수의 채널의 개수에 의해 음향 신호의 방향이 정위될 수 있다.
단계 S417에서, 입체 음향 재생 장치(100)는 저주파 신호는 상술된 애드 투 클로지스트 채널 방법에 따라 렌더링할 수 있다. 하나의 채널에 많은 신호, 즉 다채널 오디오 신호의 여러 개의 채널 신호가 섞이게 되면 각기 다른 위상으로 인해 음질이 상쇄되거나 증폭됨에 따라 음질 열화가 발생될 수 있다. 애드 투 클로지스트 채널 방법에 의하면, 입체 음향 재생 장치(100)는 상술된 음질 열화의 발생을 방지하기 위해 각 채널 수평면에 투영하였을 경우 가장 가까운 채널로 이하 표 1과 같이 매핑할 수 있다.
표 1
입력 채널(22.2) 출력 채널(5.1)
Top Front Left(TFL) Front Left(FL)
Top Front Right(TFR) Front Right(FR)
Top Surr Left (TSL) Surround Left (SL)
Top Surr Right (TSR) Surround Right (SR)
Top Back Left (TBL) Surround Left (SL)
Top Back Right (TBR) Surround Right (SR)
Top Front Center (TFC) Front Center (FC)
Top Back Center (TBC) Surrounds (SL & SR)
Voice of God (VOG) Front & Surr (FL, FR, SL, SR)
표 1을 참조하면, 오버헤드 채널들 중 가까운 채널이 복수 개 존재하는 TBC와 VOG 같은 채널은 음상 정위를 위해 패닝 계수(panning coeffiecient)에 의해 5.1 채널에 배분될 수 있다.
표 1에 도시된 매핑 관계는 예시에 불과하며, 이에 한하지 않고 각 채널들은 다르게 매핑될 수 있다.
다채널 오디오 신호가 주파수 신호 또는 필터 뱅크 신호인 경우, 저주파에 해당하는 빈(bin) 또는 밴드(band)는 애드 투 클로지스트 채널 방법, 고주파에 해당하는 빈(bin) 또는 밴드(band)는 멀티 채널 패닝 방법에 따라 렌더링될 수 있다. 빈(bin) 또는 밴드(band)는 주파수 도메인에서의 소정 단위만큼의 신호 구간을 의미할 수 있다.
단계 S419에서, 입체 음향 재생 장치(100)는 각 채널에 렌더링된 신호들을 파워 값에 기초하여 믹싱할 수 있다. 이때 입체 음향 재생 장치(100)는 주파수 도메인에서 믹싱할 수 있다. 각 채널에 렌더링된 신호들을 파워 값에 기초하여 믹싱하는 방법에 관하여는 이하 도 6 내지 도 7에서 더 자세히 설명하기로 한다.
단계 S421에서, 입체 음향 재생 장치(100)는 믹싱된 최종 신호를 출력할 수 있다.
도 5는 일 실시 예에 있어서, 3D 렌더러의 내부 구조를 나타낸 블록도이다. 도 5의 3D 렌더러(500)는 도 2의 3D 렌더러(221)와 대응되며 중복되는 설명은 생략하기로 한다.
도 5를 참조하면, 3D 렌더러(500)는 HRTF 필터(510), LPF(520), HPF(530), 애드-투-클로지스트 채널(540) 및 멀티채널 패닝(550)을 포함할 수 있다.
HRTF 필터(510)는 다채널 오디오 신호 중 오버헤드 채널 신호를 HRTF 필터링할 수 있다.
LPF(520)는 HRTF 필터링된 오버헤드 채널 신호 중 저주파 성분을 분리하여 출력할 수 있다.
HPF(320)는 HRTF 필터링된 오버헤드 채널 신호 중 고주파 성분을 분리하여 출력할 수 있다.
애드 투 클로지스트 채널(540)는 오버헤드 채널 신호 중 저주파 성분을 각 채널 수평면에 투영하였을 경우 가장 가까운 채널로 렌더링할 수 있다.
멀티 채널 패닝(550)는 오버헤드 채널 신호 중 고주파 성분을 멀티 채널 패닝 방법에 따라 렌더링할 수 있다.
도 6은 일 실시 예에 의한 렌더링된 오디오 신호를 믹싱하는 방법을 도시한 순서도이다. 도 6의 단계 S601 내지 S605는 도 4의 단계 S419와 대응되며, 중복되는 설명은 생략하기로 한다.
도 6을 참조하면, 단계 S601에서 입체 음향 재생 장치(100)는 렌더링된 오디오 신호를 획득할 수 있다.
단계 S603에서, 입체 음향 재생 장치(100)는 각 채널별로 렌더링된 신호들의 파워값들을 획득하여, 단계 S605에서 각 채널별로 획득된 파워 값에 기초하여 믹싱함으로써 최종 신호를 생성할 수 있다.
도 7은 일 실시 예에 의한 렌더링된 오디오 신호를 주파수에 따라 믹싱하는 방법을 도시한 순서도이다. 도 7의 단계 S701 및 단계 S703은 도 6의 단계 S601 및 단계 S603과 대응되며 중복되는 설명은 생략하기로 한다.
도 7을 참조하면, 단계 S701에서 입체 음향 재생 장치(100)는 렌더링된 오디오 신호를 획득할 수 있다.
단계 S703에서, 입체 음향 재생 장치(100)는 파워 보존 모듈(power preserving module)에 따라 각 채널별로 렌더링된 신호들의 파워값들을 획득하고, 단계 S705에서, 획득된 파워값에 기초하여 믹싱할 수 있다. 각 채널별로 렌더링된 신호들의 파워값들은 각 채널별로 렌더링된 신호들의 제곱의 합을 구함으로써 획득될 수 있다.
수학식 2
Figure PCTKR2014010134-appb-M000002
xin,out은 어느 하나의 채널에 렌더링된 오디오 신호들이고, xout은 어느 하나의 채널에 렌더링된 신호들의 총 합을 나타내고, l은 다채널 오디오 신호의 현재 구간을 나타낸다. k는 주파수를 나타내고, yout은 파워 보존 모듈에 따라 믹싱된 신호를 나타낸다.
파워 보존 모듈에 의하면, 상술된 각 채널별로 렌더링된 신호들의 파워값들에 기초하여 최종 믹싱된 신호의 파워가 믹싱되기 전의 파워로 유지될 수 있도록 믹싱될 수 있다. 따라서, 파워 보존 모듈에 따르면, 믹싱된 신호가 렌더링된 신호들이 더해질 때 보강 또는 상쇄 간섭으로 인해 음향 신호가 왜곡되는 것을 방지할 수 있다.
수학식 2를 참조하면, 입체 음향 재생 장치(100)는 파워 보존 모듈에 따라 각 채널별로 렌더링된 신호들의 총 합에 대한 위상(phase)에 각 채널 별로 렌더링된 신호들의 파워값을 적용함으로써 렌더링된 신호를 믹싱할 수 있다.
단계 S701에서 획득된 신호가 시간 도메인인 경우, 주파수 도메인으로 변환된 후, 수학식 2에 따라 믹싱될 수 있다. 이때 시간 도메인의 음향 신호는 주파수 또는 필터 뱅크 스키마에 따라 주파수 도메인으로 변환될 수 있다.
그러나, 입체 음향 재생 장치(100)가 소정 구간별로 파워 보존 모듈을 적용하는 경우, 소정 구간 별로, 각 신호들의 파워값을 추정하게 되는데, 저주파의 경우, 파워값을 추정할 수 있는 구간이 파장에 비해 충분하지 않다. 따라서, 각 구간마다 추정된 파워값이 달라질 수 있어 파워 보존 모듈이 적용된 구간의 경계에서 불연속적인 부분이 생길 수 있다. 반면, 고주파의 경우, 파워값을 추정할 수 있는 구간이 파장에 비해 충분하므로, 구간의 경계에서 불연속적인 부분이 발생될 가능성이 낮을 수 있다. 즉, 이하에서 설명될 원폴 스무딩 방법(one-pole smoothing)은 파워값을 추정할 수 있는 구간이 파장에 비해 충분한지 여부에 따라 적용될 수 있다.
일 실시 예에 의한 입체 음향 재생 장치(100)는 단계 S707에서, 단계 S705에서 믹싱된 신호에 저주파 신호에 해당하는 부분이 존재하는지 여부를 판단할 수 있다. 믹싱된 신호에 저주파 신호에 해당하는 부분이 존재하는 경우, 입체 음향 재생 장치(100)는 단계 S709 내지 단계 S711에서 아래 수학식 3의 원폴 스무딩 방법을 이용하여 파워 보존 모듈이 적용된 구간의 경계에서 발생된 불연속적인 부분을 제거할 수 있다.
수학식 3
Figure PCTKR2014010134-appb-M000003
Pout은 이전 구간의 Pout과 현재 구간의 믹싱된 신호의 총 합의 파워값에 기초하여 획득될 수 있다.
Pin은 이전 구간의 Pin과 현재 구간의 렌더링된 각 신호들의 파워값들의 총 합에 기초하여 획득될 수 있다.
이전 구간의 Pout 또는 Pin에 적용될 수 있는 γ에 따라 이전 구간의 파워값이 수식에 적용될 수 있는데, γ은 저주파의 파장이 길수록 또는 주파수 값이 작을 수록 작은 값을 가지도록 결정될 수 있다.
일 실시 예에 의한 입체 음향 재생 장치(100)는 불연속적인 부분을 제거하기 위해, 이전 구간에서 렌더링된 신호들 또는 렌더링된 신호들을 더한 신호의 파워값에 기초하여 믹싱된 신호의 게인을 조절할 수 있다.
더하여, 수학식 3과 비슷하게 출력 신호의 게인을 이전 구간의 출력 신호의 게인 값에 기초하여 획득될 수 있도록 함으로써 불연속적인 부분을 제거하기 위해 수학식 4와 같이 처리될 수도 있다.
수학식 4
Figure PCTKR2014010134-appb-M000004
일 실시 예에 의한 입체 음향 재생 장치(100)는 불연속적인 부분을 제거하기 위해, 이전 구간에서 렌더링된 신호들 또는 렌더링된 신호들을 더한 신호에 적용된 게인값에 기초하여 믹싱된 신호의 게인을 조절할 수 있다.
도 8은 일 실시 예에 의한 렌더링된 오디오 신호를 주파수에 따라 믹싱하는 일 예를 도시한 예시도이다.
도 8을 참조하면, 렌더링된 오디오 신호(801, 802)를 더한 믹싱 과정 중의 신호(803)를 참조하면, 렌더링된 오디오 신호들(801, 802)은 위상 차이로 인해, 더한 값의 진폭이 증폭됨에 따라 소리가 크게 들리게 될 수 있다.
따라서, 일 실시 예에 의한 입체 음향 재생 장치(100)는 파워 보존 모듈을 적용함으로써, 믹싱 과정 중의 신호(803)의 게인을 렌더링된 오디오 신호들(801, 802)의 파워값에 기초하여 결정할 수 있다.
파워 보존 모듈에 따라 믹싱된 신호(804)는 렌더링된 오디오 신호들(801, 802)과 비슷한 크기의 진폭을 가지도록 조절되었으나, 소정 구간별로 파워 보존 모듈이 적용됨에 따라 구간마다 불연속적인 부분을 포함할 수 있다.
따라서, 일 실시 예에 의한 입체 음향 재생 장치(100)는 원폴 스무딩 기법에 따라서, 이전 구간의 파워 값을 참조하여, 믹싱된 신호를 스무딩 처리함으로써 최종 신호(805)를 구할 수 있다.
도 9 및 도 10은 일 실시 예에 의한 입체 음향 재생 장치의 내부 구조를 나타낸 블록도이다.
도 9를 참조하면, 입체 음향 재생 장치(900)는 3D 렌더러(910), 2D 렌더러(920), 웨이팅 적용부(930), 믹서(940)를 포함할 수 있다. 도 9의 3D 렌더러(910), 2D 렌더러(920) 및 믹서(940)는 도 2의 3D 렌더러(221), 2D 렌더러(222) 및 믹서(230)와 대응되고, 중복되는 설명은 생략할 수 있다.
3D 렌더러(910)는 다채널 오디오 신호 중 오버헤드 채널 신호에 대하여 렌더링할 수 있다.
2D 렌더러(920)는 다채널 오디오 신호 중 수평면 채널 신호에 대하여 렌더링할 수 있다.
웨이팅 적용부(930)는 3D 렌더러(910)에 의해 렌더링될 수 있는 레이아웃 중 재생될 신호의 채널 레이아웃과 일치하지 않는 경우, 다채널 오디오 신호를 재생될 채널 레이아웃에 따라 출력하기 위한 구성요소이다. 재생될 채널의 레이아웃이란 재생될 채널 신호가 출력될 스피커들의 배치 정보를 의미할 수 있다.
2D 렌더러(920)가 VBAP 방법으로 렌더링하는 경우, 임의의 레이아웃 채널 환경에서도 수평면 채널 신호에 대한 렌더링이 가능하다. VBAP 방법에 의하면 입체 음향 재생 장치(900)는 벡터 기반의 간단한 계산 만으로 임의의 스피커 환경에서의 패닝 게인을 구하여 다채널 오디오 신호를 렌더링할 수 있다. 따라서, 임의의 재생 채널 레이아웃이 3D 렌더러(910)에 의해 렌더링되는 레이아웃과 유사한 정도에 따라 웨이팅이 결정될 수 있다. 예를 들면, 3D 렌더러(910)가 다채널 오디오 신호를 5.1 채널의 재생 환경으로 렌더링하는 경우, 렌더링하고자 하는 임의의 레이아웃 채널 환경이 5.1 채널의 재생 환경과 레이아웃이 얼마나 다른지에 따라서 웨이팅이 결정될 수 있다.
그리고, 3D 웨이팅 적용부(930)는 3D 렌더러(910) 및 2D 렌더러(920)에 의해 렌더링된 신호에 각각 결정된 웨이팅을 적용하여 출력할 수 있다.
도 10을 참조하면, 입체 음향 재생 장치(1000)는 3D 렌더러(1010), 2D 렌더러(1020) 및 믹서(1030)를 포함할 수 있다. 도 9의 3D 렌더러(1010), 2D 렌더러(1020) 및 믹서(1030)는 도 2의 3D 렌더러(221), 2D 렌더러(222) 및 믹서(230)와 대응되고, 중복되는 설명은 생략할 수 있다.
3D 렌더러(1010)는 렌더링할 수 있는 레이아웃 중 출력될 채널의 레이아웃과 가장 유사한 레이아웃으로 렌더링할 수 있다. 그리고, 2D 렌더러(1020)는 3D 렌더러(1010)에 의해 렌더링된 신호를 각 채널별로 출력될 신호의 채널 레이아웃으로 다시 패닝시켜(repanning) 렌더링할 수 있다.
예를 들면, 3D 렌더러(1010)가 다채널 오디오 신호를 5.1 채널의 재생 환경으로 렌더링하는 경우, 2D 렌더러(1020)는 VBAP 방법에 따라 렌더링하고자 하는 임의의 레이아웃 채널 환경에 따라서 3D 렌더링된 신호를 다시 패닝시켜 렌더링할 수 있다.
일 실시 예에 의한, 입체 음향 재생 장치는 음성 신호 중 고도 성분을 수평면 상에 배치된 스피커에서 고도감 있게 재생할 수 있다.
일 실시 예에 의한, 입체 음향 재생 장치는 다채널 오디오 신호를 채널 수가 적은 환경에서 재생할 때, 음색이 변하거나 소리가 사라지는 현상을 최소화할 수 있다.
일 실시 예에 의한 방법은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터(정보 처리 기능을 갖는 장치를 모두 포함한다)가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 장치의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장 장치 등이 있다.
비록 상기 설명이 다양한 실시예들에 적용되는 본 발명의 신규한 특징들에 초점을 맞추어 설명되었지만, 본 기술 분야에 숙달된 기술을 가진 사람은 본 발명의 범위를 벗어나지 않으면서도 상기 설명된 장치 및 방법의 형태 및 세부 사항에서 다양한 삭제, 대체, 및 변경이 가능함을 이해할 것이다. 따라서, 본 발명의 범위는 상기 설명에서보다는 첨부된 특허청구범위에 의해 정의된다. 특허청구범위의 균등 범위 안의 모든 변형은 본 발명의 범위에 포섭된다.

Claims (15)

  1. 다채널 오디오 신호를 획득하는 단계;
    상기 다채널 오디오 신호의 채널 정보 및 주파수에 따라 재생될 채널로 렌더링하는 단계; 및
    상기 렌더링된 신호들을 믹싱하는 단계를 포함하는 것을 특징으로 하는 입체 음향 재생 방법.
  2. 제1항에 있어서, 상기 입체 음향 재생 방법은
    상기 다채널 오디오 신호에서 어플라우즈 신호를 분리하는 단계를 더 포함하고,
    상기 렌더링하는 단계는
    상기 어플라우즈 신호는 2D 렌더링 방법에 따라 렌더링되거나 상기 어플라우즈 신호의 각 채널 별로 수평면상 배치된 출력 채널 중 가장 가까운 채널로 렌더링되는 단계를 포함하는 것을 특징으로 하는 입체 음향 재생 방법.
  3. 제2항에 있어서, 상기 믹싱하는 단계는
    상기 렌더링된 어플라우즈 신호를 에너지 부스트 방식에 따라 믹싱하는 단계를 포함하는 것을 특징으로 하는 입체 음향 재생 방법.
  4. 제2항에 있어서, 상기 어플라우즈 신호를 분리하는 단계는
    상기 다채널 입력 신호에 토널하지 않은 광대역 신호가 존재하고, 상기 광대역 신호의 레벨이 채널 별로 유사한지 여부, 짧은 구간의 임펄스 형태가 반복되는지 여부 및 채널간 연관성이 낮은지 여부 중 적어도 하나에 기초하여 상기 다채널 입력 신호가 상기 어플라우즈 신호를 포함하는지 여부를 판단하는 단계;
    상기 판단 결과에 따라 상기 어플라우즈 신호를 분리하는 단계를 포함하는 것을 특징으로 하는 입체 음향 재생 방법.
  5. 제1항에 있어서, 상기 렌더링하는 단계는
    상기 다채널 오디오 신호를 상기 채널 정보에 기초하여 수평면 채널 신호 및 오버헤드 채널 신호로 분리하는 단계;
    상기 오버헤드 채널 신호를 저주파 신호와 고주파 신호로 분리하는 단계;
    상기 저주파 신호는 상기 저주파 신호의 각 채널 별로 수평면상 배치된 출력 채널 중 가장 가까운 채널로 렌더링하는 단계;
    상기 고주파 신호는 3D 렌더링 방법에 따라 렌더링하는 단계;
    상기 수평면 채널 신호는 2D 렌더링 방법에 따라 렌더링하는 단계를 포함하는 것을 특징으로 하는 입체 음향 재생 방법.
  6. 제1항에 있어서, 상기 믹싱하는 단계는
    상기 채널 정보 및 주파수에 따라 상기 렌더링된 신호들에 적용할 게인을 결정하는 단계; 및
    상기 결정된 게인을 상기 렌더링된 신호들에 적용하고 믹싱하는 단계를 포함하는 것을 특징으로 하는 입체 음향 재생 방법.
  7. 제1항에 있어서, 상기 믹싱하는 단계는
    상기 렌더링된 신호들의 파워 값에 기초하여, 상기 파워 값이 보존되도록 상기 렌더링된 신호들을 믹싱하는 단계를 포함하는 것을 특징으로 하는 입체 음향 재생 방법.
  8. 제7항에 있어서, 상기 믹싱하는 단계는
    상기 렌더링된 신호들의 파워 값에 기초하여, 소정 구간 단위로 믹싱하는 단계;
    상기 렌더링된 신호들 중 저주파 신호를 분리하는 단계;
    상기 저주파 신호는 이전 구간에서의 상기 렌더링된 신호들의 파워 값에 기초하여 상기 렌더링된 신호들을 믹싱하는 단계를 포함하는 것을 특징으로 하는 입체 음향 재생 방법.
  9. 다채널 오디오 신호를 획득하고, 상기 다채널 오디오 신호의 채널 정보 및 주파수에 따라 재생될 채널로 렌더링하는 렌더러;
    상기 렌더링된 신호들을 믹싱하는 믹서를 포함하는 것을 특징으로 하는 입체 음향 재생 장치.
  10. 제9항에 있어서, 상기 입체 음향 재생 장치는
    상기 다채널 오디오 신호에서 어플라우즈 신호를 분리하는 음향 분석부를 더 포함하고,
    상기 렌더러는
    상기 어플라우즈 신호를 2D 렌더링 방법에 따라 렌더링하거나 상기 어플라우즈 신호의 각 채널 별로 수평면상 배치된 출력 채널 중 가장 가까운 채널로 렌더링하는 것을 특징으로 하는 입체 음향 재생 장치.
  11. 제10항에 있어서, 상기 믹서는
    상기 렌더링된 어플라우즈 신호를 에너지 부스트 방식에 따라 믹싱하는 것을 특징으로 하는 입체 음향 재생 장치.
  12. 제10항에 있어서, 상기 음향 분석부는
    상기 다채널 입력 신호에 토널하지 않은 광대역 신호가 존재하고, 상기 광대역 신호의 레벨이 채널 별로 유사한지 여부, 짧은 구간의 임펄스 형태가 반복되는지 여부 및 채널간 연관성이 낮은지 여부 중 적어도 하나에 기초하여 상기 다채널 입력 신호가 상기 어플라우즈 신호를 포함하는지 여부를 판단하고, 상기 판단 결과에 따라 상기 어플라우즈 신호를 분리하는 것을 특징으로 하는 입체 음향 재생 장치.
  13. 제9항에 있어서, 상기 렌더러는
    상기 다채널 오디오 신호를 상기 채널 정보에 기초하여 수평면 채널 신호 및 오버헤드 채널 신호로 분리하고, 상기 오버헤드 채널 신호를 저주파 신호와 고주파 신호로 분리하고, 상기 저주파 신호는 상기 저주파 신호의 각 채널 별로 수평면상 배치된 출력 채널 중 가장 가까운 채널로 렌더링하고, 상기 고주파 신호는 3D 렌더링 방법에 따라 렌더링하고, 상기 수평면 채널 신호는 2D 렌더링 방법에 따라 렌더링하는 것을 특징으로 하는 입체 음향 재생 장치.
  14. 제9항에 있어서, 상기 믹서는
    상기 채널 정보 및 주파수에 따라 상기 렌더링된 신호들에 적용할 게인을 결정하고, 상기 결정된 게인을 상기 렌더링된 신호들에 적용하고 믹싱하는 것을 특징으로 하는 입체 음향 재생 장치.
  15. 제9항에 있어서, 상기 믹서는
    상기 렌더링된 신호들의 파워 값에 기초하여, 상기 파워 값이 보존되도록 상기 렌더링된 신호들을 믹싱하는 것을 특징으로 하는 입체 음향 재생 장치.
PCT/KR2014/010134 2013-10-25 2014-10-27 입체 음향 재생 방법 및 장치 WO2015060696A1 (ko)

Priority Applications (11)

Application Number Priority Date Filing Date Title
US15/029,143 US10091600B2 (en) 2013-10-25 2014-10-27 Stereophonic sound reproduction method and apparatus
CN201480058551.1A CN105684466B (zh) 2013-10-25 2014-10-27 立体声再现方法和设备
EP21154301.2A EP3833054B1 (en) 2013-10-25 2014-10-27 Stereophonic sound reproduction method and apparatus
EP14855641.8A EP3035711B1 (en) 2013-10-25 2014-10-27 Stereophonic sound reproduction method and apparatus
EP20150554.2A EP3664475B1 (en) 2013-10-25 2014-10-27 Stereophonic sound reproduction method and apparatus
EP23166702.3A EP4221261A1 (en) 2013-10-25 2014-10-27 Stereophonic sound reproduction method and apparatus
MX2016004750A MX355499B (es) 2013-10-25 2014-10-27 Metodo y aparato para la reproduccion de sonido estereofonico.
JP2016523302A JP6382965B2 (ja) 2013-10-25 2014-10-27 オーディオ信号レンダリング方法及び装置
PL20150554T PL3664475T3 (pl) 2013-10-25 2014-10-27 Sposób i urządzenie do odtwarzania dźwięku stereofonicznego
US16/114,843 US10645513B2 (en) 2013-10-25 2018-08-28 Stereophonic sound reproduction method and apparatus
US16/861,354 US11051119B2 (en) 2013-10-25 2020-04-29 Stereophonic sound reproduction method and apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020130128038A KR102231755B1 (ko) 2013-10-25 2013-10-25 입체 음향 재생 방법 및 장치
KR10-2013-0128038 2013-10-25

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US15/029,143 A-371-Of-International US10091600B2 (en) 2013-10-25 2014-10-27 Stereophonic sound reproduction method and apparatus
US16/114,843 Continuation US10645513B2 (en) 2013-10-25 2018-08-28 Stereophonic sound reproduction method and apparatus

Publications (1)

Publication Number Publication Date
WO2015060696A1 true WO2015060696A1 (ko) 2015-04-30

Family

ID=52993205

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2014/010134 WO2015060696A1 (ko) 2013-10-25 2014-10-27 입체 음향 재생 방법 및 장치

Country Status (10)

Country Link
US (3) US10091600B2 (ko)
EP (4) EP3664475B1 (ko)
JP (2) JP6382965B2 (ko)
KR (1) KR102231755B1 (ko)
CN (2) CN107734445B (ko)
ES (1) ES2952212T3 (ko)
MX (1) MX355499B (ko)
PL (2) PL3833054T3 (ko)
SI (1) SI3833054T1 (ko)
WO (1) WO2015060696A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11232804B2 (en) 2017-07-03 2022-01-25 Dolby International Ab Low complexity dense transient events detection and coding

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6866679B2 (ja) * 2017-02-20 2021-04-28 株式会社Jvcケンウッド 頭外定位処理装置、頭外定位処理方法、及び頭外定位処理プログラム
WO2018173413A1 (ja) * 2017-03-24 2018-09-27 シャープ株式会社 音声信号処理装置及び音声信号処理システム
CN111434126B (zh) * 2017-12-12 2022-04-26 索尼公司 信号处理装置和方法以及程序

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070269062A1 (en) * 2004-11-29 2007-11-22 Rene Rodigast Device and method for driving a sound system and sound system
KR20080071805A (ko) * 2007-01-31 2008-08-05 삼성전자주식회사 스피커 어레이를 이용한 프론트 서라운드 재생 시스템 및그 신호 재생 방법
KR20090054802A (ko) * 2007-11-27 2009-06-01 한국전자통신연구원 음장 합성을 이용한 입체 음장 재생 장치 및 그 방법
KR20100114450A (ko) * 2009-04-15 2010-10-25 한국전자통신연구원 가변 비트율을 갖는 잔차 신호 부호화를 이용한 고품질 다객체 오디오 부호화 및 복호화 장치
KR20120137253A (ko) * 2011-06-09 2012-12-20 삼성전자주식회사 3차원 오디오 신호를 부호화 및 복호화하는 방법 및 장치

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4306029B2 (ja) 1999-06-28 2009-07-29 ソニー株式会社 音場再生システム
US7558393B2 (en) * 2003-03-18 2009-07-07 Miller Iii Robert E System and method for compatible 2D/3D (full sphere with height) surround sound reproduction
KR20050060789A (ko) 2003-12-17 2005-06-22 삼성전자주식회사 가상 음향 재생 방법 및 그 장치
EP1761110A1 (en) * 2005-09-02 2007-03-07 Ecole Polytechnique Fédérale de Lausanne Method to generate multi-channel audio signals from stereo signals
US7974713B2 (en) 2005-10-12 2011-07-05 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Temporal and spatial shaping of multi-channel audio signals
AU2007207861B2 (en) 2006-01-19 2011-06-09 Blackmagic Design Pty Ltd Three-dimensional acoustic panning device
JP5010185B2 (ja) * 2006-06-08 2012-08-29 日本放送協会 3次元音響パンニング装置
TWI326448B (en) * 2006-02-09 2010-06-21 Lg Electronics Inc Method for encoding and an audio signal and apparatus thereof and computer readable recording medium for method for decoding an audio signal
WO2007136166A1 (en) 2006-05-23 2007-11-29 Lg Electronics Inc. Digital broadcasting system and method of processing data
EP2154911A1 (en) * 2008-08-13 2010-02-17 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. An apparatus for determining a spatial output multi-channel audio signal
JP5237463B2 (ja) * 2008-12-11 2013-07-17 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ マルチチャンネルオーディオ信号を生成するための装置
JP2011066868A (ja) * 2009-08-18 2011-03-31 Victor Co Of Japan Ltd オーディオ信号符号化方法、符号化装置、復号化方法及び復号化装置
WO2011095913A1 (en) 2010-02-02 2011-08-11 Koninklijke Philips Electronics N.V. Spatial sound reproduction
ES2656815T3 (es) * 2010-03-29 2018-02-28 Fraunhofer-Gesellschaft Zur Förderung Der Angewandten Forschung Procesador de audio espacial y procedimiento para proporcionar parámetros espaciales en base a una señal de entrada acústica
JP5604933B2 (ja) * 2010-03-30 2014-10-15 富士通株式会社 ダウンミクス装置およびダウンミクス方法
KR20120004909A (ko) * 2010-07-07 2012-01-13 삼성전자주식회사 입체 음향 재생 방법 및 장치
WO2012011015A1 (en) 2010-07-22 2012-01-26 Koninklijke Philips Electronics N.V. System and method for sound reproduction
SG187950A1 (en) * 2010-08-25 2013-03-28 Fraunhofer Ges Forschung Apparatus for generating a decorrelated signal using transmitted phase information
WO2012145176A1 (en) * 2011-04-18 2012-10-26 Dolby Laboratories Licensing Corporation Method and system for upmixing audio to generate 3d audio
US9754595B2 (en) * 2011-06-09 2017-09-05 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding 3-dimensional audio signal
TW202339510A (zh) * 2011-07-01 2023-10-01 美商杜比實驗室特許公司 用於適應性音頻信號的產生、譯碼與呈現之系統與方法
EP2645749B1 (en) 2012-03-30 2020-02-19 Samsung Electronics Co., Ltd. Audio apparatus and method of converting audio signal thereof
CN102664017B (zh) * 2012-04-25 2013-05-08 武汉大学 一种3d音频质量客观评价方法
WO2013192111A1 (en) * 2012-06-19 2013-12-27 Dolby Laboratories Licensing Corporation Rendering and playback of spatial audio using channel-based audio systems
US9913064B2 (en) * 2013-02-07 2018-03-06 Qualcomm Incorporated Mapping virtual speakers to physical speakers
EP2981101B1 (en) 2013-03-29 2019-08-14 Samsung Electronics Co., Ltd. Audio apparatus and audio providing method thereof
CN105376691B (zh) * 2014-08-29 2019-10-08 杜比实验室特许公司 感知方向的环绕声播放

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070269062A1 (en) * 2004-11-29 2007-11-22 Rene Rodigast Device and method for driving a sound system and sound system
KR20080071805A (ko) * 2007-01-31 2008-08-05 삼성전자주식회사 스피커 어레이를 이용한 프론트 서라운드 재생 시스템 및그 신호 재생 방법
KR20090054802A (ko) * 2007-11-27 2009-06-01 한국전자통신연구원 음장 합성을 이용한 입체 음장 재생 장치 및 그 방법
KR20100114450A (ko) * 2009-04-15 2010-10-25 한국전자통신연구원 가변 비트율을 갖는 잔차 신호 부호화를 이용한 고품질 다객체 오디오 부호화 및 복호화 장치
KR20120137253A (ko) * 2011-06-09 2012-12-20 삼성전자주식회사 3차원 오디오 신호를 부호화 및 복호화하는 방법 및 장치

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11232804B2 (en) 2017-07-03 2022-01-25 Dolby International Ab Low complexity dense transient events detection and coding

Also Published As

Publication number Publication date
JP2018201224A (ja) 2018-12-20
PL3833054T3 (pl) 2023-08-21
EP4221261A1 (en) 2023-08-02
US20160269845A1 (en) 2016-09-15
MX355499B (es) 2018-04-20
JP6382965B2 (ja) 2018-08-29
US10645513B2 (en) 2020-05-05
EP3833054B1 (en) 2023-06-28
EP3035711B1 (en) 2020-06-03
CN107734445A (zh) 2018-02-23
CN105684466A (zh) 2016-06-15
EP3664475B1 (en) 2021-03-31
EP3833054A1 (en) 2021-06-09
US20180367933A1 (en) 2018-12-20
EP3035711A4 (en) 2017-04-12
KR102231755B1 (ko) 2021-03-24
ES2952212T3 (es) 2023-10-30
CN107734445B (zh) 2019-10-15
CN105684466B (zh) 2017-11-28
US20200260204A1 (en) 2020-08-13
EP3664475A1 (en) 2020-06-10
SI3833054T1 (sl) 2023-08-31
US11051119B2 (en) 2021-06-29
EP3035711A1 (en) 2016-06-22
KR20150047943A (ko) 2015-05-06
JP6660982B2 (ja) 2020-03-11
JP2016537864A (ja) 2016-12-01
PL3664475T3 (pl) 2021-07-05
US10091600B2 (en) 2018-10-02
MX2016004750A (es) 2016-07-22

Similar Documents

Publication Publication Date Title
WO2014157975A1 (ko) 오디오 장치 및 이의 오디오 제공 방법
WO2014088328A1 (ko) 오디오 제공 장치 및 오디오 제공 방법
WO2015156654A1 (ko) 음향 신호의 렌더링 방법, 장치 및 컴퓨터 판독 가능한 기록 매체
WO2011115430A2 (ko) 입체 음향 재생 방법 및 장치
WO2015152665A1 (ko) 오디오 신호 처리 방법 및 장치
WO2016089180A1 (ko) 바이노럴 렌더링을 위한 오디오 신호 처리 장치 및 방법
CN1605226B (zh) 改善虚拟环绕中空间感的方法
WO2012005507A2 (en) 3d sound reproducing method and apparatus
WO2015142073A1 (ko) 오디오 신호 처리 방법 및 장치
EP2561688A2 (en) Method and apparatus for reproducing stereophonic sound
WO2014175669A1 (ko) 음상 정위를 위한 오디오 신호 처리 방법
WO2019147040A1 (ko) 스테레오 오디오를 바이노럴 오디오로 업 믹스하는 방법 및 이를 위한 장치
KR20150083734A (ko) 액티브다운 믹스 방식을 이용한 입체 음향 재생 방법 및 장치
WO2015060696A1 (ko) 입체 음향 재생 방법 및 장치
WO2015147619A1 (ko) 음향 신호의 렌더링 방법, 장치 및 컴퓨터 판독 가능한 기록 매체
WO2018147701A1 (ko) 오디오 신호 처리 방법 및 장치
US20110038485A1 (en) Nonlinear filter for separation of center sounds in stereophonic audio
WO2013103256A1 (ko) 다채널 음향 신호의 정위 방법 및 장치
KR101871234B1 (ko) 사운드 파노라마 생성 장치 및 방법
US7457421B2 (en) Circuit and program for processing multichannel audio signals and apparatus for reproducing same
WO2019031652A1 (ko) 3차원 오디오 재생 방법 및 재생 장치
WO2018101600A1 (en) Electronic apparatus and control method thereof
WO2016182184A1 (ko) 입체 음향 재생 방법 및 장치
WO2016204579A1 (ko) 저연산 포맷 변환을 위한 인터널 채널 처리 방법 및 장치
JP2003518891A (ja) 音声信号処理装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14855641

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2014855641

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 15029143

Country of ref document: US

Ref document number: MX/A/2016/004750

Country of ref document: MX

ENP Entry into the national phase

Ref document number: 2016523302

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE