WO2018056780A1 - 바이노럴 오디오 신호 처리 방법 및 장치 - Google Patents

바이노럴 오디오 신호 처리 방법 및 장치 Download PDF

Info

Publication number
WO2018056780A1
WO2018056780A1 PCT/KR2017/010564 KR2017010564W WO2018056780A1 WO 2018056780 A1 WO2018056780 A1 WO 2018056780A1 KR 2017010564 W KR2017010564 W KR 2017010564W WO 2018056780 A1 WO2018056780 A1 WO 2018056780A1
Authority
WO
WIPO (PCT)
Prior art keywords
audio signal
signal processing
processing apparatus
audio
metadata
Prior art date
Application number
PCT/KR2017/010564
Other languages
English (en)
French (fr)
Inventor
전상배
이태규
오현오
Original Assignee
지오디오랩 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 지오디오랩 인코포레이티드 filed Critical 지오디오랩 인코포레이티드
Priority to JP2019537729A priority Critical patent/JP2019533404A/ja
Priority to US15/826,485 priority patent/US10659904B2/en
Publication of WO2018056780A1 publication Critical patent/WO2018056780A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/305Electronic adaptation of stereophonic audio signals to reverberation of the listening space
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/01Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/11Application of ambisonics in stereophonic audio systems

Definitions

  • the present invention relates to an audio signal processing method and apparatus. Specifically, the present invention relates to a binaural audio signal processing method and apparatus.
  • 3D audio is a series of signal processing, transmission, encoding, and playback methods for providing a realistic sound in three-dimensional space by providing another axis corresponding to the height direction to a sound scene on a horizontal plane (2D) provided by conventional surround audio. Also known as technology.
  • a rendering technique is required in which a sound image is formed at a virtual position in which no speaker exists even if a larger number of speakers or a smaller number of speakers are used.
  • 3D audio is expected to be an audio solution for ultra-high definition televisions (UHDTVs), as well as sound from vehicles evolving into high-quality infotainment spaces, as well as theater sounds, personal 3DTVs, tablets, wireless communication terminals, and cloud games. It is expected to be applied in the field.
  • UHDTVs ultra-high definition televisions
  • infotainment spaces as well as theater sounds, personal 3DTVs, tablets, wireless communication terminals, and cloud games. It is expected to be applied in the field.
  • a channel based signal and an object based signal may exist in the form of a sound source provided to 3D audio.
  • a sound source in which a channel-based signal and an object-based signal are mixed, thereby providing a user with a new type of content experience.
  • Binaural rendering is the modeling of this 3D audio as a signal delivered to both ears.
  • the user can also feel 3D through the binaural rendered 2-channel audio output signal through headphones or earphones.
  • the specific principle of binaural rendering is as follows. One always hears the sound through both ears, and the sound recognizes the location and direction of the sound source.
  • 3D audio can be modeled in the form of an audio signal delivered to both ears of a person, the stereoscopic sense of 3D audio can be reproduced through a two-channel audio output without a large number of speakers.
  • One embodiment of the present invention is to provide an audio signal processing method and apparatus for processing an audio signal.
  • an embodiment of the present invention is to provide an audio signal processing method and apparatus for processing a binaural audio signal.
  • an embodiment of the present invention is to provide an audio signal processing method and apparatus for processing a binaural audio signal using metadata.
  • an embodiment of the present invention is to provide a method and apparatus for processing an audio signal using an audio file format that supports a smaller number of channels than the number of channels of an audio signal.
  • an audio signal processing apparatus for rendering an audio signal may include a receiver configured to receive an audio file including an audio signal; A processor that simultaneously renders a first audio signal component included in a first track of the audio file and a second audio signal component included in a second track; And an output unit configured to output the rendered first audio signal component and the rendered second audio signal component.
  • the number of channels of an audio signal supported by each of the first track and the second track may be smaller than the sum of the number of channels of the audio signal.
  • the first track may be a track at a predetermined position among a plurality of tracks of the audio file.
  • the first audio signal component may be an audio signal component that may be rendered without metadata for representing a position of a sound image simulated by the audio signal.
  • the first audio signal component may be an audio signal component that may be rendered without metadata for binaural rendering.
  • the first track may include metadata.
  • the processor may determine a track of the audio file including an audio signal component based on the metadata.
  • the processor may render the first audio signal component and the second audio signal component based on the metadata.
  • the processor may determine in a predetermined track order whether a plurality of tracks of the audio file includes an audio signal component of the audio signal.
  • the processor may select the first audio signal component and the second audio signal component from among a plurality of audio signal components included in the plurality of tracks of the audio file according to the capability of the audio signal processing apparatus.
  • the number of channels of an audio signal supported by each of the first track and the second track may be smaller than the sum of the number of channels of the audio signal.
  • the first track may be a track at a predetermined position among a plurality of tracks of the audio file.
  • the first audio signal component may be an audio signal component that may be rendered without metadata for representing a position of a sound image simulated by the audio signal.
  • the first audio signal component may be an audio signal component that may be rendered without metadata for binaural rendering.
  • the processor inserts metadata into the first track, and the metadata may indicate which track of the plurality of tracks of the audio file includes an audio signal component of the audio signal.
  • the processor may insert a plurality of audio signal components of the audio signal in a specified order in a plurality of tracks of the audio file.
  • an audio signal processing apparatus for rendering an audio signal may include a receiver configured to receive an audio signal; A processor that determines whether to render the audio signal by reflecting the position of a sound image simulated by the audio signal based on metadata about the audio signal, and renders the audio signal according to the determination; And an output unit configured to output the rendered audio signal.
  • the metadata may include sound level information indicating a sound level corresponding to a time interval indicated by the metadata.
  • the processor may determine whether to render the audio signal by reflecting the position of the sound image simulated by the audio signal based on the sound level information.
  • the processor compares a difference between a sound level of an audio signal corresponding to a first time interval and a sound level of an audio signal corresponding to a second time interval, and thereby positions a sound image simulated by the audio signal corresponding to the second time interval. Reflecting this, it may be determined whether to render the audio signal corresponding to the second time interval.
  • the first time interval may be a time ahead of the second time interval.
  • the processor may determine whether to render the audio signal by reflecting the position of the sound image simulated by the audio signal based on whether the sound level indicated by the sound level information is smaller than a predetermined value.
  • the metadata may include binaural effect intensity information indicating the binaural rendering application intensity.
  • the processor may determine a binaural rendering application strength for the audio signal based on the binaural effect intensity information, and binaurally render the audio signal with the determined binaural rendering application strength.
  • the processor may change an application intensity of a head related transfer function (HRTF) or a binaural rendering impulse response (BRIR) for binaural rendering according to the determined binaural rendering application intensity.
  • HRTF head related transfer function
  • BRIR binaural rendering impulse response
  • the binaural effect intensity information may indicate the binaural rendering intensity for each component of the audio signal.
  • the binaural effect intensity information may indicate the binaural rendering intensity in units of frames.
  • the metadata may include motion application information indicating whether to render the audio signal by reflecting the movement of the listener.
  • the processor may determine whether to render the audio signal by reflecting the movement of the listener based on the motion application information.
  • the processor may render the audio signal by applying a fade in / fade out depending on whether the audio signal is rendered by reflecting the position of a simulated sound image.
  • the metadata may include personalization parameter application information indicating whether to allow the application of a personalization parameter, which is a parameter that can be set according to the listener.
  • the processor may render the audio signal without applying the personalization parameter according to the personalization parameter application information.
  • the processor may insert a sound level corresponding to a time interval indicated by the metadata into the metadata.
  • the sound level may be used to determine whether to render the audio signal by reflecting the position of the sound image simulated by the audio signal.
  • the processor may insert binaural effect intensity information indicating the binaural rendering intensity applied to the audio signal into the metadata.
  • the binaural effect intensity information may be used to change an application strength of a head related transfer function (HRTF) or a binaural rendering impulse response (BRIR) for binaural rendering.
  • HRTF head related transfer function
  • BRIR binaural rendering impulse response
  • the binaural effect strength information may indicate the binaural rendering intensity for each audio signal component of the audio signal.
  • the binaural effect intensity information may indicate the intensity of the binaural rendering applied on a frame basis.
  • the processor may insert motion application information indicating whether to render the audio signal by reflecting the movement of the listener into the metadata.
  • the listener's movement may include the listener's head movement.
  • an operation method of an audio signal processing apparatus for rendering an audio signal may include receiving an audio signal; Rendering the audio signal by reflecting a position of a sound image simulated by the audio signal based on metadata about the audio signal; And outputting the rendered audio signal.
  • One embodiment of the present invention provides an audio signal processing method and apparatus for processing a plurality of audio signals.
  • an embodiment of the present invention provides an audio signal processing method and apparatus for processing an audio signal that may be represented by an ambisonic signal.
  • FIG. 1 is a block diagram illustrating an audio signal processing apparatus for rendering an audio signal according to an exemplary embodiment.
  • FIG. 2 is a block diagram illustrating an operation of processing an ambisonic signal and an object signal together by an audio signal processing apparatus that renders an audio signal according to an exemplary embodiment of the present invention.
  • FIG. 3 illustrates syntax of metadata representing a degree of application of binaural rendering according to an exemplary embodiment of the present invention.
  • FIG. 4 illustrates syntax of metadata for adjusting rendering conditions according to characteristics of an apparatus in which an audio signal is rendered according to an exemplary embodiment of the present invention.
  • FIG. 5 is a view illustrating a classification of additional information according to an embodiment of the present invention.
  • FIG. 6 shows a structure of a header parameter according to an embodiment of the present invention.
  • FIG. 7 shows a specific format of GAO_HDR according to an embodiment of the present invention.
  • FIG. 8 shows a structure of metadata parameters according to an embodiment of the present invention.
  • FIG. 9 illustrates an operation of acquiring metadata separately from an audio signal by an audio signal processing apparatus that renders an audio signal according to an embodiment of the present invention.
  • FIG. 10 illustrates an operation of acquiring metadata together with an audio signal by an audio signal processing apparatus that renders an audio signal according to an embodiment of the present invention.
  • FIG. 11 is a view illustrating an operation of simultaneously acquiring link information for linking an audio signal and metadata by an audio signal processing apparatus that renders an audio signal according to an exemplary embodiment.
  • 12 to 13 illustrate an operation of acquiring metadata based on an audio bitstream by an audio signal processing apparatus that renders an audio signal according to an embodiment of the present invention.
  • FIG. 14 illustrates a method in which an audio signal processing organ acquires metadata when an audio signal processing apparatus that renders an audio signal receives an audio signal through transport streaming according to an embodiment of the present invention.
  • 15 through 16 illustrate syntax of an AAC file according to an embodiment of the present invention.
  • FIG. 17 is a view illustrating an audio signal processing method using an audio file format that supports a number of channels smaller than the sum of the number of channels included in an audio signal according to an embodiment of the present invention.
  • FIG. 18 is a block diagram illustrating an audio signal processing apparatus that processes an audio signal to deliver an audio signal according to an embodiment of the present invention.
  • 19 is a flowchart illustrating a method of operating an audio signal processing apparatus that processes an audio signal to transmit an audio signal according to an embodiment of the present invention.
  • 20 is a flowchart illustrating a method of operating an audio signal processing apparatus that renders an audio signal according to an exemplary embodiment.
  • FIG. 1 is a block diagram illustrating an audio signal processing apparatus for rendering an audio signal according to an exemplary embodiment.
  • an audio signal processing apparatus 100 for rendering an audio signal includes a receiver 10, a processor 30, and an output unit 70.
  • the receiver 10 receives an input audio signal.
  • the input audio signal may be a sound received by the sound collector.
  • the sound collection device may be a microphone.
  • the sound collecting device may be a microphone array including a plurality of microphones.
  • the processor 30 processes the input audio signal received by the receiver 10.
  • the processor 30 may include a format converter, a renderer, and a post processing unit.
  • the format converter converts the format of the input audio signal into another format.
  • the format converter may convert an object signal into an ambisonic signal.
  • the ambisonic signal may be a signal recorded through the microphone array.
  • the ambisonic signal may be a signal obtained by converting a signal recorded through a microphone array into a coefficient with respect to the basis of spherical harmonics.
  • the format converter may convert an ambisonic signal into an object signal.
  • the format converter may change the order of the ambisonic signal.
  • the format converter may convert a higher order ambisonics (hoa) signal into a first order ambisonics (foa) signal.
  • the format converter may acquire position information related to the input audio signal, and convert the format of the input audio signal based on the acquired position information.
  • the location information may be information about a microphone array in which a sound corresponding to an audio signal is collected.
  • the information on the microphone array may include at least one of array information, number information, location information, frequency characteristic information, and beam pattern information of microphones constituting the microphone array.
  • the position information related to the input audio signal may include information indicating the position of the sound source.
  • the renderer renders the input audio signal.
  • the renderer may render an input audio signal in which the format is converted.
  • the input audio signal may include at least one of a loudspeaker channel signal, an object signal, and an ambisonic signal.
  • the renderer may render the input audio signal into an audio signal such that the input audio signal is represented by a virtual sound object positioned in three dimensions using information represented by the format of the audio signal.
  • the renderer may render the input audio signal by matching the plurality of speakers.
  • the renderer may binaurally render the input audio signal.
  • the renderer may include a time synchronizer for synchronizing the time between the object signal and the ambisonic signal.
  • the renderer may include a 6DOF controller that controls 6 degrees of freedom (6DOF) of the ambisonic signal.
  • the 6DOF controller may include a direction changing unit for changing the size of a specific direction component of the ambisonic signal.
  • the 6DOF controller may change the size of a specific direction component of the ambisonic signal according to the position of the listener in the virtual space simulated by the audio signal.
  • the direction changing unit may include a direction modification matrix generator for generating a matrix for changing the size of a specific direction component of the ambisonic signal.
  • the 6DOF control unit may include a conversion unit for converting the ambisonic signal into a channel signal
  • the 6DOF control unit may include a relative position calculation unit for calculating the relative position between the virtual speaker corresponding to the channel signal and the listener of the audio signal.
  • the output unit 70 outputs the rendered audio signal.
  • the output unit 70 may output an audio signal through two or more loudspeakers.
  • the output unit 70 may output an audio signal through two-channel stereo headphones.
  • the audio signal processing apparatus 100 may process an ambisonic signal and an object signal together. In this case, a specific operation of the audio signal processing apparatus 100 will be described with reference to FIG. 2.
  • FIG. 2 is a block diagram illustrating an operation of processing an ambisonic signal and an object signal together by an audio signal processing apparatus that renders an audio signal according to an exemplary embodiment of the present invention.
  • the aforementioned Ambisonics is one of methods in which an audio signal processing apparatus obtains information about a sound field and reproduces sound using the obtained information.
  • the ambisonic may represent that the audio signal processing apparatus processes the audio signal as follows.
  • an audio signal processing device For ideal ambisonic signal processing, an audio signal processing device must obtain information about a sound source from sound in all directions incident on a point in space. However, since there is a limit to reducing the size of the microphone, the audio signal processing apparatus may obtain information about a sound source by calculating a signal incident to infinitely small points from the sound collected on the surface of a sphere, and use the obtained information.
  • the position of each microphone of the microphone array on the spherical coordinate system may be expressed as a distance from the center of the coordinate system, an azimuth (or horizontal angle), and an elevation angle (or vertical angle).
  • the audio signal processing apparatus may acquire the basis of the spherical harmonic function through the coordinate values of each microphone in the spherical coordinate system. In this case, the audio signal processing apparatus may project the microphone array signal into the spherical harmonic function domain based on each basis of the spherical harmonic function.
  • the microphone array signal can be recorded via a spherical microphone array. If the center of the spherical coordinate system coincides with the center of the microphone array, the distances from the center of the microphone array to each microphone are all constant. Therefore, the position of each microphone can be expressed only by the azimuth angle ⁇ and the altitude angle ⁇ .
  • the signal p a recorded through the microphone may be expressed in the following equation in the spherical harmonic function domain.
  • p a represents the signal recorded through the microphone.
  • ( ⁇ q, ⁇ q) represent azimuth and elevation angles of the q-th microphone.
  • Y represents a spherical harmonic function having azimuth and elevation angles as factors.
  • m each represents the order of the spherical harmonic function, and
  • n represents the degree.
  • B represents an ambisonic coefficient corresponding to the spherical harmonic function.
  • Ambisonic coefficients may be referred to herein as an ambisonic signal.
  • the ambisonic signal may represent any one of a FoA signal and a HoA signal.
  • the audio signal processing apparatus may obtain an ambisonic signal using a pseudo inverse matrix of a spherical harmonic function.
  • the audio signal processing apparatus may obtain an ambisonic signal by using the following equation.
  • p a denotes a signal recorded through a microphone as described above, and B denotes an ambisonic coefficient corresponding to a spherical harmonic function.
  • pinv (Y) represents the pseudo inverse matrix of Y.
  • the aforementioned object signal represents an audio signal corresponding to one sound object.
  • the object signal may be a signal obtained from a sound collecting device proximate to a specific sound object.
  • the object signal is used to express that the sound output by any one sound object is transmitted to a specific point, unlike an ambisonic signal that represents all sounds that can be collected at a specific point in space.
  • the audio signal processing apparatus may represent the object signal in the format of an ambisonic signal using the position of the sound object corresponding to the object signal.
  • the audio signal processing apparatus may measure the position of the sound object using an external sensor installed in a microphone that collects sound corresponding to the sound object and an external sensor installed at a reference point of position measurement.
  • the audio signal processing apparatus may estimate the location of a sound object by analyzing the audio signal collected by the microphone.
  • the audio signal processing apparatus may represent the object signal as an ambisonic signal using the following equation.
  • Each of ⁇ s and ⁇ s represents an azimuth and an elevation angle representing the position of a sound object corresponding to the object.
  • Y represents a spherical harmonic function having azimuth and elevation angles as factors.
  • B S nm represents an ambisonic signal converted from an object signal.
  • the audio signal processing apparatus may use at least one of the following methods.
  • the audio signal processing apparatus may separately output an object signal and an ambisonic signal.
  • the audio signal processing apparatus may convert the object signal into an ambisonic signal format and output the object signal and the ambisonic signal converted into the ambisonic signal format.
  • the object signal and the ambisonic signal converted into the ambisonic signal format may be HoA signals.
  • the object signal and the ambisonic signal converted into the ambisonic signal format may be FoA signals.
  • the audio signal processing apparatus may output only an ambisonic signal without an object signal.
  • the ambisonic signal may be a FoA signal. Since the ambisonic signal is assumed to include all sounds collected at one point in space, the ambisonic signal may be assumed to include a signal component corresponding to the object signal. Accordingly, the audio signal processing apparatus may reproduce the sound object corresponding to the object signal even if the audio signal processing apparatus processes only the ambisonic signal without separately processing the object signal.
  • the audio signal processing apparatus may process the ambisonic signal and the object signal as in the embodiment of FIG. 2.
  • the ambisonic converter 31 converts the ambient sound into an ambisonic signal.
  • the format converter 33 changes the format of the object signal and the ambisonic signal.
  • the format converter 33 may convert the object signal into a format of an ambisonic signal.
  • the format converter 33 may convert the object signal into a HoA signal.
  • the format converter 33 may convert the object signal into a FoA signal.
  • the format converter 33 may convert the HoA signal into a FoA signal.
  • the post processor 35 post-processes the converted audio signal.
  • the renderer 37 renders the post processed audio signal.
  • the renderer 37 may be a binaural renderer.
  • the renderer 37 may binaurally render the post processed audio signal.
  • the audio signal processing apparatus may render an audio signal to simulate a sound source located in a virtual space.
  • the audio signal processing apparatus needs information for rendering the audio signal.
  • Information for rendering the audio signal may be delivered in the form of metadata, and the audio signal processing apparatus may render the audio signal based on the metadata.
  • the metadata may include information about a rendering method intended by a content producer and information about a rendering environment. Accordingly, the audio signal processing apparatus may render the audio signal by reflecting the intention of the content producer.
  • the metadata type and format will be described with reference to FIGS. 3 to 16.
  • FIG. 3 illustrates syntax of metadata representing a degree of application of binaural rendering according to an exemplary embodiment of the present invention.
  • the metadata may include head movement application information indicating whether to render the audio signal by reflecting the listener's head movement when rendering the audio signal.
  • the audio signal processing apparatus for rendering the audio signal may obtain the head motion application information from the metadata.
  • the audio signal processing apparatus may determine whether to render the object signal by reflecting the head movement of the listener based on the head motion application information. Head movement may also indicate head rotation.
  • the audio signal processing apparatus may render the object signal without reflecting the listener's head movement according to the head movement application information.
  • the audio signal processing apparatus may render the object signal by reflecting the head movement of the listener according to the head motion application information.
  • Like a bee on the listener's head there may be objects that move together as the listener's head moves.
  • the audio signal processing apparatus may render the audio signal simulating the corresponding object without reflecting the movement of the listener's head. Through this embodiment, the amount of calculation of the audio signal processing apparatus can be reduced.
  • the metadata may include binaural effect intensity information indicating the binaural rendering application intensity.
  • the audio signal processing apparatus that renders the audio signal may obtain the binaural effect strength from the metadata.
  • the audio signal processing apparatus may determine a level at which binaural rendering is applied to the object signal based on the binaural effect intensity information.
  • the audio signal processing apparatus may determine whether to apply binaural rendering to the audio signal based on the binaural effect intensity information. As described above, when the audio signal processing apparatus binaurally renders the audio signal, the audio signal processing apparatus may simulate the sound image represented by the audio signal in a three-dimensional space.
  • the tone of the audio signal may be transformed by the binaural rendering.
  • the tone may be more important than the sense of space depending on the type of sound image represented by the audio signal.
  • the producer of the content included in the audio signal may set the binaural effect intensity information to determine the degree of application of the binaural rendering of the audio signal.
  • the binaural effect intensity information may represent that binaural rendering is not applied.
  • the audio signal processing apparatus may render the audio signal according to the binaural effect intensity information without using binaural rendering.
  • the binaural effect intensity information may indicate an application strength of HRTF or BRIR for binaural rendering when binaural rendering is applied.
  • the binaural effect intensity information may be divided into quantized levels.
  • the binaural effect intensity information may be divided into three stages such as Mild, Normal, and Strong.
  • the binaural effect intensity information may be divided into five steps as in the embodiment of FIG.
  • the binaural effect strength information may be expressed as a value of any one of consecutive real numbers between 0 and 1.
  • the audio signal processing apparatus for rendering the audio signal may apply the binaural effect intensity information for each audio track included in the audio signal.
  • the audio signal processing apparatus may apply the binaural effect strength information for each audio source included in the audio signal.
  • the audio signal processing apparatus for rendering the audio signal may apply the binaural effect strength information for each signal characteristic.
  • the audio signal processing apparatus may apply the binaural effect strength information for each object included in the audio signal.
  • the audio signal processing apparatus for rendering the audio signal may apply the binaural effect strength information for each time interval of each audio track. In this case, the time interval may be a frame of the audio signal.
  • the metadata may classify binaural effect intensity information for each track and frame.
  • the metadata may include binaural effect intensity forced information indicating whether application of the binaural effect intensity information is enforced.
  • the audio signal processing apparatus that renders the audio signal may obtain binaural effect intensity forced information from metadata, and selectively apply binaural effect intensity information according to the binaural effect intensity forced information. Also, the audio signal processing apparatus may forcibly apply the binaural effect strength information according to the binaural effect intensity forced information.
  • the audio signal processing apparatus that renders the audio signal may apply the binaural effect intensity forced information for each audio track included in the audio signal.
  • the audio signal processing apparatus that renders the audio signal may apply the binaural effect intensity forced information for each audio source included in the audio signal.
  • the audio signal processing apparatus may apply the binaural effect strength forced information for each signal characteristic.
  • the audio signal processing apparatus that renders the audio signal may apply the binaural effect intensity forced information for each object included in the audio signal.
  • the audio signal processing apparatus that renders the audio signal may apply the binaural effect intensity forced information for each time interval of each audio track.
  • the specific format of the binaural effect intensity forced information may be as shown in FIG. 3 (c).
  • the audio signal processing apparatus for rendering the audio signal may determine whether to apply the binaural rendering as well as other stereoscopic sound using the binaural effect intensity information.
  • the audio signal processing apparatus may render the audio signal indicated by the binaural effect intensity information without reflecting the position of the sound image simulated by the corresponding audio signal according to the binaural effect intensity information.
  • the computational efficiency of the audio signal processing apparatus that renders the audio signal may be increased.
  • the intended content experience of the content included in the audio signal may be precisely delivered to the listener.
  • the same audio signal can be rendered through various devices.
  • the rendering environment of the audio signal is also diversified.
  • the same audio signal may be rendered as a head mounted display (HMD) in the form of a VR device, or may be rendered by a mobile phone or a TV. Therefore, even the same audio signal needs to be rendered differently depending on the device in which the audio signal is rendered. This will be described with reference to FIG. 4.
  • HMD head mounted display
  • FIG. 4 illustrates syntax of metadata for adjusting rendering conditions according to characteristics of an apparatus in which an audio signal is rendered according to an exemplary embodiment of the present invention.
  • the metadata may include a reference device characteristic parameter indicating a characteristic of the audio signal processing apparatus that is a reference when the corresponding metadata is generated.
  • the reference device characteristic parameter may indicate a characteristic of the audio signal processing apparatus that the producer of the content included in the audio signal intends to render the audio signal.
  • the audio signal reference device characteristic parameter may include a characteristic of the image display apparatus in which the audio signal is rendered.
  • the reference device characteristic parameter may include a screen characteristic of the image display device.
  • the screen characteristic may include at least one of a screen type, a screen resolution, a screen size, and an aspect ratio of the screen.
  • the screen type may include at least one of a TV, a PC monitor, a mobile phone, and an HMD.
  • the screen type can be classified in combination with the resolution of the screen.
  • the device characteristic parameter may distinguish and represent an HMD supporting HD and an HMD supporting UHD.
  • the aspect ratio of the screen may include at least one of 1: 1, 4: 3, 15: 9, and 16: 9.
  • the reference device characteristic parameter may include a specific model name.
  • the reference device characteristic parameter may include a positional relationship between the listener and the image display device.
  • the positional relationship between the listener and the image display device may include a distance between the listener and the screen of the image display device.
  • the positional relationship between the listener and the image display apparatus may include a viewing angle at which the listener views the image display apparatus.
  • the distance between the listener and the screen of the video display device may vary depending on the production environment when the audio content is produced.
  • the device characteristic parameter may distinguish the viewing angle as 90 degrees or less, 90 degrees to 110 degrees, 110 degrees to 130 degrees, or 130 degrees or more.
  • the reference device characteristic parameter may include an audio signal output characteristic.
  • the audio signal output characteristic may include at least one of a loudness level, a type of output device, and an EQ used for output.
  • the reference device characteristic parameter may represent a loudness level as a sound pressure level (SPL) value.
  • the reference device characteristic parameter may indicate a range of loudness levels intended by the metadata.
  • the reference device characteristic parameter may indicate a loudness level value intended by the metadata.
  • the output device type may include at least one of a headphone and a speaker.
  • the output device type may be subdivided according to the output characteristics of the headphones and speakers.
  • the EQ used for the output may be the EQ used when producing the creator content.
  • the reference device characteristic parameter may have a syntax as illustrated in FIG. 4.
  • the audio signal processing apparatus may render the audio signal based on the reference device characteristic parameter and the characteristic difference of the audio signal processing apparatus.
  • the audio signal processing apparatus may determine the size of an audio signal based on a difference between the distance between the listener and the screen of the image output apparatus represented by the reference device characteristic parameter and the distance between the listener and the screen of the image output device represented by the actual device characteristic parameter. I can adjust it.
  • the audio signal processing apparatus may render the audio signal by correcting the position of the sound image represented by the metadata based on the viewing angle difference indicated by the reference device characteristic parameter and the viewing angle difference indicated by the actual device characteristic parameter. have.
  • the audio signal processing apparatus may adjust the output level of the audio signal processing apparatus based on the loudness level indicated by the reference device characteristic parameter.
  • the audio signal processing apparatus may adjust the output level of the audio signal processing apparatus to the loudness level indicated by the reference device characteristic parameter.
  • the audio signal processing apparatus may display the loudness level indicated by the reference device characteristic parameter to the user.
  • the audio signal processing apparatus may adjust the output level of the audio signal processing apparatus based on the loudness level indicated by the reference device characteristic parameter and the equal loudness curve.
  • the audio signal processing apparatus may select any one of a plurality of reference device characteristic parameter sets and render an audio signal using metadata corresponding to the selected reference device characteristic parameter set.
  • the audio signal processing apparatus may select any one of a plurality of reference apparatus characteristic parameter sets based on the characteristics of the audio signal processing apparatus.
  • the reference device characteristic parameter set may include at least one of the device characteristic parameters described above.
  • the audio signal processing apparatus may receive a metadata set including metadata corresponding to each of a plurality of reference device characteristic parameter sets and a plurality of reference device characteristic parameter sets.
  • the metadata set may include the number of screen optimized information (numScreenOptimizedInfo) indicating the number of reference device characteristic parameter sets. The number of screen optimal information may be displayed by 5 bits, and may represent up to 32.
  • the audio signal processing apparatus may binaurally render the audio signal using a personalization parameter.
  • the personalization parameter may represent a parameter that may be set according to the listener.
  • the personalization parameter may include at least one of an HRTF, body information, and a 3D model.
  • Personalization parameters affect the rendering of the audio signal. Therefore, when the personalization parameter set by the listener is applied, the producer of the content included in the audio signal may not be reflected in the rendered audio. As a result, the content experience that the audio signal intends to deliver through the content may not be delivered. Therefore, the metadata may include personalization application information indicating whether the personalization parameter is applied.
  • the audio signal processing apparatus may determine whether to binaurally render the audio signal by applying a personalization parameter based on the personalization application information. When the personalization application information indicates that the personalization parameter is not allowed to be applied, the audio signal processing apparatus may binaurally render the audio signal without applying the personalization parameter.
  • the creator of the content included in the audio signal may use metadata to induce optimization of the amount of calculation of the audio signal processing apparatus.
  • the metadata may include sound level information indicating a sound level of an audio signal.
  • the audio signal processing apparatus may render the audio signal based on the sound level information without reflecting the position of the sound image simulated by the corresponding audio signal. Rendering without reflecting the location of the sound image that the audio signal simulates may include rendering the audio signal without applying binaural rendering.
  • the metadata may include mute information indicating that the sound level is zero.
  • the audio signal processing apparatus may render the audio signal based on the mute information without reflecting the position of the sound image simulated by the corresponding audio signal.
  • the audio signal processing apparatus may render the audio signal indicating that the mute information indicates that the sound level is 0 without reflecting the position of the sound image simulated by the corresponding audio signal.
  • the audio signal processing apparatus may render an audio signal having a sound level equal to or less than a predetermined size without reflecting the position of a sound image simulated by the corresponding audio signal.
  • an audio signal processing apparatus includes an audio signal corresponding to a second time interval based on a sound level of an audio signal corresponding to a first time interval and a sound level of an audio signal corresponding to a second time interval.
  • the audio signal corresponding to the second time interval may be rendered without reflecting the position of the simulated sound image.
  • the first time interval is a time interval located before the second time interval.
  • the first time interval and the second time interval may be continuous time intervals.
  • the audio signal processing apparatus compares a difference between a sound level of an audio signal corresponding to a first time interval and a sound level of an audio signal corresponding to a second time interval, and simulates an audio signal corresponding to a second time interval.
  • the audio signal corresponding to the second time interval may be rendered without reflecting the position of the sound image. For example, when the difference between the sound level of the audio signal corresponding to the first time interval and the sound level of the audio signal corresponding to the second time interval is equal to or greater than a specified value, the audio signal processing apparatus may determine that the audio signal corresponding to the second time interval is equal to or greater than that specified.
  • the audio signal corresponding to the second time interval may be rendered without reflecting the position of the simulated sound image. If the listener hears a relatively small sound after the loud sound, the listener may not perceive the relatively small sound well depending on the temporal masking effect.
  • the listener When the listener hears a relatively small sound after the loud sound, the listener may not be able to recognize the location of the sound source that produces the relatively small sound according to the spatial masking effect. Therefore, even if the rendering for stereoscopic reproduction is applied to the small sound coming after the relatively loud sound, the effect on the listener may be insignificant. Therefore, the audio signal processing apparatus may not apply rendering for stereoscopic sound reproduction to the small sound coming after the loud sound to increase the computational efficiency.
  • the metadata may be divided into at least one of an audio track, an audio source, an object, and a time interval.
  • the above-described time period may be a frame of the audio signal.
  • the audio signal processing apparatus may render the audio signal by applying fade in / fade out depending on whether the audio signal is rendered or not by reflecting the position of the sound image simulated. According to this embodiment, the audio signal processing apparatus may prevent the rendered sound from being unnaturally heard by selectively applying stereoscopic rendering.
  • the metadata may include motion application information indicating whether the audio signal renders the audio signal by reflecting the movement of the listener with respect to the position of the simulated sound image.
  • the audio signal processing apparatus may obtain motion application information from metadata.
  • the audio signal processing apparatus may determine whether to render the object signal by reflecting the movement of the listener based on the motion application information.
  • the metadata may include information on whether head tracking is applied, which indicates whether to render an audio signal by reflecting a listener's head movement.
  • the audio signal processing apparatus may obtain information on whether head tracking is applied from the metadata.
  • the audio signal processing apparatus may determine whether to render the object signal by reflecting the head movement of the listener based on the head tracking application information.
  • the audio signal processing apparatus may render the object signal without reflecting the head movement of the listener based on the head tracking application information.
  • the audio signal processing apparatus may render the audio signal simulating the object without reflecting the movement of the listener's head with respect to the audio signal representing the object.
  • the audio signal processing apparatus may optimize computational efficiency by using metadata according to the above-described embodiments.
  • FIG. 5 is a view illustrating a classification of additional information according to an embodiment of the present invention.
  • the additional information may include metadata.
  • the additional information may be classified according to the relative length of the time interval of the audio signal signaled by the additional information.
  • the additional information may be classified into a header parameter and a metadata parameter according to a relative length of a time interval of an audio signal signaled by the additional information.
  • the header parameter may include a parameter that is less likely to change frequently when rendering the audio signal.
  • the parameter included in the header parameter may be information that remains the same until the content included in the audio signal is terminated or the rendering configuration is changed.
  • the header parameter may include the order of the ambisonic signal.
  • Metadata parameters may include parameters that are likely to change frequently when rendering the audio signal.
  • the metadata parameter may include information about the position of the object that the audio signal simulates. In more detail, the information regarding the position of the object may be at least one of azimuth, elevation, and distance.
  • the type of the additional information may be divided into an element parameter including information for rendering an audio signal and a general parameter including information other than information about the audio signal itself.
  • the general parameter may include information about the audio signal itself.
  • FIG. 6 shows a structure of a header parameter according to an embodiment of the present invention.
  • the header parameter may include information for each type of component included in the audio signal.
  • the header parameter may include information for the entire audio signal, the ambisonic signal, the object signal, and the channel signal.
  • the header parameter indicating the entire audio signal may be referred to as GAO_HDR.
  • GAO_HDR may include information about a sampling rate of an audio signal.
  • the audio signal processing apparatus may calculate a filter coefficient based on a head related transfer function (HRTF) or a binaural room impulse response (BRIR) based on the information about the sampling rate.
  • HRTF head related transfer function
  • BRIR binaural room impulse response
  • the audio signal processing apparatus may resample the audio signal to calculate the filter coefficient.
  • the audio signal includes information about the sampling rate, such as a WAV file or an AAC file
  • the GAO_HDR may not include the information about the sampling rate.
  • the GAO_HDR may include information indicating the length of each frame indicated by the element metadata.
  • the length of each frame may be set based on various constraints such as sound quality, binaural rendering algorithm, memory, and computation amount.
  • the frame-by-frame length may be set when post-production or encoding. The frame-by-frame length allows the producer to adjust the time resolution density when the audio signal is binaurally rendered.
  • the GAO_HDR may include the number of components according to the type of components included in the audio signal.
  • GAO_HDR may include the number of ambisonic signals, the number of channel signals, and the number of object audio signals included in the audio signal.
  • the GAO_HDR may include at least one of the information included in the following table.
  • GEN represents a general parameter
  • ELE represents an element parameter.
  • header parameters corresponding to each component may be delivered to the audio signal processing apparatus together with the GAO_HDR.
  • GAO_HDR may include a header parameter corresponding to each component.
  • GAO_HDR may include link information connecting header parameters corresponding to each component.
  • FIG. 7 shows a specific format of GAO_HDR according to an embodiment of the present invention.
  • the header parameter indicating the ambisonic signal may be referred to as GAO_HOA_HDR.
  • GAO_HOA_HDR may include information about a speaker layout to be used when rendering an ambisonic signal.
  • the audio signal processing apparatus may convert the ambisonic signal into a channel signal, and binaurally render the converted ambisonic signal.
  • the audio signal processing apparatus may convert the ambisonic signal into a channel signal based on the information on the speaker layout.
  • the information about the speaker layout may be a code independent coding point (CICP) index.
  • CICP code independent coding point
  • the GAO_HOA_HDR may include information about a binaural rendering mode to be used when the audio signal processing apparatus binaurally renders the corresponding ambisonic signal.
  • the audio signal processing apparatus may binaurally render the corresponding ambisonic signal based on the binaural rendering mode.
  • the binaural rendering mode may represent any one of a rendering mode in which the user's head movement is applied after the channel rendering and a mode in which channel rendering is applied after the user's head movement is applied.
  • the head movement may indicate head rotation.
  • the audio signal processing apparatus may apply the rotation matrix corresponding to the head movement to the first ambisonic signal to generate the second ambisonic signal, and channel-render the second ambisonic signal.
  • the audio signal processing apparatus may maintain the timbre of the ambisonic signal through this rendering mode. Also, the audio signal processing apparatus may convert the first ambisonic signal into a channel signal, change the speaker layout of the first channel signal according to head movement, and then binaurally render the channel signal. The audio signal processing apparatus may precisely represent the position of the sound image simulated by the ambisonic signal through this rendering mode.
  • GAO_HOA_HDR includes information about the binaural rendering mode
  • the producer may select the binaural rendering mode according to the content characteristic. For example, a manufacturer may apply head movements to a channel rendered ambisonic signal after channel rendering the ambisonic signal to a sound such as broadband noise such as a car sound.
  • the producer may apply a head movement to the ambisonic signal and then channel render the ambisonic signal to which the head movement is applied.
  • GAO_HOA_HDR may include information indicating whether the position of the sound image simulated by the ambisonic signal is rotated with time. Information indicating whether the position of the sound image simulated by the audio signal is rotated with time may be displayed in the form of a flag. If the position of the sound image simulated by the audio signal does not rotate over time, the audio signal processing apparatus may continue to use information about the position rotation of the sound image simulated by the first acquired Ambisonic signal.
  • the GAO_HOA_HDR may include information indicating the language of content included in the ambisonic signal.
  • the audio signal processing apparatus may selectively render the ambisonic signal based on the information representing the language of the content included in the audio signal.
  • GAO_HOA_HDR may include at least one of information included in the following table.
  • the header parameterer indicating the channel signal may be referred to as GAO_CHN_HDR.
  • the GAO_CHN_HDR may include information indicating information on the speaker layout of the channel signal.
  • GAO_CHN_HDR may include at least one of the information included in GAO_HOA_HDR.
  • GAO_CHN_HDR may include at least one of information included in the following table.
  • the header parameterer indicating the channel signal may be referred to as GAO_OBJ_HDR.
  • the GAO_OBJ_HDR may include at least one of the information included in the GAO_HOA_HDR.
  • GAO_OBJ_HDR may include at least one of information included in the following table.
  • FIG. 8 shows a structure of metadata parameters according to an embodiment of the present invention.
  • the metadata parameter may include information for each type of component included in the audio signal.
  • the metadata parameter may include information for the entire audio signal, the ambisonic signal, the object signal, and the channel signal.
  • the metadata parameter representing the entire audio signal may be referred to as GAO_META.
  • Metadata parameters corresponding to each component may be transmitted to the audio signal processing apparatus together with the GAO_META.
  • GAO_META may include metadata parameters corresponding to each component.
  • the GAO_META may include link information connecting metadata parameters corresponding to each component.
  • the metadata parameter representing the object signal may be referred to as GAO_META_OBJ.
  • GAO_META_OBJ may include the above-described information on whether head tracking is applied.
  • the audio signal processing apparatus may obtain information indicating whether to render head tracking application information from GAO_META_OBJ.
  • the audio signal processing apparatus may determine whether to render the object signal by reflecting the head movement of the listener based on the head tracking application information.
  • GAO_META_OBJ may include the binaural effect strength information described above.
  • the audio signal processing apparatus may obtain information indicating binaural effect strength information from GAO_META_OBJ.
  • the audio signal processing apparatus may determine the binaural rendering application strength to be applied to the object signal based on the binaural effect intensity information.
  • the audio signal processing apparatus may determine whether to binaurally render the object signal based on the binaural effect intensity information.
  • GAO_META_OBJ may include the sound level information described above.
  • the audio signal processing apparatus may obtain sound level information from GAO_META_OBJ.
  • the audio signal processing apparatus may determine whether to render by reflecting the position of the sound image simulated by the object signal based on the sound level information.
  • the audio signal processing apparatus may determine whether to binaurally render the object signal based on the sound level information.
  • GAO_META_OBJ may include at least one of the information shown in the following table.
  • GAO_META_CHN and GAO_META_HOA may include the binaural effect strength information described above.
  • the audio signal processing apparatus may obtain information indicating binaural effect strength information from GAO_META_CHN or GAO_META_HOA.
  • the audio signal processing apparatus may determine the binaural rendering application strength to be applied to the channel signal based on the binaural effect intensity information. In more detail, the audio signal processing apparatus may determine whether to binaurally render a channel signal based on the binaural effect intensity information.
  • the audio signal processing apparatus may determine the binaural rendering application strength to be applied to the ambisonic signal based on the binaural effect intensity information. In more detail, the audio signal processing apparatus may determine whether to binaurally render an ambisonic signal based on the binaural effect intensity information.
  • GAO_META_CHN and GAO_META_HOA may include the sound level information described above.
  • the audio signal processing apparatus may obtain sound level information from GAO_META_CHN or GAO_META_HOA.
  • the audio signal processing apparatus may determine whether to render by reflecting the position of the sound image simulated by the channel signal based on the sound level information.
  • the audio signal processing apparatus may determine whether to binaurally render the channel signal based on the sound level information.
  • the audio signal processing apparatus may determine whether to render by reflecting the position of the sound image simulated by the ambisonic signal based on the sound level information.
  • the audio signal processing apparatus may determine whether to binaurally render the ambisonic signal based on the sound level information.
  • GAO_META_CHN and GAO_META_OBJ may include the same kind of parameters.
  • GAO_META_CHN and GAO_META_OBJ may include different types of parameters.
  • GAO_META_CHN and GAO_META_OBJ may include at least one of the information shown in the following table.
  • the audio signal may be transmitted to the audio signal processing apparatus in the form of a file.
  • the audio signal may be delivered to the audio signal processing apparatus through streaming.
  • the audio signal may be transmitted to the audio signal processing apparatus through a broadcast signal.
  • the transmission method of the metadata may also vary according to the transmission type of the audio signal. This will be described with reference to FIGS. 9 to 12.
  • FIG. 9 illustrates an operation of acquiring metadata separately from an audio signal by an audio signal processing apparatus according to an embodiment of the present invention.
  • An audio signal processing apparatus that processes an audio signal to deliver an audio signal may transmit metadata to the audio signal processing apparatus separately from the audio bitstream encoding the audio signal. Therefore, the audio signal processing apparatus that renders the audio signal may acquire metadata separately from the audio signal.
  • an audio signal processing apparatus that renders an audio signal may obtain metadata from a transport file or another transport stream different from the audio signal.
  • an audio signal processing apparatus that renders an audio signal may receive a transport stream or a transport file through a first link and receive metadata through a second link.
  • the transport file or transport stream may include an audio bitstream encoding the audio signal or both an audio bitstream encoding the audio signal and a video bitstream encoding the video signal.
  • FIG. 9 illustrates an image signal processing apparatus including an audio signal processing apparatus.
  • the video signal processing apparatus receives a transport stream including an audio signal and a video signal through a first link URL1.
  • the image signal processing apparatus receives metadata from the second link ULR2.
  • the video signal processing apparatus demuxes a transport stream and extracts an audio bitstream A and a video bitstream V.
  • FIG. A decoder of the audio signal processing apparatus decodes the audio bitstream A to obtain an audio signal.
  • An audio renderer of the audio signal processing apparatus receives an audio signal and metadata. In this case, the renderer of the audio signal processing apparatus may receive metadata by using a metadata interface. Also, an audio renderer of the audio signal processing apparatus renders an audio signal based on metadata.
  • the audio renderer may include a module (G-format) for processing metadata and a module (G-core) for processing an audio signal. Also, the audio renderer may render an audio signal based on the head movement of the user of the image signal processing apparatus.
  • the image signal processing apparatus outputs the rendered audio and the rendered video together.
  • the video renderer also renders a video signal. In this case, the video renderer may render a video signal based on the head movement of the user of the image signal processing apparatus.
  • the image signal processing apparatus may receive a user input using a controller.
  • the controller may control operations of the demux and the metadata interface.
  • 9 shows a module included in the audio signal processing apparatus according to the embodiment of FIG. 9. In addition, the portion indicated by the dotted line may be omitted or replaced by a module included in the image signal processing apparatus.
  • FIG. 10 illustrates an operation of acquiring metadata together with an audio signal by an audio signal processing apparatus that renders an audio signal according to an embodiment of the present invention.
  • An audio signal processing apparatus that processes an audio signal to deliver an audio signal may transmit metadata along with an audio bitstream encoding the audio signal.
  • An audio signal processing apparatus that renders an audio signal may acquire metadata along with the audio signal.
  • an audio signal processing apparatus that renders an audio signal may acquire metadata and an audio signal together from the same transport file or transport stream.
  • the transport file or transport stream may include an audio bitstream and metadata encoded with an audio signal, or may include both an audio bitstream encoded with an audio signal, a video bitstream encoded with a video signal, and metadata.
  • the user data field of the transfer file may include metadata.
  • UTDA which is a user data field of mp4 may include metadata.
  • an individual box or element of mp4 may include metadata.
  • the video signal processing apparatus receives a transport stream including an audio signal, a video signal, and metadata through the first link URL1.
  • the video signal processing apparatus parses the transport stream and extracts metadata.
  • the image signal processing apparatus may parse the transport stream using a parser.
  • the video signal processing apparatus demuxes a transport stream and extracts an audio signal and a video signal.
  • a decoder (Audio Decoder) of the audio signal processing apparatus decodes the demuxed audio signal (A).
  • An audio renderer of the audio signal processing apparatus receives a decoded audio signal and metadata.
  • the renderer of the audio signal processing apparatus may receive metadata by using a metadata interface.
  • an audio renderer of the audio signal processing apparatus renders a decoded audio singnal based on metadata.
  • Other operations of the audio signal processing apparatus and the image signal processing apparatus may be the same as those described with reference to FIG. 9.
  • FIG. 11 is a view illustrating an operation of simultaneously acquiring link information for linking an audio signal and metadata by an audio signal processing apparatus that renders an audio signal according to an exemplary embodiment.
  • An audio signal processing apparatus that processes an audio signal to transmit an audio signal may transmit link information for linking metadata through a transport stream or a transport file. Therefore, the audio signal processing apparatus that renders the audio signal may acquire link information for linking metadata from the transport stream or the transport file, and obtain the metadata using the link information.
  • the transport file or transport stream may include a bitstream encoding the audio signal, or may include both the bitstream encoding the audio signal and the bitstream encoding the video signal.
  • the user data field of the transfer file may include link information that links the metadata.
  • UTDA which is a user data field of mp4
  • an individual box or element of mp4 may include link information for linking metadata.
  • An audio signal processing apparatus that renders an audio signal may receive metadata obtained using the link information.
  • the video signal processing apparatus receives a transport stream including link information for linking an audio signal, a video signal, and metadata through a first link URL1.
  • the video signal processing apparatus demuxes a transport stream and extracts link information for linking the audio bitstream A, the video bitstream V, and metadata.
  • a decoder of the audio signal processing apparatus decodes the audio bitstream A to obtain an audio signal.
  • An audio renderer of an audio signal processing apparatus receives metadata from a second link ULR2 indicated by link information using a metadata interface.
  • An audio renderer of the audio signal processing apparatus receives an audio signal and metadata.
  • an audio renderer of the audio signal processing apparatus renders an audio signal based on metadata.
  • Other operations of the audio signal processing apparatus and the image signal processing apparatus may be the same as those described with reference to FIG. 9.
  • 12 to 13 illustrate an operation of acquiring metadata based on an audio bitstream by an audio signal processing apparatus that renders an audio signal according to an embodiment of the present invention.
  • An audio signal processing apparatus that processes an audio signal to deliver an audio signal may insert metadata into an audio bitstream. Therefore, the audio signal processing apparatus that renders the audio signal may obtain metadata from the audio bitstream.
  • the user data field of the audio bitstream may include metadata.
  • the audio signal processing apparatus for rendering the audio signal may include a parser for parsing metadata from the audio bitstream.
  • the decoder of the audio signal processing apparatus may obtain metadata from the audio bitstream.
  • a parser of an audio signal processing apparatus obtains metadata from an audio bitstream.
  • An audio renderer of the audio signal processing apparatus receives metadata from a parser.
  • an audio decoder of the audio signal processing apparatus obtains metadata from an audio bitstream.
  • An audio renderer of an audio signal processing apparatus receives metadata from a decoder of an audio signal processing apparatus. 12 to 13, other operations of the audio signal processing apparatus and the image signal processing apparatus may be the same as those described with reference to FIG. 9.
  • the audio signal processing apparatus When the audio signal processing apparatus receives the audio signal through streaming, the audio signal processing apparatus may receive the audio signal from the middle of the streaming. Therefore, information necessary to render the audio signal should be transmitted periodically. This will be described with reference to FIGS. 14 to 16.
  • FIG. 14 illustrates a method in which an audio signal processing apparatus acquires metadata when an audio signal processing apparatus receives an audio signal through transport streaming according to an embodiment of the present invention.
  • An audio signal processing apparatus that processes an audio signal to deliver an audio signal may periodically insert metadata into a multimedia stream.
  • the audio signal processing apparatus which processes the audio signal to deliver the audio signal may insert metadata in the frame unit in the multimedia stream.
  • an audio signal processing apparatus that processes an audio signal to deliver an audio signal may periodically insert the header parameter and the metadata parameter described above in the multimedia stream.
  • the audio signal processing apparatus which processes the audio signal to transmit the audio signal may insert the header parameter into the multimedia stream at a larger period than the metadata parameter.
  • the audio signal processing apparatus that processes the audio signal to deliver the audio signal may insert a header parameter into the corresponding frame. Can be.
  • the audio signal processing apparatus that renders the audio signal may periodically acquire metadata from the multimedia stream.
  • an audio signal processing apparatus that renders an audio signal may obtain metadata on a frame basis from a multimedia stream.
  • the audio signal processing apparatus that renders the audio signal acquires the metadata on a frame basis
  • the audio signal processing apparatus that renders the audio signal repacks the audio signal and the metadata to synchronize the metadata with the audio signal. )You do not have to do.
  • an audio signal processing apparatus that renders an audio signal may efficiently manage metadata and an audio signal. Specific syntax of the metadata will be described with reference to FIGS. 15 to 16.
  • FIG. 15A illustrates a syntax for determining an ID of an element included in an AAC file by an audio signal processing apparatus according to an exemplary embodiment of the present invention.
  • 15 (b) and 15 (c) show the syntax of a data stream element parsing operation of an audio signal processing apparatus according to an embodiment of the present invention.
  • the multimedia stream may include metadata in units of frames.
  • the AAC file when transmitted through streaming, it may have syntax as shown in FIGS. 15 to 16.
  • the audio signal processing apparatus may determine whether an ID of an element included in the AAC file represents the data stream element ID_DSE. When the ID of an element included in the AAC file indicates a data stream element ID_DSE, the audio signal processing apparatus performs a data stream element parsing operation GaoReadDSE.
  • 16 (a) shows the syntax of the header parameter described above.
  • 16 (b) shows the syntax of the metadata parameter described above.
  • the audio signal processing apparatus parses the header parameter (GaoReadDSEHDR) and parses the metadata parameter (GaoReadDSEMeta).
  • the number of channels that can be decoded / rendered by a legacy audio signal processing apparatus that does not support an embodiment of the present invention may be smaller than the number of channels that can be decoded / rendered by the audio signal processing apparatus according to an embodiment of the present invention.
  • the legacy audio file format may also include only audio signals having a channel number smaller than the number of channels that the audio signal processing apparatus can decode / render. Therefore, it may be difficult to transmit an audio signal for an audio signal processing apparatus according to an embodiment of the present invention through a legacy audio file format.
  • compatibility with legacy audio signal processing apparatus may be a problem. Therefore, an audio signal processing method using a legacy audio file format will be described with reference to FIG. 17.
  • FIG. 17 is a view illustrating an audio signal processing method using an audio file format that supports a number of channels smaller than the sum of the number of channels included in an audio signal according to an embodiment of the present invention.
  • the audio file may include a plurality of tracks.
  • one audio file may include a plurality of tracks in which the dialogue of the same movie is recorded in different languages.
  • the audio file may include a plurality of tracks containing different music.
  • An audio signal processing apparatus that processes an audio signal to deliver an audio signal may encode an audio signal having more channels than the number of channels supported by the audio file using the track of the audio file into the audio file.
  • an audio signal processing apparatus that processes an audio signal to deliver an audio signal may divide and insert a plurality of audio signal components of the audio signal into a plurality of tracks included in the audio file.
  • the plurality of signal components may be at least one of an object signal, a channel signal, and an ambisonic signal.
  • each track of an audio file can support only a number of channels smaller than the sum of the number of channels of the plurality of signal components.
  • the number of channels of signal components included in each track of the audio file may be smaller than the number of channels supported by each track of the audio file.
  • the audio signal processing apparatus that processes the audio signal to deliver the audio signal supports the number of channels supported by the audio file on the first track of the format.
  • a first signal component can be inserted, and a second signal component can be inserted into a second track of the audio file.
  • the first track may be a predetermined track.
  • the first signal component may be an audio signal component that can be rendered without metadata for representing the position of the sound image simulated by the audio signal.
  • the first signal component may be an audio signal component that may be rendered without metadata for binaural rendering.
  • an audio signal processing apparatus that processes an audio signal to deliver an audio signal may insert signal components other than the first signal component according to a predetermined track order.
  • an audio signal processing apparatus that processes an audio signal to transmit an audio signal may insert metadata into a first track.
  • the metadata may indicate a track including signal components other than the first signal component. Metadata can also be used to render the audio signal.
  • the metadata may be metadata described with reference to FIGS. 3 to 8.
  • An audio signal processing apparatus for rendering an audio signal may simultaneously render audio signal components included in a plurality of tracks included in an audio file.
  • the plurality of audio signal components may be at least one of an object signal, a channel signal, and an ambisonic signal.
  • each track of the audio file may support a number of channels smaller than the sum of the number of channels of the plurality of audio signal components.
  • the audio signal processing apparatus that renders the audio signal may render the first audio signal component included in the first track of the audio file and the second audio component included in the second track together.
  • the first track may be a track at a predetermined position among the plurality of tracks as described above.
  • the first track may be the first track of the plurality of tracks of the audio file.
  • the audio signal processing apparatus that renders the audio signal may check whether the plurality of tracks of the audio file include audio signal components in a predetermined track order.
  • an audio signal processing apparatus that renders an audio signal may acquire metadata from a first track and obtain an audio component based on the obtained metadata.
  • the audio signal processing apparatus that renders the audio signal may determine a track including the audio signal component based on the obtained metadata.
  • the audio signal processing apparatus that renders the audio signal may acquire metadata from the first track and render the audio signal component based on the metadata.
  • the metadata may be metadata described with reference to FIGS. 3 to 8.
  • the audio signal processing apparatus for rendering the audio signal may select a plurality of tracks included in the audio file according to the capability of the audio signal processing apparatus and render the selected plurality of tracks.
  • the audio signal processing apparatus for rendering the audio signal may select the plurality of tracks according to the characteristics of the audio component included in each of the plurality of tracks and the capability of the audio signal processing apparatus.
  • the audio signal processing apparatus for rendering the audio signal may select the first audio signal component and the second audio signal component according to the capabilities of the audio signal processing apparatus.
  • an audio signal processing apparatus that processes an audio signal to deliver an audio signal encodes the FOA signal and metadata into one track as shown in FIG. 17 (a).
  • an audio signal processing apparatus that renders an audio signal may generate an AAC file included in the MP4 file of FIG. 17B.
  • the audio signal processing apparatus for processing the audio signal to transmit the audio signal inserts the first ambisonic signal (FOA) and metadata into the first track (TRK0) of the AAC file.
  • An audio signal processing apparatus which processes an audio signal to transmit an audio signal inserts a first object signal OBJ0 and a second object signal OBJ1 into a second track TRK1 of an AAC file.
  • the audio signal processing apparatus which processes the audio signal to transmit the audio signal inserts the third object signal OBJ2 and the fourth object signal OBJ3 into the third track TRK2 of the AAC file. In addition, the audio signal processing apparatus which processes the audio signal to transmit the audio signal inserts the fifth object signal OBJ4 and the sixth object signal OBJ5 into the fourth track TRK3 of the AAC file. Also, the audio signal processing apparatus which processes the audio signal to transmit the audio signal inserts the seventh object signal OBJ6 and the eighth object signal OBJ7 into the fifth track TRK4 of the AAC file. In addition, the audio signal processing apparatus which processes the audio signal to transmit the audio signal inserts the second ambisonic signal FAO1 into the sixth track TRK5 of the AAC file.
  • the second ambisonic signal FAO1 is a primary ambisonic signal including four channels.
  • the audio signal processing apparatus which processes the audio signal to transmit the audio signal inserts the third ambisonic signal HOA2 into the seventh track TRK6 of the AAC file.
  • Third Ambisonic Signal HOA2 The Ambisonic signal includes five channels, and the second Ambisonic signal HOA1 and the third Ambisonic signal HOA2 constitute a secondary Ambisonic signal.
  • the audio signal processing apparatus that processes the audio signal to transmit the audio signal inserts the fourth ambisonic signal HOA3 into the eighth track TRK7 of the AAC file.
  • the Ambisonic Signal includes seven channels, and the second Ambisonic Signal (FOA1), the Third Ambisonic Signal (HOA2) and the Fourth Ambisonic Signal (HOA3) are tertiary Ambisonic Signals.
  • a decoder of an audio signal processing apparatus that renders an audio signal decodes an audio signal included in a track of an AAC file.
  • the decoder of the audio signal processing apparatus that renders the audio signal does not decode the metadata Meta included in the first track TRK0 of the AAC file.
  • the audio signal processing apparatus that renders the audio signal may determine the track of the AAC file including the audio signal component based on metadata Meta, and decode the audio signal included in the track of the AAC file. .
  • FIG. 17C a decoder of an audio signal processing apparatus that renders an audio signal.
  • a renderer of an audio signal processing apparatus that renders an audio signal may convert the audio signal component (OBJ / HOA / CHN Audio) included in the track of the AAC file into metadata (OBJ / HOA / CHN Metadata).
  • the audio signal processing apparatus that renders the audio signal may selectively render a plurality of tracks according to the capability of the audio signal processing apparatus. For example, an audio signal processing apparatus capable of rendering a signal including four channels may render a second ambisonic signal FAO1. In this case, the audio signal processing apparatus capable of rendering a signal including nine channels may simultaneously render the second ambisonic signal FAO1 and the third ambisonic signal HOA2.
  • the audio signal processing apparatus capable of rendering a signal including 16 channels may simultaneously render the second ambisonic signal FAO1, the third ambisonic signal HOA2, and the fourth ambisonic signal HOA3. have.
  • the audio signal processing apparatus for rendering an audio signal may render an audio signal including an individual channel of the audio file format including a channel number larger than the number of channels supported by the track.
  • compatibility between audio signal processing apparatuses that support different number of channel decoding / rendering may be ensured.
  • FIG. 18 is a block diagram illustrating an audio signal processing apparatus that processes an audio signal to deliver an audio signal according to an embodiment of the present invention.
  • an audio signal processing apparatus 300 for processing an audio signal to deliver an audio signal includes a receiver 310, a processor 330, and an output unit 370.
  • the receiver 10 receives an input audio signal.
  • the audio signal may be a sound received by the sound collector.
  • the sound collection device may be a microphone.
  • the sound collecting device may be a microphone array including a plurality of microphones.
  • the processor 30 encodes the input audio signal received by the receiver 10 to generate a bitstream and generates metadata about the audio signal.
  • the processor 30 may include a format converter and a metadata generator.
  • the format converter converts the format of the input audio signal into another format.
  • the format converter may convert an object signal into an ambisonic signal.
  • the ambisonic signal may be a signal recorded through the microphone array.
  • the ambisonic signal may be a signal obtained by converting a signal recorded through a microphone array into a coefficient with respect to the basis of spherical harmonics.
  • the format converter may convert an ambisonic signal into an object signal.
  • the format converter may change the order of the ambisonic signal.
  • the format converter may convert a higher order ambisonics (hoa) signal into a first order ambisonics (foa) signal.
  • the format converter may acquire position information related to the input audio signal, and convert the format of the input audio signal based on the acquired position information.
  • the location information may be information about a microphone array in which a sound corresponding to an audio signal is collected.
  • the information on the microphone array may include at least one of array information, number information, location information, frequency characteristic information, and beam pattern information of microphones constituting the microphone array.
  • the position information related to the input audio signal may include information indicating the position of the sound source.
  • the metadata generator generates metadata corresponding to the input audio signal.
  • the metadata generator may generate metadata used to render the input audio signal.
  • the metadata may be metadata in the embodiments described with reference to FIGS. 3 to 17.
  • the metadata may be delivered to the audio signal processing apparatus according to the embodiments described with reference to FIGS. 9 to 17.
  • the processor 330 may insert a plurality of audio signal components of the audio signal into a plurality of tracks included in the audio file format.
  • the plurality of signal components may be at least one of an object signal, a channel signal, and an ambisonic signal.
  • the processor 330 may operate as in the embodiment described with reference to FIG. 17.
  • the output unit 370 outputs a bitstream and metadata.
  • 19 is a flowchart illustrating a method of operating an audio signal processing apparatus to transmit an audio signal according to an embodiment of the present invention.
  • the audio signal processing apparatus which processes the audio signal to transmit the audio signal receives the audio signal (S1901).
  • the audio signal processing apparatus encodes the received audio signal (S1903).
  • the audio signal processing apparatus may generate metadata about the audio signal.
  • the metadata can be used to render the audio signal.
  • the rendering may be binaural rendering.
  • the audio signal processing apparatus may generate metadata about the audio signal, including information for reflecting the position of the sound image simulated by the audio signal.
  • the audio signal processing apparatus may insert a sound level corresponding to the time interval indicated by the metadata into the metadata. In this case, the sound level may be used to determine whether to render the audio signal by reflecting the position of the sound image simulated by the audio signal.
  • the audio signal processing apparatus may insert binaural effect intensity information indicating the binaural rendering intensity applied to the audio signal, into the metadata.
  • the binaural effect intensity information may be used to change the relative size of the HRTF or the BRIR.
  • the binaural effect intensity information may indicate the binaural rendering intensity for each audio signal component of the audio signal.
  • the binaural effect intensity information may indicate the intensity of the binaural rendering applied on a frame basis.
  • the audio signal processing apparatus may insert the motion application information indicating whether to render the audio signal by reflecting the movement of the listener in the metadata.
  • the movement of the listener may include the movement of the head of the listener.
  • the audio signal processing apparatus may insert personalization parameter application information indicating whether to allow the application of the personalization parameter, which is a parameter that may be set according to the listener, in the metadata.
  • the personalization parameter application information may represent that personalization parameter application is not allowed.
  • the format of specific metadata may be the same as the embodiments described with reference to FIGS. 3 to 16.
  • the audio signal processing apparatus may generate an audio file including a plurality of audio signal components of the received audio signal in the plurality of tracks.
  • the audio signal processing apparatus may generate an audio file including the audio signal first audio signal component in the first track and the second audio signal component of the audio signal in the second track.
  • the number of channels of the audio signal supported by each of the first track and the second track may be smaller than the sum of the number of channels of the audio signal.
  • the first track may be a track at a predetermined position among the plurality of tracks of the audio file.
  • the first track may be the first track.
  • the audio signal encoding apparatus may insert metadata into the first track.
  • the metadata may indicate which track of the plurality of tracks of the audio file includes an audio signal component of the audio signal.
  • the audio signal processing apparatus may insert the plurality of audio signal components of the audio signal in the order specified in the plurality of tracks.
  • an audio signal processing apparatus that processes an audio signal to transmit an audio signal may operate as in the embodiments described with reference to FIGS. 17 to 18.
  • the audio signal processing apparatus outputs the encoded audio signal (S1905).
  • the audio signal processing apparatus may output the generated metadata.
  • the audio signal encoding apparatus may output the generated audio file.
  • 20 is a flowchart illustrating a method of operating an audio signal processing apparatus that renders an audio signal according to an exemplary embodiment.
  • the audio signal processing apparatus for rendering the audio signal receives the audio signal (S2001).
  • the audio signal processing apparatus may receive an audio file including the audio signal.
  • the audio signal processing apparatus renders the received audio signal (S2003).
  • the audio signal processing apparatus may binaurally render the received audio signal.
  • the audio signal processing apparatus may render the audio signal by reflecting the position of the sound image simulated by the audio signal based on metadata about the received audio signal.
  • the audio signal processing apparatus may determine whether to render the audio signal by reflecting the position of the sound image simulated by the audio signal. In this case, the audio signal processing apparatus may render the audio signal according to the determination.
  • the metadata may include sound level information indicating a sound level corresponding to a time interval indicated by the metadata.
  • the audio signal processing apparatus may determine whether to render the audio signal by reflecting the position of the sound image simulated by the audio signal based on the sound level information. For example, the audio signal processing apparatus may compare the difference between the sound level of the audio signal corresponding to the first time interval and the sound level of the audio signal corresponding to the second time interval. In this case, the audio signal processing apparatus may determine whether to render the audio signal by reflecting the position of the sound image simulated by the audio signal corresponding to the second time interval based on the comparison result. . In this case, the first time interval may be a time ahead of the second time interval.
  • the first time interval and the second time interval may be continuous time intervals.
  • the audio signal processing apparatus may determine whether to render the audio signal by reflecting the position of the sound image simulated by the audio signal based on whether the sound level indicated by the sound level information is smaller than a predetermined value. In more detail, when the sound level information indicates mute, the audio signal processing apparatus may render the audio signal without reflecting the position of the sound image simulated by the audio signal.
  • the metadata may include binaural effect intensity information indicating the binaural rendering application intensity.
  • the audio signal processing apparatus may determine the binaural rendering application strength of the audio signal based on the binaural effect intensity information. Also, the audio signal processing apparatus may binaurally render the audio signal at the determined binaural rendering application intensity. In detail, the audio signal processing apparatus may change a relative size of a head related transfer function (HRTF) or a binaural rendering impulse response (BRIR) for binaural rendering according to the determined binaural rendering application intensity.
  • the binaural effect intensity information may indicate the binaural rendering intensity for each component of the audio signal.
  • the binaural effect intensity information may indicate the binaural rendering intensity in units of frames.
  • the audio signal processing apparatus may render the audio signal by applying fade in / fade out depending on whether the audio signal is rendered or not by reflecting the position of the sound image simulated.
  • the metadata may include motion application information indicating whether to render the audio signal by reflecting the movement of the listener.
  • the audio signal processing apparatus may determine whether to render the audio signal by reflecting the movement of the listener based on the motion application information.
  • the audio signal processing apparatus may render the audio signal without reflecting the listener's movement according to the motion application information.
  • the movement of the listener may include the movement of the head of the listener.
  • the metadata may include personalization parameter application information indicating whether to allow the application of the personalization parameter, which is a parameter that can be set according to the listener.
  • the audio signal processing apparatus may render the audio signal based on the personalization parameter application information.
  • the audio signal processing apparatus may render the audio signal without applying the personalization parameter according to the personalization parameter application information.
  • the specific format of the metadata may be the same as the embodiment described with reference to FIGS. 3 to 16.
  • the metadata may be delivered according to the embodiments described with reference to FIGS. 9 to 14.
  • the audio signal processing apparatus may simultaneously render a plurality of audio signal components included in each of the plurality of tracks of the audio file including the audio signal.
  • the audio signal processing apparatus may simultaneously render the first audio signal component included in the first track of the audio file including the audio signal and the second audio signal component included in the second track.
  • the number of channels of the audio signal supported by each of the first track and the second track may be smaller than the sum of the number of channels of the audio signal.
  • the first track may be a track of a predetermined position among the plurality of tracks of the audio file.
  • the first track may include metadata.
  • the audio signal processing apparatus may determine a track of the audio file including the audio signal component based on the metadata.
  • the audio signal processing apparatus may render the first audio signal component and the second audio signal component based on the metadata.
  • the audio signal processing apparatus may binaurally render the first audio signal component and the second audio signal component based on the metadata.
  • the audio signal processing apparatus may check in a predetermined track order whether the plurality of tracks of the audio file include audio signal components of the audio signal.
  • the audio signal processing apparatus outputs the rendered audio signal (S2005). As described above, the audio signal processing apparatus may output the rendered audio signal through two or more loudspeakers. In another specific embodiment, the audio signal processing apparatus may output a rendered audio signal through two-channel stereo headphones.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Stereophonic System (AREA)

Abstract

오디오 신호를 렌더링하는 오디오 신호 처리 장치가 개시된다. 오디오 신호 처리 장치는 오디오 신호를 포함하는 오디오 파일을 수신하는 수신부; 상기 오디오 파일의 제1 트랙에 포함된 제1 오디오 신호 성분과 제2 트랙에 포함된 제2 오디오 신호 성분을 동시에 렌더링하는 프로세서; 및 상기 렌더링된 제1 오디오 신호 성분과 상기 렌더링된 제2 오디오 신호 성분을 출력하는 출력부를 포함한다.

Description

바이노럴 오디오 신호 처리 방법 및 장치
본 발명은 오디오 신호 처리 방법 및 장치에 관한 것이다. 구체적으로 본 발명은 바이노럴 오디오 신호 처리 방법 및 장치에 관한 것이다.
3D 오디오란 기존의 서라운드 오디오에서 제공하는 수평면(2D) 상의 사운드 장면에 높이 방향에 해당하는 또 다른 축을 제공함으로써, 3차원 공간상에서 임장감 있는 사운드를 제공하기 위한 일련의 신호 처리, 전송, 부호화 및 재생기술 등을 통칭한다. 특히, 3D 오디오를 제공하기 위해서는 종래보다 많은 수의 스피커를 사용하거나 혹은 적은 수의 스피커를 사용하더라도 스피커가 존재하지 않는 가상의 위치에서 음상이 맺히도록 하는 렌더링 기술이 요구된다.
3D 오디오는 초고해상도 TV(UHDTV)에 대응되는 오디오 솔루션이 될 것으로 예상되며, 고품질 인포테인먼트 공간으로 진화하고 있는 차량에서의 사운드를 비롯하여 그밖에 극장 사운드, 개인용 3DTV, 태블릿, 무선 통신 단말 및 클라우드 게임 등 다양한 분야에서 응용될 것으로 예상된다.
한편, 3D 오디오에 제공되는 음원의 형태로는 채널 기반의 신호와 오브젝트 기반의 신호가 존재할 수 있다. 이 뿐만 아니라, 채널 기반의 신호와 오브젝트 기반의 신호가 혼합된 형태의 음원이 존재할 수 있으며, 이를 통해 유저로 하여금 새로운 형태의 컨텐츠 경험을 제공할 수 있다.
바이노럴 렌더링은 이러한 3D 오디오를 사람의 양귀에 전달되는 신호로 모델링하는 것이다. 사용자는 헤드폰이나 이어폰 등을 통한 바이노럴 렌더링된 2 채널 오디오 출력 신호를 통해서도 입체감을 느낄 수 있다. 바이노럴 렌더링의 구체적인 원리는 다음과 같다. 사람은 언제나 두 귀를 통해 소리를 듣고, 소리를 통해서 음원 위치와 방향을 인식한다. 따라서 3D 오디오를 사람의 두 귀에 전달되는 오디오 신호 형태로 모델링할 수 있다면, 많은 수의 스피커 없이 2 채널 오디오 출력을 통해서도 3D 오디오의 입체감을 재현할 수 있다.
본 발명의 일 실시 예는 오디오 신호를 프로세싱하는 오디오 신호 처리 방법 및 장치를 제공하는 것을 목적으로 한다.
구체적으로 본 발명의 일 실시 예는 바이노럴 오디오 신호를 처리하는 오디오 신호 처리 방법 및 장치를 제공하는 것을 목적으로 한다.
구체적으로 본 발명의 일 실시 예는 메타데이터를 이용하여 바이노럴 오디오 신호를 처리하는 오디오 신호 처리 방법 및 장치를 제공하는 것을 목적으로 한다.
구체적으로 본 발명의 일 실시 예는 오디오 신호의 채널 수보다 더 작은 수의 채널 수를 지원하는 오디오 파일 포맷을 사용하는 오디오 신호 처리 방법 및 장치를 제공하는 것을 목적으로 한다.
본 발명의 실시 예에 따라 오디오 신호를 렌더링하는 오디오 신호 처리 장치는 오디오 신호를 포함하는 오디오 파일을 수신하는 수신부; 상기 오디오 파일의 제1 트랙에 포함된 제1 오디오 신호 성분과 제2 트랙에 포함된 제2 오디오 신호 성분을 동시에 렌더링하는 프로세서; 및 상기 렌더링된 제1 오디오 신호 성분과 상기 렌더링된 제2 오디오 신호 성분을 출력하는 출력부를 포함한다.
상기 제1 트랙과 상기 제2 트랙 각각이 지원하는 오디오 신호의 채널 수가 상기 오디오 신호의 채널 수의 합보다 작을 수 있다.
상기 제1 트랙은 상기 오디오 파일의 복수의 트랙 중 미리 지정된 위치의 트랙일 수 있다.
상기 제1 오디오 신호 성분은 오디오 신호가 시뮬레이션하는 음상의 위치를 표현하기 위한 메타데이터 없이 렌더링 될 수 있는 오디오 신호 성분일 수 있다.
상기 제1 오디오 신호 성분은 바이노럴 렌더링을 위한 메타데이터 없이 렌더링 될 수 있는 오디오 신호 성분일 수 있다.
상기 제1 트랙은 메타데이터를 포함할 수 있다. 이때, 상기 프로세서는 상기 메타데이터를 기초로 오디오 신호 성분을 포함하는 상기 오디오 파일의 트랙을 판단할 수 있다.
상기 프로세서는 상기 메타데이터를 기초로 상기 제1 오디오 신호 성분과 상기 제2 오디오 신호 성분을 렌더링할 수 있다.
상기 프로세서는 상기 오디오 파일의 복수의 트랙이 상기 오디오 신호의 오디오 신호 성분을 포함하는지 미리 지정된 트랙 순서로 확인할 수 있다.
상기 프로세서는 상기 오디오 신호 처리 장치의 능력에 따라 상기 오디오 파일의 복수의 트랙에 포함된 복수의 오디오 신호 성분 중 상기 제1 오디오 신호 성분과 상기 제2 오디오 신호 성분을 선택하할 수 있다.
본 발명의 실시 예에 따라 오디오 신호 전달을 위해 오디오 신호를 처리하는 오디오 신호 처리 장치는 오디오 신호를 수신하는 수신부; 상기 오디오 신호의 제1 오디오 신호 성분을 제1 트랙에 포함하고, 상기 오디오 신호의 제2 오디오 신호 성분을 제2 트랙에 포함하는 오디오 파일을 생성하는 프로세서; 및 상기 오디오 파일을 출력하는 출력부를 포함할 수 있다.
상기 제1 트랙과 상기 제2 트랙 각각이 지원하는 오디오 신호의 채널 수가 상기 오디오 신호의 채널 수의 합보다 작을 수 있다.
상기 제1 트랙은 상기 오디오 파일의 복수의 트랙 중 미리 지정된 위치의 트랙일 수 있다.
상기 제1 오디오 신호 성분은 오디오 신호가 시뮬레이션하는 음상의 위치를 표현하기 위한 메타데이터 없이 렌더링 될 수 있는 오디오 신호 성분일 수 있다.
상기 제1 오디오 신호 성분은 바이노럴 렌더링을 위한 메타데이터 없이 렌더링 될 수 있는 오디오 신호 성분일 수 있다.
상기 프로세서는 상기 제1 트랙에 메타데이터를 삽입하고, 상기 메타데이터는 상기 오디오 파일의 복수의 트랙 중 어느 트랙이 상기 오디오 신호의 오디오 신호 성분을 포함하는지 나타낼 수 있다.
상기 프로세서는 상기 오디오 신호의 복수의 오디오 신호 성분을 상기 오디오 파일의 복수의 트랙에 지정된 순서대로 삽입할 수 있다.
본 발명의 실시 예에 따라 오디오 신호를 렌더링하는 오디오 신호 처리 장치는 오디오 신호를 수신하는 수신부; 상기 오디오 신호에 대한 메타데이터를 기초로 상기 오디오 신호가 시뮬레이션하는 음상의 위치를 반영하여 상기 오디오 신호를 렌더링할지 결정하고, 상기 결정에 따라 상기 오디오 신호를 렌더링하는 프로세서; 및 상기 렌더링된 오디오 신호를 출력하는 출력부를 포함할 수 있다.
상기 메타데이터는 상기 메타데이터가 지시하는 시간 구간에 해당하는 사운드 레벨을 나타내는 사운드 레벨 정보를 포함할 수 있다. 이때, 상기 프로세서는 상기 사운드 레벨 정보를 기초로 상기 오디오 신호가 시뮬레이션하는 음상의 위치를 반영하여 상기 오디오 신호를 렌더링할지 결정할 수 있다.
상기 프로세서는 제1 시간 구간에 해당하는 오디오 신호의 사운드 레벨과 제2 시간 구간에 해당하는 오디오 신호의 사운드 레벨의 차이를 비교하여, 상기 제2 시간 구간에 해당하는 오디오 신호가 시뮬레이션하는 음상의 위치를 반영하여 상기 제2 시간 구간에 해당하는 오디오 신호를 렌더링할지 결정 할 수 있다. 이때, 상기 제1 시간 구간은 상기 제2 시간 구간보다 앞서 시간일 수 있다.
상기 프로세서는 상기 사운드 레벨 정보가 나타내는 사운드 레벨이 미리 지정된 값보다 작은지를 기초로 상기 오디오 신호가 시뮬레이션하는 음상의 위치를 반영하여 상기 오디오 신호를 렌더링할지 결정할 수 있다.
상기 메타데이터는 바이노럴 렌더링 적용 강도를 나타내는 바이노럴 효과 세기 정보를 포함할 수 있다. 상기 프로세서는 상기 바이노럴 효과 세기 정보를 기초로 상기 오디오 신호에 대한 바이노럴 렌더링 적용 강도를 결정하고, 상기 결정된 바이노럴 렌더링 적용 강도로 상기 오디오 신호를 바이노럴 렌더링할 수 있다.
상기 프로세서는 상기 결정된 바이노럴 렌더링 적용 강도에 따라 바이노럴 렌더링을 위한 HRTF(Head Related Transfer Function) 또는 BRIR(Binaural Rendering Impulse Response)의 적용 강도를 변경할 수 있다.
상기 바이노럴 효과 세기 정보는 상기 오디오 신호의 성분 별로 바이노럴 렌더링 강도를 지시할 수 있다.
상기 바이노럴 효과 세기 정보는 프레임 단위로 바이노럴 렌더링 강도를 지시할 수 있다.
상기 메타데이터는 청자의 움직임을 반영하여 상기 오디오 신호를 렌더링할지를 나타내는 움직임 적용 여부 정보를 포함할 수 있다. 이때, 상기 프로세서는 상기 움직임 적용 여부 정보를 기초로 상기 청자의 움직임을 반영하여 상기 오디오 신호를 렌더링할지 결정할 수 있다.
상기 프로세서는 상기 오디오 신호가 시뮬레이션하는 음상의 위치를 반영하여 렌더링할지가 변경되는지에 따라 페이드 인/페이드 아웃을 적용하여 상기 오디오 신호를 렌더링할 수 있다.
상기 메타데이터는 청자에 따라 설정될 수 있는 파라미터인 개인화 파라미터의 적용의 허용 여부를 나타내는 개인화 파라미터 적용 정보를 포함할 수 있다. 이때, 상기 프로세서는 상기 개인화 파라미터 적용 정보에 따라 개인화 파라미터를 적용하지 않고 상기 오디오 신호를 렌더링할 수 있다.
본 발명의 실시 예에 따라 오디오 신호 전달을 위해 오디오 신호를 처리하는 오디오 신호 처리 장치는 상기 오디오 신호를 수신하는 수신부; 상기 오디오 신호가 시뮬레이션하는 음상의 위치를 반영하기 위한 정보를 포함하는, 상기 오디오 신호에 대한 메타데이터를 생성하는 프로세서; 및 상기 메타데이터를 출력하는 출력부를 포함할 수 있다.
상기 프로세서는 상기 메타데이터가 지시하는 시간 구간에 해당하는 사운드 레벨을 상기 메타데이터에 삽할 수 있다. 이때, 상기 사운드 레벨은 상기 오디오 신호가 시뮬레이션하는 음상의 위치를 반영하여 상기 오디오 신호를 렌더링할지 결정하는데 사용될 수 있다.
상기 프로세서는 상기 오디오 신호에 적용되는 바이노럴 렌더링 강도를 나타내는 바이노럴 효과 세기 정보를 상기 메타데이터에 삽입할 수 있다.
상기 바이노럴 효과 세기 정보는 바이노럴 렌더링을 위한 HRTF(Head Related Transfer Function) 또는 BRIR(Binaural Rendering Impulse Response)의 적용 강도를 변경하는데 사용될 수 있다.
상기 바이노럴 효과 세기 정보는 상기 오디오 신호의 오디오 신호 성분 별로 바이노럴 렌더링 강도를 지시할 수 있다.
상기 바이노럴 효과 세기 정보는 프레임 단위로 바이노럴 렌더링 적용 강도를 지시할 수 있다.
상기 프로세서는 청자의 움직임을 반영하여 상기 오디오 신호를 렌더링할지 나타내는 움직임 적용 여부 정보를 상기 메타데이터에 삽입할 수 있다. 상기 청자의 움직임은 상기 청자의 머리 움직임을 포함할 수 있다.
본 발명의 실시 예에 따라 오디오 신호를 렌더링하는 오디오 신호 처리 장치의 동작 방법은 오디오 신호를 수신하는 단계; 상기 오디오 신호에 대한 메타데이터를 기초로 상기 오디오 신호가 시뮬레이션하는 음상의 위치를 반영하여 상기 오디오 신호를 렌더링하는 단계; 및 상기 렌더링된 오디오 신호를 출력하는 단계를 포함할 수 있다.
본 발명의 일 실시 예는 복수의 오디오 신호를 프로세싱하는 오디오 신호 처리 방법 및 장치를 제공한다.
구체적으로 본 발명의 일 실시 예는 앰비소닉 신호로 표현될 수 있는 오디오 신호를 처리하는 오디오 신호 처리 방법 및 장치를 제공한다.
도 1은 본 발명의 일 실시 예에 따라 오디오 신호를 렌더링하는 오디오 신호 처리 장치를 보여주는 블록도이다.
도 2는 본 발명의 실시 예에 따라 오디오 신호를 렌더링하는 오디오 신호 처리 장치가 앰비소닉 신호와 오브젝트 신호를 함께 프로세싱하는 동작을 보여주는 블록도이다.
도 3은 본 발명의 실시 예에 따라 바이노럴 렌더링 적용 정도를 나타내는 메타데이터의 신택스(syntax)를 보여준다.
도 4는 본 발명의 실시 예에 따라 오디오 신호가 렌더링되는 장치의 특성에 따라 렌더링 조건을 조정하기 위한 메타데이터의 신택스(syntax)를 보여준다.
도 5는 본 발명의 실시 예에 따른 부가 정보의 분류를 보여준다.
도 6은 본 발명의 실시 예에 따른 헤더 파라미터의 구조를 보여준다.
도 7은 본 발명의 실시 예에 따른 GAO_HDR의 구체적인 포맷을 보여준다.
도 8은 본 발명의 실시 예에 따른 메타데이터 파라미터의 구조를 보여준다.
도 9는 본 발명의 일 실시 예에 따라 오디오 신호를 렌더링하는 오디오 신호 처리 장치가 오디오 신호와 별도로 메타데이터를 획득하는 동작을 보여준다.
도 10은 본 발명의 일 실시 예에 따라 오디오 신호를 렌더링하는 오디오 신호 처리 장치가 오디오 신호와 함께 메타데이터를 획득하는 동작을 보여준다.
도 11은 본 발명의 일 실시 예에 따라 오디오 신호를 렌더링하는 오디오 신호 처리 장치가 오디오 신호와 메타데이터를 링크하는 링크 정보를 함께 획득하는 동작을 보여준다.
도 12 내지 도 13은 본 발명의 일 실시 예에 따라 오디오 신호를 렌더링하는 오디오 신호 처리 장치가 오디오 비트스트림을 기초로 메타데이터를 획득하는 동작을 보여준다.
도 14는 본 발명의 일 실시 예에 따라 오디오 신호를 렌더링하는 오디오 신호 처리 장치가 전송 스트리밍을 통해 오디오 신호를 수신할 때, 오디오 신호 처리 장기가 메타데이터를 획득하는 방법을 보여준다.
도 15 내지 도 16은 본 발명의 실시 예에 따른 AAC 파일의 신택스를 보여준다.
도 17은 본 발명의 실시 예에 따라 오디오 신호가 포함하는 채널 수의 합보다 작은 수의 채널을 지원하는 오디오 파일 포맷을 이용하는 오디오 신호 처리 방법을 보여준다.
도 18은 본 발명의 일 실시 예에 따라 오디오 신호를 전달하기 위해 오디오 신호를 처리하는 오디오 신호 처리 장치를 보여주는 블락도이다.
도 19는 본 발명의 일 실시 예에 따라 오디오 신호를 전달하기 위해 오디오 신호를 처리하는 오디오 신호 처리 장치의 동작 방법을 보여주는 순서도이다.
도 20은 본 발명의 일 실시 예에 따라 오디오 신호를 렌더링하는 오디오 신호 처리 장치의 동작 방법을 보여주는 순서도이다.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
본 출원은 대한민국 특허 출원 제10-2016-0122515호(2016.09.23) 및 제10-2017-0018515호(2017.02.10)를 기초로 하는 우선권을 주장하며, 우선권의 기초가 되는 상기 각 출원들에 서술된 실시 예 및 기재 사항은 본 출원의 상세한 설명에 포함되는 것으로 한다.
도 1은 본 발명의 일 실시 예에 따라 오디오 신호를 렌더링하는 오디오 신호 처리 장치를 보여주는 블록도이다.
본 발명의 일 실시 예에 따라 오디오 신호를 렌더링하는 오디오 신호 처리 장치(100)는 수신부(10), 프로세서(30) 및 출력부(70)를 포함한다.
수신부(10)는 입력 오디오 신호를 수신한다. 이때, 입력 오디오 신호는 음향 수집장치가 수신한 음향이 변환된 것일 수 있다. 음향 수집 장치는 마이크일 수 있다. 또한, 음향 수집 장치는 복수의 마이크를 포함하는 마이크 어레이일 수 있다.
프로세서(30)는 수신부(10)가 수신한 입력 오디오 신호를 프로세싱한다. 구체적으로 프로세서(30)는 포맷 컨버터, 렌더러, 포스트 프로세싱부를 포함할 수 있다. 포맷 컨버터는 입력 오디오 신호의 포맷을 다른 포맷으로 변환한다. 구체적으로 포맷 컨버터는 오브젝트 신호를 앰비소닉 신호로 변환할 수 있다. 이때, 앰비소닉 신호는 마이크 어레이를 통해 녹음된 신호일 수도 있다. 또한 앰비소닉 신호는 마이크 어레이를 통해 녹음한 신호를 구면 조화 함수(spherical harmonics)의 기저에 대한 계수 (coefficient)로 변환한 신호일 수도 있다. 또한, 포맷 컨버터는 앰비소닉 신호를 오브젝트 신호로 변환할 수 있다. 구체적으로 포맷 컨버터는 앰비소닉 신호의 차수를 변경할 수 있다. 예컨대, 포맷 컨버터는 HoA(Higher Order Ambisonics) 신호를 FoA(First Order Ambisonics) 신호로 변경할 수 있다. 또한, 포맷 컨버터는 입력 오디오 신호에 관련된 위치 정보를 획득하고, 획득한 위치 정보를 기초로 입력 오디오 신호의 포맷을 변환할 수 있다. 이때, 위치 정보는 오디오 신호에 해당하는 음향을 수집한 마이크 어레이에 대한 정보일 수 있다. 구체적으로 마이크 어레에 대한 정보는 마이크 어레이를 구성하는 마이크들의 배열 정보, 개수 정보, 위치 정보, 주파수 특성 정보, 빔 패턴 정보 중 적어도 하나를 포함할 수 있다. 또한, 입력 오디오 신호에 관련된 위치 정보는 음원의 위치를 나타내는 정보를 포함할 수 있다.
렌더러는 입력 오디오 신호를 렌더링한다. 구체적으로 렌더러는 포맷이 변환된 입력 오디오 신호를 렌더링할 수 있다. 이때, 입력 오디오 신호는 라우드스피커 채널 신호, 오브젝트 신호 및 앰비소닉 신호 중 적어도 어느 하나를 포함할 수 있다. 구체적인 실시 예에서 렌더러는 오디오 신호의 포맷이 나타내는 정보를 이용해 입력 오디오 신호가 3차원상에 위치한 가상의 사운드 오브젝트에 의해 표현되도록 하는 오디오 신호로 렌더링할 수 있다. 예컨대, 렌더러는 입력 오디오 신호를 복수의 스피커에 매칭하여 렌더링할 수 있다. 또한, 렌더러는 입력 오디오 신호를 바이노럴 렌더링할 수 있다.
또한, 렌더러는 오브젝트 신호와 앰비소닉 신호의 시간을 동기화하는 시간 동기화부(Time Synchonizer)를 포함할 수 있다.
또한, 렌더러는 앰비소닉 신호의 6자유도(6 Degrees Of Freedom, 6DOF)를 제어하는 6DOF 제어부를 포함할 수 있다. 이때, 6DOF 제어부는 앰비소닉 신호의 특정 방향 성분의 크기를 변경하는 방향 변경부를 포함할 수 있다. 구체적으로 6DOF 제어부는 오디오 신호가 시뮬레이션하는 가상의 공간에서 청자의 위치에 따라 앰비소닉 신호의 특정 방향 성분의 크기를 변경할 수 있다. 방향 변경부는 앰비소닉 신호의 특정 방향 성분의 크기를 변경하기 위한 행렬을 생성하는 방향 변경 행렬 생성부(Directional Modification Matrix Generator)를 포함할 수 있다. 또한, 6DOF 제어부는 앰비소닉 신호를 채널 신호로 변환하는 변환부를 포함하고, 6DOF 제어부는 채널 신호에 대응하는 가상의 스피커와 오디오 신호의 청자 사이의 상대적 위치를 연산하는 상대적 위치 연산부를 포함할 수 있다.
출력부(70)는 렌더링된 오디오 신호를 출력한다. 구체적으로 출력부(70)는 2개 이상의 라우드 스피커를 통해 오디오 신호를 출력할 수 있다. 또 다른 구체적인 실시 예에서 출력부(70)는 2채널 스테레오 헤드폰을 통해 오디오 신호를 출력할 수 있다.
오디오 신호 처리 장치(100)는 앰비소닉 신호와 오브젝트 신호를 함께 처리할 수 있다. 이때, 오디오 신호 처리 장치(100)의 구체적인 동작에 대해서는 도 2를 통해 설명한다.
도 2는 본 발명의 실시 예에 따라 오디오 신호를 렌더링하는 오디오 신호 처리 장치가 앰비소닉 신호와 오브젝트 신호를 함께 프로세싱하는 동작을 보여주는 블록도이다.
앞서 언급한 앰비소닉(Ambisonics)은 오디오 신호 처리 장치가 음장에 대한 정보를 획득하고, 획득한 정보를 이용하여 소리를 재현하는 방법 중 하나이다. 구체적으로 앰비소닉은 오디오 신호 처리 장치가 다음과 같이 오디오 신호를 프로세싱하는 것을 나타낼 수 있다.
이상적인 앰비소닉 신호 프로세싱을 위해 오디오 신호 처리 장치는 공간상의 한 점에 입사하는 모든 방향의 음향으로부터 음원에 대한 정보를 획득해야 한다. 그러나 마이크의 크기를 줄이는데는 한계가 있으므로, 오디오 신호 처리 장치는 구의 표면에서 수집된 음향으로부터 무한히 작은 점으로 입사하는 신호를 연산하여 음원에 대한 정보를 획득하고, 획득한 정보를 사용할 수 있다. 구체적으로 구면 좌표계 상에서 마이크 어레이의 각 마이크의 위치는 좌표계 중심으로부터의 거리, 방위각(또는, 수평각) 및 고도각(또는, 수직각)으로 표현될 수 있다. 오디오 신호 처리 장치는 구면 좌표계에서의 각 마이크의 좌표값을 통해 구면 조화함수의 기저를 획득할 수 있다. 이때, 오디오 신호 처리 장치는 구면 조화함수의 각 기저를 기초로 마이크 어레이 신호를 구면 조화함수 도메인으로 프로젝션(projection)할 수 있다.
예를 들어, 마이크 어레이 신호는 구형 마이크 어레이를 통해 녹음될 수 있다. 구면 좌표계의 중심을 마이크 어레이의 중심과 일치시키면, 마이크 어레이의 중심으로부터 각 마이크까지의 거리는 모두 일정하다. 따라서 각 마이크의 위치는 방위각(Θ)과 고도각(Φ)만으로 표현될 수 있다. 마이크 어레이에서 q번째 마이크의 위치를 (θq, Φq)라고 할 때, 해당 마이크를 통해 녹음된 신호(pa)는 구면 조화함수 도메인에서 다음과 수식과 같이 표현될 수 있다.
Figure PCTKR2017010564-appb-M000001
pa는 마이크를 통해 녹음된 신호를 나타낸다. (θq, Φq)는 q번째 마이크의 방위각과 고도각을 나타낸다. Y는 방위각과 고도각을 인자로 갖는 구면조화함수를 나타낸다. m은 각각 구면조화함수의 차수(order)를 나타내고, n은 디그리(degree)를 나타낸다. B는 구면조화함수에 대응하는 앰비소닉 계수를 나타낸다. 본 명세서에서 앰비소닉 계수는 앰비소닉 신호로 지칭될 수 있다. 구체적으로 앰비소닉 신호는 FoA 신호 및 HoA 신호 중 어느 하나를 나타낼 수 있다.
이때, 오디오 신호 처리 장치는 구면조화함수의 유사 인버스 행렬(pseudo inverse matrix)를 이용해 앰비소닉 신호를 획득할 수 있다. 구체적으로 오디오 신호 처리 장치는 다음의 수학식을 사용해 앰비소닉 신호를 획득할 수 있다.
Figure PCTKR2017010564-appb-M000002
pa는 앞서 설명한 바와 같이 마이크를 통해 녹음된 신호를 나타내고, B는 구면조화함수에 대응하는 앰비소닉 계수를 나타낸다. pinv(Y)는 Y의 유사 인버스(pseudo inverse) 행렬을 나타낸다.
앞서 언급한 오브젝트 신호는 하나의 사운드 오브젝트에 대응하는 오디오 신호를 나타낸다. 구체적으로 오브젝트 신호는 특정 사운드 오브젝트에 근접한 음향 수집 장치에서 획득된 신호일 수 있다. 오브젝트 신호는 특정 지점에서 수집 가능한 모든 음향을 공간상에 표현하는 앰비소닉 신호와 달리 어느 하나의 사운드 오브젝트가 출력하는 소리가 특정 지점에 전달되는 것을 표현하기 위해 사용된다. 오디오 신호 처리 장치는 오브젝트 신호에 대응하는 사운드 오브젝트의 위치를 이용해 오브젝트 신호를 앰비소닉 신호의 포맷으로 나타낼 수 있다. 이때, 오디오 신호 처리 장치는 사운드 오브젝트에 해당하는 음향을 수집하는 마이크에 설치된 외부 센서와 위치 측정의 기준점에 설치된 외부 센서를 사용해 사운드 오브젝트의 위치를 측정할 수 있다. 또 다른 구체적인 실시 예에서 오디오 신호 처리 장치는 마이크로 수집된 오디오 신호를 분석하여 사운드 오브젝트의 위치를 추정할 수 있다. 구체적으로 오디오 신호 처리 장치는 다음의 수식을 사용해 오브젝트 신호를 앰비소닉 신호로 나타낼 수 있다.
Figure PCTKR2017010564-appb-M000003
ΘsΦs 각각은 오브젝트에 대응하는 사운드 오브젝트의 위치를 나타내는 방위각과 고도각을 나타낸다. Y는 방위각과 고도각을 인자로 갖는 구면조화함수를 나타낸다. BSnm은 오브젝트 신호가 변환된 앰비소닉 신호를 나타낸다.
따라서 오디오 신호 처리 장치가 오브젝트 신호와 앰비소닉 신호를 동시에 프로세싱할 때, 오디오 신호 처리 장치는 다음 중 적어도 어느 하나의 방법을 사용할 수 있다. 구체적으로 오디오 신호 처리 장치는 오브젝트 신호와 앰비소닉 신호를 별도로 출력할 수 있다. 또한, 오디오 신호 처리 장치는 오브젝트 신호를 앰비소닉 신호 포맷으로 변환하여 앰비소닉 신호 포맷으로 변환된 오브젝트 신호와 앰비소닉 신호를 출력할 수 있다. 이때, 앰비소닉 신호 포맷으로 변환된 오브젝트 신호와 앰비소닉 신호는 HoA 신호일 수 있다. 또한, 앰비소닉 신호 포맷으로 변환된 오브젝트 신호와 앰비소닉 신호는 FoA 신호일 수 있다. 또 다른 구체적인 실시 예에서, 오디오 신호 처리 장치는 오브젝트 신호 없이 앰비소닉 신호만을 출력할 수 있다. 이때, 앰비소닉 신호는 FoA 신호일 수 있다. 앰비소닉 신호는 공간상의 한 지점에서 수집된 모든 음향을 포함하는 것으로 가정하기 때문에, 앰비소닉 신호는 오브젝트 신호에 해당하는 신호 성분을 포함하고 있는 것으로 가정할 수 있다. 따라서 오디오 신호 처리 장치는 위 실시 예와 같이 오브젝트 신호를 별도로 프로세싱하지 않고 앰비소닉 신호만을 프로세싱하여도 오브젝트 신호에 해당하는 사운드 오브젝트를 재현할 수 있다.
구체적인 실시 예에서, 오디오 신호 처리 장치는 앰비소닉 신호와 오브젝트 신호를 도 2의 실시 예와 같이 처리할 수 있다. 앰비소닉 변환부(31)는 앰비언트 음향을 앰비소닉 신호로 변경한다. 포맷 컨버터(33)는 오브젝트 신호와 앰비소닉 신호의 포맷을 변경한다. 이때, 포맷 컨버터(33)는 오브젝트 신호를 앰비소닉 신호의 포맷으로 변환할 수 있다. 구체적으로 포맷 컨버터(33)는 오브젝트 신호를 HoA 신호로 변환할 수 있다. 또한, 포맷 컨버터(33)는 오브젝트 신호를 FoA 신호로 변환할 수 있다. 또한, 포맷 컨버터(33)는 HoA 신호를 FoA 신호로 변환할 수 있다. 포스트 프로세서(35)는 포맷이 변환된 오디오 신호를 포스트 프로세싱한다. 렌더러(37)는 포스트 프로세싱된 오디오 신호를 렌더링한다. 이때, 렌더러(37)는 바이노럴 렌더러일 수 있다. 따라서 렌더러(37)는 포스트 프로세싱된 오디오 신호를 바이노럴 렌더링할 수 있다.
오디오 신호 처리 장치는 오디오 신호를 렌더링하여 가상의 공간에 위치하는 음원을 시뮬레이션할 수 있다. 이때, 오디오 신호 처리 장치는 오디오 신호를 렌더링하기 위한 정보가 필요하다. 오디오 신호를 렌더링하기 위한 정보는 메타데이터 형태로 전달될 수 있고, 오디오 신호 처리 장치는 메타데이터를 기초로 오디오 신호를 렌더링할 수 있다. 특히, 메타데이터는 컨텐츠 제작자가 의도한 렌더링 방법에 대한 정보 및 렌더링 환경에 대한 정보를 포함할 수 있다. 이에 따라 오디오 신호 처리 장치는 컨텐츠 제작자의 의도를 반영하여 오디오 신호를 렌더링할 수 있다. 메타데이터 종류 및 포맷에 대해 도 3 내지 도 16을 통해 설명한다.
도 3은 본 발명의 실시 예에 따라 바이노럴 렌더링 적용 정도를 나타내는 메타데이터의 신택스(syntax)를 보여준다.
메타데이터는 오디오 신호를 렌더링할 때 청자의 머리 움직임을 반영하여 오디오 신호를 렌더링할지 나타내는 머리 움직임 적용 정보를 포함할 수 있다. 이때, 오디오 신호를 렌더링하는 오디오 신호 처리 장치는 메타데이터로부터 머리 움직임 적용 정보를 획득할 수 있다. 오디오 신호 처리 장치는 머리 움직임 적용 정보를 기초로 청자의 머리 움직임을 반영하여 오브젝트 신호를 렌더링할지 결정할 수 있다. 또한, 머리 움직임은 머리 회전(head rotation)을 나타낼 수 있다. 오디오 신호 처리 장치는 머리 움직임 적용 정보에 따라 청자의 머리 움직임을 반영하지않고 오브젝트 신호를 렌더링할 수 있다. 또한, 오디오 신호 처리 장치는 머리 움직임 적용 정보에 따라 청자의 머리 움직임을 반영하여 오브젝트 신호를 렌더링할 수 있다. 청자의 머리에 붙은 벌과 같이, 청자의 머리 움직임에 따라 함께 움직이는 오브젝트가 있을 수 있다. 청자의 머리가 회전하는 경우에도 청자와 사이의 상대적 위치는 변화되지 않거나 매우 작게 변화될 수 있다. 따라서 오디오 신호 처리 장치는 청자의 머리 움직임을 반영하지않고 해당 오브젝트를 시뮬레이션하는 오디오 신호를 렌더링할 수 있다. 이러한 실시 예를 통해 오디오 신호 처리 장치의 연산량을 줄일 수 있다.
또한, 메타데이터는 바이노럴 렌더링 적용 강도를 나타내는 바이노럴 효과 세기 정보를 포함할 수 있다. 이때, 오디오 신호를 렌더링하는 오디오 신호 처리 장치는 메타데이터로부터 바이노럴 효과 세기를 획득할 수 있다. 또한, 오디오 신호 처리 장치는 바이노럴 효과 세기 정보를 기초로 오브젝트 신호에 바이노럴 렌더링을 적용 강도(level)를 결정할 수 있다. 구체적으로 오디오 신호 처리 장치는 바이노럴 효과 세기 정보를 기초로 오디오 신호에 바이노럴 렌더링을 적용할지 결정할 수 있다. 앞서 설명한 것과 같이 오디오 신호 처리 장치가 오디오 신호를 바이노럴 렌더링할 경우, 오디오 신호 처리 장치는 3차원 공간에 오디오 신호가 표현하는 음상이 위치한 것처럼 시뮬레이션할 수 있다. 다만 바이노럴 렌더링은 HRTF(Head Related Transfer Function) 또는 BRIR(Binaural Room Impulse Response)과 같은 전달함수를 사용하므로 바이노럴 렌더링에 의해 오디오 신호의 음색이 변형될 수 있다. 또한, 오디오 신호가 표현하는 음상의 종류에 따라 공간감보다는 음색이 더 중요할 수 있다. 따라서 오디오 신호가 포함하는 컨텐츠의 제작자는 바이노럴 효과 세기 정보를 설정하여 오디오 신호의 바이노럴 렌더링 적용 정도를 결정할 수 있다. 구체적으로 바이노럴 효과 세기 정보는 바이노럴 렌더링이 적용되지 않음을 나타낼 수 있다. 이때, 오디오 신호 처리 장치는 바이노럴 효과 세기 정보에 따라 오디오 신호를 바이노럴 렌더링을 사용하지 않고 렌더링할 수 있다. 또한, 바이노럴 효과 세기 정보는 바이노럴 렌더링이 적용될 때 바이노럴 렌더링을 위한 HRTF 또는 BRIR의 적용 강도를 나타낼 수 있다.
구체적으로 바이노럴 효과 세기 정보는 양자화된 레벨로 구분될 수 있다. 또 다른 구체적인 실시 예에서 바이노럴 효과 세기 정보는 Mild, Normal 및 Strong과 같이 3단계로 구분될 수 있다. 또한, 바이노럴 효과 세기 정보는 도 3(a)의 실시 예와 같이 5 단계로 구분될 수 있다. 또 다른 구체적인 실시 예에서 바이노럴 효과 세기 정보는 0과 1사이의 연속적인 실수 중 어느 하나의 값으로 표현될 수 있다.
오디오 신호를 렌더링하는 오디오 신호 처리 장치는 바이노럴 효과 세기 정보를 오디오 신호가 포함하는 오디오 트랙별로 적용할 수 있다. 또한, 오디오 신호 처리 장치는 바이노럴 효과 세기 정보를 오디오 신호가 포함하는 오디오 소스별로 적용할 수 있다. 또한, 오디오 신호를 렌더링하는 오디오 신호 처리 장치는 바이노럴 효과 세기 정보를 신호 특성별로 적용할 수 있다. 또한, 오디오 신호 처리 장치는 바이노럴 효과 세기 정보를 오디오 신호가 포함하는 오브젝트별로 적용할 수 있다. 또한, 오디오 신호를 렌더링하는 오디오 신호 처리 장치는 바이노럴 효과 세기 정보를 각 오디오 트랙의 시간 구간별로 적용될 수 있다. 이때, 시간 구간은 오디오 신호의 프레임일 수 있다. 구체적으로 메타데이터는 도 3(b)의 실시 예와 같이 바이노럴 효과 세기 정보를 트랙별, 프레임별로 구분할 수 있다.
또한, 메타데이터는 바이노럴 효과 세기 정보 적용이 강제되는지를 나타내는 바이노럴 효과 세기 강제 여부 정보를 포함할 수 있다. 오디오 신호를 렌더링하는 오디오 신호 처리 장치는 메타데이터로부터 바이노럴 효과 세기 강제 여부 정보를 획득하고, 바이노럴 효과 세기 강제 여부 정보에 따라 바이노럴 효과 세기 정보를 선택적으로 적용할 수 있다. 또한, 오디오 신호 처리 장치는 바이노럴 효과 세기 강제 여부 정보에 따라 바이노럴 효과 세기 정보를 강제적으로 적용할 수 있다. 오디오 신호를 렌더링하는 오디오 신호 처리 장치는 바이노럴 효과 세기 강제 여부 정보를 오디오 신호가 포함하는 오디오 트랙별로 적용할 수 있다. 또한, 오디오 신호를 렌더링하는 오디오 신호 처리 장치는 바이노럴 효과 세기 강제 여부 정보를 오디오 신호가 포함하는 오디오 소스별로 적용할 수 있다. 또한, 오디오 신호 처리 장치는 바이노럴 효과 세기 강제 여부 정보를 신호 특성별로 적용할 수 있다. 또한, 오디오 신호를 렌더링하는 오디오 신호 처리 장치는 바이노럴 효과 세기 강제 여부 정보를 오디오 신호가 포함하는 오브젝트별로 적용할 수 있다. 또한, 오디오 신호를 렌더링하는 오디오 신호 처리 장치는 바이노럴 효과 세기 강제 여부 정보를 각 오디오 트랙의 시간 구간별로 적용할 수 있다. 구체적인 실시 예에서 바이노럴 효과 세기 강제 여부 정보의 구체적인 형식은 도 3(c)와 같을 수 있다.
오디오 신호를 렌더링하는 오디오 신호 처리 장치는 바이노럴 효과 세기 정보를 사용하여 바이노럴 렌더링뿐만 아니라 다른 입체 음향을 적용 여부를 결정할 수 있다. 구체적으로 오디오 신호 처리 장치는 바이노럴 효과 세기 정보에 따라 바이노럴 효과 세기 정보가 지시하는 오디오 신호를 해당 오디오 신호가 시뮬레이션하는 음상의 위치를 반영하지 않고 렌더링할 수 있다. 이러한 실시 예들을 통해 오디오 신호를 렌더링하는 오디오 신호 처리 장치의 연산 효율이 높아질 수 있다. 또한, 이러한 실시 예들을 통해 오디오 신호가 포함하는 컨텐츠의 제작작 의도한 컨텐츠 경험이 청자에게 정교하게 전달될 수 있다.
동일한 오디오 신호라도 다양한 장치를 통해 렌더링될 수 있다. 특히, 다양한 영상 표시 장치를 통해 컨텐츠가 소비됨에 따라 오디오 신호의 렌더링 환경도 다양해지고 있다. 예컨대, 동일한 오디오 신호가 헤드마운트 디스플레(head mounted display, HMD)이 형태의 VR기기로 렌더링될 수 있고, 핸드폰이나 TV로도 렌더링될 수 있다. 따라서 동일한 오디오 신호라도 오디오 신호가 렌더링되는 장치에 따라 다르게 렌더링될 필요가 있다. 이에 대해서는 도 4를 통해 설명한다.
도 4는 본 발명의 실시 예에 따라 오디오 신호가 렌더링되는 장치의 특성에 따라 렌더링 조건을 조정하기 위한 메타데이터의 신택스(syntax)를 보여준다.
메타데이터는 해당 메타데이터가 생성될 때 기준이되는 오디오 신호 처리 장치의 특성을 나타내는 레퍼런스 장치 특성 파라미터를 포함할 수 있다. 구체적으로 레퍼런스 장치 특성 파라미터는 오디오 신호가 포함하는 컨텐츠의 제작자가 오디오 신호를 렌더링할 것으로 의도한 오디오 신호 처리 장치의 특성을 나타낼 수 있다.
오디오 신호 레퍼런스 장치 특성 파라미터는 오디오 신호가 렌더링되는 영상 표시 장치의 특성을 포함할 수 있다. 구체적으로 레퍼런스 장치 특성 파라미터는 영상 표시 장치의 스크린 특성을 포함할 수 있다. 구체적으로 스크린 특성은 스크린 타입, 스크린의 해상도, 스크린 사이즈 및 스크린의 화면 비율 중 적어도 어느 하나를 포함할 수 있다. 스크린 타입은 TV, PC의 모니터, 핸드폰 및 HMD 중 적어도 어느 하나를 포함할 수 있다. 또한, 스크린 타입은 스크린의 해상도와 조합되어 구분될 수 있다. 예컨대, 장치 특성 파라미터는 HD를 지원하는 HMD와 UHD를 지원하는 HMD를 구별하여 나타낼 수 있다. 스크린의 화면 비율은 1:1, 4:3, 15:9 및 16:9 중 적어도 어느 하나를 포함할 수 있다. 또한, 레퍼런스 장치 특성 파라미터는 구체적인 모델 명을 포함할 수 있다.
또한, 레퍼런스 장치 특성 파라미터는 청자와 영상 표시 장치 사이의 위치 관계를 포함할 수 있다. 청자와 영상 표시 장치 사이의 위치 관계는 청자와 영상 표시 장치의 스크린 사이의 거리를 포함할 수 있다. 또한, 청자와 영상 표시 장치 사이의 위치 관계는 청자가 영상 표시 장치를 바라보는 시청 각도를 포함할 수 있다. 청자와 영상 표시 장치의 스크린 사이의 거리는 오디오 컨텐츠 제작시 제작 환경에 따라 달라질 수 있다. 또한, 장치 특성 파라미터는 시청 각도를 90도 이하, 90도 내지 110도, 110도 내지 130도, 130도 이상과 같이 구별하여 나타낼 수 있다.
또한, 레퍼런스 장치 특성 파라미터는 오디오 신호 출력 특성을 포함할 수 있다. 오디오 신호 출력 특성은 라우드니스 레벨, 출력 장치의 타입 및 출력에 사용되는 EQ 중 적어도 어느 하나를 포함할 수 있다. 레퍼런스 장치 특성 파라미터는 라우드니스 레벨을 SPL(Sound Pressure Level) 값으로 나타낼 수 있다. 구체적으로 레퍼런스 장치 특성 파라미터는 메타데이터가 의도하는 라우드니스 레벨의 범위를 나타낼 수 있다. 또 다른 구체적인 실시 예에서 레퍼런스 장치 특성 파라미터는 메타데이터가 의도하는 라우드니스 레벨 값을 나타낼 수 있다. 출력 장치 타입은 헤드폰 및 스피커 중 적어도 어느 하나를 포함할 수 있다. 또한, 출력 장치 타입은 헤드폰, 스피커의 출력 특성에 따라 세분화될 수 있다. 또한, 출력에 사용되는 EQ는 창작가 컨텐츠를 제작할 때 사용한 EQ일 수 있다. 구체적으로 레퍼런스 장치 특성 파라미터는 도 4와 같은 신택스를 가질 수 있다.
오디오 신호 처리 장치는 레퍼런스 장치 특성 파라미터와 오디오 신호 처리 장치의 특성 차이를 기초로 오디오 신호를 렌더링할 수 있다. 구체적인 실시 예에서 오디오 신호 처리 장치는 레퍼런스 장치 특성 파라미터가 나타내는 청자와 영상 출력 장치의 스크린 사이의 거리와 실제 장치 특성 파라미터가 나타내는 청자와 영상 출력 장치의 스크린 사이의 거리의 차이를 기초로 오디오 신호의 크기를 조정할 수 있다. 또 다른 구체적인 실시 예에서 오디오 신호 처리 장치는 레퍼런스 장치 특성 파라미터가 나타내는 시청 각도와 실제 장치 특성 파라미터가 나타내는 시청 각도 차이를 기초로 메타데이터가 나타태는 음상의 위치를 보정하여 오디오 신호를 렌더링할 수 있다. 또 다른 구체적인 실시 예에서 오디오 신호 처리 장치는 레퍼런스 장치 특성 파라미터가 나타내는 라우드니스 레벨을 기초로 오디오 신호 처리 장치의 출력 레벨을 조정할 수 있다. 구체적으로 오디오 신호 처리 장치는 레퍼런스 장치 특성 파라미터가 나타내는 라우드니스 레벨로 오디오 신호 처리 장치의 출력 레벨을 조정할 수 있다. 또한, 오디오 신호 처리 장치는 레퍼런스 장치 특성 파라미터가 나타내는 라우드니스 레벨을 사용자에게 표시할 수 있다. 또한, 오디오 신호 처리 장치는 레퍼런스 장치 특성 파라미터가 나타내는 라우드니스 레벨과 이퀄 라우드니스 곡선(Equal Loudness Contour)을 기초로 오디오 신호 처리 장치의 출력 레벨을 조정할 수 있다.
오디오 신호 처리 장치는 복수의 레퍼런스 장치 특성 파라미터 셋 중 어느 하나를 선택하여, 선택한 레퍼런스 장치 특성 파라미터 셋에 해당하는 메타데이터를 이용하여 오디오 신호를 렌더링할 수 있다. 구체적으로 오디오 신호 처리 장치는 오디오 신호 처리 장치 특성을 기초로 복수의 레퍼런스 장치 특성 파라미터 셋 중 어느 하나를 선택할 수 있다. 이때, 레퍼런스 장치 특성 파라미터 셋은 앞서 설명한 장치 특성 파라미터 중 적어도 어느 하나를 포함할 수 있다. 또한, 오디오 신호 처리 장치는 복수의 레퍼런스 장치 특성 파라미터 셋과 복수의 레퍼런스 장치 특성 파라미터 셋 각각에 해당하는 메타데이터를 포함하는 메타데이터 셋을 수신할 수 있다. 이때, 메타데이터 셋은 레퍼런스 장치 특성 파라미터 셋의 개수를 나타내는 스크린 최적 정보 개수(numScreenOptimizedInfo)를 포함할 수 있다. 스크린 최적 정보 개수는 5비트로 표시될 수 있으며, 최대 32개를 나타낼 수 있다.
오디오 신호 처리 장치는 개인화(personalization) 파라미터를 사용하여 오디오 신호를 바이노럴 렌더링할 수 있다. 이때, 개인화 파라미터는 청자에 따라 설정될 수 있는 파라미터를 나타낼 수 있다. 구체적으로 개인화 파라미터는 HRTF, 신체 정보 및 3D 모델 중 적어도 어느 하나를 포함할 수 있다. 개인화 파라미터는 오디오 신호 렌더링에 영향을 끼치게된다. 따라서 청자가 설정한 개인화 파라미터가 적용되는 경우, 오디오 신호가 포함하는 컨텐츠의 제작자가 의도가 렌더링된 오디오에 반영되지 않을 수 있다. 결과적으로 오디오 신호가 컨텐츠를 통해 전달하고자 하는 컨텐츠 경험이 전달되지 않을 수 있다. 따라서 메타데이터는 개인화 파라미터 적용 여부를 나타내는 개인화 적용 여부 정보를 포함할 수 있다. 오디오 신호 처리 장치는 개인화 적용 여부 정보를 기초로 개인화 파라미터를 적용하여 오디오 신호를 바이노럴 렌더링할지 결정할 수 있다. 개인화 적용 여부 정보가 개인화 파라미터가 적용이 허용되지 않음을 나타내는 경우, 오디오 신호 처리 장치는 개인화 파라미터를 적용하지 않고 오디오 신호를 바이노럴 렌더링할 수 있다.
오디오 신호가 포함하는 컨텐츠의 제작자는 메타데이터를 사용해 오디오 신호 처리 장치의 연산량을 최적화를 유도할 수 있다. 구체적으로 메타데이터는 오디오 신호의 사운드 레벨을 나타내는 사운드 레벨 정보를 포함할 수 있다. 오디오 신호 처리 장치는 사운드 레벨 정보를 기초로 오디오 신호를 해당 오디오 신호가 시뮬레이션하는 음상의 위치를 반영하지 않고 렌더링할 수 있다. 오디오 신호가 시뮬레이션하는 음상의 위치를 반영하지 않고 렌더링하는 것은 바이노럴 렌더딩을 적용하지 않고 오디오 신호를 렌더링하는 것을 포함할 수 있다.
예컨대, 메타데이터는 사운드 레벨이 0임을 나타내는 뮤트 정보를 포함할 수 있다. 이때, 오디오 신호 처리 장치는 뮤트 정보를 기초로 오디오 신호를 해당 오디오 신호가 시뮬레이션하는 음상의 위치를 반영하지 않고 렌더링할 수 있다. 구체적으로 오디오 신호 처리 장치는 뮤트 정보가 사운드 레벨이 0임을 나타내는 오디오 신호를 해당 오디오 신호가 시뮬레이션하는 음상의 위치를 반영하지 않고 렌더링할 수 있다.
또 다른 구체적인 실시 예에서 오디오 신호 처리 장치는 사운드 레벨이 일정 크기 이하인 오디오 신호를 해당 오디오 신호가 시뮬레이션하는 음상의 위치를 반영하지 않고 렌더링할 수 있다.
또 다른 구체적인 실시 예에서 오디오 신호 처리 장치는 제1 시간 구간에 해당하는 오디오 신호의 사운드 레벨과 제2 시간 구간에 해당하는 오디오 신호의 사운드 레벨을 기초로, 제2 시간 구간에 해당하는 오디오 신호가 시뮬레이션하는 음상의 위치를 반영하지 않고 제2 시간 구간에 해당하는 오디오 신호를 렌더링할 수 있다. 이때, 제1 시간 구간은 제2 시간 구간 이전에 위치한 시간 구간이다. 또한, 제1 시간 구간과 제2 시간 구간은 연속한 시간 구간일 수 있다. 구체적으로 오디오 신호 처리 장치는 제1 시간 구간에 해당하는 오디오 신호의 사운드 레벨과 제2 시간 구간에 해당하는 오디오 신호의 사운드 레벨의 차이를 비교하여, 제2 시간 구간에 해당하는 오디오 신호가 시뮬레이션하는 음상의 위치를 반영하지 않고 제2 시간 구간에 해당하는 오디오 신호를 렌더링할 수 있다. 예컨대, 제1 시간 구간에 해당하는 오디오 신호의 사운드 레벨과 제2 시간 구간에 해당하는 오디오 신호의 사운드 레벨의 차이가 지정된 값 이상인 경우, 오디오 신호 처리 장치는 제2 시간 구간에 해당하는 오디오 신호가 시뮬레이션하는 음상의 위치를 반영하지 않고 제2 시간 구간에 해당하는 오디오 신호를 렌더링할 수 있다. 청자가 큰 소리 뒤에 상대적으로 작은 소리를 듣는 경우, 청자는 시간 마스킹 이펙트(temporal masking effect)에 따라 상대적으로 작은 소리를 잘 인지하지 못할 수 있다. 청자가 큰 소리 뒤에 상대적으로 작은 소리를 듣는 경우, 청자는 공간 마스킹 이펙트(spatial masking effect)에 따라 상대적으로 작은 소리를 내는 음원의 위치를 잘 인지하지 못할 수 있다. 따라서 상대적으로 큰 소리 뒤에 들려오는 작은 소리에 입체 음향 재현을 위한 렌더링을 적용해도 청자에게 미치는 영향이 미미할 수 있다. 그러므로 오디오 신호 처리 장치는 연산 효율을 높이기 위해 큰 소리 뒤에 들여오는 작은 소리에 입체 음향 재현을 위한 렌더링을 적용하지 않을 수 있다.
구체적인 실시 예에서 메타데이터는 사운드 레벨을 오디오 트랙, 오디오 소스, 오브젝트, 및 시간 구간 중 적어도 어느 하나로 구분하여 나타낼 수 있다. 앞서 설명한 시간 구간은 오디오 신호의 프레임일 수 있다. 또한, 앞서 설명한 실시 예들에서 오디오 신호 처리 장치는 오디오 신호가 시뮬레이션하는 음상의 위치를 반영하여 렌더링할지가 변경되는지에 따라 페이드 인/페이드 아웃을 적용하여 오디오 신호를 렌더링할 수 있다. 오디오 신호 처리 장치는 이러한 실시 예를 통해 선택적으로 입체 음향 렌더링을 적용함에 따라 렌더링되는 음향이 자연스럽지 못하게 들리는 것을 방지할 수 있다.
또한, 메타데이터는 오디오 신호가 시뮬레이션 음상의 위치에 대한 청자의 움직임을 반영하여 오디오 신호를 렌더링할지 나타내는 움직임 적용 여부 정보를 포함할 수 있다. 오디오 신호 처리 장치는 메타데이터로부터 움직임 적용 여부 정보를 획득할 수 있다. 오디오 신호 처리 장치는 움직임 적용 여부 정보를 기초로 청자의 움직임을 반영하여 오브젝트 신호를 렌더링할지 결정할 수 있다. 구체적으로 메타데이터는 청자의 머리 움직임을 반영하여 오디오 신호를 렌더링할지 나타내는 헤드 트랙킹 적용 여부 정보를 포함할 수 있다. 이때, 오디오 신호 처리 장치는 메타데이터로부터 헤드 트랙킹 적용 여부 정보를 획득할 수 있다. 오디오 신호 처리 장치는 헤드 트랙킹 적용 여부 정보를 기초로 청자의 머리 움직임을 반영하여 오브젝트 신호를 렌더링할지 결정할 수 있다. 오디오 신호 처리 장치는 헤드 트랙킹 적용 여부 정보를 기초로 청자의 머리 움직임을 반영하지않고 오브젝트 신호를 렌더링할 수 있다. 청자의 머리에 붙은 벌과 같이, 청자의 머리 움직임에 따라 함께 움직이는 오브젝트의 경우 오브젝트의 상대적 위치 변화가 일어나지 않거나 매우 적은 변화만 일어날 수 있다. 따라서 오디오 신호 처리 장치는 이러한 오브젝트를 나타내는 오디오 신호에 대해 청자의 머리 움직임을 반영하지하고 해당 오브젝트를 시뮬레이션하는 오디오 신호를 렌더링할 수 있다.
오디오 신호 처리 장치는 앞서 설명한 실시 예들에 따른 메타데이터를 사용하여 연산 효율을 최적화할 수 있다.
도 5 내지 도 8을 통해 메타데이터의 구체적인 구조와 포맷을 설명한다.
도 5는 본 발명의 실시 예에 따른 부가 정보의 분류를 보여준다.
부가 정보는 메타데이터를 포함할 수 있다. 부가 정보는 부가 정보가 시그널링하는 오디오 신호의 시간 구간의 상대적인 길이에 따라 구분될 수 있다. 구체적으로 부가 정보는 부가 정보가 시그널링하는 오디오 신호의 시간 구간의 상대적인 길이에 따라 헤더 파라미터와 메타데이터 파라미터로 구분될 수 있다. 헤더 파라미터는 오디오 신호를 렌더링할 때 자주 변경될 가능성이 적은 파라미터를 포함할 수 있다. 헤더 파라미터가 포함하는 파라미터는 오디오 신호가 포함하는 컨텐츠가 종료되거나 렌더링 구성(configuration)이 변경되기 전까지 동일하게 유지되는 정보일 수 있다. 예컨대, 헤더 파라미터는 앰비소닉 신호의 차수를 포함할 수 있다. 메타데이터 파라미터는 오디오 신호를 렌더링할 때 자주 변경될 가능성이 높은 파라미터를 포함할 수 있다. 예컨대, 메타데이터 파라미터는 오디오 신호가 시뮬레이션하는 오브젝트의 위치에 관한 정보를 포함할 수 있다. 구체적으로 오브젝트의 위치에 관한 정보는 방위각(azimuth), 고도각(elevation), 거리(distance) 중 적어도 어느 하나일 수 있다.
또한, 부가 정보의 타입은 오디오 신호 렌더링을 위한 정보를 포함하는 엘리멘트 파라미터와 오디오 신호 자체에 관한 정보 이외의 정보를 포함하는 제너럴 파라미터로 구분될 수 있다. 구체적으로 제너럴 파라미터는 오디오 신호 자체에 관한 정보를 포함할 수 있다.
헤더 파라미터의 구체적인 구조 및 포맷에 대해서는 도 6 내지 도 7을 통해 설명한다.
도 6은 본 발명의 실시 예에 따른 헤더 파라미터의 구조를 보여준다.
헤더 파라미터는 오디오 신호가 포함하는 구성 성분(component)의 타입 별로 정보를 포함할 수 있다. 구체적으로 헤더 파라미터는 전체 오디오 신호, 앰비소닉 신호, 오브젝트 신호 및 채널 신호 별로 정보를 포함할 수 있다. 구체적으로 전체 오디오 신호를 나타내는 헤더 파라미터는 GAO_HDR이라 지칭될 수 있다.
GAO_HDR은 오디오 신호의 샘플링 레이트에 관한 정보를 포함할 수 있다. 오디오 신호 처리 장치는 샘플링 레이트에 관한 정보를 기준으로 HRTF(Head Related Transfer Function) 또는 BRIR(Binaural Room Impulse Response)에 기반한 필터 계수를 산출할 수 있다. 오디오 신호 처리 장치는 오디오 신호를 바이노럴 렌더링할 때, 샘플링 레이트에 해당하는 필터 계수가 존재하지 않는 경우, 오디오 신호 처리 장치는 오디오 신호를 리샘플림(resampling)하여 필터 계수를 산정할 수 있다. 오디오 신호가 WAV 파일이나 AAC 파일과 같이 샘플링 레이트에 관한 정보를 포함하는 경우, GAO_HDR은 샘플링 레이트에 관한 정보를 포함하지 않을 수 있다.
또한, GAO_HDR은 엘리멘트 메타데이터가 나타내는 프레임 별 길이를 나타내는 정보를 포함할 수 있다. 프레임 별 길이는 음질, 바이노럴 렌더링 알고리즘, 메모리, 연산량 등 여러가지 제약 조건을 기준으로 설정될 수 있다. 프레임 별 길이는 포스트 프로덕션(post-production) 또는 인코딩할 때 설정될 수 있다. 제작자는 프레임 별 길이를 통해 오디오 신호가 바이노럴 렌더링될 때 시간 별(time resolution) 밀도를 조절할 수 있다.
또한, GAO_HDR은 오디오 신호가 포함하는 구성 성분의 타입에 따른 구성 성분의 개수를 포함할 수 있다. 구체적으로 GAO_HDR은 오디오 신호가 포함하는 앰비소닉 신호의 개수, 채널 신호의 개수, 오브젝 오디오 신호의 개수 각각을 포함할 수 있다.
GAO_HDR은 다음의 표가 포함하는 정보 중 적어도 어느 하나를 포함할 수 있다. 이때, GEN은 제너럴 파라미터를 나타내고, ELE은 엘리멘트 파라미터를 나타낸다.
Figure PCTKR2017010564-appb-I000001
GAO_HDR이 나타내는 구성 성분의 타입에 따른 구성 성분의 개수가 1개 이상인 경우, 각 구성 성분에 해당하는 헤더 파라미터가 GAO_HDR과 함께 오디오 신호 처리 장치에 전달될 수 있다. 구체적으로 구성 성분의 타입에 따른 구성 성분의 개수가 1개 이상인 경우, GAO_HDR은 각 구성 성분에 해당하는 헤더 파라미터를 포함할 수 있다. 구체적으로 구성 성분의 타입에 따른 구성 성분의 개수가 1개 이상인 경우, GAO_HDR은 각 구성 성분에 해당하는 헤더 파라미터를 연결하는 링크 정보를 포함할 수 있다.
도 7은 본 발명의 실시 예에 따른 GAO_HDR의 구체적인 포맷을 보여준다.
앰비소닉 신호를 나타내는 헤더 파라미터는 GAO_HOA_HDR이라 지칭될 수 있다. GAO_HOA_HDR는 앰비소닉 신호를 렌더링할 때 사용할 스피커 레이아웃에 관한 정보를 포함할 수 있다. 앞서 설명한 바와 같이 오디오 신호 처리 장치는 앰비소닉 신호를 채널 신호로 변환하고, 변환한 앰비소닉 신호를 바이노럴 렌더링될 수 있다. 이때, 오디오 신호 처리 장치는 스피커 레이아웃에 관한 정보를 기초로 앰비소닉 신호를 채널 신호로 변환할 수 있다. 스피커 레이아웃에 관한 정보는 CICP(Code Independent Coding Point) 인덱스일 수 있다. 스피커 레이아웃에 관한 정보에 의해 스피커 레이아웃이 결정되지 않는 경우, 별도의 파일을 통해 스피커 레이아웃에 관한 정보가 오디오 신호 처리 장치에 전달될 수 있다. 스피커 레이아웃 상에 스피커 수가 줄어들면 바이노럴 렌더링이 필요한 음원의 개수도 줄어든다. 따라서 스피커 레이아웃에 따라 바이노럴 렌더링에 필요한 연산량이 조정될 수 있다.
GAO_HOA_HDR은 오디오 신호 처리 장치가 해당 앰비소닉 신호를 바이노럴 렌더링할 때 사용할 바이노럴 렌더링 모드에 관한 정보를 포함할 수 있다. 오디오 신호 처리 장치는 바이노럴 렌더링 모드를 기초로 해당 앰비소닉 신호를 바이노럴 렌더링할 수 있다. 이때, 바이노럴 렌더링 모드는 채널 렌더링 후 사용자의 머리 움직임을 적용하는 렌더링 모드와 사용자의 머리 움직임을 적용한 후 채널 렌더링을 적용하는 모드 중 어느 하나를 나타낼 수 있다. 이때, 머리 움직임은 머리 회전(head rotation)을 나타낼 수 있다. 구체적으로 오디오 신호 처리장치는 제1 앰비소닉 신호에 머리 움직임에 해당하는 회전 매트릭스를 적용하여 제2 앰비소닉 신호를 생성하고, 제2 앰비소닉 신호를 채널 렌더링할 수 있다. 오디오 신호 처리 장치는 이러한 렌더링 모드를 통해 앰비소닉 신호의 음색이 유지할 수 있다. 또한, 오디오 신호 처리 장치는 제1 앰비소닉 신호를 채널 신호로 변환하고, 머리 움직임에 따라 제1 채널 신호의 스피커 레이아웃을 변경한 후 채널 신호를 바이노럴 렌더링할 수 있다. 오디오 신호 처리 장치는 이러한 렌더링 모드를 통해 앰비소닉 신호가 시뮬레이션하는 음상의 위치를 정교하게 표현할 수 있다. GAO_HOA_HDR가 바이노럴 렌더링 모드에 관한 정보를 포함하는 경우, 제작자는 컨텐츠 특성에 따라 바이노럴 렌더링 모드를 선택할 수 있다. 예컨대, 제작자는 자동차 소리와 같이 광대역의 노이즈와 같은 음향은 앰비소닉 신호를 채널 렌더링한 후 채널 렌더링된 앰비소닉 신호에 머리 움직임을 적용할 수 있다. 자동차 소리의 위치보다는 음색이 중요하기 때문이다. 또한, 대화 소리와 같이 음상의 위치가 중요한 경우, 제작자는 앰비소닉 신호에 머리 움직임을 적용한 후 머리 움직임이 적용된 앰비소닉 신호를 채널 렌더링할 수 있다.
GAO_HOA_HDR는 앰비소닉 신호가 시뮬레이션하는 음상의 위치가 시간 변화에 따라 회전되는지를 나타내는 정보를 포함할 수 있다. 오디오 신호가 시뮬레이션하는 음상의 위치가 시간 변화에 따라 회전되는지를 나타내는 정보는 플래그 형태로 표시될 수 있다. 오디오 신호가 시뮬레이션하는 음상의 위치가 시간 변화에 따라 회전지 않는 경우, 오디오 신호 처리 장치는 최초 획득한 앰비소닉 신호가 시뮬레이션하는 음상의 위치 회전에 대한 정보를 계속 사용할 수 있다.
GAO_HOA_HDR는 앰비소닉 신호가 포함하는 컨텐츠의 언어를 나타내는 정보를 포함할 수 있다. 오디오 신호 처리 장치는 오디오 신호가 포함하는 컨텐츠의 언어를 나타내는 정보를 기초로 앰비소닉 신호를 선태적으로 렌더링할 수 있다.
구체적으로 GAO_HOA_HDR은 다음의 표가 포함하는 정보 중 적어도 어느 하나를 포함할 수 있다.
Figure PCTKR2017010564-appb-I000002
채널 신호를 나타내는 헤더 파라미터러는 GAO_CHN_HDR이라 지칭될 수 있다. GAO_CHN_HDR은 채널 신호의 스피커 레이아웃에 대한 정보를 나타내는 정보를 포함할 수 있다.
GAO_CHN_HDR은 GAO_HOA_HDR이 포함하는 정보를 적어도 어느 하나 포함할 수 있다. 구체적으로 GAO_CHN_HDR은 다음의 표가 포함하는 정보 중 적어도 어느 하나를 포함할 수 있다.
Figure PCTKR2017010564-appb-I000003
채널 신호를 나타내는 헤더 파라미터러는 GAO_OBJ_HDR이라 지칭될 수 있다. GAO_OBJ_HDR은 GAO_HOA_HDR이 포함하는 정보를 적어도 어느 하나 포함할 수 있다. 구체적으로 GAO_OBJ_HDR은 다음의 표가 포함하는 정보 중 적어도 어느 하나를 포함할 수 있다.
Figure PCTKR2017010564-appb-I000004
메타데이터 파라미터의 구체적인 구조 및 포맷에 대해서는 도 8을 통해 설명한다.
도 8은 본 발명의 실시 예에 따른 메타데이터 파라미터의 구조를 보여준다.
메타데이터 파라미터는 오디오 신호가 포함하는 구성 성분의 타입 별로 정보를 포함할 수 있다. 구체적으로 메타데이터 파라미터는 전체 오디오 신호, 앰비소닉 신호, 오브젝트 신호 및 채널 신호 별로 정보를 포함할 수 있다. 이때, 전체 오디오 신호를 나타내는 메타데이터 파라미터는 GAO_META라 지칭될 수 있다.
GAO_META가 나타내는 구성 성분의 타입에 따른 구성 성분의 개수가 1개 이상인 경우, 각 구성 성분에 해당하는 메타데이터 파라미터가 GAO_META와 함께 오디오 신호 처리 장치에 전달될 수 있다. 구체적으로 구성 성분의 타입에 따른 구성 성분의 개수가 1개 이상인 경우, GAO_META는 각 구성 성분에 해당하는 메타데이터 파라미터를 포함할 수 있다. 구체적으로 구성 성분의 타입에 따른 구성 성분의 개수가 1개 이상인 경우, GAO_META는 각 구성 성분에 해당하는 메타데이터 파라미터를 연결하는 링크 정보를 포함할 수 있다.
Figure PCTKR2017010564-appb-I000005
오브젝트 신호를 나타내는 메타데이터 파라미터는 GAO_META_ OBJ라 지칭될 수 있다. GAO_META_OBJ는 앞서 설명한 헤드 트랙킹 적용 여부 정보를 포함할 수 있다. 이때, 오디오 신호 처리 장치는 GAO_META_OBJ로부터 헤드 트랙킹 적용 여부 정보를 렌더링할지 나타내는 정보를 획득할 수 있다. 오디오 신호 처리 장치는 헤드 트랙킹 적용 여부 정보를 기초로 청자의 머리 움직임을 반영하여 오브젝트 신호를 렌더링할지 결정할 수 있다.
GAO_META_OBJ는 앞서 설명한 바이노럴 효과 세기 정보를 포함할 수 있다. 이때, 오디오 신호 처리 장치는 GAO_META_OBJ로부터 바이노럴 효과 세기 정보를 나타내는 정보를 획득할 수 있다. 또한, 오디오 신호 처리 장치는 바이노럴 효과 세기 정보를 기초로 오브젝트 신호에 적용할 바이노럴 렌더링 적용 강도를 결정할 수 있다. 구체적으로 오디오 신호 처리 장치는 바이노럴 효과 세기 정보를 기초로 오브젝트 신호를 바이노럴 렌더링할지 결정할 수 있다.
GAO_META_OBJ는 앞서 설명한 사운드 레벨 정보를 포함할 수 있다. 이때, 오디오 신호 처리 장치는 GAO_META_OBJ로부터 사운드 레벨 정보를 획득할 수 있다. 또한, 오디오 신호 처리 장치는 사운드 레벨 정보를 기초로 오브젝트 신호가 시뮬레이션하는 음상의 위치를 반영하여 렌더링할지 결정할 수 있다. 구체적으로 오디오 신호 처리 장치는 사운드 레벨 정보를 기초로 오브젝트 신호를 바이노럴 렌더링할지 결정할 수 있다.
구체적으로 GAO_META_OBJ는 다음의 표에 나타난 정보 중 적어도 어느 하나를 포함할 수 있다.
Figure PCTKR2017010564-appb-I000006
GAO_META_CHN과 GAO_META_HOA는 앞서 설명한 바이노럴 효과 세기 정보를 포함할 수 있다. 이때, 오디오 신호 처리 장치는 GAO_META_CHN 또는 GAO_META_HOA로부터 바이노럴 효과 세기 정보를 나타내는 정보를 획득할 수 있다. 또한, 오디오 신호 처리 장치는 바이노럴 효과 세기 정보를 기초로 채널 신호에 적용할 바이노럴 렌더링 적용 강도를 결정할 수 있다. 구체적으로 오디오 신호 처리 장치는 바이노럴 효과 세기 정보를 기초로 채널 신호를 바이노럴 렌더링할지 결정할 수 있다. 또한, 오디오 신호 처리 장치는 바이노럴 효과 세기 정보를 기초로 앰비소닉 신호에 적용할 바이노럴 렌더링 적용 강도를 결정할 수 있다. 구체적으로 오디오 신호 처리 장치는 바이노럴 효과 세기 정보를 기초로 앰비소닉 신호를 바이노럴 렌더링할지 결정할 수 있다.
GAO_META_CHN과 GAO_META_HOA는 앞서 설명한 사운드 레벨 정보를 포함할 수 있다. 이때, 오디오 신호 처리 장치는 GAO_META_CHN 또는 GAO_META_HOA로부터 사운드 레벨 정보를 획득할 수 있다. 또한, 오디오 신호 처리 장치는 사운드 레벨 정보를 기초로 채널 신호가 시뮬레이션하는 음상의 위치를 반영하여 렌더링할지 결정할 수 있다. 구체적으로 오디오 신호 처리 장치는 사운드 레벨 정보를 기초로 채널 신호를 바이노럴 렌더링할지 결정할 수 있다. 또한, 오디오 신호 처리 장치는 사운드 레벨 정보를 기초로 앰비소닉 신호가 시뮬레이션하는 음상의 위치를 반영하여 렌더링할지 결정할 수 있다. 구체적으로 오디오 신호 처리 장치는 사운드 레벨 정보를 기초로 앰비소닉 신호를 바이노럴 렌더링할지 결정할 수 있다.
GAO_META_CHN과 GAO_META_OBJ는 동일한 종류의 파라미터를 포함할 수 있다. 또한, 구체적인 실시 예에 따라 GAO_META_CHN과 GAO_META_OBJ는 서로 다른 종류의 파라미터를 포함할 수 있다. 구체적으로 GAO_META_CHN과 GAO_META_OBJ는 다음의 표에 나타난 정보 중 적어도 어느 하나를 포함할 수 있다.
Figure PCTKR2017010564-appb-I000007
오디오 신호는 파일 형태로 오디오 신호 처리 장치에게 전달될 수 있다. 또한, 오디오 신호는 스트리밍을 통해 오디오 신호 처리 장치에게 전달될 수 있다. 또한, 오디오 신호는 방송 신호를 통해 오디오 신호 처리 장치에게 전달될 수 있다. 오디오 신호의 전달 형태에 따라 메타데이터의 전달 방법도 달라질 수 있다. 이에 대해서는 도 9 내지 도 12를 통해 설명한다.
도 9는 본 발명의 일 실시 예에 따른 오디오 신호 처리 장치가 오디오 신호와 별도로 메타데이터를 획득하는 동작을 보여준다.
오디오 신호를 전달하기 위해 오디오 신호를 처리하는 오디오 신호 처리 장치는 오디오 신호를 인코딩한 오디오 비트스트림과 별도로 메타데이터를 오디오 신호 처리 장치에 전달할 수 있다. 따라서 오디오 신호를 렌더링하는 오디오 신호 처리 장치는 메타데이터를 오디오 신호와 별도로 획득할 수 있다. 구체적으로 오디오 신호를 렌더링하는 오디오 신호 처리 장치는 메타데이터를 오디오 신호와 다른 전송 파일 또는 다른 전송 스트림으로부터 획득할 수 있다. 구체적인 실시 예에서 오디오 신호를 렌더링하는 오디오 신호 처리 장치는 전송 스트림 또는 전송 파일을 제1 링크를 통해 수신하고, 메타데이터를 제2 링크를 통해 수신할 수 있다. 이때, 전송 파일 또는 전송 스트림은 오디오 신호를 인코딩한 오디오 비트스트림을 포함하거나 오디오 신호를 인코딩한 오디오 비트스트림과 비디오 신호를 인코딩한 비디오 비트스트림을 모두 포함할 수 있다.
도 9의 실시 예는 오디오 신호 처리 장치를 포함하는 영상 신호 처리 장치를 보여준다. 영상 신호 처리 장치는 제1 링크(URL1)를 통해 오디오 신호와 비디오 신호를 포함하는 전송 스트림(transport stream)을 수신한다. 영상 신호 처리 장치는 제2 링크(ULR2)로부터 메타데이터(metadata)를 수신한다. 영상 신호 처리 장치는 전송 스트림(transport stream)을 디먹싱하여 오디오 비트스트림(A)과 비디오 비트스트림(V)을 추출한다. 오디오 신호 처리 장치의 디코더(Audio Decoder)는 오디오 비트스트림(A)을 디코드하여 오디오 신호(audio signal)를 획득한다. 오디오 신호 처리 장치의 오디오 렌더러(Audio Renderer)는 오디오 신호(audio signal)와 메타데이터(metadata)를 수신한다. 이때, 오디오 신호 처리 장치의 렌더러(Audio Renderer)는 메타데이터 인더페이스(Metadata Interface)를 사용하여 메타데이터(metadata)를 수신할 수 있다. 또한, 오디오 신호 처리 장치의 렌더러(Audio Renderer)는 메타데이터(metadata)를 기초로 오디오 신호(audio singnal)를 렌더링한다. 오디오 렌더러는 메타데이터를 처리하는 모듈(G-format)과 오디오 신호를 처리하는 모듈(G-core)을 포함할 수 있다. 또한, 오디오 렌더러(Audio Renderer)는 영상 신호 처리 장치 사용자의 머리 움직임을 기초로 오디오 신호(audio signal)를 렌더링할 수 있다. 영상 신호 처리 장치는 렌더링된 오디오와 렌더링된 비디오를 함께 출력한다. 또한, 비디오 렌더러는 비디오 신호(video signal)를 렌더링한다. 이때, 비디오 렌더러는 영상 신호 처리 장치 사용자의 머리 움직임을 기초로 비디오 신호(video signal)를 렌더링할 수 있다. 또한, 영상 신호 처리 장치는 제어부(Controller)를 사용해 사용자 입력을 수신할 수 있다. 또한, 제어부(Controller)는 디먹스(Demux)와 메타데이터 인터페이스(Metadata Interface)의 동작을 제어할 수 있다. 도 9의 실시 예에서 실선으로 표신된 부분은 도 9의 실시 예에 따른 오디오 신호 처리 장치가 포함하는 모듈을 보여준다. 또한, 점선으로 표시된 부분은 영상 신호 처리 장치가 포함하는 모듈로 생략되거나 대체 가능하다.
도 10은 본 발명의 일 실시 예에 따라 오디오 신호를 렌더링하는 오디오 신호 처리 장치가 오디오 신호와 함께 메타데이터를 획득하는 동작을 보여준다.
오디오 신호를 전달하기 위해 오디오 신호를 처리하는 오디오 신호 처리 장치는 오디오 신호를 인코딩한 오디오 비트스트림과 함께 메타데이터를 전달할 수 있다. 오디오 신호를 렌더링하는 오디오 신호 처리 장치는 메타데이터를 오디오 신호와 함께 획득할 수 있다. 구체적으로 오디오 신호를 렌더링하는 오디오 신호 처리 장치는 동일한 전송 파일 또는 전송 스트림으로부터 메타데이터와 오디오 신호를 함께 획득할 수 있다. 이때, 전송 파일 또는 전송 스트림은 오디오 신호를 인코딩한 오디오 비트스트림과 메타데이터를 포함하거나, 오디오 신호를 인코딩한 오디오 비트스트림, 비디오 신호를 인코딩한 비디오 비트스트림 및 메타데이터를 모두 포함할 수 있다. 예컨대, 전송 파일의 사용자 데이터 필드는 메타데이터를 포함할 수 있다. 구체적으로 전송 파일이 mp4인 경우, mp4의 사용자 데이터 필드인 UTDA는 메타데이터를 포함할 수 있다. 또 다른 구체적인 실시 예에서 전송 파일이 mp4인 경우, mp4의 개별 박스(box) 또는 엘리멘트가 메타데이터를 포함할 수 있다.
도 10의 실시 예는 오디오 신호 처리 장치를 포함하는 영상 신호 처리 장치를 보여준다. 영상 신호 처리 장치는 제1 링크(URL1)를 통해 오디오 신호, 비디오 신호, 메타데이터를 포함하는 전송 스트림(transport stream)을 수신한다. 영상 신호 처리 장치는 전송 스트림을 파싱하여 메타데이터(metadata)를 추출한다. 이때, 영상 신호 처리 장치는 파서(Parser)를 사용하여 전송 스트림을 파싱할 수 있다. 영상 신호 처리 장치는 전송 스트림(transport stream)을 디먹싱하여 오디오 신호(audio signal)와 비디오 신호(video signal)를 추출한다. 오디오 신호 처리 장치의 디코더(Audio Decoder)는 디먹스된 오디오 신호(A)를 디코드한다. 오디오 신호 처리 장치의 오디오 렌더러(Audio Renderer)는 디코드된 오디오 신호(decoded audio signal)와 메타데이터(metadata)를 수신한다. 이때, 오디오 신호 처리 장치의 렌더러(Audio Renderer)는 메타데이터 인더페이스(Metadata Interface)를 사용하여 메타데이터(metadata)를 수신할 수 있다. 또한, 오디오 신호 처리 장치의 렌더러(Audio Renderer)는 메타데이터(Metadata)를 기초로 디코드된 오디오 신호(decoded audio singnal)를 렌더링한다. 오디오 신호 처리 장치와 영상 신호 처리 장치의 다른 동작은 도 9를 통해 설명한 실시 예와 동일할 수 있다.
도 11은 본 발명의 일 실시 예에 따라 오디오 신호를 렌더링하는 오디오 신호 처리 장치가 오디오 신호와 메타데이터를 링크하는 링크 정보를 함께 획득하는 동작을 보여준다.
오디오 신호를 전달하기 위해 오디오 신호를 처리하는 오디오 신호 처리 장치는 전송 스트림 또는 전송 파일을 통해 메타데이터를 링크하는 링크 정보를 전송할 수 있다. 따라서 오디오 신호를 렌더링하는 오디오 신호 처리 장치는 전송 스트림 또는 전송 파일로부터 메타데이터를 링크하는 링크 정보를 획득하고, 링크 정보를 사용해 메타데이터를 획득할 수 있다. 이때, 전송 파일 또는 전송 스트림은 오디오 신호를 인코딩한 비트스트림을 포함하거나, 오디오 신호를 인코딩한 비트스트림과 비디오 신호를 인코딩한 비트스트림을 모두 포함할 수 있다. 예컨대, 전송 파일의 사용자 데이터 필드가 메타데이터를 링크하는 링크 정보를 포함할 수 있다. 전송 파일이 mp4인 경우, mp4의 사용자 데이터 필드인 UTDA는 메타데이터를 링크하는 링크 정보를 포함할 수 있다. 또 다른 구체적인 실시 예에서 전송 파일이 mp4인 경우, mp4의 개별 박스(box) 또는 엘리멘트가 메타데이터를 링크하는 링크 정보를 포함할 수 있다. 오디오 신호를 렌더링하는 오디오 신호 처리 장치는 링크를 정보를 사용해 획득된 메타데이터를 수신할 수 있다.
도 11의 실시 예는 오디오 신호 처리 장치를 포함하는 영상 신호 처리 장치를 보여준다. 영상 신호 처리 장치는 제1 링크(URL1)를 통해 오디오 신호, 비디오 신호, 메타데이터를 링크하는 링크 정보를 포함하는 전송 스트림(transport stream)을 수신한다. 영상 신호 처리 장치는 전송 스트림(transport stream)을 디먹싱하여 오디오 비트스트림(A), 비디오 비트스트림(V) 및 메타데이터를 링크하는 링크 정보를 추출한다. 오디오 신호 처리 장치의 디코더(Audio Decoder)는 오디오 비트스트림(A)를 디코드하여 오디오 신호를 획득한다. 오디오 신호 처리 장치의 렌더러(Audio Renderer)는 메타데이터 인더페이스(Metadata Interface)를 사용하여 링크 정보가 지시하는 제2 링크(ULR2)로부터 메타데이터(metadata)를 수신한다. 오디오 신호 처리 장치의 오디오 렌더러(Audio Renderer)는 오디오 신호(audio signal)와 메타데이터(metadata)를 수신한다. 또한, 오디오 신호 처리 장치의 렌더러(Audio Renderer)는 메타데이터(metadata)를 기초로 오디오 신호(audio singnal)를 렌더링한다. 오디오 신호 처리 장치와 영상 신호 처리 장치의 다른 동작은 도 9를 통해 설명한 실시 예와 동일할 수 있다.
도 12 내지 도 13은 본 발명의 일 실시 예에 따라 오디오 신호를 렌더링하는 오디오 신호 처리 장치가 오디오 비트스트림을 기초로 메타데이터를 획득하는 동작을 보여준다.
오디오 신호를 전달하기 위해 오디오 신호를 처리하는 오디오 신호 처리 장치는 오디오 비트스트림에 메타데이터를 삽입할 수 있다. 따라서 오디오 신호를 렌더링하는 오디오 신호 처리 장치는 오디오 비트스트림으로부터 메타데이터를 획득할 수 있다. 구체적으로 오디오 비트스트림의 사용자 데이터 필드는 메타데이터를 포함할 수 있다. 이에 따라 오디오 신호를 렌더링하는 오디오 신호 처리 장치는 오디오 비트스트림으로부터 메타데이터를 파싱하는 파서를 포함할 수 있다. 또 다른 구체적인 실시 예에서 오디오 신호 처리 장치의 디코더는 오디오 비트스트림으로부터 메타데이터를 획득할 수 있다.
도 12의 실시 예에서 오디오 신호 처리 장치의 파서(Parser)는 오디오 비트스트림으로부터 메타데이터를 획득한다. 오디오 신호 처리 장치의 렌더러(Audio Renderer)는 파서(Parser)로부터 메타데이터를 수신한다. 도 13의 실시 예에서 오디오 신호 처리 장치의 디코더(Audio Decoder)는 오디오 비트스트림으로부터 메타데이터를 획득한다. 오디오 신호 처리 장치의 렌더러(Audio Renderer)는 오디오 신호 처리 장치의 디코더(Audio Decoder)로부터 메타데이터를 수신한다. 도 12 내지 도 13의 실시 예에서 오디오 신호 처리 장치와 영상 신호 처리 장치의 다른 동작은 도 9를 통해 설명한 실시 예와 동일할 수 있다.
오디오 신호 처리 장치가 스트리밍을 통해 오디오 신호를 수신하는 경우, 오디오 신호 처리 장치는 스트리밍 중간부터 오디오 신호를 수신할 수도 있다. 따라서 오디오 신호를 렌더링하기 위해 필요한 정보들은 주기적으로 전송되어야 한다. 이에 대해서 도 14 내지 도 16을 통해 설명한다.
도 14는 본 발명의 일 실시 예에 따른 오디오 신호 처리 장치가 전송 스트리밍을 통해 오디오 신호를 수신할 때, 오디오 신호 처리 장기가 메타데이터를 획득하는 방법을 보여준다.
오디오 신호를 전달하기 위해 오디오 신호를 처리하는 오디오 신호 처리 장치는 멀티미디어 스트림에 메타데이터를 주기적으로 삽입할 수 있다. 이때, 오디오 신호를 전달하기 위해 오디오 신호를 처리하는 오디오 신호 처리 장치는 멀티미디어 스트림에 프레임 단위로 메타데이터를 삽입할 수 있다. 구체적인 실시 예에서 오디오 신호를 전달하기 위해 오디오 신호를 처리하는 오디오 신호 처리 장치는 멀티미디어 스트림에 앞서 설명한 헤더 파라미터와 메타데이터 파라미터를 주기적으로 삽입할 수 있다. 이때, 오디오 신호를 전달하기 위해 오디오 신호를 처리하는 오디오 신호 처리 장치는 멀티미디어 스트림에 헤더 파라미터를 메타데이터 파라미터보다 더 큰 주기로 삽입할 수 있다. 구체적으로 프레임에 포함된 메타데이터 파라미터의 길이가 다른 프레임에 포함된 메타데이터 파라미터의 길이보다 작은 경우, 오디오 신호를 전달하기 위해 오디오 신호를 처리하는 오디오 신호 처리 장치는 해당 프레임에 헤더 파라미터를 삽입할 수 있다.
따라서 오디오 신호를 렌더링하는 오디오 신호 처리 장치는 멀티미디어 스트림으로부터 주기적으로 메타데이터를 획득할 수 있다. 구체적으로 오디오 신호를 렌더링하는 오디오 신호 처리 장치는 멀티미디어 스트림으로부터 프레임 단위로 메타데이터를 획득할 수 있다. 오디오 신호를 렌더링하는 오디오 신호 처리 장치가 프레임 단위로 메타데이터를 획득하는 경우, 오디오 신호를 렌더링하는 오디오 신호 처리 장치는 메타데이터와 오디오 신호의 동기를 맞추기 위해 오디오 신호와 메타데이터를 다시 패킹(Packing)하지 않아도 된다. 또한, 오디오 신호를 렌더링하는 오디오 신호 처리 장치는 메타데이터와 오디오 신호를 효율적으로 관리할 수 있다. 메타데이터의 구체적인 신택스에 대해서는 도 15 내지 도 16을 통해 설명한다.
도 15 내지 도 16은 본 발명의 실시 예에 따른 AAC 파일의 신택스를 보여준다. 구체적으로 도 15(a)는 본 발명의 실시 예에 따른 오디오 신호 처리 장치가 AAC 파일이 포함하는 엘리멘트의 ID를 판단하는 신택스를 보여준다. 도 15(b)와 도 15(c)는 본 발명의 실시 예에 따른 오디오 신호 처리 장치의 데이터 스트림 엘리멘트 파싱 동작 신택스를 보여준다.
앞서 설명한 바와 같이 멀티미디어 스트림은 프레임 단위로 메타데이터를 포함할 수 있다. 구체적으로 AAC 파일이 스트밍을 통해 전송되는 경우, 도 15 내지 도 16과 같은 신택스를 가질 수 있다. 오디오 신호 처리 장치는 AAC 파일이 포함하는 엘리멘트의 ID가 데이터 스트림 엘리멘트(ID_DSE)를 나타내는지 판단한할 수 있다. AAC 파일이 포함하는 엘리멘트의 ID가 데이터 스트림 엘리멘트(ID_DSE)를 나타내는 경우, 오디오 신호 처리 장치는 데이터 스트림 엘리멘트 파싱 동작(GaoReadDSE)을 수행한다.
도 16(a)는 앞서 설명한 헤더 파라미터의 신택스를 보여준다. 도 16(b)는 앞서 설명한 메타데이터 파라미터의 신택스를 보여준다. 또한, 오디오 신호 처리 장치는 헤더 파라미터를 파싱(GaoReadDSEHDR)하고 메타데이터 파라미터를 파싱(GaoReadDSEMeta)한다.
본 발명의 실시 예를 지원하지 않는 레거시 오디오 신호 처리 장치가 디코딩/렌더링할 수 있는 채널의 수가 본 발명의 실시 예에 따른 오디오 신호 처리 장치가 디코딩/렌더링할 수 있는 채널의 수보다 작을 수 있다. 또한, 레거시 오디오 파일 포맷 또한 오디오 신호 처리 장치가 디코딩/렌더링할 수 있는 채널 수보다 작은 채널 수의 오디오 신호만을 포함할 수 있다. 따라서 레거시 오디오 파일 포맷을 통해 본 발명의 실시 예에 따른 오디오 신호 처리 장치를 위한 오디오 신호를 전송하는 것이 어려울 수 있다. 또한, 새로운 파일 포맷을 사용하는 경우, 레거시 오디오 신호 처리 장치와의 호환성이 문제될 수 있다. 따라서 레거시 오디오 파일 포맷을 이용하는 오디오 신호 처리 방법에 대해서는 도 17을 통해 설명한다.
도 17은 본 발명의 실시 예에 따라 오디오 신호가 포함하는 채널 수의 합보다 작은 수의 채널을 지원하는 오디오 파일 포맷을 이용하는 오디오 신호 처리 방법을 보여준다.
오디오 파일이 복수의 컨텐츠를 포함하는 경우, 오디오 파일은 복수의 트랙을 포함할 수 있다. 예컨대, 하나의 오디오 파일은 동일한 영화의 대사를 서로 다른 언어로 녹음된 복수의 트랙을 포함할 수 있다. 또한, 오디오 파일은 서로 다른 음악을 포함하는 복수의 트랙을 포함할 수 있다. 오디오 신호를 전달하기 위해 오디오 신호를 처리하는 오디오 신호 처리 장치는 오디오 파일의 트랙을 이용하여 오디오 파일이 지원하는 채널 수보다 더 많은 채널을 갖는 오디오 신호를 오디오 파일로 인코딩할 수 있다.
구체적으로 오디오 신호를 전달하기 위해 오디오 신호를 처리하는 오디오 신호 처리 장치는 오디오 신호의 복수의 오디오 신호 성분(component)을 오디오 파일이 포함하는 복수의 트랙에 나누어 삽입할 수 있다. 이때, 복수의 신호 성분은 오브젝트 신호, 채널 신호 및 앰비소닉 신호 중 적어도 어느 하나일 수 있다. 또한, 오디오 파일의 각 트랙은 복수의 신호 성분의 채널 수의 합보다 작은 수의 채널만을 지원할 수 있다. 또한, 오디오 파일의 각 트랙에 포함되는 신호 성분의 채널 수는 오디오 파일의 각 트랙이 지원하는 채널 수보다 작을 수 있다. 구체적으로 오디오 신호가 제1 신호 성분과 제2 신호 성분을 포함할 때, 오디오 신호를 전달하기 위해 오디오 신호를 처리하는 오디오 신호 처리 장치는 포맷의 제1 트랙에 오디오 파일이 지원하는 채널 수를 지원하는 제1 신호 성분을 삽입하고, 오디오 파일의 제2 트랙에 제2 신호 성분을 삽입할 수 있다. 앞서 설명한 바와 같이 제1 트랙은 미리 지정된 트랙일 수 있다. 또한, 제1 신호 성분은 오디오 신호가 시뮬레이션하는 음상의 위치를 표현하기 위한 메타데이터 없이 렌더링될 수 있는 오디오 신호 성분일 수 있다. 구체적으로 제1 신호 성분은 바이노럴 렌더링을 위한 메타데이터 없이 렌더링될 수 있는 오디오 신호 성분일 수 있다. 또한, 오디오 신호를 전달하기 위해 오디오 신호를 처리하는 오디오 신호 처리 장치는 미리 지정된 트랙 순서에 따라 제1 신호 성분 이외의 신호 성분을 삽입할 수 있다. 또 다른 구체적인 실시 예에서 오디오 신호를 전달하기 위해 오디오 신호를 처리하는 오디오 신호 처리 장치는 제1 트랙에 메타데이터를 삽입할 수 있다. 이때, 메타데이터는 제1 신호 성분 이외의 신호 성분이 포함된 트랙을 지시할 수 있다. 또한, 메타데이터는 오디오 신호를 렌더링하는데 사용될 수 있다. 구체적으로 메타데이터는 도 3 내지 도 8을 통해 설명한 메타데이터일 수 있다.
오디오 신호를 렌더링하는 오디오 신호 처리 장치는 오디오 파일이 포함하는 복수의 트랙에 포함된 오디오 신호 성분을 동시에 렌더링할 수 있다. 이때, 복수의 오디오 신호 성분은 오브젝트 신호, 채널 신호 및 앰비소닉 신호 중 적어도 어느 하나일 수 있다. 또한, 앞서 설명한 것과 같이 오디오 파일의 각 트랙은 복수의 오디오 신호 성분의 채널 수의 합보다 작은 수의 채널을 지원할 수 있다. 구체적으로 오디오 신호를 렌더링하는 오디오 신호 처리 장치는 오디오 파일의 제1 트랙에 포함된 제1 오디오 신호 성분과 제2 트랙에 포함된 제2 오디오 성분을 함께 렌더링할 수 있다. 이때, 제1 트랙은 앞서 설명한 바와 같이 복수의 트랙 중 미리 지정된 위치의 트랙일 수 있다. 예컨대, 제1 트랙은 오디오 파일의 복수의 트랙 중 첫 번째 트랙일 수 있다. 이때, 오디오 신호를 렌더링하는 오디오 신호 처리 장치는 오디오 파일의 복수의 트랙이 오디오 신호 성분을 포함하는지 미리 지정된 트랙 순서로 확인할 수 있다. 또 다른 구체적인 실시 예에서 오디오 신호를 렌더링하는 오디오 신호 처리 장치는 제1 트랙으로부터 메타데이터를 획득하고, 획득한 메타데이터를 기초로 오디오 성분을 획득할 수 있다. 구체적으로 오디오 신호를 렌더링하는 오디오 신호 처리 장치는 획득한 메타데이터를 기초로 오디오 신호 성분을 포함하는 트랙을 판단할 수 있다. 또한, 오디오 신호를 렌더링하는 오디오 신호 처리 장치는 제1 트랙으로부터 메타데이터를 획득하고, 메타데이터를 기초로 오디오 신호 성분을 렌더링할 수 있다. 구체적으로 메타데이터는 도 3 내지 도 8을 통해 설명한 메타데이터일 수 있다.
또한, 오디오 신호를 렌더링하는 오디오 신호 처리 장치는 오디오 신호 처리 장치의 능력(capability)에 따라 오디오 파일이 포함하는 복수의 트랙을 선택하고, 선택한 복수의 트랙을 렌더링할 수 있다. 구체적으로 오디오 신호를 렌더링하는 오디오 신호 처리 장치는 복수의 트랙 각각이 포함하는 오디오 성분의 특징 및 오디오 신호 처리 장치의 능력에 따라 복수의 트랙을 선택할 수 있다. 앞서 설명한 실시 예에서 오디오 신호를 렌더링하는 오디오 신호 처리 장치는 오디오 신호 처리 장치의 능력에 따라 제1 오디오 신호 성분과 제2 오디오 신호 성분을 선택할 수 있다.
도 17의 실시 예에서, 오디오 신호를 전달하기 위해 오디오 신호를 처리하는 오디오 신호 처리 장치는 도 17(a)와 같이 FOA 신호와 메타데이터를 하나의 트랙으로 인코딩한다. 도 17의 실시 예에서 오디오 신호를 렌더링하는 오디오 신호 처리 장치는 도 17(b)의 MP4 파일이 포함하는 AAC 파일을 생성할 수 있다. 구체적으로 오디오 신호를 전달하기 위해 오디오 신호를 처리하는 오디오 신호 처리 장치는 제1 앰비소닉 신호(FOA)와 메타데이터를 AAC 파일의 제1 트랙(TRK0)에 삽입한다. 오디오 신호를 전달하기 위해 오디오 신호를 처리하는 오디오 신호 처리 장치는 제1 오브젝트 신호(OBJ0)와 제2 오브젝트 신호(OBJ1)를 AAC 파일의 제2 트랙(TRK1)에 삽입한다. 또한, 오디오 신호를 전달하기 위해 오디오 신호를 처리하는 오디오 신호 처리 장치는 제3 오브젝트 신호(OBJ2)와 제4 오브젝트 신호(OBJ3)를 AAC 파일의 제3 트랙(TRK2)에 삽입한다. 또한, 오디오 신호를 전달하기 위해 오디오 신호를 처리하는 오디오 신호 처리 장치는 제5 오브젝트 신호(OBJ4)와 제6 오브젝트 신호(OBJ5)를 AAC 파일의 제4 트랙(TRK3)에 삽입한다. 또한, 오디오 신호를 전달하기 위해 오디오 신호를 처리하는 오디오 신호 처리 장치는 제7 오브젝트 신호(OBJ6)와 제8 오브젝트 신호(OBJ7)를 AAC 파일의 제5 트랙(TRK4)에 삽입한다. 또한, 오디오 신호를 전달하기 위해 오디오 신호를 처리하는 오디오 신호 처리 장치는 제2 앰비소닉 신호(FOA1)를 AAC 파일의 제6 트랙(TRK5)에 삽입한다. 이때, 제2 앰비소닉 신호(FOA1)는 4개의 채널을 포함하는 1차 앰비소닉 신호이다. 또한, 오디오 신호를 전달하기 위해 오디오 신호를 처리하는 오디오 신호 처리 장치는 제3 앰비소닉 신호(HOA2)를 AAC 파일의 제7 트랙(TRK6)에 삽입한다. 제3 앰비소닉 신호(HOA2) 앰비소닉 신호는 5채널을 포함하고, 제2 앰비소닉 신호(HOA1)와 제3 앰비소닉 신호(HOA2)는 2차 앰비소닉 신호를 구성한다. 또한, 오디오 신호를 전달하기 위해 오디오 신호를 처리하는 오디오 신호 처리 장치는 제4 앰비소닉 신호(HOA3)를 AAC 파일의 제8 트랙(TRK7)에 삽입한다. 제4 앰비소닉 신호(HOA2) 앰비소닉 신호는 7채널을 포함하고, 제2 앰비소닉 신호(FOA1), 제3 앰비소닉 신호(HOA2) 및 제4 앰비소닉 신호(HOA3)는 3차 앰비소닉 신호를 구성한다.
도 17(c)의 실시 예에서 오디오 신호를 렌더링하는 오디오 신호 처리 장치의 디코더(Decoder)는 AAC 파일의 트랙이 포함하는 오디오 신호를 디코딩한다. 이때, 오디오 신호를 렌더링하는 오디오 신호 처리 장치의 디코더(Decoder)는 AAC 파일의 제1 트랙(TRK0)에 포함된 메타데이터(Meta)를 디코딩하지 아니한다. 앞서 설명한 바와 같이 오디오 신호를 렌더링하는 오디오 신호 처리 장치는 메타데이터(Meta)를 기초로 오디오 신호 성분을 포함하는 AAC 파일의 트랙을 판단하여, AAC 파일의 트랙이 포함하는 오디오 신호를 디코딩할 수 있다. 도 17(d)의 실시 예에서 오디오 신호를 렌더링하는 오디오 신호 처리 장치의 렌더러(Renderer)는 AAC 파일의 트랙이 포함하는 오디오 신호 성분(OBJ/HOA/CHN Audio)을 메타데이터(OBJ/HOA/CHN Metadata)를 기초로 렌더링할 수 있다. 특히, 오디오 신호를 렌더링하는 오디오 신호 처리 장치는 복수의 트랙을 오디오 신호 처리 장치의 능력(capability)에 따라 선택적으로 렌더링할 수 있다. 예컨대, 4개의 채널을 포함하는 신호를 렌더링할 수 있는 오디오 신호 처리 장치는 제2 앰비소닉 신호(FOA1)를 렌더링할 수 있다. 이때, 9개의 채널을 포함하는 신호를 렌더링할 수 있는 오디오 신호 처리 장치는 제2 앰비소닉 신호(FOA1)와 제3 앰비소닉 신호(HOA2)를 동시에 렌더링할 수 있다. 또한, 16개의 채널을 포함하는 신호를 렌더링할 수 있는 오디오 신호 처리 장치는 제2 앰비소닉 신호(FOA1), 제3 앰비소닉 신호(HOA2) 및 제4 앰비소닉 신호(HOA3)를 동시에 렌더링할 수 있다.
이러한 실시 예를 통해, 오디오 신호를 렌더링하는 오디오 신호 처리 장치는 오디오 파일 포맷의 개별이 트랙이 지원하는 채널 수보다 많은 채널 수를 포함하는 오디오 신호를 렌더링할 수 있다. 또한, 서로 다른 개수의 채널 디코딩/렌더링을 지원하는 오디오 신호 처리 장치 간의 호환성을 확보할 수 있다.
도 18은 본 발명의 일 실시 예에 따라 오디오 신호를 전달하기 위해 오디오 신호를 처리하는 오디오 신호 처리 장치를 보여주는 블락도이다.
본 발명의 일 실시 예에 따라 오디오 신호를 전달하기 위해 오디오 신호를 처리하는 오디오 신호 처리 장치(300)는 수신부(310), 프로세서(330) 및 출력부(370)를 포함한다.
수신부(10)는 입력 오디오 신호를 수신한다. 이때, 오디오 신호는 음향 수집장치가 수신한 음향이 변환된 것일 수 있다. 음향 수집 장치는 마이크일 수 있다. 또한, 음향 수집 장치는 복수의 마이크를 포함하는 마이크 어레이일 수 있다.
프로세서(30)는 수신부(10)가 수신한 입력 오디오 신호를 인코딩하여 비트스트림을 생성하고 오디오 신호에 대한 메타데이터를 생성한다. 구체적으로 프로세서(30)는 포맷 컨버터 및 메타데이터 생성부를 포함할 수 있다. 포맷 컨버터는 입력 오디오 신호의 포맷을 다른 포맷으로 변환한다. 구체적으로 포맷 컨버터는 오브젝트 신호를 앰비소닉 신호로 변환할 수 있다. 이때, 앰비소닉 신호는 마이크 어레이를 통해 녹음된 신호일 수도 있다. 또한 앰비소닉 신호는 마이크 어레이를 통해 녹음한 신호를 구면 조화 함수(spherical harmonics)의 기저에 대한 계수 (coefficient)로 변환한 신호일 수도 있다. 또한, 포맷 컨버터는 앰비소닉 신호를 오브젝트 신호로 변환할 수 있다. 구체적으로 포맷 컨버터는 앰비소닉 신호의 차수를 변경할 수 있다. 예컨대, 포맷 컨버터는 HoA(Higher Order Ambisonics) 신호를 FoA(First Order Ambisonics) 신호로 변경할 수 있다. 또한, 포맷 컨버터는 입력 오디오 신호에 관련된 위치 정보를 획득하고, 획득한 위치 정보를 기초로 입력 오디오 신호의 포맷을 변환할 수 있다. 이때, 위치 정보는 오디오 신호에 해당하는 음향을 수집한 마이크 어레이에 대한 정보일 수 있다. 구체적으로 마이크 어레에 대한 정보는 마이크 어레이를 구성하는 마이크들의 배열 정보, 개수 정보, 위치 정보, 주파수 특성 정보, 빔 패턴 정보 중 적어도 하나를 포함할 수 있다. 또한, 입력 오디오 신호에 관련된 위치 정보는 음원의 위치를 나타내는 정보를 포함할 수 있다.
메타데이터 생성부는 입력 오디오 신호에 해당하는 메타데이터를 생성한다. 구체적으로 메타데이터 생성부는 입력 오디오 신호를 렌더링하는데 사용되는 메타데이터를 생성할 수 있다. 이때, 메타데이터는 도 3 내지 도 17을 통해 설명한 실시 예들에서의 메타데이터일 수 있다. 또한, 메타데이터는 도 9 내지 도 17을 통해 설명한 실시 예들에 따라 오디오 신호 처리 장치에게 전달될 수 있다.
또한, 프로세서(330)는 오디오 신호의 복수의 오디오 신호 성분(component)을 오디오 파일 포맷이 포함하는 복수의 트랙에 나누어 삽입할 수 있다. 이때, 복수의 신호 성분은 오브젝트 신호, 채널 신호 및 앰비소닉 신호 중 적어도 어느 하나일 수 있다. 구체적으로 프로세서(330)는 도 17을 통해 설명한 실시 예에서와 같이 동작할 수 있다.
출력부(370)는 비트스트림과 메타데이터를 출력한다.
도 19는 본 발명의 일 실시 예에 따라 오디오 신호를 전달하기 위해 오디오 신호 처리 장치의 동작 방법을 보여주는 순서도이다.
오디오 신호를 전달하기 위해 오디오 신호를 처리하는 오디오 신호 처리 장치는 오디오 신호를 수신한다(S1901).
오디오 신호 처리 장치는 수신한 오디오 신호를 인코딩한다(S1903). 구체적으로 오디오 신호 처리 장치는 오디오 신호에 대한 메타데이터를 생성할 수 있다. 메타데이터는 오디오 신호를 렌더링하는데 사용될 수 있다. 이때, 렌더링는 바이노럴 렌더링일 수 있다. 구체적으로 오디오 신호 처리 장치는 오디오 신호가 시뮬레이션하는 음상의 위치를 반영하기 위한 정보를 포함하는, 오디오 신호에 대한 메타데이터를 생성할 수 있다. 오디오 신호 처리 장치는 메타데이터가 지시하는 시간 구간에 해당하는 사운드 레벨을 메타데이터에 삽입할 수 있다. 이때, 사운드 레벨은 오디오 신호가 시뮬레이션하는 음상의 위치를 반영하여 오디오 신호를 렌더링할지 결정하는데 사용될 수 있다.
구체적으로 오디오 신호 처리 장치는 오디오 신호에 적용되는 바이노럴 렌더링 강도를 나타내는 바이노럴 효과 세기 정보를 메타데이터에 삽입할 수 있다. 이때, 바이노럴 효과 세기 정보는 HRTF 또는 BRIR의 상대적 크기를 변경하는데 사용될 수 있다. 또한, 바이노럴 효과 세기 정보는 오디오 신호의 오디오 신호 성분 별로 바이노럴 렌더링 강도를 지시할 수 있다. 또한, 바이노럴 효과 세기 정보는 프레임 단위로 바이노럴 렌더링 적용 강도를 나타낼 수 있다.
오디오 신호 처리 장치는 청자의 움직임을 반영하여 오디오 신호를 렌더링할지 나타내는 움직임 적용 여부 정보를 메타데이터에 삽입할 수 있다. 이때, 청자의 움직임은 청자의 머리 움직임을 포함할 수 있다.
오디오 신호 처리 장치는 청자에 따라 설정될 수 있는 파라미터인 개인화 파라미터의 적용의 허용 여부를 나타내는 개인화 파라미터 적용 정보를 메타데이터에 삽입할 수 있다. 이때, 개인화 파라미터 적용 정보는 개인화 파라미터 적용이 허용되지 않음을 나타낼 수 있다. 구체적인 메타데이터의 포맷은 도 3 내지 도 16을 통해 설명한 실시 들과 같을 수 있다.
또한, 오디오 신호 처리 장치는 수신한 오디오 신호의 복수의 오디오 신호 성분을 복수의 트랙에 포함하는 오디오 파일을 생성할 수 있다. 구체적으로 오디오 신호 처리 장치는 오디오 신호 제1 오디오 신호 성분을 제1 트랙에 포함하고, 오디오 신호의 제2 오디오 신호 성분을 제2 트랙에 포함하는 오디오 파일을 생성할 수 있다. 이때, 제1 트랙과 제2 트랙 각각이 지원하는 오디오 신호의 채널 수가 오디오 신호의 채널 수의 합보다 작을 수 있다. 또한, 제1 트랙은 오디오 파일의 복수의 트랙 중 미리 지정된 위치의 트랙일 수 있다. 구체적으로 제1 트랙은 첫 번째 트랙일 수 있다. 또한, 오디오 신호 인코딩 장치는 제1 트랙에 메타데이터를 삽입할 수 있다. 이때, 메타데이터는 오디오 파일의 복수의 트랙 중 어느 트랙이 오디오 신호의 오디오 신호 성분을 포함하는지 나타낼 수 있다. 또 다른 구체적인 실시 예에서 오디오 신호 처리 장치는 오디오 신호의 복수의 오디오 신호 성분을 복수의 트랙에 지정된 순서대로 삽입할 수 있다. 구체적으로 오디오 신호를 전달하기 위해 오디오 신호를 처리하는 오디오 신호 처리 장치는 도 17 내지 18을 통해 설명한 실시 예들과 같이 동작할 수 있다.
오디오 신호 처리 장치는 인코딩된 오디오 신호를 출력한다(S1905). 또한, 오디오 신호 처리 장치는 생성한 메타데이터를 출력할 수 있다. 또한, 오디오 신호 인코딩 장치는 생성한 오디오 파일을 출력할 수 있다.
도 20은 본 발명의 일 실시 예에 따라 오디오 신호를 렌더링하는 오디오 신호 처리 장치의 동작 방법을 보여주는 순서도이다.
오디오 신호를 렌더링하는 오디오 신호 처리 장치는 오디오 신호를 수신한다(S2001). 구체적으로 오디오 신호 처리 장치는 오디오 신호를 포함하는 오디오 파일을 수신할 수 있다.
오디오 신호 처리 장치는 수신한 오디오 신호를 렌더링한다(S2003). 오디오 신호 처리 장치는 수신한 오디오 신호를 바이노럴 렌더링할 수 있다. 또한, 오디오 신호 처리 장치는 수신한 오디오 신호에 대한 메타데이터를 기초로 오디오 신호가 시뮬레이션하는 음상의 위치를 반영하여 오디오 신호를 렌더링할 수 있다. 구체적으로 오디오 신호 처리 장치는 오디오 신호가 시뮬레이션하는 음상의 위치를 반영하여 오디오 신호를 렌더링할지 결정할 수 있다. 이때, 오디오 신호 처리 장치는 결정에 따라 오디오 신호를 렌더링할 수 있다.
구체적인 실시 예에서 메타데이터는 메타데이터가 지시하는 시간 구간에 해당하는 사운드 레벨을 나타내는 사운드 레벨 정보를 포함할 수 있다. 오디오 신호 처리 장치는 사운드 레벨 정보를 기초로 오디오 신호가 시뮬레이션하는 음상의 위치를 반영하여 오디오 신호를 렌더링할지 결정할 수 있다. 예컨대, 오디오 신호 처리 장치는 제1 시간 구간에 해당하는 오디오 신호의 사운드 레벨과 제2 시간 구간에 해당하는 오디오 신호의 사운드 레벨의 차이를 비교할 수 있다. 이때, 오디오 신호 처리 장치는 비교 결과를 기초로 제2 시간 구간에 해당하는 오디오 신호를 상기 제2 시간 구간에 해당하는 오디오 신호가 시뮬레이션하는 음상의 위치를 반영하여 상기 오디오 신호를 렌더링할지 결정할 수 있다. 이때, 제1 시간 구간은 제2 시간 구간보다 앞서 시간일 수 있다. 또한, 제1 시간 구간과 제2 시간 구간은 연속한 시간 구간일 수 있다. 또 다른 구체적인 실시 예에서 오디오 신호 처리 장치는 사운드 레벨 정보가 나타내는 사운드 레벨이 미리 지정된 값보다 작은지를 기초로 오디오 신호가 시뮬레이션하는 음상의 위치를 반영하여 상기 오디오 신호를 렌더링할지 결정할 수 있다. 구체적으로 오디오 신호 처리 장치는 사운드 레벨 정보가 뮤트를 나타내는 경우 오디오 신호가 시뮬레이션하는 음상의 위치를 반영하지 않고 오디오 신호를 렌더링할 수 있다.
또한, 메타데이터는 바이노럴 렌더링 적용 강도를 나타내는 바이노럴 효과 세기 정보를 포함할 수 있다. 이때, 오디오 신호 처리 장치는 바이노럴 효과 세기 정보를 기초로 상기 오디오 신호에 대한 바이노럴 렌더링 적용 강도를 결정할 수 있다. 또한, 오디오 신호 처리 장치는 결정된 바이노럴 렌더링 적용 강도로 상기 오디오 신호를 바이노럴 렌더링할 수 있다. 구체적으로 오디오 신호 처리 장치는 결정된 바이노럴 렌더링 적용 강도에 따라 바이노럴 렌더링을 위한 HRTF(Head Related Transfer Function) 또는 BRIR(Binaural Rendering Impulse Response)의 상대적 크기를 변경할 수 있다. 바이노럴 효과 세기 정보는 상기 오디오 신호의 성분 별로 바이노럴 렌더링 강도를 지시할 수 있다. 또한, 바이노럴 효과 세기 정보는 프레임 단위로 바이노럴 렌더링 강도를 지시할 수 있다.
또한, 앞서 설명한 실시 예들에서 오디오 신호 처리 장치는 오디오 신호가 시뮬레이션하는 음상의 위치를 반영하여 렌더링할지가 변경되는지에 따라 페이드 인/페이드 아웃을 적용하여 오디오 신호를 렌더링할 수 있다.
또한, 메타데이터는 청자의 움직임을 반영하여 오디오 신호를 렌더링할지를 나타내는 움직임 적용 여부 정보를 포함할 수 있다. 이때, 오디오 신호 처리 장치는 움직임 적용 여부 정보를 기초로 청자의 움직임을 반영하여 오디오 신호를 렌더링할지 결정할 수 있다. 구체적으로 오디오 신호 처리 장치는 움직임 적용 여부 정보에 따라 청자의 움직임을 반영하지 않고 오디오 신호를 렌더링할 수 있다. 이때, 청자의 움직임은 청자의 머리 움직임을 포함할 수 있다.
또한, 메타데이터는 청자에 따라 설정될 수 있는 파라미터인 개인화 파라미터 의 적용의 허용 여부를 나타내는 개인화 파라미터 적용 정보를 포함할 수 있다. 이때, 오디오 신호 처리 장치는 개인화 파라미터 적용 정보를 기초로 오디오 신호를 렌더링할 수 있다. 구체적으로 오디오 신호 처리 장치는 개인화 파라미터 적용 정보에 따라 개인화 파라미터를 적용하지 않고 오디오 신호를 렌더링할 수 있다. 메타데이터의 구체적인 포맷은 도 3 내지 도 16을 통해 설명한 실시 예와 같을 수 있다. 또한, 메타데이터는 도 9 내지 도 14를 통해 설명한 실시 예들에 따라 전달될 수 있다.
오디오 신호 처리 장치는 오디오 신호를 포함하는 오디오 파일의 복수의 트랙 각각에 포함된 복수의 오디오 신호 성분을 동시에 렌더링할 수 있다. 오디오 신호 처리 장치는 오디오 신호를 포함하는 오디오 파일의 제1 트랙에 포함된 제1 오디오 신호 성분과 제2 트랙에 포함된 제2 오디오 신호 성분을 동시에 렌더링할 수 있다. 이때, 제1 트랙과 제2 트랙 각각이 지원하는 오디오 신호의 채널 수가 오디오 신호의 채널 수의 합보다 작을 수 있다. 이때, 제1 트랙은 오디오 파일의 복수의 트랙 중 미리 지정된 위치의 트랙일 수 있다. 또한, 제1 트랙은 메타데이터를 포함할 수 있다. 이때, 오디오 신호 처리 장치는 메타데이터를 기초로 오디오 신호 성분을 포함하는 오디오 파일의 트랙을 판단할 수 있다. 또한, 오디오 신호 처리 장치는 메타데이터를 기초로 제1 오디오 신호 성분과 제2 오디오 신호 성분을 렌더링할 수 있다. 구체적으로 오디오 신호 처리 장치는 메타데이터를 기초로 제1 오디오 신호 성분과 제2 오디오 신호 성분을 바이노럴 렌더링할 수 있다. 또한, 오디오 신호 처리 장치는 오디오 파일의 복수의 트랙이 오디오 신호의 오디오 신호 성분을 포함하는지 미리 지정된 트랙 순서로 확인할 수 있다.
오디오 신호 처리 장치는 렌더링된 오디오 신호를 출력한다(S2005). 앞서 설명한 것과 같이 오디오 신호 처리 장치는 2개 이상의 라우드 스피커를 통해 렌더링된 오디오 신호를 출력할 수 있다. 또 다른 구체적인 실시 예에서 오디오 신호 처리 장치는 2채널 스테레오 헤드폰을 통해 렌더링된 오디오 신호를 출력할 수 있다.
이상에서는 본 발명을 구체적인 실시 예를 통하여 설명하였으나, 당업자라면 본 발명의 취지 및 범위를 벗어나지 않고 수정, 변경을 할 수 있다. 즉, 본 발명은 멀티 오디오 신호에 대한 프로세싱 실시 예에 대하여 설명하였지만, 본 발명은 오디오 신호뿐만 아니라 비디오 신호를 포함하는 다양한 멀티미디어 신호에도 동일하게 적용 및 확장 가능하다. 따라서 본 발명의 상세한 설명 및 실시 예로부터 본 발명이 속하는 기술분야에 속한 사람이 용이하게 유추할 수 있는 것은 본 발명의 권리범위에 속하는 것으로 해석된다.

Claims (16)

  1. 오디오 신호를 렌더링하는 오디오 신호 처리 장치에서,
    오디오 신호를 포함하는 오디오 파일을 수신하는 수신부;
    상기 오디오 파일의 제1 트랙에 포함된 제1 오디오 신호 성분과 제2 트랙에 포함된 제2 오디오 신호 성분을 동시에 렌더링하는 프로세서; 및
    상기 렌더링된 제1 오디오 신호 성분과 상기 렌더링된 제2 오디오 신호 성분을 출력하는 출력부를 포함하는
    오디오 신호 처리 장치.
  2. 제1항에서
    상기 제1 트랙과 상기 제2 트랙 각각이 지원하는 오디오 신호의 채널 수가 상기 오디오 신호의 채널 수의 합보다 작은
    오디오 신호 처리 장치.
  3. 제2항에서
    상기 제1 트랙은 상기 오디오 파일의 복수의 트랙 중 미리 지정된 위치의 트랙인
    오디오 신호 처리 장치.
  4. 제3항에서,
    상기 제1 오디오 신호 성분은 오디오 신호가 시뮬레이션하는 음상의 위치를 표현하기 위한 메타데이터 없이 렌더링 될 수 있는 오디오 신호 성분인
    오디오 신호 처리 장치.
  5. 제4항에서,
    상기 제1 오디오 신호 성분은 바이노럴 렌더링을 위한 메타데이터 없이 렌더링 될 수 있는 오디오 신호 성분인
    오디오 신호 처리 장치.
  6. 제3항에서,
    상기 제1 트랙은 메타데이터를 포함하고,
    상기 프로세서는
    상기 메타데이터를 기초로 오디오 신호 성분을 포함하는 상기 오디오 파일의 트랙을 판단하는
    오디오 신호 처리 장치.
  7. 제5항에서,
    상기 프로세서는
    상기 메타데이터를 기초로 상기 제1 오디오 신호 성분과 상기 제2 오디오 신호 성분을 렌더링하는
    오디오 신호 처리 장치.
  8. 제3항에서,
    상기 프로세서는
    상기 오디오 파일의 복수의 트랙이 상기 오디오 신호의 오디오 신호 성분을 포함하는지 미리 지정된 트랙 순서로 확인하는
    오디오 신호 처리 장치.
  9. 제1항에서,
    상기 프로세서는
    상기 오디오 신호 처리 장치의 능력에 따라 상기 오디오 파일의 복수의 트랙에 포함된 복수의 오디오 신호 성분 중 상기 제1 오디오 신호 성분과 상기 제2 오디오 신호 성분을 선택하는
    오디오 신호 처리 장치.
  10. 오디오 신호 전달을 위해 오디오 신호를 처리하는 오디오 신호 처리 장치에서,
    오디오 신호를 수신하는 수신부;
    상기 오디오 신호의 제1 오디오 신호 성분을 제1 트랙에 포함하고, 상기 오디오 신호의 제2 오디오 신호 성분을 제2 트랙에 포함하는 오디오 파일을 생성하는 프로세서; 및
    상기 오디오 파일을 출력하는 출력부를 포함하는
    오디오 신호 처리 장치.
  11. 제10항에서,
    상기 제1 트랙과 상기 제2 트랙 각각이 지원하는 오디오 신호의 채널 수가 상기 오디오 신호의 채널 수의 합보다 작은
    오디오 신호 처리 장치.
  12. 제10항에서,
    상기 제1 트랙은 상기 오디오 파일의 복수의 트랙 중 미리 지정된 위치의 트랙인
    오디오 신호 처리 장치.
  13. 제12항에서,
    상기 제1 오디오 신호 성분은 오디오 신호가 시뮬레이션하는 음상의 위치를 표현하기 위한 메타데이터 없이 렌더링 될 수 있는 오디오 신호 성분인
    오디오 신호 처리 장치.
  14. 제13항에서,
    상기 제1 오디오 신호 성분은 바이노럴 렌더링을 위한 메타데이터 없이 렌더링 될 수 있는 오디오 신호 성분인
    오디오 신호 처리 장치.
  15. 제12항에서,
    상기 프로세서는
    상기 제1 트랙에 메타데이터를 삽입하고,
    상기 메타데이터는 상기 오디오 파일의 복수의 트랙 중 어느 트랙이 상기 오디오 신호의 오디오 신호 성분을 포함하는지 나타내는
    오디오 신호 처리 장치.
  16. 제12항에서,
    상기 프로세서는
    상기 오디오 신호의 복수의 오디오 신호 성분을 상기 오디오 파일의 복수의 트랙에 지정된 순서대로 삽입하는
    오디오 신호 처리 장치.
PCT/KR2017/010564 2016-09-23 2017-09-25 바이노럴 오디오 신호 처리 방법 및 장치 WO2018056780A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019537729A JP2019533404A (ja) 2016-09-23 2017-09-25 バイノーラルオーディオ信号処理方法及び装置
US15/826,485 US10659904B2 (en) 2016-09-23 2017-11-29 Method and device for processing binaural audio signal

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2016-0122515 2016-09-23
KR20160122515 2016-09-23
KR20170018515 2017-02-10
KR10-2017-0018515 2017-02-10

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/826,485 Continuation US10659904B2 (en) 2016-09-23 2017-11-29 Method and device for processing binaural audio signal

Publications (1)

Publication Number Publication Date
WO2018056780A1 true WO2018056780A1 (ko) 2018-03-29

Family

ID=61686917

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/010564 WO2018056780A1 (ko) 2016-09-23 2017-09-25 바이노럴 오디오 신호 처리 방법 및 장치

Country Status (3)

Country Link
US (1) US10356545B2 (ko)
JP (1) JP2019533404A (ko)
WO (1) WO2018056780A1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10659904B2 (en) 2016-09-23 2020-05-19 Gaudio Lab, Inc. Method and device for processing binaural audio signal
CN113170274A (zh) * 2018-11-21 2021-07-23 诺基亚技术有限公司 环境音频表示和相关联的渲染
JP2022528837A (ja) * 2019-03-27 2022-06-16 ノキア テクノロジーズ オサケユイチア 音場関連のレンダリング

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2563635A (en) 2017-06-21 2018-12-26 Nokia Technologies Oy Recording and rendering audio signals
GB2566992A (en) * 2017-09-29 2019-04-03 Nokia Technologies Oy Recording and rendering spatial audio signals
CN115334444A (zh) * 2018-04-11 2022-11-11 杜比国际公司 用于音频渲染的预渲染信号的方法、设备和系统
TWI698132B (zh) 2018-07-16 2020-07-01 宏碁股份有限公司 音效輸出裝置、運算裝置及其音效控制方法
CN110740415B (zh) * 2018-07-20 2022-04-26 宏碁股份有限公司 音效输出装置、运算装置及其音效控制方法
EP3617871A1 (en) * 2018-08-28 2020-03-04 Koninklijke Philips N.V. Audio apparatus and method of audio processing
US11798569B2 (en) * 2018-10-02 2023-10-24 Qualcomm Incorporated Flexible rendering of audio data
US11019449B2 (en) * 2018-10-06 2021-05-25 Qualcomm Incorporated Six degrees of freedom and three degrees of freedom backward compatibility
WO2020080099A1 (ja) * 2018-10-16 2020-04-23 ソニー株式会社 信号処理装置および方法、並びにプログラム
JP7285967B2 (ja) * 2019-05-31 2023-06-02 ディーティーエス・インコーポレイテッド フォービエイテッドオーディオレンダリング
JP7432225B2 (ja) * 2020-01-22 2024-02-16 クレプシードラ株式会社 音再生記録装置、及びプログラム
US11381209B2 (en) 2020-03-12 2022-07-05 Gaudio Lab, Inc. Audio signal processing method and apparatus for controlling loudness level and dynamic range
US12010505B2 (en) * 2021-05-19 2024-06-11 Snap Inc. Low latency, low power multi-channel audio processing
EP4392970A1 (en) * 2021-08-26 2024-07-03 Dolby Laboratories Licensing Corporation Method and apparatus for metadata-based dynamic processing of audio data

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080053875A (ko) * 2006-12-11 2008-06-16 한국전자통신연구원 가상현실을 위한 오디오 음상 제어 장치 및 그 방법
US20110264456A1 (en) * 2008-10-07 2011-10-27 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Binaural rendering of a multi-channel audio signal
KR20140027954A (ko) * 2011-03-16 2014-03-07 디티에스, 인코포레이티드 3차원 오디오 사운드트랙의 인코딩 및 재현
KR20140125745A (ko) * 2013-04-19 2014-10-29 한국전자통신연구원 다채널 오디오 신호 처리 장치 및 방법
US20150199973A1 (en) * 2012-09-12 2015-07-16 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for providing enhanced guided downmix capabilities for 3d audio

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2898885C (en) * 2013-03-28 2016-05-10 Dolby Laboratories Licensing Corporation Rendering of audio objects with apparent size to arbitrary loudspeaker layouts
TWI530941B (zh) * 2013-04-03 2016-04-21 杜比實驗室特許公司 用於基於物件音頻之互動成像的方法與系統
CN108712711B (zh) * 2013-10-31 2021-06-15 杜比实验室特许公司 使用元数据处理的耳机的双耳呈现
US10375439B2 (en) * 2014-05-30 2019-08-06 Sony Corporation Information processing apparatus and information processing method
US20180165358A1 (en) * 2014-06-30 2018-06-14 Sony Corporation Information processing apparatus and information processing method
EP3198594B1 (en) * 2014-09-25 2018-11-28 Dolby Laboratories Licensing Corporation Insertion of sound objects into a downmixed audio signal
JP6729382B2 (ja) * 2014-10-16 2020-07-22 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
KR101627652B1 (ko) * 2015-01-30 2016-06-07 가우디오디오랩 주식회사 바이노럴 렌더링을 위한 오디오 신호 처리 장치 및 방법
US10136240B2 (en) * 2015-04-20 2018-11-20 Dolby Laboratories Licensing Corporation Processing audio data to compensate for partial hearing loss or an adverse hearing environment

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080053875A (ko) * 2006-12-11 2008-06-16 한국전자통신연구원 가상현실을 위한 오디오 음상 제어 장치 및 그 방법
US20110264456A1 (en) * 2008-10-07 2011-10-27 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Binaural rendering of a multi-channel audio signal
KR20140027954A (ko) * 2011-03-16 2014-03-07 디티에스, 인코포레이티드 3차원 오디오 사운드트랙의 인코딩 및 재현
US20150199973A1 (en) * 2012-09-12 2015-07-16 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for providing enhanced guided downmix capabilities for 3d audio
KR20140125745A (ko) * 2013-04-19 2014-10-29 한국전자통신연구원 다채널 오디오 신호 처리 장치 및 방법

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10659904B2 (en) 2016-09-23 2020-05-19 Gaudio Lab, Inc. Method and device for processing binaural audio signal
CN113170274A (zh) * 2018-11-21 2021-07-23 诺基亚技术有限公司 环境音频表示和相关联的渲染
CN113170274B (zh) * 2018-11-21 2023-12-15 诺基亚技术有限公司 环境音频表示和相关联的渲染
US11924627B2 (en) 2018-11-21 2024-03-05 Nokia Technologies Oy Ambience audio representation and associated rendering
JP2022528837A (ja) * 2019-03-27 2022-06-16 ノキア テクノロジーズ オサケユイチア 音場関連のレンダリング
US12058511B2 (en) 2019-03-27 2024-08-06 Nokia Technologies Oy Sound field related rendering

Also Published As

Publication number Publication date
US20180091917A1 (en) 2018-03-29
US10356545B2 (en) 2019-07-16
JP2019533404A (ja) 2019-11-14

Similar Documents

Publication Publication Date Title
WO2018056780A1 (ko) 바이노럴 오디오 신호 처리 방법 및 장치
WO2019147064A1 (ko) 오디오 데이터를 송수신하는 방법 및 그 장치
WO2014175669A1 (ko) 음상 정위를 위한 오디오 신호 처리 방법
WO2018182274A1 (ko) 오디오 신호 처리 방법 및 장치
WO2017191970A2 (ko) 바이노럴 렌더링을 위한 오디오 신호 처리 방법 및 장치
CN111466124B (zh) 用于渲染用户的视听记录的方法,处理器系统和计算机可读介质
WO2019004524A1 (ko) 6자유도 환경에서 오디오 재생 방법 및 오디오 재생 장치
WO2014021588A1 (ko) 오디오 신호 처리 방법 및 장치
KR101054932B1 (ko) 스테레오 오디오 신호의 동적 디코딩
WO2018147701A1 (ko) 오디오 신호 처리 방법 및 장치
WO2014157975A1 (ko) 오디오 장치 및 이의 오디오 제공 방법
WO2017209477A1 (ko) 오디오 신호 처리 방법 및 장치
WO2011115430A2 (ko) 입체 음향 재생 방법 및 장치
US10659904B2 (en) Method and device for processing binaural audio signal
WO2016089180A1 (ko) 바이노럴 렌더링을 위한 오디오 신호 처리 장치 및 방법
WO2021118107A1 (en) Audio output apparatus and method of controlling thereof
WO2019199046A1 (ko) 무선 통신 시스템에서 오디오에 대한 메타데이터를 송수신하는 방법 및 장치
WO2019107868A1 (en) Apparatus and method for outputting audio signal, and display apparatus using the same
WO2019103584A1 (ko) 귀 개방형 헤드폰을 이용한 다채널 사운드 구현 장치 및 그 방법
WO2011139090A2 (en) Method and apparatus for reproducing stereophonic sound
WO2019203627A1 (ko) 트랜지션 이펙트에 관한 오디오 데이터를 송수신하는 방법 및 그 장치
WO2015147435A1 (ko) 오디오 신호 처리 시스템 및 방법
WO2019031652A1 (ko) 3차원 오디오 재생 방법 및 재생 장치
WO2017126895A1 (ko) 오디오 신호 처리 장치 및 처리 방법
WO2019147040A1 (ko) 스테레오 오디오를 바이노럴 오디오로 업 믹스하는 방법 및 이를 위한 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17853494

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019537729

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 26/07/2019)

122 Ep: pct application non-entry in european phase

Ref document number: 17853494

Country of ref document: EP

Kind code of ref document: A1