KR20170135604A - A method and an apparatus for processing an audio signal - Google Patents

A method and an apparatus for processing an audio signal Download PDF

Info

Publication number
KR20170135604A
KR20170135604A KR1020160067792A KR20160067792A KR20170135604A KR 20170135604 A KR20170135604 A KR 20170135604A KR 1020160067792 A KR1020160067792 A KR 1020160067792A KR 20160067792 A KR20160067792 A KR 20160067792A KR 20170135604 A KR20170135604 A KR 20170135604A
Authority
KR
South Korea
Prior art keywords
signal
sound
ambience
foa
hoa
Prior art date
Application number
KR1020160067792A
Other languages
Korean (ko)
Inventor
서정훈
오현오
이태규
전세운
백용현
Original Assignee
가우디오디오랩 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가우디오디오랩 주식회사 filed Critical 가우디오디오랩 주식회사
Priority to KR1020160067792A priority Critical patent/KR20170135604A/en
Priority to CN201780033291.6A priority patent/CN109314832B/en
Priority to US15/608,969 priority patent/US10271157B2/en
Priority to PCT/KR2017/005610 priority patent/WO2017209477A1/en
Publication of KR20170135604A publication Critical patent/KR20170135604A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/002Non-adaptive circuits, e.g. manually adjustable or static, for enhancing the sound image or the spatial distribution
    • H04S3/004For headphones
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/01Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Stereophonic System (AREA)

Abstract

The present invention relates to a method for rendering a DRR matched audio signal by using a recorded signal, and more particularly, to a method and an apparatus for processing an audio signal for immersive and interactive audio rendering.

Description

오디오 신호 처리 방법 및 장치{A METHOD AND AN APPARATUS FOR PROCESSING AN AUDIO SIGNAL}TECHNICAL FIELD [0001] The present invention relates to an audio signal processing method and apparatus,

본 발명은 오디오 신호를 효과적으로 재생하기 위한 신호 처리 방법 및 장치에 관한 것으로서, 더욱 상세하게는 HMD(Head Mounted Display) 기기를 비롯한 휴대 기기를 위한 몰입형(immersive) 바이노럴 렌더링을 구현하기 위한 오디오 신호 처리 방법 및 장치에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a signal processing method and apparatus for effectively reproducing an audio signal, and more particularly, to a signal processing method and apparatus for effectively reproducing an audio signal for implementing an immersive binaural rendering for a portable device including an HMD (Head Mounted Display) To a signal processing method and apparatus.

HMD에서 immersive audio listening를 하기 위해서 바이노럴 렌더링(binaural rendering) 기술이 필수적이다. 이때, 연산량 및 전력 소모의 제약이 따르는 모바일 디바이스에서, rendering 대상 객체 혹은 채널의 증가로 인한 연산량 및 전력 소모의 부담은 물론이고, 개인 맞춤형으로 제작되지 않은 HRTF 로 인한 개인별 부적응의 문제, HRTF set의 개수 부족 (공간 해상도 부족)에 따른 artifacts, head tracking lag에 따른 성능 저하 및 불편함 등의 문제를 가지고 있다.Binaural rendering techniques are essential for immersive audio listening in HMDs. At this time, in the mobile device with the limitation of the computation amount and the power consumption, not only the computation amount and power consumption burden due to the increase of the object to be rendered or the channel, but also the problem of the individual maladjustment due to the HRTF Artifacts due to insufficient number of images (insufficient spatial resolution), performance degradation due to head tracking lag, and inconvenience.

본 발명은 상기의 문제점을 해결하기 위해 안출된 것으로, Cinematic 360 VR 에서의 공간감 불일치, 음상정위 왜곡 등의 문제를 해결하고자 하는 목적을 가지고 있다.SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems, and has an object to solve problems such as spatial discrepancy and sound image localization distortion in the Cinematic 360 VR.

본 발명의 실시예에 따르면, 상기와 같은 과제를 해결하기 위한 바이노럴 신호처리 방법 및 장치가 제공될 수 있다.According to an embodiment of the present invention, a binaural signal processing method and apparatus for solving the above problems can be provided.

<< Key Ideas >><< Key Ideas >>

1. Cinematic VR의 제작 과정에서 보다 몰입감 있는 경험을 제공하기 위해 오디오 신호를 녹음하는 과정은 매우 중요하다. 개별 sound object만 녹음할 경우 해당 공간의 음향 특성을 반영하기 힘들고, ambience 만 녹음하는 경우 정확한 sound object의 위치를 인지하기 힘든 문제가 있다. 이러한 문제를 해결하기 위해 제작 과정에서 sound object와 ambience를 동시 녹음하여 후처리를 통해 뚜렷한 음상의 위치와 공간감을 동시에 제공할 수 있는 방법이 있다.1. It is very important to record the audio signal to provide a more immersive experience in the Cinematic VR production process. When recording only individual sound objects, it is difficult to reflect the acoustic characteristics of the space, and when recording only ambience, it is difficult to recognize the exact position of the sound object. In order to solve this problem, there is a method of simultaneous recording of a sound object and an ambience in a production process and simultaneously providing a clear sound image position and a spatial feeling through post-processing.

2. Cinematic 360 VR 에서 효과적인 immersive spatial audio를 재생하기 위해 제작시 개별 sound object와 ambience를 함께 녹음하여 처리할 수 있다. 이 경우 processing 단에서 sound object와 ambience를 함께 재생하는데, object와 ambience의 에너지 비율 차이에 의해 실제 공간의 음향 특성과 다른 mix가 생길 가능성이 있다.2. To reproduce effective immersive spatial audio in Cinematic 360 VR, you can record and process individual sound objects and ambience together. In this case, the sound object and the ambience are played together at the processing stage, and there is a possibility that a difference in the energy ratio between the object and the ambience may cause a mix different from the acoustic characteristic of the actual space.

3. Sound object를 명확히 녹음하기 위해 사용한 마이크 입력신호는 공간의 잔향을 거의 포함하지 않은 직접음 성분만 포함하고 있는 반면, ambience를 녹음하기 위해 사용한 마이크로폰에는 direct sound와 함께 early reflections, late reverberation 등 공간의 잔향이 함께 포함되어 있으므로 ambience마이크 녹음신호를 이용해 실제 녹음한 공간의 음향 특성을 추출하여 이를 processing 단계에서 사용함으로서 실제 공간의 음향 특성을 보다 사실적으로 반영하여 VR에서 몰입감을 보다 높일 수 있다.3. The microphone input signal used to clearly record the sound object contains only the direct sound component that does not include the reverberation of the space, while the microphone used to record the ambience includes direct sound, early reflections, late reverberation, It is possible to increase the immersion feeling in the VR by reflecting the acoustic characteristics of the actual space by using the ambience microphone recording signal to extract the acoustic characteristics of the actually recorded space and using it in the processing step.

본 발명의 실시예에 따르면, Cinematic 360 VR 제작시 녹음된 sound object 및 앰비언스 신호를 이용하여 보다 immersive한 렌더링을 할 수 있다.According to the embodiment of the present invention, when the Cinematic 360 VR is manufactured, more immersive rendering can be performed using the recorded sound object and the ambience signal.

Sound object는 위치 정보를 이용하여 HoA 및 FoA 신호로 변환될 수 있다.Sound objects can be converted into HoA and FoA signals using location information.

변환된 HoA 및 FoA는 HoA 및 FoA 형태로 변환된 ambience sound와 함께 바이노럴 렌더링되어 immersive binaural rendering을 할 수 있다.The converted HoA and FoA can be binaurally rendered with the ambience sound converted to HoA and FoA form to perform immersive binaural rendering.

도 1은 정확한 음상정위와 공간감을 제공하기 위한 cinematic 360 VR오디오의 취득, 처리, 생성과정에 대한 블록도이다.
도 2는 Cinematic 360VR오디오에서 취득 신호에 따른 최종 바이노럴 렌더링의 최종 perceptual evaluation의 결과이다.
도 3은 렌더러 호환성을 위한 HoA+object 와 FoA 변환과정 블록도이다.
FIG. 1 is a block diagram of a process for acquiring, processing, and generating cinematic 360 VR audio to provide precise sounding and spatial sense.
2 is a result of the final perceptual evaluation of the final binaural rendering according to the acquisition signal in Cinematic 360VR audio.
3 is a block diagram of the HoA + object and the FoA conversion process for renderer compatibility.

본 명세서에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도, 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한 특정 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 그 의미를 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는, 단순한 용어의 명칭이 아닌 그 용어가 가진 실질적인 의미와 본 명세서의 전반에 걸친 내용을 토대로 해석되어야 함을 밝혀두고자 한다.As used herein, terms used in the present invention are selected from general terms that are widely used in the present invention while taking into account the functions of the present invention. However, these terms may vary depending on the intention of a person skilled in the art, custom or the emergence of new technology. Also, in certain cases, there may be a term arbitrarily selected by the applicant, and in this case, the meaning thereof will be described in the description of the corresponding invention. Therefore, it is intended that the terminology used herein should be interpreted relative to the actual meaning of the term, rather than the nomenclature, and its content throughout the specification.

Cinematic VR의 제작 과정에서 보다 몰입감 있는 경험을 제공하기 위해 오디오 신호를 녹음하는 과정은 매우 중요하다. 개별 sound object만 녹음할 경우 해당 공간의 음향 특성을 반영하기 힘들고, ambience 만 녹음하는 경우 정확한 sound object의 위치를 인지하기 힘든 문제가 있다. 이러한 문제를 해결하기 위해 제작 과정에서 sound object와 ambience를 동시 녹음하여 후처리를 통해 뚜렷한 음상의 위치와 공간감을 동시에 제공할 수 있는 방법이 있다. 해당 과정을 블록도로 나타내면 도 1 과 같다.The process of recording an audio signal is very important to provide a more immersive experience in the production process of Cinematic VR. When recording only individual sound objects, it is difficult to reflect the acoustic characteristics of the space, and when recording only ambience, it is difficult to recognize the exact position of the sound object. In order to solve this problem, there is a method of simultaneous recording of a sound object and an ambience in a production process and simultaneously providing a clear sound image position and a spatial feeling through post-processing. The process is shown in FIG. 1 as a block diagram.

도 1에서 obj1, ... , objK는 녹음시 개별 object로 간주한 음향 신호이고, ambience sound는 개별 사운드 및 녹음 공간에 의해 생성된 앰비언스 마이크로폰 위치에서의 음장 (soundfield) 신호이다. 신호의 흐름을 구별하기 위해 sound object는 실선, ambience에 해당하는 신호는 점선으로 그 흐름을 표시한다. 이렇게 녹음된 신호는 최종 바이노럴 렌더링 방법에 따라 개별 오브젝트와 앰비언스 녹음 신호는 format converter의 과정을 통해 각각

Figure pat00001
, ... ,
Figure pat00002
및 앰비소닉 신호로 변환된다. 이 과정에서
Figure pat00003
, ... ,
Figure pat00004
는 최종 렌더러에 따라 그 형태가 변할 수 있다. 이 경우 format converter를 거쳐 나오는 신호의 조합, 또는 취득 방법에 따른 신호의 조합은 크게 아래와 같이 분류될 수 있다.In Fig. 1, obj 1 , ..., obj K are acoustic signals considered as individual objects during recording, and ambience sound is a sound field signal at the ambience microphone position generated by individual sound and recording space. To distinguish the flow of the signal, the sound object is represented by a solid line, and the signal corresponding to ambience is represented by a dotted line. According to the final binaural rendering method, individual objects and ambience recording signals are processed through a format converter process
Figure pat00001
, ...,
Figure pat00002
And Ambsonic signals. In this process
Figure pat00003
, ...,
Figure pat00004
May vary in shape depending on the final renderer. In this case, the combination of the signals coming through the format converter or the combination of the signals according to the acquisition method can be largely classified as follows.

1) Sound object + Higher Order Ambisonics (HoA) of Ambience1) Sound object + Higher Order Ambisonics (HoA) of Ambience

2) 1)의 Sound Object 의 HoA 변환 신호 + HoA of Ambience = Mixed HoA2) HoA of the sound object of 1) + HoA of Ambience = Mixed HoA

3) 1)의 Sound Object 의 First Order Ambisonics (FoA) + FoA of Ambience = Mixed FoA3) First Order Ambisonics of Sound Object (FoA) + FoA of Ambience = Mixed FoA

4) FoA of Ambience4) FoA of Ambience

이하 설명의 편의를 위해 sound object의 개수가 1개일 때를 가정하여 설명하지만 sound object의 개수가 복수개인 경우에도 동일한 방법에 의해 처리될 수 있다. For convenience of explanation, it is assumed that the number of sound objects is one, but the same method can be used even when there are a plurality of sound objects.

위의 분류 1)에 마이크로폰 어레이를 이용해 녹음된 신호 pa로부터 구해지는데, 이는 다음 수학식 1과 같은 관계를 갖는다.The above-mentioned classification 1) is obtained from the recorded signal pa using the microphone array, and it has the following relationship as shown in the following Equation 1.

(수학식 1)(1)

Figure pat00005
Figure pat00005

수학식 1에서

Figure pat00006
Figure pat00007
는 마이크로폰 어레이의 개별 구성 마이크로폰의 수평각 및 수직각이다. 또한 Y는 해당 수평각, 수직각을 입력으로 하는 구면조화함수 (spherical harmonic functions) 이다. m과 n은 구면조화함수의 order와 degree를 의미한다. 위의 수학식 1을 Matrix 형태로 나타내면 수학식 2와 같이 나타낼 수 있고, 수학식 2에서 얻고자 하는 HoA of ambience 신호는 B이다.In Equation (1)
Figure pat00006
And
Figure pat00007
Are the horizontal and vertical angles of the individual configuration microphones of the microphone array. Y is a spherical harmonic function whose input is a horizontal angle and a vertical angle. m and n mean the order and degree of the spherical harmonic function. Equation (1) can be expressed in Matrix form as shown in Equation (2), and HoA of ambience signal in Equation (2) is B.

(수학식 2)(2)

Figure pat00008
Figure pat00008

Figure pat00009
Figure pat00009

또한 분류 2)에서의 sound object 의 HoA 변환 신호는 기준점에 대한 위치

Figure pat00010
에 대한 구면조화 함수를 이용해 아래 수학식 3과 같이 표현할 수 있다.The HoA transform signal of the sound object in Classification 2)
Figure pat00010
Can be expressed as Equation (3) below using the spherical harmonic function for the following equation (3).

(수학식 3)(3)

Figure pat00011
Figure pat00011

해당 사운드 오브젝트의 위치는 개별 마이크로폰과 기준점에 설치된 외부 센서를 이용하여 측정하거나 마이크로폰 어레이의 신호를 분석하여 추정한다.The position of the sound object is measured by using an external microphone or an external sensor installed at the reference point or by analyzing the signal of the microphone array.

무한대의 구면조화 함수 차수를 이용할 수 없는 현실적인 조건들을 고려하여 앰비소닉 신호는 구면조화함수의 order를 M차수로 truncation하여 근사화한다. 또한 수학식 2와 수학식 3을 이용해 사운드 오브젝트와 ambience에 대한 HoA 신호를 얻었다면 0 차수와 1차수 성분은 남기고 고차 성분들을 삭제하여 FoA신호를 얻을 수 있다. 이 근사화 과정에서 공간 해상도 (spatial resolution) 역시 저하되고, M 이 작을수록 이 열화는 심해진다. 이러한 이유로 binaural rendering 시의 성능이 사운드 오브젝트는 object-based rendering 을 하고, 앰비언스 신호는 scene-based rendering을 하는 것이 가장 좋은 성능을 보여준다. 분류 1)에 기반한 binaural rendering의 성능을 기준으로 했을 때 분류 2), 3) 및 sound object는 제외하고 scene-based 렌더링을 한 경우의 인지적 주관평가 결과는 도 2와 같다.Considering realistic conditions where infinite spherical harmonic order can not be used, the ambsonic signal approximates the order of the spherical harmonic function by truncating it to M orders. If the HoA signal for the sound object and the ambience is obtained by using Equations (2) and (3), the FoA signal can be obtained by removing the higher order components while leaving the 0th order and first order components. In this approximation process, spatial resolution is also degraded, and the smaller M is, the worse the deterioration becomes. For this reason, performance of binaural rendering is best for object-based rendering of sound objects and scene-based rendering of ambience signals. Based on the performance of binaural rendering based on classification 1), the results of cognitive subjective evaluation in case of scene-based rendering excluding classification 2), 3) and sound object are shown in FIG.

도 2에서 확인할 수 있듯이 분류 1)을 기준으로 하였을 때 최종 렌더링 품질은 분류 2) > 분류 3) 으로 나타낼 수 있고 FoA 앰비언스 신호만 scene-based 렌더링을 했을 때의 품질이 가장 낮음을 알 수 있다. FoA 기반의 렌더러의 대표적인 예로 현재 YouTube Spatial Audio를 들 수 있다. 분류 1) 신호와 분류 3) 또는 4)에 해당하는 신호는 렌더러 호환성 (e.g. YouTube Spatial Audio) 을 위한 format conversion 이 가능한데, 이는 도 3과 같이 나타낼 수 있다.As shown in FIG. 2, when the classification 1) is used as a reference, the final rendering quality can be represented by classification 2)> classification 3), and the quality of scene-based rendering of only the FoA ambience signal is lowest. A typical example of a FoA-based renderer is YouTube Spatial Audio. Classification 1) Signals and Categorization Signals corresponding to 3) or 4) are capable of format conversion for renderer compatibility (eg YouTube Spatial Audio), as shown in FIG.

도 3에서 Binaural_1 신호는 신호분류 1)을 이용하여 GAUDIO Renderer에 의해 바이노럴 렌더링 된 신호, Binaural_2 신호는 신호분류 3) 또는 4) 를 이용하여 format conversion 과정을 거친 후 GAUDIO Renderer에 의해 바이노럴 렌더링 된 신호, Binaural_3은 신호분류 1)을 이용하였지만 format conversion을 거친 후 other renderer에 의해 바이노럴 렌더링 된 신호, 그리고 Binaural_4는 신호분류 3) 또는 4) 를 이용하여 other renderer에 의해 바이노럴 렌더링 된 신호를 나타낸다. 또한 실선 및 점선은 신호의 흐름을 볼 때 최초 생성 음원이 무엇인지를 나타내는데, 실선은 HoA+Object 신호로부터, 점선은 FoA 신호로부터 생선된 신호의 흐름을 나타낸다.In Fig. 3, Binaural_1 signal is binaurally rendered by GAUDIO Renderer using signal classification 1), Binaural_2 signal is format converted by signal classification 3) or 4), and then GAURIO Renderer Binaural_3 is the binaural rendered signal by the other renderers after the format conversion, but Binaural_4 is the binaural rendered by the other renderer using signal classification 3) or 4) Lt; / RTI &gt; The solid line and the dotted line indicate what the original sound source is when the signal flow is viewed. The solid line represents the flow of the signal generated from the HoA + Object signal, and the dotted line represents the flow of the signal generated from the FoA signal.

[what is claimed here]: [what is claimed here]:

1.One.

hoa(foa)에 해당하는 제1 오디오 신호를 수신receives a first audio signal corresponding to hoa (foa)

object에 해당하는 제2오디오 신호를 수신receiving a second audio signal corresponding to the object

hoa 가 구성한 sound scene 상에서 상기 object 의 위치 정보를 수신 (직접 계산하거나 외부의 센서를 이용하여 identify하여 수신)HoA receives the position information of the object on the sound scene (directly calculates or receives it by using an external sensor)

상기 object 위치 정보를 이용하여, 제1신호와 제2신호를 합성한 제3신호를 생성하는 방법 A method of generating a third signal obtained by synthesizing a first signal and a second signal using the object position information

2.2.

상기 제3신호는 hoa 신호인 것을 특징And the third signal is a hoa signal

3.3.

상기 제3신호는 다시 foa로 변환되어 재생(렌더링)되는 것을 특징The third signal is converted into foa and reproduced (rendered)

4.4.

제1신호, 제2신호 및 위치 정보를 비트열로 생성하여 전송하고, 상기 제3신호를 생성하는 과정은 수신단에서 이뤄지는 것을 특징The process of generating and transmitting the first signal, the second signal, and the position information to the bit stream and generating the third signal is performed by the receiving terminal

5.5.

상기 제3신호를 생성하는 방법에 있어서, 상기 제1신호를 foa로 변환, 제2신호를 foa로 변환하여 변환된 두 foa를 더하는 방법The method for generating the third signal may further comprise the steps of converting the first signal to foa, converting the second signal to foa,

6.6.

상기 제3신호를 생성함에 있어서, 상기 제1신호와 제2신호를 먼저 hoa에서 합성하고, 이를 foa로 변환하는 방법In generating the third signal, the first signal and the second signal are synthesized first by hoa and then converted into foa

Claims (1)

오디오 신호 처리 방법 및 장치.Method and apparatus for processing audio signal.
KR1020160067792A 2016-05-31 2016-05-31 A method and an apparatus for processing an audio signal KR20170135604A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020160067792A KR20170135604A (en) 2016-05-31 2016-05-31 A method and an apparatus for processing an audio signal
CN201780033291.6A CN109314832B (en) 2016-05-31 2017-05-30 Audio signal processing method and apparatus
US15/608,969 US10271157B2 (en) 2016-05-31 2017-05-30 Method and apparatus for processing audio signal
PCT/KR2017/005610 WO2017209477A1 (en) 2016-05-31 2017-05-30 Audio signal processing method and device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160067792A KR20170135604A (en) 2016-05-31 2016-05-31 A method and an apparatus for processing an audio signal

Publications (1)

Publication Number Publication Date
KR20170135604A true KR20170135604A (en) 2017-12-08

Family

ID=60919800

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160067792A KR20170135604A (en) 2016-05-31 2016-05-31 A method and an apparatus for processing an audio signal

Country Status (1)

Country Link
KR (1) KR20170135604A (en)

Similar Documents

Publication Publication Date Title
US10820134B2 (en) Near-field binaural rendering
US10674262B2 (en) Merging audio signals with spatial metadata
CN112262585B (en) Ambient stereo depth extraction
KR101431934B1 (en) An apparatus and a method for converting a first parametric spatial audio signal into a second parametric spatial audio signal
US9361898B2 (en) Three-dimensional sound compression and over-the-air-transmission during a call
KR20170106063A (en) A method and an apparatus for processing an audio signal
CN109314832B (en) Audio signal processing method and apparatus
CN112219236A (en) Spatial audio parameters and associated spatial audio playback
US10917718B2 (en) Audio signal processing method and device
CN109410912A (en) Method, apparatus, electronic equipment and the computer readable storage medium of audio processing
WO2019229300A1 (en) Spatial audio parameters
KR20170135604A (en) A method and an apparatus for processing an audio signal
EP4111709A1 (en) Apparatus, methods and computer programs for enabling rendering of spatial audio signals
KR20190060464A (en) Audio signal processing method and apparatus
WO2023085186A1 (en) Information processing device, information processing method, and information processing program
KR20180024612A (en) A method and an apparatus for processing an audio signal
KR20170135611A (en) A method and an apparatus for processing an audio signal
Epain et al. D3. 3: Object-based capture