KR20100049555A - 바이노럴 오브젝트―지향 오디오 디코더 - Google Patents

바이노럴 오브젝트―지향 오디오 디코더 Download PDF

Info

Publication number
KR20100049555A
KR20100049555A KR1020107001528A KR20107001528A KR20100049555A KR 20100049555 A KR20100049555 A KR 20100049555A KR 1020107001528 A KR1020107001528 A KR 1020107001528A KR 20107001528 A KR20107001528 A KR 20107001528A KR 20100049555 A KR20100049555 A KR 20100049555A
Authority
KR
South Korea
Prior art keywords
head
transfer function
related transfer
parameter
function parameters
Prior art date
Application number
KR1020107001528A
Other languages
English (en)
Other versions
KR101431253B1 (ko
Inventor
디르크 예. 브레바르트
Original Assignee
코닌클리케 필립스 일렉트로닉스 엔.브이.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 코닌클리케 필립스 일렉트로닉스 엔.브이. filed Critical 코닌클리케 필립스 일렉트로닉스 엔.브이.
Publication of KR20100049555A publication Critical patent/KR20100049555A/ko
Application granted granted Critical
Publication of KR101431253B1 publication Critical patent/KR101431253B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/01Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/03Application of parametric coding in stereophonic audio systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Stereophonic System (AREA)

Abstract

헤드-관련 전달 함수 파라미터들에 기초하여 적어도 하나의 오디오 오브젝트를 디코딩 및 렌더링하기 위한 디코딩 수단을 포함하는 바이노럴 오브젝트-지향 오디오 디코더가 제안된다. 디코딩 수단은 오디오 오브젝트를 가상 3-차원 공간에 포지셔닝시키기 위해 배열된다. 헤드-관련 전달 함수 파라미터들은 엘러베이션 파라미터, 방위각 파라미터, 및 거리 파라미터에 기초한다. 파라미터들은 가상 3-차원 공간에서 오디오 오브젝트의 위치에 대응한다. 바이노럴 오브젝트-지향 오디오 디코더는 헤드-관련 전달 함수 파라미터들을 수신하기 위해 구성되고, 수신된 헤드-관련 전달 함수 파라미터들은 엘러베이션 파라미터 및 방위각 파라미터에 대해서만 변화한다. 바이노럴 오브젝트-지향 오디오 디코더는 수신된 원하는 거리 파라미터에 따라 수신된 헤드-관련 전달 함수 파라미터들을 수정하기 위한 거리 프로세싱 수단을 포함하는 것을 특징으로 한다. 수정된 헤드-관련 전달 함수 파라미터들은 원하는 거리에서 3-차원들에 오디오 오브젝트를 포지셔닝시키기 위해 사용된다. 헤드-관련 전달 함수 파라미터들의 수정이 수신된 헤드-관련 전달 함수 파라미터들에 대한 미리 결정된 거리 파라미터에 기초한다.

Description

바이노럴 오브젝트―지향 오디오 디코더{A BINAURAL OBJECT-ORIENTED AUDIO DECODER}
본 발명은 헤드-관련 전달 함수 파라미터(head-related transfer function parameter)들에 기초하여 적어도 하나의 오디오 오브젝트(audio object)를 디코딩(decoding) 및 렌더링(rendering)하기 위한 디코딩 수단을 디코딩 수단을 포함하는 바이노럴 오브젝트-지향 오디오 디코더(binaural object-oriented audio decoder)로서, 디코딩 수단이 가상 3-차원 공간에 오디오 오브젝트를 포지셔닝(positioning)시키기 위해 배열되고, 헤드-관련 전달 함수 파라미터들이 엘러베이션 파라미터(elevation parameter), 방위각 파라미터(azimuth parameter), 및 거리 파라미터에 기초하고, 파라미터들이 가상 3-차원 공간에서의 오디오 오브젝트의 위치에 대응하고, 바이노럴 오브젝트-지향 오디오 디코더가 헤드-관련 전달 함수 파라미터들을 수신하기 위해 구성되고, 수신된 헤드-관련 전달 함수 파라미터들이 엘러베이션 파라미터 및 방위각 파라미터에 대해서만 변화하는, 상기 바이노럴 오브젝트-지향 오디오 디코더에 관한 것이다.
3-차원 음원 포지셔닝(Three-dimensional sound source positioning)은 점점 더 많은 관심을 받고 있다. 이것은 특히 모바일 도메인(mobile domain)에 대해 그러하다. 모바일 게임(mobile game)들에서의 음악 재생 및 음향 효과(sound effect)들은 3-차원 공간에 포지셔닝될 때 소비자에 대한 상당한 경험을 부가할 수 있다. 통상적으로, 3-차원 포지셔닝은 F. L. Wightman 및 D. J. Kistler의 "Headphone simulation of free-field listening. I. Stimulus systhesis" J. Acoust. Soc. Am., 85:858-867, 1989에서 설명된 바와 같은, 소위 헤드-관련 전달 함수(head-related transfer function; HRTF)들을 이용한다.
이들 함수들은 임펄스 응답(impulse response) 또는 헤드-관련 전달 함수에 의하여 어떤 음원 위치로부터 고막들로의 전달을 설명한다.
MPEG 표준화 기구 내에서, 3-차원 바이노럴 디코딩 및 렌더링 방법이 표준화되고 있다. 이 방법은 종래의 스테레오 입력 신호 또는 모노 입력 신호 중 하나로부터의 바이노럴 스테레오 출력 오디오의 발생을 포함한다. 이 소위 바이노럴 디코딩 방법은 Breebaart, J., Herre, J., Villemoes, L., Jin. C.,
Figure pct00001
K., Plogsties, J., Koppens, J.(2006)의 "Multi-channel goes mobile: MPEG Surround binaural rendering", Proc. 29th AES conference, Seoul, Korea로부터 공지된다. 일반적으로, 헤드-관련 전달 함수들 뿐만 아니라, 그들의 파라메트릭(parametric) 표현들은 엘러베이션, 방위각, 및 거리의 함수로서 변화한다. 그러나, 측정 데이터의 량을 감소시키기 위해, 헤드-관련 전달 함수 파라미터들은 주로 약 1 내지 2 미터의 고정된 거리에서 측정된다. 개발되고 있는 3-차원 바이노럴 디코더 내에서, 헤드-관련 전달 함수 파라미터들을 디코더에 제공하기 위한 인터페이스(interface)가 규정된다. 이 방식으로, 소비자는 상이한 헤드-관련 전달 함수들을 선택하거나 그/그녀 자신의 헤드-관련 전달 함수들을 제공할 수 있다. 그러나, 현재의 인터페이스는 제한된 세트의 엘러베이션 및/또는 방위각 파라미터들에 대해서만 규정된다는 단점을 갖는다. 이것은 상이한 거리들에서 음원들을 포지셔닝하는 효과가 포함되지 않고 소비자가 가상 음원들의 지각된 거리를 수정할 수 없다는 것을 의미한다. 또한, MPEG 서라운드 표준이 상이한 엘러베이션 및 거리 값들에 대해 헤드-관련 전달 함수 파라미터들에 대한 인터페이스를 제공할지라도, HRTF들이 대부분의 경우들에서 고정된 거리에서만 측정되고 거리에 대한 그들의 의존성이 선험적으로 공지되지 않기 때문에, 요구된 측정 데이터가 많은 경우들에서 이용가능하지 않다.
본 발명의 목적은 공간에서 오브젝트들의 임의의 가상 포지셔닝을 허용하는 강화된 바이노럴 오브젝트-지향 오디오 디코더를 제공하는 것이다.
이 목적은 청구항 1에 규정된 바와 같은 본 발명에 따른 바이노럴 오브젝트-지향 오디오 디코더에 의해 성취된다. 바이노럴 오브젝트-지향 오디오 디코더는 적어도 하나의 오디오 오브젝트를 디코딩 및 렌더링하기 위한 디코딩 수단을 포함한다. 디코딩 및 렌더링은 헤드-관련 전달 함수 파라미터들에 기초한다. (종종 하나의 단계로 조합된) 디코딩 및 렌더링은 디코딩된 오디오 오브젝트를 가상 3-차원 공간에 포지셔닝시키기 위해 사용된다. 헤드-관련 전달 함수 파라미터들은 엘러베이션 파라미터, 방위각 파라미터, 및 거리 파라미터에 기초한다. 이들 파라미터들은 3-차원 공간에서 오디오 오브젝트의 (원하는) 위치에 대응한다. 바이노럴 오브젝트-지향 오디오 디코더는 엘러베이션 파라미터 및 방위각 파라미터에 대해서만 변화하는 헤드-관련 전달 함수 파라미터들을 수신하기 위해 구성된다.
헤드-관련 전달 함수 파라미터들에 대한 거리 효과가 제공되지 않는 단점을 극복하기 위해, 본 발명은 수신된 원하는 거리에 따라 수신된 헤드-관련 전달 함수 파라미터들을 수정하는 것을 제안한다. 수정된 헤드-관련 전달 함수 파라미터들은 원하는 거리에서 3-차원 공간에 오디오 오브젝트를 포지셔닝시키기 위해 사용된다. 헤드-관련 전달 함수 파라미터들의 수정은 수신된 헤드-관련 전달 함수 파라미터에 대한 미리 결정된 거리 파라미터에 기초한다.
본 발명에 따른 바이노럴-오브젝트-지향 오디오 디코더의 장점은 헤드-관련 전달 함수 파라미터들이 파라미터들을 미리 결정된 거리로부터 원하는 거리로 수정함으로써 획득되는 거리 파라미터에 의해 확장될 수 있다는 것이다. 이 확장은 헤드-관련 전달 함수 파라미터들의 결정 동안 사용되었던 거리 파라미터의 명시적인 프로비저닝(explicit provisioning) 없이 성취된다. 이 방식으로, 바이노럴 오브젝트-지향 오디오 디코더는 엘러베이션 및 방위각 파라미터들만을 사용하는 고유의 한계가 없어지게 된다. 이 속성은 헤드-관련 전달 함수 파라미터들 중 대부분이 변화하는 거리 파라미터를 전혀 포함하지 않고, 엘러베이션, 방위각, 및 거리의 함수로서 헤드-관련 전달 함수 파라미터들의 측정이 매우 비용이 많이 들고 시간을 소비하기 때문에, 상당한 가치가 있다. 또한, 헤드-관련 전달 함수 파라미터들을 저장하기 위해 요구된 데이터의 량이 거리 파라미터가 포함되지 않을 때 상당히 감소된다.
부가적인 장점들은 다음과 같다. 제안된 발명에 의하면, 정확한 거리 프로세싱이 매우 제한된 계산적인 오버헤드(computational overhead)로 성취된다. 사용자는 작동 중에 오디오 오브젝트의 지각된 거리를 수정할 수 있다. 거리의 수정은 파라미터 도메인(parameter domain)에서 수행되고, 이는 헤드-관련 전달 함수 임펄스 응답에 대해 작용하는 거리 수정과 비교할 때(종래의 3-차원 합성 방법들을 적용할 때) 상당한 복잡성 감소를 야기한다. 게다가, 거리 수정은 원래 헤드-관련 임펄스 응답(head-related impulse response)들의 가용성(availability) 없이 적용될 수 있다.
일 실시예에서, 거리 프로세싱 수단은 오디오 오브젝트에 대응하는 거리 파라미터의 증가에 따라 헤드-관련 전달 함수 파라미터들의 레벨 파라미터들을 감소시키기 위해 배열된다. 이 실시예에 의하면, 거리 변화는 거리 변화가 실제로 현실에서 발생할 때 헤드-관련 전달 함수 파라미터들에 적절하게 영향을 미친다.
일 실시예에서, 거리 프로세싱 수단은 미리 결정된 거리 파라미터, 및 원하는 거리의 함수인 스케일 팩터(scalefactor)들에 의한 스케일링(scaling)을 사용하기 위해 배열된다. 스케일링의 장점은 계산적인 노력이 스케일 팩터 계산 및 단순한 승산(multiplication)으로 제한된다는 것이다. 승산은 큰 계산적인 오버헤드를 도입하지 않는 매우 간단한 연산이다.
일 실시예에서, 스케일 팩터는 미리 결정된 거리 파라미터 및 원하는 거리의 비율이다. 스케일 팩터를 계산하는 이러한 방식은 매우 간단하고 충분히 정확하다.
일 실시예에서, 스케일 팩터들은 2개의 귀(ear)들 각각에 대해 계산되고, 각 스케일 팩터는 2개의 귀들에 대한 경로-길이 차들을 포함한다. 스케일 팩터들을 계산하는 이 방식은 거리 모델링/수정에 대한 더 많은 정확성을 제공한다.
일 실시예에서, 미리 결정된 거리 파라미터는 대략 2 미터의 값을 취한다. 상기 언급된 바와 같이, 측정 데이터의 량을 감소시키기 위해서, 헤드-관련 전달 함수 파라미터들은 주로 약 1 내지 2 미터의 고정된 거리에서 측정되는데, 그 이유는 전방 2 미터로부터, HRTF들의 양귀간 속성(inter-aural property)들이 거리에 따라 가상적으로 일정하다는 것이 공지되기 때문이다.
일 실시예에서, 원하는 거리 파라미터는 오브젝트-지향 오디오 인코더에 의해 제공된다. 이것은 디코더가 오디오 오브젝트들의 위치를 3-차원 공간에서 적절하게 재생하도록 한다.
일 실시예에서, 원하는 거리 파라미터는 사용자에 의한 전용 인터페이스를 통해 제공된다. 이것은 사용자가 디코딩된 오디오 오브젝트들을 그/그녀가 원하는 3-차원 공간에 자유롭게 포지셔닝시키도록 한다.
일 실시예에서, 디코딩 수단은 MPEG 서라운드 표준에 따른 디코더를 포함한다. 이 속성은 기존의 MPEG 서라운드 디코더의 재-사용을 허용하고, 디코더가 다르게 이용가능하지 않은 새로운 특징들을 획득할 수 있도록 한다.
본 발명은 방법 청구항들 뿐만 아니라, 프로그래밍가능한 디바이스가 본 발명에 따른 방법을 수행할 수 있도록 하는 컴퓨터 프로그램 제품을 추가로 제공한다.
본 발명의 이들 양태들 및 다른 양태들은 도면들에 도시된 실시예들로부터 명백해질 것이고 상기 실시예들을 참조하여 설명될 것이다.
도 1은 미리 결정된 거리 파라미터에 대한 헤드-관련 전달 함수 파라미터들을 원하는 거리에 대한 새로운 헤드-관련 전달 함수 파라미터들로 수정하기 위한 거리 프로세싱 수단을 포함하는 오브젝트-지향 오디오 디코더를 개략적으로 도시한 도면.
도 2는 동측성 귀(ipsilateral ear), 대측성 귀(contralateral ear), 및 오디오 오브젝트의 지각된 위치를 개략적으로 도시한 도면.
도 3은 본 발명의 일부 실시예들에 따른 디코딩 방법에 대한 흐름도.
도면들 전체에 걸쳐, 동일한 참조 번호들은 유사하거나 대응하는 피처(feature)들을 나타낸다. 도면들에 표시된 피처들 중 일부는 전형적으로 소프트웨어로 구현되고, 이와 같이, 소프트웨어 모듈들 또는 오브젝트들과 같은, 소프트웨어 엔티티들(software entities)을 표현한다.
도 1은 미리 결정된 거리 파라미터에 대한 헤드-관련 전달 함수 파라미터들을 원하는 거리에 대한 새로운 헤드-관련 전달 함수 파라미터들로 수정하기 위한 거리 프로세싱 수단(200)을 포함하는 오브젝트-지향 오디오 디코더(500)를 개략적으로 도시한다. 디코더 디바이스(100)는 현재 표준화된 바이노럴 오브젝트-지향 오디오 디코더를 표현한다. 디코더 디바이스(100)는 헤드-관련 전달 함수 파라미터들에 기초하여 적어도 하나의 오디오 오브젝트를 디코딩 및 렌더링하기 위한 디코딩 수단을 포함한다. 예시적 디코딩 수단은 QMF 분석 유닛(110), 파라미터 변환 유닛(120), 공간적 합성기(spatial systhesis)(130), 및 QMF 합성 유닛(140)을 포함한다. 바이노럴 오브젝트-지향 디코딩의 세부사항들은 Breebaart, J., Herre, J., Villemoes, L., Jin, C.,
Figure pct00002
K., Plogsties, J., Koppens, J.(2006)의 "Multi-channel goes mobile: MPEG Surround binaural rendering", Proc. 29th AES conference, Seoul, Korea, 및 ISO/IEC JTC1/SC29/WG11 N8853: "Call for proposals on Spatial Audio Object Coding"에 제공된다.
다운-믹스(down-mix)(101)가 파라미터 변환 유닛(120)에 공급된 바와 같은, 오브젝트 파라미터들(102) 및 헤드-관련 전달 함수 파라미터들에 기초하여 다운-믹스로부터의 오디오 오브젝트들을 디코딩 및 렌더링하는 디코딩 수단 내로 공급될 때, (종종 하나의 단계로 조합된) 상기 디코딩 및 렌더링은 디코딩된 오디오 오브젝트를 가상 3-차원 공간에 포지셔닝시킨다.
더 구체적으로, 다운 믹스(101)는 QMF 분석 유닛(110) 내로 공급된다. 이 유닛에 의해 수행된 프로세싱은 Breebaart, J., van de Par, S., Kohlrausch, A., 및 Schuijers, E.(2005)의 Parametric coding of stereo audio. Eurasip J. Applied Signal Proc., issue 9: special issue on anthropomorphic processing of audio and speech, 1305-1322에 설명된다.
오브젝트 파라미터들(102)은 파라미터 변환 유닛(120) 내로 공급된다. 파라미터 변환 유닛은 수신된 HRTF 파라미터들에 기초한 오브젝트 파라미터들을 바이노럴 파라미터들(104)로 변환한다. 바이노럴 파라미터들은 모두가 가상 공간에서 자신의 위치를 갖는 하나 이상의 오브젝트 신호들에 동시적으로 기인하는 레벨 차들, 위상 차들 및 간섭 값들을 포함한다. 바이노럴 파 라미터들의 세부사항들은 Breebaart, J., Herre, J., Villemoes, L., Jin, C.,
Figure pct00003
K., Plogsties, J., Koppens, J.(2006)의 "Multi-channel goes mobile: MPEG Surround binaural rendering", Proc. 29th AES conference, Seoul, Korea, 및 Breebaart, J., Faller, C의 "Spatial audio processing: MPEG Surround and other applications", John Wiley & Sons, 2007에서 발견된다.
QMF 분석 유닛의 출력 및 바이노럴 파라미터들이 공간적 합성 유닛(130) 내로 공급된다. 이 유닛에 의해 수행된 프로세싱은 Breebaart, J., van de Par, S., Kohlrausch, A., 및 Schuijers, E(2005)의 Parametric coding of stereo audio. Eurasip J. Applied Signal Proc., issue 9: special issue on anthropomorphic processing of audio and speech, 1305-1322에 설명된다. 후속적으로, 공간적 합성 유닛(130)의 출력은 3차원 스테레오 출력을 생성하는 QMF 합성 유닛(140) 내로 공급된다.
헤드-관련 전달 함수(HRTF) 파라미터들은 엘러베이션 파라미터, 방위각 파라미터, 및 거리 파라미터에 기초한다. 이들 파라미터들은 3-차원 공간에서 오디오 오브젝트의 (원하는) 위치에 대응한다.
개발되었던 바이노럴 오브젝트-지향 오디오 디코더(100) 내에서, 디코더에 헤드-관련 전달 함수 파라미터들을 제공하기 위한 파라미터 변환 유닛(120)으로의 인터페이스가 규정된다. 그러나, 현재의 인터페이스는 제한된 세트의 엘러베이션 및/또는 방위각 파라미터들에 대해서만 규정된다는 단점을 갖는다.
헤드-관련 전달 함수 파라미터들에 대한 거리 효과를 가능하게 하기 위해, 본 발명은 수신된 원하는 거리 파라미터에 따라 수신된 헤드-관련 전달 함수 파라미터들을 수정하는 것을 제안한다. HRTF 파라미터들의 수정은 수신된 HRTF 파라미터들에 대한 미리 결정된 거리 파라미터에 기초한다. 이 수정은 거리 프로세싱 수단(200)에서 발생한다. 오디오 오브젝트 당 원하는 거리(202)와 함께 HRTF 파라미터들(201)이 거리 프로세싱 수단(200) 내로 공급된다. 거리 프로세싱 수단에 의해 생성된 바와 같은 수정된 헤드-관련 전달 함수 파라미터들(103)이 파라미터 변환 유닛(120) 내로 공급되고, 원하는 거리에서 가상 3-차원 공간에 오디오 오브젝트를 포지셔닝시키기 위해 사용된다.
본 발명에 따른 바이노럴 오브젝트-지향 오디오 디코더의 장점은 헤드-관련 전달 함수 파라미터들이 미리 결정된 거리로부터 원하는 거리로 파라미터들을 수정함으로써 획득되는 거리 파라미터에 의해 확장될 수 있다는 것이다. 이 확장은 헤드-관련 전달 함수 파라미터들의 결정 동안 사용되었던 거리 파라미터의 명시적인 프로비저닝 없이 성취된다. 이 방식으로, 바이노럴 오브젝트-지향 오디오 디코더(500)는 디코더 디바이스(100)의 경우인 엘러베이션 및 방위각 파라미터들만을 사용하는 고유의 한계가 없어지게 된다. 이 속성은 헤드-관련 전달 함수 파라미터들 중 대부분이 변화하는 거리 파라미터를 전혀 포함하지 않고, 엘러베이션, 방위각, 및 거리의 함수로서 헤드-관련 전달 함수 파라미터들의 측정이 매우 비용이 많이 들고 시간을 소비하기 때문에, 상당한 가치가 있다. 또한, 헤드-관련 전달 함수 파라미터들을 저장하기 위해 요구된 데이터의 량이 거리 파라미터가 포함되지 않을 때 상당히 감소된다.
부가적인 장점들은 다음과 같다. 제안된 발명에 의하면, 정확한 거리 프로세싱이 매우 제한된 계산적인 오버헤드로 성취된다. 사용자는 작동 중에 오디오 오브젝트의 지각된 거리를 수정할 수 있다. 거리의 수정은 파라미터 도메인에서 수행되고, 이는 헤드-관련 전달 함수 임펄스 응답에 대해 작용하는 거리 수정과 비교할 때(종래의 3-차원 합성 방법들을 적용할 때) 상당한 복잡성 감소를 야기한다. 게다가, 거리 수정은 원래 헤드-관련 임펄스 응답들의 가용성 없이 적용될 수 있다.
도 2는 동측성 귀, 대측성 귀, 및 오디오 오브젝트의 지각된 위치를 개략적으로 도시한다. 오디오 오브젝트는 위치(320)에 가상적으로 포지셔닝된다. 오디오 오브젝트는 오디오 오브젝트까지의 각각의 귀의 거리(302 및 303)에 따라 사용자의 동측성(=좌측) 귀 및 대측성(=우측) 귀에 의해 상이하게 지각된다. 사용자의 기준 거리(301)는 동측성 귀와 대측성 귀 사이의 간격의 중심으로부터 오디오 오브젝트의 위치까지 측정된다.
일 실시예에서, 헤드-관련 전달 함수 파라미터들은 적어도 동측성 귀에 대한 레벨, 대측성 귀에 대한 레벨, 및 동측성 귀와 대측성 귀 사이의 위상 차를 포함하고, 파라미터들은 오디오 오브젝트의 지각된 위치를 결정한다. 이들 파라미터들은 주파수 대역 인덱스(frequency band index)(b), 엘러베이션 각도(e) 및 방위 각도(a)의 각각의 조합에 대해 결정된다. 동측성 귀에 대한 레벨은 Pi(a,e,b)로 표시되고, 대측성 귀에 대한 레벨은 Pc(a,e,b)로 표시되고, 동측성 귀와 대측성 귀 사이의 위상 차는 φ(a,e,b)로 표시된다. HRTF들에 대한 상세한 정보는 F. L. Wightman 및 D. J. Kistler의 "Headphone simulation of free-field listening, I. Stimulus synthesis" J. Acoust. Soc. Am., 85: 858-867, 1989에서 발견된다. 주파수 대역 당 레벨 파라미터들은 (스펙트럼에서 특정 피크(peak)들 및 트러프(trough)들에 기인한) 엘러베이션 뿐만 아니라, (각 대역에 대한 레벨 파라미터들의 비율에 의해 결정된) 방위각에 대한 레벨 차이들 둘 모두를 용이하게 한다. 절대 위상 값들 또는 위상 차 값들에 의해 양 귀들 사이의 도착 시간 차이들이 캡처(capture)되고, 도착 시간은 또한 오디오 오브젝트 방위각에 대한 중요한 큐(cue)들이다.
거리 프로세싱 수단(200)은 주어진 엘러베이션 각도(e), 방위 각도(a), 및 주파수 대역(b) 뿐만 아니라, 번호 202로 도시된, 원하는 거리(d)에 대한 HRTF 파라미터들(201)을 수신한다. 거리 프로세싱 수단(200)의 출력은 파라미터 변환 유닛(120)으로의 입력으로서 사용되는 수정된 HRTF 파라미터들(Pi'(a,e,b), Pc'(a,e,b) 및 φ'(a,e,b))을 포함하고:
{Pi'(a,e,b),Pc'(a,e,b),φ'(a,e,b)}=D(Pi(a,e,b),Pc(a,e,b),φ(a,e,b),d)
여기서, 인덱스(i)는 동측성 귀에 대해 사용되고, 인덱스(c)는 대측성 귀에 대해 사용되고, d는 원하는 거리를 나타내고, 함수(D)는 필요한 수정 프로세싱을 표현한다. 위상 차가 오디오 오브젝트까지의 거리의 변화에 따라 변화하지 않기 때문에 레벨들만이 변경된다는 점이 주의되어야 한다.
일 실시예에서, 거리 프로세싱 수단은 오디오 오브젝트에 대응하는 거리 파라미터의 증가에 따라 헤드-관련 전달 함수 파라미터들의 레벨 파라미터들을 감소시키기 위해 배열된다. 이 실시예에 의하면, 거리 변화는 거리 변화가 실제로 현실에서 발생할 때 헤드-관련 전달 함수 파라미터들에 적절하게 영향을 미친다.
일 실시예에서, 거리 프로세싱 수단은 미리 결정된 거리 파라미터(dref)(301) 및 원하는 거리(d)의 함수인 스케일 팩터들에 의한 스케일링을 사용하기 위해 배열되고:
P'x(a,e,b)=gx(a,e,b,d)Px(a,e,b)
여기서, 레벨의 인덱스(X)는 동측성 귀 및 대측성 귀에 대해 각각 값 i 또는 c를 취한다.
스케일 팩터들(gi 및 gc)은 거리의 함수로서 HRTF 파라미터들(Px)의 변화를 예측하는 어떤 거리 모델(G(a,e,b,d))로부터 기인하고:
Figure pct00004
여기서, d는 원하는 거리이고, dref는 HRTF 측정치들의 거리(301)이다. 스케일링의 장점은 계산적인 노력이 스케일 팩터 계산 및 단순한 승산으로 제한된다는 것이다. 승산은 큰 계산적인 오버헤드를 도입하지 않는 매우 간단한 연산이다.
일 실시예에서, 스케일 팩터는 미리 결정된 거리 파라미터(dref) 및 원하는 거리(d)의 비율이다:
Figure pct00005
스케일 팩터를 계산하는 이러한 방식은 매우 간단하고 충분히 정확하다.
일 실시예에서, 스케일 팩터들은 2개의 귀들 각각에 대해 계산되고, 각 스케일 팩터는 2개의 귀들에 대한 경로-길이 차들, 즉, 302 및 303 사이의 차를 포함한다. 그 다음, 동측성 귀 및 대측성 귀에 대한 스케일 팩터들이 다음으로서 표현되고:
Figure pct00006
여기서, β는 헤드의 반경(전형적으로 8 내지 9cm)이다. 스케일 팩터들을 계산하는 이 방식은 거리 모델링/수정에 대한 더 많은 정확성을 제공한다.
대안적으로, 함수(D)는 HRTF 파라미터들(Pi 및 Pc)에 대해 적용된 스케일 팩터(gi)로서의 승산으로서 구현되는 것이 아니라, 거리의 증가에 따라 Pi 및 Pc의 값을 감소시키는 더 일반적인 함수인데, 예를 들면:
Figure pct00007
여기서, ε은 매우 작은 거리들에서 비헤이비어(behavior)에 영향을 주고 0에 의한 나눗셈을 방지하는 변수이다.
일 실시예에서, 미리 결정된 거리 파라미터는 대략 2 미터의 값을 취하는데, 이는 이 가정 A. Kan, C. Jin, A. van Schaik의 "Psychoacoustic evaluation of a new method for simulating near-field virtual auditory space", Proc. 120th AES convention, Paris, France(2006)에 대한 설명을 참조하라. 상기 언급된 바와 같이, 측정 데이터의 량을 감소시키기 위해서, 헤드-관련 전달 함수 파라미터들은 주로 약 1 내지 2 미터의 고정된 거리에서 측정된다. 0 내지 2 미터의 범위의 거리의 변동이 헤드-관련 전달 함수 파라미터들의 상당한 파라미터 변화들을 야기한다는 점이 주의되어야 한다.
일 실시예에서, 원하는 거리 파라미터는 오브젝트-지향 오디오 인코더에 의해 제공된다. 이것은 디코더가 레코딩/인코딩 시에 존재하였던 바와 같은 오디오 오브젝트들의 위치를 3-차원 공간에서 적절하게 재생하도록 한다.
일 실시예에서, 원하는 거리 파라미터는 사용자에 의한 전용 인터페이스를 통해 제공된다. 이것은 사용자가 디코딩된 오디오 오브젝트들을 그/그녀가 원하는 3-차원 공간에 자유롭게 포지셔닝시키도록 한다.
일 실시예에서, 디코딩 수단(100)은 MPEG 서라운드 표준에 따른 디코더를 포함한다. 이 속성은 기존의 MPEG 서라운드 디코더의 재-사용을 허용하고, 디코더가 다르게 이용가능하지 않은 새로운 특징들을 얻을 수 있도록 한다.
도 3은 본 발명의 일부 실시예들에 따른 디코딩 방법에 대한 흐름도를 도시한다. 단계(410)에서, 대응하는 오브젝트 파라미터들과의 다운-믹스가 수신된다. 단계(420)에서, 원하는 거리 및 HRTF 파라미터들이 획득된다. 후속적으로, 단계(430)에서, 거리 프로세싱이 수행된다. 이 단계의 결과로서, 미리 결정된 거리 파라미터에 대한 HRTF 파라미터들이 수신된 원하는 거리에 대한 수정된 HRTF 파라미터들로 변환된다. 단계(440)에서, 수신된 다운-믹스가 수신된 오브젝트 파라미터들에 기초하여 디코딩된다. 단계(450)에서, 디코딩된 오디오 오브젝트들이 수정된 HRTF 파라미터들에 따라 3-차원 공간에 배치된다. 마지막 2개의 단계들은 효율성 때문에 하나의 단계에서 조합될 수 있다.
일 실시예에서, 컴퓨터 프로그램 제품이 본 발명에 따른 방법을 실행한다.
일 실시예에서, 오디오 재생 디바이스는 본 발명에 따른 바이노럴 오브젝트-지향 오디오 디코더를 포함한다.
상기 언급된 실시예들이 본 발명을 제한하기보다는 오히려 예시한다는 점이 주의되어야 하고, 당업자들은 첨부된 청구항들의 범위로부터 벗어남이 없이 많은 대안적인 실시예들을 디자인할 수 있을 것이다.
첨부된 청구항들에서, 괄호들 사이에 배치된 임의의 참조 부호들은 청구항을 제한하는 것으로서 해석되어서는 안될 것이다. 단어 "포함하는(comprising)"은 청구항에서 목록화된 것들 이외의 소자들 및 단계들의 존재를 배제하지 않는다. 소자 앞의 단어 "a" 또는 "an"은 복수의 이러한 소자들의 존재를 배제하지 않는다. 본 발명은 여러 상이한 소자들을 포함하는 하드웨어, 및 적합하게 프로그래밍된 컴퓨터에 의해 구현될 수 있다.
100: 디코더 디바이스 101: 다운-믹스
102: 오브젝트 파라미터들
103: 수정된 헤드-관련 전달 함수 파라미터들
104: 바이노럴 파라미터들 110: QMF 분석 유닛
120: 파라미터 변환 유닛 130: 공간적 합성기
140: QMF 합성 유닛 200: 거리 프로세싱 유닛
201: HRTF 파라미터들
202: 오디오 오브젝트 당 원하는 거리
500: 바이노럴 오브젝트-지향 오디오 디코더

Claims (16)

  1. 헤드-관련 전달 함수 파라미터들에 기초하여 적어도 하나의 오디오 오브젝트를 디코딩 및 렌더링하기 위한 디코딩 수단을 포함하는 바이노럴 오브젝트-지향 오디오 디코더로서, 상기 디코딩 수단은 가상 3-차원 공간에 오디오 오브젝트를 포지셔닝(positioning)시키기 위해 배열되고, 상기 헤드-관련 전달 함수 파라미터들은 엘러베이션 파라미터(elevation parameter), 방위각 파라미터(azimuth parameter), 및 거리 파라미터에 기초하고, 상기 파라미터들은 상기 가상 3-차원 공간의 오디오 오브젝트의 위치에 대응하고, 상기 바이노럴 오브젝트-지향 오디오 디코더는 상기 헤드-관련 전달 함수 파라미터들을 수신하기 위해 구성되고, 상기 수신된 헤드-관련 전달 함수 파라미터들은 상기 엘러베이션 파라미터 및 상기 방위각 파라미터에 대해서만 변화하는, 상기 바이노럴 오브젝트-지향 오디오 디코더에 있어서,
    수신된 원하는 거리 파라미터에 따라 상기 수신된 헤드-관련 전달 함수 파라미터들을 수정하기 위한 거리 프로세싱 수단으로서, 상기 수정된 헤드-관련 전달 함수 파라미터들은 원하는 거리에서 3-차원에 상기 오디오 오브젝트를 포지셔닝시키기 위해 사용되고, 상기 헤드-관련 전달 함수 파라미터들의 수정은 상기 수신된 헤드-관련 함수 파라미터들에 대한 미리 결정된 거리 파라미터에 기초하는, 상기 거리 프로세싱 수단을 포함하는 것을 특징으로 하는, 바이노럴 오브젝트-지향 오디오 디코더.
  2. 제 1 항에 있어서,
    상기 헤드-관련 전달 함수 파라미터들은 적어도 동측성 귀(ipsilateral ear)에 대한 레벨 파라미터, 대측성 귀(contra lateral ear)에 대한 레벨 파라미터, 및 상기 동측성 귀와 상기 대측성 귀 사이의 위상 차를 포함하고, 상기 파라미터들은 상기 오디오 오브젝트의 지각된 위치를 결정하는, 바이노럴 오브젝트-지향 오디오 디코더.
  3. 제 2 항에 있어서,
    상기 거리 프로세싱 수단은 상기 오디오 오브젝트에 대응하는 거리 파라미터의 증가에 따라 상기 헤드-관련 함수 파라미터들의 레벨 파라미터들을 감소시키기 위해 배열되는, 바이노럴 오브젝트-지향 오디오 디코더.
  4. 제 3 항에 있어서,
    상기 거리 프로세싱 수단은 스케일 팩터들(scalefactors)로서, 미리 결정된 거리 파라미터, 및 원하는 거리의 함수인, 상기 스케일 팩터들에 의한 스케일링(scaling)을 사용하기 위해 배열되는, 바이노럴 오브젝트-지향 오디오 디코더.
  5. 제 4 항에 있어서,
    상기 스케일 팩터는 상기 미리 결정된 거리 파라미터 및 상기 원하는 거리의 비율인, 바이노럴 오브젝트-지향 오디오 디코더.
  6. 제 4 항에 있어서,
    상기 스케일 팩터들은 2개의 귀들 각각에 대해 계산되고, 각 스케일 팩터는 상기 2개의 귀들에 대한 경로-길이 차들을 포함하는, 바이노럴 오브젝트-지향 오디오 디코더.
  7. 제 3 항에 있어서,
    상기 미리 결정된 거리 파라미터는 대략 2 미터의 값을 취하는, 바이노럴 오브젝트-지향 오디오 디코더.
  8. 제 1 항에 있어서,
    상기 원하는 거리 파라미터는 오브젝트-지향 오디오 인코더에 의해 제공되는, 바이노럴 오브젝트-지향 오디오 디코더.
  9. 제 1 항에 있어서,
    상기 원하는 거리 파라미터는 사용자에 의한 전용 인터페이스를 통해 제공되는, 바이노럴 오브젝트-지향 오디오 디코더.
  10. 제 1 항에 있어서,
    상기 디코딩 수단은 MPEG 서라운드 표준에 따른 디코더를 포함하는, 바이노럴 오브젝트-지향 오디오 디코더.
  11. 헤드-관련 전달 함수 파라미터들에 기초하여 적어도 하나의 오디오 오브젝트를 디코딩 및 렌더링하는 단계를 포함하는 오디오를 디코딩하는 방법으로서, 상기 디코딩 및 렌더링 단계는 가상 3-차원 공간에 오디오 오브젝트를 포지셔닝시키는 단계를 포함하고, 상기 헤드-관련 전달 함수 파라미터들이 엘러베이션 파라미터, 방위각 파라미터, 및 거리 파라미터에 기초하고, 상기 파라미터들은 상기 가상 3-차원 공간의 오디오 오브젝트의 위치에 대응하고, 상기 디코딩 및 렌더링 단계는 수신된 헤드-관련 전달 함수 파라미터들에 기초하고, 상기 수신된 헤드-관련 전달 함수 파라미터들은 상기 엘러베이션 파라미터 및 상기 방위각 파라미터에 대해서만 변화하는, 상기 오디오 디코딩 방법에 있어서,
    수신된 원하는 거리 파라미터에 따라 상기 수신된 헤드-관련 전달 함수 파라미터들을 수정하는 단계로서, 상기 수정된 헤드-관련 전달 함수 파라미터들은 원하는 거리에서 3-차원에 상기 오디오 오브젝트를 포지셔닝시키기 위해 사용되고, 상기 헤드-관련 전달 함수 파라미터들의 수정은 상기 수신된 헤드-관련 함수 파라미터들에 대한 미리 결정된 거리 파라미터에 기초하는, 상기 수신된 헤드-관련 전달 함수 파라미터들 수정 단계를 포함하는 것을 특징으로 하는, 오디오 디코딩 방법.
  12. 제 11 항에 있어서,
    상기 헤드-관련 전달 함수 파라미터들을 수정하는 단계는 상기 헤드-관련 전달 함수 파라미터들의 레벨 파라미터들의 감소가 상기 오디오 오브젝트의 대응하는 거리 파라미터의 증가를 발생시키도록 하는, 오디오 디코딩 방법.
  13. 제 12 항에 있어서,
    상기 헤드-관련 전달 함수 파라미터들을 수정하는 단계는 스케일 팩터들로서, 상기 미리 결정된 거리 파라미터, 및 원하는 거리의 함수인, 상기 스케일 팩터들에 의한 스케일링을 통해 수행되는, 오디오 디코딩 방법.
  14. 제 11 항에 있어서,
    상기 디코딩 단계 및 상기 렌더링 단계는 바이노럴 MPEG 서라운드 표준에 따라 수행되는, 오디오 디코딩 방법.
  15. 제 11 항 내지 14 항 중 어느 한 항에 따른 상기 오디오 디코딩 방법을 실행하기 위한, 컴퓨터 프로그램 제품.
  16. 제 1 항에 따른 바이노럴 오브젝트-지향 오디오 디코더를 포함하는, 오디오 재생 디바이스.
KR1020107001528A 2007-06-26 2008-06-23 바이노럴 오브젝트―지향 오디오 디코더 KR101431253B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP07111073 2007-06-26
EP07111073.8 2007-06-26
PCT/IB2008/052469 WO2009001277A1 (en) 2007-06-26 2008-06-23 A binaural object-oriented audio decoder

Publications (2)

Publication Number Publication Date
KR20100049555A true KR20100049555A (ko) 2010-05-12
KR101431253B1 KR101431253B1 (ko) 2014-08-21

Family

ID=39811962

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020107001528A KR101431253B1 (ko) 2007-06-26 2008-06-23 바이노럴 오브젝트―지향 오디오 디코더

Country Status (7)

Country Link
US (1) US8682679B2 (ko)
EP (1) EP2158791A1 (ko)
JP (1) JP5752414B2 (ko)
KR (1) KR101431253B1 (ko)
CN (1) CN101690269A (ko)
TW (1) TW200922365A (ko)
WO (1) WO2009001277A1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101627652B1 (ko) * 2015-01-30 2016-06-07 가우디오디오랩 주식회사 바이노럴 렌더링을 위한 오디오 신호 처리 장치 및 방법
WO2017126895A1 (ko) * 2016-01-19 2017-07-27 지오디오랩 인코포레이티드 오디오 신호 처리 장치 및 처리 방법
KR20190028697A (ko) * 2016-07-15 2019-03-19 퀄컴 인코포레이티드 가상, 증강, 및 혼합 현실

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL186237A (en) 2007-09-24 2013-11-28 Alon Schaffer Flexible rack for bicycle gear
CN102549655B (zh) 2009-08-14 2014-09-24 Dts有限责任公司 自适应成流音频对象的系统
EP2346028A1 (en) 2009-12-17 2011-07-20 Fraunhofer-Gesellschaft zur Förderung der Angewandten Forschung e.V. An apparatus and a method for converting a first parametric spatial audio signal into a second parametric spatial audio signal
KR20120004909A (ko) 2010-07-07 2012-01-13 삼성전자주식회사 입체 음향 재생 방법 및 장치
US9026450B2 (en) 2011-03-09 2015-05-05 Dts Llc System for dynamically creating and rendering audio objects
WO2014007097A1 (ja) 2012-07-02 2014-01-09 ソニー株式会社 復号装置および方法、符号化装置および方法、並びにプログラム
EP2741285B1 (en) 2012-07-02 2019-04-10 Sony Corporation Decoding device and method, encoding device and method, and program
CA2843223A1 (en) 2012-07-02 2014-01-09 Sony Corporation Decoding device, decoding method, encoding device, encoding method, and program
TWI517142B (zh) 2012-07-02 2016-01-11 Sony Corp Audio decoding apparatus and method, audio coding apparatus and method, and program
EP2943952A1 (en) * 2013-01-14 2015-11-18 Koninklijke Philips N.V. Multichannel encoder and decoder with efficient transmission of position information
TR201808415T4 (tr) * 2013-01-15 2018-07-23 Koninklijke Philips Nv Binoral ses işleme.
US9558785B2 (en) 2013-04-05 2017-01-31 Dts, Inc. Layered audio coding and transmission
WO2014171791A1 (ko) 2013-04-19 2014-10-23 한국전자통신연구원 다채널 오디오 신호 처리 장치 및 방법
US9319819B2 (en) * 2013-07-25 2016-04-19 Etri Binaural rendering method and apparatus for decoding multi channel audio
CN109068263B (zh) 2013-10-31 2021-08-24 杜比实验室特许公司 使用元数据处理的耳机的双耳呈现
EP2869599B1 (en) 2013-11-05 2020-10-21 Oticon A/s A binaural hearing assistance system comprising a database of head related transfer functions
CN104869524B (zh) * 2014-02-26 2018-02-16 腾讯科技(深圳)有限公司 三维虚拟场景中的声音处理方法及装置
WO2015134658A1 (en) 2014-03-06 2015-09-11 Dolby Laboratories Licensing Corporation Structural modeling of the head related impulse response
US9602946B2 (en) 2014-12-19 2017-03-21 Nokia Technologies Oy Method and apparatus for providing virtual audio reproduction
TWI607655B (zh) 2015-06-19 2017-12-01 Sony Corp Coding apparatus and method, decoding apparatus and method, and program
JP6642989B2 (ja) * 2015-07-06 2020-02-12 キヤノン株式会社 制御装置、制御方法及びプログラム
EP3406088B1 (en) * 2016-01-19 2022-03-02 Sphereo Sound Ltd. Synthesis of signals for immersive audio playback
CN105933826A (zh) * 2016-06-07 2016-09-07 惠州Tcl移动通信有限公司 一种自动设置声场的方法、系统及耳机
EP3488623B1 (en) * 2016-07-20 2020-12-02 Dolby Laboratories Licensing Corporation Audio object clustering based on renderer-aware perceptual difference
WO2018079254A1 (en) 2016-10-28 2018-05-03 Panasonic Intellectual Property Corporation Of America Binaural rendering apparatus and method for playing back of multiple audio sources
EP3422743B1 (en) 2017-06-26 2021-02-24 Nokia Technologies Oy An apparatus and associated methods for audio presented as spatial audio
WO2019035622A1 (ko) * 2017-08-17 2019-02-21 가우디오디오랩 주식회사 앰비소닉 신호를 사용하는 오디오 신호 처리 방법 및 장치
RU2020116581A (ru) 2017-12-12 2021-11-22 Сони Корпорейшн Программа, способ и устройство для обработки сигнала
FR3075443A1 (fr) * 2017-12-19 2019-06-21 Orange Traitement d'un signal monophonique dans un decodeur audio 3d restituant un contenu binaural
US11503419B2 (en) 2018-07-18 2022-11-15 Sphereo Sound Ltd. Detection of audio panning and synthesis of 3D audio from limited-channel surround sound
CN109413546A (zh) * 2018-10-30 2019-03-01 Oppo广东移动通信有限公司 音频处理方法、装置、终端设备及存储介质

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08107600A (ja) * 1994-10-04 1996-04-23 Yamaha Corp 音像定位装置
JP3528284B2 (ja) * 1994-11-18 2004-05-17 ヤマハ株式会社 3次元サウンドシステム
JP3258195B2 (ja) * 1995-03-27 2002-02-18 シャープ株式会社 音像定位制御装置
US6421446B1 (en) * 1996-09-25 2002-07-16 Qsound Labs, Inc. Apparatus for creating 3D audio imaging over headphones using binaural synthesis including elevation
US7085393B1 (en) * 1998-11-13 2006-08-01 Agere Systems Inc. Method and apparatus for regularizing measured HRTF for smooth 3D digital audio
GB9726338D0 (en) * 1997-12-13 1998-02-11 Central Research Lab Ltd A method of processing an audio signal
GB2343347B (en) * 1998-06-20 2002-12-31 Central Research Lab Ltd A method of synthesising an audio signal
JP2002176700A (ja) * 2000-09-26 2002-06-21 Matsushita Electric Ind Co Ltd 信号処理装置および記録媒体
US7928311B2 (en) * 2004-12-01 2011-04-19 Creative Technology Ltd System and method for forming and rendering 3D MIDI messages
KR100606734B1 (ko) * 2005-02-04 2006-08-01 엘지전자 주식회사 삼차원 입체음향 구현 방법 및 그 장치
JP4602204B2 (ja) * 2005-08-31 2010-12-22 ソニー株式会社 音声信号処理装置および音声信号処理方法
CN101263740A (zh) * 2005-09-13 2008-09-10 皇家飞利浦电子股份有限公司 生成3d声音的方法和设备
WO2007031905A1 (en) * 2005-09-13 2007-03-22 Koninklijke Philips Electronics N.V. Method of and device for generating and processing parameters representing hrtfs
RU2419249C2 (ru) * 2005-09-13 2011-05-20 Кониклейке Филипс Электроникс Н.В. Аудиокодирование
WO2007045016A1 (en) * 2005-10-20 2007-04-26 Personal Audio Pty Ltd Spatial audio simulation
US7876903B2 (en) * 2006-07-07 2011-01-25 Harris Corporation Method and apparatus for creating a multi-dimensional communication space for use in a binaural audio system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101627652B1 (ko) * 2015-01-30 2016-06-07 가우디오디오랩 주식회사 바이노럴 렌더링을 위한 오디오 신호 처리 장치 및 방법
US9602947B2 (en) 2015-01-30 2017-03-21 Gaudi Audio Lab, Inc. Apparatus and a method for processing audio signal to perform binaural rendering
WO2017126895A1 (ko) * 2016-01-19 2017-07-27 지오디오랩 인코포레이티드 오디오 신호 처리 장치 및 처리 방법
US10419867B2 (en) 2016-01-19 2019-09-17 Gaudio Lab, Inc. Device and method for processing audio signal
KR20190028697A (ko) * 2016-07-15 2019-03-19 퀄컴 인코포레이티드 가상, 증강, 및 혼합 현실

Also Published As

Publication number Publication date
TW200922365A (en) 2009-05-16
US8682679B2 (en) 2014-03-25
US20100191537A1 (en) 2010-07-29
JP2010531605A (ja) 2010-09-24
EP2158791A1 (en) 2010-03-03
CN101690269A (zh) 2010-03-31
JP5752414B2 (ja) 2015-07-22
WO2009001277A1 (en) 2008-12-31
KR101431253B1 (ko) 2014-08-21

Similar Documents

Publication Publication Date Title
KR101431253B1 (ko) 바이노럴 오브젝트―지향 오디오 디코더
US20200335115A1 (en) Audio encoding and decoding
CN112262585B (zh) 环境立体声深度提取
TWI569259B (zh) 用於基於物件之音訊編碼系統中的通知響度估計之解碼器、編碼器及方法
US8265284B2 (en) Method and apparatus for generating a binaural audio signal
US11423917B2 (en) Audio decoder and decoding method
KR102586089B1 (ko) 파라메트릭 바이너럴 출력 시스템 및 방법을 위한 머리추적
RU2643644C2 (ru) Кодирование и декодирование аудиосигналов
TW201106343A (en) Audio signal synthesizing
WO2008084436A1 (en) An object-oriented audio decoder
Tomasetti et al. Latency of spatial audio plugins: a comparative study
Breebaart et al. Parametric binaural synthesis: Background, applications and standards
EP4346235A1 (en) Apparatus and method employing a perception-based distance metric for spatial audio
MX2008010631A (es) Codificacion y decodificacion de audio

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
LAPS Lapse due to unpaid annual fee