KR20100098665A - 지능형 오디오 믹싱 기술들을 이용하는 프로세싱 엔진에 대한 인터페이스를 제공하기 위한 방법들 및 장치 - Google Patents

지능형 오디오 믹싱 기술들을 이용하는 프로세싱 엔진에 대한 인터페이스를 제공하기 위한 방법들 및 장치 Download PDF

Info

Publication number
KR20100098665A
KR20100098665A KR1020107014284A KR20107014284A KR20100098665A KR 20100098665 A KR20100098665 A KR 20100098665A KR 1020107014284 A KR1020107014284 A KR 1020107014284A KR 20107014284 A KR20107014284 A KR 20107014284A KR 20100098665 A KR20100098665 A KR 20100098665A
Authority
KR
South Korea
Prior art keywords
processing engine
foreground
background
perceptual
processing
Prior art date
Application number
KR1020107014284A
Other languages
English (en)
Inventor
페이 시앙
사미르 쿠마르 굽타
에디 엘. 티. 초이
프라자크트 브이. 쿨카르니
Original Assignee
콸콤 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 콸콤 인코포레이티드 filed Critical 콸콤 인코포레이티드
Publication of KR20100098665A publication Critical patent/KR20100098665A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/11Transducers incorporated or for use in hand-held devices, e.g. mobile phones, PDA's, camera's
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Stereophonic System (AREA)

Abstract

지능형 오디오 믹싱 기술들을 이용하는 프로세싱 엔진에 대한 인터페이스를 제공하기 위한 방법은 오디오 믹스처 내의 오디오 소스의 지각적 위치를 청취자에 대한 현재의 지각적 위치로부터 상기 청취자에 대한 새로운 지각적 위치로 변경하기 위한 요청을 수신하는 단계를 포함할 수 있다. 상기 오디오 믹스처는 적어도 두 개의 오디오 소스들을 포함할 수 있다. 또한 상기 방법은 상기 프로세싱 엔진으로 하여금 오디오 소스의 지각적 위치를 개별적인 전경 프로세싱 및 배경 프로세싱을 통해 현재 지각적 위치로부터 새로운 지각적 위치로 변경하도록 구성되는 하나 이상의 제어 신호들을 생성하는 단계를 포함할 수 있다. 또한 상기 방법은 상기 하나 이상의 제어 신호들을 상기 프로세싱 엔진으로 제공하는 단계를 포함할 수 있다.

Description

지능형 오디오 믹싱 기술들을 이용하는 프로세싱 엔진에 대한 인터페이스를 제공하기 위한 방법들 및 장치{METHODS AND APPARATUS FOR PROVIDING AN INTERFACE TO A PROCESSING ENGINE THAT UTILIZES INTELLIGENT AUDIO MIXING TECHNIQUES}
본 출원은 본 출원과 동시에 출원된, 동시에 계속중인 출원 "Methods and Apparatus for Providing a Distinct Perceptual Location for an Audio Source within an Audio Mixture" (Attorney Docket No. 070590)에 관한 것이다.
본 개시물은 일반적으로 오디오 프로세싱에 관한 것이다. 더 구체적으로는, 본 개시물은 오디오 믹스처 내의 오디오 소스들의 프로세싱에 관한 것이다.
용어 오디오 프로세싱은 오디오 신호들의 프로세싱을 지칭할 수 있다. 오디오 신호들은 오디오, 즉 인간의 가청 범위 내에 있는 사운드들을 나타내는 전기 신호들이다. 오디오 신호들은 디지털 또는 아날로그일 수 있다.
많은 상이한 타입들의 디바이스들이 오디오 프로세싱 기술들을 이용할 수 있다. 이러한 디바이스들의 예시들은 음악 플레이어들, 데스크탑 및 랩탑 컴퓨터들, 워크스테이션들, 무선 통신 디바이스들, 무선 모바일 디바이스들, 무선 전화들, 직접 양-방향 통신 디바이스들, 위성 무선 디바이스들, 인터콤 디바이스들, 무선 브로드캐스팅 디바이스들, 자동차들, 배 및 비행기에서 이용되는 내장 컴퓨터들 및 다양한 다른 디바이스들을 포함한다.
방금 열거된 것들과 같은, 많은 디바이스들이 사용자들에게 오디오를 전달하기 위해 오디오 프로세싱 기술들을 이용할 수 있다. 사용자들은 오디오 출력 디바이스들, 예를 들어 스테레오 헤드폰들 또는 스피커들을 통해 오디오를 청취할 수 있다. 오디오 출력 디바이스들은 다수의 출력 채널들을 가질 수 있다. 예를 들어, 스테레오 출력 디바이스(예를 들어, 스테레오 헤드폰들)는 두 개의 출력 채널들, 좌 출력 채널 및 우 출력 채널을 가질 수 있다.
일부 환경들에서, 다수의 오디오의 신호들은 함께 합쳐질 수 있다. 이러한 합산의 결과는 오디오 믹스처로서 지칭될 수 있다. 상기 합산이 발생하기 전에 오디오 신호들은 오디오 소스들로서 지칭될 수 있다. 상기 언급한 바와 같이, 본 개시물은 일반적으로 오디오 프로세싱, 더 구체적으로는, 오디오 믹스처 내의 오디오 소스들의 프로세싱에 관한 것이다.
지능형 오디오 믹싱 기술들을 이용하는 프로세싱 엔진에 대한 인터페이스를 제공하기 위한 방법이 개시된다. 상기 방법은 오디오 믹스처 내의 오디오 소스의 지각적 위치를 청취자에 대한 현재의 지각적 위치로부터 상기 청취자에 대한 새로운 지각적 위치로 변경하기 위한 요청을 이벤트에 의해 트리거하는 단계를 포함할 수 있다. 상기 오디오 믹스처는 적어도 두 개의 오디오 소스들을 포함할 수 있다. 상기 방법은 또한 상기 프로세싱 엔진으로 하여금 상기 오디오 소스의 상기 지각적 위치를 개별적인 전경 프로세싱 및 배경 프로세싱을 통해 상기 현재의 지각적 위치로부터 상기 새로운 지각적 위치로 변경하도록 구성되는 하나 이상의 제어 신호들을 생성하는 단계를 포함할 수 있다. 상기 방법은 또한 상기 하나 이상의 제어 신호들을 상기 프로세싱 엔진에 제공하는 단계를 포함할 수 있다.
또한 지능형 오디오 믹싱 기술들을 이용하는 프로세싱 엔진에 대한 인터페이스를 제공하기 위한 장치가 개시된다. 상기 장치는 프로세서 및 상기 프로세서와 전자 통신하는 메모리를 포함한다. 명령들은 상기 메모리 내에 저장된다. 상기 명령들은 오디오 믹스처 내의 오디오 소스의 지각적 위치를 청취자에 대한 현재의 지각적 위치로부터 상기 청취자에 대한 새로운 지각적 위치로 변경하기 위한 요청을 이벤트에 의해 트리거하도록 실행가능할 수 있다. 상기 오디오 믹스처는 적어도 두 개의 오디오 소스들을 포함할 수 있다. 상기 명령들은 또한 상기 프로세싱 엔진으로 하여금 상기 오디오 소스의 상기 지각적 위치를 개별적인 전경 프로세싱 및 배경 프로세싱을 통해 상기 현재의 지각적 위치로부터 상기 새로운 지각적 위치로 변경하도록 구성되는 하나 이상의 제어 신호들을 생성하도록 실행가능할 수 있다. 상기 커맨드들은 또한 상기 하나 이상의 제어 신호들을 상기 프로세싱 엔진에 제공하도록 실행가능할 수 있다.
컴퓨터-판독가능한 매체가 또한 개시된다. 컴퓨터-판독가능한 매체는 모바일 디바이스 상에서 오디오 믹싱 기술들을 이용하는 프로세싱 엔진에 대한 인터페이스를 제공하는 명령들을 포함할 수 있다. 프로세서에 의해 실행될 때, 상기 명령들은 상기 프로세서로 하여금 오디오 믹스처 내의 오디오 소스의 지각적 위치를 청취자에 대한 현재의 지각적 위치로부터 상기 청취자에 대한 새로운 지각적 위치로 변경하기 위한 요청을 이벤트에 의해 트리거하도록 할 수 있다. 상기 오디오 믹스처는 적어도 두 개의 오디오 소스들을 포함할 수 있다. 상기 커맨드들은 또한 상기 프로세싱 엔진으로 하여금 상기 오디오 소스의 상기 지각적 위치를 개별적인 전경 프로세싱 및 배경 프로세싱을 통해 상기 현재의 지각적 위치로부터 상기 새로운 지각적 위치로 변경하도록 구성되는 하나 이상의 제어 신호들을 생성하도록 할 수 있다. 상기 커맨드들은 또한 상기 프로세서로 하여금 상기 하나 이상의 제어 신호들을 상기 프로세싱 엔진에 제공하도록 할 수 있다.
또한 지능형 오디오 믹싱 기술들을 이용하는 프로세싱 엔진에 대한 인터페이스를 제공하기 위한 장치가 개시된다. 상기 장치는 오디오 믹스처 내의 오디오 소스의 지각적 위치를 청취자에 대한 현재의 지각적 위치로부터 상기 청취자에 대한 새로운 지각적 위치로 변경하기 위한 요청을 이벤트에 의해 트리거하기 위한 수단을 포함할 수 있다. 상기 오디오 믹스처는 적어도 두 개의 오디오 소스들을 포함할 수 있다. 상기 장치는 또한 상기 프로세싱 엔진으로 하여금 상기 오디오 소스의 상기 지각적 위치를 개별적인 전경 프로세싱 및 배경 프로세싱을 통해 상기 현재의 지각적 위치로부터 상기 새로운 지각적 위치로 변경하도록 구성되는 하나 이상의 제어 신호들을 생성하기 위한 수단을 포함할 수 있다. 상기 장치는 또한 상기 하나 이상의 제어 신호들을 상기 프로세싱 엔진에 제공하기 위한 수단을 포함할 수 있다.
도 1은 청취자에 대해 별개의 지각적 위치들을 가지는 두 개의 오디오 소스들을 보여주는 예시를 도시한다;
도 2는 다수의 오디오 소스들의 지각적 구별을 용이하게 하는 장치를 도시한다;
도 2a는 다수의 오디오 소스들의 지각적 구별을 용이하게 하는 프로세서를 도시한다;
도 3은 지능형 오디오 믹싱 기술들을 이용하는 프로세싱 엔진에 대한 인터페이스를 제공하기 위한 방법을 도시한다;
도 4는 도 3에서 도시되는 방법에 대응하는 수단-기능(means-plus-function) 블록들을 도시한다;
도 5는 도 2에서 도시되는 장치에서 이용될 수 있는 오디오 소스 프로세서를 도시한다;
도 6은 도 5에서 도시되는 오디오 소스 프로세서의 하나의 가능한 구현을 도시한다;
도 7은 도 6의 오디오 소스 프로세서에서 전경 각도 제어 컴포넌트의 하나의 가능한 구현을 도시한다;
도 8은 도 6의 오디오 소스 프로세서에서 배경 각도 제어 컴포넌트의 하나의 가능한 구현을 도시한다;
도 9a, 도 9b 및 도 10은 도 6의 오디오 소스 프로세서의 전경 감쇠 스칼라들 및 배경 감쇠 스칼라들에 대한 가능한 값들의 예시들을 도시한다;
도 11은 도 7의 전경 각도 제어 컴포넌트에서 전경 각도 제어 스칼라들에 대한 가능한 값들의 예시들을 도시한다;
도 12은 도 7의 전경 각도 제어 컴포넌트에서 전경 믹싱 스칼라들에 대한 가능한 값들의 예시들을 도시한다;
도 13은 도 8의 배경 각도 제어 컴포넌트에서 배경 믹싱 스칼라들에 대한 가능한 값들의 예시들을 도시한다;
도 14는 오디오 믹스처 내의 오디오 소스에 대한 별개의 지각적 위치를 제공하기 위한 방법을 도시한다;
도 15는 도 14에서 도시되는 방법에 대응하는 수단-기능 블록들을 도시한다;
도 16은 오디오 소스의 지각적 위치를 변경하기 위한 방법을 도시한다;
도 17은 도 16에서 도시된 방법에 대응하는 수단-기능 블록들을 도시한다;
도 18은 단일-채널 (모노) 오디오 신호들을 프로세싱하도록 구성되는 오디오 소스 프로세서를 도시한다;
도 19는 도 18의 오디오 소스 프로세서의 전경 각도 제어 컴포넌트의 하나의 가능한 구현을 도시한다; 그리고
도 20은 여기에 기재되는 방법들을 구현하기 위해 이용될 수 있는 장치에서 활용될 수 있는 다양한 컴포넌트들을 도시한다.
본 개시물은 지능형 오디오 믹싱(intellignet audio mixing) 기술들에 관한 것이다. 더 구체적으로, 본 개시물은 청취자가 오디오 믹스처(mixture)를 청취하고 있는 동안 상이한 오디오 소스들을 더 잘 구별할 수 있도록 별개의 지각적(perceptual) 위치들을 가지는 오디오 믹스처 내의 오디오 소스들을 제공하기 위한 기술들에 관한 것이다. 간단한 예를 들어, 제 1 오디오 소스가 청취자의 전방에 존재하는 지각적 위치와 함께 제공될 수 있는 한편, 제 2 오디오 소스는 청취자 후방에 존재하는 지각적 위치와 함께 제공될 수 있다. 그러므로, 청취자는 제 1 오디오 소스를 그/그녀의 전방에 있는 위치로부터 오는 것으로 지각할 수 있는 반면, 청취자는 제 2 오디오 소스를 그/그녀의 후방에 있는 위치로부터 오는 것으로 지각할 수 있다. 청취자들이 전방 그리고 후방의 위치들을 구별하기 위한 방법들을 제공하는 것 외에도, 상이한 오디오 소스들은 또한 상이한 각도들 또는 일정 스큐(skew)들로 제공될 수도 있다. 예를 들어, 제 1 오디오 소스는 청취자의 전방 및 좌측(left)의 지각적 위치로 제공될 수 있는 한편, 제 2 오디오 소스는 청취자의 후방 및 우측(right)의 지각적 위치로 제공될 수 있다. 상이한 지각적 위치들을 가지는 오디오 믹스처 내의 상이한 오디오 소스들을 제공하는 것은 사용자가 오디오 소스들을 더 잘 구별하는 것을 도울 수 있다.
여기 기재되는 상기 기술들이 이용될 수 있는 많은 상황들이 존재한다. 하나의 예시는 무선 통신 디바이스의 사용자가 전화를 받으면서 무선 통신 디바이스 상에서 음악을 청취하고 있을 때이다. 음악이 전화 통화를 간섭하지 않으면서, 전화 통화 동안 음악을 계속해서 듣는 것이 사용자에게 바람직할 수 있다. 다른 예시는 사용자가 음악 또는 다른 타입의 오디오 프로그램을 들으면서 컴퓨터 상의 인스턴트 메시지(IM) 대화에 참여하고 있을 때이다. 여전히 음악 또는 오디오 프로그램을 들으면서도 IM 클라이언트에 의해 재생되는 사운드들을 청취할 수 있는 것이 사용자에게 바람직할 수 있다. 물론, 본 개시물에 관련될 수 있는 많은 다른 예시들이 존재한다. 여기 기재되는 기술들은 사용자가 오디오 믹스처 내의 오디오 소스들을 지각적으로 구별할 수 있는 것이 바람직할 수 있는 모든 상황에 적용될 수 있다.
상기 언급되는 바와 같이, 일부 환경들 하에서 다수의 오디오 신호들이 함께 합쳐질 수 있다. 이러한 합산의 결과는 오디오 믹스처로서 지칭될 수 있다. 상기 합산이 발생하기 전의 오디오 신호들은 오디오 소스들로 지칭될 수 있다.
오디오 소스들은 광대역 오디오 신호들일 수 있으며, 주파수 분석을 이용하는 다수의 주파수 컴포넌트들을 가질 수 있다. 게다가, 여기 이용되는 바와 같이, 용어 "믹싱"은 두 개의 오디오 소스들의 시간 도메인 값(아날로그 또는 디지털)을 결합하는 것을 지칭한다.
도 1은 청취자(104)에 대해 별개의 지각적 위치들을 가지는 두 개의 오디오 소스들(102a, 102b)을 보여주는 예시를 도시한다. 두 개의 오디오 소스들(102a, 102b)은 청취자(104)가 청취하고 있는 오디오 믹스처의 일부분일 수 있다. 제 1 오디오 소스(102a)의 지각적 위치가 전경(foreground) 영역(106)에 그리고 청취자(104)의 좌측에 있는 것이 도시된다. 다시 말해서, 오디오 믹스처를 청취하고 있는 동안, 청취자(104)는 제 1 오디오 소스(102a)를 그/그녀의 전방 그리고 그/그녀의 좌측에 있는 것으로 지각할 수 있다. 제 2 오디오 소스(102b)의 지각적 위치가 배경(background) 영역(108)에, 청취자(104)의 우측에 있는 것이 도시된다. 다시 말해서, 오디오 믹스처를 청취하고 있는 동안, 청취자(104)는 제 2 오디오 소스(102b)가 그/그녀의 후방 및 그/그녀의 우측에 있는 것으로 지각할 수 있다.
또한 도 1은 어떻게 오디오 소스(102)의 지각적 위치가 지각적 방위 각도로서 또는 간단히 지각적 각도로서 여기서 지칭될 수 있는 파라미터에 의해 측정될 수 있는지를 도시한다. 도 1에서 도시된 바와 같이, 0°의 지각적 각도가 청취자(104)의 바로 전방에 있는 지각적 위치에 대응하도록 지각적 각도들이 정의될 수 있다. 부가적으로, 지각적 각도들은 시계 방향으로, 360°의 최대 값까지(0°에 대응함) 증가하도록 정의될 수 있다. 이러한 정의에 따라, 도 1에 도시되는 제 1 오디오 소스(102a)의 지각적 각도는 270°와 360°(0°)의 사이에 존재하며 그리고 도 1에 도시되는 제 2 오디오 소스(102b)의 지각적 각도는 90°와 180°사이에 존재한다. 270°와 360°(0°) 또는 0°와 90°사이의 지각적 각도를 가지는 오디오 소스(102)의 지각적 위치는 전경 영역(106)에 존재하며, 90°와 270°사이의 지각적 각도를 가지는 오디오 소스(102)의 지각적 위치는 배경 영역(108)에 존재한다.
방금 기재되었던 지각적 각도의 정의는 본 개시물에 걸쳐 사용될 것이다. 그러나, 지각적 각도들은 상이하게 정의될 수 있으며 여전히 본 개시물과 일관될 수 있다.
용어들 "전경 영역" 및 "배경 영역"은 도 1에서 도시되는 특정한 전경 영역(106) 및 배경 영역(108)에 제한되지 않아야 한다. 오히려, 용어 "전경 영역"은 일반적으로 청취자(104)의 전방에 있는 영역을 지칭하는 것으로 해석되어야 하고, 용어 "배경 영역"은 일반적으로 청취자(104)의 후방에 있는 영역을 지칭하는 것으로 해석되어야 한다. 예를 들어, 도 1에서 전경 영역(106) 및 배경 영역(108) 모두는 180°인 것이 도시된다. 대안적으로, 그러나, 전경 영역(106)은 180°보다 클 수 있으며 배경 영역(108)은 180°보다 작을 수 있다. 또한 대안적으로, 전경 영역(106)은 180°보다 작을 수 있으며 배경 영역(108)은 180°보다 클 수 있다. 또한 대안적으로, 전경 영역(106) 및 배경 영역(108) 모두는 180°보다 작을 수 있다.
도 2는 다수의 오디오 소스들(202)의 지각적 구별을 용이하게 하는 장치(200)를 도시한다. 장치(200)는 프로세싱 엔진(210)을 포함한다. 프로세싱 엔진(210)이 입력으로서 다수의 오디오 소스들(202')을 수신하는 것이 도시된다. 제 1 오디오 유닛(214a)으로부터의 제 1 입력 오디오 소스(202a'), 제 2 오디오 유닛(214b)으로부터의 제 2 입력 오디오 소스(202b') 및 제 N 오디오 유닛(214n)으로부터의 제 N 입력 오디오 소스(202n')가 도 2에서 도시된다. 프로세싱 엔진(210)이 오디오 믹스처(212)를 출력하는 것이 도시된다. 청취자(104)는 스테레오 헤드폰들과 같은 오디오 출력 디바이스들을 통해 오디오 믹스처(212)를 청취할 수 있다.
프로세싱 엔진(210)은 지능형 오디오 믹싱 기술들을 이용하도록 구성될 수 있다. 또한 프로세싱 엔진(210)이 몇몇의 오디오 소스 프로세서들(216)을 포함하는 것이 도시된다. 각 오디오 소스 프로세서(216)는 입력 오디오 소스(202')를 프로세싱하고, 청취자(104)에 대한 별개의 지각적 위치를 포함하는 오디오 소스(202)를 출력하도록 구성될 수 있다. 특히, 프로세싱 엔진(210)이 제 1 입력 오디오 소스(202a')를 프로세싱하고, 청취자(104)에 대한 별개의 지각적 위치를 포함하는 제 1 오디오 소스(202a)를 출력하는 제 1 오디오 소스 프로세서(216a)를 포함하는 것이 도시된다. 또한 프로세싱 엔진(210)이 제 2 입력 오디오 소스(202b')를 프로세싱하고, 청취자(104)에 대한 별개의 지각적 위치를 포함하는 제 2 오디오 소스(202b)를 출력하는 제 2 오디오 소스 프로세서(216b)를 포함하는 것이 도시된다. 또한 프로세싱 엔진(210)이 제 N 입력 오디오 소스(202n')를 프로세싱하고, 청취자(104)에 대한 별개의 지각적 위치를 포함하는 제 N 오디오 소스(202n)를 출력하는 제 N 오디오 소스 프로세서(216n)를 포함하는 것이 도시된다. 가산기(adder;220)는 오디오 소스들(202)을 프로세싱 엔진(210)에 의해 출력되는 오디오 믹스처(212)로 결합할 수 있다.
각 오디오 소스 프로세서들(216)은 청취자(104)에 대한 별개의 지각적 위치를 가지는 오디오 소스(202)를 제공하기 위해 본 개시물에서 기재되는 방법들을 이용하도록 구성될 수 있다. 대안적으로, 오디오 소스 프로세서들(216)은 청취자(104)에 대한 별개의 지각적 위치를 가지는 오디오 소스(202)를 제공하기 위한 다른 방법들을 이용하도록 구성될 수 있다. 예를 들어, 오디오 소스 프로세서들(216)은 헤드 관련 전달 함수들(HRTF들)에 기초하는 방법들을 이용하도록 구성될 수 있다.
또한 도 2에서 도시되는 장치(200)는 제어 유닛(222)을 포함한다. 제어 유닛(222)은 프로세싱 엔진(210)에 대한 인터페이스를 제공하도록 구성될 수 있다. 예를 들어, 제어 유닛(222)은 요청 엔티티(requesting entity)가 제어 유닛(222)을 통해 오디오 소스들(202) 중 하나 이상의 오디오 소스들의 지각적 위치를 변경할 수있도록 구성될 수 있다.
도 2는 오디오 소스들(202) 중 하나의 오디오 소스의 지각적 위치를 새로운 지각적 위치로 변경하기 위한 요청(request;224)을 수신하는 제어 유닛(222)을 도시한다. 요청(224)은 유저가 버튼을 누르고, 인입 콜(incoming call)이 수신되고, 프로그램이 시작되거나 또는 종료되는 등과 같은 이벤트에 의해 트리거될 수 있다. 요청(224)은 변경되는 지각적 위치를 가질 수 있는 특정 오디오 소스(202)를 식별하는 식별자(226)를 포함한다. 또한 요청(224)은 오디오 소스(202)의 새로운 지각적 위치를 표시한다. 특히, 요청(224)은 오디오 소스(202)의 새로운 지각적 위치에 대응하는 지각적 각도의 표시(228)를 포함한다. 요청(224)은 또한 새로운 지각적 위치로 전이(transition)하기 위해 요구되는 듀레이션(duration)의 표시(230)를 포함한다.
요청(224)을 수신하는 것에 응답하여, 제어 유닛(222)은 프로세싱 엔진(210)에 제공하기 위해 하나 이상의 제어 신호들(232)을 생성할 수 있다. 제어 신호(들)(232)는 프로세싱 엔진(210)으로 하여금 적용가능한 오디오 소스(202)의 지각적 위치를 오디오 소스의 현재의 지각적 위치로부터 요청(224)에서 지정되는 새로운 지각적 위치로 변경하도록 구성될 수 있다. 제어 유닛(222)은 제어 신호(들)(232)를 프로세싱 엔진(210)으로 제공할 수 있다. 제어 신호(들)(232)를 수신하는 것에 응답하여, 프로세싱 엔진(210)(및 더 구체적으로, 적용가능한 오디오 소스 프로세서(216))은 적용가능한 오디오 소스(202)의 지각적 위치를 오디오 소스의 현재의 지각적 위치로부터 요청(224)에서 지정되는 새로운 지각적 위치로 변경할 수 있다.
하나의 가능한 구현에서, 제어 유닛(222)은 ARM 프로세서일 수 있으며, 프로세싱 엔진(210)은 디지털 신호 프로세서(DSP)일 수 있다. 이러한 구현과 함께, 제어 신호들(232)은 ARM 프로세서가 DSP로 전송하는 제어 커맨드(command)들일 수 있다.
대안적으로, 제어 유닛(222)은 애플리케이션 프로그래밍 인터페이스(API)일 수 있다. 프로세싱 엔진(210)은 프로세서에 의해 실행되고 있는 소프트웨어 컴포넌트(예를 들어, 애플리케이션, 모듈, 루틴, 서브루틴, 프로시져, 함수 등)일 수 있다. 이러한 구현과 함께, 요청(224)은 소프트웨어 컴포넌트(프로세싱 엔진(210)으로서 서빙하는 소프트웨어 컴포넌트 또는 다른 소프트웨어 컴포넌트)로부터 생겨날 수 있다. 요청(224)을 전송하는 소프트웨어 컴포넌트는 사용자 인터페이스의 일부분일 수 있다.
일부 구현들에서, 프로세싱 엔진(210) 및/또는 제어 유닛(222)은 모바일 디바이스 내에서 구현될 수 있다. 모바일 디바이스들의 일부 예시들은 셀룰러 전화들, 개인 정보 단말기들(PDA들), 랩탑 컴퓨터들, 스마트폰들, 휴대용 미디어 플레이어들, 휴대용 게임 콘솔들 등을 포함한다.
도 2a는 다수의 오디오 소스들(202A)의 지각적 구별을 용이하게 하는 프로세서(201A)를 도시한다. 프로세서(201A)는 오디오 소스 유닛 엔진(210A)을 포함한다. 오디오 소스 유닛 엔진(210A)이 입력으로서 다수의 오디오 소스들(202A')을 수신하는 것이 도시된다. 특히, 제 1 오디오 유닛(214A(1))으로부터의 제 1 입력 오디오 소스(202A(1)), 제 2 오디오 유닛(214A(2))으로부터의 제 2 입력 오디오 소스(202A(2)) 및 제 N 오디오 유닛(214A(N))으로부터의 제 N 입력 오디오 소스(202A(N))가 도 2a에서 도시된다. 오디오 소스 유닛 엔진(210A)이 오디오 믹스처(212a)를 출력하는 것이 도시된다. 청취자(104)는 스테레오 헤드폰들과 같은 오디오 출력 디바이스들을 통해 오디오 믹스처(212A)를 청취할 수 있다.
오디오 소스 유닛 엔진(201A)은 지능형 오디오 믹싱 기술들을 이용하도록 구성될 수 있다. 또한 오디오 소스 유닛 엔진(210A)이 몇몇의 오디오 소스 유닛들(216A)을 포함하는 것이 도시된다. 각 오디오 소스 유닛(216A)은 입력 오디오 소스(202A')를 프로세싱하고 그리고 청취자(104)에 대한 별개의 지각적 위치를 포함하는 오디오 소스(202A)를 출력하도록 구성될 수 있다. 특히, 오디오 소스 유닛 엔진(210A)이 제 1 입력 오디오 소스(202A(1)')를 프로세싱하고, 청취자에 대한 별개의 지각적 위치를 포함하는 제 1 오디오 소스(202A(1))를 출력하는 제 1 오디오 소스 유닛(216A(1))을 포함하는 것이 도시된다. 또한 오디오 소스 유닛 엔진(210A)이 제 2 입력 오디오 소스(202A(2)')를 프로세싱하고, 청취자(104)에 대한 별개의 지각적 위치를 포함하는 제 2 오디오 소스(202A(2))를 출력하는 제 2 오디오 소스 유닛(216A(2))을 포함하는 것이 도시된다. 또한 오디오 소스 유닛 엔진(210A)이 제 N 입력 오디오 소스(202A(N)')를 프로세싱하고, 청취자(104)에 대한 별개의 지각적 위치를 포함하는 제 N 오디오 소스(202A(N))를 출력하는 제 N 오디오 소스 유닛(216A(N))을 포함하는 것이 도시된다. 가산기(220A)는 오디오 소스들(202A)을 오디오 소스 유닛 엔진(210A)에 의해 출력되는 오디오 믹스처(212A)로 결합할 수 있다.
각각의 오디오 소스 유닛들(216)은 청취자(104)에 대한 별개의 지각적 위치를 가지는 오디오 소스(202A)를 제공하기 위해 본 개시물에서 기재되는 방법들을 이용하도록 구성될 수 있다. 대안적으로, 오디오 소스 유닛들(216A)은 청취자(104)에 대한 별개의 지각적 위치를 가지는 오디오 소스(202A)를 제공하기 위한 다른 방법들을 이용하도록 구성될 수 있다. 예를 들어, 오디오 소스 유닛들(216A)은 헤드 관련 전달 함수들(HRTF들)에 기초하는 방법들을 이용하도록 구성될 수 있다.
또한 도 2a에서 도시되는 프로세서(201A)는 제어 유닛(222A)을 포함한다. 제어 유닛(222A)은 오디오 소스 유닛 엔진(210A)에 대한 인터페이스를 제공하도록 구성될 수 있다. 예를 들어, 제어 유닛(222A)은 요청 엔티티가 제어 유닛(222A)을 통해 하나 이상의 오디오 소스들(202A) 중 하나 이상의 오디오 소스들의 지각적 위치를 변경하도록 구성될 수 있다.
도 2a는 제어 유닛(222A)이 오디오 소스들(202A) 중 하나의 오디오 소스의 지각적 위치를 새로운 지각적 위치로 변경하기 위해 요청(224A)을 수신하는 것이 도시된다. 요청(224A)은 변경되는 오디오 소스의 지각적 위치를 가질 수 있는 특정 오디오 소스(202A)를 식별하는 식별자(226A)를 포함한다. 또한 요청(224A)은 오디오 소스(202A)의 새로운 지각적 위치를 나타낸다. 특히, 요청(224A)은 오디오 소스(202A)의 새로운 지각적 위치에 대응하는 지각적 각도의 표시(228A)를 포함한다. 또한 요청(224A)은 새로운 지각적 위치로 전이하기 위해 요구되는 듀레이션의 표시(230A)를 포함한다.
요청(224A)을 수신하는 것에 응답하여, 제어 유닛(222A)은 오디오 소스 유닛 엔진(210A)에 제공하기 위해 하나 이상의 제어 신호들(232A)을 생성할 수 있다. 제어 신호(들)(232A)는 오디오 소스 유닛 엔진(210A)으로 하여금 적용가능한 오디오 소스(202A)의 지각적 위치를 오디오 소스의 현재의 지각적 위치로부터 요청(224A)에서 지정되는 새로운 지각적 위치로 변경하도록 구성될 수 있다. 제어 유닛(222A)은 제어 신호(들)(232A)를 오디오 소스 유닛 엔진(210A)으로 제공할 수 있다. 제어 신호(들)(232A)를 수신하는 것에 응답하여, 오디오 소스 유닛 엔진(210A)(및 더 구체적으로, 적용가능한 오디오 소스 유닛(216A))은 적용가능한 오디오 소스(202A)의 지각적 위치를 오디오 소스의 현재의 지각적 위치로부터 요청(224A)에서 지정되는 새로운 지각적 위치로 변경할 수있다.
도 3은 지능형 오디오 믹싱 기술들을 이용하는 프로세싱 엔진(210)에 대한 인터페이스를 제공하기 위한 방법(300)을 도시한다. 도시되는 방법(300)은 도 2에서 도시되는 장치(200) 내의 제어 유닛(222)에 의해 수행될 수 있다.
방법(300)에 따라, 오디오 소스(202)의 지각적 위치를 변경하기 위한 요청(224)이 수신될 수 있다(302). 새로운 지각적 위치와 관련되는 프로세싱 엔진(210)의 파라미터들의 값들이 결정될 수 있다(304). 커맨드들이 파라미터들을 새로운 값들로 설정하기 위해 생성될 수 있다(306). 제어 신호(들)(232)가 생성될 수 있다(308). 제어 신호(들)(232)는 파라미터들을 새로운 값들로 설정하기 위한 커맨드들을 포함할 수 있으며, 그러므로 제어 신호(들)(232)는 프로세싱 엔진(210)으로 하여금 오디오 소스(202)의 지각적 위치를 오디오 소스의 현재의 지각적 위치로부터 요청(224)에서 지정되는 새로운 지각적 위치로 변경하도록 구성될 수 있다. 제어 신호(들)(232)는 프로세싱 엔진(210)으로 제공될 수 있다(310). 제어 신호(들)(232)를 수신하는 것에 응답하여, 프로세싱 엔진(210)은 오디오 소스(202)의 지각적 위치를 새로운 지각적 위치로 변경할 수있다.
상기 기재되는 도 3의 방법은 도 4에서 도시되는 대응하는 수단-기능 블록들에 의해 수행될 수 있다. 다시 말해서, 도 3에서 도시되는 블록들(302 내지 310)은 도 4에서 도시되는 수단-기능 블록들(402 내지 410)에 대응한다.
도 5는 도 2에서 도시되는 장치(200)에서 이용될 수 있는 오디오 소스 프로세서(516)를 도시한다. 오디오 소스 프로세서(516)는 오디오 믹스처(212) 내의 오디오 소스(202)의 지각적 위치를 변경하도록 구성될 수 있다. 이는 인입 입력 오디오 소스(202')의 개별적인 전경 프로세싱 및 배경 프로세싱에 의해 이루어질 수 있다. 더 구체적으로, 오디오 소스 프로세서(516)는 인입 입력 오디오 소스(202')를 두 개의 신호들, 전경 신호 및 배경 신호로 분리할 수 있다. 그리고나서, 전경 신호 및 배경 신호는 개별적으로 프로세싱될 수 있다. 다시 말해서, 전경 신호가 프로세싱되는 방법과 배경 신호가 프로세싱되는 방법을 비교할 때 그 사이에 적어도 하나의 차이점이 존재할 수 있다.
오디오 소스 프로세서(516)가 전경 신호를 프로세싱하기 위해 전경 각도 제어 컴포넌트(534) 및 전경 감쇠 컴포넌트(536)를 포함하는 것이 도시된다. 또한 오디오 소스 프로세서(516)가 배경 신호를 프로세싱하기 위해 배경 각도 제어 컴포넌트(538) 및 배경 감쇠 컴포넌트(540)를 포함하는 것이 도시된다.
전경 각도 제어 컴포넌트(534)는 전경 신호가 전경 영역(106) 내의 지각적 각도를 포함하도록 전경 신호를 프로세싱하도록 구성될 수 있다. 이러한 지각적 각도는 전경 지각적 각도로 지칭될 수 있다. 전경 감쇠 컴포넌트(536)는 전경 신호에 대해 요구되는 감쇠의 레벨을 제공하기 위해 전경 신호를 프로세싱하도록 구성될 수 있다.
배경 각도 제어 컴포넌트(538)는 배경 신호가 배경 영역(108) 내의 지각적 각도를 포함하도록 배경 신호를 프로세싱하도록 구성될 수 있다. 이러한 지각적 각도는 배경 지각적 각도로 지칭될 수 있다. 배경 감쇠 컴포넌트(540)는 배경 신호에 대해 요구되는 감쇠의 레벨을 제공하기 위해 배경 신호를 프로세싱하도록 구성될 수 있다.
전경 각도 제어 컴포넌트(534), 전경 감쇠 컴포넌트(536), 배경 각도 제어 컴포넌트(538) 및 배경 감쇠 컴포넌트(540)는 오디오 소스(202)에 대한 지각적 위치를 제공하기 위해 함께 기능할 수 있다. 예를 들어, 전경 영역(106) 내에 있는 지각적 위치를 제공하기 위해, 배경 감쇠 컴포넌트(540)는 배경 신호를 감쇠하도록 구성될 수 있는 한편, 전경 감쇠 컴포넌트(536)는 전경 신호가 감쇠되지 않고 통과하도록 구성될 수 있다. 전경 각도 제어 컴포넌트(534)는 전경 영역(106) 내의 적절한 지각적 각도를 제공하도록 구성될 수 있다. 반대로, 배경 영역(108) 내에 있는 지각적 위치를 제공하기 위해, 전경 감쇠 컴포넌트(536)는 전경 신호를 감쇠하도록 구성될 수 있는 한편, 배경 감쇠 컴포넌트(536)는 배경 신호가 감쇠되지 않고 통과하도록 구성될 수 있다. 배경 각도 제어 컴포넌트(538)는 배경 영역(108) 내의 적절한 지각적 각도를 제공하도록 구성될 수 있다.
또한 도 5는 제어 신호들(532)이 제어 유닛(522)에 의해 오디오 소스 프로세서(516)로 전송되는 것을 도시한다. 이러한 제어 신호들(532)은 도 2의 장치(200)에서 도시되는 제어 유닛(210)에 의해 전송될 수 있는 제어 신호들(232)의 예시들이다.
상기 언급되는 바와 같이, 제어 유닛(522)은 오디오 소스(202)의 지각적 위치를 변경하기 위한 요청(224)을 수신하는 것에 응답하여 제어 신호들(532)을 생성할 수 있다. 제어 신호들(532)을 생성하는 것의 일부로서, 제어 유닛(522)은 프로세싱 엔진(210), 더 구체적으로, 오디오 소스 프로세서(516)와 관련되는 파라미터들에 대한 새로운 값들을 결정하도록 구성될 수 있다. 제어 신호들(532)은 파라미터들을 새로운 값들로 설정하기 위한 커맨드들을 포함할 수 있다.
제어 신호들(532)이 전경 각도 제어 커맨드들(542), 전경 감쇠 커맨드들(544), 배경 각도 제어 커맨드들(546) 및 배경 감쇠 커맨드들(548)을 포함하는 것이 도시된다. 전경 각도 제어 커맨드들(542)은 전경 각도 제어 컴포넌트(534)와 관련되는 파라미터들을 설정하기 위한 커맨드들일 수 있다. 전경 감쇠 커맨드들(544)은 전경 감쇠 컴포넌트(536)와 관련되는 파라미터들을 설정하기 위한 커맨드들일 수 있다. 배경 각도 제어 커맨드들(546)은 배경 각도 제어 컴포넌트(538)와 관련되는 파라미터들을 설정하기 위한 커맨드들일 수 있다. 배경 감쇠 커맨드들(548)은 배경 감쇠 컴포넌트(540)와 관련되는 파라미터들을 설정하기 위한 커맨드들일 수 있다.
도 6은 오디오 소스 프로세서(616)를 도시한다. 오디오 소스 프로세서(616)는 도 5에서 도시되는 오디오 소스 프로세서(516)의 하나의 가능한 구현이다.
오디오 소스 프로세서(616)가 입력 오디오 소스(602')를 수신하는 것이 도시된다. 입력 오디오 소스(602')는 두 개의 채널들, 좌 채널(602a') 및 우 채널(602b')을 포함하는 스테레오 오디오 소스이다. 입력 오디오 소스(602')가 두 개의 신호들, 전경 신호(650) 및 배경 신호(652)로 분리되는 것이 도시된다. 전경 신호(650)가 두 개의 채널들, 좌 채널(650a) 및 우 채널(650b)을 포함하는 것이 도시된다. 유사하게, 배경 신호(652)가 두 개의 채널들, 좌 채널(652a) 및 우 채널(652b)을 포함하는 것이 도시된다. 전경 신호가 전경 경로를 따라 프로세싱되는 것이 도시되는 한편, 배경 신호(652)가 배경 경로를 따라 프로세싱되는 것이 도시된다.
배경 신호(652)의 좌 채널(652a) 및 우 채널(652b)이 두 개의 저역 통과 필터들(LPF들; 662, 664)에 의해 프로세싱되는 것이 도시된다. 그리고나서 배경 신호(652)의 우 채널(652b)이 지연 라인(666)에 의해 프로세싱되는 것이 도시된다. 지연 라인(666)의 길이는 상대적으로 짧을 수 있다(예를 들어, 10 ms). 선행 효과로 인해, 지연 라인(666)에 의해 초래되는 ITD(interaural time difference)는 양 채널들(652a, 652b)이 동일한 레벨로 설정될 때, 사운드 이미지 스큐를 야기할 수 있다(즉, 사운드가 집중되어 지각되지 않음). 그리고나서, 이를 방지하기 위해, 배경 신호(652)의 좌 채널(652a)이 IID(interaural intensity difference) 감쇠 컴포넌트(668)에 의해 프로세싱되는 것이 도시된다. IID 감쇠 컴포넌트(668)의 이득은 지연 라인(666)의 길이 및 샘플링 레이트에 따라 튜닝될 수 있다. LPF들(662, 664), 지연 라인(666) 및 IID 감쇠 컴포넌트(668)에 의해 이루어지는 프로세싱은 배경 신호(652) 사운드가 전경 신호(650)보다 더 퍼져서 들리게 할 수 있다.
오디오 소스 프로세서(616)가 전경 각도 제어 컴포넌트(634)를 포함하는 것이 도시된다. 상기 언급되는 바와 같이, 전경 각도 제어 컴포넌트(634)는 전경 신호(650)에 대한 전경 지각적 각도를 제공하도록 구성될 수 있다. 게다가, 입력 오디오 소스(602')가 스테레오 오디오 소스이기 때문에, 전경 각도 제어 컴포넌트(634)는 또한 전경 신호(650)의 좌 채널(650a) 및 우 채널(650b)의 컨텐츠들을 밸런싱하도록 구성될 수 있다. 이는 전경 신호(650)가 설정될 수 있는 임의의 지각적 각도에 대해 전경 신호(650)의 좌 채널(650a) 및 우 채널(650b)의 컨텐츠들을 보존하기 위해 이루어질 수 있다.
또한 오디오 소스 프로세서(616)가 배경 각도 제어 컴포넌트(638)를 포함하는 것이 도시된다. 상기 언급되는 바와 같이, 배경 각도 제어 컴포넌트(638)는 배경 신호(652)에 대한 배경 지각적 각도를 제공하도록 구성될 수 있다. 게다가, 입력 오디오 소스(602')가 스테레오 오디오 소스이기 때문에, 배경 각도 제어 컴포넌트(638)는 또한 배경 신호(652)의 좌 채널(652a) 및 우 채널(652b)의 컨텐츠들을 밸런싱하도록 구성될 수 있다. 이는 배경 신호(652)가 설정될 수 있는 임의의 지각적 각도에 대해 배경 신호(652)의 좌 채널(652a) 및 우 채널(652b)의 컨텐츠들을 보존하기 위해 이루어질 수 있다.
또한 오디오 소스 프로세서(616)가 전경 감쇠 컴포넌트(636)를 포함하는 것이 도시된다. 상기 언급되는 바와 같이, 전경 감쇠 컴포넌트(636)는 전경 신호(650)에 대해 요구되는 감쇠의 레벨을 제공하기 위해 전경 신호(650)를 프로세싱하도록 구성될 수 있다. 전경 감쇠 컴포넌트(636)가 두 개의 스칼라들(654, 656)을 포함하는 것이 도시된다. 총체적으로, 이러한 스칼라들(654, 656)은 전경 감쇠 스칼라들(654, 656)로 지칭될 수 있다.
오디오 소스 프로세서(616)가 배경 감쇠 컴포넌트(640)를 포함하는 것이 도시된다. 상기 언급되는 바와 같이, 배경 감쇠 컴포넌트(640)는 배경 신호(652)에 대해 요구되는 감쇠의 레벨을 제공하기 위해 배경 신호(652)를 프로세싱하도록 구성될 수 있다. 배경 감쇠 컴포넌트(640)가 두 개의 스칼라들(658, 660)을 포함하는 것이 도시된다. 총체적으로, 이러한 스칼라들(658, 660)은 배경 감쇠 스칼라들(658, 660)로 지칭될 수 있다.
전경 감쇠 스칼라들(654, 656)의 값들은 전경 신호(650)에 대한 요구되는 감쇠의 레벨을 달성하기 위해 설정될 수 있다. 유사하게, 배경 감쇠 스칼라들(658, 660)의 값들은 배경 신호(652)에 대해 요구되는 감쇠의 레벨을 달성하기 위해 설정될 수 있다. 예를 들어, 전경 신호(650)를 완벽하게 감쇠하기 위해, 전경 감쇠 스칼라들(654, 656)은 최소 값(예를 들어, 0)으로 설정될 수 있다. 반대로, 전경 신호(650)가 감쇠되지 않고 통과하기 위해, 이러한 스칼라들(654, 656)은 최대 값(예를 들어, 1)으로 설정될 수 있다.
가산기(670)가 전경 신호(650)의 좌 채널(650a)과 배경 신호(652)의 좌 채널(652a)을 결합하는 것이 도시된다. 가산기(670)가 출력 오디오 소스(602)의 좌 채널(602a)을 출력하는 것이 도시된다. 다른 가산기(672)가 전경 신호(650)의 우 채널(650b)과 배경 신호(652)의 우 채널(652b)을 결합하는 것이 도시된다. 본 가산기(672)가 출력 오디오 소스(602)의 우 채널(602b)을 출력하는 것이 도시된다.
오디오 소스 프로세서(616)는 개별적인 전경 프로세싱 및 배경 프로세싱이 오디오 소스(602)의 지각적 위치를 변경하기 위해 어떻게 구현될 수 있는지를 도시한다. 입력 오디오 소스(602')가 두 개의 신호들, 전경 신호(650) 및 배경 신호(652)로 분리되는 것이 도시된다. 그리고나서, 전경 신호(650) 및 배경 신호(652)는 개별적으로 프로세싱된다. 다시 말해서, 전경 신호(650)가 프로세싱되는 방법과 배경 신호(652)가 프로세싱되는 방법을 비교할 때 그 사이에는 차이점들이 존재한다. 도 6에서 도시되는 특정한 차이점들은 전경 신호(650)가 전경 각도 제어 컴포넌트(634) 및 전경 감쇠 컴포넌트(636)를 이용해서 프로세싱되는데 반해, 배경 신호(652)는 배경 각도 제어 컴포넌트(638) 및 배경 감쇠 컴포넌트(640)를 이용해서 프로세싱된다는 점이다. 게다가, 배경 신호(652)는 배경 신호(652)가 전경 신호(650)에 비해 더 퍼져서 들리게 하는 컴포넌트들(즉, 저역 통과 필터들(662, 664), 지연 라인(666) 및 IID 감쇠 컴포넌트(668))을 이용해서 프로세싱되는 반면, 전경 신호(650)는 이러한 컴포넌트들을 이용해서 프로세싱되지 않는다.
도 6의 오디오 소스 프로세서(616)는 개별적인 전경 프로세싱 및 배경 프로세싱이 오디오 소스(602)의 지각적 위치를 변경하기 위해 구현될 수 있는 하나의 방법의 예시일 뿐이다. 개별적인 전경 프로세싱 및 배경 프로세싱은 도 6에서 도시되는 컴포넌트들과는 상이한 컴포넌트들을 이용하여 달성될 수 있다. 어구 "개별적인 전경 및 배경 프로세싱"은 도 6에서 도시되는 특정한 컴포넌트들 및 구성에 제한되는 것으로 해석되어서는 아니 된다. 대신에, 개별적인 전경 및 배경 프로세싱은 입력 오디소 소스(602')가 전경 신호(650) 및 배경 신호(652)로 분리되며, 전경 신호(650)가 프로세싱되는 방법과 배경 신호(652)가 프로세싱되는 방법을 비교할 때 그 사이에 적어도 하나의 차이점이 존재함을 의미한다.
도 7은 전경 각도 제어 컴포넌트(734)를 도시한다. 전경 각도 제어 컴포넌트(734)는 도 6의 오디오 소스 프로세서(616) 내의 전경 각도 제어 컴포넌트(634)의 하나의 가능한 구현이다. 전경 각도 제어 컴포넌트(734)가 두 개의 입력들: 전경 신호(750)의 좌 채널(750a) 및 전경 신호(750)의 우 채널(750b)을 포함하는 것이 도시된다.
상기 언급되는 바와 같이, 전경 각도 제어 컴포넌트(734)는 전경 신호(750)의 좌 채널(750a) 및 우 채널(750b)의 컨텐츠들을 밸런싱하도록 구성될 수 있다. 이는 전경 신호(750)의 좌 채널(750a) 및 우 채널(750b)의 컨텐츠들을 두 개의 신호들(774a, 774b)로 재분배함으로써 달성될 수 있다. 이러한 신호들(774a, 774b)은 컨텐츠-밸런싱되는 신호들(774a, 774b)로 지칭될 수 있다. 컨텐츠-밸런싱되는 신호들(774a, 774b) 모두는 전경 신호(750)의 좌 채널(750a) 및 우 채널(750b)의 컨텐츠들의 실질적으로 동일한 믹스처를 포함할 수 있다. 컨텐츠-밸런싱되는 신호들(774)을 서로 구별하기 위해, 하나의 컨텐츠-밸런싱되는 신호(774a)는 좌 컨텐츠-밸런싱되는 신호(774a)로 지칭될 수 있는 한편, 다른 컨텐츠-밸런싱되는 신호(774b)는 우 컨텐츠-밸런싱되는 신호(774b)로 지칭될 수 있다.
믹싱 스칼라들(776)이 전경 신호(750)의 좌 채널(750a) 및 우 채널(750b)의 컨텐츠들을 두 개의 컨텐츠-밸런싱되는 신호들(774a, 774b)로 재분배하기 위해 이용될 수 있다. 도 7에서 이러한 믹싱 스칼라들(776)은 g_L2L 스칼라(776a), g_R2L 스칼라(776b), g_L2R 스칼라(776c) 및 g_R2R 스칼라(776d)로 레이블된다. 좌 컨텐츠-밸런싱되는 신호(774a)는 g_L2L 스칼라(776a)에 의해 곱해지는 좌 채널(750a) 및 g_R2L 스칼라(776b)에 의해 곱해지는 우 채널(750b)을 포함할 수 있다. 우 컨텐츠-밸런싱되는 신호(774b)는 g_R2R 스칼라(776d)에 의해 곱해지는 우 채널(750b) 및 g_L2R 스칼라(776c)에 의해 곱해지는 좌 채널(750a)을 포함할 수 있다.
상기 언급되는 바와 같이, 전경 각도 제어 컴포넌트(734)는 또한 전경 신호(750)에 대해 전경 영역(106) 내의 지각적 각도를 제공하도록 구성될 수 있다. 이는 전경 각도 제어 스칼라들(778)로 지칭될 수 있는, 두 개의 스칼라들(778)의 이용을 통해 달성될 수 있다. 도 7에서 이러한 전경 각도 제어 스칼라들(778)은 g_L 스칼라(778a) 및 g_R 스칼라(778b)로 레이블된다. 좌 컨텐츠-밸런싱되는 신호(774a)는 g_L 스칼라(778a)에 의해 곱해질 수 있으며, 우 컨텐츠-밸런싱되는 신호(774b)는 g_R 스칼라(778b)에 의해 곱해질 수 있다.
270°및 0°사이의(즉, 전경 영역(106)의 좌측 상의) 지각적 각도를 달성하기 위해, 전경 각도 제어 스칼라들(778)의 값들은 우 컨텐츠-밸런싱되는 신호(774b)가 좌 컨텐츠-밸런싱되는 신호(774a)보다 더 많이 감쇠되도록 설정될 수 있다. 반대로, 0°및 90°사이의(즉, 전경 영역(106)의 우측 상의) 지각적 각도 위치를 달성하기 위해, 전경 각도 제어 스칼라들(778)의 값들은 좌 컨텐츠-밸런싱되는 신호(774a)가 우 컨텐츠-밸런싱되는 신호(774b)보다 더 많이 감쇠되도록 설정될 수 있다. 청취자(104)의 바로 전방(0°)의 지각적 위치를 달성하기 위해, 전경 각도 제어 스칼라들(778)의 값들은 좌 컨텐츠-밸런싱되는 신호(774a)와 우 컨텐츠-밸런싱되는 신호(774b)가 동일하게 감쇠도록 설정될 수 있다.
도 8은 배경 각도 제어 컴포넌트(838)를 도시한다. 배경 각도 제어 컴포넌트(838)는 도 6의 오디오 소스 프로세서(616) 내의 배경 각도 제어 컴포넌트(638)의 하나의 가능한 구현이다. 배경 각도 제어 컴포넌트(838)가 두 개의 입력들: 배경 신호(852)의 좌 채널(852a) 및 배경 신호(852)의 우 채널(852b)을 포함하는 것이 도시된다.
상기 언급되는 바와 같이, 배경 각도 제어 컴포넌트(838)는 배경 신호(852)의 좌 채널(852a) 및 우 채널(852b)의 컨텐츠들을 밸런싱하도록 구성될 수 있다. 이는 배경 신호(852)의 좌 채널(852a) 및 우 채널(852b)의 컨텐츠들을 두 개의 컨텐츠-밸런싱되는 신호들(880)로 재분배함으로써 달성될 수 있으며, 이는 좌 컨텐츠-밸런싱되는 신호(880a) 및 우 컨텐츠-밸런싱되는 신호(880b)로 지칭될 수 있다. 컨텐츠-밸런싱되는 신호들(880a, 880b) 모두는 배경 신호(852)의 좌 채널(852a) 및 우 채널(852b)의 컨텐츠들의 실질적으로 동일한 믹스처를 포함할 수 있다.
믹싱 스칼라들(882)은 배경 신호(852)의 좌 채널(852a) 및 우 채널(852b)의 컨텐츠들을 두 개의 컨텐츠-밸런싱되는 신호들(880a, 880b)로 재분배하기 위해 이용될 수 있다. 도 8에서 이러한 믹싱 스칼라들(880)은 g_L2L 스칼라(882a), g_R2L 스칼라(882b), g_L2R 스칼라(882c) 및 g_R2R 스칼라(882d)로 레이블된다. 좌 컨텐츠-밸런싱되는 신호(880a)는 g_L2L 스칼라(882a)에 의해 곱해지는 좌 채널(852a) 및 g_R2L 스칼라(882b)에 의해 곱해지는 우 채널(852b)을 포함할 수 있다. 우 컨텐츠-밸런싱되는 신호(880b)는 g_R2R 스칼라(882d)에 의해 곱해지는 우 채널(852b) 및 g_L2R 스칼라(882c)에 의해 곱해지는 좌 채널(852a)을 포함할 수 있다.
상기 언급되는 바와 같이, 배경 각도 제어 컴포넌트(838)는 또한 배경 신호(852)에 대해 배경 영역(108) 내의 지각적 각도를 제공하도록 구성될 수 있다. 이는 이러한 스칼라들(882)이 또한 배경 신호에 대해 지각적 각도(882)를 제공하기 위한 기능 외에도 배경 신호(852)의 좌 및 우 채널들(852a, 852b)의 컨텐츠들을 재분배하는 기능을 수행하도록 네 개의 믹싱 스칼라들(882)의 값들을 튜닝함으로써 달성될 수 있다. 그러므로, 배경 각도 제어 컴포넌트(838)는 (도 7에서 도시되는 전경 각도 제어 컴포넌트(734) 내의 g_L 스칼라(778a) 및 g_R 스칼라(778b)와 같은) 임의의 전용 각도 제어 스칼라들 없이 도시된다. 믹싱 스칼라들(882)은 이러한 기능들 모두를 수행할 수 있기 때문에, 믹싱/각도 제어 스칼라들(882)로 지칭될 수 있다. 배경 영역(108)에서의 프로세싱의 경우, 사운드가 이미 퍼져있기에, 전경 영역(106)에서와 같이 정확한 사운드 이미지를 제공하는 것은 불필요하기 때문에 믹싱/각도 제어 스칼라들(882)은 믹싱 및 각도 제어 기능들을 모두 수행할 수 있다.
도 9a는 오디오 소스(202)의 지각적 위치가 전경 영역(106) 내의 현재 위치로부터 배경 영역(108) 내의 새로운 위치로 변경될 때 도 6에서 도시되는 오디오 소스 프로세서(616)의 전경 감쇠 스칼라들(654, 656) 및 배경 감쇠 스칼라들(658, 660)의 값들이 시간에 따라 어떻게 변화할 수 있는지를 도시한다. 도 9b는 오디오 소스(202)의 지각적 위치가 배경 영역(108) 내의 현재 위치로부터 전경 영역(106) 내의 새로운 위치로 변경될 때 전경 감쇠 스칼라들(654, 656) 및 배경 감쇠 스칼라들(658, 660)의 값들이 시간에 따라 어떻게 변화할 수 있는지를 도시한다.
상기 언급되는 바와 같이, 제어 유닛(522)이 오디오 소스 프로세서(516)로 전송하는 제어 신호들(532)은 전경 감쇠 커맨드들(544) 및 배경 감쇠 커맨드들(548)을 포함할 수 있다. 전경 감쇠 커맨드들(544)은 도 9a 및 도 9b에서 도시되는 값들에 따라 전경 감쇠 스칼라들(654, 656)의 값들을 설정하기 위한 커맨드들을 포함할 수 있다. 전경 감쇠 커맨드들(544)은 적절하게, 전경 감쇠 스칼라들(654, 656)의 값들이 점진적으로 감소하거나(도 9a) 또는 점진적으로 증가하도록(도 9b) 할 수 있다. 배경 감쇠 커맨드들(548)은 도 9a 및 도 9b에서 도시되는 값들에 따라 배경 감쇠 스칼라들(658, 660)의 값들을 설정하기 위한 커맨드들을 포함할 수 있다. 배경 감쇠 커맨드들(548)은 적절하게, 배경 감쇠 스칼라들(658, 660)의 값들이 점진적으로 증가하거나(도 9a) 또는 점진적으로 감소하도록(도 9b) 할 수 있다.
도 9a 및 도 9b에서 도시되는 전경 감쇠 스칼라들(654, 656) 및 배경 감쇠 스칼라들(658, 660)의 값들은 예시들일 뿐이다. 이러한 스칼라(654, 656, 658, 660)들에 대해 다른 값들이 이용될 수 있다. 예를 들어, 전경 좌 스칼라(654) 및 전경 우 스칼라(656)의 값들이 바뀔 수 있고, 배경 좌 스칼라(658) 및 배경 우 스칼라(660)의 값들이 바뀔 수 있다. 이는 전경 및 배경 사이의 전이가 "반대 측"으로 나타나게 할 수 있다, 즉 상기 기재되는 바와 같이 값들이 바뀌었다면 도 9a 및 도 9b에서 도시되는 값들을 가지는 좌측 전이가 우측 전이가 될 수 있다. 그러나, 제어 유닛(522)은 180도보다 작은 아크(arc)를 실행하도록 자동적으로 선택하도록 구성될 수 있기 때문에, 전체적으로 사운드는 정확한 좌-우 미러(mirror)일 수 없다. 예를 들어, 120°에서 270°로의 전이를 고려해보라. 이러한 타입의 전이의 경우, 도 9a 및 도 9b에서 도시되는 값들은 음파 공간의 좌측 상의 아크-같은 움직임을 만들 것이다. 값들이 상기 기재되는 바와 같이 바뀌었다면, 아크는 대신에 우측을 따라 존재할 것이지만, 그래도 120°에서 시작하고 270°에서 끝날 것이다.
도 10은 오디오 소스(202)의 지각적 위치가 전경 영역(106) 내에서 또는 배경 영역(108) 내에서 변화할 때, 도 6에서 도시되는 오디오 소스 프로세서(616) 내의 전경 감쇠 스칼라들(654, 656) 및 배경 감쇠 스칼라들(658, 660)에 대한 가능한 값들의 예시들을 도시하는 테이블(1084)이다. 본 테이블(1064)에서 볼 수 있는 바와 같이, 전경 감쇠 스칼라들(654, 656) 및 배경 감쇠 스칼라들(658, 660)의 값들은 이러한 타입들의 전이들 동안 변화하지 않을 수 있다.
테이블(1084)은 또한 오디오 소스(202)의 지각적 위치가 전경 영역(106) 내의 현재 위치로부터 다시 전경 영역(106) 내의 새로운 위치로 변경될 때 전경 감쇠 스칼라들(654, 656) 및 배경 감쇠 스칼라들(658, 660)에 대한 값들의 예시들을 도시하는 열(1086)을 포함한다. 다른 열(1088)은 오디오 소스(202)의 지각적 위치가 배경 영역(108) 내의 현재 위치로부터 다시 배경 영역(108) 내의 새로운 위치로 변경될 때 전경 감쇠 스칼라들(654, 656) 및 배경 감쇠 스칼라들(658, 660)에 대한 값들의 예시들을 도시한다.
도 11은 전경 영역(106) 내의 가능한 지각적 위치들(즉, 270° 내지 360° 및 0° 내지 90°)에 대해 도 8에서 도시되는 전경 각도 제어 컴포넌트(734)의 전경 각도 제어 스칼라들(778a, 778b)에 대한 가능한 값들의 예시들을 도시하는 그래프(1190)이다. 전경 각도 제어 스칼라들(778a, 778b)은 g_L 스칼라(778a) 및 g_R 스칼라(778b)로 레이블된다. 상기 레이블들은 도 7의 전경 각도 제어 스칼라들(778a, 778b)에 대해 제공되는 레이블들에 대응한다.
상기 언급되는 바와 같이, 제어 유닛(522)이 오디오 소스 프로세서(516)로 전송하는 제어 신호들(532)은 전경 각도 제어 커맨드들(542)을 포함할 수 있다. 전경 각도 제어 커맨드들(542)은 도 11에서 도시되는 값들에 따라 전경 각도 제어 스칼라들(778a, 778b)의 값들을 설정하기 위한 커맨드들을 포함할 수 있다. 지각적 위치가 배경 영역(108)으로부터 전경 영역(106)으로 변화하고 있다면, 전경 각도 제어 커맨드들(542)은 전경 각도 제어 스칼라들(778a, 778b)을 전경 영역(106)의 오디오 소스(202)의 새로운 지각적 위치에 대응하는 값들로 즉시 설정하도록 구성될 수 있다. 지각적 위치가 전경 영역(106) 내에서 변화하고 있으면, 전경 각도 제어 커맨드들(542)은 전경 각도 제어 스칼라들(778a, 778b)의 값들을 현재 지각적 위치에 대응하는 값들로부터 새로운 지각적 위치에 대응하는 값들로 점진적으로 전이하도록 구성될 수 있다.
도 12는 전경 영역(10 6)(즉, 270° 내지 360° 및 0° 내지 90°) 내의 가능한 지각적 위치들에 대해 도 7에서 도시되는 전경 각도 제어 컴포넌트(734)의 믹싱 스칼라들(776)에 대한 가능한 값들의 예시들을 도시한다. 믹싱 스칼라들(776)은 g_L2L 스칼라(776a), g_R2L 스칼라(776b), g_L2R 스칼라(776c) 및 g_R2R 스칼라(776d)로 레이블된다. 이러한 레이블들은 도 7의 믹싱 스칼라들(776)에 대해 제공되는 레이블들에 대응한다.
상기 언급되는 바와 같이, 제어 유닛(522)이 오디오 소스 프로세서(516)로 전송하는 제어 신호들(532)은 전경 각도 제어 커맨드들(542)을 포함할 수 있다. 전경 각도 제어 커맨드들(542)은 도 12에서 도시되는 값들에 따라 믹싱 스칼라들(776)의 값들을 설정하기 위한 커맨드들을 포함할 수 있다. 지각적 위치가 배경 영역(108)으로부터 전경 영역(106)으로 변화하고 있다면, 전경 각도 제어 커맨드들(542)은 믹싱 스칼라들(776)을 전경 영역(106)의 오디오 소스(202)의 새로운 지각적 위치에 대응하는 값들로 즉시 설정하도록 구성될 수 있다. 지각적 위치가 전경 영역(106) 내에서 변화하고 있으면, 전경 각도 제어 커맨드들(542)은 믹싱 스칼라들(776)의 값들을 현재 지각적 위치에 대응하는 값들로부터 새로운 지각적 위치에 대응하는 값들로 점진적으로 전이하도록 구성될 수 있다
도 13는 배경 영역(108)(즉, 270° 내지 90°) 내의 가능한 지각적 위치들에 대해 도 7에서 도시되는 배경 각도 제어 컴포넌트(838)의 믹싱/각도 제어 스칼라들(882)에 대한 가능한 값들의 예시들을 도시한다. 믹싱/각도 제어 스칼라들(882)은 g_L2L 스칼라(882a), g_R2L 스칼라(882b), g_L2R 스칼라(882c) 및 g_R2R 스칼라(882d)로 레이블된다. 이러한 레이블들은 도 8의 믹싱/각도 제어 스칼라들(882)에 대해 제공되는 레이블들에 대응한다.
상기 언급되는 바와 같이, 제어 유닛(522)이 오디오 소스 프로세서(516)로 전송하는 제어 신호들(532)은 배경 각도 제어 커맨드들(542)을 포함할 수 있다. 배경 각도 제어 커맨드들(546)은 도 13에서 도시되는 값들에 따라 믹싱/각도 제어 스칼라들(882)의 값들을 설정하기 위한 커맨드들을 포함할 수 있다. 지각적 위치가 전경 영역(106)으로부터 배경 영역(108)으로 변화하고 있다면, 배경 각도 제어 커맨드들(546)은 믹싱/각도 제어 스칼라들(882)을 배경 영역(108) 내의 오디오 소스(202)의 새로운 지각적 위치에 대응하는 값들로 즉시 설정하도록 구성될 수 있다. 지각적 위치가 배경 영역(108) 내에서 변화하고 있다면, 배경 각도 제어 커맨드들(546)은 믹싱/각도 제어 스칼라들(882)의 값들이 현재의 지각적 위치에 대응하는 값들로부터 새로운 지각적 위치에 대응하는 값들로 점진적으로 전이하도록 구성될 수 있다.
도 14는 오디오 믹스처(212) 내의 오디오 소스(602)에 대해 별개의 지각적 위치를 제공하기 위한 방법(1400)을 도시한다. 방법(1400)은 도 6에서 도시되는 오디오 소스 프로세서(616)에 의해 수행될 수 있다.
방법(1400)에 따라, 입력 오디오 소스(602')는 전경 신호(650) 및 배경 신호(652)로 분리될 수 있다(1402). 전경 신호(650)는 배경 신호(652)와 상이하게 프로세싱될 수 있다.
전경 신호(650)의 프로세싱이 먼저 논의될 것이다. 입력 오디오 소스(602')가 스테레오 오디오 소스이면, 전경 신호(650)는 전경 신호(650)의 좌 채널(650a) 및 우 채널(650b)의 컨텐츠들를 밸런싱하기 위해 프로세싱될 수 있다(1404). 전경 신호(650)는 또한 전경 신호(650)의 전경 지각적 각도를 제공하기 위해 프로세싱될 수 있다(1406). 전경 신호(650)는 또한 전경 신호(650)에 대해 요구되는 감쇠의 레벨을 제공하기 위해 프로세싱될 수 있다(1408).
배경 신호(652)의 프로세싱이 이제 논의될 것이다. 배경 신호(652)는 배경 신호(652)가 전경 신호(650)보다 더 퍼져서 들리도록 프로세싱될 수 있다(1410). 입력 오디오 소스(602')가 스테레오 오디오 소스이면, 배경 신호(652)는 배경 신호(652)의 좌 채널(652a) 및 우 채널(652b)의 컨텐츠를 밸런싱하기 위해 프로세싱될 수 있다(1412). 배경 신호(652)는 또한 배경 신호(652)의 배경 지각적 각도를 제공하기 위해 프로세싱될 수 있다(1414). 배경 신호(652)는 또한 배경 신호(652)에 대해 요구되는 감쇠의 레벨을 제공하기 위해 프로세싱될 수 있다(1416).
그리고나서 젼경 신호(650) 및 배경 신호(652)는 출력 오디오 소스(602)로 결합될 수 있다(1418). 그리고나서 출력 오디오 소스(602)는 오디오 믹스처(212)를 생성하기 위해 다른 출력 오디오 소스들과 결합될 수 있다.
도 14의 방법(1400)은 입력 오디오 소스(602')의 개별적인 전경 프로세싱 및 배경 프로세싱이 어떻게 구현될 수 있는지를 도시한다. 전경 신호(650)의 좌 채널(650a) 및 우 채널(650b)의 컨텐츠들을 밸런싱하고(1404), 전경 신호(650)에 대해 전경 지각적 각도를 제공하고(1406) 그리고 전경 신호(650)에 대해 요구되는 감쇠의 레벨을 제공하는(1408) 단계들은 입력 오디오 소스(602')의 전경 프로세싱에 대응한다. 전경 신호(650)보다 더 퍼져서 들리게 하기 위해 배경 신호(652)를 프로세싱하고(1410), 배경 신호(652)의 좌 채널(652a) 및 우 채널(652b)의 컨텐츠들을 밸런싱하고(1412), 배경 신호(652)에 대해 배경 지각적 각도를 제공하고(1414) 그리고 배경 신호(652)에 대해 요구되는 감쇠의 레벨을 제공하는(1416) 단계들은 입력 오디오 소스(602')의 배경 프로세싱에 대응한다. 전경 신호(650)를 프로세싱하는 방법과 배경 신호(652)를 프로세싱하는 방법을 비교할 때 그 사이에 적어도 하나의 차이점들이 존재하기 때문에, 전경 신호(650)는 배경 신호(652)와 개별적으로 프로세싱된다고 말할 수 있다.
도 14의 방법(1400)이 오디오 소스(602)의 지각적 위치를 변경하기 위해 개별적인 전경 프로세싱 및 배경 프로세싱이 구현될 수 있는 하나의 방법을 도시하지만, 어구 "개별적인 전경 및 배경 프로세싱"은 도 14에서 도시되는 특정한 단계들로 제한되는 것으로 해석되어서는 아니 된다. 대신에, 상기 언급한 바와 같이, 개별적인 전경 및 배경 프로세싱은 입력 오디오 소스(602')가 전경 신호(650) 및 배경 신호(652)로 분리되며, 전경 신호(650)가 프로세싱되는 방법과 배경 신호(652)가 프로세싱되는 방법을 비교할 때 그 사이에 적어도 하나의 차이점이 존재한다는 것을 의미한다.
상기 기재되는 도 14의 방법(1400)은 도 15에서 도시되는 대응하는 수단-기능 블록들에 의해 수행될 수 있다. 다시 말해서, 도 14에서 도시되는 블록들(1402 내지 1418)은 도 15에서 도시되는 수단-기능 블록들(1502 내지 1518)에 대응한다.
도 16은 오디오 소스(602)의 지각적 위치를 변경하기 위한 방법(1600)을 도시한다. 방법(1600)은 도 6에서 도시되는 오디오 소스 프로세서(616)에 의해 수행될 수 있다.
방법(1600)에 따라, 제어 신호들(532)은 제어 유닛(522)으로부터 수신될 수 있다(1602). 이러한 제어 신호들(532)은 오디오 소스 프로세서(616)의 다양한 파라미터들을 설정하기 위한 커맨드들을 포함할 수 있다.
예를 들어, 오디오 소스(602)의 지각적 위치가 전경 영역(106)으로부터 배경 영역(108)으로 변화되고 있다고 가정하라. 제어 신호들(532)은 배경 각도 제어 컴포넌트(838) 내의 믹싱/각도 제어 스칼라들(882)을 오디오 소스(602)의 새로운 지각적 위치에 대응하는 값들로 즉시 설정하기 위한 커맨드들(546)을 포함할 수 있다. 믹싱/각도 제어 스칼라들(882)의 값들은 이러한 커맨드들(546)에 따라 변경될 수 있다(1604).
또한 제어 신호들(532)은 배경 감쇠 스칼라들(658, 660)의 값들을 배경 신호(652)의 완벽한 감쇠를 초래하는 값들로부터 배경 신호(652)의 무 감쇠를 초래하는 값들로 점진적으로 전이하기 위한 커맨드들(548)을 포함할 수 있다. 배경 감쇠 스칼라들(658, 660)의 값들은 이러한 커맨드들(548)에 따라 변경될 수 있다(1606).
또한 제어 신호들(532)은 전경 감쇠 스칼라들(654, 656)의 값들을 전경 신호(650)의 무 감쇠를 초래하는 값들부터 전경 신호(650)의 완벽한 감쇠를 초래하는 값들로 점진적으로 전이하기 위한 커맨드들(544)을 포함할 수 있다. 전경 감쇠 스칼라들(654, 656)의 값들은 이러한 커맨드들(544)에 따라 변경될 수 있다(1608).
반대로, 오디오 소스(602)의 지각적 위치가 배경 영역(108)으로부터 전경 영역(106)으로 변화되고 있음을 가정하라. 제어 신호들(532)은 전경 각도 제어 컴포넌트(734) 내의 전경 믹싱 스칼라들(776) 및 전경 각도 제어 스칼라들(778)을 오디오 소스(602)의 새로운 지각적 위치에 대응하는 값들로 즉시 설정하기 위한 커맨드들(542)을 포함할 수 있다. 전경 믹싱 스칼라들(776) 및 전경 각도 제어 스칼라들(778)의 값들은 이러한 커맨드들(542)에 따라 변경될 수 있다(1610).
또한 제어 신호들(532)은 전경 감쇠 스칼라들(654, 656)의 값들을 전경 신호(650)의 완벽한 감쇠를 초래하는 값들로부터 전경 신호(650)의 무 감쇠를 초래하는 값들로 점진적으로 전이하기 위한 커맨드들(544)을 포함할 수 있다. 전경 감쇠 스칼라들(654, 656)의 값들은 이러한 커맨드들(544)에 따라 변경될 수 있다(1612).
또한 제어 신호들(532)은 배경 감쇠 스칼라들(658, 660)의 값들을 배경 신호(652)의 무 감쇠를 초래하는 값들부터 배경 신호(652)의 완벽한 감쇠를 초래하는 값들로 점진적으로 전이하기 위한 커맨드들(548)을 포함할 수 있다. 배경 감쇠 스칼라들(658, 660)의 값들은 이러한 커맨드들(548)에 따라 변경될 수 있다(1614).
오디오 소스(602)의 지각적 위치가 배경 영역(108) 내에서 변화되고 있으면, 제어 신호들(532)은 또한 배경 각도 제어 컴포넌트(838) 내의 믹싱/각도 제어 스칼라들(882)의 값들을 현재의 지각적 위치에 대응하는 값들로부터 새로운 지각적 위치에 대응하는 값들로 점진적으로 전이하기 위한 커맨드들(546)을 포함할 수 있다. 믹싱/각도 제어 스칼라들(882)의 값들은 이러한 커맨드들(548)에 따라 변경될 수 있다(1616).
오디오 소스(602)의 지각적 위치가 전경 영역(106) 내에서 변화되고 있으면, 제어 신호들(532)은 또한 전경 각도 제어 컴포넌트(734) 내의 전경 믹싱 스칼라들(776) 및 전경 각도 제어 스칼라들(778)의 값들을 현재의 지각적 위치에 대응하는 값들로부터 새로운 지각적 위치에 대응하는 값들로 점진적으로 전이하기 위한 커맨드들(542)을 포함할 수 있다. 전경 믹싱 스칼라들(776) 및 전경 각도 제어 스칼라들(778)의 값들은 이러한 커맨드들(542)에 따라 변경될 수 있다(1618).
도 16의 방법(1600)은 임의의 전이에 대해, 180°미만의 실행될 아크가 자동적으로 선택될 수 있도록 구현될 수 있다. 예를 들어, 120°에서 270°로의 전이를 고려해보라. 도 1에서 도시되는 지각적 각도의 정의를 참조로(여기서 0°는 청취자(104)의 바로 전방임), 이러한 전이는 반-시계 방향 또는 시계 방향으로 이루어질 수 있다. 그러나, 본 예시에서 시계 방향은 180°미만이고, 반-시계 방향은 180°초과일 것이다. 그 결과, 시계 방향에 대응하는 아크가 자동적으로 선택될 수 있다.
상기 기재되는 도 16의 방법(1600)은 도 17에서 도시되는 대응하는 수단-기능 블록들(1700)에 의해 수행될 수 있다. 다시 말해서, 도 16에서 도시되는 블록들(1602 내지 1618)은 도 17에서 도시되는 수단-기능 블록들(1702 내지 1718)에 대응한다.
도 18은 오디오 소스 프로세서(1816)를 도시한다. 오디오 소스 프로세서(1816)는 도 5의 오디오 소스 프로세서(516)의 다른 가능한 구현이다. 오디오 소스 프로세서(1816)는 단일-채널(모노) 오디오 신호들을 프로세싱하도록 구성된다.
도 18에서 도시되는 오디오 소스 프로세서(1816)는 도 6에서 도시되는 오디오 소스 프로세서(616)와 일부 사항들에 있어서 유사할 수 있다. 도 6에서 도시되는 오디오 소스 프로세서(616)의 컴포넌트들과 유사한 도 18에서 도시되는 오디오 소스 프로세서(1816)의 컴포넌트들은 대응하는 참조 번호들로 레이블된다.
도 18에서 도시되는 오디오 소스 프로세서(1816)와 도 6에서 도시되는 오디오 소스 프로세서(616) 사이에는 일부 차이점들이 존재한다. 예를 들어, 오디오 소스 프로세서(1816)가 단지 하나의 채널을 가지는 입력 오디오 소스(1802')를 수신하는 것이 도시된다. 반대로, 도 6에서 도시되는 오디오 소스 프로세서(616)가 두 개의 채널들(602a', 602b')을 가지는 입력 오디오 소스(602')를 수신하는 것이 도시된다.
입력 오디오 소소(1802')가 전경 신호(1850) 및 배경 신호(1852)로 분리되는 것이 도시된다. 입력 오디오 소스(1802')는 하나의 채널을 포함할 수 있기 때문에, 전경 신호(1850) 및 배경 신호(1852) 모두는 초기에 하나의 채널을 포함한다.
전경 신호(1850)가 초기에 단지 하나의 채널을 포함하기 때문에, 전경 각도 제어 컴포넌트(1834)는 단지 하나의 입력(1850)을 수신하도록 구성될 수 있다. 반대로, 상기 논의된 바와 같이, 도 6의 오디오 소스 프로세서(616)의 전경 각도 제어 컴포넌트(634)는 두 개의 입력들(650a, 650b)을 수신하도록 구성될 수 있다. 도 18에서 도시되는 전경 각도 제어 컴포넌트(1834)는 전경 신호(1850)의 단일 채널을 두 개의 신호들로 분리하도록 구성될 수 있다.
도 18의 오디오 소스 프로세서(1816)의 전경 각도 제어 컴포넌트(1834)는 전경 신호(1850)에 대한 전경 지각적 각도를 제공하도록 구성된다. 그러나, 전경 신호(1850)가 초기에 하나의 채널을 포함하기 때문에, 전경 각도 제어 컴포넌트(1834)는 도 6의 오디오 소스 프로세서(616)의 전경 각도 제어 컴포넌트(634)의 경우와 같이, 다수의 채널들의 컨텐츠들을 밸런싱하도록 구성되지 않을 수 있다.
언급된 바와 같이, 배경 신호(1852) 또한 초기에 단지 하나의 채널을 포함한다. 그러므로, 도 18의 오디오 소스 프로세서(1816)가 도 6의 오디오 소스 프로세서(616)에서 도시되는 두 개의 저역 통과 필터들(662, 664) 대신에, 단지 하나의 저역 통과 필터(1862)를 포함하는 것이 도시된다. 단일 저역 통과 필터(1862)의 출력은 두 개의 신호들, 지연 라인(1866)으로 제공되는 하나의 신호 및 IID 감쇠 컴포넌트(1868)로 제공되는 다른 신호로 분리될 수 있다.
도 18에서 도시되는 오디오 소스 프로세서(1816)는 오디오 소스(1802)의 지각적 위치를 변경하기 위해 개별적인 전경 프로세싱 및 배경 프로세싱이 어떻게 구현될 수 있는지의 다른 예시를 도시한다. 입력 오디오 소스(1802')는 두 개의 신호들, 전경 신호(1850) 및 배경 신호(1852)로 분리되는 것이 도시된다. 그리고나서 전경 신호(1850) 및 배경 신호(1852)는 개별적으로 프로세싱된다. 다시 말해서, 전경 신호(1850)가 프로세싱되는 방법과 배경 신호(1852)가 프로세싱되는 방법을 비교할 때 그 사이에 차이점들이 존재한다. 이러한 차이점들이 상기 기재되었다.
도 19는 전경 각도 제어 컴포넌트(1934)를 도시한다. 전경 각도 제어 컴포넌트(1934)는 도 18의 오디오 소스 프로세서(1816)의 전경 각도 제어 컴포넌트(1834)의 하나의 가능한 구현이다.
전경 각도 제어 컴포넌트(1934)가 입력으로서 전경 신호(1950)의 단일 채널을 수신하는 것이 도시된다. 전경 각도 제어 컴포넌트(1934)는 전경 신호(1950)에 대한 전경 지각적 각도를 제공하도록 구성될 수 있다. 이는 두 개의 전경 각도 제어 스칼라들(1978a, 1978b)의 이용을 통해 달성될 수 있으며, 이는 도 19에서 g_L 스칼라(1978a) 및 g_R 스칼라(1978b)로 레이블된다. 전경 신호(1950)는 두 개의 신호들(1950a, 1950b)로 분리될 수 있다. 하나의 신호(1950a)는 g_L 스칼라(1978a)에 의해 곱해지고, 다른 신호(1950b)는 g_R 스칼라(1978b)에 의해 곱해질 수 있다.
도 20은 여기 개시되는 다양한 방법들을 구현하기 위해 이용될 수 있는 장치(2001)에서 이용될 수 있는 다양한 컴포넌트들을 도시한다. 도시되는 컴포넌트들은 동일한 물리적 구조 내에 또는 개별적인 하우징(housing)들 또는 구조들에 위치할 수 있다. 그러므로, 용어 "장치(2001)"는 명백히 달리 명시되지 않는다면 하나 이상의 폭넓게 정의되는 컴퓨팅 디바이스들을 의미하기 위해 사용된다. 컴퓨팅 디바이스들은 마이크로컨트롤러들, 휴대용 컴퓨터들, 개인 컴퓨터들, 서버들, 메인프레임들, 슈퍼컴퓨터들, 미니컴퓨터들, 워크스테이션들 및 상기의 임의의 변형 또는 관련 디바이스를 포함하는, 광범위한 디지털 컴퓨터들을 포함한다.
장치(2001)가 프로세서(2003) 및 메모리(2005)를 포함하는 것이 도시된다. 프로세서(2003)는 장치(2001)의 동작을 제어할 수 있으며 마이크로프로세서, 마이크로컨트롤러, 디지털 신호 프로세서(DSP) 또는 당해 기술 분야에 공지된 다른 디바이스로서 구현될 수 있다. 프로세서(2003)는 일반적으로 메모리(2005) 내에 저장되는 프로그램 명령(instruction)들에 기초하여 논리 및 계산 동작들을 수행한다. 메모리(2005) 내의 명령들은 여기 기재되는 방법들을 구현하도록 실행가능할 수 있다.
장치(2001)는 또한 다른 전자 디바이스들과 통신하기 위한 하나 이상의 통신 인터페이스(2007)들 및/또는 네트워크 인터페이스(2013)들을 포함할 수 있다. 통신 인터페이스(들)(2007) 및 네트워크 인터페이스(들)(2013)는 유선 통신 기술, 무선 통신 기술 또는 이 둘 모두에 기초할 수 있다.
장치(2001)는 또한 하나 이상의 입력 디바이스들(2009) 및 하나 이상의 출력 디바이스들(2011)을 포함할 수 있다. 입력 디바이스들(2009) 및 출력 디바이스들(2011)은 사용자 입력을 용이하게 할 수 있다. 다른 컴포넌트들(2015)은 또한 장치(2001)의 일부분으로 제공될 수 있다.
도 20은 장치(2001)의 하나의 가능한 구성을 도시한다. 다양한 다른 구조(architecture)들 및 컴포넌트들이 이용될 수 있다.
여기 사용되는 바와 같이, 용어 "결정하는"(및 상기의 문법적 변형들)은 극히 넓은 의미로 사용된다. 용어 "결정하는"은 다양한 동작들을 포함하며, 그러므로, "결정하는"은 '계산하는', '컴퓨팅하는', '프로세싱하는', '파생하는', '조사하는', '검색하는'(예를 들어, 테이블, 데이터베이스 또는 다른 데이터 구조에서 검색하는), '확인하는' 등을 포함할 수 있다. 또한, "결정하는"은 수신하는(예를 들어, 정보를 수신하는), 액세스하는(예를 들어, 메모리 내의 데이터를 액세스하는) 등을 포함할 수 있다. 또한, "결정하는"은 결심하는, 선택하는, 선택하는, 확립하는 등을 포함할 수 있다.
정보 및 신호들은 다양한 상이한 기술들(techonology 및 technique) 중 임의의 것을 이용하여 표현될 수 있다. 예를 들어, 상기 기재에 걸쳐 언급될 수 있는 데이터, 명령들, 커맨드들, 정보, 신호들 등은 전압들, 전류들, 전자기파들, 자기장들 또는 입자들, 광학장들 또는 입자, 또는 이들의 임의의 조합으로 표현될 수 있다.
본 개시물과 관련하여 기재되는 다양한 예시적인 논리 블록들, 모듈들 및 회로들이 범용 프로세서, 디지털 신호 처리기(DSP), 주문형 집적회로(ASIC), 필드 프로그램어블 게이트 어레이(FPGA) 또는 다른 프로그램어블 논리 디바이스, 이산 게이트 또는 트랜지스터 논리, 이산 하드웨어 컴포넌트들 또는 여기서 기재되는 기능들을 구현하도록 설계되는 임의의 조합을 통해 구현 또는 수행될 수 있다. 범용 프로세서는 마이크로프로세서 일 수 있지만, 대안적 실시예에서, 상기 프로세서는 임의의 상업적으로 이용가능한 프로세서, 컨트롤러, 마이크로컨트롤러 또는 상태 머신일 수 있다. 또한 프로세서는 계산 장치들의 조합, 예를 들어 DSP 및 마이크로프로세서, 복수의 마이크로프로세서들, DSP 코어와 결합된 하나 이상의 마이크로프로세서들 또는 임의의 다른 이러한 구성의 조합으로서 구현될 수 있다.
게다가, 본 개시물과 관련하여 기재되는 알고리즘 또는 방법의 단계들은 하드웨어에서, 프로세서에 의해 실행되는 소프트웨어 모듈에서 또는 이 둘의 조합에 의해 직접 구현될 수 있다. 소프트웨어 모듈들은 당해 기술 분야에 공지된 임의의 형태의 저장 매체에 상주할 수 있다. 이용될 수 있는 저장 매체의 일부 예시들은 RAM 메모리, 플래쉬 메모리, ROM 메모리, EPROM 메모리, EEPROM 메모리, 레지스터들, 하드 디스크, 분리성 디스크, CD-ROM 등을 포함한다. 소프트웨어 모듈은 단일 명령 또는 많은 명령들을 포함할 수 있으며, 상이한 프로그램들을 따라 또는 다수의 저장 매체를 통해, 몇몇의 상이한 코드 세그먼트들에 걸쳐 분배될 수 있다. 프로세서가 저장매체로부터 정보를 판독하여 저장매체에 정보를 기록할 수 있도록 저장 매체는 프로세서와 커플링될 수 있다. 대안적 실시예에서, 저장 매체는 프로세서의 구성요소일 수 있다.
여기 개시되는 방법들은 상기 기재되는 방법을 달성하기 위해 하나 이상의 단계들 및 동작들을 포함한다. 방법 단계들 및/또는 동작들은 청구항들의 범위를 이탈함이 없이 상호교환될 수 있다. 다시 말해서, 단계들 또는 동작들의 특정한 순서가 명시되지 않으면, 특정한 단계들 및/또는 동작들의 순서 및/또는 이용은 청구항들의 범위를 이탈함이 없이 수정될 수 있다.
기재되는 기능들은 하드웨어, 소프트웨어, 펌웨어,또는 이들의 임의의 조합을 통해 구현될 수 있다. 소프트웨어로 구현되는 경우, 상기 기능들은 컴퓨터-판독가능한 매체 상에 하나 이상의 명령들 또는 코드로서 저장되거나 또는 이들을 통해 송신될 수 있다. 컴퓨터-판독가능한 매체는 컴퓨터 저장 매체 및 일 장소에서 다른 장소로 컴퓨터 프로그램의 전달을 용이하게 하는 임의의 매체를 포함하는 통신 매체 모두를 포함한다. 저장 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 이용가능한 매체일 수 있다. 제한이 아니라, 예시로서, 이러한 컴퓨터-판독가능한 매체는 RAM, ROM, EEPROM, CD-ROM 또는 다른 광학 디스크 저장 매체, 자기 디스크 저장 매체, 또는 컴퓨터에 의해 액세스될 수 있는 데이터 구조들 또는 명령들의 형태로 요구되는 프로그램 코드를 전송하거나 저장하기 위해 이용될 수 있는 임의의 다른 매체를 포함할 수 있다. 또한, 임의의 연결 수단이 컴퓨터-판독가능한 매체로 적절히 지칭된다. 예를 들어, 소프트웨어가 웹사이트, 서버 또는 다른 원격 소스로부터 동축 케이블, 광섬유 케이블, 연선, 디지털 가입자 라인(DSL), 또는 적외선, 라디오 및 마이크로웨이브와 같은 무선 기술들을 이용하여 송신되는 경우, 상기 동축 케이블, 광섬유 케이블, 연선, DSL, 또는 적외선, 라디오 및 마이크로웨이브와 같은 무선 기술들은 상기 매체의 정의 내에 포함된다. 여기서 사용되는 바와 같이, disk 및 disc은 컴팩트 disc(CD), 레이저 disc, 광 disc, 디지털 다기능 disc(DVD), 플로피 disk 및 블루-레이 disc를 포함하며 여기서 disk는 보통 데이터를 자기적으로 재생하지만, disc는 레이저를 통해 광학적으로 데이터를 재생한다. 또한 상기의 조합들은 컴퓨터-판독가능한 매체의 범위 내에 포함될 수 있다.
청구항들이 상기 설명되는 바로 그 구성 및 컴포넌트들로 제한되지 않음이 이해될 수 있다. 다양한 수정들, 변형들 및 변이들이 청구항들의 범위를 이탈함이 없이 상기 기재되는 방법들 및 장치의 배열, 동작 및 세부사항들에서 이루어질 수 있다.

Claims (36)

  1. 지능형 오디오 믹싱(mixing) 기술들을 이용하는 프로세싱 엔진에 대한 인터페이스를 제공하기 위한 방법으로서,
    오디오 믹스처(mixture) 내의 오디오 소스의 지각적(perceptual) 위치를 청취자에 대한 현재의 지각적 위치로부터 상기 청취자에 대한 새로운 지각적 위치로 변경하기 위한 요청을 이벤트에 의해 트리거하는 단계 ― 상기 오디오 믹스처는 적어도 두 개의 오디오 소스들을 포함함 ― ;
    상기 프로세싱 엔진으로 하여금 상기 오디오 소스의 상기 지각적 위치를 개별적인 전경(foreground) 프로세싱 및 배경(background) 프로세싱을 통해 상기 현재의 지각적 위치로부터 상기 새로운 지각적 위치로 변경하도록 구성되는 하나 이상의 제어 신호들을 생성하는 단계; 및
    상기 하나 이상의 제어 신호들을 상기 프로세싱 엔진에 제공하는 단계
    를 포함하는, 프로세싱 엔진에 대한 인터페이스를 제공하기 위한 방법.
  2. 제 1 항에 있어서,
    개별적인 전경 프로세싱 및 배경 프로세싱은,
    입력 오디오 소스를 전경 신호 및 배경 신호로 분리하는 것; 및
    상기 전경 신호를 상기 배경 신호와 상이하게 프로세싱하는 것을 포함하는,
    프로세싱 엔진에 대한 인터페이스를 제공하기 위한 방법.
  3. 제 2 항에 있어서,
    상기 배경 프로세싱은 상기 전경 신호보다 더 퍼져서 들리게 하기 위해 상기 배경 신호를 프로세싱하는 것을 포함하는,
    프로세싱 엔진에 대한 인터페이스를 제공하기 위한 방법.
  4. 제 1 항에 있어서,
    상기 하나 이상의 제어 신호들은 상기 프로세싱 엔진으로 하여금 상기 오디오 소스의 상기 지각적 위치를 상기 현재의 지각적 위치로부터 상기 새로운 지각적 위치로 점진적으로 변경하도록 하는,
    프로세싱 엔진에 대한 인터페이스를 제공하기 위한 방법.
  5. 제 1 항에 있어서,
    상기 프로세싱 엔진의 파라미터들에 대한 새로운 값들을 결정하는 단계를 더 포함하고,
    상기 새로운 값들은 상기 새로운 지각적 위치에 대응하고,
    상기 하나 이상의 제어 신호들은 상기 파라미터들을 상기 새로운 값들로 설정하기 위한 커맨드(command)들을 포함하는,
    프로세싱 엔진에 대한 인터페이스를 제공하기 위한 방법.
  6. 제 1 항에 있어서,
    상기 현재의 지각적 위치로부터 상기 새로운 지각적 위치로 변경하는 것은 상기 청취자에 대한 전경 영역 내의 전이(transition)를 포함하고, 그리고
    상기 프로세싱 엔진의 전경 각도 제어 컴포넌트의 파라미터들에 대한 새로운 값들을 결정하는 단계를 더 포함하는,
    프로세싱 엔진에 대한 인터페이스를 제공하기 위한 방법.
  7. 제 1 항에 있어서,
    상기 현재의 지각적 위치로부터 상기 새로운 지각적 위치로 변경하는 것은 상기 청취자에 대한 배경 영역 내의 전이를 포함하고, 그리고
    상기 프로세싱 엔진의 배경 각도 제어 컴포넌트의 파라미터들에 대한 새로운 값들을 결정하는 단계를 더 포함하는,
    프로세싱 엔진에 대한 인터페이스를 제공하기 위한 방법.
  8. 제 1 항에 있어서,
    상기 현재의 지각적 위치로부터 상기 새로운 지각적 위치로 변경하는 것은 상기 청취자에 대한 배경 영역으로부터 상기 청취자에 대한 전경 영역으로의 전이를 포함하고, 그리고
    상기 프로세싱 엔진의 전경 각도 제어 컴포넌트, 상기 프로세싱 엔진의 전경 감쇠 컴포넌트 및 상기 프로세싱 엔진의 배경 감쇠 컴포넌트의 파라미터들에 대한 새로운 값들을 결정하는 단계를 더 포함하는,
    프로세싱 엔진에 대한 인터페이스를 제공하기 위한 방법.
  9. 제 1 항에 있어서,
    상기 현재의 지각적 위치로부터 상기 새로운 지각적 위치로 변경하는 것은 상기 청취자에 대한 전경 영역으로부터 상기 청취자에 대한 배경 영역으로의 전이를 포함하고, 그리고
    상기 프로세싱 엔진의 배경 각도 제어 컴포넌트, 상기 프로세싱 엔진의 배경 감쇠 컴포넌트 및 상기 프로세싱 엔진의 전경 감쇠 컴포넌트의 파라미터들에 대한 새로운 값들을 결정하는 단계를 더 포함하는,
    프로세싱 엔진에 대한 인터페이스를 제공하기 위한 방법.
  10. 지능형 오디오 믹싱 기술들을 이용하는 프로세싱 엔진에 대한 인터페이스를 제공하기 위한 장치로서,
    프로세서;
    상기 프로세서와 전자 통신하는 메모리;
    상기 메모리 내에 저장되는 명령(instruction)들을 포함하며,
    상기 명령들은,
    오디오 믹스처 내의 오디오 소스의 지각적 위치를 청취자에 대한 현재의 지각적 위치로부터 상기 청취자에 대한 새로운 지각적 위치로 변경하기 위한 요청을 이벤트에 의해 트리거하고 ― 상기 오디오 믹스처는 적어도 두 개의 오디오 소스들을 포함함 ― ;
    상기 프로세싱 엔진으로 하여금 상기 오디오 소스의 상기 지각적 위치를 개별적인 전경 프로세싱 및 배경 프로세싱을 통해 상기 현재의 지각적 위치로부터 상기 새로운 지각적 위치로 변경하도록 구성되는 하나 이상의 제어 신호들을 생성하고; 그리고
    상기 하나 이상의 제어 신호들을 상기 프로세싱 엔진에 제공하도록 실행가능한,
    프로세싱 엔진에 대한 인터페이스를 제공하기 위한 장치.
  11. 제 10 항에 있어서,
    개별적인 전경 프로세싱 및 배경 프로세싱은,
    입력 오디오 소스를 전경 신호 및 배경 신호로 분리하는 것; 및
    상기 전경 신호를 상기 배경 신호와 상이하게 프로세싱하는 것을 포함하는,
    프로세싱 엔진에 대한 인터페이스를 제공하기 위한 장치.
  12. 제 11 항에 있어서,
    상기 배경 프로세싱은 상기 전경 신호보다 더 퍼져서 들리게 하기 위해 상기 배경 신호를 프로세싱하는 것을 포함하는,
    프로세싱 엔진에 대한 인터페이스를 제공하기 위한 장치.
  13. 제 10 항에 있어서,
    상기 하나 이상의 제어 신호들은 상기 프로세싱 엔진으로 하여금 상기 오디오 소스의 상기 지각적 위치를 상기 현재의 지각적 위치로부터 상기 새로운 지각적 위치로 점진적으로 변경하도록 하는,
    프로세싱 엔진에 대한 인터페이스를 제공하기 위한 장치.
  14. 제 10 항에 있어서,
    상기 명령들은 또한 상기 프로세싱 엔진의 파라미터들에 대한 새로운 값들을 결정하도록 실행가능하고,
    상기 새로운 값들은 상기 새로운 지각적 위치에 대응하고,
    상기 하나 이상의 제어 신호들은 상기 파라미터들을 상기 새로운 값들로 설정하기 위한 커맨드들을 포함하는,
    프로세싱 엔진에 대한 인터페이스를 제공하기 위한 장치.
  15. 제 10 항에 있어서,
    상기 현재의 지각적 위치로부터 상기 새로운 지각적 위치로 변경하는 것은 상기 청취자에 대한 전경 영역 내의 전이를 포함하고,
    상기 명령들은 또한 상기 프로세싱 엔진의 전경 각도 제어 컴포넌트의 파라미터들에 대한 새로운 값들을 결정하도록 실행가능한,
    프로세싱 엔진에 대한 인터페이스를 제공하기 위한 장치.
  16. 제 10 항에 있어서,
    상기 현재의 지각적 위치로부터 상기 새로운 지각적 위치로 변경하는 것은 상기 청취자에 대한 배경 영역 내의 전이를 포함하고,
    상기 명령들은 또한 상기 프로세싱 엔진의 배경 각도 제어 컴포넌트의 파라미터들에 대한 새로운 값들을 결정하도록 실행가능한,
    프로세싱 엔진에 대한 인터페이스를 제공하기 위한 장치.
  17. 제 10 항에 있어서,
    상기 현재의 지각적 위치로부터 상기 새로운 지각적 위치로 변경하는 것은 상기 청취자에 대한 배경 영역으로부터 상기 청취자에 대한 전경 영역으로의 전이를 포함하고,
    상기 명령들은 또한 상기 프로세싱 엔진의 전경 각도 제어 컴포넌트, 상기 프로세싱 엔진의 전경 감쇠 컴포넌트 및 상기 프로세싱 엔진의 배경 감쇠 컴포넌트의 파라미터들에 대한 새로운 값들을 결정하도록 실행가능한,
    프로세싱 엔진에 대한 인터페이스를 제공하기 위한 장치.
  18. 제 10 항에 있어서,
    상기 현재의 지각적 위치로부터 상기 새로운 지각적 위치로 변경하는 것은 상기 청취자에 대한 전경 영역으로부터 상기 청취자에 대한 배경 영역으로의 전이를 포함하고,
    상기 명령들은 또한 상기 프로세싱 엔진의 배경 각도 제어 컴포넌트, 상기 프로세싱 엔진의 배경 감쇠 컴포넌트 및 상기 프로세싱 엔진의 전경 감쇠 컴포넌트의 파라미터들에 대한 새로운 값들을 결정하도록 실행가능한,
    지능형 오디오 믹싱 기술들을 이용하는 프로세싱 엔진에 대한 인터페이스를 제공하기 위한 장치.
  19. 모바일 디바이스 상에서 오디오 믹싱 기술들을 이용하는 프로세싱 엔진에 대한 인터페이스를 제공하는 명령들을 포함하는 컴퓨터-판독가능한 매체로서,
    상기 명령들은 프로세서에 의해 실행될 때 상기 프로세서로 하여금,
    오디오 믹스처 내의 오디오 소스의 지각적 위치를 청취자에 대한 현재의 지각적 위치로부터 상기 청취자에 대한 새로운 지각적 위치로 변경하기 위한 요청을 이벤트에 의해 트리거하고 ― 상기 오디오 믹스처는 적어도 두 개의 오디오 소스들을 포함함 ― ;
    상기 프로세싱 엔진으로 하여금 상기 오디오 소스의 상기 지각적 위치를 개별적인 전경 프로세싱 및 배경 프로세싱을 통해 상기 현재의 지각적 위치로부터 상기 새로운 지각적 위치로 변경하도록 구성되는 하나 이상의 제어 신호들을 생성하고, 그리고
    상기 하나 이상의 제어 신호들을 상기 프로세싱 엔진에 제공하도록 하는,
    컴퓨터-판독가능한 매체.
  20. 제 19 항에 있어서,
    개별적인 전경 프로세싱 및 배경 프로세싱은,
    입력 오디오 소스를 전경 신호 및 배경 신호로 분리하는 것; 및
    상기 전경 신호를 상기 배경 신호와 상이하게 프로세싱하는 것을 포함하는,
    컴퓨터-판독가능한 매체.
  21. 제 20 항에 있어서,
    상기 배경 프로세싱은 상기 전경 신호보다 더 퍼져서 들리게 하기 위해 상기 배경 신호를 프로세싱하는 것을 포함하는,
    컴퓨터-판독가능한 매체.
  22. 제 19 항에 있어서,
    상기 하나 이상의 제어 신호들은 상기 프로세싱 엔진으로 하여금 상기 오디오 소스의 상기 지각적 위치를 상기 현재의 지각적 위치로부터 상기 새로운 지각적 위치로 점진적으로 변경하도록 하는,
    컴퓨터-판독가능한 매체.
  23. 제 19 항에 있어서,
    상기 명령들은 또한 상기 프로세서로 하여금 상기 프로세싱 엔진의 파라미터들에 대한 새로운 값들을 결정하도록 하고,
    상기 새로운 값들은 상기 새로운 지각적 위치에 대응하고,
    상기 하나 이상의 제어 신호들은 상기 파라미터들을 상기 새로운 값들로 설정하기 위한 커맨드들을 포함하는,
    컴퓨터-판독가능한 매체.
  24. 제 19 항에 있어서,
    상기 현재의 지각적 위치로부터 상기 새로운 지각적 위치로 변경하는 것은 상기 청취자에 대한 전경 영역 내의 전이를 포함하고,
    상기 명령들은 또한 상기 프로세서로 하여금 상기 프로세싱 엔진의 전경 각도 제어 컴포넌트의 파라미터들에 대한 새로운 값들을 결정하도록 하는,
    컴퓨터-판독가능한 매체.
  25. 제 19 항에 있어서,
    상기 현재의 지각적 위치로부터 상기 새로운 지각적 위치로 변경하는 것은 상기 청취자에 대한 배경 영역 내의 전이를 포함하고,
    상기 명령들은 또한 상기 프로세서로 하여금 상기 프로세싱 엔진의 배경 각도 제어 컴포넌트의 파라미터들에 대한 새로운 값들을 결정하도록 하는,
    컴퓨터-판독가능한 매체.
  26. 제 19 항에 있어서,
    상기 현재의 지각적 위치로부터 상기 새로운 지각적 위치로 변경하는 것은 상기 청취자에 대한 배경 영역으로부터 상기 청취자에 대한 전경 영역으로의 전이를 포함하고,
    상기 명령들은 또한 상기 프로세서로 하여금 상기 프로세싱 엔진의 전경 각도 제어 컴포넌트, 상기 프로세싱 엔진의 전경 감쇠 컴포넌트 및 상기 프로세싱 엔진의 배경 감쇠 컴포넌트의 파라미터들에 대한 새로운 값들을 결정하도록 하는,
    컴퓨터-판독가능한 매체.
  27. 제 19 항에 있어서,
    상기 현재의 지각적 위치로부터 상기 새로운 지각적 위치로 변경하는 것은 상기 청취자에 대한 전경 영역으로부터 상기 청취자에 대한 배경 영역으로의 전이를 포함하고,
    상기 명령들은 또한 상기 프로세서로 하여금 상기 프로세싱 엔진의 배경 각도 제어 컴포넌트, 상기 프로세싱 엔진의 배경 감쇠 컴포넌트 및 상기 프로세싱 엔진의 전경 감쇠 컴포넌트의 파라미터들에 대한 새로운 값들을 결정하도록 하는,
    컴퓨터-판독가능한 매체.
  28. 지능형 오디오 믹싱 기술들을 이용하는 프로세싱 엔진에 대한 인터페이스를 제공하기 위한 장치로서,
    오디오 믹스처 내의 오디오 소스의 지각적 위치를 청취자에 대한 현재의 지각적 위치로부터 상기 청취자에 대한 새로운 지각적 위치로 변경하기 위한 요청을 이벤트에 의해 트리거하기 위한 수단― 상기 오디오 믹스처는 적어도 두 개의 오디오 소스들을 포함함 ― ;
    상기 프로세싱 엔진으로 하여금 상기 오디오 소스의 상기 지각적 위치를 개별적인 전경 프로세싱 및 배경 프로세싱을 통해 상기 현재의 지각적 위치로부터 상기 새로운 지각적 위치로 변경하도록 구성되는 하나 이상의 제어 신호들을 생성하기 위한 수단; 및
    상기 하나 이상의 제어 신호들을 상기 프로세싱 엔진에 제공하기 위한 수단
    을 포함하는, 프로세싱 엔진에 대한 인터페이스를 제공하기 위한 장치.
  29. 제 28 항에 있어서,
    개별적인 전경 프로세싱 및 배경 프로세싱은,
    입력 오디오 소스를 전경 신호 및 배경 신호로 분리하는 것; 및
    상기 전경 신호를 상기 배경 신호와 상이하게 프로세싱하는 것을 포함하는,
    프로세싱 엔진에 대한 인터페이스를 제공하기 위한 장치.
  30. 제 29 항에 있어서,
    상기 배경 프로세싱은 상기 전경 신호보다 더 퍼져서 들리게 하기 위해 상기 배경 신호를 프로세싱하는 것을 포함하는,
    프로세싱 엔진에 대한 인터페이스를 제공하기 위한 장치.
  31. 제 28 항에 있어서,
    상기 하나 이상의 제어 신호들은 상기 프로세싱 엔진으로 하여금 상기 오디오 소스의 상기 지각적 위치를 상기 현재의 지각적 위치로부터 상기 새로운 지각적 위치로 점진적으로 변경하도록 하는,
    프로세싱 엔진에 대한 인터페이스를 제공하기 위한 장치.
  32. 제 28 항에 있어서,
    상기 프로세싱 엔진의 파라미터들에 대한 새로운 값들을 결정하는 것을 더 포함하고,
    상기 새로운 값들은 상기 새로운 지각적 위치에 대응하고,
    상기 하나 이상의 제어 신호들은 상기 파라미터들을 상기 새로운 값들로 설정하기 위한 커맨드들을 포함하는,
    프로세싱 엔진에 대한 인터페이스를 제공하기 위한 장치.
  33. 제 28 항에 있어서,
    상기 현재의 지각적 위치로부터 상기 새로운 지각적 위치로 변경하는 것은 상기 청취자에 대한 전경 영역 내의 전이를 포함하고, 그리고
    상기 프로세싱 엔진의 전경 각도 제어 컴포넌트의 파라미터들에 대한 새로운 값들을 결정하기 위한 수단을 더 포함하는,
    프로세싱 엔진에 대한 인터페이스를 제공하기 위한 장치.
  34. 제 28 항에 있어서,
    상기 현재의 지각적 위치로부터 상기 새로운 지각적 위치로 변경하는 것은 상기 청취자에 대한 배경 영역 내의 전이를 포함하고, 그리고
    상기 프로세싱 엔진의 배경 각도 제어 컴포넌트의 파라미터들에 대한 새로운 값들을 결정하기 위한 수단을 더 포함하는,
    프로세싱 엔진에 대한 인터페이스를 제공하기 위한 장치.
  35. 제 28 항에 있어서,
    상기 현재의 지각적 위치로부터 상기 새로운 지각적 위치로 변경하는 것은 상기 청취자에 대한 배경 영역으로부터 상기 청취자에 대한 전경 영역으로의 전이를 포함하고, 그리고
    상기 프로세싱 엔진의 전경 각도 제어 컴포넌트, 상기 프로세싱 엔진의 전경 감쇠 컴포넌트 및 상기 프로세싱 엔진의 배경 감쇠 컴포넌트의 파라미터들에 대한 새로운 값들을 결정하기 위한 수단을 더 포함하는,
    프로세싱 엔진에 대한 인터페이스를 제공하기 위한 장치.
  36. 제 28 항에 있어서,
    상기 현재의 지각적 위치로부터 상기 새로운 지각적 위치로 변경하는 것은 상기 청취자에 대한 전경 영역으로부터 상기 청취자에 대한 배경 영역으로의 전이를 포함하고, 그리고
    상기 프로세싱 엔진의 배경 각도 제어 컴포넌트, 상기 프로세싱 엔진의 배경 감쇠 컴포넌트 및 상기 프로세싱 엔진의 전경 감쇠 컴포넌트의 파라미터들에 대한 새로운 값들을 결정하기 위한 수단을 더 포함하는,
    프로세싱 엔진에 대한 인터페이스를 제공하기 위한 장치.
KR1020107014284A 2007-11-28 2008-11-26 지능형 오디오 믹싱 기술들을 이용하는 프로세싱 엔진에 대한 인터페이스를 제공하기 위한 방법들 및 장치 KR20100098665A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/946,319 2007-11-28
US11/946,319 US8515106B2 (en) 2007-11-28 2007-11-28 Methods and apparatus for providing an interface to a processing engine that utilizes intelligent audio mixing techniques

Publications (1)

Publication Number Publication Date
KR20100098665A true KR20100098665A (ko) 2010-09-08

Family

ID=40351804

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020107014284A KR20100098665A (ko) 2007-11-28 2008-11-26 지능형 오디오 믹싱 기술들을 이용하는 프로세싱 엔진에 대한 인터페이스를 제공하기 위한 방법들 및 장치

Country Status (7)

Country Link
US (1) US8515106B2 (ko)
EP (1) EP2227916A1 (ko)
JP (1) JP2011505105A (ko)
KR (1) KR20100098665A (ko)
CN (1) CN101878661A (ko)
TW (1) TW200931398A (ko)
WO (1) WO2009070699A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017057866A1 (ko) * 2015-10-01 2017-04-06 삼성전자 주식회사 오디오 출력 장치 및 오디오 출력 장치의 제어 방법

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8660280B2 (en) * 2007-11-28 2014-02-25 Qualcomm Incorporated Methods and apparatus for providing a distinct perceptual location for an audio source within an audio mixture
US20110054647A1 (en) * 2009-08-26 2011-03-03 Nokia Corporation Network service for an audio interface unit
EP3217653B1 (en) 2009-12-24 2023-12-27 Nokia Technologies Oy An apparatus
MY168735A (en) 2010-09-22 2018-11-29 Dolby Int Ab Audio stream mixing with dialog level normalization
GB201204324D0 (en) 2012-03-12 2012-04-25 Jaguar Cars Audio system
US9479886B2 (en) * 2012-07-20 2016-10-25 Qualcomm Incorporated Scalable downmix design with feedback for object-based surround codec
US9761229B2 (en) 2012-07-20 2017-09-12 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for audio object clustering
DE102013005049A1 (de) * 2013-03-22 2014-09-25 Unify Gmbh & Co. Kg Verfahren und Vorrichtung zur Steuerung einer Sprachkommunikation sowie Verwendung derselben
CN109151704B (zh) * 2017-06-15 2020-05-19 宏达国际电子股份有限公司 音讯处理方法、音频定位系统以及非暂态电脑可读取媒体
DE102017124046A1 (de) * 2017-10-16 2019-04-18 Ask Industries Gmbh Verfahren zur Durchführung eines Morphingvorgangs
CN107948402B (zh) * 2017-11-08 2021-06-15 陕西中联电科电子有限公司 一种基于安卓平台的左右声道分时控制系统

Family Cites Families (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5412731A (en) * 1982-11-08 1995-05-02 Desper Products, Inc. Automatic stereophonic manipulation system and apparatus for image enhancement
JPS61202600A (ja) 1985-03-05 1986-09-08 Nissan Motor Co Ltd 音響装置
JPH0286398A (ja) * 1988-09-22 1990-03-27 Matsushita Electric Ind Co Ltd オーディオ信号再生装置
JPH0414920A (ja) * 1990-05-09 1992-01-20 Toshiba Corp 音声信号処理回路
US5119422A (en) 1990-10-01 1992-06-02 Price David A Optimal sonic separator and multi-channel forward imaging system
US5243640A (en) 1991-09-06 1993-09-07 Ford Motor Company Integrated cellular telephone and vehicular audio system
US5199075A (en) 1991-11-14 1993-03-30 Fosgate James W Surround sound loudspeakers and processor
US5757927A (en) 1992-03-02 1998-05-26 Trifield Productions Ltd. Surround sound apparatus
JP3439485B2 (ja) 1992-04-18 2003-08-25 ヤマハ株式会社 映像連動音像定位装置
US5371799A (en) 1993-06-01 1994-12-06 Qsound Labs, Inc. Stereo headphone sound source localization system
US5463424A (en) 1993-08-03 1995-10-31 Dolby Laboratories Licensing Corporation Multi-channel transmitter/receiver system providing matrix-decoding compatible signals
US5436975A (en) 1994-02-02 1995-07-25 Qsound Ltd. Apparatus for cross fading out of the head sound locations
JP3561004B2 (ja) * 1994-07-30 2004-09-02 株式会社オーディオテクニカ 音場定位操作装置
JPH08107600A (ja) 1994-10-04 1996-04-23 Yamaha Corp 音像定位装置
JPH08154300A (ja) 1994-11-28 1996-06-11 Hitachi Ltd 音響再生装置
US5850453A (en) 1995-07-28 1998-12-15 Srs Labs, Inc. Acoustic correction apparatus
US7012630B2 (en) 1996-02-08 2006-03-14 Verizon Services Corp. Spatial sound conference system and apparatus
US5970152A (en) 1996-04-30 1999-10-19 Srs Labs, Inc. Audio enhancement system for use in a surround sound environment
US5850455A (en) 1996-06-18 1998-12-15 Extreme Audio Reality, Inc. Discrete dynamic positioning of audio signals in a 360° environment
US6421446B1 (en) 1996-09-25 2002-07-16 Qsound Labs, Inc. Apparatus for creating 3D audio imaging over headphones using binaural synthesis including elevation
US5809149A (en) 1996-09-25 1998-09-15 Qsound Labs, Inc. Apparatus for creating 3D audio imaging over headphones using binaural synthesis
JP3175622B2 (ja) 1997-03-03 2001-06-11 ヤマハ株式会社 演奏音場制御装置
US6173061B1 (en) 1997-06-23 2001-01-09 Harman International Industries, Inc. Steering of monaural sources of sound using head related transfer functions
US6011851A (en) 1997-06-23 2000-01-04 Cisco Technology, Inc. Spatial audio processing method and apparatus for context switching between telephony applications
US6067361A (en) 1997-07-16 2000-05-23 Sony Corporation Method and apparatus for two channels of sound having directional cues
AU750877C (en) 1997-09-05 2004-04-29 Lexicon, Inc. 5-2-5 matrix encoder and decoder system
EP0932325B1 (en) 1998-01-23 2005-04-27 Onkyo Corporation Apparatus and method for localizing sound image
JP3233275B2 (ja) 1998-01-23 2001-11-26 オンキヨー株式会社 音像定位処理方法及びその装置
JP2000197199A (ja) 1998-12-25 2000-07-14 Fujitsu Ten Ltd 車載用音響装置
US6983251B1 (en) 1999-02-15 2006-01-03 Sharp Kabushiki Kaisha Information selection apparatus selecting desired information from plurality of audio information by mainly using audio
US6349223B1 (en) 1999-03-08 2002-02-19 E. Lead Electronic Co., Ltd. Universal hand-free system for cellular phones in combination with vehicle's audio stereo system
CN100353734C (zh) 1999-04-19 2007-12-05 三洋电机株式会社 便携式电话机
AR024353A1 (es) 1999-06-15 2002-10-02 He Chunhong Audifono y equipo auxiliar interactivo con relacion de voz a audio remanente
US6839438B1 (en) 1999-08-31 2005-01-04 Creative Technology, Ltd Positional audio rendering
US6850496B1 (en) 2000-06-09 2005-02-01 Cisco Technology, Inc. Virtual conference room for voice conferencing
US6947728B2 (en) 2000-10-13 2005-09-20 Matsushita Electric Industrial Co., Ltd. Mobile phone with music reproduction function, music data reproduction method by mobile phone with music reproduction function, and the program thereof
US6804565B2 (en) 2001-05-07 2004-10-12 Harman International Industries, Incorporated Data-driven software architecture for digital sound processing and equalization
JP4507450B2 (ja) 2001-05-14 2010-07-21 ソニー株式会社 通話装置および方法、記録媒体、並びにプログラム
US6650496B2 (en) * 2001-05-15 2003-11-18 Phs Mems Fully integrated matrix magnetic recording head with independent control
JP4055054B2 (ja) 2002-05-15 2008-03-05 ソニー株式会社 音響処理装置
US6882971B2 (en) 2002-07-18 2005-04-19 General Instrument Corporation Method and apparatus for improving listener differentiation of talkers during a conference call
US20040078104A1 (en) 2002-10-22 2004-04-22 Hitachi, Ltd. Method and apparatus for an in-vehicle audio system
DE10339188A1 (de) 2003-08-22 2005-03-10 Suspa Holding Gmbh Gasfeder
US6937737B2 (en) 2003-10-27 2005-08-30 Britannia Investment Corporation Multi-channel audio surround sound from front located loudspeakers
US20050147261A1 (en) * 2003-12-30 2005-07-07 Chiang Yeh Head relational transfer function virtualizer
JP2006005868A (ja) 2004-06-21 2006-01-05 Denso Corp 車両用報知音出力装置及びプログラム
JP2006074572A (ja) 2004-09-03 2006-03-16 Matsushita Electric Ind Co Ltd 情報端末
EP1657961A1 (en) 2004-11-10 2006-05-17 Siemens Aktiengesellschaft A spatial audio processing method, a program product, an electronic device and a system
JP2006174198A (ja) 2004-12-17 2006-06-29 Nippon Telegr & Teleph Corp <Ntt> 音声再生端末、音声再生方法、音声再生プログラム、及び音声再生プログラムの記録媒体
JP2006254064A (ja) 2005-03-10 2006-09-21 Pioneer Electronic Corp 遠隔会議システム、音像位置割当方法および音質設定方法
US7433716B2 (en) 2005-03-10 2008-10-07 Nokia Corporation Communication apparatus
TWI313857B (en) 2005-04-12 2009-08-21 Coding Tech Ab Apparatus for generating a parameter representation of a multi-channel signal and method for representing multi-channel audio signals
US20060247918A1 (en) 2005-04-29 2006-11-02 Microsoft Corporation Systems and methods for 3D audio programming and processing
US7697947B2 (en) 2005-10-05 2010-04-13 Sony Ericsson Mobile Communications Ab Method of combining audio signals in a wireless communication device
JP2007228526A (ja) 2006-02-27 2007-09-06 Mitsubishi Electric Corp 音像定位装置
US8041057B2 (en) 2006-06-07 2011-10-18 Qualcomm Incorporated Mixing techniques for mixing audio
US8078188B2 (en) 2007-01-16 2011-12-13 Qualcomm Incorporated User selectable audio mixing
US8660280B2 (en) 2007-11-28 2014-02-25 Qualcomm Incorporated Methods and apparatus for providing a distinct perceptual location for an audio source within an audio mixture

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017057866A1 (ko) * 2015-10-01 2017-04-06 삼성전자 주식회사 오디오 출력 장치 및 오디오 출력 장치의 제어 방법

Also Published As

Publication number Publication date
US8515106B2 (en) 2013-08-20
CN101878661A (zh) 2010-11-03
EP2227916A1 (en) 2010-09-15
TW200931398A (en) 2009-07-16
JP2011505105A (ja) 2011-02-17
US20090136063A1 (en) 2009-05-28
WO2009070699A1 (en) 2009-06-04

Similar Documents

Publication Publication Date Title
KR20100098665A (ko) 지능형 오디오 믹싱 기술들을 이용하는 프로세싱 엔진에 대한 인터페이스를 제공하기 위한 방법들 및 장치
EP2227917B1 (en) Methods and apparatus for providing a distinct perceptual location for an audio source within an audio mixture
EP3011764B1 (en) Bass management for audio rendering
WO2016102752A1 (en) Audio processing based upon camera selection
EP2741523A1 (en) Object based audio rendering using visual tracking of at least one listener
US11044570B2 (en) Overlapping audio-object interactions
KR20200038162A (ko) 가상 현실에서 음향 확대 효과 적용을 위한 음향 신호 제어 방법 및 장치
KR102527336B1 (ko) 가상 공간에서 사용자의 이동에 따른 오디오 신호 재생 방법 및 장치
KR102114440B1 (ko) 일정-파워 페어와이즈 패닝을 갖는 매트릭스 디코더
US20190104375A1 (en) Level-Based Audio-Object Interactions
Tsingos et al. Surround sound with height in games using Dolby Pro Logic Iiz
US11483669B2 (en) Spatial audio parameters
Chabanne et al. Surround sound with height in games using dolby pro logic iiz
US20230090246A1 (en) Method and Apparatus for Communication Audio Handling in Immersive Audio Scene Rendering
Yao et al. Music4D: Audio Solution for Virtual Reality
RU2803638C2 (ru) Обработка пространственно диффузных или больших звуковых объектов
US20240137728A1 (en) Generating Parametric Spatial Audio Representations
WO2023240467A1 (zh) 音频播放方法、装置及存储介质
EP4358545A1 (en) Generating parametric spatial audio representations
US20230188924A1 (en) Spatial Audio Object Positional Distribution within Spatial Audio Communication Systems

Legal Events

Date Code Title Description
A201 Request for examination
E601 Decision to refuse application