KR20240006717A - 스테레오 디코딩을 위한 스테레오 파라미터들 - Google Patents

스테레오 디코딩을 위한 스테레오 파라미터들 Download PDF

Info

Publication number
KR20240006717A
KR20240006717A KR1020247000286A KR20247000286A KR20240006717A KR 20240006717 A KR20240006717 A KR 20240006717A KR 1020247000286 A KR1020247000286 A KR 1020247000286A KR 20247000286 A KR20247000286 A KR 20247000286A KR 20240006717 A KR20240006717 A KR 20240006717A
Authority
KR
South Korea
Prior art keywords
channel
quantized
frequency domain
stereo parameter
frame
Prior art date
Application number
KR1020247000286A
Other languages
English (en)
Inventor
벤카타 수브라마니암 찬드라 세카르 체비얌
벤카트라만 아티
Original Assignee
퀄컴 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 퀄컴 인코포레이티드 filed Critical 퀄컴 인코포레이티드
Publication of KR20240006717A publication Critical patent/KR20240006717A/ko

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/005Correction of errors induced by the transmission channel, if related to the coding algorithm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/032Quantisation or dequantisation of spectral components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • H04S1/007Two-channel systems in which the audio signals are in digital form
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/01Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/05Generation or adaptation of centre channel in multi-channel audio systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Stereophonic System (AREA)
  • Stereo-Broadcasting Methods (AREA)
  • Error Detection And Correction (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

장치는 수신기 및 디코더를 포함한다. 수신기는 인코딩된 중간 채널 및 인코더와 연관된 레퍼런스 채널과 인코더와 연관된 타겟 채널 간의 쉬프트를 표현하는 양자화된 값을 포함하는 비트스트림을 수신하도록 구성된다. 양자화된 값은 쉬프트의 값에 기초한다. 쉬프트의 값은 인코더와 연관되며 양자화된 값보다 큰 정밀도를 가진다. 디코더는 인코딩된 중간 채널을 디코딩하여 디코딩된 중간 채널을 생성하고 디코딩된 중간 채널에 기초하여 제 1 채널을 생성하도록 구성된다. 디코더는 추가로, 디코딩된 중간 채널 및 양자화된 값에 기초하여 제 2 채널을 생성하도록 구성된다. 제 1 채널은 레퍼런스 채널에 대응하고, 제 2 채널은 타겟 채널에 대응한다.

Description

스테레오 디코딩을 위한 스테레오 파라미터들{STEREO PARAMETERS FOR STEREO DECODING}
우선권 주장
본 출원은, "STEREO PARAMETERS FOR STEREO DECODING" 를 발명의 명칭으로 하여 2017 년 5 월 11 일자로 출원된 공동 소유의 미국 가특허출원 제 62/505,041 호, 및 "STEREO PARAMETERS FOR STEREO DECODING" 를 발명의 명칭으로 하여 2018 년 4 월 25 일자로 출원된 미국 정규 특허출원 제 15/962,834 호로부터 우선권의 이익을 주장하며, 전술한 출원들의 각각의 내용들은 전체가 참조로 본 명세서에 명확히 통합된다.
분야
본 개시는 일반적으로 오디오 신호들의 디코딩에 관한 것이다.
*기술의 진보는 더 소형이고 더 강력한 컴퓨팅 디바이스들을 발생시켰다. 예를 들어, 소형이고 경량이며 사용자들에 의해 용이하게 휴대되는 모바일 및 스마트 폰들과 같은 무선 전화기들, 태블릿들 및 랩톱 컴퓨터들을 포함하는 다양한 휴대용 개인 컴퓨팅 디바이스들이 현재 존재한다. 이들 디바이스들은 무선 네트워크들을 통해 음성 및 데이터 패킷들을 통신할 수 있다. 게다가, 많은 이러한 디바이스들은 디지털 스틸 카메라, 디지털 비디오 카메라, 디지털 레코더, 및 오디오 파일 플레이어와 같은 추가적인 기능성을 통합한다. 또한, 이러한 디바이스들은, 인터넷에 액세스하는데 사용될 수 있는 웹 브라우저 애플리케이션과 같은 소프트웨어 애플리케이션들을 포함한 실행가능 명령들을 프로세싱할 수 있다. 이로써, 이들 디바이스들은 현저한 컴퓨팅 능력들을 포함할 수 있다.
컴퓨팅 디바이스는 오디오 신호들을 수신하기 위해 다수의 마이크로폰들을 포함할 수도 있거나 또는 이들에 커플링될 수도 있다. 일반적으로, 사운드 소스는 다중 마이크로폰들 중 제 2 마이크로폰보다 제 1 마이크로폰에 더 가깝다. 이에 따라, 제 2 마이크로폰으로부터 수신된 제 2 오디오 신호는, 사운드 소스로부터의 마이크로폰들의 개별의 거리들로 인해, 제 1 마이크로폰으로부터 수신된 제 1 오디오 신호에 대해 지연될 수도 있다. 다른 구현들에서는, 제 1 오디오 신호가 제 2 오디오 신호에 대하여 지연될 수도 있다. 스테레오-인코딩에서, 마이크로폰들로부터의 오디오 신호들은 중간 (mid) 채널 신호 및 하나 이상의 사이드 (side) 채널 신호들을 생성하기 위해 인코딩될 수도 있다. 중간 채널 신호는 제 1 오디오 신호와 제 2 오디오 신호의 합에 대응할 수도 있다. 사이드 채널 신호는 제 1 오디오 신호와 제 2 오디오 신호 간의 차이에 대응할 수도 있다. 제 1 오디오 신호는 제 1 오디오 신호에 대한, 제 2 오디오 신호를 수신할 때의 지연 때문에, 제 2 오디오 신호와 정렬되지 않을 수도 있다. 지연은 디코더로 송신되는 인코딩된 쉬프트 값 (예를 들어, 스테레오 파라미터) 에 의해 표시될 수도 있다. 제 1 오디오 신호와 제 2 오디오 신호의 정확한 정렬은 디코더로의 송신을 위한 효율적인 인코딩을 가능하게 한다. 그러나, 오디오 신호들의 정렬을 표시하는 고 정밀도 데이터의 송신은 저 정밀도 데이터를 송신하는 것에 비해 증가된 송신 리소스들을 사용한다. 제 1 및 제 2 오디오 신호 간의 특성들을 표시하는 다른 스테레오 파라미터들이 또한 인코딩되고 디코더로 송신될 수도 있다.
디코더는 프레임들의 시퀀스를 포함하는 비트스트림을 통해 디코더에서 수신되는 적어도 중간 채널 신호 및 스테레오 파라미터들에 기초하여 제 1 및 제 2 오디오 신호들을 재구성할 수도 있다. 오디오 신호 재구성 동안 디코더에서의 정밀도는 인코더의 정밀도에 기초할 수도 있다. 예를 들어, 인코딩된 고 정밀도 쉬프트 값은 디코더에서 수신될 수도 있고, 디코더가 제 1 오디오 신호 및 제 2 오디오 신호의 재구성된 버전에서의 지연을 높은 정밀도로 재생하게 할 수도 있다. 비트스트림을 통해 송신된 데이터의 프레임이 잡음이 있는 송신 조건들로 인해 손상되는 경우와 같이 디코더에서 쉬프트 값이 사용불가능한 경우에, 오디오 신호들 간의 지연의 정확한 재생을 가능하게 하기 위해, 쉬프트 값이 요청되고 디코더로 재송신될 수도 있다. 예를 들어, 지연을 재생함에 있어서 디코더의 정밀도는 지연의 변화를 인지하기 위한 인간의 가청 인지 한계를 초과할 수도 있다.
본 개시의 일 구현에 따르면, 장치는 비트스트림의 적어도 부분을 수신하도록 구성된 수신기를 포함한다. 비트스트림은 제 1 프레임 및 제 2 프레임을 포함한다. 제 1 프레임은 중간 채널의 제 1 부분 및 스테레오 파라미터의 제 1 값을 포함하고, 제 2 프레임은 중간 채널의 제 2 부분 및 스테레오 파라미터의 제 2 값을 포함한다. 장치는 또한 디코딩된 중간 채널의 제 1 부분을 생성하기 위해 중간 채널의 제 1 부분을 디코딩하도록 구성된 디코더를 포함한다. 디코더는 또한 디코딩된 중간 채널의 제 1 부분 및 스테레오 파라미터의 제 1 값에 적어도 기초하여 좌측 채널의 제 1 부분을 생성하고, 디코딩된 중간 채널의 제 1 부분 및 스테레오 파라미터의 제 1 값에 적어도 기초하여 우측 채널의 제 1 부분을 생성하도록 구성된다. 디코더는 추가로, 제 2 프레임이 디코딩 동작들에 사용불가능한 것에 응답하여, 스테레오 파라미터의 제 1 값에 적어도 기초하여 좌측 채널의 제 2 부분 및 우측 채널의 제 2 부분을 생성하도록 구성된다. 좌측 채널의 제 2 부분 및 우측 채널의 제 2 부분은 제 2 프레임의 디코딩된 버전에 대응한다.
다른 구현에 따르면, 신호를 디코딩하는 방법은 비트스트림의 적어도 부분을 수신하는 단계를 포함한다. 비트스트림은 제 1 프레임 및 제 2 프레임을 포함한다. 제 1 프레임은 중간 채널의 제 1 부분 및 스테레오 파라미터의 제 1 값을 포함하고, 제 2 프레임은 중간 채널의 제 2 부분 및 스테레오 파라미터의 제 2 값을 포함한다. 방법은 또한 디코딩된 중간 채널의 제 1 부분을 생성하기 위해 중간 채널의 제 1 부분을 디코딩하는 단계를 포함한다. 상기 방법은 추가로, 디코딩된 중간 채널의 제 1 부분 및 스테레오 파라미터의 제 1 값에 적어도 기초하여 좌측 채널의 제 1 부분을 생성하는 단계, 및 디코딩된 중간 채널의 제 1 부분 및 스테레오 파라미터의 제 1 값에 적어도 기초하여 우측 채널의 제 1 부분을 생성하는 단계를 포함한다. 상기 방법은 또한, 제 2 프레임이 디코딩 동작들에 사용불가능한 것에 응답하여, 스테레오 파라미터의 제 1 값에 적어도 기초하여 좌측 채널의 제 2 부분 및 우측 채널의 제 2 부분을 생성하는 단계를 포함한다. 좌측 채널의 제 2 부분 및 우측 채널의 제 2 부분은 제 2 프레임의 디코딩된 버전에 대응한다.
또 다른 구현에 따라, 비일시적 컴퓨터 판독가능 매체는, 디코더 내의 프로세서에 의해 실행될 경우, 프로세서로 하여금 비트스트림의 적어도 부분을 수신하는 것을 포함하는 동작들을 수행하게 하는 명령들을 포함한다. 비트스트림은 제 1 프레임 및 제 2 프레임을 포함한다. 제 1 프레임은 중간 채널의 제 1 부분 및 스테레오 파라미터의 제 1 값을 포함하고, 제 2 프레임은 중간 채널의 제 2 부분 및 스테레오 파라미터의 제 2 값을 포함한다. 동작들은 또한 디코딩된 중간 채널의 제 1 부분을 생성하기 위해 중간 채널의 제 1 부분을 디코딩하는 것을 포함한다. 상기 동작들은 추가로, 디코딩된 중간 채널의 제 1 부분 및 스테레오 파라미터의 제 1 값에 적어도 기초하여 좌측 채널의 제 1 부분을 생성하는 것, 및 디코딩된 중간 채널의 제 1 부분 및 스테레오 파라미터의 제 1 값에 적어도 기초하여 우측 채널의 제 1 부분을 생성하는 것을 포함한다. 상기 동작들은 또한, 제 2 프레임이 디코딩 동작들에 사용불가능한 것에 응답하여, 스테레오 파라미터의 제 1 값에 적어도 기초하여 좌측 채널의 제 2 부분 및 우측 채널의 제 2 부분을 생성하는 것을 포함한다. 좌측 채널의 제 2 부분 및 우측 채널의 제 2 부분은 제 2 프레임의 디코딩된 버전에 대응한다.
또 다른 구현에 따르면, 장치는 비트스트림의 적어도 부분을 수신하는 수단을 포함한다. 비트스트림은 제 1 프레임 및 제 2 프레임을 포함한다. 제 1 프레임은 중간 채널의 제 1 부분 및 스테레오 파라미터의 제 1 값을 포함하고, 제 2 프레임은 중간 채널의 제 2 부분 및 스테레오 파라미터의 제 2 값을 포함한다. 장치는 또한 디코딩된 중간 채널의 제 1 부분을 생성하기 위해 중간 채널의 제 1 부분을 디코딩하는 수단을 포함한다. 상기 장치는 추가로, 디코딩된 중간 채널의 제 1 부분 및 스테레오 파라미터의 제 1 값에 적어도 기초하여 좌측 채널의 제 1 부분을 생성하는 수단, 및 디코딩된 중간 채널의 제 1 부분 및 스테레오 파라미터의 제 1 값에 적어도 기초하여 우측 채널의 제 1 부분을 생성하는 수단을 포함한다. 상기 장치는 또한, 제 2 프레임이 디코딩 동작들에 사용불가능한 것에 응답하여, 스테레오 파라미터의 제 1 값에 적어도 기초하여 좌측 채널의 제 2 부분 및 우측 채널의 제 2 부분을 생성하는 수단을 포함한다. 좌측 채널의 제 2 부분 및 우측 채널의 제 2 부분은 제 2 프레임의 디코딩된 버전에 대응한다.
또 다른 구현에 따르면, 장치는 인코더로부터 비트스트림의 적어도 부분을 수신하도록 구성된 수신기를 포함한다. 비트스트림은 제 1 프레임 및 제 2 프레임을 포함한다. 제 1 프레임은 중간 채널의 제 1 부분 및 스테레오 파라미터의 제 1 값을 포함한다. 제 2 프레임은 중간 채널의 제 2 부분 및 스테레오 파라미터의 제 2 값을 포함한다. 장치는 또한 디코딩된 중간 채널의 제 1 부분을 생성하기 위해 중간 채널의 제 1 부분을 디코딩하도록 구성된 디코더를 포함한다. 디코더는 또한, 디코딩된 중간 채널의 제 1 부분에 변환 동작을 수행하여 디코딩된 주파수 도메인 중간 채널의 제 1 부분을 생성하도록 구성된다. 디코더는 추가로, 디코딩된 주파수 도메인 중간 채널의 제 1 부분을 업믹싱하여 좌측 주파수 도메인 채널의 제 1 부분 및 우측 주파수 도메인 채널의 제 1 부분을 생성하도록 구성된다. 디코더는 또한, 좌측 주파수 도메인 채널의 제 1 부분 및 스테레오 파라미터의 제 1 값에 적어도 기초하여 좌측 채널의 제 1 부분을 생성하도록 구성된다. 디코더는 추가로, 우측 주파수 도메인 채널의 제 1 부분 및 스테레오 파라미터의 제 1 값에 적어도 기초하여 우측 채널의 제 1 부분을 생성하도록 구성된다. 디코더는 또한, 제 2 프레임이 디코딩 동작들에 사용불가능하다고 결정하도록 구성된다. 디코더는 추가로, 스테레오 파라미터의 제 1 값에 적어도 기초하여, 제 2 프레임이 사용불가능하다고 결정하는 것에 응답하여 좌측 채널의 제 2 부분 및 우측 채널의 제 2 부분을 생성하도록 구성된다. 좌측 채널의 제 2 부분 및 우측 채널의 제 2 부분은 제 2 프레임의 디코딩된 버전에 대응한다.
다른 구현에 따르면, 신호를 디코딩하는 방법은 디코더에서, 인코더로부터 비트스트림의 적어도 부분을 수신하는 단계를 포함한다. 비트스트림은 제 1 프레임 및 제 2 프레임을 포함한다. 제 1 프레임은 중간 채널의 제 1 부분 및 스테레오 파라미터의 제 1 값을 포함한다. 제 2 프레임은 중간 채널의 제 2 부분 및 스테레오 파라미터의 제 2 값을 포함한다. 방법은 또한, 디코딩된 중간 채널의 제 1 부분을 생성하기 위해 중간 채널의 제 1 부분을 디코딩하는 단계를 포함한다. 방법은 추가로, 디코딩된 중간 채널의 제 1 부분에 변환 동작을 수행하여 디코딩된 주파수 도메인 중간 채널의 제 1 부분을 생성하는 단계를 포함한다. 방법은 또한, 디코딩된 주파수 도메인 중간 채널의 제 1 부분을 업믹싱하여 좌측 주파수 도메인 채널의 제 1 부분 및 우측 주파수 도메인 채널의 제 1 부분을 생성하는 단계를 포함한다. 방법은 추가로, 좌측 주파수 도메인 채널의 제 1 부분 및 스테레오 파라미터의 제 1 값에 적어도 기초하여 좌측 채널의 제 1 부분을 생성하는 단계를 포함한다. 방법은 추가로, 우측 주파수 도메인 채널의 제 1 부분 및 스테레오 파라미터의 제 1 값에 적어도 기초하여 우측 채널의 제 1 부분을 생성하는 단계를 포함한다. 방법은 또한, 제 2 프레임이 디코딩 동작들에 사용불가능하다고 결정하는 단계를 포함한다. 방법은 추가로, 스테레오 파라미터의 제 1 값에 적어도 기초하여, 제 2 프레임이 사용불가능하다고 결정하는 것에 응답하여 좌측 채널의 제 2 부분 및 우측 채널의 제 2 부분을 생성하는 단계를 포함한다. 좌측 채널의 제 2 부분 및 우측 채널의 제 2 부분은 제 2 프레임의 디코딩된 버전에 대응한다.
또 다른 구현에 따라, 비일시적 컴퓨터 판독가능 매체는, 디코더 내의 프로세서에 의해 실행될 경우, 프로세서로 하여금 인코더로부터 비트스트림의 적어도 부분을 수신하는 것을 포함하는 동작들을 수행하게 하는 명령들을 포함한다. 비트스트림은 제 1 프레임 및 제 2 프레임을 포함한다. 제 1 프레임은 중간 채널의 제 1 부분 및 스테레오 파라미터의 제 1 값을 포함한다. 제 2 프레임은 중간 채널의 제 2 부분 및 스테레오 파라미터의 제 2 값을 포함한다. 동작들은 또한 디코딩된 중간 채널의 제 1 부분을 생성하기 위해 중간 채널의 제 1 부분을 디코딩하는 것을 포함한다. 동작들은 추가로, 디코딩된 중간 채널의 제 1 부분에 변환 동작을 수행하여 디코딩된 주파수 도메인 중간 채널의 제 1 부분을 생성하는 것을 포함한다. 동작들은 또한, 디코딩된 주파수 도메인 중간 채널의 제 1 부분을 업믹싱하여 좌측 주파수 도메인 채널의 제 1 부분 및 우측 주파수 도메인 채널의 제 1 부분을 생성하는 것을 포함한다. 동작들은 추가로, 좌측 주파수 도메인 채널의 제 1 부분 및 스테레오 파라미터의 제 1 값에 적어도 기초하여 좌측 채널의 제 1 부분을 생성하는 것을 포함한다. 동작들은 추가로, 우측 주파수 도메인 채널의 제 1 부분 및 스테레오 파라미터의 제 1 값에 적어도 기초하여 우측 채널의 제 1 부분을 생성하는 것을 포함한다. 동작들은 또한, 제 2 프레임이 디코딩 동작들에 사용불가능하다고 결정하는 것을 포함한다. 동작들은 추가로, 스테레오 파라미터의 제 1 값에 적어도 기초하여, 제 2 프레임이 사용불가능하다고 결정하는 것에 응답하여 좌측 채널의 제 2 부분 및 우측 채널의 제 2 부분을 생성하는 것을 포함한다. 좌측 채널의 제 2 부분 및 우측 채널의 제 2 부분은 제 2 프레임의 디코딩된 버전에 대응한다.
또 다른 구현에 따르면, 장치는 인코더로부터 비트스트림의 적어도 부분을 수신하는 수단을 포함한다. 비트스트림은 제 1 프레임 및 제 2 프레임을 포함한다. 제 1 프레임은 중간 채널의 제 1 부분 및 스테레오 파라미터의 제 1 값을 포함한다. 제 2 프레임은 중간 채널의 제 2 부분 및 스테레오 파라미터의 제 2 값을 포함한다. 장치는 또한 디코딩된 중간 채널의 제 1 부분을 생성하기 위해 중간 채널의 제 1 부분을 디코딩하는 수단을 포함한다. 장치는 또한, 디코딩된 중간 채널의 제 1 부분에 변환 동작을 수행하여 디코딩된 주파수 도메인 중간 채널의 제 1 부분을 생성하는 수단을 포함한다. 장치는 또한, 디코딩된 주파수 도메인 중간 채널의 제 1 부분을 업믹싱하여 좌측 주파수 도메인 채널의 제 1 부분 및 우측 주파수 도메인 채널의 제 1 부분을 생성하는 수단을 포함한다. 장치는 또한, 좌측 주파수 도메인 채널의 제 1 부분 및 스테레오 파라미터의 제 1 값에 적어도 기초하여 좌측 채널의 제 1 부분을 생성하는 수단을 포함한다. 장치는 또한, 우측 주파수 도메인 채널의 제 1 부분 및 스테레오 파라미터의 제 1 값에 적어도 기초하여 우측 채널의 제 1 부분을 생성하는 수단을 포함한다. 장치는 또한, 제 2 프레임이 디코딩 동작들에 사용불가능하다고 결정하는 수단을 포함한다. 장치는 또한, 스테레오 파라미터의 제 1 값에 적어도 기초하여, 제 2 프레임이 사용불가능하다고 결정하는 것에 응답하여 좌측 채널의 제 2 부분 및 우측 채널의 제 2 부분을 생성하는 수단을 포함한다. 좌측 채널의 제 2 부분 및 우측 채널의 제 2 부분은 제 2 프레임의 디코딩된 버전에 대응한다.
또 다른 구현에 따르면, 장치는 수신기 및 디코더를 포함한다. 수신기는 인코딩된 중간 채널 및 인코더와 연관된 레퍼런스 채널과 인코더와 연관된 타겟 채널 간의 쉬프트를 표현하는 양자화된 값을 포함하는 비트스트림을 수신하도록 구성된다. 양자화된 값은 쉬프트의 값에 기초한다. 쉬프트의 값은 인코더와 연관되며 양자화된 값보다 정밀도가 크다. 디코더는 인코딩된 중간 채널을 디코딩하여 디코딩된 중간 채널을 생성하고 디코딩된 중간 채널에 기초하여 제 1 채널을 생성하도록 구성된다. 디코더는 추가로, 디코딩된 중간 채널 및 양자화된 값에 기초하여 제 2 채널을 생성하도록 구성된다. 제 1 채널은 레퍼런스 채널에 대응하고, 제 2 채널은 타겟 채널에 대응한다.
또 다른 구현에 따르면, 신호를 디코딩하는 방법은 디코더에서, 중간 채널 및 인코더와 연관된 레퍼런스 채널과 인코더와 연관된 타겟 채널 간의 쉬프트를 표현하는 양자화된 값을 포함하는 비트스트림을 수신하는 단계를 포함한다. 양자화된 값은 쉬프트의 값에 기초한다. 그 값은 인코더와 연관되며 양자화된 값보다 정밀도가 크다. 방법은 또한, 중간 채널을 디코딩하여 디코딩된 중간채널을 생성하는 단계를 포함한다. 방법은 추가로, 디코딩된 중간 채널에 기초하여 제 1 채널을 생성하는 단계 및 디코딩된 중간 채널 및 양자화된 값에 기초하여 제 2 채널을 생성하는 단계를 포함한다. 제 1 채널은 레퍼런스 채널에 대응하고, 제 2 채널은 타겟 채널에 대응한다.
또 다른 구현에 따르면, 비일시적 컴퓨터 판독가능 매체는 디코더 내의 프로세서에 의해 실행될 때, 프로세서로 하여금, 동작들을 수행하게 하는 명령들을 포함하며, 동작들은 디코더에서, 중간 채널 및 인코더와 연관된 레퍼런스 채널과 인코더와 연관된 타겟 채널 간의 쉬프트를 표현하는 양자화된 값을 포함하는 비트스트림을 수신하는 것을 포함한다. 양자화된 값은 쉬프트의 값에 기초한다. 그 값은 인코더와 연관되며 양자화된 값보다 정밀도가 크다. 동작들은 또한, 중간 채널을 디코딩하여 디코딩된 중간채널을 생성하는 것을 포함한다. 동작들은 추가로, 디코딩된 중간 채널에 기초하여 제 1 채널을 생성하는 단계 및 디코딩된 중간 채널 및 양자화된 값에 기초하여 제 2 채널을 생성하는 것을 포함한다. 제 1 채널은 레퍼런스 채널에 대응하고, 제 2 채널은 타겟 채널에 대응한다.
또 다른 구현에 따르면, 장치는 디코더에서, 중간 채널 및 인코더와 연관된 레퍼런스 채널과 인코더와 연관된 타겟 채널 간의 쉬프트를 표현하는 양자화된 값을 포함하는 비트스트림을 수신하는 수단을 포함한다. 양자화된 값은 쉬프트의 값에 기초한다. 그 값은 인코더와 연관되며 양자화된 값보다 정밀도가 크다. 장치는 또한, 중간 채널을 디코딩하여 디코딩된 중간 채널을 생성하는 수단을 포함한다. 장치는 추가로, 디코딩된 중간 채널에 기초하여 제 1 채널을 생성하는 수단 및 디코딩된 중간 채널 및 양자화된 값에 기초하여 제 2 채널을 생성하는 수단을 포함한다. 제 1 채널은 레퍼런스 채널에 대응하고, 제 2 채널은 타겟 채널에 대응한다.
또 다른 구현에 따르면, 장치는 인코더로부터 비트스트림을 수신하도록 구성된 수신기를 포함한다. 비트스트림은 중간 채널 및 인코더와 연관된 레퍼런스 채널과 인코더와 연관된 타겟 채널 간의 쉬프트를 표현하는 양자화된 값을 포함한다. 양자화된 값은 양자화된 값보다 큰 정밀도를 가지는 쉬프트의 값에 기초한다. 장치는 또한, 중간 채널을 디코딩하여 디코딩된 중간 채널을 생성하도록 구성된 디코더를 포함한다. 디코더는 또한, 디코딩된 중간 채널에 변환 동작을 수행하여 디코딩된 주파수 도메인 중간 채널을 생성하도록 구성된다. 디코더는 추가로, 디코딩된 주파수 도메인 중간 채널을 업믹싱하여 제 1 주파수 도메인 채널 및 제 2 주파수 도메인 채널을 생성하도록 구성된다. 디코더는 또한, 제 1 주파수 도메인 채널에 기초하여 제 1 채널을 생성하도록 구성된다. 제 1 채널은 레퍼런스 채널에 대응한다. 디코더는 추가로, 제 2 주파수 도메인 채널에 기초하여 제 2 채널을 생성하도록 구성된다. 제 2 채널은 타겟 채널에 대응한다. 양자화된 값이 주파수 도메인 쉬프트에 대응하는 경우, 제 2 주파수 도메인 채널은 주파수 도메인에서 양자화된 값만큼 쉬프트되고, 양자화된 값이 시간 도메인 쉬프트에 대응하는 경우, 제 2 주파수 도메인 채널의 시간 도메인 버전은 양자화된 값만큼 쉬프트된다.
또 다른 구현에 따르면, 방법은 디코더에서, 인코더로부터 비트스트림을 수신하는 단계를 포함한다. 비트스트림은 중간 채널 및 인코더와 연관된 레퍼런스 채널과 인코더와 연관된 타겟 채널 간의 쉬프트를 표현하는 양자화된 값을 포함한다. 양자화된 값은 양자화된 값보다 큰 정밀도를 가지는 쉬프트의 값에 기초한다. 방법은 또한, 중간 채널을 디코딩하여 디코딩된 중간채널을 생성하는 단계를 포함한다. 방법은 추가로, 디코딩된 중간 채널에 변환 동작을 수행하여 디코딩된 주파수 도메인 중간 채널을 생성하는 것을 포함한다. 방법은 또한, 디코딩된 주파수 도메인 중간 채널을 업믹싱하여 제 1 주파수 도메인 채널 및 제 2 주파수 도메인 채널을 생성하는 단계를 포함한다. 방법은 또한, 제 1 주파수 도메인 채널에 기초하여 제 1 채널을 생성하는 단계를 포함한다. 제 1 채널은 레퍼런스 채널에 대응한다. 방법은 추가로, 제 2 주파수 도메인 채널에 기초하여 제 2 채널을 생성하는 단계를 포함한다. 제 2 채널은 타겟 채널에 대응한다. 양자화된 값이 주파수 도메인 쉬프트에 대응하는 경우, 제 2 주파수 도메인 채널은 주파수 도메인에서 양자화된 값만큼 쉬프트되고, 양자화된 값이 시간 도메인 쉬프트에 대응하는 경우, 제 2 주파수 도메인 채널의 시간 도메인 버전은 양자화된 값만큼 쉬프트된다.
다른 구현에 따르면, 비-일시적 컴퓨터 판독가능 매체는 신호를 디코딩하기 위한 명령들을 포함한다. 명령들은 디코더 내의 프로세서에 의해 실행될 경우, 프로세서로 하여금 인코더로부터 비트스트림을 수신하는 것을 포함하는 동작들을 수행하게 한다. 비트스트림은 중간 채널 및 인코더와 연관된 레퍼런스 채널과 인코더와 연관된 타겟 채널 간의 쉬프트를 표현하는 양자화된 값을 포함한다. 양자화된 값은 양자화된 값보다 큰 정밀도를 가지는 쉬프트의 값에 기초한다. 동작들은 또한, 중간 채널을 디코딩하여 디코딩된 중간채널을 생성하는 것을 포함한다. 동작들은 추가로, 디코딩된 중간 채널에 변환 동작을 수행하여 디코딩된 주파수 도메인 중간 채널을 생성하는 것을 포함한다. 동작들은 또한, 디코딩된 주파수 도메인 중간 채널을 업믹싱하여 제 1 주파수 도메인 채널 및 제 2 주파수 도메인 채널을 생성하는 것을 포함한다. 동작들은 또한, 제 1 주파수 도메인 채널에 기초하여 제 1 채널을 생성하는 것을 포함한다. 제 1 채널은 레퍼런스 채널에 대응한다. 동작들은 추가로, 제 2 주파수 도메인 채널에 기초하여 제 2 채널을 생성하는 것을 포함한다. 제 2 채널은 타겟 채널에 대응한다. 양자화된 값이 주파수 도메인 쉬프트에 대응하는 경우, 제 2 주파수 도메인 채널은 주파수 도메인에서 양자화된 값만큼 쉬프트되고, 양자화된 값이 시간 도메인 쉬프트에 대응하는 경우, 제 2 주파수 도메인 채널의 시간 도메인 버전은 양자화된 값만큼 쉬프트된다.
또 다른 구현에 따르면, 장치는 인코더로부터 비트스트림을 수신하는 수단을 포함한다. 비트스트림은 중간 채널 및 인코더와 연관된 레퍼런스 채널과 인코더와 연관된 타겟 채널 간의 쉬프트를 표현하는 양자화된 값을 포함한다. 양자화된 값은 양자화된 값보다 큰 정밀도를 가지는 쉬프트의 값에 기초한다. 장치는 또한, 중간 채널을 디코딩하여 디코딩된 중간 채널을 생성하는 수단을 포함한다. 장치는 또한, 디코딩된 주파수 도메인 중간 채널을 생성하기 위해 디코딩된 중간 채널에 대해 변환 동작을 수행하는 수단을 포함한다. 장치는 또한, 디코딩된 주파수 도메인 중간 채널을 업믹싱하여 제 1 주파수 도메인 채널 및 제 2 주파수 도메인 채널을 생성하는 수단을 포함한다. 장치는 또한, 제 1 주파수 도메인 채널에 기초하여 제 1 채널을 생성하는 수단을 포함한다. 제 1 채널은 레퍼런스 채널에 대응한다. 장치는 또한, 제 2 주파수 도메인 채널에 기초하여 제 2 채널을 생성하는 수단을 포함한다. 제 2 채널은 타겟 채널에 대응한다. 양자화된 값이 주파수 도메인 쉬프트에 대응하는 경우, 제 2 주파수 도메인 채널은 주파수 도메인에서 양자화된 값만큼 쉬프트되고, 양자화된 값이 시간 도메인 쉬프트에 대응하는 경우, 제 2 주파수 도메인 채널의 시간 도메인 버전은 양자화된 값만큼 쉬프트된다.
본 개시의 다른 구현들, 이점들, 및 특징들은 다음의 섹션들: 즉, 도면의 간단한 설명, 상세한 설명, 및 청구항들을 포함하여 전체 출원의 검토 후 자명하게 될 것이다.
도 1 은 손실된 프레임들에 대한 스테레오 파라미터를 추정하고 양자화된 스테레오 파라미터를 사용하여 오디오 신호를 디코딩하도록 동작가능한 디코더를 포함하는, 시스템의 특정 예시적인 예의 블록 다이어그램이다.
도 2 는 도 1 의 디코더를 예시한 다이어그램이다.
도 3 은 디코더에서 손실된 프레임에 대한 스테레오 파라미터를 예측하는 예시적인 예의 다이어그램이다.
도 4a 는 오디오 신호를 디코딩하는 방법의 비제한적인 예시적인 예이다.
도 4b 는 도 4a 의 오디오 신호를 디코딩하는 방법의 더 상세한 버전의 비제한적인 예시적인 예이다.
도 5a 는 오디오 신호를 디코딩하는 방법의 다른 비제한적인 예시적인 예이다.
도 5b 는 도 5a 의 오디오 신호를 디코딩하는 방법의 더 상세한 버전의 비제한적인 예시적인 예이다.
도 6 은 손실된 프레임들에 대한 스테레오 파라미터를 추정하고 양자화된 스테레오 파라미터를 사용하여 오디오 신호를 디코딩하기 위한 디코더를 포함하는, 디바이스의 특정 예시적인 예의 블록 다이어그램이다.
도 7 은 손실된 프레임들에 대한 스테레오 파라미터를 추정하고 양자화된 스테레오 파라미터를 사용하여 오디오 신호를 디코딩하도록 동작가능한, 기지국의 블록 다이어그램이다.
본 개시의 특정 양태들은 도면들을 참조하여 이하에 설명된다. 설명에서, 공통 피처들은 공통 참조 번호들로 지정된다. 본 명세서에서 사용된 바와 같이, 다양한 용어가 단지 특정 구현들을 설명할 목적으로 사용되고 구현들을 한정하는 것으로 의도되지 않는다. 예를 들어, 단수 형태들 "a", "an", 및 "the" 는, 문맥이 분명히 달리 표시하지 않는 한, 복수 형태들을 물론 포함하도록 의도된다. 용어들 "포함한다 (comprises)" 및 "포함하는 (comprising)" 은 "포함한다 (includes)" 또는 "포함하는 (including)" 과 상호교환가능하게 사용될 수도 있는 것으로 추가로 이해될 수도 있다. 추가적으로, 용어 "여기서 (wherein)" 는 "여기에서 (where)" 와 상호교환가능하게 사용될 수도 있는 것으로 이해될 것이다. 본 명세서에 사용된 바와 같이, 구조, 컴포넌트, 동작 등과 같은 엘리먼트를 수정하는데 사용되는 서수 용어 (예를 들어, "제 1", "제 2", "제 3" 등) 는 그것만으로 그 엘리먼트의 다른 엘리먼트에 대한 어떤 우선순위 또는 순서도 표시하지 않고, 오히려 그 엘리먼트를 (서수 용어의 사용이 없다면) 동일 명칭을 갖는 다른 엘리먼트와 구별할 뿐이다. 본 명세서에서 사용된 바와 같이, 용어 "세트 (set)" 는 특정 엘리먼트의 하나 이상을 지칭하고, 용어 "복수" 는 특정 엘리먼트의 배수 (예를 들어, 2 개 이상) 를 지칭한다.
본 개시에서, "결정하는 것", "계산하는 것", "쉬프트하는 것", "조정하는 것" 등과 같은 용어들은 하나 이상의 동작들이 어떻게 수행되는지를 설명하는데 사용될 수도 있다. 이러한 용어들은 한정하는 것으로서 해석되지 않아야 하고 다른 기법들이 유사한 동작들을 수행하는데 활용될 수도 있음에 유의해야 한다. 추가적으로, 본 명세서에서 언급된 바와 같이, "생성하는 것", "계산하는 것", "사용하는 것", "선택하는 것", "액세스하는 것", 및 "결정하는 것" 은 상호교환가능하게 사용될 수도 있다. 예를 들어, 파라미터 (또는 신호) 를 "생성하는 것", "계산하는 것", 또는 "결정하는 것" 은 파라미터 (또는 신호) 를 능동으로 생성하는 것, 계산하는 것, 또는 결정하는 것을 지칭할 수도 있거나 또는 다른 컴포넌트 또는 디바이스에 의해서와 같이, 이미 생성되는 파라미터 (또는 신호) 를 사용하는 것, 선택하는 것, 또는 액세스하는 것을 지칭할 수도 있다.
다중 오디오 신호들을 인코딩하도록 동작가능한 시스템들 및 디바이스들이 개시된다. 디바이스는 다중 오디오 신호들을 인코딩하도록 구성된 인코더를 포함할 수도 있다. 다중 오디오 신호들은 다중 레코딩 디바이스들, 예를 들어 다중 마이크로폰들을 사용하여 시간에 있어서 동시발생적으로 캡처될 수도 있다. 일부 예들에서, 다중 오디오 신호들 (또는 멀티-채널 오디오) 은 동시에 또는 상이한 시간들에 레코딩되는 여러 오디오 채널들을 멀티플렉싱함으로써 합성적으로 (예를 들어, 인공적으로) 생성될 수도 있다. 예시적인 예들로서, 오디오 채널들의 동시발생적인 레코딩 또는 멀티플렉싱은 2채널 구성 (즉, 스테레오: 좌측 및 우측), 5.1 채널 구성 (좌측, 우측, 중앙, 좌측 서라운드, 우측 서라운드, 및 저주파수 엠퍼시스 (LFE) 채널들), 7.1 채널 구성, 7.1+4 채널 구성, 22.2 채널 구성, 또는 N채널 구성을 발생시킬 수도 있다.
텔레컨퍼런스 룸들 (또는 텔레프레즌스 룸들) 에서의 오디오 캡처 디바이스들은, 공간 오디오를 포착하는 다중의 마이크로폰들을 포함할 수도 있다. 공간 오디오는, 인코딩되고 송신되는 백그라운드 오디오뿐 아니라 스피치를 포함할 수도 있다. 주어진 소스 (예컨대, 화자) 로부터의 스피치/오디오는, 마이크로폰들이 어떻게 배열되는지 뿐 아니라 소스 (예컨대, 화자) 가 마이크로폰들 및 룸 치수들에 관하여 어디에 위치되는지에 의존하여, 상이한 시간들에서 다중의 마이크로폰들에서 도달할 수도 있다. 예를 들어, 사운드 소스 (예컨대, 화자) 는 디바이스와 연관된 제 2 마이크로폰보다 디바이스와 연관된 제 1 마이크로폰에 더 가까울 수도 있다. 따라서, 사운드 소스로부터 방출된 사운드는 제 2 마이크로폰보다 시간에 있어서 더 이르게 제 1 마이크로폰에 도달할 수도 있다. 디바이스는 제 1 마이크로폰을 통해 제 1 오디오 신호를 수신할 수도 있고 제 2 마이크로폰을 통해 제 2 오디오 신호를 수신할 수도 있다.
중간-사이드 (MS) 코딩 및 파라메트릭 스테레오 (PS) 코딩은, 듀얼-모노 코딩 기법들에 비해 개선된 효율을 제공할 수도 있는 스테레오 코딩 기법들이다. 듀얼-모노 코딩에 있어서, 좌측 (L) 채널 (또는 신호) 및 우측 (R) 채널 (또는 신호) 은 채널간 상관을 이용하는 일없이 독립적으로 코딩된다. MS 코딩은, 좌측 채널 및 우측 채널을 코딩 전에 합산 채널 및 차이 채널 (예컨대, 사이드 채널) 로 변환함으로써 상관된 L/R 채널 쌍 간의 리던던시를 감소시킨다. 합산 신호 및 차이 신호는 파형 코딩되거나 또는 MS 코딩에서의 모델에 기초하여 코딩된다. 상대적으로 더 많은 비트들이 사이드 신호보다 합산 신호에서 소비된다. PS 코딩은 L/R 신호들을 합산 신호 및 사이드 파라미터들의 세트로 변환함으로써 각각의 서브대역에서의 리던던시를 감소시킨다. 사이드 파라미터들은 채널간 세기 차이 (IID), 채널간 위상 차이 (IPD), 채널간 시간 차이 (ITD), 사이드 또는 잔차 예측 이득들 등을 표시할 수도 있다. 합 신호는 파형 코딩되고 사이드 파라미터들과 함께 송신된다. 하이브리드 시스템에서, 사이드-채널은 하위 대역들 (예를 들어, 2 킬로헤르쯔 (kHz) 미만) 에서 파형 코딩되고 상위 대역들 (예를 들어, 2 kHz 이상) 에서 PS 코딩될 수도 있으며, 여기에서, 채널간 위상 보존은 지각적으로 덜 중요하다. 일부 구현들에서, PS 코딩이 하위 대역들에서 또한 사용되어, 파형 코딩 전에 채널간 리던던시를 감소시킬 수도 있다.
MS 코딩 및 PS 코딩은 주파수 도메인 또는 서브 대역 도메인 중 어느 하나에서 또한 시간 도메인에서 행해질 수도 있다. 일부 예들에서, 좌측 채널 및 우측 채널은 상관되지 않을 수도 있다. 예를 들어, 좌측 채널 및 우측 채널은 상관되지 않은 합성 신호들을 포함할 수도 있다. 좌측 채널 및 우측 채널이 상관되지 않을 때, MS 코딩, PS 코딩, 또는 양자 모두의 코딩 효율은 듀얼-모노 코딩의 코딩 효율에 근접할 수도 있다.
레코딩 구성에 의존하여, 좌측 채널과 우측 채널 간의 시간 쉬프트 뿐 아니라 에코 및 룸 잔향과 같은 다른 공간 효과들이 존재할 수도 있다. 채널들 간의 시간 쉬프트 및 위상 불일치가 보상되지 않으면, 합 채널 및 차이 채널은 MS 또는 PS 기법들과 연관된 코딩-이득들을 감소시키는 비교할만한 에너지들을 포함할 수도 있다. 코딩-이득들에서의 감소는 시간 (또는 위상) 쉬프트의 양에 기초할 수도 있다. 합산 신호와 차이 신호의 비슷한 에너지들은, 채널들이 시간적으로 쉬프팅되지만 고도로 상관되는 특정 프레임들에서 MS 코딩의 이용을 제한할 수도 있다. 스테레오 코딩에 있어서, 중간 채널 (예컨대, 합산 채널) 및 사이드 채널 (예컨대, 차이 채널) 은 다음의 식에 기초하여 생성될 수도 있다:
식 1
여기에서, M 은 중간 채널에 대응하고, S 는 사이드 채널에 대응하고, L 은 좌측 채널에 대응하고, R 은 우측 채널에 대응한다.
일부 경우들에서, 중간 채널 및 사이드 채널은 다음의 식에 기초하여 생성될 수도 있다:
식 2
여기에서, c 는 주파수 의존형인 복소 값에 대응한다. 식 1 또는 식 2 에 기초하여 중간 채널 및 사이드 채널을 생성하는 것은 "다운믹싱 (downmixing)" 으로 지칭될 수도 있다. 식 1 또는 식 2 에 기초하여 중간 채널 및 사이드 채널로부터 좌측 채널 및 우측 채널을 생성하는 역 프로세스는 "업믹싱 (upmixing)" 으로 지칭될 수도 있다.
일부 경우들에 있어서, 중간 채널은 다음과 같은 다른 식들에 기초할 수도 있다:
또는 식 3
식 4
여기에서, g1 + g2 = 1.0 이고, gD 는 이득 파라미터이다. 다른 예들에 있어서, 다운믹스는 대역들에서 수행될 수도 있으며, 여기서, mid(b) = c1L(b) + c2R(b) 이고 c1 및 c2 는 복소수들이고, side(b) = c3L(b) - c4R(b) 이고 c3 및 c4 는 복소수들이다.
특정의 프레임에 대한 MS 코딩 또는 이중-모노 코딩 사이에서 선택하는데 사용되는 애드-혹 접근법은 중간 신호 및 사이드 신호를 생성하는 것, 중간 신호 및 사이드 신호의 에너지들을 계산하는 것, 및 그 에너지들에 기초하여 MS 코딩을 수행할지 여부를 결정하는 것을 포함할 수도 있다. 예를 들어, MS 코딩은, 사이드 신호 및 중간 신호의 에너지들의 비가 임계치 미만이라고 결정하는 것에 응답하여 수행될 수도 있다. 예시하기 위해, 우측 채널이 적어도 제 1 시간 (예를 들어, 약 0.001 초 또는 48 kHz 에서 48 샘플들) 만큼 쉬프트되면, (좌측 신호와 우측 신호의 합에 대응하는) 중간 신호의 제 1 에너지는 보이싱 (voicing) 된 스피치 프레임들에 대한 (좌측 신호와 우측 신호 간의 차이에 대응하는) 사이드 신호의 제 2 에너지와 비교가능할 수도 있다. 제 1 에너지가 제 2 에너지와 비교가능할 때, 더 높은 수의 비트들이 사이드 채널을 인코딩하는데 사용될 수도 있고, 그것에 의하여, 듀얼-모노 코딩에 대한 MS 코딩의 코딩 효율을 감소시킬 수도 있다. 듀얼-모노 코딩은 따라서, 제 1 에너지가 제 2 에너지와 비교가능할 때 (예를 들어, 제 1 에너지와 제 2 에너지의 비가 임계치 이상일 때) 사용될 수도 있다. 대안의 접근법에서, 특정 프레임에 대한 MS 코딩과 듀얼-모노 코딩 간의 판정은 좌측 채널 및 우측 채널의 정규화된 상호-상관 값들과 임계치의 비교에 기초하여 행해질 수도 있다.
일부 예들에 있어서, 인코더는 제 1 오디오 신호와 제 2 오디오 신호 간의 시간 오정렬의 양을 표시하는 불일치 값을 결정할 수도 있다. 본 명세서에서 사용된 바와 같이, "시간 쉬프트 값", "쉬프트 값", 및 "불일치 값" 은 상호교환가능하게 사용될 수도 있다. 예를 들어, 인코더는 제 2 오디오 신호에 대한 제 1 오디오 신호의 쉬프트 (예컨대, 시간 불일치) 를 표시하는 시간 쉬프트 값을 결정할 수도 있다. 시간 불일치 값은 제 1 마이크로폰에서의 제 1 오디오 신호의 수신과 제 2 마이크로폰에서의 제 2 오디오 신호의 수신 간의 시간 지연의 양에 대응할 수도 있다. 더욱이, 인코더는 프레임 단위 기반으로, 예컨대, 각각의 20 밀리초 (ms) 스피치/오디오 프레임에 기초하여 시간 불일치 값을 결정할 수도 있다. 예를 들어, 시간 불일치 값은, 제 2 오디오 신호의 제 2 프레임이 제 1 오디오 신호의 제 1 프레임에 관하여 지연되는 시간의 양에 대응할 수도 있다. 대안적으로, 시간 불일치 값은, 제 1 오디오 신호의 제 1 프레임이 제 2 오디오 신호의 제 2 프레임에 관하여 지연되는 시간의 양에 대응할 수도 있다.
사운드 소스가 제 2 마이크로폰보다 제 1 마이크로폰에 더 가까울 경우, 제 2 오디오 신호의 프레임들은 제 1 오디오 신호의 프레임들에 대해 지연될 수도 있다. 이 경우, 제 1 오디오 신호는 "레퍼런스 오디오 신호" 또는 "레퍼런스 채널" 로서 지칭될 수도 있고, 지연된 제 2 오디오 신호는 "타겟 오디오 신호" 또는 "타겟 채널" 로서 지칭될 수도 있다. 대안적으로, 사운드 소스가 제 1 마이크로폰보다 제 2 마이크로폰에 더 가까울 경우, 제 1 오디오 신호의 프레임들은 제 2 오디오 신호의 프레임들에 대해 지연될 수도 있다. 이 경우에, 제 2 오디오 신호는 레퍼런스 오디오 신호 또는 레퍼런스 채널로 지칭될 수도 있고, 지연된 제 1 오디오 신호는 타겟 오디오 신호 또는 타겟 채널로 지칭될 수도 있다.
사운드 소스들 (예컨대, 화자들) 이 컨퍼런스 또는 텔레프레즌스 룸의 어디에 위치되는지 또는 사운드 소스 (예컨대, 화자) 포지션이 마이크로폰들에 대해 어떻게 변하는지에 의존하여, 레퍼런스 채널 및 타겟 채널은 일 프레임으로부터 다른 프레임으로 변할 수도 있고; 유사하게, 시간 지연 값이 또한 일 프레임으로부터 다른 프레임으로 변할 수도 있다. 하지만, 일부 구현들에 있어서, 시간 불일치 값은, "레퍼런스" 채널에 대한 "타겟" 채널의 지연의 양을 표시하기 위해 항상 포지티브일 수도 있다. 더욱이, 시간 불일치 값은, 타겟 채널이 "레퍼런스" 채널과 정렬 (예컨대, 최대로 정렬) 되도록 지연된 타겟 채널이 시간적으로 "후퇴"되는 "비-인과 쉬프트" 값에 대응할 수도 있다. 중간 채널과 사이드 채널을 결정하기 위한 다운믹스 알고리즘이 레퍼런스 채널 및 비-인과 쉬프트된 타겟 채널에 대해 수행될 수도 있다.
인코더는 타겟 오디오 채널에 적용된 복수의 시간 불일치 값들 및 레퍼런스 오디오 채널에 기초하는 시간 불일치 값을 결정할 수도 있다. 예를 들어, 레퍼런스 오디오 채널 (X) 의 제 1 프레임은 제 1 시간 (m1) 에서 수신될 수도 있다. 타겟 오디오 채널 (Y) 의 제 1 특정 프레임은 제 1 시간 불일치 값에 대응하는 제 2 시간 (n1) 에서 수신될 수도 있다 (예를 들어, shift1 = n1 - m1). 예를 들어, 레퍼런스 오디오 채널의 제 2 프레임은 제 3 시간 (m2) 에서 수신될 수도 있다. 타겟 오디오 채널의 제 2 특정 프레임은 제 2 시간 불일치 값에 대응하는 제 4 시간 (n2) 에서 수신될 수도 있다 (예를 들어, shift2 = n2 - m2).
디바이스는 제 1 샘플링 레이트 (예를 들어, 32 kHz 샘플링 레이트) 로 프레임 (예를 들어, 20 ms 샘플들) 을 생성하기 위해 (즉, 프레임 당 640 샘플들) 프레이밍 또는 버퍼링 알고리즘을 수행할 수도 있다. 인코더는, 제 1 오디오 신호의 제 1 프레임 및 제 2 오디오 신호의 제 2 프레임이 디바이스에서 동시에 도달함을 결정하는 것에 응답하여, 시간 불일치 값 (예컨대, shift1) 을 제로 샘플과 동일한 것으로서 추정할 수도 있다. 좌측 채널 (예컨대, 제 1 오디오 신호에 대응) 및 우측 채널 (예컨대, 제 2 오디오 신호에 대응) 은 시간적으로 정렬될 수도 있다. 일부 경우들에 있어서, 좌측 채널 및 우측 채널은, 정렬된 경우라도, 다양한 이유들 (예컨대, 마이크로폰 교정) 로 인해 에너지에 있어서 상이할 수도 있다.
일부 예들에서, 좌측 채널 및 우측 채널은 다양한 이유들로 인해 시간적으로 오정렬될 수도 있다 (예를 들어, 화자와 같은 사운드 소스가 다른 것보다 마이크로폰들 중 하나에 더 가까울 수도 있고 그리고 2 개의 마이크로폰들이 임계치 (예를 들어 1-20 센티미터) 거리보다 더 많이 이격될 수도 있다). 마이크로폰들에 대한 사운드 소스의 위치는 좌측 채널 및 우측 채널에 있어서 상이한 지연들을 도입할 수도 있다. 부가적으로, 좌측 채널과 우측 채널 사이에 이득 차이, 에너지 차이, 또는 레벨 차이가 존재할 수도 있다.
2 초과의 채널들이 존재하는 일부 예들에 있어서, 레퍼런스 채널이 채널들의 레벨들 또는 에너지들에 기초하여 처음에 선택되고, 후속적으로, 채널들의 상이한 쌍들 간의 시간 불일치 값들, 예를 들어, t1(ref, ch2), t2(ref, ch3), t3(ref, ch4), ..., 에 기초하여 정세 (refine) 되며, 여기서, ch1 은 처음에 ref 채널이고 t1(.), t2(.) 등은 불일치 값들을 추정하기 위한 함수들이다. 모든 시간 불일치 값들이 포지티브이면, ch1 은 레퍼런스 채널로서 처리된다. 임의의 불일치 값들이 네거티브 값이면, 레퍼런스 채널은, 네거티브 값을 발생시켰던 불일치 값과 연관되었던 채널로 재구성되며, 상기 프로세스는, 레퍼런스 채널의 최상의 선택 (예컨대, 최대 수의 사이드 채널들을 최대로 역상관시키는 것에 기초함) 이 달성될 때까지 계속된다. 히스테리시스가 레퍼런스 채널 선택에서의 임의의 갑작스런 변동들을 극복하기 위해 사용될 수도 있다.
일부 예들에서, 다중 사운드 소스들 (예를 들어, 화자들) 로부터 마이크로폰들에서의 오디오 신호들의 도달 시간은, 다중 화자들이 (예를 들어, 중첩 없이) 서로 번갈아 말하고 있을 때 가변할 수도 있다. 이러한 경우에, 인코더는 레퍼런스 채널을 식별하기 위해 화자에 기초하여 시간 불일치 값을 동적으로 조정할 수도 있다. 일부 다른 예들에서, 다중 화자들은 동시에 말하고 있을 수도 있으며, 이는 가장 시끄러운 화자가 누구인지, 누가 마이크로폰에 가장 가까운지 등에 의존하여 다양한 시간 불일치 값들을 발생시킬 수도 있다. 이러한 경우에, 레퍼런스 및 타겟 채널들의 식별은 현재 프레임에서의 다양한 시간 쉬프트 값들 및 이전 프레임들에서의 추정된 시간 불일치 값들에 기초하고, 그리고 제 1 및 제 2 오디오 신호들의 에너지 또는 시간 에볼루션에 기초할 수도 있다.
일부 예들에서, 제 1 오디오 신호 및 제 2 오디오 신호는, 2 개의 신호들이 잠재적으로 적은 상관 (예를 들어, 무상관) 을 나타낼 때 합성되거나 또는 인공적으로 생성될 수도 있다. 본 명세서에서 설명된 예들은 예시적이며 유사한 또는 상이한 상황들에서 제 1 오디오 신호와 제 2 오디오 신호 간의 관계를 결정하는데 있어서 유익할 수도 있는 것으로 이해되어야 한다.
인코더는 제 1 오디오 신호의 제 1 프레임과 제 2 오디오 신호의 복수의 프레임들의 비교에 기초하여 비교 값들 (예를 들어, 차이 값들 또는 상호-상관 값들) 을 생성할 수도 있다. 복수의 프레임들의 각각의 프레임은 특정 시간 불일치 값에 대응할 수도 있다. 인코더는 비교 값들에 기초하여 제 1 추정된 시간 불일치 값을 생성할 수도 있다. 예를 들어, 제 1 추정된 시간 불일치 값은 제 1 오디오 신호의 제 1 프레임과 제 2 오디오 신호의 대응하는 제 1 프레임 간의 더 높은 시간 유사도 (또는 더 낮은 차이) 를 표시하는 비교 값에 대응할 수도 있다.
인코더는, 다중의 스테이지들에서, 일련의 추정된 시간 불일치 값들을 정세함으로써 최종 시간 불일치 값을 결정할 수도 있다. 예를 들어, 인코더는 처음에, 제 1 오디오 신호 및 제 2 오디오 신호의 스테레오 사전-프로세싱된 및 리샘플링된 버전들로부터 생성된 비교 값들에 기초하여 "잠정적인 (tentative)" 시간 불일치 값을 추정할 수도 있다. 인코더는 추정된 "잠정적인" 시간 불일치 값에 근접한 시간 불일치 값들과 연관된 보간된 비교 값들을 생성할 수도 있다. 인코더는 보간된 비교 값들에 기초하여 제 2 추정된 "보간된" 시간 불일치 값을 결정할 수도 있다. 예를 들어, 제 2 추정된 "보간된" 시간 불일치 값은, 제 1 추정된 "잠정적인" 시간 불일치 값 및 나머지 보간된 비교 값들보다 더 높은 시간 유사도 (또는 더 낮은 차이) 를 표시하는 특정 보간된 비교 값에 대응할 수도 있다. 현재 프레임 (예컨대, 제 1 오디오 신호의 제 1 프레임) 의 제 2 추정된 "보간된" 시간 불일치 값이 이전 프레임 (예컨대, 제 1 프레임에 선행하는 제 1 오디오 신호의 프레임) 의 최종 시간 불일치 값과 상이하면, 현재 프레임의 "보간된" 시간 불일치 값은 제 1 오디오 신호와 쉬프트된 제 2 오디오 신호 간의 시간 유사도를 개선하기 위해 추가로 "보정" 된다. 특히, 제 3 추정된 "보정된" 시간 불일치 값은, 현재 프레임의 제 2 추정된 "보간된" 시간 불일치 값 및 이전 프레임의 최종 추정된 시간 불일치 값을 탐색함으로써 시간 유사도의 더 정확한 측정치에 대응할 수도 있다. 제 3 추정된 "보정된" 시간 불일치 값은 프레임들 간의 시간 불일치 값에서의 임의의 의사의 변경들을 제한함으로써 최종 시간 불일치 값을 추정하도록 추가로 조절되고 그리고 본 명세서에서 설명된 바와 같은 2개의 연속하는 (또는 연속적인) 프레임들에 있어서 네거티브 시간 불일치 값으로부터 포지티브 시간 불일치 값으로 (또는 그 역도 성립) 스위칭하지 않도록 추가로 제어된다.
일부 예들에 있어서, 인코더는 연속적인 프레임들에 있어서 또는 인접한 프레임들에 있어서 포지티브 시간 불일치 값과 네거티브 시간 불일치 값 간의 또는 그 역의 스위칭을 억제할 수도 있다. 예를 들어, 인코더는, 제 1 프레임의 추정된 "보간된" 또는 "보정된" 시간 불일치 값 및 제 1 프레임에 선행하는 특정 프레임에서의 대응하는 추정된 "보간된" 또는 "보정된" 또는 최종 시간 불일치 값에 기초하여 시간 쉬프트 없음을 표시하는 특정 값 (예컨대, 0) 으로 최종 시간 불일치 값을 설정할 수도 있다. 예시하기 위해, 인코더는, 현재 프레임의 추정된 "잠정적인" 또는 "보간된" 또는 "보정된" 시간 불일치 값 중 하나가 포지티브이고 그리고 이전 프레임 (예컨대, 제 1 프레임에 선행하는 프레임) 의 추정된 "잠정적인" 또는 "보간된" 또는 "보정된" 또는 "최종" 추정된 시간 불일치 값 중 다른 하나가 네거티브임을 결정하는 것에 응답하여, 시간 쉬프트 없음, 즉, shift1 = 0 을 표시하도록 현재 프레임 (예컨대, 제 1 프레임) 의 최종 시간 불일치 값을 설정할 수도 있다. 대안적으로, 인코더는 또한, 현재 프레임의 추정된 "잠정적인" 또는 "보간된" 또는 "보정된" 시간 불일치 값 중 하나가 네거티브이고 그리고 이전 프레임 (예컨대, 제 1 프레임에 선행하는 프레임) 의 추정된 "잠정적인" 또는 "보간된" 또는 "보정된" 또는 "최종" 추정된 시간 불일치 값 중 다른 하나가 포지티브임을 결정하는 것에 응답하여, 시간 쉬프트 없음, 즉, shift1 = 0 을 표시하도록 현재 프레임 (예컨대, 제 1 프레임) 의 최종 시간 불일치 값을 설정할 수도 있다.
인코더는 제 1 오디오 신호 또는 제 2 오디오 신호의 프레임을, 시간 불일치 값에 기초하여 "레퍼런스" 또는 "타겟" 으로서 선택할 수도 있다. 예를 들어, 최종 시간 불일치 값이 포지티브임을 결정하는 것에 응답하여, 인코더는, 제 1 오디오 신호가 "레퍼런스" 신호이고 그리고 제 2 오디오 신호가 "타겟" 신호임을 표시하는 제 1 값 (예컨대, 0) 을 갖는 레퍼런스 채널 또는 신호 표시자를 생성할 수도 있다. 대안적으로, 최종 시간 불일치 값이 네거티브임을 결정하는 것에 응답하여, 인코더는, 제 2 오디오 신호가 "레퍼런스" 신호이고 그리고 제 1 오디오 신호가 "타겟" 신호임을 표시하는 제 2 값 (예컨대, 1) 을 갖는 레퍼런스 채널 또는 신호 표시자를 생성할 수도 있다.
인코더는 비-인과적 쉬프트된 타겟 신호 및 레퍼런스 신호와 연관된 상대 이득 (예를 들어, 상대 이득 파라미터) 을 추정할 수도 있다. 예를 들어, 최종 시간 불일치 값이 포지티브임을 결정하는 것에 응답하여, 인코더는, 비-인과 시간 불일치 값 (예컨대, 최종 시간 불일치 값의 절대 값) 만큼 오프셋된 제 2 오디오 신호에 대한 제 1 오디오 신호의 진폭 또는 전력 레벨들을 정규화 또는 등화하도록 이득 값을 추정할 수도 있다. 대안적으로, 최종 시간 불일치 값이 네거티브임을 결정하는 것에 응답하여, 인코더는, 제 2 오디오 신호에 대한 비-인과 쉬프트된 제 1 오디오 신호의 전력 또는 진폭 레벨들을 정규화 또는 등화하도록 이득 값을 추정할 수도 있다. 일부 예들에 있어서, 인코더는 비-인과 쉬프트된 "타겟" 신호에 대한 "레퍼런스" 신호의 진폭 또는 전력 레벨들을 정규화 또는 등화하도록 이득 값을 추정할 수도 있다. 다른 예들에 있어서, 인코더는 타겟 신호 (예컨대, 쉬프팅되지 않은 타겟 신호) 에 대한 레퍼런스 신호에 기초하여 이득 값 (예컨대, 상대 이득 값) 을 추정할 수도 있다.
인코더는 레퍼런스 신호, 타겟 신호, 비-인과 시간 불일치 값, 및 상대 이득 파라미터에 기초하여 적어도 하나의 인코딩된 신호 (예컨대, 중간 신호, 사이드 신호, 또는 이들 양자) 를 생성할 수도 있다. 다른 구현들에 있어서, 인코더는 레퍼런스 채널 및 시간 불일치 조정된 타겟 채널에 기초하여 적어도 하나의 인코딩된 신호 (예컨대, 중간 채널, 사이드 채널, 또는 이들 양자) 를 생성할 수도 있다. 사이드 신호는 제 1 오디오 신호의 제 1 프레임의 제 1 샘플들과 제 2 오디오 신호의 선택된 프레임의 선택된 샘플들 간의 차이에 대응할 수도 있다. 인코더는 최종 시간 불일치 값에 기초하여 선택된 프레임을 선택할 수도 있다. 제 1 프레임과 동시에 디바이스에 의해 수신되는 제 2 오디오 신호의 프레임에 대응하는 제 2 오디오 신호의 다른 샘플들과 비교할 때 제 1 샘플들과 선택된 샘플들 간의 감소된 차이 때문에, 더 적은 비트들이 사이드 채널 신호를 인코딩하기 위해 사용될 수도 있다. 디바이스의 송신기는 적어도 하나의 인코딩된 신호, 비-인과 시간 불일치 값, 상대 이득 파라미터, 레퍼런스 채널 또는 신호 표시자, 또는 이들의 조합을 송신할 수도 있다.
인코더는 레퍼런스 신호, 타겟 신호, 비-인과 시간 불일치 값, 상대 이득 파라미터, 제 1 오디오 신호의 특정 프레임의 저대역 파라미터들, 특정 프레임의 고대역 파라미터들, 또는 이들의 조합에 기초하여 적어도 하나의 인코딩된 신호 (예컨대, 중간 신호, 사이드 신호, 또는 이들 양자) 를 생성할 수도 있다. 특정 프레임은 제 1 프레임에 선행할 수도 있다. 하나 이상의 선행하는 프레임들로부터의 소정의 저 대역 파라미터들, 고 대역 파라미터들, 또는 이들의 조합은 제 1 프레임의 중간 신호, 사이드 신호, 또는 양자 모두를 인코딩하는데 사용될 수도 있다. 저대역 파라미터들, 고대역 파라미터들, 또는 이들의 조합에 기초하여 중간 신호, 사이드 신호, 또는 이들 양자를 인코딩하는 것은 비-인과 시간 불일치 값 및 채널간 상대 이득 파라미터의 추정치들을 개선할 수도 있다. 저대역 파라미터들, 고대역 파라미터들, 또는 이들의 조합은 피치 파라미터, 보이싱 파라미터, 코더 타입 파라미터, 저대역 에너지 파라미터, 고대역 에너지 파라미터, 틸트 파라미터, 피치 이득 파라미터, FCB 이득 파라미터, 코딩 모드 파라미터, 음성 활성도 파라미터, 노이즈 추정치 파라미터, 신호대 노이즈 비 파라미터, 포르만트 파라미터, 음성/음악 판정 파라미터, 비-인과 쉬프트, 채널간 이득 파라미터, 또는 이들의 조합을 포함할 수도 있다. 디바이스의 송신기는 적어도 하나의 인코딩된 신호, 비-인과 시간 불일치 값, 상대 이득 파라미터, 레퍼런스 채널 (또는 신호) 표시자, 또는 이들의 조합을 송신할 수도 있다. 본 개시에서, "결정하는 것", "계산하는 것", "쉬프트하는 것", "조정하는 것" 등과 같은 용어들은 하나 이상의 동작들이 어떻게 수행되는지를 설명하는데 사용될 수도 있다. 이러한 용어들은 한정하는 것으로서 해석되지 않아야 하고 다른 기법들이 유사한 동작들을 수행하는데 활용될 수도 있음에 유의해야 한다.
일부 구현들에 따르면, 최종 시간 불일치 값 (예를 들어, 쉬프트 값) 은 타겟 채널과 레퍼런스 채널 간의 "실제" 쉬프트를 표시하는 "비 양자화된" 값이다. 모든 디지털 값들이 본 명세서에서 사용되는 바와 같이, 디지털 값을 저장하거나 사용하는 시스템에 의해 제공된 정밀도로 인해 "양자화" 되지만, 디지털 값들은 디지털 값의 정밀도를 감소시키기 위해 (예를 들어, 디지털 값과 연관된 범위 또는 대역폭을 감소시키기 위해) 양자화 동작에 의해 생성되는 경우 "양자화" 되고, 그렇지 않으면 "양자화되지 않는다". 비제한적인 예로서, 제 1 오디오 신호는 타겟 채널일 수도 있고, 제 2 오디오 신호는 레퍼런스 채널일 수도 있다. 타겟과 레퍼런스 채널 간의 실제 쉬프트가 37 개의 샘플들인 경우, 타겟 채널은 레퍼런스 채널과 시간적으로 정렬된 쉬프트된 타겟 채널을 생성하기 위해 인코더에서 37 개의 샘플만큼 쉬프트될 수도 있다. 다른 구현들에서, 양자의 채널은 채널들 간의 상대적 쉬프트가 최종 쉬프트 값 (이 예에서는 37 개의 샘플들) 과 동일하도록, 쉬프트될 수도 있다. 쉬프트 값에 의한 채널들의 이러한 상대적인 쉬프트는 채널들을 시간적으로 정렬시키는 효과를 달성한다. 고효율 인코더는 코딩 엔트로피가 채널들 간의 쉬프트 변화들에 민감하기 때문에, 코딩 엔트로피를 감소시키기 위해 채널들을 가능한 많이 정렬할 수도 있고, 따라서 코딩 효율을 증가시킬 수도 있다. 쉬프트된 타겟 채널 및 레퍼런스 채널은 인코딩되어 비트스트림의 부분으로서 디코더로 송신되는 중간 채널을 생성하는데 사용될 수도 있다. 부가적으로, 최종 시간 불일치 값은 양자화되어 비트 스트림의 일부로서 디코더에 송신될 수도 있다. 예를 들어, 최종 시간 불일치 값은, 양자화된 최종 시간 불일치 값이 9 (예를 들어, 대략 37/4) 와 동일하도록, 4 의 "플로어" 를 사용하여 양자화될 수도 있다.
디코더는 중간 채널을 디코딩하여 디코딩된 중간 채널을 생성할 수도 있고, 디코더는 디코딩된 중간 채널에 기초하여 제 1 채널 및 제 2 채널을 생성할 수도 있다. 예를 들어, 디코더는 비트스트림에 포함된 스테레오 파라미터들을 사용하여 디코딩된 중간 채널을 업믹싱하여 제 1 채널 및 제 2 채널을 생성할 수도 있다. 제 1 및 제 2 채널들은 디코더에서 시간적으로 정렬될 수도 있지만; 그러나, 디코더는 양자화된 최종 시간 불일치 값에 기초하여 채널들 중 하나 이상을 서로에 대해 쉬프트할 수도 있다. 예를 들어, 제 1 채널이 인코더에서 타겟 채널 (예를 들어, 제 1 오디오 신호) 에 대응한다면, 디코더는 36 개의 샘플들 (예를 들어, 4 * 9) 만큼 제 1 채널을 쉬프트하여 쉬프트된 제 1 채널을 생성할 수도 있다. 지각적으로, 쉬프트된 제 1 채널 및 제 2 채널은 각각, 타겟 채널 및 레퍼런스 채널과 유사하다. 예를 들어, 인코더에서 타겟과 레퍼런스 채널 간의 36 개의 샘플 쉬프트가 10 ms 쉬프트에 대응한다면, 디코더에서 쉬프트된 제 1 채널과 제 2 채널 간의 36 개의 샘플 쉬프트는, 37 개의 샘플 쉬프트와 지각적으로 유사하고, 지각적으로 구별불가능할 수도 있다.
도 1 을 참조하면, 시스템 (100) 의 특정 예시적인 예가 도시된다. 시스템 (100) 은 네트워크 (120) 를 통해, 제 2 디바이스 (106) 에 통신 가능하게 커플링된 제 1 디바이스 (104) 를 포함한다. 네트워크 (120) 는 하나 이상의 무선 네트워크들, 하나 이상의 유선 네트워크들, 또는 이들의 조합을 포함할 수도 있다.
제 1 디바이스는 (104) 는 인코더 (114), 송신기 (110), 및 하나 이상의 입력 인터페이스들 (112) 을 포함한다. 입력 인터페이스들 112 의 제 1 입력 인터페이스는 제 1 마이크로폰 146 에 커플링될 수도 있다. 입력 인터페이스(들) 112 의 제 2 입력 인터페이스는 제 2 마이크로폰 148 에 커플링될 수도 있다. 제 1 디바이스 (104) 는 또한, 이하 설명되는 것과 같이, 분석 데이터를 저장하도록 구성된 메모리 (153) 를 포함할 수도 있다. 제 2 디바이스 (106) 는 디코더 (118) 및 메모리 (154) 를 포함할 수도 있다. 제 2 디바이스 (106) 는 제 1 라우드스피커 (142), 제 2 라우드스피커 (144), 또는 이들 양자에 커플링될 수도 있다.
동작 동안, 제 1 디바이스 (104) 는 제 1 마이크로폰 (146) 으로부터 제 1 입력 인터페이스를 통해 제 1 오디오 신호 (130) 를 수신할 수도 있고, 제 2 마이크로폰 (148) 으로부터 제 2 입력 인터페이스를 통해 제 2 오디오 신호 (132) 를 수신할 수도 있다. 제 1 오디오 신호 (130) 는 우측 채널 신호 또는 좌측 채널 신호 중 하나에 대응할 수도 있다. 제 2 오디오 신호 (132) 는 우측 채널 신호 또는 좌측 채널 신호 중 다른 하나에 대응할 수도 있다. 본 명세서에서 설명된 것과 같이, 제 1 오디오 신호 (130) 는 레퍼런스 채널에 대응할 수도 있으며, 제 2 오디오 신호 (132) 는 타겟 채널에 대응할 수도 있다. 그러나, 다른 구현들에서, 제 1 오디오 신호 (130) 는 타겟 채널에 대응할 수도 있으며, 제 2 오디오 신호 (132) 는 레퍼런스 채널에 대응할 수도 있는 것이 이해되어야 한다. 다른 구현들에서, 레퍼런스 및 타겟 채널 모두의 할당이 존재하지 않을 수도 있다. 그러한 경우에, 인코더들에서의 채널 정렬 및 디코더에서의 채널 정렬해제는 채널들 간의 상대적 쉬프트가 쉬프트 값에 기초하도록, 채널들 중 하나 또는 양자에서 수행될 수도 있다.
제 1 마이크로폰 (146) 및 제 2 마이크로폰 (148) 은 사운드 소스 (152) (예컨대, 사용자, 스피커, 주변 잡음, 악기, 등) 로부터 오디오를 수신할 수도 있다. 특정의 양태에서, 제 1 마이크로폰 (146), 제 2 마이크로폰 (148), 또는 양자는 다수의 사운드 소스들로부터 오디오를 수신할 수도 있다. 다수의 사운드 소스들은 지배적인 (또는, 대부분의 지배적인) 사운드 소스 (예컨대, 사운드 소스 152) 및 하나 이상의 2차 사운드 소스들을 포함할 수도 있다. 하나 이상의 이차 사운드 소스들은 트래픽, 배경 음악, 다른 화자, 거리 노이즈 등에 대응할 수도 있다. 사운드 소스 (152) (예를 들어, 지배적인 사운드 소스) 는 제 2 마이크로폰 (148) 보다 제 1 마이크로폰 (146) 에 더 가까울 수도 있다. 이에 따라, 사운드 소스 (152) 로부터의 오디오 신호는 제 2 마이크로폰 (148) 을 통해서보다 더 이른 시간에 제 1 마이크로폰 (146) 을 통해 입력 인터페이스들 (112) 에서 수신될 수도 있다. 다중 마이크로폰들을 통한 멀티-채널 신호 포착에서의 이 자연적 지연은 제 1 오디오 신호 (130) 와 제 2 오디오 신호 (132) 간에 시간 쉬프트를 도입할 수도 있다.
제 1 디바이스 (104) 는 제 1 오디오 신호 (130), 제 2 오디오 신호 (132), 또는 양자를, 메모리 (153) 에 저장할 수도 있다. 인코더 (114) 는 제 1 프레임 (190) 에 대한 제 2 오디오 신호 (132) 에 상대적으로 제 1 오디오 신호 (130) 의 쉬프트 (예를 들어, 비인과적 쉬프트) 를 표시하는 제 1 쉬프트 값 (180) (예를 들어, 비인과적 쉬프트 값) 을 결정할 수도 있다. 제 1 쉬프트 값 (180) 은 제 1 프레임 (190) 에 대한 레퍼런스 채널 (예를 들어, 제 1 오디오 신호 (130)) 과 타겟 채널 (예를 들어, 제 2 오디오 신호 (132)) 간의 쉬프트를 표현하는 값 (예를 들어, 비 양자화된 값) 일 수도 있다. 제 1 쉬프트 값 (180) 은 분석 데이터로서 메모리 (153) 에 저장될 수도 있다. 인코더 (114) 는 또한, 제 2 프레임 (192) 에 대한 제 2 오디오 신호 (132) 에 상대적으로 제 1 오디오 신호 (130) 의 쉬프트를 표시하는 제 2 쉬프트 값을 결정할 수도 있다. 제 2 프레임 (192) 은 제 1 프레임 (190) 을 뒤따를 (예를 들어, 시간상 이후일) 수도 있다. 제 2 쉬프트 값 (184) 은 제 2 프레임 (192) 에 대한 레퍼런스 채널 (예를 들어, 제 1 오디오 신호 (130)) 와 타겟 채널 (예를 들어, 제 2 오디오 신호 (132)) 간의 쉬프트를 표현하는 값 (예를 들어, 비 양자화된 값) 일 수도 있다. 제 2 쉬프트 값 (184) 은 또한, 분석 데이터로서 메모리 (153) 에 저장될 수도 있다.
따라서, 쉬프트 값 (180, 184) (예컨대, 불일치 값) 은 각각, 제 1 및 제 2 프레임들 (190, 192) 에 대한 제 1 오디오 신호 (130) 와 제 2 오디오 신호 (132) 간의 시간 불일치 (예컨대, 시간 지연) 의 양을 표시할 수도 있다. 본원에서 참조되는 것과 같이, "시간 지연 (time delay)" 은 "시간적 지연 (temporal delay)" 에 대응할 수도 있다. 시간 불일치는 제 1 마이크로폰 (146) 을 통한, 제 1 오디오 신호 (130) 의 수신과 제 2 마이크로폰 (148) 을 통한, 제 2 오디오 신호 (132) 의 수신 간의 시간 지연을 표시할 수도 있다. 예를 들어, 쉬프트 값들 (180, 184) 의 제 1 값 (예를 들어, 포지티브 값) 은, 제 2 오디오 신호 (132) 가 제 1 오디오 신호 (130) 에 대해 지연된다는 것을 표시할 수도 있다. 이 예에서, 제 1 오디오 신호 (130) 는 선행 신호에 대응할 수도 있으며, 제 2 오디오 신호 (132) 는 지체된 신호에 대응할 수도 있다. 예를 들어, 쉬프트 값들 (180, 184) 의 제 2 값 (예를 들어, 네거티브 값) 은, 제 1 오디오 신호 (130) 가 제 2 오디오 신호 (132) 에 대해 지연된다는 것을 표시할 수도 있다. 이 예에서, 제 1 오디오 신호 (130) 는 지체된 신호에 대응할 수도 있으며, 제 2 오디오 신호 (132) 는 선행 신호에 대응할 수도 있다. 쉬프트 값들 (180, 184) 의 제 3 값 (예를 들어, 0) 은 제 1 오디오 신호 (130) 와 제 2 오디오 신호 (132) 간에 지연이 없는 것을 표시할 수도 있다.
인코더 (114) 는 제 1 쉬프트 값 (180) 을 양자화하여 제 1 양자화된 쉬프트 값 (181) 을 생성할 수도 있다. 예시를 위해, 제 1 쉬프트 값 (180) (예를 들어, 실제 쉬프트 값) 이 37 개의 샘플과 동일한 경우, 인코더 (114) 는 제 1 양자화된 쉬프트 값 (181) 을 생성하기 위해 플로어에 기초하여 제 1 쉬프트 값 (180) 을 양자화할 수도 있다. 비제한적인 예로서, 플로어가 4 와 동일한 경우, 제 1 양자화된 쉬프트 값 (181) 은 9 (예를 들어, 대략 37/4) 와 동일할 수도 있다. 후술하는 바와 같이, 제 1 쉬프트 값 (180) 은 중간 채널 (191) 의 제 1 부분을 생성하는데 사용될 수도 있고, 제 1 양자화된 쉬프트 값 (181) 은 비트스트림 (160) 으로 인코딩되어 제 2 디바이스 (106) 로 송신될 수도 있다. 본 명세서에서 사용되는 바와 같이, 신호 또는 채널의 "부분" 은 신호 또는 채널의 하나 이상의 프레임, 신호 또는 채널의 하나 이상의 서브 프레임, 신호 또는 채널의 하나 이상의 샘플, 비트, 청크, 단어 또는 다른 세그먼트, 또는 이들의 임의의 조합을 포함한다. 유사한 방식으로, 인코더 (114) 는 제 2 쉬프트 값 (184) 을 양자화하여 제 2 양자화된 쉬프트 값 (185) 을 생성할 수도 있다. 예시를 위해, 제 2 쉬프트 값 (184) 이 36 개의 샘플과 동일한 경우, 인코더 (114) 는 제 2 양자화된 쉬프트 값 (185) 을 생성하기 위해 플로어에 기초하여 제 2 쉬프트 값 (184) 을 양자화할 수도 있다. 비제한적인 예로서, 제 2 양자화된 쉬프트 값 (185) 은 9 (예를 들어, 36/4) 와 동일할 수도 있다. 후술하는 바와 같이, 제 2 쉬프트 값 (184) 은 중간 채널의 제 2 부분 (193) 을 생성하는데 사용될 수도 있고, 제 2 양자화된 쉬프트 값 (185) 은 비트스트림 (160) 으로 인코딩되어 제 2 디바이스 (106) 로 송신될 수도 있다.
인코더 (114) 는 쉬프트 값들 (180, 184) 에 기초하여 레퍼런스 신호 표시자를 생성할 수도 있다. 예를 들어, 인코더 (114) 는, 제 1 쉬프트 값 (180) 이 제 1 값 (예를 들어, 포지티브 값) 을 표시한다고 결정하는 것에 응답하여, 제 1 오디오 신호 (130) 가 "레퍼런스" 신호이고 제 2 오디오 신호 (132) 가 "타겟" 신호에 대응하는 것을 표시하는 제 1 값 (예를 들어, 0) 을 갖도록 레퍼런스 신호 표시자를 생성할 수도 있다.
인코더 (114) 는 쉬프트 값들 (180, 184) 에 기초하여 제 1 오디오 신호 (130) 및 제 2 오디오 신호 (132) 를 시간적으로 정렬할 수도 있다. 예를 들어, 제 1 프레임 (190) 에 대해, 인코더 (114) 는 제 1 오디오 신호 (130) 와 시간적으로 정렬되는 쉬프트된 제 2 오디오 신호를 생성하기 위해 제 2 오디오 신호 (132) 를 제 1 쉬프트 값 (180) 만큼 시간적으로 쉬프트할 수도 있다. 제 2 오디오 신호 (132) 가 시간 도메인에서 시간적 쉬프트를 경험하는 것으로 설명되지만, 제 2 오디오 신호 (132) 는 쉬프트된 제 2 오디오 신호 (132) 를 생성하기 위해 주파수 도메인에서 위상 쉬프트를 경험할 수도 있음이 이해되어야 한다. 예를 들어, 제 1 쉬프트 값 (180) 은 주파수 영역 쉬프트 값에 대응할 수도 있다. 제 2 프레임 (192) 에 대해, 인코더 (114) 는 제 1 오디오 신호 (130) 와 시간적으로 정렬되는 쉬프트된 제 2 오디오 신호를 생성하기 위해 제 2 오디오 신호 (132) 를 제 2 쉬프트 값 (184) 만큼 시간적으로 쉬프트할 수도 있다. 제 2 오디오 신호 (132) 가 시간 도메인에서 시간적 쉬프트를 경험하는 것으로 설명되지만, 제 2 오디오 신호 (132) 는 쉬프트된 제 2 오디오 신호 (132) 를 생성하기 위해 주파수 도메인에서 위상 쉬프트를 경험할 수도 있음이 이해되어야 한다. 예를 들어, 제 2 쉬프트 값 (184) 은 주파수 영역 쉬프트 값에 대응할 수도 있다.
인코더 (114) 는 레퍼런스 채널의 샘플들 및 타겟 채널의 샘플들에 기초하여 각각의 프레임에 대한 하나 이상의 추가적인 스테레오 파라미터들 (예를 들어, 쉬프트 값들 (180, 184) 이외의 다른 스테레오 파라미터들) 을 생성할 수도 있다. 비제한적인 예로서, 인코더 (114) 는 제 1 프레임 (190) 에 대한 제 1 스테레오 파라미터 (182) 및 제 2 프레임 (192) 에 대한 제 2 스테레오 파라미터 (186) 를 생성할 수도 있다. 스테레오 파라미터들 (182, 186) 의 비제한적인 예는 다른 쉬프트 값, 채널간 위상차 파라미터, 채널간 레벨차 파라미터, 채널간 시간차 파라미터, 채널간 상관 파라미터, 스펙트럼 틸트 파라미터, 채널간 이득 파라미터, 채널간 보이싱 파라미터 또는 채널간 피치 파라미터를 포함할 수도 있다.
예시를 위해, 스테레오 파라미터 (182, 186) 가 각각의 프레임에 대해, 이득 파라미터들에 대응하는 경우, 인코더 (114) 는 레퍼런스 신호 (예를 들어, 제 1 오디오 신호 (130)) 의 샘플들에 기초하여 그리고 타겟 신호 (예를 들어, 제 2 오디오 신호 (132)) 의 샘플에 기초하여 이득 파라미터 (예를 들어, 코덱 이득 파라미터) 를 생성할 수도 있다. 예를 들어, 제 1 프레임 (190) 에 대해, 인코더 (114) 는 제 1 쉬프트 값 (180) (예를 들어, 비인과적 쉬프트 값) 에 기초하여 제 2 오디오 신호 (132) 의 샘플들을 선택할 수도 있다. 본원에서 참조되는 것과 같이, 쉬프트 값에 기초하여 오디오 신호의 샘플들을 선택하는 것은, 쉬프트 값에 기초하여 오디오 신호를 조정하고 (예컨대, 쉬프트하고) 수정된 오디오 신호의 샘플들을 선택함으로써, 수정된 (예컨대, 시간 쉬프트된 또는 주파수 쉬프트된) 오디오 신호를 발생시키는 것에 대응할 수도 있다. 예를 들어, 인코더 (114) 는 제 1 쉬프트 값 (180) 에 기초하여 제 2 오디오 신호 (132) 를 쉬프트함으로써 시간 쉬프트된 제 2 오디오 신호를 생성할 수도 있으며, 시간 쉬프트된 제 2 오디오 신호의 샘플들을 선택할 수도 있다. 인코더 (114) 는 제 1 오디오 신호 (130) 가 레퍼런스 신호라고 결정하는 것에 응답하여, 제 1 오디오 신호 (130) 의 제 1 프레임 (190) 의 제 1 샘플들에 기초하여 선택된 샘플들의 이득 파라미터 (160) 를 결정할 수도 있다. 일 예로서, 이득 파라미터는 다음 수식들 중 하나에 기초할 수도 있다:
수식 1a
수식 1b
수식 1c
수식 1d
수식 1e
수식 1f
여기서, gD 는 다운믹스 프로세싱을 위한 상대 이득 파라미터에 대응하며, Ref(n) 은 "레퍼런스" 신호의 샘플들에 대응하며, N1 은 제 1 프레임 (190) 의 제 1 쉬프트 값 (180) 에 대응하며, Targ(n+N1) 은 "타겟" 신호의 샘플들에 대응한다. 이득 파라미터 (gD) 는 예컨대, 수식들 1a - 1f 중 하나에 기초하여, 프레임들 간의 이득에서의 큰 급등들 (jumps) 을 회피하기 위해 장기 평활화/히스테리시스 로직을 포함하도록, 수정될 수도 있다.
인코더 (114) 는 비트스트림 (160) 으로 인코딩되고 제 2 디바이스 (106) 로 송신되는 양자화된 스테레오 파라미터 (183, 187) 를 생성하기 위해 스테레오 파라미터 (182, 186) 를 양자화할 수도 있다. 예를 들어, 인코더 (114) 는 제 1 스테레오 파라미터 (182) 를 양자화하여 제 1 양자화된 스테레오 파라미터 (183) 를 생성할 수도 있고, 인코더 (114) 는 제 2 스테레오 파라미터 (186) 를 양자화하여 제 2 양자화된 스테레오 파라미터 (187) 를 생성할 수도 있다. 양자화된 스테레오 파라미터들 (183, 187) 은 각각, 스테레오 파라미터들 (182, 186) 보다 낮은 분해능 (예를 들어, 낮은 정밀도) 을 가질 수도 있다.
각각의 프레임 (190, 192) 에 대해, 인코더 (114) 는 쉬프트 값 (180, 184), 다른 스테레오 파라미터들 (182, 186) 및 오디오 신호들 (130, 132) 에 기초하여 하나 이상의 인코딩된 신호들을 생성할 수도 있다. 예를 들어, 제 1 프레임 (190) 에 대해, 인코더 (114) 는 제 1 쉬프트 값 (180) (예를 들어, 비 양자화된 쉬프트 값), 제 1 스테레오 파라미터 (182), 및 오디오 신호들 (130, 132) 에 기초하여 중간 채널의 제 1 부분 (191) 을 생성할 수도 있다. 부가적으로, 제 2 프레임 (192) 에 대해, 인코더 (114) 는 제 2 쉬프트 값 (184) (예를 들어, 비 양자화된 쉬프트 값), 제 2 스테레오 파라미터 (186), 및 오디오 신호들 (130, 132) 에 기초하여 중간 채널의 제 2 부분 (193) 을 생성할 수도 있다. 일부 구현들에 따라, 인코더 (114) 는 쉬프트 값들 (180, 184), 다른 스테레오 파라미터들 (182, 186), 및 오디오 신호들 (130, 132) 에 기초하여 각 프레임 (190, 192) 에 대한 사이드 채널들 (비도시) 을 생성할 수도 있다.
예를 들어, 인코더 (114) 는 다음 수식들 중 하나에 기초하여 중간 채널의 부분들 (191, 193) 을 생성할 수도 있다:
수식 2a
수식 2b
여기서 N2 는 어떤 임의의 값도 취할 수 있다, 수식 2c
여기서, M 은 중간 채널 신호에 대응하고, gD 는 다운믹스 프로세싱을 위한 상대 이득 파라미터 (예를 들어, 스테레오 파라미터들 (182, 186)) 에 대응하며, Ref(n) 은 "레퍼런스" 신호의 샘플들에 대응하며, N1 은 쉬프트 값들 (180, 184) 에 대응하며, Targ(n+N1) 은 "타겟" 신호의 샘플들에 대응한다.
인코더 (114) 는 다음 수식들 중 하나에 기초하여 사이드 채널들을 생성할 수도 있다:
수식 3a
수식 3b
여기서 N2 는 어떤 임의의 값도 취할 수 있다, 수식 3c
여기서, S 은 사이드 채널 신호에 대응하고, gD 는 다운믹스 프로세싱을 위한 상대 이득 파라미터 (예를 들어, 스테레오 파라미터들 (182, 186)) 에 대응하며, Ref(n) 은 "레퍼런스" 신호의 샘플들에 대응하며, N1 은 쉬프트 값들 (180, 184) 에 대응하며, Targ(n+N1) 은 "타겟" 신호의 샘플들에 대응한다.
송신기 (110) 는 비트스트림 (160) 을 네트워크 (120) 를 통해 제 2 디바이스 (106) 로 송신할 수도 있다. 제 1 프레임 (190) 및 제 2 프레임 (192) 은 비트스트림 (160) 으로 인코딩될 수도 있다. 예를 들어, 중간 채널의 제 1 부분 (191), 제 1 양자화된 쉬프트 값 (181), 및 제 1 양자화된 스테레오 파라미터 (183) 는 비트스트림 (160) 으로 인코딩될 수도 있다. 부가적으로, 중간 채널의 제 2 부분 (193), 제 2 양자화된 쉬프트 값 (185), 및 제 2 양자화된 스테레오 파라미터 (187) 는 비트스트림 (160) 으로 인코딩될 수도 있다. 사이드 채널 정보는 또한 비트스트림 (160) 에서 인코딩될 수도 있다. 도시되지는 않았지만, 추가 정보는 또한 각 프레임 (190, 192) 에 대해 비트스트림 (160) 으로 인코딩될 수도 있다. 비 제한적인 예로서, 레퍼런스 채널 표시자는 각 프레임 (190, 192) 에 대해 비트스트림 (160) 으로 인코딩될 수도 있다.
송신 조건이 열악하기 때문에, 비트스트림 (160) 으로 인코딩된 일부 데이터는 송신에서 손실될 수도 있다. 송신 조건이 열악하여 패킷 손실이 발생할 수도 있고, 무선 조건이 열악하여 프레임 소거가 발생할 수도 있으며, 높은 지터로 인해 패킷들이 늦게 도달할 수도 있다. 비 제한적인 예시적인 예에 따르면, 제 2 디바이스 (106) 는 비트스트림 (160) 의 제 1 프레임 (190) 및 제 2 프레임 (192) 의 중간 채널의 제 2 부분 (193) 을 수신할 수도 있다. 따라서, 제 2 양자화된 쉬프트 값 (185) 및 제 2 양자화된 스테레오 파라미터 (187) 는 열악한 송신 조건으로 인해 송신에서 손실될 수도 있다.
따라서, 제 2 디바이스 (106) 는 제 1 디바이스 (102) 에 의해 송신되는 것과 같이, 비트스트림 (160) 의 적어도 부분을 수신할 수도 있다. 제 2 디바이스 (106) 는 비트스트림 (160) 의 수신된 부분을 메모리 (154) (예를 들어, 버퍼) 에 저장할 수도 있다. 예를 들어, 제 1 프레임 (190) 은 메모리 (154) 에 저장될 수도 있고, 제 2 프레임 (192) 의 중간 채널의 제 2 부분 (193) 은 또한 메모리 (154) 에 저장될 수도 있다.
디코더 (118) 는 제 1 프레임 (190) 을 디코딩하여 제 1 오디오 신호 (130) 에 대응하는 제 1 출력 신호 (126) 를 생성하고 제 2 오디오 신호 (132) 에 대응하는 제 2 출력 신호를 생성할 수도 있다. 예를 들어, 디코더 (118) 는 디코딩된 중간 채널의 제 1 부분 (170) 을 생성하기 위해 중간 채널의 제 1 부분 (191) 을 디코딩할 수도 있다. 디코더 (118) 는 또한, 디코딩된 중간 채널의 제 1 부분 (170) 에 변환 동작을 수행하여, 주파수 도메인 (FD) 디코딩된 중간 채널의 제 1 부분 (171) 을 생성할 수도 있다. 디코더 (118) 는 주파수 도메인 디코딩된 중간 채널의 제 1 부분 (171) 을 업믹싱하여 제 1 출력 신호 (126) 와 연관된 제 1 주파수 도메인 채널 (도시되지 않음) 및 제 2 출력 신호 (128) 와 연관된 제 2 주파수 도메인 채널 (도시되지 않음) 을 생성할 수도 있다. 업믹스 동안, 디코더 (118) 는 제 1 양자화된 스테레오 파라미터 (183) 를 주파수 도메인 디코딩된 중간 채널의 제 1 부분 (171) 에 적용할 수도 있다.
다른 구현들에서, 디코더 (118) 는 변환 동작을 수행하는 것이 아니라, 오히려 중간 채널, 일부 스테레오 파라미터들 (예를 들어, 다운믹스 이득) 에 기초하여 그리고 부가적으로, 사용가능한 경우에, 또한 시간 도메인에서 디코딩된 측면 채널에 기초하여 업믹스를 수행하여, 제 1 출력 채널 (126) 과 연관된 제 1 시간 도메인 채널 (도시되지 않음) 및 제 2 출력 채널 (128) 과 연관된 제 2 시간 도메인 채널 (도시되지 않음) 을 생성할 수도 있음을 유의하여야 한다.
제 1 양자화된 쉬프트 값 (181) 이 주파수 도메인 쉬프트 값에 대응한다면, 디코더 (118) 는 제 2 주파수 도메인 채널을 제 1 양자화된 쉬프트 값 (181) 만큼 쉬프트하여 제 2 쉬프트된 주파수 도메인 채널 (도시되지 않음) 을 생성할 수도 있다. 디코더 (118) 는 제 1 주파수 도메인 채널에 역변환 동작을 수행하여 제 1 출력 신호 (126) 를 생성할 수도 있다. 디코더 (118) 는 제 2 쉬프트된 주파수 도메인 채널에 역변환 동작을 수행하여 제 2 출력 신호 (128) 를 생성할 수도 있다.
제 1 양자화된 쉬프트 값 (181) 이 시간 도메인 쉬프트 값에 대응한다면, 디코더 (118) 는 제 1 주파수 도메인 채널에 역변환 동작을 수행하여 제 1 출력 신호 (126) 를 생성할 수도 있다. 디코더 (118) 는 제 2 주파수 도메인 채널에 역변환 동작을 수행하여 제 2 시간 도메인 채널을 생성할 수도 있다. 디코더 (118) 는 제 2 시간 도메인 채널을 제 1 양자화된 쉬프트 값 (181) 만큼 쉬프트하여 제 2 출력 신호 (128) 를 생성할 수도 있다. 따라서, 디코더 (118) 는 제 1 출력 신호 (126) 와 제 2 출력 신호 (128) 간의 인지가능한 차이를 에뮬레이트하기 위해 제 1 양자화된 쉬프트 값 (181) 을 사용할 수도 있다. 제 1 라우드스피커 (142) 는 제 1 출력 신호 (126) 를 출력할 수도 있고, 제 2 라우드스피커 (144) 는 제 2 출력 신호 (128) 를 출력할 수도 있다. 일부 경우에, 역변환 동작은 전술한 바와 같이, 업믹스가 시간 도메인에서 수행되어 제 1 시간 도메인 채널 및 제 2 시간 도메인 채널을 직접 생성하는 구현들에서 생략될 수도 있다. 또한, 디코더 (118) 에서 시간 도메인 쉬프트 값의 존재는 단순히 디코더가 시간 도메인 쉬프팅을 수행하도록 구성되는 것을 표시하는 문제일 수도 있으며, 일부 구현들에서, 시간 도메인 쉬프트가 디코더 (118) 에서 사용가능할 수도 있지만 (디코더가 시간 도메인에서 쉬프트 동작을 수행하는 것을 표시함), 비트스트림이 수신된 인코더는 채널들을 정렬하기 위해 주파수 영역 쉬프트 동작 또는 시간 영역 쉬프트 동작 중 하나를 수행했을 수도 있음을 유의하여야 한다.
디코더 (118) 가 제 2 프레임 (192) 이 디코딩 동작을 위해 사용불가능하다고 결정한다면 (예를 들어, 제 2 양자화된 쉬프트 값 (185) 및 제 2 양자화된 스테레오 파라미터 (187) 가 사용불가능하다고 결정한다면), 디코더 (118) 는 제 1 프레임 (190) 과 연관된 스테레오 파라미터들에 기초하여 제 2 프레임 (192) 에 대한 출력 신호들 (126, 128) 을 생성할 수도 있다. 예를 들어, 디코더 (118) 는 제 1 양자화된 쉬프트 값 (181) 에 기초하여 제 2 양자화된 쉬프트 값 (185) 을 추정 또는 보간할 수도 있다. 부가적으로, 디코더 (118) 는 제 1 양자화된 스테레오 파라미터 (183) 에 기초하여 제 2 양자화된 스테레오 파라미터 (187) 를 추정 또는 보간할 수도 있다.
제 2 양자화된 쉬프트 값 (185) 및 제 2 양자화된 스테레오 파라미터 (187) 를 추정한 후에, 디코더 (118) 는 제 1 프레임 (190) 에 대해 출력 신호 (126, 128) 가 생성되는 것과 유사한 방식으로, 제 2 프레임 (192) 에 대해 출력 신호 (126, 128) 를 생성할 수도 있다. 예를 들어, 디코더 (118) 는 디코딩된 중간 채널의 제 2 부분 (172) 을 생성하기 위해 중간 채널의 제 2 부분 (193) 을 디코딩할 수도 있다. 디코더 (118) 는 또한, 디코딩된 중간 채널의 제 2 부분 (172) 에 변환 동작을 수행하여, 제 2 주파수 도메인 디코딩된 중간 채널 (173) 을 생성할 수도 있다. 추정된 양자화된 쉬프트 값 및 추정된 양자화된 스테레오 파라미터 (187) 에 기초하여, 디코더 (118) 는 제 2 주파수 도메인 디코딩된 중간 채널 (173) 을 업믹싱하고, 업믹싱된 신호에 역변환을 수행하고, 결과 신호를 쉬프트하여 출력 신호 (126, 128) 를 생성할 수도 있다. 디코딩 동작들의 일 예가 도 2 와 관련하여 보다 상세하게 설명된다.
시스템 (100) 은 코딩 엔트로피를 감소시키기 위해 인코더 (114) 에서 가능한 많이 채널들을 정렬하며, 코딩 엔트로피가 채널들 간의 쉬프트 변화들에 민감하기 때문에, 따라서 코딩 효율을 증가시킬 수도 있다. 예를 들어, 인코더 (114) 는 비 양자화된 쉬프트 값들이 비교적 높은 분해능을 갖기 때문에 채널들을 정확하게 정렬하기 위해 비 양자화된 쉬프트 값들을 사용할 수도 있다. 디코더 (118) 에서, 양자화된 스테레오 파라미터는 비 양자화된 쉬프트 값을 이용하는 것에 비해 감소된 비트 수를 사용하여 출력 신호 (126, 128) 간의 인지가능한 차이를 에뮬레이트하는데 사용될 수도 있고, (열악한 송신으로 인한) 손실된 스테레오 파라미터는 하나 이상의 이전 프레임들의 스테레오 파라미터를 사용하여 보간되거나 추정될 수도 있다. 일부 구현들에 따르면, 쉬프트 값들 (180, 184) (예를 들어, 비양자화된 쉬프트 값들) 은 주파수 도메인에서 타겟 채널들을 쉬프트하는데 사용될 수도 있고, 양자화된 쉬프트 값들 (181, 185) 은 시간 도메인에서 타겟 채널들을 쉬프트하는데 사용될 수도 있다. 예를 들어, 시간 도메인 스테레오 인코딩에 사용된 쉬프트 값들은 주파수 도메인 스테레오 인코딩에 사용 된 쉬프트 값들보다 낮은 분해능을 가질 수도 있다.
도 2 을 참조하면, 디코더 (118) 의 특정 구현을 예시하는 다이어그램이 도시된다. 디코더 (118) 는 중간 채널 디코더 (202), 변환 유닛 (204), 업믹서 (206), 역변환 유닛 (210), 역변환 유닛 (212), 및 쉬프터 (214) 를 포함한다.
도 1 의 비트스트림 (160) 은 디코더 (118) 에 제공될 수도 있다. 예를 들어, 제 1 프레임 (190) 의 중간 채널의 제 1 부분 (191) 및 제 2 프레임 (192) 의 중간 채널의 제 2 부분 (193) 은 중간 채널 디코더 (202) 에 제공될 수도 있다. 부가적으로, 스테레오 파라미터들 (201) 은 업믹서 (206) 및 쉬프터 (214) 에 제공될 수도 있다. 스테레오 파라미터들 (201) 은 제 1 프레임 (190) 과 연관된 제 1 양자화된 쉬프트 값 (181) 및 제 1 프레임 (190) 과 연관된 제 1 양자화된 스테레오 파라미터 (183) 를 포함할 수도 있다. 도 1 과 관련하여 전술한 바와 같이, 제 2 프레임 (192) 과 연관된 제 2 양자화된 쉬프트 값 (185) 및 제 2 프레임 (192) 과 연관된 제 2 양자화된 스테레오 파라미터 (187) 는 열악한 송신 조건으로 인해 디코더 (118) 에 의해 수신되지 않을 수도 있다.
제 1 프레임 (190) 을 디코딩하기 위해, 중간 채널 디코더 (202) 는 디코딩된 중간 채널 (예를 들어, 시간 도메인 중간 채널) 의 제 1 부분 (170) 을 생성하기 위해 중간 채널의 제 1 부분 (191) 을 디코딩할 수도 있다. 일부 구현들에 따르면, 2 개의 비대칭 윈도우들이 디코딩된 중간 채널의 제 1 부분 (170) 에 적용되어 시간 도메인 중간 채널의 윈도우 부분을 생성할 수도 있다. 디코딩된 중간 채널의 제 1 부분 (170) 은 변환 유닛 (204) 에 제공된다. 변환 유닛 (204) 은 디코딩된 중간 채널의 제 1 부분 (170) 에 변환 동작을 수행하여, 주파수 도메인 디코딩된 중간 채널의 제 1 부분 (171) 을 생성할 수도 있다. 주파수 도메인 디코딩된 중간 채널의 제 1 부분 (171) 은 업믹서 (206) 에 제공된다. 일부 구현들에 따르면, 윈도잉 및 변환 작업이 모두 생략될 수도 있고, 디코딩된 중간 채널 (예를 들면, 시간 도메인 중간 채널) 의 제 1 부분 (170) 은 직접 업믹서 (206) 에 제공될 수도 있다.
업믹서 (206) 는 주파수 도메인 디코딩된 중간 채널의 제 1 부분 (171) 을 업믹싱하여 주파수 도메인 채널 (250) 의 부분 및 주파수 도메인 채널 (254) 의 부분을 생성할 수도 있다. 업믹서 (206) 는 업믹스 동작 동안 주파수 도메인 디코딩된 중간 채널의 제 1 부분 (171) 에 제 1 양자화된 스테레오 파라미터 (183) 를 적용하여 주파수 도메인 채널 (250, 254) 의 부분들을 생성할 수도 있다. 제 1 양자화된 쉬프트 값 (181) 이 주파수 도메인 쉬프트를 포함하는 (예를 들어, 제 1 양자화된 쉬프트 값 (181) 이 제 1 양자화된 주파수 도메인 쉬프트 값 (281) 에 대응하는) 구현에 따르면, 업믹서 (206) 는 제 1 양자화된 주파수 도메인 쉬프트 값 (281) 에 기초한 주파수 도메인 쉬프트 (예를 들어, 위상 쉬프트) 를 수행하여 주파수 도메인 채널 (254) 의 부분을 생성할 수도 있다. 주파수 도메인 채널 (250) 의 부분은 역변환 유닛 (210) 에 제공되고, 주파수 도메인 채널 (254) 의 부분은 역변환 유닛 (212) 에 제공된다. 일부 구현들에 따르면, 업믹서 (206) 는 (예를 들어, 타겟 이득 값들에 기초하여) 스테레오 파라미터들이 시간 도메인에서 적용될 수도 있는, 시간 도메인 채널들에서 동작하도록 구성될 수도 있다.
역변환 유닛 (210) 은 시간 도메인 채널 (260) 의 부분을 생성하기 위해 주파수 도메인 채널 (250) 의 부분에 역변환 동작을 수행할 수도 있다. 시간 도메인 채널 (260) 의 부분은 쉬프터 (214) 에 제공된다. 역변환 유닛 (212) 은 시간 도메인 채널 (264) 의 부분을 생성하기 위해 주파수 도메인 채널 (254) 의 부분에 역변환 동작을 수행할 수도 있다. 시간 도메인 채널 (264) 의 부분은 또한 쉬프터 (214) 에 제공된다. 업믹스 동작이 시간 도메인에서 수행되는 구현들에서, 업믹스 동작 이후의 역변환 동작은 생략될 수도 있다.
제 1 양자화된 쉬프트 값 (181) 이 제 1 양자화된 주파수 도메인 쉬프트 값 (281) 에 대응하는 구현에 따르면, 쉬프터 (214) 는 쉬프트 동작들을 바이패스하고, 시간 도메인 채널 (260, 264) 의 부분들을 각각 출력 신호들 (126, 128) 의 부분들로서 통과시킬 수도 있다. 제 1 양자화된 쉬프트 값 (181) 이 시간 도메인 쉬프트를 포함하는 (예를 들어, 제 1 양자화된 쉬프트 값 (181) 이 제 1 양자화된 시간 도메인 쉬프트 값 (291) 에 대응하는) 구현에 따르면, 쉬프터 (214) 는 시간 도메인 채널 (264) 의 부분을 제 1 양자화된 시간 도메인 쉬프트 값 (291) 만큼 쉬프트하여 제 2 출력 신호 (128) 의 부분을 생성할 수도 있다.
따라서, 디코더 (118) 는 제 1 프레임 (190) 에 대한 출력 신호 (126, 128) 의 부분을 생성하기 위해 (인코더 (114) 에서 사용된 비양자화된 쉬프트 값들과 비교하여) 감소된 정밀도를 갖는 양자화된 쉬프트 값을 사용할 수도 있다. 출력 신호 (126) 에 대해 출력 신호 (128) 를 쉬프트하기 위해 양자화된 쉬프트 값을 사용하는 것은 인코더 (114) 에서의 쉬프트에 대한 사용자 인식을 복구할 수도 있다.
제 2 프레임 (192) 을 디코딩하기 위해, 중간 채널 디코더 (202) 는 디코딩된 중간 채널 (예를 들어, 시간 도메인 중간 채널) 의 제 2 부분 (172) 을 생성하기 위해 중간 채널의 제 2 부분 (193) 을 디코딩할 수도 있다. 일부 구현들에 따르면, 2 개의 비대칭 윈도우들이 디코딩된 중간 채널의 제 2 부분 (172) 에 적용되어 시간 도메인 중간 채널의 윈도잉된 부분을 생성할 수도 있다. 디코딩된 중간 채널의 제 2 부분 (172) 은 변환 유닛 (204) 에 제공된다. 변환 유닛 (204) 은 디코딩된 중간 채널의 제 2 부분 (172) 에 변환 동작을 수행하여, 주파수 도메인 디코딩된 중간 채널의 제 2 부분 (173) 을 생성할 수도 있다. 주파수 도메인 디코딩된 중간 채널의 제 2 부분 (173) 은 업믹서 (206) 에 제공된다. 일부 구현들에 따르면, 윈도잉 및 변환 작업이 모두 생략될 수도 있고, 디코딩된 중간 채널(예를 들면, 시간 도메인 중간 채널) 의 제 2 부분 (172) 은 직접 업믹서 (206) 에 제공될 수도 있다.
도 1 과 관련하여 전술한 바와 같이, 제 2 양자화된 쉬프트 값 (185) 및 제 2 양자화된 스테레오 파라미터 (187) 는 열악한 송신 조건으로 인해 디코더 (118) 에 의해 수신되지 않을 수도 있다. 결과적으로, 제 2 프레임 (192) 의 스테레오 파라미터들은 업믹서 (206) 및 쉬프터 (214) 에 액세스되지 않을 수도 있다. 업믹서 (206) 는 제 1 양자화된 주파수 도메인 쉬프트 값 (281) 에 기초하여 제 2 양자화된 쉬프트 값 (185) 을 보간 (또는 추정) 하도록 구성된 스테레오 파라미터 보간기 (208) 를 포함한다. 예를 들어, 스테레오 파라미터 보간기 (208) 는 제 1 양자화된 주파수 도메인 쉬프트 값 (281) 에 기초하여 제 2 보간된 주파수 도메인 쉬프트 값 (285) 을 생성할 수도 있다. 제 2 스테레오 파라미터 (208) 는 또한, 제 1 양자화된 스테레오 파라미터 (183) 에 기초하여 제 2 양자화된 스테레오 파라미터 (187) 를 보간 (또는 추정) 하도록 구성될 수도 있다. 예를 들어, 스테레오 파라미터 보간기 (208) 는 제 1 양자화된 주파수 스테레오 파라미터 (183) 에 기초하여 제 2 보간된 스테레오 파라미터 (287) 를 생성할 수도 있다.
업믹서 (206) 는 주파수 도메인 디코딩된 중간 채널의 제 2 부분 (173) 을 업믹싱하여 주파수 도메인 채널 (252) 의 부분 및 주파수 도메인 채널 (256) 의 부분을 생성할 수도 있다. 업믹서 (206) 는 업믹스 동작 동안 주파수 도메인 디코딩된 중간 채널의 제 2 부분 (173) 에 제 2 양자화된 스테레오 파라미터 (287) 를 적용하여 주파수 도메인 채널 (252, 256) 의 부분들을 생성할 수도 있다. 제 1 양자화된 쉬프트 값 (181) 이 주파수 도메인 쉬프트를 포함하는 (예를 들어, 제 1 양자화된 쉬프트 값 (181) 이 제 1 양자화된 주파수 도메인 쉬프트 값 (281) 에 대응하는) 구현에 따르면, 업믹서 (206) 는 제 2 보간된 주파수 도메인 쉬프트 값 (285) 에 기초한 주파수 도메인 쉬프트 (예를 들어, 위상 쉬프트) 를 수행하여 주파수 도메인 채널 (256) 의 부분을 생성할 수도 있다. 주파수 도메인 채널 (252) 의 부분은 역변환 유닛 (210) 에 제공되고, 주파수 도메인 채널 (256) 의 부분은 역변환 유닛 (212) 에 제공된다.
역변환 유닛 (210) 은 시간 도메인 채널 (262) 의 부분을 생성하기 위해 주파수 도메인 채널 (252) 의 부분에 역변환 동작을 수행할 수도 있다. 시간 도메인 채널 (262) 의 부분은 쉬프터 (214) 에 제공된다. 역변환 유닛 (212) 은 시간 도메인 채널 (266) 의 부분을 생성하기 위해 주파수 도메인 채널 (256) 의 부분에 역변환 동작을 수행할 수도 있다. 시간 도메인 채널 (266) 의 부분은 또한 쉬프터 (214) 에 제공된다. 업믹서 (206) 가 시간 도메인 채널에서 동작하는 구현에서, 업믹서 (206) 의 출력은 쉬프터 (214) 에 제공될 수도 있고, 역변환 유닛 (210, 212) 은 스킵되거나 생략될 수도 있다.
쉬프터 (214) 는 제 1 양자화된 시간 도메인 쉬프트 값 (291) 에 기초하여 제 2 양자화된 쉬프트 값 (185) 을 보간 (또는 추정) 하도록 구성된 쉬프트 값 보간기 (216) 를 포함한다. 예를 들어, 쉬프트 값 보간기 (216) 는 제 1 양자화된 시간 도메인 쉬프트 값 (291) 에 기초하여 제 2 보간된 시간 도메인 쉬프트 값 (295) 을 생성할 수도 있다. 제 1 양자화된 쉬프트 값 (181) 이 제 1 양자화된 주파수 도메인 쉬프트 값 (281) 에 대응하는 구현에 따르면, 쉬프터 (214) 는 쉬프트 동작들을 바이패스하고, 시간 도메인 채널 (262, 266) 의 부분들을 각각 출력 신호들 (126, 128) 로서 통과시킬 수도 있다. 제 1 양자화된 쉬프트 값 (181) 이 제 1 양자화된 시간 도메인 쉬프트 값 (291) 에 대응하는 구현에 따르면, 쉬프터 (214) 는 시간 도메인 채널 (266) 의 부분을 제 2 보간된 시간 도메인 쉬프트 값 (295) 만큼 쉬프트하여 제 2 출력 신호 (128) 를 생성할 수도 있다.
따라서, 디코더 (118) 는 스테레오 파라미터들 또는 선행 프레임들로부터의 스테레오 파라미터들의 변동에 기초하여 스테레오 파라미터 (예를 들어, 쉬프트 값) 를 근사화할 수도 있다. 예를 들어, 디코더 (118) 는 하나 이상의 선행 프레임의 스테레오 파라미터로부터 송신 동안 손실되는 프레임들 (예를 들어, 제 2 프레임 (192)) 에 대한 스테레오 파라미터를 외삽할 수도 있다.
도 3 을 참조하면, 디코더에서 손실된 프레임의 스테레오 파라미터를 예측하기 위한 다이어그램 (300) 이 도시된다. 다이어그램 (300) 에 따르면, 제 1 프레임 (190) 은 인코더 (114) 로부터 디코더 (118) 로 성공적으로 송신될 수도 있고, 제 2 프레임 (192) 은 인코더 (114) 로부터 디코더 (118) 로 성공적으로 송신되지 않을 수도 있다. 예를 들어, 제 2 프레임 (192) 은 열악한 송신 조건으로 인해 송신에서 손실될 수도 있다.
디코더 (118) 는 제 1 프레임 (190) 으로부터 디코딩된 중간 채널의 제 1 부분 (170) 을 생성할 수도 있다. 예를 들어, 디코더 (118) 는 디코딩된 중간 채널의 제 1 부분 (170) 을 생성하기 위해 중간 채널의 제 1 부분 (191) 을 디코딩할 수도 있다. 도 2 와 관련하여 설명된 기술들을 사용하여, 디코더 (118) 는 또한 디코딩된 중간 채널의 제 1 부분 (170) 에 기초하여 좌측 채널의 제 1 부분 (302) 및 우측 채널의 제 1 부분 (304) 을 생성할 수도 있다. 좌측 채널의 제 1 부분 (302) 은 제 1 출력 신호 (126) 에 대응할 수도 있고, 우측 채널의 제 1 부분 (304) 은 제 2 출력 신호 (128) 에 대응할 수도 있다. 예를 들어, 디코더 (118) 는 제 1 양자화된 스테레오 파라미터 (183) 및 제 1 양자화된 쉬프트 값 (181) 을 사용하여 채널들 (302, 304) 을 생성할 수도 있다.
디코더 (118) 는 제 1 양자화된 쉬프트 값 (181) 에 기초하여 제 2 보간된 주파수 도메인 쉬프트 값 (285) (또는 제 2 보간된 시간 도메인 쉬프트 값 (295)) 을 보간 (또는 추정) 할 수도 있다. 다른 구현들에 따르면, 제 2 보간된 쉬프트 값들 (285, 295) 은 2 이상의 이전 프레임들 (예를 들어, 제 1 프레임 (190) 및 적어도 제 1 프레임을 선행하는 프레임 또는 제 2 프레임 (192) 을 뒤따르는 프레임, 비트스트림 (160) 에서 하나 이상의 다른 프레임들, 또는 이들의 임의의 조합) 과 연관된 양자화된 쉬프트 값들에 기초하여 추정 (예를 들어, 보간 또는 외삽) 될 수도 있다. 디코더 (118) 는 또한, 제 1 양자화된 스테레오 파라미터 (183) 에 기초하여 제 2 보간된 스테레오 파라미터 (287) 를 보간 (또는 추정) 할 수도 있다. 다른 구현들에 따르면, 제 2 보간된 스테레오 파라미터 (287) 는 2 이상의 다른 프레임들 (예를 들어, 제 1 프레임 (190) 및 적어도 제 1 프레임을 선행하거나 뒤따르는 프레임) 과 연관된 양자화된 스테레오 파라미터들에 기초하여 추정될 수도 있다.
부가적으로, 디코더 (118) 는 디코딩된 중간 채널 (또는 2 이상의 이전 프레임들과 연관된 중간 채널들) 의 제 1 부분 (170) 에 기초하여 디코딩된 중간 채널의 제 2 부분 (306) 을 보간 (또는 추정) 할 수도 있다. 도 2 와 관련하여 설명된 기술들을 사용하여, 디코더 (118) 는 또한 디코딩된 중간 채널의 추정된 제 2 부분 (306) 에 기초하여 좌측 채널의 제 2 부분 (308) 및 우측 채널의 제 2 부분 (310) 을 생성할 수도 있다. 좌측 채널의 제 2 부분 (308) 은 제 1 출력 신호 (126) 에 대응할 수도 있고, 우측 채널의 제 2 부분 (310) 은 제 2 출력 신호 (128) 에 대응할 수도 있다. 예를 들어, 디코더 (118) 는 제 2 보간된 스테레오 파라미터 (287) 및 제 2 보간된 주파수 도메인 양자화된 쉬프트 값 (285) 을 사용하여 좌측 및 우측 채널들을 생성할 수도 있다.
도 4a 를 참조하면, 신호를 디코딩하는 방법 (400) 이 도시된다. 방법 (400) 은 도 1 의 제 2 디바이스 (106), 도 1 및 도 2 의 디코더 (118), 또는 이들 양자에 의해 수행될 수도 있다.
방법 (400) 은 402 에서, 디코더에서, 중간 채널 및 인코더와 연관된 제 1 채널 (예컨대, 레퍼런스 채널) 과 인코더와 연관된 제 2 채널 (예컨대, 타겟 채널) 간의 쉬프트를 표현하는 양자화된 값을 포함하는 비트스트림을 수신하는 것을 포함한다. 양자화된 값은 쉬프트의 값에 기초한다. 그 값은 인코더와 연관되며 양자화된 값보다 큰 정밀도를 갖는다.
방법 (400) 은 또한, 404 에서, 중간 채널을 디코딩하여 디코딩된 중간 채널을 생성하는 것을 포함한다. 방법 (400) 은 추가로, 406 에서, 디코딩된 중간 채널에 기초하여 제 1 채널 (제 1 생성된 채널) 을 생성하는 것, 및 408 에서, 디코딩된 중간 채널 및 양자화된 값에 기초하여 제 2 채널 (제 2 생성된 채널) 을 생성하는 것을 포함한다. 제 1 생성된 채널은 인코더와 연관된 제 1 채널 (예를 들어, 레퍼런스 채널) 에 대응하고, 제 2 생성된 채널은 인코더와 연관된 제 2 채널 (예를 들어, 타겟 채널) 에 대응한다. 일부 구현들에서, 제 1 채널 및 제 2 채널 양자는 양자화된 쉬프트 값에 기초할 수도 있다. 일부 구현들에서, 디코더는 쉬프팅 동작 전에 레퍼런스 및 타겟 채널들을 명시적으로 식별하지 않을 수도 있다.
따라서, 도 4a 의 방법 (400) 은 코딩 엔트로피를 감소시키기 위해 인코더측 채널들의 정렬을 가능하게 하고, 코딩 엔트로피가 채널들 간의 쉬프트 변화들에 민감하기 때문에, 따라서 코딩 효율을 증가시킬 수도 있다. 예를 들어, 인코더 (114) 는 비 양자화된 쉬프트 값들이 비교적 높은 분해능을 갖기 때문에 채널들을 정확하게 정렬하기 위해 비 양자화된 쉬프트 값들을 사용할 수도 있다. 양자화된 쉬프트 값들은 데이터 송신 리소스 사용을 감소시키기 위해 디코더 (118) 로 송신될 수도 있다. 디코더 (118) 에서, 양자화된 쉬프트 파라미터는 출력 신호 (126, 128) 간의 인지가능한 차이를 에뮬레이트하는데 사용될 수도 있다.
도 4b 를 참조하면, 신호를 디코딩하는 방법 (450) 이 도시된다. 일부 구현들에서, 도 4b 의 방법 (450) 은 도 4a 의 오디오 신호를 디코딩하는 방법 (400) 의 보다 상세한 버전이다. 방법 (450) 은 도 1 의 제 2 디바이스 (106), 도 1 및 도 2 의 디코더 (118), 또는 이들 양자에 의해 수행될 수도 있다.
방법 (450) 은 452 에서, 디코더에서, 인코더로부터 비트스트림을 수신하는 것을 포함한다. 비트스트림은 인코더와 연관된 레퍼런스 채널과 인코더와 연관된 타겟 채널 간의 쉬프트를 표현하는 양자화된 값 및 중간 채널을 포함한다. 양자화된 값은 양자화된 값보다 큰 정밀도를 가지는 쉬프트의 값 (예를 들어, 비 양자화된 값) 에 기초할 수도 있다. 예를 들어, 도 1 을 참조하면, 디코더 (118) 는 인코더 (114) 로부터 비트스트림 (160) 을 수신할 수도 있다. 비트스트림 (160) 은 제 1 오디오 신호 (130) (예를 들어, 레퍼런스 채널) 와 제 2 오디오 신호 (132) (예를 들어, 타겟 채널) 간의 쉬프트를 표현하는 제 1 양자화된 쉬프트 값 (181) 및 중간 채널의 제 1 부분 (191) 을 포함할 수도 있다. 제 1 양자화된 쉬프트 값 (181) 은 제 1 쉬프트 값 (180) (예를 들어, 비 양자화된 값) 에 기초할 수도 있다.
제 1 쉬프트 값 (180) 은 제 1 양자화된 쉬프트 값 (181) 보다 정밀도가 클 수도 있다. 예를 들어, 제 1 양자화된 쉬프트 값 (181) 은 제 1 쉬프트 값 (180) 의 저 분해능 버전에 대응할 수도 있다. 제 1 쉬프트 값은 타겟 채널 (예를 들어, 제 2 오디오 신호 (132)) 과 레퍼런스 채널 (예를 들어, 제 1 오디오 신호 (130)) 을 시간적으로 매칭시키기 위해 인코더 (114) 에 의해 사용될 수도 있다.
방법 (450) 은 또한, 454 에서, 중간 채널을 디코딩하여 디코딩된 중간 채널을 생성하는 것을 포함한다. 예를 들어, 도 2 를 참조하여, 중간 채널 디코더 (202) 는 디코딩된 중간 채널의 제 1 부분 (170) 을 생성하기 위해 중간 채널의 제 1 부분 (191) 을 디코딩할 수도 있다. 방법 (400) 은 또한, 456 에서, 디코딩된 중간 채널에 변환 동작을 수행하여 디코딩된 주파수 도메인 중간 채널을 생성하는 것을 포함한다. 예를 들어, 도 2 를 참조하여, 변환 유닛 (204) 은 디코딩된 중간 채널의 제 1 부분 (170) 에 변환 동작을 수행하여, 주파수 도메인 디코딩된 중간 채널의 제 1 부분 (171) 을 생성할 수도 있다.
방법 (450) 은 또한, 458 에서, 디코딩된 주파수 도메인 중간 채널을 업믹싱하여 주파수 도메인 채널의 제 1 부분 및 제 2 주파수 도메인 채널을 생성하는 것을 포함할 수도 있다. 예를 들어, 도 2 를 참조하여, 업믹서 (206) 는 주파수 도메인 디코딩된 중간 채널의 제 1 부분 (171) 을 업믹싱하여 주파수 도메인 채널 (250) 의 부분 및 주파수 도메인 채널 (254) 의 부분을 생성할 수도 있다. 방법 (450) 은 또한, 460 에서, 주파수 도메인 채널의 제 1 부분에 기초하여 제 1 채널을 생성하는 것을 포함할 수도 있다. 제 1 채널은 레퍼런스 채널에 대응할 수도 있다. 예를 들어, 역변환 유닛 (210) 은 주파수 도메인 채널 (250) 의 부분에 역변환 연산을 수행하여 시간 도메인 채널 (260) 의 부분을 생성할 수도 있고, 쉬프터 (214) 는 시간 도메인 채널 (260) 의 부분을 제 1 출력 신호 (126) 의 부분으로서 통과시킬 수도 있다. 제 1 출력 신호 (126) 는 레퍼런스 채널 (예를 들어, 제 1 오디오 신호 (130)) 에 대응할 수도 있다.
방법 (450) 은 또한, 462 에서, 제 2 주파수 도메인 채널에 기초하여 제 2 채널을 생성하는 것을 포함할 수도 있다. 제 2 채널은 타겟 채널에 대응할 수도 있다. 일 구현에 따르면, 제 2 주파수 도메인 채널은 양자화된 값이 주파수 도메인 쉬프트에 대응하는 경우, 양자화된 값만큼 주파수 도메인에서 쉬프트될 수도 있다. 예를 들어, 도 2 를 참조하면, 업믹서 (206) 는 주파수 도메인 채널 (254) 의 부분을 제 1 양자화된 주파수 도메인 쉬프트 값 (281) 만큼 제 2 쉬프트된 주파수 도메인 채널 (도시되지 않음) 로 쉬프트할 수도 있다. 역변환 유닛 (212) 는 제 2 쉬프트된 주파수 도메인 채널에 역변환을 수행하여 제 2 출력 신호 (128) 의 부분을 생성할 수도 있다. 제 2 출력 신호 (128) 는 타겟 채널 (예를 들어, 제 2 오디오 신호 (132)) 에 대응할 수도 있다.
다른 구현에 따르면, 양자화된 값이 시간 도메인 쉬프트에 대응하는 경우, 제 2 주파수 도메인 채널의 시간 도메인 버전은 양자화된 값만큼 쉬프트될 수도 있다. 예를 들어, 역변환 유닛 (212) 은 주파수 도메인 채널 (254) 의 부분에 역변환 동작을 수행하여 시간 도메인 채널 (264) 의 부분을 생성할 수도 있다. 쉬프터 (214) 는 시간 도메인 채널 (264) 의 부분을 제 1 양자화된 시간 도메인 쉬프트 값 (291) 만큼 쉬프트하여 제 2 출력 신호 (128) 를 생성할 수도 있다. 제 2 출력 신호 (128) 는 타겟 채널 (예를 들어, 제 2 오디오 신호 (132)) 에 대응할 수도 있다.
따라서, 도 4b 의 방법 (450) 은 코딩 엔트로피를 감소시키기 위해 인코더측 채널들의 정렬을 가능하게 하고, 코딩 엔트로피가 채널들 간의 쉬프트 변화들에 민감하기 때문에, 따라서 코딩 효율을 증가시킬 수도 있다. 예를 들어, 인코더 (114) 는 비 양자화된 쉬프트 값들이 비교적 높은 분해능을 갖기 때문에 채널들을 정확하게 정렬하기 위해 비 양자화된 쉬프트 값들을 사용할 수도 있다. 양자화된 쉬프트 값들은 데이터 송신 리소스 사용을 감소시키기 위해 디코더 (118) 로 송신될 수도 있다. 디코더 (118) 에서, 양자화된 쉬프트 파라미터는 출력 신호 (126, 128) 간의 인지가능한 차이를 에뮬레이트하는데 사용될 수도 있다.
도 5a 를 참조하면, 신호를 디코딩하는 다른 방법 (500) 이 도시된다. 방법 (500) 은 도 1 의 제 2 디바이스 (106), 도 1 및 도 2 의 디코더 (118), 또는 이들 양자에 의해 수행될 수도 있다.
방법 (500) 은 502 에서, 비트스트림의 적어도 부분을 수신하는 것을 포함한다. 비트스트림은 제 1 프레임 및 제 2 프레임을 포함한다. 제 1 프레임은 중간 채널의 제 1 부분 및 스테레오 파라미터의 제 1 값을 포함하고, 제 2 프레임은 중간 채널의 제 2 부분 및 스테레오 파라미터의 제 2 값을 포함한다.
방법 (500) 은 또한, 504 에서, 중간 채널의 제 1 부분을 디코딩하여 디코딩된 중간 채널의 제 1 부분을 생성하는 것을 포함한다. 방법 (500) 은 추가로, 506 에서, 디코딩된 중간 채널의 제 1 부분 및 스테레오 파라미터의 제 1 값에 적어도 기초하여 좌측 채널의 제 1 부분을 생성하는 것, 및 508 에서, 디코딩된 중간 채널의 제 1 부분 및 스테레오 파라미터의 제 1 값에 적어도 기초하여 우측 채널의 제 1 부분을 생성하는 것을 포함한다. 상기 방법은 또한, 510 에서, 제 2 프레임이 디코딩 동작들에 사용불가능한 것에 응답하여, 스테레오 파라미터의 제 1 값에 적어도 기초하여 좌측 채널의 제 2 부분 및 우측 채널의 제 2 부분을 생성하는 단계를 포함한다. 좌측 채널의 제 2 부분 및 우측 채널의 제 2 부분은 제 2 프레임의 디코딩된 버전에 대응한다.
일 구현에 따르면, 방법 (500) 은 제 2 프레임이 디코딩 동작들에 사용가능한 것에 응답하여 스테레오 파라미터의 제 1 값 및 스테레오 파라미터의 제 2 값에 기초하여 스테레오 파라미터의 보간된 값을 생성하는 것을 포함한다. 다른 구현에 따르면, 방법 (500) 은 제 2 프레임이 디코딩 동작들에 사용불가능한 것에 응답하여, 스테레오 파라미터의 제 1 값, 좌측 채널의 제 1 부분 및 우측 채널의 제 1 부분에 적어도 기초하여 적어도 좌측 채널의 제 2 부분 및 우측 채널의 제 2 부분을 생성하는 것을 포함한다.
일 구현에 따르면, 방법 (500) 은 제 2 프레임이 디코딩 동작들에 사용불가능한 것에 응답하여, 스테레오 파라미터의 제 1 값, 중간 채널의 제 1 부분, 좌측 채널의 제 1 부분, 우측 채널의 제 1 부분에 적어도 기초하여, 적어도 중간 채널의 제 2 부분 및 사이드 채널의 제 2 부분을 생성하는 것을 포함한다. 방법 (500) 은 또한, 제 2 프레임이 디코딩 동작들에 사용불가능한 것에 응답하여, 중간 채널 제 2 부분, 사이드 채널의 제 2 부분, 및 스테레오 파라미터의 제 3 값에 기초하여, 좌측 채널의 제 2 부분 및 우측 채널의 제 2 부분을 생성하는 것을 포함한다. 스테레오 파라미터의 제 3 값은 적어도 스테레오 파라미터의 제 1 값, 스테레오 파라미터의 보간된 값, 및 코딩 모드에 기초한다.
따라서, 방법 (500) 은 디코더 (118) 가 스테레오 파라미터들 또는 선행 프레임들로부터의 스테레오 파라미터들의 변동에 기초하여 스테레오 파라미터 (예를 들어, 쉬프트 값) 를 근사화하게 할 수도 있다. 예를 들어, 디코더 (118) 는 하나 이상의 선행 프레임의 스테레오 파라미터로부터 송신 동안 손실되는 프레임들 (예를 들어, 제 2 프레임 (192)) 에 대한 스테레오 파라미터를 외삽할 수도 있다.
도 5b 를 참조하면, 신호를 디코딩하는 또 다른 방법 (550) 이 도시된다. 일부 구현들에서, 도 5b 의 방법 (550) 은 도 5a 의 오디오 신호를 디코딩하는 방법 (500) 의 보다 상세한 버전이다. 방법 (550) 은 도 1 의 제 2 디바이스 (106), 도 1 및 도 2 의 디코더 (118), 또는 이들 양자에 의해 수행될 수도 있다.
방법 (550) 은 552 에서, 디코더에서, 인코더로부터 비트스트림의 적어도 부분을 수신하는 것을 포함한다. 비트스트림은 제 1 프레임 및 제 2 프레임을 포함한다. 제 1 프레임은 중간 채널의 제 1 부분 및 스테레오 파라미터의 제 1 값을 포함하고, 제 2 프레임은 중간 채널의 제 2 부분 및 스테레오 파라미터의 제 2 값을 포함한다. 예를 들어, 도 1 을 참조하면, 제 2 디바이스 (106) 는 인코더 (114) 로부터 비트스트림 (160) 의 부분을 수신할 수도 있다. 비트스트림은 제 1 프레임 (190) 및 제 2 프레임 (192) 을 포함한다. 제 1 프레임 (190) 은 중간 채널의 제 1 부분 (191), 제 1 양자화된 쉬프트 값 (181) 및 제 1 양자화된 스테레오 파라미터 (183) 를 포함한다. 제 1 프레임 (192) 은 중간 채널의 제 2 부분 (193), 제 2 양자화된 쉬프트 값 (185) 및 제 2 양자화된 스테레오 파라미터 (187) 를 포함한다.
방법 (550) 은 또한, 554 에서, 중간 채널의 제 1 부분을 디코딩하여 디코딩된 중간 채널의 제 1 부분을 생성하는 것을 포함한다. 예를 들어, 도 2 를 참조하여, 중간 채널 디코더 (202) 는 디코딩된 중간 채널의 제 1 부분 (170) 을 생성하기 위해 중간 채널의 제 1 부분 (191) 을 디코딩할 수도 있다. 방법 (550) 은 또한, 556 에서, 디코딩된 중간 채널의 제 1 부분에 변환 동작을 수행하여 디코딩된 주파수 도메인 중간 채널의 제 1 부분을 생성하는 것을 포함할 수도 있다. 예를 들어, 도 2 를 참조하여, 변환 유닛 (204) 은 디코딩된 중간 채널의 제 1 부분 (170) 에 변환 동작을 수행하여, 주파수 도메인 디코딩된 중간 채널의 제 1 부분 (171) 을 생성할 수도 있다.
방법 (550) 은 또한, 558 에서, 디코딩된 주파수 도메인 중간 채널의 제 1 부분을 업믹싱하여 좌측 주파수 도메인 채널의 제 1 부분 및 우측 주파수 도메인 채널의 제 1 부분을 생성하는 것을 포함할 수도 있다. 예를 들어, 도 1 를 참조하여, 업믹서 (206) 는 주파수 도메인 디코딩된 중간 채널의 제 1 부분 (171) 을 업믹싱하여 주파수 도메인 채널 (250) 및 주파수 도메인 채널 (254) 을 생성할 수도 있다. 본 명세서에 설명된 바와 같이, 주파수 도메인 채널 (250) 은 좌측 채널일 수도 있고, 주파수 도메인 채널 (254) 은 우측 채널일 수도 있다. 그러나, 다른 구현들에서, 주파수 도메인 채널 (250) 은 우측 채널일 수도 있고, 주파수 도메인 채널 (254) 은 좌측 채널일 수도 있다.
방법 (550) 은 또한, 560 에서, 좌측 주파수 도메인 채널의 제 1 부분 및 스테레오 파라미터의 제 1 값에 적어도 기초하여 좌측 채널의 제 1 부분을 생성하는 것을 포함할 수도 있다. 예를 들어, 업믹서 (206) 는 제 1 양자화된 스테레오 파라미터 (183) 를 사용하여 주파수 도메인 채널 (250) 을 생성할 수도 있다. 역변환 유닛 (210) 은 주파수 도메인 채널 (250) 에 역변환 동작을 수행하여 시간 도메인 채널 (260) 을 생성할 수도 있고, 쉬프터 (214) 는 시간 도메인 채널 (260) 을 제 1 출력 신호 (126) (예를 들어, 방법 (550) 에 따른 좌측 채널의 제 1 부분) 로서 통과시킬 수도 있다.
방법 (550) 은 또한, 562 에서, 우측 주파수 도메인 채널의 제 1 부분 및 스테레오 파라미터의 제 1 값에 적어도 기초하여 우측 채널의 제 1 부분을 생성하는 것을 포함할 수도 있다. 예를 들어, 업믹서 (206) 는 제 1 양자화된 스테레오 파라미터 (183) 를 사용하여 주파수 도메인 채널 (254) 을 생성할 수도 있다. 역변환 유닛 (212) 은 주파수 도메인 채널 (254) 에 역변환 동작을 수행하여 시간 도메인 채널 (264) 을 생성할 수도 있고, 쉬프터 (214) 는 시간 도메인 채널 (264) 을 제 1 출력 신호 (128) (예를 들어, 방법 (550) 에 따른 좌측 채널의 제 1 부분) 로서 통과시킬 수도 있다.
방법 (550) 은 또한, 564 에서, 제 2 프레임이 디코딩 동작들에 사용불가능하다고 결정하는 것을 포함한다. 예를 들어, 디코더 (118) 는 제 2 프레임 (192) 의 하나 이상의 부분이 디코딩 동작들에 사용불가능하다고 결정할 수도 있다. 예시하기 위해, 제 2 양자화된 쉬프트 값 (185) 및 제 2 양자화된 스테레오 파라미터 (187) 는 열악한 송신 조건으로 인해 (제 1 디바이스 (104) 로부터 제 2 디바이스 (106) 로) 송신에서 손실될 수도 있다. 방법 (550) 은 또한, 566 에서, 스테레오 파라미터의 제 1 값에 적어도 기초하여, 제 2 프레임이 사용불가능하다고 결정하는 것에 응답하여 좌측 채널의 제 2 부분 및 우측 채널의 제 2 부분을 생성하는 것을 포함한다. 좌측 채널의 제 2 부분 및 우측 채널의 제 2 부분은 제 2 프레임의 디코딩된 버전에 대응할 수도 있다.
예를 들어, 스테레오 파라미터 보간기 (208) 는 제 1 양자화된 주파수 도메인 쉬프트 값 (281) 에 기초하여 제 2 양자화된 쉬프트 값 (185) 을 보간 (또는 추정) 할 수도 있다. 예시를 위해, 스테레오 파라미터 보간기 (208) 는 제 1 양자화된 주파수 도메인 쉬프트 값 (281) 에 기초하여 제 2 보간된 주파수 도메인 쉬프트 값 (285) 을 생성할 수도 있다. 제 2 스테레오 파라미터 (208) 는 또한, 제 1 양자화된 스테레오 파라미터 (183) 에 기초하여 제 2 양자화된 스테레오 파라미터 (187) 를 보간 (또는 추정) 할 수도 있다. 예를 들어, 스테레오 파라미터 보간기 (208) 는 제 1 양자화된 주파수 스테레오 파라미터 (183) 에 기초하여 제 2 보간된 스테레오 파라미터 (287) 를 생성할 수도 있다.
업믹서 (206) 는 주파수 도메인 디코딩된 중간 채널 (173) 을 업믹싱하여 주파수 도메인 채널 (252) 및 주파수 도메인 채널 (256) 을 생성할 수도 있다. 업믹서 (206) 는 업믹스 동작 동안 주파수 도메인 디코딩된 중간 채널 (173) 에 제 2 보간된 스테레오 파라미터 (287) 를 적용하여 주파수 도메인 채널 (252, 256) 을 생성할 수도 있다. 제 1 양자화된 쉬프트 값 (181) 이 주파수 도메인 쉬프트를 포함하는 (예를 들어, 제 1 양자화된 쉬프트 값 (181) 이 제 1 양자화된 주파수 도메인 쉬프트 값 (281) 에 대응하는) 구현에 따르면, 업믹서 (206) 는 제 2 보간된 주파수 도메인 쉬프트 값 (285) 에 기초한 주파수 도메인 쉬프트 (예를 들어, 위상 쉬프트) 를 수행하여 주파수 도메인 채널 (256) 을 생성할 수도 있다.
역변환 유닛 (210) 은 주파수 도메인 채널 (252) 에 역변환 동작을 수행하여 시간 도메인 채널 (262) 을 생성할 수도 있고, 역변환 유닛 (212) 은 주파수 도메인 채널 (256) 에 역변환 동작을 수행하여 시간 도메인 채널 (266) 을 생성할 수도 있다. 쉬프트 값 보간기 (216) 는 제 1 양자화된 시간 도메인 쉬프트 값 (291) 에 기초하여 제 2 양자화된 쉬프트 값 (185) 을 보간 (또는 추정) 할 수도 있다. 예를 들어, 쉬프트 값 보간기 (216) 는 제 1 양자화된 시간 도메인 쉬프트 값 (291) 에 기초하여 제 2 보간된 시간 도메인 쉬프트 값 (295) 을 생성할 수도 있다. 제 1 양자화된 쉬프트 값 (181) 이 제 1 양자화된 주파수 도메인 쉬프트 값 (281) 에 대응하는 구현에 따르면, 쉬프터 (214) 는 쉬프트 동작들을 바이패스하고, 시간 도메인 채널 (262, 266) 을 각각 출력 신호들 (126, 128) 로서 통과시킬 수도 있다. 제 1 양자화된 쉬프트 값 (181) 이 제 1 양자화된 시간 도메인 쉬프트 값 (291) 에 대응하는 구현에 따르면, 쉬프터 (214) 는 시간 도메인 채널 (266) 을 제 2 보간된 시간 도메인 쉬프트 값 (295) 만큼 쉬프트하여 제 2 출력 신호 (128) 를 생성할 수도 있다.
따라서, 방법 (550) 은 하나 이상의 선행 프레임의 스테레오 파라미터들에 기초하여 송신 동안 손실되는 프레임들 (예를 들어, 제 2 프레임 (192)) 에 대한 스테레오 파라미터를 보간 (또는 추정) 하게 할 수도 있다.
도 6 를 참조하면, 디바이스 (예컨대, 무선 통신 디바이스) 의 특정한 예시적인 예의 블록도가 도시되고 일반적으로 600 으로 지정된다. 다양한 구현들에 있어서, 디바이스 (600) 는 도 6 에 예시된 것들보다 더 적거나 더 많은 컴포넌트들을 가질 수도 있다. 예시적인 구현에서, 디바이스 (600) 는 도 1 의 제 1 디바이스 (104), 도 1 의 제 2 디바이스 (106), 또는 이들의 조합에 대응할 수도 있다. 예시적인 구현에 있어서, 디바이스 (600) 는 도 1 내지 도 3, 도 4a, 도 4b, 도 5a, 및 도 5b 의 시스템들 및 방법들을 참조하여 설명된 하나 이상의 동작들을 수행할 수도 있다.
특정 구현에 있어서, 디바이스 (600) 는 프로세서 (606) (예컨대, 중앙 프로세싱 유닛 (CPU)) 를 포함한다. 디바이스 (600) 는 하나 이상의 추가의 프로세서들 (610) (예컨대, 하나 이상의 디지털 신호 프로세서들 (DSP들)) 을 포함할 수도 있다. 프로세서들 (610) 은 미디어 (예를 들어, 음성 및 음악) 코더-디코더 (코덱) (608), 및 에코 상쇄기 (612) 를 포함할 수도 있다. 미디어 코덱 (608) 은 디코더 (118), 인코더 (114), 또는 이들의 조합을 포함할 수도 있다.
디바이스 (600) 는 메모리 (153) 및 코덱 (634) 을 포함할 수도 있다. 미디어 코덱 (608) 은 프로세서들 (610) 의 컴포넌트 (예를 들어, 전용 회로부 및/또는 실행가능 프로그래밍 코드) 로서 예시되지만, 다른 실시형태들에서 미디어 코덱 (608) 의 하나 이상의 컴포넌트들, 이를 테면 디코더 (118), 인코더 (114), 또는 이들의 조합은, 프로세서 (606), 코덱 (634), 다른 프로세싱 컴포넌트, 또는 이들의 조합에 포함될 수도 있다.
디바이스 (600) 는 안테나 (642) 에 커플링된 송신기 (110) 를 포함할 수도 있다. 디바이스 (600) 는 디스플레이 제어기 (626) 에 커플링된 디스플레이 (628) 를 포함할 수도 있다. 하나 이상의 스피커들 (648) 이 코덱 (634) 에 커플링될 수도 있다. 하나 이상의 마이크로폰들 (646) 은, 입력 인터페이스(들) (112) 를 통해 코덱 (634) 에 커플링될 수도 있다. 특정 구현에서, 스피커들 (648) 은 도 1 의 제 1 라우드스피커 (142), 제 2 라우드스피커 (144), 또는 이들의 조합을 포함할 수도 있다. 특정 구현에서, 마이크로폰들 (646) 은 도 1 의 제 1 마이크로폰 (146), 제 2 마이크로폰 (148), 또는 이들의 조합을 포함할 수도 있다. 코덱 (634) 은 디지털-아날로그 컨버터 (DAC; 602) 및 아날로그-디지털 컨버터 (ADC; 604) 를 포함할 수도 있다.
메모리 (153) 는 도 1 내지 도 3, 도 4a, 도 4b, 도 5a, 및 도 5b 를 참조하여 설명된 하나 이상의 동작들을 수행하기 위해 프로세서 (606), 프로세서들 (610), 코덱 (634), 디바이스 (600) 의 다른 프로세싱 유닛, 또는 이들의 조합에 의해 실행가능한 명령들 (660) 을 포함할 수도 있다. 명령들 (660) 은 프로세서 (예를 들어, 프로세서 (606), 프로세서 (606), 코덱 (634), 디코더 (118), 디바이스 (600) 의 다른 프로세싱 유닛, 또는 이들의 조합) 가 도 4a 의 방법 (400), 도 4b 의 방법 (450), 도 5a 의 방법 (500), 도 5b 의 방법 (550), 또는 이들의 조합을 수행하게 한다.
디바이스 (600) 의 하나 이상의 컴포넌트들은 전용 하드웨어 (예컨대, 회로부) 를 통해, 하나 이상의 태스크들을 수행하기 위한 명령들을 실행하는 프로세서에 의해, 또는 이들의 조합에 의해 구현될 수도 있다. 예로서, 메모리 (153) 또는 프로세서 (606), 프로세서들 (610), 및/또는 코덱 (634) 중 하나 이상의 컴포넌트들은 랜덤 액세스 메모리 (RAM), 자기저항 랜덤 액세스 메모리 (MRAM), 스핀-토크 전달 MRAM (STT-MRAM), 플래시 메모리, 판독 전용 메모리 (ROM), 프로그래밍가능 판독 전용 메모리 (PROM), 소거가능한 프로그래밍가능 판독 전용 메모리 (EPROM), 전기적으로 소거가능한 프로그래밍가능 판독 전용 메모리 (EEPROM), 레지스터들, 하드 디스크, 착탈가능 디스크, 또는 콤팩트 디스크 판독 전용 메모리 (CD-ROM) 와 같은 메모리 디바이스일 수도 있다. 메모리 디바이스는, 컴퓨터 (예를 들어, 코덱 (634) 내의 프로세서, 프로세서 (606), 및/또는 프로세서들 (610)) 에 의해 실행될 때, 컴퓨터로 하여금, 도 1 내지 도 3, 도 4a, 도 4b, 도 5a, 및 도 5b 를 참조하여 설명된 하나 이상의 동작들을 수행하게 할 수도 있는 명령들 (예를 들어, 명령들 (660)) 을 포함할 수도 있다. 예로서, 메모리 (153) 또는 프로세서 (606), 프로세서들 (610), 및/또는 코덱 (634) 중 하나 이상의 컴포넌트들은, 컴퓨터 (예를 들어, 코덱 (634) 내의 프로세서, 프로세서 (606), 및/또는 프로세서들 (610)) 에 의해 실행될 때, 컴퓨터로 하여금, 도 1 내지 도 3, 도 4a, 도 4b, 도 5a, 및 도 5b 를 참조하여 설명된 하나 이상의 동작들을 수행하게 할 수도 있는 명령들 (예를 들어, 명령들 (660)) 을 포함하는 비일시적 컴퓨터 판독가능 매체일 수도 있다.
특정 구현에 있어서, 디바이스 (600) 는 시스템-인-패키지 또는 시스템-온-칩 디바이스 (예컨대, 이동국 모뎀 (MSM)) (622) 에 포함될 수도 있다. 특정 실시형태에서, 프로세서 (606), 프로세서들 (610), 디스플레이 제어기 (626), 메모리 (153), 코덱 (634), 및 송신기 (110) 가 시스템-인-패키지 또는 시스템-온-칩 디바이스 (622) 에 포함된다. 특정 구현에 있어서, 터치스크린 및/또는 키패드와 같은 입력 디바이스 (630) 및 전력 공급부 (644) 가 시스템-온-칩 디바이스 (622) 에 커플링된다. 더욱이, 특정 구현에 있어서, 도 6 에 도시된 바와 같이, 디스플레이 (628), 입력 디바이스 (630), 스피커 (648), 마이크로폰 (646), 안테나 (642), 및 전원 (644) 은 시스템-온-칩 디바이스 (622) 외부에 있다. 그러나, 디스플레이 (628), 입력 디바이스 (630), 스피커들 (648), 마이크로폰들 (646), 안테나 (642), 및 전력 공급기 (644) 의 각각은 인터페이스 또는 제어기와 같은, 시스템-온-칩 디바이스 (622) 의 컴포넌트에 커플링될 수 있다.
디바이스 (600) 는 무선 전화기, 모바일 통신 디바이스, 모바일 폰, 스마트 폰, 셀룰러 폰, 랩톱 컴퓨터, 데스크톱 컴퓨터, 컴퓨터, 태블릿 컴퓨터, 셋톱 박스, 개인 디지털 보조기 (PDA), 디스플레이 디바이스, 텔레비전, 게이밍 콘솔, 뮤직 플레이어, 무선기기, 비디오 플레이어, 엔터테인먼트 유닛, 통신 디바이스, 고정 위치 데이터 유닛, 개인 미디어 플레이어, 디지털 비디오 플레이어, 디지털 비디오 디스크 (DVD) 플레이어, 튜너, 카메라, 네비게이션 디바이스, 디코더 시스템, 인코더 시스템, 또는 이들의 임의의 조합을 포함할 수도 있다.
특정 구현에서, 본 명세서에서 개시된 시스템들 및 디바이스들의 하나 이상의 컴포넌트들은 디코딩 시스템 또는 장치 (예를 들어, 전자 디바이스, 코덱, 또는 그 내부의 프로세서) 에, 인코딩 시스템 또는 장치에, 또는 양자 모두에 통합될 수도 있다. 다른 구현들에서, 본 명세서에서 개시된 시스템들 및 디바이스들의 하나 이상의 컴포넌트들은 무선 전화기, 태블릿 컴퓨터, 데스크톱 컴퓨터, 랩톱 컴퓨터, 셋톱 박스, 뮤직 플레이어, 비디오 플레이어, 엔터테인먼트 유닛, 텔레비전, 게임 콘솔, 네비게이션 디바이스, 통신 디바이스, 개인 디지털 보조기 (PDA), 고정 위치 데이터 유닛, 개인 미디어 플레이어, 또는 다른 타입의 디바이스에 통합될 수도 있다.
본 명세서에 설명된 기술들과 함께, 제 1 장치는 비트스트림을 수신하는 수단을 포함한다. 비트스트림은 중간 채널 및 인코더와 연관된 레퍼런스 채널과 인코더와 연관된 타겟 채널 간의 쉬프트를 표현하는 양자화된 값을 포함한다. 양자화된 값은 쉬프트의 값에 기초한다. 그 값은 인코더와 연관되며 양자화된 값보다 정밀도가 크다. 예를 들어, 비트스트림을 수신하는 수단은 도 1 의 제 2 디바이스 (106), 제 2 디바이스 (106) 의 수신기 (비도시), 도 1, 도 2, 또는 도 6 의 디코더 (118), 도 6 의 안테나 (642), 하나 이상의 다른 회로, 디바이스, 컴포넌트들은, 모듈들 또는 이들의 조합을 포함할 수도 있다.
제 1 장치는 또한, 중간 채널을 디코딩하여 디코딩된 중간 채널을 생성하는 수단을 포함할 수도 있다. 예를 들어, 중간 채널 디코딩하는 수단은 도 1, 도 2, 또는 도 6 의 디코더 (118), 도 2 의 중간 채널 디코더 (202), 도 6 의 프로세서 (606), 도 6 의 프로세서 (610), 도 6 의 코덱 (634), 프로세서, 하나 이상의 다른 회로, 디바이스, 컴포넌트들, 모듈들, 또는 이들의 조합에 의해 실행가능한 도 6 의 명령들 (660) 을 포함할 수도 있다.
제 1 장치는 또한, 디코딩된 중간 채널에 기초하여 제 1 채널을 생성하는 수단을 포함할 수도 있다. 제 1 채널은 레퍼런스 채널에 대응한다. 예를 들어, 제 1 채널을 생성하는 수단은 도 1, 도 2, 또는 도 6 의 디코더 (118), 도 2 의 역변환 유닛 (210), 도 2 의 쉬프터 (214), 도 6 의 프로세서 (606), 도 6 의 프로세서 (610), 도 6 의 코덱 (634), 프로세서, 하나 이상의 다른 회로, 디바이스, 컴포넌트들, 모듈들, 또는 이들의 조합에 의해 실행가능한 도 6 의 명령들 (660) 을 포함할 수도 있다.
제 1 장치는 또한, 디코딩된 중간 채널 및 양자화된 값에 기초하여 제 2 채널을 생성하는 수단을 포함할 수도 있다. 제 2 채널은 타겟 채널에 대응한다. 제 2 채널을 생성하는 수단은 도 1, 도 2, 또는 도 6 의 디코더 (118), 도 2 의 역변환 유닛 (212), 도 2 의 쉬프터 (214), 도 6 의 프로세서 (606), 도 6 의 프로세서 (610), 도 6 의 코덱 (634), 프로세서, 하나 이상의 다른 회로, 디바이스, 컴포넌트들, 모듈들, 또는 이들의 조합에 의해 실행가능한 도 6 의 명령들 (660) 을 포함할 수도 있다.
본 명세서에 설명된 기술들과 함께, 제 2 장치는 인코더로부터 비트스트림을 수신하는 수단을 포함한다. 비트스트림은 인코더와 연관된 레퍼런스 채널과 인코더와 연관된 타겟 채널 간의 쉬프트를 표현하는 양자화된 값 및 중간 채널을 포함할 수도 있다. 양자화된 값은 양자화된 값보다 큰 정밀도를 가지는 쉬프트의 값에 기초할 수도 있다. 예를 들어, 비트스트림을 수신하는 수단은 도 1 의 제 2 디바이스 (106), 제 2 디바이스 (106) 의 수신기 (비도시), 도 1, 도 2, 또는 도 6 의 디코더 (118), 도 6 의 안테나 (642), 하나 이상의 다른 회로, 디바이스, 컴포넌트들은, 모듈들 또는 이들의 조합을 포함할 수도 있다.
제 2 장치는 또한, 중간 채널을 디코딩하여 디코딩된 중간 채널을 생성하는 수단을 포함할 수도 있다. 예를 들어, 중간 채널 디코딩하는 수단은 도 1, 도 2, 또는 도 6 의 디코더 (118), 도 2 의 중간 채널 디코더 (202), 도 6 의 프로세서 (606), 도 6 의 프로세서 (610), 도 6 의 코덱 (634), 프로세서, 하나 이상의 다른 회로, 디바이스, 컴포넌트들, 모듈들, 또는 이들의 조합에 의해 실행가능한 도 6 의 명령들 (660) 을 포함할 수도 있다.
제 2 장치는 또한, 디코딩된 중간 채널에 변환 동작을 수행하여 디코딩된 주파수 도메인 중간 채널을 생성하는 수단을 포함할 수도 있다. 예를 들어, 변환 동작을 수행하는 수단은 도 1, 도 2, 또는 도 6 의 디코더 (118), 도 2 의 변환 유닛 (204), 도 6 의 프로세서 (606), 도 6 의 프로세서 (610), 도 6 의 코덱 (634), 프로세서, 하나 이상의 다른 회로, 디바이스, 컴포넌트들, 모듈들, 또는 이들의 조합에 의해 실행가능한 도 6 의 명령들 (660) 을 포함할 수도 있다.
제 2 장치는 또한, 디코딩된 주파수 도메인 중간 채널을 업믹싱하여 제 1 주파수 도메인 채널 및 제 2 주파수 도메인 채널을 생성하는 수단을 포함할 수도 있다. 예를 들어, 업믹싱하는 수단은 도 1, 도 2, 또는 도 6 의 디코더 (118), 도 2 의 업믹서 유닛 (206), 도 6 의 프로세서 (606), 도 6 의 프로세서 (610), 도 6 의 코덱 (634), 프로세서, 하나 이상의 다른 회로, 디바이스, 컴포넌트들, 모듈들, 또는 이들의 조합에 의해 실행가능한 도 6 의 명령들 (660) 을 포함할 수도 있다.
제 2 장치는 또한, 제 1 주파수 도메인 채널에 기초하여 제 1 채널을 생성하는 수단을 포함할 수도 있다. 제 1 채널은 레퍼런스 채널에 대응할 수도 있다. 예를 들어, 제 1 채널을 생성하는 수단은 도 1, 도 2, 또는 도 6 의 디코더 (118), 도 2 의 역변환 유닛 (210), 도 2 의 쉬프터 (214), 도 6 의 프로세서 (606), 도 6 의 프로세서 (610), 도 6 의 코덱 (634), 프로세서, 하나 이상의 다른 회로, 디바이스, 컴포넌트들, 모듈들, 또는 이들의 조합에 의해 실행가능한 도 6 의 명령들 (660) 을 포함할 수도 있다.
제 2 장치는 또한, 제 2 주파수 도메인 채널에 기초하여 제 2 채널을 생성하는 수단을 포함할 수도 있다. 제 2 채널은 타겟 채널에 대응할 수도 있다. 양자화된 값이 주파수 도메인 쉬프트에 대응하면, 제 2 주파수 도메인 채널은 양자화된 값만큼 주파수 도메인에서 쉬프트될 수도 있다. 양자화된 값이 시간 도메인 쉬프트에 대응하는 경우, 제 2 주파수 도메인 채널의 시간 도메인 버전은 양자화된 값만큼 쉬프트될 수도 있다. 제 2 채널을 생성하는 수단은 도 1, 도 2, 또는 도 6 의 디코더 (118), 도 2 의 역변환 유닛 (212), 도 2 의 쉬프터 (214), 도 6 의 프로세서 (606), 도 6 의 프로세서 (610), 도 6 의 코덱 (634), 프로세서, 하나 이상의 다른 회로, 디바이스, 컴포넌트들, 모듈들, 또는 이들의 조합에 의해 실행가능한 도 6 의 명령들 (660) 을 포함할 수도 있다.
본 명세서에 설명된 기술들과 함께, 제 3 장치는 비트스트림의 적어도 부분을 수신하는 수단을 포함한다. 비트스트림은 제 1 프레임 및 제 2 프레임을 포함한다. 제 1 프레임은 중간 채널의 제 1 부분 및 스테레오 파라미터의 제 1 값을 포함하고, 제 2 프레임은 중간 채널의 제 2 부분 및 스테레오 파라미터의 제 2 값을 포함한다. 수신하는 수단은 도 1 의 제 2 디바이스 (106), 제 2 디바이스 (106) 의 수신기 (비도시), 도 1, 도 2, 또는 도 6 의 디코더 (118), 도 6 의 안테나 (642), 하나 이상의 다른 회로, 디바이스, 컴포넌트들은, 모듈들 또는 이들의 조합을 포함할 수도 있다.
제 3 장치는 또한 중간 채널의 제 1 부분을 디코딩하여 디코딩된 중간 채널의 제 1 부분을 생성하는 수단을 포함할 수도 있다. 예를 들어, 디코딩하는 수단은 도 1, 도 2, 또는 도 6 의 디코더 (118), 도 2 의 중간 채널 디코더 (202), 도 6 의 프로세서 (606), 도 6 의 프로세서 (610), 도 6 의 코덱 (634), 프로세서, 하나 이상의 다른 회로, 디바이스, 컴포넌트들, 모듈들, 또는 이들의 조합에 의해 실행가능한 도 6 의 명령들 (660) 을 포함할 수도 있다.
제 3 장치는 또한, 디코딩된 중간 채널의 제 1 부분 및 스테레오 파라미터의 제 1 값에 적어도 기초하여 좌측 채널의 제 1 부분을 생성하는 수단을 포함할 수도 있다. 예를 들어, 좌측 채널의 제 1 부분을 생성하는 수단은 도 1, 도 2, 또는 도 6 의 디코더 (118), 도 2 의 역변환 유닛 (210), 도 2 의 쉬프터 (214), 도 6 의 프로세서 (606), 도 6 의 프로세서 (610), 도 6 의 코덱 (634), 프로세서, 하나 이상의 다른 회로, 디바이스, 컴포넌트들, 모듈들, 또는 이들의 조합에 의해 실행가능한 도 6 의 명령들 (660) 을 포함할 수도 있다.
제 3 장치는 또한, 디코딩된 중간 채널의 제 1 부분 및 스테레오 파라미터의 제 1 값에 적어도 기초하여 좌측 채널의 제 1 부분을 생성하는 수단을 포함할 수도 있다. 예를 들어, 우측 채널의 제 1 부분을 생성하는 수단은 도 1, 도 2, 또는 도 6 의 디코더 (118), 도 2 의 역변환 유닛 (212), 도 2 의 쉬프터 (214), 도 6 의 프로세서 (606), 도 6 의 프로세서 (610), 도 6 의 코덱 (634), 프로세서, 하나 이상의 다른 회로, 디바이스, 컴포넌트들, 모듈들, 또는 이들의 조합에 의해 실행가능한 도 6 의 명령들 (660) 을 포함할 수도 있다.
제 3 장치는 또한, 제 2 프레임이 디코딩 동작들에 사용불가능한 것에 응답하여, 스테레오 파라미터의 제 1 값에 적어도 기초하여 좌측 채널의 제 2 부분 및 우측 채널의 제 2 부분을 생성하는 수단을 포함할 수도 있다. 좌측 채널의 제 2 부분 및 우측 채널의 제 2 부분은 제 2 프레임의 디코딩된 버전에 대응한다. 좌측 채널의 제 2 부분 및 우측 채널의 제 2 부분을 생성하는 수단은 도 1, 도 2, 또는 도 6 의 디코더 (118), 도 2 의 스테레오 쉬프트 값 보간기 (216), 도 2 의 스테레오 파라미터 보간기 (208), 도 2 의 쉬프터 (214), 도 6 의 프로세서 (606), 도 6 의 프로세서 (610), 도 6 의 코덱 (634), 프로세서, 하나 이상의 다른 회로, 디바이스, 컴포넌트들, 모듈들, 또는 이들의 조합에 의해 실행가능한 도 6 의 명령들 (660) 을 포함할 수도 있다.
본 명세서에 설명된 기술들과 함께, 제 4 장치는 인코더로부터 비트스트림의 적어도 부분을 수신하는 수단을 포함한다. 비트스트림은 제 1 프레임 및 제 2 프레임을 포함할 수도 있다. 제 1 프레임은 중간 채널의 제 1 부분 및 스테레오 파라미터의 제 1 값을 포함할 수도 있고, 제 2 프레임은 중간 채널의 제 2 부분 및 스테레오 파라미터의 제 2 값을 포함할 수도 있다. 수신하는 수단은 도 1 의 제 2 디바이스 (106), 제 2 디바이스 (106) 의 수신기 (비도시), 도 1, 도 2, 또는 도 6 의 디코더 (118), 도 6 의 안테나 (642), 하나 이상의 다른 회로, 디바이스, 컴포넌트들은, 모듈들 또는 이들의 조합을 포함할 수도 있다.
제 4 장치는 또한 중간 채널의 제 1 부분을 디코딩하여 디코딩된 중간 채널의 제 1 부분을 생성하는 수단을 포함할 수도 있다. 예를 들어, 중간 채널의 제 1 부분을 디코딩하는 수단은 도 1, 도 2, 또는 도 6 의 디코더 (118), 도 2 의 중간 채널 디코더 (202), 도 6 의 프로세서 (606), 도 6 의 프로세서 (610), 도 6 의 코덱 (634), 프로세서, 하나 이상의 다른 회로, 디바이스, 컴포넌트들, 모듈들, 또는 이들의 조합에 의해 실행가능한 도 6 의 명령들 (660) 을 포함할 수도 있다.
제 4 장치는 또한, 디코딩된 중간 채널의 제 1 부분에 변환 동작을 수행하여 디코딩된 주파수 도메인 중간 채널의 제 1 부분을 생성하는 수단을 포함할 수도 있다. 예를 들어, 변환 동작을 수행하는 수단은 도 1, 도 2, 또는 도 6 의 디코더 (118), 도 2 의 변환 유닛 (204), 도 6 의 프로세서 (606), 도 6 의 프로세서 (610), 도 6 의 코덱 (634), 프로세서, 하나 이상의 다른 회로, 디바이스, 컴포넌트들, 모듈들, 또는 이들의 조합에 의해 실행가능한 도 6 의 명령들 (660) 을 포함할 수도 있다.
제 4 장치는 또한, 디코딩된 주파수 도메인 중간 채널의 제 1 부분을 업믹싱하여 좌측 주파수 도메인 채널의 제 1 부분 및 우측 주파수 도메인 채널의 제 1 부분을 생성하는 수단을 포함할 수도 있다. 예를 들어, 업믹싱하는 수단은 도 1, 도 2, 또는 도 6 의 디코더 (118), 도 2 의 업믹서 유닛 (206), 도 6 의 프로세서 (606), 도 6 의 프로세서 (610), 도 6 의 코덱 (634), 프로세서, 하나 이상의 다른 회로, 디바이스, 컴포넌트들, 모듈들, 또는 이들의 조합에 의해 실행가능한 도 6 의 명령들 (660) 을 포함할 수도 있다.
제 4 장치는 또한, 좌측 주파수 도메인 채널의 제 1 부분 및 스테레오 파라미터의 제 1 값에 적어도 기초하여 좌측 채널의 제 1 부분을 생성하는 수단을 포함할 수도 있다. 예를 들어, 좌측 채널의 제 1 부분을 생성하는 수단은 도 1, 도 2, 또는 도 6 의 디코더 (118), 도 2 의 역변환 유닛 (210), 도 2 의 쉬프터 (214), 도 6 의 프로세서 (606), 도 6 의 프로세서 (610), 도 6 의 코덱 (634), 프로세서, 하나 이상의 다른 회로, 디바이스, 컴포넌트들, 모듈들, 또는 이들의 조합에 의해 실행가능한 도 6 의 명령들 (660) 을 포함할 수도 있다.
제 4 장치는 또한, 우측 주파수 도메인 채널의 제 1 부분 및 스테레오 파라미터의 제 1 값에 적어도 기초하여 우측 채널의 제 1 부분을 생성하는 수단을 포함할 수도 있다. 예를 들어, 우측 채널의 제 1 부분을 생성하는 수단은 도 1, 도 2, 또는 도 6 의 디코더 (118), 도 2 의 역변환 유닛 (212), 도 2 의 쉬프터 (214), 도 6 의 프로세서 (606), 도 6 의 프로세서 (610), 도 6 의 코덱 (634), 프로세서, 하나 이상의 다른 회로, 디바이스, 컴포넌트들, 모듈들, 또는 이들의 조합에 의해 실행가능한 도 6 의 명령들 (660) 을 포함할 수도 있다.
제 4 장치는 또한, 스테레오 파라미터의 제 1 값에 적어도 기초하여, 제 2 프레임이 사용불가능하다고 결정하는 것에 응답하여 좌측 채널의 제 2 부분 및 우측 채널의 제 2 부분을 생성하는 수단을 포함할 수도 있다. 좌측 채널의 제 2 부분 및 우측 채널의 제 2 부분은 제 2 프레임의 디코딩된 버전에 대응할 수도 있다. 좌측 채널의 제 2 부분 및 우측 채널의 제 2 부분을 생성하는 수단은 도 1, 도 2, 또는 도 6 의 디코더 (118), 도 2 의 스테레오 쉬프트 값 보간기 (216), 도 2 의 스테레오 파라미터 보간기 (208), 도 2 의 쉬프터 (214), 도 6 의 프로세서 (606), 도 6 의 프로세서 (610), 도 6 의 코덱 (634), 프로세서, 하나 이상의 다른 회로, 디바이스, 컴포넌트들, 모듈들, 또는 이들의 조합에 의해 실행가능한 도 6 의 명령들 (660) 을 포함할 수도 있다.
본 명세서에서 개시된 시스템들 및 디바이스들의 하나 이상의 컴포넌트들에 의해 수행된 다양한 기능들은 소정의 컴포넌트들 또는 모듈들에 의해 수행되는 것으로서 설명됨에 유의해야 한다. 컴포넌트들 및 모듈들의 이러한 분할은 단지 예시를 위한 것이다. 대안의 구현에서, 특정 컴포넌트 또는 모듈에 의해 수행된 기능은 다중 컴포넌트들 또는 모듈들 중에서 분할될 수도 있다. 더욱이, 다른 대안의 구현에서, 2 개 이상의 컴포넌트들 또는 모듈들은 단일 컴포넌트 또는 모듈에 통합될 수도 있다. 각각의 컴포넌트 또는 모듈은 하드웨어 (예를 들어, 필드 프로그래밍가능 게이트 어레이 (FPGA) 디바이스, 주문형 집적 회로 (ASIC), DSP, 제어기, 등), 소프트웨어 (예를 들어, 프로세서에 의해 실행가능한 명령들), 또는 이들의 임의의 조합을 사용하여 구현될 수도 있다.
도 7 을 참조하여, 기지국 (700) 의 특정 예시적인 예의 블록 다이어그램이 도시된다. 다양한 구현들에서, 기지국 (700) 은 도 7 에 도시된 것보다 더 많은 컴포넌트들 또는 더 적은 컴포넌트들을 가질 수도 있다. 예시적인 예에서, 기지국 (700) 은 도 1 의 제 2 디바이스 (106) 를 포함할 수도 있다. 예시적인 예에 있어서, 기지국 (700) 은 도 1 내지 도 3, 도 4a, 도 4b, 도 5a, 도 5b, 및 도 6 을 참조하여 설명된 방법들 또는 시스템들 중 하나 이상에 따라 동작할 수도 있다.
기지국 (700) 은 무선 통신 시스템의 부분일 수도 있다. 무선 통신 시스템은 다중 기지국들 및 다중 무선 디바이스들을 포함할 수도 있다. 무선 통신 시스템은 롱 텀 에볼루션 (LTE) 시스템, 코드 분할 다중 액세스 (CDMA) 시스템, 모바일 통신용 글로벌 시스템 (GSM) 시스템, 무선 로컬 영역 네트워크 (WLAN) 시스템, 또는 일부 다른 무선 시스템일 수도 있다. CDMA 시스템은 광대역 CDMA (WCDMA), CDMA 1X, EVDO (Evolution-Data Optimzed), 시분할 동기 CDMA (TD-SCDMA), 또는 CDMA 의 일부 다른 버전을 구현할 수도 있다.
무선 디바이스들은 또한, 사용자 장비 (UE), 이동국, 단말기, 액세스 단말기, 가입자 유닛, 스테이션 등으로 지칭될 수도 있다. 무선 디바이스들은 셀룰러 폰, 스마트폰, 태블릿, 무선 모뎀, 개인 디지털 보조기 (PDA), 핸드헬드 디바이스, 랩톱 컴퓨터, 스마트북, 넷북, 태블릿, 코드리스 폰, 무선 로컬 루프 (WLL) 스테이션, 블루투스 디바이스 등을 포함할 수도 있다. 무선 디바이스들은 도 6 의 디바이스 (600) 를 포함하거나 또는 그에 대응할 수도 있다.
메시지들 및 데이터 (예를 들어, 오디오 데이터) 를 전송 및 수신하는 것과 같이, 다양한 기능들이 기지국 (700) 의 하나 이상의 컴포넌트들에 의해 (및/또는 도시되지 않은 다른 컴포넌트들에서) 수행될 수도 있다. 특정 예에서, 기지국 (700) 은 프로세서 (706) (예를 들어, CPU) 를 포함한다. 기지국 (700) 은 트랜스코더 (710) 를 포함할 수도 있다. 트랜스코더 (710) 는 오디오 코덱 (708) 을 포함할 수도 있다. 예를 들어, 트랜스코더 (710) 는 오디오 CODEC (708) 의 동작들을 수행하도록 구성된 하나 이상의 컴포넌트들 (예컨대, 회로) 를 포함할 수도 있다. 다른 예로서, 트랜스 코더 (710) 는 오디오 코덱 (708) 의 동작들을 수행하기 위해 하나 이상의 컴퓨터 판독가능 명령들을 실행하도록 구성될 수도 있다. 오디오 코덱 (708) 은 트랜스코더 (710) 의 컴포넌트로서 도시되지만, 다른 예들에서 오디오 코덱 (708) 의 하나 이상의 컴포넌트들은 프로세서 (706), 다른 프로세싱 컴포넌트, 또는 이들의 조합에 포함될 수도 있다. 예를 들어, 디코더 (738) (예를 들어, 보코더 디코더) 는 수신기 데이터 프로세서 (764) 에 포함될 수도 있다. 다른 예로서, 인코더 (736) (예를 들어, 보코더 인코더) 는 송신 데이터 프로세서 (782) 에 포함될 수도 있다. 인코더 (736) 는 도 1 의 인코더 (114) 를 포함할 수도 있다. 디코더 (738) 는 도 1 의 디코더 (118) 를 포함할 수도 있다.
트랜스코더 (710) 는 2 개 이상의 네트워크들 간의 메시지들 및 데이터를 트랜스코딩하도록 기능할 수도 있다. 트랜스코더 (710) 는 제 1 포맷 (예컨대, 디지털 포맷) 으로부터 제 2 포맷으로 메세지 및 오디오 데이터를 컨버팅하도록 구성될 수도 있다. 예시를 위해, 디코더 (738) 는 제 1 포맷을 갖는 인코딩된 신호들을 디코딩할 수도 있고, 인코더 (736) 는 디코딩된 신호들을 제 2 포맷을 갖는 인코딩된 신호들로 인코딩할 수도 있다. 부가적으로 또는 대안적으로, 트랜스코더 (710) 는 데이터 레이트 적응을 수행하도록 구성될 수도 있다. 예를 들어, 트랜스코더 (710) 는 오디오 데이터의 포맷을 변경하는 일없이 데이터 레이트를 다운-컨버팅하거나 또는 데이터 레이트를 업-컨버팅할 수도 있다. 예시하기 위하여, 트랜스코더 (710) 는 64 kbit/s 신호들을 16 kbit/s 신호들로 다운-컨버팅할 수도 있다.
기지국 (700) 은 메모리 (732) 를 포함할 수도 있다. 컴퓨터 판독가능 저장 디바이스와 같은 메모리 (732) 는 명령들을 포함할 수도 있다. 명령들은, 도 1 내지 도 3, 도 4a, 도 4b, 도 5a, 도 5b, 도 6 의 방법들 및 시스템들을 참조하여 설명된 하나 이상의 동작들을 수행하기 위해 프로세서 (706), 트랜스코더 (710), 또는 이들의 조합에 의해 실행가능한 하나 이상의 명령들을 포함할 수도 있다.
기지국 (700) 은 안테나들의 어레이에 커플링된 다수의 송신기들 및 수신기들 (예를 들어, 트랜시버들), 예컨대 제 1 트랜시버 (752) 및 제 2 트랜시버 (754) 를 포함할 수도 있다. 안테나들의 어레이는 제 1 안테나 (742) 및 제 2 안테나 (744) 를 포함할 수도 있다. 안테나들의 어레이는 도 6 의 디바이스 (600) 와 같은, 하나 이상의 무선 디바이스들과 무선으로 통신하도록 구성될 수도 있다. 예를 들어, 제 2 안테나 (744) 는 무선 디바이스로부터 데이터 스트림 (714) (예를 들어, 비트 스트림) 을 수신할 수도 있다. 데이터 스트림 (714) 은 메시지, 데이터 (예를 들어, 인코딩된 음성 데이터), 또는 이들의 조합을 포함할 수도 있다.
기지국 (700) 은 백홀 접속과 같은 네트워크 접속 (760) 을 포함할 수도 있다. 네트워크 접속 (760) 은 코어 네트워크 또는 무선 통신 네트워크의 하나 이상의 기지국들과 통신하도록 구성될 수도 있다. 예를 들어, 기지국 (700) 은 네트워크 접속 (760) 을 통해 코어 네트워크로부터 제 2 데이터 스트림 (예를 들어, 메시지들 또는 오디오 데이터) 을 수신할 수도 있다. 기지국 (700) 은 메시지들 또는 오디오 데이터를 생성하고 메시지들 또는 오디오 데이터를 안테나들의 어레이의 하나 이상의 안테나들을 통해 하나 이상의 무선 디바이스에 또는 네트워크 접속 (760) 을 통해 다른 기지국에 제공하도록 제 2 데이터 스트림을 프로세싱할 수도 있다. 특정 구현에서, 네트워크 접속 (760) 은 예시적인, 비한정적인 예로서, 광대역 네트워크 (WAN) 접속일 수도 있다. 일부 구현들에서, 코어 네트워크는 공중 스위칭된 전화 네트워크 (PSTN), 패킷 백본 네트워크, 또는 양자 모두를 포함하거나 또는 이들에 대응할 수도 있다.
기지국 (700) 은 네트워크 접속 (760) 및 프로세서 (706) 에 커플링되는 미디어 게이트웨이 (770) 를 포함한다. 미디어 게이트웨이 (770) 는 상이한 원격송신 기술들의 미디어 스트림들 간에 컨버팅하도록 구성될 수도 있다. 예를 들어, 미디어 게이트웨이 (770) 는 상이한 송신 프로토콜들, 상이한 코딩 방식들, 또는 이들 양자 간에 컨버팅할 수도 있다. 예시하기 위해, 미디어 게이트웨이 (770) 는, 예시적인, 비한정적 예로서, PCM 신호들로부터 실시간 전송 프로토콜 (RTP) 신호들로 컨버팅할 수도 있다. 미디어 게이트웨이 (770) 는 패킷 스위칭된 네트워크들 (예를 들어, VoIP (Voice Over Internet Protocol) 네트워크, IP 멀티미디어 서브시스템 (IMS), 제 4 세대 (4G) 무선 네트워크, 예컨대 LTE, WiMax, 및 UMB, 등), 회선 교환 네트워크들 (예를 들어, PSTN), 및 하이브리드 네트워크들 (예를 들어, 제 2 세대 (2G) 무선 네트워크, 예컨대 GSM, GPRS, 및 EDGE, 제 3 세대 (3G) 무선 네트워크, 예컨대 WCDMA, EV-DO, 및 HSPA, 등) 사이에서 데이터를 컨버팅할 수도 있다.
부가적으로, 미디어 게이트에이 (770) 는 트랜스코더 (710) 와 같은 트랜스코더를 포함할 수도 있고, 코덱들이 호환불가능할 경우 데이터를 트랜스코딩하도록 구성될 수도 있다. 예를 들어, 미디어 게이트웨이 (770) 는 예시적이고 비-제한적인 예로서, AMR (Adaptive Multi-Rate) 코덱과 G.711 코덱 사이에서 트랜스코딩할 수도 있다. 미디어 게이트웨이 (770) 는 라우터 및 복수의 물리적 인터페이스들을 포함할 수도 있다. 일부 구현들에서, 미디어 게이트웨이 (770) 는 또한, 제어기 (미도시) 를 포함할 수도 있다. 특정 구현에서, 미디어 게이트웨이 제어기는 미디어 게이트웨이 (770) 의 외부, 기지국 (700) 의 외부, 또는 양자 모두에 있을 수도 있다. 미디어 게이트웨이 제어기는 다중 미디어 게이트웨이들의 동작들을 제어 및 조정할 수도 있다. 미디어 게이트웨이 (770) 는 미디어 게이트웨이 제어기로부터 제어 신호들을 수신할 수도 있고 상이한 송신 기술들 간에 브리지하도록 기능할 수도 있으며 최종 사용자 능력들 및 접속들에 서비스를 부가할 수도 있다.
기지국 (700) 은 트랜시버들 (752, 754), 수신기 데이터 프로세서 (764), 및 프로세서 (706) 에 커플링되는 복조기 (762) 를 포함할 수도 있으며, 수신기 데이터 프로세서 (764) 는 프로세서 (706) 에 커플링될 수도 있다. 복조기 (762) 는 트랜시버들 (752, 754) 로부터 수신된 변조 신호들을 복조하고, 복조 된 데이터를 수신기 데이터 프로세서 (764) 에 제공하도록 구성될 수도 있다. 수신기 데이터 프로세서 (764) 는 복조된 데이터로부터 메시지 또는 오디오 데이터를 추출하고 메시지 또는 오디오 데이터를 프로세서 (706) 에 전송하도록 구성될 수도 있다.
기지국 (700) 은 송신 데이터 프로세서 (782) 및 송신 다중입력-다중출력 (MIMO) 프로세서 (784) 를 포함할 수도 있다. 송신 데이터 프로세서 (782) 는 프로세서 (706) 및 송신 MIMO 프로세서 (784) 에 커플링될 수도 있다. 송신 MIMO 프로세서 (784) 는 트랜시버들 (752, 754) 및 프로세서 (706) 에 커플링될 수도 있다. 일부 구현들에서, 송신 MIMO 프로세서 (784) 는 미디어 게이트웨이 (770) 에 커플링될 수도 있다. 송신 데이터 프로세서 (782) 는 프로세서 (706) 로부터 메시지들 또는 오디오 데이터를 수신하고, 예시적이고 비-제한적인 예들로서, CDMA 또는 직교 주파수 분할 멀티플렉싱 (OFDM) 과 같은 코딩 방식에 기초하여 메시지들 또는 오디오 데이터를 코딩하도록 구성될 수도 있다. 송신 데이터 프로세서 (782) 는 코딩된 데이터를 송신 MIMO 프로세서 (784) 에 제공할 수도 있다.
코딩된 데이터는 멀티플렉싱된 데이터를 생성하기 위해 CDMA 또는 OFDM 기법들을 이용하여 파일럿 데이터와 같은 다른 데이터와 멀티플렉싱될 수도 있다. 그 후, 멀티플렉싱된 데이터는 변조 심볼들을 생성하기 위해 특정 변조 방식 (예컨대, 바이너리 위상 쉬프트 키잉 ("BPSK"), 쿼드러처 위상 쉬프트 키잉 ("QPSK"), M진 위상 쉬프트 키잉 ("M-PSK"), M진 쿼드러처 진폭 변조 ("M-QAM") 등) 에 기초하여 송신 데이터 프로세서 (782) 에 의해 변조 (즉, 심볼 맵핑) 될 수도 있다. 특정 구현에 있어서, 코딩된 데이터 및 다른 데이터는 상이한 변조 방식들을 사용하여 변조될 수도 있다. 각각의 데이터 스트림에 대한 코드 레이트, 코딩, 및 변조는 프로세서 (706) 에 의해 실행된 명령들에 의해 결정될 수도 있다.
송신 MIMO 프로세서 (784) 는 송신 데이터 프로세서 (782) 로부터 변조 심볼들을 수신하도록 구성될 수도 있고, 변조 심볼들을 추가로 프로세싱할 수도 있으며, 데이터에 빔형성을 수행할 수도 있다. 예를 들어, 송신 MIMO 프로세서 (784) 는 빔 형성 가중치들을 변조 심볼들에 적용할 수도 있다.
동작 동안, 기지국 (700) 의 제 2 안테나 (744) 는 데이터 스트림 (714) 을 수신할 수도 있다. 제 2 트랜시버 (754) 는 제 2 안테나 (744) 로부터 데이터 스트림 (714) 을 수신할 수도 있고, 데이터 스트림 (714) 을 복조기 (762) 에 제공할 수도 있다. 복조기 (762) 는 데이터 스트림 (714) 의 변조된 신호들을 복조하고, 복조된 데이터를 수신기 데이터 프로세서 (764) 에 제공할 수도 있다. 수신기 데이터 프로세서 (764) 는 복조된 데이터로부터 오디오 데이터를 추출하고, 추출된 오디오 데이터를 프로세서 (706) 에 제공할 수도 있다.
프로세서 (706) 는 트랜스코딩을 위해 트랜스코더 (710) 에 오디오 데이터를 제공할 수도 있다. 트랜스코더 (710) 의 디코더 (738) 는 제 1 포맷으로부터의 오디오 데이터를 디코딩된 오디오 데이터로 디코딩할 수 있고, 인코더 (736) 는 디코딩된 오디오 데이터를 제 2 포맷으로 인코딩할 수도 있다. 일부 구현들에 있어서, 인코더 (736) 는 무선 디바이스로부터 수신된 것보다 더 높은 데이터 레이트 (예를 들어, 업-컨버팅) 또는 더 낮은 데이터 레이트 (예를 들어, 다운-컨버팅) 를 이용하여 오디오 데이터를 인코딩할 수도 있다. 다른 구현들에서, 오디오 데이터는 트랜스코딩되지 않을 수도 있다. 트랜스코딩 (예를 들어, 디코딩 및 인코딩) 이 트랜스코더 (710) 에 의해 수행되는 것으로 도시되지만, 트랜스코딩 동작들 (예를 들어, 디코딩 및 인코딩) 은 기지국 (700) 의 다수의 컴포넌트들에 의해 수행될 수도 있다. 예를 들어, 디코딩은 수신기 데이터 프로세서 (764) 에 의해 수행될 수도 있고 인코딩은 송신 데이터 프로세서 (782) 에 의해 수행될 수도 있다. 다른 구현들에서, 프로세서 (706) 는 다른 송신 프로토콜, 코딩 스킴, 또는 양자 모두로의 컨버전을 위해 미디어 게이트웨이 (770) 에 오디오 데이터를 제공할 수도 있다. 미디어 게이트웨이 (770) 는 네트워크 접속 (760) 을 통해 다른 기지국 또는 코어 네트워크에 컨버팅된 데이터를 제공할 수도 있다.
인코더 (736) 에서 생성된 인코딩된 오디오 데이터는 프로세서 (706) 를 통해 송신 데이터 프로세서 (782) 또는 네트워크 접속부 (760) 에 제공될 수도 있다. 트랜스코더 (710) 로부터의 트랜스코딩된 오디오 데이터는 OFDM 과 같은 변조 방식에 따라 코딩을 위해 송신 데이터 프로세서 (782) 에 제공되어 변조 심볼을 생성할 수도 있다. 송신 데이터 프로세서 (782) 는 추가 프로세싱 및 빔포밍을 위해 송신 MIMO 프로세서 (784) 에 변조 심볼들을 제공할 수도 있다. 송신 MIMO 프로세서 (784) 는 빔포밍 가중치들을 적용할 수도 있고 제 1 트랜시버 (752) 를 통해 제 1 안테나 (742) 와 같은 안테나들의 어레이 중의 하나 이상의 안테나들에 변조 심볼들을 제공할 수도 있다. 따라서, 기지국 (700) 은 무선 디바이스로부터 수신된 데이터 스트림 (714) 에 대응하는 트랜스코딩된 데이터 스트림 (716) 을, 다른 무선 디바이스에 제공할 수도 있다. 트랜스코딩된 데이터 스트림 (716) 은 데이터 스트림 (714) 과는 상이한 인코딩 포맷, 데이터 레이트, 또는 양자 모두를 가질 수도 있다. 다른 구현들에서, 트랜스코딩된 데이터 스트림 (716) 은 다른 기지국 또는 코어 네트워크로의 송신을 위해 네트워크 접속 (760) 에 제공될 수도 있다.
당업자는 본 명세서에 개시된 구현들과 관련하여 설명된 다양한 예시적인 논리 블록들, 구성들, 모듈들, 회로들, 및 알고리즘 단계들이 전자 하드웨어, 하드웨어 프로세서와 같은 프로세싱 디바이스에 의해 실행되는 컴퓨터 소프트웨어, 또는 이들 양자 모두의 조합들로서 구현될 수도 있음을 추가로 인식할 것이다. 다양한 예시적인 컴포넌트들, 블록들, 구성들, 모듈들, 회로들 및 단계들이 일반적으로 그들의 기능의 관점에서 상기 기술되었다. 그러한 기능이 하드웨어로서 구현될지 또는 실행가능 소프트웨어로서 구현될지는 전체 시스템에 부과된 설계 제약들 및 특정 어플리케이션에 의존한다. 당업자는 설명된 기능을 각각의 특정 어플리케이션에 대하여 다양한 방식들로 구현할 수도 있지만, 그러한 구현의 결정들이 본 개시의 범위로부터의 일탈을 야기하는 것으로서 해석되지는 않아야 한다.
본 명세서에 개시된 구현들과 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어에서, 프로세서에 의해 실행되는 소프트웨어 모듈에서, 또는 이들 양자의 조합에서 직접 구현될 수도 있다. 소프트웨어 모듈은 랜덤 액세스 메모리 (RAM), 자기저항 랜덤 액세스 메모리 (MRAM), 스핀-토크 전달 MRAM (STT-MRAM), 플래시 메모리, 판독 전용 메모리 (ROM), 프로그래밍가능 판독 전용 메모리 (PROM), 소거가능한 프로그래밍가능 판독 전용 메모리 (EPROM), 전기적으로 소거가능한 프로그래밍가능 판독 전용 메모리 (EEPROM), 레지스터들, 하드 디스크, 착탈가능 디스크, 또는 컴팩트 디스크 판독 전용 메모리 (CD-ROM) 와 같은 메모리 디바이스에 상주할 수도 있다. 예시적인 메모리 디바이스는, 프로세서가 메모리 디바이스로부터 정보를 판독할 수 있고 메모리 디바이스에 정보를 기입할 수 있도록 프로세서에 커플링된다. 대안적으로, 메모리 디바이스는 프로세서에 통합될 수도 있다. 프로세서 및 저장 매체는 주문형 집적 회로 (ASIC) 에 상주할 수도 있다. ASIC 은 컴퓨팅 디바이스 또는 사용자 단말기에 상주할 수도 있다. 대안으로, 프로세서 및 저장 매체는 컴퓨팅 디바이스 또는 사용자 단말기에 별개의 컴포넌트들로서 상주할 수도 있다.
개시된 구현들의 이전의 설명은 당업자로 하여금 개시된 구현들을 제조 또는 이용할 수 있도록 제공된다. 이들 구현들에 대한 다양한 수정들은 당업자에게 용이하게 자명할 것이며, 본 명세서에서 정의된 원리들은 본 개시의 범위로부터 일탈함 없이 다른 구현들에 적용될 수도 있다. 따라서, 본 개시는 본 명세서에서 나타낸 구현들로 한정되도록 의도되지 않으며, 다음의 청구항들에 의해 정의된 바와 같은 원리들 및 신규한 특징들과 부합하는 가능한 최광의 범위를 부여받아야 한다.

Claims (30)

  1. 장치로서,
    비트스트림의 적어도 부분을 수신하도록 구성된 수신기로서, 상기 비트스트림은 제 1 프레임 및 제 2 프레임을 포함하고, 상기 제 1 프레임은 중간 채널의 제 1 부분 및 제 1 양자화된 스테레오 파라미터를 포함하고, 상기 제 2 프레임은 상기 중간 채널의 제 2 부분 및 제 2 양자화된 스테레오 파라미터를 포함하는, 상기 수신기; 및
    디코더를 포함하며,
    상기 디코더는,
    상기 중간 채널의 상기 제 1 부분 및 상기 제 1 양자화된 스테레오 파라미터에 적어도 기초하여 채널의 제 1 부분을 생성하고,
    상기 제 2 프레임이 디코딩 동작들에 사용불가능한 것에 응답하여, 하나 이상의 선행하는 프레임들의 스테레오 파라미터들에 기초하여 상기 제 2 양자화된 스테레오 파라미터를 추정하며, 그리고
    추정된 상기 제 2 양자화된 스테레오 파라미터에 적어도 기초하여 상기 채널의 제 2 부분을 생성하는 것으로서, 상기 채널의 상기 제 2 부분은 상기 제 2 프레임의 디코딩된 버전에 대응하는, 상기 채널의 상기 제 2 부분을 생성하도록
    구성되는, 장치.
  2. 제 1 항에 있어서,
    상기 하나 이상의 선행하는 프레임들의 상기 스테레오 파라미터들은 상기 제 1 양자화된 스테레오 파라미터를 포함하는, 장치.
  3. 제 2 항에 있어서,
    상기 디코더는, 상기 제 1 양자화된 스테레오 파라미터를 보간함으로써 상기 제 2 양자화된 스테레오 파라미터를 추정하도록 구성되는, 장치.
  4. 제 2 항에 있어서,
    상기 디코더는, 상기 제 1 양자화된 스테레오 파라미터를 외삽함으로써 상기 제 2 양자화된 스테레오 파라미터를 추정하도록 구성되는, 장치.
  5. 제 1 항에 있어서,
    상기 디코더는 추가로,
    상기 중간 채널의 상기 제 1 부분을 디코딩하여 디코딩된 중간 채널의 제 1 부분을 생성하고,
    상기 디코딩된 중간 채널의 상기 제 1 부분에 변환 동작을 수행하여 디코딩된 주파수 도메인 중간 채널의 제 1 부분을 생성하고,
    상기 제 1 양자화된 스테레오 파라미터에 기초하여 상기 디코딩된 주파수 도메인 중간 채널의 상기 제 1 부분을 업믹싱하여 좌측 주파수 도메인 채널의 제 1 부분 및 우측 주파수 도메인 채널의 제 1 부분을 생성하고,
    상기 좌측 주파수 도메인 채널의 상기 제 1 부분에 제 1 시간 도메인 동작을 수행하여 좌측 채널의 제 1 부분을 생성하며, 그리고
    상기 우측 주파수 도메인 채널의 상기 제 1 부분에 제 2 시간 도메인 동작을 수행하여 우측 채널의 제 1 부분을 생성하도록
    구성되며, 상기 채널의 상기 제 1 부분은 상기 좌측 채널의 상기 제 1 부분 또는 상기 우측 채널의 상기 제 1 부분을 포함하는, 장치.
  6. 제 5 항에 있어서,
    상기 제 2 프레임이 상기 디코딩 동작들에 사용불가능한 것에 응답하여, 상기 디코더는,
    상기 하나 이상의 선행하는 프레임들의 상기 스테레오 파라미터들에 적어도 기초하여 상기 중간 채널의 상기 제 2 부분 및 사이드 채널의 제 2 부분을 생성하고,
    상기 중간 채널의 상기 제 2 부분에 제 2 변환 동작을 수행하여 상기 디코딩된 주파수 도메인 중간 채널의 제 2 부분을 생성하고,
    상기 디코딩된 주파수 도메인 중간 채널의 상기 제 2 부분을 업믹싱하여 상기 좌측 주파수 도메인 채널의 제 2 부분 및 상기 우측 주파수 도메인 채널의 제 2 부분을 생성하고,
    상기 좌측 주파수 도메인 채널의 상기 제 2 부분에 제 3 시간 도메인 동작을 수행하여 상기 좌측 채널의 제 2 부분을 생성하며, 그리고
    상기 우측 주파수 도메인 채널의 상기 제 2 부분에 제 4 시간 도메인 동작을 수행하여 상기 우측 채널의 제 2 부분을 생성하도록
    구성되며, 상기 채널의 상기 제 2 부분은 상기 좌측 채널의 상기 제 2 부분 및 상기 우측 채널의 상기 제 2 부분을 포함하는, 장치.
  7. 제 6 항에 있어서,
    추정된 상기 제 2 양자화된 스테레오 파라미터는 상기 디코딩된 주파수 도메인 중간 채널의 상기 제 2 부분을 업믹싱하는데 사용되는, 장치.
  8. 제 6 항에 있어서,
    상기 디코더는 상기 디코딩된 중간 채널의 상기 제 1 부분에 보간 동작을 수행하여 상기 디코딩된 중간 채널의 상기 제 2 부분을 생성하도록 구성되는, 장치.
  9. 제 1 항에 있어서,
    상기 제 1 양자화된 스테레오 파라미터는, 인코더와 연관된 레퍼런스 채널과 상기 인코더와 연관된 타겟 채널 간의 쉬프트를 표현하는 양자화된 값이고, 상기 양자화된 값은 상기 쉬프트의 값에 기초하고, 상기 쉬프트의 상기 값은 상기 인코더와 연관되고 상기 양자화된 값보다 큰 정밀도를 가지는, 장치.
  10. 제 1 항에 있어서,
    상기 제 1 양자화된 스테레오 파라미터는 제 1 스테레오 파라미터보다 낮은 분해능을 가지고, 상기 제 2 양자화된 스테레오 파라미터는 제 2 스테레오 파라미터보다 낮은 분해능을 가지는, 장치.
  11. 제 10 항에 있어서,
    상기 제 1 스테레오 파라미터 및 상기 제 2 스테레오 파라미터는 채널간 위상차 파라미터 또는 채널간 레벨차 파라미터를 포함하는, 장치.
  12. 제 10 항에 있어서,
    상기 제 1 스테레오 파라미터 및 상기 제 2 스테레오 파라미터는 채널간 시간차 파라미터를 포함하는, 장치.
  13. 제 10 항에 있어서,
    상기 제 1 스테레오 파라미터 및 상기 제 2 스테레오 파라미터는 채널간 상관 파라미터를 포함하는, 장치.
  14. 제 10 항에 있어서,
    상기 제 1 스테레오 파라미터 및 상기 제 2 스테레오 파라미터는 공간 틸트 파라미터를 포함하는, 장치.
  15. 제 10 항에 있어서,
    상기 제 1 스테레오 파라미터 및 상기 제 2 스테레오 파라미터는 채널간 이득 파라미터를 포함하는, 장치.
  16. 제 10 항에 있어서,
    상기 제 1 스테레오 파라미터 및 상기 제 2 스테레오 파라미터는 채널간 보이싱 파라미터를 포함하는, 장치.
  17. 제 10 항에 있어서,
    상기 제 1 스테레오 파라미터 및 상기 제 2 스테레오 파라미터는 채널간 피치 파라미터를 포함하는, 장치.
  18. 제 1 항에 있어서,
    상기 수신기 및 상기 디코더는 모바일 디바이스에 통합되는, 장치.
  19. 제 1 항에 있어서,
    상기 수신기 및 상기 디코더는 기지국에 통합되는, 장치.
  20. 방법으로서,
    디코더에서, 비트스트림의 적어도 부분을 수신하는 단계로서, 상기 비트스트림은 제 1 프레임 및 제 2 프레임을 포함하고, 상기 제 1 프레임은 중간 채널의 제 1 부분 및 제 1 양자화된 스테레오 파라미터를 포함하고, 상기 제 2 프레임은 상기 중간 채널의 제 2 부분 및 제 2 양자화된 스테레오 파라미터를 포함하는, 상기 비트스트림의 적어도 부분을 수신하는 단계;
    상기 중간 채널의 상기 제 1 부분 및 상기 제 1 양자화된 스테레오 파라미터에 적어도 기초하여 채널의 제 1 부분을 생성하는 단계;
    상기 제 2 프레임이 디코딩 동작들에 사용불가능한 것에 응답하여, 하나 이상의 선행하는 프레임들의 스테레오 파라미터들에 기초하여 상기 제 2 양자화된 스테레오 파라미터를 추정하는 단계; 및
    추정된 상기 제 2 양자화된 스테레오 파라미터에 적어도 기초하여 상기 채널의 제 2 부분을 생성하는 단계로서, 상기 채널의 상기 제 2 부분은 상기 제 2 프레임의 디코딩된 버전에 대응하는, 상기 채널의 상기 제 2 부분을 생성하는 단계를 포함하는, 방법.
  21. 제 20 항에 있어서,
    상기 하나 이상의 선행하는 프레임들의 상기 스테레오 파라미터들은 상기 제 1 양자화된 스테레오 파라미터를 포함하는, 방법.
  22. 제 21 항에 있어서,
    상기 제 2 양자화된 스테레오 파라미터를 추정하는 단계는 상기 제 1 양자화된 스테레오 파라미터를 보간하는 단계를 포함하는, 방법.
  23. 제 21 항에 있어서,
    상기 제 2 양자화된 스테레오 파라미터를 추정하는 단계는 상기 제 1 양자화된 스테레오 파라미터를 외삽하는 단계를 포함하는, 방법.
  24. 제 20 항에 있어서,
    상기 중간 채널의 상기 제 1 부분을 디코딩하여 디코딩된 중간 채널의 제 1 부분을 생성하는 단계;
    상기 디코딩된 중간 채널의 상기 제 1 부분에 변환 동작을 수행하여 디코딩된 주파수 도메인 중간 채널의 제 1 부분을 생성하는 단계;
    상기 제 1 양자화된 스테레오 파라미터에 기초하여 상기 디코딩된 주파수 도메인 중간 채널의 상기 제 1 부분을 업믹싱하여 좌측 주파수 도메인 채널의 제 1 부분 및 우측 주파수 도메인 채널의 제 1 부분을 생성하는 단계;
    상기 좌측 주파수 도메인 채널의 상기 제 1 부분에 제 1 시간 도메인 동작을 수행하여 좌측 채널의 제 1 부분을 생성하는 단계; 및
    상기 우측 주파수 도메인 채널의 상기 제 1 부분에 제 2 시간 도메인 동작을 수행하여 우측 채널의 제 1 부분을 생성하는 단계를 더 포함하고,
    상기 채널의 상기 제 1 부분은 상기 좌측 채널의 상기 제 1 부분 또는 상기 우측 채널의 상기 제 1 부분을 포함하는, 방법.
  25. 제 24 항에 있어서,
    상기 제 2 프레임이 상기 디코딩 동작들에 사용불가능한 것에 응답하여,
    상기 하나 이상의 선행하는 프레임들의 상기 스테레오 파라미터들에 적어도 기초하여 상기 중간 채널의 상기 제 2 부분 및 사이드 채널의 제 2 부분을 생성하는 단계;
    상기 중간 채널의 상기 제 2 부분에 제 2 변환 동작을 수행하여 상기 디코딩된 주파수 도메인 중간 채널의 제 2 부분을 생성하는 단계;
    상기 디코딩된 주파수 도메인 중간 채널의 상기 제 2 부분을 업믹싱하여 상기 좌측 주파수 도메인 채널의 제 2 부분 및 상기 우측 주파수 도메인 채널의 제 2 부분을 생성하는 단계;
    상기 좌측 주파수 도메인 채널의 상기 제 2 부분에 제 3 시간 도메인 동작을 수행하여 상기 좌측 채널의 제 2 부분을 생성하는 단계; 및
    상기 우측 주파수 도메인 채널의 상기 제 2 부분에 제 4 시간 도메인 동작을 수행하여 상기 우측 채널의 제 2 부분을 생성하는 단계를 더 포함하고,
    상기 채널의 상기 제 2 부분은 상기 좌측 채널의 상기 제 2 부분 및 상기 우측 채널의 상기 제 2 부분을 포함하는, 방법.
  26. 제 20 항에 있어서,
    상기 중간 채널의 상기 제 1 부분을 디코딩하여 디코딩된 중간 채널의 제 1 부분을 생성하는 단계; 및
    상기 디코딩된 중간 채널의 상기 제 1 부분에 보간 동작을 수행하여 상기 디코딩된 중간 채널의 상기 제 2 부분을 생성하는 단계를 더 포함하는, 방법.
  27. 제 20 항에 있어서,
    상기 제 1 양자화된 스테레오 파라미터는, 인코더와 연관된 레퍼런스 채널과 상기 인코더와 연관된 타겟 채널 간의 쉬프트를 표현하는 양자화된 값이고, 상기 양자화된 값은 상기 쉬프트의 값에 기초하고, 상기 쉬프트의 상기 값은 상기 인코더와 연관되고 상기 양자화된 값보다 큰 정밀도를 가지는, 방법.
  28. 제 20 항에 있어서,
    상기 디코더는 모바일 디바이스에 통합되는, 방법.
  29. 제 20 항에 있어서,
    상기 디코더는 기지국에 통합되는, 방법.
  30. 장치로서,
    비트스트림의 적어도 부분을 수신하는 수단으로서, 상기 비트스트림은 제 1 프레임 및 제 2 프레임을 포함하고, 상기 제 1 프레임은 중간 채널의 제 1 부분 및 제 1 양자화된 스테레오 파라미터를 포함하고, 상기 제 2 프레임은 상기 중간 채널의 제 2 부분 및 제 2 양자화된 스테레오 파라미터를 포함하는, 상기 비트스트림의 적어도 부분을 수신하는 수단;
    상기 중간 채널의 상기 제 1 부분 및 상기 제 1 양자화된 스테레오 파라미터에 적어도 기초하여 채널의 제 1 부분을 생성하는 수단;
    상기 제 2 프레임이 디코딩 동작들에 사용불가능한 것에 응답하여, 하나 이상의 선행하는 프레임들의 스테레오 파라미터들에 기초하여 상기 제 2 양자화된 스테레오 파라미터를 추정하는 수단; 및
    추정된 상기 제 2 양자화된 스테레오 파라미터에 적어도 기초하여 상기 채널의 제 2 부분을 생성하는 수단으로서, 상기 채널의 상기 제 2 부분은 상기 제 2 프레임의 디코딩된 버전에 대응하는, 상기 채널의 상기 제 2 부분을 생성하는 수단을 포함하는, 장치.
KR1020247000286A 2017-05-11 2018-04-27 스테레오 디코딩을 위한 스테레오 파라미터들 KR20240006717A (ko)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
US201762505041P 2017-05-11 2017-05-11
US62/505,041 2017-05-11
US15/962,834 2018-04-25
US15/962,834 US10224045B2 (en) 2017-05-11 2018-04-25 Stereo parameters for stereo decoding
PCT/US2018/029872 WO2018208515A1 (en) 2017-05-11 2018-04-27 Stereo parameters for stereo decoding
KR1020197033240A KR102628065B1 (ko) 2017-05-11 2018-04-27 스테레오 디코딩을 위한 스테레오 파라미터들

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020197033240A Division KR102628065B1 (ko) 2017-05-11 2018-04-27 스테레오 디코딩을 위한 스테레오 파라미터들

Publications (1)

Publication Number Publication Date
KR20240006717A true KR20240006717A (ko) 2024-01-15

Family

ID=64097350

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020247000286A KR20240006717A (ko) 2017-05-11 2018-04-27 스테레오 디코딩을 위한 스테레오 파라미터들
KR1020197033240A KR102628065B1 (ko) 2017-05-11 2018-04-27 스테레오 디코딩을 위한 스테레오 파라미터들

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020197033240A KR102628065B1 (ko) 2017-05-11 2018-04-27 스테레오 디코딩을 위한 스테레오 파라미터들

Country Status (9)

Country Link
US (5) US10224045B2 (ko)
EP (1) EP3622508A1 (ko)
KR (2) KR20240006717A (ko)
CN (2) CN110622242B (ko)
AU (1) AU2018266531C1 (ko)
BR (1) BR112019023204A2 (ko)
SG (1) SG11201909348QA (ko)
TW (3) TWI790230B (ko)
WO (1) WO2018208515A1 (ko)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6611042B2 (ja) * 2015-12-02 2019-11-27 パナソニックIpマネジメント株式会社 音声信号復号装置及び音声信号復号方法
US10224045B2 (en) 2017-05-11 2019-03-05 Qualcomm Incorporated Stereo parameters for stereo decoding
US10475457B2 (en) * 2017-07-03 2019-11-12 Qualcomm Incorporated Time-domain inter-channel prediction
US10957331B2 (en) 2018-12-17 2021-03-23 Microsoft Technology Licensing, Llc Phase reconstruction in a speech decoder
US10847172B2 (en) * 2018-12-17 2020-11-24 Microsoft Technology Licensing, Llc Phase quantization in a speech encoder
EP3928315A4 (en) * 2019-03-14 2022-11-30 Boomcloud 360, Inc. SPATIALLY SENSITIVE MULTIBAND COMPRESSION SYSTEM WITH PRIORITY
CN113676397B (zh) * 2021-08-18 2023-04-18 杭州网易智企科技有限公司 空间位置数据处理方法、装置、存储介质及电子设备

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8209168B2 (en) 2004-06-02 2012-06-26 Panasonic Corporation Stereo decoder that conceals a lost frame in one channel using data from another channel
WO2009084226A1 (ja) 2007-12-28 2009-07-09 Panasonic Corporation ステレオ音声復号装置、ステレオ音声符号化装置、および消失フレーム補償方法
BR122019023924B1 (pt) * 2009-03-17 2021-06-01 Dolby International Ab Sistema codificador, sistema decodificador, método para codificar um sinal estéreo para um sinal de fluxo de bits e método para decodificar um sinal de fluxo de bits para um sinal estéreo
US8666752B2 (en) * 2009-03-18 2014-03-04 Samsung Electronics Co., Ltd. Apparatus and method for encoding and decoding multi-channel signal
US8660851B2 (en) 2009-05-26 2014-02-25 Panasonic Corporation Stereo signal decoding device and stereo signal decoding method
JP5581449B2 (ja) * 2010-08-24 2014-08-27 ドルビー・インターナショナル・アーベー Fmステレオ無線受信機の断続的モノラル受信の隠蔽
KR101748760B1 (ko) * 2011-03-18 2017-06-19 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에.베. 오디오 콘텐츠를 표현하는 비트스트림의 프레임들 내의 프레임 요소 배치
US8654984B2 (en) * 2011-04-26 2014-02-18 Skype Processing stereophonic audio signals
CN102810313B (zh) 2011-06-02 2014-01-01 华为终端有限公司 音频解码方法及装置
JP5775637B2 (ja) * 2011-08-04 2015-09-09 ドルビー・インターナショナル・アーベー パラメトリック・ステレオを使った改善されたfmステレオ電波受信機
WO2013149670A1 (en) * 2012-04-05 2013-10-10 Huawei Technologies Co., Ltd. Method for parametric spatial audio coding and decoding, parametric spatial audio coder and parametric spatial audio decoder
EP3067889A1 (en) * 2015-03-09 2016-09-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Method and apparatus for signal-adaptive transform kernel switching in audio coding
EP3067886A1 (en) * 2015-03-09 2016-09-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder for encoding a multichannel signal and audio decoder for decoding an encoded audio signal
CA2997334A1 (en) * 2015-09-25 2017-03-30 Voiceage Corporation Method and system for encoding left and right channels of a stereo sound signal selecting between two and four sub-frames models depending on the bit budget
US10366695B2 (en) 2017-01-19 2019-07-30 Qualcomm Incorporated Inter-channel phase difference parameter modification
US10224045B2 (en) 2017-05-11 2019-03-05 Qualcomm Incorporated Stereo parameters for stereo decoding

Also Published As

Publication number Publication date
CN116665682A (zh) 2023-08-29
WO2018208515A1 (en) 2018-11-15
US11205436B2 (en) 2021-12-21
KR102628065B1 (ko) 2024-01-22
US20190214028A1 (en) 2019-07-11
US20200335114A1 (en) 2020-10-22
KR20200006978A (ko) 2020-01-21
TW201902236A (zh) 2019-01-01
SG11201909348QA (en) 2019-11-28
US20240161757A1 (en) 2024-05-16
AU2018266531C1 (en) 2023-04-06
TW202315426A (zh) 2023-04-01
TW202315425A (zh) 2023-04-01
CN110622242B (zh) 2023-06-16
US11823689B2 (en) 2023-11-21
TWI790230B (zh) 2023-01-21
AU2018266531A1 (en) 2019-10-31
BR112019023204A2 (pt) 2020-05-19
AU2018266531B2 (en) 2022-08-18
TWI828480B (zh) 2024-01-01
US10224045B2 (en) 2019-03-05
TWI828479B (zh) 2024-01-01
US20220115026A1 (en) 2022-04-14
CN110622242A (zh) 2019-12-27
US10783894B2 (en) 2020-09-22
EP3622508A1 (en) 2020-03-18
US20180330739A1 (en) 2018-11-15

Similar Documents

Publication Publication Date Title
KR102230623B1 (ko) 다중의 오디오 신호들의 인코딩
KR102628065B1 (ko) 스테레오 디코딩을 위한 스테레오 파라미터들
US10885922B2 (en) Time-domain inter-channel prediction
KR102471279B1 (ko) 시간 도메인 채널간 대역폭 확장으로의 고대역 잔차 예측
KR102263550B1 (ko) 다중 오디오 신호들의 코딩
KR102581558B1 (ko) 채널간 위상차 파라미터 수정
KR102208602B1 (ko) 채널간 대역폭 확장

Legal Events

Date Code Title Description
A107 Divisional application of patent