KR102208602B1 - 채널간 대역폭 확장 - Google Patents

채널간 대역폭 확장 Download PDF

Info

Publication number
KR102208602B1
KR102208602B1 KR1020197029291A KR20197029291A KR102208602B1 KR 102208602 B1 KR102208602 B1 KR 102208602B1 KR 1020197029291 A KR1020197029291 A KR 1020197029291A KR 20197029291 A KR20197029291 A KR 20197029291A KR 102208602 B1 KR102208602 B1 KR 102208602B1
Authority
KR
South Korea
Prior art keywords
channel
band
bitstream
gain
parameter
Prior art date
Application number
KR1020197029291A
Other languages
English (en)
Other versions
KR20190134641A (ko
Inventor
벤카타 수브라마니암 찬드라 세카르 체비얌
벤카트라만 아티
Original Assignee
퀄컴 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 퀄컴 인코포레이티드 filed Critical 퀄컴 인코포레이티드
Publication of KR20190134641A publication Critical patent/KR20190134641A/ko
Application granted granted Critical
Publication of KR102208602B1 publication Critical patent/KR102208602B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/06Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/083Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being an excitation gain
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/038Speech enhancement, e.g. noise reduction or echo cancellation using band spreading techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/12Circuits for transducers, loudspeakers or microphones for distributing signals to two or more loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • H04S1/007Two-channel systems in which the audio signals are in digital form
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/03Aspects of down-mixing multi-channel audio to configurations with lower numbers of playback channels, e.g. 7.1 -> 5.1
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/13Aspects of volume control, not necessarily automatic, in stereophonic sound systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/15Aspects of sound capture and related signal processing for recording or reproduction

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Otolaryngology (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Quality & Reliability (AREA)
  • Stereophonic System (AREA)
  • Display Devices Of Pinball Game Machines (AREA)

Abstract

방법은 저대역 중간 채널 비트스트림을 디코딩하여 저대역 중간 신호 및 저대역 중간 여기 신호를 생성하는 것을 포함한다. 방법은 고대역 중간 채널 대역폭 확장 비트스트림을 디코딩하여 합성된 고대역 중간 신호를 생성하는 것을 더 포함한다. 방법은 또한, 합성된 고대역 중간 신호에 대응하는 채널간 대역폭 확장 (ICBWE) 이득 맵핑 파라미터를 결정하는 것을 포함한다. ICBWE 이득 맵핑 파라미터는 스테레오 다운믹스/업믹스 파라미터 비트스트림으로부터 추출되는 선택된 주파수 도메인 이득 파라미터에 기초한다. 방법은 추가로, 레퍼런스 고대역 채널 및 타겟 고대역 채널을 생성하기 위해 ICBWE 이득 맵핑 파라미터에 기초하여 합성된 고대역 중간 신호에 이득 스케일링 동작을 수행하는 것을 포함한다. 방법은 제 1 오디오 채널 및 제 2 오디오 채널을 출력하는 것을 포함한다. 제 1 오디오 채널은 레퍼런스 고대역 채널에 기초하고, 제 2 오디오 채널은 타겟 고대역 채널에 기초한다.

Description

채널간 대역폭 확장
우선권 주장
본 출원은, "INTER-CHANNEL BANDWIDTH EXTENSION" 을 발명의 명칭으로 하여 2017 년 4 월 5 일자로 출원된 공동 소유된 미국 가특허출원 제 62/482,150 호, 및 "INTER-CHANNEL BANDWIDTH EXTENSION" 을 발명의 명칭으로 하여 2018 년 3 월 26 일자로 출원된 미국 정규특허출원 제 15/935,952 호로부터 우선권의 이익을 주장하며, 전술한 출원들의 각각의 내용들은 전부 참조로 본 명세서에 분명히 통합된다.
본 개시는 일반적으로 다중의 오디오 신호들의 인코딩에 관련된다.
기술의 진보는 더 소형이고 더 강력한 컴퓨팅 디바이스들을 발생시켰다. 예를 들어, 소형이고 경량이며 사용자들에 의해 용이하게 휴대되는 모바일 및 스마트 폰들과 같은 무선 전화기들, 태블릿들 및 랩톱 컴퓨터들을 포함하는 다양한 휴대용 개인 컴퓨팅 디바이스들이 현재 존재한다. 이들 디바이스들은 무선 네트워크들을 통해 음성 및 데이터 패킷들을 통신할 수 있다. 게다가, 많은 이러한 디바이스들은 디지털 스틸 카메라, 디지털 비디오 카메라, 디지털 레코더, 및 오디오 파일 플레이어와 같은 추가적인 기능성을 통합한다. 또한, 이러한 디바이스들은, 인터넷에 액세스하는데 사용될 수 있는 웹 브라우저 애플리케이션과 같은 소프트웨어 애플리케이션들을 포함한 실행가능 명령들을 프로세싱할 수 있다. 이로써, 이들 디바이스들은 현저한 컴퓨팅 능력들을 포함할 수 있다.
컴퓨팅 디바이스는 오디오 채널들을 수신하기 위해 다수의 마이크로폰들을 포함할 수도 있다. 예를 들어, 제 1 마이크로폰은 좌측 오디오 채널을 수신 할 수도 있고, 제 2 마이크로폰은 대응하는 우측 오디오 채널을 수신할 수도 있다. 스테레오 인코딩에서, 인코더는 좌측 오디오 채널 및 대응하는 우측 오디오 채널을 주파수 도메인으로 변환하여 좌측 주파수 도메인 채널 및 우측 주파수 도메인 채널을 각각 생성할 수도 있다. 인코더는 주파수 도메인 채널을 다운믹싱하여 중간 채널을 생성할 수도 있다. 역변환이 시간 도메인 중간 채널을 생성하기 위해 중간 채널에 적용될 수도 있고, 저대역 인코더는 인코딩된 저대역 중간 채널을 생성하기 위해 시간 도메인 중간 채널의 저대역 부분을 인코딩할 수도 있다. 중간 채널 대역폭 확장 (BWE) 인코더는 시간 도메인 중간 채널 및 인코딩된 저대역 중간 채널의 여기에 기초하여, 중간 채널 BWE 파라미터 (예를 들어, 선형 예측 계수들 (LPC들), 이득 형상, 이득 프레임, 등) 를 생성할 수도 있다. 인코더는 인코딩된 저대역 중간 채널 및 중간 채널 BWE 파라미터를 포함하는 비트스트림을 생성할 수도 있다.
인코더는 또한, 주파수 도메인 채널 (예를 들어, 좌측 주파수 도메인 채널 및 우측 주파수 도메인 채널) 로부터 스테레오 파라미터 (예를 들어, 이산 푸리에 변환 (DFT) 다운믹스 파라미터) 를 추출할 수도 있다. 스테레오 파라미터는 주파수 도메인 이득 파라미터 (예를 들어, 사이드 이득), 채널간 위상차 (IPD) 파라미터, 채널간 레벨차 (ILD), 분산 확산/이득, 및 채널간 BWE (ICBWE) 이득 맵핑 파라미터를 포함할 수도 있다. 스테레오 파라미터는 또한, 좌측 및 우측 스테레오 채널의 시간 도메인 및/또는 주파수 도메인 분석에 기초하여 추정된 채널간 시간차 (ITD) 를 포함할 수도 있다. 스테레오 파라미터는 비트스트림에 삽입 (예를 들어, 포함 또는 인코딩) 될 수도 있고, 비트스트림은 인코더에서 디코더로 송신될 수도 있다.
일 구현에 따르면, 디바이스는 인코더로부터 비트스트림을 수신하도록 구성된 수신기를 포함한다. 비트스트림은 적어도 저대역 중간 채널 비트스트림, 고대역 중간 채널 대역폭 확장 (BWE) 비트스트림, 및 스테레오 다운믹스/업믹스 파라미터 비트스트림을 포함한다. 디바이스는 또한 저대역 중간 채널 비트스트림을 디코딩하여 저대역 중간 신호 및 저대역 중간 여기 신호를 생성하도록 구성된 디코더를 포함한다. 디코더는 추가로, 고대역 BWE 부분에 대응하는 저대역 중간 여기 신호의 비선형 하모닉 확장을 생성하도록 구성된다. 디코더는 추가로, 적어도 비선형 하모닉 여기 신호 및 고대역 중간 채널 BWE 파라미터들 (예를 들어, 선형 예측 계수들 (LPC들), 이득 형상, 및 이득 프레임 파라미터들) 에 기초하여 고대역 중간 채널 BWE 비트스트림을 디코딩하여 합성된 고대역 중간 신호를 생성하도록 구성된다. 디코더는 또한, 합성된 고대역 중간 신호에 대응하는 채널간 대역폭 확장 (ICBWE) 이득 맵핑 파라미터를 결정하도록 구성된다. ICBWE 이득 맵핑 파라미터는 스테레오 다운믹스/업믹스 파라미터 비트스트림으로부터 추출되는, 선택된 주파수 도메인 (예를 들어, 고대역 BWE 부분에 대응하는 서브 대역 또는 주파수 빈의 그룹) 이득 파라미터에 기초하여 결정 (예를 들어, 예측, 도출, 가이드 또는 맵핑) 된다. 광대역 콘텐츠의 경우, 디코더는 추가로, 레퍼런스 고대역 채널 및 타겟 고대역 채널을 생성하기 위해 ICBWE 이득 맵핑 파라미터에 기초하여 합성된 고대역 중간 신호에 이득 스케일링 동작을 수행하도록 구성된다. 디바이스는 또한 제 1 오디오 채널 및 제 2 오디오 채널을 출력하도록 구성된 하나 이상의 스피커들을 포함한다. 제 1 오디오 채널은 레퍼런스 고대역 채널에 기초하고, 제 2 오디오 채널은 타겟 고대역 채널에 기초한다.
다른 구현에 따르면, 신호를 디코딩하는 방법은 인코더로부터 비트스트림을 수신하는 것을 포함한다. 비트스트림은 적어도 저대역 중간 채널 비트스트림, 고대역 중간 채널 대역폭 확장 (BWE) 비트스트림, 및 스테레오 다운믹스/업믹스 파라미터 비트스트림을 포함한다. 방법은 또한 저대역 중간 채널 비트스트림을 디코딩하여 저대역 중간 신호 및 저대역 중간 여기 신호를 생성하는 것을 포함한다. 방법은 또한, 고대역 BWE 부분에 대응하는 저대역 중간 여기 신호의 비선형 하모닉 확장을 생성하는 것을 포함한다. 방법은 또한, 적어도 비선형 하모닉 여기 신호 및 고대역 중간 채널 BWE 파라미터들 (예를 들어, 선형 예측 계수들 (LPC들), 이득 형상, 및 이득 프레임 파라미터들) 에 기초하여 고대역 중간 채널 BWE 비트스트림을 디코딩하여 합성된 고대역 중간 신호를 생성하는 것을 포함한다. 방법은 또한, 합성된 고대역 중간 신호에 대응하는 채널간 대역폭 확장 (ICBWE) 이득 맵핑 파라미터를 결정하는 것을 포함한다. ICBWE 이득 맵핑 파라미터는 스테레오 다운믹스/업믹스 파라미터 비트스트림으로부터 추출되는, 선택된 주파수 도메인 (예를 들어, 고대역 BWE 부분에 대응하는 서브 대역 또는 주파수 빈의 그룹) 이득 파라미터에 기초하여 결정 (예를 들어, 예측, 도출, 가이드 또는 맵핑) 된다. 방법은 추가로, 레퍼런스 고대역 채널 및 타겟 고대역 채널을 생성하기 위해 ICBWE 이득 맵핑 파라미터에 기초하여 합성된 고대역 중간 신호에 이득 스케일링 동작을 수행하는 것을 포함한다. 방법은 또한, 제 1 오디오 채널 및 제 2 오디오 채널을 출력하는 것을 포함한다. 제 1 오디오 채널은 레퍼런스 고대역 채널에 기초하고, 제 2 오디오 채널은 타겟 고대역 채널에 기초한다.
다른 구현에 따르면, 비일시적 컴퓨터 판독가능 매체는 신호를 디코딩하기 위한 명령들을 포함한다. 명령들은 디코더 내의 프로세서에 의해 실행될 경우, 프로세서로 하여금 인코더로부터 비트스트림을 수신하는 것을 포함하는 동작들을 수행하게 한다. 비트스트림은 적어도 저대역 중간 채널 비트스트림, 고대역 중간 채널 대역폭 확장 (BWE) 비트스트림, 및 스테레오 다운믹스/업믹스 파라미터 비트스트림을 포함한다. 동작들은 또한 저대역 중간 채널 비트스트림을 디코딩하여 저대역 중간 신호 및 저대역 중간 여기 신호를 생성하는 것을 포함한다. 동작들은 또한, 고대역 BWE 부분에 대응하는 저대역 중간 여기 신호의 비선형 하모닉 확장을 생성하는 것을 포함한다. 동작들은 또한, 적어도 비선형 하모닉 여기 신호 및 고대역 중간 채널 BWE 파라미터들 (예를 들어, 선형 예측 계수들 (LPC들), 이득 형상, 및 이득 프레임 파라미터들) 에 기초하여 고대역 중간 채널 BWE 비트스트림을 디코딩하여 합성된 고대역 중간 신호를 생성하는 것을 포함한다. 동작들은 또한, 합성된 고대역 중간 신호에 대응하는 채널간 대역폭 확장 (ICBWE) 이득 맵핑 파라미터를 결정하는 것을 포함한다. ICBWE 이득 맵핑 파라미터는 스테레오 다운믹스/업믹스 파라미터 비트스트림으로부터 추출되는, 선택된 주파수 도메인 (예를 들어, 고대역 BWE 부분에 대응하는 서브 대역 또는 주파수 빈의 그룹) 이득 파라미터에 기초하여 결정 (예를 들어, 예측, 도출, 가이드 또는 맵핑) 된다. 동작들은 추가로, 레퍼런스 고대역 채널 및 타겟 고대역 채널을 생성하기 위해 ICBWE 이득 맵핑 파라미터에 기초하여 합성된 고대역 중간 신호에 이득 스케일링 동작을 수행하는 것을 포함한다. 동작들은 또한, 제 1 오디오 채널 및 제 2 오디오 채널을 출력하는 것을 포함한다. 제 1 오디오 채널은 레퍼런스 고대역 채널에 기초하고, 제 2 오디오 채널은 타겟 고대역 채널에 기초한다.
또 다른 구현에 따르면, 장치는 인코더로부터 비트스트림을 수신하는 수단을 포함한다. 비트스트림은 적어도 저대역 중간 채널 비트스트림, 고대역 중간 채널 대역폭 확장 (BWE) 비트스트림, 및 스테레오 다운믹스/업믹스 파라미터 비트스트림을 포함한다. 장치는 또한 저대역 중간 채널 비트스트림을 디코딩하여 저대역 중간 신호 및 저대역 중간 여기 신호를 생성하는 수단을 포함한다. 장치는 또한, 고대역 BWE 부분에 대응하는 저대역 중간 여기 신호의 비선형 하모닉 확장을 생성하는 수단을 포함한다. 장치는 또한, 적어도 비선형 하모닉 여기 신호 및 고대역 중간 채널 BWE 파라미터들 (예를 들어, 선형 예측 계수들 (LPC들), 이득 형상, 및 이득 프레임 파라미터들) 에 기초하여 고대역 중간 채널 BWE 비트스트림을 디코딩하여 합성된 고대역 중간 신호를 생성하는 수단을 포함한다. 장치는 또한, 합성된 고대역 중간 신호에 대응하는 채널간 대역폭 확장 (ICBWE) 이득 맵핑 파라미터를 결정하는 수단을 포함한다. ICBWE 이득 맵핑 파라미터는 스테레오 다운믹스/업믹스 파라미터 비트스트림으로부터 추출되는, 선택된 주파수 도메인 (예를 들어, 고대역 BWE 부분에 대응하는 서브 대역 또는 주파수 빈의 그룹) 이득 파라미터에 기초하여 결정 (예를 들어, 예측, 도출, 가이드 또는 맵핑) 된다. 장치는 또한, 레퍼런스 고대역 채널 및 타겟 고대역 채널을 생성하기 위해 ICBWE 이득 맵핑 파라미터에 기초하여 합성된 고대역 중간 신호에 이득 스케일링 동작을 수행하는 수단을 포함한다. 장치는 또한, 제 1 오디오 채널 및 제 2 오디오 채널을 출력하는 수단을 포함한다. 제 1 오디오 채널은 레퍼런스 고대역 채널에 기초하고, 제 2 오디오 채널은 타겟 고대역 채널에 기초한다.
본 개시의 다른 구현들, 이점들, 및 특징들은 다음의 섹션들: 즉, 도면의 간단한 설명, 상세한 설명, 및 청구항들을 포함하여 전체 출원의 검토 후 자명하게 될 것이다.
도 1 은 인코더로부터 송신된 주파수 도메인 이득 파라미터에 기초하여 채널간 대역폭 확장 (ICBWE) 맵핑 파라미터를 결정하도록 동작가능한 디코더를 포함하는 시스템의 특정한 예시적인 예의 블록도이다.
도 2 는 도 1 의 인코더를 예시한 도면이다.
도 3 는 도 1 의 디코더를 예시한 도면이다.
도 4 는 인코더로부터 송신된 주파수 도메인 이득 파라미터에 기초하여 ICBWE 맵핑 파라미터를 결정하는 특정 방법을 나타내는 흐름도이다.
도 5 는 인코더로부터 송신된 주파수 도메인 이득 파라미터에 기초하여 ICBWE 맵핑 파라미터를 결정하도록 동작가능한 디바이스의 특정한 예시적인 예의 블록도이다.
도 6 는 인코더로부터 송신된 주파수 도메인 이득 파라미터에 기초하여 ICBWE 맵핑 파라미터를 결정하도록 동작가능한 기지국의 블록도이다.
본 개시의 특정 양태들은 도면들을 참조하여 이하에 설명된다. 설명에서, 공통 피처들은 공통 참조 번호들로 지정된다. 본 명세서에서 사용된 바와 같이, 다양한 용어가 단지 특정 구현들을 설명할 목적으로 사용되고 구현들을 한정하는 것으로 의도되지 않는다. 예를 들어, 단수 형태들 "a", "an", 및 "the" 는, 문맥이 분명히 달리 표시하지 않는 한, 복수 형태들을 물론 포함하도록 의도된다. 용어들 "포함한다 (comprises)" 및 "포함하는 (comprising)" 은 "포함한다 (includes)" 또는 "포함하는 (including)" 과 상호교환가능하게 사용될 수도 있는 것으로 추가로 이해될 수도 있다. 추가적으로, 용어 "여기서 (wherein)" 는 "여기에서 (where)" 와 상호교환가능하게 사용될 수도 있는 것으로 이해될 것이다. 본 명세서에 사용된 바와 같이, 구조, 컴포넌트, 동작 등과 같은 엘리먼트를 수정하는데 사용되는 서수 용어 (예를 들어, "제 1", "제 2", "제 3" 등) 는 그것만으로 그 엘리먼트의 다른 엘리먼트에 대한 어떤 우선순위 또는 순서도 표시하지 않고, 오히려 그 엘리먼트를 (서수 용어의 사용이 없다면) 동일 명칭을 갖는 다른 엘리먼트와 구별할 뿐이다. 본 명세서에서 사용된 바와 같이, 용어 "세트 (set)" 는 특정 엘리먼트의 하나 이상을 지칭하고, 용어 "복수" 는 특정 엘리먼트의 배수 (예를 들어, 2 개 이상) 를 지칭한다.
본 개시에서, "결정하는 것", "계산하는 것", "쉬프트하는 것", "조정하는 것" 등과 같은 용어들은 하나 이상의 동작들이 어떻게 수행되는지를 설명하는데 사용될 수도 있다. 이러한 용어들은 한정하는 것으로서 해석되지 않아야 하고 다른 기법들이 유사한 동작들을 수행하는데 활용될 수도 있음에 유의해야 한다. 추가적으로, 본 명세서에서 언급된 바와 같이, "생성하는 것", "계산하는 것", "사용하는 것", "선택하는 것", "액세스하는 것", "식별하는 것", 및 "결정하는 것" 은 상호교환가능하게 사용될 수도 있다. 예를 들어, 파라미터 (또는 신호) 를 "생성하는 것", "계산하는 것", 또는 "결정하는 것" 은 파라미터 (또는 신호) 를 능동으로 생성하는 것, 계산하는 것, 또는 결정하는 것을 지칭할 수도 있거나 또는 다른 컴포넌트 또는 디바이스에 의해서와 같이, 이미 생성된 파라미터 (또는 신호) 를 사용하는 것, 선택하는 것, 또는 액세스하는 것을 지칭할 수도 있다.
다중의 오디오 신호들을 인코딩하도록 동작가능한 시스템들 및 디바이스들이 개시된다. 디바이스는 다중의 오디오 신호들을 인코딩하도록 구성된 인코더를 포함할 수도 있다. 다중의 오디오 신호들은 다중 레코딩 디바이스들, 예를 들어 다중의 마이크로폰들을 사용하여 시간에 있어서 동시발생적으로 캡처될 수도 있다. 일부 예들에서, 다중의 오디오 신호들 (또는 멀티-채널 오디오) 은 동시에 또는 상이한 시간들에 레코딩되는 여러 오디오 채널들을 멀티플렉싱함으로써 합성적으로 (예를 들어, 인공적으로) 생성될 수도 있다. 예시적인 예들로서, 오디오 채널들의 동시발생적인 레코딩 또는 멀티플렉싱은 2채널 구성 (즉, 스테레오: 좌측 및 우측), 5.1 채널 구성 (좌측, 우측, 중앙, 좌측 서라운드, 우측 서라운드, 및 저주파수 엠퍼시스 (LFE) 채널들), 7.1 채널 구성, 7.1+4 채널 구성, 22.2 채널 구성, 또는 N채널 구성을 발생시킬 수도 있다.
텔레컨퍼런스 룸들 (또는 텔레프레즌스 룸들) 에서의 오디오 캡처 디바이스들은, 공간 오디오를 포착하는 다중의 마이크로폰들을 포함할 수도 있다. 공간 오디오는, 인코딩되고 송신되는 백그라운드 오디오뿐 아니라 스피치를 포함할 수도 있다. 주어진 소스 (예컨대, 화자) 로부터의 스피치/오디오는, 마이크로폰들이 어떻게 배열되는지 뿐 아니라 소스 (예컨대, 화자) 가 마이크로폰들 및 룸 치수들에 관하여 어디에 위치되는지에 의존하여, 상이한 시간들에서 다중의 마이크로폰들에서 도달할 수도 있다. 예를 들어, 사운드 소스 (예컨대, 화자) 는 디바이스와 연관된 제 2 마이크로폰보다 디바이스와 연관된 제 1 마이크로폰에 더 가까울 수도 있다. 따라서, 사운드 소스로부터 방출된 사운드는 제 2 마이크로폰보다 시간에 있어서 더 이르게 제 1 마이크로폰에 도달할 수도 있다. 디바이스는 제 1 마이크로폰을 통해 제 1 오디오 신호를 수신할 수도 있고 제 2 마이크로폰을 통해 제 2 오디오 신호를 수신할 수도 있다.
MS (mid-side) 코딩 및 PS (parametric stereo) 코딩은, 듀얼-모노 코딩 기법들에 비해 개선된 효율을 제공할 수도 있는 스테레오 코딩 기법들이다. 듀얼-모노 코딩에 있어서, 좌측 (L) 채널 (또는 신호) 및 우측 (R) 채널 (또는 신호) 은 채널간 상관을 이용하는 일없이 독립적으로 코딩된다. MS 코딩은, 좌측 채널 및 우측 채널을 코딩 전에 합산 채널 및 차이 채널 (예컨대, 사이드 채널) 로 변환함으로써 상관된 L/R 채널 쌍 사이의 리던던시를 감소시킨다. 합산 신호 및 차이 신호는 파형 코딩되거나 또는 MS 코딩에서의 모델에 기초하여 코딩된다. 상대적으로 더 많은 비트들이 사이드 신호보다 합산 신호에서 소비된다. PS 코딩은 L/R 신호들을 합산 신호 및 사이드 파라미터들의 세트로 변환함으로써 각각의 서브대역 또는 주파수 대역에서의 리던던시를 감소시킨다. 사이드 파라미터들은 채널간 세기 차이 (IID), 채널간 위상 차이 (IPD), 채널간 시간 차이 (ITD), 사이드 또는 잔차 예측 이득들 등을 표시할 수도 있다. 합산 신호는 파형 코딩되고 사이드 파라미터들과 함께 송신된다. 하이브리드 시스템에서, 사이드-채널은 하위 대역들 (예를 들어, 2 킬로헤르츠 (kHz) 미만) 에서 파형 코딩되고 상위 대역들 (예를 들어, 2 kHz 이상) 에서 PS 코딩될 수도 있으며, 여기에서, 채널간 위상 보존은 지각적으로 덜 중요하다. 일부 구현들에서, PS 코딩이 하위 대역들에서 또한 사용되어, 파형 코딩 전에 채널간 리던던시를 감소시킬 수도 있다.
MS 코딩 및 PS 코딩은 주파수-도메인 또는 서브-대역 도메인 중 어느 하나에서 행해질 수도 있다. 일부 예들에서, 좌측 채널 및 우측 채널은 상관되지 않을 수도 있다. 예를 들어, 좌측 채널 및 우측 채널은 상관되지 않은 합성 신호들을 포함할 수도 있다. 좌측 채널 및 우측 채널이 상관되지 않을 때, MS 코딩, PS 코딩, 또는 양자 모두의 코딩 효율은 듀얼-모노 코딩의 코딩 효율에 근접할 수도 있다.
레코딩 구성에 의존하여, 좌측 채널과 우측 채널간의 시간 불일치뿐만 아니라 에코 및 룸 잔향과 같은 다른 공간 효과들이 존재할 수도 있다. 채널들 간의 시간 및 위상 불일치가 보상되지 않으면, 합산 채널 및 차이 채널은 비슷한 에너지들을 포함하여 MS 또는 PS 기법들과 연관된 코딩 이득들을 감소시킬 수도 있다. 코딩-이득들에서의 감소는 시간 (또는 위상) 쉬프트의 양에 기초할 수도 있다. 합산 신호와 차이 신호의 비슷한 에너지들은, 채널들이 시간적으로 쉬프팅되지만 고도로 상관되는 특정 프레임들에서 MS 코딩의 이용을 제한할 수도 있다. 스테레오 코딩에 있어서, 중간 채널 (예컨대, 합산 채널) 및 사이드 채널 (예컨대, 차이 채널) 은 다음의 식에 기초하여 생성될 수도 있다:
M= (L+R)/2, S= (L-R)/2, 식 1
여기에서, M 은 중간 채널에 대응하고, S 는 사이드 채널에 대응하고, L 은 좌측 채널에 대응하고, R 은 우측 채널에 대응한다.
일부 경우들에서, 중간 채널 및 사이드 채널은 다음의 식에 기초하여 생성될 수도 있다:
M=c (L+R), S= c (L-R), 식 2
여기에서, c 는 주파수 의존형인 복소 값에 대응한다. 식 1 또는 식 2 에 기초하여 중간 채널 및 사이드 채널을 생성하는 것은 "다운-믹싱 (down-mixing)" 알고리즘을 수행하는 것으로서 지칭될 수도 있다. 식 1 또는 식 2 에 기초하여 중간 채널 및 사이드 채널로부터 좌측 채널 및 우측 채널을 생성하는 역 프로세스는 "업-믹싱 (up-mixing)" 알고리즘을 수행하는 것으로서 지칭될 수도 있다.
일부 경우들에서, 중간 채널은 다음과 같은 다른 식들에 기초할 수도 있다:
M = (L+gDR)/2, 또는 식 3
M = g1L + g2R 식 4
여기에서, g1 + g2 = 1.0 이고, gD 는 이득 파라미터이다. 다른 예들에 있어서, 다운-믹스는 대역들에서 수행될 수도 있으며, 여기서, mid(b) = c1L(b) + c2R(b) 이고, c1 및 c2 는 복소수들이며, side(b) = c3L(b) - c4R(b) 이고, c3 및 c4 는 복소수들이다.
특정 프레임에 대한 MS 코딩 또는 듀얼-모노 코딩 사이를 선택하는데 사용된 애드혹 접근법은 중간 채널 및 사이드 채널을 생성하는 것, 중간 채널 및 사이드 채널의 에너지들을 계산하는 것, 및 에너지들에 기초하여 MS 코딩을 수행할지 여부를 결정하는 것을 포함할 수도 있다. 예를 들어, MS 코딩은 사이드 채널 및 중간 채널의 에너지들의 비가 임계치 미만임을 결정하는 것에 응답하여 수행될 수도 있다. 예시하기 위하여, 우측 채널이 적어도 제 1 시간 (예를 들어, 0.001 초 또는 48 kHz 에서의 48개 샘플들) 만큼 쉬프팅되면, (좌측 신호와 우측 신호의 합에 대응하는) 중간 채널의 제 1 에너지는 성음화된 스피치 프레임들에 대해 (좌측 신호와 우측 신호 간의 차이에 대응하는) 사이드 채널의 제 2 에너지와 비슷할 수도 있다. 제 1 에너지가 제 2 에너지와 비교가능할 때, 더 높은 수의 비트들이 사이드 채널을 인코딩하는데 사용될 수도 있고, 그것에 의하여, 듀얼-모노 코딩에 대한 MS 코딩의 코딩 효율을 감소시킬 수도 있다. 따라서, 듀얼-모노 코딩은, 제 1 에너지가 제 2 에너지와 비슷할 경우 (예를 들어, 제 1 에너지와 제 2 에너지의 비가 임계치 이상일 경우), 사용될 수도 있다. 대안의 접근법에서, 특정 프레임에 대한 MS 코딩과 듀얼-모노 코딩 간의 판정은 좌측 채널 및 우측 채널의 정규화된 상호-상관 값들과 임계치의 비교에 기초하여 행해질 수도 있다.
일부 예들에서, 인코더는 제 1 오디오 신호와 제 2 오디오 신호 간의 시간 불일치의 양을 나타내는 불일치 값을 결정할 수도 있다. 본 명세서에서 사용된 바와 같이, "시간 쉬프트 값", "쉬프트 값", 및 "불일치 값" 은 상호교환가능하게 사용될 수도 있다. 예를 들어, 인코더는 제 2 오디오 신호에 대한 제 1 오디오 신호의 쉬프트 (예컨대, 시간 불일치) 를 표시하는 시간 쉬프트 값을 결정할 수도 있다. 쉬프트 값은 제 1 마이크로폰에서 제 1 오디오 신호의 수신과 제 2 마이크로폰에서 제 2 오디오 신호의 수신 간의 시간적 지연의 양에 대응할 수도 있다. 더욱이, 인코더는 프레임 단위 기반으로, 예를 들어, 각각의 20 밀리초 (ms) 스피치/오디오 프레임에 기초하여 쉬프트 값을 결정할 수도 있다. 예를 들어, 쉬프트 값은, 제 2 오디오 신호의 제 2 프레임이 제 1 오디오 신호의 제 1 프레임에 대하여 지연된다는 시간의 양에 대응할 수도 있다. 대안적으로, 쉬프트 값은, 제 1 오디오 신호의 제 1 프레임이 제 2 오디오 신호의 제 2 프레임에 관하여 지연되는 시간의 양에 대응할 수도 있다.
사운드 소스가 제 2 마이크로폰보다 제 1 마이크로폰에 더 가까울 때, 제 2 오디오 신호의 프레임들은 제 1 오디오 신호의 프레임들에 대해 지연될 수도 있다. 이 경우에, 제 1 오디오 신호는 "레퍼런스 오디오 신호" 또는 "레퍼런스 채널" 로 지칭될 수도 있고, 지연된 제 2 오디오 신호는 "타겟 오디오 신호" 또는 "타겟 채널" 로 지칭될 수도 있다. 대안적으로, 사운드 소스가 제 1 마이크로폰보다 제 2 마이크로폰에 더 가까울 때, 제 1 오디오 신호의 프레임들은 제 2 오디오 신호의 프레임들에 대해 지연될 수도 있다. 이 경우에, 제 2 오디오 신호는 레퍼런스 오디오 신호 또는 레퍼런스 채널로 지칭될 수도 있고, 지연된 제 1 오디오 신호는 타겟 오디오 신호 또는 타겟 채널로 지칭될 수도 있다.
사운드 소스들 (예를 들어, 화자들) 이 컨퍼런스 또는 텔레프레전스 룸 내의 어디에 위치되는지 또는 사운드 소스 (예를 들어, 화자) 포지션이 마이크로폰들에 대해 어떻게 변화하는지에 의존하여, 레퍼런스 채널 및 타겟 채널은 하나의 프레임으로부터 다른 프레임으로 변화할 수도 있고; 유사하게, 시간 불일치 값이 또한 하나의 프레임으로부터 다른 프레임으로 변화할 수도 있다. 하지만, 일부 구현들에 있어서, 쉬프트 값은, "레퍼런스" 채널에 대한 "타겟" 채널의 지연의 양을 나타내기 위해 항상 포지티브일 수도 있다. 더욱이, 쉬프트 값은, 타겟 채널이 인코더에서 "레퍼런스" 채널과 정렬 (예를 들어, 최대로 정렬) 되도록 지연된 타겟 채널이 시간적으로 "후퇴"되는 "비-인과적 쉬프트" 값에 대응할 수도 있다. 중간 채널과 사이드 채널을 결정하기 위한 다운-믹스 알고리즘이 레퍼런스 채널 및 비-인과적 쉬프팅된 타겟 채널에 대해 수행될 수도 있다.
인코더는 타겟 오디오 채널에 적용된 복수의 쉬프트 값들 및 레퍼런스 오디오 채널에 기초하는 쉬프트 값을 결정할 수도 있다. 예를 들어, 레퍼런스 오디오 채널 (X) 의 제 1 프레임은 제 1 시간 (m1) 에서 수신될 수도 있다. 타겟 오디오 채널 (Y) 의 제 1 특정 프레임은 제 1 쉬프트 값에 대응하는 제 2 시간 (n1) 에서 수신될 수도 있다 (예를 들어, shift1 = n1 - m1). 예를 들어, 레퍼런스 오디오 채널의 제 2 프레임은 제 3 시간 (m2) 에서 수신될 수도 있다. 타겟 오디오 채널의 제 2 특정 프레임은 제 2 쉬프트 값에 대응하는 제 4 시간 (n2) 에서 수신될 수도 있다 (예를 들어, shift2 = n2 - m2).
디바이스는 제 1 샘플링 레이트 (예를 들어, 32 kHz 샘플링 레이트) 로 프레임 (예를 들어, 20 ms 샘플들) 을 생성하기 위해 (즉, 프레임 당 640 샘플들) 프레이밍 또는 버퍼링 알고리즘을 수행할 수도 있다. 인코더는, 제 1 오디오 신호의 제 1 프레임 및 제 2 오디오 신호의 제 2 프레임이 디바이스에서 동시에 도달함을 결정하는 것에 응답하여, 쉬프트 값 (예를 들어, shift1) 을 제로 샘플과 동일한 것으로서 추정할 수도 있다. (예를 들어, 제 1 오디오 신호에 대응하는) 좌측 채널 및 (예를 들어, 제 2 오디오 신호에 대응하는) 우측 채널은 시간적으로 정렬될 수도 있다. 일부 경우들에서, 좌측 채널 및 우측 채널은, 정렬된 경우라도, 다양한 이유들 (예를 들어, 마이크로폰 교정) 로 인해 에너지가 상이할 수도 있다.
일부 예들에서, 좌측 채널 및 우측 채널은 다양한 이유들로 인해 시간적으로 오정렬될 수도 있다 (예를 들어, 화자와 같은 사운드 소스가 다른 것보다 마이크로폰들 중 하나에 더 가까울 수도 있고 그리고 2 개의 마이크로폰들이 임계치 (예를 들어 1-20 센티미터) 거리보다 더 많이 이격될 수도 있다). 마이크로폰들에 대한 사운드 소스의 위치는 제 1 채널 및 제 2 채널에 있어서 상이한 지연들을 도입할 수도 있다. 추가로, 제 1 채널과 제 2 채널 사이에 이득 차이, 에너지 차이, 또는 레벨 차이가 존재할 수도 있다.
2 초과의 채널들이 존재하는 일부 예들에 있어서, 레퍼런스 채널이 채널들의 레벨들 또는 에너지들에 기초하여 처음에 선택되고, 후속적으로, 채널들의 상이한 쌍들 간의 시간 불일치 값들, 예를 들어, t1(ref, ch2), t2(ref, ch3), t3(ref, ch4),… t3(ref, chN) 에 기초하여 리파이닝 (refine) 되며, 여기서, ch1 은 처음에 ref 채널이고 t1(.), t2(.) 등은 불일치 값들을 추정하기 위한 함수들이다. 모든 시간 불일치 값들이 포지티브이면, ch1 은 레퍼런스 채널로서 취급된다. 임의의 불일치 값들이 네거티브 값이면, 레퍼런스 채널은, 네거티브 값을 발생시켰던 불일치 값과 연관되었던 채널로 재구성되며, 상기 프로세스는, 레퍼런스 채널의 최상의 선택 (즉, 최대 수의 사이드 채널들을 최대로 역상관시키는 것에 기초함) 이 달성될 때까지 계속된다. 히스테리시스가 레퍼런스 채널 선택에서의 임의의 갑작스런 변동들을 극복하기 위해 사용될 수도 있다.
일부 예들에서, 다중 사운드 소스들 (예를 들어, 화자들) 로부터 마이크로폰들에서의 오디오 신호들의 도달 시간은, 다중 화자들이 (예를 들어, 중첩 없이) 서로 번갈아 말하고 있을 때 가변할 수도 있다. 그러한 경우, 인코더는 레퍼런스 채널을 식별하기 위해 화자 (talker) 에 기초하여 시간 쉬프트 값을 동적으로 조정할 수도 있다. 일부 다른 예들에서, 다수의 화자들은 동시에 말하고 있을 수도 있으며, 이는 가장 시끄러운 화자가 누구인지, 누가 마이크로폰에 가장 가까운지 등에 의존하여 다양한 시간 쉬프트 값들을 발생시킬 수도 있다. 이러한 경우에, 레퍼런스 및 타겟 채널들의 식별은 현재 프레임에서의 다양한 시간 쉬프트 값들, 이전 프레임들에서의 추정된 시간 불일치 값들, 및 제 1 및 제 2 오디오 신호들의 에너지 (또는 시간 에볼루션) 에 기초할 수도 있다.
일부 예들에서, 제 1 오디오 신호 및 제 2 오디오 신호는, 2 개의 신호들이 잠재적으로 적은 상관 (예를 들어, 무상관) 을 나타낼 때 합성되거나 또는 인공적으로 생성될 수도 있다. 본 명세서에서 설명된 예들은 예시적이며 유사한 또는 상이한 상황들에서 제 1 오디오 신호와 제 2 오디오 신호 간의 관계를 결정하는데 있어서 유익할 수도 있는 것으로 이해되어야 한다.
인코더는 제 1 오디오 신호의 제 1 프레임과 제 2 오디오 신호의 복수의 프레임들의 비교에 기초하여 비교 값들 (예를 들어, 차이 값들 또는 상호-상관 값들) 을 생성할 수도 있다. 복수의 프레임들의 각각의 프레임은 특정 쉬프트 값에 대응할 수도 있다. 인코더는 비교 값들에 기초하여 제 1 추정된 쉬프트 값을 생성할 수도 있다. 예를 들어, 제 1 추정된 쉬프트 값은 제 1 오디오 신호의 제 1 프레임과 제 2 오디오 신호의 대응하는 제 1 프레임 간의 더 높은 시간-유사성 (또는 더 낮은 차이) 을 표시하는 비교 값에 대응할 수도 있다.
인코더는, 다중의 스테이지들에서, 일련의 추정된 쉬프트 값들을 리파이닝함으로써 최종 쉬프트 값을 결정할 수도 있다. 예를 들어, 인코더는 처음에, 제 1 오디오 신호 및 제 2 오디오 신호의 스테레오 프리-프로세싱된 및 리-샘플링된 버전들로부터 생성된 비교 값들에 기초하여 "잠정적인 (tentative)" 쉬프트 값을 추정할 수도 있다. 인코더는 추정된 "잠정적인" 쉬프트 값에 근사한 쉬프트 값들과 연관된 보간된 비교 값들을 생성할 수도 있다. 인코더는 보간된 비교 값들에 기초하여 제 2 추정된 "보간된" 쉬프트 값을 결정할 수도 있다. 예를 들어, 제 2 추정된 "보간된" 쉬프트 값은, 제 1 추정된 "잠정적인" 쉬프트 값 및 나머지 보간된 비교 값들보다 더 높은 시간-유사성 (또는 더 낮은 차이) 을 표시하는 특정 보간된 비교 값에 대응할 수도 있다. 현재 프레임 (예를 들어, 제 1 오디오 신호의 제 1 프레임) 의 제 2 추정된 "보간된" 쉬프트 값이 이전 프레임 (예를 들어, 제 1 프레임에 선행하는 제 1 오디오 신호의 프레임) 의 최종 쉬프트 값과 상이하면, 현재 프레임의 "보간된" 쉬프트 값은 제 1 오디오 신호와 쉬프트된 제 2 오디오 신호 간의 시간-유사성을 개선하기 위해 추가로 "보정된" 다. 특히, 제 3 추정된 "보정된" 쉬프트 값은, 현재 프레임의 제 2 추정된 "보간된" 쉬프트 값 및 이전 프레임의 최종 추정된 쉬프트 값을 탐색함으로써 시간-유사성의 더 정확한 측정치에 대응할 수도 있다. 제 3 추정된 "보정된" 쉬프트 값은 프레임들 간의 쉬프트 값에서의 임의의 스퓨리어스 변화 (spurious change) 들을 한정함으로써 최종 쉬프트 값을 추정하도록 추가로 컨디셔닝되고 그리고 본 명세서에서 설명된 바와 같은 2 개의 연속적인 (또는 연이은) 프레임들에 있어서 네거티브 쉬프트 값으로부터 포지티브 쉬프트 값으로 (또는 그 역도 성립) 스위칭하지 않도록 추가로 제어된다.
일부 예들에서, 인코더는 연이은 프레임들에 있어서 또는 인접한 프레임들에 있어서 포지티브 쉬프트 값과 네거티브 쉬프트 값 간에 또는 그 역으로 스위칭하는 것을 억제할 수도 있다. 예를 들어, 인코더는, 제 1 프레임의 추정된 "보간된" 또는 "보정된" 쉬프트 값 및 제 1 프레임에 선행하는 특정 프레임에서의 대응하는 추정된 "보간된" 또는 "보정된" 또는 최종 쉬프트 값에 기초하여 시간-쉬프트 없음을 표시하는 특정 값 (예를 들어, 0) 으로 최종 쉬프트 값을 설정할 수도 있다. 예시하기 위하여, 인코더는, 현재 프레임의 추정된 "잠정적인" 또는 "보간된" 또는 "보정된" 쉬프트 값 중 하나가 포지티브이고 그리고 이전 프레임 (예를 들어, 제 1 프레임에 선행하는 프레임) 의 추정된 "잠정적인" 또는 "보간된" 또는 "보정된" 또는 "최종" 추정된 쉬프트 값 중 다른 하나가 네거티브라고 결정하는 것에 응답하여, 시간-쉬프트 없음, 즉, shift1 = 0 을 표시하도록 현재 프레임 (예를 들어, 제 1 프레임) 의 최종 쉬프트 값을 설정할 수도 있다. 대안적으로, 인코더는 또한, 현재 프레임의 추정된 "잠정적인" 또는 "보간된" 또는 "보정된" 쉬프트 값 중 하나가 네거티브이고 그리고 이전 프레임 (예를 들어, 제 1 프레임에 선행하는 프레임) 의 추정된 "잠정적인" 또는 "보간된" 또는 "보정된" 또는 "최종" 추정된 쉬프트 값 중 다른 하나가 포지티브라고 결정하는 것에 응답하여, 시간-쉬프트 없음, 즉, shift1 = 0 을 표시하도록 현재 프레임 (예를 들어, 제 1 프레임) 의 최종 쉬프트 값을 설정할 수도 있다.
일부 구현들에서, 최종 쉬프트 값의 추정은 채널간 상호 상관들이 주파수 도메인에서 추정될 수도 있는, 변환 도메인에서 수행될 수도 있음에 유의해야한다. 일 예로서, 최종 쉬프트 값의 추정은 크게 GCC-PHAT (Generalized cross correlation - Phase transform) 알고리즘에 기초할 수도 있다.
인코더는 제 1 오디오 신호 또는 제 2 오디오 신호의 프레임을, 쉬프트 값에 기초하여 "레퍼런스" 또는 "타겟" 으로서 선택할 수도 있다. 예를 들어, 최종 쉬프트 값이 포지티브임을 결정하는 것에 응답하여, 인코더는, 제 1 오디오 신호가 "레퍼런스" 채널이고 그리고 제 2 오디오 신호가 "타겟" 채널임을 나타내는 제 1 값 (예를 들어, 0) 을 갖는 레퍼런스 채널 또는 신호 표시자를 생성할 수도 있다. 대안적으로, 최종 쉬프트 값이 네거티브임을 결정하는 것에 응답하여, 인코더는, 제 2 오디오 신호가 "레퍼런스" 채널이고 그리고 제 1 오디오 신호가 "타겟" 채널임을 나타내는 제 2 값 (예를 들어, 1) 을 갖는 레퍼런스 채널 또는 신호 표시자를 생성할 수도 있다.
인코더는 레퍼런스 채널 및 비-인과적 쉬프팅된 타겟 채널과 연관된 상대 이득 (예를 들어, 상대 이득 파라미터) 을 추정할 수도 있다. 예를 들어, 최종 쉬프트 값이 포지티브라고 결정하는 것에 응답하여, 인코더는 비-인과적 쉬프트 값 (예를 들어, 최종 쉬프트 값의 절대 값) 에 의해 오프셋되는 제 2 오디오 신호에 대한 제 1 오디오 신호의 에너지 또는 전력 레벨들을 정규화 또는 등화하도록 이득 값을 추정할 수도 있다. 대안적으로, 최종 쉬프트 값이 네거티브임을 결정하는 것에 응답하여, 인코더는, 제 2 오디오 신호에 대한 제 1 오디오 신호의 전력 또는 진폭 레벨들을 정규화 또는 등화하도록 이득 값을 추정할 수도 있다. 일부 예들에 있어서, 인코더는 비-인과적 쉬프팅된 "타겟" 채널에 대한 "레퍼런스" 채널의 진폭 또는 전력 레벨들을 정규화 또는 등화하도록 이득 값을 추정할 수도 있다. 다른 예들에 있어서, 인코더는 타겟 채널 (예를 들어, 쉬프팅되지 않은 타겟 채널) 에 대한 레퍼런스 채널에 기초하여 이득 값 (예를 들어, 상대 이득 값) 을 추정할 수도 있다.
인코더는 레퍼런스 채널, 타겟 채널, 비-인과적 쉬프트 값, 및 상대 이득 파라미터에 기초하여 적어도 하나의 인코딩된 신호 (예를 들어, 중간 채널, 사이드 채널, 또는 이들 양자) 를 생성할 수도 있다. 다른 구현들에서, 인코더는 레퍼런스 채널 및 시간-불일치 조정된 타겟 채널에 기초하여 적어도 하나의 인코딩된 신호 (예를 들어, 중간 채널, 사이드 채널, 또는 이들 양자) 를 생성할 수도 있다. 사이드 채널은 제 1 오디오 신호의 제 1 프레임의 제 1 샘플들과 제 2 오디오 신호의 선택된 프레임의 선택된 샘플들 간의 차이에 대응할 수도 있다. 인코더는 최종 쉬프트 값에 기초하여 선택된 프레임을 선택할 수도 있다. 제 1 프레임과 동시에 디바이스에 의해 수신되는 제 2 오디오 신호의 프레임에 대응하는 제 2 오디오 신호의 다른 샘플들과 비교하여 제 1 샘플들과 선택된 샘플들 간의 감소된 차이 때문에 더 적은 비트들이 사이드 채널 신호를 인코딩하는데 사용될 수도 있다. 디바이스의 송신기는 적어도 하나의 인코딩된 신호, 비-인과적 쉬프트 값, 상대 이득 파라미터, 레퍼런스 채널 또는 신호 표시자, 또는 이들의 조합을 송신할 수도 있다.
인코더는 레퍼런스 채널, 타겟 채널, 비-인과적 쉬프트 값, 상대 이득 파라미터, 제 1 오디오 신호의 특정 프레임의 저대역 파라미터들, 특정 프레임의 고대역 파라미터들, 또는 이들의 조합에 기초하여 적어도 하나의 인코딩된 신호 (예를 들어, 중간 채널, 사이드 채널, 또는 이들 양자) 를 생성할 수도 있다. 특정 프레임은 제 1 프레임을 선행할 수도 있다. 하나 이상의 선행하는 프레임들로부터의 특정 저대역 파라미터들, 고대역 파라미터들, 또는 이들의 조합은 제 1 프레임의 중간 채널, 사이드 채널, 또는 이들 양자를 인코딩하기 위해 사용될 수도 있다. 저대역 파라미터들, 고대역 파라미터들, 또는 이들의 조합에 기초하여 중간 채널, 사이드 채널, 또는 이들 양자를 인코딩하는 것은 비-인과적 쉬프트 값 및 채널간 상대 이득 파라미터의 추정들을 포함할 수도 있다. 저 대역 파라미터들, 고대역 파라미터들, 또는 이들의 조합은 피치 (pitch) 파라미터, 유성화 파라미터, 코더 타입 파라미터, 저-대역 에너지 파라미터, 고-대역 에너지 파라미터, 틸트 파라미터, 피치 이득 파라미터, FCB 이득 파라미터, 코딩 모드 파라미터, 음성 활성도 파라미터, 잡음 추정 파라미터, 신호-대-잡음 비 파라미터, 포먼트 셰이핑 파라미터, 스피치/뮤직 판정 파라미터, 비-인과적 쉬프트, 채널간 이득 파라미터, 또는 이들의 조합을 포함할 수도 있다. 디바이스의 송신기는 적어도 하나의 인코딩된 신호, 비-인과적 쉬프트 값, 상대 이득 파라미터, 레퍼런스 채널 (또는 신호) 표시자, 또는 이들의 조합을 송신할 수도 있다.
일부 인코딩 구현들에 따라, 인코더는 좌측 오디오 채널 및 대응하는 우측 오디오 채널을 주파수 도메인으로 변환하여 좌측 주파수 도메인 채널 및 우측 주파수 도메인 채널을 각각 생성할 수도 있다. 인코더는 주파수 도메인 채널을 다운믹싱하여 중간 채널을 생성할 수도 있다. 역변환이 시간 도메인 중간 채널을 생성하기 위해 중간 채널에 적용될 수도 있고, 저대역 인코더는 인코딩된 저대역 중간 채널을 생성하기 위해 시간 도메인 중간 채널의 저대역 부분을 인코딩할 수도 있다. 중간 채널 대역폭 확장 (BWE) 인코더는 중간 채널 BWE 파라미터들 (예를 들어, 선형 예측 계수들 (LPC들), 이득 형상, 이득 프레임, 등) 을 생성할 수도 있다. 일부 구현들에서, 중간 채널 BWE 인코더는 시간 도메인 중간 채널 및 인코딩된 저대역 중간 채널의 여기에 기초하여 중간 채널 BWE 파라미터를 생성한다. 인코더는 인코딩된 저대역 중간 채널 및 중간 채널 BWE 파라미터를 포함하는 비트스트림을 생성할 수도 있다.
인코더는 또한, 주파수 도메인 채널 (예를 들어, 좌측 주파수 도메인 채널 및 우측 주파수 도메인 채널) 로부터 스테레오 파라미터 (예를 들어, 이산 푸리에 변환 (DFT) 다운믹스 파라미터) 를 추출할 수도 있다. 스테레오 파라미터는 주파수 도메인 이득 파라미터 (예를 들어, 사이드 이득 또는 채널간 레벨차 (ILD)), 채널간 위상차 (IPD) 파라미터, 스테레오 충진 이득 등을 포함할 수도 있다. 스테레오 파라미터는 비트스트림에 삽입 (예를 들어, 포함 또는 인코딩) 될 수도 있고, 비트스트림은 인코더로부터 디코더로 송신될 수도 있고, 비트스트림은 인코더에서 디코더로 송신될 수도 있다. 일 구현에 따르면, 스테레오 파라미터는 채널간 BWE (ICBWE) 이득 맵핑 파라미터를 포함할 수도 있다. 그러나, ICBWE 이득 맵핑 파라미터는 다른 스테레오 파라미터와 관련하여 다소 "중복" 일 수도 있다. 따라서, 코딩 복잡성과 중복 송신을 감소시키기 위해, ICBWE 이득 맵핑 파라미터는 주파수 도메인 채널로부터 추출되지 않을 수도 있다. 예를 들어, 인코더는 주파수 도메인 채널들로부터 ICBWE 이득 파라미터들의 결정을 바이패스할 수도 있다.
인코더로부터 비트스트림의 수신시, 디코더는 인코딩된 저대역 중간 채널을 디코딩하여 저대역 중간 신호 및 저대역 중간 여기 신호를 생성할 수도 있다. (인코더로부터 수신된) 중간 채널 BWE 파라미터는 합성된 고대역 중간 신호를 생성하기 위해 저대역 중간 채널 여기를 이용하여 디코딩될 수도 있다. ICBWE 이득 맵핑 파라미터를 합성된 고대역 중간 신호에 적용함으로써, 좌측 고대역 채널 및 우측 고대역 채널이 생성될 수도 있다. 그러나, ICBWE 이득 맵핑 파라미터는 비트스트림의 일부로서 포함되지 않기 때문에, 디코더는 주파수 도메인 이득 파라미터들 (예를 들어, 사이드 이득들 또는 ILD들) 에 기초하여 ICBWE 이득 맵핑 파라미터를 생성할 수도 있다. 디코더는 또한, 고대역 중간 합성 신호, 저대역 중간 합성 (또는 여기) 신호, 및 저대역 사이드 (예를 들어, 잔차 예측) 합성 신호에 기초하여 ICBWE 이득 맵핑 파라미터를 생성할 수도 있다.
예를 들어, 디코더는 비트스트림으로부터 주파수 도메인 이득 파라미터를 추출하고 합성된 고대역 중간 신호의 주파수 범위와 연관되는 주파수 도메인 이득 파라미터를 선택할 수도 있다. 예시를 위해, 광대역 코딩에 대하여, 합성된 고대역 중간 신호는 6.4 킬로헤르츠 (kHz) 와 8 kHz 사이의 주파수 범위를 가질 수도 있다. 특정 주파수 도메인 이득 파라미터가 5.2 kHz 와 8.56 kHz 사이의 주파수 범위와 연관되는 경우, 특정 주파수 도메인 이득 파라미터는 ICBWE 이득 맵핑 파라미터를 생성하도록 선택될 수도 있다. 다른 예에서, 하나 이상의 주파수 도메인 이득 파라미터 그룹이 하나 이상의 주파수 범위 세트, 예를 들어 6.0-7.0 kHz, 7.0-8.0 kHz 와 연관되는 경우, 하나 이상의 스테레오 다운믹스/업믹스 이득 파라미터 그룹들이 선택되어 ICBWE 이득 맵핑 파라미터를 생성한다. 일 구현에 따르면, ICBWE 이득 맵핑 파라미터 (gsMapping) 는 다음 예를 사용하여 선택된 주파수 도메인 이득 파라미터 (sidegain) 에 기초하여 결정될 수도 있다:
ICBWE 이득 맵핑 파라미터, gsMapping = (1 - sidegain)
ICBWE 이득 맵핑 파라미터가 결정 (예를 들어, 추출) 되면, 좌측 고대역 채널 및 우측 고대역 채널은 이득 스케일링 동작을 사용하여 합성될 수도 있다. 예를 들어, 합성된 고대역 중간 신호는 ICBWE 이득 맵핑 파라미터에 의해 스케일링되어 타겟 고대역 채널을 생성할 수도 있고, 합성된 고대역 중간 신호는 수정된 ICBWE 이득 맵핑 파라미터 (예를 들어, 2 - gsMapping 또는
Figure 112019101560883-pct00001
) 에 의해 스케일링되어 레퍼런스 고대역 채널을 생성할 수도 있다.
좌측 저대역 채널 및 우측 저대역 채널은 저대역 중간 신호의 주파수 도메인 버전과 연관된 업믹스 동작에 기초하여 생성될 수도 있다. 예를 들어, 저대역 중간 신호는 주파수 도메인으로 컨버팅될 수도 있고, 스테레오 파라미터는 저대역 중간 신호의 주파수 도메인 버전을 업믹싱하여 주파수 도메인 좌측 및 우측 저대역 채널을 생성하는데 사용될 수도 있으며, 주파수 도메인 좌측 및 우측 저대역 채널에 역변환 연산이 수행되어 각각 좌측 저대역 채널 및 우측 저대역 채널을 생성할 수도 있다. 좌측 저대역 채널은 좌측 고대역 채널과 결합되어 좌측 오디오 채널과 실질적으로 유사한 좌측 채널을 생성할 수도 있고, 우측 저대역 채널은 우측 고대역 채널과 결합되어 (우측 오디오 채널과 실질적으로 유사한) 우측 채널을 생성할 수도 있다.
따라서, 입력 컨텐츠 대역폭에 의존하여 인코더에서 ICBWE 이득 맵핑 파라미터의 추출 및 송신을 생략함으로써 인코딩 복잡성 및 송신 대역폭이 감소될 수도 있다. 예를 들어, ICBWE 이득 맵핑 파라미터는 WB 멀티채널 코딩을 위해 송신되지 않을 수도 있지만, 이들은 초 광대역 또는 전대역 멀티채널 코딩을 위해 송신된다. 특히, ICBWE 이득 맵핑 파라미터는 비트스트림에 포함된 다른 스테레오 파라미터 (예를 들어, 주파수 도메인 이득 파라미터) 에 기초하여 광대역 신호에 대해 디코더에서 생성될 수도 있다. 다른 구현들에서, ICBWE 이득 맵핑 파라미터는 또한, 고대역 (즉, BWE) 중간 합성 신호, 저대역 중간 합성 (또는 여기) 신호, 및 저대역 사이드 (예를 들어, 잔차 예측) 합성 신호에 기초하여 생성될 수도 있다.
도 1 을 참조하면, 시스템의 특정 예시적인 예가 개시되고 일반적으로 100 으로 지정된다. 시스템 (100) 은 네트워크 (120) 를 통해 제 2 디바이스 (106) 에 통신 가능하게 커플링된 제 1 디바이스 (104) 를 포함한다. 네트워크 (120) 는 하나 이상의 무선 네트워크들, 하나 이상의 유선 네트워크들, 또는 이들의 조합을 포함할 수도 있다.
제 1 디바이스는 (104) 는 인코더 (114), 송신기 (110), 하나 이상의 입력 인터페이스들 (112), 또는 이들의 조합을 포함할 수도 있다. 입력 인터페이스들 (112) 의 제 1 입력 인터페이스는 제 1 마이크로폰 (146) 에 커플링될 수도 있다. 입력 인터페이스(들) (112) 의 제 2 입력 인터페이스는 제 1 마이크로폰 (148) 에 커플링될 수도 있다. 제 1 디바이스 (104) 는 또한, 분석 데이터 (191) 를 저장하도록 구성된 메모리 (153) 를 포함할 수도 있다. 제 2 디바이스 (106) 는 디코더 (118) 를 포함할 수도 있다. 디코더 (118) 는 채널간 대역폭 확장 (ICBWE) 이득 맵핑 파라미터 생성기 (322) 를 포함할 수도 있다. 제 2 디바이스 (106) 는 제 1 라우드스피커 (142), 제 2 라우드스피커 (144), 또는 이들 양자에 커플링될 수도 있다.
동작 동안, 제 1 디바이스 (104) 는 제 1 마이크로폰 (146) 으로부터 제 1 입력 인터페이스를 통해 제 1 오디오 채널 (130) 을 수신할 수도 있고, 제 2 마이크로폰 (148) 으로부터 제 2 입력 인터페이스를 통해 제 2 오디오 채널 (132) 을 수신할 수도 있다. 제 1 오디오 채널 (130) 은 우측 채널 신호 또는 좌측 채널 신호 중 하나에 대응할 수도 있다. 제 2 오디오 채널 (132) 은 우측 채널 신호 또는 좌측 채널 신호 중 다른 하나에 대응할 수도 있다. 설명 및 예시의 용이함을 위해, 달리 언급되지 않는 한, 제 1 오디오 채널 (130) 은 좌측 오디오 채널에 대응하고, 제 2 오디오 채널 (132) 은 우측 오디오 채널에 대응한다. 사운드 소스 (152) (예컨대, 사용자, 스피커, 주변 잡음, 악기 등) 는 제 2 마이크로폰 (148) 보다 제 1 마이크로폰 (146) 에 더 가까울 수도 있다. 이에 따라, 사운드 소스 (152) 로부터의 오디오 신호는 제 2 마이크로폰 (148) 을 통해서보다 더 이른 시간에 제 1 마이크로폰 (146) 을 통해 입력 인터페이스들 (112) 에서 수신될 수도 있다. 다중 마이크로폰들을 통한 멀티-채널 신호 포착에서의 이러한 자연적 지연은 제 1 오디오 채널 (130) 과 제 2 오디오 채널 (132) 간의 시간 쉬프트를 도입할 수도 있다.
인코더 (114) 는 오디오 채널 (130, 132) 사이의 시간 쉬프트를 나타내는 쉬프트 값 (예를 들어, 최종 쉬프트 값 (116)) 을 결정하도록 구성될 수도 있다. 최종 쉬프트 값 (116) 은 분석 데이터 (191) 로서 메모리 (153) 에 저장될 수도 있고, 스테레오 파라미터로서 스테레오 다운믹스/업믹스 파라미터 비트스트림 (290) 으로 인코딩될 수도 있다. 인코더 (114) 는 또한 오디오 채널들 (130, 132) 을 주파수 도메인으로 변환하여 주파수 도메인 오디오 채널을 생성하도록 구성될 수도 있다. 주파수 도메인 오디오 채널들은 다운믹싱되어 중간 채널을 생성할 수도 있고, 중간 채널의 시간 도메인 버전의 저대역 부분은 저대역 중간 채널 비트스트림 (292) 으로 인코딩될 수도 있다. 인코더 (114) 는 또한, 시간 도메인 중간 채널 및 인코딩된 저대역 중간 채널의 여기에 기초하여, 중간 채널 BWE 파라미터 (예를 들어, 선형 예측 계수들 (LPC들), 이득 형상, 이득 프레임, 등) 를 생성할 수도 있다. 인코더 (114) 는 중간 채널 BWE 파라미터를 고대역 중간 채널 BWE 비트스트림 (294) 으로 인코딩할 수도 있다.
인코더 (114) 는 또한 주파수 도메인 오디오 채널로부터 스테레오 파라미터 (예를 들어, 이산 푸리에 변환 (DFT) 다운믹스 파라미터) 를 추출할 수도 있다. 스테레오 파라미터는 주파수 도메인 이득 파라미터 (예를 들어, 사이드 이득), 채널간 위상차 (IPD) 파라미터, 스테레오 충진 이득 등을 포함할 수도 있다. 스테레오 파라미터는 스테레오 다운믹스/업믹스 파라미터 비트스트림 (290) 에 삽입될 수도 있다. ICBWE 이득 맵핑 파라미터는 다른 스테레오 파라미터를 사용하여 결정 또는 추정될 수 있기 때문에, ICBWE 이득 맵핑 파라미터는 주파수 도메인 오디오 채널로부터 추출되지 않아 코딩 복잡성과 중복 송신을 감소시킬 수도 있다. 송신기는 스테레오 다운믹스/업믹스 파라미터 비트스트림 (290), 저대역 중간 채널 비트스트림 (292) 및 고대역 중간 채널 BWE 비트스트림 (294) 을 네트워크 (120) 를 통해 제 2 디바이스 (106) 에 송신할 수도 있다. 인코더 (114) 와 연관된 동작들은 도 2 에 대하여 더 상세히 설명된다.
디코더 (118) 는 스테레오 다운믹스/업믹스 파라미터 비트스트림 (290), 저대역 중간 채널 비트스트림 (292), 및 고대역 중간 채널 BWE 비트스트림 (294) 에 기초하여 디코딩 동작들을 수행할 수도 있다. 디코더 (118) 는 저대역 중간 채널 비트스트림 (292) 을 디코딩하여 저대역 중간 신호 및 저대역 중간 여기 신호를 생성할 수도 있다. 고대역 중간 채널 BWE 비트스트림 (294) 은 합성된 고대역 중간 신호를 생성하기 위해 저대역 중간 여기 신호를 이용하여 디코딩될 수도 있다. ICBWE 이득 맵핑 파라미터를 합성된 고대역 중간 신호에 적용함으로써, 좌측 고대역 채널 및 우측 고대역 채널이 생성될 수도 있다. 그러나, ICBWE 이득 맵핑 파라미터는 비트스트림의 일부로서 포함되지 않기 때문에, 디코더 (118) 는 스테레오 다운믹스/업믹스 파라미터 비트스트림 (290) 과 연관된 주파수 도메인 이득 파라미터들에 기초하여 ICBWE 이득 맵핑 파라미터를 생성할 수도 있다.
예를 들어, 디코더 (118) 는 스테레오 다운믹스/업믹스 파라미터 비트스트림 (290) 으로부터 주파수 도메인 이득 파라미터를 추출하도록 구성되고 합성된 고대역 중간 신호의 주파수 범위와 연관되는 주파수 도메인 이득 파라미터를 선택하도록 구성된 ICBWE 공간 이득 맵핑 파라미터 생성기 (322) 를 포함할 수도 있다. 예시를 위해, 광대역 코딩에 대하여, 합성된 고대역 중간 신호는 6.4 킬로헤르츠 (kHz) 내지 8 kHz 의 주파수 범위를 가질 수도 있다. 특정 주파수 도메인 이득 파라미터가 5.2 kHz 와 8.56 kHz 사이의 주파수 범위와 연관되는 경우, 특정 주파수 도메인 이득 파라미터는 ICBWE 이득 맵핑 파라미터를 생성하도록 선택될 수도 있다. 일 구현에 따르면, ICBWE 이득 맵핑 파라미터 (gsMapping) 는 다음 식을 사용하여 선택된 주파수 도메인 이득 파라미터 (sidegain) 에 기초하여 결정될 수도 있다:
Figure 112019101560883-pct00002
ICBWE 이득 맵핑 파라미터가 결정되면, 좌측 고대역 채널 및 우측 고대역 채널은 이득 스케일링 동작을 사용하여 합성될 수도 있다. 좌측 저대역 채널 및 우측 저대역 채널은 저대역 중간 신호의 주파수 도메인 버전과 연관된 업믹스 동작에 기초하여 생성될 수도 있다. 좌측 저대역 채널은 좌측 고대역 채널과 결합되어 제 1 오디오 채널 (130) 과 실질적으로 유사한 제 1 출력 채널 (126) (예컨대, 좌측 채널) 을 생성할 수도 있고, 우측 저대역 채널은 우측 고대역 채널과 결합되어 제 2 오디오 채널 (132) 과 실질적으로 유사한 제 2 출력 채널 (128) (예컨대, 우측 채널) 을 생성할 수도 있다. 제 1 라우드스피커 (142) 는 제 1 출력 채널 (126) 을 출력할 수도 있고, 제 2 라우드스피커 (144) 는 제 2 출력 채널 (128) 을 출력할 수도 있다. 디코더 (118) 와 연관된 동작들은 도 3 과 관련하여 더 상세히 설명된다.
따라서, 인코더에서 ICBWE 이득 맵핑 파라미터의 추출 및 송신을 생략함으로써 인코딩 복잡성 및 송신 대역폭이 감소될 수도 있다. ICBWE 이득 맵핑 파라미터는 비트스트림에 포함된 다른 스테레오 파라미터 (예를 들어, 주파수 도메인 이득 파라미터) 에 기초하여 디코더에서 생성될 수도 있다.
도 2 을 참조하면, 인코더 (114) 의 특정 구현이 도시된다. 인코더 (114) 는 변환 유닛 (202), 변환 유닛 (204), 스테레오 큐 추정기 (206), 중간 채널 생성기 (208), 역변환 유닛 (210), 중간 채널 인코더 (212) 및 중간 채널 BWE 인코더 (214) 를 포함한다.
제 1 오디오 채널 (130) (예를 들어, 좌측 채널) 은 변환 유닛 (202) 에 제공될 수도 있고, 제 2 오디오 채널 (132) (예를 들어, 우측 채널) 은 변환 유닛 (204) 에 제공될 수도 있다. 변환 유닛 (202) 은 제 1 주파수 도메인 오디오 채널 Lfr(b) (252) 을 생성하기 위해 윈도잉 동작 및 변환 동작을 수행하도록 구성될 수도 있고, 변환 유닛 (204) 은 제 2 주파수 도메인 오디오 채널 Rfr(b) (254) 을 생성하기 위해 제 2 오디오 채널 (132) 에 윈도잉 동작 및 변환 동작을 수행하도록 구성될 수도 있다. 예를 들어, 변환 유닛들 (202, 204) 은 각각 오디오 채널들 (130, 132) 에 DFT (Discrete Fourier Transform) 동작, FFT (Fast Fourier Transform) 동작, MDCT 동작 등을 적용할 수도 있다. 일부 구현들에 따르면, QMF (Quadrature Mirror Filterbank) 동작들은 오디오 채널 (130, 132) 을 다수의 서브 대역들로 분할하기 위해 사용될 수도 있다. 제 1 주파수 도메인 오디오 채널 (252) 은 스테레오 큐 추정기 (206) 에 그리고 중간 채널 생성기 (208) 에 제공된다. 제 2 주파수 도메인 오디오 채널 (254) 은 또한, 스테레오 큐 추정기 (206) 에 그리고 중간 채널 생성기 (208) 에 제공된다.
스테레오 큐 추정기 (206) 는 스테레오 다운믹스/업믹스 파라미터 비트스트림 (290) 을 생성하기 위해 주파수 도메인 오디오 채널 (252, 254) 로부터 스테레오 큐를 추출 (예를 들어, 생성) 하도록 구성될 수도 있다. 스테레오 다운믹스/업믹스 파라미터 비트스트림 (290) 으로 인코딩된 스테레오 큐 (예를 들어, DFT 다운믹스 파라미터) 의 비-제한적 예는 주파수 도메인 이득 파라미터 (예를 들어, 사이드 이득), 채널간 위상차 (IPD) 파라미터, 스테레오 필링 또는 잔차 예측 이득 등을 포함 할 수도 있다. 일 구현에 따르면, 스테레오 큐는 ICBWE 이득 맵핑 파라미터를 포함할 수도 있다. 그러나, ICBWE 이득 맵핑 파라미터는 다른 스테레오 큐에 기초하여 결정되거나 추정될 수 있다. 따라서, 코딩 복잡성과 중복 송신을 감소시키기 위해, ICBWE 이득 맵핑 파라미터는 추출되지 않을 수도 있다 (예를 들어, ICBWE 이득 맵핑 파라미터는 스테레오 다운믹스/업믹스 파라미터 비트스트림 (290) 으로 인코딩되지 않는다). 스테레오 큐들은 스테레오 다운믹스/업믹스 파라미터 비트스트림 (290) 에 삽입 (예를 들어, 포함 또는 인코딩) 될 수도 있고, 스테레오 다운믹스/업믹스 파라미터 비트스트림 (290) 은 인코더 (114) 로부터 디코더 (118) 로 송신될 수도 있다. 스테레오 큐들이 또한 중간 채널 생성기 (208) 에 제공될 수도 있다.
중간 채널 생성기 (208) 는 주파수 도메인 제 1 주파수 도메인 오디오 채널 (252) 및 제 2 주파수 도메인 오디오 채널 (254) 에 기초하여 주파수 도메인 중간 채널 Mfr(b) (256) 을 생성할 수도 있다. 일부 구현들에 따르면, 주파수 도메인 중간 채널 Mfr(b) (256) 은 스테레오 큐들에 또한 기초하여 생성될 수도 있다. 주파수 도메인 오디오 채널 (252, 254) 및 스테레오 큐에 기초한 주파수 도메인 중간 채널 (256) 의 생성의 일부 방법들은 다음과 같다:
Figure 112019101560883-pct00003
Figure 112019101560883-pct00004
이며, 여기에서 c1(b) 및 c2(b) 는 주파수 대역당 다운믹스 파라미터들이다.
일부 구현들에서, 다운믹스 파라미터들 c1(b) 및 c2(b) 은 스테레오 큐들에 기초한다. 예를 들어, IPD들이 추정될 때 중간 사이드 다운믹스의 하나의 구현에서,
Figure 112019101560883-pct00005
Figure 112019101560883-pct00006
이며, 여기에서 i 는 -1 의 제곱근을 나타내는 허수이다. 다른 예들에서, 중간 채널은 또한 쉬프트 값 (예를 들어, 최종 쉬프트 값 (116)) 에 기초할 수도 있다. 이러한 구현들에서, 좌측 및 우측 채널들은 주파수 도메인 중간 채널의 추정 이전에 쉬프트 값의 추정에 기초하여 시간적으로 정렬될 수도 있다. 일부 구현들에서, 이 시간 정렬은 제 1 및 제 2 오디오 채널들 (130, 132) 상의 시간 도메인에서 직접 수행될 수도 있다. 다른 구현들에서, 시간 정렬은 시간 쉬프팅의 효과를 달성하기 위해 위상 회전을 적용함으로써 Lfr(b) 및 Rfr(b) 의 변환 도메인에서 수행될 수 있다. 일부 구현들에서, 채널들의 시간 정렬은 타겟 채널에서 수행되는 비-인과적 쉬프트 동작으로서 수행될 수도 있다. 다른 구현들에서, 시간 정렬은 각각 레퍼런스 채널상에서의 인과적 쉬프트 동작 또는 레퍼런스/타겟 채널상에서의 인과적/비인과적 쉬프트 동작으로서 수행될 수도 있다. 일부 구현들에서, 레퍼런스 및 타겟 채널들에 관한 정보는 (최종 쉬프트 값 (116) 의 부호에 기초하여 추정될 수 있는) 레퍼런스 채널 표시자로서 캡처될 수도 있다. 일부 구현들에서, 레퍼런스 채널 표시자 및 쉬프트 값에 관한 정보는 인코더의 비트스트림 출력의 일부로서 포함될 수도 있다.
주파수 도메인 중간 채널 (256) 은 역변환 유닛 (210) 에 제공된다. 역변환 유닛 (210) 은 시간 도메인 중간 채널 M(t) (258) 을 생성하기 위해 주파수 도메인 중간 채널 (256) 에 대해 역변환 동작을 수행할 수도 있다. 따라서, 주파수 도메인 중간 채널 (256) 은 시간 도메인으로 역변환되거나, 또는 코딩을 위해 MDCT 도메인으로 변환될 수도 있다. 시간 도메인 중간 채널 (258) 은 중간 채널 인코더 (212) 에 그리고 중간 채널 BWE 인코더 (214) 에 제공된다.
중간 채널 인코더 (212) 는 시간 도메인 중간 채널 (258) 의 저대역 부분을 인코딩하여 저대역 중간 채널 비트스트림 (292) 을 생성하도록 구성될 수도 있다. 저대역 중간 채널 비트스트림 (292) 은 인코더 (114) 로부터 디코더 (118) 로 송신될 수도 있다. 중간 채널 인코더 (212) 는 저대역 중간 채널의 저대역 중간 채널 여기 (260) 를 생성하도록 구성될 수도 있다. 저대역 중간 채널 여기 (260) 는 중간 채널 BWE 인코더 (214) 에 제공된다.
중간 채널 BWE 인코더 (214) 는 시간 도메인 중간 채널 (258) 및 저대역 중간 채널 여기 (260) 에 기초하여, 중간 채널 BWE 파라미터 (예를 들어, 선형 예측 계수들 (LPC들), 이득 형상, 이득 프레임, 등) 를 생성할 수도 있다. 중간 채널 BWE 인코더 (214) 는 중간 채널 BWE 파라미터를 고대역 중간 채널 BWE 비트스트림 (294) 으로 인코딩할 수도 있다. 고대역 중간 채널 BWE 비트스트림 (294) 은 인코더 (114) 로부터 디코더 (116) 로 송신될 수도 있다.
일 구현에 따르면, 중간 채널 BWE 인코더 (214) 는 시간 도메인 대역폭 확장 (TBE) 모델에 기초한 고대역 코딩 알고리즘을 사용하여 중간 고대역 채널을 인코딩할 수도 있다. 중간 고대역 채널의 TBE 코딩은 LPC 파라미터, 고대역 전체 이득 파라미터 및 고대역 시간 이득 형상 파라미터의 세트를 생성할 수도 있다. 중간 채널 BWE 인코더 (214) 는 중간 고대역 채널에 대응하는 중간 고대역 이득 파라미터의 세트를 생성 할 수도 있다. 예를 들어, 중간 채널 BWE 인코더 (214) 는 LPC 파라미터에 기초하여 합성된 중간 고대역 채널을 생성할 수도 있고, 중간 고대역 신호와 합성된 중간 고대역 신호의 비교에 기초하여 중간 고대역 이득 파라미터를 생성할 수도 있다. 중간 채널 BWE 인코더 (214) 는 또한, 본 명세서에 설명된 바와 같이, 적어도 하나의 조정 이득 파라미터, 적어도 하나의 조정 스펙트럼 형상 파라미터 또는 이들의 조합을 생성할 수도 있다. 중간 채널 BWE 인코더 (214) 는 LPC 파라미터들 (예를 들어, 중간 고대역 LPC 파라미터들), 중간 고대역 이득 파라미터들의 세트, 적어도 하나의 조정 이득 파라미터, 적어도 하나의 스펙트럼 형상 파라미터, 또는 이들의 조합을 송신할 수도 있다. LPC 파라미터, 중간 고대역 이득 파라미터, 또는 양자는 중간 고대역 신호의 인코딩된 버전에 대응할 수도 있다.
따라서, 인코더 (114) 는 스테레오 다운믹스/업믹스 파라미터 비트스트림 (290), 저대역 중간 채널 비트스트림 (292), 및 고대역 중간 채널 BWE 비트스트림 (294) 을 생성할 수도 있다. 비트스트림 (290, 292, 294) 은 단일 비트스트림으로 멀티플렉싱될 수도 있고, 단일 비트스트림은 디코더 (118) 로 송신될 수도 있다. 코딩 복잡성 및 중복 송신을 감소시키기 위해, ICBWE 이득 맵핑 파라미터는 스테레오 다운믹스/업믹스 파라미터 비트스트림 (290) 으로 인코딩되지 않는다. 도 3 을 참조하여 상세히 설명된 바와 같이, ICBWE 이득 맵핑 파라미터들은 다른 스테레오 큐 (예를 들어, DFT 다운믹스 스테레오 파라미터) 에 기초하여 디코더 (118) 에서 생성될 수도 있다.
도 3 을 참조하면, 디코더 (118) 의 특정 구현이 도시된다. 디코더 (118) 는 저대역 중간 채널 디코더 (302), 중간 채널 BWE 디코더 (304), 변환 유닛 (306), ICBWE 공간 밸런서 (308), 스테레오 업믹서 (310), 역변환 유닛 (312), 역변환 유닛 (314), 결합기 (316) 및 쉬프터 (320) 를 포함한다.
저대역 중간 채널 비트스트림 (292) 은 도 2 인코더 (114) 로부터 저대역 중간 채널 디코더 (302) 로 제공될 수도 있다. 저대역 중간 채널 디코더 (302) 는 저대역 중간 신호 (350) 를 생성하기 위해 저대역 중간 채널 비트스트림 (292) 을 디코딩하도록 구성될 수도 있다. 저대역 중간 채널 디코더 (302) 는 또한 저대역 중간 신호 (350) 의 여기를 생성하도록 구성될 수도 있다. 예를 들어, 저대역 중간 채널 디코더 (302) 는 저대역 중간 여기 신호 (352) 를 생성할 수도 있다. 저 대역 중간 신호 (350) 는 변환 유닛 (306) 에 제공되고, 저대역 중간 여기 신호 (352) 는 중간 채널 BWE 디코더 (304) 에 제공된다.
변환 유닛 (306) 은 주파수 도메인 저대역 중간 신호 (354) 를 생성하기 위해 저대역 중간 신호 (350) 에 변환 동작을 수행하도록 구성될 수도 있다. 예를 들어, 변환 유닛 (306) 은 저대역 중간 신호 (350) 를 시간 도메인에서 주파수 도메인으로 변환할 수도 있다. 주파수 도메인 저대역 중간 신호 (354) 는 스테레오 업믹서 (310) 에 제공된다.
스테레오 업믹서 (310) 는 스테레오 다운믹스/업믹스 파라미터 비트스트림 (290) 으로부터 추출된 스테레오 큐를 이용하여 주파수 도메인 저대역 중간 신호 (354) 에 업믹스 동작을 수행하도록 구성될 수도 있다. 예를 들어, 스테레오 다운믹스/업믹스 파라미터 비트스트림 (290) 은 (인코더 (114) 로부터) 스테레오 업믹서 (310) 에 제공될 수도 있다. 스테레오 업믹서 (310) 는 스테레오 다운믹스/업믹스 파라미터 비트스트림 (290) 과 연관된 스테레오 큐를 사용하여 주파수 도메인 저대역 중간 신호 (354) 를 업믹싱하고 제 1 주파수 도메인 저대역 채널 (356) 및 제 2 주파수 도메인 저대역 채널 (358) 을 생성할 수도 있다. 제 1 주파수 도메인 저대역 채널 (356) 은 역변환 유닛 (312) 에 제공되고, 제 2 주파수 도메인 저대역 채널 (358) 은 역변환 유닛 (314) 에 제공된다.
역변환 유닛 (312) 은 제 1 저대역 채널 (360) (예컨대, 시간 도메인 채널) 을 생성하기 위해 제 1 주파수 도메인 저대역 채널 (356) 에 역변환 동작을 수행하도록 구성될 수도 있다. 제 1 저대역 채널 (360) (예를 들어, 좌측 저대역 채널) 은 결합기 (316) 에 제공된다. 역변환 유닛 (314) 은 제 2 저대역 채널 (362) (예컨대, 시간 도메인 채널) 을 생성하기 위해 제 2 주파수 도메인 저대역 채널 (358) 에 역변환 동작을 수행하도록 구성될 수도 있다. 제 2 저대역 채널 (362) (예를 들어, 우측 저대역 채널) 은 또한 결합기 (316) 에 제공된다.
중간 채널 BWE 디코더 (304) 는 고대역 중간 채널 BWE 비트스트림 (294) 으로 인코딩된 중간 채널 BWE 파라미터 및 저대역 중간 여기 신호 (352) 에 기초하여 합성된 고대역 중간 신호 (364) 를 생성하도록 구성될 수도 있다. 예를 들어, 고대역 중간 채널 BWE 비트스트림 (294) 은 (인코더 (114) 로부터) 중간 채널 BWE 디코더 (304) 로 제공된다. 중간 채널 BWE 파라미터를 저대역 중간 여기 신호 (352) 에 적용함으로써 합성 동작이 중간 채널 BWE 디코더 (304) 에 수행될 수도 있다. 합성 동작에 기초하여, 중간 채널 BWE 디코더 (304) 는 합성된 고대역 중간 신호 (362) 를 생성할 수도 있다. 합성된 고대역 중간 신호 (364) 는 ICBWE 공간 밸런서 (308) 에 제공된다. 일부 구현들에서, 중간 채널 BWE 디코더 (304) 는 ICBWE 공간 밸런서 (308) 에 포함될 수도 있다. 다른 구현들에서, ICBWE 공간 밸런서 (308) 는 중간 채널 BWE 디코더 (304) 에 포함될 수도 있다. 일부 특정 구현들에서, 중간 채널 BWE 파라미터들은 명시적으로 결정되지 않을 수도 있지만, 오히려 제 1 및 제 2 고대역 채널들이 직접 생성될 수도 있다.
스테레오 다운믹스/업믹스 파라미터 비트스트림 (290) 은 (인코더 (114) 로부터) 디코더 (118) 에 제공된다. 도 2 에 설명된 바와 같이, ICBWE 이득 맵핑 파라미터는 디코더 (118) 에 제공된 비트스트림 (예를 들어, 스테레오 다운믹스/업믹스 파라미터 비트스트림 (290)) 에 포함되지 않는다. 따라서, ICBWE 공간 밸런서 (308) 를 사용하여 제 1 고대역 채널 (366) 및 제 2 고대역 채널을 생성하기 위해, ICBWE 공간 밸런스 (308) (또는 디코더 (118) 의 다른 컴포넌트) 는 스테레오 다운믹스/업믹스 파라미터 비트스트림 (290) 으로 인코딩된 다른 스테레오 큐들 (예를 들어, DFT 스테레오 파라미터들) 에 기초하여 ICBWE 이득 맵핑 파라미터 (332) 를 생성할 수도 있다.
ICBWE 공간 밸런서 (308) 는 ICBWE 이득 맵핑 파라미터 생성기 (322) 를 포함한다. ICBWE 이득 맵핑 파라미터 생성기 (322) 는 ICBWE 공간 밸런서 (308) 에 포함되지만, 다른 구현에서, ICBWE 이득 맵핑 파라미터 생성기 (322) 는 디코더 (118) 의 상이한 컴포넌트 내에 포함될 수도 있거나, 디코더 (118) 외부에 있을 수도 있거나, 또는 디코더 (118) 의 개별 컴포넌트일 수도 있다. ICBWE 이득 맵핑 파라미터 생성기 (322) 는 추출기 (324) 및 선택기 (326) 를 포함한다. 추출기 (324) 는 스테레오 다운믹스/업믹스 파라미터 비트스트림 (290) 으로부터 하나 이상의 주파수 도메인 이득 파라미터 (328) 를 추출하도록 구성될 수도 있다. 선택기 (326) 는 ICBWE 이득 맵핑 파라미터 (332) 의 생성에 사용하기 위해 (하나 이상의 추출된 주파수 도메인 이득 파라미터 (328) 로부터) 주파수 도메인 이득 파라미터 (330) 의 그룹을 선택하도록 구성될 수도 있다.
일 구현에 따르면, ICBWE 이득 맵핑 파라미터 생성기 (322) 는 다음 의사 코드를 사용하여 광대역 컨텐츠에 대한 ICBWE 이득 맵핑 파라미터 (332) 를 생성할 수도 있다:
Figure 112019101560883-pct00007
선택된 주파수 도메인 이득 파라미터 (330) 는 선택된 주파수 도메인 이득 파라미터 (330) 의 주파수 범위와 합성된 고대역 중간 신호 (342) 의 주파수 범위의 스펙트럼 근접성에 기초하여 선택될 수도 있다. 예를 들어, 제 1 특정 주파수 도메인 이득 파라미터의 제 1 주파수 범위는 합성된 고대역 중간 신호 (364) 의 주파수 범위를 제 1 양만큼 중첩할 수도 있고, 제 2 특정 주파수 도메인 이득 파라미터의 제 2 주파수 범위는 합성된 고대역 중간 신호 (364) 의 주파수 범위를 제 2 양만큼 중첩할 수도 있다. 예를 들어, 제 1 양이 제 2 양보다 큰 경우, 제 1 특정 주파수 도메인 이득 파라미터는 선택된 주파수 도메인 이득 파라미터 (330) 로서 선택될 수도 있다. (추출된 주파수 도메인 이득 파라미터 (328) 의) 주파수 도메인 이득 파라미터가 합성된 고대역 중간 신호 (364) 의 주파수 범위와 중첩하는 주파수 범위를 갖지 않는 구현에서, 합성된 고대역 중간 신호 (364) 의 주파수 범위에 가장 가까운 주파수 범위를 갖는 주파수 도메인 이득 파라미터는 선택된 주파수 도메인 이득 파라미터 (330) 로서 선택될 수도 있다.
주파수 도메인 이득 파라미터 선택의 비-제한적인 예로서, 광대역 코딩에 대하여, 합성된 고대역 중간 신호 (364) 는 6.4 킬로헤르츠 (kHz) 와 8 kHz 사이의 주파수 범위를 가질 수도 있다. 주파수 도메인 이득 파라미터 (330) 가 5.2 kHz 와 8.56 kHz 사이의 주파수 범위와 연관되는 경우, 주파수 도메인 이득 파라미터 (330) 는 ICBWE 이득 맵핑 파라미터 (332) 를 생성하도록 선택될 수도 있다. 예를 들어, 현재 구현들에서, 대역 수 (b) = 9 는 5.28 kHz 과 8.56 kHz 사이의 주파수 범위에 대응한다. 대역이 주파수 범위 (6.4 - 8 khz) 를 포함하기 때문에, 이 대역의 사이드 이득은 ICBWE 이득 맵핑 파라미터 (322) 를 도출하기 위해 직접 사용될 수도 있다. 고대역 (6.4-8 kHz) 에 대응하는 주파수 범위에 걸쳐있는 대역이 없는 경우, 고대역의 주파수 범위에 가장 가까운 대역이 사용될 수도 있다. 고대역에 대응하는 다수의 주파수 범위가 존재하는 예시적인 구현에서, 각각의 주파수 범위로부터의 사이드 이득은 주파수 대역에 따라 가중되어 최종 ICBWE 이득 맵핑 파라미터, 즉 gsMapping = weight[b] * sidegain[b] + weight[b+1] * sidegain[b+1] 를 생성한다.
선택기 (326) 가 주파수 도메인 이득 파라미터 (330) 를 선택한 후에, ICBWE 이득 맵핑 파라미터 생성기 (322) 는 주파수 도메인 이득 파라미터 (330) 를 사용하여 ICBWE 이득 맵핑 파라미터 (332) 를 생성할 수도 있다. 일 구현에 따르면, ICBWE 이득 맵핑 파라미터 (gsMapping) (332) 는 다음 식을 사용하여 선택된 주파수 도메인 이득 파라미터 (sidegain) (330) 에 기초하여 결정될 수도 있다:
gsMapping = (1 - sidegain)
예를 들어, 사이드 이득은 ILD 의 대안적인 표현일 수도 있다. ILD 는 주파수 도메인 오디오 채널 (252, 254) 에 기초하여 주파수 대역에서 (스테레오 큐 추정기 (206) 에 의해) 추출될 수도 있다. ILD 와 사이드 이득 간의 관계는 대략 다음과 같을 수도 있다:
Figure 112019101560883-pct00008
따라서, ICBWE 이득 맵핑 파라미터 (322) 는 또한 다음과 같이 표현될 수도 있다:
Figure 112019101560883-pct00009
ICBWE 이득 맵핑 파라미터 생성기 (322) 가 ICBWE 이득 맵핑 파라미터 (gsMapping) (322) 를 생성하면, ICBWE 공간 밸런서 (308) 는 제 1 고대역 채널 (366) 및 제 2 고대역 채널 (368) 을 생성할 수도 있다. 예를 들어, ICBWE 공간 밸런서 (308) 는 고대역 채널 (366) 을 생성하기 위해 ICBWE 이득 맵핑 파라미터 (gsMapping) (322) 에 기초하여 합성된 고대역 중간 신호 (364) 에 이득 스케일링 동작을 수행하도록 구성될 수도 있다. 예시하기 위해, ICBWE 공간 밸런서 (308) 는 2 와 ICBWE 이득 맵핑 파라미터 (332) (예를 들어, 2-gsMapping 또는
Figure 112019101560883-pct00010
) 의 차이에 의해 합성된 고대역 중간 신호 (364) 를 스케일링하여 제 1 고대역 채널 (366) (예컨대, 좌측 고대역 채널) 을 생성할 수도 있고, 및 ICBWE 공간 밸런서 (308) 는 ICBWE 이득 맵핑 파라미터 (332) 에 의해 합성된 고대역 중간 신호 (364) 를 스케일링하여 제 2 고대역 채널 (368) (예를 들어, 우측 고대역 채널) 을 생성할 수도 있다. 고대역 채널 (366, 368) 이 결합기 (316) 에 제공된다. ICBWE 이득 맵핑으로 프레임간 이득 변동 아티팩트를 최소화하기 위해, 테이퍼드 윈도우 (예를 들어, Sine(.) 윈도우 또는 삼각 윈도우) 를 갖는 중첩-추가는 i-번째 프레임의 gsMapping 파라미터를 (i+1) 번째 프레임의 gsMapping 파라미터로 트랜지션할 때 프레임 경계에서 사용될 수도 있다.
ICBWE 레퍼런스 채널은 결합기 (316) 에서 사용될 수도 있다. 예를 들어, 결합기 (316) 는 어느 고대역 채널 (366, 368) 이 좌측 채널에 대응하고 어느 고대역 채널 (366, 368) 이 우측 채널에 대응하는지를 결정할 수도 있다. 따라서, 좌측 고대역 채널이 제 1 고대역 채널 (366) 또는 제 2 고대역 채널 (368) 에 대응하는지의 여부를 나타내기 위해 레퍼런스 채널 표시자가 ICBWE 공간 밸런서 (308) 에 제공될 수도 있다. 결합기 (316) 는 제 1 고대역 채널 (366) 과 제 1 저대역 채널 (360) 을 결합하여 제 1 채널 (370) 을 생성하도록 구성될 수도 있다. 예를 들어, 결합기 (316) 는 좌측 고대역 채널과 좌측 저대역 채널 (360) 을 결합하여 좌측 채널을 생성할 수도 있다. 결합기 (316) 는 또한, 제 2 고대역 채널 (368) 과 제 2 저대역 채널 (362) 을 결합하여 제 2 채널 (372) 을 생성하도록 구성될 수도 있다. 예를 들어, 결합기 (316) 는 우측 고대역 채널과 우측 저대역 채널을 결합하여 우측 채널을 생성할 수도 있다. 제 1 및 제 2 채널 (370, 372) 이 쉬프터 (320) 에 제공된다.
일 예로서, 제 1 채널은 레퍼런스 채널로 지정될 수도 있고, 제 2 채널은 비-레퍼런스 채널 또는 "타겟" 채널로 지정될 수도 있다. 따라서, 제 2 채널 (372) 은 쉬프터 (320) 에서 쉬프팅 동작의 대상일 수도 있다. 쉬프터 (320) 는 스테레오 다운믹스/업믹스 파라미터 비트스트림 (290) 으로부터 쉬프트 값 (예를 들어, 최종 쉬프트 값 (116)) 을 추출할 수도 있고, 제 2 채널 (372) 을 쉬프트 값만큼 쉬프트하여 제 2 출력 채널 (128) 을 생성할 수도 있다. 쉬프터 (320) 는 제 1 고대역 채널 (366) 을 제 1 출력 채널 (126) 로서 통과시킬 수도 있다. 일부 구현들에서, 쉬프터 (320) 는 타겟 채널에서 인과적 쉬프팅을 수행하도록 구성될 수도 있다. 일부 구현들에서, 쉬프터 (320) 는 레퍼런스 채널에서 비-인과적 쉬프팅을 수행하도록 구성될 수도 있다. 다른 구현들에서, 쉬프터 (320) 는 각각 타겟/레퍼런스 채널에서 인과적/비-인과적 쉬프팅을 수행하도록 구성될 수도 있다. 어떤 채널이 타겟 채널이고 어떤 채널이 레퍼런스 채널인지를 나타내는 정보는 수신된 비트스트림의 일부로서 포함될 수도 있다. 일부 구현들에서, 쉬프터 (320) 는 시간 도메인에서 쉬프트 동작을 수행할 수도 있다. 다른 구현들에서, 쉬프트 동작은 주파수 도메인에 있을 수도 있다. 일부 구현들에 있어서, 쉬프터 (320) 는 스테레오 업믹서 (310) 에 포함될 수도 있다. 따라서, 쉬프트 동작은 저대역 신호에 수행될 수도 있다.
일 구현에 따르면, 쉬프팅 동작은 ICBWE 동작과 무관할 수도 있다. 예를 들어, 고대역의 레퍼런스 채널 표시자는 쉬프터 (320) 에 대한 레퍼런스 채널 표시자와 동일하지 않을 수도 있다. 예시하기 위해, 고대역의 레퍼런스 채널 (예를 들어, ICBWE 동작과 연관된 레퍼런스 채널) 은 쉬프터 (320) 에서 레퍼런스 채널과 상이할 수도 있다. 일부 구현들에 따르면, 레퍼런스 채널은 쉬프터 (320) 에서 지정되지 않을 수도 있고, 쉬프터 (320) 는 2 개의 채널들 (370, 372) 을 쉬프팅하도록 구성될 수있다.
따라서, 인코더 (114) 에서 ICBWE 이득 맵핑 파라미터의 추출 및 송신을 생략함으로써 인코딩 복잡성 및 송신 대역폭이 감소될 수도 있다. ICBWE 이득 맵핑 파라미터 (332) 는 비트스트림 (290) 에 포함된 다른 스테레오 파라미터 (예를 들어, 주파수 도메인 이득 파라미터 (328)) 에 기초하여 디코더 (118) 에서 생성될 수도 있다.
도 4 를 참조하여, 인코더로부터 송신된 주파수 도메인 이득 파라미터에 기초하여 ICBWE 맵핑 파라미터를 결정하는 방법 (400) 이 도시된다. 방법 (400) 은 도 1 및 도 3 의 디코더 (118) 에 의해 수행될 수도 있다.
방법 (400) 은 402 에서, 인코더로부터 비트스트림을 수신하는 것을 포함한다. 비트스트림은 적어도 저대역 중간 채널 비트스트림, 고대역 중간 채널 BWE 비트스트림, 및 스테레오 다운믹스/업믹스 파라미터 비트스트림을 포함할 수도 있다. 예를 들어, 도 3 을 참조하면, 디코더 (118) 는 스테레오 다운믹스/업믹스 파라미터 비트스트림 (290), 저대역 중간 채널 비트스트림 (292), 및 고대역 중간 채널 BWE 비트스트림 (294) 을 수신할 수도 있다.
방법 (400) 은 또한 404 에서, 저대역 중간 채널 비트스트림을 디코딩하여 저대역 중간 신호 및 저대역 중간 여기 신호를 생성하는 것을 포함한다. 예를 들어, 도 3 을 참조하면. 저대역 중간 채널 디코더 (302) 는 저대역 중간 채널 비트스트림 (292) 을 디코딩하여 저대역 중간 신호 (350) 를 생성할 수도 있다. 저대역 중간 채널 디코더 (302) 는 또한 저대역 중간 여기 신호 (352) 를 생성할 수도 있다.
방법 (400) 은 406 에서, 저대역 중간 여기 신호의 비선형 하모닉 확장에 기초하여 그리고 고대역 채널 BWE 파라미터에 기초하여 합성된 고대역 중간 신호를 생성하기 위해 고대역 중간 채널 BWE 비트스트림을 디코딩하는 것을 더 포함한다. 예를 들어, 중간 채널 BWE 디코더 (304) 는 고대역 중간 채널 BWE 비트스트림 (294) 으로 인코딩된 중간 채널 BWE 파라미터 및 저대역 중간 여기 신호 (352) 에 기초하여 합성된 고대역 중간 신호 (364) 를 생성할 수도 있다. 예시하기 위해, 중간 채널 BWE 파라미터를 저대역 중간 여기 신호 (352) 에 적용함으로써 합성 동작이 중간 채널 BWE 디코더 (304) 에서 수행될 수도 있다. 합성 동작에 기초하여, 중간 채널 BWE 디코더 (304) 는 합성된 고대역 중간 신호 (364) 를 생성할 수도 있다.
방법 (400) 은 또한 408 에서, 스테레오 다운믹스/업믹스 파라미터 비트스트림으로부터 추출되는 선택된 주파수 도메인 이득 파라미터에 기초하여, 합성된 고대역 중간 신호에 대한 ICBWE 이득 맵핑 파라미터를 결정하는 것을 포함한다. 선택된 주파수 도메인 이득 파라미터는 선택된 주파수 도메인 이득 파라미터의 주파수 범위와 합성된 고대역 중간 신호의 주파수 범위의 스펙트럼 근접성에 기초하여 선택될 수도 있다. 예를 들어, 도 3 을 참조하면, 추출기는 스테레오 다운믹스/업믹스 파라미터 비트스트림 (290) 으로부터 주파수 도메인 이득 파라미터 (328) 를 추출할 수도 있고, 선택기 (326) 는 ICBWE 이득 맵핑 파라미터 (332) 의 생성에 사용하기 위해 (하나 이상의 추출된 주파수 도메인 이득 파라미터 (328) 로부터) 주파수 도메인 이득 파라미터 (330) 를 선택할 수도 있다. 따라서, 일 구현에 따르면, 방법 (400) 은 또한 스테레오 파라미터 비트스트림으로부터 하나 이상의 주파수 도메인 이득 파라미터를 추출하는 것을 포함할 수도 있다. 선택된 주파수 도메인 이득 파라미터는 하나 이상의 주파수 도메인 이득 파라미터로부터 선택될 수도 있다.
선택된 주파수 도메인 이득 파라미터 (330) 는 선택된 주파수 도메인 이득 파라미터 (330) 의 주파수 범위와 합성된 고대역 중간 신호 (342) 의 주파수 범위의 스펙트럼 근접성에 기초하여 선택될 수도 있다. 예시하기 위해, 광대역 코딩에 대하여, 합성된 고대역 중간 신호 (364) 는 6.4 킬로헤르츠 (kHz) 와 8 kHz 사이의 주파수 범위를 가질 수도 있다. 주파수 도메인 이득 파라미터 (330) 가 5.2 kHz 와 8.56 kHz 사이의 주파수 범위와 연관되는 경우, 주파수 도메인 이득 파라미터 (330) 는 ICBWE 이득 맵핑 파라미터 (332) 를 생성하도록 선택될 수도 있다.
선택기 (326) 가 주파수 도메인 이득 파라미터 (330) 를 선택한 후에, ICBWE 이득 맵핑 파라미터 생성기 (322) 는 주파수 도메인 이득 파라미터 (330) 를 사용하여 ICBWE 이득 맵핑 파라미터 (332) 를 생성할 수도 있다. 일 구현에 따르면, ICBWE 이득 맵핑 파라미터 (gsMapping) (332) 는 다음 식을 사용하여 선택된 주파수 도메인 이득 파라미터 (sidegain) (330) 에 기초하여 결정될 수도 있다:
Figure 112019101560883-pct00011
방법 (400) 은 추가로, 410 에서, 레퍼런스 고대역 채널 및 타겟 고대역 채널을 생성하기 위해 ICBWE 이득 맵핑 파라미터에 기초하여 합성된 고대역 중간 신호에 이득 스케일링 동작을 수행하는 것을 포함한다. 이득 스케일링 동작을 수행하는 것은 ICBWE 이득 맵핑 파라미터에 의해 합성된 고대역 중간 신호를 스케일링하여 우측 고대역 채널을 생성하는 것을 포함할 수도 있다. 예를 들어, 도 3 을 참조하면, ICBWE 공간 밸런서 (308) 는 ICBWE 이득 맵핑 파라미터 (332) 에 의해 합성된 고대역 중간 신호 (364) 를 스케일링하여 제 2 고대역 채널 (368) (예를 들어, 우측 고대역 채널) 을 생성할 수도 있다. 이득 스케일링 동작을 수행하는 것은 또한, 2 와 ICBWE 이득 맵핑 파라미터간의 차이에 의해 합성된 고대역 중간 신호를 스케일링하여 좌측 고대역 채널을 생성하는 것을 포함할 수도 있다. 예를 들어, 도 3 을 참조하면, ICBWE 공간 밸런서 (308) 는 2 와 ICBWE 이득 맵핑 파라미터 (332) 간의 차이 (예컨대, 2-gsMapping) 에 의해 합성된 고대역 중간 신호 (364) 를 스케일링하여 제 1 고대역 채널 (366) (예를 들어, 좌측 고대역 채널) 을 생성할 수도 있다.
방법 (400) 은 또한 412 에서, 제 1 오디오 채널 및 제 2 오디오 채널을 출력하는 것을 포함한다. 제 1 오디오 채널은 레퍼런스 고대역 채널에 기초할 수도 있고, 제 2 오디오 채널은 타겟 고대역 채널에 기초할 수도 있다. 예를 들어, 도 1 을 참조하면. 제 2 디바이스 (106) 는 제 1 출력 채널 (126) (예를 들어, 좌측 채널 (370) 에 기초한 제 1 오디오 채널) 및 제 2 출력 채널 (128) (예를 들어, 우측 채널 (372) 에 기초한 제 2 오디오 채널) 을 출력할 수도 있다.
따라서, 방법 (400) 에 따라, 인코더 (114) 에서 ICBWE 이득 맵핑 파라미터의 추출 및 송신을 생략함으로써 인코딩 복잡성 및 송신 대역폭이 감소될 수도 있다. ICBWE 이득 맵핑 파라미터 (332) 는 비트스트림 (290) 에 포함된 다른 스테레오 파라미터 (예를 들어, 주파수 도메인 이득 파라미터 (328)) 에 기초하여 디코더 (118) 에서 생성될 수도 있다.
도 5 를 참조하면, 디바이스 (예컨대, 무선 통신 디바이스) 의 특정한 예시적인 예의 블록도가 도시되고 일반적으로 500 으로 지정된다. 다양한 구현들에 있어서, 디바이스 (500) 는 도 5 에 예시된 것들보다 더 적거나 더 많은 컴포넌트들을 가질 수도 있다. 예시적인 구현에서, 디바이스 (500) 는 도 1 의 제 2 디바이스 (106) 에 대응할 수도 있다. 예시적인 구현에 있어서, 디바이스 (500) 는 도 1 내지 도 4 의 시스템들 및 방법들을 참조하여 설명된 하나 이상의 동작들을 수행할 수도 있다.
특정 구현에 있어서, 디바이스 (500) 는 프로세서 (506) (예컨대, 중앙 프로세싱 유닛 (CPU)) 를 포함한다. 디바이스 (500) 는 하나 이상의 추가의 프로세서들 (510) (예컨대, 하나 이상의 디지털 신호 프로세서들 (DSP들)) 을 포함할 수도 있다. 프로세서들 (510) 은 미디어 (예를 들어, 스피치 및 뮤직) 코더-디코더 (코덱 (CODEC)) (508), 및 에코 상쇄기 (512) 를 포함할 수도 있다. 미디어 코덱 (508) 은 도 1 의 디코더 (118), 인코더 (114), 또는 이들 양자를 포함할 수도 있다. 디코더 (118) 는 ICBWE 이득 맵핑 파라미터 생성기 (322) 를 포함할 수도 있다.
디바이스 (500) 는 메모리 (153) 및 코덱 (534) 을 포함할 수도 있다. 미디어 코덱 (508) 이 프로세서들 (510) 의 컴포넌트 (예를 들어, 전용 회로부 및/또는 실행가능 프로그래밍 코드) 로서 예시되지만, 다른 구현들에 있어서, 미디어 코덱 (508) 의 하나 이상의 컴포넌트들, 예컨대, 디코더 (118), 인코더 (114), 또는 이들 양자는 프로세서 (506), 코덱 (534), 다른 프로세싱 컴포넌트, 또는 이들의 조합에 포함될 수도 있다.
디바이스 (500) 는 안테나 (542) 에 커플링된 트랜시버 (590) 를 포함할 수도 있다. 디바이스 (500) 는 디스플레이 제어기 (526) 에 커플링된 디스플레이 (528) 를 포함할 수도 있다. 하나 이상의 스피커들 (548) 이 코덱 (534) 에 커플링될 수도 있다. 하나 이상의 마이크로폰들 (546) 은, 입력 인터페이스(들) (592) 를 통해, 코덱 (534) 에 커플링될 수도 있다. 특정 구현에서, 스피커들 (548) 은 도 1 의 제 1 라우드스피커 (142), 제 2 라우드스피터 (144), 또는 이들의 조합을 포함할 수도 있다. 코덱 (534) 은 디지털-아날로그 컨버터 (DAC) (502) 및 아날로그-디지털 컨버터 (ADC) (504) 를 포함할 수도 있다.
메모리 (153) 는 도 1 내지 도 4 를 참조하여 설명된 하나 이상의 동작들을 수행하기 위해, 디코더 (118), 프로세서 (506), 프로세서들 (510), 코덱 (534), 디바이스 (500) 의 다른 프로세싱 유닛, 또는 이들의 조합에 의해 실행가능한 명령들 (560) 을 포함할 수도 있다.
예를 들어 명령들 (560) 은 프로세서 (510) 로 하여금 저대역 중간 채널 비트스트림 (292) 을 디코딩하여 저대역 중간 신호 (350) 및 저대역 중간 여기 신호 (352) 를 생성하게 하도록 실행가능할 수도 있다. 명령들 (560) 은 추가로, 프로세서 (510) 로 하여금 저대역 중간 여기 신호 (352) 에 기초하여 고대역 중간 채널 BWE 비트스트림 (294) 을 디코딩하여 합성된 고대역 중간 신호 (364) 를 생성하게 하도록 실행가능할 수도 있다. 명령들은 (560) 은 또한, 프로세서 (510) 로 하여금 스테레오 다운믹스/업믹스 파라미터 비트스트림 (290) 으로부터 추출되는 선택된 주파수 도메인 이득 파라미터 (330) 에 기초하여, 합성된 고대역 중간 신호 (364) 에 대한 ICBWE 이득 맵핑 파라미터 (332) 를 결정하게 하도록 실행가능할 수도 있다. 선택된 주파수 도메인 이득 파라미터 (330) 는 선택된 주파수 도메인 이득 파라미터 (330) 의 주파수 범위와 합성된 고대역 중간 신호 (364) 의 주파수 범위의 스펙트럼 근접성에 기초하여 선택될 수도 있다. 명령들 (560) 은 추가로, 프로세서 (510) 로 하여금 제 1 고대역 채널 (366) (예를 들어, 좌측 고대역 채널) 및 제 2 고대역 채널 (368) (예를 들어, 우측 고대역 채널) 을 생성하기 위해 ICBWE 이득 맵핑 파라미터 (332) 에 기초하여 합성된 고대역 중간 신호 (364) 에 이득 스케일링 동작을 수행하게 하도록 실행가능할 수도 있다. 명령들 (560) 은 또한, 프로세서 (510) 로 하여금 제 1 출력 채널 (326) 및 제 2 출력 채널 (328) 을 생성하게 하도록 실행가능할 수도 있다.
디바이스 (500) 의 하나 이상의 컴포넌트들은 전용 하드웨어 (예컨대, 회로부) 를 통해, 하나 이상의 태스크들을 수행하기 위한 명령들을 실행하는 프로세서에 의해, 또는 이들의 조합에 의해 구현될 수도 있다. 일 예로서, 프로세서 (506), 프로세서들 (510), 및/또는 코덱 (534) 중 하나 이상의 컴포넌트들 또는 메모리 (153) 는 랜덤 액세스 메모리 (RAM), 자기저항 랜덤 액세스 메모리 (MRAM), 스핀-토크 전달 MRAM (STT-MRAM), 플래시 메모리, 판독 전용 메모리 (ROM), 프로그래밍가능 판독 전용 메모리 (PROM), 소거가능한 프로그래밍가능 판독 전용 메모리 (EPROM), 전기적으로 소거가능한 프로그래밍가능 판독 전용 메모리 (EEPROM), 레지스터들, 하드 디스크, 착탈가능 디스크, 또는 컴팩트 디스크 판독 전용 메모리 (CD-ROM) 와 같은 메모리 디바이스일 수도 있다. 메모리 디바이스는, 컴퓨터 (예를 들어, 코덱 (534) 내의 프로세서, 디코더 (118), 프로세서 (506), 및/또는 프로세서들 (510)) 에 의해 실행될 때, 컴퓨터로 하여금, 도 1 내지 도 4 를 참조하여 설명된 하나 이상의 동작들을 수행하게 할 수도 있는 명령들 (예를 들어, 명령들 (560)) 을 포함할 수도 있다. 일 예로서, 메모리 (153) 또는 프로세서 (506), 프로세서들 (510), 및/또는 코덱 (634) 의 하나 이상의 컴포넌트들은, 컴퓨터 (예를 들어, 코덱 (534) 내의 프로세서, 디코더 (118), 프로세서 (506), 및/또는 프로세서들 (510)) 에 의해 실행될 때, 컴퓨터로 하여금, 도 1 내지 도 4 를 참조하여 설명된 하나 이상의 동작들을 수행하게 할 수도 있는 명령들 (예를 들어, 명령들 (560)) 을 포함하는 비일시적 컴퓨터 판독가능 매체일 수도 있다.
특정 구현에 있어서, 디바이스 (500) 는 시스템-인-패키지 또는 시스템-온-칩 디바이스 (예컨대, 이동국 모뎀 (MSM)) (522) 에 포함될 수도 있다. 특정 구현에서, 프로세서 (506), 프로세서들 (510), 디스플레이 제어기 (526), 메모리 (153), 코덱 (534), 및 트랜시버 (590) 가 시스템-인-패키지 또는 시스템-온-칩 디바이스 (522) 에 포함된다. 특정 구현에 있어서, 터치스크린 및/또는 키패드와 같은 입력 디바이스 (530) 및 전력 공급부 (544) 가 시스템-온-칩 디바이스 (522) 에 커플링된다. 더욱이, 특정 구현에 있어서, 도 5 에 도시된 바와 같이, 디스플레이 (528), 입력 디바이스 (530), 스피커 (548), 마이크로폰 (546), 안테나 (542), 및 전력 공급부 (544) 는 시스템-온-칩 디바이스 (522) 외부에 있다. 하지만, 디스플레이 (528), 입력 디바이스 (530), 스피커 (548), 마이크로폰 (546), 안테나 (542), 및 전력 공급부 (544) 는 인터페이스 또는 제어기와 같은 시스템-온-칩 디바이스 (522) 의 컴포넌트에 커플링될 수 있다.
디바이스 (500) 는 무선 전화기, 모바일 통신 디바이스, 모바일 폰, 스마트 폰, 셀룰러 폰, 랩톱 컴퓨터, 데스크톱 컴퓨터, 컴퓨터, 태블릿 컴퓨터, 셋톱 박스, 개인 디지털 보조기 (PDA), 디스플레이 디바이스, 텔레비전, 게이밍 콘솔, 뮤직 플레이어, 무선기기, 비디오 플레이어, 엔터테인먼트 유닛, 통신 디바이스, 고정 위치 데이터 유닛, 개인 미디어 플레이어, 디지털 비디오 플레이어, 디지털 비디오 디스크 (DVD) 플레이어, 튜너, 카메라, 네비게이션 디바이스, 디코더 시스템, 인코더 시스템, 또는 이들의 임의의 조합을 포함할 수도 있다.
특정 구현에서, 본 명세서에서 개시된 시스템들 및 디바이스들의 하나 이상의 컴포넌트들은 디코딩 시스템 또는 장치 (예를 들어, 전자 디바이스, 코덱, 또는 그 내부의 프로세서) 에, 인코딩 시스템 또는 장치에, 또는 양자 모두에 통합될 수도 있다. 다른 구현들에서, 본 명세서에서 개시된 시스템들 및 디바이스들의 하나 이상의 컴포넌트들은 무선 전화기, 태블릿 컴퓨터, 데스크톱 컴퓨터, 랩톱 컴퓨터, 셋톱 박스, 뮤직 플레이어, 비디오 플레이어, 엔터테인먼트 유닛, 텔레비전, 게임 콘솔, 네비게이션 디바이스, 통신 디바이스, 개인 디지털 보조기 (PDA), 고정 위치 데이터 유닛, 개인 미디어 플레이어, 또는 다른 타입의 디바이스에 통합될 수도 있다.
본 명세서에서 개시된 시스템들 및 디바이스들의 하나 이상의 컴포넌트들에 의해 수행된 다양한 기능들은 소정의 컴포넌트들 또는 모듈들에 의해 수행되는 것으로서 설명됨에 유의해야 한다. 컴포넌트들 및 모듈들의 이러한 분할은 단지 예시를 위한 것이다. 대안의 구현에서, 특정 컴포넌트 또는 모듈에 의해 수행된 기능은 다중 컴포넌트들 또는 모듈들 중에서 분할될 수도 있다. 더욱이, 다른 대안의 구현에서, 2 개 이상의 컴포넌트들 또는 모듈들은 단일 컴포넌트 또는 모듈에 통합될 수도 있다. 각각의 컴포넌트 또는 모듈은 하드웨어 (예를 들어, 필드 프로그래밍가능 게이트 어레이 (FPGA) 디바이스, 주문형 집적 회로 (ASIC), DSP, 제어기, 등), 소프트웨어 (예를 들어, 프로세서에 의해 실행가능한 명령들), 또는 이들의 임의의 조합을 사용하여 구현될 수도 있다.
설명된 구현들과 함께, 장치는 인코더로부터 비트스트림을 수신하는 수단을 포함한다. 비트스트림은 저대역 중간 채널 비트스트림, 중간 채널 BWE 비트스트림, 및 스테레오 파라미터 비트스트림을 포함할 수도 있다. 예를 들어, 수신하는 수단은 도 1 의 제 2 디바이스 (106), 도 5 의 안테나 (542), 도 5 의 트랜시버 (590), 하나 이상의 다른 디바이스, 모듈, 회로, 컴포넌트 또는 이들의 조합을 포함할 수도 있다.
장치는 또한 저대역 중간 채널 비트스트림을 디코딩하여 저대역 중간 신호 및 저대역 중간 신호의 저대역 중간 채널 여기를 생성하는 수단을 포함할 수도 있다. 예를 들어, 저대역 중간 채널 비트스트림을 디코딩하는 수단은 도 1, 도 3, 및 도 5 의 디코더 (118), 도 3 의 저대역 중간 채널 디코더 (302), 도 5 의 코덱 (508), 프로세서 (510), 도 5 의 프로세서 (506), 디바이스 (500), 프로세서, 하나 이상의 다른 디바이스, 모듈, 회로, 컴포넌트, 또는 이들의 조합에 의해 실행가능한 명령들 (560) 을 포함할 수도 있다.
장치는 또한 합성된 고대역 중간 신호를 생성하기 위해 저대역 중간 채널 여기에 기초하여 중간 채널 BWE 비트스트림을 디코딩하는 수단을 포함할 수도 있다. 예를 들어, 중간 채널 BWE 비트스트림을 디코딩하는 수단은 도 1, 도 3, 및 도 5 의 디코더 (118), 도 3 의 중간 채널 BWE 디코더 (304), 도 5 의 코덱 (508), 프로세서 (510), 도 5 의 프로세서 (506), 디바이스 (500), 프로세서, 하나 이상의 다른 디바이스, 모듈, 회로, 컴포넌트, 또는 이들의 조합에 의해 실행가능한 명령들 (560) 을 포함할 수도 있다.
장치는 또한, 스테레오 파라미터 비트스트림으로부터 추출되는 선택된 주파수 도메인 이득 파라미터에 기초하여, 합성된 고대역 중간 신호에 대한 ICBWE 이득 맵핑 파라미터를 결정하는 수단을 포함할 수도 있다. 선택된 주파수 도메인 이득 파라미터는 선택된 주파수 도메인 이득 파라미터의 주파수 범위와 합성된 고대역 중간 신호의 주파수 범위의 스펙트럼 근접성에 기초하여 선택될 수도 있다. 예를 들어, 중간 채널 BWE 비트스트림 맵핑 파라미터를 결정하는 수단은 도 1, 도 3, 및 도 5 의 디코더 (118), 도 3 의 ICBWE 공간 밸런서 (308), 도 3 의 ICBWE 이득 맵핑 파라미터 생성기 (322), 도 3 의 추출기 (324), 도 3 의 선택기 (326), 도 5 의 코덱 (508), 프로세서 (510), 도 5 의 프로세서 (506), 디바이스 (500), 프로세서, 하나 이상의 다른 디바이스, 모듈, 회로, 컴포넌트, 또는 이들의 조합에 의해 실행가능한 명령들 (560) 을 포함할 수도 있다.
장치는 또한, 좌측 고대역 채널 및 우측 고대역 채널을 생성하기 위해 ICBWE 이득 맵핑 파라미터에 기초하여 합성된 고대역 중간 신호에 이득 스케일링 동작을 수행하는 수단을 포함할 수도 있다. 예를 들어, 이득 스케일링 동작을 수행하는 수단은 도 1, 도 3, 및 도 5 의 디코더 (118), 도 3 의 ICBWE 공간 밸런서 (308), 도 5 의 코덱 (508), 프로세서 (510), 도 5 의 프로세서 (506), 디바이스 (500), 프로세서, 하나 이상의 다른 디바이스, 모듈, 회로, 컴포넌트, 또는 이들의 조합에 의해 실행가능한 명령들 (560) 을 포함할 수도 있다.
장치는 또한, 제 1 오디오 채널 및 제 2 오디오 채널을 출력하는 수단을 포함할 수도 있다. 제 1 오디오 채널은 좌측 고대역 채널에 기초할 수도 있고, 제 2 오디오 채널은 우측 고대역 채널에 기초할 수도 있다. 예를 들어, 출력하는 수단은 도 1 의 제 1 라우드스피커 (142), 도 1 의 제 2 라우드스피커 (144), 도 5 의 스피커 (548), 하나 이상의 다른 디바이스, 모듈, 회로, 컴포넌트 또는 이들의 조합을 포함할 수도 있다.
도 6 을 참조하여, 기지국 (600) 의 특정 예시적인 예의 블록 다이어그램이 도시된다. 다양한 구현들에서, 기지국 (600) 은 도 6 에 도시된 것보다 더 많은 컴포넌트들 또는 더 적은 컴포넌트들을 가질 수도 있다. 예시적인 예에서, 기지국 (600) 은 도 1 의 제 2 디바이스 (106) 를 포함할 수도 있다. 예시적인 예에 있어서, 기지국 (600) 은 도 1 내지 도 5 를 참조하여 설명된 방법들 또는 시스템들 중 하나 이상에 따라 동작할 수도 있다.
기지국 (600) 은 무선 통신 시스템의 부분일 수도 있다. 무선 통신 시스템은 다중 기지국들 및 다중 무선 디바이스들을 포함할 수도 있다. 무선 통신 시스템은 롱 텀 에볼루션 (LTE) 시스템, 코드 분할 다중 액세스 (CDMA) 시스템, 모바일 통신용 글로벌 시스템 (GSM) 시스템, 무선 로컬 영역 네트워크 (WLAN) 시스템, 또는 일부 다른 무선 시스템일 수도 있다. CDMA 시스템은 광대역 CDMA (WCDMA), CDMA 1X, EVDO (Evolution-Data Optimzed), 시분할 동기 CDMA (TD-SCDMA), 또는 CDMA 의 일부 다른 버전을 구현할 수도 있다.
무선 디바이스들은 또한, 사용자 장비 (UE), 이동국, 단말기, 액세스 단말기, 가입자 유닛, 스테이션 등으로 지칭될 수도 있다. 무선 디바이스들은 셀룰러 폰, 스마트폰, 태블릿, 무선 모뎀, 개인 디지털 보조기 (PDA), 핸드헬드 디바이스, 랩톱 컴퓨터, 스마트북, 넷북, 태블릿, 코드리스 폰, 무선 로컬 루프 (WLL) 스테이션, 블루투스 디바이스 등을 포함할 수도 있다. 무선 디바이스들은 도 6 의 디바이스 (500) 를 포함하거나 또는 그에 대응할 수도 있다.
메시지들 및 데이터 (예를 들어, 오디오 데이터) 를 전송 및 수신하는 것과 같이, 다양한 기능들이 기지국 (600) 의 하나 이상의 컴포넌트들에 의해 (및/또는 도시되지 않은 다른 컴포넌트들에서) 수행될 수도 있다. 특정 예에서, 기지국 (600) 은 프로세서 (606) (예를 들어, CPU) 를 포함한다. 기지국 (600) 은 트랜스코더 (610) 를 포함할 수도 있다. 트랜스코더 (610) 는 오디오 코덱 (608) 을 포함할 수도 있다. 예를 들어, 트랜스코더 (610) 는 오디오 CODEC (608) 의 동작들을 수행하도록 구성된 하나 이상의 컴포넌트들 (예컨대, 회로) 를 포함할 수도 있다. 다른 예로서, 트랜스 코더 (610) 는 오디오 코덱 (608) 의 동작들을 수행하기 위해 하나 이상의 컴퓨터 판독가능 명령들을 실행하도록 구성될 수도 있다. 오디오 코덱 (608) 은 트랜스코더 (610) 의 컴포넌트로서 도시되지만, 다른 예들에서 오디오 코덱 (608) 의 하나 이상의 컴포넌트들은 프로세서 (606), 다른 프로세싱 컴포넌트, 또는 이들의 조합에 포함될 수도 있다. 예를 들어, 디코더 (638) (예를 들어, 보코더 디코더) 는 수신기 데이터 프로세서 (664) 에 포함될 수도 있다. 다른 예로서, 인코더 (636) (예를 들어, 보코더 인코더) 는 송신 데이터 프로세서 (682)에 포함될 수도 있다. 인코더 (636) 는 도 1 의 인코더 (114) 를 포함할 수도 있다. 디코더 (638) 는 도 1 의 디코더 (118) 를 포함할 수도 있다.
트랜스코더 (610) 는 2 이상의 네트워크들 사이에서 메시지들 및 데이터를 트랜스코딩하도록 기능할 수도 있다. 트랜스코더 (610) 는 제 1 포맷 (예컨대, 디지털 포맷) 으로부터 제 2 포맷으로 메세지 및 오디오 데이터를 컨버팅하도록 구성될 수도 있다. 예시를 위해, 디코더 (638) 는 제 1 포맷을 갖는 인코딩된 신호들을 디코딩할 수도 있고, 인코더 (636) 는 디코딩된 신호들을 제 2 포맷을 갖는 인코딩된 신호들로 인코딩할 수도 있다. 부가적으로 또는 대안적으로, 트랜스코더 (610) 는 데이터 레이트 적응을 수행하도록 구성될 수도 있다. 예를 들어, 트랜스코더 (610) 는 오디오 데이터의 포맷을 변경하는 일없이 데이터 레이트를 다운-컨버팅하거나 또는 데이터 레이트를 업-컨버팅할 수도 있다. 예시하기 위하여, 트랜스코더 (610) 는 64 kbit/s 신호들을 16 kbit/s 신호들로 다운-컨버팅할 수도 있다.
기지국 (600) 은 메모리 (632) 를 포함할 수도 있다. 컴퓨터 판독가능 저장 디바이스와 같은 메모리 (632) 는 명령들을 포함할 수도 있다. 명령들은, 도 1 내지 도 5 의 방법들 및 시스템들을 참조하여 설명된 하나 이상의 동작들을 수행하기 위해 프로세서 (606), 트랜스코더 (610), 또는 이들의 조합에 의해 실행가능한 하나 이상의 명령들을 포함할 수도 있다.
기지국 (600) 은 안테나들의 어레이에 커플링된 다수의 송신기들 및 수신기들 (예를 들어, 트랜시버들), 예컨대 제 1 트랜시버 (652) 및 제 2 트랜시버 (654) 를 포함할 수도 있다. 안테나들의 어레이는 제 1 안테나 (642) 및 제 2 안테나 (644) 를 포함할 수도 있다. 안테나들의 어레이는 도 5 의 디바이스 (500) 와 같은, 하나 이상의 무선 디바이스들과 무선으로 통신하도록 구성될 수도 있다. 예를 들어, 제 2 안테나 (644) 는 무선 디바이스로부터 데이터 스트림 (614) (예를 들어, 비트스트림) 을 수신할 수도 있다. 데이터 스트림 (614) 은 메시지, 데이터 (예를 들어, 인코딩된 음성 데이터), 또는 이들의 조합을 포함할 수도 있다.
기지국 (600) 은 백홀 접속과 같은 네트워크 접속 (660) 을 포함할 수도 있다. 네트워크 접속 (660) 은 코어 네트워크 또는 무선 통신 네트워크의 하나 이상의 기지국들과 통신하도록 구성될 수도 있다. 예를 들어, 기지국 (600) 은 네트워크 접속 (660) 을 통해 코어 네트워크로부터 제 2 데이터 스트림 (예를 들어, 메시지들 또는 오디오 데이터) 을 수신할 수도 있다. 기지국 (600) 은 메시지들 또는 오디오 데이터를 생성하고 메시지들 또는 오디오 데이터를 안테나들의 어레이의 하나 이상의 안테나들을 통해 하나 이상의 무선 디바이스에 또는 네트워크 접속 (660) 을 통해 다른 기지국에 제공하도록 제 2 데이터 스트림을 프로세싱할 수도 있다. 특정 구현에서, 네트워크 접속 (660) 은 예시적인, 비한정적인 예로서, 광대역 네트워크 (WAN) 접속일 수도 있다. 일부 구현들에서, 코어 네트워크는 공중 스위칭된 전화 네트워크 (PSTN), 패킷 백본 네트워크, 또는 양자 모두를 포함하거나 또는 이들에 대응할 수도 있다.
기지국 (600) 은 네트워크 접속 (660) 및 프로세서 (606) 에 커플링되는 미디어 게이트웨이 (670) 를 포함한다. 미디어 게이트웨이 (670) 는 상이한 원격송신 기술들의 미디어 스트림들 간에 컨버팅하도록 구성될 수도 있다. 예를 들어, 미디어 게이트웨이 (670) 는 상이한 송신 프로토콜들, 상이한 코딩 방식들, 또는 이들 양자 간에 컨버팅할 수도 있다. 예시하기 위해, 미디어 게이트웨이 (670) 는, 예시적인, 비한정적 예로서, PCM 신호들로부터 실시간 전송 프로토콜 (RTP) 신호들로 컨버팅할 수도 있다. 미디어 게이트웨이 (670) 는 패킷 스위칭된 네트워크들 (예를 들어, VoIP (Voice Over Internet Protocol) 네트워크, IP 멀티미디어 서브시스템 (IMS), 제 4 세대 (4G) 무선 네트워크, 예컨대 LTE, WiMax, 및 UMB, 등), 회선 교환 네트워크들 (예를 들어, PSTN), 및 하이브리드 네트워크들 (예를 들어, 제 2 세대 (2G) 무선 네트워크, 예컨대 GSM, GPRS, 및 EDGE, 제 3 세대 (3G) 무선 네트워크, 예컨대 WCDMA, EV-DO, 및 HSPA, 등) 사이에서 데이터를 컨버팅할 수도 있다.
부가적으로, 미디어 게이트에이 (670) 는 트랜스코더 (610) 와 같은 트랜스코더를 포함할 수도 있고, 코덱들이 호환불가능할 경우 데이터를 트랜스코딩하도록 구성될 수도 있다. 예를 들어, 미디어 게이트웨이 (670) 는 예시적이고 비-제한적인 예로서, AMR (Adaptive Multi-Rate) 코덱과 G.711 코덱 사이에서 트랜스코딩할 수도 있다. 미디어 게이트웨이 (670) 는 라우터 및 복수의 물리적 인터페이스들을 포함할 수도 있다. 일부 구현들에서, 미디어 게이트웨이 (670) 는 또한, 제어기 (미도시) 를 포함할 수도 있다. 특정 구현에서, 미디어 게이트웨이 제어기는 미디어 게이트웨이 (670) 의 외부, 기지국 (600) 의 외부, 또는 양자 모두에 있을 수도 있다. 미디어 게이트웨이 제어기는 다중 미디어 게이트웨이들의 동작들을 제어 및 조정할 수도 있다. 미디어 게이트웨이 (670) 는 미디어 게이트웨이 제어기로부터 제어 신호들을 수신할 수도 있고 상이한 송신 기술들 간에 브리지하도록 기능할 수도 있으며 최종 사용자 능력들 및 접속들에 서비스를 부가할 수도 있다.
기지국 (600) 은 트랜시버들 (652, 654), 수신기 데이터 프로세서 (664), 및 프로세서 (606) 에 커플링되는 복조기 (662) 를 포함할 수도 있으며, 수신기 데이터 프로세서 (664) 는 프로세서 (606) 에 커플링될 수도 있다. 복조기 (662) 는 트랜시버들 (652, 654) 로부터 수신된 변조 신호들을 복조하고, 복조 된 데이터를 수신기 데이터 프로세서 (664) 에 제공하도록 구성될 수도 있다. 수신기 데이터 프로세서 (664) 는 복조된 데이터로부터 메시지 또는 오디오 데이터를 추출하고 메시지 또는 오디오 데이터를 프로세서 (606) 에 전송하도록 구성될 수도 있다.
기지국 (600) 은 송신 데이터 프로세서 (682) 및 송신 다중입력-다중출력 (MIMO) 프로세서 (684) 를 포함할 수도 있다. 송신 데이터 프로세서 (682) 는 프로세서 (606) 및 송신 MIMO 프로세서 (684) 에 커플링될 수도 있다. 송신 MIMO 프로세서 (684) 는 트랜시버들 (652, 654) 및 프로세서 (606) 에 커플링될 수도 있다. 일부 구현들에 있어서, 송신 MIMO 프로세서 (684) 는 미디어 게이트웨이 (670) 에 커플링될 수도 있다. 송신 데이터 프로세서 (682) 는 프로세서 (606) 로부터 메시지들 또는 오디오 데이터를 수신하고, 예시적이고 비-제한적인 예들로서, CDMA 또는 직교 주파수 분할 멀티플렉싱 (OFDM) 과 같은 코딩 방식에 기초하여 메시지들 또는 오디오 데이터를 코딩하도록 구성될 수도 있다. 송신 데이터 프로세서 (682) 는 코딩된 데이터를 송신 MIMO 프로세서 (684) 에 제공할 수도 있다.
코딩된 데이터는 멀티플렉싱된 데이터를 생성하기 위해 CDMA 또는 OFDM 기법들을 이용하여 파일럿 데이터와 같은 다른 데이터와 멀티플렉싱될 수도 있다. 그 후, 멀티플렉싱된 데이터는 변조 심볼들을 생성하기 위해 특정 변조 방식 (예컨대, 바이너리 위상 쉬프트 키잉 ("BPSK"), 쿼드러처 위상 쉬프트 키잉 ("QPSK"), M진 위상 쉬프트 키잉 ("M-PSK"), M진 쿼드러처 진폭 변조 ("M-QAM") 등) 에 기초하여 송신 데이터 프로세서 (682) 에 의해 변조 (즉, 심볼 맵핑) 될 수도 있다. 특정 구현에 있어서, 코딩된 데이터 및 다른 데이터는 상이한 변조 방식들을 사용하여 변조될 수도 있다. 각각의 데이터 스트림에 대한 데이터 레이트, 코딩 및 변조는 프로세서 (606) 에 의해 실행된 명령들에 의해 결정될 수도 있다.
송신 MIMO 프로세서 (684) 는 송신 데이터 프로세서 (682) 로부터 변조 심볼들을 수신하도록 구성될 수도 있고, 변조 심볼들을 추가로 프로세싱할 수도 있으며, 데이터에 빔형성을 수행할 수도 있다. 예를 들어, 송신 MIMO 프로세서 (684) 는 빔 형성 가중치들을 변조 심볼들에 적용할 수도 있다.
동작 동안, 기지국 (600) 의 제 2 안테나 (644) 는 데이터 스트림 (614) 을 수신할 수도 있다. 제 2 트랜시버 (654) 는 제 2 안테나 (644) 로부터 데이터 스트림 (614) 을 수신할 수도 있고 데이터 스트림 (614) 을 복조기 (662) 에 제공할 수도 있다. 복조기 (662) 는 데이터 스트림 (614) 의 변조된 신호들을 복조하고 복조된 데이터를 수신기 데이터 프로세서 (664) 에 제공할 수도 있다. 수신기 데이터 프로세서 (664) 는 복조된 데이터로부터 오디오 데이터를 추출하고 추출된 오디오 데이터를 프로세서 (606) 에 제공할 수도 있다.
프로세서 (606) 는 트랜스코딩을 위해 트랜스코더 (610) 에 오디오 데이터를 제공할 수도 있다. 트랜스코더 (610) 의 디코더 (638) 는 제 1 포맷으로부터의 오디오 데이터를 디코딩된 오디오 데이터로 디코딩할 수 있고, 인코더 (636) 는 디코딩된 오디오 데이터를 제 2 포맷으로 인코딩할 수도 있다. 일부 구현들에 있어서, 인코더 (636) 는 무선 디바이스로부터 수신된 것보다 더 높은 데이터 레이트 (예를 들어, 업-컨버팅) 또는 더 낮은 데이터 레이트 (예를 들어, 다운-컨버팅) 를 이용하여 오디오 데이터를 인코딩할 수도 있다. 다른 구현들에서, 오디오 데이터는 트랜스코딩되지 않을 수도 있다. 트랜스코딩 (예를 들어, 디코딩 및 인코딩) 이 트랜스코더 (610) 에 의해 수행되는 것으로 도시되지만, 트랜스코딩 동작들 (예를 들어, 디코딩 및 인코딩) 은 기지국 (600) 의 다수의 컴포넌트들에 의해 수행될 수도 있다. 예를 들어, 디코딩은 수신기 데이터 프로세서 (664) 에 의해 수행될 수도 있고 인코딩은 송신 데이터 프로세서 (682) 에 의해 수행될 수도 있다. 다른 구현들에서, 프로세서 (606) 는 다른 송신 프로토콜, 코딩 스킴, 또는 양자 모두로의 컨버전을 위해 미디어 게이트웨이 (670) 에 오디오 데이터를 제공할 수도 있다. 미디어 게이트웨이 (670) 는 네트워크 접속 (660) 을 통해 다른 기지국 또는 코어 네트워크에 컨버팅된 데이터를 제공할 수도 있다.
인코더 (636) 에서 생성된 인코딩된 오디오 데이터는 프로세서 (606) 를 통해 송신 데이터 프로세서 (682) 또는 네트워크 접속부 (660) 에 제공될 수도 있다. 트랜스코더 (610) 로부터의 트랜스코딩된 오디오 데이터는 OFDM 과 같은 변조 방식에 따라 코딩을 위해 송신 데이터 프로세서 (682) 에 제공되어 변조 심볼을 생성할 수도 있다. 송신 데이터 프로세서 (682) 는 추가 프로세싱 및 빔포밍을 위해 송신 MIMO 프로세서 (684) 에 변조 심볼들을 제공할 수도 있다. 송신 MIMO 프로세서 (684) 는 빔포밍 가중치들을 적용할 수도 있고 제 1 트랜시버 (652) 를 통해 제 1 안테나 (642) 와 같은 안테나들의 어레이 중의 하나 이상의 안테나들에 변조 심볼들을 제공할 수도 있다. 따라서, 기지국 (600) 은, 무선 디바이스로부터 수신된 데이터 스트림 (614) 에 대응하는 트랜스코딩된 데이터 스트림 (616) 을 다른 무선 디바이스에 제공할 수도 있다. 트랜스코딩된 데이터 스트림 (616) 은 데이터 스트림 (614) 과는 상이한 인코딩 포맷, 데이터 레이트, 또는 양자 모두를 가질 수도 있다. 다른 구현들에서, 트랜스코딩된 데이터 스트림 (616) 은 다른 기지국 또는 코어 네트워크로의 송신을 위해 네트워크 접속 (660) 에 제공될 수도 있다.
당업자는 본 명세서에 개시된 구현들과 관련하여 설명된 다양한 예시적인 논리 블록들, 구성들, 모듈들, 회로들, 및 알고리즘 단계들이 전자 하드웨어, 하드웨어 프로세서와 같은 프로세싱 디바이스에 의해 실행되는 컴퓨터 소프트웨어, 또는 이들 양자 모두의 조합들로서 구현될 수도 있음을 추가로 인식할 것이다. 다양한 예시적인 컴포넌트들, 블록들, 구성들, 모듈들, 회로들 및 단계들이 일반적으로 그들의 기능의 관점에서 상기 기술되었다. 그러한 기능이 하드웨어로서 구현될지 또는 실행가능 소프트웨어로서 구현될지는 전체 시스템에 부과된 설계 제약들 및 특정 어플리케이션에 의존한다. 당업자는 설명된 기능을 각각의 특정 어플리케이션에 대하여 다양한 방식들로 구현할 수도 있지만, 그러한 구현의 결정들이 본 개시의 범위로부터의 일탈을 야기하는 것으로서 해석되지는 않아야 한다.
본 명세서에 개시된 구현들과 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어에서, 프로세서에 의해 실행되는 소프트웨어 모듈에서, 또는 이들 양자의 조합에서 직접 구현될 수도 있다. 소프트웨어 모듈은 랜덤 액세스 메모리 (RAM), 자기저항 랜덤 액세스 메모리 (MRAM), 스핀-토크 전달 MRAM (STT-MRAM), 플래시 메모리, 판독 전용 메모리 (ROM), 프로그래밍가능 판독 전용 메모리 (PROM), 소거가능한 프로그래밍가능 판독 전용 메모리 (EPROM), 전기적으로 소거가능한 프로그래밍가능 판독 전용 메모리 (EEPROM), 레지스터들, 하드 디스크, 착탈가능 디스크, 또는 컴팩트 디스크 판독 전용 메모리 (CD-ROM) 와 같은 메모리 디바이스에 상주할 수도 있다. 예시적인 메모리 디바이스는 프로세서에 커플링되어, 프로세서가 메모리 디바이스로부터 정보를 판독하거나 메모리 디바이스에 정보를 기록할 수 있게 한다. 대안으로, 메모리 디바이스는 프로세서와 일체형일 수도 있다. 프로세서 및 저장 매체는 주문형 집적 회로 (ASIC) 에 상주할 수도 있다. ASIC 은 컴퓨팅 디바이스 또는 사용자 단말기에 상주할 수도 있다. 대안으로, 프로세서 및 저장 매체는 컴퓨팅 디바이스 또는 사용자 단말기에 별개의 컴포넌트들로서 상주할 수도 있다.
개시된 구현들의 이전의 설명은 당업자로 하여금 개시된 구현들을 제조 또는 이용할 수 있도록 제공된다. 이들 구현들에 대한 다양한 수정들은 당업자에게 용이하게 자명할 것이며, 본 명세서에서 정의된 원리들은 본 개시의 범위로부터 일탈함없이 다른 구현들에 적용될 수도 있다. 따라서, 본 개시는 본 명세서에서 나타낸 구현들로 한정되도록 의도되지 않으며, 다음의 청구항들에 의해 정의된 바와 같은 원리들 및 신규한 특징들과 부합하는 가능한 최광의 범위를 부여받아야 한다.

Claims (30)

  1. 인코더로부터 비트스트림을 수신하도록 구성된 수신기로서, 상기 비트스트림은 적어도 저대역 중간 채널 비트스트림, 고대역 중간 채널 대역폭 확장 (BWE) 비트스트림, 및 스테레오 다운믹스/업믹스 파라미터 비트스트림을 포함하는, 상기 수신기;
    디코더로서, 상기 디코더는,
    상기 저대역 중간 채널 비트스트림을 디코딩하여 저대역 중간 신호 및 저대역 중간 여기 신호를 생성하고,
    고대역 BWE 부분에 대응하는 상기 저대역 중간 여기 신호의 비선형 하모닉 확장을 생성하고,
    상기 저대역 중간 여기 신호의 상기 비선형 하모닉 확장에 기초하여 그리고 고대역 중간 채널 BWE 파라미터들에 기초하여 상기 고대역 중간 채널 BWE 비트스트림을 디코딩하여 합성된 고대역 중간 신호를 생성하고,
    상기 합성된 고대역 중간 신호에 대응하는 채널간 대역폭 확장 (ICBWE) 이득 맵핑 파라미터를 결정하는 것으로서, 상기 ICBWE 이득 맵핑 파라미터는 상기 스테레오 다운믹스/업믹스 파라미터 비트스트림으로부터 추출되는 이득 파라미터들의 세트에 기초하는, 상기 ICBWE 이득 맵핑 파라미터를 결정하며, 그리고
    레퍼런스 고대역 채널 및 타겟 고대역 채널을 생성하기 위해 상기 ICBWE 이득 맵핑 파라미터에 기초하여 상기 합성된 고대역 중간 신호에 이득 스케일링 동작을 수행하도록
    구성되는, 상기 디코더; 및
    제 1 오디오 채널 및 제 2 오디오 채널을 출력하도록 구성된 하나 이상의 스피커들로서, 상기 제 1 오디오 채널은 상기 레퍼런스 고대역 채널에 기초하고 상기 제 2 오디오 채널은 상기 타겟 고대역 채널에 기초하는, 상기 하나 이상의 스피커들을 포함하는, 디바이스.
  2. 제 1 항에 있어서,
    상기 이득 파라미터들의 세트는 상기 이득 파라미터들의 세트의 주파수 범위와 상기 합성된 고대역 중간 신호의 주파수 범위의 스펙트럼 근접성에 기초하여 선택되는, 디바이스.
  3. 제 1 항에 있어서,
    상기 이득 파라미터들의 세트는 상기 스테레오 다운믹스/업믹스 파라미터 비트스트림의 사이드 이득 또는 상기 스테레오 다운믹스/업믹스 파라미터 비트스트림의 채널간 레벨차 (ILD) 에 대응하는, 디바이스.
  4. 제 1 항에 있어서,
    상기 레퍼런스 고대역 채널은 좌측 고대역 채널 또는 우측 고대역 채널에 대응하고, 상기 타겟 고대역 채널은 상기 좌측 고대역 채널 또는 상기 우측 고대역 채널 중 다른 것에 대응하는, 디바이스.
  5. 제 4 항에 있어서,
    상기 디코더는 추가로, 상기 저대역 중간 신호에 기초하여, 좌측 저대역 채널 및 우측 저대역 채널을 생성하도록 구성되는, 디바이스.
  6. 제 5 항에 있어서,
    상기 디코더는 추가로,
    상기 좌측 저대역 채널 및 상기 좌측 고대역 채널을 결합하여 상기 제 1 오디오 채널을 생성하고; 그리고
    상기 우측 저대역 채널 및 상기 우측 고대역 채널을 결합하여 상기 제 2 오디오 채널을 생성하도록 구성되는, 디바이스.
  7. 제 1 항에 있어서,
    상기 디코더는 추가로, 상기 스테레오 다운믹스/업믹스 파라미터 비트스트림으로부터 하나 이상의 주파수 도메인 이득 파라미터들을 추출하도록 구성되며, 상기 이득 파라미터들의 세트는 상기 하나 이상의 주파수 도메인 이득 파라미터들로부터 선택되는, 디바이스.
  8. 제 1 항에 있어서,
    상기 디코더는 상기 ICBWE 이득 맵핑 파라미터에 의해 상기 합성된 고대역 중간 신호를 스케일링하여 상기 타겟 고대역 채널을 생성하도록 구성되는, 디바이스.
  9. 제 1 항에 있어서,
    고대역의 다중 주파수 범위들로부터의 사이드 이득들은 상기 ICBWE 이득 맵핑 파라미터를 생성하기 위해 상기 다중 주파수 범위들의 각 주파수 범위의 주파수 대역폭들에 기초하여 가중되는, 디바이스.
  10. 제 1 항에 있어서,
    상기 디코더는 기지국에 통합되는, 디바이스.
  11. 제 1 항에 있어서,
    상기 디코더는 모바일 디바이스에 통합되는, 디바이스.
  12. 신호를 디코딩하는 방법으로서,
    인코더로부터 비트스트림을 수신하는 단계로서, 상기 비트스트림은 적어도 저대역 중간 채널 비트스트림, 고대역 중간 채널 대역폭 확장 (BWE) 비트스트림, 및 스테레오 다운믹스/업믹스 파라미터 비트스트림을 포함하는, 상기 비트스트림을 수신하는 단계;
    디코더에서, 상기 저대역 중간 채널 비트스트림을 디코딩하여 저대역 중간 신호 및 저대역 중간 여기 신호를 생성하는 단계;
    고대역 BWE 부분에 대응하는 상기 저대역 중간 여기 신호의 비선형 하모닉 확장을 생성하는 단계;
    상기 저대역 중간 여기 신호의 상기 비선형 하모닉 확장에 기초하여 그리고 고대역 중간 채널 BWE 파라미터들에 기초하여 상기 고대역 중간 채널 BWE 비트스트림을 디코딩하여 합성된 고대역 중간 신호를 생성하는 단계;
    상기 합성된 고대역 중간 신호에 대응하는 채널간 대역폭 확장 (ICBWE) 이득 맵핑 파라미터를 결정하는 단계로서, 상기 ICBWE 이득 맵핑 파라미터는 상기 스테레오 다운믹스/업믹스 파라미터 비트스트림으로부터 추출되는 선택된 주파수 도메인 이득 파라미터에 기초하는, 상기 ICBWE 이득 맵핑 파라미터를 결정하는 단계;
    레퍼런스 고대역 채널 및 타겟 고대역 채널을 생성하기 위해 상기 ICBWE 이득 맵핑 파라미터에 기초하여 상기 합성된 고대역 중간 신호에 이득 스케일링 동작을 수행하는 단계; 및
    제 1 오디오 채널 및 제 2 오디오 채널을 출력하는 단계로서, 상기 제 1 오디오 채널은 상기 레퍼런스 고대역 채널에 기초하고 상기 제 2 오디오 채널은 상기 타겟 고대역 채널에 기초하는, 상기 제 1 오디오 채널 및 제 2 오디오 채널을 출력하는 단계를 포함하는, 신호를 디코딩하는 방법.
  13. 제 12 항에 있어서,
    상기 선택된 주파수 도메인 이득 파라미터는 상기 선택된 주파수 도메인 이득 파라미터의 주파수 범위와 상기 합성된 고대역 중간 신호의 주파수 범위의 스펙트럼 근접성에 기초하여 선택되는, 신호를 디코딩하는 방법.
  14. 제 12 항에 있어서,
    상기 레퍼런스 고대역 채널은 좌측 고대역 채널 또는 우측 고대역 채널에 대응하고, 상기 타겟 고대역 채널은 상기 좌측 고대역 채널 또는 상기 우측 고대역 채널 중 다른 것에 대응하는, 신호를 디코딩하는 방법.
  15. 제 14 항에 있어서,
    상기 저대역 중간 신호에 기초하여, 좌측 저대역 채널 및 우측 저대역 채널을 생성하는 단계를 더 포함하는, 신호를 디코딩하는 방법.
  16. 제 15 항에 있어서,
    상기 좌측 저대역 채널 및 상기 좌측 고대역 채널을 결합하여 상기 제 1 오디오 채널을 생성하는 단계; 및
    상기 우측 저대역 채널 및 상기 우측 고대역 채널을 결합하여 상기 제 2 오디오 채널을 생성하는 단계를 더 포함하는, 신호를 디코딩하는 방법.
  17. 제 12 항에 있어서,
    상기 스테레오 다운믹스/업믹스 파라미터 비트스트림으로부터 하나 이상의 주파수 도메인 이득 파라미터들을 추출하는 단계를 더 포함하며, 상기 선택된 주파수 도메인 이득 파라미터는 상기 하나 이상의 주파수 도메인 이득 파라미터들로부터 선택되는, 신호를 디코딩하는 방법.
  18. 제 12 항에 있어서,
    상기 이득 스케일링 동작을 수행하는 단계는 상기 타겟 고대역 채널을 생성하기 위해 상기 ICBWE 이득 맵핑 파라미터에 의해 상기 합성된 고대역 중간 신호를 스케일링하는 단계를 포함하는, 신호를 디코딩하는 방법.
  19. 제 12 항에 있어서,
    상기 합성된 고대역 중간 신호에 대한 상기 ICBWE 이득 맵핑 파라미터를 결정하는 단계는 기지국에서 수행되는, 신호를 디코딩하는 방법.
  20. 제 12 항에 있어서,
    상기 합성된 고대역 중간 신호에 대한 상기 ICBWE 이득 맵핑 파라미터를 결정하는 단계는 모바일 디바이스에서 수행되는, 신호를 디코딩하는 방법.
  21. 신호를 디코딩하기 위한 명령들을 포함하는 비일시적 컴퓨터 판독가능 저장 매체로서,
    상기 명령들은, 디코더 내의 프로세서에 의해 실행될 경우, 상기 프로세서로 하여금,
    인코더로부터 비트스트림을 수신하는 것으로서, 상기 비트스트림은 적어도 저대역 중간 채널 비트스트림, 고대역 중간 채널 대역폭 확장 (BWE) 비트스트림, 및 스테레오 다운믹스/업믹스 파라미터 비트스트림을 포함하는, 상기 비트스트림을 수신하는 것;
    상기 저대역 중간 채널 비트스트림을 디코딩하여 저대역 중간 신호 및 저대역 중간 여기 신호를 생성하는 것;
    고대역 BWE 부분에 대응하는 상기 저대역 중간 여기 신호의 비선형 하모닉 확장을 생성하는 것;
    상기 저대역 중간 여기 신호의 상기 비선형 하모닉 확장에 기초하여 그리고 고대역 중간 채널 BWE 파라미터들에 기초하여 상기 고대역 중간 채널 BWE 비트스트림을 디코딩하여 합성된 고대역 중간 신호를 생성하는 것;
    상기 합성된 고대역 중간 신호에 대응하는 채널간 대역폭 확장 (ICBWE) 이득 맵핑 파라미터를 결정하는 것으로서, 상기 ICBWE 이득 맵핑 파라미터는 상기 스테레오 다운믹스/업믹스 파라미터 비트스트림으로부터 추출되는 선택된 주파수 도메인 이득 파라미터에 기초하는, 상기 ICBWE 이득 맵핑 파라미터를 결정하는 것;
    좌측 고대역 채널 및 우측 고대역 채널을 생성하기 위해 상기 ICBWE 이득 맵핑 파라미터에 기초하여 상기 합성된 고대역 중간 신호에 이득 스케일링 동작을 수행하는 것; 및
    제 1 오디오 채널 및 제 2 오디오 채널을 생성하는 것으로서, 상기 제 1 오디오 채널은 상기 좌측 고대역 채널에 기초하고 상기 제 2 오디오 채널은 상기 우측 고대역 채널에 기초하는, 상기 제 1 오디오 채널 및 제 2 오디오 채널을 생성하는 것
    을 포함하는 동작들을 수행하게 하는, 비일시적 컴퓨터 판독가능 저장 매체.
  22. 제 21 항에 있어서,
    상기 선택된 주파수 도메인 이득 파라미터는 상기 선택된 주파수 도메인 이득 파라미터의 주파수 범위와 상기 합성된 고대역 중간 신호의 주파수 범위의 스펙트럼 근접성에 기초하여 선택되는, 비일시적 컴퓨터 판독가능 저장 매체.
  23. 제 21 항에 있어서,
    레퍼런스 고대역 채널은 좌측 고대역 채널 또는 우측 고대역 채널에 대응하고, 타겟 고대역 채널은 상기 좌측 고대역 채널 또는 상기 우측 고대역 채널 중 다른 것에 대응하는, 비일시적 컴퓨터 판독가능 저장 매체.
  24. 제 23 항에 있어서,
    상기 동작들은, 상기 저대역 중간 신호에 기초하여, 좌측 저대역 채널 및 우측 저대역 채널을 생성하는 것을 더 포함하는, 비일시적 컴퓨터 판독가능 저장 매체.
  25. 제 24 항에 있어서,
    상기 동작들은,
    상기 좌측 저대역 채널 및 상기 좌측 고대역 채널을 결합하여 상기 제 1 오디오 채널을 생성하는 것; 및
    상기 우측 저대역 채널 및 상기 우측 고대역 채널을 결합하여 상기 제 2 오디오 채널을 생성하는 것을 더 포함하는, 비일시적 컴퓨터 판독가능 저장 매체.
  26. 제 21 항에 있어서,
    상기 동작들은, 상기 스테레오 다운믹스/업믹스 파라미터 비트스트림으로부터 하나 이상의 주파수 도메인 이득 파라미터들을 추출하는 것을 더 포함하며, 상기 선택된 주파수 도메인 이득 파라미터는 상기 하나 이상의 주파수 도메인 이득 파라미터들로부터 선택되는, 비일시적 컴퓨터 판독가능 저장 매체.
  27. 제 21 항에 있어서,
    상기 이득 스케일링 동작을 수행하는 것은 타겟 고대역 채널을 생성하기 위해 상기 ICBWE 이득 맵핑 파라미터에 의해 상기 합성된 고대역 중간 신호를 스케일링하는 것을 포함하는, 비일시적 컴퓨터 판독가능 저장 매체.
  28. 인코더로부터 비트스트림을 수신하는 수단으로서, 상기 비트스트림은 적어도 저대역 중간 채널 비트스트림, 고대역 중간 채널 대역폭 확장 (BWE) 비트스트림, 및 스테레오 다운믹스/업믹스 파라미터 비트스트림을 포함하는, 상기 비트스트림을 수신하는 수단;
    상기 저대역 중간 채널 비트스트림을 디코딩하여 저대역 중간 신호 및 저대역 중간 여기 신호를 생성하는 수단;
    고대역 BWE 부분에 대응하는 상기 저대역 중간 여기 신호의 비선형 하모닉 확장을 생성하는 수단;
    상기 저대역 중간 여기 신호의 상기 비선형 하모닉 확장에 기초하여 그리고 고대역 중간 채널 BWE 파라미터들에 기초하여 상기 고대역 중간 채널 BWE 비트스트림을 디코딩하여 합성된 고대역 중간 신호를 생성하는 수단;
    상기 합성된 고대역 중간 신호에 대응하는 채널간 대역폭 확장 (ICBWE) 이득 맵핑 파라미터를 결정하는 수단으로서, 상기 ICBWE 이득 맵핑 파라미터는 상기 스테레오 다운믹스/업믹스 파라미터 비트스트림으로부터 추출되는 선택된 주파수 도메인 이득 파라미터에 기초하는, 상기 ICBWE 이득 맵핑 파라미터를 결정하는 수단;
    좌측 고대역 채널 및 우측 고대역 채널을 생성하기 위해 상기 ICBWE 이득 맵핑 파라미터에 기초하여 상기 합성된 고대역 중간 신호에 이득 스케일링 동작을 수행하는 수단; 및
    제 1 오디오 채널 및 제 2 오디오 채널을 출력하는 수단으로서, 상기 제 1 오디오 채널은 상기 좌측 고대역 채널에 기초하고 상기 제 2 오디오 채널은 상기 우측 고대역 채널에 기초하는, 상기 제 1 오디오 채널 및 제 2 오디오 채널을 출력하는 수단를 포함하는, 장치.
  29. 제 28 항에 있어서,
    상기 ICBWE 이득 맵핑 파라미터를 결정하는 수단은 기지국에 통합되는, 장치.
  30. 제 28 항에 있어서,
    상기 ICBWE 이득 맵핑 파라미터를 결정하는 수단은 모바일 디바이스에 통합되는, 장치.
KR1020197029291A 2017-04-05 2018-03-27 채널간 대역폭 확장 KR102208602B1 (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201762482150P 2017-04-05 2017-04-05
US62/482,150 2017-04-05
US15/935,952 US10573326B2 (en) 2017-04-05 2018-03-26 Inter-channel bandwidth extension
US15/935,952 2018-03-26
PCT/US2018/024500 WO2018187082A1 (en) 2017-04-05 2018-03-27 Inter-channel bandwidth extension

Publications (2)

Publication Number Publication Date
KR20190134641A KR20190134641A (ko) 2019-12-04
KR102208602B1 true KR102208602B1 (ko) 2021-01-27

Family

ID=63711139

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020197029291A KR102208602B1 (ko) 2017-04-05 2018-03-27 채널간 대역폭 확장

Country Status (8)

Country Link
US (1) US10573326B2 (ko)
EP (1) EP3607549B1 (ko)
KR (1) KR102208602B1 (ko)
CN (1) CN110447072B (ko)
BR (1) BR112019020643A2 (ko)
SG (1) SG11201907670UA (ko)
TW (1) TWI724290B (ko)
WO (1) WO2018187082A1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10535357B2 (en) * 2017-10-05 2020-01-14 Qualcomm Incorporated Encoding or decoding of audio signals
WO2020216459A1 (en) * 2019-04-23 2020-10-29 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus, method or computer program for generating an output downmix representation

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150380008A1 (en) * 2014-06-26 2015-12-31 Qualcomm Incorporated High-band signal coding using mismatched frequency ranges
US20160035361A1 (en) 2009-01-28 2016-02-04 Dolby International Ab Harmonic Transposition in an Audio Coding Method and System
WO2017161313A1 (en) 2016-03-18 2017-09-21 Qualcomm Incorporated Audio signal decoding
WO2018005079A1 (en) 2016-06-27 2018-01-04 Qualcomm Incorporated Audio decoding using intermediate sampling rate

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2252170A1 (en) * 1998-10-27 2000-04-27 Bruno Bessette A method and device for high quality coding of wideband speech and audio signals
CA2327041A1 (en) * 2000-11-22 2002-05-22 Voiceage Corporation A method for indexing pulse positions and signs in algebraic codebooks for efficient coding of wideband signals
US8605911B2 (en) * 2001-07-10 2013-12-10 Dolby International Ab Efficient and scalable parametric stereo coding for low bitrate audio coding applications
US8260609B2 (en) * 2006-07-31 2012-09-04 Qualcomm Incorporated Systems, methods, and apparatus for wideband encoding and decoding of inactive frames
US8015368B2 (en) * 2007-04-20 2011-09-06 Siport, Inc. Processor extensions for accelerating spectral band replication
ATE500588T1 (de) * 2008-01-04 2011-03-15 Dolby Sweden Ab Audiokodierer und -dekodierer
US8060042B2 (en) * 2008-05-23 2011-11-15 Lg Electronics Inc. Method and an apparatus for processing an audio signal
US8355921B2 (en) * 2008-06-13 2013-01-15 Nokia Corporation Method, apparatus and computer program product for providing improved audio processing
ES2592416T3 (es) * 2008-07-17 2016-11-30 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Esquema de codificación/decodificación de audio que tiene una derivación conmutable
CA3162807C (en) * 2009-01-16 2024-04-23 Dolby International Ab Cross product enhanced harmonic transposition
US9070361B2 (en) * 2011-06-10 2015-06-30 Google Technology Holdings LLC Method and apparatus for encoding a wideband speech signal utilizing downmixing of a highband component
WO2014005327A1 (zh) * 2012-07-06 2014-01-09 深圳广晟信源技术有限公司 对多声道数字音频编码的方法
EP2830051A3 (en) * 2013-07-22 2015-03-04 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder, audio decoder, methods and computer program using jointly encoded residual signals
EP3067887A1 (en) * 2015-03-09 2016-09-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder for encoding a multichannel signal and audio decoder for decoding an encoded audio signal
TW202242853A (zh) * 2015-03-13 2022-11-01 瑞典商杜比國際公司 解碼具有增強頻譜帶複製元資料在至少一填充元素中的音訊位元流
US10109284B2 (en) * 2016-02-12 2018-10-23 Qualcomm Incorporated Inter-channel encoding and decoding of multiple high-band audio signals
US10431231B2 (en) * 2017-06-29 2019-10-01 Qualcomm Incorporated High-band residual prediction with time-domain inter-channel bandwidth extension

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160035361A1 (en) 2009-01-28 2016-02-04 Dolby International Ab Harmonic Transposition in an Audio Coding Method and System
US20150380008A1 (en) * 2014-06-26 2015-12-31 Qualcomm Incorporated High-band signal coding using mismatched frequency ranges
WO2017161313A1 (en) 2016-03-18 2017-09-21 Qualcomm Incorporated Audio signal decoding
WO2018005079A1 (en) 2016-06-27 2018-01-04 Qualcomm Incorporated Audio decoding using intermediate sampling rate

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ISO/IEC FDIS 23003-3:2011(E), Information technology - MPEG audio technologies - Part 3: Unified speech and audio coding. ISO/IEC JTC 1/SC 29/WG 11. 2011.09.20.*

Also Published As

Publication number Publication date
CN110447072A (zh) 2019-11-12
BR112019020643A2 (pt) 2020-04-28
EP3607549A1 (en) 2020-02-12
US20180293992A1 (en) 2018-10-11
TW201903754A (zh) 2019-01-16
EP3607549B1 (en) 2022-09-28
WO2018187082A1 (en) 2018-10-11
KR20190134641A (ko) 2019-12-04
US10573326B2 (en) 2020-02-25
CN110447072B (zh) 2020-11-06
SG11201907670UA (en) 2019-10-30
TWI724290B (zh) 2021-04-11

Similar Documents

Publication Publication Date Title
KR102230623B1 (ko) 다중의 오디오 신호들의 인코딩
US11127406B2 (en) Encoding and decoding of interchannel phase differences between audio signals
CN110622242B (zh) 用于立体声解码的立体声参数
US10885922B2 (en) Time-domain inter-channel prediction
KR102471279B1 (ko) 시간 도메인 채널간 대역폭 확장으로의 고대역 잔차 예측
KR102263550B1 (ko) 다중 오디오 신호들의 코딩
KR102581558B1 (ko) 채널간 위상차 파라미터 수정
KR102208602B1 (ko) 채널간 대역폭 확장

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant