KR20100063639A - Decoder and decoding method for multichannel audio coder using sound source location cue - Google Patents
Decoder and decoding method for multichannel audio coder using sound source location cue Download PDFInfo
- Publication number
- KR20100063639A KR20100063639A KR1020090064918A KR20090064918A KR20100063639A KR 20100063639 A KR20100063639 A KR 20100063639A KR 1020090064918 A KR1020090064918 A KR 1020090064918A KR 20090064918 A KR20090064918 A KR 20090064918A KR 20100063639 A KR20100063639 A KR 20100063639A
- Authority
- KR
- South Korea
- Prior art keywords
- signal
- information
- channel
- windowing
- integrated
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 239000000284 extract Substances 0.000 claims abstract description 13
- 238000013139 quantization Methods 0.000 claims description 18
- 230000003595 spectral effect Effects 0.000 claims description 9
- 230000001131 transforming effect Effects 0.000 claims description 2
- 230000005236 sound signal Effects 0.000 abstract description 22
- 230000005540 biological transmission Effects 0.000 abstract description 4
- 230000006835 compression Effects 0.000 abstract description 2
- 238000007906 compression Methods 0.000 abstract description 2
- 230000010354 integration Effects 0.000 abstract 1
- 230000004807 localization Effects 0.000 abstract 1
- 239000000203 mixture Substances 0.000 abstract 1
- 230000002123 temporal effect Effects 0.000 abstract 1
- 238000006243 chemical reaction Methods 0.000 description 18
- 238000013507 mapping Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 4
- 230000015572 biosynthetic process Effects 0.000 description 3
- 238000003786 synthesis reaction Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/008—Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/022—Blocking, i.e. grouping of samples in time; Choice of analysis windows; Overlap factoring
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/26—Pre-filtering or post-filtering
- G10L19/265—Pre-filtering, e.g. high frequency emphasis prior to encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S3/00—Systems employing more than two channels, e.g. quadraphonic
- H04S3/02—Systems employing more than two channels, e.g. quadraphonic of the matrix type, i.e. in which input signals are combined algebraically, e.g. after having been phase shifted with respect to each other
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Algebra (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Stereophonic System (AREA)
Abstract
Description
본 발명은 음원 위치 단서 기반의 멀티 채널 오디오 복호화 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for multi-channel audio decoding based on sound source location clues.
SSLCC(Sound Source Location Cue Coding)의 기본 코딩개념은 Spatial Audio Coding(SAC) 기법에서 출발한다. The basic coding concept of Sound Source Location Cue Coding (SSLCC) starts from Spatial Audio Coding (SAC).
상기 SAC는 음원 위치 단서 기반의 멀티 채널 오디오 신호를 압축하는 기술로써, 공간상의 사람이 인지하는 공간큐(Spatial Cue)를 기반으로 각 채널 신호의 잉여성분 (redundancy)를 제거하여 그 압축효율을 극대화 할 수 있다.The SAC is a technique for compressing a multi-channel audio signal based on sound source location clues, and maximizes the compression efficiency by removing redundancy of each channel signal based on spatial cues perceived by a person in space. can do.
또한 멀티채널 신호는 기본적으로 다운믹스 처리됨으로써, 전송되는 오디오 신호는 다운믹스 신호가 코어(core) 신호가 된다. 즉, 기존 스테레오 오디오를 통해서도 재생 가능한 것이 SAC기법의 기본 원칙이다. In addition, the multichannel signal is basically downmixed, so that the downmixed signal is a core signal of the transmitted audio signal. That is, the basic principle of the SAC technique is that it can be reproduced through existing stereo audio.
상기 SSLCC는 이러한 SAC 기법의 하나이며 이는 공간상에서 사람이 인지하는 공간큐로써, 음원의 위치를 간주하고, 음원의 위치정보를 멀티채널 신호로부터 추출하여 표현하고 전송한다.The SSLCC is one of such SAC schemes. It is a spatial cue recognized by a person in space, and considers the position of a sound source, extracts the position information of the sound source from a multi-channel signal, and transmits it.
이때, SAC 코딩 전략을 통해 추출되는 정보는 그 정보량이 적기 때문에, 잉여데이터 영역으로 전송할 수 있으므로 상기 정보를 수신하는 수신지가 SAC 코딩 방식을 지원하지 않는 오디오라면, 기본 스테레오 오디오를 이용하여 스테레오 신호만을 재생시킬 수 있고, 상기 정보를 수신하는 수신지가 SAC 코딩 방식을 지원할 경우에는 전송된 잉여정보를 사용하여 다운믹스 스테레오 신호로부터 음원 위치 단서 기반의 멀티 채널 오디오 신호를 복원할 수 있다. In this case, since the information extracted through the SAC coding strategy has a small amount of information, the information can be transmitted to the redundant data area. When the destination receiving the information supports the SAC coding scheme, the transmitted redundancy information may be used to restore the sound source position-based multi-channel audio signal from the downmix stereo signal.
그러나, 잉여정보를 사용하여 다운믹스 스테레오 신호로부터 음원 위치 단서 기반의 멀티 채널 오디오 신호를 복원하기 위해서는 SAC 코딩 전략을 통해 정보를 추출하는 과정에서 사용하는 T/F 변환 방법과 동일한 T/F 변환 방법을 사용해야 하므로 SAC 코딩 전략을 통해 정보를 추출하는 과정에서 사용하는 T/F 변환 방법이 상기 수신지에 최적화된 T/F 변환 방법이 아니면 변환 과정에 영향을 줄 수도 있는 실정이다.However, in order to recover the multi-channel audio signal based on sound source position cues from the downmix stereo signal using the surplus information, the same T / F conversion method is used as the T / F conversion method used in the process of extracting information through the SAC coding strategy. Since the T / F conversion method used in the information extraction through the SAC coding strategy is not the T / F conversion method optimized for the destination, it may affect the conversion process.
따라서, 수신지에서 최적화된 T/F 변환 방법으로 음원 위치 단서 기반의 멀티 채널 오디오 신호를 복원할 수 있는 장치나 방법이 필요한 실정이다.Therefore, there is a need for an apparatus or method capable of reconstructing a multi-channel audio signal based on a sound source position clue with a T / F conversion method optimized at a destination.
본 발명은 멀티채널 오디오 신호를 입력 받아 이를 압축하고 기본 스테레오 코덱(core stereo codec)을 통하여 스테레오 신호를 압축 전송함으로써, 기존 스테레오 오디오 코덱과 역 호환성(backward compatible)을 제공함과 동시에, 멀티채널 오디오 전송이 가능한 복호화 장치 및 방법을 제공한다. The present invention receives a multi-channel audio signal, compresses it, and compresses and transmits a stereo signal through a core stereo codec, thereby providing backward compatibility with the existing stereo audio codec and simultaneously transmitting multi-channel audio. It provides a possible decoding apparatus and method.
본 발명은 TDAC(Time Domain Aliasing Cancellation) 파일 뱅크를 사용함으로써 옵션에 따라, 스테레오 다운믹스 오디오 신호에 대한 T/F 변환을 달리할 수 있는 복호화 장치 및 방법을 제공한다. The present invention provides a decoding apparatus and method capable of varying T / F conversion for a stereo downmix audio signal according to an option by using a time domain alias cancellation cancellation (TDAC) file bank.
본 발명의 일실시예에 따른 음원 위치 단서 기반의 멀티 채널 오디오 복호화 장치는 신호를 수신하고, 수신한 상기 신호를 오디오 비트스트림과 부가 정보 비트스트림으로 파싱하는 디멀티플렉서; 상기 오디오 비트스트림을 기초로 다운믹스 신호를 복원하는 오디오 복호화부; 상기 다운믹스 신호와 상기 부가 정보 비트스트림을 사용하여 멀티 채널 신호를 예측하고, 상기 멀티 채널 신호를 기초로 상기 다운 믹스 신호를 업믹싱하여 업믹싱 신호를 생성하는 통합 업믹싱부; 상기 업믹싱 신호에 통합 필터 뱅크를 수행하여 시간 영역 신호를 추출하고, 상기 업믹싱 신호를 윈도우잉하여 출력 신호를 추출하는 통합 필터뱅크 윈도우잉부를 포함한다.A multi-channel audio decoding apparatus based on a sound source position clue according to an embodiment of the present invention comprises: a demultiplexer for receiving a signal and parsing the received signal into an audio bitstream and an additional information bitstream; An audio decoder to restore a downmix signal based on the audio bitstream; An integrated upmixing unit for predicting a multichannel signal using the downmix signal and the side information bitstream, and generating an upmixing signal by upmixing the downmix signal based on the multichannel signal; And an integrated filter bank windowing unit configured to extract a time domain signal by performing an integrated filter bank on the upmix signal, and extract an output signal by windowing the upmix signal.
또한, 본 발명의 일실시예에 따른 음원 위치 단서 기반의 멀티 채널 오디오 복호화 방법은 수신한 신호를 오디오 비트스트림과 부가 정보 비트스트림으로 파싱 하는 단계; 상기 오디오 비트스트림을 기초로 다운믹스 신호를 복원하는 단계; 상기 부가 정보 비트스트림을 복호화하여 부가 정보를 복원하는 단계; 상기 다운믹스 신호와 상기 부가 정보를 사용하여 멀티 채널 신호를 예측하는 단계; 상기 멀티 채널 신호를 기초로 상기 다운 믹스 신호를 업믹싱하여 업믹싱 신호를 생성하는 단계; 상기 업믹싱 신호에 통합 필터 뱅크를 수행하여 시간 영역 신호를 추출하는 단계; 및 상기 업믹싱 신호를 윈도우잉하여 출력 신호를 추출하는 단계를 포함한다.In addition, a multi-channel audio decoding method based on a sound source position clue according to an embodiment of the present invention includes parsing a received signal into an audio bitstream and an additional information bitstream; Restoring a downmix signal based on the audio bitstream; Restoring side information by decoding the side information bitstream; Predicting a multi-channel signal using the downmix signal and the side information; Generating an upmix signal by upmixing the downmix signal based on the multi-channel signal; Extracting a time domain signal by performing an integrated filter bank on the upmix signal; And windowing the upmix signal to extract an output signal.
본 발명에 따르면 멀티채널 오디오 신호를 입력 받아 이를 압축하고 기본 스테레오 코덱(core stereo codec)을 통하여 스테레오 신호를 압축 전송함으로써, 기존 스테레오 오디오 코덱과 역 호환성(backward compatible)을 제공함과 동시에, 멀티채널 오디오 전송이 가능하다. According to the present invention, by receiving a multi-channel audio signal and compressing it and compressing and transmitting a stereo signal through a core stereo codec, a backward compatible with existing stereo audio codec and at the same time, multi-channel audio Transmission is possible.
본 발명은 TDAC(Time Domain Aliasing Cancellation) 파일 뱅크를 사용함으로써 옵션에 따라, 스테레오 다운믹스 오디오 신호에 대한 T/F 변환을 달리할 수 있다. According to the present invention, a T / F conversion for a stereo downmix audio signal may be varied according to an option by using a time domain alias cancellation cancellation (TDAC) file bank.
이하 첨부된 도면을 참조하여 본 발명에 따른 다양한 실시예를 상세히 설명하기로 한다.Hereinafter, various embodiments of the present disclosure will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 일실시예에 따른 음원 위치 단서 기반의 멀티 채널 오디오 부호화 장치를 도시한 일례이다. 1 is an example of an audio source location clue based multi-channel audio encoding apparatus according to an embodiment of the present invention.
본 발명의 일실시예에 따른 음원 위치 단서 기반의 멀티 채널 오디오 부호화 장치(100)는 SSLCC(Sound Source Location Cue Coding)기반의 5채널 멀티 채널 오디오 부호화 장치로서 도 1에 도시된 바와 같이 전처리 필터뱅크부(110), 분석부(120), 다운믹스 처리부(130), 오디오 부호화부(140) 및 멀티플렉서(150)로 구성될 수 있다.The multi-channel
이때, 음원 위치 단서 기반의 멀티 채널 오디오 부호화 장치(100)는 5채널 이상의 음원 위치 단서 기반의 멀티 채널 오디오 컨텐츠에 대해서도 확장될 수 있다.In this case, the multi-channel
전처리 필터뱅크부(110)는 음원 위치 단서 기반의 멀티 채널 오디오 부호화 장치(100)에 입력되는 멀티채널의 입력 오디오 신호를 전 처리하고, 전 처리된 입력 오디오 신호를 필터뱅크(filterbank)에 통과시켜 주파수 영역 신호로 변경할 수 있다. 이때, 필터뱅크는 서브 밴드 분석(sub-band analysis)에 기초하여 T/F(Time to Frequency) 변환을 하는 구성으로 MDCT, MDST, DFT등이 활용될 수 있다. The preprocessing
이때, 상기 입력 오디오 신호는 입력 신호 LF(Left Front), 입력 신호 RF(Right Front). 입력 신호 C(Center Front), 입력 신호 Ls(Left Surround), 입력 신호 Rs(Right Surround)를 포함할 수 있다.In this case, the input audio signal is an input signal LF (Left Front), an input signal RF (Right Front). The input signal C (Center Front), the input signal Ls (Left Surround), and the input signal Rs (Right Surround) may be included.
분석부(Analyzer)(120)는 전처리 필터뱅크부(110)에서 주파수 영역 신호로 변환된 입력 오디오 신호로부터 공간큐를 추출하고 상기 공간큐를 부가정보 비트스트림으로 표현화하여 전송할 수 있다. 이때, 분석부(120)는 상기 입력 오디오 신호를 압축하여 다운믹스 처리부(130)로 전송할 수 있다.The
다운믹스 처리부(130)는 분석부(120)에서 압축된 상기 입력 오디오 신호를 주파수 영역에서 오디오 신호의 다운믹스 하는 방식으로, 다운믹스를 할 수 있다. 또한, 다운믹스 처리부(130)는 ITU-T의 권고안을 따라 다운 믹스할 수도 있다.The
다운믹스 처리부(130)에서 다운 믹스된 오디오 신호는 일반적인 스테레오 오디오를 통하여 비트스트림으로 표현될 수 있다. 이때, 상기 일반적인 스테레오 오디오로는 MP3(MPEG Layer III) 혹은 AAC(Advanced Audio Coding)등이 활용될 수 있다.The downmixed audio signal in the
오디오 부호화부(140)는 다운믹스 처리부(130)에서 다운 믹스된 오디오 신호를 부호화할 수 있다.The
멀티플렉서(150)는 오디오 부호화부(140)에서 부호화 된 신호와 분석부(120)에서 전송된 부가정보 비트스트림을 결합하여 전송할 수 있다.The
도 2는 본 발명의 일실시예에 따른 음원 위치 단서 기반의 멀티 채널 오디오 복호화 장치를 도시한 일례이다. 2 is a diagram illustrating an audio source position clue based multi-channel audio decoding apparatus according to an embodiment of the present invention.
본 발명의 일실시예에 따른 음원 위치 단서 기반의 멀티 채널 오디오 복호화 장치(200)는 SSLCC 기반의 5채널 멀티 채널 오디오 복호화 장치로서 도 2에 도시된 바와 같이 디멀티플렉서(210), 오디오 복호화부(220), 윈도우잉 필터뱅크부(230), 통합 업믹서부(240), 및 통합 필터뱅크 윈도우잉부(250)로 구성될 수 있다.The multi-channel
디멀티플렉서(210)는 멀티플렉서(150)가 전송한 신호를 수신하고, 수신한 상기 신호를 오디오 비트스트림과 부가 정보 비트스트림으로 파싱할 수 있다.The
오디오 복호화부(220)는 상기 오디오 비트스트림을 기초로 다운믹스 신호를 복원할 수 있다.The
윈도우잉 필터뱅크부(230)는 상기 다운믹스 신호에 에널러시스 필터뱅크를 적용하여 T/F 변환하고, T/F 변환된 상기 다운믹스 신호를 윈도우잉하여 전송할 수 있다.The windowing
통합 업믹싱부(240)는 상기 다운믹스 신호와 상기 부가 정보 비트스트림을 사용하여 멀티 채널 신호를 예측하고, 상기 멀티 채널 신호를 기초로 상기 다운 믹스 신호를 업믹싱(upmixing)하여 업믹싱 신호를 생성할 수 있다.The integrated
구체적으로 통합 업믹싱부(240)는 상기 다운 믹스 신호에서 진폭 정보와 위상 정보를 분리하고, 상기 진폭 정보를 기초로 기 저장된 랜덤 시퀀스를 윈도우잉하여 상기 위상 정보에 가중치를 부여하며, 상기 진폭 정보와 가중치가 부여된 위상 정보를 기초로 멀티 채널 신호를 예측할 수 있다.In detail, the integrated
이때, 통합 업믹싱부(240)는 상기 다운 믹스 신호를 콤플렉스 변환하고, 콤플렉스 변환된 상기 다운 믹스 신호에서 진폭 정보와 위상 정보를 분리할 수 있다.In this case, the integrated
또한, 통합 업믹싱부(240)는 상기 진폭 정보의 포락선을 기초로 위상 정보를 보정하기 위한 스펙트럼 형 윈도우를 모델링 하고, 상기 스펙트럼 형 윈도우를 기 저장된 랜덤 시퀀스에 사용하여 윈도우잉하며, 윈도우잉된 랜덤 시퀀스를 사용하여 상기 위상 정보에 가중치를 부여할 수 있다.In addition, the integrated
그리고, 통합 업믹싱부(240)는 상기 진폭 정보와 가중치가 부여된 위상 정보를 결합하고, 결합된 상기 진폭 정보와 가중치가 부여된 위상 정보를 역 콤플렉스 변환하여 멀티 채널 신호를 예측할 수 있다.In addition, the integrated
통합 필터뱅크 윈도우잉부(250)는 상기 업믹싱 신호에 통합 필터뱅 크(synthesis filterbank)를 수행하여 시간 영역 신호를 추출하고, 상기 업믹싱 신호를 윈도우잉(windowing)하여 출력 신호를 추출할 수 있다.The integrated filter
도 3은 본 발명의 다른 일실시예에 따른 음원 위치 단서 기반의 멀티 채널 오디오 복호화 장치를 도시한 일례이다. 3 illustrates an example of a multi-channel audio decoding apparatus based on a sound source location clue according to another embodiment of the present invention.
본 발명의 다른 일실시예에 따른 음원 위치 단서 기반의 멀티 채널 오디오 복호화 장치(300)는 리얼 변환(Real-Transform)을 적용한 음원 위치 단서 기반의 멀티 채널 오디오 복호화 장치로서 도 2에 도시된 바와 같이 디멀티플렉서(310), TDAC 필터뱅크(320), 통합 업믹서부(330), 및 통합 필터뱅크 윈도우잉부(340)로 구성될 수 있다.The multi-channel
SSLCC는 기본적으로 DFT filterbank (transform)을 따른다. 그러나 코어 스테레오 오디오와 연동을 위해, 다양한 필터뱅크 타입이 적용될 수 있다. SSLCC basically follows the DFT filterbank (transform). However, to work with core stereo audio, various filterbank types can be applied.
이때, 필터뱅크의 타입이 변하더라도, SSLCC 분석부(120)나 통합 업믹서부(240), 및 통합 필터뱅크 윈도우잉부(250)의 통합(Synthesis)의 동작원리는 동일할 수 있다.In this case, even if the type of the filter bank is changed, the operating principle of the synthesis of the
즉, 스테레오 전송 시에는 역상관기(Deccorelator)가 적용되는 않으므로 리얼 변환(Real filterbank(transform))이 가능할 수 있다. 본 발명의 다른 일실시예에 따른 음원 위치 단서 기반의 멀티 채널 오디오 복호화 장치(300)는 상기 리얼 변환이 가능한 MDCT를 사용하여 코어코덱과의 연동이 가능한 구성의 일 실시예이다.That is, since a decorelator is not applied during stereo transmission, a real filterbank (transform) may be possible. The multi-channel
TDAC 필터뱅크(320)는 상기 오디오 비트스트림을 기초로 다운믹스 신호를 복 원한 다음에 상기 다운믹스 신호에 에널러시스 필터뱅크를 적용하는 과정과 윈도우잉 과정을 생략하고 통합 업믹싱부(330로 전송할 수 있다. 이때, TDAC 필터뱅크(320)가 전송하는 신호는 주파수가 다운 믹싱된 신호 L과 주파수가 다운 믹싱된 신호 R일 수 있다.The TDAC
통합 필터뱅크 윈도우잉부(340)는 통합 업믹싱부(330)에서 생성된 업믹싱 신호에 통합 필터뱅크(synthesis filterbank)를 수행하여 시간 영역 신호를 추출하고, 상기 업믹싱 신호를 코어 스테레오 오디오의 에널러시스 윈도우잉과 매핑 되도록 윈도우잉하여 출력 신호를 추출할 수 있다.The integrated
이때, 디멀티플렉서(310), 통합 업믹서부(330)는 본 발명의 일실시예에 따른 음원 위치 단서 기반의 멀티 채널 오디오 복호화 장치(200)의 디멀티플렉서(210), 통합 업믹서부(240)와 동일한 구성이므로 상세한 설명은 생략한다.In this case, the
본 발명의 다른 일실시예에 따른 음원 위치 단서 기반의 멀티 채널 오디오 복호화 장치(300)는 옵션에 따라, 스테레오 다운믹스 오디오 신호에 대한 T/F 변환을 달리할 수 있다. 일례로 복호화 장치에서 역 상관기의 동작이 off될 경우, 리얼 T/F 변환을 적용할 수 있다. 이 경우에 콤플렉스 T/F 변환도 가능하나, 콤플렉스 T/F 변환할 경우에도 위상정보는 사용하지 않는다. The multi-channel
단, 복호화 장치에서 위상정보를 필요로 하는 동작이 on이 될 경우, 즉, 역 상관기의 동작을 필요할 경우에는 반드시 콤플렉스 T/F 변환을 사용하여야 한다. 콤플렉스 T/F 변환 시에는 DFT가 기본이 되나, MDCT/MDST를 하나의 콤플렉스 변환 페어(complex transform pair)로 활용할 수 있다. However, when the operation requiring the phase information in the decoding apparatus is turned on, that is, when the inverse correlator is required, the complex T / F conversion must be used. DFT is the basis for complex T / F conversion, but MDCT / MDST can be utilized as a complex transform pair.
도 4는 본 발명의 일실시예에 따른 부가 정보 비트스트림의 복호화 장치를 도시한 일례이다. 4 is a diagram illustrating an apparatus for decoding an additional information bitstream according to an embodiment of the present invention.
본 발명의 일실시예에 따른 부가 정보 비트스트림의 복호화 장치는 디멀티플렉서(210)가 파싱한 부가 정보 비트스트림에서 부가 정보인 VSLA(Virtual Sound Location Angle)를 복호화하는 장치로서, 도 4에 도시된 바와 같이 허프만 복호화부(410)와 역양자화부(420)로 구성될 수 있다.An apparatus for decoding an additional information bitstream according to an embodiment of the present invention is an apparatus for decoding a virtual sound location angle (VSLA), which is additional information, from the additional information bitstream parsed by the
또한, 본 발명의 일실시예에 따른 부가 정보 비트스트림의 복호화 장치는 윈도우잉 필터뱅크부(230)이나 통합 필터뱅크 윈도우잉부(250)에 포함될 수 있다.In addition, the apparatus for decoding the additional information bitstream according to an embodiment of the present invention may be included in the windowing
허프만 복호화부(410)는 허프만 코드북으로 상기 부가 정보 비트스트림을 허프만 복호화하여 디퍼렌셜 인덱스를 생성할 수 있다.The
이때, 허프만 복호화부(410)는 역 차분 코딩부(411), 차분 코딩부(412), 매핑부(413), 및 허프만 코딩부(414)를 포함하여 상기 허프만 코드북을 생성할 수 있다.In this case, the
이때, 역 차분 코딩부(411)는 이미 처리된 이전 프레임과 허프만 코딩 타입에 대한 정보에 기초하여 역 차분 코딩을 수행하여 원 인덱스를 복호화할 수 있다.In this case, the inverse
또한, 차분 코딩부(412)는 사인 비트의 정보에 대응하여 상기 원 인덱스에서 네거티브 정보를 제거한 다음에 차분 코딩을 수행하여 인덱스 정보를 생성할 수 있다.In addition, the
다음으로 매핑부(413)는 상기 인덱스에서 상기 네거티브 정보를 제거하기 위한 오프셋 정보를 제거한 다음에 상기 인덱스를 주파수 솔루션에 따라 매핑하여 제 1 서브 밴드와 상기 제1 서브 밴드를 제외한 다른 밴드들로 분류할 수 있다. Next, the
마지막으로 허프만 코딩부(414)는 상기 제1 서브 밴드와 상기 제1 서브 밴드를 제외한 다른 밴드들 각각에 대하여 허프만 코딩 방법을 적용하여 허프만 코드북을 생성할 수 있다.Finally, the
허프만 복호화부(410)는 제1 서브 밴드의 값을 하기 표 1의 허프만 코드북을 참조하여 허프만 복호화할 수 있다.The
또한, 허프만 복호화부(410)는 디멀티플렉서(210)가 수신한 상기 신호가 5비트로 양자화된 신호인 경우에 하기 표 2의 허프만 코드북을 참조하여 허프만 복호화할 수 있다.In addition, the
TimeDifferential
Time
TimeDifferential
Time
그리고, 또한, 허프만 복호화부(410)는 디멀티플렉서(210)가 수신한 상기 신호가 4비트로 양자화된 신호인 경우에 하기 표 3의 허프만 코드북을 참조하여 허프만 복호화할 수 있다.In addition, the
Index
Index
TimeDifferential
Time
TimeDifferential
Time
역양자화부(420)는 역양자화 테이블로 상기 디퍼렌셜 인덱스를 역양자화 하여 부가 정보를 복원할 수 있다. 구체적으로 역양자화부(420)는 프레임당 VSLA(Virtual Sound Location Angle)정보에 각각의 VSLA에 대응하는 양자화 테이블을 매핑하여 역양자화 할 수 있다. 이때, 본 발명에 따른 음원 위치 단서 기반의 멀티 채널 오디오는 기본적으로 frame단위의 DFT혹은 MDCT로 디코딩 과정이 수행되므로, 프레임간의 스모싱(smoothing)은 주로 윈도우잉을 통한 오버렙에드(overlap-add)방식에 의해 충족될 수 있다.The
이때, 역양자화부(420)는 VSLA정보가 LHA(Left Half-plane vector Angle)인 경우에 하기 표 4의 양자화 테이블을 매핑하여 역양자화 할 수 있다.In this case, the
이때, 역양자화부(420)는 상기 부가 정보를 복원하는 단계는 VSLA정보가 RHA(Right Half-plane vector Angle)인 경우에 하기 표 5의 양자화 테이블을 매핑하여 역양자화 할 수 있다.In this case, the
이때, 역양자화부(420)는 상기 부가 정보를 복원하는 단계는 VSLA정보가 LSA(Left Subsequent vector Angle)인 경우에 하기 표 6의 양자화 테이블을 매핑하여 역양자화 할 수 있다.In this case, the
이때, 역양자화부(420)는 상기 부가 정보를 복원하는 단계는 VSLA정보가 RSA(Right Subsequent vector Angle)인 경우에 하기 표 7의 양자화 테이블을 매핑하여 역양자화 할 수 있다.In this case, the
또한, 역양자화부(420)는 각 인덱스 정보로부터 얻어진 VSLA정보로부터 하기 수학식 1을 만족하는 파라미터 값들을 추출할 수 있다.In addition, the
이때, 서브밴드의 수는 상기 부가 정보에 포함된 서브밴드 개수 정의 변수인 bsFreqRes에서 구할 수 있으며, 역양자화부(420)는 서브밴드의 수에 따라 전송되는 VSLA정보수도 매핑 할 수 있다. 또한, 최대 밴드 수는 28밴드(Mpar=28)를 기준으로 비트레잇 또는 프레임의 주파수 특성에 따라, 분해능을 달리하여 밴드 수를 달리 할 수 있다.In this case, the number of subbands may be obtained from bsFreqRes, which is a subband number defining variable included in the additional information, and the
역양자화부(420)는 mapsubbands(bsFreqRes, Mpar )를 통하여 하기된 표 8과 같이 매핑 할 수 있다.
m
m
역양자화부(420)는 ERB밴드를 기준으로 설계된 각 밴드의 분해능을 사용하여 상기 수학식 1을 처리할 수 있으며, 상기 표 8과 같이 매핑 된 경우에서 Mpar=28일 때 각 밴드의 분해능은 하기된 표 9와 같을 수 있다.The
이때, 주기적 전치 부호 제거부(210), 역 이산 푸리에 변환부(220), 보호대역 제거부(230)는 상기 복호화 장치에서 사용하는 수신 안테나의 수와 동일한 수로 구성되어 각각의 수신 안테나와 대응할 수 있다.In this case, the
윈도우잉 필터뱅크부(230)는 기본적으로 T/F변환을 수행한 후, 주파수 영역의 밴드를 묶어 하나의 프로세싱 밴드(processing band)로 정의할 수 있다.After the windowing
일례로 2048-point DFT 변환을 수행할 경우, 하기 표 10에 도시된 바와 같이 start, stop bin의 위치를 중심으로, 주파수 영역의 빈들을 묶어서 하나의 프로세싱 밴드로 정의할 수 있다. For example, when performing a 2048-point DFT transformation, bins in a frequency domain may be defined as a single processing band by centering the positions of start and stop bins as shown in Table 10 below.
positionStart bin's
position
이때,통합 업믹싱부(240)는 상기 부가 정보 비트스트림에서 복원된 VSLA정보를 기반으로 상기 다운믹스 신호의 각 채널의 서브밴드 내에서의 음상정위를 통하여 멀티채널 신호를 복원할 수 있다. 구체적으로 상기 부가 정보 비트스트림으로부터 하기된 도 5와 같이 각 서브밴드 내에서의 파워(Power) 정보를 패닝 각도(Panning Angle)로부터 예측하고 이를 적용함으로써 각 채널의 서브밴드 신호를 예측할 수 있다. In this case, the
도 5는 본 발명의 일실시예에 따른 통합 업믹싱부가 각 채널의 이득을 예측하는 과정의 일례이다. 5 is an example of a process of estimating the gain of each channel by the integrated upmixing unit according to an embodiment of the present invention.
통합 업믹싱부(240)는 도 5에 도시된 바와 같이 각 채널의 음상정보를 계층적으로 복원하며 각 채널의 이득(gain)을 예측할 수 있다.As illustrated in FIG. 5, the
먼저, 통합 업믹싱부(240)는 LHA[idx](510)와 RHA[idx](520)을 복원할 수 있다.First, the
다음으로 통합 업믹싱부(240)는 LHA[idx](510)로부터 gLs[idx](530)을 예측하고, LSA[idx](511)를 복원하며, RHA[idx](520)로부터 gRs[idx](540)을 예측하고, RSA[idx](521)를 복원할 수 있다.Next, the
그 다음에 통합 업믹싱부(240)는 LSA[idx](511)로부터 gL[idx](550)와 gCL[idx](512)을 예측하고, RSA[idx](521)로부터 gRs[idx](560)와 gCR[idx](522)를 예측할 수 있다.The
마지막으로 통합 업믹싱부(240)는 gCL[idx](512)와 gCR[idx](522)로부터 gCL[idx]/sqrt(2)(570)를 예측할 수 있다. 이때, gCL[idx]/sqrt(2)은 gCL[idx](512) * 0.7071로서 센터 채널의 이득을 스케일링한 값일 수 있다.Finally, the
통합 업믹싱부(240)는 상기 과정을 통하여 예측한 상기 멀티 채널 신호를 기초로 상기 다운 믹스 신호를 업믹싱(upmixing)하여 업믹싱 신호를 생성할 수 있다.The
이때, XdmxL(m,k)를 전송된 Left 다운믹스 신호의 m번째 서브밴드의 k번째 주파수 bin이라 할 때, 'Left upmixing Matrix'는 하기된 수학식 2를 만족할 수 있다.In this case, when X dmxL (m, k) is the k-th frequency bin of the m-th subband of the transmitted Left downmix signal, 'Left upmixing matrix' may satisfy
또한, Right 다운믹스 신호에 대해서 'Rightupmixing Matrix'는 하기된 수학식 3을 만족할 수 있다.In addition, 'Rightupmixing Matrix' for the Right downmix signal may satisfy Equation 3 below.
또한, 통합 업믹싱부(240)는 DFT기반의 역상관기(decorrelator)인 DL과 DR을 포함할 수 있다.In addition, the
상기 DL과 DR은 하이 컴플렉시티 모드(High-complexity mode)와 일반 모드인 로우 컴플렉시티 모드(Low-complexity mode)로 동작할 수 있다. 이때, 상기 DL과 DR은 디코더에서만 생성되며, 고음장감을 생성할 경우에는 하이 컴플렉시티 모드로 동작하고, 일반 음질을 생성할 경우에는 로우 컴플렉시티 모드로 동작할 수 있다.The D L and D R may operate in a high-complexity mode and a low-complexity mode in a normal mode. In this case, the D L and the D R may be generated only in the decoder, and may operate in a high complexity mode when generating a high sound feeling, and may operate in a low complexity mode when generating general sound quality.
상기 DL과 DR은 하이 컴플렉시티 모드일 경우에 L(m,k)와 R(m,k)에 대한 하기된 수학식 4의 매트릭싱(matrixing) 연산을 수행하여 역 상관 신호를 생성할 수 있다. The D L and D R generate an inverse correlation signal by performing a matrixing operation of Equation 4 below for L (m, k) and R (m, k) in the high complexity mode. can do.
또한, DL과 DR은 일반모드일 경우에 하기된 수학식 5를 만족하며 역 상관 신호를 생성하지 않을 수 있다.In addition, D L and D R satisfy the following Equation 5 in the normal mode and may not generate an inverse correlation signal.
또한, 통합 업믹싱부(240)는 상기 수학식 2와 수학식 3에서 계산된 값을 하기된 수학식 6에 사용하여 업믹싱을 할 수 있다. In addition, the
이때, α(m)은 각 밴드 별 L, R 신호간의 상관관계를 나타내는 펙터(factor)일 수 있다. 또한, δ는 고정계수이며, 인코더에서 다운믹스 시, 서라운드(surround) 신호에 대한 믹싱(mixing) 계수의 역인 고정계수일 수 있다.In this case, α (m) may be a factor representing a correlation between L and R signals for each band. In addition, δ is a fixed coefficient and may be a fixed coefficient which is an inverse of a mixing coefficient of a surround signal when the mixer is downmixed.
이때, 상기 α(m)은 상기 수학식 4와 수학식 5에서 계산된 값을 하기된 수학식 7에 사용하여 얻을 수 있다. In this case, α (m) may be obtained by using the values calculated in Equations 4 and 5 in Equation 7 below.
이때,λ는 가중치(weighting) 계수로써, 역상관 신호의 믹싱(mixing) 정도를 조절하기 위한 값일 수 있다. 따라서, α(m)은 0≤α(m)≤이며, 는 0≤≤1의 범위 내에서 정의될 수 있다.In this case, λ is a weighting coefficient and may be a value for adjusting the degree of mixing of the decorrelation signal. Therefore, α (m) is 0 ≦ α (m) ≦ Is, Is 0≤ It can be defined within the range of ≤ 1.
또한, 상기 wetL(m,k)와 wetR(m,k)은 역상관 신호로서 역상관기에서 실행되는 역상관 프로세싱(Decorrelation processing)을 거쳐 생성될 수 있다.Also, the wet L (m, k) and the wet R (m, k) may be generated through decorrelation processing performed in the decorrelator as a decorrelative signal.
도 6은 본 발명의 일실시예에 따른 역상관기를 도시한 일례이다. 6 illustrates an example of a decorrelator according to an embodiment of the present invention.
본 발명의 일실시예에 따른 역상관기(600)는 통합 업믹싱부(240)에 포함되어 역상관 신호를 생성하는 구성으로서 도 6에 도시된 바와 같이 콤플렉스 변환부(610), 진폭 정보 추출부(620), 위상 정보 추출부(630), 랜덤 시퀀스 저장부(640), 윈도우잉부(650), 위상 변환부(660), 통합부(670), 및 역 콤플렉스 변환 부(680)로 구성될 수 있다.The
콤플렉스 변환부(610)는 상기 다운 믹스 신호를 콤플렉스 변환할 수 있다.The
진폭 정보 추출부(620)와 위상 정보 추출부(630)는 콤플렉스 변환부(610)에서 변환된 상기 다운 믹스 신호로부터 각각 진폭 정보와 위상 정보를 추출하여 상기 다운 믹스 신호를 분리할 수 있다.The
윈도우잉부(650)는 진폭 정보 추출부(620)가 추출한 상기 진폭 정보의 포락선을 기초로 위상 정보를 보정하기 위한 스펙트럼 형 윈도우를 모델링하고, 랜덤 시퀀스 저장부(640)에 기 저장된 랜덤 시퀀스에 상기 스펙트럼 형 윈도우를 사용하여 윈도우잉할 수 있다.The
이때, 랜덤 시퀀스 저장부(640)에 기 저장된 랜덤 시퀀스의 개수는 상기 다운 믹스 신호의 개수에 따라 정해진다. 즉, 상기 wetL(m,k)와 wetR(m,k)을 생성하기 위해서. 서로 상이한 랜덤 시퀀스가 사용되며, 이때 사용되는 두 랜덤 시퀀스 간의 상관도는 0에 가까울 수 있다.In this case, the number of random sequences previously stored in the random
위상 변환부(660)는 윈도우잉부(650)에서 윈도우잉된 랜덤 시퀀스를 사용하여 위상 정보 추출부(630)에서 추출한 상기 위상 정보에 가중치를 부여할 수 있다.The
통합부(670)는 진폭 정보 추출부(620)가 추출한 상기 진폭 정보와 위상 변환부(660)에서 가중치가 부여된 위상 정보를 결합할 수 있다.The
역 콤플렉스 변환부(680)는 통합부(670)에서 결합된 정보를 역 콤플렉스 변환하여 역상관 신호를 계산할 수 있다.The inverse
도 7은 본 발명의 일실시예에 따른 음원 위치 단서 기반의 멀티 채널 오디오 복호화 방법을 도시한 흐름도이다. 7 is a flowchart illustrating a multi-channel audio decoding method based on a sound source location clue according to an embodiment of the present invention.
단계(S710)에서 디멀티플렉서(210)는 멀티플렉서(150)가 전송한 신호를 수신하고, 수신한 상기 신호를 오디오 비트스트림과 부가 정보 비트스트림으로 파싱할 수 있다.In operation S710, the
단계(S720)에서 오디오 복호화부(220)는 단계(S710)에서 파싱된 상기 오디오 비트스트림을 기초로 다운믹스 신호를 복원할 수 있다.In operation S720, the
단계(S730)에서 허프만 복호화부(410)는 허프만 코드북으로 단계(S710)에서 파싱된 상기 부가 정보 비트스트림을 허프만 복호화하여 디퍼렌셜 인덱스를 생성할 수 있다.In operation S730, the
단계(S740)에서 역양자화부(420)는 역양자화 테이블로 단계(S710)에서 생성된 상기 디퍼렌셜 인덱스를 역양자화 하여 부가 정보를 복원할 수 있다. 구체적으로 역양자화부(420)는 프레임당 VSLA(Virtual Sound Location Angle)정보에 각각의 VSLA에 대응하는 양자화 테이블을 매핑하여 역양자화 할 수 있다.In operation S740, the
단계(S750)에서 통합 업믹싱부(240)는 단계(S720)에서 복원된 상기 다운믹스 신호와 단계(S740)에서 복원된 상기 부가 정보를 사용하여 멀티 채널 신호를 예측하고, 상기 멀티 채널 신호를 기초로 상기 다운 믹스 신호를 업믹싱(upmixing)하여 업믹싱 신호를 생성할 수 있다.In operation S750, the
단계(S760)에서 통합 필터뱅크 윈도우잉부(250)는 단계(S750)에서 생성된 상기 업믹싱 신호에 통합 필터뱅크를 수행하여 시간 영역 신호를 추출하고, 상기 업 믹싱 신호를 윈도우잉하여 출력 신호를 추출할 수 있다.In operation S760, the integrated filter
이상에서 설명한 바와 같이, 본 발명에 따른 음원 위치 단서 기반의 멀티 채널 오디오 복호화 장치 및 방법은 멀티채널 오디오 신호를 입력 받아 이를 압축하고 기본 스테레오 코덱(core stereo codec)을 통하여 스테레오 신호를 압축 전송함으로써, 기존 스테레오 오디오 코덱과 역 호환성(backward compatible)을 제공함과 동시에, 멀티채널 오디오 전송이 가능하다. As described above, the multi-channel audio decoding apparatus and method based on the sound source position clue according to the present invention receives a multi-channel audio signal, compresses it, and compresses and transmits the stereo signal through a core stereo codec. It provides backward compatibility with existing stereo audio codecs and enables multichannel audio transmission.
이상과 같이 본 발명에서는 구체적인 구성 요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.As described above, the present invention has been described by specific embodiments such as specific components and the like. For those skilled in the art to which the present invention pertains, various modifications and variations are possible.
따라서 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.Therefore, the spirit of the present invention should not be limited to the described embodiments, and all of the equivalents or equivalents of the claims as well as the claims to be described later belong to the scope of the present invention.
도 1은 본 발명의 일실시예에 따른 음원 위치 단서 기반의 멀티 채널 오디오 부호화 장치를 도시한 일례이다. 1 is an example of an audio source location clue based multi-channel audio encoding apparatus according to an embodiment of the present invention.
도 2는 본 발명의 일실시예에 따른 음원 위치 단서 기반의 멀티 채널 오디오 복호화 장치를 도시한 일례이다. 2 is a diagram illustrating an audio source position clue based multi-channel audio decoding apparatus according to an embodiment of the present invention.
도 3은 본 발명의 다른 일실시예에 따른 음원 위치 단서 기반의 멀티 채널 오디오 복호화 장치를 도시한 일례이다. 3 illustrates an example of a multi-channel audio decoding apparatus based on a sound source location clue according to another embodiment of the present invention.
도 4는 본 발명의 일실시예에 따른 부가 정보 비트스트림의 복호화 장치를 도시한 일례이다. 4 is a diagram illustrating an apparatus for decoding an additional information bitstream according to an embodiment of the present invention.
도 5는 본 발명의 일실시예에 따른 통합 업믹싱부가 각 채널의 이득을 예측하는 과정의 일례이다. 5 is an example of a process of estimating the gain of each channel by the integrated upmixing unit according to an embodiment of the present invention.
도 6은 본 발명의 일실시예에 따른 역상관기를 도시한 일례이다. 6 illustrates an example of a decorrelator according to an embodiment of the present invention.
도 7은 본 발명의 일실시예에 따른 음원 위치 단서 기반의 멀티 채널 오디오 복호화 방법을 도시한 흐름도이다.7 is a flowchart illustrating a multi-channel audio decoding method based on a sound source location clue according to an embodiment of the present invention.
Claims (12)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2009102238140A CN101754086B (en) | 2008-12-03 | 2009-11-23 | Decoder and decoding method for multichannel audio coder using sound source location cue |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20080121709 | 2008-12-03 | ||
KR1020080121709 | 2008-12-03 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20100063639A true KR20100063639A (en) | 2010-06-11 |
KR101176703B1 KR101176703B1 (en) | 2012-08-23 |
Family
ID=42363561
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090064918A KR101176703B1 (en) | 2008-12-03 | 2009-07-16 | Decoder and decoding method for multichannel audio coder using sound source location cue |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR101176703B1 (en) |
CN (1) | CN101754086B (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022010189A1 (en) * | 2020-07-06 | 2022-01-13 | 한국전자통신연구원 | Apparatus and method for audio encoding/decoding robust to transition segment encoding distortion |
US20240038248A1 (en) * | 2016-01-27 | 2024-02-01 | Dolby Laboratories Licensing Corporation | Acoustic environment simulation |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012045203A1 (en) * | 2010-10-05 | 2012-04-12 | Huawei Technologies Co., Ltd. | Method and apparatus for encoding/decoding multichannel audio signal |
-
2009
- 2009-07-16 KR KR1020090064918A patent/KR101176703B1/en active IP Right Grant
- 2009-11-23 CN CN2009102238140A patent/CN101754086B/en not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20240038248A1 (en) * | 2016-01-27 | 2024-02-01 | Dolby Laboratories Licensing Corporation | Acoustic environment simulation |
WO2022010189A1 (en) * | 2020-07-06 | 2022-01-13 | 한국전자통신연구원 | Apparatus and method for audio encoding/decoding robust to transition segment encoding distortion |
Also Published As
Publication number | Publication date |
---|---|
KR101176703B1 (en) | 2012-08-23 |
CN101754086A (en) | 2010-06-23 |
CN101754086B (en) | 2012-11-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6446407B2 (en) | Transcoding method | |
KR100954179B1 (en) | Near-transparent or transparent multi-channel encoder/decoder scheme | |
KR102011793B1 (en) | Mdct-based complex prediction stereo coding | |
EP2947657B1 (en) | Multi-channel audio coding using complex prediction and real indicator | |
CN105913851B (en) | Method and apparatus for encoding and decoding audio/speech signal | |
CA3093218C (en) | Advanced stereo coding based on a combination of adaptively selectable left/right or mid/side stereo coding and of parametric stereo coding | |
RU2665214C1 (en) | Stereophonic coder and decoder of audio signals | |
JP2010515099A5 (en) | ||
JP7401625B2 (en) | Apparatus for encoding or decoding an encoded multichannel signal using a supplementary signal generated by a wideband filter | |
KR20060060927A (en) | Apparatus and method for processing multichannel audio signal using space information | |
WO2009048239A2 (en) | Encoding and decoding method using variable subband analysis and apparatus thereof | |
KR20070011136A (en) | Virtual source location information based channel level difference quantization and dequantization method | |
KR20220054712A (en) | Backward-compatible integration of harmonic transposer for high frequency reconstruction of audio signals | |
KR101176703B1 (en) | Decoder and decoding method for multichannel audio coder using sound source location cue | |
CN108417219B (en) | Audio object coding and decoding method suitable for streaming media | |
KR20120089230A (en) | Apparatus for decoding a signal |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20150723 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20160712 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20180725 Year of fee payment: 7 |