RU2560788C2 - Устройство и способ для обработки декодированного аудиосигнала в спектральной области - Google Patents
Устройство и способ для обработки декодированного аудиосигнала в спектральной области Download PDFInfo
- Publication number
- RU2560788C2 RU2560788C2 RU2013142138/08A RU2013142138A RU2560788C2 RU 2560788 C2 RU2560788 C2 RU 2560788C2 RU 2013142138/08 A RU2013142138/08 A RU 2013142138/08A RU 2013142138 A RU2013142138 A RU 2013142138A RU 2560788 C2 RU2560788 C2 RU 2560788C2
- Authority
- RU
- Russia
- Prior art keywords
- audio signal
- time
- signal
- decoder
- decoded
- Prior art date
Links
- 230000005236 sound signal Effects 0.000 title claims abstract description 88
- 238000012545 processing Methods 0.000 title claims abstract description 29
- 230000003595 spectral effect Effects 0.000 title claims abstract description 27
- 238000000034 method Methods 0.000 title claims description 26
- 238000001228 spectrum Methods 0.000 claims abstract description 19
- 238000005303 weighing Methods 0.000 claims abstract description 15
- 238000001914 filtration Methods 0.000 claims description 19
- 238000006243 chemical reaction Methods 0.000 claims description 14
- 230000007774 longterm Effects 0.000 claims description 12
- 238000005070 sampling Methods 0.000 claims description 10
- 230000002194 synthesizing effect Effects 0.000 claims description 4
- 230000002238 attenuated effect Effects 0.000 claims 2
- 230000003321 amplification Effects 0.000 claims 1
- 238000003199 nucleic acid amplification method Methods 0.000 claims 1
- 230000000694 effects Effects 0.000 abstract 1
- 239000000126 substance Substances 0.000 abstract 1
- 230000004044 response Effects 0.000 description 20
- 238000012805 post-processing Methods 0.000 description 15
- 238000004590 computer program Methods 0.000 description 9
- 230000003044 adaptive effect Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 5
- 230000005284 excitation Effects 0.000 description 4
- 230000009897 systematic effect Effects 0.000 description 4
- 238000012952 Resampling Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 230000001934 delay Effects 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 238000000844 transformation Methods 0.000 description 3
- 238000009825 accumulation Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 210000001520 comb Anatomy 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000000354 decomposition reaction Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000010076 replication Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 108010076504 Protein Sorting Signals Proteins 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/005—Correction of errors induced by the transmission channel, if related to the coding algorithm
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/10—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a multipulse excitation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/028—Noise substitution, i.e. substituting non-tonal spectral components by noisy source
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10K—SOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
- G10K11/00—Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
- G10K11/16—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/012—Comfort noise or silence coding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/0212—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using orthogonal transformation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/022—Blocking, i.e. grouping of samples in time; Choice of analysis windows; Overlap factoring
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/022—Blocking, i.e. grouping of samples in time; Choice of analysis windows; Overlap factoring
- G10L19/025—Detection of transients or attacks for time/frequency resolution switching
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/03—Spectral prediction for preventing pre-echo; Temporary noise shaping [TNS], e.g. in MPEG2 or MPEG4
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/06—Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
- G10L19/07—Line spectrum pair [LSP] vocoders
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/10—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a multipulse excitation
- G10L19/107—Sparse pulse excitation, e.g. by using algebraic codebook
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/12—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/12—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
- G10L19/13—Residual excited linear prediction [RELP]
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/18—Vocoders using multiple modes
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/18—Vocoders using multiple modes
- G10L19/22—Mode decision, i.e. based on audio signal content versus external parameters
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/06—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being correlation coefficients
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/26—Pre-filtering or post-filtering
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Quality & Reliability (AREA)
- Algebra (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Mathematical Physics (AREA)
- Pure & Applied Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Tone Control, Compression And Expansion, Limiting Amplitude (AREA)
- Stereophonic System (AREA)
Abstract
Изобретение относится к аудиообработке, а именно к обработке декодированного аудиосигнала. Технический результат заключается в обеспечении постобработки с низкой задержкой декодированного аудиосигнала. Технический результат достигается за счет устройства для обработки декодированного аудиосигнала, содержащего фильтр для фильтрации декодированного аудиосигнала, чтобы получать фильтрованный аудиосигнал, каскад преобразователя время-спектр для преобразования декодированного аудиосигнала и фильтрованного аудиосигнала в соответствующие спектральные представления, причем каждое спектральное представление имеет множество подполосных сигналов, модуль взвешивания для выполнения частотно-избирательного взвешивания фильтрованного аудиосигнала посредством умножения подполосных сигналов на соответствующие весовые коэффициенты, чтобы получать взвешенный фильтрованный аудиосигнал, модуль вычитания для выполнения вычитания по подполосам между взвешенным фильтрованным аудиосигналом и спектральным представлением декодированного аудиосигнала и преобразователь спектр-время для преобразования результирующего аудиосигнала или сигнала, извлекаемого из результирующего аудиосигнала, в представление во временной области, чтобы получать обработанный декодированный аудиосигнал. 3 н. и 13 з.п. ф-лы, 13 ил.
Description
ПОДРОБНОЕ ОПИСАНИЕ ИЗОБРЕТЕНИЯ
Настоящее изобретение относится к аудиообработке и, в частности, к обработке декодированного аудиосигнала в целях повышения качества.
В последнее время проводятся более глубокие исследования касательно переключаемых аудиокодеков. Высококачественный переключаемый аудиокодек с низкой скоростью передачи битов основан на принципе стандартизированного кодирования речи и аудио (USAC-принципе). Предусмотрена общая предварительная обработка/постобработка, состоящая из функционального модуля по стандарту объемного звучания MPEG (MPEGs), чтобы управлять стерео- или многоканальной обработкой, и модуля по стандарту усовершенствованной SBR (eSBR), который управляет параметрическим представлением верхних аудиочастот во входном сигнале. Далее, предусмотрены две ветви, одна из которых состоит из тракта для инструментального средства по стандарту усовершенствованного кодирования аудио (AAC), а другая состоит из тракта на основе линейного кодирования с предсказанием (в LP- или LPC-области), который, в свою очередь, показывает представление в частотной области или представление во временной области LPC-остатка. Все передаваемые спектры как для AAC, так и для LPC представляются в MDCT-области после квантования и арифметического кодирования. Представление во временной области использует схему кодирования с ACELP-возбуждением. Блок-схемы кодера и декодера приведены на фиг. 1.1 и фиг. 1.2 документа ISO/IEC CD 23003-3.
Дополнительным примером для переключаемого аудиокодека является кодек по стандарту усовершенствованного широкополосного адаптивного многоскоростного кодирования (AMR-WB+), как описано в 3GPP TS 26.290 V10.0.0 (2011-3). AMR-WB+-аудиокодек обрабатывает входные кадры, равные 2048 выборкам, на внутренней частоте Fs дискретизации. Внутренние частоты дискретизации ограничены диапазоном 12800-38400 Гц. Кадры из 2048 выборок разбиваются на две критически дискретизированные равные полосы частот. Это приводит к двум суперкадрам по 1024 выборок, соответствующим полосе низких частот (LF) и высоких частот (HF). Каждый суперкадр разделяется на четыре кадра из 256 выборок. Дискретизация на внутренней частоте дискретизации осуществляется посредством использования схемы преобразования с переменной дискретизацией, которая повторно дискретизирует входной сигнал. LF- и HF-сигналы затем кодируются с использованием двух разных подходов: LF кодируется и декодируется с использованием "базового" кодера/декодера на основе переключаемого ACELP и возбуждения по кодированию с преобразованием (TCX). В ACELP-режиме используется стандартный AMR-WB-кодек. HF-сигнал кодируется с помощью относительно небольшого числа битов (16 битов в расчете на кадр) с использованием способа расширения полосы пропускания (BWE). AMR-WB-кодер включает в себя функциональные средства предварительной обработки, LPC-анализ, функциональные средства поиска с разомкнутым контуром, функциональные средства поиска в адаптивной таблице кодирования, функциональные средства поиска в инновационной таблице кодирования и обновление памяти. ACELP-декодер содержит несколько функциональных средств, к примеру, декодирования адаптивной таблицы кодирования, усиления при декодировании, декодирования инновационной таблицы кодирования, декодирования ISP, фильтра с долгосрочным предсказанием (LTP-фильтр), функциональные средства возбуждения на основе конструкций, интерполяции ISP для четырех субкадров, постобработки, синтезирующего фильтра, блока коррекции предыскажений и повышающей дискретизации, с тем чтобы в итоге получать часть полосы нижних частот речевого выходного сигнала. Часть полосы верхних частот речевого выходного сигнала формируется посредством масштабирования усилений с использованием индекса HB-усиления, VAD-флага и случайного возбуждения при 16 кГц. Кроме того, используется синтезирующий HB-фильтр, после которого идет полосовой фильтр. Дополнительные сведения приведены на фиг. 3 документа G.722.2.
Эта схема усовершенствована в AMR-WB+ за счет выполнения постобработки моносигнала полосы низких частот. Следует обратиться к фиг. 7, 8 и 9, иллюстрирующим функциональные средства в AMR-WB+. Фиг. 7 иллюстрирует модуль 700 улучшения основного тона, фильтр 702 нижних частот, фильтр 704 верхних частот, каскад 706 отслеживания основного тона и сумматор 708. Блоки соединяются так, как проиллюстрировано на фиг. 7, и в них подается декодированный сигнал.
При улучшении низкочастотного основного тона используется двухполосное разложение, и адаптивная фильтрация применяется только к полосе нижних частот. Это приводит к общей постобработке, которая главным образом предназначена для частот около основных гармоник синтезированного речевого сигнала. Фиг. 7 показывает блок-схему двухполосного модуля улучшения основного тона. В верхней ветви декодированный сигнал фильтруется посредством фильтра 704 верхних частот, так что формируются сигналы sH полосы верхних частот. В нижней ветви декодированный сигнал сначала обрабатывается посредством адаптивного модуля 700 улучшения основного тона и затем фильтруется посредством фильтра 702 нижних частот, чтобы получать сигнал (sLEE) постобработки полосы нижних частот.
Декодированный сигнал постобработки получается посредством суммирования сигнала постобработки полосы нижних частот и сигнала полосы верхних частот. Назначение модуля улучшения основного тона состоит в том, чтобы уменьшать межгармонический шум в декодированном сигнале, что достигается посредством изменяющегося во времени линейного фильтра с передаточной функцией HE, указываемой в первой строке по фиг. 9 и описанной посредством уравнения во второй строке по фиг. 9; α является коэффициентом, который управляет межгармоническим ослаблением. T является периодом основного тона входного сигнала Ŝk(n), а sLE(n) является выходным сигналом модуля улучшения основного тона. Параметры T и α изменяются во времени и задаются посредством модуля 706 отслеживания основного тона со значением α=1; усиление фильтра, описанного посредством уравнения во второй строке по фиг. 9, равно исключительно нулю на частотах 1/(2T), 3/(2T), 5/(2T) и т.д., т.е. в средней точке между DC (0 Гц) и частотами гармоники 1/T, 3/T, 5/T и т.д. Когда α приближается к нулю, снижается ослабление между гармониками, сформированными посредством фильтра, как задано во второй строке по фиг. 9. Когда α равен нулю, фильтр вообще не действует и пропускает все частоты. Чтобы ограничивать постобработку областью низких частот, улучшенный сигнал sLE подвергается фильтрации нижних частот, чтобы формировать сигнал sLEF, который суммируется с сигналом sH фильтра верхних частот с тем, чтобы получать синтезированный сигнал sE постобработки. Другая конфигурация, эквивалентная иллюстрации на фиг. 7, проиллюстрирована на фиг. 8, и конфигурация на фиг. 8 исключает необходимость фильтрации верхних частот. Это поясняется относительно третьего уравнения для sE на фиг. 9; hLP(n) является импульсной характеристикой фильтра нижних частот, а hHP(n) является импульсной характеристикой комплементарного фильтра верхних частот. Затем, сигнал sE(n) постобработки задается посредством третьего уравнения на фиг. 9. Таким образом, постобработка является эквивалентной вычитанию масштабированного фильтрованного по нижним частотам сигнала α.eLT(n) долгосрочной ошибки из синтезированного сигнала ŝk(n). Передаточная функция фильтра с долгосрочным предсказанием задается так, как указано в последней строке по фиг. 9. Эта альтернативная конфигурация постобработки проиллюстрирована на фиг. 8. Значение T задается посредством принимаемого запаздывания основного тона с замкнутым контуром в каждом субкадре (дробное запаздывание основного тона округляется до ближайшего целого числа). Простое отслеживание на предмет проверки удвоения основного тона выполняется. Если нормализованная корреляция основного тона при задержке T/2 превышает 0,95, то значение T/2 используется в качестве нового запаздывания основного тона для постобработки. Коэффициент α задается посредством α=0,5gp, ограниченного как α, большее или равное нулю и меньшее или равное 0,5. gp является декодированным усилением основного тона, ограниченным между 0 и 1. В TCX-режиме значение α задается равным нулю. Линейный фазовый FIR-фильтр нижних частот с 25 коэффициентами используется с частотой среза приблизительно 500 Гц. Задержка фильтра составляет 12 выборок. Верхняя ветвь должна вводить задержку, соответствующую задержке обработки в нижней ветви, чтобы поддерживать сигналы в двух ветвях совмещенными по времени до выполнения вычитания. В AMR-WB+ Fs=2x от частоты дискретизации базы. Базовая частота дискретизации равна 12800 Гц. Таким образом, частота среза равна 500 Гц.
Обнаружено то, что, в частности, для вариантов применения с низкой задержкой, задержка фильтра в 12 выборок, введенная посредством FIR-фильтра нижних частот с линейной фазой, обеспечивает вклад в полную задержку схемы кодирования/декодирования. Существуют другие источники систематических задержек в других местах цепочки кодирования/декодирования, и задержка FIR-фильтра накапливается за счет других источников.
Цель настоящего изобретения заключается в том, чтобы предоставлять усовершенствованный принцип обработки аудиосигналов, который лучше подходит для вариантов применения в реальном времени или сценариев двусторонней связи, к примеру сценариев использования мобильных телефонов.
Это цель достигается посредством устройства для обработки декодированного аудиосигнала по п. 1 формулы изобретения, либо способа обработки декодированного аудиосигнала по п. 15 формулы изобретения, либо компьютерной программы по п. 16 формулы изобретения.
Настоящее изобретение основано на том факте, что доля фильтра нижних частот при постфильтрации нижних звуковых частот декодированного сигнала в полной задержке является проблематичной и должна быть уменьшена. С этой целью, фильтрованный аудиосигнал не подвергается фильтрации нижних частот во временной области, но подвергается фильтрации нижних частот в спектральной области, такой как QMF-область или любая другая спектральная область, например MDCT-область, FFT-область и т.д. Обнаружено то, что преобразование из спектральной области в частотную область и, например, в частотную область низкого разрешения, к примеру в QMF-область, может быть выполнено с низкой задержкой, и частотная избирательность фильтра, который должен быть реализован в спектральной области, может быть реализована посредством простого взвешивания отдельных подполосных сигналов из представления в частотной области фильтрованного аудиосигнала. Следовательно, это "впечатление" частотно-избирательной характеристики достигается вообще без систематической задержки, поскольку операция умножения или взвешивания с подполосным сигналом не подвержена задержке. Вычитание фильтрованного аудиосигнала и исходного аудиосигнала также выполняется в спектральной области. Кроме того, предпочтительно выполнять дополнительные операции, которые, например, необходимы в любом случае, к примеру, декодирование репликации полос спектра либо стерео- или многоканальное декодирование дополнительно выполняется в одной QMF-области. Частотно-временное преобразование выполняется только в конце цепочки декодирования, чтобы возвращать в итоге сформированный аудиосигнал во временную область. Следовательно, в зависимости от варианта применения, результирующий аудиосигнал, сформированный посредством модуля вычитания, может быть преобразован обратно во временную область как есть, когда дополнительные операции обработки в QMF-области более не требуются. Тем не менее, когда алгоритм декодирования имеет дополнительные операции обработки в QMF-области, то частотно-временной преобразователь соединяется не с выходом модуля вычитания, а соединяется с выходом последнего устройства обработки в частотной области.
Предпочтительно, фильтр для фильтрации декодированного аудиосигнала является фильтром с долгосрочным предсказанием. Кроме того, предпочтительно, чтобы спектральное представление представляло собой QMF-представление, и дополнительно предпочтительно, чтобы частотная избирательность представляла собой характеристику нижних частот.
Тем не менее, любые другие фильтры, отличающиеся от фильтра с долгосрочным предсказанием, любые другие спектральные представления, отличающиеся от QMF-представления, или любая другая частотная избирательность, отличающаяся от характеристики нижних частот, могут быть использованы для того, чтобы получать постобработку с низкой задержкой декодированного аудиосигнала.
Предпочтительные варианты осуществления настоящего изобретения описаны далее со ссылками на прилагаемые чертежи, из которых:
Фиг. 1a является блок-схемой устройства для обработки декодированного аудиосигнала в соответствии с вариантом осуществления;
Фиг. 1b является блок-схемой предпочтительного варианта осуществления для устройства для обработки декодированного аудиосигнала;
Фиг. 2a примерно иллюстрирует частотно-избирательную характеристику в качестве характеристики нижних частот;
Фиг. 2b иллюстрирует весовые коэффициенты и ассоциированные подполосы частот;
Фиг. 2c иллюстрирует каскад преобразователя время-спектр и следующего соединенного модуля взвешивания для применения весовых коэффициентов к каждому отдельному подполосному сигналу;
Фиг. 3 иллюстрирует импульсную характеристику в частотной характеристике фильтра нижних частот в AMR-WB+, проиллюстрированном на фиг. 8;
Фиг. 4 иллюстрирует импульсную характеристику и частотную характеристику, преобразованные в QMF-область;
Фиг. 5 иллюстрирует весовые коэффициенты для модулей взвешивания для примера 32 QMF-подполос частот;
Фиг. 6 иллюстрирует частотную характеристику для 16 QMF-полос частот и ассоциированных 16 весовых коэффициентов;
Фиг. 7 иллюстрирует блок-схему модуля улучшения низкочастотного основного тона AMR-WB+;
Фиг. 8 иллюстрирует реализованную конфигурацию постобработки AMR-WB+;
Фиг. 9 иллюстрирует извлечение реализации по фиг. 8; и
Фиг. 10 иллюстрирует реализацию с низкой задержкой фильтра с долгосрочным предсказанием в соответствии с вариантом осуществления.
Фиг. 1a иллюстрирует устройство для обработки декодированного аудиосигнала на линии 100. Декодированный аудиосигнал на линии 100 вводится в фильтр 102 для фильтрации декодированного аудиосигнала, чтобы получать фильтрованный аудиосигнал на линии 104. Фильтр 102 соединяется с каскадом 106 преобразователя время-спектр, проиллюстрированным в качестве двух отдельных преобразователей 106a время-спектр для фильтрованного аудиосигнала и 106b для декодированного аудиосигнала на линии 100. Каскад преобразователя время-спектр выполнен с возможностью преобразования аудиосигнала и фильтрованного аудиосигнала в соответствующее спектральное представление, имеющее множество подполосных сигналов. Это указывается посредством сдвоенных линий на фиг. 1a, которые указывают то, что выходной сигнал блоков 106a, 106b содержит множество отдельных подполосных сигналов, а не один сигнал, как проиллюстрировано для ввода в блоки 106a, 106b.
Устройство для обработки дополнительно содержит модуль 108 взвешивания для выполнения частотно-избирательного взвешивания фильтрованного аудиосигнала, выводимого посредством блока 106a, посредством умножения отдельных подполосных сигналов на соответствующие весовые коэффициенты, чтобы получать взвешенный фильтрованный аудиосигнал на линии 110.
Кроме того, предоставляется модуль 112 вычитания. Модуль вычитания выполнен с возможностью выполнения вычитания по подполосам частот между взвешенным фильтрованным аудиосигналом и спектральным представлением аудиосигнала, сформированного посредством блока 106b.
Кроме того, предоставляется преобразователь 114 спектр-время. Преобразование спектр-время, выполняемое посредством блока 114, является таким, что результирующий аудиосигнал, сформированный посредством модуля 112 вычитания, или сигнал, извлекаемый из результирующего аудиосигнала, преобразуется в представление во временной области, чтобы получать обработанный декодированный аудиосигнал на линии 116.
Хотя фиг. 1a указывает то, что задержка посредством преобразования время-спектр и взвешивания значительно ниже задержки посредством FIR-фильтрации, это не требуется во всех случаях, поскольку в ситуациях, в которых QMF является совершенно обязательным, накопление задержек FIR-фильтрации и QMF исключается. Следовательно, настоящее изобретение также является полезным, когда задержка посредством взвешивания преобразования время-спектр даже выше задержки FIR-фильтра для постфильтрации нижних звуковых частот.
Фиг. 1b иллюстрирует предпочтительный вариант осуществления настоящего изобретения в контексте USAC-декодера или AMR-WB+-декодера. Устройство, проиллюстрированное на фиг. 1b, содержит каскад 120 ACELP-декодера, каскад 122 TCX-декодера и соединительную точку 124, в которой соединяются выходные сигналы декодеров 120, 122. Соединительная точка 124 начинает две отдельные ветви. Первая ветвь содержит фильтр 102, который предпочтительно конфигурируется в качестве фильтра с долгосрочным предсказанием, который задается посредством запаздывания T основного тона, после которого идет усилитель 129 адаптивного усиления α. Кроме того, первая ветвь содержит преобразователь 106a время-спектр, который предпочтительно реализуется в качестве гребенки анализирующих QMF-фильтров. Кроме того, первая ветвь содержит модуль 108 взвешивания, который выполнен с возможностью взвешивания подполосных сигналов, сформированных посредством гребенки 106a анализирующих QMF-фильтров.
Во второй ветви декодированный аудиосигнал преобразуется в спектральную область посредством гребенки 106b анализирующих QMF-фильтров.
Хотя отдельные QMF-блоки 106a, 106b проиллюстрированы в качестве двух отдельных элементов, следует отметить, что для анализа фильтрованного аудиосигнала и аудиосигнала не обязательно следует иметь две отдельные гребенки анализирующих QMF-фильтров. Вместо этого одна гребенка анализирующих QMF-фильтров и память могут быть достаточными, когда сигналы преобразуются один за другим. Тем не менее, для реализаций с очень низкой задержкой предпочтительно использовать отдельные гребенки анализирующих QMF-фильтров для каждого сигнала, так что один QMF-блок не является узким местом алгоритма.
Предпочтительно, преобразование в спектральную область и обратно во временную область выполняется посредством алгоритма, имеющего задержку для прямого и обратного преобразования, меньшую, чем задержка фильтрации во временной области с частотно-избирательной характеристикой. Следовательно, преобразования должны иметь полную задержку, меньшую задержки рассматриваемого фильтра. В частности, подходят преобразования низкого разрешения, к примеру преобразования на основе QMF, поскольку низкое частотное разрешение приводит к потребности в небольшом окне преобразования, т.е. к уменьшенной систематической задержке. Предпочтительные варианты применения требуют только преобразования низкого разрешения с разложением сигнала менее чем в 40 подполосах частот, к примеру в 32 или только в 16 подполосах частот. Тем не менее, даже в вариантах применения, в которых преобразование время-спектр и взвешивание вводит более высокую задержку, чем фильтр нижних частот, обеспечивается преимущество вследствие того факта, что накопление задержек для фильтра нижних частот и преобразования время-спектр, необходимых в любом случае для других процедур, исключается.
Тем не менее, для вариантов применения, которые в любом случае требуют частотно-временного преобразования вследствие других операций обработки, таких как повторная дискретизация, SBR или MPS, уменьшение задержки получается независимо от задержки, обусловленной посредством частотно-временного или временно-частотного преобразования, поскольку за счет "включения" реализации фильтра в спектральную область задержка фильтра временной области полностью экономится вследствие того факта, что взвешивание по подполосам частот выполняется вообще без систематической задержки.
Адаптивный усилитель 129 управляется посредством контроллера 130. Контроллер 130 выполнен с возможностью задания усиления α усилителя 129 равным нулю, когда входной сигнал является TCX-декодированным сигналом. Обычно в переключаемых аудиокодеках, таких как USAC или AMR-WB+, декодированный сигнал в соединительной точке 124 типично исходит либо из TCX-декодера 122, либо из ACELP-декодера 120. Следовательно, существует мультиплексирование во времени декодированных выходных сигналов двух декодеров 120, 122. Контроллер 130 выполнен с возможностью определения на текущий момент времени того, исходит выходной сигнал из TCX-декодированного сигнала или из ACELP-декодированного сигнала. Когда определяется то, что существует TCX-сигнал, то адаптивное усиление α задается равным нулю, так что первая ветвь, состоящая из элементов 102, 129, 106a, 108, вообще не имеет значимости. Это обусловлено тем фактом, что конкретный вид постфильтрации, используемой в AMR-WB+ или USAC, требуется только для ACELP-кодированного сигнала. Тем не менее, когда осуществляются другие реализации постфильтрации, отличные от фильтрации гармоник или улучшения основного тона, то переменное усиление α может задаваться по-разному в зависимости от потребностей.
Тем не менее, когда контроллер 130 определяет то, что текущий доступный сигнал является ACELP-декодированным сигналом, то значение усилителя 129 задается равным правильному значению для α, которое типично находится между 0 и 0,5. В этом случае первая ветвь является существенной, и выходной сигнал модуля 112 вычитания значительно отличается от первоначально декодированного аудиосигнала в соединительной точке 124.
Информация основного тона (запаздывание основного тона и альфа усиления), используемая в фильтре 120 и усилителе 128, может поступать из декодера и/или специализированного модуля отслеживания основного тона. Предпочтительно, информация поступает из декодера и затем повторно обрабатывается (уточняется) с помощью специализированного модуля отслеживания основного тона/анализ на основе долгосрочного предсказания декодированного сигнала.
Результирующий аудиосигнал, сформированный посредством модуля 112 вычитания, выполняющего вычитание в расчете на полосу частот или в расчете на подполосу частот, не сразу переводится обратно во временную область. Вместо этого сигнал перенаправляется в модуль 128 SBR-декодера. Модуль 128 соединяется с моностерео- или мономногоканальным декодером, таким как MPS-декодер 131, где MPS означает стандарт объемного звучания MPEG.
Типично, число полос частот повышается посредством декодера репликации полосы пропускания спектра, что указывается посредством трех дополнительных линий 132 на выходе блока 128.
Кроме того, число выходов дополнительно повышается посредством блока 131. Блок 131 формирует, из моносигнала на выходе блока 129, например, 5-канальный сигнал или любой другой сигнал, имеющий два или более каналов. В качестве примера, проиллюстрирован 5-канальный сценарий, который имеет левый канал L, правый канал R, центральный канал C, левый канал LS объемного звучания и правый канал RS объемного звучания. Следовательно, преобразователь 114 спектр-время предусмотрен для каждого из отдельных каналов, т.е. предусмотрен пять раз на фиг. 1b, чтобы преобразовывать каждый отдельный сигнал канала из спектральной области, которая представляет собой, в примере фиг. 1b, QMF-область, обратно во временную область на выходе блока 114. С другой стороны, необязательно существует множество отдельных преобразователей спектр-время. Также может быть один преобразователь спектр-время, который обрабатывает преобразования один за другим. Тем не менее, когда требуется реализация с очень низкой задержкой, предпочтительно использовать отдельный преобразователь спектр-время для каждого канала.
Настоящее изобретение обеспечивает преимущество в том, что задержка, введенная посредством постфильтра нижних звуковых частот и, в частности, посредством реализации FIR-фильтра нижних частот, уменьшается. Следовательно, любой вид частотно-избирательной фильтрации не вводит дополнительную задержку относительно задержки, требуемой для QMF или, вообще говоря, для частотно-временного преобразования.
Настоящее изобретение, в частности, является преимущественным, когда QMF или, в общем, частотно-временное преобразование требуется в любом случае, как, например, в случае фиг. 1b, в котором SBR-функциональность и MPS-функциональность в любом случае осуществляются в спектральной области. Альтернативная реализация, в которой требуется QMF, представляет собой случай, когда повторная дискретизация выполняется с декодированным сигналом и когда для повторной дискретизации требуются гребенка анализирующих QMF-фильтров и гребенка синтезирующих QMF-фильтров с различным числом каналов гребенки фильтров.
Кроме того, постоянное кадрирование между ACELP и TCX поддерживается вследствие того факта, что оба сигнала, т.е. TCX и ACELP, теперь имеют идентичную задержку.
Функциональные средства декодера 129 расширения полосы пропускания подробно описываются в разделе 6.5 ISO/IEC CD 23003-3. Функциональные средства многоканального декодера 131 подробно описываются, например, в разделе 6.11 ISO/IEC CD 23003-3. Функциональные средства, помимо TCX-декодера и ACELP-декодера, подробно описываются в подразделах 6.12-6.17 ISO/IEC CD 23003-3.
Далее поясняются фиг. 2a-2c для того, чтобы иллюстрировать схематичный пример. Фиг. 2a иллюстрирует частотно-избирательную частотную характеристику схематичного фильтра нижних частот.
Фиг. 2b иллюстрирует весовые индексы для номеров подполос частот или подполос частот, указываемых на фиг. 2a. В схематичном случае по фиг. 2a, подполосы 1-6 частот имеют весовые коэффициенты, равные 1, т.е. без взвешивания, и полосы 7-10 частот имеют снижающиеся весовые коэффициенты, а полосы 11-14 частот имеют нули.
Соответствующая реализация каскада из преобразователя время-спектр, к примеру, 106a и следующего соединенного модуля 108 взвешивания проиллюстрирована на фиг. 2c. Каждая подполоса частот 1, 2, ..., 14 вводится в отдельный взвешивающий блок, указываемый посредством W1, W2, ..., W14. Модуль 108 взвешивания применяет весовой коэффициент из таблицы по фиг. 2b к каждому отдельному подполосному сигналу посредством умножения каждой дискретизации подполосного сигнала на весовой коэффициент. Далее, на выходе модуля взвешивания предусмотрены взвешенные подполосные сигналы, которые затем вводятся в модуль 112 вычитания по фиг. 1a, который дополнительно выполняет вычитание в спектральной области.
Фиг. 3 иллюстрирует импульсную характеристику и частотную характеристику фильтра нижних частот на фиг. 8 AMR-WB+-кодера. Фильтр hLP(n) нижних частот во временной области задается в AMR-WB+ посредством следующих коэффициентов.
a[13]=[0,088250, 0,086410, 0,081074, 0,072768, 0,062294, 0,050623, 0,038774, 0,027692, 0,018130, 0,010578, 0,005221, 0,001946, 0,000385];
hLP(n)=a(13-n) для n от 1 до 12;
hLP(n)=a(n-12) для n от 13 до 25.
Импульсная характеристика и частотная характеристика, проиллюстрированные на фиг. 3, предназначены для случая, когда фильтр применяется к выборке сигналов временной области для 12,8 кГц. Сформированная задержка в таком случае представляет собой задержку в 12 выборок, т.е. 0,9375 мс.
Фильтр, проиллюстрированный на фиг. 3, имеет частотную характеристику в QMF-области, в которой каждый QMF имеет разрешение в 400 Гц. 32 QMF-полосы частот покрывают полосу частот выборки сигналов в 12,8 кГц. Частотная характеристика и QMF-область проиллюстрированы на фиг. 4.
Амплитудная частотная характеристика с разрешением в 400 Гц формирует весовые коэффициенты, используемые при применении фильтра нижних частот в QMF-области. Весовые коэффициенты для модуля 108 взвешивания для вышеуказанных примерных параметров приведены на фиг. 5.
Эти весовые коэффициенты могут вычисляться следующим образом:
W=abs(DFT(hLP(n), 64)), где DFT(x,N) означает дискретное преобразование Фурье длины N сигнала x. Если x меньше N, сигнал дополняется N-размером из x нулей. Длина N DFT в два раза превышает число QMF-подполос частот. Поскольку hLP(n) представляет собой сигнал вещественных коэффициентов, W показывает эрмитову симметрию и N/2 частотных коэффициентов между частотой 0 и частотой Найквиста.
Посредством анализа частотной характеристики коэффициентов фильтрации, он приблизительно соответствует частоте среза в 2*pi*10/256. Это используется для реализации фильтра. Коэффициенты затем квантованы для их записи в 14 битах для экономии части потребления ROM и с учетом реализации с фиксированной запятой.
Фильтрация в QMF-области далее выполняется следующим образом:
Y - постобработанный сигнал в QMF-области;
X - декодированный сигнал в сигнале QMF из базового кодера;
E - межгармонический шум, сформированный в TD для того, чтобы удалять из X;
Y(k)=X(k)-W(k).E(k), для k от 1 до 32.
Фиг. 6 иллюстрирует дополнительный пример, в котором QMF имеет разрешение в 800 Гц, так что 16 полос частот покрывают полную полосу пропускания сигнала, дискретизированного при 12,8 кГц. Коэффициенты W в таком случае являются такими, как указано на фиг. 6 под графиком. Фильтрация проводится аналогично тому, как пояснено относительно фиг. 6, но k имеет значения только от 1 до 16.
Частотная характеристика фильтра в 16-полосном QMF изображена так, как проиллюстрировано на фиг. 6.
Фиг. 10 иллюстрирует дополнительное улучшение фильтра с долгосрочным предсказанием, проиллюстрированного как 102 на фиг. 1b.
В частности, для реализации с низкой задержкой, член ŝk(n+T) в строках с третью по последнюю по фиг. 9 является проблематичным. Это обусловлено тем фактом, что T выборок находятся в будущем относительно фактического времени n. Следовательно, чтобы разрешать ситуации, в которых вследствие реализации с низкой задержкой будущие значения еще не доступны, ŝk(n+T) заменяется на ŝk, как указано на фиг. 10. Затем, фильтр с долгосрочным предсказанием аппроксимирует долгосрочное предсказание предшествующего уровня техники, но с меньшей или нулевой задержкой. Обнаружено то, что аппроксимация является достаточно хорошей и что усиление относительно уменьшенной задержки обеспечивает большие преимущества за счет небольших потерь в улучшении основного тона.
Хотя некоторые аспекты описаны в контексте устройства, очевидно, что эти аспекты также представляют описание соответствующего способа, при этом блок или устройство соответствует этапу способа либо признаку этапа способа. Аналогично, аспекты, описанные в контексте этапа способа, также представляют описание соответствующего блока, или элемента, или признака соответствующего устройства.
В зависимости от конкретных требований к реализации, варианты осуществления изобретения могут быть реализованы в аппаратных средствах или в программном обеспечении. Реализация может выполняться с использованием цифрового запоминающего носителя, например гибкого диска, DVD, CD, ROM, PROM, EPROM, EEPROM или флэш-памяти, имеющего сохраненные электронночитаемые управляющие сигналы, которые взаимодействуют (или допускают взаимодействие) с программируемой компьютерной системой, так что осуществляется соответствующий способ.
Некоторые варианты осуществления согласно изобретению содержат невременный носитель хранения данных, имеющий электронночитаемые управляющие сигналы, которые допускают взаимодействие с программируемой компьютерной системой таким образом, что осуществляется один из способов, описанных в данном документе.
В общем, варианты осуществления настоящего изобретения могут быть реализованы как компьютерный программный продукт с программным кодом, при этом программный код выполнен с возможностью осуществления одного из способов, когда компьютерный программный продукт работает на компьютере. Программный код, например, может быть сохранен на машиночитаемом носителе.
Другие варианты осуществления содержат компьютерную программу для осуществления одного из способов, описанных в данном документе, сохраненную на машиночитаемом носителе.
Другими словами, следовательно, вариант осуществления предлагаемого способа представляет собой компьютерную программу, имеющую программный код для осуществления одного из способов, описанных в данном документе, когда компьютерная программа работает на компьютере.
Следовательно, дополнительный вариант осуществления предлагаемых способов представляет собой носитель хранения данных (цифровой запоминающий носитель или машиночитаемый носитель), содержащий записанную компьютерную программу для осуществления одного из способов, описанных в данном документе.
Следовательно, дополнительный вариант осуществления предлагаемого способа представляет собой поток данных или последовательность сигналов, представляющих компьютерную программу для осуществления одного из способов, описанных в данном документе. Поток данных или последовательность сигналов, например, может быть выполнена с возможностью передачи через соединение для передачи данных, например через Интернет.
Дополнительный вариант осуществления содержит средство обработки, например компьютер или программируемое логическое устройство, выполненное с возможностью осуществлять один из способов, описанных в данном документе.
Дополнительный вариант осуществления содержит компьютер, имеющий установленную компьютерную программу для осуществления одного из способов, описанных в данном документе.
В некоторых вариантах осуществления, программируемое логическое устройство (например, программируемая пользователем вентильная матрица) может быть использовано для того, чтобы выполнять часть или все из функциональностей способов, описанных в данном документе. В некоторых вариантах осуществления, программируемая пользователем вентильная матрица может взаимодействовать с микропроцессором, чтобы осуществлять один из способов, описанных в данном документе. В общем, способы предпочтительно осуществляются посредством любого устройства.
Вышеописанные варианты осуществления являются просто иллюстративными в отношении принципов настоящего изобретения. Следует понимать, что модификации и изменения компоновок и подробностей, описанных в данном документе, должны быть очевидными для специалистов в данной области техники. Следовательно, они подразумеваются как ограниченные только посредством объема нижеприведенной формулы изобретения, а не посредством конкретных деталей, представленных посредством описания и пояснения вариантов осуществления в данном документе.
Claims (16)
1. Устройство для обработки декодированного аудиосигнала (100), содержащее:
- фильтр (102) для фильтрации декодированного аудиосигнала, чтобы получать фильтрованный аудиосигнал (104);
- каскад (106) преобразователя время-спектр для преобразования декодированного аудиосигнала и фильтрованного аудиосигнала в соответствующие спектральные представления, причем каждое спектральное представление имеет множество подполосных сигналов;
- модуль (108) взвешивания для выполнения частотно-избирательного взвешивания спектрального представления фильтрованного аудиосигнала посредством умножения подполосных сигналов на соответствующие весовые коэффициенты, чтобы получать взвешенный фильтрованный аудиосигнал;
- модуль (112) вычитания для выполнения вычитания по подполосам между взвешенным фильтрованным аудиосигналом и спектральным представлением аудиосигнала, чтобы получать результирующий аудиосигнал; и
- преобразователь (114) спектр-время для преобразования результирующего аудиосигнала или сигнала, извлекаемого из результирующего аудиосигнала, в представление во временной области, чтобы получать обработанный декодированный аудиосигнал (116).
- фильтр (102) для фильтрации декодированного аудиосигнала, чтобы получать фильтрованный аудиосигнал (104);
- каскад (106) преобразователя время-спектр для преобразования декодированного аудиосигнала и фильтрованного аудиосигнала в соответствующие спектральные представления, причем каждое спектральное представление имеет множество подполосных сигналов;
- модуль (108) взвешивания для выполнения частотно-избирательного взвешивания спектрального представления фильтрованного аудиосигнала посредством умножения подполосных сигналов на соответствующие весовые коэффициенты, чтобы получать взвешенный фильтрованный аудиосигнал;
- модуль (112) вычитания для выполнения вычитания по подполосам между взвешенным фильтрованным аудиосигналом и спектральным представлением аудиосигнала, чтобы получать результирующий аудиосигнал; и
- преобразователь (114) спектр-время для преобразования результирующего аудиосигнала или сигнала, извлекаемого из результирующего аудиосигнала, в представление во временной области, чтобы получать обработанный декодированный аудиосигнал (116).
2. Устройство по п. 1, дополнительно содержащее декодер (129) улучшения полосы пропускания или моно-стерео- или моно-многоканальный декодер (131), чтобы вычислять сигнал, извлекаемый из результирующего аудиосигнала,
причем преобразователь (114) спектр-время сконфигурирован для выполнения не преобразования результирующего аудиосигнала, а сигнала, извлекаемого из результирующего аудиосигнала, во временную область, так что вся обработка посредством декодера (129) улучшения полосы пропускания или моно-стерео- или моно-многоканального декодера (131) выполняется в той же спектральной области, которая задана посредством каскада (106) преобразователя время-спектр.
причем преобразователь (114) спектр-время сконфигурирован для выполнения не преобразования результирующего аудиосигнала, а сигнала, извлекаемого из результирующего аудиосигнала, во временную область, так что вся обработка посредством декодера (129) улучшения полосы пропускания или моно-стерео- или моно-многоканального декодера (131) выполняется в той же спектральной области, которая задана посредством каскада (106) преобразователя время-спектр.
3. Устройство по любому одному из пп. 1 или 2,
- в котором декодированный аудиосигнал является ACELP-декодированным выходным сигналом, и
- причем фильтр (102) является фильтром с долгосрочным предсказанием, управляемым посредством информации основного тона.
- в котором декодированный аудиосигнал является ACELP-декодированным выходным сигналом, и
- причем фильтр (102) является фильтром с долгосрочным предсказанием, управляемым посредством информации основного тона.
4. Устройство по любому одному из пп. 1 или 2,
- в котором модуль (108) взвешивания выполнен с возможностью взвешивания фильтрованного аудиосигнала таким образом, что подполосы более нижних частот ослабляются в меньшей степени или не ослабляются по сравнению с подполосами более верхних частот, так что частотно-избирательное взвешивание накладывает характеристику нижних частот на фильтрованный аудиосигнал.
- в котором модуль (108) взвешивания выполнен с возможностью взвешивания фильтрованного аудиосигнала таким образом, что подполосы более нижних частот ослабляются в меньшей степени или не ослабляются по сравнению с подполосами более верхних частот, так что частотно-избирательное взвешивание накладывает характеристику нижних частот на фильтрованный аудиосигнал.
5. Устройство по любому одному из пп. 1 или 2,
- в котором каскад (106) преобразователя время-спектр и преобразователь (114) спектр-время выполнены с возможностью реализовывать гребенку анализирующих QMF-фильтров и гребенку синтезирующих QMF-фильтров соответственно.
- в котором каскад (106) преобразователя время-спектр и преобразователь (114) спектр-время выполнены с возможностью реализовывать гребенку анализирующих QMF-фильтров и гребенку синтезирующих QMF-фильтров соответственно.
6. Устройство по любому одному из пп. 1 или 2,
- в котором модуль (112) вычитания выполнен с возможностью вычитания подполосного сигнала взвешенного фильтрованного аудиосигнала из соответствующего подполосного сигнала аудиосигнала, чтобы получать подполосу частот результирующего аудиосигнала, причем подполосы частот принадлежат тому же самому каналу гребенки фильтров.
- в котором модуль (112) вычитания выполнен с возможностью вычитания подполосного сигнала взвешенного фильтрованного аудиосигнала из соответствующего подполосного сигнала аудиосигнала, чтобы получать подполосу частот результирующего аудиосигнала, причем подполосы частот принадлежат тому же самому каналу гребенки фильтров.
7. Устройство по любому одному из пп. 1 или 2,
- в котором фильтр (102) выполнен с возможностью осуществлять комбинирование со взвешиванием аудиосигнала и, по меньшей мере, аудиосигнала, сдвинутого по времени на период основного тона.
- в котором фильтр (102) выполнен с возможностью осуществлять комбинирование со взвешиванием аудиосигнала и, по меньшей мере, аудиосигнала, сдвинутого по времени на период основного тона.
8. Устройство по п. 7,
- в котором фильтр (102) выполнен с возможностью выполнения комбинирования со взвешиванием посредством комбинирования только аудиосигнала и аудиосигнала, существующего в предыдущие моменты времени.
- в котором фильтр (102) выполнен с возможностью выполнения комбинирования со взвешиванием посредством комбинирования только аудиосигнала и аудиосигнала, существующего в предыдущие моменты времени.
9. Устройство по любому одному из пп. 1 или 2,
- в котором преобразователь (114) спектр-время имеет отличное число входных каналов относительно каскада (106) преобразователя время-спектр, так что получается преобразование частоты дискретизации, причем повышающая дискретизация получается, когда число входных каналов в преобразователь спектр-время выше числа выходных каналов каскада преобразователя время-спектр, и причем понижающая дискретизация выполняется, когда число входных каналов в преобразователь спектр-время меньше числа выходных каналов из каскада преобразователя время-спектр.
- в котором преобразователь (114) спектр-время имеет отличное число входных каналов относительно каскада (106) преобразователя время-спектр, так что получается преобразование частоты дискретизации, причем повышающая дискретизация получается, когда число входных каналов в преобразователь спектр-время выше числа выходных каналов каскада преобразователя время-спектр, и причем понижающая дискретизация выполняется, когда число входных каналов в преобразователь спектр-время меньше числа выходных каналов из каскада преобразователя время-спектр.
10. Устройство по п. 1, дополнительно содержащее:
- первый декодер (120) для предоставления декодированного аудиосигнала в первом временном отрезке;
- второй декодер (122) для предоставления дополнительного декодированного аудиосигнала в отличном втором временном отрезке;
- первую ветвь обработки, соединенную с первым декодером (120) и вторым декодером (122);
- вторую ветвь обработки, соединенную с первым декодером (120) и вторым декодером (122),
- причем вторая ветвь обработки содержит фильтр (102) и модуль (108) взвешивания и дополнительно содержит управляемый усилительный каскад (129) и контроллер (130), причем контроллер (130) выполнен с возможностью задания усиления усилительного каскада (129) равным первому значению для первого временного отрезка и второму значению, которое ниже первого значения, или нулю для второго временного отрезка.
- первый декодер (120) для предоставления декодированного аудиосигнала в первом временном отрезке;
- второй декодер (122) для предоставления дополнительного декодированного аудиосигнала в отличном втором временном отрезке;
- первую ветвь обработки, соединенную с первым декодером (120) и вторым декодером (122);
- вторую ветвь обработки, соединенную с первым декодером (120) и вторым декодером (122),
- причем вторая ветвь обработки содержит фильтр (102) и модуль (108) взвешивания и дополнительно содержит управляемый усилительный каскад (129) и контроллер (130), причем контроллер (130) выполнен с возможностью задания усиления усилительного каскада (129) равным первому значению для первого временного отрезка и второму значению, которое ниже первого значения, или нулю для второго временного отрезка.
11. Устройство по п. 1, дополнительно содержащее модуль отслеживания основного тона для предоставления запаздывания основного тона и для задания фильтра (102) на основе запаздывания основного тона в качестве информации основного тона.
12. Устройство по любому одному из пп. 10 или 11, в котором первый декодер (120) выполнен с возможностью предоставления информации основного тона или части информации основного тона для задания фильтра (102).
13. Устройство по любому одному из пп. 10 или 11, в котором выход первой ветви обработки и выход второй ветви обработки соединяются с входами модуля (112) вычитания.
14. Устройство по любому одному из пп. 1 или 2, в котором декодированный аудиосигнал предоставляется посредством ACELP-декодера (120), включенного в устройство, и
- причем устройство дополнительно содержит дополнительный декодер (122), реализованный в качестве TCX-декодера.
- причем устройство дополнительно содержит дополнительный декодер (122), реализованный в качестве TCX-декодера.
15. Способ обработки декодированного аудиосигнала (100), содержащий этапы, на которых:
- фильтруют (102) декодированный аудиосигнал, чтобы получать фильтрованный аудиосигнал (104);
- преобразуют (106) декодированный аудиосигнал и фильтрованный аудиосигнал в соответствующие спектральные представления, причем каждое спектральное представление имеет множество подполосных сигналов;
- выполняют (108) частотно-избирательное взвешивание фильтрованного аудиосигнала посредством умножения подполосных сигналов на соответствующие весовые коэффициенты, чтобы получать взвешенный фильтрованный аудиосигнал;
- выполняют (112) вычитание по подполосам между взвешенным фильтрованным аудиосигналом и спектральным представлением аудиосигнала, чтобы получать результирующий аудиосигнал; и
- преобразуют (114) результирующий аудиосигнал или сигнал, извлекаемый из результирующего аудиосигнала, в представление во временной области, чтобы получать обработанный декодированный аудиосигнал (116).
- фильтруют (102) декодированный аудиосигнал, чтобы получать фильтрованный аудиосигнал (104);
- преобразуют (106) декодированный аудиосигнал и фильтрованный аудиосигнал в соответствующие спектральные представления, причем каждое спектральное представление имеет множество подполосных сигналов;
- выполняют (108) частотно-избирательное взвешивание фильтрованного аудиосигнала посредством умножения подполосных сигналов на соответствующие весовые коэффициенты, чтобы получать взвешенный фильтрованный аудиосигнал;
- выполняют (112) вычитание по подполосам между взвешенным фильтрованным аудиосигналом и спектральным представлением аудиосигнала, чтобы получать результирующий аудиосигнал; и
- преобразуют (114) результирующий аудиосигнал или сигнал, извлекаемый из результирующего аудиосигнала, в представление во временной области, чтобы получать обработанный декодированный аудиосигнал (116).
16. Считываемый компьютером носитель, содержащий программный код для осуществления, при выполнении на компьютере, способа обработки декодированного аудиосигнала по п. 15.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201161442632P | 2011-02-14 | 2011-02-14 | |
US61/442,632 | 2011-02-14 | ||
PCT/EP2012/052292 WO2012110415A1 (en) | 2011-02-14 | 2012-02-10 | Apparatus and method for processing a decoded audio signal in a spectral domain |
Publications (2)
Publication Number | Publication Date |
---|---|
RU2013142138A RU2013142138A (ru) | 2015-03-27 |
RU2560788C2 true RU2560788C2 (ru) | 2015-08-20 |
Family
ID=71943604
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2013142138/08A RU2560788C2 (ru) | 2011-02-14 | 2012-02-10 | Устройство и способ для обработки декодированного аудиосигнала в спектральной области |
Country Status (19)
Country | Link |
---|---|
US (1) | US9583110B2 (ru) |
EP (1) | EP2676268B1 (ru) |
JP (1) | JP5666021B2 (ru) |
KR (1) | KR101699898B1 (ru) |
CN (1) | CN103503061B (ru) |
AR (1) | AR085362A1 (ru) |
AU (1) | AU2012217269B2 (ru) |
BR (1) | BR112013020482B1 (ru) |
CA (1) | CA2827249C (ru) |
ES (1) | ES2529025T3 (ru) |
HK (1) | HK1192048A1 (ru) |
MX (1) | MX2013009344A (ru) |
MY (1) | MY164797A (ru) |
PL (1) | PL2676268T3 (ru) |
RU (1) | RU2560788C2 (ru) |
SG (1) | SG192746A1 (ru) |
TW (1) | TWI469136B (ru) |
WO (1) | WO2012110415A1 (ru) |
ZA (1) | ZA201306838B (ru) |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2827000C (en) | 2011-02-14 | 2016-04-05 | Jeremie Lecomte | Apparatus and method for error concealment in low-delay unified speech and audio coding (usac) |
SG185519A1 (en) | 2011-02-14 | 2012-12-28 | Fraunhofer Ges Forschung | Information signal representation using lapped transform |
MX2013009304A (es) | 2011-02-14 | 2013-10-03 | Fraunhofer Ges Forschung | Aparato y metodo para codificar una porcion de una señal de audio utilizando deteccion de un transiente y resultado de calidad. |
TWI488177B (zh) | 2011-02-14 | 2015-06-11 | Fraunhofer Ges Forschung | 使用頻譜域雜訊整形之基於線性預測的編碼方案 |
ES2529025T3 (es) * | 2011-02-14 | 2015-02-16 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Aparato y método para procesar una señal de audio decodificada en un dominio espectral |
ES2639646T3 (es) | 2011-02-14 | 2017-10-27 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Codificación y decodificación de posiciones de impulso de pistas de una señal de audio |
EP2720222A1 (en) * | 2012-10-10 | 2014-04-16 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for efficient synthesis of sinusoids and sweeps by employing spectral patterns |
EP4220636A1 (en) * | 2012-11-05 | 2023-08-02 | Panasonic Intellectual Property Corporation of America | Speech audio encoding device and speech audio encoding method |
PT2936484T (pt) * | 2013-01-29 | 2018-03-29 | Fraunhofer Ges Forschung | Aparelho e método para processar um sinal codificado e codificador e método para gerar um sinal codificado |
US10043528B2 (en) | 2013-04-05 | 2018-08-07 | Dolby International Ab | Audio encoder and decoder |
WO2014187987A1 (en) * | 2013-05-24 | 2014-11-27 | Dolby International Ab | Methods for audio encoding and decoding, corresponding computer-readable media and corresponding audio encoder and decoder |
RU2665281C2 (ru) * | 2013-09-12 | 2018-08-28 | Долби Интернэшнл Аб | Временное согласование данных обработки на основе квадратурного зеркального фильтра |
KR102244613B1 (ko) * | 2013-10-28 | 2021-04-26 | 삼성전자주식회사 | Qmf 필터링 방법 및 이를 수행하는 장치 |
EP2887350B1 (en) | 2013-12-19 | 2016-10-05 | Dolby Laboratories Licensing Corporation | Adaptive quantization noise filtering of decoded audio data |
JP6035270B2 (ja) * | 2014-03-24 | 2016-11-30 | 株式会社Nttドコモ | 音声復号装置、音声符号化装置、音声復号方法、音声符号化方法、音声復号プログラム、および音声符号化プログラム |
EP2980799A1 (en) * | 2014-07-28 | 2016-02-03 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for processing an audio signal using a harmonic post-filter |
TW202242853A (zh) | 2015-03-13 | 2022-11-01 | 瑞典商杜比國際公司 | 解碼具有增強頻譜帶複製元資料在至少一填充元素中的音訊位元流 |
EP3079151A1 (en) * | 2015-04-09 | 2016-10-12 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Audio encoder and method for encoding an audio signal |
CN106157966B (zh) * | 2015-04-15 | 2019-08-13 | 宏碁股份有限公司 | 语音信号处理装置及语音信号处理方法 |
CN106297814B (zh) * | 2015-06-02 | 2019-08-06 | 宏碁股份有限公司 | 语音信号处理装置及语音信号处理方法 |
US9613628B2 (en) | 2015-07-01 | 2017-04-04 | Gopro, Inc. | Audio decoder for wind and microphone noise reduction in a microphone array system |
CN117238300A (zh) * | 2016-01-22 | 2023-12-15 | 弗劳恩霍夫应用研究促进协会 | 使用帧控制同步来编码或解码多声道音频信号的装置和方法 |
CN110062945B (zh) * | 2016-12-02 | 2023-05-23 | 迪拉克研究公司 | 音频输入信号的处理 |
EP3382704A1 (en) * | 2017-03-31 | 2018-10-03 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for determining a predetermined characteristic related to a spectral enhancement processing of an audio signal |
WO2019107041A1 (ja) * | 2017-12-01 | 2019-06-06 | 日本電信電話株式会社 | ピッチ強調装置、その方法、およびプログラム |
EP3671741A1 (en) * | 2018-12-21 | 2020-06-24 | FRAUNHOFER-GESELLSCHAFT zur Förderung der angewandten Forschung e.V. | Audio processor and method for generating a frequency-enhanced audio signal using pulse processing |
CN114280571B (zh) * | 2022-03-04 | 2022-07-19 | 北京海兰信数据科技股份有限公司 | 一种雨杂波信号的处理方法、装置及设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EA001087B1 (ru) * | 1995-12-01 | 2000-10-30 | Диджитал Театр Системз, Инк. | Многоканальный прогнозирующий кодировщик поддиапазона, использующий психоакустическое адаптивное распределение бит |
RU2355046C2 (ru) * | 2004-09-08 | 2009-05-10 | Фраунхофер-Гезелльшафт Цур Фердерунг Дер Ангевандтен Форшунг Е.Ф. | Устройство и способ для формирования многоканального сигнала или набора параметрических данных |
RU2374703C2 (ru) * | 2003-10-30 | 2009-11-27 | Конинклейке Филипс Электроникс Н.В. | Кодирование или декодирование аудиосигнала |
Family Cites Families (224)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10007A (en) * | 1853-09-13 | Gear op variable cut-ofp valves for steau-ehgietes | ||
BR9206143A (pt) | 1991-06-11 | 1995-01-03 | Qualcomm Inc | Processos de compressão de final vocal e para codificação de taxa variável de quadros de entrada, aparelho para comprimir im sinal acústico em dados de taxa variável, codificador de prognóstico exitado por córdigo de taxa variável (CELP) e descodificador para descodificar quadros codificados |
US5408580A (en) | 1992-09-21 | 1995-04-18 | Aware, Inc. | Audio compression system employing multi-rate signal analysis |
SE501340C2 (sv) | 1993-06-11 | 1995-01-23 | Ericsson Telefon Ab L M | Döljande av transmissionsfel i en talavkodare |
BE1007617A3 (nl) | 1993-10-11 | 1995-08-22 | Philips Electronics Nv | Transmissiesysteem met gebruik van verschillende codeerprincipes. |
US5657422A (en) | 1994-01-28 | 1997-08-12 | Lucent Technologies Inc. | Voice activity detection driven noise remediator |
US5784532A (en) | 1994-02-16 | 1998-07-21 | Qualcomm Incorporated | Application specific integrated circuit (ASIC) for performing rapid speech compression in a mobile telephone system |
US5684920A (en) | 1994-03-17 | 1997-11-04 | Nippon Telegraph And Telephone | Acoustic signal transform coding method and decoding method having a high efficiency envelope flattening method therein |
US5568588A (en) | 1994-04-29 | 1996-10-22 | Audiocodes Ltd. | Multi-pulse analysis speech processing System and method |
CN1090409C (zh) | 1994-10-06 | 2002-09-04 | 皇家菲利浦电子有限公司 | 采用不同编码原理的传送系统 |
US5537510A (en) | 1994-12-30 | 1996-07-16 | Daewoo Electronics Co., Ltd. | Adaptive digital audio encoding apparatus and a bit allocation method thereof |
SE506379C3 (sv) | 1995-03-22 | 1998-01-19 | Ericsson Telefon Ab L M | Lpc-talkodare med kombinerad excitation |
US5727119A (en) | 1995-03-27 | 1998-03-10 | Dolby Laboratories Licensing Corporation | Method and apparatus for efficient implementation of single-sideband filter banks providing accurate measures of spectral magnitude and phase |
JP3317470B2 (ja) | 1995-03-28 | 2002-08-26 | 日本電信電話株式会社 | 音響信号符号化方法、音響信号復号化方法 |
US5659622A (en) | 1995-11-13 | 1997-08-19 | Motorola, Inc. | Method and apparatus for suppressing noise in a communication system |
US5890106A (en) | 1996-03-19 | 1999-03-30 | Dolby Laboratories Licensing Corporation | Analysis-/synthesis-filtering system with efficient oddly-stacked singleband filter bank using time-domain aliasing cancellation |
US5848391A (en) | 1996-07-11 | 1998-12-08 | Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V. | Method subband of coding and decoding audio signals using variable length windows |
JP3259759B2 (ja) | 1996-07-22 | 2002-02-25 | 日本電気株式会社 | 音声信号伝送方法及び音声符号復号化システム |
JPH10124092A (ja) | 1996-10-23 | 1998-05-15 | Sony Corp | 音声符号化方法及び装置、並びに可聴信号符号化方法及び装置 |
US5960389A (en) | 1996-11-15 | 1999-09-28 | Nokia Mobile Phones Limited | Methods for generating comfort noise during discontinuous transmission |
JPH10214100A (ja) | 1997-01-31 | 1998-08-11 | Sony Corp | 音声合成方法 |
US6134518A (en) | 1997-03-04 | 2000-10-17 | International Business Machines Corporation | Digital audio signal coding using a CELP coder and a transform coder |
SE512719C2 (sv) | 1997-06-10 | 2000-05-02 | Lars Gustaf Liljeryd | En metod och anordning för reduktion av dataflöde baserad på harmonisk bandbreddsexpansion |
JP3223966B2 (ja) | 1997-07-25 | 2001-10-29 | 日本電気株式会社 | 音声符号化/復号化装置 |
US6070137A (en) | 1998-01-07 | 2000-05-30 | Ericsson Inc. | Integrated frequency-domain voice coding using an adaptive spectral enhancement filter |
DE69926821T2 (de) | 1998-01-22 | 2007-12-06 | Deutsche Telekom Ag | Verfahren zur signalgesteuerten Schaltung zwischen verschiedenen Audiokodierungssystemen |
GB9811019D0 (en) * | 1998-05-21 | 1998-07-22 | Univ Surrey | Speech coders |
US6173257B1 (en) | 1998-08-24 | 2001-01-09 | Conexant Systems, Inc | Completed fixed codebook for speech encoder |
US6439967B2 (en) | 1998-09-01 | 2002-08-27 | Micron Technology, Inc. | Microelectronic substrate assembly planarizing machines and methods of mechanical and chemical-mechanical planarization of microelectronic substrate assemblies |
SE521225C2 (sv) | 1998-09-16 | 2003-10-14 | Ericsson Telefon Ab L M | Förfarande och anordning för CELP-kodning/avkodning |
US6317117B1 (en) | 1998-09-23 | 2001-11-13 | Eugene Goff | User interface for the control of an audio spectrum filter processor |
US7272556B1 (en) | 1998-09-23 | 2007-09-18 | Lucent Technologies Inc. | Scalable and embedded codec for speech and audio signals |
US7124079B1 (en) | 1998-11-23 | 2006-10-17 | Telefonaktiebolaget Lm Ericsson (Publ) | Speech coding with comfort noise variability feature for increased fidelity |
FI114833B (fi) | 1999-01-08 | 2004-12-31 | Nokia Corp | Menetelmä, puhekooderi ja matkaviestin puheenkoodauskehysten muodostamiseksi |
DE19921122C1 (de) | 1999-05-07 | 2001-01-25 | Fraunhofer Ges Forschung | Verfahren und Vorrichtung zum Verschleiern eines Fehlers in einem codierten Audiosignal und Verfahren und Vorrichtung zum Decodieren eines codierten Audiosignals |
WO2000075919A1 (en) | 1999-06-07 | 2000-12-14 | Ericsson, Inc. | Methods and apparatus for generating comfort noise using parametric noise model statistics |
JP4464484B2 (ja) | 1999-06-15 | 2010-05-19 | パナソニック株式会社 | 雑音信号符号化装置および音声信号符号化装置 |
US6236960B1 (en) | 1999-08-06 | 2001-05-22 | Motorola, Inc. | Factorial packing method and apparatus for information coding |
US6636829B1 (en) | 1999-09-22 | 2003-10-21 | Mindspeed Technologies, Inc. | Speech communication system and method for handling lost frames |
ATE341074T1 (de) | 2000-02-29 | 2006-10-15 | Qualcomm Inc | Multimodaler mischbereich-sprachkodierer mit geschlossener regelschleife |
US6757654B1 (en) | 2000-05-11 | 2004-06-29 | Telefonaktiebolaget Lm Ericsson | Forward error correction in speech coding |
JP2002118517A (ja) | 2000-07-31 | 2002-04-19 | Sony Corp | 直交変換装置及び方法、逆直交変換装置及び方法、変換符号化装置及び方法、並びに復号装置及び方法 |
FR2813722B1 (fr) | 2000-09-05 | 2003-01-24 | France Telecom | Procede et dispositif de dissimulation d'erreurs et systeme de transmission comportant un tel dispositif |
US6847929B2 (en) | 2000-10-12 | 2005-01-25 | Texas Instruments Incorporated | Algebraic codebook system and method |
CA2327041A1 (en) | 2000-11-22 | 2002-05-22 | Voiceage Corporation | A method for indexing pulse positions and signs in algebraic codebooks for efficient coding of wideband signals |
US6636830B1 (en) | 2000-11-22 | 2003-10-21 | Vialta Inc. | System and method for noise reduction using bi-orthogonal modified discrete cosine transform |
US20050130321A1 (en) | 2001-04-23 | 2005-06-16 | Nicholson Jeremy K. | Methods for analysis of spectral data and their applications |
US7136418B2 (en) | 2001-05-03 | 2006-11-14 | University Of Washington | Scalable and perceptually ranked signal coding and decoding |
KR100464369B1 (ko) | 2001-05-23 | 2005-01-03 | 삼성전자주식회사 | 음성 부호화 시스템의 여기 코드북 탐색 방법 |
US20020184009A1 (en) | 2001-05-31 | 2002-12-05 | Heikkinen Ari P. | Method and apparatus for improved voicing determination in speech signals containing high levels of jitter |
US20030120484A1 (en) | 2001-06-12 | 2003-06-26 | David Wong | Method and system for generating colored comfort noise in the absence of silence insertion description packets |
DE10129240A1 (de) | 2001-06-18 | 2003-01-02 | Fraunhofer Ges Forschung | Verfahren und Vorrichtung zum Verarbeiten von zeitdiskreten Audio-Abtastwerten |
US6879955B2 (en) | 2001-06-29 | 2005-04-12 | Microsoft Corporation | Signal modification based on continuous time warping for low bit rate CELP coding |
US6941263B2 (en) * | 2001-06-29 | 2005-09-06 | Microsoft Corporation | Frequency domain postfiltering for quality enhancement of coded speech |
DE10140507A1 (de) | 2001-08-17 | 2003-02-27 | Philips Corp Intellectual Pty | Verfahren für die algebraische Codebook-Suche eines Sprachsignalkodierers |
US7711563B2 (en) | 2001-08-17 | 2010-05-04 | Broadcom Corporation | Method and system for frame erasure concealment for predictive speech coding based on extrapolation of speech waveform |
KR100438175B1 (ko) | 2001-10-23 | 2004-07-01 | 엘지전자 주식회사 | 코드북 검색방법 |
US6934677B2 (en) | 2001-12-14 | 2005-08-23 | Microsoft Corporation | Quantization matrices based on critical band pattern information for digital audio wherein quantization bands differ from critical bands |
US7240001B2 (en) | 2001-12-14 | 2007-07-03 | Microsoft Corporation | Quality improvement techniques in an audio encoder |
CA2365203A1 (en) | 2001-12-14 | 2003-06-14 | Voiceage Corporation | A signal modification method for efficient coding of speech signals |
DE10200653B4 (de) | 2002-01-10 | 2004-05-27 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Skalierbarer Codierer, Verfahren zum Codieren, Decodierer und Verfahren zum Decodieren für einen skalierten Datenstrom |
CA2388439A1 (en) | 2002-05-31 | 2003-11-30 | Voiceage Corporation | A method and device for efficient frame erasure concealment in linear predictive based speech codecs |
CA2388358A1 (en) | 2002-05-31 | 2003-11-30 | Voiceage Corporation | A method and device for multi-rate lattice vector quantization |
CA2388352A1 (en) * | 2002-05-31 | 2003-11-30 | Voiceage Corporation | A method and device for frequency-selective pitch enhancement of synthesized speed |
US7302387B2 (en) | 2002-06-04 | 2007-11-27 | Texas Instruments Incorporated | Modification of fixed codebook search in G.729 Annex E audio coding |
US20040010329A1 (en) | 2002-07-09 | 2004-01-15 | Silicon Integrated Systems Corp. | Method for reducing buffer requirements in a digital audio decoder |
DE10236694A1 (de) | 2002-08-09 | 2004-02-26 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zum skalierbaren Codieren und Vorrichtung und Verfahren zum skalierbaren Decodieren |
US7502743B2 (en) | 2002-09-04 | 2009-03-10 | Microsoft Corporation | Multi-channel audio encoding and decoding with multi-channel transform selection |
US7299190B2 (en) | 2002-09-04 | 2007-11-20 | Microsoft Corporation | Quantization and inverse quantization for audio |
CA2469674C (en) | 2002-09-19 | 2012-04-24 | Matsushita Electric Industrial Co., Ltd. | Audio decoding apparatus and method |
WO2004034379A2 (en) | 2002-10-11 | 2004-04-22 | Nokia Corporation | Methods and devices for source controlled variable bit-rate wideband speech coding |
US7343283B2 (en) | 2002-10-23 | 2008-03-11 | Motorola, Inc. | Method and apparatus for coding a noise-suppressed audio signal |
US7363218B2 (en) | 2002-10-25 | 2008-04-22 | Dilithium Networks Pty. Ltd. | Method and apparatus for fast CELP parameter mapping |
KR100463419B1 (ko) | 2002-11-11 | 2004-12-23 | 한국전자통신연구원 | 적은 복잡도를 가진 고정 코드북 검색방법 및 장치 |
KR100463559B1 (ko) | 2002-11-11 | 2004-12-29 | 한국전자통신연구원 | 대수 코드북을 이용하는 켈프 보코더의 코드북 검색방법 |
KR100465316B1 (ko) | 2002-11-18 | 2005-01-13 | 한국전자통신연구원 | 음성 부호화기 및 이를 이용한 음성 부호화 방법 |
KR20040058855A (ko) | 2002-12-27 | 2004-07-05 | 엘지전자 주식회사 | 음성 변조 장치 및 방법 |
AU2003208517A1 (en) | 2003-03-11 | 2004-09-30 | Nokia Corporation | Switching between coding schemes |
US7249014B2 (en) | 2003-03-13 | 2007-07-24 | Intel Corporation | Apparatus, methods and articles incorporating a fast algebraic codebook search technique |
US20050021338A1 (en) | 2003-03-17 | 2005-01-27 | Dan Graboi | Recognition device and system |
KR100556831B1 (ko) | 2003-03-25 | 2006-03-10 | 한국전자통신연구원 | 전역 펄스 교체를 통한 고정 코드북 검색 방법 |
WO2004090870A1 (ja) | 2003-04-04 | 2004-10-21 | Kabushiki Kaisha Toshiba | 広帯域音声を符号化または復号化するための方法及び装置 |
US7318035B2 (en) | 2003-05-08 | 2008-01-08 | Dolby Laboratories Licensing Corporation | Audio coding systems and methods using spectral component coupling and spectral component regeneration |
DE10321983A1 (de) | 2003-05-15 | 2004-12-09 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zum Einbetten einer binären Nutzinformation in ein Trägersignal |
ATE486348T1 (de) | 2003-06-30 | 2010-11-15 | Koninkl Philips Electronics Nv | Verbesserung der qualität von dekodierten audio mittels hinzufügen von geräusch |
DE10331803A1 (de) | 2003-07-14 | 2005-02-17 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zum Umsetzen in eine transformierte Darstellung oder zum inversen Umsetzen der transformierten Darstellung |
US6987591B2 (en) | 2003-07-17 | 2006-01-17 | Her Majesty The Queen In Right Of Canada, As Represented By The Minister Of Industry Through The Communications Research Centre Canada | Volume hologram |
DE10345995B4 (de) | 2003-10-02 | 2005-07-07 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zum Verarbeiten eines Signals mit einer Sequenz von diskreten Werten |
DE10345996A1 (de) | 2003-10-02 | 2005-04-28 | Fraunhofer Ges Forschung | Vorrichtung und Verfahren zum Verarbeiten von wenigstens zwei Eingangswerten |
US7418396B2 (en) | 2003-10-14 | 2008-08-26 | Broadcom Corporation | Reduced memory implementation technique of filterbank and block switching for real-time audio applications |
US20050091041A1 (en) | 2003-10-23 | 2005-04-28 | Nokia Corporation | Method and system for speech coding |
US20050091044A1 (en) | 2003-10-23 | 2005-04-28 | Nokia Corporation | Method and system for pitch contour quantization in audio coding |
EP1711938A1 (en) | 2004-01-28 | 2006-10-18 | Koninklijke Philips Electronics N.V. | Audio signal decoding using complex-valued data |
EP2770694A1 (en) | 2004-02-12 | 2014-08-27 | Core Wireless Licensing S.a.r.l. | Classified media quality of experience |
DE102004007200B3 (de) | 2004-02-13 | 2005-08-11 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Audiocodierung |
CA2457988A1 (en) | 2004-02-18 | 2005-08-18 | Voiceage Corporation | Methods and devices for audio compression based on acelp/tcx coding and multi-rate lattice vector quantization |
FI118834B (fi) | 2004-02-23 | 2008-03-31 | Nokia Corp | Audiosignaalien luokittelu |
FI118835B (fi) | 2004-02-23 | 2008-03-31 | Nokia Corp | Koodausmallin valinta |
WO2005086138A1 (ja) | 2004-03-05 | 2005-09-15 | Matsushita Electric Industrial Co., Ltd. | エラー隠蔽装置およびエラー隠蔽方法 |
WO2005096274A1 (fr) | 2004-04-01 | 2005-10-13 | Beijing Media Works Co., Ltd | Dispositif et procede de codage/decodage audio ameliores |
GB0408856D0 (en) | 2004-04-21 | 2004-05-26 | Nokia Corp | Signal encoding |
EP1747554B1 (en) | 2004-05-17 | 2010-02-10 | Nokia Corporation | Audio encoding with different coding frame lengths |
JP4168976B2 (ja) | 2004-05-28 | 2008-10-22 | ソニー株式会社 | オーディオ信号符号化装置及び方法 |
US7649988B2 (en) | 2004-06-15 | 2010-01-19 | Acoustic Technologies, Inc. | Comfort noise generator using modified Doblinger noise estimate |
US8160274B2 (en) | 2006-02-07 | 2012-04-17 | Bongiovi Acoustics Llc. | System and method for digital signal processing |
US7630902B2 (en) | 2004-09-17 | 2009-12-08 | Digital Rise Technology Co., Ltd. | Apparatus and methods for digital audio coding using codebook application ranges |
KR100656788B1 (ko) | 2004-11-26 | 2006-12-12 | 한국전자통신연구원 | 비트율 신축성을 갖는 코드벡터 생성 방법 및 그를 이용한 광대역 보코더 |
TWI253057B (en) | 2004-12-27 | 2006-04-11 | Quanta Comp Inc | Search system and method thereof for searching code-vector of speech signal in speech encoder |
JP5420175B2 (ja) | 2005-01-31 | 2014-02-19 | スカイプ | 通信システムにおける隠蔽フレームの生成方法 |
US7519535B2 (en) | 2005-01-31 | 2009-04-14 | Qualcomm Incorporated | Frame erasure concealment in voice communications |
CN100593197C (zh) | 2005-02-02 | 2010-03-03 | 富士通株式会社 | 信号处理方法和装置 |
US20070147518A1 (en) | 2005-02-18 | 2007-06-28 | Bruno Bessette | Methods and devices for low-frequency emphasis during audio compression based on ACELP/TCX |
US8155965B2 (en) | 2005-03-11 | 2012-04-10 | Qualcomm Incorporated | Time warping frames inside the vocoder by modifying the residual |
AU2006232361B2 (en) | 2005-04-01 | 2010-12-23 | Qualcomm Incorporated | Methods and apparatus for encoding and decoding an highband portion of a speech signal |
WO2006126843A2 (en) * | 2005-05-26 | 2006-11-30 | Lg Electronics Inc. | Method and apparatus for decoding audio signal |
US7707034B2 (en) * | 2005-05-31 | 2010-04-27 | Microsoft Corporation | Audio codec post-filter |
RU2296377C2 (ru) | 2005-06-14 | 2007-03-27 | Михаил Николаевич Гусев | Способ анализа и синтеза речи |
JP2008546341A (ja) | 2005-06-18 | 2008-12-18 | ノキア コーポレイション | 非連続音声送信の際の擬似背景ノイズパラメータ適応送信のためのシステム及び方法 |
FR2888699A1 (fr) | 2005-07-13 | 2007-01-19 | France Telecom | Dispositif de codage/decodage hierachique |
KR100851970B1 (ko) | 2005-07-15 | 2008-08-12 | 삼성전자주식회사 | 오디오 신호의 중요주파수 성분 추출방법 및 장치와 이를이용한 저비트율 오디오 신호 부호화/복호화 방법 및 장치 |
US7610197B2 (en) | 2005-08-31 | 2009-10-27 | Motorola, Inc. | Method and apparatus for comfort noise generation in speech communication systems |
RU2312405C2 (ru) | 2005-09-13 | 2007-12-10 | Михаил Николаевич Гусев | Способ осуществления машинной оценки качества звуковых сигналов |
US20070174047A1 (en) | 2005-10-18 | 2007-07-26 | Anderson Kyle D | Method and apparatus for resynchronizing packetized audio streams |
US7720677B2 (en) | 2005-11-03 | 2010-05-18 | Coding Technologies Ab | Time warped modified transform coding of audio signals |
US7536299B2 (en) | 2005-12-19 | 2009-05-19 | Dolby Laboratories Licensing Corporation | Correlating and decorrelating transforms for multiple description coding systems |
US8255207B2 (en) | 2005-12-28 | 2012-08-28 | Voiceage Corporation | Method and device for efficient frame erasure concealment in speech codecs |
WO2007080211A1 (en) * | 2006-01-09 | 2007-07-19 | Nokia Corporation | Decoding of binaural audio signals |
CN101371295B (zh) | 2006-01-18 | 2011-12-21 | Lg电子株式会社 | 用于编码和解码信号的设备和方法 |
WO2007083931A1 (en) | 2006-01-18 | 2007-07-26 | Lg Electronics Inc. | Apparatus and method for encoding and decoding signal |
US8032369B2 (en) | 2006-01-20 | 2011-10-04 | Qualcomm Incorporated | Arbitrary average data rates for variable rate coders |
FR2897733A1 (fr) | 2006-02-20 | 2007-08-24 | France Telecom | Procede de discrimination et d'attenuation fiabilisees des echos d'un signal numerique dans un decodeur et dispositif correspondant |
FR2897977A1 (fr) | 2006-02-28 | 2007-08-31 | France Telecom | Procede de limitation de gain d'excitation adaptative dans un decodeur audio |
US20070253577A1 (en) | 2006-05-01 | 2007-11-01 | Himax Technologies Limited | Equalizer bank with interference reduction |
EP1852848A1 (en) | 2006-05-05 | 2007-11-07 | Deutsche Thomson-Brandt GmbH | Method and apparatus for lossless encoding of a source signal using a lossy encoded data stream and a lossless extension data stream |
US7873511B2 (en) | 2006-06-30 | 2011-01-18 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Audio encoder, audio decoder and audio processor having a dynamically variable warping characteristic |
JP4810335B2 (ja) | 2006-07-06 | 2011-11-09 | 株式会社東芝 | 広帯域オーディオ信号符号化装置および広帯域オーディオ信号復号装置 |
WO2008007700A1 (fr) | 2006-07-12 | 2008-01-17 | Panasonic Corporation | Dispositif de décodage de son, dispositif de codage de son, et procédé de compensation de trame perdue |
JP5052514B2 (ja) | 2006-07-12 | 2012-10-17 | パナソニック株式会社 | 音声復号装置 |
US7933770B2 (en) | 2006-07-14 | 2011-04-26 | Siemens Audiologische Technik Gmbh | Method and device for coding audio data based on vector quantisation |
CN102592303B (zh) | 2006-07-24 | 2015-03-11 | 索尼株式会社 | 毛发运动合成器系统和用于毛发/皮毛流水线的优化技术 |
US7987089B2 (en) | 2006-07-31 | 2011-07-26 | Qualcomm Incorporated | Systems and methods for modifying a zero pad region of a windowed frame of an audio signal |
DE602007004502D1 (de) | 2006-08-15 | 2010-03-11 | Broadcom Corp | Neuphasierung des status eines dekodiergerätes nach einem paketverlust |
US7877253B2 (en) | 2006-10-06 | 2011-01-25 | Qualcomm Incorporated | Systems, methods, and apparatus for frame erasure recovery |
US8036903B2 (en) | 2006-10-18 | 2011-10-11 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Analysis filterbank, synthesis filterbank, encoder, de-coder, mixer and conferencing system |
US8126721B2 (en) | 2006-10-18 | 2012-02-28 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Encoding an information signal |
DE102006049154B4 (de) | 2006-10-18 | 2009-07-09 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Kodierung eines Informationssignals |
US8041578B2 (en) | 2006-10-18 | 2011-10-18 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Encoding an information signal |
US8417532B2 (en) | 2006-10-18 | 2013-04-09 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Encoding an information signal |
EP3288027B1 (en) * | 2006-10-25 | 2021-04-07 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for generating complex-valued audio subband values |
DE102006051673A1 (de) | 2006-11-02 | 2008-05-15 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zum Nachbearbeiten von Spektralwerten und Encodierer und Decodierer für Audiosignale |
BRPI0718738B1 (pt) | 2006-12-12 | 2023-05-16 | Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V. | Codificador, decodificador e métodos para codificação e decodificação de segmentos de dados representando uma corrente de dados de domínio de tempo |
FR2911228A1 (fr) | 2007-01-05 | 2008-07-11 | France Telecom | Codage par transformee, utilisant des fenetres de ponderation et a faible retard. |
KR101379263B1 (ko) | 2007-01-12 | 2014-03-28 | 삼성전자주식회사 | 대역폭 확장 복호화 방법 및 장치 |
FR2911426A1 (fr) | 2007-01-15 | 2008-07-18 | France Telecom | Modification d'un signal de parole |
US7873064B1 (en) | 2007-02-12 | 2011-01-18 | Marvell International Ltd. | Adaptive jitter buffer-packet loss concealment |
JP5596341B2 (ja) | 2007-03-02 | 2014-09-24 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 音声符号化装置および音声符号化方法 |
SG179433A1 (en) | 2007-03-02 | 2012-04-27 | Panasonic Corp | Encoding device and encoding method |
JP4708446B2 (ja) | 2007-03-02 | 2011-06-22 | パナソニック株式会社 | 符号化装置、復号装置およびそれらの方法 |
DE102007063635A1 (de) | 2007-03-22 | 2009-04-02 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Verfahren zur zeitlichen Segmentierung eines Videos in Videobildfolgen und zur Auswahl von Keyframes für das Auffinden von Bildinhalten unter Einbeziehung einer Subshot-Detektion |
JP2008261904A (ja) | 2007-04-10 | 2008-10-30 | Matsushita Electric Ind Co Ltd | 符号化装置、復号化装置、符号化方法および復号化方法 |
US8630863B2 (en) | 2007-04-24 | 2014-01-14 | Samsung Electronics Co., Ltd. | Method and apparatus for encoding and decoding audio/speech signal |
CN101388210B (zh) | 2007-09-15 | 2012-03-07 | 华为技术有限公司 | 编解码方法及编解码器 |
ES2529292T3 (es) | 2007-04-29 | 2015-02-18 | Huawei Technologies Co., Ltd. | Método de codificación y de decodificación |
PL2165328T3 (pl) | 2007-06-11 | 2018-06-29 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Kodowanie i dekodowanie sygnału audio zawierającego część impulsową i część stacjonarną |
US9653088B2 (en) | 2007-06-13 | 2017-05-16 | Qualcomm Incorporated | Systems, methods, and apparatus for signal encoding using pitch-regularizing and non-pitch-regularizing coding |
KR101513028B1 (ko) | 2007-07-02 | 2015-04-17 | 엘지전자 주식회사 | 방송 수신기 및 방송신호 처리방법 |
US8185381B2 (en) | 2007-07-19 | 2012-05-22 | Qualcomm Incorporated | Unified filter bank for performing signal conversions |
CN101110214B (zh) * | 2007-08-10 | 2011-08-17 | 北京理工大学 | 一种基于多描述格型矢量量化技术的语音编码方法 |
US8428957B2 (en) | 2007-08-24 | 2013-04-23 | Qualcomm Incorporated | Spectral noise shaping in audio coding based on spectral dynamics in frequency sub-bands |
ES2658942T3 (es) | 2007-08-27 | 2018-03-13 | Telefonaktiebolaget Lm Ericsson (Publ) | Análisis espectral/síntesis de baja complejidad utilizando resolución temporal seleccionable |
JP4886715B2 (ja) | 2007-08-28 | 2012-02-29 | 日本電信電話株式会社 | 定常率算出装置、雑音レベル推定装置、雑音抑圧装置、それらの方法、プログラム及び記録媒体 |
US8566106B2 (en) | 2007-09-11 | 2013-10-22 | Voiceage Corporation | Method and device for fast algebraic codebook search in speech and audio coding |
CN100524462C (zh) | 2007-09-15 | 2009-08-05 | 华为技术有限公司 | 对高带信号进行帧错误隐藏的方法及装置 |
US8576096B2 (en) | 2007-10-11 | 2013-11-05 | Motorola Mobility Llc | Apparatus and method for low complexity combinatorial coding of signals |
KR101373004B1 (ko) * | 2007-10-30 | 2014-03-26 | 삼성전자주식회사 | 고주파수 신호 부호화 및 복호화 장치 및 방법 |
CN101425292B (zh) | 2007-11-02 | 2013-01-02 | 华为技术有限公司 | 一种音频信号的解码方法及装置 |
DE102007055830A1 (de) | 2007-12-17 | 2009-06-18 | Zf Friedrichshafen Ag | Verfahren und Vorrichtung zum Betrieb eines Hybridantriebes eines Fahrzeuges |
CN101483043A (zh) | 2008-01-07 | 2009-07-15 | 中兴通讯股份有限公司 | 基于分类和排列组合的码本索引编码方法 |
CN101488344B (zh) | 2008-01-16 | 2011-09-21 | 华为技术有限公司 | 一种量化噪声泄漏控制方法及装置 |
DE102008015702B4 (de) | 2008-01-31 | 2010-03-11 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zur Bandbreitenerweiterung eines Audiosignals |
EP2250641B1 (en) | 2008-03-04 | 2011-10-12 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus for mixing a plurality of input data streams |
US8000487B2 (en) | 2008-03-06 | 2011-08-16 | Starkey Laboratories, Inc. | Frequency translation by high-frequency spectral envelope warping in hearing assistance devices |
FR2929466A1 (fr) | 2008-03-28 | 2009-10-02 | France Telecom | Dissimulation d'erreur de transmission dans un signal numerique dans une structure de decodage hierarchique |
EP2107556A1 (en) | 2008-04-04 | 2009-10-07 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Audio transform coding using pitch correction |
US8879643B2 (en) | 2008-04-15 | 2014-11-04 | Qualcomm Incorporated | Data substitution scheme for oversampled data |
US8768690B2 (en) | 2008-06-20 | 2014-07-01 | Qualcomm Incorporated | Coding scheme selection for low-bit-rate applications |
RU2515704C2 (ru) | 2008-07-11 | 2014-05-20 | Фраунхофер-Гезелльшафт Цур Фердерунг Дер Ангевандтен Форшунг Е.Ф. | Аудиокодер и аудиодекодер для кодирования и декодирования отсчетов аудиосигнала |
CN102150201B (zh) | 2008-07-11 | 2013-04-17 | 弗劳恩霍夫应用研究促进协会 | 提供时间扭曲激活信号以及使用该时间扭曲激活信号对音频信号编码 |
AU2009267518B2 (en) | 2008-07-11 | 2012-08-16 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Apparatus and method for encoding/decoding an audio signal using an aliasing switch scheme |
EP2144230A1 (en) | 2008-07-11 | 2010-01-13 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Low bitrate audio encoding/decoding scheme having cascaded switches |
MY154452A (en) * | 2008-07-11 | 2015-06-15 | Fraunhofer Ges Forschung | An apparatus and a method for decoding an encoded audio signal |
ES2683077T3 (es) | 2008-07-11 | 2018-09-24 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Codificador y decodificador de audio para codificar y decodificar tramas de una señal de audio muestreada |
MX2011000375A (es) | 2008-07-11 | 2011-05-19 | Fraunhofer Ges Forschung | Codificador y decodificador de audio para codificar y decodificar tramas de una señal de audio muestreada. |
CA2871268C (en) | 2008-07-11 | 2015-11-03 | Nikolaus Rettelbach | Audio encoder, audio decoder, methods for encoding and decoding an audio signal, audio stream and computer program |
US8380498B2 (en) | 2008-09-06 | 2013-02-19 | GH Innovation, Inc. | Temporal envelope coding of energy attack signal by using attack point location |
US8352279B2 (en) | 2008-09-06 | 2013-01-08 | Huawei Technologies Co., Ltd. | Efficient temporal envelope coding approach by prediction between low band signal and high band signal |
WO2010031049A1 (en) | 2008-09-15 | 2010-03-18 | GH Innovation, Inc. | Improving celp post-processing for music signals |
US8798776B2 (en) | 2008-09-30 | 2014-08-05 | Dolby International Ab | Transcoding of audio metadata |
DE102008042579B4 (de) | 2008-10-02 | 2020-07-23 | Robert Bosch Gmbh | Verfahren zur Fehlerverdeckung bei fehlerhafter Übertragung von Sprachdaten |
JP5555707B2 (ja) | 2008-10-08 | 2014-07-23 | フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン | マルチ分解能切替型のオーディオ符号化及び復号化スキーム |
KR101315617B1 (ko) | 2008-11-26 | 2013-10-08 | 광운대학교 산학협력단 | 모드 스위칭에 기초하여 윈도우 시퀀스를 처리하는 통합 음성/오디오 부/복호화기 |
CN101770775B (zh) * | 2008-12-31 | 2011-06-22 | 华为技术有限公司 | 信号处理方法及装置 |
EP3598446B1 (en) | 2009-01-16 | 2021-12-22 | Dolby International AB | Cross product enhanced harmonic transposition |
TWI459375B (zh) * | 2009-01-28 | 2014-11-01 | Fraunhofer Ges Forschung | 音訊編碼器、音訊解碼器、包含經編碼音訊資訊之數位儲存媒體、用以將音訊信號編碼及解碼之方法及電腦程式 |
US8457975B2 (en) | 2009-01-28 | 2013-06-04 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Audio decoder, audio encoder, methods for decoding and encoding an audio signal and computer program |
EP2214165A3 (en) | 2009-01-30 | 2010-09-15 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus, method and computer program for manipulating an audio signal comprising a transient event |
KR101441474B1 (ko) | 2009-02-16 | 2014-09-17 | 한국전자통신연구원 | 적응적 정현파 펄스 코딩을 이용한 오디오 신호의 인코딩 및 디코딩 방법 및 장치 |
EP2234103B1 (en) | 2009-03-26 | 2011-09-28 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Device and method for manipulating an audio signal |
KR20100115215A (ko) | 2009-04-17 | 2010-10-27 | 삼성전자주식회사 | 가변 비트율 오디오 부호화 및 복호화 장치 및 방법 |
RU2557455C2 (ru) | 2009-06-23 | 2015-07-20 | Войсэйдж Корпорейшн | Прямая компенсация наложения спектров во временной области с применением в области взвешенного или исходного сигнала |
JP5267362B2 (ja) | 2009-07-03 | 2013-08-21 | 富士通株式会社 | オーディオ符号化装置、オーディオ符号化方法及びオーディオ符号化用コンピュータプログラムならびに映像伝送装置 |
CN101958119B (zh) | 2009-07-16 | 2012-02-29 | 中兴通讯股份有限公司 | 一种改进的离散余弦变换域音频丢帧补偿器和补偿方法 |
US8635357B2 (en) | 2009-09-08 | 2014-01-21 | Google Inc. | Dynamic selection of parameter sets for transcoding media data |
BR112012009032B1 (pt) | 2009-10-20 | 2021-09-21 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e. V. | Codificador de sinal de áudio, decodificador de sinal de áudio, método para prover uma representação codificada de um conteúdo de áudio, método para prover uma representação decodificada de um conteúdo de áudio para uso em aplicações de baixo retardamento |
RU2591011C2 (ru) * | 2009-10-20 | 2016-07-10 | Фраунхофер-Гезелльшафт цур Фёрдерунг дер ангевандтен Форшунг Е.Ф. | Кодер аудиосигнала, декодер аудиосигнала, способ кодирования или декодирования аудиосигнала с удалением алиасинга (наложения спектров) |
PL2491555T3 (pl) | 2009-10-20 | 2014-08-29 | Fraunhofer Ges Forschung | Wielotrybowy kodek audio |
CN102081927B (zh) | 2009-11-27 | 2012-07-18 | 中兴通讯股份有限公司 | 一种可分层音频编码、解码方法及系统 |
US8428936B2 (en) | 2010-03-05 | 2013-04-23 | Motorola Mobility Llc | Decoder for audio signal including generic audio and speech frames |
US8423355B2 (en) | 2010-03-05 | 2013-04-16 | Motorola Mobility Llc | Encoder for audio signal including generic audio and speech frames |
US8793126B2 (en) * | 2010-04-14 | 2014-07-29 | Huawei Technologies Co., Ltd. | Time/frequency two dimension post-processing |
WO2011147950A1 (en) | 2010-05-28 | 2011-12-01 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Low-delay unified speech and audio codec |
ES2529025T3 (es) * | 2011-02-14 | 2015-02-16 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Aparato y método para procesar una señal de audio decodificada en un dominio espectral |
SG192745A1 (en) | 2011-02-14 | 2013-09-30 | Fraunhofer Ges Forschung | Noise generation in audio codecs |
WO2013075753A1 (en) | 2011-11-25 | 2013-05-30 | Huawei Technologies Co., Ltd. | An apparatus and a method for encoding an input signal |
-
2012
- 2012-02-10 ES ES12704258.8T patent/ES2529025T3/es active Active
- 2012-02-10 TW TW101104349A patent/TWI469136B/zh active
- 2012-02-10 MY MYPI2013002981A patent/MY164797A/en unknown
- 2012-02-10 AR ARP120100444A patent/AR085362A1/es active IP Right Grant
- 2012-02-10 CA CA2827249A patent/CA2827249C/en active Active
- 2012-02-10 RU RU2013142138/08A patent/RU2560788C2/ru active
- 2012-02-10 PL PL12704258T patent/PL2676268T3/pl unknown
- 2012-02-10 AU AU2012217269A patent/AU2012217269B2/en active Active
- 2012-02-10 JP JP2013553881A patent/JP5666021B2/ja active Active
- 2012-02-10 CN CN201280015997.7A patent/CN103503061B/zh active Active
- 2012-02-10 SG SG2013061361A patent/SG192746A1/en unknown
- 2012-02-10 KR KR1020137023820A patent/KR101699898B1/ko active IP Right Grant
- 2012-02-10 EP EP12704258.8A patent/EP2676268B1/en active Active
- 2012-02-10 WO PCT/EP2012/052292 patent/WO2012110415A1/en active Application Filing
- 2012-02-10 MX MX2013009344A patent/MX2013009344A/es active IP Right Grant
- 2012-02-10 BR BR112013020482A patent/BR112013020482B1/pt active IP Right Grant
-
2013
- 2013-08-14 US US13/966,570 patent/US9583110B2/en active Active
- 2013-09-11 ZA ZA2013/06838A patent/ZA201306838B/en unknown
-
2014
- 2014-06-09 HK HK14105381.0A patent/HK1192048A1/xx unknown
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EA001087B1 (ru) * | 1995-12-01 | 2000-10-30 | Диджитал Театр Системз, Инк. | Многоканальный прогнозирующий кодировщик поддиапазона, использующий психоакустическое адаптивное распределение бит |
RU2374703C2 (ru) * | 2003-10-30 | 2009-11-27 | Конинклейке Филипс Электроникс Н.В. | Кодирование или декодирование аудиосигнала |
RU2355046C2 (ru) * | 2004-09-08 | 2009-05-10 | Фраунхофер-Гезелльшафт Цур Фердерунг Дер Ангевандтен Форшунг Е.Ф. | Устройство и способ для формирования многоканального сигнала или набора параметрических данных |
Also Published As
Publication number | Publication date |
---|---|
TW201237848A (en) | 2012-09-16 |
CN103503061B (zh) | 2016-02-17 |
HK1192048A1 (en) | 2014-08-08 |
SG192746A1 (en) | 2013-09-30 |
MY164797A (en) | 2018-01-30 |
CA2827249C (en) | 2016-08-23 |
ZA201306838B (en) | 2014-05-28 |
KR101699898B1 (ko) | 2017-01-25 |
TWI469136B (zh) | 2015-01-11 |
EP2676268B1 (en) | 2014-12-03 |
BR112013020482B1 (pt) | 2021-02-23 |
JP2014510301A (ja) | 2014-04-24 |
CN103503061A (zh) | 2014-01-08 |
RU2013142138A (ru) | 2015-03-27 |
KR20130133843A (ko) | 2013-12-09 |
AR085362A1 (es) | 2013-09-25 |
WO2012110415A1 (en) | 2012-08-23 |
AU2012217269B2 (en) | 2015-10-22 |
CA2827249A1 (en) | 2012-08-23 |
ES2529025T3 (es) | 2015-02-16 |
BR112013020482A2 (pt) | 2018-07-10 |
JP5666021B2 (ja) | 2015-02-04 |
EP2676268A1 (en) | 2013-12-25 |
PL2676268T3 (pl) | 2015-05-29 |
US20130332151A1 (en) | 2013-12-12 |
AU2012217269A1 (en) | 2013-09-05 |
MX2013009344A (es) | 2013-10-01 |
US9583110B2 (en) | 2017-02-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2560788C2 (ru) | Устройство и способ для обработки декодированного аудиосигнала в спектральной области | |
US9715883B2 (en) | Multi-mode audio codec and CELP coding adapted therefore | |
US20180315434A1 (en) | Harmonic Transposition in an Audio Coding Method and System | |
US11837246B2 (en) | Harmonic transposition in an audio coding method and system | |
KR20130133848A (ko) | 스펙트럼 도메인 잡음 형상화를 사용하는 선형 예측 기반 코딩 방식 | |
CA3162808C (en) | Improved harmonic transposition | |
AU2020201239A1 (en) | Improved Harmonic Transposition | |
RU2574849C2 (ru) | Устройство и способ для кодирования и декодирования аудиосигнала с использованием выровненной части опережающего просмотра |