RU2560788C2 - Устройство и способ для обработки декодированного аудиосигнала в спектральной области - Google Patents

Устройство и способ для обработки декодированного аудиосигнала в спектральной области Download PDF

Info

Publication number
RU2560788C2
RU2560788C2 RU2013142138/08A RU2013142138A RU2560788C2 RU 2560788 C2 RU2560788 C2 RU 2560788C2 RU 2013142138/08 A RU2013142138/08 A RU 2013142138/08A RU 2013142138 A RU2013142138 A RU 2013142138A RU 2560788 C2 RU2560788 C2 RU 2560788C2
Authority
RU
Russia
Prior art keywords
audio signal
time
signal
decoder
decoded
Prior art date
Application number
RU2013142138/08A
Other languages
English (en)
Other versions
RU2013142138A (ru
Inventor
Гийом ФУКС
Ральф ГАЙГЕР
Маркус ШНЕЛЛЬ
Эммануэль РАВЕЛЛИ
Штефан ДЕЛА
Original Assignee
Фраунхофер-Гезелльшафт Цур Фердерунг Дер Ангевандтен Форшунг Е.Ф.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Фраунхофер-Гезелльшафт Цур Фердерунг Дер Ангевандтен Форшунг Е.Ф. filed Critical Фраунхофер-Гезелльшафт Цур Фердерунг Дер Ангевандтен Форшунг Е.Ф.
Publication of RU2013142138A publication Critical patent/RU2013142138A/ru
Application granted granted Critical
Publication of RU2560788C2 publication Critical patent/RU2560788C2/ru

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/005Correction of errors induced by the transmission channel, if related to the coding algorithm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/10Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a multipulse excitation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/028Noise substitution, i.e. substituting non-tonal spectral components by noisy source
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/012Comfort noise or silence coding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0212Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using orthogonal transformation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/022Blocking, i.e. grouping of samples in time; Choice of analysis windows; Overlap factoring
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/022Blocking, i.e. grouping of samples in time; Choice of analysis windows; Overlap factoring
    • G10L19/025Detection of transients or attacks for time/frequency resolution switching
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/03Spectral prediction for preventing pre-echo; Temporary noise shaping [TNS], e.g. in MPEG2 or MPEG4
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/06Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
    • G10L19/07Line spectrum pair [LSP] vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/10Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a multipulse excitation
    • G10L19/107Sparse pulse excitation, e.g. by using algebraic codebook
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • G10L19/13Residual excited linear prediction [RELP]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/22Mode decision, i.e. based on audio signal content versus external parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/06Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being correlation coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/26Pre-filtering or post-filtering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Quality & Reliability (AREA)
  • Algebra (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Physics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Tone Control, Compression And Expansion, Limiting Amplitude (AREA)
  • Stereophonic System (AREA)

Abstract

Изобретение относится к аудиообработке, а именно к обработке декодированного аудиосигнала. Технический результат заключается в обеспечении постобработки с низкой задержкой декодированного аудиосигнала. Технический результат достигается за счет устройства для обработки декодированного аудиосигнала, содержащего фильтр для фильтрации декодированного аудиосигнала, чтобы получать фильтрованный аудиосигнал, каскад преобразователя время-спектр для преобразования декодированного аудиосигнала и фильтрованного аудиосигнала в соответствующие спектральные представления, причем каждое спектральное представление имеет множество подполосных сигналов, модуль взвешивания для выполнения частотно-избирательного взвешивания фильтрованного аудиосигнала посредством умножения подполосных сигналов на соответствующие весовые коэффициенты, чтобы получать взвешенный фильтрованный аудиосигнал, модуль вычитания для выполнения вычитания по подполосам между взвешенным фильтрованным аудиосигналом и спектральным представлением декодированного аудиосигнала и преобразователь спектр-время для преобразования результирующего аудиосигнала или сигнала, извлекаемого из результирующего аудиосигнала, в представление во временной области, чтобы получать обработанный декодированный аудиосигнал. 3 н. и 13 з.п. ф-лы, 13 ил.

Description

ПОДРОБНОЕ ОПИСАНИЕ ИЗОБРЕТЕНИЯ
Настоящее изобретение относится к аудиообработке и, в частности, к обработке декодированного аудиосигнала в целях повышения качества.
В последнее время проводятся более глубокие исследования касательно переключаемых аудиокодеков. Высококачественный переключаемый аудиокодек с низкой скоростью передачи битов основан на принципе стандартизированного кодирования речи и аудио (USAC-принципе). Предусмотрена общая предварительная обработка/постобработка, состоящая из функционального модуля по стандарту объемного звучания MPEG (MPEGs), чтобы управлять стерео- или многоканальной обработкой, и модуля по стандарту усовершенствованной SBR (eSBR), который управляет параметрическим представлением верхних аудиочастот во входном сигнале. Далее, предусмотрены две ветви, одна из которых состоит из тракта для инструментального средства по стандарту усовершенствованного кодирования аудио (AAC), а другая состоит из тракта на основе линейного кодирования с предсказанием (в LP- или LPC-области), который, в свою очередь, показывает представление в частотной области или представление во временной области LPC-остатка. Все передаваемые спектры как для AAC, так и для LPC представляются в MDCT-области после квантования и арифметического кодирования. Представление во временной области использует схему кодирования с ACELP-возбуждением. Блок-схемы кодера и декодера приведены на фиг. 1.1 и фиг. 1.2 документа ISO/IEC CD 23003-3.
Дополнительным примером для переключаемого аудиокодека является кодек по стандарту усовершенствованного широкополосного адаптивного многоскоростного кодирования (AMR-WB+), как описано в 3GPP TS 26.290 V10.0.0 (2011-3). AMR-WB+-аудиокодек обрабатывает входные кадры, равные 2048 выборкам, на внутренней частоте Fs дискретизации. Внутренние частоты дискретизации ограничены диапазоном 12800-38400 Гц. Кадры из 2048 выборок разбиваются на две критически дискретизированные равные полосы частот. Это приводит к двум суперкадрам по 1024 выборок, соответствующим полосе низких частот (LF) и высоких частот (HF). Каждый суперкадр разделяется на четыре кадра из 256 выборок. Дискретизация на внутренней частоте дискретизации осуществляется посредством использования схемы преобразования с переменной дискретизацией, которая повторно дискретизирует входной сигнал. LF- и HF-сигналы затем кодируются с использованием двух разных подходов: LF кодируется и декодируется с использованием "базового" кодера/декодера на основе переключаемого ACELP и возбуждения по кодированию с преобразованием (TCX). В ACELP-режиме используется стандартный AMR-WB-кодек. HF-сигнал кодируется с помощью относительно небольшого числа битов (16 битов в расчете на кадр) с использованием способа расширения полосы пропускания (BWE). AMR-WB-кодер включает в себя функциональные средства предварительной обработки, LPC-анализ, функциональные средства поиска с разомкнутым контуром, функциональные средства поиска в адаптивной таблице кодирования, функциональные средства поиска в инновационной таблице кодирования и обновление памяти. ACELP-декодер содержит несколько функциональных средств, к примеру, декодирования адаптивной таблицы кодирования, усиления при декодировании, декодирования инновационной таблицы кодирования, декодирования ISP, фильтра с долгосрочным предсказанием (LTP-фильтр), функциональные средства возбуждения на основе конструкций, интерполяции ISP для четырех субкадров, постобработки, синтезирующего фильтра, блока коррекции предыскажений и повышающей дискретизации, с тем чтобы в итоге получать часть полосы нижних частот речевого выходного сигнала. Часть полосы верхних частот речевого выходного сигнала формируется посредством масштабирования усилений с использованием индекса HB-усиления, VAD-флага и случайного возбуждения при 16 кГц. Кроме того, используется синтезирующий HB-фильтр, после которого идет полосовой фильтр. Дополнительные сведения приведены на фиг. 3 документа G.722.2.
Эта схема усовершенствована в AMR-WB+ за счет выполнения постобработки моносигнала полосы низких частот. Следует обратиться к фиг. 7, 8 и 9, иллюстрирующим функциональные средства в AMR-WB+. Фиг. 7 иллюстрирует модуль 700 улучшения основного тона, фильтр 702 нижних частот, фильтр 704 верхних частот, каскад 706 отслеживания основного тона и сумматор 708. Блоки соединяются так, как проиллюстрировано на фиг. 7, и в них подается декодированный сигнал.
При улучшении низкочастотного основного тона используется двухполосное разложение, и адаптивная фильтрация применяется только к полосе нижних частот. Это приводит к общей постобработке, которая главным образом предназначена для частот около основных гармоник синтезированного речевого сигнала. Фиг. 7 показывает блок-схему двухполосного модуля улучшения основного тона. В верхней ветви декодированный сигнал фильтруется посредством фильтра 704 верхних частот, так что формируются сигналы sH полосы верхних частот. В нижней ветви декодированный сигнал сначала обрабатывается посредством адаптивного модуля 700 улучшения основного тона и затем фильтруется посредством фильтра 702 нижних частот, чтобы получать сигнал (sLEE) постобработки полосы нижних частот.
Декодированный сигнал постобработки получается посредством суммирования сигнала постобработки полосы нижних частот и сигнала полосы верхних частот. Назначение модуля улучшения основного тона состоит в том, чтобы уменьшать межгармонический шум в декодированном сигнале, что достигается посредством изменяющегося во времени линейного фильтра с передаточной функцией HE, указываемой в первой строке по фиг. 9 и описанной посредством уравнения во второй строке по фиг. 9; α является коэффициентом, который управляет межгармоническим ослаблением. T является периодом основного тона входного сигнала Ŝk(n), а sLE(n) является выходным сигналом модуля улучшения основного тона. Параметры T и α изменяются во времени и задаются посредством модуля 706 отслеживания основного тона со значением α=1; усиление фильтра, описанного посредством уравнения во второй строке по фиг. 9, равно исключительно нулю на частотах 1/(2T), 3/(2T), 5/(2T) и т.д., т.е. в средней точке между DC (0 Гц) и частотами гармоники 1/T, 3/T, 5/T и т.д. Когда α приближается к нулю, снижается ослабление между гармониками, сформированными посредством фильтра, как задано во второй строке по фиг. 9. Когда α равен нулю, фильтр вообще не действует и пропускает все частоты. Чтобы ограничивать постобработку областью низких частот, улучшенный сигнал sLE подвергается фильтрации нижних частот, чтобы формировать сигнал sLEF, который суммируется с сигналом sH фильтра верхних частот с тем, чтобы получать синтезированный сигнал sE постобработки. Другая конфигурация, эквивалентная иллюстрации на фиг. 7, проиллюстрирована на фиг. 8, и конфигурация на фиг. 8 исключает необходимость фильтрации верхних частот. Это поясняется относительно третьего уравнения для sE на фиг. 9; hLP(n) является импульсной характеристикой фильтра нижних частот, а hHP(n) является импульсной характеристикой комплементарного фильтра верхних частот. Затем, сигнал sE(n) постобработки задается посредством третьего уравнения на фиг. 9. Таким образом, постобработка является эквивалентной вычитанию масштабированного фильтрованного по нижним частотам сигнала α.eLT(n) долгосрочной ошибки из синтезированного сигнала ŝk(n). Передаточная функция фильтра с долгосрочным предсказанием задается так, как указано в последней строке по фиг. 9. Эта альтернативная конфигурация постобработки проиллюстрирована на фиг. 8. Значение T задается посредством принимаемого запаздывания основного тона с замкнутым контуром в каждом субкадре (дробное запаздывание основного тона округляется до ближайшего целого числа). Простое отслеживание на предмет проверки удвоения основного тона выполняется. Если нормализованная корреляция основного тона при задержке T/2 превышает 0,95, то значение T/2 используется в качестве нового запаздывания основного тона для постобработки. Коэффициент α задается посредством α=0,5gp, ограниченного как α, большее или равное нулю и меньшее или равное 0,5. gp является декодированным усилением основного тона, ограниченным между 0 и 1. В TCX-режиме значение α задается равным нулю. Линейный фазовый FIR-фильтр нижних частот с 25 коэффициентами используется с частотой среза приблизительно 500 Гц. Задержка фильтра составляет 12 выборок. Верхняя ветвь должна вводить задержку, соответствующую задержке обработки в нижней ветви, чтобы поддерживать сигналы в двух ветвях совмещенными по времени до выполнения вычитания. В AMR-WB+ Fs=2x от частоты дискретизации базы. Базовая частота дискретизации равна 12800 Гц. Таким образом, частота среза равна 500 Гц.
Обнаружено то, что, в частности, для вариантов применения с низкой задержкой, задержка фильтра в 12 выборок, введенная посредством FIR-фильтра нижних частот с линейной фазой, обеспечивает вклад в полную задержку схемы кодирования/декодирования. Существуют другие источники систематических задержек в других местах цепочки кодирования/декодирования, и задержка FIR-фильтра накапливается за счет других источников.
Цель настоящего изобретения заключается в том, чтобы предоставлять усовершенствованный принцип обработки аудиосигналов, который лучше подходит для вариантов применения в реальном времени или сценариев двусторонней связи, к примеру сценариев использования мобильных телефонов.
Это цель достигается посредством устройства для обработки декодированного аудиосигнала по п. 1 формулы изобретения, либо способа обработки декодированного аудиосигнала по п. 15 формулы изобретения, либо компьютерной программы по п. 16 формулы изобретения.
Настоящее изобретение основано на том факте, что доля фильтра нижних частот при постфильтрации нижних звуковых частот декодированного сигнала в полной задержке является проблематичной и должна быть уменьшена. С этой целью, фильтрованный аудиосигнал не подвергается фильтрации нижних частот во временной области, но подвергается фильтрации нижних частот в спектральной области, такой как QMF-область или любая другая спектральная область, например MDCT-область, FFT-область и т.д. Обнаружено то, что преобразование из спектральной области в частотную область и, например, в частотную область низкого разрешения, к примеру в QMF-область, может быть выполнено с низкой задержкой, и частотная избирательность фильтра, который должен быть реализован в спектральной области, может быть реализована посредством простого взвешивания отдельных подполосных сигналов из представления в частотной области фильтрованного аудиосигнала. Следовательно, это "впечатление" частотно-избирательной характеристики достигается вообще без систематической задержки, поскольку операция умножения или взвешивания с подполосным сигналом не подвержена задержке. Вычитание фильтрованного аудиосигнала и исходного аудиосигнала также выполняется в спектральной области. Кроме того, предпочтительно выполнять дополнительные операции, которые, например, необходимы в любом случае, к примеру, декодирование репликации полос спектра либо стерео- или многоканальное декодирование дополнительно выполняется в одной QMF-области. Частотно-временное преобразование выполняется только в конце цепочки декодирования, чтобы возвращать в итоге сформированный аудиосигнал во временную область. Следовательно, в зависимости от варианта применения, результирующий аудиосигнал, сформированный посредством модуля вычитания, может быть преобразован обратно во временную область как есть, когда дополнительные операции обработки в QMF-области более не требуются. Тем не менее, когда алгоритм декодирования имеет дополнительные операции обработки в QMF-области, то частотно-временной преобразователь соединяется не с выходом модуля вычитания, а соединяется с выходом последнего устройства обработки в частотной области.
Предпочтительно, фильтр для фильтрации декодированного аудиосигнала является фильтром с долгосрочным предсказанием. Кроме того, предпочтительно, чтобы спектральное представление представляло собой QMF-представление, и дополнительно предпочтительно, чтобы частотная избирательность представляла собой характеристику нижних частот.
Тем не менее, любые другие фильтры, отличающиеся от фильтра с долгосрочным предсказанием, любые другие спектральные представления, отличающиеся от QMF-представления, или любая другая частотная избирательность, отличающаяся от характеристики нижних частот, могут быть использованы для того, чтобы получать постобработку с низкой задержкой декодированного аудиосигнала.
Предпочтительные варианты осуществления настоящего изобретения описаны далее со ссылками на прилагаемые чертежи, из которых:
Фиг. 1a является блок-схемой устройства для обработки декодированного аудиосигнала в соответствии с вариантом осуществления;
Фиг. 1b является блок-схемой предпочтительного варианта осуществления для устройства для обработки декодированного аудиосигнала;
Фиг. 2a примерно иллюстрирует частотно-избирательную характеристику в качестве характеристики нижних частот;
Фиг. 2b иллюстрирует весовые коэффициенты и ассоциированные подполосы частот;
Фиг. 2c иллюстрирует каскад преобразователя время-спектр и следующего соединенного модуля взвешивания для применения весовых коэффициентов к каждому отдельному подполосному сигналу;
Фиг. 3 иллюстрирует импульсную характеристику в частотной характеристике фильтра нижних частот в AMR-WB+, проиллюстрированном на фиг. 8;
Фиг. 4 иллюстрирует импульсную характеристику и частотную характеристику, преобразованные в QMF-область;
Фиг. 5 иллюстрирует весовые коэффициенты для модулей взвешивания для примера 32 QMF-подполос частот;
Фиг. 6 иллюстрирует частотную характеристику для 16 QMF-полос частот и ассоциированных 16 весовых коэффициентов;
Фиг. 7 иллюстрирует блок-схему модуля улучшения низкочастотного основного тона AMR-WB+;
Фиг. 8 иллюстрирует реализованную конфигурацию постобработки AMR-WB+;
Фиг. 9 иллюстрирует извлечение реализации по фиг. 8; и
Фиг. 10 иллюстрирует реализацию с низкой задержкой фильтра с долгосрочным предсказанием в соответствии с вариантом осуществления.
Фиг. 1a иллюстрирует устройство для обработки декодированного аудиосигнала на линии 100. Декодированный аудиосигнал на линии 100 вводится в фильтр 102 для фильтрации декодированного аудиосигнала, чтобы получать фильтрованный аудиосигнал на линии 104. Фильтр 102 соединяется с каскадом 106 преобразователя время-спектр, проиллюстрированным в качестве двух отдельных преобразователей 106a время-спектр для фильтрованного аудиосигнала и 106b для декодированного аудиосигнала на линии 100. Каскад преобразователя время-спектр выполнен с возможностью преобразования аудиосигнала и фильтрованного аудиосигнала в соответствующее спектральное представление, имеющее множество подполосных сигналов. Это указывается посредством сдвоенных линий на фиг. 1a, которые указывают то, что выходной сигнал блоков 106a, 106b содержит множество отдельных подполосных сигналов, а не один сигнал, как проиллюстрировано для ввода в блоки 106a, 106b.
Устройство для обработки дополнительно содержит модуль 108 взвешивания для выполнения частотно-избирательного взвешивания фильтрованного аудиосигнала, выводимого посредством блока 106a, посредством умножения отдельных подполосных сигналов на соответствующие весовые коэффициенты, чтобы получать взвешенный фильтрованный аудиосигнал на линии 110.
Кроме того, предоставляется модуль 112 вычитания. Модуль вычитания выполнен с возможностью выполнения вычитания по подполосам частот между взвешенным фильтрованным аудиосигналом и спектральным представлением аудиосигнала, сформированного посредством блока 106b.
Кроме того, предоставляется преобразователь 114 спектр-время. Преобразование спектр-время, выполняемое посредством блока 114, является таким, что результирующий аудиосигнал, сформированный посредством модуля 112 вычитания, или сигнал, извлекаемый из результирующего аудиосигнала, преобразуется в представление во временной области, чтобы получать обработанный декодированный аудиосигнал на линии 116.
Хотя фиг. 1a указывает то, что задержка посредством преобразования время-спектр и взвешивания значительно ниже задержки посредством FIR-фильтрации, это не требуется во всех случаях, поскольку в ситуациях, в которых QMF является совершенно обязательным, накопление задержек FIR-фильтрации и QMF исключается. Следовательно, настоящее изобретение также является полезным, когда задержка посредством взвешивания преобразования время-спектр даже выше задержки FIR-фильтра для постфильтрации нижних звуковых частот.
Фиг. 1b иллюстрирует предпочтительный вариант осуществления настоящего изобретения в контексте USAC-декодера или AMR-WB+-декодера. Устройство, проиллюстрированное на фиг. 1b, содержит каскад 120 ACELP-декодера, каскад 122 TCX-декодера и соединительную точку 124, в которой соединяются выходные сигналы декодеров 120, 122. Соединительная точка 124 начинает две отдельные ветви. Первая ветвь содержит фильтр 102, который предпочтительно конфигурируется в качестве фильтра с долгосрочным предсказанием, который задается посредством запаздывания T основного тона, после которого идет усилитель 129 адаптивного усиления α. Кроме того, первая ветвь содержит преобразователь 106a время-спектр, который предпочтительно реализуется в качестве гребенки анализирующих QMF-фильтров. Кроме того, первая ветвь содержит модуль 108 взвешивания, который выполнен с возможностью взвешивания подполосных сигналов, сформированных посредством гребенки 106a анализирующих QMF-фильтров.
Во второй ветви декодированный аудиосигнал преобразуется в спектральную область посредством гребенки 106b анализирующих QMF-фильтров.
Хотя отдельные QMF-блоки 106a, 106b проиллюстрированы в качестве двух отдельных элементов, следует отметить, что для анализа фильтрованного аудиосигнала и аудиосигнала не обязательно следует иметь две отдельные гребенки анализирующих QMF-фильтров. Вместо этого одна гребенка анализирующих QMF-фильтров и память могут быть достаточными, когда сигналы преобразуются один за другим. Тем не менее, для реализаций с очень низкой задержкой предпочтительно использовать отдельные гребенки анализирующих QMF-фильтров для каждого сигнала, так что один QMF-блок не является узким местом алгоритма.
Предпочтительно, преобразование в спектральную область и обратно во временную область выполняется посредством алгоритма, имеющего задержку для прямого и обратного преобразования, меньшую, чем задержка фильтрации во временной области с частотно-избирательной характеристикой. Следовательно, преобразования должны иметь полную задержку, меньшую задержки рассматриваемого фильтра. В частности, подходят преобразования низкого разрешения, к примеру преобразования на основе QMF, поскольку низкое частотное разрешение приводит к потребности в небольшом окне преобразования, т.е. к уменьшенной систематической задержке. Предпочтительные варианты применения требуют только преобразования низкого разрешения с разложением сигнала менее чем в 40 подполосах частот, к примеру в 32 или только в 16 подполосах частот. Тем не менее, даже в вариантах применения, в которых преобразование время-спектр и взвешивание вводит более высокую задержку, чем фильтр нижних частот, обеспечивается преимущество вследствие того факта, что накопление задержек для фильтра нижних частот и преобразования время-спектр, необходимых в любом случае для других процедур, исключается.
Тем не менее, для вариантов применения, которые в любом случае требуют частотно-временного преобразования вследствие других операций обработки, таких как повторная дискретизация, SBR или MPS, уменьшение задержки получается независимо от задержки, обусловленной посредством частотно-временного или временно-частотного преобразования, поскольку за счет "включения" реализации фильтра в спектральную область задержка фильтра временной области полностью экономится вследствие того факта, что взвешивание по подполосам частот выполняется вообще без систематической задержки.
Адаптивный усилитель 129 управляется посредством контроллера 130. Контроллер 130 выполнен с возможностью задания усиления α усилителя 129 равным нулю, когда входной сигнал является TCX-декодированным сигналом. Обычно в переключаемых аудиокодеках, таких как USAC или AMR-WB+, декодированный сигнал в соединительной точке 124 типично исходит либо из TCX-декодера 122, либо из ACELP-декодера 120. Следовательно, существует мультиплексирование во времени декодированных выходных сигналов двух декодеров 120, 122. Контроллер 130 выполнен с возможностью определения на текущий момент времени того, исходит выходной сигнал из TCX-декодированного сигнала или из ACELP-декодированного сигнала. Когда определяется то, что существует TCX-сигнал, то адаптивное усиление α задается равным нулю, так что первая ветвь, состоящая из элементов 102, 129, 106a, 108, вообще не имеет значимости. Это обусловлено тем фактом, что конкретный вид постфильтрации, используемой в AMR-WB+ или USAC, требуется только для ACELP-кодированного сигнала. Тем не менее, когда осуществляются другие реализации постфильтрации, отличные от фильтрации гармоник или улучшения основного тона, то переменное усиление α может задаваться по-разному в зависимости от потребностей.
Тем не менее, когда контроллер 130 определяет то, что текущий доступный сигнал является ACELP-декодированным сигналом, то значение усилителя 129 задается равным правильному значению для α, которое типично находится между 0 и 0,5. В этом случае первая ветвь является существенной, и выходной сигнал модуля 112 вычитания значительно отличается от первоначально декодированного аудиосигнала в соединительной точке 124.
Информация основного тона (запаздывание основного тона и альфа усиления), используемая в фильтре 120 и усилителе 128, может поступать из декодера и/или специализированного модуля отслеживания основного тона. Предпочтительно, информация поступает из декодера и затем повторно обрабатывается (уточняется) с помощью специализированного модуля отслеживания основного тона/анализ на основе долгосрочного предсказания декодированного сигнала.
Результирующий аудиосигнал, сформированный посредством модуля 112 вычитания, выполняющего вычитание в расчете на полосу частот или в расчете на подполосу частот, не сразу переводится обратно во временную область. Вместо этого сигнал перенаправляется в модуль 128 SBR-декодера. Модуль 128 соединяется с моностерео- или мономногоканальным декодером, таким как MPS-декодер 131, где MPS означает стандарт объемного звучания MPEG.
Типично, число полос частот повышается посредством декодера репликации полосы пропускания спектра, что указывается посредством трех дополнительных линий 132 на выходе блока 128.
Кроме того, число выходов дополнительно повышается посредством блока 131. Блок 131 формирует, из моносигнала на выходе блока 129, например, 5-канальный сигнал или любой другой сигнал, имеющий два или более каналов. В качестве примера, проиллюстрирован 5-канальный сценарий, который имеет левый канал L, правый канал R, центральный канал C, левый канал LS объемного звучания и правый канал RS объемного звучания. Следовательно, преобразователь 114 спектр-время предусмотрен для каждого из отдельных каналов, т.е. предусмотрен пять раз на фиг. 1b, чтобы преобразовывать каждый отдельный сигнал канала из спектральной области, которая представляет собой, в примере фиг. 1b, QMF-область, обратно во временную область на выходе блока 114. С другой стороны, необязательно существует множество отдельных преобразователей спектр-время. Также может быть один преобразователь спектр-время, который обрабатывает преобразования один за другим. Тем не менее, когда требуется реализация с очень низкой задержкой, предпочтительно использовать отдельный преобразователь спектр-время для каждого канала.
Настоящее изобретение обеспечивает преимущество в том, что задержка, введенная посредством постфильтра нижних звуковых частот и, в частности, посредством реализации FIR-фильтра нижних частот, уменьшается. Следовательно, любой вид частотно-избирательной фильтрации не вводит дополнительную задержку относительно задержки, требуемой для QMF или, вообще говоря, для частотно-временного преобразования.
Настоящее изобретение, в частности, является преимущественным, когда QMF или, в общем, частотно-временное преобразование требуется в любом случае, как, например, в случае фиг. 1b, в котором SBR-функциональность и MPS-функциональность в любом случае осуществляются в спектральной области. Альтернативная реализация, в которой требуется QMF, представляет собой случай, когда повторная дискретизация выполняется с декодированным сигналом и когда для повторной дискретизации требуются гребенка анализирующих QMF-фильтров и гребенка синтезирующих QMF-фильтров с различным числом каналов гребенки фильтров.
Кроме того, постоянное кадрирование между ACELP и TCX поддерживается вследствие того факта, что оба сигнала, т.е. TCX и ACELP, теперь имеют идентичную задержку.
Функциональные средства декодера 129 расширения полосы пропускания подробно описываются в разделе 6.5 ISO/IEC CD 23003-3. Функциональные средства многоканального декодера 131 подробно описываются, например, в разделе 6.11 ISO/IEC CD 23003-3. Функциональные средства, помимо TCX-декодера и ACELP-декодера, подробно описываются в подразделах 6.12-6.17 ISO/IEC CD 23003-3.
Далее поясняются фиг. 2a-2c для того, чтобы иллюстрировать схематичный пример. Фиг. 2a иллюстрирует частотно-избирательную частотную характеристику схематичного фильтра нижних частот.
Фиг. 2b иллюстрирует весовые индексы для номеров подполос частот или подполос частот, указываемых на фиг. 2a. В схематичном случае по фиг. 2a, подполосы 1-6 частот имеют весовые коэффициенты, равные 1, т.е. без взвешивания, и полосы 7-10 частот имеют снижающиеся весовые коэффициенты, а полосы 11-14 частот имеют нули.
Соответствующая реализация каскада из преобразователя время-спектр, к примеру, 106a и следующего соединенного модуля 108 взвешивания проиллюстрирована на фиг. 2c. Каждая подполоса частот 1, 2, ..., 14 вводится в отдельный взвешивающий блок, указываемый посредством W1, W2, ..., W14. Модуль 108 взвешивания применяет весовой коэффициент из таблицы по фиг. 2b к каждому отдельному подполосному сигналу посредством умножения каждой дискретизации подполосного сигнала на весовой коэффициент. Далее, на выходе модуля взвешивания предусмотрены взвешенные подполосные сигналы, которые затем вводятся в модуль 112 вычитания по фиг. 1a, который дополнительно выполняет вычитание в спектральной области.
Фиг. 3 иллюстрирует импульсную характеристику и частотную характеристику фильтра нижних частот на фиг. 8 AMR-WB+-кодера. Фильтр hLP(n) нижних частот во временной области задается в AMR-WB+ посредством следующих коэффициентов.
a[13]=[0,088250, 0,086410, 0,081074, 0,072768, 0,062294, 0,050623, 0,038774, 0,027692, 0,018130, 0,010578, 0,005221, 0,001946, 0,000385];
hLP(n)=a(13-n) для n от 1 до 12;
hLP(n)=a(n-12) для n от 13 до 25.
Импульсная характеристика и частотная характеристика, проиллюстрированные на фиг. 3, предназначены для случая, когда фильтр применяется к выборке сигналов временной области для 12,8 кГц. Сформированная задержка в таком случае представляет собой задержку в 12 выборок, т.е. 0,9375 мс.
Фильтр, проиллюстрированный на фиг. 3, имеет частотную характеристику в QMF-области, в которой каждый QMF имеет разрешение в 400 Гц. 32 QMF-полосы частот покрывают полосу частот выборки сигналов в 12,8 кГц. Частотная характеристика и QMF-область проиллюстрированы на фиг. 4.
Амплитудная частотная характеристика с разрешением в 400 Гц формирует весовые коэффициенты, используемые при применении фильтра нижних частот в QMF-области. Весовые коэффициенты для модуля 108 взвешивания для вышеуказанных примерных параметров приведены на фиг. 5.
Эти весовые коэффициенты могут вычисляться следующим образом:
W=abs(DFT(hLP(n), 64)), где DFT(x,N) означает дискретное преобразование Фурье длины N сигнала x. Если x меньше N, сигнал дополняется N-размером из x нулей. Длина N DFT в два раза превышает число QMF-подполос частот. Поскольку hLP(n) представляет собой сигнал вещественных коэффициентов, W показывает эрмитову симметрию и N/2 частотных коэффициентов между частотой 0 и частотой Найквиста.
Посредством анализа частотной характеристики коэффициентов фильтрации, он приблизительно соответствует частоте среза в 2*pi*10/256. Это используется для реализации фильтра. Коэффициенты затем квантованы для их записи в 14 битах для экономии части потребления ROM и с учетом реализации с фиксированной запятой.
Фильтрация в QMF-области далее выполняется следующим образом:
Y - постобработанный сигнал в QMF-области;
X - декодированный сигнал в сигнале QMF из базового кодера;
E - межгармонический шум, сформированный в TD для того, чтобы удалять из X;
Y(k)=X(k)-W(k).E(k), для k от 1 до 32.
Фиг. 6 иллюстрирует дополнительный пример, в котором QMF имеет разрешение в 800 Гц, так что 16 полос частот покрывают полную полосу пропускания сигнала, дискретизированного при 12,8 кГц. Коэффициенты W в таком случае являются такими, как указано на фиг. 6 под графиком. Фильтрация проводится аналогично тому, как пояснено относительно фиг. 6, но k имеет значения только от 1 до 16.
Частотная характеристика фильтра в 16-полосном QMF изображена так, как проиллюстрировано на фиг. 6.
Фиг. 10 иллюстрирует дополнительное улучшение фильтра с долгосрочным предсказанием, проиллюстрированного как 102 на фиг. 1b.
В частности, для реализации с низкой задержкой, член ŝk(n+T) в строках с третью по последнюю по фиг. 9 является проблематичным. Это обусловлено тем фактом, что T выборок находятся в будущем относительно фактического времени n. Следовательно, чтобы разрешать ситуации, в которых вследствие реализации с низкой задержкой будущие значения еще не доступны, ŝk(n+T) заменяется на ŝk, как указано на фиг. 10. Затем, фильтр с долгосрочным предсказанием аппроксимирует долгосрочное предсказание предшествующего уровня техники, но с меньшей или нулевой задержкой. Обнаружено то, что аппроксимация является достаточно хорошей и что усиление относительно уменьшенной задержки обеспечивает большие преимущества за счет небольших потерь в улучшении основного тона.
Хотя некоторые аспекты описаны в контексте устройства, очевидно, что эти аспекты также представляют описание соответствующего способа, при этом блок или устройство соответствует этапу способа либо признаку этапа способа. Аналогично, аспекты, описанные в контексте этапа способа, также представляют описание соответствующего блока, или элемента, или признака соответствующего устройства.
В зависимости от конкретных требований к реализации, варианты осуществления изобретения могут быть реализованы в аппаратных средствах или в программном обеспечении. Реализация может выполняться с использованием цифрового запоминающего носителя, например гибкого диска, DVD, CD, ROM, PROM, EPROM, EEPROM или флэш-памяти, имеющего сохраненные электронночитаемые управляющие сигналы, которые взаимодействуют (или допускают взаимодействие) с программируемой компьютерной системой, так что осуществляется соответствующий способ.
Некоторые варианты осуществления согласно изобретению содержат невременный носитель хранения данных, имеющий электронночитаемые управляющие сигналы, которые допускают взаимодействие с программируемой компьютерной системой таким образом, что осуществляется один из способов, описанных в данном документе.
В общем, варианты осуществления настоящего изобретения могут быть реализованы как компьютерный программный продукт с программным кодом, при этом программный код выполнен с возможностью осуществления одного из способов, когда компьютерный программный продукт работает на компьютере. Программный код, например, может быть сохранен на машиночитаемом носителе.
Другие варианты осуществления содержат компьютерную программу для осуществления одного из способов, описанных в данном документе, сохраненную на машиночитаемом носителе.
Другими словами, следовательно, вариант осуществления предлагаемого способа представляет собой компьютерную программу, имеющую программный код для осуществления одного из способов, описанных в данном документе, когда компьютерная программа работает на компьютере.
Следовательно, дополнительный вариант осуществления предлагаемых способов представляет собой носитель хранения данных (цифровой запоминающий носитель или машиночитаемый носитель), содержащий записанную компьютерную программу для осуществления одного из способов, описанных в данном документе.
Следовательно, дополнительный вариант осуществления предлагаемого способа представляет собой поток данных или последовательность сигналов, представляющих компьютерную программу для осуществления одного из способов, описанных в данном документе. Поток данных или последовательность сигналов, например, может быть выполнена с возможностью передачи через соединение для передачи данных, например через Интернет.
Дополнительный вариант осуществления содержит средство обработки, например компьютер или программируемое логическое устройство, выполненное с возможностью осуществлять один из способов, описанных в данном документе.
Дополнительный вариант осуществления содержит компьютер, имеющий установленную компьютерную программу для осуществления одного из способов, описанных в данном документе.
В некоторых вариантах осуществления, программируемое логическое устройство (например, программируемая пользователем вентильная матрица) может быть использовано для того, чтобы выполнять часть или все из функциональностей способов, описанных в данном документе. В некоторых вариантах осуществления, программируемая пользователем вентильная матрица может взаимодействовать с микропроцессором, чтобы осуществлять один из способов, описанных в данном документе. В общем, способы предпочтительно осуществляются посредством любого устройства.
Вышеописанные варианты осуществления являются просто иллюстративными в отношении принципов настоящего изобретения. Следует понимать, что модификации и изменения компоновок и подробностей, описанных в данном документе, должны быть очевидными для специалистов в данной области техники. Следовательно, они подразумеваются как ограниченные только посредством объема нижеприведенной формулы изобретения, а не посредством конкретных деталей, представленных посредством описания и пояснения вариантов осуществления в данном документе.

Claims (16)

1. Устройство для обработки декодированного аудиосигнала (100), содержащее:
- фильтр (102) для фильтрации декодированного аудиосигнала, чтобы получать фильтрованный аудиосигнал (104);
- каскад (106) преобразователя время-спектр для преобразования декодированного аудиосигнала и фильтрованного аудиосигнала в соответствующие спектральные представления, причем каждое спектральное представление имеет множество подполосных сигналов;
- модуль (108) взвешивания для выполнения частотно-избирательного взвешивания спектрального представления фильтрованного аудиосигнала посредством умножения подполосных сигналов на соответствующие весовые коэффициенты, чтобы получать взвешенный фильтрованный аудиосигнал;
- модуль (112) вычитания для выполнения вычитания по подполосам между взвешенным фильтрованным аудиосигналом и спектральным представлением аудиосигнала, чтобы получать результирующий аудиосигнал; и
- преобразователь (114) спектр-время для преобразования результирующего аудиосигнала или сигнала, извлекаемого из результирующего аудиосигнала, в представление во временной области, чтобы получать обработанный декодированный аудиосигнал (116).
2. Устройство по п. 1, дополнительно содержащее декодер (129) улучшения полосы пропускания или моно-стерео- или моно-многоканальный декодер (131), чтобы вычислять сигнал, извлекаемый из результирующего аудиосигнала,
причем преобразователь (114) спектр-время сконфигурирован для выполнения не преобразования результирующего аудиосигнала, а сигнала, извлекаемого из результирующего аудиосигнала, во временную область, так что вся обработка посредством декодера (129) улучшения полосы пропускания или моно-стерео- или моно-многоканального декодера (131) выполняется в той же спектральной области, которая задана посредством каскада (106) преобразователя время-спектр.
3. Устройство по любому одному из пп. 1 или 2,
- в котором декодированный аудиосигнал является ACELP-декодированным выходным сигналом, и
- причем фильтр (102) является фильтром с долгосрочным предсказанием, управляемым посредством информации основного тона.
4. Устройство по любому одному из пп. 1 или 2,
- в котором модуль (108) взвешивания выполнен с возможностью взвешивания фильтрованного аудиосигнала таким образом, что подполосы более нижних частот ослабляются в меньшей степени или не ослабляются по сравнению с подполосами более верхних частот, так что частотно-избирательное взвешивание накладывает характеристику нижних частот на фильтрованный аудиосигнал.
5. Устройство по любому одному из пп. 1 или 2,
- в котором каскад (106) преобразователя время-спектр и преобразователь (114) спектр-время выполнены с возможностью реализовывать гребенку анализирующих QMF-фильтров и гребенку синтезирующих QMF-фильтров соответственно.
6. Устройство по любому одному из пп. 1 или 2,
- в котором модуль (112) вычитания выполнен с возможностью вычитания подполосного сигнала взвешенного фильтрованного аудиосигнала из соответствующего подполосного сигнала аудиосигнала, чтобы получать подполосу частот результирующего аудиосигнала, причем подполосы частот принадлежат тому же самому каналу гребенки фильтров.
7. Устройство по любому одному из пп. 1 или 2,
- в котором фильтр (102) выполнен с возможностью осуществлять комбинирование со взвешиванием аудиосигнала и, по меньшей мере, аудиосигнала, сдвинутого по времени на период основного тона.
8. Устройство по п. 7,
- в котором фильтр (102) выполнен с возможностью выполнения комбинирования со взвешиванием посредством комбинирования только аудиосигнала и аудиосигнала, существующего в предыдущие моменты времени.
9. Устройство по любому одному из пп. 1 или 2,
- в котором преобразователь (114) спектр-время имеет отличное число входных каналов относительно каскада (106) преобразователя время-спектр, так что получается преобразование частоты дискретизации, причем повышающая дискретизация получается, когда число входных каналов в преобразователь спектр-время выше числа выходных каналов каскада преобразователя время-спектр, и причем понижающая дискретизация выполняется, когда число входных каналов в преобразователь спектр-время меньше числа выходных каналов из каскада преобразователя время-спектр.
10. Устройство по п. 1, дополнительно содержащее:
- первый декодер (120) для предоставления декодированного аудиосигнала в первом временном отрезке;
- второй декодер (122) для предоставления дополнительного декодированного аудиосигнала в отличном втором временном отрезке;
- первую ветвь обработки, соединенную с первым декодером (120) и вторым декодером (122);
- вторую ветвь обработки, соединенную с первым декодером (120) и вторым декодером (122),
- причем вторая ветвь обработки содержит фильтр (102) и модуль (108) взвешивания и дополнительно содержит управляемый усилительный каскад (129) и контроллер (130), причем контроллер (130) выполнен с возможностью задания усиления усилительного каскада (129) равным первому значению для первого временного отрезка и второму значению, которое ниже первого значения, или нулю для второго временного отрезка.
11. Устройство по п. 1, дополнительно содержащее модуль отслеживания основного тона для предоставления запаздывания основного тона и для задания фильтра (102) на основе запаздывания основного тона в качестве информации основного тона.
12. Устройство по любому одному из пп. 10 или 11, в котором первый декодер (120) выполнен с возможностью предоставления информации основного тона или части информации основного тона для задания фильтра (102).
13. Устройство по любому одному из пп. 10 или 11, в котором выход первой ветви обработки и выход второй ветви обработки соединяются с входами модуля (112) вычитания.
14. Устройство по любому одному из пп. 1 или 2, в котором декодированный аудиосигнал предоставляется посредством ACELP-декодера (120), включенного в устройство, и
- причем устройство дополнительно содержит дополнительный декодер (122), реализованный в качестве TCX-декодера.
15. Способ обработки декодированного аудиосигнала (100), содержащий этапы, на которых:
- фильтруют (102) декодированный аудиосигнал, чтобы получать фильтрованный аудиосигнал (104);
- преобразуют (106) декодированный аудиосигнал и фильтрованный аудиосигнал в соответствующие спектральные представления, причем каждое спектральное представление имеет множество подполосных сигналов;
- выполняют (108) частотно-избирательное взвешивание фильтрованного аудиосигнала посредством умножения подполосных сигналов на соответствующие весовые коэффициенты, чтобы получать взвешенный фильтрованный аудиосигнал;
- выполняют (112) вычитание по подполосам между взвешенным фильтрованным аудиосигналом и спектральным представлением аудиосигнала, чтобы получать результирующий аудиосигнал; и
- преобразуют (114) результирующий аудиосигнал или сигнал, извлекаемый из результирующего аудиосигнала, в представление во временной области, чтобы получать обработанный декодированный аудиосигнал (116).
16. Считываемый компьютером носитель, содержащий программный код для осуществления, при выполнении на компьютере, способа обработки декодированного аудиосигнала по п. 15.
RU2013142138/08A 2011-02-14 2012-02-10 Устройство и способ для обработки декодированного аудиосигнала в спектральной области RU2560788C2 (ru)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201161442632P 2011-02-14 2011-02-14
US61/442,632 2011-02-14
PCT/EP2012/052292 WO2012110415A1 (en) 2011-02-14 2012-02-10 Apparatus and method for processing a decoded audio signal in a spectral domain

Publications (2)

Publication Number Publication Date
RU2013142138A RU2013142138A (ru) 2015-03-27
RU2560788C2 true RU2560788C2 (ru) 2015-08-20

Family

ID=71943604

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2013142138/08A RU2560788C2 (ru) 2011-02-14 2012-02-10 Устройство и способ для обработки декодированного аудиосигнала в спектральной области

Country Status (19)

Country Link
US (1) US9583110B2 (ru)
EP (1) EP2676268B1 (ru)
JP (1) JP5666021B2 (ru)
KR (1) KR101699898B1 (ru)
CN (1) CN103503061B (ru)
AR (1) AR085362A1 (ru)
AU (1) AU2012217269B2 (ru)
BR (1) BR112013020482B1 (ru)
CA (1) CA2827249C (ru)
ES (1) ES2529025T3 (ru)
HK (1) HK1192048A1 (ru)
MX (1) MX2013009344A (ru)
MY (1) MY164797A (ru)
PL (1) PL2676268T3 (ru)
RU (1) RU2560788C2 (ru)
SG (1) SG192746A1 (ru)
TW (1) TWI469136B (ru)
WO (1) WO2012110415A1 (ru)
ZA (1) ZA201306838B (ru)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2827000C (en) 2011-02-14 2016-04-05 Jeremie Lecomte Apparatus and method for error concealment in low-delay unified speech and audio coding (usac)
SG185519A1 (en) 2011-02-14 2012-12-28 Fraunhofer Ges Forschung Information signal representation using lapped transform
MX2013009304A (es) 2011-02-14 2013-10-03 Fraunhofer Ges Forschung Aparato y metodo para codificar una porcion de una señal de audio utilizando deteccion de un transiente y resultado de calidad.
TWI488177B (zh) 2011-02-14 2015-06-11 Fraunhofer Ges Forschung 使用頻譜域雜訊整形之基於線性預測的編碼方案
ES2529025T3 (es) * 2011-02-14 2015-02-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Aparato y método para procesar una señal de audio decodificada en un dominio espectral
ES2639646T3 (es) 2011-02-14 2017-10-27 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Codificación y decodificación de posiciones de impulso de pistas de una señal de audio
EP2720222A1 (en) * 2012-10-10 2014-04-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for efficient synthesis of sinusoids and sweeps by employing spectral patterns
EP4220636A1 (en) * 2012-11-05 2023-08-02 Panasonic Intellectual Property Corporation of America Speech audio encoding device and speech audio encoding method
PT2936484T (pt) * 2013-01-29 2018-03-29 Fraunhofer Ges Forschung Aparelho e método para processar um sinal codificado e codificador e método para gerar um sinal codificado
US10043528B2 (en) 2013-04-05 2018-08-07 Dolby International Ab Audio encoder and decoder
WO2014187987A1 (en) * 2013-05-24 2014-11-27 Dolby International Ab Methods for audio encoding and decoding, corresponding computer-readable media and corresponding audio encoder and decoder
RU2665281C2 (ru) * 2013-09-12 2018-08-28 Долби Интернэшнл Аб Временное согласование данных обработки на основе квадратурного зеркального фильтра
KR102244613B1 (ko) * 2013-10-28 2021-04-26 삼성전자주식회사 Qmf 필터링 방법 및 이를 수행하는 장치
EP2887350B1 (en) 2013-12-19 2016-10-05 Dolby Laboratories Licensing Corporation Adaptive quantization noise filtering of decoded audio data
JP6035270B2 (ja) * 2014-03-24 2016-11-30 株式会社Nttドコモ 音声復号装置、音声符号化装置、音声復号方法、音声符号化方法、音声復号プログラム、および音声符号化プログラム
EP2980799A1 (en) * 2014-07-28 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for processing an audio signal using a harmonic post-filter
TW202242853A (zh) 2015-03-13 2022-11-01 瑞典商杜比國際公司 解碼具有增強頻譜帶複製元資料在至少一填充元素中的音訊位元流
EP3079151A1 (en) * 2015-04-09 2016-10-12 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder and method for encoding an audio signal
CN106157966B (zh) * 2015-04-15 2019-08-13 宏碁股份有限公司 语音信号处理装置及语音信号处理方法
CN106297814B (zh) * 2015-06-02 2019-08-06 宏碁股份有限公司 语音信号处理装置及语音信号处理方法
US9613628B2 (en) 2015-07-01 2017-04-04 Gopro, Inc. Audio decoder for wind and microphone noise reduction in a microphone array system
CN117238300A (zh) * 2016-01-22 2023-12-15 弗劳恩霍夫应用研究促进协会 使用帧控制同步来编码或解码多声道音频信号的装置和方法
CN110062945B (zh) * 2016-12-02 2023-05-23 迪拉克研究公司 音频输入信号的处理
EP3382704A1 (en) * 2017-03-31 2018-10-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for determining a predetermined characteristic related to a spectral enhancement processing of an audio signal
WO2019107041A1 (ja) * 2017-12-01 2019-06-06 日本電信電話株式会社 ピッチ強調装置、その方法、およびプログラム
EP3671741A1 (en) * 2018-12-21 2020-06-24 FRAUNHOFER-GESELLSCHAFT zur Förderung der angewandten Forschung e.V. Audio processor and method for generating a frequency-enhanced audio signal using pulse processing
CN114280571B (zh) * 2022-03-04 2022-07-19 北京海兰信数据科技股份有限公司 一种雨杂波信号的处理方法、装置及设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EA001087B1 (ru) * 1995-12-01 2000-10-30 Диджитал Театр Системз, Инк. Многоканальный прогнозирующий кодировщик поддиапазона, использующий психоакустическое адаптивное распределение бит
RU2355046C2 (ru) * 2004-09-08 2009-05-10 Фраунхофер-Гезелльшафт Цур Фердерунг Дер Ангевандтен Форшунг Е.Ф. Устройство и способ для формирования многоканального сигнала или набора параметрических данных
RU2374703C2 (ru) * 2003-10-30 2009-11-27 Конинклейке Филипс Электроникс Н.В. Кодирование или декодирование аудиосигнала

Family Cites Families (224)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10007A (en) * 1853-09-13 Gear op variable cut-ofp valves for steau-ehgietes
BR9206143A (pt) 1991-06-11 1995-01-03 Qualcomm Inc Processos de compressão de final vocal e para codificação de taxa variável de quadros de entrada, aparelho para comprimir im sinal acústico em dados de taxa variável, codificador de prognóstico exitado por córdigo de taxa variável (CELP) e descodificador para descodificar quadros codificados
US5408580A (en) 1992-09-21 1995-04-18 Aware, Inc. Audio compression system employing multi-rate signal analysis
SE501340C2 (sv) 1993-06-11 1995-01-23 Ericsson Telefon Ab L M Döljande av transmissionsfel i en talavkodare
BE1007617A3 (nl) 1993-10-11 1995-08-22 Philips Electronics Nv Transmissiesysteem met gebruik van verschillende codeerprincipes.
US5657422A (en) 1994-01-28 1997-08-12 Lucent Technologies Inc. Voice activity detection driven noise remediator
US5784532A (en) 1994-02-16 1998-07-21 Qualcomm Incorporated Application specific integrated circuit (ASIC) for performing rapid speech compression in a mobile telephone system
US5684920A (en) 1994-03-17 1997-11-04 Nippon Telegraph And Telephone Acoustic signal transform coding method and decoding method having a high efficiency envelope flattening method therein
US5568588A (en) 1994-04-29 1996-10-22 Audiocodes Ltd. Multi-pulse analysis speech processing System and method
CN1090409C (zh) 1994-10-06 2002-09-04 皇家菲利浦电子有限公司 采用不同编码原理的传送系统
US5537510A (en) 1994-12-30 1996-07-16 Daewoo Electronics Co., Ltd. Adaptive digital audio encoding apparatus and a bit allocation method thereof
SE506379C3 (sv) 1995-03-22 1998-01-19 Ericsson Telefon Ab L M Lpc-talkodare med kombinerad excitation
US5727119A (en) 1995-03-27 1998-03-10 Dolby Laboratories Licensing Corporation Method and apparatus for efficient implementation of single-sideband filter banks providing accurate measures of spectral magnitude and phase
JP3317470B2 (ja) 1995-03-28 2002-08-26 日本電信電話株式会社 音響信号符号化方法、音響信号復号化方法
US5659622A (en) 1995-11-13 1997-08-19 Motorola, Inc. Method and apparatus for suppressing noise in a communication system
US5890106A (en) 1996-03-19 1999-03-30 Dolby Laboratories Licensing Corporation Analysis-/synthesis-filtering system with efficient oddly-stacked singleband filter bank using time-domain aliasing cancellation
US5848391A (en) 1996-07-11 1998-12-08 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V. Method subband of coding and decoding audio signals using variable length windows
JP3259759B2 (ja) 1996-07-22 2002-02-25 日本電気株式会社 音声信号伝送方法及び音声符号復号化システム
JPH10124092A (ja) 1996-10-23 1998-05-15 Sony Corp 音声符号化方法及び装置、並びに可聴信号符号化方法及び装置
US5960389A (en) 1996-11-15 1999-09-28 Nokia Mobile Phones Limited Methods for generating comfort noise during discontinuous transmission
JPH10214100A (ja) 1997-01-31 1998-08-11 Sony Corp 音声合成方法
US6134518A (en) 1997-03-04 2000-10-17 International Business Machines Corporation Digital audio signal coding using a CELP coder and a transform coder
SE512719C2 (sv) 1997-06-10 2000-05-02 Lars Gustaf Liljeryd En metod och anordning för reduktion av dataflöde baserad på harmonisk bandbreddsexpansion
JP3223966B2 (ja) 1997-07-25 2001-10-29 日本電気株式会社 音声符号化/復号化装置
US6070137A (en) 1998-01-07 2000-05-30 Ericsson Inc. Integrated frequency-domain voice coding using an adaptive spectral enhancement filter
DE69926821T2 (de) 1998-01-22 2007-12-06 Deutsche Telekom Ag Verfahren zur signalgesteuerten Schaltung zwischen verschiedenen Audiokodierungssystemen
GB9811019D0 (en) * 1998-05-21 1998-07-22 Univ Surrey Speech coders
US6173257B1 (en) 1998-08-24 2001-01-09 Conexant Systems, Inc Completed fixed codebook for speech encoder
US6439967B2 (en) 1998-09-01 2002-08-27 Micron Technology, Inc. Microelectronic substrate assembly planarizing machines and methods of mechanical and chemical-mechanical planarization of microelectronic substrate assemblies
SE521225C2 (sv) 1998-09-16 2003-10-14 Ericsson Telefon Ab L M Förfarande och anordning för CELP-kodning/avkodning
US6317117B1 (en) 1998-09-23 2001-11-13 Eugene Goff User interface for the control of an audio spectrum filter processor
US7272556B1 (en) 1998-09-23 2007-09-18 Lucent Technologies Inc. Scalable and embedded codec for speech and audio signals
US7124079B1 (en) 1998-11-23 2006-10-17 Telefonaktiebolaget Lm Ericsson (Publ) Speech coding with comfort noise variability feature for increased fidelity
FI114833B (fi) 1999-01-08 2004-12-31 Nokia Corp Menetelmä, puhekooderi ja matkaviestin puheenkoodauskehysten muodostamiseksi
DE19921122C1 (de) 1999-05-07 2001-01-25 Fraunhofer Ges Forschung Verfahren und Vorrichtung zum Verschleiern eines Fehlers in einem codierten Audiosignal und Verfahren und Vorrichtung zum Decodieren eines codierten Audiosignals
WO2000075919A1 (en) 1999-06-07 2000-12-14 Ericsson, Inc. Methods and apparatus for generating comfort noise using parametric noise model statistics
JP4464484B2 (ja) 1999-06-15 2010-05-19 パナソニック株式会社 雑音信号符号化装置および音声信号符号化装置
US6236960B1 (en) 1999-08-06 2001-05-22 Motorola, Inc. Factorial packing method and apparatus for information coding
US6636829B1 (en) 1999-09-22 2003-10-21 Mindspeed Technologies, Inc. Speech communication system and method for handling lost frames
ATE341074T1 (de) 2000-02-29 2006-10-15 Qualcomm Inc Multimodaler mischbereich-sprachkodierer mit geschlossener regelschleife
US6757654B1 (en) 2000-05-11 2004-06-29 Telefonaktiebolaget Lm Ericsson Forward error correction in speech coding
JP2002118517A (ja) 2000-07-31 2002-04-19 Sony Corp 直交変換装置及び方法、逆直交変換装置及び方法、変換符号化装置及び方法、並びに復号装置及び方法
FR2813722B1 (fr) 2000-09-05 2003-01-24 France Telecom Procede et dispositif de dissimulation d'erreurs et systeme de transmission comportant un tel dispositif
US6847929B2 (en) 2000-10-12 2005-01-25 Texas Instruments Incorporated Algebraic codebook system and method
CA2327041A1 (en) 2000-11-22 2002-05-22 Voiceage Corporation A method for indexing pulse positions and signs in algebraic codebooks for efficient coding of wideband signals
US6636830B1 (en) 2000-11-22 2003-10-21 Vialta Inc. System and method for noise reduction using bi-orthogonal modified discrete cosine transform
US20050130321A1 (en) 2001-04-23 2005-06-16 Nicholson Jeremy K. Methods for analysis of spectral data and their applications
US7136418B2 (en) 2001-05-03 2006-11-14 University Of Washington Scalable and perceptually ranked signal coding and decoding
KR100464369B1 (ko) 2001-05-23 2005-01-03 삼성전자주식회사 음성 부호화 시스템의 여기 코드북 탐색 방법
US20020184009A1 (en) 2001-05-31 2002-12-05 Heikkinen Ari P. Method and apparatus for improved voicing determination in speech signals containing high levels of jitter
US20030120484A1 (en) 2001-06-12 2003-06-26 David Wong Method and system for generating colored comfort noise in the absence of silence insertion description packets
DE10129240A1 (de) 2001-06-18 2003-01-02 Fraunhofer Ges Forschung Verfahren und Vorrichtung zum Verarbeiten von zeitdiskreten Audio-Abtastwerten
US6879955B2 (en) 2001-06-29 2005-04-12 Microsoft Corporation Signal modification based on continuous time warping for low bit rate CELP coding
US6941263B2 (en) * 2001-06-29 2005-09-06 Microsoft Corporation Frequency domain postfiltering for quality enhancement of coded speech
DE10140507A1 (de) 2001-08-17 2003-02-27 Philips Corp Intellectual Pty Verfahren für die algebraische Codebook-Suche eines Sprachsignalkodierers
US7711563B2 (en) 2001-08-17 2010-05-04 Broadcom Corporation Method and system for frame erasure concealment for predictive speech coding based on extrapolation of speech waveform
KR100438175B1 (ko) 2001-10-23 2004-07-01 엘지전자 주식회사 코드북 검색방법
US6934677B2 (en) 2001-12-14 2005-08-23 Microsoft Corporation Quantization matrices based on critical band pattern information for digital audio wherein quantization bands differ from critical bands
US7240001B2 (en) 2001-12-14 2007-07-03 Microsoft Corporation Quality improvement techniques in an audio encoder
CA2365203A1 (en) 2001-12-14 2003-06-14 Voiceage Corporation A signal modification method for efficient coding of speech signals
DE10200653B4 (de) 2002-01-10 2004-05-27 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Skalierbarer Codierer, Verfahren zum Codieren, Decodierer und Verfahren zum Decodieren für einen skalierten Datenstrom
CA2388439A1 (en) 2002-05-31 2003-11-30 Voiceage Corporation A method and device for efficient frame erasure concealment in linear predictive based speech codecs
CA2388358A1 (en) 2002-05-31 2003-11-30 Voiceage Corporation A method and device for multi-rate lattice vector quantization
CA2388352A1 (en) * 2002-05-31 2003-11-30 Voiceage Corporation A method and device for frequency-selective pitch enhancement of synthesized speed
US7302387B2 (en) 2002-06-04 2007-11-27 Texas Instruments Incorporated Modification of fixed codebook search in G.729 Annex E audio coding
US20040010329A1 (en) 2002-07-09 2004-01-15 Silicon Integrated Systems Corp. Method for reducing buffer requirements in a digital audio decoder
DE10236694A1 (de) 2002-08-09 2004-02-26 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum skalierbaren Codieren und Vorrichtung und Verfahren zum skalierbaren Decodieren
US7502743B2 (en) 2002-09-04 2009-03-10 Microsoft Corporation Multi-channel audio encoding and decoding with multi-channel transform selection
US7299190B2 (en) 2002-09-04 2007-11-20 Microsoft Corporation Quantization and inverse quantization for audio
CA2469674C (en) 2002-09-19 2012-04-24 Matsushita Electric Industrial Co., Ltd. Audio decoding apparatus and method
WO2004034379A2 (en) 2002-10-11 2004-04-22 Nokia Corporation Methods and devices for source controlled variable bit-rate wideband speech coding
US7343283B2 (en) 2002-10-23 2008-03-11 Motorola, Inc. Method and apparatus for coding a noise-suppressed audio signal
US7363218B2 (en) 2002-10-25 2008-04-22 Dilithium Networks Pty. Ltd. Method and apparatus for fast CELP parameter mapping
KR100463419B1 (ko) 2002-11-11 2004-12-23 한국전자통신연구원 적은 복잡도를 가진 고정 코드북 검색방법 및 장치
KR100463559B1 (ko) 2002-11-11 2004-12-29 한국전자통신연구원 대수 코드북을 이용하는 켈프 보코더의 코드북 검색방법
KR100465316B1 (ko) 2002-11-18 2005-01-13 한국전자통신연구원 음성 부호화기 및 이를 이용한 음성 부호화 방법
KR20040058855A (ko) 2002-12-27 2004-07-05 엘지전자 주식회사 음성 변조 장치 및 방법
AU2003208517A1 (en) 2003-03-11 2004-09-30 Nokia Corporation Switching between coding schemes
US7249014B2 (en) 2003-03-13 2007-07-24 Intel Corporation Apparatus, methods and articles incorporating a fast algebraic codebook search technique
US20050021338A1 (en) 2003-03-17 2005-01-27 Dan Graboi Recognition device and system
KR100556831B1 (ko) 2003-03-25 2006-03-10 한국전자통신연구원 전역 펄스 교체를 통한 고정 코드북 검색 방법
WO2004090870A1 (ja) 2003-04-04 2004-10-21 Kabushiki Kaisha Toshiba 広帯域音声を符号化または復号化するための方法及び装置
US7318035B2 (en) 2003-05-08 2008-01-08 Dolby Laboratories Licensing Corporation Audio coding systems and methods using spectral component coupling and spectral component regeneration
DE10321983A1 (de) 2003-05-15 2004-12-09 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Einbetten einer binären Nutzinformation in ein Trägersignal
ATE486348T1 (de) 2003-06-30 2010-11-15 Koninkl Philips Electronics Nv Verbesserung der qualität von dekodierten audio mittels hinzufügen von geräusch
DE10331803A1 (de) 2003-07-14 2005-02-17 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Umsetzen in eine transformierte Darstellung oder zum inversen Umsetzen der transformierten Darstellung
US6987591B2 (en) 2003-07-17 2006-01-17 Her Majesty The Queen In Right Of Canada, As Represented By The Minister Of Industry Through The Communications Research Centre Canada Volume hologram
DE10345995B4 (de) 2003-10-02 2005-07-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Verarbeiten eines Signals mit einer Sequenz von diskreten Werten
DE10345996A1 (de) 2003-10-02 2005-04-28 Fraunhofer Ges Forschung Vorrichtung und Verfahren zum Verarbeiten von wenigstens zwei Eingangswerten
US7418396B2 (en) 2003-10-14 2008-08-26 Broadcom Corporation Reduced memory implementation technique of filterbank and block switching for real-time audio applications
US20050091041A1 (en) 2003-10-23 2005-04-28 Nokia Corporation Method and system for speech coding
US20050091044A1 (en) 2003-10-23 2005-04-28 Nokia Corporation Method and system for pitch contour quantization in audio coding
EP1711938A1 (en) 2004-01-28 2006-10-18 Koninklijke Philips Electronics N.V. Audio signal decoding using complex-valued data
EP2770694A1 (en) 2004-02-12 2014-08-27 Core Wireless Licensing S.a.r.l. Classified media quality of experience
DE102004007200B3 (de) 2004-02-13 2005-08-11 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audiocodierung
CA2457988A1 (en) 2004-02-18 2005-08-18 Voiceage Corporation Methods and devices for audio compression based on acelp/tcx coding and multi-rate lattice vector quantization
FI118834B (fi) 2004-02-23 2008-03-31 Nokia Corp Audiosignaalien luokittelu
FI118835B (fi) 2004-02-23 2008-03-31 Nokia Corp Koodausmallin valinta
WO2005086138A1 (ja) 2004-03-05 2005-09-15 Matsushita Electric Industrial Co., Ltd. エラー隠蔽装置およびエラー隠蔽方法
WO2005096274A1 (fr) 2004-04-01 2005-10-13 Beijing Media Works Co., Ltd Dispositif et procede de codage/decodage audio ameliores
GB0408856D0 (en) 2004-04-21 2004-05-26 Nokia Corp Signal encoding
EP1747554B1 (en) 2004-05-17 2010-02-10 Nokia Corporation Audio encoding with different coding frame lengths
JP4168976B2 (ja) 2004-05-28 2008-10-22 ソニー株式会社 オーディオ信号符号化装置及び方法
US7649988B2 (en) 2004-06-15 2010-01-19 Acoustic Technologies, Inc. Comfort noise generator using modified Doblinger noise estimate
US8160274B2 (en) 2006-02-07 2012-04-17 Bongiovi Acoustics Llc. System and method for digital signal processing
US7630902B2 (en) 2004-09-17 2009-12-08 Digital Rise Technology Co., Ltd. Apparatus and methods for digital audio coding using codebook application ranges
KR100656788B1 (ko) 2004-11-26 2006-12-12 한국전자통신연구원 비트율 신축성을 갖는 코드벡터 생성 방법 및 그를 이용한 광대역 보코더
TWI253057B (en) 2004-12-27 2006-04-11 Quanta Comp Inc Search system and method thereof for searching code-vector of speech signal in speech encoder
JP5420175B2 (ja) 2005-01-31 2014-02-19 スカイプ 通信システムにおける隠蔽フレームの生成方法
US7519535B2 (en) 2005-01-31 2009-04-14 Qualcomm Incorporated Frame erasure concealment in voice communications
CN100593197C (zh) 2005-02-02 2010-03-03 富士通株式会社 信号处理方法和装置
US20070147518A1 (en) 2005-02-18 2007-06-28 Bruno Bessette Methods and devices for low-frequency emphasis during audio compression based on ACELP/TCX
US8155965B2 (en) 2005-03-11 2012-04-10 Qualcomm Incorporated Time warping frames inside the vocoder by modifying the residual
AU2006232361B2 (en) 2005-04-01 2010-12-23 Qualcomm Incorporated Methods and apparatus for encoding and decoding an highband portion of a speech signal
WO2006126843A2 (en) * 2005-05-26 2006-11-30 Lg Electronics Inc. Method and apparatus for decoding audio signal
US7707034B2 (en) * 2005-05-31 2010-04-27 Microsoft Corporation Audio codec post-filter
RU2296377C2 (ru) 2005-06-14 2007-03-27 Михаил Николаевич Гусев Способ анализа и синтеза речи
JP2008546341A (ja) 2005-06-18 2008-12-18 ノキア コーポレイション 非連続音声送信の際の擬似背景ノイズパラメータ適応送信のためのシステム及び方法
FR2888699A1 (fr) 2005-07-13 2007-01-19 France Telecom Dispositif de codage/decodage hierachique
KR100851970B1 (ko) 2005-07-15 2008-08-12 삼성전자주식회사 오디오 신호의 중요주파수 성분 추출방법 및 장치와 이를이용한 저비트율 오디오 신호 부호화/복호화 방법 및 장치
US7610197B2 (en) 2005-08-31 2009-10-27 Motorola, Inc. Method and apparatus for comfort noise generation in speech communication systems
RU2312405C2 (ru) 2005-09-13 2007-12-10 Михаил Николаевич Гусев Способ осуществления машинной оценки качества звуковых сигналов
US20070174047A1 (en) 2005-10-18 2007-07-26 Anderson Kyle D Method and apparatus for resynchronizing packetized audio streams
US7720677B2 (en) 2005-11-03 2010-05-18 Coding Technologies Ab Time warped modified transform coding of audio signals
US7536299B2 (en) 2005-12-19 2009-05-19 Dolby Laboratories Licensing Corporation Correlating and decorrelating transforms for multiple description coding systems
US8255207B2 (en) 2005-12-28 2012-08-28 Voiceage Corporation Method and device for efficient frame erasure concealment in speech codecs
WO2007080211A1 (en) * 2006-01-09 2007-07-19 Nokia Corporation Decoding of binaural audio signals
CN101371295B (zh) 2006-01-18 2011-12-21 Lg电子株式会社 用于编码和解码信号的设备和方法
WO2007083931A1 (en) 2006-01-18 2007-07-26 Lg Electronics Inc. Apparatus and method for encoding and decoding signal
US8032369B2 (en) 2006-01-20 2011-10-04 Qualcomm Incorporated Arbitrary average data rates for variable rate coders
FR2897733A1 (fr) 2006-02-20 2007-08-24 France Telecom Procede de discrimination et d'attenuation fiabilisees des echos d'un signal numerique dans un decodeur et dispositif correspondant
FR2897977A1 (fr) 2006-02-28 2007-08-31 France Telecom Procede de limitation de gain d'excitation adaptative dans un decodeur audio
US20070253577A1 (en) 2006-05-01 2007-11-01 Himax Technologies Limited Equalizer bank with interference reduction
EP1852848A1 (en) 2006-05-05 2007-11-07 Deutsche Thomson-Brandt GmbH Method and apparatus for lossless encoding of a source signal using a lossy encoded data stream and a lossless extension data stream
US7873511B2 (en) 2006-06-30 2011-01-18 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Audio encoder, audio decoder and audio processor having a dynamically variable warping characteristic
JP4810335B2 (ja) 2006-07-06 2011-11-09 株式会社東芝 広帯域オーディオ信号符号化装置および広帯域オーディオ信号復号装置
WO2008007700A1 (fr) 2006-07-12 2008-01-17 Panasonic Corporation Dispositif de décodage de son, dispositif de codage de son, et procédé de compensation de trame perdue
JP5052514B2 (ja) 2006-07-12 2012-10-17 パナソニック株式会社 音声復号装置
US7933770B2 (en) 2006-07-14 2011-04-26 Siemens Audiologische Technik Gmbh Method and device for coding audio data based on vector quantisation
CN102592303B (zh) 2006-07-24 2015-03-11 索尼株式会社 毛发运动合成器系统和用于毛发/皮毛流水线的优化技术
US7987089B2 (en) 2006-07-31 2011-07-26 Qualcomm Incorporated Systems and methods for modifying a zero pad region of a windowed frame of an audio signal
DE602007004502D1 (de) 2006-08-15 2010-03-11 Broadcom Corp Neuphasierung des status eines dekodiergerätes nach einem paketverlust
US7877253B2 (en) 2006-10-06 2011-01-25 Qualcomm Incorporated Systems, methods, and apparatus for frame erasure recovery
US8036903B2 (en) 2006-10-18 2011-10-11 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Analysis filterbank, synthesis filterbank, encoder, de-coder, mixer and conferencing system
US8126721B2 (en) 2006-10-18 2012-02-28 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Encoding an information signal
DE102006049154B4 (de) 2006-10-18 2009-07-09 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Kodierung eines Informationssignals
US8041578B2 (en) 2006-10-18 2011-10-18 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Encoding an information signal
US8417532B2 (en) 2006-10-18 2013-04-09 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Encoding an information signal
EP3288027B1 (en) * 2006-10-25 2021-04-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for generating complex-valued audio subband values
DE102006051673A1 (de) 2006-11-02 2008-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Nachbearbeiten von Spektralwerten und Encodierer und Decodierer für Audiosignale
BRPI0718738B1 (pt) 2006-12-12 2023-05-16 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V. Codificador, decodificador e métodos para codificação e decodificação de segmentos de dados representando uma corrente de dados de domínio de tempo
FR2911228A1 (fr) 2007-01-05 2008-07-11 France Telecom Codage par transformee, utilisant des fenetres de ponderation et a faible retard.
KR101379263B1 (ko) 2007-01-12 2014-03-28 삼성전자주식회사 대역폭 확장 복호화 방법 및 장치
FR2911426A1 (fr) 2007-01-15 2008-07-18 France Telecom Modification d'un signal de parole
US7873064B1 (en) 2007-02-12 2011-01-18 Marvell International Ltd. Adaptive jitter buffer-packet loss concealment
JP5596341B2 (ja) 2007-03-02 2014-09-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 音声符号化装置および音声符号化方法
SG179433A1 (en) 2007-03-02 2012-04-27 Panasonic Corp Encoding device and encoding method
JP4708446B2 (ja) 2007-03-02 2011-06-22 パナソニック株式会社 符号化装置、復号装置およびそれらの方法
DE102007063635A1 (de) 2007-03-22 2009-04-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren zur zeitlichen Segmentierung eines Videos in Videobildfolgen und zur Auswahl von Keyframes für das Auffinden von Bildinhalten unter Einbeziehung einer Subshot-Detektion
JP2008261904A (ja) 2007-04-10 2008-10-30 Matsushita Electric Ind Co Ltd 符号化装置、復号化装置、符号化方法および復号化方法
US8630863B2 (en) 2007-04-24 2014-01-14 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding audio/speech signal
CN101388210B (zh) 2007-09-15 2012-03-07 华为技术有限公司 编解码方法及编解码器
ES2529292T3 (es) 2007-04-29 2015-02-18 Huawei Technologies Co., Ltd. Método de codificación y de decodificación
PL2165328T3 (pl) 2007-06-11 2018-06-29 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Kodowanie i dekodowanie sygnału audio zawierającego część impulsową i część stacjonarną
US9653088B2 (en) 2007-06-13 2017-05-16 Qualcomm Incorporated Systems, methods, and apparatus for signal encoding using pitch-regularizing and non-pitch-regularizing coding
KR101513028B1 (ko) 2007-07-02 2015-04-17 엘지전자 주식회사 방송 수신기 및 방송신호 처리방법
US8185381B2 (en) 2007-07-19 2012-05-22 Qualcomm Incorporated Unified filter bank for performing signal conversions
CN101110214B (zh) * 2007-08-10 2011-08-17 北京理工大学 一种基于多描述格型矢量量化技术的语音编码方法
US8428957B2 (en) 2007-08-24 2013-04-23 Qualcomm Incorporated Spectral noise shaping in audio coding based on spectral dynamics in frequency sub-bands
ES2658942T3 (es) 2007-08-27 2018-03-13 Telefonaktiebolaget Lm Ericsson (Publ) Análisis espectral/síntesis de baja complejidad utilizando resolución temporal seleccionable
JP4886715B2 (ja) 2007-08-28 2012-02-29 日本電信電話株式会社 定常率算出装置、雑音レベル推定装置、雑音抑圧装置、それらの方法、プログラム及び記録媒体
US8566106B2 (en) 2007-09-11 2013-10-22 Voiceage Corporation Method and device for fast algebraic codebook search in speech and audio coding
CN100524462C (zh) 2007-09-15 2009-08-05 华为技术有限公司 对高带信号进行帧错误隐藏的方法及装置
US8576096B2 (en) 2007-10-11 2013-11-05 Motorola Mobility Llc Apparatus and method for low complexity combinatorial coding of signals
KR101373004B1 (ko) * 2007-10-30 2014-03-26 삼성전자주식회사 고주파수 신호 부호화 및 복호화 장치 및 방법
CN101425292B (zh) 2007-11-02 2013-01-02 华为技术有限公司 一种音频信号的解码方法及装置
DE102007055830A1 (de) 2007-12-17 2009-06-18 Zf Friedrichshafen Ag Verfahren und Vorrichtung zum Betrieb eines Hybridantriebes eines Fahrzeuges
CN101483043A (zh) 2008-01-07 2009-07-15 中兴通讯股份有限公司 基于分类和排列组合的码本索引编码方法
CN101488344B (zh) 2008-01-16 2011-09-21 华为技术有限公司 一种量化噪声泄漏控制方法及装置
DE102008015702B4 (de) 2008-01-31 2010-03-11 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zur Bandbreitenerweiterung eines Audiosignals
EP2250641B1 (en) 2008-03-04 2011-10-12 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus for mixing a plurality of input data streams
US8000487B2 (en) 2008-03-06 2011-08-16 Starkey Laboratories, Inc. Frequency translation by high-frequency spectral envelope warping in hearing assistance devices
FR2929466A1 (fr) 2008-03-28 2009-10-02 France Telecom Dissimulation d'erreur de transmission dans un signal numerique dans une structure de decodage hierarchique
EP2107556A1 (en) 2008-04-04 2009-10-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio transform coding using pitch correction
US8879643B2 (en) 2008-04-15 2014-11-04 Qualcomm Incorporated Data substitution scheme for oversampled data
US8768690B2 (en) 2008-06-20 2014-07-01 Qualcomm Incorporated Coding scheme selection for low-bit-rate applications
RU2515704C2 (ru) 2008-07-11 2014-05-20 Фраунхофер-Гезелльшафт Цур Фердерунг Дер Ангевандтен Форшунг Е.Ф. Аудиокодер и аудиодекодер для кодирования и декодирования отсчетов аудиосигнала
CN102150201B (zh) 2008-07-11 2013-04-17 弗劳恩霍夫应用研究促进协会 提供时间扭曲激活信号以及使用该时间扭曲激活信号对音频信号编码
AU2009267518B2 (en) 2008-07-11 2012-08-16 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for encoding/decoding an audio signal using an aliasing switch scheme
EP2144230A1 (en) 2008-07-11 2010-01-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Low bitrate audio encoding/decoding scheme having cascaded switches
MY154452A (en) * 2008-07-11 2015-06-15 Fraunhofer Ges Forschung An apparatus and a method for decoding an encoded audio signal
ES2683077T3 (es) 2008-07-11 2018-09-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Codificador y decodificador de audio para codificar y decodificar tramas de una señal de audio muestreada
MX2011000375A (es) 2008-07-11 2011-05-19 Fraunhofer Ges Forschung Codificador y decodificador de audio para codificar y decodificar tramas de una señal de audio muestreada.
CA2871268C (en) 2008-07-11 2015-11-03 Nikolaus Rettelbach Audio encoder, audio decoder, methods for encoding and decoding an audio signal, audio stream and computer program
US8380498B2 (en) 2008-09-06 2013-02-19 GH Innovation, Inc. Temporal envelope coding of energy attack signal by using attack point location
US8352279B2 (en) 2008-09-06 2013-01-08 Huawei Technologies Co., Ltd. Efficient temporal envelope coding approach by prediction between low band signal and high band signal
WO2010031049A1 (en) 2008-09-15 2010-03-18 GH Innovation, Inc. Improving celp post-processing for music signals
US8798776B2 (en) 2008-09-30 2014-08-05 Dolby International Ab Transcoding of audio metadata
DE102008042579B4 (de) 2008-10-02 2020-07-23 Robert Bosch Gmbh Verfahren zur Fehlerverdeckung bei fehlerhafter Übertragung von Sprachdaten
JP5555707B2 (ja) 2008-10-08 2014-07-23 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン マルチ分解能切替型のオーディオ符号化及び復号化スキーム
KR101315617B1 (ko) 2008-11-26 2013-10-08 광운대학교 산학협력단 모드 스위칭에 기초하여 윈도우 시퀀스를 처리하는 통합 음성/오디오 부/복호화기
CN101770775B (zh) * 2008-12-31 2011-06-22 华为技术有限公司 信号处理方法及装置
EP3598446B1 (en) 2009-01-16 2021-12-22 Dolby International AB Cross product enhanced harmonic transposition
TWI459375B (zh) * 2009-01-28 2014-11-01 Fraunhofer Ges Forschung 音訊編碼器、音訊解碼器、包含經編碼音訊資訊之數位儲存媒體、用以將音訊信號編碼及解碼之方法及電腦程式
US8457975B2 (en) 2009-01-28 2013-06-04 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Audio decoder, audio encoder, methods for decoding and encoding an audio signal and computer program
EP2214165A3 (en) 2009-01-30 2010-09-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus, method and computer program for manipulating an audio signal comprising a transient event
KR101441474B1 (ko) 2009-02-16 2014-09-17 한국전자통신연구원 적응적 정현파 펄스 코딩을 이용한 오디오 신호의 인코딩 및 디코딩 방법 및 장치
EP2234103B1 (en) 2009-03-26 2011-09-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Device and method for manipulating an audio signal
KR20100115215A (ko) 2009-04-17 2010-10-27 삼성전자주식회사 가변 비트율 오디오 부호화 및 복호화 장치 및 방법
RU2557455C2 (ru) 2009-06-23 2015-07-20 Войсэйдж Корпорейшн Прямая компенсация наложения спектров во временной области с применением в области взвешенного или исходного сигнала
JP5267362B2 (ja) 2009-07-03 2013-08-21 富士通株式会社 オーディオ符号化装置、オーディオ符号化方法及びオーディオ符号化用コンピュータプログラムならびに映像伝送装置
CN101958119B (zh) 2009-07-16 2012-02-29 中兴通讯股份有限公司 一种改进的离散余弦变换域音频丢帧补偿器和补偿方法
US8635357B2 (en) 2009-09-08 2014-01-21 Google Inc. Dynamic selection of parameter sets for transcoding media data
BR112012009032B1 (pt) 2009-10-20 2021-09-21 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e. V. Codificador de sinal de áudio, decodificador de sinal de áudio, método para prover uma representação codificada de um conteúdo de áudio, método para prover uma representação decodificada de um conteúdo de áudio para uso em aplicações de baixo retardamento
RU2591011C2 (ru) * 2009-10-20 2016-07-10 Фраунхофер-Гезелльшафт цур Фёрдерунг дер ангевандтен Форшунг Е.Ф. Кодер аудиосигнала, декодер аудиосигнала, способ кодирования или декодирования аудиосигнала с удалением алиасинга (наложения спектров)
PL2491555T3 (pl) 2009-10-20 2014-08-29 Fraunhofer Ges Forschung Wielotrybowy kodek audio
CN102081927B (zh) 2009-11-27 2012-07-18 中兴通讯股份有限公司 一种可分层音频编码、解码方法及系统
US8428936B2 (en) 2010-03-05 2013-04-23 Motorola Mobility Llc Decoder for audio signal including generic audio and speech frames
US8423355B2 (en) 2010-03-05 2013-04-16 Motorola Mobility Llc Encoder for audio signal including generic audio and speech frames
US8793126B2 (en) * 2010-04-14 2014-07-29 Huawei Technologies Co., Ltd. Time/frequency two dimension post-processing
WO2011147950A1 (en) 2010-05-28 2011-12-01 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Low-delay unified speech and audio codec
ES2529025T3 (es) * 2011-02-14 2015-02-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Aparato y método para procesar una señal de audio decodificada en un dominio espectral
SG192745A1 (en) 2011-02-14 2013-09-30 Fraunhofer Ges Forschung Noise generation in audio codecs
WO2013075753A1 (en) 2011-11-25 2013-05-30 Huawei Technologies Co., Ltd. An apparatus and a method for encoding an input signal

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EA001087B1 (ru) * 1995-12-01 2000-10-30 Диджитал Театр Системз, Инк. Многоканальный прогнозирующий кодировщик поддиапазона, использующий психоакустическое адаптивное распределение бит
RU2374703C2 (ru) * 2003-10-30 2009-11-27 Конинклейке Филипс Электроникс Н.В. Кодирование или декодирование аудиосигнала
RU2355046C2 (ru) * 2004-09-08 2009-05-10 Фраунхофер-Гезелльшафт Цур Фердерунг Дер Ангевандтен Форшунг Е.Ф. Устройство и способ для формирования многоканального сигнала или набора параметрических данных

Also Published As

Publication number Publication date
TW201237848A (en) 2012-09-16
CN103503061B (zh) 2016-02-17
HK1192048A1 (en) 2014-08-08
SG192746A1 (en) 2013-09-30
MY164797A (en) 2018-01-30
CA2827249C (en) 2016-08-23
ZA201306838B (en) 2014-05-28
KR101699898B1 (ko) 2017-01-25
TWI469136B (zh) 2015-01-11
EP2676268B1 (en) 2014-12-03
BR112013020482B1 (pt) 2021-02-23
JP2014510301A (ja) 2014-04-24
CN103503061A (zh) 2014-01-08
RU2013142138A (ru) 2015-03-27
KR20130133843A (ko) 2013-12-09
AR085362A1 (es) 2013-09-25
WO2012110415A1 (en) 2012-08-23
AU2012217269B2 (en) 2015-10-22
CA2827249A1 (en) 2012-08-23
ES2529025T3 (es) 2015-02-16
BR112013020482A2 (pt) 2018-07-10
JP5666021B2 (ja) 2015-02-04
EP2676268A1 (en) 2013-12-25
PL2676268T3 (pl) 2015-05-29
US20130332151A1 (en) 2013-12-12
AU2012217269A1 (en) 2013-09-05
MX2013009344A (es) 2013-10-01
US9583110B2 (en) 2017-02-28

Similar Documents

Publication Publication Date Title
RU2560788C2 (ru) Устройство и способ для обработки декодированного аудиосигнала в спектральной области
US9715883B2 (en) Multi-mode audio codec and CELP coding adapted therefore
US20180315434A1 (en) Harmonic Transposition in an Audio Coding Method and System
US11837246B2 (en) Harmonic transposition in an audio coding method and system
KR20130133848A (ko) 스펙트럼 도메인 잡음 형상화를 사용하는 선형 예측 기반 코딩 방식
CA3162808C (en) Improved harmonic transposition
AU2020201239A1 (en) Improved Harmonic Transposition
RU2574849C2 (ru) Устройство и способ для кодирования и декодирования аудиосигнала с использованием выровненной части опережающего просмотра