RU2575993C2 - Основанная на линейном предсказании схема кодирования, использующая формирование шума в спектральной области - Google Patents

Основанная на линейном предсказании схема кодирования, использующая формирование шума в спектральной области Download PDF

Info

Publication number
RU2575993C2
RU2575993C2 RU2013142133/08A RU2013142133A RU2575993C2 RU 2575993 C2 RU2575993 C2 RU 2575993C2 RU 2013142133/08 A RU2013142133/08 A RU 2013142133/08A RU 2013142133 A RU2013142133 A RU 2013142133A RU 2575993 C2 RU2575993 C2 RU 2575993C2
Authority
RU
Russia
Prior art keywords
spectrum
linear prediction
spectral
autocorrelation
audio encoder
Prior art date
Application number
RU2013142133/08A
Other languages
English (en)
Other versions
RU2013142133A (ru
Inventor
Горан МАРКОВИЧ
Гийом ФУКС
Николаус РЕТТЕЛЬБАХ
Кристиан ХЕЛЬМРИХ
Беньямин ШУБЕРТ
Original Assignee
Фраунхофер-Гезелльшафт Цур Фердерунг Дер Ангевандтен Форшунг Е.Ф.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Фраунхофер-Гезелльшафт Цур Фердерунг Дер Ангевандтен Форшунг Е.Ф. filed Critical Фраунхофер-Гезелльшафт Цур Фердерунг Дер Ангевандтен Форшунг Е.Ф.
Publication of RU2013142133A publication Critical patent/RU2013142133A/ru
Application granted granted Critical
Publication of RU2575993C2 publication Critical patent/RU2575993C2/ru

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/10Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a multipulse excitation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/028Noise substitution, i.e. substituting non-tonal spectral components by noisy source
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/022Blocking, i.e. grouping of samples in time; Choice of analysis windows; Overlap factoring
    • G10L19/025Detection of transients or attacks for time/frequency resolution switching
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/005Correction of errors induced by the transmission channel, if related to the coding algorithm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/012Comfort noise or silence coding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0212Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using orthogonal transformation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/03Spectral prediction for preventing pre-echo; Temporary noise shaping [TNS], e.g. in MPEG2 or MPEG4
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/06Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
    • G10L19/07Line spectrum pair [LSP] vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/10Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a multipulse excitation
    • G10L19/107Sparse pulse excitation, e.g. by using algebraic codebook
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • G10L19/13Residual excited linear prediction [RELP]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/22Mode decision, i.e. based on audio signal content versus external parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/06Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being correlation coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/022Blocking, i.e. grouping of samples in time; Choice of analysis windows; Overlap factoring
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/26Pre-filtering or post-filtering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Quality & Reliability (AREA)
  • Algebra (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Physics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

Изобретение относится к способу кодирования аудио сигнала и средствам для осуществления этого способа. Технический результат изобретения заключается в создании концепции кодирования, позволяющей уменьшить сложность при сопоставимой или даже увеличенной эффективности кодирования. Концепция кодирования, основанная на линейном предсказании при использовании спектрального разложения входного аудио сигнала для вычисления коэффициентов линейного предсказания, использует формирование шума в спектральной области на основании вычисленных коэффициентов линейного предсказания. Эффективность кодирования может сохраняться, даже если используется такое перекрывающееся преобразование для спектрального разложения, которое вызывает наложение и требует отмены наложения во времени, такое как критически дискретизированное перекрывающееся преобразование, например MDCT. 3 н. и 10 з.п. ф-лы, 4ил.

Description

Настоящее изобретение относится к основанному на линейном предсказании аудио кодеку, использующему формирование шума в частотной области, такому как режим TCX, известный из USAC.
В качестве относительно нового аудио кодека недавно был завершен USAC. USAC является кодеком, который поддерживает переключение между несколькими режимами кодирования, такими как AAC-подобный режим кодирования, режим кодирования во временной области, использующий кодирование с линейным предсказанием, а именно ACELP, и кодирование с возбуждением кодированным преобразованием, формирующее промежуточный режим кодирования, согласно которому формированием (изменением формы) спектральной области управляют, используя коэффициенты линейного предсказания, переданные с помощью потока данных. В документе WO2011147950 было сделано предложение представить схему кодирования USAC более подходящей для приложений с малыми задержками посредством исключения AAC-подобного режима кодирования из доступности и ограничения режимов кодирования только режимами ACELP и TCX. Кроме того, было предложено уменьшить длину кадра.
Однако было бы выгодно иметь под рукой возможность уменьшить сложность основанной на линейном предсказании схемы кодирования, используя формирование спектральной области, в то же время достигая аналогичной эффективности кодирования в терминах, например, восприятия отношения «частота следования битов/искажение».
Таким образом, задачей настоящего изобретения является обеспечить такую основанную на линейном предсказании схему кодирования, использующую формирование (изменение формы) спектральной области, позволяющую уменьшить сложность при сопоставимой или даже увеличенной эффективности кодирования.
Эта задача решается предметом изобретения согласно предложенным независимым пунктам формулы изобретения.
Основной идеей, лежащей в основе настоящего изобретения, является то, что понятие кодирования, которое является основанным на линейном предсказании и использует формирование (изменение формы) шума спектральной области, может быть обеспечено менее сложным при сопоставимой эффективности кодирования в терминах, например, отношения частоты следования битов/искажения, если спектральное разложение входного сигнала аудио в спектрограмму, содержащую последовательность спектров, используется как для вычислений коэффициентов линейного предсказания, так и для ввода для формирования (изменения формы) спектральной области, на основании коэффициентов линейного предсказания.
В этом отношении было установлено, что эффективность кодирования сохраняется, даже если такое перекрывающееся преобразование используется для спектрального разложения, которое вызывает наложение и требует отмены наложения во времени, такие как критически дискретизированные перекрывающиеся преобразования, например MDCT (модифицированное дискретное косинусное преобразование).
Выгодные реализации аспектов настоящего изобретения являются предметом зависимых пунктов формулы изобретения.
В частности, предпочтительные варианты осуществления настоящей заявки описаны со ссылками на чертежи, на которых
Фиг.1 показывает блок-схему аудио кодера в соответствии со сравнением или вариантом осуществления;
Фиг.2 показывает аудио кодер в соответствии с вариантом осуществления настоящей заявки;
Фиг.3 показывает блок-схему возможного аудио декодера, соответствующего аудио кодеру согласно Фиг.2; и
Фиг.4 показывает блок-схему альтернативного аудио кодера в соответствии с вариантом осуществления настоящей заявки.
Чтобы облегчить понимание основных аспектов и преимуществ вариантов осуществления настоящего изобретения, дополнительно описанного ниже, ссылка предварительно делается на Фиг.1, которая показывает основанный на линейном предсказании аудио кодер, использующий формирование (изменение формы) шума спектральной области.
В частности, аудио кодер согласно Фиг.1 содержит модуль 10 спектрального разложения для того, чтобы спектрально разложить входной сигнал 12 аудио в спектрограмму, состоящую из последовательности спектров, которая обозначена 14 на Фиг.1. Как показано на Фиг.1, модуль 10 спектрального разложения может использовать MDCT, чтобы передать сигнал 10 ввода аудио из временной области в спектральную область. В частности, модуль 16 выреза окна предшествует модулю MDCT 18 модуля 10 спектрального разложения так, чтобы вырезать в виде окна взаимно накладывающееся части входного сигнала 12 аудио, причем эти части в виде вырезанных окон являются индивидуально подлежащими соответствующему преобразованию в модуле 18 MDCT, чтобы получить спектры последовательности спектров спектрограммы 14. Однако модуль 10 спектрального разложения может, альтернативно, использовать любое другое перекрывающееся преобразование, вызывающее наложение, например любое другое критически дискретизированное перекрывающееся преобразование.
Далее, аудио кодер согласно Фиг.1 содержит анализатор 20 линейного предсказания для того, чтобы анализировать входной сигнал 12 аудио, чтобы получить из него коэффициенты линейного предсказания. Формирователь (блок изменения формы) 22 спектральной области из аудио кодера согласно Фиг.1 конфигурируется, чтобы спектрально формировать (изменять форму) текущий спектр последовательности спектров спектрограммы 14, на основании коэффициентов линейного предсказания, предоставленных анализатором 20 линейного предсказания. В частности, формирователь 22 спектральной области конфигурируется, чтобы спектрально формировать текущий спектр, поступающий в формирователь 22 спектральной области в соответствии с функцией передачи, которая соответствует функции передачи анализирующего фильтра с линейным предсказанием посредством преобразования коэффициентов линейного предсказания из анализатора 20 в спектральные взвешивающие значения и применения последних взвешивающих значений в качестве делителей, чтобы спектрально придать форму или сформировать текущий спектр. Сформированный спектр является подлежащим квантованию в квантователе 24 аудио кодера согласно Фиг.1. Из-за формирования в формирователе 22 спектральной области шум квантования, который получается после удаления формирования (устранения изменения формы) квантованного спектра на стороне декодера, смещается так, что становится скрытым, то есть кодирование является таким прозрачным для восприятия, насколько возможно.
Ради законченности только следует отметить, что модуль 26 формирования (изменения формы) временного шума может необязательно подвергать спектры, направленные от модуля 10 спектрального разложения к формирователю 22 спектральной области формированию временного шума, и модуль 28 предыскажения (предыскажения) низких частот может адаптивно фильтровать каждый сформированный спектр, выведенный формирователем 22 спектральной области перед квантованием 24.
Квантованный и спектрально формованный спектр вставляется в поток 30 данных наряду с информацией относительно коэффициентов линейного предсказания, используемых при спектральном формировании так, чтобы на стороне декодирования удаление формирования и обратное квантование могли быть выполнены.
Большинство частей аудио кодека, за одним исключением, являющимся модулем 26 TNS, показанным на Фиг.1, например, воплощены и описаны в новом аудио кодеке USAC и, в частности, в его режиме TCX. Соответственно, для дальнейших деталей, ссылка сделана, например, на стандарт USAC, например [1].
Однако больший акцент делается на следующее относительно анализатора 20 линейного предсказания. Как показано на Фиг.1, анализатор 20 линейного предсказания непосредственно оперирует над входным сигналом 12 аудио. Модуль 32 предварительного выделения (предыскажения) предварительно фильтрует входной сигнал 12 аудио посредством, например, фильтрования FIR и затем непрерывно выводит автокорреляцию посредством объединения модуля 34 выреза окна, автокоррелятора 36 и модуля 38 выреза окна с задержкой. Модуль 34 выреза окна формирует вырезанные в виде окон части из предварительно фильтрованного входного сигнала аудио, причем вырезанные в виде окон части могут взаимно накладываться во времени. Автокоррелятор 36 вычисляет автокорреляцию для каждой вырезанной в виде окна части, выведенной модулем 34 выреза окна, и модуль 38 выреза окна с задержкой необязательно предоставляется, чтобы применить функцию окна с задержкой к автокорреляциям, чтобы обеспечить автокорреляцию, более подходящую для следующего алгоритма оценки параметров линейного предсказания. В частности, модуль 40 оценки параметров линейного предсказания принимает выведенный сигнал окна с задержкой и выполняет, например, алгоритм Винера-Левинсона-Дурбина (Wiener-Levinson-Durbin) или другой подходящий алгоритм в отношении вырезанных в виде окон автокорреляций так, чтобы вывести коэффициенты линейного предсказания для каждой автокорреляции. В формирователе 22 спектральной области получающиеся коэффициенты линейного предсказания передают через цепь модулей 42, 44, 46 и 48. Модуль 42 ответственен за передачу информации относительно коэффициентов линейного предсказания в пределах потока 30 данных к стороне декодирования. Как показано на Фиг.1, модуль 42 вставки в поток данных коэффициентов линейного предсказания может быть сконфигурирован, чтобы выполнять квантование коэффициентов линейного предсказания, определенных анализатором 20 линейного предсказания в линейной спектральной паре или линейной спектральной частотной области с кодированием квантованных коэффициентов в поток 30 данных и повторное преобразование квантованных значений предсказания снова в коэффициенты LPC. Необязательно, некоторая интерполяция может использоваться, чтобы уменьшить частоту обновления, с которой информация в коэффициентах линейного предсказания передается в пределах потока 30 данных. Соответственно, последующий модуль 44, который ответственен за подвергание коэффициентов линейного предсказания относительно текущего спектра, входящего в формирователь 22 спектральной области, некоторому процессу взвешивания, обращается к коэффициентам линейного предсказания, когда они также доступны на стороне декодирования, то есть обращается к квантованным коэффициентам линейного предсказания. Последующий модуль 46 преобразовывает взвешенные коэффициенты линейного предсказания в спектральные весовые коэффициенты, которые затем применяются формирователем (модулем изменения формы) 48 шума частотной области так, чтобы спектрально формировать входящий текущий спектр.
Как стало ясным из вышеупомянутого обсуждения, анализ линейного предсказания, выполненный анализатором 20, вызывает служебные расходы, которые полностью составляют в целом спектральное разложение и формирование в спектральной области, выполненные в блоках 10 и 22, и соответственно, вычислительные служебные расходы являются значительными.
Фиг.2 показывает аудио кодер согласно варианту осуществления настоящей заявки, которая предлагает сопоставимую эффективность кодирования, но уменьшенную сложность кодирования.
Кратко говоря, в аудио кодере согласно Фиг.2, который представляет вариант осуществления настоящей заявки, анализатор линейного предсказания согласно Фиг.1 заменен объединением компьютера 50 автокорреляции и компьютера 52 коэффициентов линейного предсказания, последовательно включенных между модулем 10 спектрального разложения и формирователем 22 спектральной области. Мотивация для модификации от Фиг.1 к Фиг.2 и математическое объяснение, которое показывает подробные функциональные возможности модулей 50 и 52, предоставлены ниже. Однако очевидно, что вычислительные служебные расходы аудио кодера согласно Фиг.2 уменьшены по сравнению с аудио кодером согласно Фиг.1, рассматривая, что компьютер 50 автокорреляции вовлекает менее сложные вычисления по сравнению с последовательностью вычислений, связанных с автокорреляцией и вырезанием окна до автокорреляции.
Прежде, чем описать подробную и математическую структуру варианта осуществления согласно Фиг.2, кратко описана структура аудио кодера согласно Фиг.2. В частности, аудио кодер согласно Фиг.2, который в целом обозначен с использованием ссылочной позиции 60, содержит вход 62 для приема входного сигнала 12 аудио и выход 64 для вывода потока данных 30, в который аудио кодер кодирует входной сигнал 12 аудио. Модуль 10 спектрального разложения, формирователь 26 временного шума, формирователь 22 спектральной области, модуль 28 предыскажения низких частот и квантователь 24 соединены последовательно в порядке их упоминания между входом 62 и выходом 64. Формирователь 26 временного шума и модуль 28 предыскажения низких частот являются необязательными модулями и, в соответствии с альтернативным вариантом осуществления, могут быть опущены. Если имеется, формирователь 26 временного шума может быть сконфигурирован, чтобы быть активируемым адаптивно, то есть формирование временного шума формирователем 26 временного шума может быть активировано или дезактивировано в зависимости от характеристики входного сигнала аудио, например, с результатом решения, например, передаваемым стороне декодирования через поток 30 данных, как будет пояснено более подробно ниже.
Как показано на Фиг.1, формирователь 22 спектральной области согласно Фиг.2 внутренне сконструированы так, как это было описано относительно Фиг.1. Однако внутренняя структура согласно Фиг.2 не должна интерпретироваться как критическая проблема, и внутренняя структура формирователя 22 спектральной области может также быть отличной по сравнению с точной структурой, показанной на Фиг.2.
Компьютер 52 коэффициентов линейного предсказания согласно Фиг.2 содержит модуль 38 выреза окна с задержкой и модуль 40 оценки коэффициентов линейного предсказания, которые последовательно соединены между компьютером 50 автокорреляции с одной стороны и формирователем 22 спектральной области с другой стороны. Нужно отметить, что модуль выреза окна с задержкой, например, является также необязательным признаком. Если имеется, окно, примененное модулем 38 выреза окна с задержкой в отношении индивидуальных автокорреляций, предоставленных компьютером 50 автокорреляции, может быть Гауссовским окном или окном, имеющим биномиальную форму. Относительно модуля 40 оценки коэффициентов линейного предсказания следует отметить, что он не обязательно использует алгоритм Винера-Левинсона-Дурбина. Вместо этого другой алгоритм может использоваться, чтобы вычислять коэффициенты линейного предсказания.
Внутренне компьютер 50 автокорреляции содержит последовательность из компьютера 54 спектра мощности с последующим модулем 56 изменения масштаба/ спектрального взвешивания, за которым, в свою очередь, следует инверсный преобразователь 58. Детали и значение последовательности модулей 54-58 будут описаны более подробно ниже.
Чтобы понять то, почему возможно совместно использовать спектральное разложение модуля 10 разложения как для формирования шума спектральной области в формирователе 22 так и вычисления коэффициентов линейного предсказания, нужно рассмотреть теорему Винера-Хиничина (Wiener-Khinichin), которая показывает, что автокорреляция может быть вычислена, используя DFT (дискретное преобразование Фурье):
Figure 00000001
,
где
Figure 00000002
Таким образом, Rm являются коэффициентами автокорреляции для автокорреляции части xn сигнала, DFT которых является Xk.
Соответственно, если модуль 10 спектрального разложения использует DFT, чтобы реализовать перекрывающееся преобразование и генерирует последовательность спектров входного сигнала 12 аудио, то вычислитель 50 автокорреляции может быть в состоянии выполнить более быстрое вычисление автокорреляции при ее выводе, просто следуя только описанной в общих чертах теореме Винера-Хиничина.
Если требуются значения для всех задержек m автокорреляции, DFT модуля 10 спектрального разложения может быть выполнено, используя FFT (быстрое преобразование Фурье), и обратное FFT может быть использовано в компьютере 50 автокорреляции, чтобы вывести автокорреляцию из нее, используя упомянутую выше формулу. Когда, однако, необходимы только М<< N задержек, может быть быстрее использовать FFT для спектрального разложения и непосредственно применить обратное DFT, чтобы получить релевантные коэффициенты автокорреляции.
То же самое сохраняется истинным, когда упомянутое выше DFT заменяется на ODFT, то есть нечетно-частотное DFT, где обобщенное DFT временной последовательности x определяется как:
Figure 00000003
и
a=0 b=1/2
установлены для ODFT (нечетно-частотного DFT).
Если, однако, MDCT используется в варианте осуществления согласно Фиг.2, вместо DFT или FFT, ситуации отличаются. MDCT вовлекает дискретное косинусное преобразование типа IV и выявляет только спектр вещественных значений. Таким образом, информация фазы теряется этим преобразованием. MDCT может быть записано как:
Figure 00000004
,
где xn с n = 0... 2N-1 определяет текущую вырезанную в виде окна часть входного сигнала 12 аудио, которая выведена модулем 16 выреза окна, и Xk является, соответственно, k-м спектральным коэффициентом получающегося спектра для этой вырезанной в виде окна части.
Компьютер 54 спектра мощности вычисляет из выходного результата MDCT спектр мощности посредством возведения в квадрат каждого коэффициента Xk преобразования:
Figure 00000005
Отношение между спектром MDCT, который определен посредством Xk и ODFT- спектром X k O D F T
Figure 00000006
, может быть записано как:
Figure 00000007
Это означает, что использование MDCT вместо ODFT в качестве входного сигнала для компьютера 50 автокорреляции, выполняющего MDCT к процедуре автокорреляции, эквивалентно автокорреляции, полученной из ODFT с взвешиванием спектра
Figure 00000008
Это искажение определенной автокорреляции является, однако, прозрачным для стороны декодирования, поскольку формирование (изменение формы) спектральной области в формирователе 22 имеет место в точно той же самой спектральной области, что и для модуля 10 спектрального разложения, а именно MDCT. Другими словами, так как формирование шума частотной области формирователем 48 шума частотной области согласно Фиг.2 применяется в области MDCT, это фактически означает, что спектральное взвешивание f k m d c t
Figure 00000009
устраняет модуляцию MDCT и дает аналогичные результаты, которые обычное LPC, как показано на Фиг.1, произвело бы, когда MDCT было бы заменено на ODFT.
Соответственно, в компьютере 50 автокорреляции обратный преобразователь 58 выполняет обратное ODFT и обратное ODFT симметричного вещественного входного сигнала равно DCT типа II:
Figure 00000010
Таким образом, это позволяет осуществить быстрое вычисление LPC, основанное на MDCT, в компьютере 50 автокорреляции согласно Фиг.2, поскольку автокорреляция, как она определена обратным ODFT на выходе обратного преобразователя 58, приводит к относительно низкой вычислительной стоимости, поскольку просто менее значительные вычислительные этапы необходимы, такие как описанные выше в общих чертах возведение в квадрат и компьютер 54 спектра мощности и обратное ODFT в обратном преобразователе 58.
Детали относительно модуля 56 спектрального взвешивания/изменения масштаба еще не были описаны. В частности, этот модуль является необязательным и может быть удален или заменен прореживателем частотной области. Детали относительно возможных мер, выполняемых модулем 56, описаны ниже. Перед этим, однако, описаны в общих чертах некоторые детали относительно некоторых из других элементов, показанных на Фиг.2. Относительно модуля 38 выреза окна с задержкой, например, следует отметить, что он может выполнять компенсацию белого шума, чтобы улучшить приведение к требуемым условиям оценку коэффициентов линейного предсказания, выполняемую модулем 40 оценки. Взвешивание LPC, выполняемое в модуле 44, является необязательным, но если присутствует, оно может быть выполнено, чтобы достигнуть фактического расширения полосы частот. Таким образом, полюса LPC перемещаются к началу координат посредством константы согласно, например,
A'(z)= A ( z γ )
Figure 00000011
Таким образом, взвешивание LPC, выполненное таким образом, аппроксимирует одновременное маскирование. Константа γ, имеющая значение γ=0,92 или где-нибудь между 0,85 и 0,95, оба включительно, приводит к хорошим результатам.
Относительно модуля 42 следует отметить, что кодирование с переменной скоростью передачи в битах или некоторая другая схема статистического кодирования, могут использоваться, чтобы закодировать в поток 30 данных информацию относительно коэффициентов линейного предсказания. Как уже упомянуто выше, квантование может быть выполнено в области LSP/LSF, но область ISP/ISF также возможна.
Относительно модуля 46 LPC-в-MDCT, который преобразовывает LPC в значения спектрального взвешивания, которые называют, в случае области MDCT, коэффициентами передачи MDCT в нижеследующем, можно сослаться на, например, кодек USAC, где это преобразование поясняется подробно. Кратко говоря, коэффициенты LPC могут быть подлежащими обработке посредством ODFT, чтобы получить коэффициенты передачи MDCT, инверсия которых может затем использоваться в качестве весовых коэффициентов для формирования спектра в модуле 48, применяя получающиеся весовые коэффициенты на соответствующих частотных диапазонах спектра. Например, 16 коэффициентов LPC преобразуются в коэффициенты передачи MDCT. Естественно, вместо взвешивания с использованием инверсии, взвешивания с использованием коэффициентов передачи MDCT в неинвертированной форме используется на стороне декодера, чтобы получить функцию передачи, похожую на фильтр синтеза LPC, чтобы формировать шум квантования, как уже упомянуто выше. Таким образом, суммируя, в модуле 46 коэффициенты передачи, используемые посредством FDNS 48, получают из коэффициентов линейного предсказания, используя ODFT, и называют коэффициентами передачи MDCT в случае использования MDCT.
Для завершения рассмотрения, Фиг.3 показывает возможную реализацию для аудио декодера, который может использоваться, чтобы снова восстановить аудио сигнал из потока 30 данных. Декодер согласно Фиг.3 содержит модуль 80 удаления предыскажения низких частот, который является необязательным, модуль 82 удаления формирования (изменения формы) спектральной области, модуль 84 удаления временного шума, который является также необязательным, и преобразователь 86 из спектральной во временную область, которые последовательно соединены между входом 88 потока данных аудио декодера, на который поступает поток 30 данных, и выходом 90 аудио декодера, где восстановленный аудио сигнал выводится. Модуль удаления предыскажения низких частот принимает из потока 30 данных квантованный и спектрально сформированный спектр и выполняет его фильтрование, которое является обратным функции передачи модуля предыскажения низких частот согласно Фиг.2. Как уже упомянуто, модуль 80 удаления предыскажения является, однако, необязательным.
Модуль 82 удаления формирования спектральной области имеет структуру, которая очень сходна с таковой у формирователя 22 спектральной области из Фиг.2. В частности, внутри она содержит объединение модуля 92 извлечения LPC, модуль 94 взвешивания LPC, который равен модулю 44 взвешивания LPC, преобразователь 96 LPC-в-MDCT, который также равен модулю 46 из Фиг.2, и формирователь 98 шума частотной области, который применяет коэффициенты передачи MDCT к поступающему (несформированному) спектру, инверсно по отношению к FDNS 48 из Фиг.2, то есть посредством умножения, а не деления, чтобы получить функцию передачи, которая соответствует синтезирующему фильтру с линейным предсказанием коэффициентов линейного предсказания, извлеченных из потока 30 данных модулем 92 извлечения LPC. Модуль 92 извлечения LPC может выполнить вышеупомянутое повторное преобразование из соответствующей области квантования, такой как LSP/LSF или ISP/ISF, чтобы получить коэффициенты линейного предсказания для индивидуальных спектров, закодированных в поток 30 данных, для последовательных взаимно накладывающихся частей аудио сигнала, который подлежит восстановлению.
Формирователь 84 шума временной области инвертирует фильтрование модуля 26 согласно Фиг.2, и возможные реализации для этих модулей описаны более подробно ниже. В любом случае, однако, модуль 84 TNS из Фиг.3 является необязательным и может быть опущен, как было также упомянуто относительно модуля 26 TNS из Фиг.2.
Спектральный составитель 86 содержит, внутренне, инверсный преобразователь 100, выполняющий, например, IMDCT индивидуально над поступающими несформированными спектрами, с последующим модулем удаления наложения, таким как сумматор 102 добавления наложения, сконфигурированный так, чтобы корректно временно регистрировать восстановленные версии вырезанных окон, выведенные повторным преобразователем 100, чтобы выполнять отмену наложения во времени между ними и вывести восстановленный аудио сигнал на выходе 90.
Как уже упомянуто выше, из-за формирования 22 спектральной области в соответствии с функцией передачи, соответствующей анализирующему фильтру LPC, определенному коэффициентами LPC, переданными в потоке данных 30, квантование в квантователе 24, которое имеет, например, спектрально плоский шум, формируется (изменяет форму) посредством модуля 82 удаления формирования спектральной области на стороне декодирования таким образом, чтобы быть скрытым ниже порога маскирования.
Различные возможности существуют для того, чтобы реализовать модуль 26 TNS и его инверсию в декодере, а именно модуле 84. Формирование временного шума предназначено для того, чтобы сформировать шум во временном смысле во временных частях, к которым относятся индивидуальные спектры, спектрально сформированные формирователем спектральным области. Формирование временного шума особенно полезно в случае переходных процессов, присутствующих в пределах соответствующей временной части, к которой относится текущий спектр. В соответствии с конкретным вариантом осуществления формирователь 26 временного шума конфигурируется как предсказатель спектра, сконфигурированный чтобы фильтровать с предсказанием текущий спектр или последовательность спектров, выведенных модулем 10 спектрального разложения вдоль спектрального измерения (размерности). Таким образом, предсказатель 26 спектра может также определить коэффициенты фильтра предсказания, которые могут быть вставлены в поток 30 данных. Это иллюстрируется пунктирной линией на Фиг.2. Как следствие, отфильтрованные по временному шуму спектры уплощаются вдоль спектрального измерения и вследствие соотношений между спектральной областью и временной областью, обратного фильтрования в модуле 84 удаления формирования временного шума в соответствии с переданными фильтрами с предсказанием формирования шума временной области в пределах потока данных 30, это удаление формирования приводит к сокрытию или сжатию шума в моменты времени или время, в которое происходят воздействие или переходные процессы. Так называемое сигналы опережающего эха таким образом избегаются.
Другими словами, посредством фильтрования с предсказанием текущего спектра в формирователе 26 шума временной области, формирователь шума временной области 26 получает в качестве остатка спектра, то есть фильтрованный с предсказанием спектр, который направляется к формирователю 22 спектральной области, причем соответствующие коэффициенты предсказания вставлены в поток 30 данных. Модуль 84 удаления формирования шума временной области, в свою очередь, принимает от модуля 82 удаления формирования спектральной области спектр с удаленным изменением формы и инвертирует фильтрование временной области вдоль спектральной области, посредством инверсного фильтрования этого спектра в соответствии с фильтрами с предсказанием, принятыми из потока данных, или извлеченными из потока 30 данных. Другими словами, формирователь 26 шума временной области использует анализирующий фильтр с предсказанием, такой как фильтр с линейным предсказанием, тогда как модуль 84 удаления формирования шума временной области использует соответствующий синтезирующий фильтр, на основании тех же самых коэффициентов предсказания.
Как уже упомянуто, аудио кодер может быть сконфигурирован, чтобы решать - разрешить или запретить формирование временного шума в зависимости от коэффициента усиления фильтра с предсказанием или тональности или изменяемости сигнала 12 аудио входа в соответствующей временной части, соответствующей текущему спектру. Снова, соответствующая информация относительно решения вставляется в поток 30 данных.
Ниже описана возможность, согласно которой компьютер 50 автокорреляции конфигурируется, чтобы вычислять автокорреляцию из фильтрованной с предсказанием, то есть TNS-фильтрованной, версии спектра, вместо нефильтрованного спектра, как показано на Фиг.2. Существуют две возможности: TNS-фильтрованные спектры могут использоваться всякий раз, когда TNS применяется, или способом, выбранном аудио кодером, на основании, например, характеристик входного сигнала 12 аудио, который должен быть кодирован. Соответственно, аудио кодер согласно Фиг.4 отличается от аудио кодера согласно Фиг.2 тем, что вход компьютера 50 автокорреляции соединен как с выходом спектрального модуля 10 разложения, так и с выводом модуля 26 TNS.
Как упомянуто выше, TNS-фильтрованный MDCT-спектр, как выводится спектральным модулем 10 разложения, может использоваться как входной сигнал или основание для вычисления автокорреляции в компьютере 50. Как упомянуто выше, TNS-фильтрованный спектр может использоваться всякий раз, когда TNS применяется, или аудио кодер мог решить для спектров, к которым TNS был применено, между использованием нефильтрованного спектра или TNS-фильтрованного спектра. Это решение может быть принято, как упомянуто выше, в зависимости от характеристик входного сигнала аудио. Решение может быть, однако, прозрачным для декодера, который просто применяет информацию коэффициентов LPC для удаления формирования (изменения формы) частотной области. Другая возможность может состоять в том, что аудио кодер переключается между TNS-фильтрованным спектром и нефильтрованным спектром для спектров, к которым было применено TNS, то есть чтобы принимать решение между этими двумя вариантами для этих спектров, в зависимости от выбранной длины преобразования спектрального модуля 10 разложения.
Чтобы быть более точным, модуль 10 разложения на Фиг.4 может быть сконфигурирован, чтобы переключаться между различными длинами преобразования в спектральном разложении входного сигнала аудио так, чтобы спектры, выведенные модулем 10 спектрального разложения, имели бы различное спектральное разрешение. Таким образом, модуль 10 спектрального разложения может, например, использовать перекрывающееся преобразование, такое как MDCT, чтобы преобразовать взаимно накладывающиеся временные части различной длины на преобразования или спектры также переменной длины, где длина преобразования спектров соответствует длине соответствующих накладывающихся временных частей. В этом случае компьютер 50 автокорреляции может быть сконфигурирован, чтобы вычислять автокорреляцию из фильтрованного с предсказанием или TNS-фильтрованного текущего спектра в случае спектрального разрешения текущего спектра, удовлетворяющего заранее определенному критерию, или из нефильтрованного с предсказанием, то есть нефильтрованного, текущего спектра в случае спектрального разрешения текущего спектра, не удовлетворяющего заранее определенному критерию. Заранее определенный критерий может быть таким, например, что спектральное разрешение текущего спектра превышает некоторый порог. Например, использование TNS-фильтрованного спектра, который выведен модулем 26 TNS для вычисления автокорреляции, является выгодным для более длинных кадров (временных частей), таких как кадры дольше чем 15 миллисекунд, но может быть невыгодным для коротких кадров (временных частей) короче чем, например, 15 миллисекунд, и соответственно, входной сигнал в компьютер 50 автокорреляции для более длинных кадров может быть TNS-фильтрованным спектром MDCT, тогда как для более коротких кадров MDCT-спектр, который выводится модулем 10 разложения, может использоваться непосредственно.
До сих пор это еще не было описано, какие перцепционные релевантные модификации могут быть выполнены над спектром мощности в модуле 56. Ниже поясняются различные меры, и они могут быть применены индивидуально или в комбинации ко всем вариантам осуществления и вариантам, описанным до сих пор. В частности, взвешивание спектра может быть применено модулем 56 к спектру мощности, выведенному компьютером 54 спектра мощности. Взвешивание спектра может быть:
Figure 00000012
,
где Sk являются коэффициентами спектра мощности, как уже упомянуто выше.
Спектральное взвешивание может использоваться как механизм для того, чтобы распределить шум квантования в соответствии с психоакустическими аспектами. Взвешивание спектра, соответствующее предварительному выделению в смысле Фиг.1, может быть определено как:
Figure 00000013
Кроме того, изменение масштаба может быть использовано в модуле 56. Полный спектр может быть разделен, например, на М частотных диапазонов для спектров, соответствующих кадрам или временным частям длины выборки l1 и 2M частотных диапазонов для спектров, соответствующих временным частям кадров, имеющих длину выборки l2, в котором l2 может быть двукратным от l1, причем l1 может быть 64, 128 или 256. В частности, деление может подчиняться:
Figure 00000014
Деление частотного диапазона может включать в себя изменение частоты к аппроксимации шкалы Барка (Bark scale) согласно:
Figure 00000015
альтернативно, частотные диапазоны могут быть одинаково распределены, чтобы сформировать линейный масштаб (линейную шкалу) согласно:
lm=mN/M
Для спектров кадров длины l1, например, ряд частотных диапазонов могут находиться между 20 и 40 и между 48 и 72 для спектров, принадлежащих кадрам длины l2, в котором 32 частотных диапазона для спектров кадров длины l1 и 64 частотных диапазона для спектров кадров длины l2 являются предпочтительными.
Спектральное взвешивание и изменение частоты, как необязательно выполняется необязательным модулем 56, могут быть расценены как средство распределения битов (изменение формы шума квантования). Взвешивание спектра в линейном масштабе, соответствующем предварительному предыскажению, может быть выполнено, используя константу µ=0,9 или константу, лежащую где-нибудь между 0,8 и 0,95, так что соответствующее предварительное предыскажение (выделение) может приблизительно соответствовать изменению шкалы Барка.
Модификация спектра мощности в модуле 56 может включать в себя расширение по спектру спектра мощности, моделирование одновременного маскирования и таким образом заменить модули 44 и 94 LPC-взвешивания.
Если используется линейный масштаб и взвешивание спектра, соответствующее предварительному предыскажению, применяется, то результаты аудио кодера согласно Фиг.4, которые получают на стороне декодирования, то есть на выходе аудио декодера согласно Фиг.3, перцепционно очень подобны обычному результату реконструкции, который получают в соответствии с вариантом осуществления согласно Фиг.1.
Некоторые результаты тестов прослушивания были выполнены, используя варианты осуществления, идентифицированные выше. Из тестов оказалось, что обычный LPC-анализ, как показано на Фиг.1, и LPC-анализ, основанный на линейном масштабе MDCT, приводят к перцепционно эквивалентным результатам, когда
- взвешивание спектра в основанном на MDCT LPC-анализе соответствует предварительному предыскажению в обычном LPC-анализе,
- одно и то же вырезание окна используется в спектральном разложении, таком как синусоидальное окно с низкой степенью наложения, и
- линейный масштаб используется в основанном на MDCT LPC-анализе.
Незначительное различие между обычным LPC-анализом и основанным на линейном масштабе MDCT LPC-анализом, вероятно, происходит из факта, что LPC используется для формирования шума квантования и что есть достаточно битов при 48 кбит/сек, чтобы кодировать коэффициенты MDCT достаточно точно.
Далее, оказалось, что, использование масштаба Барка или нелинейного масштаба посредством применения изменения масштаба в модуле 56 приводит к эффективности кодирования или результатам тестов прослушивания, согласно которым масштаб Барка выигрывает у линейного масштаба для тестовых аудио частей “Applause”, “Fatboy”, “RockYou”, “Waiting”, “Bohemian”, “fuguepremikres”, “kraftwerk”, “lesvoleurs”, “teardrop”.
Масштаб Барка терпит неудачу для «хоккей» и «linchpin». Другим элементом, который имеет проблемы в масштабе Барка, является bibilolo, но он не был включен в тест, поскольку он придает экспериментальной музыке конкретную структуру спектра. Некоторые слушатели также выражали сильную неприязнь элементу “bibilolo”.
Однако для аудио кодера согласно Фиг.2 и 4 возможно переключаться между различными масштабами. Таким образом, модуль 56 может применить различное масштабирование для различных спектров в зависимости от характеристик аудио сигнала, таких как нестационарность или тональность, или использовать различные масштабы частоты, чтобы произвести множественные квантованные сигналы и меру для определения, какой из квантованных сигналов перцепционно лучше. Оказалось, что переключения масштаба приводят к усовершенствованиям в присутствии переходных процессов, таких как переходные процессы в «RockYou» и «linchpin» по сравнению с непереключенными версиями (Барка и линейным масштабом).
Нужно упомянуть, что вышеупомянутые обрисованные в общих чертах варианты осуществления могут использоваться в качестве режима TCX в многорежимном аудио кодеке, таком как кодек, поддерживающий ACELP, и вышеупомянутый описанный в общих чертах вариант осуществления в качестве TCX-подобного режима. В качестве создания кадров могут использоваться кадры постоянной длины, например, 20 миллисекунд. Таким образом, может быть получена своего рода версия с малой задержкой кодека USAC, которая является очень эффективной. В качестве TNS может использоваться TNS из AAC-ELD. Чтобы уменьшить количество битов, используемых для побочной информации, количество фильтров может быть фиксировано равным двум, один оперирующий от 600 Гц до 4500 Гц и второй от 4500 Гц до конца спектра основного кодера. Фильтры могут быть независимо включены и выключены. Фильтры могут быть применены и переданы как решетка, используя коэффициенты частичной автокорреляции. Максимальный порядок фильтра может быть установлен равным восьми, и четыре бита могут использоваться для каждого коэффициента фильтра. Кодирование Хаффмана может использоваться, чтобы сократить количество битов, используемых для порядка фильтра и для его коэффициентов.
Хотя некоторые аспекты были описаны в контексте устройства, ясно, что эти аспекты также представляют описание соответствующего способа, где блок или устройство соответствуют этапу способа или признаку этапа способа. Аналогично, аспекты, описанные в контексте этапа способа, также представляют описание соответствующего блока или элемента или признака соответствующего устройства. Некоторые или все этапы способа могут быть выполнены (или использоваться) устройством аппаратного обеспечения, как, например, микропроцессором, программируемым компьютером или электронной схемой. В некоторых вариантах осуществления некоторые один или более самых важных этапов способа могут быть выполнены таким устройством.
В зависимости от некоторых требований реализации варианты осуществления изобретения могут быть реализованы в аппаратном обеспечении или в программном обеспечении. Реализация может быть выполнена, используя цифровой носитель данных, например дискета, DVD, Blue-ray, компакт-диск, ROM, PROM, стираемая программируемая постоянная память PROM, EEPROM или флэш-память, имеющие электронно считываемые управляющие сигналы на них, которые совместно работают (или способны совместно работать) с программируемой компьютерной системой таким образом, что соответствующий способ выполняется. Поэтому цифровой носитель данных может быть считываемым компьютером.
Некоторые варианты осуществления согласно изобретению содержат носитель данных, имеющий электронно считываемые управляющие сигналы, которые способны совместно работать с программируемой компьютерной системой таким образом, что один из способов, описанных здесь, выполняется.
В целом, варианты осуществления настоящего изобретения могут быть реализованы как компьютерный программный продукт с программным кодом, причем программный код работает для того, чтобы выполнять один из способов, когда компьютерный программный продукт запускается на компьютере. Программный код может например быть сохранен на машиночитаемом носителе.
Другие варианты осуществления содержат компьютерную программу для того, чтобы выполнять один из способов, описанных здесь, сохраненную на машиночитаемом носителе.
Другими словами, вариантом осуществления изобретательного способа является поэтому компьютерная программа, имеющая программный код для того, чтобы выполнять один из способов, описанных здесь, когда компьютерная программа запускается на компьютере.
Другой вариант осуществления изобретенных способов является поэтому носителем информации (или цифровым запоминающим носителем или считываемым компьютером носителем), содержащим записанную на нем компьютерную программу для того, чтобы выполнять один из способов, описанных здесь. Носитель информации, цифровой носитель данных или записанный носитель обычно являются материальными и/или невременными.
Другой вариант осуществления изобретательного способа является поэтому потоком данных или последовательностью сигналов, представляющих компьютерную программу для того, чтобы выполнять один из способов, описанных здесь. Поток данных или последовательность сигналов могут например конфигурироваться, чтобы быть переданными через соединение передачи данных, например через Интернет.
Другой вариант осуществления содержит средство обработки, например, компьютер, или программируемое логическое устройство, конфигурируемое или приспособленное, чтобы выполнять один из способов, описанных здесь.
Другой вариант осуществления содержит компьютер, имеющий установленную на нем компьютерную программу для того, чтобы выполнять один из способов, описанных здесь.
Другой вариант осуществления согласно изобретению содержит устройство или систему, сконфигурированную, чтобы передать (например, электронно или оптически) компьютерную программу для того, чтобы выполнять один из способов, описанных здесь, на приемник. Приемник может, например, быть компьютером, мобильным устройством, устройством памяти или подобным. Устройство или система могут, например, содержать файловый сервер для того, чтобы передать компьютерную программу приемнику.
В некоторых вариантах осуществления программируемое логическое устройство (например, программируемая пользователем вентильная матрица) может использоваться, чтобы выполнять некоторые или все функциональные возможности способов, описанных здесь. В некоторых вариантах осуществления программируемая пользователем вентильная матрица может совместно работать с микропроцессором, чтобы выполнять один из способов, описанных здесь. В целом способы предпочтительно выполняются любым устройством аппаратного обеспечения.
Вышеупомянутые описанные варианты осуществления являются просто иллюстративными для принципов настоящего изобретения. Подразумевается, что модификации и изменения компоновок и деталей, описанных здесь, будут очевидны для специалистов в данной области техники. Поэтому изобретение предназначается быть ограниченным только объемом нижеследующей формулы изобретения, а не конкретными деталями, представленными здесь посредством описания и пояснениями вариантов осуществления.
Литература
[1]: US AC codec (Unified Speech and Audio Codec), ISO/IEC CD 23003-3 от 24 сентября 2010

Claims (13)

1. Аудио кодер, содержащий
модуль (10) спектрального разложения для того, чтобы спектрально разложить, используя MDCT, входной сигнал (12) аудио в спектрограмму (14) из последовательности спектров;
компьютер (50) автокорреляции, сконфигурированный, чтобы вычислять автокорреляцию из текущего спектра последовательности спектров;
компьютер (52) коэффициентов линейного предсказания, сконфигурированный, чтобы вычислять коэффициенты линейного предсказания на основании автокорреляции;
формирователь (22) спектральной области, сконфигурированный, чтобы спектрально формировать текущий спектр на основании коэффициентов линейного предсказания; и
каскад (24) квантования, сконфигурированный, чтобы квантовать спектрально сформированный спектр;
причем аудио кодер сконфигурирован, чтобы вставлять информацию относительно квантованного спектрально сформированного спектра и информацию относительно коэффициентов линейного предсказания в поток данных,
причем компьютер автокорреляции сконфигурирован, чтобы при вычислении автокорреляции из текущего спектра вычислять спектр мощности из текущего спектра и подвергать этот спектр мощности обратному ODFT преобразованию.
2. Аудио кодер по п.1, дополнительно содержащий
предсказатель (26) спектра, сконфигурированный для фильтрования с предсказанием текущего спектра вдоль спектрального измерения, причем формирователь спектральной области сконфигурирован, чтобы спектрально формировать фильтрованный с предсказанием текущий спектр, и аудио кодер сконфигурирован, чтобы вставить информацию относительно того, как инвертировать фильтрование с предсказанием в поток данных.
3. Аудио кодер по п.2, в котором предсказатель спектра сконфигурирован, чтобы выполнять фильтрование с линейным предсказанием в отношении текущего спектра вдоль спектрального измерения, при этом шаблон потока данных сконфигурирован таким образом, что информация относительно того, как инвертировать фильтрование с предсказанием, содержит информацию относительно дополнительных коэффициентов линейного предсказания, лежащих в основе фильтрования с линейным предсказанием в отношении текущего спектра вдоль спектрального измерения.
4. Аудио кодер по п.2, в котором аудио кодер сконфигурирован, чтобы решать - разрешить или запретить предсказатель спектра в зависимости от тональности или нестационарности входного сигнала аудио или коэффициента предсказания фильтра, при этом аудио кодер сконфигурирован, чтобы вставить информацию относительно этого решения.
5. Аудио кодер по п.2, в котором компьютер автокорреляции сконфигурирован, чтобы вычислять автокорреляцию из фильтрованного с предсказанием текущего спектра.
6. Аудио кодер по п.2, в котором модуль (10) спектрального разложения сконфигурирован так, чтобы переключаться между различными длинами преобразования при спектральном разложении входного сигнала (12) аудио так, чтобы спектры имели различное спектральное разрешение, при этом компьютер (50) автокорреляции сконфигурирован так, чтобы вычислять автокорреляцию из фильтрованного с предсказанием текущего спектра в случае, если спектральное разрешение текущего спектра удовлетворяет заранее определенному критерию, или из не фильтрованного с предсказанием текущего спектра в случае, если спектральное разрешение текущего спектра не удовлетворяет заранее определенному критерию.
7. Аудио кодер по п.6, в котором компьютер автокорреляции сконфигурирован таким образом, что заранее определенный критерий удовлетворяется, если спектральное разрешение текущего спектра выше, чем порог спектрального разрешения.
8. Аудио кодер по п.1, в котором компьютер автокорреляции сконфигурирован для, при вычислении автокорреляции из текущего спектра, вычисления спектра мощности из текущего спектра, перцепционного взвешивания спектра мощности и подвергания перцепционно взвешенного спектра мощности инверсному преобразованию ODFT в качестве перцепционно взвешенного.
9. Аудио кодер по п.8, в котором компьютер автокорреляции сконфигурирован, чтобы изменять масштаб частоты текущего спектра и выполнять перцепционное взвешивание спектра мощности в измененном масштабе частоты.
10. Аудио кодер по п.1, в котором аудио кодер сконфигурирован, чтобы вставлять информацию относительно коэффициентов линейного предсказания в поток данных в квантованной форме, при этом формирователь спектральной области сконфигурирован, чтобы спектрально формировать текущий спектр на основании квантованных коэффициентов линейного предсказания.
11. Аудио кодер по п.9, в котором аудио кодер сконфигурирован, чтобы вставлять информацию относительно коэффициентов линейного предсказания в поток данных в форме, согласно которой квантование коэффициентов линейного предсказания имеет место в области LSF или LSP.
12. Способ кодирования аудио, содержащий:
спектральное разложение, используя MDCT, входного сигнала (12) аудио в спектрограмму (14) из последовательности спектров;
вычисление автокорреляции из текущего спектра последовательности спектров;
вычисление коэффициентов линейного предсказания на основании автокорреляции;
спектральное формирование текущего спектра на основании коэффициентов линейного предсказания;
квантование спектрально сформированного спектра; и
вставку информации относительно квантованного спектрально сформированного спектра и информации относительно коэффициентов линейного предсказания в поток данных, причем вычисление автокорреляции из текущего спектра содержит вычисление спектра мощности из текущего спектра и подвергание спектра мощности обратному ODFT преобразованию.
13. Машиночитаемый носитель, содержащий записанную на нем компьютерную программу, которая при запуске на компьютере выполняет способ по п.12.
RU2013142133/08A 2011-02-14 2012-02-14 Основанная на линейном предсказании схема кодирования, использующая формирование шума в спектральной области RU2575993C2 (ru)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201161442632P 2011-02-14 2011-02-14
US61/442,632 2011-02-14
PCT/EP2012/052455 WO2012110476A1 (en) 2011-02-14 2012-02-14 Linear prediction based coding scheme using spectral domain noise shaping

Publications (2)

Publication Number Publication Date
RU2013142133A RU2013142133A (ru) 2015-03-27
RU2575993C2 true RU2575993C2 (ru) 2016-02-27

Family

ID=71943596

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2013142133/08A RU2575993C2 (ru) 2011-02-14 2012-02-14 Основанная на линейном предсказании схема кодирования, использующая формирование шума в спектральной области

Country Status (19)

Country Link
US (1) US9595262B2 (ru)
EP (1) EP2676266B1 (ru)
JP (1) JP5625126B2 (ru)
KR (1) KR101617816B1 (ru)
CN (1) CN103477387B (ru)
AR (1) AR085794A1 (ru)
AU (1) AU2012217156B2 (ru)
BR (2) BR112013020592B1 (ru)
CA (1) CA2827277C (ru)
ES (1) ES2534972T3 (ru)
HK (1) HK1192050A1 (ru)
MX (1) MX2013009346A (ru)
MY (1) MY165853A (ru)
PL (1) PL2676266T3 (ru)
RU (1) RU2575993C2 (ru)
SG (1) SG192748A1 (ru)
TW (1) TWI488177B (ru)
WO (1) WO2012110476A1 (ru)
ZA (1) ZA201306840B (ru)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2730315C (en) * 2008-07-11 2014-12-16 Jeremie Lecomte Audio encoder and decoder for encoding frames of sampled audio signals
CA2777073C (en) * 2009-10-08 2015-11-24 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Multi-mode audio signal decoder, multi-mode audio signal encoder, methods and computer program using a linear-prediction-coding based noise shaping
EP2707873B1 (en) * 2011-05-09 2015-04-08 Dolby International AB Method and encoder for processing a digital stereo audio signal
MX347080B (es) * 2013-01-29 2017-04-11 Fraunhofer Ges Forschung Llenado con ruido sin informacion secundaria para celp (para codificadores tipo celp).
EP4336500A3 (en) * 2014-04-17 2024-04-03 VoiceAge EVS LLC Methods, encoder and decoder for linear predictive encoding and decoding of sound signals upon transition between frames having different sampling rates
CN106537500B (zh) * 2014-05-01 2019-09-13 日本电信电话株式会社 周期性综合包络序列生成装置、周期性综合包络序列生成方法、记录介质
EP2980798A1 (en) * 2014-07-28 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Harmonicity-dependent controlling of a harmonic filter tool
US10310826B2 (en) * 2015-11-19 2019-06-04 Intel Corporation Technologies for automatic reordering of sparse matrices
AU2017208561B2 (en) 2016-01-22 2020-04-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for MDCT M/S stereo with global ILD with improved mid/side decision
EP3382701A1 (en) * 2017-03-31 2018-10-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for post-processing an audio signal using prediction based shaping
EP3483883A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio coding and decoding with selective postfiltering
EP3483886A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Selecting pitch lag
EP3483882A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Controlling bandwidth in encoders and/or decoders
EP3483884A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Signal filtering
WO2019091576A1 (en) 2017-11-10 2019-05-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoders, audio decoders, methods and computer programs adapting an encoding and decoding of least significant bits
EP3483879A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Analysis/synthesis windowing function for modulated lapped transformation
EP3483878A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio decoder supporting a set of different loss concealment tools
WO2019091573A1 (en) 2017-11-10 2019-05-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for encoding and decoding an audio signal using downsampling or interpolation of scale parameters
EP3483880A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Temporal noise shaping
CN112639967A (zh) 2018-07-04 2021-04-09 弗劳恩霍夫应用研究促进协会 使用信号白化作为预处理的多信号音频编码
US11527252B2 (en) 2019-08-30 2022-12-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. MDCT M/S stereo
CN116114016A (zh) * 2020-07-07 2023-05-12 弗劳恩霍夫应用研究促进协会 音频量化器和音频去量化器以及相关方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1852851A1 (en) * 2004-04-01 2007-11-07 Beijing Media Works Co., Ltd An enhanced audio encoding/decoding device and method
EP2144171A1 (en) * 2008-07-11 2010-01-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder and decoder for encoding and decoding frames of a sampled audio signal
RU2389085C2 (ru) * 2004-02-18 2010-05-10 Войсэйдж Корпорейшн Способы и устройства для введения низкочастотных предыскажений в ходе сжатия звука на основе acelp/tcx

Family Cites Families (208)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2225321T3 (es) 1991-06-11 2005-03-16 Qualcomm Incorporated Aparaato y procedimiento para el enmascaramiento de errores en tramas de datos.
US5408580A (en) 1992-09-21 1995-04-18 Aware, Inc. Audio compression system employing multi-rate signal analysis
SE501340C2 (sv) 1993-06-11 1995-01-23 Ericsson Telefon Ab L M Döljande av transmissionsfel i en talavkodare
BE1007617A3 (nl) 1993-10-11 1995-08-22 Philips Electronics Nv Transmissiesysteem met gebruik van verschillende codeerprincipes.
US5657422A (en) 1994-01-28 1997-08-12 Lucent Technologies Inc. Voice activity detection driven noise remediator
US5784532A (en) 1994-02-16 1998-07-21 Qualcomm Incorporated Application specific integrated circuit (ASIC) for performing rapid speech compression in a mobile telephone system
US5684920A (en) * 1994-03-17 1997-11-04 Nippon Telegraph And Telephone Acoustic signal transform coding method and decoding method having a high efficiency envelope flattening method therein
US5568588A (en) 1994-04-29 1996-10-22 Audiocodes Ltd. Multi-pulse analysis speech processing System and method
KR100419545B1 (ko) 1994-10-06 2004-06-04 코닌클리케 필립스 일렉트로닉스 엔.브이. 다른코딩원리들을이용한전송시스템
EP0720316B1 (en) * 1994-12-30 1999-12-08 Daewoo Electronics Co., Ltd Adaptive digital audio encoding apparatus and a bit allocation method thereof
SE506379C3 (sv) 1995-03-22 1998-01-19 Ericsson Telefon Ab L M Lpc-talkodare med kombinerad excitation
US5727119A (en) 1995-03-27 1998-03-10 Dolby Laboratories Licensing Corporation Method and apparatus for efficient implementation of single-sideband filter banks providing accurate measures of spectral magnitude and phase
JP3317470B2 (ja) 1995-03-28 2002-08-26 日本電信電話株式会社 音響信号符号化方法、音響信号復号化方法
US5754733A (en) * 1995-08-01 1998-05-19 Qualcomm Incorporated Method and apparatus for generating and encoding line spectral square roots
US5659622A (en) 1995-11-13 1997-08-19 Motorola, Inc. Method and apparatus for suppressing noise in a communication system
US5890106A (en) 1996-03-19 1999-03-30 Dolby Laboratories Licensing Corporation Analysis-/synthesis-filtering system with efficient oddly-stacked singleband filter bank using time-domain aliasing cancellation
US5848391A (en) 1996-07-11 1998-12-08 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V. Method subband of coding and decoding audio signals using variable length windows
JP3259759B2 (ja) 1996-07-22 2002-02-25 日本電気株式会社 音声信号伝送方法及び音声符号復号化システム
US5960389A (en) 1996-11-15 1999-09-28 Nokia Mobile Phones Limited Methods for generating comfort noise during discontinuous transmission
JPH10214100A (ja) 1997-01-31 1998-08-11 Sony Corp 音声合成方法
US6134518A (en) 1997-03-04 2000-10-17 International Business Machines Corporation Digital audio signal coding using a CELP coder and a transform coder
SE512719C2 (sv) 1997-06-10 2000-05-02 Lars Gustaf Liljeryd En metod och anordning för reduktion av dataflöde baserad på harmonisk bandbreddsexpansion
JP3223966B2 (ja) 1997-07-25 2001-10-29 日本電気株式会社 音声符号化/復号化装置
US6070137A (en) 1998-01-07 2000-05-30 Ericsson Inc. Integrated frequency-domain voice coding using an adaptive spectral enhancement filter
ES2247741T3 (es) 1998-01-22 2006-03-01 Deutsche Telekom Ag Metodo para conmutacion controlada por señales entre esquemas de codificacion de audio.
GB9811019D0 (en) 1998-05-21 1998-07-22 Univ Surrey Speech coders
US6173257B1 (en) 1998-08-24 2001-01-09 Conexant Systems, Inc Completed fixed codebook for speech encoder
US6439967B2 (en) 1998-09-01 2002-08-27 Micron Technology, Inc. Microelectronic substrate assembly planarizing machines and methods of mechanical and chemical-mechanical planarization of microelectronic substrate assemblies
SE521225C2 (sv) 1998-09-16 2003-10-14 Ericsson Telefon Ab L M Förfarande och anordning för CELP-kodning/avkodning
US7272556B1 (en) 1998-09-23 2007-09-18 Lucent Technologies Inc. Scalable and embedded codec for speech and audio signals
US7124079B1 (en) 1998-11-23 2006-10-17 Telefonaktiebolaget Lm Ericsson (Publ) Speech coding with comfort noise variability feature for increased fidelity
FI114833B (fi) 1999-01-08 2004-12-31 Nokia Corp Menetelmä, puhekooderi ja matkaviestin puheenkoodauskehysten muodostamiseksi
DE19921122C1 (de) 1999-05-07 2001-01-25 Fraunhofer Ges Forschung Verfahren und Vorrichtung zum Verschleiern eines Fehlers in einem codierten Audiosignal und Verfahren und Vorrichtung zum Decodieren eines codierten Audiosignals
JP4024427B2 (ja) * 1999-05-24 2007-12-19 株式会社リコー 線形予測係数抽出装置、線形予測係数抽出方法、およびその方法をコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体
CN1145928C (zh) 1999-06-07 2004-04-14 艾利森公司 用参数噪声模型统计量产生舒适噪声的方法及装置
JP4464484B2 (ja) 1999-06-15 2010-05-19 パナソニック株式会社 雑音信号符号化装置および音声信号符号化装置
US6236960B1 (en) 1999-08-06 2001-05-22 Motorola, Inc. Factorial packing method and apparatus for information coding
US6636829B1 (en) 1999-09-22 2003-10-21 Mindspeed Technologies, Inc. Speech communication system and method for handling lost frames
JP4907826B2 (ja) 2000-02-29 2012-04-04 クゥアルコム・インコーポレイテッド 閉ループのマルチモードの混合領域の線形予測音声コーダ
JP2002118517A (ja) 2000-07-31 2002-04-19 Sony Corp 直交変換装置及び方法、逆直交変換装置及び方法、変換符号化装置及び方法、並びに復号装置及び方法
FR2813722B1 (fr) 2000-09-05 2003-01-24 France Telecom Procede et dispositif de dissimulation d'erreurs et systeme de transmission comportant un tel dispositif
US6847929B2 (en) 2000-10-12 2005-01-25 Texas Instruments Incorporated Algebraic codebook system and method
US6636830B1 (en) 2000-11-22 2003-10-21 Vialta Inc. System and method for noise reduction using bi-orthogonal modified discrete cosine transform
CA2327041A1 (en) 2000-11-22 2002-05-22 Voiceage Corporation A method for indexing pulse positions and signs in algebraic codebooks for efficient coding of wideband signals
US20050130321A1 (en) 2001-04-23 2005-06-16 Nicholson Jeremy K. Methods for analysis of spectral data and their applications
US7136418B2 (en) 2001-05-03 2006-11-14 University Of Washington Scalable and perceptually ranked signal coding and decoding
US7206739B2 (en) 2001-05-23 2007-04-17 Samsung Electronics Co., Ltd. Excitation codebook search method in a speech coding system
US20020184009A1 (en) 2001-05-31 2002-12-05 Heikkinen Ari P. Method and apparatus for improved voicing determination in speech signals containing high levels of jitter
US20030120484A1 (en) 2001-06-12 2003-06-26 David Wong Method and system for generating colored comfort noise in the absence of silence insertion description packets
DE10129240A1 (de) 2001-06-18 2003-01-02 Fraunhofer Ges Forschung Verfahren und Vorrichtung zum Verarbeiten von zeitdiskreten Audio-Abtastwerten
US6879955B2 (en) 2001-06-29 2005-04-12 Microsoft Corporation Signal modification based on continuous time warping for low bit rate CELP coding
US7711563B2 (en) 2001-08-17 2010-05-04 Broadcom Corporation Method and system for frame erasure concealment for predictive speech coding based on extrapolation of speech waveform
DE10140507A1 (de) 2001-08-17 2003-02-27 Philips Corp Intellectual Pty Verfahren für die algebraische Codebook-Suche eines Sprachsignalkodierers
KR100438175B1 (ko) 2001-10-23 2004-07-01 엘지전자 주식회사 코드북 검색방법
US6934677B2 (en) 2001-12-14 2005-08-23 Microsoft Corporation Quantization matrices based on critical band pattern information for digital audio wherein quantization bands differ from critical bands
CA2365203A1 (en) 2001-12-14 2003-06-14 Voiceage Corporation A signal modification method for efficient coding of speech signals
US7240001B2 (en) 2001-12-14 2007-07-03 Microsoft Corporation Quality improvement techniques in an audio encoder
DE10200653B4 (de) 2002-01-10 2004-05-27 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Skalierbarer Codierer, Verfahren zum Codieren, Decodierer und Verfahren zum Decodieren für einen skalierten Datenstrom
CA2388439A1 (en) 2002-05-31 2003-11-30 Voiceage Corporation A method and device for efficient frame erasure concealment in linear predictive based speech codecs
CA2388358A1 (en) 2002-05-31 2003-11-30 Voiceage Corporation A method and device for multi-rate lattice vector quantization
CA2388352A1 (en) 2002-05-31 2003-11-30 Voiceage Corporation A method and device for frequency-selective pitch enhancement of synthesized speed
US7302387B2 (en) 2002-06-04 2007-11-27 Texas Instruments Incorporated Modification of fixed codebook search in G.729 Annex E audio coding
US20040010329A1 (en) 2002-07-09 2004-01-15 Silicon Integrated Systems Corp. Method for reducing buffer requirements in a digital audio decoder
DE10236694A1 (de) 2002-08-09 2004-02-26 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum skalierbaren Codieren und Vorrichtung und Verfahren zum skalierbaren Decodieren
US7502743B2 (en) 2002-09-04 2009-03-10 Microsoft Corporation Multi-channel audio encoding and decoding with multi-channel transform selection
US7299190B2 (en) 2002-09-04 2007-11-20 Microsoft Corporation Quantization and inverse quantization for audio
AU2003260958A1 (en) * 2002-09-19 2004-04-08 Matsushita Electric Industrial Co., Ltd. Audio decoding apparatus and method
WO2004034379A2 (en) 2002-10-11 2004-04-22 Nokia Corporation Methods and devices for source controlled variable bit-rate wideband speech coding
US7343283B2 (en) 2002-10-23 2008-03-11 Motorola, Inc. Method and apparatus for coding a noise-suppressed audio signal
US7363218B2 (en) 2002-10-25 2008-04-22 Dilithium Networks Pty. Ltd. Method and apparatus for fast CELP parameter mapping
KR100463559B1 (ko) 2002-11-11 2004-12-29 한국전자통신연구원 대수 코드북을 이용하는 켈프 보코더의 코드북 검색방법
KR100463419B1 (ko) 2002-11-11 2004-12-23 한국전자통신연구원 적은 복잡도를 가진 고정 코드북 검색방법 및 장치
KR100465316B1 (ko) 2002-11-18 2005-01-13 한국전자통신연구원 음성 부호화기 및 이를 이용한 음성 부호화 방법
KR20040058855A (ko) 2002-12-27 2004-07-05 엘지전자 주식회사 음성 변조 장치 및 방법
WO2004082288A1 (en) 2003-03-11 2004-09-23 Nokia Corporation Switching between coding schemes
US7249014B2 (en) 2003-03-13 2007-07-24 Intel Corporation Apparatus, methods and articles incorporating a fast algebraic codebook search technique
US20050021338A1 (en) 2003-03-17 2005-01-27 Dan Graboi Recognition device and system
KR100556831B1 (ko) 2003-03-25 2006-03-10 한국전자통신연구원 전역 펄스 교체를 통한 고정 코드북 검색 방법
WO2004090870A1 (ja) 2003-04-04 2004-10-21 Kabushiki Kaisha Toshiba 広帯域音声を符号化または復号化するための方法及び装置
DE10321983A1 (de) 2003-05-15 2004-12-09 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Einbetten einer binären Nutzinformation in ein Trägersignal
KR101058062B1 (ko) 2003-06-30 2011-08-19 코닌클리케 필립스 일렉트로닉스 엔.브이. 잡음 부가에 의한 디코딩된 오디오의 품질 개선
DE10331803A1 (de) 2003-07-14 2005-02-17 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Umsetzen in eine transformierte Darstellung oder zum inversen Umsetzen der transformierten Darstellung
CA2475282A1 (en) 2003-07-17 2005-01-17 Her Majesty The Queen In Right Of Canada As Represented By The Minister Of Industry Through The Communications Research Centre Volume hologram
DE10345995B4 (de) 2003-10-02 2005-07-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Verarbeiten eines Signals mit einer Sequenz von diskreten Werten
DE10345996A1 (de) 2003-10-02 2005-04-28 Fraunhofer Ges Forschung Vorrichtung und Verfahren zum Verarbeiten von wenigstens zwei Eingangswerten
US7418396B2 (en) 2003-10-14 2008-08-26 Broadcom Corporation Reduced memory implementation technique of filterbank and block switching for real-time audio applications
US20050091044A1 (en) 2003-10-23 2005-04-28 Nokia Corporation Method and system for pitch contour quantization in audio coding
US20050091041A1 (en) 2003-10-23 2005-04-28 Nokia Corporation Method and system for speech coding
JP2007520748A (ja) 2004-01-28 2007-07-26 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 複素値データを用いたオーディオ信号の復号
WO2005088929A1 (en) 2004-02-12 2005-09-22 Nokia Corporation Classified media quality of experience
DE102004007200B3 (de) 2004-02-13 2005-08-11 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audiocodierung
FI118834B (fi) 2004-02-23 2008-03-31 Nokia Corp Audiosignaalien luokittelu
FI118835B (fi) 2004-02-23 2008-03-31 Nokia Corp Koodausmallin valinta
JP4744438B2 (ja) 2004-03-05 2011-08-10 パナソニック株式会社 エラー隠蔽装置およびエラー隠蔽方法
GB0408856D0 (en) 2004-04-21 2004-05-26 Nokia Corp Signal encoding
BRPI0418838A (pt) 2004-05-17 2007-11-13 Nokia Corp método para suportar uma codificação de um sinal de áudio, módulo para suportar uma codificação de um sinal de áudio, dispositivo eletrÈnico, sistema de codificação de áudio, e, produto de programa de software
JP4168976B2 (ja) 2004-05-28 2008-10-22 ソニー株式会社 オーディオ信号符号化装置及び方法
US7649988B2 (en) 2004-06-15 2010-01-19 Acoustic Technologies, Inc. Comfort noise generator using modified Doblinger noise estimate
US8160274B2 (en) 2006-02-07 2012-04-17 Bongiovi Acoustics Llc. System and method for digital signal processing
US7630902B2 (en) 2004-09-17 2009-12-08 Digital Rise Technology Co., Ltd. Apparatus and methods for digital audio coding using codebook application ranges
KR100656788B1 (ko) 2004-11-26 2006-12-12 한국전자통신연구원 비트율 신축성을 갖는 코드벡터 생성 방법 및 그를 이용한 광대역 보코더
CA2596337C (en) 2005-01-31 2014-08-19 Sonorit Aps Method for generating concealment frames in communication system
JP4519169B2 (ja) 2005-02-02 2010-08-04 富士通株式会社 信号処理方法および信号処理装置
US20070147518A1 (en) 2005-02-18 2007-06-28 Bruno Bessette Methods and devices for low-frequency emphasis during audio compression based on ACELP/TCX
US8155965B2 (en) 2005-03-11 2012-04-10 Qualcomm Incorporated Time warping frames inside the vocoder by modifying the residual
US7707034B2 (en) 2005-05-31 2010-04-27 Microsoft Corporation Audio codec post-filter
RU2296377C2 (ru) 2005-06-14 2007-03-27 Михаил Николаевич Гусев Способ анализа и синтеза речи
CA2609945C (en) 2005-06-18 2012-12-04 Nokia Corporation System and method for adaptive transmission of comfort noise parameters during discontinuous speech transmission
FR2888699A1 (fr) 2005-07-13 2007-01-19 France Telecom Dispositif de codage/decodage hierachique
KR100851970B1 (ko) * 2005-07-15 2008-08-12 삼성전자주식회사 오디오 신호의 중요주파수 성분 추출방법 및 장치와 이를이용한 저비트율 오디오 신호 부호화/복호화 방법 및 장치
US7610197B2 (en) 2005-08-31 2009-10-27 Motorola, Inc. Method and apparatus for comfort noise generation in speech communication systems
RU2312405C2 (ru) 2005-09-13 2007-12-10 Михаил Николаевич Гусев Способ осуществления машинной оценки качества звуковых сигналов
US20070174047A1 (en) 2005-10-18 2007-07-26 Anderson Kyle D Method and apparatus for resynchronizing packetized audio streams
US7720677B2 (en) 2005-11-03 2010-05-18 Coding Technologies Ab Time warped modified transform coding of audio signals
US8255207B2 (en) 2005-12-28 2012-08-28 Voiceage Corporation Method and device for efficient frame erasure concealment in speech codecs
WO2007080211A1 (en) 2006-01-09 2007-07-19 Nokia Corporation Decoding of binaural audio signals
CN101371297A (zh) 2006-01-18 2009-02-18 Lg电子株式会社 用于编码和解码信号的设备和方法
BRPI0707135A2 (pt) * 2006-01-18 2011-04-19 Lg Electronics Inc. aparelho e método para codificação e decodificação de sinal
US8032369B2 (en) 2006-01-20 2011-10-04 Qualcomm Incorporated Arbitrary average data rates for variable rate coders
FR2897733A1 (fr) 2006-02-20 2007-08-24 France Telecom Procede de discrimination et d'attenuation fiabilisees des echos d'un signal numerique dans un decodeur et dispositif correspondant
FR2897977A1 (fr) 2006-02-28 2007-08-31 France Telecom Procede de limitation de gain d'excitation adaptative dans un decodeur audio
EP1852848A1 (en) 2006-05-05 2007-11-07 Deutsche Thomson-Brandt GmbH Method and apparatus for lossless encoding of a source signal using a lossy encoded data stream and a lossless extension data stream
DE602007003023D1 (de) * 2006-05-30 2009-12-10 Koninkl Philips Electronics Nv Linear-prädiktive codierung eines audiosignals
US7959940B2 (en) 2006-05-30 2011-06-14 Advanced Cardiovascular Systems, Inc. Polymer-bioceramic composite implantable medical devices
JP4810335B2 (ja) 2006-07-06 2011-11-09 株式会社東芝 広帯域オーディオ信号符号化装置および広帯域オーディオ信号復号装置
JP5190363B2 (ja) 2006-07-12 2013-04-24 パナソニック株式会社 音声復号装置、音声符号化装置、および消失フレーム補償方法
US8812306B2 (en) 2006-07-12 2014-08-19 Panasonic Intellectual Property Corporation Of America Speech decoding and encoding apparatus for lost frame concealment using predetermined number of waveform samples peripheral to the lost frame
US7933770B2 (en) 2006-07-14 2011-04-26 Siemens Audiologische Technik Gmbh Method and device for coding audio data based on vector quantisation
WO2008013788A2 (en) 2006-07-24 2008-01-31 Sony Corporation A hair motion compositor system and optimization techniques for use in a hair/fur pipeline
US7987089B2 (en) 2006-07-31 2011-07-26 Qualcomm Incorporated Systems and methods for modifying a zero pad region of a windowed frame of an audio signal
US20080046233A1 (en) 2006-08-15 2008-02-21 Broadcom Corporation Packet Loss Concealment for Sub-band Predictive Coding Based on Extrapolation of Full-band Audio Waveform
US7877253B2 (en) 2006-10-06 2011-01-25 Qualcomm Incorporated Systems, methods, and apparatus for frame erasure recovery
US8126721B2 (en) 2006-10-18 2012-02-28 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Encoding an information signal
DE102006049154B4 (de) 2006-10-18 2009-07-09 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Kodierung eines Informationssignals
US8036903B2 (en) 2006-10-18 2011-10-11 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Analysis filterbank, synthesis filterbank, encoder, de-coder, mixer and conferencing system
US8417532B2 (en) 2006-10-18 2013-04-09 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Encoding an information signal
US8041578B2 (en) 2006-10-18 2011-10-18 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Encoding an information signal
PT2076901T (pt) 2006-10-25 2017-08-23 Fraunhofer Ges Forschung Aparelho e método para gerar valores de sub-banda de áudio e aparelho e método para gerar amostras de áudio de domínio de tempo
DE102006051673A1 (de) 2006-11-02 2008-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Nachbearbeiten von Spektralwerten und Encodierer und Decodierer für Audiosignale
CA2672165C (en) 2006-12-12 2014-07-29 Ralf Geiger Encoder, decoder and methods for encoding and decoding data segments representing a time-domain data stream
FR2911228A1 (fr) 2007-01-05 2008-07-11 France Telecom Codage par transformee, utilisant des fenetres de ponderation et a faible retard.
KR101379263B1 (ko) 2007-01-12 2014-03-28 삼성전자주식회사 대역폭 확장 복호화 방법 및 장치
FR2911426A1 (fr) 2007-01-15 2008-07-18 France Telecom Modification d'un signal de parole
US7873064B1 (en) 2007-02-12 2011-01-18 Marvell International Ltd. Adaptive jitter buffer-packet loss concealment
EP2128855A1 (en) 2007-03-02 2009-12-02 Panasonic Corporation Voice encoding device and voice encoding method
SG179433A1 (en) 2007-03-02 2012-04-27 Panasonic Corp Encoding device and encoding method
JP4708446B2 (ja) 2007-03-02 2011-06-22 パナソニック株式会社 符号化装置、復号装置およびそれらの方法
DE102007013811A1 (de) 2007-03-22 2008-09-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren zur zeitlichen Segmentierung eines Videos in Videobildfolgen und zur Auswahl von Keyframes für das Auffinden von Bildinhalten unter Einbeziehung einer Subshot-Detektion
JP2008261904A (ja) 2007-04-10 2008-10-30 Matsushita Electric Ind Co Ltd 符号化装置、復号化装置、符号化方法および復号化方法
US8630863B2 (en) 2007-04-24 2014-01-14 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding audio/speech signal
EP2157573B1 (en) 2007-04-29 2014-11-26 Huawei Technologies Co., Ltd. An encoding and decoding method
CN101388210B (zh) 2007-09-15 2012-03-07 华为技术有限公司 编解码方法及编解码器
MY146431A (en) 2007-06-11 2012-08-15 Fraunhofer Ges Forschung Audio encoder for encoding an audio signal having an impulse-like portion and stationary portion, encoding methods, decoder, decoding method, and encoded audio signal
US9653088B2 (en) 2007-06-13 2017-05-16 Qualcomm Incorporated Systems, methods, and apparatus for signal encoding using pitch-regularizing and non-pitch-regularizing coding
KR101513028B1 (ko) 2007-07-02 2015-04-17 엘지전자 주식회사 방송 수신기 및 방송신호 처리방법
US8185381B2 (en) 2007-07-19 2012-05-22 Qualcomm Incorporated Unified filter bank for performing signal conversions
CN101110214B (zh) 2007-08-10 2011-08-17 北京理工大学 一种基于多描述格型矢量量化技术的语音编码方法
US8428957B2 (en) * 2007-08-24 2013-04-23 Qualcomm Incorporated Spectral noise shaping in audio coding based on spectral dynamics in frequency sub-bands
ES2658942T3 (es) 2007-08-27 2018-03-13 Telefonaktiebolaget Lm Ericsson (Publ) Análisis espectral/síntesis de baja complejidad utilizando resolución temporal seleccionable
JP4886715B2 (ja) 2007-08-28 2012-02-29 日本電信電話株式会社 定常率算出装置、雑音レベル推定装置、雑音抑圧装置、それらの方法、プログラム及び記録媒体
CN101842833B (zh) 2007-09-11 2012-07-18 沃伊斯亚吉公司 语音和音频编码中快速代数码本搜索的方法和设备
CN100524462C (zh) 2007-09-15 2009-08-05 华为技术有限公司 对高带信号进行帧错误隐藏的方法及装置
US8576096B2 (en) 2007-10-11 2013-11-05 Motorola Mobility Llc Apparatus and method for low complexity combinatorial coding of signals
KR101373004B1 (ko) 2007-10-30 2014-03-26 삼성전자주식회사 고주파수 신호 부호화 및 복호화 장치 및 방법
CN101425292B (zh) 2007-11-02 2013-01-02 华为技术有限公司 一种音频信号的解码方法及装置
DE102007055830A1 (de) 2007-12-17 2009-06-18 Zf Friedrichshafen Ag Verfahren und Vorrichtung zum Betrieb eines Hybridantriebes eines Fahrzeuges
CN101483043A (zh) 2008-01-07 2009-07-15 中兴通讯股份有限公司 基于分类和排列组合的码本索引编码方法
CN101488344B (zh) 2008-01-16 2011-09-21 华为技术有限公司 一种量化噪声泄漏控制方法及装置
DE102008015702B4 (de) 2008-01-31 2010-03-11 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zur Bandbreitenerweiterung eines Audiosignals
RU2473140C2 (ru) 2008-03-04 2013-01-20 Фраунхофер-Гезелльшафт цур Фёрдерунг дер ангевандтен Устройство для микширования множества входных данных
US8000487B2 (en) 2008-03-06 2011-08-16 Starkey Laboratories, Inc. Frequency translation by high-frequency spectral envelope warping in hearing assistance devices
FR2929466A1 (fr) 2008-03-28 2009-10-02 France Telecom Dissimulation d'erreur de transmission dans un signal numerique dans une structure de decodage hierarchique
EP2107556A1 (en) 2008-04-04 2009-10-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio transform coding using pitch correction
US8768690B2 (en) 2008-06-20 2014-07-01 Qualcomm Incorporated Coding scheme selection for low-bit-rate applications
CN102089811B (zh) 2008-07-11 2013-04-10 弗朗霍夫应用科学研究促进协会 用于编码和解码音频样本的音频编码器和解码器
WO2010003532A1 (en) 2008-07-11 2010-01-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for encoding/decoding an audio signal using an aliasing switch scheme
MX2011000375A (es) 2008-07-11 2011-05-19 Fraunhofer Ges Forschung Codificador y decodificador de audio para codificar y decodificar tramas de una señal de audio muestreada.
EP2144230A1 (en) 2008-07-11 2010-01-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Low bitrate audio encoding/decoding scheme having cascaded switches
MY154452A (en) 2008-07-11 2015-06-15 Fraunhofer Ges Forschung An apparatus and a method for decoding an encoded audio signal
ES2741963T3 (es) 2008-07-11 2020-02-12 Fraunhofer Ges Forschung Codificadores de señal de audio, métodos para codificar una señal de audio y programas informáticos
US8352279B2 (en) 2008-09-06 2013-01-08 Huawei Technologies Co., Ltd. Efficient temporal envelope coding approach by prediction between low band signal and high band signal
US8380498B2 (en) 2008-09-06 2013-02-19 GH Innovation, Inc. Temporal envelope coding of energy attack signal by using attack point location
WO2010031049A1 (en) 2008-09-15 2010-03-18 GH Innovation, Inc. Improving celp post-processing for music signals
DE102008042579B4 (de) 2008-10-02 2020-07-23 Robert Bosch Gmbh Verfahren zur Fehlerverdeckung bei fehlerhafter Übertragung von Sprachdaten
KR20130069833A (ko) 2008-10-08 2013-06-26 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 다중 분해능 스위치드 오디오 부호화/복호화 방법
KR101315617B1 (ko) 2008-11-26 2013-10-08 광운대학교 산학협력단 모드 스위칭에 기초하여 윈도우 시퀀스를 처리하는 통합 음성/오디오 부/복호화기
CN101770775B (zh) 2008-12-31 2011-06-22 华为技术有限公司 信号处理方法及装置
UA99878C2 (ru) 2009-01-16 2012-10-10 Долби Интернешнл Аб Гармоническое преобразование, усовершенствованное перекрестным произведением
US8457975B2 (en) 2009-01-28 2013-06-04 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Audio decoder, audio encoder, methods for decoding and encoding an audio signal and computer program
TWI459375B (zh) 2009-01-28 2014-11-01 Fraunhofer Ges Forschung 音訊編碼器、音訊解碼器、包含經編碼音訊資訊之數位儲存媒體、用以將音訊信號編碼及解碼之方法及電腦程式
EP2214165A3 (en) 2009-01-30 2010-09-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus, method and computer program for manipulating an audio signal comprising a transient event
PL2234103T3 (pl) 2009-03-26 2012-02-29 Fraunhofer Ges Forschung Urządzenie i sposób manipulacji sygnałem audio
KR20100115215A (ko) 2009-04-17 2010-10-27 삼성전자주식회사 가변 비트율 오디오 부호화 및 복호화 장치 및 방법
CA2763793C (en) 2009-06-23 2017-05-09 Voiceage Corporation Forward time-domain aliasing cancellation with application in weighted or original signal domain
JP5267362B2 (ja) 2009-07-03 2013-08-21 富士通株式会社 オーディオ符号化装置、オーディオ符号化方法及びオーディオ符号化用コンピュータプログラムならびに映像伝送装置
CN101958119B (zh) 2009-07-16 2012-02-29 中兴通讯股份有限公司 一种改进的离散余弦变换域音频丢帧补偿器和补偿方法
US8635357B2 (en) 2009-09-08 2014-01-21 Google Inc. Dynamic selection of parameter sets for transcoding media data
MX2012004648A (es) 2009-10-20 2012-05-29 Fraunhofer Ges Forschung Codificacion de señal de audio, decodificador de señal de audio, metodo para codificar o decodificar una señal de audio utilizando una cancelacion del tipo aliasing.
JP5243661B2 (ja) 2009-10-20 2013-07-24 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ オーディオ信号符号器、オーディオ信号復号器、オーディオコンテンツの符号化表現を供給するための方法、オーディオコンテンツの復号化表現を供給するための方法、および低遅延アプリケーションにおける使用のためのコンピュータ・プログラム
BR112012009490B1 (pt) 2009-10-20 2020-12-01 Fraunhofer-Gesellschaft zur Föerderung der Angewandten Forschung E.V. ddecodificador de áudio multimodo e método de decodificação de áudio multimodo para fornecer uma representação decodificada do conteúdo de áudio com base em um fluxo de bits codificados e codificador de áudio multimodo para codificação de um conteúdo de áudio em um fluxo de bits codificados
CN102081927B (zh) 2009-11-27 2012-07-18 中兴通讯股份有限公司 一种可分层音频编码、解码方法及系统
US8428936B2 (en) 2010-03-05 2013-04-23 Motorola Mobility Llc Decoder for audio signal including generic audio and speech frames
US8423355B2 (en) 2010-03-05 2013-04-16 Motorola Mobility Llc Encoder for audio signal including generic audio and speech frames
US8793126B2 (en) 2010-04-14 2014-07-29 Huawei Technologies Co., Ltd. Time/frequency two dimension post-processing
WO2011147950A1 (en) 2010-05-28 2011-12-01 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Low-delay unified speech and audio codec
MX2013009344A (es) 2011-02-14 2013-10-01 Fraunhofer Ges Forschung Aparato y metodo para procesar una señal de audio decodificada en un dominio espectral.
JP5934259B2 (ja) 2011-02-14 2016-06-15 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン オーディオコーデックにおけるノイズ生成
EP2721610A1 (en) 2011-11-25 2014-04-23 Huawei Technologies Co., Ltd. An apparatus and a method for encoding an input signal

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2389085C2 (ru) * 2004-02-18 2010-05-10 Войсэйдж Корпорейшн Способы и устройства для введения низкочастотных предыскажений в ходе сжатия звука на основе acelp/tcx
EP1852851A1 (en) * 2004-04-01 2007-11-07 Beijing Media Works Co., Ltd An enhanced audio encoding/decoding device and method
EP2144171A1 (en) * 2008-07-11 2010-01-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder and decoder for encoding and decoding frames of a sampled audio signal

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MOTLICEK PETR et.al. AUDIO CODING BASED ON LONG TEMPORAL CONTEXTS, IDIAP-RR 06-30, AVRIL 2006. *

Also Published As

Publication number Publication date
CA2827277A1 (en) 2012-08-23
BR112013020587B1 (pt) 2021-03-09
PL2676266T3 (pl) 2015-08-31
EP2676266B1 (en) 2015-03-11
KR20130133848A (ko) 2013-12-09
TW201246189A (en) 2012-11-16
ZA201306840B (en) 2014-05-28
CN103477387B (zh) 2015-11-25
MY165853A (en) 2018-05-18
US9595262B2 (en) 2017-03-14
ES2534972T3 (es) 2015-04-30
WO2012110476A1 (en) 2012-08-23
AU2012217156B2 (en) 2015-03-19
BR112013020592A2 (pt) 2016-10-18
AR085794A1 (es) 2013-10-30
RU2013142133A (ru) 2015-03-27
HK1192050A1 (en) 2014-08-08
BR112013020587A2 (pt) 2018-07-10
AU2012217156A1 (en) 2013-08-29
JP5625126B2 (ja) 2014-11-12
MX2013009346A (es) 2013-10-01
KR101617816B1 (ko) 2016-05-03
CA2827277C (en) 2016-08-30
CN103477387A (zh) 2013-12-25
TWI488177B (zh) 2015-06-11
SG192748A1 (en) 2013-09-30
US20130332153A1 (en) 2013-12-12
BR112013020592B1 (pt) 2021-06-22
JP2014510306A (ja) 2014-04-24
EP2676266A1 (en) 2013-12-25

Similar Documents

Publication Publication Date Title
RU2575993C2 (ru) Основанная на линейном предсказании схема кодирования, использующая формирование шума в спектральной области
RU2577195C2 (ru) Аудиокодер, аудиодекодер и связанные способы обработки многоканальных аудиосигналов с использованием комплексного предсказания
EP3693964B1 (en) Simultaneous time-domain and frequency-domain noise shaping for tdac transforms
RU2638734C2 (ru) Кодирование спектральных коэффициентов спектра аудиосигнала
RU2389085C2 (ru) Способы и устройства для введения низкочастотных предыскажений в ходе сжатия звука на основе acelp/tcx
JP2019152875A (ja) 臨界サンプリングされたフィルタバンクにおけるモデル・ベースの予測
EP2867892B1 (en) Linear prediction based audio coding using improved probability distribution estimation
KR20090083070A (ko) 적응적 lpc 계수 보간을 이용한 오디오 신호의 부호화,복호화 방법 및 장치
RU2612589C2 (ru) Низкочастотное акцентирование для основанного на lpc кодирования в частотной области
RU2762301C2 (ru) Устройство и способ для кодирования и декодирования аудиосигнала с использованием понижающей дискретизации или интерполяции масштабных параметров
RU2662921C2 (ru) Устройство и способ для кодирования, обработки и декодирования огибающей аудиосигнала путем моделирования представления совокупной суммы с использованием квантования и кодирования распределения
RU2660633C2 (ru) Устройство и способ для кодирования, обработки и декодирования огибающей аудиосигнала путем разделения огибающей аудиосигнала с использованием квантования и кодирования распределения