RU2737465C1 - Audio encoding device, an audio encoding method, an audio encoding program, an audio decoding device, an audio decoding method and an audio decoding program - Google Patents

Audio encoding device, an audio encoding method, an audio encoding program, an audio decoding device, an audio decoding method and an audio decoding program Download PDF

Info

Publication number
RU2737465C1
RU2737465C1 RU2020115805A RU2020115805A RU2737465C1 RU 2737465 C1 RU2737465 C1 RU 2737465C1 RU 2020115805 A RU2020115805 A RU 2020115805A RU 2020115805 A RU2020115805 A RU 2020115805A RU 2737465 C1 RU2737465 C1 RU 2737465C1
Authority
RU
Russia
Prior art keywords
audio
side information
unit
signal
decoding
Prior art date
Application number
RU2020115805A
Other languages
Russian (ru)
Inventor
Кимитака ЦУЦУМИ
Кей КИКУИРИ
Ацуси ЯМАГУТИ
Original Assignee
Нтт Докомо, Инк.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Нтт Докомо, Инк. filed Critical Нтт Докомо, Инк.
Application granted granted Critical
Publication of RU2737465C1 publication Critical patent/RU2737465C1/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • G10L19/125Pitch excitation, e.g. pitch synchronous innovation CELP [PSI-CELP]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/005Correction of errors induced by the transmission channel, if related to the coding algorithm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/09Long term prediction, i.e. removing periodical redundancies, e.g. by using adaptive codebook or pitch predictor
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction

Abstract

FIELD: data processing.SUBSTANCE: invention relates to encoding audio signals. Technical result is achieved by encoding side information, where side information is calculated from a predictive signal for calculating the predicted value of the audio parameter in order to synthesise the encoded audio, and encoding side information, wherein side information comprises information indicating accessibility of side information, wherein the additional information is received as an audio parameter on the decoding processing side when the reliability of the predicted value of the calculated audio parameter is low.EFFECT: technical result consists in ensuring restoration of sound quality without increasing algorithmic delay, when packet loss occurs when encoding audio.3 cl, 43 dwg

Description

Область техникиTechnology area

[0001] Настоящее изобретение связано с маскированием ошибок для передачи аудиопакетов по IP-сети или сети мобильной связи и более конкретно, связано с устройством кодирования аудио, способом кодирования аудио, программой кодирования аудио, устройством декодирования аудио, способом декодирования аудио и программой декодирования аудио для высокоточного генерирования сигнала маскирования потери пакета для реализации маскирования ошибок.[0001] The present invention relates to error concealment for transmitting audio packets over an IP or mobile network, and more specifically, relates to an audio encoding apparatus, an audio encoding method, an audio encoding program, an audio decoding apparatus, an audio decoding method, and an audio decoding program for high-precision generation of packet loss concealment signal to implement error concealment.

Уровень техникиState of the art

[0002] При передаче аудио и акустических сигналов (которые в дальнейшем в этом документе вместе упоминаются как "аудиосигнал") по IP-сети или сети мобильной связи аудиосигнал кодируется в аудиопакеты с регулярными временными интервалами и передается по сети связи. На стороне приема аудиопакеты принимаются по сети связи и декодируются в декодированный аудиосигнал сервером, MCU (блок управления многоточечной связью), терминалом или подобным.[0002] When transmitting audio and acoustic signals (which are hereinafter collectively referred to as "audio signal") over an IP network or mobile network, the audio signal is encoded into audio packets at regular time intervals and transmitted over the communication network. On the receiving side, audio packets are received over a communication network and decoded into a decoded audio signal by a server, MCU (Multipoint Control Unit), terminal, or the like.

[0003] Аудиосигнал, в общем, получается в цифровом формате. В частности, он измеряется и собирается как последовательность цифр, число которых является таким же, как частота взятия отсчетов в секунду. Каждый элемент последовательности называется "отсчетом". При кодировании аудио каждый раз, когда некоторое предопределенное число отсчетов аудиосигнала собирается во встроенном буфере, в буфере кодируется аудиосигнал. Вышеописанное задаваемое число отсчетов называется "длиной кадра" и набор с таким же числом отсчетов как длина кадра называется "кадром". Например, при частоте взятия отсчетов 32 кГц, когда длина кадра равна 20 мс, длина кадра равна 640 отсчетам. Следует отметить, что длина буфера может быть более, чем один кадр.[0003] The audio signal is generally obtained in digital format. In particular, it is measured and collected as a sequence of digits, the number of which is the same as the sampling rate per second. Each element of the sequence is called a "sample". When encoding audio, each time a predetermined number of audio samples are collected in the embedded buffer, the audio signal is encoded in the buffer. The above specified number of samples is called "frame length" and a set with the same number of samples as the frame length is called "frame". For example, at a sampling rate of 32 kHz, when the frame length is 20 ms, the frame length is 640 samples. It should be noted that the buffer length can be more than one frame.

[0004] При передаче аудиопакетов по сети связи может возникать явление (так называемая "потеря пакета"), когда некоторые из аудиопакетов теряются, или может возникать ошибка в части информации, записанной в аудиопакетах, из-за перегрузки в сети связи или подобном. В таком случае, аудиопакеты не могут быть декодированы корректно на стороне приема и поэтому, желаемый декодированный аудиосигнал не может быть получен. Дополнительно, декодированный аудиосигнал, соответствующий аудиопакету, где произошла потеря пакета, обнаруживается как шум, который значительно ухудшает субъективное качество для человека, который слушает это аудио.[0004] When transmitting audio packets over a communication network, a phenomenon (so-called "packet loss") may occur where some of the audio packets are lost, or an error may occur in some of the information recorded in the audio packets due to network congestion or the like. In such a case, the audio packets cannot be decoded correctly on the receiving side, and therefore, the desired decoded audio signal cannot be received. Additionally, the decoded audio signal corresponding to the audio packet where the packet loss occurred is detected as noise, which greatly degrades the subjective quality for the person listening to the audio.

[0005] Для того, чтобы преодолевать вышеописанные недостатки, технология маскирования потери пакета используется в качестве способа для интерполирования части аудио/акустического сигнала, который потерян вследствие потери пакета. Есть два типа технологии маскирования потери пакета: "технология маскирования потери пакета без использования побочной (дополнительной) информации", где маскирование потери пакета выполняется только на стороне приема, и "технология маскирования потери пакета с использованием побочной информации", где параметры, которые помогают маскировать потерю пакета, получаются на стороне передачи и передаются на сторону приема, где маскирование потери пакета выполняется с использованием принятых параметров на стороне приема.[0005] In order to overcome the above-described disadvantages, packet loss concealment technique is used as a method for interpolating a portion of the audio / acoustic signal that is lost due to packet loss. There are two types of packet loss concealment technology: "packet loss concealment technology without the use of side information", where packet loss concealment is performed only on the receive side, and "packet loss concealment technology using side information", where parameters that help mask packet loss are obtained at the transmitting side and transmitted to the receiving side, where packet loss concealment is performed using the received parameters at the receiving side.

[0006] "Технология маскирования потери пакета без использования побочной информации" генерирует аудиосигнал, соответствующий части, где произошла потеря пакета, посредством копирования декодированного аудиосигнала, содержащегося в некотором пакете, который был корректно принят в прошлом, на основе “основной тон за основным тоном”, и затем умножения его на некоторый предопределенный коэффициент ослабления, например, как описано в непатентной литературе 1. Поскольку "технология маскирования потери пакета без использования побочной информации" основывается на предположении, что свойства части аудио, где произошла потеря пакета, аналогичны свойствам аудио непосредственно перед возникновением потери, эффект маскирования не может быть получен в достаточной степени, когда часть аудио, где произошла потеря пакета, имеет свойства, отличные от аудио непосредственно перед возникновением потери или когда возникает внезапное изменение питания.[0006] "Side information-free packet loss concealment technology" generates an audio signal corresponding to the portion where the packet loss occurred by copying the decoded audio signal contained in a packet that was correctly received in the past on a pitch by pitch basis. , and then multiplying it by some predetermined attenuation factor, for example, as described in Non-Patent Literature 1. Since the "packet loss concealment technique without using side information" is based on the assumption that the properties of the audio portion where the packet loss occurs are similar to those of the audio immediately before When the loss occurs, the masking effect cannot be sufficiently obtained when the portion of the audio where the packet loss occurred has properties other than audio just before the loss or when a sudden power change occurs.

[0007] С другой стороны, "технология маскирования потери пакета с использованием побочной информации" включает в себя подход, который кодирует параметры, требуемые для маскирования потери пакета на стороне передачи и передает их для использования при маскировании потери пакета на сторону приема, как описано в патентной литературе 1. В патентной литературе 1 аудио кодируется двумя способами кодирования: основное кодирование и резервное кодирование. Резервное кодирование кодирует кадр непосредственно перед кадром, который должен быть закодирован посредством основного кодирования, с меньшим битрейтом, чем основное кодирование (см. Фиг. 1 (a)). Например, N-й пакет содержит аудиокод, полученный посредством кодирования N-го кадра посредством главного кодирования, и код побочной информации, полученный посредством кодирования (N-1)-го кадра посредством резервного кодирования.[0007] On the other hand, "side information packet loss concealment technique" includes an approach that encodes parameters required for masking packet loss on the transmit side and transmits them for use in concealing packet loss on the receive side, as described in Patent Literature 1. In patent literature 1, audio is encoded by two encoding methods: main encoding and backup encoding. The spare coding encodes the frame immediately before the frame to be encoded with the base coding at a lower bit rate than the base coding (see FIG. 1 (a)). For example, the Nth packet contains an audio code obtained by coding an Nth frame with main coding and a side information code obtained by coding an (N-1) th frame with spare coding.

[0008] Сторона приема ожидает поступления двух или более пакетов следующих один за другим во времени и затем декодирует более ранний во времени пакет и получает декодированный аудиосигнал. Например, для получения сигнала, соответствующего N-му кадру, сторона приема ожидает поступления (N+1)-го пакета и затем выполняет декодирование. В случае, когда N-й пакет и (N+1)-й пакет приняты корректно, аудиосигнал N-го кадра получается посредством декодирования аудиокода, содержащегося в N-ом пакете (см. Фиг. 1(b)). С другой стороны, в случае, когда произошла потеря пакета (когда получен (N+1)-й пакет при условии, что потерян N-й пакет), аудиосигнал N-го кадра может быть получен посредством декодирования кода побочной информации, содержащегося в (N+1)-м пакете (см. Фиг. 1(c)).[0008] The receiving side waits for the arrival of two or more packets following one after the other in time and then decodes the earlier packet in time and receives the decoded audio signal. For example, to obtain a signal corresponding to the Nth frame, the receiving side waits for the (N + 1) th packet to arrive and then performs decoding. In the case where the Nth packet and the (N + 1) th packet are received correctly, the audio signal of the Nth frame is obtained by decoding the audio code contained in the Nth packet (see FIG. 1 (b)). On the other hand, in the case where a packet loss has occurred (when an (N + 1) th packet is received, provided that the N th packet is lost), the audio signal of the N th frame can be obtained by decoding the side information code contained in ( N + 1) th packet (see Fig. 1 (c)).

[0009] Согласно способу из патентной литературы 1 после поступления пакета, который должен быть декодирован, для выполнения декодирования необходимо ожидать, пока не поступит один или более пакет, и алгоритмическая задержка увеличивается на один пакет или более. Соответственно, в способе из патентной литературы 1, несмотря на то, что качество звучания (качество аудио) может быть улучшено посредством маскирования потери пакета, увеличивается алгоритмическая задержка, что вызывает ухудшение качества голосовой связи.[0009] According to the method of Patent Literature 1, after the arrival of a packet to be decoded, to perform decoding, it is necessary to wait until one or more packets arrive and the algorithmic delay increases by one or more. Accordingly, in the method of Patent Literature 1, although the sound quality (audio quality) can be improved by masking the packet loss, the algorithmic delay increases, which causes the voice quality to deteriorate.

[0010] Дополнительно, в случае применения вышеописанной технологии маскирования потери пакета к кодированию CELP (линейное предсказание с кодовым возбуждением), возникает другая проблема, обусловленная характеристиками операции CELP. Поскольку CELP является моделью аудио на основе линейного предсказания и способно кодировать аудиосигнал с высокой точностью и с высокой степенью сжатия, оно используется во многих международных стандартах.[0010] Additionally, in the case of applying the above-described packet loss concealment technique to CELP (Code Excited Linear Prediction) coding, another problem arises due to the characteristics of the CELP operation. Since CELP is a linear predictive audio model and is capable of high fidelity and high compression rate audio coding, it is used in many international standards.

[0011] В CELP аудиосигнал синтезируется посредством фильтрации сигнала e(n) возбуждения с использованием полюсного фильтра синтеза. В частности, аудиосигнал s(n) синтезируется согласно следующему уравнению:[0011] In CELP, an audio signal is synthesized by filtering the excitation signal e (n) using a synthesis pole filter. In particular, the audio signal s (n) is synthesized according to the following equation:

Figure 00000001
Уравнение 1
Figure 00000001
Equation 1

где a(i) является коэффициентом линейного предсказания (коэффициентом LP) и значение, такое как, например, P=16, используется в качестве степени.where a (i) is the linear prediction coefficient (LP coefficient) and a value such as, for example, P = 16 is used as the degree.

[0012] Сигнал возбуждения собирается в буфере, называемом адаптивная кодовая книга. При синтезировании аудио для нового кадра сигнал возбуждения вновь генерируется посредством сложения вектора адаптивной кодовой книги, считываемого из адаптивной кодовой книги, и вектора фиксированной кодовой книги, представляющего изменение сигнала возбуждения с течением времени на основе информации о положении, называемой запаздыванием основного тона. Вновь сгенерированный сигнал возбуждения собирается в адаптивной кодовой книге и также фильтруется полюсным фильтром синтеза, и посредством этого синтезируется декодированный сигнал.[0012] The excitation signal is collected in a buffer called an adaptive codebook. When synthesizing audio for a new frame, an excitation signal is re-generated by adding an adaptive codebook vector read from the adaptive codebook and a fixed codebook vector representing the change in the excitation signal over time based on position information called pitch lag. The newly generated excitation signal is collected in an adaptive codebook and also filtered by a synthesis pole filter, and thereby a decoded signal is synthesized.

[0013] При CELP коэффициент LP вычисляется для всех кадров. При вычислении коэффициента LP требуется прогнозный сигнал на приблизительно 10 мс. В частности, в дополнение к кадру, который должен быть закодирован, прогнозный сигнал собирается в буфере, и затем выполняются вычисление коэффициента LP и последующая обработка (см. Фиг. 2). Каждый кадр разделяется приблизительно на четыре подкадра и обработка, например вышеописанное вычисление запаздывания основного тона, вычисление вектора адаптивной кодовой книги, вычисление вектора фиксированной кодовой книги и обновление адаптивной кодовой книги выполняются в каждом подкадре. При обработке каждого подкадра коэффициент LP также интерполируется, так что коэффициент меняется от подкадра к подкадру. Дополнительно, для квантования и интерполяции коэффициент LP кодируется после его преобразования в параметр ISP (пары спектральных иммитансов) и параметр ISF (частоты спектральных иммитансов), которые являются эквивалентным представлением (-ями) коэффициента (-ов) LP. Процедура для взаимного преобразования коэффициента (-ов) LP и параметра ISP и параметра ISF описывается в непатентной литературе 2.[0013] In CELP, the LP coefficient is calculated for all frames. When calculating the LP coefficient, a predictive signal of approximately 10 ms is required. Specifically, in addition to the frame to be encoded, the prediction signal is collected in a buffer, and then LP coefficient calculation and subsequent processing are performed (see FIG. 2). Each frame is divided into approximately four subframes, and processing such as the above-described pitch lag computation, adaptive codebook vector computation, fixed codebook vector computation, and adaptive codebook update are performed in each subframe. When processing each subframe, the LP coefficient is also interpolated so that the coefficient changes from subframe to subframe. Additionally, for quantization and interpolation, the LP coefficient is encoded after being converted into an ISP parameter (spectral immitance pair) and an ISF parameter (spectral imitation frequency), which are the equivalent representation (s) of the LP coefficient (s). A procedure for interconverting the LP coefficient (s) and the ISP parameter and the ISF parameter is described in non-patent literature 2.

[0014] При кодировании с CELP кодирование и декодирование выполняются на основе предположения, что как сторона кодирования, так и сторона декодирования имеют адаптивные кодовые книги, и эти адаптивные кодовые книги всегда синхронизированы друг с другом. Несмотря на то, что адаптивная кодовая книга на стороне кодирования и адаптивная кодовая книга на стороне декодирования синхронизированы при условиях, что пакеты приняты корректно и корректно осуществлено декодирование, как только произошла потеря пакета, синхронизация адаптивных кодовых книг не может быть достигнута.[0014] In CELP encoding, encoding and decoding are performed on the assumption that both the encoding side and the decoding side have adaptive codebooks, and these adaptive codebooks are always synchronized with each other. Although the adaptive codebook on the coding side and the adaptive codebook on the decoding side are synchronized under the condition that packets are received correctly and decoding is performed correctly, once a packet loss has occurred, synchronization of the adaptive codebooks cannot be achieved.

[0015] Например, если значение, которое используется в качестве запаздывания основного тона, отличается между стороной кодирования и стороной декодирования, между векторами адаптивной кодовой книги возникает запаздывание во времени (временная задержка). Поскольку адаптивная кодовая книга обновляется этими векторами адаптивной кодовой книги, даже если следующий кадр принят корректно, вектор адаптивной кодовой книги, вычисленный на стороне кодирования, и вектор адаптивной кодовой книги, вычисленный на стороне декодирования, не совпадут, и синхронизация адаптивных кодовых книг не восстановится. Вследствие такой несовместимости (противоречивости) адаптивных кодовых книг происходит ухудшение качества звучания для нескольких кадров после кадра, где произошла потеря пакета.[0015] For example, if the value that is used as the pitch lag is different between the encoding side and the decoding side, a time lag (time delay) occurs between the vectors of the adaptive codebook. Since the adaptive codebook is updated with these adaptive codebook vectors, even if the next frame is received correctly, the adaptive codebook vector computed on the encoding side and the adaptive codebook vector computed on the decoding side will not match, and the adaptive codebooks will not re-synchronize. Due to this incompatibility (inconsistency) of the adaptive codebooks, audio quality degrades for several frames after the frame where the packet loss occurred.

[0016] Более передовая технология маскирования потери пакета при кодировании с CELP описана в патентной литературе 2. Согласно патентной литературе 2 индекс кодовой книги переходного режима передается вместо запаздывания основного тона или усиления (коэффициента усиления) адаптивной кодовой книги в некотором конкретном кадре, который в значительной степени поврежден потерей пакета. Технология патентной литературы 2 концентрирует внимание на переходном кадре (переход от аудиосегмента без звука к аудиосегменту со звуком или переход между двумя гласными звуками) как на кадре, который в значительной степени поврежден потерей пакета. Посредством генерирования сигнала возбуждения с использованием кодовой книги переходного режима в этом переходном кадре, можно генерировать сигнал возбуждения, который не зависит от прошлой адаптивной кодовой книги, и посредством этого можно осуществить восстановление от несовместимости адаптивных кодовых книг вследствие прошлой потери пакета.[0016] A more advanced technique for concealing packet loss in CELP coding is described in Patent Literature 2. According to Patent Literature 2, the transient codebook index is transmitted instead of pitch lag or adaptive codebook gain (gain) in some particular frame, which is largely degree damaged by packet loss. Patent Literature 2 technology focuses on a transition frame (transition from an audio segment without sound to an audio segment with sound, or a transition between two vowels) as a frame that is heavily damaged by packet loss. By generating an excitation signal using the transient codebook in this transient frame, it is possible to generate an excitation signal that is independent of the past adaptive codebook, and thereby recovering from the adaptive codebook incompatibility due to past packet loss.

[0017] Однако, поскольку способ из патентной литературы 2 не использует кодовую книгу переходного кадра в кадре, в котором, например, продолжается долгий гласный звук, не представляется возможным осуществить восстановление от несовместимости адаптивных кодовых книг в таком кадре. Дополнительно, в случае, когда потерян пакет, содержащий кодовую книгу переходного кадра, потеря пакета повреждает кадры после потери. Аналогичная ситуация возникает, когда теряется пакет, следующий после пакета, содержащего кодовую книгу переходного кадра.[0017] However, since the method of Patent Literature 2 does not use a transition frame codebook in a frame in which, for example, a long vowel continues, it is not possible to recover from adaptive codebook incompatibilities in such a frame. Additionally, in the case where a packet containing a transition frame codebook is lost, the packet loss corrupts the frames after the loss. A similar situation occurs when the packet following the packet containing the transition frame codebook is lost.

[0018] Несмотря на то, что можно применять кодовую книгу, такую как кодовая книга переходного кадра, которая не зависит от прошлых кадров, ко всем кадрам, поскольку значительно ухудшается эффективность кодирования, при этих условиях не представляется возможным достичь низкого битрейта и высокого качества звучания.[0018] Although it is possible to apply a codebook such as a transition frame codebook that does not depend on past frames to all frames, since the coding efficiency is significantly degraded, under these conditions it is not possible to achieve low bit rate and high sound quality. ...

Список ссылокList of links

Патентная литератураPatent Literature

[0019] Патентная литература 1: публикация нерассмотренной заявки на патент Японии № 2003-533916[0019] Patent Literature 1: Japanese Unexamined Patent Publication No. 2003-533916

Патентная литература 2: публикация нерассмотренной заявки на патент Японии № 2010-507818Patent Literature 2: Japanese Unexamined Patent Publication No. 2010-507818

Непатентная литератураNon-patent literature

[0020] Непатентная литература 1: ITU-T G.711 Приложение I[0020] Non-patent literature 1: ITU-T G.711 Annex I

Непатентная литература 2: 3GPP TS26-191Non-patent Literature 2: 3GPP TS26-191

Непатентная литература 3: 3GPP TS26-190Non-patent Literature 3: 3GPP TS26-190

Непатентная литература 4: ITU-T G.718Non-patent Literature 4: ITU-T G.718

Сущность изобретенияThe essence of the invention

Техническая проблемаTechnical problem

[0021] С использованием способа из патентной литературы 1, после поступления пакета, который должен быть декодирован, декодирование не начинается до поступления следующего пакета. Таким образом, несмотря на то, что качество звучания улучшается посредством маскирования потери пакета, увеличивается алгоритмическая задержка, которая вызывает ухудшение качества голосовой связи.[0021] Using the method of Patent Literature 1, after the arrival of a packet to be decoded, decoding does not start until the next packet arrives. Thus, although the sound quality is improved by masking the packet loss, the algorithmic delay increases, which causes the degradation of the voice quality.

[0022] В случае потери пакета при кодировании с CELP, ухудшение качества звучания происходит вследствие несовместимости адаптивных кодовых книг между блоком кодирования и блоком декодирования. Несмотря на то, что способ, который описан в патентной литературе 2, может позволить осуществить восстановление от несовместимости адаптивных кодовых книг, способ не является достаточным, чтобы позволить осуществить восстановление, когда потерян кадр, отличный от кадра, находящегося непосредственно перед переходным кадром.[0022] In the case of packet loss in CELP encoding, degradation in sound quality occurs due to the incompatibility of adaptive codebooks between the encoding unit and the decoding unit. Although the method described in Patent Literature 2 may allow recovery from adaptive codebook incompatibilities, the method is not sufficient to allow recovery when a frame other than the frame immediately before the transition frame is lost.

[0023] Настоящее изобретение сделано для решения вышеуказанных проблем и таким образом, целью настоящего изобретения является обеспечение устройства кодирования аудио, способа кодирования аудио, программы кодирования аудио, устройства декодирования аудио, способа декодирования аудио и программы декодирования аудио, которые восстанавливают качество звучания без увеличения алгоритмической задержки в случае потери пакета при кодировании аудио.[0023] The present invention has been made to solve the above problems, and thus, an object of the present invention is to provide an audio coding apparatus, an audio coding method, an audio coding program, an audio decoding apparatus, an audio decoding method, and an audio decoding program that restore sound quality without increasing the algorithmic delays in case of packet loss when encoding audio.

Решение проблемыSolution to the problem

[0024] Для достижения вышеуказанный цели согласно одному аспекту настоящего изобретения обеспечено устройство кодирования аудио для кодирования аудиосигнала, которое включает в себя блок кодирования аудио, сконфигурированный с возможностью кодирования аудиосигнала, и блок кодирования побочной (дополнительной) информации, сконфигурированный с возможностью вычисления побочной информации из прогнозного сигнала и кодирования побочной информации.[0024] To achieve the above object, according to one aspect of the present invention, there is provided an audio coding apparatus for coding an audio signal, which includes an audio coding unit configured to encode an audio signal and a side information (side) coding unit configured to calculate side information from predictive signal and coding of side information.

[0025] Побочная информация может быть связана с запаздыванием основного тона в прогнозном сигнале, связана с усилением основного тона в прогнозном сигнале или связана с запаздыванием основного тона и усилением основного тона в прогнозном сигнале. Дополнительно, побочная информация может содержать информацию, связанную с доступностью побочной информации.[0025] The side information may be associated with pitch lag in a predictive signal, associated with a pitch boost in a predictive signal, or associated with pitch lag and pitch gain in a predictive signal. Additionally, the side information may contain information related to the availability of the side information.

[0026] Блок кодирования побочной информации может вычислять побочную информацию для части прогнозного сигнала и кодировать побочную информацию, а также генерировать сигнал маскирования, и устройство кодирования аудио может дополнительно включать в себя блок кодирования сигнала ошибки, сконфигурированный с возможностью кодирования сигнала ошибки между входным аудиосигналом и сигналом маскирования, выводимым из блока кодирования побочной информации, и главный блок кодирования, сконфигурированный с возможностью кодирования входного аудиосигнала.[0026] A side information coding unit may calculate side information for a part of a predicted signal and encode side information, and generate a masking signal, and the audio encoding apparatus may further include an error signal encoding unit configured to encode an error signal between an input audio signal and a masking signal outputted from the side information coding unit; and a main coding unit configured to encode the input audio signal.

[0027] Дополнительно согласно одному аспекту настоящего изобретения обеспечено устройство декодирования аудио для декодирования аудиокода и вывода аудиосигнала, которое включает в себя буфер аудиокода, сконфигурированный с возможностью обнаружения потери пакета на основе состояния приема аудиопакета, блок декодирования аудиопараметров, сконфигурированный с возможностью декодирования аудиокода, когда аудиопакет принят корректно, блок декодирования побочной информации, сконфигурированный с возможностью декодирования кода побочной информации, когда аудиопакет принят корректно, блок сбора побочной информации, сконфигурированный с возможностью сбора побочной информации, получаемой посредством декодирования кода побочной информации, блок обработки отсутствующих аудиопараметров, сконфигурированный с возможностью вывода аудиопараметра, когда обнаружена потеря аудиопакета, и блок синтеза аудио, сконфигурированный с возможностью синтезирования декодированного аудио из аудиопараметра.[0027] Additionally, according to one aspect of the present invention, there is provided an audio decoding apparatus for decoding an audio code and outputting an audio signal, which includes an audio code buffer configured to detect packet loss based on an audio packet receive state, an audio parameter decoding unit configured to decode an audio code when the audio packet is received correctly, the side information decoding unit configured to decode the side information code when the audio packet is received correctly, the side information collecting unit configured to collect the side information obtained by decoding the side information code, the missing audio parameter processing unit configured to output an audio parameter when loss of an audio packet is detected, and an audio synthesis unit configured to synthesize decoded audio from the audio parameter.

[0028] Побочная информация может быть связана с запаздыванием основного тона в прогнозном сигнале, связана с усилением основного тона в прогнозном сигнале или связана с запаздыванием основного тона и усилением основного тона в прогнозном сигнале. Дополнительно, побочная информация может содержать информацию, связанную с доступностью побочной информации.[0028] The side information may be associated with pitch lag in a predictive signal, associated with a pitch boost in a predictive signal, or associated with pitch lag and pitch gain in a predictive signal. Additionally, the side information may contain information related to the availability of the side information.

[0029] Блок декодирования побочной информации может декодировать код побочной информации и выводить побочную информацию, и может дополнительно выводить сигнал маскирования, связанный с прогнозной частью посредством использования побочной информации, и устройство декодирования аудио может дополнительно включать в себя блок декодирования ошибок, сконфигурированный с возможностью декодирования кода, связанного с сигналом ошибки между аудиосигналом и сигналом маскирования, главный блок декодирования, сконфигурированный с возможностью декодирования кода, связанного с аудиосигналом, и блок сбора сигналов маскирования, сконфигурированный с возможностью сбора сигнала маскирования, выводимого из блока декодирования побочной информации.[0029] The side information decoding unit may decode the side information code and output side information, and may further output a masking signal associated with the prediction portion by using the side information, and the audio decoding apparatus may further include an error decoding unit configured to decode of the code associated with the error signal between the audio signal and the masking signal, a main decoding unit configured to decode the code associated with the audio signal; and a masking signal collection unit configured to collect a masking signal output from the side information decoding unit.

[0030] Когда аудиопакет принят корректно, часть декодированного сигнала может быть сгенерирована посредством сложения сигнала маскирования, считываемого из блока сбора сигналов маскирования, и декодированного сигнала ошибки, выводимого из блока декодирования ошибок, и блок сбора сигналов маскирования может быть обновлен сигналом маскирования, выводимым из блока декодирования побочной информации.[0030] When the audio packet is received correctly, a part of the decoded signal can be generated by adding a mask signal read from the mask signal acquisition unit and the decoded error signal output from the error decoding unit, and the mask signal acquisition unit can be updated with a mask signal output from side information decoding unit.

[0031] Когда обнаружена потеря аудиопакета, сигнал маскирования, считываемый из блока сбора сигналов маскирования, может быть использован в качестве части или целого декодированного сигнала.[0031] When the loss of an audio packet is detected, the masking signal read from the masking signal collector can be used as part or the whole of the decoded signal.

[0032] Когда обнаружена потеря аудиопакета, декодированный сигнал может быть сгенерирован посредством использования аудиопараметра, предсказываемого блоком обработки отсутствующих аудиопараметров, и блок сбора сигналов маскирования может быть обновлен посредством использования части декодированного сигнала.[0032] When the loss of an audio packet is detected, a decoded signal can be generated by using the audio parameter predicted by the missing audio parameter processing unit, and the masking signal collection unit can be updated using a part of the decoded signal.

[0033] Когда обнаружена потеря аудиопакета, блок обработки отсутствующих аудиопараметров может использовать побочную информацию, считываемую из блока сбора побочной информации, в качестве части предсказываемого значения аудиопараметра.[0033] When the loss of an audio packet is detected, the missing audio parameter processing unit may use the side information read from the side information collection unit as part of the predicted audio parameter value.

[0034] Когда обнаружена потеря аудиопакета, блок синтеза аудио может корректировать вектор адаптивной кодовой книги, который является одним из аудиопараметров, посредством использования побочной информации, считываемой из блока сбора побочной информации.[0034] When the loss of an audio packet is detected, the audio synthesizer can correct the adaptive codebook vector, which is one of the audio parameters, by using side information read from the side information collector.

[0035] Способ кодирования аудио согласно одному аспекту настоящего изобретения является способом кодирования аудио посредством устройства кодирования аудио для кодирования аудиосигнала, который включает в себя этап кодирования аудио, на котором кодируют аудиосигнал, и этап кодирования побочной информации, на котором вычисляют побочную информацию из прогнозного сигнала и кодируют побочную информацию.[0035] An audio coding method according to one aspect of the present invention is an audio coding method by an audio coding apparatus for coding an audio signal, which includes an audio coding step that encodes an audio signal and a side information encoding step that calculates side information from a prediction signal. and encode side information.

[0036] Способ декодирования аудио согласно одному аспекту настоящего изобретения является способом декодирования аудио посредством устройства декодирования аудио для декодирования аудиокода и вывода аудиосигнала, который включает в себя этап буферизации аудиокода, на котором обнаруживают потерю пакета на основе состояния приема аудиопакета, этап декодирования аудиопараметров, на котором декодируют аудиокод, когда аудиопакет принят корректно, этап декодирования побочной информации, на котором декодируют код побочной информации, когда аудиопакет принят корректно, этап сбора побочной информации, на котором собирают побочную информацию, получаемую посредством декодирования кода побочной информации, этап обработки отсутствующих аудиопараметров, на котором выводят аудиопараметр, когда обнаружена потеря аудиопакета, и этап синтеза аудио, на котором синтезируют декодированное аудио из аудиопараметра.[0036] An audio decoding method according to one aspect of the present invention is an audio decoding method by an audio decoding apparatus for decoding an audio code and outputting an audio signal, which includes an audio code buffering step in which packet loss is detected based on an audio packet reception state, an audio parameter decoding step, on in which the audio code is decoded when the audio packet is received correctly, the side information decoding step, in which the side information code is decoded when the audio packet is received correctly, the side information gathering step, in which the side information obtained by decoding the side information code is collected, the missing audio parameter processing step, on which outputs an audio parameter when loss of an audio packet is detected; and an audio synthesis step that synthesizes decoded audio from the audio parameter.

[0037] Программа кодирования аудио согласно одному аспекту настоящего изобретения побуждает компьютер функционировать в качестве блока кодирования аудио для кодирования аудиосигнала и блока кодирования побочной информации для вычисления побочной информации из прогнозного сигнала и кодирования побочной информации.[0037] An audio coding program according to one aspect of the present invention causes a computer to function as an audio coding unit for encoding an audio signal and a side information coding unit for calculating side information from a prediction signal and encoding side information.

[0038] Программа декодирования аудио согласно одному аспекту настоящего изобретения побуждает компьютер функционировать в качестве буфера аудиокода для обнаружения потери пакета на основе состояния приема аудиопакета, блока декодирования аудиопараметров для декодирования аудиокода, когда аудиопакет принят корректно, блока декодирования побочной информации для декодирования кода побочной информации, когда аудиопакет принят корректно, блока сбора побочной информации для сбора побочной информацию, получаемой посредством декодирования кода побочной информации, блока обработки отсутствующих аудиопараметров для вывода аудиопараметра, когда обнаружена потеря аудиопакета, и блока синтеза аудио для синтезирования декодированного аудио из аудиопараметра.[0038] An audio decoding program according to one aspect of the present invention causes a computer to function as an audio code buffer for detecting packet loss based on an audio packet reception state, an audio parameter decoding unit for decoding an audio code when the audio packet is received correctly, a side information decoding unit for decoding a side information code, when the audio packet is received correctly, a side information collecting unit for collecting side information obtained by decoding the side information code, a missing audio parameter processing unit for outputting an audio parameter when loss of an audio packet is detected, and an audio synthesis unit for synthesizing decoded audio from the audio parameter.

Полезные эффекты изобретенияBenefits of the invention

[0039] Можно восстанавливать качество звучания без увеличения алгоритмической задержки в случае потери пакета при кодировании аудио. Конкретно, при кодировании с CELP, можно сократить ухудшение адаптивной кодовой книги, которое возникает, когда происходит потеря пакета, и посредством этого улучшить качество звучания в случае потери пакета.[0039] Sound quality can be restored without increasing the algorithmic delay in the event of packet loss during audio encoding. Specifically, with CELP encoding, it is possible to reduce adaptive codebook degradation that occurs when a packet loss occurs, and thereby improve the sound quality in the event of a packet loss.

Краткое описание чертежейBrief Description of Drawings

[0040] Фиг. 1 представляет собой вид, показывающий временную взаимосвязь между пакетами и декодированным сигналом согласно связанной области техники, описанной в патентной литературе 1.[0040] FIG. 1 is a view showing the temporal relationship between packets and a decoded signal according to the related art described in Patent Literature 1.

Фиг. 2 представляет собой вид, показывающий временную взаимосвязь между целевым сигналом анализа LP и прогнозным сигналом при кодировании с CELP.FIG. 2 is a view showing a temporal relationship between an LP analysis target signal and a prediction signal when coded with CELP.

Фиг. 3 представляет собой вид, показывающий временную взаимосвязь между пакетами и декодированным сигналом согласно варианту осуществления настоящего изобретения.FIG. 3 is a view showing a temporal relationship between packets and a decoded signal according to an embodiment of the present invention.

Фиг. 4 представляет собой вид, показывающий пример функциональной конфигурации устройства передачи аудиосигнала в примере 1 (первый пример) настоящего изобретения.FIG. 4 is a view showing an example of a functional configuration of an audio signal transmission apparatus in Example 1 (first example) of the present invention.

Фиг. 5 представляет собой вид, показывающий пример функциональной конфигурации устройства приема аудиосигнала в примере 1 настоящего изобретения.FIG. 5 is a view showing an example of a functional configuration of an audio signal receiving apparatus in Example 1 of the present invention.

Фиг. 6 представляет собой вид, показывающий процедуру устройства передачи аудиосигнала в примере 1 настоящего изобретения.FIG. 6 is a view showing a procedure of the audio signal transmission apparatus in Example 1 of the present invention.

Фиг. 7 представляет собой вид, показывающий процедуру устройства приема аудиосигнала в примере 1 настоящего изобретения.FIG. 7 is a view showing a procedure of an audio signal receiving apparatus in Example 1 of the present invention.

Фиг. 8 представляет собой вид, показывающий пример функциональной конфигурации блока кодирования побочной информации в примере 1 настоящего изобретения.FIG. 8 is a view showing an example of a functional configuration of a side information encoding unit in Example 1 of the present invention.

Фиг. 9 представляет собой вид, показывающий процедуру блока кодирования побочной информации в примере 1 настоящего изобретения.FIG. 9 is a view showing a procedure of a side information coding unit in Example 1 of the present invention.

Фиг. 10 представляет собой вид, показывающий процедуру блока вычисления коэффициента LP в примере 1 настоящего изобретения.FIG. 10 is a view showing the procedure of the LP coefficient calculating unit in Example 1 of the present invention.

Фиг. 11 представляет собой вид, показывающий процедуру блока вычисления целевого сигнала в примере 1 настоящего изобретения.FIG. 11 is a view showing a procedure of a target signal calculating unit in Example 1 of the present invention.

Фиг. 12 представляет собой вид, показывающий пример функциональной конфигурации блока обработки отсутствующих аудиопараметров в примере 1 настоящего изобретения.FIG. 12 is a view showing an example of a functional configuration of the audio missing parameter processing unit in Example 1 of the present invention.

Фиг. 13 представляет собой вид, показывающий процедуру предсказания аудиопараметра в примере 1 настоящего изобретения.FIG. 13 is a view showing an audio parameter prediction procedure in Example 1 of the present invention.

Фиг. 14 представляет собой вид, показывающий процедуру блока синтеза вектора возбуждения в альтернативном примере 1-1 примера 1 настоящего изобретения.FIG. 14 is a view showing a procedure of the drive vector synthesis unit in Alternative Example 1-1 of Example 1 of the present invention.

Фиг. 15 представляет собой вид, показывающий пример функциональной конфигурации блока синтеза аудио в примере 1 настоящего изобретения.FIG. 15 is a view showing an example of a functional configuration of an audio synthesis unit in Example 1 of the present invention.

Фиг. 16 представляет собой вид, показывающий процедуру блока синтеза аудио в примере 1 настоящего изобретения.FIG. 16 is a view showing the procedure of the audio synthesizer in Example 1 of the present invention.

Фиг. 17 представляет собой вид, показывающий пример функциональной конфигурации блока кодирования побочной информации (когда в состав включен блок определения вывода побочной информации) в альтернативном примере 1-2 примера 1 настоящего изобретения.FIG. 17 is a view showing an example of a functional configuration of a side information coding unit (when a side information output determining unit is included) in Alternative Example 1-2 of Example 1 of the present invention.

Фиг. 18 представляет собой вид, показывающий процедуру блока кодирования побочной информации (когда в состав включен блок определения вывода побочной информации) в альтернативном примере 1-2 примера 1 настоящего изобретения.FIG. 18 is a view showing a procedure of a side information coding unit (when a side information output determining unit is included) in Alternative Example 1-2 of Example 1 of the present invention.

Фиг. 19 представляет собой вид, показывающий процедуру предсказания аудиопараметра в альтернативном примере 1-2 примера 1 настоящего изобретения.FIG. 19 is a view showing an audio parameter prediction procedure in Alternative Example 1-2 of Example 1 of the present invention.

Фиг. 20 представляет собой вид, показывающий пример функциональной конфигурации устройства передачи аудиосигнала в примере 2 настоящего изобретения.FIG. 20 is a view showing an example of a functional configuration of an audio signal transmission apparatus in Example 2 of the present invention.

Фиг. 21 представляет собой вид, показывающий пример функциональной конфигурации главного блока кодирования в примере 2 настоящего изобретения.FIG. 21 is a view showing an example of a functional configuration of the main coding unit in Example 2 of the present invention.

Фиг. 22 представляет собой вид, показывающий процедуру устройства передачи аудиосигнала в примере 2 настоящего изобретения.FIG. 22 is a view showing a procedure of the audio signal transmission apparatus in Example 2 of the present invention.

Фиг. 23 представляет собой вид, показывающий пример функциональной конфигурации устройства приема аудиосигнала в примере 2 настоящего изобретения.FIG. 23 is a view showing an example of a functional configuration of an audio signal receiving apparatus in Example 2 of the present invention.

Фиг. 24 представляет собой вид, показывающий процедуру устройства приема аудиосигнала в примере 2 настоящего изобретения.FIG. 24 is a view showing a procedure of an audio signal receiving apparatus in Example 2 of the present invention.

Фиг. 25 представляет собой вид, показывающий пример функциональной конфигурации блока синтеза аудио в примере 2 настоящего изобретения.FIG. 25 is a view showing an example of a functional configuration of an audio synthesis unit in Example 2 of the present invention.

Фиг. 26 представляет собой вид, показывающий пример функциональной конфигурации блока декодирования аудиопараметров в примере 2 настоящего изобретения.FIG. 26 is a view showing an example of a functional configuration of an audio parameter decoding unit in Example 2 of the present invention.

Фиг. 27 представляет собой вид, показывающий пример функциональной конфигурации блока кодирования побочной информации в примере 3 настоящего изобретения.FIG. 27 is a view showing an example of a functional configuration of a side information encoding unit in Example 3 of the present invention.

Фиг. 28 представляет собой вид, показывающий процедуру блока кодирования побочной информации в примере 3 настоящего изобретения.FIG. 28 is a view showing a procedure of a side information coding unit in Example 3 of the present invention.

Фиг. 29 представляет собой вид, показывающий процедуру блока выбора запаздывания основного тона в примере 3 настоящего изобретения.FIG. 29 is a view showing the procedure of the pitch lag selection unit in Example 3 of the present invention.

Фиг. 30 представляет собой вид, показывающий процедуру блока декодирования побочной информации в примере 3 настоящего изобретения.FIG. 30 is a view showing a procedure of a side information decoding unit in Example 3 of the present invention.

Фиг. 31 представляет собой вид, показывающий конфигурацию программы кодирования аудио и носителя данных согласно варианту осуществления настоящего изобретения.FIG. 31 is a view showing the configuration of an audio coding program and a storage medium according to an embodiment of the present invention.

Фиг. 32 представляет собой вид, показывающий конфигурацию программы декодирования аудио и носителя данных согласно варианту осуществления настоящего изобретения.FIG. 32 is a view showing the configuration of an audio decoding program and a storage medium according to an embodiment of the present invention.

Фиг. 33 представляет собой вид, показывающий пример функциональной конфигурации блока кодирования побочной информации в примере 4 настоящего изобретения.FIG. 33 is a view showing an example of a functional configuration of a side information encoding unit in Example 4 of the present invention.

Фиг. 34 представляет собой вид, показывающий процедуру блока кодирования побочной информации в примере 4 настоящего изобретения.FIG. 34 is a view showing a procedure of a side information coding unit in Example 4 of the present invention.

Фиг. 35 представляет собой вид, показывающий процедуру блока предсказания запаздывания основного тона в примере 4 настоящего изобретения.FIG. 35 is a view showing a procedure of a pitch lag prediction block in Example 4 of the present invention.

Фиг. 36 представляет собой другой вид, показывающий процедуру блока предсказания запаздывания основного тона в примере 4 настоящего изобретения.FIG. 36 is another view showing the procedure of the pitch lag prediction unit in Example 4 of the present invention.

Фиг. 37 представляет собой другой вид, показывающий процедуру блока предсказания запаздывания основного тона в примере 4 настоящего изобретения.FIG. 37 is another view showing the procedure of the pitch lag prediction block in Example 4 of the present invention.

Фиг. 38 представляет собой вид, показывающий процедуру блока вычисления адаптивной кодовой книги в примере 4 настоящего изобретения.FIG. 38 is a view showing a procedure of an adaptive codebook calculator in Example 4 of the present invention.

Фиг. 39 представляет собой вид, показывающий пример функциональной конфигурации блока кодирования побочной информации в примере 5 настоящего изобретения.FIG. 39 is a view showing an example of a functional configuration of a side information encoding unit in Example 5 of the present invention.

Фиг. 40 представляет собой вид, показывающий процедуру блока кодирования запаздывания основного тона в примере 5 настоящего изобретения.FIG. 40 is a view showing a procedure of a pitch lag coding unit in Example 5 of the present invention.

Фиг. 41 представляет собой вид, показывающий процедуру блока декодирования побочной информации в примере 5 настоящего изобретения.FIG. 41 is a view showing a procedure of a side information decoding unit in Example 5 of the present invention.

Фиг. 42 представляет собой вид, показывающий процедуру блока предсказания запаздывания основного тона в примере 5 настоящего изобретения.FIG. 42 is a view showing a procedure of a pitch lag prediction block in Example 5 of the present invention.

Фиг. 43 представляет собой вид, показывающий процедуру блока вычисления адаптивной кодовой книги в примере 5 настоящего изобретения.FIG. 43 is a view showing a procedure of an adaptive codebook calculator in Example 5 of the present invention.

Описание вариантов осуществленияDescription of embodiments

[0041] Варианты осуществления настоящего изобретения описываются в дальнейшем в этом документе со ссылкой на приложенные чертежи. Следует отметить, что где возможно, одинаковые элементы обозначаются одинаковыми позиционными обозначениями и их избыточное описание пропущено.[0041] Embodiments of the present invention are described hereinafter in this document with reference to the accompanying drawings. It should be noted that where possible, like elements are denoted with like reference numerals and redundant descriptions thereof are omitted.

[0042] Вариант осуществления настоящего изобретения относится к кодеру и декодеру, которые реализуют "технологию маскирования потери пакета с использованием побочной информации", которая кодирует и передает побочную информацию, вычисленную на стороне кодера, для использования при маскировании потери пакета на стороне декодера.[0042] An embodiment of the present invention relates to an encoder and a decoder that implement a "side information packet loss concealment technique" that encodes and transmits side information calculated on the encoder side for use in decoder side packet loss concealment.

[0043] В вариантах осуществления настоящего изобретения побочная информация, которая используется для маскирования потери пакета, содержится в предыдущем (предшествующем) пакете. Фиг. 3 показывает временную взаимосвязь между аудиокодом и кодом побочной информации, содержащемся в пакете. Как проиллюстрировано на Фиг. 3, побочная информации в вариантах осуществления настоящего изобретения представляет собой параметры (запаздывание основного тона, усиление адаптивной кодовой книги и другие), которые вычисляются для прогнозного сигнала при кодировании с CELP.[0043] In embodiments of the present invention, side information that is used to conceal a packet loss is contained in the previous (prior) packet. FIG. 3 shows the temporal relationship between the audio code and the side information code contained in the packet. As illustrated in FIG. 3, side information in embodiments of the present invention are parameters (pitch lag, adaptive codebook gain, and others) that are computed for a prediction signal when encoded with CELP.

[0044] Поскольку побочная информация содержится в предыдущем пакете, можно выполнять декодирование без ожидания пакета, который поступает после пакета, который должен быть декодирован. Дополнительно, когда обнаружена потеря пакета, поскольку побочная информация для кадра, который должен быть замаскирован, получается из предыдущего пакета, можно реализовывать высокоточное маскирование потери пакета без ожидания следующего пакета.[0044] Since the side information is contained in the previous packet, decoding can be performed without waiting for the packet that comes after the packet to be decoded. Additionally, when a packet loss is detected, since side information for a frame to be masked is obtained from a previous packet, highly accurate packet loss concealment can be implemented without waiting for the next packet.

[0045] В дополнение, посредством передачи параметров для кодирования с CELP в прогнозном сигнале в качестве побочной информации, можно устранять несовместимость адаптивных кодовых книг даже в случае потери пакета.[0045] In addition, by passing parameters for coding with CELP in the prediction signal as side information, it is possible to eliminate the adaptive codebook incompatibility even in case of packet loss.

[0046] Варианты осуществления настоящего изобретения могут быть составлены из устройства передачи аудиосигнала (устройство кодирования аудио) и устройства приема аудиосигнала (устройство декодирования аудио). Пример функциональной конфигурации устройства передачи аудиосигнала показан на Фиг. 4 и примерная процедура упомянутого устройство показана на Фиг. 6. Дополнительно, один пример функциональной конфигурации устройства приема аудиосигнала показан на Фиг. 5 и примерная процедура упомянутого устройства показана на Фиг. 7.[0046] Embodiments of the present invention may be composed of an audio signal transmitting apparatus (audio coding apparatus) and an audio signal receiving apparatus (audio decoding apparatus). An example of the functional configuration of the audio signal transmission apparatus is shown in FIG. 4 and an exemplary procedure for said device is shown in FIG. 6. Additionally, one example of a functional configuration of an audio signal receiving apparatus is shown in FIG. 5 and an exemplary procedure for said apparatus is shown in FIG. 7.

[0047] Как показано на Фиг. 4, устройство передачи аудиосигнала включает в себя блок 111 кодирования аудио и блок 112 кодирования побочной информации. Как показано на Фиг. 5, устройство приема аудиосигнала включает в себя буфер 121 аудиокода, блок 122 декодирования аудиопараметров, блок 123 обработки отсутствующих аудиопараметров, блок 124 синтеза аудио, блок 125 декодирования побочной информации и блок 126 сбора побочной информации.[0047] As shown in FIG. 4, the audio signal transmission apparatus includes an audio coding section 111 and a side information coding section 112. As shown in FIG. 5, the audio signal receiving apparatus includes an audio code buffer 121, an audio parameter decoding section 122, a missing audio parameter processing section 123, an audio synthesis section 124, a side information decoding section 125, and a side information collecting section 126.

[0048] Устройство передачи аудиосигнала кодирует аудиосигнал для каждого кадра и может передавать аудиосигнал посредством примерной процедуры, показанной на Фиг. 6.[0048] An audio transmission apparatus encodes an audio signal for each frame, and can transmit an audio signal through the exemplary procedure shown in FIG. 6.

[0049] Блок 111 кодирования аудио может вычислять аудиопараметры для кадра, который должен быть закодирован, и выводить аудиокод (этап S131 на Фиг. 6).[0049] The audio coding unit 111 may calculate audio parameters for the frame to be encoded and output the audio code (step S131 in FIG. 6).

[0050] Блок 112 кодирования побочной информации может вычислять аудиопараметры для прогнозного сигнала и выводить код побочной информации (этап S132 на Фиг. 6).[0050] The side information encoding unit 112 may calculate audio parameters for the prediction signal and output the side information code (step S132 in FIG. 6).

[0051] Определяется, закончился ли аудиосигнал, и вышеуказанные этапы могут повторяться до тех пор, пока не закончится аудиосигнал (этап S133 на Фиг. 6).[0051] It is determined whether the audio signal has ended, and the above steps may be repeated until the audio signal ends (step S133 in FIG. 6).

[0052] Устройство приема аудиосигнала декодирует принятый аудиопакет и выводит аудиосигнал посредством примерной процедуры, показанной на Фиг. 7.[0052] The audio signal receiving apparatus decodes the received audio packet and outputs the audio signal through the exemplary procedure shown in FIG. 7.

[0053] Буфер 121 аудиокода ожидает поступления аудиопакета и собирает аудиокод. Когда аудиопакет поступил корректно, обработка переключается на блок 122 декодирования аудиопараметров. С другой стороны, когда аудиопакет не поступил корректно, обработка переключается на блок 123 обработки отсутствующих аудиопараметров (этап S141 на Фиг. 7).[0053] The audio code buffer 121 waits for an audio packet to arrive and collects the audio code. When the audio packet arrives correctly, processing switches to the audio parameter decoding unit 122. On the other hand, when the audio packet has not arrived correctly, the processing switches to the missing audio parameter processing unit 123 (step S141 in FIG. 7).

[0054] <Когда аудиопакет принят корректно>[0054] <When the audio packet is received correctly>

Блок 122 декодирования аудиопараметров декодирует аудиокод и выводит аудиопараметры (этап S142 на Фиг. 7).The audio parameter decoding unit 122 decodes the audio code and outputs the audio parameters (step S142 in FIG. 7).

[0055] Блок 125 декодирования побочной информации декодирует код побочной информации и выводит побочную информацию. Выводимая побочная информация отправляется в блок 126 сбора побочной информации (этап S143 на Фиг. 7).[0055] The side information decoding unit 125 decodes the side information code and outputs the side information. The outputted side information is sent to the side information collecting unit 126 (step S143 in FIG. 7).

[0056] Блок 124 синтеза аудио синтезирует аудиосигнал из аудиопараметров, выводимых из блока 122 декодирования аудиопараметров, и выводит синтезированный аудиосигнал (этап S144 на Фиг. 7).[0056] The audio synthesizing unit 124 synthesizes an audio signal from the audio parameters output from the audio parameter decoding unit 122, and outputs the synthesized audio signal (step S144 in FIG. 7).

[0057] Блок 123 обработки отсутствующих аудиопараметров собирает аудиопараметры, выводимые из блока 122 декодирования аудиопараметров, на случай потери пакета (этап S145 на Фиг. 7).[0057] The missing audio parameter processing unit 123 collects the audio parameters output from the audio parameter decoding unit 122 in case of a packet loss (step S145 in FIG. 7).

[0058] Буфер 121 аудиокода определяет, завершена ли передача аудиопакетов, и когда передача аудиопакетов завершена, останавливает обработку. Пока продолжается передача аудиопакетов, повторяются вышеуказанные этапы с S141 по S146 (этап S147 на Фиг. 7).[0058] The audio code buffer 121 determines whether the transmission of audio packets is completed, and when the transmission of audio packets is completed, stops processing. While the transmission of audio packets continues, the above steps S141 to S146 are repeated (step S147 in FIG. 7).

[0059] <Когда аудиопакет потерян >[0059] <When audio packet is lost>

Блок 123 обработки отсутствующих аудиопараметров считывает побочную информации из блока 126 сбора побочной информации и осуществляет предсказание для параметра (-ов), не содержащихся в побочной информации, и посредством этого выводит аудиопараметры (этап S146 на Фиг. 7).The audio missing parameter processing unit 123 reads side information from the side information collecting unit 126 and performs prediction on the parameter (s) not included in the side information, and thereby outputs the audio parameters (step S146 in FIG. 7).

[0060] Блок 124 синтеза аудио синтезирует аудиосигнал из аудиопараметров, выводимых из блока 123 обработки отсутствующих аудиопараметров, и выводит синтезированный аудиосигнал (этап S144 на Фиг. 7).[0060] The audio synthesis unit 124 synthesizes an audio signal from the audio parameters output from the missing audio parameter processing unit 123, and outputs the synthesized audio signal (step S144 in FIG. 7).

[0061] Блок 123 обработки отсутствующих аудиопараметров собирает аудиопараметры, выводимые из блока 123 обработки отсутствующих аудиопараметров, на случай потери пакета (этап S145 на Фиг. 7).[0061] The missing audio parameter processing unit 123 collects the audio parameters output from the audio missing parameter processing unit 123 in case of packet loss (step S145 in FIG. 7).

[0062] Буфер 121 аудиокода определяет, завершена ли передача аудиопакетов, и когда передача аудиопакетов завершена, останавливает обработку. Пока продолжается передача аудиопакетов, повторяются вышеуказанные этапы с S141 по S146 (этап S147 на Фиг. 7).[0062] The audio code buffer 121 determines whether the transmission of audio packets is complete, and when the transmission of audio packets is completed, stops processing. While the transmission of audio packets continues, the above steps S141 to S146 are repeated (step S147 in FIG. 7).

[0063] [Пример 1][0063] [Example 1]

В этом примере случая, в котором запаздывание основного тона передается в качестве побочной информации, запаздывание основного тона может быть использовано для генерирования сигнала маскирования потери пакета на стороне декодирования.In this example of a case in which the pitch lag is transmitted as side information, the pitch lag can be used to generate a packet loss concealment signal on the decoding side.

[0064] Пример функциональной конфигурации устройства передачи аудиосигнала показан на Фиг. 4 и пример функциональной конфигурации устройства приема аудиосигнала показан на Фиг. 5. Пример процедуры устройства передачи аудиосигнала показан на Фиг. 6 и пример процедуры устройства приема аудиосигнала показан на Фиг. 7.[0064] An example of a functional configuration of an audio signal transmission apparatus is shown in FIG. 4 and an example of the functional configuration of the audio signal receiving apparatus is shown in FIG. 5. An example of the procedure of the audio signal transmission apparatus is shown in FIG. 6 and an example of a procedure of an audio signal receiving apparatus is shown in FIG. 7.

[0065] <Сторона передачи>[0065] <Transmission side>

В устройстве передачи аудиосигнала входной аудиосигнал отправляется в блок 111 кодирования аудио.In the audio signal transmission apparatus, the input audio signal is sent to the audio coding unit 111.

[0066] Блок 111 кодирования аудио кодирует кадр, который должен быть закодирован, посредством кодирования с CELP (этап 131 на Фиг. 6). Для получения более подробной информации о кодировании с CELP, в качестве примера используется способ, описанный в непатентной литературе 3. Подробности процедуры кодирования с CELP пропущены. Следует отметить, что при кодировании с CELP локальное декодирование выполняется на стороне кодирования. Локальное декодирование предназначено для декодирования аудиокода также на стороне кодирования и получения параметров (параметра ISP и соответствующего параметра ISF, запаздывания основного тона, параметра долгосрочного предсказания, адаптивной кодовой книги, усиления адаптивной кодовой книги, усиления фиксированной кодовой книги, вектора фиксированной кодовой книги и так далее), требуемых для синтеза аудио. Параметры, получаемые локальным декодированием, включают в себя: по меньшей мере один или оба из параметра ISP и параметра ISF, запаздывание основного тона и адаптивную кодовую книгу, которые отправляются в блок 112 кодирования побочной информации. В случае, когда кодирование аудио, описанное в непатентной литературе 4, используется в блоке 111 кодирования аудио, индекс, представляющий характеристики кадра, который должен быть закодирован, также может быть отправлен в блок 112 кодирования побочной информации. В вариантах осуществления, кодирование, отличное от кодирования с CELP, может быть использовано в блоке 111 кодирования аудио. В вариантах осуществления с использованием другого кодирования, по меньшей мере один или оба из параметра ISP и параметра ISF, запаздывание основного тона и адаптивная кодовая книга могут быть отдельно вычислены из входного сигнала или декодированного сигнала, полученного локальным декодированием, и отправлены в блок 112 кодирования побочной информации.[0066] The audio coding unit 111 encodes a frame to be encoded by coding with CELP (step 131 in FIG. 6). For more details on CELP encoding, the method described in non-patent literature 3 is used as an example. Details of the CELP encoding procedure are omitted. It should be noted that in CELP encoding, local decoding is performed on the encoding side. Local decoding is for decoding audio code also on the coding side and obtaining parameters (ISP parameter and corresponding ISF parameter, pitch lag, long-term prediction parameter, adaptive codebook, adaptive codebook gain, fixed codebook gain, fixed codebook vector, and so on. ) required for audio synthesis. The parameters obtained by local decoding include at least one or both of an ISP parameter and an ISF parameter, a pitch lag and an adaptive codebook, which are sent to the side information encoding unit 112. In the case where the audio coding described in Non-Patent Literature 4 is used in the audio coding unit 111, an index representing characteristics of a frame to be encoded may also be sent to the side information coding unit 112. In embodiments, coding other than CELP coding may be used in audio coding unit 111. In embodiments using different coding, at least one or both of the ISP parameter and the ISF parameter, the pitch lag and the adaptive codebook may be separately computed from the input signal or the decoded local decoding signal and sent to the side coding unit 112. information.

[0067] Блок 112 кодирования побочной информации вычисляет код побочной информации с использованием параметров, вычисленных блоком 111 кодирования аудио, и прогнозного сигнала (этап 132 на Фиг. 6). Как показано в пример с Фиг. 8, блок 112 кодирования побочной информации включает в себя блок 151 вычисления коэффициента LP, блок 152 вычисления целевого сигнала, блок 153 вычисления запаздывания основного тона, блок 154 вычисления адаптивной кодовой книги, блок 155 синтеза вектора возбуждения, буфер 156 адаптивных кодовых книг, фильтр 157 синтеза и блок 158 кодирования запаздывания основного тона. Примерная процедура в блоке кодирования побочной информации показана на Фиг. 9.[0067] The side information encoding unit 112 calculates the side information code using the parameters calculated by the audio encoding unit 111 and the prediction signal (step 132 in FIG. 6). As shown in the example of FIG. 8, the side information coding unit 112 includes an LP coefficient calculating unit 151, a target signal calculating unit 152, a pitch lag calculating unit 153, an adaptive codebook calculating unit 154, an excitation vector synthesis unit 155, an adaptive codebook buffer 156, a filter 157 synthesis and block 158 encoding the delay of the main tone. An exemplary procedure in a side information coding unit is shown in FIG. nine.

[0068] Блок 151 вычисления коэффициента LP вычисляет коэффициент LP с использованием параметра ISF, вычисляемого блоком 111 кодирования аудио, и параметра ISF, вычисляемого в прошлых нескольких кадрах (этап 161 на Фиг. 9). Процедура блока 151 вычисления коэффициента LP показана на Фиг. 10.[0068] The LP coefficient calculating unit 151 calculates the LP coefficient using the ISF calculated by the audio coding unit 111 and the ISF calculated in the past several frames (step 161 in FIG. 9). The procedure of the LP coefficient calculating unit 151 is shown in FIG. ten.

[0069] Сначала, буфер обновляется с использованием параметра ISF, получаемого из блока 111 кодирования аудио (этап 171 на Фиг. 10). Затем, вычисляется параметр ISF

Figure 00000002
в прогнозном сигнале. Параметр ISF
Figure 00000002
вычисляется следующим уравнением (этап 172 на Фиг. 10).[0069] First, the buffer is updated using the ISF parameter obtained from the audio coding unit 111 (step 171 in FIG. 10). Then, the ISF parameter is calculated
Figure 00000002
in the forecast signal. ISF parameter
Figure 00000002
is computed by the following equation (step 172 in FIG. 10).

Figure 00000003
Уравнение 2
Figure 00000003
Equation 2

Figure 00000004
Уравнение 3
Figure 00000004
Equation 3

где

Figure 00000005
является параметром ISF, сохраненным в буфере, который предназначен для кадра, которому предшествует j-число кадров. Дополнительно
Figure 00000006
является параметром ISF во время периода речи, который вычисляется заранее посредством обучения или подобным.
Figure 00000007
является константой и может быть значением, например, таким как 0,75, хотя не ограничивается им. Дополнительно
Figure 00000008
также является константой и может быть значением, например, таким как 0,9, хотя не ограничивается им.
Figure 00000006
,
Figure 00000008
и
Figure 00000007
могут меняться посредством индекса, представляющего характеристики кадра, который должен быть закодирован, как при маскировании ISF, описанном, например, в непатентной литературе 4.Where
Figure 00000005
is an ISF parameter stored in a buffer that is for a frame preceded by a j-number of frames. Additionally
Figure 00000006
is an ISF parameter during a speech period, which is calculated in advance by training or the like.
Figure 00000007
is constant and may be a value such as, for example, 0.75, but is not limited thereto. Additionally
Figure 00000008
is also a constant and can be a value such as, for example, 0.9, although not limited to it.
Figure 00000006
,
Figure 00000008
and
Figure 00000007
can be varied by an index representing the characteristics of the frame to be encoded, as in ISF concealment, described, for example, in non-patent literature 4.

[0070] В дополнение, значения i расположены так, что

Figure 00000002
удовлетворяет
Figure 00000009
, и значения
Figure 00000002
могут быть скорректированы так, чтобы смежное
Figure 00000002
не располагалось слишком близко. В качестве процедуры для корректировки значения
Figure 00000002
, может быть использована, например, непатентная литература 4 (уравнение 151) (этап 173 на Фиг. 10).[0070] In addition, the i values are arranged such that
Figure 00000002
satisfies
Figure 00000009
, and the values
Figure 00000002
can be adjusted so that the adjacent
Figure 00000002
was not too close. As a procedure for adjusting the value
Figure 00000002
, can be used, for example, non-patent literature 4 (equation 151) (step 173 in Fig. 10).

[0071] После этого, параметр ISF

Figure 00000002
преобразуется в параметр ISP и интерполяция может быть выполнена для каждого подкадра. В качестве способа вычисления параметра ISP из параметра ISF может быть использован способ, описанный в разделе 6.4.4 в непатентной литературе 4, и в качестве способа интерполяции может быть использована процедура, описанная в разделе 6.8.3 в непатентной литературе 4 (этап 174 на Фиг. 10).[0071] After that, the ISF parameter
Figure 00000002
is mapped to an ISP parameter and interpolation can be performed for each subframe. As a method for calculating the ISP parameter from the ISF parameter, the method described in Section 6.4.4 in Non-Patent Literature 4 may be used, and as the interpolation method, the procedure described in Section 6.8.3 in Non-Patent Literature 4 may be used (step 174 in FIG. . ten).

[0072] Затем, параметр ISP для каждого подкадра преобразуется в коэффициент LP

Figure 00000010
. Число подкадров, содержащихся в прогнозном сигнале, равно
Figure 00000011
. Для преобразования из параметра ISP в коэффициент LP может быть использована процедура, описанная в разделе 6.4.5 в непатентной литературе 4 (этап 175 на Фиг. 10).[0072] Then, the ISP parameter for each subframe is converted to an LP factor
Figure 00000010
... The number of subframes contained in the predicted signal is
Figure 00000011
... The procedure described in Section 6.4.5 in Non-Patent Literature 4 (step 175 in FIG. 10) can be used to convert from ISP to LP.

[0073] Блок 152 вычисления целевого сигнала вычисляет целевой сигнал x(n) и импульсную характеристику h(n) посредством использования коэффициента LP

Figure 00000012
(этап 162 на Фиг. 9). Как описано в разделе 6.8.4.1.3 в непатентной литературе 4, целевой сигнал получается посредством применения перцептивного взвешивающего фильтра к остаточному сигналу линейного предсказания (Фиг. 11).[0073] Target signal calculator 152 calculates target signal x (n) and impulse response h (n) by using coefficient LP
Figure 00000012
(step 162 in FIG. 9). As described in section 6.8.4.1.3 in Non-Patent Literature 4, the target signal is obtained by applying a perceptual weighting filter to the linear prediction residual signal (FIG. 11).

[0074] Сначала остаточный сигнал r(n) из прогнозного сигнала

Figure 00000013
вычисляется с использованием коэффициента LP согласно следующему уравнению (этап 181 на Фиг. 11).[0074] First, the residual signal r (n) from the predictive signal
Figure 00000013
is calculated using the LP coefficient according to the following equation (step 181 in FIG. 11).

Figure 00000014
Уравнение 4
Figure 00000014
Equation 4

[0075] Следует отметить, что

Figure 00000015
указывает число отсчетов подкадра, и L указывает число отсчетов кадра, который должен быть закодирован
Figure 00000016
. Затем удовлетворяется
Figure 00000017
.[0075] It should be noted that
Figure 00000015
indicates the number of samples of the subframe, and L indicates the number of samples of the frame to be encoded
Figure 00000016
... Then satisfied
Figure 00000017
...

[0076] В дополнение, целевой сигнал

Figure 00000018
вычисляется следующими уравнениями (этап 182 на Фиг. 11).[0076] In addition, the target signal
Figure 00000018
is computed by the following equations (step 182 in FIG. 11).

Figure 00000019
Уравнение 5
Figure 00000019
Equation 5

Figure 00000020
Уравнение 6
Figure 00000020
Equation 6

Figure 00000021
Уравнение 7
Figure 00000021
Equation 7

Figure 00000022
Уравнение 8
Figure 00000022
Equation 8

где перцептивный взвешивающий фильтр ϒ=0,68. Значение перцептивного взвешивающего фильтра может быть некоторым другим значением согласно методике расчета кодирования аудио.where the perceptual weighting filter ϒ = 0.68. The perceptual weighting filter value may be some other value according to the audio coding calculation technique.

[0077] Затем импульсная характеристика

Figure 00000023
вычисляется следующими уравнениями (этап 183 на Фиг. 11).[0077] Then the impulse response
Figure 00000023
is calculated by the following equations (step 183 in FIG. 11).

Figure 00000024
Уравнение 9
Figure 00000024
Equation 9

Figure 00000025
Уравнение 10
Figure 00000025
Equation 10

[0078] Блок 153 вычисления запаздывания основного тона вычисляет запаздывание основного тона для каждого подкадра посредством вычисления k, которое максимизирует следующее уравнение (этап 163 на Фиг. 9). Следует отметить, что для того, чтобы сократить количество вычислений, вышеописанные вычисление целевого сигнала (этап 182 на Фиг. 11) и вычисление импульсной характеристики (этап 183 на Фиг. 11) могут быть пропущены, и остаточный сигнал может быть использован в качестве целевого сигнала.[0078] Pitch lag calculating unit 153 calculates the pitch lag for each subframe by calculating k that maximizes the following equation (step 163 in FIG. 9). It should be noted that in order to reduce the number of computations, the above-described target signal computation (step 182 in FIG. 11) and impulse response computation (step 183 in FIG. 11) may be omitted, and the residual signal may be used as the target signal. ...

Figure 00000026
Figure 00000026

Figure 00000027
Уравнение 11
Figure 00000027
Equation 11

Figure 00000028
Уравнение 12
Figure 00000028
Equation 12

Figure 00000029
Уравнение 13
Figure 00000029
Equation 13

Следует отметить, что

Figure 00000030
получается посредством свертки импульсной характеристики с остатком линейного предсказания. Int(i) указывает интерполяционный фильтр. Детали интерполяционного фильтра являются такими, как описаны в разделе 6.8.4.1.4.1 в непатентной литературе 4. Как само собой разумеющееся
Figure 00000031
может быть применено без использования интерполяционного фильтра.It should be noted that
Figure 00000030
obtained by convolving the impulse response with a linear prediction residual. Int (i) indicates an interpolation filter. The details of the interpolation filter are as described in section 6.8.4.1.4.1 in the non-patent literature 4. As a matter of course
Figure 00000031
can be applied without using an interpolation filter.

[0079] Несмотря на то, что запаздывание основного тона может быть вычислено как целое число вышеописанным способом вычисления, точность запаздывания основного тона может быть увеличена до точности после десятичной запятой посредством интерполяции вышеуказанного Tk.[0079] Although the pitch lag can be calculated as an integer by the above-described calculation method, the pitch lag precision can be increased to the precision after the decimal point by interpolating the above T k .

Для подробностей процедуры для вычисления запаздывания основного тона после десятичной запятой посредством интерполяции, может быть использован способ обработки, описанный в разделе 6.8.4.1.4.1 в непатентной литературе 4.For the details of the procedure for calculating the pitch lag after the decimal point by interpolation, the processing method described in section 6.8.4.1.4.1 in the non-patent literature 4 may be used.

[0080] Блок 154 вычисления адаптивной кодовой книги вычисляет вектор

Figure 00000032
адаптивной кодовой книги и параметр долгосрочного предсказания из запаздывания Tp основного тона и адаптивной кодовой книги u(n), сохраненной в буфере 156 адаптивных кодовых книг, согласно следующему уравнению (этап 164 на Фиг. 9).[0080] The adaptive codebook calculator 154 computes a vector
Figure 00000032
adaptive codebook and long-term prediction parameter from pitch lag T p and adaptive codebook u (n) stored in adaptive codebook buffer 156 according to the following equation (block 164 in FIG. 9).

Figure 00000033
Уравнение 14
Figure 00000033
Equation 14

Для подробностей процедуры для вычисления долгосрочного параметра может быть использован способ, описанный в разделе 5.7 в непатентной литературе 3.For the details of the procedure for calculating the long-term parameter, the method described in section 5.7 in the non-patent literature 3 can be used.

[0081] Блок 155 синтеза вектора возбуждения умножает вектор

Figure 00000034
адаптивной кодовой книги на некоторое предопределенное усиление
Figure 00000035
адаптивной кодовой книги и выводит вектор сигнала возбуждения согласно следующему уравнению (этап 165 на Фиг. 9).[0081] Block 155 synthesis of the excitation vector multiplies the vector
Figure 00000034
adaptive codebook for some predefined gain
Figure 00000035
adaptive codebook and outputs the excitation signal vector according to the following equation (step 165 in FIG. 9).

Figure 00000036
Уравнение 15
Figure 00000036
Equation 15

Несмотря на то, что значение усиления

Figure 00000035
адаптивной кодовой книги может быть 1,0 или подобным, например, может быть использовано значение, заранее полученное обучением, или оно может быть изменено индексом, представляющим характеристики кадра, который должен быть закодирован.Although the gain value
Figure 00000035
adaptive codebook may be 1.0 or the like, for example, a value obtained in advance by training may be used, or it may be changed by an index representing characteristics of the frame to be encoded.

[0082] Затем, состояние адаптивной кодовой книги u(n), сохраненной в буфере 156 адаптивных кодовых книг, обновляется посредством вектора сигнала возбуждения согласно следующим уравнениям (этап 166 на Фиг. 9).[0082] Next, the state of the adaptive codebook u (n) stored in the adaptive codebook buffer 156 is updated with the excitation vector according to the following equations (block 166 in FIG. 9).

Figure 00000037
Уравнение 16
Figure 00000037
Equation 16

Figure 00000038
Уравнение 17
Figure 00000038
Equation 17

[0083] Фильтр 157 синтеза синтезирует декодированный сигнал согласно следующему уравнению посредством обратной фильтрации линейного предсказания с использованием вектора сигнала возбуждения в качестве источника возбуждения (этап 167 на Фиг. 9).[0083] The synthesis filter 157 synthesizes the decoded signal according to the following equation by inverse linear prediction filtering using the excitation signal vector as the excitation source (step 167 in FIG. 9).

Figure 00000039
Уравнение 18
Figure 00000039
Equation 18

[0084] Вышеописанные этапы с 162 по 167 на Фиг. 9 повторяются для каждого подкадра до конца прогнозного сигнала (этап 168 на Фиг. 9).[0084] The above steps 162 through 167 in FIG. 9 are repeated for each subframe until the end of the prediction signal (step 168 in FIG. 9).

[0085] Блок 158 кодирования запаздывания основного тона кодирует запаздывание

Figure 00000040
основного тона, которое вычисляется в прогнозном сигнале (этап 169 на Фиг. 9). Число подкадров, содержащихся в прогнозном сигнале, равно
Figure 00000041
.[0085] The pitch lag encoding unit 158 encodes the pitch lag
Figure 00000040
the pitch that is calculated in the prediction signal (step 169 in FIG. 9). The number of subframes contained in the predicted signal is
Figure 00000041
...

[0086] Кодирование может быть выполнено способом, например, таким как один из следующих способов, хотя любой способ может быть использован для кодирования.[0086] The encoding may be performed in a manner such as, for example, one of the following techniques, although any technique may be used for encoding.

1. Способ, который выполняет двоичное кодирование, скалярное квантование, векторное квантование или арифметическое кодирование над частью или всем запаздыванием

Figure 00000042
основного тона и передает результат.1. A method that performs binary coding, scalar quantization, vector quantization, or arithmetic coding on part or all of the delay
Figure 00000042
pitch and conveys the result.

2. Способ, который выполняет двоичное кодирование, скалярное квантование, векторное квантование или арифметическое кодирование над частью или всей разностью

Figure 00000043
из запаздывания основного тона предыдущего подкадра и передает результат, где
Figure 00000044
является запаздыванием основного тона последнего подкадра в кадре, который должен быть закодирован.2. A method that performs binary coding, scalar quantization, vector quantization, or arithmetic coding on part or all of the difference
Figure 00000043
from the pitch lag of the previous subframe and transmits the result, where
Figure 00000044
is the pitch lag of the last subframe in the frame to be encoded.

3. Способ, который выполняет векторное квантование или арифметическое кодирование либо над частью, либо над всем запаздыванием

Figure 00000045
основного тона, и частью или всем запаздыванием основного тона, вычисленным для кадра, который должен быть закодирован, и передает результат.3. A method that performs vector quantization or arithmetic coding on either part or all of the delay
Figure 00000045
the pitch, and some or all of the pitch lag calculated for the frame to be encoded and conveys the result.

4. Способ, который выбирает один из некоторого числа предопределенных способов интерполяции на основе части или всего запаздывания

Figure 00000046
основного тона и передает индекс, указывающий выбранный способ интерполяции. В это время запаздывание основного тона множества подкадров, используемых для синтеза аудио в прошлом, также может быть использовано для выбора способа интерполяции.4. A method that selects one of a number of predefined interpolation methods based on part or all of the delay
Figure 00000046
pitch and transmits an index indicating the selected interpolation method. At this time, the pitch lag of the plurality of subframes used for audio synthesis in the past can also be used to select an interpolation method.

[0087] Для скалярного квантования и векторного квантования может быть использована кодовая книга, определяемая эмпирически, или кодовая книга, вычисляемая заранее посредством обучения. Дополнительно, способ, который выполняет кодирование после добавления значения смещения к вышеуказанному запаздыванию основного тона, также может быть включен в объем варианта осуществления настоящего изобретения как само собой разумеющееся.[0087] For scalar quantization and vector quantization, an empirically determined codebook or a codebook calculated in advance by training can be used. Additionally, a method that performs encoding after adding an offset value to the above pitch lag can also be included within the scope of an embodiment of the present invention as a matter of course.

[0088] <Сторона декодирования>[0088] <Decode side>

Как показано на Фиг. 5, пример устройства приема аудиосигнала включает в себя буфер 121 аудиокода, блок 122 декодирования аудиопараметров, блок 123 обработки отсутствующих аудиопараметров, блок 124 синтеза аудио, блок 125 декодирования побочной информации и блок 126 сбора побочной информации. Процедура устройства приема аудиосигнала является такой, как показана в примере с Фиг. 7.As shown in FIG. 5, an example of an audio signal receiving apparatus includes an audio code buffer 121, an audio parameter decoding section 122, a missing audio parameter processing section 123, an audio synthesis section 124, a side information decoding section 125, and a side information collecting section 126. The procedure of the audio signal receiving apparatus is as shown in the example of FIG. 7.

[0089] Буфер 121 аудиокода определяет, принят ли пакет корректно или нет. Когда буфер 121 аудиокода определяет, что пакет принят корректно, обработка переключается на блок 122 декодирования аудиопараметров и блок 125 декодирования побочной информации. С другой стороны, когда буфер 121 аудиокода определяет, что пакет принят некорректно, обработка переключается на блок 123 обработки отсутствующих аудиопараметров (этап 141 на Фиг. 7).[0089] The audio code buffer 121 determines whether the packet is received correctly or not. When the audio code buffer 121 determines that the packet has been received correctly, processing switches to the audio parameter decoding section 122 and the side information decoding section 125. On the other hand, when the audio code buffer 121 determines that the packet has not been received correctly, the processing switches to the missing audio parameter processing unit 123 (step 141 in FIG. 7).

[0090] <Когда пакет принят корректно>[0090] <When the packet is received correctly>

Блок 122 декодирования аудиопараметров декодирует принятый аудиокод и вычисляет аудиопараметры, требуемые для синтезирования аудио для кадра, который должен быть закодирован (параметр ISP и соответствующий параметр ISF, запаздывание основного тона, параметр долгосрочного предсказания, адаптивную кодовую книгу, усиление адаптивной кодовой книги, усиление фиксированной кодовой книги, вектор фиксированной кодовой книги и так далее) (этап 142 на Фиг. 7).The audio parameter decoding unit 122 decodes the received audio code and calculates the audio parameters required to synthesize audio for the frame to be encoded (ISP parameter and corresponding ISF parameter, pitch lag, long-term prediction parameter, adaptive codebook, adaptive codebook gain, fixed codebook gain. books, a vector of a fixed codebook, and so on) (step 142 in FIG. 7).

[0091] Блок 125 декодирования побочной информации декодирует код побочной информации, вычисляет запаздывание

Figure 00000047
основного тона и сохраняет его в блоке 126 сбора побочной информации. Блок 125 декодирования побочной информации декодирует код побочной информации посредством использования способа декодирования, соответствующего способу кодирования, используемому на стороне кодирования (этап 143 на Фиг. 7).[0091] The side information decoding unit 125 decodes the side information code, calculates the latency
Figure 00000047
the pitch and stores it in the block 126 collecting side information. The side information decoding unit 125 decodes the side information code by using a decoding method corresponding to the coding method used on the coding side (step 143 in FIG. 7).

[0092] Блок 124 синтеза аудио синтезирует аудиосигнал, соответствующий кадру, который должен быть закодирован, на основе параметров, выводимых из блока 122 декодирования аудиопараметров (этап 144 на Фиг. 7). Пример функциональной конфигурации блока 124 синтеза аудио показан на Фиг. 15 и примерная процедура блока 124 синтеза аудио показана на Фиг. 16. Следует отметить, что хотя блок 123 обработки отсутствующих аудиопараметров проиллюстрирован показывающим поток сигнала, блок 123 обработки отсутствующих аудиопараметров не включен в функциональную конфигурацию блока 124 синтеза аудио.[0092] The audio synthesizer 124 synthesizes an audio signal corresponding to a frame to be encoded based on parameters output from the audio parameter decoding unit 122 (step 144 in FIG. 7). An example of the functional configuration of the audio synthesis unit 124 is shown in FIG. 15 and an exemplary procedure of the audio synthesizer 124 is shown in FIG. 16. It should be noted that although the missing audio parameter processing unit 123 is illustrated showing a signal flow, the audio missing parameter processing unit 123 is not included in the functional configuration of the audio synthesis unit 124.

[0093] Блок 1121 вычисления коэффициента LP преобразует параметр ISF в параметр ISP и затем выполняет интерполяционную обработку и посредством этого получает коэффициент ISP для каждого подкадра. Блок 1121 вычисления коэффициента LP затем преобразует коэффициент ISP в коэффициент линейного предсказания (коэффициент LP) и посредством этого получает коэффициент LP для каждого подкадра (этап 11301 на Фиг. 16). Для интерполяции коэффициента ISP и коэффициента ISP-LP может быть использован способ, описанный, например, в разделе 6.4.5 в непатентной литературе 4. Процедура преобразования параметра не является существенной частью варианта осуществления настоящего изобретения и таким образом не описывается подробно.[0093] The LP coefficient calculating unit 1121 converts the ISF parameter into an ISP parameter and then performs interpolation processing and thereby obtains an ISP coefficient for each subframe. The LP coefficient calculator 1121 then converts the ISP coefficient to a linear prediction coefficient (LP coefficient), and thereby obtains the LP coefficient for each subframe (step 11301 in FIG. 16). To interpolate the ISP coefficient and the ISP-LP coefficient, the method described, for example, in section 6.4.5 in the non-patent literature 4 may be used. The parameter conversion procedure is not an essential part of an embodiment of the present invention and is thus not described in detail.

[0094] Блок 1123 вычисления адаптивной кодовой книги вычисляет вектор адаптивной кодовой книги посредством использования запаздывания основного тона, параметра долгосрочного предсказания и адаптивной кодовой книги 1122 (этап 11302 на Фиг. 16). Вектор

Figure 00000048
адаптивной кодовой книги вычисляется из запаздывания
Figure 00000049
основного тона и адаптивной кодовой книги u(n) согласно следующему уравнению.[0094] An adaptive codebook calculator 1123 calculates an adaptive codebook vector by using a pitch lag, a long-term prediction parameter, and an adaptive codebook 1122 (block 11302 in FIG. 16). Vector
Figure 00000048
adaptive codebook computed from lag
Figure 00000049
pitch and adaptive codebook u (n) according to the following equation.

Figure 00000050
Уравнение 19
Figure 00000050
Equation 19

Вектор адаптивной кодовой книги вычисляется посредством интерполирования адаптивной кодовой книги u(n) с использованием фильтра FIR Int(i). Длина адаптивной кодовой книги равна

Figure 00000051
. Фильтр Int(i), который используется для интерполирования, является таким же как интерполяционный фильтр из The adaptive codebook vector is computed by interpolating the adaptive codebook u (n) using the FIR Int (i) filter. The length of the adaptive codebook is
Figure 00000051
... The Int (i) filter that is used for interpolation is the same as the interpolation filter from

Figure 00000052
Уравнение 20
Figure 00000052
Equation 20

Он является фильтром FIR с некоторой предопределенной длиной 2l+1.

Figure 00000053
является числом отсчетов подкадра. Нет необходимости использовать фильтр для интерполирования, несмотря на то, что на стороне кодера фильтр используется для интерполирования.It is an FIR filter with some predefined length 2l + 1.
Figure 00000053
is the number of samples of the subframe. It is not necessary to use a filter for interpolation, although on the encoder side a filter is used for interpolation.

[0095] Блок 1123 вычисления адаптивной кодовой книги осуществляет фильтрацию в отношении вектора адаптивной кодовой книги согласно значению параметра долгосрочного предсказания (этап 11303 на Фиг. 16). Когда параметр долгосрочного предсказания имеет значение, указывающее активирование фильтрации, фильтрация выполняется в отношении вектора адаптивной кодовой книги посредством следующего уравнения.[0095] The adaptive codebook calculator 1123 filters the adaptive codebook vector according to the long-term prediction parameter value (block 11303 in FIG. 16). When the long-term prediction parameter has a value indicating that filtering is enabled, filtering is performed on the adaptive codebook vector by the following equation.

v`(n)=0,18v`(n-1)+0,64v`(n)+0,18v`(n+1) Уравнение 21v` (n) = 0.18v` (n-1) + 0.64v` (n) + 0.18v` (n + 1) Equation 21

[0096] С другой стороны, когда параметр долгосрочного предсказания имеет значение, указывающее, что отсутствует необходимость в фильтрации, фильтрация не выполняется и устанавливается

Figure 00000054
.[0096] On the other hand, when the long term prediction parameter has a value indicating that there is no need for filtering, filtering is not performed and set
Figure 00000054
...

[0097] Блок 1124 синтеза вектора возбуждения умножает вектор адаптивной кодовой книги на усиление

Figure 00000055
адаптивной кодовой книги (этап 11304 на Фиг. 16). Дополнительно, блок 1124 синтеза вектора возбуждения умножает вектор c(n) фиксированной кодовой книги на усиление
Figure 00000056
фиксированной кодовой книги (этап 11305 на Фиг. 16). Кроме того, блок 1124 синтеза вектора возбуждения складывает вместе вектор адаптивной кодовой книги и вектор фиксированной кодовой книги и выводит вектор сигнала возбуждения (этап 11306 на Фиг. 16).[0097] Excitation vector synthesis unit 1124 multiplies the adaptive codebook vector by the gain
Figure 00000055
adaptive codebook (block 11304 in FIG. 16). Additionally, block 1124 synthesis of the excitation vector multiplies the vector c (n) of the fixed codebook by the gain
Figure 00000056
a fixed codebook (block 11305 in FIG. 16). In addition, the excitation vector synthesizer 1124 adds the adaptive codebook vector and the fixed codebook vector together and outputs the excitation signal vector (step 11306 in FIG. 16).

Figure 00000057
Уравнение 22
Figure 00000057
Equation 22

[0098] Постфильтр 1125 выполняет постобработку, такую как улучшение основного тона, устранение шума и улучшение низких частот, например, над вектором сигнала возбуждения. Подробности способов, таких как улучшение основного тона, устранение шума и улучшение низких частот описаны в разделе 6.1 в непатентной литературе 3. Обработка в постфильтре не связана в значительной степени с существенной частью варианта осуществления настоящего изобретения и таким образом не описывается подробно (этап 11307 на Фиг. 16).[0098] Post-filter 1125 performs post-processing such as pitch enhancement, noise cancellation, and low-frequency enhancement, for example, on the excitation signal vector. Details of methods such as pitch improvement, noise elimination and low frequency enhancement are described in Section 6.1 in Non-Patent Literature 3. Post-filter processing is not substantially related to an essential part of an embodiment of the present invention, and thus is not described in detail (step 11307 in FIG. . 16).

[0099] Адаптивная кодовая книга 1122 обновляет состояние посредством вектора сигнала возбуждения согласно следующим уравнениям (этап 11308 на Фиг. 16).[0099] Adaptive codebook 1122 updates the state with the excitation signal vector according to the following equations (block 11308 in FIG. 16).

Figure 00000058
Уравнение 23
Figure 00000058
Equation 23

Figure 00000059
Уравнение 24
Figure 00000059
Equation 24

[0100] Фильтр 1126 синтеза синтезирует декодированный сигнал согласно следующему уравнению посредством обратной фильтрации линейного предсказания с использованием вектора сигнала возбуждения в качестве источника возбуждения (этап 11309 на Фиг. 16).[0100] The synthesis filter 1126 synthesizes the decoded signal according to the following equation by inverse linear prediction filtering using the excitation signal vector as the excitation source (step 11309 in FIG. 16).

Figure 00000060
Уравнение 25
Figure 00000060
Equation 25

[0101] Перцептивный обратный взвешивающий фильтр 1127 применяет перцептивный обратный взвешивающий фильтр к декодированному сигналу согласно следующему уравнению (этап 11310 на Фиг. 16).[0101] A perceptual inverse weighting filter 1127 applies a perceptual inverse weighting filter to the decoded signal according to the following equation (step 11310 in FIG. 16).

Figure 00000061
Уравнение 26
Figure 00000061
Equation 26

Значение

Figure 00000062
типично равно 0,68 или подобному, хотя не ограничивается этим значением.Value
Figure 00000062
typically 0.68 or the like, although not limited to this value.

[0102] Блок 123 обработки отсутствующих аудиопараметров сохраняет аудиопараметры (параметр ISF, запаздывание основного тона, усиление адаптивной кодовой книги, усиление фиксированной кодовой книги), используемые в блоке 124 синтеза аудио в буфер (этап 145 на Фиг. 7).[0102] Missing audio parameters processing unit 123 stores audio parameters (ISF parameter, pitch lag, adaptive codebook gain, fixed codebook gain) used in buffer audio synthesizer 124 (block 145 in FIG. 7).

[0103] <Когда обнаружена потеря пакета>[0103] <When packet loss is detected>

Блок 123 обработки отсутствующих аудиопараметров считывает запаздывание

Figure 00000063
основного тона из блока 126 сбора побочной информации и предсказывает аудиопараметры. Пример функциональной конфигурации блока 123 обработки отсутствующих аудиопараметров показан в примере с Фиг. 12 и примерная процедура предсказания аудиопараметров показана на Фиг. 13.Missing audio parameters processing unit 123 reads the delay
Figure 00000063
the pitch from the side information collector 126 and predicts audio parameters. An example of the functional configuration of the missing audio parameter processing unit 123 is shown in the example of FIG. 12 and an exemplary audio parameter prediction procedure is shown in FIG. 13.

[0104] Блок 191 предсказания ISF вычисляет параметр ISF с использованием параметра ISF для предыдущего кадра и параметра ISF, вычисляемого для прошлых нескольких кадров (этап 1101 на Фиг. 13). Процедура блока 191 предсказания ISF показана на Фиг. 10.[0104] ISF prediction unit 191 calculates the ISF parameter using the ISF parameter for the previous frame and the ISF parameter calculated for the past several frames (block 1101 in FIG. 13). The procedure of the ISF prediction block 191 is shown in FIG. ten.

[0105] Сначала буфер обновляется с использованием параметра ISF из непосредственно предшествующего кадра (этап 171 на Фиг. 10). Далее параметр ISF

Figure 00000064
вычисляется согласно следующему уравнению (этап 172 на Фиг. 10).[0105] First, the buffer is updated using the ISF parameter from the immediately preceding frame (step 171 in FIG. 10). Further parameter ISF
Figure 00000064
is calculated according to the following equation (step 172 in FIG. 10).

Figure 00000065
Уравнение 27
Figure 00000065
Equation 27

Figure 00000066
Уравнение 28
Figure 00000066
Equation 28

где

Figure 00000067
является параметром ISF, сохраненным в буфере, который предназначен для кадра, которому предшествует j-число кадров. Дополнительно
Figure 00000068
,
Figure 00000069
и
Figure 00000070
являются такими же значениями, как значения, используемые на стороне кодирования.Where
Figure 00000067
is an ISF parameter stored in a buffer that is for a frame preceded by a j-number of frames. Additionally
Figure 00000068
,
Figure 00000069
and
Figure 00000070
are the same values as the values used on the encoding side.

[0106] В дополнение значения i расположены так, что

Figure 00000071
удовлетворяет
Figure 00000072
и значения
Figure 00000071
скорректированы так, чтобы смежное
Figure 00000071
не располагалось слишком близко. В качестве примерной процедуры для корректировки значения
Figure 00000071
может быть использована непатентная литература 4 (уравнение 151) (этап 173 на Фиг. 10).[0106] In addition, the values of i are arranged such that
Figure 00000071
satisfies
Figure 00000072
and values
Figure 00000071
adjusted so that the adjacent
Figure 00000071
was not too close. As an example procedure for adjusting the value
Figure 00000071
non-patent literature 4 (equation 151) may be used (step 173 in FIG. 10).

[0107] Блок 192 предсказания запаздывания основного тона декодирует код побочной информации из блока 126 сбора побочной информации и посредством этого получает запаздывание

Figure 00000073
основного тона. Дополнительно посредством использования запаздывания
Figure 00000074
основного тона, использованного для прошлого декодирования, блок 192 предсказания запаздывания основного тона выводит запаздывание
Figure 00000075
основного тона. Число подкадров, содержащихся в одном кадре, равно M и число запаздываний основного тона, содержащихся в побочной информации, равно
Figure 00000076
. Для предсказания запаздывания
Figure 00000077
основного тона может быть использована процедура, описанная, например, в разделе 7.11.1.3 в непатентной литературе 4 (этап 1102 на Фиг. 13).[0107] The pitch lag prediction unit 192 decodes the side information code from the side information collection unit 126, and thereby obtains the latency
Figure 00000073
the main tone. Additionally through the use of lag
Figure 00000074
the pitch used for past decoding, the pitch lag prediction unit 192 outputs a lag
Figure 00000075
the main tone. The number of subframes contained in one frame is M and the number of pitch lags contained in the side information is
Figure 00000076
... To predict lag
Figure 00000077
the pitch may be followed by the procedure described, for example, in section 7.11.1.3 in non-patent literature 4 (step 1102 in Fig. 13).

[0108] Блок 193 предсказания усиления адаптивной кодовой книги выводит усиление

Figure 00000078
адаптивной кодовой книги посредством использования некоторого предопределенного усиления
Figure 00000079
адаптивной кодовой книги и усиления
Figure 00000080
адаптивной кодовой книги, использованного при прошлом декодировании. Число подкадров, содержащихся в одном кадре, равно M и число запаздываний основного тона, содержащихся в побочной информации, равно
Figure 00000081
. Для предсказания усиления
Figure 00000082
адаптивной кодовой книги может быть использована процедура, описанная, например, в разделе 7.11.2.5.3 в непатентной литературе 4 (этап 1103 на Фиг. 13).[0108] Adaptive codebook gain predictor 193 outputs the gain
Figure 00000078
adaptive codebook by using some predefined gain
Figure 00000079
adaptive codebook and gain
Figure 00000080
adaptive codebook used in past decoding. The number of subframes contained in one frame is M and the number of pitch lags contained in the side information is
Figure 00000081
... To predict gain
Figure 00000082
adaptive codebook, the procedure described, for example, in section 7.11.2.5.3 in Non-Patent Literature 4 (block 1103 in FIG. 13) may be used.

[0109] Блок 194 предсказания усиления фиксированной кодовой книги выводит усиление

Figure 00000083
фиксированной кодовой книги посредством использования усиления
Figure 00000084
фиксированной кодовой книги, использованного при прошлом декодировании. Число подкадров, содержащихся в одном кадре, равно M. Для предсказания усиления
Figure 00000083
фиксированной кодовой книги может быть использована процедура, описанная в разделе 7.11.2.6 в непатентной литературе 4, например (этап 1104 на Фиг. 13).[0109] Fixed codebook gain predictor 194 outputs the gain
Figure 00000083
fixed codebook by using gain
Figure 00000084
the fixed codebook used in past decoding. The number of subframes contained in one frame is M. For gain prediction
Figure 00000083
fixed codebook, the procedure described in section 7.11.2.6 in Non-Patent Literature 4 may be used, for example (step 1104 in FIG. 13).

[0110] Блок 195 генерирования шумовых сигналов выводит вектор шума, такого как белый шум, с длиной L (этап 1105 на Фиг. 13). Длина одного кадра равна L.[0110] Block 195 generating noise signals outputs a vector of noise, such as white noise, with a length L (step 1105 in Fig. 13). The length of one frame is L.

[0111] Блок 124 синтеза аудио синтезирует декодированный сигнал на основе аудиопараметров, выведенных из блока 123 обработки отсутствующих аудиопараметров (этап 144 на Фиг. 7). Операция блока 124 синтеза аудио является такой же как операция блока синтеза аудио <Когда аудиопакет принят корректно> и не описывается подробно еще раз (этап 144 на Фиг. 7).[0111] The audio synthesis unit 124 synthesizes the decoded signal based on the audio parameters output from the missing audio parameter processing unit 123 (step 144 in FIG. 7). The operation of the audio synthesizer 124 is the same as the operation of the audio synthesizer <When audio packet is received correctly> and is not described in detail again (step 144 in FIG. 7).

[0112] Блок 123 обработки отсутствующих аудиопараметров сохраняет аудиопараметры (параметр ISF, запаздывание основного тона, усиление адаптивной кодовой книги, усиление фиксированной кодовой книги), используемые в блоке 124 синтеза аудио в буфер (этап 145 на Фиг. 7).[0112] Missing audio parameters processing unit 123 stores audio parameters (ISF parameter, pitch lag, adaptive codebook gain, fixed codebook gain) used in audio synthesizer 124 to buffer (block 145 in FIG. 7).

[0113] Хотя случай кодирования и передачи побочной информации для всех подкадров, содержащихся в прогнозном сигнале, описывается в вышеуказанном примере, может быть использована конфигурация, которая передает только побочную информацию для некоторого конкретного подкадра.[0113] Although the case of encoding and transmitting side information for all subframes contained in the prediction signal is described in the above example, a configuration that transmits only side information for some specific subframe can be used.

[0114] [Альтернативный пример 1-1][0114] [Alternative example 1-1]

В качестве альтернативного примера ранее рассмотренного примера 1, в дальнейшем в этом документе описывается пример, который добавляет усиление основного тона к побочной информации. Различием между альтернативным примером 1-1 и примером 1 является только операция блока 155 синтеза вектора возбуждения и поэтому описание других частей пропущено.As an alternative example to the previously discussed Example 1, an example is described hereinafter in this document that adds pitch enhancement to side information. The difference between Alternative Example 1-1 and Example 1 is only the operation of the drive vector synthesis unit 155, and therefore the description of other parts is omitted.

[0115] <Сторона кодирования>[0115] <Coding side>

Процедура блока 155 синтеза вектора возбуждения показана в примере с Фиг. 14.The procedure of the excitation vector synthesis unit 155 is shown in the example of FIG. 14.

[0116] Усиление

Figure 00000085
адаптивной кодовой книги вычисляется из вектора
Figure 00000086
адаптивной кодовой книги и целевого сигнала x(n), согласно следующему уравнению (этап 1111 на Фиг. 14).[0116] Gain
Figure 00000085
adaptive codebook is computed from the vector
Figure 00000086
adaptive codebook and target signal x (n) according to the following equation (block 1111 in FIG. 14).

Figure 00000087
ограниченному посредством 0≤gp≤1,2 Уравнение 29
Figure 00000087
limited by 0≤g p ≤1.2 Equation 29

где

Figure 00000088
является сигналом
Figure 00000089
, который получается посредством свертки импульсной характеристики с вектором адаптивной кодовой книги.Where
Figure 00000088
is a signal
Figure 00000089
which is obtained by convolving the impulse response with an adaptive codebook vector.

[0117] Вычисленное усиление адаптивной кодовой книги кодируется и содержится в коде побочной информации (этап 1112 на Фиг. 14). Для кодирования может быть использовано скалярное квантование с использованием кодовой книги, полученной заранее посредством обучения, несмотря на то, что любая другая методика также может быть использована для кодирования.[0117] The calculated adaptive codebook gain is encoded and contained in the side information code (block 1112 in FIG. 14). For encoding, scalar quantization can be used using a codebook obtained in advance through training, although any other technique can also be used for encoding.

[0118] Посредством умножения вектора адаптивной кодовой книги на усиление

Figure 00000090
адаптивной кодовой книги, полученное посредством декодирования кода, вычисленного при кодировании усиления адаптивной кодовой книги, вектор возбуждения вычисляется согласно следующему уравнению (этап 1113 на Фиг. 14).[0118] By multiplying the adaptive codebook vector by the gain
Figure 00000090
of the adaptive codebook obtained by decoding the code calculated by encoding the gain of the adaptive codebook, the excitation vector is calculated according to the following equation (step 1113 in FIG. 14).

Figure 00000091
Уравнение 30
Figure 00000091
Equation 30

[0119] <Сторона декодирования>[0119] <Decode side>

Блок 155 синтеза вектора возбуждения умножает вектор

Figure 00000092
адаптивной кодовой книги на усиление
Figure 00000090
адаптивной кодовой книги, полученное посредством декодирования кода побочной информации, и выводит вектор сигнала возбуждения согласно следующему уравнению (этап 165 на Фиг. 9).Block 155 synthesis of the excitation vector multiplies the vector
Figure 00000092
adaptive gain codebook
Figure 00000090
adaptive codebook obtained by decoding the side information code, and outputs the excitation signal vector according to the following equation (step 165 in FIG. 9).

Figure 00000093
Уравнение 31
Figure 00000093
Equation 31

[0120] [Альтернативный пример 1-2][0120] [Alternative example 1-2]

В качестве альтернативного примера для примера 1, в дальнейшем в этом документе описывается пример, который добавляет флаг для определения использования побочной информации к побочной информации.As an alternative example for example 1, hereinafter in this document, an example is described that adds a flag to determine the use of side information to side information.

[0121] <Сторона кодирования>[0121] <Coding side>

Пример функциональной конфигурации блока кодирования побочной информации показан на Фиг. 17 и процедура блока кодирования побочной информации показана в примере с Фиг. 18. Отличием от примера 1 является только блок 1128 определения вывода побочной информации (этап 1131 на Фиг. 18) и поэтому описание других частей пропущено.An example of the functional configuration of the side information coding unit is shown in FIG. 17 and the procedure of the side information coding unit is shown in the example of FIG. 18. The only difference from example 1 is the side information output determination unit 1128 (step 1131 in FIG. 18) and therefore the description of other parts is omitted.

[0122] Блок 1128 определения вывода побочной информации вычисляет сегментное отношение сигнал - шум (SNR) декодированного сигнала и прогнозного сигнала согласно следующему уравнению и только, когда сегментное SNR превышает некоторый порог, устанавливает значение флага на "ВКЛ" и добавляет его к побочной информации.[0122] Side information output determining unit 1128 calculates the segment signal-to-noise ratio (SNR) of the decoded signal and the predicted signal according to the following equation, and only when the segment SNR exceeds a certain threshold, sets the flag value to "ON" and adds it to the side information.

Figure 00000094
Уравнение 32
Figure 00000094
Equation 32

С другой стороны, когда сегментное SNR не превышает порог, блок 1128 определения вывода побочной информации устанавливает значение флага на "ВЫКЛ" и добавляет его к побочной информации (этап 1131 на Фиг. 18). Следует отметить, что количество битов побочной информации может быть сокращено посредством добавления побочной информации, такой как запаздывание основного тона и усиление основного тона, к флагу и передачи добавленной побочной информации только когда значение флага - "ВКЛ", и передачи только значения флага, когда значение флага - "ВЫКЛ".On the other hand, when the segment SNR does not exceed the threshold, the side information output determination unit 1128 sets the flag value to "OFF" and adds it to the side information (step 1131 in FIG. 18). It should be noted that the number of side information bits can be reduced by adding side information such as pitch lag and pitch gain to the flag and transmitting the added side information only when the flag value is "ON", and transmitting only the flag value when the value flag - "OFF".

[0123] <Сторона декодирования>[0123] <Decode side>

Блок декодирования побочной информации декодирует флаг, содержащийся в коде побочной информации. Когда значением флага является "ВКЛ", блок обработки отсутствующих аудиопараметров вычисляет декодированный сигнал с помощью процедуры такой же, как в примере 1. С другой стороны, когда значением флага является "ВЫКЛ", он вычисляет декодированный сигнал с помощью технологии маскирования потери пакета без использования побочной информации (этап 1151 на Фиг. 19).The side information decoding unit decodes a flag contained in the side information code. When the flag value is "ON", the audio missing parameter processing unit calculates the decoded signal using the same procedure as in Example 1. On the other hand, when the flag value is "OFF", it calculates the decoded signal using packet loss concealment technique without using side information (block 1151 in Fig. 19).

[0124] [Пример 2][0124] [Example 2]

В этом примере также используется декодированное аудио части прогнозного сигнала, когда пакет принят корректно. В целях этого обсуждения, число подкадров, содержащихся в одном кадре, равно M подкадров и длина прогнозного сигнала составляет

Figure 00000095
подкадра (подкадров).This example also uses the decoded audio of the prediction portion when the packet is correctly received. For the purposes of this discussion, the number of subframes contained in one frame is M subframes and the prediction signal length is
Figure 00000095
subframes (subframes).

[0125] <Сторона кодирования>[0125] <Coding side>

Как показано в примере с Фиг. 20, устройство передачи аудиосигнала включает в себя главный блок 211 кодирования, блок 212 кодирования побочной информации, блок 213 сбора сигналов маскирования и блок 214 кодирования сигнала ошибки. Процедура устройства передачи аудиосигнала показана на Фиг. 22.As shown in the example of FIG. 20, the audio signal transmission apparatus includes a main coding unit 211, a side information coding unit 212, a masking signal collection unit 213, and an error signal coding unit 214. The procedure of the audio signal transmission apparatus is shown in FIG. 22.

[0126] Блок 214 кодирования сигнала ошибки считывает сигнал маскирования для одного подкадра из блока 213 сбора сигналов маскирования, вычитает его из аудиосигнала и посредством этого вычисляет сигнал ошибки (этап 221 на Фиг. 22).[0126] The error signal coding unit 214 reads the masking signal for one subframe from the masking signal acquisition unit 213, subtracts it from the audio signal, and thereby calculates the error signal (step 221 in FIG. 22).

[0127] Блок 214 кодирования сигнала ошибки кодирует сигнал ошибки. В качестве некоторой конкретной примерной процедуры может быть использована AVQ, описанная в разделе 6.8.4.1.5 в непатентной литературе 4. При кодировании сигнала ошибки выполняется локальное декодирование и выводится декодированный сигнал ошибки (этап 222 на Фиг. 22).[0127] The error signal coding unit 214 encodes the error signal. As some specific example procedure, the AVQ described in section 6.8.4.1.5 in Non-Patent Literature 4 may be used. When the error signal is encoded, local decoding is performed and the decoded error signal is output (step 222 in FIG. 22).

[0128] Посредством добавления декодированного сигнала ошибки к сигналу маскирования, выводится декодированный сигнал для одного подкадра (этап 223 на Фиг. 22).[0128] By adding the decoded error signal to the masking signal, a decoded signal for one subframe is outputted (step 223 in FIG. 22).

[0129] Вышеуказанные этапы с 221 по 223 повторяются для

Figure 00000095
подкадров до конца сигнал маскирования.[0129] The above steps 221 to 223 are repeated for
Figure 00000095
subframes until the end of the masking signal.

[0130] Примерная функциональная конфигурация главного блока 211 кодирования показана на Фиг. 21. Главный блок 211 кодирования включает в себя блок 2011 кодирования ISF, блок 2012 вычисления целевого сигнала, блок 2013 вычисления запаздывания основного тона, блок 2014 вычисления адаптивной кодовой книги, блок 2015 вычисления фиксированной кодовой книги, блок 2016 вычисления усиления, блок 2017 вычисления вектора возбуждения, фильтр 2018 синтеза и буфер 2019 адаптивных кодовых книг.[0130] An exemplary functional configuration of the main coding unit 211 is shown in FIG. 21. The main coding unit 211 includes an ISF coding unit 2011, a target signal calculating unit 2012, a pitch lag calculating unit 2013, an adaptive codebook calculating unit 2014, a fixed codebook calculating unit 2015, a gain calculating unit 2016, a vector calculating unit 2017 excitation, synthesis filter 2018 and adaptive codebook buffer 2019.

[0131] Блок 2011 кодирования ISF получает коэффициент LP посредством применения способа Левинсона-Дарбина к кадру, который должен быть закодирован, и прогнозному сигналу. Блок 2011 кодирования ISF затем преобразует коэффициент LP в параметр ISF и кодирует параметр ISF. Блок 2011 кодирования ISF затем декодирует код и получает декодированный параметр ISF. В конечном счете, блок 2011 кодирования ISF интерполирует декодированный параметр ISF и получает декодированный коэффициент LP для каждого подкадра. Процедуры способа Левинсона-Дарбина и преобразование из коэффициента LP в параметр ISF являются такими же, как в примере 1. Дополнительно, для кодирования параметра ISF может быть использована процедура, описанная, например, в разделе 6.8.2 в непатентной литературе 4. Индекс, полученный посредством кодирования параметра ISF, декодированного параметра ISF и декодированного коэффициента LP (который получается посредством преобразования декодированного параметра ISF в коэффициент LP) может быть получен блоком 2011 кодирования ISF (этап 224 на Фиг. 22).[0131] The ISF coding unit 2011 obtains the LP coefficient by applying the Levinson-Durbin method to the frame to be encoded and the prediction signal. The ISF encoder 2011 then converts the LP coefficient into an ISF parameter and encodes the ISF parameter. The ISF encoder 2011 then decodes the code and obtains the decoded ISF parameter. Ultimately, the ISF coding unit 2011 interpolates the decoded ISF parameter and obtains the decoded LP coefficient for each subframe. The procedures of the Levinson-Durbin method and the conversion from LP coefficient to ISF parameter are the same as in Example 1. Additionally, the procedure described, for example, in section 6.8.2 in the non-patent literature 4, can be used to encode the ISF parameter. by encoding the ISF parameter, the decoded ISF parameter, and the decoded LP coefficient (which is obtained by converting the decoded ISF parameter to the LP coefficient) can be obtained by the ISF encoding unit 2011 (step 224 in FIG. 22).

[0132] Подробная процедура блока 2012 вычисления целевого сигнала является такой же, как на этапе 162 на Фиг. 9 в примере 1 (этап 225 на Фиг. 22).[0132] The detailed procedure of the target signal calculator 2012 is the same as in step 162 in FIG. 9 in Example 1 (step 225 in FIG. 22).

[0133] Блок 2013 вычисления запаздывания основного тона относится к буферу адаптивной кодовой книги и вычисляет запаздывание основного тона и параметр долгосрочного предсказания посредством использования целевого сигнала. Подробная процедура вычисления запаздывания основного тона и параметра долгосрочного предсказания является такой же, как в примере 1 (этап 226 на Фиг. 22).[0133] The pitch lag calculating unit 2013 refers to the adaptive codebook buffer, and calculates the pitch lag and the long-term prediction parameter by using the target signal. The detailed procedure for calculating the pitch lag and long term prediction parameter is the same as in Example 1 (step 226 in FIG. 22).

[0134] Блок 2014 вычисления адаптивной кодовой книги вычисляет вектор адаптивной кодовой книги посредством использования запаздывания основного тона и параметра долгосрочного предсказания, вычисляемого блоком 2013 вычисления запаздывания основного тона. Подробная процедура блока 2014 вычисления адаптивной кодовой книги является такой же, как в примере 1 (этап 227 на Фиг. 22).[0134] The adaptive codebook calculator 2014 calculates the adaptive codebook vector by using the pitch lag and the long-term prediction parameter calculated by the pitch lag calculating section 2013. The detailed procedure of the adaptive codebook calculator 2014 is the same as in Example 1 (step 227 in FIG. 22).

[0135] Блок 2015 вычисления фиксированной кодовой книги вычисляет вектор фиксированной кодовой книги и индекс, получаемый посредством кодирования вектора фиксированной кодовой книги, посредством использования целевого сигнала и вектора адаптивной кодовой книги. Подробная процедура является такой же, как процедура AVQ, используемая в блоке 214 кодирования сигнала ошибки (этап 228 на Фиг. 22).[0135] The fixed codebook calculator 2015 calculates the fixed codebook vector and the index obtained by encoding the fixed codebook vector by using the target signal and the adaptive codebook vector. The detailed procedure is the same as the AVQ procedure used in the error signal coding unit 214 (step 228 in FIG. 22).

[0136] Блок 2016 вычисления усиления вычисляет усиление адаптивной кодовой книги, усиление фиксированной кодовой книги и индекс, получаемый посредством кодирования этих двух усилений с использованием целевого сигнала, вектора адаптивной кодовой книги и вектора фиксированной кодовой книги. Подробная процедура, которая может быть использована, описана, например, в разделе 6.8.4.1.6 в непатентной литературе 4 (этап 229 на Фиг. 22).[0136] Gain calculator 2016 calculates an adaptive codebook gain, a fixed codebook gain, and an index obtained by encoding the two gains using a target signal, an adaptive codebook vector, and a fixed codebook vector. A detailed procedure that can be used is described, for example, in section 6.8.4.1.6 in Non-Patent Literature 4 (step 229 in FIG. 22).

[0137] Блок 2017 вычисления вектора возбуждения вычисляет вектор возбуждения посредством сложения вектора адаптивной кодовой книги и вектора фиксированной кодовой книги, к которым применяется усиление. Подробная процедура является такой же, как в примере 1. Затем, блок 2017 вычисления вектора возбуждения обновляет состояние буфера 2019 адаптивных кодовых книг посредством использования вектора возбуждения. Подробная процедура является такой же, как в примере 1 (этап 2210 на Фиг. 22).[0137] The excitation vector calculator 2017 calculates the excitation vector by adding the adaptive codebook vector and the fixed codebook vector to which the gain is applied. The detailed procedure is the same as in Example 1. Then, the excitation vector calculator 2017 updates the state of the adaptive codebook buffer 2019 by using the excitation vector. The detailed procedure is the same as in example 1 (step 2210 in FIG. 22).

[0138] Фильтр 2018 синтеза синтезирует декодированный сигнал посредством использования декодированного коэффициента LP и вектора возбуждения (этап 2211 на Фиг. 22).[0138] The synthesis filter 2018 synthesizes the decoded signal by using the decoded LP coefficient and the excitation vector (block 2211 in FIG. 22).

[0139] Вышеуказанные этапы с 224 по 2211 повторяются для подкадров

Figure 00000096
до конца кадра, который должен быть закодирован.[0139] The above steps 224 to 2211 are repeated for subframes
Figure 00000096
to the end of the frame to be encoded.

[0140] Блок 212 кодирования побочной информации вычисляет побочную информацию для подкадра

Figure 00000095
прогнозного сигнала. Конкретная процедура является такой же, как в примере 1 (этап 2212 на Фиг. 22).[0140] Side information coding unit 212 calculates side information for a subframe
Figure 00000095
predictive signal. The specific procedure is the same as in example 1 (step 2212 in FIG. 22).

[0141] В дополнение к процедуре из примера 1, декодированный сигнал, выводимый фильтром 157 синтеза блока 212 кодирования побочной информации собирается в блоке 213 сбора сигналов маскирования в примере 2 (этап 2213 на Фиг. 22).[0141] In addition to the procedure of Example 1, the decoded signal outputted by the synthesis filter 157 of the side information encoding unit 212 is collected in the masking signal acquisition unit 213 in Example 2 (step 2213 in FIG. 22).

[0142] <Блок декодирования>[0142] <Decoding unit>

Как показано на Фиг. 23, пример устройства приема аудиосигнала включает в себя буфер 231 аудиокода, блок 232 декодирования аудиопараметров, блок 233 обработки отсутствующих аудиопараметров, блок 234 синтеза аудио, блок 235 декодирования побочной информации, блок 236 сбора побочной информации, блок 237 декодирования сигнала ошибки и блок 238 сбора сигналов маскирования. Примерная процедура устройства приема аудиосигнала показана на Фиг. 24. Примерная функциональная конфигурация блока 234 синтеза аудио показана на Фиг. 25.As shown in FIG. 23, an example of an audio signal receiving apparatus includes an audio code buffer 231, an audio parameter decoding unit 232, a missing audio parameter processing unit 233, an audio synthesis unit 234, a side information decoding unit 235, a side information collection unit 236, an error signal decoding unit 237, and an acquisition unit 238 masking signals. An exemplary procedure for an audio signal receiving apparatus is shown in FIG. 24. An exemplary functional configuration of the audio synthesis unit 234 is shown in FIG. 25.

[0143] Буфер 231 аудиокода определяет, принят ли пакет корректно или нет. Когда буфер 231 аудиокода определяет, что пакет принят корректно, обработка переключается на блок 232 декодирования аудиопараметров, блок 235 декодирования побочной информации и блок 237 декодирования сигнала ошибки. С другой стороны, когда буфер 231 аудиокода определяет, что пакет принят некорректно, обработка переключается на блок 233 обработки отсутствующих аудиопараметров (этап 241 на Фиг. 24).[0143] The audio code buffer 231 determines whether the packet is received correctly or not. When the audio code buffer 231 determines that the packet has been received correctly, the processing switches to the audio parameter decoding section 232, the side information decoding section 235, and the error signal decoding section 237. On the other hand, when the audio code buffer 231 determines that a packet has not been received correctly, processing switches to the missing audio parameter processing unit 233 (step 241 in FIG. 24).

[0144] <Когда пакет принят корректно>[0144] <When the packet is received correctly>

Блок 237 декодирования сигнала ошибки декодирует код сигнала ошибки и получает декодированный сигнал ошибки. В качестве конкретной примерной процедуры, может быть использован способ декодирования, соответствующий способу, используемому на стороне кодирования, такому как AVQ, описанному в разделе 7.1.2.1.2 в непатентной литературе 4 (этап 242 на Фиг. 24).The error signal decoding unit 237 decodes the error signal code and obtains the decoded error signal. As a specific example procedure, a decoding method corresponding to a method used on the encoding side such as AVQ described in section 7.1.2.1.2 in Non-Patent Literature 4 (step 242 in FIG. 24) may be used.

[0145] Блок 2318 синтеза прогнозного вектора возбуждения считывает сигнал маскирования для одного подкадра из блока 238 сбора сигналов маскирования и добавляет сигнал маскирования к декодированному сигналу ошибки и посредством этого выводит декодированный сигнал для одного подкадра (этап 243 на Фиг. 24).[0145] The excitation predictive vector synthesis unit 2318 reads a masking signal for one subframe from the masking signal acquisition unit 238 and adds a masking signal to the decoded error signal and thereby outputs the decoded signal for one subframe (step 243 in FIG. 24).

[0146] Вышеуказанные этапы с 241 по 243 повторяются для подкадров

Figure 00000095
до окончания сигнала маскирования.[0146] The above steps 241 to 243 are repeated for subframes
Figure 00000095
until the end of the masking signal.

[0147] Блок 232 декодирования аудиопараметров включает в себя блок 2211 декодирования ISF, блок 2212 декодирования запаздывания основного тона, блок 2213 декодирования усиления и блок 2214 декодирования фиксированной кодовой книги. Пример функциональной конфигурации блока 232 декодирования аудиопараметров показан на Фиг. 26.[0147] The audio parameter decoding unit 232 includes an ISF decoding unit 2211, a pitch lag decoding unit 2212, a gain decoding unit 2213, and a fixed codebook decoding unit 2214. An example of the functional configuration of the audio parameter decoding unit 232 is shown in FIG. 26.

[0148] Блок 2211 декодирования ISF декодирует код ISF и преобразует его в коэффициент LP и посредством этого получает декодированный коэффициент LP. Например, используется процедура, описанная в разделе 7.1.1 в непатентной литературе 4 (этап 244 на Фиг. 24).[0148] The ISF decoding unit 2211 decodes the ISF code and converts it to the LP coefficient, and thereby obtains the decoded LP coefficient. For example, the procedure described in section 7.1.1 in Non-Patent Literature 4 (step 244 in FIG. 24) is used.

[0149] Блок 2212 декодирования запаздывания основного тона декодирует код запаздывания основного тона и получает запаздывание основного тона и параметр долгосрочного предсказания (этап 245 на Фиг. 24).[0149] The pitch lag decoding unit 2212 decodes the pitch lag code and obtains the pitch lag and the long-term prediction parameter (block 245 in FIG. 24).

[0150] Блок 2213 декодирования усиления декодирует код усиления и получает усиление адаптивной кодовой книги и усиление фиксированной кодовой книги. Примерная подробная процедура описана в разделе 7.1.2.1.3 в непатентной литературе 4 (этап 246 на Фиг. 24).[0150] The gain decoding unit 2213 decodes the gain code and obtains the adaptive codebook gain and the fixed codebook gain. An exemplary detailed procedure is described in section 7.1.2.1.3 in Non-Patent Literature 4 (step 246 in FIG. 24).

[0151] Блок 2313 вычисления адаптивной кодовой книги вычисляет вектор адаптивной кодовой книги посредством использования запаздывания основного тона и параметра долгосрочного предсказания. Подробная процедура блока 2313 вычисления адаптивной кодовой книги описана в примере 1 (этап 247 на Фиг. 24).[0151] An adaptive codebook calculator 2313 calculates an adaptive codebook vector by using a pitch lag and a long-term prediction parameter. The detailed procedure of the adaptive codebook calculator 2313 is described in Example 1 (step 247 in FIG. 24).

[0152] Блок 2214 декодирования фиксированной кодовой книги декодирует код фиксированной кодовой книги и вычисляет вектор фиксированной кодовой книги. Подробная процедура описана в разделе 7.1.2.1.2 в непатентной литературе 4 (этап 248 на Фиг. 24).[0152] The fixed codebook decoding unit 2214 decodes the fixed codebook code and calculates the fixed codebook vector. The detailed procedure is described in section 7.1.2.1.2 in Non-Patent Literature 4 (step 248 in FIG. 24).

[0153] Блок 2314 синтеза вектора возбуждения вычисляет вектор возбуждения посредством сложения вектора адаптивной кодовой книги и вектора фиксированной кодовой книги, к которым применяется усиление. Дополнительно, блок вычисления вектора возбуждения обновляет буфер адаптивных кодовых книг посредством использования вектора возбуждения (этап 249 на Фиг. 24). Подробная процедура является такой же, как в примере 1.[0153] An excitation vector synthesis unit 2314 calculates an excitation vector by adding the adaptive codebook vector and the fixed codebook vector to which the gain is applied. Additionally, the excitation vector calculator updates the adaptive codebook buffer by using the excitation vector (step 249 in FIG. 24). The detailed procedure is the same as in example 1.

[0154] Фильтр 2316 синтеза синтезирует декодированный сигнал посредством использования декодированного коэффициента LP и вектора возбуждения (этап 2410 на Фиг. 24). Подробная процедура является такой же, как в примере 1.[0154] The synthesis filter 2316 synthesizes the decoded signal by using the decoded LP coefficient and the excitation vector (block 2410 in FIG. 24). The detailed procedure is the same as in example 1.

[0155] Вышеуказанные этапы с 244 по 2410 повторяются для подкадров

Figure 00000096
до конца кадра, который должен быть закодирован.[0155] The above steps 244 to 2410 are repeated for subframes
Figure 00000096
to the end of the frame to be encoded.

[0156] Функциональная конфигурация блока 235 декодирования побочной информации является такой же, как в примере 1. Блок 235 декодирования побочной информации декодирует код побочной информации и вычисляет запаздывание основного тона (этап 2411 на Фиг. 24).[0156] The functional configuration of the side information decoding section 235 is the same as in Example 1. The side information decoding section 235 decodes the side information code and calculates the pitch lag (step 2411 in FIG. 24).

[0157] Функциональная конфигурация блока 233 обработки отсутствующих аудиопараметров является такой же, как в примере 1.[0157] The functional configuration of the missing audio parameter processing unit 233 is the same as in Example 1.

Блок 191 предсказания ISF предсказывает параметр ISF с использованием параметра ISF для предыдущего кадра и преобразует предсказанный параметр ISF в коэффициент LP. Процедура является такой же, как на этапах 172, 173, и 174 примера 1, показанного на Фиг. 10 (этап 2412 на Фиг. 24).The ISF prediction unit 191 predicts the ISF parameter using the ISF parameter for the previous frame and converts the predicted ISF parameter to the LP coefficient. The procedure is the same as in steps 172, 173, and 174 of Example 1 shown in FIG. 10 (block 2412 in FIG. 24).

[0158] Блок 2313 вычисления адаптивной кодовой книги вычисляет вектор адаптивной кодовой книги посредством использования запаздывания основного тона, выводимого из блока 235 декодирования побочной информации, и адаптивной кодовой книги 2312 (этап 2413 на Фиг. 24). Процедура является такой же, как на этапах 11301 и 11302 на Фиг. 16.[0158] The adaptive codebook calculator 2313 calculates the adaptive codebook vector by using the pitch lag output from the side information decoding unit 235 and the adaptive codebook 2312 (step 2413 in FIG. 24). The procedure is the same as in steps 11301 and 11302 in FIG. 16.

[0159] Блок 193 предсказания усиления адаптивной кодовой книги выводит усиление адаптивной кодовой книги. Конкретная процедура является такой же, как на этапе 1103 на Фиг. 13 (этап 2414 на Фиг. 24).[0159] An adaptive codebook gain predictor 193 outputs the adaptive codebook gain. The specific procedure is the same as step 1103 in FIG. 13 (block 2414 in FIG. 24).

[0160] Блок 194 предсказания усиления фиксированной кодовой книги выводит усиление фиксированной кодовой книги. Конкретная процедура является такой же, как на этапе 1104 на Фиг. 13 (этап 2415 на Фиг. 24).[0160] Fixed codebook gain predictor 194 outputs the fixed codebook gain. The specific procedure is the same as step 1104 in FIG. 13 (block 2415 in FIG. 24).

[0161] Блок 195 генерирования шумовых сигналов выводит шум, такой как белый шум, в качестве вектора фиксированной кодовой книги. Процедура является такой же, как на этапе 1105 на Фиг. 13 (этап 2416 на Фиг. 24).[0161] The noise signal generating unit 195 outputs noise such as white noise as a fixed codebook vector. The procedure is the same as at 1105 in FIG. 13 (block 2416 in FIG. 24).

[0162] Блок 2314 синтеза вектора возбуждения применяет усиление к каждому из вектора адаптивной кодовой книги и вектора фиксированной кодовой книги и складывает их вместе и посредством этого вычисляет вектор возбуждения. Дополнительно, блок 2314 синтеза вектора возбуждения обновляет буфер адаптивных кодовых книг с использованием вектора возбуждения (этап 2417 на Фиг. 24).[0162] The excitation vector synthesizer 2314 applies a gain to each of the adaptive codebook vector and the fixed codebook vector and adds them together and thereby calculates the excitation vector. Additionally, excitation vector synthesizer 2314 updates the adaptive codebook buffer with the excitation vector (block 2417 in FIG. 24).

[0163] Фильтр 2316 синтеза вычисляет декодированный сигнал с использованием вышеописанного коэффициента LP и вектора возбуждения. Фильтр 2316 синтеза затем обновляет блок 238 сбора сигналов маскирования с использованием вычисленного декодированного сигнала (этап 2418 на Фиг. 24).[0163] The synthesis filter 2316 calculates the decoded signal using the above-described LP coefficient and the excitation vector. The synthesis filter 2316 then updates the masking signal acquisition block 238 with the calculated decoded signal (block 2418 in FIG. 24).

[0164] Вышеуказанные этапы повторяются для подкадров

Figure 00000095
и декодированный сигнал выводится в качестве аудиосигнала.[0164] The above steps are repeated for subframes
Figure 00000095
and the decoded signal is output as an audio signal.

[0165] <Когда пакет потерян>[0165] <When packet is lost>

Сигнал маскирования для одного подкадра считывается из блока сбора сигналов маскирования и используется в качестве декодированного сигнала (этап 2419 на Фиг. 24).A masking signal for one subframe is read from the masking signal collector and used as a decoded signal (step 2419 in FIG. 24).

[0166] Вышеуказанное повторяется для подкадров

Figure 00000095
.[0166] The above is repeated for subframes
Figure 00000095
...

[0167] Блок 191 предсказания ISF предсказывает параметр ISF (этап 2420 на Фиг. 24). В качестве процедуры может быть использован этап 1101 на Фиг. 13.[0167] The ISF prediction unit 191 predicts the ISF parameter (block 2420 in FIG. 24). As a routine, block 1101 in FIG. 13.

[0168] Блок 192 предсказания запаздывания основного тона выводит предсказанное запаздывание основного тона посредством использования запаздывания основного тона, используемого при прошлом декодировании (этап 2421 на Фиг. 24). Процедура, используемая для предсказания, является такой же, как на этапе 1102 на Фиг. 13.[0168] Pitch lag predictor 192 outputs the predicted pitch lag by using the pitch lag used in past decoding (step 2421 in FIG. 24). The procedure used for prediction is the same as at 1102 in FIG. 13.

[0169] Операции блока 193 предсказания усиления адаптивной кодовой книги, блока 194 предсказания усиления фиксированной кодовой книги, блока 195 генерирования шумовых сигналов и блока 234 синтеза аудио являются такими же, как в примере 1 (этап 2422 на Фиг. 24).[0169] The operations of the adaptive codebook gain predictor 193, the fixed codebook gain predictor 194, the noise generating unit 195, and the audio synthesis unit 234 are the same as in Example 1 (block 2422 in FIG. 24).

[0170] Вышеуказанные этапы повторяются для подкадров M и декодированный сигнал для подкадров

Figure 00000096
выводится в качестве аудиосигнала, и блок 238 сбора сигналов маскирования обновляется декодированным сигналом для оставшихся подкадров
Figure 00000095
.[0170] The above steps are repeated for the M subframes and the decoded signal for the subframes
Figure 00000096
is output as an audio signal, and the masking signal acquisition unit 238 is updated with the decoded signal for the remaining subframes
Figure 00000095
...

[0171] [Пример 3][0171] [Example 3]

В дальнейшем в этом документе описывается случай с использованием гортанной импульсной синхронизации при вычислении вектора адаптивной кодовой книги.Hereinafter, this document describes a case using guttural pulse synchronization when calculating the adaptive codebook vector.

[0172] <Сторона кодирования>[0172] <Coding side>

Функциональная конфигурация устройства передачи аудиосигнала является такой же, как в примере 1. Функциональная конфигурация и процедура различаются только в блоке кодирования побочной информации и поэтому ниже по тексту описывается только операция блока кодирования побочной информации.The functional configuration of the audio signal transmission apparatus is the same as in Example 1. The functional configuration and procedure differ only in the side information coding unit, and therefore, only the operation of the side information coding unit will be described below.

[0173] Блок кодирования побочной информации включает в себя блок 311 вычисления коэффициента LP, блок 312 предсказания запаздывания основного тона, блок 313 выбора запаздывания основного тона, блок 314 кодирования запаздывания основного тона и буфер 315 адаптивной кодовой книги. Пример функциональной конфигурации блока кодирования побочной информации показан на Фиг. 27 и примерная процедура блока кодирования побочной информации показана в примере с Фиг. 28.[0173] The side information coding unit includes an LP coefficient calculating unit 311, a pitch lag prediction unit 312, a pitch lag selection unit 313, a pitch lag coding unit 314, and an adaptive codebook buffer 315. An example of the functional configuration of the side information coding unit is shown in FIG. 27 and an exemplary procedure of the side information coding unit is shown in the example of FIG. 28.

[0174] Блок 311 вычисления коэффициента LP является таким же как блок вычисления коэффициента LP в примере 1 и таким образом не будет описываться еще раз (этап 321 на Фиг. 28).[0174] The LP coefficient calculating unit 311 is the same as the LP coefficient calculating unit in Example 1, and thus will not be described again (step 321 in FIG. 28).

[0175] Блок 312 предсказания запаздывания основного тона вычисляет предсказанное значение

Figure 00000097
запаздывания основного тона с использованием запаздывания основного тона, полученного из блока кодирования аудио (этап 322 на Фиг. 28). Конкретная обработка предсказания является такой же, как предсказание запаздывания
Figure 00000098
основного тона в блоке 192 предсказания запаздывания основного тона в примере 1 (которое является таким же, как на этапе 1102 на Фиг. 13).[0175] Pitch lag prediction unit 312 calculates a predicted value
Figure 00000097
a pitch lag using the pitch lag obtained from the audio coding unit (step 322 in FIG. 28). The specific prediction processing is the same as lag prediction
Figure 00000098
the pitch in the pitch lag prediction block 192 in Example 1 (which is the same as in step 1102 in FIG. 13).

[0176] Затем, блок 313 выбора запаздывания основного тона определяет запаздывание основного тона, которое должно быть передано, в качестве побочной информации (этап 323 на Фиг. 28). Подробная процедура блока 313 выбора запаздывания основного тона показана в примере с Фиг. 29.[0176] Next, the pitch lag selection unit 313 determines the pitch lag to be transmitted as side information (step 323 in FIG. 28). The detailed procedure of the pitch lag selection block 313 is shown in the example of FIG. 29.

[0177] Сначала, кодовая книга запаздываний основного тона генерируется из предсказанного значения

Figure 00000097
запаздывания основного тона и значения прошлого запаздывания
Figure 00000099
основного тона согласно следующим уравнениям (этап 331 на Фиг. 29).[0177] First, a pitch lag codebook is generated from the predicted value
Figure 00000097
pitch lags and past lag values
Figure 00000099
the pitch according to the following equations (step 331 in FIG. 29).

<Когда

Figure 00000100
><When
Figure 00000100
>

Figure 00000101
Уравнение 33
Figure 00000101
Equation 33

<Когда

Figure 00000102
><When
Figure 00000102
>

Figure 00000103
Уравнение 34
Figure 00000103
Equation 34

Значение запаздывания основного тона на один подкадр раньше равно

Figure 00000104
. Дополнительно, число индексов кодовой книги равно I.
Figure 00000105
является некоторой предопределенной дискретой и
Figure 00000106
является некоторой предопределенной константой.The pitch lag value one subframe earlier is
Figure 00000104
... Additionally, the number of codebook indices is I.
Figure 00000105
is some predefined discrete and
Figure 00000106
is some predefined constant.

[0178] Затем, посредством использования адаптивной кодовой книги и предсказанного значения

Figure 00000107
запаздывания основного тона, исходный вектор
Figure 00000108
возбуждения генерируется согласно следующему уравнению (этап 332 на Фиг. 29).[0178] Then, by using the adaptive codebook and the predicted value
Figure 00000107
pitch lag, original vector
Figure 00000108
excitation is generated according to the following equation (step 332 in FIG. 29).

Figure 00000109
Уравнение 35
Figure 00000109
Equation 35

Процедура вычисления исходного вектора возбуждения является такой же, как уравнения (607) и (608) в непатентной литературе 4.The procedure for calculating the original excitation vector is the same as equations (607) and (608) in non-patent literature 4.

[0179] Затем, гортанная импульсная синхронизация применяется к исходному вектору возбуждения посредством использования всех потенциальных запаздываний

Figure 00000110
основного тона в кодовой книги запаздываний основного тона, чтобы посредством этого сгенерировать потенциальный вектор
Figure 00000111
адаптивной кодовой книги (этап 333 на Фиг. 29). Для гортанной импульсной синхронизации может быть использована такая же процедура, как в случае, описанном в разделе 7.11.2.5 в непатентной литературе 4, где положение импульса не является доступным. Следует отметить, однако, что u(n) в непатентной литературе 4 соответствует
Figure 00000108
в варианте осуществления настоящего изобретения, и экстраполированный основной тон соответствует
Figure 00000112
в варианте осуществления настоящего изобретения, и последний достоверный основной тон (
Figure 00000113
) соответствует
Figure 00000114
в варианте осуществления настоящего изобретения.[0179] Then, laryngeal pulse synchronization is applied to the original excitation vector by using all potential delays
Figure 00000110
pitch in the pitch lag codebook to thereby generate a potential vector
Figure 00000111
adaptive codebook (block 333 in FIG. 29). For laryngeal pulse synchronization, the same procedure can be used as in the case described in section 7.11.2.5 in the non-patent literature 4, where the position of the pulse is not available. It should be noted, however, that u (n) in the non-patent literature 4 corresponds to
Figure 00000108
in an embodiment of the present invention, and the extrapolated pitch corresponds to
Figure 00000112
in an embodiment of the present invention, and the last valid pitch (
Figure 00000113
) matches
Figure 00000114
in an embodiment of the present invention.

[0180] Для потенциального вектора

Figure 00000115
адаптивной кодовой книги вычисляется шкала оценок (этап 334 на Фиг. 29). В случае использования сегментного SNR в качестве шкалы оценок, сигнал синтезируется посредством обратной фильтрации с использованием коэффициента LP и сегментное SNR вычисляется с входным сигналом согласно следующему уравнению.[0180] For a potential vector
Figure 00000115
the adaptive codebook calculates the rating scale (block 334 in FIG. 29). In the case of using the segment SNR as the rating scale, the signal is synthesized by inverse filtering using the LP coefficient, and the segment SNR is calculated with the input signal according to the following equation.

Figure 00000116
Уравнение 35
Figure 00000116
Equation 35

Figure 00000117
Уравнение 36
Figure 00000117
Equation 36

[0181] Вместо выполнения обратной фильтрации сегментное SNR может быть вычислено в области вектора адаптивной кодовой книги посредством использования остаточного сигнала согласно следующему уравнению.[0181] Instead of performing inverse filtering, the segment SNR can be calculated in the adaptive codebook vector domain by using the residual signal according to the following equation.

Figure 00000118
Уравнение 37
Figure 00000118
Equation 37

Figure 00000119
Уравнение 38
Figure 00000119
Equation 38

В этом случае остаточный сигнал r(n) из прогнозного сигнала

Figure 00000120
вычисляется посредством использования коэффициента LP (этап 181 на Фиг. 11).In this case, the residual signal r (n) from the predictive signal
Figure 00000120
computed by using the LP coefficient (step 181 in FIG. 11).

[0182] Выбирается индекс, соответствующий наибольшей шкале оценок, вычисленной на этапе 334, и вычисляется запаздывание основного тона, соответствующее индексу (этап 335 на Фиг. 29).[0182] The index corresponding to the highest rating scale computed in step 334 is selected, and the pitch lag corresponding to the index is calculated (step 335 in FIG. 29).

Figure 00000121
Уравнение 39
Figure 00000121
Equation 39

[0183] <Сторона декодирования>[0183] <Decode side>

Функциональная конфигурация устройства приема аудиосигнала является такой же, как в примере 1. Отличиями от примера 1 являются функциональная конфигурация и процедура блока 123 обработки отсутствующих аудиопараметров, блока 125 декодирования побочной информации и блока 126 сбора побочной информации, и только они описываются в этом документе ниже по тексту.The functional configuration of the audio signal receiving apparatus is the same as in Example 1. Differences from Example 1 are the functional configuration and procedure of the missing audio parameter processing unit 123, the side information decoding unit 125 and the side information collecting unit 126, and only these are described later in this document. text.

[0184] <Когда пакет принят корректно>[0184] <When packet is received correctly>

Блок 125 декодирования побочной информации декодирует код побочной информации и вычисляет запаздывание

Figure 00000122
основного тона и сохраняет его в блок 126 сбора побочной информации. Примерная процедура блока 125 декодирования побочной информации показана на Фиг. 30.The side information decoding unit 125 decodes the side information code and calculates the delay
Figure 00000122
pitch and stores it in the block 126 collecting side information. An exemplary procedure for side information decoding unit 125 is shown in FIG. thirty.

[0185] При вычислении запаздывания основного тона блок 312 предсказания запаздывания основного тона вычисляет предсказанное значение

Figure 00000123
запаздывания основного тона посредством использования запаздывания основного тона, полученного из блока декодирования аудио (этап 341 на Фиг. 30). Конкретная обработка предсказания является такой же, как на этапе 322 с Фиг. 28 в примере 3.[0185] When calculating the pitch lag, the pitch lag prediction unit 312 calculates a predicted value
Figure 00000123
lagging the pitch by using the lagging pitch obtained from the audio decoding unit (step 341 in FIG. 30). The specific prediction processing is the same as in step 322 of FIG. 28 in example 3.

[0186] Затем, кодовая книга запаздываний основного тона генерируется из предсказанного значения

Figure 00000123
запаздывания основного тона и значения прошлого запаздывания
Figure 00000124
основного тона, согласно следующим уравнениям (этап 342 на Фиг. 30).[0186] Then, a pitch lag codebook is generated from the predicted value
Figure 00000123
pitch lags and past lag values
Figure 00000124
pitch according to the following equations (block 342 in FIG. 30).

<Когда

Figure 00000125
><When
Figure 00000125
>

Figure 00000126
Уравнение 40
Figure 00000126
Equation 40

<Когда

Figure 00000127
><When
Figure 00000127
>

Figure 00000128
Уравнение 41
Figure 00000128
Equation 41

Процедура является такой же, как на этапе 331 на Фиг. 29. Значение запаздывания основного тона на один подкадр раньше равно

Figure 00000129
. Дополнительно, число индексов кодовой книги равно I.
Figure 00000130
является некоторой предопределенной дискретой и
Figure 00000131
является некоторой предопределенной константой.The procedure is the same as step 331 in FIG. 29. The value of the pitch lag one subframe earlier is
Figure 00000129
... Additionally, the number of codebook indices is I.
Figure 00000130
is some predefined discrete and
Figure 00000131
is some predefined constant.

[0187] Затем, обращаясь к кодовой книге запаздываний основного тона, запаздывание

Figure 00000132
основного тона, соответствующее индексу idx, передаваемому в качестве части побочной информации, вычисляется и сохраняется в блоке 126 сбора побочной информации (этап 343 на Фиг. 30).[0187] Then, referring to the pitch lag codebook, the lag
Figure 00000132
the pitch corresponding to the index idx transmitted as the side information part is calculated and stored in the side information collecting unit 126 (step 343 in FIG. 30).

[0188] <Когда обнаружена потеря пакета>[0188] <When packet loss is detected>

Хотя функциональная конфигурация блока синтеза аудио также является такой же, как в примере 1 (который является таким, же как на Фиг. 15), в этом документе ниже по тексту описывается только блок 1123 вычисления адаптивной кодовой книги, который работает отлично от блока в примере 1.Although the functional configuration of the audio synthesis block is also the same as in example 1 (which is the same as in FIG. 15), this document describes only the adaptive codebook calculator 1123 hereinafter, which operates differently from the block in the example. one.

[0189] Блок 123 обработки отсутствующих аудиопараметров считывает запаздывание основного тона из блока 126 сбора побочной информации и вычисляет предсказанное значение запаздывания основного тона согласно следующему уравнению, и использует вычисленное предсказанное значение запаздывания основного тона вместо вывода блока 192 предсказания запаздывания основного тона.[0189] The missing audio parameter processing unit 123 reads the pitch lag from the side information collection unit 126 and calculates the predicted pitch lag value according to the following equation, and uses the calculated predicted pitch lag value instead of outputting the pitch lag prediction unit 192.

Figure 00000133
Уравнение 42
Figure 00000133
Equation 42

где

Figure 00000134
является некоторой предопределенной константой.Where
Figure 00000134
is some predefined constant.

[0190] Затем, посредством использования адаптивной кодовой книги и предсказанного значения

Figure 00000135
запаздывания основного тона исходный вектор
Figure 00000136
возбуждения генерируется согласно следующему уравнению (этап 332 на Фиг. 29).[0190] Then, by using the adaptive codebook and the predicted value
Figure 00000135
pitch lag original vector
Figure 00000136
excitation is generated according to the following equation (step 332 in FIG. 29).

Figure 00000137
Уравнение 43
Figure 00000137
Equation 43

[0191] Затем гортанная импульсная синхронизация применяется к исходному вектору возбуждения посредством использования запаздывания

Figure 00000138
основного тона, чтобы посредством этого сгенерировать вектор u(n) адаптивной кодовой книги. Для гортанной импульсной синхронизации используется такая же процедура, как на этапе 333 с Фиг. 29.[0191] Then the laryngeal pulse sync is applied to the original excitation vector by using a lag
Figure 00000138
pitch to thereby generate an adaptive codebook vector u (n). For laryngeal pulse synchronization, the same procedure as in step 333 of FIG. 29.

[0192] В дальнейшем в этом документе описывается программа 70 кодирования аудио, которая побуждает компьютер исполнять вышеописанную обработку устройством передачи аудиосигналов. Как показано на Фиг. 31, программа 70 кодирования аудио хранится в области 61 хранения программ, сформированной на носителе 60 записи, который вставляется в компьютер и доступен компьютеру или включен в его состав.[0192] Hereinafter, an audio encoding program 70 that causes a computer to execute the above-described processing by an audio signal transmission apparatus is described. As shown in FIG. 31, an audio encoding program 70 is stored in a program storage area 61 formed on a recording medium 60 that is inserted into a computer and is available to or included in a computer.

[0193] Программа 70 кодирования аудио включает в себя модуль 700 кодирования аудио и модуль 701 кодирования побочной информации. Функции, реализуемые посредством исполнения модуля 700 кодирования аудио и модуля 701 кодирования побочной информации являются такими же, как, соответственно, функции блока 111 кодирования аудио и блока 112 кодирования побочной информации в устройстве передачи аудиосигналов, описанном выше по тексту.[0193] The audio coding program 70 includes an audio coding unit 700 and a side information coding unit 701. The functions implemented by executing the audio coding unit 700 and the side information coding unit 701 are the same as the functions of the audio coding unit 111 and the side information coding unit 112 in the audio signal transmission apparatus described above, respectively.

[0194] Следует отметить, что часть или вся программа 70 кодирования аудио может быть передана посредством передающей среды, такой как линия связи, принята и сохранена (в том числе будучи установленной) другим устройством. Дополнительно, каждый модуль программы 70 кодирования аудио может быть установлен не на один компьютер, а на любой из множества компьютеров. В этом случае, вышеописанная обработка программы 70 кодирования аудио выполняется компьютерной системой, составленной из упомянутого множества компьютеров.[0194] It should be noted that part or all of the audio coding program 70 may be transmitted via a transmission medium such as a communication link, received and stored (including being installed) by another device. Additionally, each module of the audio encoding program 70 may not be installed on one computer, but on any of a plurality of computers. In this case, the above-described processing of the audio encoding program 70 is performed by a computer system composed of said plurality of computers.

[0195] В дальнейшем в этом документе описывается программа 90 декодирования аудио, которая побуждает компьютер исполнять вышеописанную обработку устройством приема аудиосигналов. Как показано на Фиг. 32, программа 90 декодирования аудио хранится в области 81 хранения программ, сформированной на носителе 80 записи, который вставляется в компьютер и доступен компьютеру или включен в его состав.[0195] Hereinafter, an audio decoding program 90 is described that causes a computer to execute the above-described processing by an audio signal receiving apparatus. As shown in FIG. 32, the audio decoding program 90 is stored in a program storage area 81 formed on a recording medium 80 that is inserted into a computer and is available to or included in a computer.

[0196] Программа 90 декодирования аудио включает в себя модуль 900 буфера аудиокода, модуль 901 декодирования аудиопараметров, модуль 902 декодирования побочной информации, модуль 903 сбора побочной информации, модуль 904 обработки отсутствующих аудиопараметров и модуль 905 синтеза аудио. Функции, реализуемые посредством исполнения модуля 900 буфера аудиокода, модуля 901 декодирования аудиопараметров, модуля 902 декодирования побочной информации, модуля 903 сбора побочной информации, модуля 904 обработки отсутствующих аудиопараметров и модуля 905 синтеза аудио являются такими же, как, соответственно, функция буфера 231 аудиокода, блока 232 декодирования аудиопараметров, блока 235 декодирования побочной информации, блока 236 сбора побочной информации, блока 233 обработки отсутствующих аудиопараметров и блока 234 синтеза аудио, описанных выше по тексту.[0196] The audio decoding program 90 includes an audio code buffer unit 900, an audio parameter decoding unit 901, a side information decoding unit 902, a side information collection unit 903, a missing audio parameter processing unit 904, and an audio synthesis unit 905. The functions implemented by the execution of the audio code buffer unit 900, the audio parameter decoding unit 901, the side information decoding unit 902, the side information collection unit 903, the missing audio parameters processing unit 904, and the audio synthesis unit 905 are the same as the function of the audio code buffer 231, respectively. an audio parameter decoding unit 232, a side information decoding unit 235, a side information collecting unit 236, a missing audio parameter processing unit 233, and an audio synthesis unit 234 described above.

[0197] Следует отметить, что часть или вся программа 90 декодирования аудио может быть передана посредством передающей среды, такой как линия связи, принята и сохранена (в том числе будучи установленной) другим устройством. Дополнительно, каждый модуль программы 90 декодирования аудио может быть установлен не на один компьютер, а на любой из множества компьютеров. В этом случае, вышеописанная обработка программы 90 декодирования аудио выполняется компьютерной системой, составленной из упомянутого множества компьютеров.[0197] It should be noted that part or all of the audio decoding program 90 may be transmitted via a transmission medium such as a communication link, received and stored (including being installed) by another device. Additionally, each module of the audio decoding program 90 may not be installed on one computer, but on any of a plurality of computers. In this case, the above-described processing of the audio decoding program 90 is performed by a computer system composed of said plurality of computers.

[0198] [Пример 4][0198] [Example 4]

Пример, который использует побочную информацию для предсказания запаздывания основного тона на стороне декодирования описывается в дальнейшем в этом документе.An example that uses side information for decoding-side pitch lag prediction is described later in this document.

[0199] <Сторона кодирования>[0199] <Coding side>

Функциональная конфигурация устройства передачи аудиосигнала является такой же, как в примере 1. Функциональная конфигурация и процедура различаются только в блоке 112 кодирования побочной информации и поэтому в этом документе ниже по тексту описывается только операция блока 112 кодирования побочной информации.The functional configuration of the audio signal transmission apparatus is the same as in Example 1. The functional configuration and procedure differ only in the side information encoding section 112, and therefore, only the operation of the side information encoding section 112 will be described later in this document.

[0200] Функциональная конфигурация примера блока 112 кодирования побочной информации показана на Фиг. 33 и примерная процедура блока 112 кодирования побочной информации показана на Фиг. 34. Блок 112 кодирования побочной информации включает в себя блок 511 вычисления коэффициента LP, блок 512 вычисления остаточного сигнала, блок 513 вычисления запаздывания основного тона, блок 514 вычисления адаптивной кодовой книги, буфер 515 адаптивных кодовых книг и блок 516 кодирования запаздывания основного тона.[0200] The functional configuration of an example of the side information encoding unit 112 is shown in FIG. 33 and an exemplary procedure of the side information encoding unit 112 is shown in FIG. 34. Side information coding section 112 includes an LP coefficient calculating section 511, a residual signal calculating section 512, a pitch lag calculating section 513, an adaptive codebook calculating section 514, an adaptive codebook buffer 515, and a pitch lagging encoding section 516.

[0201] Блок 511 вычисления коэффициента LP является таким же, как блок 151 вычисления коэффициента LP в примере 1, показанном на Фиг. 8, и таким образом не описывается еще раз.[0201] The LP coefficient calculating unit 511 is the same as the LP coefficient calculating unit 151 in Example 1 shown in FIG. 8, and thus will not be described again.

[0202] Блок 512 вычисления остаточного сигнала вычисляет остаточный сигнал посредством такой же обработки, как на этапе 181 в примере 1, показанном на Фиг. 11.[0202] The residual signal calculator 512 calculates the residual signal by the same processing as in step 181 in Example 1 shown in FIG. eleven.

[0203] Блок 513 вычисления запаздывания основного тона вычисляет запаздывание основного тона для каждого подкадра посредством вычисления

Figure 00000139
, которое максимизирует следующее уравнение (этап 163 на Фиг. 34). Следует отметить, что u(n) указывает адаптивную кодовую книгу и
Figure 00000140
указывает число отсчетов, содержащихся в одном подкадре.[0203] The pitch lag calculating unit 513 calculates the pitch lag for each subframe by calculating
Figure 00000139
that maximizes the following equation (block 163 in FIG. 34). It should be noted that u (n) indicates an adaptive codebook and
Figure 00000140
indicates the number of samples contained in one subframe.

Figure 00000141
Уравнение 43
Figure 00000141
Equation 43

[0204] Блок 514 вычисления адаптивной кодовой книги вычисляет вектор

Figure 00000142
адаптивной кодовой книги из запаздывания
Figure 00000143
основного тона и адаптивной кодовой книги u(n). Длина адаптивной кодовой книги равна
Figure 00000144
(этап 164 на Фиг. 34).[0204] The adaptive codebook calculator 514 calculates the vector
Figure 00000142
adaptive codebook from lag
Figure 00000143
pitch and adaptive codebook u (n). The length of the adaptive codebook is
Figure 00000144
(step 164 in FIG. 34).

Figure 00000145
Уравнение 44
Figure 00000145
Equation 44

[0205] Буфер 515 адаптивных кодовых книг обновляет состояние посредством вектора

Figure 00000142
адаптивной кодовой книги (этап 166 на Фиг. 34).[0205] The adaptive codebook buffer 515 updates the state with a vector
Figure 00000142
adaptive codebook (block 166 in FIG. 34).

Figure 00000146
Уравнение 45
Figure 00000146
Equation 45

Figure 00000147
Уравнение 46
Figure 00000147
Equation 46

[0206] Блок 516 кодирования запаздывания основного тона является таким же, как в примере 1 и таким образом не описывается еще раз (этап 169 на Фиг. 34).[0206] The pitch lag coding unit 516 is the same as in Example 1 and thus is not described again (step 169 in FIG. 34).

[0207] <Сторона декодирования>[0207] <Decode side>

Устройство приема аудиосигналов включает в себя буфер 121 аудиокода, блок 122 декодирования аудиопараметров, блок 123 обработки отсутствующих аудиопараметров, блок 124 синтеза аудио, блок 125 декодирования побочной информации и блок 126 сбора побочной информации, точно как в примере 1. Процедура устройства приема аудиосигналов показана на Фиг. 7.The audio signal receiving apparatus includes an audio code buffer 121, an audio parameter decoding unit 122, a missing audio parameter processing unit 123, an audio synthesis unit 124, a side information decoding unit 125, and a side information collecting unit 126, just as in Example 1. The procedure of the audio signal receiving apparatus is shown in FIG. 7.

[0208] Операция буфера 121 аудиокода является такой же, как в примере 1.[0208] The operation of the audio code buffer 121 is the same as in Example 1.

[0209] <Когда пакет принят корректно>[0209] <When packet is received correctly>

Операция блока 122 декодирования аудиопараметров является такой же, как в примере 1.The operation of the audio parameter decoding unit 122 is the same as in Example 1.

[0210] Блок 125 декодирования побочной информации декодирует код побочной информации, вычисляет запаздывание

Figure 00000148
основного тона и сохраняет его в блоке 126 сбора побочной информации. Блок 125 декодирования побочной информации декодирует код побочной информации посредством использования способа декодирования, соответствующего способу кодирования, используемому на стороне кодирования.[0210] The side information decoding unit 125 decodes the side information code, calculates the latency
Figure 00000148
the pitch and stores it in the block 126 collecting side information. The side information decoding unit 125 decodes the side information code by using a decoding method corresponding to the coding method used on the coding side.

[0211] Блок 124 синтеза аудио является таким же, как в примере 1.[0211] The audio synthesizer 124 is the same as in example 1.

[0212] <Когда обнаружена потеря пакета>[0212] <When packet loss detected>

Блок 191 предсказания ISF блока 123 обработки отсутствующих аудиопараметров (см. Фиг. 12) вычисляет параметр ISF таким же способом, как в примере 1.The ISF predictor 191 of the missing audio parameter processing unit 123 (see FIG. 12) calculates the ISF parameter in the same manner as in Example 1.

[0213] Примерная процедура блока 192 предсказания запаздывания основного тона показана на Фиг. 35. Блок 192 предсказания запаздывания основного тона считывает код побочной информации из блока 126 сбора побочной информации и получает запаздывание

Figure 00000149
основного тона таким же способом, как в примере 1 (этап 4051 на Фиг. 35). Дополнительно, блок 192 предсказания запаздывания основного тона выводит запаздывание
Figure 00000150
основного тона посредством использования запаздывания
Figure 00000151
основного тона, использованного при прошлом декодировании (этап 4052 на Фиг. 35). Число подкадров, содержащихся в одном кадре, равно M и число запаздываний основного тона, содержащихся в побочной информации, равно
Figure 00000152
. В предсказании запаздывания
Figure 00000150
основного тона, может быть использована процедура, которая описана в непатентной литературе 4 (этап 1102 на Фиг. 13).[0213] An exemplary procedure for pitch lag prediction block 192 is shown in FIG. 35. Pitch lag prediction unit 192 reads the side information code from side information collector 126 and obtains the delay
Figure 00000149
the pitch in the same manner as in example 1 (step 4051 in FIG. 35). Additionally, the pitch lag prediction unit 192 outputs a lag
Figure 00000150
pitch by using lag
Figure 00000151
the pitch used in past decoding (step 4052 in FIG. 35). The number of subframes contained in one frame is M and the number of pitch lags contained in the side information is
Figure 00000152
... In lag prediction
Figure 00000150
pitch, the procedure described in non-patent literature 4 (step 1102 in FIG. 13) can be used.

[0214] В предсказании запаздывания

Figure 00000153
основного тона, блок 192 предсказания запаздывания основного тона может предсказывать запаздывание
Figure 00000153
основного тона посредством использования запаздывания
Figure 00000154
основного тона, использованного при прошлом декодировании, и запаздывания
Figure 00000155
основного тона. Дополнительно,
Figure 00000156
может быть установлено. Процедура блока предсказания запаздывания основного тона в этом случае является такой, как показана на Фиг. 36.[0214] In lag prediction
Figure 00000153
pitch, pitch lag prediction block 192 can predict the pitch
Figure 00000153
pitch by using lag
Figure 00000154
the pitch used in the past decoding and the lag
Figure 00000155
the main tone. Additionally,
Figure 00000156
can be installed. The procedure of the pitch lag prediction unit in this case is as shown in FIG. 36.

[0215] Дополнительно, блок 192 предсказания запаздывания основного тона может устанавливать

Figure 00000156
только когда достоверность предсказанного значения запаздывания основного тона является низкой. Процедура блока предсказания запаздывания основного тона в этом случае показана на Фиг. 37. Информация инструкции относительно того, используется ли предсказанное значение или используется запаздывание
Figure 00000157
основного тона, полученное побочной информацией, может быть введена в блок 154 вычисления адаптивной кодовой книги.[0215] Additionally, the pitch lag prediction unit 192 may set
Figure 00000156
only when the reliability of the predicted pitch lag value is low. The procedure of the pitch lag prediction unit in this case is shown in FIG. 37. Instruction information as to whether a predicted value is used or a lag is used
Figure 00000157
the pitch obtained by the side information may be input to the adaptive codebook calculator 154.

[0216] Блок 193 предсказания усиления адаптивной кодовой книги и блок 194 предсказания усиления фиксированной кодовой книги являются такими же, как в примере 1.[0216] The adaptive codebook gain predictor 193 and the fixed codebook gain predictor 194 are the same as in Example 1.

[0217] Блок 195 генерирования шумовых сигналов является таким же, как в примере 1.[0217] Block 195 generating noise signals is the same as in example 1.

[0218] Блок 124 синтеза аудио синтезирует, из параметров, выведенных из блока 123 обработки отсутствующих аудиопараметров, аудиосигнал, соответствующий кадру, который должен быть закодирован.[0218] The audio synthesis unit 124 synthesizes, from the parameters outputted from the missing audio parameter processing unit 123, an audio signal corresponding to the frame to be encoded.

[0219] Блок 1121 вычисления коэффициента LP блока 124 синтеза аудио (см. Фиг. 15) получает коэффициент LP таким же способом, как в примере 1 (этап S11301 на Фиг. 16).[0219] The LP coefficient calculating unit 1121 of the audio synthesis unit 124 (see Fig. 15) obtains the LP coefficient in the same manner as in Example 1 (step S11301 in Fig. 16).

[0220] Блок 1123 вычисления адаптивной кодовой книги вычисляет вектор адаптивной кодовой книги таким же способом, как в примере 1. Блок 1123 вычисления адаптивной кодовой книги может выполнять фильтрацию в отношении вектора адаптивной кодовой книги или может не выполнять фильтрацию. В частности, вектор адаптивной кодовой книги вычисляется с использованием следующего уравнения. Коэффициентом фильтрации является

Figure 00000158
.[0220] The adaptive codebook calculator 1123 calculates the adaptive codebook vector in the same manner as in Example 1. The adaptive codebook calculator 1123 may or may not perform filtering on the adaptive codebook vector. In particular, the adaptive codebook vector is computed using the following equation. The filtration coefficient is
Figure 00000158
...

Figure 00000159
Уравнение 47
Figure 00000159
Equation 47

В случае декодирования значения, которое не указывает фильтрацию, устанавливается

Figure 00000160
(этап A вычисления адаптивной кодовой книги).In the case of decoding, a value that does not indicate filtering is set
Figure 00000160
(step A of calculating the adaptive codebook).

[0221] Блок 1123 вычисления адаптивной кодовой книги может вычислять вектор адаптивной кодовой книги в следующей процедуре (этап B вычисления адаптивной кодовой книги).[0221] The adaptive codebook calculator 1123 may calculate the adaptive codebook vector in the following procedure (step B of calculating the adaptive codebook).

[0222] Исходный вектор адаптивной кодовой книги вычисляется с использованием запаздывания основного тона и адаптивной кодовой книги 1122.[0222] The original adaptive codebook vector is computed using pitch lag and adaptive codebook 1122.

Figure 00000161
Уравнение 48
Figure 00000161
Equation 48

Figure 00000162
может быть установлено согласно методике расчета.
Figure 00000162
can be set according to the calculation method.

[0223] Затем, гортанная импульсная синхронизация применяется к исходному вектору адаптивной кодовой книги. Для гортанной импульсной синхронизации используется такая же процедура, как в случае, где положение импульса не является доступным в разделе 7.11.2.5 в непатентной литературе 4. Следует отметить, однако, что u(n) в непатентной литературе 4 соответствует v(n) в варианте осуществления настоящего изобретения, и экстраполированный основной тон соответствует

Figure 00000163
в варианте осуществления настоящего изобретения, и последний достоверный основной тон
Figure 00000164
соответствует
Figure 00000165
в варианте осуществления настоящего изобретения.[0223] Then, guttural pulse sync is applied to the original adaptive codebook vector. For laryngeal pulse synchronization, the same procedure is used as in the case where pulse position is not available in section 7.11.2.5 in non-patent literature 4. It should be noted, however, that u (n) in non-patent literature 4 corresponds to v (n) in variant implementation of the present invention, and the extrapolated pitch corresponds to
Figure 00000163
in an embodiment of the present invention, and the last valid pitch
Figure 00000164
corresponds
Figure 00000165
in an embodiment of the present invention.

[0224] Дополнительно, в случае, где блок 192 предсказания запаздывания основного тона выводит вышеописанную информацию инструкции для предсказанного значения, когда информация инструкции указывает, что запаздывание основного тона, переданное в качестве побочной информации, не должно быть использовано в качестве предсказанного значения (Нет на этапе 4082 на Фиг. 38), блок 1123 вычисления адаптивной кодовой книги может использовать вышеописанный этап A вычисления адаптивной кодовой книги, и если указывается, что значение основного тона должно быть использовано (Да на этапе 4082 на Фиг. 38), блок 1123 вычисления адаптивной кодовой книги может использовать вышеописанный этап B вычисления адаптивной кодовой книги. Процедура блока 1123 вычисления адаптивной кодовой книги в этом случае показана в примере с Фиг. 38.[0224] Additionally, in the case where the pitch lag prediction unit 192 outputs the above-described instruction information for the predicted value, when the instruction information indicates that the pitch lag transmitted as side information should not be used as the predicted value (No on 38), the adaptive codebook calculator 1123 may use the adaptive codebook calculating step A above, and if it is indicated that a pitch value is to be used (Yes at 4082 in FIG. 38), the adaptive calculator 1123 the codebook can use the above-described step B of calculating the adaptive codebook. The procedure of the adaptive codebook calculator 1123 in this case is shown in the example of FIG. 38.

[0225] Блок 1124 синтеза вектора возбуждения выводит вектор возбуждения таким же способом, как в примере 1 (этап 11306 на Фиг. 16).[0225] The excitation vector synthesis unit 1124 outputs the excitation vector in the same manner as in Example 1 (step 11306 in FIG. 16).

[0226] Постфильтр 1125 выполняет постобработку над сигналом синтеза таким же способом, как в примере 1.[0226] Post-filter 1125 performs post-processing on the synthesis signal in the same manner as in example 1.

[0227] Адаптивная кодовая книга 1122 обновляет состояние посредством использования вектора сигнала возбуждения таким же способом, как в примере 1 (этап 11308 на Фиг. 16).[0227] The adaptive codebook 1122 updates the state by using the excitation signal vector in the same manner as in example 1 (step 11308 in FIG. 16).

[0228] Фильтр 1126 синтеза синтезирует декодированный сигнал таким же способом, как в примере 1 (этап 11309 на Фиг. 16).[0228] The synthesis filter 1126 synthesizes the decoded signal in the same manner as in example 1 (step 11309 in FIG. 16).

[0229] Перцептивный обратный взвешивающий фильтр 1127 применяет перцептивный обратный взвешивающий фильтр таким же способом, как в примере 1.[0229] The perceptual inverse weighting filter 1127 applies a perceptual inverse weighting filter in the same manner as in Example 1.

[0230] Блок 123 обработки отсутствующих аудиопараметров сохраняет аудиопараметры (параметр ISF, запаздывание основного тона, усиление адаптивной кодовой книги, усиление фиксированной кодовой книги), используемые в блоке 124 синтеза аудио, в буфер таким же способом, как в примере 1 (этап 145 на Фиг. 7).[0230] The missing audio parameter processing unit 123 stores the audio parameters (ISF parameter, pitch lag, adaptive codebook gain, fixed codebook gain) used in the audio synthesizer 124 into a buffer in the same manner as in Example 1 (step 145 on Fig. 7).

[0231] [Пример 5][0231] [Example 5]

В этом варианте осуществления описывается конфигурация, в которой запаздывание основного тона передается в качестве побочной информации только в некотором конкретном классе кадров и иначе запаздывание основного тона не передается.In this embodiment, a configuration is described in which the pitch lag is transmitted as side information only in some specific class of frames, and otherwise the pitch lag is not transmitted.

[0232] <Сторона передачи>[0232] <Transfer side>

В устройстве передачи аудиосигнала входной аудиосигнал отправляется в блок 111 кодирования аудио.In the audio signal transmission apparatus, the input audio signal is sent to the audio coding unit 111.

[0233] Блок 111 кодирования аудио в этом примере вычисляет индекс, представляющий характеристики кадра, который должен быть закодирован, и передает индекс блоку 112 кодирования побочной информации. Другие операции являются такими же, как в примере 1.[0233] The audio coding unit 111 in this example calculates an index representing characteristics of a frame to be encoded and transmits the index to the side information coding unit 112. Other operations are the same as in example 1.

[0234] В блоке 112 кодирования побочной информации, отличие от примеров с 1 по 4 существует только в отношении к блоку 158 кодирования запаздывания основного тона и поэтому операция блока 158 кодирования запаздывания основного тона описывается в этом документе ниже по тексту. Конфигурация блока 112 кодирования побочной информации в примере 5 показана на Фиг. 39.[0234] In the side information coding unit 112, the difference from Examples 1 to 4 exists only with respect to the pitch lag coding unit 158, and therefore the operation of the pitch lag coding unit 158 is described later in this document. The configuration of the side information encoding unit 112 in Example 5 is shown in FIG. 39.

[0235] Процедура блока 158 кодирования запаздывания основного тона показана в примере с Фиг. 40. Блок 158 кодирования запаздывания основного тона считывает индекс, представляющий характеристики кадра, который должен быть закодирован (этап 5021 на Фиг. 40) и, когда индекс, представляющий характеристики кадра, который должен быть закодирован, равен некоторому предопределенному значению, блок 158 кодирования запаздывания основного тона определяет число битов, которые должны быть назначены побочной информации, в качестве B битов (B>1). С другой стороны, когда индекс, представляющий характеристики кадра, который должен быть закодирован, отличается от некоторого предопределенного значения, блок 158 кодирования запаздывания основного тона определяет число битов, которые должны быть назначены побочной информации, в качестве 1 бита (этап 5022 на Фиг. 40).[0235] The procedure of the pitch lag coding unit 158 is shown in the example of FIG. 40. Pitch lag coding unit 158 reads out an index representing characteristics of the frame to be encoded (block 5021 in FIG. 40), and when the index representing characteristics of the frame to be encoded is equal to some predetermined value, lag coding unit 158 pitch specifies the number of bits to be assigned to side information, as B bits (B> 1). On the other hand, when an index representing characteristics of a frame to be encoded differs from some predetermined value, pitch lag coding unit 158 determines the number of bits to be assigned to side information as 1 bit (block 5022 in FIG. 40 ).

[0236] Когда число битов, которые должны быть назначены побочной информации, равно 1 биту (Нет на этапе 5022 на Фиг. 40), значение, указывающее, что не осуществляется передача побочной информации, используется в качестве кода побочной информации и устанавливается в индекс побочной информации (этап 5023 на Фиг. 40).[0236] When the number of bits to be assigned to the side information is 1 bit (No in step 5022 in FIG. 40), a value indicating that there is no side information transmission is used as the side information code and is set to the side information index. information (block 5023 in Fig. 40).

[0237] С другой стороны, когда число битов, которые должны быть назначены побочной информации, равно B битам (Да на этапе 5022 на Фиг. 40), значение, указывающее передачу побочной информации, устанавливается в индекс побочной информации (этап 5024 на Фиг. 40), и дополнительно код B-1 битов, полученный посредством кодирования запаздывания основного тона способом, описанным в примере 1, добавляется для использования в качестве кода побочной информации (этап 5025 на Фиг. 40).[0237] On the other hand, when the number of bits to be assigned to the side information is B bits (Yes in step 5022 in FIG. 40), a value indicating transmission of the side information is set to the side information index (step 5024 in FIG. 40), and additionally, a B-1 bit code obtained by encoding the pitch lag in the manner described in Example 1 is added for use as the side information code (step 5025 in FIG. 40).

[0238] <Сторона декодирования>[0238] <Decode side>

Устройство приема аудиосигналов включает в себя буфер 121 аудиокода, блок 122 декодирования аудиопараметров, блок 123 обработки отсутствующих аудиопараметров, блок 124 синтеза аудио, блок 125 декодирования побочной информации и блок 126 сбора побочной информации, точно как в примере 1. Процедура устройства приема аудиосигналов является такой, как показана на Фиг. 7.The audio signal receiving apparatus includes an audio code buffer 121, an audio parameter decoding unit 122, a missing audio parameter processing unit 123, an audio synthesis unit 124, a side information decoding unit 125, and a side information collecting unit 126, just as in Example 1. The procedure of the audio signal receiving apparatus is as shown in FIG. 7.

[0239] Операция буфера 121 аудиокода является такой, как в примере 1.[0239] The operation of the audio code buffer 121 is as in Example 1.

[0240] <Когда пакет принят корректно>[0240] <When packet is received correctly>

Операция блока 122 декодирования аудиопараметров является такой же, как в примере 1.The operation of the audio parameter decoding unit 122 is the same as in Example 1.

[0241] Процедура блока 125 декодирования побочной информации показана в примере с Фиг. 41. Блок 125 декодирования побочной информации сначала декодирует индекс побочной информации, содержащийся в коде побочной информации (этап 5031 на Фиг. 41). Когда индекс побочной информации указывает отсутствие передачи побочной информации, блок 125 декодирования побочной информации не выполняет никаких дополнительных операций декодирования. Также, блок 125 декодирования побочной информации сохраняет значение индекса побочной информации в блоке 126 сбора побочной информации (этап 5032 на Фиг. 41).[0241] The procedure of the side information decoding unit 125 is shown in the example of FIG. 41. The side information decoding section 125 first decodes the side information index contained in the side information code (block 5031 in FIG. 41). When the side information index indicates that there is no side information transmission, the side information decoding section 125 does not perform any additional decoding operations. Also, the side information decoding section 125 stores the side information index value in the side information collecting section 126 (step 5032 in FIG. 41).

[0242] С другой стороны, когда индекс побочной информации указывает передачу побочной информации, блок 125 декодирования побочной информации дополнительно выполняет декодирование B-1 битов и вычисляет запаздывание

Figure 00000166
основного тона и сохраняет вычисленное запаздывание основного тона в блоке 126 сбора побочной информации (этап 5033 на Фиг. 41). Дополнительно, блок 125 декодирования побочной информации сохраняет значение индекса побочной информации в блок 126 сбора побочной информации. Следует отметить, что декодирование побочной информации B-1 битов является такой же операцией, как операция блока 125 декодирования побочной информации в примере 1.[0242] On the other hand, when the side information index indicates transmission of side information, the side information decoding section 125 further performs decoding of B-1 bits and calculates the latency
Figure 00000166
and stores the calculated pitch lag in the side information collection unit 126 (step 5033 in FIG. 41). Additionally, the side information decoding section 125 stores the side information index value in the side information collecting section 126. It should be noted that the decoding of the B-1 bit side information is the same operation as that of the side information decoding unit 125 in Example 1.

[0243] Блок 124 синтеза аудио является таким же, как в примере 1.[0243] The audio synthesizer 124 is the same as in example 1.

[0244] <Когда обнаружена потеря пакета>[0244] <When Packet Loss Detected>

Блок 191 предсказания ISF блока 123 обработки отсутствующих аудиопараметров (см. Фиг. 12) вычисляет параметр ISF таким же способом, как в примере 1.The ISF predictor 191 of the missing audio parameter processing unit 123 (see FIG. 12) calculates the ISF parameter in the same manner as in Example 1.

[0245] Процедура блока 192 предсказания запаздывания основного тона показана в примере с Фиг. 42. Блок 192 предсказания запаздывания основного тона считывает индекс побочной информации из блока 126 сбора побочной информации (этап 5041 на Фиг. 42) и проверяет, является ли он значением, указывающим передачу побочной информации (этап 5042 на Фиг. 42).[0245] The procedure of the pitch lag prediction block 192 is shown in the example of FIG. 42. Pitch lag prediction unit 192 reads the side information index from side information collecting unit 126 (step 5041 in FIG. 42) and checks if it is a value indicating transmission of side information (step 5042 in FIG. 42).

[0246] <Когда индекс побочной информации является значением, указывающим передачу побочной информации>[0246] <When the side information index is a value indicating transmission of side information>

Таким же способом, как в примере 1, код побочной информации считывается из блока 126 сбора побочной информации для получения запаздывания

Figure 00000167
основного тона (этап 5043 на Фиг. 42). Дополнительно, запаздывание
Figure 00000168
основного тона выводится посредством использования запаздывания
Figure 00000169
основного тона, использованного при прошлом декодировании, и
Figure 00000170
, полученного в качестве побочной информации (этап 5044 на Фиг. 42). Число подкадров, содержащихся в одном кадре, равно M и число запаздываний основного тона, содержащихся в побочной информации, равно
Figure 00000171
. В предсказании запаздывания
Figure 00000172
основного тона, может быть использована процедура, которая описана в непатентной литературе 4 (этап 1102 на Фиг. 13). Дополнительно, может быть установлено
Figure 00000173
.In the same way as in example 1, the side information code is read from the side information collecting unit 126 to obtain the delay.
Figure 00000167
pitch (block 5043 in FIG. 42). Additionally, lag
Figure 00000168
the pitch is output by using a lag
Figure 00000169
the pitch used in past decoding, and
Figure 00000170
received as side information (step 5044 in FIG. 42). The number of subframes contained in one frame is M and the number of pitch lags contained in the side information is
Figure 00000171
... In lag prediction
Figure 00000172
pitch, the procedure described in non-patent literature 4 (step 1102 in FIG. 13) can be used. Additionally, can be installed
Figure 00000173
...

[0247] Дополнительно, блок 192 предсказания запаздывания основного тона может устанавливать

Figure 00000174
только, когда достоверность предсказанного значения запаздывания основного тона является низкой, и иначе устанавливать предсказанное значение в
Figure 00000175
(этап 5046 на Фиг. 42). Дополнительно, информация инструкции запаздывания основного тона, указывающая, используется ли предсказанное значение или используется запаздывание
Figure 00000176
основного тона, полученное побочной информацией, может быть введена в блок 1123 вычисления адаптивной кодовой книги.[0247] Additionally, the pitch lag prediction unit 192 may set
Figure 00000174
only when the confidence of the predicted pitch lag value is low, and otherwise set the predicted value to
Figure 00000175
(block 5046 in FIG. 42). Additionally, pitch lag instruction information indicating whether a predicted value is used or a lag is used
Figure 00000176
the pitch obtained by the side information may be input to the adaptive codebook calculator 1123.

[0248] <Когда индекс побочной информации является значением, указывающим, что не осуществляется передача побочной информации>[0248] <When the side information index is a value indicating that there is no side information transmission>

В предсказании запаздывания

Figure 00000177
основного тона, блок 192 предсказания запаздывания основного тона предсказывает запаздывание
Figure 00000178
основного тона посредством использования запаздывания
Figure 00000179
основного тона, использованного при прошлом декодировании (этап 5048 на Фиг. 42).In lag prediction
Figure 00000177
pitch, pitch lag prediction block 192 predicts lag
Figure 00000178
pitch by using lag
Figure 00000179
the pitch used in past decoding (block 5048 in FIG. 42).

[0249] Дополнительно, блок 192 предсказания запаздывания основного тона может устанавливать

Figure 00000180
только когда достоверность предсказанного значения запаздывания основного тона является низкой (этап 5049 на Фиг. 42), и блок 192 предсказания запаздывания основного тона может иначе установить предсказанное значение в
Figure 00000181
. Дополнительно, информация инструкции запаздывания основного тона, указывающая, используется ли предсказанное значение или используется запаздывание
Figure 00000182
основного тона, использованное при прошлом декодировании, вводится в блок 1123 вычисления адаптивной кодовой книги (этап 5050 на Фиг. 42).[0249] Additionally, the pitch lag prediction unit 192 may set
Figure 00000180
only when the confidence of the predicted pitch lag value is low (block 5049 in FIG. 42) and the pitch lag prediction unit 192 can otherwise set the predicted value to
Figure 00000181
... Additionally, pitch lag instruction information indicating whether a predicted value is used or a lag is used
Figure 00000182
the pitch used in past decoding is input to adaptive codebook calculator 1123 (block 5050 in FIG. 42).

[0250] Блок 193 предсказания усиления адаптивной кодовой книги и блок 194 предсказания усиления фиксированной кодовой книги являются такими же, как в примере 1.[0250] The adaptive codebook gain predictor 193 and the fixed codebook gain predictor 194 are the same as in Example 1.

[0251] Блок 195 генерирования шумовых сигналов является таким же, как в примере 1.[0251] Block 195 generating noise signals is the same as in example 1.

[0252] Блок 124 синтеза аудио синтезирует, из параметров, выведенных из блока 123 обработки отсутствующих аудиопараметров, аудиосигнал, который соответствует кадру, который должен быть закодирован.[0252] The audio synthesizer 124 synthesizes, from the parameters outputted from the audio missing parameter processing unit 123, an audio signal that corresponds to a frame to be encoded.

[0253] Блок 1121 вычисления коэффициента LP блока 124 синтеза аудио (см. Фиг. 15) получает коэффициент LP таким же способом, как в примере 1 (этап S11301 на Фиг. 16).[0253] The LP coefficient calculating unit 1121 of the audio synthesizing unit 124 (see FIG. 15) obtains the LP coefficient in the same manner as in Example 1 (step S11301 in FIG. 16).

[0254] Процедура блока 1123 вычисления адаптивной кодовой книги показана в примере с Фиг. 43. Блок 1123 вычисления адаптивной кодовой книги вычисляет вектор адаптивной кодовой книги таким же способом, как в примере 1. Сначала, посредством обращения к информации инструкции запаздывания основного тона (этап 5051 на Фиг. 43), когда достоверность предсказанного значения является низкой (Да на этапе 5052 на Фиг. 43), вектор адаптивной кодовой книги вычисляется с использованием следующего уравнения (этап 5055 на Фиг. 43). Коэффициентом фильтрации является

Figure 00000183
.[0254] The procedure of the adaptive codebook calculator 1123 is shown in the example of FIG. 43. The adaptive codebook calculator 1123 calculates the adaptive codebook vector in the same manner as in Example 1. First, by referring to the pitch lag instruction information (step 5051 in FIG. 43) when the confidence of the predicted value is low (Yes on step 5052 in Fig. 43), the adaptive codebook vector is calculated using the following equation (step 5055 in Fig. 43). The filtration coefficient is
Figure 00000183
...

Figure 00000184
Уравнение 49
Figure 00000184
Equation 49

Следует отметить, что

Figure 00000185
может быть установлено согласно методике расчета.It should be noted that
Figure 00000185
can be set according to the calculation method.

[0255] Посредством обращения к информации инструкции запаздывания основного тона, когда достоверность предсказанного значения является высокой (Нет на этапе 5052 на Фиг. 43), блок 1123 вычисления адаптивной кодовой книги вычисляет вектор адаптивной кодовой книги следующей процедурой.[0255] By referring to the pitch lag instruction information when the confidence of the predicted value is high (No at step 5052 in FIG. 43), the adaptive codebook calculator 1123 calculates the adaptive codebook vector by the following procedure.

[0256] Сначала, исходный вектор адаптивной кодовой книги вычисляется с использованием запаздывания основного тона и адаптивной кодовой книги 1122 (этап 5053 на Фиг. 43).[0256] First, an original adaptive codebook vector is calculated using pitch lag and adaptive codebook 1122 (block 5053 in FIG. 43).

Figure 00000186
Уравнение 50
Figure 00000186
Equation 50

Figure 00000187
может быть установлено согласно методике расчета.
Figure 00000187
can be set according to the calculation method.

[0257] Затем, гортанная импульсная синхронизация применяется к исходному вектору адаптивной кодовой книги. Для гортанной импульсной синхронизации может быть использована такая же процедура, как в случае, когда положение импульса не является доступным в разделе 7.11.2.5 в непатентной литературе 4 (этап 5054 на Фиг. 43). Следует отметить, что однако, u(n) в непатентной литературе 4 соответствует v(n) в варианте осуществления настоящего изобретения, экстраполированный основной тон соответствует

Figure 00000188
в варианте осуществления настоящего изобретения, и последний достоверный основной тон
Figure 00000189
соответствует
Figure 00000190
в варианте осуществления настоящего изобретения.[0257] Then, guttural impulse sync is applied to the original adaptive codebook vector. For laryngeal pulse synchronization, the same procedure can be used as in the case where the pulse position is not available in section 7.11.2.5 in Non-Patent Literature 4 (step 5054 in FIG. 43). It should be noted that however, u (n) in Non-Patent Literature 4 corresponds to v (n) in an embodiment of the present invention, the extrapolated pitch corresponds to
Figure 00000188
in an embodiment of the present invention, and the last valid pitch
Figure 00000189
corresponds
Figure 00000190
in an embodiment of the present invention.

[0258] Блок 1124 синтеза вектора возбуждения выводит вектор сигнала возбуждения таким же способом, как в примере 1 (этап 11306 на Фиг. 16).[0258] The excitation vector synthesizing unit 1124 outputs the excitation signal vector in the same manner as in Example 1 (step 11306 in FIG. 16).

[0259] Постфильтр 1125 выполняет постобработку над сигналом синтеза таким же способом, как в примере 1.[0259] Post-filter 1125 performs post-processing on the synthesis signal in the same manner as in example 1.

[0260] Адаптивная кодовая книга 1122 обновляет состояние с использованием вектора сигнала возбуждения таким же способом, как в примере 1 (этап 11308 на Фиг. 16).[0260] The adaptive codebook 1122 updates the state using the excitation signal vector in the same manner as in example 1 (step 11308 in FIG. 16).

[0261] Фильтр 1126 синтеза синтезирует декодированный сигнал таким же способом, как в примере 1 (этап 11309 на Фиг. 16).[0261] The synthesis filter 1126 synthesizes the decoded signal in the same manner as in example 1 (step 11309 in FIG. 16).

[0262] Перцептивный обратный взвешивающий фильтр 1127 применяет перцептивный обратный взвешивающий фильтр таким же способом, как в примере 1.[0262] The perceptual inverse weighting filter 1127 applies a perceptual inverse weighting filter in the same manner as in Example 1.

[0263] Блок 123 обработки отсутствующих аудиопараметров сохраняет аудиопараметры (параметр ISF, запаздывание основного тона, усиление адаптивной кодовой книги, усиление фиксированной кодовой книги), используемые в блоке 124 синтеза аудио, в буфер таким же способом, как в примере 1 (этап 145 на Фиг. 7).[0263] The missing audio parameter processing unit 123 stores the audio parameters (ISF parameter, pitch lag, adaptive codebook gain, fixed codebook gain) used in the audio synthesizer 124 to a buffer in the same manner as in Example 1 (step 145 on Fig. 7).

Список позиционных обозначенийReference designator list

[0264] 60,80...носитель данных, 61, 81...область хранения программ, 70...программа кодирования аудио, 90...программа декодирования аудио, 111...блок кодирования аудио, 112...блок кодирования побочной информации, 121, 231...буфер аудиокода, 122, 232...блок декодирования аудиопараметров, 123, 233...блок обработки отсутствующих аудиопараметров, 124, 234...блок синтеза аудио, 125, 235...блок декодирования побочной информации, 126, 236...блок сбора побочной информации, 151, 511, 1121...блок вычисления коэффициента LP, 152, 2012...блок вычисления целевого сигнала, 153, 513, 2013...блок вычисления запаздывания основного тона, 154, 1123, 514, 2014, 2313...блок вычисления адаптивной кодовой книги, 155, 1124, 2314...блок синтеза вектора возбуждения, 156, 315, 515, 2019...буфер адаптивных кодовых книг, 157, 1126, 2018, 2316...фильтр синтеза, 158, 516...блок кодирования запаздывания основного тона, 191...блок предсказания ISF, 192...блок предсказания запаздывания основного тона, 193...блок предсказания усиления адаптивной кодовой книги, 194...блок предсказания усиления фиксированной кодовой книги, 195...блок генерирования шумовых сигналов, 211...главный блок кодирования, 212...блок кодирования побочной информации, 213, 238...блок сбора сигналов маскирования, 214...блок кодирования сигналов ошибки, 237...блок декодирования сигналов ошибки, 311...блок вычисления коэффициента LP, 312...блок предсказания запаздывания основного тона, 313...блок выбора запаздывания основного тона, 314...блок кодирования запаздывания основного тона, 512...блок вычисления остаточного сигнала, 700...модуль кодирования аудио, 701...модуль кодирования побочной информации, 900...модуль декодирования аудиопараметров, 901...модуль обработки отсутствующих аудиопараметров, 902...модуль синтеза аудио, 903...модуль декодирования побочной информации, 1128...блок определения вывода побочной информации, 1122, 2312...адаптивная кодовая книга, 1125...постфильтр, 1127... перцептивный обратный взвешивающий фильтр, 2011..блок кодирования ISF, 2015...блок вычисления фиксированной кодовой книги, 2016...блок вычисления усиления, 2017...блок вычисления вектора возбуждения, 2211...блок декодирования ISF, 2212...блок декодирования запаздывания основного тона, 2213...блок декодирования усиления, 2214...блок декодирования фиксированной кодовой книги, 2318...блок синтеза прогнозных векторов возбуждения.[0264] 60,80 ... data carrier, 61, 81 ... program storage area, 70 ... audio coding program, 90 ... audio decoding program, 111 ... audio coding unit, 112 ... side information coding unit, 121, 231 ... audio code buffer, 122, 232 ... audio parameters decoding unit, 123, 233 ... processing unit for missing audio parameters, 124, 234 ... audio synthesis unit, 125, 235 .. . side information decoding unit, 126, 236 ... side information collecting unit, 151, 511, 1121 ... LP coefficient calculating unit, 152, 2012 ... target signal calculating unit, 153, 513, 2013 ... unit pitch lag computation, 154, 1123, 514, 2014, 2313 ... adaptive codebook computation unit, 155, 1124, 2314 ... excitation vector synthesis unit, 156, 315, 515, 2019 ... adaptive codebook buffer , 157, 1126, 2018, 2316 ... synthesis filter, 158, 516 ... pitch lag coding block, 191 ... ISF prediction block, 192 ... pitch lag prediction block, 193 ... prediction block adaptive codebook gain knowledge, 194 ... fixed codebook gain prediction block, 195 ... noise generation block, 211 ... main coding block, 212 ... side information coding block, 213, 238 ... block masking signal collection, 214 ... error signal coding unit, 237 ... error signal decoding unit, 311 ... LP coefficient calculation unit, 312 ... pitch lag prediction unit, 313 ... pitch lag selection unit , 314 ... pitch lag coding unit, 512 ... residual signal calculator, 700 ... audio coding unit, 701 ... side information coding unit, 900 ... audio parameter decoding unit, 901 ... unit processing missing audio parameters, 902 ... audio synthesis module, 903 ... side information decoding module, 1128 ... side information output determination unit, 1122, 2312 ... adaptive codebook, 1125 ... post-filter, 1127 .. .perceptual inverse weighting filter, 2011 .. ISF coding unit, 2015 ... fixed codebook computation unit, 2016 ... gain calculation unit, 2017 ... excitation vector computation unit, 2211 ... ISF decoding unit, 2212 ... pitch lag decoding unit , 2213 ... gain decoding unit, 2214 ... fixed codebook decoding unit, 2318 ... synthesis unit for predictive excitation vectors.

Claims (11)

1. Способ кодирования аудио посредством устройства кодирования аудио для кодирования аудиосигнала, содержащий:1. An audio coding method by an audio coding device for coding an audio signal, comprising: этап кодирования аудио, на котором кодируют аудиосигнал;an audio encoding step that encodes an audio signal; этап кодирования побочной информации, на котором вычисляют побочную информацию из прогнозного сигнала для вычисления предсказанного значения аудиопараметра, чтобы синтезировать закодированное аудио, и кодируют побочную информацию,a side information encoding step in which side information is calculated from the prediction signal to calculate the predicted value of an audio parameter in order to synthesize the encoded audio, and the side information is encoded, при этом побочная информация содержит информацию, указывающую доступность побочной информации,wherein the side information contains information indicating the availability of side information, при этом побочную информацию принимают в качестве аудиопараметра на стороне обработки декодирования, когда достоверность предсказанного значения вычисленного аудиопараметра является низкой.and the side information is taken as an audio parameter on the decoding processing side when the confidence of the predicted value of the computed audio parameter is low. 2. Способ кодирования аудио по п. 1, в котором побочная информация указывает запаздывание основного тона, включенное в прогнозный сигнал.2. The audio coding method of claim 1, wherein the side information indicates a pitch lag included in the prediction signal. 3. Устройство кодирования аудио для кодирования аудиосигнала, причем упомянутое устройство кодирования аудио содержит:3. An audio encoding device for encoding an audio signal, said audio encoding device comprising: аудиокодер, выполненный с возможностью кодирования аудиосигнала; иan audio encoder configured to encode an audio signal; and кодер побочной информации, выполненный с возможностью вычисления побочной информации из прогнозного сигнала для вычисления предсказанного значения аудиопараметра, чтобы синтезировать закодированное аудио, и кодирования побочной информации,a side information encoder configured to compute side information from a predicted signal to calculate a predicted value of an audio parameter to synthesize encoded audio, and encode the side information, при этом побочная информация содержит информацию, указывающую доступность побочной информации,wherein the side information contains information indicating the availability of side information, при этом побочная информация принимается в качестве аудиопараметра на стороне обработки декодирования, когда достоверность предсказанного значения вычисленного аудиопараметра является низкой.and the side information is received as an audio parameter on the decoding processing side when the reliability of the predicted value of the computed audio parameter is low.
RU2020115805A 2012-11-15 2020-05-14 Audio encoding device, an audio encoding method, an audio encoding program, an audio decoding device, an audio decoding method and an audio decoding program RU2737465C1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-251646 2012-11-15
JP2012251646 2012-11-15

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
RU2020101916A Division RU2722510C1 (en) 2012-11-15 2020-01-17 Audio encoding device, an audio encoding method, an audio encoding program, an audio decoding device, an audio decoding method and an audio decoding program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
RU2020137611A Division RU2760485C1 (en) 2012-11-15 2020-11-17 Audio encoding device, audio encoding method, audio encoding program, audio decoding device, audio decoding method and audio decoding program

Publications (1)

Publication Number Publication Date
RU2737465C1 true RU2737465C1 (en) 2020-11-30

Family

ID=50731166

Family Applications (8)

Application Number Title Priority Date Filing Date
RU2017105082A RU2640743C1 (en) 2012-11-15 2013-11-12 Audio encoding device, audio encoding method, audio encoding programme, audio decoding device, audio decoding method and audio decoding programme
RU2015122777A RU2612581C2 (en) 2012-11-15 2013-11-12 Audio encoding device, audio encoding method, audio encoding software, audio decoding device, audio decoding method and audio decoding software
RU2017143786A RU2665301C1 (en) 2012-11-15 2017-12-14 Audio encoding device, audio encoding method, audio encoding program, audio decoding device, audio decoding method and audio decoding program
RU2018130271A RU2690775C1 (en) 2012-11-15 2018-08-21 Audio encoding device, audio encoding method, audio encoding program, audio decoding device, audio decoding method and audio decoding program
RU2019116380A RU2713605C1 (en) 2012-11-15 2019-05-28 Audio encoding device, an audio encoding method, an audio encoding program, an audio decoding device, an audio decoding method and an audio decoding program
RU2020101916A RU2722510C1 (en) 2012-11-15 2020-01-17 Audio encoding device, an audio encoding method, an audio encoding program, an audio decoding device, an audio decoding method and an audio decoding program
RU2020115805A RU2737465C1 (en) 2012-11-15 2020-05-14 Audio encoding device, an audio encoding method, an audio encoding program, an audio decoding device, an audio decoding method and an audio decoding program
RU2020137611A RU2760485C1 (en) 2012-11-15 2020-11-17 Audio encoding device, audio encoding method, audio encoding program, audio decoding device, audio decoding method and audio decoding program

Family Applications Before (6)

Application Number Title Priority Date Filing Date
RU2017105082A RU2640743C1 (en) 2012-11-15 2013-11-12 Audio encoding device, audio encoding method, audio encoding programme, audio decoding device, audio decoding method and audio decoding programme
RU2015122777A RU2612581C2 (en) 2012-11-15 2013-11-12 Audio encoding device, audio encoding method, audio encoding software, audio decoding device, audio decoding method and audio decoding software
RU2017143786A RU2665301C1 (en) 2012-11-15 2017-12-14 Audio encoding device, audio encoding method, audio encoding program, audio decoding device, audio decoding method and audio decoding program
RU2018130271A RU2690775C1 (en) 2012-11-15 2018-08-21 Audio encoding device, audio encoding method, audio encoding program, audio decoding device, audio decoding method and audio decoding program
RU2019116380A RU2713605C1 (en) 2012-11-15 2019-05-28 Audio encoding device, an audio encoding method, an audio encoding program, an audio decoding device, an audio decoding method and an audio decoding program
RU2020101916A RU2722510C1 (en) 2012-11-15 2020-01-17 Audio encoding device, an audio encoding method, an audio encoding program, an audio decoding device, an audio decoding method and an audio decoding program

Family Applications After (1)

Application Number Title Priority Date Filing Date
RU2020137611A RU2760485C1 (en) 2012-11-15 2020-11-17 Audio encoding device, audio encoding method, audio encoding program, audio decoding device, audio decoding method and audio decoding program

Country Status (18)

Country Link
US (7) US9564143B2 (en)
EP (2) EP3579228A1 (en)
JP (8) JP6158214B2 (en)
KR (10) KR102171293B1 (en)
CN (2) CN107256709B (en)
AU (6) AU2013345949B2 (en)
BR (1) BR112015008505B1 (en)
CA (4) CA2886140C (en)
DK (1) DK2922053T3 (en)
ES (1) ES2747353T3 (en)
HK (1) HK1209229A1 (en)
IN (1) IN2015DN02595A (en)
MX (3) MX362139B (en)
PL (1) PL2922053T3 (en)
PT (1) PT2922053T (en)
RU (8) RU2640743C1 (en)
TW (2) TWI587284B (en)
WO (1) WO2014077254A1 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA3111501C (en) * 2011-09-26 2023-09-19 Sirius Xm Radio Inc. System and method for increasing transmission bandwidth efficiency ("ebt2")
CN107256709B (en) * 2012-11-15 2021-02-26 株式会社Ntt都科摩 Audio encoding device
US9418671B2 (en) * 2013-08-15 2016-08-16 Huawei Technologies Co., Ltd. Adaptive high-pass post-filter
EP2922054A1 (en) * 2014-03-19 2015-09-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus, method and corresponding computer program for generating an error concealment signal using an adaptive noise estimation
EP2922055A1 (en) * 2014-03-19 2015-09-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus, method and corresponding computer program for generating an error concealment signal using individual replacement LPC representations for individual codebook information
EP2922056A1 (en) * 2014-03-19 2015-09-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus, method and corresponding computer program for generating an error concealment signal using power compensation
CN105897666A (en) * 2015-10-08 2016-08-24 乐视致新电子科技(天津)有限公司 Real time voice receiving device and delay reduction method for real time voice conversations
US10650837B2 (en) * 2017-08-29 2020-05-12 Microsoft Technology Licensing, Llc Early transmission in packetized speech
US11710492B2 (en) * 2019-10-02 2023-07-25 Qualcomm Incorporated Speech encoding using a pre-encoded database

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040049397A1 (en) * 2002-09-09 2004-03-11 Leisure Lawrence B. Defined contribution benefits tool
US20090119110A1 (en) * 2005-05-26 2009-05-07 Lg Electronics Method of Encoding and Decoding an Audio Signal
US20090210239A1 (en) * 2006-11-24 2009-08-20 Lg Electronics Inc. Method for Encoding and Decoding Object-Based Audio Signal and Apparatus Thereof
US7916873B2 (en) * 2004-11-02 2011-03-29 Coding Technologies Ab Stereo compatible multi-channel audio coding
RU2425340C2 (en) * 2003-12-19 2011-07-27 Телефонактиеболагет Лм Эрикссон (Пабл) Accuracy-optimised encoding with supression of lead echo

Family Cites Families (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5327520A (en) 1992-06-04 1994-07-05 At&T Bell Laboratories Method of use of voice message coder/decoder
JP3713288B2 (en) * 1994-04-01 2005-11-09 株式会社東芝 Speech decoder
JPH08160993A (en) * 1994-12-08 1996-06-21 Nec Corp Sound analysis-synthesizer
JP4121578B2 (en) * 1996-10-18 2008-07-23 ソニー株式会社 Speech analysis method, speech coding method and apparatus
EP1686563A3 (en) * 1997-12-24 2007-02-07 Mitsubishi Denki Kabushiki Kaisha Method and apparatus for speech decoding
US7072832B1 (en) 1998-08-24 2006-07-04 Mindspeed Technologies, Inc. System for speech encoding having an adaptive encoding arrangement
US6757654B1 (en) 2000-05-11 2004-06-29 Telefonaktiebolaget Lm Ericsson Forward error correction in speech coding
JP2002118517A (en) 2000-07-31 2002-04-19 Sony Corp Apparatus and method for orthogonal transformation, apparatus and method for inverse orthogonal transformation, apparatus and method for transformation encoding as well as apparatus and method for decoding
US6862567B1 (en) 2000-08-30 2005-03-01 Mindspeed Technologies, Inc. Noise suppression in the frequency domain by adjusting gain according to voicing parameters
US6968309B1 (en) * 2000-10-31 2005-11-22 Nokia Mobile Phones Ltd. Method and system for speech frame error concealment in speech decoding
KR100674423B1 (en) * 2001-01-19 2007-01-29 엘지전자 주식회사 Transmitting/receiving system and data processing method
JP3628268B2 (en) * 2001-03-13 2005-03-09 日本電信電話株式会社 Acoustic signal encoding method, decoding method and apparatus, program, and recording medium
US7308406B2 (en) 2001-08-17 2007-12-11 Broadcom Corporation Method and system for a waveform attenuation technique for predictive speech coding based on extrapolation of speech waveform
SE521600C2 (en) * 2001-12-04 2003-11-18 Global Ip Sound Ab Lågbittaktskodek
JP3722366B2 (en) * 2002-02-22 2005-11-30 日本電信電話株式会社 Packet configuration method and apparatus, packet configuration program, packet decomposition method and apparatus, and packet decomposition program
WO2003077425A1 (en) * 2002-03-08 2003-09-18 Nippon Telegraph And Telephone Corporation Digital signal encoding method, decoding method, encoding device, decoding device, digital signal encoding program, and decoding program
JP2004077688A (en) * 2002-08-14 2004-03-11 Nec Corp Speech communication apparatus
JP4287637B2 (en) * 2002-10-17 2009-07-01 パナソニック株式会社 Speech coding apparatus, speech coding method, and program
AU2003208517A1 (en) * 2003-03-11 2004-09-30 Nokia Corporation Switching between coding schemes
JP4365653B2 (en) * 2003-09-17 2009-11-18 パナソニック株式会社 Audio signal transmission apparatus, audio signal transmission system, and audio signal transmission method
DE602005020130D1 (en) * 2004-05-10 2010-05-06 Nippon Telegraph & Telephone E, SENDING METHOD, RECEIVING METHOD AND DEVICE AND PROGRAM THEREFOR
EP1756805B1 (en) * 2004-06-02 2008-07-30 Koninklijke Philips Electronics N.V. Method and apparatus for embedding auxiliary information in a media signal
US20060088093A1 (en) * 2004-10-26 2006-04-27 Nokia Corporation Packet loss compensation
SE0402652D0 (en) 2004-11-02 2004-11-02 Coding Tech Ab Methods for improved performance of prediction based multi-channel reconstruction
US7933767B2 (en) * 2004-12-27 2011-04-26 Nokia Corporation Systems and methods for determining pitch lag for a current frame of information
KR101203244B1 (en) 2005-01-31 2012-11-20 스카이프 Method for generating concealment frames in communication system
US7707034B2 (en) * 2005-05-31 2010-04-27 Microsoft Corporation Audio codec post-filter
US20070055510A1 (en) * 2005-07-19 2007-03-08 Johannes Hilpert Concept for bridging the gap between parametric multi-channel audio coding and matrixed-surround multi-channel coding
US9058812B2 (en) * 2005-07-27 2015-06-16 Google Technology Holdings LLC Method and system for coding an information signal using pitch delay contour adjustment
US7712008B2 (en) * 2006-01-26 2010-05-04 Agere Systems Inc. Systems and methods for error reduction associated with information transfer
WO2007091926A1 (en) * 2006-02-06 2007-08-16 Telefonaktiebolaget Lm Ericsson (Publ) Method and arrangement for speech coding in wireless communication systems
US7457746B2 (en) * 2006-03-20 2008-11-25 Mindspeed Technologies, Inc. Pitch prediction for packet loss concealment
CN101000768B (en) * 2006-06-21 2010-12-08 北京工业大学 Embedded speech coding decoding method and code-decode device
JP5190363B2 (en) * 2006-07-12 2013-04-24 パナソニック株式会社 Speech decoding apparatus, speech encoding apparatus, and lost frame compensation method
US20090248404A1 (en) 2006-07-12 2009-10-01 Panasonic Corporation Lost frame compensating method, audio encoding apparatus and audio decoding apparatus
JP4380669B2 (en) * 2006-08-07 2009-12-09 カシオ計算機株式会社 Speech coding apparatus, speech decoding apparatus, speech coding method, speech decoding method, and program
US7752038B2 (en) * 2006-10-13 2010-07-06 Nokia Corporation Pitch lag estimation
WO2008049221A1 (en) 2006-10-24 2008-05-02 Voiceage Corporation Method and device for coding transition frames in speech signals
JP5123516B2 (en) * 2006-10-30 2013-01-23 株式会社エヌ・ティ・ティ・ドコモ Decoding device, encoding device, decoding method, and encoding method
KR100862662B1 (en) * 2006-11-28 2008-10-10 삼성전자주식회사 Method and Apparatus of Frame Error Concealment, Method and Apparatus of Decoding Audio using it
CN101226744B (en) * 2007-01-19 2011-04-13 华为技术有限公司 Method and device for implementing voice decode in voice decoder
CN101256771A (en) * 2007-03-02 2008-09-03 北京工业大学 Embedded type coding, decoding method, encoder, decoder as well as system
ES2593822T3 (en) * 2007-06-08 2016-12-13 Lg Electronics Inc. Method and apparatus for processing an audio signal
CN101207665B (en) 2007-11-05 2010-12-08 华为技术有限公司 Method for obtaining attenuation factor
CN100550712C (en) * 2007-11-05 2009-10-14 华为技术有限公司 A kind of signal processing method and processing unit
KR100998396B1 (en) 2008-03-20 2010-12-03 광주과학기술원 Method And Apparatus for Concealing Packet Loss, And Apparatus for Transmitting and Receiving Speech Signal
EP2144231A1 (en) * 2008-07-11 2010-01-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Low bitrate audio encoding/decoding scheme with common preprocessing
US8706479B2 (en) * 2008-11-14 2014-04-22 Broadcom Corporation Packet loss concealment for sub-band codecs
JP5309944B2 (en) * 2008-12-11 2013-10-09 富士通株式会社 Audio decoding apparatus, method, and program
US8452606B2 (en) * 2009-09-29 2013-05-28 Skype Speech encoding using multiple bit rates
US8423355B2 (en) * 2010-03-05 2013-04-16 Motorola Mobility Llc Encoder for audio signal including generic audio and speech frames
CN101894558A (en) * 2010-08-04 2010-11-24 华为技术有限公司 Lost frame recovering method and equipment as well as speech enhancing method, equipment and system
WO2012046685A1 (en) 2010-10-05 2012-04-12 日本電信電話株式会社 Coding method, decoding method, coding device, decoding device, program, and recording medium
ES2727748T3 (en) * 2010-11-22 2019-10-18 Ntt Docomo Inc Device and audio coding method
TWI480856B (en) * 2011-02-14 2015-04-11 Fraunhofer Ges Forschung Noise generation in audio codecs
US9026434B2 (en) * 2011-04-11 2015-05-05 Samsung Electronic Co., Ltd. Frame erasure concealment for a multi rate speech and audio codec
CN107256709B (en) * 2012-11-15 2021-02-26 株式会社Ntt都科摩 Audio encoding device
KR102452593B1 (en) 2015-04-15 2022-10-11 삼성전자주식회사 Method for fabricating semiconductor devices

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040049397A1 (en) * 2002-09-09 2004-03-11 Leisure Lawrence B. Defined contribution benefits tool
RU2425340C2 (en) * 2003-12-19 2011-07-27 Телефонактиеболагет Лм Эрикссон (Пабл) Accuracy-optimised encoding with supression of lead echo
US7916873B2 (en) * 2004-11-02 2011-03-29 Coding Technologies Ab Stereo compatible multi-channel audio coding
US20090119110A1 (en) * 2005-05-26 2009-05-07 Lg Electronics Method of Encoding and Decoding an Audio Signal
US20090210239A1 (en) * 2006-11-24 2009-08-20 Lg Electronics Inc. Method for Encoding and Decoding Object-Based Audio Signal and Apparatus Thereof

Also Published As

Publication number Publication date
EP2922053B1 (en) 2019-08-28
KR20160111550A (en) 2016-09-26
EP2922053A4 (en) 2016-07-06
KR102302012B1 (en) 2021-09-13
RU2690775C1 (en) 2019-06-05
JP6626026B2 (en) 2019-12-25
JP2017138607A (en) 2017-08-10
PT2922053T (en) 2019-10-15
ES2747353T3 (en) 2020-03-10
AU2022202856A1 (en) 2022-05-19
MX345692B (en) 2017-02-10
IN2015DN02595A (en) 2015-09-11
TWI587284B (en) 2017-06-11
JP2016197254A (en) 2016-11-24
BR112015008505A2 (en) 2020-01-07
RU2713605C1 (en) 2020-02-05
RU2640743C1 (en) 2018-01-11
CA3044983A1 (en) 2014-05-22
US9564143B2 (en) 2017-02-07
JP6793675B2 (en) 2020-12-02
AU2019202186B2 (en) 2020-12-03
US20180122394A1 (en) 2018-05-03
US20200126577A1 (en) 2020-04-23
US10553231B2 (en) 2020-02-04
CA3127953A1 (en) 2014-05-22
AU2022202856B2 (en) 2023-06-08
TW201635274A (en) 2016-10-01
KR20200123285A (en) 2020-10-28
KR101780667B1 (en) 2017-09-21
JP2020034951A (en) 2020-03-05
JP2021092814A (en) 2021-06-17
KR102259112B1 (en) 2021-05-31
CA3127953C (en) 2023-09-26
RU2722510C1 (en) 2020-06-01
TW201432670A (en) 2014-08-16
JP2019070866A (en) 2019-05-09
KR102171293B1 (en) 2020-10-28
US20200126578A1 (en) 2020-04-23
CN104781876A (en) 2015-07-15
US20170148459A1 (en) 2017-05-25
BR112015008505B1 (en) 2021-10-26
MX362139B (en) 2019-01-07
US11195538B2 (en) 2021-12-07
US9881627B2 (en) 2018-01-30
RU2665301C1 (en) 2018-08-28
CN107256709A (en) 2017-10-17
JPWO2014077254A1 (en) 2017-01-05
KR20180115357A (en) 2018-10-22
JP6872597B2 (en) 2021-05-19
KR20170141827A (en) 2017-12-26
KR102173422B1 (en) 2020-11-03
US11749292B2 (en) 2023-09-05
RU2760485C1 (en) 2021-11-25
MX2018016263A (en) 2021-12-16
AU2013345949B2 (en) 2017-05-04
AU2023208191A1 (en) 2023-08-17
RU2015122777A (en) 2017-01-10
AU2020294317A1 (en) 2021-02-25
KR20190133302A (en) 2019-12-02
CA3210225A1 (en) 2014-05-22
KR20200124339A (en) 2020-11-02
CA2886140C (en) 2021-03-23
US20150262588A1 (en) 2015-09-17
US11211077B2 (en) 2021-12-28
AU2013345949A1 (en) 2015-04-16
JP6659882B2 (en) 2020-03-04
CN104781876B (en) 2017-07-21
US20220059108A1 (en) 2022-02-24
AU2020294317B2 (en) 2022-03-31
DK2922053T3 (en) 2019-09-23
KR20200051858A (en) 2020-05-13
KR20170107590A (en) 2017-09-25
CA2886140A1 (en) 2014-05-22
CA3044983C (en) 2022-07-12
KR20210118988A (en) 2021-10-01
EP3579228A1 (en) 2019-12-11
KR101689766B1 (en) 2016-12-26
JP2020038396A (en) 2020-03-12
KR102110853B1 (en) 2020-05-14
US11176955B2 (en) 2021-11-16
AU2017208369A1 (en) 2017-08-17
TWI547940B (en) 2016-09-01
AU2017208369B2 (en) 2019-01-03
JP2018112749A (en) 2018-07-19
KR102459376B1 (en) 2022-10-25
KR20150056614A (en) 2015-05-26
MX2015005885A (en) 2015-09-23
AU2019202186A1 (en) 2019-04-18
KR102307492B1 (en) 2021-09-29
PL2922053T3 (en) 2019-11-29
CN107256709B (en) 2021-02-26
JP6846500B2 (en) 2021-03-24
WO2014077254A1 (en) 2014-05-22
RU2612581C2 (en) 2017-03-09
JP6158214B2 (en) 2017-07-05
EP2922053A1 (en) 2015-09-23
HK1209229A1 (en) 2016-03-24
JP7209032B2 (en) 2023-01-19
US20200126576A1 (en) 2020-04-23
KR101812123B1 (en) 2017-12-26

Similar Documents

Publication Publication Date Title
RU2737465C1 (en) Audio encoding device, an audio encoding method, an audio encoding program, an audio decoding device, an audio decoding method and an audio decoding program
RU2776261C1 (en) Audio encoding device, audio encoding method, audio encoding program, audio decoding device, audio decoding method and audio decoding program
RU2792658C1 (en) Audio encoding device, audio encoding method, audio encoding program, audio decoding device, audio decoding method and audio decoding program