RU2431892C2 - Parameter decoding device, parameter encoding device and parameter decoding method - Google Patents

Parameter decoding device, parameter encoding device and parameter decoding method Download PDF

Info

Publication number
RU2431892C2
RU2431892C2 RU2009122173/09A RU2009122173A RU2431892C2 RU 2431892 C2 RU2431892 C2 RU 2431892C2 RU 2009122173/09 A RU2009122173/09 A RU 2009122173/09A RU 2009122173 A RU2009122173 A RU 2009122173A RU 2431892 C2 RU2431892 C2 RU 2431892C2
Authority
RU
Russia
Prior art keywords
frame
parameter
decoded
decoding
quantized
Prior art date
Application number
RU2009122173/09A
Other languages
Russian (ru)
Other versions
RU2009122173A (en
Inventor
Хироюки ЕХАРА (JP)
Хироюки ЕХАРА
Original Assignee
Панасоник Корпорэйшн
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Панасоник Корпорэйшн filed Critical Панасоник Корпорэйшн
Publication of RU2009122173A publication Critical patent/RU2009122173A/en
Application granted granted Critical
Publication of RU2431892C2 publication Critical patent/RU2431892C2/en

Links

Images

Abstract

FIELD: information technology.
SUBSTANCE: parameter decoding device includes a prediction residue decoding unit which finds a quantised prediction residue based on encoded information included in a current frame subject to decoding, and a parameter decoding unit which decodes a parameter based on said quantised prediction residue, wherein said prediction residue decoding unit, when said current frame is erased, finds a current-frame quantised prediction residue from a weighted linear sum of a parameter decoded in the past and a future-frame quantised prediction residue.
EFFECT: high efficiency of frame concealment in order to prevent quality deterioration.
7 cl, 27 dwg

Description

ОБЛАСТЬ ТЕХНИКИ ИЗОБРЕТЕНИЯFIELD OF THE INVENTION

Настоящее изобретение относится к устройству кодирования параметров, которое кодирует параметр с использованием устройства предсказания, и к устройству декодирования параметров и способу декодирования параметров, которые декодируют кодированный параметр.The present invention relates to a parameter encoding device that encodes a parameter using a prediction device, and to a parameter decoding device and a method for decoding parameters that decode an encoded parameter.

Предшествующий уровень техникиState of the art

Что касается рекомендации ITU-T G.729, 3GPPAMR или подобного ему речевого кодека, некоторые из параметров, полученных с помощью анализа речевого сигнала, квантуют посредством способа квантования с предсказанием, основанного на модели предсказания скользящего среднего (МА) (патентный документ 1, непатентный документ 1, непатентный документ 2). Средство квантования с предсказанием МА-типа является моделью, которая предсказывает текущий параметр, который подвергается квантованию, с помощью линейной суммы предыдущих квантованных остатков предсказания, и речевой кодек линейного предсказания с кодовым возбуждением (CELP) используется для предсказания параметра частот спектральных линий (ЧСЛ, LSF) и параметра мощности.Regarding ITU-T recommendation G.729, 3GPPAMR, or a similar speech codec, some of the parameters obtained by analyzing the speech signal are quantized using a prediction quantization method based on a moving average (MA) prediction model (Patent Document 1, Non-Patent document 1, non-patent document 2). The MA-type prediction quantizer is a model that predicts the current parameter that is being quantized using the linear sum of the previous quantized prediction residuals, and a code-excited linear prediction codec (CELP) is used to predict the spectral line frequency parameter (LSL, LSF ) and power parameter.

Что касается средства квантования с предсказанием МА-типа, так как предсказание выполняют на основе взвешенной линейной суммы квантованных остатков предсказания в конечном количестве предыдущих кадров, даже если существует ошибка в тракте передачи квантованной информации, то ее влияние ограничено конечным количеством кадров. С другой стороны, с помощью средства квантования с предсказанием авторегрессивного (AR) типа, которое использует прошлые декодированные параметры рекурсивно, хотя высокая эффективность предсказания и квантования может в общем случае быть получена, влияние остатка продолжается в течение длительного периода. Следовательно, средство квантования параметра с предсказанием МА-типа может обеспечивать более высокую устойчивость к ошибкам, чем средство квантования параметра с предсказанием AR-типа, и оно используется, в частности, в речевом кодеке для мобильной связи.As for the MA-type prediction quantizer, since the prediction is based on the weighted linear sum of the quantized prediction residuals in a finite number of previous frames, even if there is an error in the transmission path of the quantized information, its influence is limited by a finite number of frames. On the other hand, using an autoregressive (AR) type prediction quantization tool that uses past decoded parameters recursively, although high prediction and quantization efficiency can generally be obtained, the effect of the remainder continues for a long period. Therefore, the means for quantizing the parameter with the prediction of the MA type can provide higher error resistance than the means for quantizing the parameter with the prediction of the AR type, and it is used, in particular, in a speech codec for mobile communication.

Способы маскирования параметра, которые будут использоваться, когда кадр теряют (удаляют) на стороне декодирования, изучались в течение некоторого времени. В общем случае маскирование выполняют, используя параметр кадра, расположенного перед удаленным кадром, вместо параметра удаленного кадра. Однако в случае параметра ЧСЛ, параметры перед удаленным кадром постепенно изменяют с помощью постепенного приближения к среднему значению ЧСЛ, или выполняют постепенное ослабление в случае параметра мощности.Methods of masking a parameter that will be used when a frame is lost (deleted) on the decoding side has been studied for some time. In general, masking is performed using the parameter of the frame located in front of the remote frame, instead of the parameter of the remote frame. However, in the case of the LSL parameter, the parameters before the deleted frame are gradually changed by gradually approaching the average LSL value, or they are gradually weakened in the case of the power parameter.

Этот способ обычно также используется в средстве квантования, использующем устройство предсказания МА-типа. В случае параметра ЧСЛ обработку выполняют для обновления состояния устройства предсказания МА-типа с помощью генерирования квантованного остатка предсказания таким образом, чтобы параметр, сгенерированный в маскированном кадре, был декодирован (непатентный документ 1), а в случае параметра мощности обработку выполняют для обновления состояния устройства предсказания МА-типа, используя результат уменьшения среднего значения предыдущих квантованных остатков предсказания в фиксированном процентном отношении (патентный документ 2, непатентный документ 1).This method is also commonly used in a quantizer using an MA-type predictor. In the case of the NLS parameter, processing is performed to update the state of the MA-type prediction device by generating a quantized prediction residual so that the parameter generated in the masked frame is decoded (Non-Patent Document 1), and in the case of the power parameter, processing is performed to update the state of the device MA-type predictions using the result of decreasing the average of the previous quantized prediction residuals in a fixed percentage (Patent Document 2, Not atentny Document 1).

Также существует способ, посредством которого параметр удаленного кадра интерполируют после получения информации восстановленного кадра (обычного кадра), который следует за удаленным кадром. Например, в патентном документе 3 предложен способ, посредством которого выполняют интерполяцию усиления частот основного тона и повторно генерируют содержимое адаптивной кодовой книги.There is also a method by which the parameter of the deleted frame is interpolated after receiving information of the reconstructed frame (normal frame) that follows the deleted frame. For example, Patent Document 3 proposes a method by which pitch gain interpolation is performed and adaptive codebook contents are regenerated.

Патентный документ 1: выложенная японская патентная заявка №HEI 6-175695Patent Document 1: Japanese Patent Application Laid-Open No. HEI 6-175695

Патентный документ 2: выложенная японская патентная заявка №HEI 9-120297Patent Document 2: Japanese Patent Application Laid-Open No. HEI 9-120297

Патентный документ 3: выложенная японская патентная заявка №2002-328700Patent Document 3: Japanese Patent Application Laid-Open No. 2002-328700

Непатентный документ 1: рекомендация ITU-T G.729Non-Patent Document 1: ITU-T Recommendation G.729

Непатентный документ 2:3GPP TS 26.091Non-Patent Document 2: 3GPP TS 26.091

РАСКРЫТИЕ ИЗОБРЕТЕНИЯSUMMARY OF THE INVENTION

Проблемы, которые будут решены с помощью изобретенияProblems to be Solved by the Invention

Способ, посредством которого интерполируют параметр удаленного кадра, используется, когда квантование с предсказанием не выполняют, но когда квантование с предсказанием выполняют, даже если кодированную информацию принимают правильно в кадре, расположенном непосредственно после удаленного кадра, на устройство предсказания влияет ошибка в непосредственно предыдущем кадре, и оно не может получить правильный декодированный результат, и поэтому этот способ в общем случае не используется.The method by which the remote frame parameter is interpolated is used when the prediction quantization is not performed, but when the prediction quantization is performed, even if the encoded information is received correctly in the frame located immediately after the deleted frame, the prediction device is affected by an error in the immediately previous frame, and it cannot get the correct decoded result, and therefore this method is generally not used.

Таким образом, с помощью устройства квантования параметров, которое использует обычное устройство предсказания МА-типа, обработку маскирования параметра удаленного кадра не выполняют посредством способа интерполяции, и поэтому, например, может произойти потеря звука из-за чрезмерного ослабления параметра мощности, вызывая ухудшение субъективного качества.Thus, with the parameter quantization device that uses the conventional MA type prediction device, masking processing of the remote frame parameter is not performed by the interpolation method, and therefore, for example, sound loss due to excessive attenuation of the power parameter may occur, causing subjective quality to deteriorate .

Когда выполняют квантование с предсказанием, возможный способ состоит в декодировании параметра просто с помощью интерполяции квантованных декодированных остатков предсказания, но тогда как декодированный параметр меняется незначительно от одного кадра к другому кадру из-за определения взвешенного скользящего среднего значения, даже если квантованный декодированный остаток предсказания меняется очень сильно, при этом способе декодированный параметр также меняется в соответствии с изменениями квантованного декодированного остатка предсказания, так что когда изменения квантованного декодированного остатка предсказания большие, субъективное качество ухудшается.When the prediction quantization is performed, a possible method is to decode the parameter simply by interpolating the quantized decoded prediction residuals, but whereas the decoded parameter varies slightly from one frame to another frame due to the determination of a weighted moving average, even if the quantized decoded prediction remainder changes very much, with this method, the decoded parameter also changes in accordance with the changes in the quantized decoded remainder and predictions, so that when changes are decoded quantized prediction residue great, subjective quality deteriorates.

Настоящее изобретение воплощают, учитывая описанные выше проблемы, и задачей настоящего изобретения является обеспечение устройства декодирования параметров, устройства кодирования параметров и способа декодирования параметров, которые дают возможность выполнять обработку маскирования параметра для подавления ухудшения субъективного качества при выполнении квантования с предсказанием.The present invention is embodied in view of the problems described above, and an object of the present invention is to provide a parameter decoding device, a parameter encoding device and a parameter decoding method that enables parameter masking processing to suppress deterioration of subjective quality when performing prediction quantization.

Средство для решения проблемProblem Solver

Устройство декодирования параметров настоящего изобретения использует конфигурацию, имеющую узел декодирования остатка предсказания, который находит квантованный остаток предсказания, основываясь на кодированной информации, которую включает в себя текущий кадр, подвергаемый декодированию, и узел декодирования параметра, который декодирует параметр, основываясь на квантованном остатке предсказания; причем узел декодирования остатка предсказания, когда текущий кадр удаляют, находит квантованный остаток предсказания текущего кадра из взвешенной линейной суммы параметра, декодированного в прошлом, и квантованного остатка предсказания будущего кадра.The parameter decoding apparatus of the present invention uses a configuration having a prediction residual decoding node that finds a quantized prediction residual based on encoded information that includes the current frame to be decoded, and a parameter decoding node that decodes a parameter based on the quantized prediction residual; moreover, the decoding residual decoding node, when the current frame is deleted, finds the quantized prediction residual of the current frame from the weighted linear sum of the parameter decoded in the past and the quantized prediction residual of the future frame.

Устройство кодирования параметров настоящего изобретения использует конфигурацию, имеющую: узел анализа, который анализирует вводимый сигнал и находит анализируемый параметр; узел кодирования, который предсказывает анализируемый параметр, используя коэффициент предсказания, и получает квантованный параметр, используя квантованный остаток предсказания, полученный с помощью квантования остатка предсказания, и коэффициент предсказания; узел маскирования предыдущего кадра, который хранит множество наборов весовых коэффициентов, находит взвешенную сумму, используя наборы весовых коэффициентов для квантованного остатка предсказания текущего кадра, квантованного остатка предсказания два кадра назад и квантованного параметра два кадра назад, и находит множество квантованных параметров предыдущего кадра, используя взвешенную сумму; и узел определения, который сравнивает множество квантованных параметров один кадр назад, найденных с помощью узла маскирования предыдущего кадра, и анализируемый параметр, найденный с помощью узла анализа предыдущего кадра, выбирает один из квантованных параметров предыдущего кадра и выбирает и кодирует набор весовых коэффициентов, соответствующий выбранному квантованному параметру предыдущего кадра.The parameter encoding apparatus of the present invention uses a configuration having: an analysis unit that analyzes an input signal and finds an analyzed parameter; a coding unit that predicts the analyzed parameter using the prediction coefficient, and obtains a quantized parameter using the quantized prediction remainder obtained by quantizing the prediction remainder and the prediction coefficient; the masking unit of the previous frame, which stores a plurality of sets of weighting coefficients, finds the weighted sum using the sets of weighting coefficients for the quantized prediction residual of the current frame, the quantized prediction residual two frames back and the quantized parameter two frames back, and finds the set of quantized parameters of the previous frame using the weighted amount; and a determination node that compares the set of quantized parameters one frame back found using the masking unit of the previous frame, and the analyzed parameter found using the analysis node of the previous frame selects one of the quantized parameters of the previous frame and selects and encodes a set of weighting coefficients corresponding to the selected quantized parameter of the previous frame.

Способ декодирования параметров настоящего изобретения использует способ, имеющий этап декодирования остатка предсказания, состоящий из обнаружения квантованного остатка предсказания, основываясь на кодированной информации, которая включает в себя текущий кадр, подвергаемый декодированию, и этап декодирования параметра, состоящий из декодирования параметра, основываясь на квантованном остатке предсказания; причем на этапе декодирования остатка предсказания, когда текущий кадр удаляют, квантованный остаток предсказания текущего кадра находят из взвешенной линейной суммы параметра, декодированного в прошлом, и квантованного остатка предсказания будущего кадра.The method for decoding parameters of the present invention uses a method having a decoding of a prediction residual consisting of detecting a quantized prediction residual based on encoded information that includes the current frame to be decoded, and a parameter decoding step consisting of decoding a parameter based on the quantized residual predictions; moreover, at the stage of decoding the prediction residue, when the current frame is deleted, the quantized prediction residue of the current frame is found from the weighted linear sum of the parameter decoded in the past and the quantized prediction residue of the future frame.

Благоприятное воздействие изобретенияAdvantageous Effect of the Invention

Согласно настоящему изобретению, когда текущий кадр удаляют, когда квантование с предсказанием не выполняют, обработку маскирования параметра можно выполнять для исключения ухудшения субъективного качества с помощью нахождения квантованного остатка предсказания текущего кадра из взвешенной линейной суммы квантованных остатков предсказания прошлого кадра и квантованных остатков предсказания будущего кадра.According to the present invention, when the current frame is deleted when the prediction quantization is not performed, parameter masking processing can be performed to eliminate subjective quality degradation by finding the quantized prediction residual of the current frame from the weighted linear sum of the quantized prediction residues of the past frame and the quantized prediction residues of the future frame.

КРАТКОЕ ОПИСАНИЕ ЧЕРТЕЖЕЙBRIEF DESCRIPTION OF THE DRAWINGS

Фиг.1 - структурная схема, на которой показывают основную конфигурацию устройства декодирования речи согласно варианту осуществления 1 настоящего изобретения;1 is a block diagram showing a basic configuration of a speech decoding apparatus according to Embodiment 1 of the present invention;

фиг.2 - чертеж, на котором показывают внутреннюю конфигурацию узла декодирования КЛП устройства декодирования речи согласно варианту осуществления 1 настоящего изобретения;FIG. 2 is a drawing showing an internal configuration of an LPC decoding assembly of a speech decoding apparatus according to Embodiment 1 of the present invention; FIG.

фиг.3 - чертеж, на котором показывают внутреннюю конфигурацию узла декодирования кодового вектора, показанного на фиг.2;figure 3 is a drawing that shows the internal configuration of the decoding node of the code vector shown in figure 2;

фиг.4 - чертеж, на котором показывают пример результата выполнения обычной обработки, когда нет удаленного кадра;4 is a drawing showing an example of a result of performing conventional processing when there is no deleted frame;

фиг.5 - чертеж, на котором показывают пример результата выполнения обработки маскирования данного варианта осуществления;5 is a drawing showing an example of a result of performing masking processing of this embodiment;

фиг.6 - чертеж, на котором показывают пример результата выполнения обычной обработки маскирования;6 is a drawing showing an example of a result of performing conventional masking processing;

фиг.7 - чертеж, на котором показывают пример результата выполнения обычной обработки маскирования;7 is a drawing showing an example of a result of performing conventional masking processing;

фиг.8 - структурная схема, на которой показывают основную конфигурацию устройства декодирования речи согласно варианту осуществления 2 настоящего изобретения;Fig. 8 is a block diagram showing a basic configuration of a speech decoding apparatus according to Embodiment 2 of the present invention;

фиг.9 - структурная схема, на которой показывают внутреннюю конфигурацию узла декодирования КЛП, показанного на фиг.8;Fig.9 is a block diagram showing the internal configuration of the LPC decoding node shown in Fig.8;

фиг.10 - структурная схема, на которой показывают внутреннюю конфигурацию узла декодирования кодового вектора, показанного на фиг.9;figure 10 is a block diagram showing the internal configuration of the decoding unit of the code vector shown in figure 9;

фиг.11 - структурная схема, на которой показывают основную конфигурацию устройства декодирования речи согласно варианту осуществления 3 настоящего изобретения;11 is a block diagram showing a basic configuration of a speech decoding apparatus according to Embodiment 3 of the present invention;

фиг.12 - структурная схема, на которой показывают внутреннюю конфигурацию узла декодирования КЛП, показанного на фиг.11;FIG. 12 is a block diagram showing the internal configuration of the LPC decoding assembly shown in FIG. 11;

фиг.13 - структурная схема, на которой показывают внутреннюю конфигурацию узла декодирования кодового вектора, показанного на фиг.12;Fig.13 is a block diagram showing the internal configuration of the decoding unit of the code vector shown in Fig.12;

фиг.14 - структурная схема, на которой показывают внутреннюю конфигурацию узла декодирования коэффициента усиления, показанного на фиг.1;FIG. 14 is a block diagram showing an internal configuration of a gain decoding unit shown in FIG. 1;

фиг.15 - структурная схема, на которой показывают внутреннюю конфигурацию узла декодирования остатка предсказания, показанного на фиг.14;FIG. 15 is a block diagram showing an internal configuration of a prediction residual decoding unit shown in FIG. 14;

фиг.16 - структурная схема, на которой показывают внутреннюю конфигурацию узла генерации квантованного остатка предсказания субкадра, показанного на фиг.15;FIG. 16 is a block diagram showing an internal configuration of a quantized prediction residual generation unit of a subframe shown in FIG. 15;

фиг.17 - структурная схема, на которой показывают основную конфигурацию устройства кодирования речи согласно варианту осуществления 5 настоящего изобретения;FIG. 17 is a block diagram showing a basic configuration of a speech encoding apparatus according to Embodiment 5 of the present invention; FIG.

фиг.18 - структурная схема, на которой показывают конфигурацию устройства передачи речевого сигнала и устройства приема речевого сигнала, которые конфигурируют систему передачи речевого сигнала согласно варианту осуществления 6 настоящего изобретения;Fig. 18 is a block diagram showing a configuration of a voice transmission apparatus and a speech reception apparatus that configure a voice transmission system according to Embodiment 6 of the present invention;

фиг.19 - чертеж, на котором показывают внутреннюю конфигурацию узла декодирования КЛП устройства декодирования речи согласно варианту осуществления 7 настоящего изобретения;Fig. 19 is a drawing showing an internal configuration of an LPC decoding unit of a speech decoding apparatus according to Embodiment 7 of the present invention;

фиг.20 - чертеж, на котором показывают внутреннюю конфигурацию узла декодирования кодового вектора, показанного на фиг.19;FIG. 20 is a drawing showing an internal configuration of a code vector decoding assembly shown in FIG. 19;

фиг.21 - структурная схема, на которой показывают основную конфигурацию устройства декодирования речи согласно варианту осуществления 8 настоящего изобретения;21 is a block diagram showing a basic configuration of a speech decoding apparatus according to Embodiment 8 of the present invention;

фиг.22 - чертеж, на котором показывают внутреннюю конфигурацию узла декодирования КЛП устройства декодирования речи согласно варианту осуществления 8 настоящего изобретения;FIG. 22 is a drawing showing an internal configuration of an LPC decoding assembly of a speech decoding apparatus according to Embodiment 8 of the present invention; FIG.

фиг.23 - чертеж, на котором показывают внутреннюю конфигурацию узла декодирования кодового вектора на фиг.22;Fig.23 is a drawing that shows the internal configuration of the decoding unit of the code vector in Fig.22;

фиг.24 - чертеж, на котором показывают внутреннюю конфигурацию узла декодирования КЛП устройства декодирования речи согласно варианту осуществления 9 настоящего изобретения;24 is a drawing showing an internal configuration of an LPC decoding assembly of a speech decoding apparatus according to Embodiment 9 of the present invention;

фиг.25 - чертеж, на котором показывают внутреннюю конфигурацию узла декодирования кодового вектора, показанного на фиг.24; иFig - drawing, which shows the internal configuration of the decoding node of the code vector shown in Fig; and

фиг.26 - структурная схема, на которой показывают основную конфигурацию устройства декодирования речи согласно варианту осуществления 10 настоящего изобретения.FIG. 26 is a block diagram showing a basic configuration of a speech decoding apparatus according to Embodiment 10 of the present invention.

Наилучший вариант осуществления изобретенияBest Mode for Carrying Out the Invention

Варианты осуществления настоящего изобретения будут теперь описаны подробно в отношении сопроводительных чертежей. В последующих вариантах осуществления для примера описаны случаи, в которых устройство декодирования параметров и устройство кодирования параметров настоящего изобретения применяют к устройству декодирования речи и устройству кодирования речи CELP-типа, соответственно.Embodiments of the present invention will now be described in detail with reference to the accompanying drawings. In the following embodiments, examples are described of cases in which the parameter decoding apparatus and the parameter encoding apparatus of the present invention are applied to a speech decoding apparatus and a CELP type speech encoding apparatus, respectively.

(Вариант осуществления 1)(Embodiment 1)

Фиг.1 - структурная схема, на которой показывают основную конфигурацию устройства декодирования речи согласно варианту осуществления 1 настоящего изобретения. В показанном на фиг.1 устройстве 100 декодирования речи кодированную информацию, передаваемую от устройства кодирования (не показано), делят на код Fn+1 постоянной кодовой книги; код An+1 адаптивной кодовой книги, код Gn+1 коэффициента усиления и код Ln+1 КЛП (коэффициентов линейного предсказания) с помощью узла 101 демультиплексирования. Отдельно в устройство 100 декодирования речи вводят код Bn+1 удаления кадра. В данном случае нижний индекс n каждого кода указывает номер кадра, подвергаемого декодированию. Т.е. кодированную информацию разделяют в (n+1)-м кадре (в дальнейшем называют «следующим кадром») после n-го кадра, подвергаемого декодированию (в дальнейшем называют «текущим кадром»).1 is a block diagram showing a basic configuration of a speech decoding apparatus according to Embodiment 1 of the present invention. In the speech decoding apparatus 100 shown in FIG. 1, encoded information transmitted from an encoding apparatus (not shown) is divided into a constant codebook code F n + 1 ; the adaptive codebook code A n + 1 , the gain code G n + 1 and the LPC code L n + 1 (linear prediction coefficients) using the demultiplexing unit 101. Separately, a frame deletion code B n + 1 is entered into the speech decoding apparatus 100. In this case, the subscript n of each code indicates the number of the frame to be decoded. Those. encoded information is separated in the (n + 1) th frame (hereinafter referred to as the “next frame”) after the nth frame subjected to decoding (hereinafter referred to as the “current frame”).

Код Fn+1 постоянной кодовой книги вводят в узел 102 декодирования вектора постоянной кодовой книги (ВПКК), код An+1 адаптивной кодовой книги - в узел 103 декодирования вектора адаптивной кодовой книги (ВАКК), код Gn+1 коэффициента усиления - в узел 104 декодирования коэффициента усиления, и код Ln+1 КЛП - в узел 105 декодирования КЛП. Код Bn+1 удаления кадра вводят в узел 102 декодирования ВПКК, в узел 103 декодирования ВАКК, в узел 104 декодирования коэффициента усиления и в узел 105 декодирования КЛП.The constant codebook code F n + 1 is entered into the constant codebook vector (VPCK) decoding unit 102, the adaptive codebook code A n + 1 is entered into the adaptive codebook vector (VACC) decoding unit 103, the gain code G n + 1 is to the gain decoding section 104, and the LPC code L n + 1 to the LPC decoding section 105. The frame deletion code B n + 1 is input to the HCC decoding section 102, to the HACC decoding section 103, to the gain decoding section 104 and to the LPC decoding section 105.

Узел 102 декодирования ВПКК генерирует вектор постоянной кодовой книги, используя код Fn постоянной кодовой книги, если код Bn удаления кадра указывает, что «n-й кадр является обычным кадром», и генерирует вектор постоянной кодовой книги посредством обработки маскирования удаления кадра, если код Bn удаления кадра указывает, что «n-й кадр является удаленным кадром». Сгенерированный вектор постоянной кодовой книги вводят в узел 104 декодирования коэффициента усиления и в усилитель 106.The CDPC decoding section 102 generates a constant codebook vector using a constant codebook code F n if the frame deletion code B n indicates that "the nth frame is a normal frame" and generates a constant codebook vector by processing the deletion masking if the frame deletion code B n indicates that “the nth frame is the deleted frame”. The generated constant codebook vector is input to a gain decoding unit 104 and to an amplifier 106.

Узел 103 декодирования ВАКК генерирует вектор адаптивной кодовой книги, используя код адаптивной кодовой книги, если код Bn удаления кадра указывает, что «n-й кадр является обычным кадром», и генерирует вектор адаптивной кодовой книги посредством обработки маскирования удаления кадра, если код Bn удаления кадра указывает, что «n-й кадр является удаленным кадром». Сгенерированный вектор адаптивной кодовой книги вводят в усилитель 107.The HACC decoding section 103 generates an adaptive codebook vector using an adaptive codebook code if the frame deletion code B n indicates that “the nth frame is a normal frame” and generates an adaptive codebook vector by frame deletion mask processing if the code is B n frame deletion indicates that "the nth frame is a deleted frame." The generated adaptive codebook vector is input to amplifier 107.

Узел 104 декодирования коэффициента усиления генерирует коэффициент усиления постоянной кодовой книги и коэффициент усиления адаптивной кодовой книги, используя код Gn коэффициента усиления и вектор постоянной кодовой книги, если код Bn удаления кадра указывает, что «n-й кадр является обычным кадром», и генерирует коэффициент усиления постоянной кодовой книги и коэффициент усиления адаптивной кодовой книги посредством обработки маскирования удаления кадра, если код Bn удаления кадра указывает, что «n-й кадр является удаленным кадром». Сгенерированный коэффициент усиления постоянной кодовой книги вводят в усилитель 106, а сгенерированный коэффициент усиления адаптивной кодовой книги вводят в усилитель 107.The gain decoding section 104 generates a constant codebook gain and an adaptive codebook gain using the gain code G n and a constant codebook vector if the frame deletion code B n indicates that “the nth frame is a normal frame”, and generates a constant codebook gain and an adaptive codebook gain by deletion masking processing if the deletion code B n indicates that “the nth frame is the deleted frame”. The generated constant codebook gain is input to the amplifier 106, and the generated adaptive codebook gain is input to the amplifier 107.

Узел 105 декодирования КЛП декодирует параметр КЛП, используя код Ln КЛП, если код Bn удаления кадра указывает, что «n-й кадр является обычным кадром», и декодирует параметр КЛП посредством обработки маскирования удаления кадра, если код Bn удаления кадра указывает, что «n-й кадр является удаленным кадром». Декодированный параметр КЛП вводят в узел 109 синтеза КЛП. Подробности узла 105 декодирования КЛП будут приведены позже в данной работе.The KLP decoding unit 105 decodes the KLP parameter using the KLP code L n if the frame deletion code B n indicates that “the nth frame is a normal frame” and decodes the KLP parameter by the frame deletion mask processing if the frame deletion code B n indicates that "the nth frame is the deleted frame." The decoded CLP parameter is introduced into the CLP synthesis unit 109. Details of the LPC decoding unit 105 will be given later in this paper.

Усилитель 106 умножает коэффициент усиления постоянной кодовой книги, выводимый из узла 104 декодирования коэффициента усиления, на вектор постоянной кодовой книги, выводимый из узла 102 декодирования ВПКК, и выводит результат умножения на сумматор 108. Усилитель 107 умножает коэффициент усиления адаптивной кодовой книги, выводимый из узла 104 декодирования коэффициента усиления, на вектор адаптивной кодовой книги, выводимый из узла 103 декодирования ВАКК, и выводит результат умножения на сумматор 108. Сумматор 108 складывает вместе вектор постоянной кодовой книги после умножения на коэффициент усиления постоянной кодовой книги, выводимый из усилителя 106, и вектор адаптивной кодовой книги после умножения на коэффициент усиления адаптивной кодовой книги, выводимый из усилителя 107, и выводит результат суммирования (в дальнейшем называемый «вектором суммы») в узел 109 синтеза КЛП.The amplifier 106 multiplies the constant codebook gain factor output from the gain decoding section 104 by the constant codebook vector output from the HCC decoding section 102 and outputs the multiplication result to the adder 108. The amplifier 107 multiplies the adaptive codebook gain factor output from the node 104 decoding the gain, by the adaptive codebook vector output from the VACC decoding unit 103, and outputs the multiplication result by the adder 108. The adder 108 adds together the constant vector code book after multiplying by the constant codebook gain factor output from the amplifier 106, and the adaptive codebook vector after multiplying by the adaptive codebook gain factor output from the amplifier 107, and outputs the summation result (hereinafter referred to as the “sum vector”) in node 109 synthesis of CLP.

Узел 109 синтеза КЛП конфигурирует фильтр синтеза с линейным предсказанием, используя декодированный параметр КЛП, выводимый из узла 105 декодирования КЛП, управляет фильтром синтеза с линейным предсказанием с помощью вектора суммы, выводимого из сумматора 108 в качестве сигнала возбуждения, и выводит синтезированный сигнал, полученный в результате данного управления, на выходной фильтр (фильтр окончательной обработки) 110. Выходной фильтр 110 выполняет обработку выделения формант и выделения частот основного тона и т.д. в синтезированном сигнале, выводимом из узла 109 синтеза КЛП, и выводит сигнал как декодированный речевой сигнал.The LPC synthesis node 109 configures a linear prediction synthesis filter using the decoded LPC parameter output from the LPC decoding section 105, controls the linear prediction synthesis filter using the sum vector output from the adder 108 as an excitation signal, and outputs the synthesized signal obtained in the result of this control, to the output filter (final processing filter) 110. The output filter 110 performs processing for extracting formants and selecting frequencies of the fundamental tone, etc. in the synthesized signal output from the LPC synthesis unit 109, and outputs the signal as a decoded speech signal.

Далее будет подробно описана обработка маскирования параметра согласно данному варианту осуществления, рассматривая в качестве примера случай, в котором выполняют маскирование параметра КЛП. Фиг.2 - чертеж, на котором показывают внутреннюю конфигурацию узла 105 декодирования КЛП, показанного на фиг.1.Next, parameter masking processing according to this embodiment will be described in detail, taking as an example the case in which masking of the LPC parameter is performed. FIG. 2 is a drawing showing the internal configuration of the LPC decoding unit 105 shown in FIG. 1.

Код Ln+1 КЛП вводят в буфер 201 и узел 203 декодирования кодового вектора, и код Bn+1 удаления кадра вводят в буфер 202, узел 203 декодирования кодового вектора и блок 209 выбора.The LPC code L n + 1 is entered into the buffer 201 and the code vector decoding section 203, and the frame deletion code B n + 1 is entered into the buffer 202, the code vector decoding section 203 and the selection block 209.

Буфер 201 хранит код Ln+1 КЛП следующего кадра в течение продолжительности одного кадра, и затем выводит этот код КЛП в узел 203 декодирования кодового вектора. В результате того, что код хранится в буфере 201 в течение продолжительности одного кадра, код КЛП, выводимый из буфера 201 в узел 203 декодирования кодового вектора, является кодом Ln КЛП текущего кадра.The buffer 201 stores the LPC code L n + 1 of the next frame for the duration of one frame, and then outputs this LPC code to the code vector decoding unit 203. As a result of the fact that the code is stored in the buffer 201 for the duration of one frame, the LPC code output from the buffer 201 to the code vector decoding section 203 is the LPC code L n of the current frame.

Буфер 202 хранит код Bn+1 удаления следующего кадра в течение продолжительности одного кадра, и затем выводит этот код удаления кадра в узел 203 декодирования кодового вектора. В результате того, что код хранится в буфере 202 в течение продолжительности одного кадра, код удаления кадра, выводимый из буфера 202 в узел 203 декодирования кодового вектора, является кодом Bn удаления текущего кадра.The buffer 202 stores the next frame deletion code B n + 1 for the duration of one frame, and then outputs this deletion code to the code vector decoding unit 203. As a result of the code being stored in the buffer 202 for the duration of one frame, the frame deletion code output from the buffer 202 to the code vector decoding unit 203 is the deletion code B n of the current frame.

Узел 203 декодирования кодового вектора имеет вектора xn-1-xn-м квантованных остатков предсказания М предыдущих кадров, декодированный вектор yn-1 ЧСЛ предыдущего кадра, код Ln+1 КЛП следующего кадра, код Bn+1 удаления следующего кадра, код Ln КЛП текущего кадра и код Bn удаления текущего кадра в качестве вводимой информации, производит вектор xn квантованного остатка предсказания текущего кадра, основываясь на этих элементах информации, и выводит вектор xn квантованного остатка предсказания текущего кадра в буфер 204-1 и усилитель 205-1. Подробности узла 203 декодирования кодового вектора будут приведены позже в данной работе.The code vector decoding unit 203 has vectors x n-1 -x n-m quantized prediction residuals M of the previous frames, decoded vector y n-1 NUM of the previous frame, LPC code L n + 1 of the next frame, B n + 1 code of deletion of the next frame , the LPC code L n of the current frame and the deletion code B n of the current frame as input, produces a vector x n of the quantized prediction residual of the current frame based on these information elements, and outputs the vector x n of the quantized prediction residual of the current frame to buffer 204-1 and amplifier 205-1. Details of the code vector decoding unit 203 will be given later in this paper.

Буфер 204-1 хранит вектор xn квантованного остатка предсказания текущего кадра в течение продолжительности одного кадра, и затем выводит этот вектор квантованного остатка предсказания в узел 203 декодирования кодового вектора, буфер 204-2 и усилитель 205-2. В результате того, что вектор хранится в буфере 204-1 в течение продолжительности одного кадра, вектор квантованного остатка предсказания, вводимый в узел 203 декодирования кодового вектора, буфер 204-2 и усилитель 205-2, является вектором xn-1 квантованного остатка предсказания предыдущего кадра. Точно так же каждый буфер 204-i (где i равно от 2 до М-1) хранит вектор xn-j+1 квантованного остатка предсказания в течение продолжительности одного кадра, и затем выводит этот вектор квантованного остатка предсказания в узел 203 декодирования кодового вектора, буфер 204-(i+1), и усилитель 205-(i+1). Буфер 204-М хранит вектор xn-М+1 квантованного остатка предсказания в течение продолжительности одного кадра, и затем выводит этот вектор квантованного остатка предсказания в узел 203 декодирования кодового вектора и усилитель 205-(М+1).The buffer 204-1 stores the vector x n of the quantized prediction residual of the current frame for the duration of one frame, and then outputs this vector of the quantized prediction residual to the code vector decoding unit 203, buffer 204-2, and amplifier 205-2. Due to the fact that the vector is stored in the buffer 204-1 for the duration of one frame, the vector of the quantized prediction residual input to the code vector decoding unit 203, the buffer 204-2, and the amplifier 205-2 are the vector x n-1 of the quantized prediction residual previous frame. Similarly, each buffer 204-i (where i is from 2 to M-1) stores the vector x n-j + 1 of the quantized prediction residual for the duration of one frame, and then outputs this vector of the quantized prediction residual to the code vector decoding unit 203 buffer 204- (i + 1), and amplifier 205- (i + 1). The buffer 204-M stores the vector x n-M + 1 of the quantized prediction residual for the duration of one frame, and then outputs this vector of the quantized prediction residual to the code vector decoding unit 203 and amplifier 205- (M + 1).

Усилитель 205-1 умножает вектор xn квантованного остатка предсказания на предопределенный коэффициент α0 предсказания МА и выводит результат на сумматор 206. Точно так же усилители 205-j (где j равно от 2 до М+1) умножают вектор xn-j+1 квантованного остатка предсказания на предопределенный коэффициент αj-1 предсказания МА и выводят результат на сумматор 206. Набор коэффициентов предсказания МА может быть фиксированными значениями одного вида, но в рекомендации ITU-T G.729 обеспечивают два вида наборов, какой набор следует использовать для выполнения декодирования, определяют на стороне кодера, и данный набор кодируют и передают как часть информации кода Ln КЛП. В этом случае используется конфигурация, посредством которой узел 105 декодирования КЛП обеспечивается набором коэффициентов предсказания МА в виде таблицы, и набор, определенный на стороне кодера, используется, как α0М на фиг.2.Amplifier 205-1 multiplies the vector x n of the quantized prediction residual by a predetermined MA prediction coefficient α 0 and outputs the result to adder 206. Similarly, amplifiers 205-j (where j is 2 to M + 1) multiply the vector x n-j + 1 of the quantized prediction remainder to the predetermined MA prediction coefficient α j-1 and output the result to the adder 206. The set of MA prediction coefficients can be fixed values of the same type, but in ITU-T G.729 provides two types of sets, which set should be used for run dec dirovaniya is determined on the encoder side, and the active set is encoded and transmitted as part of the information code L n LPC. In this case, the configuration is used by which the LPC decoding unit 105 is provided with a set of MA prediction coefficients in the form of a table, and the set defined on the encoder side is used as α 0M in FIG. 2.

Сумматор 206 вычисляет общую сумму векторов квантованных остатков предсказания после умножения на коэффициенты предсказания МА, выводимые из усилителей 205-1-205-(М+1), и выводит результат вычисления, декодированный вектор yn ЧСЛ, в буфер 207 и в узел 208 преобразования КЛП.The adder 206 calculates the total sum of vectors of quantized prediction residuals after multiplication by the prediction coefficients MA, derived from amplifiers 205-1-205- (M + 1), and outputs the calculation result, the decoded vector y n NUM, to the buffer 207 and to the conversion unit 208 KLP.

Буфер 207 хранит декодированный вектор yn ЧСЛ в течение продолжительности одного кадра, и затем выводит этот декодированный вектор ЧСЛ в узел 203 декодирования кодового вектора. В результате декодированный вектор ЧСЛ, выводимый из буфера 207 в узел 203 декодированного кодового вектора, является декодированным вектором yn-1 ЧСЛ предыдущего кадра.The buffer 207 stores the decoded vector y n CHSL for the duration of one frame, and then outputs the decoded vector CHSL a code vector decoding unit 203. As a result, the decoded LSN vector output from the buffer 207 to the decoded code vector node 203 is the decoded LSN vector y n − 1 of the previous frame.

Узел 208 преобразования КЛП преобразовывает декодированный вектор yn ЧСЛ в набор коэффициентов линейного предсказания (декодированный параметр КЛП), и выводит его на блок 209 выбора.The LPC transform node 208 converts the decoded LSN vector y n into a set of linear prediction coefficients (decoded LPC parameter), and outputs it to the selection block 209.

Блок 209 выбора выбирает декодированный параметр КЛП, выводимый из узла 208 преобразования КЛП, или декодированный параметр КЛП предыдущего кадра, выводимый из буфера 210, основываясь на коде Bn удаления текущего кадра и коде Bn+1 удаления следующего кадра. В частности, декодированный параметр КЛП, выводимый из узла 208 преобразования КЛП, выбирают, если код Bn удаления текущего кадра указывает, что «n-й кадр является обычным кадром», или код Bn+1 удаления следующего кадра указывает, что «(n+1)-й кадр является обычным кадром», а декодированный параметр КЛП следующего кадра, выводимый из буфера 210, выбирают, если код Bn удаления текущего кадра указывает, что «n-й кадр является удаленным кадром» и код Bn+1 удаления следующего кадра указывает, что «(n+1)-й кадр является удаленным кадром». Затем блок 209 выбора выводит результат выбора в узел 109 синтеза КЛП и в буфер 210, как окончательный декодированный параметр КЛП. Если блок 209 выбора выбирает декодированный параметр КЛП следующего кадра, выводимый из буфера 210, то фактически не требуется выполнять всю обработку от узла 203 декодирования кодового вектора до узла 208 преобразования КЛП, и только обработку для обновления содержимого буферов 204-1-204-М необходимо выполнять.The selection unit 209 selects a decoded LPC parameter outputted from LPC conversion unit 208 or a decoded LPC parameter of the previous frame outputted from the buffer 210, based on the code B n delete the current frame and the code B n + 1 of the next frame removal. In particular, the decoded LPC parameter outputted from the LPC conversion unit 208 is selected if the current frame deletion code B n indicates that “the nth frame is a normal frame”, or the next frame deletion code B n + 1 indicates that “( the n + 1) -th frame is a normal frame ", and the decoded LPC parameter of the next frame output from the buffer 210 is selected if the current frame deletion code B n indicates that" the nth frame is a deleted frame "and the code B n + 1 deletion of the next frame indicates that the "(n + 1) th frame is a deleted frame." Then, the selection unit 209 outputs the selection result to the LPC synthesis node 109 and to the buffer 210 as the final decoded LPC parameter. If the selection unit 209 selects the decoded LPC parameter of the next frame output from the buffer 210, then it is not actually necessary to perform all the processing from the code vector decoding section 203 to the LPC conversion section 208, and only processing to update the contents of the 204-1-204-M buffers is necessary perform.

Буфер 210 хранит декодированный параметр КЛП, выводимый из блока 209 выбора, в течение продолжительности одного кадра, и затем выводит этот декодированный параметр КЛП в блок 209 выбора. В результате декодированный параметр КЛП, выводимый из буфера 210 в блок 209 выбора, является декодированным параметром КЛП предыдущего кадра.The buffer 210 stores the decoded LPC parameter output from the selection block 209 for a duration of one frame, and then outputs this decoded LPC parameter to the selection block 209. As a result, the decoded LPC parameter output from the buffer 210 to the selection unit 209 is a decoded LPC parameter of the previous frame.

Далее будет подробно описана внутренняя конфигурация узла 203 декодирования кодового вектора, показанного на фиг.2, используя структурную схему на фиг.3.Next, the internal configuration of the code vector decoding unit 203 shown in FIG. 2 will be described in detail using the block diagram of FIG. 3.

В кодовой книге 301 генерируют кодовый вектор, идентифицированный кодом Ln КЛП текущего кадра, и выводят его на переключатель 309, и также генерируют кодовый вектор, идентифицированный кодом Ln+1 КЛП следующего кадра, и выводят его на усилитель 307. Как уже указано, в рекомендации ITU-T G.729 информацию, которая определяет набор коэффициентов предсказания МА, включает в себя код Ln КЛП, и в этом случае код Ln КЛП также используется для декодирования коэффициента предсказания МА в дополнение к декодированию кодового вектора, но описание этого опущено в данной работе. Кроме того, кодовая книга может иметь многоступенчатую конфигурацию и может иметь конфигурацию разделения. Например, в рекомендации ITU-T G.729 кодовая книга имеет двухступенчатую конфигурацию с разделением второй ступени на две. Вектор, выводимый из кодовой книги многоступенчатой конфигурации или конфигурации разделения, в общем случае не используется в том виде, в каком он существует, и если интервал между его элементами является чрезвычайно маленьким, или порядок элементов является обратным, то в общем случае выполняют обработку для обеспечения, чтобы минимальный интервал стал определенным значением, или для упорядочивания.In generating the codebook 301 a code vector identified LPC code L n of the current frame, and outputs it to the switch 309, and also generates a code vector identified code L n + 1 LPC next frame, and outputting it to the amplifier 307. As already indicated, in ITU-T Recommendation G.729, information that defines a set of MA prediction coefficients includes the LPC code L n , in which case the LPC code L n is also used to decode the MA prediction coefficient in addition to decoding the code vector, but a description of this omitted in Anna work. In addition, the codebook may have a multi-stage configuration and may have a split configuration. For example, in ITU-T Recommendation G.729, the codebook has a two-stage configuration with the division of the second stage into two. The vector output from the codebook of a multi-stage configuration or separation configuration is generally not used in the form in which it exists, and if the spacing between its elements is extremely small, or the order of the elements is inverse, then processing is generally performed to ensure so that the minimum interval becomes a specific value, or for ordering.

Вектора xn-1-xn-М квантованных остатков предсказания М предыдущих кадров вводят на соответствующие усилители 302-1-302-М и соответствующие усилители 305-1-305-М, соответственно.The vectors x n-1- x n- M quantized prediction residuals M of the previous frames are input to the respective amplifiers 302-1-302-M and the corresponding amplifiers 305-1-305-M, respectively.

Усилители 302-1-302-М умножают вводимые вектора xn-1-xn-М квантованных остатков предсказания на коэффициенты α0М предсказания МА, соответственно, и выводят результаты на сумматор 303. Как указано выше, в случае рекомендации ITU-T G.729, существует два вида наборов коэффициентов предсказания МА, и информацию о том, который из них используется, включает в себя код Ln КЛП. Кроме того, когда удаляют кадр, для которого выполняют это умножение, фактически используют набор коэффициентов предсказания МА, используемый в предыдущем кадре, так как код Ln КЛП удаляют. Т.е. используется информация коэффициента предсказания МА, декодированная из кода Ln-1 КЛП предыдущего кадра. Если предыдущий кадр также является удаленным кадром, то будет использоваться информация кадра, расположенного перед ним.Amplifiers 302-1-302-M multiply the input vectors x n-1 -x n-M of quantized prediction residues by the coefficients α 0M of the MA prediction, respectively, and output the results to adder 303. As indicated above, in the case of an ITU recommendation -T G.729, there are two types of sets of MA prediction coefficients, and information about which one is used includes the LPC code L n . In addition, when the frame for which this multiplication is performed is deleted, the set of MA prediction coefficients used in the previous frame is actually used, since the LPC code L n is deleted. Those. MA prediction coefficient information decoded from the LPC code L n-1 of the previous frame is used. If the previous frame is also a deleted frame, then the information of the frame located in front of it will be used.

Сумматор 303 вычисляет общую сумму векторов квантованных остатков предсказания после умножения на коэффициенты предсказания МА, выводимые из усилителей 302-1-302-М, и выводит вектор, который является результатом умножения, на сумматор 304.Adder 303 calculates the total sum of vectors of quantized prediction residues after multiplication by the prediction coefficients MA output from amplifiers 302-1-302-M, and outputs the vector that is the result of multiplication to adder 304.

Сумматор 304 вычитает вектор, выводимый из сумматора 303, из декодированного вектора yn-1 ЧСЛ предыдущего кадра, выводимого из буфера 207, и выводит вектор, который является результатом этого вычисления, на переключатель 309.The adder 304 subtracts the vector output from the adder 303 from the decoded vector y n-1 NUM of the previous frame output from the buffer 207, and outputs the vector that is the result of this calculation to the switch 309.

Вектор, выводимый из сумматора 303, является вектором ЧСЛ, предсказанным с помощью устройства предсказания МА-типа в текущем кадре, и сумматор 304 выполняет обработку для нахождения вектора квантованного остатка предсказания в текущем кадре, необходимого для генерации декодированного вектора ЧСЛ предыдущего кадра. Т.е. посредством усилителей 302-1-302-М, сумматора 303 и сумматора 304, вектор вычисляют так, чтобы декодированный вектор yn-1 ЧСЛ предыдущего кадра стал декодированным вектором yn ЧСЛ текущего кадра.The vector output from adder 303 is an LSN vector predicted by the MA type predictor in the current frame, and adder 304 performs processing to find the quantized prediction residual vector in the current frame necessary to generate the decoded LSL vector of the previous frame. Those. by means of amplifiers 302-1-302-M, adder 303 and adder 304, the vector is calculated so that the decoded vector y n-1 of the number of the previous frame becomes the decoded vector y n of the number of the current frame.

Усилители 305-1-305-М умножают вводимые вектора xn-1-xn-М квантованного остатка предсказания на весовые коэффициенты β1M, соответственно, и выводит результаты на сумматор 308. Усилитель 306 умножает декодированный вектор yn-1 ЧСЛ предыдущего кадра, выводимый из буфера 207, на весовой коэффициент β-1, и выводит результат на сумматор 308. Усилитель 307 умножает кодовый вектор xn+1, выводимый из кодовой книги 301, на весовой коэффициент β0, и выводит результат на сумматор 308.Amplifiers 305-1-305-M multiply the input vectors x n-1 -x n-M of the quantized prediction residual by the weighting factors β 1M , respectively, and outputs the results to adder 308. The amplifier 306 multiplies the decoded vector y n-1 The LSL of the previous frame, which is output from buffer 207, by the weight coefficient β -1 , and outputs the result to the adder 308. The amplifier 307 multiplies the code vector x n + 1 output from the codebook 301 by the weight coefficient β 0 , and outputs the result to the adder 308.

Сумматор 308 вычисляет общую сумму векторов, выводимых из усилителей 305-1-305-М, усилителя 306 и усилителя 307, и выводит кодовый вектор, который является результатом этого вычисления, на переключатель 309. Т.е. сумматор 308 вычисляет вектор, выполняя взвешенное суммирование кодового вектора, идентифицированного кодом Ln+1 КЛП следующего кадра, декодированного вектора ЧСЛ предыдущего кадра и векторов квантованных остатков предсказания М предыдущих кадров.Adder 308 calculates the total sum of vectors output from amplifiers 305-1-305-M, amplifier 306, and amplifier 307, and outputs a code vector that is the result of this calculation to switch 309. That is, an adder 308 calculates a vector by performing a weighted summation of the code vector identified by the LPC code L n + 1 of the next frame, the decoded PSL vector of the previous frame, and the quantized prediction residual vectors M of the previous frames.

Если код Bn удаления текущего кадра указывает, что «n-й кадр является обычным кадром», то переключатель 309 выбирает кодовый вектор, выводимый из кодовой книги 301, и выводит его как вектор xn квантованного остатка предсказания текущего кадра. С другой стороны, если код Bn удаления текущего кадра указывает, что «n-й кадр является удаленным кадром», то переключатель 309 дополнительно выбирает вектор, который будет выведен, в соответствии с тем, какую информацию имеет код Bn+1 удаления следующего кадра.If the current frame deletion code B n indicates that “the nth frame is a normal frame”, then the switch 309 selects a code vector output from the codebook 301 and outputs it as the vector x n of the quantized prediction residual of the current frame. On the other hand, if the current frame deletion code B n indicates that “the nth frame is the deleted frame”, the switch 309 further selects a vector to be output, according to what information the next deletion code B n + 1 has frame.

Т.е. если код Bn+1 удаления следующего кадра указывает, что «(n+1)-й кадр является удаленным кадром», то переключатель 309 выбирает вектор, выводимый из сумматора 304, и выводит его как вектор xn квантованного остатка предсказания текущего кадра. В этом случае обработка процесса генерации вектора из кодовой книги 301 и усилителей 305-1-305-М на сумматор 308 не должна выполняться.Those. if the next frame deletion code B n + 1 indicates that the “(n + 1) th frame is the deleted frame”, then the switch 309 selects the vector output from the adder 304 and outputs it as the vector x n of the quantized prediction residual of the current frame. In this case, the processing of the vector generation process from the codebook 301 and amplifiers 305-1-305-M to the adder 308 should not be performed.

С другой стороны, если код Bn+1 удаления следующего кадра указывает, что «(n+1)-й кадр является обычным кадром», то переключатель 309 выбирает вектор, выводимый из сумматора 308, и выводит его как вектор xn квантованного остатка предсказания текущего кадра. В этом случае обработка процесса генерации вектора из усилителей 302-1-302-М на сумматор 304 не должна выполняться.On the other hand, if the next frame deletion code B n + 1 indicates that the “(n + 1) th frame is a normal frame”, then the switch 309 selects the vector output from the adder 308 and outputs it as the quantized remainder vector x n predictions of the current frame. In this case, the processing of the vector generation process from amplifiers 302-1-302-M to adder 304 should not be performed.

Таким образом, согласно данному варианту осуществления, когда текущий кадр удаляют, если следующий кадр принимают обычным образом, то обработку маскирования квантованного остатка предсказания, декодированной для параметра ЧСЛ текущего кадра, выполняют посредством обработки взвешенного суммирования (обработки взвешенного линейного суммирования), в частности, для обработки маскирования, используя параметр, декодированный в прошлом, квантованный остаток предсказания кадра, принятого в прошлом, и квантованный остаток предсказания будущего кадра, и декодирование параметра ЧСЛ выполняют с помощью использования маскированной квантованного остатка предсказания. Таким образом можно обеспечивать более высокую эффективность маскирования, чем с помощью повторного использования прошлого декодированного параметра ЧСЛ.Thus, according to this embodiment, when the current frame is deleted, if the next frame is received in the usual way, the masking processing of the quantized prediction residual decoded for the LSL parameter of the current frame is performed by weighted summation processing (weighted linear summation processing), in particular, masking processing using the parameter decoded in the past, the quantized prediction remainder of the frame received in the past, and the quantized prediction remainder will be his picture, and the decoding parameter CHSL performed by using the masked quantized prediction residue. Thus, it is possible to provide higher masking efficiency than by reusing the past decoded parameter of the LSL.

Результаты выполнения обработки маскирования данного варианта осуществления будут теперь описаны, используя фиг.4 - фиг.7, которые представляют фактические примеры по сравнению с обычной технологией. На фиг.4 - фиг.7, ◯ обозначает декодированный квантованный остаток предсказания, • обозначает декодированный квантованный остаток предсказания, полученную с помощью обработки маскирования, ◊ обозначает декодированный параметр и ♦ обозначает декодированный параметр, полученный с помощью обработки маскирования.The results of the masking processing of this embodiment will now be described using FIGS. 4 to 7, which represent actual examples compared to conventional technology. 4 to 7, - denotes a decoded quantized prediction remainder, • denotes a decoded quantized prediction remainder obtained by masking processing, ◊ denotes a decoded parameter, and ♦ denotes a decoded parameter obtained by masking processing.

Фиг.4 - чертеж, на котором показывают пример результата выполнения обычной обработки, когда нет удаленного кадра, в которой декодированный параметр yn n-го кадра находят посредством приведенного ниже Уравнения (1) из декодированного квантованного остатка предсказания. В Уравнении (1) cn является декодированным квантованным остатком предсказания n-го кадра.4 is a drawing showing an example of a result of performing conventional processing when there is no deleted frame in which the decoded parameter y n of the nth frame is found by Equation (1) below from the decoded quantized prediction residual. In Equation (1), c n is the decoded quantized prediction residual of the nth frame.

Figure 00000001
Figure 00000001

Фиг.5 - чертеж, на котором показывают пример результата выполнения обработки маскирования данного варианта осуществления, и фиг.6 и 7 - чертежи, на которых показывают примеры результата выполнения обычной обработки маскирования. На фиг.5-7 предполагают, что n-й кадр удаляют, а другие кадры являются обычными кадрами.5 is a drawing showing an example of a result of performing masking processing of this embodiment, and FIGS. 6 and 7 are drawings showing examples of a result of performing conventional masking processing. 5-7, it is assumed that the nth frame is deleted, and other frames are regular frames.

При обработке маскирования показанного на фиг.5 варианта осуществления квантованный остаток Cn предсказания, декодированный для удаленного n-го кадра, находят, используя приведенное ниже Уравнение (3), чтобы сделать сумму D (где D определяют с помощью приведенного ниже Уравнения (2)) расстояния между декодированным параметром yn-1 (n-1)-го кадра и декодированным параметром yn n-го кадра, и расстояния между декодированным параметром yn n-го кадра и декодированным параметром yn+1 (n+1)-го кадра минимальной, так, чтобы изменения декодированного параметра от одного кадра к другому стали незначительными.In the masking processing of the embodiment shown in FIG. 5, the quantized prediction residual C n decoded for the remote nth frame is found using Equation (3) below to make the sum D (where D is determined using Equation (2) below ) the distance between the decoded parameter y n-1 (n-1) -th frame and the decoded parameter y n the n-th frame, and the distance between the decoded parameter y n the n-th frame and the decoded parameter y n + 1 (n + 1) -th frame minimum, so that changes to the decoded parameter from one frame to another became insignificant.

Figure 00000002
Figure 00000002

Figure 00000003
Figure 00000003

Затем при обработке маскирования данного варианта осуществления находят декодированный параметр yn удаленного n-го кадра посредством приведенного выше Уравнения (1), используя декодированный квантованный остаток Cn предсказания удаленного n-го кадра, найденную посредством Уравнения (3). В результате, как ясно из сравнения фиг.4 и фиг.5, декодированный параметр yn, полученный посредством обработки маскирования данного варианта осуществления, имеет почти то же самое значение, как значение, полученное с помощью обычной обработки, когда нет удаленного кадра.Then, in the masking processing of this embodiment, the decoded parameter y n of the deleted n-th frame is found by Equation (1) above, using the decoded quantized prediction residual C n of the deleted n-th frame found by Equation (3). As a result, as is clear from the comparison of FIG. 4 and FIG. 5, the decoded parameter y n obtained by masking processing of this embodiment has almost the same value as the value obtained by conventional processing when there is no deleted frame.

Напротив, при обычной обработке маскирования, показанной на фиг.6, когда n-й кадр удаляют, декодированный параметр yn-1 (n-1)-го кадра используется непосредственно в качестве декодированного параметра yn n-го кадра. Кроме того, при обычной обработке маскирования, показанной на фиг.6, декодированный квантованный остаток Cn предсказания n-го кадра находят посредством операции, обратной к приведенному выше Уравнению (1).In contrast, in the conventional masking processing shown in FIG. 6, when the nth frame is deleted, the decoded parameter y of the n-1 (n-1) th frame is used directly as the decoded parameter y n of the nth frame. In addition, in the conventional masking processing shown in FIG. 6, the decoded quantized prediction residue C n of the nth frame is found by the operation inverse to the above Equation (1).

В данном случае, так как не учитывают изменения декодированного параметра, сопровождаемые изменениями декодированного квантованного остатка предсказания, как ясно из сравнения фиг.4 и фиг.6, декодированный параметр yn, полученный посредством обычной обработки маскирования на фиг.6, имеет значение, которое очень сильно отличается от значения, полученного посредством обычной обработки, когда нет удаленного кадра. Кроме того, так как декодированный квантованный остаток Cn предсказания n-го кадра также отличается, декодированный параметр yn+1 (n+1)-го кадра, полученный посредством обычной обработки маскирования на фиг.6, также имеет значение, отличающееся от значения, полученного посредством обычной обработки, когда нет удаленного кадра.In this case, since the changes in the decoded parameter, accompanied by changes in the decoded quantized prediction remainder, are not taken into account, as is clear from the comparison of FIG. 4 and FIG. 6, the decoded parameter y n obtained by the usual masking processing in FIG. 6 has a value that very different from the value obtained through normal processing when there is no deleted frame. In addition, since the decoded quantized prediction residual C n of the nth frame is also different, the decoded parameter y of the n + 1 (n + 1) th frame obtained by the conventional masking processing in FIG. 6 also has a value different from the value obtained by conventional processing when there is no deleted frame.

При обычной обработке маскирования, показанной на фиг.7, декодированный квантованный остаток предсказания находят посредством интерполяции, и когда n-й кадр удаляют, используют среднее значение декодированного квантованного остатка Cn-1 предсказания (n-1)-го кадра и декодированного квантованного остатка Cn+1 предсказания (n+1)-го кадра в качестве декодированного квантованного остатка Cn предсказания n-го кадра.In the conventional masking processing shown in FIG. 7, the decoded quantized prediction residual is found by interpolation, and when the nth frame is deleted, the average value of the decoded quantized residual C n-1 prediction residual of the (n-1) th frame and the decoded quantized remainder is used C n + 1 predictions of the (n + 1) th frame as the decoded quantized remainder of C n predictions of the nth frame.

Затем при обычной обработке маскирования, показанной на фиг.7, находят декодированный параметр yn удаленного n-го кадра посредством приведенного выше Уравнения (1), используя декодированный квантованный остаток Cn предсказания, найденную посредством интерполяции.Then, in the conventional masking processing shown in FIG. 7, the decoded parameter y n of the removed nth frame is found by the above Equation (1) using the decoded quantized prediction residual C n found by interpolation.

В результате, как ясно из сравнения фиг.4 и фиг.7, декодированный параметр yn, полученный посредством обычной обработки маскирования на фиг.7, имеет значение, которое очень сильно отличается от значения, полученного посредством обычной обработки, когда нет удаленного кадра. Это происходит потому, что когда декодированный параметр изменяется незначительно от одного кадра к другому через определение взвешенного скользящего среднего значения, при этой обычной обработке маскирования декодированный параметр также изменяется вместе с изменениями декодированного квантованного остатка предсказания. Кроме того, поскольку декодированный квантованный остаток Cn предсказания n-го кадра также отличается, декодированный параметр yn+1 (n+1)-го кадра, полученный посредством обычной обработки маскирования на фиг.7, также имеет значение, отличающееся от значения, полученного посредством обычной обработки, когда нет удаленного кадра.As a result, as is clear from the comparison of FIG. 4 and FIG. 7, the decoded parameter y n obtained by the conventional masking processing in FIG. 7 has a value that is very different from the value obtained by the conventional processing when there is no deleted frame. This is because when the decoded parameter changes slightly from one frame to another through the determination of a weighted moving average, with this conventional masking process, the decoded parameter also changes along with the changes in the decoded quantized prediction remainder. Furthermore, since the decoded quantized prediction residual C n of the nth frame is also different, the decoded parameter y of the n + 1 (n + 1) th frame obtained by the conventional masking processing in FIG. 7 also has a value different from the value obtained through normal processing when there is no deleted frame.

(Вариант осуществления 2)(Embodiment 2)

Фиг.8 - структурная схема, на которой показывают основную конфигурацию устройства декодирования речи согласно варианту осуществления 2 настоящего изобретения. Показанное на фиг.8 устройство 100 декодирования речи отличается от устройства на фиг.1 только дополнительным добавлением информации En+1 типа маскирования в качестве параметра, вводимого в узел 105 декодирования КЛП.FIG. 8 is a block diagram showing a basic configuration of a speech decoding apparatus according to Embodiment 2 of the present invention. The speech decoding device 100 shown in FIG. 8 differs from the device in FIG. 1 only by the additional addition of masking type information E n + 1 as a parameter input to the LPC decoding unit 105.

Фиг.9 - структурная схема, на которой показывают внутреннюю конфигурацию узла 105 декодирования КЛП, показанного на фиг.8. Узел 105 декодирования КЛП, показанный на фиг.9, отличается от узла на фиг.2 только дополнительным добавлением информации En+1 типа маскирования в качестве параметра, вводимого в узел 203 декодирования кодового вектора.FIG. 9 is a block diagram showing the internal configuration of the LPC decoding unit 105 shown in FIG. The LPC decoding unit 105 shown in FIG. 9 differs from the node in FIG. 2 only by the additional addition of masking type information E n + 1 as a parameter input to the code vector decoding unit 203.

Фиг.10 - структурная схема, на которой показывают внутреннюю конфигурацию узла 203 декодирования кодового вектора, показанного на фиг.9. Узел 203 декодирования кодового вектора, показанный на фиг.10, отличается от узла на фиг.3 только дополнительным добавлением узла 401 декодирования коэффициента.FIG. 10 is a block diagram showing an internal configuration of a code vector decoding unit 203 shown in FIG. 9. The code vector decoding unit 203 shown in FIG. 10 differs from the node in FIG. 3 only by the addition of a coefficient decoding unit 401.

Узел 401 декодирования коэффициента хранит множество видов наборов весовых коэффициентов (β-1М) (в дальнейшем называемых «наборами коэффициентов»), выбирает один набор весовых коэффициентов из множества наборов коэффициентов согласно вводимому коду En+1 типа маскирования, и выводит его на усилители 305-1-305-М, 306 и 307.The coefficient decoding unit 401 stores a plurality of kinds of sets of weights (β -1M ) (hereinafter referred to as “sets of coefficients”), selects one set of weights from a plurality of sets of coefficients according to the input masking type code E n + 1 , and outputs it amplifiers 305-1-305-M, 306 and 307.

Таким образом, согласно данному варианту осуществления, в дополнение к обеспечению особенностей, описанных в варианте осуществления 1, обеспечивают множество наборов весовых коэффициентов взвешенного суммирования для выполнения обработки маскирования, информацию для идентификации оптимального набора передают к стороне декодера после подтверждения, с использованием какого набора весовых коэффициентов на стороне кодера получают высокую эффективность маскирования, и обработку маскирования выполняют, используя указанный набор весовых коэффициентов, основываясь на информации, принятой на стороне декодера, обеспечивая получение еще более высокой эффективности маскирования, чем в варианте осуществления 1.Thus, according to this embodiment, in addition to providing the features described in Embodiment 1, a plurality of weighted summation weighting sets are provided for performing masking processing, information for identifying the optimal set is transmitted to the decoder side after confirmation using which set of weighting factors on the encoder side, high masking efficiency is obtained, and masking processing is performed using the indicated set of weights x coefficients based on information received on the decoder side, providing obtaining even higher masking efficiency than in the embodiment 1.

(Вариант осуществления 3)(Embodiment 3)

Фиг.11 - структурная схема, на которой показывают основную конфигурацию устройства декодирования речи согласно варианту осуществления 3 настоящего изобретения. Устройство 100 декодирования речи, показанное на фиг.11, отличается от устройства на фиг.8 только дополнительным добавлением узла 501 разделения, который делит код Ln+1 КЛП, вводимый в узел 105 декодирования КЛП, на два вида кодов, Vn+1 и Kn+1. Код V-код для генерации кодового вектора, и код К является кодом коэффициента предсказания МА.11 is a block diagram showing a basic configuration of a speech decoding apparatus according to Embodiment 3 of the present invention. The speech decoding device 100 shown in FIG. 11 differs from the device in FIG. 8 only by the addition of a separation unit 501, which divides the LPC code L n + 1 input to the LPC decoding unit 105 into two kinds of codes, V n + 1 and K n + 1 . The code is a V code for generating a code vector, and code K is the MA prediction coefficient code.

Фиг.12 - структурная схема, на которой показывают внутреннюю конфигурацию узла 105 декодирования КЛП, показанного на фиг.11. Коды Vn и Vn+1, которые генерируют кодовый вектор, используются таким же образом, как коды Ln и Ln+1 КЛП, и поэтому их описание опущено в данной работе. Узел 105 декодирования КЛП, показанный на фиг.12, отличается от узла на фиг.9 только дополнительным добавлением буфера 601 и узла 602 декодирования коэффициента, и дополнительным добавлением кода Kn+1 коэффициента предсказания МА в качестве параметра, вводимого в узел 203 декодирования кодового вектора.FIG. 12 is a block diagram showing the internal configuration of the LPC decoding unit 105 shown in FIG. 11. The codes V n and V n + 1 that generate the code vector are used in the same way as the LPC codes L n and L n + 1 , and therefore their description is omitted in this paper. The LPC decoding unit 105 shown in FIG. 12 differs from the node in FIG. 9 only by the addition of a buffer 601 and a coefficient decoding unit 602, and the addition of an MA prediction coefficient code K n + 1 as a parameter input to the code decoding unit 203 vector.

Буфер 601 хранит код Kn+1 коэффициента предсказания МА в течение продолжительности одного кадра, и затем выводит этот код коэффициента предсказания МА в узел 602 декодирования коэффициента. В результате код коэффициента предсказания МА, выводимый из буфера 601 в узел 602 декодирования коэффициента, является кодом Kn коэффициента предсказания МА предыдущего кадра.The buffer 601 stores the MA prediction coefficient code K n + 1 for the duration of one frame, and then outputs this MA prediction coefficient code to the coefficient decoding section 602. As a result, the MA prediction coefficient code output from the buffer 601 to the coefficient decoding unit 602 is the MA prediction coefficient code K n of the previous frame.

Узел 602 декодирования коэффициента хранит множество видов наборов коэффициентов, идентифицирует набор коэффициентов посредством кодов Bn и Bn+1 удаления кадра, кода En+1 типа маскирования и кода Kn коэффициента предсказания МА и выводит его на усилители 205-1-205-(М+1). В данном случае существуют три способа, с помощью которых идентификацию набора коэффициентов можно выполнять в узле 602 декодирования коэффициента следующим образом.The coefficient decoding unit 602 stores a plurality of kinds of coefficient sets, identifies a coefficient set by frame deletion codes B n and B n + 1 , a mask type code E n + 1, and a prediction coefficient code K n and outputs it to amplifiers 205-1-205- (M + 1). In this case, there are three methods by which the identification of a set of coefficients can be performed in the coefficient decoding unit 602 as follows.

Если вводимый код Bn удаления кадра указывает, что «n-й кадр является обычным кадром», то узел 602 декодирования коэффициента выбирает набор коэффициентов, определенный кодом Kn коэффициента предсказания МА.If the input frame deletion code B n indicates that “the nth frame is a normal frame”, then the coefficient decoding section 602 selects a set of coefficients defined by the MA prediction coefficient code K n .

Если вводимый код Bn удаления кадра указывает, что «n-й кадр является удаленным кадром», и код Bn+1 удаления кадра указывает, что «(n+1)-й кадр является обычным кадром», то узел 602 декодирования коэффициента определяет набор коэффициентов, который будет выбран, используя код En+1 типа маскирования, принятый в качестве параметра (n+1)-го кадра. Например, если заранее определяют код En+1 типа маскирования, который указывает тип коэффициента предсказания МА, который будет использоваться с n-м кадром, который является маскированным кадром, то код En+1 типа маскирования может использоваться непосредственно вместо кода Kn коэффициента предсказания МА.If the input frame deletion code B n indicates that “the nth frame is a deleted frame” and the frame deletion code B n + 1 indicates that “the (n + 1) th frame is a normal frame”, then the coefficient decoding section 602 determines the set of coefficients to be selected using the masking type code E n + 1 , adopted as a parameter of the (n + 1) th frame. For example, if a masking type code E n + 1 is determined in advance that indicates the type of the MA prediction coefficient to be used with the nth frame, which is a masked frame, then the masking type code E n + 1 can be used directly instead of the coefficient code K n predictions MA.

Кроме того, если вводимый код Bn удаления кадра указывает, что «n-й кадр является удаленным кадром», и код Bn+1 удаления кадра указывает, что «(n+1)-й кадр является удаленным кадром», то единственной информацией, которая может использоваться, является информация набора коэффициентов, используемого предыдущим кадром, и поэтому узел 602 декодирования коэффициента неоднократно использует набор коэффициентов, используемый предыдущим кадром. Альтернативно, можно заранее обеспечивать набор коэффициентов определенного типа, чтобы он использовался постоянно.In addition, if the input frame deletion code B n indicates that “the nth frame is a deleted frame”, and the frame deletion code B n + 1 indicates that “the (n + 1) th frame is a deleted frame”, then the only the information that can be used is the information of the coefficient set used by the previous frame, and therefore, the coefficient decoding section 602 repeatedly uses the coefficient set used by the previous frame. Alternatively, a set of coefficients of a certain type can be provided in advance so that it is used continuously.

Фиг.13 - структурная схема, на которой показывают внутреннюю конфигурацию узла 203 декодирования кодового вектора, показанного на фиг.12. Показанный на фиг.13 узел 203 декодирования кодового вектора отличается от узла на фиг.10 только тем, что узел 401 декодирования коэффициента выбирает набор коэффициентов, используя и код En+1 типа маскирования, и код Kn+1 коэффициента предсказания МА.FIG. 13 is a block diagram showing an internal configuration of a code vector decoding unit 203 shown in FIG. 12. As shown in FIG. 13, the code vector decoding unit 203 differs from the node in FIG. 10 only in that the coefficient decoding unit 401 selects a set of coefficients using both the mask type code E n + 1 and the prediction coefficient code K n + 1 MA.

На фиг.13 узел 401 декодирования коэффициента обеспечивают множеством наборов весовых коэффициентов, и набор весовых коэффициентов подготавливают согласно коэффициенту предсказания МА, используемому следующим кадром. Например, в случае, когда существует два вида наборов коэффициентов предсказания МА, один обозначен тип 0, а другой - тип 1, наборы коэффициентов предсказания МА содержат группу наборов весовых коэффициентов, определенных для использования, когда набор коэффициентов предсказания МА следующего кадра - тип 0, и группу наборов весовых коэффициентов, определенных для использования, когда набор коэффициентов предсказания МА следующего кадра - тип 1.13, a coefficient decoding unit 401 is provided with a plurality of weighting sets, and a weighting set is prepared according to the MA prediction coefficient used by the next frame. For example, in the case where there are two types of sets of MA prediction coefficients, one is designated type 0 and the other is type 1, the sets of MA prediction coefficients contain a group of sets of weighting coefficients defined for use when the set of MA prediction coefficients of the next frame is type 0, and a group of sets of weights determined for use when the set of MA prediction coefficients of the next frame is type 1.

В этом случае узел 401 декодирования коэффициента определяет одну или другую группу наборов весовых коэффициентов из указанных выше групп, выбирает один набор весовых коэффициентов из множества наборов коэффициентов согласно вводимому коду En+1 типа маскирования, и выводит его в усилители 305-1-305-М, 306 и 307.In this case, the coefficient decoding unit 401 determines one or another group of sets of weighting coefficients from the above groups, selects one set of weighting factors from the set of weighting coefficients according to the input masking type code E n + 1 , and outputs it to amplifiers 305-1-305- M, 306 and 307.

Примерный способ определения весовых коэффициентов β-1М показан ниже. Как уже указано, если n-й кадр удаляют, а (n+1)-й кадр принимают, то окончательные декодированные параметры неизвестны в обоих кадрах, даже если декодированный квантованный остаток предсказания в (n+1)-м кадре можно декодировать правильно. Следовательно, декодированные параметры обоих кадров не определяют однозначно, если предположение (условие ограничения) некоторого вида не установлено. Таким образом, квантованный остаток yn предсказания находят посредством приведенного ниже Уравнения (4) для минимизации D(j), суммы расстояния между декодированным параметром в n-м кадре и декодированным параметром в (n-1)-м кадре, и расстояния между декодированным параметром в (n+1)-м кадре и декодированным параметром в n-м кадре, так, чтобы декодированные параметры n-го кадра и (n+1)-го кадра в максимально возможной степени не отличались от уже декодированного параметра (n-1)-го кадра.An exemplary method for determining weight factors β -1M is shown below. As already indicated, if the nth frame is deleted and the (n + 1) th frame is received, then the final decoded parameters are unknown in both frames, even if the decoded quantized prediction remainder in the (n + 1) th frame can be decoded correctly. Therefore, the decoded parameters of both frames are not determined unambiguously if an assumption (constraint condition) of some kind is not established. Thus, the quantized prediction residual y n is found by Equation (4) below to minimize D (j) , the sum of the distance between the decoded parameter in the nth frame and the decoded parameter in the (n-1) th frame, and the distance between the decoded parameter in the (n + 1) -th frame and the decoded parameter in the nth frame, so that the decoded parameters of the nth frame and (n + 1) -th frame do not differ as much as possible from the already decoded parameter (n- 1st) frame.

Figure 00000004
Figure 00000004

Когда параметр является параметром ЧСЛ, xn(j), yn(j), αi(j), α′i(j) в Уравнении (4) являются следующими:When the parameter is an LSN parameter, x n (j) , y n (j) , α i (j) , α ′ i (j) in Equation (4) are as follows:

xn(j): квантованный остаток предсказания j-го компонента параметра ЧСЛ в n-м кадре;x n (j) : quantized remainder of the prediction of the jth component of the LSL parameter in the nth frame;

yn(j): j-й компонент параметра ЧСЛ в n-м кадре;y n (j) : j-th component of the NSR parameter in the nth frame;

αi(j): j-й компонент компонента i-го порядка в пределах набора коэффициента предсказания МА в n-м кадре;α i (j) : jth component of the i-th order component within the set of the MA prediction coefficient in the nth frame;

α′i(j): j-й компонент компонента i-го порядка в пределах набора коэффициента предсказания МА в (n+1)-м кадре.α ′ i (j) : j-th component of the i-th order component within the set of the MA prediction coefficient in the (n + 1) -th frame.

М: порядок предсказания МА.M: MA prediction order.

В данном случае, решая уравнение, полученное с помощью частичного дифференцирования D(j) с помощью xn(j) для получения 0, xn(j) выражают в форме приведенного ниже Уравнения (5).In this case, solving the equation obtained by partial differentiation of D (j) using x n (j) to obtain 0, x n (j) is expressed in the form of Equation (5) below.

Figure 00000005
Figure 00000005

В Уравнении (5), βi(j) является весовым коэффициентом, выраженным с помощью αi(j) и α′i(j). Т.е., если существует только один вид набора коэффициента предсказания МА, также существует только один вид набора весовых коэффициентов βi(j), но если существует множество видов наборов коэффициентов предсказания МА, то множество видов наборов весовых коэффициентов получают с помощью комбинаций αi(j) и α′i(j).In Equation (5), β i (j) is the weight coefficient expressed using α i (j) and α ′ i (j) . That is, if there is only one type of set of prediction coefficient MA, there is also only one type of set of weight coefficients β i (j) , but if there are many types of sets of prediction coefficients MA, then many types of sets of weighting coefficients are obtained using combinations of α i (j) and α ′ i (j) .

Например, в случае рекомендации ITU-T G.729, существует два вида наборов коэффициентов предсказания МА, и поэтому, если они обозначены тип 0 и тип 1, то можно получать четыре вида наборов - когда n-й кадр и (n+1)-й кадр имеют тип 0, когда n-й кадр - тип 0, а (n+1)-й кадр - тип 1, когда n-й кадр - тип 1, а (n+1)-й кадр - тип 0, и когда n-й кадр и (n+1)-й кадр оба имеют тип 1. Можно придумать множество способов определения, какой набор весовых коэффициентов должен использоваться из этих четырех видов наборов.For example, in the case of ITU-T Recommendation G.729, there are two types of sets of MA prediction coefficients, and therefore, if they are designated type 0 and type 1, then four types of sets can be obtained - when the nth frame and (n + 1) the nth frame is type 0, when the nth frame is type 0, and the (n + 1) th frame is type 1, when the nth frame is type 1, and the (n + 1 )th frame is type 0 , and when the n-th frame and the (n + 1) -th frame both are of type 1. You can come up with many ways to determine which set of weights should be used from these four types of sets.

Первый способ состоит в генерации декодированных ЧСЛ n-го кадра и декодированных ЧСЛ (n+1)-го кадра на стороне кодера, используя все четыре вида наборов, вычислении Евклидова расстояния между сгенерированными декодированными ЧСЛ n-го кадра и неквантованными ЧСЛ, полученными с помощью анализа входного сигнала, вычислении Евклидова расстояние между сгенерированными декодированными ЧСЛ (n+1)-го кадра и неквантованными ЧСЛ, полученными с помощью анализа входного сигнала, выбора одного из наборов весовых коэффициентов β, который минимизирует сумму этих Евклидовых расстояний, кодирования выбранного набора в двух битах и передачи их в декодер. В этом случае два бита в кадре необходимы для кодирования весового коэффициента β в добавление к кодирующей информации рекомендации ITU-T G.729. Лучшее качество звука можно обеспечивать при использовании взвешенных Евклидовых расстояний, как используется при квантовании ЧСЛ рекомендации ITU-T G.72 9, вместо Евклидовых расстояний.The first method consists in generating decoded LSLs of the nth frame and decoded LSLs of the (n + 1) th frame on the encoder side using all four types of sets, calculating the Euclidean distance between the generated decoded LSLs of the nth frame and non-quantized LSLs obtained using analysis of the input signal, calculation of the Euclidean distance between the generated decoded LSLs of the (n + 1) -th frame and non-quantized LSLs obtained by analyzing the input signal, selecting one of the sets of weighting coefficients β, which minimizes mm of these Euclidean distances, encoding the selected set in two bits and transmitting them to the decoder. In this case, two bits in the frame are necessary for encoding the weighting factor β in addition to the ITU-T G.729 recommendation in the coding information. Better sound quality can be achieved by using weighted Euclidean distances, as used when quantizing the BSL recommendation ITU-T G.72 9, instead of Euclidean distances.

Второй способ состоит в том, чтобы сделать количество дополнительных битов в кадре равным единице при использовании информации типа коэффициента предсказания МА (n+1)-го кадра. Поскольку информация типа коэффициента предсказания МА (n+1)-го кадра - на стороне декодера, комбинации αi(j) и α′i(j) ограничены двумя. Т.е. если тип предсказания МА (n+1)-го кадра - тип 0, то комбинация типа предсказания МА n-го кадра и (n+1)-го кадра равна или (0-0), или (1-0), что предоставляет возможность ограничивать набор весовых коэффициентов β двумя видами. На стороне кодера необходимо только выполнять кодирование, используя тот из этих двух видов наборов весовых коэффициентов β, который имеет меньший остаток относительно неквантованных ЧСЛ, таким же образом, как в первом приведенном выше способе, и передавать его в декодер.The second method is to make the number of extra bits in the frame equal to one when using information such as the prediction coefficient MA of the (n + 1) th frame. Since information such as the prediction coefficient MA of the (n + 1) th frame is on the side of the decoder, combinations of α i (j) and α ′ i (j) are limited to two. Those. if the prediction type of the MA of the (n + 1) th frame is type 0, then the combination of the MA prediction type of the nth frame and the (n + 1) th frame is either (0-0) or (1-0), which provides an opportunity to limit the set of weighting factors β to two types. On the encoder side, it is only necessary to perform encoding using the one of these two types of sets of weighting coefficients β that has a smaller remainder with respect to non-quantized LSLs, in the same way as in the first method above, and transmit it to the decoder.

Третий способ - способ, в котором вообще не посылают никакой информации выбора, используя один набор весовых коэффициентов, для которого существует только два вида комбинаций типа предсказания МА-(0-0) или (1-0), причем первый выбирают, когда тип коэффициента предсказания МА (n+1)-го кадра - 0, и последний выбирают, когда тип коэффициента предсказания МА (n+1)-го кадра-1. Альтернативно, может использоваться способ, посредством которого тип удаления кадра устанавливают в определенный тип, такой как (0-0) или (0-1).The third method is a method in which no selection information is sent at all using one set of weighting factors, for which there are only two kinds of combinations of the MA- (0-0) or (1-0) prediction type, the first being selected when the coefficient type the predictions of the MA of the (n + 1) th frame is 0, and the latter is selected when the type of the prediction coefficient of the MA of the (n + 1) th frame is 1. Alternatively, a method may be used by which a frame deletion type is set to a specific type, such as (0-0) or (0-1).

Другие возможные способы - способ, посредством которого для кадра, для которого определяют, что входной сигнал является постоянным, обеспечивают, чтобы декодированные параметры для (n-1)-го кадра и n-го кадра стали одинаковыми, как при обычном способе, и способ, который использует набор весовых коэффициентов β, найденный при условии, что декодированные параметры (n+1)-го кадра и n-го кадра станут одинаковыми.Other possible methods are the method by which, for a frame for which it is determined that the input signal is constant, it is ensured that the decoded parameters for the (n-1) th frame and the n-th frame become the same as in the conventional method, and the method which uses the set of weights β found under the condition that the decoded parameters of the (n + 1) th frame and the nth frame become the same.

В данном случае информация периода основного тона, информация типа коэффициента предсказания МА или подобная информация (n-1)-го кадра и (n+1)-го кадра может использоваться для определения постоянства. Т.е. возможные способы состоят в определении, что сигнал постоянен, когда декодированное различие между периодами основного тона между (n-1)-м кадром и (n+1)-м кадром является небольшим, или в определении, что сигнал постоянен, когда выбран тип, подходящий для кодирования кадра, для которого информация типа коэффициента предсказания МА, декодированная в (n+1)-м кадре, постоянна (т.е. тип, в котором старший коэффициент предсказания МА также имеет определенный вес).In this case, pitch period information, information such as MA prediction coefficient or similar information of the (n-1) th frame and the (n + 1) th frame can be used to determine constancy. Those. possible methods are to determine that the signal is constant when the decoded difference between the pitch periods between the (n-1) -th frame and the (n + 1) -th frame is small, or to determine that the signal is constant when the type is selected, suitable for encoding a frame for which the information of the type of the prediction coefficient MA decoded in the (n + 1) th frame is constant (i.e., the type in which the highest prediction coefficient MA also has a certain weight).

Таким образом, в данном варианте осуществления, в дополнение к тому, что обеспечивается в варианте осуществления 2, существует два типа коэффициентов предсказания МА, предоставляя возможность использовать различные наборы коэффициентов предсказания МА для постоянной части и части, которая не является постоянной, и предоставляя возможность улучшать эффективность средства квантования ЧСЛ.Thus, in this embodiment, in addition to what is provided in embodiment 2, there are two types of MA prediction coefficients, enabling the use of different sets of MA prediction coefficients for the constant part and the part that is not constant, and providing the opportunity to improve the efficiency of the means of quantization of the CSL.

Кроме того, при использовании Уравнения (5) набор весовых коэффициентов, который минимизирует Уравнение (4), декодированные параметры ЧСЛ удаленного кадра и обычного кадра, который является следующим кадром после удаленного кадра, как гарантируют, не станут значениями, которые очень сильно отличаются от параметра ЧСЛ кадра, предшествующего удаленному кадру. Следовательно, даже если декодированный параметр ЧСЛ следующего кадра неизвестен, то принимаемую информацию (квантованный остаток предсказания) следующего кадра можно продолжать использоваться эффективно, и риск маскирования, выполняемого в неправильном направлении - т.е. риск очень сильного отличия от правильного декодированного параметра ЧСЛ, может быть сохранен минимальным.In addition, when using Equation (5), a set of weights that minimizes Equation (4), the decoded parameters of the CRL of the remote frame and the normal frame, which is the next frame after the deleted frame, are not guaranteed to become values that are very different from the parameter The number of frames preceding the deleted frame. Therefore, even if the decoded LSL parameter of the next frame is unknown, the received information (quantized prediction remainder) of the next frame can continue to be used efficiently, and the risk of masking performed in the wrong direction - i.e. the risk of a very strong difference from the correct decoded PSL parameter can be kept minimal.

Кроме того, если приведенный выше второй способ используется в качестве способа выбора типа маскирования, то информация типа коэффициента предсказания МА может использоваться как часть информации, которая идентифицирует набор весовых коэффициентов для использования обработки маскирования, что предоставляет возможность уменьшать количество дополнительно передаваемой информации набора весовых коэффициентов для использования обработки маскирования.In addition, if the above second method is used as a method of selecting a type of masking, then the information of the type of the prediction coefficient MA can be used as part of the information that identifies a set of weighting factors for using masking processing, which makes it possible to reduce the amount of additionally transmitted information of the set of weighting factors for use of masking processing.

(Вариант осуществления 4)(Embodiment 4)

Фиг.14 - структурная схема, на которой показывают внутреннюю конфигурацию узла 104 декодирования коэффициента усиления, показанного на фиг.1 (то же самое применяют к узлу 104 декодирования коэффициента усиления на фиг.8 и фиг.11). В данном варианте осуществления, как в случае рекомендации ITU-T G.729, декодирование коэффициента усиления выполняют один раз для субкадра, и один кадр состоит из двух субкадров, и фиг.14 показывает последовательное декодирование кодов (Gm и Gm+1) коэффициента усиления двух субкадров n-го кадра, где n обозначает номер кадра, и m обозначает номер субкадра (номера первого субкадра и второго субкадра n-го кадра обозначены m и m+1, соответственно).FIG. 14 is a block diagram showing the internal configuration of the gain decoding section 104 shown in FIG. 1 (the same applies to the gain decoding section 104 in FIG. 8 and FIG. 11). In this embodiment, as in the case of ITU-T G.729, gain decoding is performed once for a subframe, and one frame consists of two subframes, and FIG. 14 shows sequential decoding of codes (G m and G m + 1 ) the gain of two subframes of the nth frame, where n is the frame number and m is the number of the subframe (the numbers of the first subframe and the second subframe of the nth frame are m and m + 1, respectively).

На фиг.14 код Gn+1 коэффициента усиления (n+1)-го кадра вводят в узел 104 декодирования коэффициента усиления из узла 101 демультиплексирования, код Gn+1 коэффициента усиления вводят в узел 700 разделения и делят на код Gm+2 коэффициента усиления первого субкадра и код Gm+3 коэффициента усиления второго субкадра (n+1)-го кадра. Разделение на коды Gm+2 и Gm+3 коэффициента усиления можно также выполнять с помощью узла 101 демультиплексирования.In Fig. 14, the gain code G n + 1 of the (n + 1) th frame is input to the gain decoding unit 104 from the demultiplexing unit 101, the gain code G n + 1 is input to the separation unit 700 and divided by the code G m + 2 gain of the first subframe and code G m + 3 gain of the second subframe of the (n + 1) th frame. The division into codes G m + 2 and G m + 3 gain can also be performed using the node 101 demultiplexing.

В узле 104 декодирования коэффициента усиления получают декодированный коэффициент усиления субкадра m и декодированный коэффициент усиления субкадра m+1 по порядку, используя Gm, Gm+1, Gm+2 и Gm+3, сгенерированные из вводимых Gn и Gn+1.In the gain decoding section 104, a decoded gain of a subframe m and a decoded gain of a subframe m + 1 are obtained in order using G m , G m + 1 , G m + 2 and G m + 3 generated from the input G n and G n +1

Работа каждого узла из узла 104 декодирования коэффициента усиления при декодировании кода Gm коэффициента усиления будет теперь описана в отношении фиг.14.The operation of each node from the gain decoding section 104 when decoding the gain code G m will now be described with respect to FIG.

Код Gm+2 коэффициента усиления вводят в буфер 701 и узел 704 декодирования остатка предсказания, и код Bn+1 удаления кадра вводят в буфер 703, узел 704 декодирования остатка предсказания и блок 713 выбора.A gain code G m + 2 is input to buffer 701 and a prediction residual decoding unit 704, and a frame deletion code B n + 1 is input to buffer 703, a prediction residual decoding unit 704 and a selection block 713.

Буфер 701 хранит вводимый код коэффициента усиления в течение продолжительности одного кадра и затем выводит этот код коэффициента усиления в узел 704 декодирования остатка предсказания, так, чтобы код коэффициента усиления, вводимый в узел 704 декодирования остатка предсказания, был кодом коэффициента усиления предыдущего кадра. Т.е. если код коэффициента усиления, вводимый в буфер 701, является Gm+2, то выводимый код коэффициента усиления - Gm. Буфер 702 также выполняет такую же обработку, как буфер 701. Т.е. вводимый код коэффициента усиления хранят в течение продолжительности одного кадра и затем выводят в узел 704 декодирования остатка предсказания. Единственное различие - то, что ввод-вывод буфера 701 - код коэффициента усиления первого субкадра, и ввод-вывод буфера 702 - код коэффициента усиления второго субкадра.The buffer 701 stores the input gain code for the duration of one frame and then outputs this gain code to the prediction residual decoding section 704, so that the gain code input to the prediction residual decoding section 704 is the gain code of the previous frame. Those. if the gain code entered into the buffer 701 is G m + 2 , then the output gain code is G m . Buffer 702 also performs the same processing as buffer 701. That is, the input gain code is stored for a duration of one frame and then output to the prediction residual decoding unit 704. The only difference is that the input / output of buffer 701 is the gain code of the first subframe, and the input / output of buffer 702 is the gain code of the second subframe.

Буфер 703 хранит код Bn+1 удаления следующего кадра в течение продолжительности одного кадра, и затем выводит этот код удаления кадра в узел 704 декодирования остатка предсказания, блок 713 выбора и узел 708 вычисления мощности вектора ПКК. Код удаления кадра, выводимый из буфера 703 в узел 704 декодирования остатка предсказания, блок 713 выбора и узел 708 вычисления мощности вектора ПКК, является кодом удаления предыдущего кадра перед вводимым кадром, и является таким образом кодом Bn удаления текущего кадра.A buffer 703 stores the next frame deletion code B n + 1 for the duration of one frame, and then outputs this frame deletion code to the prediction residual decoding unit 704, a selection unit 713, and a PAC vector power calculation unit 708. The frame deletion code output from the buffer 703 to the prediction residual decoding unit 704, the selection unit 713 and the PAC vector power calculation unit 708 is the deletion code of the previous frame before the input frame, and is thus the deletion code B n of the current frame.

Узел 704 декодирования остатка предсказания, который имеет логарифмические квантованные остатка xm-1-xm-M предсказания (которые являются результатом вычисления логарифмов квантованных остатков предсказания MA) M предыдущих субкадров, декодированную мощность em-1 (логарифм декодированного коэффициента усиления) предыдущего субкадра, коэффициент eB усиления погрешности остатка предсказания, коды Gm+2 и Gm+3 коэффициента усиления следующего кадра, код Bn+1 удаления следующего кадра, коды Gm и Gm+1 коэффициента усиления текущего кадра и код Bn удаления текущего кадра в качестве вводимой информации, генерирует квантованный остаток предсказания текущего кадра, основываясь на этих элементах информации, и выводит ее в узел 705 вычисления логарифма и в узел 712 умножения. Подробности узла 704 декодирования остатка предсказания будут приведены позже в данной работе.Prediction residual decoding unit 704 that has logarithmic quantized prediction residuals x m − 1 −x mM (which are the result of calculating the logarithms of quantized prediction residuals MA) M of the previous subframes, decoded power e m − 1 (logarithm of the decoded gain) of the previous subframe, coefficient e B gain error prediction residual, codes G m + 2 and G m + 3 gain of the next frame, code B n + 1 delete the next frame, codes G m and G m + 1 gain of the current frame and code B n deleted Eating the current frame as input, generates a quantized prediction residue of the current frame based on these pieces of information, and outputs it to the logarithm calculation section 705 and the multiplication section 712. Details of the prediction remainder decoding unit 704 will be provided later in this paper.

Узел 705 вычисления логарифма вычисляет логарифм xm квантованного остатка предсказания, выводимого из узла 704 декодирования остатка предсказания (в рекомендации ITU-T G.729, 20×log10(х), где х является входной информацией), и выводит его в буфер 706-1.The logarithm calculation unit 705 calculates the logarithm x m of the quantized prediction residual output from the prediction residual decoding unit 704 (in ITU-T Recommendation G.729, 20 × log 10 (x), where x is input) and outputs it to the buffer 706 -one.

Буфер 706-1, который имеет логарифмический квантованный остаток xm предсказания, выводимый из узла 705 вычисления логарифма, в качестве вводимой информации, хранит ее в течение продолжительности одного субкадра, и затем выводит этот логарифмический квантованный остаток предсказания в узел 704 декодирования остатка предсказания, буфер 706-2 и буфер 707-1. Т.е. логарифмический квантованный остаток предсказания, вводимая в узел 704 декодирования остатка предсказания, буфер 706-2 и усилитель 707-1, является логарифмическим квантованным остатком xm-1 предсказания предыдущего субкадра. Точно так же каждый из буферов 706-i (где i равно от 2 до М-1) хранит вводимую логарифмический квантованный остаток xm-i предсказания в течение продолжительности одного субкадра и затем выводит этот логарифмический квантованный остаток предсказания в узел 704 декодирования остатка предсказания, буфер 706-(i+1) и усилитель 707-i. Буфер 706-М хранит вводимый логарифмический квантованный остаток xm-M-1 предсказания в течение продолжительности одного субкадра и затем выводит этот логарифмический квантованный остаток предсказания в узел 704 декодирования остатка предсказания и в усилитель 707-М.A buffer 706-1, which has a logarithmic quantized prediction remainder x m output from the logarithm calculation unit 705, as input information, stores it for the duration of one subframe, and then outputs this logarithmic quantized prediction remainder to the prediction remainder decoding unit 704, a buffer 706-2 and buffer 707-1. Those. the logarithmic quantized prediction residual inputted to the prediction residual decoding unit 704, the buffer 706-2 and the amplifier 707-1, is the logarithmic quantized prediction residual x m − 1 of the previous subframe. Similarly, each of the buffers 706-i (where i is from 2 to M-1) stores the input logarithmic quantized prediction remainder x mi for the duration of one subframe and then outputs this logarithmic quantized prediction remainder to the prediction remainder decoding unit 704, buffer 706 - (i + 1) and amplifier 707-i. The buffer 706-M stores the input logarithmic quantized prediction residual x mM-1 for the duration of one subframe and then outputs this logarithmic quantized prediction residual to the prediction residual decoding unit 704 and to the amplifier 707-M.

Усилитель 707-1 умножает логарифмический квантованный остаток xm-i предсказания на предопределенный коэффициент α1 предсказания МА и выводит результат на сумматор 710. Точно так же каждый из усилителей 707-j (где j равно от 2 до М) умножает логарифмический квантованный остаток xm-j предсказания на предопределенный коэффициент αj предсказания МА и выводил результат на сумматор 710. Набор коэффициентов предсказания МА содержит фиксированные значения одного вида в рекомендации ITU-T G.729, но можно также использовать конфигурацию, в которой обеспечивают множество видов наборов, и выбирают один подходящий.Amplifier 707-1 multiplies the logarithmic quantized remainder x mi of the prediction by a predetermined MA prediction coefficient α 1 and outputs the result to adder 710. Similarly, each of the amplifiers 707-j (where j is 2 to M) multiplies the logarithmic quantized remainder x mj of the prediction by a predetermined coefficient α j MA prediction, and outputs the result to adder 710. Set MA prediction coefficients comprises one kind of fixed values in the recommendation ITU-T G.729, but it is also possible to employ a configuration wherein provide nozhestvo kinds of sets, and choose the one most suitable.

Если код Bn удаления текущего кадра указывает, что «n-й кадр является обычным кадром», то узел 708 вычисления мощности вектора ПКК вычисляет мощность вектора ПКК (постоянной кодовой книги), декодированного отдельно, и выводит результат вычисления в узел 709 определения превышения средней мощности. Если код Bn удаления текущего кадра указывает, что «n-й кадр является удаленным кадром», то узел 708 вычисления мощности вектора ПКК выводит мощность вектора ПКК предыдущего субкадра в узел 709 определения превышения средней мощности.If the current frame deletion code B n indicates that “the nth frame is a normal frame”, then the GAC vector power calculation unit 708 calculates the power of the GAC vector (constant codebook) decoded separately and outputs the calculation result to the average excess determination unit 709 power. If the current frame deletion code B n indicates that “the nth frame is a deleted frame”, then the PAC vector power calculation unit 708 outputs the PAC vector power of the previous subframe to the average power excess determination unit 709.

Узел 709 определения превышения средней мощности вычитает мощность вектора ПКК, выводимую из узла 708 вычисления мощности вектора ПКК, из средней мощности, и выводит результат вычитания - коэффициент ев усиления погрешности остатка предсказания - в узел 704 декодирования остатка предсказания и сумматор 710. В данном случае предполагают, что средняя мощность является предварительно установленной константой. Кроме того, суммирование/вычитание мощности выполняют в логарифмической области.The average power excess determination unit 709 subtracts the GAC vector power output from the GAC vector power calculation unit 708 from the average power and outputs the subtraction result — the coefficient e of the gain of the prediction residual error — to the prediction residual decoding unit 704 and adder 710. In this case, suggest that the average power is a preset constant. In addition, power addition / subtraction is performed in the logarithmic region.

Сумматор 710 вычисляет общую сумму логарифмических квантованных остатков предсказания после умножения на коэффициенты предсказания МА, выводимые из усилителей 707-1-707-М, и коэффициента усиления ев погрешности остатка предсказания, выводимого из узла 709 определения превышения средней мощности, и выводит логарифмический предсказанный коэффициент усиления, который является результатом этого вычисления, в узел 711 вычисления показательной функции.An adder 710 calculates the total sum of the logarithmic quantized prediction residues after multiplying by the MA prediction coefficients output from the amplifiers 707-1-707-M and the gain e in the error of the prediction residual output from the average power excess determination unit 709, and outputs a logarithmic predicted coefficient amplification, which is the result of this calculation, to the node 711 calculation of the exponential function.

Узел 711 вычисления показательной функции вычисляет показательную функцию (10x, где х - входная информация) логарифмического предсказанного коэффициента усиления, выводимого из сумматора 710, и выводит предсказанный коэффициент усиления, который является результатом этого вычисления, в блок 712 умножения.The exponential function computation unit 711 calculates an exponential function (10 x , where x is the input information) of the logarithmic predicted gain derived from the adder 710, and outputs the predicted gain that is the result of this calculation to the multiplication unit 712.

Блок 712 умножения умножает предсказанный коэффициент усиления, выводимый из узла 711 вычисления показательной функции, на квантованный остаток предсказания, выводимый из узла 704 декодирования остатка предсказания, и выводит декодированный коэффициент усиления, который является результатом этого вычисления, в блок 713 выбора.A multiplication unit 712 multiplies the predicted gain output from the exponential function calculation section 711 by a quantized prediction residual output from the prediction balance decoding section 704, and outputs the decoded gain, which is the result of this calculation, to the selection block 713.

Блок 713 выбора выбирает или декодированный коэффициент усиления, выводимый из блока 712 умножения, или декодированный коэффициент усиления предыдущего кадра после ослабления, выводимый из усилителя 715, основываясь на коде Bn удаления текущего кадра и на коде Bn+1 удаления следующего кадра. В частности, декодированный коэффициент усиления, выводимый из блока 712 умножения, выбирают, если код Bn удаления текущего кадра указывает, что «n-й кадр является обычным кадром», или код Bn+1 удаления следующего кадра указывает, что «(n+1)-й кадр является обычным кадром», а декодированный коэффициент усиления предыдущего кадра после ослабления, выводимый из усилителя 715, выбирают, если код Bn удаления текущего кадра указывает, что «n-й кадр является удаленным кадром» и код Bn+1 удаления следующего кадра указывает, что «(n-1)-й кадр является удаленным кадром». Затем блок 713 выбора выводит результат выбора в качестве окончательного предсказанного коэффициента усиления в усилители 106 и 107, буфер 714 и узел 716 вычисления логарифма. Если блок 713 выбора выбирает декодированный коэффициент усиления предыдущего кадра после ослабления, выводимый из усилителя 715, то фактически не требуется выполнять всю обработку от узла 704 декодирования остатка предсказания до блока 712 умножения, и только обработку для обновления содержимого буферов 706-1-706-М необходимо выполнять.The selection unit 713 selects one of the decoded gain outputted from the multiplier block 712 or decoded gain factor of the previous frame after attenuation output from the amplifier 715 based on the code B n delete the current frame and the code B n + 1 of the next frame removal. In particular, the decoded gain derived from the multiplier 712 is selected if the current frame delete code B n indicates that “the nth frame is a normal frame” or the next frame delete code B n + 1 indicates that “(n The +1) -th frame is a normal frame ", and the decoded gain of the previous frame after attenuation output from the amplifier 715 is selected if the current frame deletion code B n indicates that" the nth frame is a deleted frame "and the code B n 1 removal of the next frame indicates that the «(n-1) -th frame is the removal of scenes. " Then, selection block 713 outputs the selection result as the final predicted gain to amplifiers 106 and 107, buffer 714, and the logarithm calculation section 716. If the selection block 713 selects the decoded gain of the previous frame after attenuation output from the amplifier 715, then it is not actually necessary to perform all the processing from the prediction remainder decoding unit 704 to the multiplication block 712, and only the processing to update the contents of the buffers 706-1-706-M must be performed.

Буфер 714 хранит декодированный коэффициент усиления, выводимый из блока 713 выбора, в течение продолжительности одного субкадра, и затем выводит этот декодированный коэффициент усиления на усилитель 715. В результате декодированный коэффициент усиления, выводимый из буфера 714 на усилитель 715, является декодированным коэффициентом усиления предыдущего субкадра. Усилитель 715 умножает декодированный коэффициент усиления предыдущего субкадра, выводимый из буфера 714, на предопределенный коэффициент ослабления, и выводит результат в блок 713 выбора. Значение этого предопределенного коэффициента ослабления равно 0,98 в рекомендации ITU-T G.729, например, но оптимальное значение для кодека можно устанавливать соответствующим образом, и это значение можно также изменять согласно характеристикам сигнала удаленного кадра, например, является ли удаленный кадр вокализированным кадром или невокализированным кадром.Buffer 714 stores the decoded gain output from selection block 713 for the duration of one subframe, and then outputs this decoded gain to amplifier 715. As a result, the decoded gain output from buffer 714 to amplifier 715 is the decoded gain of the previous subframe . An amplifier 715 multiplies the decoded gain of the previous subframe output from the buffer 714 by a predetermined attenuation coefficient, and outputs the result to the selection block 713. The value of this predefined attenuation coefficient is 0.98 in ITU-T G.729 recommendation, for example, but the optimal value for the codec can be set accordingly, and this value can also be changed according to the characteristics of the remote frame signal, for example, whether the remote frame is a voiced frame or unvoiced frame.

Узел 716 вычисления логарифма вычисляет логарифм em декодированного коэффициента усиления, выводимого из блока 713 выбора (в рекомендации ITU-T G.729, 20×log10(х), где х - вводимая информация), и выводит его в буфер 717. Буфер 717, который имеет логарифм em декодированного коэффициента усиления в качестве информации, вводимой из узла 716 вычисления логарифма, хранит его в течение продолжительности одного субкадра, и затем выводит этот логарифм декодированного коэффициента усиления в узел 704 декодирования остатка предсказания. Т.е. логарифм предсказанного коэффициента усиления, вводимый в узел 704 декодирования остатка предсказания, является логарифмом em-1 декодированного коэффициента усиления предыдущего субкадра.The logarithm calculation unit 716 calculates the logarithm e m of the decoded gain output from the selection block 713 (in ITU-T Recommendation G.729, 20 × log 10 (x), where x is the input information) and outputs it to buffer 717. Buffer 717, which has the logarithm e m of the decoded gain as information input from the logarithm calculation unit 716, stores it for the duration of one subframe, and then outputs this logarithm of the decoded gain to the prediction residual decoding unit 704. Those. the predicted gain logarithm input to the prediction residual decoding unit 704 is the logarithm of the e m − 1 decoded gain of the previous subframe.

Фиг.15 - структурная схема, на которой показывают внутреннюю конфигурацию узла 704 декодирования остатка предсказания, показанного на фиг.14. На фиг.15 коды Gm, Gm+1, Gm+2 и Gm+3 коэффициента усиления вводят в кодовую книгу 801, коды Bn и Bn+1 удаления кадра вводят в переключатель 812, логарифмические квантованные остатки xm-1-xm-M предсказания М предыдущих субкадров вводят в сумматор 802, и логарифмический декодированный коэффициент em-1 усиления предыдущего субкадра и коэффициент eB усиления погрешности остатка предсказания вводят в узел 807 генерации квантованного остатка предсказания субкадра и в узел 808 генерации квантованного остатка предсказания субкадра.FIG. 15 is a block diagram showing an internal configuration of a prediction residual decoding unit 704 shown in FIG. 14. On Fig codes G m , G m + 1 , G m + 2 and G m + 3 gain are entered into the codebook 801, codes B n and B n + 1 delete the frame is entered into the switch 812, the logarithmic quantized residuals x m -1 -x mM prediction previous subframes M is introduced into the adder 802 and the decoded logarithmic ratio e m-1 the gain of the previous subframe and the coefficient e B gain prediction residual error introduced into node 807 generate a quantized residue sub-frame prediction unit 808 and generating a quantized prediction residue subframe.

В кодовой книге 801 декодируют соответствующие квантованные остатки предсказания из вводимых кодов Gm, Gm+1, Gm+2 и Gm+3 коэффициента усиления, выводят квантованные остатки предсказания, соответствующие вводимым кодам Gm и Gm+1 коэффициента усиления, на переключатель 812 через переключатель 813, и выводят квантованные остатки предсказания, соответствующие вводимым кодам Gm+2 и Gm+3 коэффициента усиления, в узел 806 вычисления логарифма.In codebook 801, the corresponding quantized prediction residues from the input gain codes G m , G m + 1 , G m + 2 and G m + 3 are decoded, the quantized prediction residues corresponding to the input gain codes G m and G m + 1 are output, to switch 812 via switch 813, and quantized prediction residues corresponding to the input gain codes G m + 2 and G m + 3 are output to the logarithm calculation unit 806.

Переключатель 813 выбирает любой из квантованных остатков предсказания, декодированных из кодов Gm и Gm+1 коэффициента усиления, и выводит ее на переключатель 812. В частности, квантованный остаток предсказания, декодированный из кода Gm коэффициента усиления, выбирают, когда выполняют обработку декодирования коэффициента усиления первого субкадра, а квантованный остаток предсказания, декодированный из кода Gm+1 усиления, выбирают, когда выполняют обработку декодирования коэффициента усиления второго субкадра.Switch 813 selects any of the quantized prediction residues decoded from gain codes G m and G m + 1 and outputs it to switch 812. In particular, the quantized prediction residual decoded from gain code G m is selected when decoding processing is performed the gain of the first subframe, and the quantized prediction residual decoded from the gain code G m + 1 is selected when the gain decoding processing of the second subframe is performed.

Сумматор 802 вычисляет общую сумму логарифмических квантованных остатков xm-1-xm-M предсказания М предыдущих субкадров и выводит результат этого вычисления на усилитель 803. Усилитель 803 вычисляет среднее значение, умножая выходное значение сумматора 802 на 1/М, и выводит результат этого вычисления на узел 804 ослабления на 4 дБ (децибелл).Adder 802 calculates the total sum of the logarithmic quantized residuals x m − 1 −x mM of the prediction M of the previous subframes and outputs the result of this calculation to amplifier 803. Amplifier 803 calculates the average by multiplying the output of adder 802 by 1 / M and outputs the result of this calculation by Node 804 attenuation by 4 dB (decibels).

Узел 804 ослабления на 4 дБ уменьшает значение выходного сигнала усилителя 803 на 4 дБ и выводит результат в узел 805 вычисления показательной функции. Это ослабление на 4 дБ должно предотвращать устройство предсказания от вывода чрезмерно большого предсказанного значения в кадре (субкадре), восстановленном из удаленного кадра, и блок ослабления не обязательно является неотъемлемой частью примерной конфигурации, в которой не возникает такая потребность. По отношению к величине ослабления на 4 дБ, также можно свободно разрабатывать оптимальное значение.The attenuation unit 804 by 4 dB reduces the output signal of the amplifier 803 by 4 dB and outputs the result to the exponential function calculation unit 805. This 4 dB attenuation should prevent the prediction device from outputting an excessively large predicted value in a frame (subframe) recovered from the remote frame, and the attenuation unit is not necessarily an integral part of an exemplary configuration that does not need such a need. With respect to the attenuation of 4 dB, the optimum value can also be freely developed.

Узел 805 вычисления показательной функции вычисляет показательную функцию из выходного значения узла 804 ослабления на 4 дБ, и выводит маскированный остаток предсказания, который является результатом этого вычисления, на переключатель 812.The exponential function computation unit 805 computes the exponential function from the output value of the 4 dB attenuation unit 804, and outputs the masked prediction residue that is the result of this calculation to switch 812.

Узел 806 вычисления логарифма вычисляет логарифмы двух квантованных остатков предсказания, выводимых из кодовой книги 801 (следующих из декодированных кодов Gm+2 и Gm+3 коэффициента усиления), и выводит логарифмические квантованные остатки xm+2 и xm+3 предсказания, которые являются результатами этих вычислений, в узел 807 генерации квантованных остатков предсказания субкадра и в узел 808 генерации квантованных остатков предсказания субкадра.The logarithm calculation unit 806 calculates the logarithms of the two quantized prediction residues output from the codebook 801 (resulting from the decoded gain codes G m + 2 and G m + 3 ) and outputs the logarithmic quantized prediction residuals x m + 2 and x m + 3 , which are the results of these calculations, to the sub-frame prediction residual quantization generation unit 807 and the sub-frame prediction quantized residual generation unit 808.

Узел 807 генерации квантованного остатка предсказания субкадра, который имеет логарифмические квантованные остатки xm+2 и xm+3 предсказания, логарифмические квантованные остатки xm-1-xm-m предсказания М предыдущих субкадров, декодированную мощность em-1 предыдущего субкадра и коэффициент eB усиления погрешности остатки предсказания в качестве вводимой информации, вычисляет логарифмический квантованный остаток предсказания первого субкадра, основываясь на этих элементах информации, и выводит ее на переключатель 810. Точно так же узел 808 генерации квантованных остатков предсказания субкадра, который имеет логарифмические квантованные остатки xm+2 и xm+3 предсказания, логарифмические квантованные остатки xm-1-xm-m предсказания М предыдущих субкадров, декодированную мощность em-1 предыдущего субкадра и коэффициент eB усиления погрешности остатка предсказания в качестве вводимой информации, вычисляет логарифмический квантованный остаток предсказания второго субкадра, основываясь на этих элементах информации, и выводит ее в буфер 809. Подробности узлов 807 и 808 генерации квантованных остатков предсказания субкадра будет приведены позже в данной работе.Node 807 of generating a quantized prediction residual subframe, which has logarithmic quantized residuals x m + 2 and x m + 3 predictions, logarithmic quantized residuals x m-1 -x mm predictions M of the previous subframes, decoded power e m-1 of the previous subframe, and coefficient e In error amplification, the prediction residuals as input information, calculates the logarithmic quantized prediction residual of the first subframe based on these information elements, and outputs it to switch 810. In the same way, the generator node 808 of the quantized prediction residuals of a subframe that has logarithmic quantized residuals x m + 2 and x m + 3 predictions, the logarithmic quantized residuals x m-1 -x mm of the prediction M of the previous subframes, the decoded power e m-1 of the previous subframe, and the gain coefficient e B the error of the prediction residual as input information, calculates the logarithmic quantized prediction residual of the second subframe based on these pieces of information, and outputs it to the buffer 809. Details of the generation nodes 807 and 808 are quantized sub-frame prediction residuals will be given later in this paper.

Буфер 809 хранит логарифмический квантованный остаток предсказания второго субкадра, выводимый из узла 808 генерации квантованного остатка предсказания субкадра, в течение продолжительности одного субкадра, и выводит этот логарифмический квантованный остаток предсказания второго субкадра на переключатель 810, когда выполняют обработку второго субкадра. Во время обработки второго субкадра, xm-1-xm-M, em-1 и eB обновляют вне узла 704 декодирования остатка предсказания, но обработка не выполняется ни узлом 807 генерации квантованного остатка предсказания субкадра, ни узлом 808 генерации квантованного остатка предсказания субкадра, и вся обработка выполняется во время обработки первого субкадра.The buffer 809 stores the logarithmic quantized prediction residual of the second subframe output from the quantized prediction residual subframe generating unit 808 for the duration of one subframe, and outputs this logarithmic quantized prediction residual of the second subframe to switch 810 when the second subframe is processed. During processing of the second subframe, x m − 1 −x mM , e m − 1, and e B are updated outside the prediction residual decoding section 704, but the processing is not performed by the quantized prediction residual generation section 807 or the quantized subframe prediction residual generation section 808 , and all processing is performed during processing of the first subframe.

Во время обработки первого субкадра переключатель 810 подключают к узлу 807 генерации квантованного остатка предсказания субкадра, и он выводит сгенерированный логарифмический квантованный остаток предсказания первого субкадра в узел 811 вычисления показательной функции, тогда как во время обработки второго субкадра переключатель 810 подключают к буферу 809, и он выводит логарифмический квантованный остаток предсказания второго субкадра, сгенерированную узлом 808 генерации квантованного остатка предсказания субкадра, в узел 811 вычисления показательной функции. Узел 811 вычисления показательной функции вычисляет показательную функцию от логарифмического квантованного остатка, выводимой из переключателя 810, и выводит маскированный остаток предсказания, который является результатом этого вычисления, на переключатель 812.During processing of the first subframe, the switch 810 is connected to the quantized prediction remainder sub-frame generation unit 807, and it outputs the generated logarithmic quantized prediction residual of the first subframe to the exponential function computing unit 811, while during the processing of the second subframe, the switch 810 is connected to the buffer 809, and it outputs the logarithmic quantized prediction residual of the second subframe generated by the quantized prediction residual generation unit 808 to the calculation unit 811 reproductive function. The exponential function calculation unit 811 calculates the exponential function of the logarithmic quantized remainder output from the switch 810, and outputs the masked prediction remainder that is the result of this calculation to the switch 812.

Если код Bn удаления текущего кадра указывает, что «n-й кадр является обычным кадром», то переключатель 812 выбирает квантованный остаток предсказания, выводимый из кодовой книги 801, через переключатель 813. С другой стороны, если код Bn удаления текущего кадра указывает, что «n-й кадр является удаленным кадром», то переключатель 812 дополнительно выбирает квантованный остаток предсказания, который будут выводить, в соответствии с информацией, которую имеет код Bn+1 удаления следующего кадра.If the current frame deletion code B n indicates that “the nth frame is a normal frame”, then the switch 812 selects the quantized prediction residual output from the codebook 801 via the switch 813. On the other hand, if the current frame deletion code B n indicates that “the nth frame is a deleted frame”, the switch 812 further selects a quantized prediction remainder that will be output in accordance with the information that the next frame deletion code B n + 1 has .

Т.е. переключатель 812 выбирает маскированный остаток предсказания, выводимый из узла 805 вычисления показательной функции, если код Bn+1 удаления следующего кадра указывает, что «(n+1)-й кадр является удаленным кадром», и выбирает маскированный остаток предсказания, выводимую из узла 811 вычисления показательной функции, если код Bn+1 удаления следующего кадра указывает, что «(n+1)-й кадр является обычным кадром». Ввод данных на другой вход, кроме выбранного входа, не является необходимым, и поэтому при фактической обработке обычно сначала необходимо определять, какой вход должен быть выбран в переключателе 812, и выполнять обработку для генерации сигнала, который будут выводить на определенный вход.Those. a switch 812 selects a masked prediction residual output from the exponential function calculation node 805 if the next frame deletion code B n + 1 indicates that the “(n + 1) th frame is a deleted frame” and selects a prediction masked residual output from the node 811 calculating an exponential function if the deletion code B n + 1 of the next frame indicates that “the (n + 1) th frame is a normal frame”. Entering data to an input other than the selected input is not necessary, and therefore, in actual processing, it is usually first necessary to determine which input should be selected in the switch 812 and to process it to generate a signal that will be output to a specific input.

Фиг.16 - структурная схема, на которой показывают внутреннюю конфигурацию узла 807 генерации квантованного остатка предсказания субкадра, показанного на фиг.15. Внутренняя конфигурация узла 808 генерации квантованного остатка предсказания субкадра также идентична конфигурации на фиг.16, и только значения весовых коэффициентов отличаются от значений в узле 807 генерации квантованного остатка предсказания субкадра.FIG. 16 is a block diagram showing the internal configuration of a quantized prediction residual generation unit 807 of a subframe shown in FIG. The internal configuration of the quantized prediction residual sub-frame prediction residual generation unit 808 is also identical to the configuration in FIG. 16, and only the values of the weighting coefficients are different from the values in the quantized prediction residual-generation unit 807 of the sub-frame.

Усилители 901-1-901-М умножают вводимые логарифмические квантованные остатки xm-1-xm-M предсказания на весовые коэффициенты β1М, соответственно, и выводят результаты на сумматор 906. Усилитель 902 умножает логарифмический коэффициент em-1 усиления предыдущего субкадра на весовой коэффициент β-1, и выводит результат на сумматор 906. Усилитель 903 умножает логарифмический коэффициент eB усиления погрешности на весовой коэффициент βB, и выводит результат на сумматор 906. Усилитель 904 умножает логарифмический квантованный остаток xm+2 предсказания на весовой коэффициент β00, и выводит результат на сумматор 906. Усилитель 905 умножает логарифмический квантованный остаток xm+3 предсказания на весовой коэффициент β01 и выводит результат на сумматор 906.Amplifiers 901-1-901-M multiply the input logarithmic quantized residuals x m-1 -x mM predictions by the weighting factors β 1M , respectively, and output the results to the adder 906. Amplifier 902 multiplies the logarithmic coefficient e m-1 of the gain of the previous a subframe by a weight coefficient β −1 , and outputs the result to an adder 906. An amplifier 903 multiplies the logarithmic error amplification coefficient e B by a weight factor β B , and outputs the result to an adder 906. An amplifier 904 multiplies the logarithmic quantized remainder x m + 2 predictions by weighting factor β 00 , and outputs the result to adder 906. Amplifier 905 multiplies the logarithmic quantized prediction remainder x m + 3 by weighting factor β 01 and outputs the result to adder 906.

Сумматор 906 вычисляет общую сумму логарифмических квантованных остатков предсказания, выводимых из усилителей 901-1-901-М, усилителя 902, усилителя 903, усилителя 904 и усилителя 905, и выводит результат этого вычисления на переключатель 810.Adder 906 calculates the total sum of the logarithmic quantized prediction residues output from amplifiers 901-1-901-M, amplifier 902, amplifier 903, amplifier 904, and amplifier 905, and outputs the result of this calculation to switch 810.

Ниже показан примерный способ определения весового коэффициента β в данном варианте осуществления. Как уже указано, в случае рекомендации ITU-T G.729, квантование коэффициента усиления - обработка субкадра, а один кадр состоит из двух субкадров, и поэтому удаление одного кадра - удаление пачки из двух последовательных субкадров. Поэтому, набор весовых коэффициентов β нельзя определять посредством способа, описанного в варианте осуществления 3. Таким образом, в данном варианте осуществления находят xm и xm+1, которые минимизируют D в приведенном ниже Уравнении (6).The following shows an exemplary method for determining the weight coefficient β in this embodiment. As already indicated, in the case of ITU-T G.729 recommendation, gain quantization is processing a subframe, and one frame consists of two subframes, and therefore deleting one frame is removing a burst of two consecutive subframes. Therefore, the set of weights β cannot be determined by the method described in Embodiment 3. Thus, in this embodiment, x m and x m + 1 are found that minimize D in Equation (6) below.

Figure 00000006
Figure 00000006

В данном случае для примера описан случай, в котором один кадр состоит из двух субкадров, как в рекомендации ITU-T G.729, и коэффициент предсказания МА - только одного вида. В УравненииIn this case, for example, a case is described in which one frame consists of two subframes, as in ITU-T G.729, and the MA prediction coefficient is of only one kind. In Equation

(б) ym-1, ym, ym+1, ym+2, ym+3, xm, xm+1, xm+2, xm+3, xB и αi являются следующими.(b) y m-1 , y m , y m + 1 , y m + 2 , y m + 3 , x m , x m + 1 , x m + 2 , x m + 3 , x B and α i are following.

ym-1: декодированный логарифмический коэффициент усиления второго субкадра предыдущего кадра.y m-1 : decoded logarithmic gain of the second subframe of the previous frame.

ym: декодированный логарифмический коэффициент усиления первого субкадра текущего кадра.y m : decoded logarithmic gain of the first subframe of the current frame.

ym+1: декодированный логарифмический коэффициент усиления второго субкадра текущего кадра.y m + 1 : decoded logarithmic gain of the second subframe of the current frame.

ym+2: декодированный логарифмический коэффициент усиления первого субкадра следующего кадра.y m + 2 : decoded logarithmic gain of the first subframe of the next frame.

ym+3: декодированный логарифмический коэффициент усиления второго субкадра следующего кадра.y m + 3 : decoded logarithmic gain of the second subframe of the next frame.

xm: логарифмический квантованный остаток предсказания первого субкадра текущего кадра.x m : logarithmic quantized prediction remainder of the first subframe of the current frame.

xm+1: логарифмический квантованный остаток предсказания второго субкадра текущего кадра.x m + 1 : logarithmic quantized prediction remainder of the second subframe of the current frame.

xm+2: логарифмический квантованный остаток предсказания первого субкадра следующего кадра.x m + 2 : logarithmic quantized prediction remainder of the first subframe of the next frame.

xm+3: логарифмический квантованный остаток предсказания второго субкадра следующего кадра.x m + 3 : logarithmic quantized prediction remainder of the second subframe of the next frame.

xB: логарифмический коэффициент усиления погрешности.x B : logarithmic error gain.

αi: коэффициент предсказания MA i-го порядка.α i : i-th order prediction coefficient MA.

Определяя xm и xm+1 с помощью уравнения, полученного с помощью частичного дифференцирования Уравнения (6), чтобы xm было равно 0, и уравнения, полученного с помощью частичного дифференцирования Уравнения (6), чтобы xm+1 было равно 0, как систему уравнений, получают Уравнение (7) и Уравнение (8). Поскольку β00, β01, β1M, β-1, βB, β′00, β′01, β′1-β′M, β′-1 и β′B находят из α0M, то их определяют однозначно.Determining x m and x m + 1 using the equation obtained by partial differentiation of Equation (6) so that x m is 0, and the equation obtained by partial differentiation of Equation (6) so that x m + 1 is 0 as a system of equations, we obtain Equation (7) and Equation (8). Since β 00 , β 01 , β 1M , β -1 , β B , β ′ 00 , β ′ 01 , β ′ 1 -β ′ M , β ′ -1 and β ′ B are found from α 0M , then they are uniquely determined.

Figure 00000007
Figure 00000007

Figure 00000008
Figure 00000008

Таким образом, когда следующий кадр принимают обычным образом, обработку маскирования логарифмического квантованного остатка предсказания текущего кадра выполняют посредством обработки взвешенного суммирования, в частности, для обработки маскирования, используя логарифмический квантованный остаток предсказания, принятый в прошлом, и логарифмический квантованный остаток предсказания следующего кадра, и декодирование параметра коэффициента усиления выполняют, используя маскированный логарифмический квантованный остаток предсказания, давая возможность обеспечивать более высокую эффективность маскирования, чем при использовании декодированного предыдущего параметра коэффициента усиления после монотонного затухания.Thus, when the next frame is received in the usual way, the masking processing of the logarithmic quantized prediction residual of the current frame is performed by weighted summing processing, in particular, for masking processing using the logarithmic quantized prediction residual received in the past and the logarithmic quantized prediction residual of the next frame, and gain parameter decoding is performed using masked logarithmic quantized prediscal remainder anija, enabling to provide higher efficiency masking than using the decoded parameter of the previous gain after monotonic decay.

Кроме того, при использовании набора весовых коэффициентов Уравнения (7) и Уравнения (8), который минимизирует Уравнение (6), параметры декодированного логарифмического коэффициента усиления удаленного кадра (два субкадра) и обычного кадра (два субкадра), который является следующим кадром (два субкадра) после удаленного кадра, как гарантируют, не будут очень сильно отличаться от параметра логарифмического коэффициента усиления кадра, предшествующего удаленному кадру. Следовательно, даже если параметр декодированного логарифмического коэффициента усиления следующего кадра (два субкадра) не известен, принимаемую информацию (логарифмический квантованный остаток предсказания) следующего кадра (два субкадра) можно продолжать использовать эффективно, и риск маскирования, выполняемого в неправильном направлении (риск сильного отличия от правильного параметра декодированного коэффициента усиления), можно сохранять минимальным.In addition, when using the set of weighting coefficients of Equations (7) and Equations (8), which minimizes Equation (6), the parameters of the decoded logarithmic gain of a remote frame (two subframes) and a conventional frame (two subframes), which is the next frame (two subframe) after the deleted frame is guaranteed to not be very different from the logarithmic gain parameter of the frame preceding the deleted frame. Therefore, even if the parameter of the decoded logarithmic gain of the next frame (two subframes) is not known, the received information (logarithmic quantized prediction residual) of the next frame (two subframes) can continue to be used efficiently, and the risk of masking performed in the wrong direction (risk of strong difference from correct decoded gain parameter), can be kept to a minimum.

(Вариант осуществления 5)(Embodiment 5)

Фиг.17 - структурная схема, на которой показывают основную конфигурацию устройства кодирования речи согласно варианту осуществления 5 настоящего изобретения. Фиг.17 показывает пример кодирования информации En+1 типа маскирования для определения набора весовых коэффициентов посредством второго способа, описанного в варианте осуществления 3 - т.е. способа, посредством которого информацию типа маскирования (n-1)-го кадра представляют с помощью одного бита, используя информацию типа коэффициента предсказания МА n-го кадра.17 is a block diagram showing a basic configuration of a speech encoding apparatus according to Embodiment 5 of the present invention. FIG. 17 shows an example of encoding masking type information E n + 1 for determining a set of weights by the second method described in Embodiment 3 — that is, a method by which information of the masking type of the (n-1) th frame is represented with one bit using information of the type of the prediction coefficient MA of the n-th frame.

В данном случае узел 1003 маскирования КЛП предыдущего кадра находит ЧСЛ маскирования (n-1)-го кадра, как описано с использованием фиг.13, посредством взвешенной суммы декодированного квантованного остатка предсказания текущего кадра и декодированных квантованных остатков предсказания на два кадра раньше - на М+1 кадров раньше. Принимая во внимание, что на фиг.13 ЧСЛ маскирования n-го кадра находят, используя информацию кодирования (n+1)-го кадра, в данном случае ЧСЛ маскирования (n-1)-го кадра находят, используя информацию кодирования n-го кадра, и поэтому соответствующая зависимость является зависимостью смещения на один кадр. Т.е. комбинации αi{j) и α′i(j) ограничены двумя из четырех с помощью кода коэффициента предсказания МА n-го кадра (=текущего кадра) (т.е., когда тип предсказания МА n-го кадра - тип 0, комбинация типов предсказания МА (n-1)-го кадра и n-го кадра - или (0-0), или (0-1), и поэтому наборы весовых коэффициентов β ограничены двумя видами), и узел 1003 маскирования КЛП предыдущего кадра производит два вида ЧСЛ маскирования - ω0n(j) и ω1n(j) - используя эти два вида наборов весовых коэффициентов β.In this case, the LPC masking unit 1003 of the previous frame finds the masking LSL of the (n-1) -th frame, as described using FIG. 13, by the weighted sum of the decoded quantized prediction residual of the current frame and the decoded quantized prediction residues two frames earlier, by M +1 frames before. Whereas in FIG. 13, the masking LSL of the nth frame is found using the encoding information of the (n + 1) th frame, in this case the masking LSL of the (n-1) th frame is found using the encoding information of the nth frame, and therefore the corresponding dependence is the dependence of the displacement by one frame. Those. the combinations α i {j) and α ′ i (j) are limited to two out of four using the code of the prediction coefficient MA of the nth frame (= the current frame) (i.e., when the prediction type MA of the nth frame is type 0, a combination of the prediction types of the MA of the (n-1) th frame and the n-th frame - either (0-0), or (0-1), and therefore the sets of weighting factors β are limited to two types), and the LPC masking unit 1003 of the previous frame produces two types of CLS masking - ω0 n (j) and ω1 n (j) - using these two types of sets of weighting factors β.

Блок 1004 определения типа маскирования выполняет определение типа, основываясь на том, что из ω0n(j) и ω1n(j) находится ближе к вводимому параметру ЧСЛ ωn(j). Относительное расстояние ω0n(j) и ω1n(j) от ωn(j) можно определять, основываясь на простом евклидовом расстоянии, или основываясь на взвешенном евклидовом расстоянии, например, как используется при квантовании ЧСЛ рекомендации ITU-T G.729.The masking type determination unit 1004 performs type determination based on the fact that from ω0 n (j) and ω1 n (j) is closer to the input parameter LSL ω n (j) . The relative distances ω0 n (j) and ω1 n (j) from ω n (j) can be determined based on a simple Euclidean distance, or based on a weighted Euclidean distance, for example, as used in quantizing the LSL of ITU-T G.729.

Далее будет описана работа каждого узла устройства кодирования речи, показанного на фиг.17.Next, the operation of each node of the speech encoding device shown in FIG. 17 will be described.

Входной сигнал sn вводят в узел 1001 анализа КЛП, узел 1006 вычисления целевого вектора и узел 1013 обновления состояния фильтра.The input signal s n is input to the LPC analysis unit 1001, the target vector calculation unit 1006, and the filter state update unit 1013.

Узел 1001 анализа КЛП выполняет уже известный анализ линейного предсказания входного сигнала sn и выводит коэффициенты aj линейного предсказания (j=0-M, где М является порядком анализа линейного предсказания; а0=1, 0) в узел 1005 вычисления импульсной характеристики, в узел 1006 вычисления целевого вектора и в узел 1002 кодирования КЛП. Кроме того, узел 1001 анализа КЛП преобразовывает коэффициенты aj линейного предсказания в параметры ωn(j) ЧСЛ и выводит их в блок 1004 определения типа маскирования.The LPC analysis node 1001 performs the already known linear prediction analysis of the input signal s n and outputs the linear prediction coefficients a j (j = 0-M, where M is the order of the linear prediction analysis; and 0 = 1, 0) to the impulse response calculation node 1005, to the target vector calculation node 1006 and to the LPC encoding node 1002. In addition, the LPC analysis unit 1001 converts the linear prediction coefficients a j into the LSL parameters ω n (j) and outputs them to the masking type determination unit 1004.

Узел 1002 кодирования КЛП выполняет квантование и кодирование вводимых КЛП (коэффициентов линейного предсказания), и выводит квантованные коэффициенты a′j линейного предсказания в узел 1005 вычисления импульсной характеристики, узел 1006 вычисления целевого вектора и узел 1011 фильтра синтеза. В этом примере квантование КЛП и кодирование выполняют в области параметра ЧСЛ. Кроме того, узел 1002 кодирования КЛП выводит результат Ln кодирования КЛП в узел 1014 мультиплексирования, и выводит квантованный остаток xn предсказания, декодированный квантованный параметр ω′n(j) ЧСЛ и тип Kn квантования с предсказанием МА в узел 1003 маскирования КЛП предыдущего кадра.The LPC encoding section 1002 quantizes and encrypts the input LPCs (linear prediction coefficients), and outputs the quantized linear prediction coefficients a ′ j to the impulse response calculation section 1005, the target vector calculation section 1006, and the synthesis filter section 1011. In this example, LPC quantization and coding are performed in the region of the NUM parameter. In addition, the LPC encoding section 1002 outputs the LPC encoding result L n to the multiplexing section 1014, and outputs the quantized prediction remainder x n , the decoded quantized LSN parameter ω ′ n (j) and the MA prediction quantization type K n to the previous LPC masking section 1003 frame.

Узел 1003 маскирования КЛП предыдущего кадра хранит декодированный квантованный параметр ω′n(j) ЧСЛ n-го кадра, выводимый из узла 1002 кодирования КЛП, в буфере в течение продолжительности двух кадров. Декодированный квантованный параметр ЧСЛ на два кадра раньше -ω′n-2(j). Кроме того, узел 1003 маскирования КЛП предыдущего кадра хранит декодированный квантованный остаток xn предсказания n-го кадра в течение продолжительности М+1 кадров. Кроме того, узел 1003 маскирования КЛП предыдущего кадра производит декодированные квантованные параметры ω0n(j) и ω1n(j) ЧСЛ (n-1)-го кадра посредством взвешенного суммирования квантованного остатка xn предсказания, декодированного квантованного параметра ω′n-2(j) ЧСЛ на два кадра раньше, и декодированных квантованных остатков xn-2-xn-M-1 предсказания на два кадра раньше - на М+1 кадров раньше, и выводит результат в блок 1004 определения типа маскирования. В данном случае узел 1003 маскирования КЛП предыдущего кадра обеспечивают четырьмя видами наборов весовых коэффициентов, когда находят взвешенную сумму, но два из этих четырех видов выбирают согласно тому, равна ли информация Kn типа квантования с предсказанием МА, вводимая из узла 1002 кодирования КЛП, 0 или 1, и используют для генерации ω0n(j) и ω1n(j).Node masking LPC 1003 stores the previous frame decoded quantized parameter ω 'n (j) CHSL n-th frame outputted from LPC encoding unit 1002, a buffer for the duration of two frames. The decoded quantized parameter of the PSL is two frames earlier than -ω ′ n-2 (j) . In addition, the LPC masking unit 1003 of the previous frame stores the decoded quantized prediction residual x n of the nth frame for a duration of M + 1 frames. In addition, the LPC masking unit 1003 of the previous frame produces decoded quantized parameters ω0 n (j) and ω1 n (j) of the (n-1) -th frame number by weighted summation of the quantized prediction residual x n decoded the quantized parameter ω ′ n-2 (j) the LSL two frames earlier, and the decoded quantized residuals x n-2 -x nM-1 predictions two frames earlier — M + 1 frames earlier, and outputs the result to masking type determination unit 1004. In this case, the LPC masking unit 1003 of the previous frame provides four types of sets of weights when a weighted sum is found, but two of these four types are selected according to whether the information K n of the predicted quantization type MA entered from the LPC encoding unit 1002 is 0 or 1, and used to generate ω0 n (j) and ω1 n (j) .

Блок 1004 определения типа маскирования определяет, какой из двух параметров ω0n(j) и ω1n(j) маскирования ЧСЛ, выводимых из узла 1003 маскирования КЛП предыдущего кадра, ближе к неквантованному параметру ωn(j) ЧСЛ, выводимому из узла 1001 анализа КЛП, и выводит код En, соответствующий набору весовых коэффициентов, с помощью которого создают более близкий маскированный параметр ЧСЛ, в узел 1014 мультиплексирования.Unit 1004 determine the type of concealment specifies which of the two parameters ω0 n (j) and ω1 n (j) masking CHSL output from node 1003 concealment LPC previous frame closer to the unquantized parameter ω n (j) CHSL output from node 1001 Analysis KLP, and outputs the code E n corresponding to the set of weights, with the help of which they create a closer masked parameter LSL, in the node 1014 multiplexing.

Узел 1005 вычисления импульсной характеристики создает перцепционно взвешенную импульсную характеристику h фильтра синтеза, используя неквантованные коэффициенты aj линейного предсказания, выводимые из узла 1001 анализа КЛП, и квантованные коэффициенты a′j линейного предсказания, выводимые из узла 1002 кодирования КЛП, и выводит их в узел 1007 кодирования ВАКК и в узел 1008 кодирование ВПКК.The impulse response calculation unit 1005 creates a perceptually weighted impulse response h of the synthesis filter using the non-quantized linear prediction coefficients a j derived from the LPC analysis node 1001 and the quantized linear prediction coefficients a ′ j output from the LPC encoding node 1002 and outputs them to the node 1007 encoding the HACC and to node 1008 encoding the HACC.

Узел 1006 вычисления целевого вектора вычисляет целевой вектор О (сигнал, в котором характеристику при отсутствии входного сигнала перцепционно взвешенного фильтра синтеза вычитают из сигнала, следующего из применения перцепционно взвешенного фильтра к входному сигналу) из входного сигнала sn, неквантованных коэффициентов aj линейного предсказания, выводимых из узла 1001 анализа КЛП, и квантованных коэффициентов a′j линейного предсказания, выводимых из узла 1002 кодирования КЛП, и выводит их в узел 1007 кодирования ВАКК, в узел 1009 кодирования коэффициента усиления и в узел 1012 обновления состояния фильтра.The target vector calculating unit 1006 calculates the target vector O (a signal in which the characteristic in the absence of an input signal of a perceptually weighted synthesis filter is subtracted from a signal resulting from applying the perceptually weighted filter to an input signal) from an input signal s n , non- quantized linear prediction coefficients a j , output from the LPC analysis unit 1001, and the quantized coefficients a 'j a linear prediction output from LPC encoding unit 1002, and outputs them to the coding unit 1007 Vacca, a coding unit 1009 oeffitsienta gain in unit 1012 updates the filter status.

Узел 1007 кодирования ВАКК, который имеет целевой вектор ○ из узла 1006 вычисления целевого вектора, импульсную характеристику h перцепционно взвешенного фильтра синтеза из узла 1005 вычисления импульсной характеристики и сигнал ех возбуждения из узла 1010 генерации возбуждения в качестве вводимой информации, выполняет поиск в адаптивной кодовой книге и выводит результирующий код An адаптивной кодовой книги в узел 1014 мультиплексирования, квантованный период Т основного тона - в узел 1008 кодирования ВПКК, вектор v AKK - в узел 1010 генерации возбуждения, составную часть р фильтрованного вектора АКК, для вычисления которой свертку импульсной характеристики h перцепционно взвешенного фильтра синтеза выполняют для вектора v АКК - в узел 1012 обновления состояния фильтра и в узел 1009 кодирования коэффициента усиления, и целевой вектор ○′, обновленный для поиска в постоянной кодовой книге, используется для узла 1008 кодирования ВПКК. Более конкретно способ поиска подобен способу, описанному в рекомендации ITU-T G.729 и т.д. Хотя опущено на фиг.17, обычно количество вычислений, необходимых для поиска в адаптивной кодовой книги, не увеличивается при определении диапазона, в котором поиск частоты основного тона с обратной связью выполняют посредством поиска частоты основного тона без обратной связи или подобного поиска.The VACC coding unit 1007, which has the target vector ○ from the target vector calculation unit 1006, the impulse response h of a perceptually weighted synthesis filter from the impulse response calculation unit 1005 and the excitation signal ex excitation from the excitation generation unit 1010 as input information, searches the adaptive codebook and outputs the resultant adaptive codebook code A n to the multiplexing unit 1014, the quantized pitch period T to the CKPK coding unit 1008, the vector v AKK to the generation unit 1010 is excited ia, the component p of the filtered ACC vector, to calculate which the convolution of the impulse response h of the perceptually weighted synthesis filter is performed for the vector v ACC - to the filter state update unit 1012 and the gain encoding unit 1009, and the target vector ○ ′ updated to search in Permanent codebook, used for the CCPK coding unit 1008. More specifically, the search method is similar to the method described in ITU-T G.729, etc. Although omitted in FIG. 17, typically the amount of computation required to search in the adaptive codebook does not increase in determining the range in which the pitch search with feedback is performed by searching for the pitch frequency without feedback or the like.

Узел 1008 кодирования ВПКК, который имеет целевой вектор ○′ постоянной кодовой книги и квантованный период Т основного тона в качестве вводимой информации из узла 1007 кодирования ВАКК, и импульсную характеристику h перцепционно взвешенного фильтра синтеза в качестве вводимой информации из узла 1005 вычисления импульсной характеристики, выполняет поиск в постоянной кодовой книге посредством способа, который описан, например, в рекомендации ITU-T G.729, и выводит код Fn постоянной кодовой книги в узел 1014 мультиплексирования, вектор u ПКК - в узел 1010 генерации возбуждения, и составную часть q фильтрованного вектора ПКК, полученную с помощью свертки импульсной характеристики перцепционно взвешенного фильтра синтеза для вектора u ПКК, - в узел 1012 обновления состояния фильтра и узел 1009 кодирования коэффициента усиления.The CKP coding unit 1008, which has the target constant codebook vector ○ ′ and the quantized pitch period T as input from the VAKK coding unit 1007, and the impulse response h of a perceptually weighted synthesis filter as input from the impulse response computing unit 1005, performs search in the constant codebook using the method described, for example, in ITU-T Recommendation G.729, and outputs the code F n of the constant codebook to multiplexing unit 1014, the PAC vector u to node 1010 excitation generation, and component q of the filtered GAC vector, obtained by convolution of the impulse response of a perceptually weighted synthesis filter for the GAC vector u, to filter state updating unit 1012 and gain coefficient encoding unit 1009.

Узел 1009 кодирования коэффициента усиления, который имеет целевой вектор ο в качестве вводимой информации из узла 1006 вычисления целевого вектора, составную часть р фильтрованного вектора АКК в качестве вводимой информации из узла 1007 кодирования ВАКК и составную часть q фильтрованного вектора ПКК в качестве вводимой информации из узла 1008 кодирования ВПКК, выводит пару ga и gf, для которой значение |○-(ga×p+gf×q|2 становится минимальным, в узел 1010 генерации возбуждения, как квантованный коэффициент усиления адаптивной кодовой книги и квантованный коэффициент усиления постоянной кодовой книги.The gain coding unit 1009, which has the target vector ο as input from the target vector computing unit 1006, the p component of the ACC filtered vector as input from the HACC coding unit 1007, and the q component of the filtered PAC vector as input from the node VPKK coding 1008, outputs a pair of ga and gf for which the value | ○ - (ga × p + gf × q | 2 becomes minimal, to the excitation generation unit 1010, as a quantized adaptive codebook gain and quantized th constant codebook gain.

Узел 1010 генерации возбуждения, который имеет вектор v адаптивной кодовой книги в качестве вводимой информации из узла 1007 кодирования ВАКК, вектор u постоянной кодовой книги в качестве вводимой информации из узла 1008 кодирования ВПКК, вектор ga усиления адаптивной кодовой книги и вектор gf усиления постоянной кодовой книги в качестве вводимой информации из узла 1009 кодирования усиления, вычисляет вектор ех возбуждения как ga×v+gf×u, и выводит его в узел 1007 кодирования ВАКК и узел 1011 фильтра синтеза. Вектор ех возбуждения, выводимый в узел 1007 кодирования ВАКК, используется для обновления АСВ (буфера генерированного в прошлом вектора возбуждения) в узле кодирования ВАКК.The excitation generation unit 1010, which has the adaptive codebook vector v as input information from the HACC coding unit 1007, the constant codebook vector u as input information from the HCC coding unit 1008, the adaptive codebook gain vector ga and the constant codebook gain vector gf as input from the gain coding unit 1009, computes the excitation vector ex ga × v + gf × u, and outputs it to the HACC coding unit 1007 and the synthesis filter unit 1011. The excitation vector e x output to the VACC coding unit 1007 is used to update the ACB (buffer of the excitation vector generated in the past) in the VACC coding unit.

Узел 1011 фильтра синтеза управляет фильтром линейного предсказания, сконфигурированным посредством квантованных коэффициентов a′j линейного предсказания, выводимых из узла 1002 кодирования КЛП посредством вектора ех возбуждения, выводимого из узла 1010 генерации возбуждения, производит локально декодированный речевой сигнал s′n, и выводит его в узел 1013 обновления состояния фильтра.The synthesis filter unit 1011 controls a linear prediction filter configured by quantized linear prediction coefficients a ′ j output from the LPC coding unit 1002 by an excitation vector exited from the excitation generation unit 1010, produces a locally decoded speech signal s ′ n , and outputs it to filter status update node 1013.

Узел 1012 обновления состояния фильтра, который имеет синтезированный вектор р адаптивной кодовой книги в качестве вводимой информации из узла 1007 кодирования ВАКК, синтезированный вектор q постоянной кодовой книги в качестве вводимой информации из узла 1008 кодирования ВПКК и целевой вектор ○ в качестве вводимой информации из узла 1006 вычисления целевого вектора, генерирует состояние перцепционно взвешенного фильтра в узле 1006 вычисления целевого вектора и выводит его в узел 1006 вычисления целевого вектора.The filter state updating unit 1012, which has the synthesized adaptive codebook vector p as input from the HACC coding unit 1007, the synthesized constant codebook vector q as input from the HCC coding unit 1008 and the target vector ○ as input from the node 1006 computing the target vector, generates a state of a perceptually weighted filter in the node 1006 calculating the target vector and outputs it to the node 1006 calculating the target vector.

Узел 1013 обновления состояния фильтра вычисляет остаток между локально декодированным речевым сигналом s′n, вводимым из узла 1011 фильтра синтеза, и входным сигналом sn, и выводит его в узел 1006 вычисления целевого вектора, как состояние фильтра синтеза в узле 1006 вычисления целевого вектора.The filter state update section 1013 computes the remainder between the locally decoded speech signal s ′ n input from the synthesis filter section 1011 and the input signal s n and outputs it to the target vector calculation section 1006 as the synthesis filter state in the target vector calculation section 1006.

Узел 1014 мультиплексирования выводит кодированную информацию, в которой мультиплексируют коды Fn, Gn, Ln и В.The multiplexing unit 1014 outputs encoded information in which the codes F n , G n , L n, and B are multiplexed.

В данном варианте осуществления показан пример, в котором остаток, относящийся к неквантованному параметру ЧСЛ, вычисляют только для декодированного квантованного параметра ЧСЛ (n-1)-го кадра, но можно также обеспечивать, чтобы тип маскирования определяли, рассматривая остаток между декодированным квантованным параметром ЧСЛ n-го кадра и неквантованным параметром ЧСЛ n-го кадра.In this embodiment, an example is shown in which the remainder related to the non-quantized parameter LSN is calculated only for the decoded quantized parameter LSN of the (n-1) -th frame, but it can also be ensured that the type of masking is determined by considering the remainder between the decoded quantized parameter LSL of the nth frame and the non-quantized parameter of the nth of the nth frame.

Таким образом, согласно устройству кодирования речи данного варианта осуществления, оптимальный набор весовых коэффициентов обработки маскирования идентифицируют для обработки маскирования для устройства декодирования речи варианта осуществления 3, и эту информацию передают на сторону декодера, предоставляя возможность обеспечивать более высокую эффективность маскирования и улучшение качества декодирования речевого сигнала на стороне декодера.Thus, according to the speech encoding apparatus of this embodiment, the optimal set of masking processing weights is identified for masking processing for the speech decoding apparatus of Embodiment 3, and this information is transmitted to the decoder side, making it possible to provide higher masking efficiency and improved decoding quality of the speech signal on the side of the decoder.

(Вариант осуществления 6)(Embodiment 6)

Фиг.18 - структурная схема, на которой показывают конфигурацию устройства передачи речевого сигнала и устройство приема речевого сигнала, которые формируют систему передачи речевого сигнала согласно варианту осуществления 6 настоящего изобретения. Единственное отличие от обычной системы - то, что устройство кодирования речи варианта осуществления 5 применяют к устройству передачи речевого сигнала, и устройство декодирования речи любого из вариантов осуществления 1-3 применяют к устройству приема речевого сигнала.FIG. 18 is a block diagram showing a configuration of a voice transmission apparatus and a speech reception apparatus that form a speech transmission system according to Embodiment 6 of the present invention. The only difference from the conventional system is that the speech encoding device of Embodiment 5 is applied to the speech signal transmission device, and the speech decoding device of any of embodiments 1-3 is applied to the speech signal receiving device.

Устройство 1100 передачи речевого сигнала имеет устройство 1101 ввода информации, устройство 1102 А/Ц преобразования, устройство 1103 кодирования речи, устройство 1104 обработки сигналов, устройство 1105 РЧ модуляции, передающее устройство 1106 и антенну 1107.The speech signal transmission device 1100 has an information input device 1101, an A / D conversion device 1102, a speech encoding device 1103, a signal processing device 1104, an RF modulation device 1105, a transmitting device 1106, and an antenna 1107.

Вход устройства 1102 А/Ц преобразования подключают к устройству 1101 ввода информации. Вход устройства 1103 кодирования речи подключают к выходу устройства 1102 А/Ц преобразования. Вход устройства 1104 обработки сигналов подключают к выходу устройства 1103 кодирования речи. Вход устройства 1105 РЧ модуляции подключают к выходу устройства 1104 обработки сигналов. Вход передающего устройства 1106 подключают к выходу устройства 1105 РЧ модуляции. Антенну 1107 подключают к выходу передающего устройства 1106.The input of the A / D conversion device 1102 is connected to the information input device 1101. The input of the speech encoding device 1103 is connected to the output of the A / D conversion device 1102. The input of the signal processing device 1104 is connected to the output of the speech encoding device 1103. The input of the RF modulation device 1105 is connected to the output of the signal processing device 1104. The input of the transmitting device 1106 is connected to the output of the RF modulation device 1105. The antenna 1107 is connected to the output of the transmitting device 1106.

Устройство 1101 ввода информации принимает речевой сигнал, преобразовывает его в аналоговый речевой сигнал, который является электрическим сигналом, и обеспечивает этот сигнал на устройство 1102 А/Ц преобразования. Устройство 1102 А/Ц преобразования преобразовывает аналоговый речевой сигнал из устройства 1101 ввода информации в речевой сигнал в цифровой форме, и обеспечивает этот сигнал к устройству 1103 кодирования речи. Устройство 1103 кодирования речи кодирует речевой сигнал в цифровой форме от устройства 1102 А/Ц преобразования и производит речевой кодированный поток двоичных сигналов, и обеспечивает этот поток двоичных сигналов на устройство 1104 обработки сигналов. Устройство 1104 обработки сигналов выполняет обработку канального кодирования, обработку пакетирования, обработку буферизации передачи и т.д. речевого кодированного потока двоичных сигналов от устройства 1103 кодирования речи, и затем обеспечивает этот речевой кодированный поток двоичных сигналов на устройство 1105 РЧ модуляции. Устройство 1105 РЧ модуляции модулирует речевой кодированный сигнал потока двоичных сигналов от устройства 1104 обработки сигналов, в котором выполняют обработку канального кодирования и т.д., и обеспечивает сигнал к передающему устройству 1106. Передающее устройство 1106 передает модулированный речевой кодированный поток двоичных сигналов от устройства 1105 РЧ модуляции как радиоволну (РЧ сигнал) через антенну 1107.The information input device 1101 receives a speech signal, converts it into an analog speech signal, which is an electrical signal, and provides this signal to an A / D conversion device 1102. An A / D conversion device 1102 converts an analog speech signal from an information input device 1101 to a digital speech signal, and provides this signal to a speech encoding device 1103. The speech encoding device 1103 encodes the speech signal digitally from the A / D conversion device 1102 and produces a speech encoded binary signal stream, and provides this binary signal stream to the signal processing device 1104. The signal processing device 1104 performs channel coding processing, packetization processing, transmission buffering processing, etc. a speech encoded binary signal stream from a speech encoding device 1103, and then provides this speech encoded binary signal stream to an RF modulation device 1105. The RF modulation device 1105 modulates the speech encoded binary stream of the signal from the signal processing device 1104, in which channel coding processing, etc., is performed and provides a signal to the transmitter 1106. The transmitter 1106 transmits a modulated speech encoded binary signal from the device 1105 RF modulation as a radio wave (RF signal) through an antenna 1107.

В устройстве 1100 передачи речевого сигнала выполняют обработку речевого сигнала в цифровой форме, полученного через устройство 1102 А/Ц преобразования, в блоках кадра продолжительностью несколько десятков миллисекунд (мс). Если сеть, которая формирует систему, является сетью с коммутацией пакетов, то один кадр или несколько кадров кодированных данных помещают в один пакет, и этот пакет передают к пакетной сети. Если сеть является сетью с коммутацией каналов, то обработка пакетирования и обработка буферизации передачи не требуются.In the device 1100 for transmitting a speech signal, the digital signal received through the device 1102 A / D conversion is processed in blocks of a frame with a duration of several tens of milliseconds (ms). If the network that forms the system is a packet-switched network, then one frame or several frames of encoded data are placed in one packet, and this packet is transmitted to the packet network. If the network is a circuit-switched network, packetization processing and transmission buffering processing are not required.

Устройство 1150 приема речевого сигнала имеет антенну 1151, приемное устройство 1152, устройство 1153 РЧ демодуляции, устройство 1154 обработки сигналов, устройство 1155 декодирования речи, устройство 1156 Ц/А преобразования и устройство 1157 вывода информации.The speech signal receiving device 1150 has an antenna 1151, a receiving device 1152, an RF demodulation device 1153, a signal processing device 1154, a speech decoding device 1155, a D / A conversion device 1156, and an information output device 1157.

Вход приемного устройства 1152 подключают к антенне 1151. Вход устройства 1153 РЧ демодуляции подключают к выходу приемного устройства 1152. Два входа устройства 1154 обработки сигналов подключают к двум выходам устройства 1153 РЧ демодуляции. Два входа устройства 1155 декодирования речи подключают к двум выходам устройства 1154 обработки сигналов. Вход устройства 1156 Ц/А преобразования подключают к выходу устройства 1155 декодирования речи. Вход устройства 1157 вывода информации подключают к выходу устройства 1156 Ц/А преобразования.The input of the receiving device 1152 is connected to the antenna 1151. The input of the device 1153 RF demodulation is connected to the output of the receiving device 1152. Two inputs of the device 1154 signal processing are connected to the two outputs of the device 1153 RF demodulation. Two inputs of speech decoding device 1155 are connected to two outputs of signal processing device 1154. The input of the D / A conversion device 1156 is connected to the output of the speech decoding device 1155. The input of the information output device 1157 is connected to the output of the D / A conversion device 1156.

Приемное устройство 1152 принимает радиоволну (РЧ сигнал), которая включает в себя речевую кодированную информацию, через антенну 1151 и производит кодированный сигнал принятой речи, который является аналоговым электрическим сигналом, и обеспечивает этот сигнал на устройство 1153 РЧ демодуляции. Если нет ослабления сигнала или наложения шума по маршруту передачи, то радиоволна (РЧ сигнал), принятая через антенну, является точно такой же, как радиоволна (РЧ сигнал), передаваемая устройством передачи речевого сигнала.A receiving device 1152 receives a radio wave (RF signal), which includes speech encoded information, through an antenna 1151 and produces a coded received speech signal, which is an analog electrical signal, and provides this signal to an RF demodulation device 1153. If there is no signal attenuation or noise over the transmission path, then the radio wave (RF signal) received through the antenna is exactly the same as the radio wave (RF signal) transmitted by the voice signal transmitting device.

Устройство 1153 РЧ демодуляции демодулирует принятый из приемного устройства 1152 кодированный речевой сигнал и обеспечивает этот сигнал на устройство 1154 обработки сигналов. Устройство 1153 РЧ демодуляции также отдельно обеспечивает устройство 1154 обработки сигналов информацией о том, можно или нет демодулировать принятый кодированный речевой сигнал обычным образом. Устройство 1154 обработки сигналов выполняет обработку буферизации для ослабления дрожания фазы, обработку сборки пакетов, обработку канального декодирования и т.д., принятого от устройства 1153 РЧ демодуляции кодированного речевого сигнала, и обеспечивает принятый речевой кодированный поток двоичных сигналов к устройству 1155 декодирования речи. Кроме того, информацию о том, можно или нет демодулировать принятый кодированный речевой сигнал обычным образом, вводят из устройства 1153 РЧ демодуляции, и если вводимая от устройства 1153 РЧ демодуляции информация указывает, что «демодуляцию нельзя выполнять обычным образом», или если обработку сборки пакетов или подобную обработку в устройстве обработки сигналов нельзя выполнять обычным образом и кодированный поток двоичных сигналов принятой речи нельзя декодировать обычным образом, то появление удаленного кадра передают к устройству 1155 декодирования речи как информацию удаления кадра. Устройство 1155 декодирования речи выполняет обработку декодирования принятого из устройства 1154 обработки сигналов речевого кодированного потока двоичных сигналов и производит декодированный речевой сигнал, и обеспечивает этот сигнал на устройство 1156 Ц/А преобразования. Устройство 1155 декодирования речи определяет, следует ли выполнять обработку декодирования обычным образом или выполнять обработку декодирования посредством обработки маскирования удаления кадра в соответствии с информацией удаления кадра, вводимой параллельно с принятой речевой кодированной строкой битов. Устройство 1156 Ц/А преобразования преобразовывает цифровой декодированный речевой сигнал из устройства 1155 декодирования речи в аналоговый декодированный речевой сигнал, и обеспечивает этот сигнал к устройству 1157 вывода информации. Устройство 1157 вывода информации преобразовывает аналоговый декодированный речевой сигнал из устройства 1156 Ц/А преобразования в колебания воздуха, и выводит их как звуковую волну, слышимую человеческому уху.An RF demodulation device 1153 demodulates the encoded speech signal received from the receiver 1152 and provides this signal to the signal processing device 1154. The RF demodulation apparatus 1153 also separately provides the signal processing apparatus 1154 with information on whether or not to demodulate a received encoded speech signal in a conventional manner. The signal processing device 1154 performs buffering processing to reduce phase jitter, packet assembly processing, channel decoding processing, etc., received from the encoded speech signal demodulation device 1153, and provides a received speech encoded binary stream to the speech decoding device 1155. In addition, information about whether or not the received encoded speech signal can be demodulated in the usual way is input from the RF demodulation device 1153, and if the information input from the RF demodulation device 1153 indicates that “demodulation cannot be performed in the usual way”, or if packet assembly processing or similar processing in the signal processing device cannot be performed in the usual way and the encoded binary signal stream of the received speech cannot be decoded in the usual way, the appearance of the deleted frame is transmitted to the device 1155 decoding speech as frame deletion information. The speech decoding apparatus 1155 performs decoding processing of a binary coded speech signal encoded speech signal processing apparatus 1154 and produces a decoded speech signal, and provides this signal to a D / A conversion apparatus 1156. The speech decoding apparatus 1155 determines whether decoding processing should be performed in the usual way or decoding processing by the frame deletion masking processing in accordance with the frame deletion information inputted in parallel with the received speech encoded bit string. A D / A conversion device 1156 converts the digital decoded speech signal from the speech decoding device 1155 to an analog decoded speech signal, and provides this signal to the information output device 1157. An information output device 1157 converts an analog decoded speech signal from a D / A conversion device 1156 into air vibrations, and outputs them as a sound wave heard by the human ear.

Таким образом, обеспечивая устройство кодирования речи и устройство декодирования речи, показанное в вариантах осуществления 1-5, может быть получен декодированный речевой сигнал лучшего качества, чем раньше, даже если происходит ошибка в тракте передачи (в частности, ошибка удаления кадра, которая является типичным представителем потери пакета).Thus, by providing a speech encoding device and a speech decoding device shown in Embodiments 1-5, a better quality decoded speech signal can be obtained than before, even if an error occurs in the transmission path (in particular, a frame deletion error that is typical representative packet loss).

(Вариант осуществления 7)(Embodiment 7)

В приведенных выше вариантах осуществления 1-6 описаны случаи, в которых используется модель предсказания МА-типа, но настоящее изобретение ей не ограничено, и может также использоваться модель предсказания AR-типа. В варианте осуществления 7 описан случай, в котором используется модель предсказания AR-типа. За исключением внутренней конфигурации узла декодирования КЛП, конфигурация устройства декодирования речи согласно варианту осуществления 7 идентична конфигурации, показанной на фиг.1.In the above embodiments 1-6, cases are described in which an MA type prediction model is used, but the present invention is not limited to it, and an AR type prediction model can also be used. In embodiment 7, a case is described in which an AR-type prediction model is used. With the exception of the internal configuration of the LPC decoding assembly, the configuration of the speech decoding apparatus according to Embodiment 7 is identical to the configuration shown in FIG.

Фиг.19 - чертеж, на котором показывают внутреннюю конфигурацию узла 105 декодирования КЛП из устройства декодирования речи согласно данному варианту осуществления. Части конфигурации на фиг.19, которые являются общими с фиг.2, имеют те же самые позиционные обозначения, как на фиг.2, и их подробное описание опущено в данной работе.FIG. 19 is a drawing showing an internal configuration of an LPC decoding unit 105 from a speech decoding apparatus according to this embodiment. Parts of the configuration of FIG. 19, which are common to FIG. 2, have the same reference numbers as in FIG. 2, and a detailed description thereof is omitted in this paper.

Узел 105 декодирования КЛП, показанный на фиг.19, использует конфигурацию, в которой, по сравнению с фиг.2, части, относящиеся к предсказанию (буфер 204, усилители 205 и сумматор 206), и части, относящиеся к маскированию удаления кадра (узел 203 декодирования кодового вектора и буфер 207), были удалены, а части конфигурации, их заменяющие (узел 1901 декодирования кодового вектора, усилитель 1902, сумматор 1903 и буфер 1904) были добавлены.The LPC decoding unit 105 shown in FIG. 19 uses a configuration in which, in comparison with FIG. 2, parts related to prediction (buffer 204, amplifiers 205 and adder 206) and parts related to masking frame deletion (node Code vector decoding 203 and buffer 207) were deleted, and parts of the configuration replacing them (code vector decoding unit 1901, amplifier 1902, adder 1903, and buffer 1904) were added.

Код Ln+1 КЛП вводят в буфер 201 и узел 1901 декодирования кодового вектора, и код Bn+1 удаления кадра вводят в буфер 202, узел 1901 декодирования кодового вектора и блок 209 выбора.The LPC code L n + 1 is entered into the buffer 201 and the code vector decoding section 1901, and the frame deletion code B n + 1 is entered into the buffer 202, the code vector decoding section 1901 and the selection block 209.

Буфер 201 хранит код Ln+1 КЛП следующего кадра в течение продолжительности одного кадра и затем выводит этот код КЛП в узел 1901 декодирования кодового вектора. В результате того, что код хранится в буфере 201 в течение продолжительности одного кадра, код КЛП, выводимый из буфера 201 в узел 1901 декодирования кодового вектора, является кодом Ln КЛП текущего кадра.The buffer 201 stores the LPC code L n + 1 of the next frame for the duration of one frame and then outputs this LPC code to the code vector decoding section 1901. As a result of the code being stored in the buffer 201 for the duration of one frame, the LPC code output from the buffer 201 to the code vector decoding section 1901 is the LPC code L n of the current frame.

Буфер 202 хранит код Bn+1 удаления следующего кадра в течение продолжительности одного кадра, и затем выводит этот код удаления кадра в узел 1901 декодирования кодового вектора. В результате того, что код хранится в буфере 202 в течение продолжительности одного кадра, код удаления кадра, выводимый из буфера 202 в узел 1901 декодирования кодового вектора, является кодом Bn удаления текущего кадра.The buffer 202 stores the next frame deletion code B n + 1 for the duration of one frame, and then outputs this deletion code to the code vector decoding section 1901. As a result of the code being stored in the buffer 202 for the duration of one frame, the frame deletion code output from the buffer 202 to the code vector decoding unit 1901 is the deletion code B n of the current frame.

Узел 1901 декодирования кодового вектора, который имеет декодированный вектор yn-1 ЧСЛ предыдущего кадра, код Ln+1 КЛП следующего кадра, код Bn+1 удаления следующего кадра, код Ln КЛП текущего кадра и код Bn удаления текущего кадра в качестве вводимой информации, производит вектор xn квантованного остатка предсказания текущего кадра, основываясь на этих элементах информации, и выводит вектор xn квантованного остатка предсказания текущего кадра на сумматор 1903. Подробности узла 1901 декодирования кодового вектора будут приведены позже в данной работе.A code vector decoding unit 1901, which has a decoded vector y n − 1 NUM of the previous frame, LPC code L n + 1 of the next frame, next frame delete code B n + 1 , LPC code L n of the current frame and current frame delete code B n as input, generates a vector x n of the quantized prediction residual of the current frame, based on these items of information, and outputs the vector x n of the quantized prediction residual of the current frame to the adder 1903. The node 1901 codevector decoding Details will be given later in this slave those.

Усилитель 1902 умножает декодированный вектор yn-1 ЧСЛ следующего кадра на предопределенный коэффициент α1 предсказания МА, и выводит результат на сумматор 1903.An amplifier 1902 multiplies the decoded vector y n − 1 of the PSL of the next frame by a predetermined MA prediction coefficient α 1 and outputs the result to an adder 1903.

Сумматор 1903 вычисляет сумму предсказанных векторов ЧСЛ, выводимых из усилителя 1902 (т.е. результат умножения декодированных векторов ЧСЛ предыдущего кадра на коэффициент предсказания AR-типа) и вектора xn квантованного остатка предсказания текущего кадра, и выводит результат умножения декодированного вектора yn ЧСЛ в буфер 1904 и узел 208 преобразования КЛП.An adder 1903 calculates the sum of the predicted LSL vectors output from the amplifier 1902 (i.e., the result of multiplying the decoded LSL vectors of the previous frame by an AR-type prediction coefficient) and the vector x n of the quantized prediction residual of the current frame, and outputs the result of multiplying the decoded LSL vector y n to the buffer 1904 and the LPC conversion node 208.

Буфер 1904 хранит декодированный вектор yn ЧСЛ в течение продолжительности одного кадра, и затем выводит этот декодированный вектор ЧСЛ в узел 1901 декодирования кодового вектора и в усилитель 1902. В результате того, что вектор хранится в буфере 1904 в течение продолжительности одного кадра, декодированный вектор ЧСЛ, вводимый в узел 1901 декодирования кодового вектора и усилитель 1902, является декодированным вектором yn-1 ЧСЛ предыдущего кадра.Buffer 1904 stores a decoded vector y n CHSL for the duration of one frame, and then outputs the decoded vector in CHSL decoding unit 1901 and the code vector to the amplifier 1902. As a result of that vector is stored in the buffer 1904 for the duration of one frame, the decoded vector The LSN input to the code vector decoding section 1901 and amplifier 1902 is the decoded LSL vector y n − 1 of the previous frame.

Если блок 209 выбора выбирает декодированный параметр КЛП в предыдущем кадре, выводимый из буфера 210, то фактически не требуется выполнять всю обработку от узла 1901 декодирования кодового вектора до узла 208 преобразования КЛП.If the selection unit 209 selects the decoded LPC parameter in the previous frame output from the buffer 210, then it is not actually necessary to perform all the processing from the code vector decoding section 1901 to the LPC conversion section 208.

Далее будет подробно описана внутренняя конфигурация узла 1901 декодирования кодового вектора, показанного на фиг.19, используя структурную схему на фиг.20.Next, the internal configuration of the code vector decoding unit 1901 shown in FIG. 19 will be described in detail using the block diagram of FIG. 20.

В кодовой книге 2001 генерируют кодовый вектор, идентифицированный кодом Ln КЛП текущего кадра, и выводят его к переключателю 309, и также генерируют кодовый вектор, идентифицированный кодом Ln+1 КЛП следующего кадра, и выводят его на усилитель 2002. Кроме того, кодовая книга может иметь многоступенчатую конфигурацию и может иметь конфигурацию разбиения.The codebook 2001 generates a code vector identified LPC code L n of the current frame, and outputs it to the switch 309, and also generates a code vector identified code L n + 1 LPC next frame, and outputting it to the amplifier 2002. In addition, the code a book may have a multi-stage configuration and may have a split configuration.

Усилитель 2002 умножает кодовый вектор xn+1, выводимый из кодовой книги 2001, на весовой коэффициент b0, и выводит результат на сумматор 2005.Amplifier 2002 multiplies the code vector x n + 1 output from codebook 2001 by the weight coefficient b 0 and outputs the result to adder 2005.

Усилитель 2003 выполняет обработку для поиска вектора квантованного остатка предсказания в текущем кадре, необходимого для генерации декодированного вектора ЧСЛ предыдущего кадра. Т.е. усилитель 2003 вычисляет вектор xn текущего кадра так, чтобы декодированный вектор yn-1 ЧСЛ предыдущего кадра стал декодированным вектором yn ЧСЛ текущего кадра. В частности, усилитель 2003 умножает вводимый декодированный вектор yn-1 ЧСЛ предыдущего кадра на коэффициент (1-a1). Затем усилитель 2003 выводит результат этого вычисления на переключатель 309.Amplifier 2003 performs processing to search for the vector of the quantized prediction residual in the current frame necessary to generate the decoded NUM vector of the previous frame. Those. the amplifier 2003 computes the vector x n of the current frame so that the decoded vector y n-1 of the number of the previous frame becomes the decoded vector y n of the number of the current frame. In particular, amplifier 2003 multiplies the input decoded vector y n − 1 of the PSL of the previous frame by a factor (1-a 1 ). Then, amplifier 2003 outputs the result of this calculation to switch 309.

Усилитель 2004 умножает вводимый декодированный вектор yn-1 ЧСЛ предыдущего кадра на весовой коэффициент b-1, и выводит результат на сумматор 2005.Amplifier 2004 multiplies the input decoded vector y n-1 of the PSL of the previous frame by the weight coefficient b -1 , and outputs the result to adder 2005.

Сумматор 2005 вычисляет сумму векторов, выводимых из усилителя 2002 и усилителя 2004, и выводит кодовый вектор, который является результатом этого вычисления, на переключатель 309. Т.е. сумматор 2005 вычисляет вектор xn текущего кадра, выполняя взвешенное суммирование кодового вектора, идентифицированного кодом Ln+1 КЛП следующего кадра, и декодированного вектора ЧСЛ предыдущего кадра.Adder 2005 calculates the sum of vectors output from amplifier 2002 and amplifier 2004, and outputs a code vector that is the result of this calculation to switch 309. That is, the adder 2005 calculates the vector x n of the current frame, performing a weighted summation of the code vector identified by the LPC code L n + 1 of the next frame and the decoded PSL vector of the previous frame.

Если код Bn удаления текущего кадра указывает, что «n-й кадр является обычным кадром», то переключатель 309 выбирает кодовый вектор, выводимый из кодовой книги 2001, и выводит его как вектор xn квантованного остатка предсказания текущего кадра. С другой стороны, если код Bn удаления текущего кадра указывает, что «n-й кадр является удаленным кадром», то переключатель 309 дополнительно выбирает вектор, который будут выводить, согласно тому, какую информацию имеет код Bn+1 удаления следующего кадра.If the current frame deletion code B n indicates that “the nth frame is a normal frame”, then the switch 309 selects a code vector output from the codebook 2001 and outputs it as the vector x n of the quantized prediction residual of the current frame. On the other hand, if the current frame deletion code B n indicates that “the nth frame is the deleted frame”, then the switch 309 further selects a vector to be output according to what information the next frame deletion code B n + 1 has .

Т.е. если код Bn+1 удаления следующего кадра указывает, что «(n+1)-й кадр является удаленным кадром», то переключатель 309 выбирает вектор, выводимый из устройства 2003 кодирования, и выводит его как вектор xn квантованного остатка предсказания текущего кадра. В этом случае не требуется выполнять обработку процесса генерации вектора из кодовой книги 2001 и усилителей 2002 и 2004 через сумматор 2005. Кроме того, в этом случае, так как yn-1 можно использовать в качестве yn, xn не обязательно нужно генерировать с помощью обработки в усилителе 2003.Those. if the next frame deletion code B n + 1 indicates that the “(n + 1) th frame is the deleted frame”, then the switch 309 selects a vector output from the encoding device 2003 and outputs it as a vector x n of a quantized prediction residual of the current frame . In this case, it is not necessary to process the vector generation process from the codebook 2001 and amplifiers 2002 and 2004 through the adder 2005. In addition, in this case, since y n-1 can be used as y n , x n does not need to be generated with using processing in amplifier 2003.

С другой стороны, если код Bn+1 удаления следующего кадра указывает, что «(n+1)-й кадр является обычным кадром», то переключатель 309 выбирает вектор, выводимый из сумматора 2005, и выводит его как вектор xn квантованного остатка предсказания текущего кадра. В этом случае не требуется выполнять обработку с помощью усилителя 2003.On the other hand, if the next frame deletion code B n + 1 indicates that the “(n + 1) th frame is a normal frame”, then the switch 309 selects a vector output from the adder 2005 and outputs it as a quantized remainder vector x n predictions of the current frame. In this case, processing with the amplifier 2003 is not required.

При обработке маскирования данного варианта осуществления весовые коэффициенты b-1 и b0 определяют так, чтобы сумма D (где D находят, как показано в приведенном ниже Уравнении (9)) расстояния между декодированным параметром yn-1 (n-1)-го кадра и декодированным параметром yn n-го кадра, и расстояния между декодированным параметром yn n-го кадра и декодированным параметром yn+1 (n+1)-го кадра была небольшой, так, чтобы изменения между декодированными параметрами кадров стали незначительными.In the masking processing of this embodiment, the weighting factors b -1 and b 0 are determined so that the sum D (where D are found, as shown in Equation (9) below) of the distance between the decoded parameter y n-1 (n-1) -th frame and the decoded parameter y n of the n-th frame, and the distance between the decoded parameter y n of the n-th frame and the decoded parameter y of the n + 1 (n + 1) -th frame was small, so that the changes between the decoded frame parameters become insignificant .

Figure 00000009
Figure 00000009

Пример способа определения весовых коэффициентов b-1 и b0 показан ниже. Для минимизации D в Уравнении (9), приведенное ниже Уравнение (10) решают для декодированного вектора xn квантованного остатка предсказания удаленного n-го кадра. В результате xn может быть найден посредством приведенного ниже Уравнения (11). Если коэффициенты предсказания отличаются в каждой группе, то Уравнение (9) заменяют Уравнением (12). В данном случае а1 представляет коэффициент предсказания AR-типа, и а1(j) представляет j-й элемент набора коэффициентов предсказания AR-типа (т.е. коэффициента, умноженного на yn-1(j), j-й элемент декодированного параметра yn-1 ЧСЛ) предыдущего кадра.An example of a method for determining the weights b -1 and b 0 is shown below. To minimize D in Equation (9), Equation (10) below is solved for the decoded vector x n of the quantized prediction residual of the deleted nth frame. As a result, x n can be found using Equation (11) below. If the prediction coefficients differ in each group, then Equation (9) is replaced by Equation (12). In this case, a 1 represents the AR-type prediction coefficient, and a 1 (j) represents the jth element of the set of AR-type prediction coefficients (i.e., the coefficient times y n-1 (j) , the jth element decoded parameter y n-1 NLS) of the previous frame.

Figure 00000010
Figure 00000010

Figure 00000011
Figure 00000011

Figure 00000012
Figure 00000012

Элементы х, y и а в приведенных выше уравнениях являются следующими.The elements x, y, and a in the above equations are as follows.

xn(j): квантованный остаток предсказания j-го компонента параметра ЧСЛ в n-м кадре.x n (j) : quantized remainder of the prediction of the jth component of the LSL parameter in the nth frame.

yn(j): j-й компонент декодированного параметра ЧСЛ в n-м кадре.y n (j) : jth component of the decoded LSL parameter in the nth frame.

a1(j): j-й компонент набора коэффициентов предсказания AR-типа.a 1 (j) : jth component of the AR-type prediction coefficient set.

Таким образом, согласно данному варианту осуществления, в котором используется модель предсказания AR-типа, когда текущий кадр удаляют, если следующий кадр принимают обычным образом, то обработку маскирования декодированного квантованного остатка предсказания параметра ЧСЛ текущего кадра выполняют посредством взвешенной обработки суммирования (обработки взвешенного линейного суммирования), в частности, для обработки маскирования, используя параметр, декодированный в прошлом, и квантованный остаток предсказания следующего кадра, и декодирование параметра ЧСЛ выполняют, используя маскированный квантованный остаток предсказания. Таким образом, можно обеспечивать более высокую эффективность маскирования, чем с помощью повторного использования декодированных в прошлом параметров ЧСЛ.Thus, according to this embodiment, in which the AR-type prediction model is used, when the current frame is deleted, if the next frame is received in the usual way, then the masking processing of the decoded quantized residual of the prediction parameter of the NLS parameter of the current frame is performed by weighted summation processing (weighted linear summation processing) ), in particular, for masking processing using a parameter decoded in the past and a quantized prediction remainder of the next frame, and q CHSL parameter encoding is performed using the quantized prediction residual masked. Thus, it is possible to provide a higher masking efficiency than by reusing the decoded LSL parameters in the past.

Также можно применять описание вариантов осуществления 2-4 к варианту осуществления, который использует предсказание AR-типа, в этом случае также можно получать тот же самый результат, как описано выше.You can also apply the description of embodiments 2-4 to an embodiment that uses AR type prediction, in which case the same result can also be obtained as described above.

(Вариант осуществления 8)(Embodiment 8)

В указанном выше варианте осуществления 7 описан случай, в котором существует только один вид набора коэффициента предсказания, но настоящее изобретение не ограничено этим, и его можно также применять к случаю, в котором существует множество видов наборов коэффициентов предсказания, таким же образом, как в вариантах осуществления 2 и 3. В варианте осуществления 8 будет описан примерный случай, в котором используется предсказание AR-типа, для которого существует множество видов наборов коэффициентов предсказания.In the above embodiment 7, a case is described in which there is only one kind of prediction coefficient set, but the present invention is not limited thereto, and it can also be applied to a case in which there are many kinds of sets of prediction coefficient, in the same manner as in the embodiments embodiments 2 and 3. In Embodiment 8, an exemplary case will be described in which AR-type prediction is used for which there are many kinds of sets of prediction coefficients.

Фиг.21 - структурная схема устройства декодирования речи согласно данному варианту осуществления. За исключением отличия во внутренней конфигурации узла декодирования КЛП и отсутствия линии ввода информации En+1 типа маскирования из узла 101 демультиплексирования в узел 105 декодирования КЛП, конфигурация устройства 100 декодирования речи, показанного на фиг.21, идентична конфигурации на фиг.11.21 is a block diagram of a speech decoding apparatus according to this embodiment. With the exception of the difference in the internal configuration of the LPC decoding section and the absence of a masking type E n + 1 input line from the demultiplexing section 101 to the LPC decoding section 105, the configuration of the speech decoding apparatus 100 shown in FIG. 21 is identical to the configuration in FIG. 11.

Фиг.22 - чертеж, на котором показывают внутреннюю конфигурацию узла 105 декодирования КЛП из устройства декодирования речи согласно данному варианту осуществления. Части конфигурации на фиг.22, которые являются общими с фиг.19, имеют те же самые позиционные обозначения, как на фиг.19, и их подробное описание опущено в данной работе.FIG. 22 is a drawing that shows the internal configuration of an LPC decoding unit 105 from a speech decoding apparatus according to this embodiment. Parts of the configuration in FIG. 22, which are common with FIG. 19, have the same reference numbers as in FIG. 19, and a detailed description thereof is omitted in this paper.

Узел 105 декодирования КЛП, показанный на фиг.22, использует конфигурацию, в которой, по сравнению с фиг.19, добавлен буфер 2202 и узел 2203 декодирования коэффициента. Кроме того, работа и внутренняя конфигурация узла 2201 декодирования кодового вектора на фиг.22 отличаются от работы и конфигурации узла 1901 декодирования кодового вектора на фиг.19.The LPC decoding section 105 shown in FIG. 22 uses a configuration in which, compared to FIG. 19, a buffer 2202 and a coefficient decoding section 2203 are added. In addition, the operation and internal configuration of the code vector decoding unit 2201 in FIG. 22 is different from the operation and configuration of the code vector decoding unit 1901 in FIG. 19.

Код Vn+1 КЛП вводят в буфер 201 и узел 2201 декодирования кодового вектора, и код Bn+1 удаления кадра вводят в буфер 202, узел 2201 декодирования кодового вектора и блок 209 выбора.The LPC code V n + 1 is entered into the buffer 201 and the code vector decoding section 2201, and the frame deletion code B n + 1 is entered into the buffer 202, the code vector decoding section 2201 and the selection block 209.

Буфер 201 хранит код Vn+1 КЛП следующего кадра в течение продолжительности одного кадра, и затем выводит этот код КЛП в узел 2201 декодирования кодового вектора. В результате того, что код хранится в буфере 201 в течение продолжительности одного кадра, код КЛП, выводимый из буфера 201 в узел 2201 декодирования кодового вектора, является кодом Vn КЛП текущего кадра. Кроме того, буфер 202 хранит код Bn+1 удаления следующего кадра в течение продолжительности одного кадра, и затем выводит этот код удаления кадра в узел 2201 декодирования кодового вектора.The buffer 201 stores the LPC code V n + 1 of the next frame for the duration of one frame, and then outputs this LPC code to the code vector decoding section 2201. As a result of the fact that the code is stored in the buffer 201 for the duration of one frame, the LPC code output from the buffer 201 to the code vector decoding unit 2201 is the LPC code V n of the current frame. In addition, the buffer 202 stores the deletion code B n + 1 of the next frame for the duration of one frame, and then outputs this deletion code to the code vector decoding section 2201.

Узел 2201 декодирования кодового вектора, который имеет декодированный вектор yn-1 ЧСЛ предыдущего кадра, код Vn+1 КЛП следующего кадра, код Bn+1 удаления следующего кадра, код Vn КЛП текущего кадра, код Kn+1 коэффициента предсказания следующего кадра и код Bn удаления текущего кадра в качестве вводимой информации, производит вектор xn квантованного остатка предсказания текущего кадра, основываясь на этих элементах информации, и выводит вектор xn квантованного остатка предсказания текущего кадра на сумматор 1903. Подробности узла 2201 декодирования кодового вектора будут приведены позже в данной работе.Node 2201 decoding a code vector that has a decoded vector y n-1 NUM of the previous frame, VL code + 1 LPC of the next frame, code B n + 1 deletion of the next frame, code V n LPC of the current frame, code K n + 1 prediction coefficient of the next frame and the current frame deletion code B n as input, produces a vector x n of the quantized prediction residual of the current frame based on these pieces of information, and outputs the vector x n of the quantized prediction residual of the current frame to adder 1903. Details of decoding section 2201 the code vector will be given later in this paper.

Буфер 2202 хранит код Kn+1 коэффициента предсказания AR-типа в течение продолжительности одного кадра, и затем выводит этот код коэффициента предсказания AR-типа в узел 2203 декодирования коэффициента. В результате код коэффициента предсказания AR-типа, выводимый из буфера 2202 в узел 2203 декодирования коэффициента, является кодом Kn коэффициента предсказания AR-типа предыдущего кадра.Buffer 2202 stores the AR type prediction coefficient code K n + 1 for the duration of one frame, and then outputs this AR type prediction coefficient code to the coefficient decoding section 2203. As a result, the AR-type prediction coefficient code output from the buffer 2202 to the coefficient decoding unit 2203 is the AR-type prediction coefficient code K n of the previous frame.

Узел 2203 декодирования коэффициента хранит множество видов наборов коэффициентов, и идентифицирует набор коэффициентов посредством кодов Bn и Bn+1 удаления кадра и кодов Kn и Kn+1 коэффициента предсказания AR-типа. В данном случае существуют три способа, которыми идентификацию наборов коэффициентов можно выполнять в узле 2203 декодирования коэффициента следующим образом.The coefficient decoding unit 2203 stores a plurality of kinds of coefficient sets, and identifies the coefficient set by frame deletion codes B n and B n + 1 and AR type prediction coefficient codes K n and K n + 1 . In this case, there are three ways in which the identification of sets of coefficients can be performed in the coefficient decoding unit 2203 as follows.

Если вводимый код Bn удаления кадра указывает, что «n-й кадр является обычным кадром», то узел 2203 декодирования коэффициента выбирает набор коэффициентов, определенный кодом Kn коэффициента предсказания AR-типа.If the input frame deletion code B n indicates that “the nth frame is a normal frame”, then coefficient decoding section 2203 selects a set of coefficients defined by AR-type prediction coefficient code K n .

Если вводимый код Bn удаления кадра указывает, что «n-й кадр является удаленным кадром», и код Bn+1 удаления кадра указывает, что «(n+1)-й кадр является обычным кадром», то узел 2203 декодирования коэффициента определяет набор коэффициентов, который будет выбран, используя код Kn+1 коэффициента предсказания AR-типа, принятый как параметр (n+1)-го кадра. Т.е. Kn+1 используется непосредственно вместо кода Kn коэффициента предсказания AR-типа. Альтернативно, можно обеспечивать набор коэффициентов, который будет использоваться в этом случае, который определяют заранее, и этот ранее определенный набор коэффициентов будет использоваться, не принимая во внимание Kn+1.If the input frame deletion code B n indicates that “the nth frame is a deleted frame” and the frame deletion code B n + 1 indicates that “the (n + 1) th frame is a normal frame”, then coefficient decoding section 2203 determines the set of coefficients to be selected using the AR-type prediction coefficient code K n + 1 , adopted as a parameter of the (n + 1) -th frame. Those. K n + 1 is used directly instead of the AR type prediction coefficient code K n . Alternatively, it is possible to provide a set of coefficients that will be used in this case, which is determined in advance, and this previously determined set of coefficients will be used without taking into account K n + 1 .

Если вводимый код Bn удаления кадра указывает, что «n-й кадр является удаленным кадром», и код Bn+1 удаления кадра указывает, что «(n+1)-й кадр является удаленным кадром», то единственная информация, которая может использоваться, является информацией набора коэффициентов, используемого предыдущим кадром, и поэтому узел 2203 декодирования коэффициента неоднократно использует набор коэффициентов, используемый предыдущим кадром. Альтернативно, можно обеспечивать заранее определенный набор коэффициентов, чтобы он использовался постоянным образом.If the input frame deletion code B n indicates that “the nth frame is a deleted frame” and the frame deletion code B n + 1 indicates that “the (n + 1) th frame is a deleted frame”, then the only information that can be used is the information of the coefficient set used by the previous frame, and therefore, the coefficient decoding unit 2203 repeatedly uses the coefficient set used by the previous frame. Alternatively, a predetermined set of coefficients can be provided so that it is used continuously.

Затем узел 2203 декодирования коэффициента выводит коэффициент a1 предсказания AR-типа на усилитель 1902, и выводит коэффициент a1 предсказания AR-типа в узел декодирования кодового вектора 2201.Then, the coefficient decoding unit 2203 outputs the AR type prediction coefficient a 1 to the amplifier 1902, and outputs the AR type prediction coefficient a 1 to the decoding unit of the code vector 2201.

Усилитель 1902 умножает декодированный вектор yn-1 ЧСЛ предыдущего кадра на коэффициент a1 предсказания AR-типа, вводимый из узла 2203 декодирования коэффициента, и выводит результат на сумматор 1903.Amplifier 1902 multiplies the decoded vector y n − 1 of the PRF of the previous frame by an AR-type prediction coefficient a 1 , input from coefficient decoding unit 2203, and outputs the result to adder 1903.

Далее будет подробно описана внутренняя конфигурация узла 2201 декодирования кодового вектора, показанного на фиг.22, используя структурную схему на фиг.23. Части конфигурации на фиг.23, которые являются общими с фиг.20, имеют те же самые позиционные обозначения, как на фиг.20, и их подробное описание опущено в данной работе. Узел 2201 декодирования кодового вектора на фиг.23 использует конфигурацию, в которой узел 2301 декодирования коэффициента добавлен к узлу 1901 декодирования кодового вектора на фиг.20.Next, the internal configuration of the code vector decoding unit 2201 shown in FIG. 22 will be described in detail using the block diagram of FIG. 23. Parts of the configuration of FIG. 23, which are common to FIG. 20, have the same reference numbers as in FIG. 20, and a detailed description thereof is omitted in this paper. The code vector decoding section 2201 of FIG. 23 uses a configuration in which a coefficient decoding section 2301 is added to the code vector decoding section 1901 of FIG.

Узел 2301 декодирования коэффициента хранит множество видов наборов коэффициентов, идентифицирует набор коэффициентов посредством кода Kn+1 коэффициента предсказания AR-типа, и выводит его на усилители 2002 и 2004. Также можно вычислять используемый набор коэффициентов, используя коэффициент a1 предсказания AR-типа, выводимый из узла 2203 декодирования коэффициента, когда не требуется хранить наборы коэффициентов, и вычисление можно выполнять после ввода коэффициента а1 предсказания AR-типа. Подробности способа вычисления будут приведены в данной работе позже.The coefficient decoding section 2301 stores a plurality of kinds of coefficient sets, identifies the coefficient set by the AR type prediction coefficient code K n + 1 , and outputs it to the amplifiers 2002 and 2004. It is also possible to calculate the used coefficient set using the AR type prediction coefficient a 1 , output from coefficient decoding unit 2203 when it is not necessary to store sets of coefficients, and the calculation can be performed after input of AR-type prediction coefficient a 1 . Details of the calculation method will be given later in this paper.

В кодовой книге 2001 генерируют кодовый вектор, идентифицированный кодом Vn КЛП текущего кадра, и выводят его на переключатель 309, а также генерируют кодовый вектор, идентифицированный кодом Vn+1 КЛП следующего кадра, и выводят его на усилитель 2002. Кроме того, кодовая книга может иметь многоступенчатую конфигурацию и может иметь конфигурацию разбиения.In codebook 2001, a code vector identified by the LPC code V n of the current frame is generated and output to switch 309, and a code vector identified by the LPC code V n + 1 of the next frame is generated and output to amplifier 2002. In addition, the code a book may have a multi-stage configuration and may have a split configuration.

Усилитель 2002 умножает кодовый вектор xn+1, выводимый из кодовой книги 2001, на весовой коэффициент b0 и выводит результат на сумматор 2005.Amplifier 2002 multiplies the code vector x n + 1 output from codebook 2001 by the weight coefficient b 0 and outputs the result to adder 2005.

Усилитель 2003 умножает коэффициент (1-а1) предсказания AR-типа, выводимый из узла 2203 декодирования коэффициента, на декодированный вектор yn-1 ЧСЛ предыдущего кадра и выводит результат на переключатель 309. В терминах реализации, если этот вид маршрута не создан и переключающая конфигурация обеспечена таким образом, что выход буфера 1904 заменяют на выход 1903 сумматора и вводят в узел 208 преобразования КЛП вместо выполнения обработки в усилителе 2003, усилителе 1902 и сумматоре 1903, то маршрут через усилитель 2003 не нужен.The amplifier 2003 multiplies the AR-type prediction coefficient (1-a 1 ) output from the coefficient decoding unit 2203 by the decoded vector y n-1 of the number of the previous frame and outputs the result to switch 309. In terms of implementation, if this type of route is not created and the switching configuration is provided so that the output of the buffer 1904 is replaced by the output of the adder 1903 and injected into the LPC conversion unit 208 instead of processing in the amplifier 2003, the amplifier 1902 and the adder 1903, then the route through the amplifier 2003 is not needed.

Усилитель 2004 умножает вводимый декодированный вектор yn-1 ЧСЛ предыдущего кадра на весовой коэффициент b-1, выводимый из узла 2301 декодирования коэффициента, и выводит результат на сумматор 2005.The amplifier 2004 multiplies the input decoded vector y n-1 of the PSL of the previous frame by the weight coefficient b -1 output from the coefficient decoding unit 2301, and outputs the result to the adder 2005.

При обработке маскирования данного варианта осуществления весовые коэффициенты b-1 и b0 определяют так, чтобы сумма D (где D находят, как показано в приведенном ниже Уравнении (13)) расстояния между декодированным параметром yn-1 (n-1)-го кадра и декодированным параметром yn n-го кадра, и расстояния между декодированным параметром yn n-го кадра и декодированным параметром yn+1 (n+1)-го кадра была небольшой, так, чтобы изменения между декодированными параметрами кадров были незначительными.In the masking processing of this embodiment, the weighting factors b -1 and b 0 are determined so that the sum D (where D is found, as shown in Equation (13) below) of the distance between the decoded parameter y n-1 (n-1) -th frame and the decoded parameter y n of the n-th frame, and the distance between the decoded parameter y n of the n-th frame and the decoded parameter y of the n + 1 (n + 1) -th frame was small, so that the changes between the decoded frame parameters were small .

Figure 00000013
Figure 00000013

Пример способа определения весовых коэффициентов b-1 и b0 показан ниже. Для минимизации D в Уравнении (13), приведенное ниже Уравнение (14) решают для декодированного вектора xn квантованного остатка предсказания удаленного n-го кадра. В результате xn можно находить посредством приведенного ниже Уравнения (15). Если коэффициенты предсказания отличаются в каждой группе, то Уравнение (13) заменяют Уравнением (16). В данном случае а′1 представляет коэффициент предсказания AR-типа в (n+1)-м кадре, a1 представляет коэффициент предсказания AR-типа в n-м кадре, и a1(j) представляет j-й элемент набора коэффициентов предсказания AR-типа (т.е. коэффициент, умноженный yn-1(j), j-й элемент декодированного параметра yn-1 ЧСЛ предыдущего кадра)An example of a method for determining the weights b -1 and b 0 is shown below. To minimize D in Equation (13), Equation (14) below is solved for the decoded vector x n of the quantized prediction residual of the deleted n-th frame. As a result, x n can be found using Equation (15) below. If the prediction coefficients differ in each group, then Equation (13) is replaced by Equation (16). In this case, a ′ 1 represents the AR type prediction coefficient in the (n + 1) th frame, a 1 represents the AR type prediction coefficient in the nth frame, and a 1 (j) represents the jth element of the set of prediction coefficients AR type (i.e., the coefficient multiplied by y n-1 (j) , the jth element of the decoded parameter y n-1 NUM of the previous frame)

Figure 00000014
Figure 00000014

Figure 00000015
Figure 00000015

Figure 00000016
Figure 00000016

Элементы х, y и а в приведенных выше уравнениях являются следующими:The elements x, y, and a in the above equations are as follows:

xn(j): квантованный остаток предсказания j-го компонента параметра ЧСЛ в n-м кадре.x n (j) : quantized remainder of the prediction of the jth component of the LSL parameter in the nth frame.

yn(j): j-й компонент декодированного параметра ЧСЛ в n-м кадре.y n (j) : jth component of the decoded LSL parameter in the nth frame.

а1(j): j-й компонент набора коэффициентов предсказания AR-типа n-го кадра.and 1 (j) : the jth component of the set of AR-type prediction coefficients of the nth frame.

а′1(j): j-й компонент набора коэффициентов предсказания AR-типа (n+1)-го кадра.a ′ 1 (j) : the jth component of the set of prediction coefficients of the AR type of the (n + 1) th frame.

В данном случае, если n-й кадр является удаленным кадром, то набор коэффициентов предсказания n-го кадра неизвестен. Существует множество возможных способов определения а1. Во-первых, существует способ, посредством которого a1 посылают, как дополнительную информацию в (n+1)-м кадре. Однако необходим дополнительный бит, и также необходима модификация на стороне кодера. Затем существует способ, посредством которого используется коэффициент предсказания, используемый (n-1)-м кадром, и также существует способ, посредством которого используется набор коэффициентов предсказания, принятый в (n+1)-м кадре. В этом случае a1=a′1. Кроме того, существует способ, посредством которого всегда используется определенный набор коэффициентов предсказания. Однако, как описано позже в данной работе, даже если используют другой а1, декодированные yn′ будут равны при выполнении предсказания AR-типа, используя тот же самый а1. В случае квантования с предсказанием, используя предсказание AR-типа, квантованный остаток xn предсказания не соотносится с предсказанием, и только декодированный квантованный параметр yn соотносится с предсказанием, и поэтому в этом случае a1 может иметь произвольное значение.In this case, if the nth frame is a remote frame, then the set of prediction coefficients of the nth frame is unknown. There are many possible ways to determine a 1 . Firstly, there is a method by which a 1 is sent as additional information in the (n + 1) th frame. However, an extra bit is needed, and modification on the encoder side is also needed. Then there is a method by which the prediction coefficient used by the (n-1) th frame is used, and there is also a method by which the set of prediction coefficients adopted in the (n + 1) th frame is used. In this case, a 1 = a ′ 1 . In addition, there is a method by which a specific set of prediction coefficients is always used. However, as described later in this paper, even if another a 1 is used , the decoded y n ′ will be equal when performing AR-type prediction using the same a 1 . In the case of prediction quantization using the AR type prediction, the quantized prediction residual x n does not correlate with the prediction, and only the decoded quantized parameter y n correlates with the prediction, and therefore in this case a 1 can have an arbitrary value.

Если a1 определили, то b0 и b1 можно определять из Уравнения (15) или Уравнения (16), и можно генерировать кодовый вектор xn удаленного кадра.If a 1 is determined, then b 0 and b 1 can be determined from Equation (15) or Equation (16), and a code vector x n of the deleted frame can be generated.

Если кодовый вектор xn удаления кадра, полученный посредством приведенного выше Уравнения (16), заменяют в уравнении, представляющем yn (yn=a1yn-1+xn), то результат находят, как показано в приведенном ниже Уравнении (17). Поэтому, декодированный параметр в удаленном кадре, сгенерированный с помощью обработки маскирования, может быть найден непосредственно из xn+1, yn-1 и a′1. В этом случае становится возможной обработка маскирования, которая не использует коэффициент a1 предсказания в удаленном кадре.If the frame removal code vector x n obtained by the above Equation (16) is replaced in an equation representing y n (y n = a 1 y n-1 + x n ), then the result is found as shown in the Equation ( 17). Therefore, the decoded parameter in the remote frame generated by the masking processing can be found directly from x n + 1 , y n-1 and a ′ 1 . In this case, masking processing that does not use the prediction coefficient a 1 in the remote frame becomes possible.

Figure 00000017
Figure 00000017

Таким образом, согласно данному варианту осуществления, в дополнение к обеспечению особенностей, описанных в варианте осуществления 7, обеспечивают множество наборов коэффициентов предсказания для выполнения обработки маскирования, и обработку маскирования выполняют, обеспечивая получение еще более высокой эффективности маскирования, чем в варианте осуществления 7.Thus, according to this embodiment, in addition to providing the features described in Embodiment 7, a plurality of sets of prediction coefficients for performing masking processing are provided, and masking processing is performed, providing even higher masking efficiency than in Embodiment 7.

(Вариант осуществления 9)(Embodiment 9)

В указанных выше вариантах осуществления 1-8 описаны случаи, в которых выполняют декодирование n-го кадра после принятого (n+1)-го кадра, но настоящее изобретение не ограничено этим, и также можно выполнять генерацию n-го кадра, используя декодированный параметр (n-1)-го кадра, выполнять декодирование параметра n-го кадра, используя способ настоящего изобретения во время декодирования (n+1)-го кадра, и выполнять декодирование (n+1)-го кадра после обновления внутреннего состояния устройства предсказания с помощью этого результата.In the above embodiments 1-8, cases are described in which the nth frame is decoded after the received (n + 1) th frame, but the present invention is not limited thereto, and it is also possible to generate the nth frame using the decoded parameter the (n-1) -th frame, decode the parameter of the nth frame using the method of the present invention while decoding the (n + 1) -th frame, and decode the (n + 1) -th frame after updating the internal state of the prediction device using this result.

В варианте осуществления 9 будет описан этот случай. Конфигурация устройства декодирования речи согласно варианту осуществления 9 идентична конфигурации на фиг.1. Кроме того, конфигурация узла 105 декодирования КЛП может быть идентична конфигурации на фиг.19, но ее повторно изображают, как показано на фиг.24, чтобы пояснить, что декодирование (n+1)-го кадра выполняют для вводимой кодированной информации (n+1)-го кадра.In Embodiment 9, this case will be described. The configuration of the speech decoding apparatus according to Embodiment 9 is identical to that of FIG. 1. In addition, the configuration of the LPC decoding unit 105 may be identical to the configuration in FIG. 19, but it is re-depicted as shown in FIG. 24 to explain that decoding of the (n + 1) th frame is performed for inputted encoded information (n + 1st) frame.

Фиг.24 - структурная схема, на которой показывают внутреннюю конфигурацию узла 105 декодирования КЛП из устройства декодирования речи согласно данному варианту осуществления. Части конфигурации на фиг.24, которые являются общими с фиг.19, имеют те же самые позиционные обозначения, как на фиг.19, и их подробное описание опущено в данной работе.24 is a block diagram showing an internal configuration of an LPC decoding unit 105 from a speech decoding apparatus according to this embodiment. Parts of the configuration in FIG. 24, which are common with FIG. 19, have the same reference numbers as in FIG. 19, and a detailed description thereof is omitted in this paper.

Узел 105 декодирования КЛП, показанный на фиг.24, использует конфигурацию, в которой, по сравнению с фиг.19, убран буфер 201, выход узла декодирования кодового вектора - xn+1, декодированный параметр - параметр (n+1)-го кадра (yn), и добавлен переключатель 2402. Кроме того, работа и внутренняя конфигурация узла 2401 декодирования кодового вектора на фиг.24 отличаются от работы и конфигурации узла 1901 декодирования кодового вектора на фиг.19.The LPC decoding section 105 shown in FIG. 24 uses a configuration in which, compared to FIG. 19, the buffer 201 is removed, the output of the code vector decoding section is x n + 1 , the decoded parameter is the (n + 1) -th parameter frame (y n ), and a switch 2402 is added. In addition, the operation and internal configuration of the code vector decoding unit 2401 in FIG. 24 differs from the operation and configuration of the code vector decoding unit 1901 in FIG. 19.

Код Ln+1 КЛП вводят в узел 2401 декодирования кодового вектора, и код Bn+1 удаления кадра вводят в буфер 202, узел 2401 декодирования кодового вектора и блок 209 выбора.The LPC code L n + 1 is input to the code vector decoding unit 2401, and the frame deletion code B n + 1 is input to the buffer 202, the code vector decoding unit 2401, and the selection unit 209.

Буфер 202 хранит код Bn+1 удаления текущего кадра в течение продолжительности одного кадра, и затем выводит этот код удаления кадра в узел 2401 декодирования кодового вектора. В результате того, что код хранится в буфере 202 в течение продолжительности одного кадра, код удаления кадра, выводимый из буфера 202 в узел 2401 декодирования кодового вектора, является кодом Bn удаления предыдущего кадра.The buffer 202 stores the deletion code B n + 1 of the current frame for the duration of one frame, and then outputs this deletion code to the code vector decoding section 2401. As a result of the code being stored in the buffer 202 for the duration of one frame, the frame deletion code output from the buffer 202 to the code vector decoding unit 2401 is the deletion code B n of the previous frame.

Узел 2401 декодирования кодового вектора, который имеет декодированный вектор yn-1 ЧСЛ на два кадра раньше, код Ln+1 КЛП текущего кадра и код Bn+1 удаления текущего кадра в качестве вводимой информации, производит вектор xn+1 квантованного остатка предсказания текущего кадра и декодированный вектор y′n ЧСЛ предыдущего кадра, основываясь на этих элементах информации, и выводит их на сумматор 1903 и переключатель 2402. Подробности узла 2401 декодирования кодового вектора будут приведены позже в данной работе.The code vector decoding unit 2401, which has the decoded vector y n-1 NLS two frames earlier, the LPC code L n + 1 of the current frame and the code B n + 1 to delete the current frame as input, produces a quantized remainder vector x n + 1 predicting the current frame and a decoded vector y 'n CHSL previous frame, based on these items of information, and outputs them to the adder 1903 and the switch 2402. the node 2401 Details of decoding the code vector will be given later in this paper.

Усилитель 1902 умножает декодированный вектор yn-1 или y′n ЧСЛ предыдущего кадра на предварительно определенный коэффициент a1 предсказания AR-типа, и выводит результат на сумматор 1903.An amplifier 1902 multiplies the decoded vector y n − 1 or y ′ n of the LSL of the previous frame by a predetermined AR-type prediction coefficient a 1 and outputs the result to adder 1903.

Сумматор 1903 вычисляет предсказанный вектор ЧСЛ, выводимый из усилителя 1902 (т.е. результат умножения декодированного вектора ЧСЛ предыдущего кадра на коэффициент предсказания AR-типа), и выводит результат этого вычисления, декодированный вектор yn+1 ЧСЛ, в буфер 1904 и узел 208 преобразования КЛП.An adder 1903 calculates a predicted LSL vector output from an amplifier 1902 (i.e., the result of multiplying a decoded LSL vector of a previous frame by an AR-type prediction coefficient), and outputs the result of this calculation, the decoded LSL vector y n + 1 , to a buffer 1904 and a node 208 conversion of KLP.

Буфер 1904 хранит декодированный вектор yn+1 ЧСЛ текущего кадра в течение продолжительности одного кадра, и затем выводит этот декодированный вектор ЧСЛ в узел 2401 декодирования кодового вектора и переключатель 2402. В результате того, что вектор хранится в буфере 1904 в течение продолжительности одного кадра, декодированный вектор ЧСЛ, вводимый в узел 2401 декодирования кодового вектора и переключатель 2402 ЧСЛ, является вектором yn предыдущего кадра.The buffer 1904 stores the decoded vector LSN + 1 LSL of the current frame for the duration of one frame, and then outputs this decoded LSL vector to the code vector decoding section 2401 and switch 2402. As a result, the vector is stored in the buffer 1904 for the duration of one frame , the decoded LSL vector input to the code vector decoding section 2401 and the LSL switch 2402 is the vector y n of the previous frame.

Переключатель 2402 выбирает или декодированный вектор yn ЧСЛ предыдущего кадра, или декодированный вектор y′n ЧСЛ предыдущего кадра, сгенерированный узлом 2401 декодирования кодового вектора текущего кадра с использованием кода Ln+1 КЛП, согласно коду Bn удаления предыдущего кадра. Если Bn указывает удаленный кадр, то переключатель 2402 выбирает y′n.Switch 2402 selects either the decoded vector y n CHSL previous frame or the decoded vector y 'n CHSL previous frame generated node 2401 decode the code vector of the current frame using code L n + 1 LPC, according to the code B n delete the previous frame. If B n indicates the deleted frame, then switch 2402 selects y ′ n .

Если блок 209 выбора выбирает декодированный параметр КЛП предыдущего кадра, выводимый из буфера 210, то фактически не требуется выполнять всю обработку от узла 2401 декодирования кодового вектора до узла 208 преобразования КЛП.If the selection unit 209 selects the decoded LPC parameter of the previous frame output from the buffer 210, then it is not actually necessary to perform all the processing from the code vector decoding unit 2401 to the LPC conversion unit 208.

Далее будет подробно описана внутренняя конфигурация узла 2401 декодирования кодового вектора, показанного на фиг.24, используя структурную схему на фиг.25. Части конфигурации на фиг.25, которые являются общими с фиг.20, имеют те же самые позиционные обозначения, как на фиг.20, и их подробное описание опущено в данной работе. Узел 2401 декодирования кодового вектора на фиг.25 использует конфигурацию, в которой буфер 2502, усилитель 2503 и сумматор 2504 добавляют к узлу 1901 декодирования кодового вектора на фиг.20. Кроме того, работа и внутренняя конфигурация переключателя 2501 на фиг.25 отличаются от работы и конфигурации переключателя 309 на фиг.20.Next, the internal configuration of the code vector decoding unit 2401 shown in FIG. 24 will be described in detail using the block diagram of FIG. 25. Parts of the configuration of FIG. 25, which are common with FIG. 20, have the same reference numbers as in FIG. 20, and a detailed description thereof is omitted in this paper. The code vector decoding unit 2401 in FIG. 25 uses a configuration in which a buffer 2502, an amplifier 2503, and an adder 2504 are added to the code vector decoding unit 1901 in FIG. In addition, the operation and internal configuration of switch 2501 in FIG. 25 are different from the operation and configuration of switch 309 in FIG.

В кодовой книге 2001 генерируют кодовый вектор, идентифицированный кодом Ln+1 КЛП текущего кадра, и выводят его на переключатель 2501, а также на усилитель 2002.In codebook 2001, a code vector identified by the LPC code L n + 1 of the LPC of the current frame is generated and output to switch 2501, as well as to amplifier 2002.

Усилитель 2003 выполняет обработку для поиска вектора квантованного остатка предсказания в текущем кадре, необходимого для генерации декодированного вектора ЧСЛ предыдущего кадра. Т.е. усилитель 2003 вычисляет вектор xn+1 текущего кадра так, чтобы декодированный вектор yn ЧСЛ предыдущего кадра стал декодированным вектором yn+1 ЧСЛ текущего кадра. В частности, усилитель 2003 умножает вводимый декодированный вектор yn ЧСЛ предыдущего кадра на коэффициент (1-a1). Затем усилитель 2003 выводит результат этого вычисления на переключатель 2501.Amplifier 2003 performs processing to search for the vector of the quantized prediction residual in the current frame necessary to generate the decoded NUM vector of the previous frame. Those. the amplifier 2003 calculates a vector x n + 1 of the current frame so that the decoded vector y n of the LSF of the previous frame becomes the decoded vector y n + 1 of the LS of the current frame. In particular, amplifier 2003 multiplies the input decoded vector y n of the LSL of the previous frame by a factor (1-a 1 ). Amplifier 2003 then outputs the result of this calculation to switch 2501.

Если код Bn+1 удаления текущего кадра указывает, что «(n+1)-й кадр является обычным кадром», то переключатель 2501 выбирает вектор, выводимый из кодовой книги 2001, и выводит его в качестве вектора xn+1 квантованного остатка предсказания текущего кадра. С другой стороны, если код Bn+1 удаления текущего кадра указывает, что «(n+1)-й кадр является удаленным кадром», то переключатель 2501 выбирает вектор, выводимый из усилителя 2003, и выводит его как вектор xn+1 квантованного остатка предсказания текущего кадра. В этом случае обработка процесса генерации вектора из кодовой книги 2001 и из усилителей 2002 и 2004 через сумматор 2005 не должна выполняться.If the current frame deletion code B n + 1 indicates that “the (n + 1) th frame is a normal frame”, then the switch 2501 selects a vector output from the codebook 2001 and outputs it as the vector x n + 1 of the quantized remainder predictions of the current frame. On the other hand, if the deletion code B n + 1 of the current frame indicates that the “(n + 1) th frame is a deleted frame”, then the switch 2501 selects the vector output from the amplifier 2003 and outputs it as the vector x n + 1 quantized remainder of the prediction of the current frame. In this case, the processing of the vector generation process from the codebook 2001 and from the amplifiers 2002 and 2004 through the adder 2005 should not be performed.

Буфер 2502 хранит декодированный вектор yn ЧСЛ предыдущего кадра в течение продолжительности одного кадра и затем выводит этот декодированный вектор ЧСЛ на усилитель 2004 и усилитель 2503 как декодированный вектор yn-1 ЧСЛ на два кадра раньше.Buffer 2502 stores a decoded vector y n CHSL previous frame for the duration of one frame and then outputs the decoded vector CHSL amplifier 2004 and amplifier 2503 as a decoded vector y n-1 CHSL two frames before.

Усилитель 2004 умножает вводимый декодированный вектор yn-1 ЧСЛ на два кадра раньше на весовой коэффициент b-1 и выводит результат на сумматор 2005.Amplifier 2004 multiplies the input decoded vector y n-1 NLS two frames earlier by the weight coefficient b -1 and outputs the result to adder 2005.

Сумматор 2005 вычисляет сумму векторов, выводимых из усилителя 2002 и усилителя 2004, и выводит кодовый вектор, который является результатом этого вычисления, на сумматор 2504. Т.е. сумматор 2005 вычисляет вектор xn предыдущего кадра с помощью выполнения взвешенного суммирования кодового вектора, идентифицированного кодом Ln+1 КЛП текущего кадра, и декодированного вектора ЧСЛ на два кадра раньше и выводит его на сумматор 2504.Adder 2005 calculates the sum of the vectors output from amplifier 2002 and amplifier 2004, and outputs a code vector that is the result of this calculation to adder 2504. That is, the adder 2005 calculates the vector x n of the previous frame by performing a weighted summation of the code vector identified by the LPC code L n + 1 of the current frame and the decoded NUM vector two frames earlier and outputs it to the adder 2504.

Усилитель 2503 умножает декодированный вектор yn-1 ЧСЛ на два кадра раньше на коэффициент a1 предсказания и выводит результат на сумматор 2504.Amplifier 2503 multiplies the decoded vector y n-1 NLS two frames earlier by a prediction coefficient a 1 and outputs the result to adder 2504.

Сумматор 2504 складывает вместе выход 2005 сумматора (декодированный вектор xn предыдущего кадра, повторно вычисленный с использованием кода Ln+1 КЛП текущего кадра) и выход усилителя 2503 (вектор, являющийся результатом умножения декодированного вектора yn-1 ЧСЛ на два кадра раньше на коэффициент a1 предсказания), и повторно вычисляет декодированный вектор y′n ЧСЛ предыдущего кадра.The adder 2504 adds together the output of the 2005 adder (decoded vector x n of the previous frame, recalculated using the LPC code L n + 1 of the current frame) and the output of the amplifier 2503 (vector resulting from multiplying the decoded vector y n-1 NLS two frames earlier by prediction coefficient a 1), and recalculates the decoded vector y 'n CHSL previous frame.

Способ повторного вычисления декодированного вектора y′n ЧСЛ данного варианта осуществления является тем же самым, как обработка маскирования в варианте осуществления 7.The method of recalculating the decoded LSN vector Y ′ n of this embodiment is the same as the masking processing in Embodiment 7.

Таким образом, согласно данному варианту осуществления, использование конфигурации, посредством которой декодированный вектор xn, полученный посредством обработки маскирования варианта осуществления 7, используется только для внутреннего состояния устройства предсказания при декодировании (n+1)-го кадра, дает возможность уменьшать на один кадр задержку обработки, необходимую в варианте осуществления 7.Thus, according to this embodiment, using the configuration whereby the decoded vector x n obtained by masking processing of Embodiment 7 is used only for the internal state of the prediction device when decoding the (n + 1) th frame, makes it possible to decrease by one frame processing delay required in embodiment 7.

(Вариант осуществления 10)(Embodiment 10)

В указанных выше вариантах осуществления 1-9 обеспечивают только особенности, относящиеся к внутренней конфигурации и к обработке узла декодирования КЛП, но у конфигурации устройства декодирования речи согласно данному варианту осуществления существует особенность, относящаяся к конфигурации вне узла декодирования КЛП. Хотя настоящее изобретение можно применять к любой из фиг.1, фиг.8, фиг.11 или фиг.21, в данном варианте осуществления для примера описан случай, в котором настоящее изобретение применяют к фиг.1.In the above embodiments, 1-9 provide only features related to the internal configuration and processing of the LPC decoding node, but the configuration of the speech decoding device according to this embodiment has a feature related to the configuration outside the LPC decoding node. Although the present invention can be applied to any of FIG. 1, FIG. 8, FIG. 11 or FIG. 21, in this embodiment, for example, a case has been described in which the present invention is applied to FIG. 1.

Фиг.26 - структурная схема, на которой показывают устройство декодирования речи согласно данному варианту осуществления. Части конфигурации на фиг.26, которые являются общими с фиг.21, имеют те же самые позиционные обозначения, как на фиг.21, и их подробное описание опущено в данной работе. Устройство 100 декодирования речи, показанное на фиг.26, использует конфигурацию, в которой, по сравнению с фиг.21, добавлены узел 2601 вычисления коэффициента усиления фильтра, узел 2602 управления мощностью возбуждения и усилитель 2603.Fig. 26 is a block diagram showing a speech decoding apparatus according to this embodiment. Parts of the configuration in FIG. 26, which are common with FIG. 21, have the same reference numbers as in FIG. 21, and a detailed description thereof is omitted in this paper. The speech decoding apparatus 100 shown in FIG. 26 uses a configuration in which, compared to FIG. 21, a filter gain calculating section 2601, a drive power control section 2602, and an amplifier 2603 are added.

Узел 105 декодирования КЛП выводит декодированный КЛП в узел 109 синтеза КЛП и узел 2601 вычисления коэффициента усиления фильтра. Кроме того, узел 105 декодирования КЛП выводит код Bn удаления кадра, соответствующий декодируемому n-му кадру, в узел 2602 управления мощностью возбуждения.The LPC decoding section 105 outputs the decoded LPC to the LPC synthesis section 109 and the filter gain calculation section 2601. In addition, the LPC decoding section 105 outputs the frame deletion code B n corresponding to the decoded nth frame to the driving power control section 2602.

Узел 2601 вычисления коэффициента усиления фильтра вычисляет коэффициент усиления фильтра для фильтра синтеза, конфигурированного посредством ввода КЛП из узла 105 декодирования КЛП. Как пример способа вычисления коэффициента усиления фильтра, существует способ, посредством которого квадратный корень из мощности импульсной характеристики находят и используют в качестве коэффициента усиления фильтра. Это основано на том факте, что если входной сигнал рассматривают в качестве импульса с мощностью 1, то мощность импульсной характеристики фильтра синтеза, конфигурированного посредством вводимого КЛП, является в действительности информацией коэффициента усиления фильтра. Другой пример способа вычисления коэффициента усиления фильтра - способ, в котором так как среднеквадратический остаток линейного предсказания можно найти из КЛП с использованием алгоритма Левинсона-Дарбина, его инверсия используется в качестве информации коэффициента усиления фильтра, и квадратный корень из инверсии среднеквадратичного остатка линейного предсказания используют в качестве коэффициента усиления фильтра. Найденный коэффициент усиления фильтра выводят в узел 2602 управления мощностью возбуждения. Среднеквадратичную мощность импульсной характеристики или остатка линейного предсказания можно также выводить в узел 2602 управления мощностью возбуждения, не находя квадратный корень.The filter gain factor calculating section 2601 calculates a filter gain for the synthesis filter configured by inputting the LPC from the LPC decoding section 105. As an example of a method for calculating a filter gain, there is a method by which the square root of the power of the impulse response is found and used as a filter gain. This is based on the fact that if the input signal is considered as a pulse with a power of 1, then the power of the impulse response of the synthesis filter configured by the input LPC is actually filter gain information. Another example of a method for calculating a filter gain is a method in which since the RMS residual of the linear prediction can be found from the LPC using the Levinson-Darbin algorithm, its inversion is used as filter gain information, and the square root of the inversion of the rms of the linear prediction is used in as a filter gain. The found filter gain is output to the drive power control unit 2602. The rms power of the impulse response or the remainder of the linear prediction can also be output to the excitation power control unit 2602 without finding the square root.

Узел 2602 управления мощностью возбуждения, который имеет коэффициент усиления фильтра из узла 2601 вычисления коэффициента усиления фильтра в качестве вводимой информации, вычисляет коэффициент масштабирования для управления амплитудой сигнала возбуждения. Узел 2602 управления мощностью возбуждения обеспечен внутренней памятью и хранит в этой памяти коэффициент усиления фильтра предыдущего кадра. После того, как коэффициент масштабирования вычислен, содержимое памяти перезаписывают вводимым коэффициентом усиления фильтра текущего кадра. Вычисление коэффициента SGn масштабирования выполняют посредством уравнения SGn=DGmax×FGn-1/FGn, где FGn - коэффициент усиления фильтра текущего кадра, FGn-1 - коэффициент усиления фильтра предыдущего кадра, и DGmax - верхнее предельное значение скорости увеличения коэффициента усиления. В данном случае скорость увеличения коэффициента усиления описывают как FGn/FGn-1, и она указывает, во сколько раз коэффициент усиления фильтра текущего кадра больше коэффициента усиления фильтра предыдущего кадра. Верхнее предельное значение скорости увеличения коэффициента усиления определяют заранее как DGmax. Если коэффициент усиления фильтра резко повышается относительно коэффициента усиления фильтра предыдущего кадра в фильтре синтеза, созданном посредством обработки маскирования удаления кадра, то мощность выходного сигнала фильтра синтеза также резко повышается, и декодированный сигнал (синтезированный сигнал) имеет в определенном месте большую амплитуду, производя взрывной звук. Чтобы избежать этого, если коэффициент усиления фильтра синтеза, конфигурированного посредством декодированного КЛП, сгенерированного с помощью обработки маскирования удаления кадра, превышает предопределенную скорость увеличения коэффициента усиления относительно коэффициента усиления фильтра предыдущего кадра, то мощность декодированного сигнала возбуждения, который является сигналом управления фильтром синтеза, уменьшают. Для этой цели используется коэффициент масштабирования, и предопределенной скоростью увеличения коэффициента усиления является верхнее предельное значение DGmax скорости увеличения коэффициента усиления. Обычно возникновение взрывного звука можно предотвращать с помощью установки DGmax в значение 1 или в значение меньше 1, например, 0,98. Если FGn/FGn-1 меньше или равно DGmax, то SGn берут равным 1, 0, и масштабирование не требуется выполнять в усилителе 2603.The drive power control unit 2602, which has a filter gain from the filter gain calculation unit 2601 as input, calculates a scaling factor for controlling the amplitude of the drive signal. The drive power control unit 2602 is provided with an internal memory and stores a filter gain of the previous frame in this memory. After the scaling factor is calculated, the contents of the memory are overwritten with the input filter gain of the current frame. The scaling factor SG n is calculated using the equation SG n = DG max × FG n-1 / FG n , where FG n is the filter gain of the current frame, FG n-1 is the filter gain of the previous frame, and DG max is the upper limit value gain increase rate. In this case, the gain increase rate is described as FG n / FG n-1 , and it indicates how many times the filter gain of the current frame is greater than the filter gain of the previous frame. The upper limit value of the rate of increase of the gain is determined in advance as DG max . If the filter gain increases sharply relative to the filter gain of the previous frame in the synthesis filter created by the masking deletion processing, the output of the synthesis filter also increases sharply, and the decoded signal (synthesized signal) has a large amplitude in a certain place, producing an explosive sound . In order to avoid this, if the gain of the synthesis filter configured by the decoded LPC generated by the frame deletion mask processing exceeds a predetermined gain increase rate relative to the filter gain of the previous frame, then the power of the decoded excitation signal, which is the synthesis filter control signal, is reduced . For this purpose, a scaling factor is used, and the predetermined rate of increase of the gain is the upper limit value DG max of the rate of increase of the gain. Normally, an explosive sound can be prevented by setting the DG max to 1 or to a value less than 1, for example, 0.98. If FG n / FG n-1 is less than or equal to DG max , then SG n is taken equal to 1, 0, and scaling is not required to be performed in amplifier 2603.

Другой способ вычисления коэффициента SGn масштабирования состоит в том, чтобы использовать, например, уравнение SGn=Max(SGmax, FGn-1/FGn). В данном случае SGmax представляет максимальное значение коэффициента масштабирования и имеет значение, несколько больше 1, например, 1,5, и Мах(А, В) является функцией, которая выводит А или В, в зависимости от того, что имеет наибольшее значение. Если SGn=FGn-1/FGn, то мощность сигнала возбуждения уменьшается пропорционально увеличению коэффициента усиления фильтра, и мощность декодированного синтезированного сигнала текущего кадра становится такой же, как мощность декодированного синтезированного сигнала предыдущего кадра. Таким образом можно избежать описанного выше резкого увеличения мощности синтезированного сигнала, а также можно избежать резкого ослабления мощности синтезированного сигнала. В таком случае, если SGn=FGn-1/FGn, то SGn имеет значение 1 или выше, и играет роль в предотвращении локального ослабления мощности синтезированного сигнала. Однако, так как сигнал возбуждения, сгенерированный с помощью обработки маскирования удаления кадра, не обязательно подходит в качестве сигнала возбуждения, использование слишком большого коэффициента масштабирования может привести к заметному искажению и ухудшению качества. Следовательно, если обеспечивают верхнее предельное значение коэффициента масштабирования, и FGn-1/FGn превышает это верхнее предельное значение, то FGn-1/FGn обрезают до верхнего предельного значения.Another way to calculate the scaling factor SG n is to use, for example, the equation SG n = Max (SG max , FG n-1 / FG n ). In this case, SG max represents the maximum value of the scaling factor and has a value slightly greater than 1, for example, 1.5, and Max (A, B) is the function that outputs A or B, depending on which has the highest value. If SG n = FG n-1 / FG n , then the excitation signal power decreases in proportion to the increase in the filter gain, and the power of the decoded synthesized signal of the current frame becomes the same as the power of the decoded synthesized signal of the previous frame. In this way, a sharp increase in the power of the synthesized signal described above can be avoided, and a sharp decrease in the power of the synthesized signal can also be avoided. In this case, if SG n = FG n-1 / FG n , then SG n has a value of 1 or higher, and plays a role in preventing local attenuation of the power of the synthesized signal. However, since the drive signal generated by the frame deletion mask processing is not necessarily suitable as the drive signal, using too large a scaling factor can lead to noticeable distortion and poor quality. Therefore, if an upper limit value of the scaling factor is provided, and FG n-1 / FG n exceeds this upper limit value, then FG n-1 / FG n is cut to the upper limit value.

Коэффициент усиления фильтра предыдущего кадра или параметр, представляющий коэффициент усиления фильтра (такой, как мощность импульсной характеристики фильтра синтеза), можно вводить из внешнего узла 2602 управления мощностью возбуждения, вместо хранения в памяти в узле 2602 управления мощностью возбуждения. В частности, если информация, относящаяся к коэффициенту усиления фильтра предыдущего кадра, используется другой частью, чем речевой декодер, обеспечивают, чтобы описанный выше параметр вводили извне, а не перезаписывали в узле 2602 управления мощностью возбуждения.The filter gain of the previous frame, or a parameter representing the gain of the filter (such as the power of the impulse response of the synthesis filter), can be entered from the external drive power control unit 2602, instead of being stored in the drive power control unit 2602 in memory. In particular, if the information related to the filter gain of the previous frame is used in a different way than the speech decoder, it is ensured that the parameter described above is input from the outside rather than being overwritten in the drive power control unit 2602.

Затем узел 2602 управления мощностью возбуждения, который имеет код Bn удаления кадра в качестве вводимой информации из узла 105 декодирования КЛП, выводит вычисленный коэффициент масштабирования на усилитель 2603, если Bn указывает, что текущий кадр является удаленным кадром. С другой стороны, если Bn указывает, что текущий кадр не является удаленным кадром, то узел 2602 управления мощностью возбуждения выводит «1» на усилитель 2603 в качестве коэффициента масштабирования.Then, the drive power control unit 2602, which has the frame deletion code B n as input from the LPC decoding unit 105, outputs the calculated scaling factor to the amplifier 2603 if B n indicates that the current frame is a deleted frame. On the other hand, if B n indicates that the current frame is not a remote frame, then the drive power control unit 2602 outputs “1” to the amplifier 2603 as a scaling factor.

Усилитель 2603 умножает коэффициент масштабирования, вводимый из узла 2602 управления мощностью возбуждения, на декодированный сигнал возбуждения, вводимый из сумматора 108, и выводит результат в узел 109 синтеза КЛП.An amplifier 2603 multiplies the scaling factor input from the drive power control unit 2602 by a decoded drive signal input from the adder 108, and outputs the result to the LPC synthesis unit 109.

Таким образом, согласно данному варианту осуществления, если коэффициент усиления фильтра синтеза, конфигурированного посредством декодированного КЛП, сгенерированного с помощью обработки маскирования удаления кадра, изменяется по отношению к коэффициенту усиления фильтра предыдущего кадра, появление взрывчатого звука или потери звука можно предотвращать с помощью коррекции мощности декодированного речевого сигнала, который является управляющим сигналом фильтра синтеза.Thus, according to this embodiment, if the gain of the synthesis filter configured by the decoded LPC generated by the frame deletion mask processing is changed relative to the filter gain of the previous frame, the occurrence of explosive sound or sound loss can be prevented by correcting the power of the decoded speech signal, which is the control signal of the synthesis filter.

Даже если Bn указывает, что текущий кадр является удаленным кадром, то узел 2602 управления мощностью возбуждения может выводить вычисленный коэффициент масштабирования на усилитель 2603, если непосредственно предыдущий кадр является удаленным кадром (т.е., если Bn-1 указывает, что предыдущий кадр является удаленным кадром). Это происходит потому, что когда используется кодирование с предсказанием, может существовать остаточное влияние остатка на кадр, восстановленный из удаленного кадра. В этом случае, также может быть получен тот же самый результат, как описано выше.Even if B n indicates that the current frame is a remote frame, the drive power control unit 2602 can output the calculated scaling factor to amplifier 2603 if the immediately previous frame is a remote frame (i.e., if B n-1 indicates that the previous frame is a deleted frame). This is because when predictive coding is used, there may be a residual effect of the remainder on the frame recovered from the deleted frame. In this case, the same result can also be obtained as described above.

Это завершает описание вариантов осуществления настоящего изобретения.This completes the description of the embodiments of the present invention.

В указанных выше вариантах осуществления предполагают, что параметр кодирования является параметром ЧСЛ, но настоящее изобретение не ограничено этим, и его можно применять к параметру любого вида, пока он является параметром с незначительным изменением между кадрами. Например, могут использоваться частоты спектра иммитанса (ISF).In the above embodiments, it is assumed that the encoding parameter is an LSN parameter, but the present invention is not limited thereto, and it can be applied to a parameter of any kind as long as it is a parameter with a slight change between frames. For example, immitance spectrum frequencies (ISFs) may be used.

В приведенных выше вариантах осуществления предполагают, что параметром кодирования является сам параметр ЧСЛ, но может также использоваться параметр ЧСЛ «после устранения среднего значения», который является результатом выделения разности от среднего значения ЧСЛ.In the above embodiments, it is assumed that the encoding parameter is the LSN parameter itself, but the LSL parameter “after eliminating the average value”, which is the result of extracting the difference from the average LSL value, can also be used.

В дополнение к применению в устройстве декодирования речи и в устройстве кодирования речи, также возможно устанавливать устройство декодирования параметров и устройство кодирования параметров согласно настоящему изобретению в устройстве терминала связи и устройстве базовой станции в системе мобильной связи, посредством чего можно обеспечивать устройство терминала связи, устройство базовой станции и систему мобильной связи, которые имеют ту же самую эффективность обработки, как описано выше.In addition to being used in a speech decoding apparatus and a speech encoding apparatus, it is also possible to install a parameter decoding apparatus and a parameter encoding apparatus according to the present invention in a communication terminal apparatus and a base station apparatus in a mobile communication system, whereby it is possible to provide a communication terminal apparatus, a basic apparatus stations and a mobile communication system that have the same processing efficiency as described above.

Для примера описан случай, в котором настоящее изобретение конфигурируют как аппаратные средства, но также можно воплощать настоящее изобретение с помощью программного обеспечения. Например, тот же самый вид функций, как функции устройства кодирования параметров согласно настоящему изобретению, можно реализовывать с помощью записи алгоритма способа декодирования параметра согласно настоящему изобретению на языке программирования, сохранения этой программы в памяти и выполнения ее с помощью средства обработки информации.For example, a case has been described in which the present invention is configured as hardware, but it is also possible to implement the present invention with software. For example, the same kind of functions as the functions of the parameter encoding device according to the present invention can be realized by recording the algorithm of the method of decoding the parameter according to the present invention in a programming language, storing this program in memory and executing it using the information processing means.

Функциональные блоки, используемые в описаниях указанных выше вариантов осуществления, обычно воплощают как БИС (большие интегральные схемы), которые являются интегральными схемами. Их можно воплощать отдельно, как одиночные микросхемы, или одна микросхема может внедрять некоторых или все из них.Function blocks used in the descriptions of the above embodiments are typically embodied as LSIs (large integrated circuits), which are integrated circuits. They can be implemented separately, as single chips, or one chip can implement some or all of them.

В данном документе используется термин БИС, но термины интегральная схема (ИС), системная БИС, сверхбольшая интегральная схема (СБИС), ультрабольшая интегральная схема (УБИС) и т.д. могут также использоваться согласно различиям в степени интеграции.The term LSI is used in this document, but the terms integrated circuit (IC), system LSI, ultra-large integrated circuit (VLSI), ultra-large integrated circuit (UBIS), etc. may also be used according to differences in degree of integration.

Способ воплощения интегральных схем не ограничен БИС, и может также использоваться реализация посредством специализированных схем или универсального процессора. Могут также использоваться ППВМ (программируемая пользователем вентильная матрица), для которой программирование возможно после изготовления БИС, или реконфигурируемый процессор, позволяющий реконфигурацию соединений между элементами схемы и параметров настройки в пределах БИС.The method for implementing integrated circuits is not limited to LSIs, and implementation through specialized circuits or a universal processor may also be used. PPVM can also be used (user-programmable gate array), for which programming is possible after manufacturing the LSI, or a reconfigurable processor that allows reconfiguration of the connections between circuit elements and settings within the LSI.

В случае введения технологии реализации интегральной схемы, посредством которой БИС заменят другой технологией, которая является развитием или производным от полупроводниковой технологии, интеграцию функциональных блоков можно, конечно, выполнять, используя эту технологию. Применение биотехнологии или подобной технологии также возможно.In the case of the introduction of the implementation technology of an integrated circuit by which LSIs will be replaced by another technology that is a development or derivative of semiconductor technology, the integration of functional blocks can, of course, be performed using this technology. The use of biotechnology or similar technology is also possible.

Раскрытия японской патентной заявки №2006-305861, поданной 10 ноября 2006, японской патентной заявки №2007-132195, поданной 17 мая 2007, и японской патентной заявки номер 2007-240198, поданной 14 сентября 2007, которые включают в себя описание, чертежи и реферат, представлены во всей своей полноте для справки.Disclosures of Japanese Patent Application No. 2006-305861, filed November 10, 2006, Japanese Patent Application No. 2007-132195, filed May 17, 2007, and Japanese Patent Application No. 2007-240198, filed September 14, 2007, which include a description, drawings and abstract are presented in their entirety for reference.

Промышленная применимостьIndustrial applicability

Устройство декодирования параметров, устройство кодирования параметров и способ декодирования параметров согласно настоящему изобретению пригодны для использования в устройстве декодирования речи и устройстве кодирования речи, и кроме того, в устройстве терминала связи, устройстве базовой станции и т.п. в системе мобильной связи.A parameter decoding apparatus, a parameter encoding apparatus, and a parameter decoding method according to the present invention are suitable for use in a speech decoding apparatus and a speech encoding apparatus, and furthermore, in a communication terminal apparatus, a base station apparatus, and the like. in a mobile communication system.

Claims (7)

1. Устройство декодирования параметров, содержащее:
узел декодирования остатка предсказания, который находит квантованный остаток предсказания, основываясь на кодированной информации, включаемой в текущий кадр, подвергаемый декодированию; и
узел декодирования параметра, который декодирует параметр, основываясь на указанном квантованном остатке предсказания,
причем указанный узел декодирования остатка предсказания, когда указанный текущий кадр удаляют, находит квантованный остаток предсказания текущего кадра из взвешенной линейной суммы параметра, декодированного в прошлом, и квантованного остатка предсказания будущего кадра.
1. A device for decoding parameters, comprising:
a prediction residual decoding unit that finds a quantized prediction residual based on encoded information included in the current frame to be decoded; and
a parameter decoding unit that decodes the parameter based on the specified quantized prediction residual,
wherein said decoding residual decoding node, when said current frame is deleted, finds the quantized prediction residual of the current frame from the weighted linear sum of the parameter decoded in the past and the quantized prediction residual of the future frame.
2. Устройство декодирования параметров по п.1, в котором указанный узел декодирования остатка предсказания, когда указанный текущий кадр удаляют, находит квантованный остаток предсказания текущего кадра так, чтобы общая сумма расстояния между декодированным параметром прошлого кадра и декодированным параметром текущего кадра и расстояния между декодированным параметром текущего кадра и декодированным параметром будущего кадра была минимальной.2. The parameter decoding apparatus according to claim 1, wherein said decoding residual decoding node, when said current frame is deleted, finds a quantized prediction residual of the current frame so that the total sum of the distance between the decoded parameter of the past frame and the decoded parameter of the current frame and the distance between the decoded parameter of the current frame and the decoded parameter of the future frame was minimal. 3. Устройство декодирования параметров по п.1, в котором указанный узел декодирования остатка предсказания хранит множество наборов весовых коэффициентов, и когда указанный текущий кадр удаляют, выбирает набор весовых коэффициентов, основываясь на команде от взаимодействующей стороны, и умножает указанный набор весовых коэффициентов на указанный параметр, декодированный в прошлом, и указанный квантованный остаток предсказания будущего кадра.3. The parameter decoding apparatus according to claim 1, wherein said decoding residual decoding unit stores a plurality of sets of weighting factors, and when said current frame is deleted, selects a set of weighting factors based on a command from the interacting party and multiplies said set of weighting factors by said a parameter decoded in the past and the specified quantized remainder of the prediction of the future frame. 4. Устройство декодирования параметров по п.1, в котором указанный узел декодирования остатка предсказания, когда указанный текущий кадр удаляют, находит квантованный остаток предсказания текущего кадра из взвешенной линейной суммы параметра, декодированного в прошлом, квантованного остатка предсказания прошлого кадра и квантованного остатка предсказания будущего кадра.4. The parameter decoding apparatus according to claim 1, wherein said decoding residual decoding node, when said current frame is deleted, finds a quantized prediction residual of a current frame from a weighted linear sum of a parameter decoded in the past, a quantized prediction residual of a past frame, and a quantized future prediction remainder frame. 5. Устройство кодирования параметров, содержащее:
узел анализа, который анализирует вводимый сигнал и находит анализируемый параметр;
узел кодирования, который предсказывает указанный анализируемый параметр, используя коэффициент предсказания, и получает квантованный параметр, используя квантованный остаток предсказания, полученный с помощью квантованного остатка предсказания и указанного коэффициента предсказания;
узел маскирования предыдущего кадра, который хранит множество наборов весовых коэффициентов, находит взвешенную сумму, используя указанные наборы весовых коэффициентов для указанного квантованного остатка предсказания текущего кадра, указанный квантованный остаток предсказания два кадра назад и указанный квантованный параметр два кадра назад, и находит множество указанных квантованных параметров предыдущего кадра, используя указанную взвешенную сумму; и
узел определения, который сравнивает множество указанных квантованных параметров предыдущего кадра, найденных с помощью указанного узла маскирования предыдущего кадра, и указанный анализируемый параметр, найденный с помощью указанного узла анализа предыдущего кадра, выбирает один из указанных квантованных параметров предыдущего кадра, и выбирает и кодирует набор весовых коэффициентов, соответствующий выбранному указанному квантованному параметру предыдущего кадра.
5. A parameter encoding device, comprising:
an analysis node that analyzes the input signal and finds the analyzed parameter;
a coding unit that predicts the specified analyzed parameter using the prediction coefficient, and obtains a quantized parameter using the quantized prediction remainder obtained using the quantized prediction remainder and the specified prediction coefficient;
the masking unit of the previous frame, which stores a plurality of sets of weighting coefficients, finds the weighted sum using the specified sets of weighting coefficients for the specified quantized prediction residual of the current frame, the specified quantized prediction residual two frames back and the specified quantized parameter two frames back, and finds the set of specified quantized parameters previous frame using the specified weighted sum; and
a determination node that compares the plurality of said quantized parameters of the previous frame found using the specified masking unit of the previous frame, and the specified parsed parameter found using the specified analysis node of the previous frame, selects one of the specified quantized parameters of the previous frame, and selects and encodes a set of weight coefficients corresponding to the selected specified quantized parameter of the previous frame.
6. Способ декодирования параметров, содержащий:
этап декодирования остатка предсказания, состоящий из обнаружения квантованного остатка предсказания на основе кодированной информации, включенной в текущий кадр, подвергаемый декодированию; и
этап декодирования параметра, состоящий из декодирования параметра, на основе указанного квантованного остатка предсказания,
причем на указанном этапе декодирования остатка предсказания, когда указанный текущий кадр удаляют, квантованный остаток предсказания текущего кадра находят из взвешенной линейной суммы параметра, декодированного в прошлом, и квантованного остатка предсказания будущего кадра.
6. A method for decoding parameters, comprising:
a prediction residual decoding step of detecting a quantized prediction residual based on encoded information included in the current frame to be decoded; and
a parameter decoding step consisting of decoding a parameter based on the specified quantized prediction remainder,
moreover, at the indicated stage of decoding the prediction residual, when the specified current frame is deleted, the quantized prediction residual of the current frame is found from the weighted linear sum of the parameter decoded in the past and the quantized prediction residual of the future frame.
7. Способ декодирования параметров по п.6, в котором на указанном этапе декодирования остатка предсказания, когда указанный текущий кадр удаляют, квантованный остаток предсказания текущего кадра находят таким образом, чтобы общая сумма расстояния между декодированным параметром прошлого кадра и декодированным параметром текущего кадра и расстояния между декодированным параметром текущего кадра и декодированным параметром будущего кадра была минимальной. 7. The method of decoding the parameters according to claim 6, in which at the indicated step of decoding the prediction residual, when the specified current frame is deleted, the quantized prediction residual of the current frame is found so that the total sum of the distance between the decoded parameter of the last frame and the decoded parameter of the current frame and the distance between the decoded parameter of the current frame and the decoded parameter of the future frame was minimal.
RU2009122173/09A 2006-11-10 2007-11-09 Parameter decoding device, parameter encoding device and parameter decoding method RU2431892C2 (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2006305861 2006-11-10
JP2006-305861 2006-11-10
JP2007-132195 2007-05-17
JP2007132195 2007-05-17
JP2007-240198 2007-09-14

Related Child Applications (2)

Application Number Title Priority Date Filing Date
RU2011124068/08A Division RU2011124068A (en) 2006-11-10 2011-06-14 PARAMETER DECORATION DEVICE, PARAMETER CODING DEVICE AND METHOD DECODING METHOD
RU2011124080/08A Division RU2011124080A (en) 2006-11-10 2011-06-14 PARAMETER DECODING DEVICE, PARAMETER CODING DEVICE AND METHOD DECODING METHOD

Publications (2)

Publication Number Publication Date
RU2009122173A RU2009122173A (en) 2010-12-20
RU2431892C2 true RU2431892C2 (en) 2011-10-20

Family

ID=44056263

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2009122173/09A RU2431892C2 (en) 2006-11-10 2007-11-09 Parameter decoding device, parameter encoding device and parameter decoding method

Country Status (1)

Country Link
RU (1) RU2431892C2 (en)

Also Published As

Publication number Publication date
RU2009122173A (en) 2010-12-20

Similar Documents

Publication Publication Date Title
EP2538406B1 (en) Method and apparatus for decoding parameters of a CELP encoded speech signal
EP1876586B1 (en) Audio encoding device and audio encoding method
US20090248404A1 (en) Lost frame compensating method, audio encoding apparatus and audio decoding apparatus
US7978771B2 (en) Encoder, decoder, and their methods
US20020111800A1 (en) Voice encoding and voice decoding apparatus
KR20070028373A (en) Audio/music decoding device and audio/music decoding method
JP3063668B2 (en) Voice encoding device and decoding device
RU2431892C2 (en) Parameter decoding device, parameter encoding device and parameter decoding method
EP1187337B1 (en) Speech coding processor and speech coding method
EP1204094B1 (en) Excitation signal low pass filtering for speech coding
JP4373693B2 (en) Hierarchical encoding method and hierarchical decoding method for acoustic signals
JPH0561499A (en) Voice encoding/decoding method
KR100718487B1 (en) Harmonic noise weighting in digital speech coders
JPH08185199A (en) Voice coding device
TWI544481B (en) Apparatus and method for synthesizing an audio signal, decoder, encoder, system and computer program
JPH0990997A (en) Speech coding device, speech decoding device, speech coding/decoding method and composite digital filter
JP2000089797A (en) Speech encoding apparatus
JPH10149200A (en) Linear predictive encoder
JP2003029798A (en) Methods, devices, programs and recording media for encoding and decoding acoustic signal
JP2817196B2 (en) Audio coding method
JPH0981195A (en) Voice coding device
JPH06130997A (en) Voice encoding device
JPH11316600A (en) Method and device for encoding lag parameter and code book generating method

Legal Events

Date Code Title Description
PC41 Official registration of the transfer of exclusive right

Effective date: 20150206

MM4A The patent is invalid due to non-payment of fees

Effective date: 20181110