Claims (23)
1. Декодер для восстановления массива (10) выборок из энтропийно закодированного потока данных, сконфигурированный для1. Decoder for restoring an array (10) of samples from an entropy encoded data stream, configured for
энтропийного декодирования множества энтропийных слайсов в потоке данных энтропийного кодера для того, чтобы восстанавливать различные порции (12) массива выборок, связанные с энтропийными слайсами, соответственно, с помощьюentropy decoding of a plurality of entropy slices in a data stream of an entropy encoder in order to recover various portions (12) of an array of samples associated with entropy slices, respectively, using
выполнения для каждого энтропийного слайса энтропийного декодирования вдоль соответствующей траектории (14) энтропийного кодирования, используя соответствующие оценки вероятности,performing, for each entropy slice, entropy decoding along the corresponding path (14) of entropy encoding using the corresponding probability estimates,
адаптирования соответствующих оценок вероятности вдоль соответствующей траектории энтропийного кодирования, используя ранее декодированную часть соответствующего энтропийного слайса,adapting the corresponding probability estimates along the corresponding path of entropy coding using the previously decoded part of the corresponding entropy slice,
запуска энтропийного декодирования множества энтропийных слайсов последовательно, используя порядок (16) энтропийных слайсов, иtriggering entropy decoding of multiple entropy slices sequentially using the order (16) of entropy slices, and
выполнения при энтропийном декодировании предопределенного энтропийного слайса энтропийного декодирования текущей части предопределенного энтропийного слайса, основываясь на соответствующих оценках вероятности предопределенного энтропийного слайса, которые адаптированы, используя ранее декодированную часть предопределенного энтропийного слайса, и оценках вероятности, которые используются при энтропийном декодировании пространственно соседнего, по порядку энтропийных слайсов предыдущего энтропийного слайса в соседней части пространственно соседнего энтропийного слайса.performing entropy decoding of a predetermined entropy slice of entropy decoding of the current part of the predetermined entropy slice based on the corresponding probability estimates of the predetermined entropy slice, which are adapted using the previously decoded part of the predetermined entropy slice, and probability estimates that are used for entropy decoding by spatial order slices of the previous entropy slice in the adjacent part rostranstvenno neighboring entropy slice.
2. Декодер по п. 1, в котором различными порциями являются строки блоков массива выборок.2. The decoder according to claim 1, in which the various portions are the rows of blocks of the array of samples.
3. Декодер по п. 1, в котором порядок энтропийных слайсов выбирают таким образом, что по порядку энтропийных слайсов различные порции следуют друг за другом в направлении (16), повернутом относительно траекторий (14) энтропийного кодирования энтропийных слайсов, которые, в свою очередь, распространяются по существу параллельно друг другу.3. The decoder according to claim 1, in which the order of the entropy slices is chosen so that, in the order of the entropy slices, the different portions follow each other in the direction (16), turned relative to the paths (14) of the entropy encoding of the entropy slices, which, in turn, , propagate essentially parallel to each other.
4. Декодер по п. 1, в котором каждый энтропийный слайс имеет энтропийно закодированные в нем данные для соответствующей порции массива выборок, различные порции формируют строки блоков массива выборок, причем блоки регулярно расположены в строках и столбцах так, чтобы порции, соответствующие энтропийным слайсам, состояли из одного и того же количества блоков и траектория энтропийного кодирования указывала параллельно вдоль строк блоков, причем декодер сконфигурирован для выполнения для каждого энтропийного слайса (90) инициализации для соответствующего энтропийного слайса оценок (94) вероятности перед декодированием первого блока порции (12), соответствующей соответствующему энтропийному слайсу вдоль соответствующей траектории (14) кодирования, причем оценки вероятности обнаруживаются непосредственно после энтропийного декодирования второго блока (50) порции (12), соответствующей по порядку (16) энтропийных слайсов предыдущему энтропийному слайсу вдоль соответствующей траектории кодирования.4. The decoder according to claim 1, in which each entropy slice has entropy encoded data therein for the corresponding portion of the array of samples, different portions form rows of blocks of the array of samples, the blocks being regularly arranged in rows and columns so that the portions corresponding to the entropy slices consisted of the same number of blocks and the path of entropy coding indicated in parallel along the lines of blocks, and the decoder is configured to perform initialization for each entropy slice (90) for the corresponding entropy slice of probability estimates (94) before decoding the first portion block (12) corresponding to the corresponding entropy slice along the corresponding coding path (14), and probability estimates are detected immediately after the entropy decoding of the second block (50) of portion (12), corresponding in order (16) entropy slices to the previous entropy slice along the corresponding coding path.
5. Декодер по п. 4, в котором декодер сконфигурирован для сохранения оценок вероятности, обнаруживающихся после энтропийного декодирования второго блока порции, соответствующей по порядку энтропийных слайсов предыдущему энтропийному слайсу вдоль соответствующей траектории кодирования, и использования сохраненных оценок вероятности для инициализации перед декодированием первого блока порции, соответствующей соответствующему энтропийному слайсу вдоль соответствующей траектории кодирования.5. The decoder according to claim 4, in which the decoder is configured to store probability estimates detected after entropy decoding of the second portion block corresponding in order of entropy slices to the previous entropy slice along the corresponding coding path, and use the stored probability estimates for initialization before decoding the first portion block corresponding to the corresponding entropy slice along the corresponding coding path.
6. Декодер по п. 1, в котором каждый энтропийный слайс имеет энтропийно закодированные в нем данные для соответствующей порции массива выборок, различные порции формируют строки блоков массива выборок, причем блоки регулярно расположены в строках и столбцах так, чтобы порции, соответствующие энтропийным слайсам, состояли из одного и того же количества блоков, и траектория энтропийного кодирования указывала параллельно вдоль строк блоков, причем декодер сконфигурирован для выполнения для каждого энтропийного слайса энтропийного декодирования вдоль соответствующей траектории энтропийного кодирования и адаптирования соответствующих оценок вероятности вдоль соответствующей траектории энтропийного кодирования таким образом, что после того, как текущая часть предопределенного энтропийного слайса энтропийно декодирована, основываясь на соответствующих оценках (94) вероятности предопределенного энтропийного слайса, соответствующие оценки (94) вероятности предопределенного энтропийного слайса адаптируются в зависимости от текущей части предопределенного энтропийного слайса и оценок вероятности, которые обнаруживаются при энтропийном декодировании соседней части пространственно соседнего энтропийного слайса.6. The decoder according to claim 1, in which each entropy slice has entropy-encoded data in it for the corresponding portion of the array of samples, different portions form rows of blocks in the array of samples, the blocks being regularly arranged in rows and columns so that the portions corresponding to the entropy slices consisted of the same number of blocks, and the path of entropy coding indicated parallel along the lines of blocks, and the decoder is configured to perform an entropy decoder for each entropy slice along the corresponding path of entropy coding and adapting the corresponding probability estimates along the corresponding path of entropy coding so that after the current part of the predetermined entropy slice is entropy decoded based on the corresponding probability estimates (94) of the predetermined entropy slice, the corresponding probability estimates (94) the predefined entropy slice adapt depending on the current part of the predefined entropy slice slice and probability estimates that are detected during entropy decoding of spatially neighboring parts of the neighboring entropy slice.
7. Декодер по п. 6, в котором декодер сконфигурирован таким образом, чтобы адаптирование соответствующих оценок вероятности предопределенного энтропийного слайса, после того, как текущая часть предопределенного энтропийного слайса энтропийно декодирована, основываясь на соответствующих оценках вероятности предопределенного энтропийного слайса, выполнялось с помощью первого адаптирования в зависимости от текущей части предопределенного энтропийного слайса и усреднения результата первого адаптирования с помощью оценок вероятности, которые используются при энтропийном декодировании соседней части пространственно соседнего энтропийного слайса.7. The decoder of claim 6, wherein the decoder is configured to adapt the corresponding probability estimates of the predetermined entropy slice after the current portion of the predetermined entropy slice is entropy decoded based on the corresponding probability estimates of the predetermined entropy slice using the first adaptation depending on the current part of the predefined entropy slice and averaging the result of the first adaptation using probability estimates, which are used in the entropy decoding of the neighboring part of a spatially adjacent entropy slice.
8. Декодер по п. 4, в котором декодер сконфигурирован для направления энтропийного декодирования непосредственно следующих друг за другом энтропийных слайсов по порядку энтропийных слайсов так, чтобы не допускать, чтобы расстояние между в настоящее время декодируемыми блоками порций, соответствующих непосредственно следующим друг за другом энтропийным слайсам, измеренное в блоках вдоль траекторий кодирования, стало меньше двух блоков.8. The decoder according to claim 4, wherein the decoder is configured to direct entropy decoding of directly following entropy slices in the order of entropy slices so as to prevent the distance between the currently decoded portion units corresponding directly to the successive entropy slices slices, measured in blocks along the coding paths, became less than two blocks.
9. Декодер по п. 4, в котором декодер сконфигурирован для направления энтропийного декодирования непосредственно следующих друг за другом энтропийных слайсов по порядку энтропийных слайсов так, чтобы расстояние между декодируемыми в настоящее время блоками порций, соответствующих непосредственно следующим друг за другом энтропийным слайсам, измеренное в блоках вдоль траекторий кодирования, оставалось два блока.9. The decoder according to claim 4, in which the decoder is configured to direct entropy decoding of directly following entropy slices in order of entropy slices so that the distance between the currently decoded blocks of portions corresponding directly to successive entropy slices, measured in blocks along the coding paths, two blocks remained.
10. Декодер по п. 1, в котором энтропийные слайсы подразделяются на фрагменты, и декодер содержит деперемежитель для деперемежения фрагментов и сконфигурирован для начала энтропийного декодирования энтропийных слайсов параллельно вдоль траекторий энтропийного декодирования даже перед приемом целиком любого из энтропийных слайсов.10. The decoder according to claim 1, wherein the entropy slices are subdivided into fragments, and the decoder comprises a deinterleaver for deinterleaving the fragments and configured to start entropy decoding of the entropy slices in parallel along the paths of entropy decoding even before receiving all of the entropy slices.
11. Декодер по п. 1, в котором энтропийные слайсы подразделяются на фрагменты, и декодер сконфигурирован для11. The decoder according to claim 1, in which the entropy slices are divided into fragments, and the decoder is configured to
проверки, соответствует или нет текущий фрагмент первой подпорции порции предопределенного энтропийного слайса вдоль траектории энтропийного кодирования, иchecking whether or not the current fragment of the first portion of the portion of the predetermined entropy slice corresponds along the path of entropy coding, and
если «да», то энтропийно декодируют текущий фрагмент при адаптировании соответствующих оценок вероятности и учете состояния соответствующих оценок вероятности, которые обнаруживаются в конце энтропийного декодирования текущего фрагмента, когда энтропийно декодируют другой фрагмент, который соответствует второй подпорции порции предопределенного энтропийного слайса вдоль траектории энтропийного кодирования, иif “yes”, then the current fragment is entropically decoded by adapting the corresponding probability estimates and taking into account the state of the corresponding probability estimates, which are found at the end of the entropy decoding of the current fragment, when another fragment is entropically decoded, which corresponds to the second subportion of a portion of the predetermined entropy slice along the entropy encoding path, and
если «нет», то энтропийно декодируют текущий фрагмент, используя оценки вероятности, которые зависят от оценок вероятности, обнаруживающихся в конце энтропийного декодирования фрагмента, который соответствует подпорции порции предопределенного энтропийного слайса, предшествующей подпорции, соответствующей текущему фрагменту, вдоль траектории энтропийного кодирования.if not, then the current fragment is entropy decoded using probability estimates that depend on the probability estimates found at the end of the entropy decoding of the fragment that corresponds to the subportation of a portion of the predetermined entropy slice preceding the subportation corresponding to the current fragment along the entropy encoding path.
12. Декодер по п. 1, в котором массив (10) выборок является текущим массивом выборок последовательности массивов выборок, и декодирование сконфигурировано для того, чтобы при энтропийном декодировании предопределенного энтропийного слайса текущую часть предопределенного энтропийного слайса энтропийно декодировали, основываясь на соответствующих оценках вероятности предопределенного энтропийного слайса, которые адаптированы, используя ранее декодированную часть предопределенного энтропийного слайса, оценках вероятности, используемых при энтропийном декодировании пространственно соседнего, по порядку энтропийных слайсов предыдущего энтропийного слайса в соседней части пространственно соседнего энтропийного слайса, и оценках вероятности, используемых при декодировании ранее декодированного кадра энтропийно закодированного потока данных, относящегося к другому массиву выборок, чем текущий массив выборок.12. The decoder according to claim 1, in which the array (10) of samples is the current array of samples of the sequence of arrays of samples, and the decoding is configured so that when entropy decoding a predetermined entropy slice, the current part of the predetermined entropy slice is entropy decoded based on the corresponding estimates of the probability of the predetermined entropy slice, which are adapted using the previously decoded portion of the predetermined entropy slice, probability estimates are used x during the entropy decoding of a spatially adjacent, in the order of entropy slices of the previous entropy slice in the neighboring part of the spatially adjacent entropy slice, and probability estimates used in decoding a previously decoded frame of an entropy encoded data stream belonging to a different array of samples than the current array of samples.
13. Декодер, сконфигурированный для восстановлении последовательности массивов выборок из энтропийно закодированного потока данных, сконфигурированный для13. A decoder configured to reconstruct a sequence of arrays of samples from an entropy encoded data stream, configured to
энтропийного декодирования текущего кадра энтропийно закодированного потока данных так, чтобы восстанавливать текущий массив выборок последовательности массивов выборок,entropy decoding of the current frame of the entropy encoded data stream so as to restore the current array of samples in a sequence of arrays of samples,
выполнения энтропийного декодирования вдоль траектории энтропийного кодирования и используя оценки вероятности иperforming entropy decoding along the path of entropy coding and using probability estimates and
адаптирования оценок вероятности вдоль траектории энтропийного кодирования, используя ранее декодированную часть текущего кадра,adapting probability estimates along the entropy coding path using the previously decoded portion of the current frame,
причем декодер сконфигурирован для инициализации или определения оценок вероятности для текущего кадра, основываясь на оценках вероятности, используемых при декодировании ранее декодированного кадра энтропийно закодированного потока данных.wherein the decoder is configured to initialize or determine probability estimates for the current frame based on probability estimates used in decoding a previously decoded frame of an entropy encoded data stream.
14. Декодер по п. 13, в котором каскад энтропийного декодирования сконфигурирован для инициализации оценок вероятности для текущего кадра, основываясь на оценках вероятности, которые являются результатом после завершения декодирования ранее декодированного кадра энтропийно закодированного потока данных.14. The decoder of claim 13, wherein the entropy decoding stage is configured to initialize probability estimates for the current frame based on probability estimates that result from decoding the previously decoded frame of the entropy encoded data stream.
15. Декодер по п. 13, в котором каскад энтропийного декодирования сконфигурирован для выполнения адаптирования, основываясь на соответствующих оценках вероятности предопределенного энтропийного слайса, которые адаптируются, используя ранее декодированную часть предопределенного энтропийного слайса, и оценках вероятности, которые используются при энтропийном декодировании пространственно соответствующей части энтропийного слайса ранее декодированного кадра и, необязательно, оценках вероятности, которые используются при энтропийном декодировании пространственно соседнего, по порядку энтропийных слайсов предыдущего энтропийного слайса в соседней части пространственно соседнего энтропийного слайса.15. The decoder of claim 13, wherein the entropy decoding stage is configured to perform adaptation based on the corresponding probability estimates of the predetermined entropy slice, which are adapted using the previously decoded part of the predetermined entropy slice, and the probability estimates that are used in entropy decoding of the spatially corresponding part the entropy slice of a previously decoded frame and, optionally, probability estimates that are used in entropy decoding the spatially adjacent, the order of entropy slices preceding entropy slice in the next part of spatially neighboring entropy slice.
16. Декодер по п. 13, в котором каскад энтропийного декодирования сконфигурирован для выбора пространственно соответствующей части энтропийного слайса ранее декодированного кадра и/или соседней части пространственно соседнего энтропийного слайса, основываясь на опорных элементах предсказания.16. The decoder of claim 13, wherein the entropy decoding stage is configured to select a spatially corresponding portion of the entropy slice of a previously decoded frame and / or an adjacent portion of the spatially adjacent entropy slice based on prediction reference elements.
17. Кодер для кодирования массива (10) выборок в энтропийно закодированный поток данных, сконфигурированный для17. An encoder for encoding an array (10) of samples into an entropy encoded data stream configured for
энтропийного кодирования множества энтропийных слайсов в поток данных энтропийного кодера, каждый энтропийный слайс связывают с отличающейся порцией (12) массива выборок, соответственно, с помощьюentropy encoding of a plurality of entropy slices into a data stream of an entropy encoder, each entropy slice is associated with a different portion (12) of the sample array, respectively, using
выполнения для каждого энтропийного слайса энтропийного кодирования вдоль соответствующей траектории (14) энтропийного кодирования, используя соответствующие оценки вероятности,performing, for each entropy slice, entropy coding along the corresponding path (14) of entropy coding using the corresponding probability estimates,
адаптирования соответствующих оценок вероятности вдоль соответствующей траектории энтропийного кодирования, используя ранее декодированную часть соответствующего энтропийного слайса,adapting the corresponding probability estimates along the corresponding path of entropy coding using the previously decoded part of the corresponding entropy slice,
запуска энтропийного кодирования множества энтропийных слайсов последовательно, используя порядок (16) энтропийных слайсов, иrun entropy coding of multiple entropy slices sequentially using the order (16) of entropy slices, and
выполнения при энтропийном кодировании предопределенного энтропийного слайса энтропийного кодирования текущей части предопределенного энтропийного слайса, основываясь на соответствующих оценках вероятности предопределенного энтропийного слайса, которые адаптируются, используя ранее закодированную часть предопределенного энтропийного слайса, и на оценках вероятности, которые используются при энтропийном кодировании пространственно соседнего, по порядку энтропийных слайсов предыдущего энтропийного слайса в соседней части пространственно соседнего энтропийного слайса.performing entropy encoding of a predetermined entropy slice entropy coding the current part of the predetermined entropy slice based on the corresponding probability estimates of the predetermined entropy slice, which are adapted using the previously encoded part of the predetermined entropy slice, and on the probability estimates that are used in the entropy coding entropy slices of the previous entropy slice in the neighboring part of pros transneighboring entropy slice.
18. Кодер, сконфигурированный для кодирования последовательности массивов выборок в энтропийно закодированный поток данных, сконфигурированный для18. An encoder configured to encode a sequence of arrays of samples into an entropy encoded data stream configured to
энтропийного кодирования текущего кадра энтропийно закодированного потока данных так, чтобы восстанавливать текущий массив выборок последовательности массивов выборок,entropy encoding of the current frame of the entropy encoded data stream so as to restore the current array of samples in a sequence of arrays of samples,
выполнения энтропийного кодирования вдоль траектории энтропийного кодирования и используя оценки вероятности иperforming entropy coding along the path of entropy coding and using probability estimates and
адаптирования оценок вероятности вдоль траектории энтропийного кодирования, используя ранее закодированную часть текущего кадра,adapting probability estimates along the path of entropy coding using the previously encoded portion of the current frame,
причем кодер сконфигурирован для инициализации или определения оценок вероятности для текущего кадра, основываясь на оценках вероятности, используемых при кодировании ранее закодированного кадра энтропийно закодированного потока данных.wherein the encoder is configured to initialize or determine probability estimates for the current frame based on probability estimates used in encoding a previously encoded frame of an entropy encoded data stream.
19. Способ восстановления массива (10) выборок из энтропийно закодированного потока данных, содержащий этап, на котором19. A method of restoring an array (10) of samples from an entropy encoded data stream, comprising the step of:
энтропийно декодируют множество энтропийных слайсов в потоке данных энтропийного кодера так, чтобы восстанавливать различные порции (12) массива выборок, связанные с энтропийными слайсами, соответственно, с помощьюentropy decode a plurality of entropy slices in the data stream of the entropy encoder so as to restore different portions (12) of the array of samples associated with the entropy slices, respectively, using
выполнения для каждого энтропийного слайса энтропийного декодирования вдоль соответствующей траектории (14) энтропийного кодирования, используя соответствующие оценки вероятности,performing, for each entropy slice, entropy decoding along the corresponding path (14) of entropy encoding using the corresponding probability estimates,
адаптирования соответствующих оценок вероятности вдоль соответствующей траектории энтропийного кодирования, используя ранее декодированную часть соответствующего энтропийного слайса,adapting the corresponding probability estimates along the corresponding path of entropy coding using the previously decoded part of the corresponding entropy slice,
запуска энтропийного декодирования множества энтропийных слайсов последовательно, используя порядок (16) энтропийных слайсов, иtriggering entropy decoding of multiple entropy slices sequentially using the order (16) of entropy slices, and
выполнения при энтропийном декодировании предопределенного энтропийного слайса энтропийного декодирования текущей части предопределенного энтропийного слайса, основываясь на соответствующих оценках вероятности предопределенного энтропийного слайса, которые адаптируются, используя ранее декодированную часть предопределенного энтропийного слайса, и на оценках вероятности, которые используется при энтропийном декодировании пространственно соседнего, по порядку энтропийных слайсов предыдущего энтропийного слайса в соседней части пространственно соседнего энтропийного слайса.performing, at entropy decoding, a predetermined entropy slice entropy decoding the current part of the predetermined entropy slice based on the corresponding probability estimates of the predetermined entropy slice, which are adapted using the previously decoded part of the predetermined entropy slice, and on the probability estimates that are used for entropy decoding in space entropy slices of the previous entropy slice in the next hour and spatially neighboring entropy slice.
20. Способ, сконфигурированный для восстановления последовательности массивов выборок из энтропийно закодированного потока данных, содержащий этапы, на которых20. A method configured to recover a sequence of arrays of samples from an entropy encoded data stream, comprising the steps of:
энтропийно декодируют текущий кадр энтропийно кодированного потока данных для восстановления текущего массива выборок последовательности массивов выборок,entropy decode the current frame of the entropy encoded data stream to restore the current array of samples of a sequence of arrays of samples,
выполняют энтропийное декодирование вдоль траектории энтропийного кодирования и используя оценки вероятности иperform entropy decoding along the path of entropy coding and using probability estimates and
адаптируют оценки вероятности вдоль траектории энтропийного кодирования, используя ранее декодированную часть текущего кадра, иadapt probability estimates along the entropy coding path using the previously decoded portion of the current frame, and
причем способ содержит инициализацию или определение оценок вероятности для текущего кадра, основываясь на оценках вероятности, используемых при декодировании ранее декодированного кадра энтропийно закодированного потока данных.wherein the method comprises initializing or determining probability estimates for the current frame based on probability estimates used in decoding a previously decoded frame of an entropy encoded data stream.
21. Способ кодирования массива (10) выборок в энтропийно закодированный поток данных, содержащий этап, на котором21. A method of encoding an array (10) of samples into an entropy encoded data stream, comprising the step of:
энтропийно кодируют множество энтропийных слайсов в поток данных энтропийного кодера, причем каждый энтропийный слайс связывают с отличающейся порцией (12) массива выборок, соответственно, с помощьюentropy encode many entropy slices into the data stream of the entropy encoder, and each entropy slice is associated with a different portion (12) of the array of samples, respectively, using
выполнения для каждого энтропийного слайса энтропийного кодирования вдоль соответствующей траектории (14) энтропийного кодирования, используя соответствующие оценки вероятности,performing, for each entropy slice, entropy coding along the corresponding path (14) of entropy coding using the corresponding probability estimates,
адаптирования соответствующих оценок вероятности вдоль соответствующей траектории энтропийного кодирования, используя ранее декодированную часть соответствующего энтропийного слайса,adapting the corresponding probability estimates along the corresponding path of entropy coding using the previously decoded part of the corresponding entropy slice,
запуска энтропийного кодирования множества энтропийных слайсов последовательно, используя порядок (16) энтропийных слайсов, иrun entropy coding of multiple entropy slices sequentially using the order (16) of entropy slices, and
выполнения при энтропийном кодировании предопределенного энтропийного слайса энтропийного кодирования текущей части предопределенного энтропийного слайса, основываясь на соответствующих оценках вероятности предопределенного энтропийного слайса, которые адаптируются, используя ранее закодированную часть предопределенного энтропийного слайса, и на оценках вероятности, которые используются при энтропийном кодировании пространственно соседнего, по порядку энтропийных слайсов предыдущего энтропийного слайса в соседней части пространственно соседнего энтропийного слайса.performing entropy encoding of a predetermined entropy slice entropy coding the current part of the predetermined entropy slice based on the corresponding probability estimates of the predetermined entropy slice, which are adapted using the previously encoded part of the predetermined entropy slice, and on the probability estimates that are used in the entropy coding entropy slices of the previous entropy slice in the neighboring part of pros transneighboring entropy slice.
22. Способ кодирования последовательности массивов выборок в энтропийно закодированный поток данных, содержащий этапы, на которых22. A method of encoding a sequence of arrays of samples into an entropy encoded data stream containing the steps of
энтропийно кодируют текущий кадр энтропийно закодированного потока данных так, чтобы восстановить текущий массив выборок последовательности массивов выборок,entropy encode the current frame of the entropy encoded data stream so as to restore the current array of samples in a sequence of arrays of samples,
выполняют энтропийное кодирование вдоль траектории энтропийного кодирования и используя оценки вероятности иperform entropy coding along the path of entropy coding and using probability estimates and
адаптируют оценки вероятности вдоль траектории энтропийного кодирования, используя ранее закодированную часть текущего кадра,adapt probability estimates along the entropy coding path using the previously encoded portion of the current frame,
причем данный способ содержит инициализацию или определение оценок вероятности для текущего кадра, основываясь на оценках вероятности, используемых при кодировании ранее закодированного кадра энтропийно закодированного потока данных.moreover, this method comprises initializing or determining probability estimates for the current frame based on probability estimates used in encoding a previously encoded frame of an entropy encoded data stream.
23. Компьютерная программа, имеющая программный код, сконфигурированный для выполнения, при выполнении на компьютере, способа по любому из пп. 19-22.23. A computer program having a program code configured to execute, when executed on a computer, a method according to any one of paragraphs. 19-22.