BR112014001026B1 - Codificação de matriz de amostra de baixo atrasdo - Google Patents

Codificação de matriz de amostra de baixo atrasdo Download PDF

Info

Publication number
BR112014001026B1
BR112014001026B1 BR112014001026-9A BR112014001026A BR112014001026B1 BR 112014001026 B1 BR112014001026 B1 BR 112014001026B1 BR 112014001026 A BR112014001026 A BR 112014001026A BR 112014001026 B1 BR112014001026 B1 BR 112014001026B1
Authority
BR
Brazil
Prior art keywords
entropy
slice
encoding
probability estimates
decoding
Prior art date
Application number
BR112014001026-9A
Other languages
English (en)
Other versions
BR112014001026A2 (pt
Inventor
Valeri GEORGE
Anastasia HENKEL
Heiner Kirchhoffer
Detlev Marpe
Thomas Schierl
Original Assignee
Ge Video Compression, Llc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=46548436&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=BR112014001026(B1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Ge Video Compression, Llc filed Critical Ge Video Compression, Llc
Publication of BR112014001026A2 publication Critical patent/BR112014001026A2/pt
Publication of BR112014001026B1 publication Critical patent/BR112014001026B1/pt

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • H03M7/40Conversion to or from variable length codes, e.g. Shannon-Fano code, Huffman code, Morse code
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/43Hardware specially adapted for motion estimation or compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/436Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/97Matching pursuit coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/98Adaptive-dynamic-range coding [ADRC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/99Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals involving fractal coding
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • H03M7/3068Precoding preceding compression, e.g. Burrows-Wheeler transformation
    • H03M7/3071Prediction
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • H03M7/40Conversion to or from variable length codes, e.g. Shannon-Fano code, Huffman code, Morse code
    • H03M7/4031Fixed length to variable length coding
    • H03M7/4037Prefix coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Computing Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Analysis (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Networks Using Active Elements (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)
  • Dc Digital Transmission (AREA)

Abstract

CODIFICAÇÃO DE MATRIZ DE AMOSTRA DE BAIXO ATRASO A codificação por entropia de uma parte atual de um corte de entropia predeterminado é baseada, não apenas, nas respectivas estimativas de probabilidade do corte de entropia predeterminadas, conforme adaptado, utilizando a parte previamente codificada do corte de entropia predeterminado, mas também nas estimativas de probabilidade, conforme utilizado, na codificação por entropia de uma proximidade espacial, na ordem do corte de entropia do corte de entropia precedente em uma parte próxima desta. Assim, as estimativas de probabilidade utilizadas na codificação por entropia são adaptadas às estatísticas do símbolo real mais proximal, reduzindo, assim, a diminuição da eficiência da codificação normalmente causada pelos conceitos de baixo atraso. As inter-relações temporais são utilizadas de forma adicional ou alternativa.

Description

DESCRIÇÃO
O presente pedido refere-se à codificação de matriz de amostra como codificação de imagem ou video.
A paralelização do codificador e do decodificador é muito importante devido às exigências de processamento elevadas pelo padrão HEVC, bem como pelo aumento esperado da resolução de video. Arquiteturas de vários núcleos estão se tornando disponíveis em uma ampla gama de dispositivos eletrônicos modernos. Consequentemente, métodos eficientes para permitir o uso de arquiteturas de vários núcleos são necessários.
A codificação ou decodificação de LCUs ocorre em varredura por rastreio, pela qual a probabilidade CABAC é adaptada às especificações de cada imagem. As dependências espaciais existem entre LCUs adjacentes. Cada LCU (largest coding unit I maior unidade de codificação) depende de seus LCUs próximos à esquerda, acima à esquerda e acima à direita por causa de diferentes componentes, por exemplo, vetor de movimento, previsão, intraprevisão e outros. Para permitir a paralelização na decodificação, estas dependências precisam tipicamente ser interrompidas ou são interrompidas nos pedidos do estado da técnica.
Alguns conceitos de paralelização, a saber, processamento de frente de onda, foram propostos. O motivador para outro estudo para realizar técnicas, que redizem a perda da eficiência de codificação e assim reduzem o peso no fluxo de dados contínuo para as abordagens de paralelização no codificador e no decodificador. Além disso, o processamento de baixo atraso não foi possível com as técnicas disponíveis.
Assim, é o objetivo da presente invenção fornecer um conceito de codificação para a matriz de amostras permitindo o baixo atraso nas penalidades menos comparavelmente na eficiência da codificação.
Este objetivo é obtido pelo assunto das reivindicações independentes inclusas.
Se a codificação por entropia de uma parte atual de um corte de entropia predeterminado for baseada, não apenas, nas respectivas estimativas de probabilidade do corte de entropia predeterminado conforme adaptado utilizando a parte previamente codificada do corte de entropia predeterminado, mas também as estimativas de probabilidade conforme utilizado na codificação por entropia de uma proximidade espacialmente, na ordem do corte de entropia do corte de entropia precedente em uma parte próxima desta, as estimativas de probabilidade utilizadas na codificação por entropia são adaptadas às estatísticas do símbolo real mais proximamente, assim reduzindo a diminuição da eficiência da codificação normalmente causada pelos conceitos de baixo atraso. Inter-relações temporais podem ser utilizadas de forma adicional ou alternativa.
Por exemplo, a dependência das estimativas de probabilidade conforme utilizado na codificação por entropia de uma proximidade espacialmente, na ordem do corte de entropia do corte de entropia precedente pode envolver a inicialização das estimativas de probabilidade no começo da codificação por entropia do corte de entropia predeterminado. Geralmente, as estimativas de probabilidade são inicializadas aos valores adaptados para simbolizar as estatísticas de uma mistura representativa da matriz de amostra material. Para evitar a transmissão dos valores de inicialização das estimativas de probabilidade, eles são conhecidos por codificador e decodificador por convenção. Entretanto, estes valores de inicialização predefinidos são, mutuamente, meramente um compromisso entre a taxa de bit da informação lateral por um lado e eficiência da codificação por outro lado como tais valores de inicialização mutuamente - mais ou menos - desviam das estatísticas da amostra real do material da matriz de amostra atualmente codificada. A adaptação da probabilidade durante o curso da codificação de um corte de entropia adapta as estimativas de probabilidade às estatísticas do simbolo real. Este processo é acelerado pela inicialização da probabilidade no começo da codificação por entropia do corte de entropia predeterminado/atual utilizando estimativas de probabilidade já adaptadas da proximidade espacialmente já mencionada, na ordem do corte de entropia do corte de entropia precedente como os últimos valores já foram, em alguma extensão, adaptados às estatísticas do simbolo real da matriz de amostra atualmente em mãos. A codificação de baixo atraso pode entretanto ser habilitada utilizando, na inicialização das estimativas de probabilidade para os cortes de entropia predeterminadas/atuais, a estimativa da probabilidade utilizada na parte próxima desta, ao invés de se manifestarem no final da codificação por entropia do corte de entropia precedente. Por esta medição, o processamento de frente de onda ainda é possível.
Ainda, a dependência mencionada acima das estimativas de probabilidade conforme utilizado na codificação por entropia da proximidade espacialmente, na ordem do corte de entropia do corte de entropia precedente pode envolver o processo de adaptação da adaptação das estimativas de probabilidade utilizadas na codificação por entropia do próprio corte de entropia predeterminado/atual. A adaptação da estimativa da probabilidade envolve o uso da parte já codificada, ou seja, o(s) simbolo(s) já codificado, para adaptar o estado real das estimativas de probabilidade às estatísticas do símbolo real. Por esta medição, as estimativas de probabilidade inicializadas são adaptadas em alguma taxa de adaptação à estatística de símbolo real. Esta taxa de adaptação é elevada pela realização da adaptação da estimativa da probabilidade já mencionada não apenas com base no símbolo atualmente codificado do corte de entropia predeterminado/atual, mas também dependente das estimativas de probabilidade se manifestando em uma parte próxima da proximidade espacial, na ordem do corte de entropia do corte de entropia precedente. Novamente, pela escolha da proximidade espacial da parte atual do corte atual de entropia e da parte próxima do corte de entropia precedente apropriadamente, o processamento de frente de onda é ainda possível. O benefício do acoplamento da própria adaptação da estimativa da probabilidade pelo corte atual de entropia, com a adaptação da probabilidade do corte de entropia precedente é a taxa elevada na qual a adaptação às estatísticas do símbolo real ocorre como o número de símbolos atravessados nas partes atuais e prévias de entropia contribui para a adaptação, ao invés de meramente os símbolos do corte atual de entropia.
Implementações vantajosas das aplicações da presente invenção são o objeto das reivindicações dependentes. Ainda, as aplicações preferidas são descritas com relação às figuras, entre elas:
A Figura 1 mostra um diagrama em blocos de um codificador exemplar; A Figura 2 mostra um diagrama esquemático de uma compartimentação de uma imagem em cortes e partes do corte (ou seja, blocos ou unidades de codificação) com as ordens de codificação definidas entre eles; A Figura 3 mostra um diagrama de fluxos da funcionalidade de um codificador exemplar como o da Figura 1;
A Figura 4 mostra um diagrama esquemático para explicar a funcionalidade de um codificador exemplar como o da Figura 1; A Figura 5 mostra um diagrama esquemático para uma implementação opcional paralela do codificador e decodificador;
A Figura 6 mostra um diagrama em blocos de um decodificador exemplar; A Figura 7 mostra um diagrama de fluxos da funcionalidade de um decodificador exemplar como o da Figura 6;
A Figura 8 mostra um diagrama esquemático para um fluxo de dados continuo exemplar resultante do esquema de codificação da Figura 1 a 6;
A Figura 9 mostra esquematicamente um exemplo para como computar a probabilidade com a ajuda de outros LCUs; A Figura 10 mostra um gráfico que ilustra os resultados RD para Intra (4 Fios), em uma comparação com HM3.0;
A Figura llmostra um gráfico que ilustra os resultados RD para Baixo atraso (1 Fio), em uma comparação com HM3.0; A Figura 12 mostra um gráfico que ilustra os resultados RD para o Acesso Aleatório (1 Fio), em uma comparação com HM3.0;
A Figura 13 mostra um gráfico que ilustra os resultados RD para Baixo atraso (4 Fios), em uma comparação com HM3.0; A Figura 14 esquematicamente e exemplarmente ilustra os possiveis compostos dos cortes de entropia;
A Figura 15 esquematicamente e exemplarmente ilustra uma possivel sinalização de um corte de entropia; A Figura 16esquematicamente e exemplarmente ilustra a codificação, segmentação, intercalação e decodificação dos dados do corte de entropia através de pedaços;
A Figura 17esquematicamente e exemplarmente ilustra um possivel composto entre as Estruturas; A Figura 18 esquematicamente e exemplarmente ilustra um possivel uso da informação colocada;
A Figura 19 mostra esquematicamente a possibilidade de uma frente de onda que executa obliquamente do espaço espaço/temporal mantido pelas matrizes de amostra consecutivas; e A Figura 20 mostra esquematicamente outro exemplo para subdividir os cortes de entropia em pedaços.
Para facilitar o entendimento das medidas descritas abaixo para melhorar a realização do baixo atraso em menos penalidades em termos de eficiência da codificação, o codificador da Figura 1 é primeiramente descrito em termos mais gerais sem, preliminarmente, discutir os conceitos vantajosos das aplicações do presente pedido e o quão igual podem ser criados na aplicação da Figura 1. Deve ser mencionado, entretanto, que a estrutura mostrada na Figura 1 meramente serve como um ambiente ilustrativo no qual as aplicações do presente pedido podem ser utilizadas. As generalizações e alternativas para os codificadores e decodificadores de acordo com as aplicações da presente invenção são também brevemente discutidas.
A Figura 1 mostra um codificador para codificar uma matriz de amostra 10 em um fluxo de dados codificados por entropia 20. Conforme mostrado na Figura 1, a matriz de amostra 10 pode ser uma de uma sequência 30 das matrizes de amostra e o codificador pode ser configurado para codificar a sequência 30 no fluxo de dados 20.
O codificador da Figura 1 é geralmente indicado pelo sinal de referência 40 e compreende um pré-codificador 42 seguido por um estágio de codificação por entropia 44, a saida que emite o fluxo de dados 20. O pré-codificador 42 é configurado para receber e operar na matriz de amostra 10 para descrever o conteúdo deste m forma de elementos de sintaxe de uma sintaxe predeterminada com cada elemento se sintaxe sendo de um respectivo de um conjunto predeterminado de tipos de elemento de sintaxe que, por sua vez, são associados com uma respectiva semântica.
Ao descrever a matriz de amostra 10 utilizando os elementos de sintaxe, o pré-codificador 42 pode subdividir a matriz de amostra 10 em unidades de codificação 50. O termo "unidade de codificação" pode, por razões definidas em mais detalhes abaixo, alternativamente ser chamada de "unidades em árvore de codificação" (CTU)s. Uma possibilidade de como o pré- codificador 42 pode subdividir a matriz de amostra 10 em unidades de codificação 50 é exemplarmente mostrada na Figura 2. De acordo com este exemplo, a subdivisão subdivide regularmente a matriz de sejam dispostos em fileiras e colunas para ininterruptamente cobrir a completa matriz de amostra 10 sem sobreposição. Em outras palavras, o pré-codificador 42 pode ser configurado para descrever cada unidade de codificação 50 em forma de elementos de sintaxe. Alguns destes elementos de sintaxe podem formar a informação de subdivisão para ainda subdividir a respectiva unidade de codificação 50. Por exemplo, em forma de subdivisão em várias árvores, a informação de subdivisão pode descrever uma subdivisão da respectiva unidade de codificação 50 em blocos de previsão 52 com o pré-codificador 42 associando um modo de previsão com os parâmetros de previsão associados para cada um destes blocos de previsão 52. Esta subdivisão de previsão pode permitir que os blocos de previsão 52 sejam diferentes no tamanho conforme ilustrado na Figura 2. O pré-codificador 42 também pode associar a informação de subdivisão residual com os blocos de previsão 52 para ainda subdividir os blocos de previsão 52 em blocos residuais 54 para descrever a previsão residual por bloco de previsão 52. Assim, o pré-codificador pode ser configurado para gerar uma descrição de sintaxe da matriz de amostra 10 de acordo com um esquema de codificação hibrida. Entretanto, conforme já observado acima, a forma já mencionada que o pré-codificador 42 descreve a matriz de amostra 10 em forma de elementos de sintaxe foi meramente apresentada para finalidades de ilustração e pode também ser implementada de forma diferente.
O pré-codificador 42 pode utilizar as inter- relações espaciais entre o conteúdo das unidades de codificação próximas 50 da matriz de amostra 10. Por exemplo, o pré- codificador 42 pode prever elementos de sintaxe para uma determinados para as unidades de codificação previamente codificadas 50 que são espacialmente adjacentes à unidade de codificação atualmente codificada 50. Nas Figuras 1 e 2, por exemplo, os vizinhos superior e esquerdo servem para previsão conforme ilustrado pela setas 60 e 62. Além disso, o pré- codificador 42 pode, em um modo de intraprevisão, extrapolar o conteúdo já codificado das unidades de codificação próximas 50 na unidade de codificação atual 50 para obter uma previsão das amostras da unidade de codificação atual 50. Conforme mostrado na Figura 1, o pré-codificador 42 pode, além de utilizar as inter- relações espaciais, prever temporariamente as amostras e/ou elementos de sintaxe para uma unidade de codificação atual 50 das matrizes de amostra previamente codificadas conforme ilustrativamente mostrado na Figura 1 em forma de seta 64. Isso é, a previsão compensada pelo movimento pode ser utilizada como pré- codificador 42, e os próprios vetores de movimento podem estar sujeitos à previsão temporal dos vetores de movimento das matrizes de amostra previamente codificadas.
Isso é, o pré-codificador 42 pode descrever o conteúdo da unidade de codificação de matriz de amostra 10 sensata e pode, para esta finalidade, utilizar a previsão espacial. A previsão espacial está restrita para cada unidade de codificação 50 nas unidades de codificação espacialmente próximas da mesma matriz de amostra 10 de modo que ao seguir uma ordem de codificação 66 entre as unidades de codificação 50 da matriz de amostra 10, as unidades de codificação próximas que servem como referência de previsão para a previsão espacial, geralmente foi atravessada pela ordem de codificações 66 antes da unidade de codificação atual 50. Conforme ilustrado na Figura 2, a ordem de codificação 66 definida entre as unidades de codificação 50 pode, por exemplo, ser uma ordem de varredura por rastreio pela qual as unidades de codificação 50 são atravessadas fileira por fileira de cima para baixo. Opcionalmente, uma subdivisão da matriz 10 em uma matriz de placas pode fazer com que a ordem de varredura 66 atravesse - em uma ordem de varredura por rastreio - as unidades de codificação 50 que compõem uma placa primeiro antes de preceder para a próxima em uma ordem de placa que, por sua vez, também pode ser de um tipo de varredura por rastreio. Por exemplo, a previsão espacial pode envolver unidades de codificação meramente próximas 50 dentro de uma fileira da unidade de codificação acima da fileira da unidade de codificação na qual a unidade de codificação atual 50 reside, e uma unidade de codificação dentro da mesma fileira da unidade de codificação, mas à esquerda com relação à unidade de codificação atual. Como será explicado em mais detalhes abaixo, esta restrição na inter-relação espacial/previsão espacial, permite o processamento de frente de onda paralelo.
O pré-codificador 42 encaminha os elementos de sintaxe ao estágio de codificação por entropia 44. Conforme já descrito, alguns destes elementos de sintaxe já foram previsivelmente codificados, ou seja, representam as previsões residuais. O pré-codificador 42 pode, então, estar relacionado como um codificador preditivo. Além disso, o pré-codificador 42 pode ser um codificador de transformação configurado para transformar os residues do código da previsão do conteúdo das unidades de codificação 50.
Uma estrutura interna exemplar do estágio de codificação por entropia 44 também é mostrada na Figurai. Conforme estágio de codificação por entropia 44 pode compreender, opcionalmente, um simbolizador para converter cada um dos elementos de sintaxe recebidos do pré-codificador 42, o número dos possiveis estados que excedem a cardinalidade do alfabeto de simbolo em uma sequência de simbolos Si do alfabeto de simbolo com base no qual o motor da codificação por entropia 44 opera. Além deste simbolizador opcional 70, o motor da codificação por entropia 44 pode compreender um seletor de contexto 72 e um inicializador 74, um gerenciador da estimativa da probabilidade 76, um adaptador da estimativa da probabilidade 78 e um núcleo da codificação por entropia 80. A saida do núcleo da codificação por entropia forma a saida do estágio de codificação por entropia 44. Além disso, o núcleo da codificação por entropia 80 compreende duas entradas, a saber, uma para receber os simbolos Si da sequência de simbolos, e outra para receber uma estimativa da probabilidade pi para cada um dos simbolos.
Devido às propriedades de codificação por entropia, a eficiência da codificação em termos de taxa de compressão, aumenta com uma melhoria da estimativa da probabilidade: quanto melhor a estimativa da probabilidade corresponder às estatísticas do simbolo real, melhor será a taxa de compressão.
No exemplo da Figura 1, o seletor de contexto 72 é configurado para selecionar, para cada simbolo Si, um contexto correspondente Cj entre um conjunto de contextos disponíveis gerenciados pelo gerenciador 76. Deve ser observado, entretanto, que a seleção do contexto forma meramente uma característica opcional e pode ser deixada com, por exemplo, utilizando o mesmo contexto para cada simbolo. Entretanto, se utilizar a seleção de contexto, o seletor de contexto 72 pode ser configurado para realizar a seleção de contexto pelo menos parcialmente com base na informação referente às unidades de codificação fora da unidade de codificação atual, a saber, referente às unidades de codificação próximas dentro da proximidade restrita discutida acima.
O gerenciador 76 compreende um armazenamento que armazena, para cada contexto disponível uma estimativa da probabilidade associada. Por exemplo, o alfabeto de simbolo pode ser um alfabeto binário de modo que meramente um valor de probabilidade tenha que ser armazenado para cada contexto disponível.
O inicializador 74 pode, intermitentemente, inicializar ou reinicializar as estimativas de probabilidade armazenadas dentro do gerenciador 76 para os contextos disponíveis. Possiveis periodos de tempo nos quais esta inicialização pode ser realizada, são discutidos mais abaixo.
O adaptador 78 tem acesso aos pares de simbolos Si e estimativas de probabilidade correspondente px e adapta as estimativas de probabilidade dentro do gerenciador 76 corretamente. Ou seja, cada periodo uma estimativa da probabilidade é aplicada pelo núcleo da codificação por entropia 80 para codificar por entropia o respectivo simbolo siz no fluxo de dados 20, o adaptador 78 pode variar esta estimativa da probabilidade de acordo com o valor desta símbolo atual Si, de modo que esta estimativa da probabilidade pi seja mais bem adaptada às estatísticas do simbolo real quando a codificação do próximo símbolo que está associado com esta estimativa da probabilidade (em forma de seu contexto) . Ou seja, o adaptador 78 recebe a estimativa da probabilidade para o contexto selecionado do gerenciador 76 com o simbolo correspondente Si e adapta a estimativa da probabilidade pi corretamente de modo que, para o próximo simbolo Si do mesmo contexto ciz a estimativa da probabilidade adaptativa seja utilizada.
O núcleo da codificação por entropia 80 é, por exemplo, configurado para operar de acordo com um esquema de codificação aritmético ou em um esquema probabilidade-intervalo- compartimentação-codificação por entropia. Na codificação aritmética, o núcleo da codificação por entropia 80, por exemplo, atualizará continuamente seu estado ao codificar a sequência de simbolos, com o estado sendo definido por um intervalo de probabilidade definido por um valor de largura do intervalo de probabilidade e valor de compensação do intervalo de probabilidade, por exemplo. Ao operar no conceito de tubulação, o núcleo da codificação por entropia 80, por exemplo, subdividiria o dominio de possiveis valores das estimativas de probabilidade em diferentes intervalos com a realização da codificação por entropia de probabilidade fixa com relação a cada um destes intervalos, assim obtendo um sub-fluxo para cada um dos subintervalos da eficiência da codificação que é respectivamente adaptada ao intervalo de probabilidade associado. No caso da codificação por entropia, a saida do fluxo de dados 20 seria o fluxo de dados aritmeticamente codificado sinalizando à informação lateral da decodificação que habilita a emulação ou reelaboração do processo de subdivisão do intervalo. Mutuamente, seria possivel para o estado de codificação por entropia 44 codificar por entropia todas as informações, ou seja, todos os elementos de sintaxe/simbolos Si, referentes à matriz de amostra 10 com inicialização das estimativas de probabilidade meramente uma vez no inicio desta, e então continuamente atualizar as estimativas de probabilidade pelo adaptador 78. Isso, entretanto, resultaria em um fluxo de dados 20 que teria que ser sequencialmente decodificado no lado da decodificação. Em outras palavras, não haveria uma possibilidade para qualquer decodificador subdividir o fluxo de dados resultante nas várias subpartes e decodificar as subpartes em paralelo. Isso, por sua vez, dificultaria quaisquer esforços de baixo atraso.
Corretamente, conforme será descrito em mais detalhes abaixo, é favorável subdividir a quantidade de dados que descreve a matriz de amostra 10 nos chamados cortes de entropia. Cada um destes cortes de entropia, corretamente, cobriria um diferente conjunto de elementos de sintaxe referentes à matriz de amostra 10. Se o estágio de codificação por entropia 44, entretanto, codificaria por entropia cada corte de entropia completamente independente entre si primeiramente inicializando a estimativa da probabilidade uma vez então atualizando continuamente a estimativa da probabilidade para cada corte de entropia individualmente, então a eficiência da codificação seria reduzida devido à porcentagem elevada dos dados referentes, e descrever a matriz de amostra 10 para as estimativas de probabilidade utilizadas são (ainda) menos precisamente adaptadas às estatísticas do simbolo real.
Para superar os problemas mencionados acima ao acomodar o desejo para atraso de codificação inferior por um lado e alta eficiência da codificação por outro lado, o seguinte esquema de codificação pode ser utilizado, que é agora descrito com relação à Figura 3.
Primeiramente, os dados que descrevem a matriz de entropia" a seguir. A subdivisão 80 não precisa ser sobreposição- livre. Por outro lado, esta subdivisão pode pelo menos parcialmente corresponder a uma subdivisão espacial da matriz de amostra 10 em diferente partes. Ou seja, de acordo a subdivisão 80, os elementos de sintaxe que descrevem a matriz de amostra 10 podem ser distribuídos nos diferentes cortes de entropia dependendo da localização da unidade de codificação 50 cujo respectivo elemento de sintaxe se refere. Veja, por exemplo, a Figura 2. A figura 2 mostra uma subdivisão exemplar da matriz de amostra 10 em diferentes partes 12. Cada parte corresponde a um respectivo corte de entropia. Como exemplarmente mostrado, cada parte 12 corresponde a uma fileira das unidades de codificação 50. Outras subdivisões são, entretanto, praticáveis também. Entretanto, é vantajoso se a subdivisão da matriz de amostra 10 em partes 12 seguir a ordem de codificação previamente mencionada 66 de modo que as partes 12 abrangem as realizações consecutivas das unidades de codificação 12 com a ordem de codificação 66. Mesmo se isso acontecer, entretanto, as posições iniciais e finais da parte 12 com a ordem de codificação 66 não precisam coincidir com as margens esquerda e direita das fileiras das unidades de codificação 50, respectivamente. Mesmo uma coincidência com as bordas das unidades de codificação 50 imediatamente seguem entre si e a ordem de codificação 66 não precisa ser obrigatória.
Pela subdivisão da matriz de amostra 10 desta forma, uma ordem do corte de entropia 16 é definida entre as partes 12 cujas partes 12 seguem entre si com a ordem de codificação 66. Além disso, para cada corte de entropia, uma respectiva passagem de codificação por entropia 14 é definida, a respectiva parte 12. No exemplo da Figura 2 onde as partes 12 coincidem com as fileiras das unidades de codificação 50, as passagens de codificação por entropia 14 de cada corte de entropia apontam pela direção da fileira, em paralelo entre si, ou seja, aqui do lado esquerdo ao lado direito.
Deve ser observado que seria possível restringir as previsões espaciais realizadas pelo pré-codificador 42 e desvios de contexto realizados pelo seletor de contexto 72 para não cruzar os limites de corte, ou seja, de modo que as previsões espaciais e seleções de contexto não dependem dos dados correspondentes a outro corte de entropia. Assim, os "cortes de entropia" corresponderiam a definição comum de "cortes" em H.264, por exemplo, que são completamente decodificáveis independentemente entre si, exceto para a inicialização de probabilidade/dependência de adaptação descrita acima. Entretanto, também seria praticável permitir as previsões espaciais e seleções de contexto, ou seja, dependência geralmente falando, para cruzar os limites de corte para utilizar as interdependências locais/espaciais como o processamento WPP é ainda praticável mesmo até a reversão da pré-codificação, ou seja, a reconstrução com base nos elementos de sintaxe, e a seleção de contexto de entropia é referida. Assim, os cortes de entropia corresponderiam de alguma forma a "cortes dependentes".
A subdivisão 80 pode, por exemplo, ser realizada pelo estágio de codificação por entropia 44. A subdivisão pode ser fixa ou pode variar entre a matriz de sequência 30. A subdivisão pode ser fixa por convenção ou pode ser sinalizada dentro do fluxo de dados 20.
Com base nos cortes de entropia, a codificação por entropia real pode ocorrer, ou seja, 82. Para cada corte de entropia, a codificação por entropia pode ser estruturada em uma fase inicial 84 e uma fase de combinação 86. A fase inicial 84 envolve, por exemplo, a inicialização das estimativas de probabilidade bem como o acionamento do processo de codificação por entropia real para o respectivo corte de entropia. A codificação por entropia real é então realizada durante a fase de combinação 86. A codificação por entropia durante a fase 86 é realizada pela respectiva passagem de codificação por entropia 14. A fase inicial 84 para cada corte de entropia é controlada de modo que a codificação por entropia da pluralidade de cortes de entropia comece sequencialmente utilizando a ordem do corte de entropia 16.
Agora, para evitar a penalidade descrita acima que resultaria da codificação por entropia de cada corte de entropia completamente independente entre si, o processo de codificação por entropia 82 é controlado de modo que uma parte atual, por exemplo, uma unidade de codificação atual de um corte atual de entropia seja codificada por entropia com base nas respectivas estimativas de probabilidade do corte atual de entropia conforme adaptado utilizando a parte previamente codificada do corte atual de entropia, ou seja, a parte do corte atual de entropia à esquerda da unidade de codificação atual 50 no caso da Figura 2, e as estimativas de probabilidade conforme utilizado na codificação por entropia da proximidade espacialmente, na ordem do corte de entropia 16 do corte de entropia precedente em uma parte próxima, ou seja, uma unidade de codificação próxima, desta. mencionada mais claramente, a referência é feita à Figura 4. A Figura 4 ilustra, os cortes de entropia n-1, n e n+1 th na ordem do corte de entropia 16 com sinal de referência 90. Cada corte de entropia 90 abrange a sequência de elementos de sintaxe que descrevem a parte 12 da matriz de amostra 10 com o qual o respectivo corte de entropia 90 está associado. Pela passagem de codificação por entropia 14, o corte de entropia 19 é segmentado em uma sequência de segmentos 92, cada um corresponde a uma das respectivas unidades de codificação 50 da parte 12 ao qual o corte de entropia 90 se refere.
Conforme descrito acima, as estimativas de probabilidade utilizadas na codificação por entropia dos cortes de entropia 90 são continuamente atualizadas durante a fase de combinação 86 pela passagem de codificação por entropia 14 de modo que as estimativas de probabilidade melhor adaptem crescentemente às estatisticas do simbolo real do respectivo corte de entropia 90 - ou seja, as estimativas de probabilidade estão associadas com o respectivo corte de entropia. Enquanto as estimativas de probabilidade 94 utilizadas para codificar por entropia o corte de entropia 90 durante a fase de combinação 86, são continuamente atualizadas, na Figura 4, meramente os estados das estimativas de probabilidade 94 que ocorrem nas posições iniciais e finais dos segmentos 92 são ilustrados e mencionados abaixo. Em particular, o estado antes da codificação por entropia do primeiro segmento 92 conforme inicializado durante a fase inicial 84, é mostrado em 96, o estado que se manifesta após codificar o primeiro segmento é ilustrado em 98, e o estado que se manifesta após a codificação dos primeiro dois segmentos é indicado em 100. Os mesmos elementos ordem do corte de entropia 16, e o seguinte corte de entropia, ou seja, corte de entropia n+1.
Agora, para obter a dependência descrita acima, o estado inicial 96 para a codificação por entropia do corte de entropia n-th 90 é definido dependente de qualquer estado intermediário das estimativas de probabilidade 94 que se manifestam durante a codificação do corte de entropia precedente n-1. 0 "estado intermediário" deve denotar qualquer estado das estimativas de probabilidade 94, excluindo o estado inicial 96 e o estado final que se manifesta após a codificação por entropia do completo corte de entropia n-1. Fazendo isso, a codificação por entropia da sequência de cortes de entropia 90 pela ordem do corte de entropia 16 pode ser paralelizada com um grau de paralelização sendo determinado pelo indice do número de segmentos 92 precedentes do estado utilizado para a inicialização das estimativas de probabilidade 94 para codificação por entropia do próximo corte de entropia, ou seja, a, e um número de segmentos 92 após este estágio, ou seja, b. Em particular, na Figura 4, a é exemplarmente definido para ser igual, com a inicialização, ou seja, a adaptação do estado 100 para definir o estado 96 do corte atual de entropia para ser equalizado ao estado 100 do corte de entropia precedente, sendo ilustrado pela seta 104.
Por esta medição, a codificação por entropia de qualquer segmento 92 que segue o estado 100 na ordem da passagem de codificação por entropia 14 dependeria da estimativa da probabilidade 94 conforme adaptado durante a fase de combinação 86 com base nos segmentos precedentes do mesmo corte de entropia bem como a estimativa da probabilidade conforme utilizado na entropia precedente 90.
Certamente, a codificação por entropia dos cortes de entropia 90 poderia ser realizada em paralelo em uma programação em tubulação. As únicas restrições impostas na programação seriam que a codificação por entropia de algum corte de entropia pode começar meramente após finalizar a codificação por entropia do segmento a-th 92 do corte de entropia precedente. Cortes de entropia 90 imediatamente que seguem entre si na ordem do corte de entropia 16, não estão sujeitos a quaisquer outras restrições referentes ao alinhamento por tempo do procedimento da codificação por entropia durante a fase de combinação 86.
De acordo com outra aplicação, entretanto, um acoplamento mais forte é utilizado, de forma adicional e/ou alternativa. Em particular, conforme ilustrado na Figura 4 pelas setas representativas 106, a adaptação da estimativa da probabilidade durante a fase de combinação 8 6 faz com que os data da unidade de codificação correspondentes a um determinado segmento 92 mude as estimativas de probabilidade 94 do estado no começo do respectivo segmento 92 até o final deste segmento 92, assim melhorando a aproximação das estatísticas do simbolo real conforme denotado acima. Ou seja, a adaptação 106 é realizada para o corte de entropia n-1 meramente dependente dos dados de corte de entropia n-1, e o mesmo se aplica à adaptação da estimativa da probabilidade 106 do corte de entropia n, etc. Por exemplo, seria possivel realizar a inicialização conforme explicado acima com relação às setas 104 realizando a adaptação da estimativa da probabilidade 106 sem qualquer outra interferência entre os cortes de entropia 90. Entretanto, para acelerar a aproximação da estimativa da probabilidade das estatísticas do simbolo real, a adaptação da estimativa da probabilidade 106 dos cortes de entropia consecutivos pode ser acoplada de modo que a adaptação da estimativa da probabilidade 106 de um corte de entropia precedente n-1 também influencie, ou seja considerado, ao adaptar a adaptação da estimativa da probabilidade de um corte atual de entropia n. Isso é ilustrado na Figura 4 por uma seta 108 apontando um estado 110 das estimativas de probabilidade espacialmente próximas 94 para a codificação por entropia do corte de entropia n-l-th 90 no estado 100 das estimativas de probabilidade 94 para a codificação por entropia do corte de entropia n-th 90. Ao utilizar a inicialização de estado 96 descrita acima, o acoplamento da adaptação da probabilidade 108 pode ser, por exemplo, utilizado em qualquer um dos estados da estimativa b da probabilidade que se manifestam após a codificação por entropia dos segmentos b 92 do corte de entropia precedente. Para ser mais preciso, as estimativas de probabilidade que se manifestam após a codificação por entropia o primeiro segmento 92 do corte atual de entropia pode ser o resultado da adaptação da probabilidade comum 106 e considerando 108 os estados da estimativa da probabilidade resultante da adaptação da estimativa da probabilidade 106 durante a codificação por entropia do segmento (a+l)-th 92 do corte de entropia precedente n-1. A "consideração" pode, por exemplo, envolver algumas operações média. Um exemplo será ainda descrito abaixo. Em outras palavras, o estado 98 das estimativas de probabilidade 94 para a codificação por entropia do corte de entropia n-th 90 no começo do segmento da codificação por entropia 92 desta, pode ser o resultado da média do estado antecessor 96 das estimativas de probabilidade 94 para a codificação por entropia do corte atual de entropia n conforme adaptado utilizando a adaptação 106, e o estado antes da codificação por entropia do segmento (a+l)-th 92 do corte de entropia precedente n-1 modificado de acordo a adaptação da probabilidade 106. Equivalentemente, o estado 100 pode ser o resultado de uma média do resultado da adaptação 106 realizada durante a codificação por entropia do corte atual de entropia neo resultado da adaptação da probabilidade durante a codificação por entropia do segmento (a+2)-th 92 do corte de entropia precedente n-1, etc.
Mais especificamente, p(n)->{i,j}, com i,j denotando a posição de qualquer unidade de codificação (com (0,0) sendo a posição esquerda, superior e (I,J) a direita, inferior), ie{l...I} e je{l...J}, I sendo o número ou colunas, J sendo o número de fileiras e p() que definem a ordem da passagem 66, P|i,jj a estimativa da probabilidade utilizada na codificação por entropia da unidade de codificação {i,j }; e T(P{i,j}) o resultado da adaptação da probabilidade 106 de com base na unidade de codificação {i,j}; Então, as estimativas de probabilidade 106 dos cortes de entropia consecutivos 90 podem ser combinadas para substituir a adaptação interna do corte de entropia comum de acordo Pp(n+i)=T (Ppln)) , por Pp(n+i)= média (T (Pp(n)) , T ( P{lj)i ),..., T ( P(,y}jv ) ) onde N pode ser 1 ou mais do que 1 e {i,j}i.„N é/são selecionados de (ficam dentro) qualquer (na ordem do corte de entropia 16) corte de entropia prévio 90 e sua parte associada 12, respectivamente. A função "média" pode ser uma de uma soma ponderada, uma função média, etc. p(n)={i,j} é a unidade de codificação 14 e 66, respectivamente. Nas aplicações apresentadas p(n+1)={i+l,j } .
Preferivelmente, {i, j } I...N realiza, para cada ke{l...N}, {i,jli...N = {ik,jkl θ ik<i + 3 e jk<j com p(n)={i, j} sendo a unidade de codificação atual (ou seja, qualquer um do segundo ou seguindo as unidades de codificação do corte atual de entropia), ou seja, eles não estão além da frente de onda.
Na última alternativa, a programação da codificação por entropia na codificação por entropia dos cortes de entropia 90 em paralelo, é mais proximamente acoplada entre si. Ou seja, durante a fase de combinação 86, o próximo segmento 92 na linha de um corte atual de entropia, pode meramente ser iniciado no final do segmento do corte de entropia precedente correspondente que é uma posição de classificação ainda na ordem da passagem de codificação por entropia 14.
Em outras palavras, a discussão acima mostrou um exemplo onde o decodificador 40, e em particular, o estágio de codificação por entropia 44, é configurado para realizar, para um corte de entropia 90 como o n-th, uma inicialização de suas estimativas de probabilidade 94 antes da decodificação do primeiro segmento 92 correspondente na primeira unidade de codificação/primeiro bloco 50 da parte 12 correspondente no corte de entropia n-th pela respectiva passagem de codificação 14 com estimativas de probabilidade que se manifestam após decodificar por entropia a segunda unidade de codificação/bloco 50 da parte 12 correspondente, na ordem do corte de entropia 16, ao corte de entropia precedente pela respectiva passagem de codificação 14. Adicionalmente, ou alternativamente, o decodificador 40 e, em particular, o estágio de codificação por entropia 44, podem ser configurados para realizar, para cada corte de entropia 90, a decodificação por entropia e adaptação da estimativa da probabilidade de modo que, após uma parte atual/bloco/unidade de codificação 50 do corte atual de entropia ser decodificada por entropia com base nas respectivas estimativas de probabilidade 94 do corte atual de entropia 90, as respectivas estimativas de probabilidade 94 do corte atual de entropia são adaptadas dependendo desta parte atual do corte atual de entropia e as estimativas de probabilidade como as que se manifestam na decodificação por entropia de uma parte próxima/bloco/unidade de codificação 50 da proximidade espacialmente, corte de entropia precedente, como um na fileira próxima acima na segunda coluna à direita da parte atual/bloco/unidade de codificação do corte atual de entropia.
Como ficou claro da discussão acima, a estimativa da probabilidade deve ser adaptada/gerenciada para cada corte de entropia 50 separadamente. Isso pode ser feito sequencialmente pelo processamento dos cortes de entropia e armazenando os estados da estimativa da probabilidade como os exemplarmente mostrados e mencionados com relação à Figura 4, ou seja, 96, 98, 100, 110 e 102, em um respectivo armazenamento da estimativa da probabilidade 120 (ver Figura 1) . Alternativamente, mais do que um estágio de codificação por entropia 44 pode ser fornecido para decodificar os cortes de entropia em paralelo. Isso é ilustrado na Figura 5, onde uma pluralidade de concretizações do estágio de codificação por entropia 44 é mostrada, cada uma associada com um dos cortes de entropia e partes correspondentes 12 da matriz de amostra 10, respectivamente. A Figura 5 também ilustra o processo de decodificação e suas possíveis implementações utilizando as concretizações paralelas do respectivo estágio da decodificação por entropia 130. Cada um destes estágios da decodificação por entropia 130 é inserido com um dos respectivos cortes de entropia conduzidos através do fluxo de dados 20.
A Figura 5 mostra que os estágios de codificação por entropia 44 e os respectivos estágios de codificação 130 não operam completamente independente entre si em paralelo. Ainda, os estados da estimativa da probabilidade armazenados como os armazenados no armazenamento 120, são passados de um estágio correspondente a um respectivo corte de entropia, em outro estágio referente a um corte de entropia seguindo de acordo com a ordem do corte de entropia 16.
A Figura 5 mostra para finalidades da ilustração, uma possivel ordem transversal para atravessar possíveis subdivisões das unidades de codificação 50 como uma ordem transversal 140 definida entre os blocos de previsão 52 dentro de uma unidade de codificação 50. Para todos estes blocos de previsão 52 os elementos de sintaxe correspondentes são contidos dentro do respectivo segmento 92 e correspondente aos valores destes elementos de sintaxe, as estimativas de probabilidade 94 são adaptadas durante o transversal da passagem 140 com a adaptação durante a unidade de codificação transversal 50 que definem o "T" mencionado acima. Em CABAC de acordo H.264 e HEVC, "T" é realizado com base na tabela, ou seja, por uma "table walk" que definem as transições de um estado atual da estimativa da probabilidade para contexto atual em um próximo estado dependendo do valor do simbolo atual associado com este contexto.
Antes de proceder com a Figura 6 mostrando uma aplicação do decodificador correspondente à aplicação do codificador da Figura 1, deve ser observado que a natureza preditiva do pré-codificador 42 meramente serviu como uma aplicação ilustrativa. De acordo com outras aplicações alternativas, o pré-codificador 42 pode ser deixado com os elementos de sintaxe cujo o estágio de codificação por entropia 44 opera, sendo, por exemplo, os valores da amostra original da matriz de amostra 10. Ainda alternativamente, o pré-codificador 42 pode ser configurado para formar uma decomposição da sub-faixa da matriz de amostra 10 como em JPEG. A natureza opcional do seletor de contexto 72 já foi mencionada acima. 0 mesmo se aplica com relação ao inicializador 74. O mesmo pode ser instrumentado de forma diferente.
A Figura 6 mostra um decodificador 200 correspondente ao codificador 40 da Figura 1. É visivel da Figura 6 que a construção do decodificador 200 substancialmente espelha a construção do codificador 40. Ou seja, o decodificador 200 compreende uma entrada 202 para receber o fluxo de dados 20, seguido por uma concentração de estágio da decodificação por entropia 204 e um construtor 206. O estágio da decodificação por entropia 204 da decodificação por entropia dos cortes de entropia conduzida dentro do fluxo de dados 202 e encaminha, por sua vez, os simbolos decodificados Si e elementos de sintaxe, respectivamente, ao construtor 206, que, por sua vez, solicita os elementos de sintaxe do estágio da decodificação por entropia 204 pela respectiva solicitação 208. Em outras palavras, o construtor 206 também assume a responsabilidade para analisar o fluxo de elemento de sintaxe produzido pelo pré-codificador 42 dentro do codificador. Certamente, o construtor 206 solicita sequencialmente os elementos de sintaxe do estágio da decodificação por entropia 204. O estágio da decodificação por entropia 204 é estruturado substancialmente da mesma forma que o estágio de codificação por entropia 44 é. Certamente, os mesmos sinais de referência dos blocos internos do estágio da decodificação por entropia 204 são reutilizados. O simbolizador 70, se presente, virar as solicitações para os elementos de sintaxe em solicitações para os simbolos e o núcleo da decodificação por entropia 80 responde com um respectivo valor do simbolo siz o simbolizador 70 mapeia as sequências dos simbolos recebidos formando as palavras de símbolo válidas em elementos de sintaxe e encaminha os mesmos ao construtor 206. O construtor 206 reconstrói a matriz de amostra 10 do fluxo de elemento de sintaxe recebido do estágio da decodificação por entropia 204 como, conforme descrito acima, utilizando a decodificação preditivo, etc. Para ser mais preciso, o construtor 206 também utiliza a ordem de codificação 66 e realiza a decodificação da unidade de codificação realizando previsões 60, 62 e 64. Uma ou mais previsões para os elementos de sintaxe ou para os valores de amostra são combinadas como somadas, opcionalmente utilizando uma previsão residual obtida dos elementos de sintaxe do fluxo de elemento de sintaxe. 0 núcleo da decodificação por entropia 80 pode, como o núcleo da codificação por entropia 80, seguir um conceito de decodificação aritmética ou um conceito de decodificação por entropia da compartimentação do intervalo de probabilidade. No caso da decodificação aritmética, o núcleo da decodificação por entropia 80 pode continuamente atualizar um estado interno na forma de um valor de largura do intervalo parcial e um valor como um valor de compensação, indicando neste intervalo parcial. A atualização é feita utilizando o fluxo de dados de entrada. O intervalo da parte atual é subdividida analogamente no núcleo da codificação por entropia 80 utilizando a estimativa da probabilidade Pi fornecida para cada simbolo Si em forma do seletor de contexto 72 com o gerenciador da estimativa da probabilidade 76. O adaptador 78 realiza a adaptação da estimativa da probabilidade utilizando os valores do simbolo decodificados Si para atualizar os valores da estimativa da probabilidade pt do contexto Ct associado com o simbolo s± pelo seletor de contexto 72. As inicializações pelo inicializador 74 são feitos nos mesmos exemplos e da mesma forma no lado da codificação.
O decodificador da Figura 6 opera de forma muito semelhante à funcionalidade do codificador conforme descrito acima com relação à Figura 3. Em uma etapa 230, a matriz de amostra 10 é subdividida em cortes de entropia. Veja, por exemplo, a Figura 8. A Figura 8 mostra o fluxo de dados 20 que chega na entrada 202 e em particular, os cortes de entropia 90, contidos nele. Na etapa 230, cada um destes cortes de entropia 90 está associado com uma parte 12 cujo respectivo corte de entropia 90 está associado de modo que a inicialização da estimativa da probabilidade descrita acima e adaptação da estimativa da probabilidade com base no respectivo corte de entropia procedente possa ser realizado. A subdivisão da matriz de amostra, ou, mais precisamente estabelecida, a associação dos cortes de entropia 90 com suas respectivas partes 12, pode ser realizada pelo construtor 206. A associação pode ser obtida por diferentes medições, como a informação lateral contida dentro do fluxo de dados 20 nas partes não codificadas por entropia, ou por convenção.
Os cortes de entropia 90 são, então, no processo de decodificação por entropia 232, decodificados por entropia de forma, espelhando o processo de codificação 82, a saber, realizando para cada corte de entropia 90, uma fase inicial 234 e uma fase de combinação 236 com inicialização e adaptação da estimativa da probabilidade da mesma forma e nos mesmos exemplos como no procedimento de codificação.
A mesma paralelizaçâo conforme descrito acima com relação à codificação, é possivel no lado da decodificação. As concretizações do estágio da decodificação por entropia 130 mostradas na Figura 5 podem ser embutidas conforme mostrado com relação ao estágio da decodificação por entropia 204 na Figura 6. Um armazenamento da estimativa da probabilidade 240 pode ser utilizado para armazenar estados das estimativas de probabilidade para uso em um estágio da decodificação por entropia 130 responsável pela decodificação por entropia de um corte de entropia subsequente na ordem da codificação por entropia 16.
Após descrever as aplicações do presente pedido, os conceitos discutidos até agora são descritos a seguir, novamente utilizando uma diferente redação. A seguir, vários outros aspectos do presente pedido são descritos. A seguir, as unidades de codificação 50 previamente mencionadas são chamadas de LCU (maior unidade de codificação), assim adaptando a redação ao próximo padrão HEVC.
Primeiramente, a adaptação da probabilidade discutida acima 106 é brevemente discutida novamente com relação à Figura 9.
Uma LCU atual utiliza as estimativas de probabilidade como as probabilidades de CABAC, disponiveis após codificar a LCU esquerda precedente. Por exemplo, a LCU da Figura 9, indicada com x, é suposta ser codificada por entropia utilizando a estimativa da probabilidade p: conforme adaptado até o final da codificação por entropia da LCU esquerda à esquerda de LCUx. Entretanto, se a informação for utilizada não apenas da esquerda, mas também de uma ou mais outras LCUs, que já foram processadas e estão disponíveis, resultados melhores na adaptação da probabilidade podem ser obtidos.
Conforme descrito acima, na codificação por entropia e codificação por entropia dos cortes de entropia, novas estimativas de probabilidade são computadas antes da codificação ou decodificação de cada LCU, com a ajuda das probabilidades já existente (estimativas de probabilidade) de outras LCUs. Para ser mais preciso, a adaptação da probabilidade não é apenas realizada de qualquer LCU precedente do corte atual de entropia, mas também de LCUs dos cortes de entropia precedentes de uma ordem do corte de entropia. Esta abordagem é representada na Figura 9 novamente. A probabilidade inicial LCU atual que é denotada com X na Figura 9, pode ser computada corretamente: Pnew = al‘Pl + a2'P2 + a3 ‘ p3+ a4-P<l + a5 ' Pb + a(5+1) " P(5 + 1) ...+ ak-pk, (1) onde alz... ak são os fatores de ponderação das LCUs .
Foi testado qual ponderação das probabilidades fornece os melhores resultados. Nesta experiência apenas as LCUs próximas foram utilizadas. O estudo releva utilizar a ponderação: 75% da LCU esquerda e 25% da LCU direita superior. Nas Figuras 10- 13, os resultados são apresentados. Os gráficos intitulados utilizando „prob. Adapt." utilizam a adaptação da probabilidade descrita acima. probabilidade, não apenas blocos adjacentes podem ser utilizados. Cada LCU mais próxima tem peculiarmente vizinhos próximos, cujo uso para a otimização da probabilidade pode ser signif icante. Em outras palavras, não apenas as LCUs da fileira superior mais próxima podem ser aplicadas. Na Figura 9, alguém pode ver um exemplo onde as derivações das estimativas de probabilidade foram tiradas primeiro dos vizinhos e pode ser tiradas de cada LCU direita superior de cada fileira superior próxima, cf. p5 e pk.
Deve ser admitido que determinada complexidade é introduzida pelo recálculo da probabilidade descrita acima ou adaptação da estimativa da probabilidade. O novo cálculo da estimativa da probabilidade ocorre, por exemplo, em três etapas: na primeira, as estimativas de probabilidade de cada candidato devem ser obtidas de cada estado de contexto. Isso é feito armazenando no armazenamento 120 e 240, respectivamente, ou direcionando o corte de entropia paralelo n/processos de decodificação de modo que estes estados estejam disponíveis simultaneamente. Depois, utilizando a equação (1), a probabilidade otimizada (pnew) será criada. Ou seja, alguma média, por exemplo, pode ser utilizada para combinar as estimativas de probabilidade adaptadas de diferentes cortes de entropia. Como uma última etapa, um novo estado de contexto é convertido de pnew e substitui o antigo. Ou seja, o gerenciador da estimativa da probabilidade 76 adota as novas estimativas de probabilidade então obtidas. Este desempenho para cada elemento de sintaxe, particularmente utilizando as operações de multiplicação, pode aumentar a complexidade imensamente. A única forma de reduzir esta penalidade é tentar evitar estas três etapas. Se o número de candidatos e suas ponderações são determinados, uma tabela pré-calculada para cada situação pode ser aproximada. Assim, apenas um simples acesso às datas da tabela com a ajuda dos índices dos candidatos (estados de contexto) é necessária.
É afirmado que esta técnica pode fornecer bons resultados para ambas as aplicações utilizando ou não utilizando cortes de entropia. A primeira aplicação utiliza apenas um corte por estrutura, assim a adaptação da probabilidade é otimizada sem qualquer outra mudança. No caso de cortes de entropia, a adaptação das probabilidades ocorre dentro de cada corte independente de outros cortes. Isso permite a rápida aprendizagem das probabilidades da LCU atual.
Na descrição acima, a utilização da segunda LCU da linha superior foi também apresentada, ou seja, a utilização da segunda LCU para a inicialização da estimativa da probabilidade. A paralelização da codificação e decodificação é possível, se algumas condições do fluxo de dados contínuo que foram mencionadas acima (cortes de entropia) for realizadas. A dependência das probabilidades de CABAC entre LCUs devem ser quebradas. Pelo Processamento Paralelo de Frente de Onda é importante fazer a primeira LCU de cada linha independente da última LCU da linha prévia. Pode ser obtido se, por exemplo, as probabilidades CABAC são reinicializadas no começo de cada linha de LCUs. Entretanto, este método não é ótimo, pois cada reiniciali zação perde as probabilidades CABAC obtidas, que são adaptadas às especificações da imagem. Esta penalidade pode ser reduzida, se a inicialização das probabilidades CABAC da primeira LCU de cada linha ocorrer com as probabilidades obtidas após a segunda LCU da linha anterior.
Conforme descrito acima, um ganho na velocidade da adaptação da probabilidade é obtido pelo acoplamento da adaptação das probabilidades dos cortes de entropia espacialmente próximos. Em particular, em outras palavras, a discussão acima também antecipa um decodificador como o da Figura 6 para reconstruir uma matriz de amostra (10) de um fluxo de dados codificados por entropia, configurados para decodificação por entropia (realizada pelo estágio da decodificação por entropia) uma pluralidade de cortes de entropia dentro do fluxo de dados do codificador por entropia para reconstruir as diferente partes (12) da matriz de amostra associada com os cortes de entropia, respectivamente, realizando, para cada corte de entropia, a decodificação por entropia por uma respectiva passagem de codificação por entropia (14) utilizando as respectivas estimativas de probabilidade, adaptando (realizado pelo adaptador 78) as respectivas estimativas de probabilidade pela respectiva passagem de codificação por entropia utilizando uma parte previamente decodificada do respectivo corte de entropia, começando a decodificação por entropia da pluralidade de cortes de entropia sequencialmente utilizando uma ordem do corte de entropia (16), e realizando, na codificação por entropia um corte de entropia predeterminado, decodificando por entropia uma parte atual (x) do corte de entropia predeterminado com base nas respectivas estimativas de probabilidade do corte de entropia predeterminado conforme adaptado utilizando a parte previamente decodificada do corte de entropia predeterminado (incluindo pl, por exemplo), e estimativas de probabilidade conforme utilizado na decodificação por entropia de uma proximidade espacialmente, na ordem do corte de entropia do corte de entropia precedente (p corte compreendendo X, por exemplo) em uma parte próxima (como p4) do corte de entropia espacialmente próximo.
As diferentes partes podem ser fileiras de blocos (por exemplo, LCUs ou macroblocos) da matriz de amostra. O último pode ser uma imagem de um video. A passagem de codificação por entropia pode se estender pela fileira. A codificação por entropia, e assim, a adaptação da probabilidade também, pode ser adaptativa ao contexto. A ordem do corte de entropia pode geralmente ser escolhida de modo que, pela ordem do corte de entropia, as diferentes partes seguem entre si em uma direção (16) angular com relação às passagens de codificação por entropia (14) dos cortes de entropia, que, por sua vez, se estendem substancialmente em paralelo entre si. Por esta medição, uma "frente de onda" das partes atualmente codificadas (como pl, p4, p5+l e pk na figura) dos cortes de entropia pode geralmente estar disposta por uma linha que forma um ângulo nas passagens do corte de entropia menores do que a direção de sequência das partes. A frente de onda pode ter uma inclinação de ly por 2x posições do bloco na ordem para a referência esquerda superior para estar sempre lá, para todos os fios que processam os cortes em paralelo.
O decodificador pode ser configurado para realizar, para cada corte de entropia, a decodificação por entropia pela respectiva passagem de codificação por entropia em unidades das partes da matriz de amostra da parte do respectivo corte de entropia de modo que os cortes de entropia consistam no mesmo número das partes, respectivamente, e a sequência das partes das partes pelas passagens do corte de entropia sejam alinhados entre si em uma direção lateral às passagens do corte de entropia. A parte atual da parte do corte de entropia predeterminado pertence à grade resultante das partes (por exemplo, as LCUs ou macroblocos). Na realização, para cada corte de entropia, a decodificação por entropia por uma respectiva passagem de codificação por entropia, o decodificador pode preservar compensações/mudanças entre os periodos iniciais entre os cortes de entropia imediatamente consecutivos na ordem do corte de entropia de modo que a frente de onda das partes atualmente codificadas dos cortes de entropia forma uma diagonal como até uma linha com inclinação de 0,5x posições do bloco com relação às passagens do corte de entropia e direção da ordem do corte de entropia. A compensação/mudança pode corresponder às duas partes para todos os pares dos cortes de entropia imediatamente consecutivos. Alternativamente, o decodificador pode meramente impedir a distância das partes atualmente codificadas dos cortes de entropia imediatamente consecutivos (e imediatamente próximos desde que suas partes da matriz de amostra 12 sejam referidas) para se tornar menor do que duas partes. Veja, a figura acima: assim que a parte/bloco p4 foi decodificado, a parte/bloco à direita deste é decodificado de acordo com a ordem da passagem 16, e simultaneamente, se houver, X é decodificado ou qualquer uma das partes/blocos antes do mesmo). Por esta medição, o decodificador pode utilizar as estimativas de probabilidade como já adaptadas com base no conteúdo da parte/bloco p4, ou seja, a parte dentro da parte espacialmente próxima, sendo alinhado com a parte da parte 12 do corte de entropia predeterminado posterior da parte atual X na ordem da passagem 16, para determinar as estimativas da probabilidade a ser utilizadas na codificação X. No caso de uma compensação constante na codificação os cortes de entropia imediatamente de duas partes, o decodificador pode utilizar as estimativas da probabilidade conforme já adaptado com base no conteúdo da parte/bloco p4 simultaneamente para a decodificação por entropia da parte subsequente (ou seja, a parte à direita de p4) do corte de entropia espacialmente próximo.
Conforme descrito acima, a soma ponderada das estimativas de probabilidade já adaptadas pode ser utilizada para determinar as estimativas da probabilidade a ser utilizadas para a decodificação X.
Conforme também descrito acima, a ordem do corte de entropia pode também passar os limites da estrutura.
Deve ser observado que a adoção da probabilidade já descrita dos cortes de entropia antecessores pode ser realizada para cada parte do corte de entropia predeterminado/atual para que estas partes próximas nos cortes de entropia antecessores sejam disponíveis. Ou seja, isso também é verdadeiro para a primeira parte pela direção da passagem 16, e para esta primeira parte/bloco (o mais à esquerda em cada corte de entropia na figura) a adoção é igual à inicialização descrita acima.
Para melhor adaptar, também neste caso, os 2 métodos mencionados acima podem ser combinados juntos. Os resultados deste processo com 1 e 4 Fios, ou seja, as unidades de processamento utilizadas paralelas, são ilustradas na Figura 10 - Figura 13 (gráficos 2LCU+Prob.Adap ou 2LCU).
Para melhor entender o contexto das aplicações acima e, especialmente, outras aplicações descritas abaixo, em particular a utilização de LCUs, pode primeiro ter uma visualização na estrutura de H.264/AVC.
Uma sequência do video codificado em H.264/AVC consiste na série de unidades de acesso que são coletadas não fluxo da unidade NAL utilizam apenas um parâmetro de sequência definido. Cada sequência de video pode ser decodificado independentemente. Uma sequência codificada consiste em uma sequência imagens codificadas. Uma estrutura codificada pode ser toda uma estrutura ou um único campo. Cada imagem é dividida em macroblocos de tamanho fixo (em HEVC: LCUs). Vários macroblocos ou LCUs podem ser unidos em um corte. Uma imagem é então uma coleção de um ou mais cortes. O objetivo desta separação de dados é permitir a decodificação independente das amostras na área da imagem, que é representada pelo corte, sem a utilização de dados de outros cortes.
Uma técnica que também geralmente se referiu como "cortes de entropia" é uma divisão do corte tradicional em sub- cortes tradicional. Especificamente, isso significa cortar os dados codificados por entropia de um único corte. A disposição dos cortes de entropia em um corte pode ter diferentes variedades. A mais simples é utilizar cada fileira de LCUs / macroblocos em uma estrutura como um corte de entropia. Regiões alternativas, de colunas ou separadas podem ser utilizadas nos cortes de entropia, que ainda podem ser interrompidos e fechados com entre si, por exemplo, o corte 1 na Figura 14.
Um objetivo óbvio do conceito do corte de entropia é permitir a utilização de CPU/GPU paralelo e arquiteturas de vários núcleos para melhorar o tempo do processo de decodificação, ou seja, para acelerar o processo. O corte atual pode ser dividido em divisões que podem ser analisadas e reconstruídas sem referência a outros dados de corte. Embora algumas vantagens possam ser obtidas com a abordagem do corte de entropia, assim unindo algumas penalidades.
Primeiro de tudo, um principal objetivo é criar um fluxo de dados continuo que seja adequado para um processo de codificação e decodificação paralelo. Um deve considerar que uma LCU pode ser codificada apenas LCUs próximas (esquerda, superior, superior-direita) já estão disponíveis como versão codificada, para utilizar a informação espacial e de movimento para previsão. Para habilitar um paralelismo por corte, uma mudança entre o processamento dos cortes deve ser realizada (por exemplo, a mudança de 2 LCUs, como típico para a abordagem da frente de onda). Devido à adaptação das probabilidades CABAC, uma LCU utilizando as probabilidades que estão disponíveis da LCU codificada prévia. Com relação à ordem do varredura por rastreio, o problema, que ocorre pelo corte de imagem, é a prevenção de paralelismo, pois a primeira LCU de cada linha depende da última LCU da linha anterior. No impacto disso é que as dependências das probabilidades CABAC entre os cortes devem ser quebradas, de modo que vários cortes possam ser separados simultaneamente. Uma forma de fazer isso é a reinicialização de CABAC comum pela qual, entretanto, todos os dados adotados serão perdidos. Como um resultado, a taxa de bit pode aumentar.
Depois, cada corte gera seu próprio sub-fluxo de dados contínuo, que pode ser colocado em série no fluxo principal. Mas é necessário passar a informação especial do decodificador, de modo que estes cortes e suas posições no fluxo principal possam ser corretamente identificados. Dois cenários para sinalizar a informação de localização podem ser armazenados no cabeçalho da imagem (informação do comprimento dos cortes) ou em cada cabeçalho de corte (aponta como codificação inicial). O alinhamento de byte no final de cada corte de entropia e informação de localização aumentam a perda. sinalização para cortes de entropia, é essencial utilizar uma boa codificação técnica para a sinalização. Uma penalidade notável para a sinalização do corte de entropia é introduzida em uma estrutura, se códigos iniciais são utilizados para cada corte, ou seja, muitos bytes adicionais (por exemplo, bytes de min. 4 por corte) são adicionados ao fluxo de dados continuo. Certamente, a inserção dos cortes de entropia 90 utilizando códigos iniciais tem a vantagem nos cenários de baixo atraso onde o codificador deve pode emitir instantaneamente cortes de entropia. Nestes casos, não há sinalização adiantada dos possiveis pontos de entrada.
Em cenários estritos de atraso menos inferior, entretanto, a oportunidade de armazenar comprimentos de corte (compensações) parece mais adequada. Um técnico bem conhecido para codificar esta informação é Codificação de Comprimento Variável (VLC) ou Codificação Exponential-Golomb. A principal característica de VLC é adicionar a informação vazia (zeros) antes da informação verdadeira. Com a ajuda destes zeros, um código que armazena a informação sobre o comprimento da compensação pode ser determinado. Nós propomos outra técnica para realizar isso, cujo esquema é mostrado na Figura 15, onde X-EntropyCortesize é a quantidade de bytes contidos em um corte de entropia. Cada X (compensação) próximo é definido como uma diferença no tamanho entre a compensação do corte de entropia anterior, já codificado e sinalizado e a atual. As principais características deste conceito são formação de diferenças, dependendo do tamanho X, assim a quantidade de dados pode ser reduzida, e adicionando até 3 bits, que permite extrair a informação correta sobre o tamanho de cada corte de entropia pelo decodificador. Em comparação com VLC a quantidade de bit economizada no cabeçalho do corte de entropia pode ser obtida.
Ou seja, de acordo com o aspecto da Figura 15, por exemplo, um conceito para codificação por entropia de um sinal de informação é fornecido habilitando a taxa de compressão mais alta ao invés da capacidade de processamento paralelo do que comparado aos conceitos disponíveis até agora. De acordo com este aspecto, uma seção do fluxo de dados codificado por entropia 20 em que uma matriz de amostra é codificada, compreende cortes de entropia como 90 na Figura 8 em que diferentes partes 12 da matriz de amostra são codificadas por entropia, e um cabeçalho ilustrado com linhas tracejadas 300 na Figura 9, compreendendo a informação que revela as posições iniciais 302 dos cortes de entropia 90, medidos no domínio decodificado por entropia, dentro do fluxo de dados codificado por entropia, a informação compreendendo, para um corte de entropia predeterminado, um valor de diferença que revela uma diferença entre uma posição inicial de um corte de entropia precedente n-1 e uma posição inicial do corte de entropia predeterminado n, a diferença sendo incluída no fluxo de dados como uma sequência de bit de VLC.
Em particular, a sequência de bit de VLC pode ter uma prefixo de comprimento variável y, indicando que a diferença x fica no y-th de uma sequência de um número z de intervalos [0,2a- 1], [2a,2b+2a-l], [2b+2a, 2c+2b+2a-l] e assim por diante, e um Sufixo codificado de PCM do y-th da sequência de comprimentos a, b, c ... se a, b, c, ... são escolhidos para ser uma potência de dois, se o y correspondente for adicionado, ou seja, de modo que a+1, b+2, c+3 e assim por diante sejam todos potências de dois, então o alinhamento de byte pode ser preservado. O número z não é restrito a três como exemplarmente escolhido na Figura 15.
O codificador, como o na Figura 1, é apropriadamente desenhado para girar a diferença de posições iniciais consecutivas em uma sequência de bit de VLC, ou seja, primeiramente determinando o prefixo, ou seja, no qual o subintervalo da diferença permanece (o y-th), e então o ajuste do sufixo mais para ser igual à diferença da posição inicial menos o y-th de 0, 2a, 2b+2a e assim por diante. O decodificador, como na Figura 6, é apropriadamente desenhado para derivar a posição inicial do corte atual de entropia n da sequência de bit de VLC, ou seja, primeiramente inspecionando o prefixo para obter y, então definindo a diferença ao valor do sufixo mais o y-th de 0, 2a, 2b+2a e assim por diante, e então adicionando a diferença ao ponto inicial do corte de entropia precedente n-1.
Outra vantagem pode ser obtida pela segmentação de cortes de entropia, a saber, para a transmissão de baixo atraso e velocidade de decodificação.
No fluxo de video, a permissão de resoluções mais altas (Full-HD, QUAD-HD etc.) leva a quantidade mais alta de dados que deve ser transmitida. Para cenários sensiveis ao tempo, os chamados caso de uso do baixo atraso (<145ms), o tempo da transmissão se torna um fator critico. Considere o link de carga útil de ADSL para uma aplicação de vídeo conferência. Aqui, os chamados pontos aleatórios de fluxo, geralmente estes se referem a I-estruturas, serão os candidatos para causar um estrangulamento durante a transmissão.
Para solucionar este problema e reduzir o atraso do tempo de transmissão e decodificação, ou seja, o atraso de fim a fim, uma nova técnica para um esquema do corte de entropia intercalado para a transmissão paralela e processamento pode ser aplicada.
HEVC permitirá o chamado processamento da Frente de Onda no lado do decodificador. Isso será habilitado utilizando os cortes de entropia. No caso normal os dados de um corte todo serão entregues em um periodo. O processo de decodificação começará desde que os dados codificados cheguem nos motores do decodificador de frente de onda. Para reduzir o tempo quando o decodificador pode começar e terminar uma estrutura, uma segmentação dos cortes de entropia em pequenos pedaços utilizando uma abordagem de intercalação é utilizada de acordo com a presente aplicação. Assim, o codificador pode entregar dados, correspondentes ao corte de entropia particular, para transportar a camada de mais cedo do que no caso normal. Resulta então na transmissão mais rápida e mais cedo de começar um processo de decodificação paralelo no cliente.
Criar os pedaços de um corte pode ainda ser obtido pela subdivisão de um corte de entropia em mais corte mantendo todas as dependências (cortes dependentes). Se feito em cada maior unidade de codificação (LCU)/Unidade em árvore de codificação (CTU | Coding tree unit), estes pedaços podem ser intercalados utilizando adicionalmente as técnicas da camada do sistema que permite a transmissão dos pedaços em uma forma intercalada e recuperando ou pelo menos fornecendo o conhecimento da ordem de decodificação original dos pedaços através da sinalização adicional. Esta sinalização pode ser um número da ordem de decodificação (DON I decoding order number), como definido em IETF RTP Payload Format para H.264/AVC (RFC 3984). Outro método do sistema pode ser aplicar os pedaços de um sub- fluxo da frente de onda em um diferente fluxo de transporte, como nos sistemas MEPG-2, atribuindo um diferente PID a cada um deles, ainda multiplexando e pela intercalação deles no canal de transporte.
A abordagem pode ser também aplicada sobre os limites da estrutura, no caso se os seguintes cortes da estrutura corte de entropia já podem ser decodificados, por exemplo, na frente de onda, com base no conhecimento que a informação necessária para decodificação de um corte de entropia de uma seguinte estrutura devido á disponibilidade de referências de interestrutura. Estes dados já decodificáveis de uma estrutura posterior na ordem de codificação podem ser derivados do comprimento do vetor de movimento sinalizado/permitido máximo ou informação adicional no fluxo indicando as dependências das partes de dados na estrutura anterior, ou um esquema de referenciação fixo, indicando a posição sinalizada em uma posição fixa de sequência como um parâmetro definido. Isso ainda será descrito abaixo.
A imagem pode ser codificada com um corte de entropia por maior unidade de codificação (LCU)-fileira (s) conforme descrito nas Figuras 2 e 9. É vantajoso utilizar a técnica da Frente de Onda no lado do decodificador. Durante o processo de codificação, o fluxo de dados continuo de cada corte pode ser dividido em segmentos de tamanho constante. Então os segmentos resultantes são intercalados e podem passar pela transmissão. O tamanho constante de segmentos pode trazer um problema no final do fluxo de dados continuo devido aos seu comprimento variável.
Há duas possíveis soluções gerais. A primeira é uma geração de segmentos de um byte (geralmente a representação do fluxo de dados continuo de corte é alinhado por byte) e controlando o consumo de bytes por cada motor do decodificador, ou seja, o decodificador encontra a conclusão de um corte de entropia.
A segunda é utilizando o código de finalização no final do corte. No último caso, os segmentos de comprimento variável são possíveis, mas também levam à quantidade mais alta de dados. Outro método é a sinalização do comprimento do corte de entropia. Uma forma desta alternativa é descrita abaixo
O tamanho do segmento e modo de intercalação podem ser sinalizados tanto em um SEI-Message quanto em um SPS. O esquema de transmissão é mostrado na Figura 16.
Assim, de acordo com o aspecto da Figura 16, por exemplo, um conceito para a codificação por entropia de uma matriz de amostra é fornecido permitindo o baixo atraso do que comparado aos conceitos disponíveis até agora. De acordo com este aspecto, um fluxo de dados codificado 20 em que um sinal de informação é codificado, compreende cortes como cortes de entropia 90 ou apenas cortes decodificáveis independentemente completos (mostrados no lado esquerdo) em que diferentes partes 12 do sinal de informação são (previsivelmente e/ou por entropia) codificadas, caracterizado pelos cortes 90 serem subdivididos em pedaços (caixas sombreadas 310) que estão dispostos dentro do fluxo de dados codificado 20 de forma intercalada (mostrado no lado direito), a intercalação sendo representada por colchete 312.
Conforme denotado acima e descrito com relação a outros aspectos, os cortes pode ser cortes de entropia 90 que, por sua vez, podem ser subconjuntos próprios dos cortes de estruturas, e certamente, o fluxo de dados codificado pode ser um fluxo de dados codificado por entropia 20.
A intercalação 312 dos cortes 90 permite o baixo atraso desde que o decodificador responsável pela decodificação de qualquer um dos cortes 90 não precise esperar por um tempo consumido pelos cortes anteriores de outros decodificadores (de acordo com a ordem do corte 16) . Ainda, todos os decodificadores disponíveis podem começar a codificação de seus cortes associados desde que o primeiro pedaço 310 deste seja disponível e as dependências potenciais intercorte sejam solucionadas, cf. abordagem da frente de onda.
As diferentes partes 12 podem ser codificadas por entropia nos cortes de entropia 90 utilizando as estimativas de probabilidade que são definidas independentemente entre os cortes de entropia, ou utilizando adoção de estimativas da probabilidade de corte de interentropia conforme descrito acima como, por exemplo, a saber, em que as diferentes partes 12 são codificadas nos cortes de entropia 90 pelas respectivas passagens de codificação por entropia 14, e os cortes de entropia subordinados têm suas partes correspondentes 12 codificadas utilizando as estimativas de probabilidades derivadas, inter alias, das estimativas da probabilidade utilizadas em cortes de entropia de classificação mais elevada na parte espacialmente próxima da parte correspondente, conforme descrito previamente.
O fluxo de dados codificados por entropia 20 pode adicionalmente compreender um cabeçalho como é mostrado como uma opção na Figura 16. O cabeçalho 300 pode ser associado com a estrutura (matriz de amostra) de uma sequência 30, o cabeçalho 300 compreendendo a informação que revela um comprimento dos cortes de
entropia. A informação referente ao comprimento dos cortes de entropia 90 pode ser codificada dentro do cabeçalho 300 conforme descrito acima utilizando códigos VLC. Utilizando o conhecimento sobre o comprimento dos cortes de entropia, no lado da decodificação, é possivel identificar um último pedaço associado com cada um dos cortes de entropia 90 e o comprimento deste. Entretanto, códigos iniciais ou outros esquemas de indicação podem também ser utilizados. As posições iniciais do corte podem também ser identificadas pelo processo de decodificação que conhece a terminação de um corte. Então pode ser possivel apenas depender da indicação do decodificador, mas isso requer sinalização entre os decodificadores e em alguns casos, se um corte de entropia "anterior" terminar mais tarde do que um corte "posterior" no fluxo. Isso pode exigir os casos específicos um sinalização "adaptativa" no fluxo, que pode ser baseado nos códigos iniciais.
Por exemplo, os cortes de entropia 90 podem estar dispostos após o cabeçalho 300 conforme ilustrado na Figura 16.
Os pedaços 310 podem ter comprimento igual, pelo menos desde que uma parte da sequência de pedaços 310 inicial contigua de um primeiro dos pedaços por uma ordem na qual os pedaços estão disposto dentro do fluxo de dados codificados por entropia 20, é referido. Pedaços subsequentes podem variar no comprimento. Os pedaços subsequentes podem ser iguais ao comprimento da parte da sequência contigua inicial ou menor do que este comprimento. O comprimento dos pedaços subsequentes podem ser derivados da informação previamente mencionada dentro do cabeçalho 300 que revela o comprimento dos cortes de entropia 90 ou a posição inicial. Os pedaços 310 podem estar dispostos dentro do fluxo de dados codificados por entropia 20 de forma ciclica de acordo com uma ordem definida entre os cortes de entropia. Para os cortes de entropia, os pedaços dos quais estão completamente dentro dos ciclos prévios, pode ser pulado nos ciclos atuais e subsequentes.
Outra informação sinaliza então uma sequência da matriz de amostra como um sinal de vídeo poderia ser conduzido através do fluxo de dados 20 também. As diferentes partes 12 precisam, assim, de nenhuma parte de uma matriz de amostra predeterminada como uma imagem/estrutura.
Conforme descrito acima, os cortes de entropia 90 podem ter as diferentes partes 12 da matriz de amostra 10 codificadas nela através da codificação preditiva utilizando previsão de corte de interentropia e/ou previsão de interestrutura de uma codificação por entropia de uma previsão residual da previsão de corte de interentropia e/ou previsão de interestrutura. Ou seja, conforme descrito acima, as diferentes partes podem ser partes espacialmente distintas da estrutura 10 ou várias estruturas 30. O último caso se aplica, se os seguintes cortes de estrutura ou corte(s) de entropia pode já ser decodificados, por exemplo, na frente de onda, com base no conhecimento que a informação necessária para a decodificação de um corte de entropia de uma seguinte estrutura devido às referências de interestrutura disponíveis. Os dados já decodificáveis de uma estrutura posterior na ordem da codificação podem ser derivados do comprimento do vetor de movimento sinalizado/permitido máximo ou informação adicional no fluxo indicando as dependências das partes de dados na(s) estrutura (s) precedente, e previsão de corte de interentropia pode envolver a intra-previsão, enquanto a previsão de interestrutura pode envolver a previsão compensada pelo movimento. Um exemplo é descrito abaixo.
A independência previamente mencionada do ajuste da estimativa da probabilidade entre os cortes de entropia, pode se referir tanto à adaptação da probabilidade quanto ao modelo de contexto. Ou seja, o contexto escolhido dentro de um corte de entropia, pode ser escolhido independentemente de outros cortes de entropia, e a estimativa da probabilidade de um contexto pode ser inicializada e adaptada independente de qualquer outro corte de entropia também. Um decodificador de entropia correspondente pode ser construído conforme segue.
Um decodificador de entropia configurado para decodificar um fluxo de dados codificado por entropia 20 que compreende cortes de entropia 90 em que diferente partes de uma estrutura são codificadas por entropia, caracterizado pelos cortes de entropia ser subdivididos em pedaços 310 que são dispostos dentro do fluxo de dados codificados por entropia 20 de forma intercalada, pode ser configurado conforme mostrado na Figura 6 e pode adicionalmente compreender um desintercalador configurado para desintercalar os pedaços 310, simbolizados com 314 na Figura 16.
Em particular, conforme ilustrado na Figura 5, o decodificador de entropia pode compreender uma pluralidade de decodificadores de entropia 130 como fios que percorrem em diferentes centros de processamento, caracterizado pelo desintercalador poder ser configurado, para cada corte de entropia, para encaminhar os pedaços 310 deste a um decodificador de entropia 44 associado com o respectivo corte de entropia.
Em outras palavras, os cortes de entropia podem ser subdivididos em pedaços, que, por sua vez, podem ser intercalados, e o decodificador pode compreender um desintercalador para desintercalar os pedaços e pode iniciar a operação nos cortes de entropia em paralelo pelas passagens 16 mesmo antes da recepção de qualquer um dos cortes de entropia como um todo. Deve-se recordar que o comprimento dos pedaços são, preferivelmente, medidos no dominio codificado por entropia dominio ao invés do dominio de sintaxe para corresponder, por exemplo, a um número de determinadas partes/blocos espaciais na imagem ou semelhantes embora a última opção também estaria disponivel.
Depois, a possivel utilização de dependências temporais é descrita. O mesmo pode ser utilizado além, ou alternativamente, das aplicações de melhoria da eszimativa da probabilidade descritas até agora.
O padrão do processamento de frente de onda pode, como é descrito agora, ser estendido na codificação por entropia com o novo cálculo de probabilidades para cada LCU utilizar também as dependências temporais entre as estruturas.
Como é também conhecido, as probabilidades serão reinicializadas no começo de cada estrutura (a primeira LCU) . Assim as probabilidades, que já foram adquiridas na estrutura anterior, são perdidas. Para reduzir a perda da eficiência da codificação, um pode passar o estado final de imagem (cp. 320) ou, no caso da utilização do corte de entropia, o estado final de corte (cp. 322) das probabilidades da estrutura de referência 324 na primeira LCU 50 da estrutura atual 10 ou corte de entropia 12 respectivamente (Figura 17). Estes dados de um corte correspondente em uma estrutura de referência podem ser derivados não apenas na posição final mas também de uma posição anterior nos cortes referenciados, desde que o processamento de frente de onda paralelo também possa passar pelos limites de estrutura, ou seja, enquanto a codificação de um corte de uma estrutura, o processo de codificação do corte da estrutura precedente pode não já estar finalizado. Então, a sinalização pode ser utilizada para indicar a posição de referência, ou pode ser indicada pelo esquema.
Utilizando a observação acima, um pode então, para inicializar na fase inicial 84 e 234, respectivamente, definir com {i,jl denotando a primeira CU 50 no corte de entropia k-th da matriz de amostra atual igual a, ou pelo menos dependendo de, qualquer T(P(i,j).) com {i, j }' denotando a CU dentro de uma matriz de amostra precedente (na ordem da codificação de matriz de amostra que pode ser igual à ordem da apresentação) ou uma combinação de vários Isso pode ser feito para k= 0 apenas, ou para cada corte de entropia k e {1...K} com K denotando o número do cortes de entropia na estrutura atual. A inicialização temporal pode ser feita de forma adicional ou alternativa à inicialização espacial descrita acima. Ou seja, P(i,j} com {izjl denotando a primeira CU 50 no corte de entropia k-th pode ser set igual a alguma combinação (como a média sme) de T(Pi±/j}») e T ( ) com {i,j}' denotando a CU dentro de uma matriz de «* >J > spatial amostra precedente (previamente de/codificada) ou uma combinação de vários T(Pn,j|>)'s e {i,j}spatiai denotando a CU dentro de um corte de entropia precedente da matriz de amostra atual. Desde que a localização de {i,j}' seja referida, P<i,ji com {i,j} denotando a primeira (na ordem da codificação por entropia 14) CU 50 no corte de entropia k-th (na ordem da codificação por entropia 14) da matriz de amostra atual pode ser definida igual a T(P(i,j},) com {i,j}' denotando a última (na ordem da codificação por entropia 14) CU dentro do corte de entropia k-th (na ordem do corte de entropia) na matriz de amostra precedente (na ordem da codificação de matriz de amostra) ou a última CU dentro do último corte de entropia (na ordem do corte de entropia) na matriz de amostra precedente (na ordem da codificação de matriz de amostra). Novamente, esta inicialização temporal pode ser realizada para o primeiro corte de entropia na matriz de amostra apenas.
O processo de análise do estado final da estrutura de referência foi testado com o método de adaptação de probabilidades, cujos resultados são ilustrados na Figura 10 - Figura 19 (gráfico Temporal).
Outra oportunidade para utilizar os dados de outras estruturas é trocar as probabilidades obtidas entre as LCUs colocadas. A ideia principal é baseada na afirmação que as propriedades da estrutura de referência não diferem da estrutura atual. Para acelerar o aprendizado das probabilidades pelas LCUs em uma estrutura, uma pode tentar passar o estado final de cada LCU à LCU apropriada na estrutura atual. Esta proposta é ilustrada na Figura 18.
Na estrutura de referência, diferentes oportunidades podem ser entendidas. Como, por exemplo, uma estrutura, que é a última codificada pode ser utilizada como uma estrutura de referência. Caso contrário, a última estrutura codificada apenas da mesma camada temporal pode ser apropriada por referência.
Além disso, esta abordagem pode ser unida com os métodos já propostos acima, como utilização da última informação (corte) da estrutura de referência, adaptação de probabilidades e utilização da segunda LCU da linha superior. O processo de adaptação espacial acima pode ser modificado para ser Ppín.n- média (T (Ppl„|), T ( T ( , T(PM. onde N pode ser 1 ou mais do que 1 e {i,j}i...N é/são selecionado de (dentro de) qualquer corte de entropia anterior 90 (na ordem do corte de entropia 16) na matriz de amostra atual 10 e sua parte associada 12, respectivamente, e M pode ser 1 ou mais do que 1 e {i,j}'i..w é/estão dentro da matriz de amostra precedente 350. Pode ser que pelo menos uma das CUs 50 {i/j}'i..j4 seja colocalizada para p (n) . Com relação às possíveis seleções de CUs 50 a referência é feita à descrição acima.
A função "média" pode ser uma de uma soma ponderada, uma função média, etc. O processo de adaptação espacial acima pode ser substituído por Pp!n+1)= média (T (Pp(n)) , T ( T ( P{l jVi/ ) , ) onde M pode ser 1 ou mais do que 1 e {i, j}' i..j< é/estão dentro da matriz de amostra precedente. Pode ser pelo menos de {i,j}'i._M seja colocalizado para p(n). Com relação às possíveis seleções de {i,j}i...N a referência é feita à descrição acima. A função "média" pode ser uma de uma soma ponderada, uma função média, etc. Pode ser que pelo menos de {i,j}'i...M esteja colocalizado para p(n).
Como uma extensão específica da utilização da informação colocada, uma abordagem para utilizar os dados obtidos de outros blocos de uma ou mais estruturas de referência pode ser aplicada.
As técnicas previamente mencionadas utilizam apenas a informação obtida dos vizinhos diretos na estrutura atual ou nas estruturas de referência. Entretanto, não significa que as probabilidades ganhas neste caso são as melhores. As LCUs adjacentes, de acordo a divisões da imagem (residuais), não têm sempre os melhores modelos de probabilidades. É suposto que os melhores resultados possam ser obtidos com a ajuda de blocos, dos quais a previsão será feita. E assim, este bloco apropriado pode ser utilizado como uma referência para a LCU atual.
Assim, no exemplo de adaptação acima, {irjli..jj e/ou {i,j}'i...M podem ser selecionados dependendo do serviço de CU como fornecedores dos indicadores para p(n).
A adaptação temporal dos esquemas de probabilidade/inicialização apresentados pode também ser utilizada sem cortes de entropia ou um único corte de entropia por estrutura.
De acordo com o último aspecto, um ganho na velocidade da adaptação da probabilidade é obtido acoplando uma adaptação das probabilidades das estruturas temporariamente próximas/relacionadas. Quando é descrito que há um decodificador como o da Figura 6, caracterizado pelo decodificador ser configurado para reconstruir uma sequência da matrizes de amostra de um fluxo de dados do codificador por entropia, e é configurado para decodificar por entropia uma estrutura atual do fluxo de dados do codificador por entropia para reconstruir uma matriz de amostra atual da sequência da matrizes de amostra, realizar a decodificação por entropia por uma passagem de codificação por entropia e utilizar as estimativas de probabilidade e adaptar as estimativas de probabilidade pela passagem de codificação por entropia utilizando uma parte previamente decodificada da estrutura atual, em que o estágio da decodificação por entropia é configurado para inicializar ou determinar as estimativas de probabilidade para a estrutura atual com base nas estimativas de probabilidade utilizadas na codificação de uma estrutura previamente decodificada do fluxo de dados codificados por entropia.
Ou seja, por exemplo, as estimativas de probabilidade para a estrutura atual são inicializadas com base nas estimativas de probabilidade resultantes após ter finalizado a decodificação da estrutura previamente decodificada do fluxo de dados codificados por entropia. As exigências do buffer são, então baixas, pois meramente o estado final das estimativas da probabilidade devem ser colocados em buffer até o começo da decodificação da estrutura atual. Certamente, este aspecto é combinado com o aspecto da Figura 1 a 9 em que para as primeiras partes de cada parte 12 não apenas as estimativas da probabilidade utilizadas para a parte espacialmente próxima nos cortes de entropia anteriores (se disponível) , mas também, de forma ponderada, por exemplo, o estado final das estimativas da probabilidade de uma (por exemplo, espacialmente) parte correspondente de entropia na estrutura anterior é utilizado. Estes dados de um corte correspondente em uma estrutura de referência podem ser derivados não apenas na posição final, mas também de uma posição anterior nos cortes, visto que o processamento de frente de onda paralelo também pode passar pelos limites da estrutura, ou seja, enquanto a codificação de um corte de uma estrutura, o processo de codificação do corte da estrutura anterior pode não já estar finalizado. Então, a sinalização pode ser utilizada para indicar a posição de referência, ou pode ser indicada pelo esquema.
Ainda, por exemplo, as estimativas de probabilidade utilizadas para a codificação das partes/blocos da estrutura previamente decodificada são amortecidas, não apenas o estado final, e o decodificador, na codificação por entropia do corte de entropia predeterminado (com referência à descrição acima do derivação da probabilidade espacialmente acoplada), realizaria a decodificação por entropia da parte atual (X) do corte de entropia predeterminado com base nas respectivas estimativas de probabilidade do corte de entropia predeterminado conforme adaptado utilizando a parte previamente decodificada do corte de entropia predeterminado (incluindo pl, por exemplo), e estimativas de probabilidade conforme utilizado na decodificação por entropia de uma parte espacialmente correspondente de um corte de entropia da estrutura previamente decodificada com, opcionalmente, adicionalmente utilizando estimativas de probabilidade conforme utilizado na decodificação por entropia de uma proximidade espacialmente, na ordem do corte de entropia do corte de entropia precedente (o corte compreendendo X, por exemplo) em uma parte próxima (como p4) do corte de entropia espacialmente próximo, conforme descrito acima. Como também foi descrito acima, a correspondência espacial entre as partes, e a identificação de um apropriado para a adoção de probabilidade para a estrutura atual entre a estrutura previamente decodificada pode ser definida pela ajuda da informação de movimento como os indices de movimento, os vetores de movimento e semelhantes, da parte/bloco atual.
Até agora, a frente de onda que se estende durante o processamento de frente de onda foi primariamente descrita como se estendendo obliquamente através de uma matriz de amostra 10 com a codificação/decodificação sendo realizada uma matriz de amostra após a outra. Entretanto, isso nâo é obrigatório. A referência é feita à Figura 19. A Figura 19 mostra uma parte fora de uma sequência das matrizes de amostra, caracterizada pelas matrizes de amostra da sequência ser definidas entre elas, e são descritas como sendo dispostas em, uma ordem da codificação de matriz de amostra 380 que pode ou não coincidir com uma ordem do tempo de apresentação. A Figura 19 exemplarmente mostra uma subdivisão das matrizes de amostra 10 em quatro cortes de entropia cada. Os cortes de entropia já codificador/decodifiçados são mostrados presos. Quatro fios de codificação/decodificação (codificação/estágios de codificação) 382 estão atualmente operando nos quatro cortes de entropia 12 da matriz de amostra tendo indice n. Entretanto, a Figura 19 mostra um fio número 5 sendo deixado, e é possivel que este outro fio 382 tendo o número 5 na Figura 19 opere para codificar/decodificar a próxima matriz de amostra em linha, ou seja, n+1, nas partes nas quais é garantido que as respectivas partes de referência na estrutura atualmente codificada/decodifiçada n já estejam disponíveis, ou seja, tenham sido processadas por qualquer um dos fios 1 a 4. Estas partes são referenciadas nas previsões mostradas em 64 na Figura 1, por exemplo.
A Figura 19 exemplarmente mostra com uma linha pontilhada 384, uma linha que se estende através da matriz de amostra n+1 que é co-localizada no limite entre a parte da matriz de amostra n já processada, ou seja, já codificada/decodificada, ou seja, a parte presa dentro da matriz de amostra n por um lado, e a parte ainda não processada, ou seja, a parte não presa da matriz de amostra n por outro lado. Com setas duplas principais, a Figura 19 também mostra o comprimento possivel máximo dos vetores de movimento medidos na coluna e direção da fileira, ou seja, ymax e xmax, respectivamente. Certamente, a Figura 19 também mostra com uma linha pontilhada-tracejada 386 uma versão deslocada da linha 384, a saber, uma linha 386 que é espaçada longe da linha 384 na distância mínima possivel de modo que a distância não caia abaixo de ymax na direção da coluna e xmax na direção da fileira. Como pode ser visto, há unidades de codificação 50 na matriz de amostra n+1 para a qual qualquer parte de referência na matriz de amostra n é garantida para ser encontrada como completamente contida dentro da parte já processada desta matriz de amostra n, a saber, as que ficam na metade da matriz de amostra n+1 no lado a montante com relação à linha 386. Certamente, o fio 5 já pode operar para decodificar/codificar estas unidades de codificação conforme mostrado na Figura 19. Como pode ser visto, mesmo um sexto fio poderia operar no segundo corte de entropia na ordem do corte de entropia 16 da matriz de amostra n+1. Assim, a frente de onda se estende não apenas espacialmente, mas também temporariamente através do espaço espaço-temporal mantido pela sequência 30 das matrizes de amostra.
Favor observar que o aspecto da frente de onda já mencionado também trabalha em combinação com os acoplamentos da estimativa da probabilidade descrita acima pelos limites do corte de entropia.
Ainda, com relação ao aspecto do pedaço descrito, também deve ser observado que subdividir os cortes de entropia em realizado no domínio codificado por entropia, ou seja, no domínio comprimido de entropia. Pense na discussão acima: cortes de entropia conforme descrito acima têm a vantagem de reduzir a perda da eficiência da codificação ao invés da capacitação do processamento de frente de onda devido à derivação das estimativas de probabilidade dos cortes de entropia previamente codificados/decodificados da mesma ou uma estrutura previamente codificada/decodifiçada, ou seja, uma inicialização e/ou adaptação das estimativas de probabilidade com base nas estimativas de probabilidade destes cortes de entropia anteriores. Cada um destes cortes de entropia é suposto para ser codificado/decodifiçado por entropia por um fio no caso do processamento de frente de onda. Ou seja, ao subdividir os cortes de entropia, não é necessário para apresentar os pedaços codificáveis/decodificáveis em paralelo. Ainda, o codificador deve meramente ser fornecido com a oportunidade para emitir as subpartes de seu fluxo de dados contínuo do corte de entropia antes de finalizar a codificação por entropia, e o decodificador deve ser fornecido com a oportunidade para operar nestas subpartes, ou seja, pedaços, antes da recepção dos pedaços restantes do mesmo corte de entropia. Além disso, a intercalação deve ser habilitada no lado da recepção. Para habilitar a última desintercalação, entretanto, não é necessário realizar a subdivisão no domínio codificado por entropia. Em particular, é possível realizar a subdivisão apresentada acima dos cortes de entropia em pedaços menores sem perda severa da eficiência da codificação, intermitentemente meramente redefinindo o estado interno do intervalo de probabilidade, ou seja, o valor de largura do intervalo de probabilidade, e o valor de codificação/decodificação por entropia. As estimativas de probabilidade, entretanto, não estão redefinidas. Ainda, elas são continuamente atualizadas/adaptadas do inicio ao fim dos cortes de entropia, respectivamente. Por esta medição, é possivel subdividir os cortes de entropia em pedaços individuais com a subdivisão sendo realizada no dominio do elemento de sintaxe mais do que o dominio do fluxo de dados continuo comprimido. A subdivisão pode seguir uma subdivisão espacial conforme descrito abaixo para facilitar uma sinalização das interfaces do pedaço ao decodificador. Cada um dos pedaços poderia ser fornecido com seu próprio cabeçalho que revela, por exemplo, sua posição inicial na matriz de amostra, medida, por exemplo, com relação à ordem de codificação 14 com relação à respectiva posição inicial do corte de entropia com um indice em seu corte de entropia, ou com relação a uma localização proeminente da matriz de amostra 10 como o canto esquerdo superior.
Para descrever mais claramente a subdivisão dos cortes de entropia em pedaços de acordo com a última aplicação, a referência é feita à Figura 20. A Figura 20 mostra, meramente para finalidades ilustrativas, a matriz de amostra 10 como sendo subdividida em quatro cortes de entropia. As partes atualmente codificadas da matriz de amostra 10 são mostradas presas. Três fios estão atualmente operando na codificação por entropia da matriz de amostra 10 e emitem os pedaços dos cortes de entropia em uma base de alteração imediata: veja, por exemplo, o primeiro corte de entropia na ordem do corte de entropia 16 que corresponde à parte 12 da matriz de amostra 10. Após ter codificado uma subparte 12a da parte 12, o codificador forma um pedaço 390 a partir dele, ou seja, o núcleo da codificação por entropia 80 realiza determinado procedimento de finalização para finalizar o fluxo de dados continuo aritmético produzido da subparte 12a até então no caso da codificação aritmética formar o pedaço 390. O procedimento de codificação é então resumido com relação à subparte subsequente 12b do corte de entropia 12 na ordem de codificação 14 enquanto começa um novo fluxo de dados continuo de entropia. Por exemplo, isso significa que os estados internos, como valor de largura do intervalo de probabilidade e valor de compensação do intervalo de probabilidade do núcleo da codificação por entropia 80, são redefinidos. As estimativas de probabilidade, entretanto, não estão redefinidas. Estão deixadas inalteradas. Isso é ilustrado na Figura 20 por uma seta 392. Na Figura 20, é exemplarmente mostrado que o corte de entropia ou parte 12 é subdividido em mais do que duas subpartes, e corretamente mesmo o segundo pedaço 1b está sujeito à alguma finalização da entropia antes de atingir o final da parte 12 pela ordem de codificação 14, onde um próximo pedaço na linha é iniciado com etc.
Simultaneamente, outro fio opera no segundo corte de entropia ou parte 12 na ordem do corte de entropia 16. Na finalização de uma primeira subparte deste segundo corte de entropia/parte 12, um pedaço 2a é emitido, onde a codificação por entropia do restante do segundo corte de entropia é iniciada ao manter, entretanto, a estimativa da probabilidade como válida no final do pedaço 2a.
Com um eixo de tempo 394, a Figura 20 procura ilustrar que os pedaços 390 são emitidos desde que tenham sido finalizados. Isso leva a uma intercalação semelhante à descrita na Figura 16. Cada pedaço pode ser empacotado em um pacote e transportado ao lado da decodificação através de alguma camada de transporte em qualquer ordem. A camada de transporte é ilustrada utilizando a seta 396.
O decodificador tem que reatribuir os pedaços a suas subpartes 12a, 12b e assim por diante. Para esta finalidade, cada pedaço 390 pode ter uma seção do cabeçalho 398 que revela a localização do inicio de sua subparte associada 12a ou 12b, ou seja, a subparte dos elementos de sintaxe que descrevem os mesmos é codificada por entropia no respectivo pedaço. Utilizando esta informação, o decodificador pode associar cada pedaço 390 com seu corte de entropia e com sua subparte dentro da parte 12 deste corte de entropia.
Para as finalidades da ilustração, a Figura 20 também exemplarmente mostra a possibilidade que a junção entre as subpartes consecutivas 12a e 12b de um corte de entropia 12 não têm que coincidir com o limite entre as unidades de codificação consecutivas 50. Ainda, a junção pode ser definida em um nivel mais profundo da subdivisão das unidades de codificação em várias árvores exemplares previamente mencionadas. A informação de localização contida nos cabeçalhos 398 pode indicar o início da subparte associada com o pedaço atual 390 precisamente suficiente para identificar o respectivo sub-bloco da respectiva unidade de codificação, ou seja, a localização dentro da sequência do elemento de sintaxe da qual o respectivo sub-bloco é descrito.
Como ficou claro a partir da discussão acima, quase nenhuma perda da eficiência da codificação resultou da subdivisão dos cortes de entropia em pedaços. Meramente os processos de finalização da entropia e o pacote pode envolver alguma perda da eficiência da codificação, mas por outro lado, os ganhos de baixo atraso são enormes.
Novamente, por favor observe que o aspecto do pedaço da subdivisão espacial já mencionada também trabalha em combinação com os acoplamentos da estimativa da probabilidade descrita acima pelos limites do corte de entropia, espacialmente e temporalmente.
O decodificador como decodificador da Figura 6, pode desfazer a transmissão do pedaço conforme segue. Em particular, o decodificador pode verificar a qual corte de entropia um pedaço atual pertence. Esta verificação pode ser feita com base na informação da localização previamente mencionada.
Então, pode ser verificado se o pedaço atual corresponder a uma primeira subparte da parte da parte correspondente de entropia pela passagem de codificação por entropia 14. Se for assim, o decodificador pode decodificar por entropia o pedaço atual na adaptação das respectivas estimativas de probabilidade e considerar o estado das respectivas estimativas de probabilidade que se manifestam em um final da decodificação por entropia do pedaço atual quando a decodificação por entropia de outro pedaço que corresponde a uma segunda subparte da parte do corte de entropia predeterminada pela passagem de codificação por entropia. A "consideração" pode envolver ajustar as estimativas de probabilidade no começo do pedaço 1b igual às estimativas de probabilidade que se manifestam, pela adoção da probabilidade começando do estado da estimativa da probabilidade no começo do pedaço la, no final da subparte 12a do pedaço la, ou igual a uma combinação desta com estimativas de probabilidade de entropia de outros cortes de entropia conforme descrito acima. Desde que a inicialização da probabilidade no começo do primeiro pedaço 12a seja referida, a referência é feita à discussão acima, pois esta também forma o começo da parte correspondente de entropia. Em outras palavras, se o corte atual for um segundo ou pedaço seguinte na ordem 14, o decodificador pode decodificar por entropia o pedaço atual utilizando as estimativas de probabilidade que dependem das estimativas de probabilidade que se manifestam em um final da decodificação por entropia de um pedaço que corresponde a uma subparte da parte do corte de entropia predeterminado precedente da subparte correspondente ao pedaço atual, pela passagem de codificação por entropia 14.
A descrição acima revela diferentes métodos, que podem ser úteis para a codificação e decodificação paralela bem como útil para a otimização dos processos já existentes no padrão de codificação de vídeo HEVC. Uma breve visão geral dos cortes de entropia foi apresentada. Foi mostrado como eles podem ser formados, quais vantagens podem ser obtidas pela repartição e quais penalidades podem ocorrer destas técnicas. Um número de métodos foi proposto, que são supostos para melhorar o processo de aprendizagem das probabilidades pelas LCUs (maior unidade de codificação) na estrutura, melhor utilizando as dependências locais entre as LCUs, e também as dependências temporais entre as LCUs de diferentes estruturas. É afirmado que as diferentes combinações fornecem melhorias para ambos os conceitos com e sem paralelização da codificação e decodificação.
A melhoria da realização em Alta Eficiência, por exemplo, pela melhor mistura das abordagens propostas, é -0,4 % em Intra, -0,78 % no Baixo atraso e -0,63 % no Acesso Aleatório em comparação com HM3.0 sem uso dos cortes de entropia ou -0,7 % em Intra, -1,95 % no Baixo atraso e -1,5 % em Acesso Aleatório em reinicialização comum.
Em particular, inter alias, as seguintes técnicas foram apresentadas acima. • para utilizar não apenas local mas também dependências temporais das LCUs, para otimizar a adaptação das probabilidades CABAC antes de codificar cada LCU, veja a Figura 1 a 9, 17 e 18. • para atingir mais flexibilidade na codificação, outros cortes de entropia podem ser utilizados, de modo que determinadas regiões na estrutura se tornam independentes entre si. • Para permitir a sinalização minima das posições iniciais do corte / cortes de entropia para, por exemplo, o processamento de frente de onda paralelizado, veja a Figura 15 • para permitir o transporte de baixo atraso em um codificador paralelizado - ambiente transmissor - receptor - decodificador através do transporte intercalado dos cortes de entropia / cortes, veja a Figura 16.
Todos os métodos mencionados acima foram integrados e testados em HM3.0. Os resultados obtidos, onde o ponto de referência é HM3.0 sem qualquer implementação de corte de entropia, são apresentados nas tabelas 1 e 2 (onde 2LCU- utilização da segunda LCU da linha superior; 2LCU+Prob.Adap - 2LCU surgiu com o método da adaptação de probabilidades; Temporal- utilização das dependências temporais (estado final de uma estrutura de referência) com a adaptação de probabilidades para cada LCU). Tabela 1. Resumo dos resultados RD com 1 Fio
Figure img0001
Figure img0002
Entretanto, é interessante saber como as abordagens propostas afetam o processamento de frente de onda com a reinicialização das probabilidades no começo de cada linha das 5 LCUs. Estes resultados são ilustrados nas tabelas 3 e 4 (onde orig_neilnit é a comparação HM3.0 sem uso de cortes de entropia com utilização dos cortes de entropia com reinicialização). Tabela 3. Resumo dos resultados RD com 1 Fio. A referência é a nova inicialização.
Figure img0003
Figure img0004
Tabela 4. Resumo dos resultados RD com 4 Fios. A referência é a nova inicialização.
Figure img0005
Os resultados acima mostram que consideravelmente mais uso de dependências dentro e entre as estruturas e aplicação 5 racional da informação já obtida impedem a perda de média.
Uma abordagem para o Processamento de frente de onda para a codificação e decodificação de video HEVC une a possibilidade de utilizar as dependências entre LCUs adjacentes bem como dependências da estrutura temporal com o conceito do
Processamento Paralelo da Frente de Onda. Desta forma, a perda pode ser reduzida e o avanço do desempenho pode ser obtido.
Um ganho na velocidade da adaptação da probabilidade foi obtido pelo cálculo da adaptação das probabilidades dos cortes de entropia espacialmente próximos.
Conforme já mencionado acima, todos os aspectos acima podem ser combinados entre si, e, assim, mencionar determinadas possibilidades de implementação com relação a um determinado aspecto deve, certamente, também se aplicar a outros aspectos.
Embora alguns aspectos tenham sido descritos no contexto de um aparelho, fica claro que estes aspectos também representam uma descrição do método correspondente, onde um bloco ou dispositivo corresponde a uma etapa do método ou a uma função de uma etapa do método. De modo análogo, os aspectos descritos no contexto de uma etapa do método também representam uma descrição de um bloco correspondente ou item ou função de um aparelho correspondente. Algumas ou todas as etapas do método podem ser executadas por (ou utilizando) um aparelho de hardware, como, por exemplo, um microprocessador, um computador programável ou um circuito eletrônico. Em algumas aplicações, uma ou mais das etapas mais importantes do método podem ser executadas pelo referido aparelho.
Os sinais codificados inventivos mencionados acima podem ser armazenados em um meio de armazenamento digital ou podem ser transmitidos por um médio de transmissão, tal como um meio de transmissão sem fio ou um meio de transmissão por fio, tal como a internet.
Dependendo de certas exigências de implantação, as aplicações da invenção podem ser implementadas em hardware ou em software. A implementação pode ser realizada utilizando um meio de armazenamento digital, por exemplo, um disquete, um DVD, um CD, uma memória ROM, uma PROM, uma EPROM, uma EEPROM ou uma memória FLASH, tendo sinais de controle legiveis eletronicamente armazenados nele, que cooperam (ou são capazes de cooperar) com um sistema de computador programável de modo que o respectivo método seja realizado. Portanto, um meio de armazenamento digital pode ser legível por computador.
Algumas aplicações de acordo com a invenção compreendem um suporte de dados tendo sinais de controle eletronicamente legíveis que são capazes de cooperar com um sistema de computador programável, de modo que um dos métodos descritos aqui seja realizado.
Geralmente, as aplicações da presente invenção podem ser implementadas como um produto de programa de computador com um código do produto, o código do produto sendo operativo para realizar um dos métodos quando o produto do programa de computador for executado em um computador. O código do produto pode, por exemplo, ser armazenado em um suporte legível por máquina.
Outras aplicações compreendem o programa de computador para realizar um dos métodos descritos aqui, armazenado em um suporte legível por máquina.
Em outras palavras, uma aplicação do método inventivo é, portanto, um programa de computador tendo um código do produto para realizar um dos métodos descritos aqui, quando o programa de computador é executado em um computador.
Outra aplicação do método inventivo é, portanto, um suporte de dados (ou um meio de armazenamento digital, ou um meio legível por computador) compreendendo, gravado nele, o programa de computador para realizar um dos métodos descritos aqui. O suporte de dados, o meio de armazenamento digital ou o meio gravador são tipicamente tangíveis e/ou não transitórios.
Outra aplicação do método inventivo é, portanto, um fluxo de dados ou uma sequência de sinais representando o programa de computador para realizar um dos métodos descritos aqui. O fluxo de dados ou a sequência de sinais pode, por exemplo, ser configurado para ser transferido através de uma conexão de comunicação de dados, por exemplo, através da Internet.
Uma aplicação adicional compreende um meio de processamento, por exemplo, um computador, ou um dispositivo lógico programável, configurado ou adaptado para realizar um dos métodos descritos aqui.
Uma aplicação adicional compreende um computador tendo instalado nele o programa de computador para realizar um dos métodos descritos aqui.
Um aplicação adicional de acordo com a invenção compreende um aparelho ou um sistema configurado para transferir (por exemplo, ótica ou eletronicamente) um programa de computador para realizar um dos métodos descritos aqui para um receptor. O receptor pode, por exemplo, ser um computador, um dispositivo móvel, um dispositivo de memória ou similar. O aparelho ou sistema pode, por exemplo, compreender um servidor de arquivos para transferir o programa de computador para um receptor.
Em algumas aplicações, um dispositivo lógico programável (por exemplo, um arranjo de portas lógicas programáveis) pode ser utilizado para realizar algumas ou todas as funcionalidades dos métodos descritos aqui. Em algumas aplicações, um arranjo de portas lógicas programáveis pode cooperar com um microprocessador para realizar um dos métodos descritos aqui. Geralmente, os métodos são preferivelmente realizados por qualquer aparelho de hardware.
As aplicações acima descritas são meramente ilustrativas para os princípios da presente invenção. Deve ser entendido que modificações e variações das disposições e detalhes 5 descritos aqui serão evidentes a outros especialistas na técnica.
É a intenção, portanto, serem limitadas apenas pelo escopo das reivindicações de patente pendente e não pelos detalhes específicos apresentados em forma de descrição e explicação das aplicações aqui contidas.

Claims (19)

1. Decodificador para reconstruir uma matriz de amostra (10) a partir de um fluxo de dados codificado por entropia, configurado para decodificação de entropia a uma pluralidade de fatias de entropia dentro do fluxo de dados codificados por entropia, de modo a reconstruir diferentes porções (12) da matriz de amostra associada às fatias de entropia, respectivamente, com realizar, para cada fatia de entropia, a decodificação de entropia ao longo de um respectivo caminho de codificação de entropia (14) usando as respectivas estimativas de probabilidade, adaptar as respectivas estimativas de probabilidade ao longo do respectivo caminho de codificação de entropia usando uma parte previamente decodificada da respectiva fatia de entropia, iniciar a entropia decodificando a pluralidade de fatias de entropia sequencialmente usando uma ordem de fatia de entropia (16), e realizar, na decodificação de entropia uma fatia de entropia predeterminada, decodificação de entropia uma parte atual da fatia de entropia predeterminada com base em as respectivas estimativas de probabilidade da fatia de entropia predeterminada conforme adaptada usando a parte previamente decodificada da fatia de entropia predeterminada, e estimativas de probabilidade usadas na decodificação de entropia de uma fatia de entropia espacialmente vizinha, em ordem de fatia de entropia precedente, fatia de entropia em uma parte vizinha da fatia de entropia espacialmente vizinha, caracterizado por as fatias de entropia serem subdivididas em blocos e o decodificador é configurado para verificar se um bloco atual corresponde a uma, ao longo do caminho de codificação de entropia, primeira sub-porção da porção da matriz de amostra associada à fatia de entropia predeterminada, e em caso afirmativo, a entropia decodifica o bloco atual adaptando as respectivas estimativas de probabilidade e toma um estado das respectivas estimativas de probabilidade como se manifestando no final da entropia decodificando o bloco atual, em consideração ao decodificar a entropia outro bloco que corresponde a um, ao longo do caminho de codificação de entropia, segunda sub- porção da porção da matriz de amostra associada à fatia de entropia predeterminada, e se não, a entropia decodifica o bloco atual usando estimativas de probabilidade que dependem de estimativas de probabilidade que se manifestam no final da entropia decodificando um bloco que corresponde a uma sub-porção da porção da matriz de amostra associada à fatia de entropia predeterminada, que precede, ao longo do caminho de codificação de entropia, a sub-porção correspondente ao bloco atual.
2. Decodificador de acordo com a reivindicação 1, caracterizado pelo fato de que as diferentes porções são fileirasa de blocos da matriz de amostra.
3. Decodificador, de acordo com a reivindicação 1 ou 2, caracterizado pelo fato de que a ordem da fatia de entropia é escolhida de tal modo que, ao longo da ordem da fatia de entropia, as diferentes porções seguem umas às outras em uma direção (16) em ângulo em relação aos caminhos de codificação de entropia (14) do fatias de entropia, que, por sua vez, se estendem substancialmente em paralelo entre si.
4. Decodificador, de acordo com qualquer uma das reivindicações 1 a 3, caracterizado pelo fato de que cada fatia de entropia tem dados de entropia codificados para uma porção correspondente da matriz de amostra, as diferentes porções formando filas de blocos da matriz de amostra com os blocos sendo regularmente dispostos em filas e colunas de modo que as porções correspondentes às fatias de entropia consistam no mesmo número de blocos e os pontos de caminho de codificação de entropia em paralelo ao longo das linhas dos blocos, em que o decodificador é configurado para realizar, para cada fatia de entropia (90), uma inicialização , para uma respectiva fatia de entropia, das estimativas de probabilidade (94) antes de decodificar o primeiro bloco da porção (12) correspondente à respectiva fatia de entropia ao longo do respectivo caminho de codificação de entropia (14) com estimativas de probabilidade que se manifestam após ter a entropia decodificada segundo bloco (50) da porção (12) correspondendo à ordem da fatia de entropia (16) precedendo a fatia de entropia ao longo do respectivo caminho de codificação de entropia.
5. Decodificador, de acordo com a reivindicação 4, caracterizado pelo fato de que o decodificador é configurado para armazenar as estimativas de probabilidade que se manifestam após ter decodificado a entropia do segundo bloco da porção correspondente à ordem da fatia de entropia precedendo a fatia de entropia ao longo do respectivo caminho de codificação de entropia, e usando o estimativas de probabilidade armazenadas para a inicialização antes de decodificar o primeiro bloco da porção correspondente à respectiva fatia de entropia ao longo do respectivo caminho de codificação de entropia.
6. Decodificador, de acordo com qualquer uma das reivindicações 1 a 3, caracterizado pelo fato de que cada fatia de entropia tem dados de entropia codificados para uma porção correspondente da matriz de amostra, as diferentes porções formando linhas de blocos da matriz de amostra com os blocos sendo regularmente dispostos em linhas e colunas de modo que as porções correspondentes às fatias de entropia consistam no mesmo número de blocos e o caminho de codificação de entropia apontando em paralelo ao longo das linhas dos blocos, em que o decodificador é configurado para realizar, para cada fatia de entropia, a decodificação de entropia ao longo do respectivo caminho de codificação de entropia e a adaptação das respectivas estimativas de probabilidade ao longo do respectivo caminho de codificação de entropia de modo que, após a parte atual do a fatia de entropia predeterminada foi decodificada por entropia com base nas respectivas estimativas de probabilidade (94) da fatia de entropia predeterminada, as respectivas estimativas de probabilidade (94) da fatia de entropia predeterminada são adaptadas dependendo da parte atual da fatia de entropia predeterminada e da probabilidade as estimativas se manifestam na decodificação de entropia da parte vizinha da fatia de entropia espacialmente vizinha.
7. Decodificador, de acordo com qualquer uma das reivindicações 6, caracterizado pelo fato de que o decodificador é configurado de modo que a adaptação das respectivas estimativas de probabilidade da fatia de entropia predeterminada, após a parte atual da fatia de entropia predeterminada ter sido decodificada de entropia com base nas respectivas estimativas de probabilidade de a fatia de entropia predeterminada, é realizada por uma primeira adaptação, dependendo da parte atual da fatia de entropia predeterminada e uma média de um resultado da primeira adaptação com as estimativas de probabilidade, conforme usado na decodificação de entropia da parte vizinha da entropia espacialmente vizinha fatia.
8. Decodificador, de acordo com qualquer uma das reivindicações 4 a 7, caracterizado pelo fato de que o decodificador é configurado para orientar a decodificação de entropia de fatias de entropia imediatamente consecutivas na ordem de fatia de entropia de modo que uma distância de blocos atualmente decodificados de porções correspondendo a fatias de entropia imediatamente consecutivas medidas em blocos ao longo dos caminhos de codificação de entropia é impedido de se tornar menor do que dois blocos.
9. Decodificador, de acordo com qualquer uma das reivindicações 4 a 7, caracterizado pelo fato de que o decodificador é configurado para orientar a decodificação de entropia de fatias de entropia imediatamente consecutivas na ordem de fatia de entropia de modo que uma distância de blocos atualmente decodificados de porções correspondendo a fatias de entropia imediatamente consecutivas medidas em blocos ao longo dos caminhos de codificação de entropia permanecem dois blocos.
10. Decodificador, de acordo com qualquer uma das reivindicações 1 a 9, caracterizado pelo fato de que as fatias de entropia são subdivididas em pedaços, e o decodificador compreende um desintercalador para desintercalar os pedaços e é configurado para iniciar a entropia decodificando as fatias de entropia em paralelo ao longo dos caminhos de codificação de entropia antes mesmo da recepção de qualquer uma das fatias de entropia como um todo.
11. Decodificador, de acordo com qualquer uma das reivindicações 1 a 10, caracterizado pelo fato de que a matriz de amostra (10) é uma matriz de amostra atual de uma sequência de matrizes de amostra e o decodificador é configurado para, na decodificação de entropia de uma fatia de entropia predeterminada, decodificar a entropia da parte atual da fatia de entropia predeterminada com base nas respectivas estimativas de probabilidade da fatia de entropia predeterminada conforme adaptada usando a parte previamente decodificada da fatia de entropia predeterminada, estimativas de probabilidade como usadas na decodificação de entropia de um espacialmente vizinho, em ordem de fatia de entropia precedendo a fatia de entropia em uma parte vizinha da fatia de entropia espacialmente vizinha e estimativas de probabilidade usadas na decodificação de um quadro previamente decodificado do fluxo de dados codificado por entropia em relação a outra matriz de amostra diferente da matriz de amostra atual.
12. Decodificador, de acordo com qualquer uma das reivindicações 1 a 11, caracterizado pelo fato de que o fluxo de dados codificados por entropia é um fluxo de dados em camadas temporais.
13. Codificador para codificar uma matriz de amostra (10) em um fluxo de dados codificado por entropia, configurado para Codificar a entropia de uma pluralidade de fatias de entropia no fluxo de dados codificados por entropia, cada fatia de entropia sendo associada a uma porção diferente (12) da matriz de amostra, respectivamente, com realizar, para cada fatia de entropia, a codificação de entropia ao longo de um respectivo caminho de codificação de entropia (14) usando as respectivas estimativas de probabilidade, adaptar as respectivas estimativas de probabilidade ao longo do respectivo caminho de codificação de entropia usando uma parte previamente codificada da respectiva fatia de entropia, iniciar a entropia que codifica a pluralidade de fatias de entropia sequencialmente usando uma ordem de fatia de entropia (16), e realizar, na entropia que codifica uma fatia de entropia predeterminada, a entropia que codifica uma parte atual da fatia de entropia predeterminada com base em as respectivas estimativas de probabilidade da fatia de entropia predeterminada conforme adaptada usando a parte previamente codificada da fatia de entropia predeterminada, e A estimativas de probabilidade utilizadas na codificação de entropia de uma fatia de entropia espacialmente vizinha, em ordem de fatia de entropia precedente, fatia de entropia em uma parte vizinha da fatia de entropia espacialmente vizinha, em que as fatias de entropia são subdivididas em pedaços e o codificador é configurado para verificar se um bloco atual corresponde a uma, ao longo do caminho de codificação de entropia, primeira sub-porção da porção da matriz de amostra associada à fatia de entropia predeterminada, e se assim for, a entropia codifica o bloco atual adaptando as respectivas estimativas de probabilidade e toma um estado das respectivas estimativas de probabilidade como se manifestando no final da entropia que codifica o bloco atual, em consideração quando a entropia codifica outro bloco que corresponde a um, ao longo do caminho de codificação de entropia, segunda sub-porção da porção da amostra ar raio associado com a fatia de entropia predeterminada, e caso contrário, a entropia codifica o pedaço atual usando estimativas de probabilidade que dependem de estimativas de probabilidade que se manifestam no final da entropia que codifica um pedaço que corresponde a uma sub-porção da porção da matriz de amostra associada com a fatia de entropia predeterminada, que precede, ao longo do caminho de codificação de entropia, a sub-porção correspondente ao bloco atual.
14. Codificador, de acordo com a reivindicação 13, caracterizado pelo fato de que o fluxo de dados codificados por entropia é um fluxo de dados em camadas temporais.
15. Método para reconstruir uma matriz de amostra (10) a partir de um fluxo de dados codificados por entropia, compreendendo entropia decodificando uma pluralidade de fatias de entropia dentro do fluxo de dados codificados por entropia, de modo a reconstruir diferentes porções (12) da matriz de amostra associada às fatias de entropia, respectivamente, com realizar, para cada fatia de entropia, a decodificação de entropia ao longo de um respectivo caminho de codificação de entropia (14) usando as respectivas estimativas de probabilidade, adaptar as respectivas estimativas de probabilidade ao longo do respectivo caminho de codificação de entropia usando uma parte previamente decodificada da respectiva fatia de entropia, iniciar a entropia decodificando a pluralidade de fatias de entropia sequencialmente usando uma ordem de fatia de entropia (16), e realizar, na decodificação de entropia uma fatia de entropia predeterminada, decodificação de entropia uma parte atual da fatia de entropia predeterminada com base em as respectivas estimativas de probabilidade da fatia de entropia predeterminada conforme adaptada usando a parte previamente decodificada da fatia de entropia predeterminada, e estimativas de probabilidade usadas na decodificação de entropia de uma fatia de entropia espacialmente vizinha, em ordem de fatia de entropia precedente, fatia de entropia em uma parte vizinha da fatia de entropia espacialmente vizinha, em que as fatias de entropia são subdivididas em pedaços e o método compreende ainda verificar se um bloco atual corresponde a uma, ao longo do caminho de codificação de entropia, primeira sub-porção da porção da matriz de amostra associada à fatia de entropia predeterminada, e em caso afirmativo, a entropia decodificando o bloco atual adaptando as respectivas estimativas de probabilidade e tomando um estado das respectivas estimativas de probabilidade como se manifestando no final da entropia decodificando o bloco atual, em consideração ao decodificar a entropia outro bloco que corresponde a um, ao longo do caminho de codificação de entropia, segunda sub-porção da porção da matriz de amostra associada à fatia de entropia predeterminada, e se não, a entropia decodificando o bloco atual usando estimativas de probabilidade que dependem de estimativas de probabilidade que se manifestam no final da entropia decodificando um bloco que corresponde a uma sub-porção da porção da matriz de amostra associada à fatia de entropia predeterminada, que precede, a matriz de amostra associada, a sub-parte correspondente ao bloco atual.
16. Método, de acordo com a reivindicação 15, caracterizado pelo fato de que o fluxo de dados codificados por entropia é fluxo de dados em camadas temporais.
17. Método para codificar uma matriz de amostra (10) em um fluxo de dados codificados por entropia, compreendendo entropia que codifica uma pluralidade de fatias de entropia no fluxo de dados codificados por entropia, cada fatia de entropia sendo associada a uma porção diferente (12) da matriz de amostra, respectivamente, com realizar, para cada fatia de entropia, a codificação de entropia ao longo de um respectivo caminho de codificação de entropia (14) usando as respectivas estimativas de probabilidade, adaptar as respectivas estimativas de probabilidade ao longo do respectivo caminho de codificação de entropia usando uma parte previamente codificada da respectiva fatia de entropia, iniciar a entropia que codifica a pluralidade de fatias de entropia sequencialmente usando uma ordem de fatia de entropia (16), e realizar, na entropia que codifica uma fatia de entropia predeterminada, a entropia que codifica uma parte atual da fatia de entropia predeterminada com base em as respectivas estimativas de probabilidade da fatia de entropia predeterminada conforme adaptada usando a parte previamente codificada da fatia de entropia predeterminada, e estimativas de probabilidade utilizadas na codificação de entropia de uma fatia de entropia espacialmente vizinha, em ordem de fatia de entropia precedendo a fatia de entropia em uma parte vizinha da fatia de entropia espacialmente vizinha, em que as fatias de entropia são subdivididas em pedaços e o método compreende ainda verificar se um bloco atual corresponde a uma, ao longo do caminho de codificação de entropia, primeira sub-porção da porção da matriz de amostra associada à fatia de entropia predeterminada, e em caso afirmativo, a entropia que codifica o bloco atual adaptando as respectivas estimativas de probabilidade e toma um estado das respectivas estimativas de probabilidade como se manifestando no final da entropia que codifica o bloco atual, em consideração quando a entropia codifica outro bloco que corresponde a um, ao longo do caminho de codificação de entropia, segunda sub-porção da porção da matriz de amostra associada à fatia de entropia predeterminada, e se não, codificar a entropia do pedaço atual usando probabilidade estimativas que dependem de estimativas de probabilidade que se manifestam no final da entropia que codifica um pedaço que corresponde a uma sub-porção da porção da matriz de amostra associada à fatia de entropia predeterminada, que precede, ao longo do caminho de codificação de entropia, a sub-porção correspondente ao bloco atual.
18. Método, de acordo com a reivindicação 17, caracterizado pelo fato de que o fluxo de dados codificados por entropia é um fluxo de dados em camadas temporais.
19. Fluxo de dados codificado por um método caracterizado para ser codificado de acordo com a reivindicação 17.
BR112014001026-9A 2011-07-15 2012-07-16 Codificação de matriz de amostra de baixo atrasdo BR112014001026B1 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201161508477P 2011-07-15 2011-07-15
US61/508,477 2011-07-15
PCT/EP2012/063929 WO2013010997A1 (en) 2011-07-15 2012-07-16 Sample array coding for low-delay

Publications (2)

Publication Number Publication Date
BR112014001026A2 BR112014001026A2 (pt) 2017-02-14
BR112014001026B1 true BR112014001026B1 (pt) 2022-05-03

Family

ID=46548436

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112014001026-9A BR112014001026B1 (pt) 2011-07-15 2012-07-16 Codificação de matriz de amostra de baixo atrasdo

Country Status (32)

Country Link
US (13) US9596469B2 (pt)
EP (3) EP4152749B1 (pt)
JP (6) JP6177775B2 (pt)
KR (9) KR102039049B1 (pt)
CN (5) CN103797793B (pt)
AP (2) AP2016009466A0 (pt)
AU (7) AU2012285851B2 (pt)
BR (1) BR112014001026B1 (pt)
CA (1) CA2841888C (pt)
CL (1) CL2014000116A1 (pt)
CO (1) CO6880051A2 (pt)
DK (2) DK2732625T3 (pt)
ES (2) ES2694848T3 (pt)
FI (2) FI3425805T3 (pt)
HK (4) HK1254387A1 (pt)
HR (1) HRP20230228T1 (pt)
HU (2) HUE039959T2 (pt)
IL (10) IL310690A (pt)
LT (1) LT3425805T (pt)
MA (1) MA35416B1 (pt)
MX (3) MX2014000542A (pt)
MY (2) MY168583A (pt)
PH (5) PH12018500195A1 (pt)
PL (2) PL2732625T3 (pt)
PT (2) PT3425805T (pt)
RS (1) RS64037B1 (pt)
RU (5) RU2643647C1 (pt)
SI (1) SI3425805T1 (pt)
TN (1) TN2014000015A1 (pt)
UA (3) UA124568C2 (pt)
WO (1) WO2013010997A1 (pt)
ZA (1) ZA201401075B (pt)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102957914B (zh) * 2008-05-23 2016-01-06 松下知识产权经营株式会社 图像解码装置、图像解码方法、图像编码装置、以及图像编码方法
FR2972588A1 (fr) 2011-03-07 2012-09-14 France Telecom Procede de codage et decodage d'images, dispositif de codage et decodage et programmes d'ordinateur correspondants
FR2977111A1 (fr) 2011-06-24 2012-12-28 France Telecom Procede de codage et decodage d'images, dispositif de codage et decodage et programmes d'ordinateur correspondants
LT3425805T (lt) 2011-07-15 2023-03-27 Ge Video Compression, Llc Ėminių masyvo mažos delsos kodavimas
WO2013109114A1 (ko) * 2012-01-19 2013-07-25 삼성전자 주식회사 서브영역별로 엔트로피 부호화의 병렬 처리가 가능한 비디오 부호화 방법 및 장치, 서브영역별로 엔트로피 복호화의 병렬 처리가 가능한 비디오 복호화 방법 및 장치
KR101718488B1 (ko) 2012-01-20 2017-03-21 지이 비디오 컴프레션, 엘엘씨 병렬 처리, 전송 디멀티플렉서 및 비디오 비트스트림을 허용하는 코딩 개념
US9805310B2 (en) * 2012-03-04 2017-10-31 Adam Jeffries Utilizing spatial statistical models to reduce data redundancy and entropy
GB2513111A (en) * 2013-04-08 2014-10-22 Sony Corp Data encoding and decoding
US20140362098A1 (en) * 2013-06-10 2014-12-11 Sharp Laboratories Of America, Inc. Display stream compression
US9628792B2 (en) 2013-07-15 2017-04-18 Qualcomm Incorporated Cross-layer parallel processing and offset delay parameters for video coding
EP3084968A4 (en) * 2013-12-16 2017-11-29 McAfee, LLC Process efficient preprocessing for an encryption standard
US10123028B2 (en) * 2014-09-17 2018-11-06 Mediatek Inc. Syntax parsing apparatus with multiple syntax parsing circuits for processing multiple image regions within same frame or processing multiple frames and related syntax parsing method
CN105206302B (zh) * 2015-09-14 2019-05-31 联想(北京)有限公司 一种信息处理方法及电子设备
CN105939479B (zh) * 2016-06-15 2019-06-21 北京奇艺世纪科技有限公司 一种并行编码方法和装置
US10218979B2 (en) * 2016-11-01 2019-02-26 Cisco Technology, Inc. Entropy coding state segmentation and retention
EP3358754A1 (en) * 2017-02-02 2018-08-08 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Antenna array codebook with beamforming coefficients adapted to an arbitrary antenna response of the antenna array
US10554977B2 (en) * 2017-02-10 2020-02-04 Intel Corporation Method and system of high throughput arithmetic entropy coding for video coding
CN110546956B (zh) * 2017-06-30 2021-12-28 华为技术有限公司 一种帧间预测的方法及装置
CN109558888A (zh) * 2017-09-27 2019-04-02 武汉嫦娥信息科技有限公司 一种高光谱遥感图像分类的并行化加速算法
US10664477B2 (en) * 2017-12-21 2020-05-26 Futurewei Technologies, Inc. Cardinality estimation in databases
KR20230119739A (ko) * 2018-03-29 2023-08-16 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 병렬 코딩 기능들 향상을 위한 컨셉
WO2019196956A1 (zh) * 2018-04-13 2019-10-17 浙江大学 一种信息保持编解码方法与装置
EP3588800A1 (en) 2018-06-29 2020-01-01 FRAUNHOFER-GESELLSCHAFT zur Förderung der angewandten Forschung e.V. Antenna array codebook with beamforming coefficients adapted to an arbitrary antenna response of the antenna array
JP6982253B2 (ja) * 2018-10-31 2021-12-17 日本電信電話株式会社 復号装置、符号化装置、復号方法、符号化方法、及びプログラム
US11538221B2 (en) * 2020-05-21 2022-12-27 Samsung Electronics Co., Ltd. Re-reference aware tile walk order for primitive binner
CN117242775A (zh) * 2021-04-26 2023-12-15 华为技术有限公司 并行熵译码
CN117472591B (zh) * 2023-12-27 2024-03-22 北京壁仞科技开发有限公司 用于数据计算的方法、电子设备和存储介质

Family Cites Families (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9108199D0 (en) 1991-04-17 1991-06-05 Rhone Poulenc Agriculture New compositions of matter
RU2093957C1 (ru) * 1994-09-20 1997-10-20 Научно-производственное предприятие "Информационные технологии" Устройство для сжатия данных (варианты)
US6104752A (en) * 1996-10-01 2000-08-15 Victor Company Of Japan, Ltd. Apparatus and method of decoding high efficiency coded picture data with picture size resizing
US6832005B2 (en) 2001-03-23 2004-12-14 Microsoft Corporation Adaptive encoding and decoding of bi-level images
MXPA04006814A (es) * 2002-01-14 2004-12-06 Nokia Corp Filtros dinamicos de codificacion.
US8401084B2 (en) 2002-04-01 2013-03-19 Broadcom Corporation System and method for multi-row decoding of video with dependent rows
JP2003319391A (ja) * 2002-04-26 2003-11-07 Sony Corp 符号化装置および方法、復号装置および方法、記録媒体、並びにプログラム
US20040258162A1 (en) 2003-06-20 2004-12-23 Stephen Gordon Systems and methods for encoding and decoding video data in parallel
US7693339B2 (en) * 2003-12-17 2010-04-06 Andreas Wittenstein Method and apparatus for faster-than-real-time lossless compression and decompression of images
US7450770B2 (en) * 2003-12-19 2008-11-11 National Taiwan University Architecture and method for parallel embedded block coding
US20070014367A1 (en) * 2005-07-13 2007-01-18 Yaxiong Zhou Extensible architecture for multi-standard variable length decoding
US8401082B2 (en) * 2006-03-27 2013-03-19 Qualcomm Incorporated Methods and systems for refinement coefficient coding in video compression
US8306125B2 (en) * 2006-06-21 2012-11-06 Digital Video Systems, Inc. 2-bin parallel decoder for advanced video processing
JP4660433B2 (ja) * 2006-06-29 2011-03-30 株式会社東芝 符号化回路、復号回路、エンコーダ回路、デコーダ回路、cabac処理方法
US8275045B2 (en) * 2006-07-12 2012-09-25 Qualcomm Incorporated Video compression using adaptive variable length codes
US8000388B2 (en) 2006-07-17 2011-08-16 Sony Corporation Parallel processing apparatus for video compression
US7365659B1 (en) 2006-12-06 2008-04-29 Silicon Image Gmbh Method of context adaptive binary arithmetic coding and coding apparatus using the same
JP5150129B2 (ja) 2007-04-20 2013-02-20 株式会社ミマキエンジニアリング プリンター装置
US9648325B2 (en) * 2007-06-30 2017-05-09 Microsoft Technology Licensing, Llc Video decoding implementations for a graphics processing unit
CN101389021B (zh) 2007-09-14 2010-12-22 华为技术有限公司 视频编解码方法及装置
BRPI0818444A2 (pt) 2007-10-12 2016-10-11 Qualcomm Inc codificação adaptativa de informação de cabeçalho de bloco de vídeo
US9008171B2 (en) * 2008-01-08 2015-04-14 Qualcomm Incorporated Two pass quantization for CABAC coders
US8542748B2 (en) * 2008-03-28 2013-09-24 Sharp Laboratories Of America, Inc. Methods and systems for parallel video encoding and decoding
JP4314315B1 (ja) * 2008-03-31 2009-08-12 株式会社東芝 情報処理装置および復号制御方法
FR2931280B1 (fr) 2008-05-19 2011-01-07 Envivio France Procede et dispositif de codage ou decodage d'image avec parallelisatioon du traitement sur plusieurs processeurs et coprocesseurs, programme d'ordinateur et moyen de stockage correspondants.
EP2146343A1 (en) * 2008-07-16 2010-01-20 Deutsche Thomson OHG Method and apparatus for synchronizing highly compressed enhancement layer data
US8275209B2 (en) * 2008-10-10 2012-09-25 Microsoft Corporation Reduced DC gain mismatch and DC leakage in overlap transform processing
US7932843B2 (en) * 2008-10-17 2011-04-26 Texas Instruments Incorporated Parallel CABAC decoding for video decompression
CN101836454B (zh) 2008-12-03 2012-08-22 联发科技股份有限公司 对有序熵切片执行平行cabac码处理的方法及装置
US9467699B2 (en) 2008-12-03 2016-10-11 Hfi Innovation Inc. Method for performing parallel coding with ordered entropy slices, and associated apparatus
WO2011004577A1 (ja) 2009-07-06 2011-01-13 パナソニック株式会社 画像復号装置、画像符号化装置、画像復号方法、画像符号化方法、プログラムおよび集積回路
WO2011042645A1 (fr) * 2009-10-05 2011-04-14 France Telecom Procedes de codage et de décodage d'images, dispositifs de codage et de decodage et programmes d'ordinateur correspondants
JP5389187B2 (ja) 2009-10-29 2014-01-15 パナソニック株式会社 画像符号化方法および画像符号化装置
CN102098503B (zh) * 2009-12-14 2012-11-28 中兴通讯股份有限公司 一种多核处理器并行解码图像的方法和装置
US20110280314A1 (en) * 2010-05-12 2011-11-17 Texas Instruments Incorporated Slice encoding and decoding processors, circuits, devices, systems and processes
CN101888554B (zh) * 2010-07-09 2013-05-22 西安交通大学 并行流水运动补偿滤波器vlsi结构设计方法
US8344917B2 (en) * 2010-09-30 2013-01-01 Sharp Laboratories Of America, Inc. Methods and systems for context initialization in video coding and decoding
US8995523B2 (en) * 2011-06-03 2015-03-31 Qualcomm Incorporated Memory efficient context modeling
CN107529708B (zh) 2011-06-16 2019-05-07 Ge视频压缩有限责任公司 解码器、编码器、解码和编码视频的方法及存储介质
US20130003823A1 (en) * 2011-07-01 2013-01-03 Kiran Misra System for initializing an arithmetic coder
LT3425805T (lt) * 2011-07-15 2023-03-27 Ge Video Compression, Llc Ėminių masyvo mažos delsos kodavimas

Also Published As

Publication number Publication date
IL291443A (en) 2022-05-01
IL258274B (en) 2019-03-31
AU2022202573A1 (en) 2022-05-12
US9729891B2 (en) 2017-08-08
CN107959854A (zh) 2018-04-24
ZA201401075B (en) 2015-02-25
KR102385848B1 (ko) 2022-04-14
PH12018500196A1 (en) 2018-09-24
RU2666628C1 (ru) 2018-09-11
IL282796B (en) 2022-04-01
LT3425805T (lt) 2023-03-27
KR20170047405A (ko) 2017-05-04
EP2732625B1 (en) 2018-09-05
HUE061192T2 (hu) 2023-05-28
JP2023017786A (ja) 2023-02-07
US10924754B2 (en) 2021-02-16
HK1254885A1 (zh) 2019-07-26
MA35416B1 (fr) 2014-09-01
US10659798B2 (en) 2020-05-19
DK2732625T3 (en) 2018-12-17
HRP20230228T1 (hr) 2023-04-14
US20140105293A1 (en) 2014-04-17
CA2841888A1 (en) 2013-01-24
SI3425805T1 (sl) 2023-04-28
US9596469B2 (en) 2017-03-14
PH12018502511A1 (en) 2020-03-16
EP3425805B1 (en) 2022-12-07
EP4152749B1 (en) 2024-04-10
IL299633B1 (en) 2024-03-01
AU2012285851B2 (en) 2015-11-12
MY168583A (en) 2018-11-14
WO2013010997A1 (en) 2013-01-24
HUE039959T2 (hu) 2019-02-28
US20180084267A1 (en) 2018-03-22
JP2016187194A (ja) 2016-10-27
KR101882979B1 (ko) 2018-08-24
RU2019107150A3 (pt) 2021-10-22
AP2014007416A0 (en) 2014-02-28
JP2014525187A (ja) 2014-09-25
EP3425805A1 (en) 2019-01-09
US20170302945A1 (en) 2017-10-19
JP2018152896A (ja) 2018-09-27
AP3992A (en) 2017-01-08
HK1254387A1 (zh) 2019-07-19
US10652564B2 (en) 2020-05-12
CN103797793A (zh) 2014-05-14
US10771800B2 (en) 2020-09-08
KR20160049028A (ko) 2016-05-04
JP2022033819A (ja) 2022-03-02
CA2841888C (en) 2017-01-03
US11949897B2 (en) 2024-04-02
KR20220047686A (ko) 2022-04-18
US20180367810A1 (en) 2018-12-20
TN2014000015A1 (en) 2015-07-01
ES2939239T3 (es) 2023-04-20
PL3425805T3 (pl) 2023-05-08
UA114670C2 (uk) 2017-07-10
PH12018500196B1 (en) 2018-09-24
US9866857B2 (en) 2018-01-09
RS64037B1 (sr) 2023-04-28
DK3425805T3 (da) 2023-03-06
US20200280731A1 (en) 2020-09-03
MX2020003540A (es) 2022-03-25
RU2763532C2 (ru) 2021-12-30
US20200021830A1 (en) 2020-01-16
IL265152B (en) 2019-11-28
IL291443B2 (en) 2023-06-01
AU2020280994B2 (en) 2022-03-03
FI3425805T3 (fi) 2023-03-22
AU2017208363A1 (en) 2017-08-17
CN107995491B (zh) 2021-12-28
PH12018500195B1 (en) 2018-09-24
AU2016200182A1 (en) 2016-02-04
KR102444757B1 (ko) 2022-09-19
UA111362C2 (uk) 2016-04-25
IL276219A (en) 2020-09-30
AU2016200182B2 (en) 2017-05-04
ES2694848T3 (es) 2018-12-27
JP7164692B2 (ja) 2022-11-01
US9860544B2 (en) 2018-01-02
HK1254424A1 (zh) 2019-07-19
BR112014001026A2 (pt) 2017-02-14
JP6985436B2 (ja) 2021-12-22
US20210211701A1 (en) 2021-07-08
CN107959854B (zh) 2021-07-23
IL282796A (en) 2021-06-30
PL2732625T3 (pl) 2019-02-28
US20170302944A1 (en) 2017-10-19
IL310690A (en) 2024-04-01
MX2022003601A (es) 2022-06-17
IL230399A (en) 2017-07-31
RU2019107150A (ru) 2020-09-14
IL299633A (en) 2023-03-01
AU2019275583B2 (en) 2020-09-03
JP6177775B2 (ja) 2017-08-09
IL253274B (en) 2018-04-30
FI4152749T3 (fi) 2024-07-03
AU2023258453A1 (en) 2023-11-23
IL299633B2 (en) 2024-07-01
JP2020092437A (ja) 2020-06-11
US9860547B2 (en) 2018-01-02
KR101730586B1 (ko) 2017-04-26
CN108111854A (zh) 2018-06-01
AU2017208363B2 (en) 2019-09-12
US20170134741A1 (en) 2017-05-11
KR20180086525A (ko) 2018-07-31
CO6880051A2 (es) 2014-02-28
PH12018500198A1 (en) 2018-09-24
EP4152749A1 (en) 2023-03-22
CL2014000116A1 (es) 2014-08-01
EP2732625A1 (en) 2014-05-21
JP6659767B2 (ja) 2020-03-04
KR20200024959A (ko) 2020-03-09
US10085035B2 (en) 2018-09-25
IL253274A0 (en) 2017-08-31
RU2014105554A (ru) 2015-08-27
KR20190124341A (ko) 2019-11-04
AU2012285851A1 (en) 2014-02-06
PH12018500197B1 (en) 2018-09-24
AP2016009466A0 (pt) 2016-09-30
CN107995491A (zh) 2018-05-04
US20200366919A1 (en) 2020-11-19
IL270426B (en) 2020-08-31
KR102039049B1 (ko) 2019-11-15
US11595675B2 (en) 2023-02-28
AU2020280994A1 (en) 2021-01-07
MY191000A (en) 2022-05-27
KR20140042893A (ko) 2014-04-07
AU2022202573B2 (en) 2023-08-10
IL276219B (en) 2021-05-31
PT3425805T (pt) 2023-03-13
US20200236378A1 (en) 2020-07-23
KR20200136515A (ko) 2020-12-07
UA124568C2 (uk) 2021-10-13
CN107948645B (zh) 2021-12-24
PH12018500198B1 (en) 2018-09-24
AU2019275583A1 (en) 2020-01-02
CN107948645A (zh) 2018-04-20
RU2610668C2 (ru) 2017-02-14
IL258274A (en) 2018-05-31
MX2014000542A (es) 2014-07-14
PH12018500195A1 (en) 2018-09-24
HK1255113A1 (zh) 2019-08-02
US20170302943A1 (en) 2017-10-19
CN108111854B (zh) 2021-04-02
PT2732625T (pt) 2018-12-17
KR20220129114A (ko) 2022-09-22
KR101721487B1 (ko) 2017-03-30
KR102085171B1 (ko) 2020-03-06
US20230179786A1 (en) 2023-06-08
KR102187171B1 (ko) 2020-12-04
RU2643647C1 (ru) 2018-02-02
CN103797793B (zh) 2018-01-09
KR101882979B9 (ko) 2021-10-27
US11019352B2 (en) 2021-05-25
PH12018500197A1 (en) 2018-09-24
RU2682922C1 (ru) 2019-03-22
IL265152A (en) 2019-05-30

Similar Documents

Publication Publication Date Title
BR112014001026B1 (pt) Codificação de matriz de amostra de baixo atrasdo
BR122020018904B1 (pt) Codificação de matriz de amostra de baixo atraso

Legal Events

Date Code Title Description
B15K Others concerning applications: alteration of classification

Ipc: H04N 19/44 (2014.01), H03M 7/30 (2006.01), H04N 19

B06F Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette]
B25A Requested transfer of rights approved

Owner name: GE VIDEO COMPRESSION, LLC. (US)

B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 16/07/2012, OBSERVADAS AS CONDICOES LEGAIS.

B25G Requested change of headquarter approved

Owner name: GE VIDEO COMPRESSION, LLC. (US)