PT2279622E - Escalabilidade de intensidade de bits - Google Patents

Escalabilidade de intensidade de bits Download PDF

Info

Publication number
PT2279622E
PT2279622E PT87352878T PT08735287T PT2279622E PT 2279622 E PT2279622 E PT 2279622E PT 87352878 T PT87352878 T PT 87352878T PT 08735287 T PT08735287 T PT 08735287T PT 2279622 E PT2279622 E PT 2279622E
Authority
PT
Portugal
Prior art keywords
image
bit
video
data stream
mapping
Prior art date
Application number
PT87352878T
Other languages
English (en)
Inventor
Thomas Wiegand
Martin Winken
Original Assignee
Fraunhofer Ges Forschung
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Ges Forschung filed Critical Fraunhofer Ges Forschung
Publication of PT2279622E publication Critical patent/PT2279622E/pt

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/36Scalability techniques involving formatting the layers as a function of picture distortion after decoding, e.g. signal-to-noise [SNR] scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop

Description

DESCRIÇÃO
ESCALABILIDADE DE INTENSIDADE DE BITS A presente invenção é destinada à codificação de imagens e/ou de vídeo, e em particular, à codificação da qualidade escalável que permite a escalabilidade da intensidade de bits através da utilização de fluxos de dados de qualidade escalável. A Joint Video Team (JVT) do Grupo de Especialistas em Imagens com Movimento (Moving Pictures Experts Group - MPEG) do ISO/IEC e o Grupo de Especialistas em Codificação de Vídeo (Video Coding Experts Group -VCEG) do ITU-T finalizaram recentemente uma extensão dimensionável do estado da arte do padrão de vídeo H.264/AVC denominado Codificação Escalável de Vídeo (Scalable Video Coding - SVC) . A SVC suporta codificação escalável temporal, espacial e SNR de sequências de vídeo ou qualquer combinação das mesmas. 0 H.264/AVC conforme descrito em ITU-T Rec. & ISO/IEC 14496-10 AVC, "Advanced Video Coding for Generic Audiovisual Services," versão 3, 2005, especifica urn codec de vídeo híbrido no qual os sinais de previsão do macrobloco ou são gerados no domínio temporal, através da previsão da compensação do movimento, ou no domínio espacial através da previsão interna, e ambas as previsões são seguidas por codificação residual. A codificação H.264/AVC sem a extensão de escalabilidade é referida como codificação H.264/AVC de camada única. O desempenho da taxa de distorção comparável à H.264/AVC de camada única significa que é conseguida a mesma qualidade de reprodução visual geralmente a uma taxa de bits de 10%. Dado o acima, a escalabilidade é considerada como uma funcionalidade para a remoção de partes do fluxo de bits enquanto se alcança um desempenho de R-D em qualquer resolução espacial, temporal ou SNR suportada que seja comparável à codificação H.264/AVC de camada única nessa resolução em particular. 0 projeto básico da codificação de video escalável (SVC) pode ser classificado como um codec de video por camadas. Em cada camada, são utilizados os conceitos básicos de previsão da compensação de movimento e previsão interna como em H.264/AVC. No entanto, foram integrados os mecanismos adicionais de previsão entre camadas de forma a explorar a redundância entre várias camadas espaciais ou SNR. A escalabilidade SNR é basicamente conseguida através da quantização residual, enquanto para a escalabilidade espacial é utilizada uma combinação de previsão de compensação de movimento e decomposição de pirâmide saturada. A abordagem de escalabilidade temporal de H.264/AVC é mantida.
Em geral, a estrutura codificadora depende do espaço de escalabilidade que é requerido por um aplicativo. Por questões de ilustração, a Fig. 8 apresenta uma estrutura codificadora típica 900 com duas camadas espaciais 902a, 902b. Em cada camada, é utilizada uma estrutura de previsão de movimento compensado hierárquico independente 904a, b com parâmetros de movimento específicos da camada 906a, b. A redundância entre as camadas 902a, b consecutivas é explorada pelos conceitos de previsão entre camadas 908 incluindo mecanismos de previsão para parâmetros de movimento 906a, b, bem como dados de textura 910a, b. É obtida uma representação de base 912a, b das imagens de entrada 914a, b de cada camada 902a, b através da transformação da codificação 916a, b semelhante à de H.264/AVC, as correspondentes unidades NAL (NAL -Network Abstraction Layer -Camada de Abstração de Rede) contêm informação de movimento e dados de textura; as unidades NAL da representação de base da camada mais baixa, ou seja, 912a, são compatíveis com H.264/AVC de camada única. A resultante saída de fluxo de bits pela codificação da camada de base 916a, b e a progressiva codificação de textura de refinamento SNR 918a, b das respetivas camadas 902a, b, respetivamente, são multiplexadas por um multiplexador 920 de forma a provocar o fluxo de bits escalável 922. Este fluxo de bits 922 é escalável em tempo, espaço e qualidade de SNR.
Resumindo, de acordo com a extensão escalável anterior do Padrão de Codificação de Vídeo H.264/AVC, a escalabilidade temporal é conferida por meio de uma estrutura de previsão hierárquica. Para esta estrutura de previsão hierárquica, pode ser utilizado um dos padrões de H.264/AVC de camada única, sem qualquer alteração. Para escalabilidade espacial e SNR, têm de ser adicionadas ferramentas adicionais para o H.264/MPEG4.AVC de camada única, conforme descrito na extensão de SVC de H.264/AVC. Todos os três tipos de escalabilidade podem ser combinados de forma a gerarem um fluxo de bits que suporta um elevado grau de escalabilidade combinada.
Surgem problemas quando um sinal de fonte de vídeo tem um alcance dinâmico diferente do exigido pelo descodificador ou utilizador, respetivamente. No padrão SVC atual anterior, as ferramentas de escalabilidade são apenas especificadas para o caso de tanto a camada de base como a camada de reforço representarem uma determinada fonte de vídeo com a mesma intensidade de bits das correspondentes matrizes das amostras luma e/ou croma. Desse modo, considerando diferentes descodificadores e utilizadores, respetivamente, que necessitam de diferentes intensidades de bits, teriam de ser conferidos, em separado, vários fluxos de codificação dedicados para cada uma das intensidades de bits. No entanto, no sentido de taxa/distorção, isto significa, respetivamente, uma sobrecarga aumentada e uma eficiência reduzida. Já foram efetuadas propostas no sentido de adicionar uma escalabilidade em termos de intensidade de bits para o padrão de SVC. Por exemplo, Shan Liu e outros, descrevem no documento de entrada para a JVT - nomeadamente para a JVT-X075 - a possibilidade de derivar uma previsão entre camadas a partir de uma representação de intensidade de bits baixa de uma camada de base através da utilização de um mapeamento de tom inverso, de acordo com o qual é calculado um valor de pixel previsto entre camadas ou mapeado de tom inverso p' a partir de um valor de pixel de camada de base pb através de p' = pb · escala + deslocamento com a declaração que a previsão entre camadas seria efetuada em macroblocos ou em bloco de tamanhos menores. Em JVT-Y067 Shan Liu, apresenta resultados para este esquema de previsão entre camadas. Da mesma forma, Andrew Segall e outros, propõem em JVT-X071 uma previsão entre camadas para escalabilidade da intensidade de bits, de acordo com a qual é utilizada uma operação de deslocamento de maior ganho para o mapeamento de tom inverso. Os parâmetros de ganho são indexados e transmitidos no fluxo de bits da camada melhorada ou numa base de bloco a bloco. A sinalização dos fatores de escala e dos fatores de deslocamento é efetuada através de uma combinação de previsão e refinamento. Além disso, é descrito que elevados níveis de sintaxe suportam granularidades mais grosseiras do que a transmissão numa base de bloco a bloco. É também feita referência a Andrew Segall "Scalable Coding of High Dynamic Range Video" em ICIP 2007, 1-1 a 1-4 e o documento JVT, JVT-X067 e JVT-W113, também decorrentes de Andrew Segall.
Embora as propostas acima mencionadas para utilização de um mapeamento de tom inverso, a fim de obter uma previsão a partir de uma camada de base de intensidade de bits inferior, removam alguma da redundância entre a informação de intensidade de bits inferiores e a informação de intensidade de bits superiores, seria favorável alcançar uma eficiência ainda melhor no fornecimento de tal intensidade de bits escalável do fluxo de bits, especialmente no sentido do desempenho da taxa/distorção. É o objeto da presente invenção conferir um esquema de codificação que permita uma forma mais eficiente de conferir uma codificação de uma imagem ou vídeo, sendo apropriado para diferentes intensidades de bits.
Este objeto é alcançado através de um codificador de acordo com a reivindicação 1, um descodificador de acordo com a reivindicação 11, um método de acordo com a reivindicação 22 ou 23, ou um fluxo de dados de qualidade escalável de acordo com a reivindicação 24. A presente invenção é baseada na descoberta de que a eficiência do fluxo de dados da intensidade de bits escalável pode ser aumentada quando é obtida uma previsão entre camadas através do mapeamento de amostras da representação dos dados de fonte da imagem ou do video com uma primeira intensidade de bits da amostra da imagem a partir de um primeiro intervalo dinâmico correspondente à primeira intensidade de bits da amostra da imagem para um segundo intervalo dinâmico mais elevado do que o primeiro intervalo dinâmico e correspondente a uma segunda intensidade de bits da amostra da imagem sendo superior à primeira intensidade de bits da amostra da imagem através da utilização de uma ou de mais funções de mapeamento global, sendo constante dentro dos dados de fonte da imagem ou do vídeo ou variando numa primeira granularidade, e uma função de mapeamento local que modifica localmente uma ou mais funções de mapeamento global e que varia numa segunda granularidade menor do que a primeira granularidade, com a formação do fluxo de dados de qualidade escalável com base na função de mapeamento local de tal modo que a função de mapeamento local é derivável a partir do fluxo de dados de qualidade escalável. Embora a prestação de uma ou mais funções de mapeamento global, além de uma função de mapeamento local que, por sua vez, modifica localmente uma ou mais funções de mapeamento globais, aumente prima facie a quantidade de informação lateral dentro do fluxo de dados escalável, este aumento é mais do que recompensado pelo facto de essa subdivisão numa função de mapeamento global por um lado e numa função de mapeamento local por outro lado permitir que a função de mapeamento local e os seus parâmetros para a sua parametrização possam ser pequenos e serem, desse modo, codificáveis numa forma altamente eficiente. A função de mapeamento global pode ser codificada dentro do fluxo de dados de qualidade escalável e, uma vez que o mesmo é constante dentro dos dados de fonte da imagem ou do vídeo ou varia numa maior granularidade, a sobrecarga ou flexibilidade para definir esta função de mapeamento global pode ser aumentada de modo a que essa função de mapeamento global possa ser precisamente encaixada nas estatísticas médias dos dados de fonte da imagem ou vídeo, diminuindo ainda mais, desse modo, a magnitude da função de mapeamento local.
No que se segue, são descritas formas de realização preferenciais do presente pedido com referência às Figs. Em particular, conforme é mostrado na
Fig. 1 um diagrama de blocos de um codificador de vídeo de acordo com uma forma de realização da presente invenção;
Fig. 2 um diagrama de blocos de um descodificador de vídeo de acordo com uma forma de realização da presente invenção;
Fig. 3 um fluxograma para uma possível implementação de um modo de funcionamento do módulo de previsão 134 da Fig. 1 de acordo com uma forma de realização;
Fig. 4 um esquema de um vídeo e a sua subdivisão em sequências de imagens, imagens, pares de macroblocos, macroblocos e blocos transformados de acordo com uma forma de realização;
Fig. 5 um esquema de uma parte de uma imagem, subdividida em blocos de acordo com a granularidade fina subjacente à função de mapeamento/adaptação local com ilustração simultânea de um esquema de codificação prevista para codificação dos parâmetros de função de mapeamento/adaptação local de acordo com uma forma de realização;
Fig. 6 um fluxograma para ilustrar um processo de mapeamento de tom inverso no codificador de acordo com uma forma de realização;
Fig. 7 um fluxograma de um processo de mapeamento de tom inverso no descodificador correspondente ao da Fig. 6, de acordo com uma forma de realização; e
Fig. 8 um diagrama de blocos de uma estrutura codificadora convencional para codificação de video escalável. A Fig. 1 apresenta um codificador 100 que inclui meios de codificação de base 102, meios de previsão 104, um meio de codificação residual 106 e um meio de combinação 108, bem como uma entrada 110 e uma saida 112. O codificador 100 da Fig. 1 é um codificador de video que recebe um sinal de video de qualidade elevada na entrada 110 e que gera um fluxo de bits de qualidade escalável na saida 112. Os meios de codificação de base 102 codificam os dados na entrada 110 num fluxo de dados de codificação de base que representa o conteúdo deste sinal de video na entrada 110 com uma intensidade de bits da amostra da imagem reduzida e, opcionalmente, uma resolução espacial diminuída em comparação com o sinal de entrada na entrada 110. Os meios de previsão 104 estão adaptados para, com base na saída do fluxo de dados de codificação de base através dos meios de codificação de base 102, conferirem um sinal de previsão com intensidade de bits de amostra de imagem completa ou melhorada e, opcionalmente, resolução espacial completa ou aumentada para o sinal de vídeo na entrada 110. Um subtrator 114 também incluído pelo codificador 100 forma uma previsão residual do sinal de previsão conferido pelos meios 104 relativos para o sinal de entrada de qualidade elevada na entrada 110, em que o sinal residual é codificado através dos meios de codificação residual 10 6 num fluxo de dados de camada de melhoramento da qualidade. Os meios de combinação 108 combinam o fluxo de dados de codificação de base a partir dos meios de codificação de base 102 e a saída do fluxo de dados de camada de melhoramento da qualidade através de meios de codificação residual 106 de modo a formarem um fluxo de dados escalável de qualidade 112 na saída 112. Os meios de escalabilidade de qualidade que o fluxo de dados na saída 112 são compostos por uma parte que é autossuficiente uma vez que permite uma reconstrução do sinal de vídeo 110 com a intensidade de bits reduzida e, opcionalmente, a resolução espacial reduzida, sem qualquer informação adicional e com negligência do restante fluxo de dados 112, por um lado e uma parte adicional que permite, em combinação com a primeira parte, uma reconstrução do sinal de video na entrada 110 na intensidade de bits original e na resolução espacial original sendo mais elevada do que a intensidade de bits e/ou resolução espacial da primeira parte.
Depois de ter descrito muito geralmente a estrutura e a funcionalidade do codificador 100, a sua estrutura interna é descrita com mais detalhe abaixo. Em particular, os meios de codificação de base 102 incluem um módulo de conversão para baixo 116, um subtrator 118, um módulo de transformação 120 e um módulo de quantização 122 ligados em série, pela ordem mencionada, entre a entrada 110 e os meios de combinação 108 e os meios de previsão 104, respetivamente. O módulo de conversão para baixo 116 serve para reduzir a intensidade de bits das amostras de imagens e, opcionalmente, a resolução espacial das imagens do sinal de video na entrada 110. Por outras palavras, o módulo de conversão para baixo 116 converte para baixo, de forma irreversível, o sinal de vídeo de entrada de qualidade elevada na entrada 110 num sinal de vídeo de qualidade de base. Conforme será descrito mais detalhadamente abaixo, esta conversão para baixo pode incluir redução da intensidade de bits das amostras de sinal, ou seja, os valores de pixel, no sinal de vídeo na entrada 110 utilizando qualquer esquema de mapeamento de tom, tal como arredondamento dos valores de amostra, a sub-amostragem dos componentes croma, no caso do sinal de vídeo, é conferida sob a forma de componentes luma e croma, filtragem do sinal de entrada na entrada 110, tais como através de uma conversão de RGB para YCbCr, ou qualquer combinação dos mesmos. Mais detalhes sobre os possíveis mecanismos de previsão são apresentados a seguir. Em particular, é possível que o módulo de conversão para baixo 116 utilize diferentes esquemas de conversão para baixo para cada entrada de imagem do sinal de vídeo ou sequência de imagens na entrada 110 ou utilize o mesmo esquema para todas as imagens. Isto também é discutido com mais detalhes abaixo. 0 subtrator 118, ο módulo de transformação 120 e o módulo de quantização 122 cooperam de modo a codificarem a saída de sinal de qualidade de base através do módulo de conversão para baixo 116 através da utilização de, por exemplo, um esquema de codificação de vídeo não-escalável, tal como H.264/AVC. De acordo com o exemplo da Fig. 1, o subtrator 118, o módulo de transformação 120 e o módulo de quantização 122 cooperam com um filtro de ciclo de previsão opcional 124, um módulo de previsão 126, um módulo de transformação inversa 128 e um adicionador 130 comummente incluído pelos meios de codificação de base 102 e pelos meios de previsão 104 de modo a formarem a parte de redução irrelevante de um codificador híbrido que codifica a saída do sinal de vídeo de qualidade de base através do módulo de conversão para baixo 116 por compensação de movimento com base na previsão e seguida pela compressão da previsão residual. Em particular, o subtrator 118 subtrai a partir de uma imagem ou macrobloco atual do sinal de vídeo de qualidade de base uma imagem prevista ou parte de macrobloco prevista reconstruída a partir de imagens previamente codificadas do sinal de vídeo de qualidade de base, por exemplo, utilização de compensação de movimento. O módulo de transformação 120 aplica uma transformação na previsão residual, tal como uma transformação DCT, FFT ou "wavelet". O sinal residual transformado pode representar uma representação espetral e os seus coeficientes de transformação são quantizados de forma irreversível no módulo de quantização 122. O sinal residual quantizado resultante representa o resíduo da saída de fluxo de dados de codificação de base através dos meios de codificação de base 102.
Além do filtro de ciclo de previsão opcional 124 e do módulo de previsão 126, o módulo de transformação inversa 128 e o adicionador 130, os meios de previsão 104 incluem um filtro opcional para redução dos artefactos de codificação 132 e um módulo de previsão 134. O módulo de transformação inversa 128, o adicionador 130, o filtro de ciclo de previsão opcional 124 e o módulo de previsão 126 cooperam no sentido de reconstruírem o sinal de vídeo com uma intensidade de bits reduzida e, opcionalmente, uma resolução espacial reduzida, conforme definido pelo módulo de conversão para baixo 116. Por outras palavras, esses criam uma baixa intensidade de bits e, opcionalmente, o sinal de video de baixa resolução espacial para o filtro opcional 132 que representa uma representação de qualidade baixa do sinal de fonte na entrada 110 sendo também reconstruivel no lado do descodificador. Em particular, o módulo de transformação inversa 128 e o adicionador 130 estão ligados em série entre o módulo de quantização 122 e o filtro opcional 132, tendo em conta que o filtro de ciclo de previsão opcional 124 e o módulo de previsão 126 estão ligados em série, pela ordem mencionada, entre uma saida do adicionador 130, bem como uma entrada adicional do adicionador 130. A saida do módulo de previsão 126 também está ligada a uma entrada inversora do subtrator 118. O filtro opcional 132 está ligado entre a saida do adicionador 130 e o módulo de previsão 134, que, por sua vez, está ligado entre a saida do filtro opcional 132 e a entrada inversora do subtrator 114. O módulo de transformação inversa 128 transforma inversamente a saida das imagens residuais codificadas de base através dos meio de codificação de base 102 de forma a alcançar uma intensidade de bits baixa e, opcional, imagens residuais de baixa resolução espacial. De acordo com esse facto, o módulo de transformação inversa 128 efetua uma transformação inversa, sendo efetuada uma inversão da transformação e uma quantização pelos módulos, 120 e 122. Alternativamente, pode ser conferido um módulo de desquantização em separado no lado da entrada do módulo de transformação inversa 128. O adicionador 130 adiciona uma previsão para as imagens reconstruídas residuais, com a previsão a ser baseada em imagens anteriormente reconstruídas do sinal de vídeo. Em particular, o adicionador 130 gera um sinal de vídeo reconstruído com uma intensidade de bits reduzida e, opcionalmente, resolução espacial reduzida. Estas imagens reconstruídas são filtradas pelo filtro de ciclo 124 de forma a reduzir os artefactos, por exemplo, e utilizados posteriormente pelo módulo de previsão 12 6 de modo a prever a imagem a ser atualmente reconstruída por meio de, por exemplo, compensação de movimento, a partir das imagens anteriormente reconstruídas. 0 sinal de qualidade de base obtido, desse modo, na saída do adicionador 130 é utilizado pela ligação em série do filtro opcional 132 e do módulo de previsão 134 de forma a obter uma previsão do sinal de entrada de qualidade elevada na entrada 110, sendo a última previsão utilizada no sentido de formar o sinal de melhoramento de qualidade elevada na saída dos meios de codificação residuais 106. Isto é descrito com mais detalhes abaixo.
Em particular, o sinal de qualidade baixa obtido a partir do adicionador 130 é opcionalmente filtrado pelo filtro opcional 132 de forma a reduzir os artefactos de codificação. Os filtros 124 e 132 até podem funcionar da mesma forma e, desse modo, apesar de os filtros 124 e 132 serem mostrados em separado na Fig. 1, podem ambos ser substituídos por apenas um filtro disposto entre a saída do adicionador 130 e a entrada do módulo de previsão 126 e do módulo de previsão 134, respetivamente. Depois disso, o sinal de vídeo de qualidade baixa é utilizado pelo módulo de previsão 134 de modo a formar um sinal de previsão para o sinal de vídeo de qualidade elevada recebido na entrada não inversora do adicionador 114 que está ligado à entrada 110. Este processo para formação da previsão de qualidade elevada pode incluir o mapeamento das amostras de imagens de sinal de qualidade de base descodificadas através da utilização de uma função de mapeamento combinada conforme descrito abaixo com maior detalhe, utilizando o respetivo valor das amostras de sinal de qualidade de base para a indexação de uma tabela de consulta que contém os correspondentes valores para a amostra de qualidade elevada, utilizando o valor da amostra do sinal de qualidade de base para um processo de interpolação de forma a obter o correspondente valor de amostra de qualidade elevada, recolha de amostras dos componentes croma, filtragem do sinal de qualidade de base pela utilização, por exemplo, para conversão de YCbCr para RGB ou qualquer combinação dos mesmos. Outros exemplos são descritos no que se segue.
Por exemplo, o módulo de previsão 134 pode mapear as amostras do sinal de vídeo de qualidade de base do primeiro intervalo dinâmico para um segundo intervalo dinâmico que é mais elevado do que o primeiro intervalo dinâmico e, opcionalmente, pela utilização de um filtro de interpolação espacial, amostras espacialmente interpolares do sinal de vídeo de qualidade de base de modo a aumentar a resolução espacial a fim de corresponder com a resolução espacial do sinal de vídeo na entrada 110. De forma semelhante com a descrição acima do módulo de conversão para baixo 116 é possível recorrer a um processo de previsão diferente para imagens diferentes da sequência de sinal de vídeo de qualidade de base, bem como através da utilização do mesmo processo de previsão para todas as imagens. O subtrator 114 subtrai a previsão de qualidade elevada recebida a partir do módulo de previsão 134 do sinal de vídeo de qualidade elevada recebido a partir da entrada 110 de modo a gerar um sinal da previsão residual de qualidade elevada, ou seja, com a intensidade de bits original e, opcionalmente, da resolução espacial para os meios de codificação residual 106. Nos meios de codificação residuais 106, a diferença entre o sinal de entrada de qualidade elevada original e a previsão derivada a partir do sinal de qualidade de base descodificado é codificada de forma exemplar utilizando um esquema de codificação de compressão como, por exemplo, especificado no H.264/AVC. Para este fim, os meios de codificação residual 106 da Fig. 1 incluem exemplarmente um módulo de transformação 136, um módulo de quantização 138 e um módulo de codificação por entropia 140 ligados em série entre uma saída do subtrator 114 e os meios de combinação 108 pela ordem mencionada. O módulo de transformação 136 transforma o sinal residual ou as imagens do mesmo, respetivamente, num domínio de transformação ou domínio espetral, respetivamente, onde os componentes espetrais são quantizados através do módulo de quantização 138 e com os valores quantizados transformados a serem codificados por entropia através do módulo de codificação por entropia 140. O resultado da codificação por entropia representa a saída do fluxo de dados da camada de melhoramento de qualidade elevada dos meios de codificação residual 106. Se os módulos 136 a 140 implementam uma codificação H.-264-/AVC, que suporta amostras transformadas com um tamanho de 4 x 4 ou 8 x 8 para codificação do conteúdo de luma, o tamanho da transformada para transformar o componente luma do sinal residual do subtrator 114 no módulo de transformação 136 pode ser escolhido arbitrariamente para cada macrobloco e não precisa necessariamente de ser o mesmo utilizado para codificação do sinal de qualidade de base no módulo de transformação 120. Para a codificação dos componentes de croma, o padrão H.264/AVC, não confere qualquer escolha. Para se quantizar os coeficientes de transformação no módulo de quantização 138, pode ser utilizado o mesmo esquema de quantização que no H.264/AVC, o que significa que a etapa-tamanho do quantizador pode ser controlada por um parâmetro de quantização QP, que pode assumir valores de -6* (intensidade de bits do componente de sinal de video de qualidade elevada 8) a 51. O QP utilizado para codificação do macrobloco de representação de qualidade de base no módulo de quantização 122 e o QP utilizado para codificar o macrobloco de melhoramento de qualidade elevada no módulo de quantização 138 não precisam de ser o mesmo.
Os meios de combinação 108 incluem um módulo de codificação por entropia 142 e o Multiplexador 144. O módulo de codificação por entropia 142 está ligado entre uma saída do módulo de quantização 122 e uma primeira entrada do multiplexador 144, em que uma segunda entrada do multiplexador 144 está ligada a uma saída do módulo de codificação por entropia 140. A saída do multiplexador 144 representa a saída 112 do codificador 100. O módulo de codificação por entropia 142 codifica com entropia a saída dos valores quantizados transformados pelo módulo de quantização 122 de modo a formar um fluxo de dados da camada de qualidade de base a partir da saída do fluxo de dados de codificação de base através do módulo de quantização 122. Por isso, conforme mencionado acima, os módulos 118, 120, 122, 124, 126, 128, 130 e 142 podem ser projetados de modo a cooperarem de acordo com o H.264/AVC, e em conjunto representam um codificador híbrido com o codificador por entropia 142 que efetua uma compressão sem perdas da previsão quantizada residual. O multiplexador 144 recebe tanto o fluxo de dados de camada de qualidade de base como o fluxo de dados de camada de qualidade elevada e coloca-os em conjuntos de modo a formar o fluxo de dados de qualidade escalável.
Conforme já foi descrito acima, e conforme mostrado na Fig. 3, a forma na qual o módulo de previsão 134 efetua a previsão a partir do sinal de qualidade de base reconstruído para o domínio de sinal de qualidade elevada pode incluir uma expansão da intensidade de bits da amostra, também denominado por um mapeamento de tom inverso 150 e, opcionalmente, uma operação de amostragem espacial, ou seja, uma operação de filtragem por amostragem 152 no caso de os sinais de qualidade de base e elevada serem de diferente resolução espacial. A ordem na qual o módulo de previsão 134 efetua o mapeamento de tom inverso 150 e a operação de amostragem espacial opcional 152 pode ser fixa e, de acordo com isso, conhecida ex ante por ambos os lados do codificador e do descodificador, ou pode ser escolhida de modo adaptativo numa base de bloco a bloco ou imagem a imagem ou qualquer outra granularidade, em cujo caso o módulo de previsão 134 sinaliza informação pela ordem entre as etapas 150 e 152 utilizadas, para alguma entidade, como o codificador 106, de modo a ser introduzida como informação lateral no fluxo de bits 112 a fim de ser sinalizada para o lado do descodif icador como parte da informação lateral. A adaptação da ordem entre as etapas 150 e 152 é ilustrada na Fig. 3 através da utilização de uma seta tracejada de duas pontas 154 e a granularidade na qual a ordem pode ser adaptativamente escolhida também pode ser sinalizada e pode mesmo ser variada dentro do vídeo.
Na realização do mapeamento do tom inverso 150, o módulo de previsão 134 utiliza duas partes, nomeadamente uma ou mais funções de mapeamento de tom inverso global e uma adaptação local das mesmas. Geralmente, uma ou mais funções de mapeamento de tom inverso global são dedicadas para a contabilidade das caracteristicas gerais, médias da sequência de imagens do video e, consequentemente, do Tom de mapeamento que inicialmente foi aplicado para o sinal de video de entrada de qualidade elevada de modo a obter o sinal de video de qualidade de base no módulo de conversão para baixo 116. Depois de comparar os mesmos, a adaptação local deverá representar os desvios individuais do modelo de mapeamento de tom inverso global para os blocos individuais das imagens do video.
De forma a ilustrar isto, a Fig. 4 mostra uma parte de um video 160 consistido exemplarmente por quatro imagens consecutivas 162a a 162d do video 160. Por outras palavras, o video 160 compreende uma sequência de imagens 162 entre as quais são exemplarmente mostradas quatro na Fig. 4. O video 160 pode ser dividido em sequências de não sobreposição de imagens consecutivas para as quais são transmitidos os parâmetros globais ou os elementos de sintaxe dentro do fluxo de dados 112. Apenas para fins ilustrativos, presume-se que as quatro imagens consecutivas 162a a 162d mostradas na Fig. 4 deverão formar essa sequência 164 de imagens. Cada imagem, por seu lado, é subdividida numa variedade de macroblocos 166, conforme ilustrado no canto inferior esquerdo da imagem 162d. Um macrobloco é um recipiente no qual os coeficientes de transformação juntamente com outros elementos de sintaxe de controlo pertencentes ao tipo de codificação do macrobloco são transmitidos dentro do fluxo de bits 112. Um par 168 de macroblocos 166 abrange uma parte continua da respetiva imagem 162d. Dependendo do modo do par de macroblocos do respetivo par de macroblocos 168, o macrobloco superior 162 deste par 168 abrange tanto as amostras da metade superior do par de macroblocos 168 como as amostras de todas as linhas impares dentro do par de macroblocos 168, com o macrobloco do fundo em relação a outros exemplos nesse, respetivamente. Cada macrobloco 160, por sua vez, pode ser subdividido em blocos de transformação conforme ilustrado em 170, com estes blocos de transformação a formarem a base do bloco no qual o módulo de transformação 120 efetua a transformação e o módulo de transformação inversa 128 efetua a transformação inversa.
Fazendo novamente referência à função de mapeamento de tom inverso global apenas mencionada, o módulo de previsão 134 pode ser configurado de modo a utilizar um ou mais dessas funções de mapeamento de tom inverso global constantemente para a totalidade do video 160 ou, alternativamente, para uma subparte do mesmo, tal como a sequência 164 de imagens consecutivas ou uma própria imagem 162. As últimas opções implicariam que o módulo de previsão 134 variasse a função de mapeamento de tom inverso global a uma granularidade correspondente a um tamanho de sequência de imagens ou um tamanho de imagem. A seguir são conferidos exemplos de funções de mapeamento de tom inverso global. Se o módulo de previsão 134 adapta a função de mapeamento de tom inverso global para as estatísticas do vídeo 160, o módulo de previsão 134 envia informação para o módulo de codificação por entropia 140 ou para o multiplexador 144 de forma a que o fluxo de bits 112 contenha informação sobre a(s) função(ões) de mapeamento de tom inverso global e a sua variação dentro do vídeo 160. No caso de uma ou mais das funções de mapeamento de tom inverso global utilizadas pelo módulo de previsão 134 ser constantemente aplicada à totalidade do vídeo 160, o mesmo pode ser conhecido ex ante pelo descodificador ou transmitido como informação lateral dentro do fluxo de bits 112.
Numa granularidade ainda menor, uma função de mapeamento de tom inverso local utilizada pelo módulo de previsão 134 varia dentro do vídeo 160. Por exemplo, tal função de mapeamento de tom inverso local varia numa menor granularidade que um tamanho de imagem, tal como, por exemplo, o tamanho de um macrobloco, um par de macrobloco ou um tamanho de bloco de transformação.
Para ambas as funções de mapeamento de tom inverso global e para a função de mapeamento de tom inverso local, a granularidade na qual variam as respetivas funções ou na qual as funções são definidas no fluxo de bits 112 pode ser variada dentro do vídeo 160. A variância da qranularidade, por sua vez, pode ser sinalizada dentro do fluxo de bits 112.
Durante o mapeamento de tom inverso 150, o módulo de previsão 134 mapeia uma amostra predeterminada do vídeo 160 a partir da intensidade de bits de qualidade de base para a intensidade de bits de qualidade elevada através da utilização de uma combinação de uma função de mapeamento de tom inverso qlobal através da aplicação às respetivas imagens e a função de mapeamento de tom inverso local conforme definido no respetivo bloco ao qual pertence a amostra predeterminada.
Por exemplo, a combinação pode ser uma combinação aritmética e, em particular, uma adição. O módulo de previsão pode ser configurado de modo a se obter um valor previsto da amostra de intensidade de bits elevada seievada a partir do correspondente valor reconstruído da amostra de intensidade de bits baixa sbaixa através da utilização de seievada = fk(sbaixa) + m · sbaixa + n.
Nesta fórmula, a função fk representa um operador de mapeamento de tom inverso global em que o índice k seleciona qual o operador de mapeamento de tom inverso global é que será escolhido no caso de ser utilizado mais do que um único regime ou mais do que uma função de mapeamento de tom inverso global. A restante parte desta fórmula constitui a adaptação local ou a função de mapeamento de tom inverso local com n a ser um valor de deslocamento e m a ser um fator de escala. Os valores de k, m e n podem ser especificados numa base de bloco a bloco dentro do fluxo de bits 112. Por outras palavras, o fluxo de bits 112 permitiria a revelação dos grupos de três (k, m, n) para todos os blocos do vídeo 160 com um tamanho de bloco desses blocos dependendo da granularidade da adaptação local da função de mapeamento de tom inverso global com esta granularidade, por sua vez, variando possivelmente dentro do vídeo 160.
Os mecanismos de mapeamento seguintes podem ser utilizados para o processo de previsão no que diz respeito à função f (x) de mapeamento global de tom inverso. Por exemplo, pode ser utilizado o mapeamento linear de comparação de peças onde pode ser especificado um número arbitrário de pontos de interpolação. Por exemplo, para uma amostra de qualidade de base com valor x e dois determinados pontos de interpolação (xn, yn) e (xn+i, yn+i) é obtida a correspondente amostra de previsão y através do módulo 134 de acordo com a seguinte fórmula
Esta interpolação linear pode ser efetuada com pouca complexidade computacional utilizando apenas a deriva dos bitos em vez das operações de divisão se xn+i -xn for restrito a ser uma potência de dois.
Um mecanismo de mapeamento global adicional representa um mapeamento de tabela de consulta em que, por meio de valores de amostra de qualidade de base, é efetuada uma consulta de tabela numa tabela de consulta em que para cada valor de amostra de qualidade de base possível no que diz respeito à função de mapeamento de tom inverso global for especificado o valor de amostra de previsão global (x) correspondente. A tabela de consulta pode ser conferida para o lado do descodificador, como informação lateral ou pode ser conhecida do lado de descodificador por defeito.
Além disso, pode ser utilizada escalabilidade com um deslocamento constante para o mapeamento global. De acordo com esta alternativa, a fim de obter a correspondente amostra de previsão global de qualidade elevada (x) com maior intensidade de bits, o módulo 134 multiplica as amostras de qualidade de base x por um fator constante 2M_N_K, e posteriormente é adicionada uma constante de deslocamento 2M_1-2M“1_K, de acordo com, por exemplo, uma das seguintes fórmulas: ou
respetivamente, onde M é a intensidade de bits do sinal de qualidade elevada e N é a intensidade de bits do sinal de qualidade de base.
Por esta medida, o intervalo dinâmico de qualidade baixa [0;2N-1] é mapeado para o sequndo intervalo dinâmico [ 0;2M—1] de uma forma de acordo com a qual os valores mapeados de x são distribuídos de forma centralizada em relação ao possível intervalo dinâmico [ 0;2m—1] da qualidade superior dentro de uma extensão que é determinado por K. 0 valor de K pode ser um valor inteiro ou um valor real, e pode ser transmitido como informação lateral para o descodificador dentro, por exemplo, o fluxo de dados de qualidade escalável de modo que no descodificador alguns meios de prevenção possam agir da mesma forma que o módulo de previsão 134 conforme será descrito a seguir. Uma operação de arredondamento pode ser utilizada de modo a se obterem valores de f(x) com valores inteiro.
Outra possibilidade para a escalabilidade global é a escalabilidade com deslocamento variável: as amostras de qualidade de base x são multiplicadas por um fator constante, e depois é adicionado um deslocamento variável, de acordo com, por exemplo, uma das seguintes fórmulas: ou
Através desta medida, o intervalo dinâmico de qualidade baixa é globalmente mapeado para o segundo intervalo dinâmico de uma forma de acordo com a qual os valores mapeados de x são distribuídos dentro de uma parte do possível intervalo dinâmico das amostras de qualidade elevada, a extensão das quais é determinada por K, e o deslocamento das quais em relação ao limite inferior é determinado por D. D pode ser um número inteiro ou real. 0 resultado f(x) representa um valor da amostra da imaqem qlobalmente mapeado do sinal de previsão de intensidade de bits elevada. Os valores de K e D poderiam ser transmitidos como informação lateral para o descodificador dentro, por exemplo, do fluxo de dados escalável de qualidade. Uma vez mais, pode ser utilizada uma operação de arredondamento no sentido de se obterem valores de f (x) inteiros, sendo este último também verdadeiro para os outros exemplos constantes do presente pedido para os mapeamentos de intensidade de bits qlobais sem ser indicado repetidamente explicitamente.
Uma outa possibilidade para o mapeamento global é a escalabilidade com superposição: as amostras de previsão de intensidade de bit elevada f (x) mapeadas globalmente são obtidas a partir da respetiva amostra de qualidade de base x de acordo com, por exemplo, uma das seguintes fórmulas, onde o fundo (a) arredonda para baixo até ao inteiro mais próximo: ou
As possibilidades apenas mencionadas podem ser combinadas. Por exemplo, pode ser utilizada a escalabilidade global com deslocamento de superposição e constante: as amostras de previsão de intensidade de bit elevada f(x) mapeadas globalmente são obtidas de acordo com, por exemplo, uma das seguintes fórmulas, onde o fundo (a) arredonda para baixo até ao inteiro mais próximo:
0 valor de K pode ser especificado como informação lateral para o descodificador.
Da mesma forma, pode ser utilizada a escalabilidade global com deslocamento de superposição e variável: as amostras de previsão de intensidade de bit elevada (x) mapeadas globalmente são obtidas de acordo com a seguinte fórmula, onde o fundo (a) arredonda para baixo até ao inteiro mais próximo:
Os valores de D e K podem ser especificados como informação lateral para o descodificador.
Transferindo os exemplos apenas mencionados para a função de mapeamento de tom inverso global para a Fig. 4, os parâmetros aí citados para definir a função de mapeamento de tom inverso global, nomeadamente (xi, yi), K e D, podem ser conhecidos para o descodificador, podem ser transmitidos dentro do fluxo de bits 112 em relação à totalidade do vídeo 160, no caso da função de mapeamento de tom inverso global ser constante dentro do vídeo 160 ou esses parâmetros serem transmitidos dentro do fluxo de bits para diferentes partes dos mesmos, tais como, por exemplo, para sequências de imagens 164 ou imagens 162 dependendo da granularidade grosseira subjacente à função de mapeamento global. Caso o módulo de previsão 134 utilize mais do que uma função de mapeamento de tom inverso global, os parâmetros acima mencionados (xi, yi), K e D podem ser pensado como sendo conferidos com um índice k com esses parâmetros (xi, yi), Kk e Dk definindo a função fk do kesimo mapeamento de tom inverso global.
Desse modo, seria possível especificar a utilização de mecanismos de mapeamento de tom inverso global diferentes para cada bloco de cada imagem através da sinalização um valor k correspondente dentro do fluxo de bits 112, bem como, alternativamente, através da utilização do mesmo mecanismo para a sequência completa do vídeo 160.
Além disso, é possível especificar diferentes mecanismos de mapeamento global para as componentes luma e croma do sinal de qualidade de base para ter em conta que as estatísticas, tais como a sua função de densidade de probabilidade, podem ser diferentes.
Conforme já indicado acima, o módulo de previsão 134 utiliza uma combinação da função de mapeamento de tom inverso global e uma função de mapeamento de tom inverso local de modo a adaptar localmente aquele que é global. Por outras palavras, uma adaptação local é efetuada em cada amostra de previsão de intensidade de bits elevada f(x) globalmente mapeada obtida desse modo. A adaptação local da função de mapeamento de tom inverso global é efetuada através da utilização de uma função de mapeamento de tom inverso local que é adaptada localmente através, por exemplo, da adaptação localmente de alguns parâmetros da mesma. No exemplo dado acima, estes parâmetros são o fator de escalabilidade m e o valor de deslocamento n. Os fatores de escalabilidade m e o valor de deslocamento n podem ser especificados numa base de bloco a bloco onde um bloco pode corresponder a um tamanho de bloco de transformação que é, por exemplo, no caso de amostras de H.264/AVC 4x4 ou 8x8, ou um tamanho de macrobloco que é, no caso de H.264/AVC, por exemplo, amostras de 16 x 16. Qual o significado de "bloco" que é realmente utilizado tanto pode ser fixo e, por conseguinte, conhecido ex ante tanto pelo codificador como pelo descodificador ou pode ser adaptativamente escolhido através de imagens ou por sequência através do módulo de previsão 134, caso em que tem que ser sinalizado para o descodif icador, como parte da informação lateral dentro do fluxo de bits 112. No caso do H.264/AVC, para este fim poderia ser utilizado o conjunto de parâmetros de sequência e/ou o conjunto de parâmetros. Além disso, pode ser especificado na informação lateral que o fator de escalabilidade m ou o valor de deslocamento n ou ambos os valores são definidos como sendo iguais a zero para uma sequência de video completa ou para um conjunto bem definido de imagens dentro da sequência de video 160. No caso de tanto o fator de escalabilidade m ou o valor de deslocamento n ou ambos serem especificados numa base de bloco a bloco para uma determinada imagem, de modo a reduzir a taxa de bits necessária para a codificação destes valores, apenas os valores de diferença Am, An correspondentes aos valores previstos mpred, npred podem ser codificados de tal forma que os valores reais de m, n são obtidos conforme se segue: m=npred + Am, n=npred + An.
Por outras palavras e conforme ilustrado na Fig. 5, que mostra uma parte de uma imagem 162 dividida em blocos 17 0 que formam a base da granularidade da adaptação local da função de mapeamento de tom inversa global, o módulo de previsão 134, o módulo de codificação por entropia 140 e o multiplexador 144 são configurados de tal modo que os parâmetros para adaptar localmente a função de mapeamento de tom inverso global, nomeadamente o fator de escala m e o valor de deslocamento n conforme utilizados para os blocos individuais 170 não são codificados diretamente para o fluxo de bits 112, mas meramente como uma previsão residual para uma previsão obtida a partir de fatores de escalabilidade e valores de deslocamento dos blocos vizinhos 170. Desse modo, {Am, An, k} são transmitidos para cada bloco 170 no caso de estar a ser utilizada mais do que uma função de mapeamento global conforme é mostrado na Fig. 5.
Assumindo, por exemplo, que o módulo de previsão 134 utiliza parâmetros mifj e nifj para o mapeamento de tom inverso das amostras de um determinado bloco i, j, nomeadamente o do meio da Fig. 5. De seguida, o módulo de previsão 134 é configurado de forma a calcular os valores de previsão mifjfpred e nifjfPred a partir dos fatores de escalabilidade e os valores de deslocamento dos blocos vizinhos 170, tais como, por exemplo, mifj_i e nifj_i. Neste caso, o módulo de previsão 134 faria com que a diferença entre os parâmetros reais mifj e nifj e os valores previstos mifj-nifj,preci e nif j-nif j ,preci fosse inserido no fluxo de bits 112. Estas diferenças são visíveis na Fig. 5 como Am^j e An^j com os indicies i, j a indicarem o jesimo bloco a partir do topo e o iesimo bloco a partir do lado esquerdo da imagem de 162, por exemplo. Alternativamente, a previsão do fator de escalabilidade m e do valor de deslocamento n pode ser derivada a partir dos blocos já transmitidos em vez dos blocos vizinhos da mesma imagem. Por exemplo, os valores de previsão podem ser derivados a partir do bloco 170 da figura anterior que se encontra na mesma ou numa localização espacial correspondente. Em particular, o valor previsto pode ser: • um valor fixo, que tanto é transmitido na informação lateral como já é conhecido tanto pelo codificador como pelo descodificador, • o valor da variável correspondente e o bloco anterior, • o valor mediano das variáveis correspondentes nos blocos vizinhos, • o valor médio das variáveis correspondentes nos blocos vizinhos, • um valor linear interpolado ou extrapolado derivado a partir dos valores das correspondentes variáveis nos blocos vizinhos.
Cada um desses mecanismos de previsão é, de facto, utilizado para um bloco particular que pode ser conhecido tanto pelo codificador como pelo descodificador ou pode depender de valores de m, n nos próprios blocos vizinhos, se houver algum.
Dentro da saída de sinal melhorado de qualidade elevada codificado através do módulo de codificação por entropia 140, a seguinte informação poderiam ser transmitidas para cada macrobloco no caso dos módulos, 136, 138 e 140 implementarem uma codificação conforme H.264/AVC. A informação de padrão de bloco codificado (CBP) poderia ser incluída de modo a indicar quais dos quatro 8x8 blocos de transformação luma dentro do macrobloco e quais dos associados blocos de transformação croma do macrobloco podem conter coeficientes de transformação diferentes de zero. Se não houver nenhum coeficiente de transformação diferente de zero, não é transmitida informação adicional para o macrobloco particular. Informação adicional poderia estar relacionada com o tamanho de transformação utilizado para a codificação do componente de luma, ou seja, o tamanho dos blocos de transformação nos quais o macrobloco consistindo por 16 x 16 amostras luma é transformado no módulo de transformação 136, isto é, em 4 x 4 ou 8 x 8 blocos de transformação. Além disso, o fluxo de dados da camada de melhoramento de qualidade elevada poderia incluir o parâmetro de quantização QP utilizado no módulo de quantização 138 de modo a controlar o tamanho da etapa-quantizador. Além disso, os coeficientes de transformação quantizados, isto é, os níveis do coeficiente de transformação, poderiam ser incluídos para cada macrobloco na saída de fluxo de dados da camada de melhoramento de qualidade elevada através do módulo de codificação por entropia 140.
Além da informação acima, a sequinte informação deve estar contida dentro do fluxo de dados 112. Por exemplo, no caso de ser utilizado mais do que um único esquema de mapeamento de tom inverso qlobal para a imaqem atual, o correspondente índice valor k também tem de ser transmitido para cada bloco do sinal de melhoramento de elevada qualidade. No que respeita à adaptação local, as variáveis Am e An podem ser sinalizadas para cada bloco daquelas imaqens onde a transmissão dos valores correspondentes é indicada na informação lateral através, por exemplo, do parâmetro de sequência definido e/ou do parâmetro de imaqem definido em H.264/AVC. Para todas as três novas variáveis k, Am e An, têm de ser introduzidos novos elementos de sintaxe com um correspondente esquema de binarização. Pode ser utilizada Uma simples binarização unária no sentido de preparar as três variáveis para o esquema de codificação aritmética binária utilizada em H.264/AVC. Uma vez que todas as três variáveis têm tipicamente pequenas maqnitudes, o esquema de binarização unária simples é muito bem adaptado. Uma vez que Δη e Δη são os valores inteiros subscritos, esses poderiam ser convertidos em valores não subscritos conforme descrito na Tabela a seguir:
Desse modo, resumindo algumas das formas de realização acima, os meios de previsão 134 podem executar as seguintes etapas durante o seu modo de funcionamento. Em particular, conforme mostrado na Fig. 6, os meios de previsão 134 definem, na etapa 180, uma ou mais funções de mapeamento global f (x) ou, no caso mais do que uma função de mapeamento global, fk(x) com k a representar o correspondente valor índice que aponta para a função de mapeamento global respetiva. Conforme descrito acima, uma ou mais funções de mapeamento global podem ser determinadas ou definidas de modo a serem constante ao longo da totalidade do vídeo 160 ou podem ser definidas ou determinadas numa granularidade grossa como, por exemplo, uma granularidade do tamanho de uma imagem 162 ou uma sequência de imagens 164. Uma ou mais funções de mapeamento global podem ser definidas conforme descrito acima. Em geral, as funções de mapeamento global podem ser uma função não-trivial, isto é, desigual para f (x) = constante, e podem especialmente ser uma função não- linear. Em qualquer caso, ao utilizar qualquer um dos exemplos acima para uma função de mapeamento global, a etapa 180 resulta num correspondente parâmetro de função mapeamento global, tal como K, D ou (xn,Yn) com n e (1,... N) a ser definido para cada secção em que o vídeo é subdividido de acordo com a granularidade grossa.
Além disso, o módulo de previsão 134 define uma função de mapeamento/adaptação local, tal como aquela indicada acima, ou seja uma função linear de acordo com m · x + n. No entanto, outra função de mapeamento/adaptação local também é viável como uma função constante a ser meramente parametrizada através da utilização de um valor de deslocamento. A configuração 182 é efetuada numa granularidade mais fina como, por exemplo, a granularidade de um tamanho menor do que uma imagem como um macrobloco, bloco transformado ou par de macrobloco ou até mesmo uma fatia dentro de uma imagem na qual uma fatia é um subconjunto de macroblocos ou pares de macrobloco de uma imagem. Desse modo, a etapa 182 resulta, no caso da forma de realização acima para uma função de mapeamento/adaptação local, num par de valores Am e An que é definido ou determinado para cada um dos blocos nos quais as imagens 162 do vídeo são subdivididas de acordo com a granularidade mais fina.
Opcionalmente, nomeadamente no caso de ser utilizada mais do que uma função de mapeamento global na etapa 180, os meios de previsão 134 define, na etapa 184, o índice k para cada bloco da granularidade fina conforme utilizado na etapa 182.
Embora seja possível para o módulo de previsão 134 definir uma ou mais funções de mapeamento global na etapa 180 dependendo unicamente da função de mapeamento utilizada pelo módulo de conversão para baixo 116 de forma a reduzir a intensidade de bits da amostra das amostras de imagem originais, tais como, por exemplo, através da utilização da o função de mapeamento inversa nos mesmos como uma função de mapeamento global na etapa 180, deve ser verificado que também é possível que os meios de previsão 134 efetuem todas as configurações dentro das etapas, 180, 182 e 184 de tal modo que um determinado critério de otimização, tal como a relação de taxa/distorção do fluxo de bits 112 resultante é extremado tal como maximizado ou minimizado. Por esta medida, tanto as funções de mapeamento global e a adaptação local das mesmas, nomeadamente a função de mapeamento/adaptação local estão adaptadas para as estatísticas de tom de valor de amostra do vídeo com determinação do melhor compromisso entre a sobrecarga de codificação da informação lateral necessária para o mapeamento global por um lado e conseguir o melhor ajuste da função de mapeamento global para as estatísticas de tom, necessitando apenas de uma pequena função de mapeamento/adaptação local, por outro lado.
Ao efetuar o presente mapeamento de tom inverso na etapa 186, o módulo de previsão 134 utiliza, para cada amostra do sinal de qualidade baixa reconstruído, uma combinação de uma função de mapeamento global no caso de haver apenas uma função de mapeamento global ou uma das funções de mapeamento global caso haja mais do que uma por um lado, e a função de mapeamento/adaptação local por outro lado, em ambos os casos conforme definido no bloco ou na seção à qual pertence a presente amostra. No exemplo acima, a combinação tem sido uma adição. No entanto, também seria possível qualquer combinação aritmética. Por exemplo, a combinação poderia ser um aplicativo em série de ambas as funções.
Além disso, a fim de informar o lado do descodificador sobre a função de mapeamento combinada utilizada para o mapeamento de tom inverso, módulo de previsão 134 faz com que seja conferida pelo menos informação sobre a função de mapeamento/adaptação local para o lado do descodif icador através do fluxo de bits 112. Por exemplo, o módulo de previsão 134 faz com que, na etapa 188, os valores de m e n devam ser codificados para o fluxo de bits 112 para cada bloco de granularidade fina. Conforme descrito acima, a codificação na etapa 188 pode ser uma codificação prevista de acordo com a qual os resíduos de previsão de m e n são codificados para o fluxo de bits em vez dos próprios valores reais, com derivação da previsão dos valores a ser derivada a partir dos valores de m e n nos blocos vizinhos 170 ou a partir de um bloco correspondente numa imagem anterior. Por outras palavras, pode ser utilizada uma previsão local ou temporal juntamente com codificação residual no sentido de codificar os parâmetros men.
Da mesma forma, para o caso de ser utilizada mais do que uma função de mapeamento global na etapa 180, o módulo de previsão 134 pode fazer com que o índice k seja codificado para o fluxo de bits para cada bloco na etapa 190. Além disso, o módulo de previsão 134 pode fazer com que a informação em f (x) ou fk(x) seja codificada para o fluxo de bits, no caso da mesma informação não ser conhecida a priori pelo descodificador. Isto é feito na etapa 192. Além disso, o módulo de previsão 134 pode fazer com que a informação sobre a granularidade e a mudança da granularidade dentro do vídeo para a função de mapeamento/adaptação local e/ou as funções de mapeamento global sejam codificadas para o fluxo de bits na etapa 194.
Deve-se verificar que as etapas 180 a 194 não necessitam de ser todas executadas na ordem mencionada. Mesmo um desempenho sequencial estrito dessas etapas não é necessário. Em vez disso, as etapas 180 a 194 são mostradas numa ordem sequencial meramente para efeitos de ilustração e estas etapas de preferência serão efetuadas de forma sobreposta.
Embora não seja explicitamente declarado na descrição acima, é de notar que a informação lateral gerada nas etapas 190 a 194 pode ser introduzida no sinal de camada de melhoramento de qualidade elevada, ou a parte de qualidade elevada do fluxo de bits 112, em vez da parcela de qualidade de base decorrente do módulo de codificação por entropia 142.
Depois de ter descrito uma forma de realização de um codificador, em relação à Fig. 2, é descrita uma forma de realização de um descodificador. O descodificador da Fig. 2 é indicado pelo sinal de referência 200 e inclui meios de multiplexação 202, meios de descodificação de base 204, meios de previsão 206, meios de descodificação residual 208 e meios de reconstrução 210, bem como uma entrada 212, uma primeira saída 214 e uma segunda saída 216. 0 descodificador 200 recebe, na sua entrada 212, o fluxo de dados de qualidade escalável que foi, por exemplo, gerado pelo codificador 100 da Fig. 1. Conforme descrito acima, a escalabilidade de qualidade pode estar relacionada com a intensidade de bits e, opcionalmente, com a redução espacial. Por outras palavras, o fluxo de dados na entrada 212 pode ter uma parte auto-contida que pode ser utilizada isoladamente de modo a reconstruir o sinal de vídeo com uma intensidade de bits reduzida e, opcionalmente, resolução espacial reduzida, bem como uma parte adicional que, em combinação com a primeira parte, permite reconstruir o sinal de vídeo com uma intensidade de bits maior e, opcionalmente, maior resolução espacial. O sinal de vídeo de reconstrução de qualidade inferior é gerado na saída 216, enquanto o sinal de vídeo de reconstrução de qualidade superior é gerado na saída 214 .
Os meios de desmultiplexação 202 dividem o fluxo de dados de qualidade escalonável que chegam à entrada 212 no fluxo de dados de codificação de base e o fluxo de dados de camada de melhoramento de qualidade elevada, tendo ambos sido mencionados em relação à Fig. 1. Os meios de descodificação de base 204 servem para a descodificação do fluxo de dados de codificação de base para a representação da qualidade de base do sinal de vídeo, que é gerado diretamente, como é o caso no exemplo da Fig. 2, ou indiretamente através de um filtro de redução de artefacto (não mostrado), opcionalmente, na saída 216. Com base no sinal de vídeo de representação de qualidade de base, os meios de previsão 206 formam um sinal de previsão que tem a intensidade de bits da amostra da imagem aumentada e/ou a resolução de amostragem do croma aumentada. Os meios de descodificação 208 descodificam o fluxo de dados de camada de melhoramento de modo a obter a previsão residual, tendo a intensidade de bits e, opcionalmente, a resolução espacial aumentada. Os meios de reconstrução 210 obtêm o sinal de vídeo de qualidade elevada a partir da previsão e da previsão residual e geram o mesmo na saída 214 através de um filtro de redução de artefacto opcional.
Internamente, os meios de desmultiplexação 202 incluem um desmultiplexador 218 e um módulo de descodificação por entropia 220. Uma entrada do desmultiplexador 218 está ligada à entrada 212 e uma primeira saída do desmultiplexador 218 está ligada aos meios de descodificação residual 208. O módulo de descodificação por entropia 220 está ligado entre outra saída do
desmultiplexador 218 e os meios de descodificação de base 204. O desmultiplexador 218 divide o fluxo de dados de qualidade escalável no fluxo de dados de camada de base e no fluxo de dados de camada de melhoramento como tendo sido separadamente introduzidos no multiplexador 144, conforme descrito acima. O módulo de descodificação por entropia 220 efetua, por exemplo, uma descodificação de Huffman ou algoritmo de descodificação aritmética, de modo a obter os níveis de coeficiente de transformação, vetores de movimento, informação de tamanho de transformação e outros elementos de sintaxe necessários para derivar a representação de base do sinal de vídeo a partir desse. Na saída do módulo de descodificação por entropia 220, tem-se como resultado o fluxo de dados de codificação de base.
Os meios de descodificação de base 204 incluem um módulo de transformação inversa 222, um adicionador 224, um filtro de ciclo opcional 226 e um módulo de previsão 228. Os módulos 222 a 228 dos meios de descodificação de base 204 correspondem, no que diz respeito à funcionalidade e à interligação, aos elementos 124 a 130 da Fig. 1. Para ser mais preciso, o módulo de transformação inversa 222 e o adicionador 224 estão ligados em série pela ordem mencionada entre os meios de desmultiplexação 202, por um lado, e os meios de previsão 206 e a saída da qualidade de base, respetivamente, por outro lado e o filtro de ciclo opcional 226 e o módulo de previsão 228 estão ligados em série pela ordem mencionada entre a saída do adicionador 224 e outra entrada do adicionador 224. Através desta medida, o adicionador 224 gera o sinal de vídeo de representação de base com intensidade de bits reduzida e, opcionalmente, a resolução espacial reduzida, que é a recebida do lado de fora na saida 216.
Os meios de previsão 206 são compostos por um filtro de redução de artefacto opcional 230 e um módulo de informação de previsão 232, em que ambos os módulos funcionam de forma síncrona em relação aos elementos 132 e 134 da Fig. 1. Por outras palavras, o filtro de redução do artefacto opcional 230 filtra, opcionalmente, o sinal de vídeo de qualidade de base de modo a reduzir os artefactos no mesmo e o módulo de formação de previsão 232 recupera imagens previstas com intensidade de bits melhorada e, opcionalmente, resolução espacial aumentada de uma forma já descrita acima no que diz respeito ao módulo de previsão 134. Ou seja, o módulo de informação de previsão 232 pode, através de meio de informação lateral contidas no fluxo de dados de qualidade escalável, mapear as amostras de imagens recebidas para um intervalo dinâmico mais elevado e, opcionalmente, aplicar um filtro de interpolação espacial para o conteúdo das imagens, a fim de aumentar a resolução espacial.
Os meios de descodificação residual 208 incluem um módulo de descodificação por entropia 234 e um módulo de transformação inversa 236, que estão ligados em série entre o desmultiplexador 218 e os meios de reconstrução 210 pela ordem acabada de mencionar. O módulo de descodificação por entropia 234 e o módulo de transformação inversa 236 cooperam no sentido de reverterem a codificação efetuada pelos módulos, 136, 138 e 140 da Fig. 1. Em particular, o módulo de descodificação por entropia 234 efetua, por exemplo, uma descodificação de Huffman ou algoritmos de descodificação aritmética de forma a obter elementos de sintaxe que incluem, entre outros, níveis de coeficiente transformado, que são, através do módulo de transformação inversa 236, inversamente transformados de modo a se obter um sinal da previsão residual ou uma sequência de imagens residuais. Além disso, o módulo de descodificação por entropia 234 revela a informação lateral gerada nas etapas 190 a 194 no lado do codificador, de modo a que o módulo de formação de previsão 232 seja capaz de emular o procedimento de mapeamento inverso efetuado no lado codificador através do módulo de previsão 134, conforme já indicado acima.
Da mesma forma que na Fiq. 6, que se refere ao codificador, a Fiq. 7 mostra o modo de funcionamento do módulo de formação da previsão 232 e, parcialmente, o módulo de descodificação por entropia 234 em maior detalhe. Conforme ai mostrado, o processo para obter a previsão a partir do sinal de camada de base reconstruído no lado do descodificador começa com uma cooperação do desmultiplexador 218 e do descodificador por entropia 234 de modo a derivar a informação sobre a qranularidade codificada na etapa 194 na etapa 280, a derivar a informação sobre as funções de mapeando qlobal que foram codificadas na etapa 192 na etapa 282, a derivar o valor do índice k para cada bloco da granularidade fina como tendo sido codificados na etapa 190 na etapa 284, e a derivar os parâmetros m e n da função de mapeamento/adaptação local para cada bloco de granularidade fina como tendo sido codificados na etapa 188 na etapa 286. Conforme ilustrado pelas linhas a tracejado, as etapas 280 a 284 são opcionais com a sua aplicação a depender da forma de realização atualmente utilizada.
Na etapa 288, o módulo de formação de previsão 232 efetua o mapeamento de tom inverso com base na informação obtida nas etapas 280 a 286, emulando exatamente, desse modo, o mapeamento de tom inverso que foi efetuado no lado do codificador na etapa 186. De modo semelhante à descrição em relação à etapa 188, a derivação dos parâmetros m, n inclui uma descodificação prevista, onde é derivado um valor da previsão residual a partir da parte do fluxo de dados de qualidade elevada que entram no desmultiplexador 218 através da utilização de, por exemplo, descodificação por entropia conforme efetuada pelo descodificador por entropia 234 e obter os valores reais de m e n, através da adição desses valores residuais de previsão a um valor de previsão derivado através da previsão local e/ou temporal.
Os meios de reconstrução 210 incluem um adicionador 238 em que as suas entradas estão ligadas à saída do módulo de informação da previsão 232 e à saída do módulo de transformação inversa 236, respetivamente. O adicionador 238 adiciona a previsão residual e o sinal de previsão, a fim de obter o sinal de vídeo de qualidade elevada tendo a intensidade de bits aumentada e, opcionalmente, resolução espacial aumentada que é introduzida através de um filtro de redução de artefacto opcional 240 na saída 214.
Desse modo, como é percetível a partir da Fig. 2, um descodificador de qualidade de base pode reconstruir um sinal de vídeo de qualidade de base a partir do fluxo de dados escalável de qualidade na entrada 212 e, de forma a fazer isso, não inclui os elementos 230, 232, 238, 234, 236 e 240. Por outro lado, um descodificador de qualidade elevada não pode incluir a saída de 216.
Por outras palavras, no processo de descodificação, a descodificação da representação da qualidade de base é simples. Para a descodificação do sinal de qualidade elevada, primeiro tem de ser descodificado o sinal de qualidade de base, o que é efetuado pelos módulos 218 a 228. Depois disso, o processo de previsão acima descrito em relação ao módulo 232 e ao módulo opcional 230 é empregado utilizando a representação de base descodificada. Os coeficientes de transformação quantizados do sinal de melhoramento de qualidade elevada são dimensionados e inversamente transformados através do módulo de transformação inversa 236, por exemplo, conforme especificado no H.264/AVC, a fim de se obter as amostras do sinal residual ou de diferença, que são adicionadas à previsão derivado das amostras de representação de base descodificada pelo módulo de previsão 232. Como uma etapa final no processo de descodificação do sinal de vídeo de qualidade elevada a ser gerado na saída 214, pode ser utilizado um filtro opcional de modo a remover ou a reduzir os artefactos de codificação visualmente perturbador. É de notar que o ciclo de previsão de compensação do movimento que envolve os módulos 226 e 228 é totalmente autossuficientes utilizando apenas a representação de qualidade de base. Por isso, a complexidade de descodificação é moderada e não há qualquer necessidade para um filtro de interpolação, que funciona em intensidade de bits elevada e, opcionalmente, dados de imagem de resolução espacial elevada no processo de previsão de compensação de movimento do módulo de previsão 228.
Tendo em conta as formas de realização acima, deve ser mencionado que os filtros de redução de artefacto 132 e 230 são opcionais e podem ser removidos. O mesmo se aplica para os filtros de ciclo 124 e 226, respetivamente, e ao filtro 240. Por exemplo, em relação à Fig. 1, foi observado que os filtros 124 e 132 podem ser substituídos apenas por um filtro comum como, por exemplo, um filtro de bloqueio, em que a respetiva saída está ligada tanto à entrada do módulo de previsão de movimento 126, como à entrada do módulo de mapeamento de tom inverso 134. Da mesma forma, os filtros 226 e 230 podem ser substituídos por um filtro comum, tal como, um filtro de bloqueio, em que a respetiva saída está ligada à saída 216, à entrada do módulo de formação da previsão 232 e à entrada do módulo de previsão 228. Além disso, por uma questão de integridade, é notado que os módulos de previsão 228 e 126, respetivamente, preveem amostras não necessariamente temporalmente dentro dos macroblocos de uma imagem atual. Em vez disso, também pode ser utilizada uma previsão espacial ou uma previsão interna que utiliza amostras da mesma imagem. Em particular, o tipo de previsão pode ser escolhido numa base de macrobloco a macrobloco, por exemplo, ou qualquer outra granularidade. Além disso, a presente invenção não é restrita à codificação de vídeo. Em vez disso, a descrição acima também é aplicável para codificação de imagem parada. De acordo com isso, o ciclo de previsão de compensação de movimento que envolve os elementos 118, 128, 130, 126 e 124 e os elementos 224, 228 e 226, respetivamente, também pode ser removido. Do mesmo modo, a codificação por entropia mencionada não precisa de ser, necessariamente, efetuada.
Ainda mais precisa, nas formas de realização acima, a codificação da camada de base 118 a 130, 142 foi baseada na previsão de compensação de movimento com base numa reconstrução de imagens com perdas já codificadas. Neste caso, a reconstrução do processo de codificação de base também pode ser vista como uma parte da previsão processo de formação de qualidade elevada conforme foi efetuado na descrição acima. No entanto, no caso de uma codificação sem perdas da representação de base, não seria necessária uma reconstrução, e o sinal convertido para baixo poderia ser diretamente encaminhado para os meios 132, 134, respetivamente. No caso da previsão com base na compensação de movimento, numa codificação de camada de base com perdas, a reconstrução para reconstruir o sinal de qualidade de base no lado do codificador seria especialmente dedicada para a formação da previsão de qualidade elevada em 104. Por outras palavras, a associação efetuada acima dos elementos 116 a 134 e 142 para os meios 102, 104 e 108, respetivamente, pode ser efetuada de outra forma. Em particular, O módulo de codificação por entropia 142 pode ser visto como uma parte dos meios de codificação de base 102, com os meios de previsão a incluírem apenas os módulos 132 e 134 e os meios de combinação 108 a incluírem apenas o multiplexador 144. Este ponto de vista correlaciona-se com a associação módulo/meios utilizada na Fig. 2 em que os meios de previsão 206 não incluem a previsão baseada na compensação do movimento. Além disso, no entanto, os meios de desmultiplexação 202 podem ser vistos como não incluindo o módulo de entropia 220 de modo a que os meios de descodificação de base também incluam módulo de descodificação por entropia 220. No entanto, ambos os métodos conduzem ao mesmo resultado em que a previsão em 104 é efetuada com base numa representação do material de fonte com intensidade de bits reduzida e, opcionalmente, resolução espacial reduzida, a qual é codificada sem perdas e derivável sem perdas a partir do fluxo de bits de qualidade escalável e do fluxo de dados de camada de base, respetivamente. Segundo o ponto de vista subjacente à Fig. 1, a previsão 134 é baseada numa reconstituição do fluxo de dados de codificação de base, enquanto no caso do ponto de vista alternativo, a reconstrução começa a partir de uma versão codificada intermédia ou numa versão codificada a meio caminho do sinal de qualidade de base que perde a codificação sem perdas de acordo com o módulo 142 para ser completamente codificado no fluxo de dados de camada de base. A este respeito, deve-se ainda notar que a conversão para baixo no módulo 116 não tem de ser efetuada pelo codificador 100. Em vez disso, o codificador 100 pode ter duas entradas, uma para receber o sinal de qualidade elevada e o outro para receber a versão convertida para baixo, a partir do exterior.
Nas formas de realização acima descritas, a escalabilidade da qualidade refere-se apenas à intensidade de bits e, opcionalmente, à resolução espacial. No entanto, as formas de realização acima podem ser facilmente prolongadas no sentido de incluírem a escalabilidade temporal, a escalabilidade em formato croma e a escalabilidade de qualidade granular fina.
De acordo com isso, as formas de realização anteriores da presente invenção constituem um conceito para codificação escalável do conteúdo da imagem ou do vídeo com diferentes granularidades em termos de intensidade de bits da amostra e, opcionalmente, resolução espacial através da utilização de mapeamento de tom inverso localmente adaptativo. De acordo com formas de realização da presente invenção, ambos os processos de previsão temporal e espacial conforme especificado na extensão de codificação de vídeo escalável H.264/AVC são prolongados numa maneira que incluem mapeamentos de menor a maior fidelidade de intensidade de bits da amostra bem como, opcionalmente, de baixa a elevada resolução espacial. A extensão do SVC acima descrita no sentido da escalabilidade em termos da intensidade de bits da amostra e, opcionalmente, a resolução espacial permite que o codificador armazene uma representação de qualidade de base de uma sequência de vídeo, que pode ser descodificada através de qualquer descodificador de vídeo mais antigo em conjunto com um sinal de melhoramento para intensidade de bits mais elevada e, opcionalmente, resolução espacial mais elevada, que é ignorada pelos descodificadores de video mais antigos. Por exemplo, a representação de qualidade de base poderia conter uma versão de 8 bits da sequência de video em resolução CIF, nomeadamente 352 x 288 amostras, enquanto o sinal de melhoramento de qualidade elevada contém um "refinamento" para uma versão de 10 bits em resolução 4CIF, ou seja, 704 x 476 amostras da mesma sequência. Numa configuração diferente, também é possível utilizar a mesma resolução espacial para ambas as representações de qualidade melhorada e de base, de tal modo que o sinal de melhoramento de qualidade elevada contém apenas um refinamento da intensidade de bits da amostra, por exemplo, de 8 a 10 bits.
Por outras palavras, as formas de realização acima descritas permitem formar um codificador de vídeo, insto é, codificador ou descodificador, para codificação, isto é, codificação ou descodificação, de uma representação em camadas de um sinal de vídeo que inclui um método de codificação de vídeo padronizado para codificação de uma camada de qualidade de base, um método de previsão para a realização de uma previsão do sinal da camada de melhoramento de qualidade elevada utilizando o sinal de qualidade de base reconstruído e um método de codificação residual para codificação da previsão residual do sinal da camada de melhoramento de qualidade elevada. Em relação a este assunto, a previsão pode ser efetuada através da utilização de uma função de mapeamento do intervalo dinâmico associado com a camada de qualidade de base para o intervalo dinâmico associado com a camada de melhoramento de qualidade elevada. Além disso, a função de mapeamento pode ser construída como a soma de uma função de mapeamento global, que segue os esquemas de mapeamento de tom inverso acima descritos e uma adaptação local. A adaptação local, por seu lado, pode ser efetuada através da escalabilidade dos valores da amostra x da camada de qualidade de base e adicionando um valor de deslocamento de acordo com m · x n. Em qualquer caso, a codificação residual pode ser efetuada de acordo com H.264/AVC.
Dependendo de uma implementação real, o esquema de codificação da invenção pode ser implementado no hardware ou no software. Desse modo, a presente invenção também se destina a um programa de computador, que pode ser armazenado em suporte informático como um CD, um disco ou qualquer outra fonte de armazenamento de dados. A presente invenção também é, por esse motivo, um programa de computador com um código de programa que, quando executado num computador, efetua o método da invenção, descrito em relação às figuras acima. Em particular, as implementações dos meios e módulos na Fig. 1 e 2 podem incluir sub-rotinas a serem executadas numa CPU, partes do circuito de um ASIC ou semelhantes, por exemplo.
Desse modo, as formas de realização acima descrevem, inter alias, um codificador para codificação de dados de fonte da imagem ou do video (160) num fluxo de dados de qualidade escalável (112), incluindo meios de codificação de base (102) para codificação de dados de fonte da imagem ou do video (160) num fluxo de dados de codificação de base que representa uma representação dos dados de fonte da imagem ou do video com uma primeira intensidade de bits da amostra da imagem; meios de mapeamento (104) para mapeamento de amostras da representação dos dados de fonte da imagem ou do video (160) com a primeira intensidade de bits da amostra da imagem a partir de um primeiro intervalo dinâmico correspondente à primeira intensidade de bits da amostra da imagem para um segundo intervalo dinâmico mais elevado do que o primeiro intervalo dinâmico e correspondente a uma segunda intensidade de bits da amostra da imagem sendo superior â primeira intensidade de bits da amostra da imagem através da utilização de uma ou mais funções de mapeamento global, sendo constante dentro dos dados de fonte da imagem ou do video (160) ou variando numa primeira granularidade, e uma função de mapeamento local que modifica localmente uma ou mais funções de mapeamento global numa segunda granularidade mais fina do que a primeira granularidade, de forma a obter uma previsão dos dados de fonte da imagem ou do video que têm uma segunda intensidade de bits da amostra da imagem; Os meios de codificação residual (106) para codificação de uma previsão residual da previsão num fluxo de dados de camada de melhoramento da intensidade de bits; e meios de combinação (108) para formação do fluxo de dados de qualidade escalável com base no fluxo de dados de codificação de base, na função de mapeamento local e no fluxo de dados da camada de melhoramento da intensidade de bits de forma que a função de mapeamento local seja derivável a partir do fluxo de dados de qualidade escalável.
Os meios de mapeamento podem incluir meios (124, 126, 128, 130, 132) para reconstrução de uma reconstrução de imagem ou de video de baixa intensidade de bits, como a representação dos dados de origem da imagem ou do video, com a primeira intensidade de bits da amostra da imagem a baseada no fluxo de dados de codificação de base; em que a imagem ou o video de reconstrução de baixa intensidade de bits têm a intensidade de bits da amostra da primeira imagem.
Os meios de mapeamento (104) podem ser adaptados de forma a mapearem as amostras da representação dos dados de fonte da imagem ou do video (160) com a intensidade de bits da amostra da primeira imagem através da utilização de uma função de mapeamento combinada que é uma combinação aritmética de uma das funções de mapeamento global e da função de mapeamento local. Pode ser utilizada mais do que uma função de mapeamento global através dos meios de mapeamento (104) e os meios de combinação (108) são adaptados de modo a formarem o fluxo de dados de qualidade escalável (112) de tal modo que uma das mais do que uma funções de mapeamento global é derivável a partir do fluxo de dados de qualidade escalável. A combinação aritmética pode incluir uma operação de adição.
Os meios de combinação (108) e os meios de mapeamento (104) podem ser adaptados de tal modo que a segunda granularidade subdivide a dados de fonte da imagem ou do video (160) numa variedade de blocos de imagens (170) e os meios de mapeamento podem ser adaptados, de tal modo que a função de mapeamento local seja m s + n, com m e n a variarem na segunda granularidade com os meios de combinação a serem adaptados de tal modo que men são definidos dentro do fluxo de dados de qualidade escalável para cada bloco de imagens (170) dos dados de fonte da imagem ou do video (160) de tal modo que men possam ser diferentes entre a variedade de blocos de imagem.
Os meios de mapeamento (134) podem ser adaptados, de forma que a segunda granularidade varie dentro dos dados de fonte da imagem ou do video (160), e os meios de combinação (108) podem ser adaptados de tal modo que a segunda granularidade também seja derivável a partir do fluxo de dados de qualidade escalável.
Os meios de combinação (108) e os meios de mapeamento (134) podem ser adaptados de tal modo que a segunda granularidade divida os dados de fonte da imagem ou do video (160) numa variedade de blocos de imagens (170), e os meios de combinação (108) possam ser adaptados de tal modo que uma função residual de mapeamento local (Am, Δη) seja incorporada no fluxo de dados de qualidade escalável (112) para cada bloco de imagens (170), e a função de mapeamento local de um bloco de imagens predeterminado dos dados de fonte da imagem ou do video (160) é derivável a partir do fluxo de dados de qualidade escalável através da utilização de uma previsão espacial e/ou temporal a partir de um ou mais blocos de imagens vizinhos ou de um bloco de imagens correspondente de uma imagem dos dados de fonte da imagem ou do video anteriores a uma imagem à qual pertence o bloco de imagens predeterminado, e a função de mapeamento residual local do bloco de imagens predeterminado.
Os meios de combinação (108) podem ser adaptados de tal modo que pelo menos uma das funções de mapeamento global também é derivável a partir do fluxo de dados de qualidade escalável.
Os meios de codificação de base (102) podem incluir meios (116) para mapeamento de amostras que representam a segunda intensidade de bits da amostra da imagem a partir do segundo intervalo dinâmico para o primeiro intervalo dinâmico que corresponde à primeira intensidade de bits da amostra da imagem de modo a obter uma imagem de qualidade reduzida; e meios (118, 120, 122, 124, 126, 128, 130) para codificação da imagem de qualidade reduzida de forma a obter o fluxo de dados de codificação de base.
Lisboa, 18 de Dezembro de 2014.

Claims (16)

  1. REIVINDICAÇÕES 1. Codificador para codificação de dados de fonte de imagem ou de vídeo (160) num fluxo de dados de qualidade escalável (112), compreendendo: meios de codificação de base (102) para codificação de dados de fonte da imagem ou do vídeo (160) num fluxo de dados de codificação de base que representa uma representação dos dados de fonte da imagem ou do vídeo com uma primeira intensidade de bits da amostra da imagem; meios de mapeamento (104) para mapeamento de amostras da representação dos dados de fonte da imagem ou do vídeo (160) com a primeira intensidade de bits da amostra da imagem a partir de um primeiro intervalo dinâmico correspondente à primeira intensidade de bits da amostra da imagem para um segundo intervalo dinâmico mais elevado do que o primeiro intervalo dinâmico e correspondente a uma segunda intensidade de bits da amostra da imagem sendo superior à primeira intensidade de bits da amostra da imagem através da utilização de uma ou mais funções de mapeamento global, sendo constante dentro dos dados de fonte da imagem ou do vídeo (160) ou variando numa primeira granularidade, e uma função de mapeamento local que modifica localmente uma ou mais funções de mapeamento global numa segunda granularidade mais fina do que a primeira granularidade, de forma a obter uma previsão dos dados de fonte da imagem ou do vídeo que têm uma segunda intensidade de bits da amostra da imagem; meios de codificação residual (106) para codificação de uma previsão residual da previsão num fluxo de dados de camada de melhoramento da intensidade de bits; e meios de combinação (108) para formação do fluxo de dados de qualidade escalável com base no fluxo de dados de codificação de base, na função de mapeamento local e no fluxo de dados da camada de melhoramento da intensidade de bits de forma a que a função de mapeamento local seja derivável a partir do fluxo de dados de qualidade escalável.
  2. 2. Descodificador para descodificar um fluxo de dados de qualidade escalável no qual são codificados dados de fonte da imaqem ou do video, em que o fluxo de dados de qualidade escalável compreende um fluxo de dados de camada de base que representa os dados de fonte da imaqem ou do video com uma primeira intensidade de bits da amostra da imaqem, um fluxo de dados da camada de melhoramento da intensidade de bits que representa uma previsão residual com uma sequnda intensidade de bits da amostra da imaqem sendo mais elevada do que a primeira intensidade de bits da amostra da imagem, e uma função de mapeamento local definida numa segunda granularidade, em que o descodificador compreende: meios (204) para descodificação do fluxo de dados da camada de base em dados da imagem ou do video reconstruídos de intensidade de bits mais baixa; meios (208) para descodificação do fluxo de dados de melhoramento da intensidade de bits para a previsão residual; meios (20 6) para mapeamento de amostras dos dados da imagem ou do vídeo reconstruídos de intensidade de bits mais baixa com a primeira intensidade de bits da amostra da imagem a partir de um primeiro intervalo dinâmico correspondente à primeira intensidade de bits da amostra da imagem para um segundo intervalo dinâmico mais elevado do que o primeiro intervalo dinâmico e correspondente à segunda intensidade de bits da amostra da imagem, através da utilização de uma ou mais funções de mapeamento global, sendo constante dentro do vídeo ou variando numa primeira granularidade, e uma função de mapeamento local que modifica localmente uma ou mais funções de mapeamento global na segunda granularidade que é mais pequena do que a primeira granularidade, de forma a obter uma previsão dos dados de fonte da imagem ou do vídeo que têm a segunda intensidade de bits da amostra da imagem; e meios (210) para reconstrução da imagem com a segunda intensidade de bits da amostra da imagem baseada na previsão e na previsão residual.
  3. 3. Descodificador de acordo com a Reivindicação 2, em que os meios de mapeamento (206) são adaptados de forma a mapearem as amostras dos dados da imagem ou do vídeo reconstruídos de intensidade de bits mais baixa com a primeira intensidade de bits da amostra da imagem através da utilização de uma função de mapeamento combinada que é uma combinação aritmética de uma ou mais funções de mapeamento global e da função de mapeamento local.
  4. 4. Descodif icador de acordo com a reivindicação 3, em que é utilizada mais do que uma função de mapeamento global através dos meios de mapeamento (206) e dos meios (208) para descodificação do fluxo de dados de melhoramento da intensidade de bits estão adaptados de modo a identificar uma ou mais funções de mapeamento global a partir do fluxo de dados de melhoramento da intensidade de bits.
  5. 5. Descodificador de acordo com a reivindicação 3 ou 4, em que a combinação aritmética compreende uma operação de adição.
  6. 6. Descodificador de acordo com qualquer uma das reivindicações 2 a 5, em que os meios (208) para descodificação do fluxo de dados de melhoramento da intensidade de bits e os meios de mapeamento (104) estão adaptados de tal modo que a segunda granularidade subdivide os dados de fonte da imagem ou do vídeo (160) numa variedade de blocos de imagens (170) e os meios de mapeamento (206) estão adaptados, de tal modo que a função de mapeamento local é m · s + n, com m e n a variarem na segunda granularidade com os meios (208) para descodificação do fluxo de dados de melhoramento da intensidade de bits a serem adaptados de tal modo a derivarem m e n a partir do fluxo de dados de melhoramento da intensidade de bits para cada bloco de imagens (170) dos dados de fonte da imagem ou do video (160) de tal modo que men possam ser diferentes entre a variedade dos blocos da imagem.
  7. 7. Descodificador de acordo com qualquer uma das reivindicações 2 a 6, em que os meios de mapeamento (206) estão adaptados de tal forma que a segunda granularidade varia dentro dos dados de fonte da imagem ou do video (160), e os meios (208) para descodificação do fluxo de dados de melhoramento da intensidade de bits estão adaptados de modo a derivarem a segunda granularidade a partir do fluxo de dados de melhoramento da intensidade de bits.
  8. 8. Descodificador de acordo com qualquer uma das reivindicações 2 a 7, em que os meios (208) para descodificação do fluxo de dados de melhoramento da intensidade de bits e os meios de mapeamento (206) estão adaptados de tal modo que a segunda granularidade divide os dados de fonte da imagem ou do video (160) numa variedade de blocos de imagens (170), e os meios (208) para descodificação do fluxo de dados de melhoramento da intensidade de bits estão adaptados de modo a derivar uma função residual de mapeamento local (hm, Δη) a partir do fluxo de dados de melhoramento da intensidade de bits para cada bloco de imagens (170), e a derivar a função de mapeamento local de um bloco de imagens predeterminado dos dados de fonte da imagem ou do video (160) através da utilização de uma previsão espacial e/ou temporal a partir de um ou mais blocos de imagens vizinhos ou de um bloco de imagens correspondente de uma imagem dos dados de fonte da imagem ou do video anteriores a uma imagem à qual pertence o bloco de imagens predeterminado, e a função de mapeamento local residual do bloco de imagens predeterminado.
  9. 9. Descodificador de acordo com qualquer uma das reivindicações 2 a 8, em que os meios de mapeamento (206) estão adaptados de tal modo que pelo menos uma ou mais das funções de mapeamento qlobal são não-lineares.
  10. 10. Descodificador de acordo com qualquer uma das reivindicações 2 a 9, em que os meios (208) para descodificação do fluxo de dados de melhoramento da intensidade de bits estão adaptados de modo a derivar pelo menos uma ou mais das funções de mapeamento global do fluxo de dados de melhoramento da intensidade de bits.
  11. 11. Descodificador de acordo com qualquer uma das reivindicações 2 a 10, em que os meios de mapeamento (206) estão adaptados de tal modo que pelo menos uma ou mais das funções de mapeamento global é definida como 2M-N-K χ + 2m_1 -2n_1_k, em que x é uma amostra da representação dos dados de fonte da imagem ou do vídeo com a primeira intensidade de bits da amostra da imagem, N é a primeira intensidade de bits da amostra da imagem, M é a segunda intensidade de bits da amostra da imagem e K é um parâmetro de mapeamento, 2M-N-K x + £)f onde N é a primeira intensidade de bits da amostra da imagem, M é a segunda intensidade de bits da amostra da imagem, e K e D são parâmetros de mapeamento, fundo (2m_n_k χ + 2m_2n_k x + D) , onde fundo (a) arredonda para baixo para o número inteiro mais próximo, N é a primeira intensidade de bits da amostra da imagem, M é a segunda intensidade de bits da amostra da imagem, e K e D são parâmetros de mapeamento, uma função linear para mapeamento de comparação de peças das amostras a partir do primeiro intervalo dinâmico para o segundo intervalo dinâmico com informação do ponto de interpolação que define o mapeamento linear de comparação de peças, ou uma tabela de consulta para ser indexada através da utilização de amostras provenientes do primeiro intervalo dinâmico e gerando amostras do segundo intervalo dinâmico seguinte.
  12. 12. Descodificador de acordo com a reivindicação 11, em que os meios (208) para descodificação do fluxo de dados de melhoramento da intensidade de bits estão adaptados de modo a derivar o(s) parâmetro(s) de mapeamento, a informação de ponto de interpolação ou a tabela de consulta a partir do fluxo de dados de melhoramento da intensidade de bits.
  13. 13. Método para codificação de dados de fonte da imagem ou do video (160) num fluxo de dados de qualidade escalável (112) compreendendo: a codificação de dados de fonte da imagem ou do video (160) num fluxo de dados de codificação de base que representa uma representação dos dados de fonte da imagem ou do video com uma primeira intensidade de bits da amostra da imagem; o mapeamento de amostras da representação dos dados de fonte da imagem ou do video (160) com a primeira intensidade de bits da amostra da imagem a partir de um primeiro intervalo dinâmico correspondente à primeira intensidade de bits da amostra da imagem para um segundo intervalo dinâmico mais elevado do que o primeiro intervalo dinâmico e correspondente a uma segunda intensidade de bits da amostra da imagem sendo superior à primeira intensidade de bits da amostra da imagem através da utilização de uma ou mais funções de mapeamento global, sendo constante dentro dos dados de fonte da imagem ou do video (160) ou variando numa primeira granularidade, e uma função de mapeamento local que modifica localmente uma ou mais funções de mapeamento global numa segunda granularidade mais fina do que a primeira granularidade, de forma a obter uma previsão dos dados de fonte da imagem ou do video que tem uma segunda intensidade de bits da amostra da imagem. a codificação de uma previsão residual da previsão num fluxo de dados de camada de melhoramento da intensidade de bits; e a formação do fluxo de dados de qualidade escalável com base no fluxo de dados de codificação de base, na função de mapeamento local e no fluxo de dados da camada de melhoramento da intensidade de bits de forma a que a função de mapeamento local seja derivável a partir do fluxo de dados de qualidade escalável.
  14. 14. Método para descodificar um fluxo de dados de qualidade escalável no qual são codificados dados de fonte da imagem ou do vídeo, em que o fluxo de dados de qualidade escalável compreende um fluxo de dados de camada de base que representa os dados de fonte da imagem ou do vídeo com uma primeira intensidade de bits da amostra da imagem, um fluxo de dados da camada de melhoramento da intensidade de bits que representa uma previsão residual com uma segunda intensidade de bits da amostra da imagem que é mais elevada do que a primeira intensidade de bits da amostra da imagem, e uma função de mapeamento local definida numa segunda granularidade, em que o método compreende: a descodificação do fluxo de dados da camada de base em dados da imagem ou do vídeo reconstruídos de intensidade de bits mais baixa; a descodificação do fluxo de dados de melhoramento da intensidade de bits para a previsão residual; o mapeamento de amostras dos dados da imagem ou do vídeo reconstruídos de intensidade de bits mais baixa com a primeira intensidade de bits da amostra da imagem a partir de um primeiro intervalo dinâmico correspondente à primeira intensidade de bits da amostra da imagem para um segundo intervalo dinâmico mais elevado do que o primeiro intervalo dinâmico e correspondente à segunda intensidade de bits da amostra da imagem, através da utilização de uma ou mais funções de mapeamento global, sendo constante dentro do vídeo ou variando numa primeira granularidade, e uma função de mapeamento local que modifica localmente uma ou mais funções de mapeamento global na segunda granularidade que é mais pequena do que a primeira granularidade, de forma a obter uma previsão dos dados de fonte da imagem ou do vídeo que têm uma segunda intensidade de bits da amostra da imagem; e a reconstrução da imagem com a segunda intensidade de bits da amostra da imagem baseada na previsão e na previsão residual.
  15. 15. Fluxo de dados de qualidade escalável no qual são codificados dados de fonte da imagem ou do vídeo, em que o fluxo de dados de qualidade escalável compreende um fluxo de dados de camada de base que representa os dados de fonte da imagem ou do vídeo com uma primeira intensidade de bits da amostra da imagem, um fluxo de dados da camada de melhoramento da intensidade de bits que representa uma previsão residual com uma segunda intensidade de bits da amostra da imagem mais elevada do que a primeira intensidade de bits da amostra da imagem, e uma função de mapeamento local definida numa segunda granularidade, em que uma reconstrução da imagem com a segunda intensidade de bits da amostra da imagem é derivável a partir da previsão residual e uma previsão obtida através do mapeamento de amostras dos dados da imagem ou do vídeo reconstruídos de intensidade de bits mais baixa com a primeira intensidade de bits da amostra da imagem a partir de um primeiro intervalo dinâmico correspondente à primeira intensidade de bits da amostra da imagem para um segundo intervalo dinâmico mais elevado do que o primeiro intervalo dinâmico e correspondente à segunda intensidade de bits da amostra da imagem, através da utilização de uma ou mais funções de mapeamento global, sendo constante dentro do vídeo ou variando numa primeira granularidade, e uma função de mapeamento local que modifica localmente uma ou mais funções de mapeamento global na segunda granularidade que é mais pequena do que a primeira granularidade.
  16. 16. Programa de computador, tendo um código de programa para a realização, quando for executado num computador, de um método de acordo com a reivindicação 13 ou 14. Lisboa, 18 de Dezembro de 2014.
PT87352878T 2008-04-16 2008-04-16 Escalabilidade de intensidade de bits PT2279622E (pt)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/EP2008/003047 WO2009127231A1 (en) 2008-04-16 2008-04-16 Bit-depth scalability

Publications (1)

Publication Number Publication Date
PT2279622E true PT2279622E (pt) 2015-01-02

Family

ID=40262715

Family Applications (2)

Application Number Title Priority Date Filing Date
PT141871855T PT2835976T (pt) 2008-04-16 2008-04-16 Escalabilidade da profundidade de bits
PT87352878T PT2279622E (pt) 2008-04-16 2008-04-16 Escalabilidade de intensidade de bits

Family Applications Before (1)

Application Number Title Priority Date Filing Date
PT141871855T PT2835976T (pt) 2008-04-16 2008-04-16 Escalabilidade da profundidade de bits

Country Status (10)

Country Link
US (5) US8995525B2 (pt)
EP (2) EP2279622B1 (pt)
JP (1) JP5203503B2 (pt)
CN (1) CN102007768B (pt)
DK (2) DK2279622T3 (pt)
ES (2) ES2527932T3 (pt)
HU (2) HUE031487T2 (pt)
PL (2) PL2835976T3 (pt)
PT (2) PT2835976T (pt)
WO (1) WO2009127231A1 (pt)

Families Citing this family (81)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2294827A4 (en) * 2008-06-12 2017-04-19 Thomson Licensing Methods and apparatus for video coding and decoding with reduced bit-depth update mode and reduced chroma sampling update mode
EP2144444B1 (en) * 2008-07-10 2012-06-27 The University Of Warwick HDR video data compression devices and methods
US9538176B2 (en) 2008-08-08 2017-01-03 Dolby Laboratories Licensing Corporation Pre-processing for bitdepth and color format scalable video coding
JP5589006B2 (ja) * 2009-03-13 2014-09-10 ドルビー ラボラトリーズ ライセンシング コーポレイション 高ダイナミックレンジ、視覚ダイナミックレンジ及び広色域のビデオの階層化圧縮
US20100260268A1 (en) * 2009-04-13 2010-10-14 Reald Inc. Encoding, decoding, and distributing enhanced resolution stereoscopic video
US9336578B2 (en) 2009-09-14 2016-05-10 Thomson Licensing Interactive tone mapping for high dynamic range video
US8798131B1 (en) 2010-05-18 2014-08-05 Google Inc. Apparatus and method for encoding video using assumed values with intra-prediction
US10108314B2 (en) * 2010-06-25 2018-10-23 Interdigital Ce Patent Holdings Method and system for displaying and processing high dynamic range video and images
WO2012004709A1 (en) * 2010-07-06 2012-01-12 Koninklijke Philips Electronics N.V. Generation of high dynamic range images from low dynamic range images
EP2617196A2 (en) * 2010-09-14 2013-07-24 Samsung Electronics Co., Ltd Method and apparatus for hierarchical picture encoding and decoding
US10244239B2 (en) 2010-12-28 2019-03-26 Dolby Laboratories Licensing Corporation Parameter set for picture segmentation
WO2012090181A1 (en) * 2010-12-29 2012-07-05 Nokia Corporation Depth map coding
US9210442B2 (en) 2011-01-12 2015-12-08 Google Technology Holdings LLC Efficient transform unit representation
US9380319B2 (en) * 2011-02-04 2016-06-28 Google Technology Holdings LLC Implicit transform unit representation
EP2684365A1 (en) * 2011-03-10 2014-01-15 Dolby Laboratories Licensing Corporation Bitdepth and color scalable video coding
ES2659961T3 (es) 2011-04-14 2018-03-20 Dolby Laboratories Licensing Corporation Predictor de regresión múltiple de múltiples canales de color
US9521434B2 (en) 2011-06-09 2016-12-13 Qualcomm Incorporated Internal bit depth increase in video coding
WO2012167712A1 (en) * 2011-06-10 2012-12-13 Mediatek Inc. Method and apparatus of scalable video coding
WO2012173745A1 (en) * 2011-06-13 2012-12-20 Dolby Laboratories Licensing Corporation Fused region-based vdr prediction
EP3751856B1 (en) * 2011-06-24 2023-07-12 NTT DoCoMo, Inc. Methods for motion compensated prediction
US11496760B2 (en) 2011-07-22 2022-11-08 Qualcomm Incorporated Slice header prediction for depth maps in three-dimensional video codecs
US9521418B2 (en) 2011-07-22 2016-12-13 Qualcomm Incorporated Slice header three-dimensional video extension for slice header prediction
US9288505B2 (en) 2011-08-11 2016-03-15 Qualcomm Incorporated Three-dimensional video with asymmetric spatial resolution
US8782175B2 (en) * 2011-09-27 2014-07-15 Adobe Systems Incorporated Beacon updating for video analytics
US8955004B2 (en) 2011-09-27 2015-02-10 Adobe Systems Incorporated Random generation of beacons for video analytics
KR20130037162A (ko) * 2011-10-05 2013-04-15 한국전자통신연구원 스케일러블 비디오 코딩을 위한 계층간 텍스처 예측 방법 및 그 장치
TWI575933B (zh) * 2011-11-04 2017-03-21 杜比實驗室特許公司 階層式視覺動態範圍編碼中之層分解技術
US9167261B2 (en) * 2011-11-07 2015-10-20 Sharp Laboratories Of America, Inc. Video decoder with constrained dynamic range
CN104185991B (zh) * 2011-11-09 2018-07-06 弗劳恩霍夫应用研究促进协会 不同动态采样值范围的层之间的层间预测
BR112014011425B1 (pt) 2011-11-11 2022-08-23 GE Video Compression, LLC. Codificação de multi-visualização eficiente utilizando estimativa e atualização de mapa por profundidade
WO2013068548A2 (en) 2011-11-11 2013-05-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Efficient multi-view coding using depth-map estimate for a dependent view
US9485503B2 (en) 2011-11-18 2016-11-01 Qualcomm Incorporated Inside view motion prediction among texture and depth view components
EP3739886A1 (en) 2011-11-18 2020-11-18 GE Video Compression, LLC Multi-view coding with efficient residual handling
KR20140098107A (ko) * 2011-12-01 2014-08-07 인텔 코포레이션 잔류 예측을 위한 움직임 추정 방법
TWI606718B (zh) * 2012-01-03 2017-11-21 杜比實驗室特許公司 規定視覺動態範圍編碼操作及參數
US9756353B2 (en) 2012-01-09 2017-09-05 Dolby Laboratories Licensing Corporation Hybrid reference picture reconstruction method for single and multiple layered video coding systems
US9357197B2 (en) * 2012-05-24 2016-05-31 Dolby Laboratories Licensing Corporation Multi-layer backwards-compatible video delivery for enhanced dynamic range and enhanced resolution formats
EP2903282A4 (en) * 2012-09-28 2016-05-25 Samsung Electronics Co Ltd METHOD OF SAO COMPENSATION FOR CODING INTERMEDIATE LAYER FORESIGN ERRORS AND DEVICE THEREFOR
US9124899B2 (en) 2012-09-28 2015-09-01 Sharp Laboratories Of America, Inc. Motion derivation and coding for scaling video
WO2014053517A1 (en) * 2012-10-01 2014-04-10 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Scalable video coding using derivation of subblock subdivision for prediction from base layer
TWI597968B (zh) * 2012-12-21 2017-09-01 杜比實驗室特許公司 在高位元深度視訊的可適性編碼中,高精度升取樣
US9596465B2 (en) * 2013-01-04 2017-03-14 Intel Corporation Refining filter for inter layer prediction of scalable video coding
US9219915B1 (en) 2013-01-17 2015-12-22 Google Inc. Selection of transform size in video coding
US9967559B1 (en) 2013-02-11 2018-05-08 Google Llc Motion vector dependent spatial transformation in video coding
US9544597B1 (en) 2013-02-11 2017-01-10 Google Inc. Hybrid transform in video encoding and decoding
PL2936814T3 (pl) * 2013-03-26 2018-07-31 Dolby Laboratories Licensing Corporation Kodowanie percepcyjnie kwantyzowanej treści wideo podczas wielowarstwowego kodowania VDR
US9674530B1 (en) 2013-04-30 2017-06-06 Google Inc. Hybrid transforms in video coding
WO2014186542A1 (en) * 2013-05-15 2014-11-20 Vid Scale, Inc. Single loop decoding based inter layer prediction
GB2516424A (en) * 2013-07-15 2015-01-28 Nokia Corp A method, an apparatus and a computer program product for video coding and decoding
FR3008840A1 (fr) 2013-07-17 2015-01-23 Thomson Licensing Procede et dispositif de decodage d'un train scalable representatif d'une sequence d'images et procede et dispositif de codage correspondants
CN110572662B (zh) 2013-10-07 2024-03-08 Vid拓展公司 用于多层视频编码的组合可分级性处理
US9648332B2 (en) * 2013-10-28 2017-05-09 Qualcomm Incorporated Adaptive inter-color component residual prediction
EP3105926B1 (en) 2014-02-13 2018-04-11 Dolby International AB Piecewise inter-layer prediction for signals with enhanced dynamic range
WO2015139203A1 (en) 2014-03-18 2015-09-24 Mediatek Singapore Pte. Ltd. Dlt signaling in 3d video coding
JP6330507B2 (ja) * 2014-06-19 2018-05-30 ソニー株式会社 画像処理装置及び画像処理方法
WO2015200814A1 (en) * 2014-06-26 2015-12-30 Reald Inc. Directional privacy display
CN105393549A (zh) 2014-06-27 2016-03-09 松下知识产权经营株式会社 数据输出装置、数据输出方法及数据生成方法
US9286653B2 (en) * 2014-08-06 2016-03-15 Google Inc. System and method for increasing the bit depth of images
US10542265B2 (en) * 2014-09-09 2020-01-21 Dolby Laboratories Licensing Corporation Self-adaptive prediction method for multi-layer codec
US9565451B1 (en) 2014-10-31 2017-02-07 Google Inc. Prediction dependent transform coding
CN107005711A (zh) * 2014-11-05 2017-08-01 三星电子株式会社 逐样本预测编码设备和方法
WO2016123001A1 (en) 2015-01-27 2016-08-04 Dolby International Ab Predictive image encoding and decoding with pixel group based quantization
RU2666234C1 (ru) * 2015-03-20 2018-09-06 Долби Лэборетериз Лайсенсинг Корпорейшн Аппроксимация восстановления формы сигнала
US9942489B2 (en) 2015-06-02 2018-04-10 Samsung Electronics Co., Ltd. Adaptive tone mapping based on local contrast
KR102403360B1 (ko) 2015-06-16 2022-05-30 광운대학교 산학협력단 하위 호환성을 고려한 hdr 영상 복호화 장치에서 다이나믹 레인지 매핑 정보를 이용하는 방법 및 장치
EP3113492A1 (en) * 2015-06-30 2017-01-04 Thomson Licensing Method and apparatus for determining prediction of current block of enhancement layer
WO2017015397A1 (en) * 2015-07-22 2017-01-26 Dolby Laboratories Licensing Corporation Video coding and delivery with both spatial and dynamic range scalability
US9769499B2 (en) 2015-08-11 2017-09-19 Google Inc. Super-transform video coding
US10277905B2 (en) 2015-09-14 2019-04-30 Google Llc Transform selection for non-baseband signal coding
US10200701B2 (en) * 2015-10-14 2019-02-05 Qualcomm Incorporated HDR and WCG coding architecture with SDR backwards compatibility in a single bitstream for video coding
CN108353173B (zh) * 2015-11-02 2020-06-05 杜比实验室特许公司 用于高动态范围视频编码的分段线性层间预测器
US9807423B1 (en) 2015-11-24 2017-10-31 Google Inc. Hybrid transform scheme for video coding
US9621767B1 (en) * 2015-11-24 2017-04-11 Intel Corporation Spatially adaptive tone mapping for display of high dynamic range (HDR) images
US10032262B2 (en) 2016-02-02 2018-07-24 Dolby Laboratories Licensing Corporation Block-based content-adaptive reshaping for high dynamic range images
US10223774B2 (en) 2016-02-02 2019-03-05 Dolby Laboratories Licensing Corporation Single-pass and multi-pass-based polynomial approximations for reshaping functions
US10074162B2 (en) 2016-08-11 2018-09-11 Intel Corporation Brightness control for spatially adaptive tone mapping of high dynamic range (HDR) images
CN110999301B (zh) * 2017-08-15 2023-03-28 杜比实验室特许公司 位深度高效图像处理
KR102413839B1 (ko) * 2017-11-15 2022-06-28 삼성전자 주식회사 컨텐츠 제공장치, 그 제어방법 및 기록매체
CN108712656B (zh) * 2018-06-07 2021-07-20 滨州学院 一种远程视频处理方法及视频服务终端
US11122297B2 (en) 2019-05-03 2021-09-14 Google Llc Using border-aligned block functions for image compression
US11838551B2 (en) 2020-12-30 2023-12-05 Ofinno, Llc Adaptive block level bit-depth prediction

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0788282B1 (en) * 1996-02-05 2010-01-20 Panasonic Corporation Quantization method
JP3130266B2 (ja) 1996-03-09 2001-01-31 三星電子株式会社 平均分離ヒストグラム等化を用いる映像改善方法及びその回路
JPH1056639A (ja) 1996-06-03 1998-02-24 Matsushita Electric Ind Co Ltd 画像符号化装置と画像復号化装置
CN1151685C (zh) * 1997-02-12 2004-05-26 萨尔诺夫公司 编码系统中用于优化速率控制的装置和方法
US6829301B1 (en) * 1998-01-16 2004-12-07 Sarnoff Corporation Enhanced MPEG information distribution apparatus and method
US6925120B2 (en) 2001-09-24 2005-08-02 Mitsubishi Electric Research Labs, Inc. Transcoder for scalable multi-layer constant quality video bitstreams
WO2004045217A1 (en) 2002-11-13 2004-05-27 Koninklijke Philips Electronics N.V. Transmission system with colour depth scalability
US7146059B1 (en) * 2003-03-05 2006-12-05 Massachusetts Institute Of Technology Method of performing fast bilateral filtering and using the same for the display of high-dynamic-range images
CN1846383B (zh) 2003-07-02 2011-05-04 松下电器产业株式会社 通信装置及通信方法
US7924921B2 (en) 2003-09-07 2011-04-12 Microsoft Corporation Signaling coding and display options in entry point headers
US8014450B2 (en) 2003-09-07 2011-09-06 Microsoft Corporation Flexible range reduction
US7400683B2 (en) 2003-11-18 2008-07-15 Lsi Corporation Device with virtual tilized image memory
US20050259729A1 (en) * 2004-05-21 2005-11-24 Shijun Sun Video coding with quality scalability
US8442108B2 (en) * 2004-07-12 2013-05-14 Microsoft Corporation Adaptive updates in motion-compensated temporal filtering
KR100657268B1 (ko) 2004-07-15 2006-12-14 학교법인 대양학원 컬러 영상의 신축적 부호화, 복호화 방법 및 장치
DE102004059978B4 (de) * 2004-10-15 2006-09-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Erzeugen einer codierten Videosequenz und zum Decodieren einer codierten Videosequenz unter Verwendung einer Zwischen-Schicht-Restwerte-Prädiktion sowie ein Computerprogramm und ein computerlesbares Medium
KR100763178B1 (ko) * 2005-03-04 2007-10-04 삼성전자주식회사 색 공간 스케일러블 비디오 코딩 및 디코딩 방법, 이를위한 장치
US7404645B2 (en) * 2005-06-20 2008-07-29 Digital Display Innovations, Llc Image and light source modulation for a digital display system
US8315308B2 (en) * 2006-01-11 2012-11-20 Qualcomm Incorporated Video coding with fine granularity spatial scalability
US8014445B2 (en) * 2006-02-24 2011-09-06 Sharp Laboratories Of America, Inc. Methods and systems for high dynamic range video coding
JP4876122B2 (ja) * 2006-03-22 2012-02-15 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ 精度スケーラビリティを可能にする符号化スキーム
US7535383B2 (en) * 2006-07-10 2009-05-19 Sharp Laboratories Of America Inc. Methods and systems for signaling multi-layer bitstream data
KR101267178B1 (ko) 2006-09-30 2013-05-24 톰슨 라이센싱 비디오에 대하여 색 인핸스먼트 계층을 인코딩 및 디코딩하기 위한 방법 및 디바이스
EP3484154A1 (en) * 2006-10-25 2019-05-15 GE Video Compression, LLC Quality scalable coding
US8289412B2 (en) * 2006-11-27 2012-10-16 Dolby Laboratories Licensing Corporation Apparatus and methods for boosting dynamic range in digital images
EP1933563A1 (en) 2006-12-14 2008-06-18 Thomson Licensing Method and apparatus for encoding and/or decoding bit depth scalable video data using adaptive enhancement layer residual prediction
US7983496B2 (en) * 2007-06-26 2011-07-19 Mitsubishi Electric Research Laboratories, Inc. Inverse tone mapping for bit-depth scalable image coding adapted to variable block sizes
CN101822059B (zh) * 2007-10-15 2012-11-28 汤姆森许可贸易公司 可缩放视频的层间残差预测的方法和设备
US8432968B2 (en) 2007-10-15 2013-04-30 Qualcomm Incorporated Scalable video coding techniques for scalable bitdepths
EP2051527A1 (en) * 2007-10-15 2009-04-22 Thomson Licensing Enhancement layer residual prediction for bit depth scalability using hierarchical LUTs
WO2009054920A2 (en) * 2007-10-19 2009-04-30 Thomson Licensing Combined spatial and bit-depth scalability
US8369638B2 (en) 2008-05-27 2013-02-05 Microsoft Corporation Reducing DC leakage in HD photo transform

Also Published As

Publication number Publication date
EP2279622B1 (en) 2014-10-01
US20230421806A1 (en) 2023-12-28
PL2279622T3 (pl) 2015-03-31
HUE024173T2 (en) 2016-05-30
JP2011517245A (ja) 2011-05-26
PL2835976T3 (pl) 2017-04-28
EP2279622A1 (en) 2011-02-02
ES2602100T3 (es) 2017-02-17
CN102007768A (zh) 2011-04-06
US20210211720A1 (en) 2021-07-08
WO2009127231A1 (en) 2009-10-22
US20150172710A1 (en) 2015-06-18
DK2279622T3 (en) 2015-01-12
US20190289323A1 (en) 2019-09-19
EP2835976A3 (en) 2015-04-01
EP2835976B1 (en) 2016-09-21
US10958936B2 (en) 2021-03-23
PT2835976T (pt) 2016-11-22
EP2835976A2 (en) 2015-02-11
JP5203503B2 (ja) 2013-06-05
DK2835976T3 (en) 2016-12-05
CN102007768B (zh) 2013-05-29
US20110090959A1 (en) 2011-04-21
US8995525B2 (en) 2015-03-31
HUE031487T2 (en) 2017-07-28
ES2527932T3 (es) 2015-02-02
US11711542B2 (en) 2023-07-25

Similar Documents

Publication Publication Date Title
US11711542B2 (en) Bit-depth scalability
US10659776B2 (en) Quality scalable coding with mapping different ranges of bit depths
EP2143279B1 (en) Scalable video coding supporting pixel value refinement scalability
KR100772882B1 (ko) 인트라 bl 모드를 고려한 디블록 필터링 강도 결정 방법, 및 장치
EP2008469B1 (en) Multilayer-based video encoding method and apparatus thereof
TWI617180B (zh) 基於樹狀結構之編碼單元的可調式視訊編碼的方法與裝置以及基於樹狀結構之編碼單元的可調式視訊解碼的方法與裝置
US20060120450A1 (en) Method and apparatus for multi-layered video encoding and decoding
WO2008049445A1 (en) Quality scalable coding
WO2006059848A1 (en) Method and apparatus for multi-layered video encoding and decoding