BR112016008225B1 - Aparelhos e métodos para codificação e decodificação de informações de vídeo e memória legível por computador - Google Patents

Aparelhos e métodos para codificação e decodificação de informações de vídeo e memória legível por computador Download PDF

Info

Publication number
BR112016008225B1
BR112016008225B1 BR112016008225-7A BR112016008225A BR112016008225B1 BR 112016008225 B1 BR112016008225 B1 BR 112016008225B1 BR 112016008225 A BR112016008225 A BR 112016008225A BR 112016008225 B1 BR112016008225 B1 BR 112016008225B1
Authority
BR
Brazil
Prior art keywords
image
poc
video
reset
picture
Prior art date
Application number
BR112016008225-7A
Other languages
English (en)
Other versions
BR112016008225A2 (pt
Inventor
Adarsh Krishnan Ramasubramonian
Fnu HENDRY
Ying Chen
Ye-Kui Wang
Original Assignee
Qualcomm Incorporated
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Incorporated filed Critical Qualcomm Incorporated
Publication of BR112016008225A2 publication Critical patent/BR112016008225A2/pt
Publication of BR112016008225B1 publication Critical patent/BR112016008225B1/pt

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/187Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/423Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/114Adapting the group of pictures [GOP] structure, e.g. number of B-frames between two anchor frames
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/188Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a video data packet, e.g. a network abstraction layer [NAL] unit
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/65Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using error resilience
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/65Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using error resilience
    • H04N19/68Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using error resilience involving the insertion of resynchronisation markers into the bitstream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

DISPOSITIVO E MÉTODO PARA CODIFICAÇÃO ESCALONÁVEL DE INFORMAÇÕES DE VÍDEO. Trata-se de um aparelho configurado para codificar informações de vídeo que inclui uma unidade de memória e um processador em comunicação com a unidade de memória. A unidade de memória é configurada para armazenar informações de vídeo associadas a uma primeira camada de vídeo que tem uma primeira figuração. O processador é configurado para processar informações de derivação de contagem de ordem de figuração (POC) associadas à primeira figuração e determinar, com base nas informações de derivação de POC associadas à primeira figuração, um valor de POC de pelo menos uma outra figuração na primeira camada de vídeo que precede a primeira figuração em ordem de decodificação. O processador pode codificar ou decodificar as informações de vídeo.

Description

CAMPO DA TÉCNICA
[0001] A presente revelação refere-se ao campo de codificação e compressão de vídeo, particularmente, a codificação de vídeo escalonável (SVC), codificação de vídeo multivistas (MVC) ou codificação de vídeo 3D (3DV).
ANTECEDENTES
[0002] Os recursos de vídeo digitais podem ser incorporados em uma ampla faixa de dispositivos, incluindo televisões digitais, sistemas de difusão direta digital, sistemas de difusão sem fio, assistentes pessoais digitais (PDAs), computadores do tipo laptop ou de mesa, câmeras digitais, dispositivos de gravação digital, reprodutores de mídia digital, dispositivos de video game, consoles de video game, radiotelefone celular ou a satélite, dispositivos de vídeo para teleconferência, e semelhantes. Os dispositivos de vídeo digital implantam técnicas de compressão de vídeo, como as descritas nos padrões definidos por MPEG-2, MPEG-4, ITU-T H.263, ITU-T H.264/MPEG-4, Parte 10, Codificação de Vídeo Avançada (AVC), o padrão de Codificação de Vídeo de Alta Eficiência (HEVC) atualmente em desenvolvimento e extensões de tais padrões. Os dispositivos de vídeo podem transmitir, receber, codificar, decodificar e/ou armazenar informações de vídeo digital de maneira mais eficiente implantando-se tais técnicas de codificação de vídeo.
[0003] As técnicas de compressão de vídeo realizem a previsão espacial (intraimagem) e/ou a previsão temporal (interimagem) para reduzir ou remover a redundância inerente em sequências de vídeo. Para a codificação de vídeo com base em bloco, uma fatia de vídeo (por exemplo, um quadro de vídeo, uma porção de um quadro de vídeo, etc.) pode ser particionada em blocos de vídeo, que também podem ser denominados de blocos em árvore, unidades de codificação (CUs) e/ou nós de codificação. Os blocos de vídeo em uma fatia intracodificada (I) de uma imagem são codificados com o uso de previsão espacial em relação às amostras de referência em blocos próximos na mesma imagem. Os blocos de vídeo em uma fatia intercodificada (P ou B) de uma imagem podem usar previsão espacial em relação a amostras de referência em blocos próximos na mesma imagem ou previsão temporal em relação às amostras de referência em outras figurações de referência. As figurações podem ser denominadas como quadros, e as figurações de referência podem ser denominadas de quadros de referência.
[0004] A previsão espacial ou temporal resulta em um bloco preditivo para um bloco a ser codificado. Os dados residuais representam diferenças de pixel entre o bloco original a ser codificado e o bloco preditivo. Um bloco intercodificado é codificado de acordo com um vetor de movimento que aponta para um bloco de amostras de referência que forma o bloco preditivo, sendo que os dados residuais indicam a diferença entre o bloco codificado e o bloco preditivo. Um bloco intracodificado é codificado de acordo com um modo de intracodificação e os dados residuais. Para compressão adicional, os dados residuais podem ser transformados do domínio de pixel para um domínio de transformada, resultando em coeficientes residuais que podem, em seguida, ser quantizados. O coeficiente de transformada quantizado pode ser disposto inicialmente em uma matriz bidimensional e varrido a fim de produzir um vetor monodimensional de coeficiente de transformada, e a codificação por entropia pode ser aplicada para conseguir ainda mais compressão.
DESCRIÇÃO RESUMIDA
[0005] A codificação de vídeo escalonável (SVC) se refere à codificação de vídeo na qual uma camada-base (BL), ocasionalmente, denominada de camada de referência (RL) e uma ou mais camadas de aprimoramento escalonável (ELs) são usadas. Na SVC, a camada-base pode portar dados de vídeo com um nível-base de qualidade. As uma ou mais camadas de aprimoramento podem portar dados de vídeo adicionais para suportar, por exemplo, níveis espaciais, temporais e/ou de sinal para ruído (SNR) mais altos. As camadas de aprimoramento podem ser definidas em relação a uma camada codificada anteriormente. Por exemplo, uma camada de fundo pode servir como uma BL, ao passo que uma camada de topo pode servir como uma EL. As camadas intermediárias podem servir tanto como ELs como RLs, ou ambos. Por exemplo, uma camada intermediária (por exemplo, uma camada que não é a camada mais inferior tampouco a camada mais superior) pode ser uma EL para as camadas abaixo da camada intermediária, tais como, a camada-base ou quaisquer camadas de aprimoramento intervenientes e, ao mesmo tempo, serve como uma RL para uma ou mais camadas de aprimoramento acima da camada intermediária. De modo semelhante, na extensão Multivistas ou 3D do padrão HEVC, há múltiplas vistas, e as informações de uma vista podem ser utilizadas para codificar (por exemplo, codificar ou decodificar) as informações de outra vista (por exemplo, estimativa de movimento, previsão de vetor de movimento e/ou outras redundâncias).
[0006] Na SVC, uma contagem de ordem de imagem (POC) pode ser usada para indicar a ordem na qual as figurações devem ser emitidas ou exibidas. Adicionalmente, em algumas implantações, o valor da POC pode ser redefinido (por exemplo, definido como zero, definido como algum valor sinalizado no fluxo de bits, ou derivado das informações incluídas no fluxo de bits) toda vez em que determinados tipos de figurações aparecem no fluxo de bits. Por exemplo, quando determinadas figurações de ponto de acesso aleatório aparecem no fluxo de bits, a POC pode ser redefinida. Quando a POC de uma imagem particular é redefinida, as POCs de quaisquer figurações que precedem a imagem particular na ordem de decodificação também podem ser redefinidas, por exemplo, a fim de manter a ordem relativa na qual essas figurações devem ser emitidas ou exibidas.
[0007] Tal redefinição de POC pode acarretar uma consequência indesejada quando não é exigido que as figurações IRAP estejam alinhadas ao longo de diferentes camadas. Por exemplo, quando uma imagem ("picA") for uma imagem IRAP e outra imagem ("picB") na mesma unidade de acesso não for uma imagem IRAP, o valor de POC de uma imagem ("picC") que precede a picA na mesma camada pode ser diferente do valor de POC de uma imagem ("picD") que precede a picB na mesma camada e que está na mesma unidade de acesso da picC, devido ao fato de que o valor de POC da picC é redefinido, pois a picA é uma imagem FRAP, embora o valor de POC da picD não seja redefinido. Isso faz com que a picC e a picD, que estão na mesma unidade de acesso e, por isso, devem ter os mesmos valores de POC, tenham diferentes valores de POC.
[0008] Desse modo, deseja-se um método de codificação melhorado para derivar os valores de POC quando figurações de acesso aleatório não estão alinhadas através de múltiplas camadas.
[0009] Os sistemas, métodos e dispositivos da presente revelação têm, cada um, diversos aspectos inovadores, sendo que nenhum dentre os mesmos é responsável exclusivamente pelos atributos revelados no presente documento.
[0010] Em um aspecto, um aparelho configurado para codificar (por exemplo, codificar ou decodificar) informações de vídeo inclui uma unidade de memória e um processador em comunicação com a unidade de memória. A unidade de memória é configurada para armazenar informações de vídeo associadas a uma primeira camada de vídeo que tem uma primeira imagem. O processador é configurado para processar informações de derivação de contagem de ordem de imagem (POC) associadas à primeira imagem e determinar, com base nas informações de derivação de POC associadas à primeira imagem, um valor de POC de pelo menos uma outra imagem na primeira camada de vídeo que precede a primeira imagem em ordem de decodificação.
[0011] Em outro aspecto, um método para codificar informações de vídeo compreende processar as informações de derivação de contagem de ordem de imagem (POC) associadas a uma primeira imagem em uma primeira camada de vídeo e determinar, com base nas informações de derivação de POC associadas à primeira imagem, um valor de POC de pelo menos uma outra imagem na primeira camada de vídeo que precede a primeira imagem na ordem de decodificação.
[0012] Em outro aspecto, um meio legível por computador não transitório compreende código que, quando executado, faz com que um aparelho realize um processo. O processo inclui armazenar as informações de vídeo associadas a uma primeira camada de vídeo que tem uma primeira imagem, processar as informações de derivação de contagem de ordem de imagem (POC) associadas à primeira imagem e determinar, com base nas informações de derivação de POC associadas à primeira imagem, um valor de POC de pelo menos uma outra imagem na primeira camada de vídeo que precede a primeira imagem na ordem de decodificação.
[0013] Em outro aspecto, um dispositivo de codificação de vídeo configurado para codificar informações de vídeo compreende meios para armazenar as informações de vídeo associadas a uma primeira camada de vídeo que tem uma primeira imagem, meios para processar as informações de derivação de contagem de ordem de imagem (POC) associadas à primeira imagem e meios para determinar, com base nas informações de derivação de POC associadas à primeira imagem, um valor de POC de pelo menos uma outra imagem na primeira camada de vídeo que precede a primeira imagem na ordem de decodificação.
BREVE DESCRIÇÃO DOS DESENHOS
[0014] A Figura 1A é um diagrama de blocos que ilustra um sistema de codificação e decodificação de vídeo exemplificativo que pode utilizar as técnicas em conformidade com os aspectos descritos na presente revelação.
[0015] A Figura 1B é um diagrama de blocos que ilustra outro sistema de codificação e decodificação de vídeo exemplificativo que pode realizar as técnicas, em conformidade com os aspectos descritos na presente revelação.
[0016] A Figura 2A é um diagrama de blocos que ilustra um exemplo de um codificador de vídeo que pode implantar as técnicas em conformidade com os aspectos descritos na presente revelação.
[0017] A Figura 2B é um diagrama de blocos que ilustra um exemplo de um codificador de vídeo que pode implantar as técnicas em conformidade com os aspectos descritos na presente revelação.
[0018] A Figura 3A é um diagrama de blocos que ilustra um exemplo de um decodificador de vídeo que pode implantar as técnicas em conformidade com os aspectos descritos na presente revelação.
[0019] A Figura 3B é um diagrama de blocos que ilustra um exemplo de um decodificador de vídeo que pode implantar as técnicas em conformidade com os aspectos descritos na presente revelação.
[0020] A Figura 4 é um diagrama de blocos que ilustra uma configuração exemplificativa de figurações em diferentes camadas, de acordo com uma modalidade da presente revelação.
[0021] A Figura 5 é uma tabela que ilustra valores de POC de figurações em diferentes camadas, de acordo com uma modalidade da presente revelação.
[0022] A Figura 6 é um diagrama de blocos que ilustra uma configuração exemplificativa de figurações em diferentes camadas, de acordo com uma modalidade da presente revelação.
[0023] A Figura 7 é uma tabela que ilustra valores de POC de figurações em diferentes camadas, de acordo com uma modalidade da presente revelação.
[0024] A Figura 8 é um fluxograma que ilustra um método para codificar informações de vídeo, de acordo com uma modalidade da presente revelação.
[0025] A Figura 9 é um fluxograma que ilustra um método para codificar informações de vídeo, de acordo com uma modalidade da presente revelação.
[0026] A Figura 10 é um fluxograma que ilustra um método para codificar informações de vídeo, de acordo com uma modalidade da presente revelação.
[0027] A Figura 11 é um fluxograma que ilustra um método para codificar informações de vídeo, de acordo com uma modalidade da presente revelação.
[0028] A Figura 12 é um fluxograma que ilustra um método para codificar informações de vídeo, de acordo com uma modalidade da presente revelação.
DESCRIÇÃO DETALHADA
[0029] Determinadas modalidades descritas no presente documento se referem à previsão intercamada para codificação de vídeo escalonável no contexto de codecs de vídeo avançados, tais como, HEVC (Codificação de Vídeo de Alta Eficiência - High Efficiency Video Coding). Mais especificamente, a presente revelação se refere a sistemas e a métodos para o desempenho melhorado da previsão intercamada na extensão codificação de vídeo escalonável (SVC) de HEVC.
[0030] Na descrição abaixo, as técnicas de H.264/AVC relacionadas a determinadas modalidades são descritas; também são discutidos o padrão HEVC e as técnicas relacionadas. Embora determinadas modalidades sejam descritas no presente documento no contexto dos padrões HEVC e/ou H.264, uma pessoa da habilidade comum na técnica pode observar que os sistemas e os métodos revelados no presente documento podem ser aplicáveis a qualquer padrão de codificação de vídeo adequado. Por exemplo, as modalidades reveladas no presente documento podem ser aplicáveis a um ou mais dentre os seguintes padrões: ITU-T H.261, ISO/IEC MPEG-1 Visual, ITU-T H.262 ou ISO/IEC MPEG-2 Visual, ITU-T H.263, ISO/IEC MPEG-4 Visual e ITU-T H.264 (também conhecido como ISO/IEC MPEG-4 AVC), incluindo suas extensões de Codificação de Vídeo Escalonável (SVC) e de Codificação de Vídeo Multivistas (MVC).
[0031] A HEVC segue, geralmente, o enquadramento de padrões de codificação de vídeo anteriores em muitos aspectos. A unidade de previsão em HEVC é diferente daquela em determinados padrões de codificação de vídeo anteriores (por exemplo, macrobloco). De fato, não há conceito de macrobloco em HEVC, conforme entendido em determinados padrões de codificação de vídeo anteriores. O macrobloco é substituído por uma estrutura hierárquica com base em um esquema de árvore quadrática que pode fornecer alta flexibilidade, dentre outros possíveis benefícios. Por exemplo, dentro do esquema de HEVC, são definidos três tipos de blocos, a Unidade de Codificação (CU), a Unidade de Previsão (PU) e a Unidade de Transformada (TU). A CU pode se referir à unidade básica de divisão de região. A CU pode ser considerada análoga ao conceito de macrobloco, porém, a HEVC não restringe o tamanho máximo das CUs e pode permitir a divisão recursiva em quatro CUs de tamanho igual a fim de melhorar a capacidade de adaptação ao conteúdo. A PU pode ser considerada a unidade básica de inter/intraprevisão, e uma única PU pode conter múltiplas partições de formato arbitrário para codificar padrões de imagem irregulares de maneira eficaz. A TU pode ser considerada a unidade básica de transformada. A TU pode ser definida independentemente da PU; no entanto, o tamanho de uma TU pode se limitar ao tamanho da CU à qual a TU pertence. Essa separação da estrutura de bloco em três conceitos diferentes pode permitir que cada unidade seja otimizada de acordo com a função respectiva da unidade, o que pode resultar em eficiência de codificação aprimorada.
[0032] Apenas para propósitos de ilustração, determinadas modalidades reveladas no presente documento são descritas com exemplos que incluem apenas duas camadas (por exemplo, uma camada inferior, tal como, a camada-base e uma camada superior, tal como, a camada de aprimoramento). Deve- se entender que tais exemplos podem ser aplicáveis às configurações incluindo múltiplas camadas-base e/ou de aprimoramento. Além disso, a fim de facilitar a exemplificação, a revelação a seguir inclui os termos "quadros" ou "blocos" com referência a determinadas modalidades. No entanto, esses termos não devem ser limitativos. Por exemplo, as técnicas descritas abaixo podem ser usadas com quaisquer unidades de vídeo, tais como, blocos (por exemplo, CU, PU, TU, macroblocos, etc.), fatias, quadros, etc. PADRÕES DE CODIFICAÇÃO DE VÍDEO
[0033] Uma imagem digital, tal como uma imagem de vídeo, uma imagem de TV, uma imagem estática ou uma imagem gerada por um gravador de vídeo ou um computador, pode consistir em pixels ou em amostras dispostos em linhas horizontais e verticais. O número de pixels em uma única imagem é tipicamente de dezenas de milhares. Cada pixel contém tipicamente informações de luminância e de crominância. Sem compressão, uma vasta quantidade de informações a serem transportadas a partir de um codificador de imagem para um decodificador de imagem torna uma transmissão de imagem em tempo real impossível. A fim de reduzir a quantidade de informações a serem transmitidas, foram desenvolvidos vários métodos de compressão diferentes, tais como, os padrões JPEG, MPEG e H.263.
[0034] Os padrões de codificação de vídeo incluem ITU-T H.261, ISO/IEC MPEG-1 Visual, ITU-T H.262 ou ISO/IEC MPEG-2 Visual, ITU-T H.263, ISO/IEC MPEG-4 Visual e ITU-T H.264 (também chamado de ISO/IEC MPEG-4 AVC), incluindo suas extensões de Codificação de Vídeo Escalonável (SVC) e de Codificação de Vídeo Multivistas (MVC).
[0035] Além disso, um novo padrão de codificação de vídeo, a saber, Codificação de Vídeo de Alta Eficiência (HEVC), está sendo desenvolvido pela Equipe de Colaboração Conjunta em Codificação de Vídeo (JCT-VC) do Grupo de Especialistas de Codificação de Vídeo de ITU-T (VCEG) e do Grupo de Especialistas de Filme Cinematográfico de ISO/IEC (MPEG). A citação completa para o Rascunho de HEVC 10 é o documento JCTVC-L1003, Bross et al, "High Efficiency Video Codification (HEVC) Text Specification Draft 10," Equipe Colaborativa Conjunta em Codificação de Vídeo (JCT-VC - Joint Collaborative Team on Video codificação) da ITU-T SGI 6 WP3 e ISO/IEC JTC1/SC29/WG11, 12a reunião: Geneva, Suíça, 14 de janeiro de 2013 a 23 de janeiro de 2013. A extensão multivistas para HEVC, a saber, MV-HEVC, e a extensão escalonável para HEVC, denominada de SHVC, também estão sendo desenvolvidas pela JCT-3V (Equipe Colaborativa Conjunta em Desenvolvimento de Extensão de Vídeo 3D da ITU-T/ISO/IEC - ITU-T/ISO/IEC Joint Collaborative Team on 3D video coding Extension Development) e pela JCT-VC, respectivamente.
[0036] Vários aspectos dos sistemas, aparelhos e métodos inovadores são descritos mais completamente a partir deste ponto no presente documento com referência aos desenhos anexos. No entanto, a presente revelação pode ser incorporada de várias maneiras diferentes e não deve ser interpretada como limitada a qualquer estrutura ou função específica apresentada ao longo de toda a presente revelação. Em vez disso, esses aspectos são fornecidos de modo que a presente revelação seja minuciosa e completa e transmita plenamente o escopo da revelação para as pessoas versadas na técnica. Com base nos ensinamentos no presente documento, uma pessoa versada na técnica deve observar que o escopo da revelação está destinado a cobrir qualquer aspecto dos sistemas, aparelhos e métodos inovadores revelados no presente documento, sejam os mesmos implantados independentemente ou em combinação com qualquer outro aspecto da revelação. Por exemplo, um aparelho pode ser implantado ou um método pode ser praticado através do uso de qualquer quantidade dos aspectos apresentados no presente documento. Além disso, o escopo da presente revelação está destinado a cobrir tal aparelho ou método que é praticado com o uso de outra estrutura, funcionalidade ou estrutura e funcionalidade adicionalmente ou que não sejam os vários aspectos da presente revelação estabelecidos no presente documento. Deve ser entendido que qualquer aspecto revelado no presente documento pode ser incorporado por um ou mais elementos de uma reivindicação.
[0037] Embora sejam descritos os aspectos particulares no presente documento, muitas variações e permutações desses aspectos são abrangidos pelo escopo da revelação. Embora alguns benefícios e vantagens dos aspectos preferenciais sejam mencionados, o escopo da revelação não está destinado a ser limitado a benefícios, usos ou objetivos particulares. De preferência, os aspectos da revelação destinam-se a ser amplamente aplicáveis a diferentes tecnologias sem fio, configurações de sistema, redes e protocolos de transmissão, dentre os quais alguns são ilustrados a título de exemplo nas Figuras e na descrição a seguir dos aspectos preferenciais. A descrição detalhada e desenhos são meramente ilustrativos da revelação ao invés de limitantes, sendo que o escopo da revelação é definido pelas reivindicações anexas e equivalentes das mesmas.
[0038] Os desenhos ilustram exemplos. Os elementos indicados por numerais de referência nos desenhos anexos correspondem aos elementos indicados por numerais de referência semelhantes na descrição a seguir. Na presente revelação, os elementos que têm nomes que começam com palavras ordinais (por exemplo, "primeiro(a)", "segundo(a)", "terceiro(a)" e assim por diante) não implicam necessariamente que os elementos têm uma ordem particular. De preferência, tais palavras ordinais são suadas apenas para diferenciar os elementos de tipos iguais ou semelhantes.
SISTEMA DE CODIFICAÇÃO DE VÍDEO
[0039] A Figura 1A é um diagrama de blocos que ilustra um sistema de codificação de vídeo exemplificativo que pode utilizar as técnicas em conformidade com os aspectos descritos na presente revelação. Conforme descrito no presente documento, o termo "codificador de vídeo" se refere, genericamente, tanto a codificadores de vídeo quanto a decodificadores de vídeo. Na presente revelação, os termos "codificação de vídeo" ou "codificação" podem se referir, genericamente, à codificação de vídeo e à decodificação de vídeo. Além de codificadores de vídeo e de decodificadores de vídeo, os aspectos descritos no presente pedido podem abranger outros dispositivos relacionados, tais como, transdutores (por exemplo, dispositivos que podem decodificar um fluxo de bits e recodificar outro fluxo de bits) e dispositivos Middlebox (por exemplo, dispositivos que pode modificar, transformar e/ou, de outro modo, manipular um fluxo de bits).
[0040] Conforme mostrado na Figura 1A, o sistema de codificação de vídeo 10 inclui um módulo de origem 12 que gera dados de vídeo codificados a serem decodificados posteriormente por um módulo de destino 14. No exemplo da Figura 1A, o módulo de origem 12 e o módulo de destino 14 estão em dispositivos separados - especificamente, o módulo de origem 12 é parte de um dispositivo de origem, e o módulo de destino 14 é parte de um dispositivo de destino. No entanto, verifica-se que os módulos de origem e de destino 12, 14 podem estar no mesmo dispositivo ou podem ser parte do mesmo, conforme mostrado no exemplo da Figura 1B
[0041] Novamente com referência à Figura 1A, o módulo de origem 12 e o módulo de destino 14 podem compreender qualquer um dentre uma ampla faixa de dispositivos, incluindo computadores de mesa, computadores do tipo notebook (por exemplo, computadores do tipo laptop), computadores do tipo tablet, decodificadores de sinais, aparelhos de telefone, tais como, os então chamados telefones "inteligentes", os então chamados dispositivos do tipo pad "inteligentes", televisões, câmeras, dispositivos de exibição, reprodutores de mídia digital, consoles de video game, dispositivo de transmissão contínua de vídeo, ou semelhantes. Em alguns casos, o módulo de origem 12 e o módulo de destino 14 podem ser equipados para comunicação sem fio.
[0042] O módulo de destino 14 pode receber os dados de vídeo codificados a serem decodificados por meio de um enlace 16. O enlace 16 pode compreender qualquer tipo de mídia ou dispositivo com capacidade para mover os dados de vídeo codificados a partir do módulo de origem 12 para o módulo de destino 14. No exemplo da Figura 1A, o enlace 16 pode compreender um meio de comunicação para possibilitar que o módulo de origem 12 transmita os dados de vídeo codificado diretamente ao módulo de destino 14 em tempo real. Os dados de vídeo codificado podem ser modulados de acordo com um padrão de comunicação, como um protocolo de comunicação sem fio, e transmitidos ao módulo de destino 14. O meio de comunicação pode compreender qualquer meio de comunicação sem fio ou com fio, tal como um espectro de radiofrequência (RF) ou uma ou mais linhas de transmissão físicas. O meio de comunicação pode formar parte de uma rede com base em pacote, tal como uma rede de área local, uma rede de longa distância ou uma rede global, tal como a Internet. O meio de comunicação pode incluir roteadores, comutadores, estações-base ou qualquer outro equipamento que possa ser útil para facilitar a comunicação do dispositivo de origem 12 como o dispositivo de destino 14. Alternativamente, os dados codificados podem ser emitidos de uma interface de saída 22 para um dispositivo de armazenamento opcional 31. De modo semelhante, os dados codificados podem ser acessados a partir do dispositivo de armazenamento pela interface de entrada. O dispositivo de armazenamento 31 pode incluir qualquer uma dentre uma variedade de mídias de armazenamento de dados distribuídas ou acessadas localmente, tal como, um disco rígido, memória flash, memória volátil ou não volátil, ou quaisquer outras mídias de armazenamento digital para armazenar dados de vídeo codificado. Em um exemplo adicional, o dispositivo de armazenamento pode corresponder a um servidor de arquivo ou outro dispositivo de armazenamento intermediário que pode reter o vídeo codificado gerado pelo dispositivo de origem 12. O módulo de destino 14 pode acessar dados de vídeo armazenados a partir do dispositivo de armazenamento por meio de transmissão ou transferência por download. O servidor de arquivo pode ser qualquer tipo de servidor com capacidade para armazenar dados de vídeo codificados e transmitir esses dados de vídeo codificados para o módulo de destino 14. Os servidores de arquivo exemplificativos incluem um servidor web (por exemplo, para um site da web), um servidor FTP, dispositivos de armazenamento anexado à rede (NAS) ou uma unidade de disco local. O módulo de destino 14 pode acessar os dados de vídeo codificado através de qualquer conexão de dados padrão, incluindo uma conexão à Internet. Isso pode incluir um canal sem fio (por exemplo, uma conexão Wi-Fi), uma conexão com fio (por exemplo, DSL, modem a cabo, etc.) ou uma combinação de ambos que seja adequada para acessar dados de vídeo codificado armazenados em um servidor de arquivo. A transmissão de dados de vídeo codificados do dispositivo 31 de armazenamento pode ser uma transmissão contínua, uma transmissão de transferência por download ou uma combinação das mesmas.
[0043] As técnicas da presente revelação não estão necessariamente limitadas às aplicações ou definições sem fio. As técnicas podem ser aplicadas à codificação de vídeo em apoio a qualquer um dentre uma variedade de aplicações de multimídia, tais como, difusões de televisão remotas, transmissões de televisão a cabo, transmissões de televisão a satélite, transmissões contínuas de vídeo, por exemplo, por meio da Internet (por exemplo, transmissão contínua adaptativa dinâmica através de HTTP (DASH), etc.), codificação de vídeo digital para armazenamento em um meio de armazenamento de dados, decodificação de vídeo digital armazenada em um meio de armazenamento de dados, ou outras aplicações. Em alguns exemplos, o sistema de codificação de vídeo 10 pode ser configurado para suportar transmissão de vídeo unidirecional ou bidirecional a fim de suportar aplicações, tais como, transmissão contínua de vídeo, reprodução de vídeo, difusão de vídeo e/ou videotelefonia.
[0044] No exemplo da Figura 1A, o módulo de origem 12 inclui uma fonte de vídeo 18, um codificador de vídeo 20 e uma interface de saída 22. Em alguns casos, a interface de saída 22 pode incluir um modulador/demodulador (modem) e/ou a transmissor. No módulo de origem 12, a fonte de vídeo 18 pode incluir uma fonte, tal como, um dispositivo de captura de vídeo, por exemplo, uma câmera de vídeo, um arquivo de vídeo que contém vídeo capturado anteriormente, uma interface de alimentação de vídeo para receber vídeo de um fornecedor de conteúdo de vídeo e/ou um sistema de computação gráfica para gerar dados de computação gráfica, como o vídeo de origem, ou uma combinação de tais fontes. Por exemplo, caso a fonte de vídeo 18 seja uma câmera de vídeo, o módulo de origem 12 e o módulo de destino 14 podem formar os então chamados telefones com câmera ou videofones, conforme ilustrado no exemplo da Figura 1B. No entanto, as técnicas descritas nesta revelação podem ser aplicáveis à codificação de vídeo em geral e podem ser aplicadas às aplicações com fio e/ou sem fio.
[0045] O vídeo capturado, pré-capturado ou gerado por computador pode ser codificado pelo codificador de vídeo 20. Os dados de vídeo codificados podem ser transmitidos ao módulo de destino 14 por meio da interface de saída 22 do módulo de origem 12. Os dados de vídeo codificados podem também (ou alternativamente) ser armazenados no dispositivo de armazenamento 31 para um acesso posterior pelo módulo de destino 14 ou por outros dispositivos, para decodificação e/ou reprodução. O codificador de vídeo 20 ilustrado nas Figuras 1A e 1B pode compreender o codificador de vídeo 20 ilustrado na Figura 2A, o codificador de vídeo 23 ilustrado na Figura 2B, ou qualquer outro codificador de vídeo descrito no presente documento.
[0046] No exemplo da Figura 1A, o módulo de destino 14 inclui uma interface de entrada 28, um decodificador de vídeo 30 e um dispositivo de exibição 32. Em alguns casos, a interface de entrada 28 pode incluir um receptor e/ou um modem. A interface de entrada 28 do módulo de destino 14 pode receber os dados de vídeo codificados através do enlace 16. Os dados de vídeo codificados comunicados através do enlace 16, ou fornecidos no dispositivo de armazenamento 31, pode incluir uma variedade de elementos de sintaxe gerados pelo codificador de vídeo 20 para uso através de um decodificador de vídeo, tal como, o decodificador de vídeo 30, na decodificação dos dados de vídeo. Tais elementos de sintaxe podem estar incluídos com os dados de vídeo codificados transmitidos em um meio de comunicação, armazenados em um meio de armazenamento ou armazenados em um servidor de arquivo. O decodificador de vídeo 30 ilustrado nas Figuras 1A e 1B pode compreender o decodificador de vídeo 30 ilustrada na Figura 3A, o decodificador de vídeo 33 ilustrado na Figura 3B ou qualquer outro decodificador de vídeo descrito no presente documento.
[0047] O dispositivo de exibição 32 pode ser integrado ao módulo de destino 14, ou pode ser externo ao mesmo. Em alguns exemplos, o módulo de destino 14 pode incluir um dispositivo de exibição integrado e pode ser configurado também para fazer interface com um dispositivo de exibição externo. Em outros exemplos, o módulo de destino 14 pode ser um dispositivo de exibição. Em general, o dispositivo de exibição 32 exibe os dados de vídeo decodificados a um usuário e pode compreende qualquer um dentre uma variedade de dispositivos de exibição, tais como, um visor de cristal líquido (LCD), um visor de plasma, um visor de diodo de emissão de luz orgânico (OLED) ou outro tipo de dispositivo de exibição.
[0048] Em aspectos relacionados, a Figura 1B mostra um sistema de codificação e decodificação de vídeo exemplificativo 10' em que os módulos de origem e de destino 12, 14 estão em um dispositivo ou um dispositivo de usuário 11, ou são parte do mesmo. O dispositivo 11 pode ser um aparelho de telefone, tal como, um telefone "inteligente" ou semelhante. O dispositivo 11 pode incluir um módulo de controlador/processador opcional 13 em comunicação de operação com os módulos de origem e de destino 12, 14. O sistema 10' da Figura 1B pode incluir adicionalmente uma unidade de processamento de vídeo 21 entre o codificador de vídeo 20 e a interface de saída 22. Em algumas implantações, a unidade de processamento de vídeo 21 é uma unidade separada, conforme ilustrado na Figura 1B; no entanto, em outras implantações, a unidade de processamento de vídeo 21 pode ser implantada como uma porção do codificador de vídeo 20 e/ou do módulo de processador/controlador 13. O sistema 10' pode também incluir um rastreador opcional 29, que pode rastrear um objeto de interesse em uma sequência de vídeos. O objeto ou interesse a ser rastreado pode ser segmentado por uma técnica descrita em conexão a um ou mais aspectos da presente revelação. Em aspectos relacionados, o rastreamento pode ser realizado pelo dispositivo de exibição 32, somente ou em combinação com o rastreador 29. O sistema 10' da Figura 1B, e os componentes do mesmo, são, de outro modo, semelhantes ao sistema 10 da Figura. 1A, e aos componentes do mesmo.
[0049] O codificador de vídeo 20 e o decodificador de vídeo 30 podem operar de acordo com um padrão de compressão de vídeo, tal como, um padrão de Codificação de Vídeo de Alta Eficiência (HEVC), e pode se conformar a um Modelo de Teste HEVC (HM). Alternativamente, o codificador de vídeo 20 e o decodificador de vídeo 30 podem operar de acordo com outros padrões de proprietário ou de indústria, como o padrão ITU-T H.264, denominado alternativamente de MPEG-4, Parte 10, Codificação de Vídeo Avançada (AVC), ou extensões de tais padrões. No entanto, as técnicas de uma presente revelação não se limitam a qualquer padrão de codificação particular. Outros exemplos padrões de compressão de vídeo incluem MPEG-2 e ITU-T H.263.
[0050] Embora não mostrado nos exemplos das Figuras 1A e 1B, em alguns aspectos, o codificador de vídeo 20 e o decodificador de vídeo 30 podem ser, cada um, integrados a um codificador e decodificador de áudio, e podem incluir unidades MUX-DEMUX apropriadas, ou outro hardware e software, para lidar com a codificação tanto de áudio quanto de vídeo em uma corrente de dados comum ou correntes de dados separadas. Caso aplicável, em alguns exemplos, as unidades MUX-DEMUX podem se conformar ao protocolo multiplexador ITU H.223, ou outros protocolos como protocolo de datagrama de usuário (UDP).
[0051] O codificador de vídeo 20 e o decodificador de vídeo 30, cada um, podem ser implantados como qualquer um dentre uma variedade de conjunto de circuitos de codificador adequado, como um ou mais microprocessadores, processadores de sinal digital (DSPs), circuitos integrados de aplicação específica (ASICs), matrizes de portal programáveis por campo (FPGAs), lógica discreta, software, hardware, firmware ou quaisquer combinações dos mesmos. Quando as técnicas são implantadas parcialmente em software, um dispositivo pode armazenar instruções para o software em um meio legível por computador não transitório adequado e executar as instruções em hardware com o uso de um ou mais processadores para realizar as técnicas da presente revelação. Cada um dentre o codificador de vídeo 20 e o decodificador de vídeo 30 podem estar incluídos em um ou mais codificadores ou decodificadores, um dos quais pode ser integrado como parte de um codificador/decodificador (CODEC) combinado em um dispositivo respectivo.
PROCESSO DE CODIFICAÇÃO DE VÍDEO
[0052] Conforme mencionado brevemente acima, o codificador de vídeo 20 codifica dados de vídeo. Os dados de vídeo podem compreender uma ou mais figurações. Cada uma dentre as figurações é uma imagem estática que parte de um vídeo. Em alguns exemplos, uma imagem pode ser denominada de "quadro" de vídeo. Quando o codificador de vídeo 20 codifica os dados de vídeo, o codificador de vídeo 20 pode gerar um fluxo de bits. O fluxo de bits pode incluir uma sequência de bits que formam uma representação codificada dos dados de vídeo. O fluxo de bits pode incluir figurações codificadas e dados associados. Uma imagem codificada é uma representação codificada de uma imagem.
[0053] A fim de gerar o fluxo de bits, o codificador de vídeo 20 pode realizar a operação de codificação em cada imagem nos dados de vídeo. Quando o codificador de vídeo 20 realizar as operações de codificação nas figurações, o codificador de vídeo 20 pode gerar uma série de figurações codificadas e de dados associados. Os dados associados podem incluir definições de parâmetro de vídeo (VPS), definições de parâmetro de sequência, imagem definições de parâmetro, definições de parâmetro de adaptação e outras estruturas de sintaxe. Uma definição de parâmetro de sequência (SPS) pode conter parâmetros aplicáveis a zero ou mais sequências de figurações. Uma definição de parâmetro de imagem (PPS) pode conter parâmetros aplicáveis a zero ou mais figurações. Uma definição de parâmetro de adaptação (APS) pode conter parâmetros a zero ou mais figurações. Os parâmetros em uma APS podem ser parâmetros que podem estar mais propensos a mudar do que os parâmetros em uma PPS.
[0054] A fim de gerar uma imagem codificada, o codificador de vídeo 20 pode particionar uma imagem em blocos de vídeo com tamanhos iguais. Um bloco de vídeo pode ser um arranjo bidimensional de amostras. Cada um dentre os blocos de vídeo está associado a um bloco de árvore. Em alguns exemplos, um bloco de árvore pode ser denominado de unidade de codificação maior (LCU). Os blocos de árvores de HEVC podem ser amplamente análogos aos macroblocos de padrões anteriores, tais como, H.264/AVC. No entanto, um bloco de árvore não se limita necessariamente a um tamanho particular e pode incluir uma ou mais unidades de codificação (CUs). O codificador de vídeo 20 pode usar a partição de árvore quadrática para particionar os blocos de vídeo de blocos de árvores em blocos de vídeo associados às CUs, consequentemente, o nome "blocos de árvores."
[0055] Em alguns exemplos, o codificador de vídeo 20 pode particionar uma imagem em uma pluralidade de fatias. Cada uma das fatias pode incluir um número inteiro de CUs. Em alguns exemplos, uma fatia compreende um número inteiro de blocos de árvores. Em outros exemplos, um limite de uma fatia pode estar dentro de um bloco de árvore.
[0056] Como parte da realização de uma operação de codificação em uma imagem, o codificador de vídeo 20 pode realizar as operações de codificação em cada fatia da imagem. Quando o codificador de vídeo 20 realiza uma operação de codificação em uma fatia, o codificador de vídeo 20 pode gerar dados codificados associados à fatia. Os dados codificados associados à fatia podem ser denominados de uma "fatia codificada".
[0057] A fim de gerar uma fatia codificada, o codificador de vídeo 20 pode realizar operações de codificação em cada bloco de árvore em uma fatia. Quando o codificador de vídeo 20 realiza uma operação de codificação em um bloco de árvore, o codificador de vídeo 20 pode gerar um bloco de árvore codificado. O bloco de árvore codificado pode compreender dados que representam uma versão codificada do bloco de árvore.
[0058] Quando o codificador de vídeo 20 gera uma fatia codificada, o codificador de vídeo 20 pode realizar as operações de codificação (por exemplo, codificar) nos blocos de árvores na fatia, de acordo com uma ordem de varredura por rastreio. Por exemplo, o codificador de vídeo 20 pode codificar os blocos de árvores da fatia em que uma ordem que procede da esquerda para a direita ao longo de uma fileira mais superior de blocos de árvores na fatia, em seguida, da esquerda para a direita ao longo de uma próxima fileira inferior de blocos de árvores, e assim por diante até que o codificador de vídeo 20 tenha codificado cada um dos blocos de árvores na fatia.
[0059] Como resultado da codificação dos blocos de árvores de acordo com a ordem de varredura por rastreio, os blocos de árvores acima e à esquerda de um determinado bloco de árvore podem ter sido codificados, porém, os blocos de árvores abaixo e à direita do determinado bloco de árvore ainda não foram codificados. Consequentemente, o codificador de vídeo 20 pode ter capacidade para acessar informações geradas codificando-se os blocos de árvores acima e à esquerda do determinado bloco de árvore durante a codificação do determinado bloco de árvore. No entanto, o codificador de vídeo 20 pode não ter capacidade para acessar as informações geradas codificando-se blocos de árvores abaixo e à direita do determinado bloco de árvore durante a codificação do determinado bloco de árvore.
[0060] A fim de gerar um bloco de árvore codificado, o codificador de vídeo 20 pode realizar recursivamente a partição de árvore quadrática no bloco de vídeo do bloco de árvore para dividir o bloco de vídeo em blocos de vídeo progressivamente menores. Cada um dos blocos de vídeo menores pode ser associado a uma CU diferente. Por exemplo, o codificador de vídeo 20 pode particionar o bloco de vídeo de um bloco de árvore em quatro sub-blocos com tamanhos iguais, particionar um ou mais dentre os sub-blocos em quatro sub-blocos com tamanhos iguais, e assim por diante. Uma CU particionada pode ser uma CU cujo bloco de vídeo é particionado em blocos de vídeo associado a outras CUs. Uma CU não particionada pode ser uma CU cujo bloco de vídeo é particionado em blocos de vídeo associado a outras CUs.
[0061] Um ou mais elementos de sintaxe no fluxo de bits pode indicar um número máximo de vezes que o codificador de vídeo 20 pode particionar o bloco de vídeo de um bloco de árvore. Um bloco de vídeo de um CU pode ter o formato quadrado. O tamanho do bloco de vídeo de uma CU (por exemplo, o tamanho da CU) pode estar em uma faixa de pixels 8x8 até o tamanho de um bloco de vídeo de um bloco de árvore (por exemplo, o tamanho do bloco de árvore) com um máximo de pixels 64x64 ou mais.
[0062] O codificador de vídeo 20 pode realizar as operações de codificação (por exemplo, codificar) em cada CU de um bloco de árvore, de acordo com uma ordem de varredura-z. Em outras palavras, o codificador de vídeo 20 pode codificar uma CU superior à esquerda, uma CU superior à direita, uma CU de fundo à esquerda e, em seguida, uma CU de fundo à direita, nessa ordem. Quando o codificador de vídeo 20 realiza uma operação de codificação em uma CU particionada, o codificador de vídeo 20 pode codificar CUs associadas aos sub-blocos do bloco de vídeo da CU particionada de acordo com a ordem de varredura-z. Em outras palavras, o codificador de vídeo 20 pode codificar uma CU associado a um sub-bloco superior à esquerda, uma CU associada a um sub-bloco superior à direita, um CU associada a um sub-bloco de fundo à esquerda e, em seguida, uma CU associada a um sub-bloco de fundo à direita, nessa ordem.
[0063] Como resultado da codificação das CUs de um bloco de árvore de acordo com uma ordem de varredura-z, as CUs acima, acima e à esquerda, acima e à direita, esquerda e abaixo e à esquerda de uma determinada CU podem ter sido codificadas. As CUs abaixo e à direita da determinada CU ainda não foram codificadas. Consequentemente, o codificador de vídeo 20 pode ter capacidade para acessar as informações gerada codificando-se algumas CUs que circundam a determinada CU durante a codificação da determinada CU. No entanto, o codificador de vídeo 20 pode não ter capacidade para acessar as informações gerada codificando-se outras CUs que circundam a determinada CU durante a codificação da determinada CU.
[0064] Quando o codificador de vídeo 20 codifica uma CU não particionada, o codificador de vídeo 20 pode gerar um ou mais unidades de previsão (PUs) para a CU. Cada uma das PUs da CU pode ser associada a um bloco de vídeo diferente dentro do bloco de vídeo da CU. O codificador de vídeo 20 pode gerar um bloco de vídeo previsto para cada PU da CU. O bloco de vídeo previsto de uma PU pode ser um bloco de amostras. O codificador de vídeo 20 pode usar intraprevisão ou interprevisão para gerar o bloco de vídeo previsto para uma PU.
[0065] Quando o codificador de vídeo 20 usa a intraprevisão para gerar o bloco previsto de uma PU, o codificador de vídeo 20 pode gerar o bloco previsto da PU com base nas amostras decodificadas da imagem associada à PU. Caso o codificador de vídeo 20 use intraprevisão para gerar os blocos de vídeo previstos das PUs de uma CU, a CU é uma CU intraprevista. Quando o codificador de vídeo 20 usa a interprevisão para gerar o bloco previsto da PU, o codificador de vídeo 20 pode gerar o bloco previsto da PU com base nas amostras decodificadas da imagem associada à PU com base em amostras decodificadas de uma ou mais figurações diferentes da imagem associada à PU. Caso o codificador de vídeo 20 use interprevisão para gerar os blocos de vídeo previstos das PUs de uma CU, a CU é uma CU interprevista.
[0066] Adicionalmente, quando o codificador de vídeo 20 usa interprevisão para gerar um bloco de vídeo previsto para um PU, o codificador de vídeo 20 pode gerar informações de movimento para a PU. As informações de movimento para uma PU podem indicar um ou mais blocos de referência da PU. Cada bloco de referência da PU pode ser um bloco de vídeo dentro de uma imagem de referência. A imagem de referência pode ser uma imagem diferente da imagem associada à PU. Em alguns exemplos, um bloco de referência de uma PU também pode ser denominado de "amostra de referência" da PU. O codificador de vídeo 20 pode gerar o bloco de vídeo previsto para a PU com base nos blocos de referência da PU.
[0067] Após o codificador de vídeo 20 gerar os blocos de vídeo previstos para uma ou mais PUs de uma CU, o codificador de vídeo 20 pode gerar dados residuais para a CU com base nos blocos de vídeo previstos para os PUs da CU. Os dados residuais para a CU podem indicar diferenças entre amostras nos blocos de vídeo previstos para as PUs da CU e para o bloco de vídeo original da CU.
[0068] Adicionalmente, como parte da realização de uma operação de codificação em uma CU não particionada, o codificador de vídeo 20 pode realizar a partição de árvore quadrática recursiva nos dados residuais da CU a fim de particionar os dados residuais da CU em um ou mais blocos de dados residuais (por exemplo, blocos de vídeo residuais) associados às unidades de transformada (TUs) da CU. Cada TU de uma CU pode ser associada a um bloco de vídeo residual diferente.
[0069] O codificador de vídeo 20 pode aplicar uma ou mais transformadas aos blocos de vídeo residuais associados às TUs para gerar os blocos de coeficiente de transformada (por exemplo, blocos de coeficientes de transformada) associados às TUs. Conceitualmente, um bloco de coeficiente de transformada pode ser uma matriz bidimensional (2D) de coeficientes de transformada.
[0070] Após gerar um bloco de coeficiente de transformada, o codificador de vídeo 20 pode realizar um processo de quantização no bloco de coeficiente de transformada. Em geral, a quantização se refere a um processo no qual os coeficientes de transformada são quantizados para reduzir possivelmente a quantidade de dados usados para representar os coeficientes de transformada, o que fornece uma compressão adicional. O processo de quantização pode reduzir a profundidade de bit associada ao mesmo coeficiente de transformada ou a todos os coeficientes de transformada. Por exemplo, um coeficiente de transformada de w-bit pode ser arredondado para um coeficiente de transformada de m-bit durante a quantização, em que n é maior que m.
[0071] O codificador de vídeo 20 pode associar cada CU a um valor de parâmetro de quantização (QP). O valor de QP associado a uma CU pode determinar como o codificador de vídeo 20 quantiza os blocos de coeficiente de transformada associados à CU. O codificador de vídeo 20 pode ajustar o grau de quantização aplicado aos blocos de coeficiente de transformada associados a uma CU ajustando-se o valor de QP associados à CU.
[0072] Após o codificador de vídeo 20 quantiza um bloco de coeficiente de transformada, o codificador de vídeo 20 pode gerar definições de elementos de sintaxe que representam os coeficientes de transformada no bloco de coeficiente de transformada quantizado. O codificador de vídeo 20 pode aplicar operações de codificação por entropia, tais como, operações de Codificação Aritmética Binária Adaptativa Ao Contexto (CABAC), a alguns desses elementos de sintaxe. Outras técnicas de codificação por entropia, tais como, codificação de comprimento variável adaptativa ao contexto (CAVLC), codificação por entropia de partição de intervalo de probabilidade (PIPE) ou outra codificação aritmética binária também podem ser usadas.
[0073] O fluxo de bits gerado pelo codificador de vídeo 20 pode incluir uma série de unidades de Camada de Abstração de Rede (NAL). Cada uma das unidades de NAL pode ser uma estrutura de sintaxe que contém uma indicação de um tipo de dados na unidade de NAL e bytes que contêm os dados. Por exemplo, uma unidade de NAL pode conter dados que representam uma definição de parâmetro de vídeo, uma definição de parâmetro de sequência, uma definição de parâmetro de imagem, uma fatia codificada, informações de aprimoramento complementares (SEI), um delimitador de unidade de acesso, dados de preenchimento, ou outro tipo de dados. Os dados em uma unidade de NAL podem incluir várias estruturas de sintaxe.
[0074] O decodificador de vídeo 30 pode receber o fluxo de bits gerado pelo codificador de vídeo 20. O fluxo de bits pode incluir uma representação codificada dos dados de vídeo codificados pelo codificador de vídeo 20. Quando o decodificador de vídeo 30 recebe o fluxo de bits, o decodificador de vídeo 30 pode realizar uma operação de análise no fluxo de bits. Quando o decodificador de vídeo 30 realiza a operação de análise, o decodificador de vídeo 30 pode extrair elementos de sintaxe do fluxo de bits. O decodificador de vídeo 30 pode reconstruir as figurações dos dados de vídeo com base nos elementos de sintaxe extraídos do fluxo de bits. O processo para reconstruir os dados de vídeo com base nos elementos de sintaxe pode ser geralmente recíproco ao processo realizado pelo codificador de vídeo 20 para gerar os elementos de sintaxe.
[0075] Após o decodificador de vídeo 30 extrair os elementos de sintaxe associados a uma CU, o decodificador de vídeo 30 pode gerar os blocos de vídeo previstos para as PUs da CU com base nos elementos de sintaxe. Além disso, o decodificador de vídeo 30 pode quantizar, inversamente, os blocos de coeficiente de transformada associados às TUs da CU. O decodificador de vídeo 30 pode realizar as transformadas inversas nos blocos de coeficiente de transformada a fim de reconstruir os blocos de vídeo residuais associados às TUs da CU. Após gerar os blocos de vídeo previstos e após reconstruir os blocos de vídeo residuais, o decodificador de vídeo 30 pode reconstruir o bloco de vídeo da CU com base nos blocos de vídeo previstos e nos blocos de vídeo residuais. Dessa maneira, o decodificador de vídeo 30 pode reconstruir os blocos de vídeo das CUs com base nos elementos de sintaxe no fluxo de bits.
CODIFICADOR DE VÍDEO
[0076] A Figura 2A é um diagrama de blocos que ilustra um exemplo de um codificador de vídeo que pode implantar as técnicas em conformidade com os aspectos descritos na presente revelação. O codificador de vídeo 20 pode ser configurado para processar uma única camada de um quadro de vídeo, tal como, para HEVC. Além disso, o codificador de vídeo 20 pode ser configurado para realizar qualquer ou todas as técnicas da presente revelação. Por exemplo, a unidade de processamento de previsão 100 pode ser configurada para realizar qualquer ou todas as técnicas descritas na presente revelação. Em outra modalidade, o codificador de vídeo 20 inclui uma unidade de previsão intercamada opcional 128 que é configurada para realizar qualquer ou todas as técnicas descritas na presente revelação. Em outras modalidades, a previsão intercamada pode ser realizada pela unidade de processamento de previsão 100 (por exemplo, a unidade de interprevisão 121 e/ou a unidade de intraprevisão 126), nesse caso a unidade de previsão intercamada 128 pode ser omitida. No entanto, os aspectos da presente revelação não se limitam a isso. Em alguns exemplos, as técnicas descritas na presente revelação podem ser compartilhadas entre os vários componentes de codificador de vídeo 20. Em alguns exemplos, adicional ou alternativamente, um processador (não mostrado) pode ser configurado para realizar qualquer ou todas as técnicas descritas na presente revelação.
[0077] Para propósitos explicativos, a presente revelação descreve o codificador de vídeo 20 no contexto de codificação de HEVC. No entanto, as técnicas da presente revelação podem ser aplicáveis a outros padrões ou métodos de codificação. O exemplo retratado na Figura 2A é para um codec com uma camada. No entanto, conforme será descrito adicionalmente em referência à Figura 2B, alguns ou todos os codificadores de vídeo 20 podem ser duplicados para o processamento de um codec com múltiplas camadas.
[0078] O codificador de vídeo 20 pode realizar a intracodificação e a intercodificação de blocos de vídeo dentro de fatias de vídeo. A intracodificação se baseia na previsão espacial para reduzir ou remover a redundância espacial no vídeo dentro de um determinado quadro de vídeo ou imagem. A intercodificação se baseia na previsão temporal para reduzir ou remover a redundância temporal no vídeo dentro de quadros ou figurações adjacentes de uma sequência de vídeo. O intramodo (modo I) pode se referir a qualquer um dentre vários modos de codificação com base em espaço. Os intermodos, tais como, a previsão unidirecional (modo P) ou a previsão bidirecional (modo B), podem se referir a qualquer um dentre os vários modos de codificação com base em tempo.
[0079] No exemplo da Figura 2A, o codificador de vídeo 20 inclui uma pluralidade de componentes funcionais. Os componentes funcionais de codificador de vídeo 20 incluem uma unidade de processamento de previsão 100, uma unidade de geração residual 102, uma unidade de processamento de transformada 104, uma unidade de quantização 106, uma unidade de quantização inversa 108, uma unidade de transformada inversa 110, uma unidade de reconstrução 112, uma unidade de filtro 113, um armazenamento temporário de imagem decodificada 114 e uma unidade de codificação por entropia 116. A unidade de processamento de previsão 100 incluir uma unidade de interprevisão 121, uma unidade de estimativa de movimento 122, uma unidade de compensação de movimento 124, uma unidade de intraprevisão 126 e uma unidade de previsão intercamada 128. Em outros exemplos, o codificador de vídeo 20 pode incluir mais componentes funcionais, poucos componentes funcionais ou componentes funcionais diferentes. Além disso, a unidade de estimativa de movimento 122 e a unidade de compensação de movimento 124 podem altamente integrada, porém, são representadas no exemplo da Figura 2A separadamente para propósitos explicativos.
[0080] O codificador de vídeo 20 pode receber os dados de vídeo. O codificador de vídeo 20 pode receber os dados de vídeo de várias fontes. Por exemplo, o codificador de vídeo 20 pode receber os dados de vídeo da fonte de vídeo 18 (por exemplo, mostrado na Figura 1A ou 1B) ou outra fonte. Os dados de vídeo podem representa uma série de figurações. A fim de codificar os dados de vídeo, o codificador de vídeo 20 pode realizar uma operação de codificação em cada uma das figurações. Como parte da realização de uma operação de codificação em uma imagem, o codificador de vídeo 20 pode realizar as operações de codificação em cada fatia da imagem. Como parte da realização de uma operação de codificação em uma fatia, o codificador de vídeo 20 pode realizar as operações de codificação em blocos de árvores na fatia.
[0081] Como parte da realização de uma operação de codificação em um bloco de árvore, a unidade de processamento de previsão 100 pode realizar a partição de árvore quadrática no bloco de vídeo do bloco de árvore para dividir o bloco de vídeo em blocos de vídeo progressivamente menores. Cada um dos blocos de vídeo menores pode ser associado a uma CU diferente. Por exemplo, a unidade de processamento de previsão 100 pode particionar um bloco de vídeo de um bloco de árvore em quatro sub-blocos com tamanhos iguais, particionar um ou mais dentre os sub-blocos em quatro sub-sub-blocos com tamanhos iguais, e assim por diante.
[0082] Os tamanhos dos blocos de vídeo associados às CUs podem estar em faixa a partir de amostras 8x8 até o tamanho do bloco de árvore com um máximo de amostras 64x64 ou maior. Na presente revelação, "NxN" e "N por N" podem ser usados de modo intercambiável para se referir às dimensões de amostras de um bloco de vídeo em termos de dimensões horizontal e vertical, por exemplo, amostras 16x16 ou amostras 16 por 16. Em geral, um bloco de vídeo 16x16 tem dezesseis amostras em uma direção vertical (y = 16) e dezesseis amostras em uma direção horizontal (x = 16). De modo semelhante, um bloco NxN tem, em geral, N amostras em uma direção vertical e N amostras em uma direção horizontal, em que N representa um valor de número inteiro não negativo.
[0083] Além disso, como parte da realização da operação de codificação em um bloco de árvore, a unidade de processamento de previsão 100 pode gerar uma estrutura de dados de árvore quadrática hierárquica para o bloco de árvore. Por exemplo, um bloco de árvore pode corresponder a um nó-raiz da estrutura de dados de árvore quadrática. Caso a unidade de processamento de previsão 100 particione o bloco de vídeo do bloco de árvore em quatro sub-blocos, o nó-raiz tem quatro nós-filho na estrutura de dados de árvore quadrática. Cada um dos nós-filho corresponde a uma CU associada a um dentre os sub-blocos. Caso a unidade de processamento de previsão 100 particione um dentre os sub- blocos em quatro sub-blocos, sendo que o nó corresponde à CU associada ao sub-bloco pode ter quatro nós-filho, em que cada um corresponde a uma CU associada a um dentre os sub- sub-blocos.
[0084] Cada nó da estrutura de dados de árvore quadrática pode conter dados de sintaxe (por exemplo, elementos de sintaxe) para o bloco de árvore ou CU correspondente. Por exemplo, um nó na árvore quadrática pode incluir um sinalizador de divisão que indica a possibilidade de o bloco de vídeo da CU corresponde ao nó ser particionado (por exemplo, divido) em quatro sub-blocos. Os elementos de sintaxe para uma CU pode ser definido recursivamente, e podem depender da possibilidade de o bloco de vídeo da CU ser divido em sub-blocos. Uma CU cujo bloco de vídeo não é particionado pode corresponde a um nó-folha na estrutura de dados de árvore quadrática. Um bloco de árvore codificado pode incluir os dados com base na estrutura de dados de árvore quadrática para um bloco de árvore correspondente.
[0085] O codificador de vídeo 20 pode realizar as operações de codificação em cada CU não particionada de um bloco de árvore. Quando o codificador de vídeo 20 realiza uma operação de codificação em uma CU não particionada, o codificador de vídeo 20 gera dados que representam uma representação codificada da CU não particionada.
[0086] Como parte da realização de uma operação de codificação em uma CU, a unidade de processamento de previsão 100 pode particionar o bloco de vídeo da CU dentre uma ou mais PUs da CU. O codificador de vídeo 20 e o decodificador de vídeo 30 podem suportar vários tamanhos de PU. Supondo que o tamanho de uma CU particular é 2Nx2N, o codificador de vídeo 20 e o decodificador de vídeo 30 podem suportar tamanhos de PU de 2Nx2N ou xN e interprevisão em tamanhos simétricos de PU de 2Nx2N, 2NxN, Nx2N, xN, 2NxnU, nLx2N, nRx2N ou semelhantes. O codificador de vídeo 20 e o decodificador de vídeo 30 também podem suportar partição assimétrica para os tamanhos de PU de 2NxnU, 2NxnD, nLx2N e nRx2N. Em alguns exemplos, a unidade de processamento de previsão 100 pode realizar a partição geométrico de modo a particionar o bloco de vídeo de uma CU dentre as PUs da CU ao longo de um limite que não se encontra com os lados do bloco de vídeo da CU em ângulos retos.
[0087] A unidade de interprevisão 121 pode realizar a interprevisão em cada PU da CU. A interprevisão pode fornecer a compressão temporal. A fim de realizar a interprevisão em uma PU, a unidade de estimativa de movimento 122 pode gerar informações de movimento para a PU. A unidade de compensação de movimento 124 pode gerar um bloco de vídeo previsto para a PU com base nas informações de movimento e nas amostras decodificadas de figurações diferentes da imagem associada à CU (por exemplo, figurações de referência). Na presente revelação, um bloco de vídeo previsto gerado pela unidade de compensação de movimento 124 pode ser denominado de um bloco de vídeo interprevisto.
[0088] As fatias podem ser fatias I, fatias P ou fatias B. A unidade de estimativa de movimento 122 e a unidade de compensação de movimento 124 podem realizar diferentes operações para uma PU de uma CU dependendo da possibilidade de a PU estar em uma fatia I, uma fatia P ou uma fatia B. Em uma fatia I, todas as PUs são intraprevistas. Por conseguinte, caso a PU esteja em uma fatia I, a unidade de estimativa de movimento 122 e a unidade de compensação de movimento 124 não realizam a interprevisão na PU.
[0089] Caso a PU esteja em uma fatia P, a imagem que contém a PU está associada a uma lista de figurações de referência denominada de "lista 0". Cada uma das figurações de referência na lista 0 contém amostras que podem ser usadas para a interprevisão de outras figurações. Quando a unidade de estimativa de movimento 122 realiza a operação de estimativa de movimento em relação a uma PU em uma fatia P, a unidade de estimativa de movimento 122 pode buscar nas figurações de referência da lista 0 um bloco de referência para a PU. O bloco de referência da PU pode ser um conjunto de amostras, por exemplo, um bloco de amostras, que correspondem mais proximamente às amostras no bloco de vídeo da PU. A unidade de estimativa de movimento 122 pode usar uma variedade de métricas para determinar o quão próximo um conjunto de amostras em uma imagem de referência corresponde às amostras no bloco de vídeo de uma PU. Por exemplo, a unidade de estimativa de movimento 122 pode determinar o quão próximo um conjunto de amostras em uma imagem de referência corresponde às amostras no bloco de vídeo de uma PU através da soma de diferença absoluta (SAD), soma de diferença quadrática (SSD) ou através de outras métricas de diferença.
[0090] Após identificar um bloco de referência de uma PU em uma fatia P, a unidade de estimativa de movimento 122 pode gerar um índice de referência que indica a imagem de referência na lista 0 que contém o bloco de referência e um vetor de movimento que indica um deslocamento espacial entre a PU e o bloco de referência. Em vários exemplos, a unidade de estimativa de movimento 122 pode gerar vetores de movimento para graus variantes de precisão. Por exemplo, a unidade de estimativa de movimento 122 pode gerar vetores de movimento em precisão de amostra de um quarto, precisão de amostra de um oitavo ou outra precisão de amostra fracionária. No caso de da precisão de amostra fracionária, os valores de bloco de referência podem ser interpolados a partir de valores de amostra de posição de número inteiro na imagem de referência. A unidade de estimativa de movimento 122 pode emitir o índice de referência e o vetor de movimento como as informações de movimento da PU. A unidade de compensação de movimento 124 pode gerar um bloco de vídeo previsto da PU com base no bloco de referência identificado pelas informações de movimento da PU.
[0091] Caso a PU esteja em uma fatia B, a imagem que contém a PU pode ser associada a duas listas de figurações de referência, denominada de "lista 0" e "lista 1". Em alguns exemplos, uma imagem que contém uma fatia B pode ser associada a uma combinação de listas que é uma combinação da lista 0 com a lista 1.
[0092] Além disso, caso a PU esteja em uma fatia B, a unidade de estimativa de movimento 122 pode realizar previsão unidirecional ou a previsão bidirecional para a PU. Quando a unidade de estimativa de movimento 122 realiza a previsão unidirecional para a PU, a unidade de estimativa de movimento 122 pode buscar nas figurações de referência da lista 0 ou da lista 1 um bloco de referência para a PU. Em seguida, a unidade de estimativa de movimento 122 pode gerar um índice de referência que indica imagem de referência na lista 0 ou na lista 1 que contém o bloco de referência e um vetor de movimento que indica um deslocamento espacial entre a PU e o bloco de referência. A unidade de estimativa de movimento 122 pode emitir o índice de referência, um indicador de direção de previsão e o vetor de movimento como as informações de movimento da PU. O indicador de direção de previsão pode indicar se o índice de referência indica uma imagem de referência na lista 0 ou na lista 1. A unidade de compensação de movimento 124 pode gerar o bloco de vídeo previsto da PU com base no bloco de referência indicado pelas informações de movimento da PU.
[0093] Quando a unidade de estimativa de movimento 122 realiza a previsão bidirecional para uma PU, a unidade de estimativa de movimento 122 pode buscar nas figurações de referência da lista 0 um bloco de referência para a PU e pode também buscar nas figurações de referência da lista 1 outro bloco de referência para a PU. Em seguida, a unidade de estimativa de movimento 122 gerar índices de referência que indicam as figurações de referência na lista 0 e na lista 1 que contém os blocos de referência e os vetores de movimento que indicam deslocamentos espaciais entre os blocos de referência e a PU. A unidade de estimativa de movimento 122 pode emitir os índices de referência e os vetores de movimento da PU com as informações de movimento da PU. A unidade de compensação de movimento 124 pode gerar os blocos de vídeo previsto da PU com base no bloco de referência indicado pelas informações de movimento da PU.
[0094] Em alguns exemplos, a unidade de estimativa de movimento 122 não emite um conjunto completo de informações de movimento para uma PU à unidade de codificação por entropia 116. De preferência, a unidade de estimativa de movimento 122 pode sinalizar as informações de movimento de uma PU com referência às informações de movimento de outra PU. Por exemplo, a unidade de estimativa de movimento 122 pode determinar que as informações de movimento da PU são suficientemente semelhantes às informações de movimento de uma PU vizinha. Nesse exemplo, a unidade de estimativa de movimento 122 pode indicar, em uma estrutura de sintaxe associada à PU, um valor que indica para o decodificador de vídeo 30 que a PU tem as mesmas informações de movimento da PU vizinha. Em outro exemplo, a unidade de estimativa de movimento 122 pode identificar, em uma estrutura de sintaxe associada à PU, uma PU vizinha e uma diferença de vetor de movimento (MVD). A diferença de vetor de movimento indica uma diferença entre o vetor de movimento da PU e o vetor de movimento da PU vizinha indicada. O decodificador de vídeo 30 pode usar o vetor de movimento da PU vizinha indicada e a diferença de vetor de movimento para determinar o vetor de movimento da PU. Através da referência das informações de movimento de uma primeira PU, durante a sinalização das informações de movimento de uma segunda PU, o codificador de vídeo 20 pode ter capacidade para sinalizar as informações de movimento da segunda PU como uso de menos bits.
[0095] Conforme discutido adicionalmente abaixo em referência às Figuras 8 a 12, a unidade de processamento de previsão 100 pode ser configurada para codificar (por exemplo, codificar ou decodificar) a PU (ou quaisquer outros blocos de camada de referência e/ou de camada de aprimoramento ou unidades de vídeo) realizando-se os métodos ilustrados nas Figuras 8 a 12. Por exemplo, a unidade de interprevisão 121 (por exemplo, por meio de unidade de estimativa de movimento 122 e/ou unidade de compensação de movimento 124), a unidade de intraprevisão 126 ou a unidade de previsão intercamada 128 pode ser configurada para realizar os métodos ilustrados nas Figuras 8 a 12, tanto juntos como separadamente.
[0096] Como parte da realização de uma operação de codificação em uma CU, a unidade de intraprevisão 126 pode realizar a intraprevisão nas PUs da CU. A intraprevisão pode fornecer compressão espacial. Quando a unidade de intraprevisão 126 realizar a intraprevisão em uma PU, a unidade de intraprevisão 126 pode gerar dados de previsão para a PU com base em amostras decodificadas de outras PUs na mesma imagem. Os dados de previsão para a PU podem incluir um bloco de vídeo previsto e vários elementos de sintaxe. A unidade de intraprevisão 126 pode realizar intraprevisão em PUs em fatias I, fatias P e fatias B.
[0097] A fim de realizar a intraprevisão em uma PU, a unidade de intraprevisão 126 pode usar múltiplos modos de intraprevisão para gerar múltiplos conjuntos de dados de previsão para a PU. Quando a unidade de intraprevisão 126 usa um modo de intraprevisão para gerar um conjunto de dados de previsão para a PU, a unidade de intraprevisão 126 pode estender as amostras dos blocos de vídeo de PUs vizinhas através do bloco de vídeo da PU em uma direção e/ou um gradiente associados ao modo de intraprevisão. As PUs vizinhas podem estar acima, acima e à direita, acima e à esquerda ou à esquerda da PU, assumindo uma ordem de codificação do fundo para o topo e da esquerda para direita para PUs, CU e para blocos de árvore. A unidade de intraprevisão 126 pode usar vários números modos de intraprevisão, por exemplo, 33 modos de intraprevisão direcional, dependendo do tamanho da PU.
[0098] A unidade de processamento de previsão 100 pode selecionar os dados de previsão para uma PU dentre os dados de previsão gerados pela unidade de compensação de movimento 124 para a PU ou os dados de previsão gerados pela unidade de intraprevisão 126 para a PU. Em alguns exemplos, a unidade de processamento de previsão 100 seleciona os dados de previsão para a PU com base nas métricas de taxa/distorção dos conjuntos de dados de previsão.
[0099] Caso a unidade de processamento de previsão 100 selecione os dados de previsão gerados pela unidade de intraprevisão 126, a unidade de processamento de previsão 100 pode sinalizar o modo de intraprevisão que foi usado para gerar os dados de previsão para as PUs, por exemplo, o modo de intraprevisão selecionado. A unidade de processamento de previsão 100 pode sinalizar o modo de intraprevisão selecionado de várias maneiras. Por exemplo, é provável que o modo de intraprevisão selecionado seja igual ao modo de intraprevisão de uma PU vizinha. Em outras palavras, o modo de intraprevisão da PU vizinha pode ser o modo mais provável para a atual PU. Desse modo, a unidade de processamento de previsão 100 pode gerar um elemento de sintaxe a fim de indicar que o modo de intraprevisão selecionado é igual ao modo de intraprevisão da PU vizinha.
[00100] Conforme discutido acima, o codificador de vídeo 20 pode incluir a unidade de previsão intercamada 128. A unidade de previsão intercamada 128 é configurada para prever um bloco atual (por exemplo, um bloco atual na EL) com o uso de uma ou mais camadas diferentes que são disponíveis na SVC (por exemplo, uma camada-base ou de referência). Tal previsão pode ser denominada de previsão intercamada. A unidade de previsão intercamada 128 utiliza os métodos de previsão para reduzir a redundância intercamada, desse modo, aprimorando a eficiência de codificação e reduzindo as exigências de recurso computacional. Alguns exemplos de previsão intercamada incluem intraprevisão intercamada, previsão de moção intercamada e previsão residual intercamada. A intraprevisão intercamada usa a reconstrução de blocos localizados simultaneamente na camada-base para prever o bloco atual na camada de aprimoramento. A previsão de moção intercamada usa as informações de movimento da camada-base para prever o movimento na camada de aprimoramento. A previsão residual intercamada usa o resíduo da camada-base para prever o resíduo da camada de aprimoramento. Cada um dentre os esquemas de previsão intercamada é discutido abaixo mais detalhadamente.
[00101] Após a unidade de processamento de previsão 100 selecionar os dados de previsão para as PUs de uma CU, a unidade de geração residual 102 pode gerar dados residuais para a CU subtraindo-se (por exemplo, indicados pelo sinal de menos) os blocos de vídeo previstos das PUs da CU do bloco de vídeo da CU. Os dados residuais de uma CU podem incluir blocos de vídeo residuais 2D que correspondem a diferentes componentes de amostra das amostras no bloco de vídeo da CU. Por exemplo, os dados residuais podem incluir um bloco de vídeo residual que correspondem às diferenças entre componentes de luminância de amostras nos blocos de vídeo previstos das PUs da CU e os componentes de luminância das amostras no bloco de vídeo original da CU. Além disso, os dados residuais da CU podem incluir blocos de vídeo residuais que correspondem às diferenças entre componentes de crominância das amostras nos blocos de vídeo previstos das PUs da CU e os componentes de crominância das amostras no bloco de vídeo original da CU.
[00102] A unidade de processamento de previsão 100 pode realizar a partição de árvore quadrática a fim de particionar os blocos de vídeo residuais da CU em sub-blocos. Cada bloco de vídeo residual não dividido pode ser associado a uma TU diferente da CU. Os tamanhos e posições dos blocos de vídeo residuais associados às TUs de uma CU podem ou não se basear nos tamanhos e nas posições dos blocos de vídeo associados às PUs da CU. Uma estrutura de árvore quadrática conhecido como uma "árvore quadrática residual" (RQT) pode incluir nós associados a cada um dos blocos de vídeo residuais. As TUs de uma CU podem corresponder aos nós-folha da RQT.
[00103] A unidade de processamento de transformada 104 pode gerar um ou mais blocos de coeficiente de transformada para cada TU de uma CU aplicando-se uma ou mais transformadas a um bloco de vídeo residual associado à TU. Cada um dos blocos de coeficiente de transformada pode ser uma matriz 2D de coeficientes de transformada. A unidade de processamento de transformada 104 pode aplicar várias transformadas ao bloco de vídeo residual associado a uma TU. Por exemplo, a unidade de processamento de transformada 104 pode aplicar uma transformada de cosseno discreta (DCT), uma transformada direcional, ou uma transformada conceitualmente semelhante ao bloco de vídeo residual associado a uma TU.
[00104] Após a unidade de processamento de transformada 104 gerar um bloco de coeficiente de transformada associado a uma TU, a unidade de quantização 106 pode quantizar os coeficientes de transformada no bloco de coeficiente de transformada. A unidade de quantização 106 pode quantizar um bloco de coeficiente de transformada associado a uma TU de uma CU com base em um valor de QP associado à CU.
[00105] O codificador de vídeo 20 pode associar um valor de QP a uma CU de várias maneiras. Por exemplo, o codificador de vídeo 20 pode realizar uma análise de taxa de distorção em um bloco de árvore associado à CU. Na análise de taxa de distorção, o codificador de vídeo 20 pode gerar múltiplas representações codificadas do bloco de árvore realizando-se uma operação de codificação múltiplas vezes no bloco de árvore. O codificador de vídeo 20 pode associar diferentes valores de QP à CU quando o codificador de vídeo 20 gera diferentes representações codificadas do bloco de árvore. O codificador de vídeo 20 pode sinalizar que um determinado valor de QP está associado à CU quando o determinado valor de QP estiver associado à CU em uma representação codificada do bloco de árvore que tem uma métrica de taxa de bits e de distorção mais inferior.
[00106] A unidade de quantização inversa 108 e a unidade de transformada inversa 110 pode aplicar quantização inversa e transformadas inversas ao bloco de coeficiente de transformada, respectivamente, para reconstruir um bloco de vídeo residual a partir do bloco de coeficiente de transformada. A unidade de reconstrução 112 pode adicionar o bloco de vídeo residual reconstruído às amostras correspondentes a partir de um ou mais blocos de vídeo previstos de amostra gerados pela unidade de processamento de previsão 100 para produzir um bloco de vídeo reconstruído associado a uma TU. Através da reconstrução dos blocos de vídeo para cada TU de uma CU, dessa maneira, o codificador de vídeo 20 pode reconstruir o bloco de vídeo da CU.
[00107] Após a unidade de reconstrução 112 reconstruir o bloco de vídeo de uma CU, a unidade de filtro 113 pode realizar uma operação de desblocagem a fim reduzir artefatos de blocagem no bloco de vídeo associado à CU. Após a realização das uma ou mais operações de desblocagem, a unidade de filtro 113 pode armazenar o bloco de vídeo reconstruído da CU no armazenamento temporário de imagem decodificada 114. A unidade de estimativa de movimento 122 e a unidade de compensação de movimento 124 podem usar uma imagem de referência que contém o bloco de vídeo reconstruído para realizar a interprevisão em PUs de figurações subsequentes. Além disso, uma unidade de intraprevisão 126 pode usar blocos de vídeo reconstruídos no armazenamento temporário de imagem decodificada 114 para realizar intraprevisão em outras PUs na mesma imagem como da CU.
[00108] A unidade de codificação por entropia 116 pode receber dados a partir de outros componentes funcionais de codificador de vídeo 20. Por exemplo, a unidade de codificação por entropia 116 pode receber blocos de coeficiente de transformada a partir da unidade de quantização 106 e pode receber elementos de sintaxe a partir da unidade de processamento de previsão 100. Quando a unidade de codificação por entropia 116 recebe os dados, a unidade de codificação por entropia 116 pode realizar um ou mais operações de codificação por entropia de modo a gerar dados codificados por entropia. Por exemplo, o codificador de vídeo 20 pode realizar uma operação de codificação de comprimento variável adaptativa ao contexto (CAVLC), uma operação de CABAC, uma operação de codificação de comprimento varável- em-variável (V2V), uma operação de codificação aritmética binária adaptativa ao contexto com base em sintaxe (SBAC), uma operação de codificação por entropia de partição de intervalo de probabilidade (PIPE), ou outros tipos de operação de codificação por entropia nos dados. A unidade de codificação por entropia 116 pode emitir um fluxo de bits que inclui os dados codificados por entropia.
[00109] Com parte da realização de uma operação de codificação por entropia nos dados, a unidade de codificação por entropia 116 pode selecionar um modelo de contexto. Caso a unidade de codificação por entropia 116 esteja realizando uma operação de CABAC, o modelo de contexto pode indicar estimativas de probabilidades de compartimentos particulares que valores particulares. No contexto de CABAC, o termo "compartimento" é usado para se referir a um bit de uma versão binarizada de um elemento de sintaxe.
CODIFICADOR DE VÍDEO MULTICAMADAS
[00110] A Figura 2B é um diagrama de blocos que ilustra um exemplo de um codificador de vídeo multicamadas que 23 que pode implantar as técnicas em conformidade com os aspectos descritos na presente revelação. O codificador de vídeo 23 pode ser configurado para processar quadros de vídeo multicamadas, tais como, para a codificação SHVC e multivistas. Além disso, o codificador de vídeo 23 pode ser configurado para realizar qualquer ou todas as técnicas da presente revelação.
[00111] O codificador de vídeo 23 inclui um codificador de vídeo 20A e um codificador de vídeo 20B, em que cada um pode ser configurado como o codificador de vídeo 20 e pode realizar as funções descritas acima em relação ao codificador de vídeo 20. Além disso, conforme indicado pela reutilização de numerais de referência, os codificadores de vídeo 20A e 20B podem incluir pelo menos algum dentre os sistemas e subsistemas como o codificador de vídeo 20. Embora o codificador de vídeo 23 seja ilustrado como incluindo dois codificadores de vídeo 20A e 20B, o codificador de vídeo 23 não se limita a isso e pode incluir qualquer número de camadas de codificador de vídeo 20. Em algumas modalidades, o codificador de vídeo 23 pode incluir um codificador de vídeo 20 para cada imagem ou quadro em uma unidade de acesso. Por exemplo, uma unidade de acesso que inclui cinco figurações pode ser processada ou codificada por um codificador de vídeo que inclui cinco camadas de codificador. Em algumas modalidades, o codificador de vídeo 23 pode incluir mais camadas de codificador do que quadros em uma unidade de acesso. Em alguns casos, algumas dentre as camadas de codificador de vídeo pode ser inativa quando o durante o processamento de algumas unidades de acesso.
[00112] Além dos codificadores de vídeo 20A e 20B, o codificador de vídeo 23 pode incluir uma unidade de reamostragem 90. A unidade de reamostragem 90 pode, em alguns casos, aumentar a resolução de uma camada-base de um quadro de vídeo recebido para criar, por exemplo, uma camada de aprimoramento. A unidade de reamostragem 90 pode aumentar uma resolução de informações particulares associadas à camada-base recebida de um quadro, porém, não outras informações. Por exemplo, a unidade de reamostragem 90 pode aumentar a resolução do tamanho espacial ou do número de pixels da camada-base, porém, o número de fatias ou a contagem de ordem de imagem podem permanecer constantes. Em alguns casos, a unidade de reamostragem 90 pode não processar o vídeo recebido e/ou pode ser opcional. Por exemplo, em alguns casos, a unidade de processamento de previsão 100 pode realizar o aumento de resolução. Em algumas modalidades, a unidade de reamostragem 90 é configurada para aumentar a resolução de uma camada e reorganizar, redefinir, modificar ou ajustar uma ou mais fatias de modo a estar em conformidade com um conjunto de regras de limite de fatia e/ou de regras de varredura por rastreio. Embora descrito primariamente como aumento de resolução de uma camada-base, ou de uma camada inferior em uma unidade de acesso, em alguns casos, a unidade de reamostragem 90 pode reduzir a resolução de uma camada. Por exemplo, caso durante a transmissão contínua de uma largura de banda de um vídeo seja reduzida, um quadro pode ter sua resolução diminuída em vez de aumentada.
[00113] A unidade de reamostragem 90 pode ser configurada para receber uma imagem ou quadro (ou informações de imagem associadas à imagem) do armazenamento temporário de imagem decodificada 114 do codificador de camada inferior (por exemplo, o codificador de vídeo 20A) e para aumentar a resolução da imagem (ou das informações de imagem recebidas). Em seguida, essa imagem com resolução aumentada pode ser fornecida à unidade de processamento de previsão 100 de um codificador de camada superior (por exemplo, o codificador de vídeo 20B) configurado para codificar uma imagem na mesma unidade de acesso do codificador de camada inferior. Em alguns casos, o codificador de camada superior é uma camada removida do codificador de camada inferior. Em outros casos, pode haver um ou mais codificadores de camada superiores entre o codificador de vídeo de camada 0 e o codificador de camada 1 da Figura. 2B.
[00114] Em alguns casos, a unidade de reamostragem 90 pode ser omitida ou ignorada. Em tais casos, a imagem do armazenamento temporário de imagem decodificada 114 do codificador de vídeo 20A pode ser fornecido diretamente, ou pelo menos sem ser fornecido à unidade de reamostragem 90, à unidade de processamento de previsão 100 do codificador de vídeo 20B. Por exemplo, caso os dados de vídeo fornecidos ao codificador de vídeo 20B e à imagem de referência do armazenamento temporário de imagem decodificada 114 do codificador de vídeo 20A tenham o mesmo tamanho ou resolução, a imagem de referência pode ser fornecida ao codificador de vídeo 20B sem qualquer reamostragem.
[00115] Em algumas modalidades, o codificador de vídeo 23 reduzir a resolução dos dados de vídeo a serem fornecidos ao codificador de camada inferior com o uso da unidade de redução de resolução 94 antes que os dados de vídeo sejam fornecidos ao codificador de vídeo 20A. Alternativamente, a unidade de redução de resolução 94 pode ser uma unidade de reamostragem 90 com capacidade para aumentar ou reduzir a resolução dos dados de vídeo. Ainda em outras modalidades, a unidade de redução de resolução 94 pode ser omitida.
[00116] Conforme ilustrado na Figura 2B, o codificador de vídeo 23 pode incluir adicionalmente um multiplexador 98, ou mux. O mux 98 pode emitir um fluxo de bits combinados do codificador de vídeo 23. O fluxo de bits combinados pode ser criado tomando-se o fluxo de bits de cada um dentre os codificadores de vídeo 20A e 20B e alternando-se qual fluxo de bits é emitido em um determinado momento. Embora em alguns casos os bits dos dois (ou mais no caso de mais que duas camadas de codificador de vídeo) fluxos de bits possam ser alternados um bit por vez, em muitos casos, os fluxos de bits são combinados diferentemente. Por exemplo, o fluxo de bits de saída pode ser criado alternando- se o fluxo de bits selecionado um bloco por vez. Em outro exemplo, o fluxo de bits de saída pode ser criado emitindo- se uma razão não 1 :1 de blocos de cada um dos codificadores de vídeo 20A e 20B. Por exemplo, dois blocos podem ser emitidos a partir do codificador de vídeo 20B para cada bloco emitido do codificador de vídeo 20A. Em algumas modalidades, o fluxo de saída do mux 98 pode ser programado. Em outras modalidades, o mux 98 pode combinar os fluxos de bits dos codificadores de vídeo 20A, 20B com base em um sinal de controle recebido de um sistema externo ao codificador de vídeo 23, tal como, a partir de um processador em um dispositivo de origem que inclui o módulo de origem 12. O sinal de controle pode ser gerado com base na resolução ou taxa de bits de um vídeo da fonte de vídeo 18, com base em uma largura de banda do enlace 16, com base em uma assinatura associada a um usuário (por exemplo, uma assinatura paga versus uma assinatura gratuita), ou com base em qualquer outro fator para determinar uma saída de resolução desejada do codificador de vídeo 23.
DECODIFICADOR DE VÍDEO
[00117] A Figura 3A é um diagrama de blocos que ilustra um exemplo de um decodificador de vídeo que pode implantar as técnicas em conformidade com os aspectos descritos na presente revelação. O decodificador de vídeo 30 pode ser configurado para processar uma única camada de um quadro de vídeo, tal como, para HEVC. O decodificador de vídeo 30 pode ser configurado para realizar qualquer ou todas as técnicas da presente revelação. Por exemplo, a unidade de compensação de modo 162 e/ou a unidade de intraprevisão 164 podem ser configuradas para realizar qualquer e todas as técnicas descritas na presente revelação. Em uma modalidade, o decodificador de vídeo 30 pode incluir opcionalmente a unidade de previsão intercamada 166 que é configurada para realizar qualquer ou todas as técnicas descritas na presente revelação. Em outras modalidades, a previsão intercamada pode ser realizada pela unidade de processamento de previsão 152 (por exemplo, a unidade de compensação de movimento 162 e/ou a unidade de intraprevisão 164), nesse caso a unidade de previsão intercamada 166 pode ser omitida. No entanto, os aspectos da presente revelação não se limitam a isso. Em alguns exemplos, as técnicas descritas na presente revelação podem ser compartilhadas entre os vários componentes de decodificador de vídeo 30. Em alguns exemplos, adicional ou alternativamente, um processador (não mostrado) pode ser configurado para realizar qualquer ou todas as técnicas descritas na presente revelação.
[00118] Para propósitos explicativos, a presente revelação descreve o decodificador de vídeo 30 no contexto de codificação de HEVC. No entanto, as técnicas da presente revelação podem ser aplicáveis a outros padrões ou métodos de codificação. O exemplo retratado na Figura 3A é para um codec com uma camada. No entanto, conforme será descrito adicionalmente em referência à Figura 3B, alguns ou todos os decodificadores de vídeo 30 podem ser duplicados para o processamento de um codec com múltiplas camadas.
[00119] No exemplo da Figura 3A, o decodificador de vídeo 30 includes a pluralidade de componentes funcionais. Os componentes funcionais do decodificador de vídeo 30 incluem uma unidade de decodificação por entropia 150, uma unidade de processamento de previsão 152, uma unidade de quantização inversa 154, uma unidade de transformada inversa 156, uma unidade de reconstrução 158, uma unidade de filtro 159 e um armazenamento temporário de imagem decodificada 160. A unidade de processamento de previsão 152 inclui uma unidade de compensação de movimento 162, uma unidade de intraprevisão 164 e uma unidade de previsão intercamada 166. Em alguns exemplos, o decodificador de vídeo 30 pode realizar uma passagem de decodificação, em geral, recíproca à passagem de codificação descrita em relação ao codificador de vídeo 20 da Figura 2A. Em outros exemplos, o decodificador de vídeo 30 pode incluir mais componentes funcionais, poucos componentes funcionais ou componentes funcionais diferentes.
[00120] O decodificador de vídeo 30 pode receber um fluxo de bits que compreende dados de vídeo codificados. O fluxo de bits pode incluir uma pluralidade de elementos de sintaxe. Quando o decodificador de vídeo 30 recebe o fluxo de bits, a unidade de decodificação por entropia 150 pode realizar uma operação de análise no fluxo de bits. Como resultado da realização da operação de análise no fluxo de bits, a unidade de decodificação por entropia 150 pode extrair os elementos de sintaxe do fluxo de bits. Como parte da realização da operação de análise, a unidade de decodificação por entropia 150 pode decodificar por entropia os elementos de sintaxe codificados por entropia no fluxo de bits. A unidade de processamento de previsão 152, a unidade de quantização inversa 154, a unidade de transformada inversa 156, a unidade de reconstrução 158 e a unidade de filtro 159 podem realizar uma operação de reconstrução que gera dados de vídeo decodificados com base nos elementos de sintaxe extraídos do fluxo de bits.
[00121] Conforme discutido acima, o fluxo de bits pode compreender uma série de unidades de NAL. As unidades de NAL do fluxo de bits podem incluir unidades de NAL de definição de parâmetro de vídeo, unidades de NAL de definição de parâmetro de sequência, unidades de NAL de definição de parâmetro de imagem, unidades de NAL de SEI, e assim por diante. Como parte da realização da operação de análise no fluxo de bits, a unidade de decodificação por entropia 150 pode realizar operações de análise que extraem e decodificam por entropia as definições de parâmetro de sequência das unidades de NAL de definição de parâmetro de sequência, a imagem definições de parâmetro das unidades de NAL de definição de parâmetro de imagem, os dados de SEI das unidades de NAL de SEI, e assim por diante.
[00122] Além disso, as unidades de NAL do fluxo de bits podem incluir unidades de NAL de fatia codificada. Como parte da realização da operação de análise no fluxo de bits, a unidade de decodificação por entropia 150 pode realizar as operações de análise que extraem e decodificam por entropia as fatias codificadas das unidades de NAL de fatia codificada. Cada uma das fatias codificadas pode incluir um cabeçalho de fatia e dados de fatia. O cabeçalho de fatia pode conter elementos de sintaxe que pertencem a uma fatia. Os elementos de sintaxe no cabeçalho de fatia podem incluir um elemento de sintaxe que identifica uma definição de parâmetro de imagem associada a uma imagem que contém a fatia. A unidade de decodificação por entropia 150 pode realizar operações de decodificação por entropia, tais como, operações de decodificação de CABAC, em elementos de sintaxe no cabeçalho de fatia codificado para recuperar o cabeçalho de fatia.
[00123] Como parte da extração dos dados de fatia das unidades de NAL de fatia codificada, a unidade de decodificação por entropia 150 pode realizar as operações de análise que extraem os elementos de sintaxe das CUs codificadas nos dados de fatia. Os elementos de sintaxe extraídos podem incluir elementos de sintaxe associados aos blocos de coeficiente de transformada. Em seguida, a unidade de decodificação por entropia 150 pode realizar as operações de decodificação de CABAC em alguns dos elementos de sintaxe.
[00124] Após a unidade de decodificação por entropia 150 realizar uma operação de análise em uma CU não particionada, o decodificador de vídeo 30 pode realizar uma operação de reconstrução na CU não particionada. Para realizar a operação de reconstrução em uma CU não particionada, o decodificador de vídeo 30 pode realizar uma operação de reconstrução em cada TU da CU. Através da realização da operação de reconstrução para cada TU da CU, o decodificador de vídeo 30 pode reconstruir um bloco de vídeo residual associado ao CU.
[00125] Como parte da realização de uma operação de reconstrução em uma TU, a unidade de quantização inversa 154 pode quantizar inversamente, por exemplo, dequantizar, um bloco de coeficiente de transformada associado à TU. A unidade de quantização inversa 154 pode quantizar inversamente o bloco de coeficiente de transformada de maneira semelhante aos processos de quantização inversa proposta para HEVC ou definidos pelo padrão de decodificação H.264. A unidade de quantização inversa 154 pode usar um parâmetro de quantização QP calculado pelo codificador de vídeo 20 de modo que uma CU do bloco de coeficiente de transformada determine um grau de quantização e, semelhantemente, um grau de quantização inversa a ser aplicado pela unidade de quantização inversa 154.
[00126] Após a unidade de quantização inversa 154 quantizar inversamente um bloco de coeficiente de transformada, a unidade de transformada inversa 156 pode gerar um bloco de vídeo residual para a TU associada ao bloco de coeficiente de transformada. A unidade de transformada inversa 156 pode aplicar uma transformada inversa ao bloco de coeficiente de transformada a fim de gerar o bloco de vídeo residual para a TU. Por exemplo, a unidade de transformada inversa 156 pode aplicar uma DCT inversa, uma transformada de número inteiro inversa, uma transformada de Karhunen-Loeve inversa (KLT), uma transformada rotacional inversa, uma transformada direcional inversa ou outra transformada inversa ao bloco de coeficiente de transformada. Em alguns exemplos, a unidade de transformada inversa 156 pode determinar que uma transformada inversa se aplique ao bloco de coeficiente de transformada com base na sinalização do codificador de vídeo 20. Em tais exemplos, a unidade de transformada inversa 156 pode determinar a transformada inversa com base em uma transformada sinalizada no nó-raiz de uma árvore quadrática para um bloco de árvore associado ao bloco de coeficiente de transformada. Em outros exemplos, a unidade de transformada inversa 156 pode inferir a transformada inversa a partir de uma ou mais características de codificação, tais como, tamanho de bloco, moo de codificação, ou semelhantes. Em alguns exemplos, a unidade de transformada inversa 156 pode aplicar uma transformada inversa em cascata.
[00127] Em alguns exemplos, a unidade de compensação de movimento 162 pode refinar o bloco de vídeo previsto de uma PU realizando-se interpolação com base em filtros de interpolação. Os identificadores para filtros de interpolação a serem usados para a compensação de movimento com precisão de subamostra podem estar incluídos nos elementos de sintaxe. A unidade de compensação de movimento 162 pode usar os mesmos filtros de interpolação usados pelo codificador de vídeo 20 durante a geração do bloco de vídeo previsto do PU a fim de calcular os valores interpolados para amostras de número abaixo de número inteiro de um bloco de referência. A unidade de compensação de movimento 162 pode determinar os filtros de interpolação usados pelo codificador de vídeo 20 de acordo com as informações de sintaxe recebidas e pode usar os filtros de interpolação de modo a produzir o bloco de vídeo previsto.
[00128] Conforme discutido adicionalmente abaixo em referência às Figuras 8 a 12, a unidade de processamento de previsão 152 pode codificar (por exemplo, codificar ou decodificar) a PU (ou quaisquer outros blocos de camada de referência e/ou de camada de aprimoramento ou unidades de vídeo) realizando-se os métodos ilustrados nas Figuras 8 a 12. Por exemplo, a unidade de compensação de movimento 162, a unidade de intraprevisão 164 ou a unidade de previsão intercamada 166 pode ser configurada para realizar os métodos ilustrados nas Figuras 8 a 12, tanto juntos como separadamente.
[00129] Caso uma PU seja codificada como uso de intraprevisão, a unidade de intraprevisão 164 pode realizar a intraprevisão para gerar um bloco de vídeo previsto para a PU. Por exemplo, a unidade de intraprevisão 164 pode determinar um modo de intraprevisão para a PU com base em elementos de sintaxe no fluxo de bits. O fluxo de bits pode incluir elementos de sintaxe que a unidade de intraprevisão 164 pode usar para determinar o modo de intraprevisão da PU.
[00130] Em alguns exemplos, os elementos de sintaxe podem indicar que a unidade de intraprevisão 164 deve usar o modo de intraprevisão de outra PU para determinar o modo de intraprevisão da atual PU. Por exemplo, é provável que o modo de intraprevisão da atual PU seja igual ao modo de intraprevisão de uma PU vizinha. Em outras palavras, o modo de intraprevisão da PU vizinha pode ser o modo mais provável para a atual PU. Consequentemente, nesse exemplo, o fluxo de bits pode incluir um elemento de sintaxe pequeno que indica que o modo de intraprevisão da PU é igual ao modo de intraprevisão da PU vizinha. Desse modo, a unidade de intraprevisão 164 pode usar o modo de intraprevisão para gerar os dados de previsão (por exemplo, amostras previstas) para o PU com base nos blocos de vídeo de PUs espacialmente vizinhas.
[00131] Conforme discutido acima, l decodificador de vídeo 30 também pode incluir a unidade de previsão intercamada 166. A unidade de previsão intercamada 166 é configurada para prever um bloco atual (por exemplo, um bloco atual na EL) com o uso de uma ou mais camadas diferentes que são disponíveis na SVC (por exemplo, uma camada-base ou de referência). Tal previsão pode ser denominada de previsão intercamada. A unidade de previsão intercamada 166 utiliza métodos de previsão para reduzir a redundância intercamada, desse modo, aprimorando a eficiência de codificação e reduzindo as exigências de recurso computacional. Alguns exemplos de previsão intercamada incluem intraprevisão intercamada, previsão de moção intercamada e previsão residual intercamada. A intraprevisão intercamada usa a reconstrução de blocos localizados simultaneamente na camada-base para prever o bloco atual na camada de aprimoramento. A previsão de moção intercamada usa as informações de movimento da camada-base para prever o movimento na camada de aprimoramento. A previsão residual intercamada usa o resíduo da camada-base para prever o resíduo da camada de aprimoramento. Cada um dentre os esquemas de previsão intercamada é discutido abaixo mais detalhadamente.
[00132] A unidade de reconstrução 158 pode usar os blocos de vídeo residuais associados às TUs de uma CU e os blocos de vídeo previstos das PUs da CU, por exemplo, tanto dados de intraprevisão como dados de interprevisão, conforme aplicável, para reconstruir o bloco de vídeo da CU. Assim, o decodificador de vídeo 30 pode gerar um bloco de vídeo previsto e um bloco de vídeo residual com base em elementos de sintaxe no fluxo de bits e pode gerar um bloco de vídeo com base no bloco de vídeo previsto e no bloco de vídeo residual.
[00133] Após a unidade de reconstrução 158 reconstruir o bloco de vídeo da CU, a unidade de filtro 159 pode realizar uma operação de desblocagem para reduzir os artefatos de blocagem associados à CU. Após a unidade de filtro 159 realizar uma operação de desblocagem para reduzir os artefatos de blocagem associados à CU, o decodificador de vídeo 30 pode armazenar o bloco de vídeo da CU no armazenamento temporário de imagem decodificada 160. O armazenamento temporário de imagem decodificada 160 pode fornecer gravuras de referência para compensação, intraprevisão e apresentação de movimento subsequente em um dispositivo de visor, tal como dispositivo de visor 32 da Figura 1A ou 1B. Por exemplo, o decodificador de vídeo 30 pode realizar, com base nos blocos de vídeo no armazenamento temporário de imagem decodificada 160, operações de intraprevisão ou interprevisão nas PUs ou outras CUs.
DECODIFICADOR MULTICAMADAS
[00134] A Figura 3B é um diagrama de blocos que ilustra um exemplo de um decodificador de vídeo multicamadas que 33 que pode implantar as técnicas em conformidade com os aspectos descritos na presente revelação. O decodificador de vídeo 33 pode ser configurado para processar quadros de vídeo multicamadas, tais como, para a codificação SHVC e multivistas. Além disso, o decodificador de vídeo 33 pode ser configurado para realizar qualquer ou todas as técnicas da presente revelação.
[00135] O decodificador de vídeo 33 inclui um decodificador de vídeo 30A e um decodificador de vídeo 30B, em que cada um pode ser configurado como o decodificador de vídeo 30 e pode realizar as funções descritas acima em relação ao decodificador de vídeo 30. Além disso, conforme indicado pela reutilização de numerais de referência, os decodificadores de vídeo 30A e 30B podem incluir pelo menos algum dentre os sistemas e subsistemas como o decodificador de vídeo 30. Embora o decodificador de vídeo 33 seja ilustrado como inclusivo de dois decodificadores de vídeo 30A e 30B, o decodificador de vídeo 33 não se limita a isso e pode incluir qualquer número de camadas de decodificador de vídeo 30. Em algumas modalidades, o decodificador de vídeo 33 pode incluir um decodificador de vídeo 30 para cada imagem ou quadro em uma unidade de acesso. Por exemplo, uma unidade de acesso que inclui cinco figurações pode ser processada ou decodificada por um decodificador de vídeo que inclui cinco camadas de decodificador. Em algumas modalidades, o decodificador de vídeo 33 pode incluir mais camadas de decodificador do que quadros em uma unidade de acesso. Em alguns casos, algumas dentre as camadas de decodificador de vídeo pode estar inativa quando o durante o processamento de algumas unidades de acesso.
[00136] Além dos decodificadores de vídeo 30A e 30B, o decodificador de vídeo 33 pode incluir uma unidade de aumento de resolução 92. Em algumas modalidades, a unidade de aumento de resolução 92 pode aumentar a resolução de uma camada-base de um quadro de vídeo recebido para criar uma camada aprimorada a ser adicionada à lista de imagem de referência para o quadro ou unidade de acesso. Essa camada aprimorada pode ser armazenada no armazenamento temporário de imagem decodificada 160. Em algumas modalidades, a unidade de aumento de resolução 92 pode incluir algumas ou todas as modalidades descritas em relação à unidade de reamostragem 90 da Figura. 2A. Em algumas modalidades, a unidade de aumento de resolução 92 é configurada para aumentar a resolução de uma camada e reorganizar, redefinir, modificar ou ajustar uma ou mais fatias de modo a estar em conformidade com um conjunto de regras de limite de fatia e/ou de regras de varredura por rastreio. Em alguns casos, a unidade de aumento de resolução 92 pode ser uma unidade de reamostragem configurada para aumentar e/ou reduzir a resolução de uma camada de um quadro de vídeo recebido
[00137] A unidade de aumento de resolução 92 pode ser configurada para receber uma imagem ou quadro (ou informações de imagem associadas à imagem) do armazenamento temporário de imagem decodificada 160 do decodificador de camada inferior (por exemplo, o decodificador de vídeo 30A) e para aumentar a resolução da imagem (ou das informações de imagem recebidas). Em seguida, essa imagem com resolução aumentada pode ser fornecida à unidade de processamento de previsão 152 de um decodificador de camada superior (por exemplo, o decodificador de vídeo 30B) configurado para decodificar uma imagem na mesma unidade de acesso do decodificador de camada inferior. Em alguns casos, o decodificador de camada superior é uma camada removida do decodificador de camada inferior. Em outros casos, pode haver um ou mais decodificadores de camada superior entre o decodificador de camada 0 e o decodificador de camada 1 da Figura. 3B.
[00138] Em alguns casos, a unidade de aumento de resolução 92 pode ser omitida ou ignorada. Em tais casos, a imagem do armazenamento temporário de imagem decodificada 160 do decodificador de vídeo 30A pode ser fornecido diretamente, ou pelo menos sem ser fornecido à unidade de aumento de resolução 92, à unidade de processamento de previsão 152 do decodificador de vídeo 30B. Por exemplo, caso os dados de vídeo fornecidos ao decodificador de vídeo 30B e à imagem de referência do armazenamento temporário de imagem decodificada 160 do decodificador de vídeo 30A tenham o mesmo tamanho ou resolução, a imagem de referência pode ser fornecida ao decodificador de vídeo 30B sem aumento de resolução. Além disso, em algumas modalidades, a unidade de aumento de resolução 92 pode ser uma unidade de reamostragem 90 configurada para aumentar a resolução ou reduzir a resolução de uma imagem de referência recebida do armazenamento temporário de imagem decodificada 160 do decodificador de vídeo 30A.
[00139] Conforme ilustrado na Figura 3B, o decodificador de vídeo 33 pode incluir adicionalmente um demultiplexador 99, ou demux. O demux 99 pode dividir um fluxo de bits de vídeo codificado em múltiplos fluxos de bits, sendo que cada fluxo de bits emitido pelo demux 99 é fornecido a um decodificador de vídeo diferente 30A e 30B. Os múltiplos fluxos de bits podem ser criados recebendo-se um fluxo de bits e cada um dentre os decodificadores de vídeo 30A e 30B recebe uma porção do fluxo de bits em um determinado momento. Embora em alguns casos os bits do fluxo de bits recebidos pelo demux 99 possam ser alternados um bit por vez entre cada um dentre dos decodificadores de vídeo (por exemplo, decodificadores de vídeo 30A e 30B no exemplo da Figura. 3B), em muitos casos, o fluxo de bits é dividido diferentemente. Por exemplo, o fluxo de bits pode ser dividido alternando-se qual decodificador de vídeo recebe o fluxo de bits um bloco por vez. Em outro exemplo, o fluxo de bits pode ser divido por uma razão de não 1:1 de blocos para qual cada um dentre os decodificadores de vídeo 30A e 30B. Por exemplo, dois blocos podem ser fornecidos ao decodificador de vídeo 30B para cada bloco fornecido ao decodificador de vídeo 30A. Em algumas modalidades, a divisão do fluxo de bits pelo demux 99 pode ser programada. Em outras modalidades, o demux 99 pode dividir o fluxo de bits com base em um sinal de controle recebido de um sistema externo ao decodificador de vídeo 33, tal como, de um processador em um dispositivo de destino incluindo o módulo de destino 14. O sinal de controle pode ser gerado com base na resolução ou na taxa de bits da interface de entrada 28, com base em uma largura de banda do enlace 16, com base em uma assinatura associada a um usuário (por exemplo, uma assinatura paga versus uma assinatura gratuita), ou com base em qualquer outro fator para determinar uma saída de resolução obtenível pelo decodificador de vídeo 33.
FIGURAÇÕES INTRAPONTO DE ACESSO ALEATÓRIO (IRAP)
[00140] Alguns esquemas de codificação de vídeo podem fornecer vários pontos de acesso aleatórios por todo o fluxo de bits de modo que o fluxo de bits pode ser decodificado a partir do início de qualquer um desses pontos de acesso aleatórios sem precisar decodificar quaisquer figurações que precedem esses pontos de acesso aleatórios no fluxo de bits. Em tais esquemas de codificação de vídeo, todas as figurações que seguem um ponto de acesso aleatório em ordem de saída (por exemplo, incluindo essas figurações que estão na mesma unidade de acesso como a imagem que fornece o ponto de acesso aleatório) podem ser decodificadas corretamente sem usar quaisquer figurações que precedem o ponto de acesso aleatório. Por exemplo, até mesmo caso uma porção do fluxo de bits seja perdida durante transmissão ou durante decodificação, um decodificador pode continuar a decodificação do fluxo de bits com o início a partir do próximo ponto de acesso aleatório. O suporte para o acesso aleatório pode facilitar, por exemplo, serviços de transmissão contínua dinâmica, operações de busca, comutação de canal, etc.
[00141] Em alguns esquemas de codificação, tais pontos de acesso aleatórios podem ser fornecidos pelas figurações que são denominadas de figurações intraponto de acesso aleatório (IRAP). Por exemplo, um ponto de acesso aleatório (por exemplo, fornecido por uma camada de aprimoramento imagem IRAP) em uma camada de aprimoramento ("camadaA") contida em uma unidade de acesso ("auA") pode fornecer acesso aleatório de camada específica de modo que para cada camada de referência ("camadaB") da camadaA (por exemplo, uma camada de referência que é uma camada que é usada para prever a camadaA) que tem um ponto de acesso aleatório contido em uma unidade de acesso ("auB") que está na camadaB e precede a auA em ordem de decodificação (ou um ponto de acesso aleatório contido na auA) as figurações na camadaA, que seguem a auB em ordem de saída (incluindo as figurações localizadas na auB), sejam corretamente passíveis de decodificação sem precisar decodificar quaisquer figurações na camadaA que precede a auB.
[00142] As figurações IRAP podem ser codificadas com o uso de intraprevisão (por exemplo, codificadas sem se referir a outras figurações) e podem incluir, por exemplo, figurações de atualização de decodificador instantânea (IDR), figurações de acesso aleatório limpo (CRA) e figurações de acesso de enlace rompido (BLA). Quando há uma imagem de IDR no fluxo de bits, todas as figurações que precedem a imagem de IDR em ordem de decodificação não são usadas para previsão pelas figurações que seguem a imagem de IDR em ordem de decodificação. Quando há uma imagem de CRA no fluxo de bits, as figurações que seguem a imagem de CRA podem ou não usar as figurações que precedem a imagem de CRA em ordem de decodificação para a previsão. Essas figurações que seguem a imagem de CRA na ordem de decodificação, porém, usam figurações que precedem a imagem de CRA em ordem de decodificação, podem ser denominadas de figurações esquerdas ignoradas por acesso aleatório (RASL). Outro tipo de imagem que segue uma imagem IRAP em ordem de decodificação e que precede a imagem IRAP em ordem de saída é uma imagem esquerda passível de decodificação por acesso aleatório, que pode não conter referências a quaisquer figurações que precedem a imagem IRAP em ordem de decodificação. As figurações de RASL podem ser descartadas pelo decodificador caso as figurações que precedem a imagem de CRA não estejam disponíveis. Uma imagem de BLA indica para o decodificador que as figurações que precedem a imagem de BLA podem não estar disponíveis ao decodificador (por exemplo, devido ao fato de que dois fluxos de bits são unidos entre si e a imagem de BLA é a primeira imagem do segundo fluxo de bits em ordem de decodificação). Uma unidade de acesso (por exemplo, um grupo de figurações que consiste em todas as figurações codificadas associadas ao mesmo tempo de saída ao longo de camadas) que contém uma imagem de camada-base (por exemplo, a imagem que tem um valor de ID de camada igual a 0) que é uma imagem IRAP pode ser denominada de uma unidade de acesso de IRAP.
ALINHAMENTO DE CAMADA CRUZADA DE FIGURAÇÕES IRAP
[00143] Em SVC, as figurações IRAP podem não estar alinhadas (por exemplo, contidas na mesma unidade de acesso) através de diferentes camadas. Por exemplo, caso tenha sido exigido que as figurações IRAP estejam alinhadas, qualquer unidade de acesso que contém pelo menos uma imagem IRAP contém apenas as figurações IRAP. Por outro lado, caso não tenha sido exigido que as figurações IRAP estejam alinhadas, em uma única unidade de acesso, uma imagem (por exemplo, em uma primeira camada) pode ser uma imagem IRAP, e outra imagem (por exemplo, em uma segunda camada) pode ser uma imagem não IRAP. Ter tais figurações IRAP não alinhadas em um fluxo de bits pode fornecer algumas vantagens. Por exemplo, em um fluxo de bits de duas camadas, caso haja mais figurações IRAP na camada-base do que na camada de aprimoramento, em aplicações de difusão e de difusão seletiva, o baixo atraso de sintonização e a alta eficiência de codificação podem ser alcançados.
[00144] Em alguns esquemas de codificação de vídeo, uma contagem de ordem de imagem (POC) pode ser usada para acompanhar a ordem relativa na qual as figurações decodificadas são exibidas. Alguns dentre tais esquemas de codificação pode fazer com que os valores de POC sejam redefinidos (por exemplo, definidos como zero ou definidos como algum valor sinalizado no fluxo de bits) toda vez que determinados tipos de figurações apareçam no fluxo de bits. Por exemplo, os valores de POC de determinadas figurações IRAP podem ser redefinidos, o que faz com que os valores de POC de outras figurações que precedem essas figurações IRAP em ordem de decodificação também sejam redefinidos. Isso pode ser problemático quando não é exigido que as figurações IRAP não estejam alinhadas através de diferentes camadas. Por exemplo, quando uma imagem ("picA") for uma imagem IRAP, e outra imagem ("picB") na mesma unidade de acesso não for uma imagem IRAP, o valor de POC de uma imagem ("picC"), que é redefinido devido à picA ser uma imagem IRAP na camada que contém a picA, pode ser diferente do valor de POC de uma imagem ("picD"), que não é redefinido, na camada que contém a picB, em que a picC e a picD estão na mesma unidade de acesso. Isso faz com que a picC e a picD tenham diferentes valores de POC embora pertençam à mesma unidade de acesso (por exemplo, mesmo tempo de saída). Desse modo, nesse exemplo, o processo de derivação para derivar os valores de POC da picC e da picD podem ser modificados para produzir os valores de POC que são consistentes com a definição de valores de POC e das unidades acesso.
CONTAGEM DE ORDEM DE IMAGEM (POC)
[00145] Conforme discutido acima, o valor de uma contagem de ordem de imagem (POC) (por exemplo, PicOrderCntVal em HEVC) para uma imagem codificada particular denota a ordem relativa da particular imagem codificada no processo de emissão de imagem em relação a outras figurações na mesma sequência de vídeos codificada. Em algumas modalidades, a POC compreende bits menos significativos (LSB) e bits mais significativos (MSB), e a POC pode ser obtida concatenando-se os MSB e os LSB. Em outras modalidades, uma POC pode ser obtida somando-se o valor de MSB ao valor de LSB. Os LSB podem ser sinalizados no cabeçalho de fatia, e os MSB podem ser computados pelo codificador ou pelo decodificador com base no tipo de unidade de NAL da atual imagem e nos MSB e nos LSB de uma ou mais figurações anteriores em ordem de decodificação que (1) não são figurações de RASL RADL, (2) não são descartáveis (por exemplo, figurações marcadas como "descartável", que indicam que nenhuma outra imagem depende das mesmas, desse modo, permitindo que sejam soltas para satisfazer as restrições de largura de banda), (3) não são figurações de não referência de subcamada (por exemplo, figurações que não usadas para referência por outras figurações na mesma subcamada temporal ou na outra camada), (4) têm ID temporal (por exemplo, ID de subcamada temporal) igual a 0. Tais figurações descritas em (l) a (4) podem ser denominadas no presente documento de figurações âncora de POC. De modo semelhante, as figurações que têm um valor de ID temporal maior que 0, figurações de RASL ou RADL, figurações descartáveis ou figurações de não referência de subcamada podem ser denominadas de figurações não âncora de POC. As figurações âncora de POC podem incluir adicionalmente figurações que um codificador e/ou um decodificador pode não eleger para a remoção do fluxo de bits (por exemplo, a fim de satisfazer uma restrição de largura de banda). As figurações âncora de POC podem incluir adicionalmente qualquer outra imagem além dos tipos de figurações que um codificador e/ou um decodificador podem ser configurados para remover do fluxo de bits (por exemplo, a fim de satisfazer uma restrição de largura de banda). As figurações não âncora de POC podem incluir qualquer imagem que não é uma imagem âncora de POC.
[00146] Quando a atual imagem for (1) uma imagem IRAP com NoRaslOutputFlag (por exemplo, um sinalizador que indica que as figurações de RASL não devem ser emitidas caso definidas como 1 e que indica que as figurações de RASL devem ser emitidas caso definidas como 0) igual a 1 ou (2) uma imagem de CRA que é a primeira imagem do fluxo de bits, infere-se que o valor de POC MSB é igual a 0. Conforme descrito acima, em um fluxo de bits multicamadas (por exemplo, fluxo de bits de SHVC ou MV-HEVC com mais que uma camada), pode haver unidades de acesso (AU) em que uma ou mais figurações são figurações IRAP e uma ou mais outras figurações são figurações de não IRAP, e tais AUs podem ser denominadas de "AUs de IRAP não alinhadas". Durante a decodificação de fluxos de bits que contêm AUs de IRAP não alinhadas, é possível (e provável) que as POCs derivadas com base nos valores de LSB de POC sinalizados no fluxo de bits violem a exigência de conformidade de fluxo de bits de que todas as figurações em uma unidade de acesso devem ter o mesmo valor de POC.
[00147] Em algumas modalidades, um sinalizador de redefinição de POC (por exemplo, um sinalizador de redefinição de POC) pode ser usado para redefinir a POC das figurações de modo que, até mesmo quando as AUs de IRAP não alinhadas estejam presentes no fluxo de bits, o valor de POC da atual imagem e das figurações no DPB esteja ajustado para que a POC de todas as figurações em uma AU seja igual.
[00148] Em algumas modalidades, em vez de um único sinalizador de redefinição de POC, podem ser usados dois sinalizadores: um sinalizador de redefinição de MSB de POC (por exemplo, poc_msb_reset_flag) e um sinalizador de redefinição de LSB de POC (por exemplo, poc_lsb_reset_flag). O anterior (isto é, o poc_msb_reset_flag) redefine os MSB da POC, e o último (isto é, o poc-lsb_reset_flag) redefine os LSB da POC. Ambos esses sinalizadores podem ser sinalizados no cabeçalho de fatia.
[00149] Por exemplo, caso uma imagem particular tenha um valor de POC de 233, e os MSB e os LSB da POC constituam 1 bit e 7 bits, respectivamente, os MSB são "1" (por exemplo, com um valor igual a 128) e os LSB são de "1101001" (por exemplo, com um valor igual a 105). Desse modo, caso apenas os MSB da POC sejam redefinidos (por exemplo, em resposta ao processamento do poc_msb_reset_flag que tem um valor de 1), o valor de POC se torna igual a 105, e caso apenas os LSB sejam redefinidos (por exemplo, em reposta ao processamento do poc_lsb_reset_flag que tem um valor igual a 1), o valor de POC se torna igual a 128. Caso tanto os MSB quanto os LSB sejam redefinidos (por exemplo, em resposta ao processamento do poc_msb_reset_flag e do poc_lsb_reset_flag, em que cada um tem um valor igual a 1), o valor de POC se torna 0.
REDEFINIÇÃO DE VALORES DE POC
[00150] Com referência às Figuras 4 a 7, será descrita a motivação para a redefinição dos valores de POC (por exemplo, dos LSB e dos MSB) nas AUs de IRAP não alinhadas. Conforme descrito acima, em alguns esquemas de codificação, determinadas restrições de conformidade podem especificar que a POC de todas as figurações codificadas em uma única AU devem ser iguais. Sem as redefinições apropriadas dos valores de POC, as AUs de IRAP não alinhadas no fluxo de bits podem produzir valores de POC que violam tais restrições de conformidade.
[00151] A Figura 4 mostra um fluxo de bits multicamadas 400 que inclui uma camada de aprimoramento (EL) 410 e uma camada-base (BL) 420. A EL 410 inclui figurações de EL 412 a 418, e a BL inclui figurações de BL 422 a 428. O fluxo de bits multicamadas 400 inclui adicionalmente unidades de acesso (AUs) 430 a 460. A AU 430 inclui a imagem de EL 412 e a imagem de BL 422, a AU 440 inclui a imagem de EL 414 e a imagem de BL 424, a AU 450 inclui a imagem de EL 416 e a imagem de BL 426 e a AU 460 inclui a imagem de EL 418 e a imagem de BL 428. No exemplo da Figura 4, uma imagem de EL 414 é uma imagem de IDR, e a imagem de BL 424 correspondente na AU 440 é uma imagem direita (por exemplo, a imagem não IRAP) e, consequentemente, a AU 440 é uma AU IRAP não alinhada. Em algumas modalidades, uma redefinição de MSB é realizada em uma determinada imagem caso a imagem seja uma imagem de IDR que não está na camada-base. Tal imagem de IDR pode ter um valor de LSB de POC diferente de zero.
[00152] A Figura 5 mostra uma tabela 500 que ilustra os valores de POC que podem ser sinalizados ou derivados em conexão ao fluxo de bits multicamadas 400 da Figura. 4. Conforme mostrado na Figura 5, os MSB da POC na EL 410 são redefinidos na imagem de EL 414, ao passo que os MSB da POC na BL 420 não são redefinidos. Desse modo, caso uma redefinição não seja realizada na BL 420 na imagem de BL 424 na AU IRAP não alinhada 440, os valores de POC das figurações de BL e as figurações de EL nas AUs 440 a 460 não correspondem (isto é, são equivalentes) conforme especificado pelas restrições de conformidade. As diferenças nos valores de POC com e sem uma redefinição estão destacados em negrito na Figura 5.
[00153] A Figura 6 mostra um fluxo de bits multicamadas 600 que inclui uma camada de aprimoramento (EL) 610 e uma camada-base (BL) 620. A EL 610 inclui as figurações de EL 612 a 618, e a BL inclui figurações de BL 622 a 628. O fluxo de bits multicamadas 600 inclui adicionalmente unidades de acesso (AUs) 630 a 660. A AU 630 inclui a imagem de EL 612 e a imagem de BL 622, a AU 640 inclui a imagem de EL 614 e a imagem de BL 624, a AU 650 inclui a imagem de EL 616 e a imagem de BL 626 e a AU 660 inclui a imagem de EL 618 e a imagem de BL 628. No exemplo da Figura 6, uma imagem de BL 624 é uma imagem de IDR, e a imagem de EL 614 correspondente na AU 640 é uma imagem direita (por exemplo, a imagem não IRAP) e, consequentemente, a AU 640 é uma AU IRAP não alinhada. Em algumas modalidades, uma redefinição de MSB e uma redefinição de LSB são realizadas para uma determinada imagem caso a imagem seja uma imagem de IDR que está na camada-base. Por exemplo, o fluxo de bits pode incluir uma indicação de que os MSB de POC e os LSB de POC de tal imagem de BL de IDR devem ser redefinidos. Alternativamente, o decodificador pode realizar a redefinição dos MSB de POC e dos LSB de POC de tal imagem de BL de IDR sem qualquer indicação no fluxo de bits de que uma redefinição de POC deve ser realizada.
[00154] A Figura 7 mostra uma tabela 700 que ilustra os valores de POC que podem ser sinalizados ou derivados em conexão ao fluxo de bits multicamadas 600 da Figura. 6. Conforme mostrado na Figura 7, os MSB e os LSB da POC na BL 620 são redefinidos na imagem de BL 624, embora os MSB não sejam redefinidos tampouco os LSB da POC na EL 610. Desse modo, caso uma redefinição dos MSB e dos LSB da POC não seja realizada na EL 610 na imagem de EL 614 na AU IRAP não alinhada 640, os valores de POC das figurações de BL e das figurações de EL nas AUs 640 a 660 não correspondem conforme especificado pelas restrições de conformidade. As diferenças nos valores de POC com e sem uma redefinição estão destacados em negrito na Figura 7.
[00155] As modalidades descritas no presente documento não se limitam às configurações de fluxo de bits exemplificativas nas Figuras 4 e 6, e as técnicas descritas no presente documento podem se estender a qualquer fluxo de bits multicamadas que têm qualquer número de camadas, unidades de acesso e figurações. Além disso, nos exemplos ilustrados nas Figuras 4 a 7, o LSB da POC é representado com o uso de sete bits. No entanto, as técnicas descritas no presente documento podem se estender às situações que têm quaisquer formas de representação de valor de POC.
REDEFINIÇÃO DE FIGURAÇÕES PRECEDENTES E PERDA DE FIGURAÇÕES REDEFINIDAS
[00156] Quando uma redefinição de MSB ou uma redefinição de LSB é realizada em uma imagem particular, outras figurações na mesma camada que precedem a imagem particular em ordem de decodificação também são redefinidas com base na redefinição realizada na imagem particular. Por exemplo, no exemplo da Figura. 6, a imagem de EL 614 tem um valor de POC igual a 241 (por exemplo, LSB igual a "1110001" + MSB igual a "1", que é 113 + 128). Quando as redefinições de MSB e de LSB são realizadas na imagem de EL 614, o valor de POC da imagem de EL 614 se torna igual a 0, e a imagem de EL 612 na EL 610, que precede a imagem de EL 614 em ordem de decodificação, também é redefinida com base no original valor de POC de 241 da imagem de EL 614. Por exemplo, o novo valor de POC da imagem de EL 612 é calculado subtraindo-se o valor de POC predefinido da imagem de EL 614 (que é um valor igual a 241) a partir do valor de POC predefinido da imagem de EL 612, que é 240 (por exemplo, LSB igual a "1110000" + MSB igual a "1", que é 112 + 128). Desse modo, após a redefinição, o valor de POC da imagem de EL 612 se torna igual a -1, em conformidade com o fato de que a imagem de EL 612 deve ser emitida antes da imagem de EL 614, em que um valor de POC menor denota uma posição anterior em ordem de saída. Conforme mostrado na Figura 7, os valores de LSB sinalizados para as AUs subsequentes 650 e 660 são ajustadas correspondentemente (por exemplo, como 1 e 2, respectivamente), presumindo-se que a redefinição é realizada que a imagem de EL 614.
[00157] No entanto, até mesmo caso uma redefinição de POC apropriada dos MSB e/ou dos LSB descritos acima seja sinalizada no fluxo de bits (por exemplo, no cabeçalho de fatia) de modo que o decodificador possa processar o sinal e realizar a redefinição de POC correspondentemente, caso a imagem que sinaliza tal redefinição de POC seja perdida durante a transmissão do fluxo de bits ou removida do fluxo de bits a fim de satisfazer as restrições de largura de banda, a redefinição de POC destinada a ser realizada na imagem particular pode não ser realizada apropriadamente.
[00158] Por exemplo, no exemplo da Figura. 6, caso a imagem de EL 614 esteja indisponível ao decodificador, o decodificador não sabe (isto é, não determina) redefinir os MSB e os LSB da POC na EL 610 na AU 640. Consequentemente, os valores de POC de quaisquer figurações que precedem a imagem de EL indisponível 614 em ordem de decodificação ainda teriam seus valores de POC originais predefinidos, visto que a redefinição na imagem de EL 614 nunca ocorreu (isto é, a operação de redefinição não foi realizada). Por outro lado, os valores de POC das figurações que seguem a imagem de EL indisponível 614 em ordem de decodificação teriam sido determinados ou sinalizados como se a redefinição tivesse de fato ocorrido (isto é, a operação de redefinição foi realizada). Desse modo, no exemplo da Figura 7, as figurações de EL 612, 616 e 618 teriam os valores de POC de 240, 1 e 2, respectivamente, que seriam incorretos uma vez que a imagem de EL 612 precede as figurações de EL 616 e 618 em ordem de saída. Portanto, é descrito um método de codificação que resulta em valores corretos de POC, até mesmo quando a imagem que sinaliza a redefinição de POC se torna indisponível.
EXEMPLOS E IMPLANTAÇÕES
[00159] Serão descritos diversos métodos que podem ser usados para tratar determinados problemas descritos acima. Alguns desses métodos podem ser aplicados independentemente e, dentre os mesmos, alguns podem ser aplicados em combinação. Além disso, a sintaxe e a semântica exemplificativas que podem ser usadas para implantar um ou mais métodos descritos no presente documento também são fornecidas abaixo. Quando determinadas porções da especificação de HEVC são reproduzidas a fim de ilustrar as adições e os apagamentos que podem ser incorporados para implantar um ou mais dentre os métodos descritos no presente documento, tais modificações são mostradas em itálico e riscadas, respectivamente.
VALORES DE SINALIZAÇÃO PARA DERIVAÇÃO DE POC
[00160] Em algumas modalidades, uma mensagem de SEI que contém informações para a correta derivação de POC é sinalizada para uma ou mais figurações que seguem a imagem para a qual os MSB de POC e/ou os LSB de POC devem ser redefinidos. Por exemplo, a mensagem de SEI pode estar associada a uma imagem, picA, que segue outra imagem, picB, para a qual os MSB de POC, os LSB de POC, ou ambos, devem ser redefinidos. Desse modo, até mesmo quando a picB é totalmente perdida, a mensagem de SEI associada à picA pode ser usada para derivar os valores corretos de POC para outras figurações na mesma camada.
[00161] Em algumas modalidades, as informações para derivação de POC correta é sinalizada no cabeçalho de fatia de um ou mais figurações que seguem a imagem para a qual os MSB de POC e/ou os LSB de POC devem ser redefinidos. Por exemplo, as informações podem estar incluídas no cabeçalho de fatia de uma imagem picA que segue outra imagem picB para a qual os MSB de POC, os LSB de POC, ou ambos, devem ser redefinidos. Desse modo, até mesmo quando a picB é totalmente perdida, as informações incluídas no cabeçalho de fatia da picA podem ser usadas para derivar os valores corretos de POC para outras figurações na mesma camada.
DERIVAÇÃO DE POC CORRETA COM BASE EM VALORES SINALIZADOS
[00162] A Figura 8 é um fluxograma que ilustra um método 800 para codificar informações de vídeo, de acordo com uma modalidade da presente revelação. As etapas ilustradas na Figura 8 podem ser realizadas por um codificador (por exemplo, o codificador de vídeo, conforme mostrado na Figura 2A ou na Figura 2B), um decodificador (por exemplo, o decodificador de vídeo, conforme mostrado na Figura 3A ou na Figura 3B), ou qualquer outro componente. Para fins de conveniência, o método 800 é descrito como realizado por um codificador, que pode ser codificador, o decodificador ou outro componente.
[00163] O método 800 começa no bloco 801. No bloco 805, o codificador processa as informações de derivação de POC associadas a uma imagem. Em algumas modalidades, o processamento das informações de derivação de POC pode incluir a sinalização das informações de derivação de POC em um fluxo de bits. Conforme descrito acima, as informações de derivação de POC podem ser sinalizadas no cabeçalho de fatia da imagem e/ou sinalizadas como uma mensagem de SEI associada à imagem. Em algumas modalidades, o processamento das informações de derivação de POC pode incluir o processamento das informações de derivação de POC incluídas em um fluxo de bits. Por exemplo, as informações de derivação de POC podem incluir: um tipo de redefinição de POC que indica se o valor de POC da imagem de redefinição de POC precedente (por exemplo, uma imagem na qual uma redefinição de POC deve ser realizada) na mesma camada deve ser redefinido através da redefinição tanto dos bits mais significativos (MSB) quanto dos bits menos significativos (LSB) do valor de POC ou através da redefinição apenas dos MSB do valor de POC; um valor de redefinição de POC que indica o valor de POC da imagem que foi perdido ou removido que também precede a imagem à qual as informações de derivação de POC estão associadas; e uma ID de redefinição de POC que identifica a redefinição de POC para a qual as informações de derivação de POC são fornecidas. Por exemplo, o decodificador pode ignorar uma redefinição de POC sinalizada em conexão a uma imagem particular caso a redefinição de POC sinalizada tenha um valor de ID de redefinição de POC igual a 1, e outra redefinição de POC que tem uma ID de redefinição de POC igual a 1 já foi realizada.
[00164] No bloco 810, o codificador determina a POC de outra imagem que precede a imagem em ordem de decodificação. No exemplo mostrado na Figura 7, até mesmo caso a imagem de EL 614 que contém a instrução de redefinição de valor de POC seja perdida ou, de outro modo, removida, o valor de POC da imagem de EL 612 é redefinido corretamente com o uso das informações de derivação de POC, por exemplo, associadas às figurações de EL 616 e/ou 618. O método 800 termina em 815.
[00165] Conforme discutido acima, um ou mais componentes de codificador de vídeo 20 da Figura 2A, codificador de vídeo 23 da Figura 2B, decodificador de vídeo 30 da Figura 3A ou o decodificador de vídeo 33 da Figura 3B (por exemplo, unidade de previsão intercamada 128 e/ou unidade de previsão intercamada 166) podem ser usados para implantar qualquer uma dentre as técnicas discutidas na presente revelação, tal como, processar as informações de derivação de POC associadas a uma ou mais figurações e determinar a POC de outra imagem que precede as uma ou mais figurações em ordem de decodificação.
DESABILITAÇÃO DA REDEFINIÇÃO DE POC NAS FIGURAÇÕES NÃO ÂNCORA DE POC
[00166] Em algumas modalidades, uma restrição de conformidade pode ser aplicada (por exemplo, uma restrição de conformidade pode ser determinada como aplicável e, em seguida, aderida com base na realização da(s) operação(ões)), por exemplo por um codificador, ao fluxo de bits de modo que nem o valor de poc_lsb_reset_flag tampouco o valor de poc_msb_reset_flag sejam definidos igual a 1 quando o segmento de fatia pertence a uma imagem que não é uma imagem âncora de POC. Conforme descrito acima, tal imagem pode ser uma imagem de não referência de subcamada, uma imagem descartável, uma imagem de RASL, uma imagem de RADL ou uma imagem que tem uma ID temporal maior que 0. Por exemplo, a imagem de não referência de subcamada pode se referir a uma imagem que não é usada para referência por outras figurações da camada temporal mais alta. A imagem descartável pode se referir a uma imagem que não é usada para referência por qualquer outra imagem. Por exemplo, tais figurações descartáveis podem ser marcadas como "descartável". Tais figurações descartáveis podem ser removidas do fluxo de bits pelo codificador ou pelo decodificador a fim de satisfazer as restrições de largura de banda. Em algumas modalidades, uma imagem descartável inclui qualquer imagem que pode ser removida do fluxo de bits por escolha (por exemplo, pelo decodificador ou por algum dispositivo Middlebox). As figurações de RASL e de RADL se referem às figurações esquerdas, e as figurações de RASL podem não ser emitidas caso o processo de decodificação se inicie na imagem IRAP associada à imagem de RASL. A imagem que tem uma ID temporal maior que 0 pode ser uma imagem que pode ser removida do fluxo de bits caso a taxa de quadros seja decrescida a um valor suficientemente baixo. Por exemplo, caso um fluxo de bits contenha três subcamadas temporais, as figurações de todas as três subcamadas temporais podem ser exibidas a fim de operar em 90 quadros por segundo (fps), as figurações das duas subcamadas temporais inferiores podem ser exibidas a fim de operar em 60 fps, e as figurações da subcamada temporal mais inferior pode ser exibida a fim de operar em 30 fps. Conforme discutido acima, as restrições de fluxo de bits ou outras restrições de desempenho podem fazer com que uma ou mais figurações sejam removidas ou soltas do fluxo de bits (por exemplo, um codificador pode avaliar tais restrições e, com base nessa avaliação, realizar as operações em conformidade com as restrições de modo seja feito com que uma ou mais figurações sejam removidas do fluxo de bits ou soltas do fluxo de bits) e, nesse exemplo, as figurações da subcamada temporal mais alta pode ser removida antes de remover as figurações da próxima subcamada temporal mais alta, e assim por diante. Por exemplo, as figurações na subcamada temporal mais inferior podem ser não ser removidas do fluxo de bits até que as figurações em todas as outras subcamadas temporais sejam removidas. Desse modo, as figurações que têm uma ID temporal maior que 0 (em que uma ID temporal igual a 0 corresponde à subcamada temporal mais inferior) estão mais propensas a serem removidas do fluxo de bits.
[00167] Conforme descrito no presente documento, essas figurações (por exemplo, uma imagem de não referência de subcamada, uma imagem descartável, uma imagem de RASL, uma imagem de RADL, uma imagem que tem uma ID temporal maior que 0, e semelhantes) podem ser denominadas de figurações não âncora de POC. Em algumas modalidades, devido ao fato de que essas figurações estão mais propensas a ser removidas do fluxo de bits (por exemplo, para satisfazer determinadas restrições de largura de banda), uma restrição que especifica que essas figurações não podem acionar uma redefinição de POC pode ser introduzida a fim de reduzir a probabilidade de uma imagem de redefinição de POC ser removida do fluxo de bits. Por exemplo, caso não seja permitido que uma imagem descartável acione uma redefinição de POC (por exemplo, sinalizando-se uma redefinição de MSB de POC, uma redefinição de LSB de POC, ou ambos), até mesmo caso a imagem descartável seja descartada, a indisponibilidade dessa imagem descartável ao decodificador não resulta nos problemas descritas acima em relação às redefinições de POC.
[00168] Em algumas modalidades, o codificador pode determinar que uma redefinição de POC deve ser sinalizado em conexão a uma imagem particular, subsequentemente, determinar que a imagem particular é uma imagem de não referência de subcamada, uma imagem descartável, uma imagem de RASL, uma imagem de RADL, uma imagem que tem uma ID temporal maior que 0 ou uma imagem que, de outro modo, é propenso a ser removido do fluxo de bits a, desse modo, e abster-se da sinalização de uma redefinição de POC na imagem particular ou sinalizar que uma redefinição de POC não deve ser realizada na imagem particular. Em algumas modalidades, o codificador pode determinar que uma redefinição de POC deve ser sinalizada em conexão a uma imagem particular e, subsequentemente, impedir que a imagem particular seja uma imagem não âncora de POC (por exemplo, impedindo-se que a imagem particular tenha determinados tipos de imagem). Em algumas modalidades, a determinação da possibilidade de uma redefinição de POC dever ser realizada na imagem particular pode se basear pelo menos parcialmente na possibilidade de a imagem particular ser uma imagem de não referência de subcamada, uma imagem descartável, uma imagem de RASL, uma imagem de RADL, uma imagem que tem uma ID temporal maior que 0 ou uma imagem que, de outro modo, é propensa a ser removida do fluxo de bits. Em tais modalidades, caso a imagem particular não seja uma imagem âncora de POC, o codificador indica no fluxo de bits que a redefinição de POC não deve ser realizada na imagem particular. Alternativamente, o codificador pode simplesmente não fornecer qualquer indicação no fluxo de bits de que uma redefinição de POC deve ser realizada na imagem particular. De modo semelhante, caso a imagem particular seja uma imagem âncora de POC, o codificador, caso uma redefinição de POC seja determinada como necessária na imagem particular, indica no fluxo de bits que a redefinição de POC deve ser realizada na imagem particular. Alternativamente, o codificador pode simplesmente não fornecer qualquer indicação no fluxo de bits de que a redefinição de POC não deve ser realizada ou de que a redefinição de POC não deve ser realizada na imagem particular.
DESABILITAÇÃO DA REDEFINIÇÃO DE POC NAS FIGURAÇÕES NÃO ÂNCORA DE POC
[00169] A Figura 9 é um fluxograma que ilustra um método 900 para codificar informações de vídeo, de acordo com uma modalidade da presente revelação. As etapas ilustradas na Figura 9 podem ser realizadas por um codificador (por exemplo, o codificador de vídeo, conforme mostrado na Figura 2A ou na Figura 2B), um decodificador (por exemplo, o decodificador de vídeo, conforme mostrado na Figura 3A ou na Figura 3B), ou qualquer outro componente. Para fins de conveniência, o método 900 é descrito como realizado por um codificador, que pode ser codificador, o decodificador ou outro componente.
[00170] O método 900 começa no bloco 901. No bloco 905, o codificador determinada a possibilidade de uma imagem ser uma imagem âncora de POC. Por exemplo, as figurações âncora de POC pode incluir quaisquer que: (1) não são figurações de RASL ou RADL, (2) não são descartáveis (por exemplo, figurações marcadas como as "descartável", o que indica que nenhuma outra imagem depende das mesmas, desse modo, permitindo que sejam soltas para satisfazer as restrições de largura de banda), (3) não são figurações de não referência de subcamada (por exemplo, figurações que não são usadas para referência por outras figurações em camadas temporais mais altas), (4) têm uma ID temporal (por exemplo, ID de subcamada temporal) igual a 0 e/ou (5) qualquer outra imagem que, de outro modo, está propensa a ser removida do fluxo de bits. Caso o codificador determine que a imagem não seja uma imagem âncora de POC, o método 900 procede para 910. Por outro lado, caso o codificador determine que a imagem seja uma imagem âncora de POC, o método 900 procede para 915.
[00171] No bloco 910, p codificador sinalizar para a imagem que a redefinição de POC não deve ser realizada na imagem. Por exemplo, o codificador pode sinalizar um ou mais sinalizadores que indicam que nem a redefinição de LSB de POC tampouco a redefinição de MSB de POC devem ser realizadas em conexão à imagem. Em algumas modalidades, o codificador pode não sinalizar ou, de outro modo, fornecer qualquer indicação no fluxo de bits de que uma redefinição de POC deve ser realizada na imagem. Por exemplo, durante o processo de decodificação, caso nenhum sinal ou indicação que indica que uma redefinição de POC deve ser realizada seja fornecido no fluxo de bits, o decodificador pode não realizar uma redefinição de POC na imagem.
[00172] No bloco 915, o codificador sinaliza uma redefinição de POC para a imagem. Por exemplo, o codificador pode sinalizar um ou mais sinalizadores no fluxo de bits que indicam que uma redefinição de LSB de POC, uma redefinição de MSB de POC, ou ambas, deva ser realizada. Em algumas modalidades, o codificador pode não sinalizar ou, de outro modo, fornecer qualquer indicação no fluxo de bits de que uma redefinição de POC não deve ser realizada na imagem. Por exemplo, durante o processo de decodificação, o decodificador pode inferir ou determinar a partir de outros sinais ou indicações no fluxo de bits que uma redefinição de POC não deve ser realizada e que nenhum sinal ou indicação que desabilitam a redefinição de POC é fornecido no fluxo de bits, o decodificador deve realizar a redefinição de POC conforme inferido ou determinado. O método 900 termina em 920.
[00173] Conforme discutido acima, um ou mais componentes de codificador de vídeo 20 da Figura 2A, codificador de vídeo 23 da Figura 2B, decodificador de vídeo 30 da Figura 3A ou o decodificador de vídeo 33 da Figura 3B (por exemplo, a unidade de previsão intercamada 128 e/ou a unidade de previsão intercamada 166) pode ser usada para implantar qualquer uma das técnicas discutidas na presente revelação, tal como, determinar a possibilidade de uma imagem ser uma imagem âncora de POC, habilitar uma redefinição de POC, desabilitar uma redefinição de POC, fornecer uma indicação no fluxo de bits de que uma redefinição de POC deve ser realizada e fornecer uma indicação no fluxo de bits de que uma redefinição de POC não deve ser realizada.
[00174] No método 900, um ou mais dentre os blocos mostrados na Figura 9 podem ser removidos (por exemplo, não realizados) e/ou a ordem na qual o método é realizado pode trocada. Por exemplo, embora o bloco 910 seja mostrado na Figura 9, o bloco 910 pode ser removido, e o método 900 pode terminar sem realizar quaisquer operações adicionais caso o codificador determine que a imagem não seja uma imagem âncora de POC. Alternativamente, o bloco 915 pode ser removido, e o método 900 pode terminar sem realizar quaisquer operações adicionais caso o codificador determine que a imagem seja uma imagem âncora de POC. Desse modo, as modalidades da presente revelação não se limitam ao exemplo mostrado na Figura 9, e outras variações podem ser implantadas sem se afastar do espírito da presente revelação.
FIGURAÇÕES IRAP EM AU IRAP NÃO ALINHADA
[00175] Em algumas modalidades, uma restrição de conformidade pode ser aplicada ao fluxo de bits de modo que quando uma unidade de acesso contém pelo menos uma imagem que é uma imagem IRAP com NoRaslOutputFlag igual a 1, uma redefinição de MSB de POC (por exemplo, MSB da POC) deve ser realizada para todas as figurações na unidade de acesso que não são figurações IRAP. Em tais modalidades, o poc_msb_reset_flag associado às figurações de não IRAP pode ser definido como 1 (por exemplo, indicando que uma redefinição de MSB de POC deve ser realizada em tais figurações de não IRAP). Por exemplo, caso a imagem A seja uma imagem IRAP em uma unidade de acesso que segue imediatamente um ponto de união (por exemplo, indicado pelo valor de NoRaslOutputFlag igual a 1), e a imagem B que está na mesma unidade de acesso da imagem A é uma imagem não IRAP, uma redefinição de MSB de POC pode ser sinalizada no fluxo de bits para a imagem B.
[00176] A Figura 10 é um fluxograma que ilustra um método 1000 para codificar informações de vídeo, de acordo com uma modalidade da presente revelação. As etapas ilustradas na Figura 10 podem ser realizadas por um codificador (por exemplo, o codificador de vídeo, conforme mostrado na Figura 2A ou na Figura 2B), um decodificador (por exemplo, o decodificador de vídeo, conforme mostrado na Figura 3A ou na Figura 3B), ou qualquer outro componente.
[00177] Para fins de conveniência, o método 1000 é descrito como realizado por um codificador, que pode ser codificador, o decodificador ou outro componente.
[00178] O método 1000 começa no bloco 1001. No bloco 1005, o codificador determina a possibilidade de uma imagem ser uma imagem FRAP. Conforme descrito acima, em algumas modalidades, uma imagem IRAP pode ser uma imagem de IDR, uma imagem de CRA ou uma imagem de BLA. Em algumas modalidades, o codificador pode determinar adicionalmente, com base em informações incluídas no fluxo de bits, a possibilidade de a imagem estar em uma unidade de acesso que segue imediatamente um ponto de união. Em algumas modalidades, o codificador pode determinar adicionalmente, em vez de determinar a possibilidade de a imagem estar em uma unidade de acesso que segue imediatamente um ponto de união, determinar se as figurações que precedem a imagem em ordem de decodificação devem ser emitidas. Por exemplo, a possibilidade de a imagem estar em uma unidade de acesso que segue imediatamente um ponto de união ou se as figurações que precedem a imagem em ordem de decodificação devem ser emitidas pode ser indicada por uma ou mais variáveis que são sinalizadas ou indicadas no fluxo de bits ou derivadas de outras informações disponíveis ao codificador (por exemplo, NoRaslOutputFlag). Por exemplo, para as figurações de IDR e figurações de CRA, o NoRaslOutputFlag pode ser derivado de outras informações incluídas no fluxo de bits. Para as figurações de BLA, a presença de tais figurações de BLA pode indicar ao decodificador que as figurações de BLA seguem imediatamente um ponto de união. Caso o codificador determine que a imagem esteja em uma imagem IRAP, o método 1000 precede para o bloco 1010. Do contrário, o método 1000 termina em 1015.
[00179] No bloco 1010, o codificador habilita uma redefinição de MSB de POC para todas as outras figurações de não IRAP na unidade de acesso. Em algumas modalidades, o codificador habilita uma redefinição de MSB de POC para todas as outras figurações de não IRAP na unidade de acesso que seguem imediatamente um ponto de união em ordem de decodificação. Por exemplo, o codificador pode sinalizar um sinalizador de redefinição de MSB de POC (por exemplo, poc_msb_reset_flag) que tem um valor igual a 1, indicando que uma redefinição de MSB de POC deve ser realizada para cada uma das figurações de não IRAP. O método 1000 termina em 1015.
[00180] Conforme discutido acima, um ou mais componentes de codificador de vídeo 20 da Figura 2A, o codificador de vídeo 23 da Figura 2B, o decodificador de vídeo 30 da Figura 3A ou o decodificador de vídeo 33 da Figura 3B (por exemplo, unidade de previsão intercamada 128 e/ou unidade de previsão intercamada 166) podem ser usadas para implantar qualquer uma das técnicas discutidas na presente revelação, tal como, determinar a possibilidade de uma imagem ser uma imagem IRAP e habilitar uma redefinição de MSB de POC para todas outras figurações de não IRAP na unidade de acesso.
[00181] No método 1000, um ou mais dentre os blocos mostrados na Figura 10 podem ser removidos (por exemplo, não realizados) e/ou a ordem na qual o método é realizado pode trocada. Desse modo, as modalidades da presente revelação não se limitam ao exemplo mostrado na Figura 10, e outras variações podem ser implantadas sem se afastar do espírito da presente revelação.
FIGURAÇÕES DE IDR DE CAMADA-BASE EM AU IRAP NÃO ALINHADA
[00182] Em algumas modalidades, uma restrição de conformidade pode ser aplicada ao fluxo de bits de modo que quando uma unidade de acesso A contiver uma imagem de camada- base que é uma imagem de IDR, uma redefinição de LSB de POC (por exemplo, LSB da POC) deva ser realizada para todas as figurações de camada de aprimoramento na unidade de acesso A que não são figurações de IDR ou que têm um valor de LSB de POC diferente de zero sinalizado no fluxo de bits. Em tais modalidades, o sinalizador de redefinição de LSB de POC associado às figurações de EL (por exemplo, indicando que uma redefinição de LSB de POC deve ser realizada em tais figurações de EL). Por exemplo, caso a imagem A na camada- base seja uma imagem de IDR e a imagem B que está na mesma unidade de acesso da imagem A não seja uma imagem de IDR, uma redefinição de LSB de POC pode ser sinalizada no fluxo de bits para a imagem B. Em outro exemplo, caso a imagem A na camada-base seja uma imagem de IDR e a imagem C na mesma unidade de acesso da imagem A tenha um valor de LSB de POC igual a 0 sinalizado no fluxo de bits, uma redefinição de LSB de POC pode não precisar ser sinalizada no fluxo de bits para a imagem C.
[00183] A Figura 11 é um fluxograma que ilustra um método 1100 para codificar informações de vídeo, de acordo com uma modalidade da presente revelação. As etapas ilustradas na Figura 11 podem ser realizadas por um codificador (por exemplo, o codificador de vídeo, conforme mostrado na Figura 2A ou na Figura 2B), um decodificador (por exemplo, o decodificador de vídeo, conforme mostrado na Figura 3A ou na Figura 3B), ou qualquer outro componente. Para fins de conveniência, o método 1100 é descrito como realizado por um codificador, que pode ser codificador, o decodificador ou outro componente.
[00184] O método 1100 começa no bloco 1101. No bloco 1105, o codificador determina se uma imagem é uma imagem de camada-base de IDR. Em algumas modalidades, o POC de uma imagem de BL de IDR é redefinida automaticamente como 0. Caso o codificador determine que a imagem esteja em uma imagem de IDR de BL, o método 1100 precede para o bloco 1110. Do contrário, o método 1100 termina em 1115.
[00185] No bloco 1110, o codificador habilita uma redefinição de LSB de POC para todas as outras figurações de não IDR na unidade de acesso. Por exemplo, o codificador pode sinalizar um sinalizador de redefinição de LSB de POC (por exemplo, poc_lsb_reset_flag) que tem um valor igual a 1, indicando que uma redefinição de LSB de POC deve ser realizada para cada uma das figurações de não IDR na mesma unidade de acesso da imagem de BL de IDR. O método 1100 termina em 1115.
[00186] Conforme discutido acima, um ou mais componentes de codificador de vídeo 20 da Figura 2A, codificador de vídeo 23 da Figura 2B, decodificador de vídeo 30 da Figura 3A ou o decodificador de vídeo 33 da Figura 3B (por exemplo, unidade de previsão intercamada 128 e/ou unidade de previsão intercamada 166) pode ser usada para implantar qualquer uma das técnicas discutidas na presente revelação, tal como, determinar a possibilidade de uma imagem ser uma imagem de IDR de BL e habilitar uma redefinição de LSB de POC para todas outras figurações de não IDR na unidade de acesso.
[00187] No método 1100, um ou mais dentre os blocos mostrados na Figura 11 podem ser removidos (por exemplo, não realizados) e/ou a ordem na qual o método é realizado pode trocada. Desse modo, as modalidades da presente revelação não se limitam ao exemplo mostrado na Figura 11, e outras variações podem ser implantadas sem se afastar do espírito da presente revelação.
REDEFINIÇÃO DE CÓPIA DE SEGURANÇA DE SINALIZAÇÃO EM FIGURAÇÕES SUBSEQUENTES
[00188] Em algumas modalidades, para cada imagem picA que redefine seu valor de MSB de POC a fim de alinhar a POC derivada (por exemplo, PicOrderCntVal) com outra imagem que é uma imagem IRAP com NoRaslOutputFlag igual a 1 e que é a mesma unidade de acesso da picA, uma indicação pode ser fornecida no fluxo de bits em associação a uma ou mais figurações na mesma camada da picA que segue a picA em ordem de decodificação de que uma redefinição de MSB de POC deve ser realizada com as um ou mais figurações. Por exemplo, o poc_msb_reset_flag que tem um valor igual a 1 pode ser sinalizado para cada uma dentre as uma ou mais figurações.
[00189] A Figura 12 é um fluxograma que ilustra um método 1200 para codificar informações de vídeo, de acordo com uma modalidade da presente revelação. As etapas ilustradas na Figura 12 podem ser realizadas por um codificador (por exemplo, o codificador de vídeo, conforme mostrado na Figura 2A ou na Figura 2B), um decodificador (por exemplo, o decodificador de vídeo, conforme mostrado na Figura 3A ou na Figura 3B), ou qualquer outro componente. Para fins de conveniência, o método 1200 é descrito como realizado por um codificador, que pode ser codificador, o decodificador ou outro componente.
[00190] O método 1200 começa no bloco 1201. No bloco 1205, o codificador determina a possibilidade de uma redefinição de MSB de POC ser realizada em uma imagem particular. Conforme descrito acima, em algumas modalidades, uma redefinição de MSB de POC pode ser realizada a fim de impedir que as figurações em diferentes camadas tenham valores de POC inconsistentes em uma unidade de acesso IRAP não alinhada. Em algumas modalidades, o codificador determina adicionalmente a possibilidade de a imagem particular ser uma imagem não IRAP em uma unidade de acesso IRAP não alinhada. Caso o codificador determine que uma redefinição de MSB de POC deva ser realizada na imagem particular, o método 1200 procede para o bloco 1210. Do contrário, o método 1200 termina em 1215.
[00191] No bloco 1210, o codificador habilita uma redefinição de MSB de POC para uma ou mais figurações que seguem a imagem particular em ordem de decodificação. Em algumas modalidades, as um ou mais figurações podem estar na mesma camada da imagem particular. Por exemplo, o codificador pode sinalizar um sinalizador de redefinição de MSB de POC (por exemplo, poc_msb_reset_flag) que tem um valor igual a 1 para a imagem que segue imediatamente a imagem particular em ordem de decodificação, indicando que uma redefinição de MSB de POC deve ser realizada para a imagem que segue imediatamente a imagem particular em ordem de decodificação. Conforme descrito acima, caso a imagem particular que tem uma indicação de que uma redefinição de MSB de POC deva ser realizada seja perdida, faz-se uma redefinição de cópia de segurança dos MSB de POC na imagem que segue imediatamente a imagem particular em ordem de decodificação com base na indicação associada à imagem que segue imediatamente a imagem particular em ordem de decodificação. Em algumas modalidades, o codificador pode fornecer adicionalmente uma indicação ou uma variável que pode ser usada de modo que a redefinição de MSB de POC não seja realizada mais que uma vez. Tal indicação ou variável (por exemplo, uma ID de redefinição de POC) pode ajudar na determinação da possibilidade de a redefinição de MSB de POC ter sido realizada. Em algumas modalidades, o codificador habilita a redefinição de MSB de POC para as uma ou mais figurações apenas caso a imagem particular seja uma imagem não IRAP em uma unidade de acesso IRAP não alinhada. O método 1200 termina em 1215.
[00192] Conforme discutido acima, um ou mais componentes de codificador de vídeo 20 da Figura 2A, o codificador de vídeo 23 da Figura 2B, o decodificador de vídeo 30 da Figura 3A ou o decodificador de vídeo 33 da Figura 3B (por exemplo, a unidade de previsão intercamada 128 e/ou a unidade de previsão intercamada 166) podem ser usados para implantar qualquer uma das técnicas discutidas na presente revelação, tal como, determinar se uma redefinição de MSB de POC deve ser realizada em uma imagem particular e habilitar uma redefinição de MSB de POC para uma ou mais figurações que seguem a imagem particular em ordem de decodificação.
[00193] No método 1200, um ou mais dentre os blocos mostrados na Figura 12 podem ser removidos (por exemplo, não realizados) e/ou a ordem na qual o método é realizado pode trocada. Desse modo, as modalidades da presente revelação não se limitam ao exemplo mostrado na Figura 12, e outras variações podem ser implantadas sem se afastar do espírito da presente revelação. VALORES DE POC DE SINALIZAÇÃO DE FIGURAÇÕES PRECEDENTES
[00194] Em algumas modalidades, para a imagem picA que redefine seu valor de POC a fim de alinhar a PicOrderCntVal derivada a uma imagem de IDR que tem um nuh_layer_id igual a 0 e que está na mesma unidade de acesso da picA, o valor igual ao PicOrderCntVal da picA antes da redefinição de POC é sinalizado para uma ou mais figurações que seguem a picA em ordem de decodificação e que o mesmo nuh_layer_id da picA. IMPLANTAÇÃO EXEMPLIFICATIVA; SINTAXE DE CABEÇALHO DE SEGMENTO DE FATIA
[00195] A sintaxe de cabeçalho de segmento de fatia exemplificativa a seguir pode ser usada para implantar uma ou mais dentre as modalidades descritas no presente documento.
Figure img0001
Figure img0002
TABELA 1. SINTAXE DE CABEÇALHO DE SEGMENTO DE FATIA EXEMPLIFICATIVA IMPLANTAÇÃO EXEMPLIFICATIVA; SEMÂNTICA DE CABEÇALHO DE SEGMENTO DE FATIA
[00196] A semântica exemplificativa a seguir pode ser usada para implantar uma ou mais dentre as modalidades descritas no presente documento. As mudanças à linguagem existente na especificação HEVC são mostradas em itálico. poc_msb_reset_flag igual a 1 especifica que o valor de MSB da contagem de ordem de imagem derivada para a atual imagem é igual a 0. poc_msb_reset_flag igual a 0 especifica que o valor de MSB da contagem de ordem de imagem derivada para a atual imagem pode ou não ser igual a 0. Quando a atual imagem não for uma imagem IRAP com NoRaslOutputFlag igual a 1 e pelo menos uma imagem na atual unidade de acesso for uma imagem IRAP com NoRaslOutputFlag igual a 1, o poc_msb_reset_flag deve estar presente, e o valor deve ser igual a 1. Quando não estiver presente, o valor de poc_msb_reset_flag é inferido como igual a 0. poc_lsb_reset_flag igual a 1 especifica que a contagem de ordem de imagem derivada para a atual imagem é igual a 0. poc_lsb_reset_flag igual a 0 especifica que a contagem de ordem de imagem derivada para a atual imagem pode ou não ser igual a 0. Quando a atual imagem não for uma imagem de IDR ou slice_pic_order_cnt_lsb não for igual a 0, e a imagem com nuh_layer_id igual a 0 na atual unidade de acesso for uma imagem de IDR, poc_lsb_reset_flag deve estar presente e o valor deve ser igual a 1. Quando não estiver presente, infere-se que o valor igual a poc_lsb_reset_flag é igual a 0. Quando o valor de poc_msb_reset_flag for igual a 0, o valor igual a poc_lsb_reset_flag deve ser igual a 0. É uma exigência de conformidade de fluxo de bits que, quando há uma imagem IRAP com NoRaslOutputFlag igual a 1 na atual unidade de acesso, a atual imagem deve ter discardable_flag igual a 0 e Temporalld maior que 0, e não deve ser uma imagem de não referência de subcamada, uma imagem de RASL ou uma imagem de RADL.
[00197] Alternativamente, as restrições a seguir podem ser adicionadas à semântica do poc_msb_reset_flag e do poc_lsb_reset_flag: É uma exigência de conformidade de fluxo de bits que para as fatias que têm o valor de nal_unit_type menor que 16 e que têm o nal_unit_type % 2 = 0, o valor tanto do poc_lsb_reset_flag quanto do poc_msb_reset_flag deve ser igual a 0. É uma exigência de conformidade de fluxo de bits que quando o valor tanto de poc_lsb_reset_flag colmo de poc_msb_reset_flag, ou de ambos, seja igual a 1, o valor de discardable_flag, quando estiver presente, deve ser igual a 0. É uma exigência de conformidade de fluxo de bits quando uma unidade de acesso contiver uma imagem que é uma imagem IRAP com NoRaslOutputFlag igual a 1, então, aplicam- se as seguintes condições: (1) caso a imagem com nuh_layer_id igual a 0 seja uma imagem de IDR, tanto o valor de poc_lsb_reset_flag quanto de poc_msb_reset_flag devem ser iguais a 1 para todas as figurações nessa unidade de acesso que têm nuh_layer_id diferente de 0; e (2) de outro modo, o valor de poc_lsb_reset_flag deve ser definido como igual a 1 e o valor de poc_msb_reset_flag deve ser igual a 1 para todas as figurações nessa unidade de acesso que não são imagem IRAP com NoRaslOutputFlag igual a 1. IMPLANTAÇÃO EXEMPLIFICATIVA; PROCESSO DE DECODIFICAÇÃO PARA POC E DEFINIÇÃO DE IMAGEM DE REFERÊNCIA
[00198] Uma derivação exemplificativa da POC para cada fatia é descrita abaixo. Quando o valor do poc_lsb_reset_flag ou do poc_msb_reset_flag é definido como 1, a POC da atual imagem e todas as figurações no DPB que são marcados como "usada para referência" ou que são necessárias para saída são diminuídas. PROCESSO DE DECODIFICAÇÃO PARA CONTAGEM DE ORDEM DE IMAGEM A saída desse processo é PicOrderCntVal, a contagem de ordem de imagem da atual imagem. As contagens de ordem de imagem são usadas para identificar as figurações, para derivar os parâmetros de movimento em modo de mescla e previsão de vetor de movimento e para decodificar a verificação de conformidade. Cada imagem codificada é associada a uma contagem de ordem de imagem variável, denotada como PicOrderCntVal. Quando a atual imagem não for uma imagem IRAP com NoRaslOutputFlag igual a 1, as variáveis prevPicOrderCntLsb e prevPicOrderCntMsb são derivadas conforme o seguinte: Deixar a prevTidOPic ser a imagem anterior em ordem de decodificação que tem o Temporalld igual a 0 e o nuh_layer_id igual a ao nuh_layer_id da atual imagem e que não é uma imagem de RASL, uma imagem de RADL ou uma imagem de não referência de subcamada, e deixar a prevPicOrderCnt ser igual ao PicOrderCntVal da prevTidOPic. A variável prevPicOrderCntLsb é definido igual à prevPicOrderCnt & ( MaxPicOrderCntLsb - 1). A variável prevPicOrderCntMsb é definida igual à prevPicOrderCnt - prevPicOrderCntLsb. A variável PicOrderCntMsb da atual imagem é derivada conforme o seguinte: Caso a atual imagem seja uma imagem IRAP com NoRaslOutputFlag igual a 1, PicOrderCntMsb é definido igual a 0. De outro modo, PicOrderCntMsb é derivado conforme o seguinte: caso ((slice _pic_order_cnt_lsb < prevPicOrderCntLsb) && ((prevPicOrderCntLsb - slice _pic_order_cnt_lsb) >= ( PicOrderCntMsb = prevPicOrderCntMsb + MaxPicOrderCntLsb além disso, caso (slice _pic_order_cnt_lsb > prevPicOrderCntLsb) && ((slice _pic_order_cnt_lsb - prevPicOrderCntLsb) > (MaxPicOrderCntLsb /2))) PicOrderCntMsb = prevPicOrderCntMsb - MaxPicOrderCntLsb além disso, PicOrderCntMsb = prevPicOrderCntMsb PicOrderCntVal é derivado conforme o seguinte: PicOrderCntVal = (poc_msb_reset_flag ? 0 : PicOrderCntMsb) + (poc_lsb_reset_flag ? 0 : slice_pic_order_cnt_lsb) Deve-se verificar que todas as figurações de IDR que têm nuh_layer_id igual a 0 terão PicOrderCntVal igual a 0, visto que slice_pic_order_cnt_Lsb é inferido como 0 para as figurações de IDR e tanto prevPicOrderCntLsb quanto prevPicOrderCntMsb são definidos igual a 0. Quando poc_msb_reset_flag é igual a 1, o PicOrderCntVal de cada imagem que está no DPB e pertence à mesma camada da atual imagem é diminuído por PicOrderCntMsb. Quando poc_lsb_reset_flag é igual a 1, o PicOrderCntVal de cada imagem que está no DPB e pertence à mesma camada da atual imagem é diminuído por slice_pic_order_cnt_lsb. O valor de PicOrderCntVal deve estar situado na faixa a partir de -231 a 231 - 1, inclusive. Em uma CVS, os valores PicOrderCntVal para quaisquer duas figurações codificadas na mesma camada não devem ser os mesmos. A função PicOrderCnt(picX) é especificada conforme o seguinte: PicOrderCnt(picX) = PicOrderCntVal da imagem picX A função DiffPicOrderCnt(picA, picB) é especificada conforme o seguinte: O fluxo de bits não deve conter os dados que resultam em valores de DiffPicOrderCnt(picA, picB) usados no processo de decodificação que não estão na faixa de -215 a 215 - 1, inclusive. Deve-se verificar que caso X seja a atual imagem e Y e Z são duas outras figurações na mesma sequência, considera-se que Y e Z estão na mesma direção de ordem de saída de X quando tanto DiffPicOrderCnt(X, Y) quanto DiffPicOrderCnt(X, Z) são positivos ou negativos. PROCESSO DE DECODIFICAÇÃO PARA DEFINIÇÃO DE IMAGEM DE REFERÊNCIA
[00199] O processo de decodificação para a definição de imagem de referência é idêntico ao processo de decodificação definido em MV-HEVC WD5.
IMPLANTAÇÃO EXEMPLIFICATIVA; SINTAXE DE CARGA ÚTIL DE SEI GERAL
[00200] A sintaxe de carga útil de SEI exemplificativa pode ser usada para implantar uma ou mais dentre as modalidades descritas no presente documento. No exemplo abaixo, "XXX" pode ser substituído por qualquer valor que representa o tipo de carga útil que pode ser utilizado em conexão à sintaxe exemplificativa. Por exemplo, "XXX" pode ser substituído por qualquer valor entre 1 e 255 que não tenha sido já usado por outra mensagem de SEI. Em outro exemplo, o valor de "XXX" não se limita a 255 e tem um valor maior. As mudanças na linguagem existente na especificação HEVC são mostradas em itálico.
Figure img0003
TABELA 2. SINTAXE DE CARGA ÚTIL DE SEI EXEMPLIFICATIVA IMPLANTAÇÃO EXEMPLIFICATIVA; SINTAXE DE MENSAGEM DE SEI DE INFORMAÇÕES DE REDEFINIÇÃO DE POC
[00201] No exemplo a seguir, a sintaxe de informações de redefinição de POC pode ser usada para implantar uma ou mais dentre as modalidades descritas no presente documento. As mudanças na linguagem existente na especificação HEVC são mostradas em itálico.
Figure img0004
TABELA 3. SINTAXE DE INFORMAÇÕES DE REDEFINIÇÃO DE POC EXEMPLIFICATIVA
[00202] Em algumas modalidades, o valor de redefinição de POC, ID de redefinição de POC, ou ambos, são codificados com o uso de códigos exponenciais de Golomb (por exemplo, codificação ue(v)). IMPLANTAÇÃO EXEMPLIFICATIVA; SEMÂNTICA DE MENSAGEM DE SEI DE INFORMAÇÕES DE REDEFINIÇÃO DE POC
[00203] A semântica de informações de redefinição de POC exemplificativa a seguir pode ser usada para implantar uma ou mais dentre as modalidades descritas no presente documento: "A mensagem de SEI de informações de redefinição de POC fornece informações que possibilitam a correta derivação de POC para a imagem associada até mesmo quando a imagem anterior em ordem de decodificação na mesma camada da imagem associada e que tem poc_lsb_reset_flag ou poc_msb_reset_flag igual a 1 é perdida. As informações contidas na mensagem de SEI também podem ser usadas para derivar os valores de POC de outras figurações no DPB que estão na mesma camada da imagem associada. A imagem de redefinição de POC é definida como uma imagem que tem o valor tanto de poc_msb_reset_flag como de poc_lsb_reset_flag, ou de ambos, igual a 1. A imagem associada de redefinição de POC se refere à imagem anterior em ordem de decodificação na mesma camada da imagem associada e que tem poc_lsb_reset_flag ou poc_msb_reset_flag igual a 1. A imagem associada de uma mensagem de SEI de informações de redefinição de POC se refere à imagem que é associada à mensagem de SEI. Uma mensagem de SEI de informações de redefinição de POC não aninhada está associada à imagem para a qual a primeira unidade de NAL de VCL em ordem de decodificação é a unidade de NAL de VCL associada da unidade de NAL de SEI que contém a mensagem de SEI de informações de redefinição de POC não aninhada. O nuh_layer_id da unidade de NAL de SEI que contém uma mensagem de SEI de informações de redefinição de POC não aninhada deve ser igual ao nuh_layer_id da imagem associada".
[00204] Alternativamente, a associação da mensagem de SEI pode ser definida conforme o seguinte: "Uma mensagem de SEI de informações de redefinição de POC não aninhada estás associada à imagem picA na próxima unidade de acesso na decodificação, em que a picA tem o valor do nuh_layer_id igual à unidade de NAL de SEI que contém a mensagem de SEI de informações de redefinição de POC não aninhada".
[00205] Alternativamente, a associação da mensagem de SEI pode ser definida conforme o seguinte: "Uma mensagem de SEI de informações de redefinição de POC não aninhada está associada à imagem picA que tem o valor do nuh_layer_id igual à unidade de NAL de SEI e sucede, em ordem de decodificação, a mensagem de SEI e precede a primeira imagem que tem o valor do nuh_layer_id igual à unidade de NAL de SEI e tem os valores de pocJsb_reset_flag ou poc_msb_reset_flag iguais a 1."
[00206] Alternativamente, uma mensagem de SEI vazia que indica o cancelamento das informações de redefinição de POC (poc_reset_info_cancel()) pode ser sinalizada e a associação da mensagem de SEI pode ser definida conforme o seguinte: "Uma mensagem de SEI de informações de redefinição de POC não aninhada está associada à primeira imagem picA que tem o valor do nuh_layer_id igual à unidade de NAL de SEI, que sucede a mensagem de SEI em ordem de decodificação, e que está contido na unidade de acesso que contém uma mensagem de SEI poc_resetJnfo_cancel(). O valor do nuh_layer_id da unidade de NAL de SEI que contém a mensagem de SEI poc_resetJnfo_cancel() deve ser igual ao nuh_layer_id da imagem associada".
[00207] A semânticas a seguir pode ser usada para o poc_reset_type_flag, o poc_reset_value e para o poc_reset_id: "poc_reset_type_flag igual a 1 indica que os MSB de POC foram redefinidos e os LSB de POC não foram redefinidos para a imagem associada de redefinição de POC. poc_reset_type_flag igual a 0 especifica que tanto os MSB de POC quanto os LSB de POC foram redefinidos para a imagem associada de redefinição de POC; poc_reset_value indica o valor de POC da imagem associada de redefinição de POC antes da redefinição de a POC ser aplicada (isto é, o valor de POC derivado, supondo que tanto o poc_msb_reset_flag quanto o poc_lsb_reset_flag são iguais a 0); e o poc_reset_id especifica um identificador de uma imagem de redefinição de POC na mesma camada da imagem associada. Duas figurações redefinidas de POC consecutivas de uma camada particular no fluxo de bits não devem ter o mesmo valor de poc_reset_id".
[00208] Deve-se verificar que, quando a imagem associada de redefinição de POC é perdida, esse valor também pode ser usado para derivar os valores de POC da imagem associada e outras figurações decodificadas da mesma camada no DPB, conforme a seguir. Quando o valor do poc_reset_type_flag é igual a 0, a POC da imagem associada pode ser derivada definindo-se prevPicOrderCntLsb igual ao poc_reset_value % MaxPicOrderCntLsb, e prevPicOrderCntMsb igual a 0, e em seguida do resto do processo de decodificação para a contagem de ordem de imagem, e o valor igual a PicOrderCntVal de todas as figurações no DPB que pertencem à mesma camada da imagem associada são diminuídas por poc_reset_value - poc_reset_value % MaxPicOrderCntLsb. Quando o valor do poc_reset_type_flag é igual a 1, a POC da imagem associada pode ser derivada definindo-se tanto o prevPicOrderCntLsb quanto o prevPicOrderCntMsb igual a 0, e em seguida ao resto do processo de decodificação para a contagem de ordem de imagem, e o valor igual a PicOrderCntVal de todas as figurações no DPB que pertence à mesma camada da imagem associada são diminuídos por poc_reset_value.
[00209] Em algumas modalidades, os elementos de sintaxe semelhante àqueles descritos acima em conexão às mensagens de SEI estão incluídos na sintaxe de cabeçalho de segmento de fatia, e o sintagma "atual imagem" é usado em vez do sintagma "imagem associada" na semântica exemplificativa descrita acima em conexão à semântica de mensagem de SEI de informações de redefinição de POC. OUTRAS CONSIDERAÇÕES
[00210] As informações e os sinais revelados no presente documento podem ser representados com o uso de qualquer um dentre uma variedade de tecnologias e conjunto de procedimentos diferentes. Por exemplo, dados, instruções, comandos, informações, sinais, bits, símbolos, e circuitos integrados que podem ser referenciados por toda a descrição acima podem ser representados por tensões, correntes, ondas eletromagnéticas, partículas ou campos magnéticos, partículas ou campos ópticos ou qualquer combinação dos mesmos.
[00211] Os vários blocos lógicos, módulos, circuitos e etapas de algoritmo ilustrativos descritos em conexão às modalidades reveladas no presente documento podem ser implementadas como hardware eletrônico, software de computador ou combinações de ambos. A fim de ilustrar claramente essa possibilidade de intercâmbio de hardware e software, vários componentes, blocos, módulos, circuitos e etapas ilustrativos foram descritos acima geralmente em termos de funcionalidade dos mesmos. A possibilita de tal funcionalidade ser implantada como hardware ou software depende da aplicação particular e das restrições de projeto impostas no sistema geral. As pessoas versadas na técnica podem implantar a funcionalidade descrita de várias maneiras para cada aplicação em particular, porém, tais decisões de implantação não devem ser interpretadas como causadoras de um afastamento do escopo da presente revelação.
[00212] As técnicas descritas no presente documento podem ser implantadas em hardware, software, firmware ou em qualquer combinação dos mesmos. Tais técnicas podem ser implantadas em qualquer um dentre uma variedade de dispositivos, tal como, computadores de propósito geral, aparelhos de telefone de dispositivos de comunicação sem fio, ou dispositivos de circuitos integrados que têm múltiplos usos incluindo a aplicação em aparelhos de telefone de dispositivos de comunicação sem fio e outros dispositivos. Quaisquer recursos descritos como módulos ou componentes podem ser implantados juntos em um dispositivo de lógica integrada ou separadamente como dispositivos de lógica distinta, porém, interoperável. Caso sejam implantadas em software, as técnicas podem ser concretizadas pelo menos parcialmente por um meio de armazenamento de dados legível por computador que compreende código de programa incluindo instruções que, quando executadas, realizam um ou mais entre os métodos descritos acima. O meio de armazenamento de dados legível por computador pode formar parte de um produto de programa de computador, que pode incluir materiais de empacotamento. O meio legível por computador pode compreender uma memória ou mídias de armazenamento de dados, tal como, memória de acesso aleatório (RAM), tal como, memória de acesso aleatório dinâmica síncrona (SDRAM), memória de apenas leitura (ROM), memória de acesso aleatório não volátil (NVRAM), memória de apenas leitura eletricamente apagável e programável (EEPROM), memória flash, mídias de armazenamento de dados magnéticas ou ópticas, e semelhantes. As técnicas podem ser concretizadas, adicional ou alternativamente, pelo menos parcialmente por um meio de comunicação legível por computador que porta ou comunica código de programa na forma de instruções ou de estruturas de dados e que pode ser acessado, lido, e/ou executado por um computador, tal como, sinais propagados ou ondas.
[00213] O código de programa pode ser executado por um processador, que pode incluir um ou mais processadores de sinal digital (DSPs), microprocessadores para propósitos gerais, circuitos integrados de aplicação específica (ASICs), matrizes lógicas programáveis por campo (FPGAs) ou outro conjunto de circuitos lógicos equivalentes integrados ou distintos. Tal processador pode ser configurado para realizar qualquer uma dentre as técnicas descritas na presente revelação. Um processador de propósito geral pode ser um microprocessador, porém alternativamente, o processador pode ser qualquer processador, controlador, microcontrolador ou máquina de estado convencional. Um processador pode também ser implantado como uma combinação de dispositivos de computação, por exemplo, uma combinação de um DSP e um microprocessador, uma pluralidade de microprocessadores, um ou mais microprocessadores em conjunto com um DSP núcleo ou qualquer outra tal configuração. Correspondentemente, o termo "processador", conforme usado no presente documento pode se referir a qualquer uma dentre as estruturas supracitadas, qualquer combinação das estruturas supracitadas, ou qualquer outra estrutura ou aparelho adequado para a implantação das técnicas descritas no presente documento. Além disso, em alguns aspectos, a funcionalidade descrita no presente documento pode ser fornecida dentro de módulos de software ou de hardware dedicados configurados para codificar e decodificar, ou incorporados em um codificador de vídeo- decodificador combinado (CODEC). Adicionalmente, as técnicas podem ser totalmente implantadas em um ou mais circuitos ou elementos lógicos.
[00214] As técnicas da presente revelação podem ser implantadas em uma ampla variedade de dispositivos ou aparelhos, incluindo um aparelho de telefone, um circuito integrado (IC) ou um conjunto de ICs (por exemplo, um conjunto de chips). Vários componentes, módulos ou unidades são descritos na presente revelação para enfatizar os aspectos funcionais dos dispositivos configurados para realizar as técnicas reveladas, porém, não exigem necessariamente a concretização através de diferentes unidades de hardware. Em vez disso, conforme descrito acima, várias unidades podem ser combinadas em uma unidade de hardware de codec ou fornecidas por uma coleção de unidades de hardware interoperativas, incluindo um ou mais processadores, conforme descrito acima, em combinação com o software e/ou o firmware adequado.
[00215] Várias modalidades da invenção foram descritas. Essas e outras modalidades estão dentro do escopo das reivindicações a seguir.

Claims (13)

1. Aparelho configurado para decodificar informações de vídeo caracterizado pelo fato de que compreende: uma unidade de memória configurada para armazenar informações de vídeo associadas a uma primeira camada de vídeo que tem uma primeira imagem; e um processador em comunicação com a unidade de memória, sendo que o processador é configurado para: processar (805) informações de derivação de contagem de ordem de imagem (POC) contidas em um dentre uma mensagem de informações de aprimoramento complementares (SEI) associada à primeira imagem ou um cabeçalho de fatia de uma fatia incluído na primeira imagem, em que as informações de derivação de POC compreendem pelo menos um valor de POC de uma segunda imagem codificada na primeira camada de vídeo, em que a segunda imagem está associada a uma instrução de redefinição de valor de POC e precede a primeira imagem em ordem de decodificação; realizar a instrução de redefinição de valor de POC associada à segunda imagem para redefinir o valor de POC da segunda imagem e redefinir o valor de POC de pelo menos uma imagem na primeira camada de vídeo que precede a segunda imagem em ordem de decodificação, se a segunda imagem estiver disponível; ou redefinir, com base no valor de POC da segunda imagem incluído nas informações de derivação de POC associadas à primeira imagem, um valor de POC da pelo menos uma imagem na primeira camada de vídeo que precede a segunda imagem em ordem de decodificação, se a segunda imagem estiver disponível.
2. Aparelho configurado para codificar informações de vídeo caracterizado pelo fato de que compreende: uma unidade de memória configurada para armazenar informações de vídeo associadas a uma primeira camada de vídeo que tem uma primeira imagem; e um processador em comunicação com a unidade de memória, sendo que o processador é configurado para: processar informações de derivação de contagem de ordem de imagem (POC) contidas em um dentre uma mensagem de informações de aprimoramento complementares (SEI) associada à primeira imagem ou um cabeçalho de fatia de uma fatia incluído na primeira imagem, em que as informações de derivação de POC compreendem pelo menos um valor de POC de uma segunda imagem codificada na primeira camada de vídeo, em que a segunda imagem está associada a uma instrução de redefinição de valor de POC e precede a primeira imagem em ordem de decodificação; realizar a instrução de redefinição de valor de POC associada à segunda imagem para redefinir o valor de POC da segunda imagem e redefinir o valor de POC de pelo menos uma imagem na primeira camada de vídeo que precede a segunda imagem em ordem de decodificação, se a segunda imagem estiver disponível; ou redefinir, com base no valor de POC da segunda imagem incluído nas informações de derivação de POC associadas à primeira imagem, um valor de POC de pelo menos uma imagem na primeira camada de vídeo que precede a segunda imagem em ordem de decodificação, se a segunda imagem estiver disponível.
3. Aparelho, de acordo com a reivindicação 1 ou 2, caracterizado pelo fato de que o processador é configurado para: processar um sinalizador do tipo redefinição de POC que indica se o valor de POC da pelo menos uma imagem que precede a segunda imagem deve ser redefinido (1) redefinindo-se tanto um ou mais bits mais significativos (MSBs) quanto um ou mais bits menos significativos (LSBs) do valor de POC ou (2) redefinindo-se apenas os um ou mais MSBs do valor de POC.
4. Aparelho, de acordo com a reivindicação 1 ou 2, caracterizado pelo fato de que o processador é configurado para: processar uma ID de redefinição de POC que identifica a redefinição de POC associada à segunda imagem.
5. Aparelho, de acordo com a reivindicação 1 ou 2, caracterizado pelo fato de que as informações de derivação incluem um ou mais dentre um sinalizador do tipo redefinição de POC, um valor de redefinição de POC ou uma ID de redefinição de POC.
6. Aparelho, de acordo com a reivindicação 1 ou 2, caracterizado pelo fato de que o processador é configurado para: processar um ou mais dentre um sinalizador do tipo redefinição de POC, um valor de redefinição de POC ou uma ID de redefinição de POC indicada pelas informações de derivação de POC, dentre os quais pelo menos um é codificado com o uso de códigos exponenciais de Golomb.
7. Aparelho, de acordo com a reivindicação 2, caracterizado pelo fato de que o processador é configurado para fornecer as informações de derivação de POC em associação à primeira imagem em um fluxo de bits, e em que o processador é configurado adicionalmente para codificar as informações de vídeo no fluxo de bits.
8. Aparelho, de acordo com a reivindicação 1, caracterizado pelo fato de que o processador é configurado para receber as informações de derivação de POC em associação à primeira imagem em um fluxo de bits, e em que o processador é configurado adicionalmente para decodificar as informações de vídeo no fluxo de bits.
9. Aparelho, de acordo com a reivindicação 1 ou 2, caracterizado pelo fato de que o aparelho compreende um dispositivo selecionado a partir do grupo que consiste em: um computador, um computador tipo notebook, um computador tipo laptop, um computador tipo tablet, um decodificador de sinais (set-top box), um aparelho de telefone, um smartphone, um smartpad, uma televisão, uma câmera, um dispositivo de exibição, um reprodutor de mídia digital, um console de videogame e um computador integrado para automóveis.
10. Método para decodificar informações de vídeo caracterizado pelo fato de que compreende: processar (805) informações de derivação de contagem de ordem de imagem (POC) contidas em um dentre uma mensagem de informações de aprimoramento complementares (SEI) associada a uma primeira imagem em uma primeira camada de vídeo ou um cabeçalho de fatia de uma fatia incluído na primeira imagem, em que as informações de derivação de POC compreendem pelo menos um valor de POC de uma segunda imagem codificada na primeira camada de vídeo, em que a segunda imagem está associada a uma instrução de redefinição de valor de POC e precede a primeira imagem em ordem de decodificação; e se a segunda imagem estiver disponível, realizar a instrução de redefinição de valor de POC associada à segunda imagem para redefinir o valor de POC da segunda imagem e redefinir o valor de POC de pelo menos uma imagem na primeira camada de vídeo que precede a segunda imagem em ordem de decodificação; ou se a segunda imagem não estiver disponível, redefinir, com base no valor de POC da segunda imagem incluído nas informações de derivação de POC associadas à primeira imagem, um valor de POC da pelo menos uma imagem na primeira camada de vídeo que precede a segunda imagem em ordem de decodificação.
11. Método para codificar informações de vídeo caracterizado pelo fato de que compreende: processar informações de derivação de contagem de ordem de imagem (POC) contidas em um dentre uma mensagem de informações de aprimoramento complementares (SEI) associadas a uma primeira imagem em uma primeira camada de vídeo ou um cabeçalho de fatia de uma fatia incluído na primeira imagem, em que as informações de derivação de POC compreendem pelo menos um valor de POC de uma segunda imagem codificada na primeira camada de vídeo, em que a segunda imagem está associada a uma instrução de redefinição de valor de POC e precede a primeira imagem em ordem de decodificação; se a segunda imagem estiver disponível, realizar a instrução de redefinição de valor de POC associada à segunda imagem para redefinir o valor de POC da segunda imagem e redefinir o valor de POC de pelo menos uma imagem na primeira camada de vídeo que precede a segunda imagem em ordem de decodificação; ou se a segunda imagem não estiver disponível, redefinir, com base no valor de POC da segunda imagem incluído nas informações de derivação de POC associadas à primeira imagem, um valor de POC da pelo menos uma imagem na primeira camada de vídeo que precede a segunda imagem em ordem de decodificação.
12. Método, de acordo com a reivindicação 11 ou 12, caracterizado pelo fato de que processar as informações de derivação de POC compreende pelo menos processar um sinalizador do tipo redefinição de POC que indica se o valor de POC da pelo menos uma imagem que precede a segunda imagem deve ser redefinido (1) redefinindo-se tanto um ou mais bits mais significativos (MSBs) quanto um ou mais bits menos significativos (LSBs) do valor de POC ou (2) redefinindo-se apenas os um ou mais MSBs do valor de POC.
13. Memória legível por computador caracterizada pelo fato de que compreende instruções nela armazenadas que, quando executadas, fazem com que um aparelho realize o método conforme definido em qualquer uma das reivindicações 10 a 12.
BR112016008225-7A 2013-10-14 2014-10-14 Aparelhos e métodos para codificação e decodificação de informações de vídeo e memória legível por computador BR112016008225B1 (pt)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201361890868P 2013-10-14 2013-10-14
US61/890,868 2013-10-14
US14/512,962 2014-10-13
US14/512,962 US9979971B2 (en) 2013-10-14 2014-10-13 Device and method for scalable coding of video information
PCT/US2014/060485 WO2015057705A1 (en) 2013-10-14 2014-10-14 Device and method for scalable coding of video information

Publications (2)

Publication Number Publication Date
BR112016008225A2 BR112016008225A2 (pt) 2017-08-01
BR112016008225B1 true BR112016008225B1 (pt) 2023-04-18

Family

ID=52809632

Family Applications (3)

Application Number Title Priority Date Filing Date
BR112016008235-4A BR112016008235B1 (pt) 2013-10-14 2014-10-14 Dispositivo e método para codificação escalonável de informações de vídeo
BR112016008225-7A BR112016008225B1 (pt) 2013-10-14 2014-10-14 Aparelhos e métodos para codificação e decodificação de informações de vídeo e memória legível por computador
BR112016008237-0A BR112016008237B1 (pt) 2013-10-14 2014-10-14 Aparelho e método para codificar informações de vídeo, aparelho para decodificar informações de vídeo e memória legível por computador

Family Applications Before (1)

Application Number Title Priority Date Filing Date
BR112016008235-4A BR112016008235B1 (pt) 2013-10-14 2014-10-14 Dispositivo e método para codificação escalonável de informações de vídeo

Family Applications After (1)

Application Number Title Priority Date Filing Date
BR112016008237-0A BR112016008237B1 (pt) 2013-10-14 2014-10-14 Aparelho e método para codificar informações de vídeo, aparelho para decodificar informações de vídeo e memória legível por computador

Country Status (10)

Country Link
US (3) US10212435B2 (pt)
EP (3) EP3058744B1 (pt)
JP (3) JP6580576B2 (pt)
KR (3) KR102220256B1 (pt)
CN (3) CN105637882B (pt)
BR (3) BR112016008235B1 (pt)
ES (2) ES2895442T3 (pt)
HU (1) HUE044813T2 (pt)
MX (3) MX360311B (pt)
WO (3) WO2015057711A1 (pt)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3243615B1 (en) 2011-11-10 2020-01-08 Packsize LLC Elevated converting machine for converting material into packaging templates
KR101781774B1 (ko) * 2012-06-25 2017-09-25 닛본 덴끼 가부시끼가이샤 비디오 디코딩 장치, 방법 및 프로그램
US10212435B2 (en) 2013-10-14 2019-02-19 Qualcomm Incorporated Device and method for scalable coding of video information
KR102266902B1 (ko) * 2014-01-13 2021-06-18 삼성전자주식회사 멀티 레이어 비디오 부호화 방법 및 장치, 멀티 레이어 비디오 복호화 방법 및 장치
US10093438B2 (en) 2014-12-29 2018-10-09 Packsize Llc Converting machine
US10850469B2 (en) 2016-06-16 2020-12-01 Packsize Llc Box forming machine
PL3471953T3 (pl) 2016-06-16 2021-06-14 Packsize Llc Układ i sposób wytwarzania szablonów pudełkowych
US11242214B2 (en) 2017-01-18 2022-02-08 Packsize Llc Converting machine with fold sensing mechanism
SE541921C2 (en) 2017-03-06 2020-01-07 Packsize Llc A box erecting method and system
SE1750727A1 (sv) 2017-06-08 2018-10-09 Packsize Llc Tool head positioning mechanism for a converting machine, and method for positioning a plurality of tool heads in a converting machine
US11173685B2 (en) 2017-12-18 2021-11-16 Packsize Llc Method for erecting boxes
US11247427B2 (en) 2018-04-05 2022-02-15 Avercon BVBA Packaging machine infeed, separation, and creasing mechanisms
US11305903B2 (en) 2018-04-05 2022-04-19 Avercon BVBA Box template folding process and mechanisms
DE112019003075T5 (de) 2018-06-21 2021-03-25 Packsize Llc Verpackungsvorrichtung und systeme
SE543046C2 (en) 2018-09-05 2020-09-29 Packsize Llc A box erecting method and system
CN110933440B (zh) 2018-09-19 2023-08-29 北京字节跳动网络技术有限公司 用于视频处理的方法、装置和非暂时性计算机可读介质
MX2021004715A (es) 2018-11-05 2021-06-04 Beijing Bytedance Network Tech Co Ltd Interpolacion para interprediccion con refinamiento.
US11524474B2 (en) 2018-11-30 2022-12-13 Packsize Llc Adjustable cutting and creasing heads for creating angled cuts and creases
WO2020146334A1 (en) 2019-01-07 2020-07-16 Packsize Llc Box erecting machine
US11701854B2 (en) 2019-03-14 2023-07-18 Packsize Llc Packaging machine and systems
US10986353B2 (en) * 2019-03-15 2021-04-20 Tencent America LLC Decoded picture buffer management for video coding
US11539957B2 (en) * 2019-06-20 2022-12-27 Tencent America LLC Layered random access with reference picture resampling
KR20220114557A (ko) 2019-12-26 2022-08-17 바이트댄스 아이엔씨 코딩된 픽처 내에서 디코딩 순서를 구현하기 위한 기술들
KR20220115958A (ko) 2019-12-26 2022-08-19 바이트댄스 아이엔씨 코딩된 비트스트림들에서의 비디오 계층들의 시그널링에 대한 제약들
WO2021134018A1 (en) 2019-12-26 2021-07-01 Bytedance Inc. Signaling of decoded picture buffer parameters in layered video
JP2023508680A (ja) 2019-12-27 2023-03-03 バイトダンス インコーポレイテッド ビデオコーディングにおけるサブピクチャシグナリング
US11356698B2 (en) 2019-12-30 2022-06-07 Tencent America LLC Method for parameter set reference constraints in coded video stream
WO2021142369A1 (en) 2020-01-09 2021-07-15 Bytedance Inc. Signalling of the wavefront parallel processing
US11962936B2 (en) 2020-09-29 2024-04-16 Lemon Inc. Syntax for dependent random access point indication in video bitstreams

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100714696B1 (ko) 2005-06-24 2007-05-04 삼성전자주식회사 다계층 기반의 가중 예측을 이용한 비디오 코딩 방법 및장치
AU2007319261B2 (en) * 2006-11-14 2010-12-16 Qualcomm Incorporated Systems and methods for channel switching
MY162367A (en) 2007-01-05 2017-06-15 Thomson Licensing Hypothetical reference decoder for scalable video coding
KR20090004658A (ko) * 2007-07-02 2009-01-12 엘지전자 주식회사 디지털 방송 시스템 및 데이터 처리 방법
KR20090004659A (ko) * 2007-07-02 2009-01-12 엘지전자 주식회사 디지털 방송 시스템 및 데이터 처리 방법
JP4935746B2 (ja) 2008-04-07 2012-05-23 富士通株式会社 動画像符号化装置、動画像復号化装置及びその符号化、復号化方法
CN102100069A (zh) 2008-07-16 2011-06-15 汤姆逊许可证公司 用于快速信道改变以增大编码效率的可分级视频编码方法
WO2010041856A2 (en) * 2008-10-06 2010-04-15 Lg Electronics Inc. A method and an apparatus for processing a video signal
EP2392138A4 (en) 2009-01-28 2012-08-29 Nokia Corp METHOD AND APPARATUS FOR VIDEO ENCODING AND DECODING
US9516379B2 (en) * 2011-03-08 2016-12-06 Qualcomm Incorporated Buffer management in video codecs
US20130089152A1 (en) 2011-10-05 2013-04-11 Qualcomm Incorporated Signaling picture identification for video coding
US20130094774A1 (en) * 2011-10-13 2013-04-18 Sharp Laboratories Of America, Inc. Tracking a reference picture based on a designated picture on an electronic device
US8787688B2 (en) 2011-10-13 2014-07-22 Sharp Laboratories Of America, Inc. Tracking a reference picture based on a designated picture on an electronic device
US10003817B2 (en) 2011-11-07 2018-06-19 Microsoft Technology Licensing, Llc Signaling of state information for a decoded picture buffer and reference picture lists
KR102094503B1 (ko) 2012-04-15 2020-03-30 삼성전자주식회사 다계층 비디오 부호화 방법 및 장치, 다계층 비디오 복호화 방법 및 장치
US9532055B2 (en) * 2012-04-16 2016-12-27 Microsoft Technology Licensing, Llc Constraints and unit types to simplify video random access
WO2013162258A1 (ko) * 2012-04-23 2013-10-31 삼성전자 주식회사 다시점 비디오 부호화 방법 및 장치, 다시점 비디오 복호화 방법 및 장치
CN108540813B (zh) * 2012-09-28 2021-03-16 杜比国际公司 图像解码装置
US20140092976A1 (en) 2012-09-30 2014-04-03 Sharp Laboratories Of America, Inc. System for signaling idr and bla pictures
US9532052B2 (en) 2013-04-08 2016-12-27 Qualcomm Incorporated Cross-layer POC alignment for multi-layer bitstreams that may include non-aligned IRAP pictures
WO2015052939A1 (en) * 2013-10-10 2015-04-16 Sharp Kabushiki Kaisha Alignment of picture order count
KR20150043222A (ko) * 2013-10-12 2015-04-22 삼성전자주식회사 멀티 레이어 비디오 부호화 방법 및 그 장치, 멀티 레이어 비디오 복호화 방법 및 그 장치
US10212435B2 (en) 2013-10-14 2019-02-19 Qualcomm Incorporated Device and method for scalable coding of video information
WO2015082763A1 (en) * 2013-12-02 2015-06-11 Nokia Technologies Oy Video encoding and decoding

Also Published As

Publication number Publication date
EP3058744A1 (en) 2016-08-24
MX2016004631A (es) 2016-08-05
CN105637881B (zh) 2019-04-02
CN105637880A (zh) 2016-06-01
MX2016004635A (es) 2016-08-05
BR112016008225A2 (pt) 2017-08-01
EP3058745B1 (en) 2020-02-12
KR20160072142A (ko) 2016-06-22
BR112016008237A2 (pt) 2017-08-01
KR20160070786A (ko) 2016-06-20
ES2744201T3 (es) 2020-02-24
EP3058745A1 (en) 2016-08-24
HUE044813T2 (hu) 2019-11-28
KR102220256B1 (ko) 2021-02-24
US9979971B2 (en) 2018-05-22
JP6580576B2 (ja) 2019-09-25
BR112016008237B1 (pt) 2023-04-18
KR102250638B1 (ko) 2021-05-10
EP3058741B1 (en) 2021-10-06
WO2015057714A1 (en) 2015-04-23
WO2015057711A1 (en) 2015-04-23
US20150103903A1 (en) 2015-04-16
KR20160071413A (ko) 2016-06-21
WO2015057705A1 (en) 2015-04-23
JP2016539600A (ja) 2016-12-15
CN105637882B (zh) 2018-12-04
JP2016539601A (ja) 2016-12-15
US20150103923A1 (en) 2015-04-16
MX2016004642A (es) 2016-08-05
ES2895442T3 (es) 2022-02-21
JP2016537932A (ja) 2016-12-01
CN105637882A (zh) 2016-06-01
MX358539B (es) 2018-08-24
MX360311B (es) 2018-10-29
KR102312763B1 (ko) 2021-10-13
US9900605B2 (en) 2018-02-20
EP3058741A1 (en) 2016-08-24
CN105637880B (zh) 2018-08-24
MX365607B (es) 2019-06-07
BR112016008235A2 (pt) 2017-08-01
US10212435B2 (en) 2019-02-19
US20150103922A1 (en) 2015-04-16
JP6486952B2 (ja) 2019-03-20
JP6542239B2 (ja) 2019-07-10
EP3058744B1 (en) 2019-06-05
CN105637881A (zh) 2016-06-01
BR112016008235B1 (pt) 2023-04-18

Similar Documents

Publication Publication Date Title
BR112016008225B1 (pt) Aparelhos e métodos para codificação e decodificação de informações de vídeo e memória legível por computador
ES2854274T3 (es) Dispositivo y procedimiento para codificación escalable de información de vídeo
EP3090551B1 (en) Support of base layer of a different codec in multi-layer video coding
BR112016021489B1 (pt) Método e equipamento para codificação de informação de vídeo, e,memória legível por computador
BR112016024233B1 (pt) Método e aparelho para codificar uma imagem de camada de aperfeiçoamento em um fluxo de bits de múltiplas camadas
BR112016030377B1 (pt) Método e aparelho para converter informações de vídeo em código em um fluxo de bits, assim como memória legível por computador
BR112016008337B1 (pt) Aparelho configurado para codificar informações de vídeo, método para codificar informações de vídeo e memória legível por computador
KR102329656B1 (ko) 비디오 정보의 스케일러블 코딩을 위한 디바이스 및 방법
BR112016015893B1 (pt) Método de decodificação de informações de vídeo, aparelho configurado para decodificar informações de vídeo e memória legível por computador
BR112016021473B1 (pt) Método e aparelho para codificar informação de vídeo usando extensão escalável para codificação de vídeo de alta eficiência, shvc, ou codificação de vídeo de alta eficiência de múltiplas vistas, mv-hevc, assim como memória legível por computador
US9848199B2 (en) Device and method for scalable coding of video information
BR112016029611B1 (pt) Aparelho e método para codificar informações de vídeo em codificação de vídeo de alta eficiência, e, memória legível por computador
BR112016015552B1 (pt) Métodos para codificação de um conjunto de imagens de referência (rps) entre camadas e codificação de unidades da camada de acesso à rede (nal) do fim do fluxo de bits
BR112016030211B1 (pt) Restrições de conformidade de fluxo de bits em codificação de vídeo escalonável
BR112016015560B1 (pt) Método e aparelho para codificar informações de vídeo de um fluxo de bits de múltiplas camadas e memória legível por computador
BR112016015931B1 (pt) Suporte de camada-base de não hevc em extensões de muticamadas de hevc
BR112016001121B1 (pt) Dispositivo e método para codificação escalável de informações de vídeo e memória legível por computador
BR112016015560A2 (pt) Método para codificar um conjunto de imagem de referência (rps) em codificação multicamada
BR112016015918B1 (pt) Suporte de camada base não-hevc em extensões de muticamada de hevc
BR112016015568B1 (pt) Método e aparelho para codificar ou decodificar dados de vídeo e memória legível por computador

Legal Events

Date Code Title Description
B06F Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette]
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 14/10/2014, OBSERVADAS AS CONDICOES LEGAIS