BR122020015318B1 - Aparelho para decodificar dados de vídeo - Google Patents
Aparelho para decodificar dados de vídeo Download PDFInfo
- Publication number
- BR122020015318B1 BR122020015318B1 BR122020015318-0A BR122020015318A BR122020015318B1 BR 122020015318 B1 BR122020015318 B1 BR 122020015318B1 BR 122020015318 A BR122020015318 A BR 122020015318A BR 122020015318 B1 BR122020015318 B1 BR 122020015318B1
- Authority
- BR
- Brazil
- Prior art keywords
- mode
- intraprediction
- block
- prediction
- luma
- Prior art date
Links
- 241000023320 Luma <angiosperm> Species 0.000 claims abstract description 63
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 claims abstract description 63
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims abstract description 23
- 238000001914 filtration Methods 0.000 claims description 7
- 238000013139 quantization Methods 0.000 description 99
- 238000010586 diagram Methods 0.000 description 10
- 238000012805 post-processing Methods 0.000 description 7
- 238000000034 method Methods 0.000 description 6
- 230000000903 blocking effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000007423 decrease Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/124—Quantisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/117—Filters, e.g. for pre-processing or post-processing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/11—Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
- H04N19/139—Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/119—Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/12—Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
- H04N19/122—Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/129—Scanning of coding units, e.g. zig-zag scan of transform coefficients or flexible macroblock ordering [FMO]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/13—Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/172—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/186—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
- H04N19/463—Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/593—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/80—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
- H04N19/82—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Discrete Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Color Television Systems (AREA)
Abstract
É fornecido um aparelho que deriva um modo de intrapredição de luma e um modo de intrapredição de croma, determina um tamanho de uma unidade de transformada de luma e um tamanho de uma unidade de transformada de croma usando informação de tamanho de transformada de luma, filtra adaptativamente os pixels de referência de um bloco de luma atual com base no modo de intrapredição de luma e no tamanho da unidade de transformada de luma, gera blocos de predição do bloco de luma atual e do bloco de croma atual e gera um bloco residual de luma e um bloco residual de croma. Portanto, a distância de intrapredição se torna pequena, e a quantidade de bits de codificação exigidos para codificar modos de intrapredição e blocos residuais de componentes de luma e de croma é reduzida e a complexidade de codificação é reduzida ao codificar adaptativamente os modos de intrapredição e filtrar adaptativamente os pixels de referência
Description
[001] A presente invenção diz respeito a um aparelho de decodificar dados de vídeo, e mais particularmente a um aparelho de derivar modo de intrapredição, gerar um bloco de predição e um bloco residual para recuperar um bloco reconstruído para componentes de luma e de croma.
[002] Em H.264/MPEG-4 AVC, uma imagem é dividida em macroblocos para codificar uma imagem, e os respectivos macroblocos são codificados ao gerar um bloco de predição usando interpredição ou intrapredição. A diferença entre um bloco original e o bloco de predição é transformada para gerar um bloco transformado, e o bloco transformado é quantizado usando um parâmetro de quantização e uma de uma pluralidade de matrizes de quantização predeterminadas. O coeficiente quantizado do bloco quantizado é varrido por um tipo de varredura predeterminado e então codificado por entropia. O parâmetro de quantização é ajustado por macrobloco e codificado usando um parâmetro de quantização anterior.
[003] Entretanto, técnicas usando vários tamanhos de unidade de codificação são introduzidas para melhorar a eficácia de codificação. Técnicas aumentando um número de modos de intrapredição de luma e de croma também são introduzidas para gerar um bloco de predição mais similar a um bloco original.
[004] Entretanto, a quantidade de bits de codificação exigida para sinalizar o modo de intrapredição aumenta à medida que o número de modos de intrapredição aumenta. Também, a diferença entre um bloco original e um bloco de predição é maior à medida que o tamanho da unidade de codificação é maior. Desta maneira, um método mais efetivo é exigido para codificar e decodificar dados de vídeo para componentes de luma e de croma.
[005] A presente invenção diz respeito a um aparelho de derivar um modo de intrapredição, gerar pixels referenciais, filtrar adaptativamente pixels de referência e gerar um bloco de predição.
[006] Um aspecto da presente invenção fornece um aparelho de decodificar dados de vídeo, compreendendo: um módulo de decodificação de modo de predição configurado para derivar um modo de intrapredição de luma e um modo de intrapredi- ção de croma; um módulo de determinação de tamanho de predição configurado para determinar um tamanho de uma unidade de transformada de luma e um tamanho de uma unidade de transformada de croma usando informação de tamanho de transformada de luma; um módulo de geração de pixels de referência configurado para gerar pixels referenciais se pelo menos um pixel de referência estiver indisponível; um módulo de filtragem de pixels de referência configurado para filtrar adaptativamente os pixels de referência de um bloco de luma atual com base no modo de intrapredição de luma e no tamanho da unidade de transformada de luma, e para não filtrar os pixels de referência de um bloco de croma atual; um módulo de geração de blocos de predição configurado para gerar blocos de predição do bloco de luma atual e do bloco de croma atual; e um módulo de geração de blocos residuais configurado para gerar um bloco residual de luma e um bloco residual de croma.
[007] Um aparelho de acordo com a presente invenção deriva um modo de intrapredição de luma e um modo de intrapredição de croma, determina um tamanho de uma unidade de transformada de luma e um tamanho de uma unidade de transformada de croma usando informação de tamanho de transformada de luma, filtra adap- tativamente os pixels de referência de um bloco de luma atual com base no modo de intrapredição de luma e no tamanho da unidade de transformada de luma, gera blocos de predição do bloco de luma atual e do bloco de croma atual e gera um bloco residual de luma e um bloco residual de croma. Portanto, a distância de intrapredição se torna pequena, e a quantidade de bits de codificação exigidos para codificar modos de in- trapredição e blocos residuais de componentes de luma e de croma é reduzida e a complexidade de codificação é reduzida ao codificar adaptativamente os modos de intrapredição e filtrar adaptativamente os pixels de referência.
[008] A figura 1 é um diagrama de blocos de um aparelho de codificação de imagem de acordo com a presente invenção.
[009] A figura 2 é um diagrama de blocos de um aparelho de decodificação de imagem de acordo com a presente invenção.
[010] A figura 3 é um diagrama de blocos de um aparelho de gerar um bloco de predição de acordo com a presente invenção.
[011] A figura 4 é um diagrama conceitual ilustrando modos de intrapredição de acordo com a presente invenção.
[012] A figura 5 é um diagrama de blocos de um aparelho de gerar um bloco residual de acordo com a presente invenção.
[013] Em seguida, várias modalidades da presente invenção serão descritas detalhadamente com referência aos desenhos anexos. Entretanto, a presente inven-ção não está limitada às modalidades exemplares reveladas a seguir, e pode ser im-plementada em vários tipos. Portanto, muitas outras modificações e variações da pre-sente invenção são possíveis, e é para ser entendido que dentro do escopo do con-ceito revelado a presente invenção pode ser praticada de outro modo a não ser tal como está descrito especificamente.
[014] A figura 1 é um diagrama de blocos de um aparelho de codificação de imagem 100 de acordo com a presente invenção.
[015] Referindo-se à figura 1, o aparelho de codificação de imagem 100 de acordo com a presente invenção inclui uma unidade de divisão de imagem 110, uma unidade de intrapredição 120, uma unidade de interpredição 130, uma unidade de transformada 140, uma unidade de quantização 150, uma unidade de varredura 160, uma unidade de codificação de entropia 170, uma unidade de quantização inversa 155, uma unidade de transformada inversa 145, uma unidade de pós-processamento 180, uma unidade de armazenamento de imagens 190, um subtrator 192 e um soma- dor 194.
[016] A unidade de divisão de imagem 110 divide uma imagem em fatias, di-vide uma fatia em unidades de codificação maiores (LCUs), e divide cada LCU em uma ou mais unidades de codificação. A unidade de divisão de imagem 110 determina modo de predição de cada unidade de codificação e um tamanho de unidade de predição. A imagem, fatia e unidade de codificação são compreendidas de conjunto de amostras de luminância (conjunto de luma) e dois conjuntos de amostras de cromi- nância (conjuntos de croma). Um bloco de croma tem metade da altura e metade da largura de um bloco de luma. O bloco pode ser uma LCU, unidade de codificação ou uma unidade de predição. Daqui por diante, uma unidade de codificação de luma, uma unidade de predição de luma e uma unidade de transformada de luma é referida como uma unidade de codificação, uma unidade de predição e uma unidade de transformada respectivamente.
[017] Uma LCU inclui uma ou mais unidades de codificação. A LCU tem uma estrutura de árvore quaternária recursiva para especificar uma estrutura de divisão de unidades de codificação. Parâmetros para especificar o tamanho máximo e o tamanho mínimo da unidade de codificação estão incluídos em um conjunto de parâmetros de sequência. A estrutura de divisão é especificada por uma ou mais sinalizações de unidade de codificação dividida (split_cu_flags). O tamanho de uma unidade de codificação é 2Nx2N.
[018] Uma unidade de codificação inclui uma ou mais unidades de predição. Em intrapredição, o tamanho da unidade de predição é 2Nx2N ou NxN. Em interpre- dição, o tamanho da unidade de predição é 2Nx2N, 2NxN, Nx2N ou NxN.
[019] Uma unidade de codificação inclui um ou mais unidades de transfor-mada. A unidade de transformada tem uma estrutura de árvore quaternária recursiva para especificar uma estrutura de divisão. A estrutura de divisão é especificada por uma ou mais sinalizações de unidade de transformada dividida (split_tu_flags). Parâ-metro para especificar o tamanho máximo e o tamanho mínimo da unidade de trans-formada de luma é incluído em um conjunto de parâmetros de sequência. A unidade de transformada de croma tem metade da altura e metade da largura da unidade de transformada se a unidade de transformada não for 4x4. O tamanho mínimo da uni-dade de transformada de croma é 4x4.
[020] A unidade de intrapredição 120 determina um modo de intrapredição de uma unidade de predição atual e gera um bloco de predição usando o modo de intra- predição. Um tamanho do bloco de predição é igual a um tamanho da unidade de transformada.
[021] A unidade de interpredição 130 determina informação de movimento da unidade de predição atual usando uma ou mais imagens de referência armazenadas na unidade de armazenamento de imagens 190, e gera um bloco de predição da uni-dade de predição. A informação de movimento inclui um ou mais índices de imagem de referência e um ou mais vetores de movimento.
[022] A unidade de transformada 140 transforma sinais residuais gerados usando um bloco original e um bloco de predição para gerar um bloco transformado. Os sinais residuais são transformados pela unidade de transformada. Um tipo de transformada é determinado pelo modo de predição e pelo tamanho da unidade de transformada. O tipo de transformada é uma transformada de número inteiro baseada em DCT ou uma transformada de número inteiro baseada em DST. Em interpredição, transformadas de números inteiros baseadas em DCT são usadas. Em modo de in- trapredição, se o tamanho da unidade de transformada for menor que um tamanho predeterminado, as transformadas de números inteiros baseadas em DST são usa-das, de outro modo as transformadas de números inteiros baseadas em DCT são usadas. O tamanho predeterminado é 8x8. O tipo de transformada da unidade de transformada de croma é igual ao tipo de transformada da unidade de transformada correspondente. Portanto, o tipo de transformada para a unidade de transformada de croma é a transformada de número inteiro baseada em DCT.
[023] A unidade de quantização 150 determina um parâmetro de quantização para quantizar o bloco transformado. O parâmetro de quantização é um tamanho de etapa de quantização. O parâmetro de quantização de luma é referido como o parâ-metro de quantização. O parâmetro de quantização é determinado por unidade de quantização. O tamanho da unidade de quantização é um dos tamanhos admissíveis de unidade de codificação. Se um tamanho da unidade de codificação for igual ou maior que o tamanho mínimo da unidade de quantização, a unidade de codificação se torna a unidade de quantização. Uma pluralidade de unidades de codificação pode ser incluída em uma unidade de quantização. O tamanho mínimo da unidade de quan- tização é determinado por imagem e um parâmetro para especificar o tamanho mínimo da unidade de quantização é incluído em um conjunto de parâmetros de imagem. Um parâmetro de quantização de croma é determinado pelo parâmetro de quantiza- ção. A relação entre o parâmetro de quantização e o parâmetro de quantização de croma pode ser determinada pela imagem. Um parâmetro para indicar a relação é transmitido em um conjunto de parâmetros de imagem (PPS). A relação pode ser mudada pela fatia. Um outro parâmetro para mudar a relação pode ser transmitido em um cabeçalho de fatia.
[024] A unidade de quantização 150 gera um preditor de parâmetro de quantização e gera um parâmetro de quantização diferencial ao subtrair o preditor de parâmetro de quantização do parâmetro de quantização. O parâmetro de quantização diferencial é codificado por entropia.
[025] O preditor de parâmetro de quantização é gerado ao usar parâmetros de quantização de unidades de codificação vizinhas e parâmetro de quantização de unidade de codificação anterior como se segue.
[026] Um parâmetro de quantização à esquerda, um parâmetro de quantiza- ção acima e um parâmetro de quantização anterior são recuperados sequencialmente nesta ordem. Uma média dos dois primeiros parâmetros de quantização disponíveis recuperados nessa ordem é definida como o preditor de parâmetro de quantização quando dois ou mais parâmetros de quantização estão disponíveis, e quando somente um parâmetro de quantização está disponível, o parâmetro de quantização disponível é definido como o preditor de parâmetro de quantização. Isto é, se o parâmetro de quantização à esquerda e o acima estiverem disponíveis, a média do parâmetro de quantização à esquerda e o acima é definida como o preditor de parâmetro de quan- tização. Se somente um de o parâmetro de quantização à esquerda e o acima estiver disponível, a média entre o parâmetro de quantização disponível e o parâmetro de quantização anterior é definida como o preditor de parâmetro de quantização. Se ambos de o parâmetro de quantização à esquerda e o acima estiverem indisponíveis, o parâmetro de quantização anterior é definido como o preditor de parâmetro de quan- tização. A média é arredondada.
[027] A unidade de quantização 150 quantiza o bloco transformado usando uma matriz de quantização e o parâmetro de quantização para gerar um bloco quan- tizado. O bloco quantizado é fornecido para a unidade de quantização inversa 155 e para a unidade de varredura 160.
[028] A unidade de varredura 160 determina um padrão de varredura e aplica o padrão de varredura ao bloco quantizado. Quando CABAC é usada para codificação de entropia, o padrão de varredura é determinado como se segue.
[029] Em intrapredição, o padrão de varredura é determinado pelo modo de intrapredição e pelo tamanho da unidade de transformada. O tamanho da unidade de transformada, o tamanho de bloco transformado e o tamanho do bloco quantizado são iguais. O padrão de varredura é selecionado entre uma varredura diagonal, varredura vertical e varredura horizontal. Os coeficientes de transformada quantizados do bloco quantizado são divididos em sinalizações significativas, sinais de coeficiente e níveis de coeficiente. O padrão de varredura é aplicado às sinalizações significativas, sinais de coeficiente e níveis de coeficiente respectivamente. A sinalização significativa indica se o coeficiente de transformada quantizado correspondente é zero ou não. O sinal de coeficiente indica um sinal de coeficiente de transformada quantizado diferente de zero, e o nível de coeficiente indica um valor absoluto de coeficiente de transformada quantizado diferente de zero.
[030] Quando o tamanho da unidade de transformada é igual ou menor que um primeiro tamanho, a varredura horizontal é selecionada para o modo vertical e um número predeterminado de modos de intrapredição vizinhos do modo vertical, a var-redura vertical é selecionada para o modo horizontal e o número predeterminado de modos de intrapredição vizinhos do modo horizontal, e a varredura diagonal é seleci-onada para os outros modos de intrapredição. Quando o tamanho da unidade de transformada é maior que o primeiro tamanho, a varredura diagonal é usada. O pri-meiro tamanho é 8x8. O número predeterminado é 8 se a unidade de transformada for 8x8.
[031] Em interpredição, um padrão predeterminado de varredura é usado in-dependente do tamanho da unidade de transformada. O padrão predeterminado de varredura é a varredura diagonal.
[032] O padrão de varredura de uma unidade de transformada de croma é igual ao padrão de varredura de uma unidade de transformada de luma correspondente. Portanto, o padrão de varredura é selecionado entre a varredura di-agonal, a varredura vertical e a varredura horizontal tal como mostrado acima quando o tamanho da unidade de transformada de croma é 4x4, e a varredura diagonal é usada quando o tamanho da unidade de transformada de croma é maior que 4x4.
[033] Quando o tamanho da unidade de transformada é maior que um se-gundo tamanho, o bloco quantizado é dividido em um subconjunto principal e em uma pluralidade de subconjuntos remanescentes e o padrão de varredura determinado é aplicado para cada subconjunto. Sinalizações significativas, sinais de coeficiente e níveis de coeficiente de cada subconjunto são varridos respectivamente de acordo com o padrão de varredura determinado. O subconjunto principal inclui coeficiente DC e os subconjuntos remanescentes cobrem a região a não ser a região coberta pelo subconjunto principal. O segundo tamanho é 4x4. O subconjunto é um bloco 4x4 contendo 16 coeficientes de transformada. O subconjunto para croma também é um bloco 4x4 contendo 16 coeficientes de transformada.
[034] O padrão de varredura para varrer os subconjuntos é o mesmo padrão de varredura para varrer coeficientes de transformada quantizados de cada subcon-junto. Os coeficientes de transformada quantizados de cada subconjunto são varridos na direção contrária. Os subconjuntos também são varridos na direção contrária.
[035] Posição de último coeficiente diferente de zero é codificada e transmitida para o decodificador. A posição de último coeficiente diferente de zero especifica uma posição de último coeficiente de transformada quantizado diferente de zero dentro da unidade de transformada. A posição de último coeficiente diferente de zero é usada para determinar o número de subconjuntos a ser sinalizados no decodificador. Sinalização de subconjunto diferente de zero é definida para os subconjuntos a não ser o subconjunto principal e o último subconjunto. O último subconjunto cobre o último coeficiente diferente de zero. A sinalização de subconjunto diferente de zero indica se o subconjunto contém coeficientes diferentes de zero ou não.
[036] A unidade de quantização inversa 155 quantiza inversamente os coefi-cientes de transformada quantizados do bloco quantizado.
[037] A unidade de transformada inversa 145 transforma inversamente o bloco quantizado inverso para gerar sinais residuais do domínio espacial.
[038] O somador 194 gera um bloco reconstruído ao somar o bloco residual e o bloco de predição.
[039] A unidade de pós-processamento 180 executa um processo de filtragem redutora de blocagem para remover artefato de blocagem gerado em uma imagem reconstruída.
[040] A unidade de armazenamento de imagens 190 recebe imagem pós-pro- cessada da unidade de pós-processamento 180, e armazena a imagem em unidades de imagem. Uma imagem pode ser um quadro ou um campo.
[041] A unidade de codificação de entropia 170 codifica por entropia a infor-mação de coeficiente unidimensional recebida da unidade de varredura 160, informação de intrapredição recebida da unidade de intrapredição 120, informação de movimento recebida da unidade de interpredição 130 e assim por diante.
[042] A figura 2 é um diagrama de blocos de um aparelho de decodificação de imagem 200 de acordo com a presente invenção.
[043] O aparelho de decodificação de imagem 200 de acordo com a presente invenção inclui uma unidade de decodificação de entropia 210, uma unidade de var-redura inversa 220, uma unidade de quantização inversa 230, uma unidade de transformada inversa 240, uma unidade de intrapredição 250, uma unidade de interpredi- ção 260, uma unidade de pós-processamento 270, uma unidade de armazenamento de imagens 280 e um somador 290.
[044] A unidade de decodificação de entropia 210 extrai a informação de in- trapredição, a informação de interpredição e a informação de coeficiente unidimensi-onal de um fluxo de bits recebido. A unidade de decodificação de entropia 210 transmite a informação de interpredição para a unidade de interpredição 260, a infor-mação de intrapredição para a unidade de intrapredição 250 e a informação de coefi-ciente para a unidade de varredura inversa 220.
[045] A unidade de varredura inversa 220 usa um padrão de varredura inversa para gerar um bloco quantizado. Quando CABAC é usada para codificação de entropia, o padrão de varredura é determinado como se segue.
[046] Em intrapredição, o padrão de varredura inversa é determinado pelo modo de intrapredição e pelo tamanho da unidade de transformada. O padrão de var-redura inversa é selecionado entre uma varredura diagonal, varredura vertical e var-redura horizontal. O padrão de varredura inversa selecionado é aplicado para sinali-zações significativas, sinais de coeficiente e níveis de coeficiente respectivamente para gerar o bloco quantizado. O padrão de varredura inversa da unidade de transfor-mada de croma é igual ao padrão de varredura de uma unidade de transformada de luma correspondente. O tamanho mínimo da unidade de transformada de croma é 4x4.
[047] Quando o tamanho da unidade de transformada é igual ou menor que um primeiro tamanho, a varredura horizontal é selecionada para o modo vertical e um número predeterminado de modos de intrapredição vizinhos do modo vertical, a var-redura vertical é selecionada para o modo horizontal e o número predeterminado de modos de intrapredição vizinhos do modo horizontal, e a varredura diagonal é seleci-onada para os outros modos de intrapredição. Quando o tamanho da unidade de transformada é maior que o primeiro tamanho, a varredura diagonal é usada. Quando o tamanho da unidade de transformada é maior que o primeiro tamanho, a varredura diagonal é selecionada para todos os modos de intrapredição. O primeiro tamanho é 8x8. O número predeterminado é 8 se a unidade de transformada for 8x8.
[048] Em interpredição, a varredura diagonal é usada.
[049] Quando o tamanho da unidade de transformada é maior que o segundo tamanho, as sinalizações significativas, os sinais de coeficiente e os níveis de coeficiente são varridos inversamente na unidade de subconjunto usando o padrão de varredura inversa determinado para gerar subconjuntos, e os subconjuntos são varridos inversamente para gerar o bloco quantizado. O segundo tamanho é igual ao tamanho do subconjunto. O subconjunto é um bloco 4x4 incluindo 16 coeficientes de transformada. O subconjunto para croma também é um bloco 4x4. Portanto, quando o tamanho da unidade de transformada de croma é maior que o segundo tamanho, os subconjuntos são gerados primeiro e os subconjuntos são varridos inversamente.
[050] O padrão de varredura inversa usado para gerar cada subconjunto é o mesmo padrão de varredura inversa usado para gerar o bloco quantizado. As sinali-zações significativas, os sinais de coeficiente e os níveis de coeficiente são varridos inversamente na direção contrária. Os subconjuntos também são varridos inversa-mente na direção contrária.
[051] A posição de último coeficiente diferente de zero e as sinalizações de subconjunto diferente de zero são recebidas do codificador. O número de subconjun-tos codificados é determinado de acordo com a posição de último coeficiente diferente de zero e o padrão de varredura inversa. As sinalizações de subconjunto diferente de zero são usadas para selecionar subconjuntos a ser gerados. O subconjunto principal e o último subconjunto são gerados usando o padrão de varredura inversa.
[052] A unidade de quantização inversa 230 recebe o parâmetro de quantiza- ção diferencial da unidade de decodificação de entropia 210 e gera o preditor de pa-râmetro de quantização para gerar o parâmetro de quantização da unidade de codifi-cação. A operação de gerar o parâmetro de quantização é a mesma operação da unidade de quantização 150 da figura 1. Então, o parâmetro de quantização da uni-dade de codificação atual é gerado ao somar o parâmetro de quantização diferencial e o preditor de parâmetro de quantização. Se o parâmetro de quantização diferencial para a unidade de codificação atual não for recebido do codificador, o parâmetro de quantização diferencial é definido para 0.
[053] Um parâmetro para indicar a relação entre o parâmetro de quantização e o parâmetro de quantização de croma é incluído no PPS. Um outro parâmetro é incluído no cabeçalho de fatia se for permitido mudar a relação pela fatia. Portanto, o parâmetro de quantização de croma é gerado usando o parâmetro de quantização e o parâmetro incluído no PPS ou usando o parâmetro de quantização e os dois parâ-metros.
[054] A unidade de quantização inversa 230 quantiza inversamente o bloco quantizado.
[055] A unidade de transformada inversa 240 transforma inversamente o bloco quantizado inverso para restaurar um bloco residual. O tipo de transformada inversa é determinado adaptativamente de acordo com o modo de predição e o tamanho da unidade de transformada. O tipo de transformada inversa é a transformada de número inteiro baseada em DCT ou a transformada de número inteiro baseada em DST. Por exemplo, em interpredição, transformadas de números inteiros baseadas em DCT são usadas. Em modo de intrapredição, se o tamanho da unidade de transformada for menor que um tamanho predeterminado, as transformadas de números inteiros baseadas em DST são usadas, de outro modo as transformadas de números inteiros baseadas em DCT são usadas. O tipo de transformada inversa da unidade de transformada de croma é igual ao tipo de transformada inversa da unidade de transformada correspondente. Portanto, o tipo de transformada inversa para a unidade de transformada de croma é a transformada de número inteiro baseada em DCT.
[056] A unidade de intrapredição 250 restaura o modo de intrapredição da unidade de predição atual usando a informação de intrapredição recebida, e gera um bloco de predição de acordo com o modo de intrapredição restaurado.
[057] A unidade de interpredição 260 restaura a informação de movimento da unidade de predição atual usando a informação de interpredição recebida, e gera um bloco de predição usando a informação de movimento.
[058] A unidade de pós-processamento 270 opera do mesmo modo que a unidade de pós-processamento 180 da figura 1.
[059] A unidade de armazenamento de imagens 280 recebe imagem pós-pro- cessada da unidade de pós-processamento 270, e armazena a imagem em unidades de imagem. Uma imagem pode ser um quadro ou um campo.
[060] O somador 290 soma o bloco residual restaurado e um bloco de predi-ção para gerar um bloco reconstruído.
[061] A figura 3 é um diagrama de blocos de um aparelho 300 de gerar um bloco de predição de acordo com a presente invenção.
[062] O aparelho 300 de acordo com a presente invenção inclui uma unidade de análise 310, um módulo de decodificação de modo de predição 320, um módulo de determinação de tamanho de predição 330, um módulo de geração de pixels de referência 340, um módulo de filtragem de pixels de referência 350 e um módulo de geração de blocos de predição 360.
[063] A unidade de análise 310 analisa parâmetros de intrapredição da uni-dade de predição atual do fluxo de bits.
[064] Os parâmetros de intrapredição para luma incluídos são um indicador de grupo de modo e um índice de modo de predição. O indicador de grupo de modo é uma sinalização indicando se o modo de intrapredição da unidade de predição atual pertence a um grupo de modo mais provável (grupo MPM). Se a sinalização for 1, a unidade de intrapredição da unidade de predição atual pertence ao grupo MPM. Se a sinalização for 0, a unidade de intrapredição da unidade de predição atual pertence a um grupo de modo residual. O grupo de modo residual inclui todos os modos de intra- predição a não ser os modos de intrapredição do grupo MPM. O índice de modo de predição especifica o modo de intrapredição da unidade de predição atual dentro do grupo especificado pelo indicador de grupo de modo. O parâmetro de intrapredição para croma é especificado por um índice de modo de predição de croma.
[065] O módulo de decodificação de modo de predição 320 deriva um modo de intrapredição de luma e um modo de intrapredição de croma.
[066] O modo de intrapredição de luma é derivado como se segue.
[067] O grupo MPM é construído usando modos de intrapredição das unida-des de predição vizinhas. Os modos de intrapredição do grupo MPM são determina-dos adaptativamente por um modo de intrapredição à esquerda e um modo de intra- predição acima. O modo de intrapredição à esquerda é o modo de intrapredição da unidade de predição vizinha à esquerda, e o modo de intrapredição acima é o modo de intrapredição da unidade de predição vizinha acima. O grupo MPM é compreendido de três modos de intrapredição.
[068] Se a unidade de predição vizinha à esquerda ou acima não existir, o modo de intrapredição da unidade vizinha à esquerda ou acima é definido como indisponível. Por exemplo, se a unidade de predição atual estiver localizada no limite esquerdo ou superior de uma imagem, a unidade de predição vizinha à esquerda ou acima não existe. Se a unidade vizinha à esquerda ou acima estiver localizada dentro de outra fatia, o modo de intrapredição da unidade vizinha à esquerda ou acima é definido como indisponível.
[069] A figura 4 é um diagrama conceitual ilustrando modos de intrapredição de acordo com a presente invenção. Tal como mostrado na figura 4, o número de modos de intrapredição é 35. O modo DC e o modo planar são modos de intrapredição não direcionais e os outros são modos de intrapredição direcionais.
[070] Quando ambos de o modo de intrapredição à esquerda e o modo de intrapredição acima estão disponíveis e são diferentes um do outro, o modo de intra- predição à esquerda e o modo de intrapredição acima são incluídos no grupo MPM e um modo de intrapredição adicional é acrescentado ao grupo MPM. Se um dos modos de intrapredição à esquerda e acima é um modo não direcional e o outro é um modo direcional, o outro modo não direcional é definido como o modo de intrapredição adi-cional. Se ambos os modos de intrapredição à esquerda e acima são modos não di-recionais, o modo vertical é definido como o modo de intrapredição adicional.
[071] Quando somente um de o modo de intrapredição à esquerda e o modo de intrapredição acima está disponível, o modo de intrapredição disponível é incluído no grupo MPM e dois modos de intrapredição adicionais são acrescentados ao grupo MPM. Se o modo de intrapredição disponível for um modo não direcional, o outro modo não direcional e o modo vertical são definidos como os modos de intrapredição adicionais. Se o modo de intrapredição disponível for um modo direcional, dois modos não direcionais são definidos como os modos de intrapredição adicionais.
[072] Quando ambos de o modo de intrapredição à esquerda e o modo de intrapredição acima estão indisponíveis, o modo DC, o modo planar e o modo vertical são adicionados ao grupo MPM.
[073] Se o indicador de grupo de modo indicar o grupo MPM, a intrapredição do grupo MPM especificado pelo índice de modo de predição é definida como o modo de intrapredição da unidade de predição atual.
[074] Se o indicador de grupo de modo não indicar o grupo MPM, as três in- trapredições do grupo MPM são reordenadas na ordem de número de modo. Entre os três modos de intrapredição do grupo MPM, o modo de intrapredição com número de modo mais baixo é definido como um primeiro candidato, o modo de intrapredição com número de modo intermediário é definido como um segundo candidato, e o modo de intrapredição com número de modo mais alto é definido como um terceiro candidato.
[075] Se o índice de modo de predição for igual ou maior que o do primeiro candidato do grupo MPM, o valor do índice de modo de predição é aumentado por um. Se o índice de modo de predição for igual ou maior que o do segundo candidato do grupo MPM, o valor do índice de modo de predição é aumentado por um. Se o índice de modo de predição for igual ou maior que o do terceiro candidato do grupo MPM, o valor do índice de modo de predição é aumentado por um. O valor do índice de modo de predição final é definido como o número de modo do modo de intrapredi- ção da unidade de predição atual.
[076] O modo de intrapredição de croma é definido como um modo de intra- predição especificado pelo índice de modo de predição de croma. Se o índice de modo de predição de croma especificar um modo DM, o modo de intrapredição de croma é definido igual ao modo de intrapredição de luma.
[077] O módulo de determinação de tamanho de predição 330 determina o tamanho do bloco de predição com base na informação de tamanho de transformada especificando o tamanho da unidade de transformada. A informação de tamanho de transformada pode ser uma ou mais split_tu_flags. O tamanho do bloco de predição de croma também é determinado com base na informação de tamanho de transfor-mada. O tamanho mínimo do bloco de predição de croma é 4x4.
[078] Se o tamanho da unidade de transformada for igual ao tamanho da unidade de predição atual, o tamanho do bloco de predição é igual ao tamanho da unidade de predição atual.
[079] Se o tamanho da unidade de transformada for menor que o tamanho da unidade de predição atual, o tamanho do bloco de predição é igual ao tamanho da unidade de transformada. Neste caso, um processo de gerar um bloco reconstruído é executado em cada sub-bloco da unidade de predição atual. Isto é, um bloco de predição e um bloco residual de um sub-bloco atual são gerados e um bloco reconstruído de cada sub-bloco é gerado ao somar o bloco de predição e o bloco residual. Então, um bloco de predição, um bloco residual e um bloco reconstruído do próximo sub- bloco na ordem de decodificação são gerados. O modo de intrapredição restaurado é usado para gerar todos os blocos de predição de todos os sub-blocos. Alguns pixels do bloco reconstruído do sub-bloco atual são usados como pixels de referência do próximo sub-bloco. Portanto, é possível gerar um bloco de predição que é mais similar ao sub-bloco original.
[080] O módulo de geração de pixels de referência 340 gera pixels de referência se um ou mais pixels de referência do bloco atual estiverem indisponíveis. Os pixels de referência dos blocos atuais são compreendidos de pixels de referência acima localizados em (x=0, ..., 2N-1, y=-1), pixels de referência à esquerda localizados em (x=-1, y=0, ..., 2M-1) e um pixel de canto localizado em (x=-1, y=-1). N é a largura do bloco atual e M é a altura do bloco atual. O bloco atual é a unidade de predição atual ou o sub-bloco atual tendo o tamanho da unidade de transformada. Pixels de referência do bloco de croma atual também são gerados se um ou mais pixels de referência estiverem indisponíveis.
[081] Se todos os pixels de referência estiverem indisponíveis, o valor de 2L-1 é substituído para os valores de todos os pixels de referência. O valor de L é o número de bits usados para representar valor de pixel de luminância.
[082] Se pixels de referência disponíveis estiverem localizados somente em um lado do pixel de referência indisponível, o valor do pixel de referência mais próximo ao pixel indisponível é substituído para o pixel de referência indisponível.
[083] Se pixels de referência disponíveis estiverem localizados em ambos os lados do pixel de referência indisponível, o valor médio dos pixels de referência mais próximos ao pixel indisponível em cada lado ou o valor do pixel de referência mais próximo ao pixel indisponível em uma direção predeterminada é substituído para cada pixel de referência indisponível.
[084] O módulo de filtragem de pixels de referência 350 filtra adaptativamente os pixels de referência do bloco de luma atual com base no modo de intrapredição e no tamanho da unidade de transformada.
[085] No modo DC os pixels de referência não são filtrados. No modo vertical e no modo horizontal os pixels de referência não são filtrados. Nos modos direcionais a não ser os modos vertical e horizontal, os pixels de referência são adaptativamente de acordo com o tamanho do bloco atual.
[086] Se o tamanho do bloco atual for 4x4, os pixels de referência não são filtrados em todos os modos de intrapredição. Para os tamanhos 8x8, 16x16 e 32x32, o número de modo de intrapredição onde os pixels de referência são filtrados aumenta à medida que o tamanho do bloco atual se torna maior. Por exemplo, os pixels de referência não são filtrados no modo vertical e em um número predeterminado de modo de intrapredição vizinho do modo vertical. Os pixels de referência também são não filtrados no modo horizontal e no número predeterminado de modo de intrapredi- ção vizinho do modo horizontal. O número predeterminado se encontra entre 0 a 7 e diminui à medida que o tamanho do bloco atual é maior.
[087] O módulo de filtragem de pixels de referência 350 não filtra os pixels de referência do bloco de croma atual independente do modo de intrapredição e do ta-manho da unidade de transformada.
[088] O módulo de geração de blocos de predição 360 gera um bloco de pre-dição do bloco atual usando os pixels de referência de acordo com o modo de intra- predição restaurado.
[089] No modo DC, os pixels de predição do bloco de predição são gerados ao calcular a média dos N pixels de referência localizados em (x=0,...N-1, y=-1) e os M pixels de referência localizados em (x=-1, y=0, ..M-1). Os pixels de predição de luma adjacentes ao pixel de referência são filtrados por um ou dois pixels de referência adjacentes. Os pixels de predição de croma não são filtrados.
[090] No modo vertical os pixels de predição são gerados ao copiar o pixel de referência acima correspondente. Os pixels de predição de luma adjacentes ao pixel de referência à esquerda são filtrados pelo pixel de referência vizinho à esquerda e pelo pixel de referência de canto. Os pixels de predição de croma não são filtrados.
[091] No modo horizontal os pixels de predição são gerados ao copiar o pixel de referência à esquerda correspondente. Os pixels de predição de luma adjacentes ao pixel de referência acima são filtrados pelo pixel de referência vizinho à esquerda e pelo pixel de referência de canto. Os pixels de predição de croma não são filtrados.
[092] A figura 5 é um diagrama de blocos de um aparelho 400 de gerar um bloco residual de acordo com a presente invenção.
[093] O aparelho 400 de acordo com a presente invenção inclui uma unidade de decodificação de entropia 410, uma unidade de varredura inversa 420, uma uni-dade de quantização inversa 430 e uma unidade de transformada inversa 440.
[094] A unidade de decodificação de entropia 410 decodifica sinais residuais codificados para gerar componentes de coeficiente quantizado. Quando CABAC é usada para codificação de entropia, os componentes de coeficiente incluem sinaliza-ções significativas, sinais de coeficiente e níveis de coeficiente. A sinalização signifi-cativa indica se o coeficiente de transformada quantizado correspondente é zero ou não. O sinal de coeficiente indica um sinal de coeficiente de transformada quantizado diferente de zero, e o nível de coeficiente indica um valor absoluto de coeficiente de transformada quantizado diferente de zero.
[095] A unidade de varredura inversa 420 determina um padrão de varredura inversa e gera um bloco quantizado usando o padrão de varredura inversa. A opera-ção da unidade de varredura inversa 420 é igual àquela da unidade de varredura in-versa 220 da figura 2.
[096] A unidade de quantização inversa 430 deriva parâmetro de quantização, seleciona uma matriz de quantização inversa e quantiza inversamente o bloco quan- tizado para gerar um bloco transformado.
[097] O parâmetro de quantização de luma é derivado tal como a seguir.
[098] Um tamanho mínimo de uma unidade de quantização é determinado. O tamanho mínimo da unidade de quantização é determinado por imagem usando um indicador de tamanho de QU incluído no PPS. O indicador de tamanho de QU especifica o tamanho mínimo da unidade de quantização.
[099] Um parâmetro de quantização diferencial (dQP) da unidade de codifica-ção atual é gerado. O dQP é gerado por unidade de quantização por meio de decodi- ficação de entropia. Se a unidade de codificação atual não contiver um dQP codifi-cado, o dQP é definido para zero. Se a unidade de quantização incluir múltiplas uni-dades de codificação, o dQP é incluído no fluxo de bits da primeira unidade de codifi-cação contendo coeficiente diferente de zero.
[0100] Um preditor de parâmetro de quantização da unidade de codificação atual é gerado. O preditor de parâmetro de quantização é gerado usando a mesma operação da unidade de quantização inversa 230 da figura 2. Se a unidade de quan- tização incluir múltiplas unidades de codificação, o preditor de parâmetro de quantiza- ção da primeira unidade de codificação na ordem de decodificação é gerado, e o gerado preditor de parâmetro de quantização é compartilhado para todas as outras unidades de codificação dentro da unidade de quantização.
[0101] O parâmetro de quantização é gerado usando o dQP e o preditor de parâmetro de quantização.
[0102] O parâmetro de quantização de croma é gerado usando o parâmetro de quantização de luma e um parâmetro de deslocamento indicando a relação entre o parâmetro de quantização de luma e o parâmetro de quantização de croma. O pa-râmetro de deslocamento é incluído no PPS. O parâmetro de deslocamento é mudado por um parâmetro de ajuste de deslocamento incluído no cabeçalho de fatia se for permitido mudar o deslocamento pela fatia.
[0103] A unidade de transformada inversa 440 transforma inversamente o bloco transformado para gerar um bloco residual. Um tipo de transformada inversa é determinada adaptativamente de acordo com o modo de predição e o tamanho da unidade de transformada. O tipo de transformada inversa é a transformada de número inteiro baseada em DCT ou a transformada de número inteiro baseada em DST. Em modo de intrapredição, se o tamanho da unidade de transformada de luma for menor que 8x8, a transformada de número inteiro baseada em DST é usada, de outro modo a transformada de número inteiro baseada em DCT é usada. A transformada de nú-mero inteiro baseada em DCT é aplicada para o bloco de croma transformado.
[0104] O bloco de predição e o bloco residual são somados para gerar um bloco reconstruído. O tamanho do bloco reconstruído é igual ao tamanho da unidade de transformada. Portanto, se o tamanho da unidade de predição for maior que a uni-dade de transformada, o primeiro bloco reconstruído é gerado e então o próximo bloco reconstruído na ordem de decodificação é gerado ao gerar um bloco de predição e um bloco residual até que o último bloco reconstruído seja gerado. O modo de intra- predição da unidade de predição atual é usado para gerar blocos de predição e blocos residuais.
[0105] Embora a invenção tenha sido mostrada e descrita com referência para certas modalidades exemplares da mesma, será entendido pelos versados na técnica que várias mudanças em forma e detalhes podem ser feitas na mesma sem divergir do espírito e escopo da invenção tal como definida pelas reivindicações anexas.
Claims (7)
1. Aparelho para decodificar dados de vídeo, CARACTERIZADO pelo fato de que compreende: um módulo de decodificação de modo de predição configurado para derivar um modo de intrapredição de luma e um modo de intrapredição de croma, em que o modo de intrapredição de luma é derivado ao usar um índice de modo de predição, um indicador de grupo de modo, e um grupo MPM (Modo Mais Provável) incluindo três modos de intrapredição; um modulo de determinação de tamanho de predição configurado para determinar um tamanho de uma unidade de transformada de luma e um tamanho de uma unidade de transformada de croma; um módulo de geração de pixel de referência configurado para gerar um pixel de referência quando pelo menos um dentre pixels de referência estiver indisponível; um módulo de filtragem de pixel de referência configurado para filtrar adapta- tivamente os pixels de referência de um bloco de luma atual com base no modo de intrapredição de luma e no tamanho da unidade de transformada de luma, e para não filtrar os pixels de referência de um bloco de croma atual; um módulo de geração de blocos de predição configurado para gerar blocos de predição de um bloco de croma e do bloco de luma atual usando pixels de referência filtrados adaptativamente; e um módulo de geração de blocos residuais configurado para gerar blocos re-siduais do bloco de croma atual e do bloco de luma atual, e em que, dentre os três modos de intrapredição incluídos no grupo MPM, um modo de intrapredição indicado pelo índice de modo de predição é definido como o modo de intrapredição de luma quando o indicador de grupo de modo indica o grupo MPM, em que, quando o indicador de grupo de modo não indica o grupo MPM, o modo de intrapredição de luma é determinado ao comparar sequencialmente o índice de modo de predição e os três modos de intrapredição no grupo MPM, em que, quando somente um dentre os modos de intrapredição à esquerda e acima de uma unidade de predição de luma atual está disponível, o grupo MPM inclui o modo de intrapredição disponível e dois modos de intrapredição adicionais determinados pelo modo de intrapredição disponível, e em que, quando o indicador de grupo de modo não indica o grupo MPM, o modo de intrapredição de luma é determinado ao comparar o índice de modo de pre-dição e os três modos de intrapredição no grupo MPM, de uma maneira que o índice de modo de predição é comparado inicialmente com o modo mais baixo dentre os três modos de intrapredição no grupo MPM e comparado por último com o modo mais alto dentre os três modos de intrapredição no grupo MPM.
2. Aparelho, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que o modo de intrapredição de croma é o mesmo que o modo de intrapredição de luma quando o modo de intrapredição de croma for um modo DM.
3. Aparelho, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que, quando o modo de intrapredição disponível é um modo direcional, o modo DC e o modo planar são definidos como os dois modos de intrapredição adicionais.
4. Aparelho, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que quando o modo de intrapredição disponível é um modo não direcional, o modo vertical e o um restante do modo não direcional são definidos como os dois modos de intrapredição adicionais.
5. Aparelho, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que, se uma unidade de predição de croma atual for maior que a unidade de trans-formada de croma, o modo de intrapredição de croma é usado para gerar bloco de predição de outro bloco dentro da unidade de predição de croma.
6. Aparelho, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que, quando o indicador de grupo de modo não indica o grupo MPM, se o índice de modo de predição for igual a ou maior que o modo de intrapredição, um valor do índice de modo de predição é aumentado por um.
7. Aparelho, de acordo com a reivindicação 1, CARACTERIZADO pelo fato em que o grupo MPM inclui um modo DC, um modo planar e um modo vertical quando ambos os modos de intrapredição à esquerda e acima estão indisponíveis.
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20110114610A KR20130049526A (ko) | 2011-11-04 | 2011-11-04 | 복원 블록 생성 방법 |
KR10-2011-0114610 | 2011-11-04 | ||
BR112014007597-2A BR112014007597B1 (pt) | 2011-11-04 | 2012-11-02 | Aparelho de decodificação de dados de vídeo |
PCT/CN2012/083997 WO2013064100A1 (en) | 2011-11-04 | 2012-11-02 | Apparatus of decoding video data |
Publications (3)
Publication Number | Publication Date |
---|---|
BR122020015318A2 BR122020015318A2 (pt) | 2020-10-13 |
BR122020015318A8 BR122020015318A8 (pt) | 2022-10-04 |
BR122020015318B1 true BR122020015318B1 (pt) | 2023-12-12 |
Family
ID=48191361
Family Applications (5)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
BR112014007597-2A BR112014007597B1 (pt) | 2011-11-04 | 2012-11-02 | Aparelho de decodificação de dados de vídeo |
BR122020015318-0A BR122020015318B1 (pt) | 2011-11-04 | 2012-11-02 | Aparelho para decodificar dados de vídeo |
BR122020015314-8A BR122020015314B1 (pt) | 2011-11-04 | 2012-11-02 | Aparelho para decodificar dados de vídeo |
BR122020015315-6A BR122020015315B1 (pt) | 2011-11-04 | 2012-11-02 | Aparelho para decodificar dados de vídeo |
BR122020015319-9A BR122020015319B1 (pt) | 2011-11-04 | 2012-11-02 | Aparelho de decodificação de dados de vídeo |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
BR112014007597-2A BR112014007597B1 (pt) | 2011-11-04 | 2012-11-02 | Aparelho de decodificação de dados de vídeo |
Family Applications After (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
BR122020015314-8A BR122020015314B1 (pt) | 2011-11-04 | 2012-11-02 | Aparelho para decodificar dados de vídeo |
BR122020015315-6A BR122020015315B1 (pt) | 2011-11-04 | 2012-11-02 | Aparelho para decodificar dados de vídeo |
BR122020015319-9A BR122020015319B1 (pt) | 2011-11-04 | 2012-11-02 | Aparelho de decodificação de dados de vídeo |
Country Status (28)
Country | Link |
---|---|
US (11) | US9374582B2 (pt) |
EP (5) | EP3361729A1 (pt) |
JP (12) | JP5914680B2 (pt) |
KR (4) | KR20130049526A (pt) |
CN (9) | CN107396110B (pt) |
AU (1) | AU2012331602B2 (pt) |
BR (5) | BR112014007597B1 (pt) |
CA (3) | CA2999131C (pt) |
CY (1) | CY1120280T1 (pt) |
DK (1) | DK2774374T3 (pt) |
ES (1) | ES2673191T3 (pt) |
HR (1) | HRP20180969T1 (pt) |
HU (1) | HUE037568T2 (pt) |
IL (5) | IL231706A (pt) |
IN (1) | IN2014CN03912A (pt) |
LT (1) | LT2774374T (pt) |
MX (5) | MX340887B (pt) |
MY (6) | MY192963A (pt) |
NO (1) | NO2774374T3 (pt) |
PH (4) | PH12016502084A1 (pt) |
PL (1) | PL2774374T4 (pt) |
PT (1) | PT2774374T (pt) |
RS (1) | RS57240B1 (pt) |
RU (5) | RU2601445C2 (pt) |
SG (2) | SG10201607022WA (pt) |
SI (1) | SI2774374T1 (pt) |
TW (8) | TWI809520B (pt) |
WO (1) | WO2013064100A1 (pt) |
Families Citing this family (95)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102427824B1 (ko) * | 2010-12-08 | 2022-08-02 | 엘지전자 주식회사 | 인트라 예측 방법과 이를 이용한 부호화 장치 및 복호화 장치 |
DK2685724T3 (da) | 2011-03-06 | 2020-05-18 | Lg Electronics Inc | Intraforudsigelsesfremgangsmåde af krominansblok under anvendelse af luminansprøve, og apparat anvendende samme |
HUE038712T2 (hu) * | 2011-06-28 | 2018-11-28 | Samsung Electronics Co Ltd | Eljárás video dekódolására intra predikcióval |
PL3379833T3 (pl) | 2011-10-18 | 2021-12-13 | Lg Electronics Inc. | Sposób intra-predykcji i jego urządzenie |
KR20130049522A (ko) * | 2011-11-04 | 2013-05-14 | 오수미 | 인트라 예측 블록 생성 방법 |
KR20130049526A (ko) * | 2011-11-04 | 2013-05-14 | 오수미 | 복원 블록 생성 방법 |
KR20130049525A (ko) * | 2011-11-04 | 2013-05-14 | 오수미 | 잔차 블록 복원을 위한 역변환 방법 |
KR20130050407A (ko) | 2011-11-07 | 2013-05-16 | 오수미 | 인터 모드에서의 움직임 정보 생성 방법 |
MX355319B (es) * | 2011-11-08 | 2018-04-16 | Kt Corp | Método y aparato para exploración de coeficientes con base en el modo de división de la unidad de predicción. |
KR20130058524A (ko) * | 2011-11-25 | 2013-06-04 | 오수미 | 색차 인트라 예측 블록 생성 방법 |
JP6064580B2 (ja) * | 2011-12-21 | 2017-01-25 | 株式会社Jvcケンウッド | 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム、並びに送信装置、送信方法及び送信プログラム |
JP6064581B2 (ja) * | 2011-12-21 | 2017-01-25 | 株式会社Jvcケンウッド | 動画像復号装置、動画像復号方法及び動画像復号プログラム、並びに受信装置、受信方法及び受信プログラム |
US9210438B2 (en) * | 2012-01-20 | 2015-12-08 | Sony Corporation | Logical intra mode naming in HEVC video coding |
KR101591352B1 (ko) | 2012-04-16 | 2016-02-04 | 한국전자통신연구원 | 비디오 복호화 장치 |
CN108712652A (zh) | 2012-06-29 | 2018-10-26 | 韩国电子通信研究院 | 视频编码方法和计算机可读介质 |
WO2014038153A1 (ja) | 2012-09-10 | 2014-03-13 | パナソニック株式会社 | 画像符号化方法、画像復号化方法、画像符号化装置、画像復号化装置、および、画像符号化復号化装置 |
US9288507B2 (en) * | 2013-06-21 | 2016-03-15 | Qualcomm Incorporated | More accurate advanced residual prediction (ARP) for texture coding |
US20150016516A1 (en) * | 2013-07-15 | 2015-01-15 | Samsung Electronics Co., Ltd. | Method for intra prediction improvements for oblique modes in video coding |
KR101530774B1 (ko) | 2013-09-30 | 2015-06-22 | 연세대학교 산학협력단 | 영상 부호화 및 복호화 방법, 장치 및 시스템 |
US10397607B2 (en) * | 2013-11-01 | 2019-08-27 | Qualcomm Incorporated | Color residual prediction for video coding |
KR101530782B1 (ko) * | 2013-12-03 | 2015-06-22 | 연세대학교 산학협력단 | 영상 부호화 및 복호화 방법, 장치 및 시스템 |
KR101884408B1 (ko) * | 2014-06-19 | 2018-08-02 | 브이아이디 스케일, 인크. | 3차원 기반 컬러 매핑에서의 모델 파라미터 최적화를 위한 시스템 및 방법 |
CN107113431B (zh) | 2014-10-03 | 2020-12-01 | 日本电气株式会社 | 视频编码设备、视频解码设备、视频编码方法、视频解码方法和程序 |
US9883184B2 (en) * | 2014-10-07 | 2018-01-30 | Qualcomm Incorporated | QP derivation and offset for adaptive color transform in video coding |
US9838662B2 (en) * | 2014-10-10 | 2017-12-05 | Qualcomm Incorporated | Harmonization of cross-component prediction and adaptive color transform in video coding |
WO2016072777A1 (ko) * | 2014-11-06 | 2016-05-12 | 삼성전자 주식회사 | 인트라 결합 예측 부호화, 복호화 방법 및 장치 |
US10306229B2 (en) * | 2015-01-26 | 2019-05-28 | Qualcomm Incorporated | Enhanced multiple transforms for prediction residual |
KR102570911B1 (ko) * | 2015-07-08 | 2023-08-24 | 인터디지털 매디슨 페턴트 홀딩스 에스에이에스 | 교차 평면 필터링을 이용한 향상된 크로마 코딩 |
CN109155847A (zh) * | 2016-03-24 | 2019-01-04 | 英迪股份有限公司 | 用于编码/解码视频信号的方法和装置 |
ES2710807B1 (es) * | 2016-03-28 | 2020-03-27 | Kt Corp | Metodo y aparato para procesar senales de video |
CN109314790A (zh) * | 2016-05-23 | 2019-02-05 | 佳稳电子有限公司 | 影像处理方法、利用其的影像解码及编码方法 |
KR20180040319A (ko) * | 2016-10-12 | 2018-04-20 | 가온미디어 주식회사 | 영상 처리 방법, 그를 이용한 영상 복호화 및 부호화 방법 |
CA3025490A1 (en) * | 2016-05-28 | 2017-12-07 | Mediatek Inc. | Method and apparatus of current picture referencing for video coding using affine motion compensation |
CN117201809A (zh) * | 2016-08-01 | 2023-12-08 | 韩国电子通信研究院 | 图像编码/解码方法和装置以及存储比特流的记录介质 |
US11405620B2 (en) * | 2016-08-01 | 2022-08-02 | Electronics And Telecommunications Research Institute | Image encoding/decoding method and apparatus with sub-block intra prediction |
EP3509299B1 (en) * | 2016-09-05 | 2024-05-01 | Rosedale Dynamics LLC | Image encoding/decoding method and device therefor |
KR20190029737A (ko) * | 2016-09-22 | 2019-03-20 | 엘지전자 주식회사 | 영상 코딩 시스템에서 조도 보상 기반 인터 예측 방법 및 장치 |
US20190253624A1 (en) * | 2017-07-17 | 2019-08-15 | Ki Baek Kim | Image data encoding/decoding method and apparatus |
KR102531386B1 (ko) | 2016-10-04 | 2023-05-12 | 주식회사 비원영상기술연구소 | 영상 데이터 부호화/복호화 방법 및 장치 |
KR102422506B1 (ko) * | 2016-11-29 | 2022-07-20 | 한국전자통신연구원 | 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체 |
HUE062025T2 (hu) * | 2016-12-23 | 2023-09-28 | Huawei Tech Co Ltd | Kódoló berendezés egy kiterjesztési irányú intra-predikciós mód jelzésére irányított intra-predikciós módok csoportján belül |
CN117336474A (zh) | 2017-01-02 | 2024-01-02 | Lx 半导体科技有限公司 | 图像编码/解码设备以及发送图像数据的设备 |
EP3643063A1 (en) * | 2017-06-21 | 2020-04-29 | Vid Scale, Inc. | Adaptive quantization for 360-degree video coding |
CN117336511A (zh) * | 2017-07-06 | 2024-01-02 | Lx 半导体科技有限公司 | 图像编码方法、图像解码方法、发送方法和数字存储介质 |
WO2019023200A1 (en) * | 2017-07-24 | 2019-01-31 | Arris Enterprises Llc | INTRA-MODE JVET CODING |
WO2019183986A1 (zh) | 2018-03-31 | 2019-10-03 | 华为技术有限公司 | 一种图像块的帧内模式预测方法及装置 |
CN116647681A (zh) | 2018-04-01 | 2023-08-25 | Oppo广东移动通信有限公司 | 使用帧内预测的图像编码/解码方法和装置 |
EP4283989A1 (en) * | 2018-04-01 | 2023-11-29 | LG Electronics Inc. | An image coding apparatus and method thereof based on a quantization parameter derivation |
MX2020012071A (es) * | 2018-05-17 | 2021-02-09 | Ericsson Telefon Ab L M | Desbloqueo de limites implicitos de la unidad de transformacion. |
IL279503B2 (en) | 2018-06-25 | 2024-09-01 | Guangdong Oppo Mobile Telecommunications Corp Ltd | Interior-frame and device prediction method |
KR20210023884A (ko) * | 2018-06-29 | 2021-03-04 | 인터디지털 브이씨 홀딩스 인코포레이티드 | 적응적 계수 그룹에 기초한 비디오 인코딩 및 디코딩을 위한 방법 및 장치 |
WO2020013497A1 (ko) * | 2018-07-13 | 2020-01-16 | 엘지전자 주식회사 | 영상 코딩 시스템에서 인트라 예측 정보를 사용하는 영상 디코딩 방법 및 그 장치 |
CN110166785B (zh) * | 2018-07-25 | 2022-09-13 | 腾讯科技(深圳)有限公司 | 帧内预测方法和装置、以及存储介质和电子装置 |
CN118158441A (zh) * | 2018-08-28 | 2024-06-07 | 华为技术有限公司 | 图像划分方法及装置 |
CN115037934B (zh) * | 2018-09-02 | 2024-04-26 | Lg电子株式会社 | 用于图像信号编码和解码的方法及计算机可读记录介质 |
CN117729327A (zh) * | 2018-09-03 | 2024-03-19 | 华为技术有限公司 | 用于帧内预测的方法和装置 |
KR102543468B1 (ko) * | 2018-10-04 | 2023-06-14 | 엘지전자 주식회사 | Cclm에 기반한 인트라 예측 방법 및 그 장치 |
US11095885B2 (en) * | 2018-10-05 | 2021-08-17 | Tencent America LLC | Mode list generation for multi-line intra prediction |
US10893286B2 (en) * | 2018-10-09 | 2021-01-12 | Tencent America LLC | Methods and apparatus for low-complexity MTS |
WO2020111981A1 (en) * | 2018-11-26 | 2020-06-04 | Huawei Technologies Co., Ltd. | Apparatus and method for chrominance quantization parameter derivation |
CN118741097A (zh) | 2018-12-12 | 2024-10-01 | 数码士有限公司 | 使用当前图片参考的视频信号处理方法和设备 |
CN116828192A (zh) * | 2018-12-15 | 2023-09-29 | 华为技术有限公司 | 图像重建方法和装置 |
US11323748B2 (en) | 2018-12-19 | 2022-05-03 | Qualcomm Incorporated | Tree-based transform unit (TU) partition for video coding |
CN113273203B (zh) | 2018-12-22 | 2024-03-12 | 北京字节跳动网络技术有限公司 | 两步交叉分量预测模式 |
CN118200555A (zh) | 2018-12-27 | 2024-06-14 | 英迪股份有限公司 | 图像编码/解码方法和装置 |
CN113330742A (zh) * | 2018-12-28 | 2021-08-31 | 韩国电子通信研究院 | 视频编码/解码方法、设备以及存储有比特流的记录介质 |
WO2020139013A1 (ko) * | 2018-12-28 | 2020-07-02 | 한국전자통신연구원 | 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체 |
CN118660160A (zh) | 2018-12-28 | 2024-09-17 | 有限公司B1影像技术研究所 | 对图像进行编码/解码的方法和计算机可读存储介质 |
AU2019419322B2 (en) | 2018-12-31 | 2023-11-23 | Huawei Technologies Co., Ltd. | Method and apparatus of cross-component linear modeling for intra prediction |
EP3697094A1 (en) | 2019-02-13 | 2020-08-19 | InterDigital VC Holdings, Inc. | Intra prediction mode extension |
WO2020171681A1 (ko) * | 2019-02-19 | 2020-08-27 | 주식회사 윌러스표준기술연구소 | 인트라 예측 기반 비디오 신호 처리 방법 및 장치 |
JP7305637B2 (ja) * | 2019-03-23 | 2023-07-10 | エルジー エレクトロニクス インコーポレイティド | Mpmリストを利用するイントラ予測に基づく映像コーディング方法及びその装置 |
KR20210145754A (ko) | 2019-04-12 | 2021-12-02 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 행렬 기반 인트라 예측에서의 산출 |
US20220217366A1 (en) * | 2019-04-27 | 2022-07-07 | Wilus Institute Of Standards And Technology Inc. | Method and device for processiong video signal on basis of intra prediction |
MX2021013811A (es) * | 2019-05-17 | 2021-12-14 | Panasonic Ip Corp America | Sistema y metodo para codificacion de video. |
JP2022535726A (ja) | 2019-05-31 | 2022-08-10 | 北京字節跳動網絡技術有限公司 | 行列ベースイントラ予測における制約されたアップサンプリングプロセス |
WO2020244610A1 (en) | 2019-06-05 | 2020-12-10 | Beijing Bytedance Network Technology Co., Ltd. | Context determination for matrix-based intra prediction |
CN114026862A (zh) * | 2019-06-21 | 2022-02-08 | 松下电器(美国)知识产权公司 | 用于视频译码的系统和方法 |
AU2020303803B2 (en) * | 2019-06-24 | 2023-12-07 | Lg Electronics Inc. | Image encoding/decoding method and device using maximum transform size restriction of chroma component encoding block, and method for transmitting bitstream |
WO2020262963A1 (ko) | 2019-06-24 | 2020-12-30 | 엘지전자 주식회사 | 크로마 블록의 최대 변환 크기 설정을 이용한 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법 |
US12003727B2 (en) | 2019-06-28 | 2024-06-04 | Lg Electronics Inc. | Image decoding method using chroma quantization parameter table, and device therefor |
CN117714698A (zh) | 2019-06-28 | 2024-03-15 | 字节跳动有限公司 | 屏幕内容编解码中的色度帧内模式推导 |
JP7339370B2 (ja) * | 2019-06-28 | 2023-09-05 | エルジー エレクトロニクス インコーポレイティド | クロマ量子化パラメータデータに対する画像デコード方法及びその装置 |
KR20220029586A (ko) * | 2019-07-05 | 2022-03-08 | 엘지전자 주식회사 | 크로마 양자화 파라미터 데이터를 코딩하는 영상 디코딩 방법 및 그 장치 |
KR102641457B1 (ko) * | 2019-07-05 | 2024-02-28 | 엘지전자 주식회사 | 크로마 성분에 대한 영상 디코딩 방법 및 그 장치 |
KR20210126771A (ko) | 2019-07-24 | 2021-10-20 | 후아웨이 테크놀러지 컴퍼니 리미티드 | 인트라 예측 모드에 관련된 인코더, 디코더 및 대응하는 방법들 |
JP7384998B2 (ja) | 2019-08-01 | 2023-11-21 | ホアウェイ・テクノロジーズ・カンパニー・リミテッド | クロマイントラモード導出のエンコーダ、デコーダ、および対応する方法 |
CN115834879A (zh) * | 2019-08-14 | 2023-03-21 | Lg电子株式会社 | 图像编解码方法、发送比特流的方法和记录介质 |
WO2021091254A1 (ko) | 2019-11-05 | 2021-05-14 | 엘지전자 주식회사 | 영상/비디오 코딩 시스템에서 픽처 헤더에서 슬라이스 타입에 관한 정보를 시그널링하는 방법 및 장치 |
CN118158443A (zh) * | 2019-11-05 | 2024-06-07 | Lg 电子株式会社 | 用于图像/视频编译的高级别语法信令方法和装置 |
US11553208B2 (en) * | 2019-11-27 | 2023-01-10 | Tencent America LLC | Method and system of video coding using a subset of available intra prediction modes for multiple reference lines |
CN111787334B (zh) * | 2020-05-29 | 2021-09-14 | 浙江大华技术股份有限公司 | 一种用于帧内预测的滤波方法,滤波器及装置 |
CN115812089B (zh) | 2020-07-08 | 2024-10-18 | 株式会社大赛璐 | 导电性油墨 |
CN112702602B (zh) * | 2020-12-04 | 2024-08-02 | 浙江智慧视频安防创新中心有限公司 | 一种视频编解码的方法及存储介质 |
US12120335B2 (en) * | 2021-08-24 | 2024-10-15 | Tencent America LLC | Hardware friendly design for intra mode coding |
Family Cites Families (64)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62214787A (ja) * | 1986-03-14 | 1987-09-21 | Canon Inc | 予測符号化方式 |
US5260783A (en) * | 1991-02-21 | 1993-11-09 | Gte Laboratories Incorporated | Layered DCT video coder for packet switched ATM networks |
US7263127B1 (en) * | 1998-04-02 | 2007-08-28 | Intel Corporation | Method and apparatus for simplifying frame-based motion estimation |
US6614442B1 (en) * | 2000-06-26 | 2003-09-02 | S3 Graphics Co., Ltd. | Macroblock tiling format for motion compensation |
US6856701B2 (en) * | 2001-09-14 | 2005-02-15 | Nokia Corporation | Method and system for context-based adaptive binary arithmetic coding |
US6728315B2 (en) * | 2002-07-24 | 2004-04-27 | Apple Computer, Inc. | Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding with reduced requirements for division operations |
US7266247B2 (en) * | 2002-09-30 | 2007-09-04 | Samsung Electronics Co., Ltd. | Image coding method and apparatus using spatial predictive coding of chrominance and image decoding method and apparatus |
JP4617644B2 (ja) * | 2003-07-18 | 2011-01-26 | ソニー株式会社 | 符号化装置及び方法 |
US20050024487A1 (en) * | 2003-07-31 | 2005-02-03 | William Chen | Video codec system with real-time complexity adaptation and region-of-interest coding |
US7324595B2 (en) * | 2003-09-22 | 2008-01-29 | Lsi Logic Corporation | Method and/or apparatus for reducing the complexity of non-reference frame encoding using selective reconstruction |
KR20050061762A (ko) * | 2003-12-18 | 2005-06-23 | 학교법인 대양학원 | 부호화 모드 결정방법, 움직임 추정방법 및 부호화 장치 |
KR101169895B1 (ko) * | 2004-01-20 | 2012-07-31 | 파나소닉 주식회사 | 화상 부호화 방법, 화상 복호화 방법, 화상 부호화 장치, 화상 복호화 장치 및 그 프로그램 |
CN100359953C (zh) * | 2004-09-08 | 2008-01-02 | 华为技术有限公司 | 基于帧内编码的图像色度预测方法 |
CN101159874A (zh) * | 2004-09-08 | 2008-04-09 | 华为技术有限公司 | 基于帧内编码的图像色度预测方法 |
CN100461867C (zh) * | 2004-12-02 | 2009-02-11 | 中国科学院计算技术研究所 | 一种帧内图像预测编码方法 |
CN1777283A (zh) * | 2004-12-31 | 2006-05-24 | 上海广电(集团)有限公司 | 一种基于微块的视频信号编/解码方法 |
CN100426868C (zh) * | 2005-01-25 | 2008-10-15 | 中国科学院计算技术研究所 | 一种帧内图像的亮度预测编码方法 |
US7373009B2 (en) * | 2005-02-09 | 2008-05-13 | Lsi Corporation | Method and apparatus for efficient transmission and decoding of quantization matrices |
WO2006118288A1 (ja) * | 2005-05-03 | 2006-11-09 | Matsushita Electric Industrial Co., Ltd. | 動画像符号化方法、動画像復号化方法およびその装置 |
JP2007089035A (ja) * | 2005-09-26 | 2007-04-05 | Toshiba Corp | 動画像符号化方法、装置及びプログラム |
US20070274385A1 (en) * | 2006-05-26 | 2007-11-29 | Zhongli He | Method of increasing coding efficiency and reducing power consumption by on-line scene change detection while encoding inter-frame |
RU2427976C2 (ru) * | 2006-07-28 | 2011-08-27 | Кабусики Кайся Тосиба | Способ и устройство для кодирования и декодирования изображения |
KR100899730B1 (ko) * | 2006-10-20 | 2009-05-27 | 삼성전자주식회사 | 영상 인코더 및 디코더에서의 색차 신호 보간 방법 |
CN100566427C (zh) * | 2007-07-31 | 2009-12-02 | 北京大学 | 用于视频编码的帧内预测编码最佳模式的选取方法及装置 |
CN100586188C (zh) * | 2007-09-30 | 2010-01-27 | 暨南大学 | 一种基于avs的帧内预测计算的硬件实现方法 |
BRPI0818444A2 (pt) * | 2007-10-12 | 2016-10-11 | Qualcomm Inc | codificação adaptativa de informação de cabeçalho de bloco de vídeo |
CN100586184C (zh) * | 2008-01-24 | 2010-01-27 | 北京工业大学 | 帧内预测方法 |
TWI375472B (en) * | 2008-02-04 | 2012-10-21 | Ind Tech Res Inst | Intra prediction method for luma block of video |
CN101247525B (zh) * | 2008-03-24 | 2010-06-02 | 北京邮电大学 | 一种提高图像帧内编码速率的方法 |
US8199823B2 (en) * | 2008-04-15 | 2012-06-12 | Sony Corporation | Estimation of B frame average rate quantization parameter (QP) in a group of pictures (GOP) |
US8199814B2 (en) * | 2008-04-15 | 2012-06-12 | Sony Corporation | Estimation of I frame average rate quantization parameter (QP) in a group of pictures (GOP) |
CN101605255B (zh) * | 2008-06-12 | 2011-05-04 | 华为技术有限公司 | 一种视频编解码的方法及装置 |
KR101501568B1 (ko) * | 2008-07-04 | 2015-03-12 | 에스케이 텔레콤주식회사 | 영상 부호화 및 복호화 장치 및, 방법 |
CN101677406B (zh) * | 2008-09-19 | 2011-04-20 | 华为技术有限公司 | 一种视频编解码的方法及装置 |
CN101447082B (zh) * | 2008-12-05 | 2010-12-01 | 华中科技大学 | 一种运动目标实时检测方法 |
TWI387317B (zh) * | 2008-12-11 | 2013-02-21 | Novatek Microelectronics Corp | 產生重新取樣參考畫面之裝置及其方法與影像解碼系統 |
CN101494792A (zh) * | 2009-01-15 | 2009-07-29 | 北京航空航天大学 | 一种基于边缘特征的h.264/avc帧内预测方法 |
TWI498003B (zh) * | 2009-02-02 | 2015-08-21 | Thomson Licensing | 代表一序列圖像的碼式資料連流之解碼方法和一序列圖像之寫碼方法及碼式圖像資料結構 |
EP2465265B8 (en) * | 2009-08-12 | 2019-01-23 | InterDigital VC Holdings, Inc. | Methods and apparatus for improved intra chroma encoding and decoding |
WO2011031332A1 (en) * | 2009-09-14 | 2011-03-17 | Thomson Licensing | Methods and apparatus for efficient video encoding and decoding of intra prediction mode |
EP2486731B1 (en) | 2009-10-05 | 2018-11-07 | InterDigital Madison Patent Holdings | Methods and apparatus for adaptive filtering of prediction pixels for chroma components in video encoding and decoding |
KR101773012B1 (ko) * | 2009-12-31 | 2017-08-30 | 톰슨 라이센싱 | 비디오 인코딩 및 디코딩을 위해 적응형 결합된 전처리 및 후처리 필터들을 위한 방법들 및 장치 |
CN101794451A (zh) * | 2010-03-12 | 2010-08-04 | 上海交通大学 | 基于运动轨迹的跟踪方法 |
KR20110113561A (ko) | 2010-04-09 | 2011-10-17 | 한국전자통신연구원 | 적응적인 필터를 이용한 인트라 예측 부호화/복호화 방법 및 그 장치 |
CN101888549B (zh) * | 2010-06-18 | 2012-05-02 | 浙江大学 | 基于变换域信息的帧内4×4预测模式选择方法 |
KR101373814B1 (ko) | 2010-07-31 | 2014-03-18 | 엠앤케이홀딩스 주식회사 | 예측 블록 생성 장치 |
KR20120012385A (ko) | 2010-07-31 | 2012-02-09 | 오수미 | 인트라 예측 부호화 장치 |
US9420294B2 (en) * | 2011-02-23 | 2016-08-16 | Lg Electronics Inc. | Intra-prediction method using filtering, and apparatus using the method |
WO2012122495A1 (en) | 2011-03-10 | 2012-09-13 | Huawei Technologies Co., Ltd. | Using multiple prediction sets to encode extended unified directional intra mode numbers for robustness |
US9654785B2 (en) | 2011-06-09 | 2017-05-16 | Qualcomm Incorporated | Enhanced intra-prediction mode signaling for video coding using neighboring mode |
US9854275B2 (en) * | 2011-06-25 | 2017-12-26 | Qualcomm Incorporated | Quantization in video coding |
HUE038712T2 (hu) | 2011-06-28 | 2018-11-28 | Samsung Electronics Co Ltd | Eljárás video dekódolására intra predikcióval |
SG187781A1 (en) * | 2011-07-18 | 2013-03-28 | Panasonic Corp | Image coding method, image decoding method, image coding apparatus, image decoding apparatus, and image coding and decoding apparatus |
GB2494468B (en) | 2011-09-12 | 2014-01-15 | Canon Kk | Method and device for encoding or decoding information representing prediction modes |
PL3139596T3 (pl) | 2011-09-13 | 2020-03-31 | Hfi Innovation Inc. | Sposób i urządzenie do kodowania wewnątrzklatkowego w HEVC |
CN107197309B (zh) | 2011-10-07 | 2020-02-18 | 英迪股份有限公司 | 对视频信号进行解码的方法 |
CN108063943B (zh) * | 2011-10-17 | 2021-11-02 | 株式会社Kt | 用解码装置对待解码的具有当前块的视频信号解码的方法 |
CN105338347B (zh) * | 2011-10-24 | 2018-11-13 | 英孚布瑞智有限私人贸易公司 | 用于图像解码的方法和装置 |
PL2945380T3 (pl) | 2011-10-24 | 2022-05-09 | Innotive Ltd | Sposób i aparat do dekodowania trybu intra-predykcji |
KR20130049526A (ko) * | 2011-11-04 | 2013-05-14 | 오수미 | 복원 블록 생성 방법 |
MX355319B (es) * | 2011-11-08 | 2018-04-16 | Kt Corp | Método y aparato para exploración de coeficientes con base en el modo de división de la unidad de predicción. |
KR20130058524A (ko) * | 2011-11-25 | 2013-06-04 | 오수미 | 색차 인트라 예측 블록 생성 방법 |
KR102061201B1 (ko) * | 2012-04-12 | 2019-12-31 | 주식회사 골드피크이노베이션즈 | 블록 정보에 따른 변환 방법 및 이러한 방법을 사용하는 장치 |
US9615086B2 (en) * | 2013-02-06 | 2017-04-04 | Research & Business Foundation Sungkyunkwan University | Method and apparatus for intra prediction |
-
2011
- 2011-11-04 KR KR20110114610A patent/KR20130049526A/ko not_active Application Discontinuation
-
2012
- 2012-11-02 EP EP18165503.6A patent/EP3361729A1/en active Pending
- 2012-11-02 CA CA2999131A patent/CA2999131C/en active Active
- 2012-11-02 MY MYPI2017001777A patent/MY192963A/en unknown
- 2012-11-02 SG SG10201607022WA patent/SG10201607022WA/en unknown
- 2012-11-02 MY MYPI2017001780A patent/MY192966A/en unknown
- 2012-11-02 RS RS20180631A patent/RS57240B1/sr unknown
- 2012-11-02 TW TW110136677A patent/TWI809520B/zh active
- 2012-11-02 KR KR1020147009918A patent/KR20140090154A/ko not_active Application Discontinuation
- 2012-11-02 TW TW108114296A patent/TWI709334B/zh active
- 2012-11-02 TW TW109133743A patent/TWI745106B/zh active
- 2012-11-02 SG SG11201400675VA patent/SG11201400675VA/en unknown
- 2012-11-02 PT PT128457538T patent/PT2774374T/pt unknown
- 2012-11-02 TW TW107102513A patent/TWI661715B/zh active
- 2012-11-02 KR KR1020147009920A patent/KR20140090155A/ko not_active Application Discontinuation
- 2012-11-02 TW TW101140906A patent/TWI575934B/zh active
- 2012-11-02 DK DK12845753.8T patent/DK2774374T3/en active
- 2012-11-02 MY MYPI2017001776A patent/MY192962A/en unknown
- 2012-11-02 TW TW106137240A patent/TWI621349B/zh active
- 2012-11-02 IN IN3912CHN2014 patent/IN2014CN03912A/en unknown
- 2012-11-02 ES ES12845753.8T patent/ES2673191T3/es active Active
- 2012-11-02 PL PL12845753T patent/PL2774374T4/pl unknown
- 2012-11-02 KR KR1020147009922A patent/KR20140090156A/ko not_active Application Discontinuation
- 2012-11-02 RU RU2014111827/07A patent/RU2601445C2/ru active
- 2012-11-02 TW TW105140843A patent/TWI608726B/zh active
- 2012-11-02 CA CA2849173A patent/CA2849173C/en active Active
- 2012-11-02 US US14/349,992 patent/US9374582B2/en active Active
- 2012-11-02 MY MYPI2017001779A patent/MY192965A/en unknown
- 2012-11-02 CA CA3087455A patent/CA3087455A1/en active Pending
- 2012-11-02 LT LTEP12845753.8T patent/LT2774374T/lt unknown
- 2012-11-02 RU RU2016139139A patent/RU2760932C2/ru not_active Application Discontinuation
- 2012-11-02 EP EP18165517.6A patent/EP3361731A1/en active Pending
- 2012-11-02 EP EP12845753.8A patent/EP2774374B1/en active Active
- 2012-11-02 MY MYPI2014000913A patent/MY167772A/en unknown
- 2012-11-02 MX MX2015014371A patent/MX340887B/es unknown
- 2012-11-02 EP EP18165507.7A patent/EP3361730A1/en active Pending
- 2012-11-02 TW TW110136676A patent/TWI809519B/zh active
- 2012-11-02 JP JP2014539233A patent/JP5914680B2/ja active Active
- 2012-11-02 BR BR112014007597-2A patent/BR112014007597B1/pt active IP Right Grant
- 2012-11-02 HU HUE12845753A patent/HUE037568T2/hu unknown
- 2012-11-02 BR BR122020015318-0A patent/BR122020015318B1/pt active IP Right Grant
- 2012-11-02 BR BR122020015314-8A patent/BR122020015314B1/pt active IP Right Grant
- 2012-11-02 EP EP18150700.5A patent/EP3331244A1/en active Pending
- 2012-11-02 BR BR122020015315-6A patent/BR122020015315B1/pt active IP Right Grant
- 2012-11-02 SI SI201231296T patent/SI2774374T1/en unknown
- 2012-11-02 MX MX2014003913A patent/MX2014003913A/es active IP Right Grant
- 2012-11-02 NO NO12845753A patent/NO2774374T3/no unknown
- 2012-11-02 RU RU2016139140A patent/RU2761086C2/ru not_active Application Discontinuation
- 2012-11-02 BR BR122020015319-9A patent/BR122020015319B1/pt active IP Right Grant
- 2012-11-02 AU AU2012331602A patent/AU2012331602B2/en active Active
- 2012-11-02 WO PCT/CN2012/083997 patent/WO2013064100A1/en active Application Filing
- 2012-11-02 MY MYPI2017001778A patent/MY192964A/en unknown
- 2012-11-05 CN CN201710681138.6A patent/CN107396110B/zh active Active
- 2012-11-05 CN CN201710682322.2A patent/CN107770533B/zh active Active
- 2012-11-05 CN CN201710682318.6A patent/CN107770530B/zh active Active
- 2012-11-05 CN CN201710682319.0A patent/CN107770531B/zh active Active
- 2012-11-05 CN CN201710681693.9A patent/CN107483939B/zh active Active
- 2012-11-05 CN CN201710681140.3A patent/CN107483937B/zh active Active
- 2012-11-05 CN CN201710682321.8A patent/CN107770532B/zh active Active
- 2012-11-05 CN CN201210436432.8A patent/CN103096066B/zh active Active
- 2012-11-05 CN CN201710681141.8A patent/CN107483938B/zh active Active
-
2014
- 2014-03-25 IL IL231706A patent/IL231706A/en active IP Right Grant
- 2014-03-31 MX MX2015014370A patent/MX340888B/es unknown
- 2014-03-31 MX MX2015014368A patent/MX340890B/es unknown
- 2014-03-31 MX MX2015014369A patent/MX340889B/es unknown
-
2016
- 2016-04-04 JP JP2016075165A patent/JP6157676B2/ja active Active
- 2016-04-04 JP JP2016075167A patent/JP6155361B2/ja not_active Expired - Fee Related
- 2016-04-04 JP JP2016075166A patent/JP6155360B2/ja not_active Expired - Fee Related
- 2016-05-16 US US15/156,017 patent/US9813712B2/en active Active
- 2016-05-16 US US15/156,007 patent/US9866836B2/en active Active
- 2016-10-05 RU RU2016139142A patent/RU2711182C2/ru active
- 2016-10-05 RU RU2016139141A patent/RU2711176C2/ru active
- 2016-10-20 PH PH12016502084A patent/PH12016502084A1/en unknown
- 2016-10-20 PH PH12016502083A patent/PH12016502083B1/en unknown
- 2016-10-20 PH PH12016502082A patent/PH12016502082A1/en unknown
- 2016-10-20 PH PH12016502085A patent/PH12016502085B1/en unknown
-
2017
- 2017-01-10 IL IL250027A patent/IL250027B/en active IP Right Grant
- 2017-01-10 IL IL250030A patent/IL250030B/en active IP Right Grant
- 2017-01-10 IL IL250031A patent/IL250031B/en active IP Right Grant
- 2017-01-10 IL IL250029A patent/IL250029B/en active IP Right Grant
- 2017-06-06 JP JP2017111705A patent/JP6360947B2/ja active Active
- 2017-10-23 US US15/790,853 patent/US10045027B2/en active Active
-
2018
- 2018-05-25 CY CY20181100567T patent/CY1120280T1/el unknown
- 2018-06-25 JP JP2018119973A patent/JP6636573B2/ja active Active
- 2018-06-26 HR HRP20180969TT patent/HRP20180969T1/hr unknown
- 2018-06-28 US US16/022,045 patent/US10404983B2/en active Active
-
2019
- 2019-08-30 US US16/557,671 patent/US10939109B2/en active Active
- 2019-12-18 JP JP2019227936A patent/JP6932177B2/ja active Active
-
2021
- 2021-02-04 US US17/167,950 patent/US11438592B2/en active Active
- 2021-02-04 US US17/167,901 patent/US11671597B2/en active Active
- 2021-02-04 US US17/167,930 patent/US11582452B2/en active Active
- 2021-02-04 US US17/167,919 patent/US11470318B2/en active Active
- 2021-08-17 JP JP2021132530A patent/JP7210664B2/ja active Active
-
2023
- 2023-01-11 JP JP2023002035A patent/JP7500786B2/ja active Active
- 2023-01-11 JP JP2023002036A patent/JP7445793B2/ja active Active
- 2023-05-05 US US18/144,073 patent/US12108042B2/en active Active
-
2024
- 2024-02-26 JP JP2024026265A patent/JP2024051047A/ja active Pending
- 2024-02-26 JP JP2024026266A patent/JP2024045761A/ja active Pending
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7445793B2 (ja) | 画像符号化方法 | |
BR122020014035B1 (pt) | Método de quantizar inversamente um bloco quantizado | |
TWI851298B (zh) | 圖像編碼方法及圖像解碼方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
B07A | Application suspended after technical examination (opinion) [chapter 7.1 patent gazette] | ||
B25A | Requested transfer of rights approved |
Owner name: GENSQUARE LLC (KR) |
|
B09A | Decision: intention to grant [chapter 9.1 patent gazette] | ||
B16A | Patent or certificate of addition of invention granted [chapter 16.1 patent gazette] |
Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 02/11/2012, OBSERVADAS AS CONDICOES LEGAIS. PATENTE CONCEDIDA CONFORME ADI 5.529/DF, QUE DETERMINA A ALTERACAO DO PRAZO DE CONCESSAO. |