BR112014024270B1 - Dispositivo e método de decodificação - Google Patents

Dispositivo e método de decodificação Download PDF

Info

Publication number
BR112014024270B1
BR112014024270B1 BR112014024270-4A BR112014024270A BR112014024270B1 BR 112014024270 B1 BR112014024270 B1 BR 112014024270B1 BR 112014024270 A BR112014024270 A BR 112014024270A BR 112014024270 B1 BR112014024270 B1 BR 112014024270B1
Authority
BR
Brazil
Prior art keywords
unit
image
tile
decoding
information
Prior art date
Application number
BR112014024270-4A
Other languages
English (en)
Other versions
BR112014024270A2 (pt
Inventor
Ohji Nakagami
Hironari Sakurai
Yoshitomo Takahashi
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Publication of BR112014024270A2 publication Critical patent/BR112014024270A2/pt
Publication of BR112014024270B1 publication Critical patent/BR112014024270B1/pt

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/436Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/55Motion estimation with spatial constraints, e.g. at image or region borders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Digital Transmission Methods That Use Modulated Carrier Waves (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

DISPOSITIVOS DE DECODIFICAÇÃO E DE CODIFICAÇÃO, E, MÉTODOS PARA DECODIFICAÇÃO E PARA CODIFICAÇÃO. Esta técnica relaciona-se a um decodificador e um método de decodificação, como também a um codificador e um método de codificação que habilitam codificação e decodificação serem executadas independentemente na direção temporal para azulejos individuais. Quando decodificação é executada azulejando um quadro de uma imagem atual a ser decodificada, um decodificador gera uma imagem preditiva executando compensação de movimento em uma imagem de referência dentro azulejos colocalizados para cada um dos azulejos na base da informação de possibilidade de partição de azulejo indicando que decodificação é possível em unidades de azulejo e informação de vetor de movimento representando o vetor de movimento usado ao gerar dados de codificação de imagem atual. O decodificador usa a imagem preditiva para decodificar os dados de codificação. Esta técnica pode ser aplicada, por exemplo, a um decodificador.

Description

CAMPO TÉCNICO
[0001] A técnica presente relaciona-se a um dispositivo de decodificação e um método de decodificação, e um dispositivo de codificação e um método de codificação, e mais particularmente a um dispositivo de decodificação e um método de decodificação, e um dispositivo de codificação e um método de codificação capazes de executar codificação e decodificação independentemente na direção de tempo para cada azulejo.
FUNDAMENTOS DA TÉCNICA
[0002] Atualmente, padronização de sistema de codificação chamado Codificação de Vídeo de Alta Eficiência (HEVC) é promovida pela Equipe de Colaboração Conjunta-Codificação de Vídeo (JCTVC), uma organização de padronização conjunta de ITU-T e ISO/IEC, objetivando a melhoria adicional de H264/AVC em eficiência de codificação. Relativo a padrões de HEVC, uma minuta de comitê como a versão de minuta inicial é emitida em fevereiro de 2012 (por exemplo, veja Literatura Não Patente 1).
[0003] De acordo com padrões de HEVC, um quadro pode ser dividido em unidades de azulejos ou fatias para codificação. Ao decodificar um fluxo codificado dividido nestas unidades e codificado, nenhuma correlação existe entre as unidades divididas no processo de criar informação sobre Codificação Aritmética Binária Adaptável baseada em Contexto (CABAC), modos de intra-predição, valores de quantização, e similar.
[0004] Porém, de acordo com interpredição, nenhuma restrição é fixada a vetores de movimento. Neste caso, uma imagem codificada de um azulejo diferente em um momento diferente pode ser usada como uma imagem de referência. Por conseguinte, codificação e decodificação independentes na direção de tempo para cada azulejo não é permitido.
[0005] Mais especificamente, como mostrado na Figura 1, por exemplo, cada um de um quadro #t tendo uma Contagem de Ordem de Quadro (POC) de t e um quadro #t-1 tendo uma POC de t-1 é dividido em quatro azulejos e interpreditos, todas as imagens codificadas dentro dos quatro azulejos do quadro # t-1 podem ser determinadas como possíveis imagens de referência para uma CU (Unidade de Codificação) do quadro #t.
[0006] Por conseguinte, há um caso quando uma imagem decodificada 12 dentro de um azulejo #2 tendo um ID específico (doravante chamado um ID de azulejo) de 2 e contido no quadro #t-1 é determinada como uma imagem de referência para uma CU 11 de um azulejo #1 tendo um ID de azulejo de 1 e contido no quadro #t, por exemplo. Em outras palavras, há um caso quando um vetor que tem um ponto inicial de uma CU11 e um ponto terminal de uma área 12A do quadro #t correspondendo à imagem decodificada 12 é detectado como um vetor de movimento 13. Neste caso, referência à imagem decodificada 12 do azulejo #2 diferente do azulejo #1 contendo a CU 11 é precisada; portanto, codificação e decodificando independentes na direção de tempo para cada azulejo não é permitido.
[0007] Por conseguinte, um dispositivo de decodificação precisa ter um Buffer de Quadro Decodificado (DPB) de decodificação comum que contém imagens decodificadas para todos os azulejos.
[0008] Figura 2 é um diagrama de bloco mostrando um exemplo de constituição de um dispositivo de decodificação deste tipo.
[0009] Um dispositivo de decodificação 30 na Figura 2 é constituído de unidades de decodificação 31-1 por 31-N, DPB 32-1 por 32-N e um DPB comum 33.
[00010] Um fluxo codificado contendo N azulejos divididos (N é um número positivo arbitrário) e codificado para cada unidade de azulejos é introduzido ao dispositivo de decodificação 30. Dados codificados de cada azulejo são providos às unidades de decodificação correspondentes 31-1 por 31-N.
[00011] Cada uma das unidades de decodificação 31-1 por 31-N decodifica os dados codificados do azulejo correspondente usando a imagem correspondente de imagens decodificadas armazenadas no DPB comum 33 para todos os azulejos contidos no quadro correspondente como uma imagem de referência.
[00012] Mais especificamente, a unidade de decodificação 31-1 decodifica dados codificados de um azulejo #1 tendo um ID de azulejo de 1 usando uma imagem de referência, e provê uma imagem decodificada do azulejo #1 obtida como resultado da decodificação ao DPB 32-1. Semelhantemente, as unidades de decodificação 31-2 por 31-N decodificam dados de um azulejo #2 tendo um ID de azulejo de 2, um azulejo #3 tendo um ID de azulejo de 3, e até um azulejo #N tendo um ID de azulejo de N usando imagens de referência, respectivamente. Então, as unidades de decodificação 31-2 por 31-N provêem as imagens decodificadas do azulejo #2, azulejo #3, e até azulejo #N obtidas decodificando ao DPB 32-2, DPB 32-3, e até DPB 32- N, respectivamente.
[00013] Os DPB 32-1 por 32-N armazenam as imagens decodificadas providas pelas unidades de decodificação correspondentes 31-1 por 31-N. Os DPB 32-1 por 32-N provêem as imagens decodificadas armazenadas para o DPB comum 33 e permitem estas imagens decodificadas serem armazenadas no DPB comum 33.
[00014] O DPB comum 33 armazena as imagens decodificadas do azulejo #1 por azulejo #N ao mesmo tempo providas pelo DPB 32-1 por 32-N como imagens decodificadas de um quadro. O DPB comum 33 produz as imagens decodificadas armazenadas para cada unidade de quadros como resultados decodificados.
[00015] Além disso, embora não mostrado nas figuras, um DPB comum precisa ser provido em um dispositivo de codificação para interpredição semelhantemente ao DPB no dispositivo de decodificação 30.
LISTA DE CITAÇÃO DOCUMENTO NÃO PATENTE
[00016] Documento Não Patente 1: Benjamim Bross, Woo-Jin Han, Jens-Rainer Ohm, Gary J. Sullivan, Thomas Wiegant, "High efficiency video coding (HEVC) text specification draft 6" JCTVC-H10003 versão 21, 17/2/2012.
SUMÁRIO DA INVENÇÃO PROBLEMAS A SEREM RESOLVIDOS PELA INVENÇÃO
[00017] Como descrito acima, de acordo com padrões de HEVC, nenhuma restrição está fixada a vetores de movimento em interpredição. Neste caso, uma imagem decodificada de um azulejo diferente em um momento diferente pode ser usada como uma imagem de referência. Por conseguinte, codificação e decodificação independentes na direção de tempo para cada azulejo não é permitido.
[00018] A técnica presente foi desenvolvida em atenção a estas situações, e é provida como uma técnica capaz de executar codificação e decodificação na direção de tempo independentemente para cada azulejo.
SOLUÇÕES PARA OS PROBLEMAS
[00019] De acordo com um primeiro aspecto da técnica presente, é provido um dispositivo de decodificação, incluindo: uma unidade de compensação de movimento gerando uma imagem de predição executando, para cada um de azulejos, compensação de movimento de uma imagem de referência dentro de um azulejo colocalizado baseado em informação divisível de azulejo indicando que decodificação é permitida para cada um dos azulejos e informação de vetor de movimento representando um vetor de movimento usado para gerar dados codificados de uma imagem atual visada de decodificação quando um quadro da imagem atual é dividido nos azulejos e decodificados; e uma unidade de decodificação decodificando os dados codificados usando a imagem de predição gerada pela unidade de compensação de movimento.
[00020] O método de decodificação de acordo com o primeiro aspecto da técnica presente corresponde ao dispositivo de decodificação de acordo com o primeiro aspecto da técnica presente.
[00021] De acordo com o primeiro aspecto da técnica presente, uma imagem de predição é gerada executando, para cada um de azulejos, compensação de movimento de uma imagem de referência dentro de um azulejo colocalizado baseado em informação divisível de azulejo indicando que decodificação é permitida para cada um dos azulejos e informação de vetor de movimento representando um vetor de movimento usado para gerar dados codificados de uma imagem atual visada de decodificação quando um quadro da imagem atual é dividido nos azulejos e decodificado. Os dados codificados são decodificados usando a imagem de predição.
[00022] De acordo com um segundo aspecto da técnica presente, é provido um dispositivo de codificação, incluindo: uma unidade de compensação de movimento gerando uma imagem de predição executando compensação de movimento de uma imagem de referência a um momento diferente do tempo de uma imagem atual visada de codificação baseado em um vetor de movimento detectado dentro de um azulejo quando um quadro da imagem atual é dividido nos azulejos e codificado; uma unidade de codificação codificando a imagem atual e gerando dados codificados usando a imagem de predição gerada pela unidade de compensação de movimento; uma unidade de fixação fixando informação divisível de azulejo indicando que decodificação é permitida para cada unidade dos azulejos; e uma unidade de transmissão transmitindo os dados codificados gerados pela unidade de codificação, e a informação divisível de azulejo fixada pela unidade de fixação.
[00023] O método de codificação de acordo com o segundo aspecto da técnica presente corresponde ao dispositivo de codificação de acordo com o segundo aspecto da técnica presente.
[00024] De acordo com o segundo aspecto da técnica presente, uma imagem de predição é gerada executando compensação de movimento de uma imagem de referência a um momento diferente do tempo de uma imagem atual visada de codificação baseado em um vetor de movimento detectado dentro de um azulejo quando um quadro da imagem atual é dividido nos azulejos e codificado. Dados codificados são gerados codificando a imagem atual usando a imagem de predição. Informação divisível de azulejo indicando que decodificação é permitida para cada unidade dos azulejos é fixada. Os dados codificados e a informação divisível de azulejo são transmitidos.
[00025] Adicionalmente, o dispositivo de decodificação do primeiro aspecto e o dispositivo de codificação do segundo aspecto podem ser realizados fazendo um computador executar um programa.
[00026] Além disso, o programa executado pelo computador para realizar o dispositivo de decodificação do primeiro aspecto e o dispositivo de codificação do segundo aspecto pode ser provido transmitindo o programa por um meio de transmissão, ou gravando o programa em um meio de gravação.
[00027] Além disso, o dispositivo de decodificação do primeiro aspecto e o dispositivo de codificação do segundo aspecto podem ser dispositivos separados, ou podem ser blocos internos constituindo um dispositivo.
EFEITOS DA INVENÇÃO
[00028] De acordo com o primeiro aspecto da técnica presente, decodificação independente na direção de tempo para cada azulejo é permitida.
[00029] Além disso, de acordo com o segundo aspecto da técnica presente, codificação independente na direção de tempo para cada azulejo é permitida.
BREVE DESCRIÇÃO DE DESENHOS
[00030] Figura 1 é um diagrama descrevendo uma imagem de referência para inter- predição convencional.
[00031] Figura 2 é um diagrama de bloco mostrando um exemplo de constituição de um dispositivo de decodificação convencional.
[00032] Figura 3 é um diagrama de bloco mostrando um exemplo de constituição de um dispositivo de codificação ao qual a técnica presente é aplicada de acordo com uma primeira concretização.
[00033] Figura 4 é um diagrama de bloco mostrando um exemplo de constituição de uma unidade de codificação na Figura 3.
[00034] Figura 5 é um diagrama descrevendo azulejos.
[00035] Figura 6 é um diagrama descrevendo um conjunto de restrição quando um vetor de movimento é detectado.
[00036] Figura 7 é um diagrama descrevendo uma imagem de referência para inter- predição.
[00037] Figura 8 é um diagrama mostrando um exemplo de sintaxe de SPS.
[00038] Figura 9 é um diagrama mostrando um exemplo de sintaxe de SPS.
[00039] Figura 10 é um diagrama mostrando um exemplo de sintaxe de PPS.
[00040] Figura 11 é um diagrama mostrando um exemplo de sintaxe de VUI.
[00041] Figura 12 é um fluxograma descrevendo um processo de geração de fluxo codificado.
[00042] Figura 13 é um fluxograma descrevendo um processo de codificação
[00043] Figura 14 é um fluxograma descrevendo um processo de codificação na Figura 12.
[00044] Figura 15 é um diagrama de bloco mostrando um exemplo de constituição de um dispositivo de decodificação ao qual a técnica presente é aplicada de acordo com a primeira concretização.
[00045] Figura 16 é um diagrama de bloco mostrando um exemplo de constituição de uma unidade de decodificação na Figura 15 de acordo com a primeira concretização.
[00046] Figura 17 é um diagrama descrevendo o esboço de processamento executado pelo dispositivo de decodificação na Figura 15.
[00047] Figura 18 é um fluxograma descrevendo um processo de decodificação de fluxo codificado executado pelo dispositivo de decodificação na Figura 15.
[00048] Figura 19 é um fluxograma descrevendo um processo de decodificação na Figura 16.
[00049] Figura 20 é um diagrama mostrando um exemplo de uma imagem visada codificação de um dispositivo de codificação ao qual a técnica presente é aplicada de acordo com uma segunda concretização.
[00050] Figura 21 é um diagrama de bloco mostrando um exemplo de constituição de um dispositivo de decodificação para imagem 2D de acordo com uma concretização.
[00051] Figura 22 é um fluxograma descrevendo um processo de decodificação de fluxo codificado executado pelo dispositivo de decodificação na Figura 21.
[00052] Figura 23 é um diagrama de bloco mostrando um exemplo de constituição de um sistema de conferência de televisão ao qual a técnica presente é aplicada de acordo com uma concretização.
[00053] Figura 24 é um diagrama mostrando outro exemplo de sintaxe de VUI.
[00054] Figura 25 é um diagrama mostrando um exemplo de um sistema de codificação de imagem de multivisão.
[00055] Figura 26 é um diagrama mostrando um exemplo de constituição de um dispositivo de codificação de imagem de multivisão ao qual a técnica presente é aplicada.
[00056] Figura 27 é um diagrama mostrando um exemplo de constituição do dispositivo de codificação de imagem de multivisão ao qual a técnica presente é aplicada.
[00057] Figura 28 é um diagrama mostrando um exemplo de um sistema de codificação de imagem hierárquica.
[00058] Figura 29 é um diagrama descrevendo um exemplo de codificação graduável espacial.
[00059] Figura 30 é um diagrama descrevendo um exemplo de codificação graduável temporal.
[00060] Figura 31 é um diagrama descrevendo uma codificação graduável de relação de sinal para ruído.
[00061] Figura 32 é um diagrama mostrando um exemplo de constituição de um dispositivo de codificação de imagem hierárquica ao qual a técnica presente é aplicada.
[00062] Figura 33 é um diagrama mostrando um exemplo de constituição do dispositivo de codificação de imagem hierárquica ao qual a técnica presente é aplicada.
[00063] Figura 34 é um diagrama de bloco mostrando um exemplo de constituição de hardware de um computador.
[00064] Figura 35 é um diagrama mostrando um exemplo da estrutura geral de um aparelho de televisão ao qual a técnica presente é aplicada.
[00065] Figura 36 é uma exibição de diagrama um exemplo da estrutura geral de um telefone celular ao qual a técnica presente é aplicada.
[00066] Figura 37 é um diagrama mostrando um exemplo da estrutura geral de um dispositivo de gravação e reprodução ao qual a técnica presente é aplicada.
[00067] Figura 38 é um diagrama mostrando um exemplo da estrutura geral de um dispositivo de formação de imagem ao qual a técnica presente é aplicada.
[00068] Figura 39 é um diagrama de bloco mostrando um exemplo de aplicativo de codificação graduável.
[00069] Figura 40 é um diagrama de bloco mostrando outro exemplo de aplicativo de codificação graduável.
[00070] Figura 41 é um diagrama de bloco mostrando um exemplo de aplicativo adicional de codificação graduável.
MODO PARA EXECUTAR A INVENÇÃO <Primeira Concretização> (Exemplo de Constituição de Dispositivo de Codificação na Primeira Concretização)
[00071] Figura 3 é um diagrama de bloco mostrando um exemplo de constituição de um dispositivo de codificação ao qual a técnica presente é aplicada de acordo com uma primeira concretização.
[00072] Um dispositivo de codificação 50 na Figura 3 é constituído por uma unidade de conversão A/D 51, um buffer de rearranjo de tela 52, uma unidade dividida 53, unidades de codificação 54-1 por 54-N, uma unidade de fixação 55 e uma unidade de transmissão 56. O dispositivo de codificação 50 executa, para cada azulejo, codificação de compressão de uma imagem em cada unidade de quadros introduzidos como sinais de entrada por um sistema correspondendo ao sistema de HEVC.
[00073] Mais especificamente, a unidade de conversão A/D 51 do dispositivo de codificação 50 executa conversão A/D de imagens em cada unidade de quadros introduzidos como sinais de entrada, e produz as imagens convertidas para o buffer de rearranjo de tela 52 e permite ao buffer de rearranjo de tela 52 armazenar as imagens. O buffer de rearranjo de tela 52 rearranja as imagens armazenadas nas unidades respectivas de quadros localizados na ordem de exibição em tais posições que as imagens estão localizadas na ordem de codificação conforme a estrutura de Grupo de Quadro (GOP), e provê as imagens rearranjadas para a unidade dividida 53.
[00074] A unidade dividida 53 divide cada uma das imagens providas pelo buffer de rearranjo de tela 52 em N azulejos baseado em informação indicando posições divididas de azulejos e um número dividido N especificado para cada unidade de sequências em correspondência com a operação de uma unidade de entrada não mostrada operada por um usuário (doravante chamada informação divida de azulejo). A unidade dividida 53 provê as imagens dos N azulejos para as unidades de codificação 54-1 por 54- N, respectivamente, como imagens visadas de codificação.
[00075] As unidades de codificação 54-1 por 54-N executam codificação de compressão das imagens dos azulejos correspondentes providas pela unidade dividida 53 independentemente na direção de tempo por um sistema correspondendo ao sistema de HEVC. As unidades de codificação 54-1 por 54-N provêem dados codificados dos azulejos respectivos obtidos como resultado da codificação de compressão à unidade de fixação 55. Adicionalmente, na descrição seguinte, as unidades de codificação 54-1 por 54-N são chamadas coletivamente as unidades de codificação 54 quando distinção entre as unidades de codificação 54-1 por 54- N não é precisada particularmente.
[00076] A unidade de fixação 55 sintetiza os dados codificados dos azulejos respectivos providos pelas unidades de codificação 54-1 por 54-N baseado na informação dividida de azulejo. Além disso, a unidade de fixação 55 fixa Conjunto de Parâmetro de Sequência (SPS), Conjunto de Parâmetro de Quadro (PPS), Informação de Utilidade de Vídeo (VUI), Conjunto de Parâmetro de Adaptação (APS), e similar baseado na informação dividida de azulejo. A unidade de fixação 55 gera um fluxo codificado adicionando SPS, PPS, VUI, APS e similar aos dados codificados sintetizados, e provê o fluxo codificado gerado à unidade de transmissão 56.
[00077] A unidade de transmissão 56 transmite o fluxo codificado provido pela unidade de fixação 55 para um dispositivo de decodificação descrito mais tarde.
Exemplo de Constituição de Unidade de Codificação
[00078] Figura 4 é um diagrama de bloco mostrando um exemplo de constituição da unidade de codificação 54 na Figura 3.
[00079] A unidade de codificação 54 na Figura 4 é constituída por uma unidade de cálculo 71, uma unidade de transformação ortogonal 72, uma unidade de quantização 73, uma unidade de codificação sem perda 74, um buffer 75, uma unidade de quantização inversa 76, uma unidade de transformação ortogonal inversa 77, uma unidade de adição 78, um filtro de 'deblock' 79, um DPB 80, uma chave 81, uma unidade de intra-predição 82, uma unidade de interpredição 83, uma unidade de seleção de imagem de predição 84 e uma unidade de controle de taxa 85.
[00080] Uma imagem de um azulejo correspondente é introduzida da unidade dividida 53 na Figura 3 à unidade de codificação 54 como uma imagem visada de codificação, e é provida à unidade de cálculo 71, à unidade de intra-predição 82 e à unidade de interpredição 83.
[00081] A unidade de cálculo 71 funciona como uma unidade de codificação, e calcula a diferença entre uma imagem de predição provida pela unidade de seleção de imagem de predição 84 e a imagem visada de codificação para codificar a imagem visada de codificação. Mais especificamente, a unidade de cálculo 71 subtrai a imagem de predição da imagem visada de codificação para codificar a imagem visada de codificação. A unidade de cálculo 71 produz a imagem obtida como resultado do cálculo à unidade de transformação ortogonal 72 como informação residual. Quando a imagem de predição não é provida pela unidade de seleção de imagem de predição 84, a unidade de cálculo 71 produz a imagem visada de codificação para a unidade de transformação ortogonal 72 como está como informação residual.
[00082] A unidade de transformação ortogonal 72 executa transformação ortogonal da informação residual recebida da unidade de cálculo 71, e provê coeficientes obtidos como resultado da transformação ortogonal à unidade de quantização 73.
[00083] A unidade de quantização 73 quantiza os coeficientes providos pela unidade de transformação ortogonal 72. Os coeficientes quantizados são introduzidos à unidade de codificação sem perda 74.
[00084] A unidade de codificação sem perda 74 obtém informação indicando o modo ótimo de intra-predição (doravante chamada informação de modo de intra-predição) da unidade de intra-predição 82. Ao invés, a unidade de codificação sem perda 74 obtém informação indicando o modo ótimo de interpredição (doravante chamada informação de modo de interpredição), um vetor de movimento, informação para especificar uma imagem de referência, e similar da unidade de interpredição 83.
[00085] A unidade de codificação sem perda 74 executa codificação sem perda dos coeficientes quantizados providos pela unidade de quantização 73, tal como codificação de comprimento de palavra-código variável (tal como Codificação de Comprimento Variável Adaptável a Contexto (CAVLC), e codificação aritmética (tal como CABAC).
[00086] Além disso, a unidade de codificação sem perda 74 executa codificação diferencial de informação de modo de intra-predição provida pela unidade de intra-predição 82 usando informação de modo de intra-predição de um bloco de predição posicionado adjacente ao bloco de predição da informação de modo de intra-predição e contida dentro do mesmo azulejo. Ao invés, a unidade de codificação sem perda 74 funciona como uma unidade de geração de vetor de movimento que prediz um vetor de movimento provido pela unidade de interpredição 83 dentro da gama de uma restrição predeterminada baseada em Predição de Vetor de Movimento Avançada (AMVP) ou similar, e gera a diferença entre o vetor de predição correspondente e o vetor de movimento atual como informação de vetor de movimento.
[00087] Mais especificamente, de acordo com AMVP ou similar, vetores de movimento de um bloco de predição adjacente ao bloco de predição da informação de vetor de movimento na direção espacial, um bloco colocalizado (detalhado abaixo), um bloco de predição adjacente ao bloco colocalizado na direção espacial, e similar são determinados como vetores de predição.
[00088] Adicionalmente, de acordo com esta especificação, a condição "colocalizado" se refere a uma condição disposta a ter a mesma relação posicional (posicionado no mesmo lugar) em quadros diferentes (quadros, campos). Por conseguinte, o bloco colocalizado se refere a um bloco tendo a mesma relação posicional (posicionado no mesmo lugar) em quadros diferentes (quadro, campos). Também, pixels colocalizados são pixels tendo a mesma relação posicional (posicionados no mesmo lugar) em quadros diferentes (quadro, campos).
[00089] Além disso, de acordo com esta especificação, a condição adjacente (vizinho) se refere a uma tal condição a ter uma relação posicional permitindo referência de um quadro atual (quadro, campo). É preferível que esta relação posicional corresponda à posição imediatamente antes ou imediatamente depois em vista de tempo. Porém, esta relação não é requerida contanto que os efeitos da técnica presente possam ser oferecidos. Adicionalmente, o termo adjacente na direção de tempo e a condição adjacente na direção espacial são chamados coletivamente uma condição adjacente quando distinção entre elas não é precisada particularmente. A condição adjacente na direção de tempo representa uma relação posicional permitindo referência na direção de tempo. A condição adjacente na direção espacial representa uma relação posicional permitindo referência dentro do mesmo quadro.
[00090] A unidade de codificação sem perda 74 restringe o bloco de predição do vetor de movimento definido como o vetor de predição para os blocos de predição dentro do mesmo azulejo como o azulejo do bloco de predição da informação de vetor de movimento. Neste caso, o dispositivo de decodificação não é exigido se referir a vetores de movimento de outros azulejos. Por conseguinte, os dados codificados depois de codificação de interpredição podem ser decodificados independentemente na direção de tempo para cada azulejo.
[00091] Além disso, informação de fusão pode ser usada como a informação de vetor de movimento. A informação de fusão é informação indicando se um bloco de predição de um vetor de movimento é para ser fundido com outro bloco de predição, e com qual bloco de predição o vetor de movimento é para ser fundido na hora de fusão. Possíveis blocos de predição para fusão envolvem um bloco de predição adjacente ao bloco de predição do vetor de movimento na direção espacial, um bloco colocalizado, e um bloco de predição adjacente ao bloco colocalizado na direção espacial, por exemplo.
[00092] Neste caso, porém, os possíveis blocos de predição para fusão são restringidos aos blocos de predição dentro do mesmo azulejo como o azulejo do bloco de predição da informação de vetor de movimento. Por conseguinte, o dispositivo de decodificação não é exigido se referir a vetores de movimento de outros azulejos; portanto, os dados codificados depois de codificação de interpredição podem ser decodificados independentemente na direção de tempo para cada azulejo.
[00093] A unidade de codificação sem perda 74 determina se o vetor de movimento provido pela unidade de interpredição 83 é idêntico a quaisquer dos vetores de movimento dos possíveis blocos de predição para fusão quando a informação de fusão é usada como a informação de vetor de movimento. Ao determinar como idêntico, a unidade de codificação sem perda 74 gera, como informação de vetor de movimento, informação de fusão indicando que fusão é executada com o possível bloco de predição para fusão determinado como um bloco de vetor idêntico. Por outro lado, ao determinar como não idêntico, a unidade de codificação sem perda 74 gera, como informação de vetor de movimento, informação de fusão indicando que fusão não é executada.
[00094] A unidade de codificação sem perda 74 executa codificação sem perda da informação de modo de intra-predição depois de codificação diferencial, ou a informação de modo de interpredição, informação de vetor de movimento, informação para especificar uma imagem de referência, e similar, e determina a informação depois de codificação sem perda como informação codificada sobre codificação. A unidade de codificação sem perda 74 provê os coeficientes e informação codificada depois de codificação sem perda para o buffer de armazenamento 75 como dados codificados e permite ao buffer de armazenamento 75 armazenar os dados codificados. Adicionalmente, a informação codificada pode ser determinada como informação de cabeçalho dos coeficientes depois de codificação sem perda.
[00095] O buffer de armazenamento 75 armazena temporariamente os dados codificados providos pela unidade de codificação sem perda 74. Além disso, o buffer de armazenamento 75 provê os dados codificados armazenados para a unidade de fixação 55 na Figura 3.
[00096] Além disso, os coeficientes quantizados produzidos da unidade de quantização 73 também são introduzidos à unidade de quantização inversa 76, e quantizados inversamente e providos à unidade de transformação de ortogonal inversa 77.
[00097] A unidade de transformação ortogonal inversa 77 executa transformação ortogonal inversa dos coeficientes providos pela unidade de quantização inversa 76, e provê informação residual obtida como resultado da transformação ortogonal inversa à unidade de adição 78.
[00098] A unidade de adição 78 soma a informação residual como uma imagem visada de decodificação provida pela unidade de transformação ortogonal inversa 77 à imagem de predição provida pela unidade de seleção de imagem de predição 84, e obtém uma imagem decodificada, decodificada localmente para cada unidade de azulejos. Quando a imagem de predição não é provida pela unidade de seleção de imagem de predição 84, a unidade de adição 78 determina a informação residual provida pela unidade de transformação ortogonal inversa 77 como uma imagem decodificada localmente, decodificada para cada unidade de azulejos. A unidade de adição 78 provê a imagem decodificada, decodificada localmente para cada unidade de azulejos ao filtro de 'deblock' 79, e provê a imagem decodificada para o DPB 80 e permite ao DPB 80 armazenar a imagem decodificada.
[00099] O filtro de 'deblock' 79 executa, para cada unidade de azulejos, filtragem da imagem decodificada, decodificada localmente para cada unidade de azulejos provida pela unidade de adição 78. A filtragem inclui filtragem de 'deblock' para remover distorção de bloco, processamento de ofsete adaptável de amostra (SAO) para suprimir zumbido, e processamento de filtro de malha adaptável (ALF) usando agrupamento de classe ou similar. O filtro de 'deblock' 79 provê a imagem decodificada para cada unidade de azulejos obtida como resultado da filtragem ao DPB 80, e permite ao DPB 80 armazenar a imagem decodificada. A imagem decodificada para cada unidade de azulejos armazenada no DPB 80 é produzida pela chave 81 para a unidade de intra- predição 82 ou a unidade de interpredição 83 como uma imagem de referência.
[000100] A unidade de intra-predição 82 executa intra-predição de todos os possíveis modos de intra-predição usando uma imagem de referência lida do DPB 80 pela chave 81 e não filtrada pelo filtro de 'deblock' 79.
[000101] Além disso, a unidade de intra-predição 82 calcula valores de função de custo (detalhado mais tarde) para todos os possíveis modos de intra-predição baseado na imagem visada de codificação provida pela unidade dividida 53, e a imagem de predição gerada como resultado da intra-predição. Então, a unidade de intra-predição 82 determina o modo de intra-predição onde o valor de função de custo se torna o mínimo como o modo ótimo de intra- predição, e provê a imagem de predição gerada no modo ótimo de intra-predição, e o valor de função de custo correspondente para a unidade de seleção de imagem de predição 84. Quando notificado pela unidade de seleção de imagem de predição 84 sobre seleção da imagem de predição gerada no modo ótimo de intra- predição, a unidade de intra-predição 82 provê a informação de modo de intra- predição para a unidade de codificação sem perda 74.
[000102] É notado aqui que o valor de função de custo também é chamado um custo de Distorção de Taxa (RD), e calculado baseado em qualquer de modo de Complexidade Alta ou modo de Complexidade Baixa definido em Modelo Conjunto (JM) como software de referência em sistema de H. 264/AVC, por exemplo.
[000103] Mais especificamente, quando modo de Complexidade Alta é selecionado como um método de cálculo do valor de função de custo, etapas até codificação sem perda são executadas temporariamente para todos os possíveis modos de predição. Então, o valor de função de custo representado pela equação seguinte (1) é calculado para cada modo de predição.Equação 1
Figure img0001
[000104] D é a diferença (distorção) entre a imagem original e a imagem decodificada. R é a quantidade gerada de códigos até os coeficientes de transformação ortogonal. X é um multiplicador de Lagrange dado como uma função de um parâmetro de quantização QP.
[000105] Por outro lado, quando modo de Complexidade Baixa é selecionado como o método de cálculo para o valor de função de custo, geração da imagem decodificada, e cálculo dos pedaços de cabeçalho de informação indicando os modos de predição e similar são executados para todos os possíveis modos de predição. Então, a função de custo representada pela equação seguinte (2) é calculada para cada modo de predição.Equação 2
Figure img0002
[000106] D é a diferença (distorção) entre a imagem original e a imagem decodificada. Header_Bit são bits de cabeçalho para um modo de predição. QPtoQuant é uma função dada como uma função de um parâmetro de quantização QP.
[000107] Em modo de Complexidade Baixa, geração de imagens decodificadas para todos os modos de predição é só precisada, e a necessidade de executar codificação sem perda é eliminada. Por conseguinte, a quantidade de cálculo diminui.
[000108] A unidade de interpredição 83 é constituída por uma unidade de detecção de movimento 83A e uma unidade de compensação de movimento 83B, e executa predição de movimento e processamento de compensação de todos os possíveis modos de interpredição. Mais especificamente, a unidade de detecção de movimento 83A executa predição de movimento dentro do azulejo da imagem visada de codificação usando a imagem visada de codificação provida pela unidade dividida 53, e uma imagem de referência lida do DPB 80 pela chave 81, posicionada a um momento diferente do tempo da imagem visada de codificação correspondente, e filtrada pelo filtro de 'deblock' 79.
[000109] Mais especificamente, a unidade de detecção de movimento 83A detecta vetores de movimento para todos os possíveis modos de interpredição usando a imagem visada de codificação, e uma imagem de referência filtrada, contida dentro do mesmo azulejo como o azulejo da imagem visada de codificação, e posicionada em um quadro diferente do quadro da imagem visada de codificação. A unidade de compensação de movimento 83B executa interpredição executando compensação de movimento da imagem de referência filtrada pelo filtro de 'deblock' 79 baseado nos vetores de movimento detectados pela unidade de detecção de movimento 83A, e gera uma imagem de predição.
[000110] Neste momento, a unidade de interpredição 83 calcula os valores de função de custo para todos os possíveis modos de interpredição baseado na imagem visada de codificação e na imagem de predição, e determina o modo de interpredição onde o valor de função de custo se torna o mínimo como o modo ótimo de inter-medição. Então, a unidade de interpredição 83 provê o valor de função de custo para o modo ótimo de interpredição, e a imagem de predição correspondente para a unidade de seleção de imagem de predição 84. Além disso, a unidade de interpredição 83 produz a informação de modo de interpredição, o vetor de movimento correspondente, a informação para especificar uma imagem de referência, e similar à unidade de codificação sem perda 74 quando notificado da unidade de seleção de imagem de predição 84 sobre seleção da imagem de predição gerada no modo ótimo de interpredição.
[000111] A unidade de seleção de imagem de predição 84 seleciona o modo de predição onde o valor de função de custo correspondente é menor do modo ótimo de intra-predição e do modo ótimo de interpredição baseado nos valores de função de custo providos pela unidade de intra-predição 82 e pela unidade de interpredição 83, e determina o modo de predição selecionado como o modo ótimo de predição. Então, a unidade de predição de imagem de seleção 84 provê a imagem de predição no modo ótimo de predição para a unidade de cálculo 71 e a unidade de adição 78. Além disso, a unidade de seleção de imagem de predição 84 notifica a unidade de intra-predição 82 ou a unidade de interpredição 83 sobre a seleção da imagem de predição no modo ótimo de predição.
[000112] A unidade de controle de taxa 85 controla a taxa da operação de quantização da unidade de quantização 73 baseado nos dados codificados armazenados no buffer de armazenamento 75 tal que nem transbordamento nem subutilização ocorra.
(Descrição de Azulejo) Figura 5 é um diagrama mostrando azulejos.
[000113] Como mostrado na Figura 5, um quadro (quadro) pode ser dividido em uma pluralidade de azulejos e codificado. De acordo com o exemplo na Figura 5, um quadro está dividido em quatro azulejos. Cada azulejo é dado um ID de azulejo partindo de 0 na ordem de varredura de quadrícula. Adicionalmente, Unidades de Codificação Maiores (LCUs) dentro de um azulejo estão codificadas na ordem de varredura de quadrícula.
[000114] Além disso, um quadro também pode ser dividido em uma pluralidade de fatias. Os limites entre os azulejos respectivos podem ser tanto idênticos ou diferentes dos limites entre as fatias respectivas. De acordo com o exemplo na Figura 5, cada um de um azulejo #0 tendo um ID de azulejo de 0 e um azulejo #1 tendo um ID de azulejo de 1 é constituído por duas fatias. Também, cada um de um azulejo #3 tendo um ID de azulejo de 3 e um azulejo #4 tendo um ID de azulejo de 4 constitui uma fatia. De acordo com esta concretização, porém, uma pluralidade de azulejos não constitui uma fatia. Em outras palavras, um azulejo contém pelo menos uma fatia. Por conseguinte, dados codificados de cada azulejo sempre contém um cabeçalho de fatia; portanto, codificação pode ser executada para cada unidade de azulejos. Além disso, quando um azulejo contém uma pluralidade de fatias, as fatias dentro do azulejo correspondente estão codificadas na ordem de varredura de quadrícula.
(Descrição de Restrição em Detecção de Vetor de Movimento)
[000115] Figura 6 é um diagrama mostrando um conjunto de restrição quando a unidade de detecção de movimento 83A na Figura 4 detecta vetores de movimento.
[000116] Como mostrado na Figura 6, a unidade de detecção de movimento 83A executa predição de movimento dentro de um azulejo fixando uma tal restrição que possíveis imagens de referência de uma CU dentro de um azulejo #i tendo um ID azulejo de i são só imagens dentro do azulejo #i. Por conseguinte, um vetor de movimento MV (mvx, mvy) (unidade: pixel) satisfaz a equação seguinte (3).Equação 3
Figure img0003
[000117] Adicionalmente, na equação (3), (x, y) são coordenadas de uma unidade de pixel correspondendo a um pixel localizado na esquerda superior da CU, e cada um de w e h é um comprimento de uma unidade de pixel na largura horizontal e na largura vertical, respectivamente. Além disso, minX_in_TileID_i corresponde ao valor de coordenada x do pixel na esquerda superior do azulejo #i, e minY_in_TileID_i corresponde ao valor de coordenada y do pixel na esquerda superior do azulejo #i. Além disso, maxX_in_TileID_i corresponde ao valor de coordenada x do pixel na direita inferior do azulejo #i, e maxY_in_TileID_i corresponde ao valor de coordenada y do pixel na direita inferior do azulejo #i.
[000118] A restrição estabelecida na hora de detecção do vetor de movimento como discutido acima elimina a necessidade de usar uma imagem decodificada de outro azulejo, como mostrado na Figura 7, como uma imagem de referência na direção de tempo na hora de interpredição.
[000119] Mais especificamente, como mostrado na Figura 7, interpredição da CU dentro do azulejo #1 do quadro #t é executada usando uma imagem dentro do azulejo #1 do quadro #t-1 como uma imagem de referência quando cada um do quadro #t tendo um POC de t e o quadro #t-1 tendo um POC de t-1 é dividido em quatro azulejos. Semelhantemente para o azulejo #1, inter- predição é executada para as CUs respectivas de azulejos #2 por #4 usando imagens dentro do seu próprio azulejo #2, azulejo #3 e azulejo #4 como imagens de referência. Por conseguinte, interpredição independente na direção de tempo para cada azulejo é permitida.
(Exemplo de SPS)
[000120] Figuras 8 e 9 mostram um exemplo de sintaxe de conjunto de SPS pela unidade de fixação 55 na Figura 3.
[000121] Como mostrado em linhas 19 por 28 na Figura 9, informação dividida de azulejo para cada unidade de sequências está fixada para SPS. A informação dividida de azulejo inclui num_tile_columns_minus1 mostrado em linha 20, num_tile_rows_minus1 mostrado em linha 21, column_width[i] mostrado em linha 25, row_height[i] mostrado em linha 27, e similar.
[000122] Num_tile_columns_minus1 representa o número de azulejos na direção de coluna (direção horizontal), enquanto num_tile_rows_minus1 representa o número de azulejos na direção de fila (direção vertical). Também, column_width[i] representa o comprimento de uma unidade de pixel na direção horizontal de cada azulejo, enquanto row_height[i] representa o comprimento de uma unidade de pixel na direção vertical de cada azulejo.
[000123] Além disso, como mostrado em linha 29 na Figura 9, informação de filtro de 'deblock' (informação de filtro) (loop_filter_across_tiles_enabled_flag) representando se filtragem é executada por vários azulejos em uma imagem de referência está fixada para cada unidade de sequências em SPS. O filtro de 'deblock' 79 do dispositivo de codificação 50 executa filtragem para cada unidade de azulejos; portanto, a unidade de fixação 55 fixa a informação de filtro de 'deblock' a falsa (0).
(Exemplo de PPS)
[000124] Figura 10 mostra um exemplo de sintaxe de conjunto de PPS pela unidade de fixação 55 na Figura 3.
[000125] Como mostrado em linha 21 na Figura 10, tile_info_present_flag representando se informação dividida de azulejo está controlada para cada unidade de quadros está fixado para PPS. A unidade de fixação 55 fixa tile_info_present_flag a falso (0). Neste caso, o método de divisão de azulejo fixado é mantido dentro de uma sequência para o dispositivo de codificação 50, e não é mudado entre quadros.
[000126] Além disso, quando a informação dividida de azulejo para cada unidade de quadros como descrito mais tarde é idêntica entre imagens dentro da mesma sequência, tile_info_present_flag pode ser fixado a verdadeiro (1).
[000127] Além disso, como mostrado em linhas 23 por 33, informação dividida de azulejo para cada unidade de quadros é fixada para PPS semelhantemente à informação divida de azulejo para cada unidade de sequências na Figura 9. Além disso, como mostrado em linha 35, informação de filtro de 'deblock' para cada unidade de quadros está fixada para PPS.
(Exemplo de VUI)
[000128] Figura 11 mostra um exemplo de sintaxe de VUI fixada pela unidade de fixação 55 na Figura 3.
[000129] Como mostrado em linha 4 na Figura 11, informação divisível de azulejo (tile_divisível_flag) está fixada para VUI. A informação divisível de azulejo é informação indicando se decodificação é permitida para cada unidade de azulejos. O dispositivo de codificação 50 permite decodificação para cada unidade de azulejos executando predição de movimento dentro de um azulejo e fixando várias restrições. Assim, a unidade de fixação 55 fixa a informação divisível de azulejo a verdadeiro (1).
[000130] Quando bitstream_restriction_flag em linha 1 é 0, o lado de decodificação reconhece que decodificação não é permitida para cada azulejo baseado na consideração que a informação divisível de azulejo é falsa (0).
(Descrição de Processo Executado por Dispositivo de Codificação)
[000131] Figura 12 é um fluxograma descrevendo um processo de geração de fluxo codificado executado pela dispositivo de codificação 50 na Figura 3.
[000132] Na etapa S11 na Figura 12, a unidade de conversão A/D 51 executa conversão A/D de uma imagem de cada unidade de quadros introduzidos como sinais de entrada, e produz a imagem convertida para o buffer de rearranjo de tela 52 e permite ao buffer de rearranjo de tela 52 armazenar a imagem.
[000133] Na etapa S12, o buffer de rearranjo de tela 52 rearranja as imagens armazenadas dos quadros respectivos localizados na ordem de exibição em tais posições que as imagens estão localizadas na ordem de codificação conforme a estrutura de GOP, e provê as imagens rearranjadas para a unidade dividida 53.
[000134] Na etapa S13, a unidade dividida 53 divide cada uma das imagens providas pelo buffer de rearranjo de tela 52 em N azulejos baseada na informação divida de azulejo. A unidade dividida 53 provê cada uma das imagens contendo os N azulejos às unidades de codificação correspondentes 54-1 por 54-N como uma imagem de uma unidade de codificação.
[000135] Na etapa S14, as unidades de codificação 54 executam um processo de codificação que codifica em compressão as imagens dos azulejos correspondentes providos independentemente pela unidade dividida 53 na direção de tempo por um sistema correspondendo ao sistema de HEVC. Os detalhes do processo de codificação serão descritos com referência às Figuras 13 e 14 discutidas abaixo.
[000136] Na etapa S15, a unidade de fixação 55 sintetiza dados codificados dos azulejos respectivos providos pelas unidades de codificação 54-1 por 54-N baseado na informação dividida de azulejo.
[000137] Na etapa S16, a unidade de fixação 55 fixa a informação divisível de azulejo de VUI a 1. Na etapa S17, a unidade de fixação 55 fixa a informação de filtro de 'deblock' de SPS e PPS a 0. Além disso, a unidade de fixação 55 fixa a informação sobre SPS, PPS, VUI, APS e similar diferente das informação divisível de azulejo baseado na informação de azulejo dividida e similar.
[000138] Neste momento, a unidade de fixação 55 fixa sao_repeat_row_flag e sao_merge_up_flag contidos em APS e indicando se processamento de SAO é executado usando parâmetros de processamento de SAO da imagem adjacente a falso (0) quando a imagem adjacente é uma imagem de um azulejo diferente. Além disso, a unidade de fixação 55 fixa alf_repeat_row_flag e alf_merge_up_flag contidos em APS e indicando se processamento de ALF é executado usando parâmetros de processamento de ALF da imagem adjacente a falso (0) quando a imagem adjacente é uma imagem de um azulejo diferente. Neste caso, parâmetros para processamento de SAO e parâmetros para processamento de ALF não são compartilhados entre azulejos diferentes. Por conseguinte, filtragem é executada para cada unidade de azulejos para codificação.
[000139] Como discutido acima, sao_repeat_row_flag, sao_merge_up_flag, alf_repeat_row_flag e alf_merge_up_flag estão fixados a falso (0) quando a imagem adjacente é uma imagem de um azulejo diferente. Por conseguinte, estes conjuntos de informação são considerados como informação de compartilhamento de parâmetro representando que parâmetros na filtragem não estão compartilhados entre azulejos.
[000140] Na etapa S18, a unidade de fixação 55 gera um fluxo codificado adicionando SPS, PPS, VUI, APS e similar aos dados codificados sintetizados, e provê o fluxo codificado para a unidade de transmissão 56.
[000141] Na etapa S19, a unidade de transmissão 56 transmite o fluxo codificado provido pela unidade de fixação 55 para o dispositivo de decodificação descrito mais tarde, e termina o processo.
(Descrição de Processo Executado por Dispositivo de Codificação)
[000142] Figuras 13 e 14 são um fluxograma descrevendo a etapa S14 do processo de codificação na Figura 12. Este processo de codificação é executado para cada unidade de CUs, por exemplo.
[000143] Na etapa S30, a unidade de intra-predição 82 executa um processo de intra-predição para executar intra-predição para todos os possíveis modos de intra-predição usando uma imagem armazenada no DPB 80, localizado no mesmo azulejo como o azulejo da imagem visada de codificação, e não filtrado como uma imagem de referência. Neste momento, a unidade de intra-predição 82 calcula valores de função de custo para todos os possíveis modos de intra-predição baseado na imagem visada de codificação provida pela unidade dividida 53 e uma imagem de predição gerada como resultado da intra-predição. Então, a unidade de intra-predição 82 determina o modo de intra-predição onde o valor de função de custo se torna o mínimo como o modo ótimo de intra-predição, e provê uma imagem de predição gerada no modo ótimo de intra-predição e o valor de função de custo correspondente à unidade de seleção de imagem de predição 84.
[000144] Além disso, a unidade de interpredição 83 executa predição de movimento e compensação de movimento dentro de um azulejo para todos os possíveis modos de interpredição usando uma imagem filtrada armazenada no DPB 80, e localizada no mesmo azulejo como o azulejo da imagem visada de codificação como uma imagem de referência. Neste momento, a unidade de interpredição 83 calcula valores de função de custo para todos os possíveis modos de interpredição baseado na imagem visada de codificação provida pela unidade dividida 53, e uma imagem de predição gerada como resultado da compensação de movimento. Então, a unidade de interpredição 83 determina o modo de interpredição onde os valores de função de custo se tornam o mínimo como o modo ótimo de interpredição, e provê uma imagem de predição gerada no modo ótimo de interpredição e o valor de função de custo correspondente à unidade de seleção de imagem de predição 84.
[000145] Na etapa S31, a unidade de seleção de imagem de predição 84 seleciona o modo de predição onde o valor de função de custo se torna o mínimo do modo ótimo de intra-predição e do modo ótimo de interpredição baseado nos valores de função de custo providos pela unidade de intra- predição 82 e pela unidade de interpredição 83 pelo processamento na etapa S30, e determina o modo de predição selecionado como o modo ótimo de predição. Então, a unidade de seleção de imagem de predição 84 provê uma imagem de predição no modo ótimo de predição para a unidade de cálculo 71 e a unidade de adição 78.
[000146] Na etapa S32, a unidade de seleção de imagem de predição 84 determina se o modo ótimo de predição é o modo ótimo de interpredição ou não. Quando é determinado que o modo ótimo de predição é o modo ótimo de interpredição na etapa S32, a unidade de seleção de imagem de predição 84 notifica a unidade de interpredição 83 sobre a seleção da imagem de predição gerada no modo ótimo de interpredição. Como resultado, a unidade de interpredição 83 produz a informação de modo de inter- predição, o vetor de movimento correspondente, e a informação para especificar uma imagem de referência à unidade de codificação sem perda 74.
[000147] Então, na etapa S33, a unidade de codificação sem perda 74 prediz o vetor de movimento provido pela unidade de interpredição 83 baseado em AMVP ou similar, e gera a diferença entre o vetor de predição e o vetor de movimento atual como informação de vetor de movimento. Neste momento, o bloco de predição do vetor de movimento determinado como o vetor de predição em AMVP é restringido a quaisquer dos blocos de predição dentro do mesmo azulejo como o azulejo do bloco de predição da informação de vetor de movimento.
[000148] Na etapa S34, a unidade de codificação sem perda 74 executa codificação sem perda da informação de modo de interpredição, da informação para especificar uma imagem de referência, e da informação de vetor de movimento provida pela unidade de interpredição 83, e determina a informação assim obtida como informação codificada. Então, o processo procede à etapa S36.
[000149] Por outro lado, quando é determinado que o modo ótimo de predição não é o modo ótimo de interpredição na etapa S32, em outras palavras, quando o modo ótimo de predição é o modo ótimo de intra-predição, a unidade de seleção de imagem de predição 84 notifica a unidade de intra- predição 82 sobre a seleção da imagem de predição gerada no modo ótimo de intra-predição. Como resultado, a unidade de intra-predição 82 provê a informação de modo de intra-predição para a unidade de codificação sem perda 74.
[000150] Então, na etapa S35, a unidade de codificação sem perda 74 executa codificação diferencial da informação de modo de intra-predição provida pela unidade de intra-predição 82, e adicionalmente executa codificação sem perda da informação resultante para prover a informação assim obtida como informação codificada. Então, o processo procede à etapa S36.
[000151] Na etapa S36, a unidade de cálculo 71 subtrai a imagem de predição provida pela unidade de seleção de imagem de predição 84 da imagem visada de codificação provida pela unidade dividida 53. A unidade de cálculo 71 produz a imagem obtida como resultado da subtração à unidade de transformação ortogonal 72 como informação residual.
[000152] Na etapa S37, a unidade de transformação ortogonal 72 executa transformação ortogonal da informação residual recebida da unidade de cálculo 71, e provê coeficientes obtidos como resultado da transformação ortogonal à unidade de quantização 73.
[000153] Na etapa S38, a unidade de quantização 73 quantiza os coeficientes providos pela unidade de transformação ortogonal 72. Os coeficientes quantizados são introduzidos à unidade de codificação sem perda 74 e à unidade de quantização inversa 76.
[000154] Na etapa S39, a unidade de codificação sem perda 74 executa codificação sem perda dos coeficientes quantizados e providos pela unidade de quantização 73. A unidade de codificação sem perda 74 gera dados codificados da informação obtida como resultado da codificação sem perda e da informação codificada gerada pelo processo na etapa S34 ou S35.
[000155] Na etapa S40 na Figura 14, a unidade de codificação sem perda 74 provê os dados codificados para o buffer de armazenamento 75, e permite ao buffer de armazenamento 75 armazenar os dados.
[000156] Na etapa S41, o buffer de armazenamento 75 produz os dados codificados armazenados para a unidade de fixação 55 (Figura 3).
[000157] Na etapa S42, a unidade de quantização inversa 76 executa quantização inversa dos coeficientes quantizados providos pela unidade de quantização 73.
[000158] Na etapa S43, a unidade de transformação ortogonal inversa 77 executa transformação ortogonal inversa dos coeficientes providos pela unidade de quantização inversa 76, e provê a informação residual obtida como resultado da transformação ortogonal inversa à unidade de adição 78.
[000159] Na etapa S44, a unidade de adição 78 adiciona a informação residual provida pela unidade de transformação ortogonal inversa 77 à imagem de predição provida pela unidade de seleção de imagem de predição 84 para obter uma imagem decodificada, decodificada localmente para cada unidade de azulejos. A unidade de adição 78 provê a imagem decodificada obtida para cada unidade de azulejos para o filtro de 'deblock' 79, e provê a imagem decodificada para o DPB 80.
[000160] Na etapa S45, o filtro de 'deblock' 79 executa, para cada unidade de azulejos, filtragem da imagem decodificada, decodificada localmente para cada unidade de azulejos e provida pela unidade de adição 78. O filtro de 'deblock' 79 provê a imagem decodificada obtida como resultado da filtragem para cada unidade de azulejos ao DPB 80.
[000161] Na etapa S46, o DPB 80 armazena as imagens decodificadas para cada unidade de azulejos antes e depois do filtragem. Mais especificamente, o DPB 80 armazena as imagens decodificadas para cada unidade de azulejos provida pela unidade de adição 78 e as imagens decodificadas para cada unidade de azulejos provida pelo filtro de 'deblock' 79. As imagens decodificadas para cada unidade de azulejos armazenada no DPB 80 são produzidas pela chave 81 para a unidade de intra-predição 82 ou a unidade de interpredição 83 como imagens de referência. Então, o processo retorna à etapa S14 na Figura 12, e procede à etapa S15.
[000162] Adicionalmente, de acordo com o processo de codificação na Figura 13 e Figura 14, ambas a intra-predição e predição de movimento e compensação de movimento são executadas sempre para simplificação da descrição. Porém, em casos práticos, só qualquer um destes processos pode ser executado dependendo de tipos de quadro ou outras condições.
[000163] Como discutido aqui, o dispositivo de codificação 50 executa predição de movimento dentro de um azulejo, e gera um vetor de movimento usando uma imagem visada de codificação e uma imagem de referência a um momento diferente do tempo da imagem visada de codificação. Por conseguinte, codificação independente na direção de tempo para cada azulejo é permitida.
[000164] Adicionalmente, enquanto o dispositivo de codificação 50 é provido com as N unidades de codificação 54 para codificar imagens de azulejos respectivos, o dispositivo de codificação 50 pode ser provido com só uma unidade de codificação. Neste caso, a unidade de codificação tem um DPB armazenando uma imagem decodificada para cada azulejo, e codifica imagens por azulejo na ordem do número de ID de azulejo na direção de número menor para número maior, isso é, a ordem de varredura de quadrícula.
(Exemplo de Constituição de Dispositivo de Decodificação na Primeira Concretização)
[000165] Figura 15 é um diagrama de bloco mostrando um exemplo de constituição de um dispositivo de decodificação ao qual a técnica presente é aplicada de acordo com a primeira concretização. Este dispositivo de decodificação decodifica um fluxo codificado transmitido do dispositivo de codificação 50 na Figura 3.
[000166] Um dispositivo de decodificação 90 na Figura 15 é constituído por uma unidade de recepção 91, uma unidade de extração 92, uma unidade dividida 93, unidades de decodificação 94-1 por 94-N, um Buffer de rearranjo de tela 95 e uma unidade de conversão D/A 96.
[000167] A unidade de recepção 91 do dispositivo de decodificação 90 recebe um fluxo codificado transmitido da dispositivo de codificação 50, e provê o fluxo codificado para a unidade de extração 92.
[000168] A unidade de extração 92 extrai SPS, PPS, VUI, APS, dados codificados e similar do fluxo codificado, e provê a extração para a unidade dividida 93. Além disso, a unidade de extração 92 provê informação dividida de azulejo contida em SPS e PPS ao buffer de rearranjo de tela 95.
[000169] A unidade dividida 93 divide os dados codificados em unidades de azulejos baseado em informação divisível de azulejo contida em VUI provida pela unidade de extração 92, e a informação dividida de azulejo contida em SPS e PPS. A unidade dividida 93 provê os dados codificados de N azulejos obtidos como resultado da divisão às unidades de decodificação 94-1 por 94-N para cada azulejo. Além disso, a unidade dividida 93 provê SPS, PPS, APS e similar providos pela unidade de extração 92 para a unidade de decodificação 94-N.
[000170] Cada uma da unidades de decodificação 94-1 por 94-N decodifica dados codificados do azulejo correspondente provido pela unidade dividida 93 por um sistema correspondendo ao sistema de HEVC se referindo a SPS, PPS, APS e similar providos pela unidade dividida 93. Em outras palavras, as unidades de decodificação 94-1 por 94-N decodificam os dados codificados independentemente na direção de tempo para cada azulejo enquanto se referindo a SPS, PPS, APS e similar. As unidades de decodificação 94-1 por 94-N provêem as imagens decodificadas obtidas como resultado da decodificação ao buffer de rearranjo de tela 95. Na descrição seguinte, as unidades de decodificação 94-1 por 94-N são chamadas coletivamente unidades de decodificação 94 quando distinção entre elas não é requerida particularmente.
[000171] O buffer de rearranjo de tela 95 sintetiza as imagens decodificadas dos azulejos respectivos providos pela unidades de decodificação 94-1 por 94-N arranjando as imagens decodificadas respectivas e armazenando as imagens decodificadas respectivas para cada unidade de quadros baseado na informação dividida de azulejo provida pela unidade de extração 92. O buffer de rearranjo de tela 95 rearranja as imagens armazenadas para cada unidade de quadros localizada na ordem de codificação em tais posições que as imagens respectivas estejam localizadas na ordem da exibição original, e provê as imagens rearranjadas para a unidade de conversão D/A 96.
[000172] A unidade de conversão D/A 96 executa conversão D/A das imagens para cada unidade de quadros provida pelo buffer de rearranjo de tela 95, e provê a imagem convertida como sinais de saída.
(Exemplo de Constituição de Unidade de Decodificação)
[000173] Figura 16 é um diagrama de bloco mostrando um exemplo de constituição das unidades de decodificação 94 na Figura 15 de acordo com a primeira concretização.
[000174] A unidade de decodificação 94 na Figura 16 é constituída por um Buffer de armazenamento 101, uma unidade de decodificação sem perda 102, uma unidade de quantização inversa 103, uma unidade de transformação ortogonal inversa 104, uma unidade de adição 105, um filtro de 'deblock' 106, um DPB 107, uma chave 108, uma unidade de intra-predição 109, uma unidade de compensação de movimento 110 e uma chave 111.
[000175] O buffer de armazenamento 101 da unidade de decodificação 94 recebe dados codificados do azulejo correspondente providos pela unidade dividida 93 na Figura 15, e armazena os dados recebidos. O buffer de armazenamento 101 provê os dados codificados armazenados para a unidade de decodificação sem perda 102.
[000176] A unidade de decodificação sem perda 102 executa decodificação sem perda, tal como decodificação de comprimento de palavra- código variável e decodificação aritmética, para os dados codificados recebidos do buffer de armazenamento 101 para obter coeficientes quantizados e informação codificada. A unidade de decodificação sem perda 102 provê os coeficientes quantizados para a unidade de quantização inversa 103.
[000177] Além disso, a unidade de decodificação sem perda 102 obtém informação de modo de intra-predição do bloco de predição atual adicionando informação de modo de intra-predição depois de codificação diferencial como informação codificada à informação de modo de intra-predição de um bloco de predição adjacente ao bloco de predição atual dentro do mesmo azulejo. A unidade de decodificação sem perda 102 provê a informação de modo de intra-predição atual e similar à unidade de intra-predição 109.
[000178] Além disso, a unidade de decodificação sem perda 102 funciona como uma unidade de geração de vetor de movimento, e calcula um vetor de movimento do bloco de predição atual adicionando informação de vetor de movimento como informação codificada a um vetor de movimento de outro bloco de predição dentro do mesmo azulejo. A unidade de decodificação sem perda 102 provê o vetor de movimento obtido, informação para especificar uma imagem de referência como informação codificada, informação de modo de interpredição e similar à unidade de compensação de movimento 110. Além disso, a unidade de decodificação sem perda 102 provê informação de modo de intra-predição ou informação de modo de interpredição à chave 111.
[000179] A unidade de quantização inversa 103, a unidade de transformação ortogonal inversa 104, a unidade de adição 105, o filtro de 'deblock' 106, o DPB 107, a chave 108, a unidade de intra-predição 109 e a unidade de compensação de movimento 110 executam operações semelhantes às operações correspondentes da unidade de quantização inversa 76, da unidade de transformação ortogonal inversa 77, da unidade de adição 78, do filtro de 'deblock' 79, do DPB 80, da chave 81, da unidade de intra-predição 82 e da unidade de compensação de movimento 83 na Figura 4. As imagens são decodificadas por estas operações.
[000180] Mais especificamente, a unidade de quantização inversa 103 executa quantização inversa dos coeficientes quantizados providos pela unidade de decodificação sem perda 102, e provê os coeficientes obtidos como resultado do quantização inversa à unidade de transformação ortogonal inversa 104.
[000181] A unidade de transformação ortogonal inversa 104 executa transformação ortogonal inversa dos coeficientes recebidos da unidade de quantização inversa 103, e provê informação residual obtida como resultado da transformação ortogonal inversa à unidade de adição 105.
[000182] A unidade de adição 105 funciona como uma unidade de decodificação, e adiciona informação residual como a imagem visada de decodificação provida pela unidade de transformação ortogonal inversa 104 à imagem de predição provida pela chave 111 para decodificação. A unidade de adição 105 provê uma imagem decodificada obtida como resultado da decodificação ao filtro de 'deblock' 106, e provê a imagem decodificada para o DPB 107. Quando a imagem de predição não é provida pela chave 111, a unidade de adição 105 provê a imagem correspondendo à informação residual provida pela unidade de transformação ortogonal inversa 104 para o filtro de 'deblock' 106 como uma imagem decodificada, e provê a imagem para o DPB 107 e permite ao DPB 107 armazenar a imagem.
[000183] O filtro de 'deblock' 106 remove distorção de bloco executando filtragem da imagem decodificada provida pela unidade de adição 105 para cada unidade de azulejos baseado em informação de filtro de 'deblock' contida em SPS e PPS provida pela unidade dividida 93. O filtro de 'deblock' 106 provê uma imagem decodificada obtida como resultado da filtragem ao DPB 107 e permite ao DPB 107 armazenar a imagem, e provê a imagem para o buffer de rearranjo de tela 95 na Figura 15. A imagem decodificada do azulejo correspondente armazenada no DPB 107 é lida pela chave 108 como uma imagem de referência, e provida à unidade de compensação de movimento 110 ou à unidade de intra-predição 109.
[000184] A unidade de intra-predição 109 executa intra-predição no modo ótimo de intra-predição indicado pela informação de modo de intra- predição usando uma imagem de referência lida do DPB 107 pela chave 108, não filtrada pelo filtro de 'deblock' 106, e contida no mesmo azulejo como o azulejo da imagem visada de decodificação. A unidade de intra-predição 109 provê uma imagem de predição gerada como resultado da intra-predição à chave 111.
[000185] A unidade de compensação de movimento 110 lê, do DPB 107 pela chave 108, uma imagem de referência contida em um quadro diferente do quadro da imagem visada de decodificação, contida no mesmo azulejo como o azulejo da imagem visada de decodificação, e filtrada pelo filtro de 'deblock' 106 baseado em informação para especificar uma imagem de referência provida pela unidade de decodificação sem perda 102. Em outras palavras, a unidade de compensação de movimento 110 lê uma imagem de referência contida em um azulejo colocalizado do DPB 107 baseado na informação para especificar uma imagem de referência.
[000186] A unidade de compensação de movimento 110 executa interpredição no modo ótimo de interpredição executando compensação de movimento da imagem de referência no modo ótimo de interpredição indicado pela informação de modo de interpredição baseado no vetor de movimento. A unidade de compensação de movimento 110 provê uma imagem de predição gerada como resultado da interpredição à chave 111.
[000187] A chave 111 provê a imagem de predição provida pela unidade de intra-predição 109 para a unidade de adição 105 quando a informação de modo de intra-predição é provida pela unidade de decodificação sem perda 102. Por outro lado, quando a informação de modo de interpredição é provida pela unidade de decodificação sem perda 102, a chave 111 provê a imagem de predição provida pela unidade de compensação de movimento 110 para a unidade de adição 105.
(Descrição de Esboço de Processo Executado por Dispositivo de Decodificação)
[000188] Figura 17 é um diagrama descrevendo o esboço de um processo executado pela dispositivo de decodificação 90 na Figura 15.
[000189] Como mostrado na Figura 17, um fluxo codificado dividido em N azulejos e codificado é introduzido ao dispositivo de decodificação 90 do dispositivo de codificação 50. Adicionalmente, a informação divisível de azulejo é fixada a verdadeiro (1) para este fluxo codificado.
[000190] O dispositivo de decodificação 90 recebe o fluxo codificado, extrai SPS, PPS, VUI, APS, dados codificados e similar do fluxo codificado, e divide os dados codificados em unidades de azulejos baseado em informação divida de azulejo contida em SPS e PPS. Os dados codificados para cada azulejo obtido por divisão são providos às unidades de decodificação correspondentes 94-1 por 94-N para cada azulejo. Mais especificamente, cada um dos dados codificados de azulejo #1, azulejo #2 e até azulejo #N são providos à unidade de decodificação correspondente 94-1, unidade de decodificação 94-2 e até unidade de decodificação 94-N.
[000191] A unidade de decodificação 94-1 é constituída por uma unidade de processamento de decodificação 121-1 e um DPB 122-1. A unidade de processamento de decodificação 121-1 é constituída pelo buffer de armazenamento 101, a unidade de decodificação sem perda 102, a unidade de quantização inversa 103, a unidade de transformação ortogonal inversa 104, a unidade de adição 105, o filtro de 'deblock' 106, o DPB 107, a chave 108, a unidade de intra-predição 109, a unidade de compensação de movimento 110 e a chave 111 (Figura 16) da unidade de decodificação 94-1. A unidade de processamento de decodificação 121-1 decodifica os dados codificados do azulejo #1.
[000192] Além disso, o DPB 122-1 é constituído pelo DPB 107 da unidade de decodificação 94-1, e armazena a imagem decodificada do azulejo #1 obtida como resultado da decodificação pela unidade de processamento de decodificação 121-1. A imagem decodificada do azulejo #1 armazenada no DPB 122-1 é usada para decodificação pela unidade de processamento de decodificação 121-1.
[000193] Cada uma das unidades de decodificação 94-2 por 94-N tem uma constituição semelhante à estrutura da unidade de decodificação 94-1. Por conseguinte, as imagens decodificadas do azulejo #2 por azulejo #N são armazenadas no DPB 122-2 por 122-N, respectivamente.
[000194] Além disso, as imagens decodificadas do azulejo #1 por azulejo #N obtidas pela unidade de processamento de decodificação 121-1 por 121-N também são providas ao buffer de rearranjo de tela 95, sintetizadas através de arranjo baseado na informação divida de azulejo, e armazenadas para cada unidade de quadros.
[000195] Como discutido acima, os dados codificados para cada azulejo são decodificados independentemente usando a imagem de decodificação do azulejo correspondente. Por conseguinte, o dispositivo de decodificação 90 não é exigido incluir um DPB de decodificação comum contendo imagens decodificadas para todos os azulejos.
(Descrição de Processo Executado por Dispositivo de Decodificação)
[000196] Figura 18 é um fluxograma descrevendo um processo de decodificação de fluxo codificado executado pelo dispositivo de decodificação 90 na Figura 15.
[000197] Na etapa S61 na Figura 18, a unidade de recepção 91 do dispositivo de decodificação 90 recebe um fluxo codificado transmitido do dispositivo de codificação 50, e provê o fluxo codificado para a unidade de extração 92.
[000198] Na etapa S62, a unidade de extração 92 extrai SPS, PPS, VUI, APS, dados codificados e similar do fluxo codificado, e provê a extração para a unidade dividida 93. Além disso, a unidade de extração 92 provê informação dividida de azulejo contida em SPS e PPS ao buffer de rearranjo de tela 95.
[000199] Na etapa S63, a unidade dividida 93 determina se informação divisível de azulejo contida em VUI provida pela unidade de extração 92 é verdadeira (1) ou não. Quando a informação divisível de azulejo não é verdadeira (1), quer dizer, quando a informação de divisível de azulejo é falsa (0), a unidade dividida 93 termina o processo.
[000200] Por outro lado, quando é determinado que a informação divisível de azulejo é verdadeira (1) na etapa S63, a unidade dividida 93 divide os dados codificados em unidades de azulejos baseado na informação dividida de azulejo contida na unidade dividida 93, SPS e PPS na etapa S64.
[000201] Na etapa S65, a unidade dividida 93 provê os dados codificados dos N azulejos divididos respectivos para as unidades de decodificação correspondentes 94-1 por 94-N. Além disso, a unidade dividida 93 provê SPS, PPS e similar provido pela unidade de extração 92 para a unidade de decodificação 94-N.
[000202] Na etapa S66, as unidades de decodificação 94 executam decodificação dos dados codificados dos azulejos correspondentes providos pela unidade dividida 93 por um sistema correspondendo ao sistema de HEVC enquanto se referindo a SPS, PPS e similar provido pela unidade dividida 93. Os detalhes deste processo de decodificação serão descritos com referência à Figura 19 discutida mais tarde.
[000203] Na etapa S67, o buffer de rearranjo de tela 95 sintetiza as imagens decodificadas dos azulejos respectivos providos pelas unidades de decodificação 94-1 por 94-N arranjando as imagens de decodificação respectivas e armazenando as imagens de decodificação respectivas para cada unidade de quadros baseado na informação dividida de azulejo provida pela unidade de extração 92.
[000204] Na etapa S68, o buffer de rearranjo de tela 95 rearranja as imagens armazenadas para cada unidade de quadros localizada na ordem para codificação em tais posições que as imagens respectivas estejam localizadas na ordem da exibição original, e provê as imagens rearranjadas para a unidade de conversão D/A 96.
[000205] Na etapa S69, a unidade de conversão D/A 96 executa conversão D/A das imagens para cada unidade de quadros provida pelo buffer de rearranjo de tela 95, e produz as imagens convertidas como sinais de saída.
[000206] Figura 19 é um fluxograma descrevendo o processo de decodificação executado na etapa S66 na Figura 18.
[000207] Na etapa S100 na Figura 19, o buffer de armazenamento 101 da unidade de decodificação 94 recebe dados codificados do azulejo correspondente da unidade dividida 93 na Figura 15, e armazena os dados. O buffer de armazenamento 101 provê os dados codificados armazenados nela à unidade de decodificação sem perda 102. Adicionalmente, os processos seguintes de S101 a S110 são executados para cada unidade de CUs, por exemplo.
[000208] Na etapa S101, a unidade de decodificação sem perda 102 executa decodificação sem perda dos dados codificados recebidos do buffer de armazenamento 101, e obtém coeficientes quantizados e informação codificada. A unidade de decodificação sem perda 102 provê os coeficientes quantizados para a unidade de quantização inversa 103.
[000209] Além disso, a unidade de decodificação sem perda 102 obtém informação de modo de intra-predição do bloco de predição atual adicionando informação de modo de intra-predição depois de codificação diferencial como informação codificada à informação de modo de intra-predição de um bloco de predição adjacente ao bloco atual dentro do mesmo azulejo. A unidade de decodificação sem perda 102 provê informação de modo de intra-predição do bloco de predição atual à unidade de intra-predição 109 e à chave 111.
[000210] Na etapa S102, a unidade de decodificação sem perda 102 gera um vetor de movimento do bloco de predição atual adicionando informação de vetor de movimento como informação codificada a um vetor de movimento de outro bloco de predição dentro do mesmo azulejo. A unidade de decodificação sem perda 102 provê o vetor de movimento gerado, informação para especificar uma imagem de referência como informação codificada, informação de modo de interpredição e similar à unidade de compensação de movimento 110. Além disso, a unidade de decodificação sem perda 102 provê a informação de modo de interpredição à chave 111.
[000211] Na etapa S103, a unidade de quantização inversa 103 executa quantização inversa dos coeficientes quantizados recebidos da unidade de decodificação sem perda 102, e provê os coeficientes obtidos como resultado da quantização inversa à unidade de transformação ortogonal inversa 104.
[000212] Na etapa S104, a unidade de compensação de movimento 110 determina se a informação de modo de interpredição é provida da unidade de decodificação sem perda 102. Quando é determinado que a informação de modo de interpredição é provida na etapa S104, o processo procede à etapa S105.
[000213] Na etapa S105, a unidade de compensação de movimento 110 executa compensação de movimento usando uma imagem de referência filtrada pelo filtro de 'deblock' 106 e contida no mesmo azulejo como o azulejo da imagem visada de decodificação baseado no vetor de movimento, a informação de modo de interpredição, e a informação para especificar uma imagem de referência provida pela unidade de decodificação sem perda 102. A unidade de compensação de movimento 110 provê uma imagem de predição gerada como resultado da compensação de movimento à unidade de adição 105 pela chave 111, e permite ao processo proceder à etapa S107.
[000214] Por outro lado, quando é determinado que a informação de modo de inter- predição não é provida na etapa S104, quer dizer, quando a informação de modo de intra-predição é provida à unidade de intra-predição 109, o processo procede à etapa S106.
[000215] Na etapa S106, a unidade de intra-predição 109 executa processo de intra-predição executando intra-predição da informação de modo de intra- predição usando uma imagem de referência lida do DPB 107 pela chave 108, não filtrada pelo filtro de 'deblock' 106, e localizada dentro do mesmo azulejo como o azulejo da imagem visada de decodificação. A unidade de intra-predição 109 provê uma imagem de predição gerada como resultado da intra-predição à unidade de adição 105 pela chave 111, e permite ao processo proceder à etapa S107.
[000216] Na etapa S107, a unidade de transformação ortogonal inversa 104 executa transformação ortogonal inversa dos coeficientes recebidos da unidade de quantização inversa 103, e provê informação residual obtida como resultado da transformação ortogonal inversa à unidade de adição 105.
[000217] Na etapa S108, a unidade de adição 105 executa decodificação adicionando a informação residual provida pela unidade de transformação ortogonal inversa 104 como uma imagem visada de decodificação à imagem de predição provida pela chave 111. A unidade de adição 105 provê uma imagem decodificada obtida como resultado da decodificação ao filtro de 'deblock' 106, e também provê a imagem decodificada para o DPB 107.
[000218] Na etapa S109, o filtro de 'deblock' 106 executa filtragem da imagem decodificada provida pela unidade de adição 105 para cada unidade de azulejos baseado em informação de filtro de 'deblock' contida em SPS e PPS provida pela unidade dividida 93. O filtro de 'deblock' 106 provê uma imagem decodificada depois de filtragem ao DPB 107 e ao buffer de rearranjo de tela 95 (Figura 15).
[000219] Na etapa S110, o DPB 107 armazena a imagem decodificada antes de filtragem provida pela unidade de adição 105, e a imagem decodificada depois de filtragem provida pelo filtro de 'deblock' 106. A imagem decodificada armazenada no DPB 107 é provida à unidade de compensação de movimento 110 ou à unidade de intra-predição 109 pela chave 108. Então, o processo retorna à etapa S66 na Figura 18, e procede à etapa S67.
[000220] Como discutido acima, a dispositivo de decodificação 90 executa compensação de movimento para cada azulejo usando uma imagem de referência posicionada a um momento diferente do tempo da imagem visada de decodificação e contida dentro do mesmo azulejo como o azulejo da imagem visada de decodificação baseado na informação divisível de azulejo e na informação de vetor de movimento. Por conseguinte, decodificação independente na direção de tempo para cada azulejo é permitida. Como resultado, o dispositivo de decodificação 90 pode reproduzir só um azulejo predeterminado dos N azulejos a uma velocidade alta, por exemplo.
[000221] Adicionalmente, enquanto o dispositivo de decodificação 90 é provido com N unidades de decodificação 94 para decodificar imagens dos azulejos respectivos, o dispositivo de decodificação 90 pode ser provido com uma unidade de decodificação 94. Neste caso, a unidade de decodificação inclui um DPB armazenando imagens decodificadas para cada azulejo, e executa decodificação de imagens para cada azulejo na ordem número de ID de azulejo na direção de número menor para número maior, isso é, na ordem de varredura de quadrícula.
<Segunda Concretização> (Exemplo de Imagem Visada de Codificação)
[000222] Figura 20 é um diagrama mostrando um exemplo de uma imagem visada de codificação de um dispositivo de codificação ao qual a técnica presente é aplicada de acordo com uma segunda concretização.
[000223] Como mostrado na Figura 20, a imagem visada de codificação é uma imagem formada como uma imagem 3D para exibição 3D, contendo uma imagem de olho esquerdo (doravante chamada imagem L) disposta na metade esquerda da tela, e uma imagem de olho direito (doravante chamada imagem R) disposta na metade direita da tela.
[000224] Além disso, como mostrado na Figura 20, a imagem visada de codificação está dividida em azulejo em azulejos diferentes para a imagem L e para a imagem R. Como resultado, o azulejo para imagem L se torna um azulejo #0, e o azulejo para a imagem R se torna um azulejo #1.
[000225] Adicionalmente, a imagem L e a imagem R da imagem 3D podem ser dispostas na metade superior e na metade inferior da tela, respectivamente.
(Exemplo de Constituição de Dispositivo de Codificação na Segunda Concretização)
[000226] O dispositivo de codificação ao qual a técnica presente é aplicada de acordo com a segunda concretização é o dispositivo de codificação 50 que fixa N a 2. Este dispositivo de codificação codifica independentemente a imagem L e a imagem R, e transmite um fluxo codificado obtido como resultado da codificação.
(Exemplo de Constituição de Dispositivo de Decodificação para Imagem 2D em uma Concretização)
[000227] Figura 21 é um diagrama de bloco mostrando um exemplo de constituição de um dispositivo de decodificação para uma imagem 2D de acordo com uma concretização. Este dispositivo decodifica um fluxo codificado de uma imagem 3D codificada pelo dispositivo de codificação de acordo com a segunda concretização.
[000228] Na constituição mostrada na Figura 21, constituições semelhantes às constituições na Figura 15 são dados números de referência semelhantes. A mesma explicação é omitida quando apropriado.
[000229] A constituição de um dispositivo de decodificação 140 na Figura 21 é diferente da constituição na Figura 15 visto que uma unidade de extração de azulejo 141 é provida em vez da unidade dividida 93, e que um Buffer de rearranjo de tela 142 é provida em vez do buffer de rearranjo de tela 95.
[000230] A unidade de extração de azulejo 141 divide dados codificados em unidades de azulejos baseado em informação divisível de azulejo contida em VUI provida pela unidade de extração 92, e informação dividida de azulejo contida em SPS e PPS. A unidade de extração de azulejo 141 provê dados do azulejo codificados #1 incluídos em dados codificados de dois azulejos à unidade de decodificação 94-1. É assumido aqui que a exibição 2D é executada usando a imagem L. Porém, a imagem R pode ser usada por executar exibição 2D. Neste caso, não os dados codificados do azulejo #1, mas os dados codificados do azulejo #2 são providos à unidade de decodificação 94-1.
[000231] O buffer de rearranjo de tela 142 armazena a imagem decodificada do azulejo #1 provida pela unidade de decodificação 94-1 para cada unidade de quadros. O buffer de rearranjo de tela 142 rearranja as imagens armazenadas para cada unidade de quadros localizada na ordem para codificação em tais posições que as imagens estejam localizadas na ordem da exibição original, e provê as imagens rearranjadas para a unidade de conversão de D/A 96.
(Descrição de Processo Executado por Dispositivo de Decodificação para Imagem 2D)
[000232] Figura 22 é um fluxograma descrevendo um processo de decodificação de fluxo codificado executado pela dispositivo de decodificação 140 na Figura 21.
[000233] O processamento executado das etapas S131 por S134 na Figura 22 é semelhante ao processamento correspondente da etapa S61 por S64 na Figura 18; portanto, a explicação destas etapas é omitida.
[000234] Na etapa S135, a unidade de extração de azulejo 141 provê os dados codificados do azulejo #1 incluído nos dados codificados dos dois azulejos divididos à unidade de decodificação 94-1. Na etapa S136, a unidade de decodificação 94-1 executa decodificação na Figura 19.
[000235] Na etapa S137, a imagem decodificada do azulejo #1 provida pela unidade de decodificação 94-1 é armazenada para cada unidade de quadros.
[000236] O processamento nas etapas S138 e S139 é semelhante ao processamento na etapa S68 e S69 na Figura 18; portanto, a explicação destas etapas é omitida.
[000237] Como discutido acima, quando o fluxo codificado é um fluxo codificado dividido em azulejo para prover imagem L diferente e imagem R e codificado, codificação independente da imagem L e da imagem R é permitida. Por conseguinte, o dispositivo de decodificação 140 pode decodificar só os dados codificados da imagem L do azulejo #1 incluído nos dados codificados visados de decodificação. Como resultado, reprodução de alta velocidade de uma imagem 2D é realizada. Além disso, o dispositivo de decodificação 140 permite a redução da capacidade do DPB, e redução de consumo de energia na hora de decodificação.
[000238] Semelhantemente, quando o fluxo codificado é um fluxo codificado dividido em azulejo em uma área central dentro da tela e na outra área, reprodução de alta velocidade só da área central à qual atenção é dada é permitida.
(Exemplo de Constituição de Dispositivo de Decodificação para Imagem 3D)
[000239] Um dispositivo de decodificação para imagem 3D mostrado na Figura 20 para decodificar um fluxo codificado de imagem 3D é um dispositivo de decodificação que fixa N a 2 na Figura 15. Este dispositivo de decodificação de imagem 3D obtém uma imagem 3D decodificando independentemente dados codificados para uma imagem L e para uma imagem R, e sintetizando os dados decodificados. Adicionalmente, o dispositivo de decodificação para imagem 3D pode ser constituído para produzir a imagem L e a imagem R obtidas como resultado da decodificação sem sintetizar estas imagens.
[000240] Além disso, enquanto cada uma da imagem L e da imagem R é dividida em um azulejo de acordo com a segunda concretização, cada uma destas imagens pode ser dividida em uma pluralidade de azulejos. Em outras palavras, azulejos podem ser divididos de qualquer modo contanto que os azulejos sejam divididos para não conter ambas a imagem L e imagem R.
<Terceira Concretização> (Exemplo de Constituição de Sistema de Conferência de Televisão)
[000241] Figura 23 é um diagrama de bloco mostrando um exemplo de constituição de um sistema de conferência de televisão ao qual a técnica presente é aplicada de acordo com uma concretização.
[000242] Um sistema de conferência de televisão 160 na Figura 23 é constituído através de dispositivos de formação de imagem 161-1 por 161-M, dispositivos de codificação 162-1 por 162-M, um dispositivo de sintetização 163, dispositivos de decodificação 164-1 por 164-M e dispositivos de exibição 165-1 por 165-M. O sistema de conferência de televisão 160 captura imagens de M participantes de uma conferência posicionados em locais diferentes, codifica e sintetiza as imagens, e decodifica e exibe as imagens.
[000243] Mais especificamente, os dispositivos de formação de imagem 161-1 por 161-M do sistema de conferência de televisão 160 estão posicionados nos locais respectivos dos M participantes da conferência. Os dispositivos de formação de imagem 161-1 por 161-M capturam imagens dos participantes correspondentes da conferência, e provêem as imagens aos dispositivos de codificação 162-1 por 162-M.
[000244] Cada um dos dispositivos de codificação 162-1 por 162-M tem uma constituição semelhante à estrutura do dispositivo de codificação 50 na Figura 3. Os dispositivos de codificação 162-1 por 162-M codificam em compressão as imagens providas independentemente pelos dispositivos de formação de imagem 161 para cada azulejo por um sistema correspondendo ao sistema de HEVC. Cada um dos dispositivos de codificação 162-1 por 162-M provê um fluxo codificado obtido como resultado da codificação de compressão ao dispositivo de sintetização 163.
[000245] O dispositivo de sintetização 163 recebe os fluxos codificados transmitidos dos dispositivos de codificação 162-1 por 162-M. O dispositivo de sintetização 163 sintetiza cada um de dados codificados contidos nos fluxos sintetizados como dados codificados de azulejos diferentes. O dispositivo de sintetização 163 gera informação dividida de azulejo indicando as posições dos dados codificados dos azulejos respectivos e mostrando M como o número de divisões dos dados codificados obtidos como resultado da síntese. O dispositivo de sintetização 163 fixa SPS contendo informação dividida de azulejo e informação de filtro de 'deblock' a falso (0). Além disso, o dispositivo de sintetização 163 fixa VUI contendo informação de restrição de movimento fixado a falso (0), PPS contendo informação de filtro de 'deblock' fixada a falso (0), e APS. O dispositivo de sintetização 163 gera um fluxo sintetizado adicionando SPS, PPS, VUI, APS e similar aos dados codificados obtidos como resultado da síntese. O dispositivo de sintetização 163 transmite o fluxo sintetizado para os dispositivos de decodificação 164-1 por 164-M.
[000246] Cada um dos dispositivos de decodificação 164-1 por 164-M tem uma constituição semelhante à estrutura do dispositivo de decodificação 90 na Figura 15. Cada um dos dispositivos de decodificação 164-1 por 164-M recebe o fluxo sintetizado transmitido do dispositivo de sintetização 163. Cada um dos dispositivos de decodificação 164-1 por 164-M decodifica o fluxo sintetizado independentemente para cada azulejo, e provê a imagem decodificada obtida como resultado da decodificação ao correspondente dos dispositivos de exibição 165-1 por 165-M.
[000247] Os dispositivos de exibição respectivos 165-1 por 165-M estão dispostos nos locais correspondentes dos M participantes da conferência. Os dispositivos de exibição 165-1 por 165-M exibem as imagens decodificadas providas pelos dispositivos de decodificação 164-1 por 164-M.
[000248] Adicionalmente, de acordo com o sistema de conferência de televisão 160, os dispositivos de exibição 165-1 por 165-M estão dispostos nos locais correspondentes dos M participantes da conferência. Porém, os dispositivos de exibição podem estar dispostos em locais de uma parte dos M participantes da conferência. Além disso, as imagens decodificadas podem ser exibidas nos dispositivos de exibição das pessoas não participando na conferência.
[000249] Como discutido acima, de acordo com o sistema de conferência de televisão 160, os dispositivos de codificação 162-1 por 162-M executam codificação independentemente para cada azulejo. Por conseguinte, o vetor de movimento em interpredição sempre se torna um vetor designando uma imagem dentro de um azulejo contendo um bloco de predição como uma imagem de referência.
[000250] Neste caso, até mesmo quando dados codificados contidos em fluxos de bit codificados providos pelos dispositivos de codificação 162-1 por 162-M são sintetizados pelo dispositivo de sintetização 163 como estão como uma parte de dados codificados de uma tela, uma imagem decodificada correspondendo aos dados codificados de um dispositivo de codificação diferente depois de síntese dos dados codificados não é referida na hora de decodificação. Neste caso, decodificação normal dos dados codificados depois de síntese é permitida. Por conseguinte, o dispositivo de sintetização 163 pode sintetizar facilmente fluxos de bit codificados providos pelos dispositivos de codificação 162-1 por 162-M sem mudar camadas de Camada de Codificação de Vídeo (VCL) e camadas inferiores.
[000251] Este ponto é particularmente vantajoso para um sistema de conferência de televisão onde o número de fluxos de bit codificados a ser sintetizado é mutável dinamicamente por adição de um novo participante da conferência, ou remoção de um participante da conferência no meio da conferência.
[000252] Além disso, uma imagem decodificada de dados codificados diferentes não é referida para cada um dos M dados codificados contidos no fluxo sintetizado. Por conseguinte, o fluxo sintetizado pode ser dividido novamente em fluxos codificados contendo os dados codificados respectivos. Como resultado, processamento associado com o fluxo sintetizado é executado facilmente.
[000253] Adicionalmente, de acordo com a descrição precedente, codificação e decodificação são executadas independentemente para cada azulejo. Porém, codificação e decodificação podem ser executadas independentemente para cada fatia.
[000254] Adicionalmente, de acordo com a descrição precedente, a informação divisível de azulejo é fixada coletivamente para todos os azulejos constituindo um quadro. Porém, a informação divisível de azulejo pode ser fixada individualmente para cada azulejo.
<Outro Exemplo de VUI
[000255] Figura 24 é um diagrama mostrando outro exemplo de sintaxe de VUI quando a informação divisível de azulejo é fixada para cada azulejo.
[000256] Quando a informação divisível de azulejo é fixada para cada azulejo, informação divisível de azulejo (tile_divisível_flag) de azulejos respectivos arranjados na direção de linha (direção horizontal) é fixada para cada linha em VUI como mostrado em linhas 5 por 7 na Figura 24.
[000257] Neste caso, só codificação e decodificação podem ser executadas para um azulejo predeterminado para cada unidade de azulejos contida nos azulejos constituindo um quadro. Por exemplo, assumindo que o número de azulejos é 4, com a informação divisível de azulejo do azulejo #1 fixada a verdadeira (1) e com a informação divisível de azulejo dos azulejos #2 por #4 fixada a falsa (0), decodificação independente só do azulejo #1 é permitida.
[000258] Adicionalmente, quando bitstream_restriction_flag para linha 1 é 0, o lado de decodificação reconhece que todos os azulejos não são decodificáveis para cada azulejo baseado na determinação que a informação divisível de azulejo para todos os azulejos está fixada a falsa (0).
<Quarta Concretização> (Aplicabilidade à Codificação de Imagem de Multivisão e Decodificação de Imagem de Multivisão)
[000259] Uma série de processos descrita acima é aplicável à codificação de imagem de multivisão e decodificação de imagem de multivisão. Figura 25 mostra um exemplo de sistema de codificação de imagem de multivisão.
[000260] Como mostrado na Figura 25, uma imagem de multivisão contém imagens de uma pluralidade de visões (visões). As várias visões da imagem de multivisão são constituídas por visões base para codificação e decodificação usando só imagens das suas próprias visões sem usar imagens de outras visões, e visões não base para codificação e decodificação usando imagens de outras visões. As visões não base podem usar imagens de visões base, ou podem usar imagens de outras visões não base.
[000261] Para codificar e decodificar uma imagem de multivisão como mostrado na Figura 25, imagens das visões respectivas são codificadas ou decodificadas. Neste caso, os métodos na primeira por terceira concretizações descritas acima podem ser aplicados para codificação e decodificação das visões respectivas. Quando estes métodos são aplicados, codificação e decodificação independentes na direção de tempo para cada azulejo é permitido.
[000262] Além disso, as bandeiras e parâmetros usados nos métodos de acordo com a primeira por terceira concretizações descritas acima podem ser compartilhados em codificar e decodificar as visões respectivas. Mais especificamente, elementos de sintaxe ou similar de SPS, PPS, VUI, e APS podem ser compartilhados na codificação e decodificação das visões respectivas, por exemplo. Desnecessário dizer, informação necessária diferente destas pode ser compartilhada na codificação e decodificação das visões respectivas.
[000263] Quando estas são compartilhadas, supressão de transmissão de informação redundante, e redução da quantidade de informação (quantidade de códigos) a ser transmitida são alcançadas (quer dizer, diminuição de eficiência de codificação é suprimida).
(Dispositivo de Codificação de Imagem de Multivisão)
[000264] Figura 26 é um diagrama mostrando um dispositivo de codificação de imagem de multivisão que executa a codificação de imagem de multivisão precedente. Como mostrado na Figura 26, um dispositivo de codificação de imagem de multivisão 600 inclui uma unidade de codificação 601, uma unidade de codificação 602 e uma unidade de multiplexação 603.
[000265] A unidade de codificação 601 codifica imagens de visão base, e gera um fluxo codificado de imagem de visão base. A unidade de codificação 602 codifica imagens de visão não base, e gera um fluxo codificado de imagem de visão não base. A unidade de multiplexação 603 multiplexa o fluxo codificado de imagem de visão base gerado pela unidade de codificação 601 e o fluxo codificado de imagem de visão não base gerado pela unidade de codificação 602, e gera um fluxo codificado de imagem de multivisão.
[000266] O dispositivo de codificação 50 (Figura 3), e os dispositivos de codificação 162-1 por 162-M (Figura 23) são aplicáveis à unidade de codificação 601 e à unidade de codificação 602 deste dispositivo de codificação de imagem de multivisão 600. Em outras palavras, ao codificar as visões respectivas, codificação na direção de tempo independente para cada azulejo é permitida. Além disso, a unidade de codificação 601 e a unidade de codificação 602 podem executar codificação usando as mesmas bandeiras e parâmetros (por exemplo, elementos de sintaxe associados com processamento entre imagens) (quer dizer, bandeiras e parâmetros podem ser compartilhados entre as unidades de codificação 601 e 602). Por conseguinte, diminuição da eficiência de codificação pode ser suprimida.
(Dispositivo de Decodificação de Imagem de Multivisão)
[000267] Figura 27 é um diagrama mostrando um dispositivo de decodificação de multivisão executando a decodificação de imagem de multivisão precedente. Como mostrado na Figura 27, um dispositivo de decodificação de imagem de multivisão 610 tem uma unidade de multiplexação inversa 611, uma unidade de decodificação 612 e uma unidade de decodificação 613.
[000268] A unidade de multiplexação inversa 611 executa multiplexação inversa do fluxo codificado de imagem de multivisão gerado por multiplexação do fluxo codificado de imagem de visão base e do fluxo codificado de imagem de visão não base, e extrai o fluxo codificado de imagem de visão base e o fluxo codificado de imagem de visão não base. A unidade de decodificação 612 decodifica o fluxo codificado de imagem de visão base extraído pela unidade de multiplexação inversa 611, e obtém imagens de visão base. A unidade de decodificação 613 decodifica o fluxo codificado de imagem de visão não base extraído pela unidade de multiplexação inversa 611, e obtém imagens de visão não base.
[000269] O dispositivo de decodificação 90 (Figura 15), e o dispositivo de decodificação 140 (Figura 21) ou os dispositivos de decodificação 164-1 por 164-M (Figura 23) são aplicáveis à unidade de decodificação 612 e à unidade de decodificação 613 deste dispositivo de decodificação de imagem de multivisão 610. Em outras palavras, ao decodificar as visões respectivas, decodificação independente na direção de tempo para cada azulejo é permitida. Além disso, a unidade de decodificação 612 e a unidade de decodificação 613 podem executar decodificação usando as mesmas bandeiras e parâmetros (por exemplo, elementos de sintaxe associados com processamento entre imagens) (quer dizer, bandeiras e parâmetros podem ser compartilhados entre as unidades de decodificação 612 e 613). Por conseguinte, diminuição da eficiência de codificação pode ser suprimida.
<Quinta Concretização> (Aplicabilidade à Codificação de Imagem Hierárquica e Decodificação de Imagem Hierárquica)
[000270] Uma série de processos descrita acima é aplicável à codificação de imagem hierárquica e decodificação de imagem hierárquica (codificação graduável e decodificação graduável). Figura 28 mostra um exemplo de sistema de codificação de imagem hierárquica.
[000271] Codificação de imagem hierárquica (codificação graduável) divide dados de imagem em uma pluralidade de camadas (hierarquias) tal que um parâmetro predeterminado tenha uma função de capacidade de graduação, e codifica cada camada. Decodificação de imagem hierárquica (decodificação graduável) é decodificação em correspondência com esta codificação de imagem hierárquica.
[000272] Como mostrado na Figura 28, em imagens em camadas, uma imagem é dividida em uma pluralidade de imagens (camadas) na base de um parâmetro predeterminado tendo uma função de capacidade de graduação. Em outras palavras, a imagem hierarquizada (imagem hierárquica) contém uma pluralidade de hierarquias (camadas) de imagens, cada uma tendo um valor de parâmetro diferente um do outro devido ao parâmetro predeterminado. Estas várias camadas da imagem hierárquica são constituídas através de camadas base para codificação e decodificação usando só imagens das suas próprias camadas sem usar imagens de outras camadas, e camadas não base (também chamadas camadas de aprimoramento) para codificação e decodificação usando imagens de outras camadas. As camadas não base podem usar imagens de camadas base, ou podem usar imagens de outras camadas não base.
[000273] Em geral, as camadas não base são constituídas por dados (dados de diferença) de imagens de diferença entre suas próprias imagens e imagens de outras camadas para redução de redundância. Por exemplo, quando uma imagem é dividida em duas hierarquias de uma camada base e uma camada não base (também chamada camada de aprimoramento), uma imagem tendo qualidade mais baixa do que aquela da imagem original é formada baseado só em dados da camada base. Por outro lado, a imagem original (isto é, imagem de alta qualidade) pode ser formada quando dados da camada base e dados da camada não base são sintetizados.
[000274] Quando uma imagem é hierarquizada deste modo, a qualidade da imagem pode ser variada facilmente dependendo de situações. Por exemplo, no caso de um terminal tendo baixa habilidade de processamento tal como um telefone celular, informação de compressão de imagem de só camadas base é transmitida para formar uma imagem dinâmica tendo baixa resolução espaço-temporal ou tendo baixa qualidade de imagem, por exemplo. No caso de um terminal tendo alta habilidade de processamento tal como uma televisão e um computador pessoal, informação de compressão de imagem de camadas de aprimoramento além de camadas base é transmitida para formar uma imagem dinâmica tendo alta resolução espaço-temporal ou tendo alta qualidade, por exemplo. Neste caso, informação de compressão de imagem conforme a habilidade do terminal ou rede pode ser transmitida do servidor sem executar processamento de transcodificação.
[000275] Ao codificar e decodificar a imagem hierárquica como mostrado no exemplo na Figura 28, as imagens das camadas respectivas são codificadas e decodificadas. Neste caso, os métodos de acordo com a primeira por terceira concretizações são aplicáveis à codificação e decodificação das camadas respectivas. Quando estes métodos são aplicados, codificação e decodificação independentes na direção de tempo para cada azulejo é permitida.
[000276] Além disso, as bandeiras e parâmetros usados nos métodos de acordo com a primeira por terceira concretizações descritas acima podem ser compartilhados em codificação e decodificação das camadas respectivas. Mais especificamente, elementos de sintaxe ou similar de SPS, PPS, VUI, e APS podem ser compartilhados em codificação e decodificação das camadas respectivas, por exemplo. Desnecessário dizer, informação necessária diferente destas pode ser compartilhada em codificação e decodificação das camadas respectivas.
[000277] Quando estas são compartilhadas, supressão de transmissão de informação redundante, e redução da quantidade de informação (quantidade de códigos) a ser transmitida podem ser alcançadas (quer dizer, diminuição de eficiência de codificação pode ser suprimida).
(Parâmetro Graduável)
[000278] De acordo com esta codificação de imagem hierárquica e decodificação de imagem hierárquica (codificação graduável e decodificação graduável), o parâmetro tendo função de capacidade de graduação (capacidade de graduação) é um parâmetro arbitrário. Por exemplo, a resolução espacial mostrada na Figura 29 pode ser determinada como o parâmetro (capacidade de graduação espacial). No caso da capacidade de graduação espacial (capacidade de graduação espacial), a resolução da imagem é variável para cada camada. Mais especificamente, neste caso, cada quadro é dividido em dois tipos de hierarquias de camadas base tendo resolução espacial mais baixa do que a resolução da imagem original, e camadas de aprimoramento obtendo a resolução espacial original quando sintetizado com as camadas base como mostrado na Figura 29. Desnecessário dizer, este número de hierarquias é um exemplo, e o número de hierarquias pode ser um número arbitrário.
[000279] Alternativamente, o parâmetro tendo esta capacidade de graduação pode ser resolução temporal (capacidade de graduação temporal) como mostrado na Figura 30, por exemplo. No caso desta capacidade de graduação temporal (capacidade de graduação temporal), a taxa de quadros é variável para cada camada. Mais especificamente, neste caso, cada quadro é dividido em dois tipos de hierarquias de camadas base tendo uma taxa de quadros mais baixa do que a taxa de quadros da imagem original, e camadas de aprimoramento obtendo a taxa de quadros original quando sintetizado com as camadas base como mostrado na Figura 30. Desnecessário dizer, este número de hierarquias é um exemplo, e o número de hierarquias pode ser um número arbitrário.
[000280] Além disso, o parâmetro tendo esta capacidade de graduação pode ser uma relação de sinal para ruído (relação de Sinal para Ruído (SNR)) (capacidade de graduação de SNR), por exemplo. No caso desta capacidade de graduação de SNR, a relação de SNR é variável para cada camada. Mais especificamente, neste caso, cada quadro é dividido em dois tipos de hierarquias de camadas base tendo uma SNR mais baixa do que a SNR da imagem original, e camadas de aprimoramento obtendo a SNR original quando sintetizadas com as camadas base como mostrado na Figura 31. Desnecessário dizer, este número de hierarquias é um exemplo, e o número de hierarquias pode ser um número arbitrário.
[000281] Obviamente, o parâmetro tendo capacidade de graduação pode ser um parâmetro diferente dos parâmetros precedentes. Por exemplo, o parâmetro tendo capacidade de graduação pode ser profundidade de bit (capacidade de graduação de profundidade de bit). No caso desta capacidade de graduação de profundidade de bit, a profundidade de bit é variável para cada camada. Neste caso, cada uma de camadas base é constituída por uma imagem de 8 bits, por exemplo. Uma camada de aprimoramento é adicionada a esta imagem de modo a obter uma imagem de 10 bits (bit).
[000282] Além disso, o parâmetro tendo capacidade de graduação pode ser um formato de croma (capacidade de graduação de croma). No caso desta capacidade de graduação de croma, o formato de croma é variável para cada camada. Neste caso, cada uma de camadas base (camadas base) é constituída por uma imagem de componente tendo formato 4:2:0, por exemplo. Uma camada de aprimoramento é adicionada a esta camada de modo a obter uma imagem de componente tendo formato 4:2:2.
(Dispositivo de Codificação de Imagem Hierárquica)
[000283] Figura 32 mostra um dispositivo de codificação de imagem hierárquica que executa a codificação de imagem hierárquica precedente. Como mostrado na Figura 32, um dispositivo de codificação de imagem hierárquica 620 inclui uma unidade de codificação 621, uma unidade de codificação 622 e uma unidade de multiplexação 623.
[000284] A unidade de codificação 621 codifica imagens de camada base, e gera um fluxo codificado de imagem de camada base. A unidade de codificação 622 codifica imagens de camada não base, e gera um fluxo codificado de imagem de camada não base. A unidade de multiplexação 623 multiplexa o fluxo codificado de imagem de camada base gerado pela unidade de codificação 621 e o fluxo codificado de imagem de camada não base gerado pela unidade de codificação 622, e gera um fluxo codificado de imagem hierárquica.
[000285] O dispositivo de codificação 50 (Figura 3), e os dispositivos de codificação 162-1 por 162-M (Figura 23) são aplicáveis à unidade de codificação 621 e à unidade de codificação 622 deste dispositivo de codificação de imagem hierárquica 620. Em outras palavras, ao codificar as camadas respectivas, codificação independente na direção de tempo para cada azulejo é permitida. Além disso, a unidade de codificação 621 e a unidade de codificação 622 podem executar controle de filtragem para intra-predição e similar usando as mesmas bandeiras e parâmetros (por exemplo, elementos de sintaxe associados com processamento entre imagens) (quer dizer, bandeiras e parâmetros podem ser compartilhados entre as unidades de codificação 621 e 622). Por conseguinte, diminuição da eficiência de codificação pode ser suprimida.
(Dispositivo de Decodificação de Imagem Hierárquica)
[000286] Figura 33 é um diagrama mostrando um dispositivo de decodificação de imagem hierárquica que executa a decodificação de imagem hierárquica precedente. Como mostrado na Figura 33, um dispositivo de decodificação de imagem hierárquica 630 inclui uma unidade de multiplexação inversa 631, uma unidade de decodificação 632 e uma unidade de decodificação 633.
[000287] A unidade de multiplexação inversa 631 executa multiplexação inversa do fluxo codificado de imagem hierárquica gerado por multiplexação do fluxo codificado de imagem de camada base e do fluxo codificado de imagem de camada não base, e extrai o fluxo codificado de imagem de camada base e o fluxo codificado de imagem de camada não base. A unidade de decodificação 632 decodifica o fluxo codificado de imagem de camada base extraído pela unidade de multiplexação inversa 631, e obtém imagens de camada base. A unidade de decodificação 633 decodifica o fluxo codificado de imagem de camada não base extraído pela unidade de multiplexação inversa 631, e obtém imagens de camada não base.
[000288] O dispositivo de decodificação 90 (Figura 15), o dispositivo de decodificação 140 (Figura 21), ou os dispositivos de decodificação 164-1 por 164-M (Figura 23) são aplicáveis à unidade de decodificação 632 e à unidade de decodificação 633 deste dispositivo de decodificação de imagem hierárquica 630. Em outras palavras, ao decodificar as camadas respectivas, decodificação independente na direção de tempo para cada azulejo é permitida. Além disso, a unidade de decodificação 612 e a unidade de decodificação 613 podem executar decodificação usando as mesmas bandeiras e parâmetros (por exemplo, elementos de sintaxe associados com processamento entre imagens) (quer dizer, bandeiras e parâmetros podem ser compartilhados entre as unidades de decodificação 612 e 613). Por conseguinte, diminuição da eficiência de codificação pode ser suprimida.
<Sexta Concretização> (Descrição de Computador ao qual esta Técnica é Aplicada)
[000289] Uma série dos processos precedentes pode ser executada através de hardware, ou pode ser executada através de software. Quando a série dos processos é executada através de software, um programa constituindo o software é instalado em um computador. Exemplos deste computador incluem um computador incorporado em hardware dedicado, e um computador de propósito geral ou similar capaz de executar vários tipos de funções sob vários tipos de programas instalados nele.
[000290] Figura 34 é um diagrama de bloco mostrando um exemplo de constituição de hardware de um computador executando a série dos processos precedentes sob um programa.
[000291] No computador, uma Unidade de Processamento Central (CPU) 801, uma Memória Só de Leitura (ROM) 802 e uma Memória de Acesso Aleatório (RAM) 803 estão conectadas entre si por um barramento 804.
[000292] Uma interface de entrada/saída 805 está adicionalmente conectada com o barramento 804. Uma unidade de entrada 806, uma unidade de saída 807, uma unidade de armazenamento 808, uma unidade de comunicação 809 e uma unidade de disco 810 estão conectadas com a interface de entrada/saída 805.
[000293] A unidade de entrada 806 é constituída por um teclado, um mouse, um microfone e similar. A unidade de saída 807 é constituída por uma exibição, um alto-falante e similar. A unidade de armazenamento 808 é constituída por um disco rígido, uma memória não volátil e similar. A unidade de comunicação 809 é constituída por uma interface de rede e similar. A unidade de disco 810 aciona um meio removível 811 na forma de um disco magnético, um disco óptico, um disco magneto-óptico, uma memória de semicondutor ou similar.
[000294] De acordo com o computador assim constituído, a série dos processos precedentes é executada pela CPU 801 que carrega o programa armazenado na unidade de armazenamento 808 à RAM 803 pela interface de entrada/saída 805 e o barramento 804, e executa o programa, por exemplo.
[000295] O programa executado pelo computador (CPU 801) pode ser gravado no meio removível 811 como um meio de pacote ou similar, e provido na forma do meio removível 811, por exemplo. Além disso, o programa pode ser provido por um meio de transmissão por fios ou sem fios tal como uma rede local, a Internet, e difusão de satélite digital.
[000296] De acordo com o computador, o programa pode ser instalado na unidade de armazenamento 808 do meio removível 811 acoplado à unidade de disco 810 pela interface de entrada/saída 805. Alternativamente, o programa pode ser recebido pela unidade de comunicação 809 por um meio de transmissão por fios ou sem fios, e instalado na unidade de armazenamento 808. Ao invés, o programa pode ser instalado antecipadamente na ROM 802 ou na unidade de armazenamento 808.
[000297] Adicionalmente, o programa a ser executado pelo computador pode ser um programa sob o qual processos são executados em série de tempo na ordem descrita nesta especificação, ou executado em paralelo, ou na hora de necessidade tal como na hora de acessos.
<Sétima Concretização> (Exemplo de Constituição de Aparelho de Televisão)
[000298] Figura 35 mostra um exemplo da estrutura geral de um aparelho de televisão ao qual a técnica presente é aplicada. Um aparelho de televisão 900 inclui uma antena 901, um sintonizador 902, um desmultiplexador 903, um decodificador 904, uma unidade de processamento de sinal de vídeo 905, uma unidade de exibição 906, uma unidade de processamento de sinal de áudio 907, um alto-falante 908 e uma unidade de interface externa 909. O aparelho de televisão 900 adicionalmente inclui uma unidade de controle 910, uma unidade de interface de usuário 911, e similar.
[000299] O sintonizador 902 seleciona um canal desejado de sinais de onda de difusão recebidos pela antena 901, demodula o canal selecionado, e produz um fluxo de bits codificado assim obtido ao desmultiplexador 903.
[000300] O desmultiplexador 903 extrai um pacote de quadros e voz de um programa a ser assistido do fluxo de bits codificado, e produz os dados do pacote extraído para o decodificador 904. Além disso, o desmultiplexador 903 provê um pacote de dados tal como Guia de Programa Eletrônico (EPG) para a unidade de controle 910. Na hora de embaralhar, embaralhamento é cancelado usando um desmultiplexador ou similar.
[000301] O decodificador 904 executa decodificação do pacote, e produz dados de vídeo gerados decodificando à unidade de processamento de sinal de vídeo 905, e produz dados de áudio para a unidade de processamento de sinal de áudio 907.
[000302] A unidade de processamento de sinal de vídeo 905 executa processamento dos dados de vídeo tais como remoção de ruído, processamento de quadro e similar conforme colocações de usuário. A unidade de processamento de sinal de vídeo 905 gera dados de imagem do programa a ser exibido na unidade de exibição 906, dados de imagem produzidos por processamento executado sob um aplicativo provido por uma rede, e similar. Além disso, a unidade de processamento de sinal de vídeo 905 gera dados de vídeo para exibir uma tela de menu permitindo a seleção de itens ou similar, e sobrepõe os dados de vídeo gerados nos dados de vídeo do programa. A unidade de processamento de sinal de vídeo 905 gera sinais de excitação baseado nos dados de vídeo assim gerados, e excita a unidade de exibição 906.
[000303] A unidade de exibição 906 excita dispositivos de exibição (tais como elementos de exibição de cristal líquido) conforme os sinais de excitação recebidos da unidade de processamento de sinal de vídeo 905 para exibir quadros e similar do programa.
[000304] A unidade de processamento de sinal de áudio 907 executa processamento predeterminado de dados de áudio tais como remoção de ruído, executa conversão D/A e amplificação dos dados de áudio depois do processamento, e provê o resultado para o alto-falante 908 para produzir voz.
[000305] A unidade de interface externa 909 é uma interface conectando com um dispositivo externo ou uma rede. A unidade de interface externa 909 transmite e recebe dados tais como dados de vídeo e dados de áudio.
[000306] A unidade de interface de usuário 911 está conectada com a unidade de controle 910. A unidade de interface de usuário 911 é constituída por uma chave de operação, uma unidade receptora de sinal de controle remoto e similar, e provê sinais de operação correspondendo à operação de usuário à unidade de controle 910.
[000307] A unidade de controle 910 é constituída por uma Unidade de Processamento Central (CPU), uma memória e similar. A memória armazena um programa executado pela CPU, vários tipos de dados necessários para processamento executado pela CPU, dados de EPG, dados obtidos por uma rede, e similar. O programa armazenado na memória é lido e executado por CPU em um momento predeterminado tal como a iniciação do aparelho de televisão 900. A CPU controla as partes respectivas executando o programa tal que o aparelho de televisão 900 opere conforme operação de usuário.
[000308] Adicionalmente, o aparelho de televisão 900 é provido com um barramento 912 pelo qual a unidade de controle 910 se conecta com o sintonizador 902, o desmultiplexador 903, a unidade de processamento de sinal de vídeo 905, a unidade de processamento de sinal de áudio 907, a unidade de interface externa 909 e similar.
[000309] De acordo com o aparelho de televisão assim constituído, o decodificador 904 é provido com a função do dispositivo de decodificação (método de decodificação) do pedido presente. Por conseguinte, decodificação independente na direção de tempo para cada azulejo é permitida.
<Oitava Concretização> (Exemplo de Constituição de Telefone Celular)
[000310] Figura 36 mostra um exemplo da estrutura geral de um telefone celular ao qual a técnica presente é aplicada. Um telefone celular 920 inclui uma unidade de comunicação 922, um codec de áudio 923, uma unidade de câmera 926, uma unidade de processamento de imagem 927, uma unidade dividida de multiplexação 928, uma unidade de gravação e reprodução 929, uma unidade de exibição 930 e uma unidade de controle 931. Estas estão conectadas entre si por um barramento 933.
[000311] Uma antena 921 está conectada com a unidade de comunicação 922, enquanto um alto-falante 924 e um microfone 925 estão conectados com o codec de áudio 923. Além disso, uma unidade de operação 932 está conectada com a unidade de controle 931.
[000312] O telefone celular 920 executa vários tipos de operações tais como transmissão e recepção de sinais de áudio, transmissão e recepção de emails e dados de imagem, formação de imagem, gravação de dados e similar em vários tipos de modos incluindo modo de comunicação de áudio e modo de comunicação de dados.
[000313] No modo de comunicação de áudio, sinais de áudio gerados pelo microfone 925 são convertidos em dados de áudio e são sujeitos à compressão de dados pelo codec de áudio 923, e providos à unidade de comunicação 922. A unidade de comunicação 922 executa modulação, transformação de frequência e outro processamento dos dados de áudio, e gera sinais de transmissão. Além disso, a unidade de comunicação 922 provê os sinais de transmissão para a antena 921 para transmitir os sinais de transmissão para uma estação base não mostrada. Além disso, a unidade de comunicação 922 executa amplificação, transformação de frequência, demodulação e outro processamento de sinais de recepção recebidos pela antena 921, e provê dados de áudio assim obtidos ao codec de áudio 923. O codec de áudio 923 expande dados dos dados de áudio, e converte os dados de áudio em sinais de áudio analógicos, e produz o resultado para o alto-falante 924.
[000314] Além disso, para transmissão de correio no modo de comunicação de dados, a unidade de controle 931 recebe dados de caracteres entrados por operação da unidade de operação 932, e exibe os caracteres introduzidos na unidade de exibição 930. Além disso, a unidade de controle 931 gera dados de correio baseado em instruções de usuário ou similar pela unidade de operação 932, e provê os dados para a unidade de comunicação 922. A unidade de comunicação 922 executa modulação, transformação de frequência e similar dos dados de correio, e transmite o sinal de transmissão assim obtido pela antena 921. Além disso, a unidade de comunicação 922 executa amplificação, transformação de frequência, demodulação e similar de sinais de recepção recebidos pela antena 921 para restaurar os dados de correio. Os dados de correio assim obtidos são providos à unidade de exibição 930 para exibir os conteúdos do correio.
[000315] Adicionalmente, o telefone celular 920 pode armazenar os dados de correio recebidos em um meio de memória usando a unidade de gravação e reprodução 929. O meio de memória é um meio de memória regravável arbitrário. Por exemplo, o meio de memória é um meio removível tal como uma memória de semicondutor incluindo uma RAM e uma memória flash embutida, um disco rígido, um disco magnético, um disco magneto- óptico, um disco óptico, uma memória de USB e um cartão de memória.
[000316] Para transmitir dados de imagem no modo de comunicação de dados, dados de imagem gerados pela unidade de câmera 926 são providos à unidade de processamento de imagem 927. A unidade de processamento de imagem 927 executa codificação dos dados de imagem para gerar dados codificados.
[000317] A unidade dividida de multiplexação 928 multiplexa os dados codificados gerados pela unidade de processamento de imagem 927, e os dados de áudio providos pelo codec de áudio 923 por um sistema predeterminado, e provê o resultado para a unidade de comunicação 922. A unidade de comunicação 922 executa modulação, transformação de frequência e similar dos dados multiplexados, e transmite sinais de transmissão assim obtidos à antena 921. Além disso, a unidade de comunicação 922 executa amplificação, transformação de frequência, demodulação e similar de sinais de recepção recebidos pela antena 921 para restaurar os dados multiplexados. Estes dados multiplexados são providos à unidade divida de multiplexação 928. A unidade dividida de multiplexação 928 divide os dados multiplexados, e provê os dados codificados para a unidade de processamento de imagem 927, e provê os dados de áudio para o codec de áudio 923. A unidade de processamento de imagem 927 executa decodificação dos dados codificados para gerar dados de imagem. Estes dados de imagem são providos à unidade de exibição 930 para exibir imagens assim recebidas. O codec de áudio 923 converte os dados de áudio em sinais de áudio analógicos, e provê o resultado para o alto-falante 924 para produzir voz assim recebida.
[000318] De acordo com o telefone celular assim constituído, a unidade de processamento de imagem 927 é provida com as funções do dispositivo de codificação e do dispositivo de decodificação (método de codificação e método de decodificação) de acordo com o pedido presente. Por conseguinte, codificação e decodificação independentes na direção de tempo para cada azulejo são permitidas.
<Nona Concretização> (Exemplo de Constituição de Dispositivo de Gravação e Reprodução)
[000319] Figura 37 mostra um exemplo da estrutura geral de um dispositivo de gravação e reprodução ao qual a técnica presente é aplicada. Um dispositivo de gravação e reprodução 940 grava dados de áudio e dados de vídeo de um programa difundido recebido em um meio de gravação, e provê os dados gravados a um usuário a um momento correspondendo a instruções do usuário, por exemplo. Além disso, o dispositivo de gravação e reprodução 940 pode obter dados de áudio e dados de vídeo de outro dispositivo, e gravar estes em um meio de gravação, por exemplo. Além disso, o dispositivo de gravação e reprodução 940 pode alcançar exibição de imagem e voz produzida de um dispositivo de monitoração ou similar decodificando dados de áudio e dados de vídeo gravados em um meio de gravação e produzindo o resultado.
[000320] O dispositivo de gravação e reprodução 940 inclui um sintonizador 941, uma unidade de interface externa 942, um codificador 943, uma unidade de Disco Rígido (HDD) 944, uma unidade de disco 945, um seletor 946, um decodificador 947, uma unidade de Exibição em Tela (OSD) 948, uma unidade de controle 949 e uma unidade de interface de usuário 950.
[000321] O sintonizador 941 seleciona um canal desejado de sinais difundidos recebidos por uma antena não mostrada. O sintonizador 941 produz um fluxo de bit codificado obtido demodulando sinais de recepção do canal desejado ao seletor 946.
[000322] A unidade de interface externa 942 é constituída por pelo menos qualquer de uma interface de IEEE 1394, uma unidade de interface de rede, uma interface de USB, uma interface de memória flash e similar. A unidade de interface externa 942 é uma interface para conexão com um dispositivo externo, uma rede, um cartão de memória ou similar, e recebe dados a serem gravados tais como dados de vídeo e dados de áudio.
[000323] O codificador 943 executa codificação por um sistema predeterminado quando os dados de vídeo e dados de áudio providos pela unidade de interface externa 942 não estão codificados, e produz um fluxo de bit codificado para o seletor 946.
[000324] A unidade de HDD 944 grava dados de conteúdos tais como quadros e voz, vários tipos de programas, outros dados e similar em um disco rígido embutido, e lê estes do disco rígido correspondente na hora de reprodução, por exemplo.
[000325] A unidade de disco 945 grava sinais em um disco óptico colocado, e reproduz sinais do disco óptico. O disco óptico é um disco de DVD (DVD-vídeo, DVD-RAM, DVD-RW, DVD+R, DVD+RW, por exemplo), disco de Blu-ray (marca registrada), ou similar.
[000326] O seletor 946 seleciona quaisquer dos fluxos de bit codificados do sintonizador 941 ou do codificador 943 na hora de gravação de quadros ou voz, e provê o fluxo de bit selecionado tanto para a unidade de HDD 944 ou a unidade de disco 945. Além disso, o seletor 946 provê o fluxo de bit codificado produzido do HDD da unidade 944 ou da unidade de disco 945 para o decodificador 947.
[000327] O decodificador 947 executa decodificação do fluxo de bit codificado. O decodificador 947 provê dados de vídeo gerados por decodificação à unidade de OSD 948. Além disso, o decodificador 947 produz dados de áudio gerados por decodificação.
[000328] A unidade de OSD 948 gera dados de vídeo para exibir uma tela de menu associada com seleção de itens ou similar, sobrepõe os dados de vídeo sobre dados de vídeo produzidos do decodificador 947, e produz o resultado.
[000329] A unidade de interface de usuário 950 está conectada com a unidade de controle 949. A unidade de interface de usuário 950 é constituída por uma chave de operação, um unidade receptora de sinal de controle remoto e similar, e provê sinais de operação correspondendo à operação de usuário à unidade de controle 949.
[000330] A unidade de controle 949 é constituída por uma CPU, uma memória e similar. A memória armazena um programa executado pela CPU e vários dados necessários para processamento executado pela CPU. O programa armazenado na memória é lido e executado pela CPU em um momento predeterminado tal como o início do dispositivo de gravação e reprodução 940. A CPU controla as partes respectivas executando o programa tal que o dispositivo de gravação e reprodução 940 opere conforme operação de usuário.
[000331] De acordo com o dispositivo de gravação e reprodução assim constituído, o decodificador 947 é provido com a função do dispositivo de decodificação (método de decodificação) de acordo com o pedido presente. Por conseguinte, decodificação independente na direção de tempo para cada azulejo é permitida.
<Décima Concretização> (Exemplo de Constituição de Dispositivo de Formação de imagem)
[000332] Figura 38 mostra um exemplo da estrutura geral de um dispositivo de formação de imagem ao qual a técnica presente é aplicada. Um dispositivo de formação de imagem 960 visualiza um objeto, e exibe uma imagem do objeto em uma unidade de exibição, e grava a imagem em um meio de gravação como dados de imagem.
[000333] O dispositivo de formação de imagem 960 inclui um bloco óptico 961, uma unidade de formação de imagem 962, uma unidade de processamento de sinal de câmera 963, uma unidade de processamento de dados de imagem 964, uma unidade de exibição 965, uma unidade de interface externa 966, uma unidade de memória 967, uma unidade de mídia 968, uma unidade de OSD 969 e uma unidade de controle 970. Além disso, uma unidade de interface de usuário 971 está conectada com a unidade de controle 970. Além disso, a unidade de processamento de dados de imagem 964, a unidade de interface externa 966, a unidade de memória 967, a unidade de mídia 968, a unidade de OSD 969, a unidade de controle 970 e similar estão conectadas entre si por um barramento 972.
[000334] O bloco óptico 961 é constituído por uma lente de foco, um mecanismo de diafragma e similar. O bloco óptico 961 forma uma imagem óptica de um objeto sobre uma superfície de formação de imagem da unidade de formação de imagem 962. A unidade de formação de imagem 962 é constituída por um sensor de imagem de CCD ou CMOS. A unidade de formação de imagem 962 gera sinais elétricos em correspondência com a imagem óptica através de conversão fotoelétrica, e provê os sinais elétricos para a unidade de processamento de sinal de câmera 963.
[000335] A unidade de processamento de sinal de câmera 963 executa vários tipos de processamento de sinal de câmera, tais como correção de joelho, correção de gama, e correção de cor, para os sinais elétricos providos pela unidade de formação de imagem 962. A unidade de processamento de sinal de câmera 963 provê os dados de imagem depois de processamento de sinal de câmera para a unidade de processamento de dados de imagem 964.
[000336] A unidade de processamento de dados de imagem 964 executa codificação dos dados de imagem providos pela unidade de processamento de sinal de câmera 963. A unidade de processamento de dados de imagem 964 provê dados codificados gerados por codificação à unidade de interface externa 966 e à unidade de mídia 968. Além disso, a unidade de processamento de dados de imagem 964 executa decodificação dos dados codificados providos pela unidade de interface externa 966 e a unidade de mídia 968. A unidade de processamento de dados de imagem 964 provê dados de imagem gerados por decodificação à unidade de exibição 965. Além disso, a unidade de processamento de dados de imagem 964 provê dados de imagem providos pela unidade de processamento de sinal de câmera 963 para a unidade de exibição 965. Além disso, a unidade de processamento de dados de imagem 964 sobrepõe dados de exibição recebidos da unidade de OSD 969 sobre dados de imagem e provê o resultado à unidade de exibição 965.
[000337] A unidade de OSD 969 gera dados de exibição tais como uma tela de menu e ícones na forma de símbolos, caracteres, ou figuras, e produz os dados de exibição para a unidade de processamento de dados de imagem 964.
[000338] A unidade de interface externa 966 é constituída por um terminal de entrada/saída de USB e similar, e conectado com uma impressora na hora de imprimir de imagens. Além disso, uma unidade de disco está conectada com a unidade de interface externa 966 como necessário. Um programa de computação é lido de um meio removível, tal como um disco magnético e um disco óptico, acoplado apropriadamente à unidade de disco, e o programa de computação lido do meio é instalado como necessário. Além disso, a unidade de interface externa 966 tem uma interface de rede conectada com uma rede predeterminada tal como uma LAN e a Internet. A unidade de controle 970 pode ler dados codificados da unidade de memória 967 conforme instruções da unidade de interface de usuário 971, por exemplo, e permitir à unidade de interface externa 966 prover os dados para outro dispositivo conectado pela rede. Além disso, a unidade de controle 970 permite à unidade de interface externa 966 obter dados codificados e dados de imagem providos por outro dispositivo pela rede, e provê os dados para a unidade de processamento de dados de imagem 964.
[000339] O meio de gravação acionado pela unidade de mídia 968 é um disco magnético, um disco magneto-óptico, um disco óptico, uma memória de semicondutor, ou outro meio removível arbitrário legível e gravável, por exemplo. Além disso, o meio de gravação pode ser um tipo arbitrário de meio removível, tal como um dispositivo de fita, um disco, e um cartão de memória. Desnecessário dizer, o meio de gravação pode ser um cartão de CI sem contato ou similar.
[000340] Além disso, a unidade de mídia 968 e o meio de gravação podem ser unificados, e constituídos por um meio de gravação não portátil tal como uma unidade de disco rígido embutida e uma Unidade de Estado Sólido (SSD).
[000341] A unidade de controle 970 é constituída por uma CPU, uma memória e similar. A memória armazena um programa executado pela CPU e vários tipos de dados necessários para processamento executado pela CPU, por exemplo. O programa armazenado na memória é lido e executado pela CPU em um momento predeterminado tal como o início do dispositivo de formação de imagem 960. A CPU controla as partes respectivas executando o programa tal que o dispositivo de formação de imagem 960 opere conforme operações de usuário.
[000342] De acordo com o dispositivo de formação de imagem assim constituído, a unidade de processamento de dados de imagem 964 é provida com as funções do dispositivo de codificação e do dispositivo de decodificação (método de codificação e método de decodificação) de acordo com o pedido presente. Por conseguinte, codificação e decodificação independentes para cada azulejo são permitidas.
<Exemplo de Aplicativo de Codificação Graduável> (Primeiro Sistema)
[000343] Um exemplo de aplicativo específica de dados codificados graduáveis depois de codificação graduável (codificação hierárquica) é descrito agora. Por exemplo, codificação graduável é usada para seleção de dados a serem transmitidos como um exemplo mostrado na Figura 39.
[000344] Em um sistema de transmissão de dados 1000 mostrado na Figura 39, um servidor de distribuição 1002 lê dados codificados graduáveis armazenados em uma unidade de memória de dados codificados graduáveis 1001, e distribui os dados para dispositivos terminais tais como um computador pessoal 1004, um dispositivo de AV 1005, um dispositivo de tablete 1006 e um telefone celular 1007 por uma rede 1003.
[000345] Neste momento, o servidor de distribuição 1002 seleciona e transmite dados codificados tendo uma qualidade apropriada conforme as capacidades, ambientes de comunicação e similar dos dispositivos terminais. Quando a qualidade dos dados transmitidos do servidor de distribuição 1002 é excessivamente alta, imagens de alta qualidade não são produzidas necessariamente pelos dispositivos terminais. Nesta condição, há uma possibilidade de atraso ou transbordamento, e adicionalmente uma possibilidade de ocupação desnecessária das bandas de comunicação ou aumento desnecessário em cargas nos dispositivos terminais. Em contraste, quando a qualidade dos dados transmitidos do servidor de distribuição 1002 é excessivamente baixa, imagens tendo qualidade suficiente podem ser difíceis de serem produzidas pelos dispositivos terminais. Por conseguinte, o servidor de distribuição 1002 lê dados codificados graduáveis armazenados na unidade de memória de dados codificados graduáveis 1001 como dados codificados tendo qualidade apropriada para as capacidades, ambientes e similar dos dispositivos terminais, e transmite os dados apropriadamente.
[000346] Por exemplo, é assumido que a unidade de memória de dados codificados graduáveis 1001 armazena dados codificados graduáveis (BL+EL) 1011 obtidos por codificação graduável. Os dados codificados graduáveis (BL+EL) 1011 são dados codificados contendo ambas as camadas base e camadas de aprimoramento, e produz ambas as imagens de camada base e imagens de camada de aprimoramento quando decodificados.
[000347] O servidor de distribuição 1002 seleciona camadas apropriadas conforme capacidades, ambientes de comunicação e similar dos dispositivos terminais para quais dados são transmitidos, e lê dados das camadas selecionadas. Por exemplo, o servidor de distribuição 1002 lê dados codificados graduáveis de alta qualidade (BL+EL) 1011 da unidade de memória de dados codificados graduáveis 1001, e transmite os dados como estão para o computador pessoal 1004 e o dispositivo de tablete 1006 tendo alta habilidade de processamento. Por outro lado, por exemplo, o servidor de distribuição 1002 extrai dados de camadas base dos dados codificados graduáveis (BL+EL) 1011, e transmite os dados como dados graduáveis (BL) 1012 tendo os mesmos conteúdos como os conteúdos do dados codificados graduáveis (BL+EL) 1011, mas tendo qualidade mais baixa do que a qualidade dos dados codificados graduáveis (BL+EL) 1011 para o dispositivo de AV 1005 e o telefone celular 1007 tendo habilidade de processamento mais baixa.
[000348] Como pode ser entendido, a quantidade de dados pode ser controlada facilmente pelo uso dos dados codificados graduáveis. Por conseguinte, a possibilidade de atraso e transbordamento, e adicionalmente a possibilidade de aumento desnecessário em cargas nos dispositivos terminais e meios de comunicação pode ser suprimida. Além disso, no caso dos dados codificados graduáveis (BL+EL) 1011, a redundância entre camadas é reduzida; portanto, a quantidade de dados fica menor comparada com o caso quando os dados codificados das camadas respectivas são operados como dados discretos. Por conseguinte, a área de memória da unidade de memória de dados codificados graduáveis 1001 pode ser utilizada mais eficientemente.
[000349] Adicionalmente, os dispositivos terminais podem ser vários tipos de dispositivos incluindo o computador pessoal 1004 pelo telefone celular 1007. Assim, o desempenho do hardware é variável de acordo com os tipos dos dispositivos. Além disso, os aplicativos a serem executados pelos dispositivos terminais são de vários tipos; portanto, a capacidade do software também é variável. Além disso, a rede 1003 funcionando como um meio de comunicação pode ser vários tipos de redes de comunicação incluindo tipos por fios, sem fios, e ambos por fios e sem fios tais como a Internet e uma Rede Local (LAN). Assim, a capacidade de transmissão de dados é variável. Além disso, variações podem ser produzidas por outras comunicações, por exemplo.
[000350] Por conseguinte, o servidor de distribuição 1002 pode se comunicar com os dispositivos terminais correspondendo aos destinos de transmissão de dados antes de começar transmissão de dados de modo a obter informação sobre as capacidades dos dispositivos terminais tal como o desempenho de hardware dos dispositivos terminais, a capacidade do aplicativo (software) executado pelos dispositivos terminais, e informação sobre os ambientes de comunicação tal como a gama de banda utilizável da rede 1003. Então, o servidor de distribuição 1002 pode selecionar as camadas apropriadas baseado na informação assim obtida.
[000351] Adicionalmente, extração de camadas pode ser executada pelos dispositivos terminais. Por exemplo, o computador pessoal 1004 pode decodificar os dados codificados graduáveis transmitidos (BL+EL) 1011, e exibir imagens de camadas base, ou exibir imagens de camadas de aprimoramento. Além disso, o computador pessoal 1004 pode extrair os dados codificados graduáveis (BL) 1012 de camadas base dos dados codificados graduáveis transmitidos (BL+EL) 1011, armazenar os dados 1012, transferir os dados 1012 para outro dispositivo, e decodificar os dados 1012 para exibir imagens de camadas base, por exemplo.
[000352] Desnecessário dizer, cada número da unidade memória de dados codificados graduáveis 1001, do servidor de distribuição 1002, da rede 1003, e dos terminais é um número arbitrário. Além disso, enquanto o exemplo no qual a servidor de distribuição 1002 transmite dados para os dispositivos terminais foi discutido aqui, exemplos de aplicativo não estão limitados a este exemplo. O sistema de transmissão de dados 1000 é aplicável a qualquer sistema contanto que o sistema selecione camadas apropriadas conforme as capacidades dos dispositivos terminais, ambiente de comunicação e similar e transmita as camadas selecionadas ao transmitir dados codificados depois de codificação graduável para os dispositivos terminais.
(Segundo Sistema)
[000353] Além disso, codificação graduável é aplicável à transmissão por uma pluralidade de meios de comunicação como em um exemplo mostrado na Figura 40, por exemplo.
[000354] Em um sistema de transmissão de dados 1100 mostrado na Figura 40, uma estação de difusão 1101 transmite dados codificados graduáveis (BL) 1121 de camadas base 1121 por difusão de onda terrestre 1111. Além disso, a estação de difusão 1101 transmite (por exemplo, transmite na forma de pacotes) dados codificados graduáveis (EL) 1122 de camadas de aprimoramento por uma rede arbitrária 1112 constituída por uma rede de comunicação por fios, sem fios, ou ambas por fios e sem fios.
[000355] Um dispositivo terminal 1102 é provido com a função de receber a difusão de onda terrestre 1111 difundida pela estação de difusão 1101, e recebe os dados codificados graduáveis (BL) 1121 de camadas base transmitidos pela difusão de onda terrestre 1111. Além disso, o dispositivo terminal 1102 adicionalmente tem a função de comunicação de prover comunicação pela rede 1112, e recebe os dados codificados graduáveis (EL) 1122 de camadas de aprimoramento transmitidos pela rede 1112.
[000356] O dispositivo terminal 1102 decodifica os dados codificados graduáveis (BL) 1121 de camadas base obtidos pela difusão de onda terrestre 1111 conforme instruções de usuário ou similar, por exemplo, e obtém imagens de camadas base, armazena as imagens, e transmite as imagens para outro dispositivo.
[000357] Além disso, o dispositivo terminal 1102 sintetiza os dados codificados graduáveis (BL) 1121 de camadas base obtidos pela difusão de onda terrestre 1111 e os dados codificados graduáveis (EL) 1122 obtidos pela rede 1112 conforme instruções de usuário ou similar, por exemplo, para obter dados codificados graduáveis (BL+EL), obtém imagens de camadas de aprimoramento por decodificação dos dados, armazena as imagens, e transmite as imagens para outro dispositivo.
[000358] Como descrito acima, os dados codificados graduáveis podem ser transmitidos por meios de transmissão diferentes para cada camada, por exemplo. Por conseguinte, cargas podem ser dispersadas, e a possibilidade de atraso e transbordamento pode ser suprimida.
[000359] Além disso, o meio de comunicação a ser usado para transmissão pode ser selecionado para cada camada dependendo de situações. Por exemplo, os dados codificados graduáveis (BL) 1121 de camadas base tendo uma quantidade relativamente grande de dados podem ser transmitidos por um meio de comunicação tendo uma gama de banda larga, enquanto os dados codificados graduáveis (EL) 1122 de camadas de aprimoramento tendo uma quantidade relativamente pequena de dados podem ser transmitidos por um meio de comunicação tendo uma gama de banda estreita. Além disso, por exemplo, o meio de comunicação transmitindo os dados codificados graduáveis (EL) 1122 de camadas de aprimoramento pode ser trocado entre a rede 1112 e a difusão de onda terrestre 1111 conforme a gama de banda utilizável da rede 1112. Desnecessário dizer, isto se aplica a dados de camadas arbitrárias.
[000360] Este controle pode adicionalmente suprimir aumento em cargas impostas em transmissão de dados.
[000361] Obviamente, o número de camadas é um número arbitrário, e o número dos meios de comunicação a serem usados para transmissão também é um número arbitrário. Além disso, o número do dispositivo terminal 1102 como objetivo de distribuição de dados também é um número arbitrário. Além disso, enquanto o exemplo de difundir da estação de difusão 1101 foi discutido, exemplos de aplicativo não estão limitados a este exemplo. O sistema de transmissão de dados 1100 é aplicável a um sistema arbitrário contanto que o sistema divida dados codificados depois de codificação graduável em uma pluralidade de partes de unidades de camada e transmita os dados por uma pluralidade de linhas.
(Terceiro Sistema)
[000362] Além disso, codificação graduável é aplicável a armazenamento de dados codificados como um exemplo mostrado na Figura 41.
[000363] Em um sistema de formação de imagem 1200 mostrado na Figura 41, um dispositivo de formação de imagem 1201 executa codificação graduável de dados de imagem obtidos visualizando um objeto 1211, e provê os dados para um dispositivo de armazenamento de dados codificados graduáveis 1202 como dados codificados graduáveis (BL+EL) 1221.
[000364] O dispositivo de armazenamento de dados codificados graduáveis 1202 armazena os dados codificados graduáveis (BL+EL) 1221 providos do dispositivo de formação de imagem 1201 como dados tendo qualidade conforme situações. Por exemplo, na condição normal, o dispositivo de armazenamento de dados codificados graduáveis 1202 extrai dados de camadas base dos dados codificados graduáveis (BL+EL) 1221, e armazena os dados como dados codificados graduáveis (BL) 1222 de camadas base tendo baixa qualidade e uma quantidade pequena de dados. Por outro lado, na condição de atenção, por exemplo, o dispositivo de armazenamento de dados codificados graduáveis 1202 armazena os dados codificados graduáveis (BL+EL) 1221 como estão como dados tendo alta qualidade e uma quantidade grande de dados.
[000365] Por este método, o dispositivo de armazenamento de dados codificados graduáveis 1202 pode armazenar imagens tendo só alta qualidade como necessário. Por conseguinte, este método suprime aumento na quantidade de dados enquanto suprimindo redução de valores de imagens causada por deterioração de qualidade de imagem. Como resultado, a eficiência de utilização da área de memória pode melhorar.
[000366] Por exemplo, é assumido aqui que o dispositivo de formação de imagem 1201 é uma câmera de monitoração. Quando um objetivo de monitoração (tal como invasor) não está presente em uma imagem capturada (isto é, na condição normal), a possibilidade que os conteúdos da imagem capturada não são importantes é alta. Neste caso, redução da quantidade de dados tem prioridade, e os dados de imagem (dados codificados graduáveis) são armazenados como dados de baixa qualidade. Por outro lado, quando o objetivo de monitoração está presente em uma imagem capturada como o objeto 1211 (isto é, na condição de atenção), a possibilidade que os conteúdos da imagem capturada são importantes é alta. Por conseguinte, a qualidade da imagem tem prioridade, e os dados de imagem (dados codificados graduáveis) são armazenados como dados de alta qualidade.
[000367] Se a condição é a condição normal ou a condição de atenção pode ser determinado baseado em análise da imagem pelo dispositivo de armazenamento de dados codificados graduáveis 1202. Alternativamente, o dispositivo de formação de imagem 1201 pode determinar a condição e transmitir o resultado de determinação para o dispositivo de armazenamento de dados codificados graduáveis 1202.
[000368] Adicionalmente, a base para determinação se a condição é a condição normal ou a condição de atenção é fixada arbitrariamente, e os conteúdos da imagem correspondendo à base para determinação são estabelecidos arbitrariamente. Desnecessário dizer, condições diferentes de os conteúdos de uma imagem podem ser estabelecidos como a base para determinação. Por exemplo, troca pode ser feita conforme o nível de voz gravada, formas de onda ou similar, pode ser feito a intervalos de tempo predeterminados, ou pode ser feito em correspondência com instruções do exterior tais como instruções de usuário.
[000369] Além disso, enquanto o exemplo no qual as duas condições da condição normal e a condição de atenção são trocadas foi discutido, o número das condições é um número arbitrário. Por exemplo, três ou mais condições, tais como condição normal, condição de atenção leve, condição de atenção, e condição de atenção extrema, podem ser trocadas. Porém, o número máximo das condições a serem trocadas depende do número de camadas de dados codificados graduáveis.
[000370] Além disso, o dispositivo de formação de imagem 1201 pode determinar o número de camadas de codificação graduável conforme condições. Por exemplo, na condição normal, o dispositivo de formação de imagem 1201 pode gerar os dados codificados graduáveis (BL) 1222 de camadas base tendo baixa qualidade e uma quantidade pequena de dados, e prover os dados gerados ao dispositivo de armazenamento de dados codificados graduáveis 1202. Além disso, na condição de atenção, por exemplo, o dispositivo de formação de imagem 1201 pode gerar os dados codificados graduáveis (BL+EL) 1221 de camadas base tendo alta qualidade e uma quantidade grande de dados, e prover os dados gerados ao dispositivo de armazenamento de dados codificados graduáveis 1202.
[000371] De acordo com o exemplo precedente, a câmera de monitoração foi discutida. Porém, o propósito de uso do sistema de formação de imagem 1200 é um propósito arbitrário, e não está limitado à câmera de monitoração.
[000372] Adicionalmente, nesta especificação, o sistema se refere a um grupo de vários elementos constituintes (dispositivos, módulos (partes) e similar), incluindo ambas a estrutura que contém todos os elementos constituintes no mesmo alojamento e a estrutura que não contêm todos os elementos constituintes no mesmo alojamento. Por conseguinte, uma pluralidade de dispositivos contidos em alojamentos separados e conectados um ao outro por uma rede, e um dispositivo contendo uma pluralidade de módulos dentro de um alojamento estão ambos definidos como um sistema.
[000373] Além disso, concretizações de acordo com a técnica presente não estão limitadas às concretizações acima mencionadas. Várias modificações podem ser feitas sem partir da extensão dos assuntos da técnica presente.
[000374] Por exemplo, a técnica presente pode ter uma forma de computação de nuvem que partilha e usa juntamente uma função entre uma pluralidade de dispositivos por uma rede para executar processamento.
[000375] Além disso, as etapas respectivas descritas junto com os fluxogramas precedentes podem ser executadas por um dispositivo, ou podem ser executadas juntamente com uma pluralidade de dispositivos.
[000376] Além disso, quando uma pluralidade de processos está contida em uma etapa, os vários processos contidos na uma etapa podem ser executados por um dispositivo, ou podem ser executados juntamente com uma pluralidade de dispositivos.
[000377] Além disso, a técnica presente pode ter as constituições seguintes. (1) Um dispositivo de decodificação, incluindo: uma unidade de compensação de movimento gerando uma imagem de predição executando, para cada um de azulejos, compensação de movimento de uma imagem de referência dentro de um azulejo colocalizado baseado em informação divisível de azulejo indicando que decodificação é permitida para cada um dos azulejos e informação de vetor de movimento representando um vetor de movimento usado para gerar dados codificados de uma imagem atual visada de decodificação quando um quadro da imagem atual é dividido nos azulejos e decodificada; e uma unidade de decodificação decodificando os dados codificados usando a imagem de predição gerada pela unidade de compensação de movimento. (2) O dispositivo de decodificação de acordo com (1) acima, adicionalmente incluindo: uma unidade de geração de vetor gerando o vetor de movimento dos dados codificados da informação de vetor de movimento usando um vetor de movimento de uma imagem localizada adjacente à imagem atual e contida dentro do mesmo azulejo como o azulejo da imagem atual, em que a unidade de compensação de movimento executa compensação de movimento da imagem de referência para cada um dos azulejos baseado na informação divisível de azulejo e no vetor de movimento gerado pela unidade de geração de vetor de movimento. (3) O dispositivo de decodificação de acordo com (1) ou (2) acima, adicionalmente incluindo: uma unidade de filtro executando filtragem da imagem de referência para cada unidade dos azulejos, em que: a unidade de filtro executa a filtragem da imagem de referência para cada um dos azulejos baseado em informação de filtro representando que filtragem da imagem de referência não é executada pelos azulejos, e a unidade de compensação de movimento executa, para cada um dos azulejos, a compensação de movimento da imagem de referência obtida depois do filtragem pela unidade de filtro baseado na informação divisível de azulejo e na informação de vetor de movimento. (4) O dispositivo de decodificação de acordo com (3) acima, em que a unidade de filtro executa, para cada um dos azulejos, a filtragem da imagem de referência usando um parâmetro para a filtragem associada com uma imagem contida dentro do azulejo correspondente baseado na informação de filtro e informação de compartilhamento de parâmetro representando que o parâmetro não está compartilhado entre os azulejos. (5) O dispositivo de decodificação de acordo com qualquer de (1) a (4) acima, em que divisão de azulejo de um quadro contido dentro da mesma sequência é a mesma divisão. (6) O dispositivo de decodificação de acordo com qualquer de (1) a (5) acima, em que cada um dos azulejos inclui uma ou mais fatias. (7) O dispositivo de decodificação de acordo com qualquer de (1) a (6) acima, em que: o quadro é dividido em dois dos azulejos e decodificado, a imagem de um dos azulejos é uma imagem para olho esquerdo constituindo uma imagem 3D, e a imagem do outro azulejo é uma imagem para olho direito constituindo uma imagem 3D. (8) Um método de decodificação, incluindo: uma etapa de compensação de movimento executada por um dispositivo de decodificação que gera uma imagem de predição executando, para cada um de azulejos, compensação de movimento de uma imagem de referência dentro de um azulejo colocalizado baseado em informação divisível de azulejo indicando que decodificação é permitida para cada um dos azulejos e informação de vetor de movimento representando um vetor de movimento usado para gerar dados codificados de uma imagem atual visada de decodificação quando um quadro da imagem atual é dividido nos azulejos e decodificado; e uma etapa de decodificação executada pelo dispositivo de decodificação que decodifica os dados codificados usando a imagem de predição gerada pelo processamento da etapa de compensação de movimento. (9) Um dispositivo de codificação, incluindo: uma unidade de compensação de movimento gerando uma imagem de predição executando compensação de movimento de uma imagem de referência a um momento diferente do tempo de uma imagem atual visada de codificação baseado em um vetor de movimento detectado dentro de um azulejo quando um quadro da imagem atual é dividido nos azulejos e codificado; uma unidade de codificação codificando a imagem atual e gerando dados codificados usando a imagem de predição gerada pela unidade de compensação de movimento; uma unidade de fixação fixando informação divisível de azulejo indicando que decodificação é permitida para cada unidade dos azulejos; e uma unidade de transmissão transmitindo os dados codificados gerados pela unidade de codificação, e a informação divisível de azulejo fixada pela unidade de fixação. (10) O dispositivo de codificação de acordo com (9) acima, adicionalmente incluindo: uma unidade de geração de vetor gerando a informação de vetor de movimento baseado em um vetor de movimento de uma imagem localizada adjacente à imagem atual e contida dentro do mesmo azulejo como o azulejo da imagem atual, e um vetor de movimento da imagem atual. (11) O dispositivo de codificação de acordo com (9) ou (10) acima, adicionalmente incluindo: uma unidade de filtro executando filtragem da imagem de referência para cada unidade dos azulejos, em que: a unidade de compensação de movimento executa compensação de movimento da imagem de referência obtida depois da filtragem pela unidade de filtro usando a imagem atual e a imagem de referência obtida depois de filtragem pela unidade de filtro baseado no vetor de movimento detectado dentro do azulejo, a unidade de fixação fixa informação de filtro representando que filtragem da imagem de referência não está executada pelos azulejos, e a unidade de transmissão transmite a informação de filtro fixada pela unidade de fixação. (12) O dispositivo de codificação de acordo com qualquer de (9) a (11) acima, em que: a unidade de filtro executa, para cada um dos azulejos, a filtragem da imagem de referência usando um parâmetro de uma imagem contida dentro do azulejo correspondente, a unidade de fixação fixa informação de compartilhamento de parâmetro representando que o parâmetro não está compartilhado entre os azulejos, e a unidade de transmissão transmite a informação de compartilhamento de parâmetro fixada pela unidade de fixação. (13) O dispositivo de codificação de acordo com qualquer de (9) a (12) acima, em que a divisão de azulejo de um quadro contido dentro da mesma sequência é a mesma divisão. (14) O dispositivo de codificação de acordo com qualquer de (9) a (13) acima, em que cada um dos azulejos inclui um ou mais fatias. (15) O dispositivo de codificação de acordo com qualquer de (9) a (14) acima, em que: o quadro é dividido em dois dos azulejos e codificado, a imagem de um dos azulejos é uma imagem para olho esquerdo constituindo uma imagem 3D, e a imagem do outro azulejo é uma imagem para olho direito constituindo uma imagem 3D. (16) Um método de codificação, incluindo: uma etapa de compensação de movimento executada por um dispositivo de codificação que gera uma imagem de predição executando compensação de movimento de uma imagem de referência a um momento diferente do tempo de uma imagem atual visada de codificação baseado em um vetor de movimento detectado dentro de um azulejo quando um quadro da imagem atual é dividido nos azulejos e codificado; uma etapa de codificação executada pelo dispositivo de codificação que codifica a imagem atual e gerando dados codificados usando a imagem de predição gerada pelo processamento da etapa de compensação de movimento; uma etapa de fixação executada pelo dispositivo de codificação que fixa informação divisível de azulejo indicando que decodificação está permitida para cada unidade dos azulejos; e uma etapa de transmissão executada pelo dispositivo de codificação que transmite os dados codificados gerados pelo processamento da etapa de codificação, e a informação divisível de azulejo fixada pelo processamento da etapa de fixação.
[000378] LISTA DE SINAIS DE REFERÊNCIA 50 Dispositivo de codificação 55 Unidade de fixação 56 Unidade de transmissão 71 Unidade de cálculo 74 Unidade de codificação sem perda 79 Filtro de 'deblock' 83A Unidade de detecção de movimento 83B Unidade de compensação de movimento 90 Dispositivo de decodificação 91 Unidade de recepção 102 Unidade de decodificação sem perda 105 Unidade de adição 106 Filtro de 'deblock' 110 Unidade de compensação de movimento 140 Dispositivo de decodificação 162-1 a 162-M Dispositivo de codificação 164-1 a 164-M Dispositivo de decodificação

Claims (9)

1. Dispositivo de decodificação, caracterizado pelo fato de compreender: uma unidade de compensação de movimento (110) configurado para gerar uma imagem de predição executando compensação de movimento de uma imagem de referência dentro de um azulejo colocalizado baseado em informação de restrição de azulejo indicando que a imagem de referência é restringida dentro do azulejo colocalizado como uma condição que uma informação de divisão de azulejo é mantida dentro de uma sequência quando um quadro de uma imagem atual é dividido em azulejos e decodificado; e uma unidade de decodificação (94) configurada para decodificar os dados codificados usando a imagem de predição gerada pela unidade de compensação de movimento (110); em que a unidade de compensação de movimento (110) e a unidade de decodificação (94) são cada uma implementada através de pelo menos um processador.
2. Dispositivo de decodificação de acordo com reivindicação 1, caracterizado pelo fato de compreender adicionalmente: uma unidade de geração de vetor (102) configurada para gerar um vetor de movimento dos dados codificados da informação de vetor de movimento usando um vetor de movimento de uma imagem localizada adjacente à imagem atual e contida dentro do mesmo azulejo como o azulejo da imagem atual, em que a unidade de compensação de movimento (110) executa compensação de movimento da imagem de referência baseado na informação de restrição de azulejo e no vetor de movimento gerado pela unidade de geração de vetor de movimento, e em que a unidade de geração de vetor (102) é implementada através de pelo menos um processador.
3. Dispositivo de decodificação de acordo com reivindicação 1, caracterizado pelo fato de compreender adicionalmente: uma unidade de filtro configurada para executar filtragem da imagem de referência para cada unidade dos azulejos, em que: a unidade de filtro executa a filtragem da imagem de referência baseado em informação de filtro representando que filtragem da imagem de referência não é executada pelos azulejos, a unidade de compensação de movimento (110) executa a compensação de movimento da imagem de referência obtida depois da filtragem pela unidade de filtro baseado na informação de restrição de azulejo e na informação de vetor de movimento, e a unidade de filtro é implementada através de pelo menos um processador.
4. Dispositivo de decodificação de acordo com reivindicação 3, caracterizado pelo fato de que a unidade de filtro executa, a filtragem da imagem de referência usando um parâmetro para a filtragem associada com uma imagem contida dentro do azulejo correspondente baseado na informação de filtro e informação de compartilhamento de parâmetro representando que o parâmetro não está compartilhado entre os azulejos.
5. Dispositivo de decodificação de acordo com reivindicação 1, caracterizado pelo fato de que cada um dos azulejos inclui uma ou mais fatias.
6. Dispositivo de decodificação de acordo com reivindicação 1, caracterizado pelo fato de que: o quadro da imagem atual é dividido em dois azulejos e decodificado, uma imagem de um dos dois azulejos é uma imagem para um olho esquerdo constituindo uma imagem 3D, e uma imagem do outro dos dois azulejos é uma imagem para um olho direito constituindo uma imagem 3D.
7. Dispositivo de decodificação de acordo com a reivindicação 1, caracterizado pelo fato de que compreende adicionalmente: uma unidade de aquisição configurada para adquirir os dados codificados e uma informação adicional incluindo as informações de restrição de azulejo e as informações de divisão de azulejo, em que a unidade de compensação de movimento (110) gera a imagem de previsão realizando compensação de movimento da imagem de referência com base na informação adicional, e em que a unidade de aquisição é implementada através de pelo menos um processador.
8. Dispositivo de decodificação de acordo com a reivindicação 7, caracterizado pelo fato de que a informação de divisão de azulejo é um Conjunto de Parâmetro de Quadro (PPS) definido na informação adicional.
9. Método de decodificação, caracterizado pelo fato de compreender: uma etapa de compensação de movimento (S105) executada por um dispositivo de decodificação que gera uma imagem de predição executando, compensação de movimento de uma imagem de referência dentro de um azulejo colocalizado baseado em informação de restrição de azulejo indicando que a imagem de referência é restringida dentro do azulejo colocalizado como uma condição que uma informação de divisão de azulejo é mantida dentro de uma sequência quando um quadro de uma imagem atual é dividido em azulejos e decodificado; e uma etapa de decodificação (S66) executada pelo dispositivo de decodificação que decodifica os dados codificados usando a imagem de predição gerada pelo processamento da etapa de compensação de movimento.
BR112014024270-4A 2012-04-06 2013-03-27 Dispositivo e método de decodificação BR112014024270B1 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012087869 2012-04-06
JP2012-087869 2012-04-06
PCT/JP2013/059133 WO2013150943A1 (ja) 2012-04-06 2013-03-27 復号装置および復号方法、並びに、符号化装置および符号化方法

Publications (2)

Publication Number Publication Date
BR112014024270A2 BR112014024270A2 (pt) 2017-06-20
BR112014024270B1 true BR112014024270B1 (pt) 2023-01-17

Family

ID=49300433

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112014024270-4A BR112014024270B1 (pt) 2012-04-06 2013-03-27 Dispositivo e método de decodificação

Country Status (15)

Country Link
US (2) US9998734B2 (pt)
EP (3) EP2835970A4 (pt)
JP (4) JP5950169B2 (pt)
KR (2) KR102215951B1 (pt)
CN (4) CN104247428B (pt)
AU (3) AU2013244560B2 (pt)
BR (1) BR112014024270B1 (pt)
CA (1) CA2865747C (pt)
IN (1) IN2014DN08053A (pt)
MX (2) MX351236B (pt)
MY (1) MY168021A (pt)
PH (1) PH12014502194A1 (pt)
RU (2) RU2716060C1 (pt)
SG (2) SG11201406086UA (pt)
WO (1) WO2013150943A1 (pt)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
MX351236B (es) * 2012-04-06 2017-10-06 Sony Corp Dispositivo de codificación, método de codificación, dispositivo de descodificación y método de descodificación.
JP6055080B2 (ja) * 2012-04-16 2016-12-27 テレフオンアクチーボラゲット エルエム エリクソン(パブル) 圧縮動画のシーケンスにおける並列処理の可能性を示す固定タイル構造フラグ
JP6261215B2 (ja) * 2013-07-12 2018-01-17 キヤノン株式会社 画像符号化装置、画像符号化方法及びプログラム、画像復号装置、画像復号方法及びプログラム
WO2015059880A1 (ja) * 2013-10-22 2015-04-30 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 動き補償方法、画像符号化方法、画像復号方法、画像符号化装置及び画像復号装置
GB2542282B (en) * 2013-10-22 2018-08-01 Canon Kk Method, device, and computer program for encapsulating partitioned timed media data in a server
WO2015098020A1 (ja) * 2013-12-27 2015-07-02 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 画像符号化方法、画像復号方法、画像符号化装置及び画像復号装置
US10205950B2 (en) * 2014-02-21 2019-02-12 Panasonic Corporation Image decoding method, image encoding method, image decoding apparatus, and image encoding apparatus
JP5973526B2 (ja) * 2014-02-21 2016-08-23 パナソニック株式会社 画像復号方法、画像符号化方法、画像復号装置及び画像符号化装置
JP2015173404A (ja) * 2014-03-12 2015-10-01 富士通株式会社 動画像符号化装置、動画像符号化方法及び動画像符号化用コンピュータプログラム
US9626733B2 (en) * 2014-11-24 2017-04-18 Industrial Technology Research Institute Data-processing apparatus and operation method thereof
CN105791837A (zh) * 2014-12-24 2016-07-20 北京数码视讯科技股份有限公司 一种视频数据编码方法、解码方法、转码方法及设备
CN104935933B (zh) * 2015-06-05 2019-11-26 广东中星微电子有限公司 一种视频编解码方法
KR102576630B1 (ko) 2015-12-10 2023-09-08 삼성전자주식회사 디코더의 동작 방법, 및 상기 디코더를 포함하는 어플리케이션 프로세서의 동작 방법
CN106254884B (zh) * 2016-09-30 2019-06-28 福州瑞芯微电子股份有限公司 基于h265编码的帧间预测方法和编码器ip
US20180139464A1 (en) * 2016-11-17 2018-05-17 Mediatek Inc. Decoding system for tile-based videos
EP3596997B1 (en) 2017-04-27 2023-03-08 Sony Group Corporation Mobile communications network, infrastructure equipment, communications device and methods
WO2019159820A1 (ja) * 2018-02-14 2019-08-22 シャープ株式会社 動画像符号化装置及び動画像復号装置
EP3818710A4 (en) 2018-07-02 2022-06-29 Nokia Technologies Oy Method and apparatus for tile-relative addressing in video coding
EP3618442B1 (en) * 2018-08-27 2020-09-30 Axis AB An image capturing device, a method and computer program product for forming an encoded image
US10375416B1 (en) * 2018-09-05 2019-08-06 Tencent America LLC Segment types in video coding
CN109714598B (zh) * 2019-01-31 2021-05-14 上海国茂数字技术有限公司 视频的编码方法、解码方法、处理方法以及视频处理系统
MX2021009140A (es) * 2019-02-01 2021-10-13 Fraunhofer Ges Forschung Codec de video que permite el acceso aleatorio a subimágenes o regiones y concepto para la composición de video usando el mismo.
US11356698B2 (en) * 2019-12-30 2022-06-07 Tencent America LLC Method for parameter set reference constraints in coded video stream

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10234043A (ja) * 1997-02-20 1998-09-02 Toshiba Corp 動画像符号化/復号化装置
JP2001285876A (ja) * 2000-03-30 2001-10-12 Sony Corp 画像符号化装置とその方法、ビデオカメラ、画像記録装置、画像伝送装置
WO2003063505A1 (en) * 2002-01-23 2003-07-31 Nokia Corporation Grouping of image frames in video coding
EP1617370B1 (en) * 2004-07-15 2013-01-23 Samsung Electronics Co., Ltd. Image format transformation
JP2006332985A (ja) * 2005-05-25 2006-12-07 Sharp Corp 立体画像フォーマット判定装置
JP4734168B2 (ja) * 2006-05-09 2011-07-27 株式会社東芝 画像復号化装置及び画像復号化方法
WO2008143746A2 (en) * 2007-05-16 2008-11-27 Thomson Licensing Methods and apparatus for the use of slice groups in encoding multi-view video coding (mvc) information
JP5115498B2 (ja) * 2009-03-05 2013-01-09 富士通株式会社 画像符号化装置、画像符号化制御方法およびプログラム
JP2011097572A (ja) * 2009-09-29 2011-05-12 Canon Inc 動画像符号化装置
KR20110090511A (ko) * 2010-02-04 2011-08-10 삼성전자주식회사 통신 기기에서 3차원 영상을 위한 영상 처리 방법 및 장치
ES2659189T3 (es) * 2010-04-13 2018-03-14 Ge Video Compression, Llc Herencia en subdivisión de árbol múltiple de matriz de muestras
CN106454356B (zh) * 2010-06-17 2019-11-08 夏普株式会社 解码装置及编码装置
CN101883286B (zh) * 2010-06-25 2012-12-05 无锡中星微电子有限公司 运动估计中的校准方法及装置、运动估计方法及装置
CN102387358A (zh) * 2010-08-27 2012-03-21 无锡中星微电子有限公司 帧内宏块编码方法、解码方法及其编码器、解码器
JP2012070278A (ja) * 2010-09-24 2012-04-05 Jvc Kenwood Corp 動画像復号装置、動画像復号方法及び動画像復号プログラム
CN103202023A (zh) * 2010-10-25 2013-07-10 松下电器产业株式会社 编码方法、显示装置、解码方法
US20120170648A1 (en) * 2011-01-05 2012-07-05 Qualcomm Incorporated Frame splitting in video coding
US9300976B2 (en) * 2011-01-14 2016-03-29 Cisco Technology, Inc. Video encoder/decoder, method and computer program product that process tiles of video data
US9001883B2 (en) * 2011-02-16 2015-04-07 Mediatek Inc Method and apparatus for slice common information sharing
US8767824B2 (en) * 2011-07-11 2014-07-01 Sharp Kabushiki Kaisha Video decoder parallelization for tiles
JP6384650B2 (ja) 2011-08-25 2018-09-05 サン パテント トラスト 符号化方法、符号化装置、復号方法、および復号装置
US9584819B2 (en) * 2011-10-24 2017-02-28 Qualcomm Incorporated Grouping of tiles for video coding
MX351236B (es) * 2012-04-06 2017-10-06 Sony Corp Dispositivo de codificación, método de codificación, dispositivo de descodificación y método de descodificación.

Also Published As

Publication number Publication date
AU2013244560B2 (en) 2017-04-06
CN104247428A (zh) 2014-12-24
IN2014DN08053A (pt) 2015-05-01
CN104247428B (zh) 2018-08-07
RU2716060C1 (ru) 2020-03-05
MX367822B (es) 2019-09-09
MX2014011730A (es) 2015-10-22
CN108696759A (zh) 2018-10-23
AU2019203367B2 (en) 2021-04-22
JPWO2013150943A1 (ja) 2015-12-17
US20150030074A1 (en) 2015-01-29
KR102092822B1 (ko) 2020-03-24
CA2865747C (en) 2021-07-20
KR102215951B1 (ko) 2021-02-15
KR20150005910A (ko) 2015-01-15
AU2019203367A1 (en) 2019-06-06
EP3879825A2 (en) 2021-09-15
MX351236B (es) 2017-10-06
EP3879825A3 (en) 2022-07-13
AU2013244560A1 (en) 2014-10-02
JP2019110566A (ja) 2019-07-04
SG11201406086UA (en) 2014-11-27
US9998734B2 (en) 2018-06-12
AU2017204240B2 (en) 2019-02-14
CN108696758B (zh) 2021-02-02
JP6241504B2 (ja) 2017-12-06
EP3402192B1 (en) 2021-06-16
EP3402192A1 (en) 2018-11-14
US10630980B2 (en) 2020-04-21
JP2018057008A (ja) 2018-04-05
US20180262755A1 (en) 2018-09-13
KR20200034806A (ko) 2020-03-31
CA2865747A1 (en) 2013-10-10
JP5950169B2 (ja) 2016-07-13
EP2835970A1 (en) 2015-02-11
PH12014502194B1 (en) 2014-12-10
RU2014139283A (ru) 2016-04-20
AU2017204240A1 (en) 2017-07-13
JP2016178698A (ja) 2016-10-06
RU2606303C2 (ru) 2017-01-10
MY168021A (en) 2018-10-11
EP2835970A4 (en) 2015-11-04
BR112014024270A2 (pt) 2017-06-20
CN108696759B (zh) 2020-11-17
SG10201810667TA (en) 2019-01-30
WO2013150943A1 (ja) 2013-10-10
JP6670812B2 (ja) 2020-03-25
CN108696758A (zh) 2018-10-23
CN108696757B (zh) 2021-06-29
CN108696757A (zh) 2018-10-23
PH12014502194A1 (en) 2014-12-10

Similar Documents

Publication Publication Date Title
JP6670812B2 (ja) 符号化装置および符号化方法
EP3579562B1 (en) Image processing device and method
JP6287035B2 (ja) 復号装置および復号方法
BR112014032226B1 (pt) Dispositivo e método de processamento de imagem
EP3675490A1 (en) Image processing device and image processing method
BR112014016116B1 (pt) Dispositivo e método de processamento de imagem
WO2013157308A1 (ja) 画像処理装置及び画像処理方法
WO2015098559A1 (ja) 復号装置および復号方法、並びに、符号化装置および符号化方法
US20140140392A1 (en) Video processing system with prediction mechanism and method of operation thereof
WO2014097937A1 (ja) 画像処理装置および画像処理方法

Legal Events

Date Code Title Description
B15K Others concerning applications: alteration of classification

Ipc: H04N 7/00 (2011.01)

B06F Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette]
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B15K Others concerning applications: alteration of classification

Free format text: A CLASSIFICACAO ANTERIOR ERA: H04N 7/00

Ipc: H04N 19/117 (2014.01), H04N 19/174 (2014.01), H04N

B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 27/03/2013, OBSERVADAS AS CONDICOES LEGAIS