BR112020008467A2 - método e dispositivo para gerar segunda imagem a partir de primeira imagem - Google Patents

método e dispositivo para gerar segunda imagem a partir de primeira imagem Download PDF

Info

Publication number
BR112020008467A2
BR112020008467A2 BR112020008467-0A BR112020008467A BR112020008467A2 BR 112020008467 A2 BR112020008467 A2 BR 112020008467A2 BR 112020008467 A BR112020008467 A BR 112020008467A BR 112020008467 A2 BR112020008467 A2 BR 112020008467A2
Authority
BR
Brazil
Prior art keywords
image
mode
color gamut
gamut mapping
color
Prior art date
Application number
BR112020008467-0A
Other languages
English (en)
Inventor
Pierre Andrivon
Marie-Jean Colaitis
David Touze
Joan Llach Pinsach
Original Assignee
Interdigital Vc Holdings, Inc.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Interdigital Vc Holdings, Inc. filed Critical Interdigital Vc Holdings, Inc.
Publication of BR112020008467A2 publication Critical patent/BR112020008467A2/pt

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/6058Reduction of colour to a range of reproducible colours, e.g. to ink- reproducible colour gamut
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/603Colour correction or control controlled by characteristics of the picture signal generator or the picture reproducer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/68Circuits for processing colour signals for controlling the amplitude of colour signals, e.g. automatic chroma control circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/73Colour balance circuits, e.g. white balance circuits or colour temperature control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20208High dynamic range [HDR] image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Processing Of Color Television Signals (AREA)

Abstract

A invenção refere-se à aplicação de um processo de mapeamento de gama de cores em uma primeira imagem para gerar uma segunda imagem, onde o conteúdo das primeira e segunda imagens é semelhante, mas os respectivos espaço de cores das primeira e segunda imagens é diferente, pode envolver controlar o processo de mapeamento de gama de cores pelo menos por um modo de mapeamento de gama de cores obtido a partir de um fluxo de bits onde o modo de mapeamento de gama de cores pertence a um conjunto que compreende pelo menos dois modos predefinidos e um modo de parâmetros explícitos e, se o modo de mapeamento de gama de cores obtido for o modo de parâmetros explícitos e o processo de mapeamento de gama de cores não for habilitado para o modo de parâmetros explícito, controlar o processo de mapeamento de gama de cores por um modo de mapeamento de gama de cores substituto determinado a partir dos dados adicionais.

Description

“MÉTODO E DISPOSITIVO PARA GERAR UMA SEGUNDA IMAGEM A PARTIR DE UMA PRIMEIRA IMAGEM” 1 Campo.
[001] Os presentes princípios geralmente se referem ao processamento de imagem / vídeo para distribuição de imagem de Alta faixa dinâmica (HDR). Particularmente, mas não exclusivamente, o campo técnico dos presentes princípios está relacionado à geração de uma segunda imagem a partir de uma primeira imagem aplicando um processo de mapeamento de gama de cores na primeira imagem para gerar a segunda imagem que difere do espaço de cores, a processo de mapeamento de gama de cores sendo controlado pelo menos por um modo de mapeamento de gama de cores obtido a partir de um fluxo de bits.
2.Fundo.
[002] A presente seção pretende apresentar ao leitor vários aspectos da técnica, que podem estar relacionados a vários aspectos dos presentes princípios descritos e/ou reivindicados abaixo. Acredita-se que esta discussão seja útil para prover o leitor de informações básicas para facilitar uma melhor compreensão dos vários aspectos dos presentes princípios. Por conseguinte, deve ser entendido que essas declarações devem ser lidas sob essa luz, e não como admissões da técnica anterior.
[003] A seguir, uma imagem contém uma ou várias matrizes de amostras (valores de pixel) em um formato específico de imagem / vídeo que especifica todas as informações relativas aos valores de pixel de uma imagem (ou vídeo) e todas as informações que podem ser usadas por um monitor e/ou qualquer outro dispositivo para visualizar e/ou decodificar uma imagem (ou vídeo), por exemplo. Uma imagem compreende pelo menos um componente, na forma de uma primeira matriz de amostras, geralmente um componente luma (ou luminância) e, possivelmente, pelo menos um outro componente, na forma de pelo menos uma outra matriz de amostras, geralmente um componente de cor. Ou, equivalentemente, a mesma informação também pode ser representada por um conjunto de matrizes de amostras de cores, tal como a representação RGB tricromática tradicional.
[004] Um valor de pixel é representado por um vetor de valores C, onde C é o número de componentes. Cada valor de um vetor é representado com um número de bits que define um intervalo dinâmico máximo dos valores de pixel.
[005] Imagens de baixo alcance dinâmico (imagens LDR) são imagens cujos valores de luminância são representados com um número limitado de bits (geralmente 8 ou 10). Essa representação limitada não permite a renderização correta de pequenas variações de sinal, em particular em faixas de luminância escuras e brilhantes. Nas imagens de alta faixa dinâmica (imagens HDR), a representação do sinal é estendida para manter uma alta precisão do sinal em toda a faixa. Nas imagens HDR, os valores de pixel que representam os níveis de luminância são geralmente representados no formato de ponto flutuante (32 bits ou 16 bits para cada componente, ou seja, flutuante ou meio flutuante), sendo o formato mais popular, o formato openEXR meio flutuante (16 bits por componente RGB, ou seja, 48 bits por pixel) ou em números inteiros com uma representação longa, geralmente com pelo menos 16 bits.
[006] A chegada do padrão de Codificação de Vídeo de Alta Eficiência (HEVC) (ITU-T H.265 Telecommunication standardization sector of ITU (10/2014), series H: audiovisual and multimedia systems, infrastructure of audiovisual services - coding of moving video, High efficiency video coding, Recommendation ITU-T H.265) permite a implantação de novos serviços de vídeo com experiência de visualização aprimorada, como serviços de radiodifusão Ultra HD. Além de uma maior resolução espacial, o Ultra HD pode oferecer uma gama de cores mais ampla (WCG) e uma faixa dinâmica mais alta (HDR) do que a TV HD de faixa dinâmica padrão (SDR) atualmente implantada (com uma gama de cores padrão SCG). Diferentes soluções para a representação e codificação de vídeo HDR/WCG têm sido propostas (SMPTE 2014, “High Dynamic Range Electro-Optical Transfer Function of Mastering Reference Displays, ou SMPTE ST 2084, 2014, ou Diaz, R., Blinstein, S. e Qu, S. “Integrating HEVC Video Compression with a High Dynamic Range Video Pipeline”, SMPTE Motion Imaging Journal, Vol. 125, Edição de 1 de Fev. de 2016, pp 14-21).
[007] A compatibilidade com versões anteriores de SDR com dispositivos de decodificação e renderização é um recurso importante em alguns sistemas de distribuição de vídeo, como sistemas de radiodifusão ou multidifusão.
[008] A codificação de camada dupla é uma solução para suportar esse recurso. No entanto, devido ao seu projeto de várias camadas, esta solução não está adaptada a todos os fluxos de trabalho de distribuição.
[009] Uma alternativa é uma solução de distribuição HDR de camada única, conforme definido pela recomendação ETSI, ETSI TS 103 433-1 (08/2017). O leitor também pode consultar o artigo da IBC 2016 (“A single-Layer HDR video coding framework with SDR compatibility", por exemplo, François and L. Van de Kerkhof, IBC 2016) para obter mais detalhes. Esta solução de distribuição de camada única é compatível com SDR e potencializa as redes e serviços de distribuição SDR já existentes. Ela permite renderização HDR de alta qualidade em dispositivos CE habilitados para HDR, além de oferecer renderização SDR de alta qualidade em dispositivos CE SDR. Esta solução de distribuição de camada única é baseada em um processo de codificação / decodificação de camada única e é independente de codec (recomenda-se um codec de 10 bits). Esta solução de distribuição de camada única usa metadados laterais (de alguns bytes por quadro de vídeo ou cena) que podem ser usados em um estágio de pós-processamento para reconstruir o sinal HDR a partir de um sinal SDR decodificado e adaptar o sinal aos dispositivos CE habilitados para HDR. Esta solução de distribuição de camada única preserva a qualidade do conteúdo HDR (intenção artística), ou seja, não há prejuízo visível devido ao recurso de compatibilidade SDR em comparação com a codificação HEVC com uma profundidade de bits de 8 a 10 bits por amostra com amostragem de croma 4:2:0 (assim chamada perfil 10 principal de HEVC).
[010] Para se beneficiar de tal qualidade, métodos correspondentes, incluindo pré / pós-processamento e metadados, foram propostos para vários fluxos de bits HDR. Por conseguinte, a recomendação ETS|, ETSI TS 103 433 é dividida em 3 partes de SL-HDRx, cada parte abordando diferentes fluxos de trabalho de distribuição. A recomendação ETSI, ETSI TS 103 433-1 (2017-08), referida como SL-HDR1, divulga um sistema compatível com versões anteriores para transmitir um conteúdo de vídeo HDR com base em um vídeo SDR. A recomendação ETSI futura, ETSI TS 103 433-2, referida como SL-HDR2, deve ser elaborada para a adaptação de exibição para vídeo PQ (função de transferência de Quantização Perceptiva). À recomendação ETSI futura, ETSI TS 103 433-3, referida como SL-HDR3, foi elaborada para um sistema de adaptação de exibição para vídeo HLG (função de transferência Gama Logarítmica Híbrida (Hybrid Log-Gamma)).
[011] Em particular, o Anexo D de ETSI TS 103 433-1 (SL-HDR1) provê a descrição de um processo de mapeamento de gama invertível que pode ser aplicado quando a imagem SDR de entrada do processo de reconstrução SDR para HDR é provida em uma gama de cores BT.709 (conforme especificado pela variável sdrPicColourSpace) e é diferente da gama de cores alvo BT.2020 da imagem HDR (conforme especificado pela variável hdrPicColourSpace). Neste anexo, a compatibilidade com versões anteriores das cores é definida de forma que o receptor CE suporte apenas o espaço de cores BT.709, enquanto o vídeo a ser distribuído usando SL-HDR1 pode suportar o espaço de cores BT.2020. O anexo D da segunda elaboração estável de ETSI TS 103 433-2 (SL-HDR2) também provê a descrição de um mapeamento de gama com base no anexo D de SL-HDR1. Os versados na técnica notarão que o mapeamento de gama invertível definido no
Anexo D não se limita à reconstrução de SDR para HDR, mas é compatível com qualquer alteração dos espaços de cores. Em particular, o anexo D de SL-HDR1 divulga um conjunto de modos para mapeamento de gama invertível que são sinalizados para os dispositivos CE através da indicação de parâmetros explícitos, de métodos predefinidos ou de um método dependente de implementador. O conjunto de circuitos de baixo nível (low-end) em alguns dispositivos CE de baixo custo pode não ser capaz de processar o modo de parâmetros explícitos. Nesse caso, esses dispositivos arbitrariam a seguinte compensação: ou descartar o mapeamento de gama ou usar seu próprio operador de mapeamento de gama "cego". Nos dois casos, a experiência do usuário é degradada. Esse é um problema ao apontar as tecnologias SL-HDR como entrega de serviços prêmio para renderização HDR em dispositivos CE de alta qualidade habilitados para HDR.
3. Resumo.
[012] A seguir, é apresentado um resumo simplificado dos presentes princípios, a fim de prover uma compreensão básica de alguns aspectos dos presentes princípios. Este resumo não é uma visão abrangente dos princípios atuais. Não se destina a identificar elementos-chave ou críticos dos presentes princípios. O resumo a seguir apresenta apenas alguns aspectos dos presentes princípios de forma simplificada, como prelúdio da descrição mais detalhada provida abaixo.
[013] Os presentes princípios foram estabelecidos para remediar pelo menos uma das desvantagens da técnica anterior com um método para gerar uma segunda imagem a partir de uma primeira imagem, o método compreendendo aplicar um processo de mapeamento de gama de cores na primeira imagem para gerar a segunda imagem, o conteúdo da segunda imagem é semelhante ao conteúdo da primeira imagem, mas o espaço de cores da segunda imagem é diferente do espaço de cores da primeira imagem, o processo de mapeamento de gama de cores sendo controlado pelo menos por um modo de mapeamento de gama de cores obtido a partir de um fluxo de bits e, o modo de mapeamento de gama de cores pertencente a um conjunto compreendendo pelo menos dois modos predefinidos e um modo de parâmetros explícito. O método adicionalmente compreende, caso o modo de mapeamento de gama de cores obtido seja o modo de parâmetros explícitos (gamutMappingMode é igual a 1) e caso o processo de mapeamento de gama de cores do método de geração não esteja habilitado para o modo de parâmetros explícitos para gerar a segunda imagem a partir da primeira imagem, determinar um modo de mapeamento de gama de cores substituto a partir de dados adicionais, o processo de mapeamento de gama de cores sendo então controlado pelo modo de mapeamento de gama de cores substituto em vez de pelo modo de parâmetros explícitos.
[014] De acordo com uma modalidade, determinar o modo de mapeamento de gama de cores adicionalmente compreende selecionar um modo de mapeamento de gama de cores entre os pelo menos dois modos predefinidos.
[015] De acordo com uma modalidade, dados adicionais compreendendo pelo menos um espaço de cores da primeira imagem, o espaço de cores da segunda imagem, o espaço de cores do monitor de masterização usado para gerar a primeira imagem, o espaço de cores do monitor de masterização. é usado para gerar a segunda imagem.
[016] De acordo com uma modalidade, dados adicionais são metadados sinalizados no fluxo de bits. De acordo com uma modalidade alternativa, dados adicionais são determinados pelo ambiente do aplicativo, por exemplo, dados adicionais (como o hdrDisplayColourSpace descrito abaixo) são sinalizados ou armazenados em um arquivo de configuração do aplicativo.
[017] De acordo com uma modalidade, o fluxo de bits é um fluxo de bits SL- HDR1. Nesse caso, determinar o modo de mapeamento de gama de cores substituto, incluindo a seleção do modo predefinido BT.7/09 a gama P3D65
(gamutMappingMode substituto é definido como "2") quando hdrDisplayColourSpace for igual a "2" e selecionar o modo predefinido BT.709 para gama 20.2020 (gamutMappingMode substituto é definido como "3") quando hdrDisplayColourSpace é igual a "1",
[018] De acordo com uma modalidade, o fluxo de bits é um fluxo de bits SL- HDR2. Nesse caso, determinar o modo de mapeamento de gama de cores substituto que compreende a seleção do modo predefinido P3D65 para a gama BT.709 (gamutMappingMode substituto é definido como '"4") quando hdrDisplayColourSpace for igual a "2" e selecionar o modo predefinido BT.2020 para gama BT.709 (gamutMappingMode substituto é definido como "5") quando hdrDisplayColourSpace for igual a "1".
[019] De acordo com uma modalidade, o processo de mapeamento de gama de cores é determinado como incapaz de usar o modo de parâmetros explícitos de acordo com um indicador. Em uma variante, o indicador armazenado no dispositivo que implementa o método.
[020] De acordo com outros aspectos, os presentes princípios se referem a um dispositivo para gerar uma segunda imagem a partir de uma primeira imagem, um produto de programa de computador que compreende instruções de código de programa para executar as etapas do método divulgado quando este programa é executado em um computador, meio legível por processador, tendo armazenado instruções para fazer com que um processador execute pelo menos as etapas do método divulgado quando este programa é executado em um computador. Qualquer uma das modalidades descritas para o método é compatível com o dispositivo.
4. Breve descrição dos desenhos.
[021] Nos desenhos, exemplos dos presentes princípios são ilustrados. Isto mostra:
[022] - A Fig. 1 mostra um fluxo de trabalho de ponta a ponta, suportando a produção e entrega de conteúdo para monitores HDR e SDR;
[023] - A Fig. 2 mostra exemplos não limitativos de acordo com o fluxo de bits de distribuição de camada única SL-HDRx do fluxo de trabalho de ponta a ponta da Fig. 1;
[024] - A Fig. 3a mostra com mais detalhes o estágio de pré-processamento com o fluxo de bits SL-HDRx;
[025] - A Fig. 3b mostra em mais detalhes o estágio de pós-processamento com fluxo de bits SL-HDR1;
[026] - A Fig. 3c mostra em mais detalhes o estágio de pós-processamento com o fluxo de bits SL-HDR2 ou SL-HDR3;
[027] - A Fig. 4 mostra um diagrama de blocos das etapas de um método para gerar uma segunda imagem a partir de uma primeira imagem, de acordo com exemplos dos presentes princípios;
[028] - A Fig. 5a ilustra um exemplo não limitativo de acordo com o fluxo de bits SL-HDR de um diagrama de blocos das etapas de um método para gerar uma segunda imagem a partir de uma primeira imagem;
[029] - A Fig. 5b ilustra um exemplo não limitativo de acordo com o fluxo de bits SL-HDR1 de um diagrama de blocos da etapa de determinação de um modo de mapeamento de gama substituto;
[030] - A Fig. 5c ilustra um exemplo não limitativo de acordo com o fluxo de bits SL-HDR2 de um diagrama de blocos da etapa de determinação de um modo de mapeamento de gama substituto;
[031] - A Fig. 6 mostra um exemplo de uma arquitetura de um dispositivo de acordo com um exemplo dos presentes princípios; e
[032] - A Fig. 7 mostra dois dispositivos remotos que se comunicam através de uma rede de comunicação de acordo com um exemplo dos presentes princípios;
[033] Elementos semelhantes ou iguais são referenciados com os mesmos números de referência.
5. Descrição de Exemplo dos Presentes Princípios.
[034] Os presentes princípios serão descritos mais detalhadamente daqui em diante com referência às figuras anexas, nas quais são mostrados exemplos dos presentes princípios. Os presentes princípios podem, no entanto, ser incorporados em muitas formas alternativas e não devem ser interpretados como limitados aos exemplos aqui apresentados. Por conseguinte, embora os presentes princípios sejam suscetíveis a várias modificações e formas alternativas, exemplos específicos dos mesmos são mostrados a título de exemplos nos desenhos e serão aqui descritos em detalhes. Deve-se entender, no entanto, que não há intenção de limitar os presentes princípios às formas particulares divulgadas, mas, pelo contrário, a divulgação deve abranger todas as modificações, equivalentes e alternativas que se enquadram no espírito e no escopo dos presentes princípios, conforme definido pelas reivindicações.
[035] A terminologia usada neste documento tem o objetivo de descrever apenas exemplos particulares e não se destina a limitar os presentes princípios. Conforme usado aqui, as formas singulares "a", "o", "uma" e "um" também pretendem incluir as formas plurais, a menos que o contexto indique claramente o contrário. Será entendido ainda que os termos "compreende", "compreendendo", "inclui" e/ou "incluindo", quando utilizados nesta especificação, especificam a presença de recursos declarados, números inteiros, etapas, operações, elementos e/ou componentes, mas não impedem a presença ou adição de um ou mais recursos, números inteiros, etapas, operações, elementos, componentes e/ou grupos dos mesmos. Além disso, quando um elemento é referido como "responsivo" ou "conectado" a outro elemento, ele pode ser diretamente responsivo ou conectado ao outro elemento, ou elementos intervenientes podem estar presentes. Por outro lado, quando um elemento é referido como "diretamente responsivo" ou "diretamente conectado" a outro elemento, não há elementos intervenientes presentes. Como aqui utilizado, o termo "e/ou" inclui toda e qualquer combinação de um ou mais dos itens listados associados e pode ser abreviado como "/".
[036] Será entendido que, embora os termos primeiro, segundo, etc. possam ser usados aqui para descrever vários elementos, esses elementos não devem ser limitados por esses termos. Esses termos são usados apenas para distinguir um elemento do outro. Por exemplo, um primeiro elemento pode ser denominado segundo elemento e, da mesma forma, um segundo elemento pode ser denominado primeiro elemento sem se afastar dos ensinamentos dos presentes princípios.
[037] Embora alguns dos diagramas incluam setas nos percursos de comunicação para mostrar uma direção primária de comunicação, deve-se entender que a comunicação pode ocorrer na direção oposta às setas representadas.
[038] Alguns exemplos são descritos com relação aos diagramas de blocos e fluxogramas operacionais em que cada bloco representa um elemento de circuito, módulo ou porção de código que compreende uma ou mais instruções executáveis para implementar as funções de lógica especificadas. Também deve ser observado que em outras implementações, as funções observadas nos blocos podem ocorrer fora da ordem mencionada. Por exemplo, dois blocos mostrados em sucessão podem, de fato, ser executados substancialmente de forma simultânea ou os blocos às vezes podem ser executados na ordem inversa, dependendo da funcionalidade envolvida.
[039] A referência aqui mencionada a "de acordo com um exemplo" ou "em um exemplo" significa que um recurso, estrutura ou característica específica descritos em conexão com o exemplo podem ser incluídos em pelo menos uma implementação dos presentes princípios. As aparências da frase “de acordo com um exemplo” ou “em um exemplo” em vários lugares da especificação não estão necessariamente se referindo ao mesmo exemplo, nem são exemplos separados ou alternativos necessária e mutuamente exclusivos de outros exemplos.
[040] Os números de referência que aparecem nas reivindicações são meramente ilustrativos e não terão efeito limitador no escopo das reivindicações.
[041] Embora não seja explicitamente descrito, os presentes exemplos e variantes podem ser empregados em qualquer combinação ou subcombinação.
[042] Os presentes princípios são descritos para codificar / decodificar / reconstruir uma imagem, mas se estendem à codificação / decodificação / reconstrução de uma sequência de imagens (vídeo) porque cada imagem da sequência é codificada / decodificada / reconstruída sequencialmente, conforme descrito abaixo.
[043] A Fig. 1 mostra um fluxo de trabalho de ponta a ponta que oferece suporte à produção e entrega de conteúdo para monitores HDR e SDR. Envolve uma decodificação de codificação SDR / HDR de camada única com metadados laterais, conforme definido, por exemplo, em ETSI TS 103 433.
[044] Em um estágio de pré-processamento, um vídeo HDR recebido é decomposto em um vídeo e metadados SDR. O vídeo SDR é então codificado com qualquer codec de vídeo SDR e um fluxo de bits SDR é portado por uma rede de distribuição SDR legada existente com metadados acompanhantes transportados em um canal específico ou incorporados no fluxo de bits SDR. De preferência, o vídeo codificado é um codec HEVC, tais como o codec H.265/HEVC ou H.264/AVC. Os metadados são normalmente portados por mensagens SEI quando usados em conjunto com um codec H.265/HEVC ou H.264/AVC.
[045] O fluxo de bits SDR é decodificado e um vídeo SDR decodificado está disponível para uma exibição de Eletrônica de Consumo SDR (SDR Consumer Electronics) (CE).
[046] Em seguida, em um estágio de pós-processamento, que é funcionalmente o inverso do estágio de pré-processamento, o vídeo HDR é reconstruído a partir do vídeo SDR decodificado e dos metadados obtidos de um canal específico ou do fluxo de bits SDR.
[047] A Fig. 2 mostra exemplos não limitativos de acordo com o fluxo de bits de distribuição de camada única SL-HDRx do fluxo de trabalho de ponta a ponta da Fig.1.
[048] A especificação SL-HDR1 (ETSI TS 103 433-1) inclui metadados dinâmicos (metadados CC1+ TM) para reconstrução de sinal (os metadados podem ser incorporados em uma mensagem SEI definida pelo usuário para HEVC e incluem os metadados de volume / espaço de cores da exibição de masterização e metadados de mapeamento de gama a serem usados no pós-processamento); processo de reconstrução SDR para HDR, especificando o pós-processamento para reconstruir o sinal HDR a partir do sinal SDR decodificado e dos metadados SL- HDR1. SL-HDR1 também descreve o pré-processamento para gerar um sinal SDR a partir do conteúdo HDR; o processo de mapeamento de gama invertível; o processo de adaptação de exibição de HDR para HDR; uma estratégia de ocultação de erros caso os metadados sejam perdidos ou corrompidos; sinalização no CTA-861-G (principalmente para uso em HDMI2.1).
[049] A extensão SL-HDR2 (ETSI TS 103 433-2 em um segundo estágio de elaboração estável no momento da gravação) remete adaptação de exibição para PQ10 e a extensão SL-HDR3 (ETSI TS 103 433-3 em um estágio de elaboração inicial no momento da gravação) remete adaptação de exibição e correção de deslocamento de tonalidade para HLG10. Essas extensões são criadas com base na especificação SL-HDR1 e reutilizam os mesmos metadados e o mesmo hardware de loop de pixel no pós-processamento. No entanto, o pós-processamento é conduzido usando uma implementação de camada de software diferente.
[050] Por conseguinte, um fluxo de bits SL-HDRx é um fluxo de bits contendo um vídeo codificado e metadados SL-HDRx associados (conforme especificado nos anexos A ou B de TS 103 433-X)
[051] A Fig. 3a mostra em mais detalhes a etapa de pré-processamento de acordo com o exemplo não limitativo de SL-HDR1 por uma questão de clareza. No entanto, os presentes princípios são compatíveis com SL-HDR2 ou SL-HDR3. Note- se que o termo "mapeamento de gama de cores" também abrange "mapeamento de gama de cores inverso". De fato, no lado pós-processador, em SL-HDR1 é aplicado um processo de mapeamento de gama inversa (extensão de gama), enquanto em SL-HDR?2 é aplicado um processo de mapeamento de gama (compressão de gama). No pré-proc, SL-HDR1 e SL-HDR2/3 decompõem o sinal de HDR para SDR. SL- HDR1 distribui o vídeo SDR e os metadados obtidos, enquanto SL-HDR?2 distribui uma versão HDR10 do vídeo HDR (eles podem ser os mesmos que principais costumam ser HDR10) e metadados.
[052] O componente principal do estágio de pré-processamento é a decomposição HDR para SDR que gera um vídeo SDR e metadados dinâmicos a partir do vídeo HDR. Mais precisamente, a decomposição HDR para SDR visa a converter um vídeo HDR representado em um formato de entrada específico (aqui RGB) em um vídeo SDR representado em um formato de saída específico (aqui YspDR, UspDr, VsDR), mas os princípios atuais não são limitados ao formato específico de entrada / saída (espaço de cores ou gama).
[053] Opcionalmente, o formato do vídeo HDR, respectivamente o formato do vídeo SDR, pode ser adaptado ao referido formato de entrada específico, respectivamente ao formato de saída específico. Assim, o conteúdo do vídeo HDR é semelhante ao conteúdo do vídeo SDR, mas o espaço de cores do vídeo SDR é diferente do espaço de cores do vídeo HDR. A referida adaptação de formato de entrada / saída pode incluir conversão de espaço de cores e/ou mapeamento de gama de cores. Processos de adaptação de formatos usuais podem ser usados, como conversão de RGB para YUV ou YUV para RGB, BT.709 para BT.2020 ou
BT.2020 para BT.709, amostragem decrescente ou amostragem crescente de componentes de croma, etc. Observe que o espaço de cores YUV bem conhecido também se refere a YCbCr ou Y'CLbCr ou Y'C'bC'r conhecidos na técnica anterior.
[054] Em particular, o anexo D da especificação SL-HDR1 descreve um mapeamento de gama invertível acionado por parâmetros / metadados portados no fluxo de bits, de modo que a qualidade do sinal HDR WCG estendido reconstruído seja controlada e aprovada pelos operadores ou criadores de conteúdo, graças a um possível estágio de Verificação de Qualidade durante a fase de geração dos parâmetros (antes da distribuição) Este método de mapeamento de gama controlado aprimora vantajosamente a fidelidade do conteúdo sobre os métodos de mapeamento de gama "cegos" (isto é, não guiados por metadados ou parâmetros aprovados durante o estágio de Verificação de Qualidade) que ignoram as características do conteúdo original decomposto em um sinal SDR SCG antes da transmissão. O mapeamento de gama invertível especificado no anexo D da especificação ETSI SL-HDR1 abrange diferentes modos de mapeamento de gama: transporte de parâmetros explícitos (em que um conjunto completo de valores de parâmetros usados no processo de mapeamento de gama é enviado aos dispositivos CE), predefinições (em que um conjunto dos valores de parâmetros predeterminados são referidos por um índice) ou método dependente de implementador (correspondente aos métodos cegos).
Valor de gamutMappingMode Modo de Mapeamento de Gama [oo A Método dependente de implementação Parâmetros explícitos (vide cláusula 6.3.9 2 Predefinição t1 BT.709 para gama P3D65 (vide Tabela 12 B Predefinição %2 BT.709 para gama BT .2020 (vide Tabela 13 Reservado para uso futuro 64 — 127 126 - 255 Reservado para uso futuro Tabela 1: Modo de mapeamento de gama presente no SL-HDR1
[055] A Fig. 3b mostra em mais detalhes o estágio de pós-processamento de acordo com o exemplo não limitativo de SL-HDR1 por uma questão de clareza. No entanto, os princípios presentes são compatíveis com SL-HDR2 ou SL-HDR3, como mostrado na Fig. 3c, usar, respectivamente, as palavras primeiro vídeo e segundo vídeo em vez de vídeo SDR e vídeo HDR, em que o primeiro vídeo corresponde ao vídeo codificado / decodificado do fluxo de bits (sendo SDR, HDR10 ou HLG) e em que o segundo vídeo (HDR/SDR) corresponde ao vídeo renderizado em dispositivos CE (Monitor) após o pós-processamento.
[056] O componente principal do estágio de pós-processamento é a reconstrução HDR que gera um vídeo HDR reconstruído a partir de um vídeo SDR e metadados decodificados. Mais precisamente, a reconstrução HDR visa a converter vídeo SDR representado em um formato de entrada específico (aqui Yspr, Uspor, VspDR) em um vídeo HDR de saída representado em um formato de saída específico (aqui RGB), mas os princípios atuais não se limitam a entradas específicas / formatos específicos de saída (espaço de cores ou gama de cores ou cores primárias).
[057] Opcionalmente, o formato do vídeo HDR reconstruído pode ser adaptado às características específicas do sistema (por exemplo, um decodificador digital (Set Top Box), um monitor registrado de TV conectado) e/ou um mapeamento de gama inversa pode ser usado quando o vídeo SDR decodificado (entrada do Estágio de reconstrução HDR) e o vídeo HDR reconstruído (saída do estágio de reconstrução HDR) são representados em diferentes espaços de cores e/ou gama. A adaptação de formato de entrada ou saída pode incluir conversão de espaço de cores e/ou mapeamento de gama de cores. Processos de adaptação de formatos usuais podem ser usados, como conversão de RGB para YUV (ou YUV para RGB), BT.709 para BT.2020 ou BT.2020 para BT.709, amostragem decrescente ou amostragem crescente de componentes de croma, etc. O anexo E da especificação ETSI SL-HDR1 provê um exemplo de processos de adaptação de formato e o Anexo
D da especificação ETS| SL-HDR1 provê processos de mapeamento de gama inversa. A reconstrução HDR é o inverso funcional da decomposição HDR para SDR.
[058] Assim, conforme exposto anteriormente para pré-processamento, em um exemplo específico, GM de mapeamento de gama (ou IGM de mapeamento de gama inversa, dependendo dos espaços de cores da imagem de entrada / saída) é vantajosamente controlado por um modo de mapeamento de gama obtido a partir do fluxo de bits e compreendendo um modo de parâmetros explícitos, pelo menos duas predefinições (correspondentes à conversão padronizada do espaço de cores). No entanto, alguns dispositivos CE de baixo custo podem não estar habilitados para processar o modo de parâmetros explícitos. Nesse caso, esses dispositivos descartam o mapeamento de gama (apresentando um conteúdo reconstruído com uma paleta de cores padrão) ou usam seu próprio operador de mapeamento de gama "cego" (ignorando a gama de cores estendida / ampla original do conteúdo original). Portanto, é desejável um método para pós-processamento do vídeo, incluindo um GM de mapeamento de gama não cego que considera a gama de cores estendida / ampla de entrada do conteúdo original.
[059] A Fig. 3c mostra em mais detalhes o estágio de pós-processamento de acordo com o SL-HDR2 ou SL-HDR3. para SL-HDR2. No pós-procedimento, o mapeamento de gama é aplicado em SDR ou HDR reconstruído com luminância de pico menor do que o sinal HDR transportado nas redes de distribuição e o mapeamento de gama controlado por metadados.
[060] O componente principal do estágio de pós-processamento é a reconstrução HDR / SDR que gera um vídeo HDR reconstruído ou um vídeo SDR reconstruído a partir dos metadados e vídeos HDR decodificados. Mais precisamente, a reconstrução HDR visa a converter vídeo HDR representado em um formato de entrada específico em um vídeo HDR / SDR de saída representado em um formato de saída específico, mas os princípios atuais não se limitam a formatos específicos de entrada / saída específicos (espaço de cores ou gama de cores ou cores primárias).
[061] Opcionalmente, o formato do vídeo HDR / SDR reconstruído pode ser adaptado para exibir características (por exemplo, um decodificador digital (Set Top Box), uma TV conectada) e/ou um mapeamento de gama inversa pode ser usado quando o vídeo HDR decodificado (entrada do estágio de reconstrução HDR / SDR) e o vídeo HDR / SDR reconstruído (saída do estágio de reconstrução HDR) são representados em diferentes espaços de cores e/ou gama. A adaptação do formato de entrada ou saída pode incluir conversão de espaço de cores e/ou mapeamento de gama de cores. Processos de adaptação de formatos usuais podem ser usados, como conversão de RGB para YUV (ou YUV-para-RGB), BT.709 para BT.2020 ou BT.2020 para BT.709, amostragem decrescente ou amostragem crescente de componentes de croma, etc.
[062] Assim, conforme exposto anteriormente para pré-processamento, em um exemplo específico, GM de mapeamento de gama (ou IGM de mapeamento de gama inversa, dependendo dos espaços de cores da imagem de entrada / saída) é vantajosamente controlado por um modo de mapeamento de gama obtido a partir do fluxo de bits e compreendendo um modo de parâmetros explícitos, pelo menos duas predefinições (correspondentes à conversão padronizada do espaço de cores). No entanto, alguns dispositivos CE de baixo custo podem não estar habilitados para processar o modo de parâmetros explícitos. Nesse caso, esses dispositivos descartam o mapeamento de gama (apresentando um conteúdo reconstruído com uma paleta de cores padrão) ou usam seu próprio operador de mapeamento de gama "cego" (ignorando a gama de cores estendida / ampla original do conteúdo original). Novamente, é desejável um método para pós-processamento do vídeo, incluindo um GM de mapeamento de gama não cego que considera a gama de cores estendida / ampla de entrada do conteúdo original.
[063] A Fig. 4 mostra um diagrama de blocos das etapas de um método para gerar uma segunda imagem a partir de uma primeira imagem, de acordo com exemplos dos presentes princípios.
[064] O método compreende, na etapa 47, aplicar um processo de mapeamento de gama de cores (ou um processo de mapeamento de gama inversa) na primeira imagem para gerar a segunda imagem. De acordo com os exemplos descritos acima, o conteúdo da segunda imagem é semelhante ao conteúdo da primeira imagem, mas o espaço de cores da segunda imagem é diferente do espaço de cores da primeira imagem. Para fins ilustrativos, a segunda imagem pode ser uma imagem WCG reconstruída em um espaço de cores BT 2020 e a primeira imagem pode ser uma imagem SCG de um espaço de cores BT 709 (caso SL- HDR1); ou a primeira imagem pode ser uma imagem SCG de um espaço de cores BT 709 e a segunda imagem pode ser uma imagem WCG em um espaço de cores BT 2020 (caso SL-HDR2 ou SL-HDR3). De acordo com um recurso específico, o processo de mapeamento de gama de cores é controlado pelo menos por um modo de mapeamento de gama de cores, gamutMappingMode, obtido a partir de um fluxo de bits. Esse modo de mapeamento de gama de cores informa o dispositivo CE do mapeamento de gama de cores usado no estágio de pré-processamento que garantiria alta fidelidade na renderização de cores após o estágio de pós- processamento entre o conteúdo do vídeo principal e o conteúdo de vídeo exibido pelo dispositivo CE. De acordo com outra característica específica, o modo de mapeamento de gama de cores pertence a um conjunto que compreende pelo menos dois modos predefinidos e um modo de parâmetros explícito, conforme exposto para especificações SL-HDRx, em que o modo de parâmetros explícitos oferece controle total dos parâmetros do processo de mapeamento de gama GM / IGM.
[065] Para esse fim, na etapa 41, o gamutMappingMode é obtido do fluxo de bits. O gamutMappingMode pode ser transportado por metadados e pode ser obtido, por exemplo, analisando mensagens SEI conforme explicado acima. Em uma etapa 42, o gamutMappingMode é testado para verificar se está configurado para o modo de parâmetros explícitos. Caso o gamutMappingMode não seja o modo de parâmetros explícitos, por exemplo, se gamutMappingMode estiver definido como um modo predefinido, o gamutMappingMode será passado para a etapa 47 para controlar o mapeamento de gama (GM/IGM). Por exemplo, predefinições são definidas para diferentes (possivelmente faixas de) cores primárias em cores de formato de conteúdo / imagem.
[066] Caso o gamutMappingMode seja o modo de parâmetros explícitos, na etapa 43, o processo de mapeamento de gama é testado para verificar se está habilitado para o modo de parâmetros explícitos, ou seja, se o processo de mapeamento de gama é capaz de aplicar um mapeamento de gama programável que considera os parâmetros de mapeamento de gama sinalizados com o modo de parâmetros explícitos. De acordo com uma modalidade do método, um indicador 44 é representativo da capacidade GM / IGM explícita e é usado para determinar se o processo de mapeamento de gama está habilitado para o modo de parâmetros explícitos. Esse indicador é armazenado em um registrador. No caso de o processo de mapeamento de gama ser habilitado para o modo de parâmetros explícitos, o gamutMappingMode, juntamente com os parâmetros de mapeamento de gama, é passado para a etapa 47 para controlar o processo de mapeamento de gama (GM / IGM). No caso de gamutMappingMode ser o modo de parâmetros explícitos e se o processo de mapeamento de gama de cores do método não estiver habilitado para o gamutMappingMode, na etapa 45, um modo de mapeamento de gama de cores substituto, gamutMappingMode substituto, é determinado a partir de dados adicionais 46, e o gamutMappingMode substituto é passado para a etapa 47 para controlar o processo de mapeamento de gama (GM / IGM).
[067] De acordo com uma modalidade, um comutador 48 controlado pelas saídas dos testes 42 e 43 conecta o gamutMappingMode ou o gamutMappingMode substituto ao processo de mapeamento de gama 47.
[068] De acordo com uma modalidade da etapa 45, determinar o modo de mapeamento de gama de cores adicionalmente compreende selecionar um modo de mapeamento de gama de cores entre os pelo menos dois modos predefinidos. Vantajosamente, tal modalidade preserva a maior parte dos benefícios de um modo de gama explícito para processar o mapeamento de gama dentro dos dispositivos / receptores compatíveis apenas com predefinições, uma vez que a seleção de predefinição não é cega, mas controlada por dados adicionais.
[069] De acordo com outra modalidade da etapa 45, os dados adicionais compreendem pelo menos um espaço de cores da primeira imagem, o espaço de cores da segunda imagem, o espaço de cores do monitor de masterização usado para gerar a primeira imagem, o espaço de cores do monitor de masterização usado para gerar a segunda imagem, o espaço de cores do monitor de destino, o espaço de cores de uma imagem de entrada do pré-processamento SL-HDR. Em outras palavras, o mapeamento em direção a uma predefinição ou a outro (s) é determinado, por exemplo, pelo conhecimento do espaço de cores do conteúdo original do WCG ou do espaço de cores do monitor de masterização usado para classificar o conteúdo original de WCG ou o espaço de cores suportado pela exibição pretendida.
[070] - A Fig. 5a ilustra um exemplo não limitativo de acordo com o fluxo de bits SL-HDR de um diagrama de blocos das etapas de um método para gerar uma segunda imagem a partir de uma primeira imagem.
[071] Esse método é baseado em qualquer processo de reconstrução HDR ou SDR que exija uma imagem SDR / HDR10 / HLG e metadados como entrada.
[072] Espera-se, durante a primeira implantação de SL-HDR, que todos os recursos compatíveis com SL-HDR (ou seja, receptor que possa processar metadados SL-HDR em um módulo pós-processador SL-HDR incorporado) suportem uma versão simplificada, por exemplo, com base em um conjunto limitado de 3D LUT, do processo de mapeamento de gama, enquanto não está habilitado para processo analítico, como definido no Anexo D. Por conseguinte, um dispositivo receptor que não é capaz de processar ou interpretar esses parâmetros explícitos pode indicar esse recurso graças a um dispositivo registrador interno ou graças a um bit no Bloco de Dados de Metadados Dinâmicos HDR VSVDB ou HDMI ou EDID no receptor que processa o mapeamento de gama.
[073] Conforme descrito na Fig. 4, o receptor analisa os metadados SEI do fluxo de bits SL-HDR para obter pelo menos o gamutMappingMode e um dos hdrDisplayColourSpace ou hdrMasterDisplayColourSpace (vide Anexo A de SL- HDR1). Se o gamutMappingMode estiver definido como '1', significando, como mostrado na tabela 1, que o modo de mapeamento de gama é o modo de parâmetro explícito e se o receptor habilitado para SL-HDR estiver habilitado apenas para modos predefinidos, um módulo de mapeamento determinará um gamutMappingMode substituto com base em hdrDisplayColourSpace ou hdrMasterDisplayColourSpace.
[074] A Fig. 5b e a Fig. 5c ilustram respectivamente um exemplo não limitativo de acordo com o fluxo de bits SL-HDR1 e fluxo de bits SL-HDR2 do módulo de mapeamento.
[075] No caso do SL-HDR1, a primeira imagem é uma imagem com gama de cores padrão (tal como BT.709), a segunda imagem é uma imagem com WCG (tais como P3D65, BT.2020) e o módulo de mapeamento seleciona o modo de predefinição BT.709 para gama P3D65 (gamutMappingMode é definido como "2") quando hdrDisplayColourSpace (ou hdrMasterDisplayColourSpace) for igual a "2" e seleciona o modo de predefinição BT.709 para gama BT .2020 (gamutMappingMode é definido como "3") quando hdrDisplayColourSpace (ou hdrMasterDisplayColourSpace) for igual a "1".
[076] No caso de SL-HDR2, a primeira imagem é uma imagem com WCG (tais como P3D65, BT .2020), a segunda imagem é uma imagem com gama de cores padrão (tal como BT.709) e o módulo de mapeamento seleciona o modo predefinido P3D65 para gama BT./709 (gamutMappingMode é definido como "4") quando hdrDisplayColourSpace (ou hdrMasterDisplayColourSpace) for igual a "2" e seleciona o modo predefinido BT.2020 para gama BT.709 (gamutMappingMode é definido como "5") quando hdrDisplayColourSpace (ou hdrMasterDisplayColourSpace) for igual a "1".
[077] Note-se que este módulo de mapeamento pode ser aplicado a todos os receptores / dispositivos que implementam as especificações SL-HDR1, 2 ou 3.
[078] De acordo com outras modalidades, em vez de usar hdrDisplayColourSpace, é possível usar elementos de sintaxe src mdcev primaries * especificados no Anexo A.2.2.2 da especificação SL-HDR1, ou elementos de sintaxe display primaries * especificados na especificação HEVC ou informações de sinalização de serviço do ATSC3.0 ou CN-HDR na camada de transporte. Normalmente, o mapeamento para predefinições pode ser inspirado na Tabela A.5 para elementos de sintaxe display primaries * ou na Tabela A.4 para elementos src mdcev primaries *, os parâmetros perdidos ou corrompidos são recuperados de pelo menos um conjunto de valores de parâmetros pré-determinados armazenados anteriormente.
[079] Na Fig. 1-5c, os módulos são unidades funcionais, que podem ou não estar relacionados com unidades físicas distinguíveis. Por exemplo, esses módulos ou alguns deles podem ser reunidos em um componente ou circuito exclusivo ou contribuir para as funcionalidades de um software. Por outro lado, alguns módulos podem potencialmente ser compostos por entidades físicas separadas. Os aparelhos que são compatíveis com os presentes princípios são implementados usando hardware puro, por exemplo, usando hardware dedicado, como ASIC ou FPGA ou VLS|, respectivamente "Circuito Integrado de Aplicação Específica", "Arranjo de Portas Programável em Campo", "Integração em Escala Muito Grande" ou a partir de vários componentes eletrônicos integrados incorporados em um dispositivo ou uma mistura de componentes de hardware e software.
[080] A Fig. 6 representa uma arquitetura exemplar de um dispositivo 60 que pode ser configurado para implementar um método descrito em relação à Fig. 1-5c.
[081] O dispositivo 60 compreende os seguintes elementos que são ligados entre si por um barramento de dados e endereço 61: - um microprocessador 62 (ou CPU), que é, por exemplo, um DSP (ou Processador de Sinal Digital); - uma ROM (ou memória somente de leitura) 63; - uma RAM (ou memória de acesso aleatório) 64; - uma interface de 1/O 65 para recepção de dados a serem transmitidos de um aplicativo; e - uma bateria 66
[082] De acordo com um exemplo, a bateria 66 é externa ao dispositivo. Em cada uma das memórias mencionadas, a palavra «registrador» usada na especificação pode corresponder a uma área de pequena capacidade (alguns bits) ou a uma área muito grande (por exemplo, um programa inteiro ou uma grande quantidade de dados recebidos ou decodificados). A ROM 63 compreende pelo menos um programa e parâmetros. A ROM 63 pode armazenar algoritmos e instruções para executar técnicas de acordo com os princípios presentes. Quando ligada, a CPU 62 carrega o programa na RAM e executa as instruções correspondentes.
[083] A RAM 64 compreende, em um registrador, o programa executado pela CPU 62 e carregado após a ativação do dispositivo 60, dados de entrada em um registrador, dados intermediários em diferentes estados do método em um registrador e outras variáveis usadas para a execução do método em um registrador.
[084] As implementações “descritas neste documento podem ser implementadas em, por exemplo, um método ou processo, um aparelho, um programa de software, um fluxo de dados ou um sinal. Mesmo se discutida apenas no contexto de uma única forma de implementação (por exemplo, discutida apenas como método ou dispositivo), a implementação dos recursos discutidos também pode ser implementada em outras formas (por exemplo, um programa). Um aparelho pode ser implementado, por exemplo, em hardware, software e firmware apropriados. Os métodos podem ser implementados em, por exemplo, um aparelho como, por exemplo, um processador, que se refere a dispositivos de processamento em geral, incluindo, por exemplo, um computador, um microprocessador, um circuito integrado ou um dispositivo de lógica programável. Os processadores também incluem dispositivos de comunicação, tais como, por exemplo, computadores, telefones celulares, assistentes digitais portáteis / pessoais ("PDAs") e outros dispositivos que facilitam a comunicação de informações entre os usuários finais.
[085] De acordo com um exemplo de dispositivo de pré-processamento e/ou codificação, o vídeo ou uma imagem de um vídeo são obtidos a partir de uma fonte. Por exemplo, a fonte pertence a um conjunto que compreende: - uma memória local (63 ou 64), por exemplo, uma memória de vídeo ou uma RAM (ou memória de acesso aleatório), uma memória flash, uma ROM (ou memória somente de leitura), um disco rígido; - uma interface de armazenamento (65), por exemplo, uma interface com armazenamento em massa, RAM, memória flash, ROM, disco óptico ou suporte magnético;
- uma interface de comunicação (65), por exemplo, uma interface cabeada (por exemplo, uma interface de barramento, uma interface de rede de área ampla, uma interface de rede de área local) ou uma interface sem fio (como uma interface IEEE 802.11 ou uma interface Bluetooth6); e - um circuito de captura de imagem (por exemplo, um sensor tal como, por exemplo, um CCD (ou dispositivo acoplado a carga) ou CMOS (ou Semicondutor de Óxido de Metal Complementar)).
[086] De acordo com um exemplo do dispositivo de pós-processamento e/ou decodificação, o vídeo decodificado ou o vídeo reconstruído são enviados para um destino; especificamente, o destino pertence a um conjunto que compreende: - uma memória local (63 ou 64), por exemplo, uma memória de vídeo ou RAM, uma memória flash, um disco rígido; - uma interface de armazenamento (65), por exemplo, uma interface com armazenamento em massa, RAM, memória flash, ROM, disco óptico ou suporte magnético; - uma interface de comunicação (65), por exemplo, uma interface cabeada (por exemplo, uma interface de barramento (por exemplo, USB (ou Barramento Serial Universal)), uma interface de rede de área ampla, uma interface de rede de área local, uma interface HDMI (Interface Multimídia de Alta Definição)) ou uma interface sem fio (como uma Interface IEEE 802.11, WiFi&O ou BluetoothO); e - um monitor.
[087] De acordo com exemplos de pré-processamento e/ou codificação, o fluxo de bits e/ou outro fluxo de bits que porta os metadados são enviados para um destino. Como um exemplo, um desses fluxos de bits ou ambos são armazenados em uma memória local ou remota, por exemplo, uma memória de vídeo (64) ou uma RAM (64), um disco rígido (63). Em uma variante, um ou ambos os fluxos de bits são enviados para uma interface de armazenamento (65), por exemplo, uma interface com um armazenamento em massa, uma memória flash, ROM, um disco óptico ou um suporte magnético e/ou transmitidos através de uma interface de comunicação (65), por exemplo, uma interface para um link ponto a ponto, um barramento de comunicação, um link ponto a multiponto ou uma rede de transmissão.
[088] De acordo com exemplos de pós-processamento e/ou decodificação, o fluxo de bits e/ou outro fluxo de bits que porta os metadados é obtido a partir de uma fonte. Exemplarmente, o fluxo de bits é lido a partir de uma memória local, por exemplo, uma memória de vídeo (64), uma RAM (64), uma ROM (63), uma memória flash (63) ou um disco rígido (63). Em uma variante, o fluxo de bits é recebido de uma interface de armazenamento (65), por exemplo, uma interface com um armazenamento em massa, uma RAM, uma ROM, uma memória flash, um disco óptico ou um suporte magnético e/ou recebido de uma interface de comunicação (65), por exemplo, uma interface para um link ponto a ponto, um barramento, um link ponto a multiponto ou uma rede de transmissão.
[089] De acordo com exemplos, o dispositivo 60 sendo configurado para implementar um método de pré-processamento e/ou método de codificação, conforme descrito acima, pertence a um conjunto que compreende: - um dispositivo móvel; - um dispositivo de comunicação; - um dispositivo de jogo; - um tablet (ou computador tablet); - um laptop ; - uma câmera de imagem estática; - uma câmera de vídeo; - um chip de codificação; - um servidor de imagem estática; e - um servidor de vídeo (por exemplo, um servidor de transmissão, um servidor de vídeo sob demanda ou um servidor da web).
[090] De acordo com exemplos, o dispositivo 60 sendo configurado para implementar um método de pós-processamento e/ou método de decodificação conforme descrito acima, pertence a um conjunto que compreende: - um dispositivo móvel; - um dispositivo de comunicação; - um dispositivo de jogo; - um decodificador; digital (Set Top Box); - um aparelho de TV - um tablet (ou computador tablet); - um laptop ; - um monitor e - um chip de decodificação.
[091] De acordo com um exemplo dos presentes princípios, ilustrados na Fig. 7, em um contexto de transmissão entre dois dispositivos remotos A e B através de uma rede de comunicação NET, o dispositivo A compreende um processador em relação à memória RAM e ROM configuradas para implementar um método para codificar uma imagem como descrito acima e o dispositivo B compreende um processador em relação à memória RAM e ROM que são configuradas para implementar um método para decodificar como descrito acima.
[092] De acordo com um exemplo, a rede é uma rede de transmissão, adaptada para transmitir imagens estáticas ou imagens de vídeo do dispositivo À para dispositivos de decodificação, incluindo o dispositivo B.
[093] Um sinal, destinado a ser transmitido pelo dispositivo A, porta o fluxo de bits e/ou o outro fluxo de bits que porta os metadados. O fluxo de bits compreende um vídeo codificado como explicado anteriormente. Este sinal adicionalmente compreende metadados relativos aos valores dos parâmetros utilizados para reconstruir um vídeo a partir do referido vídeo decodificado.
[094] O sinal adicionalmente compreende um indicador que identifica um conjunto de parâmetros predeterminados usados para recuperar parâmetros perdidos ou corrompidos.
[095] De acordo com uma modalidade, o referido indicador está oculto nos metadados portados pelo sinal.
[096] As implementações dos vários processos e recursos descritos neste documento podem ser incorporadas em uma variedade de diferentes equipamentos ou aplicativos. Exemplos de tais equipamentos incluem um codificador, um decodificador, uma saída de processamento pós-processador a partir de um decodificador, um pré-processador que provê entrada para um codificador, um codificador de vídeo, um decodificador de vídeo, um codec de vídeo, um servidor Web, um codificador digital, laptop, computador pessoal, telefone celular, PDA e qualquer outro dispositivo para processar uma imagem, vídeo ou outros dispositivos de comunicação. Como deve ficar claro, o equipamento pode ser móvel e até instalado em um veículo móvel.
[097] Além disso, os métodos podem ser implementados por instruções executadas por um processador e essas instruções (e/ou valores de dados produzidos por uma implementação) podem ser armazenadas em um meio de armazenamento legível por computador. Um meio de armazenamento legível por computador pode assumir a forma de um produto de programa legível por computador incorporado em um ou mais meio(s) legível por computador e tendo código de programa legível por computador incorporado no mesmo que é executável por um computador. Um meio de armazenamento legível por computador, conforme aqui utilizado, é considerado um meio de armazenamento não transitório, dada a capacidade inerente de armazenar as informações nele contidas, bem como a capacidade inerente de prover recuperação das informações a partir dele. Un meio de armazenamento legível por computador pode ser, por exemplo, mas não se limita a um sistema, aparelho ou dispositivo eletrônico, magnético, óptico, eletromagnético, infravermelho ou semicondutor, ou qualquer combinação adequada dos anteriores. Deve ser apreciado que o seguinte, embora forneça exemplos mais específicos de meios de armazenamento legíveis por computador aos quais os princípios atuais podem ser aplicados, é meramente uma lista ilustrativa e não exaustiva, como é facilmente apreciado por um versado na técnica: disquete de computador portátil; um disco rígido; uma memória somente de leitura (ROM); uma memória somente de leitura programável apagável (EPROM ou memória Flash); uma memória somente de leitura de disco compacto portátil (CD-ROM); um dispositivo de armazenamento óptico; um dispositivo de armazenamento magnético; ou qualquer combinação adequada dos anteriores.
[098] As instruções podem formar um programa de aplicativo tangivelmente incorporado em um meio legível por processador.
[099] As instruções podem estar, por exemplo, em hardware, firmware, software ou uma combinação. As instruções podem ser encontradas em, por exemplo, um sistema operacional, um aplicativo separado ou uma combinação dos dois. Um processador pode ser caracterizado, portanto, como, por exemplo, um dispositivo configurado para executar um processo e um dispositivo que inclui um meio legível por processador (tal como um dispositivo de armazenamento) tendo instruções para executar um processo. Além disso, um meio legível por processador pode armazenar, além ou em vez de instruções, valores de dados produzidos por uma implementação.
[0100] Como será evidente para um especialista na técnica, as implementações podem produzir uma variedade de sinais formatados para transportar informações que podem ser, por exemplo, armazenadas ou transmitidas. As informações podem incluir, por exemplo, instruções para executar um método ou dados produzidos por uma das implementações descritas. Por exemplo, um sinal pode ser formatado para portar como dados as regras para gravar ou ler a sintaxe de um exemplo descrito dos presentes princípios, ou para portar como dados os valores reais da sintaxe escrita por um exemplo descrito dos presentes princípios. Tal sinal pode ser formatado, por exemplo, como uma onda eletromagnética (por exemplo, usando uma porção de espectro de radiofrequência) ou como um sinal de banda base. A formatação pode incluir, por exemplo, codificar um fluxo de dados e modular uma portadora com o fluxo de dados codificado. A informação que o sinal porta pode ser, por exemplo, informação analógica ou digital. O sinal pode ser transmitido através de uma variedade de diferentes links com ou sem fio, como é conhecido. O sinal pode ser armazenado em um meio legível por processador.
[0101] Várias implementações foram descritas. No entanto, será entendido que várias modificações podem ser feitas. Por exemplo, elementos de diferentes implementações podem ser combinados, suplementados, modificados ou removidos para produzir outras implementações. Além disso, alguém versado na técnica entenderá que outras estruturas e processos podem ser substituídos por aqueles divulgados, e as implementações resultantes desempenharão pelo menos substancialmente a mesma função (s), pelo menos substancialmente da mesma maneira (s), para atingir pelo menos substancialmente o mesmo resultado que as implementações divulgadas. Por conseguinte, estas e outras implementações são contempladas por este pedido.

Claims (14)

REIVINDICAÇÕES
1. Método para gerar uma segunda imagem a partir de uma primeira imagem, CARACTERIZADO pelo fato de que o método compreende aplicar um processo de mapeamento de gama de cores na referida primeira imagem para gerar a referida segunda imagem, o conteúdo da referida segunda imagem correspondendo ao conteúdo da referida primeira imagem, mas o espaço de cores da referida segunda imagem é diferente do espaço de cores da referida primeira imagem, o referido processo de mapeamento de gama de cores sendo controlado pelo menos por um modo de mapeamento de gama de cores obtido a partir de um fluxo de bits e, o referido modo de mapeamento de gama de cores pertencente a um conjunto compreendendo pelo menos dois modos predefinidos e um modo de parâmetros explícito; o método adicionalmente compreendendo, no caso do referido modo de mapeamento de gama de cores obtido ser o referido modo de parâmetros explícitos e no caso do processo de mapeamento de gama de cores do método não estar habilitado para o modo de parâmetros explícitos para gerar a referida segunda imagem a partir da referida primeira imagem, determinar um modo de mapeamento de gama de cores substituto a partir de dados adicionais, o referido processo de mapeamento de gama de cores sendo controlado pelo referido modo de mapeamento de gama de cores substituto.
2. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que determinar o modo de mapeamento de gama de cores adicionalmente compreende selecionar um modo de mapeamento de gama de cores entre os referidos pelo menos dois modos predefinidos.
3. Método, de acordo com uma das reivindicações 1 a 2, CARACTERIZADO pelo fato de que os referidos dados adicionais compreendem pelo menos um de espaços de cores da referida primeira imagem, espaço de cores da referida segunda imagem, o espaço de cores do monitor de masterização usado para gerar a referida primeira imagem, o espaço de cores do monitor de masterização usado para gerar a referida segunda imagem, o espaço de cores do monitor de destino, o espaço de cores de uma imagem de entrada do pré-processamento SL-HDR.
4. Método, de acordo com a reivindicação 3, CARACTERIZADO pelo fato de que os referidos dados adicionais são metadados sinalizados no fluxo de bits.
5. Método, de acordo com a reivindicação 4, CARACTERIZADO pelo fato de que o fluxo de bits é o fluxo de bits SL-HDR1.
6. Método, de acordo com a reivindicação 5, CARACTERIZADO pelo fato de que determinar o modo de mapeamento de gama de cores substituto compreendendo selecionar o modo predefinido BT.709 para gama P3D65 definindo gamutMappingMode substituto para "2", quando hdrDisplayColourSpace for igual a "2" e selecionar o modo predefinido BT.709 para gama BT.2020 definindo gamutMappingMode é "3" quando hdrDisplayColourSpace for igual a "1".
7. Método, de acordo com a reivindicação 4, CARACTERIZADO pelo fato de que o fluxo de bits é o fluxo de bits SL-HDR2.
8. Método, de acordo com a reivindicação 7, CARACTERIZADO pelo fato de que determinar o modo de mapeamento de gama de cores substituto compreende selecionar o modo predefinido P3D65 para gama BT./709 definindo gamutMappingMode substituto para "4" quando hdrDisplayColourSpace for igual a "2" e selecionar o modo predefinido BT.2020 para gama BT./709 definindo gamutMappingMode substituto é "5" quando hdrDisplayColourSpace for igual a "1".
9. Método, de acordo com uma das reivindicações 1 a 8, CARACTERIZADO pelo fato de que adicionalmente compreende se o processo de mapeamento de gama de cores não é capaz de usar o modo de parâmetros explícitos de acordo com um indicador.
10. Dispositivo para gerar uma segunda imagem a partir de uma primeira imagem, CARACTERIZADO pelo fato de que o dispositivo compreende: um ou mais processadores e pelo menos uma memória, em que os um ou mais processadores são configurados para mapear a gama de cores da referida primeira imagem para gerar a referida segunda imagem, o conteúdo da referida segunda imagem correspondente ao conteúdo da referida primeira imagem mas o espaço de cores da referida segunda imagem é diferente do espaço de cores da referida primeira imagem, o referido mapeamento de gama de cores sendo controlado por um modo de mapeamento de gama de cores obtido a partir de um fluxo de bits e o referido modo de mapeamento de gama de cores pertencente a um conjunto compreendendo pelo menos dois modos predefinidos e um modo de parâmetros explícitos; e em que os um ou mais processadores são configurados para determinar um modo de mapeamento de gama de cores substituto a partir de dados adicionais, no caso do referido modo de mapeamento de gama de cores obtido ser o modo de parâmetros explícitos e no caso do referido processador não estar habilitado para mapeamento de gama com o modo de parâmetros explícito, o mapeamento de gama de cores sendo controlado pelo referido modo de mapeamento de gama de cores substituto.
11. Dispositivo, de acordo com a reivindicação 8, CARACTERIZADO pelo fato de que os um ou mais processadores estão configurados para determinar se o mapeamento de gama não está habilitado para o modo de parâmetros explícitos de acordo com um indicador armazenado no referido dispositivo.
12. Dispositivo, de acordo com qualquer uma das reivindicações 10 ou 11, CARACTERIZADO pelo fato de que o referido dispositivo pertence a um conjunto que compreende: - um dispositivo móvel; - um dispositivo de comunicação;
- um dispositivo de jogo; - um decodificador; - um aparelho de TV; - um leitor de discos Blu-Ray; - um reprodutor; - um tablet (ou computador tablet); - um laptop; - um monitor; - uma câmera e - um chip de decodificação.
13. Produto de programa de computador, CARACTERIZADO pelo fato de que compreende instruções de código de programa para executar as etapas do método como definido em qualquer uma das reivindicações 1 a 8, quando este programa é executado em um computador.
14. Meio legível por processador não transitório, CARACTERIZADO pelo fato de que tem armazenado nele instruções para fazer com que um processador execute pelo menos as etapas do método como definido em qualquer uma das reivindicações 1 a 8, quando este programa é executado em um computador.
8 É = o = ae à ão ão =. E)
E 238 2 E 18 5 is h = us 8 “« o aa 2 Fr x - o o É 8 2 =
E = e. - x. » iz em 28
S & ê = z 8 «| 8 sl o É 8| & 2| E
E : 8 Eê
E o
IT 8 * Pp
"el Ad E UP Er le
E I À nm) E 4) fm) ds) le 11 ho 1 E hj | fz ge 15 E8sid gu E lo fin
Z sã (| go Vo à; a dd “E Gl à A 1)
ANA À db | | 7 E à
Ha Hmh | NO elit . mir) | e Bl x db
À
TD
! i To mo |, | HS |)
o it) |. - oo oo .— = e) lts o o
BR112020008467-0A 2017-11-09 2018-11-06 método e dispositivo para gerar segunda imagem a partir de primeira imagem BR112020008467A2 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP17306556.6 2017-11-09
EP17306556.6A EP3484137A1 (en) 2017-11-09 2017-11-09 Method and device for generating a second image from a first image
PCT/US2018/059351 WO2019094356A1 (en) 2017-11-09 2018-11-06 Method and device for generating a second image from a first image

Publications (1)

Publication Number Publication Date
BR112020008467A2 true BR112020008467A2 (pt) 2020-10-20

Family

ID=60450565

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112020008467-0A BR112020008467A2 (pt) 2017-11-09 2018-11-06 método e dispositivo para gerar segunda imagem a partir de primeira imagem

Country Status (7)

Country Link
US (1) US11544824B2 (pt)
EP (2) EP3484137A1 (pt)
KR (1) KR20200081386A (pt)
CN (1) CN111316625B (pt)
BR (1) BR112020008467A2 (pt)
MX (1) MX2020004794A (pt)
WO (1) WO2019094356A1 (pt)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
MA51643B1 (fr) * 2018-11-07 2022-09-30 Hoffmann La Roche Procédés et dispositifs pour effectuer une mesure analytique
WO2020243881A1 (en) * 2019-06-03 2020-12-10 Alibaba Group Holding Limited Simplified intra block copy
CN111970564B (zh) * 2020-08-26 2023-03-24 展讯通信(上海)有限公司 Hdr视频显示处理的优化方法及装置、存储介质、终端
US11612812B1 (en) 2021-06-29 2023-03-28 Amazon Technologies, Inc. Video game streaming with dynamic range conversion
US11617946B1 (en) 2021-06-29 2023-04-04 Amazon Technologies, Inc. Video game streaming with dynamic range conversion
US11666823B1 (en) * 2021-06-29 2023-06-06 Amazon Technologies, Inc. Video game streaming with dynamic range conversion
CN113781322A (zh) * 2021-08-02 2021-12-10 中国科学院深圳先进技术研究院 一种色域映射方法、装置、终端设备及存储介质
CN115797151A (zh) * 2021-09-10 2023-03-14 北京字跳网络技术有限公司 一种颜色映射色卡生成方法及装置
US11587213B1 (en) 2021-11-05 2023-02-21 GM Cruise Holdings LLC. Preserving dynamic range in images
CN114245027B (zh) * 2021-11-29 2024-03-22 图腾视界(广州)数字科技有限公司 一种视频数据混合处理方法、系统、电子设备和存储介质
KR102543461B1 (ko) 2022-04-29 2023-06-14 주식회사 이너버즈 딥 러닝을 이용하여 특정한 속성을 선별적으로 변화시키는 이미지 조정 방법

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5257097A (en) * 1991-09-27 1993-10-26 Eastman Kodak Company Method and apparatus for selective interception of a graphics rendering operation for effecting image data modification
US5416890A (en) * 1991-12-11 1995-05-16 Xerox Corporation Graphical user interface for controlling color gamut clipping
US5748342A (en) * 1994-04-18 1998-05-05 Canon Kabushiki Kaisha Image processing apparatus and method
US5781206A (en) * 1995-05-01 1998-07-14 Minnesota Mining And Manufacturing Company Apparatus and method for recalibrating a multi-color imaging system
US20030164968A1 (en) * 2002-02-19 2003-09-04 Canon Kabushiki Kaisha Color processing apparatus and method
KR100467600B1 (ko) * 2002-07-30 2005-01-24 삼성전자주식회사 컬러 정정 방법
US7643036B1 (en) * 2002-12-23 2010-01-05 Adobe Systems Incorporated Representing color gamuts in color charts
EP1578140A3 (en) * 2004-03-19 2005-09-28 Thomson Licensing S.A. System and method for color management
JP2005318491A (ja) * 2004-03-30 2005-11-10 Seiko Epson Corp 画像データの色変換処理
US7822270B2 (en) * 2005-08-31 2010-10-26 Microsoft Corporation Multimedia color management system
KR101303874B1 (ko) * 2006-02-10 2013-09-04 삼성전자주식회사 색역 매핑 장치 및 방법
US9418450B2 (en) * 2006-08-31 2016-08-16 Ati Technologies Ulc Texture compression techniques
US9602697B2 (en) 2010-08-27 2017-03-21 Ricoh Company, Ltd. Color substitution mechanism
US9852499B2 (en) * 2013-12-13 2017-12-26 Konica Minolta Laboratory U.S.A., Inc. Automatic selection of optimum algorithms for high dynamic range image processing based on scene classification
US20160309154A1 (en) * 2015-04-17 2016-10-20 Qualcomm Incorporated Dynamic range adjustment for high dynamic range and wide color gamut video coding
KR102377807B1 (ko) * 2015-08-28 2022-03-22 애리스 엔터프라이지즈 엘엘씨 높은 동적 범위 및 넓은 컬러 영역 시퀀스들의 코딩에서의 컬러 볼륨 변환들
US10757385B2 (en) * 2016-08-24 2020-08-25 Qualcomm Incorporated Color gamut adaptation with feedback channel

Also Published As

Publication number Publication date
CN111316625B (zh) 2022-08-02
EP3707891A1 (en) 2020-09-16
CN111316625A (zh) 2020-06-19
EP3484137A1 (en) 2019-05-15
KR20200081386A (ko) 2020-07-07
MX2020004794A (es) 2020-08-13
WO2019094356A1 (en) 2019-05-16
US20200394775A1 (en) 2020-12-17
EP3707891B1 (en) 2023-01-04
US11544824B2 (en) 2023-01-03

Similar Documents

Publication Publication Date Title
BR112020008467A2 (pt) método e dispositivo para gerar segunda imagem a partir de primeira imagem
US10009613B2 (en) Method, systems and apparatus for HDR to HDR inverse tone mapping
BR102017005371A2 (pt) Métodos, aparelho, e sistemas para um mapeamento estendido de tons de ampla faixa dinâmica (hdr) hdr para hdr
BR102017027195A2 (pt) método e dispositivo para a reconstrução de dados de imagem a partir de dados de imagem decodificados
US11310532B2 (en) Method and device for reconstructing image data from decoded image data
BR112019022510A2 (pt) Método e dispositivo para mapeamento de gama de cores
BR112019020137A2 (pt) método e dispositivo para mapeamento de gama de cores
US11062432B2 (en) Method and device for reconstructing an HDR image
US10600163B2 (en) Method and device for reconstructing a display adapted HDR image
BR112019022968A2 (pt) método e dispositivo para mapeamento de gama de cor
BR112020009563A2 (pt) método e aparelho para correção de cor durante conversão hdr para sdr
KR102280094B1 (ko) 이미지/비디오 신호에 관련된 비트 스트림을 생성하기 위한 방법, 특정 정보 데이터를 포함하는 비트 스트림, 그와 같은 특정 정보 데이터를 획득하기 위한 방법
US20180220190A1 (en) Methods and devices for encoding/decoding videos
BR112020010703A2 (pt) processamento de uma imagem
KR102369771B1 (ko) 디스플레이 적응형 hdr 이미지를 재구성하기 위한 방법 및 디바이스
JP7074461B2 (ja) ディスプレイ適合hdr画像を再構成する方法およびデバイス
CA2986520A1 (en) Method and device for reconstructing a display adapted hdr image
BR102017025044A2 (pt) Método e dispositivo para reconstruir uma imagem em hdr adaptada para exibição
BR112020024487A2 (pt) método e aparelho para codificar uma imagem
BR112020008999A2 (pt) processamento de uma imagem
EP3528201A1 (en) Method and device for controlling saturation in a hdr image
KR20230107545A (ko) 채도를 유지하고 색조를 보존하면서 톤 맵퍼 내에서의 크로마 클립핑을 회피하기 위한 방법, 디바이스, 및 장치

Legal Events

Date Code Title Description
B15I Others concerning applications: loss of priority

Free format text: PERDA DA PRIORIDADE DE 09/11/2017 EP 17306556.6 REIVINDICADA PELO PCT/US2018/059351 POR NAO APRESENTACAO DE COPIA DO CORRESPONDENTE DOCUMENTO DE CESSAO DENTRO DO PRAZO LEGAL DE 60 DIAS APOS A PETICAO DE ENTRADA NA FASE NACIONAL DO BRASIL CONFORME AS DISPOSICOES PREVISTAS NA LEI 9.279 DE 14/05/1996 (LPI) ART. 16 6O, NO ART. 28 DA RESOLUCAO INPI-PR 77/2013 E ART 3O DA IN 179 DE 21/02/2017, UMA VEZ QUE DEPOSITANTE CONSTANTE DA PETICAO DE REQUERIMENTO DO PEDIDO PCT E DISTINTO DAQUELE QUE DEPOSITOU A PRIORIDADE REIVINDICADA.

B152 Others concerning applications: decision cancelled [chapter 15.32 patent gazette]

Free format text: ANULADA A PUBLICACAO CODIGO 15.9 NA RPI NO 2599 DE 27/10/2020 POR TER SIDO INDEVIDA.

B350 Update of information on the portal [chapter 15.35 patent gazette]