BR112015026979B1 - Dispositivos e métodos de transmissão e recepção - Google Patents

Dispositivos e métodos de transmissão e recepção Download PDF

Info

Publication number
BR112015026979B1
BR112015026979B1 BR112015026979-6A BR112015026979A BR112015026979B1 BR 112015026979 B1 BR112015026979 B1 BR 112015026979B1 BR 112015026979 A BR112015026979 A BR 112015026979A BR 112015026979 B1 BR112015026979 B1 BR 112015026979B1
Authority
BR
Brazil
Prior art keywords
video data
luminance value
range
luminance
transmission
Prior art date
Application number
BR112015026979-6A
Other languages
English (en)
Other versions
BR112015026979A2 (pt
Inventor
Ikuo Tsukagoshi
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Publication of BR112015026979A2 publication Critical patent/BR112015026979A2/pt
Publication of BR112015026979B1 publication Critical patent/BR112015026979B1/pt

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/68Circuits for processing colour signals for controlling the amplitude of colour signals, e.g. automatic chroma control circuits
    • H04N9/69Circuits for processing colour signals for controlling the amplitude of colour signals, e.g. automatic chroma control circuits for modifying the colour signals by gamma correction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4318Generation of visual interfaces for content selection or interaction; Content or additional data rendering by altering the content in the rendering process, e.g. blanking, blurring or masking an image region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4348Demultiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/20Circuitry for controlling amplitude response
    • H04N5/202Gamma control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/38Transmitter circuitry for the transmission of television signals according to analogue transmission standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/57Control of contrast or brightness
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/08Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/641Multi-purpose receivers, e.g. for auxiliary information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Picture Signal Circuits (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Studio Devices (AREA)

Abstract

DISPOSITIVOS E MÉTODOS DE TRANSMISSÃO E RECEPÇÃO. Um objetivo da presente invenção é permitir uma exibição em um lado de recepção com uma gama dinâmica de brilho apropriada. Dados de vídeo de transferência são obtidos aplicando uma curva de gama a dados de vídeo de entrada tendo uma gama de nível de 0 - 100%*N (onde N é um número maior que 1). Estes dados de vídeo de transferência são transmitidos junto com informação suplementar para converter um nível de brilho alto no lado de recepção. No lado de recepção, a gama de nível do lado de nível alto dos dados de vídeo de transferência é convertida de modo que o nível máximo alcance um nível predeterminado, na base da informação suplementar que é recebida com os dados de vídeo de transferência.

Description

CAMPO TÉCNICO
[001] A tecnologia presente se refere a um dispositivo de transmissão, um método de transmissão, um dispositivo de recepção, e um método de recepção, e mais particularmente a um dispositivo de transmissão e outros para transmitir dados de vídeo de transmissão obtidos por aplicação de uma curva de gama.
TÉCNICA DE FUNDAMENTO
[002] Realidade virtual de uma imagem de alta qualidade é improvável aumentando uma habilidade de reprodução síncrona para reprodução síncrona de um nível mínimo de luminância e um nível máximo de luminância na hora de exibição de imagem. Esta habilidade de reprodução síncrona é às vezes chamada uma gama dinâmica de exibição.
[003] Um padrão convencional foi fixado a um valor de luminância de branco de 100 cd/m2 ao longo de casos de geração de imagem por câmera para exibição de monitoramento. Além disso, uma transmissão convencional foi fixada a transmissão de 8 bits (gradações representáveis: 0 a 255) como uma condição prévia. As gradações representáveis são expansíveis pelo uso de transmissão de 10 bits ou transmissão de bit maior, por exemplo. Correção de gama é ademais conhecida como uma correção de características de gama de uma exibição alcançada por entrada de dados tendo características opostas às características da exibição.
[004] Por exemplo, Documento Não Patente 1 descreve transmissão de um fluxo de vídeo gerado codificando dados de vídeo de transmissão que foram obtidos por aplicação de uma curva de gama para introduzir dados de vídeo tendo níveis de 0 a 100%*N (N: maior que 1), por exemplo. LISTA DE CITAÇÃO DOCUMENTO NÃO PATENTE Documento Não Patente 1: Codificação de Vídeo de Alta Eficiência (HEVC) minuta de especificação de texto 10 (para FDIS e Última Chamada)
SUMÀRIO DA INVENÇÃO PROBLEMA A SER RESOLVIDO PELA INVENÇÃO
[005] Um objetivo da tecnologia presente é realizar exibição com uma gama dinâmica de luminância apropriada em um lado de recepção.
SOLUÇÕES PARA O PROBLEMA
[006] Um conceito da tecnologia presente é dirigido a um dispositivo de transmissão incluindo: uma unidade de processamento que aplica uma curva de gama para introduzir dados de vídeo tendo uma gama de nível de 0% a 100%*N (N: um número maior que 1) para obter dados de vídeo de transmissão; e uma unidade de transmissão que transmite os dados de vídeo de transmissão junto com informação auxiliar usada para converter um nível de alta luminância em um lado de recepção.
[007] De acordo com a tecnologia presente, a unidade de processamento aplica uma curva de gama para introduzir dados de vídeo tendo uma gama de nível de 0% a 100%*N (N: um número maior que 1) para obter dados de vídeo de transmissão. A unidade de transmissão transmite os dados de vídeo de transmissão junto com informação auxiliar usada para converter um nível de alta luminância em um lado de recepção. Por exemplo, a unidade de transmissão pode transmitir um recipiente em um formato predeterminado que contém um fluxo de vídeo obtido codificando os dados de vídeo de transmissão. Uma unidade de inserção de informação auxiliar que insere a informação auxiliar em uma camada do fluxo de vídeo e/ou uma camada do recipiente pode ser provida.
[008] Por exemplo, de acordo com a tecnologia presente, a unidade de processamento pode executar adicionalmente um processo para converter um nível de dados de vídeo saída de obtido aplicando a curva de gama aos dados de vídeo de entrada, qual nível corresponde a um nível dos dados de vídeo de entrada em uma gama de 100% a 100%*N, em um nível correspondendo a 100% dos dados de vídeo de entrada de modo a obter os dados de vídeo de transmissão. Neste caso, a informação auxiliar pode conter informação sobre um filtro aplicado a dados de pixel dos dados de vídeo de transmissão a um nível correspondendo a 100% dos dados de vídeo de entrada.
[009] Por exemplo, de acordo com a tecnologia presente, a unidade de processamento pode executar adicionalmente um processo para converter um nível de dados de vídeo de saída obtido aplicando a curva de gama aos dados de vídeo de entrada, qual nível corresponde a um nível dos dados de vídeo de entrada em uma gama a partir de um limite igual a ou mais baixo do que um nível correspondendo a 100% a 100%*N, em um nível em uma gama a partir do limite a um nível correspondendo a 100% dos dados de vídeo de entrada de modo a obter os dados de vídeo de transmissão.
[0010] Neste caso, a informação auxiliar pode conter informação sobre um filtro aplicado a dados de pixel dos dados de vídeo de transmissão em uma gama a partir do limite a um nível correspondendo a 100% dos dados de vídeo de entrada. Alternativamente, neste caso, a informação auxiliar pode conter informação sobre uma curva de conversão aplicada a dados de pixel dos dados de vídeo de transmissão em uma gama a partir do limite a um nível correspondendo a 100% dos dados de vídeo de entrada.
[0011] De acordo com a tecnologia presente, a unidade de processamento pode usar dados de vídeo de saída como os dados de vídeo de transmissão sem uma mudança, quais dados de vídeo de saída são obtidos aplicando a curva de gama aos dados de vídeo de entrada. Neste caso, a informação auxiliar pode conter informação sobre uma curva de conversão aplicada a um lado de alto nível dos dados de vídeo de transmissão.
[0012] De acordo com a tecnologia presente, portanto, os dados de vídeo de transmissão obtidos aplicando a curva de gama aos dados de vídeo de entrada tendo a gama de nível de 0% a 100%*N são transmitidos juntos com a informação auxiliar usada para converter o nível de alta luminância no lado de recepção. Por conseguinte, o lado de recepção é capaz de converter o nível de alta luminância dos dados vídeo de transmissão baseado na informação auxiliar.
[0013] Por exemplo, dados vídeo com uma gama dinâmica alta são alcançáveis convertendo dados de vídeo de transmissão com uma gama dinâmica baixa tendo um nível correspondendo a 100% de nível dos dados de vídeo de entrada como o nível máximo de modo que o nível máximo fique alto. Além disso, dados de vídeo com uma gama dinâmica baixa, por exemplo, são alcançáveis convertendo dados de vídeo de transmissão com uma gama dinâmica alta tendo um nível correspondendo a 100%*N de nível dos dados de vídeo de entrada como o nível máximo de modo que o nível máximo fique baixo. Por conseguinte, exibição com uma gama dinâmica de luminância apropriada é realizável no lado de recepção.
[0014] Por exemplo, de acordo com a tecnologia presente, uma unidade de inserção de informação de identificação pode ser provida. Esta unidade de inserção de informação de identificação insere, na camada do recipiente, informação de identificação que indica que a informação auxiliar foi inserida na camada do fluxo de vídeo. Neste caso, o lado de recepção é capaz de reconhecer inserção da informação auxiliar neste fluxo de vídeo sem a necessidade de decodificar o fluxo de vídeo e, portanto, extrair apropriadamente a informação auxiliar do fluxo de vídeo.
[0015] Outro conceito da tecnologia presente é dirigido a um dispositivo de recepção incluindo: uma unidade de recepção que recebe dados de vídeo de transmissão obtidos aplicando uma curva de gama a dados de vídeo de entrada tendo uma gama de nível de 0% a 100%*N (N: um número maior que 1); e uma unidade de processamento que converte uma gama de nível de lado de alto nível dos dados de vídeo de transmissão de modo que um nível máximo se torne um nível predeterminado baseado em informação auxiliar recebida junto com os dados de vídeo de transmissão.
[0016] De acordo com a tecnologia presente, a unidade de recepção recebe dados de vídeo de transmissão. Estes dados vídeo de transmissão são obtidos aplicando uma curva de gama a dados de vídeo de entrada tendo uma gama de nível de 0% a 100%*N (N: um número maior que 1). A unidade de processamento converte uma gama de nível de lado de alto nível dos dados de vídeo de transmissão de modo que um nível máximo se torne um nível predeterminado baseado em informação auxiliar recebida junto com os dados de vídeo de transmissão.
[0017] Por exemplo, a unidade de processamento pode determinar o nível predeterminado baseado em informação sobre o N e informação sobre uma gama dinâmica de luminância de um monitor contido na informação auxiliar. Por exemplo, a unidade de recepção transmite um recipiente em um formato predeterminado que contém um fluxo de vídeo obtido codificando os dados de vídeo de transmissão. Por exemplo, a informação auxiliar é inserida em uma camada do fluxo de vídeo.
[0018] Por exemplo, de acordo com a tecnologia presente, os dados de vídeo de transmissão podem ser dados de vídeo obtidos executando adicionalmente um processo para converter um nível de dados de vídeo de saída obtidos aplicando a curva de gama aos dados de vídeo de entrada, qual nível corresponde a um nível dos dados de vídeo de entrada em uma gama de 100% a 100%*N, em um nível correspondendo a 100% dos dados de vídeo de entrada. A unidade de processamento pode converter níveis de dados de pixel respectivos correspondendo a 100% dos dados de vídeo de entrada em níveis em uma gama de um nível correspondendo a 100% dos dados de vídeo de entrada para o nível predeterminado aplicando um filtro especificado em informação de filtro contida na informação auxiliar.
[0019] De acordo com a tecnologia presente, os dados de vídeo de transmissão podem ser dados de vídeo obtidos executando adicionalmente um processo para converter um nível de dados de vídeo de saída obtidos aplicando a curva de gama aos dados de vídeo de entrada, qual nível corresponde a um nível dos dados de vídeo de entrada em uma gama a partir de um limite igual ou mais baixo do que um nível correspondendo a 100% a 100%*N, em um nível em uma gama a partir do limite a um nível correspondendo a 100% dos dados de vídeo de entrada. A unidade de processamento pode converter níveis de dados de pixel respectivos em uma gama a partir do limite a um nível correspondendo a 100% dos dados de vídeo de entrada em níveis em uma gama a partir do limite para o nível predeterminado aplicando um filtro especificado em informação de filtro contida na informação auxiliar.
[0020] De acordo com a tecnologia presente, os dados de vídeo de transmissão podem ser dados de vídeo obtidos executando adicionalmente um processo para converter um nível de dados de vídeo de saída obtidos aplicando a curva de gama aos dados de vídeo de entrada, qual nível corresponde a um nível dos dados de vídeo de entrada em uma gama a partir de um limite igual a ou mais baixo do que um nível correspondendo a 100% a 100%*N, em um nível em uma gama a partir do limite a um nível correspondendo a 100% dos dados de vídeo de entrada. A unidade de processamento pode converter níveis de dados de pixel respectivos em uma gama a partir do limite a um nível correspondendo a 100% dos dados de vídeo de entrada em níveis em uma gama a partir do limite para o nível predeterminado aplicando informação de curva de conversão contida na informação auxiliar.
[0021] De acordo com a tecnologia presente, dados de vídeo de saída podem ser usados como os dados de vídeo de transmissão sem uma mudança, quais dados de vídeo de saída são obtidos aplicando a curva de gama aos dados de vídeo de entrada. A unidade de processamento pode converter níveis de dados de pixel respectivos dos dados de vídeo de transmissão em uma gama a partir de um limite igual a ou mais baixo do que um nível correspondendo 100% dos dados de vídeo de entrada a um nível correspondendo a 100%*N dos dados de vídeo de entrada em níveis em uma gama a partir do limite para o nível predeterminado correspondendo a L*100% (L: um número igual a ou menor que N) dos dados de vídeo de entrada aplicando informação de curva de conversão contida na informação auxiliar.
[0022] De acordo com a tecnologia presente, portanto, os dados de vídeo de transmissão obtidos aplicando a curva de gama a dados de vídeo de entrada tendo a gama de nível de 0% a 100%*N são recebidos. Então, a gama de nível de lado de alto nível destes dados vídeo de transmissão é convertida de modo que o nível máximo se torne o nível predeterminado, baseado na informação auxiliar recebida junto com os dados de vídeo de transmissão. Por conseguinte, exibição com uma gama dinâmica de luminância apropriada é realizável, por exemplo.
EFEITOS DA INVENÇÃO
[0023] De acordo com a tecnologia presente, exibição com uma gama dinâmica de luminância apropriada é realizável no lado de recepção. Os efeitos descritos nesta especificação são só apresentados por meio de exemplo, e não dados para qualquer propósito de limitações. Outros efeitos adicionais podem ser produzidos.
BREVE DESCRIÇÃO DOS DESENHOS
[0024] Figura 1 é um diagrama de bloco ilustrando um exemplo de configuração de um sistema de transmissão e recepção de acordo com uma modalidade.
[0025] Figura 2 é uma vista ilustrando dados de vídeo de transmissão (a) obtidos aplicando uma curva de gama.
[0026] Figura 3 é uma vista ilustrando dados de vídeo de transmissão (b) obtidos aplicando uma curva de gama.
[0027] Figura 4 é uma vista ilustrando dados de vídeo de transmissão (c) obtidos aplicando uma curva de gama.
[0028] Figura 5 é uma vista ilustrando informação de curva de gama inserida a uma camada de um fluxo de vídeo.
[0029] Figura 6 é uma vista ilustrando um processo de conversão executado no lado de recepção para os dados de vídeo de transmissão (a).
[0030] Figura 7 é uma vista ilustrando um processo de conversão executado no lado de recepção para os dados de vídeo de transmissão (b).
[0031] Figuras 8(a) por 8(c) ilustram exemplos de uma relação entre valores de amostra de luminância e frequências de pixel (frequências).
[0032] Figura 9 é uma vista ilustrando um processo de conversão executado no lado de recepção para os dados de vídeo de transmissão (c).
[0033] Figura 10 é um diagrama de bloco ilustrando um exemplo de configuração de um dispositivo de transmissão 100.
[0034] Figura 11 é uma vista ilustrando uma unidade de acesso a um cabeçote de GOP quando um sistema de codificação é HEVC.
[0035] Figura 12 é uma vista ilustrando uma unidade de acesso a uma posição diferente do cabeçote do GOP quando o sistema de codificação é HEVC.
[0036] Figura 13 é uma vista ilustrando um exemplo de estrutura de uma mensagem de SEI de informação de mapeamento de tom.
[0037] Figura 14 é uma vista ilustrando o exemplo de estrutura da mensagem de SEI de informação de mapeamento de tom.
[0038] Figura 15 é uma vista ilustrando conteúdos de informação principal no exemplo de estrutura da mensagem de SEI de informação de mapeamento de tom.
[0039] Figura 16 é uma vista ilustrando um exemplo de estrutura de uma mensagem de SEI de conversão de HDR.
[0040] Figura 17 é uma vista ilustrando conteúdos de informação principal no exemplo de estrutura da mensagem de SEI de conversão de HDR.
[0041] Figura 18 é uma vista ilustrando um exemplo de estrutura de um descritor simples de HDR.
[0042] Figura 19 é uma vista ilustrando conteúdos de informação principal no exemplo de estrutura do descritor simples de HDR.
[0043] Figura 20 é uma vista ilustrando um exemplo de estrutura de um descritor completo de HDR.
[0044] Figura 21 é uma vista ilustrando um exemplo de estrutura de um descritor de curva de mapeamento de nível.
[0045] Figura 22 é uma vista ilustrando uma curva de conversão (curva de mapeamento) para converter níveis de lado de alto nível de dados de vídeo de transmissão.
[0046] Figura 23 é uma vista ilustrando esquematicamente um exemplo de uma tabela de curva de mapeamento.
[0047] Figura 24 é uma vista ilustrando um exemplo de configuração de um fluxo de transporte de MPEG2 contendo vários tipos de mensagens e descritores de SEI.
[0048] Figura 25 é um diagrama de bloco ilustrando um exemplo de configuração de um dispositivo de recepção.
[0049] Figura 26 é um diagrama de bloco ilustrando um exemplo de configuração de uma unidade de processamento de HDR do dispositivo de recepção.
[0050] Figuras 27(a) por 27(d) são vistas ilustrando processos de unidades respectivas da unidade de processamento de HDR quando informação de filtro é usada.
[0051] Figura 28 é uma vista ilustrando um processo de uma unidade de processamento de mapeamento de gama quando a informação de filtro é usada.
[0052] Figura 29 é uma vista ilustrando o processo da unidade de processamento de mapeamento de gama quando a informação de filtro é usada.
[0053] Figura 30 é uma vista ilustrando um processo da unidade de processamento de mapeamento de gama quando informação de curva de conversão é usada.
[0054] Figura 31 é um diagrama de bloco ilustrando um exemplo de configuração de um sistema de distribuição de fluxo base de MPEG-DASH.
[0055] Figura 32 é uma vista ilustrando um exemplo de uma relação entre estruturas respectivas dispostas em um arquivo de MPD de uma maneira hierárquica.
[0056] Figuras 33(a) por 33(c) são vistas ilustrando uma estrutura de segmentos de fluxo de especificação de DASH.
[0057] Figura 34 é uma vista ilustrando esquematicamente informação dentro de um fluxo de transporte, qual informação corresponde à informação contida em "Segmento de Iniciação" e informação contida em "Segmento de Mídia" em um formato de dados de segmento correspondendo a MPEG-2TS.
[0058] Figura 35 é um diagrama de bloco ilustrando um exemplo de configuração de um sistema de transmissão e recepção que opera um fluxo de transmissão de estrutura de MMT.
[0059] Figura 36 é uma vista ilustrando uma configuração de um pacote de MMT em uma forma de árvore.
[0060] Figura 37 é uma vista ilustrando um exemplo de estrutura de uma mensagem de descrição de HDR tendo uma tabela de descrição simples de HDR.
[0061] Figura 38 é uma vista ilustrando um exemplo de estrutura da tabela de descrição simples de HDR.
[0062] Figura 39 é uma vista ilustrando um exemplo de estrutura de uma mensagem de descrição de HDR tendo uma tabela de descrição completa de HDR.
[0063] Figura 40 é uma vista ilustrando um exemplo de estrutura da tabela de descrição completa de HDR.
[0064] Figura 41 é uma vista ilustrando um exemplo de estrutura de uma mensagem de descrição de HDR tendo uma tabela de curva de mapeamento de nível.
[0065] Figura 42 é uma vista ilustrando um exemplo de estrutura da tabela de curva de mapeamento de nível.
MODO PARA EXECUTAR A INVENÇÃO
[0066] Um modo para executar a invenção (em seguida chamada "modalidade") é descrito agora. A descrição é apresentada na ordem seguinte. 1. Modalidade 2. Exemplo Modificado
<1. Modalidade > [Exemplo de Configuração de Sistema de Transmissão e Recepção]
[0067] Figura 1 ilustra um exemplo de configuração de um sistema de transmissão e recepção 10 de acordo com uma modalidade. O sistema de transmissão e recepção 10 é constituído por um dispositivo de transmissão 100 e um dispositivo de recepção 200.
[0068] O dispositivo de transmissão 100 gera um fluxo de transporte de MPEG2 TS como um recipiente, e transmite o fluxo de transporte TS levado em ondas de radiodifusão. O fluxo de transporte TS inclui um fluxo de vídeo obtido codificando dados de vídeo de transmissão para quais uma curva de gama foi aplicada.
[0069] De acordo com esta modalidade, os dados de vídeo de transmissão são obtidos aplicando uma curva de gama a dados de vídeo de entrada com HDR (Gama Dinâmica Alta) que foram obtidos por geração de imagem de câmera, isto é, dados de vídeo de entrada tendo uma gama de nível de 0 a 100%*N (N: número maior que 1), por exemplo. É assumido aqui que o nível de 100% é um nível de luminância correspondendo a um valor de luminância de branco de 100 cd/m2.
[0070] Os dados vídeo de transmissão incluem dados de vídeo de transmissão (a), dados de vídeo de transmissão (b) e dados de vídeo de transmissão (c) discutidos a seguir, por exemplo. Os dados de vídeo de transmissão (a) e os dados de vídeo de transmissão (b) têm o nível máximo correspondendo ao nível de 100% de dados de vídeo de entrada, e constituem dados de vídeo com uma baixa gama dinâmica. Os dados de vídeo de transmissão (c) têm o nível máximo correspondendo ao nível de 100%*N de dados de vídeo de entrada, e constituem dados de vídeo com uma gama dinâmica alta.
"Dados de Vídeo de Transmissão (a)"
[0071] Os dados de vídeo de transmissão (a) são descritos aqui com referência à Figura 2. Nesta figura, "Gama de nível de dados de conteúdo" indica uma gama de nível de 0% a 100%*N de dados de vídeo de entrada. Nesta figura, "V_100*N" indica um nível de dados de vídeo (dados de vídeo de saída) correspondendo ao nível de 100%*N de dados de vídeo de entrada e obtidos depois de aplicação de uma curva de gama. Nesta figura, "V_100" indica um nível de dados de vídeo (dados de vídeo de saída) correspondendo ao nível de 100% de dados de vídeo de entrada e obtidos depois de aplicação da curva de gama. Nesta figura, "Gama de dados de pixel de entrada de codificador" indica uma gama de nível de dados de vídeo de transmissão de 0 a V_100. Por exemplo, gradações de 0 a V_100 são expressas baseado em bits predeterminados, tais como 8 bits.
[0072] Os dados de vídeo de transmissão (a) são obtidos por um processo de corte (veja linha interrompida b) que ademais converte níveis de dados de vídeo de saída, quais dados são obtidos aplicando uma curva de gama (veja linha sólida a) a dados de vídeo de entrada, e corresponde a níveis de dados de vídeo de entrada na gama de 100% a 100%*N, em níveis correspondendo a 100% dos dados de vídeo de entrada (V_100). Os dados de vídeo de transmissão (a) têm níveis correspondendo a níveis de dados de vídeo de entrada na gama de 0% a 100%, e constituem dados de vídeo com uma baixa gama dinâmica.
"Dados de Vídeo de Transmissão (b)"
[0073] Os dados de vídeo de transmissão (b) são descritos aqui com referência à Figura 3. Nesta figura, "Gama de nível de dados de conteúdo", "V_100*N", e "Gama de dados de pixel de entrada de codificador" são semelhantes aos correspondentes ilustrados na Figura 2. Nesta figura, "V_th" indica um nível de corte de limite (Threshold_clipping_level) como um limite igual a ou mais baixo que um nível correspondendo ao nível de 100% de dados de vídeo de entrada.
[0074] Os dados de vídeo de transmissão (b) são obtidos por um processo de mapeamento que ademais converte níveis de dados de vídeo de saída, quais dados são obtidos aplicando uma curva de gama (veja linha sólida a) a dados de vídeo de entrada, e se acha em uma gama a partir de um limite (V_th) igual a ou mais baixo que o nível correspondendo a 100% dos dados de vídeo de entrada para um nível (V_100*N) correspondendo a 100%*N de dados de vídeo de entrada, em níveis em uma gama a partir do limite (V_th) ao nível (V_100) correspondendo a 100% dos dados de vídeo de entrada. Os dados de vídeo de transmissão (b) têm níveis correspondendo a níveis de dados de vídeo de entrada na gama de 0% a 100%, e constituem dados de vídeo com uma baixa gama dinâmica.
"Dados de Vídeo de Transmissão (c)"
[0075] Os dados de vídeo de transmissão (c) são descritos aqui com referência à Figura 4. Nesta figura, "Gama de nível de dados de conteúdo" e "V_100*N" são semelhantes aos correspondentes ilustrados na Figura 2. Nesta figura, "Gama de dados de pixel de entrada de codificador" indica uma gama de nível de 0 a V_100*N de dados de vídeo de transmissão. Os dados de vídeo de transmissão (c) são dados de vídeo de saída obtidos aplicando uma curva de gama (veja linha sólida a) a dados de vídeo de entrada, e não sujeitos a processamento adicional. Os dados de vídeo de transmissão (c) têm níveis correspondendo a níveis de dados de vídeo de entrada na gama de 0% a 100%*N, e constituem dados de vídeo com uma gama dinâmica alta.
[0076] Retornando à Figura 1, o dispositivo de transmissão 100 insere informação sobre a curva de gama precedente em uma camada de um fluxo de vídeo. Esta informação contém "extended_range_white_level", "nominal_black_level_code_value", "nominal_white_level_code_value", e "extended_white_level_code_value", por exemplo, como ilustrado na Figura 5.
[0077] Nesta informação, "extended_range_white_level" indica uma porcentagem de um múltiplo inteiro (N vezes) (100%*N) quando nível de branco nominal (nível de branco nominal) está fixado a 100%. Nesta informação, "nominal_black_level_code_value" indica um valor de amostra de luminância para um nível de preto nominal. Quando dados de vídeo são codificados na base de 8 bits, um nível de preto é fixado a "16". Nesta informação, "nominal_white_level_code_value" indica um valor de amostra de luminância para um nível de branco nominal. Quando dados de vídeo são codificados na base de 8 bits, um nível de branco é fixado a "235", por exemplo. Nesta informação, "extended_white_level_code_value" indica um valor de amostra de luminância de "extended_range_white_level".
[0078] Além disso, o dispositivo de transmissão 100 insere informação auxiliar na camada do fluxo de vídeo, qual informação é usada para converter uma gama de nível de lado de alto nível de dados de vídeo de transmissão no lado de recepção. Esta informação auxiliar contém informação de filtro e informação de curva de conversão, por exemplo. A informação auxiliar será detalhada mais tarde.
[0079] Além disso, o dispositivo de transmissão 100 insere, em uma camada de um fluxo de transporte TS, informação de identificação indicando que a informação de curva de gama e a informação auxiliar foram inseridas na camada do fluxo de vídeo. Por exemplo, a informação de identificação é inserida como uma subordinada de uma tabela de mapa de programa (PMT: Tabela de Mapa de Programa) contida no fluxo de transporte TS. A presença ou ausência da informação de curva de gama e da informação auxiliar é reconhecível baseado na informação de identificação sem a necessidade de decodificar o fluxo de vídeo. A informação de identificação será detalhada mais tarde.
[0080] O dispositivo de recepção 200 recebe o fluxo de transporte TS transmitido enquanto levado em ondas de radiodifusão do dispositivo de transmissão 100. O fluxo de transporte TS inclui um fluxo de vídeo contendo dados de vídeo codificados. O dispositivo de recepção 200 adquire dados de vídeo para exibição decodificando o fluxo de vídeo, por exemplo.
[0081] Como descrito acima, a camada do fluxo de vídeo contém inserção da informação de curva de gama e da informação auxiliar. Por outro lado, a camada do fluxo de transporte TS contém inserção da informação de identificação indicando se ou não a informação de curva de gama e a informação auxiliar foram inseridas. O dispositivo de recepção 200 reconhece a presença de inserção da informação de curva de gama e da informação auxiliar na camada do fluxo de vídeo baseado na informação de identificação, e adquire estas peças de informação do fluxo de vídeo para utilização destas peças de informação para processamento.
[0082] O dispositivo de recepção 200 converte a gama de nível de lado de alto nível dos dados de vídeo depois de decodificar (dados de vídeo de transmissão) de tal maneira que o nível máximo se torne um nível predeterminado baseado na informação auxiliar. Neste caso, o dispositivo de recepção 200 determina o nível predeterminado baseado em informação sobre N contida na informação auxiliar, e informação sobre uma gama dinâmica de luminância de um monitor, por exemplo.
[0083] Quando os dados vídeo de transmissão são os dados de vídeo de transmissão (a), dados de vídeo de transmissão (b), ou dados de vídeo de transmissão (c) discutidos acima, o dispositivo de recepção 200 executa os processos de conversão seguintes. Estes processos de conversão permitem exibição com uma gama dinâmica de luminância apropriada no lado de recepção.
"Processo de Conversão para Dados de Vídeo de Transmissão (a)"
[0084] O processo de conversão para os dados de vídeo de transmissão (a) é descrito aqui com referência à Figura 6. Nesta figura, "Gama de dados de pixel decodificados" indica uma gama de nível de dados de vídeo de entrada (dados de vídeo de transmissão) de 0 a V_100. Nesta figura, "Gama de nível de exibição" indica uma gama de nível de um monitor (exibição) de 0% de luminância a 100%*N de luminância. Uma linha sólida a é uma curva mostrando características de gama do monitor, como características opostas às características da curva de gama precedente (veja linha sólida a na Figura 2).
[0085] O dispositivo de recepção 200 converte níveis de dados de pixel respectivos de dados de vídeo de transmissão ao nível de V_100 em níveis dentro de uma gama de V_100 para um nível predeterminado (V_100*N ou mais baixo) aplicando um filtro especificado em informação de filtro contida na informação auxiliar. Neste caso, os níveis dos dados de pixel ao nível de V_100 nos dados de vídeo de transmissão antes de conversão são convertidos em tais níveis de modo a gerar 100% de luminância ou mais alto no monitor (exibição) como indicado por uma linha de cadeia b. Estes dados de vídeo depois da conversão têm o nível máximo equivalente ao nível predeterminado mais alto que V_100, e constituem dados de vídeo com uma gama dinâmica alta.
"Processo de Conversão para Dados de Vídeo de Transmissão (b)"
[0086] O processo de conversão para os dados de vídeo de transmissão (b) é descrito aqui com referência à Figura 7. Nesta figura, "Gama de dados de pixel decodificados" indica uma gama de nível de dados de vídeo de entrada (dados de vídeo de transmissão) de 0 a V_100. Nesta figura "Gama de nível de exibição" indica uma gama de nível de um monitor (exibição) de 0% de luminância a 100%*N de luminância. Uma linha sólida a é uma curva de gama mostrando características do monitor, como características opostas às características da curva de gama precedente (veja linha sólida a na Figura 3).
[0087] O dispositivo de recepção 200 converte níveis de dados de pixel respectivos de dados de vídeo de transmissão na gama de V_th a V_100 em níveis dentro de uma gama de V_th ao nível predeterminado (V_100*N ou mais baixo) aplicando um filtro especificado na informação de filtro ou a informação de curva de conversão contida na informação auxiliar. Neste caso, os níveis dos dados de pixel aos níveis variando de V_th a V_100 nos dados de vídeo de transmissão antes de conversão são convertidos em tais níveis de modo a gerar 100% de luminância ou mais alto no monitor (exibição) como indicado por uma linha de cadeia b. Estes dados de vídeo depois da conversão têm o nível máximo equivalente ao nível predeterminado mais alto que V_100, e constituem dados de vídeo com uma gama dinâmica alta.
[0088] Figuras 8(a) por 8(c) ilustram exemplos de uma relação entre valores de amostra de luminância e frequências de pixel (frequências). Figura 8(a) ilustra um estado de dados de vídeo de entrada no dispositivo de transmissão 100, onde o valor de amostra máximo é V_N*100. Figura 8(b) ilustra um estado de dados de vídeo de transmissão (dados de vídeo de saída) depois de aplicação de uma curva de gama no dispositivo de transmissão 100, onde o valor de amostra máximo está limitado a V_100. Neste caso, pixels de valores de amostra dentro de uma gama indicada por uma linha interrompida são afetados por um processo de mapeamento e, portanto, desviados dos níveis originais.
[0089] Figura 8(c) ilustra um estado depois do processo de conversão no dispositivo de recepção 200. Neste caso, pixels existindo em valores de amostra dentro de uma gama indicados por uma linha interrompida são pixels sujeitos ao processo de conversão (processo de re-mapeamento). Este processo de re-mapeamento permite aos níveis dos pixels respectivos afetados pelo processo de mapeamento chegar aos níveis antes do processo de mapeamento. De acordo com a Figura 8(c), o máximo dos valores de amostra é V_N*100. Porém, o máximo dos valores de amostra se torna um nível mais baixo que V_N*100 dependendo da gama dinâmica de luminância do monitor (Gama dinâmica de luminância de monitor).
"Processo de Conversão para Dados de Vídeo de Transmissão (c)"
[0090] O processo de conversão para os dados de vídeo de transmissão (b) é descrito aqui com referência à Figura 9. Nesta figura, "Gama de dados de pixel decodificados" indica uma gama de nível de dados de vídeo de entrada (dados de vídeo de transmissão) de 0 a V_100*N. Nesta figura, "Gama de nível de exibição" indica uma gama de nível de um monitor (exibição) de 0% de luminância a 100%*L de luminância. Uma linha sólida a é uma curva de gama mostrando características do monitor, como características opostas às características da curva de gama precedente (veja linha sólida a na Figura 4).
[0091] O dispositivo de recepção 200 converte níveis de dados de pixel respectivos de dados de vídeo de transmissão aos níveis variando de V_th a V_100*N em níveis dentro de uma gama de V_th a um nível predeterminado (V_100*L) aplicando informação de curva de conversão contida na informação auxiliar. Neste caso, os níveis dos dados de pixel variando de V_th a V_100*N nos dados de vídeo de transmissão antes de conversão são convertidos em tais níveis de modo a gerar luminância de V_100*L ou mais baixa no monitor (exibição) como indicado por uma linha de cadeia b. Estes dados de vídeo depois da conversão têm o nível máximo equivalente a um nível predeterminado mais baixo que V_100*N, e constituem dados de vídeo com uma baixa gama dinâmica.
"Exemplo de Configuração de Dispositivo de transmissão"
[0092] Figura 10 ilustra um exemplo de configuração do dispositivo de transmissão 100. O dispositivo de transmissão 100 inclui uma unidade de controle 101, uma câmera 102, uma unidade de conversão de espaço de cor 103, uma unidade de processamento de gama 104, um codificador de vídeo 105, um codificador de sistema 106 e uma unidade de transmissão 107. A unidade de controle 101 inclui uma CPU (Unidade de Processamento Central), e controla as operações de unidades respectivas do dispositivo de transmissão 100 baseado em um programa de controle armazenado em um armazenamento predeterminado.
[0093] A câmera 102 visualiza um assunto, e produz dados de vídeo com HDR (Gama Dinâmica Alta). Estes dados de vídeo têm níveis em uma gama de 0 a 100%*N, tal como 0 a 400% ou 0 a 800%. Neste caso, um nível de 100% corresponde a um valor de luminância de branco de 100 cd/m2. A unidade de conversão de espaço de cor 103 converte o espaço de cor de RGB de dados de vídeo produzidos da câmera 102 no espaço de cor de YUV.
[0094] A unidade de processamento de gama 104 aplica uma curva de gama a dados de vídeo depois de conversão de espaço de cor, e executa processamento para converter níveis de alta luminância (processo de mapeamento e processo de corte) como necessário, para obter dados de vídeo de transmissão (veja Figuras 2 por 4). Estes dados vídeo de transmissão são expressos na base de 8 bits no caso dos dados de vídeo de transmissão (a) e (b), e 9 ou bits maiores no caso dos dados de vídeo de transmissão (c).
[0095] O codificador de vídeo 105 codifica dados de vídeo de conversão usando MPEG4-AVC, MPEG2 vídeo, ou HEVC (Codificação de Vídeo de Alta Eficiência), por exemplo, para obter dados de vídeo codificados. Além disso, o codificador de vídeo 105 gera um fluxo de vídeo (fluxo elementar de vídeo) contendo estes dados de vídeo codificados usando um formatador de fluxo (não mostrado) provido em um estágio subsequente.
[0096] Neste momento, o codificador de vídeo 105 insere informação de curva de gama e informação auxiliar em uma camada do fluxo de vídeo. Esta informação auxiliar é informação usada para converter níveis de alta luminância no lado de recepção, e contém informação de filtro, informação de curva de conversão e outras.
[0097] O codificador de sistema 106 gera um fluxo de transporte TS contendo o fluxo de vídeo gerado pelo codificador de vídeo 105. A unidade de transmissão 107 transmite este fluxo de transporte TS levado em ondas ou pacotes de radiodifusão em uma rede para o dispositivo de recepção 200.
[0098] Neste momento, o codificador de sistema 106 insere, em uma camada do fluxo de transporte TS, informação de identificação indicando se ou não a informação de curva de gama e a informação auxiliar foram inseridas na camada do fluxo de vídeo. O codificador de sistema 106 ademais insere dados de curva de conversão na camada do fluxo de transporte TS. O codificador de sistema 106 insere a informação de identificação e os dados de curva de conversão como um subordinado de uma malha elementar de vídeo (Malha de ES de Vídeo) de uma tabela de mapa de programa (PMT: Tabela de Mapa de Programa) contida no fluxo de transporte TS, por exemplo.
[0099] A operação do dispositivo de transmissão 100 ilustrado na Figura 10 é descrita agora brevemente. O espaço de cor de RGB de dados de vídeo de HDR visualizado pela câmera 102 é convertido no espaço de cor de YUV pela unidade de conversão de espaço de cor 103. Os dados de vídeo de HDR depois da conversão de espaço de cor são providos à unidade de processamento de gama 104. A unidade de processamento de gama 104 aplica uma curva de gama aos dados de vídeo depois da conversão de espaço de cor, e executa processamento para converter níveis de alta luminância (processo de mapeamento e processo de corte) para os dados de vídeo como necessário para obter dados de vídeo de transmissão. Estes dados vídeo de transmissão são providos ao codificador de vídeo 105.
[00100] O codificador de vídeo 105 codifica os dados de vídeo de transmissão usando MPEG4-AVC (MVC), MPEG2video, ou HEVC (Codificação de Vídeo de Alta Eficiência), por exemplo, para obter dados de vídeo codificados. O codificador de vídeo 105 gera um fluxo de vídeo (fluxo elementar de vídeo) contendo estes dados de vídeo codificados. Neste momento, o codificador de vídeo 105 insere informação de curva de gama em uma camada do fluxo de vídeo, e ademais insere informação auxiliar contendo informação de filtro, informação de curva de conversão e similar, como informação auxiliar usada para converter os níveis de alta luminância no lado de recepção, na camada do fluxo de vídeo.
[00101] O fluxo de vídeo gerado pelo codificador de vídeo 105 é provido ao codificador de sistema 106. O codificador de sistema 106 gera um fluxo de transporte de MPEG2 TS contendo o fluxo de vídeo. Neste momento, o codificador de sistema 106 insere, em uma camada do fluxo de transporte TS, os dados de curva de conversão, e informação de identificação indicando que a informação de curva de gama e a informação auxiliar foram inseridas na camada do fluxo de vídeo. A unidade de transmissão 107 transmite este fluxo de transporte TS levado em ondas de radiodifusão. [Informação de Curva de Gama, Informação Auxiliar, Informação de Identificação, Estrutura de Dados de Curva de Conversão, e Estrutura de TS ]
[00102] Como descrito acima, a informação de curva de gama e a informação auxiliar são inseridas em uma camada de um fluxo de vídeo. Quando o sistema de codificação é MPEG4-AVC, ou outros sistemas de codificação tal como HEVC, que tem a estrutura de codificação semelhante tal como a estrutura de pacotes de NAL, por exemplo, a informação auxiliar é inserida em uma parte "SEIs" de uma unidade de acesso (AU) como uma mensagem de SEI.
[00103] A informação de curva de gama é inserida como uma mensagem de SEI de informação de mapeamento de tom (Mensagem de SEI de informação de mapeamento de tom). A informação auxiliar é inserida como uma mensagem de SEI de conversão de HDR (mensagem de SEI de conversão de HDR).
[00104] Figura 11 ilustra uma unidade de acesso localizada a um cabeçote de GOP (Grupo de Quadros) quando o sistema de codificação é HEVC. Figura 12 ilustra uma unidade de acesso localizada a uma posição de GOP (Grupo de Quadros) diferente do cabeçote deste quando o sistema de codificação é HEVC. No caso do sistema de codificação de HEVC, um grupo de mensagem de SEI para decodificar "Prefix_SEIs" está disposto antes de pedaços (pedaços) onde dados de pixel estão codificados, enquanto um grupo de mensagem de SEI para exibição "Suffix_SEIs" está disposto depois destes pedaços (pedaços).
[00105] Como ilustrado nas Figuras 11 e 12, a mensagem de SEI de informação de mapeamento de tom (mensagem de SEI de informação de mapeamento de tom) e a mensagem de SEI de conversão de HDR (mensagem de SEI de conversão de HDR) estão dispostas como o grupo de mensagem de SEI "Suffix_SEIs".
[00106] Figuras 13 e 14 ilustram exemplos de estrutura (Sintaxe) da "Mensagem de SEI de informação de mapeamento de tom". Figura 15 ilustra conteúdos de informação principal (Semântica) nos exemplos de estrutura. Nestas figuras, "Tone_mapping_cancel_flag" é informação de bandeira de 1 bit. Neste caso, "1" indica cancelamento de um estado prévio de mensagem do mapeamento de tom ((mapeamento de tom). Além disso, "0" indica transmissão de elementos respectivos para renovação de um estado prévio.
[00107] Um campo de 8 bits de "coded_data_bit_depth" indica um comprimento de bit de dados codificados, e usa 8 a 14 bits, por exemplo. Nestas figuras, "target_bit_depth" indica o comprimento de bit máximo assumido como um comprimento de bit de saída (saída) em um processo executado baseado na mensagem de SEI de informação de mapeamento de tom, e é permitido usar 16 bits como o máximo.
[00108] Um campo de 32 bits "ref_screen_luminance_white" indica um nível de branco nominal de um monitor de referência, e é expresso pela unidade de "cd/m2". Nestas figuras, "extended_range_white_level" indica uma porcentagem de um múltiplo inteiro (N vezes) (100%*N) quando "nível de branco nominal (nível de branco nominal)" é fixado a 100%. Nestas figuras, "nominal_black_level_code_value" indica um valor de amostra de luminância para um nível de preto nominal. Quando dados de vídeo são codificados na base de 8 bits, um nível de preto é fixado a "16". Nestas figuras, "nominal_white_level_code_value" indica um valor de amostra de luminância para o nível de branco nominal. Quando dados de vídeo são codificados na base de 8 bits, o nível de branco é fixado a "235". Nesta informação, "extended_white_level_code_value" indica um valor de amostra de luminância de "extended_range_white_level".
[00109] Figura 16 ilustra um exemplo de estrutura (Sintaxe) da "mensagem de SEI de HDR_conversion". Figura 17 indica conteúdos de informação principal (Semântica) neste exemplo de estrutura. Nestas figuras,"HDR_conversion_cancel_flag" é informação de bandeira de 1 bit. Neste caso, "1" indica cancelamento de um estado de mensagem de uma conversão de HDR prévia (HDR_conversion). Além disso, "0" indica transmissão de elementos respectivos para renovação de um estado prévio.
[00110] Um campo de 16 bits "threshold_clipping_level" indica um limite de luminância convertido em uma gama de codificação convencional através de mapeamento de tom não linear (mapeamento de tom) dentro de uma gama de HDR. Em outras palavras, "threshold_clipping_level" indica V_th (veja Figura 3). Um campo de 8 bits "operator_type" indica um tipo de filtro usado na hora de execução de marcação (Marcação) de níveis de luminância excedendo o V_th (threshold_clipping_level). Um arquivo de 8 bits de "range_max_percent" indica N de 100%*N.
[00111] Um campo de 8 bits "level_mapping_curve_type" indica um tipo de uma função para converter níveis de luminância excedendo o V_th (threshold_clipping_level) em níveis de luminância alvos. Este campo de 8 bits "level_mapping_curve_type" está disposto só quando "threshold_clipping_level" < "nominal_white_level_code_value" se mantém, isto é, quando o V_th é mais baixo do que 100% de luminância.
[00112] Como descrito acima, informação de identificação indicando que informação de curva de gama e informação auxiliar foram inseridas em uma camada de um fluxo de vídeo é inserida como uma subordinada de uma malha elementar de vídeo (Malha de ES de Vídeo) de uma tabela de mapa de programa (PMT) de um fluxo de transporte TS, por exemplo.
[00113] Figura 18 ilustra um exemplo de estrutura (Sintaxe) de um descritor simples de HDR (HDR_simple_descriptor) como informação de identificação. Figura 19 ilustra conteúdos de informação principal (Semântica) neste exemplo de estrutura.
[00114] Um campo de 8 bits "HDR_simple etiqueta de descritor" indica um tipo de descritor, mostrando que esta estrutura é um descritor simples de HDR. Um campo de 8 bits "HDR_simple comprimento de descritor" indica um comprimento (tamanho) do descritor, mostrando uma contagem de byte da parte subsequente como o comprimento do descritor.
[00115] Um campo de 1 bit "Tonemapping_SEI_existed" é informação de bandeira indicando se ou não informação de SEI de mapeamento de tom (informação de curva de gama) está presente em uma camada de vídeo (camada de fluxo de vídeo). Neste caso, "1" indica que a informação de SEI de mapeamento de tom está presente, enquanto "0" indica que a informação de SEI de mapeamento de tom está ausente.
[00116] Um campo de 1 bit "HDR_conversion_SEI_existed" é informação de bandeira que indica se ou não informação de SEI de conversão de HDR (informação auxiliar) está presente na camada de vídeo (camada de fluxo de vídeo). Neste caso, "1" indica que a informação de SEI de conversão de HDR está presente, enquanto "0" indica que a informação de SEI de conversão de HDR está ausente.
[00117] Figura 20 ilustra um exemplo de estrutura (Sintaxe) de um descritor completo de HDR (HDR_full_descriptor) como informação de identificação. Um campo de 8 bits "HDR_full etiqueta de descritor" indica um tipo de descritor, mostrando que esta estrutura é um descritor completo de HDR. Um campo de 8 bits "HDR_full comprimento de descritor" indica um comprimento (tamanho) do descritor, mostrando uma contagem de byte da parte subsequente como o comprimento do descritor.
[00118] Enquanto não detalhado aqui, este descritor completo de HDR ademais inclui a mensagem de SEI de informação de mapeamento de tom precedente (veja Figuras 13 e 14), e mensagem de SEI de conversão de HDR (veja Figura 16), como também informação contida no descritor simples de HDR (veja Figura 18).
[00119] Neste caso, é permitido no lado de recepção reconhecer não só a presença ou ausência da informação de SEI de mapeamento de tom e a informação de SEI de conversão de HDR na camada de vídeo, mas também conteúdos de informação contidos nisso, antes de decodificar o fluxo de vídeo baseado no descritor completo de HDR.
[00120] Como descrito acima, os dados de curva de conversão são ademais inseridos como uma subordinada da malha elementar de vídeo (Malha de ES de Vídeo) da tabela de mapa de programa (PMT) do fluxo de transporte TS, por exemplo. Figura 21 ilustra um exemplo de estrutura (Sintaxe) de um descritor de curva de nível de mapeamento (level_mapping_curve_descriptor) como dados de curva de conversão.
[00121] Um campo de 8 bits de "etiqueta de descritor level_mapping_curve" indica um tipo de descritor, mostrando que esta estrutura é um descritor de curva de mapeamento de nível. Um campo de 8 bits "comprimento de descritor level_mapping_curve" indica um comprimento (tamanho) do descritor, mostrando uma contagem de byte da parte subsequente como o comprimento do descritor.
[00122] Um campo de 8 bits "mapping_curve_table_id" indica um identificador (id) de uma tabela de uma curva de mapeamento (curva de mapeamento). Este "mapping_curve_table_id" permite a coexistência de uma pluralidade de tipos de casos de uso (Usecase). Por exemplo, o "mapping_curve_table_id" permite a discriminação entre curvas de conversão (curvas de mapeamento) usadas para o processo de conversão para cada um dos dados de vídeo de transmissão (b) e dos dados de vídeo de transmissão (c).
[00123] Um campo de 16 bits "número de níveis N" indica vários níveis contidos em uma gama de nível visada de conversão dos dados de vídeo de transmissão. Neste caso, a gama de nível visada de conversão é de V_th a V_100 para os dados de vídeo de transmissão (b) (veja Figura 7), e de V_th a V_100*N para os dados de vídeo de transmissão (c) (veja Figura 9).
[00124] Um campo de 8 bits de "número de tipos de curva C" indica um tipo da curva de conversão (curva de mapeamento). Este "número de tipos de curva C" permite a coexistência de uma pluralidade de tipos de curvas de conversão tendo características de conversão diferentes. Possíveis exemplos de curvas de conversão tendo características de conversão diferentes incluem curvas de conversão tendo níveis máximos diferentes depois de conversão, e curvas de conversão tendo um nível máximo idêntico, mas níveis de conversão intermediário diferentes.
[00125] Um campo de 16 bits "curve_data" indica valores da curva de conversão (curva de mapeamento) depois de conversão. Figura 22 ilustra um exemplo de três tipos de curvas de conversão (curvas de mapeamento) (a), (b) e (c). Os exemplos respectivos têm o nível máximo de V_100*N depois de conversão, e têm níveis de conversão intermediários diferentes. Figura 23 ilustra esquematicamente uma tabela de curvas de mapeamento (curvas de mapeamento) correspondendo aos três tipos de curvas de conversão (curvas de mapeamento) (a), (b) e (c) ilustradas na Figura 22.
[00126] Figura 24 ilustra um exemplo de configuração de um fluxo de transporte TS. O fluxo de transporte TS contém um "pacote de PES "PID1: PES1 de vídeo" de um fluxo elementar de vídeo. Informação de SEI de mapeamento de tom e informação de SEI de conversão de HDR são inseridas neste fluxo elementar de vídeo.
[00127] O fluxo de transporte TS ademais contém uma PMT (Tabela de Mapa de Programa) como PSI (Informação Específica de Programa). Esta PSI é informação descrevendo a quais programas fluxos elementares respectivos contidos no fluxo de transporte pertencem. O fluxo de transporte TS ademais contém EIT (Tabela de Informação de Evento) como SI (Informação de Serviço) para administração pela unidade de um evento (programa).
[00128] A PMT inclui uma malha elementar contendo informação relativa a fluxos elementares respectivos. De acordo com este exemplo de configuração, a PMT inclui uma malha elementar de vídeo (Malha de ES de Vídeo). Esta malha elementar de vídeo inclui informação tal como um tipo de fluxo, e um identificador de pacote (PID) associado com o um fluxo elementar de vídeo descrito acima, e ademais um descritor descrevendo informação relativa a este fluxo elementar de vídeo.
[00129] O descritor simples de HDR (HDR_simple_descriptor) ou o descritor completo de HDR (HDR_full_descriptor) está disposto como um subordinado da malha elementar de vídeo (Malha de ES de Vídeo) da PMT. Como discutido acima, estes descritores indicam que a informação de SEI de mapeamento de tom e a informação de SEI de conversão de HDR foram inseridas no fluxo de vídeo. Além disso, um descritor de curva de mapeamento de nível (level_mapping_curve_descriptor) está disposto como um subordinado da malha elementar de vídeo (Malha de ES de Vídeo) da PMT.
"Exemplo de Configuração de Dispositivo de recepção"
[00130] Figura 25 é um exemplo de configuração do dispositivo de recepção 200. O dispositivo de recepção 200 inclui uma unidade de controle 201, uma unidade de recepção 202, um decodificador de sistema 203, um decodificador de vídeo 204, uma unidade de processamento de HDR 205, uma unidade de conversão de espaço de cor 206 e uma unidade de exibição 207. A unidade de controle 201 inclui uma CPU (Unidade de Processamento Central), e controla as operações de unidades respectivas do dispositivo de recepção 200 sob um programa de controle armazenado em um armazenamento predeterminado.
[00131] A unidade de recepção 202 recebe um fluxo de transporte TS transmitido do dispositivo de transmissão 100 enquanto levado em ondas de radiodifusão. O decodificador de sistema 203 extrai um fluxo de vídeo (fluxo elementar) deste fluxo de transporte TS. O decodificador de sistema 203 ademais extrai o descritor simples de HDR precedente (HDR_simple_descriptor) ou descritor completo de HDR (HDR_full_descriptor) deste fluxo de transporte TS, e transmite o descritor extraído para a unidade de controle 201.
[00132] A unidade de controle 201 é capaz de reconhecer se informação de SEI de mapeamento de tom e informação de SEI de conversão de HDR foram ou não inseridas no fluxo de vídeo baseado no descritor. Ao reconhecer que a informação de SEI está presente, a unidade de controle 203 é permitida controlar o decodificador de vídeo 204 de modo que o decodificador de vídeo 204 adquira positivamente a informação de SEI, por exemplo.
[00133] O decodificador de sistema 203 extrai um descritor de curva de mapeamento de nível (level_mapping_curve_descriptor) deste fluxo de transporte TS, e transmite o descritor extraído para a unidade de controle 201. A unidade de controle 201 é capaz de controlar, baseada em uma tabela de uma curva de mapeamento (curva de mapeamento) contida neste descritor, um processo de conversão executado pela unidade de processamento de HDR 205 usando informação de curva de conversão.
[00134] O decodificador de vídeo 204 adquire dados de vídeo de banda base (dados de vídeo de transmissão) executando um processo de decodificação para o fluxo de vídeo extraído pelo decodificador de sistema 203. O decodificador de vídeo 204 ademais extrai uma mensagem de SEI inserida no fluxo de vídeo, e transmite a mensagem de SEI extraída para a unidade de controle 201. Esta mensagem de SEI contém uma mensagem de SEI de informação de mapeamento de tom (mensagem de SEI de informação de mapeamento de tom) e uma mensagem de SEI de conversão de HDR (mensagem de SEI de conversão de HDR). A unidade de controle 201 controla o processo de decodificação e um processo de exibição baseados na informação de SEI.
[00135] A unidade de processamento de HDR 205 converte uma gama de nível de lado de alto nível dos dados de vídeo obtidos pelo decodificador de vídeo 204 (dados de vídeo de transmissão) baseado em informação auxiliar de modo que o nível máximo dos dados de vídeo se torne um nível predeterminado. Neste caso, a unidade de processamento de HDR 205 executa processamento correspondendo aos dados de vídeo de transmissão (a), (b) e (c), como discutido acima (veja Figuras 6, 7 e 9).
[00136] A unidade de processamento de HDR 205 será detalhada mais tarde.
[00137] A unidade de conversão de espaço de cor 206 converte o espaço de cor de YUV dos dados de vídeo obtidos pela unidade de processamento de HDR 205 no espaço de cor de RGB. A unidade de vídeo 207 exibe uma imagem baseada em dados de vídeo depois da conversão de espaço de cor.
[Exemplo de Configuração de Unidade de Processamento de HDR ]
[00138] Figura 26 ilustra um exemplo de configuração da unidade de processamento de HDR 205. A unidade de processamento de HDR 205 inclui uma unidade de processamento de corte 251, uma unidade de processamento de marcação 252 e uma unidade de processamento de mapeamento de gama 253. No caso dos dados de vídeo de transmissão (a) (veja Figura 6), os dados de vídeo de transmissão (dados decodificados de pixel) são entrados à unidade de processamento de corte 251, onde um processo usando informação de filtro é executado.
[00139] No caso dos dados de vídeo de transmissão (b) (veja Figura 7), os dados de vídeo de transmissão (dados decodificados de pixel) são entrados à unidade de processamento de corte 251 quando V_th (threshold_clipping_level) = V_100. Na unidade de processamento de corte 251, um processo usando informação de filtro é executado.
[00140] Relativo a estes dados de vídeo de transmissão (b) (veja Figura 7), tanto o processo usando informação de filtro ou um processo usando informação de curva de conversão é executável quando V_th (threshold_clipping_level) < V_100. Quando o processo usando a informação de filtro é executado, os dados de vídeo de transmissão (dados de pixel decodificados) são entrados à unidade de processamento de corte 251. Quando o processo usando a informação de curva de conversão é executado, os dados de vídeo de transmissão (dados de pixel decodificados) são entrados à unidade de processamento de mapeamento de gama 253.
[00141] No caso dos dados de vídeo de transmissão (c) (veja Figura 9), os dados de vídeo de transmissão (dados decodificados de pixel) são entrados à unidade de processamento de mapeamento de gama 253, onde um processo usando informação de curva de conversão é executado.
[00142] Inicialmente discutido é o caso de execução do processo usando a informação de filtro. A unidade de processamento de corte 251 extrai, como um objetivo para um processo de re-mapeamento, dados de pixel a níveis iguais a ou mais altos que um nível de um nível de corte de limite (Threshold_clipping_level) de dados de pixel constituindo os dados de vídeo de transmissão, usando este nível de corte de limite. No caso dos dados de vídeo de transmissão (a), o nível de corte de limite (Threshold_clipping_level) se torna V_100.
[00143] Por exemplo, é assumido que a Figura 27(a) mostra uma parte de dados de pixel constituindo dados de vídeo de transmissão, onde só dados de pixel indicados em branco correspondem a dados de pixel a níveis iguais a ou mais altos que o nível de corte de limite. Como ilustrado na Figura 27(b), a unidade de processamento de corte 251 extrai dados de pixel indicados como uma parte branca e correspondendo a um objetivo do processo de re- mapeamento. Neste caso, a unidade de processamento de HDR 205 produz dados de pixel não correspondendo ao objetivo do processo de re- mapeamento sem mudar valores destes dados.
[00144] A unidade de processamento de marcação 252 executa separação de nível para cada dados de pixel correspondendo ao objetivo do processo de re-mapeamento executando operação de filtragem de tipo de filtro indicada por um tipo de operador (Operator_type), enquanto usando dados de pixel ao redor dos dados de pixel correspondentes igualmente. Figura 27(c) ilustra um estado de separação de nível dos dados de pixel respectivos correspondendo ao objetivo do processo de re-mapeamento. Figura 27(d) ilustra três estágios de separação nível, isto é, (1) "nível mais alto", (2) "2° nível mais alto" e (3) "3° nível mais alto". Enquanto os estágios de separação de nível são constituídos aqui por três estágios para compreensão fácil, um número maior de fases é estabelecido em uma situação real.
[00145] A unidade de processamento de mapeamento de gama 253 mapeia os valores dos dados de pixel respectivos em valores correspondendo aos estágios respectivos de separação de nível, e produz os resultados. A unidade de processamento de mapeamento de gama 253 mapeia os valores usando um percentual máximo de gama (range_max_percent), isto é, o valor N e uma gama dinâmica de luminância de monitor (Gama dinâmica de luminância de monitor).
[00146] Figura 28 ilustra um exemplo de mapeamento de gama. De acordo com este exemplo mostrado na figura, o percentual máximo de gama (range_max_percent) é "4", enquanto a gama dinâmica de luminância de monitor (gama dinâmica de luminância de monitor) é 400%. (1) Os dados de pixel de "nível mais alto" são mapeados a um tal valor que a porcentagem de luminância de saída (porcentagem de luminância de saída) correspondendo à luminância de saída da unidade de exibição 207 se torna 400%. (2) Os dados de pixel de "2° nível mais alto" são mapeados a um tal valor que a porcentagem de luminância de saída se torna 300%. (3) Os dados de pixel de "3° nível mais alto" são mapeados a um tal valor que a porcentagem de luminância de saída se torna 200%.
[00147] Figura 29 ilustra outro exemplo de mapeamento de gama. É assumido que a unidade de processamento de marcação 252 separa exemplos respectivos do "Caso 1" a Caso 4" em dois estágios de (1) "nível mais alto" e (2) "2° nível mais alto" para entendimento fácil da explicação.
[00148] De acordo com o exemplo "Caso 1" mostrado na figura, o percentual máximo de gama é "8", enquanto a gama dinâmica de luminância de monitor é "800%". Os dados de pixel de (1) "nível mais alto" são mapeados a um tal valor que a porcentagem de luminância de saída se torna 800%. Os dados de pixel de (2) "2° nível mais alto" são mapeados a um tal valor que a porcentagem de luminância de saída se torna 400%.
[00149] De acordo com o exemplo "Caso 2" mostrado na figura, o percentual máximo de gama é "4", enquanto a gama dinâmica de luminância de monitor é 800%. Os dados de pixel de (1) "nível mais alto" são mapeados a um tal valor que a porcentagem de luminância de saída se torna 400%. Os dados de pixel de (2) "2° nível mais alto" são mapeados a um tal valor que a porcentagem de luminância de saída se torna 200%.
[00150] No caso deste exemplo, a gama dinâmica dos dados de vídeo se estende até 400%. Por conseguinte, o máximo da porcentagem de luminância de saída é assim selecionado de modo a corresponder a 400% da gama dinâmica dos dados de vídeo até mesmo quando a gama dinâmica da luminância de monitor se estende até 800%. Como resultado, brilho desnecessário e artificialidade da parte de alta luminância são redutíveis.
[00151] De acordo com o exemplo "Caso 3" mostrado na figura, a percentagem máxima de gama é "8", enquanto a gama dinâmica de luminância de monitor é 400%. Os dados de pixel de (1) "nível mais alto" são mapeados a um tal valor que a porcentagem de luminância de saída se torna 400%. Os dados de pixel de (2) "2° nível mais alto" são mapeados a um tal valor que a porcentagem de luminância de saída se torna 200%.
[00152] No caso deste exemplo, a gama dinâmica da luminância de monitor se estende até 400%. Por conseguinte, o máximo da porcentagem de luminância de saída é assim selecionado de modo a corresponder a 400% da gama dinâmica dos dados de vídeo até mesmo quando a gama dinâmica da luminância de monitor se estende até 400%. Como resultado, dados vídeo para exibição coincidindo com a gama dinâmica da luminância de monitor são alcançáveis, portanto um estado explodido no lado de alta luminância, isto é, denominado estado de destaques explodido é evitável.
[00153] De acordo com o exemplo "Caso 4", o percentual máximo de gama é "8", enquanto a gama dinâmica de luminância de monitor é 100%. Os dados de pixel de (1) "nível mais alto" são mapeados a um tal valor que a porcentagem de luminância de saída se torna 100%. Os dados de pixel de (2) "2° nível mais alto" são mapeados a um tal valor que a porcentagem de luminância de saída se torna mais baixa que 100%.
[00154] Discutido a seguir é o caso de execução do processo usando informação de curva de conversão. A unidade de processamento de mapeamento de gama 253 mapeia valores de dados de pixel respectivos em uma gama de nível visada de conversão de V_th a V_100*N contido em dados de vídeo de transmissão com referência a uma tabela de uma curva de mapeamento (curva de mapeamento), e produz os valores mapeados como dados de saída. A curva de conversão usada neste caso é uma curva de conversão tendo um percentual máximo de gama (range_max_percent), isto é, o nível máximo depois de conversão determinado usando o valor N e a gama dinâmica de luminância de monitor (Gama dinâmica de luminância de monitor).
[00155] O nível máximo depois de conversão é determinado de um modo semelhante ao modo quando a informação de filtro é usada como discutido acima (veja Figura 29). No caso do percentual máximo de gama fixado a "8", e a gama dinâmica de luminância de monitor fixada a "800%", por exemplo, o nível máximo a ser determinado é um tal valor que a porcentagem de luminância de saída se torna 800%. No caso do percentual máximo de gama fixado a "4", e a gama dinâmica de luminância de monitor fixada a "800%", por exemplo, o nível máximo a ser determinado é um tal valor que a porcentagem de luminância de saída se torna 400%.
[00156] Como para dados de pixel fora da gama de nível visada de conversão nos dados de vídeo de transmissão, valores dos dados de pixel respectivos fora da gama de nível visada de conversão são usados como saída da unidade de processamento de mapeamento de gama 253 sem uma mudança e, portanto, usados como saída da unidade de processamento de HDR 205.
[00157] Figura 30 ilustra um exemplo (Caso 5) de mapeamento de gama. De acordo com este exemplo mostrado na figura, o percentual máximo de gama (range_max_percent) é "4", enquanto a gama dinâmica de luminância de monitor (gama dinâmica de luminância de monitor) é 200%. Neste caso, o nível máximo a ser determinado é um tal valor que a porcentagem de luminância de saída se torna 200%. De acordo com este exemplo, o nível máximo dos dados de vídeo de transmissão "960" é convertido a um nível "480".
[00158] A unidade de processamento de mapeamento de gama 253 usa informação sobre a gama dinâmica de luminância de monitor (gama dinâmica de luminância de monitor). Quando o dispositivo de recepção 200 é um conversor de TV (STB), esta gama dinâmica de luminância de monitor é permitida ser determinada baseada em informação obtida de EDID no lado de monitor por HDMI. O "Range_max_percent", e elementos respectivos da mensagem de SEI e o descritor são permitidos serem compartilhados entre o conversor de TV e o monitor quando estes elementos estão definidos em Quadro de Informação Específica de Vendedor. Neste contexto, HDMI é uma marca registrada.
[00159] A operação do dispositivo de recepção 200 ilustrado na Figura 25 é descrita brevemente agora. A unidade de recepção 202 recebe um fluxo de transporte TS transmitido do dispositivo de transmissão 100 enquanto levado em ondas de radiodifusão. Este fluxo de transporte TS é provido ao decodificador de sistema 203. O decodificador de sistema 203 extrai um fluxo de vídeo (fluxo elementar) deste fluxo de transporte TS. O decodificador de sistema 203 ademais extrai um descritor simples de HDR (HDR_simple_descriptor) ou um descritor completo de HDR (HDR_full_descriptor) deste fluxo de transporte TS, e transmite o descritor extraído para a unidade de controle 201.
[00160] A unidade de controle 201 reconhece se informação de SEI de mapeamento de tom e informação de SEI de conversão de HDR foram ou não inseridas no fluxo de vídeo baseado neste descritor. Ao reconhecer que a informação de SEI está presente, a unidade de controle 203 é habilitada controlar o decodificador de vídeo 204 de modo que o decodificador de vídeo 204 adquira positivamente a informação de SEI, por exemplo.
[00161] O fluxo de vídeo extraído pelo decodificador de sistema 204 é provido ao decodificador de vídeo 204. O decodificador de vídeo 204 executa um processo de decodificação para o fluxo de vídeo para gerar dados de vídeo de banda base. O decodificador de vídeo 204 ademais extrai a mensagem de SEI inserida neste fluxo de vídeo, e transmite a mensagem de SEI extraída para a unidade de controle 201.
[00162] Esta mensagem de SEI contém uma mensagem de SEI de informação de mapeamento de tom (Mensagem de SEI de informação de mapeamento de tom) e uma mensagem de SEI de conversão de HDR (Mensagem de SEI de conversão de HDR). A unidade de controle 201 controla o processo de decodificação e um processo de exibição baseados na informação de SEI.
[00163] Os dados de vídeo obtidos pelo decodificador de vídeo 204 (dados de vídeo de transmissão) são providos à unidade de processamento de HDR 205. A unidade de processamento de HDR 205 converte a gama de nível de lado de alto nível dos dados de vídeo de transmissão de modo que o nível máximo da transmissão de dados vídeo se torne um nível predeterminado baseado em informação auxiliar.
[00164] O espaço de cor de YUV dos dados de vídeo obtidos pela unidade de processamento de HDR 206 é convertido no espaço de cor de RGB pela unidade de conversão de espaço de cor 206. Os dados de vídeo depois da conversão de espaço de cor são providos à unidade de vídeo 207. A unidade de vídeo 207 exibe uma imagem correspondendo à dados de vídeo de recepção com uma gama dinâmica de luminância dos dados de vídeo transmitidos, e ademais com uma gama dinâmica de luminância conforme a gama dinâmica de luminância do monitor.
[00165] Como descrito acima, o dispositivo de transmissão 100 no sistema de transmissão e recepção 10 ilustrado na Figura 1 transmite dados de vídeo de transmissão obtidos aplicando uma curva de gama a dados de vídeo de entrada tendo uma gama de nível de 0% a 100%*N, junto com transmissão de informação auxiliar usada para converter níveis de alta luminância no lado de recepção. Por conseguinte, o lado de recepção é capaz de converter níveis de alta luminância dos dados de vídeo de transmissão baseado nesta informação auxiliar, por exemplo, portanto o lado de recepção é capaz de realizar exibição com uma gama dinâmica de luminância apropriada.
[00166] Além disso, o sistema de transmissão e recepção 10 ilustrado na Figura 1 insere, em uma camada de um fluxo de transporte TS transmitido do dispositivo de transmissão 100 ao dispositivo de recepção 200, informação de identificação indicando que informação auxiliar foi inserida em uma camada de um fluxo de vídeo. Por conseguinte, inserção da informação auxiliar no fluxo de vídeo é reconhecível sem a necessidade de decodificar o fluxo de vídeo, portanto extração apropriada da informação auxiliar do fluxo de vídeo é realizável.
<2. Exemplo Modificado > [Aplicação a Sistema de Distribuição de Fluxo Base de MPEG-DASH]
[00167] Discutido na modalidade precedente foi um recipiente constituído por um fluxo de transporte (MPEG-2 TS). Porém, a tecnologia presente é semelhantemente aplicável a um sistema configurado para realizar distribuição a um terminal receptor usando uma rede tal como a Internet. No caso de distribuição pela Internet, MP4 ou outros recipientes de formato são usados frequentemente para distribuição.
[00168] Figura 31 ilustra um exemplo de configuração de um sistema de distribuição de fluxo 30. Este sistema de distribuição de fluxo 30 é um sistema de distribuição de fluxo base de MPEG-DASH. De acordo com a configuração do sistema de distribuição de fluxo 30, N peças de clientes de IPTV 33-1, 33-2, e até 33-N estão conectados com um gerador de fluxo de segmento de DASH 31 e um servidor de DASH MPD 32 por CDN (Rede de Entrega de Conteúdo) 34.
[00169] O gerador de fluxo de segmento de DASH 31 gera segmentos de fluxo de especificação de DASH (em seguida chamado "segmentos de DASH") baseado em dados de mídia de conteúdo predeterminado (tais como dados de vídeo, dados de áudio, e dados de subtítulo), e transmite os segmentos em resposta a um pedido de HTTP de um cliente de IPTV. O gerador de fluxo de segmento de DASH 31 pode ser um servidor dedicado para transmissão em fluxo, ou um servidor funcionando como um servidor da web (Web) igualmente.
[00170] O gerador de fluxo de segmento de DASH 31 ademais transmite segmentos de um fluxo predeterminado aos clientes de IPTV 33 como uma fonte de pedido pela CDN 34e em resposta a um pedido para os segmentos do fluxo correspondente transmitido dos clientes de IPTV 33 (331, 33-2, e até 33-N) por uma CDN 14. Neste caso, os clientes de IPTV 33 selecionam e pedem um fluxo tendo uma taxa ótima conforme o estado do ambiente de rede onde cada cliente está presente, com referência a um valor de uma taxa descrita em um arquivo de MPD (Descrição de Apresentação de Mídia).
[00171] O servidor de DASH MPD 32 é um servidor que gera um arquivo de MPD usado para adquirir segmentos de DASH gerados pelo gerador de fluxo de segmento de DASH 31. O arquivo de MPD é gerado baseado em metadados de conteúdo recebidos de um servidor de administração de conteúdo (não mostrado na Figura 31), e um endereço (url) dos segmentos gerados pelo gerador de fluxo de segmento de DASH 31.
[00172] De acordo com o formato de MPD, atributos respectivos são descritos utilizando elementos chamados representações (Representações) para cada um de fluxos tais como fluxos de vídeo e fluxos de áudio. Por exemplo, uma taxa é descrita em um arquivo de MPD para cada uma de representações separadas em correspondência com uma pluralidade de fluxos de dados de vídeo tendo taxas diferentes. Os clientes de IPTV 33 são capazes de selecionar um fluxo ótimo conforme os ambientes de rede respectivos onde os clientes de IPTV 33 estão presentes, com referência aos valores das taxas como discutido acima.
[00173] Figura 32 ilustra um exemplo de relações entre estruturas respectivas dispostas no arquivo de MPD precedente de uma maneira hierárquica. Como ilustrado em (a) da Figura 32, existe uma pluralidade de períodos (Períodos) secionados a intervalos de tempo em uma apresentação de mídia (Apresentação de Mídia) como o arquivo de MPD inteiro. Por exemplo, um período inicial começa de 0 segundo, enquanto um período subsequente começa de 100 segundos.
[00174] Como ilustrado em (b) da Figura 32, um período contém uma pluralidade de representações (Representações). A pluralidade de representações inclui grupos de representação agrupados conforme conjuntos de adaptação (AdaptationSets) descritos acima, e associados com fluxos de dados de vídeo tendo atributos de fluxo diferentes, tais como taxas, e contendo conteúdos idênticos.
[00175] Como ilustrado em (c) da Figura 32, uma representação inclui uma informação de segmento (SegmentInfo). Como ilustrado em (d) da Figura 32, esta informação de segmento inclui um segmento de iniciação (Segmento de Iniciação), e uma pluralidade de segmentos de mídia (Segmentos de Mídia), cada um dos quais descreve informação sobre um segmento correspondente (Segmento) dividido de um período. Cada um dos segmentos de mídia inclui informação sobre um endereço (url) e similar para adquirir de fato dados de segmento de vídeo e áudio e outros dados de segmento.
[00176] Um fluxo é comutável livremente entre uma pluralidade de representações agrupadas conforme conjuntos de adaptação. Por conseguinte, um fluxo tendo uma taxa ótima é selecionável conforme o ambiente de rede onde cada um dos clientes de IPTV está presente, portanto distribuição de filme contínua é realizável.
[00177] Figura 33(a) ilustra uma estrutura de segmento. Segmentos são divisíveis em três tipos baseado em diferenças de elementos constituintes. Uma primeira estrutura inclui uma pluralidade de "Segmentos de Mídia" para armazenar dados de filme fragmentados, além de informação de iniciação de codec "Segmento de Iniciação". Uma segunda estrutura inclui só um "Segmento de Mídia". Uma terceira estrutura inclui um "Segmento de Mídia" integrado com a informação de iniciação de codec "Segmento de Iniciação". Figuras 33(b) e 33(c) ilustram exemplos do formato de dados de segmentos correspondendo a ISOBMFF e MPEG-2TS quando a estrutura incluindo só um "Segmento de Mídia" é usada.
[00178] Quando a tecnologia presente é aplicada ao sistema de distribuição de fluxo base de MPEG-DASH 30, um fluxo de vídeo no qual uma mensagem de SEI de informação de mapeamento de tom (mensagem de SEI de informação de mapeamento de tom) e uma mensagem de SEI de conversão de HDR (mensagem de SEI de conversão de HDR) foram inseridas está disposto na posição de "Segmento de Mídia". Além disso, um descritor simples de HDR (HDR_simple_descriptor) ou um descritor completo de HDR (HDR_full_descriptor), e um descritor de curva de mapeamento nível de (level_mapping_curve_descriptor) estão dispostos na posição de "Segmento de Iniciação".
[00179] Figura 34 ilustra esquematicamente informação dentro de um fluxo de transporte, qual informação corresponde à informação contida em "Segmento de Iniciação" e à informação contida em "Segmento de Mídia" no formato de dados de segmentos correspondendo a MPEG-2TS (veja Figura 33(c)). Como descrito acima, os clientes de IPTV 33 (33-1, 33-2 e até 33-N) do sistema de distribuição de fluxo base de MPEG-DASH 30 adquirem "Segmento de Iniciação" e "Segmento de Mídia" baseado em informação sobre um endereço (url) presente no arquivo de MPD, e exibe uma imagem.
[00180] De acordo com o sistema de distribuição de fluxo 30 ilustrado na Figura 31, a mensagem de SEI contendo informação de curva de gama e informação adicional para re-mapeamento é inserida semelhantemente em uma camada de um fluxo de vídeo. Além disso, um descritor contendo informação de identificação indicando a presença ou ausência de inserção da mensagem de SEI é inserido em uma camada de sistema (camada de recipiente). Por conseguinte, os clientes de IPTV 33 são capazes de executar processamento de uma maneira semelhante à maneira do dispositivo de recepção 200 do sistema de transmissão e recepção 10 ilustrado na Figura 1.
[Aplicação a Fluxo de Transmissão de Estrutura de MMT]
[00181] Em recentes anos, estrutura de MMT (Transporte de Mídia de MPEG) tem chamado a atenção como uma estrutura de transporte para radiodifusão de próxima geração. Esta estrutura de MMT é caracterizada principalmente por coexistência com uma rede de IP. A tecnologia presente também é aplicável a um sistema de transmissão e recepção que opera este fluxo de transmissão de estrutura de MMT.
[00182] Figura 35 ilustra um exemplo de configuração de um sistema de transmissão e recepção 40 que opera o fluxo de transmissão de estrutura de MMT. O sistema de transmissão e recepção 40 inclui um dispositivo de transmissão de pacote de transporte 300, e um dispositivo de recepção de pacote de transporte 400.
[00183] O dispositivo de transmissão 300 gera um pacote de transporte tendo estrutura de MMT (veja ISO/IEC CD 23008-1), isto é, um fluxo de transmissão contendo um pacote de MMT, e transmite o fluxo de transmissão gerado para o lado de recepção por um trajeto de transmissão de RF ou um trajeto de transmissão de rede de comunicação. Este fluxo de transmissão é um fluxo de multiplex que inclui um primeiro pacote de MMT contendo mídia de transmissão de vídeo e áudio como uma carga útil, e um segundo pacote de MMT contendo informação relativa à mídia de transmissão como uma carga útil, de uma maneira compartilhada em tempo e pelo menos em um tamanho de um pacote fragmentado.
[00184] O dispositivo de recepção 400 recebe o fluxo de transmissão precedente do lado de transmissão por um trajeto de transmissão de RF ou um trajeto de transmissão de rede de comunicação. O dispositivo de recepção 400 processa mídia de transmissão extraída do fluxo de transmissão usando um tempo de decodificação e um tempo de exibição adquiridos baseado em informação de tempo, de modo a exibir uma imagem e produzir uma voz.
[00185] Figura 36 ilustra uma configuração de um pacote de MMT em uma forma de árvore. O pacote de MMT é constituído por um cabeçalho de pacote de MMT (Cabeçalho de Pacote de MMT), um cabeçalho de carga útil de MMT (Cabeçalho de Carga útil de MMT), e uma carga útil de MMT (Carga útil de MMT). A carga útil de MMT contém uma mensagem (Mensagem), uma MPU (Unidade de Processamento de Mídia), um símbolo de reparo de FEC (Símbolo de Reparo de FEC), e outros. Sinalização destes é executada baseada em um tipo de carga útil (payload_type) contida no cabeçalho de carga útil de MMT.
[00186] Vários tipos de conteúdos de mensagem são inseridos na mensagem em uma forma de tabela. A MPU é fragmentada em subdivisões como MFUs (Unidades de Fragmento de MMT) em alguns casos. Neste caso, um cabeçalho de MFU (Cabeçalho de MFU) é adicionado ao cabeçote de cada MFU. A carga útil de MMT contém uma MPU associada com dados de mídia de vídeo e áudio, e uma MPU associada com metadados. O pacote de MMT contendo as MPUs respectivas é identificável baseado em um ID de pacote (Packet_ID) existindo no cabeçalho de pacote de MMT.
[00187] Quando a tecnologia presente é aplicada ao sistema de transmissão e recepção 40 que opera o fluxo de transmissão de estrutura de MMT, disposto como uma carga útil de MMT está um tal fluxo de vídeo que contém inserção de mensagem de SEI de informação de mapeamento de tom (mensagem de SEI de informação de mapeamento de tom) e uma mensagem de SEI de conversão de HDR (mensagem de SEI de conversão de HDR). Além disso, definida é uma tal mensagem que tem uma tabela de descrição de HDR (tabela de descrição de HDR) contendo conteúdos semelhantes aos conteúdos do descritor simples de HDR precedente (HDR_simple_descriptor) ou descritor completo de HDR (HDR_full_descriptor) e um descritor de curva de mapeamento de nível (level_mapping_curve_descriptor), por exemplo.
[00188] Figura 37 ilustra um exemplo de estrutura (Sintaxe) de uma mensagem de descrição de HDR (Mensagem de descrição de HDR) tendo uma tabela de descrição simples de HDR. Um campo de 16 bits de "message_id" indica que a estrutura é uma mensagem de descrição de HDR. Um arquivo de 8 bits de "versão" indica uma versão desta mensagem. Um campo de 16 bits de "comprimento" indica um comprimento (tamanho) desta mensagem, mostrando uma contagem de byte da parte subsequente. Esta mensagem de descrição de HDR contém uma tabela de descrição simples de HDR (tabela de descrição simples de HDR).
[00189] Figura 38 ilustra um exemplo de estrutura (Sintaxe) de uma tabela de descrição simples de HDR. Um campo de 8 bits de "table_id" indica que a estrutura é uma tabela de descrição simples de HDR. Um campo de 8 bits de "versão" indica uma versão desta tabela. Neste caso, "table_id" e "versão" estão alocadas exclusivamente no sistema. Um campo de 16 bits de "comprimento" indica um todo (tamanho) desta tabela. Um campo de 16 bits de "packet_id" é idêntico a "packet_id" contido no cabeçalho de pacote de MMT. Esta estrutura permite associação de nível de recurso.
[00190] Um campo de 1 bit "tone_mapping_SEI_existed" é informação de bandeira indicando se ou não informação de SEI de mapeamento de tom (informação de curva de gama) está presente em uma camada de vídeo (camada de fluxo de vídeo) semelhantemente ao descritor simples de HDR (HDR_simple_descriptor) ilustrado na Figura 18. Neste caso, "1" indica que a informação de SEI de mapeamento de tom está presente, enquanto "0" indica que a informação de SEI de mapeamento de tom está ausente.
[00191] Além disso, um campo de 1 bit de "HDR_conversion_SEI_existed" é informação de bandeira que indica se ou não informação de SEI de conversão de HDR (informação adicional) está presente na camada de vídeo (camada de fluxo de vídeo) semelhantemente ao descritor simples de HDR (HDR_simple_descriptor) ilustrado na Figura 18. Neste caso, "1" indica que a informação de SEI de conversão de HDR está presente, enquanto "0" indica que a informação de SEI de conversão de HDR está ausente.
[00192] Figura 39 ilustra outro exemplo de estrutura (Sintaxe) de uma mensagem de descrição de HDR (Mensagem de descrição de HDR) tendo uma tabela de descrição de HDR. Um campo de 16 bits de "message_id" indica que a estrutura é uma mensagem de descrição de HDR. Um arquivo de 8 bits de "versão" indica uma versão desta mensagem. Um campo de 16 bits de "comprimento" indica um comprimento (tamanho) desta mensagem, mostrando uma contagem de byte da parte subsequente. Esta mensagem de descrição de HDR contém uma tabela de descrição completa de HDR (tabela de descrição completa de HDR).
[00193] Figura 40 ilustra um exemplo de estrutura (Sintaxe) de uma tabela de descrição completa de HDR. Um campo de 8 bits de "table_id" indica que a estrutura é uma tabela de descrição simples de HDR. Um campo de 8 bits de "versão" indica uma versão desta tabela. Neste caso, "table_id" e "versão" estão alocadas exclusivamente no sistema. Um campo de 16 bits de "comprimento" indica um todo (tamanho) desta tabela. Um campo de 16 bits de "packet_id" é idêntico a "packet_id" contido no cabeçalho de pacote de MMT. Esta estrutura permite associação de nível de recurso.
[00194] Enquanto não detalhado aqui, esta tabela de descrição completa de HDR contém "tone_mapping_SEI_existed" e "HDR_conversion_SEI_existed", e informação adicional semelhante à informação correspondente do descritor completo de HDR (HDR_full_descriptor) ilustrado na Figura 20.
[00195] Figura 41 é uma vista ilustrando um exemplo de configuração de uma mensagem de descrição de HDR tendo uma tabela de mapeamento de curva de nível. Um campo de 16 bits de "message_id" indica que a estrutura é uma mensagem de descrição de HDR. Um arquivo de 8 bits de "versão" indica uma versão desta mensagem. Um campo de 16 bits de "comprimento" indica um comprimento (tamanho) desta mensagem, mostrando uma contagem de byte da parte subsequente. Esta mensagem de descrição de HDR contém uma tabela de curva de mapeamento de nível (Level_mapping_curve_table).
[00196] Figura 42 ilustra um exemplo de estrutura (Sintaxe) de uma tabela de curva de mapeamento de nível. Um campo de 8 bits de "table_id" indica que a estrutura é uma tabela de curva de mapeamento de nível. Um campo de 8 bits de "versão" indica uma versão desta tabela. Neste caso, "table_id" e "versão" estão alocadas exclusivamente no sistema. Um campo de 16 bits de "comprimento" indica um todo (tamanho) desta tabela. Um campo de 16 bits de "packet_id" é idêntico a "packet_id" contido no cabeçalho de pacote de MMT. Esta estrutura permite associação de nível de recurso.
[00197] Enquanto não detalhado aqui, informação de "mapping_curve_table_id", "número de níveis N", "número de tipos de curva C", e "curve_data", estão contidos semelhantemente ao descritor de curva de mapeamento de nível (level_mapping_curve_descriptor) ilustrado na Figura 21.
[00198] Como descrito acima, os clientes de IPTV 33 (33-1, 33-2 e até 33-N) do sistema de distribuição de fluxo base de MPEG-DASH 30 adquire "Segmento de Iniciação" e "Segmento de Mídia" baseado em informação sobre um endereço (url) presente no arquivo de MPD, e exibe uma imagem. Neste momento, processamento usando a mensagem de SEI é semelhantemente realizável ao dispositivo de recepção 200 do sistema de transmissão e recepção 10 ilustrado na Figura 1.
[00199] De acordo com o sistema de transmissão e recepção 40 ilustrado na Figura 35, a mensagem de SEI contendo informação de curva de gama e informação adicional para re-mapeamento é inserida semelhantemente na camada do fluxo de vídeo. Além disso, a tabela de descrição contendo informação de identificação indicando a presença ou ausência de inserção da mensagem de SEI é inserida na camada de sistema (camada de recipiente). Por conseguinte, processamento semelhante ao processamento do dispositivo de recepção 200 do sistema de transmissão e recepção 10 ilustrado na Figura 1 é realizável pelo dispositivo de recepção de pacote de transporte 400.
[00200] A tecnologia presente pode ter as configurações seguintes. (1) Um dispositivo de transmissão incluindo: uma unidade de processamento que aplica uma curva de gama a dados de vídeo de entrada tendo uma gama de nível de 0% a 100%*N (N: um número maior que 1) para obter dados de vídeo de transmissão; e uma unidade de transmissão que transmite os dados de vídeo de transmissão junto com informação auxiliar usada para converter um nível de alta luminância em um lado de recepção. (2) O dispositivo de transmissão de acordo com (1) notado acima, em que: a unidade de transmissão transmite um recipiente em um formato predeterminado que contém um fluxo de vídeo obtido codificando os dados de vídeo de transmissão, e uma unidade de inserção de informação auxiliar que insere a informação auxiliar em uma camada do fluxo de vídeo e/ou uma camada do recipiente é provida. (3) O dispositivo de transmissão de acordo com (2) notado acima, incluindo uma unidade de inserção de informação de identificação que insere, na camada do recipiente, informação de identificação que indica que a informação auxiliar foi inserida na camada do fluxo de vídeo. (4) O dispositivo de transmissão de acordo com qualquer um de (1) por (3) notado acima, em que a unidade de processamento executa adicionalmente um processo para converter um nível de dados de vídeo de saída obtidos aplicando a curva de gama aos dados de vídeo de entrada, qual nível corresponde a um nível dos dados de vídeo de entrada em uma gama de 100% a 100%*N, em um nível correspondendo a 100% dos dados de vídeo de entrada de modo a obter os dados de vídeo de transmissão. (5) O dispositivo de transmissão de acordo com (4) notado acima, em que a informação auxiliar contém informação sobre um filtro aplicado a dados de pixel dos dados de vídeo de transmissão a um nível correspondendo a 100% dos dados de vídeo de entrada. (6) O dispositivo de transmissão de acordo com reivindicação qualquer um de (1) por (3) notado acima, em que a unidade de processamento executa adicionalmente um processo para converter um nível de dados de vídeo de saída obtidos aplicando a curva de gama aos dados de vídeo de entrada, qual nível corresponde a um nível dos dados de vídeo de entrada em uma gama a partir de um limite igual a ou mais baixo que um nível correspondendo a 100% a 100%*N, em um nível em uma gama a partir do limite para um nível correspondendo a 100% dos dados de vídeo de entrada para obter os dados de vídeo de transmissão. (7) O dispositivo de transmissão de acordo com (6) notado acima, em que a informação auxiliar contém informação sobre um filtro aplicado a dados de pixel dos dados de vídeo de transmissão em uma gama a partir do limite para um nível correspondendo a 100% dos dados de vídeo de entrada. (8) O dispositivo de transmissão de acordo com (6) notado acima, em que a informação auxiliar contém informação sobre uma curva de conversão aplicada a dados de pixel dos dados de vídeo de transmissão em uma gama a partir do limite para um nível correspondendo a 100% dos dados de vídeo de entrada. (9) O dispositivo de transmissão de acordo com qualquer um de (1) por (3) notado acima, em que a unidade de processamento usa dados de vídeo de saída como os dados de vídeo de transmissão sem uma mudança, quais dados de vídeo de saída são obtidos aplicando a curva de gama aos dados de vídeo de entrada. (10) O dispositivo de transmissão de acordo com (9) notado acima, em que a informação auxiliar contém informação sobre uma curva de conversão aplicada a um lado de alto nível dos dados de vídeo de transmissão. (11) Um método de transmissão incluindo: uma etapa de processamento que aplica uma curva de gama a dados de vídeo de entrada tendo uma gama de nível de 0% a 100%*N (N: um número maior que 1) para obter dados de vídeo de transmissão; e uma etapa transmissora que transmite os dados de vídeo de transmissão junto com informação auxiliar usada para converter um nível de alta luminância em um lado de recepção. (12) Um dispositivo de recepção incluindo: uma unidade de recepção que recebe dados de vídeo de transmissão obtidos aplicando uma curva de gama a dados de vídeo de entrada tendo uma gama de nível de 0% a 100%*N (N: um número maior que 1); e uma unidade de processamento que converte uma gama de nível de lado de alto nível dos dados de vídeo de transmissão de modo que um nível máximo se torne um nível predeterminado baseado em informação auxiliar recebida junto com os dados de vídeo de transmissão. (13) O dispositivo de recepção de acordo com (12) notado acima, em que o nível predeterminado é determinado baseado em informação sobre o N e informação sobre uma gama dinâmica de luminância de um monitor contido na informação auxiliar. (14) O dispositivo de recepção de acordo com (12) ou (13) notado acima, em que: os dados de vídeo de transmissão são dados de vídeo obtidos executando adicionalmente um processo para converter um nível de dados de vídeo de saída obtidos aplicando a curva de gama aos dados de vídeo de entrada, qual nível corresponde a um nível dos dados de vídeo de entrada em uma gama de 100% a 100%*N, em um nível correspondendo a 100% dos dados de vídeo de entrada, e a unidade de processamento converte níveis de dados de pixel respectivos correspondendo a 100% dos dados de vídeo de entrada em níveis em uma gama de um nível correspondendo a 100% dos dados de vídeo de entrada para o nível predeterminado aplicando um filtro especificado em informação de filtro contida na informação auxiliar. (15) O dispositivo de recepção de acordo com (12) ou (13) notado acima, em que: os dados vídeo de transmissão são dados de vídeo obtidos executando adicionalmente um processo para converter um nível de saída de dados de vídeo obtidos aplicando a curva de gama aos dados de vídeo de entrada, qual nível corresponde a um nível dos dados de vídeo de entrada em uma gama a partir de um limite igual a ou mais baixo que um nível correspondendo a 100% a 100%*N, em um nível em uma gama a partir do limite para um nível correspondendo a 100% dos dados de vídeo de entrada, e a unidade de processamento converte níveis de dados de pixel respectivos dos dados de vídeo de transmissão em uma gama a partir do limite para um nível correspondendo a 100% dos dados de vídeo de entrada em níveis em uma gama a partir do limite para o nível predeterminado aplicando um filtro especificado em informação de filtro contida na informação auxiliar. (16) O dispositivo de recepção de acordo com (12) ou (13) notado acima, em que: os dados de vídeo de transmissão são dados de vídeo obtidos executando adicionalmente um processo para converter um nível de saída de dados de vídeo obtidos aplicando a curva de gama aos dados de vídeo de entrada, qual nível corresponde a um nível dos dados de vídeo de entrada em uma gama a partir de um limite igual ou mais baixo que um nível correspondendo a 100% a 100%*N, em um nível em uma gama a partir do limite para um nível correspondendo a 100% dos dados de vídeo de entrada, e a unidade de processamento converte níveis de dados de pixel respectivos dos dados de vídeo de transmissão em uma gama a partir do limite para um nível correspondendo a 100% dos dados de vídeo de entrada em níveis em uma gama a partir do limite para o nível predeterminado aplicando informação de curva de conversão contida na informação auxiliar. (17) O dispositivo de recepção de acordo com (12) ou (13) notado acima, em que: os dados de vídeo de transmissão são dados de vídeo de saída sem uma mudança, quais dados de vídeo de saída são obtidos aplicando a curva de gama aos dados de vídeo de entrada, e a unidade de processamento converte níveis de dados de pixel respectivos dos dados de vídeo de transmissão em uma gama a partir de um limite igual a ou mais baixo que um nível correspondendo 100% dos dados de vídeo de entrada para um nível correspondendo a 100%*N dos dados de vídeo de entrada em níveis em uma gama a partir do limite para o nível predeterminado correspondendo a L%*100 (L: um número igual a ou menor que N) dos dados de vídeo de entrada aplicando informação de curva de conversão contida na informação auxiliar. (18) Um método de recepção incluindo: uma etapa receptora que recebe dados de vídeo de transmissão obtidos aplicando uma curva de gama a dados de vídeo de entrada tendo uma gama de nível de 0% a 100%*N (N: um número maior que 1); e uma etapa de processo que converte uma gama de nível de lado de alto nível dos dados de vídeo de transmissão de modo que um nível máximo se torne um nível predeterminado baseado em informação auxiliar recebida junto com os dados de vídeo de transmissão.
[00201] A tecnologia presente é caracterizada principalmente visto que dados vídeo de transmissão obtidos aplicando uma curva de gama a dados de vídeo de entrada com HDR são transmitidos junto com informação auxiliar (informação de filtro e informação de curva de conversão) usada para converter um nível de alta luminância no lado de recepção para realizar exibição com uma gama dinâmica de luminância apropriada no lado de recepção (veja Figura 10). LISTA DE SINAIS DE REFERÊNCIA 10 Sistema de transmissão e recepção 30 Sistema de distribuição de fluxo 31 Gerador de fluxo de segmento de DASH 32 Servidor de MPD DASH 33-1 a 33-N Cliente de IPTV 34 CDN 40 Sistema de transmissão e recepção 100 Dispositivo de transmissão 101 Unidade de controle 102 Câmera 103 Unidade de conversão de espaço de cor 104 Unidade de processamento de gama 105 Codificador de vídeo 106 Codificador de sistema 107 Unidade de transmissão 200 Dispositivo de recepção 201 Unidade de controle 202 Unidade de recepção 203 Decodificador de sistema 204 Decodificador de vídeo 205 Unidade de processamento de HDR 206 Unidade de conversão de espaço de cor 207 Unidade de exibição 251 Unidade de processamento de corte 252 Unidade de processamento de marcação 253 Unidade de processamento de mapeamento de gama 300 Dispositivo de transmissão de pacote de transporte 400 Dispositivo de recepção de pacote de transporte

Claims (22)

1. Dispositivo de transmissão, caracterizado pelo fato de que compreende: uma unidade de processamento que aplica uma curva de gama a dados de vídeo de entrada tendo uma primeira gama de valor de luminância a partir de um valor de luminância baixo a um primeiro valor de luminância alto, respectivamente, de 0% a 100%*N, em que N é um número maior que 1, para obter dados de vídeo de transmissão tendo uma segunda gama de valor de luminância de um valor de luminância baixo a um segundo valor de luminância alto tendo um valor menor do que o primeiro valor de luminância; e uma unidade de transmissão que transmite os dados de vídeo de transmissão junto com informação auxiliar usada para converter os dados de vídeo de transmissão para dados de vídeo convertidos tendo uma terceira gama de valor de luminância de um valor de luminância baixo a um terceiro valor de luminância alto diferente do segundo valor de alta luminância em um lado de recepção, em que a unidade de processamento ainda executa um processo para converter os valores de luminância de dados de vídeo de saída obtidos ao aplicar uma curva de gama aos dados de vídeo de entrada, os valores de luminância estando dentro da gama entre o segundo valor de luminância alto e o primeiro valor de luminância alto, os valores de luminância convertidos tendo o segundo valor de luminância alto para obter os dados de vídeo de transmissão.
2. Dispositivo de transmissão de acordo com a reivindicação 1, caracterizado pelo fato de que: a unidade de transmissão transmite um recipiente em um formato predeterminado que contém um fluxo de vídeo obtido codificando os dados de vídeo de transmissão, e uma unidade de inserção de informação auxiliar que insere a informação auxiliar em uma camada do fluxo de vídeo e/ou uma camada do recipiente é provida.
3. Dispositivo de transmissão de acordo com a reivindicação 2, caracterizado pelo fato de que compreende uma unidade de inserção de informação de identificação que insere, na camada do recipiente, informação de identificação que indica que a informação auxiliar foi inserida na camada do fluxo de vídeo.
4. Dispositivo de transmissão de acordo com a reivindicação 2, caracterizado pelo fato de que a informação auxiliar contém informação sobre um filtro aplicado a valores de luminância dos dados de vídeo de transmissão tendo um segundo valor de luminância.
5. Dispositivo de transmissão de acordo com a reivindicação 1, caracterizado pelo fato de que a unidade de processamento executa adicionalmente um processo para converter valores de luminância de dados de vídeo de saída obtido aplicando a curva de gama aos dados de vídeo de entrada, os valores de luminância estando dentro de uma gama de luminância entre um primeiro valor de luminância mais baixo que o segundo valor de luminância alto, os valores de luminância convertidos estando dentro de uma gama de luminância entre os valores predeterminados e o segundo valor de luminância alto para obter dados de vídeo de transmissão.
6. Dispositivo de transmissão de acordo com a reivindicação 5, caracterizado pelo fato de que a informação auxiliar contém informação sobre um filtro aplicado a valores de luminância dos dados de vídeo de transmissão estando dentro de uma gama entre o primeiro valor predeterminado e o segundo valor de luminância alto.
7. Dispositivo de transmissão de acordo com a reivindicação 5, caracterizado pelo fato de que a informação auxiliar contém informação sobre uma curva de conversão aplicada a dados de pixel dos dados de vídeo de transmissão em uma gama a partir do limite para um nível correspondendo a 100% dos dados de vídeo de entrada.
8. Método de transmissão, caracterizado pelo fato de que compreende: uma etapa de processamento que aplica uma curva de gama a dados de vídeo de entrada tendo uma gama de nível de um valor de luminância baixo a um primeiro valor de luminância alto, de 0% a 100%*N, em que N é um número maior que 1, para obter dados de vídeo de transmissão tendo uma segunda gama de valor de luminância do valor de luminância baixo a um segundo valor de luminância alto tendo um valor menor do que o primeiro valor de luminância; e uma etapa transmissora que transmite a dados de vídeo de transmissão junto com informação auxiliar usada para converter os dados de vídeo de transmissão a dados de vídeo de transmissão tendo uma terceira gama de valor de luminância do valor de luminância baixo a um terceiro valor de luminância alto diferente do segundo valor de luminância alto em um lado de recepção; em que os dados de vídeo de transmissão são dados de vídeo obtidos ao executar um processo para converter valores de luminância de dados de vídeo de saída obtidos ao aplicar a curva de gama aos dados de vídeo de entrada, os valores de luminância estando dentro de uma gama entre o segundo valor de luminância alto e o primeiro valor de luminância alto, os valores de luminância convertidos tendo o segundo valor de luminância alto.
9. Dispositivo de recepção, caracterizado pelo fato de que compreende: uma unidade de recepção que recebe dados de vídeo de transmissão obtidos aplicando uma curva de gama a dados de vídeo de entrada tendo uma primeira gama de luminância a partir de um valor de luminância baixo a um primeiro valor de luminância alto de 0% a 100%*N, em que N é um número maior que 1, os dados de vídeo de transmissão tendo uma segunda gama de valores de luminância a partir do valor de luminância baixo a um segundo valor de luminância alto tendo um valor menor do que o primeiro valor de luminância alto; e uma unidade de processamento que converte valores de luminância dos dados de vídeo de transmissão para aumentar um valor de luminância máximo dos dados de vídeo de transmissão baseado em informação auxiliar recebida junto com os dados de vídeo de transmissão, em que os dados de vídeo de transmissão são dados de vídeo obtidos ao executar um processo para converter valores de luminância de dados de vídeo de saída obtidos ao aplicar a curva de gama aos dados de vídeo de entrada, os valores de luminância estando dentro de uma gama entre o segundo valor de luminância alto e o primeiro valor de luminância alto, os valores de luminância convertidos tendo o segundo valor de luminância alto, e a unidade de processamento converte valores de luminância dos dados de vídeo de transmissão tendo o segundo valor de luminância alto nos valores de luminância em uma gama entre o segundo valor de luminância alto ao aplicar um filtro especificado em informação de filtro contida na informação auxiliar.
10. Dispositivo de recepção de acordo com a reivindicação 9, caracterizado pelo fato de que o valor de luminância máximo é determinado com base em uma gama dinâmica de luminância de um monitor contido na informação auxiliar.
11. Dispositivo de recepção de acordo com a reivindicação 9, caracterizado pelo fato de que: os dados de vídeo de transmissão são dados de vídeo obtidos executando adicionalmente um processo para converter valores de luminância de dados de vídeo de saída obtidos aplicando a curva de gama aos dados de vídeo de entrada, os valores de luminância estando dentro de uma gama entre um primeiro valor predeterminado mais baixo do que o segundo valor de luminância alto e o primeiro valores de luminância alto, os valores de luminância convertidos estando dentro de uma gama entre o primeiro valor predeterminado e o segundo valor de luminância alto, e a unidade de processamento converte valores de luminância dos dados de vídeo de transmissão na gama entre o primeiro valor predeterminado e o segundo valor de luminância alto em valores de luminância em uma gama entre o primeiro valor predeterminado e o terceiro valor de luminância alto diferente do segundo valor de luminância alto aplicando um filtro especificado em informação de filtro contida na informação auxiliar.
12. Dispositivo de recepção de acordo com a reivindicação 9, caracterizado pelo fato de que: os dados vídeo de transmissão são dados de vídeo obtidos executando adicionalmente um processo para converter valores de luminância de dados de vídeo de saída obtidos aplicando a curva de gama aos dados de vídeo de entrada, os valores de luminância estando dentro de uma gama entre um primeiro valor predeterminado menor do que o segundo valor de luminância alto e o primeiro valor de luminância alto, os valores de luminância convertidos estando dentro de uma gama entre o primeiro valor predeterminado e o segundo valor de luminância alto, e a unidade de processamento converte valores de luminância dos dados de vídeo de transmissão na gama entre o primeiro valor predeterminado e o segundo valor de luminância alto em valores de luminância em uma gama entre o primeiro valor predeterminado e o segundo valor de luminância alto aplicando um filtro especificado em informação de filtro contida na informação auxiliar.
13. Método de recepção, caracterizado pelo fato de que compreende: uma etapa receptora que recebe dados de vídeo de transmissão obtidos aplicando uma curva de gama a dados de vídeo de entrada tendo uma primeira gama de valor de luminância de um valor de luminância baixo a um primeiro valor de luminância alto, de 0% a 100%*N, em que N é um número maior que 1, os dados de vídeo de transmissão tendo uma segunda gama de valor de luminância a partir do valor de luminância baixo a um segundo valor de luminância alto tendo um valor menor do que o primeiro valor de luminância alto; e uma etapa de processamento que converte valores de luminância dos dados de vídeo de transmissão para aumentar um valor de luminância máximo dos dados de vídeo de transmissão baseado em informação auxiliar recebida junto com os dados de vídeo de transmissão, em que os dados de vídeo de transmissão são dados obtidos ao executar um processo para converter valores de luminância de dados de vídeo de saída obtidos ao aplicar a curva de gama os dados de vídeo de entrada, os valores de luminância estando dentro de uma gama entre o segundo valor de luminância alto e o primeiro valor de luminância alto, os valores de luminância convertidos tendo o segundo valor de luminância alto, e a conversão inclui converter valores de luminância dos dados de vídeo de transmissão tendo um segundo valor de luminância alto em valores de luminância em uma gama entre o segundo valor de luminância alto e um terceiro valor de luminância alto diferente do segundo valor de luminância alto ao aplicar um filtro especificado em informação de filtro contida na informação auxiliar.
14. Dispositivo de recepção, caracterizado pelo fato de que compreende: uma unidade de recepção que recebe dados de vídeo de transmissão obtidos aplicando uma curva de gama a dados de vídeo de entrada tendo uma gama de nível de 0% a 100%*N; e uma unidade de processamento que converte uma gama de nível de lado de alto nível dos dados de vídeo de transmissão de modo que um nível máximo se torne um nível predeterminado baseado em informação auxiliar recebida junto com os dados de vídeo de transmissão; e uma unidade de exibição tendo uma gama dinâmica de luminância que é determinável com base no EDID da unidade de exibição através de HDMI; em que a informação auxiliar inclui informação do valor de N, em que N é um número maior do que 1.
15. Dispositivo de acordo com a reivindicação 14, caracterizado pelo fato de que compreende: uma memória contendo o EDID; e circuito acoplado à memória e configurado para receber dados de vídeos de transmissão obtidos ao aplicar uma curva de gama para dados de vídeo de entrada tendo uma primeira gama de valor de luminância a partir de um valor de luminância baixo para um valor de luminância alto, os dados de vídeo de transmissão tendo uma segunda gama de valor de luminância a partir de um valor de luminância baixo a um segundo valor de luminância alto tendo um valor menor do que o primeiro valor de luminância alto.
16. Dispositivo de acordo com a reivindicação 15, caracterizado pelo fato de que o circuito é ainda configurado para converter valores de luminância dos dados de transmissão tendo o segundo valor de luminância alto para os valores de luminância maiores do que o segundo valor de luminância altos e menores ou iguais a um terceiro valor de luminância alto de maneira a aumentar o valor de luminância máximo dos dados de vídeo de transmissão com base na informação auxiliar recebida junto com os dados de vídeo de transmissão, sem converter qualquer valor de luminância dos dados de vídeo de transmissão menores do que o segundo valor de luminância alto, em que os dados de vídeo de transmissão são dados de vídeo obtidos ao executar um processo para converter valores de luminância dos dados de vídeo de saída obtidos pela aplicação da curva de gama aos dados de vídeo de entrada, os valores de luminância dos dados de vídeo de entrada estando dentro da gama entre o segundo valor de luminância alto e o primeiro valor de luminância alto, os valores de luminância convertidos tendo o segundo valor de luminância alto.
17. Dispositivo de acordo com a reivindicação 16, caracterizado pelo fato de que o circuito converte os valores de luminância dos dados de transmissão de vídeo tendo o segundo valor de luminância ao aplicar um filtro especificado na informação de filtro contida na informação auxiliar.
18. Dispositivo de recepção de acordo com a reivindicação 14, caracterizado pelo fato de que o valor de luminância máxima é determinado com base em uma gama de luminância dinâmica de uma gama dinâmica de luminância de um monitor contido na informação auxiliar.
19. Dispositivo de acordo com a reivindicação 15, caracterizado pelo fato de que o circuito ainda é configurado para receber os dados de vídeo de transmissão a partir do fluxo de transporte; executar um processo de decodificação dos dados de vídeo de transmissão, incluindo extrair uma mensagem de informação de melhoria suplementar (SEI) inserida no fluxo de transporte; converter a primeira gama de valor de luminância em resposta à informação auxiliar; e converter um primeiro espaço de cor dos dados de vídeo de transmissão para um segundo espaço de cor.
20. Dispositivo de acordo com a reivindicação 19, caracterizado pelo fato de que o primeiro espaço de cor é um espaço de cor YUV e o segundo espaço de cor é um espaço de cor RGB.
21. Dispositivo de acordo com a reivindicação 20, caracterizado pelo fato de que o circuito ainda é configurado para determinar se a informação de SEI de mapeamento de cor e informação SEI de conversão foram inseridas no fluxo de vídeo de transmissão.
22. Dispositivo de acordo com a reivindicação 21, caracterizado pelo fato de que o circuito ainda é configurado para extrair uma mensagem SEI inserida nos dados de vídeo de transmissão e para determinar se a informação SEI de mapeamento de tom e a informação SEI de conversão foram inseridas nos dados de vídeo de transmissão.
BR112015026979-6A 2013-04-30 2014-04-16 Dispositivos e métodos de transmissão e recepção BR112015026979B1 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013-096056 2013-04-30
JP2013096056 2013-04-30
PCT/JP2014/060877 WO2014178286A1 (ja) 2013-04-30 2014-04-16 送信装置、送信方法、受信装置および受信方法

Publications (2)

Publication Number Publication Date
BR112015026979A2 BR112015026979A2 (pt) 2017-07-25
BR112015026979B1 true BR112015026979B1 (pt) 2023-04-11

Family

ID=51843420

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112015026979-6A BR112015026979B1 (pt) 2013-04-30 2014-04-16 Dispositivos e métodos de transmissão e recepção

Country Status (8)

Country Link
US (4) US9860505B2 (pt)
EP (2) EP3926963A3 (pt)
JP (3) JP6510404B2 (pt)
KR (1) KR102241672B1 (pt)
CN (2) CN105165001B (pt)
BR (1) BR112015026979B1 (pt)
RU (1) RU2657473C2 (pt)
WO (1) WO2014178286A1 (pt)

Families Citing this family (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3926963A3 (en) 2013-04-30 2022-01-26 Saturn Licensing LLC Transmitting device, transmitting method, receiving device, and receiving method
JP2015005878A (ja) * 2013-06-20 2015-01-08 ソニー株式会社 再生装置、再生方法、および記録媒体
US20150032845A1 (en) * 2013-07-26 2015-01-29 Samsung Electronics Co., Ltd. Packet transmission protocol supporting downloading and streaming
JP6686438B2 (ja) * 2014-01-24 2020-04-22 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
RU2670599C9 (ru) * 2014-05-12 2018-11-22 Сони Корпорейшн Устройство связи, способ связи и компьютерная программа
CN106416216B (zh) * 2014-05-16 2019-07-12 松下知识产权经营株式会社 变换方法及变换装置
RU2696216C2 (ru) 2014-06-13 2019-07-31 Сони Корпорейшн Передающее устройство, способ передачи, приемное устройство и способ приема
CN105393549A (zh) * 2014-06-27 2016-03-09 松下知识产权经营株式会社 数据输出装置、数据输出方法及数据生成方法
EP3944241A3 (en) 2014-08-07 2022-05-04 Panasonic Intellectual Property Corporation of America Decoding system and decoding method
JP6466258B2 (ja) 2014-08-07 2019-02-06 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 再生装置、再生方法および記録媒体
US9800898B2 (en) 2014-10-06 2017-10-24 Microsoft Technology Licensing, Llc Syntax structures indicating completion of coded regions
MX2017005590A (es) 2014-11-07 2017-06-23 Sony Corp Aparato de transmision, metodo de transmision, aparato de recepcion, y metodo de recepcion.
US10623805B2 (en) 2014-11-17 2020-04-14 Sony Corporation Sending device, method of sending high dynamic range image data, receiving device, and method of receiving high dynamic range image data
EP3123710B1 (en) * 2014-11-21 2018-08-08 SZ DJI Technology Co., Ltd. System and method of fast adaptive blending for high dynamic range imaging
JP6601729B2 (ja) * 2014-12-03 2019-11-06 パナソニックIpマネジメント株式会社 データ生成方法、データ再生方法、データ生成装置及びデータ再生装置
PT4093038T (pt) * 2014-12-03 2023-10-18 Panasonic Ip Man Co Ltd Dispositivo de geração de dados
US10547844B2 (en) * 2014-12-04 2020-01-28 Lg Electronics Inc. Broadcasting signal transmission and reception method and device
JP2016122985A (ja) * 2014-12-25 2016-07-07 株式会社東芝 画像処理システム、画像処理装置および画像処理方法
HUE056171T2 (hu) * 2014-12-29 2022-01-28 Sony Group Corp Adókészülék, adási eljárás, vevõkészülék és vételi eljárás
JP6863271B2 (ja) * 2015-02-16 2021-04-21 ソニーグループ株式会社 情報処理装置、情報記録媒体、および情報処理方法、並びにプログラム
EP3267685B1 (en) * 2015-03-05 2022-11-23 Sony Group Corporation Transmission device, transmission method, receiving device, and receiving method
JP6463179B2 (ja) * 2015-03-17 2019-01-30 キヤノン株式会社 信号処理装置、信号処理方法および撮像装置
BR112017019754A2 (pt) * 2015-03-24 2018-05-29 Sony Corp dispositivos de transmissão e recepçao, e, métodos de transmissão e recepção
KR20170138994A (ko) * 2015-04-22 2017-12-18 엘지전자 주식회사 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
JP6666022B2 (ja) * 2015-06-04 2020-03-13 キヤノン株式会社 画像表示装置、画像出力装置、及び、それらの制御方法
US10089960B2 (en) * 2015-06-05 2018-10-02 Apple Inc. Rendering and displaying HDR content according to a perceptual model
US10681107B2 (en) 2015-06-16 2020-06-09 Apple Inc. Adaptive video content for cellular communication
EP3330959A4 (en) 2015-07-31 2019-07-17 Sony Corporation VIDEO SIGNAL PROCESSING DEVICE, METHOD FOR PROCESSING A VIDEO SIGNAL AND DISPLAY DEVICE
US11070830B2 (en) * 2015-08-24 2021-07-20 Interdigital Madison Patent Holdings, Sas Coding and decoding method with color conversion and corresponding devices
EP3739564A1 (en) * 2015-08-31 2020-11-18 LG Electronics Inc. Image display apparatus
JP6820507B2 (ja) * 2015-09-14 2021-01-27 パナソニックIpマネジメント株式会社 映像受信方法、映像送信方法、映像受信装置及び映像送信装置
US9819956B2 (en) * 2015-09-23 2017-11-14 Arris Enterprises Llc High dynamic range adaptation operations at a video decoder
JP6441247B2 (ja) * 2015-10-01 2018-12-19 マクセル株式会社 表示制御方法
US10708647B2 (en) 2015-09-25 2020-07-07 Maxell, Ltd. Broadcast receiving apparatus
JP6616211B2 (ja) * 2015-09-25 2019-12-04 マクセル株式会社 放送受信装置
JP6645871B2 (ja) * 2015-09-30 2020-02-14 マクセル株式会社 放送システム
JP6616212B2 (ja) * 2015-09-28 2019-12-04 マクセル株式会社 表示制御方法
JP6645869B2 (ja) * 2015-09-29 2020-02-14 マクセル株式会社 放送システム
WO2017051808A1 (ja) 2015-09-25 2017-03-30 日立マクセル株式会社 放送受信装置
JP6830190B2 (ja) * 2015-10-07 2021-02-17 パナソニックIpマネジメント株式会社 映像送信方法、映像受信方法、映像送信装置及び映像受信装置
WO2017061071A1 (ja) * 2015-10-07 2017-04-13 パナソニックIpマネジメント株式会社 映像送信方法、映像受信方法、映像送信装置及び映像受信装置
WO2017061297A1 (ja) * 2015-10-09 2017-04-13 ソニー株式会社 情報処理装置および情報処理方法
JP6519441B2 (ja) 2015-10-22 2019-05-29 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
JP6990179B2 (ja) * 2015-10-28 2022-01-12 インターデジタル ヴイシー ホールディングス, インコーポレイテッド 共通の情報データセットによって駆動される候補プロセスセットから、ビデオデータに適用されるプロセスを選択するための方法及び装置
JP6921815B2 (ja) 2015-11-09 2021-08-18 インターデジタル ヴイシー ホールディングス, インコーポレイテッド エレメンタリーストリームから復号されたビデオコンテンツをディスプレイの特性に適応させる方法およびデバイス
JP6132006B1 (ja) 2015-12-02 2017-05-24 日本電気株式会社 映像符号化装置、映像システム、映像符号化方法、及び映像符号化プログラム
BR112017016037A2 (pt) 2015-12-17 2018-03-20 Koninklijke Philips N.V. decodificador e codificador de vídeo em hdr; método de decodificação de vídeo; método para codificação de vídeo em hdr; e memória legível por computador
KR102446181B1 (ko) * 2016-02-17 2022-09-22 삼성전자주식회사 멀티미디어 시스템에서 미디어 데이터를 송수신하는 방법 및 장치
JP2017151308A (ja) * 2016-02-25 2017-08-31 キヤノン株式会社 情報処理装置および情報処理方法
JP6460014B2 (ja) 2016-03-04 2019-01-30 ソニー株式会社 信号処理装置、信号処理方法およびカメラシステム
EP3220645A1 (en) * 2016-03-18 2017-09-20 Thomson Licensing A method and a device for encoding a high dynamic range picture, corresponding decoding method and decoding device
JP6682322B2 (ja) * 2016-03-31 2020-04-15 シャープ株式会社 階調値変換装置、テレビジョン受像機、階調値変換方法、制御プログラム、および記録媒体
US10587934B2 (en) * 2016-05-24 2020-03-10 Qualcomm Incorporated Virtual reality video signaling in dynamic adaptive streaming over HTTP
CN106101679B (zh) * 2016-08-23 2018-01-12 青岛海信电器股份有限公司 高动态范围信号的处理方法及处理系统
US10834153B2 (en) * 2016-08-24 2020-11-10 Qualcomm Incorporated System level signaling of SEI tracks for media data streaming
EP3783902A1 (en) 2016-10-11 2021-02-24 Sony Corporation Receiving device and receiving method for subtitles
JP6883971B2 (ja) * 2016-10-24 2021-06-09 キヤノン株式会社 画像処理装置及び画像処理方法、プログラム、並びに記憶媒体
CN108476331B (zh) * 2016-11-22 2023-01-06 索尼公司 发送设备、发送方法、接收设备、以及接收方法
JP7278955B2 (ja) * 2017-10-12 2023-05-22 ソニーグループ株式会社 画像処理装置、画像処理方法、送信装置、送信方法および受信装置
CN109605429B (zh) * 2018-12-06 2020-10-09 蒋玉素 可清洗型弯头式去胡刀
US11265580B2 (en) * 2019-03-22 2022-03-01 Tencent America LLC Supplemental enhancement information messages for neural network based video post processing
JP7365133B2 (ja) 2019-04-19 2023-10-19 キヤノン株式会社 通信装置およびその制御方法、プログラム
JP6958645B2 (ja) * 2019-04-25 2021-11-02 ソニーグループ株式会社 送信装置、送信方法、受信装置および受信方法
JP6658944B2 (ja) * 2019-04-25 2020-03-04 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
US10855998B1 (en) * 2019-07-01 2020-12-01 Sony Corporation Embedded codec circuitry for block based gamma correction of a raw image block
CN112686809A (zh) 2019-10-18 2021-04-20 华为技术有限公司 处理高动态范围图像的方法和装置
WO2023150074A1 (en) * 2022-02-01 2023-08-10 Dolby Laboratories Licensing Corporation Beta scale dynamic display mapping

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5534948A (en) * 1989-08-15 1996-07-09 Rank Cintel Limited Method and apparatus for reducing the effect of alias components produced through non-linear digital signal processing, such as gamma correction, by selective attenuation
EP0669755B1 (en) * 1993-07-16 2001-05-23 Sony Corporation Image pickup parameter recorder and image pickup method
JP3856037B2 (ja) * 1993-07-16 2006-12-13 ソニー株式会社 編集システム
KR100206792B1 (ko) * 1996-07-16 1999-07-01 구자홍 감마보정에 의한 티브이 화질 개선장치
JP3697997B2 (ja) * 2000-02-18 2005-09-21 ソニー株式会社 画像表示装置と階調補正データ作成方法
JP4178548B2 (ja) * 2003-01-17 2008-11-12 富士フイルム株式会社 撮像装置
JP4368127B2 (ja) * 2003-04-04 2009-11-18 ソニー株式会社 撮像装置におけるガンマ補正装置
CN1259795C (zh) * 2003-07-25 2006-06-14 金宝电子工业股份有限公司 高动态范围的数字视讯信号处理电路及其中的电路元件
JP2006081037A (ja) * 2004-09-10 2006-03-23 Eastman Kodak Co 撮像装置
JP4622629B2 (ja) * 2005-03-31 2011-02-02 株式会社ニコン 撮像装置
JP2007049329A (ja) * 2005-08-09 2007-02-22 Seiko Epson Corp 画像記録装置、画像記録方法、画像表示装置、画像表示方法、及び画像表示システム
CN1852414B (zh) * 2005-11-28 2010-05-05 华为技术有限公司 一种视频码流伽玛特性校正方法及多点控制单元
KR100782826B1 (ko) * 2005-12-10 2007-12-06 삼성전자주식회사 영상 획득 장치 및 방법과 그 방법을 수행하는 프로그램이기록된 기록매체
WO2008090730A1 (ja) * 2007-01-23 2008-07-31 Nikon Corporation 画像処理装置、電子カメラ、画像処理方法および画像処理プログラム
JP5315634B2 (ja) 2007-07-04 2013-10-16 株式会社ニコン 画像処理装置および画像処理方法
US7957322B2 (en) 2007-02-02 2011-06-07 Silver Sring Networks, Inc. Flow-through provisioning in utility AMR/AMI networks
KR100886099B1 (ko) * 2007-06-26 2009-03-04 주식회사 코아로직 감마 보정 곡선의 자동 산출 장치 및 방법
US8279351B2 (en) * 2008-10-27 2012-10-02 Rgb Systems, Inc. Method and apparatus for hardware-efficient continuous gamma curve adjustment
US9077905B2 (en) * 2009-02-06 2015-07-07 Canon Kabushiki Kaisha Image capturing apparatus and control method thereof
KR101651415B1 (ko) * 2009-03-10 2016-08-26 돌비 레버러토리즈 라이쎈싱 코오포레이션 확장된 동적 범위 및 확장된 차수 이미지 신호 변환
JP2011010108A (ja) * 2009-06-26 2011-01-13 Seiko Epson Corp 撮像制御装置、撮像装置及び撮像制御方法
JP5509729B2 (ja) * 2009-08-24 2014-06-04 ソニー株式会社 画像表示装置、画像表示方法及び画像処理装置
US9131033B2 (en) * 2010-07-20 2015-09-08 Qualcomm Incoporated Providing sequence data sets for streaming video data
US9596447B2 (en) * 2010-07-21 2017-03-14 Qualcomm Incorporated Providing frame packing type information for video coding
JP6081360B2 (ja) 2010-09-16 2017-02-15 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 改善された画像の符号化及び/又は復号のための装置、方法並びに画像データ記憶媒体
US8737736B2 (en) * 2010-12-31 2014-05-27 Microsoft Corporation Tone mapping of very large aerial image mosaic
US9451274B2 (en) 2011-04-28 2016-09-20 Koninklijke Philips N.V. Apparatuses and methods for HDR image encoding and decoding
WO2013039730A2 (en) * 2011-09-15 2013-03-21 Dolby Laboratories Licensing Corporation Method and system for backward compatible, extended dynamic range encoding of video
RU2761120C2 (ru) * 2011-09-27 2021-12-06 Конинклейке Филипс Н.В. Устройство и способ для преобразования динамического диапазона изображений
EP2579591A1 (en) * 2011-10-04 2013-04-10 Thomson Licensing Method of and device for encoding an HDR image, method of and device for reconstructing an HDR image and non-transitory storage medium
US8935425B2 (en) 2011-10-05 2015-01-13 Qualcomm Incorporated Switching between representations during network streaming of coded multimedia data
TW201811029A (zh) * 2012-01-19 2018-03-16 Vid衡器股份有限公司 支元自適應觀看條件的視訊傳遞的方法和系統
US9014504B2 (en) * 2012-05-31 2015-04-21 Apple Inc. Systems and methods for highlight recovery in an image signal processor
EP3926963A3 (en) 2013-04-30 2022-01-26 Saturn Licensing LLC Transmitting device, transmitting method, receiving device, and receiving method
HUE056171T2 (hu) * 2014-12-29 2022-01-28 Sony Group Corp Adókészülék, adási eljárás, vevõkészülék és vételi eljárás
JP6633739B2 (ja) * 2015-08-20 2020-01-22 エルジー エレクトロニクス インコーポレイティド 放送信号送信装置、放送信号受信装置、放送信号送信方法、及び放送信号受信方法

Also Published As

Publication number Publication date
BR112015026979A2 (pt) 2017-07-25
EP3926963A2 (en) 2021-12-22
JP2020188495A (ja) 2020-11-19
RU2657473C2 (ru) 2018-06-14
US9860505B2 (en) 2018-01-02
KR20160002804A (ko) 2016-01-08
JP7087028B2 (ja) 2022-06-20
US11575866B2 (en) 2023-02-07
CN110418166A (zh) 2019-11-05
KR102241672B1 (ko) 2021-04-16
EP2993886A4 (en) 2016-11-23
CN110418166B (zh) 2022-04-29
EP2993886A1 (en) 2016-03-09
US20230104968A1 (en) 2023-04-06
US20180160090A1 (en) 2018-06-07
CN105165001B (zh) 2019-08-09
EP3926963A3 (en) 2022-01-26
JPWO2014178286A1 (ja) 2017-02-23
WO2014178286A1 (ja) 2014-11-06
JP6510404B2 (ja) 2019-05-08
US20200145632A1 (en) 2020-05-07
US20160080714A1 (en) 2016-03-17
CN105165001A (zh) 2015-12-16
RU2015145812A (ru) 2017-04-26
JP2019149808A (ja) 2019-09-05
JP6742467B2 (ja) 2020-08-19
US10560674B2 (en) 2020-02-11

Similar Documents

Publication Publication Date Title
US11575866B2 (en) Transmitting device, transmitting method, receiving device, and receiving method
JP6984694B2 (ja) 送信装置、送信方法、受信装置および受信方法
JP6633739B2 (ja) 放送信号送信装置、放送信号受信装置、放送信号送信方法、及び放送信号受信方法
US11838564B2 (en) Transmission apparatus, transmission method, reception apparatus, and reception method
CN111343460B (zh) 接收装置、显示设备及接收方法
JP6862830B2 (ja) 送信装置、送信方法、受信装置および受信方法
BR112016003135B1 (pt) Dispositivos de codificação, de transmissão, de decodificação e de recepção, e, métodos de codificação e de decodificação
JPWO2019017362A1 (ja) 送信装置、送信方法、受信装置および受信方法

Legal Events

Date Code Title Description
B06F Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette]
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B350 Update of information on the portal [chapter 15.35 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 16/04/2014, OBSERVADAS AS CONDICOES LEGAIS