BR112020017270A2 - Imagens bidimensionais (2d) com renderização de ampla gama de cores em telas com capacidade tridimensional (3d) - Google Patents

Imagens bidimensionais (2d) com renderização de ampla gama de cores em telas com capacidade tridimensional (3d) Download PDF

Info

Publication number
BR112020017270A2
BR112020017270A2 BR112020017270-7A BR112020017270A BR112020017270A2 BR 112020017270 A2 BR112020017270 A2 BR 112020017270A2 BR 112020017270 A BR112020017270 A BR 112020017270A BR 112020017270 A2 BR112020017270 A2 BR 112020017270A2
Authority
BR
Brazil
Prior art keywords
intensity values
range
virtual
values
intensity
Prior art date
Application number
BR112020017270-7A
Other languages
English (en)
Inventor
Ashley Nicole Penna
Trevor Davies
Martin J. Richards
Original Assignee
Dolby Laboratories Licensing Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dolby Laboratories Licensing Corporation filed Critical Dolby Laboratories Licensing Corporation
Publication of BR112020017270A2 publication Critical patent/BR112020017270A2/pt

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/15Processing image signals for colour aspects of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/324Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/334Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using spectral multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3147Multi-projection systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3182Colour adjustment, e.g. white balance, shading or gamut
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/67Circuits for processing colour signals for matrixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/72Combination of two or more compensation controls
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/76Circuitry for compensating brightness variation in the scene by influencing the image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

um sistema e método para exibir dados de imagem compreende receber dados de vídeo 2d, gerando, a partir dos dados de vídeo, uma primeira pluralidade de valores de intensidade de primárias virtuais de uma primeira gama de cores virtual e uma segunda pluralidade de valores de intensidade de uma segunda gama de cores virtual, a primeira pluralidade de valores de intensidade estando abaixo de um limite de luminância e se aproximando de uma gama de cores predefinida e a segunda pluralidade de valores de intensidade estando acima do limite de luminância, converter a primeira pluralidade de valores de intensidade em uma terceira pluralidade de valores de intensidade de primárias predefinidas de uma primeira cabeça de projeção de um sistema de exibição e a segunda pluralidade de valores de intensidade em uma quarta pluralidade de valores de intensidade de primárias predefinidas de uma segunda cabeça de projeção do sistema de exibição, e ajustar dinamicamente os níveis de pixel de moduladores espaciais do sistema de exibição com base na terceira pluralidade e na quarta pluralidade de valores de intensidade.

Description

“IMAGENS BIDIMENSIONAIS (2D) COM RENDERIZAÇÃO DE AMPLA GAMA DE CORES EM TELAS COM CAPACIDADE TRIDIMENSIONAL (3D)”
ANTECEDENTES Campo da Divulgação
[001] Este pedido está geralmente relacionado à renderização de imagens de ampla gama de cores.
Descrição da Técnica Relacionada
[002] As telas capazes de exibir imagens tridimensionais (3D) podem exibir uma imagem do olho esquerdo e uma imagem do olho direito com o uso de dois conjuntos distintos de primárias (6P) que, quando vistos juntos, dão a aparência de uma imagem 3D. Tais exibições também podem ser utilizadas para exibir imagens bidimensionais (2D).
SUMÁRIO DA DIVULGAÇÃO
[003] Vários aspectos da presente divulgação se referem a sistemas e métodos para renderização aprimorada de imagens 2D em projetores 3D 6P e sistemas de exibição (em particular, projetores 3D de separação espectral e sistemas de exibição).
[004] Em um aspecto exemplificador da presente divulgação, é fornecido um sistema de projeção de cabeça dupla que compreende uma primeira cabeça de projeção, uma segunda cabeça de projeção, pelo menos um modulador espacial e um processador eletrônico. O processador eletrônico é configurado para receber dados de vídeo 2D, gerar, a partir dos dados de vídeo, uma primeira pluralidade de valores de intensidade de primárias virtuais de uma primeira gama de cores virtual e uma segunda pluralidade de valores de intensidade de primárias virtuais de uma segunda gama de cores virtual, a primeira pluralidade de valores de intensidade estando abaixo de um limite de luminância e se aproximando de uma gama de cores predefinida e a segunda pluralidade de valores de intensidade estando acima do limite de luminância,
converter a primeira pluralidade de valores de intensidade em uma terceira pluralidade de valores de intensidade de primárias predefinidas da primeira cabeça de projeção e a segunda pluralidade de valores de intensidade em uma quarta pluralidade de valores de intensidade de primárias predefinidas da segunda cabeça de projeção, e ajustar dinamicamente os níveis de pixel dos moduladores espaciais da primeira cabeça de projeção e da segunda cabeça de projeção.
[005] Em outro aspecto exemplificador da presente divulgação, é fornecido um método para exibir dados de imagem. O método compreende receber dados de vídeo 2D, gerar, a partir dos dados de vídeo, uma primeira pluralidade de valores de intensidade de primárias virtuais de uma primeira gama de cores virtual e uma segunda pluralidade de valores de intensidade de uma segunda gama de cores virtual, a primeira pluralidade de valores de intensidade da primeira gama de cores virtual estando abaixo de um limite de luminância e se aproximando de uma gama de cores predefinida e a segunda pluralidade de valores de intensidade estando acima do limite de luminância, converter a primeira pluralidade de valores de intensidade em uma terceira pluralidade de valores de intensidade de primárias predefinidas de uma primeira cabeça de projeção de um sistema de exibição e a segunda pluralidade de valores de intensidade em uma quarta pluralidade de valores de intensidade de primárias predefinidas de uma segunda cabeça de projeção do sistema de exibição, e ajustar dinamicamente os níveis de pixel de moduladores espaciais da primeira e da segunda cabeças de projeção do sistema de tela com base na terceira pluralidade de valores de intensidade e na quarta pluralidade de valores de intensidade.
[006] Em outro aspecto exemplificador da presente divulgação, é fornecido um método para exibir dados de imagem. O método compreende receber dados de vídeo, gerar, com base em um nível de intensidade dos dados de vídeo, uma primeira pluralidade de valores de intensidade associados à primeira gama de cores virtual, gerar, com base em uma comparação entre o nível de intensidade e pelo menos um limite predeterminado, uma segunda pluralidade de valores de intensidade associados à segunda gama de cores virtual, gerar, com base na primeira pluralidade e na segunda pluralidade de valores de intensidade, uma terceira pluralidade de valores de intensidade e uma quarta pluralidade de valores de intensidade associados à pluralidade de cores primárias de exibição e fornecer a terceira pluralidade de valores de intensidade e a quarta pluralidade de valores de intensidade a pelo menos um modulador de luz espacial.
[007] Em outro aspecto exemplificador da presente divulgação, é fornecido um meio legível por computador não transitório que armazena instruções que, quando executadas por um processador de um computador, fazem com que o computador execute operações que compreendem o recebimento de dados de vídeo 2D, incluindo valores de pixel tristímulus de primárias predefinidas de um espaço de cores predefinido, gerar, a partir dos dados de vídeo, uma primeira pluralidade de valores de intensidade de primárias virtuais de uma primeira gama de cores virtual e uma segunda pluralidade de valores de intensidade de uma segunda gama de cores virtual para aproximar uma gama de cores predefinida, a primeira pluralidade de valores de intensidade estando abaixo de um limite de luminância da primeira gama de cores virtual e a segunda pluralidade de valores de intensidade estando acima do limite de luminância, converter, por meio de uma função de mistura, a primeira pluralidade de valores de intensidade em uma terceira pluralidade de valores de intensidade de primárias predefinidas e a segunda pluralidade de valores de intensidade em uma quarta pluralidade de valores de intensidade das primárias predefinidas, e ajustar dinamicamente os níveis de pixel de pelo menos um modulador espacial de um sistema de projeção de cabeça dupla com base na terceira pluralidade de valores de intensidade e na quarta pluralidade de valores de intensidade.
[008] Desta forma, vários aspectos da presente divulgação fornecem a renderização de imagens 2D de um dispositivo de projeção 3D, e melhorias em pelo menos os campos técnicos de projeção de imagem, processamento de sinal e semelhantes.
BREVE DESCRIÇÃO DE VÁRIAS VISTAS DOS DESENHOS
[009] As figuras anexas, onde numerais de referência semelhantes se referem a elementos idênticos ou funcionalmente semelhantes em todas as vistas separadas, juntamente com a descrição detalhada abaixo, são incorporadas e fazem parte do relatório descritivo e servem para ilustrar adicionalmente as modalidades de conceitos e explicar vários princípios e vantagens dessas modalidades.
[010] A FIG. 1A é um diagrama de espectro de um sistema de projeção 6P de acordo com vários aspectos da presente divulgação.
[011] A FIG. 1B é um diagrama de blocos de um sistema de projeção de acordo com vários aspectos da presente divulgação.
[012] A FIG. 1C é um diagrama de blocos de um sistema de projeção de acordo com vários aspectos da presente divulgação.
[013] A FIG. 2 é um diagrama de blocos de um controlador incluído no sistema das FIGS. 1B e 1C de acordo com vários aspectos da presente divulgação.
[014] A FIG. 3 é um fluxograma que ilustra um método implementado pelo controlador da FIG. 2 de acordo com vários aspectos da presente divulgação.
[015] A FIG. 4 é um diagrama de cromaticidade de acordo com vários aspectos da presente divulgação.
[016] A FIG. 5A é um diagrama de cromaticidade de acordo com vários aspectos da presente divulgação.
[017] A FIG. 5B é um diagrama de cromaticidade de acordo com vários aspectos da presente divulgação.
[018] A FIG. 6A é um diagrama de cromaticidade de acordo com vários aspectos da presente divulgação.
[019] A FIG. 6B é um diagrama de cromaticidade de acordo com vários aspectos da presente divulgação.
[020] A FIG. 7A é um diagrama de cromaticidade de acordo com vários aspectos da presente divulgação.
[021] A FIG. 7B é um diagrama de cromaticidade de acordo com vários aspectos da presente divulgação.
[022] A FIG. 8A é um diagrama de cromaticidade de acordo com vários aspectos da presente divulgação.
[023] A FIG. 8B é um diagrama de cromaticidade de acordo com vários aspectos da presente divulgação.
[024] Os versados na técnica qualificados apreciarão que os elementos nas figuras são ilustrados para simplicidade e clareza e não foram necessariamente desenhados em escala. Por exemplo, as dimensões de alguns dos elementos nas figuras podem ser exageradas em relação a outros elementos para ajudar a melhorar a compreensão das modalidades da presente divulgação.
[025] O aparelho e os componentes do método foram representados onde apropriado por símbolos nos desenhos, mostrando apenas aqueles detalhes específicos que são pertinentes para a compreensão das modalidades da presente divulgação, de modo a não obscurecer a divulgação com detalhes que serão prontamente evidentes para os versados na técnica tendo o benefício da descrição aqui contida.
DESCRIÇÃO DETALHADA
[026] Como mencionado anteriormente, algumas telas 6P configuradas para projetar imagens 3D podem ser utilizadas para projetar/exibir imagens 2D. Ao projetar imagens 3D, as seis primárias são usadas para exibir as imagens do olho esquerdo e direito com o uso de um conjunto de três primárias (vermelho, verde e azul) para a imagem do olho esquerdo e o outro conjunto de três primárias para a imagem do olho direito. Os óculos 3D para uso com tal exibição podem ter filtros correspondentes
(como filtros passa-banda) para permitir que cada olho veja a imagem apropriada. As imagens bidimensionais podem ser exibidas por telas 3D ao direcionar cada par de fontes de luz primárias com os mesmos dados, sem a necessidade de um visualizador usar os óculos 3D. Por exemplo, os valores de dados vermelhos 2D são usados para conduzir as primárias red1 e red2. Da mesma forma, os valores de dados verdes 2D são usados para conduzir as primárias verde1 e verde2, e os valores de dados azuis 2D são usados para conduzir as primárias azul1 e azul2. O sistema é calibrado com as primárias combinadas e as imagens podem ser produzidas. No entanto, a gama de cores resultante pode ser limitada significativamente em relação a uma gama de cores desejada (por exemplo, a gama Rec 2020 estabelecida).
[027] Esta divulgação e seus aspectos podem ser incorporados em várias formas, incluindo hardware ou circuitos controlados por métodos implementados por computador, produtos de programa de computador, sistemas de computador e redes, interfaces de usuário e interfaces de programação de aplicativo; bem como métodos implementados por hardware, circuitos de processamento de sinal, matrizes de memória, circuitos integrados de aplicativos específicos, matrizes de portas programáveis em campo e semelhantes. O resumo anterior se destina apenas a dar uma ideia geral de vários aspectos da presente divulgação e não limita o escopo da divulgação de nenhuma forma.
[028] Na descrição a seguir, vários detalhes são apresentados, tais como configurações de circuito, temporizações de forma de onda, operações de circuito e semelhantes, a fim de fornecer uma compreensão de um ou mais aspectos da presente divulgação. Será prontamente aparente para um versado na técnica que estes detalhes específicos são meramente exemplificativos e não pretendem limitar o escopo deste pedido.
[029] Além disso, embora a presente divulgação se concentre principalmente em exemplos em que os dados de vídeo recebidos são de Rec2020, será entendido que este é apenas um exemplo de uma implementação e que outras cores espaçadas podem ser utilizadas. Será ainda entendido que os sistemas e métodos divulgados podem ser usados em qualquer sistema de projeção para melhorar a renderização de imagens 2D em seis telas primárias.
[030] Para facilidade de descrição, alguns ou todos os sistemas de exemplo apresentados na presente invenção são ilustrados com um único exemplificador de cada uma de suas partes componentes. Alguns exemplos podem não descrever ou ilustrar todos os componentes dos sistemas. Outras modalidades de exemplo podem incluir mais ou menos de cada um dos componentes ilustrados, podem combinar alguns componentes ou podem incluir componentes adicionais ou alternativos. Por exemplo, em algumas modalidades, o sistema 100 das FIGS. 1B e 1C abaixo inclui mais de uma fonte de luz 102.
[031] Conforme descrito acima, alguns telas 3D, referidas como sistemas 6P, exibem simultaneamente uma imagem do olho esquerdo e do olho direito usando dois conjuntos distintos de primárias. A FIG. 1A é um diagrama espectral 1 de um sistema 6P de acordo com algumas modalidades. O diagrama 1 inclui três comprimentos de onda curtos 2A, 3A e 4A (referidos na presente invenção como primárias curtas) e três comprimentos de onda longos 2B, 3B e 4B (referidos na presente invenção como primários longos). Os exemplos de sistemas de exibição descritos na presente invenção são configurados para utilizar as primárias curtas 2A, 3A e 4A para a imagem do olho esquerdo (por exemplo, através de um projetor esquerdo designado) e as primárias longas 2B, 3B e 4B para a imagem do olho direito (por exemplo, por meio de um projetor direito designado). Deve ser entendido que, em outras modalidades, uma combinação de primárias curtas e longas pode ser utilizada para cada imagem de olho. Conforme explicado em mais detalhes abaixo, cada projetor emite uma saída de luz modulada (das primárias designadas do projetor) em uma tela ou visor de visualização. Nas modalidades aqui descritas, tanto a imagem do olho esquerdo quanto a imagem do olho direito são exibidas simultaneamente.
[032] As FIGS. 1B e 1C são, cada uma, um diagrama de blocos de sistemas de exibição 100 exemplificadores de acordo com algumas modalidades. Cada sistema inclui pelo menos alguns componentes configurados de forma semelhante, que são marcados como tal. O sistema de exibição 100 está configurado para exibir dados de vídeo 3D e 2D recebidos de uma fonte de dados de vídeo 101. O sistema de exibição 100 pode ser qualquer tipo de sistema configurado para exibir imagens, por exemplo, um sistema de projeção ou um sistema de exibição de diodo emissor de luz (LED). O sistema de exibição 100 inclui uma fonte de luz 102, óptica de iluminação 104, um separador 106, um ou mais moduladores 108, um combinador 110, óptica de projeção 112 e um controlador 114. Embora as FIGS. 1B e 1C ilustrem uma fonte de luz 102, os sistemas de exibição 100 de acordo com algumas modalidades podem conter múltiplas fontes de luz 102. Os componentes do sistema 100 podem ser alojados em um único dispositivo de projeção (como um único projetor) ou, em algumas modalidades, em vários dispositivos. Por exemplo, em algumas modalidades, as fontes de luz, os moduladores e outros componentes do sistema de exibição 100 podem ser separados em dois ou mais dispositivos de projeção coordenados separados.
[033] A fonte de luz 102 é acionada pelo controlador 114 para produzir um feixe de iluminação incluindo, na modalidade ilustrada, seis cores primárias. O feixe de iluminação é direcionado através da óptica de iluminação 104 e para o separador de cor 106. O separador de cor 106 separa o feixe de iluminação nos seis feixes primários e direciona cada feixe primário para um associado de moduladores de luz espacial (SLMs - “spatial light modulators”) 108. Cada modulador 108 modula os feixes de iluminação primários com base na entrada do controlador 114, conforme descrito em mais detalhes abaixo. A óptica de projeção 112 focaliza o feixe modulado para formar um feixe de imagem 116. O feixe de imagem 116 é então projetado para criar uma imagem, por exemplo, em uma superfície de visualização (não mostrada). No sistema exemplificador da FIG. 1B, as imagens do olho esquerdo e direito podem ser projetadas alternadamente (também chamado de “multiplexação por divisional no tempo”).
[034] Em algumas modalidades, cada cor primária pode ser associada a um modulador individual 108. Alternativamente, como mostrado na FIG. 1B, o número de moduladores pode ser reduzido, por exemplo, com o uso de um esquema de modulação sequencial de campo. Em algumas modalidades, os moduladores podem incluir uma pluralidade de moduladores para cada cor primária, como, por exemplo, em um projetor de modulação dupla. Em algumas modalidades, cada modulador 108 está associado a um conjunto de cores primárias. Por exemplo, conforme descrito acima em relação à FIG. 1A, um sistema 6P, como mostrado na FIG. 1C, pode incluir um projetor esquerdo e um projetor direito. A FIG. 1C ilustra um sistema de exibição de cabeça dupla 100, que inclui moduladores separados 108A e 108B, óptica de projeção 112A e 112B e dois feixes de imagem resultantes 116A e 116B, cada conjunto dos quais é designado para um canal do olho esquerdo e um canal do olho direito, respectivamente. O modulador 108A, a óptica de projeção 112A e o feixe de imagem resultante 116A podem ser considerados componentes de um projetor esquerdo (cabeça de projeção) e o modulador 108B, a óptica de projeção 112B e o feixe de imagem resultante 116B podem ser considerados componentes de um projetor direito (cabeça de projeção). Conforme descrito acima, as saídas de luz de ambos os canais são mostradas simultaneamente para produzir uma única imagem resultante em uma tela ou visor. Além disso, embora as FIGS. 1B e 1C ilustrem a fonte de dados de vídeo 101 como sendo separada do sistema de exibição 100, em algumas modalidades a fonte de dados de vídeo 101 pode ser interna ao sistema de exibição 100 (por exemplo, em uma memória associada ao sistema de exibição 100).
[035] A FIG. 2 é um diagrama de blocos do controlador 114 de acordo com algumas modalidades. O controlador 114 inclui um processador eletrônico 205, uma memória 210, e uma interface de entrada/saída 215. O processador eletrônico 205 obtém e fornece informações (por exemplo, da memória 210 e/ou da interface de entrada/saída 215) e processa as informações executando uma ou mais instruções ou módulos de software, capazes de serem armazenadas, por exemplo, em uma área de memória de acesso aleatório (“RAM” - “random access memory”) da memória 210 ou uma memória somente de leitura (“ROM” - “read only memory”) da memória 210 ou outro meio legível por computador não transitório (não mostrado). O software pode incluir firmware, um ou mais aplicativos, dados do programa, filtros, regras, um ou mais módulos do programa e outras instruções executáveis. O processador eletrônico 205 pode incluir múltiplos núcleos ou unidades de processamento individuais. O processador eletrônico 205 está configurado para recuperar da memória 210 e executar, entre outras coisas, o software relacionado aos processos e métodos de controle descritos na presente invenção.
[036] A memória 210 pode incluir um ou mais meios legíveis por computador não transitórios e inclui uma área de armazenamento de programa e uma área de armazenamento de dados. A área de armazenamento de programa e a área de armazenamento de dados podem incluir combinações de diferentes tipos de memória, conforme descrito na presente invenção. A memória 210 pode assumir a forma de qualquer meio legível por computador não transitório.
[037] A interface de entrada/saída 215 é configurada para receber entrada e fornecer saída do sistema. A interface de entrada/saída 215 obtém informações e sinais de, e fornece informações e sinais para (por exemplo, através de uma ou mais conexões com fio e/ou sem fio) dispositivos internos e externos ao sistema de exibição 100, por exemplo, a fonte de luz 102, o(s) modulador(es) 108 e a fonte de dados de vídeo 101.
[038] A FIG. 3 é um fluxograma que ilustra um método de exemplo 300 de operação de um sistema de projeção de acordo com algumas modalidades. Como um exemplo, o método 300 é descrito como sendo executado pelo controlador 114 ilustrado nas FIGS. 1B e 1C e, em particular, o processador eletrônico 205 ilustrado na FIG. 2.
[039] No bloco 302, o processador eletrônico 205 recebe dados de vídeo de uma fonte de dados de vídeo, como a fonte de dados de vídeo 101 ilustrada na FIG.
1B e 1C. Os dados de vídeo podem incluir uma série de valores de pixel tristímulus de um fluxo ou arquivo de conteúdo de vídeo. Em algumas modalidades, os dados de vídeo incluem valores de pixel em um espaço de cor (ou gama), como Rec2020 (também referido como ITU-R Recommendation BT.2020). No bloco 304, o processador eletrônico 205 gera, a partir dos dados de vídeo, uma primeira pluralidade de valores de intensidade de primárias virtuais de uma primeira gama de cores e, no bloco 306, gera, a partir dos dados de vídeo, uma segunda pluralidade de valores de intensidade de primárias virtuais de uma segunda gama de cores. Em particular, um volume de gama para imagens 2D é dividido em duas gamas virtuais: a gama A e a gama B. Cada gama inclui primárias virtuais que são combinações específicas das primárias predefinidas. Conforme explicado em mais detalhes abaixo, a gama A é otimizada para ser a mais próxima de uma gama de cores predefinida, por exemplo, um espaço de cores padrão definido (por exemplo, Rec2020), enquanto a gama B é utilizada para qualquer energia residual das primárias predefinidas. Em outras palavras, a gama A é usada para níveis de luminância mais baixos e a gama B é adicionada para atingir níveis de luminância mais altos quando aplicável. Em algumas modalidades, a gama A é otimizada para atingir a maior gama de cores possível.
[040] Voltando à FIG. 3, no bloco 308, o processador eletrônico 205 converte a primeira pluralidade de valores de intensidade em uma terceira pluralidade de valores de intensidade de primárias predefinidas de um primeiro canal de olho (por exemplo, um canal de uma primeira cabeça de projeção) e a segunda pluralidade de intensidade valores em uma quarta pluralidade de valores de intensidade de primárias predefinidas de um segundo canal de olho (por exemplo, um canal de uma segunda cabeça de projeção).
[041] Em algumas modalidades, uma função de mistura é aplicada à gama A e à gama B para otimizar cada gama para estar perto do espaço de cor dos dados de vídeo (no presente exemplo, Rec2020). Em outras palavras, nessas modalidades, o processador eletrônico 205 converte, por exemplo, por meio de uma ou mais funções de mistura, a primeira pluralidade de valores de intensidade e a segunda pluralidade de valores de intensidade em uma terceira pluralidade de valores de intensidade de primárias predefinidas de um primeiro canal de olho (por exemplo, um canal de uma primeira cabeça de projeção). O processador eletrônico 205 também converte, por exemplo, por meio de uma ou mais funções de mistura, a primeira pluralidade de valores de intensidade e a segunda pluralidade de valores de intensidade em uma quarta pluralidade de valores de intensidade de primárias predefinidas de um segundo canal de olho (por exemplo, um canal de uma segunda cabeça de projeção). As equações [1] e [2] abaixo ilustram a função de mistura realizada no bloco 308 para o canal do olho esquerdo e o canal do olho direito, respectivamente.
𝑅 𝑅 𝑅 𝐺 𝐵 𝐺 + 𝐵 𝐺 [1]
𝐵 𝐵 𝐵 e
𝑅 𝑅 𝑅 𝐺 𝐵 𝐺 + 𝐵 𝐺 [2]
𝐵 𝐵 𝐵
[042] A matriz de RL GL BL corresponde à terceira pluralidade de valores de intensidade, por exemplo, primárias do canal do olho direito e a matriz de RS GS BS corresponde à quarta pluralidade de valores de intensidade, por exemplo, primárias do canal do olho esquerdo, em que R se refere a uma primária vermelha, G se refere a uma primária verde, B se refere a uma primária azul, o subscrito L se refere a primárias de comprimento de onda “longo” , e o subscrito S se refere a primárias de comprimento de onda “curto”. Em algumas modalidades, o canal do olho direito pode incluir as primárias de comprimento de onda curto, enquanto o canal do olho esquerdo inclui as primárias de comprimento de onda longo. Em ambas as equações, gama A (a matriz incluindo RA GA BA) e gama B (a matriz incluindo RB GB BB) de cada canal são dimensionadas por uma matriz de mistura (as matrizes de BAL, BBL, BAS, e BBS).
Os valores particulares das matrizes de mistura podem ser valores predeterminados determinados com base na localização das primárias e no espaço de cor predeterminado. Os valores particulares também podem depender do sistema de projeção/exibição usado (por exemplo, do tipo de cabeça do projetor). Métodos de exemplo de determinação de cada matriz de mistura são descritos em mais detalhes abaixo. No presente exemplo, os seguintes valores de matrizes de mistura são usados: 0 0 0 𝐵 = 0.0096 0.2626 0 0 0 0.9733
1.0000 0 0 𝐵 = 0 0.7278 0 0 0 0.0267
0.9904 0 0 𝐵 = 0 0.7374 0.0267 0 0 0
0.0096 0 0 𝐵 = 0 0.2359 0 0 0 1.0000
[043] Voltando à FIG. 3, no bloco 310, o processador eletrônico 205 ajusta dinamicamente os níveis de pixel de pelo menos um modulador espacial, como o modulador 108 ilustrado nas FIGS. 1B e C, com base na terceira pluralidade de valores de intensidade e na quarta pluralidade de valores de intensidade. Em modalidades em que o sistema 100 é um sistema de projeção de cabeça dupla, os níveis de pixel do modulador de cada uma das cabeças de projeção são ajustados.
[044] Como mencionado acima, a gama A é otimizada para ser a mais próxima de uma gama de cores predefinida, por exemplo, um espaço de cores padrão definido (por exemplo, Rec2020), enquanto a gama B é utilizada para qualquer energia residual das primárias predefinidas. Abaixo, são descritos dois métodos exemplificadores implementados pelo processador 205 para processar dados de vídeo recebidos nas gamas A e B.
[045] Um método para otimizar a gama A é dimensionar (compactar) as cromaticidades dos dados de vídeo para caber dentro do volume de gama alcançável da fonte de luz 102, aqui referido como dimensionamento de gama. No método de dimensionamento de gama, duas funções são definidas: 𝑓 𝐶 𝑖𝑓 𝐶 0.5 , 𝐶, 𝑒𝑙𝑠𝑒 0.5 𝑓 𝐶 𝐶–𝑓 𝐶 𝐶 ∈ 𝑅2020 , 𝐺2020 , 𝐵2020
[046] A variável C representa os valores de pixel dos dados de vídeo recebidos, que são aqui assumidos como dados tristímulus Rec2020. A função fl(C) representa uma tabela de consulta para gama A enquanto a função fu(C) representa uma tabela de consulta para gama B. No presente exemplo, a função fl(C) define uma rampa linear aumentando de 0 para 0,5 e linha plana além de 0,5 enquanto a função fu(C) define uma linha plana de 0 a 0,5 e uma rampa linear aumentando de 0,5. O valor 0,5 corresponde a um limite de luminância. Em algumas modalidades, um limite de luminância diferente pode ser usado.
[047] Para cada um dos valores de pixel dos dados de vídeo recebidos, gama A e gama B são derivadas da seguinte forma: 𝑅 𝑓 𝑅2020 𝐺 𝑓 𝐺2020 𝐵 𝑓 𝐵2020 𝑅 𝑓 𝑅2020 𝐺 𝑓 𝐺2020 𝐵 𝑓 𝐵2020
[048] Em outras palavras, para cada canal de primária dos dados de vídeo recebidos R2020, G2020, e B2020, os valores de pixel com um nível de luminância abaixo de 0,5 (correspondendo a 50% da faixa de luminância total do sistema 100 e 100% da faixa de luminância da gama A) estão incluídos na gama A, enquanto os valores de pixel que excedem 0,5 (o que significa que eles estão fora da faixa de luminância da gama A) são alocados à gama B. Os sinais de gama A e gama B derivados são então convertidos para as primárias definidas conforme descrito acima em relação ao bloco 308 e às equações 1 e 2.
[049] Outro método para processar dados de vídeo recebidos na gama A é recortar as cromaticidades para caber nas gamas A e B para caber dentro do volume de gama alcançável da fonte de luz 102. Primeiro, a relação de transformação [C]A e [C]B do espaço de cores da fonte 102 para a gama A e gama B, respectivamente, é definida. A derivação pode ser realizada como segue.
[050] Conhecendo as matrizes primárias normalizadas para o canal esquerdo e o canal direito, os pontos arbitrários em ambos os canais podem ser definidos como:
𝑋 𝑅 𝑅 𝑌 = NPM 𝐺 + NPM 𝐺
𝑍 𝐵 𝐵 Onde a matriz de X, Y e Z corresponde a um ponto arbitrário, as matrizes de NPMLLL e NPMSSS correspondem às matrizes primárias normalizadas do canal do olho direito e do canal do olho esquerdo, respectivamente, e as matrizes de RL, GL, e BL e RS, GS, e BS correspondem a matrizes não normalizadas do canal do olho direito e do canal do olho esquerdo, respectivamente.
[051] As funções de mistura definidas nas equações 1 e 2 acima são, cada uma, substituídas como as matrizes não normalizadas do canal do olho direito e do canal do olho esquerdo, respectivamente.
𝑋 𝑅 𝑅 𝑅 𝑅 𝑌 NPM 𝐵 𝐺 𝐵 𝐺 NPM 𝐵 𝐺 𝐵 𝐺 𝑍 𝐵 𝐵 𝐵 𝐵
[052] Convertendo a fórmula acima em termos de matrizes primárias, a fórmula se torna:
𝑋 𝑅 𝑅 𝑌 PM 𝐺 PM 𝐺
𝑍 𝐵 𝐵 𝑒𝑚 𝑞𝑢𝑒
PM NPM 𝐵 NPM 𝐵 and
PM NPM 𝐵 NPM 𝐵
[053] Conhecendo a matriz primária normalizada para Rec2020 abaixo: NPM 2020 , a transformação dos vetores Rec2020 de origem para as gamas A e B são respectivamente:
𝑅 𝑅 1 𝐺 = 𝐶 𝐺 𝑜𝑛𝑑𝑒 𝐶 PM NPM 2020 𝐵 𝐵 2020 e
𝑅 𝑅 1 𝐺 = 𝐶 𝐺 𝑜𝑛𝑑𝑒 𝐶 PM NPM 2020 𝐵 𝐵 2020 Como mencionado acima, a gama A é usada para níveis de luminância mais baixos, enquanto a gama B é utilizada quando aplicável para atingir níveis de luminância mais altos. Em contraste com o método de dimensionamento de gama, onde a faixa de luminância da gama A é a mesma em todos os canais, aqui um vetor de limite é utilizado como o limite de luminância, o que significa que a faixa de luminância da gama A varia por canal. O vetor de limite que representa a transição entre as gamas ‘A’ e ‘B’ no espaço Rec2020 pode ser encontrado da seguinte forma: 𝑇 0.5 𝑇 𝐶 1 0.5 𝑇 2020 0.5 Em outras palavras, cada limite no vetor de limite é determinado com base em uma transformação da primeira gama de cores virtual para a gama de cores predefinida.
[054] As seguintes funções são então definidas: 𝑓 𝐶 𝑠𝑒 𝐶 𝑇 , 𝐶, 𝑜𝑢 𝑇 𝑓 𝐶 𝐶–𝑓 𝐶 𝐶 ∈ 𝑅2020 , 𝐺2020 , 𝐵2020
[055] A variável C representa os valores de pixel dos dados de vídeo recebidos, que são aqui assumidos como dados tristímulus Rec2020. Semelhante às funções fI(C) e fu(C) do método de dimensionamento de gama descrito acima, a função fI(C) novamente representa uma tabela de consulta para gama A, enquanto a função fu(C) representa uma tabela de consulta para gama B. No presente exemplo, a função fI(C) define uma rampa linear aumentando de 0 para o valor de limite do canal específico, conforme definido no vetor de limite e linearidade plana além do valor de limite específico, enquanto a função fu(C) define uma linearidade plana de 0 até o valor de limite específico e uma rampa linear aumentando a partir do valor de limite específico. Novamente, aqui os valores de limite particulares correspondem respectivamente a um limite de luminância de cada um dos canais da gama A. Em algumas modalidades, as funções fI(C) e fu(C) pode definir transições diferentes das rampas lineares descritas acima (desde que a soma das funções seja igual a 1). Por exemplo, uma ou ambas as funções fI(C) e fu(C) pode definir uma curva para a linha plana.
[056] Para cada um dos valores de pixel dos dados de vídeo recebidos, gama A e gama B são derivadas da seguinte forma: 𝑅 𝑓 𝑅2020 𝐺 𝑓 𝐺2020 𝐵 𝑓 𝐵2020 𝑅 𝑓 𝑅2020 𝐺 𝑓 𝐺2020 𝐵 𝑓 𝐵2020
[057] Em outras palavras, para cada canal primário dos dados de vídeo de entrada R2020, G2020 e B2020, os valores de pixel com um nível de luminância abaixo do valor de limite correspondente do vetor de limite TR, TG, e TB (correspondendo a uma faixa de luminância específica da gama A) estão incluídos na gama A, enquanto os valores de pixel que excedem o valor limite específico
(significando que eles estão fora da faixa de luminância da gama A) são alocados à gama B.
[058] Quaisquer valores de intensidade da gama A e gama B derivados que são valores negativos são então cortados para 0 (ou branco). 𝑅 𝑚𝑎𝑥 𝑅 , 0 𝐺 𝑚𝑎𝑥 𝐺 , 0 [3] 𝐵 𝑚𝑎𝑥 𝐵 , 0 𝑅 𝑚𝑎𝑥 𝑅 , 0 𝐺 𝑚𝑎𝑥 𝐺 , 0 [4] 𝐵 𝑚𝑎𝑥 𝐵 , 0
[059] Os sinais de gama A e gama B derivados são então convertidos nas primárias definidas, conforme descrito acima, em relação ao bloco 308 e às equações 1 e 2.
[060] O método de corte de gama corta as cores para a borda das gamas A e B, que podem ser criadas aproximadamente da mesma forma para qualquer sistema de projetor. Em outras palavras, as cores produzidas por um projetor podem ser reproduzidas fielmente por qualquer outro tipo de projetor, independentemente das cores primárias serem ou não as mesmas.
[061] Alternativamente, a função de mistura pode ser aplicada às gamas A e B antes de cortar os valores negativos. Ao aplicar a função de mistura a cada gama, os valores de cada gama são convertidos para estarem em termos das primárias predefinidas do espaço de cor dos dados de vídeo recebidos. O corte pode então ser aplicado conforme mostrado abaixo. 𝑅 𝑚𝑎𝑥 𝑅 , 0 𝐺 𝑚𝑎𝑥 𝐺 , 0 𝐵 𝑚𝑎𝑥 𝐵 , 0 𝑅 𝑚𝑎𝑥 𝑅 , 0 𝐺 𝑚𝑎𝑥 𝐺 , 0 𝐵 𝑚𝑎𝑥 𝐵 , 0
[062] Este método maximiza a cobertura de gama para as primárias particulares de qualquer sistema de projetor.
[063] A FIG. 4 ilustra um diagrama de cromaticidade 400. O gráfico 400 inclui gamas de cores associadas ao sistema de exibição 100 e a gama de cores alvo (aqui, Rec2020). A gama 402 é a gama Rec2020. A gama 404 é a gama definida pelas primárias (longas) RL, GL, e BL do canal do olho direito (as primárias LLL), enquanto a gama 406 é a gama definida pelas primárias (curtas) RS, GS, e BS do canal do olho esquerdo (as primários SSS). A gama 416 é a gama definida ao direcionar os canais do olho direito e esquerdo com os mesmos valores (a gama “WCG”). Conforme ilustrado, a gama 408 difere significativamente da gama Rec2020 402. A gama 410 é a gama de cores virtual A e gama 412 é a gama de cores virtual B. Conforme descrito acima, a gama A é definida como uma combinação de primárias virtuais para aproximar a gama Rec2020 402 o mais próximo possível, enquanto a gama B é definida pela produção de energia restante das primárias virtuais após a energia utilizada para a gama A ter sido subtraída. Como mostrado, a gama A (gama 410) corresponde à gama Rec2020 402 mais proximamente em comparação com a gama de soma 408.
[064] A FIG. 5A ilustra um diagrama de cromaticidade 500A incluindo as gamas 402, 404, 406, 408, 410 e 412 descritas acima em relação à FIG. 4. O diagrama de cromaticidade 500A inclui a cromaticidade de entrada (preto) e a cromaticidade de saída resultante (cinza) obtida com o uso do método de corte de gama descrito acima.
As linhas conectando qualquer ponto de cromaticidade de entrada a um ponto de cromaticidade de saída (por exemplo, a linha que conecta o ponto de entrada 502A ao ponto de saída 502B) indicam como a cor de entrada foi alterada (se necessário).
Observe, no gráfico ilustrado 500A, a entrada máxima é menor do que o limite de luminância e, portanto, a gama B não é utilizada e que o segundo método de corte descrito acima foi usado.
[065] A FIG. 5B ilustra um diagrama de cromaticidade 500B incluindo as gamas 402, 404, 406, 408, 410 e 412 descritas acima em relação à FIG. 4. O diagrama de cromaticidade 500B inclui a cromaticidade de entrada (preto) e a cromaticidade de saída resultante (cinza) obtida com o uso do método de corte de gama descrito acima.
No gráfico ilustrado 500B, a entrada máxima é maior do que o limite de luminância e, portanto, a gama B é utilizada.
[066] Como mencionado acima, as matrizes de mistura são valores derivados determinados com base na localização da primária em comparação com Rec2020. As matrizes de mistura, em particular, são definidas de modo a colocar as primárias curtas e longas dos canais do olho direito e esquerdo, respectivamente, em um determinado local desejado. Os métodos de exemplo para determinar as matrizes de mistura para cada primária são descritos abaixo.
[067] A FIG. 6A ilustra uma vista melhorada 600A do diagrama de cromaticidade 400 da FIG. 4. Como mostrado na vista 600A, tanto a primária RS vermelha curta quanto a primária RL vermelha longa estão fora da gama de cores Rec2020 402. É necessário colocar a gama A dentro da gama de cores Rec2020 402.
Para determinar a matriz de mistura para a primária R vermelha, um método é ligar a primário à gama Rec2020. Isso pode ser feito misturando o comprimento de onda vermelho curto (RS) com o comprimento de onda verde longo para a gama A e misturando o comprimento de onda vermelho curto com o comprimento de onda vermelho longo (RL) para a gama B. A distância entre os comprimentos de onda vermelhos longos e curtos e o limite de Rec2020 é minimizada ao encontrar o ponto de distância mínima entre a cromaticidade resultante e o limite do Rec2020 ou um ponto de intersecção. Este local é então usado para definir as matrizes de mistura.
Por exemplo, a linha da vista melhorada 600A representa a mistura dos comprimentos de onda vermelho longo e verde curto. O ponto A representa onde a mistura se cruza com a gama Rec2020.
[068] Outro método é, a fim de não estar vinculado à gama Rec2020, maximizar a cobertura da gama resultante. A FIG. 6B ilustra uma vista melhorada 600B do diagrama de cromaticidade 400 da FIG. 4. Aqui, o ponto de menor distância de uma linha entre as primárias azul e verde da gama Rec2020 até a mistura dos comprimentos de onda vermelho longo (RL) e vermelho curto (RS). Isso resultou no uso do vermelho longo para a gama A e do vermelho curto para a gama B.
[069] A FIG. 7A ilustra uma vista melhorada 700A do diagrama de cromaticidade 400 da FIG. 4. Conforme mostrado na vista 700A, tanto a primária verde curta GS quanto a primária verde longa GL circundam a gama de cores Rec2020 402.
Novamente, é necessário colocar a gama A dentro da gama de cores Rec2020 402.
Aqui, as primárias são limitadas à gama Rec2020 402, definindo um ponto de interseção de uma linha B entre as duas primárias verdes com o limite Rec2020. Este local é então usado para definir as matrizes de mistura. O ponto verde C ilustra o ponto em que se encontra primária verde de gama A.
[070] Outro método é, a fim de não estar vinculado à gama Rec2020, maximizar a cobertura da gama resultante. A FIG. 7B ilustra uma vista melhorada 700B do diagrama de cromaticidade 400 da FIG. 4. Aqui, o ponto de distância mais curto de uma linha entre as primárias vermelha e azul da gama Rec2020 até a mistura dos comprimentos de onda verde longo (GL) e verde curto (GS). Isso resultou no uso de comprimentos de onda verdes curtos.
[071] A FIG. 8A ilustra uma vista melhorada 800A do diagrama de cromaticidade 400 da FIG. 4. Conforme mostrado na vista 800A, tanto a primária azul curta BS quanto a primária azul longa BL estão dentro da gama de cores Rec2020
402. Ambas as primárias devem estar fora do limite da gama de cores Rec2020 402.
Aqui, as primárias são limitadas à gama Rec2020 402, definindo um ponto de intersecção de uma linha D entre a primária azul longa e o comprimento de onda verde curto com o limite Rec2020. Este local é então usado para definir as matrizes de mistura. O ponto E ilustra o ponto em que se encontra a primária azul de gama A.
[072] Outro método é não ligar as primárias azuis à gama Rec2020, por exemplo, para maximizar a cobertura da gama resultante. A FIG. 8B ilustra uma vista melhorada 800B do diagrama de cromaticidade 400 da FIG. 4. Aqui, o ponto de distância mais curto de uma linha entre as primárias vermelha e azul da gama Rec2020 até a mistura dos comprimentos de onda azul longo (BL) e verde curto (GS).
Este local é então usado para definir as matrizes de mistura. Conforme ilustrado, o primário azul longo é usado para a gama A, enquanto o primário azul curto é usado para a gama B.
[073] No relatório descritivo anterior, modalidades específicas foram descritas.
No entanto, um versado na técnica reconhece que várias modificações e mudanças podem ser feitas sem se afastar do escopo da divulgação conforme estabelecido nas reivindicações abaixo. Consequentemente, o relatório descritivo e as figuras devem ser considerados em um sentido ilustrativo em vez de restritivo, e todas essas modificações devem ser incluídas no escopo dos presentes ensinamentos. Por exemplo, as técnicas divulgadas na presente invenção podem ser aplicadas a sistemas de projeção que são projetados para conteúdo não 3D. Por exemplo, um sistema de projeção de cabeça dupla pode utilizar a tecnologia divulgada. Além disso, as técnicas divulgadas podem ser aplicadas a mais de duas cabeças de projeção.
[074] Além disso, na presente invenção, termos relacionais como primeiro e segundo, superior e inferior e semelhantes podem ser usados exclusivamente para distinguir uma entidade ou ação de outra entidade ou ação, sem necessariamente exigir ou implicar qualquer relacionamento ou ordem real entre tais entidades ou ações. Os termos “compreende”, “compreendendo”, “tem”, “tendo”, “inclui”, “incluindo”, “contém”, ‘contendo’ ou qualquer outra variação dos mesmos, se destinam a cobrir uma inclusão não exclusiva, que um processo, método, artigo ou aparelho que compreende, tem, inclui, contém uma lista de elementos não inclui apenas esses elementos, mas pode incluir outros elementos não expressamente listados ou inerentes a tal processo, método, artigo ou aparelho. Um elemento precedido por “compreende ... um”, “tem ... um”, “inclui ... um”, “contém ... um”, não impede, sem mais restrições, a existência de elementos idênticos adicionais no processo, método, artigo ou aparelho que compreende, tem, inclui, contém o elemento. Os termos “um” e “uma” são definidos como um ou mais, a menos que explicitamente indicado de outra forma na presente invenção. Os termos “substancialmente”, “essencialmente”, “aproximadamente”, “cerca de” ou qualquer outra versão dos mesmos, são definidos como sendo próximos de como entendido por uma pessoa versada na técnica, e em uma modalidade não limitativa, o termo é definido para estar dentro de 10%, em outra modalidade dentro de 5%, em outra modalidade dentro de 1%, e em outra modalidade dentro de 0,5%. O termo “acoplado”, conforme usado na presente invenção, é definido como conectado, embora não necessariamente diretamente e não necessariamente mecanicamente. Um dispositivo ou estrutura que está “configurado” de uma certa maneira é configurado pelo menos dessa maneira, mas também pode ser configurado de maneiras que não estão listadas.
[075] Será apreciado que algumas modalidades podem ser compostas por um ou mais processadores genéricos ou especializados (ou “dispositivos de processamento”), tais como microprocessadores, processadores de sinais digitais, processadores personalizados e matrizes de portas programáveis em campo (FPGAs - “field programmable gate arrays”) e instruções de programa armazenadas exclusivas (incluindo software e firmware) que controlam um ou mais processadores para implementar, em conjunto com certos circuitos não processadores, algumas, a maioria ou todas as funções do método e/ou aparelho descrito na presente invenção.
Alternativamente, algumas ou todas as funções podem ser implementadas por uma máquina de estado que não tem instruções de programa armazenadas, ou em um ou mais circuitos integrados de específicos de aplicativos (ASICs - “application specific integrated circuits”), em que cada função ou algumas combinações de algumas das funções são implementadas como lógica personalizada. Claro, uma combinação das duas abordagens pode ser usada.
[076] Além disso, uma modalidade pode ser implementada como um meio de armazenamento legível por computador tendo código legível por computador nele armazenado para programar um computador (por exemplo, compreendendo um processador) para executar um método como descrito e reivindicado na presente invenção. Exemplos de tais meios de armazenamento legíveis por computador incluem, mas não se limitam a, um disco rígido, um CD-ROM, um dispositivo de armazenamento óptico, um dispositivo de armazenamento magnético, um ROM (Memória somente de leitura), um PROM (Memória somente de leitura programável), uma EPROM (memória somente leitura programável apagável), uma EEPROM (memória somente leitura programável apagável eletricamente) e uma memória Flash.
Além disso, espera-se que alguém de habilidade comum, não obstante o esforço possivelmente significativo e muitas escolhas de design motivadas, por exemplo, pelo tempo disponível, tecnologia atual e considerações econômicas, quando guiado pelos conceitos e princípios aqui divulgados, seja prontamente capaz de gerar tais instruções de software e programas e ICs com experimentação mínima.
[077] Vários aspectos da presente invenção podem ser apreciados a partir das seguintes modalidades de exemplo enumeradas (EEEs - “enumerated example embodiments”):
1. Um sistema de exibição de cabeça dupla, que compreende: uma primeira cabeça de projeção; uma segunda cabeça de projeção; pelo menos um modulador espacial; e um processador eletrônico configurado para: receber dados de vídeo 2D; gerar, a partir dos dados de vídeo, uma primeira pluralidade de valores de intensidade de primárias virtuais de uma primeira gama de cores virtual e uma segunda pluralidade de valores de intensidade de uma segunda gama de cores virtual,
a primeira pluralidade de valores de intensidade estando abaixo de um limite de luminância e se aproximando de uma gama de cores predefinida e a segunda pluralidade de valores de intensidade estando acima do limite de luminância; converter a primeira pluralidade de valores de intensidade em uma terceira pluralidade de valores de intensidade de primárias predefinidas da primeira cabeça de projeção e a segunda pluralidade de valores de intensidade em uma quarta pluralidade de valores de intensidade de primárias predefinidas da segunda cabeça de projeção; e ajustar dinamicamente os níveis de pixel do pelo menos um modulador espacial da primeira e da segunda cabeças de projeção com base na terceira pluralidade de valores de intensidade e na quarta pluralidade de valores de intensidade.
2. O sistema de acordo com a modalidade de exemplo enumerada 1 (EEE 1), em que o limite de luminância é um vetor de limite incluindo um limite para cada canal de cor da primeira gama de cores virtual.
3. O sistema de acordo com a modalidade de exemplo enumerada 2 (EEE 2), em que cada limite é determinado com base em uma transformação da primeira gama de cores virtual e da segunda gama de cores virtual para a gama de cores predefinida.
4. O sistema de acordo com qualquer uma das modalidades de exemplo enumeradas 1 a 3 (EEEs 1 a 3), em que quaisquer valores negativos da primeira pluralidade de valores de intensidade e da segunda pluralidade de valores de intensidade são cortados.
5. O sistema de acordo com qualquer uma das modalidades de exemplo enumeradas 1 a 4 (EEEs 1 a 4), em que quaisquer valores negativos da terceira pluralidade de valores de intensidade e da quarta pluralidade de valores de intensidade são cortados.
6. Método de exibição de dados de imagem, sendo que o método compreende: receber dados de vídeo 2D; gerar, a partir dos dados de vídeo, uma primeira pluralidade de valores de intensidade de primárias virtuais de uma primeira gama de cores virtual e uma segunda pluralidade de valores de intensidade de uma segunda gama de cores virtual, a primeira pluralidade de valores de intensidade da primeira gama de cores virtual estando abaixo de um limite de luminância e se aproximando de uma gama de cores predefinida e a segunda pluralidade de valores de intensidade estando acima do limite de luminância; converter a primeira pluralidade de valores de intensidade em uma terceira pluralidade de valores de intensidade de primárias predefinidas de uma primeira cabeça de projeção de um sistema de exibição e a segunda pluralidade de valores de intensidade em uma quarta pluralidade de valores de intensidade de primárias predefinidas de uma segunda cabeça de projeção do sistema de exibição; e ajustar dinamicamente os níveis de pixel de moduladores espaciais da primeira cabeça de projeção e da segunda cabeça de projeção do sistema de exibição com base na terceira pluralidade de valores de intensidade e na quarta pluralidade de valores de intensidade.
7. O método de acordo com a modalidade de exemplo enumerada 6 (EEE 6), em que o limite de luminância é um vetor de limite incluindo um limite para cada canal de cor.
8. O método de acordo com a modalidade de exemplo enumerada 7 (EEE 7), em que cada limite é determinado com base em uma transformação da primeira gama de cores virtual para a gama de cores predefinida.
9. O método de acordo com qualquer uma das modalidades de exemplo enumeradas 6 a 8 (EEEs 6 a 8), em que quaisquer valores negativos da primeira pluralidade de valores de intensidade e da segunda pluralidade de valores de intensidade são cortados.
10. O método de acordo com qualquer uma das modalidades de exemplo enumeradas 6 a 9 (EEEs 6 a 9), em que quaisquer valores negativos da terceira pluralidade de valores de intensidade e da quarta pluralidade de valores de intensidade são cortados.
11. O método de acordo com qualquer uma das modalidades de exemplo enumeradas 6 a 10 (EEEs 6 a 10), em que a conversão da primeira pluralidade de valores de intensidade em uma terceira pluralidade de valores de intensidade e da segunda pluralidade de valores de intensidade em uma quarta pluralidade de valores de intensidade é realizada por meio de uma função de mistura.
12. Um método de exibição de dados de imagem, sendo que o método é compreende: receber dados de vídeo; gerar, com base em um nível de intensidade dos dados de vídeo, uma primeira pluralidade de valores de intensidade associados a uma primeira gama de cores virtual; gerar, com base em uma comparação entre o nível de intensidade e pelo menos um limite predeterminado, uma segunda pluralidade de valores de intensidade associados a uma segunda gama de cores virtual; gerar, com base na primeira pluralidade e na segunda pluralidade de valores de intensidade, uma terceira pluralidade de valores de intensidade e uma quarta pluralidade de valores de intensidade, ambas configuradas para aproximar um espaço de cor predefinido associado aos dados de vídeo; e fornecer a terceira pluralidade de valores de intensidade e a quarta pluralidade de valores de intensidade para pelo menos um modulador de luz espacial.
13. O método de acordo com a modalidade de exemplo enumerada 12 (EEE
12), em que, em um caso em que o nível de intensidade não excede o limite predeterminado, a segunda pluralidade de valores de intensidade é definida como zero.
14. O método a modalidade de exemplo enumerada 12 ou 13 (EEE 12 ou 13), em que a segunda pluralidade de valores de intensidade é definida com base em uma quantidade em que o nível de intensidade excede o limite predeterminado, quando o nível de intensidade excede o limite predeterminado.
15. O método de acordo com qualquer uma das modalidades de exemplo enumeradas 12 a 14 (EEEs 12 a 14), sendo que o método compreende adicionalmente: modificar qualquer uma ou ambas dentre a primeira pluralidade de valores de intensidade e a segunda pluralidade de valores de intensidade quando pelo menos um valor de intensidade está fora de um volume de gama alcançável da primeira gama virtual e da segunda gama virtual.
16. O método de acordo com qualquer uma das modalidades de exemplo enumeradas 12 a 15 (EEEs 12 a 15), sendo que o método compreende adicionalmente: modificar qualquer uma ou ambas dentre a terceira pluralidade de valores de intensidade e a quarta pluralidade de valores de intensidade quando pelo menos um valor de intensidade está fora de um volume de gama alcançável da primeira gama virtual e da segunda gama virtual.
17. O método de acordo com qualquer uma das modalidades de exemplo enumeradas 12 a 16 (EEEs 12 a 16), em que pelo menos um limite predeterminado é um vetor com base em uma relação entre a primeira gama de cores virtual e a segunda gama de cores virtual no espaço de cores predefinido.
18. O método de acordo com qualquer uma das modalidades de exemplo enumeradas 12 a 17 (EEEs 12 a 17), sendo que o método compreende adicionalmente definir a primeira gama de cores virtual com base em uma combinação de uma pluralidade de cores de exibição primárias associadas a uma fonte de luz para aproximar uma gama de cores predefinida associada ao espaço de cor predefinido, e a segunda gama de cores virtual com base na potência residual da fonte de luz e na primeira gama de cores virtual.
19. O método de acordo com qualquer uma das modalidades de exemplo enumeradas 12 a 18 (EEEs 12 a 18), em que pelo menos um modulador de luz espacial é uma parte de um projetor de cabeça dupla.
20. O método de acordo com a modalidade de exemplo enumerada 19 (EEE 19), em que o projetor de cabeça dupla exibe uma imagem 2D com base na terceira pluralidade de valores de intensidade e na quarta pluralidade de valores de intensidade.
21. Um meio legível por computador não transitório que armazena instruções que, quando executadas por um processador de um computador, fazem com que o computador execute operações que compreendem: receber dados de vídeo 2D incluindo valores de pixel tristímulus de primárias predefinidas de um espaço de cor predefinido; gerar, a partir dos dados de vídeo, uma primeira pluralidade de valores de intensidade de primárias virtuais de uma primeira gama de cores virtual e uma segunda pluralidade de valores de intensidade de uma segunda gama de cores virtual para aproximar uma gama de cores predefinida, a primeira pluralidade de valores de intensidade estando abaixo de um limite de luminância da primeira gama de cores virtual e a segunda pluralidade de valores de intensidade estando acima do limite de luminância; converter, por meio de uma função de mistura, a primeira pluralidade de valores de intensidade em uma terceira pluralidade de valores de intensidade das primárias predefinidas e a segunda pluralidade de valores de intensidade em uma quarta pluralidade de valores de intensidade das primárias predefinidas; e ajustar dinamicamente os níveis de pixel de pelo menos um modulador espacial de um sistema de projeção de cabeça dupla com base na terceira pluralidade de valores de intensidade e na quarta pluralidade de valores de intensidade.

Claims (12)

REIVINDICAÇÕES
1. Sistema de exibição de cabeça dupla, CARACTERIZADO pelo fato de que compreende: uma primeira cabeça de projeção; uma segunda cabeça de projeção; pelo menos um modulador espacial; e um processador eletrônico configurado para: receber dados de vídeo 2D; gerar, a partir dos dados de vídeo, uma primeira pluralidade de valores de intensidade de primárias virtuais de uma primeira gama de cores virtual e uma segunda pluralidade de valores de intensidade de primárias virtuais de uma segunda gama de cores virtual, a primeira pluralidade de valores de intensidade estando abaixo de um limite de luminância e se aproximando de uma gama de cores predefinida e a segunda pluralidade de valores de intensidade estando acima do limite de luminância; converter a primeira pluralidade de valores de intensidade e a segunda pluralidade de valores de intensidade em uma terceira pluralidade de valores de intensidade de primárias predefinidas da primeira cabeça de projeção e em uma quarta pluralidade de valores de intensidade de primárias predefinidas da segunda cabeça de projeção, respectivamente; e ajustar dinamicamente os níveis de pixel do pelo menos um modulador espacial da primeira e da segunda cabeças de projeção com base na terceira pluralidade de valores de intensidade e na quarta pluralidade de valores de intensidade; em que o limite de luminância é um vetor de limite incluindo um limite para cada canal de cor da primeira gama de cores virtual e em que cada limite é determinado com base em uma transformação da primeira gama de cores virtual para a gama de cores predefinida.
2. Sistema, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que quaisquer valores negativos da primeira pluralidade de valores de intensidade e da segunda pluralidade de valores de intensidade são cortados.
3. Sistema, de acordo com qualquer uma das reivindicações 1 ou 2, CARACTERIZADO pelo fato de que quaisquer valores negativos da terceira pluralidade de valores de intensidade e da quarta pluralidade de valores de intensidade são cortados.
4. Sistema, de acordo com qualquer uma das reivindicações 1 a 3, CARACTERIZADO pelo fato de que o sistema de exibição de cabeça dupla está configurado para exibir uma imagem 2D com base na terceira pluralidade de valores de intensidade e na quarta pluralidade de valores de intensidade.
5. Método de exibição de dados de imagem, sendo que o método é CARACTERIZADO pelo fato de que compreende: receber dados de vídeo 2D; gerar, a partir dos dados de vídeo, uma primeira pluralidade de valores de intensidade de primárias virtuais de uma primeira gama de cores virtual e uma segunda pluralidade de valores de intensidade de primárias virtuais de uma segunda gama de cores virtual, a primeira pluralidade de valores de intensidade da primeira gama de cores virtual estando abaixo de um limite de luminância e se aproximando de uma gama de cores predefinida e a segunda pluralidade de valores de intensidade estando acima do limite de luminância; converter a primeira pluralidade de valores de intensidade e a segunda pluralidade de valores de intensidade em uma terceira pluralidade de valores de intensidade de primárias predefinidas de uma primeira cabeça de projeção de um sistema de exibição e converter a primeira pluralidade de valores de intensidade e a segunda pluralidade de valores de intensidade em uma quarta pluralidade de valores de intensidade de primárias predefinidas de uma segunda cabeça de projeção do sistema de exibição; e ajustar dinamicamente os níveis de pixel de pelo menos um modulador espacial da primeira cabeça de projeção e da segunda cabeça de projeção do sistema de exibição com base na terceira pluralidade de valores de intensidade e na quarta pluralidade de valores de intensidade; em que o limite de luminância é um vetor de limite incluindo um limite para cada canal de cor, e em que cada limite é determinado com base em uma transformação da primeira gama de cores virtual para a gama de cores predefinida.
6. Método, de acordo com a reivindicação 5, CARACTERIZADO pelo fato de que quaisquer valores negativos da primeira pluralidade de valores de intensidade e da segunda pluralidade de valores de intensidade são cortados.
7. Método, de acordo com qualquer uma das reivindicações 5 ou 6, CARACTERIZADO pelo fato de que quaisquer valores negativos da terceira pluralidade de valores de intensidade e da quarta pluralidade de valores de intensidade são cortados.
8. Método, de acordo com qualquer uma das reivindicações 5 a 7, CARACTERIZADO pelo fato de que a conversão da primeira pluralidade de valores de intensidade e da segunda pluralidade de valores de intensidade em uma terceira pluralidade de valores de intensidade e a conversão da primeira pluralidade de valores de intensidade e da segunda pluralidade de valores de intensidade em uma quarta pluralidade de valores de intensidade é realizada por meio de uma função de mistura.
9. Método, de acordo com qualquer uma das reivindicações 5 a 8, sendo que o método é CARACTERIZADO pelo fato de que compreende adicionalmente: modificar qualquer uma ou ambas dentre a primeira pluralidade de valores de intensidade e a segunda pluralidade de valores de intensidade quando pelo menos um valor de intensidade está fora de um volume de gama alcançável da primeira gama virtual e da segunda gama virtual.
10. Método, de acordo com qualquer uma das reivindicações 5 a 9, sendo que o método é CARACTERIZADO pelo fato de que compreende adicionalmente: modificar qualquer uma ou ambas dentre a terceira pluralidade de valores de intensidade e a quarta pluralidade de valores de intensidade quando pelo menos um valor de intensidade está fora de um volume de gama alcançável da primeira gama virtual e da segunda gama virtual.
11. Método, de acordo com qualquer uma das reivindicações 5 a 10, sendo que o método é CARACTERIZADO pelo fato de que compreende adicionalmente definir a primeira gama de cores virtual com base em uma combinação de uma pluralidade de cores de exibição primárias associadas a uma fonte de luz para aproximar uma gama de cores predefinida associada ao espaço de cor predefinido, e a segunda gama de cores virtual com base na potência residual da fonte de luz e na primeira gama de cores virtual.
12. Meio legível por computador não transitório, CARACTERIZADO pelo fato de que armazena instruções que, quando executadas por um processador de um computador, fazem com que o computador execute operações de acordo com qualquer um dos métodos das reivindicações 5 a 11.
BR112020017270-7A 2018-12-27 2019-12-10 Imagens bidimensionais (2d) com renderização de ampla gama de cores em telas com capacidade tridimensional (3d) BR112020017270A2 (pt)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862785470P 2018-12-27 2018-12-27
US62/785,470 2018-12-27
EP19155881.6 2019-02-07
EP19155881 2019-02-07
PCT/US2019/065330 WO2020139546A1 (en) 2018-12-27 2019-12-10 Rendering wide color gamut, two-dimensional (2d) images on three-dimensional (3d) capable displays

Publications (1)

Publication Number Publication Date
BR112020017270A2 true BR112020017270A2 (pt) 2020-12-22

Family

ID=69158306

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112020017270-7A BR112020017270A2 (pt) 2018-12-27 2019-12-10 Imagens bidimensionais (2d) com renderização de ampla gama de cores em telas com capacidade tridimensional (3d)

Country Status (8)

Country Link
US (2) US11303873B2 (pt)
EP (2) EP4007275A1 (pt)
JP (1) JP2022514999A (pt)
KR (1) KR20210110502A (pt)
CN (2) CN115134580A (pt)
BR (1) BR112020017270A2 (pt)
ES (1) ES2902907T3 (pt)
WO (1) WO2020139546A1 (pt)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BR112020017270A2 (pt) * 2018-12-27 2020-12-22 Dolby Laboratories Licensing Corporation Imagens bidimensionais (2d) com renderização de ampla gama de cores em telas com capacidade tridimensional (3d)

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1407445B1 (en) 2001-06-07 2010-07-21 Genoa Color Technologies Ltd. System and method of data conversion for wide gamut displays
JP4549881B2 (ja) * 2004-03-18 2010-09-22 シャープ株式会社 色信号変換装置、表示ユニット、色信号変換プログラム、色信号変換プログラムを記録したコンピュータ読み取り可能な記録媒体
WO2005109854A1 (en) * 2004-05-11 2005-11-17 Koninklijke Philips Electronics N.V. Method for processing color image data
FR2874731B1 (fr) * 2004-09-02 2007-03-16 Optis Sa Procede et systeme d'affichage d'une image numerique en couleurs vraies
RU2294002C2 (ru) 2005-03-25 2007-02-20 Самсунг Электроникс Ко., Лтд. Проекционная система
US8390643B2 (en) 2006-09-20 2013-03-05 Koninklijke Philips Electronics N.V. Dynamic gamut control
KR20100114494A (ko) * 2007-09-11 2010-10-25 알지비 라이트 리미티드 컬러 공간의 이차원 표현
US8029139B2 (en) * 2008-01-29 2011-10-04 Eastman Kodak Company 2D/3D switchable color display apparatus with narrow band emitters
JP4511611B2 (ja) 2008-05-29 2010-07-28 株式会社エヌ・ティ・ティ・ドコモ 無線リソース選択方法、無線基地局及び移動局
WO2011045716A1 (en) * 2009-10-15 2011-04-21 Koninklijke Philips Electronics N.V. Dynamic gamut control
EP2378508A1 (en) * 2010-04-15 2011-10-19 Koninklijke Philips Electronics N.V. Display control for multi-primary display
US8884994B2 (en) 2011-05-13 2014-11-11 Samsung Display Co., Ltd. Method and apparatus for blending display modes
US9324250B2 (en) * 2011-09-09 2016-04-26 Dolby Laboratories Licensing Corporation High dynamic range displays comprising MEMS/IMOD components
US20130128083A1 (en) * 2011-11-23 2013-05-23 Himax Imaging Limited High dynamic range image sensing device and image sensing method and manufacturing method thereof
JP2014209175A (ja) * 2013-03-27 2014-11-06 キヤノン株式会社 画像表示装置
CN105493489B (zh) * 2013-08-22 2019-02-22 杜比实验室特许公司 色域映射系统及方法
ES2929313T3 (es) * 2013-10-10 2022-11-28 Dolby Laboratories Licensing Corp Visualización de contenido DCI y otro en un proyector de rango dinámico mejorado
KR102158844B1 (ko) * 2014-01-03 2020-09-22 삼성전자주식회사 영상 처리 장치, 영상 처리 방법, 및 컴퓨터 판독가능 기록매체
GB2532354B (en) 2014-06-06 2017-03-29 Imagination Tech Ltd Gamut mapping
US9798134B2 (en) * 2014-12-27 2017-10-24 Texas Instruments Incorporated Side-illuminated excitation optics apparatus and systems
US10244245B2 (en) * 2015-06-08 2019-03-26 Qualcomm Incorporated Content-adaptive application of fixed transfer function to high dynamic range (HDR) and/or wide color gamut (WCG) video data
JP2017050830A (ja) * 2015-09-04 2017-03-09 パナソニックIpマネジメント株式会社 照明装置、照明システム、及びプログラム
EP3226203A1 (en) 2016-03-30 2017-10-04 Thomson Licensing Method for detection of saturated pixels in an image
EP3242482A1 (en) 2016-05-04 2017-11-08 Thomson Licensing Method and apparatus for encoding/decoding a high dynamic range picture into a coded bitstream
PL3476122T3 (pl) * 2016-06-22 2021-01-11 Dolby Laboratories Licensing Corporation Renderowanie obrazów dwuwymiarowych (2d) o szerokie] gamie barw na wyświetlaczach umożliwiających wyświetlanie trójwymiarowe (3d)
US10089063B2 (en) 2016-08-10 2018-10-02 Qualcomm Incorporated Multimedia device for processing spatialized audio based on movement
US10425633B2 (en) * 2016-12-30 2019-09-24 Konica Minolta Laboratory U.S.A., Inc. Method and system for capturing images for wound assessment with moisture detection
US20180262744A1 (en) * 2017-02-07 2018-09-13 Mindmaze Holding Sa Systems, methods and apparatuses for stereo vision
CN107424197B (zh) * 2017-04-24 2020-09-22 齐鲁工业大学 一种基于光谱域映射来实现跨媒体颜色再现的方法
US11265530B2 (en) * 2017-07-10 2022-03-01 Contrast, Inc. Stereoscopic camera
CN107517396A (zh) * 2017-08-15 2017-12-26 深圳Tcl新技术有限公司 电视机、电视机的显示器调色方法以及显示器
EP3518223A4 (en) * 2017-09-12 2020-01-08 Sony Corporation DISPLAY DEVICE AND SIGNAL PROCESSING METHOD
BR112020017270A2 (pt) * 2018-12-27 2020-12-22 Dolby Laboratories Licensing Corporation Imagens bidimensionais (2d) com renderização de ampla gama de cores em telas com capacidade tridimensional (3d)
JP2023516536A (ja) * 2020-01-30 2023-04-20 ドルビー ラボラトリーズ ライセンシング コーポレイション 色域による投影システム及び方法

Also Published As

Publication number Publication date
CN111801938B (zh) 2022-08-26
CN111801938A (zh) 2020-10-20
EP3729801B1 (en) 2021-12-01
JP2022514999A (ja) 2022-02-17
EP3729801A1 (en) 2020-10-28
KR20210110502A (ko) 2021-09-08
RU2020128579A3 (pt) 2022-02-28
WO2020139546A1 (en) 2020-07-02
CN115134580A (zh) 2022-09-30
US11606545B2 (en) 2023-03-14
US20220046217A1 (en) 2022-02-10
ES2902907T3 (es) 2022-03-30
US20220210389A1 (en) 2022-06-30
EP4007275A1 (en) 2022-06-01
RU2020128579A (ru) 2022-02-28
US11303873B2 (en) 2022-04-12

Similar Documents

Publication Publication Date Title
ES2703517T3 (es) Modulación de luz basada en la gestión de presentación global
US10171779B2 (en) Optimizing drive schemes for multiple projector systems
ES2784691T3 (es) Visualización de contenido DCI y otro en un proyector de rango dinámico mejorado
ES2837676T3 (es) Sistemas de proyector con modulador único o múltiple con variación del flujo luminoso global
WO2020057152A1 (zh) 动态色域调节系统、方法及显示系统
US20190147788A1 (en) Image display apparatus and conversion information generation method
JP2022126628A (ja) 三次元(3d)対応ディスプレイ上への広色域二次元(2d)画像の描画
US20200382750A1 (en) Method of controlling display device, and display device
BR112020017270A2 (pt) Imagens bidimensionais (2d) com renderização de ampla gama de cores em telas com capacidade tridimensional (3d)
JP6420897B2 (ja) デジタルマイクロミラーデバイス制御装置と投射表示システム
EP4097970B1 (en) Projection system and method with blended color gamut
US20140225910A1 (en) Methods and apparatus to render colors to a binary high-dimensional output device
US11443705B2 (en) Image display device for displaying moving images
RU2772236C2 (ru) Рендеринг изображений с широкой цветовой палитрой, отображение двумерных изображений на дисплеях, способных отображать трехмерные изображения
JP2008107445A (ja) プロジェクタおよび変調制御方法

Legal Events

Date Code Title Description
B350 Update of information on the portal [chapter 15.35 patent gazette]