BRPI0709260A2 - método para renderizar conteúdo de imagem, aplicativo incorporado em um meio legìvel por computador, processador para renderizar conteúdo de imagem, sinal de imagem auxiliar, e, método para gerar dados auxiliares para exibir elementos em um mostrador secundário em uma vizinhança de um mostrador primário - Google Patents

método para renderizar conteúdo de imagem, aplicativo incorporado em um meio legìvel por computador, processador para renderizar conteúdo de imagem, sinal de imagem auxiliar, e, método para gerar dados auxiliares para exibir elementos em um mostrador secundário em uma vizinhança de um mostrador primário Download PDF

Info

Publication number
BRPI0709260A2
BRPI0709260A2 BRPI0709260-1A BRPI0709260A BRPI0709260A2 BR PI0709260 A2 BRPI0709260 A2 BR PI0709260A2 BR PI0709260 A BRPI0709260 A BR PI0709260A BR PI0709260 A2 BRPI0709260 A2 BR PI0709260A2
Authority
BR
Brazil
Prior art keywords
elements
rendering
primary
processor
content
Prior art date
Application number
BRPI0709260-1A
Other languages
English (en)
Inventor
Bart Gerard Bernard Barenburg
Leo Jan Velthoven
Mark Josef Willem Mertens
Michiel Adriaanszoon Klompenhouwer
Bruijn Frederik Jan De
Original Assignee
Koninkl Philips Electronics Nv
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninkl Philips Electronics Nv filed Critical Koninkl Philips Electronics Nv
Publication of BRPI0709260A2 publication Critical patent/BRPI0709260A2/pt

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4122Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4131Peripherals receiving signals from specially adapted client devices home appliance, e.g. lighting, air conditioning system, metering devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4318Generation of visual interfaces for content selection or interaction; Content or additional data rendering by altering the content in the rendering process, e.g. blanking, blurring or masking an image region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/454Content or additional data filtering, e.g. blocking advertisements
    • H04N21/4545Input to filtering algorithms, e.g. filtering a region of the image
    • H04N21/45455Input to filtering algorithms, e.g. filtering a region of the image applied to a region of the image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0117Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal
    • H04N7/0122Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal the input and the output signals having different aspect ratios

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Systems (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

MéTODO PARA RENDERIZAR CONTEúDO DE IMAGEM, APLICATIVO INCORPORADO EM UM MEIO LEGìVEL POR COMPUTADOR, PROCESSADOR PARA RENDERIZAR CONTEúDO DE IMAGEM, SINAL DE IMAGEM AUXILIAR, E, MéTODO PARA GERAR DADOS AUXILIARES PARA EXIBIR ELEMENTOS EM UM MOSTRADOR SECUNDáRIO EM UMA VIZINHANçA DE UM MOSTRADOR PRIMáRIO. Um dispositivo (500) e método para renderizar conteúdo que inclui analisar prévias e/ou subsequentes porções temporais de um sinal de conteúdo para determinar elementos que são posicionalmente relacionados aos elementos de uma porção corrente do sinal de conteúdo. Uma porção corrente do sinal de conteúdo é renderizada em um dispositivo de renderização primário (530), tal como uma televisão, enquanto os elementos que são posicionalmente relacionado aos elementos de uma porção corrente do sinal de conteúdo são, de forma concorrente, renderizados em um dispositivo de renderização secundário (540). Em uma modalidade, os elementos que são renderizados no dispositivo de renderização secundário (540) podem ser renderizados em uma mais baixa resolução e/ou mais baixa taxa de quadro do que uma porção corrente do sinal de conteúdo renderizada. Em uma modalidade, pelo menos um das prévias e subseqúentes porções temporais de um sinal de conteúdo pode ser analisado em uma mais baixa resolução do que o sinal de conteúdo.

Description

"MÉTODO PARA RENDERIZAR CONTEÚDO DE IMAGEM,APLICATIVO INCORPORADO EM UM MEIO LEGÍVEL PORCOMPUTADOR, PROCESSADOR PARA RENDERIZAR CONTEÚDODE IMAGEM, SINAL DE IMAGEM AUXILIAR, E3 MÉTODO PARAGERAR DADOS AUXILIARES PARA EXIBIR ELEMENTOS EM UMMOSTRADOR SECUNDÁRIO EM UMA VIZINHANÇA DE UMMOSTRADOR PRIMÁRIO"
O presente sistema se relaciona à unidades de exibição devídeo tendo efeitos de iluminação de ambiente onde características de luz deambiente são adaptadas com base em uma pluralidade de quadros de imagem.
Sistemas são conhecidos que ajustam a apresentação deconteúdo mudando uma proporção de aspecto do conteúdo de uma proporçãode aspecto do conteúdo fornecido para uma proporção de aspecto de umdispositivo de apresentação. A proporção de aspecto, de forma geral, se refereao formato da imagem tal como proporção entre largura e altura das imagensrenderizadas.
Por exemplo, uma proporção de aspecto 16:9 tem sidoamplamente adotada como um a forma de exibição para aparelhos detelevisão de high-end, ainda, a maioria das transmissões de televisão sãotransmitidas em uma proporção de aspecto de 4:3. Ao mesmo tempo,quantidades grandes de material de imagem com outras proporções de aspecto(por exemplo, 16:9, 14:9, etc.) são fornecidas enquanto este material é, emúltima instância, exibido em dispositivos de exibição com uma proporção deaspecto de 4:3. Devido a este desencontro, alguma forma de conversão deproporção de aspecto é tipicamente fornecida.
Em um sistema para fornecer uma conversão de 4:3 para 16:9,barras pretas são adicionais aos lados do conteúdo exibido fornecendo o que édenominado uma apresentação "caixa de texto". Este método fornece nenhumresultado de 16:9 real, ainda é tipicamente fornecido para eliminar distorçãode imagem introduzida por outros métodos. Em um sistema alternativo,imagens (por exemplo, quadros de figuras em movimento) podem serampliadas esticando o conteúdo horizontalmente e verticalmente, ainda estesistema resulta na informação em topo ou um pé do conteúdo sendo perdido.
Em ainda uma outra modalidade, conteúdo pode ser esticado somente nadireção horizontal, ainda este sistema resulta em objetos exibidos no conteúdosendo distorcidos resultando em uma mudança na forma dos objetos (porexemplo, objetos circulares ser tornam em forma oval). De forma similar, oconteúdo exibido pode ser esticado horizontalmente com um fator deaproximação não uniforme tal que objetos no lado da imagem exibida sãomais esticados do que os objetos no centro da imagem exibida. Este sistemafornece objetos posicionados de forma centralizada a serem exibidos compequena ou nenhuma distorção, ainda quando esses objetos se movem de umporção do mostrador (por exemplo, centro do mostrador) para uma outraporção do mostrador (por exemplo, borda do mostrador), o objeto serásubmetido aos diferentes fatores de aproximação conforme ele cruza omostrador que pode estar completamente despreparado. Este problema éexacerbado pelo conteúdo que se origina como conteúdo de 16:9, tal comoconteúdo de figura em movimento, que é editado para apresentação detelevisão. Muitas vezes, este conteúdo é fornecido utilizando uma técnica de"apresentação e varredura "onde o conteúdo de figura em movimento édeslocado de um lado do conteúdo de figura em movimento para um outrolado do conteúdo de figura em movimento para criar o conteúdo de proporçãode aspecto de 4:3, que é, de forma subseqüente transmitido difusamente.Nesta apresentação de apresentação e varredura, objetos estão constantementeem movimento de um lado do mostrador para um outro.
Publicação de patente US No. 2003/0035482 paraKlompenhouwer ("a patente de "Klompenhouwer"), que é incorporada aquipara referência como aqui estabelecida em sua totalidade, descreve umsistema para estender uma dada imagem utilizando pixéis de uma prévia e/ousubseqüente imagem. Por exemplo, para uma imagem em movimentofornecida que tem um movimento global se movendo para a direita, imagensprévias podem ser utilizadas para preencher pixéis para a esquerda da imagemdada sem distorcer os objetos representados na imagem dada. De formasimilar, para conteúdo armazenado ou conteúdo que está disponível algumtempo antes de ser exibido e um movimento global se movendo para a direita,imagens subseqüentes podem ser utilizadas para preencher pixéis para adireita dada imagem dada. Enquanto este sistema fornece uma mais naturalapresentação de conteúdo do que soluções anteriores, ele não faz nada paraaprimorar a apresentação de conteúdo além do dispositivo mostrador.
Koninklijke Philips Electronics N.V. (Philips) e outrascompanhias têm divulgado meios para mudar a iluminação de ambiente ouperiférica para aprimorar o conteúdo de vídeo para aplicativos domésticastípicas ou de negócios. Iluminação de ambiente adicional para um mostradorde vídeo ou televisão tem sido mostrada para reduzir fadiga do observador emelhorar o realismo e profundidade da experiência. Correntemente, Philipstem uma linha de televisores, incluindo televisores de tela plana comiluminação de ambiente, onde um quadro em torno da televisão inclui fontesde luz de televisão que projetam luz de ambiente em uma parede de trás quesuporta ou está próxima da televisão. Ainda, fontes de luz separadas datelevisão podem também ser utilizadas para produzir luz de ambiente que seestende além do mostrador da televisão.
Pedido de patente PCT WO 2004/006570 incorporado aquipara referência como estabelecida em sua totalidade, divulga um sistema edispositivo para controlar os efeitos de iluminação de ambiente com base emcaracterísticas de dor do conteúdo exibido, tal como matiz, saturação, brilho,cores, velocidade de mudanças de cena, caracteres reconhecidos, humordetectado, etc. Em operação, o sistema analisa o conteúdo recebido e podeutilizar a distribuição do conteúdo, tal como cor média, sobre o mostradorinteiro ou utilizar as porções do conteúdo exibido que são posicionadospróximo a borda do mostrador para controlar os elementos de iluminação deambiente. A característica de luz de ambiente, de forma geral, usa o conteúdode vídeo do próprio mostrador para gerar os efeitos de iluminação deambiente em uma base por quadro junto com média temporal para suavizartransições temporais dos elementos de iluminação de ambiente. Em outrossistemas, um descritivo de iluminação pode ser utilizado para gerar os efeitosde iluminação de ambiente em coordenação com as imagens representadascorrentemente. Enquanto este sistema, de forma eficiente, expande o tamanhode imagem percebido, no fato, os sistemas de iluminação de ambiente anteriortipicamente meramente expandem os objetos e cenas fornecidas em umquadro de conteúdo dado.
É um objeto do presente sistema para superar desvantagens naarte anterior e melhorar o efeito de iluminação de ambiente para facilitar umaexperiência de observação mais de imersão.
O presente sistema fornece um dispositivo e método pararenderizar conteúdo. O dispositivo e método inclui analisar prévias e/ousubseqüentes porções temporais de um sinal de conteúdo para determinarelementos que são posicionalmente relacionados aos elementos de umaporção corrente do sinal de conteúdo. Uma porção corrente do sinal deconteúdo é renderizada em um dispositivo de renderização primário, tal comouma televisão, enquanto os elementos que são posicionalmente relacionadosaos elementos de uma porção corrente do sinal de conteúdo são de formaconcorrente, renderizados em uma dispositivo de renderização secundário.
Em uma modalidade, os elementos que são renderizados no dispositivo derenderização secundário podem ser renderizados em uma resolução maisbaixa do que uma porção corrente do sinal de conteúdo renderizada. Em umamodalidade, pelo menos uma das prévias e subseqüentes porções temporaisdo sinal de conteúdo pode ser analisada em uma resolução mais baixa do queo sinal de conteúdo.
Os elementos que são renderizados no dispositivo derenderização secundário podem ser renderizados em uma resolução devariação, onde a variação é determinada com base em uma posição doelemento renderizado em relação ao sinal de conteúdo renderizado nodispositivo de renderização primário. Em uma outra modalidade, oselementos que são renderizados no dispositivo de renderização secundáriopodem ser renderizados em uma resolução que é determinada com base emuma posição do elemento renderizado em relação ao sinal de conteúdorenderizado no dispositivo de renderização primário. Os elementos que sãorenderizados no dispositivo de renderização secundário podem serrenderizados em uma resolução que é determinada com base em uma posiçãotemporal do elemento renderizado em relação ao sinal de conteúdorenderizado no dispositivo de renderização primário.
Os elementos renderizados no dispositivo de renderizaçãosecundário podem ser renderizados utilizando dados auxiliares, tal comodados de Experiência de Ambiente (AMBX) e Informação de IntensificaçãoSuplementar (SEI), relacionado aos elementos determinados. Os dadosauxiliares podem ser associados com o sinal de conteúdo, tal comotransmitido junto com o sinal de conteúdo ou armazenado junto com o sinalde conteúdo. Desta maneira, os requisitos de processamento no local dodispositivo de renderização primário podem ser reduzidos e/ou maisinformação precisa relacionada aos elementos renderizados pode serfornecida. Os dados auxiliares pode também fornecer informação paraauxiliar a determinar um posicionamento de recursos e/ou objetos nosmostradores secundários.
Em uma modalidade, o dispositivo de renderização secundáriopode ser um dispositivo de renderização de iluminação de ambiente e oselementos podem ser renderizados como elementos de iluminação deambiente. No mesmo ou uma modalidade alternativa, o dispositivo derenderização secundário pode ser um ou mais dispositivos de renderizaçãoperiféricos (por exemplo, mostradores) e os elementos podem serrenderizados como elementos de imagem periféricos. Como utilizados aqui,um dispositivo/mostrador de renderização periférico é pretendido paradescrever um dispositivo/mostrador de renderização que está em umavizinhança do dispositivo de renderização primário. Os elementosdeterminados podem ser determinados com base em uma posição dodispositivo de renderização secundário com respeito ao dispositivo derenderização primário. O dispositivo de renderização secundário pode incluiruma pluralidade de mostradores secundários. Os elementos determinadospodem ser determinados com base em uma posição de cada um dosdispositivos de renderização secundários com respeito ao dispositivo derenderização primário. Os elementos determinados podem ser determinadoscom base em dados auxiliares, tal como dados de Experiência de Ambiente(AMBX) e Informação de Intensificação Suplementar (SEI), associados com o conteúdo.
O dispositivo de renderização secundário pode incluir dois oumais dispositivos de renderização secundários com um dos dispositivos derenderização secundários posicionado em um lado (por exemplo, acima,abaixo, lado esquerdo, lado direito) do dispositivo de renderização primário eum outro um dos dispositivos de renderização secundários posicionados emum outro lado do dispositivo de renderização primário. Em uma modalidade,cada uma das prévias e subseqüentes porções temporais do sinal de conteúdopode ser analisada para determinar os elementos, por exemplo paradispositivos de renderização secundários que são posicionados para aesquerda e direita do dispositivo de renderização primário. Em umamodalidade, os elementos renderizados no dispositivo de renderizaçãosecundário podem ser renderizados em uma taxa de quadro mais baixa do queo sinal de conteúdo renderizado no dispositivo de renderização primário.
O seguinte são descrições de modalidades ilustrativas quequando consideradas em conjunto com os seguintes desenhos, irão demonstraros recurso e vantagens notados acima, assim como alguns adicionais. Naseguinte descrição, para propósitos de explicação mais propriamente do quelimitação, detalhes específicos são estabelecidos tais como, arquiteturaparticular, interfaces, técnicas, para ilustração. Contudo, será aparente paraaquele de qualificação simples na arte que outras modalidades que fogemdesses detalhes específicos ainda seriam entendido estarem dentro do escopodas reivindicações anexas. Mais ainda, para o propósito de clareza, descriçõesdetalhadas de dispositivos, circuitos, e métodos bem conhecidos são omitidosa fim de não obscurecer a descrição do presente sistema.
Deve ser expressamente entendido que os desenhos sãoincluídos para propósitos ilustrativos e não representam o escopo do presentesistema. Nos desenhos anexos, números de referência parecidos em desenhosdiferentes pode designar elementos similares.
FIG. 1 mostra uma modalidade do presente sistemaconfigurado para aprimorar uma experiência de observação de um mostradorde acordo com uma modalidade do presente sistema;
FIG. 2 mostra uma vista frontal de um sistema de acordo comuma modalidade do presente sistema;
FIG. 3 mostra um vista ampliada ilustrando detalhes de umsistema de iluminação de ambiente utilizando uma fonte de iluminação deambiente de acordo com uma modalidade do presente sistema;
FIG. 4 mostra um sistema de iluminação periférica de imersãoilustrativo de acordo com uma modalidade do presente sistema; e
FIG. 5 mostra um sistema de acordo com uma modalidade dopresente sistema.FIG. 1 mostra uma modalidade 100 do presente sistema,configurada para melhorar a experiência de observação de um mostrador 110criando padrões de luz 120A, 120B, fora de uma área de observação normal,tal como uma área de exibição de proporção de aspecto de 4:3, conteúdo destereforço não são simplesmente derivados a partir do conteúdo de vídeocorrente mostrado na tela ou partes dela, por exemplo, como pode seraplicado em recursos de iluminação de ambiente anteriores computando umaextensão do quadro de vídeo corrente para uma área fora da imagem de vídeocorrente. Na modalidade mostrada, uma renderização corrente de conteúdo devídeo (por exemplo, um quadro de conteúdo de vídeo exibido) fornecido emuma proporção de aspecto de imagem de 4:3 é estendido através de imagensde extensão (por exemplo, um ou mais de padrões de luz 120A, 120B)derivada de quadros anteriores e/ou subseqüentes (antes ou subseqüente a umquadro corrente) de conteúdo de vídeo. Os quadros anteriores e/ousubseqüentes de conteúdo de vídeo pode incluir um ou mais quadrosanteriores e/ou subseqüentes. Em uma modalidade, somente uma porção (porexemplo, tal como uma característica, objeto, e/ou elemento de forma geral,)de um quadro anterior e/ou subseqüente pode ser analisado. Por exemplo,uma característica de conhecimento de um quadro anterior pode ser analisadasem examinar o quadro anterior inteiro. Em uma modalidade, duas ou maisporções de quadro podem ser analisadas. Por exemplo, duas porções dequadro anteriores, ou uma porção anterior e uma porção de quadro correntepode ser utilizadas de acordo com o presente sistema. Em uma outramodalidade quando duas porções de quadro (por exemplo, incluindo pelomenos um de uma porção de quadro anterior ou subseqüente) são analisadaspara determinar um padrão de luz (por exemplo, padrão de luz 120A), asporções de quadro não necessitam ser temporariamente consecutivas embora,em uma modalidade, as porções de quadro podem ser temporariamenteconsecutivas. Uma ou mais das áreas de extensão 130A, 130B pode serfornecida através de uma característica de iluminação de ambiente de acordocom o presente sistema, tal como fornecida renderizando (por exemplo,projetando) uma ou mais imagens de iluminação de ambiente em uma paredeque está posicionada atrás do mostrador 110 a partir da perspectiva de um observador do mostrador 110. Naturalmente, um ou mais dos padrões de luz120A, 120B pode ser fornecido através de um ou mais dispositivos derenderização afixado ao mostrador 110 e/ou através de um ou mais renderizardispositivos de renderização (por exemplo, projetor), ou outro dispositivosque são separados do mostrador 110 e que têm uma habilidade de renderizar(mostrador e/ou projetor) um ou mais dos padrões de luz 120A, 120B. Emuma modalidade, um ou mais dos padrões de luz 120A, 120B pode serfornecido através de um ou mais dispositivos de exibição. Por exemplo, opadrão de luz 120A pode ser fornecido, através de dois ou mais dispositivosde exibição operando como elementos de iluminação de ambiente. De modosimilar, o padrão de luz 120B pode ser fornecido através de dois ou maisdispositivos de exibição operando como elementos de iluminação de ambiente.
Em uma modalidade de acordo com o presente sistema, um oumais dos padrões de luz 120A, 120B são fornecidos em uma resolução que émais baixa do que os quadros apresentados no mostrador 110. Por exemplo,uma ou mais das áreas de extensão 130A, 13OB pode ser fornecida através de20x40 pixéis de 20 χ 40 de resolução por área de extensão. Naturalmente, emoutras modalidades, mais ou menos resolução pode ser fornecida com umaapreciação que uma maior resolução tipicamente requer mais processamentopara discernir os padrões de luz, dos que são requeridos para fornecer umpadrão de luz de resolução mais baixa.
Por exemplo, de acordo com o presente sistema, vetores demovimento globais ou locais de quadros e/ou objetos representados emquadros (por exemplo, quadros precedendo e/ou procedendo) podem serdeterminados para uso de acordo com o presente sistema e/ou podem serdeterminados como um produto de outras porções do sistema, tal comopodem ser utilizadas durante o processamento de imagem de Grupo deEspecialistas em Imagem em Movimento (MPEG). Para uma imagem devídeo que tem um vetor de movimento global (por exemplo do plano defundo/da prioridade de pixéis) da imagem fornecida no mostrador 110 (porexemplo, meta 140) ou um vetor de movimento local de um objeto que está semovendo para a direita conforme os quadros de vídeo fornecidos nomostrador 110 temporariamente progridem, o padrão de luz 120A pode serdiscernido de um ou mais quadros de conteúdo de vídeo que precede o quadrocorrentemente mostrado no mostrador 110. O tamanho de vetores demovimento do quadro (global) e/ou do objeto (local) e a largura do padrão deluz 120A fornecida na área de extensão 13 OA pode ser utilizada emdeterminar como muitos quadros anteriores são examinados para determinar opadrão de luz 120A como pode ser prontamente apreciado. Em umamodalidade de acordo com o presente sistema, para vetores de movimentomaiores, menos quadros anteriores podem ser utilizados (por exemplo, um oumais quadros anteriores) para discernir o padrão de luz 120A, embora em umaoutra modalidade, o mesmo número de quadros anteriores pode serexaminado independente do tamanho dos vetores de movimento. Porexemplo, em uma modalidade, quando os vetores de movimento são maiores,mais resolução pode ser fornecida na área de extensão 13 0A.
De forma similar, em uma imagem de vídeo que tem um vetorde movimento global da imagem fornecida no mostrador 110 ou um vetor demovimento local de um objeto, tal como um jogador representado 150, queestá se movendo para a direita conforme os quadros de vídeo fornecidos nomostrador 110 temporariamente progridem, o padrão de luz 120B pode serdiscernido de um ou mais quadros de conteúdo de vídeo que procedem aoquadro correntemente mostrado no mostrador 110. Este processamento éfacilitado quando os quadros do conteúdo de vídeo estão disponíveis algumtempo antes,e sendo apresentados no mostrador 110, tal como quando oconteúdo é armazenado localmente e/ou é armazenado em área temporária poralgum tempo antes da apresentação no mostrador 110. O tamanho dos vetoresde movimento do quadro (global) e/ou do objeto (local) e a largura daresolução fornecida na área de extensão 130B pode ser utilizados emdeterminar conforme muitos quadros procedendo são examinados paradeterminar o padrão de luz 120B como pode ser prontamente apreciado. Emuma modalidade de acordo com o presente sistema, para vetores demovimento maiores, menos quadros procedendo quadros podem ser utilizados(por exemplo, um ou mais quadros procedendo) para discernir o padrão de luz120B, embora em uma outra modalidade, o mesmo número de quadrosprocedendo podem ser examinados independente do tamanho dos vetores demovimento, por exemplo, em uma modalidade, quando os vetores demovimento são maiores, mais resolução pode ser fornecida na área deextensão 130B.
Naturalmente devem os vetores de movimento globais e/oulocais estar se movendo para a esquerda, um ou mais quadros procedendopodem ser utilizados para discernir o padrão de luz 120B representado na áreade extensão 130B. De forma similar, para vetores de movimento globais e/oulocais se movendo para a esquerda, um ou mais quadros procedendo podemser utilizados para discernir o padrão de luz 120A representado na área deextensão 13 0A.
Neste tipo de modalidade, a resolução fornecida em uma oumais das áreas de extensão 130, 130B pode ser determinada de mododinâmico com base no tamanho dos vetores de movimento determinados.Como pode ser prontamente apreciado, a precisão das imagens mostradas nasáreas de extensão 130A, 13OB pode diminuir conforme os quadros utilizadospara derivar os padrões de luz 120A, 120B se tornam mais temporariamenteremotos do quadro de dados exibidos no mostrador 110. Ainda, a precisão deporções de imagem mostrada nas áreas de extensão 13 OA5 13 OB podediminuir conforme as porções de imagem dos quadros utilizadas para derivaros padrões de luz 120A, 120B se tornam mais fisicamente remotos dasporções de imagem correntes mostradas no quadro de dados exibidos nomostrador 110. Em outras palavras, os ainda os padrões de luz 120A, 120Bsão estendidos, por meio disso, estendendo a "imagem completa "feito atravésdo quadro correntemente sendo exibido no mostrador 110 junto com ospadrões de luz 120A, 120B sendo exibidos nas áreas de extensão 130A, 13 0B,a precisão das áreas remotas das áreas de extensão 130A, 13OB pode serreduzida. Conseqüentemente, o termo fisicamente e posicionalmente remoto épretendido para incluir objetos que são posicionados ainda do quadrocorrentemente sendo exibido no mostrador 110 em termos da imagemcompleta e/ou dos padrões de luz 120A, 120B que são produzidos ainda dodispositivo de exibição 110 já que um ou ambos da proximidade dentro daimagem completa e da proximidade com o mostrador 110 pode ser utilizadopara determinar o conteúdo renderizado dentro das áreas de extensão 130A,130B. Para compensar para esta ocorrência em alguns casos, uma resoluçãodas fisicamente e/ou temporariamente áreas remotas das áreas de extensão130A, 130B podem diminuir conforme as áreas de extensão 130A, 130B setornam mais fisicamente e/ou temporariamente remotas das imagensrenderizadas no mostrador 110.
Em uma modalidade de acordo com o presente sistema,técnicas de movimento natural, tal como aquelas aplicadas na patente deKlompenhouwer podem ser usadas para temporariamente prognosticar o queé visível fora do quadro de vídeo renderizado no mostrador 110. MovimentoNatural monitora objetos na cena e pode, por conseguinte extrapolar osmovimentos dos objetos fora do quadro quando eles têm de ser movidos forada tela (por exemplo, além do mostrador 110). Desta maneira, a determinação13do conteúdo fornecido para as áreas de extensão 130A, 13OB pode ser feitautilizando computações que já são fornecidas para possibilita o nivelamentoda imagem em movimento natural.
Já que em uma modalidade, as imagens fornecidas nas áreas deextensão podem ser de resolução baixa e por meio disso, ser um pouco semfoco, a resolução mais baixa pode ser fornecida nas áreas remotas (comodiscutido acima) para equilibrar uma quantidade de detalhes fornecida comum desejo de ocultar artefatos de extrapolação em potencial. Em umamodalidade, isto pode bastar para efetuar a monitoração da imagem/objeto emresolução baixa, por meio disso, monitorando versões embaçadas de objetosgrandes, ou assim chamadas bolhas de objeto. Monitoração de bolhas deobjeto pode ser efetuada em complexidade computacional baixa, já que istopode ser efetuado em versões reduzidas do conteúdo de vídeo. Por exemplo,um carro vermelho no conteúdo de vídeo exibido no mostrador 110 pode(quando ele se move para fora da tela) continuar como uma bolha vermelhana área(s) de extensão. Então, os dados nos mostradores auxiliares nãonecessitam ser uma exata versão de resolução baixa de uma projeção docontorno corrente das imagens para o mostrador primário, mas pode ser tãosimples quanto uma forma de bolha lembrando uma forma geral do objeto(por exemplo, formada em forma elíptica), para um objeto e um perfil de corestruturado de forma global para o plano de fundo (no exemplo do campo defutebol, que seriam um metade inferior de grama verde inclinada, e uma áreamaçante, talvez cinzenta com textura estatisticamente para a metade deaudiência superior, através do qual um gradiente de cor de resolução baixapoderia ser sobreposto se isto é efetivamente e aproximadamente presente noplano de fundo de audiência de imagem). Note que para mostrador periféricocomo discutido em mais detalhe abaixo, (perspectiva) deformação é passívelde ser permitida, já que a visão não é aguda e somente o sentimento deimersão pode ser requerido. Conseqüentemente, a determinação de umadeformação em perspectiva pode ser aplicada aos padrões de luz (porexemplo, recursos, objetos, plano de fundo, etc.), de forma geral, referidoscomo elementos, nas áreas de extensão e/ou nas imagens fornecidas nosmostradores periféricos como pode ser prontamente apreciado. Em umamodalidade, elementos de plano de fundo podem ser apresentados semperspective deformação em perspectiva enquanto elementos de plano defrente (por exemplo, carro, jogador, etc.) são deformados após determinaçãodos elementos para fornecer perspectiva (por exemplo, esticando os elementosao longo de um angulo originando do mostrador 110 e emanando para foradele.
Em uma modalidade onde a abordagem de movimento naturalé combinada com a resolução baixa dos padrões de luz 120A, 120B, alguémpode observar que um objeto que se moveu para fora da tela, foi/estarápresente em quadros de vídeo passados/futuros, então mostrando tal umobjeto fora da tela é similar para mostrar conteúdo de imagempassadas/futuras, ou em uma modalidade, pelo menos umaaproximação/modelo simplificado de tal conteúdo/elemento(s) isolados.Então, uma implementação de custo bem baixo é possível onde um modelo demovimento global estima o movimento global (e por meio disso, implementaa monitoração), que determina até onde no passado (ou futuro) imagensdevem ser consideradas sobre em que se basear as imagens fornecidas naimagem(s) de extensão 130A, 130B. Determinar a imagem de extensão éneste caso equivalente a atrasar (ou avançar) imagens de extensão (cores nocaso de resolução bem baixa) conforme elas podem ser computadas porsistemas de iluminação de ambiente anterior, onde a quantidade deatraso/avanço pode ser determinada pela monitoração feita pelo dispositivo deestimativa de movimento global. Armazenando temporariamente as imagensda extensão em vez do vídeo original, pequenos armazenamentos temporáriossão requeridos, e a característica pode ser implementada semsubstancialmente aumentar o custo de sistemas anteriores.
De acordo com uma modalidade do presente sistema, pode servantajoso fazer uma distinção entre plano de frente (por exemplo, objeto deplano de frente 252) e plano de fundo (por exemplo, objeto de plano de fundo254) objetos, cenas, ou de forma geral, recursos (por exemplo, com umalgoritmo de detecção de plano de frente/plano de fundo, tal como com baseem movimento e oclusão, embora outros sistemas adequados podem serprontamente aplicados), para monitorar aqueles separadamente, e porexemplo, computar as extensões com base somente em um dos recursos deplano de fundo ou plano de frente. Em ainda uma outra modalidade, apresença de informação de três dimensões (3D) (por exemplo, em uma formade mapas de profundidade que são transmitidos como camadas extras, deacordo com o padrão MPEG-C parte 3) pode ser de ajuda em identificarrecursos e que recursos são de plano de frente e de plano de fundo, então esses recursos podem ser mais facilmente monitorados e devidamenteposicionados na área(s) de extensão.
De acordo com uma modalidade, o processamento para a áreade extensão pode ser efetuado através do hardware do mostrador principal,onde os padrão(s) de luz de extensão resultante são comunicados paraqualquer área(s) de mostrador secundária (por exemplo, superfícies demostrador, mostradores, etc.) que são usadas para exibir os padrão(s) de luzde extensão. Em uma outra modalidade, a um ou mais processadores para aárea de extensão pode ser alimentado a mesma seqüência de vídeo comomostrador primário, onde cada do um ou mais processadores efetua a análise(ou a parte que ele precisa) e por meio disso, determina sua própria porçãopara renderização. Em uma modalidade, uma particular repartição do sistemapode ter o monitoramento e parte de prognóstico separada do mostrador(s) nototal (por exemplo, no lado de criação de conteúdo), através do qual opadrão(s) de luz de extensão (por exemplo, parametrizados para permitirdiferentes tamanhos e formas da visualização da extensão) são transmitidosjuntos com o conteúdo de vídeo, por exemplo na forma de informação deExperiência de Ambiente (AMBX) (por exemplo, descritivos, engenharia desoftware, arquitetura, etc.) e/ou na forma de Informação de IntensificaçãoSuplementar (SEI) dentro do padrão de Codificação de Vídeo Avançada(AVC).
Vários sistemas e/ou métodos podem ser usados paraprojetar/fornecer uma área(s) de imagem de extensão para o ambiente domostrador principal. Enquanto modalidades particulares são descritas aqui,como pode ser prontamente apreciado por uma pessoa de qualificação simplesna arte, outras modalidades podem ser vislumbradas que também se encaixamdentro do escopo do presente sistema.
Em uma ou mais modalidades de acordo com o presentesistema, porções do sistema de renderização de ambiente pode ser construídono mostrador principal (por exemplo, uma cobertura do mostrador principal)usando hardware de iluminação de ambiente anterior, ou estendendo ohardware anterior em direção a mais resolução usando, por exemplo, micro-projetores.
Em uma modalidade, exibindo uma extensão apropriada daimagem correntemente fornecida na área principal do mostrador (porexemplo, no lugar de uma cor que lembre a cor corrente no lado da imagem)somente o processamento descrito anteriormente necessita ser adicionada auma televisão de iluminação de ambiente anterior para implementar opresente sistema. Deve ser notado que o presente sistema e soluções deiluminação de ambiente anterior monitoram objetos um pouco diferentementee por meio disso, fornece conteúdo diferente nas áreas de iluminação deambiente. Em um caso onde um objeto vermelho é exibido na frente de umplano de fundo verde, quando o objeto vermelho se move fora da tela em umatelevisão de iluminação de ambiente anterior, a iluminação de ambiente vaitornar verde assim que o objeto vermelho está fora da tela. Em umamodalidade de acordo com o presente sistema, um correspondente efeito deiluminação de ambiente (por exemplo, produzido em uma das áreas deextensão 130A, 130B) pode ficar vermelho ou um tempo na direção para tráse por meio disso, mostrando o objeto vermelho se movendo além da bordaverde principal, dependendo, por exemplo, do movimento últimos conhecidosdo objeto, o movimento global estimado para os quadros após ele ter semovido fora da tela, e/ou a velocidade como obtida de um objeto com base nodispositivo de estimativa de movimento, como por exemplo fornecido em"Real-Time Recursive Motion Segmentation of Vídeo Data on aProgrammable Device", por R.B. Wittebrood e G. de Haan, publicado emIEEE Transactions on Consumer Electronics, agosto de 2001, pp. 559-567,incorporado aqui por referência como estabelecido em sua totalidade. Deacordo com o presente sistema, o tempo em que a imagem/cores fora da tela(por exemplo, mostrador 110) são mostrados, pode depender da velocidadeque o objeto está se movendo (por exemplo, um tamanho do vetor demovimento relacionado, velocidade alta = duração curta), enquanto de acordocom um modalidade do presente sistema, essas cores (por exemplo, passíveisde serem atribuídas ao carro vermelho) pode desbotar para uma cor padrão(por exemplo, a cor do plano de fundo) após um tempo mesmo paravelocidades baixas (por exemplo, velocidades onde o movimento do objetopode não ter ainda movido o objeto para fora de uma área de extensão). Comopode ser prontamente apreciado, em algumas modalidades, o desvanecimentode um presente sistema pode ser bastante lento para objetos se movendorápido que deixam a área de extensão muito rapidamente.
Sistemas de iluminação ambiente anteriores podem já serfeitos de múltiplas fontes de luz (por exemplo, par aumentar a saída de luz epara produzir cores diferentes em lados diferentes). Controlando cada fonte deluz individualmente, e, por exemplo, adicionando uma lente e/ou difusores(sistema), uma imagem de resolução baixa pode ser projetada no ambiente emtorno do mostrador primário (por exemplo, esquerda, direita, acima e/ouabaixo do mostrador 110). Em ainda modalidades, um teto e/ou chão em tornodo mostrador primário pode também ser iluminado através de elementos deiluminação de ambiente presentes no mostrador e/ou conforme fornecidosatravés de elementos de iluminação de ambiente que são remotos aomostrador primário, tal como pode ser fornecido através de uma torre deiluminação de ambiente dedicado ou dispositivo/alto-falante de iluminação deambiente combinado. Em uma modalidade, micro-projetores de iluminação deambiente pode também tomar a forma de periféricos separados (por exemplomicro-projetor autônomo que pode ser colocado de acordo com os desejos dousuário). Como pode ser prontamente apreciado, outros sistemas parafornecer a iluminação de ambiente podem ser utilizados de acordo com opresente sistema.
FIG. 2 mostra uma vista frontal de um sistema 200 de acordocom uma modalidade do presente sistema. Em uma modalidade, ummostrador 210, tal como um mostrador de cristal líquido (LCD) com base nodispositivo de exibição, pode ser utilizado para fornecer um sistema deiluminação de ambiente de resolução baixa. Na modalidade mostrada na FIG.2, um ou mais dos painéis de iluminação de ambiente 260A, 260B pode seradicionados ao mostrador 210. Os painéis de iluminação de ambiente 260A,260B podem ser fornecidos como complementos (por exemplo, fornecido emum planta de fabricação, anel de planta, ou conectado após colocado nomercado através de usuários doméstico, por exemplo através de uma barra decomunicação e protocolo). Em uma modalidade, os painéis de iluminação deambiente 260A, 260B podem incluir uma fonte de luz de ambiente 250, talcomo micro-projetores, diodos emissores de luz (LED's) individuais ouagrupados, etc. Em uma modalidade, um efeito de iluminação de ambientepadronizado pode ser fornecido controlando saídas separadas de um arranjode M χ N LED's (por exemplo tripletos de RGB) atrás de um sistema delente/difusores 240, fornecido para criar uma figura de resolução baixaescalonada.
Nesta modalidade, a saída da fonte de iluminação de ambiente250 pode ser configurável. Por exemplo, a fonte de iluminação de ambiente250 pode ser posicionada/re-posicionada para selecionar uma área irradiadaatravés da fonte de luz de ambiente, tal como pode ser fornecida através deuma parede posicionada atrás/em torno do mostrador 210, ou telas de reflexãoposicionadas. Em uma modalidade, as lentes 240 podem também serajustadas, de forma manual e/ou automaticamente para projeção na paredecomo uma função de um ângulo formado entre o mostrador 210 e o ângulo daparede. Por exemplo, em uma modalidade, um micro-projetor pode seroperacionalmente preso ao mostrador para ser passível de rotação em torno davertical. Em uma modalidade ajustada automaticamente, os painéis de luz deambiente 260A, 260B podem incorporar um câmera e/ou outro sistema paradeterminar o ângulo feito entre o mostrador 210 e a superfície sobre o qual oefeito de iluminação de ambiente é fornecido, e por meio disso, ajustaautomaticamente o ângulo da fonte de iluminação de ambiente 250 parafornecer área de extensão 230A, 230B.
De acordo com uma modalidade do presente sistema, porçõesde plano de fundo do conteúdo de vídeo podem ser segmentadas em bolhas deregião homogêneas, tal como bolhas de objeto 270 (por exemplo, as árvoressobre o plano de fundo azul relativamente uniforme). Muitos algoritmos desegmentação adequados podem ser usados, tais como com base em cor e/outextura. Em uma modalidade, o modelo de segmentação pode ser guiado commaior informação de descrição de cena, tal como dados auto-explicativos e/ououtros dados auxiliares. Em uma ainda modalidade, este padrão de plano defundo aproximado pode ser repetido (por exemplo como uma resolução baixaperiódica ou padrão de textura estatístico) no ou ao lado do mostrador 210e/ou ser repetido através de diferentes porções de um dado efeito deiluminação de ambiente fornecido em cada ou ambas das área(s) de extensão230A, 230B. Desta maneira, informação de recurso e/ou de objeto pode serdiscernido, por exemplo, para somente uma porção da área(s) de extensão, e,por exemplo, informação de plano de fundo discernido pode ser repetido emintervalos regulares e/ou irregulares da área de extensão 230A, 230B. Deacordo com uma modalidade, mensagens de SEI pode incluir dados para guiara segmentação identificando objeto do plano de fundo e do plano de frenteque podem ser usados para fornecer a guia de segmentação para obter a bolhadireita. Em uma outra modalidade, a segmentação pode ser efetuadaautomaticamente, já que a imagem de contorno pode ser uma imagem deresolução relativamente baixa. Em uma outra modalidade utilizando micro-projetores, maior capacidade de tratamento de imagem de iluminação deambiente pode ser fornecida. Os micro-projetores pode ser alongados junto auma parte substancial dos painéis de iluminação de ambiente 260A, 260Bpara facilitar uma extensão das imagem(s)/do conteúdo renderizados.
FIG. 3 mostra uma vista ampliada ilustrando detalhes de umsistema de iluminação de ambiente 300 utilizando uma fonte de iluminação deambiente 350 de acordo com uma modalidade do presente sistema. De formailustrativa, a fonte de iluminação de ambiente 350 pode incluir um ou maisarranjo(s) de LED de duas dimensões (2D, M χ N) ou pode incluir um oumais micro-projetor(s). Como mostrado de um ponto de vista 302 posicionadaem frente a um mostrador 310, um cobertura 312 é fornecidasubstancialmente escondendo porções do sistema 300 a partir de um ponto devantagem do observador, a saber o ponto de visão 302. Uma lente (sistema)340, tal como uma lente de difusão (micro), pode ser fornecido paradirecionar um efeito de iluminação de ambiente difusa, mostrada como conesde luz de ambiente radiante 342, produzidos pela fonte de iluminação deambiente 350. Em uma modalidade de acordo com o presente sistema, oscones de luz radiados podem ser produzidos, por exemplo, por coluna de pixelda fonte de iluminação de ambiente. O efeito de iluminação de ambienteproduzido através da combinação da fonte de iluminação de ambiente 350 e alente 340 é refletida ao largo de uma parede 380 na modalidade ilustrativa.
Naturalmente, em uma outra modalidade, a fonte de iluminação de ambiente350 pode ser fornecida separada do mostrador 310, tal como através de umdispositivo de projeção separado ou dispositivo de micro-projeção que é, deforma operativa, acoplado ao mostrador 310 ou pelo menos para uma fonte doconteúdo exibida no mostrador 310.
FIG. 4 mostra um sistema de iluminação periférica de imersãoilustrativo 400, de acordo com uma modalidade do presente sistema. Namodalidade mostrada, dispositivos de renderização secundários separados, deforma ilustrativa, mostrados como mostradores periféricos 412A, 412B,412C, 412D, podem ser utilizados para fornecer uma pluralidade de imagensde extensão além de um dispositivo de renderização primário, de formailustrativa mostrado como um mostrador 410. Em uma modalidade, cada umdos mostradores periféricos separados 412A, 412B, 412C, 412D pode seriluminado através de sistemas de iluminação separados, tal como micro-projetores separados, para fornecer uma experiência de imersão de observaçãopara um usuário. Em uma modalidade alternativa, um ou mais dosmostradores periféricos 412A, 412B, 412C, 412D pode fornece imagensindependente do sistemas de projeção. Os mostradores periféricos separados412A, 412B, 412C, 412D podem ser posicionados em torno de umaperspectiva do observador 480, tal como fornecido por uma bicicleta deexercício como em uma solução bem menos doméstica. Em uma outramodalidade, o usuário pode ser fornecido com um ambiente de jogo de vídeogame de imersão.
Como pode ser prontamente apreciado, enquanto osdispositivos de renderização secundários são, de forma ilustrativa, mostradoscomo igualmente espaçados e divididos entre os lados esquerdo e direito dodispositivo de renderização primário, que é mostrado puramente parailustração do presente sistema. Como pode ser prontamente apreciado, osdispositivos de renderização secundários não necessitam ser dispersos,deforma simétrica para a esquerda e direita do dispositivo de renderizaçãoprimário. De fato, os dispositivos de renderização secundários podem serposicionados e dispersos em qualquer maneira desejável pelo usuário. Emuma outra modalidade, um ou mais dos dispositivos de renderizaçãosecundários podem ser posicionados acima e/ou abaixo do dispositivo derenderização primário. No mesmo ou uma outra modalidade, maisdispositivos de renderização secundários podem ser posicionada para um ladodo dispositivo de renderização primário do que em um outro lado dodispositivo de renderização primário. Se desejado, os dispositivos derenderização secundários podem ser colocados ao lado de um lado (encima,embaixo, esquerda, direita) do dispositivo de renderização primário para aexclusão de um outro lado do dispositivo de renderização primário. Mais oumenos dispositivos de renderização secundários podem também ser utilizadosde acordo com o presente sistema.
Na modalidade mostrada, o usuário é fornecido com conteúdo(por exemplo, vídeo) em um mostrador primário (por exemplo, painel demostrador de plasma (PDP)) e conteúdo auxiliar pode ser fornecido, derivado,etc., para os mostradores periféricos 412A, 412B, 412C, 412D. Nestamodalidade, já que os mostradores periféricos 412A, 412B, 412C, 412Dprincipalmente serão vistos em uma visão periférica do usuário, osmostradores periféricos 412A, 412B, 412C, 412D podem ser de resoluçãorelativamente baixa, embora mostradores de maior resolução podem tambémser fornecidos, ainda o conteúdo renderizado deve se relacionar (por exemplo,posicionalmente, temporariamente, etc.) com o conteúdo fornecido nomostrador primário.Em uma menor sala, os mostradores periféricos 412A, 412B,412C, 412D podem ser afixados em paredes contornando a perspectiva doobservador. Em qualquer evento, os mostradores periféricos 412A, 412B,412C, 412D devem ser posicionados de forma operacional (por exemplo,posicionada perto o bastante da perspectiva do 480) para renderizar uma vistaperiférica para o usuário. Em uma modalidade alternativa, os mostradoresperiféricos 412A, 412B, 412C, 412D podem ser afixados e um teto de umasala no qual o sistema de iluminação periférica de imersão 400 é fornecido.Em uma modalidade, uma chapa de teto 490 pode ser fornecida para facilitarposicionamento dos mostradores periféricos 412A, 412B, 412C, 412D. Ospainéis podem ser posicionados de forma permanente ou podem serconfigurados para possibilitar posicionamento fora do caminho de tráfegoatravés da sala quando os mostradores periféricos 412A, 412B, 412C, 412Dnão estão em uso.
De acordo com uma modalidade, os mostradores periféricos412A, 412B, 412C, 412D pode ser anexados na posição desejada em torno daperspectiva do observador 480 (por exemplo, em torno de uma cadeira outreinador doméstico), por exemplo, através do uso de um sistema de fixaçãode prendedor e gancho (por exemplo, Velcro™), possibilitar fácilfixação/separação e colocação. Em uma modalidade, os mostradoresperiféricos 412A, 412B, 412C, 412D podem ser fornecidos com ummecanismo de rolagem, tal como mecanismos de rolagem 414C, 414Dmostrados de forma ilustrativa nos mostradores periféricos 412C, 412D.Naturalmente, o mecanismo de rolagem pode ser ocultado no teto conformedesejado. Nesta modalidade, os mecanismos de rolagem possibilitam osmostradores periféricos 412C, 412D serem facilmente rolados, para fora docaminho, quando não necessário ou rolados para baixo quando o uso dosmostradores periféricos 412C, 412D é desejado. Em uma modalidadealternativa, os mostradores periféricos podem ser afixados ao teto com ummecanismo de pendurar, tal como mecanismos de pendurar 416A, 416Bafixados de forma ilustrativa aos mostradores periféricos 412A, 412B. Nestamodalidade, os mecanismos de pendurar 416A, 416B possibilita osmostradores periféricos 412A, 412B serem girados para cima em direção aoteto quando não em uso ou girado para baixo quando o uso dos mostradoresperiféricos 412A, 412B é desejado. Naturalmente outro sistemas paraposicionamento dos mostradores periféricos 412A, 412B, 412C, 412D podemser de forma adequada aplicados e podem mesmo ser automatizados quando ouso do sistema de iluminação periférica de imersão 400 é desejado.
De acordo com esta modalidade, o sistema de iluminaçãoperiférica de imersão 400 pode analisar o conteúdo fornecido no mostrador410 (por exemplo, com base nos quadros anteriores e subseqüentes deconteúdo) e gera regiões ou bolhas que substancialmente coincidem comrecursos e objetos fornecidos nos quadros anteriores e/ou subseqüentes deconteúdo. Em uma modalidade de acordo com o presente sistema, o sistemade iluminação periférica de imersão 400 pode também, ou no lugar de outrosquadros de conteúdo, analisa conteúdo corrente para determinar recursos ebolhas adequados.
For exemplo, um objeto de carro de plano de frente 450 podeser segmentado (por exemplo, usando mapa de profundidade de 3D, outrosdados extras, e/ou automaticamente do próprio conteúdo) e pode continuarseu caminho como uma bolha sem foco ao longo de um ou mais dosmostradores periféricos. Adicionalmente, recursos de plano de fundo (porexemplo, a rodovia) e objetos (por exemplo, as árvores) podem ser de formasimilar representados em um ou mais dos mostradores periféricos 412A,412B, 412C, 412D. Por exemplo, em uma variação simples de um algoritmopara gerar a informação de imagem periférica, árvores passando sobre/atravéspodem ser emulados por uma simples modulação de luz temporal espacial debaixa freqüência, correlacionado com a informação de árvore (por exemploperiodicidade) nas imagens principais do mostrador. (Sistemas similarespodem ser aplicados para elementos de ambiente.) Em uma modalidade,detalhes (por exemplo, resolução) dos recursos e/ou objetos fornecidosconforme os recursos e/ou objetos procedem ainda na visão periférica dousuário, pode diminuir para reduzir requisitos de análises para determinar osrecursos e/ou objetos, e/ou para reduzir artefatos de imagem indesejável. Porexemplo, como o objeto de carro 450 procede do mostrador periférico 412Cpara o mostrador periférico 412D, o objeto de carro 450 pode mudar (porexemplo, em passos ou gradualmente) de um objeto de carro para uma bolhade carro ou uma resolução da imagem do objeto de carro pode simplesmenteser reduzida. Reduções similares nos detalhes fornecidos por cada um dosmostradores periféricos 412A, 412B, 412C, 412D podem ser reduzidasconforme recursos e/ou objetos se movem ainda na vista periférica doobservador (por exemplo, da direita para a esquerda para os mostradoresperiféricos 412A, 412B e da esquerda para a direita para os mostradoresperiféricos 412C, 412D). Em uma modalidade, os mostradores periféricos412B, 412C podem ser habilitados para fornecer uma maior resolução do queos mostradores periféricos 412A, 412D. Desta maneira, mostradorespotencialmente mais baratos podem ser utilizados para os mostradoresperiféricos 412A, 412D do que os usados para os mostradores periféricos412B, 412C possibilitando uma redução em um custo do sistema deiluminação periférica de imersão 400.
De acordo com uma modalidade, o sistema de iluminaçãoperiférica de imersão 400 (e/ou um sistema de iluminação de ambiente comelementos de iluminação de ambiente) pode ser fornecido com detalhes dosmostradores periféricos 412A, 412B, 412C, 412D para possibilitar umadeterminação apropriada dos recursos e/ou objetos que são apresentados nosmostradores periféricos 412A, 412B, 412C, 412D. Por exemplo, em umamodalidade, um tamanho dos mostradores periféricos 412A, 412B, 412C,412D comparado com o mostrador 410 pode ser fornecido para determinar osrecursos e/ou objetos que são representados/renderizados nos mostradoresperiféricos 412A, 412B, 412C, 412D (por exemplo, para continuar o caminhodo carro 450). Outros parâmetros pode também ser fornecidos parapossibilitar uma determinação de recursos e/ou objetos adequados,posicionamento e/ou resolução deles. De acordo com uma modalidade, ascapacidades de exibição do mostrador periférico tais como resolução demostrador, taxa de renovação máxima, forma de acoplamento decomunicação (por exemplo, com fio, sem fio, óptico, etc.) também podem serde forma manual e/ou automaticamente comunicadas para o presente sistemapara possibilitar operação. Por exemplo, para um mostrador periférico quetem uma taxa de renovação máxima que é menos do que a taxa de renovaçãodo mostrador primário, a taxa de renovação dos recursos e/ou objetosfornecidos no mostrador periférico pode ser adaptada de forma adequada,para fornecer a taxa de renovação mais lenta. Por exemplo, os quadrosfornecidos no mostrador periférico podem ser somente atualizados uma vezpara cada dois ou mais quadros que são atualizados no mostrador primário.Uma adaptação similar pode ser fornecida para um efeito de iluminação deambiente. Isto pode ter um benefício adicional de redução dos requisitoscomputacionais para fornecer o efeito de ambiente e/ou de periférico.
Em uma modalidade, em um caso onde dados auxiliares sãofornecidos (por exemplo AMBX, SEI of AVC, etc.), os dados auxiliarespodem ser utilizados para determinar os recursos e/ou objetos que sãofornecidos para o dispositivo de renderização secundário(s). Nestamodalidade, os dados auxiliares podem reduzir as demandas deprocessamento em um lado do mostrador primário e/ou pode ser utilizadospara fornecer uma determinação precisa dos recursos e/ou objetos que sãofornecidos ao dispositivo de renderização secundário(s). Ainda, os dadosauxiliares podem facilitar um posicionamento ótimo dos recursos, objetos(por exemplo, detalhados e/ou bolhas) nos mostradores periféricos 412A,412B, 412C, 412D, que podem ser dependente de configuração. Por exemplo,em uma configuração onde três mostradores periféricos são fornecidos emambos os lados, estendido sobre ângulos X, um objeto, tal como um dragãopode parecer mais apavorante se ele é mostrado no mostrador periférico domeio, por exemplo em um particular ângulo determinado (por exemplo,ângulo Y), ou empilhando "acima "do usuário projetado no teto. Para omesmo conteúdo, em uma configuração com dois mostradores periféricos,uma modalidade do presente sistema pode derivar, por exemplo, utilizando osdados auxiliares, que uma melhor imagem para o dragão está no segundoplano,por exemplo em um ângulo Z.
Um exemplo de como o sinal auxiliar pode especificar deforma paramétrica a posição de um objeto é o seguinte:
Uma formula pode ser por exemplo:
meio caminho da extensão passível de exibição do ladoesquerdo, ou
uma fórmula mais complicada, especificando umapercentagem fora do mostrador principal (por exemplo, dependendo dotamanho e resolução/aspecto do mostrador principal, mas também do quepode ser exibido nos painéis laterais (e/ou através do sistema de iluminaçãode ambiente); e/ou
um ou mais formulas de correção para diferentesconfigurações de mostrador secundárias, por exemplo se os três painéislaterais estão presentes e/ou o ângulo envolvente em torno do usuário é maiordo que, por exemplo, 70 ou 110 graus, então elementos determinados para sero meio caminho, podem, por exemplo, ser sobrescritos para dois terços (porexemplo, para colocar no painel lateral do meio).
Em uma modalidade onde o sistema mostrador de localconhece sua geometria (por exemplo, colocação do painel, posição), porque ousuário tem medido grosseiramente e entrado após configuração doméstica,através do uso de uma interface de usuário adequada fornecida em umamodalidade do presente sistema, de área de exibição de 2 m de altura e 50 cmde largura, 50 cm para o lado mais a esquerda do mostrador primário (ou ossistemas se configuram automaticamente, tal conforme os painéis transmiteminformação de tamanho e localização para o sistema através dos meios delocalização incluídos). Em uma outra modalidade, o sistema pode incluir umsistema de visão para identificar a informação de tamanho e/ou posição dospainéis.
O sistema pode então aplicar um mapeamento para exibir oobjeto como perto, para o qual é indicado em um perfil (por exemplo,fornecido por artistas de conteúdo no lado de criação para impacto máximo).Por exemplo, o sistema pode calcular que o posicionamento a meio caminhocorresponde a uma posição de pixel (1250, 999) no primeiro mostradorperiférico esquerdo para o objeto de carro em um dado tempo t.
Naturalmente, de acordo com uma modalidade, o sistema podeignorar ou corrigir um perfil sugerido/fornecido e aplicar um perfil local e/ouum perfil fornecido pelo usuário.
Em adição, embora em uma versão simplificada, um sistemade acordo com uma modalidade pode usar este posicionamento somente sobreum objeto mais obviamente passível de extração (por exemplo, um grandeobjeto/elemento passando pelo objeto/elemento do plano de frente), é claroguiando dados de qualquer complexidade e/ou múltiplas complexidades,podem ser associados com o conteúdo (por exemplo, incluído em um sinal detransmissão difusa), começando de uma caixa bruta que é projetada para aperiferia junto com alguns dados de plano de fundo, para uma descrição bemprecisa de como o objeto deve aparecer dado que está em um particularcaminho passível de extração de todas as imagens recebidas, e/ou incluindodados de correção auxiliares (por exemplo, para uma chama que o dragãosolta quando ele se moves através dos mostradores periféricos, mesmo em umcaso onde estes dados extras nunca estiveram no conjunto de imagens).Conseqüentemente, os dados auxiliares pode mesmo suplementar os dadosdetermináveis a partir do conteúdo (por exemplo, quadros de imagem) efornece dados adicionais para adicionar elementos e/ou suplementos aoselementos para ainda adicionar valor aos sistemas que são habilitados pararenderizar os dados adicionais.
Em uma modalidade de acordo com o presente sistema, osdados auxiliares pode também incluir dados de vídeo ou dados paracorrigir/melhorar dados de vídeo prognosticados. Por exemplo, de acordocom uma modalidade do presente sistema, as árvores do plano de fundopodem ser resumidas bem simplesmente como transições de luz escura (porexemplo, verde), e por meio disso, simplificando o processamento requeridopara simular um padrão ondulado de sombra de direção sobre as árvores. Taluma simulação pode ser efetuada monitorando regiões da imagem (porexemplo, em base de estatísticas do segmento).
Um ou mais dos mostradores periféricos pode ser fabricado apartir de um têxtil baseado em fótons, tal como fabricado a partir do têxtilbaseado em fótons Lumalive™, disponível de Koninklijke Philips ElectronicsN.V. O têxtil baseado em fótons é configurado para emitir imagens, tal comoimagens de baixa resolução, e conseqüentemente podem servir como um oumais dos mostradores periféricos. Em uma modalidade, o têxtil baseado emfótons pode servir como um ou mais dos mostradores periféricos e tambémpode servir a outros propósitos. Por exemplo, uma cortina posicionada na salaque é fabricada a partir do têxtil baseado em fótons pode se conectar esincronizar através de acoplamento, como uma conexão de rede (por exemplo,com fio, sem fio, óptica, etc.) ao mostrador principal (por exemplo, omostrador 410) quando o sistema de acordo com uma modalidade estáoperacional. Quando o sistema não está operando, o têxtil baseado em fótonspode estar inativo, ou pode autonomamente, ser controlado para exibir outrasimagens. Naturalmente, como pode ser prontamente apreciado, qualquer umou mais dos mostradores do presente sistema pode operar de forma similar seou não os mostradores são fabricados a partir do têxtil baseado em fótons.
Em uma modalidade, um ou mais dos mostradores (porexemplo, mostrador de iluminação de ambiente, mostrador periférico, etc.)pode ser fabricado como um mostrador eletrônico à tinta (e-tinta) ou outromostrador refletivo. Tal um mostrador, por exemplo conforme utilizado comoum mostrador periférico, pode tomar a forma de um papel de parede de e-tinta. O papel de parede e- tinta pode exibir imagens de acordo com opresente sistema quando o sistema é operacional e pode exibir outras imagens,tal como um padrão de papel de parede, quando o sistema não estáoperacional. Em uma modalidade, um quadro de fotos de e-tinta e/ou maioresquadro(s) podem operar com um ou mais mostradores periféricos e/ou deambiente. Os quadros podem mostrar pinturas e/ou figuras quando não sendocontrolado pelo mostrador principal para operar como um mostradorperiférico. De acordo com uma modalidade do presente sistema, as imagensde extensão podem ser fornecidas em uma resolução mais baixa, taxa derenovação mais baixa, etc, do que o dispositivos do mostrador primário comodeterminado pelas capacidades de exibição do mostrador.
Outras fontes de imagem em rede, tal como quadros de fotos,etc., podem ser utilizados como fontes de mostradores periféricos e/ou deiluminação de ambiente. As fontes de imagem em rede podem ser adicionadasao sistema automaticamente através de própria identificação e/ou um sistemade indagação automática para identificar a disponibilidade e capacidade dasfontes de imagem em rede, assim como um posicionamento relativo dasfontes de imagem em rede. Desta maneira, imagem e/ou fontes iluminação deambiente adicionais podem ser adicionadas e removidas do sistema semrequerer um procedimento de configuração pesado. Em uma modalidadealternativa, um procedimento de configuração de uma vez pode ser efetuado,no qual as características do mostrador, posição, etc., são especificadas. Omostrador primário pode então automaticamente se conectar ao mostrador(s)secundário (por exemplo, mostradores periféricos, mostradores de iluminaçãode ambiente, etc.) para fornecer os efeitos de iluminação periféricos e/ou deambiente quando desejado. Em uma modalidade, uma introdução de umdispositivo de exibição e/ou dispositivo com um mostrador e/ou capacidadede iluminação dentro de uma área do sistema pode iniciar a produção de umainterface de usuário no mostrador primário e/ou o dispositivo para possibilitarregistro do dispositivo como parte do presente sistema de tratamento deimagem periférica ou de iluminação de ambiente. Em uma modalidade, acombinação de efeitos de iluminação periféricos e de ambiente pode serfornecida onde uma porção dos efeitos é fornecida como efeitos deiluminação de ambiente e uma porção dos efeitos é fornecida como efeitos deperiféricos fornecido como periférico efeitos. Em um ainda variação,mostradores secundários pode também ter uma habilidade para produzir umefeito de iluminação de ambiente de acordo com o presente sistema.Naturalmente, outras combinações podem ser prontamente aplicadas deacordo com o presente sistema.
Em uma modalidade de acordo com o presente sistema,durante extensão do conteúdo para dispositivos periféricos e/ou de ambiente,artefatos podem aparecer, devido, por exemplo, a um limite em uma precisãode um modelo de movimento global/local quando aplicado, que podedegradar a resolução, a qualidade e/ou a posição de objetos representados pelodispositivos periféricos e/ou ambiente. Por conseguinte, pode ser desejávelque todos os "dados de extensão "(por exemplo, dados utilizados para orientaros dispositivos periféricos e/ou de iluminação de ambiente) determinados paraos dispositivos periféricos e/ou de ambiente terem uma persistência temporallimitada, e por meio disso, auxiliar em um certo grau de precisão dos dados.Em uma modalidade, um cenário de recuo pode ser implementado usandopelo menos parte dos dados de extensão assim como "dados típicos deiluminação de ambiente data", tal como dados derivados de um quadro deconteúdo correntemente representado, para guiar os dispositivos secundários.
Por exemplo, em uma modalidade, dados de extensão determinados dequadros que estão temporariamente perto do quadro corrente quadro, sãoutilizados predominantemente para determinar o que é renderizado pelosdispositivos periféricos e/ou de ambiente sobre os dados típicos de iluminaçãode ambiente dados. Contudo, conforme uma porção particular dos dados deextensão se tornam temporariamente mais remoto (idades) dos dados(recursos, objetos, plano de fundo, plano de frente, etc.) correntementerepresentados no mostrador primário, os dados típicos de iluminação deambiente podem ser utilizados de modo gradual para substituir os dados deextensão de envelhecimento, através de, por exemplo, um sistema defiltragem recursivo. No caso dados típicos de iluminação de ambiente nãoestão disponíveis, uma cor e/ou iluminação padrão também ser utilizada. Estasubstituição do que é renderizado pelos dispositivos secundários pode serefetuada, recurso por recurso e objeto por objeto. Por exemplo, porções dosdados de extensão, mesmo fornecidas através de um único dispositivo deextensão, pode ser "mais fresco "do que outras porções dos dados deextensão. Conseqüentemente, em uma modalidade de acordo com o presentesistema, este processo de substituição pode ser efetuado, recurso por recurso eobjeto por objeto. Em adição, em um caso de uma mudança de cena detectadaonde representar as porções precedentes de conteúdo não é mais adequadodevido à mudança de cena, o sistema de iluminação de periférico e/ou sistemade iluminação de ambiente pode determinar o conteúdo para o dispositivo derenderização secundário utilizando conteúdo correntemente representado nomostrador primário e/ou cor (por exemplo, intensidade, matiz, saturação, etc.)e/ou iluminação padrão.FIG. 5 mostra um sistema 500 de acordo com uma modalidadedo presente sistema. O sistema tem um processador 510 acopladooperacionalmente a uma memória 520, um dispositivo de renderizaçãoprimário 530, um ou mais dispositivos de renderização secundário(s) 540 eum dispositivo de entrada/saída (I/O) 570. O termo dispositivo derenderização como utilizado aqui é pretendido para relacionar a qualquerdispositivo que pode renderizar o conteúdo de acordo com o presente sistema.
Conseqüentemente, um dispositivo de renderização primário pode ser umdispositivo de exibição de vídeo, tal como um dispositivo de televisão e umdispositivo de renderização secundário pode ser a dispositivo, tal como umdispositivo de iluminação de ambiente e/ou um dispositivo de renderizaçãoperiférico. A memória 520 pode ser qualquer tipo de dispositivo paraarmazenar os dados de aplicativo assim como outros dados, tal como dados dequadro de conteúdo. Os dados de aplicativo e outro dados, tal como dados derecursos e de objeto, são recebidos pelo processador 510 para configurar oprocessador 510 para efetuar atos de atos de operação de acordo com opresente sistema. Os atos de operação incluem controlar pelo menos um domostrador 530 para exibir conteúdo e controlar o dispositivo de renderizaçãosecundário de acordo com o presente sistema. A entrada/saída 570 podeincluir um teclado, mouse, ou outros dispositivos, incluindo mostradoressensitivos ao toque, que pode ser autônomo ou ser uma parte de um sistema,tal como parte de um computador pessoal, pessoal digital assistente digitalpessoal, e dispositivo de exibição tal como uma televisão, para se comunicarcom o processador 510 através de qualquer tipo de elo de comunicação, talcomo comunicação com fio ou sem fio. Claramente, o processador 510, amemória 520, o dispositivo de renderização primário 530, o dispositivo derenderização secundário 540, e/ou o dispositivo de I/O 570 podem todos ouparcialmente ser uma porção de uma plataforma de televisão, tal como umatelevisão com base no dispositivo de renderização de conteúdo.Os métodos do presente sistema são particularmenteadequados para serem realizados através de um programa de software decomputador, tal programa de software de computador preferencialmentecontendo módulos correspondendo aos passos ou atos individuais dosmétodos. Tal software pode, é claro, ser incorporado em um meio legível porcomputador, tal como um chip integrado, um dispositivo periférico ou umamemória, tal como a memória 520 ou outra memória acoplado ao processador 510.
O meio legível por computador e/ou a memória 520 pode serqualquer meio passível de ser gravado (por exemplo, RAM, ROM, memóriaremovível, CD-ROM, discos rígidos, DVD, discos flexíveis ou cartões dememória) ou pode ser um meio de transmissão (por exemplo, uma redecompreendendo fibras ópticas, a ampla rede mundial, cabos, e/ou um canalsem fio, por exemplo usando acesso múltiplo por divisão de tempo, acessomúltiplo por divisão de código, ou outro canal de freqüência de rádio).Qualquer meio conhecido ou desenvolvido que pode armazenar e/ou fornecerinformação adequada para uso com um sistema de computador pode ser usadacomo o meio legível por computador e/ou a memória 520.
Memórias adicionais também podem ser usadas. O meiolegível por computador, a memória 520, e/ou quaisquer outras memóriaspodem ser de longo prazo, de curto prazo, ou uma combinação de memóriasde longo prazo e curto prazo. Essas memórias podem configurar oprocessador 510 para implementar os métodos, atos operacionais e funçõesdivulgadas aqui. As memórias podem ser distribuídas ou locais, e oprocessador 510, onde processadores adicionais podem ser fornecidos, podetambém ser distribuídos, como por exemplo com base no dispositivo derenderização primário, e/ou um ou mais dos dispositivos de renderizaçãosecundários, ou pode ser singular. As memórias podem ser implementadascomo memórias elétricas, magnéticas ou ópticas, ou qualquer combinaçãodelas ou outros tipos de dispositivos de armazenamento. Mais ainda, o termo"memória "deve ser entendido amplamente o bastante para englobar qualquerinformação capaz de ser lida de ou escrita para um endereço no espaçoendereçável acessado por um processador. Com esta definição, a informaçãoem uma rede está ainda na memória 520, por exemplo, porque o processador510 pode recuperar a informação da rede para operação de acordo com opresente sistema.
O processador 510 e a memória 520 pode ser qualquer tipo deprocessador/controlador, micro-controlador e/ou memória. O processador 510é capaz de fornecer sinais de controle e/ou efetuar operações em resposta aossinais de entrada do dispositivo de I/O 570 e executar instruções armazenadasna memória 520. O processador 510 pode ser um aplicativo específico ou umcircuito(s) integrado de uso geral. Ainda, o processador 510 pode ser umprocessador dedicado para efetuar de acordo com o presente sistema ou podeser um processador de propósito geral onde somente uma de muitas funçõesoperam para efetuar de acordo com o presente sistema. O processador 510pode operar utilizando uma porção de programas, múltiplos segmentos deprogramas, ou pode ser um dispositivo de hardware utilizando um circuitointegrado dedicado ou de múltiplos propósitos.
É claro que, é para ser apreciado que qualquer uma dasmodalidades ou processos acima pode ser combinada com uma ou mais outrasmodalidades ou processos de acordo com o presente sistema. Por exemplo,embora certos sistemas, algoritmos, técnicas são descritas aqui com relação aambos, um sistema de iluminação de ambiente ou um sistema de imagemperiférico, como pode ser prontamente apreciado, muito desses podem seraplicadas em ambos sistemas e/ou em um sistema combinado.
Finalmente, a discussão acima é pretendida para sermeramente ilustrativa do presente sistema e não deve se refere entendidacomo limitando as reivindicações anexas para qualquer particular modalidadeou grupo de modalidades. Assim sendo, enquanto o presente sistema tem sidodescrito em detalhes particulares com referência à modalidades específicasexemplares delas, também deve ser apreciado que numerosas modificações emodalidades alternativas podem ser concebidas por aqueles tendoqualificação simples na arte sem fugir do amplo e pretendido espírito e escopodo presente sistema como estabelecido nas reivindicações que seguem. Porexemplo, enquanto na discussão ilustrativa, elementos de iluminação deambiente e dispositivos de renderização periféricos são ilustrados comodispositivos que são fisicamente separados do dispositivo de exibiçãoprimário, que não é pretendida como uma limitação ao menos queespecificamente colocado. Por exemplo, em uma modalidade, o dispositivo derenderização primário (por exemplo, mostrador primário) e o dispositivo derenderização secundário representam porções de um único dispositivo derenderização. Nesta modalidade, o dispositivo de renderização pode ser umgrande dispositivo de renderização, tal como na moda como uma porção deuma parede baseada no mostrador. Nesta modalidade, porções diferentes dodispositivo de renderização podem operar como dispositivos de renderizaçãoprimários e secundários. Ainda, as modificações são pretendida dentro doescopo do presente sistema. Conseqüentemente, a especificação e desenhossão para serem consideradas em uma maneira ilustrativa e não são pretendidaspara limitar o escopo das reivindicações anexas.
Renderizando as reivindicações anexas, deve ser entendido que:
a) a palavra "compreendendo "não exclui a presença de outroelementos ou atos que aqueles listados em uma dada reivindicação;
b) a palavra "um "ou "uma "precedendo um elemento nãoexclui a presença de uma pluralidade de tais elementos;
c) quaisquer símbolos de referência nas reivindicações nãolimitam seu escopo;d) vários "meios "podem ser representados pelo mesmo itemou estrutura ou função implementada em hardware ou software;
e) qualquer dos elementos divulgados pode ser compreendidode porções de hardware (por exemplo, incluindo circuito eletrônico discreto eintegrado), porções de software(por exemplo, programação de computador), equalquer combinação deles;
f) porções de hardware podem ser compreendidas de uma ou
ambas porções analógicas ou digitais;
g) qualquer dos dispositivos divulgados ou porções deles podeser combinado junto ou separado em porções adicionais ao menos queespecificamente colocado de outra forma; e
h) nenhuma seqüência específica de atos ou passos épretendida para ser requerida ao menos que especificamente indicado.

Claims (66)

1. Método para renderizar conteúdo de imagem, caracterizadopelo fato de compreender os atos de:analisar pelo menos uma das porções temporais anteriores esubseqüentes de um sinal de conteúdo para determinar elementos secundáriosque são relacionados aos elementos primários de uma porção corrente do sinalde conteúdo;renderizar uma porção corrente do sinal de conteúdo em umdispositivo de renderização primário; erenderizar os elementos secundários que são relacionados aoselementos primários de uma porção corrente do sinal de conteúdo em umdispositivo de renderização secundário concorrente com a renderização deuma porção corrente do sinal de conteúdo.
2. Método de acordo com a reivindicação 1, caracterizado pelofato de que o ato de renderizar os elementos secundários compreende um atode renderizar os elementos secundários em uma resolução mais baixa do que aporção corrente renderizada do sinal de conteúdo.
3. Método de acordo com a reivindicação 1, caracterizado pelofato de que o ato de analisar o pelo menos uma das porções temporaisanteriores e subseqüentes do sinal de conteúdo é efetuado em uma resoluçãomais baixa do que o sinal de conteúdo.
4. Método de acordo com a reivindicação 1, caracterizado pelofato de que o ato de renderizar os elementos secundários, compreende um atode renderizar os elementos secundários em uma resolução de variação, emque a variação é determinada com base em pelo menos uma de uma posiçãoespacial e temporal dos elementos secundários renderizados em relação aosinal de conteúdo renderizado no dispositivo de renderização primário.
5. Método de acordo com a reivindicação 1, caracterizado pelofato de que o ato de renderizar os elementos secundários compreende um atode renderizar os elementos secundários em uma resolução que é determinadacom base em uma posição dos elemento secundários renderizados comrelação ao sinal de conteúdo renderizado no dispositivo de renderizaçãoprimário.
6. Método de acordo com a reivindicação 5, caracterizado pelofato de que o ato de renderizar os elementos secundários compreende um atode renderizar os elementos secundários em uma resolução que é determinadacom base em uma posição temporal dos elementos secundários renderizadoscom relação ao sinal de conteúdo renderizado no dispositivo de renderizaçãoprimário.
7. Método de acordo com a reivindicação 1, caracterizado pelofato de que o ato de analisar compreende atos de produzir dados auxiliaresrelacionados com os elementos secundários determinados e associar os dadosauxiliares com o sinal de conteúdo, em que o ato de renderizar os elementossecundários é efetuado utilizando os dados auxiliares.
8. Método de acordo com a reivindicação 7, caracterizado pelofato de que os dados auxiliares são descritos em uma estrutura de um padrãode dados auxiliares para dados de imagem no sinal de conteúdo.
9. Método de acordo com a reivindicação 8, caracterizado pelofato de que os dados auxiliares são composto de um de dados de Experiênciade Ambiente (AMBX) e Informação de Intensificação Suplementar (SEI).
10. Método de acordo com a reivindicação 1, caracterizadopelo fato de que o ato de renderizar os elementos secundários compreende umato de renderizar os elementos secundários como elementos de iluminação deambiente.
11. Método de acordo com a reivindicação 1, caracterizadopelo fato de que o ato de renderizar os elementos secundários compreende umato de renderizar os elementos secundários como elementos de imagemperiféricos.
12. Método de acordo com a reivindicação 1, caracterizadopelo fato de que o ato de analisar compreende um ato de determinar oselementos secundários com base em uma posição do dispositivo derenderização secundário com relação ao dispositivo de renderização primário.
13. Método de acordo com a reivindicação 1, caracterizadopelo fato de que o ato de analisar compreende um ato de determinar oselementos secundários com base em uma posição de cada um de umapluralidade de dispositivos de renderização secundários com relação aodispositivo de renderização primário.
14. Método de acordo com a reivindicação 1, caracterizadopelo fato de que o ato de analisar compreende um ato de determinar oselementos secundários com base em dados auxiliares associados com oconteúdo de imagem.
15. Método de acordo com a reivindicação 14, caracterizadopelo fato de que os dados auxiliares são composto de um de, dados deExperiência de Ambiente (AMBX) e Informação de IntensificaçãoSuplementar (SEI).
16. Método de acordo com a reivindicação 14, caracterizadopelo fato de que o ato de analisar compreende um ato de determinar oselementos secundários com base em uma posição de cada um de umapluralidade de dispositivos de renderização secundários com relação aodispositivo de renderização primário.
17. Método de acordo com a reivindicação 1, caracterizadopelo fato de que o ato de renderizar os elementos secundários, compreendeum ato de renderizar os elementos secundários para um de uma pluralidade dedispositivos de renderização secundários posicionados em um lado dodispositivo de renderização primário e um outro um da pluralidade dedispositivos de renderização secundários posicionados em um outro lado dodispositivo de renderização primário.
18. Método de acordo com a reivindicação 17, caracterizadopelo fato de que o ato de analisar compreende um ato de analisar cada umadas porções temporais anteriores e subseqüentes do sinal de conteúdo paradeterminar os elementos secundários.
19. Método de acordo com a reivindicação 1, caracterizadopelo fato de que o ato de renderizar os elementos secundários compreende umato de renderizar os elementos secundários em uma taxa de quadro mais lentado que o sinal de conteúdo renderizado.
20. Método de acordo com a reivindicação 1, caracterizadopelo fato de que os elementos secundários são relacionados através de pelomenos uma de relações geométricas e de movimento para uma porçãocorrente do sinal de conteúdo.
21. Método de acordo com a reivindicação 20, caracterizadopelo fato de que pelo menos uma sub-região aparecendo em um certo instanteno dispositivo de renderização primário é monitorada por meio de análises demovimento para determinar pelo menos um elemento renderizado nodispositivo de renderização secundário.
22. Método de acordo com a reivindicação 21, caracterizadopelo fato de que as análises de movimento são efetuadas em uma base de umacontinuação de movimento no conteúdo de imagem como renderizado para odispositivo de renderização primário.
23. Método de acordo com a reivindicação 21, caracterizadopelo fato de que as análises de movimento, são uma projeção de movimentoidentificado de uma porção corrente do sinal de conteúdo para umaposicionamento geométrico do dispositivo de renderização secundário.
24. Método de acordo com a reivindicação 1, caracterizadopelo fato de que o posicionamento geométrico inclui pelo menos um de umaposição dos dispositivos de renderização secundários com relação aosdispositivos de renderização primários e à proporção de um tamanho deconteúdo renderizado nos dispositivos de renderização primários esecundários.
25. Aplicativo incorporado em um meio legível porcomputador configurado para renderizar conteúdo de imagem, caracterizadopelo fato de compreender:uma porção de programa configurada para analisar pelo menosuma das porções temporais anteriores e subseqüentes de um sinal de conteúdopara determinar elementos que são pelo menos um de espacialmente etemporariamente, relacionados a uma porção corrente do sinal de conteúdo;uma porção de programa configurada para renderizar umaporção corrente do sinal de conteúdo em um dispositivo de renderizaçãoprimário; euma porção de programa configurada para renderizar oselementos que são relacionados a uma porção corrente do sinal de conteúdoem um dispositivo de renderização secundário concorrente com arenderização da porção corrente do sinal de conteúdo.
26. Aplicativo de acordo com a reivindicação 25, caracterizadopelo fato de que a porção de programa configurada para renderizar oselementos é configurada para renderizar os elementos em uma resolução maisbaixa do que a porção corrente do sinal de conteúdo renderizado.
27. Aplicativo de acordo com a reivindicação 25, caracterizadopelo fato de que a porção de programa configurada para analisar, o pelomenos uma das porções temporais anteriores e subseqüentes do sinal deconteúdo é configurada para analisar o pelo menos uma das porçõestemporais anteriores e subseqüentes em uma resolução mais baixa do que osinal de conteúdo.
28. Aplicativo de acordo com a reivindicação 25, caracterizadopelo fato de que a porção de programa configurada para renderizar oselementos é configurada para renderizar os elementos em uma resolução devariação, em que a variação é determinada com base em uma posição doselementos renderizados com relação ao sinal de conteúdo renderizado nodispositivo de renderização primário.
29. Aplicativo de acordo com a reivindicação 25, caracterizadopelo fato de que a porção de programa configurada para renderizar oselementos é configurada para renderizar os elementos em uma resolução queé determinada com base em uma posição dos elementos renderizados comrelação ao sinal de conteúdo renderizado no dispositivo de renderizaçãoprimário.
30. Aplicativo de acordo com a reivindicação 29, caracterizadopelo fato de que a porção de programa configurada para renderizar oselementos é configurada para renderizar os elementos em uma resolução queé determinada com base em uma posição temporal dos elementosrenderizados com relação ao sinal de conteúdo renderizado no dispositivo derenderização primário.
31. Aplicativo de acordo com a reivindicação 25, caracterizadopelo fato de que a porção de programa configurada para analisar éconfigurada, para produzir os dados auxiliares relacionados aos elementosdeterminados e, para associar os dados auxiliares com o sinal de conteúdo, emque a porção de programa configurada para renderizar os elementos éconfigurada, para utilizar os dados auxiliares.
32. Aplicativo de acordo com a reivindicação 31. caracterizadopelo fato de que os dados auxiliares são compostos de um de, dados deExperiência de Ambiente (AMBX) e Informação de IntensificaçãoSuplementar (SEI).
33. Aplicativo de acordo com a reivindicação 25, caracterizadopelo fato de que a porção de programa configurada para renderizar oselementos é configurada para renderizar os elementos como elementos deiluminação de ambiente.
34. Aplicativo de acordo com a reivindicação 25, caracterizadopelo fato de que a porção de programa configurada para renderizar oselementos é configurada para renderizar os elementos como elementos deimagem periféricos.
35. Aplicativo de acordo com a reivindicação 25, caracterizadopelo fato de que a porção de programa configurada para renderizar oselementos é configurada para renderizar os elementos com base em umaposição do dispositivo de renderização secundário com relação ao dispositivode renderização primário.
36. Aplicativo de acordo com a reivindicação 25, caracterizadopelo fato de que a porção de programa configurada para renderizar oselementos é configurada para renderizar os elementos com base em umaposição de cada um de uma pluralidade de dispositivos de renderizaçãosecundários com relação ao dispositivo de renderização primário.
37. Aplicativo de acordo com a reivindicação 25, caracterizadopelo fato de que a porção de programa configurada para renderizar oselementos é configurada para renderizar os elementos com base nos dadosauxiliares associados com o conteúdo.
38. Aplicativo de acordo com a reivindicação 37, caracterizadopelo fato de que a porção de programa configurada para renderizar oselementos é configurada para renderizar os elementos com base nos dadosauxiliares que são um de, dados de Experiência de Ambiente (AMBX) eInformação de Intensificação Suplementar (SEI).
39. Aplicativo de acordo com a reivindicação 37, caracterizadopelo fato de que a porção de programa configurada para renderizar oselementos é configurada para renderizar os elementos com base em umaposição de cada um de uma pluralidade de dispositivos de renderizaçãosecundários com relação ao dispositivo de renderização primário.
40. Aplicativo de acordo com a reivindicação 25, caracterizadopelo fato de que a porção de programa configurada para renderizar oselementos é configurada para renderizar os elementos para um de umapluralidade de dispositivos de renderização secundários posicionados em umlado do dispositivo de renderização primário e um outro um da pluralidade dedispositivos de renderização secundários posicionados em um outro lado dodispositivo de renderização primário.
41. Aplicativo de acordo com a reivindicação 40, caracterizadopelo fato de que a porção de programa configurada para analisar éconfigurada, para analisar cada uma das porções temporais anteriores esubseqüentes do sinal de conteúdo para determinar os elementos.
42. Aplicativo de acordo com a reivindicação 25, caracterizadopelo fato de que a porção de programa configurada para renderizar oselementos é configurada para renderizar os elementos em uma taxa de quadromais lenta do que o sinal de conteúdo renderizado.
43. Processador (510) para renderizar conteúdo de imagem emcada um de um dispositivo de renderização primário e secundário, oprocessador (510) caracterizado pelo fato de compreender um acoplamentoconfigurado para acoplar operacionalmente a cada um dos dispositivos derenderização primários e secundários (530, 540), em que o processador (510)é configurado para:analisar pelo menos uma das porções temporais anteriores esubseqüentes de um sinal de conteúdo para determinar elementos que sãoposicionalmente relacionados a uma porção corrente do sinal de conteúdo;fornecer uma porção corrente do sinal de conteúdo pararenderizar no dispositivo de renderização primário (530); efornecer os elementos que são posicionalmente relacionados auma porção corrente do sinal de conteúdo para renderizar no dispositivo derenderização secundário (540) concorrente com a renderização da porçãocorrente do sinal de conteúdo.
44. Processador (510) de acordo com a reivindicação 43,caracterizado pelo fato de que o processador (510) é configurado parafornecer os elementos pelo menos em uma de uma resolução mais baixa euma taxa de quadro mais baixa do a porção fornecida do sinal de conteúdocorrente.
45. Processador (510) de acordo com a reivindicação 43,caracterizado pelo fato de que o processador (510) é configurado, paraanalisar o pelo menos uma das porções temporais anteriores e subseqüentesem uma resolução mais baixa do que o sinal de conteúdo.
46. Processador (510) de acordo com a reivindicação 43,caracterizado pelo fato de que o processador (510) é configurado parafornecer os elementos em uma resolução de variação, em que a variação édeterminada com base em uma posição dos elementos fornecidos com relaçãoao sinal de conteúdo fornecido para renderização no dispositivo derenderização primário (530).
47. Processador (510) de acordo com a reivindicação 43,caracterizado pelo fato de que o processador (510) é configurado parafornecer os elementos em uma resolução que é determinada com base em umaposição dos elementos renderizados com relação ao sinal de conteúdofornecido para renderização no dispositivo de renderização primário (530).
48. Processador (510) de acordo com a reivindicação 47,caracterizado pelo fato de que o processador (510) é configurado parafornecer os elementos em uma resolução que é determinada com base em umaposição temporal dos elementos fornecidos com relação ao sinal de conteúdofornecido para renderização no dispositivo de renderização primário (530).
49. Processador (510) de acordo com a reivindicação 43,caracterizado pelo fato de que o processador (510) é configurado parafornecer os elementos utilizando dados auxiliares associados com o sinal deconteúdo e relacionados aos elementos determinados.
50. Processador (510) de acordo com a reivindicação 49,caracterizado pelo fato de que os dados auxiliares são compostos de um de,dados de Experiência de Ambiente (AMBX) e Informação de IntensificaçãoSuplementar (SEI).
51. Processador (510) de acordo com a reivindicação 43,caracterizado pelo fato de que o processador (510) é configurado parafornecer os elementos como pelo menos um dos elementos de iluminação deambiente e elementos de imagem periféricos.
52. Processador (510) de acordo com a reivindicação 51,caracterizado pelo fato de compreender o dispositivo de renderizaçãosecundário (540), em que o processador (510) é configurado para fornecer oselementos como elementos de iluminação de ambiente, em que o dispositivode renderização secundário (540) compreende pelo menos um de um arranjode diodo de emissão de luz e um pico projetor.
53. Processador (510) de acordo com a reivindicação 43,caracterizado pelo fato de que o processador (510) é configurado parafornecer os elementos com base em uma posição do dispositivo derenderização secundário (540) com relação ao dispositivo de renderizaçãoprimário(530).
54. Processador (510) de acordo com a reivindicação 43,caracterizado pelo fato de compreender o dispositivo de renderizaçãosecundário (540), em que o dispositivo de renderização secundário (540)compreende uma pluralidade de dispositivo de renderização secundários(540), e em que o processador (510) é configurado para fornecer os elementoscom base em uma posição de cada um da pluralidade de dispositivos derenderização secundários (540) com relação ao dispositivo de renderizaçãoprimário(530).
55. Processador (510) de acordo com a reivindicação 43,caracterizado pelo fato de que o processador (510) é configurado parafornecer os elementos com base nos dados auxiliares que são um de, dados deExperiência de Ambiente (AMBX) e Informação de IntensificaçãoSuplementar (SEI) associados com o conteúdo.
56. Processador (510) de acordo com a reivindicação 55,caracterizado pelo fato de compreender o dispositivo de renderizaçãosecundário (540), em que o dispositivo de renderização secundário (540)compreende uma pluralidade de dispositivos de renderização secundários(540), e em que o processador (510) é configurada para fornecer os elementoscom base em uma posição de cada um dos dispositivos de renderizaçãosecundários (540) com relação ao dispositivo de renderização primário (530).
57. Processador (510) de acordo com a reivindicação 43,caracterizado pelo fato de compreender uma pluralidade de dispositivos derenderização secundários (540), em que o processador (510) é configuradapara renderizar os elementos para um da pluralidade de dispositivos derenderização secundários (540) posicionados em um lado do dispositivo derenderização primário (530) e um outro um da pluralidade de dispositivos derenderização secundários (540) posicionados em um outro lado do dispositivode renderização primário (530).
58. Processador (510) de acordo com a reivindicação 43,caracterizado pelo fato de que o processador (510) é configurada paradeterminar os elementos com base em pelo menos um de uma posiçãoespacial e temporal dos elementos fornecidos com relação ao sinal deconteúdo fornecido para renderização no dispositivo de renderização primário (530).
59. Sinal de imagem auxiliar embutido em uma seqüência detransmissão para possibilitar renderização de uma imagem secundáriarelacionada com um imagem primária, caracterizado pelo fato de que o sinalde imagem auxiliar é arranjado para descrever um elemento adequado paracontinuação de um mostrador primário para um dispositivo de renderizaçãosecundário, em que o sinal de imagem auxiliar inclui um perfil deposicionamento, possibilitando posicionar o elemento em uma pluralidade deinstantes de tempo, no dispositivo de renderização secundário.
60. Sinal de imagem auxiliar de acordo com a reivindicação 60, caracterizado pelo fato de que o sinal de imagem auxiliar identifica oelemento como um objeto de plano de frente e de plano de fundo.
61. Sinal de imagem auxiliar de acordo com a reivindicação 60, caracterizado pelo fato de que o perfil de posicionamento inclui umafunção de posição paramétrica para um pixel de fronteira do elemento.
62. Sinal de imagem auxiliar de acordo com a reivindicação 62, caracterizado pelo fato de que a função de posição paramétrica inclui umadescrição de caixa de fronteira para o elemento.
63. Sinal de imagem auxiliar de acordo com a reivindicação 60, caracterizado pelo fato de que o sinal de imagem auxiliar inclui um perfilde modificação que identifica pelo menos uma de uma mudança de cor ebrilho para o elemento conforme o elemento procede a partir do mostradorprimário no dispositivo de renderização secundário.
64. Sinal de imagem auxiliar de acordo com a reivindicação 64, caracterizado pelo fato de que o perfil de modificação inclui pelo menosum dos características de cor e textura de elementos arranjados parapossibilitar uma precisa segmentação do elemento.
65. Sinal de imagem auxiliar de acordo com a reivindicação 64,caracterizado pelo fato de que o perfil de modificação inclui dados detransformação, arranjados para possibilitar pelo menos um de umatransformação em perspectiva espaço temporal, uma transformação aguda, euma modificação de detalhe do elemento conforme o elemento procede apartir do mostrador primário no dispositivo de renderização secundário.
66. Método para gerar dados auxiliares para exibir elementosem um mostrador secundário em uma vizinhança de um mostrador primário,caracterizado pelo fato de compreender:analisar um conjunto de imagens;extrair regiões dessas imagensdeterminar sucessiva informação de posição para essas regiõespara sucessivos instantes de tempo para renderizar em um espaço de imagemfora de um espaço de imagem de renderização primário;codificar a sucessiva informação de posição nos dadosauxiliares associados com o conjunto de imagens.
BRPI0709260-1A 2006-03-31 2007-03-29 método para renderizar conteúdo de imagem, aplicativo incorporado em um meio legìvel por computador, processador para renderizar conteúdo de imagem, sinal de imagem auxiliar, e, método para gerar dados auxiliares para exibir elementos em um mostrador secundário em uma vizinhança de um mostrador primário BRPI0709260A2 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US78847606P 2006-03-31 2006-03-31
US60/788,476 2006-03-31
PCT/IB2007/051126 WO2007113754A1 (en) 2006-03-31 2007-03-29 Adaptive rendering of video content based on additional frames of content

Publications (1)

Publication Number Publication Date
BRPI0709260A2 true BRPI0709260A2 (pt) 2011-06-28

Family

ID=38426552

Family Applications (1)

Application Number Title Priority Date Filing Date
BRPI0709260-1A BRPI0709260A2 (pt) 2006-03-31 2007-03-29 método para renderizar conteúdo de imagem, aplicativo incorporado em um meio legìvel por computador, processador para renderizar conteúdo de imagem, sinal de imagem auxiliar, e, método para gerar dados auxiliares para exibir elementos em um mostrador secundário em uma vizinhança de um mostrador primário

Country Status (10)

Country Link
US (1) US8599313B2 (pt)
EP (1) EP2005732A1 (pt)
JP (1) JP5107338B2 (pt)
KR (1) KR101465459B1 (pt)
CN (1) CN101438579B (pt)
BR (1) BRPI0709260A2 (pt)
MX (1) MX2008012473A (pt)
RU (1) RU2454023C2 (pt)
TW (1) TW200746818A (pt)
WO (1) WO2007113754A1 (pt)

Families Citing this family (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101569241A (zh) * 2006-12-21 2009-10-28 皇家飞利浦电子股份有限公司 显示光辐射的系统、方法、计算机可读介质和用户界面
CN101587586B (zh) * 2008-05-20 2013-07-24 株式会社理光 一种图像处理装置及图像处理方法
JP4813517B2 (ja) * 2008-05-29 2011-11-09 オリンパス株式会社 画像処理装置、画像処理プログラム、画像処理方法、および電子機器
DE102008026517A1 (de) * 2008-06-03 2009-12-10 Zumtobel Lighting Gmbh Beleuchtungs- und Anzeigevorrichtung
TWI395512B (zh) * 2008-08-08 2013-05-01 Remote controller for light emitting diode module
US8427424B2 (en) 2008-09-30 2013-04-23 Microsoft Corporation Using physical objects in conjunction with an interactive surface
KR20110106317A (ko) * 2008-11-28 2011-09-28 코닌클리케 필립스 일렉트로닉스 엔.브이. 3d 감각과 함께 주변 광을 제공하기 위한 디스플레이 시스템, 제어 유닛, 방법, 및 컴퓨터 프로그램 제품
JP2011086437A (ja) * 2009-10-14 2011-04-28 Nintendo Co Ltd 画像表示システム、照明システム、情報処理装置、および制御プログラム
JP5622372B2 (ja) * 2009-09-10 2014-11-12 任天堂株式会社 画像表示システムおよび照明装置
CN102656950B (zh) * 2009-12-17 2015-06-17 皇家飞利浦电子股份有限公司 氛围影院照明系统
US8730309B2 (en) 2010-02-23 2014-05-20 Microsoft Corporation Projectors and depth cameras for deviceless augmented reality and interaction
PL2543181T3 (pl) 2010-03-03 2016-03-31 Koninklijke Philips Nv Urządzenia i sposoby definiowania systemu kolorów
US9754629B2 (en) 2010-03-03 2017-09-05 Koninklijke Philips N.V. Methods and apparatuses for processing or defining luminance/color regimes
US8982151B2 (en) 2010-06-14 2015-03-17 Microsoft Technology Licensing, Llc Independently processing planes of display data
TWI533286B (zh) * 2010-09-06 2016-05-11 元太科技工業股份有限公司 平面顯示裝置
US9329469B2 (en) 2011-02-17 2016-05-03 Microsoft Technology Licensing, Llc Providing an interactive experience using a 3D depth camera and a 3D projector
US9480907B2 (en) 2011-03-02 2016-11-01 Microsoft Technology Licensing, Llc Immersive display with peripheral illusions
US20120223885A1 (en) * 2011-03-02 2012-09-06 Microsoft Corporation Immersive display experience
KR20120134412A (ko) * 2011-06-02 2012-12-12 삼성전자주식회사 디스플레이 장치, 디스플레이 시스템 및 그 영상 표시 방법
US9597587B2 (en) 2011-06-08 2017-03-21 Microsoft Technology Licensing, Llc Locational node device
CN108230988B (zh) * 2012-02-08 2022-02-01 三星电子株式会社 显示装置
US8804321B2 (en) 2012-05-25 2014-08-12 Steelcase, Inc. Work and videoconference assembly
KR101305249B1 (ko) * 2012-07-12 2013-09-06 씨제이씨지브이 주식회사 다면 상영 시스템
EP2731055A1 (en) 2012-10-04 2014-05-14 Thomson Licensing Method and apparatus for ambient lighting color determination
US9930082B2 (en) 2012-11-20 2018-03-27 Nvidia Corporation Method and system for network driven automatic adaptive rendering impedance
US10616086B2 (en) * 2012-12-27 2020-04-07 Navidia Corporation Network adaptive latency reduction through frame rate control
CN105009567B (zh) 2013-02-21 2018-06-08 杜比实验室特许公司 用于合成叠加图形的外观映射的系统和方法
US10055866B2 (en) 2013-02-21 2018-08-21 Dolby Laboratories Licensing Corporation Systems and methods for appearance mapping for compositing overlay graphics
TWM459428U (zh) * 2013-03-04 2013-08-11 Gunitech Corp 環境控制裝置及影/音播放裝置
US9819604B2 (en) 2013-07-31 2017-11-14 Nvidia Corporation Real time network adaptive low latency transport stream muxing of audio/video streams for miracast
CN106164882A (zh) 2014-01-29 2016-11-23 英特尔公司 辅助显示机构
JP5965434B2 (ja) * 2014-06-17 2016-08-03 任天堂株式会社 画像表示システム、照明システム、情報処理装置、および制御プログラム
US9389703B1 (en) * 2014-06-23 2016-07-12 Amazon Technologies, Inc. Virtual screen bezel
US9373054B2 (en) 2014-09-02 2016-06-21 Kodak Alaris Inc. Method for selecting frames from video sequences based on incremental improvement
DE102014016643A1 (de) 2014-11-11 2016-05-12 Novomatic Ag Anzeigevorrichtung und Verfahren zum Betreiben einer solchen Anzeigevorrichtung
KR102281162B1 (ko) 2014-11-20 2021-07-23 삼성전자주식회사 영상 처리 장치 및 방법
US9544419B2 (en) 2014-12-24 2017-01-10 Intel Corporation Methods and systems for configuring a mobile device based on an orientation-based usage context
US9826277B2 (en) * 2015-01-23 2017-11-21 TCL Research America Inc. Method and system for collaborative and scalable information presentation
US10089532B2 (en) 2015-02-23 2018-10-02 Kodak Alaris Inc. Method for output creation based on video content characteristics
US11003062B2 (en) 2015-03-31 2021-05-11 Sony Corporation Information processing device, method of information processing, and image display system
JP6807032B2 (ja) * 2015-06-12 2021-01-06 ソニー株式会社 情報処理装置および情報処理方法
EP3139369A1 (en) * 2015-09-02 2017-03-08 TP Vision Holding B.V. Printed circuit board for controlling projectors and electronic device
CN105657494B (zh) * 2015-12-31 2018-12-25 北京小鸟看看科技有限公司 一种虚拟影院及其实现方法
EP3446551B1 (en) * 2016-04-22 2019-08-14 Signify Holding B.V. Controlling a lighting system
EP3469547B1 (en) * 2016-06-14 2023-09-20 Razer (Asia-Pacific) Pte. Ltd. Image processing devices, methods for controlling an image processing device, and computer-readable media
KR102267397B1 (ko) * 2016-10-25 2021-06-21 삼성전자주식회사 전자 장치 및 이의 제어 방법
JP2018105659A (ja) * 2016-12-23 2018-07-05 国立研究開発法人理化学研究所 識別装置、識別システム、学習装置、学習方法、識別プログラム、学習プログラム、記録媒体、及び集積回路
US10080051B1 (en) * 2017-10-25 2018-09-18 TCL Research America Inc. Method and system for immersive information presentation
CN115460463A (zh) 2018-01-04 2022-12-09 三星电子株式会社 视频播放装置及其控制方法
KR102594652B1 (ko) 2018-12-07 2023-10-27 삼성전자 주식회사 전자 장치의 시각 효과 제공 방법 및 이를 사용하는 전자 장치
US11935500B2 (en) 2018-12-13 2024-03-19 Hewlett-Packard Development Company, L.P. Customizable onscreen display reference points
WO2021061130A1 (en) 2019-09-26 2021-04-01 Google Llc Range extender device
CN110730338A (zh) * 2019-10-23 2020-01-24 国网黑龙江省电力有限公司信息通信公司 一种电视背景墙投影装置
US11023729B1 (en) 2019-11-08 2021-06-01 Msg Entertainment Group, Llc Providing visual guidance for presenting visual content in a venue
FR3111724B1 (fr) * 2020-06-18 2022-11-04 Cgr Cinemas Méthodes pour la production d’effets d’immersion visuelle pour un contenu audiovisuel

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6611297B1 (en) * 1998-04-13 2003-08-26 Matsushita Electric Industrial Co., Ltd. Illumination control method and illumination device
JP4176233B2 (ja) * 1998-04-13 2008-11-05 松下電器産業株式会社 照明制御方法及び照明装置
JP2001118689A (ja) * 1999-10-15 2001-04-27 Matsushita Electric Ind Co Ltd 照明制御方法
US6872553B2 (en) * 1999-10-20 2005-03-29 Degussa Ag Nucleotide sequences which code for the pck gene
JP4399087B2 (ja) * 2000-05-31 2010-01-13 パナソニック株式会社 照明システム、映像表示デバイスおよび照明制御方法
WO2003017649A1 (en) 2001-08-20 2003-02-27 Koninklijke Philips Electronics N.V. Image size extension
US6940558B2 (en) * 2001-12-06 2005-09-06 Koninklijke Philips Electronics N.V. Streaming content associated with a portion of a TV screen to a companion device
GB0211898D0 (en) * 2002-05-23 2002-07-03 Koninkl Philips Electronics Nv Controlling ambient light
EP1522187B1 (en) 2002-07-04 2010-03-31 Koninklijke Philips Electronics N.V. Method of and system for controlling an ambient light and lighting unit
ATE410888T1 (de) * 2002-07-04 2008-10-15 Koninkl Philips Electronics Nv Verfahren und vorrichtung zur steuerung von umgebungslicht und lichteinheit
US20060109283A1 (en) * 2003-02-04 2006-05-25 Shipman Samuel E Temporal-context-based video browsing interface for PVR-enabled television systems
JP2005020512A (ja) * 2003-06-27 2005-01-20 Pioneer Electronic Corp 映像信号処理装置
JP2005057410A (ja) * 2003-08-01 2005-03-03 Alpine Electronics Inc 映像出力装置および方法
US20050036067A1 (en) * 2003-08-05 2005-02-17 Ryal Kim Annon Variable perspective view of video images
JP2008510329A (ja) * 2004-06-30 2008-04-03 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ビデオディスプレイユニットを光源として用いる周辺照明用の受動ディフューザフレームシステム
JP4727342B2 (ja) * 2004-09-15 2011-07-20 ソニー株式会社 画像処理装置、画像処理方法、画像処理プログラム及びプログラム格納媒体
JP4587871B2 (ja) * 2005-05-11 2010-11-24 シャープ株式会社 コンテンツ表示方法、コンテンツ表示装置、及び該方法を実行するプログラム及び記録媒体

Also Published As

Publication number Publication date
US20100201878A1 (en) 2010-08-12
KR101465459B1 (ko) 2014-12-10
TW200746818A (en) 2007-12-16
RU2454023C2 (ru) 2012-06-20
CN101438579A (zh) 2009-05-20
US8599313B2 (en) 2013-12-03
MX2008012473A (es) 2008-10-10
CN101438579B (zh) 2012-05-30
JP2009542039A (ja) 2009-11-26
RU2008143242A (ru) 2010-05-10
WO2007113754A1 (en) 2007-10-11
JP5107338B2 (ja) 2012-12-26
KR20080111515A (ko) 2008-12-23
EP2005732A1 (en) 2008-12-24

Similar Documents

Publication Publication Date Title
BRPI0709260A2 (pt) método para renderizar conteúdo de imagem, aplicativo incorporado em um meio legìvel por computador, processador para renderizar conteúdo de imagem, sinal de imagem auxiliar, e, método para gerar dados auxiliares para exibir elementos em um mostrador secundário em uma vizinhança de um mostrador primário
US9967529B2 (en) Output light monitoring for benchmarking and enhanced control of a display system
KR101489262B1 (ko) 메인 영상의 시각적 요소를 확장시키는 다면 상영 시스템
JP5366547B2 (ja) 立体視表示装置
US8233097B2 (en) Scanning projector ambient lighting system
CN103988234A (zh) 经由透视显示器来显示阴影
US10482652B2 (en) Image conversion for signage
JP2023030137A (ja) システム入力解像度の変動なくディスプレイシステムを校正するシステムおよび方法
US20110221963A1 (en) Display system, control unit, method, and computer program product for providing ambient light with 3d sensation
JP2008536165A (ja) 縞模様を減らすための色変換ユニット
US20140078170A1 (en) Image processing apparatus and method, and program
US11615755B1 (en) Increasing resolution and luminance of a display
JP2011143027A (ja) 遊技機用照明状態プレビューシステム、遊技機
US10708597B2 (en) Techniques for extrapolating image frames
CN112470464A (zh) 场顺序显示器中的场内子码时序
CN111028772B (zh) 灯光显示方法、装置、控制器及存储介质
US20170048506A1 (en) Moving image reproducing apparatus
KR102235679B1 (ko) 시각 효과를 가지는 객체를 디스플레이하는 장치 및 방법
CN117765210A (zh) 在xr虚实合成中实现led区域外画面补偿的方法、装置
KR20240014883A (ko) 복수의 프로젝션부를 포함하는 영상 출력 장치 및 그 제어 방법
Dingeldey et al. Interactive 3D Stereoscopic Dome with Automatic Calibration.
CN117576272A (zh) 虚拟动画的制作方法、装置及电子设备
KR20200045322A (ko) 조명 효과 생성 장치 및 방법

Legal Events

Date Code Title Description
B25A Requested transfer of rights approved

Owner name: TP VISION HOLDING B.V. (NL)

B25G Requested change of headquarter approved

Owner name: TP VISION HOLDING B.V. (NL)

B06F Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette]
B06T Formal requirements before examination [chapter 6.20 patent gazette]
B15K Others concerning applications: alteration of classification

Free format text: AS CLASSIFICACOES ANTERIORES ERAM: H04N 5/445 , H04N 5/262

Ipc: H04N 21/41 (2011.01), H04N 21/431 (2011.01), H04N

B11E Dismissal acc. art. 34 of ipl - requirements for examination incomplete
B11T Dismissal of application maintained [chapter 11.20 patent gazette]