BRPI0712760A2 - sistema para suportar distribuição de entretenimento através de pelo menos uma rede, provedor de metadados, terminal de usuário, método para suportar distribuição de entretenimento através de pelo menos uma rede , produto de programa de computador, e, arquivo xml e sinal digital para comunicação entre dispositivos - Google Patents

sistema para suportar distribuição de entretenimento através de pelo menos uma rede, provedor de metadados, terminal de usuário, método para suportar distribuição de entretenimento através de pelo menos uma rede , produto de programa de computador, e, arquivo xml e sinal digital para comunicação entre dispositivos Download PDF

Info

Publication number
BRPI0712760A2
BRPI0712760A2 BRPI0712760-0A BRPI0712760A BRPI0712760A2 BR PI0712760 A2 BRPI0712760 A2 BR PI0712760A2 BR PI0712760 A BRPI0712760 A BR PI0712760A BR PI0712760 A2 BRPI0712760 A2 BR PI0712760A2
Authority
BR
Brazil
Prior art keywords
ambience
program
metadata
content
reference identifier
Prior art date
Application number
BRPI0712760-0A
Other languages
English (en)
Inventor
Robin J Blackwell
Original Assignee
Koninkl Philips Electronics Nv
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninkl Philips Electronics Nv filed Critical Koninkl Philips Electronics Nv
Publication of BRPI0712760A2 publication Critical patent/BRPI0712760A2/pt
Publication of BRPI0712760A8 publication Critical patent/BRPI0712760A8/pt

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/08Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234318Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by decomposing into objects, e.g. MPEG-4 objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4122Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43074Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of additional data with content streams on the same device, e.g. of EPG data or interactive icon with a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4345Extraction or processing of SI, e.g. extracting service information from an MPEG stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/475End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data
    • H04N21/4755End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data for defining user preferences, e.g. favourite actors or genre
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • H04N21/8405Generation or processing of descriptive data, e.g. content descriptors represented by keywords

Abstract

SISTEMA PARA SUPORTAR DISTRIBUIçãO DE ENTRETENIMENTO ATRAVéS DE PELO MENOS UMA REDE, PROVEDOR DE METADADOS, TERMINAL DE USUáRIO, MéTODO PARA SUPORTAR DISTRIBUIçãO DE ENTRETENIMENTO ATRAVéS DE PELO MENOS UMA REDE, PRODUTO DE PROGRAMA DE COMPUTADOR, E, ARQUIVO XML E SINAL DIGITAL PARA COMUNICAçãO ENTRE DISPOSITIVOS. Um sistema para suportar distribuição de entretenimento através de pelo menos uma rede, compreende um provedor de conteúdo (100) para distribuir um programa; um provedor de metadados (102) para distribuir metadados, os metadados incluindo um identificador de referência de conteúdo do programa e dados relacionados a ambiência complementado o programa. O sistema compreende adicionalmente um terminal de usuário (118) compreendendo uma entrada (106) para receber os metadados; uma entrada (106) para receber o programa usando o identificador de referência de conteúdo; uma unidade de renderização (116) para renderizar o programa recebido; um gerador de ambiência (108) para gerar um efeito de ambiente diferente de áudio ou vídeo; e um controlador de ambiência (110) para controlar o gerador de ambiência sincronizadamente com a renderização do conteúdo, com base nos dados recebidos relacionados a ambiência complementando o programa.

Description

"SISTEMA PARA SUPORTAR DISTRIBUIÇÃO DE ENTRETENIMENTO ATRAVÉS DE PELO MENOS UMA REDE, PROVEDOR DE METADADOS, TERMINAL DE USUÁRIO, MÉTODO PARA SUPORTAR DISTRIBUIÇÃO DE ENTRETENIMENTO ATRAVÉS DE PELO MENOS UMA REDE, PRODUTO DE PROGRAMA DE COMPUTADOR, E, ARQUIVO XML E SINAL DIGITAL PARA COMUNICAÇÃO ENTRE DISPOSITIVOS"
A invenção relaciona-se a um sistema para distribuição de entretenimento, via pelo menos uma rede. A invenção também se relaciona a um provedor de metadados, um terminal de usuário, um método, um produto de programa de computador, um sinal e um arquivo XML.
Um desenvolvimento recente na teoria de mostrador é o ambilight. Esta tecnologia ilumina a parede atrás de um mostrador, tal como uma televisão, de acordo com as cores do conteúdo sendo renderizado, no sentido de criar uma experiência de visualização melhorada. Também, outros tipos de ambiência são conhecidos, incluindo aquecimento e iluminação da sala. A plataforma amBX foi estabelecida como uma "máquina de experiência" para permitir que ambiência fosse não só derivada das cores sendo renderizadadas no mostrador, como também influenciada por editores criativos de um script de ambiência que (parcialmente) prescreve o tipo de efeitos de ambiência que ocorrerão em qualquer instante dado. Estes scripts amBX são primariamente direcionados à industria de jogos, significando que os scripts amBX são usados para definir a experiência de ambiência gerada ao jogar um jogo em um PC ou console de jogos. No futuro, o suporte será estendido a aplicações além de jogos, incluindo música e vídeo.
TV-Anytime é uma plataforma emergente sendo desenvolvida pelo Fórum TV-Anytime em fases. TV-Anytime fase 1 equaciona as áreas de metadados, referência de conteúdo, e gerenciamento e proteção de direitos. TV-Anytime fase 2 equaciona tecnologias em tempo devido relacionadas a empacotamento de conteúdo, programação remota, conteúdo e compartilhamento de perfil de usuário. Ver: The TV-Anytime Fórum, "Specification Series: S-2 (Phase 2) on: System Description", Final Specification, SP002v2.0, 8 de abril de 2005, www,tv-anvtime.ors. TV- Anytime fase 2 suporta novos tipos de conteúdo diferentes de áudio/vídeo linear, tais como jogos, páginas da web, arquivos de música, gráficos e dados. Estes novos tipos de conteúdo são tratados como programas não de áudio- vídeo e/ou como componentes de um pacote. O conceito de empacotamento habilita a combinação de jogos, aplicações e conteúdo intersticial com áudio, vídeo, imagens paradas e texto. Um pacote consiste de uma coleção de itens de conteúdo que são destinados a serem consumidos juntos em alguma combinação, para prover várias experiências de consumidor. Metadados de descrição do pacote também provêem um mecanismo para expressar as opções para consumo, dependendo da ambiência de uso e preferência do usuário. Adicionalmente, metadados de descrição de pacote descrevem informação temporal e espacial entre itens de conteúdo para permitir que o conteúdo seja consumido como o criador de conteúdo pretendia. Devido a informação de sincronização, experiência de multi fluxo, tal como documentários de áudio e vídeo, podem ser providos com o empacotamento de conteúdo.
Seria vantajoso alcançar um sistema melhorado para distribuição de entretenimento através de pelo menos uma rede. Para equacionar melhor esta preocupação, em um primeiro aspecto da invenção é apresentado um sistema compreendendo
- provedor de conteúdo (100) para distribuir um programa;
- provedor de metadados (102) para distribuir metadados, os metadados incluindo um identificador de referência de conteúdo do programa e dados relacionados a ambiência complementando o programa; e
- terminal de usuário (118) compreendendo entrada (106) para receber os metadados; entrada (106) para receber o programa usando o identificador de referência de conteúdo;
unidade de renderização (116) para renderizar o programa recebido;
gerador de ambiência (108) para gerar um efeito de ambiente diferente de áudio ou vídeo; e
controlador de ambiência (110) para controlar o gerador de ambiência sincronizadamente com a renderização do conteúdo, com base nos dados recebidos relacionados a ambiência complementando o programa.o
Por exemplo, o identificador de referência de conteúdo é indicativo de uma localização e/ou instante no qual o programa pode ser recuperado a partir do provedor de conteúdo. Um identificador de referência de conteúdo (CRID) é uma referência para conteúdo. O conteúdo pode, por exemplo, ser resolvido para sua localização quando é requerido para renderização. O provedor de conteúdo pode distribuir um programa compreendendo conteúdo digital, por exemplo conteúdo de áudio e/ou vídeo, ou por exemplo conteúdo de multimídia.
O programa pode, por exemplo, ser distribuído radiodifundindo o programa em um horário pré-determinado ou fornecendo o programa sob demanda ou por podcasting. Os metadados podem compreender adicionalmente um rótulo, título, ou imagem associada ao programa; o terminal de usuário pode compreender meio de interação para exibir o rótulo/título/imagem e habilitar um usuário a selecionar o programa associado para renderização com ou sem ambiência. O sistema permite colocar a ambiência gerada sob medida para as peculiaridades do programa específico. Enquanto os efeitos de ambilight sejam baseados em uma análise do conteúdo sendo renderizado, a presente invenção permite criar os efeitos de acordo com especificações externas. Exemplos destas especificações são providos nas realizações posteriormente. A ambiência e o conteúdo se tornam vinculados por seu acoplamento nos metadados, tornando então mais fácil fornecer dados de ambiência adequados com o programa a ser renderizado. A configuração conforme descrita permite que os dados de ambiência sejam embutidos em protocolos de dados existentes, o que a torna especialmente econômica de realizar. Torna-se ainda possível prover versões múltiplas de um programa, cada versão tendo uma ambiência diferente associada a ela. O usuário pode selecionar a versão desejada que deseja que seja usada, com base, por exemplo, em seu humor ou circunstâncias pessoais, tais como outras pessoas que possam estar em torno e que possam ficar irritadas pelos efeitos de ambiente.
Uma realização compreende um provedor de ambiência (104) para distribuir controle de dados de ambiência para criar um efeito de ambiência pré-determinado, sincronizadamente com uma renderização de uma cena pré-determinada do programa;
e nesta realização
o provedor de metadados é arranjado para incluir nos metadados um identificador de referência de conteúdo dos dados de controle de ambiência;
o terminal de usuário compreende adicionalmente uma entrada para receber os dados de controle de ambiência usando o identificador de referência de conteúdo dos dados de controle de ambiência; e
o controlador de ambiência é arranjado para fazer com que o gerador de ambiência gere o efeito de ambiência pré-determinado sincronizadamente com a renderização da cena pré-determinada.
Esta realização permite que os efeitos de ambiência sejam determinados antecipadamente com um grau relativamente alto de detalhe. Por exemplo, os dados de controle de ambiência poderiam compreender um script amBX feito especialmente para este programa particular. A solução 5
provida por esta realização provê um acoplamento livre entre a ambiência e o programa. O provedor de conteúdo somente necessita prover o programa (por exemplo, compreendendo dados de áudio ou vídeo). Dados de ambiência podem ser adicionados mais tarde e/ou por uma organização diferente, sem requerer quaisquer mudanças no programa original, conforme provido pelo provedor de conteúdo. A recuperação do pacote completo do programa com ambiência é tornada conveniente, pois a localizações de ambos os tipos de dados são fornecidas pelo provedor de metadados. Por exemplo, a ambiência pode ser pré carregada ou através de fluxo. Mais de um identificador de referência de conteúdo podem ser providos apontando para diferentes versões dos dados de controle de ambiência. As diferentes versões podem ser recuperadas do mesmo provedor de ambiência e/ou a partir de diferentes provedores de ambiência.
Em uma realização, o provedor de metadados é arranjado para incluir diversos identificadores de referência de conteúdo do programa, e os dados relacionados a ambiência são indicativos de uma presença e/ou um tipo de dados de controle de ambiência acompanhando o programa, quando recuperado usando os respectivos identificadores de referência de conteúdo;
o terminal de usuário é arranjado para visualizar pelo menos alguns dos dados relacionados a ambiência, e para habilitar um usuário a selecionar pelo menos um dos diversos identificadores de referência de conteúdo para recepção e renderização;
o terminal de usuário compreende uma entrada para receber um programa e os dados de controle de ambiência que o acompanham, usando o identificador de referência de conteúdo selecionado; e
o controlador de ambiência é arranjado para controlar o gerador de ambiência sincronizadamente com a renderização do conteúdo, com base nos dados de controle de ambiência recebidos.
Os diversos identificadores de referência de conteúdo podem ser indicativos das respectivas localizações e/ou instantes nos quais diferentes versões essencialmente do mesmo programa podem ser recuperadas. A ambiência acompanhando cada versão do programa difere. Por exemplo, uma versão sem ambiência pode ser fornecida. Também, diferentes versões do programa com diferentes versões de dados de controle de ambiência podem ser referenciados nos metadados. É provida mais liberdade ao usuário, pois este pode selecionar a versão do programa com a ambiência que prefere. Também, o usuário pode ser requerido a pagar um preço diferente para cada versão, dependendo da ambiência acompanhando a versão. Diferentes provedores de controle podem ser associados a cada identificador de referência de conteúdo.
Em uma realização, o provedor de metadados é arranjado para incluir uma marcação de tempo indicativa de um momento de programa, e os dados relacionados a ambiência são associados à marcação de tempo; e
o controlador de ambiência é arranjado para realizar a ambiência conforme especificado pelos dados relacionados a ambiência no instante indicado pela marcação de tempo.
Deste modo, dados relacionados a ambiência dependentes do tempo podem ser providos nos metadados. O provedor de metadados pode substituir em parte ou completamente o provedor de ambiência. A marcação de tempo ou marcações de tempo podem ser providas na forma de metadados de segmentação de TV-Anytime.
Em uma realização, o provedor de metadados é arranjado para incluir, nos dados relacionados a ambiência, informação caracterizando o programa; e
o controlador de ambiência é arranjado para computar dinamicamente um efeito de ambiência, a ser gerado pelo gerador de ambiência, com base no programa recebido, levando em conta a informação caracterizando o programa. O programa pode ser caracterizado, por exemplo, por pelo menos um dentre: um tipo de conteúdo, uma audiência pretendida, uma atmosfera (tal como suspense), uma palavra.
Em uma realização, o terminal de usuário compreende
meio para gerar informação relacionada a propriedades do gerador de ambiência e/ou relacionado a configurações de usuário; e
uma saída para enviar a informação gerada ao provedor de
metadados; e
o provedor de metadados compreende
uma entrada para receber a informação a partir do terminal de
usuário; e
um gerador de metadados para gerar os metadados a serem distribuídos ao terminal de usuário, levando em conta a informação recebida.
A saída do usuário habilita o provedor de metadados a prover informação sob medida específica para as propriedades e configurações. Propriedades do gerador de ambiência podem incluir, por exemplo, tipos disponíveis de dispositivos. Configurações do usuário podem incluir preferências do usuário e/ou privilégios. Isto permite ao sistema prover somente aqueles efeitos de ambiência que o gerador de ambiência possa gerar, que o usuário aprecia experimentar e/ou a que o usuário tem acesso.
Em uma realização alternativa, o provedor de ambiência compreende uma entrada para receber a informação do terminal de usuário, e um gerador de código ajustável para gerar os dados de controle de ambiência a serem distribuídos ao terminal de usuário, levando em conta a informação recebida.
Em uma realização, o controlador de ambiência é arranjado para reservar um recurso do gerador de ambiência para uso durante a renderização do programa recebido, com base nos dados recebidos relacionados à ambiência complementando o programa. Para ajudar a assegurar que os dispositivos requeridos em um certo momento durante o programa estejam prontos para prover os efeitos requeridos.
Em uma realização, os metadados são compatíveis com TV- Anytime.
Os tipos de metadados relatados podem ser realizados usando TV-Anytime. Estes podem ser realizados usando campos TV-Anytime genéricos ou usando campos proprietários incluídos nos dados de TV- Anytime.
Em uma realização, o provedor de metadados é arranjado para gerar os metadados compatíveis com TV-Anytime, e para incluir o identificador de referência de conteúdo associado aos dados de controle de ambiência em um campo de material relacionado e/ou em um pacote de conteúdo relacionado ao identificador de referência de conteúdo associado ao programa.
Estes modos de incorporar o identificador de referência de conteúdo nos dados de TV-Anytime são particularmente convenientes, pois requerem relativamente poucas modificações e/ou extensões no padrão TV- Anytime.
Em uma realização, o gerador de ambiente compreende pelo menos um dentre: uma luz, um ventilador, um ribombador, um aquecedor, um anteparo. O sistema relatado pode ser convenientemente usado para criar ambiência usando qualquer destes dispositivos. A luz pode compreender um gerador de luz capaz de gerar luz tendo uma cor, temperatura e/ou intensidade controláveis. Tal gerador de luz pode ser construído, por exemplo, usando diversas fontes de luz, cada fonte de luz emitindo luz com uma cor diferente e cada fonte de luz possuindo uma intensidade de luz controlável. Qualquer dos aspectos controláveis do gerador de ambiência pode ser equacionado pelos dados de controle de ambiência. Outros tipos de dispositivos podem também 9
ser usados.
Uma realização compreende um provedor de metadados (102) para suportar distribuição de entretenimento através de pelo menos uma rede, arranjado para distribuir metadados, os metadados incluindo um identificador de referência de conteúdo do programa e um identificador de referência de conteúdo dos dados de controle de ambiência complementando o programa.
Uma realização compreende um terminal de usuário (118) compreendendo
entrada (106) para receber metadados incluindo um identificador de referência de conteúdo de um programa e dados relacionados a ambiência complementando o programa;
entrada (106) para receber o programa usando o identificador de referência de conteúdo;
uma unidade de renderização (116) para renderizar o programa recebido;
um gerador de ambiência (108) para gerar um efeito de ambiente diferente de áudio ou vídeo;
um controlador de ambiência (110) para controlar o gerador de ambiência sincronizadamente com a renderização do conteúdo, com base nos dados recebidos relacionados a ambiência complementando o programa.
Uma realização compreende distribuir um programa (316); distribuir metadados (308), os metadados incluindo um identificador de referência de conteúdo do programa e dados relacionados a ambiência complementando o programa; e em um terminal de usuário
receber os metadados;
receber o programa usando o identificador de referência de
conteúdo;
renderizar (318) o programa recebido; gerar (318) um efeito de ambiente diferente de áudio ou vídeo; e
controlar (318) a geração do efeito de ambiente sincronizadamente com a renderização do conteúdo, com base nos dados recebidos relacionados a ambiência complementando o programa.
Uma realização compreende receber metadados (308) incluindo um identificador de referência de conteúdo de um programa e dados relacionados a ambiência complementando o programa;
receber o programa (316) usando o identificador de referência de conteúdo;
renderizar (318) o programa recebido;
gerar (318) um efeito de ambiente diferente de áudio ou vídeo; e
controlar (318) a geração do efeito de ambiente sincronizadamente com a renderização do conteúdo, com base nos dados recebidos relacionados a ambiência complementando o programa.
Uma realização compreende instruções para fazer com que um processador execute o método relatado.
Uma realização compreende um arquivo XML para comunicação entre dispositivos, sendo compatível com TV-Anytime e compreendendo um pacote incluindo um identificador de referência de conteúdo referindo-se a conteúdo de áudio e/ou vídeo e a um identificador de referência de conteúdo referindo-se a dados de controle de ambiência complementares.
A invenção será esclarecida posteriormente com referência ao desenho, onde
Figura 1 ilustra um contexto da invenção;
Figura 2 ilustra uma realização da invenção;
Figura 3 é um fluxograma representando um fluxo típico de ações a utilizar a invenção;
Figura 4 ilustra uma realização da invenção.
Metadados são definidos como dados que descrevem outros dados. No contexto de conteúdo AV, metadados descrevem propriedades do conteúdo tais como título, gênero, horário, atores, etc. Esta é uma parte importante de encontrar e descrever conteúdo, habilitando buscas avançadas de construção de Guias Eletrônicos de Programa (EPGs). Isto está se tornando crescentemente importante à medida que fontes potenciais de conteúdo aumentam, por exemplo, aumentando o número de canais tradicionais, disponibilidade do conteúdo sobre IP e conteúdo sob demanda.
TV-Anytime é um padrão para fornecer metadados através, por exemplo, de transportes por radiodifusão e IP. Provê uma estrutura para os metadados, uma linguagem de consulta para busca, mecanismos de transporte múltiplos para fornecer os medidores e um mecanismo para resolver entre os metadados e a localização do conteúdo. TV-Anytime foi desenvolvida em duas fases; as especificações da fase um são agora padrões ETSI, as especificações da fase dois foram aprovadas recentemente pelo ETSI.
Em adição a isto, novas características estão sendo adicionadas a serviços CE, para prover um ambiente mais imersivo. Este tipo de funcionalidade é referido como Ambiência através da descrição desta invenção. Um exemplo deste tipo de produto é a gama Philips de TVs uAmbilighf que provêm luz de fundo baseada no conteúdo sendo visualizado.
Um problema atual é que Ambiência e Conteúdo não estão vinculados. No sentido de desenvolver uma experiência de ambiência, uma opção é desenvolver algoritmos que analisam dinamicamente o conteúdo. Isto tem a vantagem de operar em todo o conteúdo, porém está limitado nos tipos e qualidades de efeitos que podem ser criados. Uma outra alternativa é desenvolver uma solução proprietária, que embute a ambiência no conteúdo. Isto requereria acordo com um provedor de conteúdo específico e um fabricante de dispositivo CE para suportar o padrão proprietário. Estes sistemas e métodos aqui relatados provêm um método para vincular dados de controle de ambiência a conteúdo de áudio-vídeo. Estes também provêm um acoplamento livre entre conteúdo e ambiência. Isto apresenta as seguintes vantagens:
Companhias de terceira parte podem operar como Provedores de Ambiência. Economias de escalas podem ser obtidas, pois provedores de Ambilight podem ser associados a múltiplos provedores de conteúdo.
Ambiência pode ser provida com base nos dispositivos presentes na residência.
Ambiência pode ser provida bem antecipadamente ou bem após o conteúdo ter sido criado, por exemplo, abre catálogos posteriores de conteúdo.
Mudanças na Ambiência podem ser feitas sem mudar o conteúdo.
Ambiência pode ser adicionada a um conteúdo por etapas, isto é, primeiramente 100 títulos de topo.
A cobrança pode ser provida para conteúdo padrão versus conteúdo de "Ambiência" melhorado.
Ambiência pode ser destinada a perfis de consumidor.
Figura 1 mostra, de uma perspectiva técnica, como um provedor de ambiência se ajusta em uma configuração de provedores e/ou servidores, cada um provendo alguns dos dados relacionados a áudio/vídeo a serem renderizados em um terminal de usuário. A Figura mostra um provedor de metadados 4 que pode prover dados relacionados a conteúdo AV disponível do provedor de conteúdo AV 2. O provedor de metadados 4 pode também prover informação sobre dados de ambiência disponíveis do provedor de ambiência 1. O provedor de metadados 4 conhece quais dados de 13
ambiência pertencem a qual programa AV. Os provedores 1, 2 e 4 são conectados no meio de uma rede 6 a um terminal de usuário 8 operado por um consumidor. A rede 6 pode ser a Internet ou um meio de radiodifusão de áudio ou vídeo tradicional. É também possível distribuir o conteúdo AV via meio de radiodifusão tradicional, enquanto se distribui dados de ambiência complementares via Internet. Os metadados pode ser distribuídos por qualquer um dos dois. Outros tipos de rede são equivalentemente aplicados à invenção, conforme entendido pelo especialista na técnica. O terminal de usuário 8 interpreta os metadados providos pelo provedor de metadados 4 e recebe programas selecionados do provedor de conteúdo 2 e dados de ambiência complementares selecionados por provedor de ambiência 1. Os provedores podem ser representados por diferentes companhias ou mesma companhia, e serem implementados em diferentes servidores ou no mesmo servidor.
Os metadados podem ser providos em qualquer formato desejado. Preferivelmente, um formato de metadados padronizado é usado, porque neste caso muitos dispositivos são capazes de usar os metadados sem requerer modificações. Formatos de metadados padronizados que podem ser adaptados para prover funcionalidade de ambiência conforme aqui relatado incluem MPEG7, Dublin-core, e DIDL. Também outros sistemas poderiam ser adaptados para prover a funcionalidade aqui descrita, por exemplo, mecanismo UPnP de Serviço de Diretório doe Conteúdo poderia ser usado para distribuir ambiência e/ou os metadados ao longo do conteúdo.
Um dos formatos de metadados que pode ser usado é TV- Anytime. Um aspecto de TV-Anytime é que é baseado em referências para conteúdo chamado Identificadores de Referência de Conteúdo (CRIDs) ao invés de identificadores de conteúdo. Isto ajuda a prover o acoplamento livre delineado acima. Usualmente, o conteúdo é apenas resolvido para sua localização, quando é requerido. Um outro aspecto da invenção é que a ambiência pode ser provida de um número de maneiras:
Parâmetros para algoritmo de ambiência; Transferência de arquivo contendo sugestões marcadas no tempo ou instruções no dispositivo;
Sugestões em fluxo ou instruções de dispositivo.
Estas podem ser providas separadamente ou embutidas no próprio conteúdo.
Um número de modos nos quais TV-Anytime pode ser usado para fornecer ambiência é delineado a seguir.
Uma opção é usar algoritmos, por exemplo, implementados no terminal de usuário, para computar ambiência. Os metadados descritivos, por exemplo, conforme definido por TV-Anytime, podem ser usados para reforçar o desempenho dos algoritmos de ambiência. Por exemplo, se o algoritmo sabe qual tipo de programa está sendo assistido, então pode se adaptar. Por exemplo, a faixa de cores (por exemplo, um índice de palette), tempo de resposta, ou os tipos de dispositivos usados como geradores de ambiência, podem ser adaptados. Um exemplo de fragmento de metadados é reproduzido abaixo. Nem todos os campos possíveis são mostrados. Um número de campos de metadados pode ser usado para determinar a ambiência tal como Gênero ou Palavra Chave. Estes campos de metadados são usados como parâmetros dos algoritmos de ambiência. O Gênero poderia ser definido como para o esquema de classificação TV-Anytime padrão, que envolve campos tais como Atmosfera e Audiência Pretendida. Outros esquemas de classificação podem também ser usados, conforme entendido pelo especialista na técnica.
Exemplos de fragmento de metadados: <table>table see original document page 16</column></row><table>
Em uma realização, são incluídos metadados que descrevem duas ou mais instâncias de conteúdo uma sem ambiência e uma ou mais com ambiência embutida no conteúdo. Ou um consumidor pode escolher uma das instâncias ou o dispositivo pode avaliar se é capaz de fornecer a experiência de ambiência prescrita e selecionar uma instância automaticamente. Em uma realização, os metadados podem incluir um identificador de referência de conteúdo que, quando resolvido, retorna metadados incluindo pelo menos dois identificadores de referência de conteúdo; um identificador de referência de conteúdo indicando o programa sem ambiência e um identificador de referência de conteúdo apontando para a ambiência (com programa).
Em uma outra realização, um campo de Material Relacionado TV-Anytime é usado. Este campo habilita metadados a serem vinculados a outro material relacionado. Usualmente, o campo se refere a um site da web ou endereço de e-mail relacionado ao conteúdo AV. A ambiência, ou uma referência à ambiência, poderia ser provida por meio deste mecanismo. Um modo eficiente para incluir referência de ambiência no campo de Material Relacionado seria definir um novo valor para o campo HowRelated, tal como "Localização de Ambiência". A ambiência poderia, por exemplo, ser especificada como um arquivo para transferência, ou como um recurso de fluxo. No último caso, preferivelmente, o enlace é conforme ao formato URI. Correspondentemente, um dispositivo de cliente poderia transferir a ambiência antes do evento ou poderia efetuar stream ao longo do conteúdo. Adicionalmente, a negociação poderia ter lugar com o provedor de ambiência baseado no usuário e dispositivos, presente.
TV-Anytime fase 2 introduz o conceito de pacotes de conteúdo. Isto é destinado a fornecer uma correção de itens a serem consumidos ao mesmo tempo. Exemplos incluem trilhas de áudio alternativas ou conteúdo interativo empacotado juntamente com o conteúdo principal. Isto poderia também ser usado para definir um pacote contendo ambos conteúdo e ambiência. Pacotes são definidos por uma Tabela de Pacote adicional que pode ser consultada, e usando o campo RelatedMaterial para indicar outros elementos do mesmo pacote. Preferivelmente, a ambiência teria seu próprio CRID e poderia ser resolvida com o mesmo mecanismo que o conteúdo.
Em uma outra realização, um novo conjunto de campos é definido, o qual se relaciona diretamente a ambiência. Isto pode ser realizado por duplicação de métodos padrão e estruturas definidas pelo TV-Anytime.
Tipicamente, um terminal de usuário compreende um ou mais geradores de ambiência para gerar um efeito de ambiência particular. Os dispositivos que fornecem ambiência podem ser pré-determinados e podem ser os mesmos para cada família. Neste caso, dados de ambiência e metadados 17
de ambiência podem ser sob medida especificamente para os dispositivos que são conhecidos como disponíveis. Entretanto, o crescente potencial da rede doméstica poderia conduzir a dispositivos em rede que pudessem ser descobertos dinamicamente, participando na experiência, por exemplo, dispositivos de automação doméstica, tais como HVAC, Ventiladores, Persianas, etc. Também, perfis de usuário podem ser permitidos, os quais definem o tipo de experiências preferidas. Outros cenários envolvendo diferentes conjuntos de dispositivos de geração de ambiência são imagináveis. Diferentes conjuntos de ambiência podem ser suportados, permitindo metadados de perfil de usuário, por exemplo, metadados compatíveis com TV-Anytime. Estes metadados podem ser mantidos no dispositivo doméstico ou transmitidos a um servidor remoto. Em particular, TV-Anytime Fase 2 adiciona suporte para objetivos onde resultados podem ser baseados no dispositivo ou perfil de usuário.
Em uma realização, usando a experiência requerida conforme definido pelos dados de controle de ambiência, problemas de gerenciamento de recursos são resolvidos, por exemplo, reservando largura de faixa ou dispositivos que são requeridos de acordo com os dados de controle de ambiência. Isto poderia ser também usado em um ambiente sem fio.
Para casos em que a ambiência é provida separada do conteúdo, por exemplo, usando um provedor de ambiência e um provedor de conteúdo separados, sincronização é um problema. O provedor de ambiência pode prover marcações de tempo que correspondem diretamente ao conteúdo, no sentido de sincronizar. Também, qualquer mudança na renderização do conteúdo, por exemplo, pausa/reinicio, terá que ser comutada para a implementação de ambiência.
Sincronização poderia ser obtida usando uma forma proprietária, entretanto, TV-Anytime define características de marcação de tempo especificamente para segmentação. A segmentação permite que um 18
programa seja dividido em um número de segmentos, por exemplo, um programa de notícias dividido em manchetes, esportes e segmentos de notícias locais. Isto então habilita um usuário a selecionar o segmento requerido. Isto tem que ser preciso o bastante para recuperar a localização correta no conteúdo, no início e/ou no fim do segmento. Para esta finalidade, TV-Anytime define um número de tipos de marcação de tempo incluindo um Tipo TVAMedia, que descreve um ponto no tempo relativo a uma origem conhecida e com uma duração opcional. Em uma realização, isto é reutilizado para definir a ambiência em relação a um programa particular. Uma ambiência poderia até ser plenamente descrita em termos do esquema de TV- Anytíme, se desejado. Se a opção de empacotamento TV-Anytime Fase 2 é usada, então metadados de sincronização adicional são definidos para assegurar que os conteúdos de um pacote sejam fornecidos ao mesmo tempo. Deste modo, dados de ambiente e dados de conteúdo são fornecidos ao terminal de usuário em tempo para renderização síncrona.
A invenção também se aplica a ambiência para conteúdo ao vivo. Ou é usado o método de algoritmo, com parâmetros fornecidos pelos metadados, ou um provedor de ambiência poderia analisar o conteúdo ao vivo e prover ambiência retardada no tempo. O terminal de usuário pode deslocar no tempo o conteúdo para sincronizar a renderização com a ambiência retardada no tempo. O deslocamento no tempo já é uma característica comum de dispositivos de gravação de vídeo pessoais.
Conteúdo de áudio e/ou vídeo (AV) é diferente em natureza da ambiência. AV é baseado em fluxo. Ambiência é baseada em evento, isto é, em uma base de tempo ou em uma base reativa. Ambiência pode ser controlada em uma forma lembrando conteúdo interativo conforme definido pela plataforma doméstica de multimídia (MHP), onde aplicações de software podem ser transferidas, as quais correspondem a conteúdo AV, por exemplo, uma aplicação que exibe estatística para um programa de esportes ao vivo. As ambientações podem ser baseadas em tempo (desligar luzes 30 segundos no AV) ou reativas (tornar as luzes azuis quando Vídeo se torna azul ou quando uma tecla é pressionada). Portanto, estas ambientações podem ser providas por um script ou por uma máquina interpretando conteúdo.
Sincronização entre conteúdo e ambiência pode ser realizada usando as realizações relatadas. Um exemplo de uma sincronização de áudio vídeo é a do MPEG-I que usa uma transferência de relógio e marcações de tempo para sincronizar conteúdo. TV-Anytime inclui campos de base de tempo e de referência de tempo pois estes são requeridos para prover segmentação, por exemplo, dividindo um programa de notícias em segmentos de Manchetes, Negócios, Esportes. A ambiência pode ser codificada de uma maneira proprietária, mas é também possível estender as estruturas e campos de TV-Anytime para descrever um script de ambiência. Aplicações interativas requerem este tipo de interação já no sentido de sincronizar eventos com o conteúdo, por exemplo, acesso a informação de sincronização AV já é suportado pela MHP.
O sistema pode cooperar com uma faixa de configurações de usuário final. Por exemplo, diferentes usuários possuindo preferências diferentes, tipos de dispositivo/rede disponíveis, diferentes versões de software, etc. TV-Anytime e outros formatos de metadados provêm um método para submeter dados que segue perfis de usuário e hábitos de visualização a serem enviados através da rede, para habilitar serviços alvo. Definindo estruturas adequadas nos dados submetidos, geradores de ambiência e perfis de rede doméstica podem também ser transmitidos com este mecanismo. O esquema de perfil é usado para descrever isto. Esta informação pode ser armazenada localmente ou remotamente. Protocolos de rede de dispositivo que suportam descoberta de dispositivo automático podem detectar automaticamente novos dispositivos que podem ser usados como geradores de ambiência e relatar suas propriedades ao controlador de ambiência. Em adição, um usuário poderia especificar dispositivos que são ou não para uso na geração de ambiência. Perfis de rede podem também ser usados para melhorar a temporização de controle de ambiência, pois a latência de uma rede pode significativamente afetar os resultados finais, por exemplo, tempos de resposta. Também, se o tipo de máquina de ambiência é descoberto, provedores de ambiência podem objetivar ambiência para prover o melhor efeito com os recursos disponíveis. Usando o método de resolução do CRID para ambiência, a localização do conteúdo de ambiência pode ser alterada para coincidir com o dispositivo requisitante. A qualidade de serviço pode ser melhorada levando em conta diferentes configurações, conflitos e/ou latência da rede (doméstica) para evitar qualquer falha ou retardo no fornecimento dos comandos de controle.
O sistema pode conviver com diferentes conflitos. Se dispositivos estão presentes em uma rede doméstica tradicional que pode ser usada a qualquer tempo, então assegurar que os dispositivos e redes estejam disponíveis no horário requerido é essencial. Empacotar a ambiência como um elemento separado dentro de, por exemplo, um pacote de TV-Anytime, pode resolver isto. A ambiência terá seu próprio CRID ou outro tipo de referência e pode, portanto, potencialmente ser adquirida bem antes da disponibilidade do conteúdo. Deste modo, o gerenciamento de recurso pode ser efetuado, por exemplo, reserva da largura de faixa requerida, travar os dispositivos para o horário requerido. Em algumas redes, o gerenciamento de recursos é suportado, por exemplo, pela IEEE 1394, onde este não é suportado, a máquina de ambiência pode evitar conflitos entre ambiência, por exemplo, similar a mecanismos existentes para evitar conflitos de gravação. Isto se torna crescentemente importante se uma máquina de ambiência é capaz de suportar instâncias múltiplas de ambiência, por exemplo, salas múltiplas.
O sistema pode cooperar com múltiplos provedores. TV- Anytime e outros protocolos podem suportar perfis de usuário. Adicionando fornecedores preferidos de ambiência ao esquema de perfil de usuário, esta seleção de provedor pode ser automatizada. Também, incluindo um sistema de classificação para ambiência, por exemplo, o usuário provê listas de provedores preferidos e não preferidos que os provedores poderiam desenvolver automaticamente.
O pagamento por serviços de ambiência pode também ser suportado. Usando o pacote de metadados, e fornecido um CRID para ambiência e pode ser adquirido separadamente. Portanto, dois pacotes podem ser providos, um com e um sem ambiência. Também, como um CRID de resolução é usado, pode haver instâncias múltiplas da ambiência, quando resolvida tendo diferentes estruturas de preços. Estruturas de metadados para preços são incluídas em TV-Anytime.
Figura 2 ilustra como o sistema é operativo para se comunicar usando um ou mais redes 206. Redes 206 podem compreender a Internet, uma rede de televisão a cabo, sistemas de radiodifusão de televisão digital, uma rede de telefonia móvel, uma rede USB, e outros tipos de rede. Os servidores .200, 202 e 204 podem ser, por exemplo, sistemas de computador ou estações de radiodifusão. Também, os servidores podem ser representados por um único sistema de servidor físico. Os servidores podem também ser representados por uma facilidade de armazenagem que pode ser acessada pelo terminal de usuário 208. O servidor de metadados 200, servidor de ambiência .202, servidor de conteúdo AV 204, e terminal de usuário 208 são todos conectados via uma das redes 206. Em qualquer caso, o terminal de usuário tem acesso aos servidores 200, 202 e 204. Em algumas realizações, os servidores 200, 202 e 204tb se comunicarão um com o outro para trocar informação sobre os programas e dados de controle de ambiência. O servidor de metadados 200 provê metadados ao terminal de usuário 208 via rede 206. Os metadados compreendem um identificador de referência de conteúdo que o terminal de usuário 208 pode usar para obter um programa a partir do servidor de conteúdo AV 204. Os metadados podem também compreender informação adicional sobre o programa, tal como um título, gênero, trama e palavras chave de um programa. Os metadados podem também compreender um identificador de referência de conteúdo adicional (que é destinado a denotar qualquer tipo de referência)que o terminal de usuário 208 pode usar para obter dados de controle de ambiência a partir do servidor de ambiência .202. Tais dados de controle de ambiência são usados para criar efeitos de ambiência usando o gerador de ambiência 210 no terminal de usuário 208.
Figura 3 mostra um fluxo ilustrativo de ações relacionadas a um terminal de usuário 300, um servidor de metadados 320, um servidor de ambiência 304, e um servidor de conteúdo 306. Em uma requisição do usuário para assistir a um filme em particular "Filme A", o terminal de usuário 300 emite uma consulta ao servidor de metadados 302. O servidor de metadados .302 então provê a informação requerida em formato de metadados, por exemplo em formato TV-Anytime. Os metadados contém um identificador de referência de conteúdo onde o filme (ou programa) pode ser obtido, e também contém informação sobre material relacionado. Na etapa 310, o terminal de usuário analisa os metadados para extrair a informação com vistas ao material relacionado, e encontra uma referência para dados de ambiência complementando o filme. Ao usuário indicar utilizar os dados de ambiência (por exemplo, baseado automaticamente nas preferências do usuário), os dados de ambiência são transferidos do servidor de ambiência na etapa 312. A ambiência pode ser transferida como um arquivo antes de renderizar o filme ou como um fluxo de dados enquanto renderiza o filme. Na etapa 314, a localização do conteúdo de áudio/vídeo é resolvida processando o identificador de referência de conteúdo, e após resolver, na etapa 316, o conteúdo de áudio/vídeo é transferido. O conteúdo de áudio/vídeo pode ser transferido como um arquivo antes da renderização, ou pode ser transferido como um fluxo de dados, enquanto renderiza o conteúdo. Na etapa 318, o programa é renderizado e efeitos de ambiência complementares são gerados com base nos dados de ambiência recuperados. Embora o fluxo seja discutido aqui para o exemplo de sistemas sob demanda, pode ser usado com sistemas de radiodifusão com pequenas modificações, como é aparente a um especialista na técnica. Alternativamente, na etapa 310, um pacote TV- Anytime é extraído contendo os CRIDs para o programa e ambiência relatados.
Figura 4 mostra um diagrama de um sistema para suportar distribuição de entretenimento. A Figura mostra um provedor de conteúdo .100, um provedor de metadados 102, um provedor de ambiência 104 e um terminal de usuário 118. O terminal de usuário compreende meio de entrada .106 conectando o terminal de usuário aos provedores, via respectivas conexões de rede apropriadas. O terminal de usuário compreende adicionalmente um gerador de ambiência 108, um controlador de ambiência .110, um controlador de terminal 112, meio de interação 114 para prover uma interface de usuário a uma pessoa, e meio de renderização 116 tal como um amplificador com alto-falantes e/ou um mostrador. O controlador de terminal pode ser um processador com memória para controlar as operações do terminal de usuário. O usuário controla o terminal de usuário por meio do meio de interação 114 e pode prover entrada para requisitar listagens de programas disponíveis e horários de radiodifusão de programas, incluindo informação adicional sobre os programas tais como título, trama, gênero e propriedades orientadas mais tecnicamente do programa tais como a disponível de som estéreo ou envolvente e se os dados de vídeo possuem um formato de imagem 4:3 ou por exemplo um formato de imagem 16:9. A informação adicional também compreende uma disponibilidade de dados de ambiência para obter um efeito de ambiência apropriado para complementar o programa. Os dados de ambiência podem compreender dados de controle de ambiência ou parâmetros para um algoritmo de geração de ambiência. O espectador usa o meio de interação 114 para indicar o programa a ser renderizado, usar dados de ambiência e quais dados de ambiência usar. Conseqüentemente, o controlador de terminal 112 usa o meio de entrada 106 para recuperar o conteúdo do provedor de conteúdo 100 e dados de ambiência requisitados do provedor de ambiência 104. O conteúdo é renderizado usando meio de renderização 116 e os efeitos de complementação de ambiência são controlados pelo controlador de ambiência 110 usando os dados de ambiência recuperados. O controlador de ambiência controla o gerador de ambiência que provê fisicamente o efeito de ambiência. Exemplos de geradores de ambiência incluem uma luz, uma luz colorida, um ventilador, um ribombador, um aquecedor, um anteparo. O gerador de ambiência 108 pode ser um Ambilight integrado ao meio de renderização (mostrador) 116.
Será verificado que a invenção também se estende a programas de computador, particularmente programas de computador sobre ou dentro de um portador, adaptados para colocar a invenção em prática. O programa pode ser na forma de código fonte, código de objeto, código fonte intermediário, e código de objeto tal como forma parcialmente compilada, ou em qualquer outra forma adequada para uso na implementação do método de acordo com a invenção. O portador pode ser qualquer entidade ou dispositivo capaz de levar o programa. Por exemplo, o portador pode incluir um meio de armazenagem, tal como uma ROM, por exemplo, um CD-ROM ou ROM de semicondutor, ou um meio de gravação magnético, por exemplo, um disco flexível ou disco rígido. Adicionalmente, o portador pode ser um portador transmissível, tal como um sinal elétrico ou óptico, e pode ser conduzido via cabo elétrico ou óptico ou o rádio ou outros meios. Quando o programa é realizado em tal sinal, o portador pode ser constituído por tal cabo ou outro dispositivo ou meio. Alternativamente, o portador pode ser um circuito integrado no qual o programa é embutido, o circuito integrado sendo adaptado para efetuar, ou para uso no desempenho do método relevante.
Deveria ser notado que as realizações acima mencionadas ilustram ao invés de imitar a invenção, e aqueles especialistas na técnica serão capazes de projetar muitas realizações alternativas, sem se afastar do escopo das reivindicações anexas. Nas reivindicações, quaisquer sinais de referência colocados entre parênteses não deverão ser considerados como limitando a invenção. O uso do verbo "compreender" e suas conjugações não exclui a presença de elementos ou etapas diferentes daqueles declarados em uma reivindicação. O artigo "um" ou "uma" precedendo um elemento não exclui a presença de diversos de tais elementos. A invenção pode ser implementada por meio de hardware, compreendendo vários elementos distintos, e por meio de computador adequadamente programado. Na reivindicação do dispositivo enumerando vários meios, vários destes meios podem ser realizados por um e pelo menos item de hardware. O mero fato de que certas medidas são citadas em reivindicações dependentes mutuamente diferentes não indica que uma combinação destas medidas não possa ser usada com vantagem.

Claims (17)

REIVINDICAÇÕES
1. Sistema para suportar distribuição de entretenimento através de pelo menos uma rede, caracterizado pelo fato de compreender - provedor de conteúdo (100) para distribuir um programa; - provedor de metadados (102) para distribuir metadados, os metadados incluindo um identificador de referência de conteúdo do programa e dados relacionados a ambiência complementando o programa; e - terminal de usuário (118) compreendendo entrada (106) para receber os metadados; entrada (106) para receber o programa usando o identificador de referência de conteúdo; unidade de renderização (116) para renderizar o programa recebido; gerador de ambiência (108) para gerar um efeito de ambiente diferente de áudio ou vídeo; e controlador de ambiência (110) para controlar o gerador de ambiência sincronizadamente com a renderização do conteúdo, com base nos dados recebidos relacionados a ambiência complementando o programa.
2. Sistema de acordo com a reivindicação 1, caracterizado pelo fato de compreender adicionalmente provedor de ambiência (104) para distribuir dados de controle de ambiência para criar efeito de ambiência pré-determinado, sincronizadamente com uma renderização de uma cena pré-determinada do programa; e onde o provedor de metadados é arranjado para incluir nos metadados um identificador de referência de conteúdo dos dados de controle de ambiência; o terminal de usuário compreende adicionalmente uma entrada para receber os dados de controle de ambiência usando o identificador de referência de conteúdo dos dados de controle de ambiência; e o controlador de ambiência é arranjado para fazer com que o gerador de ambiência gere o efeito de ambiência pré-determinado sincronizadamente com a renderização da cena pré-determinada.
3. Sistema de acordo com a reivindicação 1, caracterizado pelo fato de que o provedor de metadados é arranjado para incluir diversos identificadores de referência de conteúdo do programa, e os dados relacionados a ambiência são indicativos de uma presença e/ou um tipo de dados de controle de ambiência acompanhando o programa, quando recuperados usando os respectivos identificadores de referência de conteúdo; o terminal de usuário é arranjado para exibir pelo menos alguns dos dados relacionados a ambiência, e para habilitar um usuário a selecionar pelo menos um dos diversos identificadores de referência de conteúdo para recepção e renderização; o terminal de usuário compreende uma entrada para receber um programa e os dados de controle de ambiência que o acompanham, usando o identificador de referência de conteúdo selecionado; e o controlador de ambiência é arranjado para controlar o gerador de ambiência sincronizadamente com a renderização do conteúdo, com base nos dados de controle de ambiência recebidos.
4. Sistema de acordo com a reivindicação 1, caracterizado pelo fato de que o provedor de metadados é arranjado para incluir uma marcação de tempo indicativa de um momento de programa, e os dados relacionados a ambiência são associados à marcação de tempo; e o controlador de ambiência é arranjado para realizar a ambiência conforme especificado pelos dados relacionados a ambiência no instante indicado pela marcação de tempo.
5. Sistema de acordo com a reivindicação 1, caracterizado pelo fato de que o provedor de metadados é arranjado para incluir, nos dados relacionados a ambiência, informação caracterizando o programa; e o controlador de ambiência é arranjado para computar dinamicamente um efeito de ambiência, a ser gerado pelo gerador de ambiência, com base no programa recebido, levando em conta a informação caracterizando o programa.
6. Sistema de acordo com a reivindicação 1, caracterizado pelo fato de que o terminal de usuário compreende meio para gerar informação relacionada a propriedades do gerador de ambiência e/ou relacionado a configurações de usuário; e uma saída para enviar a informação gerada ao provedor de metadados; e o provedor de metadados compreende uma entrada para receber a informação a partir do terminal de usuário; e um gerador de metadados para gerar os metadados a serem distribuídos ao terminal de usuário, levando em conta a informação recebida.
7. Sistema de acordo com a reivindicação 1, caracterizado pelo fato de que o controlador de ambiência é arranjado para reservar um recurso do gerador de ambiência para uso durante a renderização do programa recebido, com base nos dados recebidos relacionados à ambiência complementando o programa.
8. Sistema de acordo com a reivindicação 1, caracterizado pelo fato de que os metadados são compatíveis a TV-Anytime.
9. Sistema de acordo com a reivindicação 0, caracterizado pelo fato de que o provedor de metadados é arranjado para gerar os metadados compatíveis com TV-Anytime, e para incluir o identificador de referência de conteúdo associado aos dados de controle de ambiência em um campo de material relacionado e/ou em um pacote de conteúdo relacionado ao identificador de referência de conteúdo associado ao programa.
10. Sistema de acordo com a reivindicação 1, caracterizado pelo fato de que o gerador de ambiente compreende pelo menos um dentre: uma luz, um ventilador, um ribombador, um aquecedor, um anteparo.
11. Provedor de metadados (102) caracterizado pelo fato de suportar distribuição de entretenimento através de pelo menos uma rede, arranjado para distribuir metadados, os metadados incluindo um identificador de referência de conteúdo do programa e um identificador de referência de conteúdo dos dados de controle de ambiência complementando o programa.
12. Terminal de usuário (118), caracterizado pelo fato de compreender entrada (106) para receber metadados incluindo um identificador de referência de conteúdo de um programa e dados relacionados a ambiência complementando o programa; entrada (106) para receber o programa usando o identificador de referência de conteúdo; uma unidade de renderização (116) para renderizar o programa recebido; um gerador de ambiência (108) para gerar um efeito de ambiente diferente de áudio ou vídeo; um controlador de ambiência (110) para controlar o gerador de ambiência sincronizadamente com a renderização do conteúdo, com base nos dados recebidos relacionados a ambiência complementando o programa.
13. Método para suportar distribuição de entretenimento através de pelo menos uma rede, caracterizado pelo fato de compreender distribuir um programa (316); distribuir metadados (308), os metadados incluindo um identificador de referência de conteúdo do programa e dados relacionados a ambiência complementando o programa; e em um terminal de usuário receber os metadados; receber o programa usando o identificador de referência de conteúdo; renderizar (318) o programa recebido; gerar (318) um efeito de ambiente diferente de áudio ou vídeo; e controlar (318) a geração do efeito de ambiente sincronizadamente com a renderização do conteúdo, com base nos dados recebidos relacionados a ambiência complementando o programa.
14. Método para suportar distribuição de entretenimento através de pelo menos uma rede, caracterizado pelo fato de compreender receber metadados (308) incluindo um identificador de referência de conteúdo de um programa e dados relacionados a ambiência complementando o programa; receber o programa (316) usando o identificador de referência de conteúdo; renderizar (318) o programa recebido; gerar (318) um efeito de ambiente diferente de áudio ou vídeo; e controlar (318) a geração do efeito de ambiente sincronizadamente com a renderização do conteúdo, com base nos dados recebidos relacionados a ambiência complementando o programa.
15. Produto de programa de computador caracterizado pelo fato de compreender instruções para fazer com que um processador execute o método como definido na reivindicação 1.
16. Arquivo XML para comunicação entre dispositivos, caracterizado pelo fato de ser compatível com TV-Anytime e compreendendo um pacote incluindo um identificador de referência de conteúdo referindo-se a conteúdo de áudio e/ou vídeo e um identificador de referência de conteúdo referindo-se a dados de controle de ambiência complementares.
17. Sinal digital para comunicação entre dispositivos, caracterizado pelo fato de compreender um identificador de referência de conteúdo referindo-se a conteúdo de áudio e/ou vídeo e um identificador de referência de conteúdo referindo-se a dados de controle de ambiência complementares.
BRPI0712760A 2006-06-13 2007-06-12 Sistema para suportar distribuição de entretenimento através de pelo menos uma rede, provedor de metadados, terminal de usuário, método para suportar distribuição de entretenimento através de pelo menos uma rede , produto de programa de computador, e, arquivo xml e sinal digital para comunicação entre dispositivos BRPI0712760A8 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP06115350 2006-06-13
EP06115350.8 2006-06-13
PCT/IB2007/052210 WO2007144823A1 (en) 2006-06-13 2007-06-12 Distribution of ambience and content

Publications (2)

Publication Number Publication Date
BRPI0712760A2 true BRPI0712760A2 (pt) 2012-10-02
BRPI0712760A8 BRPI0712760A8 (pt) 2015-10-06

Family

ID=38634658

Family Applications (1)

Application Number Title Priority Date Filing Date
BRPI0712760A BRPI0712760A8 (pt) 2006-06-13 2007-06-12 Sistema para suportar distribuição de entretenimento através de pelo menos uma rede, provedor de metadados, terminal de usuário, método para suportar distribuição de entretenimento através de pelo menos uma rede , produto de programa de computador, e, arquivo xml e sinal digital para comunicação entre dispositivos

Country Status (8)

Country Link
US (1) US8904469B2 (pt)
EP (1) EP2033444A1 (pt)
JP (1) JP5268895B2 (pt)
KR (1) KR20090029803A (pt)
CN (1) CN101467458A (pt)
BR (1) BRPI0712760A8 (pt)
RU (1) RU2446583C2 (pt)
WO (1) WO2007144823A1 (pt)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10063813B2 (en) * 2007-07-26 2018-08-28 The Directv Group, Inc. Method and system for communicating and displaying broadband content availability using information received through a satellite
KR20100114857A (ko) * 2009-04-16 2010-10-26 한국전자통신연구원 사용자 실감 효과 선호정보를 이용한 실감 효과 표현 방법 및 장치
KR20100114858A (ko) * 2009-04-16 2010-10-26 한국전자통신연구원 실감 기기 성능 메타데이터를 이용한 실감 효과 표현 방법 및 장치
JP5620995B2 (ja) 2009-09-17 2014-11-05 テレフオンアクチーボラゲット エル エムエリクソン(パブル) メディアコンテンツの共有方法及び装置
KR101705898B1 (ko) * 2010-04-02 2017-02-13 삼성전자주식회사 디지털 방송 시스템에서 타임시프트 서비스 제공 방법 및 시스템
US9615119B2 (en) 2010-04-02 2017-04-04 Samsung Electronics Co., Ltd. Method and apparatus for providing timeshift service in digital broadcasting system and system thereof
CN101866630B (zh) * 2010-04-13 2012-10-31 深圳创维-Rgb电子有限公司 一种彩色光输出控制方法及液晶电视
KR102110623B1 (ko) * 2012-07-12 2020-05-13 소니 주식회사 송신 장치, 정보 처리 방법, 프로그램, 수신 장치 및 애플리케이션 연동 시스템
IN2014MN02572A (pt) * 2012-07-12 2015-07-24 Sony Corp
US9652945B2 (en) 2013-09-06 2017-05-16 Immersion Corporation Method and system for providing haptic effects based on information complementary to multimedia content
US9711014B2 (en) 2013-09-06 2017-07-18 Immersion Corporation Systems and methods for generating haptic effects associated with transitions in audio signals
US9619980B2 (en) 2013-09-06 2017-04-11 Immersion Corporation Systems and methods for generating haptic effects associated with audio signals
US9576445B2 (en) 2013-09-06 2017-02-21 Immersion Corp. Systems and methods for generating haptic effects associated with an envelope in audio signals
EP2854317A1 (en) * 2013-09-26 2015-04-01 Alcatel Lucent Method for providing a client device with a media asset
US9330547B2 (en) * 2014-05-20 2016-05-03 Immersion Corporation Haptic effect authoring tool based on a haptification model
US10541005B2 (en) * 2017-05-17 2020-01-21 Cypress Semiconductor Corporation Distributed and synchronized control system for environmental signals in multimedia playback
TWI700630B (zh) * 2018-05-31 2020-08-01 技嘉科技股份有限公司 聲控顯示裝置及擷取語音訊號的方法
WO2019233800A1 (en) * 2018-06-08 2019-12-12 Signify Holding B.V. Adjusting parameters of light effects specified in a light script
US10902461B2 (en) 2018-08-03 2021-01-26 International Business Machines Corporation Environmental modification using tone model analysis
JP2022540067A (ja) 2019-06-28 2022-09-14 ドルビー ラボラトリーズ ライセンシング コーポレイション ハイダイナミックレンジ用映像コンテンツタイプメタデータ
CN112327720B (zh) * 2020-11-20 2022-09-20 北京瞰瞰智域科技有限公司 氛围管理方法及系统
EP4272454A1 (en) * 2021-01-04 2023-11-08 Signify Holding B.V. Adjusting light effects based on adjustments made by users of other systems

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SU1225587A1 (ru) * 1984-10-30 1986-04-23 Ульяновский политехнический институт Цветомузыкальна телевизионна приставка
US6152829A (en) * 1998-05-13 2000-11-28 National Research Development Corp. Device and process for producing effects
US6330718B1 (en) * 1998-10-30 2001-12-11 Intel Corporation Consumption distance based customized rendering of entertainment programming
US6363434B1 (en) * 1999-03-30 2002-03-26 Sony Corporation Of Japan Method of managing resources within a network of consumer electronic devices
JP2001333030A (ja) * 2000-05-19 2001-11-30 Minolta Co Ltd 放送番組送受信システム、これに使用される放送装置及び受信装置、放送番組送受信方法、並びに、記録媒体再生システム、これに使用される記録媒体再生装置及び記録媒体
JP2001333410A (ja) * 2000-05-22 2001-11-30 Sony Corp メディアデータの提供を最適化するためのメタデータ使用方法及びシステム
DE10064624A1 (de) * 2000-12-22 2002-06-27 Ruetz Stefan Verfahren und Vorrichtung zur Ausbringung von Düften
US20020116471A1 (en) 2001-02-20 2002-08-22 Koninklijke Philips Electronics N.V. Broadcast and processing of meta-information associated with content material
US20030007001A1 (en) * 2001-06-07 2003-01-09 Philips Electronics North America Corporation Automatic setting of video and audio settings for media output devices
EP1525747B1 (en) 2002-07-04 2008-10-08 Koninklijke Philips Electronics N.V. Method of and system for controlling an ambient light and lighting unit
CN1666521A (zh) * 2002-07-11 2005-09-07 皇家飞利浦电子股份有限公司 有条件地阻止内容项的再现
US7577636B2 (en) * 2003-05-28 2009-08-18 Fernandez Dennis S Network-extensible reconfigurable media appliance
RU2282946C2 (ru) * 2003-12-25 2006-08-27 Александр Александрович Сухов Способ передачи визуальной информации
EP1677536A1 (en) * 2004-12-30 2006-07-05 Korea Electronics Technology Institute Method for delivering non-anonymous user metadata using a soap operation in TV-Anytime metadata service

Also Published As

Publication number Publication date
JP2009540725A (ja) 2009-11-19
RU2009100846A (ru) 2010-07-20
CN101467458A (zh) 2009-06-24
KR20090029803A (ko) 2009-03-23
RU2446583C2 (ru) 2012-03-27
EP2033444A1 (en) 2009-03-11
BRPI0712760A8 (pt) 2015-10-06
JP5268895B2 (ja) 2013-08-21
WO2007144823A1 (en) 2007-12-21
US8904469B2 (en) 2014-12-02
US20090254959A1 (en) 2009-10-08

Similar Documents

Publication Publication Date Title
BRPI0712760A2 (pt) sistema para suportar distribuição de entretenimento através de pelo menos uma rede, provedor de metadados, terminal de usuário, método para suportar distribuição de entretenimento através de pelo menos uma rede , produto de programa de computador, e, arquivo xml e sinal digital para comunicação entre dispositivos
US10433029B2 (en) Implemental method and application of personalized presentation of associated multimedia content
US6236395B1 (en) Audiovisual information management system
US7194688B2 (en) Audiovisual information management system with seasons
US20090307258A1 (en) Multimedia distribution and playback systems and methods using enhanced metadata structures
TWI717744B (zh) 用於更新媒體呈現資料的方法和裝置
US20200394157A1 (en) Method and System for Content Distribution
US20040268383A1 (en) Audiovisual information management system
Müller et al. A test-bed for the dynamic adaptive streaming over HTTP featuring session mobility
TW201123795A (en) System, method and apparatus for dynamic media file streaming
BRPI0615806A2 (pt) equipamento e métodos para prover e apresentar informações de canal personalizado
WO2012016975A1 (en) Method for sharing data and synchronizing broadcast data with additional information
JP2013500658A (ja) モバイル装置のためのメディアコンテンツをスイッチングする方法
US20030121040A1 (en) Audiovisual management system
Lee et al. Personalized TV services based on TV-anytime for personal digital recorder
Suk et al. Sensory effect metadata for SMMD media service
Rauschenbach et al. A scalable interactive TV service supporting synchronized delivery over broadcast and broadband networks
KR20060124368A (ko) 컨텐츠의 재생 구간 정보를 이용한 멀티미디어 컨텐츠 제공시스템 및 방법
Recommendation ITU-Th. 750
GB2479925A (en) System for providing metadata relating to media content
Pereira et al. Future MPEG developments

Legal Events

Date Code Title Description
B25D Requested change of name of applicant approved

Owner name: KONINKLIJKE PHILIPS N.V. (NL)

B25G Requested change of headquarter approved

Owner name: KONINKLIJKE PHILIPS N.V. (NL)

B06F Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette]
B08F Application dismissed because of non-payment of annual fees [chapter 8.6 patent gazette]

Free format text: REFERENTE A 12A ANUIDADE.

B08K Patent lapsed as no evidence of payment of the annual fee has been furnished to inpi [chapter 8.11 patent gazette]

Free format text: EM VIRTUDE DO ARQUIVAMENTO PUBLICADO NA RPI 2518 DE 09-04-2019 E CONSIDERANDO AUSENCIA DE MANIFESTACAO DENTRO DOS PRAZOS LEGAIS, INFORMO QUE CABE SER MANTIDO O ARQUIVAMENTO DO PEDIDO DE PATENTE, CONFORME O DISPOSTO NO ARTIGO 12, DA RESOLUCAO 113/2013.