BRPI0407310B1 - Processo e aparelho para transmitir informações de fontes em um sistema de transmissão, e processo e aparelho para adicionar ou modificar informações de fontes em dispositivos eletrônicos - Google Patents

Processo e aparelho para transmitir informações de fontes em um sistema de transmissão, e processo e aparelho para adicionar ou modificar informações de fontes em dispositivos eletrônicos Download PDF

Info

Publication number
BRPI0407310B1
BRPI0407310B1 BRPI0407310-0A BRPI0407310A BRPI0407310B1 BR PI0407310 B1 BRPI0407310 B1 BR PI0407310B1 BR PI0407310 A BRPI0407310 A BR PI0407310A BR PI0407310 B1 BRPI0407310 B1 BR PI0407310B1
Authority
BR
Brazil
Prior art keywords
stream
information
font
source information
source
Prior art date
Application number
BRPI0407310-0A
Other languages
English (en)
Inventor
David Sahuc
Thierry Viellard
Paul Kerbiriou
Original Assignee
Interdigital Vc Holdings, Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Interdigital Vc Holdings, Inc filed Critical Interdigital Vc Holdings, Inc
Publication of BRPI0407310A publication Critical patent/BRPI0407310A/pt
Publication of BRPI0407310B1 publication Critical patent/BRPI0407310B1/pt

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/103Formatting, i.e. changing of presentation of documents
    • G06F40/109Font handling; Temporal or kinetic typography
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/22Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of characters or indicia using display control signals derived from coded signals representing the characters or indicia, e.g. with a character-code memory
    • G09G5/222Control of the character-code memory
    • G09G5/225Control of the character-code memory comprising a loadable character generator
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23412Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs for generating or manipulating the scene composition of objects, e.g. MPEG-4 objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234318Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by decomposing into objects, e.g. MPEG-4 objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44012Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving rendering scenes according to scene graphs, e.g. MPEG-4 scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47205End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Databases & Information Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Television Systems (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

PROCESSO PARA TRANSMITIR E RECEBER INFORMAÇÕES DE FONTES EM SISTEMAS DE FLUXO CONTÍNUO. Um processo é descrito que permite que um provedor de conteúdo transmita informações de fontes (1) a um receptor, e que permite ainda que um terminal de receptor (5) receba e aplique essas informações, propiciando, assim, possibilidades aperfeiçoadas para o provedor de conteúdo definir como sintetizar o texto ou símbolos transmitidos em um visor (13). O processo é bom para sistemas de transferência de dados, em particular sistemas à base de MPEG-4. Vantajosamente, as informações de fontes podem ser armazenadas, se o terminal conter um dispositivo de armazenamento adequado (13).

Description

[001] Esta invenção se refere a informações de fontes que são úteis para dispositivos eletrônicos contendo um visor e, em particular, um processo para transmitir, receber e atualizar as ditas informações de fontes.
ANTECEDENTES
[002] No padrão ISO/IEC 14496 MPEG-4, em particular, em Sistemas - parte 1, uma cena de áudio / vídeo (AV) pode ser composta de vários objetos 2D / 3D de áudio, vídeo e sintéticos, que podem ser codificados com diferentes tipos de codificação em formato MPEG-4 e podem ser transmitidos como dados comprimidos binários em um fluxo de bits multiplexado, compreendendo áudio, vídeo e outros subfluxos, por exemplo, texto a ser exibido. Um subfluxo é também referido como Fluxo Elementar (ES) e pode ser acessado por um descritor. Uma cena é geralmente entendida como um espaço audiovisual, com o qual um usuário pode interagir.
[003] O processo de sintetização de uma cena única a partir dos objetos componentes é chamado composição e significa misturar objetos AV individuais múltiplos, por exemplo, uma apresentação de um vídeo com áudio e texto relacionados, após reconstrução de pacotes e decodificação separada dos seus respectivos ESs. A interação do usuário, a capacidade do terminal e a configuração do terminal podem ser usadas quando da determinação de como compor uma cena em um termi- nal receptor. O fluxo de bits definido no padrão MPEG-4 mencionado contém um ES denominado "Fluxo de Descrição de Cena", que é um conjunto de instruções gerais para composição das cenas, e contém ainda outros subfluxos, de modo que os chamados Fluxos de Descrição de Objetos, que contêm informações de configuração, são necessários para decodificar os subfluxos AV. Em um receptor, os subfluxos de configuração são extraídos e usados para configurar os decodificadores AV necessários. Então, os subfluxos AV são decodificados separadamente em objetos, e as instruções de composição recebidas são usadas para preparar uma única apresentação dos objetos AV decodificados. Essa apresentação, ou cena, final, que não está mais sob controle integral do difusor ou provedor de conteúdo, devido à composição dependente de terminal, é depois reproduzida.
[004] No padrão ISO / IEC 14496 - 1:2002, que é a versão atual do padrão de Sistemas MPEG-4, um modelo hierárquico para apresentação de cenas AV é descrito, usando uma abordagem paramétrica. Um InitialObjectDescriptor (IOD) contém descritores para o Fluxo de Descrição de Cena e um Fluxo OD dedicado. O Fluxo de Descrição de Cena contém uma descrição de cena, consistindo de uma árvore de nós codificada. "Nó" significa uma etapa ou unidade de processamento usada no padrão MPEG-4, por exemplo, uma interface conduzindo sincronização de tempo entre um decodificador e unidades de processamento subsequentes. Nós podem ter atributos, referidos como campos, e outras informações anexadas. Um nó de folha nessa árvore corresponde aos dados AV elementares, por apontamento a um OD dentro do fluxo OD, que contém, por sua vez, um Descritor ES apontando para dados AV em um ES, ou para um objeto sintético 2D / 3D gráfico, por exemplo, um cubo, uma curva ou um texto. Nós intermediários, ou nós de descrição de cenas, agrupam esse material para formar objetos AV, e executam, por exemplo, agrupamento e transformação nesses objetos AV.
[005] O texto a ser exibido fica contido em um ES de Descrição de Cena. A reprodução do texto é descrita com o nó FontStyle. Na semântica do nó FontStyle, o campo família permite que o criador de conteúdo selecione a fonte que o terminal usa para exibir, ou renderizar, o texto. Se a fonte estiver disponível na plataforma do cliente, é usada para renderizar as cadeias de texto determinadas. De outro modo, uma fonte padrão tem que ser usada. Em contraste com muitos outros nós da Descrição de Cena, os campos do nó FontStyle são estáticos, isto é, não podem ser modificados por atualizações.
SUMÁRIO DA INVENÇÃO
[006] Em várias aplicações, um provedor de conteúdo deseja determinar o estilo ou fonte no qual o texto transmitido é exibido em um receptor. Mas, usualmente, os receptores podem apenas exibir poucas fontes e estilos, uma vez que carecem das informações correspondentes. Esse problema é solucionado pela presente invenção, através de um processo para transmitir informações de fontes para dispositivos eletrônicos e de um processo para adicionar ou modificar as informações de fontes em dispositivos eletrônicos contendo ou sendo conectados a um visor como descrito nas reivindicações 1 e 2. Aparelhos usando o processo inventivo no lado do transmissor ou receptor são também descritos na presente invenção.
[007] Um sistema é proposto que é capaz de transmitir em fluxo contínuo informações de fonte para um terminal, que pode transferir as informações e usá-las para determinar como exibir o texto. As informações de fonte se referem a um ou mais símbolos, usualmente um conjunto de caracteres, mas também símbolos tipográficos, ou dingbats, e podem compreender especificações para, por exemplo, face de tipos, ou forma, tamanho, cor, estilo negrito e itálico, espaçamento de linhas, passo proporcional ou passo fixo. Uma fonte pode ser usada para todo o texto, ou pode ser ligada a um determinado conteúdo de texto que precisa dessas informações para ser renderizado em um dispositivo.
[008] O sistema inventivo compreende dados de formato para uma ou mais fontes, um dispositivo para integrar os dados em fluxos de bits, por exemplo, sendo composto de pacotes multiplexados em estampas de tempo, um dispositivo para transmissão, transporte e recepção dos ditos fluxos de bits, um terminal aceitando os ditos fluxos de bits como entrada e contendo um meio, por exemplo, decodificadores, para gerenciar dados de fontes e outros de conteúdo e compor o conteúdo gerenciado, e um dispositivo de renderização para apresentar o dito conteúdo composto.
BREVE DESCRIÇÃO DOS DESENHOS
[009] As modalidades exemplificativas da invenção são descritas com referência aos desenhos em anexo, que mostram: A Figura 1 é uma estrutura de sistema de fluxo contínuo de fontes geral exemplificativo; A Figura 2 é a estrutura geral de um terminal MPEG-4; e A Figura 3 é uma Estrutura de Descritor de Objeto MPEG-4 incluindo um fluxo de fonte.
DESCRIÇÃO DETALHADA DA INVENÇÃO
[010] A Figura 1 mostra os componentes de um sistema de fluxo contínuo de fontes geral de acordo com a invenção. Os dados de fontes 1 são empacotados, por exemplo, multiplexa- dos, juntamente com dados AV e de cena 2, os dados de cena incluindo um texto, em um fluxo de bits 4 em um dispositivo adequado 3, contendo, por exemplo, um multiplexador e um servidor para transmissão. A transmissão pode incluir difusão, e o fluxo de bits 4 e os seus subfluxos podem ser estruturados, por exemplo, como pacotes multiplexados.
[011] No dispositivo receptor 5, o fluxo de bits é de- multiplexado para ES, por exemplo, fluxos de controle, áudio, vídeo e fonte, em que o ES compreende Descrição de Ce-na, incluindo texto, e para fluxos OD, e o dito ES é distribuído para os gerenciadores envolvidos. As porções individualmente acessíveis de um ES são referidas como Unidades de Acesso (AUs) 6, que são depois decodificadas por um Gerenciador Decodificador 7 em um formato apresentável, dependente de plataforma. Para a decodificação específica requerida por um ES, o Gerenciador Decodificador 7 é configurado usando as Informações Específicas do Decodificador 11 (DSI). As ditas DSI 11 podem ser configuradas ou modificadas, usando, por exemplo, as informações recebidas nos subfluxos de controle do fluxo de bits. O Gerenciador Decodificador 7 gera Unidades de Composição (CUs) 8 sendo introduzidas em um Compositor 9, que gera, por sua vez, um sinal de entrada 10 para um dispositivo de renderização 13, por exemplo, PC ou TV. Uma vez que as CUs podem ser geradas antes de serem requeridas pelo Compositor 9, podem ser armazenadas nos Armazenamentos Temporários de Composição. No caso inventivo dos dados sendo dados de fontes, pode ser vantajoso armazenar os dados de fontes em um Dispositivo de Armazenamento local 12, por exemplo, memória, memória instantânea, disco ou disco rígido, para uso posterior. Os dados de fontes podem ser usados para composição no Compositor 9, por exemplo, quando um provedor de conteúdo especifica a fonte a ser usada para um de-terminado texto. Como o Compositor 9 é dependente de plataforma, o Gerenciador Decodificador 7 pode, independentemente do sistema de fluxo contínuo, gerar o formato CU que o Compositor 9 requer, de modo que o texto é renderizado como intencionado pelo provedor de conteúdo.
[012] O padrão de Sistemas MPEG-4 define que os tempos de gerenciamento podem ser associados com as AUs 6, que são usadas pelo Gerenciador Decodificador 7, nas vezes que os dados têm que ser decodificados. Os dados, assim convertidos em CUs 8 e preparados para o Compositor 9, são transmitidos para o Armazenamento temporário de Composição. Para as CUs pode haver tempos de composição definidos nos quais o Compo sitor 9 usa determinar em que tempo uma CU tem que ser usada para renderizar o conteúdo. O servidor 3 enviando os pacotes para o cliente deve garantir que os pacotes vão chegar no terminal do cliente 5 suficientemente cedo para que as informações fiquem disponíveis para o Compositor 9 a tempo. Esse aspecto pode ser tratado no tempo de criação de conteúdo.
[013] Para o caso da invenção ser usada para sistemas orientados por fluxo MPEG-4 ou similares, a estrutura do terminal é ilustrada na Figura 2. O terminal 20 contém uma interface 21, referida como uma Interface de Aplicação DMIF. É usada para a conversão do formato do pacote de dados do fluxo entre a camada de sincronização SL e a camada de transferência DL. Além disso, demultiplexa o fluxo de bits em subfluxos, ou ES. Os subfluxos contendo dados de cena, juntamente com o texto, são enviados para os armazenamentos temporários de decodificação adequados 22, 26 e depois para os decodificadores 23, 27 em tempos específicos. Cada deco- dificador é para um determinado tipo de ES, e é ajustado apenas quando necessário. As informações especificando um decodificador podem ser recebidas a partir de um ES dedicado, por exemplo, fluxo OD, por um gerenciador dedicado 29, antes de uso do decodificador. A saída do decodificador é alimentada a um armazenamento temporário de composição 24, 28 e depois para o compositor 25 a um tempo específico, isto é, no seu respectivo tempo de composição. Nessa modalidade da invenção, há um armazenamento temporário de decodificação 26, um decodificador 27 e um armazenamento temporário de composição 28, usados para transferir informações de fontes.
[014] Em uma modalidade da invenção, os dados de fonte recebidos são armazenados no receptor para uso posterior, enquanto que em outra modalidade apenas a última fonte rece-bida é armazenada, e outras fontes devem ser transferidas quando o conteúdo requerer que sejam usadas. Em uma terceira modalidade, uma fonte transferida é armazenada até que o cliente seja desconectado do conteúdo. Em uma quarta modalidade, o fluxo de bits pode conter uma notificação se as informações de fontes devem ser armazenadas ou não. Em uma quinta modalidade da invenção, o usuário pode controlar, isto é, habilitar ou desabilitar, essa transferência de dados de fontes.
[015] A Figura 3 mostra a Estrutura de Descritor de Objeto de um sistema MPEG-4 contendo também dados de fontes. Consiste de um Descritor de Objeto Inicial e cinco Fluxos Elementares (ES). O Descritor de Objeto Inicial contém dois Descritores de Fluxos Elementares (ES_D) apontando para o ES, notavelmente, ES_Ds tendo o valor ES_IDs e, desse modo, apontando para o Fluxo de Descrição de Cena, e ES_DO tendo o valor ES_IDo e, desse modo, apontando para o Fluxo Descritor de Objeto. O Fluxo de Descrição de Cena contém uma descrição de cena que descreve a geometria, animação e interatividade da cena e também se liga a cada objeto da cena a ser reproduzida, por especificação de como obter o objeto do ES. Os nós de folha da árvore de hierarquia de descrição de cena, ligada aos objetos de mídia, usam Identificadores de Descri- tores de Objetos (ODID) apontando para os Descritores de Objetos sendo recebidos no Fluxo Descritor de Objeto. Um Identificador de Descritor de Objeto ODIDv aponta para um Des-critor de Objeto ODv para um objeto visual, e outro Identificador de Descritor de Objeto ODIDT aponta para um Descritor de Objeto ODT para um objeto de texto. Cada Descritor de Objeto contém um ou mais descritores ES ES_D, que são referências ao ES a ser reproduzido na cena. O objeto de texto é incluído dentro de um Fluxo de Descrição de Cena contendo o nó de texto efetivo e refere-se a um ES, isto é, um Fluxo de Fontes contendo a respectiva fonte. Os dois fluxos são referidos pelos descritores ES ES_DS e ES_DF tendo o valor dos respectivos identificadores ES_IDS e ES_IDF.
[016] Quando uma fonte é referida em, por exemplo, conteúdo de multimídia, a referência pode ser o ES_ID como na Figura 3, ou o nome da fonte como um valor de cadeia, ou ambos. Os dados das fontes correspondentes à fonte referida podem ter sido inseridos com um ES no fluxo MPEG-4 antes, com o ES_ID correspondente e, opcionalmente, uma cadeia de nome adicional. Vantajosamente, os dados, nome e informações relativas de fontes podem ser armazenados para uso posterior. Nesse caso, a fonte pode ser referida, por exemplo, por nome. Vantajosamente, nenhum nome de arquivo é transferido, de modo que os nomes de arquivos compatíveis com o sistema podem ser selecionados para armazenamento.
[017] Uma unidade dedicada no receptor, referida como gerenciador de fontes, pode tratar todos os aspectos relacionados a fontes, por exemplo, selecionar uma fonte padrão, checar se uma fonte requerida especial já foi armazenada antes, receber uma nova fonte, atualizar as fontes armazenadas, etc.
[018] As informações relativas a fontes específicas, mencionadas acima como DSI e usadas para configuração do de- codificador, podem compreender, por exemplo: - o tipo de fonte, isto é, o formato interno dos dados de fontes, sendo diferentes para, por exemplo, fontes TrueType, fontes OpenType ou fontes animadas, etc.; - uma informação de armazenamento de fonte, especificando se ou não a fonte deve ser armazenada para uso posterior; - o nome da fonte, isto é, uma cadeia a ser usada como referência para a fonte; e - informações específicas do sistema para o gerenciador de fontes, por exemplo, se a fonte deve ser usada apenas para determinados caracteres ou símbolos, ou, por exemplo, para letras maiúsculas apenas.
[019] Nos sistemas MPEG-4, as DSI são transportadas no fluxo OD. De acordo com a invenção, há duas possibilidades para transmitir as informações especificando o decodificador de fonte: todas as ditas informações estão contidas na DSI, e a AU de fontes contém dados de fontes brutos, ou as DSI contêm uma indicação que as ditas informações estão, juntamente com os dados de fontes brutos, dentro da AU. Uma indicação de qual das duas soluções é usada pode ser codificada na variável fontFormat dentro das DSI.
[020] Com a primeira solução, os ajustes para o decodi- ficador de fonte são auto-suficientes, isto é, completamente definidos na estrutura OD, e, portanto, todos os pacotes AU contendo informações de fontes têm o mesmo formato interno, definido pelo valor fontFormat. Isso significa que não é possível modificar, dinamicamente, o formato da fonte recebida, isto é, a fonte usada para renderização de texto, mas, por outro lado, requer, apenas um tipo de decodificador simples.
[021] Para a segunda solução, apenas a variável fontFormat é usada das DSI, e as outras informações relativas a fontes nas DSI são ignoradas. Em vez disso, essas informações ficam contidas nos pacotes AU para as informações de fontes e podem ser extraídas, por exemplo, dos cabeçalhos dos pacotes. Isso pode ser chamado de fonte autocontida. Neste caso, é suficiente usar um valor reservado específico para fontFormat nas DSI. Essa solução significa que os pacotes AU de fluxo de fontes podem ter diferentes formatos internos e, portanto, o decodificador pode ser mais complexo do que na primeira solução, uma vez que deve extrair algumas das suas DSI requeridas dos pacotes. Mas, vantajosamente, a modificação dinâmica das fontes é possível, uma vez que uma fonte recém-recebida pode ser imediatamente usada.
[022] Para uma implementação MPEG-4 da invenção, poucas otimizações são necessárias para o padrão, como descrito a seguir. As ditas otimizações se referem ao tipo de fluxo, formato de AU, tipo de decodificador e semântica do nó.
[023] Uma vez que um novo tipo de ES é usado, um novo valor do parâmetro streamType deve ser definido, que é usado pelo terminal para identificar o subfluxo como sendo um ES de fontes, criar o decodificador requerido e conectá-lo ao ES. Com base no padrão mencionado acima, o novo streamType proposto pode ser adicionado como se segue:
Figure img0001
TABELA 1
[024] Uma variável ObjectTypeIndication não é necessária para esse fluxo, de modo que o valor 0xFF (nenhum tipo de objeto especificado) pode ser usado. Uma maneira simples de transportar informações de fontes é embutir o arquivo de fontes em uma AU, criando, desse modo, um novo tipo de AU. Essa AU pode ser dividida em pacotes de camada de sincroni-zação (SL), durante transferência, como descrito no padrão MPEG-4. Além disso, um novo decodificador tem que ser defi- nido para gerenciar as AUs de fontes. O decodificador extrai os dados de fontes da AU usando as DSI de configuração. Se as DSI são implementadas, por exemplo, como uma classe em uma linguagem Orientada por Objeto, pode ter o seguinte formato:
Figure img0002
[025] A variável fontFormat contida nas DSI pode ser especificada como se segue:
Figure img0003
Figure img0004
TABELA 2
[026] O significado das outras variáveis usadas acima são: storeFont - define o armazenamento ou não da fonte para uso posterior; fontNameLength - indica o comprimento do campo fontName; fontName - indica o nome da fonte; e fontSpecInfo - é um recipiente opaco com informações para um manipulador de fontes específico.
[027] Para a variável fontFormat tendo valores de 0x01 a 0x04, o decodificador precisa de todas as informações DSI para processar os dados, e para a variável fontFormat tendo o valor 0x00, o decodificador pode buscar as informações que necessita dentro das AUs. Um formato de AU de fontes de acordo com a invenção é descrito abaixo.
[028] Se o terminal puder armazenar fontes, o sinalizador storeFont pode ser usado para decidir se ou não armazenar uma fonte recebida, e o nome recebido no campo fontName deve ser anexado aos dados das fontes, por exemplo, por associação dele ao arquivo ou seleção de um nome de arquivo significativo. O campo fontSpecInfo pode ser vazio para padrão, e pode ser usado para qualquer implementação privativa do usuário, indicada por fontFormat tendo um valor de 0x05 a 0x07. No caso do conteúdo de AU ser uma fonte autocontida, e a AU ser implementada, por exemplo, como uma classe em uma linguagem Orientada por Objeto, cada AU de fonte pode conter dados da seguinte estrutura:
Figure img0005
[029] A variável fontSpecInfoLength define o comprimento do campo fontSpecInfo, e a variável fontData é dados de fontes brutos. Os outros campos têm os mesmos significados como nas DSI.
[030] Finalmente, a semântica do nó FontStyle descrita no padrão não precisa ser modificada para transferência de fonte. O parágrafo correspondente se refere ao padrão VRML 97 (ISO/IEC 14772-1:1998).
[031] O seguinte comportamento é adicionado ao nó: “O campo família pode também conter ObjectDescriptorIdentifier (ODID) referindo-se a um fluxo do tipo "FontStream", contendo as informações de fontes.”
[032] Para um funcionamento ótimo do nó, o primeiro valor SFString do campo família deve conter o nome da fonte, como descrito no padrão VRML97. O segundo valor deve conter o ODID apontando para o fluxo contendo a fonte. Nesta moda- lidade, o terminal pode investigar se a fonte designada no primeiro valor já existe no terminal, e depois reutilizá-la. De outro modo, pode processar o fluxo de fontes, como descrito no padrão Sistema MPEG-4, com o item inventivo habilitado, e armazená-lo. Para gerenciamento otimizado das fontes no terminal do cliente, a representação estrutural das informações de fontes, isto é, o nó fontStyle, deve referir-se à fonte necessária para renderização de texto primeiro por seu nome, e em uma segunda posição por seu identificador de fluxo ES_ID. Uma amostra de cena exemplificativa usando o aspecto de transferência de fonte pode conter o seguinte fragmento:
Figure img0006
[033] Neste exemplo, o terminal deve usar a fonte com o nome "Times New Roman" para renderizar as cadeias de texto, com determinados parâmetros para tamanho, espaçamento e estilo. Se a fonte não estiver disponível no receptor, o terminal MPEG-4 pode conectar-se ao fluxo ODID "104", para recuperar as informações de fontes necessárias.
[034] O aspecto de transferência de fontes inventivo também pode ser incluído nas ferramentas de autoridade MPEG- 4: quando o autor define uma fonte específica para cadeias de texto, a ferramenta pode inserir o nome da família de fontes na primeira parte do campo família, criar um novo ES contendo as informações de fontes, e inserir o ODID para o dito ES na segunda parte do campo família.
[035] Vantajosamente, qualquer formato de fonte pode ser transferido, por exemplo, fonte TrueType, fonte Basic, fonte OpenType, caracteres asiáticos, fontes escaláveis, fontes de símbolos, etc., desde que o terminal receptor possa identificar e gerenciar esse formato.
[036] Mais vantajosamente, a invenção pode ser usada para todos os tipos de dispositivos que são capazes de exibir conteúdo de informações, especialmente conteúdo compreendendo texto ou símbolos, e que podem receber informações de fontes, por exemplo, TV, DVB, telas de computador, dispositivos de navegação, e dispositivos portáteis, telefones celulares, computadores móveis, Auxiliares Digitais Pessoais (PDAs), reprodutores de MP3 ou outros dispositivos de rende- rização de música com visor.
[037] A invenção é particularmente boa para todos os sistemas de transferência MPEG-4.

Claims (13)

1. Processo para transmitir informações de fontes em um sistema de transmissão, CARACTERIZADO pelo fato de que compreende as seguintes etapas: definir uma fonte para conteúdo de texto ou símbolo a ser apresentado em um visor; proporcionar informações de fontes compreendendo dados de formato de fontes da dita fonte, os dados de formato de fonte representando caracteres ou símbolos únicos ou conjuntos deles; converter as ditas informações de fontes em um formato adequado para transmissão em um fluxo de informações de fontes; criar, a partir das ditas informações de fontes convertidas, um fluxo de informações de fontes; adicionar, a um fluxo de descrição de cenas que compreende um objeto de texto, pelo menos um primeiro identificador apontando para um fluxo de vídeos e um segundo identificador apontando para o fluxo de informações de fontes; multiplexar o dito fluxo de vídeos, o dito fluxo de informações de fontes e o dito fluxo de descrição de cenas em um fluxo multiplexado; e transmitir o dito fluxo multiplexado.
2. Processo para adicionar ou modificar informações de fontes em dispositivos eletrônicos contendo ou sendo conectáveis a um visor, CARACTERIZADO pelo fato de que compreende as seguintes etapas: receber, em um sinal multiplexado, um fluxo de vídeos, um fluxo de descrição de cenas e um fluxo de informações de fontes, em que as informações de fontes no dito fluxo de informações de fontes compreende dados de formato de fontes para renderizar ou exibir caracteres ou símbolos únicos ou conjuntos deles; determinar que o dito fluxo de descrição de cenas compreende um identificador apontando para o dito fluxo de informações de fontes e referindo-se a um objeto de texto dentro do fluxo de descrição de cenas; decodificar separadamente o dito fluxo de vídeos, o dito fluxo de descrição de cenas e o dito fluxo de informações de fontes; extrair o objeto de texto do fluxo de descrição de cenas; armazenar as ditas informações de fontes antes, durante, ou após a dita decodificação; e renderizar o dito objeto de texto para ser exibido junto com o dito fluxo de vídeos, em que os dados de formato de fontes do fluxo de informações de fontes são usados.
3. Processo, de acordo com a reivindicação 1 ou 2, CARACTERIZADO pelo fato de que o dito identificador apontando para o fluxo de informações de fontes aponta para um descritor (ODIDT), que identifica o fluxo de informações de fontes (ES_DF).
4. Processo, de acordo com a reivindicação 1 ou 2, CARACTERIZADO pelo fato de que uma fonte define as características de renderização para caracteres ou símbolos, as ca- racterísticas compreendendo pelo menos um dos seguintes itens: face de tipos, forma, tamanho, cor, estilo negrito, estilo itálico, espaçamento de linhas ou tipo de passo.
5. Processo, de acordo com a reivindicação 1 ou 2, CARACTERIZADO pelo fato de que informações de controle são transmitidas, as informações determinando se ou não um receptor (5) deve armazenar as ditas informações de fontes.
6. Processo, de acordo com a reivindicação 1 ou 2, CARACTERIZADO pelo fato de que as ditas informações de fontes compreendem parâmetros, que consistem em tamanho, cor, estilo ou espaçamento de linhas, enquanto que as informações de face de tipos, forma e passo ficam disponíveis em um receptor (5).
7. Processo, de acordo com a reivindicação 1 ou 2, CARACTERIZADO pelo fato de que o fluxo de informações de fontes é codificado e contém informações de tempo indicando um tempo requerido para ser decodificado.
8. Aparelho para transmitir em um sistema de transmissão informações de fontes para dispositivos eletrônicos, CARACTERIZADO pelo fato de que compreende: um dispositivo para definir uma fonte para conteúdo de texto ou símbolo a ser apresentado em um visor; um dispositivo para proporcionar informações de fontes compreendendo dados de formato de fontes da dita fonte, os dados de formato de fontes representando caracteres ou símbolos únicos ou conjuntos deles; um dispositivo para converter as ditas informações de fontes em um formato adequado para transmissão em um fluxo de informações de fontes; um dispositivo para criar, a partir do dito formato de fontes convertidas, um fluxo de informações de fontes; um dispositivo para adicionar a um fluxo de descrição de cenas, que compreende um objeto de texto, pelo menos um primeiro identificador apontando para um fluxo de vídeos e um segundo identificador apontando para o fluxo de informações de fontes; um dispositivo para multiplexar o dito fluxo de vídeos, o dito fluxo de informações de fontes e o dito fluxo de descrição de cenas em um fluxo multiplexado; e um dispositivo para transmitir o dito fluxo multi- plexado.
9. Aparelho para adicionar ou modificar informações de fontes em dispositivos eletrônicos contendo ou sendo conectáveis a um visor, CARACTERIZADO pelo fato de que compreende: um dispositivo para receber, em um sinal multiple- xado, um fluxo de vídeos, um fluxo de descrição de cenas e um fluxo de informações de fontes, em que as informações de fontes no dito fluxo compreende dados de formato de fontes para renderizar ou exibir caracteres ou símbolos únicos ou conjuntos deles; um dispositivo de decodificação para decodificar separadamente o dito fluxo de vídeos, o dito fluxo de descrição de cenas e o dito fluxo de informações de fontes, em que as ditas informações de fontes são convertidas a um formato de modo que pode ser utilizado para processamento; um dispositivo para armazenar as ditas informações de fontes antes ou após a dita conversão; um dispositivo para determinar que o dito fluxo de descrição de cenas compreende um identificador apontando para o dito fluxo de informações de fontes e referindo-se a um objeto de texto dentro do fluxo de descrição de cenas; um dispositivo para extrair o objeto de texto do fluxo de descrição de cenas; e um dispositivo para renderizar as ditas informações de texto para exibir, em que o dispositivo define como exibir os ditos caracteres ou símbolos ou conjuntos deles usando os ditos dados de formato de fontes a partir do fluxo de informações de fontes.
10. Aparelho, de acordo com a reivindicação 8 ou 9, CARACTERIZADO pelo fato de que o dito identificador apontando para o fluxo de informações de fontes aponta para um descritor (ODODT), que identifica o fluxo de informações de fontes (ES_DF).
11. Aparelho, de acordo com a reivindicação 8 ou 9, CARACTERIZADO pelo fato de que uma fonte define as características de renderização para caracteres ou símbolos, as características compreendendo pelo menos um dos seguintes itens: face de tipos, forma, tamanho, cor, estilo negrito, estilo itálico, espaçamento de linhas ou tipo de passo.
12. Aparelho, de acordo com a reivindicação 8 ou 9, CARACTERIZADO pelo fato de que ainda compreende um dispo- sitivo para receber dentro de um fluxo de dados, informações de controle determinando se ou não o receptor (5) deve armazenar as ditas informações de fontes, em que as ditas informações de controle recebidas são proporcionadas ao dito dispositivo para armazenar informações de fontes.
13. Aparelho, de acordo com a reivindicação 8 ou 9, CARACTERIZADO pelo fato de que as ditas informações de fontes compreendem parâmetros, que consistem em tamanho, cor, estilo ou espaçamento de linhas, enquanto que as informações de face de tipos, forma e passo ficam disponíveis no receptor (5).
BRPI0407310-0A 2003-02-10 2004-01-28 Processo e aparelho para transmitir informações de fontes em um sistema de transmissão, e processo e aparelho para adicionar ou modificar informações de fontes em dispositivos eletrônicos BRPI0407310B1 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP03290324A EP1445954A1 (en) 2003-02-10 2003-02-10 Method to transmit and receive font information in streaming systems
EP03290324.7 2003-02-10
PCT/EP2004/000959 WO2004071097A1 (en) 2003-02-10 2004-01-28 Method to transmit and receive font information in streaming systems

Publications (2)

Publication Number Publication Date
BRPI0407310A BRPI0407310A (pt) 2006-02-21
BRPI0407310B1 true BRPI0407310B1 (pt) 2022-05-24

Family

ID=32605447

Family Applications (1)

Application Number Title Priority Date Filing Date
BRPI0407310-0A BRPI0407310B1 (pt) 2003-02-10 2004-01-28 Processo e aparelho para transmitir informações de fontes em um sistema de transmissão, e processo e aparelho para adicionar ou modificar informações de fontes em dispositivos eletrônicos

Country Status (10)

Country Link
US (1) US7701458B2 (pt)
EP (2) EP1445954A1 (pt)
JP (2) JP5118342B2 (pt)
KR (1) KR101010498B1 (pt)
CN (1) CN1748426B (pt)
BR (1) BRPI0407310B1 (pt)
MX (1) MXPA05008037A (pt)
MY (1) MY143494A (pt)
TW (1) TWI323126B (pt)
WO (1) WO2004071097A1 (pt)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100725387B1 (ko) 2004-08-24 2007-06-08 삼성전자주식회사 데이터 방송에서의 전송 코드 세트 시그널링 방법 및 장치
DE102005051657A1 (de) 2005-10-28 2007-05-03 GM Global Technology Operations, Inc., Detroit Pyrotechnischer Aktuator
FR2892885B1 (fr) * 2005-11-02 2008-01-25 Streamezzo Sa Procede de gestion de polices de caractere a l'interieur de scenes multimedia, programme d'ordinateur et terminal correspondants.
KR100686879B1 (ko) * 2005-11-28 2007-02-26 엘지전자 주식회사 다이내믹 라벨 서비스에 의해 제공되는 문자 및 텍스트상자의 색상 및 크기정보 제공방법
KR101323979B1 (ko) * 2006-12-13 2013-10-30 엘지전자 주식회사 휴대 장치용 지원 시스템 및 방법
US20100199174A1 (en) * 2009-02-03 2010-08-05 Microsoft Corporation Extensible font file loading
US9319444B2 (en) * 2009-06-22 2016-04-19 Monotype Imaging Inc. Font data streaming
US8615709B2 (en) 2010-04-29 2013-12-24 Monotype Imaging Inc. Initiating font subsets
US9218680B2 (en) * 2010-09-01 2015-12-22 K-Nfb Reading Technology, Inc. Systems and methods for rendering graphical content and glyphs
US20130215126A1 (en) * 2012-02-17 2013-08-22 Monotype Imaging Inc. Managing Font Distribution
US9817615B2 (en) 2012-12-03 2017-11-14 Monotype Imaging Inc. Network based font management for imaging devices
WO2014100582A2 (en) 2012-12-21 2014-06-26 Monotype Imaging Inc. Supporting color fonts
US9626337B2 (en) 2013-01-09 2017-04-18 Monotype Imaging Inc. Advanced text editor
US9317777B2 (en) 2013-10-04 2016-04-19 Monotype Imaging Inc. Analyzing font similarity for presentation
US9691169B2 (en) 2014-05-29 2017-06-27 Monotype Imaging Inc. Compact font hinting
US10115215B2 (en) 2015-04-17 2018-10-30 Monotype Imaging Inc. Pairing fonts for presentation
US11537262B1 (en) 2015-07-21 2022-12-27 Monotype Imaging Inc. Using attributes for font recommendations
JP6966439B2 (ja) 2015-11-20 2021-11-17 ジェネテック インコーポレイテッド メディア・ストリーミング
EP3896899A1 (en) 2015-11-20 2021-10-20 Genetec Inc. Secure layered encryption of data streams
US11334750B2 (en) 2017-09-07 2022-05-17 Monotype Imaging Inc. Using attributes for predicting imagery performance
US10909429B2 (en) 2017-09-27 2021-02-02 Monotype Imaging Inc. Using attributes for identifying imagery for selection
US11657602B2 (en) 2017-10-30 2023-05-23 Monotype Imaging Inc. Font identification from imagery
CN112070860A (zh) * 2020-08-03 2020-12-11 广东以诺通讯有限公司 一种图片处理方法

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2714022B2 (ja) * 1988-08-24 1998-02-16 株式会社日立製作所 文字データ管理システムおよび文字データ管理方法
US5946105A (en) * 1994-08-31 1999-08-31 Canon Kabushiki Kaisha Facsimile apparatus and control method therefor
EP0700205A3 (en) * 1994-08-31 1997-04-02 Toshiba Kk Multimedia television receiver and initialization process therefor
JP2887572B2 (ja) 1995-04-07 1999-04-26 富士ゼロックス株式会社 画像出力装置および画像処理方法
US5926189A (en) * 1996-03-29 1999-07-20 Apple Computer, Inc. Method and apparatus for typographic glyph construction including a glyph server
JP3487738B2 (ja) * 1996-08-26 2004-01-19 富士通株式会社 ネットワーク環境におけるフォント処理装置および方法
US6141002A (en) * 1996-11-12 2000-10-31 Opentv, Inc. System and method for downloading and rendering glyphs in a set top box
EP0866616A1 (en) * 1997-03-21 1998-09-23 CANAL+ Société Anonyme Method of and apparatus for transmitting data
US6323864B1 (en) * 1997-06-30 2001-11-27 Sun Microsystems, Inc. Using and accessing information from fonts in multiple formats
AU761202B2 (en) * 1997-09-22 2003-05-29 Sony Corporation Generation of a bit stream containing binary image/audio data that is multiplexed with a code defining an object in ascii format
JP4136066B2 (ja) * 1998-05-11 2008-08-20 パイオニア株式会社 文書データ作成装置及び文字表示装置
JPH11341536A (ja) * 1998-05-27 1999-12-10 Nec Shizuoka Ltd 文字フォント切替機能付き無線携帯端末
CN1322739C (zh) 1998-06-12 2007-06-20 皇家菲利浦电子有限公司 传输系统
JP2000099501A (ja) * 1998-09-17 2000-04-07 Internatl Business Mach Corp <Ibm> 文書データへの情報の埋め込み方法およびシステム
WO2000038170A2 (en) * 1998-12-18 2000-06-29 Powertv, Inc. Font substitution system
US7640571B1 (en) * 1999-07-15 2009-12-29 General Instrument Corporation Method and apparatus for preventing disruptions in set-top terminal function due to the download of updated programming or data to the set-top terminal
EP1087617A3 (en) * 1999-09-21 2003-01-08 Texas Instruments Incorporated System for nonlinear viewing of television show segments
US20020087702A1 (en) * 2000-12-29 2002-07-04 Koichi Mori Remote contents displaying method with adaptive remote font
JP3714880B2 (ja) * 2001-03-07 2005-11-09 シャープ株式会社 字幕表示装置
JP3871123B2 (ja) 2001-06-16 2007-01-24 三星電子株式会社 プリロードフォント情報を有する情報貯蔵媒体、その再生装置及び再生方法
JP4000844B2 (ja) * 2001-12-11 2007-10-31 日本電気株式会社 コンテンツ配信システム、コンテンツ配信システムの配信サーバ及び表示端末、コンテンツ配信プログラム

Also Published As

Publication number Publication date
WO2004071097A1 (en) 2004-08-19
MY143494A (en) 2011-05-31
KR20050103920A (ko) 2005-11-01
TWI323126B (en) 2010-04-01
JP2006517368A (ja) 2006-07-20
EP1602236B1 (en) 2019-11-13
JP2012029297A (ja) 2012-02-09
EP1602236A1 (en) 2005-12-07
EP1445954A1 (en) 2004-08-11
US7701458B2 (en) 2010-04-20
CN1748426B (zh) 2012-09-05
BRPI0407310A (pt) 2006-02-21
CN1748426A (zh) 2006-03-15
TW200423724A (en) 2004-11-01
MXPA05008037A (es) 2006-05-19
US20070008309A1 (en) 2007-01-11
JP5118342B2 (ja) 2013-01-16
KR101010498B1 (ko) 2011-01-24

Similar Documents

Publication Publication Date Title
BRPI0407310B1 (pt) Processo e aparelho para transmitir informações de fontes em um sistema de transmissão, e processo e aparelho para adicionar ou modificar informações de fontes em dispositivos eletrônicos
US7376932B2 (en) XML-based textual specification for rich-media content creation—methods
US8271554B2 (en) Encoding method and apparatus and decoding method and apparatus
US20020024539A1 (en) System and method for content-specific graphical user interfaces
US20100138736A1 (en) Delivering multimedia descriptions
Kim et al. Extensible MPEG-4 textual format (XMT)
US8275814B2 (en) Method and apparatus for encoding/decoding signal
US20080228825A1 (en) System and method of organizing data to facilitate access and streaming
US9106935B2 (en) Method and apparatus for transmitting and receiving a content file including multiple streams
CN113545095A (zh) 优化封装后的媒体内容的一部分的传输的方法、装置和计算机程序
CN108632644A (zh) 预览图的展示方法以及设备
KR20060066906A (ko) 임베디드 시스템 상의 mpeg-4 장면 렌더링에서의 객체교체와 속성 변환 장치 및 방법
Pihkala et al. Smil in x-smiles
AU2001268839B2 (en) Delivering multimedia descriptions
Lee et al. Design and implementation of XMT-A to/from MP4 converter for authoring and retrieving MPEG-4/7 based interactive contents
Shao et al. SMIL to MPEG-4 bifs conversion
Xiang et al. Combining the product of Interactive Multimedia Creator with MPEG4 technology
Vicars-Harris Advanced Systems Format
Alliance Technical Specification Version 4.0
Smart Technical Specification Version 3.0
Kim Conversion mechanism of XMT into SMIL in MPEG-4 system
Gallo et al. Using Layout Profiles in MPEG-4 Hypervideo Presentation
Vicars-Harris OVERVIEW OF THE ADVANCED SYSTEMS FORMAT
KIM et al. CHEOK, Lai-Tee. eXtensible MPEG-4 Textual Format (XMT).(2000)
AU2001268839A1 (en) Delivering multimedia descriptions

Legal Events

Date Code Title Description
B07A Application suspended after technical examination (opinion) [chapter 7.1 patent gazette]
B07A Application suspended after technical examination (opinion) [chapter 7.1 patent gazette]
B09B Patent application refused [chapter 9.2 patent gazette]
B12B Appeal against refusal [chapter 12.2 patent gazette]
B25D Requested change of name of applicant approved

Owner name: THOMSON LICENSING (FR)

B25G Requested change of headquarter approved

Owner name: THOMSON LICENSING (FR)

B25A Requested transfer of rights approved

Owner name: INTERDIGITAL VC HOLDINGS, INC. (US)

B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 28/01/2004, OBSERVADAS AS CONDICOES LEGAIS. PATENTE CONCEDIDA CONFORME ADI 5.529/DF, QUE DETERMINA A ALTERACAO DO PRAZO DE CONCESSAO.