BR122013022769B1 - aparelho para composição de legendas - Google Patents

aparelho para composição de legendas Download PDF

Info

Publication number
BR122013022769B1
BR122013022769B1 BR122013022769A BR122013022769A BR122013022769B1 BR 122013022769 B1 BR122013022769 B1 BR 122013022769B1 BR 122013022769 A BR122013022769 A BR 122013022769A BR 122013022769 A BR122013022769 A BR 122013022769A BR 122013022769 B1 BR122013022769 B1 BR 122013022769B1
Authority
BR
Brazil
Prior art keywords
subtitle
data
mixer
display region
decoder
Prior art date
Application number
BR122013022769A
Other languages
English (en)
Inventor
Dirk Adolph
Harald Schiller
Hartmut Peters
Jobst Hörentrup
Ralf Ostermann
Original Assignee
Thomson Licensing Sa
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing Sa filed Critical Thomson Licensing Sa
Publication of BR122013022769B1 publication Critical patent/BR122013022769B1/pt

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/08Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division
    • H04N7/087Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only
    • H04N7/088Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only the inserted signal being digital
    • H04N7/0882Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only the inserted signal being digital for the transmission of character code signals, e.g. for teletext
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/278Subtitling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information

Abstract

resumo “aparelho para composição de legendas” a essência da invenção é um formato de legendação abrangendo elementos de sin-taxe e semântica intensificadas para melhorar as capacidades de animação. os elementos descritos melhoram o desempenho de legenda sem forçar a taxa de bits de legenda dispo-nível. isto tornará essencial para conteúdo de autoria de legendas de hdtv de alto desem-penho em formato pré-gravado, que pode ser transmitido ou armazenado em meios ópticos de alta capacidade, e.g. disco de blue-ray. a invenção inclui capacidades para possibilidades de autoria melhoradas para a produção de conteúdo para animar legendas. para legendas que estão separadas do material av, o método inclui usar uma ou mais camadas de legenda sobrepostas, e exibir apenas uma parte selecionada das legendas transferidas de cada vez. também, as cores de uma parte selecionada das legendas exibidas podem ser modificadas, e.g. realçadas.

Description

“APARELHO PARA COMPOSIÇÃO DE LEGENDAS” Pedido Dividido do PI 0316174-9 de 03/11/2003. A invenção diz respeito a um método e a um aparelho para composição de legendas para apresentações de áudio/vídeo que podem ser usadas, por exemplo, para legendas de HDTV em formatos pré-gravados como o assim chamado Disco de Blue-ray.
ANTECEDENTES A técnica de legendação para material AudioVisual (AV) tem sido usada começando com os primeiros filmes cinematográficos celulóides e também até os recentes meios digitais aparecerem. O alvo principal de legendação tem sido o suporte de pessoas deficientes ou grupos de linguagem etnográfica pequenos. Portanto legendação freqüentemente visa a apresentação de informação de texto até mesmo quando tendo sido codificado como mapas de pixels de dados gráficos. Portanto, material de AV pré-produzido para transmissão (Closed Caption, Teletexto, legenda de DVB etc.) e discos de filme (Legendas de DVD etc.) primariamente são otimizados para legendas representando informação textual estática simples. Porém, progressos no desenvolvimento de software de PC para apresentação e animação de informação textual induz a uma demanda correspondente por possibilidades e recursos dentro da técnica de legendação digital usada para pré-gravação e transmissão. Usando métodos diretos sem qualquer precaução especial, estes requerimentos aumentados por legendação consumiriam uma porção muito grande da largura da banda geral limitada. Os requerimentos contraditórios para uma legenda de ‘recurso total’ abrangendo desde karaokê até animações genuínas são por um lado a eficiência de codificação e por outro lado o controle total para qualquer autor de legenda.
Para o estado da técnica de hoje de legendar digitalmente material AV com informação de legendação separada, dois métodos principais existem: Legendação pode ser com base em dados de pixel ou em dados de caractere. Em ambos os casos, os esquemas de legendação compreendem uma estrutura geral, que por exemplo trata da sincronização dos elementos de legendação ao longo do eixo geométrico de tempo AV.
Legendação com base em dados de caractere: No método de legendação baseada em caractere, e.g. no sistema de teletexto ETS 300 706 de TV analógica ou digital européia, as cadeias são descritas por seqüências de códigos de letra, e.g. ASCII ou UNICODE, que intrinsicamente permitem uma codificação muito eficiente. Mas das cadeias de caracteres sozinhas, a legendação não pode ser convertida em uma representação gráfica a ser superposta em vídeo. Para isso, o conjunto de caracteres intencionado, fonte e alguns parâmetros de fonte, mais notavelmente o tamanho da fonte, ou deve ser codificado explicitamente dentro do fluxo de bit de legendação ou uma suposição implícita deve ser feita sobre eles dentro de um contexto de legendação adequadamente definido. Também, qualquer legendação neste método é confinada ao que pode ser expresso com as letras e símbolos da(s) fonte(s) específica(s) em uso. A especificação de Legendação de DVB ETS 300 743, neste modo de "objetos de caraclere”, constitui outro exemplo de estado da técnica de legendação com base em caractere.
Legendação com base em dados de pixel: No método de legendação baseada em pixel, as estruturas de legendação são transportadas diretamente na forma de representações gráficas as descrevendo como regiões (tipicamente retangulares) de valores de pixel na tela AV. Sempre que qualquer coisa é significado ser visível no plano de legendação sobreposto no video, seus valores de pixel devem ser codificados e fornecidos no fluxo de bit de legendação, junto com informação de sincronização apropriada, e consequentemente para a animação de recurso total das legen-dações todo pixel alterado deve ser transportado. Obviamente, ao remover qualquer limitação inerente às animações de recursos totais de teletexto, o método baseado em pixel carrega a penalidade de uma largura da banda consideravelmente aumentada para os dados de legendação. Exemplos de esquemas de legendação com base em pixel podem ser encontrados no conceito de sub-ímagem de DVD Especificação de DVD para disco exclusivo de leitura", Parte 3: Vídeo, como também no conceito de "objeto de pixel" de Legendação de DVB, especificado em ETS 300 743.
INVENCÃO A essência da invenção é um formato de legendação que abrange elementos de sintaxe e semântica intensificadas para fornecer capacidades de animação melhoradas. Os elementos descritos melhoram o desempenho de legenda sem forçar a taxa de bits de legenda disponível. Isto se tornará essencial para a autoria de conteúdo de legendas de HDTV de alto desempenho em formato pré-gravado que pode ser difundido ou impresso em meios ópticos de capacidade alta, e.g. Disco de Blue-ray. A invenção inclui capacidades para possibilidades de autoria melhoradas para a produção de conteúdo animar legendas.
Introduzidos pela descrição são elementos de sintaxe e semântica que descrevem a alteração de cor para partes de gráficos a exibir. Isto pode ser usado para efeitos de destaque em aplicações como por exemplo karaokê, evitando a transferência repetida de dados de pixel.
Outros elementos descritos de sintaxe e semântica facilitam a capacidade de recortes partes das legendas antes de exibi-las. Usando a técnica de parâmetros recortados sub-seqüentemente transferida para um objeto a exibir, animação econômica de bit das legendas torna-se disponível. Tal parâmetro recortado pode ser usado por exemplo para gerar alterações de texto mediante caixas deslizantes, venezianas, função de deslocamento, limpezas, caixas de validação, etc, Além disso, os elementos descritos podem ser usados para interativamente fornecer informação textual e gráfica. Especialmente, o posicionamento e/ou ajustes de cor das legendas podem ser manipulados com base na solicitação do usuário.
DESENHOS
Modalidades exemplares da invenção são descritas com referência aos desenhos e tabelas em anexo, que mostram: Fig. 1: valores de tipo de segmento para PCS e RCS intensificados;
Fig. 2: Segmento de composição de página intensificado;
Fig. 3: Segmento de composição de região intensificado;
Fig. 4: Exemplo para a definição de uma região de legenda e sua localização dentro de uma página;
Fig. 5: Exemplo para a definição de uma região de sub-CLUT e região de recorte;
Fig. 6: Exemplo de exibição resultante;
Fig. 7: Uso interativo de legendas;
Fig. 8: Planos de vídeo e gráficos;
Fig. 9: Mistura e comutação de vídeo e gráficos.
MODALIDADES EXEMPLARES A invenção pode preferivelmente ser incorporada com base na sintaxe e semântica da especificação de legenda de DVB (DVB-ST). Para fornecer capacidades melhoradas para a manipulação de elementos gráficos de legenda, a semântica do segmento de composição de página de DVB-ST (PCS) e do segmento de composição de região (RCS) são expandidas. DVB_ST usa segmentos de composição de página (PCS) para descrever as posições de uma ou mais regiões retangulares na tela de exibição. Os segmentos de composição de região (RCS) são usados para definir o tamanho de qualquer tal área retangular e identifica a tabela de consulta de cores (CLUT) usada dentro. A invenção proposta mantém a compatibilidade anterior com DVB-ST usando diferentes tipos de segmentos para os elementos intensificados de PCS e RCS, como listados na Fig.1 mostrando valores de tipo de segmento de acordo com DVB-ST, com valores adicionais para PCS intensificados e RCS intensificados. Seria também possível do contrário selecionar outros valores. Outro método para manter a compatibilidade anterior seria manter os tipos de segmentos existentes e aumentar o version_number da especificação, e.g. incrementando o subtitle_stream_id na estrutura de PES_data_field.
Fig. 2. mostra a estrutura de dados de um segmento de composição de página intensificado (PCS) contendo uma seção region_cropping e uma seção region_sub_CLUT. Fig. 3 mostra a estrutura de dados de um segmento de composição de região intensificado (RCS), contendo um identificador sub_CLUT_id para uma sub-tabela de consulta de cores. Com respeito ao DVB-ST original, todas as estruturas mostradas são expandidas. Nas tabelas as entradas adicionais são as linhas 15-28 na Fig. 2 e a linha 16 na Fig. 3.
Os PCS intensificados mostrados na Fig. 2 portam informação opcional acerca da region_cropping e informação opcional sobre a region_sub_CLUT para cada região listada. Os dois valores de region_cropping e region_sub_CLUT indicam se tal informação opcional está disponível para a região atual no processo. Portanto recorte e sub-CLUT podem ser definidos separadamente para cada região. Embora region_cropping seja usada como um flag, como indicado por “if region_cropping==0x01 ”, a region_sub_CLUT mostra o valor de quantas posições de sub-CLUT são descritas. Isto é feito para fornecer alternativas diferentes dentro do fluxo. Posições de sub-CLUT alternativas podem ser usadas para definir diferentes posições de botão de menu para a tela de exibição. Apenas uma delas - a primeira como uma predefinição - é ativa e o usuário pode alterar a posição para navegar pelas diferentes posições predefinidas pressionando o controle remoto por exemplo.
Os RCS intensificados mostrados na Fig. 3 portam o sub_CLUT_id identificando a família de CLUTs que se aplica a esta região. Isto é feito para re-usar CLUTs para regiões diferentes e sub_CLUTs de região diferente também.
Os elementos intensificados de PCS e RCS fornecem a capacidade que as legendas podem ser manipuladas independente do método de codificação i.e. independente se elas são codificadas como dados de caractere ou dados de pixel.
Os PCS e RCS intensificados podem ser usados para executar muitos efeitos de animação diferentes para as legendas. Aqueles poderíam ser caixas deslizantes, venezianas, função de deslocamento, limpezas, caixas de validação, etc. As figuras a seguir mostram um exemplo de aplicação para karaokê. Fig. 4 mostra a definição de uma região R contendo letras de uma música exibida para karaokê. As letras da legenda podem ser codificadas como dados de pixel ou como dados de caractere também. O region_vertical_address RVA e o region_horizontal_address RHA definem a localização da legenda dentro da estrutura, ou página PG, a exibir.
Fig. 5 descreve na parte superior a região de recorte e na parte inferior a localização da região sub-CLUT. Região de recorte define que parte da região é exibida eficazmente. Isto é alcançado através de quatro parâmetros RHC, RVC, RCH, RCW indicando as coordenadas de início e o tamanho do fragmento a exibir. region_horizontal_cropping RHC especifica o endereço horizontal do pixel esquerdo do topo deste recorte, re-gion_vertical_cropping RVC especifica o endereço vertical da linha de topo deste recorte, region_cropping_width RCW especifica o comprimento horizontal deste recorte e re-gion_cropping_height RCH especifica o comprimento vertical deste recorte, em que recorte significa aquela parte das legendas que está visível em uma exibição. A localização da região sub-CLUT mostrada na parte inferior da Fig. 5 define que parte da região tem que ser exibida usando uma tabela de consulta de cores (CLUT) diferente da região CLUT. Isto é alcançado através de quatro parâmetros SCHA, SCVA, SCH, SCW indicando as coordenadas de início e o tamanho da sub-região usada pela sub-CLUT. Todos os parâmetros de coordenada serão entendidos com relação à região que a sub-CLUT pertence. sub_CLUT_vertical_address SCVA especifica o endereço horizontal do pixel esquerdo do topo desta sub-CLUT, sub_CLUT_vertical_address SCVA especifica o endereço vertical da linha de topo desta sub-CLUT, sub_CLUT_width SCW especifica o comprimento horizontal desta sub-CLUT e sub_CLUT_height SCH especifica o comprimento vertical desta sub-CLUT.
Apanhando todos os parâmetros definidos com as figuras anteriores resulta na legenda exibida como descrito na Fig. 6. A legenda não é descrita ao todo na exibição mas apenas na parte recortada dela. Além disso, a sub-CLUT foi usada para fornecer um destaque HT, de forma que o usuário sabe o que cantar no momento.
Como os PCS intensificados são enviados dentro dos pacotes de fluxo elementar (PES) de pacote de MPEG marcados pelos selos de tempo de apresentação (PTS), qualquer efeito pode ser sincronizado ao AV.
Outra idéia da invenção é a substituição dos parâmetros de animação de legenda pelo usuário. Isto oferece um modo para perceber legendas interativas. Os parâmetros de PCS intensificados são transferidos como uma predefinição, e o usuário pode alterá-los por meio de um controle remoto por exemplo. Desse modo o usuário é capaz de mover, colher ou destacar a legenda.
Isto pode ser uma vantagem para um reposicionamento definido pelo usuário de um texto de legendação, de forma que o usuário pode subjetivamente minimizar o contratempo pela colocação de texto de legenda em cima do filme. Também a cor das legendas pode ser ajustada de acordo com as preferências dos usuários. Fig. 7 mostra um diagrama de blocos para modificações de legenda interativas. Os parâmetros predefinidos DD lidos de um disco D são substituídos substituindo os dados de sobreposição SD que são gerados na ação do usuário UA e processados por um processador P.
Outra aplicação para anular os parâmetros de animação de legenda como posição, retângulo de recorte, CLUTs e sub-CLUTs é a realização de algum tipo muito básico de jogo interativo. A legenda pode portar dados de pixel de um caractere animado. Este caractere é subseqüentemente movido na tela de exibição acionado ou por interação do usuário, controle programático ou ambos. A anulação dos parâmetros de animação de legenda pode ser implementada em pelo menos dois modos. A primeira opção é que os parâmetros de anulação SD substituem o envio de parâmetros DD no fluxo de bit. A segunda opção é que os parâmetros de anulação SD são usados como uma compensação que é adicionada ou subtraída do envio de parâmetros DD de animação de legenda no fluxo de bit.
Os PCS e RCS intensificados fornecem muito mais capacidades de animação não explicadas. A seguir é uma lista não-exaustiva de exemplos: caixas deslizantes, venezianas, função de deslocamento, limpezas, caixas de validação em detalhes.
Planos de vídeo e gráficos exemplares são mostrados na Fig. 8 de uma maneira esquemática exemplar. Uma base é fornecida ou por uma camada de vídeo de MPEG-2 MVL ou uma camada de imagem estática SPL. Elas são mutuamente exclusivas, que significa que ambas não necessitam ser mantidas em um buffer de cada vez. As próximas duas camadas compreendem uma camada de legenda SL e uma camada de gráficos do tipo de sincronização AV AVSGL. Estas duas camadas são neste exemplo alternáveis, significando que ou a camada de legenda SL ou a camada de gráficos do tipo de sincronização AV AVSGL pode ter prioridade uma sobre a outra. A camada frontal é uma camada de gráficos de sincronização não-AV NAVSGL, contendo gráficos que não necessitam ser sincronizados com o conteúdo AV, como e.g. menus ou outras exibições na tela. O método inventivo pode preferivelmente ser usado para a camada de legenda SL, a camada de gráficos de sincronização AV AVSGL e/ou a camada de gráficos de sincronização Não-AV NAVSGL.
Fig. 9 mostra os componentes relevantes de um aparelho para mistura e comutação de vídeo e gráficos. Dados compreendendo quaisquer dados de imagem estática ou dados de vídeo de MPEG-2, outros dados para legendas, dados para animações e dados para gráficos de sincronização não-AV como botões de menu, são recuperados de um disco D. Adicional ou alternativamente, dados para legendas, animações e/ou gráficos de sincronização de não-AV podem ser recebidos de uma rede NW, e.g. Internet. Uma unidade de processamento CPU processa os dados de gráficos de sincronização não-AV e envia os dados resultantes para um dispositivo de transmissão para gráficos de sincronização não-AV RNAVG. O aparelho contém um decodificador de imagem estática SPDec e um decodifica-dor de vídeo de MPEG-2 MVDec, mas uma vez que apenas um deles é usado de cada vez, um comutador sl pode selecionar quais dados serão usados para outro processamento. Além disso, dois decodificadores idênticos AVSGDecl, AVSGDec2 são usados para decodificar os dados de legenda e animação. As saídas destes dois decodificadores AVSGDecl, AVSGDec2 podem ser comutadas por comutações independentes s2, s3 ou para um misturador MX ou para pré-processamento para um misturador e escalonador MXS, que produzem seus dados resultantes para o dito misturador MX. Estas duas unidades MX, MXS são usadas para executar a sobreposição de seus vários dados de entrada, desse modo controlando a ordem de exibição das camadas. O misturador MX tem entradas para uma camada frontal f2, uma camada frontal intermediária mf, uma camada posterior intermediária mb e uma camada de base b2. A camada frontal f2 pode ser nova, se o comutador correspondente s3 estiver em uma posição para conectar o segundo decodificador de gráficos de sincronização AV AVSGDec2 ao misturador e escalonador MXS. Esta unidade MXS tem entradas para a camada frontal f 1, camada intermediária m e camada de base b. Ela sobrepõe estes dados correspondentemente e envia os dados de imagem resultante para a entrada de base b2 do misturador MX. Desse modo, estes dados representam e.g. uma estrutura compreendendo até três camadas de imagem e legendas, que podem ser escaladas e movidas juntas dentro da imagem final. A entrada de base b1 do misturador e escalonador MXS é conectada ao comutador S1 acima mencionado, de forma que a base pode ser gerada de uma imagem estática ou um vídeo de MPEG-2. A saída do primeiro decodificador de gráficos de sincronização AV AVSGDecl é conectada a um segundo comutador s2, que pode comutá-la para a entrada de camada intermediária m do misturador e escalonador ou para a entrada da camada posterior intermediária mb do misturador MX. A saída do segundo decodificador de gráficos de sincronização AV AVSGDec2 é conectada a um terceiro comutador s3, que pode comutá-la para a entrada de camada frontal f1 do misturador e escalonador MXS ou para a entrada da camada frontal intermediária mf do misturador MX.
Dependendo das posições dos segundo e terceiro comutadores s2, s3, ou a saída do primeiro ou do segundo decodificador de gráficos de sincronização AV AVSGDecl, AVSGD2 pode ter prioridade uma sobre a outra, como descrito acima. Para ter os dados do primeiro decodificador AVSGDecl no primeiro plano, o segundo comutador s2 pode rotear os dados de legenda para a entrada posterior intermediária mb do misturador MX, enquanto o terceiro comutador s3 roteia os dados de gráficos de animação para a entrada frontal f 1 do misturador e escalonador MXS, de modo que termina na entrada de base b2 do misturador MX. Do contrário, para ter os dados do segundo decodificador AVSGDec2 no primeiro plano, os comutadores s2, s3 podem rotear suas saídas para a mesma unidade, ou o misturador e escalonador MXS ou o misturador MX, como mostrado na Fig. 9.
REIVINDICAÇÕES

Claims (2)

1. Aparelho para composição de legendas, em que o aparelho mistura e comuta dados de vídeo e de gráficos, os dados sendo lidos de um meio de armazenamento ou recebidos de uma rede e compreendendo dados de imagem estática ou dados de vídeo de MPEG, dados para pelo menos duas camadas de legendas ou animações e opcionalmente dados para gráficos não-sineronizados, CARACTERIZADO pelo fato de que o aparelho compreende: um misturador (MX) que pode sobrepor os dados de vídeo de uma camada da parte de trás, pelo menos duas camadas intermediárias e uma camada frontal; um misturador e escalonador (MXS) que pode sobrepor os dados de vídeo de uma camada, da parte de trás, uma camada intermediária e uma camada frontal, o misturador e escalonador (MXS) fornecendo seus dados de saída ao misturador (MX); um decodificador de vídeo (IWIVDec) e/ou um decodificador de imagem estática (SPDec), em que os dados de saída tanto do decodificador de vídeo quanto do decodificador de imagem estática podem ser comutados (s1) para o misturador e escalonador (MXS); pelo menos dois decodificadores simultaneamente trabalhando (AVSGDed, AVSGDec2) para gráficos ou legendas sincronizadas, em que a saída de cada um dos decodificadores pode ser comutada (s2,s3) ou para o misturador (MX) ou para o misturador e escalonador (MXS), e em que um decodificador (AVSGDed, AVSGDec2) pode selecionar uma parte (RHC, RVC, RCH, RCW) de seus dados de entrada a serem produzidos para exibição; um renderizador para os gráficos não-sincronizados, fornecendo dados ao misturador (MX).
2. Aparelho, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que adicional mente compreende um decodificador de legenda (ST-DEC) que é capaz de substituir os parâmetros de legenda predefinidos (DD) pelos outros parâmetros de legenda (SD) gerados sob ação do usuário, para interativamente modificar ou realçar as legendas.
BR122013022769A 2002-11-15 2003-11-03 aparelho para composição de legendas BR122013022769B1 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP02025474 2002-11-15
PCT/EP2003/012261 WO2004047430A1 (en) 2002-11-15 2003-11-03 Method and apparatus for composition of subtitles
BRPI0316174A BRPI0316174B1 (pt) 2002-11-15 2003-11-03 método e aparelho para composição de legendas para apresentações de áudio/vídeo e meio de armazenamento óptico relacionado

Publications (1)

Publication Number Publication Date
BR122013022769B1 true BR122013022769B1 (pt) 2016-07-19

Family

ID=32319536

Family Applications (2)

Application Number Title Priority Date Filing Date
BR122013022769A BR122013022769B1 (pt) 2002-11-15 2003-11-03 aparelho para composição de legendas
BRPI0316174A BRPI0316174B1 (pt) 2002-11-15 2003-11-03 método e aparelho para composição de legendas para apresentações de áudio/vídeo e meio de armazenamento óptico relacionado

Family Applications After (1)

Application Number Title Priority Date Filing Date
BRPI0316174A BRPI0316174B1 (pt) 2002-11-15 2003-11-03 método e aparelho para composição de legendas para apresentações de áudio/vídeo e meio de armazenamento óptico relacionado

Country Status (14)

Country Link
US (3) US7852411B2 (pt)
EP (1) EP1576809B1 (pt)
JP (10) JP4553248B2 (pt)
KR (2) KR100989503B1 (pt)
CN (1) CN100377582C (pt)
AT (1) ATE365423T1 (pt)
AU (1) AU2003279350B2 (pt)
BR (2) BR122013022769B1 (pt)
CA (1) CA2506521C (pt)
DE (1) DE60314544T2 (pt)
ES (1) ES2289339T3 (pt)
MX (1) MXPA05005133A (pt)
WO (1) WO2004047430A1 (pt)
ZA (1) ZA200503868B (pt)

Families Citing this family (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7852411B2 (en) 2002-11-15 2010-12-14 Thomson Licensing Method and apparatus for composition of subtitles
US8737810B2 (en) * 2002-11-15 2014-05-27 Thomson Licensing Method and apparatus for cropping of subtitle elements
KR100939711B1 (ko) * 2002-12-12 2010-02-01 엘지전자 주식회사 텍스트 기반의 서브타이틀 재생장치 및 방법
CN1781149B (zh) * 2003-04-09 2012-03-21 Lg电子株式会社 具有用于管理文本字幕数据重现的数据结构的记录媒体以及记录和重现的方法和装置
WO2004097824A1 (en) * 2003-04-29 2004-11-11 Lg Electronics Inc. Recording medium having a data structure for managing reproduction of graphic data and methods and apparatuses of recording and reproducing
EP1652184A4 (en) * 2003-07-24 2007-05-23 Lg Electronics Inc RECORD MEDIA WITH A DATA STRUCTURE FOR MANAGING THE PLAYING OF TEXT SUBTITLE DATA RECORDED THEREFOR AND RECORDING AND PLAYBACK METHOD AND DEVICES
BRPI0506712A (pt) * 2004-01-06 2007-05-02 Lg Electronics Inc meio fìsico de gravação, método e aparelho para reproduzir e gravar fluxos de subtìtulo de texto
KR20050072255A (ko) * 2004-01-06 2005-07-11 엘지전자 주식회사 고밀도 광디스크의 서브타이틀 구성방법 및 재생방법과기록재생장치
KR20050078907A (ko) * 2004-02-03 2005-08-08 엘지전자 주식회사 고밀도 광디스크의 서브타이틀 재생방법과 기록재생장치
JP2007522596A (ja) * 2004-02-10 2007-08-09 エルジー エレクトロニクス インコーポレーテッド 記録媒体及びテキスト・サブタイトル・ストリームのデコード方法と装置
RU2377669C2 (ru) * 2004-02-10 2009-12-27 ЭлДжи ЭЛЕКТРОНИКС ИНК. Носитель записи, имеющий структуру данных для управления различными данными, и способ и устройство записи и воспроизведения
US20050196146A1 (en) * 2004-02-10 2005-09-08 Yoo Jea Y. Method for reproducing text subtitle and text subtitle decoding system
WO2005076273A1 (en) * 2004-02-10 2005-08-18 Lg Electronic Inc. Recording medium having a data structure for managing font information for text subtitles and recording and reproducing methods and apparatuses
WO2005074399A2 (en) * 2004-02-10 2005-08-18 Lg Electronics Inc. Recording medium and method and apparatus for decoding text subtitle streams
WO2005076601A1 (en) * 2004-02-10 2005-08-18 Lg Electronic Inc. Text subtitle decoder and method for decoding text subtitle streams
EP1716573A1 (en) * 2004-02-10 2006-11-02 LG Electronic Inc. Recording medium having a data structure for managing data streams associated with different languages and recording and reproducing methods and apparatuses
EP2141704A3 (en) * 2004-02-10 2011-03-16 LG Electronics, Inc. Recording medium having a data structure for managing data and recording and reproducing method and apparatus
EP1721453A2 (en) * 2004-02-26 2006-11-15 LG Electronics, Inc. Recording medium and method and apparatus for reproducing and recording text subtitle streams
WO2005088634A1 (en) * 2004-03-17 2005-09-22 Lg Electronics Inc. Recording medium, method, and apparatus for reproducing text subtitle streams
RU2378722C2 (ru) * 2004-03-26 2010-01-10 ЭлДжи ЭЛЕКТРОНИКС ИНК. Носитель записи, способ и устройство для воспроизведения потоков текстовых субтитров
CN101114500B (zh) 2004-03-26 2010-06-09 Lg电子株式会社 用于再现和记录文本字幕流的记录介质以及方法和设备
BRPI0509270A (pt) * 2004-03-26 2007-09-04 Lg Electronics Inc meio de gravação, método e aparelho para reproduzir fluxo de subtìtulo de texto
KR20060047266A (ko) * 2004-04-26 2006-05-18 엘지전자 주식회사 기록매체, 기록매체의 재생방법과 재생장치
US7571386B2 (en) * 2004-05-03 2009-08-04 Lg Electronics Inc. Recording medium having a data structure for managing reproduction of text subtitle data and methods and apparatuses associated therewith
CN1328905C (zh) * 2004-06-29 2007-07-25 乐金电子(沈阳)有限公司 电视机的字幕错误修正装置及其方法
WO2006018786A1 (en) * 2004-08-20 2006-02-23 Koninklijke Philips Electronics N.V. Method of storing and transferring image signals
GB2419975A (en) * 2004-11-09 2006-05-10 Nokia Corp Auxiliary content handling
US20080238938A1 (en) * 2005-08-29 2008-10-02 Eklund Don Effects for interactive graphic data in disc authoring
US8015200B2 (en) * 2005-12-24 2011-09-06 Phil Seiflein Multimedia platform synchronizer
CN101005609B (zh) * 2006-01-21 2010-11-03 腾讯科技(深圳)有限公司 生成互动视频图像的方法及系统
WO2014160533A1 (en) * 2013-03-16 2014-10-02 Juan Garcia Universal barrier system panels
CN100471237C (zh) * 2007-11-19 2009-03-18 新奥特(北京)视频技术有限公司 一种视音频与图形分离播出系统
CN101616268A (zh) * 2008-06-27 2009-12-30 新奥特(北京)视频技术有限公司 一种利用纹理坐标生成阴影字幕的方法
CN101616274B (zh) * 2008-06-27 2013-09-18 新奥特(北京)视频技术有限公司 一种利用纹理坐标生成阴影字幕的装置
CN101616270A (zh) * 2008-06-27 2009-12-30 新奥特(北京)视频技术有限公司 一种使用滤镜的字幕生成方法
CN101616269B (zh) * 2008-06-27 2012-11-28 新奥特(北京)视频技术有限公司 一种基于字的结构生成阴影字幕的方法
CN101635804B (zh) * 2008-07-23 2011-07-06 晨星软件研发(深圳)有限公司 应用于电视系统上的字幕窗口输出方法与相关装置
EP2371140B1 (en) * 2009-02-12 2017-03-01 LG Electronics Inc. Broadcast receiver and 3d subtitle data processing method thereof
US9056249B2 (en) * 2009-04-01 2015-06-16 Activision Publishing, Inc. Device and method for a streaming video game
JP4985807B2 (ja) 2009-04-15 2012-07-25 ソニー株式会社 再生装置および再生方法
KR20110018261A (ko) * 2009-08-17 2011-02-23 삼성전자주식회사 텍스트 서브타이틀 데이터 처리 방법 및 재생 장치
CN102082923A (zh) * 2009-11-30 2011-06-01 新奥特(北京)视频技术有限公司 字幕模板的字幕替换方法及装置
TWI400943B (zh) * 2010-03-01 2013-07-01 Matsushita Electric Tw Co Ltd A method and a system for adjusting the control of the border / subtitle color of the media screen
WO2012046456A1 (ja) 2010-10-08 2012-04-12 三井化学株式会社 太陽電池封止材および太陽電池モジュール
CN102724417B (zh) * 2011-05-09 2015-05-27 新奥特(北京)视频技术有限公司 一种百叶窗式实现字幕特效的方法及系统
CN102739976B (zh) * 2011-05-17 2017-06-13 新奥特(北京)视频技术有限公司 一种阴影的动态二维字幕的实现的方法及系统
JP2013032483A (ja) 2011-06-28 2013-02-14 Nitto Denko Corp 光学用両面粘着シート、光学部材、タッチパネル、画像表示装置、及び剥離方法
CN103945140B (zh) * 2013-01-17 2017-11-28 联想(北京)有限公司 视频字幕的生成方法及系统
CN103301881B (zh) * 2013-06-06 2014-11-05 山东科技大学 用于甲醛聚糖反应的交联聚苯乙烯固载苯并噻唑催化剂的制备方法
JP6398185B2 (ja) 2013-12-18 2018-10-03 セイコーエプソン株式会社 プロジェクター、及び、プロジェクターの制御方法
US20150255121A1 (en) * 2014-03-06 2015-09-10 Thomson Licensing Method and apparatus for composition of subtitles
KR20180081674A (ko) * 2015-11-12 2018-07-17 파나소닉 인텔렉츄얼 프로퍼티 코포레이션 오브 아메리카 표시 방법, 프로그램 및 표시 장치
US10230812B1 (en) * 2016-01-29 2019-03-12 Amazon Technologies, Inc. Dynamic allocation of subtitle packaging
KR101961750B1 (ko) 2017-10-11 2019-03-25 (주)아이디어콘서트 단일 화면에서의 자막데이터 편집 시스템
CN108989876B (zh) * 2018-07-27 2021-07-30 青岛海信传媒网络技术有限公司 一种字幕显示的方法及装置
US10489496B1 (en) 2018-09-04 2019-11-26 Rovi Guides, Inc. Systems and methods for advertising within a subtitle of a media asset

Family Cites Families (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3891792A (en) 1974-06-25 1975-06-24 Asahi Broadcasting Television character crawl display method and apparatus
JPS6016777A (ja) * 1983-07-08 1985-01-28 Victor Co Of Japan Ltd 文字信号発生装置
JPS63175583A (ja) 1987-01-14 1988-07-19 Nec Corp 複数入力画像編集記録方式
DE3702220A1 (de) 1987-01-26 1988-08-04 Pietzsch Ibp Gmbh Verfahren und einrichtung zur darstellung eines gesamtbildes auf einem bildschirm eines bildschirmgeraetes
US4961153A (en) 1987-08-18 1990-10-02 Hewlett Packard Company Graphics frame buffer with strip Z buffering and programmable Z buffer location
JPS6480181A (en) * 1987-09-21 1989-03-27 Nippon Denki Home Electronics Teletext receiver
US4853784A (en) 1988-02-19 1989-08-01 The Grass Valley Group, Inc. Video switcher with independent processing of selected video signals
JPH0251489A (ja) 1988-08-12 1990-02-21 Sumitomo Electric Ind Ltd 分子線結晶成長装置
JPH0251502A (ja) 1988-08-15 1990-02-21 Idemitsu Petrochem Co Ltd 石油樹脂の製造方法
US5260695A (en) 1990-03-14 1993-11-09 Hewlett-Packard Company Color map image fader for graphics window subsystem
JPH0484708A (ja) 1990-07-27 1992-03-18 Mitsumi Electric Co Ltd 座標位置検出方式
US5214512A (en) 1991-02-11 1993-05-25 Ampex Systems Corporation Keyed, true-transparency image information combine
US5351067A (en) 1991-07-22 1994-09-27 International Business Machines Corporation Multi-source image real time mixing and anti-aliasing
JPH0537873A (ja) 1991-07-31 1993-02-12 Sanyo Electric Co Ltd 画像分割表示システム
JP2512250B2 (ja) 1991-09-13 1996-07-03 松下電器産業株式会社 動画表示ワ―クステ―ション
US5530797A (en) 1992-04-09 1996-06-25 Matsushita Electric Industrial Co., Ltd. Workstation for simultaneously displaying overlapped windows using a priority control register
EP0790743B1 (en) 1993-09-16 1998-10-28 Kabushiki Kaisha Toshiba Apparatus for synchronizing compressed video and audio signals
JPH07203396A (ja) 1993-12-28 1995-08-04 Sony Corp 字幕データ復号化装置
JPH07226920A (ja) * 1994-02-10 1995-08-22 Matsushita Electric Ind Co Ltd カラオケ装置
JPH07250279A (ja) * 1994-03-08 1995-09-26 Sony Corp 字幕データ復号化装置
CA2168641C (en) 1995-02-03 2000-03-28 Tetsuya Kitamura Image information encoding/decoding system
JPH08234775A (ja) * 1995-02-24 1996-09-13 Victor Co Of Japan Ltd 音楽再生装置
US5930450A (en) 1995-02-28 1999-07-27 Kabushiki Kaisha Toshiba Recording medium, apparatus and method of recording data on the same, and apparatus and method of reproducing data from the recording medium
JPH08275205A (ja) * 1995-04-03 1996-10-18 Sony Corp データ符号化/復号化方法および装置、および符号化データ記録媒体
CA2192077C (en) 1995-04-14 2001-02-27 Hideki Mimura Recording medium, apparatus and method for recording data on the recording medium, apparatus and method for reproducing data from the recording medium
JPH08317301A (ja) 1995-05-22 1996-11-29 Hitachi Ltd 映像出力装置
JP3326670B2 (ja) * 1995-08-02 2002-09-24 ソニー株式会社 データ符号化/復号化方法および装置、および符号化データ記録媒体
JPH0951489A (ja) 1995-08-04 1997-02-18 Sony Corp データ符号化/復号化方法および装置
JP3446473B2 (ja) * 1996-04-12 2003-09-16 ソニー株式会社 文字情報伝送システムおよび伝送方法、文字情報送信および受信装置、ならびに、記録媒体
JP3962114B2 (ja) * 1996-09-17 2007-08-22 株式会社エクシング カラオケ装置
JPH10108129A (ja) 1996-09-26 1998-04-24 Kenwood Corp ビデオディスク再生装置
JP3966571B2 (ja) * 1997-04-02 2007-08-29 エルエスアイ ロジック コーポレーション デジタル・ビデオ・ディスクにおけるサブ・ピクチャ・ユニットの高速再生システム及び方法
JPH10304308A (ja) * 1997-04-23 1998-11-13 Sony Corp サブピクチャデータ作成方法および装置、ならびにサブピクチャデータ作成用プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2000023061A (ja) 1998-07-02 2000-01-21 Sony Corp テレビジョン受信機
US6415437B1 (en) 1998-07-23 2002-07-02 Diva Systems Corporation Method and apparatus for combining video sequences with an interactive program guide
EP1365385B1 (en) 1998-11-09 2012-06-13 Broadcom Corporation Graphics display system with processing of graphics layers, alpha blending and composition with video data
US6741794B1 (en) 1999-01-29 2004-05-25 Sony Corporation System and method for flexibly blending multiple image planes in a video device
US7623140B1 (en) 1999-03-05 2009-11-24 Zoran Corporation Method and apparatus for processing video and graphics data to create a composite output image having independent and separate layers of video and graphics
US6466220B1 (en) 1999-03-05 2002-10-15 Teralogic, Inc. Graphics engine architecture
JP2001078149A (ja) * 1999-09-08 2001-03-23 Toshiba Corp メディア再生装置とメディア再生方法
DE19950490A1 (de) 1999-10-20 2001-04-26 Thomson Brandt Gmbh Verfahren zur Kodierung einer Bildsequenz sowie Teilbilddateneinheit zur Verwendung in einem elektronischen Gerät und Datenträger
US6493036B1 (en) 1999-11-17 2002-12-10 Teralogic, Inc. System and method for scaling real time video
GB2356999B (en) * 1999-12-02 2004-05-05 Sony Uk Ltd Video signal processing
DE10001369A1 (de) * 2000-01-14 2001-07-19 Infineon Technologies Ag Verfahren und Schaltungsanordnung zur Grafikdarstellung, insbesondere in einem digitalen Fernsehgerät
US6888577B2 (en) 2000-01-24 2005-05-03 Matsushita Electric Industrial Co., Ltd. Image compositing device, recording medium, and program
JP4541482B2 (ja) 2000-02-29 2010-09-08 キヤノン株式会社 画像処理装置及び画像処理方法
TW522379B (en) 2000-05-26 2003-03-01 Cyberlink Corp DVD playback system for displaying two types of captions and the playback method
TW505866B (en) 2000-06-04 2002-10-11 Cradle Technology Corp Method and system for creating multimedia document through network
JP2002016885A (ja) * 2000-06-30 2002-01-18 Pioneer Electronic Corp 映像再生装置及び映像再生方法
JP4978760B2 (ja) * 2000-08-23 2012-07-18 ソニー株式会社 画像処理方法および画像処理装置
WO2002019309A1 (en) 2000-09-01 2002-03-07 Mixed Signals Technologies, Inc. System and method for displaying closed captions in an interactive tv environment
JP2002091409A (ja) 2000-09-19 2002-03-27 Toshiba Corp 副映像処理機能付き再生装置
JP2002216585A (ja) 2001-01-18 2002-08-02 Minebea Co Ltd 表示装置用タッチパネル
US7050109B2 (en) 2001-03-02 2006-05-23 General Instrument Corporation Methods and apparatus for the provision of user selected advanced close captions
DE10126790A1 (de) 2001-06-01 2003-01-02 Micronas Munich Gmbh Verfahren und Vorrichtung zur Darstellung von wenigstens zwei Bildern in einem Gesamtbild
EP1491994A1 (en) 2001-10-23 2004-12-29 Samsung Electronics Co., Ltd. Information storage medium including markup document and AV data, recording method reproducing method, and reproducing apparatus therefor
US7676142B1 (en) 2002-06-07 2010-03-09 Corel Inc. Systems and methods for multimedia time stretching
JP3794355B2 (ja) * 2002-07-25 2006-07-05 カシオ計算機株式会社 再生制御装置および再生制御処理プログラム
US8737810B2 (en) * 2002-11-15 2014-05-27 Thomson Licensing Method and apparatus for cropping of subtitle elements
US7852411B2 (en) 2002-11-15 2010-12-14 Thomson Licensing Method and apparatus for composition of subtitles
JP5037873B2 (ja) 2006-08-07 2012-10-03 株式会社リコー 位置決め制御装置

Also Published As

Publication number Publication date
US9503678B2 (en) 2016-11-22
JP2011142649A (ja) 2011-07-21
JP5201698B2 (ja) 2013-06-05
US20140328572A1 (en) 2014-11-06
CA2506521A1 (en) 2004-06-03
KR20100066591A (ko) 2010-06-17
ES2289339T3 (es) 2008-02-01
JP2006506868A (ja) 2006-02-23
ATE365423T1 (de) 2007-07-15
JP5108126B2 (ja) 2012-12-26
JP4707125B2 (ja) 2011-06-22
WO2004047430A1 (en) 2004-06-03
KR100989503B1 (ko) 2010-10-22
JP5517318B2 (ja) 2014-06-11
CA2506521C (en) 2010-04-27
MXPA05005133A (es) 2005-07-22
BRPI0316174B1 (pt) 2016-12-06
EP1576809A1 (en) 2005-09-21
US20160323538A9 (en) 2016-11-03
JP2011139496A (ja) 2011-07-14
CN1711756A (zh) 2005-12-21
JP4553248B2 (ja) 2010-09-29
JP2011097593A (ja) 2011-05-12
KR20050089005A (ko) 2005-09-07
EP1576809B1 (en) 2007-06-20
JP2011172221A (ja) 2011-09-01
DE60314544D1 (de) 2007-08-02
AU2003279350A1 (en) 2004-06-15
US7852411B2 (en) 2010-12-14
JP2011015409A (ja) 2011-01-20
JP4587338B1 (ja) 2010-11-24
JP2011091811A (ja) 2011-05-06
JP4707124B2 (ja) 2011-06-22
CN100377582C (zh) 2008-03-26
JP5110715B2 (ja) 2012-12-26
JP5263842B2 (ja) 2013-08-14
BR0316174A (pt) 2005-09-27
AU2003279350B2 (en) 2008-08-07
JP2013146099A (ja) 2013-07-25
US20140327824A1 (en) 2014-11-06
ZA200503868B (en) 2006-07-26
DE60314544T2 (de) 2008-02-21
JP2010252371A (ja) 2010-11-04
US20060013563A1 (en) 2006-01-19
US9462221B2 (en) 2016-10-04
KR101034969B1 (ko) 2011-05-17
JP5108125B2 (ja) 2012-12-26
JP2011097592A (ja) 2011-05-12

Similar Documents

Publication Publication Date Title
BR122013022769B1 (pt) aparelho para composição de legendas
US9749576B2 (en) Method and apparatus for composition of subtitles
US20150255121A1 (en) Method and apparatus for composition of subtitles

Legal Events

Date Code Title Description
B15K Others concerning applications: alteration of classification

Free format text: AS CLASSIFICACOES ANTERIORES ERAM: H04N 5/445 , H04N 5/278

Ipc: H04N 21/488 (2011.01), G11B 27/034 (2006.01), H04N

B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 10 (DEZ) ANOS CONTADOS A PARTIR DE 19/07/2016, OBSERVADAS AS CONDICOES LEGAIS.

B25D Requested change of name of applicant approved
B25G Requested change of headquarter approved
B25G Requested change of headquarter approved
B25A Requested transfer of rights approved