BRPI0721452B1 - Sistema e método para combinar texto com conteúdo de imagem tridimensional - Google Patents

Sistema e método para combinar texto com conteúdo de imagem tridimensional Download PDF

Info

Publication number
BRPI0721452B1
BRPI0721452B1 BRPI0721452-9A BRPI0721452A BRPI0721452B1 BR PI0721452 B1 BRPI0721452 B1 BR PI0721452B1 BR PI0721452 A BRPI0721452 A BR PI0721452A BR PI0721452 B1 BRPI0721452 B1 BR PI0721452B1
Authority
BR
Brazil
Prior art keywords
text
content
depth value
image
dimensional
Prior art date
Application number
BRPI0721452-9A
Other languages
English (en)
Inventor
Izzat Izzat
Dong-Qing Zhang
Yousef Wasef Nijim
Original Assignee
Interdigital Ce Patent Holdings
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Interdigital Ce Patent Holdings filed Critical Interdigital Ce Patent Holdings
Publication of BRPI0721452A2 publication Critical patent/BRPI0721452A2/pt
Publication of BRPI0721452B1 publication Critical patent/BRPI0721452B1/pt

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/293Generating mixed stereoscopic images; Generating mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/361Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/003Aspects relating to the "2D+depth" image format

Abstract

sistema e método para combinar texto com conteúdo tridimensional um sistema (10) e método (52, 60, 72) para combinar e/ou exibir texto com conteúdo tridimensional (3d). o sistema (10) e método (52, 60, 72) inserem texto no mesmo nível que o valor de profundidade mais elevado no conteúdo 3d. um exemplo de conteúdo 3d é uma imagem bidimensional (44) e um mapa de profundidade associado (46). nesse caso, o valor de profundidade do texto inserido (50) é ajustado para casar com o valor de profundidade maior do mapa de profundidade dado. outro exemplo de conteúdo 3d é uma pluralidade de imagens bidimensionais e mapas de profundidade associados. nesse caso, o valor de profundidade do texto inserido é continuamente ajustado para casar com o valor de profundidade maior de um mapa de profundidade dado. um exemplo adicional de conteúdo 3d é conteúdo estereoscópico (82) tendo uma imagem de olho direito (86) e uma imagem de olho esquerdo (84). nesse caso o texto (88, 90) em uma das imagens de olho esquerdo (84) e imagem de olho direito (86) são deslocados para casar com o valor de profundidade maior na imagem estereoscópica. ainda outro exemplo de conteúdo 3d é conteúdo estereoscópico tendo uma pluralidade de imagens de olho direito e imagens de olho esquerdo. nesse caso o texto em uma das imagens de olho esquerdo ou imagens de olho direito é continuamente deslocado para casar com o valor de profundidade maior nas imagens estereoscópicas. como resultado, o sistema (10) e método (52, 60, 72) da presente revelação produzem texto combinado com conteúdo 3d onde o texto não obstrui os efeitos 3d no conteúdo 3d e não cria fadiga visual quando visto por um telespectador.

Description

“SISTEMA E MÉTODO PARA COMBINAR TEXTO COM CONTEÚDO DE IMAGEM TRIDIMENSIONAL”
Esse pedido reivindica o benefício de acordo com 35 U.S.C.§ 119 de um pedido provisional 60/918635 depositado nos Estados Unidos em 16 de março de 2007.
Campo técnico da invenção
A presente revelação refere-se genericamente a sistemas de exibição e processamento de imagem, e mais particularmente, a um sistema e método para combinar texto com conteúdo tridimensional.
Antecedentes da invenção
Há dois tipos de texto que podem ser adicionados a vídeo: legendas para ouvintes e legendas para deficientes auditivos. Dito em termos gerais, legendas são destinadas a audiências que ouvem e legendas para audiências surdas. Legendas para ouvintes podem traduzir o diálogo em um idioma diferente, porém raramente mostram todo o áudio. Por exemplo, legendas para deficientes auditivos mostram efeitos de som (por exemplo, “telefone tocando” e “passos”), enquanto legendas para ouvintes não mostram.
Legendas ocultas são legendas que são ocultas em um sinal de vídeo, invisíveis sem um decodificador especial. As legendas ocultas são ocultas, por exemplo, na linha 21 do intervalo de supressão de linha (VBI). Legendas abertas são legendas que foram decodificadas, assim se tornaram parte integral da imagem da televisão, como legendas para ouvintes em um filme. Em outras palavras, legendas abertas não podem ser desligadas. O termo “legendas abertas” também é utilizado para se referir a legendas para ouvintes criadas com um gerador de caracteres.
O uso de texto em vídeo bidimensional 2D é conhecido por aqueles versados na técnica. O interesse atual em filme e vídeo tridimensional 3D criou a necessidade de técnicas para acrescentar texto ao conteúdo 3D. Portanto, existe uma necessidade por técnicas para otimizar a inserção de texto em conteúdo 3D de tal modo que o texto adicionado não obstrua os efeitos 3D no conteúdo 3D e não crie fadiga visual quando o conteúdo 3D é visto.
Sumário
De acordo com um aspecto da presente revelação, são fornecidos sistema e método para combinar e/ou exibir texto com conteúdo tridimensional 3D. O sistema e método inserem texto no mesmo nível como o valor de profundidade mais elevado no conteúdo 3D. Um exemplo de conteúdo 3D é uma imagem bidimensional e um mapa de profundidade associado. Nesse caso, o valor de profundidade do texto inserido é ajustado para casar com o valor de profundidade maior do mapa de profundidade dado. Outro exemplo de conteúdo de 3D é uma pluralidade de imagens bidimensionais e mapas de profundidade associados. Nesse caso, o valor de profundidade do texto inserido é continuamente ajustado para casar com o valor de profundidade maior de um mapa de profundidade dado. Um exemplo adicio
Petição 870190091584, de 13/09/2019, pág. 7/24
2/10 nal de conteúdo 3D é conteúdo estereoscópico tendo uma imagem de olho direito e uma imagem de olho esquerdo. Nesse caso o texto em uma da imagem de olho esquerdo e imagem de olho direito é deslocado para casar com o valor de profundidade maior na imagem estereoscópica. Ainda outro exemplo de conteúdo 3D é conteúdo estereoscópico tendo uma pluralidade de imagens de olho direito e imagens de olho esquerdo. Nesse caso o texto em uma das imagens de olho esquerdo ou imagens de olho direito é continuamente deslocada para casar com o valor de profundidade maior nas imagens estereoscópicas. Como resultado, o sistema e método da presente revelação produzem texto combinado com conteúdo 3D onde o texto não obstrui os efeitos 3D no conteúdo 3D e não cria fadiga visual quando visto por um telespectador.
De acordo com outro aspecto da presente revelação, um método para combinar texto com conteúdo de imagem tridimensional que recebe conteúdo de imagem tridimensional, determinar um valor de profundidade máximo para o conteúdo tridimensional, e combinar texto com conteúdo de imagem tridimensional no valor máximo de profundidade.
De acordo com um aspecto adicional da presente revelação, um método de exibir texto com conteúdo de imagem tridimensional inclui receber conteúdo de imagem tridimensional e texto, o conteúdo de imagem tridimensional tendo um valor máximo de profundidade, exibir o conteúdo de imagem tridimensional e exibir o texto no valor máximo de profundidade.
De acordo ainda com outro aspecto da presente revelação, um sistema para combinar texto com conteúdo de imagem tridimensional inclui meio para receber conteúdo de imagem tridimensional, meio para determinar um valor máximo de profundidade para o conteúdo tridimensional, e meio para combinar texto com o conteúdo de imagem tridimensional no valor máximo de profundidade.
De acordo ainda com um aspecto adicional da presente revelação, um sistema para exibir texto com conteúdo de imagem tridimensional inclui meio para receber conteúdo de imagem tridimensional e texto, o conteúdo de imagem tridimensional tendo um valor máximo de profundidade, meio para exibir o conteúdo de imagem tridimensional e meio para exibir o texto no valor máximo de profundidade.
Breve descrição dos desenhos
Esses e outros aspectos, características e vantagens da presente revelação serão descritos ou se tornarão evidentes a partir da seguinte descrição detalhada das modalidades preferidas, que deve ser lida com relação aos desenhos em anexo.
Nos desenhos, onde numerais de referência similares indicam elementos similares em todas as vistas:
A figura 1 é uma ilustração exemplar de um sistema para combinar texto com conteúdo tridimensional de acordo com um aspecto da presente revelação;
Petição 870190091584, de 13/09/2019, pág. 8/24
3/10
A figura 2 ilustra um exemplo de uma imagem 2D e um mapa de profundidade associado à imagem 2D;
A figura 3 ilustra um exemplo de texto adicionado à imagem 2D e o mapa de profundidade associado à imagem 2D de acordo com a presente revelação;
A figura 4 é um fluxograma que ilustra um processo de inserção de legenda para ouvintes off-line de acordo com a presente revelação;
A figura 5 é um fluxograma que ilustra um processo de inserção de legenda para ouvintes on-line de acordo com a presente revelação;
A figura 6 ilustra um processo de inserção e detecção de legenda para ouvintes online de acordo com a presente revelação; e
A figura 7 ilustra um exemplo de texto combinado com um par estéreo de acordo com a presente revelação.
Deve ser entendido que o(s) desenho(s) é (são) para fins de ilustrar os conceitos da revelação e não é (são) necessariamente a única configuração possível para ilustrar a revelação.
Descrição detalhada de modalidades preferidas
Deve ser entendido que os elementos mostrados nas figuras podem ser implementados em várias formas de hardware, software ou combinações dos mesmos. Preferivelmente, esses elementos são implementados em uma combinação de hardware e software em um ou mais dispositivos de propósito geral apropriadamente programados, que podem incluir um processador, memória e interfaces de entrada/saída.
A presente descrição ilustra os princípios da presente revelação. Será desse modo reconhecido que aqueles versados na técnica serão capazes de idealizar vários arranjos que, embora não explicitamente descritos ou mostrados aqui, incorporam os princípios da revelação e são incluídos em seu espírito e escopo.
Todos os exemplos e linguagem condicional mencionados aqui são para fins pedagógicos para auxiliar o leitor a entender os princípios da revelação e os conceitos contribuídos pelo inventor para incrementar a técnica, e devem ser interpretados como sendo sem limitação a tais exemplos e condições especificamente mencionados.
Além disso, todas as afirmações aqui que mencionam princípios, aspectos e modalidades da revelação, bem como exemplos específicos das mesmas, pretendem abranger equivalentes tanto estruturais como funcionais das mesmas. Adicionalmente, pretende-se que tais equivalentes incluam tanto equivalentes atualmente conhecidos como equivalente desenvolvidos no futuro, isto é, quaisquer elementos desenvolvidos que realizem a mesma função, independente de estrutura.
Desse modo, por exemplo, será reconhecido por aqueles versados na técnica que os diagramas de blocos apresentados aqui representam vistas conceptuais de conjuntos de
Petição 870190091584, de 13/09/2019, pág. 9/24
4/10 circuitos ilustrativos que incorporam os princípios da revelação. Similarmente, será reconhecido que quaisquer fluxogramas, diagramas de fluxo, diagramas de transição de estado, pseudocódigo, e similar representam vários processos que podem ser substancialmente representados em meios legíveis por computador e desse modo executados por um computador ou processador, quer ou não esse computador ou processador seja explicitamente mostrado.
As funções dos vários elementos mostrados nas figuras podem ser fornecidas através do uso de hardware dedicado bem como hardware capaz de executar software em associação a software apropriado. Quando fornecido por um processador, as funções podem ser fornecidas por um processador dedicado único, por um processador compartilhado único, ou por uma pluralidade de processadores individuais, alguns dos quais podem ser compartilhados. Além disso, o uso explícito do termo “processador” ou “controlador” não deve ser interpretado como se referindo exclusivamente a hardware capaz de executar software, e pode incluir implicitamente, sem limitação, hardware de processador de sinais digitais “DSP”, memória somente de leitura “ROM” para armazenar software, memória de acesso aleatório “RAM” e armazenagem não volátil.
O outro hardware, convencional e/ou customizado, também pode ser incluído. Similarmente, quaisquer comutações mostradas nas figuras são somente conceptuais. Sua função pode ser realizada através da operação de lógica de programa, através de lógica dedicada, através da interação de controle de programa e lógica dedicada, ou mesmo manualmente, a técnica específica sendo selecionável pelo implementador como entendido mais especificamente a partir do contexto.
Nas reivindicações do presente, qualquer elemento expresso como meio para executar uma função específica pretende abranger qualquer modo de executar aquela função incluindo, por exemplo, a) uma combinação de elementos de circuito que executa aquela função ou b) software em qualquer forma, incluindo, portanto, firmware, microcódigo ou similar, combinado com conjunto de circuitos apropriado para executar aquele software para realizar a função. A revelação como definido por tais reivindicações reside no fato de que as funcionalidades fornecidas pelos vários meios mencionados são combinadas e unidas no modo que as reivindicações exigem. Desse modo, é considerado que qualquer meio que possa fornecer essas funcionalidades é equivalente àqueles mostrados aqui.
Com referência agora à figura 1, componentes de sistema exemplares 10, de acordo com uma modalidade da presente revelação, são mostrados. Um dispositivo de varredura 12 pode ser fornecido para varrer cópias de filme 14, por exemplo, negativos de filme original de câmera, em um formato digital, por exemplo, um formato Cineon ou arquivos de Society of Motion Picture and Television Engineers (SMPTE) Digital Picture Exchange (DPX). O dispositivo de varredura 12 pode compreender, por exemplo, um telecine ou qualPetição 870190091584, de 13/09/2019, pág. 10/24
5/10 quer dispositivo que gerará uma saída de vídeo a partir do filme como, por exemplo, um Arri LocPro™ com saída de vídeo. Alternativamente, arquivos a partir do processo pós-produção ou cinema digital 16 (por exemplo, arquivos já em forma legível por computador) podem ser utilizados diretamente. Fontes em potencial de arquivos legíveis por computador são editores AVID™, arquivos DPX, fitas D5, etc. Além disso, o conteúdo 3D (por exemplo, conteúdo estereoscópico ou imagens 2D e mapas de profundidade associados) pode ser fornecido por um dispositivo de captura 18 e arquivos de texto 20 (por exemplo, arquivos de legenda para ouvintes ou legenda para deficientes auditivos) podem ser criados a partir de um script e fornecidos ao sistema pelo supervisor de legenda para ouvintes.
As cópias de filme varridas, imagens de filme digital e/ou conteúdo 3D bem como os arquivos de texto podem ser inseridos em um dispositivo pós-processamento 22, por exemplo, um computador. O computador 22 pode ser implementado em qualquer uma das várias plataformas de computador conhecidas tendo hardware como uma ou mais unidades de processamento central (CPU), memória 24 como memória de acesso aleatório (RAM) e/ou memória somente de leitura (ROM) e interface(s) de usuário de entrada/saída (I/O) 26 como um teclado, dispositivo de controle de cursor (por exemplo, um mouse ou manche) e dispositivo de exibição. A plataforma de computador também inclui um sistema operacional e código de instrução micro. Os vários processos e funções descritas aqui podem fazer parte do código de instrução micro ou parte de um programa de aplicação de software (ou uma combinação dos mesmos) que é executado através do sistema operacional. Além disso, vários outros dispositivos periféricos podem ser conectados à plataforma de computador por várias interfaces e estruturas de barramento, como porta paralela, porta serial ou barramento serial universal (USB). Outros dispositivos periféricos podem incluir dispositivos de armazenagem adicionais 28 e uma impressora 30. A impressora 30 pode ser empregada para imprimir uma versão revisada do filme 32, por exemplo, uma versão estereoscópica do filme, onde texto foi inserido em uma cena ou uma pluralidade de cenas utilizando as técnicas de inserção de texto descritas abaixo. Adicionalmente, um arquivo digital 34 do vídeo ou filme revisado pode ser gerado e fornecido a um dispositivo de exibição 3D de modo que o conteúdo 3D e texto inserido possam ser vistos por um telespectador. Alternativamente, o arquivo digital 34 pode ser armazenado no dispositivo de armazenagem 28.
Um programa de software inclui um módulo de processamento de texto 38 armazenado na memória 24 para combinar texto com conteúdo 3D de acordo com a presente revelação, como discutido em detalhes adicionais abaixo.
Há diversas técnicas para apresentar conteúdo 3D. A mais comum é meio de exibição estereoscópico, que requer vidros ativo ou passivo. Meios de exibição autoestereoscópicos, utilizando, por exemplo, Lenticular, não requerem vidros e estão se tornando mais disponíveis para entretenimento tanto em casa como profissional. Muitos desPetição 870190091584, de 13/09/2019, pág. 11/24
6/10 ses meios de exibição operam no formato 2D + profundidade. Nesse formato, o vídeo 2D e as informações de profundidade são combinados para criar o efeito 3D.
A presente revelação é dirigida a um método para inserir legendas para ouvintes no vídeo 3D para meios de exibição do tipo estéreo e 2D+profundidade. Para meios de exibição 2D+profundidade, o método proposto insere texto de legenda para ouvintes no mesmo nível que o valor de profundidade mais elevado na imagem. Mais especificamente, o valor de profundidade da legenda para ouvintes inserida pode ser ajustado continuamente para casar com o valor de profundidade maior do mapa de profundidade. Para conteúdo estéreo, o método proposto ajusta o valor de disparidade da legenda para ouvintes na imagem direita. Isso produz legendas para ouvintes mais visualmente agradáveis que não obstruem os efeitos 3D do vídeo.
Legendas para ouvintes podem ser colocadas em um sinal de vídeo em um de dois modos: on-line (ao vivo) ou off-line (pós-produção). Legenda para ouvintes on-line é feita à medida que um evento ocorre. Os exemplos de legenda para ouvintes on-line são programas de notícias de televisão, seminários ao vivo e eventos esportivos. Legendas para ouvintes on-line podem ser feitas a partir de um script, ou na realidade criados em tempo real. Legenda para ouvintes off-line é feita “após o fato” em um estúdio. Os exemplos de legendagem off-line incluem shows de jogos de televisão, videoteipes ou DVDs de filmes, videoteipes de corporações (por exemplo, vídeos de treinamento), filmes fornecidos através de cabo, satélite ou Internet, ou similar. O texto da legenda para ouvintes é criado em um computador, e sincronizado com o vídeo utilizando códigos de tempo. O texto e o vídeo são então transferidos para o videoteipe antes do mesmo ser transmitido ou distribuído.
Na presente revelação, a criação e distribuição de legendas para ouvintes segue, preferivelmente, processos convencionais como conhecidos por aqueles versados na técnica. Por exemplo, um processo convencional é criar um arquivo de texto a partir de um script. O arquivo de texto contém três valores (quadro de início, quadro final, e texto). O texto é então repetido em todos os quadros a partir do quadro de início até o quadro final. A presente revelação é dirigida ao ajuste do valor de profundidade do local de texto de tal modo que o valor de profundidade do local de texto case com o valor de profundidade maior no quadro de vídeo.
Há diversos formatos de conteúdo e meios de exibição no mercado incluindo estereoscópico, holográfico, e auto-estereoscópico entre outros. Com referência agora à figura 2, uma modalidade da presente revelação é dirigida a uma abordagem para inserção de legendas para ouvintes em meios de exibição auto-estereoscópico que operam no formato 2D+profundidade. A figura 2 ilustra um exemplo de formato de conteúdo 2D+profundidade. Mais especificamente, a figura 2 ilustra dois tipos de conteúdos: uma imagem 2D 40 e um mapa de profundidade 42 da imagem 2D. O mapa de profundidade 42 define o valor de proPetição 870190091584, de 13/09/2019, pág. 12/24
7/10 fundidade em cada pixel na imagem 2D 40 com pixels claros que representam pontos próximos ao telespectador, e pixels escuros que representam pontos distantes do telespectador.
Como discutido acima, há dois modos para inserir legendas para ouvintes: inserção on-line para conteúdo ao vivo e inserção off-line para conteúdo pós-produção. Como discutido abaixo, os métodos propostos da presente revelação são dirigidos à inserção de legenda para ouvintes tanto off-line como on-line.
Com referência agora à figura 3, um exemplo de uma caixa de texto 50 inserida em um mapa de profundidade 46 e o texto 48 adicionado à imagem 2D 40 é mostrado. A caixa de texto 48 é o texto de legenda para ouvintes, como definido pelo script, por exemplo, enquanto a caixa de texto 50 representa um valor de profundidade constante em cada ponto da caixa de texto.
Com referência agora à figura 4, um processo de inserção off-line 52 da presente revelação é mostrado. Para inserção de legendas para ouvintes off-line, imagens de texto de legenda para ouvintes são criadas e sincronizadas com vídeo 2D utilizando códigos de tempo em produção posterior. Os valores de profundidade do texto inserido são determinados por varredura, na etapa 54, do vídeo 3D e cálculo do valor max. da profundidade para cada quadro durante a criação de conteúdo. Uma nova caixa de texto é então inserida, na etapa 56, no local de legenda para ouvintes com valor de profundidade igual ao valor max. de profundidade do quadro, e na etapa 58, a legenda para ouvintes é adicionada à imagem 2D 44. Esse processo deve ser feito para a duração do intervalo de tempo definido para a legenda para ouvintes. Deve ser observado que as etapas 56 e 58 podem ser realizadas em qualquer ordem e podem ser executadas preferivelmente simultaneamente.
Com referência agora à figura 5, é mostrado um fluxograma da presente revelação que ilustra um processo de inserção on-line 60. No processamento on-line, o local das legendas para ouvintes não é sabido antecipadamente e consequentemente o valor de profundidade das legendas para ouvintes não pode ser determinado do mesmo modo como descrito para processamento off-line 52. Assim que o texto de legenda para ouvintes é inserido, na etapa 62, o mapa de profundidade do quadro de início de legenda para ouvintes é varrido para determinar o valor max. de profundidade e na etapa 64, o texto de legenda para ouvintes é inserido no valor max. de profundidade e, na etapa 66, a legenda para ouvintes é adicionada à imagem 2D. Deve ser observado que as etapas 64 e 66 podem ser realizadas em qualquer ordem e podem ser preferivelmente realizadas simultaneamente. Posteriormente, na etapa 68, uma determinação é feita com relação a se existem recursos adicionais de processamento. Dependendo do processamento disponível, a legenda para ouvintes pode ser fixa, na etapa 70, no valor de profundidade do primeiro quadro quando processamento adicional não está disponível ou os valores de profundidade dos quadros seguintes po
Petição 870190091584, de 13/09/2019, pág. 13/24
8/10 dem ser determinados repetindo as etapas de processamento on-line 62-66 quando processamento adicional está disponível.
Com referência agora à figura 6, é mostrado um fluxograma da presente revelação que ilustra o processamento 72 de imagens 2D tendo legendas para ouvintes inseridas. Há casos onde legendas para ouvintes já estão inseridas na imagem 2D como se o conteúdo 3D fosse convertido do conteúdo 2D. Para esses casos, o local de legendas para ouvintes pode ser identificado, na etapa 74, por detectores de região de legenda para ouvintes, que são capazes de detectar e localizar as regiões de legenda para ouvintes em um quadro utilizando informações de cor e textura. Detecção de região de legenda para ouvintes tem sido uma direção de pesquisa ativa na pesquisa de processamento de vídeo. De acordo com a literatura atual, para alguns vídeos, como vídeos de notícias, detectores de região de legenda para ouvintes podem obter precisão de localização acima de 95%. Portanto, detectores de região de legenda para ouvintes devem ser seguros o bastante para inserção de legenda para ouvintes 3D. Após localização da área de legenda para ouvintes (isto é, a coordenada da caixa de texto é determinada), na etapa 74, e o texto de legenda para ouvintes é isolado (isto é, os pixels específicos da legenda para ouvintes são determinados), na etapa 76, a partir da imagem, o mapa de profundidade do quadro de início de legenda para ouvintes é buscado (por exemplo, varrido) para determinar, na etapa 78, o valor max. de profundidade. A seguir, na etapa 80, o texto de legenda para ouvintes é inserido no valor max. de profundidade. Posteriormente, as etapas de processo de inserção on-line 66-70 mostradas na figura 5, podem ser aplicadas.
Com referência agora à figura 7, a presente revelação também pode ser estendida para cobrir conteúdo estereoscópico 82. Para conteúdo estereoscópico o texto na imagem de olho esquerdo ou direito é deslocado para casar com o valor de profundidade maior na imagem estereoscópica. Por exemplo, o texto 88 pode ser fixo na imagem de olho esquerdo 84 porém ajustado ou variado na imagem de olho direito 86. A variação do texto 90 na imagem de olho direito 86 é proporcional à disparidade do par estéreo. O valor de disparidade é inversamente proporcional ao valor de profundidade.
A variação no olho é um deslocamento na direção horizontal. Um deslocamento negativo (fora do texto da tela) é preferível para a maioria das aplicações. Entretanto a presente revelação permite deslocamentos tanto negativo como positivo do texto. O valor de deslocamento mínimo permitido é igual ao valor positivo máximo visualmente aceitável e o valor de deslocamento máximo permitido é igual ao valor negativo máximo visualmente aceitável. A figura 7 mostra um exemplo de par estéreo com um valor de deslocamento de 10 pixels para o texto 90 na imagem de olho direito 86.
Deve ser observado que, de acordo com a presente revelação, é desejável combinar texto com conteúdo 3D (por exemplo, conteúdo estereoscópico ou imagens 2D e mapas
Petição 870190091584, de 13/09/2019, pág. 14/24
9/10 de profundidade associados) de tal modo que o texto seja ocasional ou continuamente posicionado no valor máximo de profundidade do conteúdo 3D. Abaixo, várias abordagens para adquirir informações de profundidade a partir do conteúdo 3D são discutidas adicionalmente.
A aquisição de informações de profundidade pode ser feita utilizando técnicas ativa ou passiva. Abordagens passivas adquirem geometria 3D a partir de imagens ou vídeos feitos sob condições de iluminação regular. A geometria 3D é computada utilizando as características geométricas ou fotométricas extraídas de imagens e vídeos. Abordagens ativas utilizam fontes de luz especial, como laser, luz de estrutura ou luz infravermelha. Computam a geometria com base na reposta dos objetos e cenas à luz especial projetada sobre a superfície.
Abordagens de vista única recuperam geometria 3D utilizando uma imagem tirada de um ponto de vista de câmera única. Os exemplos incluem profundidade e estéreo fotométrico a partir de desenfoque. Abordagens de múltiplas vistas recuperam geometria 3D a partir de múltiplas imagens tiradas de pontos de vista de câmeras múltiplas, resultadas de movimento de objeto, ou com diferentes posições de fonte de luz. O casamento de estéreo é um exemplo de recuperação 3D de múltiplas vistas por casamento dos pixels na imagem esquerda e imagem direita no par de estéreo para obter as informações de profundidade dos pixels.
Os métodos geométricos recuperam geometria 3D por detectar características geométricas como cantos, linhas ou contornos em imagens únicas ou múltiplas. A relação espacial entre os cantos, linhas ou contornos extraídos pode ser utilizada para inferir as coordenadas 3D dos pixels em imagens. Os métodos fotométricos recuperam geometria 3D com base no sombreamento ou sombra dos patches de imagem resultados da orientação da superfície de cena.
Para a aplicação da presente revelação, há três tipos possíveis de conteúdo: conteúdo gerado por computador, conteúdo estéreo e conteúdo 2D. Para conteúdo gerado por computador, como utilizado em animação, informações de profundidade são disponíveis com processamento muito limitado. Para conteúdo de estéreo, a imagem direita e esquerda pode ser utilizada para gerar a profundidade por casar o pixel na imagem esquerda com aquele na imagem direita. O caso mais complexo é aquele de conteúdo 2D. A maioria das técnicas atuais envolve processamento manual extenso e consequentemente devem ser feitas off-line. Para aplicações de cinema digital, o conteúdo 2D é convertido em par estéreo para reprodução em cinemas digitais. Após aquisição do par estéreo, técnicas de estéreo podem ser utilizadas para obter um mapa de profundidade. Em geral para aplicações de legenda para ouvintes mapas de profundidade altamente precisos e densos não são normalmente necessários.
Embora as modalidades que incorporam os ensinamentos da presente revelação
Petição 870190091584, de 13/09/2019, pág. 15/24
10/10 tenham sido mostradas e descritas em detalhe aqui, aqueles versados na técnica podem facilmente idealizar muitas outras modalidades variadas que ainda incorporam esses ensinamentos. Tendo descrito modalidades preferidas para um sistema e método para processamento de imagem paralela em um ambiente de computação ligado em rede com esque5 mas de divisão de dados de imagem ótimos (que pretendem ser ilustrativos e não limitadores). Observa-se que modificações e variações podem ser feitas por pessoas versadas na técnica à luz dos ensinamentos acima. Portanto, deve ser entendido que alterações podem ser feitas nas modalidades específicas da revelação revelada que estão compreendidas no escopo da revelação como delineado pelas reivindicações apensas.

Claims (15)

  1. REIVINDICAÇÕES
    1. Método para combinar texto com conteúdo de imagem tridimensional, o método compreendendo as etapas de:
    receber (54) conteúdo de imagem tridimensional;
    determinar (54) um valor máximo de profundidade para o conteúdo tridimensional; e o método CARACTERIZADO pelo fato de que o texto é combinado com o conteúdo de imagem tridimensional no valor máximo de profundidade.
  2. 2. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que a etapa de receber conteúdo de imagem tridimensional inclui receber (54) uma imagem bidimensional (40) e um mapa de profundidade (42).
  3. 3. Método, de acordo com a reivindicação 2, CARACTERIZADO pelo fato de que a etapa de determinar (54) um valor máximo de profundidade inclui detectar qual objeto no mapa de profundidade tem o valor máximo de profundidade.
  4. 4. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que a etapa de combinar (58) texto com o conteúdo tridimensional inclui sobrepor o texto na imagem bidimensional e posicionar o texto no mapa de profundidade no valor máximo de profundidade.
  5. 5. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que o conteúdo de imagem tridimensional inclui uma pluralidade de quadros e as etapas de determinar (62) o valor máximo de profundidade e combinar (64, 66) o texto com o conteúdo de imagem tridimensional no valor máximo de profundidade ocorrem para cada quadro.
  6. 6. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que o conteúdo de imagem tridimensional inclui uma pluralidade de quadros e as etapas de determinar (62) o valor máximo de profundidade e combinar (64, 66) o texto com o conteúdo de imagem tridimensional no valor máximo de profundidade ocorrem para um número menor do que todos da pluralidade de quadros.
  7. 7. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que compreende ainda as etapas de:
    determinar (74) se o conteúdo tridimensional contém texto;
    isolar (76) o texto a partir do conteúdo tridimensional; e combinar (78, 80) o texto isolado com o conteúdo tridimensional no valor máximo de profundidade.
  8. 8. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que a etapa de determinar o valor máximo de profundidade para o conteúdo tridimensional inclui detectar o valor máximo de profundidade de um objeto em uma imagem estereoscópica (82), a imagem estereoscópica (82) incluindo uma imagem de olho esquerdo (84) e uma imagem de olho direito (86).
    Petição 870190091584, de 13/09/2019, pág. 17/24
    2/3
  9. 9. Método, de acordo com a reivindicação 8, CARACTERIZADO pelo fato de que a etapa de combinar texto com a imagem tridimensional inclui:
    sobrepor o texto (88) na imagem de olho esquerdo (84);
    sobrepor o texto (90) na imagem de olho direito (86); e deslocar o texto (90) na imagem de olho direito (86) de tal modo que o texto de olho direito e olho esquerdo combinados é exibível no valor máximo de profundidade da imagem estereoscópica.
  10. 10. Sistema para combinar texto com conteúdo de imagem tridimensional, o sistema compreendendo:
    meios para receber (54) conteúdo de imagem tridimensional;
    meios para determinar (54) um valor máximo de profundidade para o conteúdo tridimensional; e o sistema CARACTERIZADO pelo fato de que compreende meios para combinar (58) texto com o conteúdo de imagem tridimensional no valor máximo de profundidade.
  11. 11. Sistema, de acordo com a reivindicação 10, CARACTERIZADO pelo fato de que o meio para receber conteúdo de imagem tridimensional inclui meios para receber (54) uma imagem bidimensional (40) e um mapa de profundidade (42), e em que os meios para determinar (54) um valor máximo de profundidade inclui meios para detectar qual objeto no mapa de profundidade tem o valor máximo de profundidade.
  12. 12. Sistema, de acordo com a reivindicação 10, CARACTERIZADO pelo fato de que os meios de combinar (58) texto com o conteúdo tridimensional inclui meios para sobrepor o texto na imagem bidimensional e meios para posicionar o texto no mapa de profundidade no valor máximo de profundidade.
  13. 13. Sistema, de acordo com a reivindicação 10, CARACTERIZADO pelo fato de que compreende ainda:
    meios para determinar (74) se o conteúdo tridimensional contém texto;
    meios para isolar (76) o texto a partir do conteúdo tridimensional; e meios para combinar (78, 80) o texto isolado com o conteúdo tridimensional no valor máximo de profundidade.
  14. 14. Sistema, de acordo com a reivindicação 10, CARACTERIZADO pelo fato de que os meios para determinar o valor máximo de profundidade para o conteúdo tridimensional inclui meios para detectar o valor máximo de profundidade de um objeto em uma imagem estereoscópica (82), a imagem estereoscópica (82) incluindo uma imagem de olho esquerdo (84) e uma imagem de olho direito (86).
  15. 15. Sistema, de acordo com a reivindicação 14, CARACTERIZADO pelo fato de que a etapa de combinar texto com a imagem tridimensional inclui:
    meios para sobrepor o texto (88) na imagem de olho esquerdo (84);
    Petição 870190091584, de 13/09/2019, pág. 18/24
    3/3 meios para sobrepor o texto (90) na imagem de olho direito (86); e meios para deslocar o texto (90) na imagem de olho direito (86) de tal modo que o texto de olho direito e olho esquerdo combinados é exibível no valor máximo de profundidade da imagem estereoscópica.
BRPI0721452-9A 2007-03-16 2007-12-19 Sistema e método para combinar texto com conteúdo de imagem tridimensional BRPI0721452B1 (pt)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US91863507P 2007-03-16 2007-03-16
US60/918,635 2007-03-16
US60/918.635 2007-03-16
PCT/US2007/025947 WO2008115222A1 (en) 2007-03-16 2007-12-19 System and method for combining text with three-dimensional content

Publications (2)

Publication Number Publication Date
BRPI0721452A2 BRPI0721452A2 (pt) 2014-03-25
BRPI0721452B1 true BRPI0721452B1 (pt) 2020-03-03

Family

ID=39223104

Family Applications (1)

Application Number Title Priority Date Filing Date
BRPI0721452-9A BRPI0721452B1 (pt) 2007-03-16 2007-12-19 Sistema e método para combinar texto com conteúdo de imagem tridimensional

Country Status (11)

Country Link
US (2) US9769462B2 (pt)
EP (2) EP2157803B1 (pt)
JP (1) JP5132690B2 (pt)
KR (1) KR101842622B1 (pt)
CN (2) CN101653011A (pt)
AT (1) ATE472230T1 (pt)
BR (1) BRPI0721452B1 (pt)
CA (1) CA2680724C (pt)
DE (1) DE602007007369D1 (pt)
MX (1) MX2009009871A (pt)
WO (1) WO2008115222A1 (pt)

Families Citing this family (127)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102044130B1 (ko) * 2007-04-12 2019-11-12 돌비 인터네셔널 에이비 비디오 인코딩 및 디코딩의 타일링
WO2009083863A1 (en) * 2007-12-20 2009-07-09 Koninklijke Philips Electronics N.V. Playback and overlay of 3d graphics onto 3d video
GB0805924D0 (en) * 2008-04-02 2008-05-07 Hibbert Ralph Animation Storyboard creation system
CN102137270B (zh) * 2008-07-25 2014-09-03 皇家飞利浦电子股份有限公司 字幕的3d显示处理
KR101633627B1 (ko) * 2008-10-21 2016-06-27 코닌클리케 필립스 엔.브이. 입력 3차원 비디오 신호를 프로세싱하는 방법 및 시스템
WO2010058977A2 (en) * 2008-11-21 2010-05-27 Lg Electronics Inc. Recording medium, data recording/reproducing method and data recording/reproducing apparatus
EP2320667A1 (en) 2009-10-20 2011-05-11 Koninklijke Philips Electronics N.V. Combining 3D video auxiliary data
CN102224737B (zh) * 2008-11-24 2014-12-03 皇家飞利浦电子股份有限公司 组合三维视频和辅助数据
WO2010062104A2 (ko) * 2008-11-25 2010-06-03 엘지전자(주) 기록매체, 데이터 기록/재생 방법 및 데이터 기록/재생 장치
JP5577348B2 (ja) * 2008-12-01 2014-08-20 アイマックス コーポレイション 内容順応情報を有する3次元動画提示方法及びシステム
US8358331B2 (en) 2008-12-02 2013-01-22 Lg Electronics Inc. 3D caption display method and 3D display apparatus for implementing the same
US8599242B2 (en) * 2008-12-02 2013-12-03 Lg Electronics Inc. Method for displaying 3D caption and 3D display apparatus for implementing the same
BRPI0917764B1 (pt) * 2008-12-19 2021-03-16 Koninklijke Philips N.V. método de decodificação e envio de informação de vídeo adequado para apresentação tridimensional [3d] e dispositivo para decodificação e envio de informação de vídeo adequado para monitor tridimensional [3d]
CN102273209B (zh) * 2009-01-08 2014-08-20 Lg电子株式会社 3d字幕信号发送方法和3d字幕显示方法
WO2010084437A2 (en) * 2009-01-20 2010-07-29 Koninklijke Philips Electronics N.V. Transferring of 3d image data
WO2010085074A2 (en) * 2009-01-20 2010-07-29 Lg Electronics Inc. Three-dimensional subtitle display method and three-dimensional display device for implementing the same
JP5573682B2 (ja) * 2009-01-22 2014-08-20 日本電気株式会社 立体映像鑑賞システム、表示システム、光シャッタおよび立体映像鑑賞方法
US8269821B2 (en) 2009-01-27 2012-09-18 EchoStar Technologies, L.L.C. Systems and methods for providing closed captioning in three-dimensional imagery
US9544569B2 (en) 2009-02-12 2017-01-10 Lg Electronics Inc. Broadcast receiver and 3D subtitle data processing method thereof
CN102439980B (zh) * 2009-02-12 2014-12-10 Lg电子株式会社 广播接收机及其3d字幕数据处理方法
EP2400767A4 (en) 2009-02-17 2012-09-05 Samsung Electronics Co Ltd METHOD AND APPARATUS FOR GRAPHICAL IMAGE PROCESSING
KR101659576B1 (ko) * 2009-02-17 2016-09-30 삼성전자주식회사 영상 처리 방법 및 장치
MX2011008609A (es) 2009-02-17 2011-09-09 Koninklije Philips Electronics N V Combinar datos de imagen tridimensional y graficos.
US8284236B2 (en) * 2009-02-19 2012-10-09 Sony Corporation Preventing interference between primary and secondary content in a stereoscopic display
CA2752691C (en) * 2009-02-27 2017-09-05 Laurence James Claydon Systems, apparatus and methods for subtitling for stereoscopic content
US20110187708A1 (en) * 2009-04-21 2011-08-04 Panasonic Corporation Image processor and image processing method
JP5400467B2 (ja) * 2009-05-01 2014-01-29 キヤノン株式会社 映像出力装置、その制御方法、及びプログラム
JP2011041249A (ja) 2009-05-12 2011-02-24 Sony Corp データ構造および記録媒体、並びに、再生装置、再生方法、プログラム、およびプログラム格納媒体
KR20100128233A (ko) * 2009-05-27 2010-12-07 삼성전자주식회사 영상 처리 방법 및 장치
WO2010151027A2 (ko) * 2009-06-22 2010-12-29 엘지전자 주식회사 영상표시장치 및 그 동작방법
WO2010151555A1 (en) * 2009-06-24 2010-12-29 Dolby Laboratories Licensing Corporation Method for embedding subtitles and/or graphic overlays in a 3d or multi-view video data
TW201119353A (en) 2009-06-24 2011-06-01 Dolby Lab Licensing Corp Perceptual depth placement for 3D objects
TW201116041A (en) * 2009-06-29 2011-05-01 Sony Corp Three-dimensional image data transmission device, three-dimensional image data transmission method, three-dimensional image data reception device, three-dimensional image data reception method, image data transmission device, and image data reception
JP2011030182A (ja) * 2009-06-29 2011-02-10 Sony Corp 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
JP2011030180A (ja) * 2009-06-29 2011-02-10 Sony Corp 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
JP5521486B2 (ja) * 2009-06-29 2014-06-11 ソニー株式会社 立体画像データ送信装置および立体画像データ送信方法
KR101596832B1 (ko) * 2009-06-30 2016-02-23 엘지전자 주식회사 기록매체, 데이터 기록/재생 방법 및 데이터 기록/재생 장치
WO2011006104A1 (en) * 2009-07-10 2011-01-13 Dolby Laboratories Licensing Corporation Modifying images for a 3-dimensional display mode
US20110012993A1 (en) * 2009-07-14 2011-01-20 Panasonic Corporation Image reproducing apparatus
WO2011008821A1 (en) * 2009-07-15 2011-01-20 Home Box Office, Inc. Identification of 3d format and graphics rendering on 3d displays
JP2011029849A (ja) * 2009-07-23 2011-02-10 Sony Corp 受信装置、通信システム、立体画像への字幕合成方法、プログラム、及びデータ構造
EP2282550A1 (en) 2009-07-27 2011-02-09 Koninklijke Philips Electronics N.V. Combining 3D video and auxiliary data
CN102474638B (zh) 2009-07-27 2015-07-01 皇家飞利浦电子股份有限公司 组合3d视频与辅助数据
TWI422213B (zh) * 2009-07-29 2014-01-01 Mstar Semiconductor Inc 影像畫面偵測裝置及其方法
KR20110018261A (ko) * 2009-08-17 2011-02-23 삼성전자주식회사 텍스트 서브타이틀 데이터 처리 방법 및 재생 장치
GB2473282B (en) 2009-09-08 2011-10-12 Nds Ltd Recommended depth value
JP4733764B2 (ja) * 2009-11-10 2011-07-27 パナソニック株式会社 三次元映像処理装置及び三次元映像処理方法
KR20110053159A (ko) * 2009-11-13 2011-05-19 삼성전자주식회사 비디오 부가 재생 정보의 3차원 재생을 위한 멀티미디어 스트림 생성 방법과 그 장치, 및 수신 방법과 그 장치
US20130002656A1 (en) * 2010-01-13 2013-01-03 Thomson Licensing System and method for combining 3d text with 3d content
US8565516B2 (en) * 2010-02-05 2013-10-22 Sony Corporation Image processing apparatus, image processing method, and program
WO2011105992A1 (en) * 2010-02-24 2011-09-01 Thomson Licensing Subtitling for stereoscopic images
CN102812711B (zh) * 2010-02-25 2016-11-02 汤姆森特许公司 利用视差估计和视差时间变化限制的立体字幕加载
WO2011104151A1 (en) 2010-02-26 2011-09-01 Thomson Licensing Confidence map, method for generating the same and method for refining a disparity map
US9426441B2 (en) 2010-03-08 2016-08-23 Dolby Laboratories Licensing Corporation Methods for carrying and transmitting 3D z-norm attributes in digital TV closed captioning
EP2524513A4 (en) * 2010-03-12 2014-06-25 Sony Corp SERVICE LINKING FOR THE TRANSPORT OF DIFFERENT SUBTITLING DATA
US8817072B2 (en) 2010-03-12 2014-08-26 Sony Corporation Disparity data transport and signaling
JP2011216937A (ja) * 2010-03-31 2011-10-27 Hitachi Consumer Electronics Co Ltd 立体画像表示装置
CN102845067B (zh) 2010-04-01 2016-04-20 汤姆森许可贸易公司 三维(3d)呈现中的字幕
EP2375761A3 (en) * 2010-04-07 2013-05-29 Sony Corporation Image synthesis apparatus, image synthesis method and program
JP5960679B2 (ja) 2010-04-14 2016-08-02 サムスン エレクトロニクス カンパニー リミテッド ビットストリームの生成方法、生成装置、受信方法及び受信装置
JP5143856B2 (ja) 2010-04-16 2013-02-13 株式会社ソニー・コンピュータエンタテインメント 3次元画像表示装置、および3次元画像表示方法
WO2011135857A1 (ja) * 2010-04-28 2011-11-03 パナソニック株式会社 画像変換装置
CN102511047A (zh) * 2010-05-14 2012-06-20 联发科技(新加坡)私人有限公司 视频节目的字幕消除方法以及相关视频显示系统
WO2011152633A2 (en) * 2010-05-30 2011-12-08 Lg Electronics Inc. Method and apparatus for processing and receiving digital broadcast signal for 3-dimensional subtitle
JP5682149B2 (ja) * 2010-06-10 2015-03-11 ソニー株式会社 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
TWI462567B (zh) * 2010-06-18 2014-11-21 Realtek Semiconductor Corp 三維處理電路及處理方法
JP5505637B2 (ja) * 2010-06-24 2014-05-28 ソニー株式会社 立体表示装置および立体表示装置の表示方法
CN105812771B (zh) * 2010-06-27 2017-12-08 Lg电子株式会社 数字接收器以及在数字接收器中处理字幕数据的方法
CN102300106B (zh) * 2010-06-28 2014-03-12 瑞昱半导体股份有限公司 三维处理电路及处理方法
US20110316972A1 (en) * 2010-06-29 2011-12-29 Broadcom Corporation Displaying graphics with three dimensional video
US10326978B2 (en) 2010-06-30 2019-06-18 Warner Bros. Entertainment Inc. Method and apparatus for generating virtual or augmented reality presentations with 3D audio positioning
JP4996720B2 (ja) * 2010-06-30 2012-08-08 株式会社東芝 画像処理装置、画像処理プログラム、及び画像処理方法
US8917774B2 (en) 2010-06-30 2014-12-23 Warner Bros. Entertainment Inc. Method and apparatus for generating encoded content using dynamically optimized conversion
US9591374B2 (en) * 2010-06-30 2017-03-07 Warner Bros. Entertainment Inc. Method and apparatus for generating encoded content using dynamically optimized conversion for 3D movies
US8755432B2 (en) 2010-06-30 2014-06-17 Warner Bros. Entertainment Inc. Method and apparatus for generating 3D audio positioning using dynamically optimized audio 3D space perception cues
US9699438B2 (en) * 2010-07-02 2017-07-04 Disney Enterprises, Inc. 3D graphic insertion for live action stereoscopic video
KR20120004203A (ko) * 2010-07-06 2012-01-12 삼성전자주식회사 디스플레이 방법 및 장치
CN101902582B (zh) * 2010-07-09 2012-12-19 清华大学 一种立体视频字幕添加方法及装置
EP2596641A4 (en) * 2010-07-21 2014-07-30 Thomson Licensing METHOD AND DEVICE FOR PROVIDING ADDITIONAL CONTENT IN A 3D COMMUNICATION SYSTEM
CN103329542A (zh) * 2010-07-21 2013-09-25 汤姆森特许公司 在3d通信系统中提供补充内容的方法和设备
KR101809479B1 (ko) * 2010-07-21 2017-12-15 삼성전자주식회사 3d 콘텐츠 재생 장치 및 방법
IT1401367B1 (it) 2010-07-28 2013-07-18 Sisvel Technology Srl Metodo per combinare immagini riferentesi ad un contenuto tridimensionale.
US9571811B2 (en) 2010-07-28 2017-02-14 S.I.Sv.El. Societa' Italiana Per Lo Sviluppo Dell'elettronica S.P.A. Method and device for multiplexing and demultiplexing composite images relating to a three-dimensional content
US8605136B2 (en) 2010-08-10 2013-12-10 Sony Corporation 2D to 3D user interface content data conversion
JP2012044625A (ja) * 2010-08-23 2012-03-01 Sony Corp 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
CN102137264B (zh) * 2010-08-25 2013-03-13 华为技术有限公司 一种三维电视中图形文本显示的控制方法及设备、系统
CN103152596B (zh) * 2010-08-25 2015-05-06 华为技术有限公司 一种三维电视中图形文本显示的控制方法及设备、系统
KR101724704B1 (ko) * 2010-08-27 2017-04-07 삼성전자주식회사 3차원 영상 구현 방법 및 장치
EP2612501B1 (en) * 2010-09-01 2018-04-25 LG Electronics Inc. Method and apparatus for processing and receiving digital broadcast signal for 3-dimensional display
JP5633259B2 (ja) * 2010-09-06 2014-12-03 ソニー株式会社 立体画像データ送信装置、立体画像データ送信方法および立体画像データ受信装置
KR20120037858A (ko) * 2010-10-12 2012-04-20 삼성전자주식회사 입체영상표시장치 및 그 ui 제공 방법
US8537201B2 (en) * 2010-10-18 2013-09-17 Silicon Image, Inc. Combining video data streams of differing dimensionality for concurrent display
JP2012120143A (ja) * 2010-11-10 2012-06-21 Sony Corp 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
TWI538475B (zh) 2010-12-03 2016-06-11 皇家飛利浦電子股份有限公司 用於輸出一個三維影像信號之3d源裝置、用於接收該三維影像信號之3d標的裝置、產生及消耗該三維影像信號之方法、及電腦程式產品
CN102487447B (zh) * 2010-12-06 2015-10-14 晨星软件研发(深圳)有限公司 调整物件三维深度的方法与装置、以及检测物件三维深度的方法与装置
JP4908624B1 (ja) * 2010-12-14 2012-04-04 株式会社東芝 立体映像信号処理装置及び方法
GB2488746B (en) * 2010-12-23 2016-10-26 Samsung Electronics Co Ltd Improvements to subtitles for three dimensional video transmission
CN103339658A (zh) * 2011-01-30 2013-10-02 诺基亚公司 用于三维立体显示器的方法、设备和计算机程序产品
JP4892105B1 (ja) * 2011-02-21 2012-03-07 株式会社東芝 映像処理装置、映像処理方法および映像表示装置
JP2012174237A (ja) 2011-02-24 2012-09-10 Nintendo Co Ltd 表示制御プログラム、表示制御装置、表示制御システム、及び表示制御方法
EP2697975A1 (en) 2011-04-15 2014-02-19 Dolby Laboratories Licensing Corporation Systems and methods for rendering 3d images independent of display size and viewing distance
CN102186023B (zh) * 2011-04-27 2013-01-02 四川长虹电器股份有限公司 一种双目立体字幕处理方法
WO2012150100A1 (en) * 2011-05-02 2012-11-08 Thomson Licensing Smart stereo graphics inserter for consumer devices
US20120293636A1 (en) * 2011-05-19 2012-11-22 Comcast Cable Communications, Llc Automatic 3-Dimensional Z-Axis Settings
CN107105212A (zh) * 2011-06-21 2017-08-29 Lg电子株式会社 用于处理3维广播服务的广播信号的方法和设备
KR101975247B1 (ko) * 2011-09-14 2019-08-23 삼성전자주식회사 영상 처리 장치 및 그 영상 처리 방법
FR2982448A1 (fr) * 2011-11-07 2013-05-10 Thomson Licensing Procede de traitement d'image stereoscopique comprenant un objet incruste et dispositif correspondant
US9300980B2 (en) * 2011-11-10 2016-03-29 Luca Rossato Upsampling and downsampling of motion maps and other auxiliary maps in a tiered signal quality hierarchy
KR101830656B1 (ko) 2011-12-02 2018-02-21 엘지전자 주식회사 이동 단말기 및 이의 제어방법
KR101899324B1 (ko) * 2011-12-28 2018-09-18 삼성전자주식회사 3d 입체 영상을 제공하는 디스플레이 장치 및 방법
KR101309783B1 (ko) * 2011-12-30 2013-09-23 삼성전자주식회사 디스플레이 장치 및 방법
US9418436B2 (en) * 2012-01-27 2016-08-16 Panasonic Intellectual Property Management Co., Ltd. Image processing apparatus, imaging apparatus, and image processing method
EP2627093A3 (en) 2012-02-13 2013-10-02 Thomson Licensing Method and device for inserting a 3D graphics animation in a 3D stereo content
CN102663665B (zh) * 2012-03-02 2014-04-09 清华大学 具有自适应深度的立体图像图文标签的显示和编辑方法
EP2658266B1 (en) 2012-04-24 2015-05-27 Vestel Elektronik Sanayi ve Ticaret A.S. Text aware virtual view rendering
JP6092525B2 (ja) * 2012-05-14 2017-03-08 サターン ライセンシング エルエルシーSaturn Licensing LLC 画像処理装置、情報処理システム、画像処理方法およびプログラム
CN103475831A (zh) * 2012-06-06 2013-12-25 晨星软件研发(深圳)有限公司 应用于显示装置的字幕控制方法与元件
US9413985B2 (en) * 2012-09-12 2016-08-09 Lattice Semiconductor Corporation Combining video and audio streams utilizing pixel repetition bandwidth
RU2556451C2 (ru) * 2013-06-06 2015-07-10 Общество с ограниченной ответственностью "Триаксес Вижн" СПОСОБ КОМПОНОВКИ ФОРМАТА ЦИФРОВОГО СТЕРЕОСКОПИЧЕСКОГО ВИДЕОПОТОКА 3DD Tile Format
CN103856689B (zh) * 2013-10-31 2017-01-18 北京中科模识科技有限公司 面向新闻视频的人物对话字幕提取方法
CN104581128A (zh) * 2014-12-29 2015-04-29 青岛歌尔声学科技有限公司 一种头戴显示装置及在该装置中显示外部图像信息的方法
JP2016001476A (ja) * 2015-07-10 2016-01-07 任天堂株式会社 表示制御プログラム、表示制御装置、表示制御システム、及び表示制御方法
JP6391629B2 (ja) * 2016-06-27 2018-09-19 トムソン ライセンシングThomson Licensing 3dテキストを3dコンテンツと合成するシステムおよび方法
KR20180045609A (ko) * 2016-10-26 2018-05-04 삼성전자주식회사 전자 장치 및 전자 장치의 표시 방법
KR102161734B1 (ko) 2017-04-11 2020-10-05 돌비 레버러토리즈 라이쎈싱 코오포레이션 계층화된 증강 엔터테인먼트 경험
KR20180131856A (ko) * 2017-06-01 2018-12-11 에스케이플래닛 주식회사 배송 물품 정보 제공 방법 및 이를 위한 장치
CN108509398B (zh) * 2018-03-28 2019-04-12 掌阅科技股份有限公司 对话小说的生成方法、计算设备及计算机存储介质

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS583056A (ja) 1981-06-30 1983-01-08 Fujitsu Ltd 図形表示処理システムにおける文字表示処理方式
US4925294A (en) 1986-12-17 1990-05-15 Geshwind David M Method to convert two dimensional motion pictures for three-dimensional systems
JPH0744701B2 (ja) * 1986-12-27 1995-05-15 日本放送協会 立体ス−パ−インポ−ズ装置
JPH01150981A (ja) 1987-12-08 1989-06-13 Hitachi Ltd 三次元グラフイツクデイスプレイ装置
AUPN087195A0 (en) 1995-02-01 1995-02-23 Trannys Pty Ltd Three dimensional enhancement
US5784097A (en) * 1995-03-29 1998-07-21 Sanyo Electric Co., Ltd. Three-dimensional image display device
JP2001283247A (ja) 2000-03-31 2001-10-12 Mitsubishi Electric Systemware Corp 三次元形状表示装置及び三次元形状表示方法及びプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2001326947A (ja) * 2000-05-12 2001-11-22 Sony Corp 立体画像表示装置
WO2003051031A2 (en) * 2001-12-06 2003-06-19 The Trustees Of Columbia University In The City Of New York Method and apparatus for planarization of a material by growing and removing a sacrificial film
JP2003260265A (ja) 2002-03-08 2003-09-16 Square Enix Co Ltd ビデオゲーム装置、記録媒体およびプログラム
US6956566B2 (en) 2002-05-23 2005-10-18 Hewlett-Packard Development Company, L.P. Streaming of images with depth for three-dimensional graphics
WO2004021285A1 (ja) * 2002-08-27 2004-03-11 Sharp Kabushiki Kaisha 最適な再生モードでコンテンツを再生できるコンテンツ再生装置
JP2004145832A (ja) 2002-08-29 2004-05-20 Sharp Corp コンテンツ作成装置、コンテンツ編集装置、コンテンツ再生装置、コンテンツ作成方法、コンテンツ編集方法、コンテンツ再生方法、コンテンツ作成プログラム、コンテンツ編集プログラム、および携帯通信端末
AU2002952873A0 (en) * 2002-11-25 2002-12-12 Dynamic Digital Depth Research Pty Ltd Image encoding system
JP4436762B2 (ja) * 2002-12-16 2010-03-24 三洋電機株式会社 立体映像生成装置及び立体映像配信方法
JP2004274125A (ja) * 2003-03-05 2004-09-30 Sony Corp 画像処理装置および方法
RU2407224C2 (ru) 2005-04-19 2010-12-20 Конинклейке Филипс Электроникс Н.В. Восприятие глубины
US7586495B2 (en) * 2006-12-29 2009-09-08 Intel Corporation Rendering multiple clear rectangles using a pre-rendered depth buffer
MX2011008609A (es) 2009-02-17 2011-09-09 Koninklije Philips Electronics N V Combinar datos de imagen tridimensional y graficos.

Also Published As

Publication number Publication date
EP2157803B1 (en) 2015-02-25
CA2680724A1 (en) 2008-09-25
US20100238267A1 (en) 2010-09-23
US20170310951A1 (en) 2017-10-26
EP2140688A1 (en) 2010-01-06
KR20090120492A (ko) 2009-11-24
CA2680724C (en) 2016-01-26
EP2140688B1 (en) 2010-06-23
US10200678B2 (en) 2019-02-05
BRPI0721452A2 (pt) 2014-03-25
US9769462B2 (en) 2017-09-19
WO2008115222A1 (en) 2008-09-25
CN105263012A (zh) 2016-01-20
MX2009009871A (es) 2010-05-19
EP2157803A1 (en) 2010-02-24
JP2010521738A (ja) 2010-06-24
DE602007007369D1 (de) 2010-08-05
KR101842622B1 (ko) 2018-03-27
JP5132690B2 (ja) 2013-01-30
CN101653011A (zh) 2010-02-17
ATE472230T1 (de) 2010-07-15

Similar Documents

Publication Publication Date Title
BRPI0721452B1 (pt) Sistema e método para combinar texto com conteúdo de imagem tridimensional
CN109479098B (zh) 多视图场景分割和传播
EP2524510B1 (en) System and method for combining 3d text with 3d content
JP4879326B2 (ja) 3次元画像を合成するシステム及び方法
US9241149B2 (en) Subtitles in three-dimensional (3D) presentation
Hu et al. Speaker-following video subtitles
KR100888081B1 (ko) 2차원 영상 신호의 3차원 영상 신호로의 변환 절차 및 변환장치
BRPI0621997A2 (pt) mÉtodo e sistema para aquisiÇço de modelo tridimensional
BRPI1100216A2 (pt) mÉtodo e aparelho de corte, e , programa de computador
KR20110021875A (ko) 스테레오스코픽 모션 픽쳐들의 잠재적인 아이스트레인을 측정하기 위한 시스템 및 방법
BR112014006130B1 (pt) Aparelho e método de processamento de imagem
CA2727397A1 (en) System and method for marking a stereoscopic film
KR100573983B1 (ko) 3차원 가상현실 콘텐츠 구현 시스템 및 구현 방법
Tompkin et al. Preference and artifact analysis for video transitions of places
JP6391629B2 (ja) 3dテキストを3dコンテンツと合成するシステムおよび方法
Delis et al. Automatic 3d defects identification in stereoscopic videos
JP2011119926A (ja) 映像処理装置、映像処理方法及びコンピュータプログラム
US20240155095A1 (en) Systems and methods for processing volumetric images
Takacs et al. MultiView Mannequins for Deep Depth Estimation in 360º Videos
Foessel et al. Light-Field Acquisition and Processing System for Film Productions

Legal Events

Date Code Title Description
B06F Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette]
B06T Formal requirements before examination [chapter 6.20 patent gazette]
B15K Others concerning applications: alteration of classification

Free format text: A CLASSIFICACAO ANTERIOR ERA: H04N 13/00

Ipc: H04N 13/275 (2018.01), H04N 13/156 (2018.01), H04N

B25G Requested change of headquarter approved

Owner name: THOMSON LICENSING (FR)

B25G Requested change of headquarter approved

Owner name: THOMSON LICENSING (FR)

B25A Requested transfer of rights approved

Owner name: INTERDIGITAL CE PATENT HOLDINGS (FR)

B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 10 (DEZ) ANOS CONTADOS A PARTIR DE 03/03/2020, OBSERVADAS AS CONDICOES LEGAIS.