BRPI0721452A2 - Sistema e método para combinar texto com conteúdo tridimensional - Google Patents

Sistema e método para combinar texto com conteúdo tridimensional Download PDF

Info

Publication number
BRPI0721452A2
BRPI0721452A2 BRPI0721452-9A BRPI0721452A BRPI0721452A2 BR PI0721452 A2 BRPI0721452 A2 BR PI0721452A2 BR PI0721452 A BRPI0721452 A BR PI0721452A BR PI0721452 A2 BRPI0721452 A2 BR PI0721452A2
Authority
BR
Brazil
Prior art keywords
text
content
maximum depth
depth value
dimensional
Prior art date
Application number
BRPI0721452-9A
Other languages
English (en)
Inventor
Izzat Izzat
Dong-Qing Zhang
Yousef Wasef Nijim
Original Assignee
Thomson Licensing
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing filed Critical Thomson Licensing
Publication of BRPI0721452A2 publication Critical patent/BRPI0721452A2/pt
Publication of BRPI0721452B1 publication Critical patent/BRPI0721452B1/pt

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/293Generating mixed stereoscopic images; Generating mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/361Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/003Aspects relating to the "2D+depth" image format

Description

“SISTEMA E MÉTODO PARA COMBINAR TEXTO COM CONTEÚDO TRIDIMENSIONAL” Esse pedido reivindica o benefício de acordo com 35 U.S.C.§ 119 de um pedido provisional 60/918635 depositado nos Estados Unidos em 16 de março de 2007.
Campo técnico da invenção
A presente revelação refere-se genericamente a sistemas de exibição e processa- mento de imagem, e mais particularmente, a um sistema e método para combinar texto com conteúdo tridimensional.
Antecedentes da invenção
Há dois tipos de texto que podem ser adicionados a vídeo: legendas para ouvintes e legendas para deficientes auditivos. Dito em termos gerais, legendas são destinadas a audiências que ouvem e legendas para audiências surdas. Legendas para ouvintes podem traduzir o diálogo em um idioma diferente, porém raramente mostram todo o áudio. Por e- xemplo, legendas para deficientes auditivos mostram efeitos de som (por exemplo, “telefone tocando” e “passos”), enquanto legendas para ouvintes não mostram.
Legendas ocultas são legendas que são ocultas em um sinal de vídeo, invisíveis sem um decodificador especial. As legendas ocultas são ocultas, por exemplo, na linha 21 do intervalo de supressão de linha (VBI). Legendas abertas são legendas que foram decodi- ficadas, assim se tornaram parte integral da imagem da televisão, como legendas para ou- vintes em um filme. Em outras palavras, legendas abertas não podem ser desligadas. O termo “legendas abertas” também é utilizado para se referir a legendas para ouvintes cria- das com um gerador de caracteres.
O uso de texto em vídeo bidimensional 2D é conhecido por aqueles versados na técnica. O interesse atual em filme e vídeo tridimensional 3D criou a necessidade de técni- cas para acrescentar texto ao conteúdo 3D. Portanto, existe uma necessidade por técnicas para otimizar a inserção de texto em conteúdo 3D de tal modo que o texto adicionado não obstrua os efeitos 3D no conteúdo 3D e não crie fadiga visual quando o conteúdo 3D é visto.
Sumário
De acordo com um aspecto da presente revelação, são fornecidos sistema e méto- do para combinar e/ou exibir texto com conteúdo tridimensional 3D. O sistema e método inserem texto no mesmo nível como o valor de profundidade mais elevado no conteúdo 3D. Um exemplo de conteúdo 3D é uma imagem bidimensional e um mapa de profundidade as- sociado. Nesse caso, o valor de profundidade do texto inserido é ajustado para casar com o valor de profundidade maior do mapa de profundidade dado. Outro exemplo de conteúdo de 3D é uma pluralidade de imagens bidimensionais e mapas de profundidade associados. Nesse caso, o valor de profundidade do texto inserido é continuamente ajustado para casar com o valor de profundidade maior de um mapa de profundidade dado. Um exemplo adicio- nal de conteúdo 3D é conteúdo estereoscópico tendo uma imagem de olho direito e uma imagem de olho esquerdo. Nesse caso o texto em uma da imagem de olho esquerdo e ima- gem de olho direito é deslocado para casar com o valor de profundidade maior na imagem estereoscópica. Ainda outro exemplo de conteúdo 3D é conteúdo estereoscópico tendo uma pluralidade de imagens de olho direito e imagens de olho esquerdo. Nesse caso o texto em uma das imagens de olho esquerdo ou imagens de olho direito é continuamente deslocada para casar com o valor de profundidade maior nas imagens estereoscópicas. Como resulta- do, o sistema e método da presente revelação produzem texto combinado com conteúdo 3D onde o texto não obstrui os efeitos 3D no conteúdo 3D e não cria fadiga visual quando visto por um telespectador.
De acordo com outro aspecto da presente revelação, um método para combinar texto com conteúdo de imagem tridimensional que recebe conteúdo de imagem tridimensio- nal, determinar um valor de profundidade máximo para o conteúdo tridimensional, e combi- nar texto com conteúdo de imagem tridimensional no valor máximo de profundidade.
De acordo com um aspecto adicional da presente revelação, um método de exibir texto com conteúdo de imagem tridimensional inclui receber conteúdo de imagem tridimen- sional e texto, o conteúdo de imagem tridimensional tendo um valor máximo de profundida- de, exibir o conteúdo de imagem tridimensional e exibir o texto no valor máximo de profundi- dade.
De acordo ainda com outro aspecto da presente revelação, um sistema para com- binar texto com conteúdo de imagem tridimensional inclui meio para receber conteúdo de imagem tridimensional, meio para determinar um valor máximo de profundidade para o con- teúdo tridimensional, e meio para combinar texto com o conteúdo de imagem tridimensional no valor máximo de profundidade.
De acordo ainda com um aspecto adicional da presente revelação, um sistema para exibir texto com conteúdo de imagem tridimensional inclui meio para receber conteúdo de imagem tridimensional e texto, o conteúdo de imagem tridimensional tendo um valor máximo de profundidade, meio para exibir o conteúdo de imagem tridimensional e meio para exibir o texto no valor máximo de profundidade.
Breve descrição dos desenhos
Esses e outros aspectos, características e vantagens da presente revelação serão descritos ou se tornarão evidentes a partir da seguinte descrição detalhada das modalidades preferidas, que deve ser lida com relação aos desenhos em anexo.
Nos desenhos, onde numerais de referência similares indicam elementos similares em todas as vistas:
A figura 1 é uma ilustração exemplar de um sistema para combinar texto com con- teúdo tridimensional de acordo com um aspecto da presente revelação;
A figura 2 ilustra um exemplo de uma imagem 2D e um mapa de profundidade as- sociado à imagem 2D;
A figura 3 ilustra um exemplo de texto adicionado à imagem 2D e o mapa de pro- fundidade associado à imagem 2D de acordo com a presente revelação;
A figura 4 é um fluxograma que ilustra um processo de inserção de legenda para ouvintes off-line de acordo com a presente revelação;
A figura 5 é um fluxograma que ilustra um processo de inserção de legenda para ouvintes on-line de acordo com a presente revelação;
A figura 6 ilustra um processo de inserção e detecção de legenda para ouvintes on- line de acordo com a presente revelação; e A figura 7 ilustra um exemplo de texto combinado com um par estéreo de acordo
com a presente revelação.
Deve ser entendido que o(s) desenho(s) é (são) para fins de ilustrar os conceitos da revelação e não é (são) necessariamente a única configuração possível para ilustrar a reve- lação.
Descrição detalhada de modalidades preferidas
Deve ser entendido que os elementos mostrados nas figuras podem ser implemen- tados em várias formas de hardware, software ou combinações dos mesmos. Preferivelmen- te, esses elementos são implementados em uma combinação de hardware e software em um ou mais dispositivos de propósito geral apropriadamente programados, que podem inclu- ir um processador, memória e interfaces de entrada/saída.
A presente descrição ilustra os princípios da presente revelação. Será desse modo reconhecido que aqueles versados na técnica serão capazes de idealizar vários arranjos que, embora não explicitamente descritos ou mostrados aqui, incorporam os princípios da revelação e são incluídos em seu espírito e escopo.
Todos os exemplos e linguagem condicional mencionados aqui são para fins peda-
gógicos para auxiliar o leitor a entender os princípios da revelação e os conceitos contribuí- dos pelo inventor para incrementar a técnica, e devem ser interpretados como sendo sem limitação a tais exemplos e condições especificamente mencionados.
Além disso, todas as afirmações aqui que mencionam princípios, aspectos e moda- 30 Iidades da revelação, bem como exemplos específicos das mesmas, pretendem abranger equivalentes tanto estruturais como funcionais das mesmas. Adicionalmente, pretende-se que tais equivalentes incluam tanto equivalentes atualmente conhecidos como equivalente desenvolvidos no futuro, isto é, quaisquer elementos desenvolvidos que realizem a mesma função, independente de estrutura.
Desse modo, por exemplo, será reconhecido por aqueles versados na técnica que
os diagramas de blocos apresentados aqui representam vistas conceptuais de conjuntos de circuitos ilustrativos que incorporam os princípios da revelação. Similarmente, será reconhe- cido que quaisquer fluxogramas, diagramas de fluxo, diagramas de transição de estado, pseudocódigo, e similar representam vários processos que podem ser substancialmente representados em meios legíveis por computador e desse modo executados por um compu- tador ou processador, quer ou não esse computador ou processador seja explicitamente mostrado.
As funções dos vários elementos mostrados nas figuras podem ser fornecidas atra- vés do uso de hardware dedicado bem como hardware capaz de executar software em as- sociação a software apropriado. Quando fornecido por um processador, as funções podem ser fornecidas por um processador dedicado único, por um processador compartilhado úni- 10 co, ou por uma pluralidade de processadores individuais, alguns dos quais podem ser com- partilhados. Além disso, o uso explícito do termo “processador” ou “controlador” não deve ser interpretado como se referindo exclusivamente a hardware capaz de executar software, e pode incluir implicitamente, sem limitação, hardware de processador de sinais digitais “DSP”, memória somente de leitura “ROM” para armazenar software, memória de acesso 15 aleatório “RAM” e armazenagem não volátil.
O outro hardware, convencional e/ou customizado, também pode ser incluído. Simi- larmente, quaisquer comutações mostradas nas figuras são somente conceptuais. Sua fun- ção pode ser realizada através da operação de lógica de programa, através de lógica dedi- cada, através da interação de controle de programa e lógica dedicada, ou mesmo manual- 20 mente, a técnica específica sendo selecionável pelo implementador como entendido mais especificamente a partir do contexto.
Nas reivindicações do presente, qualquer elemento expresso como meio para exe- cutar uma função específica pretende abranger qualquer modo de executar aquela função incluindo, por exemplo, a) uma combinação de elementos de circuito que executa aquela 25 função ou b) software em qualquer forma, incluindo, portanto, firmware, microcódigo ou simi- lar, combinado com conjunto de circuitos apropriado para executar aquele software para realizar a função. A revelação como definido por tais reivindicações reside no fato de que as funcionalidades fornecidas pelos vários meios mencionados são combinadas e unidas no modo que as reivindicações exigem. Desse modo, é considerado que qualquer meio que 30 possa fornecer essas funcionalidades é equivalente àqueles mostrados aqui.
Com referência agora à figura 1, componentes de sistema exemplares 10, de acor- do com uma modalidade da presente revelação, são mostrados. Um dispositivo de varredu- ra 12 pode ser fornecido para varrer cópias de filme 14, por exemplo, negativos de filme ori- ginal de câmera, em um formato digital, por exemplo, um formato Cineon ou arquivos de 35 Society of Motion Picture and Television Engineers (SMPTE) Digital Picture Exchange (DPX). O dispositivo de varredura 12 pode compreender, por exemplo, um telecine ou qual- quer dispositivo que gerará uma saída de vídeo a partir do filme como, por exemplo, um Arri LocPro™ com saída de vídeo. Alternativamente, arquivos a partir do processo pós-produção ou cinema digital 16 (por exemplo, arquivos já em forma legível por computador) podem ser utilizados diretamente. Fontes em potencial de arquivos legíveis por computador são edito- res AVID™, arquivos DPX, fitas D5, etc. Além disso, o conteúdo 3D (por exemplo, conteúdo estereoscópico ou imagens 2D e mapas de profundidade associados) pode ser fornecido por um dispositivo de captura 18 e arquivos de texto 20 (por exemplo, arquivos de legenda para ouvintes ou legenda para deficientes auditivos) podem ser criados a partir de um script e fornecidos ao sistema pelo supervisor de legenda para ouvintes.
As cópias de filme varridas, imagens de filme digital e/ou conteúdo 3D bem como os arquivos de texto podem ser inseridos em um dispositivo pós-processamento 22, por e- xemplo, um computador. O computador 22 pode ser implementado em qualquer uma das várias plataformas de computador conhecidas tendo hardware como uma ou mais unidades de processamento central (CPU), memória 24 como memória de acesso aleatório (RAM) e/ou memória somente de leitura (ROM) e interface(s) de usuário de entrada/saída (l/O) 26 como um teclado, dispositivo de controle de cursor (por exemplo, um mouse ou manche) e dispositivo de exibição. A plataforma de computador também inclui um sistema operacional e código de instrução micro. Os vários processos e funções descritas aqui podem fazer par- te do código de instrução micro ou parte de um programa de aplicação de software (ou uma combinação dos mesmos) que é executado através do sistema operacional. Além disso, vários outros dispositivos periféricos podem ser conectados à plataforma de computador por várias interfaces e estruturas de barramento, como porta paralela, porta serial ou barramen- to serial universal (USB). Outros dispositivos periféricos podem incluir dispositivos de arma- zenagem adicionais 28 e uma impressora 30. A impressora 30 pode ser empregada para imprimir uma versão revisada do filme 32, por exemplo, uma versão estereoscópica do filme, onde texto foi inserido em uma cena ou uma pluralidade de cenas utilizando as técnicas de inserção de texto descritas abaixo. Adicionalmente, um arquivo digital 34 do vídeo ou filme revisado pode ser gerado e fornecido a um dispositivo de exibição 3D de modo que o conte- údo 3D e texto inserido possam ser vistos por um telespectador. Alternativamente, o arquivo digital 34 pode ser armazenado no dispositivo de armazenagem 28.
Um programa de software inclui um módulo de processamento de texto 38 armaze- nado na memória 24 para combinar texto com conteúdo 3D de acordo com a presente reve- lação, como discutido em detalhes adicionais abaixo.
Há diversas técnicas para apresentar conteúdo 3D. A mais comum é meio de exibi- ção estereoscópico, que requer vidros ativo ou passivo. Meios de exibição auto- estereoscópicos, utilizando, por exemplo, Lenticular, não requerem vidros e estão se tor- nando mais disponíveis para entretenimento tanto em casa como profissional. Muitos des- ses meios de exibição operam no formato 2D + profundidade. Nesse formato, o vídeo 2D e as informações de profundidade são combinados para criar o efeito 3D.
A presente revelação é dirigida a um método para inserir legendas para ouvintes no vídeo 3D para meios de exibição do tipo estéreo e 2D+profundidade. Para meios de exibição 2D+profundidade, o método proposto insere texto de legenda para ouvintes no mesmo nível 5 que o valor de profundidade mais elevado na imagem. Mais especificamente, o valor de pro- fundidade da legenda para ouvintes inserida pode ser ajustado continuamente para casar com o valor de profundidade maior do mapa de profundidade. Para conteúdo estéreo, o mé- todo proposto ajusta o valor de disparidade da legenda para ouvintes na imagem direita. Isso produz legendas para ouvintes mais visualmente agradáveis que não obstruem os efei- 10 tos 3D do vídeo.
Legendas para ouvintes podem ser colocadas em um sinal de vídeo em um de dois modos: on-line (ao vivo) ou off-line (pós-produção). Legenda para ouvintes on-line é feita à medida que um evento ocorre. Os exemplos de legenda para ouvintes on-line são progra- mas de notícias de televisão, seminários ao vivo e eventos esportivos. Legendas para ouvin- 15 tes on-line podem ser feitas a partir de um script, ou na realidade criados em tempo real. Legenda para ouvintes off-line é feita “após o fato” em um estúdio. Os exemplos de Iegen- dagem off-line incluem shows de jogos de televisão, videoteipes ou DVDs de filmes, video- teipes de corporações (por exemplo, vídeos de treinamento), filmes fornecidos através de cabo, satélite ou Internet, ou similar. O texto da legenda para ouvintes é criado em um com- 20 putador, e sincronizado com o vídeo utilizando códigos de tempo. O texto e o vídeo são en- tão transferidos para o videoteipe antes do mesmo ser transmitido ou distribuído.
Na presente revelação, a criação e distribuição de legendas para ouvintes segue, preferivelmente, processos convencionais como conhecidos por aqueles versados na técni- ca. Por exemplo, um processo convencional é criar um arquivo de texto a partir de um script. 25 O arquivo de texto contém três valores (quadro de início, quadro final, e texto). O texto é então repetido em todos os quadros a partir do quadro de início até o quadro final. A presen- te revelação é dirigida ao ajuste do valor de profundidade do local de texto de tal modo que o valor de profundidade do local de texto case com o valor de profundidade maior no quadro de vídeo.
Há diversos formatos de conteúdo e meios de exibição no mercado incluindo este-
reoscópico, holográfico, e auto-estereoscópico entre outros. Com referência agora à figura
2, uma modalidade da presente revelação é dirigida a uma abordagem para inserção de legendas para ouvintes em meios de exibição auto-estereoscópico que operam no formato 2D+profundidade. A figura 2 ilustra um exemplo de formato de conteúdo 2D+profundidade. 35 Mais especificamente, a figura 2 ilustra dois tipos de conteúdos: uma imagem 2D 40 e um mapa de profundidade 42 da imagem 2D. O mapa de profundidade 42 define o valor de pro- fundidade em cada pixel na imagem 2D 40 com pixels claros que representam pontos pró- ximos ao telespectador, e pixels escuros que representam pontos distantes do telespecta- dor.
Como discutido acima, há dois modos para inserir legendas para ouvintes: inserção on-line para conteúdo ao vivo e inserção off-line para conteúdo pós-produção. Como discu- tido abaixo, os métodos propostos da presente revelação são dirigidos à inserção de legen- da para ouvintes tanto off-line como on-line.
Com referência agora à figura 3, um exemplo de uma caixa de texto 50 inserida em um mapa de profundidade 46 e o texto 48 adicionado à imagem 2D 40 é mostrado. A caixa de texto 48 é o texto de legenda para ouvintes, como definido pelo script, por exemplo, en- quanto a caixa de texto 50 representa um valor de profundidade constante em cada ponto da caixa de texto.
Com referência agora à figura 4, um processo de inserção off-line 52 da presente revelação é mostrado. Para inserção de legendas para ouvintes off-line, imagens de texto de legenda para ouvintes são criadas e sincronizadas com vídeo 2D utilizando códigos de tem- po em produção posterior. Os valores de profundidade do texto inserido são determinados por varredura, na etapa 54, do vídeo 3D e cálculo do valor max. da profundidade para cada quadro durante a criação de conteúdo. Uma nova caixa de texto é então inserida, na etapa
56, no local de legenda para ouvintes com valor de profundidade igual ao valor max. de pro- fundidade do quadro, e na etapa 58, a legenda para ouvintes é adicionada à imagem 2D 44. Esse processo deve ser feito para a duração do intervalo de tempo definido para a legenda para ouvintes. Deve ser observado que as etapas 56 e 58 podem ser realizadas em qual- quer ordem e podem ser executadas preferivelmente simultaneamente.
Com referência agora à figura 5, é mostrado um fluxograma da presente revelação que ilustra um processo de inserção on-line 60. No processamento on-line, o local das le- gendas para ouvintes não é sabido antecipadamente e consequentemente o valor de pro- fundidade das legendas para ouvintes não pode ser determinado do mesmo modo como descrito para processamento off-line 52. Assim que o texto de legenda para ouvintes é inse- rido, na etapa 62, o mapa de profundidade do quadro de início de legenda para ouvintes é varrido para determinar o valor max. de profundidade e na etapa 64, o texto de legenda para ouvintes é inserido no valor max. de profundidade e, na etapa 66, a legenda para ouvintes é adicionada à imagem 2D. Deve ser observado que as etapas 64 e 66 podem ser realizadas em qualquer ordem e podem ser preferivelmente realizadas simultaneamente. Posterior- mente, na etapa 68, uma determinação é feita com relação a se existem recursos adicionais de processamento. Dependendo do processamento disponível, a legenda para ouvintes po- de ser fixa, na etapa 70, no valor de profundidade do primeiro quadro quando processamen- to adicional não está disponível ou os valores de profundidade dos quadros seguintes po- dem ser determinados repetindo as etapas de processamento on-line 62-66 quando proces- sarnento adicional está disponível.
Com referência agora à figura 6, é mostrado um fluxograma da presente revelação que ilustra o processamento 72 de imagens 2D tendo legendas para ouvintes inseridas. Há casos onde legendas para ouvintes já estão inseridas na imagem 2D como se o conteúdo 3D fosse convertido do conteúdo 2D. Para esses casos, o local de legendas para ouvintes pode ser identificado, na etapa 74, por detectores de região de legenda para ouvintes, que são capazes de detectar e localizar as regiões de legenda para ouvintes em um quadro utili- zando informações de cor e textura. Detecção de região de legenda para ouvintes tem sido uma direção de pesquisa ativa na pesquisa de processamento de vídeo. De acordo com a literatura atual, para alguns vídeos, como vídeos de notícias, detectores de região de legen- da para ouvintes podem obter precisão de localização acima de 95%. Portanto, detectores de região de legenda para ouvintes devem ser seguros o bastante para inserção de legenda para ouvintes 3D. Após localização da área de legenda para ouvintes (isto é, a coordenada da caixa de texto é determinada), na etapa 74, e o texto de legenda para ouvintes é isolado (isto é, os pixels específicos da legenda para ouvintes são determinados), na etapa 76, a partir da imagem, o mapa de profundidade do quadro de início de legenda para ouvintes é buscado (por exemplo, varrido) para determinar, na etapa 78, o valor max. de profundidade. A seguir, na etapa 80, o texto de legenda para ouvintes é inserido no valor max. de profun- didade. Posteriormente, as etapas de processo de inserção on-line 66-70 mostradas na figu- ra 5, podem ser aplicadas.
Com referência agora à figura 7, a presente revelação também pode ser estendida para cobrir conteúdo estereoscópico 82. Para conteúdo estereoscópico o texto na imagem de olho esquerdo ou direito é deslocado para casar com o valor de profundidade maior na imagem estereoscópica. Por exemplo, o texto 88 pode ser fixo na imagem de olho esquerdo 25 84 porém ajustado ou variado na imagem de olho direito 86. A variação do texto 90 na ima- gem de olho direito 86 é proporcional à disparidade do par estéreo. O valor de disparidade é inversamente proporcional ao valor de profundidade.
A variação no olho é um deslocamento na direção horizontal. Um deslocamento negativo (fora do texto da tela) é preferível para a maioria das aplicações. Entretanto a pre- 30 sente revelação permite deslocamentos tanto negativo como positivo do texto. O valor de deslocamento mínimo permitido é igual ao valor positivo máximo visualmente aceitável e o valor de deslocamento máximo permitido é igual ao valor negativo máximo visualmente acei- tável. A figura 7 mostra um exemplo de par estéreo com um valor de deslocamento de 10 pixels para o texto 90 na imagem de olho direito 86.
Deve ser observado que, de acordo com a presente revelação, é desejável combi-
nar texto com conteúdo 3D (por exemplo, conteúdo estereoscópico ou imagens 2D e mapas de profundidade associados) de tal modo que o texto seja ocasional ou continuamente posi- cionado no valor máximo de profundidade do conteúdo 3D. Abaixo, várias abordagens para adquirir informações de profundidade a partir do conteúdo 3D são discutidas adicionalmente.
A aquisição de informações de profundidade pode ser feita utilizando técnicas ativa ou passiva. Abordagens passivas adquirem geometria 3D a partir de imagens ou vídeos feitos sob condições de iluminação regular. A geometria 3D é computada utilizando as ca- racterísticas geométricas ou fotométricas extraídas de imagens e vídeos. Abordagens ativas utilizam fontes de Iuz especial, como laser, Iuz de estrutura ou Iuz infravermelha. Computam a geometria com base na reposta dos objetos e cenas à Iuz especial projetada sobre a su- perfície.
Abordagens de vista única recuperam geometria 3D utilizando uma imagem tirada de um ponto de vista de câmera única. Os exemplos incluem profundidade e estéreo foto- métrico a partir de desenfoque. Abordagens de múltiplas vistas recuperam geometria 3D a partir de múltiplas imagens tiradas de pontos de vista de câmeras múltiplas, resultadas de movimento de objeto, ou com diferentes posições de fonte de luz. O casamento de estéreo é um exemplo de recuperação 3D de múltiplas vistas por casamento dos pixels na imagem esquerda e imagem direita no par de estéreo para obter as informações de profundidade dos pixels.
Os métodos geométricos recuperam geometria 3D por detectar características ge- ométricas como cantos, linhas ou contornos em imagens única ou múltiplas. A relação es- pacial entre os cantos, linhas ou contornos extraídos pode ser utilizada para inferir as coor- denadas 3D dos pixels em imagens. Os métodos fotométricos recuperam geometria 3D com base no sombreamento ou sombra dos patches de imagem resultados da orientação da su- perfície de cena.
Para a aplicação da presente revelação, há três tipos possíveis de conteúdo: con- teúdo gerado por computador, conteúdo estéreo e conteúdo 2D. Para conteúdo gerado por computador, como utilizado em animação, informações de profundidade são disponíveis com processamento muito limitado. Para conteúdo de estéreo, a imagem direita e esquerda pode ser utilizada para gerar a profundidade por casar o pixel na imagem esquerda com aquele na imagem direita. O caso mais complexo é aquele de conteúdo 2D. A maioria das técnicas atuais envolve processamento manual extenso e consequentemente devem ser feitas off-line. Para aplicações de cinema digital, o conteúdo 2D é convertido em par estéreo para reprodução em cinemas digitais. Após aquisição do par estéreo, técnicas de estéreo podem ser utilizadas para obter um mapa de profundidade. Em geral para aplicações de legenda para ouvintes mapas de profundidade altamente precisos e densos não são nor- malmente necessários.
Embora as modalidades que incorporam os ensinamentos da presente revelação tenham sido mostradas e descritas em detalhe aqui, aqueles versados na técnica podem facilmente idealizar muitas outras modalidades variadas que ainda incorporam esses ensi- namentos. Tendo descrito modalidades preferidas para um sistema e método para proces- samento de imagem paralela em um ambiente de computação ligado em rede com esque- mas de divisão de dados de imagem ótimos (que pretendem ser ilustrativos e não Iimitado- 5 res). Observa-se que modificações e variações podem ser feitas por pessoas versadas na técnica à Iuz dos ensinamentos acima. Portanto, deve ser entendido que alterações podem ser feitas nas modalidades específicas da revelação revelada que estão compreendidas no escopo da revelação como delineado pelas reivindicações apensas.

Claims (38)

1. Método para combinar texto com conteúdo de imagem tridimensional, o método sendo CARACTERIZADO pelo fato de que compreende as etapas de: receber (54) conteúdo de imagem tridimensional; determinar (54) um valor máximo de profundidade para o conteúdo tridimensional; e combinar (58) texto com o conteúdo de imagem tridimensional no valor máximo de profundidade.
2. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que a etapa de receber conteúdo de imagem tridimensional inclui receber (54) uma imagem bidi- mensional (40) e um mapa de profundidade (42).
3. Método, de acordo com a reivindicação 2, CARACTERIZADO pelo fato de que a etapa de determinar (54) um valor máximo de profundidade inclui detectar qual objeto no mapa de profundidade tem o valor máximo de profundidade.
4. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que a etapa de combinar (58) texto com o conteúdo tridimensional inclui sobrepor o texto na ima- gem bidimensional e posicionar o texto no mapa de profundidade no valor máximo de pro- fundidade.
5. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que o conteúdo de imagem tridimensional inclui uma pluralidade de quadros e as etapas de de- terminar (62) o valor máximo de profundidade e combinar (64, 66) o texto com o conteúdo de imagem tridimensional no valor máximo de profundidade ocorrem para cada quadro.
6. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que o conteúdo de imagem tridimensional inclui uma pluralidade de quadros e as etapas de de- terminar (62) o valor máximo de profundidade e combinar (64, 66) o texto com o conteúdo de imagem tridimensional no valor máximo de profundidade ocorrem para um número menor do que todos da pluralidade de quadros.
7. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que compreende ainda as etapas de: determinar (74) se o conteúdo tridimensional contém texto; isolar (76) o texto a partir do conteúdo tridimensional; e combinar (78, 80) o texto isolado com o conteúdo tridimensional no valor máximo de profundidade.
8. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que o texto é um entre legendas para ouvintes, Iegendagem oculta e Iegendagem aberta.
9. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que a etapa de determinar o valor máximo de profundidade para o conteúdo tridimensional inclui detectar o valor máximo de profundidade de um objeto em uma imagem estereoscópica (82), a imagem estereoscópica (82) incluindo uma imagem de olho esquerdo (84) e uma imagem de olho direito (86).
10. Método, de acordo com a reivindicação 9, CARACTERIZADO pelo fato de que a etapa de combinar texto com a imagem tridimensional inclui: sobrepor o texto (88) na imagem de olho esquerdo (84); sobrepor o texto (90) na imagem de olho direito (86); e deslocar o texto (90) na imagem de olho direito (86) de tal modo que o texto de olho direito e olho esquerdo combinado é exibível no valor máximo de profundidade da imagem estereoscópica.
11. Método de exibir texto com conteúdo de imagem tridimensional, o método sen- do CARACTERIZADO pelo fato de que compreende as etapas de: receber (18, 20) conteúdo de imagem tridimensional e texto, o conteúdo de imagem tridimensional tendo um valor máximo de profundidade; exibir (36) o conteúdo de imagem tridimensional; e exibir (36) o texto no valor máximo de profundidade.
12. Método, de acordo com a reivindicação 11, CARACTERIZADO pelo fato de que compreende ainda a etapa de: determinar (54) o valor máximo de profundidade do conteúdo de imagem tridimen- sional.
13. Método, de acordo com a reivindicação 12, CARACTERIZADO pelo fato de que a etapa de determinar (54) compreende detectar qual objeto no conteúdo de imagem tridi- mensional tem o valor máximo de profundidade.
14. Método, de acordo com a reivindicação 12, CARACTERIZADO pelo fato de que o conteúdo de imagem tridimensional inclui uma pluralidade de quadros e as etapas de de- terminar (62) o valor máximo de profundidade e exibir (36) o texto no valor máximo de pro- fundidade ocorrem para cada quadro.
15. Método, de acordo com a reivindicação 12, CARACTERIZADO pelo fato de que o conteúdo de imagem tridimensional inclui uma pluralidade de quadros e as etapas de de- terminar (62) o valor máximo de profundidade e exibir (36) o texto no valor máximo de pro- fundidade ocorrem para um número menor do que todos da pluralidade de quadros.
16. Método, de acordo com a reivindicação 11, CARACTERIZADO pelo fato de que o texto é um entre legendas para ouvintes, Iegendagem oculta e Iegendagem aberta.
17. Método, de acordo com a reivindicação 11, CARACTERIZADO pelo fato de que compreende ainda as etapas de: determinar (74) se o conteúdo tridimensional contém texto; isolar (76) o texto a partir do conteúdo tridimensional; e exibir (36) o texto isolado no valor máximo de profundidade.
18. Método, de acordo com a reivindicação 11, CARACTERIZADO pelo fato de que a etapa de determinar o valor máximo de profundidade para o conteúdo tridimensional inclui detectar o valor máximo de profundidade de um objeto em uma imagem estereoscópica (82), a imagem estereoscópica incluindo uma imagem de olho esquerdo (84) e uma imagem de olho direito (86).
19. Método, de acordo com a reivindicação 18, CARACTERIZADO pelo fato de que a etapa de combinar texto com a imagem tridimensional inclui: sobrepor texto (88) na imagem de olho esquerdo (84); sobrepor texto (90) na imagem de olho direito (86); e deslocar o texto (90) na imagem de olho direito (86) de tal modo que o texto de olho direito e olho esquerdo combinado é exibível no valor máximo de profundidade da imagem estereoscópica.
20. Sistema para combinar texto com conteúdo de imagem tridimensional, o siste- ma sendo CARACTERIZADO pelo fato de que compreende: meio para receber (54) conteúdo de imagem tridimensional; meio para determinar (54) um valor máximo de profundidade para o conteúdo tridi- mensional; e meio para combinar (58) texto com o conteúdo de imagem tridimensional no valor máximo de profundidade.
21. Sistema, de acordo com a reivindicação 20, CARACTERIZADO pelo fato de que o meio para receber conteúdo de imagem tridimensional inclui meio para receber (54) uma imagem bidimensional (40) e um mapa de profundidade (42).
22. Sistema, de acordo com a reivindicação 21, CARACTERIZADO pelo fato de que o meio para determinar (54) um valor máximo de profundidade inclui meio para detectar qual objeto no mapa de profundidade tem o valor máximo de profundidade.
23. Sistema, de acordo com a reivindicação 20, CARACTERIZADO pelo fato de que o meio de combinar (58) texto com o conteúdo tridimensional inclui meio para sobrepor o texto na imagem bidimensional e meio para posicionar o texto no mapa de profundidade no valor máximo de profundidade.
24. Sistema, de acordo com a reivindicação 20, CARACTERIZADO pelo fato de que o conteúdo de imagem tridimensional inclui uma pluralidade de quadros e o meio para determinar (62) o valor máximo de profundidade e meio para combinar (64, 66) o texto com o conteúdo de imagem tridimensional no valor máximo de profundidade ocorrem para cada quadro.
25. Sistema, de acordo com a reivindicação 20, CARACTERIZADO pelo fato de que o conteúdo de imagem tridimensional inclui uma pluralidade de quadros e o meio para determinar (62) o valor máximo de profundidade e meios para combinar (64, 66) o texto com o conteúdo de imagem tridimensional no valor máximo de profundidade ocorrem para um número menor do que todos da pluralidade de quadros.
26. Sistema, de acordo com a reivindicação 20, CARACTERIZADO pelo fato de que compreende ainda: meio para determinar (74) se o conteúdo tridimensional contém texto; meio para isolar (76) o texto a partir do conteúdo tridimensional; e meios para combinar (78, 80) o texto isolado com o conteúdo tridimensional no va- lor máximo de profundidade.
27. Sistema, de acordo com a reivindicação 20, CARACTERIZADO pelo fato de que o texto é um entre legendas para ouvintes, Iegendagem oculta e Iegendagem aberta.
28. Sistema, de acordo com a reivindicação 20, CARACTERIZADO pelo fato de que o meio para determinar o valor máximo de profundidade para o conteúdo tridimensional inclui meio para detectar o valor máximo de profundidade de um objeto em uma imagem estereoscópica (82), a imagem estereoscópica (82) incluindo uma imagem de olho esquerdo (84) e uma imagem de olho direito (86).
29. Sistema, de acordo com a reivindicação 28, CARACTERIZADO pelo fato de que a etapa de combinar texto com a imagem tridimensional inclui: meio para sobrepor o texto (88) na imagem de olho esquerdo (84); meio para sobrepor o texto (90) na imagem de olho direito (86); e meio para deslocar o texto (90) na imagem de olho direito (86) de tal modo que o texto de olho direito e olho esquerdo combinado é exibível no valor máximo de profundidade da imagem estereoscópica.
30. Sistema para exibir texto com conteúdo de imagem tridimensional, o sistema sendo CARACTERIZADO pelo fato de que compreende: meio para receber (18, 20) conteúdo de imagem tridimensional e texto, o conteúdo de imagem tridimensional tendo um valor máximo de profundidade; meio para exibir (36) o conteúdo de imagem tridimensional; e meio para exibir (36) o texto no valor máximo de profundidade.
31. Sistema, de acordo com a reivindicação 30, CARACTERIZADO pelo fato de que compreende ainda: meio para determinar (54) o valor máximo de profundidade do conteúdo de imagem tridimensional.
32. Sistema, de acordo com a reivindicação 31, CARACTERIZADO pelo fato de que o meio para determinar (54) compreende meio para detectar qual objeto no conteúdo de imagem tridimensional tem o valor máximo de profundidade.
33. Sistema, de acordo com a reivindicação 31, CARACTERIZADO pelo fato de que o conteúdo de imagem tridimensional inclui uma pluralidade de quadros e o meio para determinar (54) o valor máximo de profundidade e meio para exibir (36) o texto no valor má- ximo de profundidade ocorrem para cada quadro.
34. Sistema, de acordo com a reivindicação 31, CARACTERIZADO pelo fato de que o conteúdo de imagem tridimensional inclui uma pluralidade de quadros e o meio para determinar (54) o valor máximo de profundidade e o meio para exibir (36) o texto no valor máximo de profundidade operam em um número menor do que todos da pluralidade de qua- dros.
35. Sistema, de acordo com a reivindicação 30, CARACTERIZADO pelo fato de que o texto é um entre legendas para ouvintes, Iegendagem oculta e Iegendagem aberta.
36. Sistema, de acordo com a reivindicação 30, CARACTERIZADO pelo fato de que compreende ainda: meio para determinar (74) se o conteúdo tridimensional contém texto; meio para isolar (76) o texto a partir do conteúdo tridimensional; e meio para exibir (36) o texto isolado no valor máximo de profundidade.
37. Sistema, de acordo com a reivindicação 30, CARACTERIZADO pelo fato de que o meio para determinar o valor máximo de profundidade para o conteúdo tridimensional inclui meio para detectar o valor máximo de profundidade de um objeto em uma imagem estereoscópica (82), a imagem estereoscópica incluindo uma imagem de olho esquerdo (84) e uma imagem de olho direito (86).
38. Sistema, de acordo com a reivindicação 37, CARACTERIZADO pelo fato de que o meio para combinar texto com a imagem tridimensional inclui: meio para sobrepor texto (88) na imagem de olho esquerdo (84); meio para sobrepor texto (90) na imagem de olho direito (86); e meio para deslocar o texto (90) na imagem de olho direito (86) de tal modo que o texto de olho direito e olho esquerdo combinado é exibível no valor máximo de profundidade da imagem estereoscópica.
BRPI0721452-9A 2007-03-16 2007-12-19 Sistema e método para combinar texto com conteúdo de imagem tridimensional BRPI0721452B1 (pt)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US91863507P 2007-03-16 2007-03-16
US60/918.635 2007-03-16
US60/918,635 2007-03-16
PCT/US2007/025947 WO2008115222A1 (en) 2007-03-16 2007-12-19 System and method for combining text with three-dimensional content

Publications (2)

Publication Number Publication Date
BRPI0721452A2 true BRPI0721452A2 (pt) 2014-03-25
BRPI0721452B1 BRPI0721452B1 (pt) 2020-03-03

Family

ID=39223104

Family Applications (1)

Application Number Title Priority Date Filing Date
BRPI0721452-9A BRPI0721452B1 (pt) 2007-03-16 2007-12-19 Sistema e método para combinar texto com conteúdo de imagem tridimensional

Country Status (11)

Country Link
US (2) US9769462B2 (pt)
EP (2) EP2140688B1 (pt)
JP (1) JP5132690B2 (pt)
KR (1) KR101842622B1 (pt)
CN (2) CN105263012A (pt)
AT (1) ATE472230T1 (pt)
BR (1) BRPI0721452B1 (pt)
CA (1) CA2680724C (pt)
DE (1) DE602007007369D1 (pt)
MX (1) MX2009009871A (pt)
WO (1) WO2008115222A1 (pt)

Families Citing this family (127)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BRPI0823512A2 (pt) * 2007-04-12 2013-11-26 Thomson Licensing Ladrilhamento em codificação e decodificação de vídeo
WO2009083863A1 (en) * 2007-12-20 2009-07-09 Koninklijke Philips Electronics N.V. Playback and overlay of 3d graphics onto 3d video
GB0805924D0 (en) * 2008-04-02 2008-05-07 Hibbert Ralph Animation Storyboard creation system
US8508582B2 (en) * 2008-07-25 2013-08-13 Koninklijke Philips N.V. 3D display handling of subtitles
BRPI0914459A2 (pt) * 2008-10-21 2015-10-27 Koninkl Philips Electronics Nv "método para processar um sinal de vídeo de entrada tridimensional compreendendo múltiplas visualizações, produto de programa de computador e sistema para processar um sinal de vídeo de entrada tridimensional compreendendo múltiplas visualizações"
WO2010058977A2 (en) * 2008-11-21 2010-05-27 Lg Electronics Inc. Recording medium, data recording/reproducing method and data recording/reproducing apparatus
US20110234754A1 (en) * 2008-11-24 2011-09-29 Koninklijke Philips Electronics N.V. Combining 3d video and auxiliary data
EP2320667A1 (en) 2009-10-20 2011-05-11 Koninklijke Philips Electronics N.V. Combining 3D video auxiliary data
WO2010062104A2 (ko) * 2008-11-25 2010-06-03 엘지전자(주) 기록매체, 데이터 기록/재생 방법 및 데이터 기록/재생 장치
JP5577348B2 (ja) * 2008-12-01 2014-08-20 アイマックス コーポレイション 内容順応情報を有する3次元動画提示方法及びシステム
EP2356820B1 (en) 2008-12-02 2017-07-19 LG Electronics Inc. 3d caption display method and 3d display apparatus for implementing the same
WO2010064784A2 (ko) 2008-12-02 2010-06-10 (주)엘지전자 3차원 캡션 디스플레이 방법 및 이를 구현하기 위한 3차원 디스플레이 장치
CN102257825B (zh) * 2008-12-19 2016-11-16 皇家飞利浦电子股份有限公司 用于在3d视频上覆盖3d图形的方法和设备
CN104113749B (zh) 2009-01-08 2016-10-26 Lg电子株式会社 3d字幕信号发送方法和3d字幕显示方法
RU2536388C2 (ru) * 2009-01-20 2014-12-20 Конинклейке Филипс Электроникс Н.В. Передача данных 3d изображения
CN102292993B (zh) * 2009-01-20 2015-05-13 Lg电子株式会社 三维字幕显示方法以及用于实现该方法的三维显示装置
WO2010084803A1 (ja) * 2009-01-22 2010-07-29 日本電気株式会社 立体映像鑑賞システム、表示システム、光シャッタおよび立体映像鑑賞方法
US8269821B2 (en) 2009-01-27 2012-09-18 EchoStar Technologies, L.L.C. Systems and methods for providing closed captioning in three-dimensional imagery
US9544569B2 (en) 2009-02-12 2017-01-10 Lg Electronics Inc. Broadcast receiver and 3D subtitle data processing method thereof
CA2749668C (en) 2009-02-12 2017-07-11 Lg Electronics Inc. Broadcast receiver and 3d subtitle data processing method thereof
WO2010095838A2 (ko) 2009-02-17 2010-08-26 삼성전자 주식회사 그래픽 화면 처리 방법 및 장치
EP2399398B1 (en) 2009-02-17 2016-04-20 Koninklijke Philips N.V. Combining 3d image and graphical data
KR101659576B1 (ko) 2009-02-17 2016-09-30 삼성전자주식회사 영상 처리 방법 및 장치
US8284236B2 (en) * 2009-02-19 2012-10-09 Sony Corporation Preventing interference between primary and secondary content in a stereoscopic display
US8436918B2 (en) 2009-02-27 2013-05-07 Deluxe Laboratories, Inc. Systems, apparatus and methods for subtitling for stereoscopic content
JPWO2010122775A1 (ja) * 2009-04-21 2012-10-25 パナソニック株式会社 映像処理装置及び映像処理方法
JP5400467B2 (ja) * 2009-05-01 2014-01-29 キヤノン株式会社 映像出力装置、その制御方法、及びプログラム
JP2011041249A (ja) 2009-05-12 2011-02-24 Sony Corp データ構造および記録媒体、並びに、再生装置、再生方法、プログラム、およびプログラム格納媒体
KR20100128233A (ko) * 2009-05-27 2010-12-07 삼성전자주식회사 영상 처리 방법 및 장치
EP2448273A4 (en) * 2009-06-22 2013-12-25 Lg Electronics Inc VIDEO DISPLAY DEVICE AND OPERATING METHOD THEREFOR
TW201119353A (en) 2009-06-24 2011-06-01 Dolby Lab Licensing Corp Perceptual depth placement for 3D objects
WO2010151555A1 (en) * 2009-06-24 2010-12-29 Dolby Laboratories Licensing Corporation Method for embedding subtitles and/or graphic overlays in a 3d or multi-view video data
JP5521486B2 (ja) * 2009-06-29 2014-06-11 ソニー株式会社 立体画像データ送信装置および立体画像データ送信方法
JP2011030182A (ja) * 2009-06-29 2011-02-10 Sony Corp 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
JP2011030180A (ja) * 2009-06-29 2011-02-10 Sony Corp 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
TW201116041A (en) * 2009-06-29 2011-05-01 Sony Corp Three-dimensional image data transmission device, three-dimensional image data transmission method, three-dimensional image data reception device, three-dimensional image data reception method, image data transmission device, and image data reception
KR101596832B1 (ko) * 2009-06-30 2016-02-23 엘지전자 주식회사 기록매체, 데이터 기록/재생 방법 및 데이터 기록/재생 장치
US9479766B2 (en) 2009-07-10 2016-10-25 Dolby Laboratories Licensing Corporation Modifying images for a 3-dimensional display mode
TW201130289A (en) * 2009-07-14 2011-09-01 Panasonic Corp Image reproducing apparatus
US8872976B2 (en) 2009-07-15 2014-10-28 Home Box Office, Inc. Identification of 3D format and graphics rendering on 3D displays
JP2011029849A (ja) * 2009-07-23 2011-02-10 Sony Corp 受信装置、通信システム、立体画像への字幕合成方法、プログラム、及びデータ構造
WO2011013030A1 (en) 2009-07-27 2011-02-03 Koninklijke Philips Electronics N.V. Combining 3d video and auxiliary data
EP2282550A1 (en) 2009-07-27 2011-02-09 Koninklijke Philips Electronics N.V. Combining 3D video and auxiliary data
TWI422213B (zh) * 2009-07-29 2014-01-01 Mstar Semiconductor Inc 影像畫面偵測裝置及其方法
KR20110018261A (ko) 2009-08-17 2011-02-23 삼성전자주식회사 텍스트 서브타이틀 데이터 처리 방법 및 재생 장치
GB2473282B (en) * 2009-09-08 2011-10-12 Nds Ltd Recommended depth value
JP4733764B2 (ja) * 2009-11-10 2011-07-27 パナソニック株式会社 三次元映像処理装置及び三次元映像処理方法
KR20110053160A (ko) * 2009-11-13 2011-05-19 삼성전자주식회사 비디오 부가 재생 정보의 3차원 깊이감 조절을 위한 멀티미디어 스트림 생성 방법과 그 장치, 및 수신 방법과 그 장치
US20130002656A1 (en) * 2010-01-13 2013-01-03 Thomson Licensing System and method for combining 3d text with 3d content
US8565516B2 (en) * 2010-02-05 2013-10-22 Sony Corporation Image processing apparatus, image processing method, and program
JP2013520924A (ja) * 2010-02-24 2013-06-06 トムソン ライセンシング 立体映像用の字幕付け
CN102812711B (zh) * 2010-02-25 2016-11-02 汤姆森特许公司 利用视差估计和视差时间变化限制的立体字幕加载
US9142026B2 (en) 2010-02-26 2015-09-22 Thomson Licensing Confidence map, method for generating the same and method for refining a disparity map
US9426441B2 (en) 2010-03-08 2016-08-23 Dolby Laboratories Licensing Corporation Methods for carrying and transmitting 3D z-norm attributes in digital TV closed captioning
US8730301B2 (en) * 2010-03-12 2014-05-20 Sony Corporation Service linkage to caption disparity data transport
EP2524513A4 (en) * 2010-03-12 2014-06-25 Sony Corp SERVICE LINKING FOR THE TRANSPORT OF DIFFERENT SUBTITLING DATA
JP2011216937A (ja) * 2010-03-31 2011-10-27 Hitachi Consumer Electronics Co Ltd 立体画像表示装置
KR101834263B1 (ko) 2010-04-01 2018-03-06 톰슨 라이센싱 3차원(3d) 프리젠테이션에서의 서브타이틀들
EP2375761A3 (en) * 2010-04-07 2013-05-29 Sony Corporation Image synthesis apparatus, image synthesis method and program
JP5960679B2 (ja) * 2010-04-14 2016-08-02 サムスン エレクトロニクス カンパニー リミテッド ビットストリームの生成方法、生成装置、受信方法及び受信装置
JP5143856B2 (ja) * 2010-04-16 2013-02-13 株式会社ソニー・コンピュータエンタテインメント 3次元画像表示装置、および3次元画像表示方法
JPWO2011135857A1 (ja) * 2010-04-28 2013-07-18 パナソニック株式会社 画像変換装置
CN102511047A (zh) * 2010-05-14 2012-06-20 联发科技(新加坡)私人有限公司 视频节目的字幕消除方法以及相关视频显示系统
CA2799704C (en) * 2010-05-30 2016-12-06 Jongyeul Suh Method and apparatus for processing and receiving digital broadcast signal for 3-dimensional subtitle
JP5682149B2 (ja) * 2010-06-10 2015-03-11 ソニー株式会社 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
TWI462567B (zh) 2010-06-18 2014-11-21 Realtek Semiconductor Corp 三維處理電路及處理方法
JP5505637B2 (ja) * 2010-06-24 2014-05-28 ソニー株式会社 立体表示装置および立体表示装置の表示方法
CN102959952B (zh) * 2010-06-27 2016-07-06 Lg电子株式会社 数字接收器以及在数字接收器中处理字幕数据的方法
CN102300106B (zh) * 2010-06-28 2014-03-12 瑞昱半导体股份有限公司 三维处理电路及处理方法
US20110316972A1 (en) * 2010-06-29 2011-12-29 Broadcom Corporation Displaying graphics with three dimensional video
JP4996720B2 (ja) * 2010-06-30 2012-08-08 株式会社東芝 画像処理装置、画像処理プログラム、及び画像処理方法
US9591374B2 (en) * 2010-06-30 2017-03-07 Warner Bros. Entertainment Inc. Method and apparatus for generating encoded content using dynamically optimized conversion for 3D movies
US8917774B2 (en) 2010-06-30 2014-12-23 Warner Bros. Entertainment Inc. Method and apparatus for generating encoded content using dynamically optimized conversion
US10326978B2 (en) 2010-06-30 2019-06-18 Warner Bros. Entertainment Inc. Method and apparatus for generating virtual or augmented reality presentations with 3D audio positioning
US8755432B2 (en) 2010-06-30 2014-06-17 Warner Bros. Entertainment Inc. Method and apparatus for generating 3D audio positioning using dynamically optimized audio 3D space perception cues
US9699438B2 (en) * 2010-07-02 2017-07-04 Disney Enterprises, Inc. 3D graphic insertion for live action stereoscopic video
KR20120004203A (ko) * 2010-07-06 2012-01-12 삼성전자주식회사 디스플레이 방법 및 장치
CN101902582B (zh) * 2010-07-09 2012-12-19 清华大学 一种立体视频字幕添加方法及装置
JP2013535889A (ja) * 2010-07-21 2013-09-12 トムソン ライセンシング 3次元通信システムにおいて補助コンテンツを提供する方法及び装置
CN103329542A (zh) * 2010-07-21 2013-09-25 汤姆森特许公司 在3d通信系统中提供补充内容的方法和设备
KR101809479B1 (ko) * 2010-07-21 2017-12-15 삼성전자주식회사 3d 콘텐츠 재생 장치 및 방법
US9571811B2 (en) 2010-07-28 2017-02-14 S.I.Sv.El. Societa' Italiana Per Lo Sviluppo Dell'elettronica S.P.A. Method and device for multiplexing and demultiplexing composite images relating to a three-dimensional content
IT1401367B1 (it) * 2010-07-28 2013-07-18 Sisvel Technology Srl Metodo per combinare immagini riferentesi ad un contenuto tridimensionale.
US8605136B2 (en) 2010-08-10 2013-12-10 Sony Corporation 2D to 3D user interface content data conversion
JP2012044625A (ja) * 2010-08-23 2012-03-01 Sony Corp 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
CN103152596B (zh) * 2010-08-25 2015-05-06 华为技术有限公司 一种三维电视中图形文本显示的控制方法及设备、系统
CN102137264B (zh) * 2010-08-25 2013-03-13 华为技术有限公司 一种三维电视中图形文本显示的控制方法及设备、系统
KR101724704B1 (ko) * 2010-08-27 2017-04-07 삼성전자주식회사 3차원 영상 구현 방법 및 장치
EP2612501B1 (en) * 2010-09-01 2018-04-25 LG Electronics Inc. Method and apparatus for processing and receiving digital broadcast signal for 3-dimensional display
JP5633259B2 (ja) * 2010-09-06 2014-12-03 ソニー株式会社 立体画像データ送信装置、立体画像データ送信方法および立体画像データ受信装置
KR20120037858A (ko) * 2010-10-12 2012-04-20 삼성전자주식회사 입체영상표시장치 및 그 ui 제공 방법
US8537201B2 (en) * 2010-10-18 2013-09-17 Silicon Image, Inc. Combining video data streams of differing dimensionality for concurrent display
JP2012120143A (ja) * 2010-11-10 2012-06-21 Sony Corp 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
EP2647209B1 (en) 2010-12-03 2017-11-01 Koninklijke Philips N.V. Transferring of 3d image data
CN102487447B (zh) * 2010-12-06 2015-10-14 晨星软件研发(深圳)有限公司 调整物件三维深度的方法与装置、以及检测物件三维深度的方法与装置
JP4908624B1 (ja) * 2010-12-14 2012-04-04 株式会社東芝 立体映像信号処理装置及び方法
GB2488746B (en) * 2010-12-23 2016-10-26 Samsung Electronics Co Ltd Improvements to subtitles for three dimensional video transmission
EP2668640A4 (en) * 2011-01-30 2014-10-29 Nokia Corp METHOD, DEVICE AND COMPUTER PROGRAM PRODUCT FOR THREE-DIMENSIONAL STEREO DISPLAY
JP4892105B1 (ja) * 2011-02-21 2012-03-07 株式会社東芝 映像処理装置、映像処理方法および映像表示装置
JP2012174237A (ja) 2011-02-24 2012-09-10 Nintendo Co Ltd 表示制御プログラム、表示制御装置、表示制御システム、及び表示制御方法
US9519994B2 (en) 2011-04-15 2016-12-13 Dolby Laboratories Licensing Corporation Systems and methods for rendering 3D image independent of display size and viewing distance
CN102186023B (zh) * 2011-04-27 2013-01-02 四川长虹电器股份有限公司 一种双目立体字幕处理方法
WO2012150100A1 (en) * 2011-05-02 2012-11-08 Thomson Licensing Smart stereo graphics inserter for consumer devices
US20120293636A1 (en) * 2011-05-19 2012-11-22 Comcast Cable Communications, Llc Automatic 3-Dimensional Z-Axis Settings
KR20140040151A (ko) * 2011-06-21 2014-04-02 엘지전자 주식회사 3D (3-dimensional) 방송 서비스를 위한 방송 신호 처리 방법 및 장치
KR101975247B1 (ko) * 2011-09-14 2019-08-23 삼성전자주식회사 영상 처리 장치 및 그 영상 처리 방법
FR2982448A1 (fr) * 2011-11-07 2013-05-10 Thomson Licensing Procede de traitement d'image stereoscopique comprenant un objet incruste et dispositif correspondant
US9300980B2 (en) * 2011-11-10 2016-03-29 Luca Rossato Upsampling and downsampling of motion maps and other auxiliary maps in a tiered signal quality hierarchy
KR101830656B1 (ko) * 2011-12-02 2018-02-21 엘지전자 주식회사 이동 단말기 및 이의 제어방법
KR101899324B1 (ko) * 2011-12-28 2018-09-18 삼성전자주식회사 3d 입체 영상을 제공하는 디스플레이 장치 및 방법
KR101309783B1 (ko) * 2011-12-30 2013-09-23 삼성전자주식회사 디스플레이 장치 및 방법
JP6029021B2 (ja) * 2012-01-27 2016-11-24 パナソニックIpマネジメント株式会社 画像処理装置、撮像装置および画像処理方法
EP2627093A3 (en) 2012-02-13 2013-10-02 Thomson Licensing Method and device for inserting a 3D graphics animation in a 3D stereo content
CN102663665B (zh) * 2012-03-02 2014-04-09 清华大学 具有自适应深度的立体图像图文标签的显示和编辑方法
ES2545513T3 (es) 2012-04-24 2015-09-11 Vestel Elektronik Sanayi Ve Ticaret A.S. Renderización de vista virtual sensible a texto
JP6092525B2 (ja) * 2012-05-14 2017-03-08 サターン ライセンシング エルエルシーSaturn Licensing LLC 画像処理装置、情報処理システム、画像処理方法およびプログラム
CN103475831A (zh) * 2012-06-06 2013-12-25 晨星软件研发(深圳)有限公司 应用于显示装置的字幕控制方法与元件
US9413985B2 (en) * 2012-09-12 2016-08-09 Lattice Semiconductor Corporation Combining video and audio streams utilizing pixel repetition bandwidth
RU2556451C2 (ru) * 2013-06-06 2015-07-10 Общество с ограниченной ответственностью "Триаксес Вижн" СПОСОБ КОМПОНОВКИ ФОРМАТА ЦИФРОВОГО СТЕРЕОСКОПИЧЕСКОГО ВИДЕОПОТОКА 3DD Tile Format
CN103856689B (zh) * 2013-10-31 2017-01-18 北京中科模识科技有限公司 面向新闻视频的人物对话字幕提取方法
CN104581128A (zh) * 2014-12-29 2015-04-29 青岛歌尔声学科技有限公司 一种头戴显示装置及在该装置中显示外部图像信息的方法
JP2016001476A (ja) * 2015-07-10 2016-01-07 任天堂株式会社 表示制御プログラム、表示制御装置、表示制御システム、及び表示制御方法
JP6391629B2 (ja) * 2016-06-27 2018-09-19 トムソン ライセンシングThomson Licensing 3dテキストを3dコンテンツと合成するシステムおよび方法
KR20180045609A (ko) * 2016-10-26 2018-05-04 삼성전자주식회사 전자 장치 및 전자 장치의 표시 방법
RU2722495C1 (ru) 2017-04-11 2020-06-01 Долби Лэборетериз Лайсенсинг Корпорейшн Восприятия многослойных дополненных развлечений
KR20180131856A (ko) * 2017-06-01 2018-12-11 에스케이플래닛 주식회사 배송 물품 정보 제공 방법 및 이를 위한 장치
CN108509398B (zh) * 2018-03-28 2019-04-12 掌阅科技股份有限公司 对话小说的生成方法、计算设备及计算机存储介质

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS583056A (ja) 1981-06-30 1983-01-08 Fujitsu Ltd 図形表示処理システムにおける文字表示処理方式
US4925294A (en) * 1986-12-17 1990-05-15 Geshwind David M Method to convert two dimensional motion pictures for three-dimensional systems
JPH0744701B2 (ja) * 1986-12-27 1995-05-15 日本放送協会 立体ス−パ−インポ−ズ装置
JPH01150981A (ja) 1987-12-08 1989-06-13 Hitachi Ltd 三次元グラフイツクデイスプレイ装置
AUPN087195A0 (en) 1995-02-01 1995-02-23 Trannys Pty Ltd Three dimensional enhancement
US5784097A (en) * 1995-03-29 1998-07-21 Sanyo Electric Co., Ltd. Three-dimensional image display device
JP2001283247A (ja) 2000-03-31 2001-10-12 Mitsubishi Electric Systemware Corp 三次元形状表示装置及び三次元形状表示方法及びプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2001326947A (ja) * 2000-05-12 2001-11-22 Sony Corp 立体画像表示装置
AU2002351310A1 (en) * 2001-12-06 2003-06-23 The Trustees Of Columbia University In The City Of New York System and method for extracting text captions from video and generating video summaries
JP2003260265A (ja) 2002-03-08 2003-09-16 Square Enix Co Ltd ビデオゲーム装置、記録媒体およびプログラム
US6956566B2 (en) 2002-05-23 2005-10-18 Hewlett-Packard Development Company, L.P. Streaming of images with depth for three-dimensional graphics
JP4138747B2 (ja) * 2002-08-27 2008-08-27 シャープ株式会社 最適な再生モードでコンテンツを再生できるコンテンツ再生装置
JP2004145832A (ja) 2002-08-29 2004-05-20 Sharp Corp コンテンツ作成装置、コンテンツ編集装置、コンテンツ再生装置、コンテンツ作成方法、コンテンツ編集方法、コンテンツ再生方法、コンテンツ作成プログラム、コンテンツ編集プログラム、および携帯通信端末
AU2002952873A0 (en) * 2002-11-25 2002-12-12 Dynamic Digital Depth Research Pty Ltd Image encoding system
KR100727513B1 (ko) 2002-12-16 2007-06-14 산요덴키가부시키가이샤 입체 영상 생성 장치 및 입체 영상 배신 방법
JP2004274125A (ja) * 2003-03-05 2004-09-30 Sony Corp 画像処理装置および方法
EP1875440B1 (en) 2005-04-19 2008-12-03 Koninklijke Philips Electronics N.V. Depth perception
US7586495B2 (en) * 2006-12-29 2009-09-08 Intel Corporation Rendering multiple clear rectangles using a pre-rendered depth buffer
EP2399398B1 (en) 2009-02-17 2016-04-20 Koninklijke Philips N.V. Combining 3d image and graphical data

Also Published As

Publication number Publication date
WO2008115222A1 (en) 2008-09-25
BRPI0721452B1 (pt) 2020-03-03
CA2680724C (en) 2016-01-26
KR101842622B1 (ko) 2018-03-27
ATE472230T1 (de) 2010-07-15
CN105263012A (zh) 2016-01-20
EP2157803A1 (en) 2010-02-24
DE602007007369D1 (de) 2010-08-05
EP2140688A1 (en) 2010-01-06
US20100238267A1 (en) 2010-09-23
JP2010521738A (ja) 2010-06-24
EP2140688B1 (en) 2010-06-23
US10200678B2 (en) 2019-02-05
KR20090120492A (ko) 2009-11-24
MX2009009871A (es) 2010-05-19
CN101653011A (zh) 2010-02-17
US9769462B2 (en) 2017-09-19
US20170310951A1 (en) 2017-10-26
EP2157803B1 (en) 2015-02-25
CA2680724A1 (en) 2008-09-25
JP5132690B2 (ja) 2013-01-30

Similar Documents

Publication Publication Date Title
BRPI0721452A2 (pt) Sistema e método para combinar texto com conteúdo tridimensional
CN109479098B (zh) 多视图场景分割和传播
EP2524510B1 (en) System and method for combining 3d text with 3d content
Hu et al. Speaker-following video subtitles
JP4879326B2 (ja) 3次元画像を合成するシステム及び方法
US20130010062A1 (en) Subtitles in three-dimensional (3d) presentation
US20090322860A1 (en) System and method for model fitting and registration of objects for 2d-to-3d conversion
BRPI1100216A2 (pt) mÉtodo e aparelho de corte, e , programa de computador
KR20110021875A (ko) 스테레오스코픽 모션 픽쳐들의 잠재적인 아이스트레인을 측정하기 위한 시스템 및 방법
KR100888081B1 (ko) 2차원 영상 신호의 3차원 영상 신호로의 변환 절차 및 변환장치
US20130063576A1 (en) Stereoscopic intensity adjustment device, stereoscopic intensity adjustment method, program, integrated circuit and recording medium
US20120098856A1 (en) Method and apparatus for inserting object data into a stereoscopic image
CA2727397A1 (en) System and method for marking a stereoscopic film
De Lima et al. Automatic video editing for video-based interactive storytelling
KR100573983B1 (ko) 3차원 가상현실 콘텐츠 구현 시스템 및 구현 방법
Turner Supernatural Folklore in the Blair Witch Films: New Project, New Proof
JP6391629B2 (ja) 3dテキストを3dコンテンツと合成するシステムおよび方法
Delis et al. Automatic 3d defects identification in stereoscopic videos
Mayhew et al. Critical alignment methods for stereoscopic production and post-production image registration
Fitter VR and the death of the screen plane
US20230245259A1 (en) Method for protecting copyright of light field content

Legal Events

Date Code Title Description
B06F Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette]
B06T Formal requirements before examination [chapter 6.20 patent gazette]
B15K Others concerning applications: alteration of classification

Free format text: A CLASSIFICACAO ANTERIOR ERA: H04N 13/00

Ipc: H04N 13/275 (2018.01), H04N 13/156 (2018.01), H04N

B25G Requested change of headquarter approved

Owner name: THOMSON LICENSING (FR)

B25G Requested change of headquarter approved

Owner name: THOMSON LICENSING (FR)

B25A Requested transfer of rights approved

Owner name: INTERDIGITAL CE PATENT HOLDINGS (FR)

B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 10 (DEZ) ANOS CONTADOS A PARTIR DE 03/03/2020, OBSERVADAS AS CONDICOES LEGAIS.