BR112016017815B1 - Método para utilização sincronizada de dispositivo eletrônico e sistema para processar conteúdo de áudio/vídeo - Google Patents

Método para utilização sincronizada de dispositivo eletrônico e sistema para processar conteúdo de áudio/vídeo Download PDF

Info

Publication number
BR112016017815B1
BR112016017815B1 BR112016017815-7A BR112016017815A BR112016017815B1 BR 112016017815 B1 BR112016017815 B1 BR 112016017815B1 BR 112016017815 A BR112016017815 A BR 112016017815A BR 112016017815 B1 BR112016017815 B1 BR 112016017815B1
Authority
BR
Brazil
Prior art keywords
audio
content
video content
screen
video
Prior art date
Application number
BR112016017815-7A
Other languages
English (en)
Other versions
BR112016017815A2 (pt
Inventor
Steven Michael Casagrande
Original Assignee
DISH Technologies L.L.C
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US14/168,178 external-priority patent/US9615122B2/en
Application filed by DISH Technologies L.L.C filed Critical DISH Technologies L.L.C
Publication of BR112016017815A2 publication Critical patent/BR112016017815A2/pt
Publication of BR112016017815B1 publication Critical patent/BR112016017815B1/pt

Links

Abstract

MÉTODOS E APARELHOS PARA SINCRONIZAR SEGUNDO CONTEÚDO COM PROGRAMAÇÃO DE ÁUDIO/VÍDEO. A presente invenção refere-se a um método para a utilização sincronizada de um dispositivo eletrônico. O método compreende receber dados de legenda codificada a partir de um receptor de conteúdo de áudio/vídeo para um conjunto de conteúdos de áudio/vídeo; recuperar detalhes para um primeiro evento ocorrendo no conjunto de conteúdos de áudio/vídeo, em que o primeiro evento é indicado pelos dados de legenda codificada recebidos; e apresentar conteúdo ao usuário, usando o dispositivo eletrônico, com base nos detalhes recuperados.

Description

RELATÓRIO DESCRITIVO REFERÊNCIA REMISSIVA A PEDIDOS CORRELATOS
[001] O presente Pedido reivindica prioridade ao Pedido Não Provisório dos EUA de no de série 14/168.178, depositado no dia 30 de janeiro de 2014.
CAMPO TÉCNICO
[002] Em termos gerais, as concretizações da matéria inventiva descritas neste documento referem-se à utilização de dados de closed captioning para uma programação de áudio/vídeo. Mais especificamente, as concretizações da matéria inventiva referem-se à utilização de dados de closed captioning para sincronizar um conteúdo de segunda tela a uma programação de áudio/vídeo.
ANTECEDENTES
[003] Cada vez mais, os telespectadores estão usando dispositivos de computação pessoais (por exemplo, smartphones, tabletes, laptops, smartwatches etc.) enquanto assistem a televisão. Os provedores de programação de áudio/vídeo (por exemplo, emissoras, provedores de televisão, provedores de programação sob demanda, provedores de programação via internet e seus semelhantes) podem aproveitar essa oportunidade para se conectar com o espectador por meio de seus dispositivos de computação pessoais. Um dispositivo de computação pessoal usado enquanto se assiste a televisão é conhecido como uma “segunda tela” ou “tela concomitante”.
[004] O conteúdo de segunda tela oferece ao usuário informações adicionais referentes a um conteúdo de áudio/vídeo específico, as quais são apresentadas ao usuário enquanto ele assiste ao conteúdo de áudio/vídeo específico. Mais especificamente, um conteúdo de segunda tela associado a um episódio específico de um programa de televisão destina-se à visualização pelo usuário junto com o episódio específico do programa de televisão. O conteúdo de segunda tela pode incluir informações adicionais, conteúdo interativo e conteúdo relacionado a um conjunto específico de programações de áudio/vídeo. Exemplos mais específicos incluem, entre outros: páginas Web, texto em tela suspensa, publicidade direcionada, conteúdo interativo ou seus semelhantes. Além disso, aplicativos de software de segunda tela (“apps”) foram desenvolvidos como uma forma de permitir que as pessoas participem mais de um programa de televisão específico enquanto assistem a ele.
[005] Logo, é desejável oferecer aos usuários conteúdo associado a apps de segunda tela selecionado de maneira inteligente, tal como apresentar conteúdos associados diretamente a eventos específicos ocorrendo atualmente na programação enquanto estes são visualizados. Ademais, outros recursos e características desejáveis transparecerão pela leitura da descrição detalhada a seguir e Reivindicações apensas, em conjunto com os desenhos anexos e campo técnico e antecedentes da invenção acima.
BREVE SUMÁRIO
[006] A presente invenção refere-se a um método para a utilização sincronizada de um dispositivo eletrônico. O método compreende receber, a partir de um receptor de conteúdo de áudio/vídeo, dados de closed captioning para um conjunto de conteúdos de áudio/vídeo; recuperar detalhes para um primeiro evento ocorrendo no conjunto de conteúdos de áudio/vídeo, em que o primeiro evento é indicado pelos dados de closed captioning recebidos; e apresentar conteúdo ao usuário, usando o dispositivo eletrônico, com base nos detalhes recuperados.
[007] É proposto um sistema para processar conteúdo de áudio/vídeo. O sistema inclui um receptor de conteúdo de áudio/vídeo configurado para fornecer programação de áudio/vídeo a um dispositivo de exibição e fornecer dados de closed captioning; um dispositivo eletrônico de segunda tela configurado para uso junto com a visualização da programação de áudio/vídeo no dispositivo de tela, em que o dispositivo eletrônico de segunda tela é configurado para: receber os dados de closed captioning fornecidos pelo receptor de conteúdo de áudio/vídeo; acessar um servidor remoto para recuperar detalhes para um evento ocorrendo na programação de áudio/vídeo, em que o evento é indicado pelos dados de closed captioning; e apresentar conteúdo ao usuário com base nos detalhes recuperados.
[008] É proposto um meio não transitório legível por computador contendo instruções que, quando executadas por um computador, praticam um método. O método compreende receber, em um dispositivo eletrônico de segunda tela, dados de closed captioning e metadados para um conjunto de programações de áudio/vídeo gravadas durante a reprodução; identificar um evento de programação dentre os dados de closed captioning recebidos; obter informações associadas para o evento de programação; e apresentar ao usuário conteúdo complementar no dispositivo eletrônico de segunda tela com base nas informações associadas obtidas, em que o conteúdo é apresentado quando o evento ocorre no conjunto de programações de áudio/vídeo.
[009] O presente sumário destina-se a apresentar simplificadamente uma seleção de conceitos que são descritos em detalhes abaixo na descrição detalhada. O presente sumário não visa a identificar características cruciais ou essenciais da matéria inventiva reivindicada nem deve ser utilizado na determinação do âmbito desta.
BREVE DESCRIÇÃO DOS DESENHOS
[0010] Um entendimento mais completo da matéria inventiva decorrerá tomando como referência a descrição detalhada e Reivindicações quando consideradas em conjunto com as figuras a seguir, ao longo das quais números de referência iguais indicam elementos semelhantes.
[0011] A FIG. 1 é uma representação esquemática de um sistema para sincronizar um conteúdo de segunda tela a uma programação de áudio/vídeo usando dados de closed captioning de acordo com uma concretização;
[0012] a FIG. 2 é uma representação esquemática em diagrama em blocos de um gerador de lista de reprodução adequado para uso nos sistemas ilustrados na FIG. 1;
[0013] a FIG. 3 é uma representação esquemática de uma lista de reprodução de acordo com uma concretização;
[0014] a FIG. 4 é uma representação esquemática em diagrama em blocos de um aparelho de segunda tela adequado para uso nos sistemas ilustrados na FIG. 1;
[0015] a FIG. 5 é um fluxograma que ilustra uma primeira concretização de um processo para a utilização sincronizada de um dispositivo eletrônico de segunda tela e uma fonte de áudio/vídeo; e
[0016] a FIG. 6 é um fluxograma que ilustra uma segunda concretização de um processo para a utilização sincronizada de um dispositivo eletrônico de segunda tela e uma fonte de áudio/vídeo.
DESCRIÇÃO DETALHADA
[0017] A descrição detalhada a seguir é de caráter meramente ilustrativo e sem a intenção de limitar as concretizações da matéria inventiva ou a aplicação e usos dessas concretizações. Conforme usada no presente documento, a palavra “exemplificativo” significa “que serve de exemplo ou ilustração”. Qualquer implementação descrita neste documento como “exemplificativa” não deve ser interpretada necessariamente como preferida ou vantajosa em relação a outras implementações. Além disso, não há intenção de nos prender a nenhuma teoria expressa ou implícita no campo técnico, antecedentes da invenção ou breve sumário da invenção acima nem na descrição detalhada abaixo.
[0018] A matéria inventiva apresentada neste documento refere-se a métodos e aparelhos usados por um dispositivo eletrônico de segunda tela para sincronizar o conteúdo complementar que ele oferece com um conjunto de programações de áudio/vídeo gravadas durante a reprodução. Essa sincronização é obtida usando dados de closed captioning recebidos a partir de um receptor de conteúdo de áudio/vídeo. Em certas concretizações, uma lista de reprodução é recuperada a partir de um servidor remoto, lista de reprodução essa que indica eventos, sequências de referência de closed captioning e conteúdos apropriados para exibição no dispositivo eletrônico de segunda tela quando da ocorrência de cada evento no conteúdo de áudio/vídeo durante a reprodução. Em algumas concretizações, o sistema faz uma busca na Internet por termos específicos ocorrendo nos dados de closed captioning e fornece o conteúdo resultante ao usuário por meio do dispositivo eletrônico de software de segunda tela.
[0019] Com referência agora aos desenhos, a FIG. 1 é uma representação esquemática de um sistema de sincronização 100 adequadamente configurado para permitir as técnicas de sincronizar um conteúdo de segunda tela a uma programação de áudio/vídeo usando dados de closed captioning, descrita em mais detalhes neste documento. O sistema de sincronização 100 pode incluir, entre outros: uma fonte de conteúdo de áudio/vídeo 102; um receptor de conteúdo de áudio/vídeo 104; um dispositivo de apresentação 106; um gerador de lista de reprodução 108. uma rede de comunicação de dados 110; e um dispositivo eletrônico de segunda tela 112. Deve-se ter em mente que a FIG. 1 ilustra uma concretização simplificada do sistema de sincronização 110 e que uma implementação realista e prática do sistema de sincronização 100 pode incluir elementos ou componentes adicionais.
[0020] A fonte de conteúdo de áudio/vídeo 102 é adequadamente configurada para fornecer uma transmissão de conteúdo de áudio/vídeo 114 (por exemplo, programação de televisão terrestre, programação sob demanda, programação via Internet ou seus semelhantes) a um receptor de conteúdo de áudio/vídeo 104 e a um gerador de lista de reprodução 108. A fonte de conteúdo de áudio/vídeo 102 pode utilizar qualquer metodologia de comunicação de dados, incluindo, entre outras: distribuição de dados via satélite, distribuição de dados por cabo, distribuição de dados por celular, distribuição de dados pela Web ou uma combinação dessas. Tendo isso em vista, o sistema de sincronização 100 pode incluir ou utilizar um sistema de distribuição de conteúdo de áudio/vídeo (não ilustrado). Os detalhes específicos desses sistemas de distribuição e os protocolos de comunicação de dados relacionados não serão descritos neste documento.
[0021] Durante uma operação típica, o receptor de conteúdo de áudio/vídeo 104 recebe conteúdo de áudio/vídeo 114 (tal como conteúdo de programa primário intercalado por eventos de interesse que podem ser associados a conteúdo de segunda tela) sinalizando informações e/ou outros dados por meio de fibras, da Internet, de redes sem fio ou celulares e/ou de transmissões off-air, via satélite ou a cabo. Em certas concretizações, o receptor de conteúdo de áudio/vídeo 104 inclui tecnologia de reprodução de disco de vídeo digital (DVD), tecnologia de reprodução de Blu-Ray ou outra tecnologia de reprodução de vídeo e recebe conteúdo de áudio/vídeo por meio de mídias de entrada. Essas mídias de entrada também podem incluir armazenamento em barramento serial universal (USB), armazenamento em disco rígido externo ou seus semelhantes. Em seguida, o receptor de conteúdo de áudio/vídeo 104 demodula, decodifica, descomprime e/ou processa de alguma outra forma os dados digitais recebidos e, então, converte os dados recebidos em sinais de vídeo adequadamente formatados que podem ser renderizados para visualização e/ou armazenados para visualização futura pelo cliente no dispositivo de apresentação 106. O receptor de conteúdo de áudio/vídeo 104 é configurado ainda para gravar conteúdos de áudio/vídeo recebidos e pode compreender tecnologia de Gravador de Vídeo Digital (DVR). Sendo assim, o receptor de conteúdo de áudio/vídeo 104 pode gravar conteúdos de áudio/vídeo 114 e, durante a reprodução do conteúdo gravado, ser sincronizado e utilizado cooperativamente com o dispositivo eletrônico de segunda tela 112 para oferecer conteúdo adicional e complementar associado à programação gravada.
[0022] O receptor de conteúdo de áudio/vídeo 104 produz uma saída que é comunicada a um dispositivo de apresentação 106. Cada dispositivo de conteúdo de áudio/vídeo 104 pode incluir ou cooperar com um dispositivo de apresentação 106 adequadamente configurado. O dispositivo de apresentação 106 pode ser implementado como, entre outros: um aparelho de televisão; um monitor; uma tela de computador; um dispositivo eletrônico portátil; ou qualquer aparelho do consumidor adequado com recursos de exibição compatíveis. Em várias concretizações, cada receptor de conteúdo de áudio/vídeo 104 é um decodificador de sinais (STB) convencional comumente usado em sistemas de distribuição de televisão via satélite ou a cabo. Em outras concretizações, contudo, a funcionalidade de um receptor de conteúdo de áudio/vídeo 104 pode ser comumente alojada dentro de um dispositivo de apresentação. Em ainda outras concretizações, um receptor de conteúdo de áudio/vídeo 104 é um dispositivo portátil que pode ser transportado com ou sem o dispositivo de apresentação 106. Um receptor de conteúdo de áudio/vídeo 104 também pode ser adequadamente configurado para suportar o recebimento de televisão terrestre, a reprodução de jogos eletrônicos, a gravação de vídeos pessoais, tecnologia de reprodução de vídeos (por exemplo, DVD, Blu- Ray etc.) e/ou outros recursos de acordo com o desejado. Em algumas outras concretizações, o receptor de conteúdo de áudio/vídeo 104, o dispositivo de apresentação 106 e o dispositivo eletrônico de segunda tela 112 podem ser implementados em um único dispositivo de computação, em que a programação de áudio/vídeo apresentada pelo receptor de conteúdo de áudio/vídeo 104 e dispositivo de apresentação 106 e o conteúdo de segunda tela apresentado pelo dispositivo eletrônico de segunda tela 112 são apresentados usando uma tela compartilhada do único dispositivo de computação.
[0023] O receptor de conteúdo de áudio/vídeo 104 é configurado ainda para comunicar dados de saída a um dispositivo eletrônico de segunda tela 112, incluindo dados de closed captioning e dados de temporização para o conteúdo de áudio/vídeo, por meio de uma rede de área local sem fio (WLAN) ou qualquer tecnologia sem fio adequada. Em algumas concretizações, o conteúdo de áudio/vídeo 114 inclui uma sequência de quadros de vídeo, com informações de temporização associadas, formatada de acordo com o padrão Motion Picture Experts Group (MPEG). Os dados de closed captioning identificam o conjunto de conteúdos de áudio/vídeo e apresentam legendas, ou captions, aos espectadores do conjunto de conteúdos de áudio/vídeo. Dados de closed captioning geralmente são usados como uma transcrição da parte sonora de um conjunto de conteúdos de áudio/vídeo à medida que ele ocorre (seja palavra ou palavra ou em forma editada), às vezes incluindo descrições de elementos não falados. As informações de temporização para cada quadro de vídeo podem compreender um valor de Marca de Tempo de Apresentação (PTS). Uma PTS é um valor de temporização de referência que geralmente é incluído em transmissões de mídias em pacote (áudio digital, vídeo ou dados) de acordo com o padrão MPEG. Os valores PTS servem para controlar o alinhamento do tempo de apresentação dessas mídias por meio da sincronização de componentes separados dentro de uma transmissão de conteúdo de vídeo (por exemplo, vídeo, áudio, legendas etc.). Em outras concretizações, as informações de temporização para cada quadro de vídeo compreendem um valor de Referência de Relógio do Programa (PCR). Conforme usado em associação a um vídeo digital comprimido, um valor PCR consiste em uma marca de tempo que indica um valor de Relógio de Tempo do Sistema (STC) associado quando um pacote deixa o codificador. Como alternativa, é possível usar um relógio de Hora do Dia.
[0024] O dispositivo eletrônico de segunda tela 112 é adequadamente configurado para receber dados a partir do receptor de conteúdo de áudio/vídeo 104 e de um ou mais servidores remotos e exibir o conteúdo complementar (isto é, “conteúdo de segunda tela” ou “conteúdo de tela concomitante”) indicado pelos dados recebidos. Em certas concretizações, o dispositivo eletrônico de segunda tela 112 exibe esse conteúdo complementar coordenado ao usuário enquanto ele visualiza um conteúdo de áudio/vídeo gravado que é reproduzido pelo receptor de conteúdo de áudio/vídeo 104. Em algumas concretizações, o dispositivo eletrônico de segunda tela 112 exibe esse conteúdo complementar coordenado ao usuário enquanto ele visualiza conteúdo ao vivo, conteúdo durante sua primeira transmissão ou outra forma de distribuição de conteúdo de áudio/vídeo por meio do receptor de conteúdo de áudio/vídeo 104. O dispositivo eletrônico de segunda tela 112 pode ser implementado na forma de um dispositivo eletrônico de mão, tal como um tablete ou smartphone; um laptop; um netbook; um smartwatch; ou qualquer outro tipo de dispositivo de computação. Em certas concretizações, o dispositivo eletrônico de segunda tela 112 pode ser implementado no mesmo aparelho que o receptor de conteúdo de áudio/vídeo 104 e o dispositivo de apresentação 106. Em algumas concretizações, o dispositivo eletrônico de segunda tela 112 pode utilizar um aplicativo de software especializado (“app”) para executar a funcionalidade associada a oferecer cooperativamente conteúdo de segunda tela para visualização por um usuário enquanto ele assiste a conteúdo de áudio/vídeo oferecido pelo receptor de conteúdo de áudio/vídeo 104.
[0025] Em certas concretizações, o dispositivo eletrônico de segunda tela 112 comunica-se com um ou mais servidores remotos para recuperar o conteúdo de segunda tela por meio da rede de comunicação de dados 110. No entanto, em algumas concretizações, o dispositivo eletrônico de segunda tela 112 recebe conteúdo de segunda tela a partir do próprio receptor de conteúdo de áudio/vídeo 104. Nesse exemplo, o conteúdo de segunda tela pode ser recebido pelo receptor de conteúdo de áudio/vídeo 104 junto com o conteúdo de áudio/vídeo 114 quando este é transmitido ou difundido por uma fonte de conteúdo de áudio/vídeo 102. Em outras concretizações, o conteúdo de segunda tela pode ser recebido pelo receptor de conteúdo de áudio/vídeo 104 antes ou depois de receber o conteúdo de áudio/vídeo 114. Como alternativa, em concretizações em que o conteúdo de áudio/vídeo é recebido no receptor de conteúdo de áudio/vídeo 104 por meio de mídia digital (por exemplo, DVD, Blu-Ray, USB, disco rígido externo etc.), o conteúdo de segunda tela pode ser armazenado na mídia digital para recuperação pelo receptor de conteúdo de áudio/vídeo 104 durante a reprodução. O conteúdo de segunda tela oferece ao usuário informações adicionais referentes a um conteúdo de áudio/vídeo específico, as quais são apresentadas ao usuário enquanto ele assiste ao conteúdo de áudio/vídeo específico. Mais especificamente, o conteúdo de segunda tela associado a um episódio específico de um programa de televisão destina-se à visualização pelo usuário junto com o episódio específico do programa de televisão. O conteúdo de segunda tela pode incluir, entre outros: páginas Web, texto em tela suspensa, publicidade direcionada, conteúdo interativo ou seus semelhantes.
[0026] Na prática, a rede de comunicação de dados 110 pode ser qualquer rede de comunicação digital ou outra rede de comunicação capaz de transmitir mensagens ou dados entre dispositivos, sistemas ou componentes. Em certas concretizações, a rede de comunicação de dados 110 inclui uma rede de comutação de pacotes que facilita a comunicação, endereçamento e roteamento de dados baseados em pacotes. A rede de comutação de pacotes pode ser, por exemplo, uma rede de longa distância, a Internet ou algo do gênero. Em várias concretizações, a rede de comunicação de dados 110 inclui qualquer número de conexões de dados públicos ou privados, ligações ou conexões de rede suportando qualquer número de protocolos de comunicação. A rede de comunicação de dados 110 pode incluir a Internet, por exemplo, ou qualquer outra rede com base em TCP/IP ou outros protocolos convencionais. Em várias concretizações, a rede de comunicação de dados 110 também pode incorporar uma rede de telefonia sem fio e/ou com fio, tal como uma rede de comunicação celular para se comunicar com telefones celulares, assistentes digitais pessoais e/ou seus semelhantes. A rede de comunicação de dados 110 também pode incorporar qualquer tipo de rede de área local e/ou pessoal sem fio ou com fio, tal como uma ou mais redes IEEE 802.3, IEEE 802.16 e/ou IEEE 802.11, e/ou redes que implementem um protocolo de curta distância (por exemplo, Bluetooth). Para fins de brevidade, técnicas convencionais relacionadas a sistemas de comunicação de vídeo/mídia, sistemas de difusão de vídeo/mídia, transmissão de dados, sinalização, controle de rede e outros aspectos funcionais dos sistemas (e dos componentes operacionais individuais dos sistemas) podem não ser descritas em detalhes neste documento.
[0027] A fonte de conteúdo de áudio/vídeo 102 oferece conteúdo de mídia (tal como programação de áudio/vídeo, conteúdo publicitário, programação musical e outros conteúdos de vídeo ou audiovisuais) ao receptor de conteúdo de áudio/vídeo 104 e ao gerador de lista de reprodução 108. O gerador de lista de reprodução, por sua vez, emite uma saída na forma de uma lista de reprodução 116 a um servidor remoto por meio de uma rede de comunicação de dados 110. O gerador de lista de reprodução 108 opera em paralelo ao sistema de distribuição de vídeo normal.
[0028] O gerador de lista de reprodução 108 é configurado para criar uma lista de reprodução de “eventos de interesse” ocorrendo em um conjunto de conteúdos de áudio/vídeo que são sincronizados ao conteúdo de segunda tela apropriado exibido no dispositivo eletrônico de segunda tela 112. Em geral, os eventos podem incluir qualquer coisa ocorrendo nos conteúdos de áudio/vídeo que possa iniciar a visualização simultânea de um conteúdo de segunda tela associado. O gerador de lista de reprodução 108 é configurado ainda para associar os eventos localizados a dados de closed captioning correspondentes ocorrendo simultaneamente no conteúdo de áudio/vídeo 114 e criar uma lista de reprodução 116 para incluir eventos localizados, os dados de closed captioning associados e referências ao conteúdo de segunda tela associado a cada evento.
[0029] A sincronização ocorre quando o conteúdo de segunda tela coordenado apropriado aparece ao mesmo tempo que um evento associado ocorre durante a reprodução do conteúdo de áudio/vídeo. Esse conteúdo complementar melhora a experiência de visualização ao oferecer informações complementares e/ou conteúdo interativo. Por exemplo, uma personagem em um programa de televisão coloca um laptop sobre a mesa e ao mesmo tempo exprime a palavra “Olá!” durante a reprodução do programa de televisão gravado. Aqui, a ação de colocar o laptop sobre a mesa é o evento de interesse e a palavra “Olá!” seria o dado de closed captioning associado. O dispositivo eletrônico de segunda tela recebe dados de closed captioning (por exemplo, “Olá!”) indicando que o laptop foi posicionado sobre a mesa e ao mesmo tempo apresenta conteúdo de segunda tela apropriado ao usuário. O conteúdo de segunda tela apropriado, neste exemplo, pode incluir uma publicidade para a marca de laptop específica, uma página Web para adquirir a marca de laptop específica etc.
[0030] O gerador de lista de reprodução 108 pode ser implementado na forma de um ou mais dispositivos, componentes ou sistemas à base de computador. O gerador de lista de reprodução 108 recebe conteúdo de áudio/vídeo 114 a partir da fonte de conteúdo de áudio/vídeo 102 para processamento e processa o conteúdo de áudio/vídeo 114 para identificar e/ou extrair informações referentes à transmissão de conteúdo de áudio/vídeo 114. Por exemplo, o gerador de lista de reprodução 108 analisa a transmissão de conteúdo de áudio/vídeo 114 para localizar vários eventos ocorrendo dentro do conteúdo de áudio/vídeo 114. O gerador de lista de reprodução 108 associa cada evento localizado a dados de closed captioning que aparecem simultaneamente a cada evento.
[0031] O gerador de lista de reprodução 108 pode ser operado manualmente, usando comandos humanos, ou pode ser operado usando hardware, software ou outra tecnologia de computador especializada para determinar, indicar e/ou gravar a ocorrência de eventos específicos e associar os eventos específicos a dados de closed captioning que aparecem mais próximos no tempo de cada evento (o que também é chamado de sequência de referência de closed captioning). O gerador de lista de reprodução 108 é configurado ainda para associar cada um dos eventos a referências a um conteúdo complementar apropriado para apresentação em uma segunda tela. O gerador de lista de reprodução 108 cataloga os eventos, sequências de referência de closed captioning associadas e conteúdo complementar associado na forma de uma lista de reprodução.
[0032] O gerador de lista de reprodução 108 produz uma saída contendo a lista de reprodução 116 para o conteúdo de áudio/vídeo 114 e comunica essa lista de reprodução 116 a um ou mais servidores remotos por meio da rede de comunicação de dados 110 para uso localizado por dispositivos eletrônicos de segunda tela 112. Em certas concretizações, a lista de reprodução 116 é fornecida fora do sistema de sincronização 100 e já se encontra localizada em um servidor remoto para recuperação por um dispositivo eletrônico de segunda tela 112 por meio da rede de comunicação de dados 110. Nesse caso, o gerador de lista de reprodução 108 é desnecessário e, portanto, não é incluído no sistema de sincronização 100.
[0033] Em uma primeira implementação do sistema de sincronização 100, o dispositivo eletrônico de segunda tela 112 recupera uma lista de reprodução 116 a partir de um servidor remoto, por meio da rede de comunicação de dados 110, para indicar conteúdo de segunda tela apropriado e a closed caption destinada a iniciar a exibição do conteúdo de segunda tela. Em seguida, o dispositivo eletrônico de segunda tela 112 recebe dados de closed captioning a partir do receptor de conteúdo de áudio/vídeo enquanto o conteúdo de áudio/vídeo 114 é visualizado (por exemplo, durante a reprodução do conteúdo gravado) e exibe o conteúdo apropriado durante cada evento indicado pela lista de reprodução 116. Além disso, o dispositivo eletrônico de segunda tela 112 também recebe metadados a partir do receptor de conteúdo de áudio/vídeo 104 durante a reprodução do conteúdo de áudio/vídeo 114. Esses metadados são associados a um conjunto de conteúdos de áudio/vídeo 114 específico e podem incluir, entre outros: um título, um identificador de programa exclusivo, um gênero e uma descrição.
[0034] Em uma segunda implementação do sistema de sincronização 100, o dispositivo eletrônico de segunda tela 112 recebe dados de closed captioning a partir do receptor de conteúdo de áudio/vídeo 104, localiza palavras específicas dentro dos dados de closed captioning e exibe conteúdo de segunda tela associado às palavras exibidas. Para localizar o conteúdo de segunda tela para exibição, o dispositivo eletrônico de segunda tela 112 faz uma pesquisa em um ou mais servidores remotos para recuperar dados adicionais associados às palavras localizadas.
[0035] Para fins de simplicidade e de facilitar a ilustração, a FIG. 1 e a presente descrição pressupõem que só um gerador de lista de reprodução 108 é empregado no sistema de sincronização 100 e que só uma fonte de conteúdo de áudio/vídeo 102 comunica-se com o gerador de lista de reprodução 108. Deve-se ter em mente, contudo, que uma concretização do sistema de sincronização 100 pode incluir ou suportar qualquer número de geradores de lista de reprodução 108 e qualquer número de fontes de conteúdo de áudio/vídeo 102. A fonte de conteúdo de áudio/vídeo 102 é implementada na forma de um dispositivo ou sistema fisicamente distinto e remoto relacionado ao gerador de lista de reprodução 108. Ademais, uma fonte de conteúdo de áudio/vídeo 102 fisicamente distinta pode se comunicar com o gerador de lista de reprodução 108 diretamente ou por meio da rede de comunicação de dados 110, se assim desejado.
[0036] A FIG. 2 é uma representação esquemática em diagrama em blocos de um gerador de lista de reprodução 200 adequado para uso nos sistemas ilustrados na FIG. 1. O gerador de lista de reprodução 200 pode ser concretizado na forma de um componente ou sistema à base de computador. A concretização ilustrada do gerador de lista de reprodução 200 no geral inclui, entre outros: uma arquitetura de processador 202; um elemento de memória 204; uma interface do usuário 206; um módulo de comunicação 208; um módulo de análise do conteúdo de áudio/vídeo 210; e um gerador de saída 212. Esses componentes e elementos podem ser interligados, de acordo com o necessário, para fins de interação e comunicação usando, por exemplo, uma estrutura ou arquitetura de interconexão. Deve-se ter em mente que o gerador de lista de reprodução 200 representa uma concretização “com todos os recursos” que suporta vários recursos descritos neste documento. Na prática, a implementação do gerador de lista de reprodução 200 não precisa suportar todos os recursos aprimoradas descritos neste documento e, portanto, um ou mais dos elementos representados na FIG. 2 podem ser omitidos em uma concretização prática. Além disso, uma implementação prática do gerador de lista de reprodução 200 há de incluir elementos e recursos adicionais que suportem funções e operações convencionais.
[0037] A arquitetura de processador 202 pode ser implementada ou realizada com um ou mais processadores de uso geral, uma memória de conteúdo endereçável, um processador de sinais digitais, um circuito integrado de aplicação específica, um arranjo de portas programável em campo, qualquer dispositivo lógico programável, lógica de portas ou transistores distintos, componentes de hardware distintos ou qualquer combinação desenvolvida para praticar as funções descritas neste documento. Em particular, a arquitetura de processador 202 pode ser concretizada na forma de um ou mais microprocessadores, controladores, microcontroladores ou máquinas de estado. Ademais, a arquitetura de processador 202 pode ser implementada na forma de uma combinação de dispositivos de computação, por exemplo, uma combinação de processadores e microprocessadores de sinais digitais, vários microprocessadores, um ou mais microprocessadores junto com um núcleo processador de sinais digitais ou qualquer outra configuração desse tipo.
[0038] O elemento de memória 204 pode ser concretizado usando qualquer número de dispositivos, componentes ou módulos, conforme apropriado à concretização. Além disso, o gerador de lista de reprodução 200 poderia incluir um elemento de memória 204 integrado a ele e/ou um elemento de memória 204 ligado operacionalmente a ele, conforme apropriado à concretização específica. Na prática, o elemento de memória 204 pode ser concretizado na forma de memória RAM, memória flash, memória EPROM, memória EEPROM, registros, um disco rígido, um disco removível ou qualquer outra forma de meio de armazenamento conhecida na técnica. Em certas concretizações, o elemento de memória 204 inclui um disco rígido, que também pode ser usado para suportar funções do gerador de lista de reprodução 200. O elemento de memória 204 pode ser ligado à arquitetura de processador 202 de tal modo que ela seja capaz de ler e escrever informações nele. Como alternativa, o elemento de memória 204 pode ser integrado à arquitetura de processador 202. Em um exemplo, a arquitetura de processador 202 e o elemento de memória 204 podem residir em um ASIC adequadamente desenvolvimento.
[0039] O elemento de memória 204 pode ser usado para armazenar e manter informações para uso pelo gerador de lista de reprodução 200. Por exemplo, o elemento de memória 204 pode ser usado para armazenar referências a eventos selecionados do conteúdo de áudio/vídeo, bem como dados de closed captioning e desvios de tempo associados. O elemento de memória 204 também pode ser usado para armazenar dados referentes a conteúdos de segunda tela aplicáveis para cada evento indicado. Decerto, o elemento de memória 204 também pode ser usado para armazenar dados adicionais, de acordo com o necessário, para suportar a operação do gerador de lista de reprodução 200.
[0040] A interface do usuário 206 pode incluir ou cooperar com vários recursos para permitir que o usuário interaja com o gerador de lista de reprodução 200. Logo, a interface do usuário 206 pode incluir várias interfaces homem-máquina, por exemplo, um teclado numérico, teclas, um teclado, botões, chaves, botões giratórios, uma superfície de toque, um joystick, um dispositivo apontador, uma mesa de escrita virtual, uma tela de toque, um microfone ou qualquer dispositivo, componente ou função que permita ao usuário selecionar opções, informações de comando ou controlar de alguma outra forma a operação do gerador de lista de reprodução 200. Por exemplo, a interface do usuário 206 pode ser manipulada por um operador para marcar os eventos selecionados ocorrendo ao longo de todo o conteúdo de áudio/vídeo, conforme descrito acima.
[0041] O módulo de comunicação 208 é adequadamente configurado para receber e executar processamento sobre sinais recebidos pelo gerador de lista de reprodução 200 e transmitir sinais a partir do gerador de lista de reprodução 200. O módulo de comunicação 208 é usado para comunicar dados entre o gerador de lista de reprodução 200 e um ou mais servidores remotos. Conforme descrito em mais detalhes abaixo, dados recebidos pelo módulo de comunicação 208 incluem conteúdo de áudio/vídeo advindo de uma fonte de conteúdo de áudio/vídeo (vide, por exemplo, a FIG. 1). Dados oferecidos pelo módulo de comunicação 208 incluem uma lista de reprodução detalhando eventos e seus dados de closed captioning associados, desvios de tempo e conteúdos de segunda tela indicados para exibição quando um evento for visualizado pelo usuário. O módulo de comunicação 208 pode alavancar conceitos de desenvolvimento convencionais, que não precisam ser descritos em detalhes neste documento.
[0042] O módulo de análise do conteúdo de áudio/vídeo 210 é adequadamente configurado para executar a análise de um conjunto de conteúdos de áudio/vídeo como um todo e/ou de cada quadro individual contido dentro de um conjunto de conteúdos de áudio/vídeo. Em algumas concretizações, essa análise é realizada para determinar eventos ocorrendo dentro de uma transmissão de conteúdo de áudio/vídeo 114, conforme ilustra a FIG. 1. Em algumas concretizações, a análise pode ser realizada para determinar a existência e localização de eventos de interesse ocorrendo ao longo de todo o conjunto de conteúdos de áudio/vídeo específico. Em algumas concretizações, os eventos incluem ações realizadas, palavras ou frases proferidas, o surgimento ou desaparecimento de atores, cenário etc. na tela e/ou qualquer outra coisa que ocorra no conteúdo de áudio/vídeo.
[0043] O módulo de análise do conteúdo de áudio/vídeo 210 é configurado ainda para associar os eventos localizados a dados de closed captioning correspondentes ocorrendo simultaneamente no conjunto de conteúdos de áudio/vídeo. Por exemplo, quando o conjunto de conteúdos de áudio/vídeo compreende um programa de televisão e quando um evento compreende uma ação realizada por um ator no programa de televisão, o módulo de análise do conteúdo de áudio/vídeo 210 localiza a ocorrência da ação, determina os dados de closed captioning que aparecem na tela no momento em que a ação é executada e associa a realização da ação aos dados de closed captioning apropriados.
[0044] Em certas concretizações, o evento ocorre em um momento que não se alinha exatamente aos dados de closed captioning. Neste caso, o gerador de lista de reprodução 108 associa o evento a dados de closed captioning aparecendo mais próximos no tempo ao evento e também associa um desvio de tempo para indicar o tempo de duração entre o evento e o aparecimento dos dados de closed captioning. As informações de temporização associadas a cada quadro individual dentro da transmissão de conteúdo de áudio/vídeo 114 podem ser usadas pelo gerador de lista de reprodução 108 para determinar um desvio de tempo, e as informações de temporização podem incluir valores de Marca de Tempo de Apresentação (PTS) e valores de Referência de Relógio do Programa (PCR), ou seus semelhantes.
[0045] O gerador de saída 212 é adequadamente configurado para receber e formatar dados obtidos pelo módulo de análise do conteúdo de áudio/vídeo 210. Em algumas concretizações, os dados são formatados em uma lista de reprodução adequada para transmissão a um ou mais servidores remotos para armazenamento e recuperação por um aparelho de segunda tela. A lista de reprodução, portanto, transmite os dados de eventos do conteúdo de áudio/vídeo em um formato apropriado que pode ser recuperado e processado pelo aparelho de segunda tela. O gerador de saída 212 cria a lista de reprodução de modo a incluir eventos localizados, os dados de closed captioning associados e um desvio de tempo (quando aplicável).
[0046] Além de formatar os dados obtidos pelo módulo de análise do conteúdo de áudio/vídeo 210 em uma lista de reprodução, o gerador de saída 212 também incorpora à lista de reprodução uma referência a conteúdos de segunda tela apropriados para cada evento. O gerador de saída 212 recebe informações referentes a conteúdos de segunda tela apropriados para associação a cada evento a partir de uma fonte externa. Em geral, essas informações são recebidas por meio do módulo de comunicação 208, quando o gerador de lista de reprodução 200 é operado usando um aparelho de computação adequado, e/ou da interface do usuário 206, quando o gerador de lista de reprodução 200 é operado manualmente.
[0047] A FIG. 3 é uma representação esquemática de uma lista de reprodução 300 de acordo com uma concretização. Conforme ilustrado, uma lista de reprodução 300 geralmente inclui um campo contendo um identificador de programa 302. Em geral, o identificador de programa 302 atua como um identificador exclusivo para toda a programação que pode utilizar o mesmo título e permite a criação de uma única lista de reprodução para cada subconjunto de conteúdos de áudio/vídeo identificado.
[0048] Cada lista de reprodução 300 inclui ainda uma lista de eventos 304 e, para cada evento 304, uma sequência de referência de closed captioning 306, um desvio de tempo 308 e detalhes do conteúdo de segunda tela 302. Cada um dos eventos 304 é listado por nome e/ou descrição. A sequência de referência de closed captioning 306 inclui os dados de closed captioning que aparecem na tela quando o evento 304 ocorre em um subconjunto de conteúdos de áudio/vídeo. Cada sequência de referência de closed captioning 306 é pré-selecionada com base em seu aparecimento só uma vez em um conjunto de conteúdos de áudio/vídeo específico. Uma vez que a sequência de referência de closed captioning 306 aparece na tela durante a visualização do subconjunto de conteúdos de áudio/vídeo, a sequência de referência de closed captioning 306 inicia a ação (por exemplo, a apresentação de conteúdo adicional) em um aparelho de segunda tela. O desvio de tempo 308 representa o tempo entre o aparecimento da sequência de referência de closed captioning 306 e o aparecimento do evento indicado 304 na tela, conforme descrito com referência à FIG. 1.
[0049] Os detalhes do conteúdo de segunda tela 310 incluem uma referência ou indicação de um conteúdo específico para exibição em um aparelho de segunda tela simultaneamente à ocorrência de cada um dos eventos. Conteúdos de segunda tela apropriados incluem qualquer forma de informações adicionais e/ou associadas referentes ao conjunto de conteúdos de áudio/vídeo. Em certas concretizações, uma referência a um conteúdo de segunda tela apropriado pode incluir um localizador de recursos uniforme (URL) para um site, quando o site indicado exibir dados adicionais para o evento associado, publicidade direcionada associada ao evento e/ou conteúdo interativo para uso durante a visualização do evento. Em algumas concretizações, uma referência a um conteúdo de segunda tela pode incluir uma representação em texto e/ou imagens para exibição durante a visualização do evento.
[0050] A FIG. 4 é uma representação esquemática em diagrama em blocos de um dispositivo eletrônico de segunda tela 400 adequado para uso nos sistemas ilustrados na FIG. 1. O dispositivo eletrônico de segunda tela 400 pode ser concretizado na forma de qualquer dispositivo à base de computador que possa ser usado junto com um receptor de conteúdo de áudio/vídeo e dispositivo de apresentação (indicados respectivamente por 104 e 106 na FIG. 1). A concretização ilustrada de um dispositivo eletrônico de segunda tela 400 geralmente inclui uma arquitetura de processador 402; um elemento de memória 404; uma interface do usuário 406; um módulo de comunicação sem fio 408; um módulo de análise do conteúdo de áudio/vídeo 410; e um módulo de conteúdo de segunda tela 412. Esses elementos e recursos de um dispositivo eletrônico de segunda tela 400 podem ser operacionalmente associados uns aos outros, interligados ou configurados de alguma outra forma para cooperar uns com os outros de acordo com o necessário para suportar a funcionalidade desejada - em especial, exibir conteúdos de segunda tela indicados por dados de closed captioning recebidos, conforme descrito neste documento. Para fins de clareza e de facilitar a ilustração, as várias ligações e interconexões físicas, elétricas e lógicas desses elementos e recursos não são representadas na FIG. 4. Além disso, deve-se ter em mente que concretizações do dispositivo eletrônico de segunda tela 400 hão de incluir outros elementos, módulos e recursos que cooperem para suportar a funcionalidade desejada. Para fins de simplicidade, a FIG. 4 só representa alguns elementos referentes a técnicas de exibição de conteúdo de tela descritas em mais detalhes neste documento.
[0051] A arquitetura de processador 402, o elemento de memória 404 e a interface do usuário 406 são semelhantes, no que tange à configuração e ao funcionamento, a suas contrapartes descritas acima no contexto do gerador de lista de reprodução 200. Logo, recursos e operações em comum desses elementos do dispositivo eletrônico de segunda tela 400 não serão descritos aqui para evitar redundâncias. No entanto, em algumas concretizações, a interface do usuário 406 para o dispositivo eletrônico de segunda tela 400 compreende ainda uma tela para exibir conteúdo de segunda tela, que pode incluir conteúdo interativo, publicidade direcionada, texto em tela suspensa e/ou dados adicionais relacionados a conteúdos de áudio/vídeo reproduzidos simultaneamente.
[0052] O módulo de comunicação sem fio 408 é configurado adequadamente para comunicar dados entre o dispositivo eletrônico de segunda tela 400 e um ou mais servidores remotos e/ou um ou mais dispositivos dentro do alcance sem fio do dispositivo eletrônico de segunda tela 400. Em geral, o módulo de comunicação sem fio 408 transmite e recebe sinais compatíveis com uma rede de área local sem fio (WLAN) (por exemplo, usando um padrão IEEE 802.11). O módulo de comunicação sem fio 408 pode utilizar uma rede ad-hoc, uma rede Bluetooth, uma PAN ou uma WLAN em combinação com a Internet, uma rede celular, uma rede de difusão, uma rede de longa distância ou seus semelhantes.
[0053] Conforme descrito com mais detalhes abaixo, dados recebidos pelo módulo de comunicação sem fio 408 podem incluir, entre outros: dados de closed captioning e/ou metadados associados a conteúdo de áudio/vídeo durante a reprodução recebidos a partir de um receptor de conteúdo de áudio/vídeo; uma lista de reprodução advinda de um servidor remoto; e conteúdo de segunda tela associado a conteúdo de áudio/vídeo para exibição durante a reprodução do conteúdo de áudio/vídeo associado. Dados oferecidos pelo módulo de comunicação sem fio 408 podem incluir, entre outros: pedidos a servidores remotos para recuperar uma lista de reprodução e/ou conteúdo de segunda tela indicado.
[0054] O módulo de análise do conteúdo de áudio/vídeo 410 é configurado para analisar dados de closed captioning e dados de temporização recebidos pelo módulo de comunicação sem fio 408 durante a reprodução de um conteúdo de áudio/vídeo em um receptor de conteúdo de áudio/vídeo. O receptor de conteúdo de áudio/vídeo está dentro do alcance de comunicação sem fio do dispositivo eletrônico de segunda tela 400, e os dados de closed captioning e os dados de temporização são transmitidos sem o uso de fios pelo receptor de conteúdo de áudio/vídeo durante a reprodução do conteúdo gravado. Na prática, o módulo de análise do conteúdo de áudio/vídeo 410 pode ser implementado (ou cooperar) com a arquitetura de processador 402 para praticar ao menos algumas das funções e operações descritas em mais detalhes neste documento. Tendo isso em mente, o módulo de análise do conteúdo de áudio/vídeo 410 pode ser concretizado como lógica de processamento adequadamente escrita, código de programa de aplicativo ou seus semelhantes.
[0055] Em uma primeira implementação, o módulo de análise do conteúdo de áudio/vídeo 410 identifica o conteúdo de áudio/vídeo sendo reproduzido e recupera uma lista de reprodução para o conteúdo de áudio/vídeo identificado (tal como a lista de reprodução 300 ilustrada na FIG. 3) a partir de um servidor remoto por meio do módulo de comunicação sem fio 408. O módulo de análise do conteúdo de áudio/vídeo 410 faz uma pesquisa para comparar os dados de closed captioning recebidos às sequências de referência de closed caption associadas a eventos catalogados na lista de reprodução. Quando é encontrada uma correspondência entre uma caption recebida e uma sequência de referência de closed captioning na lista de reprodução, o módulo de análise do conteúdo de áudio/vídeo 410 divulga o resultado e uma indicação de conteúdo de segunda tela apropriado na lista de reprodução ao módulo de conteúdo de segunda tela 412 para exibição. Dados de closed captioning são recebidos continuamente durante a reprodução do conteúdo de áudio/vídeo gravado, e o módulo de análise do conteúdo de áudio/vídeo 410 realiza continuamente pesquisas para fazer comparações e localizar dados correspondentes na lista de reprodução.
[0056] Em algumas concretizações, um desvio de temporização também é apresentado na lista de reprodução, e o dispositivo eletrônico de segunda tela 400 utiliza tanto os dados de closed captioning quanto os dados de temporização recebidos no módulo de comunicação sem fio 408 para apresentar conteúdos de segunda tela no momento apropriado. Por exemplo, pressupõe-se que um evento inclui uma personagem na tela colocando uma mala no chão. Esse evento pode ser associado a uma sequência de referência de closed captioning que inclui a palavra “mala” e um desvio de temporização de três segundos. Nesse exemplo, o módulo de análise do conteúdo de áudio/vídeo 410 recebe os dados de closed captioning, incluindo a palavra “mala”, faz a pesquisa para determinar uma correspondência na lista de reprodução para o evento, determina que existe um desvio de temporização de três segundos associado ao evento na lista de reprodução e comunica essa informação ao módulo de conteúdo de segunda tela 412 para uso.
[0057] Em uma segunda implementação, o módulo de análise do conteúdo de áudio/vídeo 410 não utiliza uma lista de reprodução para determinar quando eventos de interesse estão ocorrendo na tela, mas, em vez disso, analisa gramaticalmente dados de closed captioning recebidos durante a reprodução de conteúdos gravados a fim de localizar palavras de caption indicativas de eventos ocorrendo na tela. Em seguida, o módulo de análise do conteúdo de áudio/vídeo 410 comunica essas palavras ao módulo de conteúdo de segunda tela 412 para a recuperação e apresentação apropriadas de conteúdo de segunda tela associado às palavras. Em geral, as palavras de closed caption utilizadas incluem substantivos próprios. No contexto dessa aplicação, um “substantivo próprio” pode ser definido como um substantivo em letras maiúsculas nos dados de closed captioning transmitidos, de modo a incluir nomes de pessoas, lugares ou coisas de relevância significativa para o conjunto atual de conteúdos de áudio/vídeo.
[0058] Em certas concretizações, o dispositivo eletrônico de segunda tela 400 pode utilizar uma “lista negra” de termos não autorizados para impedir que palavras de caption indesejadas sejam transmitidas ao módulo de conteúdo de segunda tela 412 para uso na recuperação e apresentação de conteúdo de segunda tela. Por exemplo, palavras indicadas pela Comissão de Comunicações Federal (FCC) como impróprias para a teledifusão durante o dia podem se fazer presentes na “lista negra” de palavras para impedir a apresentação de conteúdos associados a linguagem obscena. A “lista negra” de palavras pode ser configurável pelo usuário e pode incluir não só obscenidades, mas qualquer palavra para a qual o usuário não deseja visualizar conteúdo adicional. Nesse caso, se o usuário não gosta de um programa de televisão específico ou não aprecia manchetes recentes associadas a um ator específico, ele simplesmente adiciona o nome do programa de televisão ou ator à “lista negra” e o módulo de conteúdo de segunda tela 412 não obterá nem apresentará conteúdos complementares com base nessas palavras.
[0059] Em algumas concretizações, o dispositivo eletrônico de segunda tela 400 pode utilizar uma “lista branca” de palavras. Essa “lista branca” pode ser usada para buscar ativamente palavras dentro do conteúdo de closed captioning e recuperar e apresentar conteúdo de segunda tela associado a essas palavras. Uma “lista branca” de palavras pode ser usada para garantir que assuntos, pessoas, lugares ou coisas específicas de interesse do usuário sejam ativamente utilizados na apresentação de conteúdos de segunda tela, mesmo em casos em que os métodos convencionais de seleção de palavras dentro dos dados de closed captioning os deixariam escapar.
[0060] Em certas concretizações, o módulo de análise do conteúdo de áudio/vídeo 410 localiza as palavras de caption nos dados de closed captioning transmitidos e determina um contexto para cada uma das palavras de caption a fim de apresentar conteúdo de segunda tela que seja relevante ao conteúdo de áudio/vídeo. O contexto pode ser determinado analisando dados de closed captioning recebidos usando, entre outras, uma das metodologias a seguir: o tipo de conteúdo de áudio/vídeo e da palavra de caption; ou a própria palavra de caption, bem como o grupo circundante de palavras de caption.
[0061] O módulo de conteúdo de segunda tela 412 é configurado para recuperar e exibir conteúdo de segunda tela apropriado para complementar e acompanhar um conjunto de conteúdos de áudio/vídeo durante a reprodução em um receptor de conteúdo de áudio/vídeo (tal como o indicado pelo número de referência 104 na FIG. 1). Em geral, um receptor de conteúdo de áudio/vídeo transmite dados de closed captioning e dados de temporização ao dispositivo eletrônico de segunda tela 400, onde estes são analisados pelo módulo de análise do conteúdo de áudio/vídeo 410 a fim de identificar eventos de interesse no conjunto de conteúdos de áudio/vídeo usando dados de closed captioning (com base em uma lista predefinida ou palavras de caption identificadas aparecendo nos dados de closed captioning). O módulo de conteúdo de segunda tela 412 utiliza as informações independentemente desses eventos de interesse e exibe conteúdo complementar apropriado no dispositivo eletrônico de segunda tela 400.
[0062] O conteúdo complementar apresentado em uma segunda tela pode incluir, entre outros: imagens, texto, um endereço de site (tal como um URL), publicidades, conteúdo interativo do usuário (por exemplo, pesquisas, interações com mídia social etc.) ou outros conteúdos relevantes apropriados para exibição em um dispositivo eletrônico de segunda tela 400. Na primeira implementação, na qual é usada uma lista de reprodução, o conteúdo de segunda tela é indicado pela lista de reprodução (representado pelo número de referência 310 na FIG. 3). Na segunda implementação, na qual são identificadas palavras de caption nos dados de closed captioning, o módulo de conteúdo de segunda tela 412 inicia uma busca na Internet (por meio do módulo de comunicação sem fio 408) para recuperar conteúdo relevante a uma palavra de caption. Essas pesquisas na Internet são realizadas de acordo com um contexto determinado da palavra de caption e podem produzir links para sites “oficiais”, sites de notícias/informações, sites com conteúdo interativo e seus semelhantes.
[0063] A FIG. 5 é um fluxograma que ilustra uma primeira concretização de um processo 500 para a utilização sincronizada de um dispositivo eletrônico de segunda tela e uma fonte de áudio/vídeo. Nessa concretização específica, uma lista de reprodução é recuperada e usada para fornecer conteúdo complementar em um dispositivo eletrônico de segunda tela. As várias tarefas realizadas com relação ao processo 500 podem ser realizadas por software, hardware, firmware ou qualquer combinação desses. Para fins ilustrativos, a descrição a seguir do processo 500 pode referir-se a elementos mencionados acima com referência às FIGs. de 1 a 4. Na prática, diferentes partes do processo 500 podem ser executadas por diferentes elementos do sistema descrito, por exemplo, um gerador de lista de reprodução, um receptor de conteúdo de áudio/vídeo ou um dispositivo eletrônico de segunda tela. Deve-se ter em mente que o processo 500 pode incluir qualquer número de tarefas adicionais ou alternativas, que as tarefas ilustradas na FIG. 5 não precisam ser realizadas na ordem ilustrada e que o processo 500 pode ser incorporado a um procedimento ou processo mais abrangente com funcionalidade adicional não descrita em detalhes neste documento. Além disso, uma ou mais das tarefas ilustradas na FIG. 5 podem ser omitidas em uma concretização do processo 500 desde que a funcionalidade geral tencionada permaneça intacta.
[0064] Para fins de clareza e facilidade de descrição, pressupõe-se que o processo 500 começa recebendo dados de closed captioning para um conjunto de conteúdos de áudio/vídeo a partir de um receptor de conteúdo de áudio/vídeo (etapa 502). Geralmente, os dados de closed captioning são transmitidos, por meio da rede de comunicação sem fio, a um dispositivo eletrônico de segunda tela, onde o processo 500 é executado. Os dados de closed captioning identificam o conjunto de conteúdos de áudio/vídeo e apresentam legendas, ou captions, aos espectadores do conjunto de conteúdos de áudio/vídeo. Os dados de closed captioning geralmente são usados como uma transcrição da parte sonora de um programa à medida que ele ocorre (seja palavra ou palavra ou em forma editada), às vezes incluindo descrições de elementos não falados. Em certas concretizações, metadados associados ao conjunto de conteúdos de áudio/vídeo também são transmitidos. Os metadados podem incluir um identificador de programação, título, descrição, gênero ou outras informações relevantes ao conjunto de conteúdos de áudio/vídeo específico.
[0065] A seguir, o processo 500 recupera uma lista de reprodução, que compreende uma lista de eventos ocorrendo no conjunto de conteúdos de áudio/vídeo e detalhes associados a cada um dos eventos na lista de eventos (etapa 504). Uma lista de reprodução é criada e armazenada para uso futuro, e esse conceito está além do âmbito do presente pedido de patente. A lista de reprodução pode ser armazenada em um servidor remoto ou em uma mídia portátil (por exemplo, DVD, Blu-Ray, armazenamento USB etc.) e ser recuperada para uso. Em algumas concretizações, a lista de reprodução é recebida conjuntamente à programação, tal como incluída em uma transmissão a cabo ou via satélite. Uma concretização exemplificativa de uma lista de reprodução é ilustrada na FIG. 3. Os eventos catalogados na lista de reprodução são ocorrências no conjunto de conteúdos de áudio/vídeo que têm alguma relevância - são pontos no programa em que conteúdo complementar será exibido por meio de um dispositivo eletrônico de segunda tela. Os detalhes associados a cada evento incluem uma sequência de referência de closed captioning ou, em outras palavras, uma closed caption que aparece no ponto no tempo quando o evento ocorre no conjunto de conteúdos de áudio/vídeo. Detalhes associados a cada evento também incluem uma indicação de conteúdo de segunda tela apropriado para exibição no momento quando o evento ocorre. Em certas concretizações, a lista de reprodução específica recuperada para um conjunto de conteúdos de áudio/vídeo específico é indicada pelos metadados recebidos. Por exemplo, metadados incluindo um identificador de programa específico podem iniciar a recuperação de uma lista de reprodução que inclui o mesmo identificador de programa.
[0066] Em certas concretizações, uma sequência de referência de closed captioning não aparece no exato momento em que o evento de interesse ocorre no conjunto de conteúdos de áudio/vídeo durante a reprodução. Nesse caso, um desvio de tempo também é incluído como parte da lista de reprodução, e os dados de temporização recebidos são usados para determinar o tempo apropriado para que o conteúdo de segunda tela seja exibido. Por exemplo, uma closed caption indicando um evento pode aparecer dois segundos antes da ocorrência do evento. Nesse caso, um desvio de tempo de dois segundos seria incluído na lista de reprodução para o evento.
[0067] Em seguida, o processo 500 apresenta conteúdo ao usuário, com base na lista de reprodução, usando o dispositivo eletrônico de segunda tela (etapa 506). Durante a reprodução do conjunto de conteúdos de áudio/vídeo, o processo 500 recebe continuamente dados de closed captioning (etapa 502) e os compara às sequências de referência de closed captioning catalogadas na lista de reprodução recuperada. Quando uma caption recebida coincide com uma sequência de referência de closed captioning para um evento na lista de reprodução, o processo 500 identifica uma referência ou um indicador de conteúdo de segunda tela apropriado (também catalogado na lista de reprodução), recupera o conteúdo de segunda tela apropriado a partir da memória do sistema e/ou de um servidor remoto e exibe o conteúdo de segunda tela no dispositivo eletrônico de segunda tela.
[0068] A FIG. 6 é um fluxograma que ilustra uma segunda concretização de um processo 600 para a utilização sincronizada de um dispositivo eletrônico de segunda tela e uma fonte de áudio/vídeo. Nessa concretização específica, palavras de caption dentre os dados de closed captioning de um conjunto de conteúdos de áudio/vídeo são identificadas e usadas para fornecer conteúdo complementar em um dispositivo eletrônico de segunda tela. Em primeiro lugar, o processo 600 recebe dados de closed captioning para o conjunto de conteúdos de áudio/vídeo a partir de um receptor de conteúdo de áudio/vídeo. Em seguida, o processo 600 identifica uma palavra dentre os dados de closed captioning recebidos (etapa 604). Em certas concretizações, a palavra é um substantivo próprio, ou, em outras palavras, um nome em letras maiúsculas identificando uma pessoa, lugar ou coisa de importância, que é discutido, aparece e/ou ocorre dentro do conjunto de conteúdos de áudio/vídeo. Em algumas concretizações, a palavra pode ser selecionada com base na frequência de uso dentro de um programa.
[0069] Em certas concretizações exemplificativas, depois de identificar a palavra de caption (etapa 602), com base na ocorrência da palavra de caption nos dados de closed captioning de um conjunto de conteúdos de áudio/vídeo durante a reprodução, o processo 600 compara a palavra de caption a uma “lista negra” predefinida de termos não autorizados. Quando a palavra de caption (por exemplo, substantivo próprio) aparece na lista predefinida de termos não autorizados, o processo 600 encerra a ação para a palavra de caption e não apresenta nenhum conteúdo com base nela ou associado ao evento específico.
[0070] A seguir, o processo determina o contexto da palavra de caption identificada (etapa 606). O contexto pode ser determinado analisando o gênero do conjunto de conteúdos de áudio/vídeo junto com a palavra, ou analisando a palavra identificada e um grupo de palavras circundantes. Por exemplo, o conjunto de conteúdos de áudio/vídeo pode incluir uma apresentação de televisão terrestre, que pode ser identificada por um gênero ou tipo. Gêneros de programação de áudio/vídeo podem incluir um dos seguintes, entre outros: notícias, esporte, música, comédia, drama, filme ou seus semelhantes. Ao determinar um contexto para a palavra identificada usando o gênero do conteúdo de áudio/vídeo e a própria palavra, o processo 600 primeiramente localiza uma palavra de caption nos dados de closed captioning recebidos e, então, recebe o gênero indicado a partir de metadados recebidos.
[0071] Uma vez que uma palavra de caption é identificada dentre os dados de closed captioning e o gênero do programa é determinado, o módulo de análise do conteúdo de áudio/vídeo 410 faz uma pesquisa para determinar o contexto apropriado. Por exemplo, se a palavra de caption identificada é o substantivo próprio “Boston” e o tipo de programa foi determinado como notícias, o contexto determinado indica que “Boston” refere-se à cidade de Boston. Em outro exemplo, se a palavra de caption identificada é o substantivo próprio “Boston” e o tipo de programa é música, o contexto indica que “Boston” refere-se a uma banda musical chamada Boston. Em um último exemplo, se a palavra de caption identificada é o substantivo próprio “Boston” e o tipo de programa é esporte, o contexto indica que “Boston” refere-se a um time esportivo, tal como o Boston Celtics.
[0072] Além disso, uma vez que uma palavra de caption é identificada, o módulo de análise do conteúdo de áudio/vídeo 410 pode simplesmente apresentar opções ao usuário e permitir que ele determine o contexto para a palavra de caption em questão. Por exemplo, se a palavra de caption “Boston” é identificada como um substantivo próprio relevante, o processo 600 pode fazer uma busca na Internet e apresentar opções selecionáveis pelo usuário para o contexto de uso da palavra de caption “Boston” no conjunto de conteúdos de áudio/vídeo atualmente em reprodução. Nesse caso, as opções podem incluir conteúdos relevantes à cidade de Boston, a banda de nome Boston, times esportivos localizados em Boston (por exemplo, Celtics, Red Sox etc.) e seus semelhantes. Opções indicando “banda”, “time de basquete”, “time de beisebol” e/ou “cidade” podem ser apresentadas ao usuário, e o usuário pode inserir sua escolha para a apresentação de conteúdo de segunda tela relevante.
[0073] Ao determinar um contexto para a palavra de caption identificada usando a própria palavra e um grupo de palavras de caption circundantes, o processo 600 pode utilizar um algoritmo para fazer uma avaliação do grupo de palavras de caption. Por exemplo, o substantivo próprio “Ford” pode indicar uma marca de caminhão ou um ex-presidente dos Estados Unidos. Em algumas concretizações desse algoritmo, o processo 600 busca nos dados de closed captioning pelas palavras “Ford” e “F150” ou pelas palavras “Ford” e “caminhão” na mesma frase e, se a condição for satisfeita, o contexto da palavra “Ford” é determinado com referência a um caminhão Ford. Em outras concretizações, o processo 600 pesquisa as mesmas palavras descritas acima, mas com distância de vinte (20) palavras entre uma e outra. Quando essa condição é satisfeita, o contexto da palavra “Ford” é mais uma vez determinado com referência a um caminhão Ford.
[0074] Depois de determinar o contexto da palavra identificada (etapa 606), o processo 600 acessa um servidor remoto para recuperar detalhes para um evento, ou série de eventos, ocorrendo no conjunto de conteúdos de áudio/vídeo (etapa 608). O “evento” é a ocorrência de algo na tela, seja algo falado, uma ação realizada, a entrada ou saída de um ator, a introdução de uma mudança no assunto em discussão e seus semelhantes. A ocorrência do evento é indicada pelos dados de closed captioning ou, mais especificamente, a palavra de caption identificada (por exemplo, substantivo próprio) em seu contexto apropriado. Em geral, a recuperação de detalhes é na forma de uma busca na Internet pelo substantivo próprio. Em certas concretizações, os detalhes podem incluir informações relevantes adicionais, publicidades, conteúdo interativo ou seus semelhantes.
[0075] Uma vez que detalhes apropriados são recuperados para a palavra de caption identificada (etapa 608), o processo 600 apresenta conteúdo ao usuário, usando um dispositivo eletrônico de segunda tela, com base nos detalhes recuperados e no contexto determinado da palavra identificada (etapa 610). O processo 600 recupera detalhes associados à palavra identificada fazendo uma busca na Internet, e os detalhes recuperados incluem resultados da busca na Internet. Em certas concretizações, os resultados da busca na Internet são podados usando o contexto determinado para a palavra identificada. Uma vez que resultados da busca na Internet reduzidos são obtidos (e possivelmente podados usando o contexto), eles são apresentados ao usuário na forma de conteúdo de segunda tela em um dispositivo eletrônico de segunda tela. Os resultados podem ser apresentados de várias maneiras, incluindo executando um comando para abrir um navegador Web em que, entre outros: um primeiro resultado é apresentado ao usuário na forma de uma página Web; um número indicado dos primeiros resultados é apresentado como abas em um navegador Web; ou um resultado marcado como “oficial” é apresentado ao usuário na forma de uma página Web. Em algumas concretizações, opções selecionáveis pelo usuário podem ser apresentadas ao usuário, dentre as quais o usuário escolhe um resultado para exibição no dispositivo eletrônico de segunda tela.
[0076] Técnicas e tecnologias podem ser descritas neste documento por meio de componentes em blocos funcionais e/ou lógicos e com referência a representações simbólicas de operações, tarefas operacionais e funções que podem ser executadas por vários componentes ou dispositivos de computação. Essas operações, tarefas e funções são, por vezes, mencionadas como executadas por computador, computadorizadas, implementadas por software ou implementadas por computador. Na prática, um ou mais dispositivos processadores podem praticar as operações, tarefas e funções descritas manipulando sinais elétricos que representam bits de dados em locais na memória do sistema, bem como outros tipos de processamento de sinais. Os locais na memória onde bits de dados são mantidos são locais físicos com propriedades elétricas, magnéticas, ópticas ou orgânicas específicas correspondentes aos bits de dados. Deve-se ter em mente que os vários componentes em blocos ilustrados nas figuras podem ser concretizados por qualquer número de componentes de hardware, software e/ou firmware configurados para executar as funções especificadas. Por exemplo, uma concretização de um sistema ou componente pode empregar vários componentes de circuito integrado, por exemplo, elementos de memória, elementos de processamento de sinais digitais, elementos lógicos, tabelas de consulta ou seus semelhantes, que podem executar uma variedade de funções sob o controle de um ou mais microprocessadores ou outros dispositivos de controle.
[0077] Quando implementados em software ou firmware, vários elementos dos sistemas descritos neste documento são essencialmente os segmentos de código ou instruções que executam as várias tarefas. O programa ou segmentos de código podem ser armazenados em um meio legível por computador ou legível por processador ou transmitidos por um sinal de dados de computador incorporado a uma onda portadora em um meio de transmissão ou via de comunicação. O “meio legível por processador”, “meio legível por máquina” ou “meio legível por computador” pode incluir qualquer meio capaz de armazenar ou transferir informações. Exemplos de meio legível por processador incluem um circuito eletrônico, um dispositivo de memória semicondutor, uma ROM, uma memória flash, uma ROM apagável (EROM), um disquete, um CD-ROM, um disco óptico, um disco rígido, um meio de fibras ópticas, uma ligação de radiofrequência (RF) ou seus semelhantes. O sinal de dados de computador pode incluir qualquer sinal capaz de propagar-se em um meio de transmissão, tal como canais de rede eletrônicos, fibras ópticas, ar, vias eletromagnéticas ou ligações de RF. Os segmentos de código podem ser baixados por meio de redes de computador, tais como a Internet, uma intranet, uma LAN ou seus semelhantes.
[0078] Algumas das unidades funcionais descritas neste Relatório Descritivo são chamadas de “módulos” para enfatizar mais particularmente sua implementação independente. Por exemplo, a funcionalidade chamada neste documento de módulo pode ser implementada no todo ou em parte em software para execução por vários tipos de processadores. Um módulo de código executável identificado pode compreender, por exemplo, um ou mais módulos físicos ou lógicos de instruções de computador, os quais podem ser organizados, por exemplo, como um objeto, procedimento ou função. Seja como for, os executáveis de um módulo identificado não precisam ser localizados fisicamente no mesmo local, mas podem compreender instruções distintas armazenadas em diferentes locais que, quando logicamente reunidas, compõem o módulo e cumprem o objetivo exposto para o módulo.
[0079] De fato, um módulo de código executável pode ser uma única instrução, ou muitas instruções, e pode até mesmo ser distribuído entre vários segmentos de código diferentes, entre diferentes programas e entre vários dispositivos de memória. À semelhança, dados operacionais podem ser concretizados em qualquer formato adequado e organizados dentro de qualquer tipo de estrutura de dados. Os dados operacionais podem ser coletados como um conjunto de dados simples ou podem ser distribuídos em diferentes locais, incluindo em diferentes dispositivos de armazenamento, e podem existir, ao menos em parte, meramente como sinais eletrônicos em um sistema ou rede.
[0080] Embora ao menos uma concretização exemplificativa tenha sido apresentada na descrição detalhada acima, deve-se ter em mente que um vasto número de variações é possível. Deve-se ter em mente também que as uma ou mais concretizações exemplificativas descritas neste documento não visam a limitar de maneira alguma o âmbito, a aplicabilidade ou a configuração da matéria inventiva reivindicada. Em vez disso, a descrição detalhada acima há de oferecer aos versados na técnica um roteiro conveniente para implementar as uma ou mais concretizações descritas. Deve-se ter em mente que várias mudanças podem ser realizadas à função e estrutura dos elementos sem divergir do âmbito definido nas Reivindicações, que inclui equivalentes conhecidos e equivalentes previsíveis quando do depósito deste pedido de patente.

Claims (13)

1. Método Para Utilização Sincronizada de Dispositivo Eletrônico, caracterizado por que o método compreende: receber dados de legenda codificada a partir de um receptor de conteúdo de áudio/vídeo para um conjunto de conteúdos de áudio/vídeo; recuperar detalhes para um primeiro evento ocorrendo no conjunto de conteúdos de áudio/vídeo, em que o primeiro evento é indicado pelos dados de legenda codificada recebidos, ao: acessar um servidor remoto para recuperar uma lista de reprodução compreendendo uma lista de eventos que ocorrem no conjunto de conteúdos de áudio/vídeo e detalhes associados a cada uma das listas de eventos; em que o detalhe associado a cada um dos eventos compreende uma sequência de referência de legenda codificada, um deslocamento de tempo e uma referência ao segundo conteúdo de tela para exibição após a ocorrência da sequência de referência de legenda codificada e passagem do deslocamento de tempo no conjunto de conteúdos de áudio/vídeo; realizar uma pesquisa para comparar os dados de legenda codificada com uma pluralidade de sequências de referência de legenda codificada catalogadas na lista de reprodução, para localizar uma correspondência, em que a pluralidade de sequências de referência de legenda codificada compreende a sequência de referência de legenda codificada; e quando uma correspondência for localizada, identificar o conteúdo adequado da segunda tela catalogado na lista de reprodução; e apresentar o conteúdo adequado da segunda tela a um usuário, durante a ocorrência do primeiro evento durante a reprodução do conjunto de conteúdos de áudio/vídeo, através do dispositivo eletrônico, com base nos detalhes recuperados, em que o conteúdo adequado da segunda tela compreende o conteúdo da segunda tela.
2. Método Para Utilização Sincronizada de Dispositivo Eletrônico, de acordo com a Reivindicação 1, caracterizado por que os dados de legenda codificada compreendem um substantivo próprio e em que o primeiro evento é associado à ocorrência do substantivo próprio nos dados de legenda codificada do conjunto de conteúdos de áudio/vídeo.
3. Método Para Utilização Sincronizada de Dispositivo Eletrônico, de acordo com a Reivindicação 2, caracterizado por que compreende ainda: identificar o substantivo próprio com base na ocorrência do substantivo próprio; determinar um gênero para o conjunto de conteúdos de áudio/vídeo; determinar um contexto para o substantivo próprio com base no gênero determinado do conjunto de conteúdos de áudio/vídeo; e apresentar o conteúdo ao usuário com base nos detalhes recuperados e no contexto determinado.
4. Método Para Utilização Sincronizada de Dispositivo Eletrônico, de acordo com a Reivindicação 2, caracterizado por que compreende ainda: identificar o substantivo próprio com base na ocorrência do substantivo próprio; avaliar um grupo de palavras em torno do substantivo próprio; determinar um contexto para o substantivo próprio com base no grupo de palavras avaliado; e apresentar o conteúdo ao usuário com base nos detalhes recuperados e no contexto determinado.
5. Método Para Utilização Sincronizada de Dispositivo Eletrônico, de acordo com a Reivindicação 1, caracterizado por que a etapa de apresentar compreende ainda: executar um comando para abrir um navegador Web através do dispositivo eletrônico; e apresentar um site ao usuário, usando o navegador Web aberto, em que os detalhes recuperados compreendem um localizador de recursos uniforme (URL) e em que o conteúdo compreende o site.
6. Método Para Utilização Sincronizada de Dispositivo Eletrônico, de acordo com a Reivindicação 1, caracterizado por que a etapa de apresentar compreende ainda: apresentar várias opções selecionáveis ao usuário, através do dispositivo eletrônico, em que os detalhes compreendem as várias opções selecionáveis; e receber uma entrada do usuário para selecionar uma das várias opções selecionáveis; em que o conteúdo compreende a opção selecionada dentre as várias opções selecionáveis.
7. Sistema Para Processar Conteúdo de Áudio/Vídeo, caracterizado por que o sistema compreende: um receptor de conteúdo de áudio/vídeo, configurado para oferecer programação de áudio/vídeo a um dispositivo de exibição e oferecer dados de legenda codificada; um segundo dispositivo eletrônico de tela, configurado para uso junto com visualizar a programação de áudio/vídeo no dispositivo de tela, em que o segundo dispositivo eletrônico de tela é configurado para: receber os dados de legenda codificada oferecidos pelo receptor de conteúdo de áudio/vídeo; acessar um servidor remoto para recuperar detalhes para um evento ocorrendo na programação de áudio/vídeo, ao: acessar o servidor remoto para recuperar uma lista de reprodução compreendendo uma lista de eventos que ocorrem no conjunto de conteúdos de áudio/vídeo e detalhes associados a cada uma das listas de eventos; em que o detalhe para o evento compreende uma sequência de referência de legenda codificada, um deslocamento de tempo e uma referência ao segundo conteúdo de tela para exibição após a ocorrência da sequência de referência de legenda codificada e passagem do deslocamento de tempo no conjunto de conteúdo de áudio/vídeo; e em que o evento é indicado pelos dados de legenda codificada; realizar uma pesquisa para comparar os dados de legenda codificada com uma pluralidade de sequências de referência de legenda codificada catalogadas na lista de reprodução, para localizar uma correspondência, em que a pluralidade de sequências de referência de legenda codificada compreende a sequência de referência de legenda codificada; e quando uma correspondência for localizada, identificar o conteúdo adequado da segunda tela catalogado na lista de reprodução; e apresentar conteúdo adequado da segunda tela a um usuário, durante a ocorrência do primeiro evento durante a reprodução do conjunto de conteúdos de áudio/vídeo, com base nos detalhes recuperados, em que o conteúdo adequado da segunda tela compreende o conteúdo da segunda tela.
8. Sistema Para Processar Conteúdo de Áudio/Vídeo, de acordo com a Reivindicação 7, caracterizado por que o receptor de conteúdo de áudio/vídeo compreende um decodificador de sinais (STB) configurado para se comunicar com o segundo dispositivo eletrônico de tela através de uma rede de área local sem fio (WLAN).
9. Sistema Para Processar Conteúdo de Áudio/Vídeo, de acordo com a Reivindicação 7, compreendendo ainda um único dispositivo de computação, caracterizado por que o único dispositivo de computação compreende o receptor de conteúdo de áudio/vídeo e o segundo dispositivo eletrônico de tela; e em que a programação de áudio/vídeo e o conteúdo são apresentados usando uma tela compartilhada do único dispositivo de computação.
10. Sistema Para Processar Conteúdo de Áudio/Vídeo, de acordo com a Reivindicação 7, caracterizado por que compreende ainda: um gerador de lista de reprodução configurado para: indicar manualmente o evento ocorrendo na programação de áudio/vídeo; e associar o evento a uma sequência de referência de legenda codificada, em que a sequência de referência de legenda codificada compreende um subconjunto dos dados de legenda codificada; e um módulo de criação de lista de reprodução configurado para: associar ainda o evento indicado manualmente ao conteúdo para apresentação através do segundo dispositivo eletrônico de tela; e gerar a lista de reprodução catalogando o evento, a sequência de referência de legenda codificada e o conteúdo; em que os detalhes compreendem a lista de reprodução.
11. Sistema Para Processar Conteúdo de Áudio/Vídeo, de acordo com a Reivindicação 7, caracterizado por que o detalhe recuperado compreende pelo menos o evento, uma sequência de referência de legenda codificada associada e detalhes de conteúdo associados.
12. Sistema Para Processar Conteúdo de Áudio/Vídeo, de acordo com a Reivindicação 11, caracterizado por que o conteúdo compreende um site e em que os detalhes de conteúdo associados compreendem um localizador de recursos uniforme (URL).
13. Sistema Para Processar Conteúdo de Áudio/Vídeo, de acordo com a Reivindicação 11, caracterizado por que o conteúdo compreende texto exibido através do segundo dispositivo eletrônico de tela e em que os detalhes de conteúdo associados compreendem uma representação do texto.
BR112016017815-7A 2014-01-30 2015-01-30 Método para utilização sincronizada de dispositivo eletrônico e sistema para processar conteúdo de áudio/vídeo BR112016017815B1 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/168,178 US9615122B2 (en) 2014-01-30 2014-01-30 Methods and apparatus to synchronize second screen content with audio/video programming using closed captioning data
US14/168,178 2014-01-30
PCT/US2015/013872 WO2015116983A1 (en) 2014-01-30 2015-01-30 Methods and apparatus to synchronize second screen content with audio/video programming using closed captioning data

Publications (2)

Publication Number Publication Date
BR112016017815A2 BR112016017815A2 (pt) 2017-08-08
BR112016017815B1 true BR112016017815B1 (pt) 2023-06-06

Family

ID=

Similar Documents

Publication Publication Date Title
US9942599B2 (en) Methods and apparatus to synchronize second screen content with audio/video programming using closed captioning data
KR101606657B1 (ko) 비디오 스트림들 및 다른 콘텐츠의 키워드-기반의 비선형 네비게이션을 위한 방법들 및 장치
ES2399625T3 (es) Procedimiento y dispositivo para crear y visualizar segmentos multimedia personalizados
US9508387B2 (en) Flick intel annotation methods and systems
US9430115B1 (en) Storyline presentation of content
TW202002611A (zh) 視頻字幕顯示方法及裝置
JP4621758B2 (ja) コンテンツ情報再生装置、コンテンツ情報再生システム、および情報処理装置
JP2008148077A (ja) 動画再生装置
US20140237510A1 (en) Personalized augmented a/v stream creation
JPWO2009044818A1 (ja) コンテンツ表示制御装置、コンテンツ表示制御方法、プログラム、および記録媒体
JP5857449B2 (ja) 画像処理装置及び録画装置
JP2010245853A (ja) 動画インデクシング方法及び動画再生装置
JP2015052897A (ja) 電子機器、電子機器の制御方法及びコンピュータプログラム
EP3123729B1 (en) Method and system for backward recording
JP2006115052A (ja) コンテンツ検索装置とその入力装置、コンテンツ検索システム、コンテンツ検索方法、プログラム及び記録媒体
JP5306550B2 (ja) 映像解析情報送信装置、映像解析情報配信システム及び配信方法、映像視聴システム及び映像視聴方法
JP5209129B1 (ja) 情報処理装置、放送受信装置及び情報処理方法
JP6266271B2 (ja) 電子機器、電子機器の制御方法及びコンピュータプログラム
KR20200121603A (ko) 텍스트를 제공하는 전자 장치 및 그 제어 방법.
BR112016017815B1 (pt) Método para utilização sincronizada de dispositivo eletrônico e sistema para processar conteúdo de áudio/vídeo
JP2011211571A (ja) 映像装置
JP2009171480A (ja) 映像記録再生装置及び映像再生装置
JP2006332765A (ja) コンテンツ検索・再生方法、コンテンツ検索・再生装置、並びにプログラムおよび記録媒体
JP2014207619A (ja) 録画再生装置、及び録画再生装置の制御方法
JP2013229855A (ja) 放送受信装置、情報処理装置及び情報処理方法