BRPI0720366B1 - Métodos de recuperação de anotações, método de armazenamento de anotações, sistema de recuperação de anotações e produto de programa de computador - Google Patents

Métodos de recuperação de anotações, método de armazenamento de anotações, sistema de recuperação de anotações e produto de programa de computador Download PDF

Info

Publication number
BRPI0720366B1
BRPI0720366B1 BRPI0720366-7A BRPI0720366A BRPI0720366B1 BR PI0720366 B1 BRPI0720366 B1 BR PI0720366B1 BR PI0720366 A BRPI0720366 A BR PI0720366A BR PI0720366 B1 BRPI0720366 B1 BR PI0720366B1
Authority
BR
Brazil
Prior art keywords
instance
annotation
frame
video
media file
Prior art date
Application number
BRPI0720366-7A
Other languages
English (en)
Inventor
Mayur Datar
Ashutosh Garg
Vibhu Mittal
Original Assignee
Google Llc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google Llc filed Critical Google Llc
Publication of BRPI0720366A2 publication Critical patent/BRPI0720366A2/pt
Publication of BRPI0720366B1 publication Critical patent/BRPI0720366B1/pt

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/169Annotation, e.g. comment data or footnotes
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/11Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information not detectable on the record carrier

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Library & Information Science (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Transfer Between Computers (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Processing Or Creating Images (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

métodos de recuperação, processamento e armazenamento de anotações associadas a arquivo de mídia e sistemas de indexação e recuperação das mesmas um sistema e método para transferir de anotações associadas a um arquivo de mídia. uma anotação associada a um arquivo de mídia é indexada a uma primeira instância deste arquivo de mídia. pela comparação das características das duas instâncias, é criado um mapeamento entre a primeira instância do arquivo de mídia e uma segunda instância do arquivo de mídia. a anotação pode ser indexada à segunda instância usando-se o mapeamento entre a primeira e a segunda instâncias. a anotação pode ser processada (apresentada, armazenada ou modificada) com base na indexação para a segunda instância.

Description

MÉTODOS DE RECUPERAÇÃO DE ANOTAÇÕES, MÉTODO DE ARMAZENAMENTO DE ANOTAÇÕES, SISTEMA DE RECUPERAÇÃO DE ANOTAÇÕES E PRODUTO DE PROGRAMA DE COMPUTADOR. Relatório Descritivo
Campo Técnico
As modalidades reveladas relacionam-se em geral com a criação e apresentação de anotações para vídeo e ao compartilhamento e edição colaborativos de anotações através de uma rede. Antecedentes
As anotações proporcionam um mecanismo para suplementação de vídeo com informações úteis. As anotações podem conter, por exemplo, metadados que descrevem o conteúdo do vídeo, subtítulos ou trilhas de áudios adicionais. As anotações podem ser de vários tipos de dados, incluindo texto, áudio, imagem gráfica ou outras formas. Para 15 seu conteúdo significante, as anotações são tipicamente associadas a um vídeo particular ou a uma parte particular de um vídeo.
Um método pelo qual as informações úteis contidas em anotações podem ser trocadas é pela transferência de vídeo anotado através de uma rede. Todavia, transferir conteúdo de vídeo através de 20 uma rede introduz vários obstáculos. Primeiro, os arquivos de vídeo são geralmente bastante extensos e transferir vídeo exige quantidades substanciais de largura de banda, assim como computadores hospedeiros e recipientes que podem suportar as necessidades de largura de banda e de memória exigidas. Segundo, muitos arquivos de vídeo 25 provavelmente são protegidos por direitos autorais ou estão de outra forma proibidos de serem distribuídos sem o pagamento de uma taxa. A obediência às restrições de direitos autorais exige investimentos de software e de hardware adicionais para prevenir cópia não autorizada. Terceiro, como o recipiente de um vídeo anotado pode já ter uma có30 pia não anotada do vídeo, de uma perspectiva de eficiência de dados, a
Petição 870180141410, de 16/10/2018, pág. 4/13
2/32 transferência de uma cópia anotada do vídeo para tal recipiente não necessariamente consome ambas as largura de banda e memória.
Deste modo, trocar vídeo anotado pela transferência de uma cópia completa do vídeo é uma solução inadequada.
Sumário
As anotações associadas a um arquivo de mídia são transferidas entre os dispositivos independentemente do arquivo de mídia associado, enquanto se mantém a apropriada relação temporal ou espacial da anotação com qualquer segmento do arquivo de mídia. Uma anotação associada a um arquivo de mídia é indexada a uma primeira instância daquele arquivo de mídia. Um mapeamento é criado entre a primeira instância do arquivo de mídia e uma segunda instância do arquivo de mídia pela comparação das características das duas instâncias. A anotação pode ser indexada à segunda instância usando o mapeamento entre as primeira e segunda instâncias. A anotação pode ser exibida, armazenada ou modificada baseado na indexação à segunda instância.
Comparar as características das instâncias permite que as anotações sejam consistentemente indexadas a uma pluralidade de instâncias independentemente adquiridas de um arquivo de mídia. A indexação consistente de anotações suporta o compartilhamento de anotações e permite uma comunidade colaborativa de autores, editores e consumidores de anotação. As anotações podem incluir anúncios ou conteúdo premium (de melhor qualidade) a serem pagos. Os privilégios para submeter, editar ou visualizar as anotações podem ser oferecidos para a venda com base numa subscrição, isentos de cobrança, ou podem ser embutidos com a compra de arquivos de mídia.
De acordo com uma modalidade, um primeiro usuário submete a um servidor de anotação anotações que são indexadas à sua instância de um arquivo de mídia. O servidor de anotação mapeia a
3/32 instância do arquivo de mídia do primeiro usuário para uma instância canônica do arquivo de mídia e armazena a anotação submetida indexada à instância canônica do arquivo de mídia. Um segundo usuário requisita as anotações e o servidor de anotação mapeia a instância do arquivo de mídia do segundo usuário para a instância canônica do arquivo de mídia. O servidor de anotação envia a anotação para o segundo usuário indexada à instância do arquivo de mídia do segundo usuário.
As características e vantagens descritas neste sumário e a descrição detalhada seguinte não abrangem tudo. Muitas características e vantagens adicionais serão evidentes para uma pessoa com capacidade ordinária na técnica à vista dos desenhos, especificação e reivindicações daqui.
Breve Descrição dos Desenhos
A Figura 1 mostra uma rede que se conecta a uma comunidade de provedores de vídeo e consumidores.
A Figura 2 ilustra molduras de um vídeo e a indexação de anotações a uma ou mais molduras.
A Figura 3 ilustra molduras de duas instâncias de um vídeo.
A Figura 4(a) ilustra anotações indexadas a uma instância canônica de vídeo.
A Figura 4(b) ilustra o mapeamento de uma instância cliente de vídeo para uma instância canônica de vídeo.
A Figura 5 ilustra uma modalidade para armazenar vídeo e anotações.
A Figura 6 é um traço de evento da exibição e modificação de anotações associadas a um vídeo.
A Figura 7(a) ilustra uma interface com o usuário para vi4/32 sualizar, criar e editar anotações.
A Figura 7(b) ilustra uma interface com o usuário para criar uma nova anotação.
A Figura 8 ilustra um método para determinar quais anota5 ções a exibir.
As Figuras representam várias modalidades da presente invenção para propósitos de ilustração somente. Uma pessoa qualificada na técnica prontamente reconhecerá a partir da discussão seguinte que as modalidades alternativas das estruturas e métodos ilustrados aqui 10 podem ser empregadas sem se desviar dos princípios da invenção aqui descritos.
Descrição das Modalidades
A Figura 1 mostra uma rede que se conecta a uma comunidade de provedores de vídeo e consumidores. A Figura 1 ilustra uma 15 modalidade pela qual uma pluralidade de usuários pode trocar vídeos e anotações. O vídeo é usado aqui como um exemplo de um arquivo de mídia ao qual a anotação pode ser associada. Este exemplo é escolhido para os propósitos de ilustração e não é limitante. Outros tipos de arquivos de mídia aos quais as anotações podem ser associadas inclu20 em, mas, sem limitação, programas de áudio, Flash, filmes (em qualquer formato de codificação), apresentações de slide, coleções de fotografia, programas animados e outros documentos. Outros exemplos serão evidentes para uma pessoa com capacidade na técnica sem se - desviar do escopo da presente invenção.
Um usuário visualiza, cria e edita anotações usando um cliente 104. Uma anotação é qualquer dado que pode suplementar de forma útil um arquivo de mídia. Por exemplo, uma anotação pode ser um comentário de áudio ou de texto, tradução, anúncio ou sumário, avaliação numa escala predeterminada (1-5 estrelas), metadados ou um comando para como o arquivo de mídia deveria ser exibido. Uma
5/32 anotação também pode incluir conteúdo de vídeo. Os clientes 104 incluem software e hardware para exibição de vídeo. Por exemplo, um cliente 104 pode ser implementado como uma televisão, um computador pessoal, um gravador de vídeo digital (DVR), um assistente digital 5 pessoal (PDA), um telefone celular ou outro dispositivo que tenha ou que esteja conectado a um dispositivo de vídeo; o software inclui qualquer reprodutor de vídeo adaptado para decodificar arquivos de vídeo, como MPEG-2, MPEG-4, QuickTime, VCD ou qualquer outro formato de vídeo atual ou futuro. Outros exemplos de clientes serão 10 evidentes para uma pessoa com capacidade na técnica sem se desviar do escopo da presente invenção. Uma interface gráfica com o usuário usada pelo cliente 104 de acordo com uma modalidade é descrita aqui com referências às Figuras 7(a) e 7(b).
Os clientes 104 são conectados a uma rede 105. A rede 15 105 pode ser implementada como qualquer mídia eletrônica pelo qual o conteúdo de anotação pode ser transferido. Pela rede 105, os clientes 104 podem enviar e receber dados de outros clientes 104. A rede 105 pode ser uma rede global (por exemplo, a Internet), regional, de área larga ou de área local.
Um servidor de vídeo 106 armazena uma coleção de vídeos numa mídia eletrônica. Em resposta a uma solicitação de um cliente 104 de um vídeo particular (ou de um conjunto de vídeos que combinam certos critérios), o servidor de vídeo 106 transfere um vídeo através da rede 105 para o cliente 104. O servidor de vídeo 106 pode ser 25 configurado para cobrar uma taxa pelo serviço de proporcionar o vídeo para o cliente, ou ele pode proporcionar o vídeo livre de cobrança. O servidor de vídeo 106 pode ser implementado, por exemplo, como um serviço de conteúdo por demanda, uma loja online (conectada à internet) ou um servidor de vídeo streaming (que descarrega e visualiza em 30 tempo real). Outros exemplos de servidores de vídeo serão evidentes para uma pessoa com capacidade na técnica sem se desviar do escopo
6/32 da presente invenção.
Alguns dos clientes 104 também estão conectados a fontes de vídeo 102. Uma fonte de vídeo 102 é um dispositivo que proporciona vídeo para o cliente. Por exemplo, uma fonte de vídeo 102 poderia ser uma caixa de cabo, uma antena de televisão, um gravador de vídeo digital, um reprodutor de videocassete, uma câmera, um console de jogo, uma unidade de disco de vídeo digital (DVD) ou qualquer outro dispositivo capaz de produzir uma saída de vídeo num formato legível pelo cliente 104. Outros exemplos de fontes de vídeo 102 serão evidentes para uma pessoa com capacidade na técnica sem se desviar do escopo da presente invenção.
De acordo com uma modalidade da presente invenção, os clientes 104 podem enviar vídeo através da rede 105. Por exemplo, o cliente 104B pode receber vídeo da fonte de vídeo 102B e transferi-lo pela rede para outro cliente, como o cliente 104D. Os clientes 104 também podem enviar vídeo pela rede 105 para o servidor de vídeo 106. O vídeo enviado de um cliente 104 para o servidor de vídeo 106 é armazenado numa mídia eletrônica e está disponível para os outros clientes 104.
O servidor de anotação 110 é conectado à rede 105. O servidor de anotação 110 armazena anotações numa mídia eletrônica. Em resposta a uma solicitação de um cliente 104 de uma anotação associada a um arquivo de mídia particular, o servidor de anotação 110 envia uma ou mais anotações associadas ao arquivo de mídia para o cliente 104 pela rede 105. Em resposta a uma submissão pelo cliente 104 de uma ou mais anotações associadas a um arquivo de mídia, o servidor de anotação 110 armazena a única ou mais anotações em associação ao arquivo de mídia. O servidor de anotação 110 armazena anotações indexadas às instâncias de um ou mais arquivos de mídia ou de partes dos mesmos. Um método usado pelo servidor de anotação 110, de acordo com várias modalidades da presente invenção, é descrito aqui
7/32 com referência às Figuras 4-6.
Opcionalmente, um servidor de vídeo 108 é comunicativamente conectado ao servidor de anotação 110, tanto localmente como através da rede 105. O servidor de vídeo 108 pode ter muitas das mesmas capacidades que aqui foram descritas com referência ao servidor de vídeo 106. O servidor de vídeo 108 pode transferir vídeo para os clientes 104 através da rede 105. Numa modalidade, o servidor de anotação 110 e o servidor de vídeo 108 em combinação transferem o vídeo anotado para um cliente 104. Noutra modalidade, o servidor de vídeo 108 armazena uma instância canônica de um vídeo, como descrita aqui com referência à Figura 5.
Como mostrado na figura, qualquer dado cliente pode ter acesso a vídeo a partir de uma variedade de fontes. Por exemplo, o cliente 104 pode receber vídeo diretamente da fonte de vídeo 102A ou do servidor de vídeo 106 através da rede 105. Diferentes clientes às vezes têm acesso a diferentes fontes de vídeo. Por exemplo, assim como o cliente 104A, o cliente 104B pode receber vídeo do servidor de vídeo 106 através da rede 105, mas, em contraste com o cliente 104A, tem acesso direto à fonte de vídeo 102B em vez da fonte de vídeo 102A.
Embora um cliente possa obter vídeo de uma potencialmente grande variedade de fontes de vídeo, a presente invenção permite que as anotações enviadas do servidor de anotação 110 até o cliente sejam constantemente associadas a um arquivo de mídia particular e a parte do mesmo, não importando a fonte da qual a cópia do vídeo do cliente foi obtida. A associação consistente de anotações a arquivos de mídia facilita a troca de anotações entre os usuários que têm instâncias diferentes (ou cópias) de um dado arquivo de mídia. A presente invenção habilita o compartilhamento e a troca de anotações entre uma pluralidade de clientes por reindexação de anotações a várias instâncias de arquivos de mídia de cliente. Por exemplo, o servidor de anotação 110 envia anotações indexadas para a instância de um vídeo do cliente
8/32
104Α e envia anotações indexadas para a instância do vídeo do cliente 104B, apesar do fato de que os dois clientes possam ter adquirido suas cópias do vídeo de fontes diferentes. O servidor de anotação 110 vantajosamente proporciona anotações que não são só apropriadas para o vídeo exibido pelo cliente 104, mas para a instância particular do vídeo que o cliente 104 está exibindo, como descrito aqui com referência à Figura 4.
Referindo-se, agora, à Figura 2, estã mostrado um diagrama conceituai que ilustra como as anotações são associadas temporalmente e/ou espacialmente a um arquivo de vídeo e uma ou mais molduras do mesmo. A Figura 2 mostra uma série de molduras de vídeo, que executam da moldura 200 até a moldura 251. O cliente 104 exibe estas molduras e também pode pausar, retroceder, avançar, pular ou de outra forma ajustar a ordem ou a velocidade com que as molduras são exibidas.
Para os propósitos de ilustração, a discussão seguinte refere-se a um vídeo como sendo composto de molduras. O vídeo é às vezes armazenado ou transmitido como blocos de molduras, campos, macroblocos ou em seções de molduras incompletas. Quando aqui é feita referência a vídeo que é composto de molduras, deve ser entendido que durante etapas intermediárias o vídeo pode de fato ser armazenado como qualquer uma das várias outras formas. O termo “moldura” é usado aqui por causa de clareza e não é limitante a qualquer formato ou convenção particular para a memorização ou exibição de vídeo.
Algumas das molduras têm anotações associadas a elas como proporcionado por um usuário particular. No exemplo ilustrado, a moldura 201 é representada em maior detalhe para ilustrar algumas de suas anotações associadas. Como mostrado na figura, as anotações podem ser associadas a uma posição espacial particular de uma moldura ou elas podem ser associadas a uma moldura inteira. Por exemplo, a anotação 1 é associada a uma caixa retangular no canto
9/32 superior esquerdo da moldura 201. Em contraste, a anotação 4 é associada à moldura inteira.
As anotações também podem ser associadas a posições espaciais sobrepostas. Por exemplo, a anotação 1 é associada a uma caixa retangular sobreposta a uma caixa retangular diferente associada à anotação 2. Numa modalidade, as anotações podem ser associadas a uma posição espacial definida por qualquer formato de forma fechada. Por exemplo, como mostrado na Figura 2, a anotação 3 é associada a posições espaciais definidas por uma forma elíptica.
A lista de anotação 280 mantém associações entre a definição espacial de anotações e o conteúdo de anotações. A anotação 1, associada a uma caixa retangular na moldura 201, inclui o texto “VicePresidentd’. A anotação 1 é um exemplo de uma anotação útil para destacar ou adicionar informações suplementares para partes particulares de uma moldura. A anotação 4 é associada à moldura inteira 201 e contém o texto “Estado da União”. A anotação 4 é um exemplo de uma anotação usada para resumir o conteúdo de uma moldura. A anotação 5 é associada à moldura inteira 201 e contém algum áudio que, neste caso, é uma tradução de áudio em francês. A anotação 5 é um exemplo de uma anotação usada para proporcionar conteúdo de áudio suplementar.
As anotações também podem ter associações temporais a um arquivo de mídia ou a qualquer parte do mesmo. Por exemplo, uma anotação pode ser associada a uma moldura específica ou a uma faixa específica de molduras. Na Figura 2, por exemplo, a anotação 2 poderia ser associada à moldura 200 para moldura 251, enquanto a anotação 5 é associada só à moldura 201. A definição espacial associada a uma anotação também pode mudar com o passar do tempo. Por exemplo, a anotação 1 pode ser associada a uma primeira região na moldura 201 e a uma segunda região na moldura 202. As associações de anotação espacial e temporalmente dependentes são particularmente úteis para
10/32 proporcionar informações suplementares relativas a objetos em movimento e podem acomodar, como no exemplo mostrado na Figura, o movimento do Vice-Presidente dos Estados Unidos. As associações temporais podem ser definidas em termos de números de moldura, códigos de tempo ou qualquer outra base de indexação. A ilustração da lista de anotação 280 como uma tabela não é pretendida para limitar o formato de memória subjacente usado; qualquer formato ou organização das informações de anotação podem ser empregados incluindo formatos otimizados que reduzem requisitos de memória e/ou aumentem a velocidade de recuperação.
Durante a reprodução de um arquivo de mídia, o cliente 104 é adaptado para exibir as anotações associadas às molduras do arquivo. As anotações podem ser exibidas, por exemplo, como texto sobreposto na moldura de vídeo, como imagem gráfica mostrada ao lado da moldura ou como áudio reproduzido simultaneamente com vídeo; as anotações podem também aparecer numa janela ou moldura separada o mais próximo ao vídeo. As anotações também podem incluir comandos para como o arquivo de mídia ao qual elas são associadas deve ser exibido. Exibir anotações de comando pode incluir exibir vídeo como instruído pela anotação. Por exemplo, em resposta a uma anotação, o cliente 104 poderia saltar para um lugar diferente num vídeo, exibir uma parte do vídeo em câmera lenta ou pular para um vídeo diferente tudo em conjunto.
O cliente 104 é capaz de exibir um subconjunto das anotações disponíveis. Por exemplo, um usuário que assiste ao vídeo da Figura 2 pode selecionar quais anotações deveríam ser exibidas pelo cliente 104 por designação de vários critérios. O usuário pode escolher receber só certos tipos de anotações (por exemplo, comentário, texto, gráfico, áudio) ou apenas anotações que são definidas por uma região particular da tela. O usuário pode escolher receber só anotações em um idioma particular, que combinam com certo critério de busca (como
11/32 palavras-chaves) ou criadas por um usuário particular. Como outro exemplo, quando anotações são escritas e editadas numa comunidade colaborativa de usuários, um usuário pode escolher receber só anotações criadas por usuários com classificações acima de certo limite mínimo ou receber só anotações com avaliações acima de certo limite mínimo. Os usuários também podem buscar anotações e recuperar vídeo associado baseado nos resultados da busca de anotação.
Certas anotações podem receber uma prioridade que não permite que um usuário as impeça de serem exibidas. Por exemplo, as anotações podem incluir anúncios, que podem ser configurados de forma que nenhuma outra anotação seja exibida a menos que as anotações de anúncio também sejam exibidas. Essa configuração impediría que usuários visualizassem certas anotações enquanto evitam anotações de anúncio dado. Um método para determinar quais anotações a exibir é descrito aqui com referência à Figura 8.
Os usuários também podem editar anotações usando o cliente 104. Por exemplo, um usuário que visualiza as anotações mostradas na Figura 2 pode estar insatisfeito com a anotação 1. O usuário muda o texto da anotação “Vice-Presidente” para “Vice-Presidente dos Estados Unidos? usando um dispositivo de entrada conectado ao cliente 104. A exibição futura da anotação (para este usuário ou possivelmente outros usuários) incluiría o texto modificado “Vice-Presidente dos Estados Unidos?. Como outra opção, um usuário pode mudar a definição temporal ou espacial à qual as anotações são associadas. Por exemplo, o usuário astuto pode reconhecer que os documentos mostrados no lado direito da moldura são realmente trechos de 15 USC §§78dd-l e que a Constituição (apesar de ser quase completamente obscurecida pela posição do Presidente) é só muito pouco visível no lado esquerdo da moldura. O usuário pode mudar a definição temporal a qual a Anotação 3 é associada consequentemente, por exemplo, pelo arrastamento (por exemplo, numa interface com o usuário de manipu
12/32 lação direta que ilustra as molduras do vídeo) da definição espacial para uma posição diferente usando um dispositivo de entrada conectado ao cliente 104.
A lista de anotação 280 é mostrada na Figura 2 para os propósitos de ilustração como um exemplo de como um cliente pode organizar anotações e suas molduras associadas. A lista de anotação 280 é útil para administrar e exibir anotações associadas a uma moldura ou faixa de molduras, mas, vários clientes podem organizar anotações diferentemente sem se desviar do escopo da presente invento ção.
Como mostrado na Figura 1, um cliente às vezes tem acesso a instâncias múltiplas do mesmo vídeo e clientes diferentes frequentemente têm acesso a várias instâncias diferentes. A Figura 3 ilustra sequências das molduras que constituem duas instâncias do mesmo 15 vídeo. Por exemplo, a instância de vídeo 302 poderia ser uma cópia de um vídeo recebido de um canal a cabo, enquanto a instância de vídeo 304 é uma cópia do mesmo vídeo recebida de uma loja de vídeo online. Como outro exemplo, a instância de vídeo 302 poderia ser uma cópia de um vídeo gravado por um gravador de vídeo digital do primeiro usuário 20 que recebe um sinal de uma primeira estação de transmissão pública, enquanto a instância de vídeo 304 é uma cópia do mesmo vídeo gravado por um gravador de vídeo digital do segundo usuário que recebe um sinal de uma segunda estação de transmissão pública.
Como a instância de vídeo 302 é adquirida independente25 mente da instância de vídeo 304, é provável que as duas cópias não sejam sincronizadas no tempo e/ou sejam de durações diferentes. Por exemplo, a instância de vídeo 302 poderia ter sido gravada do The Zurich Channel, uma afiliada de televisão conhecida por sua pontualidade e bom gosto. A instância de vídeo 304, por outro lado, poderia ter 30 sido gravada da TV Tulsa, uma afiliada de televisão conhecida por sua programação desmazelada e pela contagem de tempo aleatória. Deste
13/32 modo, como mostrado na Figura 3, as molduras da primeira instância necessariamente não poderíam corresponder às molduras da segunda instância. Além disso, existem numerosos outros tipos de diferenças que podem surgir entre instâncias diferentes de um dado programa ou transmissão pública. Estas incluem, sem limitação, diferenças nos parâmetros de codificação (por exemplo, resolução, velocidade de molduras) e diferenças em formatos de arquivos.
No exemplo ilustrado, as molduras 306 da instância de vídeo 302 são deslocadas no tempo com respeito às molduras 308 da instância de vídeo 304. A primeira moldura das molduras 308 contém o mesmo conteúdo que a terceira moldura das molduras 306. Quando as anotações são associadas a molduras específicas de um vídeo por um usuário, é desejável que elas sejam exibidas com aquelas molduras quando mostradas para outro usuário, apesar da possibilidade de deslocamento no tempo entre várias instâncias do vídeo. Note também que a instância de vídeo 302 tem 6 molduras, enquanto a instância de vídeo 304 tem 4 molduras.
O servidor de anotação 110 responde por este deslocamento no tempo de molduras de forma que as anotações podem ser corretamente exibidas com várias instâncias do vídeo. Por exemplo, suponha que uma anotação descreve o acionador que introduz a terceira moldura das molduras 306. Se esta anotação é indexada com respeito às molduras 306, o servidor de anotação 110 traduz esta indexação para uma indexação com respeito às molduras 308 de forma que a anotação pode ser corretamente exibida com a instância de vídeo 304. O servidor de anotação 110 traduz as indexações de anotação por mapeamento de uma instância de vídeo para outra.
Referindo-se, agora, à Figura 4(a), as anotações 404 são indexadas a uma instância canônica do vídeo 406. Para os propósitos de ilustração, a instância de vídeo que tem anotações indexadas a ela é chamada de instância canônica e a instância de vídeo que será exibida
14/32 no cliente é chamada de instância de cliente. De acordo com uma modalidade, as anotações podem ser compartilhadas em direções múltiplas entre dois ou mais pares de cliente. Como tal, é possível que não exista instância definitivamente canônica de vídeo. Deve ficar 5 entendido que o termo “instância canônica” se refere a um papel que uma instância de vídeo desempenha num caso de troca de anotação, e não necessariamente ao status daquela cópia do vídeo no sistema de distribuição de vídeo ou no arcabouço de anotação como um todo.
O servidor de vídeo 108 pode armazenar conteúdo de vídeo em chunks (pedaços). Um sistema e método para armazenar vídeo em pedaços é revelado no Pedido de Patente US de n° de série 11/428.319, intitulado “Dynamic Media Serving Infrastructuré’ para Manish Gupta e colaboradores, Pasta de Advogado de n° 24207-11584, depositado em 30 de Junho de 2006, e no Pedido de Patente Provisória de n° de série
60/756.787, intitulado “Discontinuous Download of Media Articles” para
Michael Yu e colaboradores, Pasta de Advogado de n° 24207-11081, depositado em 6 de Janeiro de 2006, ambos os quais são aqui incorporados por referência na sua totalidade. A Figura 4(a) mostra uma instância canônica de vídeo 406 armazenada como pedaço 402A e 20 pedaço 402B. Um pedaço é um elemento de dados para armazenar vídeo. Armazenar vídeo em pedaços é benéfico para a indexação e transferência eficiente de vídeo e permite a manipulação como dados de vídeo de tamanho mais manejável.
Como descrito aqui com referência à Figura 2, uma anota25 ção pode ser associada a uma moldura específica num vídeo. A associação entre a anotação e a moldura específica é armazenada por indexação da anotação a uma moldura numa instância particular do vídeo. A anotação 404A, por exemplo, é indexada a uma moldura da instância canônica do vídeo 406, neste caso a uma moldura no pedaço 402A.
Como também descrito aqui com referência à Figura 2, uma anotação pode ser associada a uma faixa de molduras num vídeo. Um
15/32 conjunto de uma ou mais molduras de vídeo é às vezes chamado de um segmento de vídeo. A anotação 404D, por exemplo, é indexada a um segmento de vídeo da instância canônica de vídeo 406, neste caso o segmento incluindo uma ou mais molduras do pedaço 402B.
O cliente recebe um vídeo de uma fonte ou servidor de vídeo (como um daqueles descritos aqui com referência à Figura 1) e armazena uma cópia como a instância de cliente de vídeo 408. À medida que o cliente exibe o vídeo, o cliente periodicamente solicita, do servidor de anotação, anotações associadas a molduras de vídeo que estão prestes a ser exibidas. Para assegurar que as anotações sejam solicitadas, recuperadas, transmitidas e recebidas em tempo suficiente para exibição com suas molduras associadas, o cliente solicita anotações associadas a uma moldura algum tempo antes daquela moldura ser exibida.
Para eficiência aumentada, o cliente pode combinar solicitações de anotações associadas a molduras particulares numa solicitação de anotações associadas a um segmento de vídeo. Uma solicitação podia, por exemplo, buscar recuperar todas as anotações associadas a um dado vídeo. No exemplo mostrado, o cliente solicita anotações associadas ao segmento de vídeo 409. A solicitação de anotações retornará anotações associadas a molduras individuais do segmento, ou anotações associadas a um superconjunto ou subconjunto das molduras do segmento. Por exemplo, o cliente pode solicitar anotações associadas a exatamente o segmento de vídeo 409, associadas às molduras individuais do segmento de vídeo 409 ou associadas ao vídeo inteiro.
Referindo-se, agora, à Figura 4(b), o servidor de anotação 110 mapeia a instância de cliente de vídeo 408 para uma instância canônica de vídeo 406. O mapeamento 412 descreve a correspondência entre molduras da instância de cliente de vídeo 408 e molduras na instância canônica de vídeo 406. O servidor de anotação 110 pode
16/32 mapear a instância de cliente do vídeo 408 para a instância canônica de vídeo 406 usando uma variedade de técnicas. De acordo com uma modalidade da presente invenção, a solicitação de anotações do cliente inclui uma característica da instância de cliente de vídeo 408. Uma característica é uma representação sucinta do conteúdo de uma ou mais molduras de vídeo que são semelhantes. Por exemplo, o servidor de anotação 110 pode agrupar as molduras em unidades lógicas, como cenas ou fotos. O servidor de anotação 110 pode usar algoritmos de detecção de cena para agrupar as molduras automaticamente. Um algoritmo de detecção de cena é descrito em Naphade, M. R. e colaboradores, “A High-Performance Shot Boundary Detection Algorithm Using Multiple Cues”, 1998 Intemational Conference On Image Processing (4-7 de Outubro de 1998), vol. 1, pp. 884-887, que é aqui incorporado por referência.
Deste modo, o servidor de anotação 110 pode computar uma característica configurada para todas as molduras que pertencem à mesma cena. A característica pode ser, por exemplo, uma descrição de uma característica nos domínios do tempo, do espaço ou da frequência. Por exemplo, um cliente pode solicitar anotações associadas a uma moldura específica e pode descrever aquela moldura por suas características de domínio do tempo, da posição e da frequência. O cliente pode usar qualquer técnica para determinar as características de vídeo, como aquelas descritas em Zabih, R., Miller, J., e Mai, K., “FeatureBased Algorithms for Detecting and Classifying Scene Breaks”, Proc.
- 25 ACM Multimedia 95, São Francisco, CA (Novembro de 1993), pp. 189200; Arman, F., Hsu, A., e Chiu, M-Y., “Image Processing on Encoded Video Sequences”, Multimedia Systems (1994), vol. 1, No. 5, pp. 211219; Ford, R.M. e colaboradores, “Metricsfor Shot Boundary Detection in Digital Video Sequencif, Multimedia Systems (2000), vol. 8, pp. 37-46, todos os precedentes sendo aqui incorporados por referência. Uma pessoa com capacidade ordinária na técnica reconhecería várias
17/32 técnicas para determinar as características de vídeo.
Geralmente, uma função de distância é definida além do universo de características que captura a proximidade dos conjuntos subjacentes de molduras. Quando o servidor de anotação 110 recebe 5 uma solicitação de anotação para uma moldura, junto com seu conjunto de características, o servidor primeiro tenta mapear a moldura na solicitação para a moldura mais próxima na instância canônica de vídeo 406. O servidor de anotação 110 usa a posição temporal da moldura na instância de cliente de vídeo 408 (uma das características no conjunto 10 de características) para reduzir o conjunto de molduras no vídeo canônico 406 que pode potencialmente mapear para esta moldura, por exemplo, limitando-se o conjunto candidato para molduras dentro de uma quantidade fixa de tempo ou molduras antes e depois da moldura selecionada. Para todas as molduras no conjunto candidato, o servidor 15 de anotação 110 computa a distância entre o conjunto de características da moldura a partir do cliente 408 e o conjunto de características da moldura a partir do vídeo canônico 406. A moldura a partir do vídeo canônico 406 com a menor distância é chamada de moldura de comparação. A moldura de cliente é então mapeada para a moldura de 20 comparação. Se a distância para a moldura mais próxima é maior que certo limite inferior, indicando ausência de uma boa correlação, nenhuma anotação é retornada. Os componentes descritos por uma característica usada para criar o mapeamento podem residir no segmento de vídeo para o qual as anotações estão sendo solicitadas, mas - 25 não precisam ser. De modo semelhante, os componentes descritos por uma característica podem ou não podem residir no segmento de vídeo ao qual uma anotação é indexada.
As características podem ser representadas como strings (séries de caracteres), o que permite ao servidor de anotação 110 buscar 30 por características usando uma indexação invertida dos strings de característica para molduras, por exemplo. O servidor de anotação 110
18/32 pode também buscar por características pela definição de uma distância métrica além do conjunto de características e pela seleção da moldura candidata com a menor distância. Esse mapeamento poderia acontecer no momento em que o servidor 110 recebe a solicitação de cliente ou em que o servidor de anotação 110 pode pré-computar e manter as distâncias num processo desconectado.
Pelo uso do mapeamento 412, o servidor de anotação 110 determina um segmento de vídeo correspondente 414 na instância canônica de vídeo. O segmento de vídeo correspondente 414 tem conteúdo que quase coincide com o conteúdo do segmento de vídeo 409, como descrito acima. Sob condições ideais, o segmento de vídeo correspondente 414 contém instâncias das mesmas molduras que o segmento de vídeo 409. O servidor de anotação 110 associa cada moldura no vídeo de cliente 408 que mapeia para uma moldura na instância canônica de vídeo com um número de moldura e mantém uma lista de números de moldura para cada mapeamento de moldura. Num exemplo, o comprimento da lista de números de moldura é igual ao número de molduras na instância de cliente de vídeo 408, onde cada entrada mapeia a moldura correspondente para a moldura na instância canônica de vídeo 406.
O servidor de anotação determina as anotações que são indexadas ao segmento de vídeo correspondente 414 (ou a um superconjunto ou subconjunto do segmento de vídeo correspondente 414). Como o exemplo da Figura 4(b) ilustra, a anotação 404D é indexada a um segmento de vídeo que cai no segmento de vídeo correspondente 414. Em resposta à solicitação de anotações para o segmento 409, o servidor de anotação 110 transmite a anotação 404D para o cliente.
Opcionalmente, o servidor de anotação também pode transmitir informações que descrevem o segmento do vídeo ao qual a anotação é associada. Por exemplo, usando uma característica como um ponto de referência, o servidor de anotação pode descrever uma
19/32 moldura (ou faixa de molduras) com respeito àquele ponto de referência.
A Figura 5 ilustra a organização de vídeo e de anotações. A Figura 5 mostra como as anotações podem ser indexadas a uma instância canônica de vídeo num servidor de anotação.
De acordo com uma modalidade, as anotações são armazenadas num repositório de anotação. As instâncias canônicas de vídeo são armazenadas num repositório de vídeo. A anotação e os repositórios podem ser incluídos no mesmo servidor, ou eles podem ser incluídos em servidores diferentes. Por exemplo, as anotações podem ser 10 armazenadas no servidor de anotação 110 e o vídeo pode ser armazenado no servidor de vídeo 108.
Uma anotação inclui uma referência a um segmento de vídeo. Por exemplo, a anotação 404D inclui uma definição temporal 50ID. Uma definição temporal especifica uma ou mais molduras de 15 uma instância canônica de vídeo. No exemplo ilustrado, a definição temporal 501D refere-se a uma das molduras 504 da instância canônica de vídeo 406. Como outro exemplo, a anotação 404F inclui a definição temporal 510F. A definição temporal 510F refere-se a uma faixa das molduras da instância canônica de vídeo 406. Uma definição 20 temporal pode ser descrita usando uma variedade de medidas que incluem, mas não se limitam a, identificadores de documento, identificadores de moldura, códigos de tempo, duração em molduras, duração em milissegundos e várias outras combinações.
A definição temporal é um exemplo de como as anotações 25 podem ser associadas a segmentos de vídeo. Outros métodos para associar anotações a segmentos de vídeo será evidente para uma pessoa com capacidade na técnica sem se desviar do escopo da presente invenção.
Uma anotação também inclui o conteúdo de anotação 511. 30 O conteúdo de anotação pode incluir, por exemplo, áudio, texto, meta20/32 dados, comandos ou quaisquer outros dados úteis para serem associados a um arquivo de mídia. Uma anotação pode opcionalmente incluir uma definição espacial 509 que especifica a área da moldura (ou molduras) à qual aquela anotação é associada. O uso de uma definição 5 espacial 509 é um exemplo de um método para associar uma anotação a uma posição espacial específica numa moldura.
Como exemplo, suponha-se que o segmento de vídeo correspondente 414 inclui as molduras 504. O segmento de vídeo correspondente 414 pode ser definido como uma faixa de códigos de tempo. O 10 servidor de anotação recupera as anotações pela busca por anotações com referências a códigos de tempo que estão dentro ou que se sobrepõem à faixa de códigos de tempo que definem o segmento de vídeo correspondente 414. O servidor de anotação recupera a anotação 404D, incluindo o conteúdo de anotação 51 ID. O servidor de anotação 15 transmite o conteúdo de anotação 51 ID (ou a anotação 404D, que inclui o conteúdo de anotação 51 ID) para o cliente, que exibe o conteúdo de anotação 51 ID.
A Figura 6 é um traço de evento da exibição e modificação de anotações associadas a um vídeo, de acordo com uma modalidade da 20 presente invenção. O cliente 104 recebe um segmento de vídeo de um servidor de vídeo 106 ou de uma fonte de vídeo 102 e armazena uma cópia como a instância de cliente de vídeo. O cliente processa o segmento usando um algoritmo de detecção de característica e determina 602 uma característica baseada num primeiro segmento de vídeo. O 25 cliente envia uma solicitação de anotações associadas a um segundo segmento de vídeo, a solicitação incluindo a característica, para o servidor de anotação 110.
O primeiro segmento de vídeo pode conter algumas molduras em comum com o segundo segmento de vídeo, mas não precisa 30 disso. A característica incluída na solicitação de anotações associadas ao segundo segmento de vídeo pode adicionalmente incluir característi21/32 cas a partir de segmentos adjacentes até o segundo segmento de vídeo.
A solicitação também pode incluir metadados que descrevem o conteúdo ou o título do vídeo de forma que o servidor de anotação pode recuperar as anotações apropriadas. Por exemplo, o vídeo comprado de uma loja online pode ter um título de vídeo que pode ser usado para filtrar o conjunto de anotações disponíveis. Como outro exemplo, os metadados enviados para o servidor de anotação para vídeo adquirido de transmissão pública de televisão ou de cabo podem incluir uma descrição do tempo e do canal do qual o vídeo foi adquirido. O servidor de anotação pode usar estas informações de tempo e de canal para determinar o vídeo apropriado e para recuperar as anotações associadas àquele vídeo.
O servidor de anotação 110 recebe a solicitação de anotações. O servidor de anotação 110 busca 604 a característica incluída na solicitação numa instância canônica do vídeo e cria um mapeamento entre a instância de cliente do vídeo e a instância canônica do vídeo. Numa modalidade, a solicitação de anotações inclui metadados que indicam um vídeo particular para o qual recuperar anotações e o servidor de anotação 110 busca 604 numa instância canônica no vídeo indicado por estes metadados para a característica.
O servidor de anotação 110 busca 608 um repositório de anotação para anotações associadas ao vídeo e retorna uma anotação. Por exemplo, o servidor de anotação 110 pode buscar por anotações indexadas à instância canônica do vídeo. Usando o mapeamento entre as duas instâncias, o servidor de anotação 110 pode traduzir a indexação à instância canônica do vídeo para uma indexação à instância de cliente do vídeo.
O servidor de anotação 110 transmite uma anotação associada ao vídeo para o cliente. De acordo com uma modalidade, a anotação também inclui informações de indexação que definem o conjunto de uma ou mais molduras associadas à anotação. O servidor
22/32 de anotação 110 pode definir molduras associadas à anotação, por exemplo, por indexação da associação com respeito à característica.
O cliente 104 recebe e exibe 610 a anotação. O cliente 104 também pode processar informações de indexação à anotação de forma que a anotação é apropriadamente exibida junto com a instância de cliente do vídeo.
Opcionalmente, o cliente recebe 612 mudanças para a anotação a partir do usuário. Por exemplo, um usuário pode editar texto, re-gravar áudio, modificar metadados incluídos no conteúdo de anotação ou mudar um comando de anotação. O cliente 104 transmite a anotação modificada para o servidor de anotação 110 ou, alternativamente, transmite uma descrição das modificações para o servidor de anotação 110.
O servidor de anotação 110 recebe a anotação modificada. O servidor de anotação 110 armazena 614 a anotação modificada e indexa a anotação modificada à instância canônica do vídeo. O servidor de anotação 110 pode indexar a anotação modificada à instância canônica do vídeo usando uma variedade de métodos. Por exemplo, o servidor de anotação 110 pode traduzir uma indexação à instância de cliente do vídeo usando um mapeamento previamente estabelecido. Como outro exemplo, o cliente 104 pode incluir uma característica com a anotação modificada e o servidor de anotação 110 pode estabelecer um novo mapeamento entre a instância de cliente do vídeo e a instância canônica do vídeo.
Para os propósitos de ilustração, as características foram mostradas como fluindo do cliente 104 para o servidor de anotação 110. Todavia, com a finalidade de estabelecer um mapeamento entre a instância de cliente do vídeo e a instância canônica do vídeo, as características podem fluir numa ou noutra direção. O exemplo do servidor de anotação 110 que mantém este mapeamento com base nas características enviadas pelo cliente 104 é dado para os propósitos de ilustra
23/32 ção e não é limitante. Noutra modalidade, o cliente mantém o mapeamento entre a instância de cliente do vídeo e a instância canônica do vídeo, por exemplo, com base nas características da instância canônica do vídeo enviada pelo servidor de anotação 110 para o cliente 104. Em ainda outra modalidade, uma terceira parte mantém o mapeamento entre a instância de cliente do vídeo e a instância canônica do vídeo pela recepção das características de ambos o servidor de anotação 110 e o cliente 104.
O cliente 104 também pode ser usado para submeter uma nova anotação. Por exemplo, um usuário pode criar conteúdo de anotação e associá-lo a um vídeo. O usuário também pode especificar uma definição espacial para a nova anotação e escolher uma faixa de molduras da instância de cliente do vídeo à qual a anotação será indexada. O cliente 104 transmite a nova anotação para o servidor de anotação 110 para armazenamento.
Referindo-se, agora, à Figura 7(a), um usuário pode buscar, criar ou editar as anotações usando uma interface gráfica com o usuário. No exemplo ilustrado, a interface gráfica com o usuário para as anotações é integrada a uma interface gráfica com o usuário de reprodutor de vídeo 702. A interface gráfica com o usuário de reprodutor de vídeo 702 é um exemplo de uma interface que poderia ser mostrada no dispositivo de vídeo de um cliente 104. A interface gráfica com o usuário de reprodutor de vídeo 702 inclui uma área de exibição para apresentar o arquivo de mídia (no exemplo ilustrado, um vídeo), assim como botões de controle para selecionar, reproduzir, pausar, adiantar e retroceder o arquivo de mídia. A interface gráfica com o usuário de reprodutor de vídeo 702 pode também incluir anúncios, tais como o anúncio para o National Archives and Administration mostrado na Figura 7(a).
A interface gráfica com o usuário de reprodutor de vídeo 702 apresenta uma moldura de vídeo. Mostrada junto com a moldura
24/32 de vídeo está uma definição de anotação 704. A definição de anotação 704 ilustra graficamente a definição espacial e/ou a definição temporal de uma anotação. Por exemplo, a definição de anotação 704 mostrada na Figura 7(a) delineia um subconjunto da moldura com a qual uma anotação é associada. Como outro exemplo, uma definição de anotação 704 pode delinear uma faixa de molduras à qual uma anotação é associada. Enquanto uma definição de anotação única 704 é mostrada na Figura 7(a), a interface gráfica com o usuário de reprodutor de vídeo 702 pode incluir uma pluralidade de definições de anotação 704 sem se desviar do escopo da invenção.
A definição de anotação 704 pode ser exibida em resposta a uma seleção de usuário ou como parte da exibição de uma anotação existente. Por exemplo, o usuário pode usar um dispositivo de entrada para selecionar uma região da moldura à qual uma nova anotação será associada e em resposta àquela seleção a interface gráfica com o usuário de reprodutor de vídeo 702 exibe a definição de anotação 704 criada pelo usuário. Como outro exemplo, a interface gráfica com o usuário de reprodutor de vídeo 702 pode exibir vídeo e anotações associadas e pode exibir a definição de anotação 704 junto com a exibição de uma anotação associada.
A interface gráfica com o usuário de reprodutor de vídeo 702 também inclui botões de controle de anotação 706 que permitem ao usuário controlar o conteúdo e a exibição de anotações. Por exemplo, a interface gráfica com o usuário de reprodutor de vídeo 702 pode incluir um botão para buscar anotações. Em resposta à seleção do botão de anotações de busca, o cliente busca anotações associadas à definição de anotação 704 (ou uma definição semelhante), ou anotações associadas a um palavra-chave. Os resultados da busca podem então ser exibidos na interface gráfica com o usuário de reprodutor de vídeo 702. Como outro exemplo, a interface gráfica com o usuário de reprodutor de vídeo 702 pode incluir um botão para editar anotações. Em resposta à
25/32 seleção do botão de editar anotações, a interface gráfica com o usuário de reprodutor de vídeo 702 exibe uma ou mais anotações associadas à definição de anotação 704 e permite ao usuário modificar uma ou mais anotações. Ainda como outro exemplo, a interface gráfica com o 5 usuário de reprodutor de vídeo 702 pode incluir um botão para criar uma nova anotação. Em resposta à seleção do botão de criar nova anotação, a interface gráfica com o usuário de reprodutor de vídeo 702 exibe opções como aquelas mostradas na Figura 7(b).
Referindo-se, agora, à Figura 7(b), os botões de controle de 10 anotação 706 indicam que o botão de criar nova anotação foi selecionado. A interface gráfica com o usuário de reprodutor de vídeo 702 inclui uma área de exibição para receber a entrada de usuário do novo conteúdo de anotação. No exemplo ilustrado, o novo conteúdo de anotação inclui algum novo texto de anotação 708. Como mostrado na 15 Figura 7(b), à medida que o usuário introduz a descrição “General MacArthur}>, o novo texto de anotação 708 é exibido. Em resposta a uma nova seleção de usuário que indica que a criação do conteúdo de anotação está completa, a nova anotação é submetida, por exemplo, para o servidor de anotação 110 e exibida na interface gráfica com o 20 usuário de reprodutor de vídeo 702.
A introdução de novo texto de anotação 708 foi mostrada como um exemplo da criação de conteúdo de anotação. A interface gráfica com o usuário de reprodutor de vídeo 702 pode ser adaptada para receber outros tipos de conteúdo de anotação também. Por 25 exemplo, o conteúdo de anotação pode incluir áudio e a interface gráfica com o usuário de reprodutor de vídeo 702 pode incluir um botão para iniciar a gravação de áudio por meio de um microfone, ou para selecionar um arquivo de áudio de uma posição numa mídia de memória. Outros tipos de anotações e de métodos semelhantes para receber sua 30 submissão por um usuário serão evidentes para uma pessoa com capacidade na técnica sem se desviar do escopo da invenção.
26/32
A Figura 8 ilustra um método para determinar quais anotações a apresentar. Numa modalidade, o cliente 104 exibe só algumas das anotações recebidas. O cliente 104 desempenha um método como aquele ilustrado na Figura 8 para determinar quais anotações deveriam ser exibidas e quais não deveriam.
O cliente 104 recebe 802 uma anotação. O cliente determina 804 se a anotação é de alta prioridade. Uma anotação de alta prioridade é exibida não importando as configurações de usuário para a exibição de anotações. As anotações de alta prioridade podem incluir, por exemplo, anúncios, mensagens de transmissão pública de emergência ou outras comunicações que pela sua importância deveriam substituir as configurações locais de usuário.
Se o cliente 104 determina 804 que a anotação é de alta prioridade, o cliente exibe 812 a anotação. Se o cliente 104 determina 804 que a anotação não é de alta prioridade, o cliente determina 806 se as anotações estão habilitadas. As anotações podem estar habilitadas ou desabilitadas, por exemplo, por uma seleção de usuário de um modo de exibição de anotação. Se o usuário selecionou para desabilitar as anotações, o cliente 104 não exibe 810 a anotação. Se o usuário selecionou para habilitar as anotações, o cliente 104 determina 808 se a anotação corresponde aos critérios definidos pelo usuário.
Como aqui descrito, o cliente 104 permite que o usuário selecione anotações para exibição baseado em vários critérios. Numa modalidade, os critérios definidos pelo usuário podem ser descritos na solicitação de anotação, limitando as anotações enviadas pelo servidor de anotação 110. Noutra modalidade, os critérios definidos pelo usuário podem ser usados para limitar quais anotações a apresentar uma vez que as anotações tenham sido recebidas no cliente 104. Os critérios definidos pelo usuário podem especificar quais anotações a apresentar, por exemplo, com base no idioma, no conteúdo de anotação, nos autores particulares ou nos grupos de autores ou outras
27/32 propriedades de anotação.
Se o cliente 104 determina 808 que a anotação satisfaz os critérios definidos pelo usuário, o cliente 104 exibe 812 a anotação. Se o cliente 104 determina 808 que a anotação não satisfaz os critérios definidos pelo usuário, o cliente 104 não exibe 810 a anotação.
A Figura 8 ilustra um exemplo de como o cliente 104 pode determinar quais anotações a apresentar. Outros métodos para arbitrar as prioridades de anotação estabelecidas pelo provedor de anotação e pelo consumidor de anotação serão evidentes para uma pessoa com capacidade na técnica sem se desviar do escopo da presente invenção.
Voltando agora para a instância canônica de vídeo revelada aqui, a instância canônica de vídeo pode ser implementada numa variedade de modos de acordo com várias modalidades. Em alguns casos, o servidor de anotação 110 selecionou uma instância canônica do vídeo antes da submissão da nova anotação. O cliente 104 pode enviar uma característica para facilitar a indexação da nova anotação à instância canônica do vídeo. Em outros casos, por exemplo, quando a anotação é a primeira a ser associada a um vídeo particular, o servidor de anotação 110 pode não ter ainda identificado uma instância canônica do vídeo. O servidor de anotação 110 armazena a anotação indexada à instância de cliente do vídeo e estabelece a instância de cliente do vídeo como a instância canônica do vídeo para transações de anotação futuras.
De acordo com uma modalidade da presente invenção, as anotações são armazenadas indexadas às características da instância de vídeo usadas pelo cliente que submeteu aquela anotação. As anotações podem ser armazenadas e recuperadas sem qualquer instância canônica subjacente de vídeo. Por exemplo, cada anotação pode ser indexada à sua própria “instância canônica de vídeo”, que se refere à instância de vídeo do submissor. Essa abordagem é particularmente
28/32 benéfica para situações em que o servidor de anotação 110 não mantém ou tem acesso a cópias do próprio vídeo. Essencialmente, o servidor de anotação 110 pode servir como um intermediário cego de anotações, que passa anotações de autores para consumidores sem sua própria cópia do vídeo à qual as anotações são associadas.
Um servidor de anotação de conteúdo cego pode ser benéfico, por exemplo, quando o conteúdo de vídeo é protegido por direitos autorais, é privado ou é de outra forma confidencial. Por exemplo, uma mãe orgulhosa pode querer anotar um filme do primeiro banho do seu filho, mas poderia ser reticente quanto a submeter até mesmo uma instância de referência do vídeo para um servidor de anotação central. O servidor de anotação de conteúdo cego armazena anotações indexadas à instância de vídeo da mãe, sem acessar uma instância própria. Quando uma tia, tio ou outro usuário de confiança com uma instância do vídeo solicita as anotações, sua instância é mapeada para a instância da mãe por comparação de características de sua instância com as características da instância da mãe recebida com a submissão da anotação. As características podem ser determinadas de tal modo que não podem ser facilmente revertidas para encontrar o conteúdo de uma moldura, deste modo preservando a privacidade do vídeo.
O caso de um servidor de anotação e um cliente é apenas um exemplo em que a presente invenção pode ser empregada de forma útil para o compartilhamento e a distribuição de anotações para vídeo. Será evidente para uma pessoa com capacidade na técnica que os métodos descritos aqui para transmitir anotações sem a necessidade de transmitir vídeo associado terão uma variedade de outros usos sem se desviar do escopo da presente invenção. Por exemplo, as características descritas aqui poderíam ser usadas numa comunidade online em que os usuários podem criar, editar, revisar, publicar e visualizar anotações de forma colaborativa, sem os fardos de transferir ou hospedar vídeo diretamente. Tal comunidade permitiría a produção de estilo de origem
29/32 aberta de anotações sem infringir as proteções de direitos autorais do vídeo a que aquelas anotações são associadas.
Como uma característica adicionada, um usuário nesta comunidade poderia também acumular uma classificação, por exemplo, com base na análise crítica de outros usuários da qualidade da criação ou edição prévia daquele usuário. Um usuário que quer visualizar anotações poderia ter a opção de ignorar as anotações de usuários com classificações abaixo de certo limite mínimo ou de buscar por anotações de usuários com classificações de um calibre sumamente alto. Como outro exemplo, um usuário poderia selecionar visualizar anotações só de um usuário específico ou de um grupo específico de usuários.
Como descritas aqui, as anotações também podem incluir comandos que descrevem como o vídeo deveria ser exibido, por exemplo, comandos que instruem um dispositivo de vídeo para saltar adiante naquele vídeo ou para pular para outro vídeo completamente. Um usuário poderia criar uma string de anotações de comando de pular para, que efetivamente proporciona uma sugestão para a combinação de segmentos de vídeo num fragmento maior. Como exemplo, as anotações de comando podem ser usadas para criar um novo filme a partir de partes componentes de um ou mais outros filmes. O servidor de anotação proporciona as anotações para o cliente, que adquire os vários segmentos especificados pelas anotações e ajunta os fragmentos para exibição ao usuário.
A presente invenção tem aplicabilidade em qualquer de uma variedade de modelos hospedeiros, incluindo mas não limitado a par-apar, hospedagem distribuída, hospedagem de estilo wiki, serviço centralizado ou outros métodos conhecidos para compartilhar dados através de uma rede.
O arcabouço de anotação descrito aqui apresenta a oportunidade para uma pluralidade de modelos de renda. Como exemplo, o proprietário do servidor de anotação pode cobrar a taxa para incluir
30/32 anúncios em anotações. O servidor de anotação pode ter como objetivo anotações de anúncio para o usuário baseado numa variedade de fatores. Por exemplo, o servidor de anotação poderia selecionar anúncios para transmissão para o cliente baseado no título ou na categoria 5 do vídeo que o cliente está exibindo, nos fatos conhecidos sobre o usuário, nas solicitações de busca de anotação recentes (como buscas de palavra-chave),em outras anotações previamente submetidas para o vídeo, na posição geográfica do cliente ou em outros critérios úteis para efetivamente direcionar a publicidade.
O acesso a anotações poderia ser proporcionado com base numa subscrição, ou as anotações poderíam ser vendidas num pacote com o próprio conteúdo de vídeo. Por exemplo, um usuário que compra um vídeo de uma loja de vídeo online poderia receber permissão para visualizar, editar ou criar anotações, tanto associadas àquele vídeo como a outros vídeos. Uma loja de vídeo online poderia ter uma promoção, por exemplo, na qual a compra de um certo número de vídeos num mês dá ao usuário privilégios sobre um servidor de anotação para aquele mês.
Alternativamente, a compra de um vídeo de uma loja de ví20 deo online poderia ser acoplada a privilégios para criar, editar ou visualizar anotações associadas àquele vídeo. Se um servidor de anotação particular toma-se particularmente popular entre usuários, o acesso controlado ao servidor de anotação poderia ajudar com a proteção dos direitos autorais do vídeo. Por exemplo, um usuário ’ 25 poderia ter que provar que ele tem uma cópia certificada legitimamente adquirida de um vídeo antes de ter permissão para visualizar, editar ou criar anotações. Esta exigência poderia reduzir a utilidade ou a conveniência de cópias de vídeo adquiridas ilegalmente.
Estes exemplos de modelos de renda têm sido dados para 30 os propósitos de ilustração e não são limitantes. Outras aplicações e usos potencialmente lucrativos serão evidentes para uma pessoa com
31/32 capacidade na técnica sem se desviar do escopo da presente invenção.
A referência no Relatório Descritivo a “uma modalidade” significa que um recurso, estrutura ou característica particular descrito com relação às modalidades é incluído em pelo menos uma modalidade 5 da invenção. Os aparecimentos da frase “numa modalidade” em vários lugares no Relatório Descritivo não estão necessariamente referindo-se à mesma modalidade.
Deveria ser notado que as etapas e instruções do processo da presente invenção podem ser expressas em software, firmware ou 10 hardware e, quando expressas em software, podem ser baixadas para residirem e serem operadas de plataformas diferentes usadas por uma variedade de sistemas operacionais.
A presente invenção também se relaciona com um equipamento para desempenhar as operações contidas aqui. Este equipamen15 to pode ser especialmente construído para os propósitos exigidos ou ele pode compreender um computador de propósito geral seletivamente ativado ou configurado por um programa de computador armazenado no computador. Esse programa de computador pode ser armazenado numa mídia de memória legível por computador, como, mas não é 20 limitado a, qualquer tipo de disco que inclui disquetes, discos óticos, CDs-ROM, discos óticos magnéticos, memórias somente de leitura (ROMs), memórias de acesso aleatório (RAMs), EPROMs, EEPROMs, cartões magnéticos ou óticos, circuitos integrados de aplicação específica (ASICs) ou qualquer tipo de mídia apropriada para armazenar 25 instruções eletrônicas e cada uma acoplada a um barramento de sistema de computador. Além disso, os computadores que foram referidos no Relatório Descritivo podem incluir um processador único ou podem ser arquiteturas que empregam projetos de processador múltiplo para capacidade de computação aumentada.
Os algoritmos e imagens apresentados aqui não são inerentemente relacionados a nenhum computador particular nem a outro
32/32 equipamento. Os vários sistemas de propósito geral podem também ser usados com programas conforme os ensinamentos daqui ou isso pode se provar conveniente para construir equipamento mais especializado para desempenhar as etapas de método exigidas. A estrutura exigida para uma variedade destes sistemas aparecerá da descrição abaixo. Além disso, a presente invenção não é descrita com referência a qualquer linguagem de programação particular. Será observado que pode ser usada uma variedade de linguagens de programação para implementar os ensinamentos da presente invenção como aqui descritos e quaisquer referências abaixo para especificar linguagens são proporcionadas para a revelação da capacidade e do melhor modo da presente invenção.
Embora \a invenção tem sido particularmente mostrada e descrita com referência a uma modalidade preferida e a várias modalidades alternativas, será entendido por pessoas qualificadas na técnica relevante que várias mudanças em forma e detalhes podem ser feitas nelas sem se desviar do espírito e do escopo da invenção.
Finalmente, devia ser notado que a linguagem usada na especificação tem sido principalmente selecionada para propósitos de legibilidade e de instrução e pode não ter sido selecionada para delinear ou circunscrever a matéria do objeto inventivo. Consequentemente, pretende-se que a revelação da presente invenção seja ilustrativa, mas não limitativa, do escopo da invenção, que é exposto nas Reivindicações seguintes.

Claims (11)

  1. REIVINDICAÇÕES
    1. Método de recuperação de anotações caracterizado pelo fato de que compreende as etapas de:
    receber a partir de um dispositivo cliente (104) uma solicitação de uma anotação associada a uma primeira moldura de uma primeira instância de um arquivo de mídia, que compreende uma pluralidade de molduras e é exibida no dispositivo cliente (104), a solicitação compreendendo um conjunto de características que inclui uma pluralidade de características da primeira moldura da primeira instância do arquivo de mídia;
    identificar, a partir de uma pluralidade de molduras de uma segunda instância do arquivo de mídia, com base em uma característica no conjunto de características, um conjunto candidato de molduras da segunda instância que possui potencial para mapear à primeira moldura da primeira instância, em que as primeira e segunda instâncias do arquivo de mídia são cópias do mesmo vídeo cujas molduras são deslocadas no tempo com respeito umas às outras;
    em que a característica no conjunto de características é uma posição temporal da primeira moldura da primeira instância, o conjunto candidato de molduras é selecionado a partir de molduras dentro de uma quantidade fixa de tempo ou de molduras antes e depois da primeira moldura, a segunda instância de arquivo de mídia é armazenada em um dispositivo hospedeiro (102, 106, 108) remotamente localizado a partir do primeiro dispositivo cliente (104);
    selecionar, a partir do conjunto candidato de molduras da segunda instância do arquivo de mídia, uma moldura correspondente da segunda moldura da segunda instância do arquivo de mídia com base em uma distância entre o conjunto de características da primeira moldura da primeira instância e um conjunto de características da moldura correspondente da segunda instância;
    Petição 870180141410, de 16/10/2018, pág. 5/13
  2. 2/5 recuperar uma anotação associada à moldura correspondente da segunda instância do arquivo de mídia; e transmitir a anotação para o dispositivo cliente (104) para processamento no mesmo.
    2. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que o arquivo de mídia compreende um vídeo.
  3. 3. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que a anotação compreende um segmento de áudio, um anúncio, uma descrição do arquivo de mídia, ou um comando.
  4. 4. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que selecionar a moldura correspondente compreende:
    calcular, para cada moldura no conjunto candidato de molduras, uma distância entre o conjunto de características da primeira moldura e um conjunto de características da moldura no conjunto candidato de molduras; e selecionar a moldura no conjunto candidato de molduras com uma distância mais curta calculada como a moldura correspondente.
  5. 5. Método de armazenamento de anotações caracterizado pelo fato de que compreende as etapas de:
    receber, a partir de um primeiro dispositivo cliente (104), uma primeira anotação associada a uma primeira moldura de uma primeira instância de um arquivo de mídia, a primeira instância do arquivo de mídia sendo exibida no dispositivo cliente (104);
    receber um conjunto de características que inclui uma pluralidade de características da primeira moldura da primeira instância do arquivo de mídia;
    identificar, dentre uma pluralidade de molduras de uma segunda instância do arquivo de mídia com base em uma característica no conjunto de características, um conjunto candidato de molduras da segunda instância que possui potencial para mapear para a primeira
    Petição 870180141410, de 16/10/2018, pág. 6/13
    3/5 moldura da primeira instância, em que as primeira e segunda instâncias do arquivo de mídia são cópias do mesmo vídeo cujas molduras são deslocadas no tempo com respeito umas às outras;
    em que a característica no conjunto de características é uma posição temporal da primeira moldura da primeira instância, o conjunto candidato de molduras é selecionado a partir de molduras dentro de um quantidade fixada de tempo ou de molduras antes e depois da primeira moldura, a segunda instância do arquivo de mídia é armazenada em um dispositivo hospedeiro (102, 106, 108) remotamente localizado a partir do primeiro dispositivo cliente (104);
    selecionar, a partir do conjunto candidato de molduras da segunda instância do arquivo de mídia, uma moldura correspondente da segunda moldura da segunda instância do arquivo de mídia com base em uma distância entre o conjunto de características da primeira moldura da primeira instância e um conjunto de características da moldura correspondente da segunda instância; e armazenar a primeira anotação, em que a primeira anotação é indexada à moldura correspondente da segunda instância do arquivo de mídia.
  6. 6. Método, de acordo com a reivindicação 5, caracterizado pelo fato de que o arquivo de mídia compreende um vídeo.
  7. 7. Método, de acordo com a reivindicação 5, caracterizado pelo fato de que a anotação compreende um segmento de áudio, um anúncio, uma descrição do arquivo de mídia, ou um comando.
  8. 8. Método, de acordo com a reivindicação 5, caracterizado pelo fato de que ainda compreende:
    receber, a partir de um segundo dispositivo cliente (104), uma segunda anotação; e armazenar a segunda anotação, em que a segunda anotação é indexada à moldura correspondente da segunda instância do
    Petição 870180141410, de 16/10/2018, pág. 7/13
    4/5 arquivo de mídia.
  9. 9. Método, de acordo com a reivindicação 5, caracterizado pelo fato de que selecionar a moldura correspondente compreende:
    calcular, para cada moldura no conjunto candidato, uma distância entre o conjunto de características da primeira moldura e um conjunto de características da moldura no conjunto candidato; e selecionar a moldura no conjunto candidato com uma distância mais curta calculada como a moldura correspondente.
  10. 10. Sistema (110) de recuperação de anotações, caracterizado pelo fato de que compreende:
    meios para receber a partir de um dispositivo cliente (104) uma solicitação de anotações associadas a uma primeira moldura de uma primeira instância de um arquivo de mídia, em que a primeira instância compreende uma pluralidade de molduras, e a primeira instância do arquivo de mídia é exibida no dispositivo cliente (104), onde a solicitação inclui um conjunto de características que inclui uma pluralidade de características da primeira moldura da primeira instância do arquivo de mídia;
    meios para identificar a partir de uma pluralidade de molduras de uma segunda instância do arquivo de mídia com base em uma característica no conjunto de características, um conjunto candidato de molduras da segunda instância tendo potencial para mapear à primeira moldura da primeira instância, em que as primeira e segunda instâncias do arquivo de mídia são cópias do mesmo vídeo cujas molduras são deslocadas no tempo com respeito umas às outras;
    em que a característica no conjunto de características é uma posição temporal da primeira moldura da primeira instância, o conjunto candidato de molduras sendo selecionado a partir de molduras antes e depois da primeira moldura, a segunda instância do arquivo de mídia sendo armazenada em um dispositivo hospedeiro (102,
    Petição 870180141410, de 16/10/2018, pág. 8/13
    5/5
    106, 108) localizado a partir do primeiro dispositivo cliente (104);
    meios para selecionar, a partir do conjunto candidato de molduras da segunda instância do arquivo de mídia, uma moldura correspondente da segunda instância do arquivo de mídia com base em uma distância entre o conjunto de características da primeira moldura da primeira instância e um conjunto de características da moldura correspondente da segunda instância;
    meios para recuperar uma anotação associada com a moldura correspondente da segunda instância do arquivo de mídia; e meios para transmitir a anotação para o dispositivo (104) cliente para apresentação no mesmo.
  11. 11. Produto de programa de computador, caracterizado pelo fato de que compreende um meio de armazenagem legível por computador tendo um código executável em computador que, quando executado por um computador, faz com que o computador execute um método conforme definido em qualquer uma das reivindicações 1 a 9.
BRPI0720366-7A 2006-12-22 2007-12-19 Métodos de recuperação de anotações, método de armazenamento de anotações, sistema de recuperação de anotações e produto de programa de computador BRPI0720366B1 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US11/615,771 US7559017B2 (en) 2006-12-22 2006-12-22 Annotation framework for video
US11/615,771 2006-12-22
PCT/US2007/088067 WO2008079850A2 (en) 2006-12-22 2007-12-19 Annotation framework for video

Publications (2)

Publication Number Publication Date
BRPI0720366A2 BRPI0720366A2 (pt) 2013-12-24
BRPI0720366B1 true BRPI0720366B1 (pt) 2019-03-06

Family

ID=39544384

Family Applications (1)

Application Number Title Priority Date Filing Date
BRPI0720366-7A BRPI0720366B1 (pt) 2006-12-22 2007-12-19 Métodos de recuperação de anotações, método de armazenamento de anotações, sistema de recuperação de anotações e produto de programa de computador

Country Status (9)

Country Link
US (8) US7559017B2 (pt)
EP (2) EP2126730B1 (pt)
JP (1) JP4774461B2 (pt)
KR (1) KR100963179B1 (pt)
CN (1) CN101589383B (pt)
AU (2) AU2007336947B2 (pt)
BR (1) BRPI0720366B1 (pt)
CA (2) CA2672757C (pt)
WO (1) WO2008079850A2 (pt)

Families Citing this family (228)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7823058B2 (en) 2002-12-30 2010-10-26 The Board Of Trustees Of The Leland Stanford Junior University Methods and apparatus for interactive point-of-view authoring of digital video content
US7580867B2 (en) 2004-05-04 2009-08-25 Paul Nykamp Methods for interactively displaying product information and for collaborative product design
US9275052B2 (en) 2005-01-19 2016-03-01 Amazon Technologies, Inc. Providing annotations of a digital work
US8145528B2 (en) 2005-05-23 2012-03-27 Open Text S.A. Movie advertising placement optimization based on behavior and content analysis
WO2006127951A2 (en) 2005-05-23 2006-11-30 Gilley Thomas S Distributed scalable media environment
US9648281B2 (en) * 2005-05-23 2017-05-09 Open Text Sa Ulc System and method for movie segment bookmarking and sharing
US8141111B2 (en) 2005-05-23 2012-03-20 Open Text S.A. Movie advertising playback techniques
WO2007109162A2 (en) * 2006-03-17 2007-09-27 Viddler, Inc. Methods and systems for displaying videos with overlays and tags
US8341112B2 (en) * 2006-05-19 2012-12-25 Microsoft Corporation Annotation by search
US8412021B2 (en) 2007-05-18 2013-04-02 Fall Front Wireless Ny, Llc Video player user interface
US8656282B2 (en) * 2007-01-31 2014-02-18 Fall Front Wireless Ny, Llc Authoring tool for providing tags associated with items in a video playback
US20080031590A1 (en) * 2006-08-04 2008-02-07 Kulas Charles J Digital video recording of multiple associated channels
US10003781B2 (en) * 2006-08-04 2018-06-19 Gula Consulting Limited Liability Company Displaying tags associated with items in a video playback
US20080066107A1 (en) 2006-09-12 2008-03-13 Google Inc. Using Viewing Signals in Targeted Video Advertising
US9672533B1 (en) 2006-09-29 2017-06-06 Amazon Technologies, Inc. Acquisition of an item based on a catalog presentation of items
US8725565B1 (en) 2006-09-29 2014-05-13 Amazon Technologies, Inc. Expedited acquisition of a digital item following a sample presentation of the item
US7559017B2 (en) 2006-12-22 2009-07-07 Google Inc. Annotation framework for video
US7865817B2 (en) 2006-12-29 2011-01-04 Amazon Technologies, Inc. Invariant referencing in digital works
US20080184117A1 (en) * 2007-01-30 2008-07-31 Awaremedia, Inc. D/B/A/ Panjea Method and system of media channel creation and management
US7903904B1 (en) * 2007-02-16 2011-03-08 Loeb Enterprises LLC. System and method for linking data related to a set of similar images
US8762327B2 (en) * 2007-02-28 2014-06-24 Red Hat, Inc. Synchronizing disributed online collaboration content
US8683342B2 (en) * 2007-02-28 2014-03-25 Red Hat, Inc. Automatic selection of online content for sharing
KR101316743B1 (ko) * 2007-03-13 2013-10-08 삼성전자주식회사 컨텐츠 비디오 영상 중 일부분에 관한 메타데이터를제공하는 방법, 상기 제공된 메타데이터를 관리하는 방법및 이들 방법을 이용하는 장치
US7904825B2 (en) * 2007-03-14 2011-03-08 Xerox Corporation Graphical user interface for gathering image evaluation information
US9665529B1 (en) 2007-03-29 2017-05-30 Amazon Technologies, Inc. Relative progress and event indicators
US7716224B2 (en) 2007-03-29 2010-05-11 Amazon Technologies, Inc. Search and indexing on a user device
US8667532B2 (en) * 2007-04-18 2014-03-04 Google Inc. Content recognition for targeting video advertisements
US20080276266A1 (en) * 2007-04-18 2008-11-06 Google Inc. Characterizing content for identification of advertising
US20080259211A1 (en) * 2007-04-23 2008-10-23 Nokia Corporation Using Subtitles for Other Purposes
US8656040B1 (en) 2007-05-21 2014-02-18 Amazon Technologies, Inc. Providing user-supplied items to a user device
US9710553B2 (en) * 2007-05-25 2017-07-18 Google Inc. Graphical user interface for management of remotely stored videos, and captions or subtitles thereof
US8433611B2 (en) * 2007-06-27 2013-04-30 Google Inc. Selection of advertisements for placement with content
US9609260B2 (en) * 2007-07-13 2017-03-28 Gula Consulting Limited Liability Company Video tag layout
US20090077471A1 (en) * 2007-07-27 2009-03-19 Lahr Nils B System and method for using a website containing video playlists as input to a download manager
US9064024B2 (en) 2007-08-21 2015-06-23 Google Inc. Bundle generation
US9170997B2 (en) 2007-09-27 2015-10-27 Adobe Systems Incorporated Commenting dynamic content
US8364020B2 (en) * 2007-09-28 2013-01-29 Motorola Mobility Llc Solution for capturing and presenting user-created textual annotations synchronously while playing a video recording
US8285121B2 (en) * 2007-10-07 2012-10-09 Fall Front Wireless Ny, Llc Digital network-based video tagging system
US8640030B2 (en) * 2007-10-07 2014-01-28 Fall Front Wireless Ny, Llc User interface for creating tags synchronized with a video playback
US8661096B2 (en) * 2007-11-05 2014-02-25 Cyberlink Corp. Collaborative editing in a video editing system
US20090132935A1 (en) * 2007-11-15 2009-05-21 Yahoo! Inc. Video tag game
KR20090063528A (ko) * 2007-12-14 2009-06-18 엘지전자 주식회사 이동 단말기 및 이동 단말기의 데이터 재생 방법
US8099662B2 (en) * 2008-01-17 2012-01-17 Seiko Epson Corporation Efficient image annotation display and transmission
US11227315B2 (en) 2008-01-30 2022-01-18 Aibuy, Inc. Interactive product placement system and method therefor
US8312486B1 (en) 2008-01-30 2012-11-13 Cinsay, Inc. Interactive product placement system and method therefor
US20110191809A1 (en) 2008-01-30 2011-08-04 Cinsay, Llc Viral Syndicated Interactive Product System and Method Therefor
US8181197B2 (en) 2008-02-06 2012-05-15 Google Inc. System and method for voting on popular video intervals
US9824372B1 (en) 2008-02-11 2017-11-21 Google Llc Associating advertisements with videos
US8112702B2 (en) 2008-02-19 2012-02-07 Google Inc. Annotating video intervals
US20090210778A1 (en) * 2008-02-19 2009-08-20 Kulas Charles J Video linking to electronic text messaging
US8151179B1 (en) * 2008-05-23 2012-04-03 Google Inc. Method and system for providing linked video and slides from a presentation
US8321784B1 (en) 2008-05-30 2012-11-27 Adobe Systems Incorporated Reviewing objects
US8566353B2 (en) 2008-06-03 2013-10-22 Google Inc. Web-based system for collaborative generation of interactive videos
US9070106B2 (en) * 2008-07-14 2015-06-30 International Business Machines Corporation System and method for dynamic structuring of process annotations
AU2009273944A1 (en) * 2008-07-23 2010-01-28 Google Inc. Video promotion in a video sharing site
GB2465538B (en) * 2008-08-01 2013-03-13 Sony Corp Method and apparatus for generating an event log
US20100037149A1 (en) * 2008-08-05 2010-02-11 Google Inc. Annotating Media Content Items
US8843974B2 (en) * 2008-08-27 2014-09-23 Albert John McGowan Media playback system with multiple video formats
US8892630B1 (en) 2008-09-29 2014-11-18 Amazon Technologies, Inc. Facilitating discussion group formation and interaction
US8504587B2 (en) * 2008-09-30 2013-08-06 Yahoo! Inc. Content access and annotation system and method
US8706685B1 (en) * 2008-10-29 2014-04-22 Amazon Technologies, Inc. Organizing collaborative annotations
US9083600B1 (en) 2008-10-29 2015-07-14 Amazon Technologies, Inc. Providing presence information within digital items
US9141860B2 (en) 2008-11-17 2015-09-22 Liveclips Llc Method and system for segmenting and transmitting on-demand live-action video in real-time
US10977693B2 (en) 2008-11-26 2021-04-13 Free Stream Media Corp. Association of content identifier of audio-visual data with additional data through capture infrastructure
US9519772B2 (en) 2008-11-26 2016-12-13 Free Stream Media Corp. Relevancy improvement through targeting of information based on data gathered from a networked device associated with a security sandbox of a client device
US9154942B2 (en) 2008-11-26 2015-10-06 Free Stream Media Corp. Zero configuration communication between a browser and a networked media device
US20100131856A1 (en) * 2008-11-26 2010-05-27 Brian Joseph Kalbfleisch Personalized, Online, Scientific Interface
US10880340B2 (en) 2008-11-26 2020-12-29 Free Stream Media Corp. Relevancy improvement through targeting of information based on data gathered from a networked device associated with a security sandbox of a client device
US9386356B2 (en) 2008-11-26 2016-07-05 Free Stream Media Corp. Targeting with television audience data across multiple screens
CN101414307A (zh) * 2008-11-26 2009-04-22 阿里巴巴集团控股有限公司 提供图片搜索的方法和服务器
US10334324B2 (en) 2008-11-26 2019-06-25 Free Stream Media Corp. Relevant advertisement generation based on a user operating a client device communicatively coupled with a networked media device
US10631068B2 (en) 2008-11-26 2020-04-21 Free Stream Media Corp. Content exposure attribution based on renderings of related content across multiple devices
US10567823B2 (en) 2008-11-26 2020-02-18 Free Stream Media Corp. Relevant advertisement generation based on a user operating a client device communicatively coupled with a networked media device
US8180891B1 (en) 2008-11-26 2012-05-15 Free Stream Media Corp. Discovery, access control, and communication with networked services from within a security sandbox
US9026668B2 (en) 2012-05-26 2015-05-05 Free Stream Media Corp. Real-time and retargeted advertising on multiple screens of a user watching television
US10419541B2 (en) 2008-11-26 2019-09-17 Free Stream Media Corp. Remotely control devices over a network without authentication or registration
US9961388B2 (en) 2008-11-26 2018-05-01 David Harrison Exposure of public internet protocol addresses in an advertising exchange server to improve relevancy of advertisements
US9986279B2 (en) 2008-11-26 2018-05-29 Free Stream Media Corp. Discovery, access control, and communication with networked services
US9087032B1 (en) * 2009-01-26 2015-07-21 Amazon Technologies, Inc. Aggregation of highlights
US20130124242A1 (en) 2009-01-28 2013-05-16 Adobe Systems Incorporated Video review workflow process
US8930843B2 (en) 2009-02-27 2015-01-06 Adobe Systems Incorporated Electronic content workflow review process
US9292481B2 (en) 2009-02-27 2016-03-22 Adobe Systems Incorporated Creating and modifying a snapshot of an electronic document with a user comment
US8826117B1 (en) 2009-03-25 2014-09-02 Google Inc. Web-based system for video editing
US8132200B1 (en) 2009-03-30 2012-03-06 Google Inc. Intra-video ratings
US8832584B1 (en) 2009-03-31 2014-09-09 Amazon Technologies, Inc. Questions on highlighted passages
US8554848B2 (en) * 2009-04-16 2013-10-08 At&T Intellectual Property 1, L.P. Collective asynchronous media review
US8769421B2 (en) * 2009-04-30 2014-07-01 Apple Inc. Graphical user interface for a media-editing application with a segmented timeline
JP5449859B2 (ja) * 2009-05-18 2014-03-19 任天堂株式会社 ゲームプログラム,ゲーム装置およびゲームシステム
US8943408B2 (en) * 2009-05-27 2015-01-27 Adobe Systems Incorporated Text image review process
US8943431B2 (en) * 2009-05-27 2015-01-27 Adobe Systems Incorporated Text operations in a bitmap-based document
US8887190B2 (en) * 2009-05-28 2014-11-11 Harris Corporation Multimedia system generating audio trigger markers synchronized with video source data and related methods
US20110035683A1 (en) * 2009-08-07 2011-02-10 Larry Stead Method and apparatus for synchronous, collaborative media consumption
US20110072047A1 (en) * 2009-09-21 2011-03-24 Microsoft Corporation Interest Learning from an Image Collection for Advertising
US8692763B1 (en) 2009-09-28 2014-04-08 John T. Kim Last screen rendering for electronic book reader
JP5714812B2 (ja) * 2009-11-20 2015-05-07 ソニー株式会社 情報処理装置、ブックマーク設定方法およびプログラム
CN102074030B (zh) * 2009-11-25 2016-03-09 新奥特(北京)视频技术有限公司 一种获取、编辑自定义图形的方法和字幕图形制作系统
US8717436B2 (en) * 2009-12-10 2014-05-06 Harris Corporation Video processing system providing correlation between objects in different georeferenced video feeds and related methods
US8363109B2 (en) 2009-12-10 2013-01-29 Harris Corporation Video processing system providing enhanced tracking features for moving objects outside of a viewable window and related methods
US8933961B2 (en) * 2009-12-10 2015-01-13 Harris Corporation Video processing system generating corrected geospatial metadata for a plurality of georeferenced video feeds and related methods
US8970694B2 (en) * 2009-12-10 2015-03-03 Harris Corporation Video processing system providing overlay of selected geospatially-tagged metadata relating to a geolocation outside viewable area and related methods
US9152708B1 (en) 2009-12-14 2015-10-06 Google Inc. Target-video specific co-watched video clusters
US20110145240A1 (en) * 2009-12-15 2011-06-16 International Business Machines Corporation Organizing Annotations
US9477667B2 (en) * 2010-01-14 2016-10-25 Mobdub, Llc Crowdsourced multi-media data relationships
US8903798B2 (en) * 2010-05-28 2014-12-02 Microsoft Corporation Real-time annotation and enrichment of captured video
US9703782B2 (en) 2010-05-28 2017-07-11 Microsoft Technology Licensing, Llc Associating media with metadata of near-duplicates
USD644660S1 (en) * 2010-06-11 2011-09-06 Microsoft Corporation Display screen with a user interface
US8910046B2 (en) 2010-07-15 2014-12-09 Apple Inc. Media-editing application with anchored timeline
US9113215B1 (en) * 2010-07-30 2015-08-18 Lincoln Berry, III Interactive advertising and marketing system
US10674230B2 (en) * 2010-07-30 2020-06-02 Grab Vision Group LLC Interactive advertising and marketing system
US8744239B2 (en) 2010-08-06 2014-06-03 Apple Inc. Teleprompter tool for voice-over tool
KR20120026762A (ko) * 2010-09-10 2012-03-20 삼성전자주식회사 사용자 단말 장치, 서버 및 그 디스플레이 방법 및 정보 제공 방법
US9495322B1 (en) 2010-09-21 2016-11-15 Amazon Technologies, Inc. Cover display
US20120072845A1 (en) * 2010-09-21 2012-03-22 Avaya Inc. System and method for classifying live media tags into types
US9659313B2 (en) * 2010-09-27 2017-05-23 Unisys Corporation Systems and methods for managing interactive features associated with multimedia content
US8559682B2 (en) 2010-11-09 2013-10-15 Microsoft Corporation Building a person profile database
US9343110B2 (en) 2010-11-23 2016-05-17 Levels Beyond Dynamic synchronization tool
US20120159527A1 (en) * 2010-12-16 2012-06-21 Microsoft Corporation Simulated group interaction with multimedia content
EP2466492A1 (en) * 2010-12-20 2012-06-20 Paul Peter Vaclik A method of making text data associated with video data searchable
US20130334300A1 (en) * 2011-01-03 2013-12-19 Curt Evans Text-synchronized media utilization and manipulation based on an embedded barcode
US9099161B2 (en) 2011-01-28 2015-08-04 Apple Inc. Media-editing application with multiple resolution modes
US8799300B2 (en) * 2011-02-10 2014-08-05 Microsoft Corporation Bookmarking segments of content
US11747972B2 (en) 2011-02-16 2023-09-05 Apple Inc. Media-editing application with novel editing tools
US9997196B2 (en) 2011-02-16 2018-06-12 Apple Inc. Retiming media presentations
US20120210219A1 (en) * 2011-02-16 2012-08-16 Giovanni Agnoli Keywords and dynamic folder structures
US9251130B1 (en) 2011-03-31 2016-02-02 Amazon Technologies, Inc. Tagging annotations of electronic books
US9342516B2 (en) * 2011-05-18 2016-05-17 Microsoft Technology Licensing, Llc Media presentation playback annotation
US9678992B2 (en) 2011-05-18 2017-06-13 Microsoft Technology Licensing, Llc Text to image translation
WO2013016596A2 (en) * 2011-07-28 2013-01-31 Scrawl, Inc. System for annotating documents served by a document system without functional dependence on the document system
US20130031455A1 (en) 2011-07-28 2013-01-31 Peter Griffiths System for Linking to Documents with Associated Annotations
US9443518B1 (en) 2011-08-31 2016-09-13 Google Inc. Text transcript generation from a communication session
JP5791809B2 (ja) * 2011-09-12 2015-10-07 インテル・コーポレーション ビデオコンテンツのアノテーションおよび/または推奨の方法および装置
CN107979772B (zh) * 2011-09-12 2021-10-29 英特尔公司 共用和个人装置协作提供个性化用户功能的方法和设备
US20130073933A1 (en) 2011-09-20 2013-03-21 Aaron M. Eppolito Method of Outputting a Media Presentation to Different Tracks
US9536564B2 (en) 2011-09-20 2017-01-03 Apple Inc. Role-facilitated editing operations
US10079039B2 (en) * 2011-09-26 2018-09-18 The University Of North Carolina At Charlotte Multi-modal collaborative web-based video annotation system
JP5781418B2 (ja) * 2011-10-18 2015-09-24 株式会社ドワンゴ コンテンツ視聴装置、コメント配信サーバ装置、コンテンツ視聴装置の動作方法、およびプログラム
US9158741B1 (en) 2011-10-28 2015-10-13 Amazon Technologies, Inc. Indicators for navigating digital works
US9782680B2 (en) 2011-12-09 2017-10-10 Futurewei Technologies, Inc. Persistent customized social media environment
US9032020B2 (en) 2011-12-29 2015-05-12 Google Inc. Online video enhancement
US10171522B1 (en) * 2012-01-13 2019-01-01 Google Llc Video commentary
US9239848B2 (en) 2012-02-06 2016-01-19 Microsoft Technology Licensing, Llc System and method for semantically annotating images
WO2013134854A1 (en) * 2012-03-13 2013-09-19 Cognilore Inc. Method of navigating through digital content
US9148429B2 (en) 2012-04-23 2015-09-29 Google Inc. Controlling access by web applications to resources on servers
US9262420B1 (en) 2012-04-23 2016-02-16 Google Inc. Third-party indexable text
US9195840B2 (en) 2012-04-23 2015-11-24 Google Inc. Application-specific file type generation and use
US20130283143A1 (en) 2012-04-24 2013-10-24 Eric David Petajan System for Annotating Media Content for Automatic Content Understanding
US9367745B2 (en) 2012-04-24 2016-06-14 Liveclips Llc System for annotating media content for automatic content understanding
US20130308922A1 (en) * 2012-05-15 2013-11-21 Microsoft Corporation Enhanced video discovery and productivity through accessibility
US9781388B2 (en) * 2012-05-28 2017-10-03 Samsung Electronics Co., Ltd. Method and system for enhancing user experience during an ongoing content viewing activity
US9002180B2 (en) * 2012-06-01 2015-04-07 At&T Intellectual Property I, L.P. Media recorder
US9208819B1 (en) 2012-06-20 2015-12-08 Google Inc. Dynamic split-frame preview of video editing effects
US9317709B2 (en) 2012-06-26 2016-04-19 Google Inc. System and method for detecting and integrating with native applications enabled for web-based storage
US9483109B2 (en) * 2012-07-12 2016-11-01 Spritz Technology, Inc. Methods and systems for displaying text using RSVP
CA2822217A1 (en) * 2012-08-02 2014-02-02 Iwatchlife Inc. Method and system for anonymous video analytics processing
US10152467B2 (en) * 2012-08-13 2018-12-11 Google Llc Managing a sharing of media content among client computers
US8984582B2 (en) * 2012-08-14 2015-03-17 Confidela Ltd. System and method for secure synchronization of data across multiple computing devices
US8612211B1 (en) 2012-09-10 2013-12-17 Google Inc. Speech recognition and summarization
US9264584B2 (en) * 2012-09-19 2016-02-16 Tata Consultancy Services Limited Video synchronization
US20140089813A1 (en) * 2012-09-21 2014-03-27 Darius Vahdat Pajouh Ranking of user feedback based on user input device tracking
US9288121B2 (en) * 2012-10-03 2016-03-15 Google Technology Holdings LLC System and method for associating online content to a second indexed content
US9529785B2 (en) 2012-11-27 2016-12-27 Google Inc. Detecting relationships between edits and acting on a subset of edits
US11455664B2 (en) * 2012-12-12 2022-09-27 Saankhya Labs Private Limited System and method for enabling and performing services and functionalities across device types and service providers within a communication device
WO2014113071A1 (en) * 2013-01-15 2014-07-24 Viki, Inc. System and method for captioning media
US9424347B2 (en) * 2013-01-16 2016-08-23 Hewlett-Packard Development Company, L. P. Techniques pertaining to document creation
EP2767910A1 (en) * 2013-02-19 2014-08-20 Alcatel Lucent Device for controlling sychronisation of a set of data contents with a multimedia content, and device for retrieving said data contents for an equipment
US20140232813A1 (en) * 2013-02-20 2014-08-21 Sprint Communications Company L.P. Using metadata for video message modifications among wireless communication devices
US10783319B2 (en) * 2013-03-11 2020-09-22 Coachmyvideo.Com Llc Methods and systems of creation and review of media annotations
US9653116B2 (en) 2013-03-14 2017-05-16 Apollo Education Group, Inc. Video pin sharing
GB2514753A (en) * 2013-03-14 2014-12-10 Buzzmywords Ltd Subtitle processing
US9430578B2 (en) * 2013-03-15 2016-08-30 Google Inc. System and method for anchoring third party metadata in a document
US9727577B2 (en) 2013-03-28 2017-08-08 Google Inc. System and method to store third-party metadata in a cloud storage system
US10489501B2 (en) * 2013-04-11 2019-11-26 Google Llc Systems and methods for displaying annotated video content by mobile computing devices
US20240013237A1 (en) * 2013-05-01 2024-01-11 Cloudsight, Inc. Mobile Client Based Image Analysis
US9438947B2 (en) * 2013-05-01 2016-09-06 Google Inc. Content annotation tool
EP2813984A1 (en) * 2013-06-11 2014-12-17 Alcatel Lucent Method and System for Summarizing Multimedia Content
EP2813983A1 (en) * 2013-06-11 2014-12-17 Alcatel Lucent Method and system for managing social interactions in a social multimedia content stream
US10001904B1 (en) * 2013-06-26 2018-06-19 R3 Collaboratives, Inc. Categorized and tagged video annotation
WO2014208575A1 (ja) 2013-06-28 2014-12-31 日本電気株式会社 映像監視システム、映像処理装置、映像処理方法および映像処理プログラム
US20150012840A1 (en) * 2013-07-02 2015-01-08 International Business Machines Corporation Identification and Sharing of Selections within Streaming Content
US9971752B2 (en) 2013-08-19 2018-05-15 Google Llc Systems and methods for resolving privileged edits within suggested edits
CN104427351B (zh) * 2013-08-30 2017-11-21 北京计算机技术及应用研究所 用于视频监控的时间重叠视频流的快速定位方法及系统
US9348803B2 (en) 2013-10-22 2016-05-24 Google Inc. Systems and methods for providing just-in-time preview of suggestion resolutions
KR101524379B1 (ko) * 2013-12-27 2015-06-04 인하대학교 산학협력단 주문형 비디오에서 인터랙티브 서비스를 위한 캡션 교체 서비스 시스템 및 그 방법
WO2015112870A1 (en) 2014-01-25 2015-07-30 Cloudpin Inc. Systems and methods for location-based content sharing using unique identifiers
US9832538B2 (en) * 2014-06-16 2017-11-28 Cisco Technology, Inc. Synchronizing broadcast timeline metadata
US10140379B2 (en) 2014-10-27 2018-11-27 Chegg, Inc. Automated lecture deconstruction
US9754624B2 (en) * 2014-11-08 2017-09-05 Wooshii Ltd Video creation platform
CN104333776B (zh) * 2014-11-28 2018-03-23 北京奇艺世纪科技有限公司 一种视频标注关联信息的显示方法和系统
CN104391960B (zh) * 2014-11-28 2019-01-25 北京奇艺世纪科技有限公司 一种视频标注方法及系统
US10521672B2 (en) * 2014-12-31 2019-12-31 Opentv, Inc. Identifying and categorizing contextual data for media
US20160212487A1 (en) * 2015-01-19 2016-07-21 Srinivas Rao Method and system for creating seamless narrated videos using real time streaming media
US9418296B1 (en) 2015-03-17 2016-08-16 Netflix, Inc. Detecting segments of a video program
US10599758B1 (en) * 2015-03-31 2020-03-24 Amazon Technologies, Inc. Generation and distribution of collaborative content associated with digital content
US10083160B1 (en) 2015-03-31 2018-09-25 Amazon Technologies, Inc. Distribution of user-generated annotations associated with digital content
EP4395372A3 (en) 2015-04-20 2024-11-27 Snap Inc. Interactive media system and method
US9607224B2 (en) * 2015-05-14 2017-03-28 Google Inc. Entity based temporal segmentation of video streams
CN104936034B (zh) * 2015-06-11 2019-07-05 三星电子(中国)研发中心 基于视频的信息录入方法及装置
WO2017012123A1 (en) * 2015-07-23 2017-01-26 Wizr Video processing
CN105100920B (zh) * 2015-08-31 2019-07-23 北京奇艺世纪科技有限公司 一种视频预览的方法和装置
AU2015224398A1 (en) 2015-09-08 2017-03-23 Canon Kabushiki Kaisha A method for presenting notifications when annotations are received from a remote device
EP3354015A1 (en) * 2015-09-23 2018-08-01 Edoardo Rizzi Communication device and method
US9697198B2 (en) * 2015-10-05 2017-07-04 International Business Machines Corporation Guiding a conversation based on cognitive analytics
CN108781311B (zh) 2015-12-13 2021-04-06 优工作室公司 用于媒体分发和管理平台的视频播放器框架
WO2017129111A1 (zh) * 2016-01-28 2017-08-03 周珏 时基码标记、生成及时基超媒体事件的调度方法、装置及系统
US10460023B1 (en) 2016-03-10 2019-10-29 Matthew Connell Shriver Systems, methods, and computer readable media for creating slide presentations for an annotation set
KR102177455B1 (ko) * 2016-04-04 2020-11-11 한국전자통신연구원 비디오 어노테이션 장치 및 방법
CN106873971B (zh) * 2016-12-29 2020-08-04 武汉斗鱼网络科技有限公司 一种flash应用的多语言展示方法和系统
US10395693B2 (en) 2017-04-10 2019-08-27 International Business Machines Corporation Look-ahead for video segments
US10721503B2 (en) * 2017-06-09 2020-07-21 Sony Interactive Entertainment LLC Systems and methods for operating a streaming service to provide community spaces for media content items
US10990241B2 (en) * 2017-06-28 2021-04-27 Buxton Technology Enterprises Inc. Rich media icon system
US10299013B2 (en) * 2017-08-01 2019-05-21 Disney Enterprises, Inc. Media content annotation
US10878851B2 (en) 2017-08-18 2020-12-29 BON2 Media Services LLC Embedding interactive content into a shareable online video
US10462370B2 (en) 2017-10-03 2019-10-29 Google Llc Video stabilization
US10171738B1 (en) 2018-05-04 2019-01-01 Google Llc Stabilizing video to reduce camera and face movement
US10356387B1 (en) * 2018-07-26 2019-07-16 Telefonaktiebolaget Lm Ericsson (Publ) Bookmarking system and method in 360° immersive video based on gaze vector information
CN109033394B (zh) * 2018-08-01 2022-02-11 浙江深眸科技有限公司 用于图片视频标注数据的客户端
CN109688484A (zh) * 2019-02-20 2019-04-26 广东小天才科技有限公司 一种教学视频学习方法及系统
CN109889879A (zh) * 2019-03-25 2019-06-14 联想(北京)有限公司 信息控制方法及电子设备
US11724171B2 (en) * 2019-05-03 2023-08-15 New York University Reducing human interactions in game annotation
CN110602527B (zh) * 2019-09-12 2022-04-08 北京小米移动软件有限公司 视频处理方法、装置及存储介质
US11087557B1 (en) * 2020-06-03 2021-08-10 Tovy Kamine Methods and systems for remote augmented reality communication for guided surgery
US11190689B1 (en) 2020-07-29 2021-11-30 Google Llc Multi-camera video stabilization
CN112527374B (zh) * 2020-12-11 2024-08-27 北京百度网讯科技有限公司 标注工具生成方法、标注方法、装置、设备以及存储介质
US11843820B2 (en) 2021-01-08 2023-12-12 Sony Interactive Entertainment LLC Group party view and post viewing digital content creation
CN115967822A (zh) * 2021-10-12 2023-04-14 北京字跳网络技术有限公司 信息显示方法、装置、电子设备和存储介质
EP4380170A4 (en) * 2021-11-09 2024-11-27 Samsung Electronics Co., Ltd. ELECTRONIC DEVICE AND METHOD FOR AUTOMATIC GENERATING EDITED VIDEO
US20250013827A1 (en) * 2023-07-06 2025-01-09 Google Llc Generating explanations of content recommendations using language model neural networks
CN118075409B (zh) * 2024-04-19 2024-06-25 贵州联广科技股份有限公司 多级别用户端的数据融合方法及装置

Family Cites Families (182)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0526064B1 (en) 1991-08-02 1997-09-10 The Grass Valley Group, Inc. Video editing system operator interface for visualization and interactive control of video material
JPH05197573A (ja) * 1991-08-26 1993-08-06 Hewlett Packard Co <Hp> タスク指向パラダイムによるタスク管理システム
GB2270242A (en) * 1992-08-29 1994-03-02 Ibm A method of editing for an object oriented computer system
US5339393A (en) 1993-04-15 1994-08-16 Sony Electronics, Inc. Graphical user interface for displaying available source material for editing
US5996121A (en) 1993-07-28 1999-12-07 Harris; Eunice Convertible coat
US5664216A (en) 1994-03-22 1997-09-02 Blumenau; Trevor Iconic audiovisual data editing environment
US5465353A (en) * 1994-04-01 1995-11-07 Ricoh Company, Ltd. Image matching and retrieval by multi-access redundant hashing
US5600775A (en) * 1994-08-26 1997-02-04 Emotion, Inc. Method and apparatus for annotating full motion video and other indexed data structures
US5812642A (en) 1995-07-12 1998-09-22 Leroy; David J. Audience response monitor and analysis system and method
US5708845A (en) 1995-09-29 1998-01-13 Wistendahl; Douglass A. System for mapping hot spots in media content for interactive digital media program
US5966121A (en) 1995-10-12 1999-10-12 Andersen Consulting Llp Interactive hypervideo editing system and interface
US5732184A (en) 1995-10-20 1998-03-24 Digital Processing Systems, Inc. Video and audio cursor video editing system
US6570587B1 (en) 1996-07-26 2003-05-27 Veon Ltd. System and method and linking information to a video
US20020120925A1 (en) 2000-03-28 2002-08-29 Logan James D. Audio and video program recording, editing and playback systems using metadata
US20030093790A1 (en) 2000-03-28 2003-05-15 Logan James D. Audio and video program recording, editing and playback systems using metadata
US6956573B1 (en) * 1996-11-15 2005-10-18 Sarnoff Corporation Method and apparatus for efficiently representing storing and accessing video information
US6006241A (en) 1997-03-14 1999-12-21 Microsoft Corporation Production of a video stream with synchronized annotations over a computer network
US7111009B1 (en) * 1997-03-14 2006-09-19 Microsoft Corporation Interactive playlist generation using annotations
US6546405B2 (en) * 1997-10-23 2003-04-08 Microsoft Corporation Annotating temporally-dimensioned multimedia content
US6173287B1 (en) * 1998-03-11 2001-01-09 Digital Equipment Corporation Technique for ranking multimedia annotations of interest
US6295092B1 (en) 1998-07-30 2001-09-25 Cbs Corporation System for analyzing television programs
US6144375A (en) 1998-08-14 2000-11-07 Praja Inc. Multi-perspective viewer for content-based interactivity
US6956593B1 (en) * 1998-09-15 2005-10-18 Microsoft Corporation User interface for creating, viewing and temporally positioning annotations for media content
WO2000016541A1 (en) * 1998-09-15 2000-03-23 Microsoft Corporation Annotation creation and notification via electronic mail
US6357042B2 (en) * 1998-09-16 2002-03-12 Anand Srinivasan Method and apparatus for multiplexing separately-authored metadata for insertion into a video data stream
US20020059218A1 (en) 1999-01-26 2002-05-16 Katherine Grace August System and method for obtaining real time survey information for media programming using input device
KR20010108159A (ko) * 1999-01-29 2001-12-07 다니구찌 이찌로오, 기타오카 다카시 화상 특징 부호화 방법 및 화상 검색 방법
KR100326400B1 (ko) 1999-05-19 2002-03-12 김광수 자막지향 탐색정보 생성 및 탐색방법과, 이를 사용하는 재생장치
US6415438B1 (en) 1999-10-05 2002-07-02 Webtv Networks, Inc. Trigger having a time attribute
US7490292B2 (en) * 1999-12-17 2009-02-10 International Business Machines Corporation Web-based instruction
US7367042B1 (en) * 2000-02-29 2008-04-29 Goldpocket Interactive, Inc. Method and apparatus for hyperlinking in a television broadcast
US7343617B1 (en) * 2000-02-29 2008-03-11 Goldpocket Interactive, Inc. Method and apparatus for interaction with hyperlinks in a television broadcast
WO2001069438A2 (en) * 2000-03-14 2001-09-20 Starlab Nv/Sa Methods and apparatus for encoding multimedia annotations using time-synchronized description streams
EP1947648B1 (en) * 2000-04-05 2019-05-08 Sony United Kingdom Limited Video processing apparatus and method
EP1208566A2 (en) * 2000-04-05 2002-05-29 Sony Uk Ltd INFORMATION IDENTIFICATION, RECORDING AND REPRODUCTION
US7055168B1 (en) * 2000-05-03 2006-05-30 Sharp Laboratories Of America, Inc. Method for interpreting and executing user preferences of audiovisual information
US6965646B1 (en) * 2000-06-28 2005-11-15 Cisco Technology, Inc. MPEG file format optimization for streaming
US7548565B2 (en) * 2000-07-24 2009-06-16 Vmark, Inc. Method and apparatus for fast metadata generation, delivery and access for live broadcast program
KR20040041082A (ko) 2000-07-24 2004-05-13 비브콤 인코포레이티드 멀티미디어 북마크와 비디오의 가상 편집을 위한 시스템및 방법
JP2002163143A (ja) 2000-07-28 2002-06-07 Any One Wireless Co Ltd 無線サイトのコンテンツ・リフォーマッティング・システム及びその方法
US20020065678A1 (en) 2000-08-25 2002-05-30 Steven Peliotis iSelect video
US20020078446A1 (en) * 2000-08-30 2002-06-20 Jon Dakss Method and apparatus for hyperlinking in a television broadcast
JP5005154B2 (ja) * 2000-09-08 2012-08-22 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 記憶媒体上に記憶された情報信号を再生する装置
US8020183B2 (en) * 2000-09-14 2011-09-13 Sharp Laboratories Of America, Inc. Audiovisual management system
US6774908B2 (en) 2000-10-03 2004-08-10 Creative Frontier Inc. System and method for tracking an object in a video and linking information thereto
US7254605B1 (en) 2000-10-26 2007-08-07 Austen Services Llc Method of modulating the transmission frequency in a real time opinion research network
US20020108112A1 (en) * 2001-02-02 2002-08-08 Ensequence, Inc. System and method for thematically analyzing and annotating an audio-visual sequence
US7032178B1 (en) 2001-03-30 2006-04-18 Gateway Inc. Tagging content for different activities
US7080139B1 (en) * 2001-04-24 2006-07-18 Fatbubble, Inc Method and apparatus for selectively sharing and passively tracking communication device experiences
CN1332556A (zh) 2001-04-27 2002-01-23 清华大学 地面数字多媒体电视广播系统中的信道传输方法
US20040138946A1 (en) * 2001-05-04 2004-07-15 Markus Stolze Web page annotation systems
US20020188630A1 (en) 2001-05-21 2002-12-12 Autodesk, Inc. Method and apparatus for annotating a sequence of frames
WO2002101584A2 (en) 2001-06-11 2002-12-19 C-Burn Systems Ltd Selecting tracks from a jukebox via a wireless communications device
EA008675B1 (ru) * 2001-06-22 2007-06-29 Нервана, Инк. Система и способ поиска, управления, доставки и представления знаний
TW520602B (en) 2001-06-28 2003-02-11 Ulead Systems Inc Device and method of editing video program
US20030018668A1 (en) * 2001-07-20 2003-01-23 International Business Machines Corporation Enhanced transcoding of structured documents through use of annotation techniques
WO2003019325A2 (en) 2001-08-31 2003-03-06 Kent Ridge Digital Labs Time-based media navigation system
WO2003027893A1 (en) * 2001-09-27 2003-04-03 The Trustees Of Columbia University In The City Of New York Method and system for annotating audio/video data files
US7343487B2 (en) 2001-10-10 2008-03-11 Nokia Corporation Datacast distribution system
US7203380B2 (en) * 2001-11-16 2007-04-10 Fuji Xerox Co., Ltd. Video production and compaction with collage picture frame user interface
US7180623B2 (en) * 2001-12-03 2007-02-20 Canon Kabushiki Kaisha Method and apparatus for print error recovery
US20030107592A1 (en) * 2001-12-11 2003-06-12 Koninklijke Philips Electronics N.V. System and method for retrieving information related to persons in video programs
US20030112276A1 (en) * 2001-12-19 2003-06-19 Clement Lau User augmentation of content
US7137062B2 (en) * 2001-12-28 2006-11-14 International Business Machines Corporation System and method for hierarchical segmentation with latent semantic indexing in scale space
US20040205482A1 (en) 2002-01-24 2004-10-14 International Business Machines Corporation Method and apparatus for active annotation of multimedia content
US6835311B2 (en) * 2002-01-31 2004-12-28 Koslow Technologies Corporation Microporous filter media, filtration systems containing same, and methods of making and using
JP3982295B2 (ja) * 2002-03-20 2007-09-26 日本電信電話株式会社 映像コメント入力・表示方法およびシステムと、クライアント装置と、映像コメント入力・表示プログラム及びその記録媒体
US7243301B2 (en) 2002-04-10 2007-07-10 Microsoft Corporation Common annotation framework
AU2003239385A1 (en) * 2002-05-10 2003-11-11 Richard R. Reisman Method and apparatus for browsing using multiple coordinated device
US6988245B2 (en) 2002-06-18 2006-01-17 Koninklijke Philips Electronics N.V. System and method for providing videomarks for a video program
US7149755B2 (en) * 2002-07-29 2006-12-12 Hewlett-Packard Development Company, Lp. Presenting a collection of media objects
US7257774B2 (en) 2002-07-30 2007-08-14 Fuji Xerox Co., Ltd. Systems and methods for filtering and/or viewing collaborative indexes of recorded media
JP4025185B2 (ja) * 2002-12-10 2007-12-19 株式会社東芝 メディアデータ視聴装置及びメタデータ共有システム
JP2004193979A (ja) * 2002-12-11 2004-07-08 Canon Inc 映像配信システム
US7536713B1 (en) * 2002-12-11 2009-05-19 Alan Bartholomew Knowledge broadcasting and classification system
US7765206B2 (en) * 2002-12-13 2010-07-27 Metaweb Technologies, Inc. Meta-Web
US6993347B2 (en) * 2002-12-17 2006-01-31 International Business Machines Corporation Dynamic media interleaving
US8307273B2 (en) * 2002-12-30 2012-11-06 The Board Of Trustees Of The Leland Stanford Junior University Methods and apparatus for interactive network sharing of digital video content
US7823058B2 (en) * 2002-12-30 2010-10-26 The Board Of Trustees Of The Leland Stanford Junior University Methods and apparatus for interactive point-of-view authoring of digital video content
US7131059B2 (en) * 2002-12-31 2006-10-31 Hewlett-Packard Development Company, L.P. Scalably presenting a collection of media objects
DE50300428D1 (de) 2003-01-17 2005-05-12 Link Waldemar Gmbh Co Hüftprothese mit einem in den Markkanal des Oberschenkelknochens zu verankernden Schaft
US7904797B2 (en) * 2003-01-21 2011-03-08 Microsoft Corporation Rapid media group annotation
US7383497B2 (en) * 2003-01-21 2008-06-03 Microsoft Corporation Random access editing of media
US20040152055A1 (en) * 2003-01-30 2004-08-05 Gliessner Michael J.G. Video based language learning system
US7739597B2 (en) * 2003-02-24 2010-06-15 Microsoft Corporation Interactive media frame display
US20040181545A1 (en) * 2003-03-10 2004-09-16 Yining Deng Generating and rendering annotated video files
US8392834B2 (en) 2003-04-09 2013-03-05 Hewlett-Packard Development Company, L.P. Systems and methods of authoring a multimedia file
US20040205547A1 (en) * 2003-04-12 2004-10-14 Feldt Kenneth Charles Annotation process for message enabled digital content
CA2527388C (en) 2003-06-02 2013-09-17 Disney Enterprises, Inc. System and method of interactive video playback
US8321470B2 (en) * 2003-06-20 2012-11-27 International Business Machines Corporation Heterogeneous multi-level extendable indexing for general purpose annotation systems
US7418656B1 (en) * 2003-10-03 2008-08-26 Adobe Systems Incorporated Dynamic annotations for electronics documents
US20050132401A1 (en) 2003-12-10 2005-06-16 Gilles Boccon-Gibod Method and apparatus for exchanging preferences for replaying a program on a personal video recorder
US7383487B2 (en) 2004-01-10 2008-06-03 Broadcom Corporation IPHD (iterative parallel hybrid decoding) of various MLC (multi-level code) signals
US20050203892A1 (en) * 2004-03-02 2005-09-15 Jonathan Wesley Dynamically integrating disparate systems and providing secure data sharing
EP3355213A1 (en) 2004-03-15 2018-08-01 Excalibur IP, LLC Search system and methods with integration of user annotations from a trust network
KR101312190B1 (ko) * 2004-03-15 2013-09-27 야후! 인크. 사용자 주석이 통합된 검색 시스템 및 방법
US7697026B2 (en) * 2004-03-16 2010-04-13 3Vr Security, Inc. Pipeline architecture for analyzing multiple video streams
US20050229227A1 (en) * 2004-04-13 2005-10-13 Evenhere, Inc. Aggregation of retailers for televised media programming product placement
KR20050115713A (ko) 2004-06-04 2005-12-08 현익근 천연과일과 채소류를 원료로한 아이스크림과어름과자제작방법
JP2005352933A (ja) * 2004-06-14 2005-12-22 Fuji Xerox Co Ltd 表示装置、システムおよび表示方法
US8438157B2 (en) * 2004-06-28 2013-05-07 International Business Machines Corporation System and method for previewing relevance of streaming data
US7890327B2 (en) * 2004-06-28 2011-02-15 International Business Machines Corporation Framework for extracting multiple-resolution semantics in composite media content analysis
US20050289469A1 (en) 2004-06-28 2005-12-29 Chandler Roger D Context tagging apparatus, systems, and methods
US20060041564A1 (en) * 2004-08-20 2006-02-23 Innovative Decision Technologies, Inc. Graphical Annotations and Domain Objects to Create Feature Level Metadata of Images
US20060059120A1 (en) * 2004-08-27 2006-03-16 Ziyou Xiong Identifying video highlights using audio-visual objects
US20070118794A1 (en) * 2004-09-08 2007-05-24 Josef Hollander Shared annotation system and method
US20060064733A1 (en) 2004-09-20 2006-03-23 Norton Jeffrey R Playing an audiovisual work with dynamic choosing
US8255552B2 (en) 2004-10-05 2012-08-28 Vectormax Corporation Interactive video collaboration framework
US8443279B1 (en) * 2004-10-13 2013-05-14 Stryker Corporation Voice-responsive annotation of video generated by an endoscopic camera
US7472341B2 (en) * 2004-11-08 2008-12-30 International Business Machines Corporation Multi-user, multi-timed collaborative annotation
JP4353083B2 (ja) 2004-11-30 2009-10-28 日本電信電話株式会社 視聴者間コミュニケーション方法及び装置及びプログラム
JP2006155384A (ja) * 2004-11-30 2006-06-15 Nippon Telegr & Teleph Corp <Ntt> 映像コメント入力・表示方法及び装置及びプログラム及びプログラムを格納した記憶媒体
JP4353084B2 (ja) 2004-11-30 2009-10-28 日本電信電話株式会社 映像再生方法及び装置及びプログラム
US7577902B2 (en) * 2004-12-16 2009-08-18 Palo Alto Research Center Incorporated Systems and methods for annotating pages of a 3D electronic document
US20060161838A1 (en) 2005-01-14 2006-07-20 Ronald Nydam Review of signature based content
US8131647B2 (en) 2005-01-19 2012-03-06 Amazon Technologies, Inc. Method and system for providing annotations of a digital work
US9275052B2 (en) 2005-01-19 2016-03-01 Amazon Technologies, Inc. Providing annotations of a digital work
US20060218590A1 (en) * 2005-03-10 2006-09-28 Sbc Knowledge Ventures, L.P. System and method for displaying an electronic program guide
US20060286536A1 (en) 2005-04-01 2006-12-21 Sherman Mohler System and method for regulating use of content and content styles in a distributed learning system
US7769819B2 (en) * 2005-04-20 2010-08-03 Videoegg, Inc. Video editing with timeline representations
US7636883B2 (en) * 2005-05-18 2009-12-22 International Business Machines Corporation User form based automated and guided data collection
US20080005064A1 (en) 2005-06-28 2008-01-03 Yahoo! Inc. Apparatus and method for content annotation and conditional annotation retrieval in a search context
WO2007002820A2 (en) 2005-06-28 2007-01-04 Yahoo! Inc. Search engine with augmented relevance ranking by community participation
CN101253777A (zh) 2005-07-01 2008-08-27 极速决件公司 用于在多媒体信号编码中使用的方法、装置和系统
KR20070004153A (ko) 2005-07-04 2007-01-09 주식회사 다음커뮤니케이션 사용자 선호 컨텐츠 제공 시스템 및 방법, 개인 선호컨텐츠 분석 시스템 및 방법, 그룹 선호 컨텐츠 분석시스템 및 방법
US8141036B2 (en) * 2005-07-07 2012-03-20 Oracle International Corporation Customized annotation editing
KR100690819B1 (ko) 2005-07-21 2007-03-09 엘지전자 주식회사 콘텐츠 서비스의 북마크 기능을 갖는 휴대 단말기 및 그동작 방법
EP1758398A1 (en) 2005-08-23 2007-02-28 Syneola SA Multilevel semiotic and fuzzy logic user and metadata interface means for interactive multimedia system having cognitive adaptive capability
WO2007026357A2 (en) 2005-08-30 2007-03-08 Nds Limited Enhanced electronic program guides
US20070061703A1 (en) * 2005-09-12 2007-03-15 International Business Machines Corporation Method and apparatus for annotating a document
US20070067707A1 (en) * 2005-09-16 2007-03-22 Microsoft Corporation Synchronous digital annotations of media data stream
US7644364B2 (en) * 2005-10-14 2010-01-05 Microsoft Corporation Photo and video collage effects
US7962847B2 (en) * 2005-10-20 2011-06-14 International Business Machines Corporation Method for providing dynamic process step annotations
JP2007151057A (ja) 2005-10-25 2007-06-14 Dainippon Printing Co Ltd 評価感想情報を利用した映像コンテンツ閲覧システム
US8180826B2 (en) * 2005-10-31 2012-05-15 Microsoft Corporation Media sharing and authoring on the web
US20070099684A1 (en) 2005-11-03 2007-05-03 Evans Butterworth System and method for implementing an interactive storyline
US8155446B2 (en) * 2005-11-04 2012-04-10 Eyetracking, Inc. Characterizing dynamic regions of digital media data
JP2007142750A (ja) 2005-11-17 2007-06-07 National Agency For The Advancement Of Sports & Health 映像閲覧システム、コンピュータ端末並びにプログラム
US7945653B2 (en) 2006-10-11 2011-05-17 Facebook, Inc. Tagging digital media
US7761436B2 (en) * 2006-01-03 2010-07-20 Yahoo! Inc. Apparatus and method for controlling content access based on shared annotations for annotated users in a folksonomy scheme
WO2007082169A2 (en) 2006-01-05 2007-07-19 Eyespot Corporation Automatic aggregation of content for use in an online video editing system
US8214516B2 (en) 2006-01-06 2012-07-03 Google Inc. Dynamic media serving infrastructure
US7528066B2 (en) * 2006-03-01 2009-05-05 International Business Machines Corporation Structure and method for metal integration
JP2007274090A (ja) 2006-03-30 2007-10-18 Toshiba Corp コンテンツ再生装置、方法およびプログラム
US8645991B2 (en) 2006-03-30 2014-02-04 Tout Industries, Inc. Method and apparatus for annotating media streams
JP2007293980A (ja) 2006-04-24 2007-11-08 Hitachi Global Storage Technologies Netherlands Bv 磁気ディスク装置およびロード/アンロード方法
US8701005B2 (en) 2006-04-26 2014-04-15 At&T Intellectual Property I, Lp Methods, systems, and computer program products for managing video information
US7954049B2 (en) * 2006-05-15 2011-05-31 Microsoft Corporation Annotating multimedia files along a timeline
US20070271331A1 (en) 2006-05-17 2007-11-22 Steve Muth System of archiving and repurposing a complex group conversation referencing networked media
JP4769635B2 (ja) 2006-05-22 2011-09-07 日本電信電話株式会社 サーバ装置とそのクライアント装置及びプログラム
WO2007135688A2 (en) 2006-05-22 2007-11-29 P.S.G Group A method for interactive commenting on media files
JP2007317123A (ja) 2006-05-29 2007-12-06 Daisuke Yamamoto 動画像管理サーバ
US20080028323A1 (en) 2006-07-27 2008-01-31 Joshua Rosen Method for Initiating and Launching Collaboration Sessions
WO2008014406A1 (en) 2006-07-28 2008-01-31 Blue Lava Technologies Method and system for organizing multimedia content
US8296803B2 (en) 2006-08-10 2012-10-23 Panasonic Corporation Program recommendation system, program view terminal, program view program, program view method, program recommendation server, program recommendation program, and program recommendation method
CN101765840B (zh) * 2006-09-15 2013-01-23 谷歌公司 纸质与电子文档中的注释的捕获及显示
US8850464B2 (en) 2006-10-09 2014-09-30 Verizon Patent And Licensing Inc. Systems and methods for real-time interactive television polling
US20080109841A1 (en) * 2006-10-23 2008-05-08 Ashley Heather Product information display and product linking
US20080109851A1 (en) * 2006-10-23 2008-05-08 Ashley Heather Method and system for providing interactive video
US7559017B2 (en) 2006-12-22 2009-07-07 Google Inc. Annotation framework for video
US7953736B2 (en) 2007-01-04 2011-05-31 Intersect Ptp, Inc. Relevancy rating of tags
US7707162B2 (en) 2007-01-08 2010-04-27 International Business Machines Corporation Method and apparatus for classifying multimedia artifacts using ontology selection and semantic classification
US7739304B2 (en) * 2007-02-08 2010-06-15 Yahoo! Inc. Context-based community-driven suggestions for media annotation
US20080250331A1 (en) 2007-04-04 2008-10-09 Atul Tulshibagwale Method and System of a Voting Based Wiki and Its Application to Internet Topic Directories
US8744869B2 (en) 2007-06-07 2014-06-03 Agile Sports Technologies, Inc. Interactive team portal system
US8230458B2 (en) 2007-06-29 2012-07-24 At&T Intellectual Property I, L.P. System and method of providing video content commentary
US9106804B2 (en) 2007-09-28 2015-08-11 Gracenote, Inc. Synthesizing a presentation of a multimedia event
US20090150947A1 (en) 2007-10-05 2009-06-11 Soderstrom Robert W Online search, storage, manipulation, and delivery of video content
US8640030B2 (en) 2007-10-07 2014-01-28 Fall Front Wireless Ny, Llc User interface for creating tags synchronized with a video playback
US8209223B2 (en) 2007-11-30 2012-06-26 Google Inc. Video object tag creation and processing
US20090172745A1 (en) * 2007-12-28 2009-07-02 Motorola, Inc. Method and Apparatus Regarding Receipt of Audio-Visual Content Information and Use of Such Information to Automatically Infer a Relative Popularity of That Content
US8181197B2 (en) 2008-02-06 2012-05-15 Google Inc. System and method for voting on popular video intervals
US8112702B2 (en) 2008-02-19 2012-02-07 Google Inc. Annotating video intervals
WO2009137368A2 (en) 2008-05-03 2009-11-12 Mobile Media Now, Inc. Method and system for generation and playback of supplemented videos
US8566353B2 (en) 2008-06-03 2013-10-22 Google Inc. Web-based system for collaborative generation of interactive videos
CA2727516A1 (en) 2008-06-18 2009-12-23 Political Media (Australia) Limited Assessing digital content across a communications network
US8839327B2 (en) 2008-06-25 2014-09-16 At&T Intellectual Property Ii, Lp Method and apparatus for presenting media programs
US8713618B1 (en) 2008-11-06 2014-04-29 Google Inc. Segmenting video based on timestamps in comments
US8554848B2 (en) 2009-04-16 2013-10-08 At&T Intellectual Property 1, L.P. Collective asynchronous media review
WO2013051014A1 (en) 2011-06-10 2013-04-11 Tata Consultancy Services Limited A method and system for automatic tagging in television using crowd sourcing technique
US20130238995A1 (en) 2012-03-12 2013-09-12 sCoolTV, Inc Apparatus and method for adding content using a media player
KR102042265B1 (ko) 2012-03-30 2019-11-08 엘지전자 주식회사 이동 단말기

Also Published As

Publication number Publication date
US20190243887A1 (en) 2019-08-08
EP2126730A2 (en) 2009-12-02
EP2126730A4 (en) 2012-06-20
US20120166930A1 (en) 2012-06-28
US9805012B2 (en) 2017-10-31
AU2010249316A1 (en) 2011-01-06
WO2008079850A2 (en) 2008-07-03
US8775922B2 (en) 2014-07-08
CN101589383A (zh) 2009-11-25
US11423213B2 (en) 2022-08-23
EP2126730B1 (en) 2018-03-14
AU2007336947A1 (en) 2008-07-03
CN101589383B (zh) 2016-04-27
CA2866548C (en) 2017-05-09
US8151182B2 (en) 2012-04-03
US7559017B2 (en) 2009-07-07
JP4774461B2 (ja) 2011-09-14
CA2672757C (en) 2014-12-16
US20180052812A1 (en) 2018-02-22
CA2866548A1 (en) 2008-07-03
US20090249185A1 (en) 2009-10-01
US20220398375A1 (en) 2022-12-15
CA2672757A1 (en) 2008-07-03
AU2007336947B2 (en) 2010-09-30
AU2010249316B2 (en) 2012-07-26
JP2010515120A (ja) 2010-05-06
KR20090084976A (ko) 2009-08-05
US20080154908A1 (en) 2008-06-26
US11727201B2 (en) 2023-08-15
US10261986B2 (en) 2019-04-16
WO2008079850A3 (en) 2008-10-02
US20210081603A1 (en) 2021-03-18
US20140115440A1 (en) 2014-04-24
US10853562B2 (en) 2020-12-01
KR100963179B1 (ko) 2010-06-15
EP3324315A1 (en) 2018-05-23
BRPI0720366A2 (pt) 2013-12-24

Similar Documents

Publication Publication Date Title
US11727201B2 (en) Annotation framework for video
US9690768B2 (en) Annotating video intervals
AU2012244141B2 (en) Annotation framework for video

Legal Events

Date Code Title Description
B25D Requested change of name of applicant approved

Owner name: GOOGLE LLC (US)

B06T Formal requirements before examination [chapter 6.20 patent gazette]

Free format text: PARECER 6.20

B15K Others concerning applications: alteration of classification

Free format text: A CLASSIFICACAO ANTERIOR ERA: G06F 17/00

Ipc: G06F 17/30 (1995.01), G06F 17/24 (1995.01), G11B 2

B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 10 (DEZ) ANOS CONTADOS A PARTIR DE 06/03/2019, OBSERVADAS AS CONDICOES LEGAIS.

B21F Lapse acc. art. 78, item iv - on non-payment of the annual fees in time

Free format text: REFERENTE A 18A ANUIDADE.

B24J Lapse because of non-payment of annual fees (definitively: art 78 iv lpi, resolution 113/2013 art. 12)

Free format text: EM VIRTUDE DA EXTINCAO PUBLICADA NA RPI 2859 DE 21-10-2025 E CONSIDERANDO AUSENCIA DE MANIFESTACAO DENTRO DOS PRAZOS LEGAIS, INFORMO QUE CABE SER MANTIDA A EXTINCAO DA PATENTE E SEUS CERTIFICADOS, CONFORME O DISPOSTO NO ARTIGO 12, DA RESOLUCAO 113/2013.