ES2433966T3 - Método para caudal alto de identificación de contenido de radiodifusión distribuido - Google Patents
Método para caudal alto de identificación de contenido de radiodifusión distribuido Download PDFInfo
- Publication number
- ES2433966T3 ES2433966T3 ES07843742T ES07843742T ES2433966T3 ES 2433966 T3 ES2433966 T3 ES 2433966T3 ES 07843742 T ES07843742 T ES 07843742T ES 07843742 T ES07843742 T ES 07843742T ES 2433966 T3 ES2433966 T3 ES 2433966T3
- Authority
- ES
- Spain
- Prior art keywords
- content
- source
- broadcasting
- content identification
- broadcast
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/68—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/683—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/35—Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
- H04H60/37—Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying segments of broadcast information, e.g. scenes or extracting programme ID
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/35—Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
- H04H60/38—Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying broadcast time or space
- H04H60/40—Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying broadcast time or space for identifying broadcast time
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H2201/00—Aspects of broadcast communication
- H04H2201/30—Aspects of broadcast communication characterised by the use of a return channel, e.g. for collecting users' opinions, for returning broadcast space/time information or for requesting data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/35—Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
- H04H60/38—Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying broadcast time or space
- H04H60/41—Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying broadcast time or space for identifying broadcast space, i.e. broadcast channels, broadcast stations or broadcast areas
- H04H60/42—Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying broadcast time or space for identifying broadcast space, i.e. broadcast channels, broadcast stations or broadcast areas for identifying broadcast areas
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/56—Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54
- H04H60/58—Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54 of audio
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/68—Systems specially adapted for using specific information, e.g. geographical or meteorological information
- H04H60/73—Systems specially adapted for using specific information, e.g. geographical or meteorological information using meta-information
- H04H60/74—Systems specially adapted for using specific information, e.g. geographical or meteorological information using meta-information using programme related information, e.g. title, composer or interpreter
Abstract
Un método para identificar contenido dentro de un flujo de datos, que comprende: recibir una primera consulta de identificación de contenido desde un primer dispositivo cliente (302), en que laprimera consulta de identificación de contenido solicita una identidad de un contenido que ha sidoradiodifundido desde una fuente de radiodifusión, e incluye información relativa a la fuente de radiodifusión delcontenido; recibir una muestra de dicho contenido desde dicho primer dispositivo cliente; realizar una primera identificación de contenido para el contenido que ha sido radiodifundido desde la fuente deradiodifusión usando dicha muestra; determinar un periodo de tiempo durante el cual la primera identificación de contenido es válida; recibir una segunda consulta de identificación de contenido desde un segundo dispositivo cliente, en que lasegunda consulta de identificación de contenido solicita una identidad de un contenido dado que ha sidoradiodifundido desde la fuente de radiodifusión, y la segunda consulta de identificación de contenido incluyeinformación relativa a la fuente de radiodifusión del contenido dado, y; si la información relativa a la fuente de radiodifusión de dicha segunda consulta de identificación de contenidocasa con la información relativa a la fuente de radiodifusión de dicha primera consulta de identificación decontenido, y si la segunda consulta de identificación de contenido ha sido recibida en un tiempo durante el cualla primera identificación de contenido es válida, enviar la primera identificación de contenido para el contenidoal segundo dispositivo cliente; y si no, (i) realizar una segunda identificación de contenido usando una muestra del contenido dadoradiodifundido desde la fuente de radiodifusión, y (ii) almacenar la segunda identificación de contenido.
Description
Método para caudal alto de identificación de contenido de radiodifusión distribuido
REFERENCIA CRUZADA A SOLICITUDES RELACIONADAS
La presente solicitud de patente reivindica la prioridad de conformidad con 35 U.S.C § 119(e) para la solicitud de patente 5 provisional de los EE.UU. de número de serie 60/848.941, presentada el 3 de octubre de 2006.
CAMPO DE LA INVENCIÓN
La presente invención se refiere en general a identificar contenido en materiales radiodifundidos, y más particularmente, a identificar información sobre segmentos o fragmentos de contenido dentro de un flujo de datos.
ANTECEDENTES
10 Al moverse las industrias hacia entornos de trabajo ricos en contenido multimedia, el uso de todas las formas de representaciones de contenido visual y de audio (transmisiones de radiodifusión, vídeo en flujo continuo (streaming), lienzo de audio (audio canvas), resumen visual, etc.) se hace más frecuente. Bien sea un usuario, bien un proveedor de contenido, o ambos, todo el mundo busca vías para utilizar óptimamente dicho contenido. Por ejemplo, un método que tiene mucho potencial para usos creativos es la identificación de contenido. Permitir a un usuario identificar contenido
15 que el usuario está escuchando o viendo ofrece a un proveedor de contenido nuevas posibilidades de éxito.
La identificación de contenido puede usarse en un servicio proporcionado para un dispositivo de consumidor (por ejemplo, un teléfono celular), que incluye un receptor de radiodifusión, para suministrar metadatos de programas de radiodifusión a un usuario. Por ejemplo, puede proporcionarse al usuario información de título, artista y álbum en el dispositivo para programas de radiodifusión mientras los programas están siendo reproducidos en el dispositivo. Los
20 sistemas existentes para proporcionar información sobre contenido de una señal de radiodifusión a un usuario pueden proporcionar sólo metadatos limitados, tales como con una señal de datos de radio (RDS, del inglés “Radio Data Signal”). Adicionalmente, los sistemas existentes pueden no estar monitorizando cada emisora de radiodifusión en cada lugar, y un mapa deseado de estaciones de radiodifusión puede no estar siempre disponible.
Aún más, otros sistemas existentes pueden requerir que el dispositivo de consumidor muestree/registre un programa de
25 radiodifusión y envíe la muestra del programa de radiodifusión a un servidor de reconocimiento para identificación directa. El coste computacional de realizar un reconocimiento en una muestra de medios puede ser pequeña, sin embargo, cuando se considera que potencialmente pueden estar activos muchos millones de dispositivos de consumidor al mismo tiempo, y si cada uno consultara al servidor una vez por minuto, el servidor de reconocimiento tendría que ser capaz de realizar millones de reconocimientos cada minuto, y entonces el coste computacional se hace
30 significativo. Un sistema así puede ser sólo capaz de permitir un periodo de tiempo de unos pocos microsegundos o menos por solicitud de reconocimiento, lo que es unos pocos órdenes de magnitud menor que los tiempos de procesamiento típicos para identificación de contenido de medios. Además, dado que el material de medios por radiodifusión se presenta a menudo como un flujo continuo sin marcadores de segmentación, con el fin de proporcionar metadatos de programa que casan, que sean puntuales y estén sincronizados con el programa actual, un método de
35 muestreo y consulta por fuerza bruta requeriría intervalos de muestreo de granularidad fina, incrementando de este modo aún más la carga requerida de consulta.
En el campo de la monitorización de radiodifusión y la subsiguiente identificación de contenido, es deseable identificar tanto contenido de audio como sea posible, dentro de cada lugar, al tiempo que se minimiza el esfuerzo realizado. La presente solicitud proporciona técnicas para hacer esto.
40 El documento WO 2005/101998 da a conocer un método y sistema para muestreo e identificación de contenido. El documento US 2005/0116366 da a conocer un sistema de recuperación de información musical en tiempo real y un método para proporcionar información musical deseada. El documento WO 01/39070 da a conocer un método para identificación de contenido, sobre la base de frecuencia de radiodifusión, tiempo de solicitud y muestra del contenido.
RESUMEN
45 De acuerdo con la presente invención, se proporciona un método para identificar contenido según la reivindicación 1, un medio legible por ordenador según la reivindicación 8, y un sistema según la reivindicación 10.
Éstas así como otras características, ventajas y alternativas se pondrán de manifiesto para aquéllos con experiencia ordinaria en la técnica mediante la lectura de la siguiente descripción detallada, con referencia apropiada a los dibujos adjuntos.
La figura 1 ilustra un ejemplo de un sistema para identificar contenido dentro de un flujo de audio.
La figura 2 es un diagrama de flujo que muestra bloques funcionales de un método a modo de ejemplo para identificar contenido sobre la base de la localización de un usuario, información de radiodifusión y/o identificaciones de contenido almacenadas.
La figura 3 es un diagrama de bloques que ilustra un dispositivo cliente de consumidor a modo de ejemplo en 5 comunicación con un analizador de muestras para recibir información que identifica contenido radiodifundido.
La figura 4 ilustra un ejemplo conceptual de múltiples consultas de identificación de contenido que se producen en serie en el tiempo durante una canción.
La figura 5 ilustra una visualización a modo de ejemplo de metadatos de radiodifusión en un teléfono móvil.
La figura 6 ilustra un diagrama de bloques conceptual de un mapa de área de cobertura a modo de ejemplo para dos 10 emisoras de radio.
DESCRIPCIÓN DETALLADA
En las realizaciones a modo de ejemplo descritas a continuación, se proporciona un método para identificar contenido dentro de flujos de datos. El método puede ser aplicado a cualquier tipo de identificación de contenido de datos. En los siguientes ejemplos, los datos son un flujo de datos de audio. El flujo de datos de audio puede ser un flujo de datos en
15 tiempo real o una grabación de audio, por ejemplo.
Las realizaciones a modo de ejemplo describen métodos para identificar contenido identificando una fuente (por ejemplo, canal, flujo, o emisora) de transmisión de contenido, y una localización de un dispositivo que solicita la identificación de contenido. Por ejemplo, puede ser deseable detectar a partir de una muestra de audio de campo libre de una difusión radiofónica qué emisora de radio está escuchando un usuario, así como qué canción está escuchando 20 el usuario. Realizaciones a modo de ejemplo descritas a continuación ilustran un método y un dispositivo para identificar una fuente de radiodifusión de contenido deseado, y para identificar contenido radiodifundido desde la fuente. En una realización, un usuario puede utilizar un dispositivo de muestreo de audio que incluye un micrófono y un medio de transmisión de datos opcional para identificar contenido procedente de una fuente de radiodifusión. El usuario puede escuchar un programa de audio que está siendo radiodifundido desde algún medio de radiodifusión, tal como radio o
25 televisión, y puede registrar una muestra de audio usando el dispositivo de muestreo de audio. La muestra, la información de la fuente de radiodifusión, y opcionalmente una localización del dispositivo de muestreo de audio son entonces conducidas a un medio analizador para identificar el contenido. La información sobre el contenido puede ser entonces comunicada de vuelta al usuario.
La identidad y la información en una consulta (información de fuente de radiodifusión y opcionalmente información de
30 localización) son entonces almacenadas. Si un segundo usuario envía entonces subsiguientemente una consulta de identificación de contenido para la misma fuente de radiodifusión y la consulta es recibida dentro de un periodo de tiempo dado, la identidad almacenada del contenido puede ser devuelta como resultado al segundo usuario. La consulta tendría que ser recibida durante un tiempo en el cual la misma canción está siendo radiodifundida por la misma fuente de radiodifusión, de modo que el segundo usuario estaría preguntando efectivamente para identificar la misma canción
35 que ha sido previamente identificada en respuesta a la primera consulta. De esta manera, para todas las consultas recibidas tras una primera consulta, durante una radiodifusión de la canción a la que se refiere la consulta, y relativas a la misma fuente de radiodifusión, la respuesta a la primera consulta (que está almacenada) puede ser devuelta a todas las consultas subsiguientes. Como resultado, sólo se necesita realizar una identificación computacional de contenido, porque el resultado puede ser almacenado para una recuperación posterior, si las consultas de contenido subsiguientes
40 satisfacen los requisitos (por ejemplo, si se considera que las consultas de contenido subsiguientes son para la misma canción).
Con referencia ahora a las figuras, la figura 1 ilustra un ejemplo de un sistema para identificar contenido en otro contenido de datos, tal como identificar una canción en una difusión radiofónica. El sistema incluye emisoras de radio, tales como la emisora de radio 102, que puede ser un proveedor de contenido de radio o televisión, por ejemplo, que
45 radiodifunde flujos de audio y otra información a un receptor 104. El receptor 104 recibe la señal de radio difundida usando una antena 106 y convierte la señal en sonido. El receptor 104 puede ser un componente dentro de un número cualquiera de dispositivos de consumidor, tales como un ordenador portátil o un teléfono móvil. El receptor 104 puede incluir también un sintonizador AM/FM convencional y otros amplificadores así como permitir la sintonización a un canal de difusión radiofónica deseado.
50 El receptor 104 puede grabar partes de la señal radiodifundida (por ejemplo, una muestra de audio) para identificación. El receptor 104 puede enviar por un enlace de cable o inalámbrico un material radiodifundido grabado a un analizador de muestras 108 que identificará información relativa a la muestra de audio, tal como identidades de pista (por ejemplo, título de canción, artista, u otra información sobre el programa radiodifundido). El analizador de muestras 108 incluye un motor de búsqueda de audio 110 y puede acceder a una base de datos 112 que contiene muestras de audio e
55 información de radiodifusión, por ejemplo, para comparar la muestra de audio recibida con información almacenada con el fin de identificar pistas en el flujo de audio recibido. Una vez identificadas las pistas en el flujo de audio, las identidades de pista u otra información pueden ser comunicadas de vuelta al receptor 104.
Alternativamente, el receptor 104 puede recibir un material radiodifundido desde la emisora de radio 102, y realizar algún procesamiento inicial en una muestra del material radiodifundido con el fin de crear una huella de la muestra
5 radiodifundida. El receptor 104 podría enviar entonces la información de huella al analizador de muestras 108, que identificará información relativa a la muestra sobre la base exclusivamente de la huella. De esta manera, puede realizarse más computación o procesamiento de identificación en el receptor 104, en vez de en el analizador de muestras 108.
La base de datos 112 puede incluir muchas grabaciones y cada grabación tiene un identificador único (por ejemplo,
10 sound_ID). La propia base de datos 112 no tiene que almacenar necesariamente los ficheros de audio para cada grabación, dado que los identificadores sound_ID pueden usarse para recuperar ficheros de audio desde cualquier otro sitio. Un índice de base de datos de sonido puede ser muy grande, conteniendo índices para millones o incluso miles de millones de ficheros, por ejemplo. Nuevas grabaciones pueden ser añadidas incrementalmente al índice de la base de datos.
15 El sistema de la figura 1 permite identificar canciones sobre la base de información almacenada. Aunque la figura 1 ilustra un sistema que tiene una configuración dada, los componentes dentro del sistema pueden ser organizados de otras maneras. Por ejemplo, el motor de búsqueda de audio 110 puede estar separado del analizador de muestras 108,
o el procesamiento de muestras de audio puede producirse en el receptor 104 o en el analizador de muestras 108. De
este modo, debe entenderse que las configuraciones aquí descritas son de naturaleza meramente a modo de ejemplo, y 20 podrían usarse muchas configuraciones alternativas.
El sistema de la figura 1, y en particular el analizador de muestras 108, identifica contenido dentro de un flujo de audio usando muestras de audio en el flujo de audio. Diversas técnicas de identificación de muestras de audio son conocidas en la técnica para realizar identificaciones computacionales de contenido de muestras de audio y características de muestras de audio usando una base de datos de pistas de audio. Las siguientes patentes y publicaciones describen
25 posibles ejemplo para técnicas de reconocimiento de audio.
- ?
- Kenyon et al, patente de los EE.UU. nº 4.843.562, titulada "Broadcast Information Classification System and Method"
- ?
- Kenyon, patente de los EE.UU. nº 5.210.820, titulada "Signal Recognition System and Method"
? Haitsma et al, publicación internacional número WO 02/065782 A1, titulada "Generating and Matching 30 Hashes of Multimedia Content"
- ?
- Wang and Smith, publicación internacional número WO 02/11123 A2, titulada "System and Methods for Recognizing Sound and Music Signals in High Noise and Distortion"
- ?
- Wang and Culbert, publicación internacional número WO 03/091990 A1, titulada "Robust and Invariant Audio Pattern Matching"
35 ? Wang, A very, publicación internacional número W05/079499, titulada "Method and Apparatus for identification of broadcast source"
Brevemente, identificar características de una grabación de audio comienza por la recepción de la grabación y el muestreo de la grabación en una pluralidad de puntos de muestreo para producir una pluralidad de valores de señal. Un 40 momento estadístico de la señal puede ser calculado usando cualesquiera fórmulas conocidas, tales como las citadas en la patente de los EE.UU. nº 5.210.820, por ejemplo. El momento estadístico calculado es comparado entonces con una pluralidad de identificaciones de señal almacenadas y la grabación es reconocida como similar a una de las identificaciones de señal almacenadas. El momento estadístico calculado puede usarse para crear un vector de características que es cuantizado, y una suma pesada del vector de características cuantizado es usada para acceder a
45 una memoria que almacena las identificaciones de señal.
En otro ejemplo, en general, el contenido de audio puede ser identificado identificando o computando características o huellas de una muestra de audio y comparando las huellas con huellas previamente identificadas. Las posiciones particulares dentro de la muestra en las cuales son computadas las huellas dependen de puntos reproducibles en la muestra. Tales posiciones computables de forma reproducible son denominadas “puntos de referencia”. La posición 50 dentro de la muestra de los puntos de referencia puede determinarse por la propia muestra, es decir, es dependiente de atributos de la muestra y es reproducible. Es decir, los mismos puntos de referencia son computados para la misma señal cada vez que el proceso es repetido. Un esquema de obtención de puntos de referencia puede marcar aproximadamente 5-10 puntos de referencia por segundo de grabación de sonido; por supuesto, la densidad de obtención de puntos de referencia depende de la cantidad de actividad en la grabación de sonido. Una técnica de
obtención de puntos de referencia, denominada Norma de Potencia (Power Norm) consiste en calcular la potencia instantánea en muchos puntos temporales en la grabación y seleccionar máximos locales. Un modo de hacer esto es calcular la envolvente mediante rectificación y filtrado directos de la forma de onda. Otro modo es calcular la transformada de Hilbert (cuadratura) de la señal y usar la suma de las magnitudes al cuadrado de la transformada de
5 Hilbert y la señal original. Pueden usarse otros métodos para calcular puntos de referencia.
Una vez computados los puntos de referencia, es computada una huella en o cerca de cada instante temporal de punto de referencia en la grabación. La cercanía de una característica a un punto de referencia es definida por el método de obtención de huellas usado. En algunos casos, una característica es considerada próxima a un punto de referencia si corresponde claramente al punto de referencia y no a un punto de referencia previo o subsiguiente. En otros casos, las 10 características corresponden a múltiples puntos de referencia adyacentes. La huella es generalmente un valor o un conjunto de valores que resume un conjunto de características en la grabación en o cerca del instante temporal. En una realización, cada huella es un valor numérico único que es una función de resumen de múltiples características. Otros ejemplos de huellas incluyen huellas de segmento espectral, huellas de múltiples segmentos, coeficientes LPC (del inglés “Linear Predictor Coefficients”, coeficientes de predictores lineales), coeficientes cepstrales, y componentes de
15 frecuencia de máximos de espectrograma.
Las huellas pueden ser computadas mediante cualquier tipo de procesamiento de señal digital o análisis de frecuencia de la señal. En un ejemplo, para generar huellas de segmento espectral, se realiza un análisis de frecuencia en las proximidades de cada instante temporal de punto de referencia para extraer los diversos máximos espectrales superiores. Un valor de huella puede ser entonces el valor de frecuencia único del máximo espectral más fuerte. Para
20 más información sobre el cálculo de características de huellas de muestras de audio, el lector es remitido a la publicación de solicitud de patente de los EE.UU. US 2002/0083060, de Wang y Smith, titulada “System and Methods for Recognizing Sound and Music Signals in High Noise and Distortion”.
De este modo, el analizador de muestras 108 recibirá una grabación y computará huellas de la grabación. El analizador de muestras 108 puede computar las huellas estableciendo contacto con motores de reconocimiento adicionales. Para 25 identificar la grabación, el analizador de muestras 108 puede acceder entonces a la base de datos 112 para casar las huellas de la grabación con huellas de pistas de audio conocidas generando correspondencias entre huellas y ficheros equivalentes en la base de datos 112 para localizar un fichero que tenga el mayor número de correspondencias relacionadas linealmente, o cuyas respectivas posiciones de huellas características casen más estrechamente con las localizaciones relativas de las mismas huellas de la grabación. Es decir, las correspondencias lineales entre los pares 30 de puntos de referencia son identificadas, y los conjuntos reciben una valoración de acuerdo con el número de pares que están relacionados linealmente. Una correspondencia lineal se produce cuando un número estadísticamente significativo de localizaciones de muestra correspondientes y localizaciones de fichero pueden ser descritas con sustancialmente la misma ecuación lineal, dentro de una tolerancia permitida. El fichero del conjunto con la valoración estadísticamente significativa más alta, es decir, con el mayor número de correspondencias relacionadas linealmente,
35 es el fichero ganador, y es considerado como el fichero de medios que casa.
Como otro ejemplo más de una técnica para identificar contenido dentro del flujo de audio, una muestra de audio puede ser analizada para identificar su contenido usando una técnica de casación localizada. Por ejemplo, en general, una relación entre dos muestras de audio puede ser caracterizada casando primero ciertos objetos de huella derivados de las respectivas muestras. Un conjunto de objetos de huella, que se produce cada uno en una localización particular, es 40 generado para cada muestra de audio. Cada localización es determinada dependiendo del contenido de una muestra de audio respectiva y cada objeto de huella caracteriza una o más características locales en o cerca de la localización particular respectiva. Un valor relativo es determinado luego para cada par de objetos de huella casados. Es generado entonces un histograma de valores relativos. Si se encuentra un máximo estadísticamente significativo, las dos muestras de audio pueden ser caracterizadas como que casan sustancialmente. Adicionalmente puede ser determinada
45 una tasa de estiramiento temporal, que indica cuánto ha sido acelerada o decelerada una muestra de audio en comparación con la pista de audio original. Para una explicación más detallada de este método, el lector es remitido a la solicitud de patente PCT publicada WO 03/091990, de Wang y Culbert, titulada “Robust and Invariant Audio Pattern Matching”.
Adicionalmente, los sistemas y métodos descritos en las publicaciones anteriores pueden devolver algo más que sólo la
50 identidad de una muestra de audio. Por ejemplo, Wang y Smith pueden devolver, adicionalmente a los metadatos asociados a una pista de audio identificada, el desplazamiento temporal relativo (RTO, del inglés “Relative Time Offset”) de una muestra de audio respecto al comienzo de la pista de audio identificada. Para determinar un desplazamiento temporal relativo de la grabación de audio, las huellas de la muestra de audio pueden ser comparadas con huellas de los ficheros originales con los que casan. Cada huella se produce en un tiempo determinado, de modo que tras casar
55 huellas para identificar la muestra de audio, una diferencia de tiempo entre una primera huella (de la huella que casa en la muestra de audio) y una primera huella del fichero original almacenado será un desplazamiento temporal de la muestra de tiempo, por ejemplo, la cantidad de tiempo pasada desde el comienzo de una canción. De este modo, puede determinarse un desplazamiento temporal relativo (por ejemplo, 67 segundos desde el comienzo de una canción) para el que la muestra fue tomada.
De este modo, un usuario puede enviar desde un dispositivo cliente una consulta de identificación de contenido a un analizador de muestras, el cual puede usar cualquiera de las técnicas aquí descritas para identificar el contenido. En realizaciones a modo de ejemplo descritas a continuación, el dispositivo cliente del usuario puede tener sólo que enviar información relativa a una fuente del contenido y a una localización del dispositivo cliente al analizador de muestras para
5 identificar contenido que está escuchando actualmente el usuario.
En una realización a modo de ejemplo, el analizador de muestras realizará una identificación de contenido para una canción una vez, y luego para consultas futuras, que son recibidas dentro de una ventana temporal válida desde otros dispositivos cliente que escuchan el mismo material radiodifundido y están situados en un área geográfica cubierta por el material radiodifundido, el analizador de muestras puede devolver la identificación de contenido previa que ha sido
10 realizada. Dentro de un área geográfica dada, hay un número limitado de emisoras de difusión radiofónica, y si es conocida una localización geográfica de un usuario, entonces usando la localización conocida, información de radiodifusión y un tiempo de una consulta, el analizador de muestras puede identificar una grabación sin tener que realizar identificaciones computacionalmente intensivas (como se ha descrito anteriormente), sino haciendo referencia a identificaciones previas hechas para dispositivos en la misma localidad.
15 Como ejemplo, si dos usuarios están intentando identificar el mismo contenido de emisora de radio aproximadamente al mismo tiempo, después de que el analizador de muestras realiza una identificación de una grabación de un primer usuario (usando un método anteriormente descrito), entonces dentro de una ventana temporal permitida (por ejemplo, la duración temporal de la canción previamente identificada), el analizador de muestras puede devolver la misma identificación a un segundo usuario. Durante una duración temporal de la canción, si otro usuario dentro de la misma
20 localidad y que escucha el mismo material radiodifundido envía una solicitud, el analizador de muestras no tendrá que hacer una identificación computacionalmente intensiva, sino que en vez de ello, el analizador de muestras puede basarse en el reconocimiento previo almacenado. De esta manera, podría haber muchas consultas para identificar una canción que está siendo difundida por una emisora de radio, y el analizador de muestras puede tener que realizar sólo una identificación computacionalmente intensiva, almacenar la identificación y marcar la identificación como válida para
25 un intervalo de tiempo dado.
La figura 2 es un diagrama de flujo que representa bloques funcionales de un método a modo de ejemplo para identificar contenido sobre la base de la localización de un usuario, información de radiodifusión y/o identificaciones de contenido almacenadas. Inicialmente, puede usarse un aparato de consumidor que incluye un receptor de radiodifusión para escuchar una emisora de radiodifusión. Un usuario puede enviar una consulta de identificación de contenido desde el 30 aparato de consumidor a un servidor de solicitudes, proporcionando al menos una representación de una emisora de radiodifusión que está escuchando el usuario, como se muestra en el bloque 202. El aparato de consumidor puede enviar también información de localización al servidor de solicitudes para indicar una localización geográfica del aparato de consumidor, como se muestra en el bloque 204. Si la información de emisora de radiodifusión no es única, por ejemplo, si la información de emisora de radiodifusión es simplemente una frecuencia de sintonización, la información
35 de localización actúa para desambiguar una emisora de radiodifusión exacta. Muchas emisoras de radio difunden en un área, y cada una tiene una frecuencia de radiodifusión distinta, pero las frecuencias de radiodifusión son reutilizadas a través de múltiples áreas. De este modo, el servidor de solicitudes usa o bien sólo la frecuencia de radiodifusión, o la frecuencia de radiodifusión y la información de localización geográfica para identificar una fuente de radiodifusión única, como se muestra en el bloque 206.
40 A continuación, el servidor de solicitudes determina si hay actualmente metadatos en memoria caché disponibles para la emisora de radiodifusión seleccionada, como se muestra en el bloque 208. Metadatos válidos actualmente en memoria caché estarán disponibles si un programa radiodifundido ha sido ya identificado para una consulta previa sobre la emisora de radiodifusión seleccionada dentro de un intervalo de tiempo predeterminado. Si están disponibles metadatos actualmente en memoria caché para la emisora de radio, entonces el servidor de solicitudes devolverá al aparato de
45 consumidor un resultado de metadatos almacenados en memoria caché asociados, como se muestra en el bloque 210. Si no están disponibles metadatos actualmente en memoria caché, entonces el servidor de solicitudes solicitará al aparato de consumidor que envíe una representación de muestra de medios al servidor de solicitudes, como se muestra en el bloque 212. El servidor de solicitudes encamina entonces la muestra de medios a un servidor de reconocimiento para una identificación, y envía un resultado de metadatos asociados de vuelta al aparato de consumidor, como se
50 muestra en los bloques 214 y 216. El servidor de solicitudes guarda entonces en memoria caché (almacena) el resultado como metadatos actualmente en memoria caché para la emisora de radiodifusión seleccionada por un periodo predeterminado de tiempo, durante el cual los metadatos actualmente en memoria caché son válidos, como se muestra en el bloque 218. Almacenar en memoria caché los metadatos actuales hace posible servir solicitudes a muchos más aparatos de consumidor que lo que sería posible de otro modo si cada solicitud incluyera una grabación de muestra que
55 tuviera que ser identificada individualmente mediante un servidor de reconocimiento. Usando el método de la figura 2, cada programa radiodifundido en cada emisora de radiodifusión sólo tendría que ser identificado una vez independientemente de cuántos dispositivos de consumidor hagan solicitudes, debido a que la identificación inicial es compartida y usada para todas las solicitudes subsiguientes relativas al mismo programa radiodifundido (por ejemplo, para todas las solicitudes subsiguientes recibidas durante el periodo de tiempo válido).
La figura 3 es un diagrama de bloques que ilustra un dispositivo cliente de consumidor 302 a modo de ejemplo en comunicación con un analizador de muestras 304 para recibir información que identifica contenido radiodifundido. El dispositivo cliente de consumidor 302 puede ser un ordenador personal, receptor estéreo, adaptador de medios interactivo, teléfono móvil, reproductor MP3, y puede ser capaz de comunicarse con el analizador de muestras 304 a 5 través de una conexión por cable o inalámbrica. La conexión de datos por cable podría operar a través de Ethernet, DSL (del inglés “Digital Subscriber Line”, línea de abonado digital), RDSI, o una red de módems telefónica POTS (del inglés “Plain Old Telephone Service”, servicio telefónico tradicional) convencional. La conexión de datos inalámbrica puede operar de acuerdo con un protocolo inalámbrico de corto alcance, tal como el protocolo Bluetooth®, WiFi o WiMax (del inglés “Worldwide Interoperability for Microwave Access”, interoperabilidad mundial para acceso por microondas), o de
10 acuerdo con un protocolo inalámbrico de largo alcance, tal como CDMA (del inglés “Code Division Multiple Access”, acceso múltiple por división de código), GSM (del inglés “Global System for Mobile communications”, sistema global para las comunicaciones móviles) u otras redes inalámbricas.
El dispositivo cliente de consumidor 302 incluye un receptor de radiodifusión 306, un selector de emisora de radiodifusión 308, un muestreador de medios 310, un generador de solicitudes 312, un dispositivo de localización por
15 sistema de posicionamiento global (GPS, del inglés “Global Positioning System”) 314, un reloj de marcas de tiempo 316 y un visualizador 318.
El receptor de radiodifusión 306 puede ser cualquier tipo de transmisor/receptor FM/AM general (o receptor de radio por satélite XM) para recibir materiales radiodifundidos desde una emisora de radio. El receptor de radiodifusión 306 pueden incluso recibir un material radiodifundido digital de flujo continuo de Internet. El selector de emisora de radio 308 está 20 acoplado al receptor de radiodifusión 306 y es capaz de sintonizar una frecuencia de radiodifusión específica (con el fin de pasar sólo una frecuencia de radio) para un amplificador y altavoz (no mostrados) para realizar una reproducción para un usuario. El selector de emisora de radiodifusión 308 puede proporcionar una cadena de texto que representa un canal de radiodifusión o una dirección de Internet, tal como una URL (del inglés “Uniform Resource Locator”, localizador de recursos uniforme), que representa el canal de radiodifusión. Alternativamente, el selector de emisora de
25 radiodifusión 308 puede especificar un número que indica una frecuencia de sintonización. La frecuencia de sintonización puede ser usada por el receptor de radiodifusión 306 para ajustar un sintonizador analógico, digital o de software, o para acceder a una dirección de red de Internet para acceder a un programa de radiodifusión específico.
El muestreador de medios 310 está acoplado al receptor de radiodifusión con el fin de grabar una parte de un material radiodifundido. Un segmento de un programa de audio con una longitud de unos pocos segundos puede ser muestreado 30 digitalmente y guardado en un fichero como una matriz numérica por el muestreador de medios 310. En un paso opcional de procesamiento, la muestra de medios puede ser procesada adicionalmente por compresión. Alternativamente, la muestra de medios bruta puede ser procesada mediante un extractor de características para extraer características relevantes para identificación de contenido. Un extractor de características conocido en la técnica es mostrado por Wang y Smith, patente de los EE.UU. nº 6.990.453, en el que una lista de máximos de espectrograma
35 en tiempo y frecuencia es extraída de una muestra de audio. Otro método de extracción de características adecuado conocido en la técnica es dado a conocer por Haitsma, et al, en la publicación de solicitud de patente de los EE.UU. número 2002/017841. No son necesarias la extracción y compresión de características, pero pueden ser usadas por el muestreador de medios 310 para reducir una cantidad de datos que es transmitida al analizador de muestras 304, ahorrando de este modo tiempo y costes de anchura de banda.
40 El generador de consultas 312 puede enviar también una localización geográfica del dispositivo cliente de consumidor 302 junto con la consulta, y puede recibir la localización geográfica desde el dispositivo GPS 314. El mecanismo por el cual el dispositivo GPS 314 determina una posición del dispositivo cliente de consumidor 302 puede estar basado en dispositivo y/o basado en red. En un sistema basado en dispositivo, el dispositivo GPS 314 es un receptor GPS para recibir desde un sistema de satélite GPS una indicación de la posición actual del dispositivo cliente de consumidor. En
45 un sistema basado en red, el dispositivo GPS 314 puede enviar una solicitud de determinación de posición a una red inalámbrica, y la red puede responder al dispositivo GPS 314 proporcionando al dispositivo GPS 314 una indicación de la posición del dispositivo GPS. (A este respecto, la red puede determinar la posición del dispositivo GPS realizando una consulta al dispositivo GPS de acuerdo con las especificaciones “Position Determination Service Standard for Dual Mode Spread Spectrum Systems”, TIA/EIA/IS-801, publicadas en octubre de 1999, que definen un conjunto de
50 mensajes de señalización entre un dispositivo y componentes de red para proporcionar un servicio de determinación de posición con el fin de determinar una localización del dispositivo.
Alternativamente, en un sistema basado en red, el dispositivo GPS 314 puede operar a través de un protocolo de búsqueda inversa usando una dirección IP del dispositivo cliente de consumidor 302 para obtener una localización aproximada. La dirección IP del dispositivo cliente de consumidor 302 puede ser asignada por un proveedor de red, y 55 una localización geográfica de la dirección IP puede ser incluida dentro de la información de registro del propietario de la dirección IP. Puede usarse o bien la dirección IP del dispositivo cliente de consumidor 302 o bien una dirección IP de una pasarela en el camino al servidor. En este caso, el dispositivo GPS 314 puede proporcionar suficiente información para indicar una posición aproximada enviando su dirección IP, y la derivación de la posición puede ser realizada en el dispositivo cliente de consumidor 302 o en el analizador de muestras 304. La dirección IP incluirá información a partir de
60 la cual pueda ser verificada, o puede incluso incluir un número de referencia indicativo de una localización física.
El dispositivo GPS 314 es opcional y sólo se usa si el selector de emisora de radiodifusión 306 no especifica de forma única una emisora de radiodifusión. Por ejemplo, si el selector de emisora de radiodifusión 306 sólo especifica una frecuencia de sintonización, en vez de una frecuencia de sintonización e información adiciona relativa a una emisora de radiodifusión (por ejemplo, un nombre de emisora de radiodifusión). La información de localización desambigua la 5 emisora de radiodifusión dado que sólo una emisora en un entorno geográfico puede usar la misma frecuencia. Para fines de la presente solicitud, la precisión del dispositivo GPS 314 no tiene que ser extremadamente alta. Pueden emplearse otros medios para localización, operando en conjunción con el analizador de muestras 304, tales como triangulación a través de torres de transmisión de red de datos de telefonía móvil. Para aparatos de consumidor de localización fija tales como un adaptador de medios interactivo, la información de localización puede ser especificada
10 por un código postal o una dirección residencial almacenados en una cadena de datos, por ejemplo.
Un usuario puede usar entonces el generador de consultas 312 para enviar una consulta de identificación de contenido al analizador de muestras 304 para recibir información relativa a la identidad del contenido. El generador de consultas 312 puede enviar también una marca de tiempo desde el reloj de marcas de tiempo 316 junto con la solicitud. El analizador de muestras 304 devolverá metadatos al dispositivo cliente de consumidor 302 para visualización en el
15 visualizador de metadatos 318, que puede ser cualquier dispositivo de visualización típico.
El analizador de muestras 304 incluye un servidor de solicitudes 320, un servidor de reconocimiento 322, una memoria caché temporal para metadatos 324 y un reloj de marcas de tiempo 326. El servidor de solicitudes 320 recibe consultas de identificación de contenido desde el dispositivo cliente de consumidor 302 y devuelve metadatos relativos a una identificación del contenido. El servidor de reconocimiento 322 opera realizando una identificación computacional de una
20 muestra de audio, usando cualquiera de los métodos aquí descritos, tales como los descritos en Kenyon, patente de los EE.UU. nº 5.210.820. El servidor de reconocimiento 322 identificará también un desplazamiento en tiempo real de la muestra de audio respecto a la grabación original, como se describe en la publicación de solicitud de patente de los EE.UU. US 2002/0083060, de Wang y Smith, para determinar un tiempo en el que la identificación de la muestra de audio es válida y puede ser devuelta en respuesta a consultas futuras.
25 El servidor de solicitudes 320 y el servidor de reconocimiento 322 pueden estimar puntos finales del programa radiodifundido tomando nota de una marca de tiempo de un comienzo de la muestra de medios y restando el desplazamiento temporal relativo (RTO) para obtener un tiempo inicial de segmento, y luego añadiendo además una longitud del programa radiodifundido (conocida tras hacer la identificación de contenido) para obtener un tiempo final de segmento. Los tiempos inicial y final de segmento pueden ser usados para calcular un intervalo de tiempo de validez
30 durante el cual son válidos los metadatos en memoria caché para el programa radiodifundido identificado. Por ejemplo, si el desplazamiento RTO indica que la muestra está 50 segundos tras el comienzo de la canción, y tras hacer la identificación de contenido, la identidad y longitud de la canción son conocidas, y de este modo, puede ser calculado el tiempo restante durante el que será reproducida la canción. Si otro usuario enviara una consulta de identificación de contenido para la misma emisora de radiodifusión durante el tiempo restante en el que será reproducida la canción, no
35 es necesaria una identificación computacional debido a que es conocido que la misma canción sigue siendo reproducida y la identidad de la canción ha sido ya determinada y almacenada. En esta situación, el servidor de solicitudes 320 simplemente devolvería la identidad previamente almacenada de la canción.
Cuando se necesita una identidad computacional, el servidor de reconocimiento 322 puede devolver, además de los metadatos habituales que identifican la canción, tanto un desplazamiento temporal relativo desde el inicio del programa
40 radiodifundido identificado correspondiente al comienzo de la muestra de medios como una longitud del programa radiodifundido identificado. Los algoritmos de reconocimiento de Wang y Smith o de Haitsma, et al, (referencias anteriormente citadas) pueden proporcionar dicha información. El servidor de reconocimiento 322 tomará entonces nota de la emisora de radiodifusión desde la que fue grabada la muestra, y almacenará luego toda la información en la memoria caché de metadatos 324, en un formato como el mostrado en la siguiente Tabla 1, por ejemplo.
45 Tabla 1
- Emisora de radiodifusión
- Identificación de contenido Tiempo de validez
- 104.5 WMQD (San Francisco)
- “título de la canción” Validez para los siguientes 3:30
Como se muestra en la Tabla 1, la memoria caché de metadatos 324 puede correlacionar identificaciones de contenido (por ejemplo, títulos de canción) con una emisora de radiodifusión y un tiempo de validez. El tiempo de validez indica durante cuanto tiempo es válida la identificación de contenido para la emisora de radiodifusión especificada. Por 50 ejemplo, el tiempo de validez puede ser una longitud restante de la canción, de modo que si otro usuario envía una consulta para esta emisora de radiodifusión durante el tiempo de validez (por ejemplo, durante la radiodifusión de la misma canción), entonces la identificación de contenido de la canción sigue siendo válida y sigue siendo siendo correcta. El tiempo de validez puede ser también un tiempo correspondiente a la longitud de la canción, y el servidor de solicitudes 320 tomará nota entonces de la marca de tiempo en la solicitud de identificación de contenido para
55 determinar si los metadatos en memoria caché siguen siendo válidos.
El servidor de solicitudes 320 recibirá la consulta de identificación de contenido desde el dispositivo cliente de consumidor 302, identificará una emisora de radiodifusión a partir de la consulta y determinará si hay un resultado de metadatos actualmente en memoria caché disponible y válido para la emisora de radiodifusión seleccionada dentro de la memoria caché de metadatos 324. Como se ha explicado, los metadatos actualmente en memoria caché estarán
5 disponibles si el servidor de reconocimiento 322 ha identificado ya el programa radiodifundido en la emisora de radiodifusión seleccionada dentro de un intervalo predeterminado de tiempo en el pasado.
Si hay metadatos actualmente en memoria caché disponibles para la emisora de radiodifusión seleccionada, el servidor de solicitudes 320 devuelve el resultado de identificación de contenido con los metadatos actualmente en memoria caché al dispositivo cliente de consumidor 302. Además, el intervalo de tiempo de validez, o al menos un punto final de
10 una canción puede ser devuelto en los metadatos al dispositivo cliente de consumidor 302. El dispositivo cliente de consumidor 302 puede entonces sincronizar tiempos de actualización indicando cuándo hay que consultar la próxima vez al servidor de solicitudes 320 una identidad de la siguiente canción (por ejemplo, que empezará tras el final del intervalo de tiempo previo de validez), minimizando de este modo un retardo en la actualización de metadatos de programa entre programas radiodifundidos.
15 Si no hay metadatos actualmente en memoria caché disponibles y válidos para la emisora de radiodifusión seleccionada, entonces el servidor de solicitudes 320 solicitará al dispositivo cliente de consumidor 302 que envíe una representación de muestra de medios al servidor de solicitudes 320 para identificación. El servidor de solicitudes 320 encaminará la muestra de medios hacia el servidor de reconocimiento 322, que realiza una identificación computacional y envía un resultado de metadatos asociado de vuelta al servidor de solicitudes 320 que reenvía el resultado de vuelta al
20 dispositivo cliente de consumidor 302. El servidor de solicitudes 320 también almacenará en memoria caché el resultado como metadatos actualmente en memoria caché para la emisora de radiodifusión seleccionada, y almacenará una longitud de tiempo predeterminada durante la cual son válidos los metadatos actualmente en memoria caché. El almacenamiento en memoria caché de los metadatos actuales permite que el servidor de solicitudes 320 dé servicio a solicitudes procedentes de muchos más aparatos cliente de consumidor de lo que sería posible en otro caso si cada
25 solicitud tuviera que ser identificada computacionalmente de forma individual por el servidor de reconocimiento 322.
La figura 4 ilustra un ejemplo conceptual de múltiples consultas de identificación de contenido que se producen en serie en el tiempo durante una canción. Como se muestra, una primera canción está siendo radiodifundida por una emisora de radio en un tiempo inicial Tm y la canción tiene un tiempo final Tn y por lo tanto una longitud de (Tn –Tm). Una primera consulta de identificación de contenido es recibida en el tiempo T1, que es posterior al comienzo de la primera canción, y 30 de este modo la consulta de identificación de contenido es realizada para identificar la primera canción. La identidad de la primera canción es luego almacenada, y enviada a un dispositivo que solicita la primera consulta. Una vez recibida una segunda identificación de contenido en el tiempo T2, que es anterior al tiempo final Tn de la primera canción, la información almacenada relativa a una respuesta que ha sido enviada a la primera consulta es enviada también en respuesta a la segunda consulta. No se necesita una identificación de contenido computacional segunda o adicional.
35 Para todas las consultas de identificación de contenido recibidas tras la primera consulta (por ejemplo, en el tiempo T1) y antes del final de de la canción (por ejemplo, en el tiempo Tn), es devuelto el resultado de la primera identificación de contenido computacional.
Como se ha mencionado anteriormente, el dispositivo cliente de consumidor 302 puede sincronizar tiempos de actualización que indican cuándo hay que realizar la siguiente consulta al servidor de solicitudes 320 sobre una 40 identidad de la siguiente canción (por ejemplo, que empezará tras el final del intervalo de tiempo de validez previo o pronto tras él) para minimizar un retardo en la actualización de metadatos de programa entre programas radiodifundidos. En el ejemplo mostrado en la figura 4, la siguiente canción comienza la radiodifusión en el tiempo Tx, y de este modo durante el tiempo Tn a Tx no es radiodifundida ninguna canción. Por ejemplo durante el tiempo Tn a Tx, una emisora de radiodifusión puede emitir anuncios o comentarios de un DJ. De este modo, un dispositivo cliente de
45 consumidor puede ser programado para la siguiente consulta de identificación de contenido al menos unos pocos segundos después del tiempo final de la canción previamente identificada.
A este fin, un dispositivo cliente de consumidor puede consultar de forma programada (o automática) al servidor de solicitudes 320 para recibir identificaciones de contenido de cada canción que es radiodifundida y recibida en el dispositivo cliente de consumidor de modo que reciba constantemente metadatos de programa actualizados. De esta 50 manera, un usuario que escucha una emisora de radiodifusión conocerá la identidad de todas las canciones que están siendo reproducidas, y no tendrá que crear o enviar manualmente una consulta de identificación de contenido al servidor de solicitudes 320. Los metadatos pueden ser también visualizados automáticamente en un dispositivo cliente de consumidor, mientras que una aplicación de receptor de radiodifusión está abierta y en funcionamiento. Por ejemplo, la figura 5 ilustra una visualización a modo de ejemplo de metadatos de radiodifusión en un dispositivo móvil. La 55 visualización puede indicar información de emisora de radio (104.5 FM), un título de canción, un nombre de artista, y un tiempo restante de la canción. Puede visualizarse igualmente también otra información. El dispositivo móvil puede recibir continuamente metadatos nuevos con información nueva relativa a una canción actual que está siendo reproducida, y puede actualizar el visualizador de acuerdo con ello. La actualización de metadatos puede ser enviada en respuesta a una consulta por el dispositivo cliente de consumidor 302, o alternativamente puede ser transmitida proactivamente por 60 el analizador de muestras 304 al dispositivo cliente de consumidor 302, en tanto que el dispositivo cliente de consumidor
302 continúe indicando que sigue sintonizado con la misma emisora de radiodifusión. De esta manera, los datos pueden ser enviados sin una solicitud para continuar actualizando la información de metadatos.
El dispositivo cliente de consumidor 302 envía información de emisora de radiodifusión al analizador de muestras 304 y el analizador de muestras 304 será capaz habitualmente de discernir qué emisora de radiodifusión está escuchando el 5 dispositivo cliente de consumidor 302 sobre la base de la información. El analizador de muestras puede intentar también determinar una fuente de radiodifusión usando sistemas de monitorización externos. Por ejemplo, pueden monitorizarse muestras procedentes de canales de radiodifusión y cada muestra radiodifundida puede recibir una marca de tiempo en términos de un desplazamiento “en tiempo real” con relación a una base de tiempo común, y se determina un desplazamiento temporal estimado de la muestra radiodifundida dentro de la grabación “original” (usando la técnica de 10 Wang y Smith descrita en la publicación de solicitud de patente de los EE.UU US 2002/0083060). Luego, las características de muestra de usuario recibidas por el analizador de muestras 304 pueden ser comparadas con características procedentes de muestras radiodifundidas que fueron tomadas en o cerca del tiempo en el que fue grabada la muestra de usuario para identificar un casamiento. Si los desplazamientos en tiempo real están dentro de un cierto margen de tolerancia, por ejemplo un segundo, entonces se considera que la muestra de audio de usuario se 15 origina desde la misma fuente que la muestra radiodifundida, dado que la probabilidad de que un comportamiento aleatorio del mismo contenido de audio (tal como un canción de éxito) esté sincronizado en menos de un segundo de tiempo es baja. Pueden considerarse factores adicionales cuando se intenta casar la muestra de audio con una fuente de radiodifusión. Por ejemplo, para verificar adicionalmente que el usuario está escuchando realmente un canal de radiodifusión dado, y que no es sólo una coincidencia (tal como un usuario que toma una grabación de un reproductor
20 de CDs), pueden tomarse la muestras de usuario sobre un periodo más largo de tiempo, por ejemplo, más largo que un programa de audio típico, tal como sobre una transición entre programas de audio en el mismo canal para verificar la continuidad de identidad sobre una transición de programa como un indicador de que el canal de radiodifusión correcto está siendo seguido.
Sin embargo, si el selector de selección de radiodifusión 308 del dispositivo cliente de consumidor 302 no describe de
25 forma única una sola emisora de radiodifusión, entonces la información de localización procedente del dispositivo GPS 314 es enviada también junto con la consulta (bien dentro del mensaje de consulta o bien como un mensaje separado) al servidor de solicitudes 320. El servidor de solicitudes 320 puede acceder entonces a la memoria caché de metadatos 324 e identificar una emisora de radiodifusión que emite dentro de un área en torno a la localización del dispositivo cliente de consumidor 302. Por ejemplo, el servidor de solicitudes 320 puede mirar en una tabla, tal como la Tabla 1,
30 para verificar que la emisora “104.5” emite en San Francisco, que es donde puede estar situado un dispositivo cliente de consumidor 302, y devolver el resultado de metadatos que describe el programa que está siendo reproducido en el tiempo.
En el caso de que el servidor de solicitudes 320 no pueda localizar un resultado de metadatos correspondiente a la información del selector 308 de la emisora de radiodifusión recibida y a la información de localización, el servidor de
35 solicitudes 320 solicitará al dispositivo cliente de consumidor 302 que envíe una representación de muestra de medios para identificar la muestra. El servidor de reconocimiento 322 identificará entonces computacionalmente la muestra y devolverá un resultado de metadatos. El resultado de metadatos es enviado entonces al dispositivo cliente de consumidor 302 y presentado visualmente a un usuario.
En los casos descritos anteriormente en los que una radiodifusión terrestre está siendo monitorizada y el selector de
40 emisora de radiodifusión 308 no especifica de forma única una emisora de radiodifusión (por ejemplo, sólo la frecuencia de sintonización es especificada), puede usarse un medio opcional para localización en conjunción con un mapa de emisoras de radiodifusión físicas conocidas y áreas de cobertura correspondientes para verificar a qué emisora está sintonizado el dispositivo cliente, sobre la base de la suposición de que la recepción está limitada a un área de cobertura en las proximidades de la emisora de radiodifusión. La figura 6 ilustra un diagrama de bloques conceptual de un mapa
45 de área de cobertura para dos emisoras de radio. En el ejemplo mostrado en la figura 6, la emisora de radio 104.5 WMQD tiene un área de cobertura 602, la emisora de radio 96.5 WGRD tiene un área de cobertura 604, y una segunda emisora de radio 96.5 WGRD tiene un área de cobertura 606. El dispositivo móvil 608 está dentro del área de cobertura 602 y el dispositivo móvil 610 está dentro del área de cobertura 604 al tiempo que el dispositivo móvil 612 está dentro de ambas áreas de cobertura 602 y 604. El dispositivo móvil 614 está dentro del área de cobertura 606.
50 Los dispositivos móviles pueden enviar una consulta de identificación de contenido a través de una red inalámbrica 616 por medio de un enlace inalámbrico 618 a un servidor 620, que incluye una funcionalidad y/o componentes que comprenden un analizador de muestras, como se ha descrito anteriormente para la figura 3, para identificar contenido radiodifundido recibido desde las emisoras de radio. El servidor 620 puede tener el mapa, como se muestra en la figura 6, de las áreas de cobertura de las emisoras de radio, y usando información de localización recibida desde los
55 dispositivos móviles, puede determinar qué emisora de radio está escuchando el dispositivo móvil. Sin embargo, para los dispositivos móviles 610, 612 y 614, el servidor 620 puede requerir también información adicional, tal como la localización del dispositivo móvil, dado que la frecuencia de información sola no será suficiente para distinguir las emisoras de radio.
En otra realización que implica dispositivos cliente de consumidor que sintonizan emisoras de radiodifusión terrestre, y en la que existe un receptor GPS (o equivalente funcional) dentro de los dispositivos, un sistema de obtención de mapas de emisoras de radiodifusión autoorganizado puede ser derivado si no está disponible ningún mapa de emisoras de radiodifusión físicas. Inicialmente, no se conoce dónde está situada cada emisora radiofónica de difusión, sin embargo, 5 se desea determinar para cada emisora de radiodifusión su área de cobertura. Un mapa de cobertura puede ser formado a partir de muchas muestras tomadas por muchos aparatos cliente de consumidor sobre un periodo de tiempo. Con referencia otra vez a la figura 3, para construir un mapa de áreas de cobertura, cada consulta recibida en el servidor de solicitudes 322 puede incluir una frecuencia de sintonización, una localización por GPS, y una muestra de medios. Cada consulta es encaminada inicialmente al servidor de reconocimiento 322 para identificación de los 10 metadatos usando la técnica de identificación computacional. Si se hacen dos consultas usando la misma frecuencia, y la muestra de medios de una solicitud se solapa temporalmente con el intervalo de tiempo de validez resultante de la otra solicitud, los metadatos son comprobados para ver si los programas identificados se corresponden entre sí. Esto se realiza, por ejemplo, determinando si los metadatos casan, y luego se verifica una correspondencia temporal por ejemplo determinando si los intervalos de tiempo de validez casan. Si se determina que ambas muestras de medios son
15 iguales, el servidor de solicitudes 320 tendrá dos localizaciones geográficas en las que hay radiodifusión a la frecuencia de sintonización (por ejemplo, si los metadatos y los intervalos casan, se declara que los dos usuarios están sintonizados a la misma emisora de radiodifusión desconocida).
Las dos localizaciones GPS correspondientes son agrupadas en un conjunto de localizaciones que pertenecen a la emisora de radiodifusión desconocida que tienen el mismo selector de emisora de radiodifusión (por ejemplo la 20 frecuencia de sintonización). Un mapa de cobertura puede ser generado a partir del conjunto de localizaciones realizando una convolución con un disco de radio predeterminado, por ejemplo, 0,5 ó 1 kilómetro. En otras palabras, una zona de localidad de radio predeterminado es dibujada en torno a cada punto en el conjunto de localizaciones. Cada emisora de radiodifusión desconocida es asociada de este modo a un mapa de cobertura correspondiente, y además, es asociada a metadatos actualmente en memoria caché procedentes del reconocimiento más reciente de una muestra 25 de medios asociada a la emisora de radiodifusión desconocida. Cuando se hace una consulta con un selector de emisora de radiodifusión y una localización por GPS nueva, se realiza una búsqueda para encontrar una emisora de radiodifusión que tenga el mismo selector de emisora de radiodifusión y un mapa de cobertura que se solape con la localización por GPS. Si se encuentra un casamiento y están disponibles metadatos actuales para ese grupo, no es realizada una identificación de medios por el servidor de reconocimiento y los metadatos actuales son devueltos. En otro
30 caso, se realiza una identificación de medios por el servidor de reconocimiento y los metadatos resultantes se convierten en los metadatos actualmente en memoria caché para esa emisora de radiodifusión.
Si se encuentra una localización por GPS que no se solapa (por ejemplo, la localización no está dentro del mapa de área de cobertura previamente generado) y la consulta no casa con una emisora de radiodifusión conocida y un mapa de cobertura asociado, se realiza una identificación de medios. Si los metadatos resultantes y el intervalo de tiempo de
35 validez casan con los de una emisora de radiodifusión conocida que tiene el mismo selector de emisora de radiodifusión (por ejemplo, frecuencia de sintonización), la nueva localización por GPS puede ser añadida al conjunto de localizaciones de esta emisora de radiodifusión y el mapa de cobertura asociado puede ser actualizado. Si no se encontrara ninguna emisora de radiodifusión que case, se generaría un nuevo registro para una nueva emisora de radiodifusión.
40 Usando los métodos aquí descritos, las muestras de audio en bruto recibidas desde las emisoras de radiodifusión pueden ser identificadas usando técnicas de identificación computacional conocidas, y la identificación puede ser almacenada y devuelta a consultas subsiguientes asociadas a la misma fuente de radiodifusión durante un tiempo de validez. Si muchos usuarios están escuchando el mismo programa radiodifundido y están haciendo la misma consulta, se puede ahorrar mucho tiempo realizando un reconocimiento computacional de patrones de audio y devolviendo el
45 resultado a todos los usuarios, en vez de realizar una identificación computacional de contenido para cada usuario (cuando hacer esto repetirá muchas identificaciones).
Han sido descritas muchas realizaciones como siendo realizadas, individualmente o en combinación con otras realizaciones, pero cualquiera de las realizaciones anteriormente descritas pueden ser usadas conjuntamente o en cualquier combinación para incrementar la certidumbre de identificar muestras en el flujo de datos. Adicionalmente, 50 muchas de las realizaciones pueden ser realizadas usando un dispositivo de consumidor que tiene un medio de recepción de flujos de radiodifusión (tal como un receptor de radio), y o bien (1) un medio de transmisión de datos para comunicarse con un servidor de identificación central para realizar el paso de identificación, o bien (2) un medio para llevar a cabo el paso de identificación incorporado en el propio dispositivo de consumidor (por ejemplo, podría cargarse en el dispositivo de consumidor una base de datos para un medio de reconocimiento de audio). Además, el dispositivo 55 de consumidor puede incluir un medio para actualizar una base de datos para acomodar la identificación de nuevas pistas de audio, tal como una conexión de datos por Ethernet o inalámbrica a un servidor, y un medio para solicitar una actualización de la base de datos. El dispositivo de consumidor puede incluir además un medio de almacenamiento local para almacenar ficheros de pistas de audio segmentadas y etiquetadas reconocidas, y el dispositivo puede tener un medio de selección de lista de reproducción y un medio de repetición de pistas de audio, como en una gramola, por
60 ejemplo.
Los métodos anteriormente descritos pueden ser implementados en software que es usado en conjunción con un procesador de propósito general o específico de aplicación y una o más estructuras de memoria asociadas. No obstante, pueden usarse alternativamente otras implementaciones utilizando hardware y/o firmware adicional. Por ejemplo, el mecanismo de la presente solicitud es capaz de ser distribuido en la forma de un medio de instrucciones
5 legible por ordenador en una variedad de formas, y la presente solicitud se aplica igualmente de forma independiente del tipo particular de medio portador de señales usado para llevar realmente a cabo la distribución. Ejemplos de tales dispositivos accesibles por ordenador incluyen memoria de ordenador (RAM (del inglés “Random Access Memory”, memoria de acceso aleatorio) o ROM (del inglés “Read-Only Memory”, memoria de solo lectura), discos flexibles, y CD-ROMs, así como medios de tipo de transmisión tales como enlaces de comunicación digitales y analógicos.
10 Aunque se han descrito ejemplos en conjunción con realizaciones presentes de la solicitud, las personas con experiencia en la técnica apreciarán que se pueden hacer variaciones sin apartarse del alcance de la solicitud. Por ejemplo, aunque el flujo de datos radiodifundido descrito en los ejemplos consiste a menudo en flujos de audio, la invención no está limitada a ello, sino que puede ser aplicada a una amplia variedad de contenido radiodifundido, incluyendo vídeo, televisión, flujo continuo de Internet, u otro contenido multimedia. Como ejemplo, pueden identificarse
15 ficheros de vídeo usando técnicas similares para la identificación de ficheros de audio que incluyen escanear un fichero de vídeo para encontrar marcas digitales (por ejemplo, huellas) únicas para ese fichero, y comprobar una base de datos de vídeos para identificar vídeos que tienen marcas similares. La tecnología de huellas puede identificar audio o vídeo extrayendo parámetros de caracterización específicos de un fichero, que son traducidos a una cadena de bits o huella, y comparando las huellas del fichero con las huellas de ficheros originales almacenadas previamente en una base de
20 datos central. Para más información sobre tecnologías de reconocimiento de vídeo, el lector es remitido a la patente de los EE.UU. número 6.714.594, titulada “Video content detection method and system leveraging data-compression constructs”.
Además, el dispositivo y los métodos aquí descritos pueden ser implementados en hardware, software, o una combinación, tal como un procesador de propósito general o dedicado que ejecuta una aplicación de software a través
25 de memoria volátil o no volátil. El alcance real de la solicitud está definido mediante las reivindicaciones adjuntas, que pueden ser interpretadas a la luz de lo que antecede.
Claims (12)
- REIVINDICACIONES1. Un método para identificar contenido dentro de un flujo de datos, que comprende:recibir una primera consulta de identificación de contenido desde un primer dispositivo cliente (302), en que la primera consulta de identificación de contenido solicita una identidad de un contenido que ha sido 5 radiodifundido desde una fuente de radiodifusión, e incluye información relativa a la fuente de radiodifusión del contenido;recibir una muestra de dicho contenido desde dicho primer dispositivo cliente;realizar una primera identificación de contenido para el contenido que ha sido radiodifundido desde la fuente de radiodifusión usando dicha muestra;10 determinar un periodo de tiempo durante el cual la primera identificación de contenido es válida;recibir una segunda consulta de identificación de contenido desde un segundo dispositivo cliente, en que la segunda consulta de identificación de contenido solicita una identidad de un contenido dado que ha sido radiodifundido desde la fuente de radiodifusión, y la segunda consulta de identificación de contenido incluye información relativa a la fuente de radiodifusión del contenido dado, y;15 si la información relativa a la fuente de radiodifusión de dicha segunda consulta de identificación de contenido casa con la información relativa a la fuente de radiodifusión de dicha primera consulta de identificación de contenido, y si la segunda consulta de identificación de contenido ha sido recibida en un tiempo durante el cual la primera identificación de contenido es válida, enviar la primera identificación de contenido para el contenido al segundo dispositivo cliente; y20 si no, (i) realizar una segunda identificación de contenido usando una muestra del contenido dado radiodifundido desde la fuente de radiodifusión, y (ii) almacenar la segunda identificación de contenido.
- 2. El método según la reivindicación 1, que comprende además determinar si el contenido procedente de la fuente de radiodifusión ha sido previamente identificado, mediante el recurso de:acceder a una memoria caché (324) que incluye un listado de identificaciones de contenido, cada una de las 25 cuales está asociada a una fuente de radiodifusión dada; ycasar la fuente de radiodifusión del contenido con una de las fuentes de radiodifusión dadas en el listado.
- 3. El método según la reivindicación 2, que comprende además determinar si la segunda consulta de identificación de contenido ha sido recibida en un tiempo durante el cual el contenido sigue siendo radiodifundido desde la fuente, mediante el recurso de:30 determinar una longitud del contenido;determinar un desplazamiento temporal relativo (RTO) del contenido desde un comienzo del contenido;calcular un tiempo en el que el contenido no será radiodifundido desde la fuente usando la longitud del contenido y el desplazamiento RTO del contenido; ycomparar un tiempo de recepción de la segunda consulta de identificación de contenido con el tiempo en el que 35 el contenido no será radiodifundido desde la fuente.
- 4. El método según la reivindicación 1, que comprende además:determinar una identidad de la fuente de radiodifusión recibiendo una indicación de una frecuencia de radiodifusión; recibir información relativa a una localización del segundo dispositivo cliente; e40 identificar una emisora de radiodifusión que tiene la frecuencia de radiodifusión y que radiodifunde dentro de un área de cobertura que incluye la localización del segundo dispositivo cliente.
- 5. El método según la reivindicación 4, que comprende además determinar áreas de cobertura de emisoras de radio, mediante el recurso de:recibir consultas de identificación de contenido desde dispositivos cliente que solicitan una identidad de un 45 contenido que ha sido radiodifundido desde una fuente de radiodifusión, en que cada consulta de identificación de contenido incluye una muestra del contenido, una frecuencia de radiodifusión de la fuente de radiodifusión, e información relativa a una localización de los dispositivos cliente;hacer una identificación de las muestras del contenido;determinar un intervalo de tiempo de validez de la identificación de las muestras del contenido, en que el 5 intervalo de tiempo de validez indica un tiempo durante el cual la identificación de la muestra será válida como radiodifundida desde la fuente de radiodifusión;para consultas de identificación de contenido recibidas que (i) incluyen la misma frecuencia de radiodifusión, (ii) tienen un intervalo de tiempo de validez que se solapa temporalmente, y (iii) para las cuales la identificación de la muestra del contenido casa, asociar localizaciones de los dispositivos cliente en las consultas de10 identificación de contenido al área de cobertura de una fuente de radiodifusión que radiodifunde usando la frecuencia de radiodifusión; yestimar un área de cobertura para la fuente de radiodifusión usando las localizaciones asociadas.
- 6. El método según la reivindicación 1, que comprende además:determinar cuándo terminará el contenido que está siendo radiodifundido desde la fuente; y15 enviar información que indica cuándo terminará el contenido que está siendo radiodifundido desde la fuente hacia el segundo dispositivo cliente.
- 7. El método según la reivindicación 1, que comprende además, después de que el contenido ha terminado de ser radiodifundido desde la fuente, enviar información relativa a contenido radiodifundido subsiguientemente desde la fuente al segundo dispositivo cliente sin recibir una consulta de identificación de un contenido dado.20 8. Un medio legible por ordenador que lleva almacenadas en él instrucciones para hacer que una unidad de procesamiento central ejecute las siguientes funciones:recibir una primera consulta de identificación de contenido desde un primer dispositivo cliente (302), en que la primera consulta de identificación de contenido solicita una identidad de un contenido que ha sido radiodifundido desde una fuente de radiodifusión, e incluye información relativa a la fuente de radiodifusión del25 contenido;recibir una muestra de dicho contenido desde dicho primer dispositivo cliente;realizar una primera identificación de contenido para el contenido que ha sido radiodifundido desde la fuente de radiodifusión usando dicha muestra;determinar un periodo de tiempo durante el cual la primera identificación de contenido es válida;30 recibir una segunda consulta de identificación de contenido desde un segundo dispositivo cliente, en que la segunda consulta de identificación de contenido solicita una identidad de un contenido dado que ha sido radiodifundido desde la fuente de radiodifusión, y la segunda consulta de identificación de contenido incluye información relativa a la fuente de radiodifusión del contenido dado, y;si el contenido procedente de la fuente de radiodifusión ha sido previamente identificado y si la información35 relativa a la fuente de radiodifusión de dicha segunda consulta de identificación de contenido casa con la información relativa a la fuente de radiodifusión de dicha primera consulta de identificación de contenido, y si la segunda consulta de identificación de contenido ha sido recibida en un tiempo durante el cual la primera identificación de contenido es válida, enviar la primera identificación de contenido para el contenido al segundo dispositivo cliente; y40 si no, (i) realizar una segunda identificación de contenido usando una muestra del contenido dado radiodifundido desde la fuente de radiodifusión, y (ii) almacenar la segunda identificación de contenido.
- 9. El medio legible por ordenador según la reivindicación 8, que comprende además:determinar una identidad de la fuente de radiodifusión a partir de la información recibida en la primera consulta de identificación de contenido recibiendo una indicación de una frecuencia de radiodifusión;45 recibir información relativa a una localización del primer dispositivo cliente; eidentificar una emisora de radiodifusión que tiene la frecuencia de radiodifusión y que radiodifunde dentro de un área de cobertura que incluye la localización del primer dispositivo cliente.
- 10. Un sistema que comprende:un servidor de solicitudes (320) configurado para recibir una primera consulta de identificación de contenido desde un primer dispositivo cliente, en que la primera consulta de identificación de contenido incluye una grabación de una muestra del contenido que está siendo radiodifundido desde una primera fuente e incluye información relativa a la5 primera fuente del contenido, y para recibir una segunda consulta de identificación de contenido desde un segundo dispositivo cliente, en que la segunda consulta de identificación de contenido solicita una identidad de un contenido que está siendo radiodifundido desde una segunda fuente e incluye información relativa a la segunda fuente del contenido;un servidor de reconocimiento (322) configurado para hacer una primera identificación de contenido usando la muestra del contenido, y determinar un tiempo durante el cual es válida la primera identificación de contenido; y10 memoria configurada para almacenar la identificación de contenido, el tiempo, e información relativa a la primera fuente del contenido en una memoria caché (324);en que si la primera fuente y la segunda fuente son la misma y si la primera identificación de contenido sigue siendo válida, el servidor de solicitudes (i) envía la primera identificación de contenido hecha en respuesta a la primera consulta de identificación de contenido al segundo dispositivo cliente en respuesta a la segunda consulta de identificación de15 contenido, y si no (ii) hace una segunda identificación de contenido usando una muestra del contenido que está siendo radiodifundido desde la segunda fuente y almacena la segunda identificación de contenido en la memoria caché.
- 11. El sistema según la reivindicación 10, en que el servidor de reconocimiento determina una identidad de la primera fuente recibiendo una indicación de una frecuencia de radiodifusión de la primera fuente.
- 12. El sistema según la reivindicación 11, en que el servidor de reconocimiento determina la identidad de la primera 20 fuente mediante el recurso de:recibir información relativa a una localización del primer dispositivo cliente; eidentificar una emisora de radiodifusión que tiene la frecuencia de radiodifusión de la primera fuente y que radiodifunde dentro de un área de cobertura que incluye la localización del primer dispositivo cliente.
- 13. El sistema según la reivindicación 12, en que para todas las consultas de identificación de contenido desde25 dispositivos cliente recibidas tras la primera consulta de identificación de contenido, en un tiempo durante el cual el contenido será radiodifundido desde la primera fuente, y relativas a la misma fuente de radiodifusión, el servidor de solicitudes envía la identificación de contenido hecha en respuesta a la primera consulta de identificación de contenido como respuesta a los dispositivos cliente.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US84894106P | 2006-10-03 | 2006-10-03 | |
US848941P | 2006-10-03 | ||
PCT/US2007/080292 WO2008042953A1 (en) | 2006-10-03 | 2007-10-03 | Method for high throughput of identification of distributed broadcast content |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2433966T3 true ES2433966T3 (es) | 2013-12-13 |
Family
ID=39092803
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES07843742T Active ES2433966T3 (es) | 2006-10-03 | 2007-10-03 | Método para caudal alto de identificación de contenido de radiodifusión distribuido |
Country Status (5)
Country | Link |
---|---|
US (6) | US7881657B2 (es) |
EP (1) | EP2070231B1 (es) |
ES (1) | ES2433966T3 (es) |
HK (1) | HK1135527A1 (es) |
WO (1) | WO2008042953A1 (es) |
Families Citing this family (218)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
ATE460020T1 (de) | 2000-09-13 | 2010-03-15 | Stratosaudio Inc | System und verfahren zum bestellen und zur verfügung stellen von medieninhalten, mit verwendung von zusatzdaten die in einem rundfunksignal mitübertragen werden |
US7761497B1 (en) * | 2001-07-13 | 2010-07-20 | Vignette Software, LLC | Storage medium having a manageable file directory structure |
US7239981B2 (en) | 2002-07-26 | 2007-07-03 | Arbitron Inc. | Systems and methods for gathering audience measurement data |
US9711153B2 (en) | 2002-09-27 | 2017-07-18 | The Nielsen Company (Us), Llc | Activating functions in processing devices using encoded audio and detecting audio signatures |
US8959016B2 (en) | 2002-09-27 | 2015-02-17 | The Nielsen Company (Us), Llc | Activating functions in processing devices using start codes embedded in audio |
EP1586045A1 (en) | 2002-12-27 | 2005-10-19 | Nielsen Media Research, Inc. | Methods and apparatus for transcoding metadata |
US7917130B1 (en) | 2003-03-21 | 2011-03-29 | Stratosaudio, Inc. | Broadcast response method and system |
US20070156676A1 (en) * | 2005-09-09 | 2007-07-05 | Outland Research, Llc | System, Method and Computer Program Product for Intelligent Groupwise Media Selection |
US20070189544A1 (en) | 2005-01-15 | 2007-08-16 | Outland Research, Llc | Ambient sound responsive media player |
US7881657B2 (en) | 2006-10-03 | 2011-02-01 | Shazam Entertainment, Ltd. | Method for high-throughput identification of distributed broadcast content |
US7962460B2 (en) | 2006-12-01 | 2011-06-14 | Scenera Technologies, Llc | Methods, systems, and computer program products for determining availability of presentable content via a subscription service |
US7995770B1 (en) | 2007-02-02 | 2011-08-09 | Jeffrey Franklin Simon | Apparatus and method for aligning and controlling reception of sound transmissions at locations distant from the sound source |
US8499316B2 (en) * | 2007-05-11 | 2013-07-30 | Sony Corporation | Program identification using a portable communication device |
US8645983B2 (en) * | 2007-09-20 | 2014-02-04 | Sony Corporation | System and method for audible channel announce |
EP2206114A4 (en) | 2007-09-28 | 2012-07-11 | Gracenote Inc | SYNTHETIZING A PRESENTATION OF A MULTIMEDIA EVENT |
US20090177736A1 (en) | 2007-12-14 | 2009-07-09 | Christensen Kelly M | Systems and methods for outputting updated media |
US8631448B2 (en) | 2007-12-14 | 2014-01-14 | Stratosaudio, Inc. | Systems and methods for scheduling interactive media and events |
US9886434B2 (en) * | 2008-01-03 | 2018-02-06 | Google Technology Holdings LLC | Method and apparatus for acquiring program information |
US8205148B1 (en) * | 2008-01-11 | 2012-06-19 | Bruce Sharpe | Methods and apparatus for temporal alignment of media |
US8166081B2 (en) | 2008-02-05 | 2012-04-24 | Stratosaudio, Inc. | System and method for advertisement transmission and display |
CN101567203B (zh) * | 2008-04-24 | 2013-06-05 | 深圳富泰宏精密工业有限公司 | 自动搜寻及播放音乐的系统及方法 |
US9106801B2 (en) * | 2008-04-25 | 2015-08-11 | Sony Corporation | Terminals, servers, and methods that find a media server to replace a sensed broadcast program/movie |
US8886112B2 (en) | 2008-09-24 | 2014-11-11 | Apple Inc. | Media device with enhanced data retrieval feature |
US8457575B2 (en) * | 2008-09-26 | 2013-06-04 | Microsoft Corporation | Obtaining and presenting metadata related to a radio broadcast |
US20170034586A1 (en) * | 2008-10-08 | 2017-02-02 | Wakingapp Ltd. | System for content matching and triggering for reality-virtuality continuum-based environment and methods thereof |
US8121830B2 (en) | 2008-10-24 | 2012-02-21 | The Nielsen Company (Us), Llc | Methods and apparatus to extract data encoded in media content |
US9667365B2 (en) | 2008-10-24 | 2017-05-30 | The Nielsen Company (Us), Llc | Methods and apparatus to perform audio watermarking and watermark detection and extraction |
US8359205B2 (en) | 2008-10-24 | 2013-01-22 | The Nielsen Company (Us), Llc | Methods and apparatus to perform audio watermarking and watermark detection and extraction |
GB2465141B (en) | 2008-10-31 | 2014-01-22 | Media Instr Sa | Simulcast resolution in content matching systems |
US20100205628A1 (en) | 2009-02-12 | 2010-08-12 | Davis Bruce L | Media processing methods and arrangements |
US9355554B2 (en) * | 2008-11-21 | 2016-05-31 | Lenovo (Singapore) Pte. Ltd. | System and method for identifying media and providing additional media content |
US8180891B1 (en) * | 2008-11-26 | 2012-05-15 | Free Stream Media Corp. | Discovery, access control, and communication with networked services from within a security sandbox |
US8508357B2 (en) | 2008-11-26 | 2013-08-13 | The Nielsen Company (Us), Llc | Methods and apparatus to encode and decode audio for shopper location and advertisement presentation tracking |
US9390167B2 (en) * | 2010-07-29 | 2016-07-12 | Soundhound, Inc. | System and methods for continuous audio matching |
EP2234024B1 (en) * | 2009-03-24 | 2012-10-03 | Sony Corporation | Context based video finder |
AU2010242814B2 (en) | 2009-05-01 | 2014-07-31 | The Nielsen Company (Us), Llc | Methods, apparatus and articles of manufacture to provide secondary content in association with primary broadcast media content |
US8718805B2 (en) * | 2009-05-27 | 2014-05-06 | Spot411 Technologies, Inc. | Audio-based synchronization to media |
US8489774B2 (en) | 2009-05-27 | 2013-07-16 | Spot411 Technologies, Inc. | Synchronized delivery of interactive content |
US20100306073A1 (en) * | 2009-05-29 | 2010-12-02 | Liam Young | Identifying and purchasing pre-recorded content |
US8560597B2 (en) | 2009-07-30 | 2013-10-15 | At&T Intellectual Property I, L.P. | Anycast transport protocol for content distribution networks |
US20120102516A1 (en) * | 2009-08-12 | 2012-04-26 | British Telecommunications Plc | Communications system |
US20110041154A1 (en) * | 2009-08-14 | 2011-02-17 | All Media Guide, Llc | Content Recognition and Synchronization on a Television or Consumer Electronics Device |
US8161071B2 (en) | 2009-09-30 | 2012-04-17 | United Video Properties, Inc. | Systems and methods for audio asset storage and management |
US8677400B2 (en) * | 2009-09-30 | 2014-03-18 | United Video Properties, Inc. | Systems and methods for identifying audio content using an interactive media guidance application |
US20110078020A1 (en) * | 2009-09-30 | 2011-03-31 | Lajoie Dan | Systems and methods for identifying popular audio assets |
US8521779B2 (en) | 2009-10-09 | 2013-08-27 | Adelphoi Limited | Metadata record generation |
US8682145B2 (en) | 2009-12-04 | 2014-03-25 | Tivo Inc. | Recording system based on multimedia content fingerprints |
US9069771B2 (en) * | 2009-12-08 | 2015-06-30 | Xerox Corporation | Music recognition method and system based on socialized music server |
CN102754350A (zh) * | 2010-02-08 | 2012-10-24 | 松下电器产业株式会社 | 音频装置 |
FR2956787A1 (fr) | 2010-02-24 | 2011-08-26 | Alcatel Lucent | Procede et serveur pour detecter un programme video recu par un usager |
US9026102B2 (en) | 2010-03-16 | 2015-05-05 | Bby Solutions, Inc. | Movie mode and content awarding system and method |
US9264785B2 (en) * | 2010-04-01 | 2016-02-16 | Sony Computer Entertainment Inc. | Media fingerprinting for content determination and retrieval |
US9185458B2 (en) * | 2010-04-02 | 2015-11-10 | Yahoo! Inc. | Signal-driven interactive television |
EP2559237A1 (en) * | 2010-04-14 | 2013-02-20 | Sven Riethmueller | Platform-independent interactivity with media broadcasts |
JP5907511B2 (ja) | 2010-06-09 | 2016-04-26 | アデルフォイ リミテッド | オーディオメディア認識のためのシステム及び方法 |
US9047371B2 (en) * | 2010-07-29 | 2015-06-02 | Soundhound, Inc. | System and method for matching a query against a broadcast stream |
US9876905B2 (en) | 2010-09-29 | 2018-01-23 | Genesys Telecommunications Laboratories, Inc. | System for initiating interactive communication in response to audio codes |
US20120084175A1 (en) * | 2010-10-04 | 2012-04-05 | Research In Motion Limited | Method, system and mobile electronic device for purchasing media |
GB2484893A (en) * | 2010-10-15 | 2012-05-02 | Samsung Electronics Co Ltd | Validation and fast channel change for broadcast system |
US20120158769A1 (en) * | 2010-12-15 | 2012-06-21 | Dish Network L.L.C. | Music distribution and identification systems and methods |
US8799951B1 (en) | 2011-03-07 | 2014-08-05 | Google Inc. | Synchronizing an advertisement stream with a video source |
US9380356B2 (en) | 2011-04-12 | 2016-06-28 | The Nielsen Company (Us), Llc | Methods and apparatus to generate a tag for media content |
EP2700238B1 (en) | 2011-04-19 | 2018-09-19 | Nagravision S.A. | Ethernet decoder device and method to access protected content |
US9035163B1 (en) | 2011-05-10 | 2015-05-19 | Soundbound, Inc. | System and method for targeting content based on identified audio and multimedia |
SG185833A1 (en) * | 2011-05-10 | 2012-12-28 | Smart Communications Inc | System and method for recognizing broadcast program content |
US9137202B2 (en) | 2011-06-09 | 2015-09-15 | At&T Intellectual Property I, L.P. | System and method for dynamically adapting network delivery modes of content |
US9256673B2 (en) | 2011-06-10 | 2016-02-09 | Shazam Entertainment Ltd. | Methods and systems for identifying content in a data stream |
US9210208B2 (en) | 2011-06-21 | 2015-12-08 | The Nielsen Company (Us), Llc | Monitoring streaming media content |
US9209978B2 (en) | 2012-05-15 | 2015-12-08 | The Nielsen Company (Us), Llc | Methods and apparatus to measure exposure to streaming media |
WO2013009940A2 (en) * | 2011-07-12 | 2013-01-17 | Optinera Inc | Interacting with time-based content |
US8639178B2 (en) | 2011-08-30 | 2014-01-28 | Clear Channel Management Sevices, Inc. | Broadcast source identification based on matching broadcast signal fingerprints |
US9461759B2 (en) | 2011-08-30 | 2016-10-04 | Iheartmedia Management Services, Inc. | Identification of changed broadcast media items |
US9374183B2 (en) | 2011-08-30 | 2016-06-21 | Iheartmedia Management Services, Inc. | Broadcast source identification based on matching via bit count |
US8861937B2 (en) | 2011-08-31 | 2014-10-14 | The Nielsen Company (Us), Llc | Methods and apparatus to access media |
US9060206B2 (en) * | 2011-09-16 | 2015-06-16 | Nbcuniversal Media, Llc | Sampled digital content based syncronization of supplementary digital content |
US9460465B2 (en) | 2011-09-21 | 2016-10-04 | Genesys Telecommunications Laboratories, Inc. | Graphical menu builder for encoding applications in an image |
MX2014003610A (es) * | 2011-09-26 | 2014-11-26 | Sirius Xm Radio Inc | Sistema y metodo para incrementar la eficiencia del ancho de banda de transmision ("ebt2"). |
US11599915B1 (en) | 2011-10-25 | 2023-03-07 | Auddia Inc. | Apparatus, system, and method for audio based browser cookies |
JP2013110736A (ja) * | 2011-10-28 | 2013-06-06 | Nintendo Co Ltd | 情報処理システム、サーバシステム、端末システム、情報処理プログラム、および、情報提示方法 |
US8966525B2 (en) * | 2011-11-08 | 2015-02-24 | Verizon Patent And Licensing Inc. | Contextual information between television and user device |
WO2013072076A1 (en) | 2011-11-18 | 2013-05-23 | Nec Europe Ltd. | Method and system for identifying content |
BE1020406A3 (nl) * | 2011-11-25 | 2013-09-03 | Kult Bvba | Selecteren en verzenden van een informatiepakket. |
US20130173517A1 (en) * | 2011-12-30 | 2013-07-04 | Nokia Corporation | Method and apparatus for coordinating content across devices based on stimuli |
US9292894B2 (en) * | 2012-03-14 | 2016-03-22 | Digimarc Corporation | Content recognition and synchronization using local caching |
CN102663885B (zh) * | 2012-03-23 | 2017-11-07 | 中兴通讯股份有限公司 | 一种对显示设备进行操作的方法、系统及相关设备 |
US9301016B2 (en) | 2012-04-05 | 2016-03-29 | Facebook, Inc. | Sharing television and video programming through social networking |
US9703932B2 (en) * | 2012-04-30 | 2017-07-11 | Excalibur Ip, Llc | Continuous content identification of broadcast content |
KR101404596B1 (ko) * | 2012-05-03 | 2014-06-11 | (주)엔써즈 | 이미지에 기반하여 동영상 서비스를 제공하는 시스템 및 방법 |
US20130318114A1 (en) * | 2012-05-13 | 2013-11-28 | Harry E. Emerson, III | Discovery of music artist and title by broadcast radio receivers |
US9418669B2 (en) * | 2012-05-13 | 2016-08-16 | Harry E. Emerson, III | Discovery of music artist and title for syndicated content played by radio stations |
US9854276B2 (en) * | 2012-05-23 | 2017-12-26 | Saturn Licensing Llc | Information processing device, information processing method, and program |
JP2013257815A (ja) * | 2012-06-14 | 2013-12-26 | Sony Corp | 情報処理装置、情報処理方法およびプログラム |
US9330647B1 (en) * | 2012-06-21 | 2016-05-03 | Amazon Technologies, Inc. | Digital audio services to augment broadcast radio |
US9628829B2 (en) * | 2012-06-26 | 2017-04-18 | Google Technology Holdings LLC | Identifying media on a mobile device |
US9113203B2 (en) | 2012-06-28 | 2015-08-18 | Google Inc. | Generating a sequence of audio fingerprints at a set top box |
US8843952B2 (en) * | 2012-06-28 | 2014-09-23 | Google Inc. | Determining TV program information based on analysis of audio fingerprints |
US10957310B1 (en) | 2012-07-23 | 2021-03-23 | Soundhound, Inc. | Integrated programming framework for speech and text understanding with meaning parsing |
EP2690593A1 (en) | 2012-07-24 | 2014-01-29 | Nagravision S.A. | Method for marking and transmitting a content and method for detecting an identifyier of said content |
US9282366B2 (en) | 2012-08-13 | 2016-03-08 | The Nielsen Company (Us), Llc | Methods and apparatus to communicate audience measurement information |
US9699485B2 (en) | 2012-08-31 | 2017-07-04 | Facebook, Inc. | Sharing television and video programming through social networking |
US9661361B2 (en) | 2012-09-19 | 2017-05-23 | Google Inc. | Systems and methods for live media content matching |
EP2712203A1 (en) * | 2012-09-25 | 2014-03-26 | Nagravision S.A. | Method and system for enhancing redistributed audio / video content |
US20140095333A1 (en) * | 2012-09-28 | 2014-04-03 | Stubhub, Inc. | System and Method for Purchasing a Playlist Linked to an Event |
GB2506897A (en) | 2012-10-11 | 2014-04-16 | Imagination Tech Ltd | Obtaining stored music track information for a music track playing on a radio broadcast signal |
US8588432B1 (en) | 2012-10-12 | 2013-11-19 | Jeffrey Franklin Simon | Apparatus and method for authorizing reproduction and controlling of program transmissions at locations distant from the program source |
EP2728773A1 (en) * | 2012-11-06 | 2014-05-07 | Alcatel Lucent | Method and device for allowing mobile communication equipments to access to multimedia streams played on multimedia screens |
US10366419B2 (en) | 2012-11-27 | 2019-07-30 | Roland Storti | Enhanced digital media platform with user control of application data thereon |
US10339936B2 (en) | 2012-11-27 | 2019-07-02 | Roland Storti | Method, device and system of encoding a digital interactive response action in an analog broadcasting message |
US8615221B1 (en) * | 2012-12-06 | 2013-12-24 | Google Inc. | System and method for selection of notification techniques in an electronic device |
US20140196070A1 (en) * | 2013-01-07 | 2014-07-10 | Smrtv, Inc. | System and method for automated broadcast media identification |
US10320502B2 (en) * | 2013-01-14 | 2019-06-11 | Comcast Cable Communications, Llc | Audio capture |
US9313544B2 (en) | 2013-02-14 | 2016-04-12 | The Nielsen Company (Us), Llc | Methods and apparatus to measure exposure to streaming media |
US9008490B1 (en) | 2013-02-25 | 2015-04-14 | Google Inc. | Melody recognition systems |
US9451048B2 (en) * | 2013-03-12 | 2016-09-20 | Shazam Investments Ltd. | Methods and systems for identifying information of a broadcast station and information of broadcasted content |
US9460201B2 (en) | 2013-05-06 | 2016-10-04 | Iheartmedia Management Services, Inc. | Unordered matching of audio fingerprints |
US20140336797A1 (en) * | 2013-05-12 | 2014-11-13 | Harry E. Emerson, III | Audio content monitoring and identification of broadcast radio stations |
US20140336799A1 (en) * | 2013-05-13 | 2014-11-13 | Harry E. Emerson, III | Discovery of music artist and title via companionship between a cellular phone and a broadcast radio receiver |
CN104183253B (zh) * | 2013-05-24 | 2018-05-11 | 富泰华工业(深圳)有限公司 | 音乐播放系统、装置及方法 |
US9711152B2 (en) | 2013-07-31 | 2017-07-18 | The Nielsen Company (Us), Llc | Systems apparatus and methods for encoding/decoding persistent universal media codes to encoded audio |
US20150039321A1 (en) | 2013-07-31 | 2015-02-05 | Arbitron Inc. | Apparatus, System and Method for Reading Codes From Digital Audio on a Processing Device |
EP3031205A4 (en) * | 2013-08-07 | 2017-06-14 | Audiostreamtv Inc. | Systems and methods for providing synchronized content |
US10014006B1 (en) | 2013-09-10 | 2018-07-03 | Ampersand, Inc. | Method of determining whether a phone call is answered by a human or by an automated device |
US9053711B1 (en) | 2013-09-10 | 2015-06-09 | Ampersand, Inc. | Method of matching a digitized stream of audio signals to a known audio recording |
KR102095888B1 (ko) * | 2013-10-07 | 2020-04-01 | 삼성전자주식회사 | 방송 시청 패턴 정보를 제공하는 사용자 단말 장치, 서버 및 시청 패턴 정보 제공 방법 |
US9332035B2 (en) | 2013-10-10 | 2016-05-03 | The Nielsen Company (Us), Llc | Methods and apparatus to measure exposure to streaming media |
US9507849B2 (en) | 2013-11-28 | 2016-11-29 | Soundhound, Inc. | Method for combining a query and a communication command in a natural language computer system |
US9414129B2 (en) | 2013-12-04 | 2016-08-09 | Vizio Inc | Using client tuner devices to provide content fingerprinting in a networked system |
IN2014MU00140A (es) | 2014-01-15 | 2015-08-28 | Whats On India Media Private Ltd | |
US9292488B2 (en) | 2014-02-01 | 2016-03-22 | Soundhound, Inc. | Method for embedding voice mail in a spoken utterance using a natural language processing computer system |
US11295730B1 (en) | 2014-02-27 | 2022-04-05 | Soundhound, Inc. | Using phonetic variants in a local context to improve natural language understanding |
US9900656B2 (en) * | 2014-04-02 | 2018-02-20 | Whats On India Media Private Limited | Method and system for customer management |
EP2928094B1 (en) * | 2014-04-03 | 2018-05-30 | Alpine Electronics, Inc. | Receiving apparatus and method of providing information associated with received broadcast signals |
CN104978968A (zh) * | 2014-04-11 | 2015-10-14 | 鸿富锦精密工业(深圳)有限公司 | 水印加载装置及水印加载的方法 |
KR102137189B1 (ko) * | 2014-04-15 | 2020-07-24 | 엘지전자 주식회사 | 영상 표시 기기 및 그의 동작 방법 |
US20150302086A1 (en) * | 2014-04-22 | 2015-10-22 | Gracenote, Inc. | Audio identification during performance |
US9699499B2 (en) | 2014-04-30 | 2017-07-04 | The Nielsen Company (Us), Llc | Methods and apparatus to measure exposure to streaming media |
US9564123B1 (en) | 2014-05-12 | 2017-02-07 | Soundhound, Inc. | Method and system for building an integrated user profile |
US9832538B2 (en) | 2014-06-16 | 2017-11-28 | Cisco Technology, Inc. | Synchronizing broadcast timeline metadata |
WO2016007118A1 (en) * | 2014-07-07 | 2016-01-14 | Hewlett-Packard Development Company, L.P. | Portable speaker |
US10078636B2 (en) * | 2014-07-18 | 2018-09-18 | International Business Machines Corporation | Providing a human-sense perceivable representation of an aspect of an event |
US20160132600A1 (en) * | 2014-11-07 | 2016-05-12 | Shazam Investments Limited | Methods and Systems for Performing Content Recognition for a Surge of Incoming Recognition Queries |
US20160217136A1 (en) * | 2015-01-22 | 2016-07-28 | Itagit Technologies Fz-Llc | Systems and methods for provision of content data |
US10499108B2 (en) * | 2015-01-30 | 2019-12-03 | Sharp Kabushiki Kaisha | System for service usage reporting |
US10360583B2 (en) | 2015-02-05 | 2019-07-23 | Direct Path, Llc | System and method for direct response advertising |
WO2016162723A1 (en) * | 2015-04-09 | 2016-10-13 | Airshr Pty Ltd | Systems and methods for providing information and/or content associated with broadcast segments |
CN104820678B (zh) * | 2015-04-15 | 2018-10-19 | 小米科技有限责任公司 | 音频信息识别方法及装置 |
US9762965B2 (en) | 2015-05-29 | 2017-09-12 | The Nielsen Company (Us), Llc | Methods and apparatus to measure exposure to streaming media |
US20180124458A1 (en) * | 2015-06-23 | 2018-05-03 | Gregory Knox | Methods and systems for generating media viewing experiential data |
US20180115802A1 (en) * | 2015-06-23 | 2018-04-26 | Gregory Knox | Methods and systems for generating media viewing behavioral data |
US9913056B2 (en) | 2015-08-06 | 2018-03-06 | Dolby Laboratories Licensing Corporation | System and method to enhance speakers connected to devices with microphones |
US9900636B2 (en) | 2015-08-14 | 2018-02-20 | The Nielsen Company (Us), Llc | Reducing signature matching uncertainty in media monitoring systems |
KR20170027551A (ko) * | 2015-09-02 | 2017-03-10 | 삼성전자주식회사 | 전자 장치 및 그의 제어 방법 |
US11019385B2 (en) * | 2016-01-20 | 2021-05-25 | Samsung Electronics Co., Ltd. | Content selection for networked media devices |
US9992517B2 (en) | 2016-02-23 | 2018-06-05 | Comcast Cable Communications, Llc | Providing enhanced content based on user interactions |
US10063918B2 (en) | 2016-02-29 | 2018-08-28 | Gracenote, Inc. | Media channel identification with multi-match detection and disambiguation based on single-match |
US9924222B2 (en) | 2016-02-29 | 2018-03-20 | Gracenote, Inc. | Media channel identification with multi-match detection and disambiguation based on location |
WO2017151443A1 (en) * | 2016-02-29 | 2017-09-08 | Myteamcalls Llc | Systems and methods for customized live-streaming commentary |
US9930406B2 (en) | 2016-02-29 | 2018-03-27 | Gracenote, Inc. | Media channel identification with video multi-match detection and disambiguation based on audio fingerprint |
US9786298B1 (en) | 2016-04-08 | 2017-10-10 | Source Digital, Inc. | Audio fingerprinting based on audio energy characteristics |
US10922720B2 (en) | 2017-01-11 | 2021-02-16 | Adobe Inc. | Managing content delivery via audio cues |
US10545954B2 (en) * | 2017-03-15 | 2020-01-28 | Google Llc | Determining search queries for obtaining information during a user experience of an event |
WO2018183430A1 (en) | 2017-03-29 | 2018-10-04 | Sorenson Media, Inc. | Interactive overlays to determine viewer data |
US10277343B2 (en) * | 2017-04-10 | 2019-04-30 | Ibiquity Digital Corporation | Guide generation for music-related content in a broadcast radio environment |
US10271095B1 (en) | 2017-12-21 | 2019-04-23 | Samuel Chenillo | System and method for media segment indentification |
US10867185B2 (en) | 2017-12-22 | 2020-12-15 | Samuel Chenillo | System and method for media segment identification |
GB2578386B (en) | 2017-06-27 | 2021-12-01 | Cirrus Logic Int Semiconductor Ltd | Detection of replay attack |
GB201713697D0 (en) | 2017-06-28 | 2017-10-11 | Cirrus Logic Int Semiconductor Ltd | Magnetic detection of replay attack |
GB2563953A (en) | 2017-06-28 | 2019-01-02 | Cirrus Logic Int Semiconductor Ltd | Detection of replay attack |
US10652592B2 (en) * | 2017-07-02 | 2020-05-12 | Comigo Ltd. | Named entity disambiguation for providing TV content enrichment |
US11601715B2 (en) | 2017-07-06 | 2023-03-07 | DISH Technologies L.L.C. | System and method for dynamically adjusting content playback based on viewer emotions |
GB201801532D0 (en) | 2017-07-07 | 2018-03-14 | Cirrus Logic Int Semiconductor Ltd | Methods, apparatus and systems for audio playback |
GB201801528D0 (en) | 2017-07-07 | 2018-03-14 | Cirrus Logic Int Semiconductor Ltd | Method, apparatus and systems for biometric processes |
GB201801526D0 (en) | 2017-07-07 | 2018-03-14 | Cirrus Logic Int Semiconductor Ltd | Methods, apparatus and systems for authentication |
GB201801527D0 (en) | 2017-07-07 | 2018-03-14 | Cirrus Logic Int Semiconductor Ltd | Method, apparatus and systems for biometric processes |
GB201801530D0 (en) | 2017-07-07 | 2018-03-14 | Cirrus Logic Int Semiconductor Ltd | Methods, apparatus and systems for authentication |
US10574373B2 (en) * | 2017-08-08 | 2020-02-25 | Ibiquity Digital Corporation | ACR-based radio metadata in the cloud |
US10264315B2 (en) * | 2017-09-13 | 2019-04-16 | Bby Solutions, Inc. | Streaming events modeling for information ranking |
US10672015B2 (en) * | 2017-09-13 | 2020-06-02 | Bby Solutions, Inc. | Streaming events modeling for information ranking to address new information scenarios |
GB2567503A (en) | 2017-10-13 | 2019-04-17 | Cirrus Logic Int Semiconductor Ltd | Analysing speech signals |
GB201801874D0 (en) | 2017-10-13 | 2018-03-21 | Cirrus Logic Int Semiconductor Ltd | Improving robustness of speech processing system against ultrasound and dolphin attacks |
GB201801664D0 (en) | 2017-10-13 | 2018-03-21 | Cirrus Logic Int Semiconductor Ltd | Detection of liveness |
GB201804843D0 (en) | 2017-11-14 | 2018-05-09 | Cirrus Logic Int Semiconductor Ltd | Detection of replay attack |
GB201801663D0 (en) | 2017-10-13 | 2018-03-21 | Cirrus Logic Int Semiconductor Ltd | Detection of liveness |
GB201803570D0 (en) | 2017-10-13 | 2018-04-18 | Cirrus Logic Int Semiconductor Ltd | Detection of replay attack |
GB201801661D0 (en) | 2017-10-13 | 2018-03-21 | Cirrus Logic International Uk Ltd | Detection of liveness |
US10171877B1 (en) * | 2017-10-30 | 2019-01-01 | Dish Network L.L.C. | System and method for dynamically selecting supplemental content based on viewer emotions |
GB201801659D0 (en) | 2017-11-14 | 2018-03-21 | Cirrus Logic Int Semiconductor Ltd | Detection of loudspeaker playback |
CN108012173B (zh) * | 2017-11-16 | 2021-01-22 | 百度在线网络技术(北京)有限公司 | 一种内容识别方法、装置、设备和计算机存储介质 |
US10276175B1 (en) | 2017-11-28 | 2019-04-30 | Google Llc | Key phrase detection with audio watermarking |
US10715855B1 (en) * | 2017-12-20 | 2020-07-14 | Groupon, Inc. | Method, system, and apparatus for programmatically generating a channel incrementality ratio |
US11048946B2 (en) | 2017-12-21 | 2021-06-29 | Samuel Chenillo | System and method for identifying cognate image sequences |
US11735189B2 (en) | 2018-01-23 | 2023-08-22 | Cirrus Logic, Inc. | Speaker identification |
US11264037B2 (en) | 2018-01-23 | 2022-03-01 | Cirrus Logic, Inc. | Speaker identification |
US11475899B2 (en) | 2018-01-23 | 2022-10-18 | Cirrus Logic, Inc. | Speaker identification |
US10848792B2 (en) * | 2018-03-05 | 2020-11-24 | Maestro Interactive, Inc. | System and method for providing audience-targeted content triggered by events during program |
US10826634B2 (en) * | 2018-05-04 | 2020-11-03 | Ibiquity Digital Corporation | System and method for in-vehicle live guide generation |
US10692490B2 (en) | 2018-07-31 | 2020-06-23 | Cirrus Logic, Inc. | Detection of replay attack |
EP3791495A1 (en) | 2018-08-23 | 2021-03-17 | Google LLC | Radio station recommendations |
US10915614B2 (en) | 2018-08-31 | 2021-02-09 | Cirrus Logic, Inc. | Biometric authentication |
US11037574B2 (en) | 2018-09-05 | 2021-06-15 | Cirrus Logic, Inc. | Speaker recognition and speaker change detection |
EP3686609A1 (en) * | 2019-01-25 | 2020-07-29 | Rohde & Schwarz GmbH & Co. KG | Measurement system and method for recording context information of a measurement |
US11259058B2 (en) * | 2019-03-25 | 2022-02-22 | Apple Inc. | Use of rendered media to assess delays in media distribution systems |
US11678031B2 (en) | 2019-04-19 | 2023-06-13 | Microsoft Technology Licensing, Llc | Authoring comments including typed hyperlinks that reference video content |
US11026000B2 (en) * | 2019-04-19 | 2021-06-01 | Microsoft Technology Licensing, Llc | Previewing video content referenced by typed hyperlinks in comments |
US11785194B2 (en) | 2019-04-19 | 2023-10-10 | Microsoft Technology Licensing, Llc | Contextually-aware control of a user interface displaying a video and related user text |
CN110267067B (zh) * | 2019-06-28 | 2021-07-16 | 广州酷狗计算机科技有限公司 | 直播间推荐的方法、装置、设备及存储介质 |
US11025354B2 (en) | 2019-07-19 | 2021-06-01 | Ibiquity Digital Corporation | Targeted fingerprinting of radio broadcast audio |
WO2021015716A1 (en) * | 2019-07-19 | 2021-01-28 | Ibiquity Digital Corporation | Targeted fingerprinting of radio broadcast audio |
US10834466B1 (en) * | 2019-08-02 | 2020-11-10 | International Business Machines Corporation | Virtual interactivity for a broadcast content-delivery medium |
US11563517B2 (en) * | 2019-08-08 | 2023-01-24 | Qualcomm Incorporated | Managing broadcast channels based on bandwidth |
US11321904B2 (en) | 2019-08-30 | 2022-05-03 | Maxon Computer Gmbh | Methods and systems for context passing between nodes in three-dimensional modeling |
US11714928B2 (en) | 2020-02-27 | 2023-08-01 | Maxon Computer Gmbh | Systems and methods for a self-adjusting node workspace |
US11373369B2 (en) | 2020-09-02 | 2022-06-28 | Maxon Computer Gmbh | Systems and methods for extraction of mesh geometry from straight skeleton for beveled shapes |
US11284139B1 (en) * | 2020-09-10 | 2022-03-22 | Hulu, LLC | Stateless re-discovery of identity using watermarking of a video stream |
US11405684B1 (en) * | 2021-01-08 | 2022-08-02 | Christie Digital Systems Usa, Inc. | Distributed media player for digital cinema |
US11589100B1 (en) * | 2021-03-31 | 2023-02-21 | Amazon Technologies, Inc. | On-demand issuance private keys for encrypted video transmission |
US11496776B1 (en) * | 2021-07-19 | 2022-11-08 | Intrado Corporation | Database layer caching for video communications |
US11831943B2 (en) * | 2021-10-26 | 2023-11-28 | Apple Inc. | Synchronized playback of media content |
Family Cites Families (49)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4843562A (en) * | 1987-06-24 | 1989-06-27 | Broadcast Data Systems Limited Partnership | Broadcast information classification system and method |
US5210820A (en) * | 1990-05-02 | 1993-05-11 | Broadcast Data Systems Limited Partnership | Signal recognition system and method |
US7711564B2 (en) * | 1995-07-27 | 2010-05-04 | Digimarc Corporation | Connected audio and other media objects |
US6829368B2 (en) * | 2000-01-26 | 2004-12-07 | Digimarc Corporation | Establishing and interacting with on-line media collections using identifiers in media signals |
US7171018B2 (en) * | 1995-07-27 | 2007-01-30 | Digimarc Corporation | Portable devices and methods employing digital watermarking |
US20020120925A1 (en) * | 2000-03-28 | 2002-08-29 | Logan James D. | Audio and video program recording, editing and playback systems using metadata |
US20030093790A1 (en) * | 2000-03-28 | 2003-05-15 | Logan James D. | Audio and video program recording, editing and playback systems using metadata |
JPH1155201A (ja) * | 1997-07-29 | 1999-02-26 | Sony Corp | 情報処理装置および方法、情報処理システム、並びに伝送媒体 |
US6408128B1 (en) * | 1998-11-12 | 2002-06-18 | Max Abecassis | Replaying with supplementary information a segment of a video |
US20070100757A1 (en) * | 1999-05-19 | 2007-05-03 | Rhoads Geoffrey B | Content Protection Arrangements |
US7110714B1 (en) * | 1999-08-27 | 2006-09-19 | Kay Matthew W | Television commerce system with program identifiers |
AU1769701A (en) * | 1999-11-23 | 2001-06-04 | Radiant Systems, Inc. | Audio request interaction system |
US6834308B1 (en) * | 2000-02-17 | 2004-12-21 | Audible Magic Corporation | Method and apparatus for identifying media content presented on a media playing device |
US6990453B2 (en) | 2000-07-31 | 2006-01-24 | Landmark Digital Services Llc | System and methods for recognizing sound and music signals in high noise and distortion |
US7085613B2 (en) * | 2000-11-03 | 2006-08-01 | International Business Machines Corporation | System for monitoring audio content in a video broadcast |
EP1362485B1 (en) * | 2001-02-12 | 2008-08-13 | Gracenote, Inc. | Generating and matching hashes of multimedia content |
US6714594B2 (en) * | 2001-05-14 | 2004-03-30 | Koninklijke Philips Electronics N.V. | Video content detection method and system leveraging data-compression constructs |
AU2002346116A1 (en) * | 2001-07-20 | 2003-03-03 | Gracenote, Inc. | Automatic identification of sound recordings |
JP4086780B2 (ja) * | 2001-09-10 | 2008-05-14 | トムソン ライセンシング | オーディオ・データ・プレーヤーにプレイリストを供給する方法 |
US20030167211A1 (en) * | 2002-03-04 | 2003-09-04 | Marco Scibora | Method and apparatus for digitally marking media content |
WO2003091899A2 (en) | 2002-04-25 | 2003-11-06 | Neuros Audio, Llc | Apparatus and method for identifying audio |
PT1504445E (pt) | 2002-04-25 | 2008-11-24 | Landmark Digital Services Llc | Emparelhamento de padrões áudio robusto e invariante |
US20040249965A1 (en) * | 2003-05-05 | 2004-12-09 | Huggins Guy Dwayne | Node caching system for streaming media applications |
US7231176B2 (en) * | 2004-02-06 | 2007-06-12 | Jeffrey Levy | Methods and system for retrieving music information from wireless telecommunication devices |
GB0403218D0 (en) * | 2004-02-13 | 2004-03-17 | Royal Holloway University Of L | Controlling transmission of broadcast content |
WO2005079510A2 (en) * | 2004-02-17 | 2005-09-01 | Auditude.Com, Inc. | Generation of a media content database by correlating repeating media content in media streams |
CA2556553A1 (en) * | 2004-02-18 | 2005-09-01 | Nielsen Media Research, Inc. | Methods and apparatus to determine audience viewing of video-on-demand programs |
JP4933899B2 (ja) | 2004-02-19 | 2012-05-16 | ランドマーク、ディジタル、サーヴィセズ、エルエルシー | 放送源の識別のための方法および装置 |
US20050197724A1 (en) * | 2004-03-08 | 2005-09-08 | Raja Neogi | System and method to generate audio fingerprints for classification and storage of audio clips |
US8688248B2 (en) * | 2004-04-19 | 2014-04-01 | Shazam Investments Limited | Method and system for content sampling and identification |
WO2005101998A2 (en) * | 2004-04-19 | 2005-11-03 | Landmark Digital Services Llc | Content sampling and identification |
US9826046B2 (en) * | 2004-05-05 | 2017-11-21 | Black Hills Media, Llc | Device discovery for digital entertainment network |
US20050267750A1 (en) * | 2004-05-27 | 2005-12-01 | Anonymous Media, Llc | Media usage monitoring and measurement system and method |
US20060067260A1 (en) * | 2004-09-30 | 2006-03-30 | Timo Tokkonen | Updating associating data in a media device |
US7574451B2 (en) * | 2004-11-02 | 2009-08-11 | Microsoft Corporation | System and method for speeding up database lookups for multiple synchronized data streams |
US20060105702A1 (en) * | 2004-11-17 | 2006-05-18 | Muth Edwin A | System and method for interactive monitoring of satellite radio use |
KR100713517B1 (ko) * | 2004-11-26 | 2007-05-02 | 삼성전자주식회사 | 메타 데이터를 이용한 녹화가 가능한 pvr과 그 녹화제어 방법 |
WO2006132622A2 (en) * | 2005-06-03 | 2006-12-14 | Nielsen Media Research, Inc. | Methods and apparatus to detect a time-shift event associated with the presentation of media content |
US20070143779A1 (en) * | 2005-12-20 | 2007-06-21 | Kari Kaarela | Location info-based automatic setup of broadcast receiver devices |
US20070143788A1 (en) * | 2005-12-21 | 2007-06-21 | Abernethy Michael N Jr | Method, apparatus, and program product for providing local information in a digital video stream |
US8059646B2 (en) * | 2006-07-11 | 2011-11-15 | Napo Enterprises, Llc | System and method for identifying music content in a P2P real time recommendation network |
US20080049704A1 (en) * | 2006-08-25 | 2008-02-28 | Skyclix, Inc. | Phone-based broadcast audio identification |
US20080051029A1 (en) * | 2006-08-25 | 2008-02-28 | Bradley James Witteman | Phone-based broadcast audio identification |
US7881657B2 (en) | 2006-10-03 | 2011-02-01 | Shazam Entertainment, Ltd. | Method for high-throughput identification of distributed broadcast content |
EP2153580A4 (en) * | 2007-06-05 | 2011-05-18 | Lane Systems Inc E | MEDIA EXCHANGE SYSTEM |
US8959108B2 (en) * | 2008-06-18 | 2015-02-17 | Zeitera, Llc | Distributed and tiered architecture for content search and content monitoring |
US9047371B2 (en) | 2010-07-29 | 2015-06-02 | Soundhound, Inc. | System and method for matching a query against a broadcast stream |
US9703932B2 (en) * | 2012-04-30 | 2017-07-11 | Excalibur Ip, Llc | Continuous content identification of broadcast content |
US9161074B2 (en) * | 2013-04-30 | 2015-10-13 | Ensequence, Inc. | Methods and systems for distributing interactive content |
-
2007
- 2007-10-03 US US11/866,814 patent/US7881657B2/en active Active
- 2007-10-03 EP EP07843742.3A patent/EP2070231B1/en active Active
- 2007-10-03 WO PCT/US2007/080292 patent/WO2008042953A1/en active Application Filing
- 2007-10-03 ES ES07843742T patent/ES2433966T3/es active Active
-
2009
- 2009-12-17 HK HK09111879.4A patent/HK1135527A1/xx unknown
-
2010
- 2010-12-22 US US12/976,050 patent/US8086171B2/en active Active
-
2011
- 2011-12-01 US US13/309,222 patent/US8442426B2/en active Active
-
2013
- 2013-04-23 US US13/868,708 patent/US9361370B2/en active Active
-
2015
- 2015-03-30 US US14/672,881 patent/US9864800B2/en active Active
-
2017
- 2017-12-13 US US15/840,025 patent/US20180101610A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
WO2008042953A1 (en) | 2008-04-10 |
US20120079515A1 (en) | 2012-03-29 |
EP2070231A1 (en) | 2009-06-17 |
US9361370B2 (en) | 2016-06-07 |
US20080082510A1 (en) | 2008-04-03 |
US20180101610A1 (en) | 2018-04-12 |
US20150205865A1 (en) | 2015-07-23 |
EP2070231B1 (en) | 2013-07-03 |
US20130247082A1 (en) | 2013-09-19 |
HK1135527A1 (en) | 2010-06-04 |
US20110099197A1 (en) | 2011-04-28 |
US7881657B2 (en) | 2011-02-01 |
US8442426B2 (en) | 2013-05-14 |
US8086171B2 (en) | 2011-12-27 |
US9864800B2 (en) | 2018-01-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2433966T3 (es) | Método para caudal alto de identificación de contenido de radiodifusión distribuido | |
US9225444B2 (en) | Method and apparatus for identification of broadcast source | |
ES2569423T3 (es) | Identificación automática de material repetido en señales de audio | |
US9332522B2 (en) | Audiolocation system combining use of audio fingerprinting and audio watermarking | |
US10757456B2 (en) | Methods and systems for determining a latency between a source and an alternative feed of the source | |
US20080091366A1 (en) | Method of Characterizing the Overlap of Two Media Segments | |
US7719465B2 (en) | Method of acquiring initial GPS signal in broadcasting system and system using the method | |
CA2837741A1 (en) | Methods and systems for performing comparisons of received data and providing a follow-on service based on the comparisons | |
RU2585250C2 (ru) | Система и способ распознавания содержимого широковещательной программы | |
CN100387098C (zh) | 一种基于位置的信息提供方法和系统 | |
Yaslan et al. | A context-aware mobile application framework using audio watermarking | |
EP1464980A1 (en) | Method for determining a spatial position |