ES2747599T3 - Procedimientos y sistemas para mostrar información contextualmente relevante en relación con un recurso de medios - Google Patents
Procedimientos y sistemas para mostrar información contextualmente relevante en relación con un recurso de medios Download PDFInfo
- Publication number
- ES2747599T3 ES2747599T3 ES17211183T ES17211183T ES2747599T3 ES 2747599 T3 ES2747599 T3 ES 2747599T3 ES 17211183 T ES17211183 T ES 17211183T ES 17211183 T ES17211183 T ES 17211183T ES 2747599 T3 ES2747599 T3 ES 2747599T3
- Authority
- ES
- Spain
- Prior art keywords
- event
- context
- media resource
- media
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/466—Learning process for intelligent management, e.g. learning user preferences for recommending movies
- H04N21/4668—Learning process for intelligent management, e.g. learning user preferences for recommending movies for recommending content, e.g. movies
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/8126—Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts
- H04N21/8133—Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts specifically related to the content, e.g. biography of the actors in a movie, detailed information about an article seen in a video programme
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/266—Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
- H04N21/2665—Gathering content from different sources, e.g. Internet and satellite
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/462—Content or additional data management e.g. creating a master electronic programme guide from data received from the Internet and a Head-end or controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
- H04N21/4622—Retrieving content or additional data from different sources, e.g. from a broadcast channel and the Internet
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/4722—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/475—End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data
- H04N21/4758—End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data for providing answers, e.g. voting
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/4788—Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/16—Analogue secrecy systems; Analogue subscription systems
- H04N7/173—Analogue secrecy systems; Analogue subscription systems with two-way working, e.g. subscriber sending a programme selection signal
- H04N7/17309—Transmission or handling of upstream communications
- H04N7/17318—Direct or substantially direct transmission and handling of requests
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0201—Market modelling; Market analysis; Collecting market data
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0241—Advertisements
- G06Q30/0242—Determining effectiveness of advertisements
- G06Q30/0245—Surveys
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Astronomy & Astrophysics (AREA)
- Physics & Mathematics (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- User Interface Of Digital Computer (AREA)
- Machine Translation (AREA)
Abstract
Un procedimiento para proporcionar contenido complementario asociado con un recurso de medios, que comprende: recibir datos introducidos por un usuario desde un dispositivo de usuario para obtener información complementaria sobre el contexto de un evento que se muestra en el recurso de medios; determinar automáticamente el contexto del evento en función de los datos asociados con el evento, donde el evento es una declaración o gesto realizado por un personaje o persona en el recurso de medios; determinar la información adicional requerida para generar la información complementaria sobre el contexto del evento que se muestra en el recurso de medios; generar una solicitud de información adicional; seleccionar una pluralidad de usuarios para recibir la solicitud de información adicional basada en la pluralidad de usuarios que pertenecen a una red social asociada con el usuario; transmitir, a la pluralidad de usuarios, la solicitud de información adicional sobre el contexto del evento que se muestra en el recurso de medios; recibir mensajes de la pluralidad de usuarios en respuesta a la solicitud; generar información complementaria asociada con el contexto del evento basada en los mensajes; transmitir la información complementaria generada al dispositivo de usuario; y generar para su visualización el recurso de medios y la información complementaria generada.
Description
DESCRIPCIÓN
Procedimientos y sistemas para mostrar información contextualmente relevante en relación con un recurso de medios Antecedentes de la invención
Esta solicitud reivindica el beneficio del número de solicitud de patente de Estados Unidos 13/705.837 presentada el miércoles 5 de diciembre de 2012.
Mientras ven recursos de medios (p. ej., un programa de televisión), los usuarios pueden desear obtener más información sobre un evento (p. ej., una declaración hecha por una persona que aparece en el recurso de medios, la validez de una afirmación en un anuncio, etc.) que aparezca en dicho recurso. Si bien algunos recursos de medios permiten al usuario seleccionar opciones o características adicionales (p. ej., biografías emergentes sobre el reparto y el equipo), cuándo aparecen las características adicionales y sobre qué tema tratan viene determinado por el productor de contenido y no por el usuario. Además, como la característica adicional se deriva del productor de contenido, puede estar sesgada o puede presentar puntos de vista limitados sobre un evento. Por lo tanto, las características adicionales proporcionadas por un productor de contenido pueden no proporcionar la información adicional sobre un evento que el usuario desea.
Para obtener la información adicional que desea, el usuario puede usar dispositivos adicionales (p. ej., un ordenador portátil) para buscar (p. ej., utilizando un motor de búsqueda en Internet) más información sobre el evento. Sin embargo, sin conocer el contexto apropiado del evento (p. ej., quién hizo la declaración, cuál fue su tono, cuándo se hizo dicha declaración, etc.) o qué términos de búsqueda usar para describir el contexto del evento (p. ej., cómo describir el tono de la declaración), es posible que un usuario no pueda conseguir (incluso utilizando un motor de búsqueda) más información sobre el evento. Además, el uso de términos de búsqueda generales puede no proporcionar la precisión que el usuario necesita. Además, incluso aunque un usuario pueda finalmente obtener la información, el esfuerzo y el tiempo requerido pueden distraer a ese usuario del recurso de medios.
RESUMEN DE LA DESCRIPCIÓN
En consecuencia, los procedimientos y sistemas descritos en esta invención sirven para mostrar rápida y fácilmente información complementaria sobre un evento que aparezca en un recurso de medios. En algunas realizaciones, una aplicación de medios puede usar un módulo de reconocimiento de contenido para determinar el contexto de un evento en un recurso de medios y distribuir tareas detalladas a múltiples usuarios para generar la información complementaria sobre el evento. El módulo de reconocimiento de contexto evita que el usuario se distraiga del recurso de medios (p. ej., mientras intenta describir el contexto del evento o buscar información sobre el mismo). Además, al distribuir tareas a múltiples entidades (p. ej., crowdsourcing), la aplicación de medios puede recopilar grandes cantidades de información en períodos de tiempo relativamente cortos (o en tiempo real) y agregar y/o filtrar la información para generar información complementaria sobre el evento basada en múltiples puntos de vista y/o fuentes. Al utilizar múltiples puntos de vista y/o fuentes, la aplicación de medios mejora la integridad (p. ej., proporcionando información no sesgada) y la precisión de la información complementaria.
Por ejemplo, cuando un personaje o una persona que aparece en un recurso de medios (p. ej., un programa de televisión) hace una declaración o acción, un usuario puede solicitar información complementaria sobre dicha declaración o acción. En respuesta, la aplicación de medios puede determinar el contexto de la declaración (p. ej., quién hizo la declaración y a qué se refería) o acción(p. ej., cuál fue el motivo de la acción). Después de determinar el contexto de la declaración o acción, la aplicación de medios puede detallar en tareas la información adicional que requiere para generar la información complementaria. La aplicación de medios puede entonces transmitir las solicitudes que incluyen las tareas a una pluralidad de otros usuarios. Con base en las respuestas de la pluralidad de otros usuarios, la aplicación de medios puede generar información complementaria para mostrársela al usuario. En algunas realizaciones, una aplicación de medios puede usar múltiples tipos de módulos y/o algoritmos de reconocimiento de contenido para determinar el contexto de un evento. Por ejemplo, la aplicación de medios puede procesar datos asociados con el evento para determinar su contexto. En algunas realizaciones, el procesamiento de los diversos tipos de datos puede incluir referencias cruzadas de los datos a una base de datos que incluya los diferentes contextos que puede tener el evento.
En algunas realizaciones, una aplicación de medios puede generar información complementaria sobre un evento en un recurso de medios en respuesta a una solicitud del usuario. Para generar la información complementaria, la aplicación de medios puede transmitir a múltiples usuarios una solicitud de información adicional con respecto al contexto de un evento que se muestra en un recurso de medios. Al recibir mensajes de la pluralidad de usuarios que incluyen la información adicional solicitada, la aplicación de medios puede generar la información complementaria asociada al contexto del evento en función de los mensajes.
Cabe señalar que los sistemas y/o procedimientos descritos anteriormente pueden aplicarse a o utilizarse de acuerdo con otros sistemas, procedimientos y/o aparatos.
Breve descripción de los dibujos
Lo anteriormente expuesto y otros objetivos y ventajas de la descripción resultarán evidentes tras la consideración de la siguiente descripción detallada, tomada conjuntamente con los dibujos adjuntos, en la que los caracteres de referencia similares se refieren a partes similares a lo largo de los mismos y en los que:
la FIG. 1 muestra un ejemplo ilustrativo de una aplicación de medios que puede usarse para mostrar información complementaria de acuerdo con algunas realizaciones de la descripción;
la FIG. 2 muestra un ejemplo ilustrativo de un sistema que puede usarse para generar información complementaria basada en información adicional proporcionada por una pluralidad de usuarios de acuerdo con algunas realizaciones de la descripción;
la FIG. 3 es un diagrama de bloque de un dispositivo de equipo de usuario ilustrativo de acuerdo con algunas realizaciones de la descripción;
la FIG. 4 es un diagrama de bloque de un sistema de medios ilustrativo de acuerdo con algunas realizaciones de la descripción;
la FIG. 5 es un ejemplo ilustrativo de una estructura de datos que puede usarse para determinar el contexto de un evento en un recurso de medios de acuerdo con algunas realizaciones de la descripción;
la FIG. 6 es un diagrama de flujo de pasos ilustrativos de la transmisión de información complementaria generada para un usuario en respuesta a una solicitud de información complementaria de acuerdo con algunas realizaciones de la descripción;
la FIG. 7 es un diagrama de flujo de pasos ilustrativos de la distribución de tareas detalladas a múltiples usuarios con el fin de generar información complementaria sobre un evento en un recurso de medios de acuerdo con algunas realizaciones de la descripción;
la FIG. 8 es un diagrama de flujo de pasos ilustrativos para determinar el contexto de un evento usando un módulo de reconocimiento de contenido de acuerdo con algunas realizaciones de la descripción; y
la FIG. 9 es un diagrama de flujo de pasos ilustrativos para generar información complementaria basada en información adicional proporcionada por una pluralidad de usuarios de acuerdo con algunas realizaciones de la descripción. Descripción detallada de los dibujos
En consecuencia, los procedimientos y sistemas descritos en esta invención sirven para mostrar rápida y fácilmente información complementaria sobre un evento que aparezca en un recurso de medios. Los procedimientos y sistemas descritos en esta invención satisfacen la necesidad de los usuarios de determinar el contexto adecuado (p. ej., quién dijo una declaración, cuál fue su tono, cuándo se hizo la declaración, etc.) de un evento en un recurso de medios, o los términos de búsqueda a usar para describir el evento (p. ej., los términos de búsqueda adecuados para describir el tono de la declaración), a fin de obtener más información sobre el evento. Además, los procedimientos y sistemas aumentan la integridad y precisión de la información en comparación con la información recopilada utilizando métodos de búsqueda tradicionales (p. ej., un motor de búsqueda en Internet), sin distraer al usuario del recurso de medios. En algunas realizaciones, una aplicación de medios puede recibir datos del usuario desde su dispositivo para obtener información complementaria sobre el contexto de un evento que se muestra en un recurso de medios. La aplicación de medios puede determinar la información adicional requerida para generar la información complementaria sobre el contexto del evento que se muestra en un recurso de medios y transmitir solicitudes de información adicional a uno o más usuarios. La aplicación de medios puede recibir uno o más mensajes, que incluyan la información adicional
solicitada de uno o más usuarios y generar la información complementaria basada en uno o más mensajes. La aplicación de medios puede entonces indicar al dispositivo de usuario que muestre la información complementaria.
Como se usa en esta invención, «información complementaria» se refiere a cualquier información relacionada o asociada con un evento en un recurso de medios. Por ejemplo, la información complementaria puede incluir, aunque sin limitación, la verificación de una declaración o afirmación en un recurso de medios, descripciones adicionales y/o información sobre objetos o entidades mostradas y/o descritas en un recurso de medios, y/o cualquier otra información, que incluya, entre otros, un segmento de vídeo o audio sobre un evento que pueda interesar a un usuario en un recurso de medios. En algunas realizaciones, la aplicación de medios puede generar información complementaria basada en una o más piezas de información adicional.
Como se usa en esta invención, «información adicional» se refiere a cualquier información utilizada para generar información complementaria. Por ejemplo, en una realización en la que la información complementaria es la verificación de una declaración realizada por una persona y que se ha mostrado en un recurso de medios, y una solicitud de información adicional de la aplicación de medios incluye la petición de un hecho necesario para verificar la base fáctica de la declaración, la información adicional puede ser el hecho utilizado para verificar dicha declaración. Por ejemplo, si un anuncio afirma tener el mejor producto del mercado, la aplicación de medios puede usar información adicional, como el nombre del producto en cuestión, una lista del resto de productos del mercado y los resultados de un estudio comparativo del producto en cuestión con el resto de productos para determinar si el producto es realmente el «mejor» producto del mercado. De manera adicional o alternativa, la aplicación de medios puede solicitar reseñas del sector y/o de los usuarios relacionadas con el evento (p. ej., reseñas que indiquen la calidad del producto). La aplicación de medios puede entonces usar la información de las reseñas para generar la información complementaria.
Como se usa en esta invención, un «evento» es cualquier acción (p. ej., una declaración verbal, opinión y/o movimiento físico), segmento (p. ej., una parte de una transmisión de noticias que presenta un tema en particular) u otro acontecimiento que aparezca en un recurso de medios y que pueda ser de particular interés para un usuario. Un evento es una declaración o gesto realizado por un personaje o persona en un recurso de medios que realiza o niega una afirmación.
Como se hace referencia en esta invención, los términos «recurso de medios» y «contenido» deben entenderse como recursos de usuario consumibles de manera electrónica, como la programación televisiva, programas de pago por visión, programas a la carta (como los sistemas de vídeo a la carta (VOD por sus siglas en inglés)), contenido de Internet (p. ej., contenido en continuo, contenido que puede descargarse, transmisiones vía Internet, etc.), videoclips, audios, información de contenidos, imágenes, imágenes rotatorias, documentos, listas de reproducción, páginas web, artículos, libros, libros electrónicos, blogs, anuncios, sesiones de chat, redes sociales, aplicaciones, juegos y/o cualquier otro medio o recurso multimedia y/o una combinación de los mismos. Las aplicaciones de medios también permiten a los usuarios navegar por y localizar el contenido. Como se hace referencia en esta invención, el término «multimedia» debe entenderse como contenido que utiliza al menos dos formas diferentes de contenido de las descritas anteriormente, por ejemplo, texto, audio, imágenes, vídeo o formas de contenido interactivo. El contenido puede grabarse, reproducirse, exhibirse o accederse a él a través de dispositivos de equipo de usuario, pero también puede ser parte de una actuación en vivo.
Como se hace referencia en esta invención, las expresiones «dispositivo de equipo de usuario», «equipo de usuario», «dispositivo de usuario», «dispositivo electrónico», «equipo electrónico», «dispositivo de equipo de medios» o «dispositivo de medios» deben entenderse como cualquier dispositivo para acceder al contenido antes descrito, como un televisor, una Smart TV, un decodificador, un decodificador receptor integrado (IRD) para el manejo de televisión por satélite, un dispositivo de almacenamiento digital, un receptor de medios digitales (DMR), un adaptador de medios digitales (DMA), un dispositivo de medios de transmisión en continuo, un reproductor de DVD, una grabadora de DVD, un DVD conectado, un servidor de medios locales, un reproductor de BLU-RAY, una grabadora de BLU-RAY, un ordenador personal (PC), un ordenador portátil, una tableta, un decodificador de TV por Internet, un sintonizador de TV para PC (PC/TV), un servidor de medios de PC, un centro de medios de PC, un ordenador de mano, un teléfono fijo, un asistente digital personal (PDA), un teléfono móvil, un reproductor de vídeo portátil, un reproductor de música portátil, una consola de juegos portátil, un teléfono inteligente o cualquier otro equipo de televisión, equipo informático, dispositivo inalámbrico y/o cualquier combinación de los mismos.
En algunas realizaciones, el dispositivo de equipo de usuario puede presentar una pantalla que mira hacia delante y otra que mira hacia atrás, múltiples pantallas frontales o múltiples pantallas angulares. En algunas realizaciones, el dispositivo de equipo de usuario puede presentar una cámara que mira hacia el frente y/o una cámara que mira hacia atrás. En estos dispositivos de equipo de usuario, los usuarios pueden navegar por y localizar el mismo contenido disponible a través de un televisor. Por lo tanto, los medios también podrían estar disponibles en estos dispositivos. Los medios proporcionados pueden ser para contenido disponible solamente a través de un televisor, para contenido disponible solo a través de uno o más de otros tipos de dispositivos de equipo de usuario, o para contenido disponible
tanto a través de un televisor como de uno o más de dichos dispositivos. Las aplicaciones de medios pueden proporcionarse como aplicaciones en línea (es decir, proporcionadas en un sitio web), o como aplicaciones independientes o clientes en dispositivos de equipo de usuario. A continuación, se describen con más detalle diversos dispositivos y plataformas que pueden implementar aplicaciones de medios.
En algunas realizaciones, una aplicación de medios puede transmitir a una pluralidad de usuarios una solicitud de información adicional con respecto al contexto de un evento que se muestra en un recurso de medios. Como se usa en esta invención, una «pluralidad de usuarios» puede incluir, entre otros, cualquier dispositivo, entidad o fuente de información que pueda procesar una solicitud de información adicional. Por ejemplo, la pluralidad de usuarios puede incluir una persona que maneja un dispositivo de equipo de usuario. En algunas realizaciones, la persona puede recibir (p. ej., por correo electrónico, publicación en Internet, publicidad o cualquier otro método de entrega de información aplicable) la solicitud de la aplicación de medios para obtener información adicional y generar como respuesta un mensaje (p. ej., una contestación a un correo electrónico, una respuesta a la publicación en Internet, una entrada del usuario en el anuncio o cualquier otro método aplicable de transmisión de información) que incluya la información adicional. Cabe señalar que, en algunas realizaciones, la transmisión de una solicitud a una pluralidad de usuarios también puede incluir la consulta de una o más bases de datos (p. ej., un motor de búsqueda en Internet o cualquier otro dispositivo de almacenamiento, incluidas, entre otras, bases de datos de información complementaria generada previamente y/o información adicional) o la consulta de uno o más servicios de recopilación de datos (p. ej., una aplicación de asistente personal inteligente) para obtener información adicional.
En algunas realizaciones, una aplicación de medios puede usar un módulo de reconocimiento de contenido o algoritmo para determinar el contexto de un evento y distribuir tareas detalladas a múltiples usuarios para generar la información complementaria sobre el evento. El módulo de reconocimiento de contenido puede utilizar técnicas de reconocimiento de objetos como la detección de bordes, reconocimiento de patrones, incluyendo, aunque sin limitación, sistemas de autoaprendizaje (p. ej., redes neuronales), reconocimiento óptico de caracteres, reconocimiento de caracteres en línea (incluyendo, aunque sin limitación, reconocimiento dinámico de caracteres, reconocimiento de caracteres en tiempo real, reconocimiento inteligente de caracteres) y/o cualquier otra técnica o procedimiento adecuado para determinar los objetos y/o características de los recursos de medios. Por ejemplo, la aplicación de medios puede recibir recursos de medios en forma de vídeo. El vídeo puede incluir una serie de fotogramas. Para cada fotograma de vídeo, la aplicación de medios puede usar un módulo o algoritmo de reconocimiento de contenido para determinar el contexto (p. ej., la persona que está hablando o un gesto facial que afirma o niega una declaración) de un evento que ocurre en el fotograma o serie de fotogramas.
En algunas realizaciones, el módulo o algoritmo de reconocimiento de contenido también puede incluir técnicas de reconocimiento de voz, incluyendo, aunque sin limitación, modelos de Markov ocultos, distorsión dinámica de tiempo y/o redes neuronales (como se han descrito anteriormente) para convertir las palabras pronunciadas a texto. El módulo de reconocimiento de contenido también puede usar otras técnicas adecuadas para procesar datos de audio y/o visuales. Por ejemplo, la aplicación de medios puede analizar el volumen de una declaración en un recurso de medios para determinar el tono de la declaración (p. ej., un volumen alto puede indicar un tono enojado).
Además, la aplicación de medios puede usar diversos tipos de reconocimiento óptico de caracteres y/o lógica difusa, por ejemplo, al determinar el contexto de una o varias palabras clave recuperadas de los datos (p. ej., datos de medios, datos de audio traducidos, datos de subtítulos, datos generados por el usuario, etc.) asociados con el recurso de medios (o cuando se hacen referencias cruzadas de varios tipos de datos a bases de datos que incluyen diferentes contextos de eventos como se describe a continuación). Por ejemplo, el campo de datos en particular puede ser un campo de datos textuales. Usando una lógica difusa, el sistema puede determinar que dos campos y/o valores son idénticos, aunque la esencia del campo de datos o valor (p. ej., dos grafías diferentes) no sea idéntica. En algunas realizaciones, el sistema puede analizar campos de datos particulares de una estructura de datos o un marco de recursos multimedia para valores o texto particulares. Los campos de datos podrían asociarse con características, información adicional y/o otros datos requeridos para la función de las realizaciones descritas en esta invención. Además, los campos de datos podrían contener valores (p. ej., los campos de datos podrían expresarse en binario o en cualquier otro código o lenguaje de programación adecuado).
Como se usa en esta invención, el «contexto» de un evento se refiere al conjunto de circunstancias o hechos que rodean un evento en particular y que influyen o afectan al significado del evento. Por ejemplo, al determinar el contexto de una declaración escrita y/o hablada, la aplicación de medios puede determinar quién o qué escribió/expresó la declaración, las palabras textuales escritas y/o pronunciadas y/u otras declaraciones que precedieron y/o siguieron a la declaración, el tono de la misma y/o cualquier otra condición que pueda alterar sus connotaciones.
La FIG. 1 muestra un ejemplo ilustrativo de una aplicación de medios que puede usarse para mostrar información complementaria de acuerdo con algunas realizaciones de la descripción. La pantalla 100 ilustra la pantalla de un dispositivo de usuario que muestra un recurso de medios. La pantalla 108 ilustra una pantalla que muestra información
complementaria de acuerdo con lo descrito y/o generado en las FIGS. 6-9. Cabe señalar que las pantallas 100 y 108 podrían presentarse en cualquier otro de los dispositivos mostrados en las FIGS. 3-4. Por ejemplo, en algunas realizaciones, la pantalla 100 y la pantalla 108 pueden mostrarse en los equipos de usuario 402, 404 y/o 406 (FIG. 4). En la FIG. 1, la pantalla 100 representa una pantalla de un recurso de medios (p. ej., un programa de televisión en retransmisión en continuo) en un dispositivo de usuario (p. ej., los equipos de usuario 402, 404 y/o 406 (FIG. 4)). La pantalla 100 incluye la entidad 102 y la entidad 104. En la pantalla 100, la entidad 104 está hablando actualmente como lo indica el evento 106. Como se muestra en la FIG. 1, el evento 106 es una declaración (p. ej., «Exportamos mucho carbón») de una persona en el recurso de medios.
En algunas realizaciones, la pantalla 108 representa la visualización continua del recurso de medios en un dispositivo de usuario, después de que un usuario haya solicitado información complementaria sobre el evento 106. Por ejemplo, una aplicación de medios puede haber recibido datos introducidos por un usuario (p. ej., mediante la interfaz de entrada de usuario 310 (FIG. 3)) mientras la entidad 104 estaba hablando. Usando los sistemas y procedimientos descritos en esta invención (p. ej., las FIGS. 6-9), la aplicación de medios generó la información complementaria 110. La información complementaria 110 aporta más información sobre el evento 106.
Por ejemplo, la aplicación de medios (p. ej., la aplicación de medios 206 (FIG. 2)) puede haber determinado el contexto del evento 106. Específicamente, la aplicación de medios puede determinar mediante un módulo o algoritmo de reconocimiento de contenido las palabras pronunciadas y/o las acciones de la persona durante el evento. De manera adicional o alternativa, la aplicación de medios puede analizar las palabras y/o la acción durante un período de tiempo predeterminado (p. ej., diez segundos) antes y/o después del evento (p. ej., para comprender mejor su contexto). Además, al hacer referencias cruzadas de las palabras y/o cualquier otra información obtenida por el módulo de reconocimiento de contenido (p. ej., como se explica a continuación en relación con la FIG. 5) a una base de datos, el módulo de reconocimiento de contenido determina que con el término «nosotros» la persona que aparece en el recurso de medios se refiere a una organización u organismo. El módulo o algoritmo de reconocimiento de contenido también puede determinar que el término «exportación» se refiere al envío de mercancías fuera de un país. El módulo o algoritmo de reconocimiento de contenido también puede determinar que el término «mucho» se refiere a una cantidad numérica en particular. Finalmente, el módulo de reconocimiento de contenido o el algoritmo también pueden determinar que el término «carbón» se refiere a un mineral de carbono fosilizado.
El módulo o algoritmo de reconocimiento de contenido también puede determinar las relaciones entre las palabras y/o cualquier otra información obtenida por el módulo de reconocimiento de contenido. Por ejemplo, al procesar la relación entre las palabras, la aplicación de medios determina que el evento 106 es una declaración con respecto a una cantidad determinada de una sustancia en particular enviada desde un país en concreto. Por lo tanto, la aplicación de medios determina que la solicitud de información complementaria probablemente se haga para determinar la validez de la declaración. La aplicación de medios genera entonces la información complementaria.
La aplicación de medios también puede haber almacenado información complementaria generada por solicitudes anteriores (p. ej., información complementaria generada en respuesta al mismo usuario o a un usuario diferente que ha visualizado el recurso de medios en una fecha anterior), y mostrar la información complementaria nuevamente durante el evento (ya sea en respuesta a una entrada del usuario que solicite información complementaria o automáticamente sin que un usuario solicite información complementaria).
La FIG. 2 muestra un ejemplo ilustrativo de un sistema que puede usarse para generar información complementaria (p. ej., la información complementaria 110 (FIG. 1)) basada en información adicional proporcionada por una pluralidad de usuarios de acuerdo con algunas realizaciones de la descripción. Por ejemplo, en algunas realizaciones, el sistema 200 puede usarse para generar información complementaria (p. ej., la información complementaria 110 (FIG. 1)) en una pantalla (p. ej., la pantalla 108 (FIG. 1)) de un dispositivo de usuario (p. ej., los equipos de usuario 402, 404 y/o 406 (FIG. 4)). Cabe señalar que en algunas realizaciones, los dispositivos mostrados en la FIG. 2 pueden corresponder a uno o más dispositivos en las FIGS. 3-4.
La FIG. 2 muestra el sistema 200. En el sistema 200, un usuario está accediendo en ese momento a un recurso de medios en la pantalla 202. En algunas realizaciones, la pantalla 202 puede corresponder a la pantalla 100 (FIG. 1)). Durante un evento (p. ej., el evento 106 (FIG. 1)) un usuario puede haber solicitado información complementaria sobre un evento (p. ej., el evento 106 (FIG. 1)) en la pantalla 202 utilizando el dispositivo de usuario 204. La aplicación de medios 206, que en algunas realizaciones puede implementarse en el dispositivo de usuario 204 o en una ubicación remota (p. ej., la fuente de información complementaria 418 (FIG: 4)), recibe la solicitud de información complementaria.
La aplicación de medios 206 determina el contexto del evento (p. ej., quién hizo la declaración que constituye el evento y a qué se refería la misma). Después de determinar el contexto de la declaración, la aplicación de medios puede
detallar en una o más tareas la información adicional (p. ej., los hechos) que requiere para generar la información complementaria (p. ej., una verificación o corrección de la base fáctica de la declaración). Por ejemplo, si el evento es una declaración sobre la cantidad de carbón que se exporta desde los Estados Unidos (p. ej., como se describe en relación con la FIG. 1 anterior), la aplicación de medios 206 puede determinar que el hecho requerido para generar la información complementaria es la cifra exacta de carbón que se exporta desde los Estados Unidos. La aplicación de medios puede a continuación transmitir solicitudes de información adicional (p. ej., una solicitud de la cifra exacta de carbón que se exporta desde los Estados Unidos) a una pluralidad de otros usuarios.
En la FIG. 2, los usuarios que manejan los dispositivos de usuario 208, 210 y 212 representan a una pluralidad de usuarios. Habiendo determinado la información adicional que requiere para generar la información complementaria, la aplicación de medios 206 solicita la información adicional a la pluralidad de usuarios. En el sistema 200, la aplicación de medios 206 ha transmitido la misma tarea (p. ej., la misma pregunta) a cada uno de los usuarios. En algunas realizaciones, uno o más de los usuarios pueden recibir diferentes tareas. Por ejemplo, al dividir la información adicional en tareas pequeñas e independientes, la aplicación de medios 206 puede aumentar la velocidad (p. ej., varios usuarios pueden trabajar simultáneamente para resolver diferentes partes de un problema) y la precisión (p. ej., reducir las tareas a problemas más pequeños y menos complejos reduce la posibilidad de errores humanos) de la información adicional devuelta por la pluralidad de usuarios.
Además, al dividir la información adicional en tareas pequeñas e independientes, la pluralidad de usuarios puede no saber a qué están contribuyendo (mejorando la privacidad del usuario que solicitó la información complementaria); sin embargo, la pluralidad de usuarios aún puede ser eficaz en sus tareas individuales. Adicionalmente, al dividir la información adicional en tareas pequeñas e independientes, la aplicación de medios puede externalizar más fácilmente las solicitudes de información adicional. Por ejemplo, una o más de las tareas utilizadas para generar la información adicional pueden ser las mismas que una o más de las tareas utilizadas para generar otra información adicional (p. ej., información adicional utilizada para generar información complementaria diferente en respuesta a una solicitud de información complementaria sobre el mismo evento o un evento diferente emitido por el mismo usuario u otro diferente). La respuesta a cada una de las solicitudes y/o la información adicional pueden almacenarse (p. ej., en cualquiera de los dispositivos accesibles por la red de comunicaciones 414 (FIG. 4)) para su posterior recuperación. Con base en las respuestas, transmitidas como mensajes que incluyen la información adicional, de la pluralidad de otros usuarios, la aplicación de medios 206 puede generar la información complementaria (p. ej., la información complementaria 110 (FIG. 1)) para mostrársela al usuario en el dispositivo de usuario 204. Por ejemplo, la aplicación de medios puede agregar, adjuntar y/o comparar la información adicional de cada uno de los mensajes recibidos de la pluralidad de usuarios. La información complementaria puede generarse entonces con base en la información adicional agregada, adjunta y/o comparada (p. ej., como se describe en la FIG. 9 a continuación).
En algunas realizaciones, la pluralidad de usuarios puede recibir información resumida sobre el evento con la solicitud de información adicional. (P. ej., un videoclip de una parte o segmento del recurso de medios, una descripción textual, etc.), que puede ayudar a la pluralidad de usuarios a proporcionar información adicional. Por ejemplo, en algunas realizaciones, la aplicación de medios puede, en lugar de (o además de) determinar el contexto de un evento, determinar una parte en particular del evento que la pluralidad de usuarios necesitaría para proporcionar información adicional sobre el evento.
Por ejemplo, la aplicación de medios puede usar información del progreso asociada con el progreso del recurso de medios (p. ej., la línea 506 (FIG. 5)) para determinar en qué punto de la progresión del recurso de medios ocurrió el evento y, como respuesta, transmitir una parte del recurso de medios que comience diez segundos antes de ese punto y termine diez segundos después. Por ejemplo, si el evento es una declaración hecha por un personaje o persona en un recurso de medios, la aplicación de medios puede determinar cuándo comenzó la declaración (p. ej., el punto de progreso del recurso de medios en el que comenzó la declaración) y cuándo finalizó. La aplicación de medios puede incluir en la solicitud de información adicional enviada a la pluralidad de usuarios la parte que contiene la declaración completa (y el evento).
La parte seleccionada puede incluir cualquier cantidad de información resumida que la aplicación de medios determine que es necesaria para que el usuario o cualquiera de la pluralidad de usuarios comprenda la secuencia de la acción principal. Esta información resumida (p. ej., una parte del recurso de medios) puede incluirse con la solicitud de información adicional (p.ej., en un archivo transmitido con la solicitud), o puede incluirse con la información complementaria generada como referencia para el usuario. Por ejemplo, la aplicación de medios puede seleccionar un segmento de la reproducción del recurso de medios o una escena concreta que incluya el evento para mostrárselo a la pluralidad de usuarios junto con la solicitud de información adicional.
Por ejemplo, si un evento (p. ej., una declaración) fue la respuesta a una pregunta, la aplicación de medios también puede determinar cuándo comenzó y terminó la pregunta, y enviar también la pregunta completa (o la parte de la
reproducción del recurso de medios correspondiente a la pregunta) a la pluralidad de usuarios. Después de determinar la parte que se proporcionará a la pluralidad de usuarios (p. ej., un segmento que incluya los diez segundos anteriores y los diez posteriores al evento), la aplicación de medios puede proporcionar la información resumida del evento y cualquier otro material que la pluralidad de usuarios necesite para comprender el evento y/o solicitar información complementaria al usuario.
En algunas realizaciones, la parte del recurso de medios que contiene el evento, de acuerdo con lo seleccionado por la aplicación de medios, puede también incluir cualquier extensión de la reproducción del recurso de medios, o cualquier cantidad de escenas o segmentos del mismo. En algunas realizaciones, dicha parte puede incluir segmentos de la reproducción del recurso de medios o escenas del mismo que no sean adyacentes durante la reproducción normal del recurso de medios. Por ejemplo, en algunas realizaciones, una parte del recurso de medios puede incluir una o más secuencias o escenas de interés para la pluralidad de usuarios, aunque las secuencias o escenas en particular se presenten en diferentes puntos de la reproducción del recurso de medios. La aplicación de medios puede determinar los segmentos o escenas a incluir con base en un archivo de reconocimiento de contenido (p. ej., la estructura de datos 500 (FIG. 5)) que describe el recurso de medios. Por ejemplo, si se muestra anteriormente en el recurso de medios un punto de la trama u otra información que pueda ser relevante para un evento, la información de resumen podría incluir una parte del recurso de medios que muestre ese punto de la trama.
En algunas realizaciones, la longitud de esa parte puede determinarse en función del género del recurso de medios. En algunas realizaciones, la longitud de esa parte puede depender de un perfil de usuario para el usuario o para cualquiera de la pluralidad de usuarios. Por ejemplo, un perfil de usuario y/o un archivo de reconocimiento de contenido (p. ej., la estructura de datos 500 (FIG. 5)) pueden indicar que un usuario en concreto puede requerir más o menos contenido adicional. Por ejemplo, el usuario puede conocer los personajes en concreto o los puntos de la trama del recurso de medios y, por lo tanto, puede que no necesite contenido adicional sobre esos aspectos.
En algunas realizaciones, la pluralidad de usuarios puede recibir una interfaz de usuario en particular que organice los datos del evento (p. ej., un clip del evento real, información resumida sobre el mismo, información sobre la solicitud de información complementaria emitida por el usuario, etc.). La interfaz también puede incluir un formulario de envío automático que puede usarse para generar un mensaje que se envíe a la aplicación de medios.
En algunas realizaciones, la aplicación de medios también puede recibir datos del usuario que solicita la información complementaria que afecten adicionalmente a la información complementaria generada por la aplicación de medios. Por ejemplo, el usuario puede solicitar que la información complementaria incluya datos concretos (p. ej., la base fáctica de una declaración), puede solicitar un formato multimedia de la información complementaria (p. ej., la descripción textual, un videoclip, etc.), puede solicitar una forma de información complementaria (p. ej., una breve descripción del evento, un enlace de Internet a otras fuentes de información sobre el mismo, o una designación verdadera o falsa sobre dicho evento) introduciendo los datos procedentes del usuario (p. ej., mediante la interfaz de entrada de usuario 310 (FIG. 3)).
Cabe señalar que cualquier información o proceso al que se hace referencia en esta descripción y que se mencione como respuesta a una introducción de datos del usuario, puede ser realizada alternativa y/o adicionalmente de manera automática por la aplicación de medios (p. ej., a través de los circuitos de control 304 (FIG. 3)). Por ejemplo, en algunas realizaciones, un usuario puede solicitar una designación de verdadero o falso (p. ej., un cuadro emergente en pantalla que indique si un evento fue verdadero o falso). De manera adicional o alternativa, en algunas realizaciones, la designación de verdadero o falso puede aparecer automáticamente en función de los ajustes predeterminados, que indican a la aplicación de medios que muestre una designación de verdadero o falso en respuesta a la detección de un evento.
En algunas realizaciones, puede mostrarse al usuario durante el evento (p. ej., en la pantalla 100 (FIG. 1)) un indicador de que la información complementaria se ha generado previamente o de que está actualmente lista para ser generada (p. ej., una pluralidad de usuarios están disponibles). El indicador también puede señalar la información en particular, el formato multimedia y/o el tipo de información complementaria que está disponible. También puede aparecer un indicador con la información complementaria (p. ej., la información complementaria 110 (FIG. 1)), que permite al usuario solicitar información complementaria adicional o proporcionar comentarios/respuestas (p. ej., calificar la calidad de la información complementaria) a la aplicación de medios y/o pluralidad de usuarios.
En algunas realizaciones, el usuario también puede acceder (p. ej., seleccionando un indicador y/o automáticamente al generarse la información complementaria) a un resumen informativo sobre el evento. Por ejemplo, en algunas realizaciones (como cuando la información complementaria no se genera en tiempo real), el recurso de medios puede haber progresado a un punto diferente en el momento en el que la información complementaria esté lista para su visualización. Por lo tanto, es posible que la aplicación de medios tenga que proporcionar un videoclip del evento u otra información resumida para que el usuario recuerde qué información complementaria se solicitó
o por qué.
La FIG. 3 es un diagrama de bloque de un dispositivo de equipo de usuario ilustrativo de acuerdo con algunas realizaciones de la descripción. Cabe señalar que los componentes mostrados en la FIG. 3 pueden utilizarse para almacenar, recibir, transmitir y/o mostrar los recursos de medios, información adicional y/o información complementaria de acuerdo con lo descrito en esta invención. Por ejemplo, la aplicación de medios 206 (FIG. 2) puede implementarse en el dispositivo de equipo de usuario 300 y puede emitir instrucciones (p. ej., mostrar la información complementaria 110 (FIG. 1)) a través de los circuitos de control 304.
Los usuarios pueden acceder a los recursos de medios y a la aplicación de medios (y a sus pantallas de visualización descritas anteriormente y a continuación) desde uno o más de sus dispositivos de equipo de usuario. La FIG. 3 muestra una realización general del dispositivo de equipo de usuario 300 ilustrativo. Implementaciones más específicas de dispositivos de equipo de usuario se analizan más adelante en relación con la fig. 4. El dispositivo de equipo de usuario 300 puede recibir contenido y datos mediante la vía de entrada/salida 302 (en lo sucesivo «E/S»). La vía E/S 302 puede proporcionar contenido (p. ej., programación de transmisión, programación a la carta, contenido de Internet, contenido disponible a través de una red de área local (LAN) o una red de área extensa (WAN) y/u otro contenido) y datos para el sistema de circuitos de control 304, que incluye los circuitos de procesamiento 306 y el almacenamiento 308. El sistema de circuitos de control 304 puede utilizarse para enviar y recibir comandos, solicitudes y otros datos adecuados usando la vía E/S 302. La vía E/S 302 puede conectar el sistema de circuitos de control 304 (y específicamente el sistema de circuitos de procesamiento 306) con una o más vías de comunicación (descritas más adelante). Las funciones E/S pueden proporcionarse mediante una o más de estas vías de comunicación, sin embargo, se muestran como una sola vía en la FIG. 3 para no complicar más el dibujo.
Los circuitos de control 304 pueden estar basados en circuitos de procesamiento adecuados cualesquiera, tales como los circuitos de procesamiento 306. Como se hace referencia en esta invención, el sistema de circuitos de procesamiento debe comprenderse como unos circuitos basados en uno o más microprocesadores, microcontroladores, procesadores de señal digital, dispositivos lógicos programables, matrices de puertas programables por campo (FPGA), circuitos integrados específicos de la aplicación (ASIC), etc. y pueden incluir un procesador multinúcleo (p. ej., de núcleo doble, cuádruple, séxtuple o cualquier cantidad de núcleos que resulte adecuada) o un superordenador. En algunas realizaciones, el sistema de circuitos de procesamiento puede estar distribuido a través de múltiples procesadores separados o unidades de procesamiento, por ejemplo, varias unidades de procesamiento del mismo tipo (p. ej., dos procesadores Intel Core i7) o múltiples procesadores diferentes (p. ej., un procesador Intel Core i5 y uno Intel Core i7) En algunas realizaciones, el sistema de circuitos de control 304 ejecuta instrucciones para una aplicación de medios almacenada en la memoria (es decir, el almacenamiento 308). De manera específica, la aplicación de medios puede ordenar al sistema de circuitos de control 304 que realice las funciones analizadas anteriormente y a continuación. Por ejemplo, la aplicación de medios puede proporcionar instrucciones al sistema de circuitos de control 304 para generar las pantallas 100 y 108 (FIG. 1). En algunas implementaciones, cualquier acción realizada por el sistema de circuitos de control 304 puede basarse en instrucciones recibidas desde la aplicación de medios y/o datos de medios.
En realizaciones con una estructura cliente-servidor, los circuitos de control 304 pueden incluir circuitos de comunicaciones adecuados para comunicarse con un servidor de la aplicación de medios u otras redes o servidores. Las instrucciones para ejecutar la funcionalidad antes mencionada pueden almacenarse en el servidor de la aplicación de medios. El circuito de comunicaciones puede incluir un módem por cable, un módem de red digital de servicios integrados (ISDN), un módem de línea digital de abonado (DSL), un módem telefónico, una tarjeta Ethernet, o un módem inalámbrico para comunicaciones con otros equipos, o cualquier otro circuito de comunicaciones adecuado. Dichas comunicaciones pueden requerir Internet o cualquier otra red o vía de comunicaciones adecuada (que se describen con más detalle en relación con la FIG. 4). Además, los circuitos de comunicaciones pueden incluir circuitos que permitan la comunicación punto a punto entre dispositivos de equipos de usuario o la comunicación entre dispositivos de equipos de usuarios en ubicaciones remotas entre sí (descritas más detalladamente a continuación).
La memoria puede ser un dispositivo de almacenamiento electrónico proporcionado como medio de almacenamiento 308 que forma parte de los circuitos de control 304. Como se usa en esta invención, la frase «dispositivo de almacenamiento electrónico» o «dispositivo de almacenamiento» debe entenderse como cualquier dispositivo para el almacenamiento de datos electrónicos, software de ordenador, o firmware, tal como una memoria de acceso aleatorio, una memoria de solo lectura, discos duros, discos ópticos, grabadoras de discos de vídeo digital (DVD), grabadoras de discos compactos (CD), grabadoras de discos BLU-RAY (BD), grabadoras de discos BLU-RAY 3D, grabadoras de vídeo digitales (DVR, a veces denominadas grabadoras de vídeo personales o PVR), dispositivos en estado sólido, dispositivos de almacenamiento cuántico, consolas de juego, medios de juego o cualquier otro dispositivo de almacenamiento fijo o extraíble y/o cualquier combinación de los mismos. El almacenamiento 308 puede utilizarse para almacenar varios tipos de contenido descrito en esta invención, así como la información de medios antes descrita
y los datos de la aplicación de medios anteriormente descritos. También puede utilizarse la memoria no volátil (p. ej., para ejecutar la rutina de arranque del sistema y otras instrucciones). El almacenamiento basado en la nube, descrito en relación con la FIG. 4, puede utilizarse para complementar el almacenamiento 308 o para sustituir al almacenamiento 308.
Los circuitos de control 304 pueden incluir circuitos de generación de vídeo y circuitos de sintonización, tales como uno o más sintonizadores analógicos, uno o más decodificadores MPEG-2 u otros circuitos de decodificación digitales, sintonizadores de alta definición, o cualquier otro circuito de sintonización o de vídeo adecuado o combinaciones de tales circuitos. También se pueden proporcionar circuitos de codificación (p. ej., para convertir señales transmitidas por el aire, analógicas o digitales en señales MPEG para su almacenamiento). Los circuitos de control (304) también pueden incluir circuitos de cambio de escala para elevar la frecuencia y disminuir la frecuencia del contenido en el formato de salida preferido del equipo de usuario (300). Los circuitos (304) también pueden incluir circuitos de conversión digital/analógica y circuitos de conversión analógica/digital para convertir entre señales digitales y analógicas. Los circuitos de sintonización y codificación pueden ser usados por el dispositivo de equipo de usuario para recibir y para visualizar, para reproducir, o para grabar contenido. Los circuitos de sintonización y codificación también pueden utilizarse para recibir datos de medios. Los circuitos descritos en este documento, incluyendo, por ejemplo, los circuitos de sintonización, de generación de vídeo, de codificación, de decodificación, de cifrado, de descifrado, de cambio de escala, y analógico/digital, pueden implementarse usando software que se ejecuta en uno o más procesadores de propósito general o especializados. Los sintonizadores múltiples pueden proporcionarse para manejar funciones de sintonización simultáneas (p. ej., funciones de ver y grabar, funciones de imagen superpuesta (PIP), grabación con sintonización múltiple, etc.). Si se proporciona el almacenamiento 308 como un dispositivo separado del equipo de usuario 300, se pueden asociar los circuitos de ajuste y codificación (incluyendo sintonizadores múltiples) con el almacenamiento 308.
Un usuario puede enviar instrucciones a los circuitos de control 304 usando la interfaz de entrada de usuario 310. La interfaz de entrada de usuario 310 puede ser cualquier interfaz de usuario adecuada, por ejemplo, un control remoto, ratón, esfera de control, teclado numérico, teclado, pantalla táctil, panel táctil, entrada de lápiz óptico, mando de juego, interfaz de reconocimiento de voz u otras interfaces de entrada. La pantalla 312 puede proporcionarse como un dispositivo independiente o integrado con otros elementos del dispositivo de equipo de usuario 300. La pantalla 312 puede ser uno o más de un monitor, televisor, pantalla de cristal líquido (LCD) para un dispositivo móvil, o cualquier otro equipo adecuado para presentar imágenes visuales. En algunas realizaciones, la pantalla 312 puede ser compatible con HDTV. En algunas realizaciones, la pantalla 312 puede ser una pantalla 3D y la aplicación de medios interactiva, así como cualquier contenido adecuado, pueden mostrarse en 3D. Una tarjeta gráfica o de vídeo puede generar la salida para la pantalla 312. La tarjeta de vídeo puede ofrecer diversas funciones tales como representación acelerada de escenas 3D y gráficos 2D, decodificación MPEG-2/MPEG-4, salida de TV, o la capacidad de conectar múltiples monitores. La tarjeta de vídeo puede ser cualquier sistema de circuitos de procesamiento descrito anteriormente en relación con el sistema de circuitos de control 304. La tarjeta de vídeo puede integrarse en el sistema de circuitos de control 304.
Se pueden proporcionar altavoces 314 integrados con otros elementos del dispositivo de equipo de usuario 300 o pueden ser unidades separadas. El componente de audio de los vídeos y otro contenido visualizado en la pantalla 312 puede ser reproducido a través de los altavoces 314. En algunas realizaciones, se puede distribuir el audio hacia un receptor (no mostrado), que procesa y emite el audio a través de los altavoces 314.
La aplicación de medios puede implementarse usando cualquier arquitectura adecuada. Por ejemplo, puede ser una aplicación autónoma completamente implementada en el dispositivo de equipo de usuario 300. En dicha estrategia,las instrucciones de la aplicación se almacenan localmente y los datos destinados al uso por parte de la aplicación se descargan periódicamente (p. ej., desde una alimentación fuera de banda, desde un recurso de Internet o por medio de otra estrategia adecuada). En algunas realizaciones, la aplicación de medios es una aplicación cliente-servidor. Los datos para usar por un cliente pesado o liviano, implementados en el dispositivo de equipo de usuario 300, se recuperan a voluntad realizando solicitudes a un servidor remoto para el dispositivo de equipo de usuario 300. En un ejemplo de una aplicación de medios cliente-servidor, el sistema de circuitos de control 304 ejecuta un navegador web que interpreta las páginas web proporcionadas por el servidor remoto.
En algunas realizaciones, la aplicación de medios es descargada e interpretada o ejecutada de otro modo por un intérprete o máquina virtual (ejecutada por los circuitos de control 304). En algunas realizaciones, la aplicación de medios puede codificarse en el formato de intercambio binario ETV (EBIF), recibido por los circuitos de control 304 como parte de una alimentación adecuada, e interpretada por un agente usuario que se ejecuta en los circuitos de control 304. Por ejemplo, la aplicación de medios puede ser una aplicación EBIF. En algunas realizaciones, la aplicación de medios puede definirse mediante una serie de archivos basados en JAVA que se reciben y se ejecutan mediante una máquina virtual local u otro middleware ejecutado por el sistema de circuitos de control 304. En algunas de dichas realizaciones (p. ej., aquellas que utilizan MPEG-2 u otros esquemas de codificación de medios digitales),
la aplicación de medios puede ser, por ejemplo, codificada y transmitida en un carrusel de objetos MPEG-2 con los paquetes de audio y vídeo de un programa.
El dispositivo de equipo de usuario 300 de la FIG. 3 puede implementarse en el sistema 400 de la FIG. 4 como un equipo de televisión de usuario 402, un equipo de ordenador de usuario 404, un dispositivo de comunicación inalámbrica de usuario 406, o cualquier otro tipo de equipo de usuario adecuado para acceder al contenido, tal como una consola de juegos no portátil. Por cuestiones de simplicidad, es posible que en esta invención se haga referencia a estos dispositivos de manera colectiva como equipos de usuario o dispositivos de equipo de usuario y los mismos podrían ser sustancialmente similares a los dispositivos de equipo de usuario anteriormente descritos. Los dispositivos de equipo de usuario, en los que puede implementarse la aplicación de medios, pueden funcionar como un dispositivo autónomo o pueden formar parte de una red de dispositivos. Se pueden implementar varias configuraciones de red de los dispositivos que se analizan detalladamente más adelante.
La FIG. 4 es un diagrama de bloque de un sistema de medios ilustrativo de acuerdo con algunas realizaciones de la descripción. Cabe señalar que los dispositivos mostrados en la FIG. 4 pueden utilizarse para almacenar, recibir, transmitir y/o mostrar los recursos de medios, información adicional y/o información complementaria de acuerdo con lo descrito en esta invención. Por ejemplo, la aplicación de medios 206 (FIG. 2) puede implementarse en cualquiera de los dispositivos mostrados en la FIG. 4.
Un dispositivo de equipo de usuario que utiliza al menos algunas de las características del sistema descritas anteriormente en relación con la FIG. 3 puede no clasificarse únicamente como equipo de televisión de usuario 402, equipo de ordenador de usuario 404, o dispositivo de comunicación inalámbrica de usuario 406. Por ejemplo, el equipo de televisión de usuario 402 puede, al igual que algunos equipos de ordenador de usuario 404, tener conexión a Internet, permitiendo el acceso a contenidos de Internet, mientras que el equipo de ordenador de usuario 404 puede, al igual que algunos equipos de televisión 402, incluir un sintonizador para permitir el acceso a la programación televisiva. La aplicación de medios puede tener el mismo diseño en varios tipos diferentes de equipos de usuario o puede estar adaptada a las capacidades de presentación del equipo de usuario. Por ejemplo, en un equipo de ordenador de usuario 404, la aplicación de medios puede proporcionarse como un sitio web al que se accede mediante un navegador web. En otro ejemplo, la aplicación de medios puede reducirse para dispositivos de comunicación inalámbrica de usuario 406.
En el sistema 400, existe típicamente más de un tipo de dispositivo de equipo de usuario, pero en la FIG. 4 se muestra solo uno de cada tipo para evitar complicar excesivamente el dibujo. Además, cada usuario puede utilizar más de un tipo de dispositivo de equipo de usuario y también más de un dispositivo de equipo de usuario de cada tipo.
En algunas realizaciones, un dispositivo de equipo de usuario (p. ej., el equipo de televisión de usuario 402, el equipo de ordenador de usuario 404, el dispositivo de comunicación inalámbrica de usuario 406) pueden denominarse «dispositivo de pantalla secundario». Por ejemplo, un dispositivo de pantalla secundario puede complementar el contenido presentado en el primer dispositivo de equipo de usuario. El contenido presentado en el dispositivo de pantalla secundario puede ser cualquier contenido adecuado que complemente aquel presentado en el primer dispositivo. En algunas realizaciones, el dispositivo de pantalla secundario proporciona una interfaz para ajustar las configuraciones y preferencias de visualización del primer dispositivo. En algunas realizaciones, el dispositivo de pantalla secundario se configura de modo que interactúe con otros dispositivos de pantalla secundarios o con una red social. El dispositivo de pantalla secundario puede estar ubicado en la misma habitación que el primer dispositivo, en una habitación distinta aunque dentro de la misma casa o edificio, o bien en otro edificio que el primer dispositivo.
El usuario también puede establecer diversas configuraciones para mantener unos ajustes de la aplicación de medios coherentes en todos los dispositivos domésticos y remotos. Las configuraciones incluyen las descritas en esta invención, así como los canales y programas favoritos, las preferencias de programación que utiliza la aplicación de medios para hacer recomendaciones de programación, preferencias de la pantalla y otras configuraciones de medios deseadas. Por ejemplo, si un usuario determina un canal como favorito en, por ejemplo, el sitio web www.allrovi.com en su ordenador personal de la oficina, si lo desea, el mismo canal aparecería como favorito en los dispositivos domésticos del usuario (p. ej., equipo de televisión de usuario y equipo de ordenador de usuario), así como también, en los dispositivos móviles. Por lo tanto, los cambios realizados en uno de los equipos de usuario pueden cambiar la experiencia de medios en otro dispositivo de usuario, sin considerar si es el mismo o un tipo diferente de dispositivo de equipo de usuario. Además, los cambios realizados pueden estar basados en configuraciones realizadas por un usuario, así como también, en la actividad del usuario supervisada por la aplicación de medios.
Los dispositivos de equipo de usuario pueden estar acoplados a la red de comunicaciones 414. Concretamente, un equipo de televisión de usuario 402, un equipo de ordenador de usuario 404 y un dispositivo de comunicación inalámbrica de usuario 406, se conectan a una red de comunicaciones 414 mediante las vías de comunicación 408, 410 y 412, respectivamente. La red de comunicaciones 414 puede componerse por una o más redes incluyendo
Internet, la red telefónica móvil, la red para dispositivos móviles (p. ej., una red 4G o LTE), la red de cable, la red telefónica pública conmutada u otros tipos de redes de comunicación o combinaciones de las mismas. Las vías 408, 410 y 412 puede incluir juntas o por separado una o más vías de comunicaciones, tales como una vía satelital, una vía de fibra óptica, una vía de cable, una vía que soporte comunicaciones por Internet (p. ej., IPTV), conexiones en el espacio libre (por ejemplo, para señales de emisión u otras señales inalámbricas), o cualquier vía de comunicaciones cableada o inalámbrica adecuada o combinación de tales vías. La vía 412 está dibujada con líneas de puntos para indicar que, en la realización ejemplar mostrada en la FIG.4, se trata de una vía inalámbrica y las vías 408 y 410 están dibujadas como líneas continuas para indicar que son vías cableadas (aunque estas vías pueden ser vías inalámbricas, si se desea). Pueden proporcionarse comunicaciones con los dispositivos de equipo de usuario por una o más de estas vías de comunicaciones, pero en la FIG. 4 se muestran como una sola vía para evitar complicar excesivamente el dibujo.
Aunque no aparecen dibujadas las vías de comunicaciones entre dispositivos de equipo de usuario, estos dispositivos pueden comunicarse directamente entre sí a través de vías de comunicación, tales como las descritas anteriormente en relación con las vías 408, 410 y 412, así como otras vías de comunicación punto a punto de corto alcance, tales como cables USB, cables IEEE 1394, vías inalámbricas (p. ej., Bluetooth, infrarrojas, IEEE 802-11x, etc.), u otra comunicación de corto alcance a través de vías cableadas o inalámbricas. BLUETOOTH es una marca de certificación propiedad de Bluetooth SIG, INC.
Los dispositivos de equipo de usuario también pueden comunicarse entre sí directamente a través de una vía indirecta mediante la red de comunicaciones 414.
El sistema 400 incluye la fuente de contenido 416 y la fuente de información complementaria 418 acopladas a la red de comunicaciones 414 a través de las vías de comunicación 420 y 422, respectivamente. Las vías 420 y 422 pueden incluir cualquiera de las vías de comunicación descritas anteriormente en relación con las vías 408, 410 y 412.Las comunicaciones con la fuente de contenido 416 y la fuente de información complementaria 418 pueden intercambiarse en una o más vías de comunicación, pero se muestran como una vía única en la FIG. 4 para no complicar más el dibujo. Además, puede existir más de una fuente de cada una de las fuentes de contenido 416 y una fuente de información complementaria 418, sin embargo, se muestra solo una en la FIG. 4 para no complicar más el dibujo. (Los diferentes tipos de cada una de estas fuentes se explican a continuación). Si se desea, la fuente de contenido 416 y la fuente de información complementaria 418 pueden estar integradas como un único dispositivo fuente. Aunque las comunicaciones entre las fuentes 416 y 418 con los dispositivos de equipo de usuario 402, 404 y 406 se muestren como una red de comunicaciones 414, en algunas realizaciones, las fuentes 416 y 418 pueden comunicarse directamente con los dispositivos de equipo de usuario 402, 404 y 406 mediante las vías de comunicación (no mostradas) tales como las descritas anteriormente con respecto a las vías 408, 410 y 412.
La fuente de contenido 416 puede incluir uno o más tipos de equipo de distribución de contenido incluyendo una instalación de distribución de televisión, una cabecera de sistema de cable, una instalación de distribución por satélite, fuentes de programación (p. ej., emisoras de televisión, tales como NBC, ABC, HBO, etc.), instalaciones y/o servidores de distribución intermedios, proveedores de Internet, servidores de medios a la carta, y otros proveedores de contenido. NBC es una marca comercial propiedad de National Broadcasting Company, Inc., ABC es una marca comercial propiedad de American Broadcasting Company, Inc. y HBO es una marca comercial propiedad de Home Box Office, Inc. La fuente de contenido 416 puede ser el originador del contenido (p. ej., una emisora de televisión, un proveedor de transmisiones vía Internet, etc.) o puede no serlo (p. ej., un proveedor de contenido a la carta, un proveedor de Internet de contenido de programas de emisión para descarga, etc.). La fuente de contenido 416 puede incluir fuentes de cable, proveedores de satélite, proveedores de contenido a la carta, proveedores de Internet, proveedores de contenido de libre transmisión u otros proveedores de contenido. La fuente de contenido 416 también puede incluir un servidor de medios remoto utilizado para almacenar diferentes tipos de contenido (incluyendo contenido de vídeo seleccionado por un usuario), en una ubicación remota de cualquiera de los dispositivos de equipo de usuario. Los sistemas y procedimientos para almacenamiento remoto de contenido y el suministro de contenido almacenado de forma remota al equipo del usuario se analizan con mayor detalle en relación con la patente de Estados Unidos de Ellis y col. n.° 7.761.892, concedida el martes 20 de julio de 2010.
La fuente de información complementaria 418 puede proporcionar datos de medios, tales como los descritos anteriormente. Los datos de la aplicación de medios pueden proporcionarse a los dispositivos de equipo de usuario usando cualquier estrategia adecuada. En algunas realizaciones, la aplicación de medios puede ser una guía de programación televisiva interactiva independiente que recibe los datos de la guía de programación mediante una alimentación de datos (p. ej., alimentación continua o controlada). Los datos del horario de programación y otros datos de medios pueden proporcionarse al equipo del usuario en una banda lateral del canal de televisión, usando una señal digital en banda, fuera de banda o cualquier otra técnica de transmisión de datos adecuada. Los datos del horario de programación y otros datos de medios pueden proporcionarse al equipo del usuario en canales de televisión analógicos o digitales.
En algunas realizaciones, los datos de medios provenientes de la información complementaria 418 pueden proporcionarse al equipo del usuario usando una estrategia cliente-servidor. Por ejemplo, un dispositivo de equipo de usuario puede tomar los datos de medios de un servidor, o bien, un servidor puede enviar los datos de medios al dispositivo de equipo de usuario. En algunas realizaciones, el cliente de la aplicación de medios que reside en el equipo del usuario puede iniciar sesiones con la fuente 418 para obtener los datos de medios cuando sea necesario, p. ej., cuando los datos de medios estén desactualizados o el dispositivo de equipo de usuario reciba una solicitud del usuario para recibir los datos. Los datos de medios pueden proporcionarse al equipo del usuario con cualquier frecuencia adecuada (p. ej., de manera continua, diariamente, en períodos de tiempo especificados por el usuario, en períodos de tiempo especificados por el sistema, en respuesta a un pedido desde el equipo del usuario, etc.). La fuente de información complementaria 418 puede proporcionar a los dispositivos de equipo de usuario 402, 404 y 406 la aplicación de medios misma o las actualizaciones de software para la aplicación de medios.
Las aplicaciones de medios pueden ser, por ejemplo, aplicaciones independientes implementadas en dispositivos de equipo de usuario. Por ejemplo, la aplicación de medios puede implementarse como software o como un conjunto de instrucciones ejecutables que pueden guardarse en el almacenamiento 308 y ejecutarse por medio del sistema de circuitos de control 304 de un dispositivo de equipo de usuario 300. En algunas realizaciones, las aplicaciones de media pueden ser aplicaciones cliente-servidor donde solo una aplicación de cliente reside en el dispositivo de equipo de usuario y la aplicación del servidor reside en un servidor remoto. Por ejemplo, las aplicaciones de medios pueden implementarse parcialmente como aplicación de cliente en el sistema de circuitos de control 304 del dispositivo de equipo de usuario 300 y parcialmente en un servidor remoto como una aplicación de servidor (p. ej., una fuente de información complementaria 418) que se ejecuta en el sistema de control del servidor remoto. Cuando se ejecuta mediante los circuitos de control del servidor remoto (tal como la fuente de información complementaria 418), la aplicación de medios puede ordenar a los circuitos de control que generen las visualizaciones de la aplicación de medios y transmitan las visualizaciones generadas a los dispositivos de equipo de usuario. La aplicación del servidor puede ordenar al sistema de circuitos de control de la fuente de información complementaria 418 que transmita los datos para su almacenamiento en el equipo del usuario. La aplicación del cliente puede ordenar al sistema de circuitos de control del equipo de usuario receptor que genere pantallas de la aplicación de medios.
El contenido y/o los datos de medios suministrados a los dispositivos de equipo de usuario 402, 404 y 406 pueden ser contenido de libre transmisión (OTT). La entrega de contenido OTT permite que los dispositivos de usuario habilitados para Internet, incluyendo el dispositivo de equipo de usuario antes descrito, reciban contenido que se transfiere por Internet, incluyendo cualquier contenido descrito anteriormente, además del contenido recibido por conexiones de cable o satélite. El contenido OTT se suministra mediante una conexión de Internet proporcionada por un proveedor de servicios de Internet (ISP), aunque es un tercero quien distribuye el contenido. El ISP podría no ser responsable de las capacidades de visualización, derechos de autor o la redistribución del contenido, y podría solo transferir paquetes de IP proporcionados por el proveedor de contenido OTT. Entre los proveedores de contenido OTT se incluyen YOUTUBE, NETFLIX y HULU, que ofrecen audio y vídeo mediante paquetes de IP. YouTube es una marca registrada de Google Inc., Netflix es una marca registrada de Netflix Inc. y Hulu es una marca registrada de Hulu, LLC. Los proveedores de contenido OTT podrían proporcionar adicional o alternativamente los datos de medios descritos anteriormente. Además del contenido y/o datos de medios, los proveedores de contenido OTT pueden distribuir aplicaciones de medios (p. ej., aplicaciones basadas en la web o en la nube), o bien el contenido puede ser presentado a través de aplicaciones de medios almacenadas en el dispositivo de equipo de usuario.
El sistema de medios 400 pretende ilustrar cierto número de estrategias, o configuraciones de red, mediante las cuales los dispositivos de equipo de usuario y las fuentes de contenido y los datos de medios pueden comunicarse entre sí con el fin de acceder a contenido y proporcionar datos de medios. Las realizaciones descritas en esta invención pueden aplicarse en una o un subgrupo de estas estrategias, o en un sistema que utilice otras estrategias para distribuir contenido y proporcionar datos de medios. Las cuatro estrategias siguientes proporcionan ilustraciones específicas del ejemplo generalizado de la FIG. 4.
En una estrategia, los dispositivos de equipo de usuario pueden comunicarse entre sí dentro de una red doméstica. Los dispositivos de equipo de usuario pueden comunicarse entre sí directamente mediante esquemas de comunicación punto a punto de rango corto como se ha descrito anteriormente, mediante vías indirectas a través de un concentrador u otro dispositivo similar proporcionado en una red doméstica o mediante una red de comunicaciones 414. Cada uno de los múltiples individuos en un único hogar pueden operar diferentes dispositivos de equipo de usuario en la red doméstica.
Como resultado, la comunicación entre diferentes dispositivos de equipo de usuario puede ser conveniente para diversas informaciones o configuraciones de datos de medio. Por ejemplo, puede ser deseable que los usuarios mantengan configuraciones consistentes de la aplicación de medios en diferentes dispositivos de equipo de usuario dentro de una red doméstica, como se describe con mayor detalle en la solicitud de patente de EE.UU. n.° 11/179.410
de Ellis y col., presentada el 11 de julio de 2005. También se pueden comunicar entre sí diferentes tipos de dispositivos de equipo de usuario en una red doméstica para transmitir contenido. Por ejemplo, un usuario puede transmitir contenido desde un equipo de ordenador de usuario hasta un reproductor de vídeo portátil o reproductor de música portátil.
En una segunda estrategia, los usuarios pueden tener múltiples tipos de equipo de usuario mediante los cuales acceden a contenido y obtienen datos de medios. Por ejemplo, algunos usuarios pueden tener redes domésticas a las que se accede mediante dispositivos instalados en el hogar y dispositivos móviles. Los usuarios pueden controlar los dispositivos instalados en el hogar mediante una aplicación de medios implementada en un dispositivo remoto.Por ejemplo, los usuarios pueden acceder a una aplicación de medios en línea en un sitio web mediante un ordenador personal en la oficina o un dispositivo móvil tal como una PDA o teléfono móvil con acceso a Internet. El usuario puede ajustar varias configuraciones (p. ej., grabaciones, recordatorios u otras configuraciones) en la aplicación de medios en línea para controlar el equipo de usuario doméstico. La guía en línea puede controlar el equipo del usuario directamente o comunicándose con una aplicación de medios en el equipo de usuario doméstico. Diversos sistemas y procedimientos para la comunicación de dispositivos de equipo de usuario, donde los dispositivos de equipo de usuario están en ubicaciones alejadas entre sí, se analizan, por ejemplo, en la patente de Estados Unidos de Ellis y col., n.° 8.046.801, concedida el martes 25 de octubre de 2011.
En una tercera estrategia, los usuarios de dispositivos de equipo de usuario dentro y fuera de un hogar pueden usar su aplicación de medios para comunicarse directamente con la fuente de contenido 416 para acceder al mismo. Específicamente, dentro del hogar, los usuarios del equipo de televisión de usuario 402 y del equipo de ordenador de usuario 404 pueden acceder a la aplicación de medios para navegar por y localizar el contenido deseado. Los usuarios también pueden acceder a la aplicación de medios fuera del hogar usando dispositivos de comunicación inalámbrica de usuario 406 para navegar por y localizar el contenido deseado.
En una cuarta estrategia, los dispositivos de equipo de usuario pueden operar en un entorno informático en la nube para acceder a servicios en la nube. En un entorno informático en la nube, se proporcionan varios tipos de servicios informáticos para compartir contenido, almacenarlo o distribuirlo (p. ej., sitios para compartir vídeos o de redes sociales) mediante un conjunto de recursos informáticos y almacenamiento accesibles a través de la red, a los que se denomina «la nube». Por ejemplo, la nube puede incluir un conjunto de dispositivos informáticos de servidor, que pueden estar situados centralmente o en ubicaciones distribuidas que proporcionan servicios basados en la nube a varios tipos de usuarios y dispositivos conectados por medio de una red como Internet a través de una red de comunicación 414. Estos recursos en la nube pueden incluir una o más fuentes de contenido 416 y una o más fuentes de información complementaria 418. Además, o de manera alternativa, los sitios informáticos remotos pueden incluir otros dispositivos de equipo de usuario, tales como un equipo de televisión de usuario 402, un equipo de ordenador de usuario 404 y un dispositivo de comunicación inalámbrica de usuario 406. Por ejemplo, los otros dispositivos de equipo de usuario pueden proporcionar acceso a una copia almacenada de un vídeo o un vídeo emitido en continuo. En dichas realizaciones, los dispositivos de equipo de usuario pueden operar en modo punto a punto sin comunicarse con un servidor central.
La nube proporciona acceso a servicios, tales como almacenamiento de contenido, uso compartido de contenido, o servicios de redes sociales, entre otros ejemplos, así como acceso a cualquier contenido descrito anteriormente, para dispositivos de equipo de usuario. Los servicios pueden proporcionarse en la nube a través de proveedores de servicios informáticos en la nube o mediante otros proveedores de servicios en línea. Por ejemplo, los servicios basados en la nube pueden incluir un servicio de almacenamiento de contenido, un sitio para compartir contenido, un sitio de redes sociales u otros servicios a través de los cuales el contenido de origen del usuario se distribuye para que otros lo puedan visionar en dispositivos conectados. Estos servicios basados en la nube pueden permitir que un dispositivo de equipo de usuario almacene contenido en la nube y reciba contenido de la misma en lugar de almacenarlo y acceder a dicho contenido de manera local.
Un usuario puede usar diversos dispositivos de captura de contenido, tales como videograbadoras, cámaras digitales con modo de vídeo, grabadoras de audio, teléfonos móviles y dispositivos informáticos de mano para grabar contenido. El usuario puede cargar contenido en un servicio de almacenamiento de contenido en la nube ya sea de manera directa, por ejemplo, desde un equipo de ordenador de usuario 404, o desde un dispositivo de comunicación inalámbrica de usuario 406 que cuente con la característica de captura de contenido. De manera alternativa, el usuario puede transferir primero el contenido a un dispositivo de equipo de usuario, como un equipo de ordenador de usuario 404. El dispositivo de equipo de usuario que almacena el contenido lo carga en la nube utilizando un servicio de transmisión de datos en una red de comunicaciones 414. En algunas realizaciones, el dispositivo de equipo de usuario es un recurso de la nube en sí mismo y otros dispositivos de equipo de usuario pueden acceder al contenido directamente desde el dispositivo de equipo de usuario en el que el usuario ha almacenado dicho contenido.
Puede accederse a recursos en la nube mediante un dispositivo de equipo de usuario usando, por ejemplo, un
navegador web, una aplicación de medios, una aplicación de escritorio, una aplicación móvil, y/o cualquier combinación de aplicaciones de acceso del mismo. El dispositivo de equipo de usuario puede ser un cliente en la nube que se basa en informática en la nube para la entrega de la aplicación, o puede tener alguna funcionalidad sin acceso a los recursos en la nube. Por ejemplo, algunas aplicaciones que se ejecutan en el dispositivo de equipo de usuario pueden ser aplicaciones en la nube, es decir, aplicaciones suministradas como un servicio a través de Internet, mientras que otras aplicaciones pueden almacenarse y ejecutarse en el dispositivo de equipo de usuario. En algunas realizaciones, un dispositivo de usuario puede recibir contenido procedente de múltiples recursos en la nube simultáneamente. Por ejemplo, un dispositivo de usuario puede transmitir directamente audio procedente de un recurso en la nube mientras que descarga contenido procedente de un segundo recurso en la nube. O bien, un dispositivo puede descargar contenido desde múltiples recursos en la nube para realizar una descarga más eficiente. En algunas realizaciones, los dispositivos de equipo de usuario pueden usar recursos en la nube para operaciones de procesamiento como las realizadas por los circuitos de procesamiento descritos en relación con la FIG. 3.
La FIG. 5 es un ejemplo ilustrativo de una estructura de datos que puede usarse para determinar el contexto de un evento en un recurso de medios de acuerdo con algunas realizaciones de la descripción. La estructura de datos 500 se puede usar para proporcionar la pantalla 108 como se muestra en la FIG. 1 y/o de acuerdo con lo descrito en relación con las FIGS. 6-9. Cabe señalar que la estructura de datos 500 o cualquier otra información allí incluida podría ser almacenada, generada, transmitida y/o recibida por cualquiera de los dispositivos mostrados en las FIGS. 3-4. Por ejemplo, la estructura de datos 500 puede ser procesada por los circuitos de control 304 (FIG. 3) de acuerdo con lo indicado por una aplicación de medios implementada en los equipos de usuario 402, 404 y/o 406 (FIG. 4), una fuente de contenido 416 (FIG. 4) y/o cualquier dispositivo accesible por la red de comunicaciones 414 (FIG. 4).
En algunas realizaciones, la aplicación de medios puede generar la estructura de datos 500. Por ejemplo, usando un módulo de reconocimiento de contenido, la aplicación de medios puede determinar el contexto de un evento en un recurso de medios. De manera adicional o alternativa, la aplicación de medios puede generar una estructura de datos (p. ej., la estructura de datos 500) de un período de tiempo predeterminado (p. ej., diez segundos) antes y/o después del evento. En algunas realizaciones, la estructura de datos 500 puede transmitirse a la aplicación de medios (p. ej., desde la fuente de información complementaria 418 (FIG. 4) y/o cualquier dispositivo accesible a través de la red de comunicaciones 414 (FIG. 4)). Por ejemplo, en algunas realizaciones, el módulo de reconocimiento de contenido puede estar ubicado en un servidor remoto (p. ej., la fuente de información complementaria 418 (FIG. 4)).
La estructura de datos 500 incluye múltiples líneas de código. Cabe señalar que los datos (p. ej., representados por las diversas líneas de código) mostrados en la estructura de datos 500 no son limitantes, y en algunas realizaciones, los datos como se describen en la estructura de datos 500 pueden ser reemplazados o complementados por otros datos de acuerdo con lo expuesto en la descripción. Las líneas 502 a 524 indican a la aplicación de medios que la estructura de datos 500 está relacionada con un recurso de medios.
Las líneas 504 a 508 indican a la aplicación de medios la información sobre el recurso de medios, como el título o la descripción del tema (p. ej., la línea 504), el punto actual de progresión (p. ej., línea 506) y la fecha y hora de la emisión o transmisión del recurso de medios (p. ej., línea 508). En algunas realizaciones, la aplicación de medios puede usar esta información para crear puntos de referencia para determinar el contexto en un evento. Por ejemplo, la aplicación de medios puede determinar que si el recurso de medios es un debate político (como se indica, p. ej., en la línea 504) es probable por el contexto del evento que algo que acontezca en el recurso de medios (p. ej., una declaración) esté relacionado con la política.
Las líneas 510 a 518 indican a la aplicación de medios los detalles del evento (p. ej., para un segmento o intervalo de tiempo) del recurso de medios, como quién hizo una declaración en particular (p. ej., línea 512), qué se dijo (p. ej., línea 514), y el tono/volumen de lo que se dijo (por ejemplo, línea 516). En algunas realizaciones, las líneas 510 a 518 pueden representar el producto del reconocimiento de contenido aplicado a varios tipos de datos asociados con el recurso de medios, como los datos de los subtítulos (p. ej., línea 512) y de audio (p. ej., línea 514 y línea 516). En algunas realizaciones, los datos incluidos en la estructura de datos 500 pueden tener referencias cruzadas (p. ej., de la aplicación de medios 206 (FIG. 2)) a una base de datos (p. ej., ubicada en la fuente de información complementaria 418 (FIG. 4)) para determinar el contexto de un evento (p. ej., como se describe en la FIG. 8 a continuación).
De manera adicional o alternativa, la estructura de datos 500 puede transmitirse con un recurso de medios (p. ej., como metadatos). Por ejemplo, la estructura de datos 500 puede generarse en la fuente de contenido 416 (f Ig .4) antes de la transmisión del recurso de medios. La estructura de datos 500 puede transmitirse con (o transmitirse antes y almacenarse en local (p. ej., almacenamiento 308 (FIG. 3)) o en remoto (p. ej., fuente de información complementaria 418 (FIG. 4)) como datos de medios que describen los contextos de los eventos que aparecen en el recurso de medios. En lugar de procesar el recurso de medios usando el módulo de reconocimiento de contenido, cuando un usuario solicita información complementaria, la aplicación de medios puede hacer referencia a la estructura de datos 500 para determinar el contexto de un evento en el recurso de medios. Por ejemplo, en algunas realizaciones, la estructura de
datos 500 puede describir el contexto de cada evento en el recurso de medios durante la progresión del mismo. La FIG. 6 es un diagrama de flujo de pasos ilustrativos de la transmisión de información complementaria generada para un usuario en respuesta a una solicitud de información complementaria de acuerdo con algunas realizaciones de la descripción. El proceso 600 se puede usar para proporcionar información complementaria (p. ej., la información complementaria 110 (FIG. 1)). Cabe señalar que el proceso 600 o cualquier otro paso del mismo podría mostrarse en, o ser proporcionado por, cualquiera de los dispositivos mostrados en las FIG. 3-4. Por ejemplo, el proceso 600 puede ser ejecutado por los circuitos de control 304 (FIG. 3) de acuerdo con lo indicado por la aplicación de medios (p. ej., la aplicación de medios 206 (FIG. 2)).
En la etapa 602, la aplicación de medios (p. ej., la aplicación de medios 206 (FIG.2)) recibe una solicitud de información complementaria con respecto a un evento durante un recurso de medios. Por ejemplo, la aplicación de medios puede recibir datos del usuario (p. ej., a través de la interfaz de entrada del usuario 310 (FIG. 3)) durante un evento (por ejemplo, el evento 106 (FIG. 1)) en un recurso de medios visualizado en la pantalla (p. ej., la pantalla 100 (FIG. 1)) de un dispositivo de usuario (p. ej., los equipos de usuario 402, 404 y/o 406 (FIG. 4)).
En el paso 604, la aplicación de medios (p. ej., la aplicación de medios 206 (FIG. 2)) determina si los datos de medios (p. ej., los metadatos transmitidos con el recurso de medios) describen o no el evento. Por ejemplo, en algunas realizaciones, un proveedor de contenido (p. ej., la fuente de contenido 416 (FIG. 4)) puede proporcionar datos de medios que describen el recurso de medios y cualquier evento que pueda ocurrir durante el recurso de medios. Si es así, la aplicación de medios continúa con el paso 608.
De lo contrario, la aplicación de medios continúa con el paso 606. En el paso 606, la aplicación de medios (p. ej., la aplicación de medios 206 (FIG. 2)) aplica un módulo y/o algoritmo de reconocimiento de contenido al evento. En algunas realizaciones, la aplicación de medios puede usar múltiples tipos de módulos y/o algoritmos de reconocimiento de contenido para determinar el contexto de un evento de acuerdo con lo descrito en esta invención. En algunas realizaciones, el procesamiento de los diversos tipos de datos puede incluir referencias cruzadas de los datos a una base de datos que incluya los diferentes contextos que puede tener el evento. En algunas realizaciones, la aplicación de medios puede aplicar uno o más pasos del proceso 800 de la FIG. 8 que se muestra a continuación.
En el paso 608, la aplicación de medios (p. ej., la aplicación de medios 206 (FIG. 2)) determina el contexto de un evento. Por ejemplo, la aplicación de medios puede determinar el significado o las circunstancias que rodean un evento (p. ej., el evento 106 (FIG. 1)). En algunas realizaciones, el paso 602 puede corresponderse con el paso 810 de la FIG. 8 que se muestra a continuación.
En el paso 610, la aplicación de medios (p. ej., la aplicación de medios 206 (FIG. 2)) genera las solicitudes de información adicional. En algunas realizaciones, después de determinar el contexto de la declaración, la aplicación de medios puede detallar en tareas la información adicional que requiere para generar la información complementaria. Las tareas detalladas se pueden entonces incluir en las solicitudes de información adicional. Por ejemplo, la aplicación de medios puede realizar uno o más pasos descritos en las siguientes FIGS. 7 y 9.
En el paso 612, la aplicación de medios (p. ej., la aplicación de medios 206 (FIG. 2)) selecciona los destinatarios (p. ej., los dispositivos de usuario 206, 208 y 210 (FIG. 2)) de la solicitud. La aplicación de medios envía la solicitud a un grupo específico (p. ej., a personas o fuentes pertenecientes a una red social asociada con el usuario) en el paso 614 (p. ej., para controlar la calidad y/o cantidad de las respuestas a las solicitudes), o la aplicación de medios puede publicar la solicitud para todos (p. ej., en un sitio web con acceso ilimitado) en el paso 616 (p. ej., para aumentar el número de respuestas o la velocidad a la que se reciben).
En el paso 618, la aplicación de medios (p. ej., la aplicación de medios 206 (FIG. 2)) recibe mensajes de los destinatarios de las solicitudes (p. ej., los usuarios que manejan el dispositivo de usuario 206, el dispositivo de usuario 208 y el dispositivo de usuario 210 (FIG. 2)). En algunas realizaciones, los mensajes de los destinatarios incluyen la información adicional (p. ej., un hecho o un voto utilizados para generar la información complementaria). La aplicación de medios puede usar los circuitos de control 304 (FIG. 3) para agregar, adjuntar y/o comparar los mensajes como se describe en la FIG. 9, mostrada a continuación, para generar la información complementaria basada en los mensajes recibidos en el paso 620.
En el paso 622, la aplicación de medios (p. ej., la aplicación de medios 206 (FIG. 2)) transmite la información complementaria generada para su visualización en un dispositivo de usuario (p. ej., los equipos de usuario 402, 404 y/o 406 (FIG. 4)). En algunas realizaciones, la aplicación de medios puede implementarse en un dispositivo remoto con respecto al dispositivo de usuario (p. ej., en la fuente de información complementaria 418 (FIG. 4)) o puede implementarse en un dispositivo local (p. ej., los equipos de usuario 402, 404 y/o 406 (FIG. 4)).
Se contempla que los pasos o descripciones de la FIG. 6 pueden utilizarse con cualquier otra realización de esta descripción. Además, los pasos y descripciones proporcionados en relación a la FIG. 6 pueden llevarse a cabo siguiendo distintos órdenes alternativos o en paralelo para promover los objetivos de esta descripción. Por ejemplo, cada uno de estos pasos puede ejecutarse en cualquier orden o en paralelo, o de manera esencialmente simultánea, para reducir demoras o incrementar la velocidad del sistema o procedimiento.
La FIG. 7 es un diagrama de flujo de pasos ilustrativos para distribuir tareas detalladas a múltiples usuarios con el fin de generar información complementaria sobre un evento en un recurso de medios de acuerdo con algunas realizaciones de la descripción. El proceso 700 se puede usar para proporcionar información complementaria (p. ej., la información complementaria 110 (FIG. 1)). Cabe señalar que el proceso 700 o cualquier otro paso del mismo podría mostrarse en, o ser proporcionado por, cualquiera de los dispositivos mostrados en las FIG. 3-4. Por ejemplo, el proceso 700 puede ser ejecutado por los circuitos de control 304 (FIG. 3) de acuerdo con lo indicado por la aplicación de medios (p. ej., la aplicación de medios 206 (FIG. 2)).
En el paso 702, la aplicación de medios (p. ej., la aplicación de medios 206 (FIG. 2)) identifica la información complementaria requerida. Por ejemplo, un módulo o algoritmo de reconocimiento de contenido puede determinar las relaciones entre palabras y/u otra información obtenida por el módulo de reconocimiento de contenido. Por ejemplo, al procesar los datos relacionados con un evento, la aplicación de medios puede determinar que el evento (p. ej., el evento 106 (FIG. 1)) es una declaración. Por lo tanto, la aplicación de medios determina que la solicitud de información complementaria probablemente se haga para determinar la validez de la declaración. La aplicación de medios puede determinar la probabilidad basándose en referencias cruzadas del evento determinado a una base de datos que indique las solicitudes de los usuarios probables para determinados eventos.
En algunas realizaciones, la base de datos puede incorporarse o estar accesible en cualquiera de los dispositivos de las FIGS. 2-4. Por ejemplo, en algunas realizaciones, la base de datos puede estar ubicada en la base de datos de información complementaria 418 (FIG. 4).
En el paso 704, la aplicación de medios (p. ej., la aplicación de medios 206 (FIG. 2)) determina la información adicional requerida para generar la información complementaria. Por ejemplo, si la base de la solicitud del paso 702 es determinar la validez de una declaración, la aplicación de medios determina los hechos necesarios para validar dicha declaración.
En el paso 706, la aplicación de medios (p. ej., la aplicación de medios 206 (FIG. 2)) establece si determinar o no la información adicional incluye múltiples tareas. Por ejemplo, como se ha explicado anteriormente en relación con la FIG. 2, al dividir la información adicional en tareas pequeñas e independientes, la aplicación de medios puede aumentar la velocidad (p. ej., varios usuarios pueden trabajar simultáneamente para resolver diferentes partes de un problema) y la precisión (p. ej., reducir las tareas a problemas más pequeños y menos complejos reduce la posibilidad de errores humanos) de la información adicional devuelta por la pluralidad de usuarios. Si la aplicación de medios no detalla las tareas (p. ej., la aplicación de medios no es capaz de detallar la información adicional en las tareas), la aplicación de medios continúa con el paso 712.
Si la aplicación de medios (p. ej., la aplicación de medios 206 (FIG. 2)) establece que determinar la información adicional incluye múltiples tareas, la aplicación de medios determina las múltiples tareas necesarias para generar la información adicional en el paso 708. En algunas realizaciones, la aplicación de medios puede usar los circuitos de control 304 (FIG. 3) para detallar en tareas la información adicional que requiere para generar la información complementaria para la visualización (p. ej., en la pantalla 108 (FIG. 1)) en un dispositivo de usuario (p. ej., equipos de usuario 402, 404 y/o 406 (FIG. 4)). En el paso 712, la aplicación de medios (p. ej., la aplicación de medios 206 (FIG. 2)) asigna las tareas a uno o más usuarios (p. ej., los usuarios que manejan los dispositivos de usuario 206, 208 y 210 (FIG. 2)).
En el paso 712, la aplicación de medios (p. ej., la aplicación de medios 206 (FIG. 2)) determina si incluir o no incentivos para completar las tareas. Por ejemplo, en algunas realizaciones, la aplicación de medios (utilizando, p. ej., los circuitos de control 304 (FIG. 3)) puede dar las instrucciones para ofrecer una suma monetaria u otro premio como incentivo a uno o más de los usuarios (p. ej., los usuarios que manejan los dispositivos de usuario 206, 208 y 210 (FIG. 2)) que proporcionen información adicional. Si la aplicación de medios determina no incluir incentivos, esta generará una solicitud o pedirá toda la información adicional requerida en el paso 716. Si la aplicación de medios determina incluir incentivos, asignará (utilizando, p. ej., los circuitos de control 304 (FIG. 3)) un incentivo a cada tarea del paso 714 antes de continuar con el paso 716. En algunas realizaciones, el incentivo asignado para cada tarea puede venir determinado por los datos de la fuente de información complementaria 418 (FIG. 4), por un usuario (p. ej., a través de la interfaz de entrada de usuario 310 (FIG 3)), o puede basarse en negociaciones (p. ej., con los usuarios que manejan los dispositivos de usuario 206, 208 y 210 (FiG.2)).
Se contempla que los pasos o descripciones de la FIG. 7 pueden utilizarse con cualquier otra realización de esta descripción. Además, los pasos y descripciones proporcionados en relación a la FIG. 7 pueden llevarse a cabo siguiendo distintos órdenes alternativos o en paralelo para promover los objetivos de esta descripción. Por ejemplo, cada uno de estos pasos puede ejecutarse en cualquier orden o en paralelo, o de manera esencialmente simultánea, para reducir demoras o incrementar la velocidad del sistema o procedimiento.
La FIG. 8 es un diagrama de flujo de pasos ilustrativos para determinar el contexto de un evento usando un módulo de reconocimiento de contenido de acuerdo con algunas realizaciones de la descripción El proceso 800 se puede usar para proporcionar información complementaria (p. ej., la información complementaria 110 (FIG. 1)). Cabe señalar que el proceso 800 o cualquier otro paso del mismo podría mostrarse en, o ser proporcionado por, cualquiera de los dispositivos mostrados en las FIG. 3-4. Por ejemplo, el proceso 800 puede ser ejecutado por los circuitos de control 304 (FIG. 3) de acuerdo con lo indicado por la aplicación de medios (p. ej., la aplicación de medios 206 (FIG. 2)).
En el paso 802, la aplicación de medios (p. ej., la aplicación de medios 206 (FIG. 2)) recibe los datos de audio asociados con el recurso de medios en el evento. Por ejemplo, en algunas realizaciones, los datos de audio recibidos pueden incluirse en una estructura de datos (p. ej., la estructura de datos 500 (FIG. 5) y describir un evento (p. ej., el evento 106 (FIG. 1) que ocurre en la pantalla (p. ej., la pantalla 108 (FIG. 1)) de un dispositivo de usuario (p. ej., los equipos de usuario 402, 404 y/o 406 (FIG. 4)). En algunas realizaciones, también se pueden usar otros tipos de datos o combinaciones de otros tipos de datos. Por ejemplo, la aplicación de medios puede recuperar datos de subtítulos, datos visuales y/o datos generados por el usuario (p. ej., publicaciones en redes sociales) para determinar el contexto de un evento.
Por ejemplo, el usuario puede estar accediendo a un anuncio en un dispositivo de visualización. Durante el anuncio, un locutor puede hacer una afirmación sobre un producto publicitado. En respuesta, el usuario puede solicitar información complementaria (p. ej., reseñas de usuarios y/o del sector sobre el producto) utilizando datos introducidos por el usuario (p. ej., la interfaz de entrada de usuario 310 (FIG. 3)).
En el paso 804, la aplicación de medios (p. ej., la aplicación de medios 206 (FIG. 2)) procesa los datos de audio utilizando un módulo de reconocimiento de voz. Por ejemplo, al procesar el evento (p. ej., el evento 106 (FIG. 1) utilizando un módulo de reconocimiento de voz, la aplicación de medios puede determinar las palabras o frases en particular que se pronunciaron durante el evento. Por ejemplo, la aplicación de medios puede procesar el evento 106 (FIG. 1) para determinar que se pronunciaron las palabras «exportamos mucho carbón». En el ejemplo publicitario anterior, la aplicación de medios puede procesar la afirmación realizada por el locutor del anuncio sobre el producto. El módulo de reconocimiento de voz puede determinar lo que dijo el locutor. De manera adicional o alternativa, el recurso de medios puede determinar el tipo de recurso de medios (p. ej., un anuncio) para estimar mejor el contexto de un evento (p. ej., una afirmación sobre el producto). En algunas realizaciones, al determinar que el tipo de recurso de medios es un anuncio, la aplicación de medios puede lanzar una búsqueda rápida automática para recuperar comparaciones de productos y reseñas de clientes o del sector.
En el paso 806, la aplicación de medios (p. ej., la aplicación de medios 206 (FIG. 2)) determina una o más palabras clave de los datos de audio. Por ejemplo, la aplicación de medios puede utilizar varios tipos de reconocimiento óptico de caracteres y/o lógica difusa, por ejemplo, al determinar el contexto de una o más palabras clave recuperadas. En algunas realizaciones, también se pueden determinar palabras clave de otros tipos de datos (p. ej., datos de medios, datos de audio traducidos, datos de subtítulos, datos generados por el usuario, etc.). En algunas realizaciones, la aplicación de medios puede transmitir los datos de audio (p. ej., los datos de audio incluidos en la estructura de datos 500 (FIG. 5)) a un servidor remoto (p. ej., la fuente de información complementaria 418 (FIG. 4) para su procesamiento). En algunas realizaciones, la aplicación de medios puede procesar la información usando los circuitos de control 304 (FIG. 3) en un dispositivo de usuario (p. ej., los equipos de usuario 402, 404, y/o 406 (FIG. 4). En el ejemplo publicitario anterior, la aplicación de medios puede transcribir lo que dijo el locutor para generar una o más palabras clave con respecto a la afirmación y al producto.
En la etapa 808, la aplicación de medios (p. ej., la aplicación de medios 206 (FIG. 2)) hace referencias cruzadas de una o más palabras clave (de usuario, una o más palabras del evento 106 (FIG. 1)) a una base de datos de palabras clave que indica el contexto de las palabras clave. En algunas realizaciones, también se puede hacer referencias cruzadas de otros tipos de datos a bases de datos que indican el contexto del tipo de datos en particular. Por ejemplo, los datos generados por el usuario (p. ej., transmitidos y/o publicados durante un recurso de medios) pueden indicar el contexto de un evento (p. ej., publicaciones de microblog que describen el evento). Estos datos generados por el usuario pueden usarse para determinar aún más el contexto de un evento. Por ejemplo, si se hacen varias publicaciones en Internet al mismo tiempo que el evento y/o se dirigen hacia el recurso de medios, la aplicación de medios puede determinar que las publicaciones de Internet están relacionadas con el evento. En tal caso, los datos (p. ej., comentarios textuales) de las publicaciones en Internet pueden usarse para determinar el contexto del evento. En el paso 810, la aplicación de medios (p. ej., la aplicación de medios 206 (FIG. 2)) determina el contexto basándose
en referencias cruzadas. En algunas realizaciones, el paso 810 puede corresponderse con el paso 608 (FIG. 6).
En el ejemplo publicitario anterior, la aplicación de medios puede hacer referencias cruzadas de determinadas palabras clave a una base de datos de palabras clave encontradas en anuncios y/u otros recursos de medios para determinar el contexto de la afirmación. La aplicación de medios puede generar solicitudes de información adicional para generar información complementaria como se describe en algunas realizaciones de esta descripción. Por ejemplo, la aplicación de medios puede solicitar reseñas de usuarios y/o del sector, encuestas de clientes u otra información de una pluralidad de usuarios (p. ej., como se describe en la FIG. 2 que aparece a continuación) que puede usarse para generar información complementaria (verificando, p. ej., la precisión de la afirmación como se describe en relación con la FIG. 7). La información adicional se puede entonces combinar como se describe a continuación en la FIG. 9 para generar información complementaria (p. ej., la información complementaria 110 (FIG. 1)).
Se contempla que los pasos o descripciones de la FIG. 8 pueden utilizarse con cualquier otra realización de esta descripción. Además, los pasos y descripciones proporcionados en relación a la FIG. 8 pueden llevarse a cabo siguiendo distintos órdenes alternativos o en paralelo para promover los objetivos de esta descripción. Por ejemplo, cada uno de estos pasos puede ejecutarse en cualquier orden o en paralelo, o de manera esencialmente simultánea, para reducir demoras o incrementar la velocidad del sistema o procedimiento.
La FIG. 9 es un diagrama de flujo de pasos ilustrativos para generar información complementaria basada en información adicional proporcionada por una pluralidad de usuarios de acuerdo con algunas realizaciones de la descripción. El proceso 900 se puede usar para proporcionar información complementaria (p. ej., la información complementaria 110 (FIG. 1)). Cabe señalar que el proceso 900 o cualquier otro paso del mismo podría mostrarse en, o ser proporcionado por, cualquiera de los dispositivos mostrados en las FIG. 3-4. Por ejemplo, el proceso 900 puede ser ejecutado por los circuitos de control 304 (FIG. 3) de acuerdo con lo indicado por la aplicación de medios (p. ej., la aplicación de medios 206 (FIG. 2)).
En el paso 902, la aplicación de medios (p. ej., la aplicación de medios 206 (FIG. 2)) recibe un primer mensaje que incluye información adicional, y en el paso 904, la aplicación de medios (p. ej., la aplicación de medios 206 (FIG. 2)) recibe un segundo mensaje que incluye información adicional. Por ejemplo, la aplicación de medios puede haber recibido respuestas a una solicitud de información adicional (p. ej., como se describe en relación con los pasos 614 y 616 (FIG. 6)) de uno de los usuarios de una pluralidad (p. ej., los usuarios que manejan los dispositivos de usuario 206, 208 y 210 (FIG. 2)). En algunas realizaciones, el paso 902 puede corresponderse con el paso 618 (FIG. 6).
En el paso 906, la aplicación de medios (p. ej., la aplicación de medios 206 (FIG. 2)) determina si adjuntar o no información adicional del segundo mensaje en el primero. Por ejemplo, para generar la información complementaria, la aplicación de medios (utilizando, p. ej., los circuitos de control 304 (FIG. 3)) puede necesitar agregar múltiples mensajes que contengan cada uno información adicional. Si la aplicación de medios determina adjuntar a la información adicional del primer mensaje la información adicional del segundo mensaje, la aplicación de medios genera la información complementaria para su visualización (p. ej., en la pantalla 108 (FIG. 1)) en un dispositivo de usuario (p. ej., los equipos de usuario 402, 404 y/o 406 (FIG. 4)) basándose en el primer mensaje anexado por el segundo mensaje en el paso 908. Por ejemplo, un mensaje puede indicar información adicional sobre un evento. Un segundo mensaje puede incluir información diferente sobre el evento. En lugar de determinar si uno de los mensajes incluía información incorrecta o no, la aplicación de medios puede incluir la información adicional en ambos mensajes. En algunas realizaciones, la información adjunta puede proporcionar información complementaria que se genera desde distintos puntos de vista.
En otro ejemplo con respecto a un anuncio, los mensajes pueden incluir reseñas de usuarios y/o comparaciones de productos para un producto relacionado con un evento (p. ej., una declaración en un anuncio de que el producto es el «mejor»). En lugar de determinar si uno de los mensajes es mejor o no (determinando, p. ej., qué reseña de usuario retrata con mayor precisión si el producto es el «mejor» o no), la aplicación de medios puede incluir las reseñas de usuario de ambos mensajes.
Por ejemplo, la aplicación de medios puede monitorizar el contenido que se está viendo para determinar si el contenido corresponde a un anuncio de producto. Concretamente, la aplicación de medios puede recuperar una estructura de datos asociada con el contenido que se está viendo para identificar un producto que se está analizando como parte del evento. La aplicación de medios puede, en respuesta a la identificación del producto, realizar automáticamente una búsqueda en una o más bases de datos (p. ej., en Internet) de reseñas asociadas con el producto identificado. La aplicación de medios también puede usar la estructura de datos para identificar productos similares al producto que se analiza en el evento. La aplicación de medios puede recuperar automáticamente una pluralidad de reseñas asociadas con productos similares mediante la ejecución de una búsqueda en una o más bases de datos (p. ej., en Internet). Después de recuperar las reseñas del producto que se analiza en el evento y la pluralidad de reseñas para productos similares, la aplicación de medios puede comparar las reseñas recuperadas para el producto identificado
con las reseñas de productos similares. La aplicación de medios puede determinar, con base en la comparación, si un valor que indica un nivel similar del producto asociado con cualquiera de las reseñas de productos similares, excede un valor que indica un nivel similar del producto asociado con el producto identificado. Cuando el valor de cualquier reseña de un producto similar excede el valor de la reseña de producto identificada, la aplicación de medios puede determinar que el producto anunciado en el contenido no es el «mejor» y puede generar para su visualización un indicador que señale que el producto no es el mejor y que la declaración es falsa e identifica al menos uno de los productos similares que tienen una reseña con un valor mayor que el valor de reseña del producto anunciado. Cuando ninguna de las reseñas de productos similares excede en su valor a la reseña del producto identificado, la aplicación de medios puede determinar que el producto anunciado en el contenido es el «mejor» y puede generar para su visualización un indicador que señale que el producto es el mejor y que la afirmación es cierta.
Si la aplicación de medios (p. ej., la aplicación de medios 206 (FIG. 2)) determina no añadir a la información adicional del primer mensaje la información adicional del segundo mensaje, la aplicación de medios determina si se compara o no la información adicional recibida en los mensajes en el paso 910. Por ejemplo, en el caso de que se recibieran múltiples mensajes para la misma tarea (p. ej., una tarea creada en relación con el proceso 700 (FIG. 7)), la aplicación de medios puede comparar la información adicional en cada mensaje para mayor precisión. Por ejemplo, diferentes usuarios (p. ej., los usuarios que manejan los dispositivos de usuario 206, 208 y 210 (FIG. 2)) pueden haber proporcionado una información adicional diferente. La aplicación de medios puede determinar la información adicional (p. ej., un valor) que fue proporcionada por la mayoría de los usuarios y usar esa información adicional para generar la información complementaria.
En algunas realizaciones, la aplicación de medios puede tener niveles umbral de precisión predeterminados. Por ejemplo, la aplicación de medios puede determinar que la información adicional es precisa al recibir un número predeterminado de mensajes que incluyen la misma información o valores. De manera adicional o alternativa, la aplicación de guía de medios puede usar análisis estadísticos para determinar dentro de un error de muestreo concreto si una información o valor proporcionado es o no preciso. Por ejemplo, al recibir un número umbral de respuestas (p. ej., cien), la aplicación de guía de medios puede determinar que una información o valor recibido es correcto al recibir un porcentaje en particular de la misma respuesta (p. ej., setenta y cinco por ciento). Setenta y cinco de un total de cien respuestas que indican un valor concreto pueden alcanzar el nivel predeterminado de precisión requerido por la aplicación de medios.
Así, en el ejemplo publicitario anterior, la aplicación de guía de medios puede determinar que un valor recibido (p. ej., una calificación numérica de un producto) es correcto al recibir un porcentaje en particular o una cantidad umbral de mensajes con el mismo valor.
Si la aplicación de medios determina comparar los mensajes recibidos, la aplicación de medios continúa con el paso 914. Si la aplicación de medios determina no comparar los mensajes recibidos, la aplicación de medios continúa con el paso 912 y genera la información complementaria para su visualización (p. ej., en la pantalla 108 (FIG. 1)) en un dispositivo de usuario (p. ej., los equipos de usuario 402, 404 y/o 406 (FIG. 4)) con base en primer mensaje y/o al segundo mensaje. Por ejemplo, la aplicación de medios puede transmitir una información complementaria (p. ej., como se describe en el paso 622 (FIG.6)) generada usando solo información adicional del primer mensaje o solo información adicional del segundo mensaje. Adicional o alternativamente, la aplicación de medios puede generar información complementaria usando solo información adicional del primer mensaje y generar información complementaria usando solo información adicional del segundo mensaje, y transmitir ambas al usuario.
En el paso 914, la aplicación de medios (p. ej., la aplicación de medios 206 (FIG. 2)) determina si la información adicional recibida del primer mensaje y el segundo mensaje se corresponden o no. Si es así, la aplicación de medios genera información complementaria con la información adicional correspondiente en el paso 920. Por ejemplo, al comparar la información adicional recibida en los mensajes, la aplicación de medios determina si la información adicional de cada mensaje es la misma. Si la información adicional es la misma, la aplicación de medios procede a generar la información complementaria para su visualización (p. ej., en la pantalla 108 (FIG. 1)) en un dispositivo de usuario (p. ej., los equipos de usuario 402, 404 y/o 406 (FIG. 4)).
Si la aplicación de medios (p. ej., la aplicación de medios 206 (FIG. 2)) determina que la información adicional recibida del primer mensaje y el segundo mensaje no se corresponden, la aplicación de medios selecciona la información adicional del primer mensaje o del segundo mensaje en el paso 916. En algunas realizaciones, la aplicación de medios puede seleccionar la información adicional que está basada en el usuario de acuerdo con uno o más criterios (p. ej., una calificación asociada con el autor de la información adicional). En el paso 918, la aplicación de medios procede a generar la información complementaria basada en la información seleccionada para su visualización (p. ej., en la pantalla 108 (FIG. 1)) de un dispositivo de usuario (p. ej., los equipos de usuario 402, 404 y/o 406 (FIG. 4)).
Así, en el ejemplo publicitario anterior, la aplicación de medios puede seleccionar la reseña de usuario de un autor
más fiable. Por ejemplo, la aplicación de medios puede comparar un perfil de usuario (p. ej., que contiene calificaciones asociadas con las reseñas generadas por el usuario) asociadas con cada uno de la pluralidad de usuarios para determinar si la aplicación de medios debe mostrar o no la reseña de ese usuario en particular de la pluralidad de usuarios. Si el perfil del usuario indica una calificación alta (p. ej., el usuario ha escrito numerosas reseñas), la aplicación de medios puede usar la información adicional recibida en el mensaje proporcionado por el usuario correspondiente. Si el perfil de usuario indica una calificación baja (p. ej., las reseñas anteriores de este usuario se han marcado como ofensivas), la aplicación de medios podría no usar la información adicional recibida en el mensaje proporcionado por el usuario correspondiente.
Se contempla que los pasos o descripciones de la FIG. 9 pueden utilizarse con cualquier otra realización de esta descripción. Además, los pasos y descripciones proporcionados en relación a la FIG. 9 pueden llevarse a cabo siguiendo distintos órdenes alternativos o en paralelo para promover los objetivos de esta descripción. Por ejemplo, cada uno de estos pasos puede ejecutarse en cualquier orden o en paralelo, o de manera esencialmente simultánea, para reducir demoras o incrementar la velocidad del sistema o procedimiento.
Con fines ilustrativos y no restrictivos, se presentan las realizaciones antes descritas de la presente descripción, la cual solo se limita a las reivindicaciones siguientes. Además, cabe señalar que las características y limitaciones descritas en cualquiera de las realizaciones pueden aplicarse a cualquier realización de esta invención, y los diagramas de flujo o ejemplos relacionados con una realización pueden combinarse con cualquier otra realización de manera adecuada, llevarse a cabo en distinto orden o en paralelo. Además, los sistemas y procedimientos descritos en esta invención pueden ejecutarse a tiempo real. También cabe señalar que los sistemas y/o procedimientos antes descritos pueden aplicarse a o utilizarse de acuerdo con otros sistemas y/o procedimientos.
Claims (12)
1. Un procedimiento para proporcionar contenido complementario asociado con un recurso de medios, que comprende:
recibir datos introducidos por un usuario desde un dispositivo de usuario para obtener información complementaria sobre el contexto de un evento que se muestra en el recurso de medios;
determinar automáticamente el contexto del evento en función de los datos asociados con el evento, donde el evento es una declaración o gesto realizado por un personaje o persona en el recurso de medios;
determinar la información adicional requerida para generar la información complementaria sobre el contexto del evento que se muestra en el recurso de medios;
generar una solicitud de información adicional;
seleccionar una pluralidad de usuarios para recibir la solicitud de información adicional basada en la pluralidad de usuarios que pertenecen a una red social asociada con el usuario;
transmitir, a la pluralidad de usuarios, la solicitud de información adicional sobre el contexto del evento que se muestra en el recurso de medios;
recibir mensajes de la pluralidad de usuarios en respuesta a la solicitud;
generar información complementaria asociada con el contexto del evento basada en los mensajes;
transmitir la información complementaria generada al dispositivo de usuario; y
generar para su visualización el recurso de medios y la información complementaria generada.
2. El procedimiento de acuerdo con la reivindicación 1, donde se determina automáticamente el contexto del evento en función de los datos asociados con el evento comprende:
recibir datos de objetos asociados con objetos del recurso de medios en el evento;
procesar los datos del objeto usando un módulo de reconocimiento de objetos para determinar los objetos del recurso de medios en el evento;
hacer referencias cruzadas del objeto a una base de datos de contextos para objetos de recursos de medios; y
determinar el contexto del evento en función del objeto con referencias cruzadas.
3. El procedimiento de la reivindicación 1 o 2 donde:
se determina automáticamente el contexto del evento en función de los datos asociados con el evento comprende:
recibir datos de medios que describen el recurso de medios en el evento; y
hacer referencias cruzadas de los datos de medios que describen el recurso de medios en el evento a una base de datos de contextos para datos de medios en recursos de medios; y
el contexto del evento se determina en función de los datos de medios con referencias cruzadas.
4. El procedimiento de la reivindicación 1, 2 o 3, donde:
se determina automáticamente el contexto del evento en función de los datos asociados con el evento comprende:
recibir datos de audio asociados con el recurso de medios en el evento;
procesar los datos de audio usando un módulo de reconocimiento de voz para determinar palabras clave en los datos de audio asociados con el recurso de medios en el evento; y
hacer referencias cruzadas de las palabras clave a una base de datos de contextos para palabras claves de recursos de medios; y
el contexto del evento se determina en función de las palabras clave con referencias cruzadas.
5. El procedimiento de la reivindicación 12 o 3, donde:
se determina automáticamente el contexto del evento en función de los datos asociados con el evento comprende:
recibir datos de subtítulos asociados con el recurso de medios en el evento;
procesar los datos de subtítulos usando un módulo de reconocimiento de caracteres para determinar una palabra clave en los datos de subtítulos asociados con el recurso de medios en el evento; y
hacer referencias cruzadas de la palabra clave a una base de datos de contextos para palabras claves de recursos de medios; y
el contexto del evento se determina en función de la palabra clave con referencias cruzadas.
6. El procedimiento de acuerdo con la reivindicación 4, donde:
se determina automáticamente el contexto del evento en función de los datos asociados con el evento que además comprende:
recibir datos de subtítulos asociados con el recurso de medios en el evento;
procesar los datos de subtítulos usando un módulo de reconocimiento de caracteres para determinar una segunda palabra clave en los datos de subtítulos asociados con el recurso de medios en el evento;
hacer referencias cruzadas de la segunda palabra clave a la base de datos de contextos para palabras claves de recursos de medios; y
el contexto del evento se determina en función de la segunda palabra clave con referencias cruzadas.
7. Un sistema para proporcionar contenido complementario asociado con un recurso de medios, que comprende:
medios para recibir datos introducidos por un usuario desde un dispositivo de usuario para obtener información complementaria sobre el contexto de un evento que se muestra en el recurso de medios;
medios para determinar automáticamente el contexto del evento en función de los datos asociados con el evento, donde el evento es una declaración o gesto realizado por un personaje o persona en el recurso de medios;
medios para determinar la información adicional requerida para generar la información complementaria sobre el contexto del evento que se muestra en el recurso de medios;
medios para generar una solicitud de información adicional;
medios para seleccionar una pluralidad de usuarios para recibir la solicitud de información adicional basada en la pluralidad de usuarios que pertenecen a una red social asociada con el usuario;
medios para transmitir, a la pluralidad de usuarios, la solicitud de información adicional sobre el contexto del evento que se muestra en el recurso de medios;
medios para recibir mensajes de la pluralidad de usuarios en respuesta a la solicitud;
medios para generar información complementaria asociada con el contexto del evento basada en los mensajes;
medios para transmitir la información complementaria generada al dispositivo de usuario; y medios para generar para su visualización el recurso de medios y la información complementaria generada.
8. El sistema de la reivindicación 7, donde:
los medios para determinar automáticamente el contexto del evento en función de los datos asociados con el evento comprenden:
medios para recibir datos de objetos asociados con objetos del recurso de medios en el evento; medios para procesar los datos del objeto usando un módulo de reconocimiento de objetos para determinar los objetos del recurso de medios en el evento; y
medios para hacer referencias cruzadas del objeto a una base de datos de contextos para objetos de recursos de medios; y
los medios para determinar automáticamente el contexto del evento se configuran para determinar el contexto en función del objeto con referencias cruzadas.
9. El sistema de acuerdo con la reivindicación 7 u 8, donde se establecen los medios para determinar automáticamente el contexto del evento en función de los datos asociados con el evento comprende:
medios para recibir datos de medios que describen el recurso de medios en el evento;
medios para hacer referencias cruzadas de los datos de medios que describen el recurso de medios en el evento a una base de datos de contextos para datos de medios en recursos de medios; y
medios para determinar el contexto del evento en función de los datos de medios con referencias cruzadas.
10. El sistema de la reivindicación 7, 8 o 9, donde:
los medios para determinar automáticamente el contexto del evento en función de los datos asociados con el evento comprenden:
medios para recibir datos de audio asociados con el recurso de medios en el evento;
medios para procesar los datos de audio usando un módulo de reconocimiento de voz para determinar palabras clave en los datos de audio asociados con el recurso de medios en el evento; y
medios para hacer referencias cruzadas de las palabras clave a una base de datos de contextos para palabras claves de recursos de medios; y
los medios para determinar automáticamente el contexto del evento se configuran para determinar el contexto en función de palabras clave con referencias cruzadas.
11. El sistema de la reivindicación 7, 8 o 9, donde:
los medios para determinar automáticamente el contexto del evento en función de los datos asociados con el evento comprenden:
medios para recibir datos de subtítulos asociados con el recurso de medios en el evento;
medios para procesar los datos de subtítulos usando un módulo de reconocimiento de caracteres para determinar una palabra clave en los datos de subtítulos asociados con el recurso de medios en el evento;
medios para hacer referencias cruzadas de la palabra clave a una base de datos de contextos para palabras claves de recursos de medios; y
los medios para determinar automáticamente el contexto del evento se configuran para determinar el contexto en función de la palabra clave con referencias cruzadas.
12. El sistema de la reivindicación 10, donde:
los medios para determinar automáticamente el contexto del evento en función de los datos asociados con el evento además comprenden:
medios para recibir datos de subtítulos asociados con el recurso de medios en el evento;
medios para procesar los datos de subtítulos usando un módulo de reconocimiento de caracteres para determinar una segunda palabra clave en los datos de subtítulos asociados con el recurso de medios en el evento;
medios para hacer referencias cruzadas de la segunda palabra clave a la base de datos de contextos para palabras claves de recursos de medios; y
los medios para determinar automáticamente el contexto del evento se configuran para determinar el contexto en función de la segunda palabra clave con referencias cruzadas.
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US13/705,837 US8839309B2 (en) | 2012-12-05 | 2012-12-05 | Methods and systems for displaying contextually relevant information from a plurality of users in real-time regarding a media asset |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| ES2747599T3 true ES2747599T3 (es) | 2020-03-10 |
Family
ID=49780423
Family Applications (2)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| ES17211183T Active ES2747599T3 (es) | 2012-12-05 | 2013-12-04 | Procedimientos y sistemas para mostrar información contextualmente relevante en relación con un recurso de medios |
| ES17211189T Active ES3024616T3 (en) | 2012-12-05 | 2013-12-04 | Methods and systems for displaying contextually relevant information regarding a media asset |
Family Applications After (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| ES17211189T Active ES3024616T3 (en) | 2012-12-05 | 2013-12-04 | Methods and systems for displaying contextually relevant information regarding a media asset |
Country Status (6)
| Country | Link |
|---|---|
| US (2) | US8839309B2 (es) |
| EP (6) | EP4557752A3 (es) |
| JP (4) | JP6364424B2 (es) |
| ES (2) | ES2747599T3 (es) |
| PT (1) | PT3346717T (es) |
| WO (1) | WO2014089145A2 (es) |
Families Citing this family (21)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20140340466A1 (en) * | 2013-05-15 | 2014-11-20 | Kitsy Lane, Inc. | System and method for multi-event video conference sales transactions |
| US9716919B2 (en) * | 2013-09-30 | 2017-07-25 | Hulu, LLC | Queue to display additional information for entities in captions |
| US9924215B2 (en) * | 2014-01-09 | 2018-03-20 | Hsni, Llc | Digital media content management system and method |
| US10620801B1 (en) * | 2014-06-25 | 2020-04-14 | Google Llc | Generation and presentation of interactive information cards for a video |
| AU2015308822B2 (en) * | 2014-08-27 | 2021-04-01 | Schawk Usa Llc | Media generation system and methods of performing the same |
| US11240349B2 (en) * | 2014-12-31 | 2022-02-01 | Ebay Inc. | Multimodal content recognition and contextual advertising and content delivery |
| CN104703044B (zh) * | 2015-02-12 | 2018-03-09 | 北京橘子文化传媒有限公司 | 一种图片弹幕发布方法 |
| US20160378762A1 (en) * | 2015-06-29 | 2016-12-29 | Rovi Guides, Inc. | Methods and systems for identifying media assets |
| US20170006356A1 (en) * | 2015-07-01 | 2017-01-05 | Microsoft Corporation | Augmented experience of media presentation events |
| US11017313B2 (en) | 2016-02-29 | 2021-05-25 | International Business Machines Corporation | Situational context analysis program |
| CN105872658B (zh) * | 2016-03-31 | 2017-11-10 | 维沃移动通信有限公司 | 控制视频播放器网络连接的方法和移动终端 |
| US10322348B2 (en) | 2016-04-27 | 2019-06-18 | DISH Technologies L.L.C. | Systems, methods and apparatus for identifying preferred sporting events based on fantasy league data |
| CN107690089A (zh) | 2016-08-05 | 2018-02-13 | 阿里巴巴集团控股有限公司 | 数据处理方法、直播方法及装置 |
| US10200759B1 (en) * | 2017-07-28 | 2019-02-05 | Rovi Guides, Inc. | Systems and methods for identifying and correlating an advertised object from a media asset with a demanded object from a group of interconnected computing devices embedded in a living environment of a user |
| US10506287B2 (en) * | 2018-01-04 | 2019-12-10 | Facebook, Inc. | Integration of live streaming content with television programming |
| US10972762B2 (en) * | 2018-09-28 | 2021-04-06 | Rovi Guides, Inc. | Systems and methods for modifying date-related references of a media asset to reflect absolute dates |
| US11134319B1 (en) * | 2018-10-18 | 2021-09-28 | Amazon Technologies, Inc. | Streaming video data using contributor trust |
| US11183186B2 (en) | 2019-01-16 | 2021-11-23 | International Business Machines Corporation | Operating a voice response system |
| US11310182B2 (en) | 2019-11-20 | 2022-04-19 | International Business Machines Corporation | Group communication organization |
| US20230117025A1 (en) * | 2021-10-20 | 2023-04-20 | Motorola Solutions, Inc. | PUBLIC SAFETY COMMUNICATION SYSTEM and METHOD PROVIDING REGIONAL DIFFERENCE RECOGNITION |
| TR2022001747A2 (tr) * | 2022-02-10 | 2022-03-21 | Yavuz Davut | Bi̇r vi̇deo oynatma programi ve si̇stemi̇ |
Family Cites Families (76)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US4706121B1 (en) | 1985-07-12 | 1993-12-14 | Insight Telecast, Inc. | Tv schedule system and process |
| US5014125A (en) | 1989-05-05 | 1991-05-07 | Cableshare, Inc. | Television system for the interactive distribution of selectable video presentations |
| US5659350A (en) | 1992-12-09 | 1997-08-19 | Discovery Communications, Inc. | Operations center for a television program packaging and delivery system |
| US6239794B1 (en) | 1994-08-31 | 2001-05-29 | E Guide, Inc. | Method and system for simultaneously displaying a television program and information about the program |
| US6418556B1 (en) | 1993-09-09 | 2002-07-09 | United Video Properties, Inc. | Electronic television program guide schedule system and method |
| US5589892A (en) | 1993-09-09 | 1996-12-31 | Knee; Robert A. | Electronic television program guide schedule system and method with data feed access |
| US6275268B1 (en) | 1993-09-09 | 2001-08-14 | United Video Properties, Inc. | Electronic television program guide with remote product ordering |
| US5781246A (en) | 1993-09-09 | 1998-07-14 | Alten; Jerry | Electronic television program guide schedule system and method |
| US5559548A (en) | 1994-05-20 | 1996-09-24 | Davis; Bruce | System and method for generating an information display schedule for an electronic program guide |
| US5635978A (en) | 1994-05-20 | 1997-06-03 | News America Publications, Inc. | Electronic television program guide channel system and method |
| US6396546B1 (en) | 1994-05-20 | 2002-05-28 | United Video Properties, Inc. | Electronic television program guide schedule system and method |
| CA2166434A1 (en) | 1995-01-04 | 1996-07-05 | Fujio Noguchi | Method and apparatus for providing programming information |
| US5699107A (en) | 1995-05-05 | 1997-12-16 | Microsoft Corporation | Program reminder system |
| US6388714B1 (en) | 1995-10-02 | 2002-05-14 | Starsight Telecast Inc | Interactive computer system for providing television schedule information |
| CN1567986A (zh) | 1995-10-02 | 2005-01-19 | 星视电视广播股份有限公司 | 提供电视节目预告信息的系统和方法 |
| US5809471A (en) * | 1996-03-07 | 1998-09-15 | Ibm Corporation | Retrieval of additional information not found in interactive TV or telephony signal by application using dynamically extracted vocabulary |
| US20030093790A1 (en) | 2000-03-28 | 2003-05-15 | Logan James D. | Audio and video program recording, editing and playback systems using metadata |
| CA2714104C (en) | 1996-12-10 | 2013-07-23 | United Video Properties, Inc. | Internet television program guide system |
| US6177931B1 (en) | 1996-12-19 | 2001-01-23 | Index Systems, Inc. | Systems and methods for displaying and recording control interface with television programs, video, advertising information and program scheduling information |
| US6005565A (en) | 1997-03-25 | 1999-12-21 | Sony Corporation | Integrated search of electronic program guide, internet and other information resources |
| IL121230A (en) | 1997-07-03 | 2004-05-12 | Nds Ltd | Intelligent electronic program guide |
| BRPI9812104B1 (pt) | 1997-07-21 | 2016-12-27 | Guide E Inc | método para navegar por um guia de programa interativo |
| US6081830A (en) | 1997-10-09 | 2000-06-27 | Gateway 2000, Inc. | Automatic linking to program-specific computer chat rooms |
| US6564378B1 (en) | 1997-12-08 | 2003-05-13 | United Video Properties, Inc. | Program guide system with browsing display |
| JP4197093B2 (ja) | 1998-01-08 | 2008-12-17 | トムソン ライセンシング | 電子メッセージ内の語句と電子番組ガイド(epg)内の番組情報をリンクする方法、および電子メッセージ内の語句と電子番組ガイド(epg)内の番組情報をリンクするよう適合された電子メッセージ・インタフェース |
| JP4510282B2 (ja) | 1998-03-04 | 2010-07-21 | ユナイテッド ビデオ プロパティーズ, インコーポレイテッド | 対象を絞った広告を有する番組ガイドシステム |
| US6564379B1 (en) | 1998-04-30 | 2003-05-13 | United Video Properties, Inc. | Program guide system with flip and browse advertisements |
| US20020095676A1 (en) | 1998-05-15 | 2002-07-18 | Robert A. Knee | Interactive television program guide system for determining user values for demographic categories |
| US6742183B1 (en) | 1998-05-15 | 2004-05-25 | United Video Properties, Inc. | Systems and methods for advertising television networks, channels, and programs |
| US6698020B1 (en) | 1998-06-15 | 2004-02-24 | Webtv Networks, Inc. | Techniques for intelligent video ad insertion |
| US6536041B1 (en) * | 1998-06-16 | 2003-03-18 | United Video Properties, Inc. | Program guide system with real-time data sources |
| CN1867068A (zh) | 1998-07-14 | 2006-11-22 | 联合视频制品公司 | 交互式电视节目导视系统及其方法 |
| AR020608A1 (es) | 1998-07-17 | 2002-05-22 | United Video Properties Inc | Un metodo y una disposicion para suministrar a un usuario acceso remoto a una guia de programacion interactiva por un enlace de acceso remoto |
| PT1942668T (pt) | 1998-07-17 | 2017-09-08 | Rovi Guides Inc | Sistema de guia de programas de televisão interativa com vários dispositivos dentro de uma casa |
| US6886030B1 (en) | 1998-08-18 | 2005-04-26 | United Video Properties, Inc. | Electronic mail system employing a low bandwidth link for e-mail notifications |
| US6898762B2 (en) | 1998-08-21 | 2005-05-24 | United Video Properties, Inc. | Client-server electronic program guide |
| US7165098B1 (en) | 1998-11-10 | 2007-01-16 | United Video Properties, Inc. | On-line schedule system with personalization features |
| US6425012B1 (en) | 1998-12-28 | 2002-07-23 | Koninklijke Philips Electronics N.V. | System creating chat network based on a time of each chat access request |
| US6591292B1 (en) | 1999-01-08 | 2003-07-08 | Thomson Licensing S.A. | Method and interface for incorporating program information into an electronic message |
| JP2000253376A (ja) * | 1999-03-02 | 2000-09-14 | Nec Corp | 視聴者参加型テレビ放送システム |
| US20020056088A1 (en) | 2000-04-07 | 2002-05-09 | Silva Carlos A. | Contextual programming |
| US7552460B2 (en) | 2000-05-08 | 2009-06-23 | Microsoft Corporation | Modifying an electronic program guide based on viewer statistics |
| US8346602B2 (en) | 2000-05-22 | 2013-01-01 | Shaw Mark D | Method of providing and tracking embedded e-mail advertising |
| AU2001263315A1 (en) * | 2000-05-22 | 2001-12-03 | Realnetworks, Inc. | Context sensitive configurable web content delivery |
| WO2002011446A2 (en) * | 2000-07-27 | 2002-02-07 | Koninklijke Philips Electronics N.V. | Transcript triggers for video enhancement |
| CA2425450A1 (en) | 2000-10-11 | 2002-04-18 | United Video Properties, Inc. | Systems and methods for providing targeted advertisements based on current activity |
| KR20130083935A (ko) | 2001-02-21 | 2013-07-23 | 유나이티드 비디오 프로퍼티즈, 인크. | 개인용 비디오 녹화 특징을 갖는 대화식 프로그램 가이드를 위한 시스템 및 방법 |
| US7013273B2 (en) * | 2001-03-29 | 2006-03-14 | Matsushita Electric Industrial Co., Ltd. | Speech recognition based captioning system |
| JP4402423B2 (ja) * | 2003-10-22 | 2010-01-20 | キヤノン株式会社 | データ受信処理装置 |
| US20060031880A1 (en) * | 2004-04-30 | 2006-02-09 | Vulcan Inc. | Time-based graphical user interface for television program information |
| US20060026119A1 (en) * | 2004-08-02 | 2006-02-02 | Apple Computer, Inc. | Method and system for sharing information about media items |
| US7818301B2 (en) * | 2004-12-17 | 2010-10-19 | International Business Machines Corporation | Method, system and article of manufacture for rolling back past a boundary generator to a savepoint located in a unit of work |
| US8065286B2 (en) * | 2006-01-23 | 2011-11-22 | Chacha Search, Inc. | Scalable search system using human searchers |
| US7630966B2 (en) | 2006-03-16 | 2009-12-08 | Microsoft Corporation | Media content reviews search |
| JP2007318196A (ja) * | 2006-05-23 | 2007-12-06 | Sony Corp | 情報処理システム、情報提供装置、情報提供方法、再生装置、情報処理方法、およびプログラム |
| JP2008098793A (ja) * | 2006-10-10 | 2008-04-24 | Hitachi Ltd | 受信装置 |
| JP2007174691A (ja) * | 2007-01-29 | 2007-07-05 | Kyocera Corp | 移動体用放送受信装置 |
| US8250139B2 (en) * | 2007-02-20 | 2012-08-21 | Richrelevance, Inc. | Demand-driven, collaborative systems and processes for collecting structured information |
| US20080244638A1 (en) * | 2007-03-30 | 2008-10-02 | Microsoft Corporation | Selection and output of advertisements using subtitle data |
| US8239461B2 (en) * | 2007-06-28 | 2012-08-07 | Chacha Search, Inc. | Method and system for accessing search services via messaging services |
| US8285121B2 (en) | 2007-10-07 | 2012-10-09 | Fall Front Wireless Ny, Llc | Digital network-based video tagging system |
| US9535988B2 (en) | 2007-12-21 | 2017-01-03 | Yahoo! Inc. | Blog-based video summarization |
| US9224390B2 (en) | 2007-12-29 | 2015-12-29 | International Business Machines Corporation | Coordinated deep tagging of media content with community chat postings |
| JP5143592B2 (ja) * | 2008-03-04 | 2013-02-13 | シャープ株式会社 | コンテンツ再生装置、コンテンツ再生方法、コンテンツ再生システム、プログラム、および記録媒体 |
| WO2009114134A2 (en) | 2008-03-13 | 2009-09-17 | United Video Properties, Inc. | Systems and methods for synchronizing time-shifted media content and related communications |
| US20090235298A1 (en) | 2008-03-13 | 2009-09-17 | United Video Properties, Inc. | Systems and methods for synchronizing time-shifted media content and related communications |
| US7991650B2 (en) * | 2008-08-12 | 2011-08-02 | Amazon Technologies, Inc. | System for obtaining recommendations from multiple recommenders |
| US11832024B2 (en) * | 2008-11-20 | 2023-11-28 | Comcast Cable Communications, Llc | Method and apparatus for delivering video and video-related content at sub-asset level |
| CA2758481C (en) * | 2009-04-30 | 2018-03-20 | Patientslikeme, Inc. | Systems and methods for encouragement of data submission in online communities |
| US20110067066A1 (en) * | 2009-09-14 | 2011-03-17 | Barton James M | Multifunction Multimedia Device |
| US8453179B2 (en) * | 2010-02-11 | 2013-05-28 | Intel Corporation | Linking real time media context to related applications and services |
| US20110239253A1 (en) * | 2010-03-10 | 2011-09-29 | West R Michael Peters | Customizable user interaction with internet-delivered television programming |
| WO2011138840A1 (ja) * | 2010-05-07 | 2011-11-10 | 株式会社フォーサイド・ドット・コム | 電子書籍システムおよびコンテンツサーバ |
| US9363571B2 (en) * | 2010-08-27 | 2016-06-07 | Intel Corporation | Touch sensing apparatus and method |
| US8863185B2 (en) * | 2011-01-04 | 2014-10-14 | Verizon Patent And Licensing Inc. | Social television |
| US8185448B1 (en) * | 2011-06-10 | 2012-05-22 | Myslinski Lucas J | Fact checking method and system |
-
2012
- 2012-12-05 US US13/705,837 patent/US8839309B2/en active Active
-
2013
- 2013-12-04 EP EP25167863.7A patent/EP4557752A3/en active Pending
- 2013-12-04 ES ES17211183T patent/ES2747599T3/es active Active
- 2013-12-04 EP EP17211184.1A patent/EP3346718B1/en active Active
- 2013-12-04 ES ES17211189T patent/ES3024616T3/es active Active
- 2013-12-04 EP EP13808406.6A patent/EP2929693A2/en not_active Withdrawn
- 2013-12-04 EP EP21164742.5A patent/EP3863294A1/en active Pending
- 2013-12-04 PT PT172111833T patent/PT3346717T/pt unknown
- 2013-12-04 EP EP17211189.0A patent/EP3346719B1/en active Active
- 2013-12-04 EP EP17211183.3A patent/EP3346717B1/en active Active
- 2013-12-04 JP JP2015545797A patent/JP6364424B2/ja active Active
- 2013-12-04 WO PCT/US2013/072980 patent/WO2014089145A2/en not_active Ceased
-
2014
- 2014-08-12 US US14/457,420 patent/US9602886B2/en active Active
-
2018
- 2018-07-02 JP JP2018126246A patent/JP2018185841A/ja not_active Withdrawn
-
2020
- 2020-02-05 JP JP2020017788A patent/JP6935523B2/ja active Active
- 2020-06-19 JP JP2020105836A patent/JP2020166887A/ja not_active Withdrawn
Also Published As
| Publication number | Publication date |
|---|---|
| EP3346719A1 (en) | 2018-07-11 |
| EP3346719B1 (en) | 2025-04-02 |
| JP2018185841A (ja) | 2018-11-22 |
| JP2020102228A (ja) | 2020-07-02 |
| US20140157296A1 (en) | 2014-06-05 |
| WO2014089145A3 (en) | 2014-08-07 |
| WO2014089145A2 (en) | 2014-06-12 |
| EP2929693A2 (en) | 2015-10-14 |
| EP3346717A1 (en) | 2018-07-11 |
| JP2020166887A (ja) | 2020-10-08 |
| JP6935523B2 (ja) | 2021-09-15 |
| PT3346717T (pt) | 2019-10-08 |
| EP3346718B1 (en) | 2021-03-31 |
| ES3024616T3 (en) | 2025-06-04 |
| US8839309B2 (en) | 2014-09-16 |
| US20140351837A1 (en) | 2014-11-27 |
| EP3863294A1 (en) | 2021-08-11 |
| EP3346717B1 (en) | 2019-08-21 |
| JP2015536518A (ja) | 2015-12-21 |
| US9602886B2 (en) | 2017-03-21 |
| EP3346718A1 (en) | 2018-07-11 |
| JP6364424B2 (ja) | 2018-07-25 |
| EP4557752A3 (en) | 2025-07-09 |
| EP4557752A2 (en) | 2025-05-21 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| ES2747599T3 (es) | Procedimientos y sistemas para mostrar información contextualmente relevante en relación con un recurso de medios | |
| ES3036946T3 (en) | Methods and systems for correcting, based on speech, input generated using automatic speech recognition | |
| US9769414B2 (en) | Automatic media asset update over an online social network | |
| ES2675302T3 (es) | Sistemas y métodos para realizar ASR en presencia de palabras heterógrafas | |
| US10135887B1 (en) | Shared multimedia annotations for group-distributed video content | |
| US20130086159A1 (en) | Media content recommendations based on social network relationship | |
| US20140245334A1 (en) | Personal videos aggregation | |
| US12289498B2 (en) | Search and recommendation of media assets through conversational use of catchphrases | |
| US20160321313A1 (en) | Systems and methods for determining whether a descriptive asset needs to be updated | |
| US10182264B2 (en) | Methods and systems for selecting media content based on a location of a user relative to a viewing area | |
| US20210011943A1 (en) | Systems and methods for recommending media assets based on objects captured in visual assets | |
| US20170094320A1 (en) | Methods and systems for performing playback operations based on a location of a user relative to a viewing area | |
| ES2889402T3 (es) | Procedimientos y sistemas para alertar a los usuarios sobre la disponibilidad de un soporte multimedia | |
| WO2013162420A2 (ru) | Способ мониторинга информации о предпочтениях пользователей на основе анализа восприятия ими контента (варианты) | |
| US20150005063A1 (en) | Method and apparatus for playing a game using media assets from a content management service |