ES2905535T3 - Servicios de emisión de vídeo en vivo - Google Patents

Servicios de emisión de vídeo en vivo Download PDF

Info

Publication number
ES2905535T3
ES2905535T3 ES16773956T ES16773956T ES2905535T3 ES 2905535 T3 ES2905535 T3 ES 2905535T3 ES 16773956 T ES16773956 T ES 16773956T ES 16773956 T ES16773956 T ES 16773956T ES 2905535 T3 ES2905535 T3 ES 2905535T3
Authority
ES
Spain
Prior art keywords
video
broadcast
stream
live
streams
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES16773956T
Other languages
English (en)
Inventor
Wayne Chang
Suyash Sonwalker
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Twitter Inc
Original Assignee
Twitter Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Twitter Inc filed Critical Twitter Inc
Application granted granted Critical
Publication of ES2905535T3 publication Critical patent/ES2905535T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23418Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/26603Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel for automatically generating descriptors from content, e.g. when it is not made available by its provider, using content analysis techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/27Server based end-user applications
    • H04N21/274Storing end-user multimedia data in response to end-user request, e.g. network recorder
    • H04N21/2743Video hosting of uploaded data from client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8126Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts
    • H04N21/8133Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts specifically related to the content, e.g. biography of the actors in a movie, detailed information about an article seen in a video program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8549Creating video summaries, e.g. movie trailer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/233Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/2668Creating a channel for a dedicated end-user group, e.g. insertion of targeted commercials based on end-user profiles

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

Un sistema (200) que comprende: una pluralidad de dispositivos (102) de visualización; y un servicio (201) de difusión de vídeo interactivo, implementado en un servidor, configurado para permitir que una pluralidad de dispositivos (250) fuente difundan flujos de vídeo en vivo, a través de una red (150), a la pluralidad de dispositivos de visualización, el servicio de difusión de vídeo interactivo incluye, un correlacionador (204) de flujo configurado para determinar que al menos dos de los flujos de vídeo de difusión en vivo se relacionan con un mismo evento al: calcular una métrica de puntuación que representa un nivel de probabilidad de que un primero y un segundo flujo de vídeo en vivo estén relacionados con el mismo evento usando una o más señales para cada uno de los primeros y segundos flujos de vídeo en vivo, al menos una de las señales para cada uno del primero y segundo flujo de vídeo en vivo incluyen participaciones del usuario con el primero y segundo flujo de vídeo recibidos de la pluralidad de dispositivos de visualización, en el que la participación del usuario corresponde a una señal de agradecimiento que es proporcionada por un usuario que toca una pantalla táctil de un dispositivo de visualización, o proporcionado por un usuario que utiliza un dispositivo de entrada para hacer clic en una pantalla de un dispositivo de visualización; y determinar que los flujos de vídeo de difusión en vivo primero y segundo están relacionados con el mismo evento en respuesta a que la métrica de puntuación es mayor que un nivel de umbral; un motor (202) para compartir vídeos de múltiples perspectivas configurado para proporcionar una visualización (270) de múltiples perspectivas, a través de la red, a al menos uno de la pluralidad de dispositivos de visualización, la visualización de múltiples perspectivas emite simultáneamente los flujos de vídeo de difusión en vivo determinados en relación con el mismo evento.

Description

DESCRIPCIÓN
Servicios de emisión de vídeo en vivo
Antecedentes
Las redes sociales se han convertido en una parte creciente de la vida social. Los usuarios de las redes sociales pueden publicar blogs, fotos, comentarios, mensajes, ubicaciones, sentimientos y vídeos usando una o más plataformas de redes sociales. Muchos usuarios de redes sociales prefieren actualizar y compartir información desde un dispositivo informático móvil, como un teléfono inteligente, dispositivos portátiles como anteojos y relojes, tabletas, etc. Dichos dispositivos, debido a su tamaño, a menudo funcionan con recursos más limitados que las contrapartes de tamaño completo.
El documento EE. UU. 2012/320013 divulga compartir flujos de medios que capturan diferentes perspectivas de un evento. Por ejemplo, una realización proporciona, en un dispositivo informático, un método que incluye almacenar una definición de evento para un evento, recibir de cada dispositivo de captura de una pluralidad de dispositivos de captura una solicitud para compartir un flujo de medios proporcionado por el dispositivo de captura, recibir un flujo de medios de cada dispositivo de captura de la pluralidad de dispositivos de captura, y asociar un subconjunto de flujos de medios de la pluralidad de dispositivos de captura con el evento basado en la definición del evento. El método incluye además recibir una solicitud de transmisión de un flujo de medios seleccionado asociado con el evento, y enviar el flujo de medios seleccionado asociado con el evento al dispositivo de captura solicitante.
El documento US2014068676A1 divulga la gestión de colecciones de vídeos que puede recopilar vídeos relacionados en una red, clasificar los vídeos en múltiples canales y recomendar los canales para que los vea el usuario. El método y el sistema pueden verificar los vídeos de los canales periódicamente para determinar si los vídeos son válidos o no válidos y buscar otros vídeos para reemplazar los vídeos no válidos. El método y el sistema también proporcionan reproducción de vídeo continua, entre aparatos y entre canales.
Resumen
Las reivindicaciones definen la materia a proteger.
En este documento se divulgan técnicas, métodos y sistemas para compartir flujos de vídeos en vivo en una plataforma de redes sociales. Los flujos de vídeo en vivo se pueden propagar a los espectadores a través de una plataforma de redes sociales. Un difusor de un flujo de vídeo en vivo puede difundir a muchos espectadores, por ejemplo, todas las asociaciones, un grupo limitado de asociaciones, incluida solo una asociación u otros usuarios de redes sociales en general. Las asociaciones pueden ser seguidores, círculos, amigos, conexiones o cualquier otra forma de asociación. Una selección de espectadores para una difusión se puede realizar de forma programática, manual o tanto programática como manual, en función de uno o más gráficos de conexión de la plataforma. El difusor puede usar una cámara en el dispositivo móvil del difusor (o un dispositivo equipado con cámara conectado al dispositivo móvil) y una interfaz de usuario puede permitir que el difusor emita vídeo en tiempo real a un servidor de redes sociales que admita un servicio de difusión de vídeo interactivo. El dispositivo del difusor puede determinar continuamente (por ejemplo, en períodos regulares durante la difusión) el rendimiento del flujo de vídeo en vivo y ajustar la calidad del vídeo para mantener la latencia en aproximadamente dos segundos. El servidor de redes sociales puede hacer que el flujo de vídeo en tiempo real esté disponible para otros usuarios de redes sociales. Por lo tanto, el servidor de redes sociales proporciona una difusión compartida generada por un usuario sin equipos o redes especializadas. La difusión en vivo incluye un circuito de retroalimentación cerrado en el que las participaciones de los espectadores se brindan al difusor y a otros espectadores en tiempo real. Por ejemplo, un espectador puede comentar sobre la difusión, puede señalar su aprobación para momentos específicos de la difusión y puede invitar a otros usuarios de redes sociales a unirse a la difusión. Dichas participaciones se devuelven a los espectadores y al difusor dentro de un período de latencia (por ejemplo, dos segundos o menos) adecuado para permitir que el difusor reaccione e interactúe con los espectadores. El difusor, por ejemplo, puede decidir continuar la difusión cuando la difusión es popular según lo sugerido por la cantidad de espectadores, por un alto nivel de participación, comentarios de los espectadores y otra retroalimentación, y/o por la identidad de uno o más espectadores. Opcionalmente, el difusor puede cambiar uno o más aspectos de la difusión en función de esta información u otra similar. Las implementaciones permiten que un espectador señale su aprobación muchas veces durante la difusión, en lugar de solo una vez. El servidor de redes sociales puede proporcionar representaciones de estas actividades a todos los participantes en la difusión. Por lo tanto, el difusor y cualquier persona que esté viendo la difusión pueden ver los comentarios publicados y las indicaciones de aprobación de cualquier espectador. En otras palabras, las participaciones forman un circuito de retroalimentación cerrado con el difusor y otros espectadores.
Cuando finaliza una difusión, el servidor de redes sociales puede almacenar la difusión. La difusión puede almacenarse solo por un período de tiempo, por ejemplo, 2 horas, 24 horas, una semana, un mes, etc., o puede almacenarse indefinidamente. Los espectadores pueden reproducir la difusión guardada y ver los comentarios, las aprobaciones y los mensajes de notificación al mismo tiempo en la difusión en la que los espectadores en vivo también vieron estos elementos. En algunas implementaciones, el visor de reproducción puede agregar señales y/o comentarios de agradecimiento adicionales. El sistema puede opcionalmente mantener metadatos para una difusión y/o difusor, de manera que se puedan identificar las difusiones populares y los difusores populares. Por ejemplo, el sistema puede agregar señales de reconocimiento (recibidas durante la difusión en vivo y la reproducción), número de espectadores, aprobaciones por minuto, aprobación promedio por difusión para un difusor, etc. (Si el sistema almacena o registra información sobre un difusor o difusión, proporciona avisos, obtiene permisos y/o implementa las medidas apropiadas para salvaguardar la información). En algunas implementaciones, las transmisiones en vivo también se pueden publicar a través de otros mensajes de redes sociales sin las capacidades interactivas. En algunas implementaciones, los comentarios posteriores a la difusión en vivo sobre el mensaje en la otra plataforma de redes sociales pueden asociarse con la versión almacenada de la difusión, por ejemplo, como chat posterior a la difusión. Además de propagar el conocimiento sobre una difusión a través de un gráfico de conexión, las implementaciones también incluyen métodos para descubrir difusiones interesantes basadas en señales como la ubicación, la popularidad, la actualidad, etc.
Además, en el presente documento se divulgan técnicas, métodos y sistemas para soportar una o más características y funciones mejoradas de un servicio de difusión de vídeo interactivo. El servicio de difusión de vídeo interactivo brinda una experiencia de múltiples perspectivas de un solo evento de diferentes difusores. Los diversos difusores pueden tener diferentes ángulos de visión, posiciones dentro del evento y participaciones (por ejemplo, participaciones, comentarios, mensajes, etc.) entre sus espectadores. El servicio de difusión de vídeo interactivo identifica qué difusiones provienen del mismo evento y luego permite que uno o más espectadores muestren simultáneamente los diferentes flujos en vivo para que un usuario pueda obtener una experiencia multidimensional del evento que se observa desde diferentes perspectivas. La pantalla de visualización se divide (o parte) para ver dos o más flujos al mismo tiempo.
El evento único puede ocurrir en diferentes ubicaciones geográficas, por ejemplo, en una pista de carreras de cientos de millas de largo, en cuyo caso el servicio opcionalmente permite que un difusor traspase una difusión del evento a otro difusor para seguir a los corredores a medida que avanzan por la pista. Aquí, hay una serie de difusores ubicados a lo largo de la pista para brindar una cobertura completa de la carrera. El servicio proporciona a cada difusor un mapa en el que hay íconos que representan a los otros difusores y sus respectivas ubicaciones geográficas, y a medida que los corredores avanzan a lo largo de la pista, un difusor puede seleccionar al siguiente difusor al que puede traspasar la difusión simplemente haciendo clic en el ícono apropiado para notificar a el siguiente difusor, quien puede aceptar el traspaso y comenzar a difundir cuando esté listo.
Además, el servicio de difusión de vídeo interactivo puede seleccionar clips abreviados o resúmenes de vídeo (repeticiones) que capturen actividades clave pasadas de un evento en desarrollo, y proporcione estas repeticiones a los espectadores que no comenzaron a mirar hasta después de que ocurrieron las actividades clave pasadas para que puedan actualizarse con respecto al evento en vivo. Una vez que se detiene el flujo en vivo del evento, estas repeticiones (además de la difusión completa) se agregan cronológicamente y se almacenan como uno o más vídeos accesibles en red para que los espectadores puedan optar por ver solo las actividades clave en lugar del evento completo. Opcionalmente, los clips se seleccionan programáticamente en función de cualquier tipo y cualquier combinación de información disponible adecuada para detectar la ocurrencia de actividades clave, ejemplos de las cuales incluyen indicaciones de interés del espectador, participación del espectador y popularidad entre los espectadores. Una medida de ejemplo del interés del espectador es la impresión. Ejemplos de medidas de participación de los espectadores incluyen corazones, comentarios y retuits. Los ejemplos de medidas de popularidad incluyen la identidad del difusor, la identidad del espectador, la impresión y los retuits. (Los respectivos modelos de aprendizaje automático para interés, participación y popularidad pueden usar información común). Los clips se seleccionan programáticamente cuando las medidas de interés, participación y popularidad alcanzan un nivel de umbral que sugiere una probabilidad razonable de que ocurra una actividad clave. Los parámetros de los modelos de aprendizaje automático y el umbral se ajustan para mejorar la precisión.
Opcionalmente, los cuadros de la difusión de flujos en vivo se analizan programáticamente para detectar actividades clave, ya sea durante la difusión o después, y esta información se usa junto con la información descrita anteriormente para seleccionar programáticamente clips de reproducción de la difusión. Se detecta un cambio en la apariencia de un marcador de un juego de softbol, por ejemplo, y junto con comentarios que sugieren que se ha conectado un jonrón e identifican al bateador, y un aumento en la cantidad de corazones de los espectadores conectados con el bateador en un gráfico social, se selecciona un segmento de la difusión suficiente para capturar el jonrón y se convierte en un clip de repetición.
Breve descripción de los dibujos
La figura 1 es un diagrama esquemático de un sistema configurado para admitir un servicio de difusión de vídeo interactivo para compartir flujos de difusión entre usuarios a través de una red de acuerdo con una implementación.
La figura 2 es un diagrama esquemático de un sistema configurado para admitir una o más características y funciones mejoradas del servicio de difusión de vídeo interactivo de acuerdo con una implementación.
La figura 3 es un diagrama esquemático de un motor de uso compartido de vídeo de múltiples perspectivas del servicio de difusión de vídeo interactivo y una visualización de múltiples perspectivas de una aplicación de emisión interactiva de un dispositivo de acuerdo con una implementación.
La figura 4 es un diagrama esquemático de una interfaz de edición de vídeo de la aplicación de emisión interactiva de acuerdo con una implementación.
La figura 5 es un diagrama esquemático de un flujo de difusión de vídeo que se mejora con un objeto de datos contextuales de acuerdo con una implementación.
La figura 6 es un diagrama esquemático de un flujo de difusión de vídeo que se mejora con un flujo de publicidad y/o se aumenta con un objeto alterado que representa el objeto físico de acuerdo con una implementación.
La figura 7 es un diagrama esquemático que representa cuadros de un flujo de difusión que tiene un objeto etiquetado de manera que la etiqueta persiste a través de los cuadros del flujo de difusión de acuerdo con una implementación.
La figura 8 es un diagrama esquemático de una sección de lista de flujos con un flujo promovido insertado de acuerdo con una implementación.
La figura 9 es un diagrama de flujo que representa operaciones de ejemplo del sistema de la Fig. 2 de acuerdo con una implementación.
La figura 10 muestra un ejemplo de un dispositivo informático y un dispositivo informático móvil que pueden utilizarse para implementar las técnicas aquí descritas.
Divulgación detallada
Los símbolos de referencia similares en los diversos dibujos indican elementos similares.
En una implementación, el servicio descrito en este documento proporciona, en tiempo real o casi en tiempo real, una calificación de popularidad de fuentes múltiples para el contenido que se está difundiendo. Los espectadores proporcionan retroalimentación de aprobación, por ejemplo, tocando la pantalla para indicar que les gusta el contenido, donde la frecuencia del toque proporciona una medida general de aprobación para la difusión, que se puede calcular para un solo espectador y/o para el agregado de todos los espectadores y/o algún subconjunto de todos los espectadores. Además, el momento en el que se produce la pulsación también indica interés en que se difunda algún evento correspondiente, de modo que un número umbral de pulsaciones agregadas durante una difusión indica una alta probabilidad de que ocurra un evento de gran interés. Por lo tanto, un difusor tiene retroalimentación dinámica y en tiempo real y puede usar esa información para decidir si continúa difundiendo.
Opcionalmente, hay otros tipos de retroalimentación disponibles para que el difusor sepa cómo los espectadores quieren que se cambie la difusión. Un espectador puede indicar su deseo de que el difusor realice una panorámica en una dirección particular haciendo un gesto particular, por ejemplo, deslizando el dedo hacia la izquierda o hacia la derecha, o su deseo de acercar o alejar con otro gesto, por ejemplo, acercando o alejando. Este tipo de retroalimentación se pueden silenciar de modo que no se transmitan al difusor hasta que alcancen un nivel de umbral.
Opcionalmente, se puede agregar retroalimentación para indicar el interés de la comunidad en una actividad particular que ha emitido la difusión. El difusor puede, por lo tanto, aumentar la difusión de las actividades que son de gran interés para sus espectadores.
En una implementación en la que el difusor elige participar en un programa publicitario en el que permitiría a los anunciantes colocar anuncios con sus difusiones, la clasificación de popularidad del difusor y/u otras clasificaciones basadas en la retroalimentación descrita y/u otro tipo de la información que el difusor desea proporcionar a los anunciantes (por ejemplo, etiquetas que describen los eventos que se difunden y/o información que indica los tipos de eventos que el difusor ha emitido con frecuencia) se puede aplicar para mejorar la campaña publicitaria. Dicha información se puede utilizar, por ejemplo, para atraer anunciantes y/o calcular la compensación por impresiones y/o conversiones.
En una implementación, las difusiones que se graban se pueden exportar opcionalmente a archivos digitales que se pueden almacenar de forma local y/o remota y se puede acceder a ellas para reproducirlas en diferentes aplicaciones, plataformas y dispositivos. Una difusión grabada se puede, por ejemplo, exportar y adjuntar a un Tweet u otra comunicación de redes sociales.
La figura 1 es un diagrama esquemático de un sistema 100 configurado para admitir un servicio 101 de difusión de vídeo interactivo que se ejecuta en un ordenador 160 servidor y una aplicación 132 de emisión interactiva configurada para comunicarse con el servicio 101 de difusión de vídeo interactivo a través de una red 150 de acuerdo con una implementación. El sistema 100 puede incluir uno o más dispositivos 102, 104 informáticos conectados a uno o más servidores 160, 161 a través de una o más redes 150. En general, los dispositivos 102, 104 informáticos pueden ser cualquier tipo de dispositivo habilitado para red que tenga una cámara o capacidades de captura de vídeo. En algunos ejemplos, los dispositivos 102, 104 informáticos pueden ser dispositivos informáticos de consumo y pueden ser un dispositivo informático móvil (por ejemplo, un teléfono inteligente, un PDA, una tableta, un dispositivo portátil, como un dispositivo montado en la muñeca o en la cabeza, dispositivo de realidad virtual o un ordenador portátil), un dispositivo informático robótico (por ejemplo, un dron) y/o un dispositivo informático personal no móvil (por ejemplo, un dispositivo informático de escritorio, televisión o sistema de entretenimiento habilitado para Internet).
Como se muestra en la Fig. 1, el dispositivo 102 informático puede incluir uno o más procesadores 106 (por ejemplo, un procesador formado en un sustrato, como una unidad central de procesamiento, un procesador de gráficos, etc.), una memoria 108 volátil y una memoria 110 no volátil. La memoria 108 volátil puede almacenar, por ejemplo, instrucciones que ejecutan los procesadores 106, y la memoria 110 no volátil puede almacenar, por ejemplo, varios datos de usuario, instrucciones para ejecutar un sistema operativo, aplicaciones, etc. Aunque la figura 1 ilustra el dispositivo 102 informático con más detalle que los dispositivos 104 informáticos, se entiende que los dispositivos 104 informáticos pueden incluir componentes similares.
El dispositivo 102 informático puede incluir una pluralidad 114 de aplicaciones, que pueden ser ejecutadas por el dispositivo 102 informático (por ejemplo, por el procesador 106 ejecutando una o más instrucciones almacenadas en la memoria 108 o 110 que corresponden a la aplicación) y que pueden comunicarse con el sistema operativo 112 (por ejemplo, a través de una o más interfaces de programación de aplicaciones (API)). La ejecución de las aplicaciones 114 puede proporcionar varias funcionalidades a un usuario del dispositivo 102 informático. En algunos ejemplos, una aplicación de correo electrónico puede, con el permiso de un usuario, brindar acceso a la cuenta de correo electrónico del usuario y a los mensajes de correo electrónico asociados con la cuenta. Una aplicación de navegador puede proporcionar un navegador web a un usuario, de modo que el usuario pueda acceder al contenido que se puede cargar y mostrar en la aplicación de navegador. Una aplicación de red social puede proporcionar contenido al usuario a partir de contactos y fuentes que el usuario ha elegido para asociarse dentro de la plataforma de redes sociales asociada con la aplicación de red social. Una aplicación de cámara puede proporcionar acceso al uso de la cámara 116 dentro del dispositivo 102 informático para capturar imágenes fijas o vídeo. En algunas implementaciones, la cámara 116 puede ser externa al dispositivo 102 informático, como una cámara que se comunica de forma inalámbrica, por ejemplo, a través de BLUETOOTH o Wi-Fi, con el dispositivo 102 informático. También se pueden proporcionar aplicaciones que proporcionan una rica variedad de otras funcionalidades e información al usuario. En algunas implementaciones, la aplicación 132 de emisión interactiva puede considerarse una de las aplicaciones 114.
El dispositivo 102 informático incluye una pantalla 118 (por ejemplo, una pantalla táctil, una pantalla LED, etc.) que puede mostrar una interfaz de usuario para una aplicación 114 que está siendo ejecutada por el dispositivo. Se puede ejecutar más de una aplicación a la vez. Sin embargo, en algunas implementaciones (por ejemplo, en el caso de un teléfono inteligente), el tamaño de la pantalla es más adecuado para que se muestre una sola aplicación en ejecución a la vez. La aplicación en ejecución que se muestra en la pantalla 118 puede denominarse aplicación “frontal”. En algunas implementaciones, la pantalla 118 puede estar alojada en una estructura separada de una estructura que aloja uno o más de los otros componentes del dispositivo 102 informático (por ejemplo, la pantalla 118 es una pantalla independiente).
El dispositivo 102 informático puede incluir altavoces 117 internos que pueden proporcionar una salida de audio desde el dispositivo. El dispositivo 102 informático también puede incluir un puerto o interfaz (por ejemplo, USB, micro-USB, interfaces de cable, HDMI, interfaz inalámbrica, etc.) que se puede usar para conectar el dispositivo 102 informático a dispositivos externos, por ejemplo, altavoces que pueden proporcionar una salida de audio cuando se conecta al dispositivo 102 u otros tipos de sensores, cámaras o dispositivos informáticos. El dispositivo 102 informático también puede incluir un micrófono 122 que detecta el sonido en el entorno del dispositivo 102 informático. En algunas implementaciones, el micrófono 122 puede ser externo al dispositivo 102 informático. El micrófono 122, ya sea interno o externo, puede proporcionar audio para un flujo de vídeo en vivo.
El dispositivo 102 informático también puede incluir un reloj 120 que determina la hora y la fecha y puede incluir un transceptor GPS 124 que se comunica con un sistema de posicionamiento global para determinar la ubicación del dispositivo 102 informático. La ubicación puede proporcionarse como parte de los metadatos asociados con un flujo de vídeo en tiempo real. El dispositivo 102 informático también incluye varios circuitos de interfaz de red, como por ejemplo, una interfaz de red 126 móvil a través de la cual el dispositivo 102 informático puede comunicarse con una red celular, una interfaz de red 128 Wi-Fi con la que el dispositivo 102 informático puede comunicarse con una estación 182 base Wi-Fi, una interfaz de red 130 BLUETOOTH con la que el dispositivo 102 informático puede comunicarse con otros dispositivos BLUETOOTH (por ejemplo, una cámara externa, un micrófono o parlantes), y/o una conexión Ethernet u otra conexión por cable que permite el dispositivo 102 informático acceder a la red 150. El dispositivo 102 informático puede incluir otros sensores (no mostrados), como, por ejemplo, un sensor de luz ambiental, un sensor de temperatura, un acelerómetro, etc.
La aplicación 132 de emisión interactiva puede configurarse para permitir que el dispositivo 102 informático se comunique con el servicio 101 de difusión de vídeo interactivo a través de la red 150. La aplicación 132 de emisión interactiva puede configurarse para permitir que el dispositivo 102 informático inicie una emisión de vídeo en tiempo real y comparta el flujo de vídeo en tiempo real a través de una plataforma de medios sociales. Una emisión de vídeo es en vivo o en tiempo real cuando la fuente de la emisión de vídeo es un dispositivo de captura de vídeo en lugar de un medio de almacenamiento. La aplicación 132 de emisión interactiva puede ser una aplicación móvil o puede ser una aplicación basada en la web. En algunas implementaciones, la aplicación 132 de emisión interactiva puede configurarse para permitir que el usuario seleccione una configuración de privacidad para el flujo de vídeo en tiempo real. La configuración de privacidad controla la audiencia potencial de la emisión de difusión. Cualquier persona que use la plataforma de redes sociales puede ver una difusión pública. La plataforma de redes sociales puede proporcionar un mensaje (por ejemplo, una notificación automática) a aquellos conectados directamente con el difusor (por ejemplo, siguiendo al difusor) en un gráfico de conexión, pero cualquiera puede unirse a la difusión. Una difusión privada puede ser vista solo por aquellos seleccionados por el difusor. Por ejemplo, el difusor puede seleccionar algunos o todos los conectados directamente al difusor en un gráfico de conexión (por ejemplo, gráfico 142 o 168 de conexión). Como otro ejemplo, el difusor puede seleccionar aquellos a quienes está siguiendo el difusor que también siguen al difusor en el gráfico de conexión. Como otro ejemplo, la aplicación 132 de emisión interactiva puede permitir que el difusor seleccione personas específicas (por ejemplo, a través de un nombre de usuario, número de teléfono u otro identificador) que son espectadores objetivo para una difusión privada. Los espectadores seleccionados por el difusor pueden recibir un mensaje (por ejemplo, una notificación automática) sobre la difusión en vivo. En algunas implementaciones, para una difusión privada, solo aquellos que reciben el mensaje automático pueden revisar la difusión. En otras palabras, los espectadores objetivo no pueden compartir la difusión. En algunas implementaciones, es posible que los usuarios de las redes sociales que no están invitados a la difusión no puedan ver la difusión a menos que uno de los espectadores objetivo envíe una invitación a la difusión, pero el difusor puede deshabilitar dicho intercambio por parte de los espectadores objetivo.
El gráfico 142 de conexión puede ser un subconjunto del gráfico 168 de conexión que reside en el servidor 160. Un gráfico de conexión es una estructura de datos que representa relaciones (es decir, conexiones) entre una o más entidades. Por ejemplo, el gráfico 168 de conexión puede ser un conjunto de datos que almacena relaciones entre cuentas de redes sociales. Las relaciones pueden incluir amistad, seguimiento, participación o alguna otra relación. Una entidad está directamente conectada a otra entidad en el gráfico de conexión cuando las dos entidades están conectadas por una longitud de ruta de uno, es decir, no hay nodos intermedios.
Después de recibir una solicitud del usuario que desea comenzar una difusión, la aplicación 132 de emisión interactiva puede configurarse para usar varios componentes del dispositivo 102 informático o componentes en comunicación con el dispositivo 102 informático para capturar y enviar un flujo de vídeo en tiempo real y para mostrar participaciones (por ejemplo, representaciones de participación) de los espectadores del flujo de vídeo en tiempo real. Por ejemplo, la aplicación 132 de emisión interactiva puede usar la cámara 116, el GPS 124 (u otros sensores de obtención de ubicación) y el micrófono 122 del dispositivo 102 informático para capturar un flujo de vídeo en tiempo real con audio. En algunas implementaciones, el GPS 124 puede asociar una ubicación con el flujo de vídeo en tiempo real.
La aplicación 132 de emisión interactiva puede incluir un motor 134 de transcodificación, que puede configurarse para determinar el rendimiento entre el dispositivo 102 y el servidor 160 a través de las redes 150. El rendimiento representa el ancho de banda disponible para difundir el flujo de vídeo en tiempo real desde el dispositivo 102 hasta el servidor 160. Cuando el ancho de banda es bajo, el motor 134 de transcodificación se configura para reducir la calidad del vídeo enviado al servidor 160. Esto difiere de los sistemas de emisión convencionales en los que el servidor 160 determina la calidad del vídeo enviado a cada espectador basándose en la conexión del espectador. Por el contrario, la aplicación 132 de emisión interactiva decide la calidad del vídeo para todos los espectadores en función del ancho de banda disponible para el dispositivo 102 de difusión. Esto asegura que la latencia se mantenga baja, por ejemplo, unos pocos segundos o menos. La baja latencia garantiza que las participaciones sean relevantes para el difusor; en otras palabras, el difusor recibe participaciones casi en tiempo real. Una latencia de más de unos pocos segundos, y ciertamente una latencia de 30 segundos o más, haría que las participaciones fueran demasiado antiguas para brindar una comunicación efectiva entre el difusor y los espectadores.
La aplicación 132 de emisión interactiva también puede configurarse para adjuntar un paquete de marca de tiempo a los cuadros del flujo de vídeo en tiempo real proporcionada desde el dispositivo 102 al servidor 160. Este paquete especial permite que el servidor 160 asocie una participación con un momento particular en la difusión de suministro en vivo. La aplicación 132 de emisión interactiva también puede configurarse para usar uno de los componentes informáticos (por ejemplo, la interfaz de red 128 Wi-Fi, la interfaz de red 126 móvil, etc.) para proporcionar el flujo de vídeo en tiempo real, a través de la red 150, a un servidor, como los servidores 160, 161. La aplicación 132 de emisión interactiva también puede configurarse para recibir indicaciones de participación, así como metadatos sobre el flujo de vídeo en tiempo real desde los servidores 160, 161. Las indicaciones de participación pueden estar en un flujo de datos que está asociado con el flujo de vídeo. Los metadatos pueden incluir información como cuántos espectadores se han unido a el flujo de vídeo en tiempo real y están viendo el flujo de vídeo actualmente. Las indicaciones de participación representan retroalimentación e información de los espectadores del flujo de vídeo. Las participaciones corresponden a señales de reconocimiento y pueden incluir comentarios, compartir notificaciones, notificaciones de unión de espectadores, etc. La aplicación 132 de emisión interactiva puede configurarse para recibir el flujo de datos y generar representaciones de las indicaciones de participación en el flujo de datos y proporcionar las representaciones para las pantallas 118.
Por ejemplo, una señal de agradecimiento puede estar representada por un icono. El icono puede tener la forma de un corazón, una forma de estrella, una forma de cara sonriente o alguna otra forma. La aplicación 132 de emisión interactiva puede configurarse para agregar un icono a la pantalla 118 durante el flujo de vídeo en tiempo real para cada señal de reconocimiento. Cada señal de agradecimiento puede recibirse de uno de los espectadores del flujo de vídeo en tiempo real. Un espectador puede enviar una pluralidad de señales de agradecimiento durante el flujo de vídeo en tiempo real, de modo que un espectador no se limite a señalar el agradecimiento por el flujo de vídeo solo una vez. En su lugar, las señales de agradecimiento pueden asociarse con un momento particular en el flujo de vídeo en tiempo real y un espectador puede enviar tantas señales como desee. En algunas implementaciones, el icono que representa una señal de agradecimiento puede tener una apariencia diferente para cada espectador. En otras palabras, otros espectadores y el difusor pueden determinar cuántos espectadores diferentes están enviando señales de agradecimiento en función de la apariencia del ícono. Por ejemplo, las señales de agradecimiento para un primer espectador pueden ser corazones azules, las señales de agradecimiento para un segundo espectador pueden ser corazones naranjas, las señales de agradecimiento para un tercer espectador pueden ser corazones morados, etc. Por lo tanto, cada una de las indicaciones de participación puede ser asociado con un espectador particular y la representación de participación generada por la aplicación 132 de emisión interactiva para la indicación puede reflejar un usuario diferente. En algunas implementaciones, el sistema puede cambiar el icono de algunas o todas las señales de agradecimiento para que coincidan con una fecha, como un día festivo o una ocasión. Por ejemplo, en lugar de corazones, el día de San Patricio, el sistema puede mostrar señales de agradecimiento como tréboles y el 4 de julio como estrellas. En algunas implementaciones, el sistema solo puede cambiar el icono de la señal de agradecimiento para cada n-ésimo icono, por ejemplo, de modo que cada quinta o cada séptima señal de agradecimiento esté representada por un corazón o un comienzo. En algunas implementaciones, el sistema puede cambiar el icono de algunas o todas las señales de agradecimiento en función de un tema (por ejemplo, hashtag) identificado en el contenido de los comentarios. Por ejemplo, si el sistema determina que una emisión de vídeo en vivo se relaciona con una celebración de cumpleaños, el sistema puede mostrar cada décima señal de agradecimiento como un ícono de pastel de cumpleaños.
La aplicación 132 de emisión interactiva puede configurarse para activar la visualización de los iconos (por ejemplo, representaciones de señales de reconocimiento) durante un período de tiempo predeterminado. Por ejemplo, cada icono puede aparecer en la pantalla 118 del dispositivo 102 informático durante tres o cinco segundos y luego desaparecer o desvanecerse. La participación puede estar asociada con un tiempo específico, por ejemplo, una marca de tiempo de un paquete de marcas de tiempo en el flujo de vídeo, y una participación puede mostrarse durante un período que comienza en la marca de tiempo hasta que expira el período de tiempo predeterminado. En algunas implementaciones, la aplicación 132 de emisión interactiva puede configurarse para animar los iconos en la pantalla 118 mientras se muestra. Por ejemplo, la aplicación 132 de emisión interactiva puede hacer que los íconos se muevan desde una primera ubicación hasta una segunda ubicación durante el período de tiempo predeterminado. El movimiento no necesita ser lineal, pero puede ser en una dirección general. Por ejemplo, el icono puede flotar hacia arriba o hacia abajo en un borde lateral de la pantalla 118 o moverse generalmente a través de un borde superior o inferior de la pantalla 118 durante el tiempo predeterminado. La aplicación 132 de emisión interactiva puede configurarse para mostrar y animar una pluralidad de iconos, representando cada icono una única señal de agradecimiento. Los iconos pueden superponerse entre sí en la pantalla.
La aplicación 132 de emisión interactiva también puede configurarse para activar la visualización de notificaciones de participación, como comentarios de espectadores, avisos de unión de espectadores y notificaciones de participación de espectadores. Las notificaciones de participación pueden mostrarse con el flujo de vídeo en tiempo real (y los íconos que representan señales de agradecimiento). Al igual que los íconos, las notificaciones de participación pueden asociarse con un momento en el tiempo (es decir, una marca de tiempo) y mostrarse durante un período de tiempo predeterminado después del momento en el tiempo, de modo que después del tiempo predeterminado la notificación se desvanece, por ejemplo. La aplicación 132 de emisión interactiva puede desplazar los comentarios, de modo que los comentarios más antiguos se muevan hacia arriba (o hacia abajo o hacia los lados) para dejar espacio para las notificaciones de nuevas participaciones. Por tanto, mientras un usuario del dispositivo 102 informático proporciona un flujo de vídeo en tiempo real, el usuario del dispositivo 102 informático también puede recibir retroalimentación en tiempo real de los espectadores del flujo de vídeo en tiempo real. En algunas implementaciones, la aplicación 132 de emisión interactiva también puede configurarse para permitir que el usuario comparta el flujo de vídeo en tiempo real a través de la plataforma de medios sociales. Cuando el usuario comparte el flujo de vídeo, el motor 170 de intercambio de vídeo interactivo puede configurarse para enviar un mensaje a las cuentas de usuario conectadas directamente al usuario en un gráfico de conexión para la plataforma de redes sociales. En algunas implementaciones, el mensaje puede ser una notificación automática o un correo electrónico con un control (por ejemplo, un enlace) que permite al usuario invitado unirse al flujo de vídeo. En algunas implementaciones, el espectador objetivo (por ejemplo, el espectador que recibe la notificación) puede unirse a través de un dispositivo informático con la aplicación 132 de emisión interactiva instalada. En algunas implementaciones, el espectador objetivo puede unirse a través de una aplicación de navegador u otra aplicación móvil sin usar la aplicación 132 de emisión interactiva, que puede incluir ver el vídeo en tiempo real sin participaciones.
En algunas implementaciones, cuando hay más de un número umbral de espectadores en un flujo de vídeo de difusión particular, el servicio 101 de difusión de vídeo interactivo puede limitar la funcionalidad de chat a un número predefinido, como los primeros N espectadores de la difusión. Los otros espectadores pueden ser colocados en una lista de espera. Cuando uno de los primeros espectadores abandona la difusión, el próximo espectador puede participar en el chat. En otras palabras, el servicio 101 de difusión de vídeo interactivo puede poner en cola a los espectadores de un flujo de vídeo de difusión particular en el orden de la hora de llegada, y permitir que los primeros N espectadores de la parte superior de la cola participen en el chat. Los espectadores autorizados a participar en el chat pueden proporcionar la gama completa de participaciones, como comentarios, mensajes e indicaciones de aprobación. Sin embargo, es posible que los otros espectadores no puedan enviar mensajes o comentarios al difusor. En otros ejemplos, el servicio 101 de difusión de vídeo interactivo puede organizar a los espectadores en la cola según un esquema de clasificación. Por ejemplo, los usuarios y/o asociaciones de alta credibilidad (por ejemplo, amigos, seguidores, etc.) del difusor pueden tener prioridad en la cola. Por ejemplo, el servicio 101 de difusión de vídeo interactivo puede llevar a estos tipos de espectadores a ubicaciones que están más arriba en la cola. Además, el servicio 101 de difusión de vídeo interactivo puede eliminar ciertos mensajes que tienen un nivel de participación relativamente bajo (por ejemplo, no hay muchas indicaciones de aprobaciones o me gusta) o mensajes que se han marcado por varias razones. Además, el servicio 101 de difusión de vídeo interactivo puede usar una cola que es más específica para el usuario o el contexto. En otras palabras, la cola (o la lista habilitada para chat) puede ser específica del usuario (específica del contexto). Por ejemplo, todos los usuarios pueden estar habilitados (para ingresar a la cola), pero solo ciertos chats pueden mostrarse a cada usuario que ve. Los comentarios de las asociaciones del usuario que ve (usuario de contexto) pueden mostrarse a ese usuario, los comentarios de los espectadores que tienen relevancia o interés para el usuario que ve pueden mostrarse a ese usuario, los usuarios bloqueados pueden ignorarse, etc.
En algunas implementaciones, el servicio 101 de difusión de vídeo interactivo puede permitir que la difusión en vivo se publique a través de otros mensajes de la plataforma de medios sociales. Dichas publicaciones pueden incluir flujos de vídeo, pero pueden carecer de las capacidades interactivas. Así, por ejemplo, un usuario de una red social en una plataforma diferente puede recibir un mensaje formateado para la plataforma diferente que incluye flujos de vídeo que el usuario de la red social puede ver. Dicho mensaje puede incluir una sugerencia de que el usuario de la red social descargue e instale una versión de la aplicación 132 de emisión interactiva, o incluya un enlace u otro control que abra la aplicación 132 de emisión interactiva o inicie la instalación. En algunas implementaciones, el servidor 160 puede asociar comentarios sobre el mensaje de la otra plataforma de redes sociales con una versión almacenada de la difusión, por ejemplo, como participaciones de chat posteriores a la difusión.
La aplicación 132 de emisión interactiva puede configurarse para proporcionar el flujo de vídeo en tiempo real desde un dispositivo 102 informático de difusión hasta un servidor, como los servidores 160, 161. El servidor 160 puede ser un solo dispositivo informático, o puede ser una representación de dos o más sistemas informáticos distribuidos conectados comunicativamente para compartir la carga de trabajo y los recursos. En algunas implementaciones, el servidor 160 es un servidor de plataforma de medios sociales. El servidor 160 también puede incluir uno o más procesadores 176 formados en un sustrato configurado para ejecutar instrucciones. Las instrucciones pueden almacenarse en la memoria, como RAM, flash, caché, disco, cinta, etc. Además, el servidor 160 puede incluir uno o más almacenes de datos configurados para almacenar datos de manera persistente. Por ejemplo, el servidor 160 puede almacenar el gráfico 168 de conexión. El gráfico 168 de conexión puede ser una estructura de datos que represente relaciones (es decir, conexiones) entre una o más entidades. Por ejemplo, el gráfico 168 de conexión puede ser un conjunto de datos que rastrea las relaciones entre las cuentas de las redes sociales. Las relaciones pueden incluir amistad, seguir, gustar, vincular o alguna otra relación. En algunas implementaciones, el gráfico 168 de conexión puede representar entidades que instalaron una aplicación 132 de emisión interactiva y configuraron una cuenta de usuario a través de la aplicación 132 de emisión interactiva.
En algunas implementaciones, el gráfico 168 de conexión puede representar entidades de más de una plataforma de redes sociales o entidades que han instalado varias aplicaciones de redes sociales. Por lo tanto, se puede entender que el gráfico 168 de conexión representa múltiples fuentes de datos distintas, cada una de las cuales representa un conjunto separado de entidades y relaciones para plataformas de medios sociales separadas. En algunas implementaciones, una primera cuenta de usuario en un almacén de datos puede incluir un identificador para una segunda cuenta de usuario en un segundo almacén de datos, donde la primera cuenta de usuario y la segunda cuenta de usuario corresponden a un único usuario humano. Por lo tanto, el motor 170 de uso compartido de vídeo interactivo puede acceder al segundo almacén de datos a través del enlace entre la primera cuenta de usuario y la segunda cuenta de usuario. Por lo tanto, el sistema puede acceder a una segunda plataforma de redes sociales a través de dichas cuentas conectadas. El usuario humano puede tener control sobre tales conexiones.
El servidor 160 también puede almacenar metadatos 166 de difusión. Los metadatos 166 de difusión pueden almacenar datos, por ejemplo, información y estadísticas, para difusiones y/o difusores en tiempo real. Los datos incluyen las participaciones recibidas durante la difusión en vivo (y en algunas implementaciones, de las repeticiones (por ejemplo, las repeticiones 220 de la Fig. 2) de la difusión almacenada), y además puede incluir marcas de tiempo, duración, la cantidad total de espectadores, cuánto tiempo cada espectador vio la difusión en tiempo real, etc. El servidor 160 también puede almacenar flujos 164 de vídeo almacenados por un tiempo limitado. Por ejemplo, cuando un difusor completa una difusión en tiempo real, el difusor puede optar por hacer que el flujo de vídeo esté disponible para su reproducción. De acuerdo con lo anterior, el servidor 160 puede almacenar el flujo de vídeo en flujos 164 de vídeo almacenados. El flujo de vídeo almacenado puede incluir las indicaciones de interacción asociadas con el flujo de vídeo. En otras palabras, cuando se reproduce el flujo de vídeo almacenado, el espectador que mira la reproducción también puede ver las participaciones recibidas durante el flujo de vídeo en tiempo real.
El servidor 160 también puede incluir un motor 170 de intercambio de vídeo interactivo. El motor 170 de intercambio de vídeo interactivo puede dar servicio a una plataforma de redes sociales y, por lo tanto, tener acceso al gráfico 168 de conexión para la plataforma de redes sociales. El motor 170 de intercambio de vídeo interactivo puede incluir un motor 172 de emisión de vídeo y un motor 174 de descubrimiento de vídeo. El motor 172 de emisión de vídeo puede configurarse para proporcionar el flujo de vídeo transcodificado, incluidas las indicaciones de participación adicionales, a los dispositivos de visualización del cliente (es decir, otras instancias del dispositivo 102) en un formato apropiado para un dispositivo de visualización del cliente en particular. El motor 170 de intercambio de vídeo interactivo puede configurarse para recibir el flujo de vídeo desde un dispositivo 102 informático de difusión (por ejemplo, un teléfono inteligente o un dispositivo informático portátil) y proporcionarlo en una variedad de formatos diferentes o reproducción en dispositivos 102 informáticos de visualización. Por lo tanto, el motor 170 de intercambio de vídeo interactivo puede convertir el flujo de vídeo en vivo del difusor en una pluralidad de formatos y, cuando un dispositivo 102 informático de visualización se une al flujo de vídeo en tiempo real, el motor 172 de emisión de vídeo puede seleccionar, en función de la información sobre el dispositivo 102 informático de visualización, un formato apropiado para el dispositivo 102 informático de visualización. El motor 170 de intercambio de vídeo interactivo puede configurarse para recibir participaciones de los dispositivos 102 informáticos de visualización y proporcionar indicaciones de participación con el flujo de vídeo proporcionado a los diversos dispositivos 102 informáticos. El motor 170 de intercambio de vídeo interactivo también puede proporcionar las indicaciones de participación al dispositivo 102 informático de difusión. Los indicadores de participación pueden estar asociados con un momento particular en el flujo de vídeo en tiempo real. Por ejemplo, una participación puede estar asociado con el tiempo representado por un paquete de marca de tiempo asociado con el cuadro de vídeo que se muestra cuando se recibió la participación.
El motor 170 de intercambio de vídeo interactivo puede configurarse para recibir una solicitud para iniciar un flujo de vídeo en tiempo real desde un dispositivo 102 informático de difusión. La solicitud puede incluir información a partir de la cual el motor 170 para compartir vídeos interactivos puede determinar los espectadores objetivo. Por ejemplo, el motor 170 de intercambio de vídeo interactivo puede usar el gráfico 168 de conexión para determinar las cuentas de usuario directamente relacionadas con la cuenta del difusor. Estas cuentas de usuario directamente relacionadas pueden recibir un mensaje, por ejemplo, una notificación automática, con respecto a la difusión. En algunas implementaciones, solo las cuentas de usuario que tienen una relación de “seguimiento” con la cuenta correspondiente al difusor pueden recibir el mensaje. Cuando la información de difusión indica que la difusión es privada, la información puede incluir identificadores (por ejemplo, identificadores de cuenta de usuario) para las cuentas de usuario que pueden recibir el mensaje (por ejemplo, notificación automática) sobre la emisión de vídeo en vivo. Por lo tanto, en algunas implementaciones, una difusión privada puede ser para un subconjunto de cuentas de usuario directamente relacionadas con la cuenta del difusor en el gráfico 168 de conexión (por ejemplo, seguidores, amigos, círculos u otras formas de asociaciones), mientras que cualquier persona puede unirse a una difusión pública, pero solo las cuentas directamente relacionadas con el difusor son notificadas de la emisión de vídeo en vivo.
En base a la información recibida con el flujo de vídeo en tiempo real y el gráfico 168 de conexión, el motor 170 de intercambio de vídeo interactivo puede enviar mensajes a los espectadores objetivo. El mensaje puede tener la forma de una notificación automática, pero también puede ser un correo electrónico o un texto que incluya un enlace o una activación que conecte al espectador objetivo con el flujo de vídeo en tiempo real. En algunas implementaciones, el espectador objetivo solo puede ver el flujo de vídeo en tiempo real si el dispositivo 102 informático utilizado por el espectador objetivo tiene una aplicación 132 de emisión interactiva instalada. La aplicación 132 de emisión interactiva puede ser una aplicación móvil o una aplicación basada en navegador. Una vez que un espectador objetivo elige unirse al flujo de vídeo en tiempo real, el motor 172 de emisión de vídeo puede proporcionar el flujo de vídeo en tiempo real codificado al espectador, por ejemplo, a través del dispositivo 102 o 104 informático.
El motor 170 de intercambio de vídeo interactivo puede configurarse para recibir participaciones de los espectadores, asociar una participación con un momento de tiempo y proporcionar indicaciones de participación con el flujo de vídeo para ver los dispositivos informáticos y el dispositivo de difusión. Una participación es algún tipo de interacción de uno de los espectadores. Por ejemplo, una señal de aprecio es un tipo de participación en el que un espectador expresa su aprobación en un momento particular durante el flujo de vídeo en tiempo real. Otro ejemplo de participación es un comentario proporcionado por un espectador. El momento en el tiempo puede estar representado por la hora en un paquete de marca de tiempo asociado con el cuadro que se estaba visualizando cuando el dispositivo cliente recibió la participación. Otro ejemplo es compartir, que puede tener una notificación de compartir correspondiente que le dice a otros espectadores y al difusor que un espectador ha invitado a otros espectadores. En algunas implementaciones, solo una difusión pública puede permitir compartir. En algunas implementaciones, el difusor puede controlar si los espectadores pueden invitar a otros espectadores a una difusión privada. Otro ejemplo de una participación es un nuevo televidente que se une a la difusión, que puede estar asociado con una notificación de nuevo televidente que alerta al difusor y a otros televidentes sobre el nuevo televidente.
El motor 172 de emisión de vídeo puede proporcionar indicaciones de las participaciones con el flujo de vídeo para fomentar la interacción entre los espectadores y el difusor. En algunas implementaciones, el motor 170 de intercambio de vídeo interactivo puede agregar los diferentes tipos de participaciones, generando estadísticas para la difusión. Por ejemplo, el motor 170 para compartir vídeos interactivos puede rastrear el número de señales de agradecimiento recibidas de todos los espectadores por minuto, rastrear el número total de señales de agradecimiento, rastrear los comentarios por minuto, rastrear el número total de comentarios, rastrear el número total de espectadores, rastrear el tiempo medio de visualización de los espectadores, rastrear el número de acciones, etc. Las estadísticas pueden almacenarse en los metadatos 166 de difusión. Los metadatos 166 de difusión se pueden usar para presentar difusiones populares (por ejemplo, medidas por número de espectadores, promedio de señales de agradecimiento por segundo, correspondencia con mensajes de redes sociales u otras difusiones, etc.) para reproducción, para sugerir difusores populares (por ejemplo, basadas en sobre la cantidad total de señales de agradecimiento recibidas en todas las difusiones o en función de un número promedio alto de señales de agradecimiento por segundo en todas las difusiones para el difusor, etc.), para notificar a los posibles miembros de la audiencia sobre una difusión en vivo popular.
El motor 174 de descubrimiento de vídeo puede permitir que el motor 170 de intercambio de vídeo interactivo sugiera flujos de vídeo en tiempo real y/o flujos de vídeo almacenados, por ejemplo, en flujos 164 de vídeo almacenados, a un espectador. En algunas implementaciones, el motor 174 de descubrimiento de vídeo puede usar los metadatos 166 de difusión para proporcionar o sugerir flujos de vídeo en tiempo real a un usuario. Por ejemplo, el motor 174 de descubrimiento de vídeo puede sugerir un flujo de vídeo en tiempo real que ha recibido muchas señales de agradecimiento en una duración corta, un flujo de vídeo en tiempo real que tiene una cantidad de espectadores que excede un umbral, un flujo de vídeo en tiempo real que tiene un número promedio de participaciones por segundo que excede un umbral, etc. El motor 174 de descubrimiento de vídeo puede impulsar la posición de un flujo de vídeo en tiempo real en el resultado de la búsqueda en base a los atributos del usuario. Por ejemplo, el motor 174 de descubrimiento de vídeo puede potenciar un flujo de vídeo en tiempo real asociado con un interés conocido del usuario en el resultado de la búsqueda. El motor 174 de descubrimiento de vídeo puede determinar un interés por el flujo de vídeo en tiempo real basándose en palabras en el título o comentarios, o puntos de referencia identificados en el flujo de vídeo. Por ejemplo, el motor 174 de descubrimiento de vídeo puede determinar que un flujo de vídeo en tiempo real titulado “Diamante negro de Vail” está asociado con el esquí, lo que puede ser un interés conocido de un usuario en particular y el motor 174 de descubrimiento de vídeo puede aumentar la clasificación de este flujo de vídeo para ese usuario en una lista de flujos de vídeo sugeridos. De manera similar, el motor 174 de descubrimiento de vídeo puede asociar el flujo de vídeo con el esquí en función del contenido de los comentarios.
En algunas implementaciones, el motor 174 de descubrimiento de vídeo puede usar otros mensajes de redes sociales para determinar un interés para el usuario. Por ejemplo, un usuario puede publicar o volver a publicar mensajes en una primera plataforma de redes sociales que incluyan hashtags. Se puede usar un hashtag para identificar mensajes sobre un tema en particular y se puede usar para identificar temas de actualidad. El motor 174 de descubrimiento de vídeo puede estar en comunicación con la primera plataforma de redes sociales y puede identificar temas que el usuario ha publicado recientemente y puede brindar flujos de vídeo en tiempo real que incluyan el tema en los comentarios (por ejemplo, usar el mismo hashtag o uno similar) una posición destacada en una lista de flujos de vídeo en tiempo real sugeridas para ese usuario. Como otro ejemplo, el motor 174 de descubrimiento de vídeo puede determinar un tema, por ejemplo, relacionado con uno o más hashtags, que es tendencia o, en otras palabras, está siendo utilizado por muchos usuarios diferentes de la primera plataforma de redes sociales. Cualquier emisión de vídeo en tiempo real que también incluya comentarios con ese tema puede aparecer en una posición destacada en una lista de flujos de vídeo en tiempo real sugeridas para los usuarios de la aplicación 132 de emisión interactiva.
El motor 174 de descubrimiento de vídeo también puede usar datos de ubicación para sugerir flujos de vídeo en tiempo real para su visualización. Por ejemplo, el motor 174 de descubrimiento de vídeo puede identificar varios flujos de vídeo en tiempo real que están muy cerca uno del otro. Dichos flujos de vídeo en tiempo real pueden ser una indicación de un evento importante que ocurre en el lugar. El motor 174 de descubrimiento de vídeo puede sugerir uno o más de estos flujos de vídeo en tiempo real (por ejemplo, seleccionados al azar, basados en la popularidad pasada del difusor, basados en el número de espectadores del flujo, etc.) como un flujo de vídeo en tiempo real sugerido. En algunas implementaciones, el motor 174 de descubrimiento de vídeo puede iniciar una interfaz de usuario que muestra la ubicación de los flujos de vídeo en tiempo real y permite al usuario seleccionar uno de los flujos de vídeo en tiempo real para una vista previa de la visualización. Por ejemplo, el usuario puede navegar en un mapa que incluye un ícono que representa la ubicación de flujos de vídeo en vivo y el usuario puede seleccionar un ícono para unirse u obtener una vista previa de los flujos de vídeo en vivo asociada con la ubicación.
En algunas implementaciones, el motor 174 de descubrimiento de vídeo puede recibir una consulta de un usuario y buscar títulos de flujos de vídeo en vivo y/o comentarios proporcionados en flujos de vídeo en vivo y proporcionar flujos de vídeo con títulos o comentarios de respuesta en un resultado de búsqueda para el espectador. El motor 174 de descubrimiento de vídeo también puede buscar títulos y comentarios para flujos de vídeo almacenados y proporcionar uno o más flujos de vídeo almacenados en el resultado de la búsqueda. Aunque se describió anteriormente como una herramienta de búsqueda de flujos de vídeo en vivo, el motor 174 de descubrimiento de vídeo puede usar técnicas similares para buscar y mostrar flujos de vídeo grabados, por ejemplo, aquellas almacenadas en flujos 164 de vídeo almacenadas. El motor 174 de descubrimiento de vídeo puede interactuar con un usuario en la aplicación 132 de emisión interactiva para recibir información del usuario y mostrar los resultados, por ejemplo, una lista de flujos de vídeo en vivo o almacenadas, para el usuario.
La aplicación 132 de emisión interactiva que se ejecuta en el dispositivo 102 informático también puede configurarse con una interfaz de usuario de visualización que permite a un espectador potencial recibir una notificación sobre un flujo de vídeo en vivo, unirse al flujo y proporcionar retroalimentación en forma de comentarios o señales de agradecimiento, para invitar a otros (cuando lo apruebe el difusor) y para compartir a través de una plataforma de redes sociales. La aplicación 132 de emisión interactiva también puede configurarse para permitir que un usuario del dispositivo 102 informático actualice el gráfico de conexión (por ejemplo, el gráfico 168 y/o 142 de conexión) para permitir que el usuario reciba notificaciones para unirse a difusiones en tiempo real desde una determinada cuenta (por ejemplo, una cuenta de la plataforma de redes sociales). Por ejemplo, la aplicación 132 de emisión interactiva puede ayudar a que una primera cuenta de usuario siga o similar a una segunda cuenta de usuario, de modo que las notificaciones de difusión de la segunda cuenta de usuario se presenten al primer usuario.
La aplicación 132 de emisión interactiva puede configurarse para mostrar mensajes relacionados con flujos de vídeo en vivo. Un flujo de vídeo en vivo es aquella que ocurre en tiempo real, a medida que el difusor captura la imagen. En otras palabras, en un flujo de vídeo en vivo o en tiempo real, la fuente del flujo de vídeo es un dispositivo de captura de vídeo (por ejemplo, la cámara 116). Por el contrario, la fuente de una reproducción de un flujo de vídeo es un medio de almacenamiento. Si un usuario elige ver el flujo de vídeo en vivo, la aplicación 132 de emisión interactiva puede mostrar el flujo de vídeo en tiempo real en la pantalla 118 del dispositivo 102 informático del espectador. La aplicación 132 de emisión interactiva está configurada para permitir que el usuario proporcione participaciones durante el flujo de vídeo en vivo. Cuando un usuario realiza un gesto de reconocimiento, como un toque en una pantalla 118 táctil o el uso de un dispositivo de entrada, como un mouse, para hacer clic en la pantalla 118, mientras ve el flujo de vídeo en vivo, la aplicación 132 de emisión interactiva interpreta el toque o clic como señal de agradecimiento. La aplicación 132 de emisión interactiva proporciona información sobre la señal de agradecimiento al servidor 160. La información sobre la participación puede incluir un identificador de quién proporcionó la señal y cuándo se proporcionó, por ejemplo, identificando la hora en el paquete de marca de tiempo asociado con el cuadro que se muestra cuando se recibió la participación. En el servidor 160, el motor 172 de emisión de vídeo recibe las participaciones y puede proporcionar información sobre las participaciones a los espectadores y al difusor. Esta información puede usarse, en cada dispositivo 102, 104 informático, para generar representaciones del acoplamiento, como se describió anteriormente. Por lo tanto, el motor 172 de emisión de vídeo proporciona información a todos los participantes que participan en el flujo de vídeo en tiempo real acerca de las participaciones de cualquiera de los espectadores.
La aplicación 132 de emisión interactiva también puede permitir que un espectador ingrese comentarios, que se proporcionan al motor 170 de intercambio de vídeo interactivo en el servidor 160. El motor 170 de intercambio de vídeo interactivo puede proporcionar información sobre esta participación, como las iniciales o el nombre de usuario del espectador que proporciona el comentario, así como el contenido del comentario y una marca de tiempo para el comentario, a los dispositivos de visualización. Además de los comentarios, la aplicación 132 de emisión interactiva puede permitir que un espectador invite a otros a ver el flujo de vídeo en vivo. Por ejemplo, cualquier persona conectada con el espectador a través del gráfico 168 o 142 de conexión puede recibir un mensaje con una invitación para unirse al flujo de vídeo en vivo. La aplicación 132 de emisión interactiva también puede permitir que un espectador abandone la difusión o se reincorpore a la difusión en cualquier momento.
Una vez que se completa una difusión, el motor 170 de intercambio de vídeo interactivo puede almacenar los formatos de flujo de vídeo y las indicaciones de participación que corresponden al flujo de vídeo, por ejemplo, almacenándolos en los flujos 164 de vídeo almacenados. En algunas implementaciones, el difusor puede evitar que el flujo de vídeo se almacene en el servidor 160. El motor 170 de intercambio de vídeo interactivo puede almacenar las indicaciones de participación con el flujo de vídeo almacenado, así como los metadatos de difusión. El motor 170 de intercambio de vídeo interactivo puede eliminar el flujo de vídeo almacenado después de que expire el tiempo limitado. Por ejemplo, el motor 170 para compartir vídeos interactivos puede eliminar cualquier flujo de vídeo guardado que tenga más de 12 o 24 horas, dependiendo de la duración del tiempo limitado. En algunas implementaciones, el motor 170 de intercambio de vídeo interactivo puede permitir a los espectadores seleccionar un flujo de vídeo almacenado para reproducirlo. En algunas implementaciones, solo aquellos en la audiencia original (por ejemplo, aquellos indicados por el difusor en una difusión privada, o solo aquellos que siguen a un difusor) pueden reproducir el flujo de vídeo. En algunas implementaciones, cualquier espectador puede reproducir el flujo de vídeo almacenado.
Durante la reproducción de un flujo de vídeo almacenado, el motor 170 de intercambio de vídeo interactivo puede recibir participaciones adicionales del espectador de reproducción. En algunas implementaciones, el motor 170 de intercambio de vídeo interactivo puede agregar las participaciones con los metadatos 166 de difusión para el flujo de vídeo almacenado. Por ejemplo, si el espectador de reproducción proporciona varias señales de agradecimiento, el motor 170 de intercambio de vídeo interactivo puede agregarlas a las estadísticas de difusión. En algunas implementaciones, el motor 170 de intercambio de vídeo interactivo puede agregar opcionalmente las participaciones al flujo de vídeo almacenado. Por ejemplo, a la señal de agradecimiento del espectador de reproducción se le puede asignar un indicador de tiempo y participación en el flujo de vídeo almacenado. En algunas implementaciones, una interacción de reproducción puede incluir compartir el flujo de vídeo almacenado. Compartir puede incluir el envío de un mensaje, por ejemplo, a través de una plataforma de redes sociales, con un enlace u otro elemento que permita a otros encontrar y reproducir el flujo de vídeo almacenado.
En algunas implementaciones, la aplicación 132 de emisión interactiva puede proporcionar una interfaz de usuario que permite a un usuario del dispositivo 102 informático seleccionar un flujo de vídeo almacenado para reproducirlo. Por ejemplo, el servidor 160 puede almacenar flujos de vídeo durante un tiempo limitado (por ejemplo, 12 o 24 horas).
Esto brinda una oportunidad para los espectadores específicos (por ejemplo, seguidores, amigos, círculos u otras asociaciones que reciben una notificación automática) que se perdieron el flujo de vídeo en vivo para ver una versión almacenada del flujo de vídeo de vídeo. La versión reproducida incluye todas las indicaciones de participación recibidas durante el flujo de vídeo en vivo. Por lo tanto, el espectador de reproducción puede experimentar las participaciones que ocurrieron durante el flujo de vídeo en vivo. En algunas implementaciones, el visor de reproducción también puede agregar participaciones al flujo de vídeo almacenado. En otras palabras, un espectador de repetición puede agregar señales de agradecimiento y/o comentarios. En algunas implementaciones, estas participaciones pueden agregarse con metadatos para la difusión, por ejemplo, en los metadatos 166 de difusión. En algunas implementaciones, las nuevas indicaciones de participación pueden almacenarse con el flujo de vídeo almacenado, de modo que otros espectadores de reproducción que vean el flujo de vídeo almacenado en un momento posterior puedan ver las nuevas participaciones agregados después de que finalizó el flujo de vídeo en vivo.
La figura 2 es un diagrama esquemático de un sistema 200 configurado para admitir una o más características y funciones mejoradas de un servicio 201 de difusión de vídeo interactivo que se ejecuta en el servidor 160. El servicio 201 de difusión de vídeo interactivo también puede incluir los componentes explicados con referencia a la Fig. 1, como el gráfico 168 de conexión, los flujos 164 de vídeo almacenados, el motor 170 de intercambio de vídeo interactivo que tiene el motor 172 de emisión de vídeo y el motor 174 de descubrimiento de vídeo, la CPU 176 y los metadatos 166 de difusión. Un dispositivo 250 puede comunicarse con el servicio 201 de difusión de vídeo interactivo a través de la red 150 para permitir que los difusores compartan sus flujos de difusión con otros usuarios. El dispositivo 250 puede ser el o los dispositivos 102, 104 informáticos explicados con respecto a la Fig. 1.
El servicio 201 de difusión de vídeo interactivo incluye un motor 202 de intercambio de vídeo de múltiples perspectivas configurado para crear una experiencia de múltiples perspectivas del mismo evento desde diferentes difusores o diferentes dispositivos de captura de vídeo. Por ejemplo, los difusores pueden ser de múltiples fuentes de vídeo (por ejemplo, cámara de teléfono inteligente, cámaras de actividad adicionales, cámaras de drones, etc.) y fuentes de audio (por ejemplo, micrófono incorporado, micrófonos externos, superposiciones de audio de sonido, etc.). Por ejemplo, varias personas en un determinado evento pueden estar usando sus dispositivos 250 para compartir sus difusiones en vivo con otros espectadores. Los diversos difusores pueden tener diferentes ángulos de visión, posiciones dentro del evento y participaciones (por ejemplo, participaciones, comentarios, mensajes, etc.) entre sus espectadores. El motor 202 para compartir vídeos de múltiples perspectivas identifica qué difusiones en vivo provienen del mismo evento y luego permite a los espectadores mostrar simultáneamente los diferentes flujos en vivo del mismo evento en la interfaz de usuario para que un usuario pueda obtener una experiencia multidimensional del acontecimiento que se observa con diferentes perspectivas. Además, en algunos ejemplos, el motor 202 para compartir vídeos de múltiples perspectivas puede identificar clips cortos o resúmenes de vídeo (por ejemplo, repeticiones 220) que capturan actividades pasadas del evento en desarrollo, y proporcionar estos vídeos al usuario para que el usuario pueda revisar una o más de estas repeticiones para estar actualizado con respecto al evento en vivo. Estas características se explican con más detalle a continuación.
En algunos casos, el evento está planificado y se conocen los difusores (y, por lo tanto, se sabe que los flujos de vídeo son del mismo evento). En un ejemplo, los distintos difusores pueden compartir la misma cuenta, que está afiliada al evento. Por ejemplo, la cuenta puede estar asociada con un productor, representante de eventos o patrocinador de eventos. En algunas implementaciones, el motor 202 de uso compartido de vídeo de múltiples perspectivas puede incluir una unidad 205 de tablero de productor configurada para proporcionar un tablero de productor para manipular uno o más de los flujos de vídeo. Por ejemplo, la unidad 205 de tablero del productor puede permitir que el usuario tenga múltiples fuentes desde la misma cuenta y proporcionar varias capacidades de edición, como superposiciones de vídeo/audio, aumento de vídeo, adición de color y/o texto adicional, incrustación de contenido de vídeo o una vinculación a contenido de vídeo en mensajes de redes sociales que se publican en plataformas de redes sociales, y/o silenciar o narrar sobre el flujo de vídeo o una parte del mismo.
El productor puede usar el tablero del productor para definir la cantidad de alimentaciones y la disposición de alimentaciones múltiples en la pantalla. En otros ejemplos, el usuario puede seleccionar qué flujos de vídeo ver. Por ejemplo, el usuario puede seleccionar un flujo de vídeo en vivo de una de las opciones posibles a través de la interfaz de usuario, y el motor 202 para compartir vídeos de múltiples perspectivas proporciona ese flujo de vídeo difundido al dispositivo 250 de visualización. En algunos ejemplos, el usuario puede seleccionar múltiples flujos de vídeo de múltiples difusiones a través de la interfaz de usuario, y el motor 202 para compartir vídeos de múltiples perspectivas agrega los múltiples flujos de vídeo para proporcionar una visualización simultánea de los flujos de difusión en vivo en la misma interfaz de usuario al mismo tiempo para que el usuario pueda observar el evento simultáneamente desde varias perspectivas. Además, esta experiencia se enriquece con el intercambio de comentarios y otras participaciones que son únicos para cada flujo de difusión (por ejemplo, la perspectiva y el intercambio de mensajes y participaciones son únicos entre cada difusor y los espectadores correspondientes) de modo que el usuario obtiene una rica experiencia desde múltiples perspectivas diferentes al mismo tiempo. En un ejemplo, se puede capturar un flujo de vídeo desde un dispositivo montado en una cámara (por ejemplo, una cámara en el casco, un dron, etc.), y se puede capturar otro flujo de vídeo desde un dispositivo móvil, y estos dos flujos de vídeo se pueden mostrar simultáneamente (por ejemplo, a través de una pantalla dividida).
En algunos ejemplos, el motor 202 de compartición de vídeo de múltiples perspectivas puede cambiar dinámicamente entre diferentes difusores (por ejemplo, paso de difusores) al cambiar la difusión a un dispositivo diferente operado por un difusor diferente. Un solo evento puede ocurrir en diferentes ubicaciones geográficas, por ejemplo, en una pista de cientos de millas de largo, en cuyo caso el servicio 201 de difusión de vídeo interactivo opcionalmente permite que un difusor transfiera una difusión del evento a otro difusor para seguir a los corredores a medida que avanzan su camino a lo largo de la pista. Aquí, hay una serie de difusores ubicados a lo largo de la pista para brindar una cobertura completa de la carrera. El motor 202 para compartir vídeos de múltiples perspectivas puede proporcionar a cada difusor un mapa en el que hay iconos que representan a los otros difusores y sus respectivas ubicaciones geográficas, y a medida que los corredores avanzan en la pista de carreras, un difusor puede seleccionar el siguiente difusor al que quiere dirigirse puede traspasar la difusión simplemente haciendo clic en el ícono apropiado para notificar al siguiente difusor, quien puede aceptar el traspaso y comenzar a difundir cuando esté listo. En otros ejemplos, un productor del evento puede usar el tablero de productores provisto por la unidad de tablero de productores 205 para controlar el traspaso del difusor. Por ejemplo, en lugar de que un difusor individual seleccione al siguiente difusor, el productor (que puede ser o no uno de los difusores a lo largo de la pista) puede usar el tablero del productor para controlar el traspaso del difusor de la misma manera (por ejemplo, revisando el ícono en su ubicación geográfica respectiva y hacer clic en el ícono apropiado para seleccionar otro difusor).
En otras implementaciones, el motor 202 de intercambio de vídeo de múltiples perspectivas puede crear una experiencia de múltiples perspectivas del mismo evento de diferentes difusores que tienen diferentes cuentas o de un evento aparentemente no planificado en el sentido de que no se planeó difundir el evento usando el servicio 201 interactivo de difusión de vídeo. El evento puede ser una protesta no planificada que se desarrolla en un lugar determinado. Un usuario del dispositivo 250 puede ejecutar la aplicación 132 de emisión interactiva para iniciar una emisión de vídeo en tiempo real para capturar la protesta y compartir el flujo de difusión en tiempo real con uno o más espectadores a través del servicio 201 de difusión de vídeo interactivo. Otros usuarios también pueden usar sus dispositivos 250 para iniciar flujos de emisión de difusión en tiempo real de la protesta y compartir los flujos de emisión difusión en tiempo real a través del servicio 201 de difusión de vídeo interactivo. Como tal, puede haber varios usuarios difundiendo en vivo el mismo evento, lo que brinda diferentes perspectivas del evento en términos de ángulo de visión, comentarios, señales de agradecimiento, etc. En general, se observa que un evento puede referirse a cualquier actividad que ocurra en una ubicación en particular o en varias ubicaciones.
En algunas implementaciones, un usuario puede estar viendo un flujo de difusión de un difusor (y proporcionando/recibiendo mensajes o indicaciones de la misma manera descrita anteriormente), y el motor 202 para compartir vídeos de múltiples perspectivas puede recomendar otras difusiones relacionadas de otros difusores del mismo evento. En algunos ejemplos, el motor 202 de intercambio de vídeo de múltiples perspectivas puede analizar las otras difusiones de los otros difusores y recomendar un subconjunto de flujos de vídeo del mismo evento en función de ciertas métricas de redes sociales. Luego, el motor 202 para compartir vídeos desde múltiples perspectivas proporciona una vista desde múltiples perspectivas de los flujos de vídeo correlacionados para que el usuario pueda obtener una experiencia de visualización mejorada. El motor 202 para compartir vídeos de múltiples perspectivas puede correlacionar los flujos de vídeo en tiempo real (por ejemplo, mientras se difunden) o difusiones de vídeo almacenadas (por ejemplo, los flujos 164 de vídeo almacenados y/o las reproducciones 220) que se relacionan con el mismo evento en un momento anterior, y presentar una pantalla de múltiples perspectivas en uno o más dispositivos 250 de espectadores que muestra las flujos de difusión en vivo al mismo tiempo y/o identifica las difusiones de vídeo en vivo/almacenadas en función de un cierto orden (por ejemplo, orden temporal desde el flujo más antiguo hasta el flujo más reciente, o viceversa, u orden de popularidad basado en una o más métricas de redes sociales).
El motor 202 para compartir vídeos desde múltiples perspectivas incluye un correlacionador 204 de flujos para correlacionar flujos de vídeo con un evento y/o entre sí. El correlacionador 204 de flujo usa una o más señales para cada flujo de difusión o una combinación de señales para ayudar a identificar los flujos de difusión y correlacionar los flujos de difusión con un solo evento y/o con otros flujos de difusión, como se explica más adelante.
Cuando los difusores y/o los espectadores se suscriben o permiten que el servicio recopile dicha información, el correlacionador 204 de flujo puede obtener datos de ubicación (por ejemplo, coordenadas GPS) e información de tiempo (por ejemplo, marcas de tiempo de los flujos de difusión), y usar los datos de ubicación y la información de tiempo para correlacionar uno o más flujos de vídeo con un evento. En algunos ejemplos, el servicio 201 de difusión de vídeo interactivo puede permitir que el difusor comparta su ubicación (explícitamente) cuando difunde. En otros ejemplos, el servicio 201 de difusión de vídeo interactivo puede inferir la ubicación basándose en el contenido de la difusión, como se explica más adelante. En algunos ejemplos, el correlacionador 204 de flujo puede obtener cualquier dato ingresado por el usuario para un flujo de vídeo difundido (proporcionado por el difusor o los espectadores), y usar esta información para correlacionar los flujos de vídeo con un evento. Por ejemplo, los comentarios o mensajes proporcionados por los espectadores cuando miran el vídeo emitido pueden incluir información que puede usarse para identificar el evento. En un ejemplo, los comentarios o mensajes pueden incluir una etiqueta hash que ayude a identificar los eventos. En otros ejemplos, el usuario puede etiquetar el flujo de vídeo para un evento en particular (por ejemplo, el usuario ingresaría al Staples Center, Lakers v. Bucks) cuando comience a difundir, y esa etiqueta se usaría para correlacionar con otros flujos de vídeo de otras difusiones en el partido de los Lakers en el Staples Center. En algunos ejemplos, el correlacionador 204 de flujo puede derivar información de la difusión de vídeo y la difusión de audio del flujo de difusión de vídeo analizando los componentes de vídeo y audio, y usar esta información para identificar el flujo de vídeo y determinar si se relaciona con un evento, como se explica más adelante.
En algunas implementaciones, el servicio 201 de difusión de vídeo interactivo puede incluir un analizador 206 de vídeo y un analizador 212 de audio para ayudar a identificar los flujos de vídeo provenientes del mismo evento. Por ejemplo, el correlacionador 204 de flujo puede configurarse para comparar los resultados del analizador 206 de vídeo y/o del analizador 212 de audio para cada flujo de vídeo para determinar si dos o más flujos de vídeo están correlacionados con el mismo evento.
El analizador 206 de vídeo puede analizar la difusión de vídeo para detectar información relevante dentro de los cuadros del vídeo y usar esta información para determinar si dos o más flujos de vídeo están relacionados con el mismo evento. Por ejemplo, el analizador 206 de vídeo puede incluir una unidad 208 de reconocimiento configurada para reconocer personas y/u objetos en el flujo de vídeo. En algunos ejemplos, la unidad 208 de reconocimiento puede utilizar cualquier tipo de técnica de reconocimiento facial, como la identificación de rasgos faciales extrayendo puntos de referencia o rasgos de una imagen del rostro del sujeto. La unidad 208 de reconocimiento puede incluir reconocimiento facial bidimensional o tridimensional. Además, la unidad 208 de reconocimiento puede usar cualquier tipo de técnicas de reconocimiento de objetos para identificar objetos en los cuadros del vídeo, como coincidencia de bordes, búsqueda divide y vencerás, coincidencia de escala de grises, coincidencia de gradientes y/o histogramas, etc. la unidad 208 puede emplear estas técnicas para identificar ciertos objetos tales como edificios u otros puntos de referencia. Como tal, la unidad 208 de reconocimiento puede detectar el número de personas en el flujo de vídeo de difusión y/o detectar personas en el flujo de vídeo de difusión (a diferencia de los objetos no humanos) para que el difusor pueda etiquetar a ciertas personas que reconoce en el flujo de difusión. En algunos ejemplos, la unidad 208 de reconocimiento puede emparejar personas detectadas dentro del flujo de vídeo con personas dentro de la red social del difusor y/o espectadores (por ejemplo, identificados por el gráfico 168 de conexión), y etiquetarlos automáticamente.
El analizador 206 de vídeo puede incluir un comparador 210 de cuadros configurado para comparar los cuadros de un flujo de vídeo con los cuadros de otro flujo de vídeo para determinar si se relacionan con el mismo evento. En algunos ejemplos, el comparador 210 de cuadros puede obtener una huella digital de uno o más cuadros de un primer flujo de vídeo y una huella digital de uno o más cuadros de un segundo flujo de vídeo, y comparar estas huellas digitales para determinar si son lo suficientemente similares. El comparador 210 de cuadros puede calcular una métrica de similitud que indica un nivel de relación entre los cuadros del primer vídeo y los cuadros del segundo vídeo, y si la métrica de similitud está por encima de un cierto umbral, entonces el correlacionador 204 de flujo puede determinar que el primer flujo de vídeo y el segundo flujo de vídeo se relacionan con el mismo evento.
El analizador 212 de audio puede analizar la difusión de audio para detectar palabras clave relevantes del habla del audio asociado con los flujos de vídeo y usar esta información para determinar si las transmisiones se relacionan con el mismo evento. El analizador 212 de audio puede incluir una unidad 214 de procesamiento de lenguaje natural (NLP) configurada para detectar palabras clave del habla del audio. El analizador 212 de audio puede usar cualquier tipo conocido de procesamiento de lenguaje natural para detectar palabras clave del habla del audio. Además, el analizador 212 de audio puede incluir un comparador 216 de audio configurado para comparar el audio (o parte del mismo) de un flujo de difusión con el audio (o parte del mismo) de otro flujo de difusión, y si los sonidos del audio son suficientemente similares o del mismo modo, el correlacionador 204 de flujos puede determinar que los flujos de difusión primero y segundo son del mismo evento.
El correlacionador 204 de flujo correlaciona los flujos de vídeo con un evento en función de las participaciones de los espectadores y, opcionalmente, más información de colaboración colectiva. Por ejemplo, a medida que el evento ocurre con el tiempo, el correlacionador 204 de flujo puede obtener información proporcionada por el usuario sobre el flujo de vídeo (por ejemplo, etiquetar el vídeo, etiquetar objetos en el vídeo, palabras clave, etiquetas hash) y analizar su significado para determinar el origen de la difusión de vídeo y si se relaciona con un evento relativamente popular. Por ejemplo, el servicio 201 de difusión de vídeo interactivo puede asociar personas detectadas con etiquetas en función de la entrada recibida a través de la interfaz de usuario. Por ejemplo, cualquiera de los espectadores o el difusor puede etiquetar la información contenida en el flujo de vídeo. Una etiqueta puede ser un enlace que vincule uno o más términos a un objeto en la difusión de vídeo. El servicio 201 de difusión de vídeo interactivo puede insertar la etiqueta en el flujo de vídeo de difusión de modo que la etiqueta persista con el objeto mientras el objeto se mueve a diferentes posiciones en el flujo de vídeo.
La figura 7 es un diagrama esquemático que representa cuadros 598 secuenciales de un flujo 597 de vídeo de difusión que tiene un objeto 599 etiquetado de manera que una etiqueta 600 persiste a través de los cuadros 598 del flujo 597 de vídeo de difusión de acuerdo con una implementación. Los cuadros 598 pueden incluir un primer cuadro 598-1 y un segundo cuadro 598-2. Aunque el primer cuadro 598-1 y el segundo cuadro 598-2 se representan uno al lado del otro, en el flujo de vídeo en vivo, el segundo cuadro 598-2 seguiría al primer cuadro 598-1. Como se muestra en la Fig. 7, el objeto 599 etiquetado se mueve durante una parte del vídeo, por ejemplo, desde el primer cuadro 598-1 al segundo cuadro 598-2. Sin embargo, la etiqueta 600 puede permanecer en el objeto 599 mientras el objeto 599 se mueve a lo largo de los cuadros de vídeo. En algunos ejemplos, el objeto 599 etiquetado (por ejemplo, una persona etiquetada) puede dejar la difusión, pero cuando el objeto 599 etiquetado regresa a la difusión, el objeto 599 permanece etiquetado (por ejemplo, el objeto no pierde su etiqueta al dejar el flujo de difusión durante un período de tiempo).
Como se muestra en la Fig. 2, en algunos ejemplos, el correlacionador 204 de flujo puede detectar el origen y/o la relevancia de un flujo de vídeo basado en identificadores incrustados en un objeto 252 físico. Por ejemplo, el correlacionador 204 de flujo puede detectar una etiqueta 254 de identificación incrustada en el objeto 252 físico. La etiqueta 254 de identificación puede ser cualquier tipo de chip, etiqueta, código de barras o señal que, cuando se lee, puede identificar el tipo particular de objeto 252 físico. En algunos ejemplos, la etiqueta 254 de identificación utiliza identificación por radiofrecuencia (RFID). Sin embargo, la etiqueta 254 de identificación puede usar cualquier tipo de tecnología para identificar y rastrear objetos. Como tal, cuando el objeto 252 físico etiquetado se captura dentro del flujo de vídeo, la etiqueta identificadora se puede leer y la información sobre el objeto físico etiquetado se puede recuperar, lo que podría indicar información sobre el evento subyacente (por ejemplo, la ubicación, la singularidad del objeto a un área determinada, u otros flujos de vídeo que tengan el mismo objeto 252 físico etiquetado).
El correlacionador 204 de flujo puede usar una combinación de dos o más de estas señales para determinar un nivel de probabilidad de que el flujo de vídeo se relacione con un evento particular o con otro flujo de vídeo, y si ese nivel de probabilidad está por encima de un valor umbral, el flujo del correlacionador 204 puede identificar que ese flujo de vídeo se origina a partir de ese evento. En algunos ejemplos, el correlacionador 204 de flujo puede utilizar un algoritmo de puntuación ponderada que aplica ponderaciones a las diversas señales, y si esa puntuación está por encima de un determinado umbral, el flujo de vídeo se identifica como procedente de ese evento. En otros ejemplos, el correlacionador 204 de flujo puede usar un algoritmo ponderado que puede ajustar dinámicamente los pesos aplicados a las diversas señales para determinar si los flujos de vídeo están correlacionados, donde la asignación dinámica de pesos está determinada por los datos contextuales que rodean el flujo de vídeo, como la cantidad de personas en el evento, la cantidad de personas que difunden el evento y/o la cantidad de datos proporcionados por el usuario intercambiados entre los dispositivos informáticos. Por ejemplo, el correlacionador 204 de flujo puede recibir información de densidad de un servicio de terceros que indica la densidad de personas en un área determinada. Cuando el correlacionador 204 de flujo recibe una indicación de que un área en particular tiene un valor de densidad relativamente alto (por ejemplo, muchos usuarios en el área), las coordenadas GPS y la información de tiempo pueden ser menos útiles para correlacionar flujos de vídeo, y el correlacionador 204 de flujo puede ajustar el peso utilizado para los datos de tiempo/GPS para tener un menor impacto en la determinación de si un flujo de vídeo se puede correlacionar con el evento que tiene una alta densidad de usuarios. Sin embargo, el correlacionador 204 de flujos puede usar cualquier número de técnicas para identificar y correlacionar flujos de vídeo con eventos, o identificar eventos con flujos.
En algunos ejemplos, el correlacionador 204 de flujo puede 1) crear un nivel de referencia de difusiones para un área determinada, y 2) si las difusiones que se originan en esa área durante un tiempo determinado superan el umbral determinado como “normal” para ese tiempo determinado, el correlacionador 204 de flujo puede crear automáticamente un evento, recopilar datos adicionales y mostrar esas difusiones a la aplicación 132 de emisión interactiva. En algunos ejemplos, el nivel de referencia de las difusiones puede referirse a la cantidad de difusiones que se emiten desde una ubicación geográfica particular. En un ejemplo, el nivel de referencia de difusiones para el centro de la ciudad de Milwaukee puede establecerse en 15 difusiones. Si el número de difusiones desde el centro de la ciudad de Milwaukee es superior a 15 dentro de un período de tiempo determinado (por ejemplo, un período de 12 horas), el correlacionador 204 de flujo puede crear un evento, recopilar información adicional de las propias difusiones y mostrar esas difusiones a solicitud del cliente. En algunos ejemplos, el nivel de referencia de las difusiones puede referirse al nivel de participación de todas las difusiones (o una parte de las difusiones) para un área en particular. Por ejemplo, el nivel de participación puede referirse a la cantidad de participaciones con las difusiones de un área en particular, como la cantidad de mensajes en las redes sociales sobre las difusiones, las señales de agradecimiento, los comentarios, las uniones, etc. Si el nivel de participación para un área particular dentro de un cuadro de tiempo dado está por encima del nivel de referencia, el correlacionador 204 de flujo puede crear un evento, recopilar información adicional de las propias difusiones y mostrar esas difusiones a la aplicación del cliente.
Además, dependiendo de qué tipo de información sea conocida o desconocida, el correlacionador 204 de flujo puede ajustar dinámicamente el número de señales utilizadas para determinar si los flujos de difusión están correlacionados. Por ejemplo, si el correlacionador 204 de flujo puede identificar un evento particular asociado con el flujo de difusión, el correlacionador 204 de flujo puede aumentar la cantidad de señales o técnicas utilizadas para identificar otros flujos de difusión al comparar el flujo de difusión con el evento conocido con otros flujos de difusión usando comparación de vídeo/audio, huellas dactilares, coordenadas GPS, marcas de tiempo, etc. En un ejemplo, el correlacionador 204 de flujo puede usar la información de ubicación de los dispositivos 250 y la información de tiempo de los flujos de vídeo (por ejemplo, cuándo se transmiten los flujos de vídeo) para determinar si los flujos de vídeo se capturan desde la misma ubicación (por ejemplo, si la ubicación de los dispositivos está dentro de un cierto rango entre sí) y ocurren dentro del cuadro de tiempo general. Si estas métricas son lo suficientemente altas o están por encima de un nivel de umbral, el correlacionador 204 de flujo puede determinar que estos flujos de vídeo están relacionados entre sí. En algunos ejemplos, el correlacionador 204 de flujo puede usar los metadatos 166 de difusión para cada flujo de vídeo para identificar una ubicación particular relacionada con el evento y/o una o más palabras clave relacionadas con el evento, y usar esta información para correlacionar uno o más flujos de vídeo. (por ejemplo, si dos o más flujos de vídeo identifican ubicaciones y/o palabras clave iguales o similares). En algunos ejemplos, los metadatos 166 de difusión pueden incluir etiquetas (por ejemplo, datos proporcionados por el usuario que identifican el flujo de vídeo y/u objetos o personas dentro del flujo de vídeo), y el correlacionador 204 de flujo puede usar las etiquetas para determinar si dos o más los flujos de vídeo están correlacionados con el mismo evento (por ejemplo, los flujos de vídeo tienen una o más etiquetas iguales o similares).
En otros ejemplos, el correlacionador 204 de flujo puede usar información de una o más redes sociales. Por ejemplo, el correlacionador 204 de flujo puede recibir una lista de palabras clave relacionadas con un evento de tendencias. En algunos ejemplos, el correlacionador 204 de flujo puede usar las palabras clave para identificar flujos de vídeo relacionados con el evento (por ejemplo, si los metadatos 166 de difusión incluyen una o más palabras clave iguales o similares a las incluidas en la lista de palabras clave relacionadas con el evento de tendencia). En algunos ejemplos, el correlacionador 204 de flujo puede recibir una lista de eventos de la plataforma de redes sociales u otras plataformas de medios sociales que son relativamente populares, y el correlacionador 204 de flujo puede configurarse para correlacionar los flujos de vídeo en vivo o almacenados con los eventos usando la lista de eventos. Además, el correlacionador 204 de flujo puede inferir la ubicación de estos eventos en vivo recopilando métricas de redes sociales de una o más plataformas de redes sociales. Por ejemplo, si “París” empieza a ser tendencia, el correlacionador 204 de flujo puede identificar y mostrar las difusiones desde la ubicación de París en lugar de mirar las difusiones cuyo título contiene la palabra París.
Además, el motor 202 de intercambio de vídeo multiperspectiva puede configurarse para proporcionar una o más repeticiones 220 asociadas con un flujo de difusión en vivo de modo que las repeticiones 220 puedan poner al usuario al día con respecto al flujo de difusión en vivo. Por ejemplo, supongamos que un usuario está viendo un flujo de difusión en vivo que cubre un evento determinado, pero ese usuario se unió a la difusión después de que comenzó el evento. Para poner al usuario al día con respecto a la difusión en vivo, el motor 202 de intercambio de vídeo de múltiples perspectivas puede proporcionar una o más repeticiones 220 de momentos destacados del evento durante momentos de tiempo antes de que el usuario se haya unido a la difusión.
La aplicación 132 de emisión interactiva puede incluir una interfaz de edición de vídeo que permite que un usuario interactúe con un editor 218 de vídeo para anotar, editar, borrar y aumentar el flujo de difusión, y condensar automáticamente grandes flujos de difusión en fragmentos de resumen o incluir solo los segmentos más interesantes para crear las repeticiones 220. A medida que el flujo de difusión se muestra a los espectadores, los espectadores interactúan con el flujo de difusión en tiempo real al proporcionar participaciones que luego se vinculan a los momentos particulares en que se generaron las participaciones. Las participaciones pueden indicar una relevancia/importancia/semejanza de ciertos segmentos de la difusión. Por lo tanto, el editor 218 de vídeo puede obtener un histograma de participación con la difusión a lo largo del tiempo que representa los diversos niveles de participación durante el lapso de la difusión. Basándose en el histograma, el editor 218 de vídeo puede identificar las partes de la difusión que están asociadas con una mayor cantidad de participaciones y luego crear uno o más clips más pequeños que están más enfocados a lo que la gente pensó que era relevante. Como tal, el editor 218 de vídeo puede recopilar los segmentos de la difusión que tienen la participación más alta (por ejemplo, una participación por encima de un cierto umbral). Alternativamente, el editor 218 de vídeo puede recortar los segmentos del vídeo que fueron menos interesantes para los espectadores usando el histograma.
En algunos ejemplos, un flujo de vídeo guardado puede incluir una difusión durante una cantidad de tiempo relativamente grande, por ejemplo, 3 horas. Si un flujo de vídeo guardado es relativamente largo, es poco probable que el usuario vea el flujo de vídeo guardado con el fin de recuperar con el flujo de difusión en vivo. Sin embargo, el usuario puede estar interesado en ver segmentos cortos o fragmentos de las partes más interesantes que sucedieron antes de que el usuario se uniera a la difusión. Por lo tanto, en algunas implementaciones, el motor 202 de intercambio de vídeo de múltiples perspectivas y/o el editor 218 de vídeo pueden proporcionar o identificar las repeticiones 220 que están relacionadas con el flujo de difusión en vivo.
Por lo tanto, el editor 218 de vídeo puede funcionar como un generador de reproducción que puede seleccionar clips abreviados o resúmenes de vídeo (es decir, las repeticiones 220) que capturan actividades clave pasadas de un evento en desarrollo y proporciona estas repeticiones a los espectadores que no comenzaron a mirar hasta después que las actividades clave pasadas ocurrieron para que puedan actualizarse con respecto al evento en vivo. Una vez que se ha detenido la difusión en vivo del evento, estas repeticiones 220 (además de la difusión completa) pueden agregarse cronológicamente y almacenarse como uno o más vídeos accesibles en red para que los espectadores puedan optar por ver solo las actividades clave en lugar del evento completo. Opcionalmente, las repeticiones 220 se seleccionan programáticamente en función de cualquier tipo y cualquier combinación de información disponible adecuada para detectar la ocurrencia de actividades clave, ejemplos de las cuales incluyen indicaciones de interés del espectador, participación del espectador y popularidad entre los espectadores. Una medida de ejemplo del interés del espectador es la impresión. Ejemplos de medidas de participación de los espectadores incluyen corazones, comentarios y retuits. Los ejemplos de medidas de popularidad incluyen la identidad del difusor, la identidad del espectador, la impresión y los retuits. (Los respectivos modelos de aprendizaje automático para interés, participación y popularidad pueden usar información común). Las repeticiones 220 pueden seleccionarse programáticamente cuando las medidas de interés, participación y popularidad alcanzan un nivel de umbral que sugiere una probabilidad razonable de que ocurra una actividad clave. Los parámetros de los modelos de aprendizaje automático y el umbral se ajustan para mejorar la precisión.
Opcionalmente, los cuadros de la difusión de flujo en vivo se analizan programáticamente para detectar actividades clave, ya sea durante la difusión o después, y esta información se usa junto con la información descrita anteriormente para seleccionar programáticamente las repeticiones 220 de la difusión. Se detecta un cambio en la apariencia de un marcador de un juego de softbol, por ejemplo, y junto con comentarios que sugieren que se ha conectado un jonrón e identifican al bateador, y un aumento en la cantidad de corazones de los espectadores conectados con el bateador en un gráfico social, se selecciona un segmento de la difusión suficiente para capturar el jonrón y se convierte en una repetición 220.
La figura 3 es un diagrama esquemático del motor 202 de intercambio de vídeo de múltiples perspectivas del servicio 201 de difusión de vídeo interactivo y una pantalla 270 de múltiples perspectivas de la aplicación 132 de emisión interactiva del dispositivo 250 de acuerdo con una implementación. Por ejemplo, el correlacionador 204 de flujo del motor 202 para compartir vídeos de múltiples perspectivas analiza un número de diversos flujos de difusión (en vivo o almacenados) (por ejemplo, un primer flujo de transmisión 260-1 y un segundo flujo de transmisión 260-2 al N-ésimo flujo de transmisión-N), así como las repeticiones 220, para determinar si se originan en el mismo evento. El correlacionador 204 de flujo incluye una unidad 262 de puntuación que usa señales 264 en un algoritmo de puntuación para calcular una métrica de puntuación para determinar la probabilidad de que un flujo de vídeo particular se origine a partir de un evento determinado o se correlacione con otro flujo de vídeo. Las señales 264 pueden incluir datos de ubicación, información de tiempo, datos ingresados por el usuario (por ejemplo, etiquetas, comentarios, mensajes u otras participaciones durante las difusiones) y/o análisis de vídeo/audio. La unidad 262 de puntuación puede usar una combinación de dos o más de estas señales 264 para determinar la métrica de puntuación que representa un nivel de probabilidad de que el flujo de vídeo se relacione con un evento particular o con otro flujo de vídeo, y si esa métrica de puntuación está por encima de un valor umbral, el correlacionador 204 de flujo puede identificar que ese flujo de vídeo se origina a partir de ese evento. En algunos ejemplos, la unidad 262 de puntuación puede usar un algoritmo de puntuación ponderado que aplica ponderaciones a las diversas señales 264, y si esa puntuación está por encima de un determinado umbral, el flujo de vídeo se identifica como procedente de ese evento.
Como se muestra en la Fig. 3, el motor 202 para compartir vídeos de múltiples perspectivas está configurado para proporcionar una visualización 270 de múltiples perspectivas, a través de la red 150, a la interfaz de usuario de la aplicación 132 de emisión interactiva. La pantalla 270 multiperspectiva puede incluir una sección 272 de disposición simultánea en la que se ha encontrado que los flujos de difusión (por ejemplo, el primer flujo 260-1 de difusión y el segundo flujo 260-2 de difusión) están correlacionados con el mismo evento. Los flujos de difusión primero y segundo pueden mostrarse al mismo tiempo en diferentes partes de la interfaz de usuario. En algunos ejemplos, la pantalla 270 multiperspectiva puede incluir una sección 274 de reproducción que identifica o enumera las repeticiones 220 relacionadas con el mismo evento que las transmisiones en vivo/almacenadas.
La figura 4 es un diagrama esquemático de una interfaz 480 de edición de vídeo de la aplicación 132 de emisión interactiva. Por ejemplo, la interfaz 480 de edición de vídeo permite que un usuario interactúe con el editor 218 de vídeo para anotar, editar, borrar y aumentar el flujo de difusión, y condensar automáticamente grandes flujos de difusión en fragmentos de resumen o incluir solo el segmento más interesante para crear las repeticiones 220. En algunos ejemplos, la interfaz 480 de edición de vídeo puede incluir una pantalla 482 de flujo de difusión que muestra el flujo de difusión guardado/en vivo, y una parte que muestra las métricas 484 de participación que representan un nivel de participación (por ejemplo, aprobaciones, comentarios, etc.) sobre tiempo a medida que se muestra el flujo de difusión, y un creador de clips 486 que crea automáticamente clips más pequeños correspondientes a las porciones de vídeo que tienen niveles de participación relativamente más altos.
Como se muestra en la Fig. 2, el servicio 201 de difusión de vídeo interactivo puede incluir un insertador 222 de datos contextuales que opera junto con uno o más servicios 224 de terceros para insertar datos contextuales en el flujo de difusión. Los servicios 224 de terceros pueden ser cualquier tipo de servicio externo que obtenga datos contextuales que sean relevantes para el evento difundido por el dispositivo 102 informático. En algunos ejemplos, los servicios 224 de terceros pueden incluir un servicio de traducción que proporciona traducciones en forma de subtítulos, un servicio meteorológico que proporciona información meteorológica y actualizaciones, y un servicio de densidad que transmite la densidad de personas en un área determinada. Los datos contextuales pueden incluir cualquier tipo de datos relevantes para el evento subyacente, como traducciones, subtítulos, velocidad, movimiento, clima o, en general, cualquier tipo de información que transmita información sobre el evento que puede no ser evidente a partir del flujo de difusión mismo. En un ejemplo específico, un corredor en un maratón podría estar usando un dispositivo de cámara, y el servicio 201 de difusión de vídeo interactivo comparte este flujo de difusión con uno o más espectadores. El insertador 222 de datos contextuales puede insertar la velocidad del corredor, su ubicación relativa a la duración de la carrera y la posición con respecto a otros corredores sobre el flujo de difusión en vivo como una superposición en las imágenes del flujo de vídeo de difusión. En otro ejemplo, el insertador 222 de datos contextuales puede insertar una métrica de densidad en el flujo de difusión para informar a los espectadores cuántas personas se encuentran alrededor del difusor para brindarles una experiencia más rica sobre cómo es el evento real. En otro ejemplo, el insertador 222 de datos contextuales puede insertar métricas sobre el clima en el flujo de difusión para dar a los espectadores una idea del clima en caso de que no sea evidente en el vídeo en sí (por ejemplo, difundir la temperatura en el campo de Lambeau durante un juego de Packer en diciembre).
Más generalmente, durante el transcurso de la difusión en vivo, el insertador 222 de datos contextúales puede insertar los datos contextuales en el flujo de vídeo en vivo de manera que la información de contexto se muestre cerca del flujo de difusión en los dispositivos de los espectadores y/o el dispositivo del difusor. El insertador 222 de datos contextuales puede proporcionar un objeto superpuesto encima de las imágenes del flujo de difusión. En algunos ejemplos, el insertador 222 de datos contextuales puede crear el objeto superpuesto para que tenga una cierta transparencia de modo que la pantalla de vídeo subyacente sea al menos parcialmente visible a través del objeto superpuesto.
La figura 5 es un diagrama esquemático de un flujo de difusión de vídeo que se mejora con un objeto 593 de datos contextuales de acuerdo con una implementación. Por ejemplo, la aplicación 132 de emisión interactiva puede definir una pantalla 590 que represente el flujo de difusión de vídeo. El insertador 222 de datos contextuales puede insertar el objeto 593 de datos contextuales que transporta los datos contextuales en el flujo de difusión de vídeo de modo que el objeto 593 de datos contextuales se superponga en la parte superior de una parte de los cuadros 594 de vídeo de visualización de la pantalla 590 o se muestre en una posición además de los cuadros 594 de vídeo mostrados.
Como se muestra en la Fig. 2, en otros ejemplos, el servicio 201 de difusión de vídeo interactivo puede incluir una unidad 226 de aumento de vídeo configurada para aumentar el propio flujo de difusión incorporar los datos contextuales en el flujo de difusión. Por ejemplo, en lugar de colocar una superposición encima del flujo de difusión, la unidad 226 de aumento de vídeo puede manipular el flujo de vídeo para insertar los datos contextuales.
Como se explicó anteriormente, cuando hay más de un número umbral de espectadores en un flujo de vídeo de difusión particular, el servicio 201 de difusión de vídeo interactivo puede limitar la funcionalidad de chat a un número predefinido, como los primeros N espectadores de la difusión. Por ejemplo, el servicio 201 de difusión de vídeo interactivo puede poner en cola a los espectadores de un flujo de difusión de vídeo particular en el orden de la hora de llegada, y permitir que los primeros N espectadores de la parte superior de la cola participen en el chat. En otros ejemplos, el servicio 201 de difusión de vídeo interactivo puede permitir que todos chateen, pero, en algunos casos, el difusor solo ve ciertos mensajes (por ejemplo, las primeras 100 personas o amigos/seguidores de la difusión y luego personas aleatorias o el los comentarios más “votados” o “me gusta” a los difusores).
En otras implementaciones, el servicio 201 de difusión de vídeo interactivo puede incluir una unidad 228 de filtro de retroalimentación. En el caso de que el difusor tenga un número relativamente grande de espectadores, la unidad 228 de filtro de retroalimentación puede determinar si ciertas participaciones deben o no volver a aparecer al difusor.
En otras palabras, la unidad 228 de filtro de retroalimentación puede determinar si la retroalimentación del flujo de vídeo enviada por los espectadores (por ejemplo, comentarios, preguntas) debe proporcionarse en la lista de preguntas o comentarios ingresados por el usuario devueltos al difusor durante la difusión. Por ejemplo, si el difusor es muy popular y tiene una gran cantidad de retroalimentación de los usuarios, puede ser demasiado difícil para el servicio 201 de difusión de vídeo interactivo proporcionar toda la retroalimentación al difusor. Como tal, la unidad 228 de filtro de retroalimentación puede funcionar como un filtro que filtra la retroalimentación menos relevante, menos interesante y/o menos popular.
En algunos ejemplos, la interfaz de usuario de la aplicación de emisión interactiva puede proporcionar un mecanismo para proporcionar una indicación de aprobación de un comentario o pregunta enviada por un espectador en particular (por ejemplo, botón Me gusta, botón No me gusta, etc.). Más detalladamente, a medida que el espectador en particular está viendo el flujo de difusión proporcionada por el difusor popular, el espectador puede ver comentarios y preguntas enviados por otros espectadores que están destinados al difusor, y el espectador puede indicar su aprobación o desaprobación de un comentario o pregunta. A medida que otros espectadores ven el comentario o la pregunta, el comentario o la pregunta pueden estar asociados con muchas indicaciones de aprobación (por ejemplo, varios espectadores han indicado su aprobación de ese comentario). Como tal, este comentario o pregunta en particular puede sobresalir por encima de otros comentarios y preguntas, y puede devolverse a la interfaz de usuario del difusor.
La unidad 228 de filtro de retroalimentación también puede usar la clasificación de credibilidad del televidente y/o la clasificación de spammers para tener en cuenta si proporcionar el comentario o la pregunta de ese telespectador al difusor. En algunos ejemplos, la calificación de credibilidad del espectador puede indicar un nivel de calidad asociado con el usuario basado en el historial del espectador con el servicio 201 de difusión de vídeo interactivo u otras plataformas de medios sociales, y la cantidad de personas que siguen a ese usuario. La calificación de spammer puede indicar la probabilidad de ser un spammer, que puede estar inversamente correlacionada con la calificación de credibilidad. Además, el espectador puede ser correlacionado con ciertos temas en los que el espectador se considera un experto. Como tal, si se considera que el espectador es un experto en un tema relacionado con el flujo de difusión, la calificación de credibilidad puede ser más alta para ese flujo de difusión, y la probabilidad de que la unidad 228 de filtro de retroalimentación muestre el comentario o la pregunta de ese espectador al difusor puede ser mayor. Como tal, en algunas implementaciones, la unidad 228 de filtro de retroalimentación puede evaluar las indicaciones de aprobación del espectador para los comentarios o preguntas, así como otros datos tales como la calificación de credibilidad del espectador y/o la calificación de spammers en un algoritmo de puntuación que determina una puntuación para cada uno de los comentarios o preguntas, y si la puntuación está por encima de un cierto umbral, el comentario o la pregunta asociada puede volver a la superficie al difusor. En algunas implementaciones, la unidad 228 de filtro de retroalimentación puede activarse cuando el número de espectadores que ven una difusión en particular excede un nivel de umbral o el número de comentarios o preguntas enviados por los espectadores excede un nivel de umbral. Por ejemplo, la unidad 228 de filtro de retroalimentación se vuelve más relevante a medida que aumenta el número de espectadores o la cantidad de retroalimentación del espectador.
En algunas implementaciones, el servicio 201 de difusión de vídeo interactivo puede incluir una unidad 230 de retroalimentación multimedia configurada para permitir que el espectador responda al flujo de difusión con audio o un flujo de vídeo separado para devolverlo al difusor. Por ejemplo, en lugar de simplemente responder con texto u otras indicaciones, la interfaz de usuario de la aplicación de emisión interactiva puede permitir que el espectador responda con flujo de difusión de audio y/o vídeo, que la unidad 230 de retroalimentación multimedia recibe del dispositivo 102 informático del espectador a través de la red 150, y luego determina si el difusor permite la retroalimentación multimedia de ese espectador. Por ejemplo, el difusor puede permitir que ciertas asociaciones o grupos de asociaciones respondan con audio y/o permitir que ciertas asociaciones o grupos de asociaciones respondan con flujos de vídeo. Por lo tanto, si el difusor acepta la retroalimentación multimedia de ese espectador, la unidad 230 de retroalimentación multimedia puede proporcionar el audio y/o el vídeo, a través de la red 150, al difusor para su visualización. En algunos ejemplos, la retroalimentación multimedia puede superponerse a una parte de la pantalla de vídeo. Por ejemplo, un objeto de retroalimentación multimedia (por ejemplo, un cuadrado, un rectángulo) puede colocarse sobre una parte de la pantalla de vídeo de manera semitransparente. En otros ejemplos, el objeto de retroalimentación multimedia se puede colocar en otras partes de la interfaz de usuario aparte de la visualización de vídeo del flujo de difusión. En algunos ejemplos, el difusor puede permitir múltiples flujos de retroalimentación de difusión de varios usuarios diferentes al mismo tiempo, donde los flujos de difusión se organizan simultáneamente en la interfaz de usuario. En algunos ejemplos, el difusor y los múltiples espectadores pueden comunicarse entre sí como en una situación de vídeoconferencia, donde todos los participantes pueden escucharse y hablar entre sí.
En algunas implementaciones, el servicio 201 de difusión de vídeo interactivo puede incluir un proveedor 232 de kit de desarrollo de software (SDK) configurado para proporcionar un kit de desarrollo de software para la aplicación 132 de emisión interactiva a aplicaciones de terceros. Por ejemplo, una aplicación de terceros puede comunicarse con el servicio 201 de difusión de vídeo interactivo integrando el kit de desarrollo de software en la aplicación de terceros. En lugar de implementar la aplicación 132 de emisión interactiva como una aplicación independiente en el dispositivo 102 informático, las aplicaciones de terceros pueden incorporar contenido de emisión en vivo en sus aplicaciones utilizando el kit de desarrollo de software provisto.
En algunas implementaciones, el servicio de transmisión de vídeo interactivo 201 puede incluir un controlador remoto de vídeo 234 configurado para recibir comentarios de los espectadores sobre el flujo de vídeo y hacer o recomendar ajustes relacionados con la captura del evento. Por ejemplo, el controlador remoto de vídeo 234 puede recibir comentarios de los espectadores con respecto a una perspectiva de la cámara 116 y recomendar o ajustar la cámara 116 basándose en la retroalimentación de los espectadores. Por ejemplo, el controlador 234 remoto de vídeo puede recibir retroalimentación de los espectadores con respecto a una perspectiva de la cámara 116 y recomendar o ajustar la cámara 116 basándose en la retroalimentación de los espectadores. Por ejemplo, el controlador 234 remoto de vídeo puede analizar la retroalimentación proporcionada por los espectadores, determinar que varios comentarios se relacionan con el ángulo de visión de la cámara 116 y determinar una recomendación para abordar estos comentarios, como mover la cámara 116 hacia la derecha o hacia la izquierda. En algunas implementaciones, el dispositivo 250 es un dispositivo robótico tal como un dron que difunde un flujo de difusión en vivo en un evento, y este flujo de difusión se comparte con varios espectadores. En un ejemplo, la cámara 116 del dron se gira ligeramente hacia la derecha para que no se transmita una parte del evento. Mientras ven la difusión del dron, los espectadores pueden comentar usando la interfaz de usuario de la aplicación de emisión interactiva que la cámara 116 debe girar ligeramente hacia la izquierda para capturar la parte que falta. Si hay varios de estos comentarios o similares de otros espectadores, el controlador 234 remoto de vídeo puede manipular el dron o controlar las operaciones del dron directamente. Se observa que el ejemplo del dron se usa solo con fines explicativos, donde los conceptos del controlador 234 remoto de vídeo se pueden aplicar a cualquier tipo de dispositivo.
El sistema 200 se puede usar junto con una pluralidad de dispositivos (por ejemplo, Internet de las cosas (IoT)) capaces de conectarse a la red 150 (y por lo tanto al servicio 201 de difusión de vídeo interactivo) ya sea directa o indirectamente (por ejemplo, a través del dispositivo 250), donde la pluralidad de dispositivos puede incluir el dispositivo 250 y otros dispositivos 256 sensores. Los dispositivos 256 sensores pueden ser otros dispositivos de vídeo habilitados para red u otros dispositivos que no sean de vídeo habilitados para red tales como dispositivos de sonido, temperatura y movimiento. Los dispositivos 256 sensores pueden ser IoT en los que los objetos (que pueden incluir humanos o animales) tienen un componente capaz de conectarse a una red. Los dispositivos 256 sensores pueden no estar necesariamente conectados al dispositivo 250 pero podrían estar cerca del dispositivo 250, o un dispositivo 256 sensor puede estar conectado al dispositivo 250 (cableado o inalámbrico). En algunas implementaciones, el servicio 201 de difusión de vídeo interactivo puede incluir un administrador 240 de sensores configurado para obtener datos detectados por los dispositivos 256 sensores y transferir esos datos detectados a uno o más de los otros componentes del servicio 201 de difusión de vídeo interactivo. Por ejemplo, los datos detectados pueden proporcionar datos contextuales adicionales que podrían ser utilizados por el insertador 222 de datos contextuales, la unidad 228 de filtro de retroalimentación, otros tipos de agregación de contenido y el motor 202 de intercambio de vídeo de múltiples perspectivas.
En algunos ejemplos, el dispositivo 256 sensor puede ser un sensor 258 de presencia que puede estar separado del dispositivo 250 o incluido como parte del dispositivo 250. El sensor 258 de presencia (cuando lo activa el usuario) puede detectar la presencia de otros dispositivos 256 sensores dentro de una distancia del sensor 258 de presencia. Por ejemplo, si el sensor 258 de presencia está cerca de otro dispositivo 256 sensor, el sensor 258 de presencia puede detectar este sensor y luego obtener e intercambiar información con este sensor sobre un determinado protocolo. Esta información se puede comunicar de vuelta al administrador 240 de sensores que se dirige a uno o más de los otros componentes.
En otro ejemplo, el dispositivo 256 sensor puede ser un sensor de movimiento, y cuando se detecta movimiento, el dispositivo 250 puede iniciar un flujo de difusión de vídeo en vivo y compartirla usando el servicio 201 de difusión de vídeo interactivo. En otros ejemplos, el flujo de difusión puede transferirse entre los dispositivos 256 sensores. Por ejemplo, un espectador puede estar viendo un flujo de difusión en su dispositivo móvil, y luego el espectador ingresa a su automóvil (equipado con una pantalla de vídeo), el flujo de difusión puede transferirse desde el dispositivo móvil a la pantalla del automóvil.
En algunas implementaciones, el servicio 201 de difusión de vídeo interactivo puede incluir un promotor 236 de flujo y medios configurados para promover ciertos flujos 238 de difusión de anunciantes registrados, y clasificar los flujos de difusión promocionados en la sección de flujos de la interfaz de usuario de la aplicación de emisión interactiva. En algunas implementaciones, el promotor 236 de flujo y medios puede recopilar estadísticas asociadas con los flujos de vídeo, y el promotor 236 de flujo y medios puede usar estas estadísticas para fijar el precio de la publicidad o indicar la efectividad de los flujos de difusión promocionados. Por ejemplo, los metadatos de la difusión pueden incluir estadísticas sobre la cantidad de espectadores, cuánto tiempo vieron la difusión los espectadores y pueden incluir la cantidad de señales de agradecimiento, la cantidad de comentarios, la cantidad de acciones compartidas por los espectadores, la cantidad promedio de señales de agradecimiento por segundo, el número promedio de comentarios recibidos por segundo (o diez segundos, etc.), el mayor número de señales de agradecimiento recibidas en un período de cinco segundos, etc. En algunos ejemplos, las estadísticas pueden incluir el área o ubicación en que se están dando las señales de agradecimiento. Por ejemplo, el promotor 236 de flujos y medios puede recopilar estadísticas sobre qué región de la pantalla se dieron las señales de reconocimiento, y si los espectadores están “tocando” ciertos objetos en la difusión. Estos tipos de estadísticas pueden proporcionar información sobre con qué acción, producto u objeto están interactuando los espectadores. En algunos ejemplos, el promotor 236 de flujo y medios puede proporcionar una representación visual de estas estadísticas, como un gráfico, tabla, etc. En algunos ejemplos, el promotor 236 de flujo y medios puede usar estas estadísticas para determinar automáticamente el nivel de efectividad de un flujo promocionado. Por ejemplo, si una o más de estas métricas están por encima de un nivel de umbral, el promotor 236 de flujo y medios puede determinar que el flujo promovido tiene un nivel de efectividad relativamente alto.
La figura 8 es un diagrama esquemático de la sección 615 de flujos con un flujo 635 promovido insertado entre otros flujos 625 de difusión. Por ejemplo, la aplicación 132 de emisión interactiva puede definir la sección 615 de flujo como una porción de la interfaz de usuario que enumera los flujos 625 de difusión recomendadas de usuarios conectados en una plataforma de redes sociales, usuarios populares y/o flujos de difusión populares. El promotor 236 de flujos y medios puede configurarse para clasificar ciertos flujos promocionados, y luego insertar los flujos promocionados en la lista del usuario de flujos de vídeo recomendados.
Además, el promotor 236 de flujo y medios puede configurarse para insertar un anuncio de emisión de vídeo en forma de superposición cerca del flujo de difusión. El anuncio de emisión de vídeo puede ser un flujo en vivo separado de un anunciante 238 registrado. En algunos casos, el flujo de difusión promocionado puede mostrarse simultáneamente con el flujo de difusión. En algunos ejemplos, el promotor 236 de flujos y medios puede operar junto con la unidad 226 de aumento de vídeo configurada para aumentar el vídeo para afirmar contenido publicitario en el vídeo de difusión real. Por ejemplo, la unidad 226 de aumento de vídeo puede configurarse para detectar un área u objeto determinado de la difusión de vídeo y luego insertar un objeto publicitario en esa área o reemplazar un objeto del flujo de difusión de manera que el objeto publicitario se comporte como un objeto tridimensional en el flujo de difusión. El aumento de vídeo realizado por la unidad 226 de aumento de vídeo es diferente a insertar un anuncio estático en el vídeo, sino que inserta un objeto tridimensional en el vídeo de una manera que está vinculado al vídeo (por ejemplo, como si el objeto publicitario es un elemento que se ve desde la perspectiva de la cámara).
La figura 6 es un diagrama esquemático de un flujo de difusión de vídeo que se mejora con un flujo 595 de publicidad y/o se aumenta con un objeto 596 de publicidad integrado. Por ejemplo, la aplicación 132 de emisión interactiva define una pantalla 590 que proporciona los cuadros 594 de vídeo mostrados. El promotor 236 de flujo y medios puede insertar el flujo 595 de publicidad en forma de superposición cerca del flujo de difusión (por ejemplo, encima del flujo de difusión o parte del flujo de difusión). Además, el promotor 236 de flujo y medios puede operar junto con la unidad 226 de aumento de vídeo configurada para aumentar el flujo de difusión para incrustar el objeto 596 publicitario. Por ejemplo, la unidad 226 de aumento de vídeo puede configurarse para detectar un área determinada u objeto del vídeo transmitido y luego insertar el objeto 596 publicitario en esa área o reemplazar un objeto del flujo de difusión de modo que el objeto publicitario integrado 596 se comporte como un objeto tridimensional en el flujo de difusión. En algunos ejemplos, la unidad 226 de aumento de vídeo puede reemplazar texto o un logotipo en el flujo de difusión con un texto diferente o un logotipo diferente para promocionar un determinado producto o marca.
En lo que se muestra en la Fig. 2, el promotor de difusión y medios 236 puede operar junto con la unidad 226 de aumento de vídeo para insertar un objeto publicitario seleccionable para reemplazar el objeto 252 físico con la etiqueta 254 de identificación incrustada. Por ejemplo, los comerciantes pueden incrustar etiquetas 254 de identificación en varios objetos 252 físicos diferentes. Luego, cuando el objeto 252 físico aparece en el flujo de difusión, el promotor 236 de flujo y medios puede detectar y leer la etiqueta 254 de identificación, y luego indicar a la unidad 226 de aumento de vídeo que inserte un objeto seleccionable que se asemeje al objeto 252 físico, pero ahora es un enlace seleccionable que se dirige al sitio web del comerciante o proporciona información adicional sobre el objeto 252 físico. En un ejemplo específico, una pelota de baloncesto puede estar incrustada con una etiqueta RFID. Cuando el difusor captura la pelota de baloncesto en el flujo de difusión (por ejemplo, cuando entra en la perspectiva de la cámara), el promotor 236 de flujos y medios puede leer la etiqueta RFID para identificar el tipo de baloncesto y luego instruir a la unidad 226 de aumento de vídeo. para colocar la representación de vídeo de la pelota de baloncesto con una versión aumentada de la pelota de baloncesto que se vuelve clicable. La selección de la pelota de baloncesto hace que el dispositivo 250 se dirija a una determinada URL o la aplicación de emisión interactiva muestra información adicional sobre la pelota de baloncesto.
Se observa que, aunque los componentes del servicio 201 de difusión de vídeo interactivo se representan en el lado del servidor, algunos o todos de uno o más de estos componentes pueden implementarse en el lado del cliente, por ejemplo, en el dispositivo 250.
La figura 9 ilustra un diagrama de flujo que ilustra un método 900 que representa operaciones de ejemplo del servicio 201 de difusión de vídeo interactivo.
Múltiples flujos se correlacionan entre sí y/o con un evento (902). El correlacionador 204 de flujo analiza varios flujos de difusión (en vivo o almacenados) y, opcionalmente, las repeticiones 220, para determinar si se originan a partir del mismo evento. El correlacionador 204 de flujo usa señales en un algoritmo de puntuación para calcular una métrica de puntuación para determinar la probabilidad de que un flujo de vídeo en particular se origine a partir de un evento determinado o se correlacione con otro flujo de vídeo. Las señales incluyen señales de reconocimiento y pueden incluir datos de ubicación, información de tiempo, datos ingresados por el usuario (por ejemplo, etiquetas, comentarios, mensajes u otras participaciones durante las difusiones) y/o análisis de vídeo/audio.
Se proporciona una pantalla de múltiples perspectivas para mostrar los múltiples (904) flujos. El motor 202 de intercambio de vídeo de múltiples perspectivas proporciona una visualización de múltiples perspectivas, a través de la red 150, a la interfaz de usuario de la aplicación 132 de emisión interactiva. La pantalla de múltiples perspectivas muestra simultáneamente las emisiones de difusión múltiples del mismo evento y/o las repeticiones 220 que proporcionan un resumen rápido de las actividades pasadas del evento. Se reciben participaciones en los flujos múltiples y luego se pueden proporcionar a otros espectadores y/o difusores (906). El servicio 201 de difusión de vídeo interactivo recibe participaciones de los espectadores en cada flujo de difusión, que luego se pueden compartir con los otros espectadores y/o los difusores.
La figura 10 ilustra una representación esquemática de una máquina en forma de ejemplo de un dispositivo 1000 informático dentro del cual se puede ejecutar un conjunto de instrucciones para hacer que la máquina realice una cualquiera o más de las metodologías discutidas aquí. El dispositivo 1000 informático puede ser un teléfono móvil, un teléfono inteligente, un ordenador netbook, un servidor de montaje en rack, un ordenador enrutador, un ordenador servidor, un ordenador personal, un ordenador central, un ordenador portátil, un ordenador tipo tableta, un ordenador de escritorio, etc., dentro del cual se puede ejecutar un conjunto de instrucciones para hacer que la máquina realice una cualquiera o más de las metodologías discutidas en este documento. En una implementación, el dispositivo 1000 informático puede presentar una interfaz de usuario superpuesta a un usuario (como se explicó anteriormente). En implementaciones alternativas, la máquina puede estar conectada (por ejemplo, en red) a otras máquinas en una LAN, una intranet, una extranet o Internet. La máquina puede operar en la capacidad de una máquina servidor en un entorno de red cliente-servidor. La máquina puede ser un ordenador personal (PC), un decodificador (STB), un servidor, un enrutador de red, conmutador o puente, o cualquier máquina capaz de ejecutar un conjunto de instrucciones (secuenciales o de otro tipo) que especifican acciones para ser tomado por esa máquina. Además, aunque solo se ilustra una sola máquina, el término “máquina” también se considerará para incluir cualquier conjunto de máquinas que, individual o conjuntamente, ejecuten un conjunto (o conjuntos múltiples) de instrucciones para realizar una o más de las metodologías discutidas en este documento.
El dispositivo 1000 informático de ejemplo incluye un dispositivo de procesamiento (por ejemplo, un procesador) 1002, una memoria 1004 principal (por ejemplo, memoria de solo lectura (ROM), memoria flash, memoria dinámica de acceso aleatorio (DRAM) como DRAM síncrona (SDRAM)), una memoria 1006 estática (por ejemplo, memoria flash, memoria estática de acceso aleatorio (SRAM)) y un dispositivo 1018 de almacenamiento de datos, que se comunican entre sí a través de un bus 1030.
El dispositivo 1002 de procesamiento representa uno o más dispositivos de procesamiento de uso general, como un microprocesador, una unidad central de procesamiento o similares. Más particularmente, el dispositivo 1002 de procesamiento puede ser un microprocesador de cálculo de conjunto de instrucciones complejo (CISC), microprocesador de cálculo de conjunto de instrucciones reducido (RISC), microprocesador de palabra de instrucción muy larga (VLIW), o un procesador que implementa otros conjuntos de instrucciones o procesadores que implementan una combinación de conjuntos de instrucciones. El dispositivo 1002 de procesamiento también puede ser uno o más dispositivos de procesamiento de propósito especial, como un circuito integrado de aplicación específica (ASIC), una matriz de puertas programables en campo (FPGA), un procesador de señal digital (DSP), un procesador de red o similar. El dispositivo 1002 de procesamiento está configurado para ejecutar instrucciones 1026 (por ejemplo, instrucciones para un sistema de clasificación de aplicaciones) para realizar las operaciones y las etapas en este documento.
El dispositivo 1000 informático puede incluir además un dispositivo 1008 de interfaz de red que puede comunicarse con una red 1020. El dispositivo 1000 informático también puede incluir una unidad 1010 de visualización de vídeo (por ejemplo, una pantalla de cristal líquido (LCD) o un tubo de rayos catódicos (CRT)), un dispositivo 1012 de entrada alfanumérica (por ejemplo, un teclado), un dispositivo 1014 de control de la pistar (por ejemplo, un ratón) y un dispositivo 1016 de generación de señales (por ejemplo, un altavoz). En una implementación, la unidad 1010 de visualización de vídeo, el dispositivo 1012 de entrada alfanumérica y el dispositivo 1014 de control de la pista pueden combinarse en un solo componente o dispositivo (por ejemplo, una pantalla táctil LCD).
El dispositivo 1018 de almacenamiento de datos puede incluir un medio de almacenamiento legible por ordenador 1028 en el que se almacenan uno o más conjuntos de instrucciones 1026 (por ejemplo, instrucciones para el sistema de clasificación de aplicaciones) que incorporan una o más de las metodologías o funciones descritas aquí. Las instrucciones 1026 también pueden residir, total o parcialmente, dentro de la memoria 1004 principal y/o dentro del dispositivo 1002 de procesamiento durante su ejecución por parte del dispositivo 1000 informático, la memoria 1004 principal y el dispositivo 1002 de procesamiento también constituyen medios legibles por ordenador. Las instrucciones pueden además difundirse o recibirse a través de una red 1020 a través del dispositivo 1008 de interfaz de red.
Si bien el medio de almacenamiento legible por ordenador 1028 se muestra en una implementación de ejemplo como un solo medio, el término “medio de almacenamiento legible por ordenador” debe tomarse para incluir un solo medio o múltiples medios (por ejemplo, una base de datos centralizada o distribuida y/o cachés y servidores asociados) que almacenan uno o más conjuntos de instrucciones. El término “medio de almacenamiento legible por ordenador” también se entenderá que incluye cualquier medio que sea capaz de almacenar, codificar o transportar un conjunto de instrucciones para que la máquina las ejecute y que hagan que la máquina realice una o más de las metodologías de la presente revelación. De acuerdo con lo anterior, se considerará que el término “medio de almacenamiento legible por ordenador” incluye, entre otros, memorias de estado sólido, medios ópticos y medios magnéticos.
En la descripción anterior, se exponen numerosos detalles. Será evidente, sin embargo, para un experto normal en la técnica que se beneficie de esta divulgación, que las implementaciones de la divulgación pueden practicarse sin estos detalles específicos. En algunos casos, las estructuras y dispositivos bien conocidos se muestran en forma de diagrama de bloques, en lugar de en detalle, para evitar oscurecer la descripción.
Algunas partes de la descripción detallada se presentan en términos de algoritmos y representaciones simbólicas de operaciones en bits de datos dentro de la memoria de un ordenador. Estas descripciones y representaciones algorítmicas son los medios utilizados por los expertos en las artes del procesamiento de datos para difundir de la manera más eficaz la esencia de su trabajo a otros expertos en la materia. Un algoritmo se concibe aquí y en general como una secuencia autoconsistente de etapas que conducen a un resultado deseado. Las etapas son los que requieren manipulaciones físicas de cantidades físicas. Por lo general, aunque no necesariamente, estas cantidades toman la forma de señales eléctricas o magnéticas que pueden almacenarse, transferirse, combinarse, compararse y manipularse. A veces ha resultado conveniente, principalmente por razones de uso común, referirse a estas señales como bits, valores, elementos, símbolos, caracteres, términos, números o similares.
Sin embargo, debe tenerse en cuenta que todos estos términos y otros similares deben asociarse con las cantidades físicas apropiadas y son simplemente etiquetas convenientes aplicadas a estas cantidades. A menos que se indique específicamente lo contrario como se desprende de la discusión anterior, se aprecia que a lo largo de la descripción, las discusiones que utilizan términos como “identificar”, “determinar”, “calcular”, “actualizar”, “difundir”, “recibir”, “generar, “cambiar” o similares, se refieren a las acciones y procesos de un sistema informático, o dispositivo informático electrónico similar, que manipula y transforma datos representados como cantidades físicas (por ejemplo, electrónicas) dentro de los registros y memorias del sistema informático en otros datos representados de manera similar como cantidades físicas dentro de las memorias o registros del sistema informático u otros dispositivos de almacenamiento, transmisión o visualización de información.
Las implementaciones de la divulgación también se refieren a un aparato para realizar las operaciones de este documento. Este aparato puede construirse especialmente para los propósitos requeridos, o puede comprender un ordenador de propósito general activado o reconfigurado selectivamente por un programa de ordenador almacenado en el ordenador. Dicho programa de ordenador puede almacenarse en un medio de almacenamiento legible por ordenador no transitorio, como, entre otros, cualquier tipo de disco, incluidos disquetes, discos ópticos, CD-ROM y discos magnéticos-ópticos, memorias de solo lectura (ROM), memorias de acceso aleatorio (RAM), EPROM, EEPROM, tarjetas magnéticas u ópticas, memorias flash, o cualquier tipo de medio apto para almacenar instrucciones electrónicas.
Las palabras “ejemplo” o “ejemplar” se utilizan aquí para indicar que sirven como ejemplo, caso o ilustración. Cualquier aspecto o diseño descrito en este documento como “ejemplo” o “ejemplar” no debe interpretarse necesariamente como preferido o ventajoso sobre otros aspectos o diseños. Más bien, el uso de las palabras “ejemplo” o “ejemplar” pretende presentar conceptos de manera concreta. Tal como se utiliza en esta solicitud, el término “o” pretende significar un “o” inclusivo en lugar de un “o” exclusivo. Es decir, a menos que se especifique lo contrario, o que quede claro por el contexto, “X incluye A o B” significa cualquiera de las permutaciones inclusivas naturales. Es decir, si X incluye a A; X incluye B; o X incluye tanto A como B, entonces “X incluye A o B” se cumple en cualquiera de los casos anteriores. Además, los artículos “un” y “uno”, como se usan en esta solicitud y las reivindicaciones adjuntas generalmente deben interpretarse como “uno o más” a menos que se especifique lo contrario o quede claro por el contexto para estar dirigidos a una forma singular. Además, el uso del término “una implementación” o “una realización” o “una implementación” o “una implementación” no pretende significar la misma realización o implementación a menos que se describa como tal. Además, los términos “primero”, “segundo”, “tercero”, “cuarto”, etc., tal como se utilizan aquí, pretenden ser etiquetas para distinguir entre diferentes elementos y pueden no tener necesariamente un significado ordinal de acuerdo con su designación numérica.
Los algoritmos y las pantallas que se presentan en este documento no están inherentemente relacionados con ningún ordenador u otro aparato en particular. Se pueden usar varios sistemas de propósito general con programas de acuerdo con las enseñanzas del presente documento, o puede resultar conveniente construir un aparato más especializado para realizar las etapas de método requeridos. La estructura requerida para una variedad de estos sistemas aparecerá a partir de la descripción a continuación. Además, la presente divulgación no se describe con referencia a ningún lenguaje de programación en particular. Se apreciará que se puede usar una variedad de lenguajes de programación para implementar las enseñanzas de la divulgación como se describe en este documento.
La descripción anterior establece numerosos detalles específicos, como ejemplos de sistemas, componentes, métodos, etc. específicos, para proporcionar una buena comprensión de varias implementaciones de la presente divulgación. Será evidente para un experto en la técnica, sin embargo, que al menos algunas implementaciones de la presente divulgación pueden practicarse sin estos detalles específicos. En otros casos, los componentes o métodos bien conocidos no se describen en detalle o se presentan en un formato de diagrama de bloques simple para evitar oscurecer innecesariamente la presente divulgación. Por lo tanto, los detalles específicos establecidos anteriormente son simplemente ejemplos. Las implementaciones particulares pueden variar de estos detalles de ejemplo y todavía se contempla que están dentro del alcance de la presente divulgación.
Debe entenderse que la descripción anterior pretende ser ilustrativa y no restrictiva. Muchas otras implementaciones serán evidentes para los expertos en la técnica al leer y comprender la descripción anterior. El alcance de la divulgación debe, por lo tanto, determinarse con referencia a las reivindicaciones adjuntas.

Claims (15)

REIVINDICACIONES
1. Un sistema (200) que comprende:
una pluralidad de dispositivos (102) de visualización; y
un servicio (201) de difusión de vídeo interactivo, implementado en un servidor, configurado para permitir que una pluralidad de dispositivos (250) fuente difundan flujos de vídeo en vivo, a través de una red (150), a la pluralidad de dispositivos de visualización, el servicio de difusión de vídeo interactivo incluye,
un correlacionador (204) de flujo configurado para determinar que al menos dos de los flujos de vídeo de difusión en vivo se relacionan con un mismo evento al:
calcular una métrica de puntuación que representa un nivel de probabilidad de que un primero y un segundo flujo de vídeo en vivo estén relacionados con el mismo evento usando una o más señales para cada uno de los primeros y segundos flujos de vídeo en vivo, al menos una de las señales para cada uno del primero y segundo flujo de vídeo en vivo incluyen participaciones del usuario con el primero y segundo flujo de vídeo recibidos de la pluralidad de dispositivos de visualización, en el que la participación del usuario corresponde a una señal de agradecimiento que es proporcionada por un usuario que toca una pantalla táctil de un dispositivo de visualización, o proporcionado por un usuario que utiliza un dispositivo de entrada para hacer clic en una pantalla de un dispositivo de visualización; y determinar que los flujos de vídeo de difusión en vivo primero y segundo están relacionados con el mismo evento en respuesta a que la métrica de puntuación es mayor que un nivel de umbral;
un motor (202) para compartir vídeos de múltiples perspectivas configurado para proporcionar una visualización (270) de múltiples perspectivas, a través de la red, a al menos uno de la pluralidad de dispositivos de visualización, la visualización de múltiples perspectivas emite simultáneamente los flujos de vídeo de difusión en vivo determinados en relación con el mismo evento.
2. El sistema de la reivindicación 1, que comprende, además:
un generador (218) de repeticiones configurado para generar una o más repeticiones de al menos uno de los dos flujos de vídeo de difusión en vivo, incluyendo la una o más repeticiones uno o más vídeoclips que capturan actividades clave pasadas del evento,
el generador de repeticiones configurado para brindar acceso a una o más repeticiones, de modo que se pueda seleccionar una repetición para ver las actividades clave pasadas del evento en lugar del flujo de vídeo de difusión de vídeo en vivo completo.
3. El sistema de la reivindicación 1, en el que el servicio de difusión de vídeo interactivo incluye un analizador (206) de vídeo configurado para analizar el vídeo de los flujos de vídeo de difusión en vivo,
en el que el correlacionador de flujo está configurado además para determinar que los flujos de vídeo de difusión en vivo primero y segundo se relacionan con el mismo evento en función del analizador de vídeo que reconoce personas y/u objetos en los flujos de vídeo de difusión en vivo primero y segundo.
4. El sistema de la reivindicación 1, en el que el servicio de difusión de vídeo interactivo incluye un analizador (212) de audio configurado para analizar el audio de los flujos de vídeo en vivo,
en el que el correlacionador de flujo está configurado además para determinar que el primer y segundo flujos de vídeo de difusión en vivo se relacionan con el mismo evento en función del analizador de audio que detecta palabras clave del habla del audio o determina si los sonidos del audio son suficientemente similares o iguales.
5. El sistema de la reivindicación 1, en el que el motor para compartir vídeos de múltiples perspectivas está configurado para detectar y leer un identificador de etiqueta de un objeto físico en uno de los flujos de vídeo de difusión en vivo, el motor para compartir vídeos de múltiples perspectivas está configurado para identificar el objeto físico basado en el identificador de la etiqueta,
en el que el correlacionador de flujo está configurado además para usar información del identificador de etiqueta en la determinación de si el primer y el segundo flujos de vídeo de difusión en vivo se relacionan con el mismo evento.
6. El sistema de la reivindicación 1, en el que el servicio de difusión de vídeo interactivo incluye un insertador (222) de datos contextuales configurado para insertar datos contextuales sobre el evento en uno de los flujos de vídeo en vivo o una unidad (226) de aumento de vídeo configurada para aumentar uno de los flujos de vídeo de difusión en vivo para insertar datos contextuales sobre el evento en cuadros de vídeo o un flujo y un promotor (236) de medios configurado para insertar un flujo de difusión promocionado en la visualización de múltiples perspectivas.
7. El sistema de la reivindicación 1, en el que el servicio de difusión de vídeo interactivo incluye un controlador (234) remoto de vídeo configurado para controlar una operación de una cámara en uno de la pluralidad de dispositivos fuente que está difundiendo un flujo de vídeo de difusión en vivo, el controlador remoto de vídeo se configura para controlar el funcionamiento de la cámara basado en las participaciones del usuario con el flujo de vídeo en vivo proporcionado por la pluralidad de dispositivos de visualización.
8. El sistema de la reivindicación 1, en el que el servicio de difusión de vídeo interactivo está configurado para detectar y leer un identificador de etiqueta de un objeto físico capturado en un flujo de vídeo de difusión en vivo, el motor de intercambio de vídeo de múltiples perspectivas está configurado para identificar el objeto físico en función del identificador de etiqueta,
en el que el servicio de difusión de vídeo interactivo incluye una unidad de aumento de vídeo configurada para aumentar el flujo de vídeo de difusión en vivo para incluir una representación seleccionable del objeto físico.
9. Un método implementado por ordenador que comprende:
permitir, mediante un servicio de difusión de vídeo interactivo implementado en un servidor, una pluralidad de dispositivos fuente para difundir flujos de vídeo de difusión en vivo, a través de una red, a una pluralidad de dispositivos de visualización;
determinar, mediante un correlacionador (204) de flujo, que múltiples flujos de vídeo de difusión en vivo se relacionan con un mismo evento, los múltiples flujos de vídeo de difusión en vivo incluyen una primera difusión de flujo de vídeo de difusión en vivo desde un primer dispositivo fuente y una segunda difusión de flujo de vídeo de difusión en vivo desde un segundo dispositivo fuente al:
calcular una métrica de puntuación que representa un nivel de probabilidad de que el primero y segundo flujos de vídeo de difusión en vivo estén relacionados con el mismo evento usando una o más señales para cada uno de los primeros y segundos flujos de difusión de vídeo en vivo, al menos una de las señales para cada una de los primeros y segundos flujos de difusión de vídeo en vivo que incluyen participaciones del usuario con los primeros y segundos flujos de difusión de vídeo en vivo recibidos de la pluralidad de dispositivos de visualización, en el que una participación del usuario corresponde a una señal de agradecimiento que es proporcionada por un usuario que toca una pantalla táctil de un dispositivo de visualización, o proporcionada por un usuario que utiliza un dispositivo de entrada para hacer clic en una pantalla del dispositivo de visualización; y
determinar que los flujos de vídeo de difusión en vivo primero y segundo están relacionados con el mismo evento en respuesta a que la métrica de puntuación es mayor que un nivel de umbral; y
proporcionar una visualización multiperspectiva, a través de la red, a al menos uno de la pluralidad de dispositivos de visualización, la visualización multiperspectiva emite simultáneamente el primer flujo de vídeo de difusión en vivo y el segundo flujo de vídeo de difusión en vivo.
10. El método implementado por ordenador de la reivindicación 9 que comprende:
generar, mediante un generador (218) de repeticiones, una o más repeticiones de al menos uno de los dos flujos de vídeo de difusión en vivo, una o más repeticiones incluyen uno o más vídeoclips que capturan actividades clave pasadas del evento; y
proporcionar, mediante el generador de repeticiones, acceso a una o más repeticiones de modo que se pueda seleccionar una repetición para ver las actividades clave pasadas del evento en lugar del flujo de vídeo de difusión en vivo completo.
11. El método implementado por ordenador de la reivindicación 9 que comprende:
analizar, mediante un analizador (206) de vídeo del servicio de difusión de vídeo interactivo, vídeo de los flujos de vídeo de difusión en vivo; y
determinar, mediante el correlacionador de flujo, que el primer y el segundo flujo de vídeo de difusión en vivo se relacionan con el mismo evento basado en el analizador de vídeo que reconoce personas y/u objetos en el primer y segundo flujo de vídeo de difusión en vivo.
12. El método implementado por ordenador de la reivindicación 9 que comprende:
analizar, mediante un analizador (212) de audio del servicio de difusión de vídeo interactivo, el audio de los flujos de vídeo de difusión en vivo; y
determinar, mediante el correlacionador de flujo, que el primer y el segundo flujo de vídeo de difusión en vivo se relacionan con el mismo evento en base a que el analizador de audio detecta palabras clave del habla del audio o determina si los sonidos del audio son suficientemente similares o iguales.
13. El método implementado por ordenador de la reivindicación 9 que comprende:
detectar y leer, mediante el vídeo multiperspectiva que comparte un identificador de etiqueta de un objeto físico en uno de los flujos de vídeo de difusión en vivo;
identificar, mediante el motor de intercambio de vídeo multiperspectiva, el objeto físico basado en el identificador de etiqueta; y
utilizar, por el correlacionador de flujo, información del identificador de etiqueta en la determinación de si el primer y el segundo flujo de vídeo de difusión en vivo se relacionan con el mismo evento.
14. El método implementado por ordenador de la reivindicación 9 que comprende:
insertar, mediante un insertador (222) de datos contextuales del servicio de difusión de vídeo interactivo, datos contextuales sobre el evento en uno de los flujos de vídeo de difusión en vivo.
15. Un programa informático que comprende instrucciones legibles por máquina que, cuando se ejecutan mediante un aparato informático, provocan que realice el método de cualquiera de las reivindicaciones 9 a 14.
ES16773956T 2015-03-27 2016-03-28 Servicios de emisión de vídeo en vivo Active ES2905535T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201562139451P 2015-03-27 2015-03-27
PCT/US2016/024590 WO2016160744A1 (en) 2015-03-27 2016-03-28 Live video streaming services

Publications (1)

Publication Number Publication Date
ES2905535T3 true ES2905535T3 (es) 2022-04-11

Family

ID=56974424

Family Applications (1)

Application Number Title Priority Date Filing Date
ES16773956T Active ES2905535T3 (es) 2015-03-27 2016-03-28 Servicios de emisión de vídeo en vivo

Country Status (4)

Country Link
US (3) US10721499B2 (es)
EP (2) EP3275202B1 (es)
ES (1) ES2905535T3 (es)
WO (1) WO2016160744A1 (es)

Families Citing this family (190)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10116972B2 (en) 2009-05-29 2018-10-30 Inscape Data, Inc. Methods for identifying video segments and displaying option to view from an alternative source and/or on an alternative device
US10949458B2 (en) 2009-05-29 2021-03-16 Inscape Data, Inc. System and method for improving work load management in ACR television monitoring system
US9071868B2 (en) 2009-05-29 2015-06-30 Cognitive Networks, Inc. Systems and methods for improving server and client performance in fingerprint ACR systems
US10375451B2 (en) * 2009-05-29 2019-08-06 Inscape Data, Inc. Detection of common media segments
US9449090B2 (en) 2009-05-29 2016-09-20 Vizio Inscape Technologies, Llc Systems and methods for addressing a media database using distance associative hashing
US8769584B2 (en) 2009-05-29 2014-07-01 TVI Interactive Systems, Inc. Methods for displaying contextually targeted content on a connected television
US9213949B1 (en) * 2011-09-02 2015-12-15 Peter L. Lewis Technologies for live entertaining and entertainment trending
WO2013166588A1 (en) 2012-05-08 2013-11-14 Bitstrips Inc. System and method for adaptable avatars
GB2526501A (en) 2013-03-01 2015-11-25 Redowl Analytics Inc Modeling social behavior
US20140249785A1 (en) 2013-03-01 2014-09-04 RedOwl Analytics, Inc. Modeling social behavior
US9955192B2 (en) 2013-12-23 2018-04-24 Inscape Data, Inc. Monitoring individual viewing of television events using tracking pixels and cookies
US9396354B1 (en) 2014-05-28 2016-07-19 Snapchat, Inc. Apparatus and method for automated privacy protection in distributed images
US9113301B1 (en) 2014-06-13 2015-08-18 Snapchat, Inc. Geo-location based event gallery
US10824654B2 (en) 2014-09-18 2020-11-03 Snap Inc. Geolocation-based pictographs
US10311916B2 (en) 2014-12-19 2019-06-04 Snap Inc. Gallery of videos set to an audio time line
US9385983B1 (en) 2014-12-19 2016-07-05 Snapchat, Inc. Gallery of messages from individuals with a shared interest
CA2973740C (en) 2015-01-30 2021-06-08 Inscape Data, Inc. Methods for identifying video segments and displaying option to view from an alternative source and/or on an alternative device
KR102371138B1 (ko) 2015-03-18 2022-03-10 스냅 인코포레이티드 지오-펜스 인가 프로비저닝
US10455291B2 (en) 2015-03-20 2019-10-22 Twitter, Inc. Live video stream sharing
US20160294890A1 (en) * 2015-03-31 2016-10-06 Facebook, Inc. Multi-user media presentation system
MX2017013128A (es) 2015-04-17 2018-01-26 Inscape Data Inc Sistemas y metodos para reducir densidad de los datos en grandes conjuntos de datos.
US10135949B1 (en) 2015-05-05 2018-11-20 Snap Inc. Systems and methods for story and sub-story navigation
US11683566B2 (en) 2015-06-18 2023-06-20 Relgic, Llc Live content streaming system and method
US10368134B2 (en) * 2015-06-18 2019-07-30 Placement Labs, LLC Live content streaming system and method
US10080062B2 (en) 2015-07-16 2018-09-18 Inscape Data, Inc. Optimizing media fingerprint retention to improve system resource utilization
WO2017011768A1 (en) 2015-07-16 2017-01-19 Vizio Inscape Technologies, Llc Systems and methods for partitioning search indexes for improved efficiency in identifying media segments
CA2992529C (en) 2015-07-16 2022-02-15 Inscape Data, Inc. Prediction of future views of video segments to optimize system resource utilization
JP6903653B2 (ja) 2015-07-16 2021-07-14 インスケイプ データ インコーポレイテッド 共通メディアセグメントの検出
CA2992471A1 (en) * 2015-07-17 2017-01-26 Tribune Broadcasting Company, Llc Media production system with score-based display feature
US20170078351A1 (en) * 2015-09-15 2017-03-16 Lyve Minds, Inc. Capture and sharing of video
US10368136B1 (en) * 2015-12-17 2019-07-30 Amazon Technologies, Inc. Resource management for video playback and chat
US20170180293A1 (en) * 2015-12-17 2017-06-22 International Business Machines Corporation Contextual temporal synchronization markers
US10354425B2 (en) 2015-12-18 2019-07-16 Snap Inc. Method and system for providing context relevant media augmentation
US10776885B2 (en) * 2016-02-12 2020-09-15 Fujitsu Limited Mutually reinforcing ranking of social media accounts and contents
US11310298B2 (en) * 2016-03-07 2022-04-19 Intel Corporation Technologies for providing hints usable to adjust properties of digital media
US11012719B2 (en) * 2016-03-08 2021-05-18 DISH Technologies L.L.C. Apparatus, systems and methods for control of sporting event presentation based on viewer engagement
US10339365B2 (en) 2016-03-31 2019-07-02 Snap Inc. Automated avatar generation
US10085235B2 (en) * 2016-05-17 2018-09-25 SpectraRep, LLC Method and system for datacasting and content management
US10563330B2 (en) 2016-06-08 2020-02-18 One Sciences, Inc. Methods and systems for stitching along a predetermined path
US10193944B2 (en) * 2016-06-17 2019-01-29 Q Technologies Inc. Systems and methods for multi-device media broadcasting or recording with active control
US10489016B1 (en) 2016-06-20 2019-11-26 Amazon Technologies, Inc. Identifying and recommending events of interest in real-time media content
US9905267B1 (en) 2016-07-13 2018-02-27 Gracenote, Inc. Computing system with DVE template selection and video content item generation feature
JP6938123B2 (ja) * 2016-09-01 2021-09-22 キヤノン株式会社 表示制御装置、表示制御方法及びプログラム
US10430662B2 (en) * 2016-09-21 2019-10-01 GumGum, Inc. Training machine learning models to detect objects in video data
US10798043B2 (en) * 2016-09-26 2020-10-06 Facebook, Inc. Indicating live videos for trending topics on online social networks
CN106991108A (zh) * 2016-09-27 2017-07-28 阿里巴巴集团控股有限公司 一种信息的推送方法及装置
WO2018070493A1 (en) * 2016-10-14 2018-04-19 Ricoh Company, Ltd. Information processing system, information processing apparatus, and screen-sharing terminal controlling method
BR112019007152B1 (pt) 2016-10-14 2023-03-07 Rovi Guides, Inc Método e sistema para fornecer um fluxo de vídeo em câmera lenta quando um evento é detectado em um fluxo de vídeo
US10432559B2 (en) 2016-10-24 2019-10-01 Snap Inc. Generating and displaying customized avatars in electronic messages
KR20180050943A (ko) * 2016-11-07 2018-05-16 삼성전자주식회사 스트리밍 서비스를 제공하는 방법 및 이를 사용하는 전자 장치
US10219009B2 (en) 2016-11-18 2019-02-26 Twitter, Inc. Live interactive video streaming using one or more camera devices
US10075740B2 (en) * 2016-11-22 2018-09-11 Facebook, Inc. Providing enhanced live video
CN106507133B (zh) * 2016-11-28 2019-07-26 北京金山安全软件有限公司 弹幕消息的处理方法、装置、系统及其设备
US10257128B2 (en) * 2016-11-28 2019-04-09 Microsoft Technology Licensing, Llc Presenting messages to participants based on neighborhoods
US20180157381A1 (en) * 2016-12-02 2018-06-07 Facebook, Inc. Systems and methods for media item selection within a grid-based content feed
US10681398B1 (en) * 2016-12-02 2020-06-09 Twitch Interactive, Inc. Video encoding based on viewer feedback
US10303443B2 (en) * 2016-12-06 2019-05-28 Cybeye, Inc. Methods and system for custom application development
US10762675B2 (en) * 2016-12-12 2020-09-01 Facebook, Inc. Systems and methods for interactive broadcasting
US10320728B2 (en) 2016-12-13 2019-06-11 Google Llc Methods, systems, and media for generating a notification in connection with a video content item
US11037202B2 (en) * 2016-12-27 2021-06-15 Paypal, Inc. Contextual data in augmented reality processing for item recommendations
CN108259409B (zh) * 2016-12-28 2020-08-11 腾讯科技(深圳)有限公司 信息处理方法、终端及系统
US10841660B2 (en) 2016-12-29 2020-11-17 Dressbot Inc. System and method for multi-user digital interactive experience
CA2953311A1 (en) 2016-12-29 2018-06-29 Dressbot Inc. System and method for multi-user digital interactive experience
GB201702386D0 (en) 2017-02-14 2017-03-29 Bluejay Tech Ltd System for streaming
US20200045094A1 (en) * 2017-02-14 2020-02-06 Bluejay Technologies Ltd. System for Streaming
US10652618B2 (en) * 2017-02-16 2020-05-12 Facebook, Inc. Transmitting video clips of viewers' reactions during a broadcast of a live video stream
US10542298B2 (en) * 2017-03-02 2020-01-21 Cisco Technology, Inc. Autonomously generated video channels
JP6649306B2 (ja) * 2017-03-03 2020-02-19 株式会社東芝 情報処理装置、情報処理方法及びプログラム
US10471360B2 (en) * 2017-03-06 2019-11-12 Sony Interactive Entertainment LLC User-driven spectator channel for live game play in multi-player games
US10582277B2 (en) * 2017-03-27 2020-03-03 Snap Inc. Generating a stitched data stream
CN110462616B (zh) * 2017-03-27 2023-02-28 斯纳普公司 用于生成拼接数据流的方法和服务器计算机
US10581782B2 (en) * 2017-03-27 2020-03-03 Snap Inc. Generating a stitched data stream
JP7118998B2 (ja) 2017-04-06 2022-08-16 インスケイプ データ インコーポレイテッド メディア視聴データを使用してデバイスマップの精度を改善させるためのシステムおよび方法
SE540666C2 (en) * 2017-04-11 2018-10-09 Znipe Esports AB Methods and nodes for providing multi perspective video of match events of interest
US10986384B2 (en) * 2017-04-14 2021-04-20 Facebook, Inc. Modifying video data captured by a client device based on a request received by a different client device receiving the captured video data
JP7026449B2 (ja) 2017-04-21 2022-02-28 ソニーグループ株式会社 情報処理装置、受信装置、及び情報処理方法
US11893647B2 (en) 2017-04-27 2024-02-06 Snap Inc. Location-based virtual avatars
US10212541B1 (en) 2017-04-27 2019-02-19 Snap Inc. Selective location-based identity communication
CN111010882B (zh) 2017-04-27 2023-11-03 斯纳普公司 在基于地图的社交媒体平台上的位置隐私关联
US10999296B2 (en) 2017-05-15 2021-05-04 Forcepoint, LLC Generating adaptive trust profiles using information derived from similarly situated organizations
US11888859B2 (en) 2017-05-15 2024-01-30 Forcepoint Llc Associating a security risk persona with a phase of a cyber kill chain
US20180341372A1 (en) * 2017-05-24 2018-11-29 Iheartmedia Management Services, Inc. Radio content replay
DE102017112772A1 (de) * 2017-06-09 2018-12-13 Riedel Communications International GmbH System zur Echtzeit-Übertragung von 3D-Daten, u. a.
US11070862B2 (en) * 2017-06-23 2021-07-20 At&T Intellectual Property I, L.P. System and method for dynamically providing personalized television shows
US11159856B2 (en) 2017-07-10 2021-10-26 Sony Interactive Entertainment LLC Non-linear content presentation and experience
KR101891582B1 (ko) 2017-07-19 2018-08-27 네이버 주식회사 컨텐츠 내 하이라이트 댓글을 처리하기 위한 방법 및 시스템
US10318729B2 (en) 2017-07-26 2019-06-11 Forcepoint, LLC Privacy protection during insider threat monitoring
US10574715B2 (en) 2017-08-03 2020-02-25 Streaming Global, Inc. Method and system for aggregating content streams based on sensor data
US10728622B2 (en) 2017-08-25 2020-07-28 Sony Interactive Entertainment LLC Management of non-linear content presentation and experience
US10567843B2 (en) * 2017-08-29 2020-02-18 Eric DuFosse System and method for creating a replay of a live video stream
KR101933558B1 (ko) * 2017-09-14 2018-12-31 네이버 주식회사 동영상 내 하이라이트 댓글을 처리하기 위한 방법 및 시스템
US10880465B1 (en) 2017-09-21 2020-12-29 IkorongoTechnology, LLC Determining capture instructions for drone photography based on information received from a social network
US20190095949A1 (en) * 2017-09-26 2019-03-28 Adobe Systems Incorporated Digital Marketing Content Control based on External Data Sources
US10733262B2 (en) 2017-10-05 2020-08-04 Adobe Inc. Attribute control for updating digital content in a digital medium environment
US10657118B2 (en) 2017-10-05 2020-05-19 Adobe Inc. Update basis for updating digital content in a digital medium environment
US11551257B2 (en) 2017-10-12 2023-01-10 Adobe Inc. Digital media environment for analysis of audience segments in a digital marketing campaign
WO2019075428A1 (en) 2017-10-12 2019-04-18 Shouty, LLC SYSTEMS AND METHODS FOR DIRECT CONTINUOUS DIFFUSION OF CLOUD STORAGE
US10685375B2 (en) 2017-10-12 2020-06-16 Adobe Inc. Digital media environment for analysis of components of content in a digital marketing campaign
US10864448B2 (en) 2017-10-13 2020-12-15 Microsoft Technology Licensing, Llc Shareable video experience tailored to video-consumer device
US10795647B2 (en) 2017-10-16 2020-10-06 Adobe, Inc. Application digital content control using an embedded machine learning module
US11544743B2 (en) 2017-10-16 2023-01-03 Adobe Inc. Digital content control based on shared machine learning properties
US10803178B2 (en) 2017-10-31 2020-10-13 Forcepoint Llc Genericized data model to perform a security analytics operation
US10991012B2 (en) 2017-11-01 2021-04-27 Adobe Inc. Creative brief-based content creation
US10853766B2 (en) 2017-11-01 2020-12-01 Adobe Inc. Creative brief schema
JP6463826B1 (ja) * 2017-11-27 2019-02-06 株式会社ドワンゴ 動画配信サーバ、動画配信方法及び動画配信プログラム
US20190188320A1 (en) * 2017-12-14 2019-06-20 Facebook, Inc. Systems and methods for providing ephemeral content items created from live stream videos
US10535190B2 (en) * 2017-12-28 2020-01-14 Rovi Guides, Inc. Systems and methods for changing a users perspective in virtual reality based on a user-selected position
US11202127B2 (en) * 2018-02-20 2021-12-14 Jason Turley User uploaded videostreaming system with social media notification features and related methods
US11065548B2 (en) 2018-02-28 2021-07-20 Sony Interactive Entertainment LLC Statistical driven tournaments
US10765957B2 (en) 2018-02-28 2020-09-08 Sony Interactive Entertainment LLC Integrating commentary content and gameplay content over a multi-user platform
US10765938B2 (en) 2018-02-28 2020-09-08 Sony Interactive Entertainment LLC De-interleaving gameplay data
US10814228B2 (en) 2018-02-28 2020-10-27 Sony Interactive Entertainment LLC Statistically defined game channels
US10792577B2 (en) 2018-02-28 2020-10-06 Sony Interactive Entertainment LLC Discovery and detection of events in interactive content
US10953335B2 (en) 2018-02-28 2021-03-23 Sony Interactive Entertainment Inc. Online tournament integration
US10792576B2 (en) 2018-02-28 2020-10-06 Sony Interactive Entertainment LLC Player to spectator handoff and other spectator controls
US10953322B2 (en) 2018-02-28 2021-03-23 Sony Interactive Entertainment LLC Scaled VR engagement and views in an e-sports event
US10818142B2 (en) 2018-02-28 2020-10-27 Sony Interactive Entertainment LLC Creation of winner tournaments with fandom influence
US10756921B2 (en) 2018-03-27 2020-08-25 Rovi Guides, Inc. Systems and methods for training network-connected objects to provide configurations in association with events within media assets
US10461955B2 (en) 2018-03-27 2019-10-29 Rovi Guides, Inc. Systems and methods for preemptively preventing interruptions from network-connected devices from occurring during media viewing
US10931471B2 (en) 2018-03-27 2021-02-23 Rovi Guides, Inc. Systems and methods for avoiding interruptions from network-connected devices during media viewing
US11057444B1 (en) * 2018-03-29 2021-07-06 Facebook, Inc. Systems and methods for shared broadcasting
US11977584B2 (en) * 2018-04-11 2024-05-07 Jumptuit, Inc. System and method of correlating multiple data points to create a new single data point
US11971933B2 (en) 2018-04-11 2024-04-30 Jumptuit, Inc. System and method of AI assisted search
US11314787B2 (en) 2018-04-18 2022-04-26 Forcepoint, LLC Temporal resolution of an entity
US11755584B2 (en) 2018-07-12 2023-09-12 Forcepoint Llc Constructing distributions of interrelated event features
US10949428B2 (en) 2018-07-12 2021-03-16 Forcepoint, LLC Constructing event distributions via a streaming scoring operation
US11810012B2 (en) 2018-07-12 2023-11-07 Forcepoint Llc Identifying event distributions using interrelated events
US11436512B2 (en) 2018-07-12 2022-09-06 Forcepoint, LLC Generating extracted features from an event
US11025638B2 (en) 2018-07-19 2021-06-01 Forcepoint, LLC System and method providing security friction for atypical resource access requests
US11811799B2 (en) 2018-08-31 2023-11-07 Forcepoint Llc Identifying security risks using distributions of characteristic features extracted from a plurality of events
US10885942B2 (en) * 2018-09-18 2021-01-05 At&T Intellectual Property I, L.P. Video-log production system
WO2020075498A1 (ja) * 2018-10-12 2020-04-16 ソニー株式会社 配信システム、情報処理サーバ、および配信方法
US11025659B2 (en) 2018-10-23 2021-06-01 Forcepoint, LLC Security system using pseudonyms to anonymously identify entities and corresponding security risk related behaviors
US11171980B2 (en) 2018-11-02 2021-11-09 Forcepoint Llc Contagion risk detection, analysis and protection
US11240558B2 (en) * 2018-11-08 2022-02-01 International Business Machines Corporation Automatically determining and presenting participants' reactions to live streaming videos
US20220053227A1 (en) * 2018-12-18 2022-02-17 Gree, Inc. Video distribution system, video distribution method, and video distribution program
KR102657519B1 (ko) * 2019-02-08 2024-04-15 삼성전자주식회사 음성을 기반으로 그래픽 데이터를 제공하는 전자 장치 및 그의 동작 방법
US11541319B2 (en) * 2019-03-11 2023-01-03 Sony Interactive Entertainment LLC System and method for filtering stream chats
US20220167022A1 (en) * 2019-03-18 2022-05-26 Playful Corp. System and method for content streaming interactivity
CN109862387A (zh) * 2019-03-28 2019-06-07 北京达佳互联信息技术有限公司 直播的回看视频生成方法、装置及设备
US20220189174A1 (en) * 2019-03-28 2022-06-16 Piksel, Inc. A method and system for matching clips with videos via media analysis
US11025964B2 (en) * 2019-04-02 2021-06-01 Wangsu Science & Technology Co., Ltd. Method, apparatus, server, and storage medium for generating live broadcast video of highlight collection
CN110149332B (zh) * 2019-05-22 2022-04-22 北京达佳互联信息技术有限公司 直播方法、装置、设备及存储介质
US20210065030A1 (en) * 2019-08-26 2021-03-04 International Business Machines Corporation Artificial intelligence based extrapolation model for outages in live stream data
US11800166B2 (en) 2019-10-14 2023-10-24 Qatar Foundation For Education, Science And Community Development Forecasting and reservation of transcoding resources for live streaming
US11412271B2 (en) 2019-11-25 2022-08-09 International Business Machines Corporation AI response to viewers of live stream video
US20210154576A1 (en) * 2019-11-27 2021-05-27 Dot Learn Inc. Vector graphics-based live streaming of video games
CN111131862A (zh) * 2020-01-02 2020-05-08 山东云缦智能科技有限公司 一种实现cmaf直播源自动主备切换的实现方法
US11792251B2 (en) * 2020-01-06 2023-10-17 International Business Machines Corporation Media stream network action decisions
US11489862B2 (en) 2020-01-22 2022-11-01 Forcepoint Llc Anticipating future behavior using kill chains
US11630901B2 (en) 2020-02-03 2023-04-18 Forcepoint Llc External trigger induced behavioral analyses
CN111343510B (zh) * 2020-02-13 2022-03-25 北京达佳互联信息技术有限公司 信息处理方法、装置、电子设备及存储介质
US11080109B1 (en) 2020-02-27 2021-08-03 Forcepoint Llc Dynamically reweighting distributions of event observations
US11836265B2 (en) 2020-03-02 2023-12-05 Forcepoint Llc Type-dependent event deduplication
US11429697B2 (en) 2020-03-02 2022-08-30 Forcepoint, LLC Eventually consistent entity resolution
CN111294609A (zh) * 2020-03-13 2020-06-16 上海万面智能科技有限公司 直播内容显示方法、装置、电子设备及可读存储介质
US11080032B1 (en) 2020-03-31 2021-08-03 Forcepoint Llc Containerized infrastructure for deployment of microservices
US11568136B2 (en) 2020-04-15 2023-01-31 Forcepoint Llc Automatically constructing lexicons from unlabeled datasets
CN111491173B (zh) * 2020-04-15 2023-08-08 腾讯科技(深圳)有限公司 一种直播封面确定方法、装置、计算机设备及存储介质
CN111541905B (zh) * 2020-04-17 2022-05-20 广州虎牙科技有限公司 一种直播方法、装置、计算机设备和存储介质
US11516206B2 (en) 2020-05-01 2022-11-29 Forcepoint Llc Cybersecurity system having digital certificate reputation system
US11544390B2 (en) 2020-05-05 2023-01-03 Forcepoint Llc Method, system, and apparatus for probabilistic identification of encrypted files
US11895158B2 (en) 2020-05-19 2024-02-06 Forcepoint Llc Cybersecurity system having security policy visualization
WO2022003729A1 (en) * 2020-07-02 2022-01-06 Cnr Medimentor Private Limited System and method for telestrating the operative procedures
CN111901625B (zh) * 2020-08-10 2022-03-25 杭州当虹科技股份有限公司 一种基于视频叠加补充增强信息同步推送关联内容的方法
US20220070501A1 (en) * 2020-08-27 2022-03-03 Warner Bros. Entertainment Inc. Social video platform for generating and experiencing content
US11704387B2 (en) 2020-08-28 2023-07-18 Forcepoint Llc Method and system for fuzzy matching and alias matching for streaming data sets
CN112218024B (zh) * 2020-09-17 2023-03-17 浙江大华技术股份有限公司 课件视频生成、通道组合信息的确定方法及装置
US20220114472A1 (en) * 2020-10-08 2022-04-14 Nbcuniversal Media, Llc Systems and methods for generating machine learning-driven telecast forecasts
US20220124407A1 (en) * 2020-10-21 2022-04-21 Plantronics, Inc. Content rated data stream filtering
US11190589B1 (en) 2020-10-27 2021-11-30 Forcepoint, LLC System and method for efficient fingerprinting in cloud multitenant data loss prevention
CN112533009B (zh) * 2020-11-19 2022-11-29 腾讯科技(深圳)有限公司 一种用户互动方法、系统及存储介质和终端设备
US11800179B2 (en) * 2020-12-03 2023-10-24 Alcacruz Inc. Multiview video with one window based on another
CN112689108A (zh) * 2020-12-22 2021-04-20 山东快课信息科技有限公司 基于关键帧的教学板书分段录放系统及方法
US11360732B1 (en) 2020-12-31 2022-06-14 Samsung Electronics Co., Ltd. Method and apparatus for displaying multiple devices on shared screen
CN114765700B (zh) * 2021-01-13 2023-07-14 腾讯科技(深圳)有限公司 信息交互方法和装置、存储介质及电子设备
CN115086778B (zh) * 2021-03-15 2024-05-24 中移(上海)信息通信科技有限公司 视频流的ai处理方法及装置
CN113099249B (zh) * 2021-03-22 2023-08-08 北京达佳互联信息技术有限公司 直播间对象推荐方法、装置、服务器及电子设备
US20220329910A1 (en) * 2021-04-07 2022-10-13 Meta Platforms, Inc. Generation and delivery of content items for synchronous viewing experiences
US20220345780A1 (en) * 2021-04-27 2022-10-27 Yahoo Assets Llc Audience feedback for large streaming events
IL308420A (en) * 2021-05-12 2024-01-01 W S C Sports Tech Ltd Threshold sensitivity-based automatic matching of video streaming events with video replays
CN113422970B (zh) * 2021-05-25 2023-09-26 北京达佳互联信息技术有限公司 直播片段的展示方法、装置、电子设备及存储介质
CN113382273B (zh) * 2021-05-31 2023-01-20 北京达佳互联信息技术有限公司 资源分配方法、装置、电子设备及存储介质
US20230095350A1 (en) * 2021-09-17 2023-03-30 Smart Science Technology, LLC Focus group apparatus and system
US11849163B2 (en) 2021-10-29 2023-12-19 Meta Platforms, Inc. Redundant video stream generation
US11829239B2 (en) 2021-11-17 2023-11-28 Adobe Inc. Managing machine learning model reconstruction
US20230209103A1 (en) * 2021-12-27 2023-06-29 Pinterest, Inc. Interactive livestreaming experience
ES2957182A1 (es) * 2022-05-31 2024-01-12 Pronoide S L Sistema y metodo para la creacion de videos instructivos mediante el empleo de secuencias de comandos
CN115529467A (zh) * 2022-07-11 2022-12-27 成都秦川物联网科技股份有限公司 智慧城市公共景观摄像装置管理方法和物联网系统
US11949967B1 (en) * 2022-09-28 2024-04-02 International Business Machines Corporation Automatic connotation for audio and visual content using IOT sensors

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5729471A (en) * 1995-03-31 1998-03-17 The Regents Of The University Of California Machine dynamic selection of one video camera/image of a scene from multiple video cameras/images of the scene in accordance with a particular perspective on the scene, an object in the scene, or an event in the scene
US7782363B2 (en) * 2000-06-27 2010-08-24 Front Row Technologies, Llc Providing multiple video perspectives of activities through a data network to a remote multimedia server for selective display by remote viewing audiences
US7796162B2 (en) * 2000-10-26 2010-09-14 Front Row Technologies, Llc Providing multiple synchronized camera views for broadcast from a live venue activity to remote viewers
JP2004536480A (ja) 2000-08-02 2004-12-02 オープンティブイ・インコーポレーテッド 多視点即時リプレイ機能を実現するシステムと方法
US6964022B2 (en) 2000-12-22 2005-11-08 Xerox Corporation Electronic board system
GB2377332A (en) * 2001-07-04 2003-01-08 Hewlett Packard Co Simulating a moving image from static cameras along a route
US7739584B2 (en) 2002-08-08 2010-06-15 Zane Vella Electronic messaging synchronized to media presentation
US20090118019A1 (en) 2002-12-10 2009-05-07 Onlive, Inc. System for streaming databases serving real-time applications used through streaming interactive video
KR20080056588A (ko) * 2006-12-18 2008-06-23 엘지전자 주식회사 다중 앵글 서비스를 제공하는 영상표시기기 및 그 제어방법
US8875208B1 (en) * 2007-11-21 2014-10-28 Skype High quality multimedia transmission from a mobile device for live and on-demand viewing
US8621502B2 (en) * 2007-12-21 2013-12-31 Microsoft Corporation Obtaining user reactions to video
US7809773B2 (en) * 2007-12-21 2010-10-05 Yahoo! Inc. Comment filters for real-time multimedia broadcast sessions
KR20090115344A (ko) * 2008-05-02 2009-11-05 강민수 사용자 선택 방송국 카메라 촬상 영상 제공 시스템 및 그방법
US8635645B2 (en) * 2008-09-30 2014-01-21 Qualcomm Incorporated Apparatus and methods of providing and receiving venue level transmissions and services
US9141860B2 (en) * 2008-11-17 2015-09-22 Liveclips Llc Method and system for segmenting and transmitting on-demand live-action video in real-time
US8132200B1 (en) * 2009-03-30 2012-03-06 Google Inc. Intra-video ratings
US20100318520A1 (en) 2009-06-01 2010-12-16 Telecordia Technologies, Inc. System and method for processing commentary that is related to content
US20110225515A1 (en) * 2010-03-10 2011-09-15 Oddmobb, Inc. Sharing emotional reactions to social media
US10187509B2 (en) 2010-09-14 2019-01-22 At&T Intellectual Property I, L.P. Enhanced video sharing
US20120253941A1 (en) * 2011-03-29 2012-10-04 Van Bemmel Jeroen Method And Apparatus For Distributing Content
US9026596B2 (en) * 2011-06-16 2015-05-05 Microsoft Technology Licensing, Llc Sharing of event media streams
US9344684B2 (en) * 2011-08-05 2016-05-17 Honeywell International Inc. Systems and methods configured to enable content sharing between client terminals of a digital video management system
US20130042261A1 (en) * 2011-08-10 2013-02-14 Bank Of America Electronic video media e-wallet application
US9571879B2 (en) * 2012-01-10 2017-02-14 Microsoft Technology Licensing, Llc Consumption of content with reactions of an individual
US20130326575A1 (en) * 2012-05-30 2013-12-05 Disney Enterprise, Inc. Social Media Driven Generation of a Highlight Clip from a Media Content Stream
US9038120B2 (en) 2012-06-25 2015-05-19 Live Lens Ltd. Systems, apparatuses, methods and computer executable code for facilitating broadcast, publication and/or sharing of video from a user device to one or more other user devices in a social networking environment
US8806518B2 (en) * 2012-06-27 2014-08-12 Intel Corporation Performance analysis for combining remote audience responses
TWI513286B (zh) 2012-08-28 2015-12-11 Ind Tech Res Inst 影片續播方法及系統
US9032434B2 (en) * 2012-10-12 2015-05-12 Google Inc. Unsupervised content replay in live video
US20140137144A1 (en) * 2012-11-12 2014-05-15 Mikko Henrik Järvenpää System and method for measuring and analyzing audience reactions to video
US9532095B2 (en) * 2012-11-29 2016-12-27 Fanvision Entertainment Llc Mobile device with smart gestures
US9160984B2 (en) 2012-11-29 2015-10-13 Fanvision Entertainment Llc Mobile device with personalized content
US9564175B2 (en) * 2013-04-02 2017-02-07 International Business Machines Corporation Clustering crowdsourced videos by line-of-sight
KR102182398B1 (ko) * 2013-07-10 2020-11-24 엘지전자 주식회사 전자 기기 및 그 제어 방법
EP3133819A1 (en) * 2014-04-14 2017-02-22 Panasonic Intellectual Property Management Co., Ltd. Image delivery method, image reception method, server, terminal apparatus, and image delivery system
US20160007052A1 (en) * 2014-07-03 2016-01-07 Anthem Digital Media, Inc. Live streaming broadcast service with artist and fan competitive reward system
US20160057457A1 (en) * 2014-08-25 2016-02-25 LiveFromMe Live video broadcasting mobile application for social sharing
US10545640B1 (en) * 2014-12-23 2020-01-28 Amazon Technologies, Inc. Previewing electronic content within third-party websites
US10455291B2 (en) 2015-03-20 2019-10-22 Twitter, Inc. Live video stream sharing
US20160294890A1 (en) * 2015-03-31 2016-10-06 Facebook, Inc. Multi-user media presentation system

Also Published As

Publication number Publication date
EP3275202A4 (en) 2018-09-12
WO2016160744A1 (en) 2016-10-06
US20160286244A1 (en) 2016-09-29
US20200304841A1 (en) 2020-09-24
EP3275202A1 (en) 2018-01-31
US20220150572A1 (en) 2022-05-12
US10721499B2 (en) 2020-07-21
EP3629587A1 (en) 2020-04-01
EP3275202B1 (en) 2021-12-29

Similar Documents

Publication Publication Date Title
ES2905535T3 (es) Servicios de emisión de vídeo en vivo
US11582182B2 (en) Multi-user media presentation system
EP3488618B1 (en) Live video streaming services with machine-learning based highlight replays
US10142681B2 (en) Sharing television and video programming through social networking
US10623783B2 (en) Targeted content during media downtimes
US9917870B2 (en) Streaming media presentation system
US10462524B2 (en) Streaming media presentation system
KR101796005B1 (ko) 미디어 처리 방법 및 절차
Moran The moving image and your business