ES2955538T3 - Simulación de una experiencia local mediante la transmisión en vivo de puntos de vista que pueden compartirse de un evento en vivo - Google Patents

Simulación de una experiencia local mediante la transmisión en vivo de puntos de vista que pueden compartirse de un evento en vivo Download PDF

Info

Publication number
ES2955538T3
ES2955538T3 ES19751991T ES19751991T ES2955538T3 ES 2955538 T3 ES2955538 T3 ES 2955538T3 ES 19751991 T ES19751991 T ES 19751991T ES 19751991 T ES19751991 T ES 19751991T ES 2955538 T3 ES2955538 T3 ES 2955538T3
Authority
ES
Spain
Prior art keywords
live
client device
live event
viewpoint
event
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES19751991T
Other languages
English (en)
Inventor
Fabián Bustamante
Stefan Birrer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Phenix Real Time Solutions Inc
Original Assignee
Phenix Real Time Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Phenix Real Time Solutions Inc filed Critical Phenix Real Time Solutions Inc
Application granted granted Critical
Publication of ES2955538T3 publication Critical patent/ES2955538T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • H04L65/401Support for services or applications wherein the services involve a main real-time session and one or more additional parallel real-time or time sensitive sessions, e.g. white board sharing or spawning of a subconference
    • H04L65/4015Support for services or applications wherein the services involve a main real-time session and one or more additional parallel real-time or time sensitive sessions, e.g. white board sharing or spawning of a subconference where at least one of the additional parallel sessions is real time or time sensitive, e.g. white board sharing, collaboration or spawning of a subconference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/61Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio
    • H04L65/611Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio for multicast or broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/61Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio
    • H04L65/612Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio for unicast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • H04L65/762Media network packet handling at the source 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/80Responding to QoS
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/131Protocols for games, networked simulations or virtual reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/239Interfacing the upstream path of the transmission network, e.g. prioritizing client content requests
    • H04N21/2393Interfacing the upstream path of the transmission network, e.g. prioritizing client content requests involving handling client requests
    • H04N21/2396Interfacing the upstream path of the transmission network, e.g. prioritizing client content requests involving handling client requests characterized by admission policies
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/242Synchronization processes, e.g. processing of PCR [Program Clock References]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/27Server based end-user applications
    • H04N21/274Storing end-user multimedia data in response to end-user request, e.g. network recorder
    • H04N21/2743Video hosting of uploaded data from client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6587Control parameters, e.g. trick play commands, viewpoint selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Las realizaciones divulgadas incluyen al menos un método. El método incluye acoplar comunicativamente un primer dispositivo cliente a una plataforma que distribuye transmisiones en vivo a través de una red a dispositivos cliente, incluido el primer dispositivo cliente. Las transmisiones en vivo brindan una transmisión en vivo de un evento en vivo desde puntos de vista capturados por dispositivos fuente ubicados en el evento en vivo, incluido un segundo dispositivo cliente. El método incluye además recibir una indicación de una selección de un primer punto de vista desde el primer dispositivo cliente y comunicar una primera transmisión en vivo al primer dispositivo cliente. La primera transmisión en vivo es capturada por un primer dispositivo fuente y, cuando la representa el primer dispositivo cliente, provoca la visualización del primer punto de vista en el primer dispositivo cliente. (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Simulación de una experiencia local mediante la transmisión en vivo de puntos de vista que pueden compartirse de un evento en vivo
REFERENCIA CRUZADA A UNA SOLICITUD RELACIONADA
[0001] Esta solicitud reivindica el beneficio de la solicitud de patente provisional de los EE. UU. N° de serie 62/627.126, depositada el 6 de febrero de 2018 y titulada "Techniques for Providing a Real-Time, Augmented and Shared Experience of Attending a Live Event".
CAMPO TÉCNICO
[0002] Las enseñanzas descritas se refieren a una plataforma que permite compartir una experiencia de asistencia a un evento en vivo y permite interacciones entre los participantes. En particular, las enseñanzas descritas permiten una experiencia compartida de un evento en vivo entre los usuarios ubicados de forma remota del evento en vivo y los asistentes ubicados en el evento, y pueden mejorar una experiencia compartida con contenido de realidad aumentada.
ANTECEDENTES
[0003] Asistir a un evento en vivo, como un juego deportivo, un seminario, un concierto o una demostración con amigos y familiares, es una actividad social valiosa para muchas personas. La tecnología existente permite a las personas que se encuentran a distancia de un evento en vivo y/o entre sí tener una experiencia compartida limitada del evento en vivo. Por ejemplo, una persona que se encuentra a distancia de un evento en vivo puede verlo en la televisión. El individuo ubicado remotamente experimenta una transmisión en vivo del evento representado en el televisor del usuario. En otro ejemplo, un espectador ubicado en un evento en vivo puede compartir su experiencia con un individuo ubicado remotamente mediante el uso de un teléfono móvil para capturar imágenes y sonido del evento en vivo como señales AV que se transmiten a un dispositivo del individuo que puede representar las señales AV. Por lo tanto, un individuo ubicado de forma remota puede compartir la experiencia del espectador del evento en vivo. En otras palabras, el individuo es un espectador de la experiencia del espectador. Es decir, el “compartir” de una experiencia es solo unidireccional.
[0004] Además, compartir contenido en vivo obtenido y comunicado por un teléfono móvil no permite que la persona ubicada de forma remota tenga una experiencia inmersiva como si estuviera presente en el evento en vivo. En cambio, el individuo solo puede compartir la experiencia de un espectador porque el individuo no tiene control sobre la experiencia que proporciona el espectador. Del mismo modo, múltiples personas ubicadas de forma remota solo pueden compartir la experiencia de uno o más espectadores, pero los espectadores no pueden compartir la experiencia de personas ubicadas de forma remota, y una experiencia del mismo evento en vivo no se puede compartir entre usuarios y/o espectadores ubicados de forma remota. En consecuencia, la tecnología existente no permite que las personas ubicadas remotamente y los espectadores locales compartan un evento en vivo de manera inmersiva como si todos asistieran juntos al evento en vivo.
[0005] El documento de los EE. UU. 2012/004956 A1 de la técnica anterior presenta un procedimiento para crear y ver mensajes de realidad artificial en un evento, como un evento deportivo, y compartir el evento en una red social, mejorando y expandiendo así la experiencia del participante y del espectador. El documento WO 2014/085541 A1 de la técnica anterior muestra un procedimiento para almacenar en memoria intermedia y mostrar automáticamente alimentaciones de vídeo asociadas con un evento en vivo. El documento de los EE. UU. 2017/269685 A1 de la técnica anterior también muestra la generación de vistas de un entorno de realidad virtual para un espectador.
RESUMEN
[0006] La invención se define por el procedimiento según la reivindicación independiente 1. El procedimiento incluye acoplar comunicativamente un primer dispositivo de cliente a una plataforma que distribuye transmisiones en vivo a través de una red a dispositivos de cliente, incluido el primer dispositivo de cliente. Las transmisiones en vivo proporcionan una transmisión en vivo de un evento en vivo desde puntos de vista capturados por dispositivos fuente ubicados en el evento en vivo, incluido un segundo dispositivo de cliente. El procedimiento incluye además recibir una indicación de una selección de un primer punto de vista desde el primer dispositivo de cliente y comunicar una primera transmisión en vivo al primer dispositivo de cliente. La primera transmisión en vivo es capturada por un primer dispositivo fuente y, cuando es renderizada por el primer dispositivo de cliente, provoca la visualización del primer punto de vista en el primer dispositivo de cliente.
[0007] Las realizaciones descritas también incluyen al menos un sistema que incluye un ordenador servidor que incluye un procesador y una memoria. La memoria incluye instrucciones que, cuando son ejecutadas por el procesador, hacen que el equipo servidor interconecte los dispositivos de cliente a través de una red. Al menos algunos de los dispositivos de cliente están ubicados en un evento en vivo y al menos algunos de los dispositivos de cliente están ubicados remotamente del evento en vivo. Además, cada dispositivo de cliente que se ubica en el evento en vivo es una fuente de una transmisión en vivo que, cuando es renderizada por un dispositivo, provoca una visualización de un punto de vista del evento en vivo. Se puede hacer que el sistema informático del servidor actualice dinámicamente una lista de suscripción para incluir cualquiera de los dispositivos de cliente que actualmente están transmitiendo en vivo un punto de vista del evento en vivo y elimine cualquiera de los dispositivos de cliente que detuvieron la transmisión en vivo un punto de vista del evento en vivo, y aloje un servicio de suscripción que permita el acceso selectivo por parte de cualquiera de los dispositivos de cliente a cualquier dispositivo de cliente en la lista de suscripción y deshabilite el acceso a cualquier dispositivo de cliente eliminado de la lista de suscripción.
[0008] Las realizaciones descritas también incluyen al menos un dispositivo. Un ejemplo del dispositivo es un casco de realidad virtual (HMD) que incluye un dispositivo de visualización, un sensor de orientación, un procesador y una memoria. La memoria incluye instrucciones que, cuando son ejecutadas por el procesador, hacen que el dispositivo HMD renderice una transmisión en vivo para mostrar un punto de vista de un evento en vivo en el dispositivo de visualización. Las transmisiones en vivo se originan en los dispositivos fuente ubicados en el evento en vivo, y los dispositivos fuente pueden incluir un dispositivo estacionario en una ubicación fija en el evento en vivo y un dispositivo móvil de mano. Además, se hace que el dispositivo HMD determine un cambio en una orientación del dispositivo HMD en función de una salida del sensor de orientación y rastree dinámicamente el cambio en la orientación del dispositivo HMD para realizar una transición sin problemas desde la visualización del punto de vista de la transmisión en vivo del dispositivo estacionario para mostrar otro punto de vista de otra transmisión en vivo del dispositivo móvil portátil.
[0009] Este Resumen se proporciona para presentar una selección de conceptos en una forma simplificada que se describe adicionalmente más adelante en la descripción detallada. Este Resumen no tiene la intención de identificar las características clave o las características esenciales del objeto descrito, ni pretende ser utilizada para limitar el alcance del objeto descrito. Otros aspectos de la materia descrita resultarán evidentes a partir de las figuras adjuntas y la descripción detallada.
BREVE DESCRIPCIÓN DE LOS DIBUJOS
[0010]
La Figura 1 ilustra un punto de vista de un evento en vivo mostrado por un dispositivo de cliente en una interfaz de usuario según algunas realizaciones de la presente descripción.
La Figura 2 ilustra una ventana de chat de vídeo en vivo mostrada en un punto de vista de un evento en vivo según algunas realizaciones de la presente descripción.
La Figura 3 ilustra la adopción de otro punto de vista de un evento en vivo por un dispositivo de cliente según alguna realización de la presente descripción.
La Figura 4 ilustra contenido de realidad aumentada (RA) incorporado en un punto de vista según algunas realizaciones de la presente descripción.
La Figura 5 ilustra otro ejemplo de contenido de RA incorporado en un punto de vista según algunas realizaciones de la presente descripción.
La Figura 6 ilustra diferentes puntos de vista de un evento en vivo que se muestra simultáneamente en un dispositivo de cliente y que incluye contenido de RA según algunas realizaciones de la presente descripción. La Figura 7 es un diagrama de bloques de un sistema que implementa una plataforma para compartir múltiples puntos de vista de un evento en vivo según algunas realizaciones de la presente descripción.
La Figura 8 ilustra relaciones entre usuarios y fuentes de transmisiones en vivo de un evento en vivo según algunas realizaciones de la presente descripción.
La Figura 9 ilustra un procedimiento de sincronización de reloj entre un cliente y un servidor para sincronizar transmisiones en vivo de un evento en vivo según algunas realizaciones de la presente descripción.
La Figura 10 ilustra una transmisión en vivo compuesta por paquetes que se agrupan en escenas según algunas realizaciones de la presente descripción.
La Figura 11 es un diagrama de flujo que ilustra un procedimiento para suscribirse a contenido para una transmisión en vivo según algunas realizaciones de la presente descripción.
La Figura 12 es un diagrama de bloques de un dispositivo informático que puede funcionar para implementar aspectos de la tecnología descrita.
DESCRIPCIÓN DETALLADA
[0011] Las realizaciones expuestas a continuación representan la información necesaria para permitir que los expertos en la técnica pongan en práctica las realizaciones e ilustran el mejor modo de poner en práctica las realizaciones. Al leer la siguiente descripción, a la luz de las figuras adjuntas, los expertos en la materia entenderán los conceptos de la descripción y reconocerán las aplicaciones de estos conceptos que no se abordan particularmente en esta invención. Debe entenderse que estos conceptos y aplicaciones se encuentran dentro del alcance de la descripción y las reivindicaciones adjuntas.
DEFINICIONES DE ALGUNOS TÉRMINOS
[0012] El propósito de la terminología usada en esta invención es solo para describir realizaciones y no pretende limitar el alcance de la descripción. Cuando el contexto lo permite, las palabras que usan la forma singular o plural también pueden incluir la forma plural o singular, respectivamente.
[0013] Como se usan en esta invención, a menos que se indique específicamente lo contrario, términos tales como "procesar", "computar", "calcular", "determinar", "mostrar", "generar" o similares, se refieren a acciones y procedimientos de un dispositivo informático electrónico que manipula y transforma datos, representados como cantidades físicas (electrónicas) dentro de la memoria del ordenador o registros, en otros datos representados de manera similar como cantidades físicas dentro de la memoria del ordenador, registros u otro medio de almacenamiento, transmisión o dispositivos de visualización.
[0014] Como se usan en esta invención, los términos "conectado", "acoplado" o variantes de los mismos se refieren a cualquier conexión o acoplamiento, ya sea directo o indirecto, entre dos o más elementos. El acoplamiento o conexión entre los elementos puede ser físico, lógico o una combinación de los mismos.
[0015] Como se usa en esta invención, el término "vivo" o variantes de este puede referirse a que ocurre en tiempo real o casi en tiempo real. Por ejemplo, un evento en vivo puede referirse a un evento que está actualmente en curso. Una transmisión en vivo o transmisión en vivo puede referirse a varios tipos de medios que se transmiten sin un retraso humanamente perceptible. Una transmisión en vivo puede referirse a una forma de transmisión en línea de medios que se captura y transmite simultáneamente en tiempo real o casi en tiempo real para ser vista por una audiencia. En otras palabras, una transmisión en vivo se refiere a la transmisión en tiempo real o casi en tiempo real. Por tanto, la transmisión en vivo puede ofrecer una distribución de contenido de baja latencia, dentro de los límites de la percepción humana de la interactividad.
[0016] Como se usa en esta invención, un "punto de vista" puede referirse a una vista de un evento en vivo desde un punto de vista en una ubicación dada en el evento en vivo y ofrecido por un dispositivo fuente particular. Por ejemplo, un punto de vista puede ser de una cámara ubicada en la esquina noreste de un campo.
[0017] Como se usa en esta invención, "realidad aumentada" (AR), en el contexto de algunas realizaciones, puede referirse a un objeto virtual (por ejemplo, generado virtual o virtualmente controlado) que se superpone en un punto de vista en una escena del mundo real.
DESCRIPCIÓN GENERAL
[0018] Asistir a un evento en vivo como un juego deportivo, una charla, un concierto o una demostración con amigos y familiares es una actividad social valiosa para muchas personas. El crecimiento de la conectividad de red hace que sea cada vez más posible que un grupo de personas asista a un evento en vivo a pesar de estar físicamente alejados entre sí (por ejemplo, en diferentes países o incluso continentes). Sin embargo, hoy en día, compartir la experiencia de un evento en vivo se limita principalmente a una perspectiva única y predeterminada de un productor que se transmite en vivo a todos los espectadores. Si bien la perspectiva puede cambiar, los cambios son dictados por el productor y adoptados por todos los espectadores. Por consiguiente, falta mucho de lo que hace que una experiencia compartida sea memorable, como la interacción directa e indirecta con otros espectadores y las conversaciones paralelas.
[0019] Las realizaciones descritas y los algoritmos asociados superan estos inconvenientes al permitir una experiencia compartida de asistir a un evento en vivo. Las realizaciones descritas incluyen una plataforma y sistemas, dispositivos y procedimientos asociados que permiten a los participantes compartir una experiencia simulada de un evento en vivo del mundo real. La experiencia compartida puede incluir la simulación de una interacción local en el evento en vivo. Esto permite interacciones entre participantes que se encuentran en, o lejos de, el evento en vivo. Por ejemplo, un participante ubicado de forma remota puede adoptar el punto de vista de un asistente local. En algunas realizaciones, el entorno simulado incorpora realidad aumentada (AR) en vivo para mejorar una experiencia simulada. Las funciones de RA pueden basarse en las preferencias del espectador.
[0020] Esta descripción incluye detalles suficientes para garantizar que un experto en la materia entienda las realizaciones descritas en esta invención. Las realizaciones descritas se pueden poner en práctica sin detalles específicos o con una disposición equivalente. En otros casos, las estructuras y dispositivos bien conocidos se representan como diagramas de bloques para no oscurecer innecesariamente las realizaciones de la invención. Por consiguiente, la presente descripción no se centra en los detalles de los dispositivos informáticos, sensores y redes, incluidas las cámaras, desplegados alrededor de una ubicación o conectados a los participantes de un evento en vivo, como los jugadores en un evento deportivo o los actores en una obra de teatro, o los detalles de la generación de contenido de RA asociado con un evento. Estos aspectos se entenderían por los expertos en la materia y, como tales, se omiten aquí en aras de brevedad. En cambio, esta descripción se centra en los protocolos para simular interacciones y la entrega oportuna y sincronizada de múltiples flujos asociados con diferentes puntos de vista y fuentes de contenido.
[0021] Las realizaciones descritas incluyen un sistema que implementa una plataforma para proporcionar una experiencia simulada de un evento en vivo que se puede compartir entre individuos que están ubicados remotamente del evento en vivo y los asistentes locales del evento en vivo (denominados colectivamente "participantes"). La plataforma permite a los participantes interactuar virtualmente como si estuvieran en el evento en vivo. En algunas realizaciones, la plataforma obtiene varias transmisiones en vivo de dispositivos fuente que incluyen cámaras y micrófonos que se distribuyen estratégicamente en ubicaciones fijas en el lugar de un evento en vivo y dispositivos móviles operados por participantes que asisten al evento en vivo y/o individuos que actúan como parte del evento en vivo.
[0022] La Figura 1 ilustra un punto de vista 100 de un evento en vivo mostrado por un dispositivo de cliente ("primer dispositivo de cliente") en una interfaz de usuario (UI) administrada por la plataforma para simular interacciones locales con otros participantes que comparten una experiencia de un evento en vivo 102. En la realización ilustrada, el evento en vivo 102 es un juego deportivo en un estadio. La interfaz de usuario representa una transmisión en vivo para mostrar el punto de vista 100 de un dispositivo fuente ubicado en el evento en vivo. El punto de vista 100 incluye iconos gráficos que indican las ubicaciones de los dispositivos fuente 106 en el evento en vivo y entre sí.
[0023] Los dispositivos fuente 106 transmiten diferentes puntos de vista del mismo evento en vivo con las respectivas transmisiones en vivo. Los ejemplos de los dispositivos fuente 106 incluyen dispositivos móviles 106-1 a 106-5 operados por participantes ubicados en el evento en vivo, y dispositivos estacionarios 106-6 y 106-7. Los dispositivos estacionarios 106-6 y 106-7 se representan con iconos de cámara que indican una ubicación y orientación de una cámara (y micrófono), que se coloca en una ubicación fija en el evento en vivo. En el ejemplo ilustrado, las cámaras están ubicadas en el techo del estadio y cerca de los asientos del estadio. Los ejemplos de los dispositivos móviles 106-1 a 106-5 incluyen dispositivos de cliente tales como dispositivos móviles de mano (por ejemplo, teléfono inteligente, tableta) operados por los asistentes o un dispositivo conectado a un individuo que actúa en el evento en vivo (por ejemplo, dispositivo conectado al casco/atuendo de un jugador).
[0024] El primer dispositivo de cliente que representa el punto de vista 100 es operado por un usuario 108, que se indica por el icono de usuario. El primer dispositivo de cliente puede estar ubicado localmente o lejos del evento en vivo. Como tal, si el primer dispositivo de cliente está ubicado remotamente del evento en vivo 102, el primer dispositivo de cliente simula una experiencia local del evento en vivo. Si el primer dispositivo de cliente está ubicado en una primera ubicación del evento en vivo 102 y el punto de vista 100 es desde una segunda ubicación en el evento en vivo, el punto de vista 100 simula estar en la segunda ubicación.
[0025] La plataforma puede alojar las transmisiones en vivo de los dispositivos fuente 106 como puntos de vista seleccionables del evento en vivo 102 disponibles para los dispositivos de cliente. Para simular el punto de vista 100, el primer dispositivo de cliente está acoplado comunicativamente a la plataforma que distribuye las transmisiones en vivo recopiladas a través de la red desde los dispositivos fuente 106. Las transmisiones en vivo proporcionan la transmisión en vivo de un evento en vivo 102 desde puntos de vista capturados por los dispositivos fuente 106. En funcionamiento, la plataforma recibe una indicación de una selección del punto de vista 100 desde el primer dispositivo de cliente y, en respuesta, comunica una transmisión en vivo del punto de vista 100 al primer dispositivo de cliente. Por tanto, la transmisión en vivo es capturada por un dispositivo fuente y, cuando es renderizada por el primer dispositivo de cliente, provoca la visualización del punto de vista 100 en el primer dispositivo de cliente.
[0026] La plataforma puede alojar una interacción virtual entre el primer dispositivo de cliente (ubicado en o lejos del evento en vivo 102) y un dispositivo fuente que es un segundo dispositivo de cliente. Los dispositivos de cliente que son dispositivos fuente publican transmisiones en vivo y pueden permitir a los usuarios tener interacciones en vivo con sus espectadores a través de texto, audio, emoticonos, etc., o pueden interactuar indirectamente a través de otras transmisiones. Por ejemplo, un editor que transmite un punto de vista de un evento en vivo y otros participantes que no están necesariamente ubicados en el evento pueden comentar las acciones del editor o las acciones de la transmisión (por ejemplo, tal vez en respuesta a la encuesta de un editor).
[0027] Por ejemplo, la Figura 2 ilustra una ventana de chat de vídeo en vivo 202 mostrada en un punto de vista 200 del evento en vivo 102 según algunas realizaciones de la presente descripción. Específicamente, el punto de vista 200 es el mismo que el punto de vista 100 con respecto al evento en vivo 102, pero incorpora la ventana de chat de vídeo en vivo 202. La ventana de chat de vídeo en vivo 202 es un ejemplo de una interacción simulada por otro participante del evento en vivo 102 con el usuario 108. Específicamente, el usuario 108 interactúa con el usuario del dispositivo fuente 106-1 a través de la ventana de chat de vídeo en vivo 202, que se muestra sobre el punto de vista (es decir, el punto de vista 100) del dispositivo fuente 106-1 para producir el punto de vista 200.
[0028] En otro ejemplo, un tercer dispositivo de cliente puede acoplarse comunicativamente a la plataforma a través de la red. El primer dispositivo de cliente y el tercer dispositivo de cliente pueden estar ubicados remotamente del evento en vivo y entre sí. Como tal, la plataforma puede alojar una interacción virtual entre el primer dispositivo de cliente y el tercer dispositivo de cliente, donde la interacción virtual simula una interacción local a pesar de que ambos dispositivos de cliente están ubicados de forma remota desde el evento en vivo 102. En algunas realizaciones, el primer dispositivo de cliente y otro dispositivo de cliente pueden compartir sus respectivos puntos de vista del evento en vivo 102. Por tanto, cuando el primer dispositivo de cliente está ubicado en el evento en vivo 102 y es un dispositivo fuente, el punto de vista ofrecido por el primer dispositivo de cliente a otro dispositivo de cliente es diferente del punto de vista 100.
[0029] En otro ejemplo, un grupo de usuarios que están ubicados de forma remota entre sí y/o de un evento en vivo pueden ver simultáneamente el evento en vivo y adoptar dinámicamente (o abandonar) el punto de vista de cada uno mientras se mantienen involucrados en el evento en vivo. Por ejemplo, la Figura 3 ilustra la adopción de un punto de vista 300 del evento en vivo 102 por parte del primer dispositivo de cliente según algunas realizaciones de la presente descripción. El punto de vista 300 se adopta desde el dispositivo fuente 106-2. Como tal, el primer dispositivo de cliente del usuario 108 está renderizando la transmisión en vivo desde el dispositivo fuente 106-2 para adoptar el punto de vista 300 desde la perspectiva del participante que opera el dispositivo fuente 106-2.
[0030] Por lo tanto, una interacción virtual simula estrechamente una interacción local en el evento en vivo 102. La inmediatez de las interacciones (por ejemplo, retroalimentación, comentarios) y la sincronización entre las transmisiones en vivo garantizan una interacción sin fricciones y altos niveles de participación por parte de los participantes. En términos cuantitativos, los límites de la percepción humana para retardos de audio unidireccionales por debajo de 100 ms se consideran indistinguibles del vídeo completamente sincronizado, mientras que un retardo de audio de aproximadamente 150 ms puede considerarse un límite inferior aceptable en la comunicación verbal. Las realizaciones descritas en esta invención implementan estas consideraciones para permitir el consumo sincronizado de datos digitales de múltiples fuentes o de una sola fuente entre un grupo de usuarios.
PUNTO DE VISTA DE REALIDAD AUMENTADA
[0031] La plataforma permite a los participantes experimentar puntos de vista de un evento en vivo que incorporan contenido de realidad aumentada (RA) para producir "puntos de vista de RA". El contenido de AR puede ser suministrado por cualquier persona, incluidos terceros, para mejorar una experiencia compartida. Por ejemplo, la plataforma puede recibir una indicación de una selección de contenido de RA desde el primer dispositivo de cliente. En respuesta a la indicación, la plataforma puede aumentar la transmisión en vivo con el contenido de RA que, cuando es renderizado por el primer dispositivo de cliente, hace que el primer dispositivo de cliente muestre el contenido de RA superpuesto en el punto de vista de la transmisión en vivo. Por consiguiente, un punto de vista no modificado de la transmisión en vivo se puede mejorar con contenido de RA. La plataforma también puede aumentar automáticamente una transmisión en vivo con contenido de RA que, cuando es renderizado por el primer dispositivo de cliente, muestra un punto de vista de RA.
[0032] El contenido de AR puede ser contenido de AR en vivo o previamente grabado asociado con el evento en vivo. Los ejemplos de contenido de RA incluyen comentarios en vivo, estadísticas de jugadores, contenido seleccionado de otros participantes, anuncios, información sobre el evento o lugar en vivo, información basada en la ubicación o combinaciones de los mismos. Por ejemplo, los participantes pueden suscribirse a contenido de RA creado por terceros y entregado por la plataforma como contenido de RA integrado en transmisiones en vivo. Como tal, un evento en vivo experimentado por un participante se enriquece con el contenido de AR.
[0033] La Figura 4 ilustra un punto de vista 400 de una transmisión en vivo renderizada que incorpora un ejemplo de contenido de RA mostrado para mejorar la experiencia simulada de un evento en vivo según algunas realizaciones de la presente descripción. Específicamente, el punto de vista 400 es el mismo que el punto de vista 100 con respecto al evento en vivo 102, pero incorpora el contenido de AR 402. En el ejemplo ilustrado, al usuario 108 se le presenta el contenido de AR 402, que se representa como un comerciante virtual que ofrece pizza para comprar en el punto de vista 400. El comerciante virtual no está en el evento en vivo 102 y, por tanto, no está incluido en la transmisión en vivo original no modificada que proporciona el punto de vista 100. Sin embargo, el comerciante aparece en el punto de vista 400 como si la interacción con el comerciante fuera real y ocurriera en el evento en vivo 102. Otro participante que adopta el mismo punto de vista 100 puede ver el mismo o diferente contenido de AR dependiendo de la fuente del contenido de AR, las preferencias del participante, etc.
[0034] En otro ejemplo, el contenido de RA podría representarse automática o selectivamente para proporcionar información sobre atletas de interés, un equipo de interés, un torneo o el estado del campo. Por ejemplo, un punto de vista mostrado podría aumentarse con información sobre el campo húmedo o la existencia de vientos suaves en todo el campo. La Figura 5 ilustra otro ejemplo de contenido de RA incorporado en un punto de vista según algunas realizaciones de la presente descripción. Como se muestra, el punto de vista AR 500 incluye el contenido AR 502 mostrado para mejorar el punto de vista 100. El contenido de AR incluye información sobre un atleta asociado con el dispositivo fuente 106-5 y se muestra superpuesto en el punto de vista 100 del evento en vivo 102 para representar el punto de vista de AR 500.
[0035] En algunas realizaciones, la plataforma puede permitir que un dispositivo de cliente vea simultáneamente múltiples puntos de vista que incluyen el mismo contenido de RA. Por ejemplo, la Figura 6 ilustra diferentes puntos de vista 600-1 y 600-2 del mismo evento en vivo 102 que se muestra simultáneamente en la interfaz de usuario del primer dispositivo de cliente. Cada uno de los puntos de vista 600-1 y 600-2 incluye el mismo contenido de RA 602 desde diferentes puntos de vista. Por consiguiente, la plataforma puede combinar múltiples puntos de vista que incluyen el mismo o diferente contenido de RA proporcionado por, por ejemplo, un tercero.
ENTORNO DEL SISTEMA
[0036] La Figura 7 es un diagrama de bloques de un sistema que implementa una plataforma para compartir múltiples puntos de vista de un evento en vivo según algunas realizaciones de la presente descripción. El sistema 700 incluye uno o más ordenadores servidores 702, dispositivos fuente dedicados 704 (por ejemplo, cámaras) y dispositivos de cliente 706, que están interconectados a través de una o más redes 708, tal como Internet. Como se muestra, los dispositivos fuente 704 comunican transmisiones en vivo en una sola dirección hacia el servidor 702. Por el contrario, los dispositivos de cliente 706 pueden comunicarse bidireccionalmente entre sí a través del servidor 702. Es decir, al menos algunos de los dispositivos de cliente 706 pueden publicar una transmisión en vivo y consumir transmisiones en vivo.
[0037] En funcionamiento, al menos algunos de los dispositivos de cliente 706 están ubicados en el evento en vivo y algunos están ubicados remotamente del evento en vivo. Cada uno de los dispositivos de cliente 706 que están ubicados en el evento en vivo es una fuente de una transmisión en vivo que, cuando es renderizada por un dispositivo de cliente, provoca una visualización de un punto de vista del evento en vivo. El servidor 702 puede actualizar dinámicamente una lista de suscripción para incluir los dispositivos fuente 704 y cualquiera de los dispositivos de cliente 706 que actualmente están transmitiendo en vivo un punto de vista del evento en vivo y eliminar cualquier dispositivo que haya detenido la transmisión en vivo un punto de vista del evento en vivo. El servidor 702 puede alojar un servicio de suscripción que permite el acceso selectivo por cualquiera de los dispositivos de cliente a cualquier dispositivo de cliente en la lista de suscripción e inhabilita el acceso a cualquier dispositivo de cliente eliminado de la lista de suscripción.
[0038] Un dispositivo de cliente que se ubica de forma remota desde un evento en vivo ofrece una presencia virtual en el evento en vivo, mientras que un dispositivo de cliente que se ubica en el evento en vivo tiene una presencia física y virtual en el evento en vivo. Si estuviera virtualmente presente, un participante podría tener uno o más dispositivos disponibles para participar en la experiencia compartida. Por ejemplo, un participante virtual puede experimentar el evento en vivo en un teléfono inteligente mientras está fuera de casa y usar una tableta para experimentar el evento en vivo mientras está en casa. El participante puede pasar sin problemas de un dispositivo a otro para mantener una experiencia continua del evento en vivo.
[0039] A medida que el participante utiliza diferentes dispositivos, la plataforma puede actualizar sin problemas las transmisiones en vivo suscritas del participante y ajustar el entorno renderizado reemplazando o ampliando las vistas del participante. En algunas realizaciones, la plataforma puede actualizar dinámicamente otras listas de suscripción, como, por ejemplo, una lista de cualquier dispositivo de cliente que haya sido previamente fuente de transmisiones en vivo para cualquier evento en vivo. En algunas realizaciones, la plataforma puede habilitar operaciones de búsqueda en respuesta a una consulta para buscar, por ejemplo, un dispositivo de cliente que actualmente está transmitiendo en vivo un punto de vista de un evento en vivo.
[0040] La red 708 puede incluir cualquier combinación de porciones privadas, públicas, cableadas o inalámbricas. Cualquier información de control o datos comunicados a través de la red 708 pueden cifrarse o no cifrarse en diversas ubicaciones o a lo largo de diferentes porciones de la red 708. Cada componente del sistema 700 puede incluir combinaciones de hardware y/o software para procesar los datos, realizar funciones, comunicarse a través de la red 708, y similares. Por ejemplo, cualquier componente del sistema 700 puede incluir un procesador, memoria o almacenamiento, un transceptor de red, una pantalla, sistema operativo y software de aplicación (por ejemplo, para proporcionar una interfaz de usuario) y similares. Otros componentes de hardware o software del sistema 700 que se conocen bien por los expertos en la técnica no se muestran ni se analizan en esta invención por cuestiones de brevedad.
[0041] Los dispositivos fuente 704 representan cualquier dispositivo electrónico desde el cual se origina una transmisión en vivo de un evento en vivo. Es decir, los dispositivos fuente 704 son fuentes de transmisiones en vivo desde diferentes puntos de vista del evento en vivo. Los dispositivos fuente 704 y al menos algunos dispositivos de cliente 706 que pueden funcionar como dispositivos fuente capturan imágenes y/o sonidos de un evento en vivo como medios que se transmiten al servidor 702, que sincroniza las transmisiones en vivo que se pueden compartir entre los dispositivos de cliente 706. Como tal, considere un evento en vivo (por ejemplo, un juego deportivo) al que asistan varios participantes de la plataforma. Los participantes pueden interactuar entre sí de la misma manera a pesar de ser asistentes locales o participantes virtuales.
[0042] Cada una de las fuentes de transmisiones en vivo comunicadas al servidor 702 proporciona un punto de vista que puede estar activo o inactivo. Por ejemplo, un punto de vista inactivo puede corresponder a un canal de comunicaciones que actualmente no está disponible para la transmisión en vivo. Por el contrario, todos los puntos de vista activos tienen una o más transmisiones en vivo que están disponibles para el consumo inmediato por parte de los dispositivos de cliente 706. Por ejemplo, un primer dispositivo de cliente que proporciona una primera transmisión en vivo puede adoptar la perspectiva de un segundo dispositivo de cliente accediendo a la segunda transmisión en vivo correspondiente. Una solicitud de un participante para adoptar un punto de vista determinado puede ser satisfecha por cualquiera de las fuentes asociadas con ese punto de vista.
[0043] Un punto de vista que está disponible para los dispositivos de cliente 706 incluye medios que son capturados, por ejemplo, por cámaras y micrófonos de los dispositivos de cliente 706. Al compartir puntos de vista, al menos algunos de los dispositivos de cliente 706 contribuyen con una perspectiva activa y única desde un punto de vista de un evento en vivo que se puede compartir con otros dispositivos de cliente. Además de los puntos de vista obtenidos de otros dispositivos de cliente, y las cámaras o micrófonos colocados en ubicaciones de un lugar, otra fuente de contenido para una transmisión en vivo incluye dispositivos utilizados por actores del evento en vivo, como un jugador en un evento deportivo (véanse, por ejemplo, las Figuras 1 a 3). Por ejemplo, un lugar para un evento en vivo puede tener dispositivos fuente colocados en diferentes ubicaciones y orientaciones para capturar medios para la transmisión en vivo por la plataforma. La plataforma puede recopilar las diversas transmisiones en vivo a través de la red 708 desde cada dispositivo de cliente o cámara disponible en una ubicación fija en el lugar.
[0044] Los dispositivos de cliente 706 se ilustran como dispositivos móviles portátiles utilizados por los participantes para interactuar con el sistema 700. Aunque solo se muestran tres dispositivos de cliente 706-1 a 706-3 en la Figura 7, las realizaciones descritas no se limitan a los mismos y pueden incluir cualquier número de dispositivos móviles portátiles. Los ejemplos de dispositivos de cliente incluyen teléfonos inteligentes con funciones (por ejemplo, APPLE IPHONE, SAMSUNG GALAXY, NOKIA LUMINA), tabletas (por ejemplo, APPLE IPAD, SAMSUNG NOTE, AMAZON FIRE, MICROSOFT SURFACE) y cualquier otro dispositivo que pueda acceder al servidor 702 a través de la red 708.
[0045] Como se indicó anteriormente, la plataforma puede ser alojada por el servidor 702, que puede incluir cualquier número de ordenadores servidores que faciliten las interacciones entre los dispositivos de cliente 706 para obtener transmisiones en vivo de un evento en vivo capturado desde los dispositivos fuente 704 u otros dispositivos de cliente 706. En algunas realizaciones, el servidor 702 administra la plataforma como un servicio al que pueden acceder los dispositivos de cliente 706. Por ejemplo, una aplicación móvil administrada por el servidor 702 puede proporcionar una Ul mostrada en los dispositivos de cliente 706. La interfaz de usuario se puede usar para acceder a las transmisiones en vivo del evento en vivo.
[0046] Por lo tanto, la plataforma facilita el intercambio de un evento en vivo entre los participantes al permitir interacciones virtuales entre los participantes en los dispositivos de cliente 706. Por ejemplo, los dispositivos de cliente 706 pueden comunicarse entre sí a través de la plataforma compartiendo contenido desde un determinado punto de vista del evento en vivo. Un dispositivo de cliente también puede adoptar el punto de vista de otro participante. Por tanto, los dispositivos de cliente 706 pueden compartir información y perspectivas que permiten una experiencia virtual compartida del mismo evento en vivo a pesar de que los participantes no estén físicamente juntos. Además, la experiencia compartida se puede aumentar con contenido de rA de terceros para crear un entorno de realidad aumentada para una experiencia enriquecida como se describió anteriormente.
[0047] La plataforma puede definir un grupo de espectadores, que es un conjunto de usuarios que, en un momento dado, se suscribieron a la misma experiencia aumentada y compartida de un evento en vivo determinado, como un grupo que ve un juego o asiste a una obra de teatro. La composición de los grupos de espectadores puede cambiar dinámicamente, a medida que los usuarios se unen o abandonan un espacio compartido. En algunas realizaciones, la plataforma puede restringir el acceso a cierto contenido de transmisión en vivo o contenido de terceros. Por ejemplo, la plataforma puede definir grupos de espectadores con acceso restringido a transmisiones en vivo privadas y definir transmisiones en vivo públicas con acceso sin restricciones. En algunas realizaciones, la plataforma puede establecer un nivel de acceso para cada transmisión en vivo. Un nivel privado puede otorgar acceso limitado solo a algunos dispositivos de cliente. Un nivel público puede otorgar acceso sin restricciones a cualquier dispositivo de cliente. El acceso a un punto de vista puede estar restringido por su editor a, por ejemplo, una lista de personas, como amigos cercanos, en alguna red social de terceros que ofrezca una interfaz pública.
[0048] Los dispositivos de cliente 706 pueden suscribirse a transmisiones en vivo de puntos de vista que están activos y disponibles como un servicio de la plataforma. En algunas realizaciones, un servicio de suscripción puede incluir una lista de dispositivos de cliente que actualmente están transmitiendo en vivo un evento en vivo particular o una lista de participantes que transmiten regularmente eventos en vivo. Como tal, un espectador en un evento en vivo puede buscar fácilmente a otros espectadores en el evento en vivo y suscribirse a sus puntos de vista. En algunas realizaciones, los participantes o sus dispositivos pueden suscribirse a otros dispositivos de cliente que asisten al evento en vivo y hacen que sus puntos de vista estén disponibles para la suscripción. Por ejemplo, la plataforma puede ofrecer una lista de espectadores que frecuentan conciertos. Un posible participante puede solicitar una suscripción a cualquier transmisión en vivo ofrecida por esos espectadores. Como tal, a los participantes suscritos se los puede alterar para que participen de un evento en vivo cuando los espectadores ofrecen transmisión en vivo de un evento.
[0049] Por lo tanto, cualquier participante que esté virtualmente presente en un evento en vivo pero ubicado lejos del evento está asociado con, y por consiguiente necesariamente adopta, al menos un punto de vista de un dispositivo fuente correspondiente a otro dispositivo de cliente que puede ser móvil o un dispositivo fuente en una ubicación fija del evento en vivo. Cualquier asistente local del evento en vivo también puede adoptar la perspectiva de al menos un punto de vista proporcionado por otro espectador o dispositivo fuente en una ubicación fija del evento en vivo. Además, cualquier participante que esté física o virtualmente presente en el evento en vivo puede mejorar su propia experiencia interactuando en tiempo real o casi en tiempo real con otros participantes que estén física o virtualmente presentes en el evento en vivo, y adoptando o cambiando a otros puntos de vista.
INTERACCIONES, CAMBIO DE PUNTOS DE VISTA Y SINCRONIZACIÓN
[0050] Como se ha indicado anteriormente, las realizaciones descritas permiten interacciones virtuales entre los participantes de un evento transmitido en vivo como si los participantes estuvieran interactuando de forma natural mientras están presentes juntos en el evento en vivo. Para ello, las interacciones virtuales (por ejemplo, imágenes y sonido) de los participantes deben sincronizarse. Por tanto, al menos algunas de las transmisiones en vivo deben sincronizarse con respecto a un punto en el tiempo de la transmisión en vivo de un evento en vivo. En algunas realizaciones, la plataforma puede definir un grupo sincronizado de transmisiones en vivo que incluye solo transmisiones en vivo sincronizadas e impide transmisiones en vivo no sincronizadas para, por ejemplo, limitar el acceso de los dispositivos de cliente solo al grupo sincronizado de transmisiones en vivo.
[0051] Considere, por ejemplo, un escenario con dos participantes suscritos a un solo punto de vista. Los dos participantes pueden tratar de hablar sobre una actividad actual que ocurra en el evento en vivo. Los dos participantes pueden recibir las transmisiones en vivo de la misma actividad en vivo en diferentes momentos. Por ejemplo, el tiempo que tardan las transmisiones en vivo en llegar a cada dispositivo de cliente desde una fuente común puede variar dependiendo de las distancias entre los dispositivos fuente y de cliente y/o debido a factores que causan latencias. Por ejemplo, un dispositivo fuente que incluye una cámara operada por un espectador de un evento deportivo puede ofrecer transmisiones en vivo a los espectadores suscritos. Un primer participante puede ser un espectador local, mientras que un segundo participante se encuentra a distancia del evento en vivo. Suponiendo el mismo medio de comunicación a una velocidad limitada por la velocidad de la luz, la hora de llegada al segundo participante es mayor que la hora de llegada al primer participante. La diferencia en los tiempos de llegada se exacerba aún más si se utilizan diferentes medios de comunicación con diferentes latencias para comunicar las respectivas transmisiones en vivo. En consecuencia, la experiencia compartida se ve afectada cuando varios participantes en diferentes ubicaciones intentan hablar sobre una actividad en vivo cuando los participantes reciben las transmisiones en vivo en diferentes momentos (es decir, debido a transmisiones en vivo no sincronizadas).
[0052] Del mismo modo, para que un participante cambie/adopte sin problemas otro punto de vista, es necesario sincronizar la transmisión en vivo de un punto de vista actual y la transmisión en vivo de un nuevo punto de vista. Considere, por ejemplo, un participante que actualmente observa una actividad en vivo desde un primer punto de vista en un lado de un lugar e intenta adoptar el ángulo o la perspectiva de otro punto de vista en el lado opuesto del lugar. Si estos puntos de vista están a diferentes distancias de la fuente y/o del participante, el participante puede experimentar una discontinuidad en un evento en vivo al cambiar del punto de vista actual a un nuevo punto de vista. Por ejemplo, el participante puede perderse una actividad breve o verse obligado a ver la actividad breve dos veces, dependiendo de si un punto de vista está más cerca de la fuente y/o del participante, y del medio en el que se comunica la transmisión en vivo. Para que el participante experimente ambos puntos de vista como perspectivas o ángulos simultáneos del mismo evento en vivo, la transmisión en vivo asociada con el punto de vista más cercano al evento en vivo podría almacenarse en búfer y retrasarse durante un período requerido para que la transmisión en vivo alcance el punto de vista más distante. El retardo debe establecerse en la diferencia entre las distancias de los dos puntos de vista.
[0053] La Figura 8 ilustra las relaciones entre los participantes y las fuentes de transmisiones en vivo de un evento en vivo según algunas realizaciones de la presente descripción. Un grupo de participantes son suscriptores a transmisiones en vivo de puntos de vista de un evento en vivo. Un participante puede suscribirse a múltiples puntos de vista simultáneamente y la plataforma puede adaptarse para combinar todas esas vistas. Un grupo de cámaras y otros dispositivos fuente pueden proporcionar transmisiones en vivo desde diferentes puntos de vista del mismo evento en vivo. Sin embargo, solo un subconjunto de participantes se superpone a un subconjunto de fuentes que se pueden sincronizar para permitir interacciones naturales entre los participantes para cualquier punto de vista de esas fuentes. Este subconjunto incluye un grupo de visores y puntos de vista disponibles que pueden tratarse como un único grupo sincronizado. Todas las fuentes del grupo sincronizado y las transmisiones en vivo correspondientes tienen sus relojes sincronizados como se describe a continuación para garantizar una experiencia armonizada que permita interacciones naturales. Para que una fuente cree un nuevo punto de vista o se añada a un punto de vista existente, la fuente debe ejecutar un algoritmo de sincronización de reloj para derivar un desplazamiento entre el reloj del grupo y su propio reloj local.
SINCRONIZACIÓN DEL RELOJ DEL GRUPO
[0054] La Figura 9 ilustra la sincronización de reloj entre un dispositivo de cliente (C) y un servidor (S) de tiempo para renderizar transmisiones en vivo desde diferentes fuentes según algunas realizaciones de la presente descripción. Específicamente, el procedimiento para transmitir en vivo un evento en vivo puede incluir una fase de sincronización de reloj para múltiples puntos de vista para garantizar una experiencia armonizada al interactuar entre los participantes y cambiar los puntos de vista. Durante una fase de sincronización de reloj, un cliente se pone en contacto con un "servidor de tiempo" y solicita el tiempo de ese servidor. Después de recibir la solicitud, el servidor prepara una respuesta que adjunta una hora del servidor (T), que puede establecerse en función de una fuente externa, como una fuente de hora UTC. Después de recibir la respuesta, incluida la respuesta de tiempo, el cliente establece su hora local igual a T RTTe 12. RTTe se refiere al tiempo de ida y vuelta (RTT) de la comunicación durante una época (e). El RTT se estima como el RTT mínimo de un conjunto de intercambios entre el cliente y el servidor durante una época anterior, que establece la duración de una época para tener en cuenta las condiciones cambiantes de la red. El procedimiento, basado, al menos en parte, en, por ejemplo, el algoritmo de sincronización de tiempo de Cristian, supone que el RTT se divide uniformemente entre comunicar una solicitud y comunicar una respuesta.
[0055] Con cada nueva época, una fuente de un punto de vista transmite el RTTe anterior a todas las demás fuentes dentro de un grupo sincronizado determinado. Para mantener la sincronización, todas las fuentes de todos los puntos de vista dentro de un grupo sincronizado dado deben mantener un RTTe relativamente similar. Si el nuevo RTTe de una fuente aumenta más allá de un valor máximo, la fuente debe abandonar el grupo sincronizado, pero potencialmente permanecer como suscriptor del grupo. El valor máximo puede corresponder a un tiempo mínimo que un ser humano sería capaz de percibir una diferencia entre las transmisiones en vivo del mismo evento en vivo. Dado que las presentes realizaciones no requieren sincronización con una fuente externa, dependiendo de las aplicaciones, podrían usarse otros algoritmos en su lugar con cambios mínimos.
FUSIONAR O CAMBIAR PUNTOS DE VISTA
[0056] La Figura 10 ilustra una transmisión en vivo compuesta por paquetes que se agrupan en escenas según algunas realizaciones de la presente descripción. Como se muestra, la transmisión en vivo 1000 incluye paquetes 1002 agrupados en escenas 1004 de un evento en vivo. Un dispositivo de cliente puede adoptar otro punto de vista representando otra transmisión en vivo de otro dispositivo fuente. La representación de la otra transmisión en vivo se retrasa hasta el comienzo de una siguiente escena de la transmisión en vivo 1000. Por tanto, el dispositivo de cliente puede renderizar otra transmisión en vivo solo en un punto en el tiempo definido en relación con una o más de las escenas.
[0057] Específicamente, el inicio de cada escena es un punto discreto en el tiempo de la transmisión en vivo en el que una vista puede cambiar (por ejemplo, cambiar puntos de vista, agregar contenido de RA). La longitud de una escena en términos de una cantidad de paquetes se puede configurar dinámicamente en función de, por ejemplo, una base por participante. En la presente invención, la longitud de una escena coincide con el tiempo necesario para suscribirse a una transmisión en vivo. Cuando un participante selecciona un punto de vista o cambia de punto de vista, los componentes del lado del cliente inician un procedimiento para suscribirse a la transmisión en vivo del punto de vista deseado sin terminar el punto de vista actual. Si el procedimiento de suscripción tiene éxito, la vista del cliente cambia al nuevo punto de vista al comienzo de una siguiente escena después de que se inició el cambio, lo que garantiza una experiencia perfecta para un punto de vista.
[0058] En algunas realizaciones, cada escena se implementa como un DataChunk definido por una secuencia de tramas asociadas con una marca de tiempo de consumo (ConsumptionTS), donde cada trama incluye un ID de trama, una marca de tiempo de datos (DataTS) y los datos. La fuente de una transmisión en vivo puede enviar a un participante suscrito, junto con un fragmento de datos, metadatos que incluyen una marca de tiempo de consumo del componente del lado del servidor que indica cuándo se debe representar el fragmento de datos en el visor del participante. Como tal:
DataChunk = ConsumptionTS {Frame}in,
donde Frame= FramelD DataTS Data
[0059] Cuando un dispositivo de cliente recibe el fragmento de datos, puede convertir la marca de tiempo de consumo del servidor en una marca de tiempo de consumo para el dispositivo de cliente. Si la marca de tiempo de consumo del cliente está en un tiempo futuro en relación con una hora actual del reloj del cliente, el cliente esperará para representar (consumir) el fragmento de datos asociado hasta que su hora local alcance una hora igual o superior a la marca de tiempo de consumo. Si el fragmento de datos llega al dispositivo de cliente en un punto en el tiempo diferente o más allá de la marca de tiempo de consumo, el dispositivo de cliente puede adaptar la transmisión en vivo para mantener la sincronización o descartar el fragmento de datos.
[0060] Las realizaciones descritas incluyen un procedimiento para suscribirse a contenido tal como contenido de RA o transmisiones en vivo. Por ejemplo, la Figura 11 es un diagrama de flujo que ilustra un procedimiento para suscribirse a contenido para una transmisión en vivo según algunas realizaciones de la presente descripción. En la etapa 1102, un participante selecciona el contenido. Por ejemplo, la plataforma puede hacer que se muestren opciones en un dispositivo de cliente para que el participante seleccione contenido de RA.
[0061] En la etapa opcional 1104, una transmisión en vivo se adapta en función de las preferencias del participante o la información contextual. Por ejemplo, un usuario puede establecer preferencias para comentarios en vivo que la plataforma (o un tercero) puede usar para seleccionar e incorporar automáticamente contenido de RA en vivo cuando sea contextualmente apropiado (por ejemplo, cuando un atleta está en un punto de vista). Por consiguiente, cuando está disponible para un evento en vivo, los comentarios en vivo se pueden incorporar automáticamente en la transmisión en vivo renderizada por un dispositivo de cliente. En otro ejemplo, la plataforma puede determinar las preferencias de los participantes en función de la información demográfica o de perfil de los participantes. Por ejemplo, la plataforma puede almacenar un perfil de un participante, incluidas las preferencias sobre los comentarios en vivo. En otro ejemplo, la plataforma incluye un algoritmo de aprendizaje automático que detecta automáticamente las preferencias en función de las interacciones entre los participantes o las interacciones con la plataforma y, a continuación, hace recomendaciones adecuadas para incorporar contenido en una transmisión en vivo. En algunas realizaciones, se puede hacer que un dispositivo de cliente se suscriba automáticamente a una transmisión en vivo y se dé de baja de la primera transmisión en vivo. Como tal, el perfil del participante se puede actualizar para reflejar las suscripciones cambiadas o el contenido visto.
[0062] En la etapa opcional 1104, el contenido que se representa en un dispositivo de cliente se puede seleccionar en función de la información contextual y/o temporal de un evento en vivo. Por ejemplo, los componentes del lado del cliente de la plataforma pueden recibir contenido asociado con un evento en vivo a través de un canal de multidifusión. El canal de multidifusión se puede aprovisionar en función de la información contextual sobre el evento en vivo, los intereses del participante, la ubicación del participante, el dispositivo de visualización del participante, la hora del día, etc. En un ejemplo, un proveedor externo proporciona contenido de RA para la plataforma, que entrega el contenido a los participantes de un rango de edad particular y en un momento particular del día, como un anuncio de alimentos y bebidas a los espectadores adultos durante el medio tiempo de un partido de fútbol en vivo. Por tanto, el contenido de AR se puede adaptar de manera diferente para los participantes con diferentes preferencias o datos demográficos.
[0063] En la etapa 1106, la plataforma puede unir el contenido seleccionado a una transmisión en vivo en un punto en el tiempo (por ejemplo, una escena) para renderizar en dispositivos de cliente. Cuando el contenido está asociado con un grupo de fuentes de transmisiones en vivo de diferentes puntos de vista de un evento en vivo, se requiere la sincronización del reloj para garantizar que el contenido se incluya en un intervalo de tiempo deseado de una transmisión en vivo. En algunas realizaciones, la sincronización de tipo "reloj de pared" puede ser suficiente para algunas aplicaciones.
[0064] Por ejemplo, una transmisión AR (ARStream) de contenido AR (ARContent) que se incorpora en una o más transmisiones en vivo se compone de paquetes que incluyen contenido (por ejemplo, imagen, texto) e indicaciones de contexto y un tiempo para mostrar el contenido. Por ejemplo, la indicación del tiempo para mostrar el contenido de AR puede incluir un punto específico en el tiempo o una ventana definida por un tiempo de inicio (ARTStart) y un tiempo de finalización (ARTEnd). En algunas realizaciones, la ventana de tiempo se define en términos de una serie de escenas e indica una duración en la que el contenido de AR se establece para su visualización en un visor de un dispositivo de cliente. La indicación del contexto para mostrar el contenido de rA (ARContext) puede incluir una o más directivas tales como coordenadas tridimensionales (3D) (ARCoord) que el componente del lado del cliente de la plataforma puede mapear en un visor o instrucciones específicas tales como "flotante", "unido a una valla publicitaria", etc. Como tal:
ARStream = ARContext ARTStart ARTEnd ARContent,
donde ARContext = ARCoord {"floating" l "bilboard" l...}
[0065] Por consiguiente, las escenas de una transmisión en vivo se pueden usar como puntos discretos en el tiempo para cambiar los puntos de vista o actualizar las vistas con el contenido. Por ejemplo, en lugar de causar un cambio inmediato bajo demanda, las escenas de un evento en vivo pueden proporcionar un punto natural de interacción para realizar un cambio que, al mismo tiempo, permita una buena calidad de experiencia. Un participante puede solicitar contenido, u otra parte puede enviar contenido, para el espectador del participante. El contenido entregado puede incluir transmisiones en vivo con puntos de vista alternativos y contenido de RA que se agrega a una transmisión en vivo por el componente del lado del cliente de la plataforma y se representa en el espectador en el momento de inicio de una siguiente escena, después de que la suscripción exitosa a una transmisión en vivo se asocia con el contenido.
[0066] Las realizaciones descritas también incluyen al menos un dispositivo. Un ejemplo del dispositivo es un dispositivo de pantalla montada en la cabeza (HMD) que incluye una pantalla, un sensor de orientación, un procesador, una memoria, etc. El dispositivo HMD puede representar una transmisión en vivo para mostrar un punto de vista de un evento en vivo en el dispositivo. Las transmisiones en vivo se originan en los dispositivos fuente ubicados en el evento en vivo. El dispositivo HMD puede determinar un cambio en una orientación del dispositivo HMD en función de una salida del sensor de orientación, y rastrear dinámicamente el cambio en la orientación del dispositivo HMD para realizar una transición sin problemas desde la visualización del punto de vista de la transmisión en vivo de un dispositivo fuente para mostrar otro punto de vista de otra transmisión en vivo de otro dispositivo fuente.
[0067] En este ejemplo, el contenido fuente se puede entregar a los participantes virtuales a través del dispositivo HMD o en un entorno de realidad virtual. Por ejemplo, la plataforma puede adaptar la perspectiva del participante en función de la posición corporal y el foco de atención del participante (por ejemplo, tal vez aprovechando otros dispositivos alrededor del participante). Por ejemplo, a medida que el participante se da la vuelta, la pantalla del HMD puede cambiar sin problemas la fuente de las transmisiones en vivo a un punto de vista coincidente. En algunas realizaciones, los componentes del lado del cliente de la plataforma se suscribirán a todos los puntos de vista necesarios para proporcionar el entorno inmersivo en el momento de la inicialización. En algunas realizaciones, el participante también puede cambiar manualmente los puntos de vista.
[0068] La Figura 12 es un diagrama de bloques de un dispositivo informático 1200 que puede funcionar para implementar al menos algunos aspectos de la tecnología descrita. Los ejemplos de un dispositivo informático incluyen un servidor de plataforma, un dispositivo de cliente, un dispositivo fuente o cualquier combinación o componente de los mismos. El dispositivo informático 1200 puede ser un ordenador genérico o estar diseñado específicamente para realizar funciones de un sistema. Por ejemplo, el dispositivo informático 1200 puede ser un SOC, un sistema SBC, un ordenador de escritorio o portátil, un quiosco, un ordenador central, una red de sistemas informáticos, un dispositivo móvil de mano o combinaciones de los mismos.
[0069] El dispositivo informático 1200 puede ser un dispositivo independiente o parte de un sistema distribuido que abarca múltiples redes, ubicaciones, máquinas o combinaciones de los mismos. En algunas realizaciones, el dispositivo informático 1200 funciona como un ordenador servidor o un dispositivo de cliente en un entorno de red cliente-servidor, o como una máquina entre pares en un sistema entre pares. En algunas realizaciones, el dispositivo informático 1200 puede realizar uno o más procedimientos en tiempo real, casi en tiempo real, fuera de línea, mediante procesamiento por lotes o combinaciones de los mismos.
[0070] Como se muestra, el dispositivo informático 1200 incluye un bus 1202 que puede funcionar para transferir datos entre componentes de hardware. Estos componentes incluyen un control 1204 (es decir, un sistema de procesamiento), una interfaz de red 1206, un sistema de entrada/salida (E/S) 1208 y un sistema de reloj 1210. En aras de la brevedad, el dispositivo informático 1200 puede incluir otros componentes no mostrados, ni analizados adicionalmente. Un experto en la técnica comprenderá cualquier hardware y software incluido pero no mostrado en la Figura 12. El control 1204 incluye uno o más procesadores 1212 (por ejemplo, CPU, ASIC, FPGA) y la memoria 1214 (que puede incluir el software 1216). La memoria 1214 puede ser local, remota o distribuida e incluir, por ejemplo, una memoria volátil y/o no volátil.
[0071] Un programa de software (por ejemplo, el software 1216), cuando se denomina "implementado en un medio de almacenamiento legible por ordenador", incluye instrucciones legibles por ordenador almacenadas en una memoria (por ejemplo, la memoria 1214). Un procesador (por ejemplo, el procesador 1212) está "configurado para ejecutar un programa de software" cuando al menos un valor asociado con el programa de software se almacena en un registro que puede leerse por el procesador. En algunas realizaciones, las rutinas ejecutadas para implementar las realizaciones descritas pueden implementarse como parte del software del sistema operativo (SO) (por ejemplo, Microsoft Windows®, Linux®) o una aplicación de software, componente, programa, objeto, módulo o secuencia de instrucciones específicos denominados "programas informáticos".
[0072] Como tal, los programas informáticos típicamente comprenden una o más instrucciones establecidas en diversos momentos en varios dispositivos de memoria de un ordenador (por ejemplo, el dispositivo informático 1200) y que, cuando se leen y se ejecutan por al menos un procesador (por ejemplo, el procesador 1212), hacen que el ordenador realice operaciones para ejecutar funciones que implican los diversos aspectos de las realizaciones descritas. En algunas realizaciones, se proporciona un soporte que contiene el producto de programa informático mencionado anteriormente. El soporte es una señal electrónica, una señal óptica, una señal de radio o un medio de almacenamiento legible por ordenador no transitorio (por ejemplo, la memoria 1214).
[0073] La interfaz de red 1206 puede incluir un módem u otras interfaces (no mostradas) para acoplar el dispositivo informático 1200 a otro dispositivo a través de la red 1218. El sistema 1/0 1208 puede funcionar para controlar diversos dispositivos 1/0, incluidos dispositivos periféricos tales como un sistema de visualización 1220 (por ejemplo, un monitor o una pantalla sensible al tacto) y uno o más dispositivos de entrada 1222 (por ejemplo, un teclado y/o un dispositivo señalador). Otros dispositivos 1/0 1224 pueden incluir, por ejemplo, una unidad de disco, una impresora, un escáner o similares. Por último, el sistema de reloj 1210 controla un temporizador para su uso por parte de las realizaciones descritas.
[0074] El funcionamiento de un dispositivo de memoria (por ejemplo, la memoria 1214), tal como un cambio de estado de un uno binario a un cero binario (o viceversa), puede comprender una transformación física perceptible. La transformación puede comprender una transformación física de un artículo a un estado o cosa diferente. Por ejemplo, un cambio de estado puede implicar la acumulación y el almacenamiento de carga o la liberación de carga almacenada. Asimismo, un cambio de estado puede comprender un cambio o transformación física en la orientación magnética, o un cambio o transformación física en la estructura molecular, tal como de cristalino a amorfo o viceversa.
[0075] Los aspectos de las realizaciones descritas pueden describirse en términos de algoritmos y representaciones simbólicas de operaciones en bits de datos almacenados en la memoria. Estas descripciones algorítmicas y representaciones simbólicas generalmente incluyen una secuencia de operaciones que conducen a un resultado deseado. Las operaciones requieren manipulaciones físicas de cantidades físicas. Por lo general, aunque no necesariamente, estas cantidades adoptan la forma de señales eléctricas o magnéticas que pueden almacenarse, transferirse, combinarse, compararse y, de otro modo, manipularse. Habitualmente, y por conveniencia, estas señales se denominan bits, valores, elementos, símbolos, caracteres, términos, números o similares. Estos y otros términos similares están asociados con cantidades físicas y son simplemente etiquetas convenientes aplicadas a estas cantidades.
[0076] Si bien las realizaciones se han descrito en el contexto de ordenadores en pleno funcionamiento, los expertos en la técnica apreciarán que las diversas realizaciones pueden distribuirse como un producto de programa en una diversidad de formas, y que la descripción se aplica por igual independientemente del tipo particular de máquina o medio legible por ordenador usado para efectuar realmente la distribución.
[0077] A partir de lo anterior, se apreciará que las realizaciones específicas de la invención se han descrito en esta invención con fines ilustrativos. En consecuencia, la invención se define únicamente por las reivindicaciones adjuntas.

Claims (14)

REIVINDICACIONES
1. Un procedimiento que comprende:
acoplar comunicativamente un primer dispositivo de cliente a una plataforma (702) que distribuye una pluralidad de transmisiones en vivo a través de una red a una pluralidad de dispositivos de cliente que incluyen el primer dispositivo de cliente (706-1), proporcionando la pluralidad de transmisiones en vivo una transmisión en vivo de un evento en vivo desde una pluralidad de puntos de vista capturados por una pluralidad de dispositivos fuente (704-1,704-2, 704-3) ubicados en el evento en vivo que incluyen un segundo dispositivo de cliente de la pluralidad de dispositivos de cliente, donde cada transmisión en vivo de la pluralidad de transmisiones en vivo incluye una pluralidad de paquetes agrupados en una pluralidad de escenas del evento en vivo, y
donde cada punto de vista de la pluralidad de puntos de vista incluye una vista del evento en vivo capturada desde un punto de vista del evento en vivo;
recibir una indicación de una selección de un primer punto de vista de la pluralidad de puntos de vista desde el primer dispositivo de cliente; comunicar una primera transmisión en vivo de la pluralidad de transmisiones en vivo al primer dispositivo de cliente, siendo capturada la primera transmisión en vivo por un primer dispositivo fuente de la pluralidad de dispositivos fuente y, cuando es renderizada por el primer dispositivo de cliente, provoca la visualización del primer punto de vista en el primer dispositivo de cliente;
hacer que el primer dispositivo de cliente adopte un segundo punto de vista con un punto de vista diferente desde el primer punto de vista de la pluralidad de puntos de vista al representar una segunda transmisión en vivo de un segundo dispositivo fuente, la representación de la segunda transmisión en vivo se retrasa hasta el comienzo de una siguiente escena de la primera transmisión en vivo; y
hacer que el primer dispositivo de cliente muestre una escena de la segunda transmisión en vivo,
donde una longitud de la escena de la segunda transmisión en vivo en términos de una cantidad de paquetes se configura en función del tiempo requerido para suscribirse a la segunda transmisión en vivo.
2. El procedimiento según la reivindicación 1, donde el primer dispositivo de cliente está ubicado remotamente del evento en vivo y presenta un punto de vista local del evento en vivo.
3. El procedimiento según la reivindicación 1, donde el primer dispositivo de cliente está ubicado en una primera ubicación del evento en vivo y el primer punto de vista es desde una segunda ubicación del evento en vivo de tal manera que el primer dispositivo de cliente representa una experiencia virtual de la segunda ubicación.
4. El procedimiento según la reivindicación 1, donde el primer dispositivo de cliente está ubicado en el evento en vivo y el primer dispositivo fuente es el segundo dispositivo de cliente, donde el procedimiento comprende además:
alojar una interacción virtual entre el primer dispositivo de cliente y el segundo dispositivo de cliente, simulando la interacción virtual una interacción local en el evento en vivo.
5. El procedimiento según la reivindicación 1, donde el primer dispositivo de cliente está ubicado remotamente del evento en vivo y el primer dispositivo fuente es el segundo dispositivo de cliente, donde el procedimiento comprende además:
alojar una interacción virtual entre el primer dispositivo de cliente y el segundo dispositivo de cliente, haciendo la interacción virtual que el primer dispositivo de cliente presente un punto de vista local del evento en vivo capturado por el segundo dispositivo de cliente.
6. El procedimiento según la reivindicación 1, que comprende además:
acoplar comunicativamente un tercer dispositivo de cliente a la plataforma a través de la red, el primer dispositivo de cliente y el tercer dispositivo de cliente están ubicados remotamente del evento en vivo y ubicados remotamente entre sí; y alojar una interacción virtual entre el primer dispositivo de cliente y el tercer dispositivo de cliente, la interacción virtual incluye un punto de vista local común del evento en vivo capturado en el evento en vivo y presentado en el primer dispositivo de cliente y el segundo dispositivo de cliente.
7. El procedimiento según la reivindicación 1, donde el primer dispositivo de cliente es un dispositivo fuente de la pluralidad de dispositivos fuente, y el primer dispositivo fuente es el segundo dispositivo de cliente, comprendiendo además el procedimiento:
comunicar un segundo punto de vista del primer dispositivo de cliente a través de la red al segundo dispositivo de cliente de tal manera que el primer dispositivo de cliente y el segundo dispositivo de cliente compartan sus puntos de vista locales del evento en vivo.
8. El procedimiento según la reivindicación 1, donde el primer dispositivo de cliente es un segundo dispositivo fuente ubicado en el evento en vivo y el primer dispositivo fuente es un dispositivo estacionario de la pluralidad de dispositivos fuente, comprendiendo además el procedimiento: permitir que el segundo dispositivo de cliente muestre selectivamente un segundo punto de vista del primer dispositivo de cliente representando una segunda transmisión en vivo procedente del primer dispositivo de cliente.
9. El procedimiento según la reivindicación 1, donde el primer dispositivo fuente es un dispositivo estacionario en una ubicación fija en el evento en vivo, donde el procedimiento comprende además:
recibir una indicación de otra selección por parte del primer dispositivo de cliente de un segundo punto de vista del dispositivo estacionario; y
hacer que el primer dispositivo de cliente termine la visualización del primer punto de vista y muestre el segundo punto de vista representando una segunda transmisión en vivo del dispositivo estacionario.
10. El procedimiento según la reivindicación 1, donde el primer dispositivo fuente es el segundo dispositivo de cliente, donde el procedimiento comprende además:
acoplar comunicativamente un tercer dispositivo de cliente a la plataforma a través de la red, siendo el tercer dispositivo de cliente un segundo dispositivo fuente;
hacer que el primer dispositivo de cliente se suscriba a una segunda transmisión en vivo del tercer dispositivo de cliente y se dé de baja de la primera transmisión en vivo; y
actualizar un perfil asociado con el primer dispositivo de cliente para reflejar la suscripción a la segunda transmisión en vivo y darse de baja de la primera transmisión en vivo.
11. El procedimiento según la reivindicación 1, donde el primer dispositivo de cliente está ubicado en el evento en vivo, comprendiendo el procedimiento además: aumentar la primera transmisión en vivo con contenido de realidad aumentada, AR, que, cuando es representado por el primer dispositivo de cliente, muestra un punto de vista de AR que incluye el primer punto de vista del evento en vivo aumentado por el contenido.
12. El procedimiento según la reivindicación 1, que comprende además, antes de conectar el primer dispositivo de cliente a la plataforma:
sincronizar al menos parte de la pluralidad de transmisiones en vivo con respecto a un punto en el tiempo de la transmisión en vivo del evento en vivo;
definir un grupo sincronizado de transmisiones en vivo para incluir cualquier transmisión en vivo sincronizada e impedir cualquier transmisión en vivo que no esté sincronizada con el punto en el tiempo; y
limitar el acceso de cualquiera de la pluralidad de dispositivos de cliente al grupo sincronizado de transmisiones en vivo.
13. El procedimiento según la reivindicación 1, donde cada transmisión en vivo incluye una pluralidad de paquetes agrupados en una pluralidad de escenas, donde el procedimiento comprende además:
permitir que el primer dispositivo de cliente renderice una segunda transmisión en vivo solo en un punto en el tiempo definido en relación con una o más escenas de la pluralidad de escenas.
14. El procedimiento según la reivindicación 1, donde el primer dispositivo de cliente y el primer dispositivo fuente están ubicados cada uno en el evento en vivo, donde el procedimiento comprende además:
recibir una indicación de una selección de contenido de realidad aumentada, AR, desde el primer dispositivo de cliente; y en respuesta a la indicación de la selección del contenido de AR, aumentar la primera transmisión en vivo con el contenido de AR que, cuando es renderizado por el primer dispositivo de cliente, hace que el primer dispositivo de cliente muestre un punto de vista de AR con el contenido de AR superpuesto en la visualización del primer punto de vista.
ES19751991T 2018-02-06 2019-02-06 Simulación de una experiencia local mediante la transmisión en vivo de puntos de vista que pueden compartirse de un evento en vivo Active ES2955538T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201862627126P 2018-02-06 2018-02-06
PCT/US2019/016891 WO2019157082A1 (en) 2018-02-06 2019-02-06 Simulating a local experience by live streaming sharable viewpoints of a live event

Publications (1)

Publication Number Publication Date
ES2955538T3 true ES2955538T3 (es) 2023-12-04

Family

ID=67477037

Family Applications (1)

Application Number Title Priority Date Filing Date
ES19751991T Active ES2955538T3 (es) 2018-02-06 2019-02-06 Simulación de una experiencia local mediante la transmisión en vivo de puntos de vista que pueden compartirse de un evento en vivo

Country Status (7)

Country Link
US (5) US11051049B2 (es)
EP (2) EP3750301B1 (es)
JP (2) JP7346459B2 (es)
AU (2) AU2019217629B2 (es)
CA (1) CA3089963A1 (es)
ES (1) ES2955538T3 (es)
WO (1) WO2019157082A1 (es)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018052322A1 (en) * 2016-09-16 2018-03-22 Motorola Solutions, Inc. System and method for fixed camera and unmanned mobile device collaboration to improve identification certainty of an object
WO2018213481A1 (en) 2017-05-16 2018-11-22 Sportscastr.Live Llc Systems, apparatus, and methods for scalable low-latency viewing of integrated broadcast commentary and event video streams of live events, and synchronization of event information with viewed streams via multiple internet channels
EP3777224A1 (en) * 2018-04-05 2021-02-17 VID SCALE, Inc. Viewpoint metadata for omnidirectional video
US10901975B2 (en) * 2018-05-11 2021-01-26 Microsoft Technology Licensing, Llc Systems, methods, and computer-readable media for improved concurrency of users of a shared virtual environment
CA3077469A1 (en) * 2019-04-04 2020-10-04 Evertz Microsystems Ltd. Systems and methods for operating a media transmission network
US11323780B2 (en) 2019-04-04 2022-05-03 Evertz Microsystems Ltd. Systems and methods for determining delay of a plurality of media streams
US10958959B1 (en) * 2019-09-13 2021-03-23 At&T Intellectual Property I, L.P. Automatic generation of augmented reality media
US11527043B2 (en) * 2020-02-10 2022-12-13 Charter Communications Operating, Llc Providing selectable virtual reality (VR) viewpoints within a VR experience
WO2021185302A1 (zh) * 2020-03-20 2021-09-23 华为技术有限公司 基于云手机的直播和配置方法以及相关装置和系统
US20220053248A1 (en) * 2020-08-13 2022-02-17 Motorsport Network Collaborative event-based multimedia system and method
CN112295224A (zh) * 2020-11-25 2021-02-02 广州博冠信息科技有限公司 三维特效生成方法及装置、计算机存储介质、电子设备
US11980813B2 (en) 2021-05-04 2024-05-14 Ztag, Inc. System and method of using a virtual focal point in real physical game
JP7425491B2 (ja) * 2021-09-16 2024-01-31 ナーブ株式会社 オンラインイベントシステム、装置、及びプログラム
US11665215B1 (en) * 2022-05-05 2023-05-30 At&T Intellectual Property I, L.P. Content delivery system
IL296044B1 (en) * 2022-08-29 2024-04-01 Abu Freh Ismael A system and method for streaming video in real time through virtual reality glasses using a network of cameras
US11983822B2 (en) * 2022-09-02 2024-05-14 Valeo Comfort And Driving Assistance Shared viewing of video with prevention of cyclical following among users

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006017622A2 (en) * 2004-08-04 2006-02-16 Dizpersion Technologies, Inc. Method and system for the creating, managing, and delivery of enhanced feed formatted content
US20060104600A1 (en) * 2004-11-12 2006-05-18 Sfx Entertainment, Inc. Live concert/event video system and method
US8933967B2 (en) * 2005-07-14 2015-01-13 Charles D. Huston System and method for creating and sharing an event using a social network
US9185361B2 (en) 2008-07-29 2015-11-10 Gerald Curry Camera-based tracking and position determination for sporting events using event information and intelligence data extracted in real-time from position information
WO2010016059A1 (en) * 2008-08-04 2010-02-11 Lior Friedman System for automatic production of lectures and presentations for live or on-demand publishing and sharing
US8108541B2 (en) * 2009-11-19 2012-01-31 Alcatel Lucent Method and apparatus for providing collaborative interactive video streaming
US9269219B2 (en) * 2010-11-15 2016-02-23 Bally Gaming, Inc. System and method for augmented reality with complex augmented reality video image tags
US10649613B2 (en) * 2012-06-07 2020-05-12 Wormhole Labs, Inc. Remote experience interfaces, systems and methods
US8693848B1 (en) * 2012-11-29 2014-04-08 Kangaroo Media Inc. Mobile device with smart buffering
US9106934B2 (en) * 2013-01-29 2015-08-11 Espial Group Inc. Distribution of adaptive bit rate live streaming video via hyper-text transfer protocol
EP2949123A2 (en) * 2013-02-27 2015-12-02 Apple Inc. Adaptive streaming techniques
US10097604B2 (en) * 2013-08-01 2018-10-09 Spotify Ab System and method for selecting a transition point for transitioning between media streams
JP5735672B1 (ja) * 2014-01-31 2015-06-17 株式会社 ディー・エヌ・エー コンテンツの配信システム、配信プログラム及び配信方法
KR102611448B1 (ko) 2014-05-29 2023-12-07 네버마인드 캐피탈 엘엘씨 콘텐트를 전달 및/또는 콘텐트를 재생하기 위한 방법들 및 장치
JP6242011B2 (ja) 2014-07-29 2017-12-06 Kddi株式会社 任意の領域を撮影している撮影側端末を特定する映像管理システム及び方法
US9462028B1 (en) * 2015-03-30 2016-10-04 Zap Systems Llc System and method for simultaneous real time video streaming from multiple mobile devices or other sources through a server to recipient mobile devices or other video displays, enabled by sender or recipient requests, to create a wall or matrix of real time live videos, and to enable responses from those recipients
JP6621063B2 (ja) 2015-04-29 2019-12-18 パナソニックIpマネジメント株式会社 カメラ選択方法及び映像配信システム
US20180139472A1 (en) * 2015-06-15 2018-05-17 Piksel, Inc. Controlling delivery of captured streams
US10798249B2 (en) * 2016-01-06 2020-10-06 Live View Technologies Managing live video stream connections and data usage
US11163358B2 (en) 2016-03-17 2021-11-02 Sony Interactive Entertainment Inc. Spectating virtual (VR) environments associated with VR user interactivity
US10009659B2 (en) * 2016-03-31 2018-06-26 Disney Enterprises, Inc. System and method for hybrid push-based streaming
US20170359624A1 (en) * 2016-06-08 2017-12-14 Sphere Optics Company, Llc Multi-view point/location omni-directional recording and viewing
US10148722B2 (en) * 2016-07-04 2018-12-04 Znipe Esports AB Methods and nodes for synchronized streaming of a first and a second data stream
US20180152736A1 (en) * 2016-11-30 2018-05-31 Harold Glen Alexander Live video recording, streaming, viewing, and storing mobile application, and systems and methods of use thereof

Also Published As

Publication number Publication date
EP3750301A1 (en) 2020-12-16
AU2023263484A1 (en) 2023-11-30
US20230156246A1 (en) 2023-05-18
US11949922B2 (en) 2024-04-02
US20210352337A1 (en) 2021-11-11
AU2019217629B2 (en) 2023-09-07
EP4254903A3 (en) 2023-10-11
US11792444B2 (en) 2023-10-17
US20230070531A1 (en) 2023-03-09
JP7346459B2 (ja) 2023-09-19
US20190246146A1 (en) 2019-08-08
US11051049B2 (en) 2021-06-29
JP2023166519A (ja) 2023-11-21
CA3089963A1 (en) 2019-08-15
AU2019217629A1 (en) 2020-08-27
EP4254903A2 (en) 2023-10-04
EP3750301A4 (en) 2021-09-08
EP3750301B1 (en) 2023-06-07
JP2021513305A (ja) 2021-05-20
US11490132B2 (en) 2022-11-01
US20210289236A1 (en) 2021-09-16
WO2019157082A1 (en) 2019-08-15
US11470361B2 (en) 2022-10-11

Similar Documents

Publication Publication Date Title
ES2955538T3 (es) Simulación de una experiencia local mediante la transmisión en vivo de puntos de vista que pueden compartirse de un evento en vivo
US20180316939A1 (en) Systems and methods for video processing, combination and display of heterogeneous sources
US9826277B2 (en) Method and system for collaborative and scalable information presentation
US9551873B2 (en) Head mounted device (HMD) system having interface with mobile computing device for rendering virtual reality content
US20180316947A1 (en) Video processing systems and methods for the combination, blending and display of heterogeneous sources
RU2672620C2 (ru) Система и способ интерактивного дистанционного просмотра фильмов, планирования и социального взаимодействия
US20180316942A1 (en) Systems and methods and interfaces for video processing, combination and display of heterogeneous sources
McGill et al. Examining the role of smart TVs and VR HMDs in synchronous at-a-distance media consumption
US11284137B2 (en) Video processing systems and methods for display, selection and navigation of a combination of heterogeneous sources
US20180316944A1 (en) Systems and methods for video processing, combination and display of heterogeneous sources
US20150089372A1 (en) Method of user interaction for showing and interacting with friend statsu on timeline
US20180316943A1 (en) Fpga systems and methods for video processing, combination and display of heterogeneous sources
US20180316946A1 (en) Video processing systems and methods for display, selection and navigation of a combination of heterogeneous sources
US10321192B2 (en) System and methods of communicating between multiple geographically remote sites to enable a shared, social viewing experience
US10289193B2 (en) Use of virtual-reality systems to provide an immersive on-demand content experience
US20180316941A1 (en) Systems and methods for video processing and display of a combination of heterogeneous sources and advertising content
US20180316940A1 (en) Systems and methods for video processing and display with synchronization and blending of heterogeneous sources
JP2018113514A (ja) 情報処理装置およびアプリケーション画像配信方法
JP2024019361A (ja) 情報処理装置
KR101915065B1 (ko) Vr 콘텐츠에 대한 라이브 스트리밍 시스템 및 그 시스템의 동작 방법
CN107852523B (zh) 用于在终端之间同步媒体渲染的方法、终端和设备
Series Collection of usage scenarios of advanced immersive sensory media systems