ES2950239T3 - Producción y distribución de eventos inmersivos - Google Patents
Producción y distribución de eventos inmersivos Download PDFInfo
- Publication number
- ES2950239T3 ES2950239T3 ES21766333T ES21766333T ES2950239T3 ES 2950239 T3 ES2950239 T3 ES 2950239T3 ES 21766333 T ES21766333 T ES 21766333T ES 21766333 T ES21766333 T ES 21766333T ES 2950239 T3 ES2950239 T3 ES 2950239T3
- Authority
- ES
- Spain
- Prior art keywords
- location
- virtual environment
- audience
- camera
- cameras
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004519 manufacturing process Methods 0.000 title claims abstract description 34
- 238000009826 distribution Methods 0.000 title abstract description 13
- 238000000034 method Methods 0.000 claims abstract description 26
- 230000003993 interaction Effects 0.000 claims description 15
- 238000013507 mapping Methods 0.000 claims description 7
- 238000004891 communication Methods 0.000 claims description 5
- 230000000007 visual effect Effects 0.000 abstract description 10
- 230000008901 benefit Effects 0.000 description 62
- 238000012545 processing Methods 0.000 description 12
- 230000004048 modification Effects 0.000 description 7
- 238000012986 modification Methods 0.000 description 7
- 230000002452 interceptive effect Effects 0.000 description 6
- 230000003190 augmentative effect Effects 0.000 description 5
- 239000011521 glass Substances 0.000 description 5
- 238000007726 management method Methods 0.000 description 4
- 230000003213 activating effect Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 230000000977 initiatory effect Effects 0.000 description 2
- 241000270728 Alligator Species 0.000 description 1
- PEDCQBHIVMGVHV-UHFFFAOYSA-N Glycerine Chemical compound OCC(O)CO PEDCQBHIVMGVHV-UHFFFAOYSA-N 0.000 description 1
- 240000004759 Inga spectabilis Species 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 230000006397 emotional response Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000013213 extrapolation Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000005304 joining Methods 0.000 description 1
- 239000002932 luster Substances 0.000 description 1
- 239000004570 mortar (masonry) Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/218—Source of audio or video content, e.g. local disk arrays
- H04N21/2187—Live feed
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/80—Special adaptations for executing a specific game genre or game mode
- A63F13/814—Musical performances, e.g. by evaluating the player's ability to follow a notation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/165—Management of the audio stream, e.g. setting of volume, audio stream path
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/218—Source of audio or video content, e.g. local disk arrays
- H04N21/21805—Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/439—Processing of audio elementary streams
- H04N21/4398—Processing of audio elementary streams involving reformatting operations of audio signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
- H04N21/44222—Analytics of user selections, e.g. selection of programs or purchase activity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/4788—Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/2224—Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/141—Systems for two-way working between two video terminals, e.g. videophone
- H04N7/147—Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/02—Casings; Cabinets ; Supports therefor; Mountings therein
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/08—Mouthpieces; Microphones; Attachments therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R27/00—Public address systems
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/25—Output arrangements for video game devices
- A63F13/27—Output arrangements for video game devices characterised by a large display in a public venue, e.g. in a movie theatre, stadium or game arena
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0633—Lists, e.g. purchase orders, compilation or processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0641—Shopping interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/47815—Electronic shopping
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2227/00—Details of public address [PA] systems covered by H04R27/00 but not provided for in any of its subgroups
- H04R2227/003—Digital PA systems using, e.g. LAN or internet
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/15—Aspects of sound capture and related signal processing for recording or reproduction
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Social Psychology (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Computer Networks & Wireless Communication (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Information Transfer Between Computers (AREA)
- Financial Or Insurance-Related Operations Such As Payment And Settlement (AREA)
- User Interface Of Digital Computer (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
En el presente documento se describen las redes, sistemas, aparatos y métodos de producción y distribución de eventos en vivo relacionados con los mismos. Las innovaciones descritas pueden usarse no sólo para presentar eventos en vivo al público, sino también para hacerlo de una manera que proporcione energía al público y retroalimentación al intérprete (por ejemplo, una banda) de una manera similar a la que reciben durante una presentación en vivo tradicional, energizando y motivando así a los artistas a dar la mejor presentación en vivo que puedan, incluso en ausencia de una audiencia en vivo en el mismo lugar. Algunos o todos los miembros de la audiencia pueden estar representados por un sustituto visual que se muestra en una pantalla de comentarios de la audiencia configurada para que la puedan ver los artistas. La pantalla puede tener un tamaño que llene una cortina del escenario en el que actúan los artistas, y los artistas pueden opcionalmente interactuar con una o más personas del público durante la actuación en vivo. (Traducción automática con Google Translate, sin valor legal)
Description
DESCRIPCIÓN
Producción y distribución de eventos inmersivos
Referencia cruzada a casos relacionados
Esta solicitud reivindica prioridad para solicitud de patente de los Estados Unidos No. 17/082,572, presentada el 28 de octubre de 2020, y que tiene el título "Immersive Event Production and Distribution", que es una continuación en parte de la Solicitud No. 16/995,489, presentada el 17 de agosto de 2020, y que tiene el título "Event Production and Distribution Networks, Systems, Apparatuses, and Methods Related Thereto”.
Campo
Aspectos descritos en este documento generalmente se relacionan con las redes de ordenador, y las aplicaciones y servicios, proporcionados en las mismas para la producción y distribución de eventos en vivo. Más específicamente, uno o más aspectos proporcionan redes, sistemas, aparatos, y métodos de producción y distribución de eventos a través de los cuales se pueden realizar, producir, y proporcionar eventos en vivo (por ejemplo, conciertos, teatro, oradores públicos, etc.) a audiencias ubicadas remotamente de cualquier tamaño y dispersión geográfica, en tiempo real o reproducidos más adelante.
Antecedentes
2020 es un año que nadie (¿pocos?) predijeron. La pandemia global ha cambiado nuestras vidas y la forma en que trabajamos, jugamos, y socializamos en innumerables formas. Además, la pandemia ha llevado muchas líneas de negocio a una casi paralización, incluyendo la industria de aerolíneas, tiendas minoristas de ladrillo y mortero, casinos, bares/restaurantes, viaje/turismo, y entretenimiento en vivo (deportes, música, teatro, etc.), entre otros. A menos que pivoten a nuevos modelos de negocios, muchas empresas fracasarán. Aunque el comercio minorista ha pivotado a compras en línea para sobrevivir, otras industrias permanecen inactivas, lo que se agrava por las dificultades en vista de la regulación gubernamental y límites colocados en grandes reuniones de personas en espacios reducidos. Las industrias de presentaciones en vivo son particularmente golpeadas con esta limitación, debido a que los artistas (por ejemplo, animadores, músicos, oradores públicos, políticos, actores, cantantes, clérigos, etc.) no pueden presentar frente a audiencias tales como aquellas más grandes de 50-250 personas a la vez. Esto es insostenible para sostener negocios u organizaciones en curso que dependen de audiencias más grandes para un éxito continuo.
Algunas entidades han intentado con un éxito limitado sostener las industrias de eventos en vivo mediante la celebración de conciertos virtuales en juegos en línea ya establecidos. Por ejemplo, Diplo y Travis Scott celebraron recientemente "conciertos" en el popular juego FORTNITE. Sin embargo, tales eventos son novedades, y no proporcionan retroalimentación de audiencia ni energía de vuelta a los artistas. Para los miembros de audiencia, estos eventos son novedades que, una vez experimentadas, pierden su brillo y de este modo la asistencia repetida es limitada. Los conciertos virtuales y los conciertos de VR no proporcionan una experiencia de concierto en vivo, ni para el artista ni para la audiencia, y de este modo la pasión de una verdadera experiencia de concierto en vivo se pierde para ambos.
El documento US2016014435 describe que los lugares de eventos se pueden configurar para incluir múltiples cámaras, proporcionando cada cámara una transmisión de vídeo que proporciona una vista desde una ubicación diferente en un área de asientos para asistentes al evento del lugar de evento.
El documento US2019102941 describe un método que incluye las siguientes operaciones: recibir, sobre una red desde un dispositivo cliente, una solicitud para observar un evento en vivo a través de una pantalla montada en la cabeza por un espectador de realidad virtual; asignar al espectador de realidad virtual un asiento en un lugar en el cual tiene lugar el evento en vivo; recibir una pluralidad de transmisiones de vídeo desde una pluralidad de cámaras posicionadas en el lugar; acceder a parámetros de procesamiento de vídeo que se almacenan en asociación con el asiento; usar los parámetros de procesamiento de vídeo para seleccionar y unir los seleccionados de las transmisiones de vídeo para generar un vídeo compuesto que proporcione una vista del lugar desde una perspectiva que está sustancialmente definida por una ubicación 3D del asiento en el lugar; transmitir el vídeo compuesto sobre la red al dispositivo cliente para reproducirlo en la pantalla montada en la cabeza.
El documento US2019104235 describe un método que incluye establecer una sesión de juego multijugador de una aplicación de juego que genera un mundo de juego interactivo, siendo el evento en vivo un lugar del mundo real donde están presentes los jugadores que juegan la aplicación de juego.
Breve resumen
Lo siguiente presenta un resumen simplificado de diversos aspectos descritos en este documento. Este resumen no es una visión general extensa, y no está previsto para identificar elementos clave o críticos ni delinear el alcance de las reivindicaciones. El siguiente resumen simplemente presenta algunos conceptos de una forma simplificada como un preludio introductorio a la descripción más detallada que se proporciona a continuación. El alcance de la presente invención se define en las reivindicaciones.
Para superar limitaciones tales como las descritas anteriormente, y para superar otras limitaciones que serán evidentes tras leer y entender la presente especificación, uno o más aspectos descritos en este documento proporcionan una red de producción y distribución de eventos en vivo que no solo presenta un evento en vivo a una audiencia, sino a través del cual el artista recibe retroalimentación de audiencia parecido a, por ejemplo, la recibida durante una presentación en vivo. Esto puede energizar y motivar al artista tal como el artista experimentaría durante una presentación tradicional en vivo.
Se puede configurar un sistema de producción/presentación para que un artista dé una presentación en vivo, que se puede transmitir mediante medios de audio y/o visuales (por ejemplo, audiovisuales) a una audiencia ubicada de manera dispar y/o remota. La audiencia puede ser de cualquier tamaño, tales como menos de 1,000 personas, más de 1,000 personas, o en el rango de 1 a 1 millón (o más) de personas. Algunos o todos los miembros de audiencia, a su vez, pueden estar representados cada uno por un sustituto, que se puede visualizar de vuelta al artista en una pantalla de retroalimentación de audiencia configurada para ser visible por el artista (por ejemplo, frente a o en el escenario del artista). El artista puede interactuar opcionalmente con uno o más de los miembros de audiencia durante la presentación, tal como en tiempo real, como se describe además en este documento.
Al usar aspectos descritos en este documento, no solo los asistentes de evento pueden disfrutar de un evento en vivo desde una ubicación remota, sino que el artista de evento puede ser capaz de presentar en el evento en vivo en un entorno similar y puede recibir retroalimentación, energía e inspiración desde la audiencia como si el evento estuviera siendo presentado como un evento en vivo tradicional en persona con una audiencia en vivo presente en el mismo lugar que el artista.
Un primer aspecto descrito en este documento proporciona un sistema de producción de eventos que incluye una pantalla de visualización de audiencia compuesta por uno o más paneles de vídeo posicionados y dimensionados para formar un área visible sustancialmente del tamaño de una ventana de telón de un escenario desde el cual la pantalla de visualización de audiencia es visible, y posicionados en relación con el escenario para llenar sustancialmente la ventana de telón del escenario. La pantalla de visualización de audiencia puede ser conectable a un servidor de presentación para recibir información de visualización que representa una pluralidad de sustitutos visuales, cada sustituto visual representativo de un dispositivo cliente registrado e iniciado sesión en un servidor de presentación para ver una presentación en vivo que se origina desde el escenario.
En algunos aspectos, el sistema de producción de eventos puede incluir además un dispositivo de control de presentación configurado para presentar una interfaz de usuario en una pantalla de visualización secundaria asociada con el dispositivo de control de presentación y a través de la cual el dispositivo de control de presentación está configurado para recibir entrada que selecciona un sustituto que se visualiza en la pantalla de visualización de audiencia. El dispositivo de control de presentación puede además enviar la entrada de usuario al servidor de presentación para activar una interacción mejorada entre un dispositivo cliente particular asociado con el sustituto seleccionado y un artista del evento en vivo. En algunas realizaciones la interacción mejorada puede incluir activar una transmisión de vídeo que se origina desde el dispositivo cliente particular para reproducción en la pantalla de visualización de audiencia. En algunas realizaciones el sistema de producción de eventos puede incluir además uno o más altavoces en la comunicación de datos con el servidor de presentación y posicionados dentro del alcance del αdo del escenario, y la interacción mejorada puede incluir activar simultáneamente el audio desde una pluralidad de dispositivos cliente y combinar el audio para salida por el uno o más altavoces.
De acuerdo con un segundo aspecto, un método de producción y distribución de eventos puede incluir identificar, mediante un sistema de presentación, una pluralidad de dispositivos cliente iniciados sesión para ver un evento en vivo, donde cada dispositivo cliente está asociado con un nivel de beneficios seleccionado desde una pluralidad de niveles de beneficios, donde un beneficio dentro de cada nivel de beneficios identifica un beneficio audiovisual, y donde cada dispositivo cliente está asociado con un sustituto visual. El método puede incluir además recibir, mediante el sistema de presentación, una pluralidad de flujos audiovisuales del evento en vivo; transmitir, desde el sistema de presentación, a cada uno de la pluralidad de dispositivos cliente, uno de los flujos audiovisuales del evento en vivo seleccionado con base en el beneficio audiovisual asociado con cada dispositivo cliente; generar una representación gráfica dinámica de una audiencia usando la pluralidad de sustitutos asociados con los dispositivos clientes iniciados sesión; y emitir en tiempo real la representación gráfica dinámica de la audiencia para visualización en un panel de visualización de audiencia presentado frente a uno o más artistas del evento en vivo.
En algunos aspectos del método un primer nivel de beneficios está asociado con un primer tamaño sustituto, y un segundo nivel de beneficios está asociado con un segundo tamaño sustituto diferente del primer tamaño sustituto, y el sistema puede configurarse para generar la representación gráfica dinámica de la audiencia en el panel de visualización de audiencia representando cada sustituto en un tamaño basado en el nivel de beneficios asociado de cada dispositivo cliente.
En algunas realizaciones el método puede incluir además generar una interfaz gráfica de usuario a través de la cual los usuarios pueden comprar uno o más ítems de mercadería asociados con el evento en vivo; desbloquear, cuando un usuario compra un primer ítem, una primera modificación sustituta seleccionable por el usuario comprador; y desbloquear, cuando un usuario compra un segundo ítem, una segunda modificación sustituta seleccionable por el usuario comprador, diferente de la primera modificación sustituta.
En algunos aspectos el uno o más sustitutos pueden representar una transmisión de vídeo que se origina desde el dispositivo cliente asociado con ese sustituto.
De acuerdo con un tercer aspecto, un sistema de producción de eventos puede incluir una o más cámaras de vídeo configuradas para capturar vídeo de una presentación en un escenario; uno o más micrófonos configurados para capturar audio de la presentación en el escenario; uno o más altavoces configurados para proporcionar audio al escenario; una pantalla de visualización de audiencia visible desde el escenario y dimensionada para llenar sustancialmente un tamaño de telón del escenario; y un servidor de presentación en comunicación de datos con la una o más cámaras de vídeo, el uno o más micrófonos, el uno o más altavoces, y la pantalla de visualización de audiencia. El servidor de presentación puede incluir un procesador y memoria que almacena instrucciones legibles por ordenador que, cuando son ejecutadas por el procesador, configuran el sistema de producción de eventos para registrar una pluralidad de usuarios para un primer evento; a una hora de inicio de evento, iniciar un flujo audiovisual de eventos desde la una o más cámaras de vídeo y uno o más micrófonos para reproducir, para cada usuario registrado, un dispositivo asociado con ese usuario; mostrar en la pantalla de visualización de audiencia un sustituto asociado con cada uno de la pluralidad de usuarios durante el evento; y proporcionar una característica interactiva a través de la cual uno o más usuarios registrados interactúan dinámicamente con un artista que proporciona la presentación durante el evento.
En algunas realizaciones cada registro puede estar asociado con un nivel de beneficios seleccionado desde una pluralidad de niveles de beneficio, y en donde cada nivel de beneficios dentro de la pluralidad de niveles de beneficio está asociado con un conjunto diferente de beneficios. De acuerdo con un aspecto, un primer nivel de beneficios puede estar asociado con un primer flujo audiovisual de la presentación, y un segundo nivel de beneficios puede estar asociado con un segundo flujo audiovisual de la presentación.
En algunos aspectos, un primer nivel de beneficios está asociado con un primer tamaño sustituto para cada usuario registrado en el primer nivel de beneficios, y un segundo nivel de beneficios está asociado con un segundo tamaño sustituto para cada usuario registrado en el segundo nivel de beneficios, y el sistema está configurado para presentar cada sustituto en la pantalla de visualización de audiencia en un tamaño definido por el nivel de beneficios correspondiente de cada usuario.
En algunas realizaciones el servidor de eventos puede configurarse además para presentar una tienda en línea a través de la cual cualquier usuario registrado puede comprar uno o más ítems de mercadería asociados con el evento; cuando un usuario compra un primer ítem, desbloquear una primera modificación sustituta seleccionable por el usuario comprador; y cuando un usuario compra un segundo ítem, desbloquear una segunda modificación sustituta seleccionable por el usuario comprador, diferente de la primera modificación sustituta.
Un cuarto aspecto puede proporcionar un sistema de procesamiento de datos de producción y distribución de eventos en vivo, que comprende un procesador y memoria que almacena una base de datos de eventos en vivo, una base de datos de usuarios, y que almacena además instrucciones legibles por ordenador que, cuando son ejecutadas por el procesador, configuran el servidor de presentación para recibir entrada que identifica una pluralidad de eventos en vivo, cada evento en vivo asociado con un artista, una fecha/hora, y una pluralidad de billetes, cada billete asociado con uno de una pluralidad de niveles de beneficios, en donde al menos dos billetes están asociados con diferentes niveles de beneficios, en donde cada nivel de beneficios identifica un nivel audiovisual, y en donde cada billete tiene un precio correspondiente; y recibir entrada de información de registro desde una pluralidad de diferentes usuarios para ver uno o más de los eventos en vivo, en donde cada registro comprende una compra de un billete basado en el precio correspondiente. Durante cada evento en vivo identificado en la base de datos de eventos en vivo, el dispositivo de procesamiento de datos de producción y distribución de eventos en vivo puede recibir una pluralidad de flujos de datos audiovisuales que representan el evento en vivo; transmitir selectivamente uno de la pluralidad de flujos audiovisuales a cada dispositivo cliente asociado con cada usuario que compró un billete para ese evento en vivo, en donde la selección del flujo audiovisual particular para transmitir a cada usuario se basa en el nivel audiovisual identificado por el nivel de beneficios asociado con el billete de cada usuario; generar una visualización visual que representa una pluralidad de sustitutos, cada uno representativo de uno diferente de los usuarios registrados para el evento en vivo; y transmitir la visualización visual a un panel de visualización de retroalimentación de audiencia visible por el artista del evento en vivo.
En algunas realizaciones el sistema puede incluir además una base de datos de mercadería y puede configurarse además para realizar la recepción de información de mercadería representativa de uno o más ítems de mercadería, cada uno asociado con uno o más eventos en vivo, cada uno asociado con uno o más beneficios, y cada uno asociado con un precio; presentar un módulo de comercio electrónico a través del cual los usuarios registrados para un evento en vivo particular pueden comprar mercadería asociada con ese evento en vivo particular; y activar para un usuario comprador, cuando el usuario comprador compra un ítem de mercadería, el uno o más beneficios asociados con el ítem de mercadería. Opcionalmente, un primer ítem de mercadería puede ser una prenda de vestir, y un primer beneficio del primer ítem de mercadería es envío de esa prenda de vestir al usuario, y un segundo beneficio del primer ítem de mercadería es una prenda de vestir virtual utilizable para mejorar una apariencia de un sustituto asociado con el usuario.
Estos y otros aspectos se describen con más detalle en este documento.
Breve descripción de los dibujos
Se puede adquirir un entendimiento más completo de aspectos descritos en este documento y las ventajas de los mismos consultando la siguiente descripción en consideración a los dibujos acompañantes, en los cuales los números de referencia similares indican características similares, y en donde:
La figura 1 ilustra un ejemplo de una arquitectura de red de ordenador y componentes relacionados de acuerdo con uno o más aspectos ilustrativos descritos en este documento.
La figura 2 ilustra un ejemplo de un sistema de presentación de acuerdo con uno o más aspectos ilustrativos descritos en este documento.
La figura 3 ilustra un diagrama de flujo que muestra un método de ejemplo de producción y distribución de un evento en vivo remoto de acuerdo con uno o más aspectos ilustrativos descritos en este documento.
Las figuras 4-6 ilustran ejemplos de pantallas sustitutas de acuerdo con uno o más aspectos ilustrativos descritos en este documento.
Las figuras 7-8 ilustran ejemplos de marcos de vídeo de una transmisión de vídeo de acuerdo con uno o más aspectos ilustrativos descritos en este documento.
La figura 9A ilustra un ejemplo de una imagen cargada para un sustituto de acuerdo con uno o más aspectos ilustrativos descritos en este documento.
La figura 9B ilustra un ejemplo de una extrapolación 3D de la imagen a partir de la figura 9A, que puede ser para uso en un avatar 3D para un sustituto, de acuerdo con uno o más aspectos ilustrativos descritos en este documento. La figura 10 ilustra un ejemplo de una insignia sustituta de acuerdo con uno o más aspectos ilustrativos descritos en este documento.
La figura 11 ilustra una vista de un artista dando una presentación en vivo tradicional frente a una audiencia ubicada dentro del mismo lugar.
La figura 12 ilustra una vista de un artista dando una presentación usando una pantalla de visualización de audiencia de acuerdo con uno o más aspectos ilustrativos descritos en este documento.
La figura 13 ilustra un lugar virtual con una vista de audiencia de la presentación de la figura 7 de acuerdo con uno o más aspectos ilustrativos descritos en este documento.
La figura 14 ilustra una vista de artista del sistema que representa un lugar virtual de acuerdo con uno o más aspectos ilustrativos descritos en este documento.
La figura 15 ilustra otra vista de artista de un escenario y sistema que representa un lugar virtual de acuerdo con uno o más aspectos ilustrativos descritos en este documento.
La figura 16 ilustra una relación lógica y tridimensional entre un escenario, sistema, y lugar virtual de acuerdo con uno o más aspectos ilustrativos descritos en este documento.
La figura 17 muestra un método para producir y distribuir una presentación de evento híbrido de acuerdo con uno o más aspectos ilustrativos descritos en este documento.
Descripción detallada
En la siguiente descripción de las diversas realizaciones, se hace referencia a los dibujos acompañantes, que forman una parte de la misma, y en los cuales se muestran a modo de ilustración diversas realizaciones en las cuales se pueden practicar aspectos descritos en este documento. Debe entenderse que pueden utilizarse otras realizaciones, y pueden hacerse modificaciones estructurales y funcionales, sin apartarse del alcance de los aspectos y realizaciones descritos. Aspectos descritos en este documento son capaces de otras realizaciones y de ser practicados o ser llevados a cabo de diversas formas. También, debe entenderse que la fraseología y terminología usadas en este documento son para propósitos de descripción y no deben considerarse como limitantes. Más bien, las frases y términos usados en este documento deben recibir su interpretación y significado más amplios. El uso de los términos "montado", "conectado", "interconectado", "acoplado", "posicionado", "engranado" y términos similares, pretende incluir tanto montaje, conexión, acoplamiento, posicionamiento y engranaje tanto directos como indirectos.
A modo de introducción y en vista de los detalles adicionales proporcionados a continuación, aspectos descritos en este documento pueden proporcionar, por ejemplo, una red de producción y distribución de eventos en vivo y sistema de visualización y métodos relacionados con los mismos. Al usar aspectos descritos en este documento, no solo los asistentes de evento pueden disfrutar de un evento en vivo desde una ubicación remota, sino que el artista de evento puede presentar de una manera tradicional mientras que recibe retroalimentación (e inspiración) desde la audiencia,
proporcionando al artista y/o a la audiencia una experiencia similar al evento en vivo que se realiza en una única ubicación con una audiencia en vivo presente en el mismo lugar que el artista.
La figura 1 ilustra un ejemplo de una arquitectura de red y dispositivo de procesamiento de datos que puede usarse para implementar uno o más aspectos ilustrativos descritos en este documento. Diversos nodos de red, tales como elementos 103 y/o 105-109, pueden interconectarse a través de una red de área amplia (WAN) 101, tal como el Internet. También pueden o alternativamente usarse otras redes, incluyendo intranets privadas, redes corporativas, LANs, redes inalámbricas, redes personales (PAN), redes de datos/teléfonos móviles, y similares. La red 101 es para el propósito de ilustración, puede representar una única red o múltiples redes interconectadas, y puede reemplazarse con menos o adicionales redes de ordenador. Una red de área local (LAN), que puede interconectar uno o más de los elementos de la figura 1, tales como elementos 105 y 111 que se muestran, pueden tener una o más de cualquier topología de LAN conocida y pueden usar uno o más de una variedad de protocolos diferentes, tales como Ethernet. Los elementos 103 y 105-109 y otros dispositivos o sistemas (no se muestran) pueden conectarse a una o más de las redes a través de cables de par trenzado, cable coaxial, fibra óptica, ondas de radio u otros medios de comunicación.
El término "red", como se usa en este documento y se representa en los dibujos se refiere no solo a los sistemas en los cuales los dispositivos de almacenamiento remoto se acoplan juntos a través de una o más trayectorias de comunicación, sino también a los dispositivos independientes que se pueden acoplar, de vez en cuando, a tales sistemas que tienen capacidad de almacenamiento. Por consiguiente, el término "red" puede incluir no solo una "red física" sino también una "red de contenido", que se compone de los datos - atribuibles a una única entidad - que residen en una o más redes físicas.
Los elementos de la arquitectura mostrados en la figura 1 pueden incluir servidor 103 de presentación, servidor 105 web, una pluralidad de clientes de audiencia tales como elementos 106, 107, y 108, y/o sistema 109 de presentación. El servidor 103 de presentación puede proporcionar acceso, control y administración global de bases de datos y software de control para realizar uno o más aspectos ilustrativos descritos en este documento. El servidor 103 de presentación puede estar conectado al servidor 105 web a través del cual los usuarios interactúan con y obtienen los datos según se solicitan. Alternativamente, el servidor 103 de presentación puede actuar como un servidor web en sí mismo y conectarse directamente al Internet. El servidor 103 de presentación puede estar conectado al servidor 105 web a través de la red 101 (por ejemplo, el Internet), a través de una conexión directa o indirecta, o a través de alguna otra red. Los usuarios pueden interactuar con el servidor 103 de presentación usando ordenadores 106-109 remotos, por ejemplo, usando un navegador web para conectarse al servidor 103 de presentación a través de uno o más sitios web expuestos externamente alojados por el servidor 105 web. Los ordenadores 106-109 cliente se pueden usar en sintonía con el servidor 103 de presentación para acceder a los datos almacenados en el mismo, o se pueden usar para otros propósitos. Por ejemplo, desde el dispositivo 107 cliente un usuario puede acceder al servidor 105 web utilizando un navegador de Internet, como se conoce en la técnica, o ejecutando una aplicación de software que se comunica con el servidor 105 web y/o servidor 103 de presentación a través de una red de ordenador (tal como el Internet).
Los servidores y aplicaciones de software pueden combinarse en las mismas máquinas físicas, y conservar direcciones virtuales o lógicas separadas, o pueden residir en máquinas físicas separadas. La figura 1 ilustra solo un ejemplo de una arquitectura de red que se puede usar, y los expertos en la técnica apreciarán que la arquitectura de red específica y dispositivos de procesamiento de datos usados pueden variar, y son secundarios a la funcionalidad que proporcionan, como se describe además en este documento. Por ejemplo, los servicios proporcionados por el servidor 105 web y servidor 103 de presentación pueden combinarse en un único servidor.
Cada componente 103 y 105-109 puede ser cualquier tipo de uno o más ordenadores conocidos (por ejemplo, servidores u otros dispositivos de procesamiento de datos), personalizados además para convertirse en un dispositivo de procesamiento de datos personalizado para usar con una red remota de eventos en vivo de acuerdo con las enseñanzas en este documento. Además, aunque los elementos descritos en este documento se denominan en este documento como un "servidor" a modo de ejemplo, cualquiera de estos elementos puede implementarse como uno o más dispositivos informáticos, tales como uno o más servidores, ordenadores de escritorio, ordenadores portátiles, ordenadores tipo tableta, teléfonos inteligentes, y/o cualquier otro tipo de dispositivo informático, que implemente una o más aplicaciones de software, uno o más conjuntos de firmware, y/o uno o más sistemas operativos almacenados en uno o más medios legibles por ordenador tales como memoria, unidades flash, o unidades de disco.
Cada uno o cualquier elemento de la figura 1, por ejemplo, servidor 103 de presentación, puede incluir un procesador 111 (o múltiples procesadores) que controlan la operación global del dispositivo. Cada dispositivo puede incluir además medios legibles por ordenador (por ejemplo, RAM 113, ROM 115, y/u otra memoria 121), al menos una interfaz 117 de red, y/o al menos una interfaz 119 de entrada/salida (E/S) (por ejemplo, teclado, ratón, pantalla, y/o impresora, cámara de vídeo, micrófono, etc.). La interfaz 119 de E/S puede incluir una o más unidades de interfaz y/o accionadores para leer, escribir, visualizar, y/o imprimir archivos y/u otros datos. La memoria 121 puede almacenar además el software 123 de sistema operativo para controlar la operación global del servidor 103 de presentación, lógica 125 de control para instruir al servidor 103 de presentación para realizar aspectos descritos en este documento, y otro software 127 de aplicación que proporciona soporte secundario, y/u otra funcionalidad que puede o no puede usarse en conjunto con otros aspectos descritos en este documento. La lógica 125 de control también puede denominarse en este documento como software 125 de servidor de datos cuando se refiere al servidor de datos, o software de cliente
cuando se refiere a un dispositivo cliente tal como cualquiera de los elementos 106-108. La funcionalidad del software 125 de servidor de datos puede incluir operaciones (por ejemplo, decisiones) hechas automáticamente con base en reglas codificadas en la lógica de control, hechas manualmente por un usuario que proporciona entrada al sistema, y/o una combinación de procesamiento automático basado en la entrada de usuario (por ejemplo, consultas, actualizaciones de datos, etc.).
La memoria 121 también puede almacenar datos usados en la presentación de uno o más aspectos descritos en este documento, por ejemplo una primera base de datos (DB1) 129 y/o una segunda base de datos (DB2) 131. Una base de datos puede almacenar información de eventos, mientras que la otra puede almacenar información de usuarios. Una tercera base de datos (no se muestra) podría incluir información de artista. Mientras que la primera base 129 de datos y la segunda base 131 de datos se muestran como bases de datos separadas en la figura 1, la primera base 129 de datos puede incluir segunda base 131 de datos (por ejemplo, como una tabla separada, reporte, etc.). Es decir, la información almacenada en las bases 129 y 131 de datos (y/o cualquier otra base de datos) puede almacenarse en una única base de datos, o separarse en diferentes bases de datos lógicas, virtuales, o físicas, dependiendo del diseño de sistema. Los elementos 105-109 pueden tener arquitecturas similares o diferentes a las descritas con respecto al servidor 103 de presentación. Los expertos en la técnica apreciarán que la funcionalidad del servidor 103 de presentación (o elementos 105-109) como se describe en este documento puede extenderse a través de múltiples dispositivos de procesamiento de datos, por ejemplo, para distribuir la carga de procesamiento a través de múltiples ordenadores, para segregar transacciones basadas en ubicación geográfica, nivel de acceso de usuario, calidad de servicio (QoS), etc.
Uno o más elementos por ejemplo, elemento 106, pueden incluir un dispositivo de realidad virtual (VR), realidad aumentada (AR), u otro de realidad extendida (XR). Como se usa en este documento, la realidad extendida se refiere a la realidad virtual, realidad aumentada, o cualquier combinación ya sea de AR y/o VR entre sí o con otra tecnología inmersiva en cualquier capacidad.
Uno o más aspectos descritos en este documento pueden incorporarse en datos utilizables y/o legibles por ordenador y/o instrucciones ejecutables por ordenador, tales como en uno o más módulos de programa, ejecutados por uno o más ordenadores u otros dispositivos como se describe en este documento. Generalmente, los módulos de programa pueden incluir rutinas, programas, objetos, componentes, estructuras de datos, etc. que realizan tareas particulares o implementan tipos de datos abstractos particulares cuando son ejecutados por un procesador en un ordenador u otro dispositivo. Los módulos se pueden escribir en un lenguaje de programación de código fuente que se compila subsecuentemente para ejecución, o se pueden escribir en un lenguaje de secuencias de comandos tales como (pero no limitado a) HTML o XML. Las instrucciones ejecutables por ordenador pueden almacenarse en al menos un medio legible por ordenador tal como un disco duro, disco óptico, medios de almacenamiento removibles, memoria de estado sólido, RAM, etc. Como se apreciará por un experto en la técnica, la funcionalidad de los módulos de programa pueden combinarse o distribuirse según se desee en diversas realizaciones. Además, la funcionalidad puede incorporarse en su conjunto o en parte en equivalentes de firmware o hardware tales como circuitos integrados, arreglos de puertas programables en campo (FPGA), y similares. Se pueden usar estructuras de datos particulares para implementar más efectivamente uno o más aspectos, y tales estructuras de datos se contemplan dentro del alcance de las instrucciones ejecutables por ordenador y los datos utilizables por ordenador descritos en este documento.
El sistema 109 de presentación se describirá ahora con referencia adicional a la figura 2. El sistema 109 de presentación puede ser un sistema de presentación audiovisual en red a través del cual uno o más artistas, tales como artista 200A y/o artista 200B (por ejemplo, orador, clérigo, político, animador, artista de performance, motivador, actor, cantante, artista de teatro, comediante, acróbata, músico, banda, o cualquier otro artista), puede realizar, producir, y presentar un evento a una audiencia de una o más personas ubicadas remotas del lugar de presentación. La audiencia puede estar lo suficientemente remota como para no poder ver directamente la presentación. El evento se puede proporcionar a los dispositivos cliente de los miembros de audiencia en un número de formas, tales como en vivo en tiempo real durante la presentación, en vivo durante la presentación mientras que se retrasa por alguna cantidad de tiempo, y/o grabado para reproducir para la audiencia en una fecha y/u hora posterior después de que haya terminado la presentación. El sistema 109 de presentación se puede usar con audiencias grandes o pequeñas, por ejemplo, desde presentaciones pequeñas e íntimas para 1-100 personas todo el trayecto hasta mega audiencias tales como las que podrían llenar estadios de 30,000 o más personas o incluso audiencias mucho más grandes (por ejemplo, millones de personas extendidas geográficamente unas de otras). El tamaño de audiencia puede ser ilimitado, ya que el sistema actual puede ser expansible para adaptarse a cualquier número de personas en la audiencia en un tiempo dado.
El sistema 109 de presentación puede parecerse a un lugar de presentación tradicional en tanto que puede incluir un escenario 201, uno o más altavoces 209 (por ejemplo, monitor 209a de escenario, bafles 209b, 209c), y/o iluminación 211 que comprende una o más luces, permitiendo de esa manera que los artistas 200a, 200b (...200n) realicen un espectáculo en vivo, discurso, acto, etc., en un entorno similar a un evento en vivo tradicional con una audiencia en persona y local. Además, el sistema 109 de presentación puede incluir además una o más cámaras (por ejemplo, videocámaras) 203a, 203b,... 203n para capturar vídeo de eventos, y/o uno o más micrófonos 205 para capturar audio de eventos. Cualquier número de cámaras/micrófonos puede usarse o embeberse a lo largo del sistema 109 de presentación para proporcionar múltiples puntos de vista basados en la posición de asiento asociada con uno o más espectadores. El sistema 109 de presentación también puede incluir una o más pantallas de audiencia (por ejemplo,
pantalla 207) para proporcionar vídeo de audiencia de vuelta a los artistas 200 de evento. La pantalla 207 de audiencia puede ser grande en escala en comparación con los artistas 200. Por ejemplo, la pantalla 207 de audiencia puede ser 10 pies en diagonal o más, y en algunos casos puede ser 50 pies en diagonal o más. En algunas realizaciones la pantalla 207 de presentación puede ser tan grande como la "apertura de telón" o ventana de telón del escenario en el cual están presentando los artistas, de tal manera que cuando los artistas miran desde el escenario hacia donde se posicionaría una audiencia en vivo, la pantalla 207 es lo suficientemente grande como para reproducir visualmente una audiencia de un tamaño y escala similares a los que verían los artistas mientras que realizan un espectáculo en vivo tradicional. La figura 11 ilustra una vista 1101 de un artista dando una presentación en vivo tradicional frente a una audiencia ubicada dentro del mismo lugar. La figura 12 ilustra una vista 1201 de un artista dando una presentación usando una pantalla 207 de visualización de audiencia de acuerdo con uno o más aspectos ilustrativos descritos en este documento.
La pantalla 207 de audiencia puede estar compuesta por sí misma por múltiples pantallas más pequeñas unidas y que visualizan una única transmisión de vídeo a través de todas las pantallas, o visualizando cada pantalla su propia transmisión de vídeo que, cuando se ven juntas, proporcionan información de audiencia como se describe en este documento. Cada uno de los elementos de la figura 2 se muestran solo a modo de ejemplo, y pueden configurarse de manera diferente y/o en ubicaciones diferentes a las que se muestran en la figura 2. Por ejemplo, el escenario puede o puede no estar elevado, y el escenario puede o puede no ser un objeto físicamente separado de otra porción del lugar (por ejemplo, puede ser un área arbitraria que se designa como un área de presentación y de este modo sería el escenario). También, cada una de pantalla 207 de audiencia, cámaras 203, altavoces 209, luces 211, y/o una consola 213 de gestión pueden estar en el escenario o fuera del escenario.
La pantalla 207 de audiencia puede presentar una pluralidad de los miembros de audiencia en una variedad de formas. Por ejemplo, la pantalla 207 de audiencia puede incluir una rejilla 401 (figura 4) u otra disposición de sustitutos de cada uno de una pluralidad de usuarios (miembros de audiencia, también denominados como espectadores) que observan el evento. Los sustitutos pueden ser de tamaño similar o tener tamaños diferentes como se representa en el diseño 501 (figura 5) dependiendo de los beneficios asociados con cada usuario como se describe además en este documento. Los sustitutos no necesitan estar limitados a un formato de rejilla, y pueden combinarse en un diseño 601 de audiencia virtual (figura 6) mediante un programa de inteligencia artificial (AI), visión por ordenador, y/u otro software de generación de gráficos. Se puede usar un motor de juego para reproducir a la audiencia en un lugar simulado, donde cada sustituto puede representarse en una posición predeterminada dentro del lugar simulado. La pantalla 207 de audiencia puede representar un conjunto estático o dinámico de sustitutos, con base en el tamaño de la pantalla 207 de audiencia versus al tamaño deseado de cada sustituto en vista del número de espectadores que compraron billetes para el evento. Los sustitutos visualizados pueden disponerse en la pantalla 207 de audiencia y/o ajustarse dinámicamente en tiempo real durante la presentación.
Con referencia adicional a la figura 3, ahora se describirán con más detalle métodos de operación de la red de producción, presentación, y distribución de eventos en vivo. Inicialmente, cuando se programa un evento, la información de evento se puede agregar a una base de datos de eventos en la etapa 301, por ejemplo, primera base 129 de datos. La información de evento puede incluir información tal como nombres de artistas, fecha, hora, límites de tamaño de audiencia (límites máximos y mínimos opcionales para que se produzca la presentación), precios de billetes, niveles de beneficios, información de mercadería, y/o cualquier otra información asociada con el evento/presentación. La información de evento puede incluir además una fecha y/u hora en la cual los billetes salen a la venta.
Algunos eventos pueden incluir o estar asociados con solo un único precio de billete y único nivel de beneficios. Otros eventos pueden ofrecer billetes de precios variables, cada uno de los cuales puede estar asociado con un nivel de beneficios diferente. Un nivel de beneficios particular puede ser indicativo de, o asociado de otro modo con, uno o más beneficios (por ejemplo, experiencias particulares u otros servicios proporcionados al comprador de billetes) disponibles antes, durante, y/después del evento. Por ejemplo, un primer precio de billete (nivel base) podría estar asociado con un primer nivel de beneficios que, por ejemplo, proporciona al comprador de billete un flujo 701 de vídeo no interactivo (figura 7) del evento desde una cámara 203a ubicada a una distancia fija desde el escenario 201 de presentación. Un segundo precio de billete (nivel más alto) podría estar asociado con un segundo nivel de beneficios que tenga uno o más beneficios no incluidos en el primer nivel de beneficios, por ejemplo, una transmisión 801 de vídeo (figura 8) desde una cámara 203b ubicada más cerca del escenario 201 que la cámara 203a (o alternativamente, ampliada más cerca que la cámara 203a, o proporcionando de otro modo al comprador de billete una experiencia más cercana y más íntima para el comprador de billete que la proporcionada en el primer nivel de beneficios). El vídeo en las figuras 7 u 8, por ejemplo, puede presentarse al usuario a través del dispositivo 106, 107, o 108 del usuario, y puede presentarse como solo audio, solo vídeo, o vídeo y audio juntos. Puede haber cualquier número de precios de billetes deseados, cada uno asociado con sus propios niveles de beneficios. Otros beneficios podrían incluir una capacidad de que el comprador de billete amplíe digital u ópticamente en el escenario (por ejemplo, hasta una cantidad fija de ampliación asociada con ese nivel de beneficios), o de otra manera controlar la cámara tal como haciendo una panoramización o inclinando la cámara. Cada comprador de billetes en un nivel de beneficios que permita el control de cámara puede tener una o más ventanas de tiempo de oportunidad para controlar la cámara, después de cuyo tiempo otro de los compradores de billetes en ese nivel de beneficios puede tener su oportunidad de controlar la cámara, y así sucesivamente para cada uno de esos compradores de billetes. Por ejemplo, se puede proporcionar a cada uno de esos compradores de billetes la oportunidad de controlar la cámara durante una ventana de tiempo en el
rango de 10 segundos a 30 segundos, o en el rango de 30 segundos a un minuto, o más. El control de cámara también puede rotar entre todos los compradores que tengan ese beneficio, etc.
Cada nivel de beneficios también puede incluir o estar asociado de otro modo con un nivel de retroalimentación de audiencia. Por ejemplo, un primer nivel de retroalimentación de audiencia puede estar asociado con ninguna representación de un espectador en pantalla 207 de audiencia. Un segundo nivel de retroalimentación de audiencia puede, por ejemplo, estar asociado con visualizar el sustituto del espectador en la pantalla 207 de audiencia de alguna manera que puede depender del nivel de retroalimentación de audiencia particular. Por ejemplo, para un nivel de retroalimentación de audiencia particular se puede proporcionar al espectador una representación mínima en la pantalla 207 de audiencia, por ejemplo, mediante un pequeño sustituto u otra imagen (por ejemplo, un avatar), y para otro nivel de retroalimentación de audiencia particular se puede proporcionar al espectador con una representación más prominente en la pantalla 207 de audiencia, tal como representando su sustituto en la pantalla 207 de audiencia en uno o más tamaños más grandes, donde el tamaño puede variar dependiendo del nivel de beneficios asociado con el espectador representado por el sustituto.
Un nivel de retroalimentación de audiencia también puede incluir alguna cantidad de capacidad para interactuar directamente con los artistas. Por ejemplo, cuando un usuario ha comprado un billete (o se le ha concedido de otro modo acceso, por ejemplo, como una cortesía, o según lo seleccionado por el artista durante una presentación), dependiendo del nivel de retroalimentación de audiencia particular asociado con el nivel de beneficios del billete, el sistema de presentación puede ampliar la visualización del sustituto del usuario en la pantalla 207 de audiencia, y/o abrir un canal de audio que se origina desde el dispositivo del usuario/espectador (por ejemplo, cualquiera de los elementos 106-108) a través del cual el espectador puede interactuar audiovisualmente con el artista. Tal interacción puede ser limitada en duración (por ejemplo, interacción por el espectador limitada a estar disponible durante una ventana de tiempo particular tal como diez segundos o menos, o treinta segundos o menos, o un minuto o menos, o una ventana más larga) o disponible continuamente según se desee, con base en el nivel de beneficios. El servidor 103 de presentación puede permitir temporalmente que una transmisión de vídeo desde el dispositivo de usuario (por ejemplo, capturada por una cámara del dispositivo 106, 107, o 108 del usuario a través de la interfaz 119 de E/S de ese dispositivo de usuario) se visualice en la pantalla de presentación para que el artista pueda ver al espectador real con el que está interactuando cuando, por ejemplo, el sustituto no es un vídeo en vivo como se describe además a continuación. La consola 213 de gestión podría presentar una vista previa o proyectar de otro modo la transmisión de vídeo desde el espectador antes de visualizar la transmisión de vídeo de espectador en la pantalla 207 de visualización de audiencia para asegurar que contenga la materia objeto apropiada para esa presentación/artista y, una vez aprobada, hacer que la transmisión de vídeo desde el espectador se visualice en la pantalla 207 de visualización de audiencia.
En algunas realizaciones puede haber un número limitado de billetes por "asiento" en un lugar real o simulado, por ejemplo, 1 billete o 4 billetes por asiento, palco, etc. En tal realización, puede haber una cámara real o virtual asociada con cada ubicación comprable, y el usuario que compre ese billete vería la vista de cámara real o virtual del evento como si el usuario estuviera realmente sentado en esa ubicación dentro del lugar. Establecido de manera diferente, el ángulo de cámara o punto de vista (POV) del escenario de cada miembro de la audiencia puede ser representativo de su "asiento" o ubicación comprada. Cuando un usuario se registra para un evento en la etapa 303 (discutida además a continuación), el usuario elige su asiento y completa su compra. Si se alcanza el límite de billetes para esa ubicación, no se puede permitir que usuarios adicionales compren asientos en esa ubicación.
Una vez que se ha registrado un evento en la base 129 de datos y el servidor 103 de presentación determina que los billetes están disponibles para venta (por ejemplo, durante un tiempo de venta predeterminado asociado con el evento), el servidor 103 de presentación puede proporcionar una opción de compra de billetes para ese evento a usuarios que visitan el servidor y/o sistema de presentación a través de una red tal como el Internet o World Wide Web. En la etapa 303 uno o más usuarios pueden comprar billetes para el evento, cada uno con un nivel de beneficios asociado. Se puede usar cualquier sistema de emisión de billetes en línea y/o digital, ahora conocido o desarrollado más adelante. Por ejemplo, los billetes pueden estar asociados con códigos de barras 2D únicos. Tales sistemas de emisión de billetes digitales son bien conocidos en la técnica, por ejemplo, como se usan por TicketFly, Ticketilaster, EventBrite, y similares.
Antes, durante o después del proceso de compra de billetes, un usuario puede crear una cuenta en la red de presentación, que puede incluir una indicación de una o más preferencias de usuario para los tipos de eventos en los que el usuario particular está interesado, creación de uno o más sustitutos para el usuario (uno de los cuales se puede configurar para que sea un sustituto predeterminado para el usuario), provisión de al menos un conjunto mínimo de información necesaria para completar las compras de billetes y transacciones de cuenta, y/o cualquier otra información que se asocie con el usuario, por ejemplo, optar por participar/excluirse para mercadotecnia y publicidad de eventos futuros, etc. La información de cuenta se puede almacenar en una base de datos, por ejemplo, base 131 de datos.
Como se discutió previamente, se puede usar un sustituto como una representación de un usuario/espectador particular en la pantalla 207 de audiencia durante un evento particular. Cada sustituto puede representarse o ser representativo de otro modo de una transmisión de vídeo que se origina en el dispositivo cliente de un espectador, y puede visualizarse de vuelta para que el artista vea al espectador real en la pantalla 107 de audiencia. Adicional o alternativamente, el sustituto puede ser una foto del usuario cargada por el usuario o tomada a través de la cámara
integrada o conectada de un dispositivo. En algunos aspectos, el sustituto puede seleccionarse desde un conjunto predeterminado de avatares seleccionables por usuario, es decir, una imagen u otro contenido que no sea una representación real del usuario pero que sea representativo de ese usuario particular (por ejemplo, un monstruo con cabeza de caimán, una flor, un personaje de dibujos animados, un instrumento musical, etc.). En algunas realizaciones, los usuarios pueden cargar una imagen para usar como un sustituto y/o avatar, por ejemplo, una foto de ellos mismos o cualquier otra imagen. El sustituto puede estar animado, por ejemplo, usando un vídeo pequeño o archivo de animación, GIF animado, o cuando integrado con un dispositivo capaz de imitar la cara de un usuario, por ejemplo, tal como usando animoji en un dispositivo APPLE iO S compatible, cuando se inicia sesión a través de una aplicación móvil asociada con la red de presentación. Un usuario puede cargar una imagen de su propia cara 901 (figura 9A), que el sistema puede envolver y colocar en un modelo 3D para crear un sustituto 903 3D (figura 9B) que representa un modelo de la cara real del usuario. La red de presentación puede usar la reconstrucción facial en 3D tal como se describe (y se proporciona código fuente) por Aaron S. Jackson, Adrian Bulat, Vasileios Argyriou y Georgios Tzimiropoulos del Computer Vision Laboratory, The University of Nottingham, en https://cvl-demos.cs.nott.ac.uk/vrn/.
Una vez que se completa el registro, cada espectador puede entonces esperar a que inicie el evento, o puede iniciar sesión de vuelta en tal momento en que el evento inicia en la etapa 305. Durante el evento, cada espectador puede interactuar con el evento en la etapa 307 en la medida en que su nivel de beneficios se lo permita, y los artistas pueden interactuar con la audiencia como se describe además en este documento. Los espectadores en la audiencia pueden ver el evento a través de cualquiera de las transmisiones de vídeo a las cuales su nivel de beneficios de billete proporciona acceso. Los usuarios también pueden elegir o cambiar su sustituto para el evento (por ejemplo, usar un sustituto/avatar diferente para cada evento), y pueden recibir una insignia o logotipo 1001 especial para visualizar en coordinación con su sustituto por la duración del evento y/o una cantidad de tiempo predefinida después de esto, por ejemplo, un ejemplo representativo del cual se muestra en la figura 10. Un usuario también podría ser capaz de vestir a su sustituto usando ropa virtual u otros ítems, y el usuario podría vestir a su sustituto para el evento, o elegir una superposición parecida a un filtro o lente de Snapchat, o pegatina de Instagram.
Los usuarios pueden ser capaces de comprar mercadería de banda a través de la red 100 de presentación, por ejemplo, camisetas, gorras, parafernalia, etc., usando una característica de tienda en línea de la red de presentación. Uno o más ítems de mercadería pueden estar asociados en sí mismos con uno o más beneficios antes, durante, y/o después de que concluya el evento. Por ejemplo, una camiseta podría estar asociada con la capacidad del usuario de vestir a su sustituto con una representación gráfica de esa camiseta para representar la compra de ese usuario. La compra de un encendedor Zippo® o carcasa de teléfono con el logotipo del artista podrían estar asociados con la capacidad del sustituto de aumentar temporalmente el brillo en la pantalla 207 de audiencia, o mostrar de otro modo una representación de una vela o luz adyacente a o superpuesta al avatar del espectador.
Para algunos eventos, un billete podría estar asociado con un "asiento" o ubicación en la pantalla 207 de audiencia. Para otros eventos, la ubicación de cada espectador en la rejilla sustituta podría ser aleatoria o determinada con base en el nivel de beneficios. Por ejemplo, un nivel de beneficios puede estar asociado con un subconjunto de ubicaciones posibles en la pantalla 207 de audiencia (por ejemplo, ubicaciones cerca del borde de la pantalla y de este modo en una ubicación menos prominente), y otro nivel de beneficios puede estar asociado con un subconjunto diferente de ubicaciones posibles en la pantalla 207 de audiencia (por ejemplo, ubicaciones más centralizadas y de este modo más prominentes). Además, para algunos eventos el nivel de beneficios de un billete podría estar asociado con un flujo de vídeo particular del evento, por ejemplo, una vista de cámara más cercana o más lejana con base en cuyo nivel de beneficios esté asociado con el billete. Para algunos eventos, un billete podría estar asociado con un asiento particular o vista del escenario en un lugar real, y cualquier usuario que compre ese billete recibirá un flujo de vídeo del evento asociado con esa ubicación. En algunas realizaciones los billetes podrían estar limitados por cámara, mientras que en otras los billetes podrían ser ilimitados por cámara. Puede proporcionarse cualquier número de ángulos de cámara diferentes.
Para algunos eventos, un nivel de beneficios podría no estar asociado con una cámara o vista particular por adelantado. En tales casos, cuando el evento se abre para que los usuarios inicien sesión para ver el evento, la red de presentación puede usar un motor de juego o sistema de reproducción gráfica similar para representar gráficamente un lugar virtual a través del cual el usuario hace que su sustituto (por ejemplo, usando un controlador de juego, ratón, teclado, etc.) se mueva (por ejemplo, camine, corra, vuele, etc.) a un área designada en el lugar virtual antes que otros lo hagan. A cualquier usuario dentro de un número preseleccionado que llegue primero al área se le puede presentar una vista más cercana del evento que a los usuarios que no llegaron al área tan rápido. De esta manera la red de presentación puede proporcionar un mosh pit virtual al que los usuarios corren cuando se abren las puertas del lugar virtual antes del evento.
De acuerdo con aún aspectos adicionales, el motor de juego puede adaptarse para proporcionar características de juego interactivo antes, durante, o después del evento. En una realización, los usuarios pueden interactuar con otros avatares como personajes de jugadores dentro del lugar virtual. Por ejemplo, un usuario puede intentar impedir los intentos de otro usuario de llegar al mosh pit virtual, por ejemplo, iniciando una acción contra el otro avatar (tropezar, lanzar un objeto, pelear, etc.). Aquellos usuarios que son más expertos (o afortunados) llegan primero al área designada de mosh pit, que tiene espacio limitado, y de esa manera reciben acceso a un mejor flujo de vídeo del evento que los usuarios que no llegaron al mosh pit virtual. Los miembros de audiencia pueden o pueden no ser capaces de ver e interactuar con otros miembros de audiencia dependiendo del nivel de beneficios y/o evento. En
algunas realizaciones la interacción de miembros de audiencia podría estar limitada a la interacción con otros que han comprado "asientos" cerca unos de otros. Por ejemplo, a los miembros de audiencia solo se les podría permitir interactuar con un sustituto que esté junto a ellos en la pantalla 207 de audiencia. Como otro ejemplo, los miembros de audiencia podrían estar limitados a interactuar con miembros de audiencia que compraron un asiento cercano o similar (por ejemplo, dentro de 1, 3, o 10 asientos entre sí, o cualquier otro número predeterminado) o que compraron una misma vista de ángulo de cámara del evento.
De acuerdo con otro aspecto, la interacción de audiencia podría ser dinámica con base en que un usuario retroceda o abandone el espectáculo. Por ejemplo, el servidor 103 de presentación podría permitir a los usuarios cambiar de asientos durante una presentación cuando se cumplen las condiciones predefinidas. En algunas realizaciones un usuario podría ser capaz de moverse "hacia atrás" en cualquier momento, pero un usuario solo podría ser capaz de moverse hacia adelante si otro usuario desocupó su asiento/ubicación (por ejemplo, moviéndose por sí mismos hacia atrás o cerrando sesión). En otras realizaciones un usuario podría seleccionar una opción presentada a través de una interfaz de usuario para congelar su sustituto y/o apagar la interacción dinámica de audiencia de tal manera que ningún otro miembro de audiencia pueda hablar o interactuar con ellos. De acuerdo con diversos aspectos, diferentes capacidades pueden estar asociadas con pantallas más pequeñas versus más grandes, así como si un evento está siendo visto en un modo de pantalla completa versos vista en ventana.
De acuerdo con otro aspecto, la interacción podría estar limitada a "amigos" u otros usuarios/sustitutos autorizados. Los amigos podrían determinarse a partir de cualquier fuente, por ejemplo, una libreta de direcciones, Facebook, Snapchat, etc. El servidor de presentación puede permitir que un usuario determine de manera selectiva cuáles otros usuarios pueden verlos y/o interactuar con ellos. Por ejemplo, un usuario podría seleccionar una opción para permitir que sus amigos vean su sustituto (por ejemplo, foto real/flujo de vídeo en vivo), mientras que otros usuarios (que no son amigos) podrían ver en su lugar un avatar u otra representación no literal del usuario. En otro ejemplo, un usuario podría permitir que sus amigos entren en contacto con ellos "en el concierto" pero ignorar las solicitudes de contacto de los que no son amigos. Adicionalmente, un usuario puede seleccionar un modo donde los nombres de usuario de otros usuarios en su lista de amigos podrían visualizarse sobre sus sustitutos/avatar en el lugar simulado. De esta manera, cuando el usuario escanea la multitud, el usuario podría ver realmente a sus amigos o amigas que también están viendo el espectáculo al mismo tiempo. El usuario podría incluso ir a ellos en el espacio virtual e interactuar, por ejemplo, parándose junto a sus sustitutos, y discutiendo el espectáculo. Cuando dos sustitutos están dentro de una distancia predeterminada entre sí en el lugar simulado, o cuando se cumplen otros criterios, se puede proporcionar un canal de texto, conversación de audio y/o vídeo entre los dos.
En algún punto durante el evento, un artista podría llamar a un espectador particular incluso cuando ese espectador particular no pagó por un beneficio particular, así como un artista puede contactar a un miembro de audiencia durante una presentación en vivo tradicional ("oye, tú, el de la camisa roja con el pelo verde..."). En tal caso, un operador que usa la consola 213 de gestión puede seleccionar el sustituto asociado con el espectador llamado, haciendo que el sistema de presentación tome alguna acción especial con respecto a ese sustituto y/o el usuario asociado con el sustituto. En algunos casos la red de presentación puede ampliar el sustituto mientras el artista está interactuando con ese espectador. En algunos casos la red de presentación puede permitir y abrir un canal de vídeo en vivo desde el dispositivo asociado del espectador y reemplazar el sustituto con la transmisión de vídeo en vivo desde el espectador (cuando el sustituto aún no es una transmisión de vídeo en vivo), permitiendo de esa manera que el artista interactúe audiovisualmente con el espectador. En algunos casos la red de presentación solo podría abrir un canal de audio (donde el sonido se recibe a través del micrófono del dispositivo cliente del espectador) y puede alterar visualmente el sustituto seleccionado para indicar que el usuario está hablando de vuelta al artista, por ejemplo, creando un brillo visual, latido, articulación, o efecto visual de vibración alrededor de ese sustituto.
Cuando el evento finaliza en la etapa 309, la red de presentación puede configurarse para proporcionar servicios postevento y dar seguimiento en la etapa 311. Por ejemplo, se podría entrar en contacto con usuarios para oportunidades postevento relacionadas con el evento, tales como con respecto a descuentos de mercadería ofrecidos solo a los asistentes de evento, o descuentos en presentaciones futuras por los mismos o diferentes artistas. El sistema también puede ofrecer beneficios u ofertas a usuarios que compraron billetes de nivel predeterminado. En un ejemplo todos los compradores de un nivel seleccionado de beneficios se pueden ingresar en un sorteo aleatorio para una interacción de vídeo uno a uno con el artista, parecido a ir "tras el escenario" después de que se termina un concierto. Otra opción postevento podría incluir un conjunto seleccionado de uno o más miembros de audiencia que se unan a una interacción grupal más pequeña con el artista en algún momento después de que finaliza el evento general. Se puede proporcionar cualquier número o combinación de estas o alternativas opciones postevento.
Usando la red de presentación descrita en este documento, los animadores pueden realizar, producir, y distribuir eventos en vivo a audiencias remotas. Además, los espectadores pueden ver presentaciones en vivo y los artistas pueden ver a la audiencia en la pantalla 207 de audiencia presentada frente a los artistas. Los artistas no necesariamente necesitan usar ningún equipo especial, pero todavía pueden ser capaces de interactuar con las audiencias de una manera similar a como interactúan con las audiencias en una presentación en vivo en persona tradicional, debido a que el sistema 109 de presentación puede proyectar y/o simular al menos algo de lo que el artista vería y escucharía de la audiencia durante una presentación en vivo en persona. Por ejemplo, el sonido desde los dispositivos asociados de todos los miembros de audiencia podría encenderse, combinarse, y reproducirse a través de altavoces 209 para que el artista escuche, y la banda puede obtener energía de la audiencia como si la audiencia
estuviera físicamente presente. La red de presentación de este modo puede proporcionar tanto a los artistas como a la audiencia una experiencia de presentación en vivo real, pero sin la necesidad de que la audiencia esté físicamente presente en la ubicación del evento en vivo.
Opcionalmente, el espacio virtual en el cual se insertan los asistentes se puede reproducir para representar cualquier lugar deseado (por ejemplo, un anfiteatro, estadio, cúpula de truenos en la luna, la Acrópolis, etc.) mientras que el escenario puede incluir una representación real del escenario real de vida real y la presentación capturada por el sistema 109, y luego se insertan en el espacio virtual, creando de esa manera un híbrido de espacio virtual y real. La figura 13 ilustra un ejemplo de un lugar 1301 virtual en el cual sustitutos y avatares compran asientos, cada uno con una vista en perspectiva asociada de la presentación 1303 (por ejemplo, vista 701, figura 7). Es decir, los sustitutos pueden ver el escenario y al artista desde su POV (u opcionalmente pueden seleccionar pantalla completa u otros ángulos según lo permitido) desde el espacio virtual. El movimiento de usuarios/sustitutos desde un "asiento" a otro podría estar permitido o limitado como se describe además en este documento.
La figura 14 ilustra de manera similar la vista de un artista 200 de la pantalla 207 de audiencia desde el escenario 201. El artista de vida real desde un escenario real puede ver a la audiencia (sustitutos o avatares) que residen en el espacio virtual en la pantalla 207 de retroalimentación de audiencia. El sistema de producción de eventos puede de esa manera crear un escenario similar a una película al revés, donde la audiencia está en el espacio virtual y el artista es real, pero todavía pueden interactuar entre sí - el artista y audiencia pueden ser capaces de verse y escucharse entre sí para interactuar visual y audiblemente. Al igual que se puede interrumpir a un comediante, se puede permitir que la multitud grite a un orador, abuchee a un político, o vitoree a una banda, mientras que el artista puede señalar y hablar con la representación de un espectador remoto (sustituto, avatar, etc.).
La figura 15 representa detalle adicional de una realización ilustrativa basada en la visión general de sistema proporcionada en la figura 2, y como se representa en este documento. Como se muestra en la figura 15, la pantalla/visualización 207 tiene cámaras 203 embebidas o dispersas a lo largo del área visual de la visualización, cada cámara utilizable para presentar una perspectiva o punto de vista diferente a uno o más espectadores que observan a los artistas 200. Las cámaras pueden estar dispuestas en un patrón de rejilla, como se representa en la figura 15, o usando cualquier otro patrón o disposición para proporcionar ángulos de cámara dispersos y/o múltiples del escenario 201 y los artistas 200, por ejemplo, rejillas horizontales/verticales, rejillas diagonales, disposiciones lineales, colocaciones aleatorias, etc. En algunas disposiciones el número, densidad, y/o colocación de cámaras pueden basarse al menos en parte en uno o más de los niveles de billetes correspondientes para el evento, ventas reales de billetes para el evento, el diseño físico de un lugar en el cual se produce la presentación, el diseño de un lugar en el cual la presentación se representa en espacio virtual, y similares. Cada cámara 203 puede estar en un plano sustancialmente paralelo a la pantalla 207, o incluso sustancialmente en el mismo plano que la pantalla 207. Las cámaras pueden ser visibles para los artistas 200 de tal manera que el artista conozca dónde mirar, o las cámaras pueden ser pequeñas y discretas para no distraer al artista de la audiencia en conjunto. En algunas realizaciones, cada cámara podría tener una luz asociada (por ejemplo, un anillo de luz alrededor de la cámara) que se enciende cuando el artista está interactuando con un espectador específico, y la cámara que se ilumina puede ser la cámara desde la cual se está originando la transmisión de vídeo del espectador.
Con referencia adicional a la figura 16, cada cámara 203a..n puede mapearse en una ubicación en espacio virtual, por ejemplo, usando coordenadas X, Y, y Z, o usando cualquier otra técnica de mapeo de ubicación deseada. Cada ubicación puede ser un punto discreto (1D) o una región 2D o 3D delimitada dentro del espacio virtual. Cada sustituto/avatar en el espacio virtual puede, a su vez, tener su propia ubicación correspondiente en el espacio virtual, por ejemplo, una ubicación dimensional X, Y, Z separada, o usando cualquier otra técnica de mapeo de ubicación deseada. La técnica usada es secundaria a la capacidad de mapear la ubicación de cada sustituto en el espacio virtual a una o más cámaras 203a..n en el espacio real, de tal manera que el servidor 103 de presentación (u otro dispositivo de procesamiento de datos) pueda mapear cada espectador a una cámara desde la cual ver la presentación. Por ejemplo, en una realización, un espectador podría recibir un flujo de vídeo para ver la presentación con base en una cámara 203 que mapea más cerca de la posición del sustituto del espectador en el espacio virtual en el cual está siendo representada la presentación. Además, el movimiento del sustituto del espectador dentro del espacio virtual podría estar permitido, limitado o restringido con base en un nivel de billete comprado, parámetros del evento definidos dentro del servidor de presentación, o cualquier otro criterio deseado.
En algunas realizaciones puede haber una o más cámaras 203 que no estén coubicadas con la pantalla 207. Por ejemplo, si uno o más espectadores compran billetes que corresponden a un nivel de acceso de "pase de escenario", se podría colocar una cámara adicional (no se muestra) al lado del escenario, proporcionando una vista similar a la cual vería el espectador si él/ella estuviera parado justo fuera del escenario viendo la presentación desde el área de telón/alero fuera del escenario.
Usando el sistema representado en las figuras 15 y 16, como sucede con las realizaciones previas, un artista puede producir una presentación real/en vivo en un "espacio real" y, usando las cámaras 203a..n en la pantalla 207, suministrar esa presentación a los espectadores en un espacio virtual que incluye un flujo de vídeo de la presentación real. Debido a que el diseño de cámara se puede mapear a ubicaciones dentro del espacio virtual, el punto de vista de cada espectador de la presentación puede estar en sincronización con la posición de su sustituto en el espacio virtual.
Con referencia a la figura 17, un servidor de presentación puede realizar un método para determinar una ubicación de sustituto de cada espectador y seleccionar un ángulo de cámara/punto de vista para generar en flujo al espectador correspondiente con base en la posición de avatares dentro del espacio virtual. Inicialmente en la etapa 1701, el servidor 103 de presentación puede inicializar o cargar el espacio virtual para una presentación, por ejemplo, una simulación de un lugar conocido real, o cualquier otro lugar ficticio que se pueda desear. El espacio virtual puede tener diferentes regiones asignadas a diferentes niveles de billetes, y/o puede tener "asientos" específicos asignados para uno o más (o todos) los billetes vendidos para el evento. Cada ubicación y/o asiento puede tener una posición correspondiente dentro de un sistema de posiciones usado por el servidor de presentación dentro del espacio virtual.
En la etapa 1703 el servidor 103 de presentación recibe información de cámara que identifica cada cámara 203a..n. La información de cámara puede incluir una ubicación correspondiente de la cámara. La ubicación recibida puede ser una ubicación real dentro de la pantalla 207, o puede incluir configuraciones que definen el punto de vista de la cámara (por ejemplo, ángulo horizontal, ángulo vertical, compensación desde el centro del escenario 201 (o alguna otra ubicación conocida), nivel de ampliación, rango de ampliación, y similares. Cuando se usa o se conoce un sistema de coordenadas de ubicación de espacio virtual conocido, la información de ubicación también puede o alternativamente incluir una ubicación virtual de la cámara dentro del espacio virtual que va a ser usada para la presentación. Alternativamente, la información de cámara puede incluirse dentro de una configuración preestablecida para un modelo particular de sistema integrado de visualización/cámara ya conocido o definido dentro del servidor de presentación.
En la etapa 1705, el servidor de presentación mapea cada cámara a una ubicación dentro del espacio virtual para la presentación, con base en la información de ubicación recibida en la etapa 1703 o cargada desde una definición preestablecida para el modelo de sistema de visualización/cámara en uso y mapea las cámaras al espacio virtual para una presentación particular basada en la definición preestablecida. El mapeo se puede hacer con base en la colocación de cada cámara en relación con el escenario 201 o en relación con una posición preestablecida en el escenario 201, por ejemplo, escenario central, frente del escenario, parte trasera de escenario, etc., donde la pantalla 207 (con cámaras integradas) puede pensarse lógicamente como una telón o ventana entre los espacios reales y virtuales, presentando un punto de vista continuo y sincrónico desde el espacio real al espacio virtual y viceversa.
En la etapa 1707, un espectador inicia sesión para ver un evento, y en la etapa 1709 el servidor 103 de presentación determina la ubicación del sustituto correspondiente en el espacio virtual para el evento. La ubicación del sustituto puede basarse en el billete y/o nivel de billete comprado para el evento, o puede basarse en una ubicación del sustituto resultante de que el espectador mueva su sustituto en el espacio virtual para el evento.
En la etapa 1711 el servidor 103 de presentación mapea al espectador a una de las cámaras 203a..n para que el espectador vea el evento, y tras el inicio del evento comienza a generar en flujo vídeo desde la cámara mapeada al dispositivo del espectador. En algunas realizaciones, el servidor de presentación puede en cambio mapear el flujo de vídeo desde la cámara correspondiente a un espacio 1301 virtual representado gráficamente (figura 13) y opcionalmente transformar la imagen en el espacio X,Y,Z para sincronizar la vista en el espacio 3D desde una posición del avatar del espectador y/o el punto de vista/ángulo de cámara que el espectador tiene derecho a recibir.
Cuando se inicializa la ubicación del sustituto y/o cada vez que el sustituto se mueve por al menos alguna cantidad predeterminada, el servidor 103 de presentación puede remapear al espectador a una cámara correspondiente, para mantener la sincronización entre la ubicación del sustituto en el espacio virtual y la vista de la presentación que se visualiza al espectador correspondiente, proporcionando de esa manera un entorno 3D combinado que abarca tanto espacio virtual como espacio real, alterando tanto representaciones virtuales como vídeo en vivo correspondiente en tiempo real. De este modo, en la etapa 1713 el servidor 103 de presentación puede determinar el movimiento del sustituto y, cuando el sustituto se haya movido por al menos una cantidad predeterminada, repetir las etapas 1709 y 1711. La cantidad predeterminada puede ser cualquier cantidad medible, por ejemplo, superior a 0, 5 pies virtuales, o puede ser una determinación relativa. Las determinaciones relativas pueden basarse, por ejemplo, en espaciado de cámaras, tamaño de lugar virtual, etc. En algunos ejemplos, el remapeo puede producirse cuando el usuario se ha movido más de 10 % de la distancia entre las cámaras en el espacio virtual, más de 5 % del tamaño del lugar virtual, etc. Se puede usar cualquier cantidad y/o porcentaje.
De manera similar, cuando se inicializa un sustituto en el espacio virtual (o "sentado") en el lugar de presentación, el sustituto puede representarse en la pantalla 207 y aparecer para que el artista 200 lo vea. A medida que el sustituto se mueve dentro del lugar virtual (cuando se permite por los parámetros establecidos en el servidor de presentación o en otro lugar), la ubicación del sustituto puede actualizarse en la pantalla 200 así como en una pantalla en la ubicación del espectador, por ejemplo, su ordenador u otro dispositivo a través del cual están viendo la presentación, junto con la vista de la presentación real representada dentro del lugar virtual. De esta forma todas las perspectivas se mantienen en sincronización y aparecen al espectador para proporcionar un entorno en vivo/virtual híbrido tridimensional, y visualiza a los artistas una audiencia interactiva virtualmente coubicada, tanto con los artistas como opcionalmente interactiva entre sí como se describió anteriormente. De esa manera los artistas se benefician de la ilusión de presentar frente a una audiencia real (no solo foto de rostro) y sin la necesidad de usar gafas de VR que obstaculizan la presentación, por lo que pueden experimentar un entorno de producción de eventos inmersivo, al igual que los espectadores disfrutan una experiencia de espectador inmersiva.
Aunque los artistas no necesitan usar ningún equipo especial o gafas de VR, los artistas pueden desear estar equipados opcionalmente con tal equipo especial, por ejemplo, sombreros de realidad aumentada. El sombrero de realidad aumentada se puede usar en lugar de o además de usar una pantalla de presentación más grande tal como pantalla 207 de audiencia, reduciendo de esa manera potencialmente algún coste que de otro modo podría estar asociado con el sistema. Mediante el uso de la realidad aumentada, por ejemplo, Microsoft HoloLens o nReal Light, un artista todavía puede ver para tocar sus instrumentos, pero todavía recibir información desde el sistema 109 de presentación de una manera periférica. El software de control de AR (por ejemplo, software 125, 127) puede configurarse para proporcionar solo información de audiencia cuando un artista mira hacia arriba y hacia afuera donde se ubicaría una audiencia tradicional, y para evitar que se muestre información cuando el artista está mirando a otra parte de tal manera que el artista puede ver su instrumento, notas, u otro utillaje en el escenario. El software de control de AR puede configurarse para proporcionar información diferente con base en dónde está mirando el artista usando rastreo de cabeza, los códigos de barras 1D/2D/3D, o reconocimiento de objetos con base en lo que capturen las cámaras dentro de las gafas de AR. De este modo, cuando el artista mira a la ubicación donde de otro modo estaría una audiencia, las gafas de AR pueden mostrar una visualización de audiencia virtual similar a la de la pantalla 207 de audiencia o un subconjunto de la misma mientras el artista mira a su alrededor. Cuando el artista mira fuera del escenario el software de control de AR puede mostrar opciones de gestión para controlar sonido, selección de espectadores, opciones de cámara, aislar micrófonos o audio/vídeo entrante de espectador, u otras características administrativas, y cuando el artista mira hacia abajo por más de un ángulo especificado, por ejemplo, 5, 10, 15, o 25 grados por debajo del horizonte como ejemplos no limitantes, todas las visualizaciones pueden omitirse o apagarse para que el artista pueda tocar un instrumento o usar otro utillaje en el escenario. En algunos aspectos, cuando un artista mira a una región particular de la visualización de audiencia virtual durante una cantidad de tiempo predeterminada, por ejemplo, de 1-5 segundos, las gafas de AR pueden ampliar en esa región de la visualización de audiencia virtual y proporcionar características de interacción mejoradas para uno o más sustitutos que se visualizan en esa región de la visualización de audiencia virtual.
Usando aspectos descritos en este documento, los artistas pueden realizar, producir, y distribuir eventos en vivo para y a usuarios remotos mientras que todavía se benefician de la respuesta emocional, compromiso y retroalimentación de audiencia similares a los experimentados durante una presentación en vivo tradicional. De manera similar, los asistentes a los eventos experimentan una presentación más realista y auténtica.
Aunque la materia objeto se ha descrito en un lenguaje específico de características estructurales y/o actos metodológicos, debe entenderse que la materia objeto definida en las reivindicaciones anexas no se limita necesariamente a las características o actos específicos descritos anteriormente. Más bien, las características y actos específicos descritos anteriormente se divulgan como formas ilustrativas de implementar las reivindicaciones.
Claims (15)
1. Un sistema (109) híbrido de producción de eventos, que comprende:
un dispositivo de vídeo que comprende una pantalla (207) de visualización, y que comprende además una pluralidad de cámaras (203) en un plano sustancialmente paralelo a la pantalla (207) de visualización; y
un servidor (103) de presentación en comunicación de datos con el dispositivo de vídeo, que comprende un procesador (111) y memoria (121) que almacena instrucciones legibles por ordenador que, cuando son ejecutadas por el procesador, configuran el sistema de producción para:
inicializar un entorno (1301) virtual en el cual reproducir un entorno virtual híbrido representado gráficamente en combinación con una o más transmisiones de vídeo;
asociar cada una de la pluralidad de cámaras (203) con una ubicación correspondiente en el entorno (1301) virtual; autentificar una pluralidad de usuarios espectadores para acceder al entorno (1301) virtual; y para cada uno de la pluralidad de usuarios espectadores autentificados:
determinar una ubicación, dentro del entorno (1301) virtual, de un sustituto correspondiente para ese usuario espectador,
mapear ese usuario espectador a una de la pluralidad de cámaras (203) con base en la ubicación determinada del sustituto correspondiente y con base en la ubicación asociada de cada cámara,
reproducir en tiempo real un flujo (701) de vídeo que represente gráficamente el entorno (1301) virtual con base en la ubicación del sustituto correspondiente dentro del entorno (1301) virtual e incorporar una transmisión (801) de vídeo desde la cámara mapeada, y
suministrar el flujo (701) de vídeo a un dispositivo (213) desde el cual el usuario espectador fue autentificado para acceder al entorno (1301) virtual.
2. El sistema (109) híbrido de producción de eventos de la reivindicación 1, en donde la pluralidad de cámaras (203) están sustancialmente en el mismo plano que la pantalla (207) de visualización.
3. El sistema (109) híbrido de producción de eventos de la reivindicación 1, en donde cada cámara comprende una luz (211), y en donde las instrucciones legibles por ordenador configuran además el sistema de producción para: recibir primera entrada que identifica a un usuario espectador particular;
determinar la cámara particular de la pluralidad de cámaras (203) a la cual está mapeado el usuario espectador; y encender la luz en la cámara particular.
4. El sistema (109) híbrido de producción de eventos de la reivindicación 3, en donde las instrucciones legibles por ordenador configuran además el sistema de producción para:
recibir segunda entrada que indica que ha finalizado una interacción con el usuario espectador; y
apagar la luz en la cámara particular.
5. El sistema (109) híbrido de producción de eventos de la reivindicación 1, en donde la ubicación correspondiente de cada cámara comprende uno o más de un punto discreto, un área bidimensional, o una región tridimensional dentro del entorno (1301) virtual.
6. El sistema (109) híbrido de producción de eventos de la reivindicación 1, en donde mapear cada usuario espectador a una de la pluralidad de cámaras (203) comprende seleccionar una cámara asociada con una ubicación más cercana al sustituto correspondiente del usuario espectador dentro del entorno (1301) virtual.
7. El sistema (109) híbrido de producción de eventos de la reivindicación 1, en donde las instrucciones legibles por ordenador configuran además el sistema de producción para:
monitorizar la ubicación de cada sustituto dentro del entorno (1301) virtual; y
cuando cualquier sustituto se ha movido más de una cantidad predeterminada dentro del entorno (1301) virtual, remapear al usuario espectador que corresponde a ese sustituto a una de la pluralidad de cámaras (203) con base en una nueva ubicación del sustituto correspondiente y con base en la ubicación asociada de cada cámara.
8. Un método que comprende:
inicializar un entorno (1301) virtual en el cual reproducir un entorno virtual híbrido representado gráficamente en combinación con una o más transmisiones de vídeo recibidas desde un dispositivo de vídeo que comprende una pantalla (207) de visualización y que comprende además una pluralidad de cámaras (203) en un plano sustancialmente paralelo a la pantalla (207) de visualización;
asociar cada una de la pluralidad de cámaras (203) con una ubicación correspondiente en el entorno (1301) virtual; autentificar una pluralidad de usuarios espectadores para acceder al entorno (1301) virtual; y para cada uno de la pluralidad de usuarios espectadores autentificados:
determinar una ubicación, dentro del entorno (1301) virtual, de un sustituto correspondiente para ese usuario espectador,
mapear ese usuario espectador a una de la pluralidad de cámaras (203) con base en la ubicación determinada del sustituto correspondiente y con base en la ubicación asociada de cada cámara,
reproducir en tiempo real un flujo (701) de vídeo que represente gráficamente el entorno (1301) virtual con base en la ubicación del sustituto correspondiente dentro del entorno (1301) virtual e incorporar una transmisión de vídeo desde la cámara mapeada, y
suministrar el flujo (701) de vídeo a un dispositivo (213) desde el cual el usuario espectador fue autentificado para acceder al entorno (1301) virtual.
9. El método de la reivindicación 8, en donde la pluralidad de cámaras (203) están sustancialmente en el mismo plano que la pantalla (207) de visualización.
10. El método de la reivindicación 8, en donde cada cámara comprende una luz, y en donde el método comprende además:
recibir primera entrada que identifica a un usuario espectador particular;
determinar la cámara particular de la pluralidad de cámaras (203) a las cuales se mapea el usuario espectador; y encender la luz en la cámara particular en respuesta a las etapas de recepción y determinación.
11. El método de la reivindicación 10, que comprende además:
recibir segunda entrada que indica que ha finalizado una interacción con el usuario espectador; y
apagar la luz en la cámara particular en respuesta a la segunda etapa de entrada de recepción.
12. El método de la reivindicación 8, en donde la ubicación correspondiente de cada cámara comprende uno o más de un punto discreto, un área bidimensional, o una región tridimensional dentro del entorno (1301) virtual.
13. El método de la reivindicación 8, en donde mapear cada usuario espectador a una de la pluralidad de cámaras (203) comprende seleccionar una cámara asociada con una ubicación más cercana al sustituto correspondiente del usuario espectador dentro del entorno (1301) virtual.
14. El método de la reivindicación 8, que comprende además:
monitorizar la ubicación de cada sustituto dentro del entorno virtual; y
cuando cualquier sustituto se ha movido más de una cantidad predeterminada dentro del entorno virtual, remapear el usuario espectador que corresponde a ese sustituto a una de la pluralidad de cámaras (203) con base en una nueva ubicación del sustituto correspondiente y con base en la ubicación asociada de cada cámara.
15. Uno o más medios legibles por ordenador no transitorios que almacenan instrucciones ejecutables por ordenador que, cuando son ejecutadas, configuran un sistema (109) híbrido de producción de eventos para realizar el método de cualquiera de las reivindicaciones 8 a 14.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/995,489 US11070849B2 (en) | 2020-08-17 | 2020-08-17 | Event production and distribution networks, systems, apparatuses, and methods related thereto |
US17/082,572 US11985360B2 (en) | 2020-08-17 | 2020-10-28 | Immersive event production and distribution |
PCT/US2021/046082 WO2022040061A1 (en) | 2020-08-17 | 2021-08-16 | Immersive event production and distribution |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2950239T3 true ES2950239T3 (es) | 2023-10-06 |
Family
ID=74039031
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES21766333T Active ES2950239T3 (es) | 2020-08-17 | 2021-08-16 | Producción y distribución de eventos inmersivos |
Country Status (4)
Country | Link |
---|---|
US (3) | US11070849B2 (es) |
EP (1) | EP4000249B1 (es) |
ES (1) | ES2950239T3 (es) |
WO (1) | WO2022040061A1 (es) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11070849B2 (en) | 2020-08-17 | 2021-07-20 | Zoltan Bathory | Event production and distribution networks, systems, apparatuses, and methods related thereto |
US20220070237A1 (en) * | 2020-08-28 | 2022-03-03 | Tmrw Foundation Ip S. À R.L. | System and method for virtually broadcasting from within a virtual environment |
US12034785B2 (en) | 2020-08-28 | 2024-07-09 | Tmrw Foundation Ip S.Àr.L. | System and method enabling interactions in virtual environments with virtual presence |
US12107907B2 (en) * | 2020-08-28 | 2024-10-01 | Tmrw Foundation Ip S.Àr.L. | System and method enabling interactions in virtual environments with virtual presence |
US11341689B1 (en) * | 2020-11-05 | 2022-05-24 | International Business Machines Corporation | Dynamic virtual audience generation |
US11420125B2 (en) * | 2020-11-30 | 2022-08-23 | Sony Interactive Entertainment Inc. | Clustering audience based on expressions captured from different spectators of the audience |
US11871046B2 (en) * | 2020-12-26 | 2024-01-09 | Sandrell Nichole Ross | Method and system for production and presentation of live performance with virtual venue to plurality of remote audience devices by cloud-based interactive video communications |
US20220239969A1 (en) * | 2021-01-22 | 2022-07-28 | Kiswe Mobile Inc. | Methods and apparatus for live text-based conversation between small and large groups |
JP7425758B2 (ja) * | 2021-02-12 | 2024-01-31 | 株式会社スクウェア・エニックス | イベント提供プログラム、イベント提供システムおよびイベント提供方法 |
JP2022149193A (ja) * | 2021-03-25 | 2022-10-06 | 株式会社Jvcケンウッド | 配信システム |
US11665373B2 (en) * | 2021-04-15 | 2023-05-30 | International Business Machines Corporation | Virtual spectator experience for live events |
EP4373069A4 (en) * | 2021-07-15 | 2024-10-09 | Sony Group Corp | INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND PROGRAM |
US20230177416A1 (en) * | 2021-12-02 | 2023-06-08 | At&T Intellectual Property I, L.P. | Participant attendance management at events including virtual reality events |
CN114979746B (zh) * | 2022-05-13 | 2024-03-12 | 北京字跳网络技术有限公司 | 一种视频处理方法、装置、设备及存储介质 |
US20240232732A9 (en) * | 2022-09-26 | 2024-07-11 | PreTechnology, Inc. | VR Simultaneous (Twin) Screening linked to Real World Screening Ticketing and Viewing Process |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6738059B1 (en) * | 1998-12-18 | 2004-05-18 | Kabushiki Kaisha Sega Enterprises | Apparatus and methods for image processing using mixed display objects |
AU6171200A (en) | 1999-08-10 | 2001-03-05 | Peter Mcduffie White | Communications system |
US20030233540A1 (en) * | 2002-06-13 | 2003-12-18 | International Business Machines Corporation | System and method for secured delivery of content stream across multiple channels |
US20100015373A1 (en) | 2007-03-21 | 2010-01-21 | Chiang-Chuan Lin | Inflatable structure |
GB0804274D0 (en) | 2008-03-07 | 2008-04-16 | Virtually Live Ltd | A media sysyem and method |
US9576330B2 (en) | 2008-03-07 | 2017-02-21 | Virtually Live (Switzerland) Gmbh | Media system and method |
US9131316B2 (en) * | 2008-12-11 | 2015-09-08 | Qualcomm Incorporated | Sharing public addressing system using personal communication devices in an ad-hoc network |
US20150177256A1 (en) * | 2013-12-23 | 2015-06-25 | Cilag Gmbh International | Test strip sample application video system |
US9591336B2 (en) | 2014-07-11 | 2017-03-07 | ProSports Technologies, LLC | Camera feed distribution from event venue virtual seat cameras |
US10257490B2 (en) * | 2016-04-28 | 2019-04-09 | Verizon Patent And Licensing Inc. | Methods and systems for creating and providing a real-time volumetric representation of a real-world event |
US10182210B1 (en) * | 2016-12-15 | 2019-01-15 | Steelcase Inc. | Systems and methods for implementing augmented reality and/or virtual reality |
US11579744B2 (en) * | 2017-06-21 | 2023-02-14 | Navitaire Llc | Systems and methods for seat selection in virtual reality |
US10341537B2 (en) * | 2017-09-29 | 2019-07-02 | Sony Interactive Entertainment America Llc | Spectator view into an interactive gaming world showcased in a live event held in a real-world venue |
US10621784B2 (en) | 2017-09-29 | 2020-04-14 | Sony Interactive Entertainment America Llc | Venue mapping for virtual reality spectating of live events |
JP7329522B2 (ja) | 2018-01-19 | 2023-08-18 | イー・エス・ビー ラブス インコーポレイテッド | 仮想インタラクティブ視聴者インタフェース |
US11508128B2 (en) * | 2018-09-21 | 2022-11-22 | New York University | Shared room scale virtual and mixed reality storytelling for a multi-person audience that may be physically co-located |
US11070849B2 (en) | 2020-08-17 | 2021-07-20 | Zoltan Bathory | Event production and distribution networks, systems, apparatuses, and methods related thereto |
-
2020
- 2020-08-17 US US16/995,489 patent/US11070849B2/en active Active
- 2020-10-28 US US17/082,572 patent/US11985360B2/en active Active
-
2021
- 2021-06-03 US US17/338,090 patent/US11812070B2/en active Active
- 2021-08-16 EP EP21766333.5A patent/EP4000249B1/en active Active
- 2021-08-16 ES ES21766333T patent/ES2950239T3/es active Active
- 2021-08-16 WO PCT/US2021/046082 patent/WO2022040061A1/en unknown
Also Published As
Publication number | Publication date |
---|---|
US11985360B2 (en) | 2024-05-14 |
US20200404344A1 (en) | 2020-12-24 |
EP4000249B1 (en) | 2023-06-07 |
US11070849B2 (en) | 2021-07-20 |
US20220053220A1 (en) | 2022-02-17 |
US11812070B2 (en) | 2023-11-07 |
EP4000249A1 (en) | 2022-05-25 |
EP4000249C0 (en) | 2023-06-07 |
WO2022040061A1 (en) | 2022-02-24 |
US20220053219A1 (en) | 2022-02-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2950239T3 (es) | Producción y distribución de eventos inmersivos | |
US11218522B1 (en) | Data processing system and method using hybrid system architecture for image processing tasks | |
Wheatley | Spectacular television: exploring televisual pleasure | |
Prince | Digital visual effects in cinema: The seduction of reality | |
US10613699B2 (en) | Multi-view display cueing, prompting, and previewing | |
US9849399B2 (en) | Background imagery for enhanced pepper's ghost illusion | |
US20210287416A1 (en) | Methods and Systems for Creating an Immersive Character Interaction Experience | |
US11843897B1 (en) | Method of using online, real-time, interactive, multiplane camera view to enhance videoconferencing platforms | |
GB2450757A (en) | Avatar customisation, transmission and reception | |
US11562531B1 (en) | Cascading shadow maps in areas of a three-dimensional environment | |
US11770252B2 (en) | System and method for generating a pepper's ghost artifice in a virtual three-dimensional environment | |
US11593989B1 (en) | Efficient shadows for alpha-mapped models | |
US11956571B2 (en) | Scene freezing and unfreezing | |
US20240037837A1 (en) | Automatic graphics quality downgrading in a three-dimensional virtual environment | |
US11704864B1 (en) | Static rendering for a combination of background and foreground objects | |
US11711494B1 (en) | Automatic instancing for efficient rendering of three-dimensional virtual environment | |
Gochfeld et al. | A Tale of Two Productions: A Christmas Carol On Stage and in VR | |
Leopardi et al. | A New paradigm for the enjoyment and exploitation of cultural heritage based on spatial augmented reality: the case of the ducal palace of Urbino | |
Williamson et al. | Sunken ripples: exploring performative interactions with non-planar displays | |
Jin et al. | Immersive Storytelling in Augmented Reality: Witnessing the Kindertransport | |
Murao | Designing Immersive Art Experience-an exploration of visuals and sounds | |
Trammell | “I pray we won’t let this moment pass us by”: Christian concert films and numinous experiences | |
Kendal et al. | How artists can develop their artwork, its market and deliver their creative content for virtual reality environments? | |
US11776203B1 (en) | Volumetric scattering effect in a three-dimensional virtual environment with navigable video avatars | |
US11682164B1 (en) | Sampling shadow maps at an offset |