WO2020183630A1 - ライブ配信システムおよびライブ配信方法 - Google Patents

ライブ配信システムおよびライブ配信方法 Download PDF

Info

Publication number
WO2020183630A1
WO2020183630A1 PCT/JP2019/010165 JP2019010165W WO2020183630A1 WO 2020183630 A1 WO2020183630 A1 WO 2020183630A1 JP 2019010165 W JP2019010165 W JP 2019010165W WO 2020183630 A1 WO2020183630 A1 WO 2020183630A1
Authority
WO
WIPO (PCT)
Prior art keywords
live
venue
effect
participants
reaction
Prior art date
Application number
PCT/JP2019/010165
Other languages
English (en)
French (fr)
Inventor
範和 林
Original Assignee
バルス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by バルス株式会社 filed Critical バルス株式会社
Priority to CN201980093949.1A priority Critical patent/CN113767643B/zh
Priority to EP19918676.8A priority patent/EP3941080A4/en
Priority to JP2021504695A priority patent/JPWO2020183630A1/ja
Priority to PCT/JP2019/010165 priority patent/WO2020183630A1/ja
Priority to KR1020217029116A priority patent/KR102625902B1/ko
Priority to US17/438,590 priority patent/US20220132224A1/en
Publication of WO2020183630A1 publication Critical patent/WO2020183630A1/ja
Priority to JP2022130925A priority patent/JP7188831B2/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/101Collaborative creation, e.g. joint development of products or services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23418Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/2668Creating a channel for a dedicated end-user group, e.g. insertion of targeted commercials based on end-user profiles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4131Peripherals receiving signals from specially adapted client devices home appliance, e.g. lighting, air conditioning system, metering devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41415Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance involving a public display, viewable by several users in a public space outside their home, e.g. movie theatre, information kiosk
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42202Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] environmental sensors, e.g. for detecting temperature, luminosity, pressure, earthquakes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44222Analytics of user selections, e.g. selection of programs or purchase activity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability

Definitions

  • the present invention relates to a live distribution system and a live distribution method, and particularly to simultaneous live distribution to a plurality of live venues at different locations.
  • Patent Document 1 discloses an event production system that outputs a predetermined effect to a video display device that displays a concert image of a singer or a character while users cooperate with each other or compete with each other.
  • This event effect system includes an effect control subsystem, a user terminal, and a video display device.
  • the production control subsystem controls the production of the event venue.
  • the user terminal is connected to the effect control subsystem via a communication network.
  • the image display device is provided at the event venue and displays the image of the effect of the effect by the effect control subsystem.
  • the effect is selected by using the points generated by the various operations of the user at the event venue, and this is combined with the video data. For example, as a layer behind the image sung by the character, an action such as disappearing after displaying a comment is added, and the event is excited through such an effect.
  • the degree of excitement (heat-up) of the participants varies from live venue to live venue, so the same production effect is uniformly performed at all live venues.
  • participants may feel uncomfortable.
  • a live venue with a high effect of enlivening the participants is preferable in a live venue that is already sufficiently lively, but is not preferable in a live venue that lacks excitement. In such a live venue, it is easier to get an immersive feeling for the participants if the production effect is rather modest.
  • the present invention has been made in view of such circumstances, and an object of the present invention is to enhance the immersive feeling of all participants in a plurality of live venues where live distribution is performed all at once.
  • the first invention provides a live distribution system having a reaction collecting unit and a production effect control unit, and simultaneously performing live distribution to a plurality of live venues at different locations. ..
  • the reaction collection unit collects the reactions of participants at the live venue in real time from the detection equipment in the live venue for each live venue.
  • the production effect control unit individually determines the production effect to be produced at the live venue for each live venue based on the reactions of the participants at each live venue collected by the reaction collection unit.
  • the effect control unit may generate an effect image for each live venue as the effect, and deliver the live image in which the image effect image is synthesized to the live venue. .. Further, the effect control unit may determine the effect sound for each live venue as the effect and instruct the audio equipment on the live venue side. Further, the effect control unit may determine the effect lighting for each live venue as the effect and instruct the lighting equipment on the live venue side.
  • the detection device is a plurality of mobile terminals owned by the participants in the live venue, and the reaction of the participants is the number of user operations of the participants with respect to the plurality of mobile terminals.
  • the detection device may be a camera installed at each live venue, and the reaction of the participants may be a movement in an image acquired by the camera.
  • the detection device may be a microphone installed in each live venue, and the reaction of the participant may be a sound acquired by the microphone.
  • the detection device may be a temperature sensor installed at each live venue, and the reaction of the participants may be a change in temperature acquired by the temperature sensor.
  • the second invention provides a live distribution method for simultaneously performing live distribution to a plurality of live venues at different locations.
  • a live image of a virtual character is generated by converting the movement of the performer into the movement of the virtual character.
  • the reaction of the participants who watch the live video at the live venue is collected in real time for each live venue from the detection device on the live venue side.
  • the effect to be produced at the live venue is determined for each live venue based on the collected reactions of the participants at each live venue.
  • a production effect video is generated for each live venue based on the determined production effect for each live venue.
  • the generated live video is combined with the generated effect video for each live venue.
  • the live video for each live venue, in which the production effect video is synthesized is distributed to the live venue.
  • the effect to be produced at the live venue is determined individually for each live venue according to the reaction of the participants at each live venue, thereby producing an effect suitable for each live venue. Execute. As a result, it is possible to effectively enhance the immersive feeling of all the participants in the simultaneous live distribution without giving a sense of discomfort to the participants of a specific live venue.
  • Block diagram of the virtual live system according to this embodiment Diagram showing an example of live video Diagram showing an example of production effect video Diagram showing an example of a composite video
  • FIG. 1 is a block diagram of a virtual live system according to this embodiment.
  • This virtual live system is mainly composed of a live distribution system 1 that is network-connected to a plurality of live venues A to C at different locations, and a virtual character (a group of characters) is provided for the live venues A to C.
  • Live video of songs and dances will be distributed all at once.
  • live performances by virtual characters can be held simultaneously at many venues.
  • "live venue” broadly includes a place where simultaneous live distribution such as video distribution, VR distribution (VR; virtual reality), AR distribution (AR; Augmented Reality) is performed, and actually exists. Not only venues but also online venues (regardless of the number of participants) are included.
  • the live distribution system 1 has a motion analysis unit 2, a live video generation unit 3, an effect effect control unit 4, and a reaction collection unit 5.
  • the motion analysis unit 2 analyzes the movement of the performer and converts it into data based on the outputs of a large number of motion sensors attached to the performer (actor) who plays the movement of the character.
  • the live image generation unit 3 generates an animated live image related to the virtual character, for example, as shown in FIG. 2, by converting the digitized movement of the performer into the movement of the virtual character.
  • This live video is simultaneously distributed to live venues A to C via a network such as the Internet.
  • Each live venue A to C has an output device 6 and a detection device 7.
  • the output device 6 includes a display device 6a such as a projector that projects an image on a screen, an audio device 6b that mainly consists of a speaker, and a lighting device 5c that emits a light, a laser beam, or the like.
  • the display device 5a is controlled by the video control unit 5a
  • the audio equipment 6b is controlled by the audio control unit 5b
  • the lighting equipment 6c is individually controlled by the lighting control unit 5c for each live venue.
  • the detection device 7 directly or indirectly detects the reaction of a participant who watches a live video at a specific live venue.
  • the detection device 7 includes a mobile terminal 7a possessed by the participant, a camera 7b that gives a bird's-eye view of all the participants in the live venue, and a microphone 7c that collects the voices of all the participants in the live venue.
  • a temperature sensor 7d that detects the temperature in the live venue is assumed, and at least one of these is used.
  • the reaction of the participant is detected and estimated based on the number of predetermined user operations (for example, the number of taps) on the mobile terminal 7a. can do.
  • the participant taps at high speed on the application of the mobile terminal 7a in order to support the favorite character (the number of taps indicates the degree of support). .. Therefore, it can be considered that the larger the total number of taps by the participants, the more exciting the live venue is, that is, the higher the reaction of the participants.
  • the reaction of the participants can be detected and estimated based on the movement in the image captured by the camera 7b.
  • the more exciting the live venue the greater the movement of people and the movement of bright spots derived from penlights. Therefore, by monitoring the images captured by the camera 7b in chronological order, it can be considered that the larger the movement (for example, optical flow) in the image, the more exciting the live venue, that is, the higher the reaction of the participants. it can.
  • the temperature sensor 7d installed in the live venue When the temperature sensor 7d installed in the live venue is used as the detection device 7, the reaction of the participants can be detected and estimated based on the temperature change detected by the temperature sensor 7d.
  • the live distribution system 1 controls the detection effect for each live venue according to the reaction of the participants for each live venue detected by the detection devices 7 on the live venues A to C sides.
  • the reaction collecting unit 4 collects the reactions of the participants who watch the live video at the live venues A to C from the detection devices 7 in the live venues A to C in real time for each live venue. ..
  • the effect control unit 5 determines the effect to be produced in the live venues A to C for each live venue based on the reactions of the participants in each live venue collected by the reaction collection unit 4.
  • a video control unit 5a, an acoustic control unit 5b, and a lighting control unit 5c are provided.
  • the video control unit 5a generates a production effect video for each live venue as a production effect, and distributes the live video in which the video effect video is individually synthesized to the live venues A to C.
  • FIG. 3 shows a shooting star added as a background layer of a live image as an example of a production effect image. The number of shooting stars per unit time is determined for each live venue according to the reaction of the participants at each of the live venues A to C, and increases as the reaction of the participants increases.
  • FIG. 4 is a diagram showing an example of a composite video in which a shooting star effect video is combined with a live video. At the live venue A, where the participants are highly responsive, the number of shooting stars in the composite image is large, which makes it possible to produce a production suitable for the very exciting participants.
  • the number of shooting stars in the composite image is normal, so that the participants who are normally excited will not feel uncomfortable, and the corresponding production will be performed.
  • the number of shooting stars in the composite image is small, so that the participants who lack excitement do not feel uncomfortable, and the corresponding production is performed.
  • the effect video to be combined with the live video is not limited to shooting stars, and various known videos can be used arbitrarily.
  • the magnitude and momentum of the flame may be variably controlled according to the reaction of the participants.
  • the effect images do not have to be of the same type, and different types of effect images may be added according to the reaction of the participants.
  • the effect of the effect by the image control unit 5a not only the effect image as the background may be added, but also the character itself of the live image may be changed, for example, by changing the amount of sweat of the character.
  • the acoustic control unit 5b determines the production effect sound for each live venue as the production effect, and individually instructs the audio equipment 6b on the live venue side to execute the effect. For example, the higher the reaction of the participants, the louder the volume or the number of sound sources.
  • the lighting control unit 4c determines the effect lighting for each live venue as the effect, and individually instructs the lighting device 6c on the live venue side. For example, the higher the reaction of the participants, the more the number of emitted lights, the shorter the interval between flashes, the more the number of laser beams, and so on.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Strategic Management (AREA)
  • Databases & Information Systems (AREA)
  • Human Resources & Organizations (AREA)
  • Social Psychology (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Tourism & Hospitality (AREA)
  • Entrepreneurship & Innovation (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Development Economics (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Primary Health Care (AREA)
  • Computer Security & Cryptography (AREA)
  • Environmental Sciences (AREA)
  • Ecology (AREA)
  • Remote Sensing (AREA)
  • General Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Environmental & Geological Engineering (AREA)
  • Emergency Management (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Game Theory and Decision Science (AREA)
  • Data Mining & Analysis (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Computing Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

ライブ映像が一斉配信される複数のライブ会場において、参加者全体の没入感を高める。ライブ配信システム1は、反応収集部4と、演出効果制御部5とを有し、場所が異なる複数のライブ会場A~Cに対して、ライブ映像を一斉に配信する。反応収集部4は、ライブ映像をライブ会場A~Cで視聴する参加者の反応を、ライブ会場内の検出機器7から、ライブ会場毎にリアルタイムで収集する。演出効果制御部5は、反応収集部4によって収集されたライブ会場毎の参加者の反応に基づいて、ライブ会場A~Cにおいて演出すべき演出効果をライブ会場毎に決定する。

Description

ライブ配信システムおよびライブ配信方法
 本発明は、ライブ配信システムおよびライブ配信方法に係り、特に、場所が異なる複数のライブ会場に対する一斉ライブ配信に関する。
 例えば、特許文献1には、ユーザたちが互いに協力し、または、互いに競い合いなどしながら、歌手やキャラクターのコンサートの映像が表示される映像表示装置に所定の演出効果を出力するイベント演出システムが開示されている。このイベント演出システムは、演出制御サブシステムと、ユーザ端末と、映像表示装置とを有する。演出制御サブシステムは、イベント会場の演出制御を行う。ユーザ端末は、演出制御サブシステムと通信ネットワークを介して接続されている。映像表示装置は、イベント会場に設けられており、演出制御サブシステムによる演出効果の映像を表示する。ここで、演出効果は、イベント会場におけるユーザの各種作業によって発生したポイントを使用することで選定され、これが映像データに合成される。例えば、キャラクターが歌う映像の背後のレイヤーとして、コメントを表示した後に消滅するといった動作が付加され、このような演出効果を通じて、イベントが盛り上げられる。
特開2017-151978号公報
 ところで、場所が異なる複数のライブ会場に対するライブ配信を一斉に行う場合、参加者の盛り上がり(ヒートアップ)の程度はライブ会場毎に異なることから、すべてのライブ会場で同一の演出効果を一律に行うと、会場によっては参加者に違和感を与えるおそれがある。例えば、参加者を一層盛り上げるような演出効果の高いものは、既に十分に盛り上がっているライブ会場では好ましいが、それよりも盛り上がりに欠けるライブ会場では好ましくない。そのようなライブ会場では、むしろ演出効果を控えめにした方が、そこの参加者にとっての没入感が得られ易い。
 本発明は、かかる事情に鑑みてなされたものであり、その目的は、ライブ配信が一斉に行われる複数のライブ会場において、参加者全員の没入感を高めることである。
 かかる課題を解決すべく、第1の発明は、反応収集部と、演出効果制御部とを有し、場所が異なる複数のライブ会場に対して、ライブ配信を一斉に行うライブ配信システムを提供する。反応収集部は、ライブ会場における参加者の反応を、ライブ会場内の検出機器から、ライブ会場毎にリアルタイムで収集する。演出効果制御部は、反応収集部によって収集されたライブ会場毎の参加者の反応に基づいて、ライブ会場において演出すべき演出効果をライブ会場毎に個別に決定する。
 ここで、第1の発明において、上記演出効果制御部は、上記演出効果として、ライブ会場毎の演出効果映像を生成し、映像効果映像が合成されたライブ映像をライブ会場に配信してもよい。また、上記演出効果制御部は、上記演出効果として、ライブ会場毎の演出効果音響を決定し、ライブ会場側の音響機器に指示してもよい。さらに、上記演出効果制御部は、上記演出効果として、ライブ会場毎の演出効果照明を決定し、ライブ会場側の照明機器に指示してもよい。
 第1の発明において、上記検出機器は、ライブ会場における参加者が所有する複数の携帯端末であって、上記参加者の反応は、複数の携帯端末に対する参加者のユーザ操作の数であってもよい。また、上記検出機器は、それぞれのライブ会場に設置されたカメラであって、上記参加者の反応は、カメラによって取得された画像中の動きであってもよい。また、上記検出機器は、それぞれのライブ会場に設置されたマイクであって、上記参加者の反応は、マイクによって取得された音であってもよい。さらに、上記検出機器は、それぞれのライブ会場に設置された温度センサであって、上記参加者の反応は、温度センサによって取得された温度の変化であってもよい。
 第2の発明は、場所が異なる複数のライブ会場に対して、ライブ配信を一斉に行うライブ配信方法を提供する。このライブ配信方法において、第1のステップでは、演者の動きを仮想的なキャラクターの動きに変換することによって、仮想的なキャラクターのライブ映像を生成する。第2のステップでは、ライブ映像をライブ会場で視聴する参加者の反応を、ライブ会場側の検出機器から、ライブ会場毎にリアルタイムで収集する。第3のステップでは、収集されたライブ会場毎の参加者の反応に基づいて、ライブ会場において演出すべき演出効果をライブ会場毎に決定する。第4のステップでは、決定されたライブ会場毎の演出効果に基づいて、演出効果映像をライブ会場毎に生成する。第5のステップでは、生成されたライブ映像に、生成されたライブ会場毎の演出効果映像を合成する。第6のステップでは、演出効果映像が合成されたライブ会場毎のライブ映像を、ライブ会場に配信する。
 本発明によれば、ライブ会場で演出すべき演出効果を、それぞれのライブ会場における参加者の反応に応じて、ライブ会場毎に個別に決定することで、それぞれのライブ会場に適した演出効果を実行する。これにより、特定のライブ会場の参加者に違和感を与えることなく、一斉ライブ配信における参加者全員の没入感を効果的に高めることができる。
本実施形態に係る仮想ライブシステムのブロック図 ライブ映像の一例を示す図 演出効果映像の一例を示す図 合成映像の一例を示す図
 図1は、本実施形態に係る仮想ライブシステムのブロック図である。この仮想ライブシステムは、場所が異なる複数のライブ会場A~Cにネットワーク接続されたライブ配信システム1を主体に構成されており、ライブ会場A~Cに対して、仮想的なキャラクター(キャラクターのグループを含む。)の歌や踊りを映像化したライブ映像を一斉に配信する。これにより、多くの会場において、仮想的なキャラクターによるライブの同時開催が実現される。なお、本明細書において、「ライブ会場」とは、動画配信、VR配信(VR;virtual reality)、AR配信(AR;Augmented Reality)などの一斉ライブ配信が行われる場所を広く包含し、実在する会場のみならず、オンライン上の会場(参加人数は問わない。)も含まれる。
 ライブ配信システム1は、モーション解析部2と、ライブ映像生成部3と、演出効果制御部4と、反応収集部5とを有する。モーション解析部2は、キャラクターの動きを演じる演者(アクター)に取り付けられた多数のモーションセンサの出力に基づいて、演者の動きを解析してデータ化する。ライブ映像生成部3は、データ化された演者の動きを仮想的なキャラクターの動きに変換することによって、例えば図2に示すような、仮想的なキャラクターに関するアニメ化されたライブ映像を生成する。このライブ映像は、インターネットなどのネットワークを介して、ライブ会場A~Cに同時配信される。
 それぞれのライブ会場A~Cは、出力機器6と、検出機器7とを有している。出力機器6には、スクリーンに映像を投射するプロジェクタなどの表示装置6aと、スピーカを主体とした音響機器6bと、ライトやレーザビームなどを発する照明機器5cとが存在する。表示装置5aは、映像制御部5aによって制御され、音響機器6bは、音響制御部5bによって制御され、照明機器6cは、照明制御部5cによってライブ会場毎に個別に制御される。
 検出機器7は、特定のライブ会場においてライブ映像を視聴する参加者の反応を直接的または間接的に検出する。本実施形態において、検出機器7としては、参加者が所持している携帯端末7a、ライブ会場内における参加者全体を俯瞰したカメラ7b、ライブ会場内における参加者全体の声を集音するマイク7c、ライブ会場内の温度を検出する温度センサ7dが想定され、これらの内の少なくとも一つが用いられる。
 検出機器7として、参加者が保持しているスマートフォンなどの携帯端末7aを用いる場合、携帯端末7aにおける所定のユーザ操作の数(例えば、タップ数)に基づいて、参加者の反応を検出・推定することができる。仮想ライブでは、キャラクターからの要求があった場合、参加者は、好きなキャラクターを応援すべく、携帯端末7aのアプリ上でタップを高速で行う(タップ数の大小は応援の程度を示す。)。したがって、参加者によるタップの総数が多いほど、ライブ会場が盛り上がっている、すなわち、参加者の反応が高いとみなすことができる。
 検出機器7として、ライブ会場に設置されたカメラ7bを用いる場合、カメラ7bによって撮像された画像中の動きに基づいて、参加者の反応を検出・推定することができる。一般に、ライブ会場が盛り上がるほど、人々の動きや、ペンライトに由来した輝点の動きが大きくなる傾向がある。そこで、カメラ7bによって撮像された画像の時系列的にモニタリングして、画像中の動き(例えばオプティカルフロー)が大きくなるほど、ライブ会場が盛り上がっている、すなわち、参加者の反応が高いとみなすことができる。
 検出機器7として、ライブ会場に設置されたマイク7cを用いる場合、マイク7cによって取得された音の大小に基づいて、参加者の反応を検出・推定することができる。仮想ライブでは、キャラクターからの要求があった場合、参加者は大きな声で声援を送る。したがって、参加者による声援の音量が大きいほど、ライブ会場が盛り上がっている、すなわち、参加者の反応が高いとみなすことができる。
 検出機器7として、ライブ会場に設置された温度センサ7dを用いる場合、温度センサ7dによって検出された温度変化に基づいて、参加者の反応を検出・推定することができる。ライブ会場が盛り上がるほど、ライブ会場が熱気で包まれ、室温が上昇する。そこで、温度センサ7dによって室温の上昇をモニタリングして、温度上昇の度合いが大きくなるほど、ライブ会場が盛り上がっている、すなわち、参加者の反応が高いとみなすことができる。
 ライブ配信システム1は、ライブ会場A~C側の検出機器7によって検出されたライブ会場毎の参加者の反応に応じて、ライブ会場毎に検出効果を制御する。具体的には、反応収集部4は、ライブ会場A~Cにおいてライブ映像を視聴する参加者の反応を、それぞれのライブ会場A~C内の検出機器7から、ライブ会場毎にリアルタイムで収集する。演出効果制御部5は、反応収集部4によって収集されたライブ会場毎の参加者の反応に基づいて、ライブ会場A~Cにおいて演出すべき演出効果をライブ会場毎に決定する。演出効果制御部5としては、映像制御部5a、音響制御部5b、および、照明制御部5cが設けられている。
 映像制御部5aは、演出効果として、ライブ会場毎の演出効果映像を生成し、映像効果映像を個別に合成したライブ映像をライブ会場A~Cに配信する。図3は、演出効果映像の一例として、ライブ映像の背景レイヤーとして付加される流れ星を示す。単位時間当たりの流れ星の個数は、それぞれのライブ会場A~Cにおける参加者の反応に応じてライブ会場毎に決定され、参加者の反応が高くなるほど多くなる。図4は、ライブ映像に流れ星の演出効果映像が合成された合成映像の一例を示す図である。参加者の反応が高いライブ会場Aについては、合成画像における流れ星の数が多く、これによって、非常に盛り上がっている参加者に適した演出が行われる。参加者の反応が中程度のライブ会場Bについては、合成画像における流れ星の数が普通であり、これによって、普通に盛り上がっている参加者に違和感を与えることなく、それ相応の演出が行われる。参加者の反応が低いライブ会場Cについては、合成画像における流れ星の数が少なく、これによって、盛り上がりに欠ける参加者に違和感を与えることなく、それ相応の演出が行われる。
 なお、ライブ映像に合成する演出効果映像は、流れ星に限定されるものではなく、既知の様々な映像を任意に用いることができる。例えば、演出効果映像として燃え上がる炎を用いる場合、参加者の反応に応じて、炎の大小や勢いを可変に制御してもよい。また、演出効果映像は、同種のものである必要はなく、参加者の反応に応じて異なる種類の演出効果映像を付加してもよい。さらに、映像制御部5aによる演出効果としては、背景としての演出効果映像の付加のみならず、例えば、キャラクターの汗の量を変えるといった如く、ライブ映像のキャラクター自体に変化を付けてもよい。
 音響制御部5bは、演出効果として、ライブ会場毎の演出効果音響を決定し、その実行をライブ会場側の音響機器6bに個別に指示する。例えば、参加者の反応が高くなるほど、音量を大きくしたり、音源の数を増やしたりするといった如くである。
 照明制御部4cは、演出効果として、ライブ会場毎の演出効果照明を決定し、ライブ会場側の照明機器6cに個別に指示する。例えば、参加者の反応が高くなるほど、ライトの発光数を増やしたり、フラッシュの間隔を短くしたり、レーザビームの本数を増やすといった如くである。
 このように、本実施形態によれば、ライブ会場で演出すべき演出効果を、それぞれのライブ会場における参加者の反応、換言すれば、ライブ会場における盛り上がりの程度に応じて、ライブ会場毎に個別に決定する。これにより、それぞれのライブ会場に適した演出効果を実行する。その結果、特定のライブ会場の参加者に違和感を与えることなく、ライ配信が一斉に行われるすべてのライブ会場において、参加者全員の没入感を効果的に高めることができる。
 1 ライブ配信システム
 2 モーション解析部
 3 ライブ映像生成部
 4 反応収集部
 5 演出効果制御部
 5a 映像制御部
 5b 音響制御部
 5c 照明制御部
 6 出力機器
 6a 表示機器
 6b 音響機器
 6c 照明機器
 7 検出機器
 7a 携帯端末
 7b カメラ
 7c マイク
 7d 温度センサ

 

Claims (9)

  1.  場所が異なる複数のライブ会場に対して、ライブ配信を一斉に行うライブ配信システムにおいて、
     ライブ会場における参加者の反応を、ライブ会場内の検出機器から、ライブ会場毎にリアルタイムで収集する反応収集部と、
     前記反応収集部によって収集されたライブ会場毎の参加者の反応に基づいて、ライブ会場において演出すべき演出効果をライブ会場毎に個別に決定する演出効果制御部と
    を有することを特徴とするライブ配信システム。
  2.  前記演出効果制御部は、前記演出効果として、ライブ会場毎の演出効果映像を生成し、前記映像効果映像が合成されたライブ映像をライブ会場に配信することを特徴とする請求項1に記載されたライブ配信システム。
  3.  前記演出効果制御部は、前記演出効果として、ライブ会場毎の演出効果音響を決定し、ライブ会場側の音響機器に指示することを特徴とする請求項1に記載されたライブ配信システム。
  4.  前記演出効果制御部は、前記演出効果として、ライブ会場毎の演出効果照明を決定し、ライブ会場側の照明機器に指示することを特徴とする請求項1に記載されたライブ配信システム。
  5.  前記検出機器は、ライブ会場における参加者が所有する複数の携帯端末であって、
     前記参加者の反応は、前記複数の携帯端末に対する参加者のユーザ操作の数であることを特徴とする請求項1から4のいずれかに記載されたライブ配信システム。
  6.  前記検出機器は、それぞれのライブ会場に設置されたカメラであって、
     前記参加者の反応は、前記カメラによって取得された画像中の動きであることを特徴とする請求項1から4のいずれかに記載されたライブ配信システム。
  7.  前記検出機器は、それぞれのライブ会場に設置されたマイクであって、
     前記参加者の反応は、前記マイクによって取得された音であることを特徴とする請求項1から4のいずれかに記載されたライブ配信システム。
  8.  前記検出機器は、それぞれのライブ会場に設置された温度センサであって、
     前記参加者の反応は、前記温度センサによって取得された温度の変化であることを特徴とする請求項1から4のいずれかに記載されたライブ配信システム。
  9.  場所が異なる複数のライブ会場に対して、ライブ配信を一斉に行うライブ配信方法において、
     演者の動きを仮想的なキャラクターの動きに変換することによって、仮想的なキャラクターのライブ映像を生成する第1のステップと、
     ライブ映像をライブ会場で視聴する参加者の反応を、ライブ会場側の検出機器から、ライブ会場毎にリアルタイムで収集する第2のステップと、
     前記収集されたライブ会場毎の参加者の反応に基づいて、ライブ会場において演出すべき演出効果をライブ会場毎に決定する第3のステップと、
     前記決定されたライブ会場毎の演出効果に基づいて、演出効果映像をライブ会場毎に生成する第4のステップと、
     前記生成されたライブ映像に、前記生成されたライブ会場毎の演出効果映像を合成する第5のステップと、
     前記演出効果映像が合成されたライブ会場毎のライブ映像を、ライブ会場に配信する第6のステップと
    を有することを特徴とするライブ配信方法。
PCT/JP2019/010165 2019-03-13 2019-03-13 ライブ配信システムおよびライブ配信方法 WO2020183630A1 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
CN201980093949.1A CN113767643B (zh) 2019-03-13 2019-03-13 直播传输系统以及直播传输方法
EP19918676.8A EP3941080A4 (en) 2019-03-13 2019-03-13 LIVE STREAMING SYSTEM AND LIVE STREAMING PROCEDURE
JP2021504695A JPWO2020183630A1 (ja) 2019-03-13 2019-03-13 ライブ配信システムおよびライブ配信方法
PCT/JP2019/010165 WO2020183630A1 (ja) 2019-03-13 2019-03-13 ライブ配信システムおよびライブ配信方法
KR1020217029116A KR102625902B1 (ko) 2019-03-13 2019-03-13 라이브 배신 시스템 및 라이브 배신 방법
US17/438,590 US20220132224A1 (en) 2019-03-13 2019-03-13 Live streaming system and live streaming method
JP2022130925A JP7188831B2 (ja) 2019-03-13 2022-08-19 ライブ配信システムおよびライブ配信方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/010165 WO2020183630A1 (ja) 2019-03-13 2019-03-13 ライブ配信システムおよびライブ配信方法

Publications (1)

Publication Number Publication Date
WO2020183630A1 true WO2020183630A1 (ja) 2020-09-17

Family

ID=72426182

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/010165 WO2020183630A1 (ja) 2019-03-13 2019-03-13 ライブ配信システムおよびライブ配信方法

Country Status (6)

Country Link
US (1) US20220132224A1 (ja)
EP (1) EP3941080A4 (ja)
JP (1) JPWO2020183630A1 (ja)
KR (1) KR102625902B1 (ja)
CN (1) CN113767643B (ja)
WO (1) WO2020183630A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023012976A1 (ja) * 2021-08-05 2023-02-09 日本電信電話株式会社 映像処理装置、映像処理方法およびプログラム
WO2024004593A1 (ja) * 2022-06-28 2024-01-04 エイベックス・テクノロジーズ株式会社 配信システム
WO2024047815A1 (ja) * 2022-08-31 2024-03-07 日本電信電話株式会社 盛り上がり尤度制御方法、盛り上がり尤度制御装置及び盛り上がり尤度制御プログラム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102668144B1 (ko) * 2021-11-29 2024-05-22 김규환 스트리머 및 시청자의 반응에 대응하여 반응하는 캐릭터 생성 장치
CN114613119B (zh) * 2022-01-19 2023-09-19 浙江大丰体育设备有限公司 支持无线群控荧光棒群控的基站

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017151978A (ja) 2016-02-23 2017-08-31 株式会社ユークス イベント演出システム、その動作方法、およびそのプログラム
JP2018158046A (ja) * 2017-03-23 2018-10-11 株式会社バンダイナムコエンターテインメント 操作制御システム、キャラクタ上映システム及びプログラム
JP6463535B1 (ja) * 2018-04-27 2019-02-06 株式会社コロプラ プログラム、情報処理装置、および方法

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5993314A (en) * 1997-02-10 1999-11-30 Stadium Games, Ltd. Method and apparatus for interactive audience participation by audio command
JP4432246B2 (ja) * 2000-09-29 2010-03-17 ソニー株式会社 観客状況判定装置、再生出力制御システム、観客状況判定方法、再生出力制御方法、記録媒体
JP5609160B2 (ja) * 2010-02-26 2014-10-22 ソニー株式会社 情報処理システム、コンテンツ合成装置および方法、並びに記録媒体
JP5767004B2 (ja) * 2011-04-19 2015-08-19 鳳俊 李 視聴覚システム、リモコン端末、会場機器制御装置、視聴覚システムの制御方法、及び視聴覚システムの制御プログラム
NZ595638A (en) * 2011-10-07 2013-09-27 Let S Powow Ltd Collaboration Extension System
EP2582145A3 (en) * 2011-10-13 2014-07-30 Gface GmbH Interactive remote participation in live entertainment
US20150054727A1 (en) * 2013-08-23 2015-02-26 Immersion Corporation Haptically enabled viewing of sporting events
US10231024B2 (en) * 2013-09-12 2019-03-12 Blizzard Entertainment, Inc. Selectively incorporating feedback from a remote audience
CN104754284B (zh) * 2013-12-26 2018-08-10 中国移动通信集团公司 一种视频会议直播方法、设备及系统
WO2015120413A1 (en) * 2014-02-07 2015-08-13 Fanpics, Llc Real-time imaging systems and methods for capturing in-the-moment images of users viewing an event in a home or local environment
US9344681B2 (en) * 2014-08-21 2016-05-17 Infocus Corporation Systems and methods of incorporating live streaming sources into a video conference
CN104159005A (zh) * 2014-08-22 2014-11-19 苏州乐聚一堂电子科技有限公司 虚拟演唱会观众影像系统
US9814987B1 (en) * 2014-12-22 2017-11-14 Amazon Technologies, Inc. Spectator feedback and adaptation
US9691238B2 (en) * 2015-07-29 2017-06-27 Immersion Corporation Crowd-based haptics
CN106303555B (zh) * 2016-08-05 2019-12-03 深圳市摩登世纪科技有限公司 一种基于混合现实的直播方法、装置和系统
JP2018036690A (ja) * 2016-08-29 2018-03-08 米澤 朋子 一対多コミュニケーションシステムおよびプログラム
US20180137425A1 (en) * 2016-11-17 2018-05-17 International Business Machines Corporation Real-time analysis of a musical performance using analytics
WO2018199115A1 (ja) * 2017-04-24 2018-11-01 ヤマハ株式会社 演出制御装置、演出システム、及びプログラム
CN107634936B (zh) * 2017-08-24 2020-11-27 广州华多网络科技有限公司 一种直播互动方法、服务器及终端
CN108091192A (zh) * 2017-12-14 2018-05-29 尹子悦 交互式在线教学系统及方法、教师系统以及学生系统
JP6775557B2 (ja) * 2018-09-03 2020-10-28 グリー株式会社 動画配信システム、動画配信方法、及び動画配信プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017151978A (ja) 2016-02-23 2017-08-31 株式会社ユークス イベント演出システム、その動作方法、およびそのプログラム
JP2018158046A (ja) * 2017-03-23 2018-10-11 株式会社バンダイナムコエンターテインメント 操作制御システム、キャラクタ上映システム及びプログラム
JP6463535B1 (ja) * 2018-04-27 2019-02-06 株式会社コロプラ プログラム、情報処理装置、および方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3941080A4

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023012976A1 (ja) * 2021-08-05 2023-02-09 日本電信電話株式会社 映像処理装置、映像処理方法およびプログラム
WO2024004593A1 (ja) * 2022-06-28 2024-01-04 エイベックス・テクノロジーズ株式会社 配信システム
WO2024047815A1 (ja) * 2022-08-31 2024-03-07 日本電信電話株式会社 盛り上がり尤度制御方法、盛り上がり尤度制御装置及び盛り上がり尤度制御プログラム

Also Published As

Publication number Publication date
US20220132224A1 (en) 2022-04-28
EP3941080A4 (en) 2023-02-15
CN113767643B (zh) 2024-04-05
CN113767643A (zh) 2021-12-07
JPWO2020183630A1 (ja) 2021-12-02
EP3941080A1 (en) 2022-01-19
KR20210135520A (ko) 2021-11-15
KR102625902B1 (ko) 2024-01-17

Similar Documents

Publication Publication Date Title
WO2020183630A1 (ja) ライブ配信システムおよびライブ配信方法
US11683536B2 (en) Audiovisual collaboration system and method with latency management for wide-area broadcast and social media-type user interface mechanics
WO2016088566A1 (ja) 情報処理装置および情報処理方法、並びにプログラム
CN105938541B (zh) 利用数字内容增强现场表演的系统和方法
JP7465019B2 (ja) 情報処理装置、情報処理方法および情報処理プログラム
WO2019241778A1 (en) Audiovisual livestream system and method with latency management and social media-type user interface mechanics
TWI559299B (zh) 演唱視覺特效系統及演唱視覺特效處理方法
JP7188831B2 (ja) ライブ配信システムおよびライブ配信方法
Gurevich et al. Ambisonic spatialization for networked music performance
WO2022024898A1 (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
JP7442979B2 (ja) カラオケシステム
US20220343951A1 (en) Method and apparatus for production of a real-time virtual concert or collaborative online event
JP6951610B1 (ja) 音声処理システム、音声処理装置、音声処理方法、及び音声処理プログラム
JP2009005012A (ja) データ配信装置、データ配信方法およびプログラム
WO2021242325A1 (en) Interactive remote audience projection system
JP2018028646A (ja) 会場別カラオケ
CN116158071A (zh) 用于创建和管理虚拟启用的演播室的系统和方法
WO2023120244A1 (ja) 伝送装置、伝送方法、およびプログラム
JP2022046878A (ja) 配信システム及び配信方法
US11641459B2 (en) Viewing system, distribution apparatus, viewing apparatus, and recording medium
JP2020008752A (ja) 生バンドカラオケライブ配信システム
JP7111415B2 (ja) 観覧システムおよび方法
JP2015011155A (ja) 複数人による通信デュエットに特徴を有する通信カラオケシステム
JP2017044765A (ja) 映像提供装置、映像提供システム及びプログラム
JP2022134638A (ja) 画像表示システム、表示制御方法、発光制御方法、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19918676

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021504695

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019918676

Country of ref document: EP

Effective date: 20211013