WO2019065816A1 - コンテンツ配信サーバ、端末装置、コンテンツ配信システム、コンテンツ配信方法、コンテンツ再生方法、コンテンツ配信プログラムおよびコンテンツ再生プログラム - Google Patents

コンテンツ配信サーバ、端末装置、コンテンツ配信システム、コンテンツ配信方法、コンテンツ再生方法、コンテンツ配信プログラムおよびコンテンツ再生プログラム Download PDF

Info

Publication number
WO2019065816A1
WO2019065816A1 PCT/JP2018/035878 JP2018035878W WO2019065816A1 WO 2019065816 A1 WO2019065816 A1 WO 2019065816A1 JP 2018035878 W JP2018035878 W JP 2018035878W WO 2019065816 A1 WO2019065816 A1 WO 2019065816A1
Authority
WO
WIPO (PCT)
Prior art keywords
content
live content
live
sound
chasing
Prior art date
Application number
PCT/JP2018/035878
Other languages
English (en)
French (fr)
Inventor
量生 川上
寛明 齊藤
尚 小嶋
Original Assignee
株式会社ドワンゴ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ドワンゴ filed Critical 株式会社ドワンゴ
Priority to US16/650,355 priority Critical patent/US11032621B2/en
Priority to CN201880056664.6A priority patent/CN111316654A/zh
Publication of WO2019065816A1 publication Critical patent/WO2019065816A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • H04N21/4852End-user interface for client configuration for modifying audio parameters, e.g. switching between mono and stereo
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/262Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists
    • H04N21/2625Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists for delaying content or additional data distribution, e.g. because of an extended sport event
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/233Processing of audio elementary streams
    • H04N21/2335Processing of audio elementary streams involving reformatting operations of audio signals, e.g. by converting from one coding standard to another
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234381Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by altering the temporal resolution, e.g. decreasing the frame rate by frame skipping
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44222Analytics of user selections, e.g. selection of programs or purchase activity
    • H04N21/44224Monitoring of user activity on external systems, e.g. Internet browsing
    • H04N21/44226Monitoring of user activity on external systems, e.g. Internet browsing on social networks

Definitions

  • the present disclosure relates to a content distribution server that distributes live content and chasing content, a terminal device, a content distribution system, a content distribution method, a content reproduction method, a content distribution program, and a content reproduction program.
  • Patent Document 1 by simultaneously displaying a real time video signal (live content) and a time shift video (chase content) stored in the storage unit, the real time video is displayed while displaying the real time video.
  • a content distribution server a terminal device, a content distribution system, a content distribution method, and a content reproduction that enables a viewer to recognize which content the viewer is while reproducing live content and chasing content simultaneously.
  • a method, a content distribution program and a content reproduction program are provided.
  • the content distribution server of the present disclosure stores a storage unit that stores received live content, and chase content that reproduces the live content stored in the storage unit later than the received live content. And a communication unit for distributing the live content and the chasing content to the viewer terminal, the control unit changing the sound of the live content, and changing the changed sound to the viewer terminal Distribute to and through the communication unit.
  • the terminal device of the present disclosure performs control for reproducing the storage unit storing the received live content, and the live content stored in the storage unit as chase content to be reproduced later than the received live content.
  • the control unit includes a control unit and a reproduction unit that reproduces live content and chasing content.
  • the control unit changes the sound of the live content, and reproduces the changed sound by the reproduction unit.
  • a content distribution system includes a live content distribution apparatus for transmitting live content, a terminal apparatus for viewing content, and a content distribution server for receiving live content from the live content distribution apparatus.
  • a storage unit for storing the received live content
  • a control unit for performing control to reproduce the live content stored in the storage unit as a chasing content to be reproduced later than the received live content, the live content and the chasing
  • the control unit changes the sound of the live content, and reproduces the changed sound on the viewer terminal.
  • the storage unit stores the received live content
  • the control unit chases the live content stored in the storage unit to be reproduced later than the received live content.
  • the storage unit stores the received live content
  • the control unit chases the live content stored in the storage unit to be reproduced later than the received live content. And controlling the reproduction of the live content and the chasing content, and the control unit changes the sound of the live content and reproduces the changed sound by the reproduction unit. And step.
  • the content distribution program of the present disclosure includes the steps of storing the received live content, and performing control for distributing the stored live content as chase content to be reproduced later than the received live content;
  • the steps of delivering live content and chase content to a viewer terminal, and modifying the sound of the live content, and delivering the modified sound to the viewer terminal are implemented by a computer.
  • the content reproduction program of the present disclosure includes the steps of storing the received live content, and performing control for reproducing the stored live content as chase content to be reproduced later than the received live content; Playing the live content and the chase content, and changing the sound of the live content, and playing the changed sound by the computer.
  • the viewer can play any of the live content and the chasing content simultaneously. It can be recognized whether it is content.
  • FIG. 1 is a schematic block diagram showing a configuration of a content distribution system 1 according to the first to fourth embodiments. It is a conceptual diagram which shows the delivery state of the content which concerns on 1st Embodiment. It is a flowchart for demonstrating the operation
  • composition of contents distribution system 2 concerning a 5th embodiment. It is a flowchart for demonstrating the operation
  • Live content is content to be delivered live, such as a so-called live broadcast, such as a moving image or sound that allows the viewer to see in real time the content that the deliverer intends to deliver.
  • the chasing content is content to be reproduced at a time later than the distribution time of the live content. The chasing content can catch up with the time lag behind the live content by making the playback content faster than the playback speed of the live content.
  • a content distribution system 1 that changes the sound of live content and distributes it along with chase content, which is the first embodiment of the present disclosure, will be described.
  • the content distribution server 111, the live content distribution apparatus 121, and the viewer terminal 131 are configured to be connectable to a network NW such as the Internet, for example. .
  • the content distribution server 111 is a server device that distributes live content transmitted from the live content distribution device 121 to the viewer terminal 131.
  • the content distribution server 111 includes a communication unit 112, a control unit 113, and a storage unit 114.
  • the communication unit 112 is a communication interface that communicates with the live content distribution device 121 and the viewer terminal 131 via the network NW.
  • the live content transmitted from the live content distribution device 121 and the chase request signal transmitted from the viewer terminal 131 are received. Further, the communication unit 112 distributes to the viewer terminal 131 the chase content, live content, and the sound of the changed live content, which will be described later.
  • the communication unit 112 may transmit and receive login ID information for the distributor or the viewer to log in to the content distribution server 111 from the live content distribution device 121 or the viewer terminal 131 as needed.
  • the control unit 113 distributes the live content received by the communication unit 112 to the viewer terminal 131 to which the viewing request has been transmitted. Further, the control unit 113 changes the reproduction speed of the live content stored in the storage unit 114 described later, and generates chasing content. When receiving the chase request from the viewer terminal 131, the control unit 113 calculates the time difference between the live content and the chase request, and controls the playback speed. Also, when a chase request is received from the viewer terminal 131, the sound of the live content is changed. The control unit 113 distributes the changed sound of the live content via the communication unit 112 as the sound of the live content to be distributed.
  • the storage unit 114 stores the live content received by the communication unit 112.
  • the live content distribution device 121 is a device used by a content distributor, and includes a smartphone, a mobile phone, a PHS, a computer, a game device, a PDA, a portable game machine, a watch, a smart watch, a head mounted display, a wearable display, and an image. It is an information processing apparatus such as a generation apparatus.
  • the live content distribution device 121 is a device that can connect to the content distribution server 111 via a network NW such as the Internet (WAN) or a LAN.
  • NW such as the Internet (WAN) or a LAN.
  • the communication line between the live content distribution device 121 and the content distribution server 111 may be wired or wireless.
  • the distributor creates live content to be live-distributed using the live content distribution device 121.
  • the live content distribution device 121 transmits the created live content to the content distribution server 111 in real time.
  • the viewer terminal 131 is a terminal device used by a viewer and is a smartphone, a mobile phone, a PHS, a computer, a game device, a PDA, a portable game machine, a watch, a smart watch, a head mounted display, a wearable display, an image generation device And other information processing devices. Also, the viewer terminal 131 is a device that can connect to the content distribution server 111 via a network NW such as the Internet (WAN) or a LAN.
  • NW such as the Internet (WAN) or a LAN.
  • the communication line between the viewer terminal 131 and the content distribution server 111 may be wired or wireless.
  • the live content distribution apparatus 121 and the viewer terminal 131 may access the content distribution server 111 by the installed dedicated application software.
  • the content distribution server 111 may be accessed using the content distribution server 111 or an operation environment (API (application programming interface), platform, etc.) separately provided by the server.
  • API application programming interface
  • FIG. 2 shows, from the top, live content, chasing content, content reproduction speed magnification, and sound frequency magnification for the content to be controlled by the content distribution server 111. Also, the horizontal axis indicates the progress of time.
  • the live content shown in the first row of FIG. 2 is distributed from the live content distribution device 121 to the viewer terminal 131 via the content distribution server 111 from the distribution start to the distribution end.
  • the chase content shown in the second row of FIG. 2 is a hatched area, and is distributed from the live content distribution device 121 to the viewer terminal 131 via the content distribution server 111 by the chase request from the viewer terminal 131 .
  • the video displayed on the viewer terminal 131 returns to the live content at the catch-up point shown below.
  • FIG. 2 shows a state in which the chasing content is chased and played back the content from the distribution start time of the live content, but it is also possible to chase and play from the middle of the live content.
  • the third row in FIG. 2 shows the reproduction speed of the video and sound of each content.
  • live content since live content is live delivery, it is played back at a speed of 1 ⁇ (equal magnification) as a reference.
  • chasing content is played back at 1.3 times the speed of live content. Therefore, the chase content will catch up with the live content at the catch-up point.
  • the fourth row in FIG. 2 shows the magnification of the frequency to be changed of the sound of each content.
  • the reference 1 ⁇ frequency magnification is based on the sound of the live content transmitted from the live content distribution device 121.
  • the frequency scaling factor is the ratio of the frequency of the sound in the corresponding same scene of the live content and the chasing content. From the chase request to the catch-up point, the sound of the live content is reproduced at a frequency of 1.5 times. That is, the sound is reproduced with a higher sound than the normal reproduction sound.
  • the sound of chase content is reproduced at a speed of 1.3 times that of chase content, but the frequency of the sound is reproduced at 1 ⁇ .
  • the pitch of the sound is the same as that of the normal reproduced sound.
  • the sound of the live content is reproduced higher than the sound of the chasing content, so that the viewer can recognize the sound of each content.
  • the catch-up point is passed, the chasing content ends, and the sound of the live content is reproduced as one-fold frequency.
  • FIG. 3 shows the related state of each operation of the content distribution server 111, the live content distribution apparatus 121, and the viewer terminal 131.
  • step S101 the live content distribution apparatus 121 performs a loop with step S117 while distributing live content.
  • step S102 the content distribution server 111 performs a loop with step S118 in synchronization with the live content distribution apparatus 121 distributing live content.
  • step S103 the viewer terminal 131 performs a loop with step S119 in synchronization with the live content distribution device 121 and the content distribution server 111.
  • the live content distribution device 121 transmits the video and sound of the live content to the content distribution server 111.
  • the live content may be one taken by the live content distribution device 121 or one obtained by transmitting one taken by another device to the live content distribution device 121.
  • step S105 the content distribution server 111 stores the live content transmitted from the live content distribution apparatus 121. Specifically, the storage unit 114 stores the video and sound of the live content received via the communication unit 112.
  • step S 106 the viewer transmits the viewing request of the desired live content from the viewer terminal 131 to the content distribution server 111.
  • step S107 the content distribution server 111 distributes the video and the sound of the live content to the viewer terminal 131 which has transmitted the viewing request of the live content in step S106.
  • step S108 the viewer terminal 131 reproduces the video and sound of the live content transmitted in step S107.
  • step S109 the viewer transmits a chase request from the viewer terminal 131 to the content distribution server 111. Specifically, from the time axis of the live content that has already been distributed, a time to view is selected, and it is requested that the live content be chased from the time and played back.
  • step S110 the content distribution server 111 determines the presence or absence of a chase request transmitted from the viewer terminal 131. If the control unit 113 determines that the chase request is present (Y), the control unit 113 advances the process to step S111. If it is determined that the chase request is none (N), the process proceeds to step S118.
  • step S111 the control unit 113 generates chasing content from the video and audio of the live content stored in the storage unit 114.
  • the playback speed of the chasing content is set from the difference between the current time and the desired reproduction start time of the live content specified by the chasing request transmitted in step S110.
  • step S112 the control unit 113 changes the sound of the live content transmitted from the live content distribution device 121, and generates a change sound.
  • the control unit 113 modulates the sound to a frequency higher than the original frequency. Note that, as a method of changing the sound, the control unit 113 changes the volume of the original sound, even if the modulation is performed to lower the sound below the original frequency or the timbre of the original sound is changed. I don't care.
  • the sound of the live content may be silenced as the change in volume. In addition, conversion may be performed so that the viewer can distinguish changes from the original sound.
  • step S113 the control unit 113 generates the video and sound of the chasing content generated in step S111 and the change sound of the live content generated in step S112 as composite content.
  • step S114 the communication unit 112 transmits the composite content generated in step S113 to the viewer terminal 131 to which the chase request has been transmitted in step S109.
  • step S115 the viewer terminal 131 reproduces the video and sound of the composite content transmitted in step S114. Since only the video of the chasing content is displayed on the screen, the viewer knows the progress of the live content by focusing on the video of the chasing content and being aware of the change sound of the live content separately from the chasing content be able to.
  • step S116 the control unit 113 determines whether the chasing content catches up with the live content. If the control unit 113 determines that it has caught up (Y), the process proceeds to step S118. If it is determined that it has not caught up (N), the process returns to step S111.
  • step S117 the live content distribution apparatus 121 performs a loop with step S101 until distribution of live content is completed.
  • step S118 the content distribution server 111 performs a loop in synchronization with the live content distribution device 121 distributing the live content with the step S102.
  • step S119 the viewer terminal 131 loops in synchronization with the live content distribution device 121 and the content distribution server 111 until step S103.
  • the viewer can distinguish the live content and the chasing content from the live content sound and the chasing content sound at the viewer terminal 131 You can watch the chase content. In this way, when the viewer misses live content, he concentrates on watching the playback of the chasing content which is the natural pitch, but also listens to the live content with different pitches in real time. You can know
  • step S113 the control unit 113 generates, as a composite content, the chasing content generated in step S111, the change sound of the live content generated in step S112, and the video of the live content transmitted in step S104. It does not matter. What is reproduced in step S115 is the video and sound of the chase content, and the video of the live content and the change sound of the live content. While reproducing the video and sound of both the chase content and the live content, it is possible to make it easier to recognize the chase content and the sound of the live content. At that time, the video of the live content and the video of the chase content may be displayed side by side on the viewer terminal 131. Also, as in PinP (Picture-In-Picture), the video of the live content may be displayed small in the screen displaying the video of the chasing content, or vice versa.
  • PinP PinP
  • the sound of the live content and the sound of the chasing content may be allocated to the left and right speakers and headphones, respectively, and reproduced.
  • the sound producing side can make it easier to recognize the sound of the live content and the sound of the chasing content.
  • the content can also be used, for example, in classes and lectures of Internet distribution.
  • the actual class is progressing in real time, it is possible to understand the real time class while enhancing the understanding of the unknown point by reproducing it back to the past class simultaneously.
  • a content delivery system 1 which is a second embodiment of the present disclosure, which changes the sound of live content and delivers it along with chase content.
  • the second embodiment will be described using the content distribution system 1 according to the first embodiment.
  • FIG. 4 shows, from the top, live content, chase content, content reproduction speed magnification, and sound frequency magnification for the content to be controlled by the content distribution server 111. Also, the horizontal axis indicates the progress of time.
  • the live content shown in the first row of FIG. 4 is distributed from the live content distribution device 121 to the viewer terminal 131 via the content distribution server 111 from the distribution start to the distribution end.
  • the chase content shown in the second row of FIG. 4 is a hatched area, and is distributed from the live content distribution apparatus 121 to the viewer terminal 131 via the content distribution server 111 by the chase request from the viewer terminal 131 .
  • the chasing content shows the state of chasing the content from the start of distribution of the live content and reproducing it.
  • the third row in FIG. 4 shows the reproduction speed of the video and sound of each content.
  • the live content is live distribution, it is played back at a speed of 1 ⁇ as a reference.
  • chasing content starts from playback at 1.6 times the speed of live content.
  • the reproduction speed is changed according to the reproduction time difference between the live content and the chasing content, and when the time difference decreases, the magnification of the reproduction speed approaches one. And the chase content will catch up with the live content at the catch-up point.
  • the fourth row in FIG. 4 shows the magnification of the frequency to be changed of the sound of each content.
  • the reference 1 ⁇ frequency magnification is based on the sound of the live content transmitted from the live content distribution device 121.
  • the sound of the live content is reproduced at 1.5 times the frequency. That is, the sound is reproduced with a higher sound than the normal reproduction sound.
  • the frequency magnification is changed according to the reproduction time difference between the live content and the chasing content, and when the time difference decreases, the frequency magnification approaches one. That is, the degree of change (change in frequency) is determined according to the time difference.
  • the frequency magnification of the live content is 1 ⁇ .
  • the sound of the chasing content is reproduced with the chasing content changing at a speed of 1.6x to 1x, but the sound is reproduced at a frequency of 1x. That is, although the reproduction speed of the sound is high, the pitch of the sound is the same as that of the normal reproduced sound.
  • the sound of the live content is reproduced higher than the sound of the chasing content, so that the viewer can recognize the sound of each content.
  • a content distribution system 1 will be described, which is a third embodiment of the present disclosure, which changes the sound of live content and distributes it with chase content.
  • the third embodiment will be described using the content distribution system 1 according to the first embodiment.
  • FIG. 5 shows, from the top, live content, chasing content, content reproduction speed magnification, and sound frequency magnification for the content to be controlled by the content distribution server 111. Also, the horizontal axis indicates the progress of time.
  • the live content shown in the first row of FIG. 5 is distributed from the live content distribution device 121 to the viewer terminal 131 via the content distribution server 111 from the distribution start to the distribution end.
  • the chase content shown in the second row of FIG. 5 is a hatched area, and is distributed from the live content distribution device 121 to the viewer terminal 131 via the content distribution server 111 by the chase request from the viewer terminal 131 .
  • FIG. 5 shows a state in which the chasing content is chased and played back from the start of delivery of the live content.
  • the third row in FIG. 5 shows the reproduction speed of the video and sound of each content.
  • the live content is live distribution, it is played back at a speed of 1 ⁇ as a reference.
  • the chasing content is also played back at the same speed as the live content. That is, the chasing content is in a state of being reproduced with a time shift (time shift) with respect to the live content.
  • the fourth row in FIG. 5 shows the magnification of the frequency to be changed of the sound of each content.
  • the reference 1 ⁇ frequency magnification is based on the sound of the live content transmitted from the live content distribution device 121. From the chase request to the catch-up point, the sound of the live content is reproduced at a frequency of 1.3 times. That is, the sound is reproduced with a higher sound than the normal reproduction sound.
  • the sound of chase content is reproduced at a speed of 1.3 times that of chase content, but the sound is reproduced at a frequency of 1 ⁇ . That is, although the reproduction speed of the sound is high, the pitch of the sound is the same as that of the normal reproduced sound.
  • the live content and the chasing content are reproduced simultaneously, the sound of the live content is reproduced higher than the sound of the chasing content, so that the viewer can recognize the sound of each content.
  • the playback speed of the chase content is played back at the same speed as the live content, and the playback is performed by so-called time shift.
  • the playback speed of the chase content is played back at the same speed as the live content, and the playback is performed by so-called time shift.
  • a content delivery system 1 for notifying excitement by user posted information displayed superimposed on live content which is a fourth embodiment of the present disclosure, will be described.
  • the fourth embodiment will be described using the content distribution system 1 according to the first embodiment.
  • FIG. 6 shows live content (including a change display of the number of user-posted information), chasing content, content reproduction speed magnification, and sound frequency magnification from the top of the content to be controlled by the content distribution server 111. Also, the horizontal axis indicates the progress of time.
  • the user-posted information is information associated with live content, and is graphics and audio data such as icons and stamps in addition to comments and characters such as indentations and impressions on content data posted from the viewer terminal 131 or the like. It also includes information posted by the content distributor and information posted by the content distribution server 111 administrator.
  • the live content shown in the first row of FIG. 6 is distributed from the live content distribution device 121 to the viewer terminal 131 via the content distribution server 111 from the distribution start to the distribution end.
  • a diagram showing the change in the number of user-posted information per hour indicates the number of user-posted information.
  • a dotted line is a threshold for determining whether the number of user information postings is exciting, and when the number of user information postings exceeds the threshold, it is determined that the content is exciting.
  • the content distribution server 111 determines that the content is exciting, the viewer terminal 131 is notified. That is, notification is made during playback of the chasing content.
  • the notification means may superimpose the alert sound on the sound of the content or display the alert superimposed on the video.
  • the chasing content is an area indicated by hatching in the second row of FIG. 6 and is distributed from the live content distribution device 121 to the viewer terminal 131 via the content distribution server 111 by the chasing request from the viewer terminal 131.
  • the video displayed on the viewer terminal 131 returns to the live content at the catch-up point shown below.
  • FIG. 6 shows a state in which the chasing content is chased and reproduced from the start of distribution of the live content, the chasing content may be chased and reproduced from the middle of the live content.
  • the third row in FIG. 6 shows the reproduction speed of the video and sound of each content.
  • the live content is live distribution, it is played back at a speed of 1 ⁇ as a reference.
  • chasing content is played back at 1.3 times the speed of live content. Therefore, the chase content will catch up with the live content at the catch-up point.
  • the fourth row in FIG. 6 shows the magnification of the changing frequency of the sound of each content.
  • the reference 1 ⁇ frequency magnification is based on the sound of the live content transmitted from the live content distribution device 121. From the chase request to the catch-up point, the sound of the live content is played at a frequency of 1.5 times. That is, the sound is reproduced with a higher sound than the normal reproduction sound.
  • the sound of chase content is reproduced at a speed of 1.3 times that of chase content, but the frequency of the sound is reproduced at 1 ⁇ . That is, although the reproduction speed of the sound is high, the pitch of the sound is the same as that of the normal reproduced sound.
  • the sound of the live content is reproduced higher than the sound of the chasing content, so that the viewer can recognize the sound of each content.
  • the catch-up point is passed, the chasing content ends, and the sound of the live content is reproduced as one-fold frequency.
  • FIG. 7 shows the related state of each operation of the content distribution server 111, the live content distribution apparatus 121, and the viewer terminal 131.
  • step S201 the live content distribution apparatus 121 performs a loop with step S220 while distributing live content.
  • step S202 the content distribution server 111 performs a loop with step S221 in synchronization with the live content distribution apparatus 121 distributing live content.
  • step S203 the viewer terminal 131 performs a loop with step S222 in synchronization with the live content distribution device 121 and the content distribution server 111.
  • the live content distribution apparatus 121 transmits the video and sound of the live content to the content distribution server 111.
  • the live content may be one taken by the live content distribution device 121 or one obtained by transmitting one taken by another device to the live content distribution device 121.
  • step S205 the content distribution server 111 stores the live content transmitted from the live content distribution apparatus 121. Specifically, the storage unit 114 stores the video and sound of the live content received via the communication unit 112.
  • step S206 the viewer transmits the viewing request of the desired live content from the viewer terminal 131 to the content distribution server 111.
  • step S207 the content distribution server 111 distributes the video and sound of the live content to the viewer terminal 131 that has transmitted the viewing request of the live content in step S206.
  • step S208 the viewer terminal 131 reproduces the video and sound of the live content transmitted in step S207.
  • step S 209 the viewer transmits a chase request from the viewer terminal 131 to the content distribution server 111. Specifically, from the time axis of the live content that has already been distributed, a time to view is selected, and it is requested that the live content be chased from the time and played back.
  • step S210 the content distribution server 111 determines the presence or absence of a chase request transmitted from the viewer terminal 131. If the control unit 113 determines that the chase request is present (Y), the control unit 113 advances the process to step S211. If it is determined that the chase request is none (N), the process proceeds to step S221.
  • step S211 the control unit 113 generates chasing content from the video and audio of the live content stored in the storage unit 114.
  • the playback speed of the chasing content is set from the difference between the current time and the desired reproduction start time of the live content specified by the chasing request transmitted in step S210.
  • step S212 the control unit 113 changes the sound of the live content transmitted from the live content distribution device 121, and generates a change sound.
  • the control unit 113 modulates the sound to a frequency higher than the original frequency. Note that, as a method of changing the sound, the control unit 113 changes the volume of the original sound, even if the modulation is performed to lower the sound below the original frequency or the timbre of the original sound is changed. I don't care. In addition, conversion may be performed so that the viewer can distinguish changes from the original sound.
  • step S213 the control unit 113 generates, as synthetic content, the chase content generated in step S211 and the change sound of the live content generated in step S212.
  • step S214 the control unit 113 counts the number of pieces of user posted information posted for live content.
  • the user-posted information is posted in real time with respect to live content, and can be used as an indicator of live content excitement by the number of posts per unit time of the user-posted information. Note that, instead of the number of user-posted information, the number of characters of the user-posted information may be used as an index.
  • step S215 the control unit 113 determines whether the number of pieces of user-posted information posted for live content exceeds a threshold. If it exceeds the threshold value, the control unit 113 determines that the live content is rising (Y), and advances the process to step S216. If the control unit 113 determines that (N) has not risen, the process proceeds to step S217.
  • the threshold may be set by the operator of the content distribution server 111 or set by the viewer from the viewer terminal 131. For example, when the viewer or the like feels that the frequency of determination of excitement is high, the threshold can be set high.
  • step S216 the control unit 113 combines the excitement notification with the composite content generated in step S213. Specifically, the alert sound indicating the excitement is synthesized to the synthetic content. Also, the composition may be composited so that the alert is superimposed and displayed on the video of the chasing content in the composite content.
  • step S217 the communication unit 112 transmits the composite content generated in step S213 to the viewer terminal 131 to which the chase request has been transmitted in step S209.
  • step S218 the viewer terminal 131 reproduces the video and sound of the composite content transmitted in step S217.
  • step S219 the control unit 113 determines whether the chasing content catches up with the live content. If the control unit 113 determines that it has caught up (Y), it advances the process to step S218. If it is determined that it has not caught up (N), the process returns to step S211.
  • step S220 the live content distribution apparatus 121 performs a loop with step S201 until distribution of live content is completed.
  • the content distribution server 111 performs a loop in synchronization with the live content distribution device 121 distributing the live content with the step S202.
  • the viewer terminal 131 loops in synchronization with the live content distribution device 121 and the content distribution server 111 until step S203.
  • a viewer who is judging the lively state of live content based on user-posted information for the live content and watching the chasing content Can be notified.
  • the viewer can know the liveness state of the live content while focusing on the chasing content, and can switch the display to the live content reproduction.
  • the viewer terminal 131 may play back the live content in accordance with the playback of the chasing content, or instead of playing back the chasing content, the playback of the live content may be performed. You may
  • the user posted information posted to the live content may be voice-synthesized by character recognition and superimposed as sound on the live content sound for reproduction.
  • a content distribution system 2 which is a fifth embodiment of the present disclosure, which changes the sound of live content at a viewer terminal and reproduces it along with chase content.
  • the content distribution server 111, the live content distribution apparatus 121, and the viewer terminal 131 are configured to be connectable to a network NW such as the Internet, for example. .
  • the content distribution server 111 distributes to the viewer terminal 131 live content transmitted from a live content distribution apparatus 121 described later.
  • the live content distribution device 121 is a device used by a content distributor, and includes a smartphone, a mobile phone, a PHS, a computer, a game device, a PDA, a portable game machine, a watch, a smart watch, a head mounted display, a wearable display, and an image. It is an information processing apparatus such as a generation apparatus.
  • the live content distribution device 121 is a device that can connect to the content distribution server 111 via a network NW such as the Internet (WAN) or a LAN.
  • NW such as the Internet (WAN) or a LAN.
  • the communication line between the live content distribution device 121 and the content distribution server 111 may be wired or wireless.
  • the distributor creates live content to be live-distributed using the live content distribution device 121.
  • the live content distribution device 121 transmits the created live content to the content distribution server 111 in real time.
  • the viewer terminal 131 is a terminal device used by a viewer and is a smartphone, a mobile phone, a PHS, a computer, a game device, a PDA, a portable game machine, a watch, a smart watch, a head mounted display, a wearable display, an image generation device And other information processing devices. Also, the viewer terminal 131 is a device that can connect to the content distribution server 111 via a network NW such as the Internet (WAN) or a LAN. The communication line between the viewer terminal 131 and the content distribution server 111 may be wired or wireless.
  • the viewer terminal 131 includes a terminal communication unit 132, a terminal control unit 133, a terminal storage unit 134, a terminal operation unit 135, and a terminal reproduction unit 136.
  • the terminal communication unit 132 is a communication interface that communicates with the content distribution server 111 via the network NW.
  • the live content distributed from the content distribution server 111 is received.
  • the terminal control unit 133 changes the playback speed of the live content stored in the terminal storage unit 134 described later, and generates chasing content. Also, when a chase request is input from the terminal operation unit 135, the terminal control unit 133 calculates a time difference between the live content and the chase request, and controls the playback speed. In addition, when a chase request is input from the terminal operation unit 135, the sound of the live content is changed. The control unit 113 causes the terminal reproduction unit 136 to reproduce the changed sound of the live content as the sound of the live content.
  • the terminal storage unit 134 stores the live content received by the terminal communication unit 132.
  • the terminal operation unit 135 is a key device or a touch panel device for the viewer using the viewer terminal 131 to operate the viewer terminal 131.
  • the terminal playback unit 136 is a display device and a speaker device such as liquid crystal and organic EL for playing back video and sound of live content and chasing content. You may use headphones instead of speakers.
  • the live content distribution apparatus 121 and the viewer terminal 131 may access the content distribution server 111 by the installed dedicated application software.
  • the content distribution server 111 may be accessed using the content distribution server 111 or an operation environment (API (application programming interface), platform, etc.) separately provided by the server.
  • API application programming interface
  • the content distributed from the content distribution server 111 according to the fifth embodiment of the present disclosure is the same as that of FIG. 2 according to the first embodiment, and thus the description thereof is omitted.
  • FIG. 9 shows the related state of each operation of the content distribution server 111, the live content distribution apparatus 121, and the viewer terminal 131.
  • step S301 the live content distribution apparatus 121 performs a loop with step S316 while distributing live content.
  • step S302 the content distribution server 111 performs a loop with step S317 in synchronization with the live content distribution apparatus 121 distributing the live content.
  • step S303 the viewer terminal 131 performs a loop with step S318 in synchronization with the live content distribution device 121 and the content distribution server 111.
  • step S304 the live content distribution device 121 transmits the video and sound of the live content to the content distribution server 111.
  • the live content may be one taken by the live content distribution device 121 or one obtained by transmitting one taken by another device to the live content distribution device 121.
  • step S 305 the viewer transmits the viewing request of the desired live content from the viewer terminal 131 to the content distribution server 111.
  • step S306 the content distribution server 111 distributes the video and sound of the live content to the viewer terminal 131 that has transmitted the viewing request of the live content in step S305.
  • step S307 the viewer terminal 131 stores the live content distributed from the content distribution server 111.
  • the terminal storage unit 134 stores the video and sound of the live content received via the terminal communication unit 132.
  • step S308 the viewer terminal 131 reproduces the video and sound of the live content transmitted in step S307.
  • step S309 the viewer inputs a chase request from the terminal operation unit 135. Specifically, from the time axis of the live content that has already been distributed, a time to view is selected, and it is requested that the live content be chased from the time and played back.
  • step S310 the terminal control unit 133 determines the presence or absence of the chase request input from the terminal operation unit 135. If the terminal control unit 133 determines that the chase request is present (Y), the terminal control unit 133 advances the process to step S311. If it is determined that the chase request is none (N), the process proceeds to step S318.
  • step S311 the terminal control unit 133 generates chasing content from the video and audio of the live content stored in the terminal storage unit 134.
  • the playback speed of the chase content is set from the difference between the current time and the desired playback start time of the live content specified in the chase request, which is input in step S310.
  • step S312 the terminal control unit 133 changes the sound of the live content distributed from the content distribution server 111, and generates a change sound.
  • the terminal control unit 133 modulates the sound to a frequency higher than the original frequency. Note that the terminal control unit 133 changes the volume of the original sound, even if modulation is performed to lower the sound below the original frequency or the tone color of the original sound is changed as the method of changing the sound. It does not matter. In addition, conversion may be performed so that the viewer can distinguish changes from the original sound.
  • step S313 the terminal control unit 133 generates, as composite content, the video and sound of the chasing content generated in step S311 and the change sound of the live content generated in step S312.
  • step S314 the viewer terminal 131 reproduces the video and sound of the composite content transmitted in step S313. Since only the video of the chasing content is displayed on the screen, the viewer knows the progress of the live content by focusing on the video of the chasing content and being aware of the change sound of the live content separately from the chasing content be able to.
  • step S315 the terminal control unit 133 determines whether the chase content catches up with the live content. If the terminal control unit 133 determines that it has caught up (Y), the process proceeds to step S118. If it is determined that it has not caught up (N), the process returns to step S111.
  • step S316 the live content distribution apparatus 121 performs a loop with step S301 until distribution of live content is completed.
  • step S317 the content distribution server 111 performs a loop in synchronization with the live content distribution device 121 distributing the live content with the step S302.
  • step S3108 the viewer terminal 131 loops in synchronization with the live content distribution device 121 and the content distribution server 111 until step S303.
  • the viewer does not depend on the service of the content distribution server 111, and the live content and the chasing content are live content on the viewer terminal 131 You can watch the chasing content while listening to the sound of the chasing sound and the chasing content. In this way, when the viewer misses live content, he concentrates on watching the playback of the chasing content which is the natural pitch, but also listens to the live content with different pitches in real time. You can know
  • FIG. 10 is a schematic block diagram showing the configuration of the computer 901.
  • the computer 901 includes a CPU 902, a main storage unit 903, an auxiliary storage unit 904, and an interface 905.
  • the content distribution server 111 is implemented in the computer 901.
  • the operation of each component of the content distribution server 111 is stored in the auxiliary storage device 904 in the form of a program.
  • the CPU 902 reads a program from the auxiliary storage device 904, expands it in the main storage device 903 and executes the above processing according to the program. Further, the CPU 902 secures a storage area corresponding to the above storage unit in the main storage device 903 according to a program.
  • the program stores the received live content in the computer 901, and controls to distribute the stored live content as a chase content to be reproduced later than the received live content. And delivering the live content and the chase content to the viewer terminal, and changing the sound of the live content, and delivering the changed sound to the viewer terminal.
  • the auxiliary storage device 904 is an example of a non-temporary tangible medium.
  • Other examples of non-transitory tangible media include magnetic disks connected via an interface 905, magneto-optical disks, CD-ROMs, DVD-ROMs, semiconductor memories, and the like.
  • the distributed computer 901 may expand the program in the main storage device 903 and execute the above processing.
  • the program may be for realizing a part of the functions described above.
  • the program may be a so-called difference file (difference program) that realizes the above-described function in combination with other programs already stored in the auxiliary storage device 904.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

コンテンツ配信サーバ(111)は、受信したライブコンテンツを記憶する記憶部(114)と、記憶部(114)に記憶されたライブコンテンツを、受信したライブコンテンツよりも遅れて再生する追っかけコンテンツとして配信するための制御を行う制御部(113)と、ライブコンテンツおよび追っかけコンテンツを視聴者端末(131)へ配信する通信部(112)と、を備え、制御部(113)は、ライブコンテンツの音を変更し、変更した音を視聴者端末(131)へ通信部112を介して配信する。

Description

コンテンツ配信サーバ、端末装置、コンテンツ配信システム、コンテンツ配信方法、コンテンツ再生方法、コンテンツ配信プログラムおよびコンテンツ再生プログラム
 本開示は、ライブコンテンツと追っかけコンテンツを配信するコンテンツ配信サーバ、端末装置、コンテンツ配信システム、コンテンツ配信方法、コンテンツ再生方法、コンテンツ配信プログラムおよびコンテンツ再生プログラムに関する。
 従来から、リアルタイムで供給される映像信号とハードディスクやメモリ等に記録した録画信号(タイムシフト映像)のどちらかを選択して表示できる技術がある。
 また、特許文献1に示すように、リアルタイムで入力される映像信号(ライブコンテンツ)と記憶部に記憶したタイムシフト映像(追っかけコンテンツ)と同時に表示することで、リアルタイムの映像を表示しながら、過去の映像も同時に表示できる技術が知られている。
特開2005-39496号公報
 しかし、ライブコンテンツと追っかけコンテンツを両方再生してしまうと、両方の音が混ざりいずれかの音を聞き分けることが困難であり、視聴者はライブコンテンツ放送の内容であるか、追っかけ再生の内容であるかを認識することが困難である場合がある。
 そのため、本開示では、ライブコンテンツと追っかけコンテンツを同時に再生しつつ、視聴者が、いずれかのコンテンツであるかを認識可能とするコンテンツ配信サーバ、端末装置、コンテンツ配信システム、コンテンツ配信方法、コンテンツ再生方法、コンテンツ配信プログラムおよびコンテンツ再生プログラムを提供することを目的とする。
 上記の課題を解決するために、本開示のコンテンツ配信サーバは、受信したライブコンテンツを記憶する記憶部と、記憶部に記憶されたライブコンテンツを、受信したライブコンテンツよりも遅れて再生する追っかけコンテンツとして配信するための制御を行う制御部と、ライブコンテンツおよび追っかけコンテンツを視聴者端末へ配信する通信部と、を備え、制御部は、ライブコンテンツの音を変更し、変更した音を視聴者端末へ通信部を介して配信する。
 また、本開示の端末装置は、受信したライブコンテンツを記憶する記憶部と、記憶部に記憶されたライブコンテンツを、受信したライブコンテンツよりも遅れて再生する追っかけコンテンツとして再生するための制御を行う制御部と、ライブコンテンツおよび追っかけコンテンツを再生する再生部と、を備え、制御部は、ライブコンテンツの音を変更し、変更した音を再生部で再生する。
 また、本開示のコンテンツ配信システムは、ライブコンテンツを送信するライブコンテンツ配信装置と、コンテンツを視聴する端末装置と、ライブコンテンツ配信装置からライブコンテンツを受信するコンテンツ配信サーバと、を有するコンテンツ配信システムにおいて、受信したライブコンテンツを記憶する記憶部と、記憶部に記憶されたライブコンテンツを、受信したライブコンテンツよりも遅れて再生する追っかけコンテンツとして再生するための制御を行う制御部と、ライブコンテンツおよび追っかけコンテンツを再生する再生部と、を備え、制御部は、ライブコンテンツの音を変更し、変更した音を視聴者端末で再生する。
 また、本開示のコンテンツ配信方法は、記憶部が、受信したライブコンテンツを記憶するステップと、制御部が、記憶部に記憶されたライブコンテンツを、受信したライブコンテンツよりも遅れて再生する追っかけコンテンツとして配信するための制御を行うステップと、通信部が、ライブコンテンツおよび追っかけコンテンツを視聴者端末へ配信するステップと、制御部が、ライブコンテンツの音を変更し、変更した音を視聴者端末へ通信部を介して配信するステップと、を備える。
 また、本開示のコンテンツ再生方法は、記憶部が、受信したライブコンテンツを記憶するステップと、制御部が、記憶部に記憶されたライブコンテンツを、受信したライブコンテンツよりも遅れて再生する追っかけコンテンツとして再生するための制御を行うステップと、再生部が、ライブコンテンツおよび追っかけコンテンツを再生するステップと、を備え、制御部は、ライブコンテンツの音を変更し、変更した音を再生部で再生するステップと、を備える。
 また、本開示のコンテンツ配信プログラムは、受信したライブコンテンツを記憶するステップと、記憶されたライブコンテンツを、受信したライブコンテンツよりも遅れて再生する追っかけコンテンツとして配信するための制御を行うステップと、ライブコンテンツおよび追っかけコンテンツを視聴者端末へ配信するステップと、ライブコンテンツの音を変更し、変更した音を視聴者端末へ配信するステップと、をコンピュータによって実現する。
 また、本開示のコンテンツ再生プログラムは、受信したライブコンテンツを記憶するステップと、記憶されたライブコンテンツを、受信したライブコンテンツよりも遅れて再生する追っかけコンテンツとして再生するための制御を行うステップと、ライブコンテンツおよび追っかけコンテンツを再生するステップと、を備え、ライブコンテンツの音を変更し、変更した音を再生するステップと、をコンピュータによって実現する。
 上記のコンテンツ配信サーバ、端末装置、コンテンツ配信システム、コンテンツ配信方法、コンテンツ再生方法、コンテンツ配信プログラムおよびコンテンツ再生プログラムによれば、ライブコンテンツと追っかけコンテンツを同時に再生しつつ、視聴者が、いずれかのコンテンツであるかを認識可能とすることができる。
第1から第4の実施形態に係るコンテンツ配信システム1の構成を示す概略ブロック図である。 第1の実施形態に係るコンテンツの配信状態を示す概念図である。 第1の実施形態に係るコンテンツ配信システム1の動作について説明するためのフローチャートである。 第2の実施形態に係るコンテンツの配信状態を示す概念図である。 第3の実施形態に係るコンテンツの配信状態を示す概念図である。 第4の実施形態に係るコンテンツの配信状態を示す概念図である。 第4の実施形態に係るコンテンツ配信システム1の動作について説明するためのフローチャートである。 第5の実施形態に係るコンテンツ配信システム2の構成を示す概略ブロック図である。 第5の実施形態に係るコンテンツ配信システム2の動作について説明するためのフローチャートである。 実施形態に係るコンピュータの構成を示す概略ブロック図である。
 以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本開示の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本開示の必須構成要件であるとは限らない。ライブコンテンツとは、配信者が配信しようとする内容を視聴者がリアルタイムに見ることができる動画や音などのいわゆる生放送のような生配信されるコンテンツである。また、追っかけコンテンツとは、ライブコンテンツの配信時間より遅れた時間に再生されるコンテンツである。追っかけコンテンツは、ライブコンテンツの再生速度よりも速度を速めることで、ライブコンテンツに遅れた時間を追いつくことができる。
 (第1の実施形態)
 本開示の第1の実施形態である、ライブコンテンツの音を変更し、追っかけコンテンツとともに配信するコンテンツ配信システム1について説明する。
  <構成>
 まず、図1を用いて本実施形態に係るライブコンテンツと、追っかけコンテンツを視聴者に配信するためのコンテンツ配信サーバ111を含むコンテンツ配信システム1の構成、及びその概要について説明する。
 本実施形態のコンテンツ配信システム1は、図1に示すように、コンテンツ配信サーバ111と、ライブコンテンツ配信装置121、視聴者端末131とが、例えばインターネットなどのネットワークNWに接続可能に構成されている。
 コンテンツ配信サーバ111は、ライブコンテンツ配信装置121から送信されるライブコンテンツを、視聴者端末131に配信するサーバ装置である。コンテンツ配信サーバ111は、通信部112と、制御部113と、記憶部114と、を備える。
 通信部112は、ネットワークNWを介してライブコンテンツ配信装置121、視聴者端末131と通信を行う通信インタフェースである。ライブコンテンツ配信装置121から送信されるライブコンテンツや、視聴者端末131から送信される追っかけリクエスト信号を受信する。また、通信部112は、視聴者端末131に対して、後述する追っかけコンテンツや、ライブコンテンツや、変更したライブコンテンツの音を配信する。また、通信部112は、必要に応じて配信者や視聴者がライブコンテンツ配信装置121や視聴者端末131からコンテンツ配信サーバ111へログインを行うためのログインID情報の送受信を行っても構わない。
 制御部113は、通信部112が受信したライブコンテンツを、視聴リクエストが送信された視聴者端末131へ配信する。また、制御部113は、後述する記憶部114に記憶されたライブコンテンツの再生速度を変化させ、追っかけコンテンツを生成する。制御部113は、視聴者端末131から追っかけリクエストを受信すると、ライブコンテンツと追っかけリクエストでリクエストされた時間差を算出し、再生速度の制御を行う。また、視聴者端末131から追っかけリクエストを受信すると、ライブコンテンツの音を変更する。制御部113は、変更されたライブコンテンツの音を配信されるライブコンテンツの音として通信部112を介して配信する。
 記憶部114は、通信部112が受信したライブコンテンツを記憶する。
 次に、ライブコンテンツ配信装置121の構成と動作について説明する。ライブコンテンツ配信装置121は、コンテンツの配信者が使用する装置であり、スマートフォン、携帯電話、PHS、コンピュータ、ゲーム装置、PDA、携帯型ゲーム機、腕時計、スマートウォッチ、ヘッドマウントディスプレイ、ウェアラブルディスプレイ、画像生成装置等の情報処理装置である。また、ライブコンテンツ配信装置121は、インターネット(WAN)、LANなどのネットワークNWを介してコンテンツ配信サーバ111に接続可能な装置である。なお、ライブコンテンツ配信装置121とコンテンツ配信サーバ111間の通信回線は有線でもよいし無線でもよい。配信者は、ライブコンテンツ配信装置121を使用して生配信されるライブコンテンツを作成する。ライブコンテンツ配信装置121は、作成されたライブコンテンツを、リアルタイムにコンテンツ配信サーバ111へ送信する。
 次に、視聴者端末131の構成と動作について説明する。視聴者端末131は、視聴者が使用する端末装置であり、スマートフォン、携帯電話、PHS、コンピュータ、ゲーム装置、PDA、携帯型ゲーム機、腕時計、スマートウォッチ、ヘッドマウントディスプレイ、ウェアラブルディスプレイ、画像生成装置等の情報処理装置である。また、視聴者端末131は、インターネット(WAN)、LANなどのネットワークNWを介してコンテンツ配信サーバ111に接続可能な装置である。なお、視聴者端末131とコンテンツ配信サーバ111間の通信回線は有線でもよいし無線でもよい。
 ライブコンテンツ配信装置121や、視聴者端末131は、インストールされた専用のアプリケーションソフトウェアによってコンテンツ配信サーバ111にアクセスしてもよい。また、コンテンツ配信サーバ111や、別途サーバが提供する動作環境(API(アプリケーションプログラミングインタフェース)、プラットフォーム等)を利用して、コンテンツ配信サーバ111にアクセスしてもよい。
  <コンテンツについて>
 本開示の第1の実施形態に係るコンテンツ配信サーバ111から配信されるコンテンツについて図2を用いて説明する。
 図2は、コンテンツ配信サーバ111で制御を行うコンテンツについて、上段から、ライブコンテンツ、追っかけコンテンツ、コンテンツの再生速度倍率、音周波数倍率を示している。また、横軸は時間の進行を示している。
 図2の1段目に示すライブコンテンツは、配信開始から配信終了までの間、ライブコンテンツ配信装置121からコンテンツ配信サーバ111を介して視聴者端末131に配信される。
 図2の2段目に示す追っかけコンテンツは、斜線で示した領域であり、視聴者端末131から追っかけリクエストによって、ライブコンテンツ配信装置121からコンテンツ配信サーバ111を介して視聴者端末131に配信される。下記で示す追いつきポイントで、視聴者端末131に表示される映像はライブコンテンツへと戻る。なお、図2では、追っかけコンテンツはライブコンテンツの配信開始時からの内容を追っかけて再生する状態を示していが、ライブコンテンツの途中から追っかけて再生を行っても構わない。
 図2の3段目は、各コンテンツの映像、音の再生速度を示している。図2では、ライブコンテンツは生配信であるので基準となる1倍(等倍)の速度で再生される。これに対して、追っかけコンテンツはライブコンテンツの1.3倍の速度で再生される。そのため、追っかけコンテンツは、追いつきポイントでライブコンテンツに追いつくことになる。
 図2の4段目は、各コンテンツの音の変更する周波数の倍率を示している。図2では、基準となる1倍の周波数倍率は、ライブコンテンツ配信装置121から送信されるライブコンテンツの音を基準としている。周波数倍率は、ライブコンテンツと追っかけコンテンツの対応する同じ場面における音の周波数の比のことである。追っかけリクエストがあってから追いつきポイントまでは、ライブコンテンツの音は、周波数を1.5倍として再生される。すなわち、通常の再生音に比べて高い音で再生される。追っかけコンテンツの音は、追っかけコンテンツが1.3倍の速度で再生されているが、音の周波数は1倍で再生される。すなわち、音の再生速度は速いが、音の高さは通常の再生される音と同じになる。このことにより、ライブコンテンツと追っかけコンテンツが同時に再生される場合に、ライブコンテンツの音が追っかけコンテンツの音よりも高く再生されるため、視聴者は、各コンテンツの音を認識することができる。追いつきポイントを過ぎると、追っかけコンテンツは終了し、ライブコンテンツの音は1倍の周波数として再生される。
  <処理の流れ>
 次に、本開示の第1の実施形態に係るコンテンツ配信システム1の動作について、図3に示すフローチャートを参照しながら説明する。図3のフローチャートは、コンテンツ配信サーバ111と、ライブコンテンツ配信装置121と、視聴者端末131の各動作の関連状態を示している。
 ステップS101において、ライブコンテンツ配信装置121は、ライブコンテンツを配信している間、ステップS117との間でループを行う。同様にステップS102において、コンテンツ配信サーバ111は、ライブコンテンツ配信装置121がライブコンテンツを配信していることに同期してステップS118との間でループを行う。また同様に、ステップS103において、視聴者端末131は、ライブコンテンツ配信装置121、コンテンツ配信サーバ111に同期して、ステップS119との間でループを行う。
 ステップS104において、ライブコンテンツ配信装置121は、コンテンツ配信サーバ111へ、ライブコンテンツの映像と音を送信する。ライブコンテンツは、ライブコンテンツ配信装置121で撮影されたものでも、他の装置で撮影されたものをライブコンテンツ配信装置121へ送信したものであっても構わない。
 ステップS105において、コンテンツ配信サーバ111は、ライブコンテンツ配信装置121から送信されたライブコンテンツを記憶する。具体的には、記憶部114は、通信部112を介して受信したライブコンテンツの映像と音を記憶する。
 ステップS106において、視聴者は、視聴者端末131から希望するライブコンテンツの視聴リクエストをコンテンツ配信サーバ111へ送信する。
 ステップS107において、コンテンツ配信サーバ111は、ステップS106でライブコンテンツの視聴リクエストを送信した視聴者端末131にライブコンテンツの映像と音を配信する。
 ステップS108において、視聴者端末131は、ステップS107で送信されたライブコンテンツの映像と音を再生する。
 ステップS109において、視聴者は、視聴者端末131から追っかけリクエストをコンテンツ配信サーバ111へ送信する。具体的には、既に配信が行われたライブコンンツの時間軸から、視聴したい時刻を選択し、当該時刻からライブコンテンツを追いかけて再生することをリクエストする。
 ステップS110において、コンテンツ配信サーバ111は、視聴者端末131から送信された追っかけリクエストの有無を判別する。制御部113は、追っかけリクエストを有(Y)と判別した場合、ステップS111へ処理を進める。追っかけリクエストを無(N)と判別した場合、ステップS118へ処理を進める。
 ステップS111において、制御部113は、記憶部114に記憶されているライブコンテンツの映像と音声から追っかけコンテンツを生成する。ステップS110で送信された、追っかけリクエストで指定されたライブコンテンツの再生開始希望時刻と、現在の時刻の差分から、追っかけコンテンツの再生速度の設定を行う。
 ステップS112において、制御部113は、ライブコンテンツ配信装置121から送信されているライブコンテンツの音の変更を行い、変更音を生成する。制御部113は、音を元の周波数よりも高い周波数へと変調する。なお、制御部113は、音の変更方法として、音を元の周波数より下げる変調を行っても、元の音に対して音色を変化させても、元の音に対して音量を変化させても構わない。音量の変化として、ライブコンテンツの音を無音にしても構わない。その他、視聴者が、元の音との変化を聞き分けられるように変換を行っても構わない。
 ステップS113において、制御部113は、ステップS111で生成した追っかけコンテンツの映像と音と、ステップS112で生成されたライブコンテンツの変更音とを合成コンテンツとして生成する。
 ステップS114において、通信部112は、ステップS113で生成された合成コンテンツを、ステップS109で追っかけリクエストが送信された視聴者端末131に送信する。
 ステップS115において、視聴者端末131は、ステップS114で送信された合成コンテンツの映像と音を再生する。画面には追っかけコンテンツの映像のみが表示されるため、視聴者は、追っかけコンテンツの映像に集中しながら、追っかけコンテンツとは別にライブコンテンツの変更音を意識することで、ライブコンテンツの進行状況を知ることができる。
 ステップS116において、制御部113は、追っかけコンテンツがライブコンテンツに追いついたか否かを判別する。制御部113は追いついた(Y)と判別した場合、ステップS118へ処理を進める。追いついていない(N)と判別した場合、ステップS111へ処理を戻す。
 ステップS117において、ライブコンテンツ配信装置121は、ライブコンテンツを配信が終了するまでステップS101との間でループを行う。同様にステップS118において、コンテンツ配信サーバ111は、ステップS102との間でライブコンテンツ配信装置121がライブコンテンツを配信していることに同期してループを行う。また同様に、ステップS119において、視聴者端末131は、ステップS103までの間、ライブコンテンツ配信装置121、コンテンツ配信サーバ111に同期してループを行う。
  <効果の説明>
 以上のように、本開示の第1の実施形態に係るコンテンツ配信システム1によれば、視聴者は、視聴者端末131でライブコンテンツと追っかけコンテンツをライブコンテンツの音と追っかけコンテンツの音を聞き分けながら、追っかけコンテンツを視聴することができる。これにより、視聴者が、ライブコンテンツを見逃したような場合、自然な音の高さである追っかけコンテンツの再生の視聴に集中しながらも、音の高さが異なるライブコンテンツも聞き分けてリアルタイムな状況を知ることができる。
 なお、ステップS113において、制御部113は、ステップS111で生成した追っかけコンテンツと、ステップS112で生成されたライブコンテンツの変更音と、ステップS104で送信されているライブコンテンツの映像を合成コンテンツとして生成しても構わない。ステップS115で再生されるのは、追っかけコンテンツの映像と音、そしてライブコンテンツの映像とライブコンテンツの変更音となる。追っかけコンテンツとライブコンテンツの両方の映像と音を再生しながら、さらに追っかけコンテンツとライブコンテンツの音を認識しやすくすることができる。その際、視聴者端末131において、ライブコンテンツの映像と追っかけコンテンツの映像を並べて表示してもよい。また、PinP(Picture―In―Picture)のように、追っかけコンテンツの映像を表示している画面の中にライブコンテンツの映像を小さく表示してもよいし、その逆であってもよい。
 また、ライブコンテンツの音と追っかけコンテンツの音を、左右のスピーカーやヘッドフォンにそれぞれ割り当てて再生しても構わない。音の出ている側によって、ライブコンテンツの音と追っかけコンテンツの音をより認識しやすくすることができる。
 また、コンテンツは、例えばインターネット配信の授業や講義等にも用いることができる。実際の授業等がリアルタイムに進行しているときに、同時に過去の授業等に遡って再生することで、不明だった点の理解を高めながらリアルタイムの授業等を理解することができる。
 (第2の実施形態)
 本開示の第2の実施形態である、ライブコンテンツの音を変更し、追っかけコンテンツとともに配信するコンテンツ配信システム1について説明する。なお、第2の実施形態では、第1の実施形態に係るコンテンツ配信システム1を用いて説明する。
  <コンテンツについて>
 本開示の第2の実施形態に係るコンテンツ配信サーバ111から配信されるコンテンツについて図4を用いて説明する。
 図4は、コンテンツ配信サーバ111で制御を行うコンテンツについて、上段から、ライブコンテンツ、追っかけコンテンツ、コンテンツの再生速度倍率、音周波数倍率を示している。また、横軸は時間の進行を示している。
 図4の1段目に示すライブコンテンツは、配信開始から配信終了までの間、ライブコンテンツ配信装置121からコンテンツ配信サーバ111を介して視聴者端末131に配信される。
 図4の2段目に示す追っかけコンテンツは、斜線で示した領域であり、視聴者端末131から追っかけリクエストによって、ライブコンテンツ配信装置121からコンテンツ配信サーバ111を介して視聴者端末131に配信される。図2では、追っかけコンテンツはライブコンテンツの配信開始時からの内容を追っかけて再生する状態を示している。
 図4の3段目は、各コンテンツの映像、音の再生速度を示している。図4では、ライブコンテンツは生配信であるので基準となる1倍の速度で再生される。これに対して、追っかけコンテンツはライブコンテンツの1.6倍の速度での再生から開始される。ライブコンテンツと追っかけコンテンツとの再生の時間差に応じて再生速度を変化させ、時間差が少なくなると再生速度の倍率を1に近づける。そして、追っかけコンテンツは、追いつきポイントでライブコンテンツに追いつくことになる。
 図4の4段目は、各コンテンツの音の変更する周波数の倍率を示している。図4では、基準となる1倍の周波数倍率は、ライブコンテンツ配信装置121から送信されるライブコンテンツの音を基準としている。追っかけリクエストがあったとき、ライブコンテンツの音は、周波数を1.5倍として再生される。すなわち、通常の再生音に比べて高い音で再生される。ライブコンテンツと追っかけコンテンツとの再生の時間差に応じて周波数倍率を変化させ、時間差が少なくなると周波数の倍率を1に近づける。すなわち、時間差に応じて変化(周波数の変更)の程度を決めている。そして、追いつきポイントでライブコンテンツの周波数倍率は1倍になる。追っかけコンテンツの音は、追っかけコンテンツが1.6倍から1倍の速度で変化して再生されているが、音は1倍の周波数で再生される。すなわち、音の再生速度は速いが、音の高さは通常の再生される音と同じになる。このことにより、ライブコンテンツと追っかけコンテンツが同時に再生される場合に、ライブコンテンツの音が追っかけコンテンツの音よりも高く再生されるため、視聴者は、各コンテンツの音を認識することができる。
  <効果の説明>
 以上のように、本開示の第2の実施形態に係るコンテンツ配信システム1によれば、追っかけコンテンツの再生速度とライブコンテンツの音の高さの変化を、ライブコンテンツと追っかけコンテンツの時間差に応じて変化させることができる。追っかけコンテンツがライブコンテンツに近づくにつれて再生速度と周波数が1倍に近づくため、視聴者は追っかけコンテンツからライブコンテンツへの切り替えを自然に感じることができる。
 (第3の実施形態)
 本開示の第3の実施形態である、ライブコンテンツの音を変更し、追っかけコンテンツとともに配信するコンテンツ配信システム1について説明する。なお、第3の実施形態では、第1の実施形態に係るコンテンツ配信システム1を用いて説明する。
  <コンテンツについて>
 本開示の第3の実施形態に係るコンテンツ配信サーバ111から配信されるコンテンツについて図5を用いて説明する。
 図5は、コンテンツ配信サーバ111で制御を行うコンテンツについて、上段から、ライブコンテンツ、追っかけコンテンツ、コンテンツの再生速度倍率、音周波数倍率を示している。また、横軸は時間の進行を示している。
 図5の1段目に示すライブコンテンツは、配信開始から配信終了までの間、ライブコンテンツ配信装置121からコンテンツ配信サーバ111を介して視聴者端末131に配信される。
 図5の2段目に示す追っかけコンテンツは、斜線で示した領域であり、視聴者端末131から追っかけリクエストによって、ライブコンテンツ配信装置121からコンテンツ配信サーバ111を介して視聴者端末131に配信される。図5では、追っかけコンテンツはライブコンテンツの配信開始時からの内容を追っかけて再生する状態を示している。
 図5の3段目は、各コンテンツの映像、音の再生速度を示している。図5では、ライブコンテンツは生配信であるので基準となる1倍の速度で再生される。追っかけコンテンツも、ライブコンテンツと同じ速度である1倍で再生される。すなわち、追っかけコンテンツはライブコンテンツに対して時間をずらして(タイムシフト)再生される状態である。
 図5の4段目は、各コンテンツの音の変更する周波数の倍率を示している。図3では、基準となる1倍の周波数倍率は、ライブコンテンツ配信装置121から送信されるライブコンテンツの音を基準としている。追っかけリクエストがあってから追いつきポイントまでは、ライブコンテンツの音は、周波数を1.3倍として再生される。すなわち、通常の再生音に比べて高い音で再生される。追っかけコンテンツの音は、追っかけコンテンツが1.3倍の速度で再生されているが、音は1倍の周波数で再生される。すなわち、音の再生速度は速いが、音の高さは通常の再生される音と同じになる。このことにより、ライブコンテンツと追っかけコンテンツが同時に再生される場合に、ライブコンテンツの音が追っかけコンテンツの音よりも高く再生されるため、視聴者は、各コンテンツの音を認識することができる。
  <効果の説明>
 以上のように、本開示の第3の実施形態に係るコンテンツ配信システム1によれば、追っかけコンテンツの再生速度をライブコンテンツと同じ速度で再生し、いわゆるタイムシフトにより再生を行う。これにより、視聴者が、ライブコンテンツを見逃したような場合、通常の速度で再生される追っかけコンテンツに集中しながらも、ライブコンテンツのリアルタイムな状況を知ることができる。
 (第4の実施形態)
 本開示の第4の実施形態である、ライブコンテンツに重畳して表示されるユーザ投稿情報により盛り上がりを通知するコンテンツ配信システム1について説明する。第4の実施形態では、第1の実施形態に係るコンテンツ配信システム1を用いて説明する。
  <コンテンツについて>
 本開示の第4の実施形態に係るコンテンツ配信サーバ111から配信されるコンテンツについて図6を用いて説明する。
 図6は、コンテンツ配信サーバ111で制御を行うコンテンツについて、上段から、ライブコンテンツ(ユーザ投稿情報数の変化表示を含む)、追っかけコンテンツ、コンテンツの再生速度倍率、音周波数倍率を示している。また、横軸は時間の進行を示している。ユーザ投稿情報は、ライブコンテンツに関連付けられる情報であり、視聴者端末131等から投稿されるコンテンツデータに対する突っ込みや感想などのコメントや文字の他にアイコンやスタンプ等の図形や音声データである。また、コンテンツの配信者が投稿する情報や、コンテンツ配信サーバ111の運営者が投稿する情報も含む。
 図6の1段目に示すライブコンテンツは、配信開始から配信終了までの間、ライブコンテンツ配信装置121からコンテンツ配信サーバ111を介して視聴者端末131に配信される。ライブコンテンツを示すバーの中には、時間当たりのユーザ投稿情報の数の変化を示す図が重畳されている。縦軸がユーザ投稿情報の数を示している。また、点線で示すのはユーザ情報投稿数が盛り上がっているかどうかを判別するための閾値であり、ユーザ情報投稿数が閾値を上回ったときに、コンテンツの盛り上がりと判別する。コンテンツ配信サーバ111が盛り上がりと判別すると、視聴者端末131に通知を行う。すなわち、追っかけコンテンツの再生中に通知を行う。通知手段は、アラート音をコンテンツの音に重畳しても、映像にアラートを重畳して表示しても構わない。
 追っかけコンテンツは、図6の2段目の斜線で示した領域であり、視聴者端末131から追っかけリクエストによって、ライブコンテンツ配信装置121からコンテンツ配信サーバ111を介して視聴者端末131に配信される。下記で示す追いつきポイントで、視聴者端末131に表示される映像はライブコンテンツへと戻る。なお、図6では、追っかけコンテンツはライブコンテンツの配信開始時からの内容を追っかけて再生する状態を示しているが、ライブコンテンツの途中から追っかけて再生を行っても構わない。
 図6の3段目は、各コンテンツの映像、音の再生速度を示している。図6では、ライブコンテンツは生配信であるので基準となる1倍の速度で再生される。これに対して、追っかけコンテンツはライブコンテンツの1.3倍の速度で再生される。そのため、追っかけコンテンツは、追いつきポイントでライブコンテンツに追いつくことになる。
 図6の4段目は、各コンテンツの音の変更する周波数の倍率を示している。図6では、基準となる1倍の周波数倍率は、ライブコンテンツ配信装置121から送信されるライブコンテンツの音を基準としている。追っかけリクエストがあってから追いつきポイントまでは、ライブコンテンツの音は、1.5倍の周波数で再生される。すなわち、通常の再生音に比べて高い音で再生される。追っかけコンテンツの音は、追っかけコンテンツが1.3倍の速度で再生されているが、音の周波数は1倍で再生される。すなわち、音の再生速度は速いが、音の高さは通常の再生される音と同じになる。このことにより、ライブコンテンツと追っかけコンテンツが同時に再生される場合に、ライブコンテンツの音が追っかけコンテンツの音よりも高く再生されるため、視聴者は、各コンテンツの音を認識することができる。追いつきポイントを過ぎると、追っかけコンテンツは終了し、ライブコンテンツの音は1倍の周波数として再生される。
  <処理の流れ>
 次に、本開示の第4の実施形態に係るコンテンツ配信システム1の動作について、図7に示すフローチャートを参照しながら説明する。図7のフローチャートは、コンテンツ配信サーバ111と、ライブコンテンツ配信装置121と、視聴者端末131の各動作の関連状態を示している。
 ステップS201において、ライブコンテンツ配信装置121は、ライブコンテンツを配信している間、ステップS220との間でループを行う。同様にステップS202において、コンテンツ配信サーバ111は、ライブコンテンツ配信装置121がライブコンテンツを配信していることに同期して、ステップS221との間でループを行う。また同様に、ステップS203において、視聴者端末131は、ライブコンテンツ配信装置121、コンテンツ配信サーバ111に同期して、ステップS222との間でループを行う。
 ステップS204において、ライブコンテンツ配信装置121は、コンテンツ配信サーバ111へ、ライブコンテンツの映像と音を送信する。ライブコンテンツは、ライブコンテンツ配信装置121で撮影されたものでも、他の装置で撮影されたものをライブコンテンツ配信装置121へ送信したものであっても構わない。
 ステップS205において、コンテンツ配信サーバ111は、ライブコンテンツ配信装置121から送信されたライブコンテンツを記憶する。具体的には、記憶部114は、通信部112を介して受信したライブコンテンツの映像と音を記憶する。
 ステップS206において、視聴者は、視聴者端末131から希望するライブコンテンツの視聴リクエストをコンテンツ配信サーバ111へ送信する。
 ステップS207において、コンテンツ配信サーバ111は、ステップS206でライブコンテンツの視聴リクエストを送信した視聴者端末131にライブコンテンツの映像と音を配信する。
 ステップS208において、視聴者端末131は、ステップS207で送信されたライブコンテンツの映像と音を再生する。
 ステップS209において、視聴者は、視聴者端末131から追っかけリクエストをコンテンツ配信サーバ111へ送信する。具体的には、既に配信が行われたライブコンンツの時間軸から、視聴したい時刻を選択し、当該時刻からライブコンテンツを追いかけて再生することをリクエストする。
 ステップS210において、コンテンツ配信サーバ111は、視聴者端末131から送信された追っかけリクエストの有無を判別する。制御部113は、追っかけリクエストを有(Y)と判別した場合、ステップS211へ処理を進める。追っかけリクエストを無(N)と判別した場合、ステップS221へ処理を進める。
 ステップS211において、制御部113は、記憶部114に記憶されているライブコンテンツの映像と音声から追っかけコンテンツを生成する。ステップS210で送信された、追っかけリクエストで指定されたライブコンテンツの再生開始希望時刻と、現在の時刻の差分から、追っかけコンテンツの再生速度の設定を行う。
 ステップS212において、制御部113は、ライブコンテンツ配信装置121から送信されているライブコンテンツの音の変更を行い、変更音を生成する。制御部113は、音を元の周波数よりも高い周波数へと変調する。なお、制御部113は、音の変更方法として、音を元の周波数より下げる変調を行っても、元の音に対して音色を変化させても、元の音に対して音量を変化させても構わない。その他、視聴者が、元の音との変化を聞き分けられるように変換を行っても構わない。
 ステップS213において、制御部113は、ステップS211で生成した追っかけコンテンツと、ステップS212で生成されたライブコンテンツの変更音を合成コンテンツとして生成する。
 ステップS214において、制御部113は、ライブコンテンツに対して投稿されているユーザ投稿情報の数をカウントする。ユーザ投稿情報は、ライブコンテンツに対してリアルタイムに投稿されており、ユーザ投稿情報の単位時間当たりの投稿数によって、ライブコンテンツの盛り上りの指標とすることができる。なお、ユーザ投稿情報の数の代わりに、ユーザ投稿情報の文字数を指標としても構わない。
 ステップS215において、制御部113は、ライブコンテンツに対して投稿されているユーザ投稿情報の数が閾値を上回っているかを判別する。閾値を上回っている場合には、制御部113は、ライブコンテンツが盛り上がっている(Y)と判別し、ステップS216へ処理を進める。制御部113が、盛り上がっていない(N)と判別した場合、ステップS217へ処理を進める。なお、当該閾値は、コンテンツ配信サーバ111の運営者が設定しても、視聴者が視聴者端末131から設定しても構わない。例えば、視聴者等が盛り上がりと判別する頻度が高いと感じる場合には、閾値を高く設定することができる。
 ステップS216において、制御部113は、ステップS213で生成した合成コンテンツに、盛り上り通知を合成する。具体的には、合成コンテンツに盛り上りを示すアラート音を合成する。また、合成コンテンツの中の追っかけコンテンツの映像の中にアラートを重畳して表示するように合成しても構わない。
 ステップS217において、通信部112は、ステップS213で生成された合成コンテンツを、ステップS209で追っかけリクエストが送信された視聴者端末131に送信する。
 ステップS218において、視聴者端末131は、ステップS217で送信された合成コンテンツの映像と音を再生する。
 ステップS219において、制御部113は、追っかけコンテンツがライブコンテンツに追いついたか否かを判別する。制御部113は追いついた(Y)と判別した場合、ステップS218へ処理を進める。追いついていない(N)と判別した場合、ステップS211へ処理を戻す。
 ステップS220において、ライブコンテンツ配信装置121は、ライブコンテンツを配信が終了するまでステップS201との間でループを行う。同様にステップS221において、コンテンツ配信サーバ111は、ステップS202との間でライブコンテンツ配信装置121がライブコンテンツを配信していることに同期してループを行う。また同様に、ステップS222において、視聴者端末131は、ステップS203までの間、ライブコンテンツ配信装置121、コンテンツ配信サーバ111に同期してループを行う。
  <効果の説明>
 以上のように、本開示の第4の実施形態に係るコンテンツ配信システム1によれば、ライブコンテンツの盛り上り状態を、ライブコンテンツに対するユーザ投稿情報により判別し、追っかけコンテンツを視聴している視聴者に通知することができる。これにより、視聴者が、追っかけコンテンツに集中しながらも、ライブコンテンツの盛り上り状態を知ることができ、ライブコンテンツの再生に表示を切り替えることができる。
 また、ライブコンテンツが盛り上がっていると判別された場合には、視聴者端末131では追っかけコンテンツの再生に合わせてライブコンテンツの再生を行ってもよいし、追っかけコンテンツの再生に変えてライブコンテンツの再生を行ってもよい。
 なお、ライブコンテンツへ投稿されるユーザ投稿情報を、文字認識により音声合成して、音としてライブコンテンツの音に重畳して再生しても構わない。
 (第5の実施形態)
 本開示の第5の実施形態である、視聴者端末にてライブコンテンツの音を変更し、追っかけコンテンツとともに再生するコンテンツ配信システム2について説明する。
  <構成>
 まず、図8を用いて本実施形態に係るライブコンテンツを視聴者に配信するためのコンテンツ配信サーバ111と、追っかけコンテンツを生成し再生する視聴者端末131を含むコンテンツ配信システム2の構成、及びその概要について説明する。
 本実施形態のコンテンツ配信システム2は、図8に示すように、コンテンツ配信サーバ111と、ライブコンテンツ配信装置121、視聴者端末131とが、例えばインターネットなどのネットワークNWに接続可能に構成されている。
 コンテンツ配信サーバ111は、後述するライブコンテンツ配信装置121から送信されるライブコンテンツを、視聴者端末131へ配信する。
 次に、ライブコンテンツ配信装置121の構成と動作について説明する。ライブコンテンツ配信装置121は、コンテンツの配信者が使用する装置であり、スマートフォン、携帯電話、PHS、コンピュータ、ゲーム装置、PDA、携帯型ゲーム機、腕時計、スマートウォッチ、ヘッドマウントディスプレイ、ウェアラブルディスプレイ、画像生成装置等の情報処理装置である。また、ライブコンテンツ配信装置121は、インターネット(WAN)、LANなどのネットワークNWを介してコンテンツ配信サーバ111に接続可能な装置である。なお、ライブコンテンツ配信装置121とコンテンツ配信サーバ111間の通信回線は有線でもよいし無線でもよい。配信者は、ライブコンテンツ配信装置121を使用して生配信されるライブコンテンツを作成する。ライブコンテンツ配信装置121は、作成されたライブコンテンツを、リアルタイムにコンテンツ配信サーバ111へ送信する。
 次に、視聴者端末131の構成と動作について説明する。視聴者端末131は、視聴者が使用する端末装置であり、スマートフォン、携帯電話、PHS、コンピュータ、ゲーム装置、PDA、携帯型ゲーム機、腕時計、スマートウォッチ、ヘッドマウントディスプレイ、ウェアラブルディスプレイ、画像生成装置等の情報処理装置である。また、視聴者端末131は、インターネット(WAN)、LANなどのネットワークNWを介してコンテンツ配信サーバ111に接続可能な装置である。なお、視聴者端末131とコンテンツ配信サーバ111間の通信回線は有線でもよいし無線でもよい。視聴者端末131は、端末通信部132と、端末制御部133と、端末記憶部134と、端末操作部135と、端末再生部136と、を備える。
 端末通信部132は、ネットワークNWを介してコンテンツ配信サーバ111と通信を行う通信インタフェースである。コンテンツ配信サーバ111から配信されるライブコンテンツを受信する。
 端末制御部133は、後述する端末記憶部134に記憶されたライブコンテンツの再生速度を変化させ、追っかけコンテンツを生成する。また、端末制御部133は、端末操作部135から追っかけリクエストが入力されると、ライブコンテンツと追っかけリクエストでリクエストされた時間差を算出し、再生速度の制御を行う。また、端末操作部135から追っかけリクエストが入力されると、ライブコンテンツの音を変更する。制御部113は、変更されたライブコンテンツの音をライブコンテンツの音として端末再生部136で再生する。
 端末記憶部134は、端末通信部132が受信したライブコンテンツを記憶する。
 端末操作部135は、視聴者端末131を使用する視聴者が、視聴者端末131を操作するためのキーデバイスやタッチパネルデバイスである。
 端末再生部136は、ライブコンテンツや追っかけコンテンツの映像や音を再生するための液晶や有機ELなどのディスプレイデバイスとスピーカーデバイスである。スピーカーに変えてヘッドフォンを用いても構わない。
 ライブコンテンツ配信装置121や、視聴者端末131は、インストールされた専用のアプリケーションソフトウェアによってコンテンツ配信サーバ111にアクセスしてもよい。また、コンテンツ配信サーバ111や、別途サーバが提供する動作環境(API(アプリケーションプログラミングインタフェース)、プラットフォーム等)を利用して、コンテンツ配信サーバ111にアクセスしてもよい。
  <コンテンツについて>
 本開示の第5の実施形態に係るコンテンツ配信サーバ111から配信されるコンテンツについては、第1の実施形態に係る図2と同様であるため、説明は省略する。
  <処理の流れ>
 次に、本開示の第5の実施形態に係るコンテンツ配信システム2の動作について、図9に示すフローチャートを参照しながら説明する。図9のフローチャートは、コンテンツ配信サーバ111と、ライブコンテンツ配信装置121と、視聴者端末131の各動作の関連状態を示している。
 ステップS301において、ライブコンテンツ配信装置121は、ライブコンテンツを配信している間、ステップS316との間でループを行う。同様にステップS302において、コンテンツ配信サーバ111は、ライブコンテンツ配信装置121がライブコンテンツを配信していることに同期して、ステップS317との間でループを行う。また同様に、ステップS303において、視聴者端末131は、ライブコンテンツ配信装置121、コンテンツ配信サーバ111に同期して、ステップS318との間でループを行う。
 ステップS304において、ライブコンテンツ配信装置121は、コンテンツ配信サーバ111へ、ライブコンテンツの映像と音を送信する。ライブコンテンツは、ライブコンテンツ配信装置121で撮影されたものでも、他の装置で撮影されたものをライブコンテンツ配信装置121へ送信したものであっても構わない。
 ステップS305において、視聴者は、視聴者端末131から希望するライブコンテンツの視聴リクエストをコンテンツ配信サーバ111へ送信する。
 ステップS306において、コンテンツ配信サーバ111は、ステップS305でライブコンテンツの視聴リクエストを送信した視聴者端末131にライブコンテンツの映像と音を配信する。
 ステップS307において、視聴者端末131は、コンテンツ配信サーバ111から配信されたライブコンテンツを記憶する。具体的には、端末記憶部134は、端末通信部132を介して受信したライブコンテンツの映像と音を記憶する。
 ステップS308において、視聴者端末131は、ステップS307で送信されたライブコンテンツの映像と音を再生する。
 ステップS309において、視聴者は、端末操作部135から追っかけリクエストを入力する。具体的には、既に配信が行われたライブコンンツの時間軸から、視聴したい時刻を選択し、当該時刻からライブコンテンツを追いかけて再生することをリクエストする。
 ステップS310において、端末制御部133は、端末操作部135から入力された追っかけリクエストの有無を判別する。端末制御部133は、追っかけリクエストを有(Y)と判別した場合、ステップS311へ処理を進める。追っかけリクエストを無(N)と判別した場合、ステップS318へ処理を進める。
 ステップS311において、端末制御部133は、端末記憶部134に記憶されているライブコンテンツの映像と音声から追っかけコンテンツを生成する。ステップS310で入力された、追っかけリクエストで指定されたライブコンテンツの再生開始希望時刻と、現在の時刻の差分から、追っかけコンテンツの再生速度の設定を行う。
 ステップS312において、端末制御部133は、コンテンツ配信サーバ111から配信されているライブコンテンツの音の変更を行い、変更音を生成する。端末制御部133は、音を元の周波数よりも高い周波数へと変調する。なお、端末制御部133は、音の変更方法として、音を元の周波数より下げる変調を行っても、元の音に対して音色を変化させても、元の音に対して音量を変化させても構わない。その他、視聴者が、元の音との変化を聞き分けられるように変換を行っても構わない。
 ステップS313において、端末制御部133は、ステップS311で生成した追っかけコンテンツの映像と音と、ステップS312で生成されたライブコンテンツの変更音とを合成コンテンツとして生成する。
 ステップS314において、視聴者端末131は、ステップS313で送信された合成コンテンツの映像と音を再生する。画面には追っかけコンテンツの映像のみが表示されるため、視聴者は、追っかけコンテンツの映像に集中しながら、追っかけコンテンツとは別にライブコンテンツの変更音を意識することで、ライブコンテンツの進行状況を知ることができる。
 ステップS315において、端末制御部133は、追っかけコンテンツがライブコンテンツに追いついたか否かを判別する。端末制御部133は追いついた(Y)と判別した場合、ステップS118へ処理を進める。追いついていない(N)と判別した場合、ステップS111へ処理を戻す。
 ステップS316において、ライブコンテンツ配信装置121は、ライブコンテンツを配信が終了するまでステップS301との間でループを行う。同様にステップS317において、コンテンツ配信サーバ111は、ステップS302との間でライブコンテンツ配信装置121がライブコンテンツを配信していることに同期してループを行う。また同様に、ステップS318において、視聴者端末131は、ステップS303までの間、ライブコンテンツ配信装置121、コンテンツ配信サーバ111に同期してループを行う。
  <効果の説明>
 以上のように、本開示の第5の実施形態に係るコンテンツ配信システム2によれば、視聴者は、コンテンツ配信サーバ111のサービスによらず、視聴者端末131でライブコンテンツと追っかけコンテンツをライブコンテンツの音と追っかけコンテンツの音を聞き分けながら、追っかけコンテンツを視聴することができる。これにより、視聴者が、ライブコンテンツを見逃したような場合、自然な音の高さである追っかけコンテンツの再生の視聴に集中しながらも、音の高さが異なるライブコンテンツも聞き分けてリアルタイムな状況を知ることができる。
 (プログラム)
 図10は、コンピュータ901の構成を示す概略ブロック図である。コンピュータ901は、CPU902、主記憶装置903、補助記憶装置904、インタフェース905を備える。
 ここで、本開示の実施形態に係るコンテンツ配信サーバ111を構成する各機能を実現するためのプログラムの詳細について説明する。
 コンテンツ配信サーバ111は、コンピュータ901に実装される。そして、コンテンツ配信サーバ111の各構成要素の動作は、プログラムの形式で補助記憶装置904に記憶されている。CPU902は、プログラムを補助記憶装置904から読み出して主記憶装置903に展開し、当該プログラムに従って上記処理を実行する。また、CPU902は、プログラムに従って、上記の記憶部に対応する記憶領域を主記憶装置903に確保する。
 当該プログラムは、具体的にはコンピュータ901に、受信したライブコンテンツを記憶するステップと、記憶されたライブコンテンツを、受信したライブコンテンツよりも遅れて再生する追っかけコンテンツとして配信するための制御を行うステップと、ライブコンテンツおよび追っかけコンテンツを視聴者端末へ配信するステップと、ライブコンテンツの音を変更し、変更した音を視聴者端末へ配信するステップと、を備えるコンテンツ配信プログラムである。
 なお、補助記憶装置904は、一時的でない有形の媒体の一例である。一時的でない有形の媒体の他の例としては、インタフェース905を介して接続される磁気ディスク、光磁気ディスク、CD-ROM、DVD-ROM、半導体メモリ等が挙げられる。また、このプログラムがネットワークを介してコンピュータ901に配信される場合、配信を受けたコンピュータ901が当該プログラムを主記憶装置903に展開し、上記処理を実行しても良い。
 また、当該プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、当該プログラムは、前述した機能を補助記憶装置904に既に記憶されている他のプログラムとの組み合わせで実現するもの、いわゆる差分ファイル(差分プログラム)であっても良い。
 これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものとする。
1,2…コンテンツ配信システム、111…コンテンツ配信サーバ、112…通信部、113…制御部、114…記憶部、121…ライブコンテンツ配信装置、131…視聴者端末、132…端末通信部、133…端末制御部、134…端末記憶部、135…端末操作部、136…端末再生部、901…コンピュータ、902…CPU、903…主記憶装置、904…補助記憶装置、905…インタフェース

 

Claims (14)

  1.  受信したライブコンテンツを記憶する記憶部と、
     前記記憶部に記憶された前記ライブコンテンツを、受信した前記ライブコンテンツよりも遅れて再生する追っかけコンテンツとして配信するための制御を行う制御部と、
     前記ライブコンテンツおよび前記追っかけコンテンツを視聴者端末へ配信する通信部と、
     を備え、
     前記制御部は、前記ライブコンテンツの音を変更し、変更した前記音を前記視聴者端末へ前記通信部を介して配信するコンテンツ配信サーバ。
  2.  前記制御部は、前記ライブコンテンツの音の周波数を、元の周波数よりも高く又は低く変更する変換を行い、
     追っかけコンテンツの周波数は対応する前記ライブコンテンツの周波数の等倍である請求項1に記載のコンテンツ配信サーバ。
  3.  前記制御部は、前記ライブコンテンツの音色又は/及び音量を変更する変換を行う請求項1又は2に記載のコンテンツ配信サーバ。
  4.  前記制御部は、前記音の変更の程度を、前記ライブコンテンツと前記追っかけコンテンツとの時間差に応じて制御を行う請求項2又は3に記載のコンテンツ配信サーバ。
  5.  前記制御部は、前記記憶部に記憶された前記ライブコンテンツを、受信した前記ライブコンテンツよりも速い再生速度である追っかけコンテンツへ変換する請求項1から4のいずれか一項に記載のコンテンツ配信サーバ。
  6.  前記制御部は、前記追っかけコンテンツの再生速度を、前記ライブコンテンツと前記追っかけコンテンツとの時間差に応じて制御を行う請求項5に記載のコンテンツ配信サーバ。
  7.  前記制御部は、前記ライブコンテンツに関連付けられるユーザ投稿情報の単位時間当たりの投稿数又は/及び単位時間当たりの文字数に応じて前記ライブコンテンツの盛り上り状態を判別し、盛り上り状態であると判別した場合、前記視聴者端末へ盛り上りの通知を送信する請求項1から6のいずれか一項に記載のコンテンツ配信サーバ。
  8.  前記制御部は、盛り上り状態であると判別した場合、前記視聴者端末への前記追っかけコンテンツの配信に合わせて又は前記追っかけコンテンツの配信に変えてライブコンテンツの配信を行う請求項7に記載のコンテンツ配信サーバ。
  9.  受信したライブコンテンツを記憶する記憶部と、
     前記記憶部に記憶された前記ライブコンテンツを、受信した前記ライブコンテンツよりも遅れて再生する追っかけコンテンツとして再生するための制御を行う制御部と、
     前記ライブコンテンツおよび前記追っかけコンテンツを再生する再生部と、
     を備え、
     前記制御部は、前記ライブコンテンツの音を変更し、変更した前記音を前記再生部で再生する端末装置。
  10.  ライブコンテンツを送信するライブコンテンツ配信装置と、
     コンテンツを視聴する端末装置と、
     前記ライブコンテンツ配信装置からライブコンテンツを受信するコンテンツ配信サーバと、を有するコンテンツ配信システムにおいて、
     受信した前記ライブコンテンツを記憶する記憶部と、
     前記記憶部に記憶された前記ライブコンテンツを、受信した前記ライブコンテンツよりも遅れて再生する追っかけコンテンツとして再生するための制御を行う制御部と、
     前記ライブコンテンツおよび前記追っかけコンテンツを再生する再生部と、
     を備え、
     前記制御部は、前記ライブコンテンツの音を変更し、変更した前記音を視聴者端末で再生するコンテンツ配信システム。
  11.  記憶部が、受信したライブコンテンツを記憶するステップと、
     制御部が、前記記憶部に記憶された前記ライブコンテンツを、受信した前記ライブコンテンツよりも遅れて再生する追っかけコンテンツとして配信するための制御を行うステップと、
     通信部が、前記ライブコンテンツおよび前記追っかけコンテンツを視聴者端末へ配信するステップと、
     前記制御部が、前記ライブコンテンツの音を変更し、変更した前記音を前記視聴者端末へ前記通信部を介して配信するステップと、
     を備えるコンテンツ配信方法。
  12.  記憶部が、受信したライブコンテンツを記憶するステップと、
     制御部が、前記記憶部に記憶された前記ライブコンテンツを、受信した前記ライブコンテンツよりも遅れて再生する追っかけコンテンツとして再生するための制御を行うステップと、
     再生部が、前記ライブコンテンツおよび前記追っかけコンテンツを再生するステップと、
     を備え、
     前記制御部は、前記ライブコンテンツの音を変更し、変更した前記音を前記再生部で再生するステップと、
     を備えるコンテンツ再生方法。
  13.  受信したライブコンテンツを記憶するステップと、
     記憶された前記ライブコンテンツを、受信した前記ライブコンテンツよりも遅れて再生する追っかけコンテンツとして配信するための制御を行うステップと、
     前記ライブコンテンツおよび前記追っかけコンテンツを視聴者端末へ配信するステップと、
     前記ライブコンテンツの音を変更し、変更した前記音を前記視聴者端末へ配信するステップと、
     をコンピュータによって実現するためのコンテンツ配信プログラム。
  14.  受信したライブコンテンツを記憶するステップと、
     記憶された前記ライブコンテンツを、受信した前記ライブコンテンツよりも遅れて再生する追っかけコンテンツとして再生するための制御を行うステップと、
     前記ライブコンテンツおよび前記追っかけコンテンツを再生するステップと、
     を備え、
     前記ライブコンテンツの音を変更し、変更した前記音を再生するステップと、
     をコンピュータによって実現するためのコンテンツ再生プログラム。

     
PCT/JP2018/035878 2017-09-29 2018-09-27 コンテンツ配信サーバ、端末装置、コンテンツ配信システム、コンテンツ配信方法、コンテンツ再生方法、コンテンツ配信プログラムおよびコンテンツ再生プログラム WO2019065816A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US16/650,355 US11032621B2 (en) 2017-09-29 2018-09-27 Content distribution server, terminal device, content distribution system, content distribution method, content play method, content distribution program, and content player program
CN201880056664.6A CN111316654A (zh) 2017-09-29 2018-09-27 内容信息分发服务器、终端装置、内容信息分发系统、内容信息分发方法、内容信息播放方法、内容信息分发程序以及内容信息播放程序

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-190906 2017-09-29
JP2017190906A JP6434106B1 (ja) 2017-09-29 2017-09-29 コンテンツ配信サーバ、端末装置、コンテンツ配信システム、コンテンツ配信方法、コンテンツ再生方法、コンテンツ配信プログラムおよびコンテンツ再生プログラム

Publications (1)

Publication Number Publication Date
WO2019065816A1 true WO2019065816A1 (ja) 2019-04-04

Family

ID=64560722

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/035878 WO2019065816A1 (ja) 2017-09-29 2018-09-27 コンテンツ配信サーバ、端末装置、コンテンツ配信システム、コンテンツ配信方法、コンテンツ再生方法、コンテンツ配信プログラムおよびコンテンツ再生プログラム

Country Status (4)

Country Link
US (1) US11032621B2 (ja)
JP (1) JP6434106B1 (ja)
CN (1) CN111316654A (ja)
WO (1) WO2019065816A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6748323B1 (ja) * 2020-03-30 2020-08-26 株式会社ドワンゴ 動画配信装置、動画配信方法、および、動画配信プログラム
US11412314B2 (en) * 2020-11-20 2022-08-09 At&T Intellectual Property I, L.P. System for summary segment association and dynamic selection for viewing with a content item of interest
CN112672172B (zh) * 2020-11-30 2023-04-28 北京达佳互联信息技术有限公司 一种音频替换系统、方法、装置、电子设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004088466A (ja) * 2002-08-27 2004-03-18 Nec Corp ライブ映像配信システム
JP2005039496A (ja) * 2003-07-14 2005-02-10 Matsushita Electric Ind Co Ltd 映像信号表示装置及び方法
JP2007150890A (ja) * 2005-11-29 2007-06-14 Sharp Corp 映像表示装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06141004A (ja) * 1992-10-27 1994-05-20 Mitsubishi Corp 課金システム
US5548346A (en) * 1993-11-05 1996-08-20 Hitachi, Ltd. Apparatus for integrally controlling audio and video signals in real time and multi-site communication control method
US7260035B2 (en) * 2003-06-20 2007-08-21 Matsushita Electric Industrial Co., Ltd. Recording/playback device
JP2005011150A (ja) * 2003-06-20 2005-01-13 Victor Co Of Japan Ltd コンテンツ配信システム
US7502545B2 (en) * 2005-04-28 2009-03-10 Microsoft Corporation Picture-in-picture window for video replay
JP5312744B2 (ja) * 2007-01-30 2013-10-09 京セラ株式会社 放送受信装置および放送受信方法
JP4952469B2 (ja) * 2007-09-19 2012-06-13 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP2012049875A (ja) * 2010-08-27 2012-03-08 Fujitsu Ltd 映像配信サーバ及び映像配信方法
US9699485B2 (en) * 2012-08-31 2017-07-04 Facebook, Inc. Sharing television and video programming through social networking
CN104065982B (zh) * 2014-06-19 2015-12-30 腾讯科技(深圳)有限公司 流媒体直播的方法和装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004088466A (ja) * 2002-08-27 2004-03-18 Nec Corp ライブ映像配信システム
JP2005039496A (ja) * 2003-07-14 2005-02-10 Matsushita Electric Ind Co Ltd 映像信号表示装置及び方法
JP2007150890A (ja) * 2005-11-29 2007-06-14 Sharp Corp 映像表示装置

Also Published As

Publication number Publication date
US11032621B2 (en) 2021-06-08
CN111316654A (zh) 2020-06-19
US20200304881A1 (en) 2020-09-24
JP6434106B1 (ja) 2018-12-05
JP2019068215A (ja) 2019-04-25

Similar Documents

Publication Publication Date Title
JP6473252B1 (ja) ゲーム実行装置およびゲームプログラム
WO2019065816A1 (ja) コンテンツ配信サーバ、端末装置、コンテンツ配信システム、コンテンツ配信方法、コンテンツ再生方法、コンテンツ配信プログラムおよびコンテンツ再生プログラム
JP2008278270A (ja) コメント配信サーバ、端末装置、コメント配信方法、コメント出力方法、及びプログラム
WO2018180586A1 (ja) 仮想処理サーバ、仮想処理サーバの制御方法、コンテンツ配信システム、および端末装置のアプリケーションプログラム
JP2009301477A (ja) コンテンツ編集装置、方法及びプログラム
CN106792237B (zh) 一种消息显示方法和系统
WO2017026170A1 (ja) クライアント機器、サーバ機器、表示処理方法、及び、データ配信方法
JP2013051552A (ja) 視聴管理装置、視聴装置、視聴管理プログラム、及び視聴プログラム
JP2019068428A (ja) コンテンツ配信サーバ、端末装置、コンテンツ配信システム、コンテンツ配信方法、コンテンツ再生方法、コンテンツ配信プログラムおよびコンテンツ再生プログラム
JP2009069407A (ja) 情報出力装置
JP2019036946A (ja) コンテンツ配信サーバ、コンテンツ配信方法およびコンテンツ配信プログラム
JP2011216930A (ja) 映像再生装置、映像表示装置および映像再生方法
JP2022153419A (ja) ゲーム装置のプログラム、ゲーム装置の制御方法、及び、配信システム
JP2018142989A (ja) 端末装置、動画配信装置、プログラム
JP2009049456A (ja) コンテンツ管理サーバ、コンテンツ提示装置、コンテンツ管理プログラム、及びコンテンツ提示プログラム
WO2017010145A1 (ja) 音声配信装置、音声再生端末、認証デバイス、音声配信システム、および音声配信方法
JP2016072651A (ja) 動画配信装置、端末装置及びプログラム
JP6385538B1 (ja) コンテンツ配信サーバ、コンテンツ配信方法およびコンテンツ配信プログラム
JP2011053345A (ja) 歌詞文字の立体表示機能を有するカラオケシステム
JP2016173670A (ja) 情報出力装置、情報出力方法、およびプログラム
JP2007134808A (ja) 音声配信装置、音声配信方法、音声配信プログラム、および記録媒体
JP2014155070A (ja) 端末装置、端末装置の表示方法、プログラム、サーバ装置
JP6847292B1 (ja) 情報処理装置、通信システム、コンテンツ再生プログラム、コンテンツ再生方法
JP6914389B1 (ja) プログラム、演者応援方法、及び情報処理装置
JP4815333B2 (ja) 携帯機器、鑑賞プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18860356

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18860356

Country of ref document: EP

Kind code of ref document: A1