JP2018011138A - Video distribution system and video distribution method - Google Patents

Video distribution system and video distribution method Download PDF

Info

Publication number
JP2018011138A
JP2018011138A JP2016137098A JP2016137098A JP2018011138A JP 2018011138 A JP2018011138 A JP 2018011138A JP 2016137098 A JP2016137098 A JP 2016137098A JP 2016137098 A JP2016137098 A JP 2016137098A JP 2018011138 A JP2018011138 A JP 2018011138A
Authority
JP
Japan
Prior art keywords
content
moving image
distributor
terminal
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016137098A
Other languages
Japanese (ja)
Inventor
侑平 根岸
Yuhei Negishi
侑平 根岸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CyberAgent Inc
Original Assignee
CyberAgent Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CyberAgent Inc filed Critical CyberAgent Inc
Priority to JP2016137098A priority Critical patent/JP2018011138A/en
Publication of JP2018011138A publication Critical patent/JP2018011138A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

PROBLEM TO BE SOLVED: To promote activation of communications between a distributor and a viewer.SOLUTION: The present invention relates to a video distribution system comprising a video distribution server and a content distribution server. In the video distribution system, the video distribution server includes a distribution part for distributing a video image that is picked up by a distributor terminal, to the distributor terminal and a viewer terminal. The content distribution server includes: a content storage part for storing content data beforehand; and a content control part for distributing the content data that are selected by a distributor, to the distributor terminal and the viewer terminal.SELECTED DRAWING: Figure 1

Description

本発明は、動画を配信する技術に関する。   The present invention relates to a technique for distributing moving images.

ネットワークを介した動画配信サービスでは、配信者が配信した動画について、配信者と視聴者との間のコミュニケーションをとることで動画を盛り上げていくことが望ましい。そこで、配信者と視聴者との間でコミュニケーションが行えるように、動画と連携したチャットサービスが提案されている(例えば、特許文献1参照)。   In a video distribution service via a network, it is desirable that a video distributed by a distributor is boosted by communicating between the distributor and the viewer. Therefore, a chat service linked with a moving image has been proposed so that communication can be performed between the distributor and the viewer (for example, see Patent Document 1).

特開2013−149262号公報JP 2013-149262 A

しかしながら、配信者の配信した動画によっては、コミュニケーションが活性化せず、視聴者の不満につながるという問題があった。   However, depending on the video distributed by the distributor, there is a problem that communication is not activated and the viewer is dissatisfied.

上記事情に鑑み、本発明は、配信者と視聴者との間のコミュニケーションの活性化を促す技術を提供することを目的としている。   In view of the above circumstances, an object of the present invention is to provide a technology that promotes activation of communication between a distributor and a viewer.

本発明の一態様は、動画配信サーバとコンテンツ配信サーバとを備える動画配信システムであって、前記動画配信サーバは、配信者端末が撮像した動画を前記配信者端末及び視聴者端末に配信する配信部を備え、前記コンテンツ配信サーバは、コンテンツデータを予め記憶するコンテンツ記憶部と、配信者によって選択された前記コンテンツデータを前記配信者端末及び前記視聴者端末に配信するコンテンツ制御部と、を備える動画配信システムである。   One aspect of the present invention is a video distribution system including a video distribution server and a content distribution server, wherein the video distribution server distributes a video captured by a distributor terminal to the distributor terminal and the viewer terminal. The content distribution server includes a content storage unit that stores content data in advance, and a content control unit that distributes the content data selected by the distributor to the distributor terminal and the viewer terminal. It is a video distribution system.

本発明の一態様は、上記の動画配信システムであって、リアルタイム通信サーバを介して、前記コンテンツデータを前記視聴者端末に配信する。   One aspect of the present invention is the moving image distribution system described above, which distributes the content data to the viewer terminal via a real-time communication server.

本発明の一態様は、上記の動画配信システムであって、前記コンテンツ制御部は、配信したコンテンツデータに対して、視聴者端末からの入力を受け付け、前記視聴者端末の入力の結果を示すデータを前記配信者端末及び前記視聴者端末に送信する。   One aspect of the present invention is the moving image distribution system described above, wherein the content control unit receives input from a viewer terminal for the distributed content data, and data indicating a result of input from the viewer terminal Is transmitted to the distributor terminal and the viewer terminal.

本発明の一態様は、上記の動画配信システムであって、前記コンテンツ制御部は、配信したコンテンツデータに対して、前記視聴者端末からの入力を受け付け、前記視聴者端末の入力に応じて付加価値を有するデータを、前記コンテンツ記憶部に登録する。   One aspect of the present invention is the moving image distribution system described above, wherein the content control unit accepts input from the viewer terminal for the distributed content data, and adds the content data according to the input from the viewer terminal Data having value is registered in the content storage unit.

本発明の一態様は、動画配信サーバとコンテンツ配信サーバとを備える動画配信システムが行う動画配信方法であって、前記動画配信サーバが、配信者が撮像した動画を配信者端末及び視聴者端末に配信する配信ステップと、コンテンツデータを予め記憶するコンテンツ記憶部を備える前記コンテンツ配信サーバが、前記配信者によって選択された前記コンテンツデータを前記配信者端末及び前記視聴者端末に配信するコンテンツ制御ステップと、を有する動画配信方法である。   One aspect of the present invention is a moving image distribution method performed by a moving image distribution system including a moving image distribution server and a content distribution server, wherein the moving image distribution server transmits a moving image captured by a distributor to a distributor terminal and a viewer terminal. A distribution step of distributing, and a content control step of distributing the content data selected by the distributor to the distributor terminal and the viewer terminal, wherein the content distribution server including a content storage unit that stores content data in advance , A moving image distribution method.

本発明により、配信者と視聴者との間のコミュニケーションの活性化を促すことが可能となる。   According to the present invention, activation of communication between a distributor and a viewer can be promoted.

動画配信システム1のシステム構成を表すシステム構成図である。1 is a system configuration diagram illustrating a system configuration of a moving image distribution system 1. FIG. 配信者端末100の機能構成を表す機能構成図である。3 is a functional configuration diagram illustrating a functional configuration of a distributor terminal 100. FIG. 視聴者端末200の機能構成を表す機能構成図である。3 is a functional configuration diagram illustrating a functional configuration of a viewer terminal 200. FIG. コンテンツ配信サーバ300の機能構成を表す機能構成図である。3 is a functional configuration diagram illustrating a functional configuration of a content distribution server 300. FIG. コンテンツテーブルの具体例を示す図である。It is a figure which shows the specific example of a content table. 配信先テーブルの具体例を示す図である。It is a figure which shows the specific example of a delivery destination table. 画像サーバ400の機能構成を表す機能構成図である。2 is a functional configuration diagram illustrating a functional configuration of an image server 400. FIG. 動画配信サーバ500の機能構成を表す機能構成図である。3 is a functional configuration diagram illustrating a functional configuration of a moving image distribution server 500. FIG. 動画テーブルの具体例を示す図である。It is a figure which shows the specific example of a moving image table. リアルタイム通信サーバ600の機能構成を表す機能構成図である。3 is a functional configuration diagram illustrating a functional configuration of a real-time communication server 600. FIG. コンテンツデータの処理の流れの具体例を示すシーケンス図である。It is a sequence diagram which shows the specific example of the flow of a process of content data. コンテンツデータの処理の流れの具体例を示すシーケンス図である。It is a sequence diagram which shows the specific example of the flow of a process of content data. コンテンツ進行通知の受付からコンテンツデータが配信されるまでの処理の流れを示すシーケンス図である。It is a sequence diagram which shows the flow of a process from reception of a content progress notification until content data is distributed. ステップS106及びステップS109の実行後、配信者端末100及び視聴者端末200に表示されるイメージ図である。It is an image figure displayed on the distributor terminal 100 and the viewer terminal 200 after execution of step S106 and step S109. ステップS110において、配信者端末100及び視聴者端末200に表示されるイメージ図である。It is an image figure displayed on the distributor terminal 100 and the viewer terminal 200 in step S110. ステップS112において、配信者端末100及び視聴者端末200に表示されるイメージ図である。It is an image figure displayed on the distributor terminal 100 and the viewer terminal 200 in step S112. ステップS113において、配信者端末100及び視聴者端末200に表示されるイメージ図である。It is an image figure displayed on the distributor terminal 100 and the viewer terminal 200 in step S113. ステップS114において、配信者端末100及び視聴者端末200に表示されるイメージ図である。It is an image figure displayed on the distributor terminal 100 and the viewer terminal 200 in step S114. ステップS117において、配信者端末100及び視聴者端末200に表示されるイメージ図である。It is an image figure displayed on the distributor terminal 100 and the viewer terminal 200 in step S117. ステップS118において、配信者端末100及び視聴者端末200に表示されるイメージ図である。It is an image figure displayed on the distributor terminal 100 and the viewer terminal 200 in step S118. ステップS122において、配信者端末100及び視聴者端末200に表示されるイメージ図である。It is an image figure displayed on the distributor terminal 100 and the viewer terminal 200 in step S122. ステップS123において、配信者端末100及び視聴者端末200に表示されるイメージ図である。It is an image figure displayed on the distributor terminal 100 and the viewer terminal 200 in step S123. ステップS125において、配信者端末100及び視聴者端末200に表示されるイメージ図である。It is an image figure displayed on the distributor terminal 100 and the viewer terminal 200 in step S125. ステップS126において、配信者端末100及び視聴者端末200に表示されるイメージ図である。It is an image figure displayed on the distributor terminal 100 and the viewer terminal 200 in step S126. ステップS128において、配信者端末100及び視聴者端末200に表示されるイメージ図である。It is an image figure displayed on the distributor terminal 100 and the viewer terminal 200 in step S128.

(システム構成)
図1は、動画配信システム1のシステム構成を表すシステム構成図である。動画配信システム1は、配信者端末100、視聴者端末200、コンテンツ配信サーバ300、画像サーバ400、動画配信サーバ500及びリアルタイム通信サーバ600を備える。配信者端末100、視聴者端末200、コンテンツ配信サーバ300、画像サーバ400、動画配信サーバ500及びリアルタイム通信サーバ600は、ネットワーク700を介して互いに通信可能に接続される。ネットワーク700は、例えば、インターネットで構成されてもよい。
(System configuration)
FIG. 1 is a system configuration diagram illustrating a system configuration of the moving image distribution system 1. The moving image distribution system 1 includes a distributor terminal 100, a viewer terminal 200, a content distribution server 300, an image server 400, a moving image distribution server 500, and a real time communication server 600. Distributor terminal 100, viewer terminal 200, content distribution server 300, image server 400, moving image distribution server 500, and real-time communication server 600 are connected to each other via a network 700 so as to communicate with each other. The network 700 may be configured by the Internet, for example.

図2は、配信者端末100の機能構成を表す機能構成図である。配信者端末100は、タブレットコンピュータ、パーソナルコンピュータ又はスマートフォン等の情報処理装置を用いて構成される。配信者端末100は、バスで接続されたCPU(Central Processing Unit)やメモリや補助記憶装置などを備える。配信者端末100には、以下に示す機能を備えることが可能な装置であればどのような装置もなり得る。配信者端末100は、動画配信プログラムを実行することによって、通信部101、第1動画制御部102、音声入力部103、映像入力部104、第2動画制御部105、音声出力部106、映像出力部107及び操作部108を備える装置として機能する。なお、配信者端末100の各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されてもよい。動画配信プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM、半導体記憶装置(例えばSSD:Solid State Drive)等の可搬媒体、コンピュータシステムに内蔵されるハードディスクや半導体記憶装置等の記憶装置である。動画配信プログラムは、電気通信回線を介して送信されてもよい。動画配信プログラムはクラウドや仮想マシンで実行されてもよい。   FIG. 2 is a functional configuration diagram illustrating a functional configuration of the distributor terminal 100. The distributor terminal 100 is configured using an information processing apparatus such as a tablet computer, a personal computer, or a smartphone. The distributor terminal 100 includes a central processing unit (CPU), a memory, an auxiliary storage device, and the like connected by a bus. The distributor terminal 100 can be any device as long as the device can have the following functions. The distributor terminal 100 executes the moving image distribution program, whereby the communication unit 101, the first moving image control unit 102, the audio input unit 103, the video input unit 104, the second moving image control unit 105, the audio output unit 106, and the video output. It functions as a device including the unit 107 and the operation unit 108. Note that all or part of each function of the distributor terminal 100 may be realized using hardware such as an application specific integrated circuit (ASIC), a programmable logic device (PLD), or a field programmable gate array (FPGA). . The moving image distribution program may be recorded on a computer-readable recording medium. The computer-readable recording medium is a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, a semiconductor storage device (for example, SSD: Solid State Drive), a hard disk built in a computer system, or a semiconductor storage. A storage device such as a device. The moving image distribution program may be transmitted via a telecommunication line. The video distribution program may be executed in the cloud or a virtual machine.

通信部101は、ネットワークインタフェースである。通信部101はネットワーク700を介してコンテンツ配信サーバ300、画像サーバ400及び動画配信サーバ500と通信する。   The communication unit 101 is a network interface. The communication unit 101 communicates with the content distribution server 300, the image server 400, and the moving image distribution server 500 via the network 700.

第1動画制御部102は、音声入力部103及び映像入力部104から受け取ったデータを動画データに加工する処理を実行する。第1動画制御部102は、この動画データ及び配信者IDを動画配信サーバ500に送信する。第1動画制御部102は、この動画データを第2動画制御部105に渡す。   The first moving image control unit 102 executes processing for processing data received from the audio input unit 103 and the video input unit 104 into moving image data. The first moving image control unit 102 transmits the moving image data and the distributor ID to the moving image distribution server 500. The first moving image control unit 102 passes this moving image data to the second moving image control unit 105.

音声入力部103は、マイク等の既存の音声入力装置を用いて構成される。音声入力部103は、配信者の音声を配信者端末100に入力する際に配信者によって操作される。音声入力部103は、例えば配信者の音声を受け付ける。音声入力部103は、音声入力装置を配信者端末100に接続するためのインタフェースであってもよい。この場合、音声入力部103は、音声入力装置において入力された音声信号から音声データを生成し配信者端末100に入力する。音声入力部103は、入力された音声データを第1動画制御部102に渡す。   The voice input unit 103 is configured using an existing voice input device such as a microphone. The voice input unit 103 is operated by the distributor when inputting the voice of the distributor to the distributor terminal 100. The voice input unit 103 receives a voice of a distributor, for example. The voice input unit 103 may be an interface for connecting the voice input device to the distributor terminal 100. In this case, the voice input unit 103 generates voice data from the voice signal input by the voice input device and inputs the voice data to the distributor terminal 100. The audio input unit 103 passes the input audio data to the first moving image control unit 102.

映像入力部104は、カメラ等の既存の撮像装置を用いて構成される。映像入力部104は、配信者の映像を配信者端末100に入力する際に配信者によって操作される。映像入力部104は、例えば配信者の姿を撮像する。映像入力部104は、映像入力装置を配信者端末100に接続するためのインタフェースであってもよい。この場合、映像入力部104は、映像入力装置において入力された映像信号から映像データを生成し配信者端末100に入力する。映像入力部104は、入力された映像データを第1動画制御部102に渡す。   The video input unit 104 is configured using an existing imaging device such as a camera. The video input unit 104 is operated by the distributor when inputting the distributor's video to the distributor terminal 100. The video input unit 104 captures, for example, the image of the distributor. The video input unit 104 may be an interface for connecting the video input device to the distributor terminal 100. In this case, the video input unit 104 generates video data from the video signal input in the video input device and inputs the video data to the distributor terminal 100. The video input unit 104 passes the input video data to the first moving image control unit 102.

第2動画制御部105は、第1動画制御部から通知を受けた動画データを音声データと映像データに分割する処理を実行する。第2動画制御部105は、動画配信サーバ500から受信した動画データを音声データと映像データに分割する処理を実行する。第2動画制御部105は、音声データを音声出力部106へ渡す。第2動画制御部105は、映像データを映像出力部107へ渡す。第2動画制御部105は、画像サーバ400に画像データを要求する。第2動画制御部105は、画像サーバ400から画像を受信する。第2動画制御部105は、コンテンツ配信サーバ300から受信したコンテンツデータを音声データ及び映像データと合成することで、音声データ及び映像データを新しく生成する処理を実行する。   The second moving image control unit 105 executes processing for dividing the moving image data notified from the first moving image control unit into audio data and video data. The second moving image control unit 105 executes processing for dividing the moving image data received from the moving image distribution server 500 into audio data and video data. The second moving image control unit 105 passes the audio data to the audio output unit 106. The second moving image control unit 105 passes the video data to the video output unit 107. The second moving image control unit 105 requests image data from the image server 400. The second moving image control unit 105 receives an image from the image server 400. The second moving image control unit 105 executes processing for newly generating audio data and video data by synthesizing content data received from the content distribution server 300 with audio data and video data.

音声出力部106は、スピーカー、イヤホン、ヘッドフォン等の既存の音声出力装置を用いて構成される。音声出力部106は、音声出力装置を配信者端末100に接続するためのインタフェースであってもよい。この場合、音声出力部106は、音声データから音声信号を生成し自身に接続されている音声出力装置に音声信号を出力する。   The audio output unit 106 is configured using an existing audio output device such as a speaker, an earphone, or a headphone. The audio output unit 106 may be an interface for connecting the audio output device to the distributor terminal 100. In this case, the audio output unit 106 generates an audio signal from the audio data and outputs the audio signal to an audio output device connected to itself.

映像出力部107は、CRT(Cathode Ray Tube)ディスプレイ、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ等の映像出力装置である。映像出力部107は、映像出力装置を配信者端末100に接続するためのインタフェースであってもよい。この場合、映像出力部107は、映像データから映像信号を生成し自身に接続されている映像出力装置に映像信号を出力する。   The video output unit 107 is a video output device such as a CRT (Cathode Ray Tube) display, a liquid crystal display, or an organic EL (Electro Luminescence) display. The video output unit 107 may be an interface for connecting the video output device to the distributor terminal 100. In this case, the video output unit 107 generates a video signal from the video data and outputs the video signal to a video output device connected to the video output unit 107.

操作部108は、タッチパネル、ボタン、スイッチ等の既存の操作装置を用いて構成される。操作部108は、操作装置を配信者端末100に接続するためのインタフェースであってもよい。この場合、操作部108は、操作装置において入力された入力信号から入力データを生成し配信者端末100に入力する。操作部108は、入力された入力信号をコンテンツ配信サーバ300へ送信する。   The operation unit 108 is configured using an existing operation device such as a touch panel, a button, or a switch. The operation unit 108 may be an interface for connecting the operation device to the distributor terminal 100. In this case, the operation unit 108 generates input data from an input signal input from the operation device and inputs the input data to the distributor terminal 100. The operation unit 108 transmits the input signal that has been input to the content distribution server 300.

図3は、視聴者端末200の機能構成を表す機能構成図である。視聴者端末200は、タブレットコンピュータ、パーソナルコンピュータ又はスマートフォン等の情報処理装置を用いて構成される。視聴者端末200は、バスで接続されたCPUやメモリや補助記憶装置などを備える。視聴者端末200は、以下に示す機能を備えることが可能な装置であればどのような装置もなり得る。視聴者端末200は、動画配信プログラムを実行することによって、通信部201、動画制御部202、音声出力部203、映像出力部204及び操作部205を備える装置として機能する。なお、視聴者端末200の各機能の全て又は一部は、ASICやPLDやFPGA等のハードウェアを用いて実現されてもよい。動画配信プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM、半導体記憶装置等の可搬媒体、コンピュータシステムに内蔵されるハードディスクや半導体記憶装置等の記憶装置である。動画配信プログラムは、電気通信回線を介して送信されてもよい。動画配信プログラムはクラウドや仮想マシンで実行されてもよい。   FIG. 3 is a functional configuration diagram illustrating a functional configuration of the viewer terminal 200. The viewer terminal 200 is configured using an information processing apparatus such as a tablet computer, a personal computer, or a smartphone. The viewer terminal 200 includes a CPU, a memory, an auxiliary storage device, and the like connected by a bus. The viewer terminal 200 can be any device as long as the device can have the following functions. The viewer terminal 200 functions as an apparatus including the communication unit 201, the moving image control unit 202, the audio output unit 203, the video output unit 204, and the operation unit 205 by executing the moving image distribution program. Note that all or part of the functions of the viewer terminal 200 may be realized using hardware such as an ASIC, PLD, or FPGA. The moving image distribution program may be recorded on a computer-readable recording medium. The computer-readable recording medium is, for example, a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a semiconductor storage device, or a storage device such as a hard disk or a semiconductor storage device built in the computer system. The moving image distribution program may be transmitted via a telecommunication line. The video distribution program may be executed in the cloud or a virtual machine.

通信部201は、ネットワークインタフェースである。通信部201はネットワーク700を介してコンテンツ配信サーバ300、画像サーバ400及び動画配信サーバ500及びリアルタイム通信サーバ600と通信する。   The communication unit 201 is a network interface. The communication unit 201 communicates with the content distribution server 300, the image server 400, the moving image distribution server 500, and the real-time communication server 600 via the network 700.

動画制御部202は、動画配信サーバ500から受信した動画データを音声データと映像データに分割する処理を実行する。動画制御部202は、リアルタイム通信サーバ600からコンテンツデータ及び動画再生時間を受信する。動画制御部202は、リアルタイム通信サーバ600から受信したコンテンツデータを音声データ及び映像データと合成することで、音声データ及び映像データを新しく生成する。動画再生時間は、動画配信サーバ500が、動画データの配信開始からカウントされた時間を表す。動画再生時間は、動画配信サーバ500によって動画データ毎に記憶される。動画再生時間は、現実時間の経過に合わせて、カウントされる。動画再生時間は、動画データの配信が終了するとカウントも終了する。動画制御部202は、所定の条件を満たすと、音声データを音声出力部203へ渡す。動画制御部202は、所定の条件を満たすと、映像データを映像出力部204へ渡す。所定の条件とは、例えば、受信した動画再生時間と動画制御部202が映像出力部204に出力する経過時間とが一致する場合などである。動画制御部202は、画像サーバ400に画像データを要求する。動画制御部202は、画像サーバ400から画像を受信する。動画制御部202は、動画配信サーバ500から動画IDを受信する。動画IDは、配信者の操作によって、動画配信サーバ500から取得される。動画制御部202は、動画IDを動画配信サーバ500へ送信することで、動画配信サーバから動画データを受信する。   The moving image control unit 202 executes processing for dividing the moving image data received from the moving image distribution server 500 into audio data and video data. The moving image control unit 202 receives content data and moving image playback time from the real-time communication server 600. The moving image control unit 202 newly generates audio data and video data by synthesizing content data received from the real-time communication server 600 with audio data and video data. The video playback time represents the time counted from the start of video data distribution by the video distribution server 500. The moving image playback time is stored for each moving image data by the moving image distribution server 500. The moving image playback time is counted as the actual time elapses. The moving image playback time ends when the distribution of the moving image data ends. When the predetermined condition is satisfied, the moving image control unit 202 passes the audio data to the audio output unit 203. When the predetermined condition is satisfied, the moving image control unit 202 passes the video data to the video output unit 204. The predetermined condition is, for example, a case where the received moving image playback time and the elapsed time output from the moving image control unit 202 to the video output unit 204 match. The moving image control unit 202 requests image data from the image server 400. The moving image control unit 202 receives an image from the image server 400. The moving image control unit 202 receives the moving image ID from the moving image distribution server 500. The moving image ID is acquired from the moving image distribution server 500 by the operation of the distributor. The moving image control unit 202 receives moving image data from the moving image distribution server by transmitting the moving image ID to the moving image distribution server 500.

音声出力部203は、スピーカー、イヤホン、ヘッドフォン等の既存の音声出力装置を用いて構成される。音声出力部203は、音声出力装置を視聴者端末200に接続するためのインタフェースであってもよい。この場合、音声出力部203は、音声データから音声信号を生成し、自身に接続されている音声出力装置に音声信号を出力する。   The audio output unit 203 is configured using an existing audio output device such as a speaker, an earphone, or a headphone. The audio output unit 203 may be an interface for connecting the audio output device to the viewer terminal 200. In this case, the audio output unit 203 generates an audio signal from the audio data, and outputs the audio signal to an audio output device connected to itself.

映像出力部204は、CRTディスプレイ、液晶ディスプレイ、有機ELディスプレイ等の映像出力装置である。映像出力部204は、映像出力装置を視聴者端末200に接続するためのインタフェースであってもよい。この場合、映像出力部204は、映像データから映像信号を生成し、自身に接続されている映像出力装置に映像信号を出力する。   The video output unit 204 is a video output device such as a CRT display, a liquid crystal display, or an organic EL display. The video output unit 204 may be an interface for connecting the video output device to the viewer terminal 200. In this case, the video output unit 204 generates a video signal from the video data, and outputs the video signal to a video output device connected to the video output unit 204.

操作部205は、タッチパネル、ボタン、スイッチ等の既存の操作装置を用いて構成される。操作部205は、操作装置を視聴者端末200に接続するためのインタフェースであってもよい。この場合、操作部205は、操作装置において入力された入力信号から入力データを生成し視聴者端末200に入力する。操作部205は、入力された入力信号をリアルタイム通信サーバ600へ送信する。   The operation unit 205 is configured using an existing operation device such as a touch panel, a button, or a switch. The operation unit 205 may be an interface for connecting the operation device to the viewer terminal 200. In this case, the operation unit 205 generates input data from an input signal input from the operation device and inputs the input data to the viewer terminal 200. The operation unit 205 transmits the input signal that has been input to the real-time communication server 600.

図4は、コンテンツ配信サーバ300の機能構成を表す機能構成図である。コンテンツ配信サーバ300は、メインフレームやワークステーションやパーソナルコンピュータ等の情報処理装置を用いて構成される。コンテンツ配信サーバ300には、以下に示す機能を備えることが可能な装置であればどのような装置もなり得る。コンテンツ配信サーバ300は、バスで接続されたCPUやメモリや補助記憶装置などを備える。コンテンツ配信サーバ300は、コンテンツ配信プログラムを実行することによって、通信部301、コンテンツ制御部302、コンテンツ記憶部303、配信先記憶部304、配信履歴記憶部305を備える装置として機能する。なお、コンテンツ配信サーバ300の各機能の全て又は一部は、ASICやPLDやFPGA等のハードウェアを用いて実現されてもよい。コンテンツ配信プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM、半導体記憶装置等の可搬媒体、コンピュータシステムに内蔵されるハードディスクや半導体記憶装置等の記憶装置である。コンテンツ配信プログラムは、電気通信回線を介して送信されてもよい。コンテンツ配信サーバ300は、複数台の情報処理装置を用いて構成されてもよい。コンテンツ配信プログラムはクラウドや仮想マシンで実行されてもよい。   FIG. 4 is a functional configuration diagram illustrating a functional configuration of the content distribution server 300. The content distribution server 300 is configured using an information processing apparatus such as a mainframe, a workstation, or a personal computer. The content distribution server 300 can be any device as long as it can have the following functions. The content distribution server 300 includes a CPU, a memory, an auxiliary storage device, and the like connected by a bus. The content distribution server 300 functions as a device including a communication unit 301, a content control unit 302, a content storage unit 303, a distribution destination storage unit 304, and a distribution history storage unit 305 by executing a content distribution program. All or some of the functions of the content distribution server 300 may be realized using hardware such as an ASIC, PLD, or FPGA. The content distribution program may be recorded on a computer-readable recording medium. The computer-readable recording medium is, for example, a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a semiconductor storage device, or a storage device such as a hard disk or a semiconductor storage device built in the computer system. The content distribution program may be transmitted via a telecommunication line. The content distribution server 300 may be configured using a plurality of information processing apparatuses. The content distribution program may be executed in a cloud or a virtual machine.

通信部301は、ネットワークインタフェースである。通信部301はネットワーク700を介して配信者端末100、視聴者端末200、動画配信サーバ500及びリアルタイム通信サーバ600と通信する。   The communication unit 301 is a network interface. The communication unit 301 communicates with the distributor terminal 100, the viewer terminal 200, the moving image distribution server 500, and the real-time communication server 600 via the network 700.

コンテンツ制御部302は、コンテンツデータを配信者端末100及び視聴者端末200に配信するための処理とコンテンツデータの配信履歴を配信履歴記憶部305に登録させるための処理とを実行する。コンテンツデータとは、動画配信サーバ500から配信される動画データと結合することができる画像、文字、音声、URL及び端末制御情報等の情報である。コンテンツデータは、コンテンツ配信サーバが算出した配信者端末100及び視聴者端末200から受付けた操作情報に対して、何らかの処理を実行した結果(例えば、クイズの正否や、その統計情報)でもよい。また、コンテンツ制御部302は、配信者端末100及び視聴者端末200の入力を受け付ける。コンテンツ制御部302は、視聴者端末200の入力に応じて付加価値を有するデータをコンテンツ記憶部303に登録させる。   The content control unit 302 executes processing for distributing content data to the distributor terminal 100 and the viewer terminal 200 and processing for registering the distribution history of content data in the distribution history storage unit 305. The content data is information such as images, characters, sounds, URLs, and terminal control information that can be combined with the moving image data distributed from the moving image distribution server 500. The content data may be a result of executing some processing on the operation information received from the distributor terminal 100 and the viewer terminal 200 calculated by the content distribution server (for example, whether or not the quiz is correct or statistical information thereof). In addition, the content control unit 302 receives input from the distributor terminal 100 and the viewer terminal 200. The content control unit 302 causes the content storage unit 303 to register data having added value according to the input from the viewer terminal 200.

コンテンツ記憶部303は、磁気ハードディスク装置や半導体記憶装置等の記憶装置を用いて構成される。コンテンツ記憶部303は、コンテンツデータを記憶したコンテンツテーブルと配信者端末100及び視聴者端末200から受信したコンテンツデータに対する操作情報とを記憶する。コンテンツデータに対する操作情報とは、例えばクイズの回答のようなものであってもよい。また、コンテンツデータは、あらかじめ専門業者によって作成され、登録されてもよい。これにより、配信者がコンテンツデータを使用して動画を配信することで、動画のコンテンツの品質が底上げされる。また、コンテンツ記憶部303は、視聴者端末200の入力に応じて付加価値を有するデータを登録する。   The content storage unit 303 is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device. The content storage unit 303 stores a content table storing content data and operation information for the content data received from the distributor terminal 100 and the viewer terminal 200. The operation information for the content data may be, for example, a quiz answer. The content data may be created and registered in advance by a specialist. As a result, the distributor distributes the moving image using the content data, thereby raising the quality of the moving image content. Further, the content storage unit 303 registers data having added value according to the input of the viewer terminal 200.

図5は、コンテンツテーブルの具体例を示す図である。コンテンツレコードは、コンテンツID、コンテンツデータA及びコンテンツデータB等の複数のコンテンツデータの値を有する。コンテンツIDは、コンテンツの識別情報である。コンテンツIDは、他のコンテンツIDと重複しない値であればどのような値でもよい。コンテンツデータA及びコンテンツデータB等には、配信者端末100及び視聴者端末200に配信するコンテンツデータが、コンテンツの内容に応じて1つ以上登録されている。   FIG. 5 is a diagram showing a specific example of the content table. The content record has a plurality of content data values such as a content ID, content data A, and content data B. The content ID is content identification information. The content ID may be any value as long as it does not overlap with other content IDs. In the content data A, the content data B, and the like, one or more content data to be distributed to the distributor terminal 100 and the viewer terminal 200 are registered according to the contents.

図5に示される例では、コンテンツテーブルの最上段のコンテンツレコードは、コンテンツIDの値が“SIMPLE_QUIZ”である。コンテンツデータAの配信者カラムの値は、1行目が“AAA”、2行目が“EEE”であり、3行目以降も登録されている。視聴者カラムの値は、1行目が“BBB”、2行目が“FFF”であり、3行目以降も記憶されている。このコンテンツレコードは、コンテンツ制御部302によってコンテンツデータAが選択された場合、配信者宛に最初はコンテンツデータ“AAA”を送信し、次にコンテンツデータ“EEE”を送信する。同時に視聴者宛に最初はコンテンツデータ“BBB”を送信し、次にコンテンツデータ“FFF”を送信する。コンテンツ制御部302によってコンテンツデータBが選択された場合、配信者宛に最初はコンテンツデータ“CCC”を送信し、次にコンテンツデータ“GGG”を送信する。同時に視聴者宛に最初はコンテンツデータ“DDD”を送信し、次にコンテンツデータ“HHH”を送信する。なお、図5に示されるコンテンツテーブルは一具体例にすぎない。そのため、図5とは異なる態様で配信先テーブルが構成されてもよい。例えば、配信先テーブルは、コンテンツ名のカラムを有していてもよい。   In the example shown in FIG. 5, the content record at the top of the content table has a content ID value “SIMPLE_QUIZ”. As for the value of the distributor column of the content data A, the first line is “AAA”, the second line is “EEE”, and the third and subsequent lines are also registered. The values in the viewer column are “BBB” for the first row, “FFF” for the second row, and the third and subsequent rows are also stored. When the content data A is selected by the content control unit 302, the content record first transmits the content data “AAA” to the distributor, and then transmits the content data “EEE”. At the same time, the content data “BBB” is first transmitted to the viewer, and then the content data “FFF” is transmitted. When the content data B is selected by the content control unit 302, the content data “CCC” is first transmitted to the distributor, and then the content data “GGG” is transmitted. At the same time, content data “DDD” is first transmitted to the viewer, and then content data “HHH” is transmitted. The content table shown in FIG. 5 is only a specific example. Therefore, the delivery destination table may be configured in a manner different from that in FIG. For example, the distribution destination table may have a content name column.

配信先記憶部304は、磁気ハードディスク装置や半導体記憶装置等の記憶装置を用いて構成される。配信先記憶部304は、配信先テーブルを記憶する。配信先テーブルは、複数の配信先レコードを有する。配信先レコードは、配信者ID毎に動画ID及び視聴者IDに関する情報を有する。   The distribution destination storage unit 304 is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device. The delivery destination storage unit 304 stores a delivery destination table. The delivery destination table has a plurality of delivery destination records. The distribution destination record has information regarding the moving image ID and the viewer ID for each distributor ID.

図6は、配信先テーブルの具体例を示す図である。配信先レコードは、配信者ID、動画ID及び0以上の視聴者IDの各値を有する。配信者IDは、配信者端末100の識別情報である。配信者IDは、例えばメールアドレス、端末名又は配信者任意の文字列等の他の視聴者端末200及び配信者端末100と重複しない値であればどのような値であってもよい。動画IDは、配信者IDが配信する動画の識別情報である。動画IDは、例えば配信者ID、配信者任意の文字列等の他の動画IDと重複しない値であればどのような値であってもよい。視聴者IDは、例えばメールアドレス、端末名又は配信者任意の文字列等の他の視聴者端末200及び配信者端末100と重複しない値であればどのような値であってもよい。   FIG. 6 is a diagram illustrating a specific example of the distribution destination table. The distribution destination record has each value of a distributor ID, a moving image ID, and zero or more viewer IDs. The distributor ID is identification information of the distributor terminal 100. The distributor ID may be any value as long as it does not overlap with other viewer terminals 200 and distributor terminals 100 such as an e-mail address, a terminal name, or an arbitrary character string of the distributor. The video ID is identification information of a video distributed by the distributor ID. The moving image ID may be any value as long as the value does not overlap with other moving image IDs such as a distributor ID and an arbitrary character string of the distributor. The viewer ID may be any value as long as it does not overlap with other viewer terminals 200 and the distributor terminal 100 such as an e-mail address, a terminal name, or an arbitrary character string of the distributor.

図6に示される例では、配信先テーブルの最上段のレコードは、配信者IDの値が“A1500”、動画IDの値が“MV01”、視聴者IDの値が“A1000”及び“A2000”である。この配信先レコードでは、視聴者IDが“A1000”及び“A2000”である視聴者端末200は、配信者ID“A1500”である配信者端末100が配信する動画IDが“MV01”である動画を視聴していることを示す。なお、図6に示される配信先テーブルは一具体例にすぎない。そのため、図6とは異なる態様で配信先テーブルが構成されてもよい。例えば、配信先テーブルは、コンテンツIDのカラムを有していてもよい。   In the example shown in FIG. 6, the record at the top of the distribution destination table has a distributor ID value “A1500”, a video ID value “MV01”, and viewer ID values “A1000” and “A2000”. It is. In this distribution destination record, the viewer terminal 200 with the viewer IDs “A1000” and “A2000” has a video with the video ID “MV01” distributed by the distributor terminal 100 with the distributor ID “A1500”. Indicates that you are watching. Note that the distribution destination table shown in FIG. 6 is merely a specific example. Therefore, the delivery destination table may be configured in a manner different from that in FIG. For example, the distribution destination table may have a content ID column.

図4にもどってコンテンツ配信サーバ300の説明を続ける。配信履歴記憶部305は、磁気ハードディスク装置や半導体記憶装置等の記憶装置を用いて構成される。配信履歴記憶部305は、コンテンツ制御部302が配信したコンテンツデータをオンデマンドで再配信するための配信履歴情報(動画ID、コンテンツデータの内容、配信者端末100及び視聴者端末200による操作情報等)を記憶する。   Returning to FIG. 4, the description of the content distribution server 300 will be continued. The distribution history storage unit 305 is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device. The distribution history storage unit 305 is distribution history information for redistributing content data distributed by the content control unit 302 on demand (video ID, content of content data, operation information by the distributor terminal 100 and the viewer terminal 200, etc. ) Is memorized.

図7は、画像サーバ400の機能構成を表す機能構成図である。画像サーバ400は、メインフレームやワークステーションやパーソナルコンピュータ等の情報処理装置を用いて構成される。画像サーバ400には、以下に示す機能を備えることが可能な装置であればどのような装置もなり得る。画像サーバ400は、バスで接続されたCPUやメモリや補助記憶装置などを備える。画像サーバ400は、画像送信プログラムを実行することによって、通信部401、画像制御部402、画像記憶部403を備える装置として機能する。なお、画像サーバ400の各機能の全て又は一部は、ASICやPLDやFPGA等のハードウェアを用いて実現されてもよい。画像送信プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM、半導体記憶装置等の可搬媒体、コンピュータシステムに内蔵されるハードディスクや半導体記憶装置等の記憶装置である。画像送信プログラムは、電気通信回線を介して送信されてもよい。画像サーバ400は、複数台の情報処理装置を用いて構成されてもよい。   FIG. 7 is a functional configuration diagram illustrating a functional configuration of the image server 400. The image server 400 is configured using an information processing apparatus such as a mainframe, a workstation, or a personal computer. The image server 400 can be any device as long as it can have the following functions. The image server 400 includes a CPU, a memory, an auxiliary storage device, and the like connected by a bus. The image server 400 functions as an apparatus including the communication unit 401, the image control unit 402, and the image storage unit 403 by executing an image transmission program. All or some of the functions of the image server 400 may be realized using hardware such as an ASIC, PLD, or FPGA. The image transmission program may be recorded on a computer-readable recording medium. The computer-readable recording medium is, for example, a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a semiconductor storage device, or a storage device such as a hard disk or a semiconductor storage device built in the computer system. The image transmission program may be transmitted via a telecommunication line. The image server 400 may be configured using a plurality of information processing apparatuses.

通信部401は、ネットワークインタフェースである。通信部401はネットワーク700を介して配信者端末100及び視聴者端末200と通信する。   The communication unit 401 is a network interface. The communication unit 401 communicates with the distributor terminal 100 and the viewer terminal 200 via the network 700.

画像制御部402は、画像記憶部403から画像情報を読み出す。画像制御部402は、配信者端末100及び視聴者端末200からの要求を受信すると、その配信者端末100及び視聴者端末200宛に読み出した画像データの送信処理を実行する。配信者端末100及び視聴者端末200からの要求とは、例えば、画像データに対するHTTPのGETリクエスト等であってもよい。   The image control unit 402 reads image information from the image storage unit 403. When receiving a request from the distributor terminal 100 and the viewer terminal 200, the image control unit 402 executes transmission processing of the image data read to the distributor terminal 100 and the viewer terminal 200. The request from the distributor terminal 100 and the viewer terminal 200 may be, for example, an HTTP GET request for image data.

画像記憶部403は、磁気ハードディスク装置や半導体記憶装置等の記憶装置を用いて構成される。画像記憶部403は、動画配信サーバ500から配信される動画データと結合するための画像情報を記憶する。   The image storage unit 403 is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device. The image storage unit 403 stores image information to be combined with moving image data distributed from the moving image distribution server 500.

図8は、動画配信サーバ500の機能構成を表す機能構成図である。動画配信サーバ500は、メインフレームやワークステーションやパーソナルコンピュータ等の情報処理装置を用いて構成される。動画配信サーバ500には、以下に示す機能を備えることが可能な装置であればどのような装置もなり得る。動画配信サーバ500は、バスで接続されたCPUやメモリや補助記憶装置などを備える。動画配信サーバ500は、動画配信プログラムを実行することによって、通信部501、動画処理部502、動画記憶部503及び配信部504を備える装置として機能する。なお、動画配信サーバ500の各機能の全て又は一部は、ASICやPLDやFPGA等のハードウェアを用いて実現されてもよい。動画配信プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM、半導体記憶装置等の可搬媒体、コンピュータシステムに内蔵されるハードディスクや半導体記憶装置等の記憶装置である。動画配信プログラムは、電気通信回線を介して送信されてもよい。動画配信サーバ500は、複数台の情報処理装置を用いて構成されてもよい。   FIG. 8 is a functional configuration diagram illustrating a functional configuration of the moving image distribution server 500. The moving image distribution server 500 is configured using an information processing apparatus such as a mainframe, a workstation, or a personal computer. The moving image distribution server 500 can be any device as long as it can have the following functions. The moving image distribution server 500 includes a CPU, a memory, an auxiliary storage device, and the like connected by a bus. The moving image distribution server 500 functions as a device including a communication unit 501, a moving image processing unit 502, a moving image storage unit 503, and a distribution unit 504 by executing a moving image distribution program. Note that all or part of the functions of the moving image distribution server 500 may be realized using hardware such as ASIC, PLD, or FPGA. The moving image distribution program may be recorded on a computer-readable recording medium. The computer-readable recording medium is, for example, a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a semiconductor storage device, or a storage device such as a hard disk or a semiconductor storage device built in the computer system. The moving image distribution program may be transmitted via a telecommunication line. The video distribution server 500 may be configured using a plurality of information processing apparatuses.

通信部501は、ネットワークインタフェースである。通信部501はネットワーク700を介して配信者端末100、視聴者端末200及びコンテンツ配信サーバ300と通信する。   The communication unit 501 is a network interface. The communication unit 501 communicates with the distributor terminal 100, the viewer terminal 200, and the content distribution server 300 via the network 700.

動画処理部502は、配信者端末100から受信した動画データを視聴者端末200に配信可能な形式に加工する処理を実行する。動画処理部502は、加工した動画データを動画記憶部503に登録させる。動画処理部502は、加工した動画データを配信部504に渡す。   The moving image processing unit 502 executes processing for processing the moving image data received from the distributor terminal 100 into a format that can be distributed to the viewer terminal 200. The moving image processing unit 502 registers the processed moving image data in the moving image storage unit 503. The moving image processing unit 502 passes the processed moving image data to the distribution unit 504.

動画記憶部503は、磁気ハードディスク装置や半導体記憶装置等の記憶装置を用いて構成される。動画記憶部503は、動画処理部502によって加工された動画データを記憶する。動画記憶部503は、動画テーブルを有する。動画テーブルは、複数の動画レコードを有する。動画レコードは、動画データを有する。   The moving image storage unit 503 is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device. The moving image storage unit 503 stores the moving image data processed by the moving image processing unit 502. The moving image storage unit 503 has a moving image table. The moving image table has a plurality of moving image records. The moving image record has moving image data.

図9は、動画テーブルの具体例を示す図である。動画レコードは、動画ID及び動画データの各値を有する。動画IDは、動画データの識別情報である。動画IDは、例えば配信者ID、配信者任意の文字列等の他の動画IDと重複しない値であればどのような値であってもよい。動画データは、この動画IDの実態である。動画データは、例えば任意の文字列等の他の動画データと重複しない値であればどのような値であってもよい。   FIG. 9 is a diagram illustrating a specific example of the moving image table. The moving image record has each value of a moving image ID and moving image data. The moving image ID is identification information of moving image data. The moving image ID may be any value as long as the value does not overlap with other moving image IDs such as a distributor ID and an arbitrary character string of the distributor. The moving image data is the actual state of the moving image ID. The moving image data may be any value as long as it does not overlap with other moving image data such as an arbitrary character string.

図9に示される例では、動画テーブルの最上段のレコードは、動画IDの値が“MV01”、動画データの値が“File1”である。この動画レコードでは、動画IDが“MV01”である動画は、“File1”が実態であることを示す。なお、図9に示される動画テーブルは一具体例にすぎない。そのため、図9とは異なる態様で動画テーブルが構成されてもよい。例えば、動画テーブルは、配信者IDのカラムを有していてもよい。   In the example shown in FIG. 9, the uppermost record in the moving image table has the moving image ID value “MV01” and the moving image data value “File1”. In this moving image record, the moving image having the moving image ID “MV01” indicates that “File1” is the actual state. Note that the moving image table shown in FIG. 9 is only a specific example. Therefore, the moving image table may be configured in a manner different from that in FIG. For example, the video table may have a distributor ID column.

配信部504は、視聴者端末200宛に動画データの配信処理を実行する。配信部504は、視聴者端末200から受信した動画IDに基づいて、動画テーブルから動画データを取得する。配信部504は、この動画データを視聴者端末200へ配信する処理を実行する。   The distribution unit 504 executes distribution processing of moving image data to the viewer terminal 200. The distribution unit 504 acquires moving image data from the moving image table based on the moving image ID received from the viewer terminal 200. The distribution unit 504 executes processing for distributing the moving image data to the viewer terminal 200.

図10は、リアルタイム通信サーバ600の機能構成を表す機能構成図である。リアルタイム通信サーバ600は、メインフレームやワークステーションやパーソナルコンピュータ等の情報処理装置を用いて構成される。リアルタイム通信サーバ600には、以下に示す機能を備えることが可能な装置であればどのような装置もなり得る。リアルタイム通信サーバ600は、バスで接続されたCPUやメモリや補助記憶装置などを備える。リアルタイム通信サーバ600は、リアルタイム通信プログラムを実行することによって、通信部601及び通信制御部602を備える装置として機能する。なお、リアルタイム通信サーバ600の各機能の全て又は一部は、ASICやPLDやFPGA等のハードウェアを用いて実現されてもよい。リアルタイム通信プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM、半導体記憶装置等の可搬媒体、コンピュータシステムに内蔵されるハードディスクや半導体記憶装置等の記憶装置である。リアルタイム通信プログラムは、電気通信回線を介して送信されてもよい。リアルタイム通信サーバ600は、複数台の情報処理装置を用いて構成されてもよい。   FIG. 10 is a functional configuration diagram illustrating a functional configuration of the real-time communication server 600. The real-time communication server 600 is configured using an information processing apparatus such as a mainframe, a workstation, or a personal computer. The real-time communication server 600 can be any device as long as it can have the following functions. The real-time communication server 600 includes a CPU, a memory, an auxiliary storage device, and the like connected by a bus. The real-time communication server 600 functions as a device including the communication unit 601 and the communication control unit 602 by executing a real-time communication program. All or some of the functions of the real-time communication server 600 may be realized using hardware such as an ASIC, PLD, or FPGA. The real-time communication program may be recorded on a computer-readable recording medium. The computer-readable recording medium is, for example, a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a semiconductor storage device, or a storage device such as a hard disk or a semiconductor storage device built in the computer system. The real-time communication program may be transmitted via a telecommunication line. The real-time communication server 600 may be configured using a plurality of information processing apparatuses.

通信部601は、ネットワークインタフェースである。通信部601はネットワーク700を介して視聴者端末200及びコンテンツ配信サーバ300と通信する。   The communication unit 601 is a network interface. The communication unit 601 communicates with the viewer terminal 200 and the content distribution server 300 via the network 700.

通信制御部602は、視聴者端末200との通信セッションを確立する。通信制御部602は、コンテンツ配信サーバ300から受信したコンテンツデータ及び動画再生時間を視聴者端末200に送信する。   The communication control unit 602 establishes a communication session with the viewer terminal 200. The communication control unit 602 transmits the content data and the moving image playback time received from the content distribution server 300 to the viewer terminal 200.

図11及び図12は、コンテンツデータの処理の流れの具体例を示すシーケンス図である。図13は、コンテンツ進行通知の受付からコンテンツデータが配信されるまでの処理(以下、「コンテンツデータ配信」という。)の流れを示すシーケンス図である。図14〜図25は、各ステップにおける配信者端末100及び視聴者端末200に表示される画像の一例を示す。このため、また、図14〜図25における領域aは、配信者端末100の映像入力部104によって撮像された画像である。図14〜図25における領域bは、コンテンツデータの一例である。操作部108が、図14〜図25における領域bに表示される「×」に対する操作情報を受け付けると、シーケンス処理は終了する。図14〜図25における領域c及び領域gは、コンテンツデータの一例である。図14〜図25における領域fは、動画配信サーバ500から受信した配信者端末100の映像入力部104によって撮像された画像である。以下、図14〜図25における領域a、領域b、領域c、領域f及び領域gに関する上述の説明は省略する。   11 and 12 are sequence diagrams showing a specific example of the processing flow of content data. FIG. 13 is a sequence diagram showing a flow of processing (hereinafter referred to as “content data distribution”) from reception of a content progress notification to distribution of content data. 14 to 25 show examples of images displayed on the distributor terminal 100 and the viewer terminal 200 in each step. Therefore, the region a in FIGS. 14 to 25 is an image captured by the video input unit 104 of the distributor terminal 100. A region b in FIGS. 14 to 25 is an example of content data. When the operation unit 108 receives operation information for “x” displayed in the area b in FIGS. 14 to 25, the sequence process ends. Regions c and g in FIGS. 14 to 25 are examples of content data. A region f in FIGS. 14 to 25 is an image captured by the video input unit 104 of the distributor terminal 100 received from the moving image distribution server 500. Hereinafter, the above description regarding the region a, the region b, the region c, the region f, and the region g in FIGS.

まず、第1動画制御部102は、動画データ及び配信者IDをリアルタイムでコンテンツ配信サーバ300へ送信する。操作部108は、配信者の操作によって選択されたコンテンツIDを通信部101を介して、コンテンツIDをコンテンツ配信サーバ300へ送信する(ステップS101)。   First, the first moving image control unit 102 transmits moving image data and a distributor ID to the content distribution server 300 in real time. The operation unit 108 transmits the content ID selected by the distributor's operation to the content distribution server 300 via the communication unit 101 (step S101).

コンテンツ制御部302は、配信先記憶部304の配信先テーブルから、受信した配信者IDに応じた動画IDを取得する。コンテンツ制御部302は、通信部301を介して動画配信サーバ500へこの動画IDの動画再生時間を要求する(ステップS102)。動画処理部502は、通信部501を介してコンテンツ配信サーバ300へ動画再生時間を送信する(ステップS103)。   The content control unit 302 acquires the moving image ID corresponding to the received distributor ID from the distribution destination table of the distribution destination storage unit 304. The content control unit 302 requests the moving image reproduction time of the moving image ID from the moving image distribution server 500 via the communication unit 301 (step S102). The moving image processing unit 502 transmits the moving image reproduction time to the content distribution server 300 via the communication unit 501 (step S103).

次に、コンテンツ制御部302は、コンテンツ記憶部303に記憶されているコンテンツテーブルから、コンテンツIDに応じたコンテンツデータを1つ選択する(ステップS104)。   Next, the content control unit 302 selects one content data corresponding to the content ID from the content table stored in the content storage unit 303 (step S104).

コンテンツ制御部302は、配信者端末100に、選択したコンテンツデータを送信する(ステップS105)。配信者端末100は、受信したコンテンツデータを第2動画制御部105に渡す。第2動画制御部105は、受信したコンテンツデータを動画データと結合する。第2動画制御部105は、結合された動画データをデコードする。音声出力部106及び映像出力部107は、デコードされた動画データに基づいて、音声及び映像を出力する。この時、映像出力部107が受け付けた映像データに基づいて、配信者端末100に表示される画像が更新される。配信者端末100には図14(A)が表示される。図14(A)は、最初のコンテンツデータを受信した時、配信者端末100に表示される画像の一例である。図14の領域dは、コンテンツデータの一例である(ステップS106)。   The content control unit 302 transmits the selected content data to the distributor terminal 100 (step S105). The distributor terminal 100 passes the received content data to the second moving image control unit 105. The second moving image control unit 105 combines the received content data with moving image data. The second moving image control unit 105 decodes the combined moving image data. The audio output unit 106 and the video output unit 107 output audio and video based on the decoded moving image data. At this time, the image displayed on the distributor terminal 100 is updated based on the video data received by the video output unit 107. FIG. 14A is displayed on the distributor terminal 100. FIG. 14A is an example of an image displayed on the distributor terminal 100 when the first content data is received. Region d in FIG. 14 is an example of content data (step S106).

コンテンツ制御部302は、配信先記憶部304の配信先テーブルから、配信者IDに応じた全ての視聴者IDを取得する。コンテンツ制御部302は、リアルタイム通信サーバ600に、選択したコンテンツデータ、動画再生時間及び視聴者IDを送信する(ステップS107)。通信制御部602は、受信した視聴者IDを有する視聴者端末200へ、コンテンツデータ及び動画再生時間を送信する(ステップS108)。視聴者端末200は、受信したコンテンツデータを動画制御部202に渡す。動画制御部202は、受信したコンテンツデータを動画データと結合する。動画制御部202は、結合された動画データをデコードする。動画制御部202は、所定の条件を満たした場合、音声出力部203及び映像出力部204は、デコードされた動画データに基づいて、音声及び映像を出力する。所定の条件とは、例えば、受信した動画再生時間と動画制御部202が映像出力部204に出力する経過時間とが一致する場合などである。この時、映像出力部204が受け付けた映像データに基づいて、視聴者端末200に表示される画像が更新される。視聴者端末200には、図14(B)が表示される。図14(B)は、最初のコンテンツを受信した時、視聴者端末200に表示される画像の一例である。図14の領域eは、コンテンツデータの一例である(ステップS109)。   The content control unit 302 acquires all the viewer IDs corresponding to the distributor ID from the distribution destination table of the distribution destination storage unit 304. The content control unit 302 transmits the selected content data, moving image playback time, and viewer ID to the real-time communication server 600 (step S107). The communication control unit 602 transmits the content data and the moving image playback time to the viewer terminal 200 having the received viewer ID (step S108). The viewer terminal 200 passes the received content data to the moving image control unit 202. The moving picture control unit 202 combines the received content data with the moving picture data. The moving image control unit 202 decodes the combined moving image data. When the video control unit 202 satisfies a predetermined condition, the audio output unit 203 and the video output unit 204 output audio and video based on the decoded video data. The predetermined condition is, for example, a case where the received moving image playback time and the elapsed time output from the moving image control unit 202 to the video output unit 204 match. At this time, the image displayed on the viewer terminal 200 is updated based on the video data received by the video output unit 204. FIG. 14B is displayed on the viewer terminal 200. FIG. 14B is an example of an image displayed on the viewer terminal 200 when the first content is received. Area e in FIG. 14 is an example of content data (step S109).

映像出力部107に図14(A)が表示されると、第2動画制御部105は、所定時間のカウントダウン処理を実行する。所定時間は、受信したコンテンツデータにより指定される。カウントダウン処理時間が経過すると、図13が示すコンテンツデータ配信処理が実行される。このコンテンツデータ配信処理により、映像出力部107には図15(A)が表示される。映像出力部204には図15(B)が表示される。図15は、コンテンツの説明が配信者端末100及び視聴者端末200に表示される画像の一例である。図15の領域d及び領域eは、コンテンツデータの一例である(ステップS110)。   When FIG. 14A is displayed on the video output unit 107, the second moving image control unit 105 executes a countdown process for a predetermined time. The predetermined time is specified by the received content data. When the countdown processing time has elapsed, the content data distribution process shown in FIG. 13 is executed. With this content data distribution processing, FIG. 15A is displayed on the video output unit 107. FIG. 15B is displayed on the video output unit 204. FIG. 15 is an example of an image in which the content description is displayed on the distributor terminal 100 and the viewer terminal 200. Region d and region e in FIG. 15 are examples of content data (step S110).

操作部108は、図15の領域bに表示される「開始」に対する操作情報を受け付ける(ステップS111)。次に、図13が示すコンテンツデータ配信処理が実行される。このコンテンツデータ配信処理により、映像出力部107には図16(A)が表示される。映像出力部204には図16(B)が表示される。図16は、コンテンツの説明が配信者端末100及び視聴者端末200に表示される画像の一例である。図16の領域d、領域e、領域h及び領域iは、コンテンツデータの一例である。図16の領域aは、縮小されて、図16の領域eの右下部に配置される。図16の領域fは、縮小されて、図16の領域hの右下部に配置される(ステップS112)。   The operation unit 108 receives operation information for “start” displayed in the area b of FIG. 15 (step S111). Next, the content data distribution process shown in FIG. 13 is executed. With this content data distribution processing, FIG. 16A is displayed on the video output unit 107. FIG. 16B is displayed on the video output unit 204. FIG. 16 is an example of an image in which the content description is displayed on the distributor terminal 100 and the viewer terminal 200. Region d, region e, region h, and region i in FIG. 16 are examples of content data. Region a in FIG. 16 is reduced and arranged in the lower right portion of region e in FIG. The region f in FIG. 16 is reduced and arranged in the lower right part of the region h in FIG. 16 (step S112).

映像出力部107に図16(A)が表示されると、第2動画制御部105は、カウントダウン処理を実行する。所定時間は、受信したコンテンツデータにより指定される。カウントダウン処理時間が経過すると、図13が示すコンテンツデータ配信処理が実行される。このコンテンツデータ配信処理により、映像出力部107には図17(A)が表示される。映像出力部204には図17(B)が表示される。図17は、コンテンツの説明が配信者端末100及び視聴者端末200に表示される画像の一例である。図17の領域d、領域e、領域h及び領域iは、コンテンツデータの一例である(ステップS113)。   When FIG. 16A is displayed on the video output unit 107, the second moving image control unit 105 executes a countdown process. The predetermined time is specified by the received content data. When the countdown processing time has elapsed, the content data distribution process shown in FIG. 13 is executed. By this content data distribution processing, FIG. 17A is displayed on the video output unit 107. FIG. 17B is displayed on the video output unit 204. FIG. 17 is an example of an image in which a description of content is displayed on the distributor terminal 100 and the viewer terminal 200. Region d, region e, region h, and region i in FIG. 17 are examples of content data (step S113).

映像出力部107に図17(A)が表示されると、第2動画制御部105は、所定時間のカウントダウン処理を実行する。所定時間は、受信したコンテンツデータにより指定される。カウントダウン処理時間が経過すると、図13が示すコンテンツデータ配信処理が実行される。このコンテンツデータ配信処理により、映像出力部107には図18(A)が表示される。映像出力部204には図18(B)が表示される。図18は、操作部205が視聴者による操作を受け付ける際に、配信者端末100及び視聴者端末200に表示される画像の一例である。図18の領域dは、コンテンツデータの一例である。図18の領域dには、操作部205が受け付ける選択肢が、領域aの左隣に表示される。図18の領域eは、カウントダウン処理の残時間を表す数字である。図18の領域h及び領域iは、コンテンツデータの一例である。図18の領域hには、操作部205が受け付ける選択肢が、領域fの左隣に表示される。図18の領域iには、操作部205が受け付ける「A」、「B」、「C」及び「D」の選択肢が表示される。図18の領域jは、カウントダウン処理の残時間を表す数字である(ステップS114)。図18の領域e及び領域jは、時間の経過とともに0に近づく(ステップS115)。   When FIG. 17A is displayed on the video output unit 107, the second moving image control unit 105 executes a countdown process for a predetermined time. The predetermined time is specified by the received content data. When the countdown processing time has elapsed, the content data distribution process shown in FIG. 13 is executed. 18A is displayed on the video output unit 107 by the content data distribution processing. FIG. 18B is displayed on the video output unit 204. FIG. 18 is an example of an image displayed on the distributor terminal 100 and the viewer terminal 200 when the operation unit 205 receives an operation by the viewer. Area d in FIG. 18 is an example of content data. In the area d in FIG. 18, options accepted by the operation unit 205 are displayed on the left side of the area a. Area e in FIG. 18 is a number representing the remaining time of the countdown process. Area h and area i in FIG. 18 are examples of content data. In the area h in FIG. 18, options accepted by the operation unit 205 are displayed on the left side of the area f. In area i in FIG. 18, options “A”, “B”, “C”, and “D” accepted by the operation unit 205 are displayed. Area j in FIG. 18 is a number representing the remaining time of the countdown process (step S114). Area e and area j in FIG. 18 approach 0 as time passes (step S115).

図18の領域jが0になるまでに、操作部205は、図18の領域iに表示される「A」、「B」、「C」及び「D」のいずれか1つに対する操作情報を受け付ける。操作部205は、操作情報をコンテンツ配信サーバ300へ送信する。図18の領域jが0になると、操作部205は、操作情報を受けつけない(ステップS116)。   Before the area j in FIG. 18 becomes 0, the operation unit 205 displays operation information for any one of “A”, “B”, “C”, and “D” displayed in the area i in FIG. Accept. The operation unit 205 transmits operation information to the content distribution server 300. When the area j in FIG. 18 becomes 0, the operation unit 205 does not accept operation information (step S116).

図18の領域eが0になると、図13が示すコンテンツデータ配信処理が実行される。このコンテンツデータ配信処理により、映像出力部107には図19(A)が表示される。映像出力部204には図19(B)が表示される。図19(A)及び図19(B)は、操作部108が配信者からの操作を受け付ける際に、配信者端末100及び視聴者端末200に表示される画像の一例である。図19の領域d、領域e、領域h及び領域iは、コンテンツデータの一例である(ステップS117)。   When the area e in FIG. 18 becomes 0, the content data distribution process shown in FIG. 13 is executed. By this content data distribution processing, FIG. 19A is displayed on the video output unit 107. FIG. 19B is displayed on the video output unit 204. 19A and 19B are examples of images displayed on the distributor terminal 100 and the viewer terminal 200 when the operation unit 108 receives an operation from the distributor. Area d, area e, area h, and area i in FIG. 19 are examples of content data (step S117).

映像出力部107に図19(A)が表示されると、第2動画制御部105は、所定時間のカウントダウン処理を実行する。所定時間は、受信したコンテンツデータにより指定される。カウントダウン処理時間が経過すると、図13が示すコンテンツデータ配信処理が実行される。このコンテンツデータ配信処理により、映像出力部107には図20(A)が表示される。映像出力部204には図20(B)が表示される。図20は、操作部108が配信者からの操作を受け付ける際に、配信者端末100及び視聴者端末200に表示される画像の一例である。図20の領域bには、操作部108が受け付ける「A」、「B」、「C」及び「D」の選択肢が表示される。図20の領域dには、操作部108が受け付ける選択肢が、領域aの左隣に表示される。図20の領域hには、操作部108が受け付ける選択肢が、領域fの左隣に表示される(ステップS118)。   When FIG. 19A is displayed on the video output unit 107, the second moving image control unit 105 executes countdown processing for a predetermined time. The predetermined time is specified by the received content data. When the countdown processing time has elapsed, the content data distribution process shown in FIG. 13 is executed. 20A is displayed on the video output unit 107 by the content data distribution processing. FIG. 20B is displayed on the video output unit 204. FIG. 20 is an example of an image displayed on the distributor terminal 100 and the viewer terminal 200 when the operation unit 108 receives an operation from the distributor. In the area b of FIG. 20, the options “A”, “B”, “C”, and “D” received by the operation unit 108 are displayed. In the area d of FIG. 20, options accepted by the operation unit 108 are displayed on the left side of the area a. In the area h of FIG. 20, the options accepted by the operation unit 108 are displayed on the left side of the area f (step S118).

操作部108は、図20の領域bに表示される「A」、「B」、「C」及び「D」のいずれか1つに対する操作情報を受け付ける。次に、操作部108は、「決定」に対する操作情報を受け付ける(ステップS119)。操作部108は、「A」、「B」、「C」及び「D」のいずれかの操作情報をコンテンツ配信サーバ300に送信する(ステップS120)。コンテンツ制御部302は、リアルタイム通信サーバ600から受信した操作情報が正解か否か判定する。コンテンツ制御部302は、コンテンツ記憶部303に判定結果を登録させる。例えば、配信者端末100から受信した操作情報と視聴者端末200から受信した操作情報が一致している場合正解とし、一致していない場合不正解とする(ステップS121)。次に、図13が示すコンテンツデータ配信処理が実行される。このコンテンツデータ配信処理により、映像出力部107には図21(A)が表示される。映像出力部204には図21(B)が表示される。図21は、コンテンツ進行通知がコンテンツ配信サーバ300へ送信された際に、配信者端末100及び視聴者端末200に表示される画像の一例である。図21の領域d、領域e、領域h及び領域iは、コンテンツデータの一例である(ステップS122)。   The operation unit 108 receives operation information for any one of “A”, “B”, “C”, and “D” displayed in the area b of FIG. Next, the operation unit 108 receives operation information for “determination” (step S119). The operation unit 108 transmits operation information “A”, “B”, “C”, or “D” to the content distribution server 300 (step S120). The content control unit 302 determines whether the operation information received from the real-time communication server 600 is correct. The content control unit 302 causes the content storage unit 303 to register the determination result. For example, if the operation information received from the distributor terminal 100 matches the operation information received from the viewer terminal 200, the answer is correct, and if not, the answer is incorrect (step S121). Next, the content data distribution process shown in FIG. 13 is executed. 21A is displayed on the video output unit 107 by this content data distribution processing. FIG. 21B is displayed on the video output unit 204. FIG. 21 is an example of an image displayed on the distributor terminal 100 and the viewer terminal 200 when the content progress notification is transmitted to the content distribution server 300. Area d, area e, area h, and area i in FIG. 21 are examples of content data (step S122).

映像出力部107に図21(A)が表示されると、第2動画制御部105は、所定時間のカウントダウン処理を実行する。所定時間は、受信したコンテンツデータにより指定される。カウントダウン処理時間が経過すると、図13が示すコンテンツデータ配信処理が実行される。このコンテンツデータ配信処理により映像出力部107には図22(A)が表示される。図22(A)は、コンテンツの実行結果が配信者端末100に表示される画像の一例である。図22の領域dは、コンテンツデータの一例である。図22の領域dには、コンテンツの回答が領域aの左隣に表示される。コンテンツの回答のうち、正解は、異なる色(例えば、赤)で表示される。正解とは、ステップS119で操作部108が受け付けた「A」、「B」、「C」及び「D」のいずれか1つの操作情報である。図22の領域bには、操作部108が受け付ける「次へ」が表示される。このコンテンツデータ配信処理によりステップS116において、正解を選択した視聴者端末200の映像出力部204には、図22(B)−1が表示される。一方、不正解を選択した視聴者端末200の映像出力部204には、図22(B)−2が表示される。図22の領域h、領域i、領域j及び領域kは、コンテンツデータの一例である。図22の領域h及び領域iには、コンテンツの回答が領域fの左隣に表示される。コンテンツの回答のうち、正解は異なる色(例えば、赤)で表示される。図22の領域j及び領域kは、左上に操作部205が受け付けた操作情報が正解であったか否かを表示する。例えば、正解であれば「○」、不正解であれば「×」が表示される。操作部205は、図22の領域j及び領域kに表示される「ツイート」に対する操作情報を受け付けると、Twitter(登録商標)に結果を送信することができる。操作部205は、図22の領域j及び領域kに表示される「×」に対する操作情報を受け付けると、操作部205は、図22の領域j及び領域kを非表示とすることができる(ステップS123)。   When FIG. 21A is displayed on the video output unit 107, the second moving image control unit 105 executes a countdown process for a predetermined time. The predetermined time is specified by the received content data. When the countdown processing time has elapsed, the content data distribution process shown in FIG. 13 is executed. 22A is displayed on the video output unit 107 by the content data distribution processing. FIG. 22A is an example of an image in which the content execution result is displayed on the distributor terminal 100. Region d in FIG. 22 is an example of content data. In the area d of FIG. 22, the content answer is displayed on the left side of the area a. Of the answers to the content, the correct answer is displayed in a different color (for example, red). The correct answer is any one of “A”, “B”, “C”, and “D” operation information received by the operation unit 108 in step S119. In the area b in FIG. 22, “Next” received by the operation unit 108 is displayed. 22B-1 is displayed on the video output unit 204 of the viewer terminal 200 that has selected the correct answer in step S116 by this content data distribution process. On the other hand, FIG. 22B-2 is displayed on the video output unit 204 of the viewer terminal 200 that has selected the incorrect answer. Region h, region i, region j, and region k in FIG. 22 are examples of content data. In the area h and the area i in FIG. 22, the answer of the content is displayed on the left side of the area f. Of the content answers, the correct answer is displayed in a different color (for example, red). Regions j and k in FIG. 22 display whether or not the operation information received by the operation unit 205 is correct in the upper left. For example, “◯” is displayed when the answer is correct, and “X” is displayed when the answer is incorrect. When the operation unit 205 receives operation information for “tweet” displayed in the area j and the area k in FIG. 22, the operation unit 205 can transmit the result to Twitter (registered trademark). When the operation unit 205 receives operation information for “x” displayed in the region j and the region k in FIG. 22, the operation unit 205 can hide the region j and the region k in FIG. S123).

操作部108が、図22の領域bに表示される「次へ」に対する操作情報を受け付ける(ステップS124)。次に、図13が示すコンテンツデータ配信処理が実行される。このコンテンツデータ配信処理により、映像出力部107には図23(A)が表示される。映像出力部204には図23(B)が表示される。図23は、コンテンツが終了する際に配信者端末100及び視聴者端末200に表示される画像の一例である。図23の領域d、領域e、領域h及び領域iは、コンテンツデータの一例である(ステップS125)。なお、ステップS113〜ステップS123は複数回実行されるようにコンテンツデータを構成してもよい。   The operation unit 108 receives operation information for “next” displayed in the area b of FIG. 22 (step S124). Next, the content data distribution process shown in FIG. 13 is executed. By this content data distribution processing, FIG. 23A is displayed on the video output unit 107. FIG. 23B is displayed on the video output unit 204. FIG. 23 is an example of an image displayed on the distributor terminal 100 and the viewer terminal 200 when the content ends. Area d, area e, area h, and area i in FIG. 23 are examples of content data (step S125). Note that the content data may be configured so that steps S113 to S123 are executed a plurality of times.

映像出力部107に図23(A)が表示されると、第2動画制御部105は、所定時間のカウントダウン処理を実行する。所定時間は、受信したコンテンツデータにより指定される。カウントダウン処理時間が経過すると、図13が示すコンテンツデータ配信処理が実行される。このコンテンツデータ配信処理により、映像出力部107には図24(A)が表示される。映像出力部204には図24(B)が表示される。図24は、集計結果を表示する前に、配信者端末100及び視聴者端末200に表示される画像の一例である。図24の領域d、領域e、領域h及び領域iは、コンテンツデータの一例である(ステップS126)。   When FIG. 23A is displayed on the video output unit 107, the second moving image control unit 105 executes a countdown process for a predetermined time. The predetermined time is specified by the received content data. When the countdown processing time has elapsed, the content data distribution process shown in FIG. 13 is executed. 24A is displayed on the video output unit 107 by the content data distribution processing. FIG. 24B is displayed on the video output unit 204. FIG. 24 is an example of an image displayed on the distributor terminal 100 and the viewer terminal 200 before displaying the counting results. Region d, region e, region h, and region i in FIG. 24 are examples of content data (step S126).

コンテンツ制御部302は、コンテンツ記憶部303が登録している判定結果の集計処理を実行し、集計処理の実行結果(以下「集計結果」という。)を算出する。具体的には、各視聴者端末200毎の正解数及び不正解数を数えて分布を算出する等である(ステップS127)。   The content control unit 302 executes aggregation processing of the determination results registered in the content storage unit 303, and calculates an execution result of the aggregation processing (hereinafter referred to as “aggregation result”). Specifically, the distribution is calculated by counting the number of correct and incorrect answers for each viewer terminal 200 (step S127).

映像出力部107に図24(A)が表示されると、第2動画制御部105は、所定時間のカウントダウン処理を実行する。所定時間は、受信したコンテンツデータにより指定される。カウントダウン処理時間が経過すると、図13が示すコンテンツデータ配信処理が実行される。このコンテンツデータ配信処理により、映像出力部107には図25(A)が表示される。映像出力部204には図25(B)が表示される。図25は、コンテンツの集計結果が配信者端末100及び視聴者端末200に表示される画像の一例である。図25の領域dは、コンテンツデータの一例である。図25の領域dには、コンテンツの回答結果の分布が領域aの左隣に表示される。図25の領域bには、操作部108が受け付ける「終了」及び「もう一度」が表示される。図25の領域fには、コンテンツの回答結果の分布が領域hの左隣に表示される。図25の領域iには、視聴者端末200の回答結果が表示される。図25の領域iは、左上に視聴者端末200の回答結果が表示される(図25の領域iの場合、3問中2問正解。)。操作部205は、図25の領域iに表示される「ツイート」に対する入力情報を受け付けると、Twitterに結果を送信することができる。操作部205は、図25の領域iに表示される「×」に対する入力情報を受け付けると、操作部205は、図25の領域iを非表示とすることができる(ステップS128)。   When FIG. 24A is displayed on the video output unit 107, the second moving image control unit 105 executes a countdown process for a predetermined time. The predetermined time is specified by the received content data. When the countdown processing time has elapsed, the content data distribution process shown in FIG. 13 is executed. With this content data distribution processing, FIG. 25A is displayed on the video output unit 107. FIG. 25B is displayed on the video output unit 204. FIG. 25 is an example of an image in which the result of content aggregation is displayed on the distributor terminal 100 and the viewer terminal 200. Area d in FIG. 25 is an example of content data. In the area d of FIG. 25, the distribution of the content answer results is displayed on the left side of the area a. In the area b of FIG. 25, “end” and “again” accepted by the operation unit 108 are displayed. In the region f of FIG. 25, the distribution of content answer results is displayed on the left side of the region h. In the area i of FIG. 25, the answer result of the viewer terminal 200 is displayed. In the area i of FIG. 25, the answer result of the viewer terminal 200 is displayed in the upper left (in the case of the area i of FIG. 25, two of three questions are correct). When the operation unit 205 receives input information for “tweet” displayed in the area i of FIG. 25, the operation unit 205 can transmit the result to Twitter. When the operation unit 205 receives input information for “x” displayed in the area i of FIG. 25, the operation unit 205 can hide the area i of FIG. 25 (step S128).

次に、操作部108が、図25の領域bに表示される「終了」に対する入力情報を受け付けると、操作部108は、非継続通知をコンテンツ配信サーバ300へ送信する。図25の領域bに表示される「もう一度」に対する入力情報を受け付けると、継続通知をコンテンツ配信サーバ300へ送信する(ステップS129)。「もう一度」が入力された場合(ステップS129−YES)、操作部108は、コンテンツ配信サーバ300に、継続通知を送信する(ステップS130)。コンテンツ制御部302は、再度ステップS102からステップS128までの処理を実行する(ステップS131)。   Next, when the operation unit 108 receives input information for “end” displayed in the area b of FIG. 25, the operation unit 108 transmits a non-continuation notification to the content distribution server 300. When the input information for “again” displayed in the area b of FIG. 25 is received, a continuation notification is transmitted to the content distribution server 300 (step S129). When “one more time” is input (step S129—YES), the operation unit 108 transmits a continuation notification to the content distribution server 300 (step S130). The content control unit 302 executes the processes from step S102 to step S128 again (step S131).

「終了」が入力された場合(ステップS129−NO)、操作部108は、コンテンツ配信サーバ300に、非継続通知を送信する(ステップS132)。   When “end” is input (step S129—NO), the operation unit 108 transmits a non-continuation notification to the content distribution server 300 (step S132).

コンテンツ制御部302は、配信先記憶部304の配信先テーブルから、配信者IDが一致する全ての視聴者IDを取得する。コンテンツ制御部302は、コンテンツ終了通知及び視聴者IDをリアルタイム通信サーバ600に送信する(ステップS133)。通信制御部602は、視聴者端末200に、コンテンツ終了通知を送信する(ステップS134)。その後、コンテンツ配信サーバ300は処理を終了する。   The content control unit 302 acquires all the viewer IDs having the same distributor ID from the distribution destination table of the distribution destination storage unit 304. The content control unit 302 transmits the content end notification and the viewer ID to the real-time communication server 600 (step S133). The communication control unit 602 transmits a content end notification to the viewer terminal 200 (step S134). Thereafter, the content distribution server 300 ends the process.

ここで、図14〜図25に表示される文字及び画像等は、配信されたコンテンツデータによって異なってもよい。また、図14〜25に表示される画像のコンテンツデータは、画像サーバ400に画像を要求するためのURLであってもよい。   Here, the characters, images, and the like displayed in FIGS. 14 to 25 may differ depending on the distributed content data. 14 to 25 may be URLs for requesting images from the image server 400.

図13は、コンテンツデータ配信処理の流れを示すシーケンス図である。まず、第2動画制御部105は、コンテンツ進行通知及び配信者IDをコンテンツ配信サーバ300へ送信する(ステップS201)。コンテンツ制御部302は、配信先テーブルから、受信した配信者IDに応じた動画IDを取得する。コンテンツ制御部302は、動画配信サーバ500へ、この動画IDの動画再生時間を要求する(ステップS202)。動画処理部502は、コンテンツ配信サーバ300へ動画再生時間を送信する(ステップS203)。コンテンツ制御部302は、コンテンツテーブルに応じて次に配信するコンテンツデータを取得する(ステップS204)。   FIG. 13 is a sequence diagram showing the flow of content data distribution processing. First, the second moving image control unit 105 transmits a content progress notification and a distributor ID to the content distribution server 300 (step S201). The content control unit 302 acquires a moving image ID corresponding to the received distributor ID from the distribution destination table. The content control unit 302 requests the moving image playback time of the moving image ID from the moving image distribution server 500 (step S202). The moving image processing unit 502 transmits the moving image reproduction time to the content distribution server 300 (step S203). The content control unit 302 acquires content data to be distributed next according to the content table (step S204).

コンテンツ制御部302は、配信者端末100に、取得したコンテンツデータを送信する(ステップS205)。配信者端末100は、受信したコンテンツデータを第2動画制御部105に渡す。第2動画制御部105は、受信したコンテンツデータを動画データと結合する。第2動画制御部105は、結合された動画データをデコードする。音声出力部106及び映像出力部107は、デコードされた動画データに基づいて、音声及び映像を出力する。この時、映像出力部107が受け付けた映像データに基づいて、配信者端末100に表示される画像が更新される(ステップS206)。   The content control unit 302 transmits the acquired content data to the distributor terminal 100 (step S205). The distributor terminal 100 passes the received content data to the second moving image control unit 105. The second moving image control unit 105 combines the received content data with moving image data. The second moving image control unit 105 decodes the combined moving image data. The audio output unit 106 and the video output unit 107 output audio and video based on the decoded moving image data. At this time, the image displayed on the distributor terminal 100 is updated based on the video data received by the video output unit 107 (step S206).

コンテンツ制御部302は、配信先記憶部304の配信先テーブルから、配信者IDが一致する全ての視聴者IDを取得する。コンテンツ制御部302は、リアルタイム通信サーバ600に、選択したコンテンツデータ、動画再生時間及び視聴者IDを送信する(ステップS207)。通信制御部602は、受信した視聴者IDを有する視聴者端末200へ、コンテンツデータ及び動画再生時間を送信する(ステップS208)。視聴者端末200は、受信したコンテンツデータを動画制御部202に渡す。動画制御部202は、受信したコンテンツデータを動画データと結合する。動画制御部202は、結合された動画データをデコードする。動画制御部202は、所定の条件を満たした場合、音声出力部203及び映像出力部204は、デコードされた動画データに基づいて、音声及び映像を出力する。所定の条件とは、例えば、受信した動画再生時間と動画制御部202が映像出力部204に出力する経過時間とが一致する場合などである。この時、映像出力部204が受け付けた映像データに基づいて、視聴者端末200に表示される画像が更新される(ステップS209)。   The content control unit 302 acquires all the viewer IDs having the same distributor ID from the distribution destination table of the distribution destination storage unit 304. The content control unit 302 transmits the selected content data, moving image playback time, and viewer ID to the real-time communication server 600 (step S207). The communication control unit 602 transmits the content data and the moving image playback time to the viewer terminal 200 having the received viewer ID (step S208). The viewer terminal 200 passes the received content data to the moving image control unit 202. The moving picture control unit 202 combines the received content data with the moving picture data. The moving image control unit 202 decodes the combined moving image data. When the video control unit 202 satisfies a predetermined condition, the audio output unit 203 and the video output unit 204 output audio and video based on the decoded video data. The predetermined condition is, for example, a case where the received moving image playback time and the elapsed time output from the moving image control unit 202 to the video output unit 204 match. At this time, the image displayed on the viewer terminal 200 is updated based on the video data received by the video output unit 204 (step S209).

ステップS201からステップS209までの処理は、配信者端末100及び視聴者端末200がコンテンツデータを受信する都度、リアルタイムで実行されてもよい。   The processing from step S201 to step S209 may be executed in real time each time the distributor terminal 100 and the viewer terminal 200 receive content data.

このように構成された動画配信システム1では、配信者は、コンテンツ配信サーバ300に登録されているコンテンツデータを使用して動画を配信することで、配信者と視聴者との間のコミュニケーションの活性化を促すことができる。これにより配信者は、コンテンツを自ら作成する必要がなくなる。そのため、配信者の新規参入の敷居が下がり、動画のラインナップが充実する。また、専門業者が作成したコンテンツデータを、配信者が使用して動画を配信することで、動画のコンテンツの品質が底上げされ、配信者と視聴者との間のコミュニケーションの活性化が促される。その結果、視聴者の満足度も向上し、動画配信システム1の利用が促進される。   In the moving image distribution system 1 configured as described above, the distributor distributes the moving image using the content data registered in the content distribution server 300, thereby activating communication between the distributor and the viewer. Can be promoted. This eliminates the need for the distributor to create the content himself. As a result, the threshold for new distributors to enter the market is lowered, and the video lineup is enhanced. In addition, the content data created by the specialist is used by the distributor to distribute the moving image, so that the quality of the moving image content is raised and the communication between the distributor and the viewer is activated. As a result, viewer satisfaction is improved and the use of the moving image distribution system 1 is promoted.

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.

1…動画配信システム,100…配信者端末,101…通信部,102…第1動画制御部,103…音声入力部,104…映像入力部,105…第2動画制御部,106…音声出力部,107…映像出力部,108…操作部,200…視聴者端末,201…通信部,202…動画制御部,203…音声出力部,204…映像出力部,205…操作部,300…コンテンツ配信サーバ,301…通信部,302…コンテンツ制御部,303…コンテンツ記憶部,304…配信先記憶部,305…配信履歴記憶部,400…画像サーバ,401…通信部,402…画像制御部,403…画像記憶部,500…動画配信サーバ,501…通信部,502…動画処理部,503…動画記憶部,504…配信部,600…リアルタイム通信サーバ,601…通信部,602…通信制御部,700…ネットワーク DESCRIPTION OF SYMBOLS 1 ... Moving image delivery system, 100 ... Distributor terminal, 101 ... Communication part, 102 ... 1st moving image control part, 103 ... Audio | voice input part, 104 ... Image | video input part, 105 ... 2nd moving image control part, 106 ... Audio | voice output part , 107 ... Video output section, 108 ... Operation section, 200 ... Viewer terminal, 201 ... Communication section, 202 ... Video control section, 203 ... Audio output section, 204 ... Video output section, 205 ... Operation section, 300 ... Content distribution Server ... 301 Communication unit 302 ... Content control unit 303 Content storage unit 304 Distribution destination storage unit 305 Distribution history storage unit 400 Image server 401 Communication unit 402 Image control unit 403 ... Image storage unit, 500 ... Movie distribution server, 501 ... Communication unit, 502 ... Movie processing unit, 503 ... Movie storage unit, 504 ... Delivery unit, 600 ... Real-time communication server, 60 ... communication unit, 602 ... communication control unit, 700 ... network

映像出力部107に図24(A)が表示されると、第2動画制御部105は、所定時間のカウントダウン処理を実行する。所定時間は、受信したコンテンツデータにより指定される。カウントダウン処理時間が経過すると、図13が示すコンテンツデータ配信処理が実行される。このコンテンツデータ配信処理により、映像出力部107には図25(A)が表示される。映像出力部204には図25(B)が表示される。図25は、コンテンツの集計結果が配信者端末100及び視聴者端末200に表示される画像の一例である。図25の領域dは、コンテンツデータの一例である。図25の領域dには、コンテンツの回答結果の分布が領域aの左隣に表示される。図25の領域bには、操作部108が受け付ける「終了」及び「もう一度」が表示される。図25の領域には、コンテンツの回答結果の分布が領域の左隣に表示される。図25の領域iには、視聴者端末200の回答結果が表示される。図25の領域iは、左上に視聴者端末200の回答結果が表示される(図25の領域iの場合、3問中2問正解。)。操作部205は、図25の領域iに表示される「ツイート」に対する入力情報を受け付けると、Twitterに結果を送信することができる。操作部205は、図25の領域iに表示される「×」に対する入力情報を受け付けると、操作部205は、図25の領域iを非表示とすることができる(ステップS128)。
When FIG. 24A is displayed on the video output unit 107, the second moving image control unit 105 executes a countdown process for a predetermined time. The predetermined time is specified by the received content data. When the countdown processing time has elapsed, the content data distribution process shown in FIG. 13 is executed. With this content data distribution processing, FIG. 25A is displayed on the video output unit 107. FIG. 25B is displayed on the video output unit 204. FIG. 25 is an example of an image in which the result of content aggregation is displayed on the distributor terminal 100 and the viewer terminal 200. Area d in FIG. 25 is an example of content data. In the area d of FIG. 25, the distribution of the content answer results is displayed on the left side of the area a. In the area b of FIG. 25, “end” and “again” accepted by the operation unit 108 are displayed. In the area h in FIG. 25, the distribution of content answer results is displayed on the left side of the area f . In the area i of FIG. 25, the answer result of the viewer terminal 200 is displayed. In the area i of FIG. 25, the answer result of the viewer terminal 200 is displayed in the upper left (in the case of the area i of FIG. 25, two of three questions are correct). When the operation unit 205 receives input information for “tweet” displayed in the area i of FIG. 25, the operation unit 205 can transmit the result to Twitter. When the operation unit 205 receives input information for “x” displayed in the area i of FIG. 25, the operation unit 205 can hide the area i of FIG. 25 (step S128).

Claims (5)

動画配信サーバとコンテンツ配信サーバとを備える動画配信システムであって、
前記動画配信サーバは、
配信者端末が撮像した動画を視聴者端末に配信する配信部を備え、
前記コンテンツ配信サーバは、
コンテンツデータを予め記憶するコンテンツ記憶部と、
配信者によって選択された前記コンテンツデータを前記配信者端末及び前記視聴者端末に配信するコンテンツ制御部と、
を備える動画配信システム。
A video distribution system comprising a video distribution server and a content distribution server,
The video distribution server
A distribution unit that distributes the video captured by the distributor terminal to the viewer terminal;
The content distribution server is
A content storage unit for storing content data in advance;
A content control unit that distributes the content data selected by the distributor to the distributor terminal and the viewer terminal;
A video distribution system.
前記コンテンツ制御部は、リアルタイム通信サーバを介して、前記コンテンツデータを前記視聴者端末に配信する、請求項1に記載の動画配信システム。   The moving image distribution system according to claim 1, wherein the content control unit distributes the content data to the viewer terminal via a real-time communication server. 前記コンテンツ制御部は、配信した前記コンテンツデータに対して、視聴者端末からの入力を受け付け、前記視聴者端末の入力の結果を示すデータを前記配信者端末及び前記視聴者端末に送信する、請求項1又は2に記載の動画配信システム。   The content control unit accepts input from a viewer terminal for the distributed content data, and transmits data indicating a result of input from the viewer terminal to the distributor terminal and the viewer terminal. Item 3. The moving image distribution system according to item 1 or 2. 前記コンテンツ制御部は、配信したコンテンツデータに対して、視聴者端末からの入力を受け付け、前記視聴者端末の入力に応じて付加価値を有するデータを、前記コンテンツ記憶部に登録する、請求項1〜3のいずれか一項に記載の動画配信システム。   The content control unit receives input from a viewer terminal for the distributed content data, and registers data having added value according to the input from the viewer terminal in the content storage unit. The moving image delivery system as described in any one of -3. 動画配信サーバとコンテンツ配信サーバとを備える動画配信システムが行う動画配信方法であって、
前記動画配信サーバが、配信者端末が撮像した動画を配信者端末及び視聴者端末に配信する配信ステップと、コンテンツデータを予め記憶するコンテンツ記憶部を備える前記コンテンツ配信サーバが、配信者によって選択された前記コンテンツデータを前記配信者端末及び前記視聴者端末に配信するコンテンツ制御ステップと、
を有する動画配信方法。
A video distribution method performed by a video distribution system comprising a video distribution server and a content distribution server,
The distributor selects the distribution step in which the moving image distribution server distributes the moving image captured by the distributor terminal to the distributor terminal and the viewer terminal, and the content storage unit that stores the content data in advance. A content control step of distributing the content data to the distributor terminal and the viewer terminal;
A video distribution method comprising:
JP2016137098A 2016-07-11 2016-07-11 Video distribution system and video distribution method Pending JP2018011138A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016137098A JP2018011138A (en) 2016-07-11 2016-07-11 Video distribution system and video distribution method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016137098A JP2018011138A (en) 2016-07-11 2016-07-11 Video distribution system and video distribution method

Publications (1)

Publication Number Publication Date
JP2018011138A true JP2018011138A (en) 2018-01-18

Family

ID=60994389

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016137098A Pending JP2018011138A (en) 2016-07-11 2016-07-11 Video distribution system and video distribution method

Country Status (1)

Country Link
JP (1) JP2018011138A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019169976A (en) * 2019-06-09 2019-10-03 田村 昌和 Live distribution server, live distribution method, and program for assisting live distributor and the like
JP2020110376A (en) * 2019-01-11 2020-07-27 株式会社コロプラ Game program, method, and information processing device
JP2020110375A (en) * 2019-01-11 2020-07-27 株式会社コロプラ Game program, method, and information processing device
JP2020179184A (en) * 2019-01-11 2020-11-05 株式会社コロプラ Game program, method, and information processor
JP2022107658A (en) * 2019-09-25 2022-07-22 株式会社コロプラ Program, method, and information processing device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003030105A (en) * 2001-07-11 2003-01-31 Sony Corp System, device, method, and program for contents evaluation, and contents evaluating program storage medium
JP2011151741A (en) * 2010-01-25 2011-08-04 Nippon Hoso Kyokai <Nhk> Option generation and presentation apparatus and option generation and presentation program
WO2015166573A1 (en) * 2014-05-01 2015-11-05 貴弘 市橋 Live broadcast system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003030105A (en) * 2001-07-11 2003-01-31 Sony Corp System, device, method, and program for contents evaluation, and contents evaluating program storage medium
JP2011151741A (en) * 2010-01-25 2011-08-04 Nippon Hoso Kyokai <Nhk> Option generation and presentation apparatus and option generation and presentation program
WO2015166573A1 (en) * 2014-05-01 2015-11-05 貴弘 市橋 Live broadcast system

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020110376A (en) * 2019-01-11 2020-07-27 株式会社コロプラ Game program, method, and information processing device
JP2020110375A (en) * 2019-01-11 2020-07-27 株式会社コロプラ Game program, method, and information processing device
JP2020179184A (en) * 2019-01-11 2020-11-05 株式会社コロプラ Game program, method, and information processor
JP7305599B2 (en) 2019-01-11 2023-07-10 株式会社コロプラ program
JP2019169976A (en) * 2019-06-09 2019-10-03 田村 昌和 Live distribution server, live distribution method, and program for assisting live distributor and the like
JP2022107658A (en) * 2019-09-25 2022-07-22 株式会社コロプラ Program, method, and information processing device
JP7386927B2 (en) 2019-09-25 2023-11-27 株式会社コロプラ Program, method, and information processing device

Similar Documents

Publication Publication Date Title
JP2018011138A (en) Video distribution system and video distribution method
JP5992476B2 (en) Event-based social networking application
US10585554B2 (en) Apparatus and method for managing interactive television and voice communication services
CN110798575B (en) Video color ring interaction method and device
CN106797500B (en) Video transmission device, terminal, video transmission system, control method, program, and information storage medium
WO2011068040A1 (en) Communication system and communication method
JP2010152813A (en) Information communication system and information communication method
KR101996468B1 (en) Method, system, and non-transitory computer readable medium for audio feedback during live broadcast
CN105847932A (en) Pop-up information display method, device and system
CN110856011B (en) Method for grouping live broadcast interaction, electronic equipment and storage medium
JP2008252865A (en) Technique for call integration with television set-top box (stb)
EP1928176A2 (en) Image display system
CN109195003B (en) Interaction method, system, terminal and device for playing game based on live broadcast
WO2023109665A1 (en) Content presentation method and apparatus, and device and storage medium
CN112383832B (en) Live broadcast room interaction method, electronic equipment and computer readable storage medium
US20230388354A1 (en) Systems and methods for establishing a virtual shared experience for media playback
WO2021000737A1 (en) Neighbor group interaction method and system, client and server
US20230388440A1 (en) Video call method and apparatus, and electronic device and storage medium
JP6724423B2 (en) Communication terminal, communication system, output method, and program
US11308956B2 (en) Information processing device, program, and information processing method
JP2016139972A (en) Information processing unit, voice output method, and computer program
US20130041491A1 (en) Communication system and communication method
JP2018182591A (en) Information processing system, content distribution server, terminal, and program
CN110572688B (en) Game interaction method, server, live broadcast system and computer storage medium
JP5655119B2 (en) Communication system and communication method

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180220