JP2019092146A - Distribution server, distribution program and terminal - Google Patents

Distribution server, distribution program and terminal Download PDF

Info

Publication number
JP2019092146A
JP2019092146A JP2018100684A JP2018100684A JP2019092146A JP 2019092146 A JP2019092146 A JP 2019092146A JP 2018100684 A JP2018100684 A JP 2018100684A JP 2018100684 A JP2018100684 A JP 2018100684A JP 2019092146 A JP2019092146 A JP 2019092146A
Authority
JP
Japan
Prior art keywords
data
video data
effect
unit
terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018100684A
Other languages
Japanese (ja)
Other versions
JP6473262B1 (en
Inventor
量生 川上
Kazuo Kawakami
量生 川上
寛明 齊藤
Hiroaki Saito
寛明 齊藤
尚 小嶋
Takashi Kojima
尚 小嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dwango Co Ltd
Original Assignee
Dwango Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dwango Co Ltd filed Critical Dwango Co Ltd
Application granted granted Critical
Publication of JP6473262B1 publication Critical patent/JP6473262B1/en
Publication of JP2019092146A publication Critical patent/JP2019092146A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

To format distribution visual data for live broadcast by automatically adding a presentation effect thereto.SOLUTION: A distribution server comprises a receiving section, a determination section, a composite section and a distribution section. The receiving section receives visual data for live broadcast from a distributor terminal. The determination section determines whether or not a presentation effect condition is satisfied. The composite section generates composite visual data by combining the visual data and presentation effect data when the presentation effect condition is determined to be satisfied. The distribution section distributes the composite visual data to the distributor terminal and an audience terminal.SELECTED DRAWING: Figure 2

Description

本発明は、動画共有システムにおける動画の生配信に関する。   The present invention relates to live delivery of video in a video sharing system.

近年、一部の動画共有システムでは、ユーザ(以降、単に配信者と呼ぶ)が撮影した動画を多数の観客へインターネット経由で生配信することが可能である。かかるインターネット経由で生配信される動画(以降、単に生番組と称する)でも、テレビ番組と同様に、配信者には利用可能な時間枠が割り当てられている。   In recent years, in some moving image sharing systems, it is possible to live distribute a moving image shot by a user (hereinafter simply referred to as a distributor) to a large number of spectators via the Internet. In such moving pictures lively distributed via the Internet (hereinafter simply referred to as live programs), available time frames are allocated to distributors, as in the case of television programs.

テレビ番組は、通常の録画番組に限らず、生放送番組であっても、オープニング、エンディング、その他の中間演出を付けられることが多い。しかしながら、生番組の配信者が利用可能な技術および人的リソースは、通常、テレビ番組の制作会社と比べて限られているので、配信者が撮影した動画にオープニングやエンディングなどの演出を付加して生配信することは現実的に難しい。このため、生番組は、割り当てられた時間枠に合わせて生番組の本編が唐突に始まり、そして唐突に終わる、ということになりがちで、テレビ番組風の番組構成に慣れ親しんだ観客は違和感を覚えるかもしれない。   Television programs are not limited to regular recorded programs, and even live broadcast programs are often given opening, ending, and other intermediate effects. However, since the technologies and human resources that can be used by live program distributors are usually limited compared to television program production companies, the presentation of opening and ending etc. has been added to the videos taken by the distributors. Real-life delivery is difficult. For this reason, the live program tends to have the main part of the live program suddenly start and end suddenly according to the assigned time frame, and the audience familiar with the program structure of the television program feels unnatural It may be.

また、生配信の開始直後は配信者のフォロワーを中心とする限られた数の観客しか集まらないことも多い。配信者はなるべく多くの観客が集まってからメインの企画に入ることを望むので、しばらく手持ち無沙汰な状態で待っていたり、マイクテストを行ったり、場合によっては離席するなど、間延び感のあるシーンが続いてしまうことがある。観客は、このようなシーンに遭遇すると、退屈に感じて視聴をやめてしまうかもしれない。   Also, immediately after the start of live delivery, often only a limited number of spectators, centered on the followers of the distributor, gather. Since the distributor wants to get in as much of the audience as possible before entering the main project, there is a sense of lengthening, such as waiting in a state of being idle for a while, conducting a microphone test, or leaving the seat in some cases. The scene may continue. When the audience encounters such a scene, they may feel bored and stop viewing.

特許文献1では、個人向け番組配信システムにおいて、視聴者からの配信要求を受信すると(S100)([0027])、番組コンテンツデータベースに記憶される番組コンテンツを抽出し(S106)、個人向けの番組コンテンツを編成し(S108)([0028])、視聴者端末に配信すること([0030])が記載されている。また、編成された個人向け番組コンテンツはタイトルとエンディングを含むこと([0027],[0029])が記載されている。   According to Patent Document 1, when the distribution request from the viewer is received (S100) ([0027]), the program content for personal use is extracted from the program content system stored in the program content database (S106). It is described that content is organized (S108) ([0028]) and distributed to a viewer terminal ([0030]). Also, it is described that the organized program content includes a title and an ending ([0027, [0029]).

また、特許文献2(特に、[0022]、[0057]、[0059]、要約書)には、撮影した動画データから背景部分を切り取り、予め準備しておいた背景画像または動画データと合成した合成動画データを作成し、さらに合成動画データを編集してオープニングタイトルおよびエンドロールのデータを含む統合動画データを生成し、統合動画データをネットワーク経由で共有する技術が開示されている。   In addition, in Patent Document 2 (in particular, [0022], [0057], [0059], abstracts), the background portion is cut out from the photographed moving image data and synthesized with the background image or moving image data prepared in advance. A technique is disclosed for creating synthetic moving picture data and further editing the synthetic moving picture data to generate integrated moving picture data including opening title and end role data, and sharing the integrated moving picture data via a network.

特開2006−339780号公報Unexamined-Japanese-Patent No. 2006-339780 特開2016−154021号公報JP, 2016-154021, A

特許文献1には、リアルタイムコンテンツを随時盛り込んだ状態で番組コンテンツを配信することが記載されているものの、このリアルタイムコンテンツは、例えば、定時ニュース、全国ニュース、地域限定のローカルニュース、天気予報の情報等の一般的な時事情報を含み([0021])、例えば、いくつかのニュース写真の画像およびナレーションにより構成されたコンテンツ824aと取材動画によるコンテンツ826a等とがまとめられることで構成されている([0029])。ここで、取材動画は一般に録画済みの動画を指すから、特許文献1に記載されたリアルタイムコンテンツは、生番組とは異なる。また、個人向け番組コンテンツ800に含まれるタイトル810およびエンディング850は、リアルタイムコンテンツ820とは別個のコンテンツとして扱われている(図3、[0029])。   Although Patent Document 1 describes that program content is distributed in a state where real-time content is included at any time, this real-time content includes, for example, scheduled news, national news, local limited local news, and weather forecast information. Etc. ([0021]), and it is configured, for example, by combining content 824a composed of images and narration of several news photos and content 826a etc. by coverage animation ( [0029]). Here, since the coverage moving image generally refers to a recorded moving image, the real-time content described in Patent Document 1 is different from a live program. Also, the title 810 and the ending 850 included in the personalized program content 800 are treated as contents separate from the real-time content 820 (FIG. 3, [0029]).

特許文献2に記載の技術は、全編撮影済みの動画をベースに統合動画データを生成して共有しており、生番組への適用は想定していない。また、オープニングタイトルおよびエンドロールは、合成動画とは独立したデータであり、両者を合成することまでは想定されていない。   The technology described in Patent Document 2 generates integrated motion picture data based on a motion picture that has been fully shot and shares the motion picture data, and does not assume application to a live program. In addition, the opening title and the end role are data independent of the synthetic moving image, and it is not assumed to combine the two.

従って、生番組の配信にこれらの技術を適用したとしても、生番組の本編とは独立したタイトル、オープニング、エンディング、エンドロールなどが付加されるに過ぎない。故に、ユーザ発信型の生番組に特有な、開始時および終了時の唐突感、開始直後の間延び感、利用可能な表現の幅が限られることによるメリハリ感のなさ、などを改善することは容易でない。   Therefore, even if these techniques are applied to delivery of live programs, titles, openings, endings, end rolls, etc. independent of the main program are added. Therefore, it is easy to improve the distinctiveness at the beginning and the end, the sense of extension immediately after the start, the lack of sense of sharpness due to the limited range of available expressions, etc. specific to user-initiated live programs. Not

本発明は、生配信用の映像データに演出を自動的に付加して体裁を整えることを目的とする。   An object of the present invention is to automatically add an effect to video data for live distribution to adjust the appearance.

本発明の第1の態様に係る配信サーバは、受信部と、判定部と、合成部と、配信部とを含む。受信部は、配信者端末から生配信用の映像データを受信する。判定部は、演出条件が満足しているか否かを判定する。合成部は、演出条件が満足している時に、映像データに対して演出データを合成し合成映像データを生成する。配信部は、合成映像データを配信者端末および観客端末へ配信する。   The distribution server according to the first aspect of the present invention includes a receiving unit, a determining unit, a combining unit, and a distributing unit. The receiving unit receives video data for live distribution from the distributor terminal. The determination unit determines whether the rendering condition is satisfied. The synthesizing unit synthesizes the effect data with the video data when the effect condition is satisfied, and generates synthesized video data. The distribution unit distributes the composite video data to the distributor terminal and the audience terminal.

本発明の第2の態様に係る配信サーバは、受信部と、判定部と、加工部と、配信部とを含む。受信部は、配信者端末から生配信用の映像データを受信する。判定部は、演出条件が満足しているか否かを判定する。加工部は、演出条件が満足している時に、映像データに対して既定の加工を行って加工済み映像データを生成する。配信部は、加工済み映像データを配信者端末および観客端末へ配信する。   A distribution server according to a second aspect of the present invention includes a receiving unit, a determination unit, a processing unit, and a distribution unit. The receiving unit receives video data for live distribution from the distributor terminal. The determination unit determines whether the rendering condition is satisfied. The processing unit performs predetermined processing on the video data when the rendering condition is satisfied, and generates processed video data. The distribution unit distributes the processed video data to the distributor terminal and the audience terminal.

本発明の第3の態様に係る配信サーバは、判定部と、受信部と、生成部と、配信部とを含む。判定部は、演出条件が満足しているか否かを判定する。受信部は、配信者端末から生配信用の映像データを受信し、演出条件が満足している場合にはさらに配信者端末および観客端末の少なくとも1つから配信者端末および観客端末の少なくとも1つにおいて映像データに合成される動的な演出データに対する操作要求を受信する。生成部は、操作要求に基づいて動的な演出データの操作データを生成する。配信部は、映像データおよび操作データを配信者端末および観客端末の少なくとも1つへ配信する。   The distribution server according to the third aspect of the present invention includes a determination unit, a reception unit, a generation unit, and a distribution unit. The determination unit determines whether the rendering condition is satisfied. The receiving unit receives video data for live distribution from the distributor terminal, and when the rendering condition is satisfied, the receiver unit is further from at least one of the distributor terminal and the audience terminal to at least one of the distributor terminal and the audience terminal Receive an operation request for dynamic presentation data to be combined with video data. The generation unit generates operation data of dynamic effect data based on the operation request. The distribution unit distributes the video data and the operation data to at least one of the distributor terminal and the audience terminal.

本発明の第4の態様に係る端末は、判定部と、生成部と、送信部と、受信部と、制御部と、合成部とを含む。判定部は、演出条件が満足しているか否かを判定する。生成部は、演出条件が満足している時に、ユーザ入力に応じて動的な演出データに対する操作要求を生成する。送信部は、操作要求を配信サーバへ送信する。受信部は、演出条件が満足している時に、配信サーバから生配信用の映像データおよび操作要求に基づいて生成された動的な演出データの操作データを受信する。制御部は、操作要求に基づいて動的な演出データを制御する。合成部は、映像データに動的な演出データを合成する。   A terminal according to a fourth aspect of the present invention includes a determination unit, a generation unit, a transmission unit, a reception unit, a control unit, and a combination unit. The determination unit determines whether the rendering condition is satisfied. The generation unit generates an operation request for dynamic presentation data according to a user input when the presentation condition is satisfied. The transmission unit transmits the operation request to the distribution server. The receiving unit receives, from the distribution server, live delivery video data and operation data of dynamic presentation data generated based on the operation request when the presentation condition is satisfied. The control unit controls dynamic presentation data based on the operation request. The combining unit combines dynamic presentation data with video data.

本発明によれば、生配信用の映像データに演出を自動的に付加して体裁を整えることができる。   According to the present invention, it is possible to automatically add a rendition to video data for live distribution and adjust the appearance.

第1の実施形態に係る動画の生配信システムを例示するブロック図。BRIEF DESCRIPTION OF THE DRAWINGS The block diagram which illustrates the live delivery system of the animation concerning a 1st embodiment. 第1の実施形態に係る配信サーバを例示するブロック図。FIG. 2 is a block diagram illustrating a distribution server according to the first embodiment. 映像データを例示する図。The figure which illustrates video data. 図3の映像データに演出データを合成した合成映像データを例示する図。FIG. 4 is a view exemplifying composite video data obtained by combining effect data with the video data of FIG. 3; 図3の映像データに演出データを合成した合成映像データを例示する図。FIG. 4 is a view exemplifying composite video data obtained by combining effect data with the video data of FIG. 3; 図3の映像データに演出データを合成した合成映像データを例示する図。FIG. 4 is a view exemplifying composite video data obtained by combining effect data with the video data of FIG. 3; 図3の映像データに演出データを合成した合成映像データを例示する図。FIG. 4 is a view exemplifying composite video data obtained by combining effect data with the video data of FIG. 3; 図2の配信サーバの動作を例示するフローチャート。3 is a flowchart illustrating the operation of the distribution server of FIG. 第2の実施形態に係る配信サーバを例示するブロック図。The block diagram which illustrates the delivery server concerning a 2nd embodiment. 第1の実施形態および第2の実施形態に係る端末の変形例を示すブロック図。The block diagram which shows the modification of the terminal concerning 1st Embodiment and 2nd Embodiment. 第3の実施形態に係る配信サーバを例示するブロック図。The block diagram which illustrates the delivery server concerning a 3rd embodiment. 映像データを例示する図。The figure which illustrates video data. 図12の映像データを加工した加工済み映像データを例示する図。The figure which illustrates the processed video data which processed the video data of FIG. 図12の映像データを加工した加工済み映像データを例示する図。The figure which illustrates the processed video data which processed the video data of FIG. 第3の実施形態に係る端末の変形例を示すブロック図。The block diagram which shows the modification of the terminal concerning a 3rd embodiment. 第4の実施形態に係る配信サーバを例示するブロック図。The block diagram which illustrates the delivery server concerning a 4th embodiment. 図3の映像データに動的な演出データを合成した合成映像データを例示する図。FIG. 4 is a view exemplifying composite video data obtained by combining dynamic presentation data with the video data of FIG. 3; 図3の映像データに動的な演出データを合成した合成映像データを例示する図。FIG. 4 is a view exemplifying composite video data obtained by combining dynamic presentation data with the video data of FIG. 3; 第4の実施形態に係る端末を例示するブロック図。The block diagram which illustrates the terminal concerning a 4th embodiment. 図16の変形例を示すブロック図。FIG. 17 is a block diagram showing a modification of FIG. 16;

以下、図面を参照しながら実施形態の説明を述べる。なお、以降、説明済みの要素と同一または類似の要素には同一または類似の符号を付し、重複する説明については基本的に省略する。例えば、複数の同一または類似の要素が存在する場合に、各要素を区別せずに説明するために共通の符号を用いることがあるし、各要素を区別して説明するために当該共通の符号に加えて枝番号を用いることもある。   Hereinafter, the description of the embodiment will be described with reference to the drawings. Hereinafter, elements which are the same as or similar to the already described elements are denoted by the same or similar reference numerals, and redundant descriptions will be basically omitted. For example, when there are a plurality of identical or similar elements, a common code may be used to explain each element without distinction, and the common code may be used to distinguish and describe each element. In addition, branch numbers may be used.

(第1の実施形態)
第1の実施形態に係る配信サーバは、図1に例示される動画の生配信システムに組み込むことができる。この生配信システムは、配信者端末100と、配信サーバ200と、観客端末300−1,300−2,・・・とを含む。
First Embodiment
The distribution server according to the first embodiment can be incorporated into the moving image live distribution system illustrated in FIG. The live distribution system includes a distributor terminal 100, a distribution server 200, and audience terminals 300-1, 300-2, and so on.

配信サーバ200は、配信者端末100および観客端末300とネットワーク経由で接続しており、データを互いに送受信できる。なお、図1において示される各装置の数は、例示に過ぎない。例えば、観客端末300の数は、0となることがあり得るし、数百、数千となることもあり得る。また、図1に示されない、Webサーバまたはコメント配信サーバがさらに設けられてもよいし、これらの機能が配信サーバ200に組み込まれてもよい。   The distribution server 200 is connected to the distributor terminal 100 and the audience terminal 300 via a network, and can mutually transmit and receive data. In addition, the number of each apparatus shown in FIG. 1 is only an illustration. For example, the number of spectator terminals 300 may be zero, or may be hundreds or thousands. In addition, a Web server or a comment delivery server not shown in FIG. 1 may be further provided, or these functions may be incorporated into the delivery server 200.

配信者端末100は、例えばビデオカメラなどの動画ソースに接続されたコンピュータなどの電子デバイス、例えば、テレビ受像機(インターネットテレビを含む)、PC(Personal Computer)、モバイル端末(例えば、タブレット、スマートフォン、ラップトップ、フィーチャーフォン、ポータブルゲーム機、デジタルミュージックプレイヤー、電子書籍リーダなど)、VR(Virtual Reality)端末、AR(Augmented Reality)端末などであり得るが、これらに限られない。配信者端末100は、動画ソースから出力されるエンコード済みの映像データを配信サーバ200へ逐次送信する。   The distributor terminal 100 is, for example, an electronic device such as a computer connected to a moving image source such as a video camera, for example, a television receiver (including an internet television), a PC (Personal Computer), a mobile terminal (for example, a tablet, a smartphone, A laptop, a feature phone, a portable game console, a digital music player, an electronic book reader, etc., a VR (Virtual Reality) terminal, an AR (Augmented Reality) terminal, etc. may be used. The distributor terminal 100 sequentially transmits, to the distribution server 200, encoded video data output from the moving image source.

配信サーバ200は、映像データの生配信に割り当てられた時間枠に亘って、配信者端末100から逐次送信される、エンコード済みの映像データを受信する。配信サーバ200は、基本的には、この映像データをそのまま配信者端末100および観客端末300へ配信する。   The distribution server 200 receives encoded video data sequentially transmitted from the distributor terminal 100 over a time frame assigned to live distribution of video data. The distribution server 200 basically distributes the video data to the distributor terminal 100 and the audience terminal 300 as it is.

ただし、後述される演出条件が満足されている時には、配信サーバ200は、映像データに後述される演出データを合成し、合成された映像データ(以降、合成映像データと称する)を配信者端末100および観客端末300へ配信する。かかる演出条件の満足/不満足の判定、演出データの作成、および演出データの合成は、例えば配信サーバ200がスクリプトを実行することで実現されてもよい。   However, when the effect condition described later is satisfied, the distribution server 200 combines the effect data described later with the image data, and the combined image data (hereinafter referred to as combined image data) is the distributor terminal 100. And distribute to the audience terminal 300. The determination of satisfaction / dissatisfaction of the rendering condition, creation of the rendering data, and composition of the rendering data may be realized, for example, by the delivery server 200 executing a script.

観客端末300は、配信者端末100と同様の電子デバイスであり得るが、配信者端末100とは異なり動画ソースに接続される必要はない。   The audience terminal 300 may be an electronic device similar to the distributor terminal 100, but unlike the distributor terminal 100, the audience terminal 300 need not be connected to a moving image source.

配信サーバ200がこのような演出データの自動合成を行うことで、例えば、オープニング演出、エンディング演出または中間演出を、配信者は手軽に利用することができる。かかる演出の付加は配信サーバ200によって行われるので、配信者が高度な動画編集スキル、動画編集用のハードウェアまたはソフトウェアがない、演出家などのサポーターがいない場合であっても支障がない。故に、配信者は、テレビ番組風に体裁の整った動画を容易に生配信することができる。   By the distribution server 200 automatically synthesizing such effect data, the distributor can easily use, for example, an opening effect, an ending effect, or an intermediate effect. Since the addition of this effect is performed by the distribution server 200, there is no problem even if the distributor does not have advanced video editing skills, hardware or software for moving image editing, or a supporter such as a director. Therefore, the distributor can easily perform live presentation of a well-formatted video in the television program style.

以下、図1中の配信サーバ200の構成および動作について順に図面を用いて説明する。   Hereinafter, the configuration and operation of distribution server 200 in FIG. 1 will be sequentially described with reference to the drawings.

配信サーバ200は、コンピュータであって、配信者端末100から受信する映像データの配信制御、演出条件の判定、演出データの作成、演出データの合成、配信者端末100および観客端末300から受信する種々の要求等の解釈とこれに対する応答の生成、などを行うプロセッサと、かかる処理を実現するために当該プロセッサによって実行されるプログラムおよび当該プロセッサによって使用されるデータなどを一時的に格納するメモリとを含んでいる。   The distribution server 200 is a computer, and controls distribution of video data received from the distributor terminal 100, determination of rendering conditions, creation of rendering data, composition of rendering data, various types of distribution data received from the distributor terminal 100 and the audience terminal 300 A processor that interprets the request of the request and generation of a response to the request, a memory that temporarily stores a program executed by the processor to realize the processing, data used by the processor, and the like. It contains.

配信サーバ200は、さらに、ネットワークに接続するための通信装置と、大容量のデータを蓄積するための補助記憶装置とを利用可能である。通信装置および補助記憶装置は、配信サーバ200に内蔵されてもよいし、配信サーバ200に外付けされてもよい。   The distribution server 200 can further use a communication device for connecting to a network and an auxiliary storage device for storing a large amount of data. The communication device and the auxiliary storage device may be incorporated in the distribution server 200 or may be externally attached to the distribution server 200.

通信装置は、ネットワーク経由で配信者端末100および観客端末300と通信をする。例えば、通信装置は、配信者端末100から映像データを受信したり、観客端末300からの配信要求に対する応答を送信したりする。   The communication device communicates with the distributor terminal 100 and the audience terminal 300 via the network. For example, the communication device receives video data from the distributor terminal 100 or transmits a response to a distribution request from the audience terminal 300.

補助記憶装置は、例えば、演出条件、演出データなどのデータを蓄積する。補助記憶装置は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)などの不揮発性記憶媒体であることが好ましい。補助記憶装置は、配信サーバ200にネットワーク経由で接続されたファイルサーバであり得る。   The auxiliary storage device stores, for example, data such as effect conditions and effect data. The auxiliary storage device is preferably, for example, a non-volatile storage medium such as a hard disk drive (HDD) or a solid state drive (SSD). The auxiliary storage device may be a file server connected to the distribution server 200 via a network.

次に、図2を用いて配信サーバ200の構成例の説明を続ける。図2の配信サーバ200は、受信部201と、時計部202と、配信制御部203と、演出条件判定部204と、演出条件記憶部205と、演出データ作成部206と、演出データ合成部207と、映像配信部208とを含む。   Next, the description of the configuration example of the distribution server 200 will be continued using FIG. The distribution server 200 of FIG. 2 includes a receiving unit 201, a clock unit 202, a distribution control unit 203, a rendering condition determination unit 204, a rendering condition storage unit 205, a rendering data generation unit 206, and a rendering data combining unit 207. And a video distribution unit 208.

受信部201は、ネットワーク経由で種々のデータを受信する。受信部201は、前述の通信装置であってもよいし、当該通信装置とのインターフェースであってもよい。
具体的には、受信部201は、配信者端末100から生配信用の映像データを受信する。受信部201は、この映像データを演出条件判定部204へ送る。また、受信部201は、観客端末300からこの映像データの配信要求を受信する。受信部201は、配信要求を配信制御部203へ送る。
The receiving unit 201 receives various data via the network. The receiving unit 201 may be the above-described communication device or an interface with the communication device.
Specifically, the receiving unit 201 receives video data for live distribution from the distributor terminal 100. The receiving unit 201 sends this video data to the rendering condition determining unit 204. Also, the receiving unit 201 receives the distribution request of the video data from the audience terminal 300. The receiving unit 201 sends a distribution request to the distribution control unit 203.

さらに、受信部201は、配信者端末100または観客端末300において所定のユーザ入力があったことを示す情報を受信し、これを演出条件判定部204へ送ってもよい。また、受信部201は、図1に示されないコメント配信サーバから上記映像データに対して投稿されたコメントを受信し、これを演出条件判定部204へ送ってもよい。なお、配信サーバ200が、コメント配信サーバの機能を備える場合には、受信部201は配信者端末100または観客端末300から直接的にコメントを受信し、これを演出条件判定部204へ送り得る。   Furthermore, the receiving unit 201 may receive information indicating that a predetermined user input has been made on the distributor terminal 100 or the audience terminal 300, and may send this to the presentation condition determining unit 204. Also, the receiving unit 201 may receive a comment posted on the video data from a comment distribution server not shown in FIG. 1 and send this to the presentation condition judging unit 204. When the distribution server 200 has the function of a comment distribution server, the receiving unit 201 can receive a comment directly from the distributor terminal 100 or the audience terminal 300 and can send it to the effect condition determination unit 204.

時計部202は、日時を指示する。時計部202は、例えば、固定周波数で振動する水晶発振器と、その出力を分周して1Hzの信号を得る分周回路と、この信号をカウントして日時を示すシリアル値を得るカウンタとを含む。時計部202の指示する日時は、配信制御部203および演出条件判定部204によって参照され得る。   The clock unit 202 instructs a date and time. The clock unit 202 includes, for example, a crystal oscillator that vibrates at a fixed frequency, a divider circuit that divides its output to obtain a 1 Hz signal, and a counter that counts this signal to obtain a serial value indicating date and time. . The delivery control unit 203 and the effect condition determination unit 204 can refer to the date and time instructed by the clock unit 202.

配信制御部203は、映像データの生配信を制御する。配信制御部203は、前述のプロセッサおよびメモリであってよい。
具体的には、配信制御部203は、時計部202の指示する日時と、映像データの生配信に割り当てられた時間枠とを比較し、映像データの生配信の開始および終了を管理する。また、配信制御部203は、観客端末300による配信要求を受信部201から受け取り、当該観客端末300へ映像データが配信されるように映像配信部208を制御する。なお、配信制御部203は、受け取った配信要求に基づいて、観客数の管理を行ってもよい。配信制御部203の管理する時間枠、観客数などの情報は、演出条件判定部204または演出データ作成部206によって参照され得る。
The delivery control unit 203 controls live delivery of video data. The distribution control unit 203 may be the processor and memory described above.
Specifically, the delivery control unit 203 compares the date and time instructed by the clock unit 202 with the time frame assigned to live delivery of video data, and manages the start and end of live delivery of video data. Further, the distribution control unit 203 receives a distribution request from the audience terminal 300 from the reception unit 201, and controls the video distribution unit 208 so that the video data is distributed to the audience terminal 300. The distribution control unit 203 may manage the number of spectators based on the received distribution request. Information such as the time frame managed by the distribution control unit 203 and the number of spectators can be referred to by the effect condition determination unit 204 or the effect data creation unit 206.

演出条件判定部204は、受信部201から映像データを受け取り、演出条件記憶部205から当該映像データについての演出条件を読み出し、演出条件が満足しているか否かを判定する。演出条件判定部204は、演出条件が満足していると判定した場合には映像データを演出データ合成部207へ送り、そうでなければ映像データを映像配信部208へ送る。演出条件判定部204は、前述のプロセッサおよびメモリであってよい。   The effect condition determination unit 204 receives the video data from the reception unit 201, reads the effect condition for the video data from the effect condition storage unit 205, and determines whether the effect condition is satisfied. If the effect condition determination unit 204 determines that the effect condition is satisfied, the effect condition determination unit 204 sends the video data to the effect data combining unit 207; otherwise, it sends the video data to the video distribution unit 208. The effect condition determination unit 204 may be the processor and memory described above.

演出条件判定部204は、演出条件が満足しているか否かを判定するために、必要に応じて、時計部202の指示する日時、配信制御部203の管理する時間枠、観客数、受信部201によって受信された、コメント、配信者端末100または観客端末300において所定のユーザ入力があったことを示す情報、映像データの再生映像または再生音声、などを参照し得る。   In order to determine whether the rendering condition is satisfied, the rendering condition determining unit 204 determines the date and time instructed by the clock unit 202, the time frame managed by the distribution control unit 203, the number of spectators, and the receiving unit as necessary. The comment received by 201, information indicating that a predetermined user input has been made on the distributor terminal 100 or the audience terminal 300, reproduced video or reproduced audio of video data, or the like can be referred to.

ここで、演出条件は、例えば、オープニング演出、エンディング演出、または中間演出を付加するか否か判定するための基準である。具体的には、オープニング演出を付加するための演出条件(オープニング演出条件)は、映像データに割り当てられた時間枠の始まりに、または、この始まりから所定時間後に設定された演出開始地点に、時計部202の指示する日時が到達してから、演出終了条件が満足するまでの間に満足するように定められてもよい。   Here, the rendering condition is, for example, a reference for determining whether to add an opening performance, an ending effect, or an intermediate effect. Specifically, the presentation condition (opening presentation condition) for adding the opening presentation is the clock at the beginning of the time frame assigned to the video data, or at the presentation start point set a predetermined time after the beginning It may be determined to be satisfied after the date and time instructed by the unit 202 has arrived and until the effect end condition is satisfied.

オープニング演出条件は、映像データの観客数が所定の条件を満足してから演出終了条件が満足するまでの間に満足するように定められてもよい。ここでの条件は、例えば、観客数が所定数に達したことなどであり得る。   The opening presentation condition may be determined so as to be satisfied between the number of audiences of the video data satisfying the predetermined condition and the satisfaction of the presentation end condition. The condition here may be, for example, that the number of spectators has reached a predetermined number.

オープニング演出条件は、配信者端末100または観客端末300において所定のユーザ入力があってから演出終了条件が満足するまでの間に満足するように定められてもよい。所定のユーザ入力は、例えば、配信者端末100に表示される、演出開始を指示するためのボタンなどのGUI(Graphical User Interface)部品を選択することであり得る。   The opening presentation condition may be determined so as to be satisfied between the presence of a predetermined user input on the distributor terminal 100 or the audience terminal 300 and the satisfaction of the presentation end condition. The predetermined user input may be, for example, selecting a graphical user interface (GUI) component, such as a button for instructing start of presentation, displayed on the distributor terminal 100.

オープニング演出条件は、映像データに対して投稿されたコメントが所定の条件を満足してから演出終了条件が満足するまでの間に満足するように定められてもよい。ここでの条件は、例えば、コメント数が所定数に達したこと、特定のキーワードを含むコメント数が所定数に達したこと、レアワードを含むコメントがあったことなどであり得る。   The opening presentation condition may be determined so as to be satisfied between the comment posted on the video data satisfying the predetermined condition and the satisfaction of the presentation end condition. The conditions here may be, for example, that the number of comments has reached a predetermined number, that the number of comments including a specific keyword has reached a predetermined number, or that there is a comment that includes a rare word.

オープニング演出条件は、映像データの再生映像または再生音声が所定の条件を満足してから演出終了条件が満足するまでの間に満足するように定められてもよい。ここでの条件は、再生映像から例えば配信者が所定のジェスチャまたは表情を採ったことが認識されたこと、再生音声から例えば配信者が所定のフレーズを発話したことが認識されたこと、などであり得る。   The opening effect condition may be determined to be satisfied between the time when the reproduced video or reproduced sound of the video data satisfies the predetermined condition and the satisfied condition of the effect. The conditions here are, for example, that the distributor has recognized that the distributor has taken a predetermined gesture or expression, for example, and that the reproduction voice has recognized that the distributor has uttered a predetermined phrase, for example. possible.

オープニング演出の演出終了条件は、例えば、演出開始から所定時間が経過した時、観客数またはコメント数が必要数に達した時、または配信者端末100若しくは観客端末300に所定のユーザ入力があった時、映像データの再生映像から例えば配信者が所定のジェスチャまたは表情を採ったことが認識された時、再生音声から例えば配信者が所定のフレーズを発話したことが認識された時、などに満足するように定められてよい。   The presentation end condition of the opening presentation is, for example, when a predetermined time has elapsed from the start of presentation, when the number of spectators or the number of comments has reached the required number, or the user terminal 100 or spectator terminal 300 has a predetermined user input At the time, for example, when it is recognized from the reproduced video of the video data that the distributor took a predetermined gesture or expression, for example, when the reproduced voice recognizes that the distributor uttered a predetermined phrase, etc. It may be determined to

時間枠の始まりからずれた地点からオープニング演出を開始することにより、生配信の開始直後は映像データがそのまま配信され、観客がある程度集まった頃合いにオープニング演出が始まり、生番組の本編への観客の期待を高めて継続して視聴する動機付けをすることができる。他方、時間枠の始まりと一致またはこれに近い地点からオープニング演出を開始することにより、最初期の観客が、オープニング演出を待てず離れてしまうのを防ぐことができる。   By starting the opening production from a point shifted from the beginning of the time frame, the video data will be distributed as it is immediately after the start of the live distribution, and the opening production will start when the audience gathers to some extent, and the audience for the main program of the live program Can be motivated to continue watching and raising expectations. On the other hand, it is possible to prevent the first stage audience from leaving without waiting for the opening presentation by starting the opening presentation from a point coincident with or near the beginning of the time frame.

また、エンディング演出を付加するための演出条件(エンディング演出条件)は、映像データに割り当てられた時間枠の終わりから所定時間前に設定された演出開始地点に、時計部202の指示する日時が到達してから、演出終了条件が満足するまでの間に満足するように定められてもよい。その他、エンディング演出条件は、前述したオープニング演出条件と同様に定められ得る。   In addition, as the effect condition (ending effect condition) for adding the ending effect, the date and time indicated by the clock unit 202 reaches the effect start point set a predetermined time before the end of the time frame assigned to the video data Then, it may be determined to be satisfied before the end condition of presentation is satisfied. In addition, the ending effect condition may be determined in the same manner as the opening effect condition described above.

エンディング演出の演出終了条件は、オープニング演出の演出終了条件と同様であってもよいし、映像データに割り当てられた時間枠の終わりに時計部202の指示する日時が達した時に満足するように定められてもよい。   The ending condition of the ending effect may be the same as the ending condition of the opening effect, and is determined to be satisfied when the date and time indicated by the clock unit 202 reaches the end of the time frame assigned to the video data. It may be done.

中間演出は、例えば、映像データに割り当てられた時間枠の途中で、例えばファンファーレなどの演出映像、映像データにリプレイ映像またはスローモーション再生映像を合成することで実現されてもよい。リプレイ映像またはスローモーション再生映像は、直前の映像を対象としてもよいがこれに限られない。また、生番組がマルチカメラで撮影されている場合には、別視点の映像を合成し、或いは視点の切り替えを行ってもよい。   The intermediate rendering may be realized, for example, by combining a presentation video such as a fanfare, video data with a replay video or a slow motion playback video, in the middle of a time frame assigned to the video data. The replay video or the slow motion playback video may be, but not limited to, the previous video. In addition, when a live program is shot by a multi-camera, images of different viewpoints may be combined or the viewpoint may be switched.

中間演出を付加するための演出条件(中間演出条件)は、映像データに割り当てられた時間枠の始まりから所定時間後に設定された演出開始地点に、時計部202の指示する日時が到達してから、演出終了条件が満足するまでの間に満足するように定められてもよい。また、中間演出条件は、生番組に付与された広告や商品紹介を配信者または観客がクリックした場合または、広告や商品紹介の対象となった商品を配信者または観客が購入した場合に、その購入の所定時間後から演出終了条件が満足するまでの間に満足するように定められてもよい。ここで、広告や商品紹介は、例えば配信者端末100または観客端末300において、生番組の表示ページ内、または当該表示ページから遷移可能なページで表示され得る。その他、中間演出条件は、前述したオープニング演出条件と同様に定められ得る。また、中間演出の演出終了条件は、オープニング演出の演出終了条件と同様であってもよい。   The effect condition (intermediate effect condition) for adding the intermediate effect is after the date and time indicated by the clock unit 202 reaches the effect start point set a predetermined time after the start of the time frame assigned to the video data , And may be determined to be satisfied before the effect termination condition is satisfied. In addition, the intermediate rendering condition is that the distributor or the audience clicks the advertisement or the product introduction given to the live program, or the distributor or the audience purchases the product targeted for the advertisement or the product introduction. It may be determined to be satisfied after a predetermined time of purchase until the end condition of presentation is satisfied. Here, the advertisement and the product introduction may be displayed, for example, in the display page of the live program or in a page to which transition can be made from the display page, at the distributor terminal 100 or the audience terminal 300. In addition, the intermediate rendering condition may be determined in the same manner as the opening rendering condition described above. Further, the end condition of the intermediate effect may be the same as the end condition of the opening effect.

例えば、映像データの観客数、または映像データに対して投稿されたコメント数が急上昇した時に、ファンファーレの映像を合成する中間演出が開始するようにしてもよい。また、例えば「リプレイ」、「スロー」、「もう1回」などの特定のキーワードを含むコメントが映像データに対して所定時間内に所定数以上投稿された時に、リプレイ映像またはスローモーション再生映像を合成する中間演出が開始するようにしてもよい。   For example, when the number of spectators of the video data or the number of comments posted to the video data suddenly rises, an intermediate effect of synthesizing the video of the fanfare may be started. Also, for example, when a comment including a specific keyword such as "replay", "slow", "one more time", etc. is posted to video data for a predetermined number or more within a predetermined time, replay video or slow motion playback video An intermediate effect to be synthesized may be started.

演出条件記憶部205は、前述の種々の演出条件を格納する。演出条件記憶部205に格納された演出条件は、演出条件判定部204および演出データ作成部206によって必要に応じて読み出される。演出条件記憶部205は、前述の補助記憶装置であってもよいし、当該補助記憶装置とのインターフェースであってもよい。   The effect condition storage unit 205 stores the various effect conditions described above. The presentation condition stored in the presentation condition storage unit 205 is read out by the presentation condition determination unit 204 and the presentation data creation unit 206 as necessary. The effect condition storage unit 205 may be the above-described auxiliary storage device or an interface with the auxiliary storage device.

演出データ作成部206は、演出データを作成し、演出データ合成部207へ送る。演出データ作成部206は、前述のプロセッサおよびメモリであってよい。
演出データは、動的な演出データと静的な演出データとに大別することができる。静的な演出データは、映像データの内容に左右されない固定の動画データまたは静止画データであり得る。固定の動画データは、例えば、生配信対象の映像データの再生映像をはめ込むための領域を有する、様々なアニメーションまたは実写映像であってもよい。固定の静止画データは、例えば、映像データの再生映像の画面端を装飾する枠、映像データの再生映像の覆うオブジェクトなどであってもよい。なお、後述する動的な演出データを利用しない場合には、静的な演出データをプリセットしておくことにより、演出データ作成部206を省略することができる。
The effect data creation unit 206 creates effect data and sends it to the effect data combining unit 207. The effect data creation unit 206 may be the processor and memory described above.
The presentation data can be roughly divided into dynamic presentation data and static presentation data. The static effect data may be fixed moving image data or still image data that is not influenced by the content of the video data. The fixed moving image data may be, for example, various animations or live-shot images having an area for inserting a reproduced image of the video data to be delivered live. The fixed still image data may be, for example, a frame for decorating the screen end of the reproduced video of the video data, an object covered by the reproduced video of the video data, or the like. In addition, when not using the dynamic presentation data mentioned later, the presentation data creation part 206 can be abbreviate | omitted by presetting static presentation data.

動的な演出データは、例えば、演出終了条件が満足するための必要条件を動的に示す情報を含む動画データまたは静止画データであってもよいし、映像データの生配信が開始された後に生じた事象に関する情報を含む動画データまたは静止画データであってもよいし、生配信の対象となる映像データのリプレイ映像またはスローモーション再生映像であってもよいし、別視点の映像であってもよいし、例えば動画タイトル、クレジットタイトル、配信者コメントまたは説明文などを含む動画データまたは静止画データであってもよい。かかる情報は、配信者、観客もしくはサービス運営者が生配信の開始前に入力した情報、または配信サーバ200またはその他のサーバにより自動的に付与された情報から抽出され得る。例えば、演出データは、生番組に対して付与されたキーワードである動画タグ、または生番組に対して付与されたスポンサー名、などのメタデータから自動的に生成される情報、例えば、番組カテゴリ、URL(Uniform Resource Locator)、などを含む動画データまたは静止画データであってもよい。ここで、動画タグおよびスポンサー名は、配信者、観客またはサービス運営者により人力で付与されることもあり得るし、配信サーバ200またはその他のサーバにより自動的に付与されることもあり得る。   The dynamic rendering data may be, for example, moving image data or still image data including information dynamically indicating a necessary condition for satisfying the rendering end condition, or after live distribution of video data is started It may be moving image data or still image data including information about an event that has occurred, or it may be a replay video or slow motion playback video of video data to be subjected to live distribution, or a video of another viewpoint For example, it may be moving image data or still image data including a moving image title, a credit title, a distributor comment or an explanatory note. Such information may be extracted from the information input by the distributor, the audience or the service operator before the start of the live distribution, or the information automatically added by the distribution server 200 or another server. For example, the effect data may be information automatically generated from metadata such as a moving image tag which is a keyword assigned to a live program, or a sponsor name assigned to a live program, for example, a program category, It may be moving image data or still image data including a URL (Uniform Resource Locator) and the like. Here, the moving image tag and the sponsor name may be manually provided by the distributor, the audience or the service operator, or may be automatically provided by the distribution server 200 or another server.

さらに、動的な演出データは、生番組に関連するウェブページに表示される情報に基づいて自動的に生成されてもよい。例えば、動画像共有サービスのフロントページなどの番組紹介ページでは、現在公開中の多数の生番組のサムネイルが並べて表示されることがある。そして、かかる番組紹介ページでは、サムネイルの周辺に、例えば「人気上昇中」などの生番組に関する補足情報が表示されることがある。かかる補足情報が付与されたサムネイルに対応する生番組には、当該補足情報そのものまたは当該補足情報から抽出・加工された情報を含む演出データが適用されてもよいし、適用される演出データが当該補足情報に依存して切り替えられてもよい。例えば、補足情報から抽出された情報に基づいて自動的に編集された番組タイトル、補足情報から抽出されたスポンサー名、などが演出データに含まれてもよい。   Furthermore, dynamic presentation data may be automatically generated based on information displayed on a web page associated with the live program. For example, on a program introduction page such as a front page of a moving image sharing service, thumbnails of a large number of live programs currently being released may be displayed side by side. Then, on such a program introduction page, supplemental information on a live program such as "during popularity" may be displayed around the thumbnail. The live data corresponding to the thumbnail to which the supplementary information is added may be the supplementary information itself or presentation data including information extracted / processed from the supplementary information, or the presentation data to be applied may be applied. It may be switched depending on the supplementary information. For example, the program title may be automatically edited based on the information extracted from the supplementary information, the sponsor name extracted from the supplementary information, or the like.

具体的には、演出データ作成部206は、演出終了条件が満足するための必要条件として、映像データの現在の観客数またはコメント数と必要数とのギャップを、例えばカウントダウン形式で示す情報、例えば「あと○○人」、「あと○○コメント」などのテキストを含む演出データを作成してもよい。映像データの現在の観客数またはコメント数の情報は、例えば配信制御部203から取得することができる。また、演出終了条件が満足するために必要な観客数またはコメント数の情報は、例えば演出条件記憶部205から取得することができる。かかる情報が表示されることで、観客は、生番組の本編開始までの目安時間を把握し、それまで待てるかどうか、また、離席してよいのかどうかの判断をすることができる。   Specifically, the effect data creation unit 206 is, for example, information indicating the gap between the current number of spectators of the video data or the number of comments and the necessary number as a necessary condition for satisfying the effect end condition, for example, You may create presentation data including texts such as "after xxx people" and "after xxx comments". Information on the current number of spectators or the number of comments of the video data can be acquired from, for example, the distribution control unit 203. Further, information on the number of spectators or the number of comments necessary for the effect end condition to be satisfied can be acquired from, for example, the effect condition storage unit 205. By displaying such information, the spectator can grasp the standard time until the start of the main program of the live program, and can judge whether or not he / she can wait until then and whether he / she can leave the seat.

また、演出データ作成部206は、映像データの生配信が開始された後に生じた事象に関する情報として、例えば映像データの観客数、映像データに対して投稿されたコメントの一部(例えばダイジェスト)、映像データに対して投稿されたコメント数、および映像データに対してコメントを投稿した観客名、生番組に付与された広告や商品紹介のクリック数、広告や商品紹介から購入された商品に関する情報(例えば商品の名称、購入数、購入総額、写真、購入者情報など)、などを示す情報を含む演出データを作成してもよい。かかる情報を例えばエンドロールとして用いることで、個々の映像データの生配信の態様にふさわしいエンディング演出が可能となる。   Further, the effect data creation unit 206 may use, for example, the number of audiences of the video data, a part of comments posted on the video data (for example, a digest), as information related to an event that occurs after live distribution of the video data is started. The number of comments posted for video data, the audience name who posted the comments for video data, the number of clicks on advertisements and product introductions attached to live programs, and information on products purchased from advertisements and product introductions ( For example, effect data including information indicating the name of a product, the number of purchases, the total purchase amount, a photograph, purchaser information, and the like may be created. By using such information as, for example, an end roll, it is possible to perform an ending effect appropriate to the aspect of live distribution of individual video data.

また、演出データ作成部206は、配信者端末100または観客端末300になされたユーザ入力、または配信者端末100または観客端末300によって投稿されたコメントに反応して変化する演出データを作成してもよい。例えば、演出データは、映像データの再生映像の画面を遮るオブジェクト(例えば、紙吹雪、拍手を意味する「8」のシンボル、花束、ハートマーク、雲、人垣、配信者の設定したアイコン、動画像共有サービスのマスコットキャラクターなど)を含んでいてもよい。   Also, the effect data creation unit 206 may create effect data that changes in response to a user input made to the distributor terminal 100 or the audience terminal 300 or a comment posted by the distributor terminal 100 or the audience terminal 300. Good. For example, the effect data is an object blocking the screen of the reproduced video of the video data (for example, a confetti, a symbol of “8” meaning applause, a bouquet, a heart mark, a cloud, a hedge, an icon set by a distributor, a moving image It may include the mascot character of the shared service.

この場合に、演出データ作成部206は、演出開始時に、画面全体にかかるオブジェクトが敷き詰められた演出データを作成し、配信者端末100または観客端末300に所定のユーザ入力(例えばオブジェクト、またはボタンなどのGUIの選択)またはコメント投稿がなされると、オブジェクトを消滅、移動、縮小させるなどして徐々に映像データの再生映像の画面が見えるようにしてもよい。逆に、演出データ作成部206は、演出開始時に、オブジェクトを零または少数含む演出データを作成し、配信者端末100または観客端末300に所定のユーザ入力(例えばオブジェクト、またはボタンなどのGUIの選択)、またはコメント投稿がなされると、オブジェクトを出現、移動、拡大させるなどして徐々に映像データの再生映像の画面が見えなくなるようにしてもよい。   In this case, the effect data creation unit 206 creates effect data in which objects covering the entire screen are spread at the start of the effect, and a predetermined user input (for example, an object, a button, etc.) to the distributor terminal 100 or the audience terminal 300 When the GUI is selected or a comment is posted, the object may be deleted, moved, or shrunk, etc. to gradually make the reproduced video screen of the video data visible. Conversely, the effect data creation unit 206 creates effect data including zero or a small number of objects at the start of the effect, and performs predetermined user input to the distributor terminal 100 or the audience terminal 300 (for example, selection of GUI such as object or button) ), Or when a comment is posted, the object may be made to appear, moved, enlarged, etc. so that the reproduced video screen of the video data may gradually disappear.

徐々に映像データの再生映像の画面が見えるようにする演出は、オープニングに適しているがこれに限定されるものではない。徐々に映像データの再生映像の画面が見えなくなる演出は、エンディングに適しているがこれに限定されるものではない。   The effect of gradually making the reproduced video screen of video data visible is suitable for the opening, but is not limited to this. The effect of gradually losing sight of the reproduced video screen of the video data is suitable for ending, but is not limited to this.

なお、オブジェクトの状態が全端末間で完全に同期していなかったとしても、生番組の本編の視聴体験には影響しないので、同期を行う頻度を減らしてサーバの負荷を軽減してもよい。   In addition, even if the state of the object is not completely synchronized between all the terminals, it does not affect the viewing experience of the main program of the live program, so the frequency of performing synchronization may be reduced to reduce the load on the server.

また、この例において、演出終了条件がオブジェクトの数、大きさ、位置などによって定められてもよい。この場合に、配信者および観客は、合成映像データの再生映像に含まれるオブジェクトの状態から演出終了条件が満足するための必要条件、例えばあとどれくらいオブジェクトを減らす必要があるのか、あとどれくらいオブジェクトを増やす必要があるのかを把握し得る。故に、かかるオブジェクトもまた、演出終了条件が満足するための必要条件を動的に示す情報の一例に相当する。   Also, in this example, the effect end condition may be determined by the number, size, position, etc. of the objects. In this case, the distributor and the audience increase the number of objects required, for example, how many objects need to be reduced, from the state of the objects included in the playback video of the composite video data to the satisfaction of the rendering termination condition. You can figure out what you need. Therefore, such an object also corresponds to an example of information dynamically indicating the necessary condition for satisfying the effect end condition.

演出データ合成部207は、演出条件判定部204から映像データを受け取り、演出データ作成部206から演出データを受け取る。演出データ合成部207は、映像データに演出データを合成し、合成映像データを生成する。演出データ合成部207は、例えば、アルファブレンド、ピクチャーインピクチャーなどの公知の技法を用いて、映像データに演出データを合成してもよい。演出データ合成部207は、合成映像データを映像配信部208へ送る。演出データ合成部207は、前述のプロセッサおよびメモリであってよい。なお、合成に用いられる演出データの種類は、所定のアルゴリズムにより自動的に決定されてもよいし、配信者および/または観客のユーザ入力情報により決定されてもよいし、両者の組み合わせにより決定されてもよい。例えば、生番組に付与された広告や商品紹介のクリック数、広告や商品紹介から購入された商品に関する情報、例えば商品の購入数、購入総額など、の情報により、エンディング演出に用いられる演出データが切り替えられてもよい。   The effect data synthesis unit 207 receives the video data from the effect condition determination unit 204 and receives the effect data from the effect data generation unit 206. The effect data synthesizing unit 207 synthesizes the effect data with the video data to generate synthesized video data. For example, the effect data combining unit 207 may combine the effect data with the video data using a known technique such as alpha blending and picture-in-picture. The effect data synthesis unit 207 sends the synthesized video data to the video distribution unit 208. The effect data synthesis unit 207 may be the processor and memory described above. The type of effect data used for synthesis may be automatically determined by a predetermined algorithm, may be determined by user input information of a distributor and / or an audience, or may be determined by a combination of both. May be For example, according to information on the number of clicks on advertisements and product introductions given to live programs, information on products purchased from advertisements and product introductions, such as the number of purchases of products and total purchase amount, the effect data used for ending effect is It may be switched.

演出データ合成部207は、例えば、映像データの再生映像の画面の一部または全部をリサイズして、または画面の一部をトリミングして演出データと合成してもよいし、映像データの再生映像の画面の一部が露出し、残部が隠れるように映像データを演出データと合成してもよい。図3に映像データを例示し、図4乃至図7に合成映像データを例示する。   For example, the effect data synthesizing unit 207 may resize a part or all of the screen of the reproduced video of the video data, or may trim a part of the screen and combine it with the effect data, or the reproduced video of the video data The video data may be combined with the effect data so that a part of the screen of is exposed and the remaining part is hidden. Video data is illustrated in FIG. 3, and composite video data is illustrated in FIG. 4 to FIG.

演出データ合成部207は、図4に例示されるように、図3の映像データの再生映像の画面の一部(例えば、配信者の顔領域)および全部をそれぞれ小さくリサイズして、演出データとしての動画データまたは静止画データにはめ込んでもよい。また、図4の例では、クレジットタイトルとして、「出演 ○○○」のテキストが演出データに含まれている。このように、映像データの再生映像の画面の全部を小さくリサイズしてから演出データと合成することで、画面が演出データによってマスクされないようにすることができる。故に、配信者が観客に見せたい部分が演出データによって隠されてしまうハプニングを防ぐことができる。他方、映像データの再生映像の画面の全部ではなく一部を小さく、または大きくリサイズしてから演出データと合成すれば、配信者が観客に見せたい部分を過度に縮小しないように、或いはより強調することができる。画面の一部は、例えば画面の中心に近い領域など静的な領域であってもよいし、配信者の顔がある領域、動きの大きい領域など動的な領域であってもよい。動的な領域を抽出する場合には、例えば、公知の顔認識技術、動体検出技術などが利用されてよい。   As exemplified in FIG. 4, the effect data synthesizing unit 207 resizes a part (for example, the face area of the distributor) and the whole of the screen of the reproduced video of the image data of FIG. May be embedded in moving image data or still image data. Further, in the example of FIG. 4, the text of “cast xxx” is included in the effect data as a credit title. As described above, the entire screen of the reproduced video of the video data is resized to be small and then combined with the effect data, so that the screen can be prevented from being masked by the effect data. Therefore, it is possible to prevent a happening where the part that the distributor wants to show to the audience is hidden by the effect data. On the other hand, if not all but a part of the reproduced video screen of the video data is resized small or large and then combined with the effect data, the part that the distributor wants to show to the audience is not excessively reduced or emphasized can do. For example, a part of the screen may be a static area such as an area near the center of the screen, or may be a dynamic area such as an area with the face of the distributor or an area with large motion. In the case of extracting a dynamic region, for example, known face recognition technology, moving object detection technology, etc. may be used.

このように、映像データの再生映像の画面のリサイズを行ってから演出データと合成することで、配信者および観客に、生番組の本編とは異なる特別な演出が付加されていることを意識させることができる。   As described above, by resizing the screen of the reproduced video of the video data and combining it with the effect data, the distributor and the audience are made aware that a special effect different from the main program of the live program is added. be able to.

演出データ合成部207は、図5および図6に例示されるように、図3の映像データに演出データを合成し、映像データの再生映像の画面を遮るオブジェクトが合成された合成映像データを生成してもよい。図5の例では、演出開始時には、画面一杯にテレビをモチーフとするマスコットキャラクターのシルエットのオブジェクトが敷き詰められており、観客(および配信者)がこのオブジェクトを例えばタップしていくことで、オブジェクトが徐々に消え去り、演出が完了する。また、図6の例では、演出開始時には、画面下部に「8」のシンボルが少数積もった状態、または積もっていない状態であり、観客(および配信者)が例えば画面をタップ、または「8」のコメントを投稿することで、このオブジェクトが徐々に積もっていき、演出が完了する。なお、図5および図6の演出において、ユーザ入力が全くない場合にも時間経過に応じて、オブジェクトが自動的に消え去り、またはオブジェクトが自動的に積もるようにしてもよい。   The effect data synthesizing unit 207 synthesizes the effect data with the image data of FIG. 3 as illustrated in FIGS. 5 and 6, and generates synthesized image data in which an object blocking the screen of the reproduced image of the image data is synthesized. You may In the example of FIG. 5, at the beginning of the rendering, the object of the silhouette of the mascot character with the motif of the television is spread all over the screen, and the spectator (and the distributor) taps this object, for example. It fades away gradually and the production is complete. Further, in the example of FIG. 6, at the start of rendering, the symbol “8” is slightly accumulated or not accumulated at the bottom of the screen, and the spectators (and distributors) tap the screen, or “8”, for example. By posting a comment, this object gradually accumulates and the rendering is complete. Note that, in the effects shown in FIGS. 5 and 6, even when there is no user input, objects may disappear automatically or objects may be automatically stacked according to the passage of time.

演出データ合成部207は、図7に例示されるように、図3の映像データの再生映像の画面の全部を小さくリサイズしてから、エンドロールを表示するための領域を含む演出データを合成してもよい。図7の例では、図3の映像データの観客数、コメント投稿した観客名などの情報がエンドロールの一部として表示される。なお、図7の例は、エンディング演出に限られず、例えば生配信の前半部分を締めくくるための中間演出として適用されてもよい。   As exemplified in FIG. 7, the effect data combining unit 207 resizes the entire reproduced image screen of the image data of FIG. 3 to a smaller size, and then combines effect data including an area for displaying an end roll. It is also good. In the example of FIG. 7, information such as the number of spectators in the video data of FIG. 3 and the spectator name who posted a comment is displayed as part of the end roll. The example of FIG. 7 is not limited to the ending effect, and may be applied as an intermediate effect for closing the first half of the live delivery, for example.

映像配信部208は、演出条件判定部204からの映像データ、または演出データ合成部207からの合成映像データを受け取り、これを配信者端末100および観客端末300へ配信する。映像配信部208は、例えば映像データの配信先などを配信制御部203によって制御される。映像配信部208は、前述の通信装置であってもよいし、当該通信装置とのインターフェースであってもよい。   The video distribution unit 208 receives the video data from the effect condition determination unit 204 or the composite video data from the effect data synthesis unit 207, and distributes this to the distributor terminal 100 and the audience terminal 300. The video distribution unit 208 is controlled by the distribution control unit 203, for example, a distribution destination of video data. The video distribution unit 208 may be the above-described communication device or an interface with the communication device.

なお、映像配信部208は、配信済みの映像データ(または合成映像データ)を直ちに破棄してもよいが、例えば前述のリプレイまたはスローモーション再生を伴う演出を可能とするために所定期間バッファリングしておき、演出データ作成部206による参照を許容してもよい。   Although the video distribution unit 208 may immediately discard the distributed video data (or composite video data), for example, buffering is performed for a predetermined period to enable the effects accompanied by the aforementioned replay or slow motion reproduction. Alternatively, reference by the effect data creation unit 206 may be permitted.

次に図8を用いて、配信サーバ200の動作例を説明する。図8の動作は、例えば映像データに割り当てられた時間枠の始まりと共に開始する。図8の動作が開始すると、処理はステップS401へ進む。   Next, an operation example of the distribution server 200 will be described using FIG. The operation of FIG. 8 begins, for example, with the beginning of the time frame assigned to the video data. When the operation of FIG. 8 starts, the process proceeds to step S401.

ステップS401において、受信部201は配信者端末100から生配信用の映像データを受信する。演出条件判定部204は、ステップS401において受信された映像データについて予め定められた演出条件が満足するか否かを判定する(ステップS402)。演出条件が満足すれば処理はステップS403へ進み、そうでなければ処理はステップS405へ進む。   In step S 401, the receiving unit 201 receives video data for live distribution from the distributor terminal 100. The effect condition determination unit 204 determines whether a predetermined effect condition is satisfied for the video data received in step S401 (step S402). If the rendering condition is satisfied, the process proceeds to step S403, and if not, the process proceeds to step S405.

ステップS403において、演出データ合成部207は、ステップS401において受信された映像データを演出データと合成する。なお、演出データ合成部207は、映像データの再生映像のリサイズ、トリミングなどの加工を必要に応じて行ってから、演出データと合成してもよい。そして、映像配信部208は、ステップS403において生成された合成映像データを観客端末300へ配信する(ステップS404)。他方、ステップS405において、映像配信部208は、ステップS401において受信された映像データを観客端末300へ配信する。   In step S403, the effect data combining unit 207 combines the video data received in step S401 with the effect data. The effect data combining unit 207 may perform processing such as resizing and trimming of the reproduced video of the image data as necessary, and then combine with the effect data. Then, the video distribution unit 208 distributes the composite video data generated in step S403 to the audience terminal 300 (step S404). On the other hand, in step S405, the video distribution unit 208 distributes the video data received in step S401 to the audience terminal 300.

ステップS404またはステップS405の終了時に、時計部202の指示する日時が、生配信対象の映像データに割り当てられた時間枠の終わりに達していたならば図8の動作は終了し、そうでなければ処理はステップS401に戻る(ステップS406)。   If the date and time instructed by the clock unit 202 has reached the end of the time frame assigned to the video data to be delivered live at the end of step S404 or step S405, the operation of FIG. 8 ends, otherwise The process returns to step S401 (step S406).

以上説明したように、第1の実施形態に係る配信サーバは、生配信用の映像データに対して演出データを条件付きで自動合成する。これにより、配信者は、高度な動画編集スキルやリソースを必要とすることなく、例えばオープニング演出、エンディング演出、中間演出などが付加されテレビ番組風に体裁の整った動画を容易に生配信することができる。   As described above, the distribution server according to the first embodiment automatically combines effect data with video data for live distribution conditionally. As a result, the distributor can easily deliver live-styled videos in the style of a television program, for example, with the addition of opening effects, ending effects, intermediate effects, etc., without requiring advanced video editing skills and resources. Can.

特に、オープニング演出を付加することにより、配信者および観客に生番組の始まりを意識させ、配信者がマイクテスト、休憩を取るなどして準備を整えたり、生番組の本編に入る前にコメントを介して観客とコミュニケーションを取ったり、観客に間延び感をあまり感じさせずることなく生番組の本編の開始を待ってもらったりすることができる。   In particular, by adding an opening presentation, the distributor and the audience are made aware of the beginning of the live program, and the distributor prepares by taking a microphone test, taking a rest, etc., and comments before entering the main program of the live program. You can communicate with the audience, or wait for the start of the main program without disturbing the audience.

また、エンディング演出を付加することにより、配信者および観客に生番組の終わりを意識させ、配信者がまとめに入ったり、次回予告を行ったり、観客とコメントを介してコミュニケーションを取ったりするなどの時間を取りやすくなる。   Moreover, by adding an ending effect, the distributor and the audience are made aware of the end of the live program, and the distributor enters the summary, gives a notice for the next time, communicates with the audience via comments, etc. It will be easier to take time.

さらに、中間演出として、盛り上がった場面でファンファーレなどの配信者を鼓舞する映像効果を加えたり、決定的瞬間のリプレイ、スローモーション再生を可能としたりすることで、生配信において利用可能な表現の幅を広げることができる。   Furthermore, as an intermediate performance, the width of the expression that can be used in live distribution is possible by adding video effects to inspire distributors such as fanfares in exciting scenes, and enabling replay of critical moments and slow motion reproduction. Can be extended.

(第2の実施形態)
第2の実施形態に係る配信サーバは、生配信用の映像データおよび演出データをどのように合成するかを配信者および/または観客が指定することができる。具体的には、どのようなレイアウト(位置合わせ)で両者を合成するか、すなわち一方または両方をどれだけ平行移動させるかを指定したり、一方または両方に対する回転、反転、リサイズおよび/またはトリミングの設定を指定したりすることが可能である。
Second Embodiment
The distribution server according to the second embodiment allows the distributor and / or the audience to specify how to combine video data and presentation data for live distribution. Specifically, it is specified in what layout (alignment) the two are combined, that is, how much one or both should be translated, or rotation, inversion, resizing and / or trimming for one or both. It is possible to specify settings.

図9に第2の実施形態に係る配信サーバ500が例示される。以降の説明では、配信サーバ500と配信サーバ200との相違点を中心に述べる。配信サーバ500は、映像データの生配信に割り当てられた時間枠に亘って、配信者端末100から逐次送信される、エンコード済みの映像データを受信する。配信サーバ500は、演出条件が満足されている時には、映像データに演出データを配信者および/または観客の指定に従って合成し、合成映像データを配信者端末100および観客端末300へ配信する。ここで、演出条件は、第1の実施形態において説明した演出条件と同一または類似であり得る。   A distribution server 500 according to the second embodiment is illustrated in FIG. In the following description, differences between the distribution server 500 and the distribution server 200 will be mainly described. The distribution server 500 receives encoded video data sequentially transmitted from the distributor terminal 100 over a time frame assigned to live distribution of video data. When the rendering condition is satisfied, the distribution server 500 synthesizes the rendering data with the video data in accordance with the designation of the distributor and / or the audience, and distributes the composite video data to the distributor terminal 100 and the audience terminal 300. Here, the rendering condition may be the same as or similar to the rendering condition described in the first embodiment.

配信サーバ500がこのような演出データの自動合成を配信者および/または観客の指定に従って行うことで、第1の実施形態において説明した、オープニング演出、エンディング演出または中間演出の表現の幅をさらに広げることができる。例えば、映像データを演出データに対してはめ込み合成する場合に、より自然に見えるようにしたり、敢えて不自然に見えるようにしたりすることが可能となる。   The distribution server 500 performs automatic composition of such effect data according to the designation of the distributor and / or the audience, thereby further expanding the width of the opening effect, the ending effect, or the intermediate effect described in the first embodiment. be able to. For example, in the case of combining video data with presentation data, it is possible to make the image look more natural or to make it look unnatural.

以下、配信サーバ500の機能的構成について図9を用いて説明する。なお、配信サーバ500のハードウェア構成は、配信サーバ200と同一または類似であり得るのでこれに関する説明を省略する。   The functional configuration of distribution server 500 will be described below with reference to FIG. The hardware configuration of the distribution server 500 may be the same as or similar to that of the distribution server 200, and thus the description thereof will be omitted.

配信サーバ500は、受信部501と、時計部502と、配信制御部503と、演出条件判定部504と、演出条件記憶部505と、演出データ作成部506と、演出データ合成部507と、映像配信部508とを含む。このうち、時計部502、配信制御部503、演出条件記憶部505、演出データ作成部506および映像配信部508は、それぞれ配信サーバ200における同名の要素と同一または類似であり得る。以下、その他の要素について、配信サーバ200における同名の要素との相違点を中心に説明する。   The distribution server 500 includes a reception unit 501, a clock unit 502, a distribution control unit 503, an effect condition determination unit 504, an effect condition storage unit 505, an effect data generation unit 506, an effect data synthesis unit 507, and an image. And a delivery unit 508. Among them, the clock unit 502, the distribution control unit 503, the effect condition storage unit 505, the effect data creation unit 506, and the video distribution unit 508 may be the same as or similar to the elements of the same name in the distribution server 200, respectively. The other elements will be described below focusing on the differences from the elements of the distribution server 200 with the same name.

受信部501は、受信部201によって受信されるデータに加えて、配信者端末100および/または観客端末300から指定データを受信し得る。この指定データは、生配信用の映像データおよび演出データをどのように合成するかを指定する。具体的には、指定データは、映像データおよび演出データの合成位置、映像データの拡大/縮小率、演出データの拡大/縮小率、映像データの回転量、演出データの回転量、映像データにおける特定の領域、ならびに演出データにおける特定の領域、などを指定し得る。受信部501は、この指定データを演出条件判定部504へ送る。   The receiving unit 501 can receive specified data from the distributor terminal 100 and / or the audience terminal 300 in addition to the data received by the receiving unit 201. This designation data designates how to combine video data for live distribution and presentation data. Specifically, the designation data is a combination position of video data and effect data, enlargement / reduction ratio of video data, enlargement / reduction ratio of effect data, rotation amount of video data, rotation amount of effect data, identification in image data , And a specific area in the rendering data. The receiving unit 501 sends this designation data to the rendering condition determining unit 504.

演出条件判定部504は、演出条件が満足している場合に、映像データに加えて指定データを演出データ合成部507へ送る。なお、配信者および観客が生配信用の映像データおよび演出データをどのように合成するかを特に指定しなければ、指定データが存在しないこともあり得る。   If the rendering condition is satisfied, the rendering condition determination unit 504 sends the designation data to the rendering data combining unit 507 in addition to the video data. The designated data may not exist unless the distributor and the audience designate in particular how to combine the video data for live distribution and the effect data.

演出データ合成部507は、演出条件判定部504から映像データおよび指定データを受け取り、演出データ作成部506から演出データを受け取る。演出データ合成部507は、指定データに従って映像データおよび/または演出データに前処理を行ってから両者を合成し、合成映像データを生成する。   The effect data combining unit 507 receives the video data and the designated data from the effect condition determining unit 504, and receives the effect data from the effect data creating unit 506. The effect data combining unit 507 pre-processes the video data and / or the effect data according to the designated data, and then combines the two to generate combined video data.

具体的には、指定データが映像データおよび演出データの合成位置を指定する場合に、演出データ合成部507は、映像データおよび/または演出データを平行移動させて両者の合成位置を制御し得る。   Specifically, when the designation data designates the combining position of the video data and the effect data, the effect data combining unit 507 can move the video data and / or the effect data in parallel to control the combining position of the two.

また、指定データが映像データの拡大/縮小率、および/または演出データの拡大/縮小率を指定する場合に、演出データ合成部507は、映像データおよび/または演出データをリサイズし得る。さらに、指定データが映像データの回転量、および/または演出データの回転量を指定する場合に、演出データ合成部507は映像データおよび/または演出データを回転し得る。ここで、回転は、画像平面上での2次元的な回転に限らず、上下反転および左右反転、ならびにこれら組み合わせを含む3次元的な回転を意味し得る。   Also, when the designated data designates the enlargement / reduction ratio of the video data and / or the enlargement / reduction ratio of the presentation data, the presentation data combining unit 507 may resize the video data and / or the presentation data. Furthermore, when the designated data designates the amount of rotation of the video data and / or the amount of rotation of the effect data, the effect data combining unit 507 may rotate the image data and / or the effect data. Here, the rotation may mean not only two-dimensional rotation on the image plane, but also three-dimensional rotation including vertical and horizontal flipping, and a combination thereof.

さらに、指定データが映像データにおける特定の領域、および/または演出データにおける特定の領域を指定する場合に、演出データ合成部507は、映像データおよび/または演出データにおいて指定された領域をトリミングし得る。   Furthermore, when the designated data designates a specific area in the video data and / or a specific area in the effect data, the effect data combining unit 507 may trim the area specified in the video data and / or the effect data. .

演出データ合成部507が、以上のような前処理を行うことで、配信者および/観客の好みに合わせて、映像データおよび演出データを合成することが可能となる。一例として演出データが顔抜きフレームなどである場合に映像データの顔と顔抜きフレームのはめ込み部分とを自然に見えるように、または敢えて不自然に見えるように合成することが可能となる。   By performing the pre-processing as described above, the effect data combining unit 507 can combine the video data and the effect data according to the preference of the distributor and / or the audience. As an example, when the effect data is a face-out frame or the like, it is possible to combine the face of the video data and the inset part of the face-out frame so as to look natural or unnaturally.

以上説明したように、第2の実施形態に係る配信サーバは、映像データおよび演出データをどのように合成するかを指定する指定データを配信者端末および/または観客端末から受信し、これに従って映像データおよび/または演出データに前処理を行ってから両者を合成する。故に、この配信サーバによれば、第1の実施形態において説明した、オープニング演出、エンディング演出または中間演出の表現の幅をさらに広げることが可能となる。   As described above, the distribution server according to the second embodiment receives, from the distributor terminal and / or the audience terminal, designation data for specifying how to combine the video data and the rendering data, and the video according to this. The data and / or presentation data are preprocessed and then combined. Therefore, according to this distribution server, it is possible to further widen the width of the opening effect, the ending effect, or the intermediate effect described in the first embodiment.

(変形例)
ところで、前述の第1の実施形態および本実施形態では配信サーバが映像データおよび演出データを合成する。これにより、配信者および観客の視聴する合成映像データを同期させやすい、端末の処理負荷を減らすことができる、といったメリットがある。配信サーバから端末への通信量の削減というメリットもある。しかしながら、端末が映像データおよび演出データを合成することも可能である。以下、簡単に説明する。
(Modification)
By the way, in the first embodiment and the present embodiment described above, the distribution server combines the video data and the effect data. As a result, there is an advantage that it is easy to synchronize synthesized video data that the distributor and the audience view, and the processing load on the terminal can be reduced. There is also an advantage of reducing the amount of communication from the distribution server to the terminal. However, it is also possible for the terminal to combine video data and presentation data. A brief description will be given below.

この変形例に係る端末600を図10に例示する。なお、端末600は、配信者端末および観客端末のどちらであってもよいので、配信者端末および観客端末それぞれに固有の部分については説明を省略する。   A terminal 600 according to this modification is illustrated in FIG. In addition, since the terminal 600 may be either a distributor terminal or a spectator terminal, description of parts unique to the distributor terminal and the spectator terminal will be omitted.

端末600は、配信者端末100に関して説明した種々の電子デバイスであり得る。端末600は、例えば、入出力制御、通信制御、演出条件の判定、演出データの作成、映像データおよび演出データの合成、などを行うプロセッサを含む。ここで、プロセッサは、典型的にはCPU(Central Processing Unit)および/またはGPU(Graphics Processing Unit)であるが、マイコン、FPGA(Field Programmable Gate Array)、またはDSP(Digital Signal Processor)、などであってもよい。また、端末600は、かかる処理を実現するためにプロセッサによって実行されるプログラムおよび当該プロセッサによって使用されるデータなどを一時的に格納するメモリを含んでいる。   Terminal 600 may be the various electronic devices described with respect to distributor terminal 100. The terminal 600 includes, for example, a processor that performs input / output control, communication control, determination of effect conditions, creation of effect data, and synthesis of video data and effect data. Here, the processor is typically a central processing unit (CPU) and / or a graphics processing unit (GPU), but a microcomputer, a field programmable gate array (FPGA), or a digital signal processor (DSP). May be The terminal 600 also includes a memory that temporarily stores programs executed by the processor to realize such processing and data used by the processor.

なお、端末600は、全てのデータをオンメモリの状態で扱ってもよいし、一部のデータが補助記憶装置に退避されていてもよい。補助記憶装置は、例えば、端末600に内蔵または外付けされたHDD、SSD、フラッシュメモリなどであってもよいし、端末600からアクセス可能なデータベースサーバであってもよい。   The terminal 600 may handle all data in the on-memory state, or part of the data may be saved in the auxiliary storage device. The auxiliary storage device may be, for example, an HDD, an SSD, a flash memory or the like built in or externally attached to the terminal 600, or may be a database server accessible from the terminal 600.

また、端末600は、複数の電子デバイスの組み合わせであってよい。例えば、端末600における異なる機能部が別個の電子デバイスに分散して実装されてもよい。   Also, the terminal 600 may be a combination of multiple electronic devices. For example, different functional units in terminal 600 may be distributed and implemented on separate electronic devices.

端末600は、さらに、ネットワークに接続するための通信I/F(インターフェース)、コンテンツを出力するための出力装置、などを利用可能である。通信I/Fおよび/または表示装置は、端末600に内蔵されてもよいし、端末600に外付けされてもよい。   The terminal 600 can further use a communication I / F (interface) for connecting to a network, an output device for outputting content, and the like. The communication I / F and / or the display device may be incorporated in the terminal 600 or may be externally attached to the terminal 600.

通信I/Fは、ネットワーク経由で、配信サーバ500(もしくは配信サーバ200)または図示されない他のサーバと通信をするためのモジュールであり得る。出力装置は、動画像、静止画像、テキストなどを表示するための表示装置および/または音声、楽曲などを出力するためのスピーカを含み得る。表示装置は、例えば、液晶ディスプレイ、有機EL(electroluminescence)ディスプレイ、CRT(Cathode Ray Tube)ディスプレイなどである。なお、表示装置は、タッチスクリーンのように入力装置の機能を備えていてもよい。   The communication I / F may be a module for communicating with the distribution server 500 (or distribution server 200) or another server not shown via a network. The output device may include a display device for displaying moving images, still images, text and the like, and / or a speaker for outputting sound, music and the like. The display device is, for example, a liquid crystal display, an organic EL (electroluminescence) display, a CRT (Cathode Ray Tube) display, or the like. Note that the display device may have a function of an input device like a touch screen.

端末600は、受信部601と、演出条件判定部604と、演出条件記憶部605と、演出データ作成部606と、演出データ合成部607と、表示制御部608とを含む。   The terminal 600 includes a reception unit 601, an effect condition determination unit 604, an effect condition storage unit 605, an effect data creation unit 606, an effect data combining unit 607, and a display control unit 608.

受信部601は、ネットワーク経由で例えば配信サーバ500から種々のデータを受信し、受信したデータを例えば演出条件判定部604へ送る。受信部601は、前述の通信I/Fであってもよい。   The receiving unit 601 receives various data, for example, from the distribution server 500 via the network, and sends the received data to, for example, the rendering condition determining unit 604. The receiving unit 601 may be the above-described communication I / F.

具体的には、受信部601は、生配信用の映像データを受信する。この映像データは、配信者端末100から配信サーバ500へ送信(アップロード)された映像データそのものであってもよいし、これに何らかの加工、例えば再エンコード、を施したものであってもよい。また、受信部601は、前述の指定データを受信することもあり得る。この指定データは、例えば配信サーバ500により配信者端末100および/または観客端末300から収集され、各端末600へ配信されたものであり得る。さらに、受信部601は、例えば第1の実施形態において説明した、演出条件の判定に必要なデータを受信し得る。   Specifically, the receiving unit 601 receives video data for live distribution. This video data may be the video data itself transmitted (uploaded) from the distributor terminal 100 to the distribution server 500, or may be some processing such as re-encoding. In addition, the receiving unit 601 may receive the above-mentioned designated data. The designation data may be, for example, data collected from the distributor terminal 100 and / or the audience terminal 300 by the distribution server 500 and distributed to each terminal 600. Furthermore, the receiving unit 601 can receive, for example, data necessary for determining the rendering condition described in the first embodiment.

演出条件判定部604は、演出条件判定部504(または演出条件判定部204)と同一または類似であり得る。すなわち、演出条件判定部604は、受信部601から映像データ(および指定データ)を受け取り、演出条件記憶部605から演出条件を読み出し、演出条件が満足しているか否かを判定する。演出条件判定部604は、演出条件が満足していると判定した場合には映像データおよび指定データを演出データ合成部607へ送り、そうでなければ映像データを表示制御部608へ送る。演出条件判定部604は、前述のプロセッサおよびメモリであってよい。   The effect condition determination unit 604 may be the same as or similar to the effect condition determination unit 504 (or the effect condition determination unit 204). That is, the rendering condition determination unit 604 receives the video data (and the designated data) from the receiving unit 601, reads the rendering condition from the rendering condition storage unit 605, and determines whether the rendering condition is satisfied. If the effect condition determination unit 604 determines that the effect condition is satisfied, the effect condition determination unit 604 sends the video data and the designated data to the effect data combining unit 607, and sends the image data to the display control unit 608 otherwise. The effect condition determination unit 604 may be the processor and memory described above.

演出データ作成部606は、演出データ作成部206と同一または類似であり得る。すなわち、演出データ作成部606は、演出データを作成し、演出データ合成部607へ送る。演出データ作成部206は、前述のプロセッサおよびメモリであってよい。   The effect data creation unit 606 may be the same as or similar to the effect data creation unit 206. That is, the effect data creation unit 606 creates effect data and sends it to the effect data combining unit 607. The effect data creation unit 206 may be the processor and memory described above.

演出データ合成部607は、演出データ合成部507(または演出データ合成部207)と同一または類似であり得る。すなわち、演出データ合成部607は、演出条件判定部604から映像データおよび指定データを受け取り、演出データ作成部606から演出データを受け取る。演出データ合成部607は、指定データに従って映像データおよび/または演出データに前処理を行ってから両者を合成し、合成映像データを生成する。演出データ合成部607は、合成映像データを表示制御部608へ送る。演出データ合成部607は、前述のプロセッサおよびメモリであってよい。   The effect data combining unit 607 may be the same as or similar to the effect data combining unit 507 (or the effect data combining unit 207). That is, the effect data combining unit 607 receives the video data and the designated data from the effect condition determining unit 604, and receives the effect data from the effect data creating unit 606. The effect data combining unit 607 performs preprocessing on the video data and / or the effect data according to the designated data, and then combines the two to generate combined video data. The effect data combining unit 607 sends the combined video data to the display control unit 608. The effect data combining unit 607 may be the processor and memory described above.

表示制御部608は、前述の表示装置を制御し、映像データまたは合成映像データを当該表示装置の画面に表示する。表示制御部608は、例えば前述のプロセッサおよびメモリであってよい。   The display control unit 608 controls the above-described display device, and displays video data or composite video data on the screen of the display device. The display control unit 608 may be, for example, the processor and memory described above.

以上説明したように、この変形例に係る端末は、第1の実施形態および第2の実施形態において説明した、映像データおよび演出データの合成を行う。故に、この端末によれば、配信サーバがかかる機能を利用可能でない場合にも、第1の実施形態および第2の実施形態において説明した演出を生配信用の映像データに付加することが可能となる。なお、図10の例では、端末が演出条件の判定を行っているが、配信サーバが演出条件の判定を行うようにさらに変形することも可能である。   As described above, the terminal according to this modification performs combining of the video data and the effect data described in the first embodiment and the second embodiment. Therefore, according to this terminal, it is possible to add the effect described in the first embodiment and the second embodiment to the video data for live distribution even when the distribution server can not use the function. Become. In the example of FIG. 10, the terminal determines the rendering condition, but the distribution server may be further modified to determine the rendering condition.

(第3の実施形態)
前述の第1の実施形態および第2の実施形態では、映像データに演出データを合成することにより演出が実現される。第3の実施形態に係る配信サーバは、生配信用の映像データそのものを加工することで演出を実現する。
Third Embodiment
In the first and second embodiments described above, effects are realized by combining the effect data with the video data. The distribution server according to the third embodiment realizes effects by processing the video data itself for live distribution.

図11に第3の実施形態に係る配信サーバ700が例示される。以降の説明では、配信サーバ700と配信サーバ200または配信サーバ500との相違点を中心に述べる。配信サーバ700は、映像データの生配信に割り当てられた時間枠に亘って、配信者端末100から逐次送信される、エンコード済みの映像データを受信する。配信サーバ700は、演出条件が満足されている時には、映像データを加工し、加工済み映像データを配信者端末100および観客端末300へ配信する。ここで、演出条件は、第1の実施形態において説明した演出条件と同一または類似であり得る。   A distribution server 700 according to the third embodiment is illustrated in FIG. In the following description, differences between the distribution server 700 and the distribution server 200 or the distribution server 500 will be mainly described. The distribution server 700 receives encoded video data sequentially transmitted from the distributor terminal 100 over a time frame assigned to live distribution of video data. When the rendering condition is satisfied, the distribution server 700 processes the video data, and distributes the processed video data to the distributor terminal 100 and the audience terminal 300. Here, the rendering condition may be the same as or similar to the rendering condition described in the first embodiment.

配信サーバ700がこのような映像データの加工を行うことで、第1の実施形態および第2の実施形態において説明した演出とは異なる表現の演出を利用することができる。例えば、映像データの特定の領域(例えば、顔領域)または全領域にフィルターをかける加工があり得る。フィルターは、例えば、モザイク、セピア、モノクロ、レトロ、ぼかし、暗視スコープ風エフェクト、歪み、漫画風エフェクト、などの様々な各種エフェクトを付加することで、映像データの視覚的な印象を変えることができる。さらに、映像データの特定の領域の複製を当該映像データに貼り付ける、という加工もあり得る。   By processing the video data as described above, the distribution server 700 can use an effect of an expression different from the effect described in the first embodiment and the second embodiment. For example, there may be processing for filtering a specific area (for example, a face area) or the entire area of video data. The filter can change the visual impression of the video data by adding various effects such as, for example, mosaic, sepia, monochrome, retro, blur, night vision-like effects, distortion, cartoon-like effects, etc. it can. Furthermore, there may be processing such that a duplicate of a specific area of video data is pasted to the video data.

以下、配信サーバ700の機能的構成について図11を用いて説明する。なお、配信サーバ700のハードウェア構成は、配信サーバ200または配信サーバ500と同一または類似であり得るのでこれに関する説明を省略する。   The functional configuration of distribution server 700 will be described below with reference to FIG. The hardware configuration of the distribution server 700 may be the same as or similar to the distribution server 200 or the distribution server 500, and thus the description thereof will be omitted.

配信サーバ700は、受信部701と、時計部702と、配信制御部703と、演出条件判定部704と、演出条件記憶部705と、映像加工部707と、映像配信部708とを含む。このうち、映像加工部707以外の要素は、それぞれ配信サーバ200または配信サーバ500における同名の要素と同一または類似であり得る。故に、以下、映像加工部707を説明する。   Distribution server 700 includes a receiving unit 701, a clock unit 702, a distribution control unit 703, a rendering condition determination unit 704, a rendering condition storage unit 705, a video processing unit 707, and a video distribution unit 708. Among them, elements other than the video processing unit 707 may be the same as or similar to the elements of the same name in the distribution server 200 or the distribution server 500, respectively. Therefore, the video processing unit 707 will be described below.

映像加工部707は、演出条件判定部704から映像データ(および指定データ)を受け取る。まず、映像加工部707は、指定データを受け取った場合には映像データに第2の実施形態において説明した前処理を行う。それから、映像加工部707は、演出条件判定部704からの映像データ、またはこれに前処理を行った映像データに対して、既定の加工を行って加工済み映像データを生成する。映像加工部707は、加工済み映像データを映像配信部708へ送る。映像加工部707は、前述のプロセッサおよびメモリであってよい。   The video processing unit 707 receives video data (and designated data) from the rendering condition determination unit 704. First, when receiving the designated data, the video processing unit 707 performs the pre-processing described in the second embodiment on the video data. Then, the video processing unit 707 performs predetermined processing on the video data from the rendering condition determination unit 704 or the video data on which the video data has been preprocessed to generate the processed video data. The video processing unit 707 sends the processed video data to the video distribution unit 708. The image processing unit 707 may be the processor and memory described above.

具体的には、映像加工部707は、前述のフィルターのいずれかを映像データに対して適用してもよい。或いは、映像加工部707は、映像データの特定の領域の複製を当該映像データに貼り付けてもよい。例えば、図12のような映像データに対して、映像加工部707は図13または図14に例示される加工を行ってもよい。   Specifically, the video processing unit 707 may apply any of the aforementioned filters to video data. Alternatively, the video processing unit 707 may paste a duplicate of a specific area of video data to the video data. For example, the image processing unit 707 may perform the processing illustrated in FIG. 13 or FIG. 14 on the image data as shown in FIG.

図13の例では、破線で示す中心軸よりも左側の領域の複製を左右反転した映像が当該中心軸よりも右側に貼り付けられている。なお、反転の基準となる対象軸の数、それぞれの位置および角度は、自動的に決定されてもよいし、配信者および/または観客が例えば指定データを通じて指定可能としてもよい。   In the example of FIG. 13, an image obtained by horizontally reversing the duplication of the region on the left side of the central axis indicated by the broken line is pasted to the right of the central axis. Note that the number of target axes serving as a reference for inversion, the respective positions and angles may be automatically determined, or may be specified by the distributor and / or the audience, for example, through designated data.

図14の例では、映像データ中の人物周辺の領域の複製そのもの、または当該複製に前処理を施した映像が、破線で示す領域に貼り付けられている。なお、映像データ中のいずれの領域を複製するか、複製に前処理を行うか否か、複製にどのような前処理を行うか、および貼り付けの位置および数、などは、自動的に決定されてもよいし、配信者および/または観客が例えば指定データを通じて指定可能としてもよい。   In the example of FIG. 14, a duplicate itself of the area around a person in the video data, or a video obtained by pre-processing the duplicate is pasted in the area indicated by the broken line. In addition, it is automatically determined which area in the video data is to be replicated, whether or not preprocessing is to be performed on the replication, what preprocessing is to be performed on the replication, and the position and number of pastes, etc. It may be possible for the distributor and / or the audience to designate, for example, through designated data.

以上説明したように、第3の実施形態に係る配信サーバは、映像データを加工することで演出を実現する。故に、この配信サーバによれば、第1の実施形態および第2の実施形態において説明した演出とは異なる表現の演出を利用することができる。   As described above, the distribution server according to the third embodiment realizes effects by processing video data. Therefore, according to this distribution server, it is possible to use an effect of an expression different from the effect described in the first embodiment and the second embodiment.

(変形例)
ところで、本実施形態では配信サーバが映像データを加工する。これにより、配信者および観客の視聴する合成映像データを同期させやすい、端末の処理負荷を減らすことができる、といったメリットがある。配信サーバから端末への通信量の削減というメリットもある。しかしながら、端末が映像データを加工することも可能である。以下、簡単に説明する。
(Modification)
In the present embodiment, the distribution server processes video data. As a result, there is an advantage that it is easy to synchronize synthesized video data that the distributor and the audience view, and the processing load on the terminal can be reduced. There is also an advantage of reducing the amount of communication from the distribution server to the terminal. However, it is also possible for the terminal to process the video data. A brief description will be given below.

この変形例に係る端末800を図15に例示する。なお、端末800のハードウェア構成は、端末600と同一または類似であり得るのでこれに関する説明を省略する。また、端末800は、配信者端末および観客端末のどちらであってもよいので、配信者端末および観客端末それぞれに固有の部分については説明を省略する。   A terminal 800 according to this modification is illustrated in FIG. The hardware configuration of the terminal 800 may be the same as or similar to that of the terminal 600, and thus the description thereof will be omitted. Further, since the terminal 800 may be either a distributor terminal or a spectator terminal, description of parts unique to the distributor terminal and the spectator terminal will be omitted.

端末800は、受信部801と、演出条件判定部804と、演出条件記憶部805と、映像加工部807と、表示制御部808とを含む。このうち、映像加工部807以外の要素は、端末600における同名の要素と同一または類似であり得る。故に、以下、映像加工部807を説明する。   The terminal 800 includes a reception unit 801, an effect condition determination unit 804, an effect condition storage unit 805, an image processing unit 807, and a display control unit 808. Among them, elements other than the image processing unit 807 may be the same as or similar to the elements of the same name in the terminal 600. Therefore, the video processing unit 807 will be described below.

映像加工部807は、映像加工部707と同一または類似であり得る。すなわち、映像加工部807は、演出条件判定部804から映像データ(および指定データ)を受け取る。まず、映像加工部807は、指定データを受け取った場合には映像データに第2の実施形態において説明した前処理を行う。それから、映像加工部807は、演出条件判定部804からの映像データ、またはこれに前処理を行った映像データに対して、第3の実施形態において説明した既定の加工を行って加工済み映像データを生成する。映像加工部807は、加工済み映像データを映像配信部708へ送る。映像加工部807は、前述のプロセッサおよびメモリであってよい。   The image processing unit 807 may be the same as or similar to the image processing unit 707. That is, the video processing unit 807 receives the video data (and designated data) from the rendering condition determination unit 804. First, when receiving the designated data, the video processing unit 807 performs the preprocessing described in the second embodiment on the video data. Then, the video processing unit 807 performs the predetermined processing described in the third embodiment on the video data from the rendering condition determination unit 804 or the video data on which the video data is preprocessed and processed. Generate The video processing unit 807 sends the processed video data to the video distribution unit 708. The image processing unit 807 may be the processor and memory described above.

以上説明したように、この変形例に係る端末は、第3の実施形態において説明した、映像データの加工を行う。故に、この端末によれば、配信サーバがかかる機能を利用可能でない場合にも、第3の実施形態において説明した演出を生配信用の映像データに付加することが可能となる。なお、図15の例では、端末が演出条件の判定を行っているが、配信サーバが演出条件の判定を行うようにさらに変形することも可能である。   As described above, the terminal according to this modification processes the video data described in the third embodiment. Therefore, according to this terminal, even when the distribution server can not use such a function, it is possible to add the effect described in the third embodiment to video data for live distribution. In the example of FIG. 15, the terminal determines the rendering condition, but the distribution server may be further modified to determine the rendering condition.

(第4の実施形態)
前述の第1の実施形態では、映像データに対して動的な演出データを合成して演出することが可能である。第4の実施形態では、この動的な演出データを配信者および/または観客からの操作要求に応じて制御することでインタラクティブ性の高い演出を実現する。
Fourth Embodiment
In the first embodiment described above, it is possible to combine dynamic rendering data with video data to produce rendering. In the fourth embodiment, a highly interactive presentation is realized by controlling the dynamic presentation data according to the operation request from the distributor and / or the audience.

図16に第4の実施形態に係る配信サーバ900が例示される。以降の説明では、配信サーバ900と配信サーバ200、配信サーバ500または配信サーバ700との相違点を中心に述べる。   A distribution server 900 according to the fourth embodiment is illustrated in FIG. In the following description, differences between the distribution server 900 and the distribution server 200, the distribution server 500, or the distribution server 700 will be mainly described.

配信サーバ900は、映像データの生配信に割り当てられた時間枠に亘って、配信者端末100から逐次送信される、エンコード済みの映像データを受信する。配信サーバ900は、演出条件が満足されている時には、配信者端末100および/または観客端末300から映像データに合成される動的な演出データに対する操作要求を受信し、これに基づいて当該動的な演出データの操作データを生成する。そして、配信サーバ900は、映像データに加えてこの操作データを配信者端末100および観客端末300へ送信する。配信者端末100および観客端末300は、それぞれ受信した操作データに基づいて動的な演出データを制御し、受信した映像データに合成して表示装置の画面に表示する。ここで、演出条件は、第1の実施形態において説明した演出条件と同一または類似であり得る。   The distribution server 900 receives encoded video data sequentially transmitted from the distributor terminal 100 over a time frame assigned to live distribution of video data. The distribution server 900 receives, from the distributor terminal 100 and / or the audience terminal 300, an operation request for dynamic presentation data to be combined with video data when the presentation condition is satisfied, and based on the operation request, the distribution server 900 receives the operation request. Operation data of the effect data is generated. Then, distribution server 900 transmits the operation data to distributor terminal 100 and audience terminal 300 in addition to the video data. The distributor terminal 100 and the audience terminal 300 respectively control the dynamic effect data based on the received operation data, combine the received image data with the received video data, and display it on the screen of the display device. Here, the rendering condition may be the same as or similar to the rendering condition described in the first embodiment.

配信サーバ900が操作要求に基づいてこのような動的な演出データの操作データを生成、配信し、配信者端末100および観客端末300が当該操作データに基づいて動的な演出データを制御して映像データに合成することで、インタラクティブ性の高い演出が可能となる。   The distribution server 900 generates and distributes operation data of such dynamic presentation data based on the operation request, and the distributor terminal 100 and the audience terminal 300 control the dynamic presentation data based on the operation data. By combining with video data, it is possible to produce highly interactive effects.

以下、配信サーバ900の機能的構成について図16を用いて説明する。なお、配信サーバ900のハードウェア構成は、配信サーバ200、配信サーバ500または配信サーバ700と同一または類似であり得るのでこれに関する説明を省略する。   The functional configuration of distribution server 900 will be described below with reference to FIG. The hardware configuration of the distribution server 900 may be the same as or similar to the distribution server 200, the distribution server 500, or the distribution server 700, and a description thereof will be omitted.

配信サーバ900は、受信部901と、時計部902と、配信制御部903と、演出条件判定部904と、演出条件記憶部905と、映像配信部908と、操作データ生成部909とを含む。このうち、時計部902、配信制御部903、および演出条件記憶部905は、それぞれ配信サーバ200、配信サーバ500または配信サーバ700における同名の要素と同一または類似であり得る。以下、その他の要素について、配信サーバ200、配信サーバ500または配信サーバ700における同名の要素との相違点を中心に説明する。   Distribution server 900 includes a reception unit 901, a clock unit 902, a distribution control unit 903, a rendering condition determination unit 904, a rendering condition storage unit 905, a video distribution unit 908, and an operation data generation unit 909. Among them, the clock unit 902, the distribution control unit 903, and the effect condition storage unit 905 may be the same as or similar to the elements of the same name in the distribution server 200, the distribution server 500, or the distribution server 700, respectively. Hereinafter, the other elements will be described focusing on differences from the elements of the distribution server 200, the distribution server 500, or the distribution server 700 with the same name.

受信部901は、受信部201によって受信されるデータに加えて、配信者端末100および/または観客端末300から、動的な演出データに対する操作要求を受信し得る。この操作要求は、例えば動的な演出データを生成する種々のツール、例えば、お絵かきアプリ、手書き入力アプリ、ストップウォッチ、タイマー、カウンタ、サイコロ、トランプ、おみくじ、ビンゴゲーム、じゃんけんゲーム、静止画ビューワを含む生配信中に引用するコンテンツのプレイヤー、などを操作するために対応するプログラムに与えられる入力データ、例えばオブジェクトの選択など、に相当し得る。受信部901は、この操作要求を演出条件判定部904へ送る。   In addition to the data received by the receiving unit 201, the receiving unit 901 can receive an operation request for dynamic presentation data from the distributor terminal 100 and / or the audience terminal 300. This operation request may be, for example, various tools for generating dynamic effect data, such as a drawing application, a handwriting input application, a stopwatch, a timer, a counter, dice, playing cards, fortunes, a bingo game, a rock game, a still image viewer , Etc., may correspond to input data provided to the corresponding program for operating the player of the content to be quoted during the live delivery including, for example, selection of the object. The receiving unit 901 sends this operation request to the rendering condition determining unit 904.

演出条件判定部904は、演出条件の判定結果に関わらず、映像データを映像配信部908へ送る。さらに、演出条件判定部904は、演出条件が満足している場合に、操作要求を操作データ生成部909へ送る。なお、配信者および観客が操作要求を発行するための入力を行っていなければ、操作要求が存在しないこともあり得る。   The presentation condition determination unit 904 sends the video data to the video distribution unit 908 regardless of the determination result of the presentation condition. Furthermore, the rendering condition determination unit 904 sends an operation request to the operation data generation unit 909 when the rendering condition is satisfied. If the distributor and the spectator do not make an input for issuing the operation request, the operation request may not exist.

操作データ生成部909は、演出条件判定部904から操作要求を受け取り、これに基づいて動的な演出データの操作データを生成する。操作データ生成部909は、操作データを映像配信部908へ送る。操作データ生成部909は、前述のプロセッサおよびメモリであってよい。なお、複数の端末が操作要求を略同時に送信すると、操作要求の衝突が生じ得る。すなわち、ある端末からの操作要求が、他の端末からの操作要求と矛盾することがあるが、操作データ生成部909はかかる衝突の調停を行ってから操作データを生成してもよい。   The operation data generation unit 909 receives an operation request from the effect condition determination unit 904, and generates operation data of dynamic effect data based on the operation request. The operation data generation unit 909 sends the operation data to the video distribution unit 908. The operation data generation unit 909 may be the processor and memory described above. When a plurality of terminals transmit operation requests substantially simultaneously, collision of operation requests may occur. That is, although an operation request from a certain terminal may contradict an operation request from another terminal, the operation data generation unit 909 may generate such operation data after performing arbitration of such a collision.

また、多数の端末から操作要求を略同時に送信し、操作データ生成部909が当該操作要求を全て考慮して操作データを生成することは負荷が大きい。そこで、上記衝突の調停とも関連するが、操作データ生成部909は、操作要求の一部を破棄するフィルタリングを行い、残余の操作要求に基づいて操作データを生成してもよい。一例として、操作データ生成部909は、観客のうち課金をした者、配信者のチャンネル会員である者、特定の地域に居る者、抽選に当選した者、などからの操作要求を維持し、他の操作要求を破棄してもよい。   In addition, it is burdensome for the operation data generation unit 909 to generate operation data in consideration of all the operation requests by transmitting the operation requests substantially simultaneously from a large number of terminals. Therefore, although the operation data generation unit 909 is also associated with the arbitration of the collision, the operation data generation unit 909 may perform filtering to discard part of the operation request and generate operation data based on the remaining operation request. As an example, the operation data generation unit 909 maintains an operation request from a person who charges for the audience, a person who is a channel member of the distributor, a person who is in a specific area, a person who has won the lottery, etc. You may discard the operation request of.

本実施形態において動的な演出データは、少なくとも操作データに応じて画面遷移、すなわち外観的な変化を生じる映像データであり得る。具体的には、操作データに応じた画面遷移の例として、トランプの山札を選択する操作データに応じた手札の画像の更新、サイコロを選択する操作データに応じたサイコロの出目の更新、手書き入力に基づく操作データに応じたお絵かき画像の更新、などが挙げられる。また、操作データに加えて時間の経過に応じた画面遷移もあり得る。例えば、スタートのボタンを選択する操作データに応じて、ストップウォッチまたはタイマーの表示部の画像がカウントダウンまたはカウントアップするように変化し始める。以後の表示部の画像は、時間の経過に応じて更新されることになる。   In the present embodiment, dynamic presentation data may be image data that causes screen transition, that is, appearance change in accordance with at least operation data. Specifically, as an example of the screen transition according to the operation data, update of the image of the hand according to the operation data to select the deck of the playing card, update of the result of the dice according to the operation data to select the dice, Update of the drawing image according to the operation data based on handwriting input, etc. are mentioned. In addition to the operation data, there may be screen transition according to the passage of time. For example, in response to operation data for selecting a start button, the image on the display of the stopwatch or timer starts to change to count down or count up. Subsequent images of the display unit will be updated as time passes.

画面遷移は、全端末共通であってもよいし、そうでなくてもよい。後者の例として、動的な演出データは、図17および図18に例示されるじゃんけんゲームの実行画面データであってもよい。この例では、当初、図17に示されるように選択可能な手を表す画像が映像データに合成され、操作データ生成部909は、既定の締め切り時間まで配信者および/または観客からの操作要求を待ち受け、当該締め切り時間の終了後に操作データを生成する。締め切り時間の終了後、じゃんけんの結果を表す画像への画面遷移が生じる。この結果、配信者端末100は、図18に例示されるように、観客との勝負の結果、例えば配信者が選んだ手と、3つの手毎にその手を選んだ人数とを表す演出データを生成し、映像データに合成することができる。また、観客端末300は、配信者との勝負の結果、例えば配信者が選んだ手と、当該観客端末300を操作した観客が選んだ手とを表す演出データを生成し、映像データに合成することができる。或いは、配信者端末100および/または観客端末300は、勝者〜名、敗者〜名、あいこ〜名のように勝敗結果の集計を表す演出データを生成し、映像データに合成してもよい。   The screen transition may or may not be common to all terminals. As an example of the latter, the dynamic presentation data may be execution screen data of a rock-paper-scissors game illustrated in FIGS. 17 and 18. In this example, initially, as shown in FIG. 17, an image representing a selectable hand is combined with video data, and the operation data generation unit 909 generates an operation request from a distributor and / or a spectator until a predetermined deadline time. Standby, and generates operation data after the end of the deadline time. After the end of the deadline time, a screen transition to an image representing the result of rocking rock occurs. As a result, the distributor terminal 100, as exemplified in FIG. 18, as presentation data representing the result of the game with the audience, for example, the hand selected by the distributor and the number of persons selected for each of the three hands. Can be generated and synthesized into video data. Further, the audience terminal 300 generates effect data representing, for example, a hand selected by the distributor and a hand selected by the spectator who operates the audience terminal 300 as a result of the game with the distributor, and synthesizes the effect data into video data. be able to. Alternatively, the distributor terminal 100 and / or the audience terminal 300 may generate presentation data representing tallying of the outcome of the game like winner-name, loser-name, aiko-name, and combine it with video data.

映像配信部908は、演出条件判定部904から映像データを受け取り、さらに操作データ生成部909から操作データを受け取ることもある。映像配信部908は、映像データ(および操作データ)を配信者端末100および観客端末300へ配信する。   The video distribution unit 908 may receive video data from the rendering condition determination unit 904 and may further receive operation data from the operation data generation unit 909. The video distribution unit 908 distributes video data (and operation data) to the distributor terminal 100 and the audience terminal 300.

図19に第4の実施形態に係る端末1000が例示される。以降の説明では、端末600または端末800との相違点を中心に述べる。なお、端末1000のハードウェア構成は、端末600または端末800と同一または類似であり得るのでこれに関する説明を省略する。また、端末1000は、配信者端末および観客端末のどちらであってもよいので、配信者端末および観客端末それぞれに固有の部分については説明を省略する。   A terminal 1000 according to the fourth embodiment is illustrated in FIG. In the following description, differences from the terminal 600 or 800 will be mainly described. The hardware configuration of the terminal 1000 may be the same as or similar to that of the terminal 600 or the terminal 800, and thus the description thereof will be omitted. Further, since terminal 1000 may be either a distributor terminal or a spectator terminal, the description of the parts unique to the distributor terminal and the spectator terminal will be omitted.

端末1000は、受信部1001と、演出条件判定部1004と、演出条件記憶部1005と、演出データ制御部1006と、演出データ合成部1007と、表示制御部1008と、入力部1010と、操作要求生成部1011と、送信部1012とを含む。このうち、演出条件記憶部1005、演出データ合成部1007および表示制御部1008は、それぞれ端末600または端末800における同名の要素と同一または類似であり得る。以下、その他の要素について、端末600または端末800における同名の要素との相違点を中心に説明する。   The terminal 1000 includes a reception unit 1001, an effect condition determination unit 1004, an effect condition storage unit 1005, an effect data control unit 1006, an effect data combining unit 1007, a display control unit 1008, an input unit 1010, and an operation request. A generation unit 1011 and a transmission unit 1012 are included. Among them, the rendering condition storage unit 1005, the rendering data combining unit 1007, and the display control unit 1008 may be the same as or similar to the elements of the same name in the terminal 600 or 800, respectively. Hereinafter, the other elements will be described focusing on the differences from the elements of the same name in terminal 600 or terminal 800.

入力部1010は、ユーザ入力を受け取り、ユーザ入力データを生成する。入力部1010は、ユーザ入力データを演出条件判定部1004へ送る。入力部1010は、端末1000に内蔵され、または外付けされた入力装置であり得る。入力装置は、例えば、キーボード、マウス、テンキーなどであってもよいし、タッチスクリーンのように表示装置の機能を備えていてもよい。ユーザ入力は、典型的には、タップ、クリック、特定のキーの押下などであり、ユーザ入力データはこれらイベントの発生を表すデータであり得る。このほか、ユーザ入力データは、例えば、マイクロフォンによって捉えられる音声、生体センサによって検出される生体データ(例えば体温、表情など)、GPS(Global Positioning System)または基地局情報によって識別される位置データ、加速度センサによって検出される加速度データに基づいて推定されるユーザのアクション(例えば、端末1000を振り回した)などを含むこともできる。   The input unit 1010 receives user input and generates user input data. The input unit 1010 sends user input data to the presentation condition determination unit 1004. The input unit 1010 may be an input device built in or externally attached to the terminal 1000. The input device may be, for example, a keyboard, a mouse, a ten key, or the like, and may have a display function such as a touch screen. The user input is typically a tap, a click, pressing of a specific key, etc., and the user input data may be data representing the occurrence of these events. Besides, user input data may be, for example, voice captured by a microphone, biological data detected by a biological sensor (for example, temperature, facial expression, etc.), position data identified by GPS (Global Positioning System) or base station information, acceleration The action of the user estimated based on the acceleration data detected by a sensor (for example, the terminal 1000 was shaken) etc. can also be included.

演出条件判定部1004は、演出条件が満足している場合に、ユーザ入力データを操作要求生成部1011へ送る。   The rendering condition determination unit 1004 sends user input data to the operation request generation unit 1011 when the rendering condition is satisfied.

操作要求生成部1011は、演出条件判定部1004からユーザ入力データを受け取り、これに応じて操作要求を生成する。操作要求生成部1011は、この操作要求を送信部1012へ送る。操作要求生成部1011は、前述のプロセッサおよびメモリであってよい。   The operation request generation unit 1011 receives user input data from the effect condition determination unit 1004, and generates an operation request according to the user input data. The operation request generation unit 1011 sends this operation request to the transmission unit 1012. The operation request generation unit 1011 may be the processor and memory described above.

送信部1012は、操作要求生成部1011から操作要求を受け取り、これを配信サーバ900へ送信する。送信部1012は、前述の通信I/Fであってもよい。   The transmission unit 1012 receives the operation request from the operation request generation unit 1011 and transmits the operation request to the distribution server 900. The transmission unit 1012 may be the above-described communication I / F.

受信部1001は、生配信用の映像データを受信する。この映像データは、配信者端末100から配信サーバ900へ送信(アップロード)された映像データそのものであってもよいし、これに何らかの加工を施したものであってもよい。また、受信部1001は、演出条件が満足している時には、操作データを受信し得る。さらに、受信部1001は、前述の指定データ、演出条件の判定に必要なデータ、などを受信することもあり得る。受信部1001は、操作データを演出データ制御部1006へ送り、映像データおよび指定データを演出データ合成部1007へ送り、演出条件の判定に必要なデータを演出条件判定部1004へ送る。   The receiving unit 1001 receives video data for live distribution. The video data may be the video data itself transmitted (uploaded) from the distributor terminal 100 to the distribution server 900 or may be processed in some way. In addition, the receiving unit 1001 can receive operation data when the rendering condition is satisfied. Furthermore, the receiving unit 1001 may receive the above-described designated data, data necessary for determining the rendering condition, and the like. The receiving unit 1001 sends the operation data to the effect data control unit 1006, sends the video data and the designation data to the effect data combining unit 1007, and sends data necessary for the determination of the effect condition to the effect condition determining unit 1004.

演出データ制御部1006は、受信部1001から操作データを受け取り、当該操作データに基づいて動的な演出データを制御する。具体的には、演出データ制御部1006は、前述の種々のツールに対応するプログラム(アプリケーション)を実行しており、当該プログラムに操作データを与える。なお、操作データは、時間データと当該時間データに対応する操作入力データとを含み得る。この場合に、演出データ制御部1006は、時間データの示す時間に、当該時間データに対応する操作入力データをプログラムに与え得る。プログラムは、与えられた操作入力データに応じて画面遷移する映像を実行結果、すなわち動的な演出データとして生成し得る。演出データ制御部1006は、動的な演出データを演出データ合成部1007へ送る。演出データ制御部1006は、前述のプロセッサおよびメモリであってよい。ここで、プログラムは、生配信用の映像データを再生するためのプレイヤーに組み込まれていてもよいし、当該プレイヤーから見て外部プログラムであってもよい。   The effect data control unit 1006 receives operation data from the receiving unit 1001, and controls dynamic effect data based on the operation data. Specifically, the effect data control unit 1006 executes programs (applications) corresponding to the various tools described above, and provides operation data to the programs. The operation data may include time data and operation input data corresponding to the time data. In this case, the effect data control unit 1006 can provide the program with operation input data corresponding to the time data at the time indicated by the time data. The program can generate an image transitioning the screen according to the given operation input data as an execution result, that is, dynamic effect data. The effect data control unit 1006 sends dynamic effect data to the effect data combining unit 1007. The effect data control unit 1006 may be the processor and memory described above. Here, the program may be incorporated in a player for reproducing video data for live distribution, or may be an external program viewed from the player.

以上説明したように、第4の実施形態に係る配信サーバは、動的な演出データに対する操作要求を配信者端末および/または観客端末から収集し、当該動的な演出データの操作データを生成、配信する。そして、本実施形態に係る端末は、この操作データに基づいて動的な演出データを制御し、生配信用の映像データに合成する。故に、この配信サーバおよび端末によれば、例えば配信者および観客がリアルタイムに一緒に遊ぶなどのインタラクティブ性の高い演出が可能となる。   As described above, the distribution server according to the fourth embodiment collects operation requests for dynamic presentation data from the distributor terminal and / or the audience terminal, and generates operation data of the dynamic presentation data. To deliver. Then, the terminal according to the present embodiment controls dynamic effect data based on the operation data, and combines it into video data for live distribution. Therefore, according to this distribution server and terminal, for example, highly interactive presentation such as a distributor and a spectator playing together in real time becomes possible.

(変形例)
ところで、本実施形態では端末が動的な演出データの制御と、映像データおよび動的な演出データの合成とを行っている。しかしながら、配信サーバが、動的な演出データの制御を行い、映像データに合成されるべき演出データを端末に逐次送信することも可能であるし、第1の実施形態と同様に映像データと動的な演出データとの合成までも行ってもよい。これにより、配信者および観客の視聴する合成映像データを同期させやすい、端末の処理負荷を減らすことができる、といったメリットがある。配信サーバが、動的な演出データの制御と映像データおよび動的な演出データの合成とを行う例について簡単に説明する。
(Modification)
By the way, in the present embodiment, the terminal performs control of effect data that is dynamic and composition of image data and dynamic effect data. However, it is also possible that the distribution server controls the dynamic rendering data, and sequentially transmits the rendering data to be combined into the video data to the terminal, and the video data and the dynamic as in the first embodiment. It may even be combined with the typical effect data. As a result, there is an advantage that it is easy to synchronize synthesized video data that the distributor and the audience view, and the processing load on the terminal can be reduced. An example in which the distribution server performs control of dynamic rendering data and composition of video data and dynamic rendering data will be briefly described.

この変形例に係る配信サーバ1100を図20に例示する。なお、配信サーバ1100のハードウェア構成は、配信サーバ200、配信サーバ500、配信サーバ700または配信サーバ900と同一または類似であり得るのでこれに関する説明を省略する。   A distribution server 1100 according to this modification is illustrated in FIG. The hardware configuration of the distribution server 1100 may be the same as or similar to the distribution server 200, the distribution server 500, the distribution server 700, or the distribution server 900, and thus the description thereof will be omitted.

配信サーバ1100は、受信部1101と、時計部1102と、配信制御部1103と、演出条件判定部1104と、演出条件記憶部1105と、演出データ制御部1106と、演出データ合成部1107と、映像配信部1108と、操作データ生成部1109とを含む。このうち、受信部1101、時計部1102、配信制御部1103、演出条件判定部1104、演出条件記憶部1105、演出データ合成部1107、映像配信部1108、および操作データ生成部1109は、配信サーバ200、配信サーバ500、配信サーバ700または配信サーバ900における同名の要素と同一または類似であり得る。故に、以下、演出データ制御部1106を説明する。   The distribution server 1100 includes a reception unit 1101, a clock unit 1102, a distribution control unit 1103, a presentation condition determination unit 1104, a presentation condition storage unit 1105, a presentation data control unit 1106, a presentation data synthesis unit 1107, and a video. A distribution unit 1108 and an operation data generation unit 1109 are included. Among them, the receiving unit 1101, the clock unit 1102, the distribution control unit 1103, the effect condition determination unit 1104, the effect condition storage unit 1105, the effect data combining unit 1107, the video distribution unit 1108, and the operation data generation unit 1109 , Delivery server 500, delivery server 700 or delivery server 900 may be the same as or similar to the element of the same name. Therefore, the effect data control unit 1106 will be described below.

演出データ制御部1106は、演出データ制御部1006と同一または類似であり得る。すなわち、演出データ制御部1106は、操作データ生成部1109から操作データを受け取り、当該操作データに基づいて動的な演出データを制御する。演出データ制御部1106は、動的な演出データを演出データ合成部1107へ送る。演出データ制御部1106は、前述のプロセッサおよびメモリであってよい。   The effect data control unit 1106 may be the same as or similar to the effect data control unit 1006. That is, the effect data control unit 1106 receives the operation data from the operation data generation unit 1109, and controls dynamic effect data based on the operation data. The effect data control unit 1106 sends dynamic effect data to the effect data combining unit 1107. The effect data control unit 1106 may be the processor and memory described above.

以上説明したように、この変形例に係る配信サーバは、第4の実施形態において説明した演出を行い、合成映像データを配信者端末および観客端末へ配信する。故に、この配信サーバによれば、配信者および観客の視聴する合成映像データを同期させやすい、端末の処理負荷を減らすことができる、といったメリットがある。配信サーバから端末への通信量の削減というメリットもある。   As described above, the distribution server according to this modification performs the effects described in the fourth embodiment, and distributes composite video data to the distributor terminal and the audience terminal. Therefore, according to this distribution server, there is an advantage that it is easy to synchronize synthesized video data that the distributor and the audience view, and it is possible to reduce the processing load of the terminal. There is also an advantage of reducing the amount of communication from the distribution server to the terminal.

なお、本実施形態では、端末および配信サーバの両方が演出条件の判定を行っているが、一方のみが行うようにしてもよい。例えば、端末のみが演出条件の判定を行い、演出条件が満足したことを配信サーバに通知してもよい。逆に、配信サーバのみが演出条件の判定を行い、演出条件が満足したことを端末に通知してもよい。   In the present embodiment, although both the terminal and the distribution server determine the rendering condition, only one of them may perform the determination. For example, only the terminal may determine the rendering condition and notify the distribution server that the rendering condition is satisfied. Conversely, only the distribution server may determine the rendering condition and notify the terminal that the rendering condition is satisfied.

上述の実施形態は、本発明の概念の理解を助けるための具体例を示しているに過ぎず、本発明の範囲を限定することを意図されていない。実施形態は、本発明の要旨を逸脱しない範囲で、様々な構成要素の付加、削除または転換をすることができる。   The embodiments described above are merely illustrative examples to assist in understanding the inventive concept, and are not intended to limit the scope of the present invention. Embodiments can add, delete, or convert various components without departing from the scope of the present invention.

上記各実施形態において説明された種々の機能部は、回路を用いることで実現されてもよい。回路は、特定の機能を実現する専用回路であってもよいし、プロセッサのような汎用回路であってもよい。   The various functional units described in the above embodiments may be realized by using a circuit. The circuit may be a dedicated circuit that implements a specific function or may be a general-purpose circuit such as a processor.

上記各実施形態の処理の少なくとも一部は、汎用のコンピュータを基本ハードウェアとして用いることでも実現可能である。上記処理を実現するプログラムは、コンピュータで読み取り可能な記録媒体に格納して提供されてもよい。プログラムは、インストール可能な形式のファイルまたは実行可能な形式のファイルとして記録媒体に記憶される。記録媒体としては、磁気ディスク、光ディスク(CD−ROM、CD−R、DVD等)、光磁気ディスク(MO等)、半導体メモリなどである。記録媒体は、プログラムを記憶でき、かつ、コンピュータが読み取り可能であれば、何れであってもよい。また、上記処理を実現するプログラムを、インターネットなどのネットワークに接続されたコンピュータ(サーバ)上に格納し、ネットワーク経由でコンピュータ(クライアント)にダウンロードさせてもよい。   At least a part of the processing in each of the above-described embodiments can also be realized by using a general-purpose computer as basic hardware. The program for realizing the above process may be provided by being stored in a computer readable recording medium. The program is stored in the recording medium as an installable file or an executable file. The recording medium may be a magnetic disk, an optical disk (CD-ROM, CD-R, DVD or the like), a magneto-optical disk (MO or the like), a semiconductor memory or the like. The recording medium may store the program and may be any computer readable one. Further, the program for realizing the above processing may be stored on a computer (server) connected to a network such as the Internet, and may be downloaded to the computer (client) via the network.

100・・・配信者端末
200,500,700,900,1100・・・配信サーバ
201,501,601,701,801,901,1001,1101・・・受信部
202,502,702,902,1102・・・時計部
203,503,703,903,1103・・・配信制御部
204,504,604,704,804,904,1004,1104・・・演出条件判定部
205,505,605,705,805,905,1005,1105・・・演出条件記憶部
206,506,606・・・演出データ作成部
207,507,607,1007,1107・・・演出データ合成部
208,508,708,908,1108・・・映像配信部
300・・・観客端末
600,800,1000・・・端末
608,808,1008・・・表示制御部
707,807・・・映像加工部
909,1109・・・操作データ生成部
1006,1106・・・演出データ制御部
1010・・・入力部
1011・・・操作要求生成部
1012・・・送信部
100 ... distributor terminal 200, 500, 700, 900, 1100 ... distribution server 201, 501, 601, 701, 801, 901, 1001, 1101 ... reception unit 202, 502, 702, 902, 1102 ... Clock unit 203, 503, 703, 903, 1103 ... Distribution control unit 204, 504, 604, 704, 804, 904, 1004, 1104 ... Performance condition determination unit 205, 505, 605, 705, 805, 905, 1005, 1105 ... effect condition storage unit 206, 506, 606 ... effect data creation unit 207, 507, 607, 1007, 1107 ... effect data combining unit 208, 508, 708, 908, 1108 ··· Video distribution unit 300 ··· Audience terminal 600, 800, 1000 · · · Terminal 60 , 808, 1008 ... display control unit 707, 807 ... image processing unit 909, 1109 ... operation data generation unit 1006, 1106 ... effect data control unit 1010 ... input unit 1011 ... operation Request generation unit 1012 ... Transmission unit

Claims (17)

配信者端末から生配信用の映像データを受信する受信部と、
演出条件が満足しているか否かを判定する判定部と、
前記演出条件が満足している時に、前記映像データに対して演出データを合成し合成映像データを生成する合成部と、
前記合成映像データを前記配信者端末および観客端末へ配信する配信部と
を具備する、配信サーバ。
A receiver for receiving video data for live distribution from the distributor terminal;
A determination unit that determines whether the rendering condition is satisfied;
A synthesizing unit which synthesizes effect data with the image data to generate synthesized image data when the effect condition is satisfied;
A distribution unit that distributes the composite video data to the distributor terminal and the audience terminal.
前記演出条件は、(1)前記映像データの生配信のために割り当てられた時間枠内に設定された演出開始地点に前記配信サーバの参照する日時が達してから第1の演出終了条件が満足するまで、(2)前記映像データの観客数が所定の条件を満足してから第2の演出終了条件が満足するまで、(3)前記配信者端末または前記観客端末へ所定のユーザ入力があってから第3の演出終了条件が満足するまで、(4)前記映像データに対して投稿されたコメントが所定の条件を満足してから第4の演出終了条件が満足するまで、および(5)前記映像データの再生映像または再生音声が所定の条件を満足してから第5の演出終了条件が満足するまで、のうち少なくとも1つの間に満足する、請求項1に記載の配信サーバ。   As the presentation condition, (1) the first presentation end condition is satisfied after the presentation start point set in the time frame assigned for the raw delivery of the video data reaches the date and time when the distribution server refers (2) There is a predetermined user input to the distributor terminal or the spectator terminal until (2) the audience number of the video data satisfies the predetermined condition and the second effect end condition is satisfied. Until the third effect termination condition is satisfied, (4) the comment posted to the video data satisfies the predetermined condition, and then the fourth effect termination condition is satisfied, and (5) The distribution server according to claim 1, wherein the distribution server is satisfied during at least one of the reproduction video or the reproduction sound of the video data until the fifth effect termination condition is satisfied after the predetermined condition is satisfied. 前記第1の演出終了条件、前記第2の演出終了条件、前記第3の演出終了条件、前記第4の演出終了条件および前記第5の演出終了条件のいずれかが満足するための必要条件を動的に示す情報を含む前記演出データを作成する作成部をさらに具備する、請求項2に記載の配信サーバ。   A necessary condition for satisfying any one of the first effect end condition, the second effect end condition, the third effect end condition, the fourth effect end condition and the fifth effect end condition The distribution server according to claim 2, further comprising a creation unit configured to create the effect data including information dynamically shown. 前記作成部は、前記映像データの観客数またはコメント数と必要数とのギャップを示す情報を含む前記演出データを作成する、請求項3に記載の配信サーバ。   The distribution server according to claim 3, wherein the creation unit creates the effect data including information indicating a gap between the number of spectators of the video data or the number of comments and the required number. 前記映像データの生配信が開始された後に生じた事象に関する情報を含む前記演出データを作成する作成部をさらに具備する、請求項1または請求項2に記載の配信サーバ。   The distribution server according to claim 1 or 2, further comprising a creation unit that creates the effect data including information on an event that occurs after live distribution of the video data is started. 前記作成部は、前記映像データの観客数、前記映像データに対して投稿されたコメントの一部、前記映像データに対して投稿されたコメント数、および前記映像データに対してコメントを投稿した観客名のうち少なくとも1つを示す情報を含む前記演出データを作成する、請求項5に記載の配信サーバ。   The creation unit may include the number of spectators of the video data, a part of comments posted to the video data, the number of comments posted to the video data, and spectators who posted comments on the video data The distribution server according to claim 5, wherein the effect data including information indicating at least one of names is created. (1)前記配信者端末および前記観客端末の少なくとも一方になされたユーザ入力、ならびに(2)前記配信者端末および前記観客端末の少なくとも一方によって投稿されたコメント、のうち少なくとも一方に反応して変化する演出データを作成する作成部をさらに具備する、請求項1または請求項2に記載の配信サーバ。   (1) Changes in response to at least one of user input made to at least one of the distributor terminal and the audience terminal, and (2) a comment posted by at least one of the distributor terminal and the audience terminal The distribution server according to claim 1 or 2, further comprising a creation unit that creates presentation data to be played. 前記映像データに付与されたメタデータおよび前記映像データに関連するウェブページに表示される情報の少なくとも一方に基づいて生成された情報を含む前記演出データを作成する作成部をさらに具備する、請求項1または請求項2に記載の配信サーバ。   The apparatus further comprises a creation unit that creates the effect data including information generated based on at least one of metadata attached to the video data and information displayed on a web page related to the video data. The delivery server according to claim 1 or claim 2. 前記合成部は、前記映像データの再生映像の画面の一部または全部をリサイズして前記演出データと合成し、前記合成映像データを生成する、請求項1乃至請求項7のいずれか1項に記載の配信サーバ。   The composition unit according to any one of claims 1 to 7, wherein the combining unit resizes a part or all of a screen of a reproduced video of the video data and combines the resized data with the effect data to generate the combined video data. Distribution server described. 前記合成部は、前記映像データの再生映像の画面の一部が露出し、残部が隠れるように前記映像データを前記演出データと合成し、前記合成映像データを生成する、請求項1乃至請求項7のいずれか1項に記載の配信サーバ。   The synthesizing unit synthesizes the video data with the effect data such that a part of a screen of a reproduced video of the video data is exposed and the remaining part is hidden, thereby generating the synthesized video data. The delivery server according to any one of 7. コンピュータを、
配信者端末から生配信用の映像データを受信する手段、
演出条件が満足しているか否かを判定する手段、
前記演出条件が満足している時に、前記映像データに対して演出データを合成し合成映像データを生成する手段、
前記合成映像データを前記配信者端末および観客端末へ配信する手段
として機能させるための配信プログラム。
Computer,
A means for receiving video data for live distribution from the distributor terminal;
Means for determining whether the rendering condition is satisfied,
A means for combining effect data with the image data to generate combined image data when the effect condition is satisfied;
A distribution program for functioning as means for distributing the composite video data to the distributor terminal and the audience terminal.
前記受信部は、前記配信者端末および前記観客端末の少なくとも1つから前記映像データおよび前記演出データの合成位置、前記映像データの拡大/縮小率、前記演出データの拡大/縮小率、前記映像データの回転量、前記演出データの回転量、前記映像データにおける特定の領域、ならびに前記演出データにおける特定の領域の少なくとも1つを指定する指定データをさらに受信し、
前記合成部は、前記指定データに従って前記映像データおよび前記演出データの少なくとも一方に対して平行移動、リサイズ、回転、反転およびトリミングの少なくとも1つを行ってから前記映像データおよび前記演出データを合成し、前記合成映像データを生成する、
請求項1乃至請求項10のいずれか1項に記載の配信サーバ。
The receiving unit is configured to combine the image data and the effect data from at least one of the distributor terminal and the spectator terminal, an enlargement / reduction ratio of the image data, an enlargement / reduction ratio of the effect data, and the image data And receiving designation data specifying at least one of a rotation amount of the effect data, a rotation amount of the effect data, a specific area in the video data, and a specific area in the effect data,
The synthesizing unit synthesizes the video data and the effect data after performing at least one of parallel movement, resizing, rotation, inversion, and trimming on at least one of the image data and the effect data according to the designation data. , Generating the composite video data,
The distribution server according to any one of claims 1 to 10.
配信者端末から生配信用の映像データを受信する受信部と、
演出条件が満足しているか否かを判定する判定部と、
前記演出条件が満足している時に、前記映像データに対して既定の加工を行って加工済み映像データを生成する加工部と、
前記加工済み映像データを前記配信者端末および観客端末へ配信する配信部と
を具備する、配信サーバ。
A receiver for receiving video data for live distribution from the distributor terminal;
A determination unit that determines whether the rendering condition is satisfied;
A processing unit that performs predetermined processing on the video data to generate processed video data when the rendering condition is satisfied;
A distribution unit that distributes the processed video data to the distributor terminal and the audience terminal.
前記加工部は、前記演出条件が満足している時に、前記映像データにおける特定の領域の複製をそのまま、または回転、反転およびリサイズの少なくとも1つを行ってから、前記映像データに貼り付け、前記加工済み映像データを生成する、請求項13に記載の配信サーバ。   The processing unit pastes the duplication of the specific area in the video data as it is or performs at least one of rotation, inversion, and resizing, when the rendering condition is satisfied, and then pastes it to the video data, The distribution server according to claim 13, which generates processed video data. 演出条件が満足しているか否かを判定する判定部と、
配信者端末から生配信用の映像データを受信し、前記演出条件が満足している場合にはさらに前記配信者端末および観客端末の少なくとも1つから前記配信者端末および前記観客端末の少なくとも1つにおいて前記映像データに合成される動的な演出データに対する操作要求を受信する受信部と、
前記操作要求に基づいて前記動的な演出データの操作データを生成する生成部と、
前記映像データおよび前記操作データを前記配信者端末および観客端末の少なくとも1つへ配信する配信部と
を具備する、配信サーバ。
A determination unit that determines whether the rendering condition is satisfied;
The video data for live distribution is received from the distributor terminal, and if the effect condition is satisfied, then at least one of the distributor terminal and the audience terminal from at least one of the distributor terminal and the audience terminal A reception unit for receiving an operation request for dynamic presentation data to be combined with the video data in
A generation unit that generates operation data of the dynamic effect data based on the operation request;
A distribution unit configured to distribute the video data and the operation data to at least one of the distributor terminal and the audience terminal.
前記動的な演出データは、前記操作データに応じて画面遷移する映像データである、請求項15に記載の配信サーバ。   The distribution server according to claim 15, wherein the dynamic effect data is video data that makes a screen transition according to the operation data. 演出条件が満足しているか否かを判定する判定部と、
前記演出条件が満足している時に、ユーザ入力に応じて動的な演出データに対する操作要求を生成する生成部と、
前記操作要求を配信サーバへ送信する送信部と、
前記演出条件が満足している時に、前記配信サーバから生配信用の映像データおよび前記操作要求に基づいて生成された前記動的な演出データの操作データを受信する受信部と、
前記操作要求に基づいて前記動的な演出データを制御する制御部と、
前記映像データに前記動的な演出データを合成する合成部と、
を具備する、端末。
A determination unit that determines whether the rendering condition is satisfied;
A generation unit that generates an operation request for dynamic presentation data according to a user input when the presentation condition is satisfied;
A transmitter for transmitting the operation request to the distribution server;
A receiving unit that receives, from the distribution server, live distribution video data and operation data of the dynamic effect data generated based on the operation request, when the effect condition is satisfied;
A control unit that controls the dynamic effect data based on the operation request;
A synthesizing unit which synthesizes the dynamic effect data with the video data;
Equipped with a terminal.
JP2018100684A 2017-11-13 2018-05-25 Distribution server, distribution program, and terminal Active JP6473262B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017218211 2017-11-13
JP2017218211 2017-11-13

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019010226A Division JP7159067B2 (en) 2017-11-13 2019-01-24 Computer program and distribution server

Publications (2)

Publication Number Publication Date
JP6473262B1 JP6473262B1 (en) 2019-02-20
JP2019092146A true JP2019092146A (en) 2019-06-13

Family

ID=65443034

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018100684A Active JP6473262B1 (en) 2017-11-13 2018-05-25 Distribution server, distribution program, and terminal
JP2019010226A Active JP7159067B2 (en) 2017-11-13 2019-01-24 Computer program and distribution server

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2019010226A Active JP7159067B2 (en) 2017-11-13 2019-01-24 Computer program and distribution server

Country Status (1)

Country Link
JP (2) JP6473262B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022140111A (en) * 2021-03-12 2022-09-26 株式会社コナミデジタルエンタテインメント Terminal device, server device, control method of terminal device, control method of server device, distribution system, display system, and program
US11985380B2 (en) 2021-03-03 2024-05-14 Yamaha Corporation Video output method and video output apparatus

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022075418A1 (en) * 2020-10-09 2022-04-14 ヤマハ株式会社 Communication method and system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016088566A1 (en) * 2014-12-03 2016-06-09 ソニー株式会社 Information processing apparatus, information processing method, and program
WO2017159383A1 (en) * 2016-03-16 2017-09-21 ソニー株式会社 Information processing device, information processing method, program, and moving-image delivery system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012124608A (en) 2010-12-06 2012-06-28 Olympus Imaging Corp Camera
JPWO2014097814A1 (en) 2012-12-20 2017-01-12 シャープ株式会社 Display device, input device, information presentation device, program, and recording medium
JP6219548B1 (en) 2017-03-31 2017-10-25 株式会社ドワンゴ Virtual processing server, virtual processing server control method, content distribution system, and terminal device application program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016088566A1 (en) * 2014-12-03 2016-06-09 ソニー株式会社 Information processing apparatus, information processing method, and program
WO2017159383A1 (en) * 2016-03-16 2017-09-21 ソニー株式会社 Information processing device, information processing method, program, and moving-image delivery system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11985380B2 (en) 2021-03-03 2024-05-14 Yamaha Corporation Video output method and video output apparatus
JP2022140111A (en) * 2021-03-12 2022-09-26 株式会社コナミデジタルエンタテインメント Terminal device, server device, control method of terminal device, control method of server device, distribution system, display system, and program
JP7270276B2 (en) 2021-03-12 2023-05-10 株式会社コナミデジタルエンタテインメント Terminal device, server device, terminal device control method, server device control method, distribution system, display system, and program

Also Published As

Publication number Publication date
JP7159067B2 (en) 2022-10-24
JP2019092186A (en) 2019-06-13
JP6473262B1 (en) 2019-02-20

Similar Documents

Publication Publication Date Title
CN105765990B (en) Method, system and computer medium for distributing video content over a distributed network
US9245582B2 (en) User interface for method for creating a custom track
US10210902B2 (en) Method and apparatus for creating a custom track
US11812070B2 (en) Event production and distribution networks, systems, apparatuses, and methods related thereto
US9026596B2 (en) Sharing of event media streams
US11216166B2 (en) Customizing immersive media content with embedded discoverable elements
WO2020072820A1 (en) Overlaying content within live streaming video
US20190104325A1 (en) Event streaming with added content and context
CA2456100A1 (en) Enhanced custom content television
EP2834972B1 (en) Multi-source video navigation
US11127432B2 (en) User interface for method for creating a custom track
US20130009984A1 (en) Display installed in hall
JP2005527158A (en) Presentation synthesizer
JP7159067B2 (en) Computer program and distribution server
US10051342B1 (en) Dynamic generation of on-demand video
US20130251347A1 (en) System and method for portrayal of object or character target features in an at least partially computer-generated video
JP2006293939A (en) Publication issuance and distribution system
KR101221540B1 (en) Interactive media mapping system and method thereof
JP2022066293A (en) Information processing system
JP2005228297A (en) Production method of real character type moving image object, reproduction method of real character type moving image information object, and recording medium
JP7445272B1 (en) Video processing method, video processing system, and video processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180815

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180815

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20181005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181016

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190124

R150 Certificate of patent or registration of utility model

Ref document number: 6473262

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250