JP7159067B2 - Computer program and distribution server - Google Patents

Computer program and distribution server Download PDF

Info

Publication number
JP7159067B2
JP7159067B2 JP2019010226A JP2019010226A JP7159067B2 JP 7159067 B2 JP7159067 B2 JP 7159067B2 JP 2019010226 A JP2019010226 A JP 2019010226A JP 2019010226 A JP2019010226 A JP 2019010226A JP 7159067 B2 JP7159067 B2 JP 7159067B2
Authority
JP
Japan
Prior art keywords
effect
video data
data
condition
terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019010226A
Other languages
Japanese (ja)
Other versions
JP2019092186A5 (en
JP2019092186A (en
Inventor
量生 川上
寛明 齊藤
尚 小嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dwango Co Ltd
Original Assignee
Dwango Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dwango Co Ltd filed Critical Dwango Co Ltd
Publication of JP2019092186A publication Critical patent/JP2019092186A/en
Publication of JP2019092186A5 publication Critical patent/JP2019092186A5/en
Application granted granted Critical
Publication of JP7159067B2 publication Critical patent/JP7159067B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、動画共有システムにおける動画の生配信に関する。 The present invention relates to live distribution of moving images in a moving image sharing system.

近年、一部の動画共有システムでは、ユーザ(以降、単に配信者と呼ぶ)が撮影した動画を多数の観客へインターネット経由で生配信することが可能である。かかるインターネット経由で生配信される動画(以降、単に生番組と称する)でも、テレビ番組と同様に、配信者には利用可能な時間枠が割り当てられている。 2. Description of the Related Art In recent years, some moving image sharing systems allow live distribution of moving images shot by users (hereinafter simply referred to as distributors) to a large number of spectators via the Internet. In such videos live-delivered via the Internet (hereinafter simply referred to as live programs), the distributors are assigned available time slots in the same way as television programs.

テレビ番組は、通常の録画番組に限らず、生放送番組であっても、オープニング、エンディング、その他の中間演出を付けられることが多い。しかしながら、生番組の配信者が利用可能な技術および人的リソースは、通常、テレビ番組の制作会社と比べて限られているので、配信者が撮影した動画にオープニングやエンディングなどの演出を付加して生配信することは現実的に難しい。このため、生番組は、割り当てられた時間枠に合わせて生番組の本編が唐突に始まり、そして唐突に終わる、ということになりがちで、テレビ番組風の番組構成に慣れ親しんだ観客は違和感を覚えるかもしれない。 Television programs are not limited to ordinary recorded programs, and even live broadcast programs often have openings, endings, and other intermediate effects. However, the technology and human resources available to live program distributors are usually limited compared to TV program production companies, so it is not possible to add effects such as openings and endings to videos shot by distributors. It is realistically difficult to broadcast live. For this reason, live programs tend to abruptly begin and end abruptly in accordance with the allotted time frame, which is uncomfortable for audiences accustomed to TV program-like programming. Maybe.

また、生配信の開始直後は配信者のフォロワーを中心とする限られた数の観客しか集まらないことも多い。配信者はなるべく多くの観客が集まってからメインの企画に入ることを望むので、しばらく手持ち無沙汰な状態で待っていたり、マイクテストを行ったり、場合によっては離席するなど、間延び感のあるシーンが続いてしまうことがある。観客は、このようなシーンに遭遇すると、退屈に感じて視聴をやめてしまうかもしれない。 Also, immediately after the start of live distribution, only a limited number of spectators, mainly followers of the distributor, often gather. Since the broadcaster wants to start the main project after gathering as many spectators as possible, there is a sense of procrastination, such as waiting for a while, conducting a mic test, and depending on the case, leaving the seat. Scenes can go on and on. When the audience encounters such a scene, they may feel bored and stop watching.

特許文献1では、個人向け番組配信システムにおいて、視聴者からの配信要求を受信すると(S100)([0027])、番組コンテンツデータベースに記憶される番組コンテンツを抽出し(S106)、個人向けの番組コンテンツを編成し(S108)([0028])、視聴者端末に配信すること([0030])が記載されている。また、編成された個人向け番組コンテンツはタイトルとエンディングを含むこと([0027],[0029])が記載されている。 In Patent Document 1, when receiving a distribution request from a viewer (S100) ([0027]) in a program distribution system for individuals, program content stored in a program content database is extracted (S106), and programs for individuals are extracted. Contents are organized (S108) ([0028]) and distributed to viewer terminals ([0030]). Also, it is described that organized personal program content includes a title and an ending ([0027], [0029]).

また、特許文献2(特に、[0022]、[0057]、[0059]、要約書)には、撮影した動画データから背景部分を切り取り、予め準備しておいた背景画像または動画データと合成した合成動画データを作成し、さらに合成動画データを編集してオープニングタイトルおよびエンドロールのデータを含む統合動画データを生成し、統合動画データをネットワーク経由で共有する技術が開示されている。 In addition, in Patent Document 2 (especially [0022], [0057], [0059], abstract), a background portion is cut out from captured moving image data and synthesized with a background image or moving image data prepared in advance. A technique is disclosed for creating synthetic moving image data, further editing the synthetic moving image data to generate integrated moving image data including opening title and end roll data, and sharing the integrated moving image data via a network.

特開2006-339780号公報Japanese Patent Application Laid-Open No. 2006-339780 特開2016-154021号公報JP 2016-154021 A

特許文献1には、リアルタイムコンテンツを随時盛り込んだ状態で番組コンテンツを配信することが記載されているものの、このリアルタイムコンテンツは、例えば、定時ニュース、全国ニュース、地域限定のローカルニュース、天気予報の情報等の一般的な時事情報を含み([0021])、例えば、いくつかのニュース写真の画像およびナレーションにより構成されたコンテンツ824aと取材動画によるコンテンツ826a等とがまとめられることで構成されている([0029])。ここで、取材動画は一般に録画済みの動画を指すから、特許文献1に記載されたリアルタイムコンテンツは、生番組とは異なる。また、個人向け番組コンテンツ800に含まれるタイトル810およびエンディング850は、リアルタイムコンテンツ820とは別個のコンテンツとして扱われている(図3、[0029])。 Although Patent Document 1 describes that program content is distributed in a state in which real-time content is included at any time, this real-time content includes, for example, regular news, national news, local news limited to a region, and weather forecast information. ([0021]) including general current affairs information such as ( [0029]). Here, the news coverage moving image generally refers to a recorded moving image, so the real-time content described in Patent Document 1 is different from the live program. Also, the title 810 and the ending 850 included in the personal program content 800 are treated as separate content from the real-time content 820 (FIG. 3, [0029]).

特許文献2に記載の技術は、全編撮影済みの動画をベースに統合動画データを生成して共有しており、生番組への適用は想定していない。また、オープニングタイトルおよびエンドロールは、合成動画とは独立したデータであり、両者を合成することまでは想定されていない。 The technique described in Patent Literature 2 generates and shares integrated moving image data based on fully captured moving images, and is not expected to be applied to live programs. Also, the opening title and the end credits are data independent of the composite video, and it is not assumed that the two will be composited.

従って、生番組の配信にこれらの技術を適用したとしても、生番組の本編とは独立したタイトル、オープニング、エンディング、エンドロールなどが付加されるに過ぎない。故に、ユーザ発信型の生番組に特有な、開始時および終了時の唐突感、開始直後の間延び感、利用可能な表現の幅が限られることによるメリハリ感のなさ、などを改善することは容易でない。 Therefore, even if these techniques are applied to distribution of live programs, titles, openings, endings, end rolls, etc., are added independently of the main part of the live programs. Therefore, it is easy to improve the abruptness at the beginning and end of live programs, the dullness immediately after the start, and the lack of sharpness due to the limited range of expressions that can be used, which are unique to user-generated live programs. not.

本発明は、生配信用の映像データに演出を自動的に付加して体裁を整えることを目的とする。 SUMMARY OF THE INVENTION An object of the present invention is to automatically add effects to video data for live distribution to make it look good.

本発明の第1の態様に係るコンピュータプログラムは、配信者端末から、少なくとも生配信用の映像データを受信することと、演出条件が満足しているか否かを判定することと、前記演出条件が満足している時に、前記生配信用の映像データに対して演出を付加することと、前記演出が付加された映像データを前記配信者端末あるいは観客端末へ配信することとをコンピュータに実行させるコンピュータプログラムであって、前記演出条件は、オープニング演出、エンディング演出、または中間演出を付加するか否かを判定するための基準であり、前記判定することは、前記オープニング演出、エンディング演出、または中間演出のそれぞれについて、前記演出条件を満たすか否かを判定することを含む。前記演出条件は、少なくとも、前記映像データの生配信のために割り当てられた時間枠、前記映像データの観客数、前記オープニング演出の開始の指示、前記映像データに対して投稿されたコメント、映像データの再生音声のいずれかに基づく条件を含むか、または、前記演出条件は、所定の条件を満足してから演出終了条件が満足するまでの間に満足するように定められてもよい。 A computer program according to a first aspect of the present invention comprises: receiving at least video data for live distribution from a distributor terminal; determining whether or not a rendering condition is satisfied; A computer that, when satisfied, adds an effect to the video data for live distribution and distributes the video data with the effect added to the distributor terminal or the spectator terminal. In the program, the effect condition is a criterion for determining whether or not to add an opening effect, an ending effect, or an intermediate effect, and the determination is based on the opening effect, the ending effect, or the intermediate effect. and determining whether or not the rendering conditions are satisfied for each of the above. The performance conditions include at least a time frame allocated for live distribution of the video data, the number of spectators of the video data, an instruction to start the opening performance, comments posted on the video data, and video data. Alternatively, the effect condition may be determined to be satisfied after a predetermined condition is satisfied until the effect end condition is satisfied.

本発明の第2の態様に係る配信サーバは、配信者端末から、少なくとも生配信用の映像データを受信する受信部と、演出条件が満足しているか否かを判定する判定部と、前記演出条件が満足している時に、前記生配信用の映像データに対して演出を付加したデータを前記配信者端末あるいは観客端末へ配信する配信部とを具備し、前記演出条件は、オープニング演出、エンディング演出、または中間演出を付加するか否かを判定するための基準であり、前記判定部は、前記オープニング演出、前記エンディング演出、または前記中間演出のそれぞれについて、前記演出条件を満たすか否かを判定する。前記演出条件は、少なくとも、前記映像データの生配信のために割り当てられた時間枠、前記映像データの観客数、前記オープニング演出の開始の指示、前記映像データに対して投稿されたコメント、映像データの再生音声のいずれかに基づく条件を含むか、または、前記演出条件は、所定の条件を満足してから演出終了条件が満足するまでの間に満足するように定められてもよい。 A distribution server according to a second aspect of the present invention includes a receiving unit that receives at least video data for live distribution from a distributor terminal, a determination unit that determines whether or not an effect condition is satisfied, and the effect a distribution unit that distributes data added with effects to the video data for live distribution to the distributor terminal or the spectator terminal when conditions are satisfied, and the effect conditions are an opening effect and an ending. It is a criterion for determining whether or not to add an effect or an intermediate effect, and the determination unit determines whether or not the effect condition is satisfied for each of the opening effect, the ending effect, and the intermediate effect. determine whether The performance conditions include at least a time frame allocated for live distribution of the video data, the number of spectators of the video data, an instruction to start the opening performance, comments posted on the video data, and video data. Alternatively, the effect condition may be determined to be satisfied after a predetermined condition is satisfied until the effect end condition is satisfied.

本発明の第3の態様に係るコンピュータプログラムは、サーバから、少なくとも生配信用の映像データを受信することと、演出条件が満足しているか否か判定を取得することと、前記演出条件が満足している時に、前記生配信用の映像データに対して演出を付加することと、前記演出が付加された映像データを表示画面に表示することとをコンピュータに実行させるコンピュータプログラムであって、前記演出条件は、オープニング演出、エンディング演出、または中間演出を付加するか否かを判定するための基準であり、前記判定することは、前記オープニング演出、前記エンディング演出、または前記中間演出のそれぞれについて、前記演出条件を満たすか否かを判定する。前記演出条件は、少なくとも、前記映像データの生配信のために割り当てられた時間枠、前記映像データの観客数、前記オープニング演出の開始の指示、前記映像データに対して投稿されたコメント、映像データの再生音声のいずれかに基づく条件を含むか、または、前記演出条件は、所定の条件を満足してから演出終了条件が満足するまでの間に満足するように定められてもよい。 A computer program according to a third aspect of the present invention comprises: receiving at least video data for live distribution from a server ; obtaining a determination as to whether or not rendering conditions are satisfied; A computer program for causing a computer to add an effect to the video data for live distribution and to display the video data to which the effect is added on a display screen when a condition is satisfied. The effect condition is a criterion for determining whether or not to add an opening effect, an ending effect, or an intermediate effect. For each of them, it is determined whether or not the performance conditions are satisfied. The performance conditions include at least a time frame allocated for live distribution of the video data, the number of spectators of the video data, an instruction to start the opening performance, comments posted on the video data, and video data. Alternatively, the effect condition may be determined to be satisfied after a predetermined condition is satisfied until the effect end condition is satisfied.

本発明によれば、生配信用の映像データに演出を自動的に付加して体裁を整えることができる。 According to the present invention, it is possible to automatically add an effect to video data for live distribution and adjust the appearance.

第1の実施形態に係る動画の生配信システムを例示するブロック図。1 is a block diagram illustrating a live video delivery system according to a first embodiment; FIG. 第1の実施形態に係る配信サーバを例示するブロック図。2 is a block diagram illustrating a distribution server according to the first embodiment; FIG. 映像データを例示する図。The figure which illustrates video data. 図3の映像データに演出データを合成した合成映像データを例示する図。FIG. 4 is a view exemplifying synthesized video data obtained by synthesizing effect data with the video data of FIG. 3; 図3の映像データに演出データを合成した合成映像データを例示する図。FIG. 4 is a view exemplifying synthesized video data obtained by synthesizing effect data with the video data of FIG. 3; 図3の映像データに演出データを合成した合成映像データを例示する図。FIG. 4 is a view exemplifying synthesized video data obtained by synthesizing effect data with the video data of FIG. 3; 図3の映像データに演出データを合成した合成映像データを例示する図。FIG. 4 is a view exemplifying synthesized video data obtained by synthesizing effect data with the video data of FIG. 3; 図2の配信サーバの動作を例示するフローチャート。3 is a flowchart illustrating the operation of the distribution server of FIG. 2; 第2の実施形態に係る配信サーバを例示するブロック図。FIG. 11 is a block diagram illustrating a distribution server according to the second embodiment; FIG. 第1の実施形態および第2の実施形態に係る端末の変形例を示すブロック図。FIG. 4 is a block diagram showing a modification of the terminal according to the first embodiment and the second embodiment; FIG. 第3の実施形態に係る配信サーバを例示するブロック図。FIG. 11 is a block diagram illustrating a distribution server according to the third embodiment; FIG. 映像データを例示する図。The figure which illustrates video data. 図12の映像データを加工した加工済み映像データを例示する図。FIG. 13 is a view exemplifying processed video data obtained by processing the video data of FIG. 12; 図12の映像データを加工した加工済み映像データを例示する図。FIG. 13 is a view exemplifying processed video data obtained by processing the video data of FIG. 12; 第3の実施形態に係る端末の変形例を示すブロック図。FIG. 11 is a block diagram showing a modification of the terminal according to the third embodiment; 第4の実施形態に係る配信サーバを例示するブロック図。FIG. 11 is a block diagram illustrating a distribution server according to the fourth embodiment; FIG. 図3の映像データに動的な演出データを合成した合成映像データを例示する図。FIG. 4 is a view exemplifying synthesized video data obtained by synthesizing dynamic effect data with the video data of FIG. 3; 図3の映像データに動的な演出データを合成した合成映像データを例示する図。FIG. 4 is a view exemplifying synthesized video data obtained by synthesizing dynamic effect data with the video data of FIG. 3; 第4の実施形態に係る端末を例示するブロック図。FIG. 12 is a block diagram illustrating a terminal according to the fourth embodiment; FIG. 図16の変形例を示すブロック図。FIG. 17 is a block diagram showing a modification of FIG. 16;

以下、図面を参照しながら実施形態の説明を述べる。なお、以降、説明済みの要素と同一または類似の要素には同一または類似の符号を付し、重複する説明については基本的に省略する。例えば、複数の同一または類似の要素が存在する場合に、各要素を区別せずに説明するために共通の符号を用いることがあるし、各要素を区別して説明するために当該共通の符号に加えて枝番号を用いることもある。 An embodiment will be described below with reference to the drawings. Elements that are the same as or similar to elements that have already been explained are denoted by the same or similar reference numerals, and overlapping explanations are basically omitted. For example, when there are a plurality of identical or similar elements, common reference numerals may be used to describe each element without distinction, and the common reference numerals may be used to distinguish and describe each element. In addition, branch numbers are sometimes used.

(第1の実施形態)
第1の実施形態に係る配信サーバは、図1に例示される動画の生配信システムに組み込むことができる。この生配信システムは、配信者端末100と、配信サーバ200と、観客端末300-1,300-2,・・・とを含む。
(First embodiment)
The distribution server according to the first embodiment can be incorporated into the live video distribution system illustrated in FIG. This live distribution system includes a distributor terminal 100, a distribution server 200, and spectator terminals 300-1, 300-2, .

配信サーバ200は、配信者端末100および観客端末300とネットワーク経由で接続しており、データを互いに送受信できる。なお、図1において示される各装置の数は、例示に過ぎない。例えば、観客端末300の数は、0となることがあり得るし、数百、数千となることもあり得る。また、図1に示されない、Webサーバまたはコメント配信サーバがさらに設けられてもよいし、これらの機能が配信サーバ200に組み込まれてもよい。 The distribution server 200 is connected to the distributor terminal 100 and the spectator terminal 300 via a network, and can exchange data with each other. It should be noted that the number of each device shown in FIG. 1 is merely an example. For example, the number of spectator terminals 300 can be 0, or can be hundreds or thousands. Moreover, a Web server or a comment distribution server, which are not shown in FIG.

配信者端末100は、例えばビデオカメラなどの動画ソースに接続されたコンピュータなどの電子デバイス、例えば、テレビ受像機(インターネットテレビを含む)、PC(Personal Computer)、モバイル端末(例えば、タブレット、スマートフォン、ラップトップ、フィーチャーフォン、ポータブルゲーム機、デジタルミュージックプレイヤー、電子書籍リーダなど)、VR(Virtual Reality)端末、AR(Augmented Reality)端末などであり得るが、これらに限られない。配信者端末100は、動画ソースから出力されるエンコード済みの映像データを配信サーバ200へ逐次送信する。 Distributor terminal 100 is an electronic device such as a computer connected to a video source such as a video camera, such as a television receiver (including Internet television), a PC (Personal Computer), a mobile terminal (such as a tablet, a smartphone, laptops, feature phones, portable game machines, digital music players, electronic book readers, etc.), VR (Virtual Reality) terminals, AR (Augmented Reality) terminals, etc., but are not limited to these. The distributor terminal 100 sequentially transmits the encoded video data output from the video source to the distribution server 200 .

配信サーバ200は、映像データの生配信に割り当てられた時間枠に亘って、配信者端末100から逐次送信される、エンコード済みの映像データを受信する。配信サーバ200は、基本的には、この映像データをそのまま配信者端末100および観客端末300へ配信する。 The distribution server 200 receives the encoded video data sequentially transmitted from the distributor terminal 100 over the time frame assigned to the live distribution of the video data. The distribution server 200 basically distributes this video data to the distributor terminal 100 and the spectator terminal 300 as it is.

ただし、後述される演出条件が満足されている時には、配信サーバ200は、映像データに後述される演出データを合成し、合成された映像データ(以降、合成映像データと称する)を配信者端末100および観客端末300へ配信する。かかる演出条件の満足/不満足の判定、演出データの作成、および演出データの合成は、例えば配信サーバ200がスクリプトを実行することで実現されてもよい。 However, when the effect condition described later is satisfied, the distribution server 200 synthesizes the effect data described later with the video data, and transmits the synthesized video data (hereinafter referred to as synthesized video data) to the distributor terminal 100. and distributed to the spectator terminal 300 . The determination of satisfaction/dissatisfaction of the rendering conditions, the creation of rendering data, and the synthesis of rendering data may be realized by the distribution server 200 executing a script, for example.

観客端末300は、配信者端末100と同様の電子デバイスであり得るが、配信者端末100とは異なり動画ソースに接続される必要はない。 Spectator terminal 300 can be an electronic device similar to broadcaster terminal 100, but unlike broadcaster terminal 100, does not need to be connected to a video source.

配信サーバ200がこのような演出データの自動合成を行うことで、例えば、オープニング演出、エンディング演出または中間演出を、配信者は手軽に利用することができる。かかる演出の付加は配信サーバ200によって行われるので、配信者が高度な動画編集スキル、動画編集用のハードウェアまたはソフトウェアがない、演出家などのサポーターがいない場合であっても支障がない。故に、配信者は、テレビ番組風に体裁の整った動画を容易に生配信することができる。 By having the distribution server 200 automatically synthesize such effect data, the distributor can easily use, for example, an opening effect, an ending effect, or an intermediate effect. Since such effects are added by the distribution server 200, there is no problem even if the distributor does not have advanced video editing skills, hardware or software for video editing, or does not have a supporter such as a director. Therefore, the distributor can easily live-distribute a moving image that is formatted like a TV program.

以下、図1中の配信サーバ200の構成および動作について順に図面を用いて説明する。 Hereinafter, the configuration and operation of distribution server 200 in FIG. 1 will be described in order using the drawings.

配信サーバ200は、コンピュータであって、配信者端末100から受信する映像データの配信制御、演出条件の判定、演出データの作成、演出データの合成、配信者端末100および観客端末300から受信する種々の要求等の解釈とこれに対する応答の生成、などを行うプロセッサと、かかる処理を実現するために当該プロセッサによって実行されるプログラムおよび当該プロセッサによって使用されるデータなどを一時的に格納するメモリとを含んでいる。 The distribution server 200 is a computer that controls distribution of video data received from the distributor terminal 100, determines performance conditions, creates performance data, synthesizes performance data, and performs various functions received from the distributor terminal 100 and the audience terminal 300. A processor that interprets requests and generates responses to them, and a memory that temporarily stores programs executed by the processor and data used by the processor to realize such processing contains.

配信サーバ200は、さらに、ネットワークに接続するための通信装置と、大容量のデータを蓄積するための補助記憶装置とを利用可能である。通信装置および補助記憶装置は、配信サーバ200に内蔵されてもよいし、配信サーバ200に外付けされてもよい。 Distribution server 200 can also use a communication device for connecting to a network and an auxiliary storage device for storing large amounts of data. The communication device and auxiliary storage device may be built in distribution server 200 or may be externally attached to distribution server 200 .

通信装置は、ネットワーク経由で配信者端末100および観客端末300と通信をする。例えば、通信装置は、配信者端末100から映像データを受信したり、観客端末300からの配信要求に対する応答を送信したりする。 The communication device communicates with the distributor terminal 100 and the audience terminal 300 via the network. For example, the communication device receives video data from the distributor terminals 100 and transmits responses to distribution requests from the audience terminals 300 .

補助記憶装置は、例えば、演出条件、演出データなどのデータを蓄積する。補助記憶装置は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)などの不揮発性記憶媒体であることが好ましい。補助記憶装置は、配信サーバ200にネットワーク経由で接続されたファイルサーバであり得る。 The auxiliary storage stores data such as effect conditions and effect data, for example. The auxiliary storage device is preferably a non-volatile storage medium such as HDD (Hard Disk Drive) or SSD (Solid State Drive). The auxiliary storage device may be a file server connected to distribution server 200 via a network.

次に、図2を用いて配信サーバ200の構成例の説明を続ける。図2の配信サーバ200は、受信部201と、時計部202と、配信制御部203と、演出条件判定部204と、演出条件記憶部205と、演出データ作成部206と、演出データ合成部207と、映像配信部208とを含む。 Next, the description of the configuration example of the distribution server 200 will be continued with reference to FIG. Distribution server 200 in FIG. , and a video distribution unit 208 .

受信部201は、ネットワーク経由で種々のデータを受信する。受信部201は、前述の通信装置であってもよいし、当該通信装置とのインターフェースであってもよい。 具体的には、受信部201は、配信者端末100から生配信用の映像データを受信する。受信部201は、この映像データを演出条件判定部204へ送る。また、受信部201は、観客端末300からこの映像データの配信要求を受信する。受信部201は、配信要求を配信制御部203へ送る。 A receiving unit 201 receives various data via a network. The receiving unit 201 may be the communication device described above, or may be an interface with the communication device. Specifically, the receiving unit 201 receives video data for live distribution from the distributor terminal 100 . The receiving unit 201 sends this video data to the effect condition determining unit 204 . Also, the reception unit 201 receives the video data distribution request from the spectator terminal 300 . Receiving section 201 sends a distribution request to distribution control section 203 .

さらに、受信部201は、配信者端末100または観客端末300において所定のユーザ入力があったことを示す情報を受信し、これを演出条件判定部204へ送ってもよい。また、受信部201は、図1に示されないコメント配信サーバから上記映像データに対して投稿されたコメントを受信し、これを演出条件判定部204へ送ってもよい。なお、配信サーバ200が、コメント配信サーバの機能を備える場合には、受信部201は配信者端末100または観客端末300から直接的にコメントを受信し、これを演出条件判定部204へ送り得る。 Furthermore, the receiving section 201 may receive information indicating that a predetermined user input has been made at the distributor terminal 100 or the spectator terminal 300 and send this to the effect condition determining section 204 . Further, the reception unit 201 may receive a comment posted on the video data from a comment distribution server (not shown in FIG. 1) and send it to the rendering condition determination unit 204 . If distribution server 200 has the function of a comment distribution server, reception unit 201 can directly receive comments from distributor terminal 100 or audience terminal 300 and send them to effect condition determination unit 204 .

時計部202は、日時を指示する。時計部202は、例えば、固定周波数で振動する水晶発振器と、その出力を分周して1Hzの信号を得る分周回路と、この信号をカウントして日時を示すシリアル値を得るカウンタとを含む。時計部202の指示する日時は、配信制御部203および演出条件判定部204によって参照され得る。 A clock unit 202 indicates the date and time. The clock unit 202 includes, for example, a crystal oscillator that oscillates at a fixed frequency, a frequency dividing circuit that divides the output of the oscillator to obtain a signal of 1 Hz, and a counter that counts this signal and obtains a serial value indicating the date and time. . The date and time indicated by the clock unit 202 can be referred to by the distribution control unit 203 and the effect condition determination unit 204 .

配信制御部203は、映像データの生配信を制御する。配信制御部203は、前述のプロセッサおよびメモリであってよい。
具体的には、配信制御部203は、時計部202の指示する日時と、映像データの生配信に割り当てられた時間枠とを比較し、映像データの生配信の開始および終了を管理する。また、配信制御部203は、観客端末300による配信要求を受信部201から受け取り、当該観客端末300へ映像データが配信されるように映像配信部208を制御する。なお、配信制御部203は、受け取った配信要求に基づいて、観客数の管理を行ってもよい。配信制御部203の管理する時間枠、観客数などの情報は、演出条件判定部204または演出データ作成部206によって参照され得る。
The distribution control unit 203 controls live distribution of video data. The delivery control unit 203 may be the aforementioned processor and memory.
Specifically, the distribution control unit 203 compares the date and time indicated by the clock unit 202 with the time frame assigned to the live distribution of the video data, and manages the start and end of the live distribution of the video data. The distribution control unit 203 also receives a distribution request from the spectator terminal 300 from the receiving unit 201 and controls the video distribution unit 208 so that the video data is distributed to the spectator terminal 300 . Note that the distribution control unit 203 may manage the number of spectators based on the received distribution request. Information such as the time frame and the number of spectators managed by the distribution control unit 203 can be referred to by the effect condition determination unit 204 or the effect data creation unit 206 .

演出条件判定部204は、受信部201から映像データを受け取り、演出条件記憶部205から当該映像データについての演出条件を読み出し、演出条件が満足しているか否かを判定する。演出条件判定部204は、演出条件が満足していると判定した場合には映像データを演出データ合成部207へ送り、そうでなければ映像データを映像配信部208へ送る。演出条件判定部204は、前述のプロセッサおよびメモリであってよい。 The effect condition determination unit 204 receives the video data from the reception unit 201, reads the effect conditions for the video data from the effect condition storage unit 205, and determines whether the effect conditions are satisfied. The effect condition determination unit 204 sends the video data to the effect data synthesizing unit 207 when determining that the effect condition is satisfied, and otherwise sends the video data to the video distribution unit 208 . The effect condition determination unit 204 may be the aforementioned processor and memory.

演出条件判定部204は、演出条件が満足しているか否かを判定するために、必要に応じて、時計部202の指示する日時、配信制御部203の管理する時間枠、観客数、受信部201によって受信された、コメント、配信者端末100または観客端末300において所定のユーザ入力があったことを示す情報、映像データの再生映像または再生音声、などを参照し得る。 In order to determine whether or not the rendering conditions are satisfied, the performance condition determination unit 204 uses the date and time indicated by the clock unit 202, the time frame managed by the distribution control unit 203, the number of spectators, and the receiving unit as necessary. Comments, information indicating that a predetermined user input has been made at the distributor terminal 100 or the spectator terminal 300, reproduced video or reproduced audio of video data, etc., received by 201 can be referred to.

ここで、演出条件は、例えば、オープニング演出、エンディング演出、または中間演出を付加するか否か判定するための基準である。具体的には、オープニング演出を付加するための演出条件(オープニング演出条件)は、映像データに割り当てられた時間枠の始まりに、または、この始まりから所定時間後に設定された演出開始地点に、時計部202の指示する日時が到達してから、演出終了条件が満足するまでの間に満足するように定められてもよい。 Here, the effect condition is, for example, a criterion for determining whether or not to add an opening effect, an ending effect, or an intermediate effect. Specifically, the effect condition for adding the opening effect (opening effect condition) is set at the beginning of the time frame assigned to the video data, or at the effect start point set after a predetermined time from the start. It may be determined to be satisfied in a period from the arrival of the date and time instructed by the unit 202 to the satisfaction of the rendering end condition.

オープニング演出条件は、映像データの観客数が所定の条件を満足してから演出終了条件が満足するまでの間に満足するように定められてもよい。ここでの条件は、例えば、観客数が所定数に達したことなどであり得る。 The opening effect condition may be determined so as to be satisfied during the period from when the number of spectators of the video data satisfies a predetermined condition to when the effect end condition is satisfied. The condition here can be, for example, that the number of spectators has reached a predetermined number.

オープニング演出条件は、配信者端末100または観客端末300において所定のユーザ入力があってから演出終了条件が満足するまでの間に満足するように定められてもよい。所定のユーザ入力は、例えば、配信者端末100に表示される、演出開始を指示するためのボタンなどのGUI(Graphical User Interface)部品を選択することであり得る。 The opening effect condition may be determined so as to be satisfied during a period from when a predetermined user input is made at the distributor terminal 100 or the spectator terminal 300 to when the effect end condition is satisfied. The predetermined user input may be, for example, selection of a GUI (Graphical User Interface) part such as a button for instructing the start of a presentation displayed on the distributor terminal 100 .

オープニング演出条件は、映像データに対して投稿されたコメントが所定の条件を満足してから演出終了条件が満足するまでの間に満足するように定められてもよい。ここでの条件は、例えば、コメント数が所定数に達したこと、特定のキーワードを含むコメント数が所定数に達したこと、レアワードを含むコメントがあったことなどであり得る。 The opening effect condition may be determined so as to be satisfied after the comment posted to the video data satisfies a predetermined condition until the effect end condition is satisfied. The conditions here can be, for example, that the number of comments has reached a predetermined number, that the number of comments that include a specific keyword has reached a predetermined number, that there is a comment that includes a rare word, or the like.

オープニング演出条件は、映像データの再生映像または再生音声が所定の条件を満足してから演出終了条件が満足するまでの間に満足するように定められてもよい。ここでの条件は、再生映像から例えば配信者が所定のジェスチャまたは表情を採ったことが認識されたこと、再生音声から例えば配信者が所定のフレーズを発話したことが認識されたこと、などであり得る。 The opening effect condition may be determined so as to be satisfied during a period from when the reproduced video or reproduced sound of the video data satisfies a predetermined condition to when the effect end condition is satisfied. The conditions here are, for example, that it is recognized from the reproduced video that the distributor has taken a predetermined gesture or facial expression, that from the reproduced voice that the distributor has uttered a predetermined phrase, and the like. could be.

オープニング演出の演出終了条件は、例えば、演出開始から所定時間が経過した時、観客数またはコメント数が必要数に達した時、または配信者端末100若しくは観客端末300に所定のユーザ入力があった時、映像データの再生映像から例えば配信者が所定のジェスチャまたは表情を採ったことが認識された時、再生音声から例えば配信者が所定のフレーズを発話したことが認識された時、などに満足するように定められてよい。 The condition for ending the opening effect is, for example, when a predetermined time has passed since the start of the effect, when the number of spectators or the number of comments reaches a required number, or when there is a predetermined user input to the distributor terminal 100 or the spectator terminal 300. Satisfaction is satisfied when, for example, it is recognized from the reproduced image that the distributor has taken a predetermined gesture or facial expression from the reproduced video data, or when it is recognized from the reproduced voice that the distributor has uttered a predetermined phrase, for example. may be defined to

時間枠の始まりからずれた地点からオープニング演出を開始することにより、生配信の開始直後は映像データがそのまま配信され、観客がある程度集まった頃合いにオープニング演出が始まり、生番組の本編への観客の期待を高めて継続して視聴する動機付けをすることができる。他方、時間枠の始まりと一致またはこれに近い地点からオープニング演出を開始することにより、最初期の観客が、オープニング演出を待てず離れてしまうのを防ぐことができる。 By starting the opening performance from a point shifted from the beginning of the time frame, the video data is delivered as it is immediately after the start of the live distribution, and the opening performance starts when the audience has gathered to a certain extent, and the audience to the main part of the live program. It is possible to motivate continuous viewing by raising expectations of. On the other hand, by starting the opening effect from a point that coincides with or is close to the start of the time frame, it is possible to prevent the earliest spectators from leaving without waiting for the opening effect.

また、エンディング演出を付加するための演出条件(エンディング演出条件)は、映像データに割り当てられた時間枠の終わりから所定時間前に設定された演出開始地点に、時計部202の指示する日時が到達してから、演出終了条件が満足するまでの間に満足するように定められてもよい。その他、エンディング演出条件は、前述したオープニング演出条件と同様に定められ得る。 In addition, the effect condition for adding the ending effect (ending effect condition) is that the date and time indicated by the clock unit 202 reaches the effect start point set a predetermined time before the end of the time frame assigned to the video data. It may be determined to be satisfied during the period from when the production end condition is satisfied until the condition is satisfied. In addition, the ending effect condition can be determined in the same manner as the opening effect condition described above.

エンディング演出の演出終了条件は、オープニング演出の演出終了条件と同様であってもよいし、映像データに割り当てられた時間枠の終わりに時計部202の指示する日時が達した時に満足するように定められてもよい。 The rendering termination condition for the ending rendering may be the same as the rendering termination condition for the opening rendering, or is determined to be satisfied when the date and time indicated by the clock unit 202 reaches the end of the time frame assigned to the video data. may be

中間演出は、例えば、映像データに割り当てられた時間枠の途中で、例えばファンファーレなどの演出映像、映像データにリプレイ映像またはスローモーション再生映像を合成することで実現されてもよい。リプレイ映像またはスローモーション再生映像は、直前の映像を対象としてもよいがこれに限られない。また、生番組がマルチカメラで撮影されている場合には、別視点の映像を合成し、或いは視点の切り替えを行ってもよい。 Intermediate effects may be realized, for example, by synthesizing effect images such as fanfare, and replay images or slow-motion playback images with the image data in the middle of the time frame assigned to the image data. The replay video or slow-motion playback video may be the previous video, but is not limited to this. Also, when a live program is shot with a multi-camera, images from different viewpoints may be synthesized or viewpoints may be switched.

中間演出を付加するための演出条件(中間演出条件)は、映像データに割り当てられた時間枠の始まりから所定時間後に設定された演出開始地点に、時計部202の指示する日時が到達してから、演出終了条件が満足するまでの間に満足するように定められてもよい。また、中間演出条件は、生番組に付与された広告や商品紹介を配信者または観客がクリックした場合または、広告や商品紹介の対象となった商品を配信者または観客が購入した場合に、その購入の所定時間後から演出終了条件が満足するまでの間に満足するように定められてもよい。ここで、広告や商品紹介は、例えば配信者端末100または観客端末300において、生番組の表示ページ内、または当該表示ページから遷移可能なページで表示され得る。その他、中間演出条件は、前述したオープニング演出条件と同様に定められ得る。また、中間演出の演出終了条件は、オープニング演出の演出終了条件と同様であってもよい。 The effect condition for adding the intermediate effect (intermediate effect condition) is set after the date and time indicated by the clock unit 202 reaches the effect start point set after a predetermined time from the start of the time frame assigned to the video data. , may be determined to be satisfied until the rendering end condition is satisfied. In addition, if the distributor or spectator clicks on the advertisement or product introduction given to the live program, or if the distributor or spectator purchases the product targeted by the advertisement or product introduction, the intermediate performance condition will be It may be determined to be satisfied during a predetermined period of time after the purchase until the performance end condition is satisfied. Here, advertisements and product introductions can be displayed, for example, in the display page of the live program on the distributor terminal 100 or the audience terminal 300, or on a page accessible from the display page. In addition, the intermediate effect condition can be determined in the same manner as the opening effect condition described above. Also, the effect ending condition for the intermediate effect may be the same as the effect ending condition for the opening effect.

例えば、映像データの観客数、または映像データに対して投稿されたコメント数が急上昇した時に、ファンファーレの映像を合成する中間演出が開始するようにしてもよい。また、例えば「リプレイ」、「スロー」、「もう1回」などの特定のキーワードを含むコメントが映像データに対して所定時間内に所定数以上投稿された時に、リプレイ映像またはスローモーション再生映像を合成する中間演出が開始するようにしてもよい。 For example, when the number of spectators of the video data or the number of comments posted on the video data rises sharply, an intermediate effect of synthesizing a fanfare video may be started. Also, for example, when more than a predetermined number of comments including specific keywords such as "replay", "slow", and "one more time" are posted to the video data within a predetermined time, the replay video or slow motion playback video is displayed. An intermediate effect to be synthesized may be started.

演出条件記憶部205は、前述の種々の演出条件を格納する。演出条件記憶部205に格納された演出条件は、演出条件判定部204および演出データ作成部206によって必要に応じて読み出される。演出条件記憶部205は、前述の補助記憶装置であってもよいし、当該補助記憶装置とのインターフェースであってもよい。 The effect condition storage unit 205 stores various effect conditions described above. The effect conditions stored in the effect condition storage unit 205 are read by the effect condition determination unit 204 and the effect data creation unit 206 as necessary. The rendering condition storage unit 205 may be the aforementioned auxiliary storage device, or may be an interface with the auxiliary storage device.

演出データ作成部206は、演出データを作成し、演出データ合成部207へ送る。演出データ作成部206は、前述のプロセッサおよびメモリであってよい。
演出データは、動的な演出データと静的な演出データとに大別することができる。静的な演出データは、映像データの内容に左右されない固定の動画データまたは静止画データであり得る。固定の動画データは、例えば、生配信対象の映像データの再生映像をはめ込むための領域を有する、様々なアニメーションまたは実写映像であってもよい。固定の静止画データは、例えば、映像データの再生映像の画面端を装飾する枠、映像データの再生映像の覆うオブジェクトなどであってもよい。なお、後述する動的な演出データを利用しない場合には、静的な演出データをプリセットしておくことにより、演出データ作成部206を省略することができる。
The effect data creating unit 206 creates effect data and sends it to the effect data synthesizing unit 207 . The effect data creation unit 206 may be the aforementioned processor and memory.
Effect data can be broadly classified into dynamic effect data and static effect data. Static effect data can be fixed moving image data or still image data that is not affected by the contents of video data. Fixed video data may be, for example, various animations or live-action videos with areas for embedding playback video of the video data to be live-distributed. The fixed still image data may be, for example, a frame that decorates the edge of the screen of the reproduced video of the video data, an object that covers the reproduced video of the video data, or the like. If dynamic effect data, which will be described later, is not used, the effect data creation unit 206 can be omitted by presetting static effect data.

動的な演出データは、例えば、演出終了条件が満足するための必要条件を動的に示す情報を含む動画データまたは静止画データであってもよいし、映像データの生配信が開始された後に生じた事象に関する情報を含む動画データまたは静止画データであってもよいし、生配信の対象となる映像データのリプレイ映像またはスローモーション再生映像であってもよいし、別視点の映像であってもよいし、例えば動画タイトル、クレジットタイトル、配信者コメントまたは説明文などを含む動画データまたは静止画データであってもよい。かかる情報は、配信者、観客もしくはサービス運営者が生配信の開始前に入力した情報、または配信サーバ200またはその他のサーバにより自動的に付与された情報から抽出され得る。例えば、演出データは、生番組に対して付与されたキーワードである動画タグ、または生番組に対して付与されたスポンサー名、などのメタデータから自動的に生成される情報、例えば、番組カテゴリ、URL(Uniform Resource Locator)、などを含む動画データまたは静止画データであってもよい。ここで、動画タグおよびスポンサー名は、配信者、観客またはサービス運営者により人力で付与されることもあり得るし、配信サーバ200またはその他のサーバにより自動的に付与されることもあり得る。 The dynamic rendering data may be, for example, moving image data or still image data including information dynamically indicating the necessary conditions for satisfying the rendering end condition, or may be dynamic image data or still image data after live distribution of the video data is started. It may be video data or still image data containing information about an event that occurred, replay video or slow-motion playback video of video data to be distributed live, or video from another viewpoint. Alternatively, it may be moving image data or still image data including, for example, moving image titles, credit titles, distributor's comments or explanations. Such information may be extracted from information entered by the broadcaster, audience, or service operator prior to the start of the live broadcast, or information automatically provided by broadcast server 200 or other servers. For example, production data is information automatically generated from metadata such as video tags, which are keywords assigned to live programs, or sponsor names assigned to live programs. It may be moving image data or still image data including a URL (Uniform Resource Locator). Here, the video tag and sponsor name may be manually assigned by the distributor, spectator or service operator, or may be automatically assigned by the distribution server 200 or another server.

さらに、動的な演出データは、生番組に関連するウェブページに表示される情報に基づいて自動的に生成されてもよい。例えば、動画像共有サービスのフロントページなどの番組紹介ページでは、現在公開中の多数の生番組のサムネイルが並べて表示されることがある。そして、かかる番組紹介ページでは、サムネイルの周辺に、例えば「人気上昇中」などの生番組に関する補足情報が表示されることがある。かかる補足情報が付与されたサムネイルに対応する生番組には、当該補足情報そのものまたは当該補足情報から抽出・加工された情報を含む演出データが適用されてもよいし、適用される演出データが当該補足情報に依存して切り替えられてもよい。例えば、補足情報から抽出された情報に基づいて自動的に編集された番組タイトル、補足情報から抽出されたスポンサー名、などが演出データに含まれてもよい。 Additionally, dynamic rendition data may be automatically generated based on information displayed on web pages related to live programming. For example, on a program introduction page such as the front page of a moving image sharing service, thumbnails of many live programs that are currently open to the public may be displayed side by side. In such a program introduction page, supplementary information about the live program such as "rising popularity" may be displayed around the thumbnail. To the live program corresponding to the thumbnail to which such supplementary information is attached, the supplementary information itself or effect data including information extracted and processed from the supplemental information may be applied, or the effect data to be applied may be applied to the thumbnail. It may be switched depending on the supplementary information. For example, the effect data may include a program title automatically edited based on information extracted from the supplementary information, a sponsor name extracted from the supplementary information, and the like.

具体的には、演出データ作成部206は、演出終了条件が満足するための必要条件として、映像データの現在の観客数またはコメント数と必要数とのギャップを、例えばカウントダウン形式で示す情報、例えば「あと○○人」、「あと○○コメント」などのテキストを含む演出データを作成してもよい。映像データの現在の観客数またはコメント数の情報は、例えば配信制御部203から取得することができる。また、演出終了条件が満足するために必要な観客数またはコメント数の情報は、例えば演出条件記憶部205から取得することができる。かかる情報が表示されることで、観客は、生番組の本編開始までの目安時間を把握し、それまで待てるかどうか、また、離席してよいのかどうかの判断をすることができる。 Specifically, the effect data creation unit 206, as a necessary condition for satisfying the effect end condition, indicates the gap between the current number of spectators or the number of comments in the video data and the required number, for example, in a countdown format. Effect data including texts such as "more XX people" and "more XX comments" may be created. Information on the current number of spectators or the number of comments for video data can be obtained from the distribution control unit 203, for example. Information on the number of spectators or the number of comments required to satisfy the rendering end condition can be obtained from the rendering condition storage unit 205, for example. By displaying such information, the audience can grasp the estimated time until the main part of the live program starts, and can decide whether or not they can wait until then and whether or not they can leave their seats.

また、演出データ作成部206は、映像データの生配信が開始された後に生じた事象に関する情報として、例えば映像データの観客数、映像データに対して投稿されたコメントの一部(例えばダイジェスト)、映像データに対して投稿されたコメント数、および映像データに対してコメントを投稿した観客名、生番組に付与された広告や商品紹介のクリック数、広告や商品紹介から購入された商品に関する情報(例えば商品の名称、購入数、購入総額、写真、購入者情報など)、などを示す情報を含む演出データを作成してもよい。かかる情報を例えばエンドロールとして用いることで、個々の映像データの生配信の態様にふさわしいエンディング演出が可能となる。 In addition, the effect data creation unit 206 includes, as information related to events occurring after the start of live distribution of the video data, for example, the number of spectators of the video data, part of comments posted on the video data (eg, digest), Number of comments posted on video data, names of spectators who posted comments on video data, number of clicks on advertisements and product introductions given to live programs, information on products purchased from advertisements and product introductions ( For example, production data including information indicating product name, number of purchases, total purchase price, photograph, purchaser information, etc.) may be created. By using such information as, for example, the end credits, it is possible to produce an ending effect suitable for the mode of live distribution of individual video data.

また、演出データ作成部206は、配信者端末100または観客端末300になされたユーザ入力、または配信者端末100または観客端末300によって投稿されたコメントに反応して変化する演出データを作成してもよい。例えば、演出データは、映像データの再生映像の画面を遮るオブジェクト(例えば、紙吹雪、拍手を意味する「8」のシンボル、花束、ハートマーク、雲、人垣、配信者の設定したアイコン、動画像共有サービスのマスコットキャラクターなど)を含んでいてもよい。 Moreover, the effect data creation unit 206 may create effect data that changes in response to a user input made to the distributor terminal 100 or the spectator terminal 300 or a comment posted by the distributor terminal 100 or the spectator terminal 300. good. For example, the production data includes objects that block the screen of the playback video of the video data (for example, confetti, a symbol of "8" meaning applause, a bouquet, a heart mark, a cloud, a crowd of people, an icon set by the distributor, a moving image, etc.). mascot characters of shared services).

この場合に、演出データ作成部206は、演出開始時に、画面全体にかかるオブジェクトが敷き詰められた演出データを作成し、配信者端末100または観客端末300に所定のユーザ入力(例えばオブジェクト、またはボタンなどのGUIの選択)またはコメント投稿がなされると、オブジェクトを消滅、移動、縮小させるなどして徐々に映像データの再生映像の画面が見えるようにしてもよい。逆に、演出データ作成部206は、演出開始時に、オブジェクトを零または少数含む演出データを作成し、配信者端末100または観客端末300に所定のユーザ入力(例えばオブジェクト、またはボタンなどのGUIの選択)、またはコメント投稿がなされると、オブジェクトを出現、移動、拡大させるなどして徐々に映像データの再生映像の画面が見えなくなるようにしてもよい。 In this case, the effect data creating unit 206 creates effect data in which the entire screen is covered with objects at the start of the effect, and the distributor terminal 100 or the spectator terminal 300 receives a predetermined user input (for example, an object or a button). (selection of GUI) or a comment is posted, the object may be erased, moved, or reduced in size so that the screen of the reproduced video of the video data can be gradually seen. Conversely, the effect data creation unit 206 creates effect data including zero or a small number of objects at the start of the effect, and performs predetermined user input (for example, selection of a GUI such as an object or a button) to the distributor terminal 100 or the spectator terminal 300 . ), or when a comment is posted, the object may appear, move, or enlarge so that the screen of the reproduced video of the video data gradually disappears.

徐々に映像データの再生映像の画面が見えるようにする演出は、オープニングに適しているがこれに限定されるものではない。徐々に映像データの再生映像の画面が見えなくなる演出は、エンディングに適しているがこれに限定されるものではない。 The effect of gradually showing the screen of the reproduced video of the video data is suitable for the opening, but is not limited to this. An effect in which the screen of the reproduced image of the video data gradually disappears is suitable for the ending, but is not limited to this.

なお、オブジェクトの状態が全端末間で完全に同期していなかったとしても、生番組の本編の視聴体験には影響しないので、同期を行う頻度を減らしてサーバの負荷を軽減してもよい。 Note that even if the object states are not completely synchronized among all the terminals, the viewing experience of the main part of the live program is not affected, so the frequency of synchronization may be reduced to reduce the load on the server.

また、この例において、演出終了条件がオブジェクトの数、大きさ、位置などによって定められてもよい。この場合に、配信者および観客は、合成映像データの再生映像に含まれるオブジェクトの状態から演出終了条件が満足するための必要条件、例えばあとどれくらいオブジェクトを減らす必要があるのか、あとどれくらいオブジェクトを増やす必要があるのかを把握し得る。故に、かかるオブジェクトもまた、演出終了条件が満足するための必要条件を動的に示す情報の一例に相当する。 Also, in this example, the rendering end condition may be determined by the number, size, position, or the like of the objects. In this case, the distributor and the audience determine the necessary conditions for satisfying the rendering end condition from the state of the objects included in the reproduced video of the composite video data, for example, how many more objects need to be reduced, how much more objects need to be increased, and so on. You can figure out what you need. Therefore, such an object also corresponds to an example of information dynamically indicating a necessary condition for satisfying the rendering end condition.

演出データ合成部207は、演出条件判定部204から映像データを受け取り、演出データ作成部206から演出データを受け取る。演出データ合成部207は、映像データに演出データを合成し、合成映像データを生成する。演出データ合成部207は、例えば、アルファブレンド、ピクチャーインピクチャーなどの公知の技法を用いて、映像データに演出データを合成してもよい。演出データ合成部207は、合成映像データを映像配信部208へ送る。演出データ合成部207は、前述のプロセッサおよびメモリであってよい。なお、合成に用いられる演出データの種類は、所定のアルゴリズムにより自動的に決定されてもよいし、配信者および/または観客のユーザ入力情報により決定されてもよいし、両者の組み合わせにより決定されてもよい。例えば、生番組に付与された広告や商品紹介のクリック数、広告や商品紹介から購入された商品に関する情報、例えば商品の購入数、購入総額など、の情報により、エンディング演出に用いられる演出データが切り替えられてもよい。 The effect data synthesis unit 207 receives video data from the effect condition determination unit 204 and receives effect data from the effect data creation unit 206 . The effect data synthesizing unit 207 synthesizes the effect data with the video data to generate synthesized video data. The rendering data synthesizing unit 207 may synthesize rendering data with video data using known techniques such as alpha blending and picture-in-picture. Effect data synthesizing section 207 sends the synthetic video data to video distribution section 208 . The effect data synthesizing unit 207 may be the aforementioned processor and memory. The type of effect data used for synthesis may be automatically determined by a predetermined algorithm, may be determined by user input information from the distributor and/or the audience, or may be determined by a combination of both. may For example, the number of clicks on advertisements and product introductions given to live programs, information on products purchased from advertisements and product introductions, such as the number of products purchased, the total purchase amount, etc. may be switched.

演出データ合成部207は、例えば、映像データの再生映像の画面の一部または全部をリサイズして、または画面の一部をトリミングして演出データと合成してもよいし、映像データの再生映像の画面の一部が露出し、残部が隠れるように映像データを演出データと合成してもよい。図3に映像データを例示し、図4乃至図7に合成映像データを例示する。 For example, the effect data synthesizing unit 207 may resize a part or all of the screen of the reproduced video of the video data, or trim a part of the screen and synthesize it with the effect data, or may combine the reproduced video of the video data. The image data may be combined with the effect data such that a part of the screen is exposed and the rest is hidden. FIG. 3 illustrates video data, and FIGS. 4 to 7 illustrate composite video data.

演出データ合成部207は、図4に例示されるように、図3の映像データの再生映像の画面の一部(例えば、配信者の顔領域)および全部をそれぞれ小さくリサイズして、演出データとしての動画データまたは静止画データにはめ込んでもよい。また、図4の例では、クレジットタイトルとして、「出演 ○○○」のテキストが演出データに含まれている。このように、映像データの再生映像の画面の全部を小さくリサイズしてから演出データと合成することで、画面が演出データによってマスクされないようにすることができる。故に、配信者が観客に見せたい部分が演出データによって隠されてしまうハプニングを防ぐことができる。他方、映像データの再生映像の画面の全部ではなく一部を小さく、または大きくリサイズしてから演出データと合成すれば、配信者が観客に見せたい部分を過度に縮小しないように、或いはより強調することができる。画面の一部は、例えば画面の中心に近い領域など静的な領域であってもよいし、配信者の顔がある領域、動きの大きい領域など動的な領域であってもよい。動的な領域を抽出する場合には、例えば、公知の顔認識技術、動体検出技術などが利用されてよい。 As illustrated in FIG. 4, the effect data synthesizing unit 207 resizes a part (for example, the distributor's face area) and the entire screen of the reproduced video of the video data in FIG. may be embedded in moving image data or still image data. In addition, in the example of FIG. 4, the effect data includes the text "Appearance XX" as the credit title. In this way, by resizing the entire screen of the reproduced image of the video data and combining it with the effect data, it is possible to prevent the screen from being masked by the effect data. Therefore, it is possible to prevent the occurrence that the part that the distributor wants to show to the audience is hidden by the effect data. On the other hand, by resizing a part of the screen of the reproduced video of the video data rather than the whole screen to a smaller size or a larger size and then synthesizing it with the performance data, the part that the distributor wants to show to the audience is not excessively reduced or emphasized. can do. The part of the screen may be a static area, such as an area near the center of the screen, or a dynamic area, such as an area where the face of the broadcaster is present or an area with large movements. When extracting a dynamic area, for example, known face recognition technology, moving object detection technology, or the like may be used.

このように、映像データの再生映像の画面のリサイズを行ってから演出データと合成することで、配信者および観客に、生番組の本編とは異なる特別な演出が付加されていることを意識させることができる。 In this way, by resizing the screen of the reproduced video of the video data and then synthesizing it with the effect data, the distributor and the audience are made aware that a special effect different from the main part of the live program is added. be able to.

演出データ合成部207は、図5および図6に例示されるように、図3の映像データに演出データを合成し、映像データの再生映像の画面を遮るオブジェクトが合成された合成映像データを生成してもよい。図5の例では、演出開始時には、画面一杯にテレビをモチーフとするマスコットキャラクターのシルエットのオブジェクトが敷き詰められており、観客(および配信者)がこのオブジェクトを例えばタップしていくことで、オブジェクトが徐々に消え去り、演出が完了する。また、図6の例では、演出開始時には、画面下部に「8」のシンボルが少数積もった状態、または積もっていない状態であり、観客(および配信者)が例えば画面をタップ、または「8」のコメントを投稿することで、このオブジェクトが徐々に積もっていき、演出が完了する。なお、図5および図6の演出において、ユーザ入力が全くない場合にも時間経過に応じて、オブジェクトが自動的に消え去り、またはオブジェクトが自動的に積もるようにしてもよい。 As illustrated in FIGS. 5 and 6, the effect data synthesizing unit 207 synthesizes the effect data with the video data of FIG. 3, and generates synthesized video data in which an object blocking the screen of the reproduced video of the video data is synthesized. You may In the example of FIG. 5, at the start of the production, the entire screen is filled with mascot character silhouette objects with a TV motif. It gradually disappears and the production is completed. Also, in the example of FIG. 6, at the start of the presentation, a small number of "8" symbols are piled up at the bottom of the screen, or they are not piled up. By posting a comment, this object gradually accumulates and the production is completed. 5 and 6, objects may automatically disappear or may automatically pile up over time even if there is no user input.

演出データ合成部207は、図7に例示されるように、図3の映像データの再生映像の画面の全部を小さくリサイズしてから、エンドロールを表示するための領域を含む演出データを合成してもよい。図7の例では、図3の映像データの観客数、コメント投稿した観客名などの情報がエンドロールの一部として表示される。なお、図7の例は、エンディング演出に限られず、例えば生配信の前半部分を締めくくるための中間演出として適用されてもよい。 As illustrated in FIG. 7, the effect data synthesizing unit 207 resizes the entire screen of the reproduced video of the video data in FIG. good too. In the example of FIG. 7, information such as the number of spectators in the video data of FIG. 3 and the names of spectators who posted comments is displayed as part of the end credits. Note that the example of FIG. 7 is not limited to the ending effect, and may be applied as an intermediate effect for concluding the first half of the live distribution, for example.

映像配信部208は、演出条件判定部204からの映像データ、または演出データ合成部207からの合成映像データを受け取り、これを配信者端末100および観客端末300へ配信する。映像配信部208は、例えば映像データの配信先などを配信制御部203によって制御される。映像配信部208は、前述の通信装置であってもよいし、当該通信装置とのインターフェースであってもよい。 The video distribution unit 208 receives the video data from the effect condition determination unit 204 or the composite video data from the effect data synthesis unit 207 and distributes it to the distributor terminal 100 and the audience terminal 300 . The video distribution unit 208 is controlled by the distribution control unit 203, for example, the distribution destination of the video data. The video distribution unit 208 may be the communication device described above, or may be an interface with the communication device.

なお、映像配信部208は、配信済みの映像データ(または合成映像データ)を直ちに破棄してもよいが、例えば前述のリプレイまたはスローモーション再生を伴う演出を可能とするために所定期間バッファリングしておき、演出データ作成部206による参照を許容してもよい。 Note that the video distribution unit 208 may immediately discard the distributed video data (or composite video data), but buffers it for a predetermined period of time in order to enable the replay or slow-motion reproduction described above, for example. , and may be allowed to be referenced by the effect data creation unit 206 .

次に図8を用いて、配信サーバ200の動作例を説明する。図8の動作は、例えば映像データに割り当てられた時間枠の始まりと共に開始する。図8の動作が開始すると、処理はステップS401へ進む。 Next, an operation example of the distribution server 200 will be described with reference to FIG. The operation of FIG. 8 begins, for example, with the beginning of the time frame assigned to the video data. When the operation of FIG. 8 starts, the process proceeds to step S401.

ステップS401において、受信部201は配信者端末100から生配信用の映像データを受信する。演出条件判定部204は、ステップS401において受信された映像データについて予め定められた演出条件が満足するか否かを判定する(ステップS402)。演出条件が満足すれば処理はステップS403へ進み、そうでなければ処理はステップS405へ進む。 In step S<b>401 , the receiving unit 201 receives video data for live distribution from the distributor terminal 100 . The rendering condition determination unit 204 determines whether predetermined rendering conditions are satisfied for the video data received in step S401 (step S402). If the effect condition is satisfied, the process proceeds to step S403, otherwise the process proceeds to step S405.

ステップS403において、演出データ合成部207は、ステップS401において受信された映像データを演出データと合成する。なお、演出データ合成部207は、映像データの再生映像のリサイズ、トリミングなどの加工を必要に応じて行ってから、演出データと合成してもよい。そして、映像配信部208は、ステップS403において生成された合成映像データを観客端末300へ配信する(ステップS404)。他方、ステップS405において、映像配信部208は、ステップS401において受信された映像データを観客端末300へ配信する。 In step S403, the effect data synthesizing unit 207 synthesizes the video data received in step S401 with the effect data. Note that the effect data synthesizing unit 207 may perform processing such as resizing and trimming of the reproduced image of the video data as necessary, and then synthesize it with the effect data. Then, the video distribution unit 208 distributes the synthesized video data generated in step S403 to the spectator terminal 300 (step S404). On the other hand, in step S<b>405 , the video distribution unit 208 distributes the video data received in step S<b>401 to the spectator terminal 300 .

ステップS404またはステップS405の終了時に、時計部202の指示する日時が、生配信対象の映像データに割り当てられた時間枠の終わりに達していたならば図8の動作は終了し、そうでなければ処理はステップS401に戻る(ステップS406)。 At the end of step S404 or step S405, if the date and time indicated by the clock unit 202 has reached the end of the time frame assigned to the video data to be live-distributed, the operation of FIG. 8 ends; The process returns to step S401 (step S406).

以上説明したように、第1の実施形態に係る配信サーバは、生配信用の映像データに対して演出データを条件付きで自動合成する。これにより、配信者は、高度な動画編集スキルやリソースを必要とすることなく、例えばオープニング演出、エンディング演出、中間演出などが付加されテレビ番組風に体裁の整った動画を容易に生配信することができる。 As described above, the distribution server according to the first embodiment conditionally and automatically synthesizes effect data with video data for live distribution. As a result, distributors do not need advanced video editing skills or resources, and can easily live-distribute videos that are well-formed like TV programs, with additions such as opening effects, ending effects, and intermediate effects. can be done.

特に、オープニング演出を付加することにより、配信者および観客に生番組の始まりを意識させ、配信者がマイクテスト、休憩を取るなどして準備を整えたり、生番組の本編に入る前にコメントを介して観客とコミュニケーションを取ったり、観客に間延び感をあまり感じさせずることなく生番組の本編の開始を待ってもらったりすることができる。 In particular, by adding an opening performance, the broadcaster and the audience are made aware of the beginning of the live program, and the broadcaster prepares for the live program by taking a mic test and taking a break, and comments before the main part of the live program. It is possible to communicate with the audience via the program, or to have the audience wait for the start of the main part of the live program without feeling too slow.

また、エンディング演出を付加することにより、配信者および観客に生番組の終わりを意識させ、配信者がまとめに入ったり、次回予告を行ったり、観客とコメントを介してコミュニケーションを取ったりするなどの時間を取りやすくなる。 In addition, by adding an ending effect, the distributor and the audience are made aware of the end of the live program, and the distributor enters the summary, makes a notice for the next time, communicates with the audience through comments, etc. Makes it easier to take time.

さらに、中間演出として、盛り上がった場面でファンファーレなどの配信者を鼓舞する映像効果を加えたり、決定的瞬間のリプレイ、スローモーション再生を可能としたりすることで、生配信において利用可能な表現の幅を広げることができる。 In addition, as an intermediate production, the range of expressions that can be used in live distribution is expanded by adding visual effects such as fanfare to inspire the distributor in exciting scenes, replaying decisive moments, and slow motion playback. can be expanded.

(第2の実施形態)
第2の実施形態に係る配信サーバは、生配信用の映像データおよび演出データをどのように合成するかを配信者および/または観客が指定することができる。具体的には、どのようなレイアウト(位置合わせ)で両者を合成するか、すなわち一方または両方をどれだけ平行移動させるかを指定したり、一方または両方に対する回転、反転、リサイズおよび/またはトリミングの設定を指定したりすることが可能である。
(Second embodiment)
The distribution server according to the second embodiment allows the distributor and/or the audience to specify how the live distribution video data and effect data are to be synthesized. Specifically, you can specify what layout (alignment) to merge the two, that is, how much to translate one or both, and how to rotate, flip, resize, and/or trim one or both. It is possible to specify settings.

図9に第2の実施形態に係る配信サーバ500が例示される。以降の説明では、配信サーバ500と配信サーバ200との相違点を中心に述べる。配信サーバ500は、映像データの生配信に割り当てられた時間枠に亘って、配信者端末100から逐次送信される、エンコード済みの映像データを受信する。配信サーバ500は、演出条件が満足されている時には、映像データに演出データを配信者および/または観客の指定に従って合成し、合成映像データを配信者端末100および観客端末300へ配信する。ここで、演出条件は、第1の実施形態において説明した演出条件と同一または類似であり得る。 FIG. 9 illustrates a distribution server 500 according to the second embodiment. In the following description, the points of difference between the distribution server 500 and the distribution server 200 will be mainly described. The distribution server 500 receives the encoded video data sequentially transmitted from the distributor terminal 100 over the time frame assigned to the live distribution of the video data. When the performance condition is satisfied, the distribution server 500 synthesizes the performance data with the video data according to the specification of the distributor and/or the audience, and distributes the synthesized video data to the distributor terminal 100 and the audience terminal 300. - 特許庁Here, the rendering conditions may be the same as or similar to the rendering conditions described in the first embodiment.

配信サーバ500がこのような演出データの自動合成を配信者および/または観客の指定に従って行うことで、第1の実施形態において説明した、オープニング演出、エンディング演出または中間演出の表現の幅をさらに広げることができる。例えば、映像データを演出データに対してはめ込み合成する場合に、より自然に見えるようにしたり、敢えて不自然に見えるようにしたりすることが可能となる。 By having the distribution server 500 perform such automatic synthesizing of effect data in accordance with the specifications of the distributor and/or the audience, the range of expression of the opening effect, ending effect, or intermediate effect described in the first embodiment can be further expanded. be able to. For example, when video data is embedded into rendering data and combined, it is possible to make the data look more natural or deliberately make it look unnatural.

以下、配信サーバ500の機能的構成について図9を用いて説明する。なお、配信サーバ500のハードウェア構成は、配信サーバ200と同一または類似であり得るのでこれに関する説明を省略する。 The functional configuration of distribution server 500 will be described below with reference to FIG. Note that the hardware configuration of the distribution server 500 may be the same as or similar to that of the distribution server 200, so the description thereof will be omitted.

配信サーバ500は、受信部501と、時計部502と、配信制御部503と、演出条件判定部504と、演出条件記憶部505と、演出データ作成部506と、演出データ合成部507と、映像配信部508とを含む。このうち、時計部502、配信制御部503、演出条件記憶部505、演出データ作成部506および映像配信部508は、それぞれ配信サーバ200における同名の要素と同一または類似であり得る。以下、その他の要素について、配信サーバ200における同名の要素との相違点を中心に説明する。 The distribution server 500 includes a reception unit 501, a clock unit 502, a distribution control unit 503, an effect condition determination unit 504, an effect condition storage unit 505, an effect data creation unit 506, an effect data synthesis unit 507, an image and a distribution unit 508 . Of these, the clock unit 502, the distribution control unit 503, the effect condition storage unit 505, the effect data creation unit 506, and the video distribution unit 508 may be the same as or similar to the same-named elements in the distribution server 200, respectively. Other elements will be described below, focusing on differences from the same-named elements in the distribution server 200 .

受信部501は、受信部201によって受信されるデータに加えて、配信者端末100および/または観客端末300から指定データを受信し得る。この指定データは、生配信用の映像データおよび演出データをどのように合成するかを指定する。具体的には、指定データは、映像データおよび演出データの合成位置、映像データの拡大/縮小率、演出データの拡大/縮小率、映像データの回転量、演出データの回転量、映像データにおける特定の領域、ならびに演出データにおける特定の領域、などを指定し得る。受信部501は、この指定データを演出条件判定部504へ送る。 The receiving unit 501 can receive specified data from the distributor terminal 100 and/or the audience terminal 300 in addition to the data received by the receiving unit 201 . This designation data designates how the video data for live distribution and the effect data are synthesized. Specifically, the specified data includes the combining position of the video data and the effect data, the enlargement/reduction ratio of the video data, the enlargement/reduction ratio of the effect data, the amount of rotation of the image data, the amount of rotation of the effect data, and the specified data in the image data. , as well as specific areas in the rendering data, and the like. The receiving unit 501 sends this designated data to the effect condition determining unit 504 .

演出条件判定部504は、演出条件が満足している場合に、映像データに加えて指定データを演出データ合成部507へ送る。なお、配信者および観客が生配信用の映像データおよび演出データをどのように合成するかを特に指定しなければ、指定データが存在しないこともあり得る。 The effect condition determination unit 504 sends specified data to the effect data synthesizing unit 507 in addition to the video data when the effect condition is satisfied. If the distributor and the audience do not specify how to synthesize the video data for live distribution and the rendering data, there may be no designated data.

演出データ合成部507は、演出条件判定部504から映像データおよび指定データを受け取り、演出データ作成部506から演出データを受け取る。演出データ合成部507は、指定データに従って映像データおよび/または演出データに前処理を行ってから両者を合成し、合成映像データを生成する。 The effect data synthesizing unit 507 receives the video data and the specified data from the effect condition determining unit 504 and receives the effect data from the effect data creating unit 506 . The effect data synthesizing unit 507 pre-processes the video data and/or the effect data in accordance with the specified data, and then synthesizes both to generate synthesized video data.

具体的には、指定データが映像データおよび演出データの合成位置を指定する場合に、演出データ合成部507は、映像データおよび/または演出データを平行移動させて両者の合成位置を制御し得る。 Specifically, when the designation data designates the combining position of the video data and the effect data, the effect data synthesizing unit 507 can translate the video data and/or the effect data to control the combining position of both.

また、指定データが映像データの拡大/縮小率、および/または演出データの拡大/縮小率を指定する場合に、演出データ合成部507は、映像データおよび/または演出データをリサイズし得る。さらに、指定データが映像データの回転量、および/または演出データの回転量を指定する場合に、演出データ合成部507は映像データおよび/または演出データを回転し得る。ここで、回転は、画像平面上での2次元的な回転に限らず、上下反転および左右反転、ならびにこれら組み合わせを含む3次元的な回転を意味し得る。 Further, when the designated data designates an enlargement/reduction rate of video data and/or an enlargement/reduction rate of effect data, the effect data synthesizing section 507 can resize the video data and/or the effect data. Furthermore, when the designation data designates the amount of rotation of the video data and/or the amount of rotation of the effect data, the effect data synthesizing section 507 can rotate the video data and/or the effect data. Here, the rotation is not limited to two-dimensional rotation on the image plane, and may mean three-dimensional rotation including up/down and left/right inversion and combinations thereof.

さらに、指定データが映像データにおける特定の領域、および/または演出データにおける特定の領域を指定する場合に、演出データ合成部507は、映像データおよび/または演出データにおいて指定された領域をトリミングし得る。 Furthermore, if the specified data specifies a specific area in the video data and/or a specific area in the effect data, the effect data synthesizing unit 507 can trim the specified area in the video data and/or the effect data. .

演出データ合成部507が、以上のような前処理を行うことで、配信者および/観客の好みに合わせて、映像データおよび演出データを合成することが可能となる。一例として演出データが顔抜きフレームなどである場合に映像データの顔と顔抜きフレームのはめ込み部分とを自然に見えるように、または敢えて不自然に見えるように合成することが可能となる。 By performing the preprocessing as described above, the effect data synthesizing unit 507 can synthesize the video data and the effect data according to the preferences of the distributor and/or the audience. As an example, when the performance data is a frame without a face, it is possible to synthesize the face of the video data and the embedded portion of the frame without the face so as to look natural or intentionally unnatural.

以上説明したように、第2の実施形態に係る配信サーバは、映像データおよび演出データをどのように合成するかを指定する指定データを配信者端末および/または観客端末から受信し、これに従って映像データおよび/または演出データに前処理を行ってから両者を合成する。故に、この配信サーバによれば、第1の実施形態において説明した、オープニング演出、エンディング演出または中間演出の表現の幅をさらに広げることが可能となる。 As described above, the distribution server according to the second embodiment receives, from the distributor terminal and/or the audience terminal, designation data that designates how to synthesize the video data and the effect data, and distributes the video image accordingly. The data and/or the performance data are preprocessed and then synthesized. Therefore, according to this distribution server, it is possible to further expand the expression range of the opening effect, ending effect, or intermediate effect described in the first embodiment.

(変形例)
ところで、前述の第1の実施形態および本実施形態では配信サーバが映像データおよび演出データを合成する。これにより、配信者および観客の視聴する合成映像データを同期させやすい、端末の処理負荷を減らすことができる、といったメリットがある。配信サーバから端末への通信量の削減というメリットもある。しかしながら、端末が映像データおよび演出データを合成することも可能である。以下、簡単に説明する。
(Modification)
By the way, in the above-described first embodiment and this embodiment, the distribution server synthesizes the video data and the effect data. This has the advantage of facilitating synchronization of the synthesized video data viewed by the distributor and the audience, and reducing the processing load on the terminal. It also has the advantage of reducing the amount of communication from the distribution server to the terminal. However, it is also possible for the terminal to combine the video data and the effect data. A brief description will be given below.

この変形例に係る端末600を図10に例示する。なお、端末600は、配信者端末および観客端末のどちらであってもよいので、配信者端末および観客端末それぞれに固有の部分については説明を省略する。 A terminal 600 according to this modification is illustrated in FIG. Terminal 600 may be either a distributor terminal or a spectator terminal, so explanations of the parts specific to each of the distributor terminal and spectator terminal will be omitted.

端末600は、配信者端末100に関して説明した種々の電子デバイスであり得る。端末600は、例えば、入出力制御、通信制御、演出条件の判定、演出データの作成、映像データおよび演出データの合成、などを行うプロセッサを含む。ここで、プロセッサは、典型的にはCPU(Central Processing Unit)および/またはGPU(Graphics Processing Unit)であるが、マイコン、FPGA(Field Programmable Gate Array)、またはDSP(Digital Signal Processor)、などであってもよい。また、端末600は、かかる処理を実現するためにプロセッサによって実行されるプログラムおよび当該プロセッサによって使用されるデータなどを一時的に格納するメモリを含んでいる。 Terminal 600 can be any of the electronic devices described with respect to distributor terminal 100 . Terminal 600 includes, for example, a processor that performs input/output control, communication control, determination of rendering conditions, creation of rendering data, synthesis of video data and rendering data, and the like. Here, the processor is typically a CPU (Central Processing Unit) and/or a GPU (Graphics Processing Unit), but may be a microcomputer, FPGA (Field Programmable Gate Array), DSP (Digital Signal Processor), or the like. may Terminal 600 also includes a memory that temporarily stores programs executed by a processor and data used by the processor to implement such processing.

なお、端末600は、全てのデータをオンメモリの状態で扱ってもよいし、一部のデータが補助記憶装置に退避されていてもよい。補助記憶装置は、例えば、端末600に内蔵または外付けされたHDD、SSD、フラッシュメモリなどであってもよいし、端末600からアクセス可能なデータベースサーバであってもよい。 Note that the terminal 600 may handle all data in the on-memory state, or part of the data may be saved in an auxiliary storage device. The auxiliary storage device may be, for example, an internal or external HDD, SSD, flash memory, or the like, or may be a database server accessible from the terminal 600 .

また、端末600は、複数の電子デバイスの組み合わせであってよい。例えば、端末600における異なる機能部が別個の電子デバイスに分散して実装されてもよい。 Terminal 600 may also be a combination of multiple electronic devices. For example, different functional units in terminal 600 may be distributed and implemented in separate electronic devices.

端末600は、さらに、ネットワークに接続するための通信I/F(インターフェース)、コンテンツを出力するための出力装置、などを利用可能である。通信I/Fおよび/または表示装置は、端末600に内蔵されてもよいし、端末600に外付けされてもよい。 Terminal 600 can also use a communication I/F (interface) for connecting to a network, an output device for outputting content, and the like. The communication I/F and/or display device may be built in terminal 600 or may be externally attached to terminal 600 .

通信I/Fは、ネットワーク経由で、配信サーバ500(もしくは配信サーバ200)または図示されない他のサーバと通信をするためのモジュールであり得る。出力装置は、動画像、静止画像、テキストなどを表示するための表示装置および/または音声、楽曲などを出力するためのスピーカを含み得る。表示装置は、例えば、液晶ディスプレイ、有機EL(electroluminescence)ディスプレイ、CRT(Cathode Ray Tube)ディスプレイなどである。なお、表示装置は、タッチスクリーンのように入力装置の機能を備えていてもよい。 The communication I/F can be a module for communicating with distribution server 500 (or distribution server 200) or another server (not shown) via a network. The output device may include a display device for displaying moving images, still images, text, etc., and/or a speaker for outputting audio, music, and the like. The display device is, for example, a liquid crystal display, an organic EL (electroluminescence) display, a CRT (Cathode Ray Tube) display, or the like. Note that the display device may have the function of an input device like a touch screen.

端末600は、受信部601と、演出条件判定部604と、演出条件記憶部605と、演出データ作成部606と、演出データ合成部607と、表示制御部608とを含む。 Terminal 600 includes receiving section 601 , effect condition determination section 604 , effect condition storage section 605 , effect data creation section 606 , effect data synthesizing section 607 , and display control section 608 .

受信部601は、ネットワーク経由で例えば配信サーバ500から種々のデータを受信し、受信したデータを例えば演出条件判定部604へ送る。受信部601は、前述の通信I/Fであってもよい。 The receiving unit 601 receives various data from, for example, the distribution server 500 via the network, and sends the received data to, for example, the effect condition determining unit 604 . The receiving unit 601 may be the aforementioned communication I/F.

具体的には、受信部601は、生配信用の映像データを受信する。この映像データは、配信者端末100から配信サーバ500へ送信(アップロード)された映像データそのものであってもよいし、これに何らかの加工、例えば再エンコード、を施したものであってもよい。また、受信部601は、前述の指定データを受信することもあり得る。この指定データは、例えば配信サーバ500により配信者端末100および/または観客端末300から収集され、各端末600へ配信されたものであり得る。さらに、受信部601は、例えば第1の実施形態において説明した、演出条件の判定に必要なデータを受信し得る。 Specifically, the receiving unit 601 receives video data for live distribution. This video data may be the video data itself transmitted (uploaded) from the distributor terminal 100 to the distribution server 500, or it may be processed in some way, for example, re-encoded. Also, the receiving unit 601 may receive the aforementioned designated data. This designated data may be collected from the distributor terminal 100 and/or the audience terminal 300 by the distribution server 500 and distributed to each terminal 600, for example. Furthermore, the receiving unit 601 can receive data necessary for determining the effect condition, for example, as described in the first embodiment.

演出条件判定部604は、演出条件判定部504(または演出条件判定部204)と同一または類似であり得る。すなわち、演出条件判定部604は、受信部601から映像データ(および指定データ)を受け取り、演出条件記憶部605から演出条件を読み出し、演出条件が満足しているか否かを判定する。演出条件判定部604は、演出条件が満足していると判定した場合には映像データおよび指定データを演出データ合成部607へ送り、そうでなければ映像データを表示制御部608へ送る。演出条件判定部604は、前述のプロセッサおよびメモリであってよい。 Effect condition determination unit 604 may be the same as or similar to effect condition determination unit 504 (or effect condition determination unit 204). That is, the effect condition determination unit 604 receives video data (and specified data) from the reception unit 601, reads the effect conditions from the effect condition storage unit 605, and determines whether the effect conditions are satisfied. The effect condition determination unit 604 sends the video data and the designated data to the effect data synthesizing unit 607 if it determines that the effect condition is satisfied, and otherwise sends the video data to the display control unit 608 . The effect condition determination unit 604 may be the aforementioned processor and memory.

演出データ作成部606は、演出データ作成部206と同一または類似であり得る。すなわち、演出データ作成部606は、演出データを作成し、演出データ合成部607へ送る。演出データ作成部206は、前述のプロセッサおよびメモリであってよい。 Effect data creation unit 606 may be the same as or similar to effect data creation unit 206 . That is, the effect data creation unit 606 creates effect data and sends it to the effect data synthesizing unit 607 . The effect data creation unit 206 may be the aforementioned processor and memory.

演出データ合成部607は、演出データ合成部507(または演出データ合成部207)と同一または類似であり得る。すなわち、演出データ合成部607は、演出条件判定部604から映像データおよび指定データを受け取り、演出データ作成部606から演出データを受け取る。演出データ合成部607は、指定データに従って映像データおよび/または演出データに前処理を行ってから両者を合成し、合成映像データを生成する。演出データ合成部607は、合成映像データを表示制御部608へ送る。演出データ合成部607は、前述のプロセッサおよびメモリであってよい。 Effect data synthesizer 607 may be the same as or similar to effect data synthesizer 507 (or effect data synthesizer 207). That is, the effect data synthesizing unit 607 receives the video data and the specified data from the effect condition determining unit 604 and receives the effect data from the effect data creating unit 606 . The effect data synthesizing unit 607 pre-processes the video data and/or the effect data in accordance with the designated data, and then synthesizes both to generate synthesized video data. The effect data synthesizing unit 607 sends the synthetic video data to the display control unit 608 . The effect data synthesizing unit 607 may be the aforementioned processor and memory.

表示制御部608は、前述の表示装置を制御し、映像データまたは合成映像データを当該表示装置の画面に表示する。表示制御部608は、例えば前述のプロセッサおよびメモリであってよい。 A display control unit 608 controls the above-described display device to display video data or composite video data on the screen of the display device. The display controller 608 may be, for example, the processor and memory described above.

以上説明したように、この変形例に係る端末は、第1の実施形態および第2の実施形態において説明した、映像データおよび演出データの合成を行う。故に、この端末によれば、配信サーバがかかる機能を利用可能でない場合にも、第1の実施形態および第2の実施形態において説明した演出を生配信用の映像データに付加することが可能となる。なお、図10の例では、端末が演出条件の判定を行っているが、配信サーバが演出条件の判定を行うようにさらに変形することも可能である。 As described above, the terminal according to this modification combines the video data and effect data described in the first and second embodiments. Therefore, according to this terminal, even if the distribution server cannot use such functions, it is possible to add the effects described in the first and second embodiments to the video data for live distribution. Become. In addition, in the example of FIG. 10, the terminal determines the effect condition, but it is also possible to further modify it so that the distribution server determines the effect condition.

(第3の実施形態)
前述の第1の実施形態および第2の実施形態では、映像データに演出データを合成することにより演出が実現される。第3の実施形態に係る配信サーバは、生配信用の映像データそのものを加工することで演出を実現する。
(Third Embodiment)
In the above-described first and second embodiments, effects are realized by synthesizing effect data with video data. A distribution server according to the third embodiment realizes an effect by processing the video data itself for live distribution.

図11に第3の実施形態に係る配信サーバ700が例示される。以降の説明では、配信サーバ700と配信サーバ200または配信サーバ500との相違点を中心に述べる。配信サーバ700は、映像データの生配信に割り当てられた時間枠に亘って、配信者端末100から逐次送信される、エンコード済みの映像データを受信する。配信サーバ700は、演出条件が満足されている時には、映像データを加工し、加工済み映像データを配信者端末100および観客端末300へ配信する。ここで、演出条件は、第1の実施形態において説明した演出条件と同一または類似であり得る。 FIG. 11 illustrates a distribution server 700 according to the third embodiment. In the following description, differences between distribution server 700 and distribution server 200 or distribution server 500 will be mainly described. The distribution server 700 receives encoded video data sequentially transmitted from the distributor terminal 100 over the time frame assigned to the live distribution of the video data. The distribution server 700 processes the video data and distributes the processed video data to the distributor terminal 100 and the audience terminal 300 when the rendering conditions are satisfied. Here, the rendering conditions may be the same as or similar to the rendering conditions described in the first embodiment.

配信サーバ700がこのような映像データの加工を行うことで、第1の実施形態および第2の実施形態において説明した演出とは異なる表現の演出を利用することができる。例えば、映像データの特定の領域(例えば、顔領域)または全領域にフィルターをかける加工があり得る。フィルターは、例えば、モザイク、セピア、モノクロ、レトロ、ぼかし、暗視スコープ風エフェクト、歪み、漫画風エフェクト、などの様々な各種エフェクトを付加することで、映像データの視覚的な印象を変えることができる。さらに、映像データの特定の領域の複製を当該映像データに貼り付ける、という加工もあり得る。 By processing the video data by the distribution server 700 in this manner, it is possible to use effects of expressions different from the effects described in the first and second embodiments. For example, there may be processing to apply a filter to a specific area (for example, a face area) or the entire area of video data. Filters can change the visual impression of video data by adding various effects such as mosaic, sepia, monochrome, retro, blur, night vision scope effect, distortion, and cartoon effect. can. Furthermore, there may be processing such as pasting a copy of a specific area of video data onto the video data.

以下、配信サーバ700の機能的構成について図11を用いて説明する。なお、配信サーバ700のハードウェア構成は、配信サーバ200または配信サーバ500と同一または類似であり得るのでこれに関する説明を省略する。 The functional configuration of distribution server 700 will be described below with reference to FIG. Note that the hardware configuration of the distribution server 700 may be the same as or similar to that of the distribution server 200 or the distribution server 500, so the description thereof will be omitted.

配信サーバ700は、受信部701と、時計部702と、配信制御部703と、演出条件判定部704と、演出条件記憶部705と、映像加工部707と、映像配信部708とを含む。このうち、映像加工部707以外の要素は、それぞれ配信サーバ200または配信サーバ500における同名の要素と同一または類似であり得る。故に、以下、映像加工部707を説明する。 Distribution server 700 includes a reception unit 701 , a clock unit 702 , a distribution control unit 703 , an effect condition determination unit 704 , an effect condition storage unit 705 , a video processing unit 707 and a video distribution unit 708 . Among them, the elements other than the image processing unit 707 may be the same as or similar to the same-named elements in the distribution server 200 or the distribution server 500, respectively. Therefore, the image processing unit 707 will be described below.

映像加工部707は、演出条件判定部704から映像データ(および指定データ)を受け取る。まず、映像加工部707は、指定データを受け取った場合には映像データに第2の実施形態において説明した前処理を行う。それから、映像加工部707は、演出条件判定部704からの映像データ、またはこれに前処理を行った映像データに対して、既定の加工を行って加工済み映像データを生成する。映像加工部707は、加工済み映像データを映像配信部708へ送る。映像加工部707は、前述のプロセッサおよびメモリであってよい。 The video processing unit 707 receives video data (and designated data) from the rendering condition determination unit 704 . First, the image processing unit 707 performs the preprocessing described in the second embodiment on the image data when the designated data is received. Then, the image processing unit 707 performs predetermined processing on the image data from the rendering condition determination unit 704 or the image data preprocessed thereon to generate processed image data. The image processing unit 707 sends the processed image data to the image distribution unit 708 . The video processing unit 707 may be the processor and memory described above.

具体的には、映像加工部707は、前述のフィルターのいずれかを映像データに対して適用してもよい。或いは、映像加工部707は、映像データの特定の領域の複製を当該映像データに貼り付けてもよい。例えば、図12のような映像データに対して、映像加工部707は図13または図14に例示される加工を行ってもよい。 Specifically, the image processing unit 707 may apply any one of the filters described above to the image data. Alternatively, the image processing unit 707 may paste a copy of a specific area of the image data to the image data. For example, the image processing unit 707 may perform the processing illustrated in FIG. 13 or 14 on the image data as shown in FIG.

図13の例では、破線で示す中心軸よりも左側の領域の複製を左右反転した映像が当該中心軸よりも右側に貼り付けられている。なお、反転の基準となる対象軸の数、それぞれの位置および角度は、自動的に決定されてもよいし、配信者および/または観客が例えば指定データを通じて指定可能としてもよい。 In the example of FIG. 13, an image obtained by mirror-reversing a copy of the area on the left side of the central axis indicated by the dashed line is pasted on the right side of the central axis. Note that the number of symmetrical axes, their respective positions, and their angles, which serve as a reference for inversion, may be automatically determined, or may be designated by the distributor and/or spectators, for example, through designated data.

図14の例では、映像データ中の人物周辺の領域の複製そのもの、または当該複製に前処理を施した映像が、破線で示す領域に貼り付けられている。なお、映像データ中のいずれの領域を複製するか、複製に前処理を行うか否か、複製にどのような前処理を行うか、および貼り付けの位置および数、などは、自動的に決定されてもよいし、配信者および/または観客が例えば指定データを通じて指定可能としてもよい。 In the example of FIG. 14, a copy of the area around the person in the video data itself, or an image obtained by preprocessing the copy, is pasted in the area indicated by the dashed line. It should be noted that which area in the video data is to be duplicated, whether preprocessing is to be performed on the duplication, what kind of preprocessing is to be performed on the duplication, the position and number of pasting, etc. are automatically determined. may be designated by the broadcaster and/or the audience, for example, through designation data.

以上説明したように、第3の実施形態に係る配信サーバは、映像データを加工することで演出を実現する。故に、この配信サーバによれば、第1の実施形態および第2の実施形態において説明した演出とは異なる表現の演出を利用することができる。 As described above, the distribution server according to the third embodiment realizes effects by processing video data. Therefore, according to this distribution server, it is possible to use effects of expressions different from the effects described in the first and second embodiments.

(変形例)
ところで、本実施形態では配信サーバが映像データを加工する。これにより、配信者および観客の視聴する合成映像データを同期させやすい、端末の処理負荷を減らすことができる、といったメリットがある。配信サーバから端末への通信量の削減というメリットもある。しかしながら、端末が映像データを加工することも可能である。以下、簡単に説明する。
(Modification)
By the way, in this embodiment, the distribution server processes the video data. This has the advantage of facilitating synchronization of the synthesized video data viewed by the distributor and the audience, and reducing the processing load on the terminal. It also has the advantage of reducing the amount of communication from the distribution server to the terminal. However, it is also possible for the terminal to process the video data. A brief description will be given below.

この変形例に係る端末800を図15に例示する。なお、端末800のハードウェア構成は、端末600と同一または類似であり得るのでこれに関する説明を省略する。また、端末800は、配信者端末および観客端末のどちらであってもよいので、配信者端末および観客端末それぞれに固有の部分については説明を省略する。 FIG. 15 illustrates a terminal 800 according to this modification. In addition, the hardware configuration of the terminal 800 may be the same as or similar to that of the terminal 600, so the description thereof will be omitted. Terminal 800 may be either a distributor terminal or a spectator terminal, and thus descriptions of parts specific to each of the distributor terminal and spectator terminal will be omitted.

端末800は、受信部801と、演出条件判定部804と、演出条件記憶部805と、映像加工部807と、表示制御部808とを含む。このうち、映像加工部807以外の要素は、端末600における同名の要素と同一または類似であり得る。故に、以下、映像加工部807を説明する。 Terminal 800 includes a receiving section 801 , an effect condition determination section 804 , an effect condition storage section 805 , an image processing section 807 and a display control section 808 . Among them, the elements other than the image processing unit 807 may be the same as or similar to the same-named elements in the terminal 600 . Therefore, the image processing unit 807 will be described below.

映像加工部807は、映像加工部707と同一または類似であり得る。すなわち、映像加工部807は、演出条件判定部804から映像データ(および指定データ)を受け取る。まず、映像加工部807は、指定データを受け取った場合には映像データに第2の実施形態において説明した前処理を行う。それから、映像加工部807は、演出条件判定部804からの映像データ、またはこれに前処理を行った映像データに対して、第3の実施形態において説明した既定の加工を行って加工済み映像データを生成する。映像加工部807は、加工済み映像データを映像配信部708へ送る。映像加工部807は、前述のプロセッサおよびメモリであってよい。 Image processing unit 807 may be the same as or similar to image processing unit 707 . That is, the video processing unit 807 receives video data (and specified data) from the rendering condition determination unit 804 . First, the image processing unit 807 performs the preprocessing described in the second embodiment on the image data when the designated data is received. Then, the image processing unit 807 performs the predetermined processing described in the third embodiment on the image data from the rendering condition determination unit 804 or the image data preprocessed thereon to obtain processed image data. to generate The video processing unit 807 sends the processed video data to the video distribution unit 708 . The video processing unit 807 may be the processor and memory described above.

以上説明したように、この変形例に係る端末は、第3の実施形態において説明した、映像データの加工を行う。故に、この端末によれば、配信サーバがかかる機能を利用可能でない場合にも、第3の実施形態において説明した演出を生配信用の映像データに付加することが可能となる。なお、図15の例では、端末が演出条件の判定を行っているが、配信サーバが演出条件の判定を行うようにさらに変形することも可能である。 As described above, the terminal according to this modified example processes the video data described in the third embodiment. Therefore, according to this terminal, even if the distribution server cannot use such functions, it is possible to add the effects described in the third embodiment to the video data for live distribution. In addition, in the example of FIG. 15, the terminal determines the effect condition, but it is also possible to further modify so that the distribution server determines the effect condition.

(第4の実施形態)
前述の第1の実施形態では、映像データに対して動的な演出データを合成して演出することが可能である。第4の実施形態では、この動的な演出データを配信者および/または観客からの操作要求に応じて制御することでインタラクティブ性の高い演出を実現する。
(Fourth embodiment)
In the above-described first embodiment, it is possible to produce an effect by synthesizing dynamic effect data with video data. In the fourth embodiment, a highly interactive presentation is realized by controlling this dynamic presentation data in accordance with operation requests from the distributor and/or the audience.

図16に第4の実施形態に係る配信サーバ900が例示される。以降の説明では、配信サーバ900と配信サーバ200、配信サーバ500または配信サーバ700との相違点を中心に述べる。 FIG. 16 illustrates a distribution server 900 according to the fourth embodiment. In the following description, differences between distribution server 900 and distribution server 200, distribution server 500, or distribution server 700 will be mainly described.

配信サーバ900は、映像データの生配信に割り当てられた時間枠に亘って、配信者端末100から逐次送信される、エンコード済みの映像データを受信する。配信サーバ900は、演出条件が満足されている時には、配信者端末100および/または観客端末300から映像データに合成される動的な演出データに対する操作要求を受信し、これに基づいて当該動的な演出データの操作データを生成する。そして、配信サーバ900は、映像データに加えてこの操作データを配信者端末100および観客端末300へ送信する。配信者端末100および観客端末300は、それぞれ受信した操作データに基づいて動的な演出データを制御し、受信した映像データに合成して表示装置の画面に表示する。ここで、演出条件は、第1の実施形態において説明した演出条件と同一または類似であり得る。 The distribution server 900 receives the encoded video data sequentially transmitted from the distributor terminal 100 over the time frame assigned to the live distribution of the video data. When the rendering conditions are satisfied, the distribution server 900 receives from the distributor terminal 100 and/or the audience terminal 300 an operation request for dynamic rendering data to be combined with the video data, and based on this request, performs the dynamic rendering. to generate operation data of such effect data. The distribution server 900 then transmits this operation data to the distributor terminal 100 and the audience terminal 300 in addition to the video data. The distributor terminal 100 and the spectator terminal 300 control the dynamic effect data based on the received operation data, combine it with the received video data, and display it on the screen of the display device. Here, the rendering conditions may be the same as or similar to the rendering conditions described in the first embodiment.

配信サーバ900が操作要求に基づいてこのような動的な演出データの操作データを生成、配信し、配信者端末100および観客端末300が当該操作データに基づいて動的な演出データを制御して映像データに合成することで、インタラクティブ性の高い演出が可能となる。 The distribution server 900 generates and distributes the operation data of such dynamic effect data based on the operation request, and the distributor terminal 100 and the spectator terminal 300 control the dynamic effect data based on the operation data. By synthesizing with video data, it is possible to produce highly interactive performances.

以下、配信サーバ900の機能的構成について図16を用いて説明する。なお、配信サーバ900のハードウェア構成は、配信サーバ200、配信サーバ500または配信サーバ700と同一または類似であり得るのでこれに関する説明を省略する。 The functional configuration of distribution server 900 will be described below with reference to FIG. The hardware configuration of the distribution server 900 may be the same as or similar to that of the distribution server 200, the distribution server 500, or the distribution server 700, so the description thereof will be omitted.

配信サーバ900は、受信部901と、時計部902と、配信制御部903と、演出条件判定部904と、演出条件記憶部905と、映像配信部908と、操作データ生成部909とを含む。このうち、時計部902、配信制御部903、および演出条件記憶部905は、それぞれ配信サーバ200、配信サーバ500または配信サーバ700における同名の要素と同一または類似であり得る。以下、その他の要素について、配信サーバ200、配信サーバ500または配信サーバ700における同名の要素との相違点を中心に説明する。 Distribution server 900 includes reception unit 901 , clock unit 902 , distribution control unit 903 , effect condition determination unit 904 , effect condition storage unit 905 , video distribution unit 908 , and operation data generation unit 909 . Of these, the clock unit 902, the distribution control unit 903, and the effect condition storage unit 905 may be the same as or similar to the same-named elements in the distribution server 200, the distribution server 500, or the distribution server 700, respectively. In the following, other elements will be described, focusing on differences from elements with the same name in distribution server 200, distribution server 500, or distribution server 700. FIG.

受信部901は、受信部201によって受信されるデータに加えて、配信者端末100および/または観客端末300から、動的な演出データに対する操作要求を受信し得る。この操作要求は、例えば動的な演出データを生成する種々のツール、例えば、お絵かきアプリ、手書き入力アプリ、ストップウォッチ、タイマー、カウンタ、サイコロ、トランプ、おみくじ、ビンゴゲーム、じゃんけんゲーム、静止画ビューワを含む生配信中に引用するコンテンツのプレイヤー、などを操作するために対応するプログラムに与えられる入力データ、例えばオブジェクトの選択など、に相当し得る。受信部901は、この操作要求を演出条件判定部904へ送る。 In addition to the data received by the receiving unit 201 , the receiving unit 901 can receive operation requests for dynamic presentation data from the distributor terminal 100 and/or the audience terminal 300 . This operation request is, for example, a drawing application, a handwriting input application, a stopwatch, a timer, a counter, a dice, a playing card, an omikuji, a bingo game, a rock-paper-scissors game, a still image viewer, etc. may correspond to input data, such as object selection, etc., provided to the corresponding program to operate a player of the content quoted during the live broadcast, including; The receiving unit 901 sends this operation request to the effect condition determining unit 904 .

演出条件判定部904は、演出条件の判定結果に関わらず、映像データを映像配信部908へ送る。さらに、演出条件判定部904は、演出条件が満足している場合に、操作要求を操作データ生成部909へ送る。なお、配信者および観客が操作要求を発行するための入力を行っていなければ、操作要求が存在しないこともあり得る。 The effect condition determination unit 904 sends the video data to the video distribution unit 908 regardless of the determination result of the effect condition. Furthermore, the effect condition determination unit 904 sends an operation request to the operation data generation unit 909 when the effect condition is satisfied. It should be noted that if the distributor and the audience have not made an input for issuing an operation request, there may be no operation request.

操作データ生成部909は、演出条件判定部904から操作要求を受け取り、これに基づいて動的な演出データの操作データを生成する。操作データ生成部909は、操作データを映像配信部908へ送る。操作データ生成部909は、前述のプロセッサおよびメモリであってよい。なお、複数の端末が操作要求を略同時に送信すると、操作要求の衝突が生じ得る。すなわち、ある端末からの操作要求が、他の端末からの操作要求と矛盾することがあるが、操作データ生成部909はかかる衝突の調停を行ってから操作データを生成してもよい。 An operation data generation unit 909 receives an operation request from the effect condition determination unit 904, and based on this, generates operation data of dynamic effect data. The operation data generator 909 sends the operation data to the video distribution unit 908 . The operation data generator 909 may be the aforementioned processor and memory. Note that if a plurality of terminals transmit operation requests substantially at the same time, collision of the operation requests may occur. That is, although an operation request from one terminal may conflict with an operation request from another terminal, the operation data generation unit 909 may generate operation data after arbitrating such conflicts.

また、多数の端末から操作要求を略同時に送信し、操作データ生成部909が当該操作要求を全て考慮して操作データを生成することは負荷が大きい。そこで、上記衝突の調停とも関連するが、操作データ生成部909は、操作要求の一部を破棄するフィルタリングを行い、残余の操作要求に基づいて操作データを生成してもよい。一例として、操作データ生成部909は、観客のうち課金をした者、配信者のチャンネル会員である者、特定の地域に居る者、抽選に当選した者、などからの操作要求を維持し、他の操作要求を破棄してもよい。 In addition, it is a heavy load for the operation data generation unit 909 to generate operation data considering all the operation requests by transmitting operation requests from a large number of terminals at substantially the same time. Therefore, in relation to the conflict mediation, the operation data generation unit 909 may perform filtering to discard a part of the operation request, and generate operation data based on the remaining operation request. As an example, the operation data generation unit 909 maintains operation requests from spectators who have paid a fee, members of the distributor's channel, people in a specific area, people who have won a lottery, and others. operation request may be discarded.

本実施形態において動的な演出データは、少なくとも操作データに応じて画面遷移、すなわち外観的な変化を生じる映像データであり得る。具体的には、操作データに応じた画面遷移の例として、トランプの山札を選択する操作データに応じた手札の画像の更新、サイコロを選択する操作データに応じたサイコロの出目の更新、手書き入力に基づく操作データに応じたお絵かき画像の更新、などが挙げられる。また、操作データに加えて時間の経過に応じた画面遷移もあり得る。例えば、スタートのボタンを選択する操作データに応じて、ストップウォッチまたはタイマーの表示部の画像がカウントダウンまたはカウントアップするように変化し始める。以後の表示部の画像は、時間の経過に応じて更新されることになる。 In the present embodiment, the dynamic effect data can be video data that causes screen transition, that is, appearance change, at least according to the operation data. Specifically, as an example of screen transitions according to operation data, updating the hand image according to operation data for selecting a deck of playing cards, updating the number of dice according to operation data for selecting a dice, For example, updating a drawing image according to operation data based on handwriting input. In addition to operation data, there may be screen transitions according to the passage of time. For example, depending on the operation data for selecting the start button, the image on the display of the stopwatch or timer starts changing to count down or count up. The image on the display unit thereafter is updated as time passes.

画面遷移は、全端末共通であってもよいし、そうでなくてもよい。後者の例として、動的な演出データは、図17および図18に例示されるじゃんけんゲームの実行画面データであってもよい。この例では、当初、図17に示されるように選択可能な手を表す画像が映像データに合成され、操作データ生成部909は、既定の締め切り時間まで配信者および/または観客からの操作要求を待ち受け、当該締め切り時間の終了後に操作データを生成する。締め切り時間の終了後、じゃんけんの結果を表す画像への画面遷移が生じる。この結果、配信者端末100は、図18に例示されるように、観客との勝負の結果、例えば配信者が選んだ手と、3つの手毎にその手を選んだ人数とを表す演出データを生成し、映像データに合成することができる。また、観客端末300は、配信者との勝負の結果、例えば配信者が選んだ手と、当該観客端末300を操作した観客が選んだ手とを表す演出データを生成し、映像データに合成することができる。或いは、配信者端末100および/または観客端末300は、勝者~名、敗者~名、あいこ~名のように勝敗結果の集計を表す演出データを生成し、映像データに合成してもよい。 Screen transitions may or may not be common to all terminals. As an example of the latter, the dynamic effect data may be execution screen data of a rock-paper-scissors game illustrated in FIGS. 17 and 18 . In this example, as shown in FIG. 17, an image representing a selectable hand is initially synthesized with the video data, and the operation data generation unit 909 receives operation requests from the distributor and/or the audience until a predetermined deadline. Stand by and generate operation data after the deadline. After the deadline is over, a screen transition occurs to an image showing the result of rock-paper-scissors. As a result, the distributor terminal 100, as illustrated in FIG. can be generated and synthesized with video data. In addition, the spectator terminal 300 generates performance data representing, for example, the hand selected by the distributor and the hand selected by the spectator who operated the spectator terminal 300 as a result of the game with the distributor, and synthesizes it with the video data. be able to. Alternatively, the distributor terminal 100 and/or the spectator terminal 300 may generate effect data representing the sum of the winning/losing results such as the winner's name, the loser's name, and the winner's name, and synthesize them with the video data.

映像配信部908は、演出条件判定部904から映像データを受け取り、さらに操作データ生成部909から操作データを受け取ることもある。映像配信部908は、映像データ(および操作データ)を配信者端末100および観客端末300へ配信する。 The video distribution unit 908 receives video data from the rendering condition determination unit 904 and may also receive operation data from the operation data generation unit 909 . The video distribution unit 908 distributes video data (and operation data) to the distributor terminal 100 and the audience terminal 300 .

図19に第4の実施形態に係る端末1000が例示される。以降の説明では、端末600または端末800との相違点を中心に述べる。なお、端末1000のハードウェア構成は、端末600または端末800と同一または類似であり得るのでこれに関する説明を省略する。また、端末1000は、配信者端末および観客端末のどちらであってもよいので、配信者端末および観客端末それぞれに固有の部分については説明を省略する。 FIG. 19 illustrates a terminal 1000 according to the fourth embodiment. In the following description, differences from terminal 600 or terminal 800 will be mainly described. In addition, the hardware configuration of the terminal 1000 may be the same as or similar to that of the terminal 600 or the terminal 800, so the description thereof will be omitted. Also, the terminal 1000 may be either a distributor terminal or an audience terminal, so descriptions of the parts unique to the distributor terminal and the audience terminal are omitted.

端末1000は、受信部1001と、演出条件判定部1004と、演出条件記憶部1005と、演出データ制御部1006と、演出データ合成部1007と、表示制御部1008と、入力部1010と、操作要求生成部1011と、送信部1012とを含む。このうち、演出条件記憶部1005、演出データ合成部1007および表示制御部1008は、それぞれ端末600または端末800における同名の要素と同一または類似であり得る。以下、その他の要素について、端末600または端末800における同名の要素との相違点を中心に説明する。 The terminal 1000 includes a reception unit 1001, an effect condition determination unit 1004, an effect condition storage unit 1005, an effect data control unit 1006, an effect data synthesizing unit 1007, a display control unit 1008, an input unit 1010, an operation request A generator 1011 and a transmitter 1012 are included. Of these, effect condition storage unit 1005, effect data synthesizing unit 1007, and display control unit 1008 may be the same as or similar to the same-named elements in terminal 600 or terminal 800, respectively. In the following, other elements will be described, focusing on differences from the same-named elements in terminal 600 or terminal 800. FIG.

入力部1010は、ユーザ入力を受け取り、ユーザ入力データを生成する。入力部1010は、ユーザ入力データを演出条件判定部1004へ送る。入力部1010は、端末1000に内蔵され、または外付けされた入力装置であり得る。入力装置は、例えば、キーボード、マウス、テンキーなどであってもよいし、タッチスクリーンのように表示装置の機能を備えていてもよい。ユーザ入力は、典型的には、タップ、クリック、特定のキーの押下などであり、ユーザ入力データはこれらイベントの発生を表すデータであり得る。このほか、ユーザ入力データは、例えば、マイクロフォンによって捉えられる音声、生体センサによって検出される生体データ(例えば体温、表情など)、GPS(Global Positioning System)または基地局情報によって識別される位置データ、加速度センサによって検出される加速度データに基づいて推定されるユーザのアクション(例えば、端末1000を振り回した)などを含むこともできる。 The input unit 1010 receives user input and generates user input data. The input unit 1010 sends user input data to the effect condition determination unit 1004 . The input unit 1010 may be an input device built into the terminal 1000 or externally attached. The input device may be, for example, a keyboard, mouse, numeric keypad, or the like, or may have the function of a display device such as a touch screen. User inputs are typically taps, clicks, specific key presses, etc., and user input data can be data representing the occurrence of these events. In addition, user input data includes, for example, voice captured by a microphone, biometric data (e.g. body temperature, facial expression, etc.) detected by a biosensor, position data identified by GPS (Global Positioning System) or base station information, acceleration A user's action (for example, swinging the terminal 1000) estimated based on acceleration data detected by a sensor can also be included.

演出条件判定部1004は、演出条件が満足している場合に、ユーザ入力データを操作要求生成部1011へ送る。 The effect condition determination unit 1004 sends the user input data to the operation request generation unit 1011 when the effect condition is satisfied.

操作要求生成部1011は、演出条件判定部1004からユーザ入力データを受け取り、これに応じて操作要求を生成する。操作要求生成部1011は、この操作要求を送信部1012へ送る。操作要求生成部1011は、前述のプロセッサおよびメモリであってよい。 The operation request generator 1011 receives user input data from the effect condition determination unit 1004 and generates an operation request accordingly. The operation request generator 1011 sends this operation request to the transmitter 1012 . The operation request generator 1011 may be the processor and memory described above.

送信部1012は、操作要求生成部1011から操作要求を受け取り、これを配信サーバ900へ送信する。送信部1012は、前述の通信I/Fであってもよい。 The transmission unit 1012 receives the operation request from the operation request generation unit 1011 and transmits it to the distribution server 900 . The transmission unit 1012 may be the aforementioned communication I/F.

受信部1001は、生配信用の映像データを受信する。この映像データは、配信者端末100から配信サーバ900へ送信(アップロード)された映像データそのものであってもよいし、これに何らかの加工を施したものであってもよい。また、受信部1001は、演出条件が満足している時には、操作データを受信し得る。さらに、受信部1001は、前述の指定データ、演出条件の判定に必要なデータ、などを受信することもあり得る。受信部1001は、操作データを演出データ制御部1006へ送り、映像データおよび指定データを演出データ合成部1007へ送り、演出条件の判定に必要なデータを演出条件判定部1004へ送る。 The receiving unit 1001 receives video data for live distribution. The video data may be the video data itself transmitted (uploaded) from the distributor terminal 100 to the distribution server 900, or may be processed in some way. Also, the receiving unit 1001 can receive the operation data when the effect condition is satisfied. Furthermore, the receiving unit 1001 may receive the aforementioned specified data, data necessary for determining the rendering conditions, and the like. Receiving section 1001 sends operation data to effect data control section 1006 , sends video data and specified data to effect data synthesizing section 1007 , and sends data necessary for determining effect conditions to effect condition determining section 1004 .

演出データ制御部1006は、受信部1001から操作データを受け取り、当該操作データに基づいて動的な演出データを制御する。具体的には、演出データ制御部1006は、前述の種々のツールに対応するプログラム(アプリケーション)を実行しており、当該プログラムに操作データを与える。なお、操作データは、時間データと当該時間データに対応する操作入力データとを含み得る。この場合に、演出データ制御部1006は、時間データの示す時間に、当該時間データに対応する操作入力データをプログラムに与え得る。プログラムは、与えられた操作入力データに応じて画面遷移する映像を実行結果、すなわち動的な演出データとして生成し得る。演出データ制御部1006は、動的な演出データを演出データ合成部1007へ送る。演出データ制御部1006は、前述のプロセッサおよびメモリであってよい。ここで、プログラムは、生配信用の映像データを再生するためのプレイヤーに組み込まれていてもよいし、当該プレイヤーから見て外部プログラムであってもよい。 The effect data control unit 1006 receives operation data from the receiving unit 1001 and controls dynamic effect data based on the operation data. Specifically, the effect data control unit 1006 executes programs (applications) corresponding to the various tools described above, and provides operation data to the programs. The operation data may include time data and operation input data corresponding to the time data. In this case, the effect data control section 1006 can provide the program with operation input data corresponding to the time data at the time indicated by the time data. The program can generate, as an execution result, a video that transitions between screens according to given operation input data, that is, as dynamic effect data. Effect data control section 1006 sends dynamic effect data to effect data synthesizing section 1007 . The effect data control unit 1006 may be the aforementioned processor and memory. Here, the program may be installed in a player for reproducing video data for live distribution, or may be an external program from the player's point of view.

以上説明したように、第4の実施形態に係る配信サーバは、動的な演出データに対する操作要求を配信者端末および/または観客端末から収集し、当該動的な演出データの操作データを生成、配信する。そして、本実施形態に係る端末は、この操作データに基づいて動的な演出データを制御し、生配信用の映像データに合成する。故に、この配信サーバおよび端末によれば、例えば配信者および観客がリアルタイムに一緒に遊ぶなどのインタラクティブ性の高い演出が可能となる。 As described above, the distribution server according to the fourth embodiment collects operation requests for dynamic performance data from distributor terminals and/or audience terminals, generates operation data for the dynamic performance data, To deliver. Then, the terminal according to the present embodiment controls dynamic effect data based on this operation data, and synthesizes it with video data for live distribution. Therefore, according to this distribution server and terminal, it is possible to produce a highly interactive performance, for example, in which the distributor and the audience play together in real time.

(変形例)
ところで、本実施形態では端末が動的な演出データの制御と、映像データおよび動的な演出データの合成とを行っている。しかしながら、配信サーバが、動的な演出データの制御を行い、映像データに合成されるべき演出データを端末に逐次送信することも可能であるし、第1の実施形態と同様に映像データと動的な演出データとの合成までも行ってもよい。これにより、配信者および観客の視聴する合成映像データを同期させやすい、端末の処理負荷を減らすことができる、といったメリットがある。配信サーバが、動的な演出データの制御と映像データおよび動的な演出データの合成とを行う例について簡単に説明する。
(Modification)
By the way, in this embodiment, the terminal controls the dynamic effect data and synthesizes the video data and the dynamic effect data. However, it is also possible for the distribution server to control the dynamic effect data and sequentially transmit the effect data to be synthesized with the video data to the terminal. It is also possible to perform even synthesis with typical performance data. This has the advantage of facilitating synchronization of the synthesized video data viewed by the distributor and the audience, and reducing the processing load on the terminal. An example in which the distribution server controls dynamic effect data and synthesizes video data and dynamic effect data will be briefly described.

この変形例に係る配信サーバ1100を図20に例示する。なお、配信サーバ1100のハードウェア構成は、配信サーバ200、配信サーバ500、配信サーバ700または配信サーバ900と同一または類似であり得るのでこれに関する説明を省略する。 FIG. 20 illustrates a distribution server 1100 according to this modification. The hardware configuration of distribution server 1100 may be the same as or similar to that of distribution server 200, distribution server 500, distribution server 700, or distribution server 900, and thus description thereof will be omitted.

配信サーバ1100は、受信部1101と、時計部1102と、配信制御部1103と、演出条件判定部1104と、演出条件記憶部1105と、演出データ制御部1106と、演出データ合成部1107と、映像配信部1108と、操作データ生成部1109とを含む。このうち、受信部1101、時計部1102、配信制御部1103、演出条件判定部1104、演出条件記憶部1105、演出データ合成部1107、映像配信部1108、および操作データ生成部1109は、配信サーバ200、配信サーバ500、配信サーバ700または配信サーバ900における同名の要素と同一または類似であり得る。故に、以下、演出データ制御部1106を説明する。 The distribution server 1100 includes a reception unit 1101, a clock unit 1102, a distribution control unit 1103, an effect condition determination unit 1104, an effect condition storage unit 1105, an effect data control unit 1106, an effect data synthesizing unit 1107, an image It includes a distribution unit 1108 and an operation data generation unit 1109 . Of these, the reception unit 1101, the clock unit 1102, the distribution control unit 1103, the effect condition determination unit 1104, the effect condition storage unit 1105, the effect data synthesizing unit 1107, the video distribution unit 1108, and the operation data generation unit 1109 are included in the distribution server 200. , distribution server 500 , distribution server 700 or distribution server 900 . Therefore, the effect data control unit 1106 will be described below.

演出データ制御部1106は、演出データ制御部1006と同一または類似であり得る。すなわち、演出データ制御部1106は、操作データ生成部1109から操作データを受け取り、当該操作データに基づいて動的な演出データを制御する。演出データ制御部1106は、動的な演出データを演出データ合成部1107へ送る。演出データ制御部1106は、前述のプロセッサおよびメモリであってよい。 The performance data controller 1106 may be the same as or similar to the performance data controller 1006 . That is, the effect data control unit 1106 receives operation data from the operation data generation unit 1109, and controls dynamic effect data based on the operation data. Effect data control section 1106 sends dynamic effect data to effect data synthesizing section 1107 . The effect data control unit 1106 may be the aforementioned processor and memory.

以上説明したように、この変形例に係る配信サーバは、第4の実施形態において説明した演出を行い、合成映像データを配信者端末および観客端末へ配信する。故に、この配信サーバによれば、配信者および観客の視聴する合成映像データを同期させやすい、端末の処理負荷を減らすことができる、といったメリットがある。配信サーバから端末への通信量の削減というメリットもある。 As described above, the distribution server according to this modification performs the effects described in the fourth embodiment, and distributes the synthesized video data to the distributor terminal and the audience terminal. Therefore, according to this distribution server, it is possible to easily synchronize synthesized video data viewed by the distributor and the audience, and to reduce the processing load of the terminal. It also has the advantage of reducing the amount of communication from the distribution server to the terminal.

なお、本実施形態では、端末および配信サーバの両方が演出条件の判定を行っているが、一方のみが行うようにしてもよい。例えば、端末のみが演出条件の判定を行い、演出条件が満足したことを配信サーバに通知してもよい。逆に、配信サーバのみが演出条件の判定を行い、演出条件が満足したことを端末に通知してもよい。 In this embodiment, both the terminal and the distribution server determine the effect condition, but only one of them may perform the determination. For example, only the terminal may determine the effect condition and notify the distribution server that the effect condition is satisfied. Conversely, only the distribution server may determine the effect condition and notify the terminal that the effect condition is satisfied.

上述の実施形態は、本発明の概念の理解を助けるための具体例を示しているに過ぎず、本発明の範囲を限定することを意図されていない。実施形態は、本発明の要旨を逸脱しない範囲で、様々な構成要素の付加、削除または転換をすることができる。 The above-described embodiments merely show specific examples to aid understanding of the concept of the present invention, and are not intended to limit the scope of the present invention. Embodiments can add, delete, or convert various components without departing from the gist of the present invention.

上記各実施形態において説明された種々の機能部は、回路を用いることで実現されてもよい。回路は、特定の機能を実現する専用回路であってもよいし、プロセッサのような汎用回路であってもよい。 Various functional units described in the above embodiments may be realized by using circuits. A circuit may be a dedicated circuit that implements a specific function, or it may be a general-purpose circuit such as a processor.

上記各実施形態の処理の少なくとも一部は、汎用のコンピュータを基本ハードウェアとして用いることでも実現可能である。上記処理を実現するプログラムは、コンピュータで読み取り可能な記録媒体に格納して提供されてもよい。プログラムは、インストール可能な形式のファイルまたは実行可能な形式のファイルとして記録媒体に記憶される。記録媒体としては、磁気ディスク、光ディスク(CD-ROM、CD-R、DVD等)、光磁気ディスク(MO等)、半導体メモリなどである。記録媒体は、プログラムを記憶でき、かつ、コンピュータが読み取り可能であれば、何れであってもよい。また、上記処理を実現するプログラムを、インターネットなどのネットワークに接続されたコンピュータ(サーバ)上に格納し、ネットワーク経由でコンピュータ(クライアント)にダウンロードさせてもよい。
以下に本願の出願当初の特許請求の範囲に記載された発明を付記する。
[C1] 配信者端末から生配信用の映像データを受信する受信部と、
演出条件が満足しているか否かを判定する判定部と、
前記演出条件が満足している時に、前記映像データに対して演出データを合成し合成映像データを生成する合成部と、
前記合成映像データを前記配信者端末および観客端末へ配信する配信部と
を具備する、配信サーバ。
[C2] 前記演出条件は、(1)前記映像データの生配信のために割り当てられた時間枠内に設定された演出開始地点に前記配信サーバの参照する日時が達してから第1の演出終了条件が満足するまで、(2)前記映像データの観客数が所定の条件を満足してから第2の演出終了条件が満足するまで、(3)前記配信者端末または前記観客端末へ所定のユーザ入力があってから第3の演出終了条件が満足するまで、(4)前記映像データに対して投稿されたコメントが所定の条件を満足してから第4の演出終了条件が満足するまで、および(5)前記映像データの再生映像または再生音声が所定の条件を満足してから第5の演出終了条件が満足するまで、のうち少なくとも1つの間に満足する、C1に記載の配信サーバ。
[C3] 前記第1の演出終了条件、前記第2の演出終了条件、前記第3の演出終了条件、前記第4の演出終了条件および前記第5の演出終了条件のいずれかが満足するための必要条件を動的に示す情報を含む前記演出データを作成する作成部をさらに具備する、C2に記載の配信サーバ。
[C4] 前記作成部は、前記映像データの観客数またはコメント数と必要数とのギャップを示す情報を含む前記演出データを作成する、C3に記載の配信サーバ。
[C5] 前記映像データの生配信が開始された後に生じた事象に関する情報を含む前記演出データを作成する作成部をさらに具備する、C1またはC2に記載の配信サーバ。
[C6] 前記作成部は、前記映像データの観客数、前記映像データに対して投稿されたコメントの一部、前記映像データに対して投稿されたコメント数、および前記映像データに対してコメントを投稿した観客名のうち少なくとも1つを示す情報を含む前記演出データを作成する、C5に記載の配信サーバ。
[C7] (1)前記配信者端末および前記観客端末の少なくとも一方になされたユーザ入力、ならびに(2)前記配信者端末および前記観客端末の少なくとも一方によって投稿されたコメント、のうち少なくとも一方に反応して変化する演出データを作成する作成部をさらに具備する、C1またはC2に記載の配信サーバ。
[C8] 前記映像データに付与されたメタデータおよび前記映像データに関連するウェブページに表示される情報の少なくとも一方に基づいて生成された情報を含む前記演出データを作成する作成部をさらに具備する、C1またはC2に記載の配信サーバ。
[C9] 前記合成部は、前記映像データの再生映像の画面の一部または全部をリサイズして前記演出データと合成し、前記合成映像データを生成する、C1乃至C7のいずれか1項に記載の配信サーバ。
[C10] 前記合成部は、前記映像データの再生映像の画面の一部が露出し、残部が隠れるように前記映像データを前記演出データと合成し、前記合成映像データを生成する、C1乃至C7のいずれか1項に記載の配信サーバ。
[C11] コンピュータを、
配信者端末から生配信用の映像データを受信する手段、
演出条件が満足しているか否かを判定する手段、
前記演出条件が満足している時に、前記映像データに対して演出データを合成し合成映像データを生成する手段、
前記合成映像データを前記配信者端末および観客端末へ配信する手段
として機能させるための配信プログラム。
[C12] 前記受信部は、前記配信者端末および前記観客端末の少なくとも1つから前記映像データおよび前記演出データの合成位置、前記映像データの拡大/縮小率、前記演出データの拡大/縮小率、前記映像データの回転量、前記演出データの回転量、前記映像データにおける特定の領域、ならびに前記演出データにおける特定の領域の少なくとも1つを指定する指定データをさらに受信し、
前記合成部は、前記指定データに従って前記映像データおよび前記演出データの少なくとも一方に対して平行移動、リサイズ、回転、反転およびトリミングの少なくとも1つを行ってから前記映像データおよび前記演出データを合成し、前記合成映像データを生成する、
C1乃至C10のいずれか1項に記載の配信サーバ。
[C13] 配信者端末から生配信用の映像データを受信する受信部と、
演出条件が満足しているか否かを判定する判定部と、
前記演出条件が満足している時に、前記映像データに対して既定の加工を行って加工済み映像データを生成する加工部と、
前記加工済み映像データを前記配信者端末および観客端末へ配信する配信部と
を具備する、配信サーバ。
[C14] 前記加工部は、前記演出条件が満足している時に、前記映像データにおける特定の領域の複製をそのまま、または回転、反転およびリサイズの少なくとも1つを行ってから、前記映像データに貼り付け、前記加工済み映像データを生成する、C13に記載の配信サーバ。
[C15] 演出条件が満足しているか否かを判定する判定部と、
配信者端末から生配信用の映像データを受信し、前記演出条件が満足している場合にはさらに前記配信者端末および観客端末の少なくとも1つから前記配信者端末および前記観客端末の少なくとも1つにおいて前記映像データに合成される動的な演出データに対する操作要求を受信する受信部と、
前記操作要求に基づいて前記動的な演出データの操作データを生成する生成部と、
前記映像データおよび前記操作データを前記配信者端末および観客端末の少なくとも1つへ配信する配信部と
を具備する、配信サーバ。
[C16] 前記動的な演出データは、前記操作データに応じて画面遷移する映像データである、C15に記載の配信サーバ。
[C17] 演出条件が満足しているか否かを判定する判定部と、
前記演出条件が満足している時に、ユーザ入力に応じて動的な演出データに対する操作要求を生成する生成部と、
前記操作要求を配信サーバへ送信する送信部と、
前記演出条件が満足している時に、前記配信サーバから生配信用の映像データおよび前記操作要求に基づいて生成された前記動的な演出データの操作データを受信する受信部と、
前記操作要求に基づいて前記動的な演出データを制御する制御部と、
前記映像データに前記動的な演出データを合成する合成部と、
を具備する、端末。
At least part of the processing in each of the above embodiments can also be implemented using a general-purpose computer as basic hardware. A program that implements the above process may be provided by being stored in a computer-readable recording medium. The program is stored in the recording medium as an installable format file or an executable format file. Recording media include magnetic disks, optical disks (CD-ROM, CD-R, DVD, etc.), magneto-optical disks (MO, etc.), semiconductor memories, and the like. Any recording medium may be used as long as it can store the program and is readable by a computer. Alternatively, the program that implements the above processing may be stored on a computer (server) connected to a network such as the Internet, and downloaded to the computer (client) via the network.
The invention described in the scope of claims at the time of filing of the present application will be additionally described below.
[C1] a receiving unit that receives video data for live distribution from a distributor terminal;
a determination unit that determines whether or not the rendering conditions are satisfied;
a synthesizing unit for synthesizing performance data with the video data to generate synthetic video data when the performance condition is satisfied;
a distribution unit that distributes the composite video data to the distributor terminal and the spectator terminal;
A distribution server comprising:
[C2] The effect conditions are as follows: (1) The first effect ends after the date and time referred to by the distribution server reaches the effect start point set within the time frame allocated for the live distribution of the video data. (2) after the number of spectators of the video data satisfies a predetermined condition until the second performance end condition is satisfied; (4) from the time the comment posted to the video data satisfies a predetermined condition until the fourth effect end condition is satisfied; and (5) The distribution server according to C1, which satisfies at least one of a period from when the reproduced video or reproduced audio of the video data satisfies a predetermined condition to when the fifth rendering end condition is satisfied.
[C3] Any one of the first effect end condition, the second effect end condition, the third effect end condition, the fourth effect end condition and the fifth effect end condition is satisfied. The distribution server according to C2, further comprising a creation unit that creates the effect data including information dynamically indicating a necessary condition.
[C4] The distribution server according to C3, wherein the creation unit creates the effect data including information indicating a gap between the number of spectators or the number of comments in the video data and the required number.
[C5] The distribution server according to C1 or C2, further comprising a creation unit that creates the effect data including information about an event that occurred after the start of live distribution of the video data.
[C6] The creating unit includes the number of spectators of the video data, part of comments posted on the video data, the number of comments posted on the video data, and comments on the video data. The distribution server according to C5, which creates the effect data including information indicating at least one of the posted spectator names.
[C7] Reacting to at least one of (1) a user input made to at least one of the distributor terminal and the spectator terminal and (2) a comment posted by at least one of the distributor terminal and the spectator terminal The distribution server according to C1 or C2, further comprising a creation unit that creates performance data that changes by
[C8] Further comprising a creation unit that creates the effect data including information generated based on at least one of metadata attached to the video data and information displayed on a web page related to the video data. , C1 or C2.
[C9] The synthesizing unit according to any one of C1 to C7, wherein a part or all of a screen of the reproduced video of the video data is resized and synthesized with the effect data to generate the synthesized video data. distribution server.
[C10] The synthesizing unit synthesizes the video data with the effect data such that a part of the screen of the reproduced video of the video data is exposed and the remaining part is hidden, thereby generating the synthesized video data, C1 to C7. The distribution server according to any one of Claims 1 to 3.
[C11] computer,
means for receiving video data for live distribution from a distributor terminal;
Means for determining whether or not performance conditions are satisfied;
means for synthesizing performance data with the video data to generate synthetic video data when the performance condition is satisfied;
Means for distributing the composite video data to the distributor terminal and the spectator terminal
A distribution program for functioning as a
[C12] The receiving unit receives from at least one of the distributor terminal and the spectator terminal a combination position of the video data and the effect data, an enlargement/reduction ratio of the video data, an enlargement/reduction ratio of the effect data, further receiving designation data designating at least one of the amount of rotation of the image data, the amount of rotation of the effect data, a specific area in the image data, and a specific area in the effect data;
The synthesizing unit performs at least one of translation, resizing, rotation, inversion, and trimming on at least one of the video data and the effect data according to the specified data, and then synthesizes the video data and the effect data. , generating said composite video data;
The distribution server according to any one of C1 to C10.
[C13] a receiving unit that receives video data for live distribution from a distributor terminal;
a determination unit that determines whether or not the rendering conditions are satisfied;
a processing unit that performs predetermined processing on the video data to generate processed video data when the performance condition is satisfied;
a distribution unit that distributes the processed video data to the distributor terminal and the spectator terminal;
A distribution server comprising:
[C14] When the effect condition is satisfied, the processing unit duplicates the specific area in the video data as it is, or after performing at least one of rotation, inversion and resizing, pastes it into the video data. The distribution server according to C13, which generates the processed video data.
[C15] a determination unit that determines whether or not the rendering conditions are satisfied;
Video data for live distribution is received from a distributor terminal, and when the performance condition is satisfied, at least one of the distributor terminal and the spectator terminal is further sent to at least one of the distributor terminal and the spectator terminal. a receiving unit for receiving an operation request for dynamic effect data synthesized with the video data in
a generation unit that generates operation data of the dynamic effect data based on the operation request;
a distribution unit that distributes the video data and the operation data to at least one of the distributor terminal and the audience terminal;
A distribution server comprising:
[C16] The distribution server according to C15, wherein the dynamic effect data is video data that causes screen transitions in accordance with the operation data.
[C17] a determination unit that determines whether or not the rendering conditions are satisfied;
a generation unit that generates an operation request for dynamic performance data according to a user input when the performance condition is satisfied;
a transmission unit that transmits the operation request to a distribution server;
a receiving unit that receives, from the distribution server, video data for live distribution and operation data of the dynamic effect data generated based on the operation request when the effect condition is satisfied;
a control unit that controls the dynamic effect data based on the operation request;
a synthesizing unit that synthesizes the dynamic presentation data with the video data;
terminal.

100・・・配信者端末
200,500,700,900,1100・・・配信サーバ
201,501,601,701,801,901,1001,1101・・・受信部 202,502,702,902,1102・・・時計部
203,503,703,903,1103・・・配信制御部
204,504,604,704,804,904,1004,1104・・・演出条件判定部
205,505,605,705,805,905,1005,1105・・・演出条件記憶部
206,506,606・・・演出データ作成部
207,507,607,1007,1107・・・演出データ合成部
208,508,708,908,1108・・・映像配信部
300・・・観客端末
600,800,1000・・・端末
608,808,1008・・・表示制御部
707,807・・・映像加工部
909,1109・・・操作データ生成部
1006,1106・・・演出データ制御部
1010・・・入力部
1011・・・操作要求生成部
1012・・・送信部
100 Distributor terminal 200,500,700,900,1100 Distribution server 201,501,601,701,801,901,1001,1101 Reception unit 202,502,702,902,1102 Clock unit 203, 503, 703, 903, 1103 Distribution control unit 204, 504, 604, 704, 804, 904, 1004, 1104 Effect condition determination unit 205, 505, 605, 705, 805, 905, 1005, 1105... Effect condition storage unit 206, 506, 606... Effect data creation unit 207, 507, 607, 1007, 1107... Effect data synthesizing unit 208, 508, 708, 908, 1108 Video distribution unit 300 Audience terminal 600, 800, 1000 Terminal 608, 808, 1008 Display control unit 707, 807 Video processing unit 909, 1109 Operation data Generating units 1006, 1106 Effect data control unit 1010 Input unit 1011 Operation request generating unit 1012 Transmitting unit

Claims (12)

配信者端末から、少なくとも生配信用の映像データを受信することと、
演出条件が満足しているか否かを判定することと、
前記演出条件が満足している時に、前記生配信用の映像データに対して演出を付加することと、
前記演出が付加された映像データを前記配信者端末あるいは観客端末へ配信することと
をコンピュータに実行させるコンピュータプログラムであって、
前記演出条件は、オープニング演出、エンディング演出、または中間演出を付加するか否かを判定するための基準であり、前記演出条件は、少なくとも、前記映像データの生配信のために割り当てられた時間枠、前記映像データの観客数、前記オープニング演出の開始の指示、前記映像データに対して投稿されたコメント、前記映像データの再生音声のいずれかに基づく条件を含み、
前記判定することは、前記オープニング演出、エンディング演出、または中間演出のそれぞれについて、前記演出条件を満たすか否かを判定することを含む、
コンピュータプログラム。
Receiving at least video data for live distribution from a distributor terminal;
Determining whether the production conditions are satisfied;
adding an effect to the video data for live distribution when the effect condition is satisfied;
A computer program for causing a computer to distribute the video data to which the effect has been added to the distributor terminal or the spectator terminal,
The effect condition is a criterion for determining whether or not to add an opening effect, an ending effect, or an intermediate effect, and the effect condition is at least a time frame allocated for live distribution of the video data. , the number of spectators of the video data, an instruction to start the opening effect, a comment posted on the video data, and a condition based on the playback sound of the video data,
The determining includes determining whether or not the performance conditions are satisfied for each of the opening effect, the ending effect, or the intermediate effect.
computer program.
配信者端末から、少なくとも生配信用の映像データを受信することと、 Receiving at least video data for live distribution from a distributor terminal;
演出条件が満足しているか否かを判定することと、 Determining whether the production conditions are satisfied;
前記演出条件が満足している時に、前記生配信用の映像データに対して演出を付加することと、 adding an effect to the video data for live distribution when the effect condition is satisfied;
前記演出が付加された映像データを前記配信者端末あるいは観客端末へ配信することと distributing the video data to which the effect is added to the distributor terminal or the spectator terminal;
をコンピュータに実行させるコンピュータプログラムであって、 A computer program that causes a computer to execute
前記演出条件は、オープニング演出、エンディング演出、または中間演出を付加するか否かを判定するための基準であり、前記演出条件は、所定の条件を満足してから演出終了条件が満足するまでの間に満足するように定められており、 The effect condition is a criterion for determining whether or not to add an opening effect, an ending effect, or an intermediate effect. is determined to satisfy between
前記判定することは、前記オープニング演出、エンディング演出、または中間演出のそれぞれについて、前記演出条件を満たすか否かを判定することを含む、 The determining includes determining whether or not the performance conditions are satisfied for each of the opening effect, the ending effect, or the intermediate effect.
コンピュータプログラム。computer program.
前記生配信用の映像データに対して演出を付加することは、前記映像データに対して前記演出を合成し、合成映像データを生成することを含む、請求項1または2に記載のコンピュータプログラム。 3. The computer program according to claim 1, wherein adding an effect to said video data for live distribution includes synthesizing said effect with said video data to generate synthesized video data. 前記受信することは、前記生配信用の前記映像データおよび前記演出をどのように合成するかを指定する指定データを受信することを含み、
前記生配信用の映像データに対して演出を付加することは、前記指定データに従って前記映像データまたは前記演出を合成し、合成映像データを生成することを含む、請求項1または2に記載のコンピュータプログラム。
The receiving includes receiving designation data that designates how to synthesize the video data for live distribution and the presentation;
3. The computer according to claim 1 , wherein adding an effect to said video data for live distribution includes synthesizing said video data or said effect according to said designated data to generate synthesized video data. program.
前記生配信用の映像データに対して演出を付加することは、前記映像データに対して既定の加工を行って加工済み映像データを生成することを含む、請求項1または2に記載のコンピュータプログラム。 3. The computer program according to claim 1, wherein adding an effect to said video data for live distribution includes performing predetermined processing on said video data to generate processed video data. . 前記生配信用の映像データに対して演出を付加することは、前記配信者端末あるいは観客端末の少なくとも1つからの操作要求に基づいて動的な演出の操作データを生成することを含み、
前記配信することは、前記映像データおよび前記操作データを前記配信者端末あるいは観客端末の少なくとも1つへ配信することを含む、請求項1または2に記載のコンピュータプログラム。
Adding an effect to the video data for live distribution includes generating operation data for a dynamic effect based on an operation request from at least one of the distributor terminal or the spectator terminal,
3. The computer program product according to claim 1, wherein said distributing includes distributing said video data and said operation data to at least one of said distributor terminal or spectator terminal.
前記演出を作成すること、をさらにコンピュータに実行させる、
請求項1乃至請求項のいずれか一項に記載のコンピュータプログラム。
further causing a computer to perform creating the rendition;
7. A computer program according to any one of claims 1-6 .
前記作成することは、前記映像データの生配信が開始された後に生じた事象に関する情報を含む前記演出を作成することを含む、請求項に記載のコンピュータプログラム。 8. The computer program product of claim 7 , wherein said creating includes creating said presentation including information about events that occurred after live distribution of said video data began. 配信者端末から、少なくとも生配信用の映像データを受信する受信部と、
演出条件が満足しているか否かを判定する判定部と、
前記演出条件が満足している時に、前記生配信用の映像データに対して演出を付加したデータを前記配信者端末あるいは観客端末へ配信する配信部と
を具備し、
前記演出条件は、オープニング演出、エンディング演出、または中間演出を付加するか否かを判定するための基準であり、前記演出条件は、少なくとも、前記映像データの生配信のために割り当てられた時間枠、前記映像データの観客数、前記オープニング演出の開始の指示、前記映像データに対して投稿されたコメント、前記映像データの再生音声のいずれかに基づく条件を含み、
前記判定部は、前記オープニング演出、前記エンディング演出、または前記中間演出のそれぞれについて、前記演出条件を満たすか否かを判定する、
配信サーバ。
a receiving unit that receives at least video data for live distribution from a distributor terminal;
a determination unit that determines whether or not the rendering conditions are satisfied;
a distribution unit that distributes data added with effects to the video data for live distribution to the distributor terminal or the spectator terminal when the effect condition is satisfied;
The effect condition is a criterion for determining whether or not to add an opening effect, an ending effect, or an intermediate effect, and the effect condition is at least a time frame allocated for live distribution of the video data. , the number of spectators of the video data, an instruction to start the opening effect, a comment posted on the video data, and a condition based on the playback sound of the video data,
The determination unit determines whether or not each of the opening effect, the ending effect, or the intermediate effect satisfies the effect condition.
distribution server.
配信者端末から、少なくとも生配信用の映像データを受信する受信部と、
演出条件が満足しているか否かを判定する判定部と、
前記演出条件が満足している時に、前記生配信用の映像データに対して演出を付加したデータを前記配信者端末あるいは観客端末へ配信する配信部と
を具備し、
前記演出条件は、オープニング演出、エンディング演出、または中間演出を付加するか否かを判定するための基準であり、前記演出条件は、所定の条件を満足してから演出終了条件が満足するまでの間に満足するように定められており、
前記判定部は、前記オープニング演出、前記エンディング演出、または前記中間演出のそれぞれについて、前記演出条件を満たすか否かを判定する、
配信サーバ。
a receiving unit that receives at least video data for live distribution from a distributor terminal;
a determination unit that determines whether or not the rendering conditions are satisfied;
a distribution unit for distributing, when the performance condition is satisfied, data added with performance to the video data for live distribution to the distributor terminal or the spectator terminal;
and
The effect condition is a criterion for determining whether or not to add an opening effect, an ending effect, or an intermediate effect. is determined to satisfy between
The determination unit determines whether or not each of the opening effect, the ending effect, or the intermediate effect satisfies the effect condition.
distribution server.
サーバから、少なくとも生配信用の映像データを受信することと、 Receiving at least video data for live distribution from a server;
演出条件が満足しているか否かの判定を取得することと、 obtaining a determination as to whether or not the rendering conditions are satisfied;
前記演出条件が満足している時に、前記生配信用の映像データに対して演出を付加することと、 adding an effect to the video data for live distribution when the effect condition is satisfied;
前記演出が付加された映像データを表示装置の画面に表示することと displaying the video data to which the effect has been added on a screen of a display device;
をコンピュータに実行させるコンピュータプログラムであって、 A computer program that causes a computer to execute
前記演出条件は、オープニング演出、エンディング演出、または中間演出を付加するか否かを判定するための基準であり、前記演出条件は、少なくとも、前記映像データの生配信のために割り当てられた時間枠、前記映像データの観客数、前記オープニング演出の開始の指示、前記映像データに対して投稿されたコメント、前記映像データの再生音声のいずれかに基づく条件を含み、 The effect condition is a criterion for determining whether or not to add an opening effect, an ending effect, or an intermediate effect, and the effect condition is at least a time frame allocated for live distribution of the video data. , the number of spectators of the video data, an instruction to start the opening effect, a comment posted on the video data, and a condition based on the playback sound of the video data,
前記判定することは、前記オープニング演出、エンディング演出、または中間演出のそれぞれについて、前記演出条件を満たすか否かを判定することを含む、 The determining includes determining whether or not the performance conditions are satisfied for each of the opening effect, the ending effect, or the intermediate effect.
コンピュータプログラム。computer program.
サーバから、少なくとも生配信用の映像データを受信することと、 Receiving at least video data for live distribution from a server;
演出条件が満足しているか否かの判定を取得することと、 obtaining a determination as to whether or not the rendering conditions are satisfied;
前記演出条件が満足している時に、前記生配信用の映像データに対して演出を付加することと、 adding an effect to the video data for live distribution when the effect condition is satisfied;
前記演出が付加された映像データを表示装置の画面に表示することと displaying the video data to which the effect has been added on a screen of a display device;
をコンピュータに実行させるコンピュータプログラムであって、 A computer program that causes a computer to execute
前記演出条件は、オープニング演出、エンディング演出、または中間演出を付加するか否かを判定するための基準であり、前記演出条件は、所定の条件を満足してから演出終了条件が満足するまでの間に満足するように定められており、 The effect condition is a criterion for determining whether or not to add an opening effect, an ending effect, or an intermediate effect. is determined to satisfy between
前記判定することは、前記オープニング演出、エンディング演出、または中間演出のそれぞれについて、前記演出条件を満たすか否かを判定することを含む、 The determining includes determining whether or not the performance conditions are satisfied for each of the opening effect, the ending effect, or the intermediate effect.
コンピュータプログラム。computer program.
JP2019010226A 2017-11-13 2019-01-24 Computer program and distribution server Active JP7159067B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017218211 2017-11-13
JP2017218211 2017-11-13

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018100684A Division JP6473262B1 (en) 2017-11-13 2018-05-25 Distribution server, distribution program, and terminal

Publications (3)

Publication Number Publication Date
JP2019092186A JP2019092186A (en) 2019-06-13
JP2019092186A5 JP2019092186A5 (en) 2021-07-26
JP7159067B2 true JP7159067B2 (en) 2022-10-24

Family

ID=65443034

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018100684A Active JP6473262B1 (en) 2017-11-13 2018-05-25 Distribution server, distribution program, and terminal
JP2019010226A Active JP7159067B2 (en) 2017-11-13 2019-01-24 Computer program and distribution server

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018100684A Active JP6473262B1 (en) 2017-11-13 2018-05-25 Distribution server, distribution program, and terminal

Country Status (1)

Country Link
JP (2) JP6473262B1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6533022B1 (en) * 2019-02-28 2019-06-19 株式会社ドワンゴ Terminal, server and program
WO2022075418A1 (en) * 2020-10-09 2022-04-14 ヤマハ株式会社 Communication method and system
JP2022134182A (en) 2021-03-03 2022-09-15 ヤマハ株式会社 Video output method, video output device, and video output system
JP7270276B2 (en) * 2021-03-12 2023-05-10 株式会社コナミデジタルエンタテインメント Terminal device, server device, terminal device control method, server device control method, distribution system, display system, and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012124608A (en) 2010-12-06 2012-06-28 Olympus Imaging Corp Camera
WO2014097814A1 (en) 2012-12-20 2014-06-26 シャープ株式会社 Display device, input device, information presentation device, program and recording medium
WO2016088566A1 (en) 2014-12-03 2016-06-09 ソニー株式会社 Information processing apparatus, information processing method, and program
WO2017159383A1 (en) 2016-03-16 2017-09-21 ソニー株式会社 Information processing device, information processing method, program, and moving-image delivery system
JP6219548B1 (en) 2017-03-31 2017-10-25 株式会社ドワンゴ Virtual processing server, virtual processing server control method, content distribution system, and terminal device application program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012124608A (en) 2010-12-06 2012-06-28 Olympus Imaging Corp Camera
WO2014097814A1 (en) 2012-12-20 2014-06-26 シャープ株式会社 Display device, input device, information presentation device, program and recording medium
WO2016088566A1 (en) 2014-12-03 2016-06-09 ソニー株式会社 Information processing apparatus, information processing method, and program
WO2017159383A1 (en) 2016-03-16 2017-09-21 ソニー株式会社 Information processing device, information processing method, program, and moving-image delivery system
JP6219548B1 (en) 2017-03-31 2017-10-25 株式会社ドワンゴ Virtual processing server, virtual processing server control method, content distribution system, and terminal device application program

Also Published As

Publication number Publication date
JP2019092146A (en) 2019-06-13
JP2019092186A (en) 2019-06-13
JP6473262B1 (en) 2019-02-20

Similar Documents

Publication Publication Date Title
JP7159067B2 (en) Computer program and distribution server
CN105765990B (en) Method, system and computer medium for distributing video content over a distributed network
US9788064B2 (en) User interface for method for creating a custom track
US10210902B2 (en) Method and apparatus for creating a custom track
US11812070B2 (en) Event production and distribution networks, systems, apparatuses, and methods related thereto
EP1415470B1 (en) Enhanced custom content television
CN100425072C (en) Information-processing apparatus, information-processing methods, recording mediums, and programs
EP2834972B2 (en) Multi-source video navigation
CN103686450A (en) Video processing method and system
AU2002333358A1 (en) Enhanced custom content multi media television
US11127432B2 (en) User interface for method for creating a custom track
US20130009984A1 (en) Display installed in hall
CN109479157A (en) Promote method, system and the medium of the interaction between the viewer of content stream
JP2005527158A (en) Presentation synthesizer
WO2021199559A1 (en) Video distribution device, video distribution method, and video distribution program
US20130251347A1 (en) System and method for portrayal of object or character target features in an at least partially computer-generated video
JP2003204535A (en) Apparatus and method for distributing image in synchronization with music
JP2006293939A (en) Publication issuance and distribution system
US7933671B2 (en) Data outputting device, data outputting method, data outputting program, and recording medium
JP2005228297A (en) Production method of real character type moving image object, reproduction method of real character type moving image information object, and recording medium
JP2004088728A (en) Picture providing apparatus, method, and program thereof
JP2004173320A (en) Image providing apparatus
JP7237927B2 (en) Information processing device, information processing device and program
KR20000058512A (en) A system for announce using a streaming file including returned function and a method for announce using the same

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210507

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210507

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220517

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220920

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221012

R150 Certificate of patent or registration of utility model

Ref document number: 7159067

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150