JP7159067B2 - Computer program and distribution server - Google Patents
Computer program and distribution server Download PDFInfo
- Publication number
- JP7159067B2 JP7159067B2 JP2019010226A JP2019010226A JP7159067B2 JP 7159067 B2 JP7159067 B2 JP 7159067B2 JP 2019010226 A JP2019010226 A JP 2019010226A JP 2019010226 A JP2019010226 A JP 2019010226A JP 7159067 B2 JP7159067 B2 JP 7159067B2
- Authority
- JP
- Japan
- Prior art keywords
- effect
- video data
- data
- condition
- terminal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Description
本発明は、動画共有システムにおける動画の生配信に関する。 The present invention relates to live distribution of moving images in a moving image sharing system.
近年、一部の動画共有システムでは、ユーザ(以降、単に配信者と呼ぶ)が撮影した動画を多数の観客へインターネット経由で生配信することが可能である。かかるインターネット経由で生配信される動画(以降、単に生番組と称する)でも、テレビ番組と同様に、配信者には利用可能な時間枠が割り当てられている。 2. Description of the Related Art In recent years, some moving image sharing systems allow live distribution of moving images shot by users (hereinafter simply referred to as distributors) to a large number of spectators via the Internet. In such videos live-delivered via the Internet (hereinafter simply referred to as live programs), the distributors are assigned available time slots in the same way as television programs.
テレビ番組は、通常の録画番組に限らず、生放送番組であっても、オープニング、エンディング、その他の中間演出を付けられることが多い。しかしながら、生番組の配信者が利用可能な技術および人的リソースは、通常、テレビ番組の制作会社と比べて限られているので、配信者が撮影した動画にオープニングやエンディングなどの演出を付加して生配信することは現実的に難しい。このため、生番組は、割り当てられた時間枠に合わせて生番組の本編が唐突に始まり、そして唐突に終わる、ということになりがちで、テレビ番組風の番組構成に慣れ親しんだ観客は違和感を覚えるかもしれない。 Television programs are not limited to ordinary recorded programs, and even live broadcast programs often have openings, endings, and other intermediate effects. However, the technology and human resources available to live program distributors are usually limited compared to TV program production companies, so it is not possible to add effects such as openings and endings to videos shot by distributors. It is realistically difficult to broadcast live. For this reason, live programs tend to abruptly begin and end abruptly in accordance with the allotted time frame, which is uncomfortable for audiences accustomed to TV program-like programming. Maybe.
また、生配信の開始直後は配信者のフォロワーを中心とする限られた数の観客しか集まらないことも多い。配信者はなるべく多くの観客が集まってからメインの企画に入ることを望むので、しばらく手持ち無沙汰な状態で待っていたり、マイクテストを行ったり、場合によっては離席するなど、間延び感のあるシーンが続いてしまうことがある。観客は、このようなシーンに遭遇すると、退屈に感じて視聴をやめてしまうかもしれない。 Also, immediately after the start of live distribution, only a limited number of spectators, mainly followers of the distributor, often gather. Since the broadcaster wants to start the main project after gathering as many spectators as possible, there is a sense of procrastination, such as waiting for a while, conducting a mic test, and depending on the case, leaving the seat. Scenes can go on and on. When the audience encounters such a scene, they may feel bored and stop watching.
特許文献1では、個人向け番組配信システムにおいて、視聴者からの配信要求を受信すると(S100)([0027])、番組コンテンツデータベースに記憶される番組コンテンツを抽出し(S106)、個人向けの番組コンテンツを編成し(S108)([0028])、視聴者端末に配信すること([0030])が記載されている。また、編成された個人向け番組コンテンツはタイトルとエンディングを含むこと([0027],[0029])が記載されている。 In Patent Document 1, when receiving a distribution request from a viewer (S100) ([0027]) in a program distribution system for individuals, program content stored in a program content database is extracted (S106), and programs for individuals are extracted. Contents are organized (S108) ([0028]) and distributed to viewer terminals ([0030]). Also, it is described that organized personal program content includes a title and an ending ([0027], [0029]).
また、特許文献2(特に、[0022]、[0057]、[0059]、要約書)には、撮影した動画データから背景部分を切り取り、予め準備しておいた背景画像または動画データと合成した合成動画データを作成し、さらに合成動画データを編集してオープニングタイトルおよびエンドロールのデータを含む統合動画データを生成し、統合動画データをネットワーク経由で共有する技術が開示されている。 In addition, in Patent Document 2 (especially [0022], [0057], [0059], abstract), a background portion is cut out from captured moving image data and synthesized with a background image or moving image data prepared in advance. A technique is disclosed for creating synthetic moving image data, further editing the synthetic moving image data to generate integrated moving image data including opening title and end roll data, and sharing the integrated moving image data via a network.
特許文献1には、リアルタイムコンテンツを随時盛り込んだ状態で番組コンテンツを配信することが記載されているものの、このリアルタイムコンテンツは、例えば、定時ニュース、全国ニュース、地域限定のローカルニュース、天気予報の情報等の一般的な時事情報を含み([0021])、例えば、いくつかのニュース写真の画像およびナレーションにより構成されたコンテンツ824aと取材動画によるコンテンツ826a等とがまとめられることで構成されている([0029])。ここで、取材動画は一般に録画済みの動画を指すから、特許文献1に記載されたリアルタイムコンテンツは、生番組とは異なる。また、個人向け番組コンテンツ800に含まれるタイトル810およびエンディング850は、リアルタイムコンテンツ820とは別個のコンテンツとして扱われている(図3、[0029])。
Although Patent Document 1 describes that program content is distributed in a state in which real-time content is included at any time, this real-time content includes, for example, regular news, national news, local news limited to a region, and weather forecast information. ([0021]) including general current affairs information such as ( [0029]). Here, the news coverage moving image generally refers to a recorded moving image, so the real-time content described in Patent Document 1 is different from the live program. Also, the title 810 and the ending 850 included in the
特許文献2に記載の技術は、全編撮影済みの動画をベースに統合動画データを生成して共有しており、生番組への適用は想定していない。また、オープニングタイトルおよびエンドロールは、合成動画とは独立したデータであり、両者を合成することまでは想定されていない。 The technique described in Patent Literature 2 generates and shares integrated moving image data based on fully captured moving images, and is not expected to be applied to live programs. Also, the opening title and the end credits are data independent of the composite video, and it is not assumed that the two will be composited.
従って、生番組の配信にこれらの技術を適用したとしても、生番組の本編とは独立したタイトル、オープニング、エンディング、エンドロールなどが付加されるに過ぎない。故に、ユーザ発信型の生番組に特有な、開始時および終了時の唐突感、開始直後の間延び感、利用可能な表現の幅が限られることによるメリハリ感のなさ、などを改善することは容易でない。 Therefore, even if these techniques are applied to distribution of live programs, titles, openings, endings, end rolls, etc., are added independently of the main part of the live programs. Therefore, it is easy to improve the abruptness at the beginning and end of live programs, the dullness immediately after the start, and the lack of sharpness due to the limited range of expressions that can be used, which are unique to user-generated live programs. not.
本発明は、生配信用の映像データに演出を自動的に付加して体裁を整えることを目的とする。 SUMMARY OF THE INVENTION An object of the present invention is to automatically add effects to video data for live distribution to make it look good.
本発明の第1の態様に係るコンピュータプログラムは、配信者端末から、少なくとも生配信用の映像データを受信することと、演出条件が満足しているか否かを判定することと、前記演出条件が満足している時に、前記生配信用の映像データに対して演出を付加することと、前記演出が付加された映像データを前記配信者端末あるいは観客端末へ配信することとをコンピュータに実行させるコンピュータプログラムであって、前記演出条件は、オープニング演出、エンディング演出、または中間演出を付加するか否かを判定するための基準であり、前記判定することは、前記オープニング演出、エンディング演出、または中間演出のそれぞれについて、前記演出条件を満たすか否かを判定することを含む。前記演出条件は、少なくとも、前記映像データの生配信のために割り当てられた時間枠、前記映像データの観客数、前記オープニング演出の開始の指示、前記映像データに対して投稿されたコメント、映像データの再生音声のいずれかに基づく条件を含むか、または、前記演出条件は、所定の条件を満足してから演出終了条件が満足するまでの間に満足するように定められてもよい。 A computer program according to a first aspect of the present invention comprises: receiving at least video data for live distribution from a distributor terminal; determining whether or not a rendering condition is satisfied; A computer that, when satisfied, adds an effect to the video data for live distribution and distributes the video data with the effect added to the distributor terminal or the spectator terminal. In the program, the effect condition is a criterion for determining whether or not to add an opening effect, an ending effect, or an intermediate effect, and the determination is based on the opening effect, the ending effect, or the intermediate effect. and determining whether or not the rendering conditions are satisfied for each of the above. The performance conditions include at least a time frame allocated for live distribution of the video data, the number of spectators of the video data, an instruction to start the opening performance, comments posted on the video data, and video data. Alternatively, the effect condition may be determined to be satisfied after a predetermined condition is satisfied until the effect end condition is satisfied.
本発明の第2の態様に係る配信サーバは、配信者端末から、少なくとも生配信用の映像データを受信する受信部と、演出条件が満足しているか否かを判定する判定部と、前記演出条件が満足している時に、前記生配信用の映像データに対して演出を付加したデータを前記配信者端末あるいは観客端末へ配信する配信部とを具備し、前記演出条件は、オープニング演出、エンディング演出、または中間演出を付加するか否かを判定するための基準であり、前記判定部は、前記オープニング演出、前記エンディング演出、または前記中間演出のそれぞれについて、前記演出条件を満たすか否かを判定する。前記演出条件は、少なくとも、前記映像データの生配信のために割り当てられた時間枠、前記映像データの観客数、前記オープニング演出の開始の指示、前記映像データに対して投稿されたコメント、映像データの再生音声のいずれかに基づく条件を含むか、または、前記演出条件は、所定の条件を満足してから演出終了条件が満足するまでの間に満足するように定められてもよい。 A distribution server according to a second aspect of the present invention includes a receiving unit that receives at least video data for live distribution from a distributor terminal, a determination unit that determines whether or not an effect condition is satisfied, and the effect a distribution unit that distributes data added with effects to the video data for live distribution to the distributor terminal or the spectator terminal when conditions are satisfied, and the effect conditions are an opening effect and an ending. It is a criterion for determining whether or not to add an effect or an intermediate effect, and the determination unit determines whether or not the effect condition is satisfied for each of the opening effect, the ending effect, and the intermediate effect. determine whether The performance conditions include at least a time frame allocated for live distribution of the video data, the number of spectators of the video data, an instruction to start the opening performance, comments posted on the video data, and video data. Alternatively, the effect condition may be determined to be satisfied after a predetermined condition is satisfied until the effect end condition is satisfied.
本発明の第3の態様に係るコンピュータプログラムは、サーバから、少なくとも生配信用の映像データを受信することと、演出条件が満足しているか否かの判定を取得することと、前記演出条件が満足している時に、前記生配信用の映像データに対して演出を付加することと、前記演出が付加された映像データを表示画面に表示することとをコンピュータに実行させるコンピュータプログラムであって、前記演出条件は、オープニング演出、エンディング演出、または中間演出を付加するか否かを判定するための基準であり、前記判定することは、前記オープニング演出、前記エンディング演出、または前記中間演出のそれぞれについて、前記演出条件を満たすか否かを判定する。前記演出条件は、少なくとも、前記映像データの生配信のために割り当てられた時間枠、前記映像データの観客数、前記オープニング演出の開始の指示、前記映像データに対して投稿されたコメント、映像データの再生音声のいずれかに基づく条件を含むか、または、前記演出条件は、所定の条件を満足してから演出終了条件が満足するまでの間に満足するように定められてもよい。 A computer program according to a third aspect of the present invention comprises: receiving at least video data for live distribution from a server ; obtaining a determination as to whether or not rendering conditions are satisfied; A computer program for causing a computer to add an effect to the video data for live distribution and to display the video data to which the effect is added on a display screen when a condition is satisfied. The effect condition is a criterion for determining whether or not to add an opening effect, an ending effect, or an intermediate effect. For each of them, it is determined whether or not the performance conditions are satisfied. The performance conditions include at least a time frame allocated for live distribution of the video data, the number of spectators of the video data, an instruction to start the opening performance, comments posted on the video data, and video data. Alternatively, the effect condition may be determined to be satisfied after a predetermined condition is satisfied until the effect end condition is satisfied.
本発明によれば、生配信用の映像データに演出を自動的に付加して体裁を整えることができる。 According to the present invention, it is possible to automatically add an effect to video data for live distribution and adjust the appearance.
以下、図面を参照しながら実施形態の説明を述べる。なお、以降、説明済みの要素と同一または類似の要素には同一または類似の符号を付し、重複する説明については基本的に省略する。例えば、複数の同一または類似の要素が存在する場合に、各要素を区別せずに説明するために共通の符号を用いることがあるし、各要素を区別して説明するために当該共通の符号に加えて枝番号を用いることもある。 An embodiment will be described below with reference to the drawings. Elements that are the same as or similar to elements that have already been explained are denoted by the same or similar reference numerals, and overlapping explanations are basically omitted. For example, when there are a plurality of identical or similar elements, common reference numerals may be used to describe each element without distinction, and the common reference numerals may be used to distinguish and describe each element. In addition, branch numbers are sometimes used.
(第1の実施形態)
第1の実施形態に係る配信サーバは、図1に例示される動画の生配信システムに組み込むことができる。この生配信システムは、配信者端末100と、配信サーバ200と、観客端末300-1,300-2,・・・とを含む。
(First embodiment)
The distribution server according to the first embodiment can be incorporated into the live video distribution system illustrated in FIG. This live distribution system includes a
配信サーバ200は、配信者端末100および観客端末300とネットワーク経由で接続しており、データを互いに送受信できる。なお、図1において示される各装置の数は、例示に過ぎない。例えば、観客端末300の数は、0となることがあり得るし、数百、数千となることもあり得る。また、図1に示されない、Webサーバまたはコメント配信サーバがさらに設けられてもよいし、これらの機能が配信サーバ200に組み込まれてもよい。
The
配信者端末100は、例えばビデオカメラなどの動画ソースに接続されたコンピュータなどの電子デバイス、例えば、テレビ受像機(インターネットテレビを含む)、PC(Personal Computer)、モバイル端末(例えば、タブレット、スマートフォン、ラップトップ、フィーチャーフォン、ポータブルゲーム機、デジタルミュージックプレイヤー、電子書籍リーダなど)、VR(Virtual Reality)端末、AR(Augmented Reality)端末などであり得るが、これらに限られない。配信者端末100は、動画ソースから出力されるエンコード済みの映像データを配信サーバ200へ逐次送信する。
配信サーバ200は、映像データの生配信に割り当てられた時間枠に亘って、配信者端末100から逐次送信される、エンコード済みの映像データを受信する。配信サーバ200は、基本的には、この映像データをそのまま配信者端末100および観客端末300へ配信する。
The
ただし、後述される演出条件が満足されている時には、配信サーバ200は、映像データに後述される演出データを合成し、合成された映像データ(以降、合成映像データと称する)を配信者端末100および観客端末300へ配信する。かかる演出条件の満足/不満足の判定、演出データの作成、および演出データの合成は、例えば配信サーバ200がスクリプトを実行することで実現されてもよい。
However, when the effect condition described later is satisfied, the
観客端末300は、配信者端末100と同様の電子デバイスであり得るが、配信者端末100とは異なり動画ソースに接続される必要はない。
Spectator terminal 300 can be an electronic device similar to
配信サーバ200がこのような演出データの自動合成を行うことで、例えば、オープニング演出、エンディング演出または中間演出を、配信者は手軽に利用することができる。かかる演出の付加は配信サーバ200によって行われるので、配信者が高度な動画編集スキル、動画編集用のハードウェアまたはソフトウェアがない、演出家などのサポーターがいない場合であっても支障がない。故に、配信者は、テレビ番組風に体裁の整った動画を容易に生配信することができる。
By having the
以下、図1中の配信サーバ200の構成および動作について順に図面を用いて説明する。
Hereinafter, the configuration and operation of
配信サーバ200は、コンピュータであって、配信者端末100から受信する映像データの配信制御、演出条件の判定、演出データの作成、演出データの合成、配信者端末100および観客端末300から受信する種々の要求等の解釈とこれに対する応答の生成、などを行うプロセッサと、かかる処理を実現するために当該プロセッサによって実行されるプログラムおよび当該プロセッサによって使用されるデータなどを一時的に格納するメモリとを含んでいる。
The
配信サーバ200は、さらに、ネットワークに接続するための通信装置と、大容量のデータを蓄積するための補助記憶装置とを利用可能である。通信装置および補助記憶装置は、配信サーバ200に内蔵されてもよいし、配信サーバ200に外付けされてもよい。
通信装置は、ネットワーク経由で配信者端末100および観客端末300と通信をする。例えば、通信装置は、配信者端末100から映像データを受信したり、観客端末300からの配信要求に対する応答を送信したりする。
The communication device communicates with the
補助記憶装置は、例えば、演出条件、演出データなどのデータを蓄積する。補助記憶装置は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)などの不揮発性記憶媒体であることが好ましい。補助記憶装置は、配信サーバ200にネットワーク経由で接続されたファイルサーバであり得る。
The auxiliary storage stores data such as effect conditions and effect data, for example. The auxiliary storage device is preferably a non-volatile storage medium such as HDD (Hard Disk Drive) or SSD (Solid State Drive). The auxiliary storage device may be a file server connected to
次に、図2を用いて配信サーバ200の構成例の説明を続ける。図2の配信サーバ200は、受信部201と、時計部202と、配信制御部203と、演出条件判定部204と、演出条件記憶部205と、演出データ作成部206と、演出データ合成部207と、映像配信部208とを含む。
Next, the description of the configuration example of the
受信部201は、ネットワーク経由で種々のデータを受信する。受信部201は、前述の通信装置であってもよいし、当該通信装置とのインターフェースであってもよい。 具体的には、受信部201は、配信者端末100から生配信用の映像データを受信する。受信部201は、この映像データを演出条件判定部204へ送る。また、受信部201は、観客端末300からこの映像データの配信要求を受信する。受信部201は、配信要求を配信制御部203へ送る。
A receiving
さらに、受信部201は、配信者端末100または観客端末300において所定のユーザ入力があったことを示す情報を受信し、これを演出条件判定部204へ送ってもよい。また、受信部201は、図1に示されないコメント配信サーバから上記映像データに対して投稿されたコメントを受信し、これを演出条件判定部204へ送ってもよい。なお、配信サーバ200が、コメント配信サーバの機能を備える場合には、受信部201は配信者端末100または観客端末300から直接的にコメントを受信し、これを演出条件判定部204へ送り得る。
Furthermore, the receiving
時計部202は、日時を指示する。時計部202は、例えば、固定周波数で振動する水晶発振器と、その出力を分周して1Hzの信号を得る分周回路と、この信号をカウントして日時を示すシリアル値を得るカウンタとを含む。時計部202の指示する日時は、配信制御部203および演出条件判定部204によって参照され得る。
A
配信制御部203は、映像データの生配信を制御する。配信制御部203は、前述のプロセッサおよびメモリであってよい。
具体的には、配信制御部203は、時計部202の指示する日時と、映像データの生配信に割り当てられた時間枠とを比較し、映像データの生配信の開始および終了を管理する。また、配信制御部203は、観客端末300による配信要求を受信部201から受け取り、当該観客端末300へ映像データが配信されるように映像配信部208を制御する。なお、配信制御部203は、受け取った配信要求に基づいて、観客数の管理を行ってもよい。配信制御部203の管理する時間枠、観客数などの情報は、演出条件判定部204または演出データ作成部206によって参照され得る。
The
Specifically, the
演出条件判定部204は、受信部201から映像データを受け取り、演出条件記憶部205から当該映像データについての演出条件を読み出し、演出条件が満足しているか否かを判定する。演出条件判定部204は、演出条件が満足していると判定した場合には映像データを演出データ合成部207へ送り、そうでなければ映像データを映像配信部208へ送る。演出条件判定部204は、前述のプロセッサおよびメモリであってよい。
The effect
演出条件判定部204は、演出条件が満足しているか否かを判定するために、必要に応じて、時計部202の指示する日時、配信制御部203の管理する時間枠、観客数、受信部201によって受信された、コメント、配信者端末100または観客端末300において所定のユーザ入力があったことを示す情報、映像データの再生映像または再生音声、などを参照し得る。
In order to determine whether or not the rendering conditions are satisfied, the performance
ここで、演出条件は、例えば、オープニング演出、エンディング演出、または中間演出を付加するか否か判定するための基準である。具体的には、オープニング演出を付加するための演出条件(オープニング演出条件)は、映像データに割り当てられた時間枠の始まりに、または、この始まりから所定時間後に設定された演出開始地点に、時計部202の指示する日時が到達してから、演出終了条件が満足するまでの間に満足するように定められてもよい。
Here, the effect condition is, for example, a criterion for determining whether or not to add an opening effect, an ending effect, or an intermediate effect. Specifically, the effect condition for adding the opening effect (opening effect condition) is set at the beginning of the time frame assigned to the video data, or at the effect start point set after a predetermined time from the start. It may be determined to be satisfied in a period from the arrival of the date and time instructed by the
オープニング演出条件は、映像データの観客数が所定の条件を満足してから演出終了条件が満足するまでの間に満足するように定められてもよい。ここでの条件は、例えば、観客数が所定数に達したことなどであり得る。 The opening effect condition may be determined so as to be satisfied during the period from when the number of spectators of the video data satisfies a predetermined condition to when the effect end condition is satisfied. The condition here can be, for example, that the number of spectators has reached a predetermined number.
オープニング演出条件は、配信者端末100または観客端末300において所定のユーザ入力があってから演出終了条件が満足するまでの間に満足するように定められてもよい。所定のユーザ入力は、例えば、配信者端末100に表示される、演出開始を指示するためのボタンなどのGUI(Graphical User Interface)部品を選択することであり得る。
The opening effect condition may be determined so as to be satisfied during a period from when a predetermined user input is made at the
オープニング演出条件は、映像データに対して投稿されたコメントが所定の条件を満足してから演出終了条件が満足するまでの間に満足するように定められてもよい。ここでの条件は、例えば、コメント数が所定数に達したこと、特定のキーワードを含むコメント数が所定数に達したこと、レアワードを含むコメントがあったことなどであり得る。 The opening effect condition may be determined so as to be satisfied after the comment posted to the video data satisfies a predetermined condition until the effect end condition is satisfied. The conditions here can be, for example, that the number of comments has reached a predetermined number, that the number of comments that include a specific keyword has reached a predetermined number, that there is a comment that includes a rare word, or the like.
オープニング演出条件は、映像データの再生映像または再生音声が所定の条件を満足してから演出終了条件が満足するまでの間に満足するように定められてもよい。ここでの条件は、再生映像から例えば配信者が所定のジェスチャまたは表情を採ったことが認識されたこと、再生音声から例えば配信者が所定のフレーズを発話したことが認識されたこと、などであり得る。 The opening effect condition may be determined so as to be satisfied during a period from when the reproduced video or reproduced sound of the video data satisfies a predetermined condition to when the effect end condition is satisfied. The conditions here are, for example, that it is recognized from the reproduced video that the distributor has taken a predetermined gesture or facial expression, that from the reproduced voice that the distributor has uttered a predetermined phrase, and the like. could be.
オープニング演出の演出終了条件は、例えば、演出開始から所定時間が経過した時、観客数またはコメント数が必要数に達した時、または配信者端末100若しくは観客端末300に所定のユーザ入力があった時、映像データの再生映像から例えば配信者が所定のジェスチャまたは表情を採ったことが認識された時、再生音声から例えば配信者が所定のフレーズを発話したことが認識された時、などに満足するように定められてよい。
The condition for ending the opening effect is, for example, when a predetermined time has passed since the start of the effect, when the number of spectators or the number of comments reaches a required number, or when there is a predetermined user input to the
時間枠の始まりからずれた地点からオープニング演出を開始することにより、生配信の開始直後は映像データがそのまま配信され、観客がある程度集まった頃合いにオープニング演出が始まり、生番組の本編への観客の期待を高めて継続して視聴する動機付けをすることができる。他方、時間枠の始まりと一致またはこれに近い地点からオープニング演出を開始することにより、最初期の観客が、オープニング演出を待てず離れてしまうのを防ぐことができる。 By starting the opening performance from a point shifted from the beginning of the time frame, the video data is delivered as it is immediately after the start of the live distribution, and the opening performance starts when the audience has gathered to a certain extent, and the audience to the main part of the live program. It is possible to motivate continuous viewing by raising expectations of. On the other hand, by starting the opening effect from a point that coincides with or is close to the start of the time frame, it is possible to prevent the earliest spectators from leaving without waiting for the opening effect.
また、エンディング演出を付加するための演出条件(エンディング演出条件)は、映像データに割り当てられた時間枠の終わりから所定時間前に設定された演出開始地点に、時計部202の指示する日時が到達してから、演出終了条件が満足するまでの間に満足するように定められてもよい。その他、エンディング演出条件は、前述したオープニング演出条件と同様に定められ得る。
In addition, the effect condition for adding the ending effect (ending effect condition) is that the date and time indicated by the
エンディング演出の演出終了条件は、オープニング演出の演出終了条件と同様であってもよいし、映像データに割り当てられた時間枠の終わりに時計部202の指示する日時が達した時に満足するように定められてもよい。
The rendering termination condition for the ending rendering may be the same as the rendering termination condition for the opening rendering, or is determined to be satisfied when the date and time indicated by the
中間演出は、例えば、映像データに割り当てられた時間枠の途中で、例えばファンファーレなどの演出映像、映像データにリプレイ映像またはスローモーション再生映像を合成することで実現されてもよい。リプレイ映像またはスローモーション再生映像は、直前の映像を対象としてもよいがこれに限られない。また、生番組がマルチカメラで撮影されている場合には、別視点の映像を合成し、或いは視点の切り替えを行ってもよい。 Intermediate effects may be realized, for example, by synthesizing effect images such as fanfare, and replay images or slow-motion playback images with the image data in the middle of the time frame assigned to the image data. The replay video or slow-motion playback video may be the previous video, but is not limited to this. Also, when a live program is shot with a multi-camera, images from different viewpoints may be synthesized or viewpoints may be switched.
中間演出を付加するための演出条件(中間演出条件)は、映像データに割り当てられた時間枠の始まりから所定時間後に設定された演出開始地点に、時計部202の指示する日時が到達してから、演出終了条件が満足するまでの間に満足するように定められてもよい。また、中間演出条件は、生番組に付与された広告や商品紹介を配信者または観客がクリックした場合または、広告や商品紹介の対象となった商品を配信者または観客が購入した場合に、その購入の所定時間後から演出終了条件が満足するまでの間に満足するように定められてもよい。ここで、広告や商品紹介は、例えば配信者端末100または観客端末300において、生番組の表示ページ内、または当該表示ページから遷移可能なページで表示され得る。その他、中間演出条件は、前述したオープニング演出条件と同様に定められ得る。また、中間演出の演出終了条件は、オープニング演出の演出終了条件と同様であってもよい。
The effect condition for adding the intermediate effect (intermediate effect condition) is set after the date and time indicated by the
例えば、映像データの観客数、または映像データに対して投稿されたコメント数が急上昇した時に、ファンファーレの映像を合成する中間演出が開始するようにしてもよい。また、例えば「リプレイ」、「スロー」、「もう1回」などの特定のキーワードを含むコメントが映像データに対して所定時間内に所定数以上投稿された時に、リプレイ映像またはスローモーション再生映像を合成する中間演出が開始するようにしてもよい。 For example, when the number of spectators of the video data or the number of comments posted on the video data rises sharply, an intermediate effect of synthesizing a fanfare video may be started. Also, for example, when more than a predetermined number of comments including specific keywords such as "replay", "slow", and "one more time" are posted to the video data within a predetermined time, the replay video or slow motion playback video is displayed. An intermediate effect to be synthesized may be started.
演出条件記憶部205は、前述の種々の演出条件を格納する。演出条件記憶部205に格納された演出条件は、演出条件判定部204および演出データ作成部206によって必要に応じて読み出される。演出条件記憶部205は、前述の補助記憶装置であってもよいし、当該補助記憶装置とのインターフェースであってもよい。
The effect
演出データ作成部206は、演出データを作成し、演出データ合成部207へ送る。演出データ作成部206は、前述のプロセッサおよびメモリであってよい。
演出データは、動的な演出データと静的な演出データとに大別することができる。静的な演出データは、映像データの内容に左右されない固定の動画データまたは静止画データであり得る。固定の動画データは、例えば、生配信対象の映像データの再生映像をはめ込むための領域を有する、様々なアニメーションまたは実写映像であってもよい。固定の静止画データは、例えば、映像データの再生映像の画面端を装飾する枠、映像データの再生映像の覆うオブジェクトなどであってもよい。なお、後述する動的な演出データを利用しない場合には、静的な演出データをプリセットしておくことにより、演出データ作成部206を省略することができる。
The effect
Effect data can be broadly classified into dynamic effect data and static effect data. Static effect data can be fixed moving image data or still image data that is not affected by the contents of video data. Fixed video data may be, for example, various animations or live-action videos with areas for embedding playback video of the video data to be live-distributed. The fixed still image data may be, for example, a frame that decorates the edge of the screen of the reproduced video of the video data, an object that covers the reproduced video of the video data, or the like. If dynamic effect data, which will be described later, is not used, the effect
動的な演出データは、例えば、演出終了条件が満足するための必要条件を動的に示す情報を含む動画データまたは静止画データであってもよいし、映像データの生配信が開始された後に生じた事象に関する情報を含む動画データまたは静止画データであってもよいし、生配信の対象となる映像データのリプレイ映像またはスローモーション再生映像であってもよいし、別視点の映像であってもよいし、例えば動画タイトル、クレジットタイトル、配信者コメントまたは説明文などを含む動画データまたは静止画データであってもよい。かかる情報は、配信者、観客もしくはサービス運営者が生配信の開始前に入力した情報、または配信サーバ200またはその他のサーバにより自動的に付与された情報から抽出され得る。例えば、演出データは、生番組に対して付与されたキーワードである動画タグ、または生番組に対して付与されたスポンサー名、などのメタデータから自動的に生成される情報、例えば、番組カテゴリ、URL(Uniform Resource Locator)、などを含む動画データまたは静止画データであってもよい。ここで、動画タグおよびスポンサー名は、配信者、観客またはサービス運営者により人力で付与されることもあり得るし、配信サーバ200またはその他のサーバにより自動的に付与されることもあり得る。
The dynamic rendering data may be, for example, moving image data or still image data including information dynamically indicating the necessary conditions for satisfying the rendering end condition, or may be dynamic image data or still image data after live distribution of the video data is started. It may be video data or still image data containing information about an event that occurred, replay video or slow-motion playback video of video data to be distributed live, or video from another viewpoint. Alternatively, it may be moving image data or still image data including, for example, moving image titles, credit titles, distributor's comments or explanations. Such information may be extracted from information entered by the broadcaster, audience, or service operator prior to the start of the live broadcast, or information automatically provided by
さらに、動的な演出データは、生番組に関連するウェブページに表示される情報に基づいて自動的に生成されてもよい。例えば、動画像共有サービスのフロントページなどの番組紹介ページでは、現在公開中の多数の生番組のサムネイルが並べて表示されることがある。そして、かかる番組紹介ページでは、サムネイルの周辺に、例えば「人気上昇中」などの生番組に関する補足情報が表示されることがある。かかる補足情報が付与されたサムネイルに対応する生番組には、当該補足情報そのものまたは当該補足情報から抽出・加工された情報を含む演出データが適用されてもよいし、適用される演出データが当該補足情報に依存して切り替えられてもよい。例えば、補足情報から抽出された情報に基づいて自動的に編集された番組タイトル、補足情報から抽出されたスポンサー名、などが演出データに含まれてもよい。 Additionally, dynamic rendition data may be automatically generated based on information displayed on web pages related to live programming. For example, on a program introduction page such as the front page of a moving image sharing service, thumbnails of many live programs that are currently open to the public may be displayed side by side. In such a program introduction page, supplementary information about the live program such as "rising popularity" may be displayed around the thumbnail. To the live program corresponding to the thumbnail to which such supplementary information is attached, the supplementary information itself or effect data including information extracted and processed from the supplemental information may be applied, or the effect data to be applied may be applied to the thumbnail. It may be switched depending on the supplementary information. For example, the effect data may include a program title automatically edited based on information extracted from the supplementary information, a sponsor name extracted from the supplementary information, and the like.
具体的には、演出データ作成部206は、演出終了条件が満足するための必要条件として、映像データの現在の観客数またはコメント数と必要数とのギャップを、例えばカウントダウン形式で示す情報、例えば「あと○○人」、「あと○○コメント」などのテキストを含む演出データを作成してもよい。映像データの現在の観客数またはコメント数の情報は、例えば配信制御部203から取得することができる。また、演出終了条件が満足するために必要な観客数またはコメント数の情報は、例えば演出条件記憶部205から取得することができる。かかる情報が表示されることで、観客は、生番組の本編開始までの目安時間を把握し、それまで待てるかどうか、また、離席してよいのかどうかの判断をすることができる。
Specifically, the effect
また、演出データ作成部206は、映像データの生配信が開始された後に生じた事象に関する情報として、例えば映像データの観客数、映像データに対して投稿されたコメントの一部(例えばダイジェスト)、映像データに対して投稿されたコメント数、および映像データに対してコメントを投稿した観客名、生番組に付与された広告や商品紹介のクリック数、広告や商品紹介から購入された商品に関する情報(例えば商品の名称、購入数、購入総額、写真、購入者情報など)、などを示す情報を含む演出データを作成してもよい。かかる情報を例えばエンドロールとして用いることで、個々の映像データの生配信の態様にふさわしいエンディング演出が可能となる。
In addition, the effect
また、演出データ作成部206は、配信者端末100または観客端末300になされたユーザ入力、または配信者端末100または観客端末300によって投稿されたコメントに反応して変化する演出データを作成してもよい。例えば、演出データは、映像データの再生映像の画面を遮るオブジェクト(例えば、紙吹雪、拍手を意味する「8」のシンボル、花束、ハートマーク、雲、人垣、配信者の設定したアイコン、動画像共有サービスのマスコットキャラクターなど)を含んでいてもよい。
Moreover, the effect
この場合に、演出データ作成部206は、演出開始時に、画面全体にかかるオブジェクトが敷き詰められた演出データを作成し、配信者端末100または観客端末300に所定のユーザ入力(例えばオブジェクト、またはボタンなどのGUIの選択)またはコメント投稿がなされると、オブジェクトを消滅、移動、縮小させるなどして徐々に映像データの再生映像の画面が見えるようにしてもよい。逆に、演出データ作成部206は、演出開始時に、オブジェクトを零または少数含む演出データを作成し、配信者端末100または観客端末300に所定のユーザ入力(例えばオブジェクト、またはボタンなどのGUIの選択)、またはコメント投稿がなされると、オブジェクトを出現、移動、拡大させるなどして徐々に映像データの再生映像の画面が見えなくなるようにしてもよい。
In this case, the effect
徐々に映像データの再生映像の画面が見えるようにする演出は、オープニングに適しているがこれに限定されるものではない。徐々に映像データの再生映像の画面が見えなくなる演出は、エンディングに適しているがこれに限定されるものではない。 The effect of gradually showing the screen of the reproduced video of the video data is suitable for the opening, but is not limited to this. An effect in which the screen of the reproduced image of the video data gradually disappears is suitable for the ending, but is not limited to this.
なお、オブジェクトの状態が全端末間で完全に同期していなかったとしても、生番組の本編の視聴体験には影響しないので、同期を行う頻度を減らしてサーバの負荷を軽減してもよい。 Note that even if the object states are not completely synchronized among all the terminals, the viewing experience of the main part of the live program is not affected, so the frequency of synchronization may be reduced to reduce the load on the server.
また、この例において、演出終了条件がオブジェクトの数、大きさ、位置などによって定められてもよい。この場合に、配信者および観客は、合成映像データの再生映像に含まれるオブジェクトの状態から演出終了条件が満足するための必要条件、例えばあとどれくらいオブジェクトを減らす必要があるのか、あとどれくらいオブジェクトを増やす必要があるのかを把握し得る。故に、かかるオブジェクトもまた、演出終了条件が満足するための必要条件を動的に示す情報の一例に相当する。 Also, in this example, the rendering end condition may be determined by the number, size, position, or the like of the objects. In this case, the distributor and the audience determine the necessary conditions for satisfying the rendering end condition from the state of the objects included in the reproduced video of the composite video data, for example, how many more objects need to be reduced, how much more objects need to be increased, and so on. You can figure out what you need. Therefore, such an object also corresponds to an example of information dynamically indicating a necessary condition for satisfying the rendering end condition.
演出データ合成部207は、演出条件判定部204から映像データを受け取り、演出データ作成部206から演出データを受け取る。演出データ合成部207は、映像データに演出データを合成し、合成映像データを生成する。演出データ合成部207は、例えば、アルファブレンド、ピクチャーインピクチャーなどの公知の技法を用いて、映像データに演出データを合成してもよい。演出データ合成部207は、合成映像データを映像配信部208へ送る。演出データ合成部207は、前述のプロセッサおよびメモリであってよい。なお、合成に用いられる演出データの種類は、所定のアルゴリズムにより自動的に決定されてもよいし、配信者および/または観客のユーザ入力情報により決定されてもよいし、両者の組み合わせにより決定されてもよい。例えば、生番組に付与された広告や商品紹介のクリック数、広告や商品紹介から購入された商品に関する情報、例えば商品の購入数、購入総額など、の情報により、エンディング演出に用いられる演出データが切り替えられてもよい。
The effect
演出データ合成部207は、例えば、映像データの再生映像の画面の一部または全部をリサイズして、または画面の一部をトリミングして演出データと合成してもよいし、映像データの再生映像の画面の一部が露出し、残部が隠れるように映像データを演出データと合成してもよい。図3に映像データを例示し、図4乃至図7に合成映像データを例示する。
For example, the effect
演出データ合成部207は、図4に例示されるように、図3の映像データの再生映像の画面の一部(例えば、配信者の顔領域)および全部をそれぞれ小さくリサイズして、演出データとしての動画データまたは静止画データにはめ込んでもよい。また、図4の例では、クレジットタイトルとして、「出演 ○○○」のテキストが演出データに含まれている。このように、映像データの再生映像の画面の全部を小さくリサイズしてから演出データと合成することで、画面が演出データによってマスクされないようにすることができる。故に、配信者が観客に見せたい部分が演出データによって隠されてしまうハプニングを防ぐことができる。他方、映像データの再生映像の画面の全部ではなく一部を小さく、または大きくリサイズしてから演出データと合成すれば、配信者が観客に見せたい部分を過度に縮小しないように、或いはより強調することができる。画面の一部は、例えば画面の中心に近い領域など静的な領域であってもよいし、配信者の顔がある領域、動きの大きい領域など動的な領域であってもよい。動的な領域を抽出する場合には、例えば、公知の顔認識技術、動体検出技術などが利用されてよい。
As illustrated in FIG. 4, the effect
このように、映像データの再生映像の画面のリサイズを行ってから演出データと合成することで、配信者および観客に、生番組の本編とは異なる特別な演出が付加されていることを意識させることができる。 In this way, by resizing the screen of the reproduced video of the video data and then synthesizing it with the effect data, the distributor and the audience are made aware that a special effect different from the main part of the live program is added. be able to.
演出データ合成部207は、図5および図6に例示されるように、図3の映像データに演出データを合成し、映像データの再生映像の画面を遮るオブジェクトが合成された合成映像データを生成してもよい。図5の例では、演出開始時には、画面一杯にテレビをモチーフとするマスコットキャラクターのシルエットのオブジェクトが敷き詰められており、観客(および配信者)がこのオブジェクトを例えばタップしていくことで、オブジェクトが徐々に消え去り、演出が完了する。また、図6の例では、演出開始時には、画面下部に「8」のシンボルが少数積もった状態、または積もっていない状態であり、観客(および配信者)が例えば画面をタップ、または「8」のコメントを投稿することで、このオブジェクトが徐々に積もっていき、演出が完了する。なお、図5および図6の演出において、ユーザ入力が全くない場合にも時間経過に応じて、オブジェクトが自動的に消え去り、またはオブジェクトが自動的に積もるようにしてもよい。
As illustrated in FIGS. 5 and 6, the effect
演出データ合成部207は、図7に例示されるように、図3の映像データの再生映像の画面の全部を小さくリサイズしてから、エンドロールを表示するための領域を含む演出データを合成してもよい。図7の例では、図3の映像データの観客数、コメント投稿した観客名などの情報がエンドロールの一部として表示される。なお、図7の例は、エンディング演出に限られず、例えば生配信の前半部分を締めくくるための中間演出として適用されてもよい。
As illustrated in FIG. 7, the effect
映像配信部208は、演出条件判定部204からの映像データ、または演出データ合成部207からの合成映像データを受け取り、これを配信者端末100および観客端末300へ配信する。映像配信部208は、例えば映像データの配信先などを配信制御部203によって制御される。映像配信部208は、前述の通信装置であってもよいし、当該通信装置とのインターフェースであってもよい。
The
なお、映像配信部208は、配信済みの映像データ(または合成映像データ)を直ちに破棄してもよいが、例えば前述のリプレイまたはスローモーション再生を伴う演出を可能とするために所定期間バッファリングしておき、演出データ作成部206による参照を許容してもよい。
Note that the
次に図8を用いて、配信サーバ200の動作例を説明する。図8の動作は、例えば映像データに割り当てられた時間枠の始まりと共に開始する。図8の動作が開始すると、処理はステップS401へ進む。
Next, an operation example of the
ステップS401において、受信部201は配信者端末100から生配信用の映像データを受信する。演出条件判定部204は、ステップS401において受信された映像データについて予め定められた演出条件が満足するか否かを判定する(ステップS402)。演出条件が満足すれば処理はステップS403へ進み、そうでなければ処理はステップS405へ進む。
In step S<b>401 , the receiving
ステップS403において、演出データ合成部207は、ステップS401において受信された映像データを演出データと合成する。なお、演出データ合成部207は、映像データの再生映像のリサイズ、トリミングなどの加工を必要に応じて行ってから、演出データと合成してもよい。そして、映像配信部208は、ステップS403において生成された合成映像データを観客端末300へ配信する(ステップS404)。他方、ステップS405において、映像配信部208は、ステップS401において受信された映像データを観客端末300へ配信する。
In step S403, the effect
ステップS404またはステップS405の終了時に、時計部202の指示する日時が、生配信対象の映像データに割り当てられた時間枠の終わりに達していたならば図8の動作は終了し、そうでなければ処理はステップS401に戻る(ステップS406)。
At the end of step S404 or step S405, if the date and time indicated by the
以上説明したように、第1の実施形態に係る配信サーバは、生配信用の映像データに対して演出データを条件付きで自動合成する。これにより、配信者は、高度な動画編集スキルやリソースを必要とすることなく、例えばオープニング演出、エンディング演出、中間演出などが付加されテレビ番組風に体裁の整った動画を容易に生配信することができる。 As described above, the distribution server according to the first embodiment conditionally and automatically synthesizes effect data with video data for live distribution. As a result, distributors do not need advanced video editing skills or resources, and can easily live-distribute videos that are well-formed like TV programs, with additions such as opening effects, ending effects, and intermediate effects. can be done.
特に、オープニング演出を付加することにより、配信者および観客に生番組の始まりを意識させ、配信者がマイクテスト、休憩を取るなどして準備を整えたり、生番組の本編に入る前にコメントを介して観客とコミュニケーションを取ったり、観客に間延び感をあまり感じさせずることなく生番組の本編の開始を待ってもらったりすることができる。 In particular, by adding an opening performance, the broadcaster and the audience are made aware of the beginning of the live program, and the broadcaster prepares for the live program by taking a mic test and taking a break, and comments before the main part of the live program. It is possible to communicate with the audience via the program, or to have the audience wait for the start of the main part of the live program without feeling too slow.
また、エンディング演出を付加することにより、配信者および観客に生番組の終わりを意識させ、配信者がまとめに入ったり、次回予告を行ったり、観客とコメントを介してコミュニケーションを取ったりするなどの時間を取りやすくなる。 In addition, by adding an ending effect, the distributor and the audience are made aware of the end of the live program, and the distributor enters the summary, makes a notice for the next time, communicates with the audience through comments, etc. Makes it easier to take time.
さらに、中間演出として、盛り上がった場面でファンファーレなどの配信者を鼓舞する映像効果を加えたり、決定的瞬間のリプレイ、スローモーション再生を可能としたりすることで、生配信において利用可能な表現の幅を広げることができる。 In addition, as an intermediate production, the range of expressions that can be used in live distribution is expanded by adding visual effects such as fanfare to inspire the distributor in exciting scenes, replaying decisive moments, and slow motion playback. can be expanded.
(第2の実施形態)
第2の実施形態に係る配信サーバは、生配信用の映像データおよび演出データをどのように合成するかを配信者および/または観客が指定することができる。具体的には、どのようなレイアウト(位置合わせ)で両者を合成するか、すなわち一方または両方をどれだけ平行移動させるかを指定したり、一方または両方に対する回転、反転、リサイズおよび/またはトリミングの設定を指定したりすることが可能である。
(Second embodiment)
The distribution server according to the second embodiment allows the distributor and/or the audience to specify how the live distribution video data and effect data are to be synthesized. Specifically, you can specify what layout (alignment) to merge the two, that is, how much to translate one or both, and how to rotate, flip, resize, and/or trim one or both. It is possible to specify settings.
図9に第2の実施形態に係る配信サーバ500が例示される。以降の説明では、配信サーバ500と配信サーバ200との相違点を中心に述べる。配信サーバ500は、映像データの生配信に割り当てられた時間枠に亘って、配信者端末100から逐次送信される、エンコード済みの映像データを受信する。配信サーバ500は、演出条件が満足されている時には、映像データに演出データを配信者および/または観客の指定に従って合成し、合成映像データを配信者端末100および観客端末300へ配信する。ここで、演出条件は、第1の実施形態において説明した演出条件と同一または類似であり得る。
FIG. 9 illustrates a
配信サーバ500がこのような演出データの自動合成を配信者および/または観客の指定に従って行うことで、第1の実施形態において説明した、オープニング演出、エンディング演出または中間演出の表現の幅をさらに広げることができる。例えば、映像データを演出データに対してはめ込み合成する場合に、より自然に見えるようにしたり、敢えて不自然に見えるようにしたりすることが可能となる。
By having the
以下、配信サーバ500の機能的構成について図9を用いて説明する。なお、配信サーバ500のハードウェア構成は、配信サーバ200と同一または類似であり得るのでこれに関する説明を省略する。
The functional configuration of
配信サーバ500は、受信部501と、時計部502と、配信制御部503と、演出条件判定部504と、演出条件記憶部505と、演出データ作成部506と、演出データ合成部507と、映像配信部508とを含む。このうち、時計部502、配信制御部503、演出条件記憶部505、演出データ作成部506および映像配信部508は、それぞれ配信サーバ200における同名の要素と同一または類似であり得る。以下、その他の要素について、配信サーバ200における同名の要素との相違点を中心に説明する。
The
受信部501は、受信部201によって受信されるデータに加えて、配信者端末100および/または観客端末300から指定データを受信し得る。この指定データは、生配信用の映像データおよび演出データをどのように合成するかを指定する。具体的には、指定データは、映像データおよび演出データの合成位置、映像データの拡大/縮小率、演出データの拡大/縮小率、映像データの回転量、演出データの回転量、映像データにおける特定の領域、ならびに演出データにおける特定の領域、などを指定し得る。受信部501は、この指定データを演出条件判定部504へ送る。
The receiving
演出条件判定部504は、演出条件が満足している場合に、映像データに加えて指定データを演出データ合成部507へ送る。なお、配信者および観客が生配信用の映像データおよび演出データをどのように合成するかを特に指定しなければ、指定データが存在しないこともあり得る。
The effect
演出データ合成部507は、演出条件判定部504から映像データおよび指定データを受け取り、演出データ作成部506から演出データを受け取る。演出データ合成部507は、指定データに従って映像データおよび/または演出データに前処理を行ってから両者を合成し、合成映像データを生成する。
The effect
具体的には、指定データが映像データおよび演出データの合成位置を指定する場合に、演出データ合成部507は、映像データおよび/または演出データを平行移動させて両者の合成位置を制御し得る。
Specifically, when the designation data designates the combining position of the video data and the effect data, the effect
また、指定データが映像データの拡大/縮小率、および/または演出データの拡大/縮小率を指定する場合に、演出データ合成部507は、映像データおよび/または演出データをリサイズし得る。さらに、指定データが映像データの回転量、および/または演出データの回転量を指定する場合に、演出データ合成部507は映像データおよび/または演出データを回転し得る。ここで、回転は、画像平面上での2次元的な回転に限らず、上下反転および左右反転、ならびにこれら組み合わせを含む3次元的な回転を意味し得る。
Further, when the designated data designates an enlargement/reduction rate of video data and/or an enlargement/reduction rate of effect data, the effect
さらに、指定データが映像データにおける特定の領域、および/または演出データにおける特定の領域を指定する場合に、演出データ合成部507は、映像データおよび/または演出データにおいて指定された領域をトリミングし得る。
Furthermore, if the specified data specifies a specific area in the video data and/or a specific area in the effect data, the effect
演出データ合成部507が、以上のような前処理を行うことで、配信者および/観客の好みに合わせて、映像データおよび演出データを合成することが可能となる。一例として演出データが顔抜きフレームなどである場合に映像データの顔と顔抜きフレームのはめ込み部分とを自然に見えるように、または敢えて不自然に見えるように合成することが可能となる。
By performing the preprocessing as described above, the effect
以上説明したように、第2の実施形態に係る配信サーバは、映像データおよび演出データをどのように合成するかを指定する指定データを配信者端末および/または観客端末から受信し、これに従って映像データおよび/または演出データに前処理を行ってから両者を合成する。故に、この配信サーバによれば、第1の実施形態において説明した、オープニング演出、エンディング演出または中間演出の表現の幅をさらに広げることが可能となる。 As described above, the distribution server according to the second embodiment receives, from the distributor terminal and/or the audience terminal, designation data that designates how to synthesize the video data and the effect data, and distributes the video image accordingly. The data and/or the performance data are preprocessed and then synthesized. Therefore, according to this distribution server, it is possible to further expand the expression range of the opening effect, ending effect, or intermediate effect described in the first embodiment.
(変形例)
ところで、前述の第1の実施形態および本実施形態では配信サーバが映像データおよび演出データを合成する。これにより、配信者および観客の視聴する合成映像データを同期させやすい、端末の処理負荷を減らすことができる、といったメリットがある。配信サーバから端末への通信量の削減というメリットもある。しかしながら、端末が映像データおよび演出データを合成することも可能である。以下、簡単に説明する。
(Modification)
By the way, in the above-described first embodiment and this embodiment, the distribution server synthesizes the video data and the effect data. This has the advantage of facilitating synchronization of the synthesized video data viewed by the distributor and the audience, and reducing the processing load on the terminal. It also has the advantage of reducing the amount of communication from the distribution server to the terminal. However, it is also possible for the terminal to combine the video data and the effect data. A brief description will be given below.
この変形例に係る端末600を図10に例示する。なお、端末600は、配信者端末および観客端末のどちらであってもよいので、配信者端末および観客端末それぞれに固有の部分については説明を省略する。
A terminal 600 according to this modification is illustrated in FIG.
端末600は、配信者端末100に関して説明した種々の電子デバイスであり得る。端末600は、例えば、入出力制御、通信制御、演出条件の判定、演出データの作成、映像データおよび演出データの合成、などを行うプロセッサを含む。ここで、プロセッサは、典型的にはCPU(Central Processing Unit)および/またはGPU(Graphics Processing Unit)であるが、マイコン、FPGA(Field Programmable Gate Array)、またはDSP(Digital Signal Processor)、などであってもよい。また、端末600は、かかる処理を実現するためにプロセッサによって実行されるプログラムおよび当該プロセッサによって使用されるデータなどを一時的に格納するメモリを含んでいる。
Terminal 600 can be any of the electronic devices described with respect to
なお、端末600は、全てのデータをオンメモリの状態で扱ってもよいし、一部のデータが補助記憶装置に退避されていてもよい。補助記憶装置は、例えば、端末600に内蔵または外付けされたHDD、SSD、フラッシュメモリなどであってもよいし、端末600からアクセス可能なデータベースサーバであってもよい。 Note that the terminal 600 may handle all data in the on-memory state, or part of the data may be saved in an auxiliary storage device. The auxiliary storage device may be, for example, an internal or external HDD, SSD, flash memory, or the like, or may be a database server accessible from the terminal 600 .
また、端末600は、複数の電子デバイスの組み合わせであってよい。例えば、端末600における異なる機能部が別個の電子デバイスに分散して実装されてもよい。
端末600は、さらに、ネットワークに接続するための通信I/F(インターフェース)、コンテンツを出力するための出力装置、などを利用可能である。通信I/Fおよび/または表示装置は、端末600に内蔵されてもよいし、端末600に外付けされてもよい。
Terminal 600 can also use a communication I/F (interface) for connecting to a network, an output device for outputting content, and the like. The communication I/F and/or display device may be built in
通信I/Fは、ネットワーク経由で、配信サーバ500(もしくは配信サーバ200)または図示されない他のサーバと通信をするためのモジュールであり得る。出力装置は、動画像、静止画像、テキストなどを表示するための表示装置および/または音声、楽曲などを出力するためのスピーカを含み得る。表示装置は、例えば、液晶ディスプレイ、有機EL(electroluminescence)ディスプレイ、CRT(Cathode Ray Tube)ディスプレイなどである。なお、表示装置は、タッチスクリーンのように入力装置の機能を備えていてもよい。 The communication I/F can be a module for communicating with distribution server 500 (or distribution server 200) or another server (not shown) via a network. The output device may include a display device for displaying moving images, still images, text, etc., and/or a speaker for outputting audio, music, and the like. The display device is, for example, a liquid crystal display, an organic EL (electroluminescence) display, a CRT (Cathode Ray Tube) display, or the like. Note that the display device may have the function of an input device like a touch screen.
端末600は、受信部601と、演出条件判定部604と、演出条件記憶部605と、演出データ作成部606と、演出データ合成部607と、表示制御部608とを含む。
受信部601は、ネットワーク経由で例えば配信サーバ500から種々のデータを受信し、受信したデータを例えば演出条件判定部604へ送る。受信部601は、前述の通信I/Fであってもよい。
The receiving
具体的には、受信部601は、生配信用の映像データを受信する。この映像データは、配信者端末100から配信サーバ500へ送信(アップロード)された映像データそのものであってもよいし、これに何らかの加工、例えば再エンコード、を施したものであってもよい。また、受信部601は、前述の指定データを受信することもあり得る。この指定データは、例えば配信サーバ500により配信者端末100および/または観客端末300から収集され、各端末600へ配信されたものであり得る。さらに、受信部601は、例えば第1の実施形態において説明した、演出条件の判定に必要なデータを受信し得る。
Specifically, the receiving
演出条件判定部604は、演出条件判定部504(または演出条件判定部204)と同一または類似であり得る。すなわち、演出条件判定部604は、受信部601から映像データ(および指定データ)を受け取り、演出条件記憶部605から演出条件を読み出し、演出条件が満足しているか否かを判定する。演出条件判定部604は、演出条件が満足していると判定した場合には映像データおよび指定データを演出データ合成部607へ送り、そうでなければ映像データを表示制御部608へ送る。演出条件判定部604は、前述のプロセッサおよびメモリであってよい。
Effect
演出データ作成部606は、演出データ作成部206と同一または類似であり得る。すなわち、演出データ作成部606は、演出データを作成し、演出データ合成部607へ送る。演出データ作成部206は、前述のプロセッサおよびメモリであってよい。
Effect
演出データ合成部607は、演出データ合成部507(または演出データ合成部207)と同一または類似であり得る。すなわち、演出データ合成部607は、演出条件判定部604から映像データおよび指定データを受け取り、演出データ作成部606から演出データを受け取る。演出データ合成部607は、指定データに従って映像データおよび/または演出データに前処理を行ってから両者を合成し、合成映像データを生成する。演出データ合成部607は、合成映像データを表示制御部608へ送る。演出データ合成部607は、前述のプロセッサおよびメモリであってよい。
表示制御部608は、前述の表示装置を制御し、映像データまたは合成映像データを当該表示装置の画面に表示する。表示制御部608は、例えば前述のプロセッサおよびメモリであってよい。
A
以上説明したように、この変形例に係る端末は、第1の実施形態および第2の実施形態において説明した、映像データおよび演出データの合成を行う。故に、この端末によれば、配信サーバがかかる機能を利用可能でない場合にも、第1の実施形態および第2の実施形態において説明した演出を生配信用の映像データに付加することが可能となる。なお、図10の例では、端末が演出条件の判定を行っているが、配信サーバが演出条件の判定を行うようにさらに変形することも可能である。 As described above, the terminal according to this modification combines the video data and effect data described in the first and second embodiments. Therefore, according to this terminal, even if the distribution server cannot use such functions, it is possible to add the effects described in the first and second embodiments to the video data for live distribution. Become. In addition, in the example of FIG. 10, the terminal determines the effect condition, but it is also possible to further modify it so that the distribution server determines the effect condition.
(第3の実施形態)
前述の第1の実施形態および第2の実施形態では、映像データに演出データを合成することにより演出が実現される。第3の実施形態に係る配信サーバは、生配信用の映像データそのものを加工することで演出を実現する。
(Third Embodiment)
In the above-described first and second embodiments, effects are realized by synthesizing effect data with video data. A distribution server according to the third embodiment realizes an effect by processing the video data itself for live distribution.
図11に第3の実施形態に係る配信サーバ700が例示される。以降の説明では、配信サーバ700と配信サーバ200または配信サーバ500との相違点を中心に述べる。配信サーバ700は、映像データの生配信に割り当てられた時間枠に亘って、配信者端末100から逐次送信される、エンコード済みの映像データを受信する。配信サーバ700は、演出条件が満足されている時には、映像データを加工し、加工済み映像データを配信者端末100および観客端末300へ配信する。ここで、演出条件は、第1の実施形態において説明した演出条件と同一または類似であり得る。
FIG. 11 illustrates a
配信サーバ700がこのような映像データの加工を行うことで、第1の実施形態および第2の実施形態において説明した演出とは異なる表現の演出を利用することができる。例えば、映像データの特定の領域(例えば、顔領域)または全領域にフィルターをかける加工があり得る。フィルターは、例えば、モザイク、セピア、モノクロ、レトロ、ぼかし、暗視スコープ風エフェクト、歪み、漫画風エフェクト、などの様々な各種エフェクトを付加することで、映像データの視覚的な印象を変えることができる。さらに、映像データの特定の領域の複製を当該映像データに貼り付ける、という加工もあり得る。
By processing the video data by the
以下、配信サーバ700の機能的構成について図11を用いて説明する。なお、配信サーバ700のハードウェア構成は、配信サーバ200または配信サーバ500と同一または類似であり得るのでこれに関する説明を省略する。
The functional configuration of
配信サーバ700は、受信部701と、時計部702と、配信制御部703と、演出条件判定部704と、演出条件記憶部705と、映像加工部707と、映像配信部708とを含む。このうち、映像加工部707以外の要素は、それぞれ配信サーバ200または配信サーバ500における同名の要素と同一または類似であり得る。故に、以下、映像加工部707を説明する。
映像加工部707は、演出条件判定部704から映像データ(および指定データ)を受け取る。まず、映像加工部707は、指定データを受け取った場合には映像データに第2の実施形態において説明した前処理を行う。それから、映像加工部707は、演出条件判定部704からの映像データ、またはこれに前処理を行った映像データに対して、既定の加工を行って加工済み映像データを生成する。映像加工部707は、加工済み映像データを映像配信部708へ送る。映像加工部707は、前述のプロセッサおよびメモリであってよい。
The
具体的には、映像加工部707は、前述のフィルターのいずれかを映像データに対して適用してもよい。或いは、映像加工部707は、映像データの特定の領域の複製を当該映像データに貼り付けてもよい。例えば、図12のような映像データに対して、映像加工部707は図13または図14に例示される加工を行ってもよい。
Specifically, the
図13の例では、破線で示す中心軸よりも左側の領域の複製を左右反転した映像が当該中心軸よりも右側に貼り付けられている。なお、反転の基準となる対象軸の数、それぞれの位置および角度は、自動的に決定されてもよいし、配信者および/または観客が例えば指定データを通じて指定可能としてもよい。 In the example of FIG. 13, an image obtained by mirror-reversing a copy of the area on the left side of the central axis indicated by the dashed line is pasted on the right side of the central axis. Note that the number of symmetrical axes, their respective positions, and their angles, which serve as a reference for inversion, may be automatically determined, or may be designated by the distributor and/or spectators, for example, through designated data.
図14の例では、映像データ中の人物周辺の領域の複製そのもの、または当該複製に前処理を施した映像が、破線で示す領域に貼り付けられている。なお、映像データ中のいずれの領域を複製するか、複製に前処理を行うか否か、複製にどのような前処理を行うか、および貼り付けの位置および数、などは、自動的に決定されてもよいし、配信者および/または観客が例えば指定データを通じて指定可能としてもよい。 In the example of FIG. 14, a copy of the area around the person in the video data itself, or an image obtained by preprocessing the copy, is pasted in the area indicated by the dashed line. It should be noted that which area in the video data is to be duplicated, whether preprocessing is to be performed on the duplication, what kind of preprocessing is to be performed on the duplication, the position and number of pasting, etc. are automatically determined. may be designated by the broadcaster and/or the audience, for example, through designation data.
以上説明したように、第3の実施形態に係る配信サーバは、映像データを加工することで演出を実現する。故に、この配信サーバによれば、第1の実施形態および第2の実施形態において説明した演出とは異なる表現の演出を利用することができる。 As described above, the distribution server according to the third embodiment realizes effects by processing video data. Therefore, according to this distribution server, it is possible to use effects of expressions different from the effects described in the first and second embodiments.
(変形例)
ところで、本実施形態では配信サーバが映像データを加工する。これにより、配信者および観客の視聴する合成映像データを同期させやすい、端末の処理負荷を減らすことができる、といったメリットがある。配信サーバから端末への通信量の削減というメリットもある。しかしながら、端末が映像データを加工することも可能である。以下、簡単に説明する。
(Modification)
By the way, in this embodiment, the distribution server processes the video data. This has the advantage of facilitating synchronization of the synthesized video data viewed by the distributor and the audience, and reducing the processing load on the terminal. It also has the advantage of reducing the amount of communication from the distribution server to the terminal. However, it is also possible for the terminal to process the video data. A brief description will be given below.
この変形例に係る端末800を図15に例示する。なお、端末800のハードウェア構成は、端末600と同一または類似であり得るのでこれに関する説明を省略する。また、端末800は、配信者端末および観客端末のどちらであってもよいので、配信者端末および観客端末それぞれに固有の部分については説明を省略する。
FIG. 15 illustrates a terminal 800 according to this modification. In addition, the hardware configuration of the terminal 800 may be the same as or similar to that of the terminal 600, so the description thereof will be omitted.
端末800は、受信部801と、演出条件判定部804と、演出条件記憶部805と、映像加工部807と、表示制御部808とを含む。このうち、映像加工部807以外の要素は、端末600における同名の要素と同一または類似であり得る。故に、以下、映像加工部807を説明する。
映像加工部807は、映像加工部707と同一または類似であり得る。すなわち、映像加工部807は、演出条件判定部804から映像データ(および指定データ)を受け取る。まず、映像加工部807は、指定データを受け取った場合には映像データに第2の実施形態において説明した前処理を行う。それから、映像加工部807は、演出条件判定部804からの映像データ、またはこれに前処理を行った映像データに対して、第3の実施形態において説明した既定の加工を行って加工済み映像データを生成する。映像加工部807は、加工済み映像データを映像配信部708へ送る。映像加工部807は、前述のプロセッサおよびメモリであってよい。
以上説明したように、この変形例に係る端末は、第3の実施形態において説明した、映像データの加工を行う。故に、この端末によれば、配信サーバがかかる機能を利用可能でない場合にも、第3の実施形態において説明した演出を生配信用の映像データに付加することが可能となる。なお、図15の例では、端末が演出条件の判定を行っているが、配信サーバが演出条件の判定を行うようにさらに変形することも可能である。 As described above, the terminal according to this modified example processes the video data described in the third embodiment. Therefore, according to this terminal, even if the distribution server cannot use such functions, it is possible to add the effects described in the third embodiment to the video data for live distribution. In addition, in the example of FIG. 15, the terminal determines the effect condition, but it is also possible to further modify so that the distribution server determines the effect condition.
(第4の実施形態)
前述の第1の実施形態では、映像データに対して動的な演出データを合成して演出することが可能である。第4の実施形態では、この動的な演出データを配信者および/または観客からの操作要求に応じて制御することでインタラクティブ性の高い演出を実現する。
(Fourth embodiment)
In the above-described first embodiment, it is possible to produce an effect by synthesizing dynamic effect data with video data. In the fourth embodiment, a highly interactive presentation is realized by controlling this dynamic presentation data in accordance with operation requests from the distributor and/or the audience.
図16に第4の実施形態に係る配信サーバ900が例示される。以降の説明では、配信サーバ900と配信サーバ200、配信サーバ500または配信サーバ700との相違点を中心に述べる。
FIG. 16 illustrates a
配信サーバ900は、映像データの生配信に割り当てられた時間枠に亘って、配信者端末100から逐次送信される、エンコード済みの映像データを受信する。配信サーバ900は、演出条件が満足されている時には、配信者端末100および/または観客端末300から映像データに合成される動的な演出データに対する操作要求を受信し、これに基づいて当該動的な演出データの操作データを生成する。そして、配信サーバ900は、映像データに加えてこの操作データを配信者端末100および観客端末300へ送信する。配信者端末100および観客端末300は、それぞれ受信した操作データに基づいて動的な演出データを制御し、受信した映像データに合成して表示装置の画面に表示する。ここで、演出条件は、第1の実施形態において説明した演出条件と同一または類似であり得る。
The
配信サーバ900が操作要求に基づいてこのような動的な演出データの操作データを生成、配信し、配信者端末100および観客端末300が当該操作データに基づいて動的な演出データを制御して映像データに合成することで、インタラクティブ性の高い演出が可能となる。
The
以下、配信サーバ900の機能的構成について図16を用いて説明する。なお、配信サーバ900のハードウェア構成は、配信サーバ200、配信サーバ500または配信サーバ700と同一または類似であり得るのでこれに関する説明を省略する。
The functional configuration of
配信サーバ900は、受信部901と、時計部902と、配信制御部903と、演出条件判定部904と、演出条件記憶部905と、映像配信部908と、操作データ生成部909とを含む。このうち、時計部902、配信制御部903、および演出条件記憶部905は、それぞれ配信サーバ200、配信サーバ500または配信サーバ700における同名の要素と同一または類似であり得る。以下、その他の要素について、配信サーバ200、配信サーバ500または配信サーバ700における同名の要素との相違点を中心に説明する。
受信部901は、受信部201によって受信されるデータに加えて、配信者端末100および/または観客端末300から、動的な演出データに対する操作要求を受信し得る。この操作要求は、例えば動的な演出データを生成する種々のツール、例えば、お絵かきアプリ、手書き入力アプリ、ストップウォッチ、タイマー、カウンタ、サイコロ、トランプ、おみくじ、ビンゴゲーム、じゃんけんゲーム、静止画ビューワを含む生配信中に引用するコンテンツのプレイヤー、などを操作するために対応するプログラムに与えられる入力データ、例えばオブジェクトの選択など、に相当し得る。受信部901は、この操作要求を演出条件判定部904へ送る。
In addition to the data received by the receiving
演出条件判定部904は、演出条件の判定結果に関わらず、映像データを映像配信部908へ送る。さらに、演出条件判定部904は、演出条件が満足している場合に、操作要求を操作データ生成部909へ送る。なお、配信者および観客が操作要求を発行するための入力を行っていなければ、操作要求が存在しないこともあり得る。
The effect
操作データ生成部909は、演出条件判定部904から操作要求を受け取り、これに基づいて動的な演出データの操作データを生成する。操作データ生成部909は、操作データを映像配信部908へ送る。操作データ生成部909は、前述のプロセッサおよびメモリであってよい。なお、複数の端末が操作要求を略同時に送信すると、操作要求の衝突が生じ得る。すなわち、ある端末からの操作要求が、他の端末からの操作要求と矛盾することがあるが、操作データ生成部909はかかる衝突の調停を行ってから操作データを生成してもよい。
An operation
また、多数の端末から操作要求を略同時に送信し、操作データ生成部909が当該操作要求を全て考慮して操作データを生成することは負荷が大きい。そこで、上記衝突の調停とも関連するが、操作データ生成部909は、操作要求の一部を破棄するフィルタリングを行い、残余の操作要求に基づいて操作データを生成してもよい。一例として、操作データ生成部909は、観客のうち課金をした者、配信者のチャンネル会員である者、特定の地域に居る者、抽選に当選した者、などからの操作要求を維持し、他の操作要求を破棄してもよい。
In addition, it is a heavy load for the operation
本実施形態において動的な演出データは、少なくとも操作データに応じて画面遷移、すなわち外観的な変化を生じる映像データであり得る。具体的には、操作データに応じた画面遷移の例として、トランプの山札を選択する操作データに応じた手札の画像の更新、サイコロを選択する操作データに応じたサイコロの出目の更新、手書き入力に基づく操作データに応じたお絵かき画像の更新、などが挙げられる。また、操作データに加えて時間の経過に応じた画面遷移もあり得る。例えば、スタートのボタンを選択する操作データに応じて、ストップウォッチまたはタイマーの表示部の画像がカウントダウンまたはカウントアップするように変化し始める。以後の表示部の画像は、時間の経過に応じて更新されることになる。 In the present embodiment, the dynamic effect data can be video data that causes screen transition, that is, appearance change, at least according to the operation data. Specifically, as an example of screen transitions according to operation data, updating the hand image according to operation data for selecting a deck of playing cards, updating the number of dice according to operation data for selecting a dice, For example, updating a drawing image according to operation data based on handwriting input. In addition to operation data, there may be screen transitions according to the passage of time. For example, depending on the operation data for selecting the start button, the image on the display of the stopwatch or timer starts changing to count down or count up. The image on the display unit thereafter is updated as time passes.
画面遷移は、全端末共通であってもよいし、そうでなくてもよい。後者の例として、動的な演出データは、図17および図18に例示されるじゃんけんゲームの実行画面データであってもよい。この例では、当初、図17に示されるように選択可能な手を表す画像が映像データに合成され、操作データ生成部909は、既定の締め切り時間まで配信者および/または観客からの操作要求を待ち受け、当該締め切り時間の終了後に操作データを生成する。締め切り時間の終了後、じゃんけんの結果を表す画像への画面遷移が生じる。この結果、配信者端末100は、図18に例示されるように、観客との勝負の結果、例えば配信者が選んだ手と、3つの手毎にその手を選んだ人数とを表す演出データを生成し、映像データに合成することができる。また、観客端末300は、配信者との勝負の結果、例えば配信者が選んだ手と、当該観客端末300を操作した観客が選んだ手とを表す演出データを生成し、映像データに合成することができる。或いは、配信者端末100および/または観客端末300は、勝者~名、敗者~名、あいこ~名のように勝敗結果の集計を表す演出データを生成し、映像データに合成してもよい。
Screen transitions may or may not be common to all terminals. As an example of the latter, the dynamic effect data may be execution screen data of a rock-paper-scissors game illustrated in FIGS. 17 and 18 . In this example, as shown in FIG. 17, an image representing a selectable hand is initially synthesized with the video data, and the operation
映像配信部908は、演出条件判定部904から映像データを受け取り、さらに操作データ生成部909から操作データを受け取ることもある。映像配信部908は、映像データ(および操作データ)を配信者端末100および観客端末300へ配信する。
The
図19に第4の実施形態に係る端末1000が例示される。以降の説明では、端末600または端末800との相違点を中心に述べる。なお、端末1000のハードウェア構成は、端末600または端末800と同一または類似であり得るのでこれに関する説明を省略する。また、端末1000は、配信者端末および観客端末のどちらであってもよいので、配信者端末および観客端末それぞれに固有の部分については説明を省略する。 FIG. 19 illustrates a terminal 1000 according to the fourth embodiment. In the following description, differences from terminal 600 or terminal 800 will be mainly described. In addition, the hardware configuration of the terminal 1000 may be the same as or similar to that of the terminal 600 or the terminal 800, so the description thereof will be omitted. Also, the terminal 1000 may be either a distributor terminal or an audience terminal, so descriptions of the parts unique to the distributor terminal and the audience terminal are omitted.
端末1000は、受信部1001と、演出条件判定部1004と、演出条件記憶部1005と、演出データ制御部1006と、演出データ合成部1007と、表示制御部1008と、入力部1010と、操作要求生成部1011と、送信部1012とを含む。このうち、演出条件記憶部1005、演出データ合成部1007および表示制御部1008は、それぞれ端末600または端末800における同名の要素と同一または類似であり得る。以下、その他の要素について、端末600または端末800における同名の要素との相違点を中心に説明する。
The terminal 1000 includes a
入力部1010は、ユーザ入力を受け取り、ユーザ入力データを生成する。入力部1010は、ユーザ入力データを演出条件判定部1004へ送る。入力部1010は、端末1000に内蔵され、または外付けされた入力装置であり得る。入力装置は、例えば、キーボード、マウス、テンキーなどであってもよいし、タッチスクリーンのように表示装置の機能を備えていてもよい。ユーザ入力は、典型的には、タップ、クリック、特定のキーの押下などであり、ユーザ入力データはこれらイベントの発生を表すデータであり得る。このほか、ユーザ入力データは、例えば、マイクロフォンによって捉えられる音声、生体センサによって検出される生体データ(例えば体温、表情など)、GPS(Global Positioning System)または基地局情報によって識別される位置データ、加速度センサによって検出される加速度データに基づいて推定されるユーザのアクション(例えば、端末1000を振り回した)などを含むこともできる。
The
演出条件判定部1004は、演出条件が満足している場合に、ユーザ入力データを操作要求生成部1011へ送る。
The effect
操作要求生成部1011は、演出条件判定部1004からユーザ入力データを受け取り、これに応じて操作要求を生成する。操作要求生成部1011は、この操作要求を送信部1012へ送る。操作要求生成部1011は、前述のプロセッサおよびメモリであってよい。
The
送信部1012は、操作要求生成部1011から操作要求を受け取り、これを配信サーバ900へ送信する。送信部1012は、前述の通信I/Fであってもよい。
The
受信部1001は、生配信用の映像データを受信する。この映像データは、配信者端末100から配信サーバ900へ送信(アップロード)された映像データそのものであってもよいし、これに何らかの加工を施したものであってもよい。また、受信部1001は、演出条件が満足している時には、操作データを受信し得る。さらに、受信部1001は、前述の指定データ、演出条件の判定に必要なデータ、などを受信することもあり得る。受信部1001は、操作データを演出データ制御部1006へ送り、映像データおよび指定データを演出データ合成部1007へ送り、演出条件の判定に必要なデータを演出条件判定部1004へ送る。
The receiving
演出データ制御部1006は、受信部1001から操作データを受け取り、当該操作データに基づいて動的な演出データを制御する。具体的には、演出データ制御部1006は、前述の種々のツールに対応するプログラム(アプリケーション)を実行しており、当該プログラムに操作データを与える。なお、操作データは、時間データと当該時間データに対応する操作入力データとを含み得る。この場合に、演出データ制御部1006は、時間データの示す時間に、当該時間データに対応する操作入力データをプログラムに与え得る。プログラムは、与えられた操作入力データに応じて画面遷移する映像を実行結果、すなわち動的な演出データとして生成し得る。演出データ制御部1006は、動的な演出データを演出データ合成部1007へ送る。演出データ制御部1006は、前述のプロセッサおよびメモリであってよい。ここで、プログラムは、生配信用の映像データを再生するためのプレイヤーに組み込まれていてもよいし、当該プレイヤーから見て外部プログラムであってもよい。
The effect
以上説明したように、第4の実施形態に係る配信サーバは、動的な演出データに対する操作要求を配信者端末および/または観客端末から収集し、当該動的な演出データの操作データを生成、配信する。そして、本実施形態に係る端末は、この操作データに基づいて動的な演出データを制御し、生配信用の映像データに合成する。故に、この配信サーバおよび端末によれば、例えば配信者および観客がリアルタイムに一緒に遊ぶなどのインタラクティブ性の高い演出が可能となる。 As described above, the distribution server according to the fourth embodiment collects operation requests for dynamic performance data from distributor terminals and/or audience terminals, generates operation data for the dynamic performance data, To deliver. Then, the terminal according to the present embodiment controls dynamic effect data based on this operation data, and synthesizes it with video data for live distribution. Therefore, according to this distribution server and terminal, it is possible to produce a highly interactive performance, for example, in which the distributor and the audience play together in real time.
(変形例)
ところで、本実施形態では端末が動的な演出データの制御と、映像データおよび動的な演出データの合成とを行っている。しかしながら、配信サーバが、動的な演出データの制御を行い、映像データに合成されるべき演出データを端末に逐次送信することも可能であるし、第1の実施形態と同様に映像データと動的な演出データとの合成までも行ってもよい。これにより、配信者および観客の視聴する合成映像データを同期させやすい、端末の処理負荷を減らすことができる、といったメリットがある。配信サーバが、動的な演出データの制御と映像データおよび動的な演出データの合成とを行う例について簡単に説明する。
(Modification)
By the way, in this embodiment, the terminal controls the dynamic effect data and synthesizes the video data and the dynamic effect data. However, it is also possible for the distribution server to control the dynamic effect data and sequentially transmit the effect data to be synthesized with the video data to the terminal. It is also possible to perform even synthesis with typical performance data. This has the advantage of facilitating synchronization of the synthesized video data viewed by the distributor and the audience, and reducing the processing load on the terminal. An example in which the distribution server controls dynamic effect data and synthesizes video data and dynamic effect data will be briefly described.
この変形例に係る配信サーバ1100を図20に例示する。なお、配信サーバ1100のハードウェア構成は、配信サーバ200、配信サーバ500、配信サーバ700または配信サーバ900と同一または類似であり得るのでこれに関する説明を省略する。
FIG. 20 illustrates a
配信サーバ1100は、受信部1101と、時計部1102と、配信制御部1103と、演出条件判定部1104と、演出条件記憶部1105と、演出データ制御部1106と、演出データ合成部1107と、映像配信部1108と、操作データ生成部1109とを含む。このうち、受信部1101、時計部1102、配信制御部1103、演出条件判定部1104、演出条件記憶部1105、演出データ合成部1107、映像配信部1108、および操作データ生成部1109は、配信サーバ200、配信サーバ500、配信サーバ700または配信サーバ900における同名の要素と同一または類似であり得る。故に、以下、演出データ制御部1106を説明する。
The
演出データ制御部1106は、演出データ制御部1006と同一または類似であり得る。すなわち、演出データ制御部1106は、操作データ生成部1109から操作データを受け取り、当該操作データに基づいて動的な演出データを制御する。演出データ制御部1106は、動的な演出データを演出データ合成部1107へ送る。演出データ制御部1106は、前述のプロセッサおよびメモリであってよい。
The
以上説明したように、この変形例に係る配信サーバは、第4の実施形態において説明した演出を行い、合成映像データを配信者端末および観客端末へ配信する。故に、この配信サーバによれば、配信者および観客の視聴する合成映像データを同期させやすい、端末の処理負荷を減らすことができる、といったメリットがある。配信サーバから端末への通信量の削減というメリットもある。 As described above, the distribution server according to this modification performs the effects described in the fourth embodiment, and distributes the synthesized video data to the distributor terminal and the audience terminal. Therefore, according to this distribution server, it is possible to easily synchronize synthesized video data viewed by the distributor and the audience, and to reduce the processing load of the terminal. It also has the advantage of reducing the amount of communication from the distribution server to the terminal.
なお、本実施形態では、端末および配信サーバの両方が演出条件の判定を行っているが、一方のみが行うようにしてもよい。例えば、端末のみが演出条件の判定を行い、演出条件が満足したことを配信サーバに通知してもよい。逆に、配信サーバのみが演出条件の判定を行い、演出条件が満足したことを端末に通知してもよい。 In this embodiment, both the terminal and the distribution server determine the effect condition, but only one of them may perform the determination. For example, only the terminal may determine the effect condition and notify the distribution server that the effect condition is satisfied. Conversely, only the distribution server may determine the effect condition and notify the terminal that the effect condition is satisfied.
上述の実施形態は、本発明の概念の理解を助けるための具体例を示しているに過ぎず、本発明の範囲を限定することを意図されていない。実施形態は、本発明の要旨を逸脱しない範囲で、様々な構成要素の付加、削除または転換をすることができる。 The above-described embodiments merely show specific examples to aid understanding of the concept of the present invention, and are not intended to limit the scope of the present invention. Embodiments can add, delete, or convert various components without departing from the gist of the present invention.
上記各実施形態において説明された種々の機能部は、回路を用いることで実現されてもよい。回路は、特定の機能を実現する専用回路であってもよいし、プロセッサのような汎用回路であってもよい。 Various functional units described in the above embodiments may be realized by using circuits. A circuit may be a dedicated circuit that implements a specific function, or it may be a general-purpose circuit such as a processor.
上記各実施形態の処理の少なくとも一部は、汎用のコンピュータを基本ハードウェアとして用いることでも実現可能である。上記処理を実現するプログラムは、コンピュータで読み取り可能な記録媒体に格納して提供されてもよい。プログラムは、インストール可能な形式のファイルまたは実行可能な形式のファイルとして記録媒体に記憶される。記録媒体としては、磁気ディスク、光ディスク(CD-ROM、CD-R、DVD等)、光磁気ディスク(MO等)、半導体メモリなどである。記録媒体は、プログラムを記憶でき、かつ、コンピュータが読み取り可能であれば、何れであってもよい。また、上記処理を実現するプログラムを、インターネットなどのネットワークに接続されたコンピュータ(サーバ)上に格納し、ネットワーク経由でコンピュータ(クライアント)にダウンロードさせてもよい。
以下に本願の出願当初の特許請求の範囲に記載された発明を付記する。
[C1] 配信者端末から生配信用の映像データを受信する受信部と、
演出条件が満足しているか否かを判定する判定部と、
前記演出条件が満足している時に、前記映像データに対して演出データを合成し合成映像データを生成する合成部と、
前記合成映像データを前記配信者端末および観客端末へ配信する配信部と
を具備する、配信サーバ。
[C2] 前記演出条件は、(1)前記映像データの生配信のために割り当てられた時間枠内に設定された演出開始地点に前記配信サーバの参照する日時が達してから第1の演出終了条件が満足するまで、(2)前記映像データの観客数が所定の条件を満足してから第2の演出終了条件が満足するまで、(3)前記配信者端末または前記観客端末へ所定のユーザ入力があってから第3の演出終了条件が満足するまで、(4)前記映像データに対して投稿されたコメントが所定の条件を満足してから第4の演出終了条件が満足するまで、および(5)前記映像データの再生映像または再生音声が所定の条件を満足してから第5の演出終了条件が満足するまで、のうち少なくとも1つの間に満足する、C1に記載の配信サーバ。
[C3] 前記第1の演出終了条件、前記第2の演出終了条件、前記第3の演出終了条件、前記第4の演出終了条件および前記第5の演出終了条件のいずれかが満足するための必要条件を動的に示す情報を含む前記演出データを作成する作成部をさらに具備する、C2に記載の配信サーバ。
[C4] 前記作成部は、前記映像データの観客数またはコメント数と必要数とのギャップを示す情報を含む前記演出データを作成する、C3に記載の配信サーバ。
[C5] 前記映像データの生配信が開始された後に生じた事象に関する情報を含む前記演出データを作成する作成部をさらに具備する、C1またはC2に記載の配信サーバ。
[C6] 前記作成部は、前記映像データの観客数、前記映像データに対して投稿されたコメントの一部、前記映像データに対して投稿されたコメント数、および前記映像データに対してコメントを投稿した観客名のうち少なくとも1つを示す情報を含む前記演出データを作成する、C5に記載の配信サーバ。
[C7] (1)前記配信者端末および前記観客端末の少なくとも一方になされたユーザ入力、ならびに(2)前記配信者端末および前記観客端末の少なくとも一方によって投稿されたコメント、のうち少なくとも一方に反応して変化する演出データを作成する作成部をさらに具備する、C1またはC2に記載の配信サーバ。
[C8] 前記映像データに付与されたメタデータおよび前記映像データに関連するウェブページに表示される情報の少なくとも一方に基づいて生成された情報を含む前記演出データを作成する作成部をさらに具備する、C1またはC2に記載の配信サーバ。
[C9] 前記合成部は、前記映像データの再生映像の画面の一部または全部をリサイズして前記演出データと合成し、前記合成映像データを生成する、C1乃至C7のいずれか1項に記載の配信サーバ。
[C10] 前記合成部は、前記映像データの再生映像の画面の一部が露出し、残部が隠れるように前記映像データを前記演出データと合成し、前記合成映像データを生成する、C1乃至C7のいずれか1項に記載の配信サーバ。
[C11] コンピュータを、
配信者端末から生配信用の映像データを受信する手段、
演出条件が満足しているか否かを判定する手段、
前記演出条件が満足している時に、前記映像データに対して演出データを合成し合成映像データを生成する手段、
前記合成映像データを前記配信者端末および観客端末へ配信する手段
として機能させるための配信プログラム。
[C12] 前記受信部は、前記配信者端末および前記観客端末の少なくとも1つから前記映像データおよび前記演出データの合成位置、前記映像データの拡大/縮小率、前記演出データの拡大/縮小率、前記映像データの回転量、前記演出データの回転量、前記映像データにおける特定の領域、ならびに前記演出データにおける特定の領域の少なくとも1つを指定する指定データをさらに受信し、
前記合成部は、前記指定データに従って前記映像データおよび前記演出データの少なくとも一方に対して平行移動、リサイズ、回転、反転およびトリミングの少なくとも1つを行ってから前記映像データおよび前記演出データを合成し、前記合成映像データを生成する、
C1乃至C10のいずれか1項に記載の配信サーバ。
[C13] 配信者端末から生配信用の映像データを受信する受信部と、
演出条件が満足しているか否かを判定する判定部と、
前記演出条件が満足している時に、前記映像データに対して既定の加工を行って加工済み映像データを生成する加工部と、
前記加工済み映像データを前記配信者端末および観客端末へ配信する配信部と
を具備する、配信サーバ。
[C14] 前記加工部は、前記演出条件が満足している時に、前記映像データにおける特定の領域の複製をそのまま、または回転、反転およびリサイズの少なくとも1つを行ってから、前記映像データに貼り付け、前記加工済み映像データを生成する、C13に記載の配信サーバ。
[C15] 演出条件が満足しているか否かを判定する判定部と、
配信者端末から生配信用の映像データを受信し、前記演出条件が満足している場合にはさらに前記配信者端末および観客端末の少なくとも1つから前記配信者端末および前記観客端末の少なくとも1つにおいて前記映像データに合成される動的な演出データに対する操作要求を受信する受信部と、
前記操作要求に基づいて前記動的な演出データの操作データを生成する生成部と、
前記映像データおよび前記操作データを前記配信者端末および観客端末の少なくとも1つへ配信する配信部と
を具備する、配信サーバ。
[C16] 前記動的な演出データは、前記操作データに応じて画面遷移する映像データである、C15に記載の配信サーバ。
[C17] 演出条件が満足しているか否かを判定する判定部と、
前記演出条件が満足している時に、ユーザ入力に応じて動的な演出データに対する操作要求を生成する生成部と、
前記操作要求を配信サーバへ送信する送信部と、
前記演出条件が満足している時に、前記配信サーバから生配信用の映像データおよび前記操作要求に基づいて生成された前記動的な演出データの操作データを受信する受信部と、
前記操作要求に基づいて前記動的な演出データを制御する制御部と、
前記映像データに前記動的な演出データを合成する合成部と、
を具備する、端末。
At least part of the processing in each of the above embodiments can also be implemented using a general-purpose computer as basic hardware. A program that implements the above process may be provided by being stored in a computer-readable recording medium. The program is stored in the recording medium as an installable format file or an executable format file. Recording media include magnetic disks, optical disks (CD-ROM, CD-R, DVD, etc.), magneto-optical disks (MO, etc.), semiconductor memories, and the like. Any recording medium may be used as long as it can store the program and is readable by a computer. Alternatively, the program that implements the above processing may be stored on a computer (server) connected to a network such as the Internet, and downloaded to the computer (client) via the network.
The invention described in the scope of claims at the time of filing of the present application will be additionally described below.
[C1] a receiving unit that receives video data for live distribution from a distributor terminal;
a determination unit that determines whether or not the rendering conditions are satisfied;
a synthesizing unit for synthesizing performance data with the video data to generate synthetic video data when the performance condition is satisfied;
a distribution unit that distributes the composite video data to the distributor terminal and the spectator terminal;
A distribution server comprising:
[C2] The effect conditions are as follows: (1) The first effect ends after the date and time referred to by the distribution server reaches the effect start point set within the time frame allocated for the live distribution of the video data. (2) after the number of spectators of the video data satisfies a predetermined condition until the second performance end condition is satisfied; (4) from the time the comment posted to the video data satisfies a predetermined condition until the fourth effect end condition is satisfied; and (5) The distribution server according to C1, which satisfies at least one of a period from when the reproduced video or reproduced audio of the video data satisfies a predetermined condition to when the fifth rendering end condition is satisfied.
[C3] Any one of the first effect end condition, the second effect end condition, the third effect end condition, the fourth effect end condition and the fifth effect end condition is satisfied. The distribution server according to C2, further comprising a creation unit that creates the effect data including information dynamically indicating a necessary condition.
[C4] The distribution server according to C3, wherein the creation unit creates the effect data including information indicating a gap between the number of spectators or the number of comments in the video data and the required number.
[C5] The distribution server according to C1 or C2, further comprising a creation unit that creates the effect data including information about an event that occurred after the start of live distribution of the video data.
[C6] The creating unit includes the number of spectators of the video data, part of comments posted on the video data, the number of comments posted on the video data, and comments on the video data. The distribution server according to C5, which creates the effect data including information indicating at least one of the posted spectator names.
[C7] Reacting to at least one of (1) a user input made to at least one of the distributor terminal and the spectator terminal and (2) a comment posted by at least one of the distributor terminal and the spectator terminal The distribution server according to C1 or C2, further comprising a creation unit that creates performance data that changes by
[C8] Further comprising a creation unit that creates the effect data including information generated based on at least one of metadata attached to the video data and information displayed on a web page related to the video data. , C1 or C2.
[C9] The synthesizing unit according to any one of C1 to C7, wherein a part or all of a screen of the reproduced video of the video data is resized and synthesized with the effect data to generate the synthesized video data. distribution server.
[C10] The synthesizing unit synthesizes the video data with the effect data such that a part of the screen of the reproduced video of the video data is exposed and the remaining part is hidden, thereby generating the synthesized video data, C1 to C7. The distribution server according to any one of Claims 1 to 3.
[C11] computer,
means for receiving video data for live distribution from a distributor terminal;
Means for determining whether or not performance conditions are satisfied;
means for synthesizing performance data with the video data to generate synthetic video data when the performance condition is satisfied;
Means for distributing the composite video data to the distributor terminal and the spectator terminal
A distribution program for functioning as a
[C12] The receiving unit receives from at least one of the distributor terminal and the spectator terminal a combination position of the video data and the effect data, an enlargement/reduction ratio of the video data, an enlargement/reduction ratio of the effect data, further receiving designation data designating at least one of the amount of rotation of the image data, the amount of rotation of the effect data, a specific area in the image data, and a specific area in the effect data;
The synthesizing unit performs at least one of translation, resizing, rotation, inversion, and trimming on at least one of the video data and the effect data according to the specified data, and then synthesizes the video data and the effect data. , generating said composite video data;
The distribution server according to any one of C1 to C10.
[C13] a receiving unit that receives video data for live distribution from a distributor terminal;
a determination unit that determines whether or not the rendering conditions are satisfied;
a processing unit that performs predetermined processing on the video data to generate processed video data when the performance condition is satisfied;
a distribution unit that distributes the processed video data to the distributor terminal and the spectator terminal;
A distribution server comprising:
[C14] When the effect condition is satisfied, the processing unit duplicates the specific area in the video data as it is, or after performing at least one of rotation, inversion and resizing, pastes it into the video data. The distribution server according to C13, which generates the processed video data.
[C15] a determination unit that determines whether or not the rendering conditions are satisfied;
Video data for live distribution is received from a distributor terminal, and when the performance condition is satisfied, at least one of the distributor terminal and the spectator terminal is further sent to at least one of the distributor terminal and the spectator terminal. a receiving unit for receiving an operation request for dynamic effect data synthesized with the video data in
a generation unit that generates operation data of the dynamic effect data based on the operation request;
a distribution unit that distributes the video data and the operation data to at least one of the distributor terminal and the audience terminal;
A distribution server comprising:
[C16] The distribution server according to C15, wherein the dynamic effect data is video data that causes screen transitions in accordance with the operation data.
[C17] a determination unit that determines whether or not the rendering conditions are satisfied;
a generation unit that generates an operation request for dynamic performance data according to a user input when the performance condition is satisfied;
a transmission unit that transmits the operation request to a distribution server;
a receiving unit that receives, from the distribution server, video data for live distribution and operation data of the dynamic effect data generated based on the operation request when the effect condition is satisfied;
a control unit that controls the dynamic effect data based on the operation request;
a synthesizing unit that synthesizes the dynamic presentation data with the video data;
terminal.
100・・・配信者端末
200,500,700,900,1100・・・配信サーバ
201,501,601,701,801,901,1001,1101・・・受信部 202,502,702,902,1102・・・時計部
203,503,703,903,1103・・・配信制御部
204,504,604,704,804,904,1004,1104・・・演出条件判定部
205,505,605,705,805,905,1005,1105・・・演出条件記憶部
206,506,606・・・演出データ作成部
207,507,607,1007,1107・・・演出データ合成部
208,508,708,908,1108・・・映像配信部
300・・・観客端末
600,800,1000・・・端末
608,808,1008・・・表示制御部
707,807・・・映像加工部
909,1109・・・操作データ生成部
1006,1106・・・演出データ制御部
1010・・・入力部
1011・・・操作要求生成部
1012・・・送信部
100 Distributor terminal 200,500,700,900,1100 Distribution server 201,501,601,701,801,901,1001,1101 Reception unit 202,502,702,902,1102
Claims (12)
演出条件が満足しているか否かを判定することと、
前記演出条件が満足している時に、前記生配信用の映像データに対して演出を付加することと、
前記演出が付加された映像データを前記配信者端末あるいは観客端末へ配信することと
をコンピュータに実行させるコンピュータプログラムであって、
前記演出条件は、オープニング演出、エンディング演出、または中間演出を付加するか否かを判定するための基準であり、前記演出条件は、少なくとも、前記映像データの生配信のために割り当てられた時間枠、前記映像データの観客数、前記オープニング演出の開始の指示、前記映像データに対して投稿されたコメント、前記映像データの再生音声のいずれかに基づく条件を含み、
前記判定することは、前記オープニング演出、エンディング演出、または中間演出のそれぞれについて、前記演出条件を満たすか否かを判定することを含む、
コンピュータプログラム。 Receiving at least video data for live distribution from a distributor terminal;
Determining whether the production conditions are satisfied;
adding an effect to the video data for live distribution when the effect condition is satisfied;
A computer program for causing a computer to distribute the video data to which the effect has been added to the distributor terminal or the spectator terminal,
The effect condition is a criterion for determining whether or not to add an opening effect, an ending effect, or an intermediate effect, and the effect condition is at least a time frame allocated for live distribution of the video data. , the number of spectators of the video data, an instruction to start the opening effect, a comment posted on the video data, and a condition based on the playback sound of the video data,
The determining includes determining whether or not the performance conditions are satisfied for each of the opening effect, the ending effect, or the intermediate effect.
computer program.
演出条件が満足しているか否かを判定することと、 Determining whether the production conditions are satisfied;
前記演出条件が満足している時に、前記生配信用の映像データに対して演出を付加することと、 adding an effect to the video data for live distribution when the effect condition is satisfied;
前記演出が付加された映像データを前記配信者端末あるいは観客端末へ配信することと distributing the video data to which the effect is added to the distributor terminal or the spectator terminal;
をコンピュータに実行させるコンピュータプログラムであって、 A computer program that causes a computer to execute
前記演出条件は、オープニング演出、エンディング演出、または中間演出を付加するか否かを判定するための基準であり、前記演出条件は、所定の条件を満足してから演出終了条件が満足するまでの間に満足するように定められており、 The effect condition is a criterion for determining whether or not to add an opening effect, an ending effect, or an intermediate effect. is determined to satisfy between
前記判定することは、前記オープニング演出、エンディング演出、または中間演出のそれぞれについて、前記演出条件を満たすか否かを判定することを含む、 The determining includes determining whether or not the performance conditions are satisfied for each of the opening effect, the ending effect, or the intermediate effect.
コンピュータプログラム。computer program.
前記生配信用の映像データに対して演出を付加することは、前記指定データに従って前記映像データまたは前記演出を合成し、合成映像データを生成することを含む、請求項1または2に記載のコンピュータプログラム。 The receiving includes receiving designation data that designates how to synthesize the video data for live distribution and the presentation;
3. The computer according to claim 1 , wherein adding an effect to said video data for live distribution includes synthesizing said video data or said effect according to said designated data to generate synthesized video data. program.
前記配信することは、前記映像データおよび前記操作データを前記配信者端末あるいは観客端末の少なくとも1つへ配信することを含む、請求項1または2に記載のコンピュータプログラム。 Adding an effect to the video data for live distribution includes generating operation data for a dynamic effect based on an operation request from at least one of the distributor terminal or the spectator terminal,
3. The computer program product according to claim 1, wherein said distributing includes distributing said video data and said operation data to at least one of said distributor terminal or spectator terminal.
請求項1乃至請求項6のいずれか一項に記載のコンピュータプログラム。 further causing a computer to perform creating the rendition;
7. A computer program according to any one of claims 1-6 .
演出条件が満足しているか否かを判定する判定部と、
前記演出条件が満足している時に、前記生配信用の映像データに対して演出を付加したデータを前記配信者端末あるいは観客端末へ配信する配信部と
を具備し、
前記演出条件は、オープニング演出、エンディング演出、または中間演出を付加するか否かを判定するための基準であり、前記演出条件は、少なくとも、前記映像データの生配信のために割り当てられた時間枠、前記映像データの観客数、前記オープニング演出の開始の指示、前記映像データに対して投稿されたコメント、前記映像データの再生音声のいずれかに基づく条件を含み、
前記判定部は、前記オープニング演出、前記エンディング演出、または前記中間演出のそれぞれについて、前記演出条件を満たすか否かを判定する、
配信サーバ。 a receiving unit that receives at least video data for live distribution from a distributor terminal;
a determination unit that determines whether or not the rendering conditions are satisfied;
a distribution unit that distributes data added with effects to the video data for live distribution to the distributor terminal or the spectator terminal when the effect condition is satisfied;
The effect condition is a criterion for determining whether or not to add an opening effect, an ending effect, or an intermediate effect, and the effect condition is at least a time frame allocated for live distribution of the video data. , the number of spectators of the video data, an instruction to start the opening effect, a comment posted on the video data, and a condition based on the playback sound of the video data,
The determination unit determines whether or not each of the opening effect, the ending effect, or the intermediate effect satisfies the effect condition.
distribution server.
演出条件が満足しているか否かを判定する判定部と、
前記演出条件が満足している時に、前記生配信用の映像データに対して演出を付加したデータを前記配信者端末あるいは観客端末へ配信する配信部と
を具備し、
前記演出条件は、オープニング演出、エンディング演出、または中間演出を付加するか否かを判定するための基準であり、前記演出条件は、所定の条件を満足してから演出終了条件が満足するまでの間に満足するように定められており、
前記判定部は、前記オープニング演出、前記エンディング演出、または前記中間演出のそれぞれについて、前記演出条件を満たすか否かを判定する、
配信サーバ。 a receiving unit that receives at least video data for live distribution from a distributor terminal;
a determination unit that determines whether or not the rendering conditions are satisfied;
a distribution unit for distributing, when the performance condition is satisfied, data added with performance to the video data for live distribution to the distributor terminal or the spectator terminal;
and
The effect condition is a criterion for determining whether or not to add an opening effect, an ending effect, or an intermediate effect. is determined to satisfy between
The determination unit determines whether or not each of the opening effect, the ending effect, or the intermediate effect satisfies the effect condition.
distribution server.
演出条件が満足しているか否かの判定を取得することと、 obtaining a determination as to whether or not the rendering conditions are satisfied;
前記演出条件が満足している時に、前記生配信用の映像データに対して演出を付加することと、 adding an effect to the video data for live distribution when the effect condition is satisfied;
前記演出が付加された映像データを表示装置の画面に表示することと displaying the video data to which the effect has been added on a screen of a display device;
をコンピュータに実行させるコンピュータプログラムであって、 A computer program that causes a computer to execute
前記演出条件は、オープニング演出、エンディング演出、または中間演出を付加するか否かを判定するための基準であり、前記演出条件は、少なくとも、前記映像データの生配信のために割り当てられた時間枠、前記映像データの観客数、前記オープニング演出の開始の指示、前記映像データに対して投稿されたコメント、前記映像データの再生音声のいずれかに基づく条件を含み、 The effect condition is a criterion for determining whether or not to add an opening effect, an ending effect, or an intermediate effect, and the effect condition is at least a time frame allocated for live distribution of the video data. , the number of spectators of the video data, an instruction to start the opening effect, a comment posted on the video data, and a condition based on the playback sound of the video data,
前記判定することは、前記オープニング演出、エンディング演出、または中間演出のそれぞれについて、前記演出条件を満たすか否かを判定することを含む、 The determining includes determining whether or not the performance conditions are satisfied for each of the opening effect, the ending effect, or the intermediate effect.
コンピュータプログラム。computer program.
演出条件が満足しているか否かの判定を取得することと、 obtaining a determination as to whether or not the rendering conditions are satisfied;
前記演出条件が満足している時に、前記生配信用の映像データに対して演出を付加することと、 adding an effect to the video data for live distribution when the effect condition is satisfied;
前記演出が付加された映像データを表示装置の画面に表示することと displaying the video data to which the effect has been added on a screen of a display device;
をコンピュータに実行させるコンピュータプログラムであって、 A computer program that causes a computer to execute
前記演出条件は、オープニング演出、エンディング演出、または中間演出を付加するか否かを判定するための基準であり、前記演出条件は、所定の条件を満足してから演出終了条件が満足するまでの間に満足するように定められており、 The effect condition is a criterion for determining whether or not to add an opening effect, an ending effect, or an intermediate effect. is determined to satisfy between
前記判定することは、前記オープニング演出、エンディング演出、または中間演出のそれぞれについて、前記演出条件を満たすか否かを判定することを含む、 The determining includes determining whether or not the performance conditions are satisfied for each of the opening effect, the ending effect, or the intermediate effect.
コンピュータプログラム。computer program.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017218211 | 2017-11-13 | ||
JP2017218211 | 2017-11-13 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018100684A Division JP6473262B1 (en) | 2017-11-13 | 2018-05-25 | Distribution server, distribution program, and terminal |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019092186A JP2019092186A (en) | 2019-06-13 |
JP2019092186A5 JP2019092186A5 (en) | 2021-07-26 |
JP7159067B2 true JP7159067B2 (en) | 2022-10-24 |
Family
ID=65443034
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018100684A Active JP6473262B1 (en) | 2017-11-13 | 2018-05-25 | Distribution server, distribution program, and terminal |
JP2019010226A Active JP7159067B2 (en) | 2017-11-13 | 2019-01-24 | Computer program and distribution server |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018100684A Active JP6473262B1 (en) | 2017-11-13 | 2018-05-25 | Distribution server, distribution program, and terminal |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP6473262B1 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6533022B1 (en) * | 2019-02-28 | 2019-06-19 | 株式会社ドワンゴ | Terminal, server and program |
WO2022075418A1 (en) * | 2020-10-09 | 2022-04-14 | ヤマハ株式会社 | Communication method and system |
JP2022134182A (en) | 2021-03-03 | 2022-09-15 | ヤマハ株式会社 | Video output method, video output device, and video output system |
JP7270276B2 (en) * | 2021-03-12 | 2023-05-10 | 株式会社コナミデジタルエンタテインメント | Terminal device, server device, terminal device control method, server device control method, distribution system, display system, and program |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012124608A (en) | 2010-12-06 | 2012-06-28 | Olympus Imaging Corp | Camera |
WO2014097814A1 (en) | 2012-12-20 | 2014-06-26 | シャープ株式会社 | Display device, input device, information presentation device, program and recording medium |
WO2016088566A1 (en) | 2014-12-03 | 2016-06-09 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
WO2017159383A1 (en) | 2016-03-16 | 2017-09-21 | ソニー株式会社 | Information processing device, information processing method, program, and moving-image delivery system |
JP6219548B1 (en) | 2017-03-31 | 2017-10-25 | 株式会社ドワンゴ | Virtual processing server, virtual processing server control method, content distribution system, and terminal device application program |
-
2018
- 2018-05-25 JP JP2018100684A patent/JP6473262B1/en active Active
-
2019
- 2019-01-24 JP JP2019010226A patent/JP7159067B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012124608A (en) | 2010-12-06 | 2012-06-28 | Olympus Imaging Corp | Camera |
WO2014097814A1 (en) | 2012-12-20 | 2014-06-26 | シャープ株式会社 | Display device, input device, information presentation device, program and recording medium |
WO2016088566A1 (en) | 2014-12-03 | 2016-06-09 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
WO2017159383A1 (en) | 2016-03-16 | 2017-09-21 | ソニー株式会社 | Information processing device, information processing method, program, and moving-image delivery system |
JP6219548B1 (en) | 2017-03-31 | 2017-10-25 | 株式会社ドワンゴ | Virtual processing server, virtual processing server control method, content distribution system, and terminal device application program |
Also Published As
Publication number | Publication date |
---|---|
JP2019092146A (en) | 2019-06-13 |
JP2019092186A (en) | 2019-06-13 |
JP6473262B1 (en) | 2019-02-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7159067B2 (en) | Computer program and distribution server | |
CN105765990B (en) | Method, system and computer medium for distributing video content over a distributed network | |
US9788064B2 (en) | User interface for method for creating a custom track | |
US10210902B2 (en) | Method and apparatus for creating a custom track | |
US11812070B2 (en) | Event production and distribution networks, systems, apparatuses, and methods related thereto | |
EP1415470B1 (en) | Enhanced custom content television | |
CN100425072C (en) | Information-processing apparatus, information-processing methods, recording mediums, and programs | |
EP2834972B2 (en) | Multi-source video navigation | |
CN103686450A (en) | Video processing method and system | |
AU2002333358A1 (en) | Enhanced custom content multi media television | |
US11127432B2 (en) | User interface for method for creating a custom track | |
US20130009984A1 (en) | Display installed in hall | |
CN109479157A (en) | Promote method, system and the medium of the interaction between the viewer of content stream | |
JP2005527158A (en) | Presentation synthesizer | |
WO2021199559A1 (en) | Video distribution device, video distribution method, and video distribution program | |
US20130251347A1 (en) | System and method for portrayal of object or character target features in an at least partially computer-generated video | |
JP2003204535A (en) | Apparatus and method for distributing image in synchronization with music | |
JP2006293939A (en) | Publication issuance and distribution system | |
US7933671B2 (en) | Data outputting device, data outputting method, data outputting program, and recording medium | |
JP2005228297A (en) | Production method of real character type moving image object, reproduction method of real character type moving image information object, and recording medium | |
JP2004088728A (en) | Picture providing apparatus, method, and program thereof | |
JP2004173320A (en) | Image providing apparatus | |
JP7237927B2 (en) | Information processing device, information processing device and program | |
KR20000058512A (en) | A system for announce using a streaming file including returned function and a method for announce using the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210507 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210507 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220318 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220329 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220517 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220920 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221012 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7159067 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |