JP2016146544A - 通信システム、配信装置及びプログラム - Google Patents

通信システム、配信装置及びプログラム Download PDF

Info

Publication number
JP2016146544A
JP2016146544A JP2015022412A JP2015022412A JP2016146544A JP 2016146544 A JP2016146544 A JP 2016146544A JP 2015022412 A JP2015022412 A JP 2015022412A JP 2015022412 A JP2015022412 A JP 2015022412A JP 2016146544 A JP2016146544 A JP 2016146544A
Authority
JP
Japan
Prior art keywords
timing
video
timings
distribution
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015022412A
Other languages
English (en)
Other versions
JP6281503B2 (ja
Inventor
建太郎 牛山
Kentaro Ushiyama
建太郎 牛山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2015022412A priority Critical patent/JP6281503B2/ja
Publication of JP2016146544A publication Critical patent/JP2016146544A/ja
Application granted granted Critical
Publication of JP6281503B2 publication Critical patent/JP6281503B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

【課題】臨場感が高まるように映像を配信することができる通信システム及び配信装置を提供する。【解決手段】複数の端末装置へ映像をストリーミング配信する配信手段と、複数の端末装置から、配信手段により配信された映像が端末装置により再生されているときに所定のユーザ操作が受け付けられたタイミングを示すタイミング情報を受信するタイミング受信手段と、タイミング受信手段により受信されたタイミング情報が示すタイミングの数を集計する集計手段と、集計手段により集計されたタイミングの数に基づいて、映像に付加される効果を決定する決定手段と、決定手段により決定された効果を、配信手段により配信中の映像に付加する付加手段と、を備える。【選択図】図2

Description

本発明は、映像を配信するシステムの技術分野に関する。
従来、複数の端末装置にネットワークを介して映像をストリーミング配信することにより、生中継を行う技術が知られている。例えば、特許文献1には、コンサートなどをカメラで撮影して映像データを生成し、この映像データをリアルタイムで複数のユーザ装置に配信するシステムが開示されている。
特開2011−103522号公報
しかしながら、特許文献1に記載の技術では、端末装置を利用する視聴者による例えば拍手や声援などの動作をコンサート会場に送ることができない。従って、端末装置に配信される映像にはそのような動作が反映されないため、映像に臨場感が不足していた。
本発明は、以上の点に鑑みてなされたものであり、臨場感が高まるように映像を配信することができる通信システム及び配信装置を提供することを課題とする。
上記課題を解決するために、請求項1に記載の発明は、配信装置と、ネットワークを介して配信装置に接続可能な複数の端末装置を備える通信システムにおいて、前記端末装置は、前記配信装置からストリーミング配信される映像を受信する映像受信手段と、前記映像受信手段により受信された前記映像を再生する再生手段と、前記再生手段により前記映像が再生されているとき、所定のユーザ操作を受け付ける受付手段と、前記受付手段により前記所定のユーザ操作が受け付けられたタイミングを示すタイミング情報を前記配信装置へ送信する送信手段と、を備え、前記配信装置は、前記複数の端末装置へ前記映像をストリーミング配信する配信手段と、前記複数の端末装置から前記タイミング情報を受信するタイミング受信手段と、前記タイミング受信手段により受信された前記タイミング情報が示す前記タイミングの数を集計する集計手段と、前記集計手段により集計された前記タイミングの数に基づいて、前記映像に付加される効果を決定する決定手段と、前記決定手段により決定された効果を、前記配信手段により配信中の前記映像に付加する付加手段と、を備えることを特徴とする。
請求項2に記載の発明は、複数の端末装置へ映像をストリーミング配信する配信手段と、前記複数の端末装置から、前記配信手段により配信された前記映像が前記端末装置により再生されているときに所定のユーザ操作が受け付けられたタイミングを示すタイミング情報を受信するタイミング受信手段と、前記タイミング受信手段により受信された前記タイミング情報が示すタイミングの数を集計する集計手段と、前記集計手段により集計された前記タイミングの数に基づいて、前記映像に付加される効果を決定する決定手段と、前記決定手段により決定された効果を、前記配信手段により配信中の前記映像に付加する付加手段と、を備えることを特徴とする。
請求項3に記載の発明は、請求項2に記載の配信装置において、前記集計手段は、前記タイミング情報が示すタイミングの数を所定期間ごとに集計し、前記決定手段は、前記集計手段により集計された前記タイミングの数に基づいて、前記効果の程度を決定し、前記付加手段は、前記決定手段により決定された前記程度の効果を付加することを特徴とする。
請求項4に記載の発明は、請求項3に記載の配信装置において、前記効果の程度ごとに、前記程度と、前記タイミングの数とを対応付けて予め記憶しておく記憶手段を更に備え、前記決定手段は、前記集計手段により集計された前記タイミングの数に対応する程度を、前記記憶手段に記憶された複数の程度の中から決定することを特徴とする。
請求項5に記載の発明は、請求項3又は4に記載の配信装置において、前記決定手段により決定される効果は、前記映像に付加される効果音であり、前記決定手段は、前記集計手段により集計された前記タイミングの数が多い程、大きい音量の効果音を決定することを特徴とする。
請求項6に記載の発明は、請求項2乃至5の何れか1項に記載の配信装置において、前記集計手段は、前記タイミング情報が示すタイミングの数を所定期間ごとに集計し、集計された前記タイミングの数に基づいて、長さが異なる複数の周期のタイミングのそれぞれで行われた前記所定のユーザ操作の数を取得し、前記決定手段は、前記複数の周期のうち前記集計手段により取得された前記所定のユーザ操作の数が最も多い特定周期の前記所定のユーザ操作の数が、所定条件を満たす程度以上多い場合、前記特定周期で生じる第1効果を決定し、前記特定周期の前記所定のユーザ操作の数が、前記所定条件を満たす程度以上多くはない場合、非周期的に生じる第2効果を決定することを特徴とする。
請求項7に記載の発明は、請求項2乃至6の何れか1項に記載の配信装置において、前記集計手段は、前記タイミング情報が示すタイミングの数を所定期間ごとに集計し、集計された前記タイミングの数に基づいて、長さが異なる複数の周期のタイミングのそれぞれで行われた前記所定のユーザ操作の数を取得し、前記決定手段は、前記複数の周期のうち前記集計手段により取得された前記所定のユーザ操作の数が最も多い特定周期の前記所定のユーザ操作の数が、所定条件を満たす程度以上多い場合、前記効果として手拍子音を決定し、前記付加手段は、前記配信手段により配信中の前記映像に前記手拍子音を合成することを特徴とする。
請求項8に記載の発明は、請求項7に記載の配信装置において、前記付加手段は、前記決定手段により前記手拍子音が決定された場合、前記特定周期で受信されたタイミング情報が示すタイミングに対応する位相と一致する位相に対応する再生位置で、前記手拍子音を、前記配信手段により配信中の前記映像に合成することを特徴とする。
請求項9に記載の発明は、請求項2乃至8の何れか1項に記載の配信装置において、前記所定のユーザ操作のタイミングを示す第2タイミング情報を前記複数の端末装置へ配信する第2配信手段を更に備え、前記集計手段は、前記第2タイミング情報が示すタイミングから所定時間内に受け付けられた前記ユーザ操作のタイミングの数を集計することを特徴とする。
請求項10に記載の発明は、複数の端末装置へ映像をストリーミング配信する第1配信ステップと、前記複数の端末装置から、前記第1配信ステップにより配信された前記映像が前記端末装置により再生されているときに所定のユーザ操作が受け付けられたタイミングを示すタイミング情報を受信するタイミング受信ステップと、前記タイミング受信ステップにより受信された前記タイミング情報が示すタイミングの数を集計する集計ステップと、前記集計ステップにより集計された前記数に基づいて、前記映像に付加される効果を決定する決定ステップと、前記決定ステップにより決定された効果を、配信中の前記映像に付加する付加ステップと、前記付加ステップにより前記効果が付加された前記映像を前記複数の端末装置へストリーミング配信する第2配信ステップと、をコンピュータに実行させることを特徴とする。
請求項1、2、4、5又は10に記載の発明によれば、所定のユーザ操作のタイミングの数の集計に基づいて決定された効果が映像とともに再生されるので、臨場感を高めることができる。
請求項3に記載の発明によれば、集計されたタイミングの数に基づく程度の効果が映像とともに再生されるので、複数の視聴者が盛り上がっている程度を表現することができる。
請求項6に記載の発明によれば、複数の視聴者の所定のユーザ操作がタイミングを合わせて周期的に行われているかに応じた効果を適切に決定することができる。
請求項7に記載の発明によれば、複数の視聴者の所定のユーザ操作がタイミングを合わせて周期的に行われている場合、周期的な効果として手拍子音を再生させることができる。
請求項8に記載の発明によれば、手拍子音が再生されるタイミングを、再生される映像のリズムに合わせることができる。
請求項9に記載の発明によれば、所定のユーザ操作を複数の視聴者が一斉に行うタイミングを視聴者に示すことが可能となる。また、指定されたタイミングに合った所定のユーザ操作の集計に基づく効果が映像とともに再生されるので、臨場感をより高めることができる。
本実施形態の通信システムSAの概要構成例を示す図である。 通信システムSAの動作概要の一例を示す図である。 (A)は、各サンプリング周期における所定のユーザ操作のタイミングの数の一例を示すグラフである。(B)は、周波数解析により得られた各周波数帯の所定のユーザ操作の数の一例を示す図である。(C)は、所定のユーザ操作のタイミングの数の集計結果に基づいて特定される、手拍子としての所定のユーザ操作のタイミング、及び手拍子音が再生されるタイミングの例を示す図である。 配信サーバ1における手拍子音・拍手音生成処理の一例を示すフローチャートである。 クライアント端末2におけるクライアント処理の一例を示すフローチャートである。 (A)は、本実施形態の通信システムSBの概要構成例を示す図である。(B)は、通信システムSBの動作概要の一例を示す図である。 配信サーバ1におけるアクションタイミングデータ配信処理の一例を示すフローチャートである。 クライアント端末2におけるクライアント処理の一例を示すフローチャートである。
以下、本発明の実施形態を図面に基づいて説明する。
[1.第1実施形態]
[1−1.通信システムの構成]
図1は、本実施形態の通信システムSAの概要構成例を示す図である。図1に示すように、通信システムSAは、配信サーバ1、及び複数のクライアント端末2を含んで構成される。配信サーバ1は、本発明の配信装置の一例である。クライアント端末2は、本発明の端末装置の一例である。なお、図1に示すクライアント端末の数は一例であり、この数には限定されるものではない。配信サーバ1及びクライアント端末2は、それぞれ、ネットワークNWに接続される。ネットワークNWは、例えば、インターネット等により構成される。
配信サーバ1は、コンテンツを複数のクライアント端末2へストリーミング配信する。コンテンツは、映像データを少なくとも含む。この映像データは、例えば動画データである。映像データは複数の画像フレームを含む。また、コンテンツは、音声データを含んでもよい。コンテンツは、例えば、コンサート等のイベントの様子をビデオカメラで撮影したコンテンツであってもよい。
配信サーバ1は、例えばビデオカメラにより撮影されたコンテンツをビデオカメラから受信しながら、受信されたコンテンツをリアルタイムでストリーミング配信してもよい。或いは、配信サーバ1は、例えば配信サーバ1に予め記憶されたコンテンツをストリーミング配信してもよい。
クライアント端末2は、配信サーバ1からストリーミング配信されてくるコンテンツを受信する。そして、クライアント端末2は、受信されたコンテンツを再生する。これにより、クライアント端末2は、コンテンツに含まれる映像を画面に表示する。また、クライアント端末2は、コンテンツに含まれる音声を出力する。クライアント端末2の種類としては、パーソナルコンピュータ、テレビ、STB、携帯電話機、スマートフォン、タブレット型コンピュータ等がある。
[1−2.各装置の構成]
次に、図1を参照して、本実施形態の通信システムSAに含まれる各装置の構成について説明する。配信サーバ1は、図1に示すように、制御部11、記憶部12、及びインターフェース部13等を備えて構成される。これらの構成要素は、バス14に接続されている。インターフェース部13は、ネットワークNWに接続される。制御部11は、コンピュータとしてのCPU(Center Processing Unit)、ROM(Read Only Memory)、及びRAM(Random Access Memory)等により構成される。記憶部12は、例えばハードディスクドライブにより構成される。記憶部12には、OS、及びサーバプログラム等が記憶されている。サーバプログラムは、コンテンツの配信処理等をCPUに実行させるプログラムである。また、記憶部12には、1又は複数のコンテンツが記憶される。
次に、クライアント端末2は、図1に示すように、制御部21、記憶部22、ビデオRAM23、映像制御部24、操作処理部25、音声制御部26、及びインターフェース部27等を備えて構成される。これらの構成要素は、バス28に接続されている。映像制御部24には、ディスプレイを備える表示部24aが接続される。制御部21は、コンピュータとしてのCPU、ROM、及びRAM等により構成される。操作処理部25には、操作部25aが接続される。操作部25aには、例えば、マウス、キーボード、リモコン等がある。表示部24aと操作部25aとを兼ねるタッチパネルが適用されてもよい。制御部21は、ユーザによる操作部25aからの操作指示を、操作処理部25を介して受け付ける。音声制御部26には、スピーカ26aが接続される。インターフェース部27は、ネットワークNWに接続される。記憶部22は、例えば、ハードディスクドライブ又はフラッシュメモリ等により構成される。記憶部22には、OS、及びプレイヤーソフトウェア等が記憶されている。プレイヤーソフトウェアは、コンテンツの受信及び再生処理等をCPUに実行させるプログラムである。
[1−3.配信中のコンテンツへの効果の付加]
例えばコンサート等のイベントのコンテンツを視聴中のユーザは、イベントが行われる会場に観客としてユーザがいたと仮定した場合に行うような動作を行いたい場合がある。そのような動作の例として、手拍子、拍手、掛け声を掛けること、声援を送ること、足の踏みならし、所定の身振り等がある。配信サーバ1は、このような動作に対応するユーザ操作に応じた効果を配信中のコンテンツに付加する。
図2は、通信システムSAの動作概要の一例を示す図である。図2に示すように、配信サーバ1は、複数のクライアント端末2へコンテンツをストリーミング配信する(ステップS1)。クライアント端末2は、配信サーバ1からストリーミング配信されてくるコンテンツを再生する。コンテンツの再生中、クライアント端末2は、ユーザから操作部25aに対する所定のユーザ操作を受け付ける。ユーザは、例えばユーザが望むタイミングで所定のユーザ操作を行うことができる。所定のユーザ操作は、例えば、操作部25aを構成する所定のキー、ボタン等を押す操作等であってもよいし、表示部24aに表示されている所定のキー、ボタンを選択する操作等であってもよい。所定のユーザ操作は、例えばユーザによる所定の動作が行われたことを示す操作である。上述したように、所定の動作は、例えばイベントが行われる会場にユーザがいたと仮定した場合にユーザが行うような動作であってもよい。例えば、所定の動作は、コンテンツの再生によって表示部24aに表示された映像及びスピーカ26aから出力された音声の少なくとも何れか一方に対するリアクションであってもよい。本実施形態においては、所定の動作は、ユーザの手を打ち鳴らすことである。例えば、ユーザが拍手したい場合、ユーザは所定のユーザ操作を小刻みに連続して行う。また例えば、ユーザが手拍子を取りたい場合、ユーザは例えば所定の周期で所定のユーザ操作を行う。例えば、表示部24aに表示される映像のリズムに合わせて又はスピーカ26aから出力される音声のリズムに合わせて、ユーザは所定のユーザ操作を行うことができる。
クライアント端末2は、所定のユーザ操作を受け付けたとき、そのユーザ操作を受け付けたタイミングを示すアクションデータを配信サーバ1へ送信する(ステップS2)。アクションデータは、本発明のタイミング情報の一例である。ユーザ操作を受け付けたタイミングは、例えばコンテンツの再生位置で示されてもよい。コンテンツの再生位置は、例えばコンテンツの再生が開始してから経過した時間で示される。
配信サーバ1は、コンテンツの配信中、複数のクライアント端末2のうち所定のユーザ操作を受け付けたクライアント端末2からアクションデータを受信する。配信サーバ1は、受信されたアクションデータが示す所定のユーザ操作のタイミングの数を集計する(ステップS3)。集計された所定のユーザ操作のタイミングの数を、集計数ともいう。配信サーバ1は、集計された所定のユーザ操作のタイミングの数に基づいて、配信中のコンテンツに付加される効果を決定する。コンテンツに付加される効果の例として、音声、映像、映像効果等がある。本実施形態において、配信サーバ1は、コンテンツに付加される効果として効果音を決定する。具体的に、配信サーバ1は、効果音として手拍子音及び拍手音の少なくとも何れか一方を決定する。手拍子音は、手拍子を示す効果音である。拍手音は、拍手を示す効果音である。そして、配信サーバ1は、決定した手拍子音又は拍手音を生成する(ステップS4)。
配信サーバ1は、決定された効果を、配信中のコンテンツに付加する。そして、決定された効果が付加されたコンテンツを複数のクライアント端末2へ配信する(ステップS5)。クライアント端末2は、決定された効果が付加されたコンテンツを受信して再生する。これにより、クライアント端末2は、決定された効果が付加された映像を表示部24aに表示し、又は決定された効果としての音声をスピーカ26aにより出力させる。そのため、再生されるコンテンツの臨場感を高めることができる。本実施形態においては、クライアント端末2は、手拍子音及び拍手音の少なくとも何れか一方をスピーカ26aにより出力させる。
次に、配信中のコンテンツに手拍子音及び拍手音を付加する場合の、所定のユーザ操作の数の集計方法、手拍子音及び拍手音の生成方法、及び手拍子音及び拍手音の付加方法の詳細を説明する。
例えば制御部11は、所定のサンプリング周期ごとに、所定のユーザ操作のタイミングの数を集計する。具体的に、サンプリング周期がSであり、コンテンツの再生開始からn周期目の所定のユーザ操作の数を集計するとする。この場合、制御部11は、n(S−1)秒からnS秒までの範囲に含まれるタイミングを示すアクションデータの数を集計する。図3(A)は、各サンプリング周期における所定のユーザ操作のタイミングの数の一例を示すグラフである。
制御部11は、各サンプリング周期で集計されたタイミングの数に基づいて、長さの異なる複数の周期のタイミングのそれぞれで行われた所定のユーザ操作の数を取得する。具体的に、制御部11は、各サンプリング周期で集計されたタイミングの数をフーリエ変換等により周波数解析して、周波数分布を生成する。すなわち、制御部11は、複数の周波数帯のそれぞれの振幅を取得する。各周波数帯の振幅は、その周波数帯の代表値の逆数である周期のタイミングで行われた所定のユーザ操作の数に対応する。図3(B)は、周波数解析により得られた各周波数帯の所定のユーザ操作の数の一例を示す図である。
制御部11は、長さの異なる複数の周期のうち、所定のユーザ操作の数が最も多い周期を特定周期として特定する。そして、制御部11は、特定周期のタイミングで行われた所定のユーザ操作の数が、所定条件を満たす程度以上多い場合、コンテンツに付加される効果音として、特定周期で行われる手拍子を示す手拍子音を決定する。一方、特定周期のタイミングで行われた所定のユーザ操作の数が、所定条件を満たす程度以上多くはない場合、コンテンツに付加される効果音として拍手音を決定する。
手拍子は、基本的に一定の周期で手を打ち鳴らす行為である。複数のユーザが手拍子を取りたい場合、例えばクライアント端末2が表示する映像又は出力する音声のリズムに合わせて、一定の周期で所定のユーザ操作を行う。従って、複数のユーザの間で、所定のユーザ操作を行う周期及びタイミングが略一致する。そのため、集計された所定のユーザ操作の数を周波数分析すると、特定の周波数帯の振幅がその他の周波数帯の振幅と比較して顕著に大きくなる。一方、複数のユーザが拍手を送りたい場合、各ユーザは、クライアント端末2が表示する映像又は出力する音声のリズムとは無関係な周期で、所定のユーザ操作を行う。このとき、所定のユーザ操作を行う周期はユーザによって異なる。また、所定のユーザ操作を行うタイミングもユーザによって異なる。従って、複数のユーザ全体で見ると、所定のユーザ操作を行う間隔は非周期的である。そのため、集計された所定のユーザ操作の数を周波数分析すると、全体的に振幅が均一になる傾向にある。
所定条件を満たす程度は、例えば特定周期のタイミングで行われた所定のユーザ操作の数と、特定周期以外の周期のタイミングで行われた所定のユーザ操作の数との相対的な関係に基づいて定められる。例えば、所定条件を満たす程度以上であることは、特定周期の所定のユーザ操作の数を全ての周期の所定のユーザ操作の数で割ることにより計算される割合が、所定の基準割合以上であることであってもよい。或いは、制御部11は、所定のユーザ操作の数が2番目に多い周期を第2周期として特定してもよい。そして、所定条件を満たす程度以上とは、例えば特定周期の所定のユーザ操作の数を第2周期の所定のユーザ操作の数で割ることにより計算される比率が、所定の基準比率以上であることであってもよい。図3(B)においては、2Hzの周波数帯の振幅が他の周波数帯の振幅と比較して顕著に大きい。そのため、例えば0.5秒が特定周期に決定される。
制御部11は、各サンプリング周期で集計されたタイミングの数に基づいて、コンテンツに付加される効果の程度を決定してもよい。コンテンツに付加される効果の程度の例として、効果の強さ、量、数、大きさ等がある。具体的に、制御部11は、集計数が多いほど、コンテンツに付加される効果の程度を大きくする。本実施形態においては、制御部11は、例えば手拍子音や拍手音の程度として、例えば音量を決定してもよいし、手拍子音や拍手音の数を決定してもよい。手拍子音や拍手音の数は、例えば手拍子や拍手を行う人数に相当する。例えばコンテンツに付加される効果として手拍子音を決定した場合、制御部11は、特定周期の所定のユーザ操作の数が多いほど、手拍子音の音量を大きくし、又は手拍子音の数を多くしてもよい。また例えば、コンテンツに付加される効果として拍手音を決定した場合、制御部11は、全ての周期の所定のユーザ操作の数の合計又は平均が多いほど、拍手音の音量を大きくし、又は手拍子音の数を多くしてもよい。
例えば、記憶部12には、効果の程度ごとに、効果の程度と所定のユーザ操作のタイミングの数とを対応付けて格納している程度決定テーブルが予め記憶されてもよい。制御部11は、所定のユーザ操作のタイミングの数に対応する効果の程度を、程度決定テーブルに格納されている複数の程度の中から決定してもよい。
コンテンツに付加される効果の程度を決定すると、制御部11は、決定した程度の効果を生成する。例えば、制御部11は、コンテンツに付加される効果の程度として決定した音量の効果音を生成してもよい。また、制御部11は、コンテンツに付加される効果の程度として決定した人数分の効果音を生成してもよい。制御部11は、生成した複数の効果音を合成して、コンテンツに付加される合成効果音を生成してもよい。複数の手拍子音を合成して合成手拍子音を生成するとき、制御部11は、各手拍子音が示す手拍子のタイミングが一致するように合成手拍子音を生成してもよい。このとき、制御部11は、それぞれの手拍子のタイミングが互いに若干ずれるように合成手拍子音を生成してもよい。複数の拍手音を生成するとき、制御部11は、例えば各拍手音について、拍手の周期を互いに異なる周期に決定してもよい。制御部11は、それぞれ決定した周期で行われる拍手を示す拍手音を生成してもよい。制御部11は、生成した複数の拍手音を合成して合成拍手音を生成してもよい。このとき、制御部11は、それぞれの拍手のタイミングが互いにずれるように合成拍手音を生成してもよい。こうして、制御部11は、非周期的に手が打ち鳴らされる音を示す合成拍手音を生成する。
コンテンツに付加される効果として拍手音が決定された場合であっても、特定周期以外の周期で、或る程度の所定のユーザ操作の数が取得されることがある。すなわち、多くのユーザは手拍子として所定のユーザ操作を行っているものの、或る程度の人数のユーザは、拍手として所定のユーザ操作を行っている蓋然性がある。そこで、制御部11は、特定周期の所定のユーザ操作の数に基づいて、手拍子音を生成するとともに、特定周期の周期以外の周期の所定のユーザ操作の数に基づいて、拍手音を生成してもよい。例えば、制御部11は、特定周期以外の周期の所定のユーザ操作の数の合計又は平均が多いほど、拍手音の音量を大きくし、又は拍手を行う人数を多くしてもよい。そして、制御部11は、生成された手拍子音及び拍手音を合成して、コンテンツに付加される効果音を生成してもよい。
制御部11は、決定された効果を、配信中のコンテンツに付加する。本実施形態においては、制御部11は、手拍子音及び拍手音の少なくとも何れか一方をコンテンツに合成する。
ところで、ユーザは、例えば配信サーバ1から受信されたコンテンツを再生することによりクライアント端末2が表示した映像又は出力した音声のリズムに従って、手拍子としての所定のユーザ操作を行う。従って、制御部11は、所定のユーザ操作が行われたタイミングに対応する再生位置と全く同じ再生位置で手拍子音がユーザ端末2により再生されるように、手拍子音をコンテンツに付加することはできない。また例えば、制御部11が、手拍子音が直ちに再生されるように手拍子音をコンテンツに合成したとしても、実際に所定のユーザ操作が行われたタイミングから手拍子音が再生されるまでにずれが生じる。そこで、制御部11は、手拍子音の再生を開始する位置を特定周期分遅延させて手拍子音をコンテンツに付加する。例えば、制御部11は、各サンプリング周期で集計されたタイミングの数をフーリエ変換等により周波数解析して、特定周期の位相遅延を計算してもよい。制御部11は、例えば計算した位相遅延に基づいて、特定周期の正弦波の関数を取得し、この関数が極値となる位相を、手拍子が行われる位相として特定してもよい。この位相は、特定周期で行われた所定のユーザ操作のタイミングに基本的に対応する。制御部11は、例えば特定された位相と同位相となる再生位置のうち、現在の再生位置よりも前の再生位置であって、且つ現在の再生位置に最も近い再生位置を特定してもよい。そして特定した再生位置に特定周期を加算して、手拍子音の再生開始位置を計算してもよい。再生開始位置に対応する位相も、特定された位相と同位相となる。制御部11は、計算した再生開始位置で手拍子音をコンテンツに合成する。これにより、クライアント端末2は、クライアント端末2が表示した映像又は出力した音声のリズムに合わせて、手拍子音を出力することができる。
図3(C)は、所定のユーザ操作のタイミングの数の集計に基づいて特定される所定のユーザ操作のタイミング、及び手拍子音が再生されるタイミングの例を示す図である。特定周期をTとし、集計結果に基づいて特定される所定のユーザ操作のタイミングがt0秒であるとする。この場合、制御部11は、例えばt0+T秒を手拍子音の再生開始位置に決定する。そのため、t0からT秒経過するごとに、手拍子音が出力される。このように、制御部11は、手拍子音が再生されるタイミングを、その手拍子音に対応する所定のユーザ操作が行われた後に行われる次の所定のユーザ操作のタイミングに合わせることができる。例えば、或るユーザが所定の周期で所定のユーザ操作を行う。制御部11は、例えばこの周期を特定周期に決定したとする。制御部11は、特定周期でクライアント端末2から受信されたアクションデータが示すタイミングに対応する位相と一致する位相に対応する再生位置で、手拍子音をコンテンツに合成してコンテンツを複数のクライアント端末2に配信する。各クライアント端末2は、コンテンツを再生することにより、手拍子音を出力する。他のユーザは、手拍子音が出力されるタイミングに合わせて、所定のユーザ操作を行う。従って、略同一のタイミングを示すアクションデータを配信サーバ1が受信する数が次第に大きくなる。そのため、クライアント端末2で再生される手拍子音が次第に大きくなる。
なお、制御部11は、周波数分布に基づいて、例えば2以上の周期の所定のユーザ操作の数がそれぞれ所定条件を満たす程度以上多い場合、その2以上の周期を特定周期に決定してもよい。そして、制御部11は、例えば2以上の特定周期のそれぞれで行われる手拍子を示す手拍子音をそれぞれ生成してもよい。この場合、制御部11は、複数の特定周期を特定した場合、例えばこれらの特定周期の最小公倍数を基本周期として計算してもよい。制御部11は、各特定周期について、手拍子が行われる位相を特定する。制御部11は、例えば特定周期ごとに、特定した位相と同位相となる再生位置のうち、現在の再生位置よりも前の再生位置であって、且つ現在の再生位置に最も近い再生位置を特定する。そして、制御部11は、特定周期ごとに、特定した再生位置に基本周期を加算して、その特定周期の手拍子音の再生開始位置を計算する。複数の特定周期の手拍子のタイミングは基本周期が経過するごとに一致するものと考えられる。全て特定周期の手拍子音の再生開始位置が、実際の所定のユーザ操作が受け付けられたタイミングから基本周期分遅延する。従って、複数の特定周期の間で手拍子音が再生されるタイミングを合わせることができる。
なお、拍手音を生成した場合、制御部11は、例えば拍手音が直ちに再生される再生位置で拍手音をコンテンツに合成してもよい。
手拍子、拍手、声援、歓声など、各ユーザが実際に発した音声をそのままコンテンツに合成した場合と比較した本実施形態の効果を説明する。例えば、クライアント端末2に接続されたマイクにより、ユーザが発した音声を音声データに変換して、クライアント端末2は音声データをリアルタイムで配信サーバ1に送信するものと仮定する。配信サーバ1は、各クライアント端末2から受信した音声データを合成する。そして、配信サーバ1は、合成された音声データを配信中のコンテンツに合成する。クライアント端末2の数が多くなるほど、配信サーバ1が合成すべき音声データの数が多くなる傾向があるので、配信サーバ1の合成処理の負荷が増大する。また、ユーザは不要な音声や不適切な音声を発する場合もある。このような音声もコンテンツに付加されてクライアント端末2に配信されてしまう。これに対して、本実施形態によれば、配信サーバ1は、複数のクライアント端末2から受信されたアクションデータが示すタイミングの数の集計に基づいて、配信中のコンテンツに付加される効果音を生成する。タイミングの数の集計処理の負荷は、複数のクライアント端末2から受信される音声データの合成処理の負荷よりも小さい。従って、配信サーバ1の処理負荷を軽減させることができる。また、所定のユーザ操作が受け付けられた場合に、ユーザ端末2はアクションデータを送信する。所定のユーザ操作は、例えば手を打ち鳴らすなどの所定の動作に対応付けられている。従って、配信サーバ1は、アクションデータが示すタイミングの数の集計に基づいて、所定の動作に対応する効果音のみを、配信中のコンテンツに付加される効果音として決定することができる。
[1−4.通信システムSAの動作]
次に、図4及び図5を参照して、本実施形態の通信システムSAの動作について説明する。図4は、配信サーバ1における手拍子音・拍手音生成処理の一例を示すフローチャートである。配信サーバ1の制御部11は、例えば記憶部12に記憶されたコンテンツのストリーミング配信を開始する。制御部11は、コンテンツに含まれる映像データ及び音声データを順次複数のクライアント端末2へ送信する。ストリーミング配信を開始するとき、制御部11は、例えば、再生位置としての現在時刻を0にリセットする。また、制御部11は、手拍子音・拍手音生成処理の実行を開始する。
図4に示すように、制御部11は、現在時刻に、記憶部12に予め記憶されている集計間隔を加算して、集計時刻を計算する(ステップS11)。集計間隔は、所定のユーザ操作のタイミングの数を集計する間隔である。例えば、集計間隔は、所定のユーザ操作のタイミングの数のサンプリング周期よりも長い。また、制御部11は、集計リストを初期化する。例えば、制御部11は、コンテンツの再生開始から再生終了までサンプリング周期間隔で設定された各再生位置を集計リストに登録する。また、制御部11は、再生位置ごとに、集計数としての0を集計リストに登録する。
次いで、制御部11は、コンテンツの配信が終了するか否かを判定する(ステップS12)。このとき、制御部11は、コンテンツの配信が終了しないと判定した場合には(ステップS12:NO)、ステップS13に進む。ステップS13において、制御部11は、少なくとも1つのクライアント端末2からアクションデータを受信したか否かを判定する(ステップS13)。このとき、制御部11は、少なくとも1つのクライアント端末2からアクションデータを受信したと判定した場合には(ステップS13:YES)、ステップS14に進む。一方、制御部11は、何れのクライアント端末2からもアクションデータを受信していないと判定した場合には(ステップS13:NO)、ステップS15に進む。
ステップS14において、制御部11は、受信されたアクションデータに基づいて、集計数を更新する。具体的に、制御部11は、アクションデータが示すタイミングに対応する再生位置を、集計リストから検索する。そして、制御部11は、検索された再生位置に対応する集計数に1を加算する。制御部11は、このような集計数を更新する処理を、受信したアクションデータごとに実行する。そして、制御部11は、ステップS15に進む。
ステップS15において、制御部11は、現在時刻が集計時刻以降であるか否かを判定する。このとき、制御部11は、現在時刻が集計時刻以降ではないと判定した場合には(ステップS15:NO)、ステップS12に進む。一方、制御部11は、現在時刻が集計時刻以降であると判定した場合には(ステップS15:YES)、ステップS16に進む。
ステップS16において、制御部11は、過去の一定期間における集計数を周波数解析して、周波数分布を生成する。この一定期間の長さは集計間隔よりも長い。具体的に、制御部11は、現在時刻の所定時間前から現在時刻までの期間内にある全再生位置を、集計リストから検索する。そして、制御部11は、検索した再生位置に対応して集計リストに登録されている集計数を周波数解析する。制御部11は、周波数解析の結果、複数の周波数帯のうち振幅が最も大きい特定周波数帯を特定する。次いで、制御部11は、特定周波数帯の振幅が、所定条件を満たす程度以上大きいか否かを判定する(ステップS17)。例えば、制御部11は、特定周波数帯の振幅を全周波数帯の振幅の合計で割ることにより、特定周波数帯の振幅の割合を計算してもよい。そして、制御部11は、計算した割合が、記憶部12に予め記憶されている基準割合以上である場合、特定周波数帯の振幅が、所定条件を満たす程度以上大きいと判定してもよい。或いは、制御部11は、例えば複数周波数帯のうち振幅が2番目に大きい第2周波数帯を特定してもよい。次いで、制御部11は、特定周波数帯の振幅を第2周波数帯の振幅で割ることにより比率を計算してもよい。そして、制御部11は、計算した比率が、記憶部12に予め記憶されている基準比率以上である場合、特定周波数帯の振幅が、所定条件を満たす程度以上大きいと判定してもよい。或いは、制御部11は、計算した割合が基準割合以上であり、且つ計算した比率が基準比率以上である場合にのみ、特定周波数帯の振幅が、所定条件を満たす程度以上大きいと判定してもよい。制御部11は、特定周波数帯の振幅が、所定条件を満たす程度以上大きいと判定した場合には(ステップS17:YES)、ステップS18に進む。一方、制御部11は、特定周波数帯の振幅が、所定条件を満たす程度以上大きくはないと判定した場合には(ステップS17:NO)、ステップS22に進む。
ステップS18において、制御部11は、特定周波数帯の代表値の逆数を、特定周期として計算する。そして、制御部11は、特定周波数帯の振幅、及び特定周期に基づいて、合成手拍子音を生成する。例えば、制御部11は、特定周波数帯の振幅に基づいて、手拍子音の数を決定してもよい。また、制御部11は、例えば特定周波数帯の振幅に基づいて、各手拍子音の音量を決定してもよい。制御部11は、例えば記憶部12に記憶された手拍子音用の程度決定テーブルに基づいて、音量や数を決定してもよい。制御部11は、例えば、決定した音量の手拍子が特定周期のタイミングで行われる手拍子音を、決定した数生成する。このとき、制御部11は、例えば手拍子音の長さを集計間隔と一致させてもよいし、手拍子音の長さを集計間隔未満にしてもよい。制御部11は、生成した手拍子音を合成して合成手拍子音を生成する。
次いで、制御部11は、例えば特定周波数帯以外の周波数帯の振幅の平均値を計算する。そして、制御部11は、計算した平均値に基づいて、合成拍手音を生成する(ステップS19)。例えば、制御部11は、振幅の平均に基づいて、拍手音の数を決定してもよい。また、制御部11は、例えば振幅の平均に基づいて、各拍手音の音量を決定してもよい。制御部11は、例えば記憶部12に記憶された拍手音用の程度決定テーブルに基づいて、音量や数を決定してもよい。制御部11は、例えば、決定した音量の拍手音を、決定した数生成する。制御部11は、生成した拍手音を合成して合成拍手音を生成する。
次いで、制御部11は、手拍子音の再生開始位置を決定する(ステップS20)。例えば、制御部11は、過去の一定期間における集計数を周波数解析して、特定周波数帯の位相遅延を計算する。制御部11は、計算した位相遅延に基づいて、特定周期の正弦波の関数が極値となる位相を、手拍子が行われる位相として特定する。そして、制御部11は、例えば、特定した位相と同一位相となる再生位置を、手拍子音の再生開始位置として決定する。
次いで、制御部11は、決定された再生開始位置で合成手拍子音の再生が開始されるよう合成手拍子音を、配信中のコンテンツに含まれる音声データに合成する。制御部11は、更に合成拍手音を、配信中のコンテンツに含まれる音声データに合成する(ステップS21)。
ステップS22において、制御部11は、例えば全周波数帯の振幅の平均値を計算する。そして、制御部11は、計算した平均値に基づいて、合成拍手音を生成する(ステップS22)。合成拍手音の具体的な生成方法は、ステップS19と同様である。次いで、制御部11は、生成した合成拍手音を、配信中のコンテンツに含まれる音声データに合成する(ステップS23)。次いで、制御部11は、ステップS24に進む。
ステップS24において、制御部11は、集計時刻に集計間隔を加算することにより、集計時刻を更新する。次いで、制御部11は、ステップS12に進む。ステップS12において、制御部11は、コンテンツの配信が終了すると判定した場合には(ステップS12:YES)、手拍子音・拍手音生成処理を終了させる。
図5は、クライアント端末2におけるクライアント処理の一例を示すフローチャートである。クライアント端末2が配信サーバ1からストリーミング配信されてきたコンテンツの受信を開始すると、制御部21は、クライアント処理の実行を開始する。図5に示すように、制御部21は、コンテンツの再生が終了するか否かを判定する(ステップS31)。このとき、制御部21は、コンテンツの再生が終了しないと判定した場合には(ステップS31:NO)、ステップS32に進む。ステップS32において、制御部21は、受信したコンテンツを再生する(ステップS32)。具体的に、制御部21は、コンテンツに含まれる映像データの画像フレームを順次映像制御部24に出力することにより、表示部24aにより映像を表示させる。また、制御部21は、コンテンツに含まれる音声データを音声制御部26に出力することにより、スピーカ26aから音声を出力させる。また、制御部21は、コンテンツの再生位置を更新する。
次いで、制御部21は、操作部25aを介して所定のユーザ操作が受け付けられたか否かを判定する(ステップS33)。このとき、制御部21は、所定のユーザ操作が受け付けられていないと判定した場合には(ステップS33:NO)、ステップS31に進む。一方、制御部21は、所定のユーザ操作が受け付けられたと判定した場合には(ステップS33:YES)、ステップS34に進む。ステップS34において、制御部21は、現在の再生位置を、所定のユーザ操作が受け付けられたタイミングとして取得する。そして、制御部21は、所定のユーザ操作が受け付けられたタイミングを示すアクションデータを配信サーバ1へ送信する。次いで、制御部21は、ステップS31に進む。ステップS31において、制御部21は、コンテンツの再生が終了すると判定した場合には(ステップS31:YES)、クライアント処理を終了させる。
以上説明したように、本実施形態によれば、配信サーバ1が、複数のクライアント端末2から受信されたアクションデータが示すタイミングの数を集計する。また、配信サーバ1が、集計されたタイミングの数に基づいて効果を決定する。そして、配信サーバ1が、決定された効果を配信中のコンテンツに付加する。そのため、ユーザの所定の操作のタイミングに基づいて決定された効果が映像とともに再生されるので、臨場感を高めることができる。
[2.第2実施形態]
[2−1.通信システムの構成]
次に、図6(A)を参照して、本発明の実施形態の通信システムSBの概要構成について説明する。図6(A)は、本実施形態の通信システムSBの概要構成例を示す図である。図6(A)において、図1と同様の要素については同様の符号が付されている。図6(A)に示すように、通信システムSBは、配信サーバ1、複数のクライアント端末2、ビデオカメラ3、及びタイミング検知部4を含んで構成される。配信サーバ1及びクライアント端末2は、それぞれ、ネットワークNWに接続される。配信サーバ1とビデオカメラ3は、有線又は無線により接続される。また、配信サーバ1とタイミング検知部4は、有線又は無線により接続される。
ビデオカメラ3は、例えばイベントなどの様子を撮影するための撮影機器である。ビデオカメラ3は、例えば音声を入力するためのマイクを含む。ビデオカメラ3は、撮影された映像に対応する映像データを生成するともに、入力された音声に対応する音声データを生成する。そして、ビデオカメラ3は、映像の撮影及び音声の記録を実行しながら、生成した映像データ及び音声データをリアルタイムで配信サーバ1へ送信する。
配信サーバ1は、ビデオカメラ3から送信されてくる映像データ及び音声データを含むコンテンツを記憶部12に記録しながら、記録されたコンテンツをリアルタイムで複数のクライアント端末2へストリーミング配信する。
タイミング検知部4は、クライアント端末2のユーザが所定の操作を行うべきタイミングを検知する入力装置である。タイミング検知部4は、例えば、キー、ボタン、ビデオカメラ、又はマイク等を含んで構成されてもよい。例えばイベントのスタッフ、出演者、主催者等がタイミング検知部4を操作したタイミングを、タイミング検知部4は、所定の操作を行うべきタイミングとして検知してもよい。或いは、タイミング検知部4は、例えばマイクから入力された出演者等の音声を解析してもよい。そして、タイミング検知部4は、出演者等が所定の言葉又は音声を発したタイミングを、所定の操作を行うべきタイミングとして検知してもよい。或いは、タイミング検知部4は、例えばビデオカメラにより撮影された出演者等の映像を解析してもよい。そして、タイミング検知部4は、映像の解析結果に基づいて出演者等が所定の動作を行ったと判定したタイミングを、所定の操作を行うべきタイミングとして検知してもよい。所定の操作を行うべきタイミングを検知すると、タイミング検知部4は、検知信号を配信サーバ1へ送信する。
[2−2.所定のユーザ操作のタイミングの集計]
本実施形態において、配信サーバ1は、複数のクライアント端末2のユーザが行った所定のユーザ操作のうち、イベントのスタッフ等が決定したタイミングに合わせて行われたユーザ操作のタイミングの数のみを集計する。
図6(B)は、通信システムSBの動作概要の一例を示す図である。ビデオカメラ3が撮影を開始することにより、ビデオカメラ3から配信サーバ1への映像データ及び音声データの送信が開始されると、配信サーバ1は、映像データ及び音声データを含むコンテンツの記録を開始する。そして、コンテンツの記録を開始してから所定の緩衝時間が経過すると、配信サーバ1は、記録したコンテンツのストリーミング配信を開始する。
例えば、イベントのスタッフ等がタイミング検知部4を操作すると、タイミング検知部4は、検知信号を配信サーバ1へ送信する。配信サーバ1は、検知信号を受信すると、所定のユーザ操作を行うべきタイミングを示すアクションタイミングデータを生成する。アクションタイミングデータは、本発明の第2タイミング情報の一例である。所定のユーザ操作を行うべきタイミングは、例えば検知信号が受信されたタイミングである。このタイミングは、例えばコンテンツの記録位置で示される。コンテンツの記録位置は、例えばビデオカメラ3から配信サーバ1への映像データ及び音声データの送信が開始してから経過した時間で示される。アクションタイミングデータは、更にタイミング到来情報を含む。タイミング到来情報は、所定のユーザ操作を行うタイミングが到来することを予告する画像、動画、又はメッセージ等であってもよい。タイミング到来情報は、クライアント端末2により表示される。例えば、タイミング到来情報は、所定の操作のタイミングを示す第1のマークが、静止している第2のマークに向かって移動していく動画であってもよい。この動画は、例えば第1のマークが第2のマークに到達することによって、所定の操作を行うべきタイミングが到来したことを示す動画である。配信サーバ1は、コンテンツのストリーミング配信を行いながら、生成したアクションタイミングデータを、コンテンツの配信先の複数のクライアント端末2へ配信する(ステップS41)。
クライアント端末2は、アクションタイミングデータを受信すると、コンテンツに含まれる映像を表示しながら、タイミング到来情報を表示部24aに表示する(ステップS42)。コンテンツの記録位置は、配信中のコンテンツの再生位置よりも、緩衝時間分未来にずれている。従って、クライアント端末2は、アクションタイミングデータが示すタイミングよりも早いタイミングで、タイミング到来情報の表示を開始することができる。ユーザは、タイミング到来情報を見た後に、所定のユーザ操作を行うことになる。従って、ユーザは、アクションタイミングデータが示すタイミングに合わせて、所定のユーザ操作を行うことができる。クライアント端末2は、例えばアクションタイミングデータが示すタイミングよりも所定時間前の再生位置で、タイミング到来情報を出力してもよい。
クライアント端末2は、所定のユーザ操作に基づいてアクションデータを配信サーバ1へ送信する(ステップS43)。配信サーバ1は、送信したアクションタイミングデータが示すタイミングに合ったアクションデータのみを集計する(ステップS44)。例えば、クライアント端末2が、所定のユーザ操作が受け付けられたタイミングが、受信したアクションタイミングデータが示すタイミングから前後所定時間以内である場合にのみ、アクションデータを配信サーバ1へ送信してもよい。或いは、配信サーバ1が、受信したアクションデータが示すタイミングのうち、生成したアクションタイミングデータが示すタイミングから前後所定時間以内であるタイミングの数のみを集計してもよい。
[2−3.通信システムSBの動作]
次に、図7及び図8を参照して、本実施形態の通信システムSBの動作について説明する。図7及び図8が示す例は、クライアント端末2が、アクションタイミングデータが示すタイミングに合ったアクションデータのみを配信サーバ1へ送信する場合の処理例である。なお、手拍子音・拍手音生成処理は、図4に示す処理と同様であってもよい。図7は、配信サーバ1におけるアクションタイミングデータ配信処理の一例を示すフローチャートである。ビデオカメラ3が撮影を開始することにより、ビデオカメラ3から配信サーバ1への映像データ及び音声データの送信が開始されると、制御部11は、記録位置としての現在時刻を0にリセットする。また、制御部11は、アクションタイミングデータ配信処理の実行を開始する。
図7に示すように、制御部11は、緩衝時間分の映像データ及び音声データを含むコンテンツを記憶部12に記憶させると、コンテンツの配信が終了するか否かを判定する(ステップS51)。このとき、制御部11は、コンテンツの配信が終了しないと判定した場合には(ステップS51:NO)、ステップS52に進む。ステップS52において、制御部11は、ビデオカメラ3から送信されてきた映像データ及び音声データを含むコンテンツを記憶部12に記憶する。また、制御部11は、記憶部12に記憶されたコンテンツを複数のクライアント端末2へストリーミング配信する。
次いで、制御部11は、タイミング検知部4に対する操作が検知されたか否かを判定する(ステップS53)。このとき、制御部11は、タイミング検知部4に対する操作が検知されていないと判定した場合には(ステップS53:NO)、ステップS51に進む。一方、制御部11は、タイミング検知部4に対する操作が検知されたと判定した場合には(ステップS53:YES)、ステップS54に進む。ステップS54において、制御部11は、現在の記録位置を、所定のユーザ操作を行うべきタイミングとして取得する。そして、制御部11は、取得したタイミングを示すアクションタイミングデータを、コンテンツの配信先の複数のクライアント端末2へ配信する。次いで、制御部11は、ステップS51に進む。ステップS51において、制御部11は、コンテンツの配信が終了すると判定した場合には(ステップS51:YES)、アクションタイミングデータ配信処理を終了させる。
図8は、クライアント端末2におけるクライアント処理の一例を示すフローチャートである。図8において、図5と同様の処理については同様の符号が付されている。図8に示すように、制御部21は、タイミングリストを初期化する。タイミングリストは、アクションタイミングデータが登録されるリストである。そして、制御部21は、コンテンツの再生が終了するか否かを判定する(ステップS31)。このとき、制御部21は、コンテンツの再生が終了しないと判定した場合には(ステップS31:NO)、ステップS61に進む。ステップS61において、制御部21は、配信サーバ1からアクションタイミングデータを受信したか否かを判定する。このとき、制御部21は、アクションタイミングデータを受信していないと判定した場合には(ステップS61:NO)、ステップS32に進む。一方、制御部21は、アクションタイミングデータを受信したと判定した場合には(ステップS61:YES)、ステップS62に進む。ステップS62において、制御部21は、アクションタイミングデータをタイミングリストに登録する。次いで、制御部21は、タイミング到来情報を表示部24aに表示する(ステップS63)。次いで、制御部21は、ステップS32に進む。
ステップS32において、制御部21は、受信したコンテンツを再生する(ステップS32)。次いで、制御部21は、所定のユーザ操作が受け付けられたか否かを判定する(ステップS33)。このとき、制御部21は、所定のユーザ操作が受け付けられていないと判定した場合には(ステップS33:NO)、ステップS31に進む。一方、制御部21は、所定のユーザ操作が受け付けられたと判定した場合には(ステップS33:YES)、ステップS64に進む。ステップS64において、制御部21は、現在の再生位置から前後所定時間以内にある記録位置を示すアクションタイミングデータがタイミングリストに登録されているか否かを判定する。このとき、制御部21は、現在の再生位置から前後所定時間以内にある記録位置を示すアクションタイミングデータがタイミングリストに登録されてないと判定した場合には(ステップS64:NO)、ステップS31に進む。一方、制御部21は、現在の再生位置から前後所定時間以内にある記録位置を示すアクションタイミングデータがタイミングリストに登録されていると判定した場合には(ステップS64:YES)、アクションデータを配信サーバ1へ送信する(ステップS34)。次いで、制御部21は、ステップS31に進む。ステップS31において、制御部21は、コンテンツの再生が終了すると判定した場合には(ステップS31:YES)、クライアント処理を終了させる。
以上説明したように、本実施形態によれば、配信サーバ1が、アクションタイミングデータを複数のクライアント端末2へ配信する。また、配信サーバ1が、アクションタイミングデータが示すタイミングから所定時間内に受け付けられた所定のユーザ操作のタイミングの数を集計する。従って、所定のユーザ操作を複数のユーザが一斉に行うタイミングをユーザに示すことが可能となる。そして、指定されたタイミングに合った所定のユーザ操作の集計に基づく効果が映像とともに再生されるので、臨場感をより高めることができる。
[3.その他の実施形態]
上述した各実施形態においては、所定のユーザ操作に対応する所定のユーザの動作が、手を打ち鳴らす動作であった。しかしながら、所定の動作は、例えば掛け声を掛けること、歓声を上げること、口笛を吹くこと、足を踏みならすこと、所定の身振り等であってもよい。所定の動作が、掛け声を掛けること、歓声を上げること、口笛を吹くこと、又は足を踏みならすことである場合、配信サーバ1は、コンテンツに付加される効果として、例えば掛け声の効果音、歓声の効果音、口笛の効果音、又は足を踏みならす効果音をそれぞれ決定してもよい。また例えば、所定の動作が足を踏みならすことである場合、配信サーバ1は、コンテンツに付加される効果として、例えば映像の表示画面を振動させる映像効果を決定してもよい。また例えば、所定の動作が所定の身振りである場合、配信サーバ1は、コンテンツに付加される効果として、例えば所定の身振りが行われる映像を決定してもよい。
また、配信サーバ1は、各サンプリング周期で集計された所定のユーザ操作のタイミングの数を周波数解析しなくてもよい。この場合、配信サーバ1は、サンプリング周期ごとに、集計された所定のユーザ操作のタイミングの数に基づいて、そのサンプリング周期に対応してコンテンツに付加される効果の程度を決定してもよい。例えば、配信サーバ1は、効果音の音量や数等を決定してもよい。また例えば、配信サーバ1は、映像の表示画面の振動の強さを決定してもよい。また例えば、配信サーバ1は、所定の身振りが行われる映像の大きさや数等を決定してもよい。
また、配信サーバ1は、所定のユーザの動作として複数種類の動作を許容してもよい。例えば、手を打ち鳴らすことは、ユーザがAボタンを押すことに対応し、歓声を上げることが、ユーザがBボタンを押すことに対応すること等が挙げられる。このような場合、クライアント端末2は、ユーザ操作が行われたタイミングと、行われたユーザ操作に対応する動作の種類を識別する動作識別情報とを含むアクションデータを配信サーバ1へ送信する。配信サーバ1は、クライアント端末2から受信したアクションデータに含まれる動作識別情報に基づいて、動作の種類ごとに、ユーザ操作のタイミングを集計する。そして、配信サーバ1は、動作の種類に応じて、コンテンツに付加される効果を決定する。
また、タイミング検知部4は、複数種類の動作のそれぞれについて、ユーザ操作を行うべきタイミングを検知可能に構成されてもよい。例えば、タイミング検知部4は、スタッフ等によるタイミング検知部4の操作内容等に応じて、動作の種類を決定してもよい。そして、タイミング検知部4は、決定した動作の種類を識別する動作識別情報を示す検知信号を配信サーバ1に送信する。配信サーバ1は、受信した検知信号が示す動作識別情報を含むアクションタイミングデータを生成してクライアント端末2へ配信する。クライアント端末2は、受信したアクションタイミングデータに含まれる動作識別情報に応じたタイミング到来情報を表示する。クライアント端末2は、ユーザ操作を受け付けたとき、例えばこのユーザ操作に対応する動作の種類を識別する動作識別情報を含むアクションデータを配信サーバ1へ送信する。配信サーバ1は、受信したアクションデータのうち、生成したアクションタイミングデータに含まれる動作識別情報と一致する動作識別情報を含むアクションデータであって、アクションタイミングデータが示すタイミングから所定時間以内のタイミングを示すアクションデータのみを集計してもよい。或いは、クライアント端末2が、受け付けたユーザ操作に対応する動作識別情報が、受信されたアクションタイミングデータに含まれる動作識別情報と一致し、且つユーザ操作が受け付けられたタイミングが、アクションタイミングデータが示すタイミングから所定時間以内である場合にのみ、アクションデータを配信サーバ1へ送信してもよい。また例えば、複数種類の動作全体でユーザ操作が共通であってもよい。この場合、クライアント端末2は、所定のユーザ操作を受け付けたタイミングが、アクションタイミングデータが示すタイミングから所定時間以内である場合、アクションデータを配信サーバ1へ送信してもよい。このとき、クライアント端末2は、アクションタイミングデータから動作識別情報を取得し、取得した動作識別情報を含むアクションデータを配信サーバ1へ送信してもよい。
また、クライアント端末2は、例えばマイク及びビデオカメラの少なくとも何れかと接続されてもよい。クライアント端末2は、例えばマイクから入力されたユーザの音声を解析してもよい。そして、クライアント端末2は、例えばユーザが所定の言葉又は音声を発した場合に、ユーザが所定の動作を行ったと判定してもよい。また例えば、クライアント端末2は、例えばビデオカメラにより撮影されたユーザの映像を解析してもよい。そして、タイミング検知部4は、映像の解析結果に基づいて、ユーザが所定の動作を行ったか否かを判定してもよい。ユーザが所定の動作を行ったと判定したとき、クライアント端末2は、アクションデータを配信サーバ1へ送信する。
また、上述した各実施形態では、配信サーバ1は、クライアント端末2から受信されたアクションデータが示す所定のユーザ操作のタイミングの数を集計していた(例えば、図2のステップS3)。しかしながら、配信サーバ1は、例えば1つのアクションデータが所定のユーザ操作の1つのタイミングを示すものとして、受信されたアクションデータの数を集計してもよい。この場合、上記各実施形態における「所定のユーザ操作のタイミングの数」という記述を、「受信したアクションデータの数」と読み替えて解釈すればよい。
1 配信サーバ
2 クライアント端末
3 ビデオカメラ
4 タイミング検知部
11、21 制御部
12、22 記憶部
13、27 インターフェース部
24a 表示部
25a 操作部
26a スピーカ
SA、SB 通信システム

Claims (10)

  1. 配信装置と、ネットワークを介して配信装置に接続可能な複数の端末装置を備える通信システムにおいて、
    前記端末装置は、
    前記配信装置からストリーミング配信される映像を受信する映像受信手段と、
    前記映像受信手段により受信された前記映像を再生する再生手段と、
    前記再生手段により前記映像が再生されているとき、所定のユーザ操作を受け付ける受付手段と、
    前記受付手段により前記所定のユーザ操作が受け付けられたタイミングを示すタイミング情報を前記配信装置へ送信する送信手段と、
    を備え、
    前記配信装置は、
    前記複数の端末装置へ前記映像をストリーミング配信する配信手段と、
    前記複数の端末装置から前記タイミング情報を受信するタイミング受信手段と、
    前記タイミング受信手段により受信された前記タイミング情報が示す前記タイミングの数を集計する集計手段と、
    前記集計手段により集計された前記タイミングの数に基づいて、前記映像に付加される効果を決定する決定手段と、
    前記決定手段により決定された効果を、前記配信手段により配信中の前記映像に付加する付加手段と、
    を備えることを特徴とする通信システム。
  2. 複数の端末装置へ映像をストリーミング配信する配信手段と、
    前記複数の端末装置から、前記配信手段により配信された前記映像が前記端末装置により再生されているときに所定のユーザ操作が受け付けられたタイミングを示すタイミング情報を受信するタイミング受信手段と、
    前記タイミング受信手段により受信された前記タイミング情報が示すタイミングの数を集計する集計手段と、
    前記集計手段により集計された前記タイミングの数に基づいて、前記映像に付加される効果を決定する決定手段と、
    前記決定手段により決定された効果を、前記配信手段により配信中の前記映像に付加する付加手段と、
    を備えることを特徴とする配信装置。
  3. 請求項2に記載の配信装置において、
    前記集計手段は、前記タイミング情報が示すタイミングの数を所定期間ごとに集計し、
    前記決定手段は、前記集計手段により集計された前記タイミングの数に基づいて、前記効果の程度を決定し、
    前記付加手段は、前記決定手段により決定された前記程度の効果を付加することを特徴とする配信装置。
  4. 請求項3に記載の配信装置において、
    前記効果の程度ごとに、前記程度と、前記タイミングの数とを対応付けて予め記憶しておく記憶手段を更に備え、
    前記決定手段は、前記集計手段により集計された前記タイミングの数に対応する程度を、前記記憶手段に記憶された複数の程度の中から決定することを特徴とする配信装置。
  5. 請求項3又は4に記載の配信装置において、
    前記決定手段により決定される効果は、前記映像に付加される効果音であり、
    前記決定手段は、前記集計手段により集計された前記タイミングの数が多い程、大きい音量の効果音を決定することを特徴とする配信装置。
  6. 請求項2乃至5の何れか1項に記載の配信装置において、
    前記集計手段は、前記タイミング情報が示すタイミングの数を所定期間ごとに集計し、集計された前記タイミングの数に基づいて、長さが異なる複数の周期のタイミングのそれぞれで行われた前記所定のユーザ操作の数を取得し、
    前記決定手段は、前記複数の周期のうち前記集計手段により取得された前記所定のユーザ操作の数が最も多い特定周期の前記所定のユーザ操作の数が、所定条件を満たす程度以上多い場合、前記特定周期で生じる第1効果を決定し、前記特定周期の前記所定のユーザ操作の数が、前記所定条件を満たす程度以上多くはない場合、非周期的に生じる第2効果を決定することを特徴とする配信装置。
  7. 請求項2乃至6の何れか1項に記載の配信装置において、
    前記集計手段は、前記タイミング情報が示すタイミングの数を所定期間ごとに集計し、集計された前記タイミングの数に基づいて、長さが異なる複数の周期のタイミングのそれぞれで行われた前記所定のユーザ操作の数を取得し、
    前記決定手段は、前記複数の周期のうち前記集計手段により取得された前記所定のユーザ操作の数が最も多い特定周期の前記所定のユーザ操作の数が、所定条件を満たす程度以上多い場合、前記効果として手拍子音を決定し、
    前記付加手段は、前記配信手段により配信中の前記映像に前記手拍子音を合成することを特徴とする配信装置。
  8. 請求項7に記載の配信装置において、
    前記付加手段は、前記決定手段により前記手拍子音が決定された場合、前記特定周期で受信されたタイミング情報が示すタイミングに対応する位相と一致する位相に対応する再生位置で、前記手拍子音を、前記配信手段により配信中の前記映像に合成することを特徴とする配信装置。
  9. 請求項2乃至8の何れか1項に記載の配信装置において、
    前記所定のユーザ操作のタイミングを示す第2タイミング情報を前記複数の端末装置へ配信する第2配信手段を更に備え、
    前記集計手段は、前記第2タイミング情報が示すタイミングから所定時間内に受け付けられた前記ユーザ操作のタイミングの数を集計することを特徴とする配信装置。
  10. 複数の端末装置へ映像をストリーミング配信する第1配信ステップと、
    前記複数の端末装置から、前記第1配信ステップにより配信された前記映像が前記端末装置により再生されているときに所定のユーザ操作が受け付けられたタイミングを示すタイミング情報を受信するタイミング受信ステップと、
    前記タイミング受信ステップにより受信された前記タイミング情報が示すタイミングの数を集計する集計ステップと、
    前記集計ステップにより集計された前記数に基づいて、前記映像に付加される効果を決定する決定ステップと、
    前記決定ステップにより決定された効果を、配信中の前記映像に付加する付加ステップと、
    前記付加ステップにより前記効果が付加された前記映像を前記複数の端末装置へストリーミング配信する第2配信ステップと、
    をコンピュータに実行させることを特徴とするプログラム。
JP2015022412A 2015-02-06 2015-02-06 通信システム、配信装置及びプログラム Active JP6281503B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015022412A JP6281503B2 (ja) 2015-02-06 2015-02-06 通信システム、配信装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015022412A JP6281503B2 (ja) 2015-02-06 2015-02-06 通信システム、配信装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2016146544A true JP2016146544A (ja) 2016-08-12
JP6281503B2 JP6281503B2 (ja) 2018-02-21

Family

ID=56685624

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015022412A Active JP6281503B2 (ja) 2015-02-06 2015-02-06 通信システム、配信装置及びプログラム

Country Status (1)

Country Link
JP (1) JP6281503B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016200713A (ja) * 2015-04-10 2016-12-01 日本電信電話株式会社 音合成装置、音合成方法、及びそのプログラム
WO2021246104A1 (ja) * 2020-06-01 2021-12-09 ヤマハ株式会社 制御方法および制御システム
JP2022056065A (ja) * 2020-09-29 2022-04-08 株式会社Spoon コンテンツ配信システム、コンテンツ配信方法及びコンテンツ配信プログラム
WO2022208609A1 (ja) * 2021-03-29 2022-10-06 ヤマハ株式会社 配信システム、配信方法、及びプログラム
CN116114014A (zh) * 2020-10-01 2023-05-12 雅马哈株式会社 信号处理系统、信号处理装置以及信号处理方法
JP7486283B2 (ja) 2018-12-29 2024-05-17 エイベックス・テクノロジーズ株式会社 動画配信システム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003116119A (ja) * 2001-10-09 2003-04-18 Yoshimitsu Kagiwada 視聴者参加型放送番組配信方法、この方法に用いる送信システム及び受信システム
JP2007236765A (ja) * 2006-03-10 2007-09-20 Nintendo Co Ltd 演奏装置および演奏制御プログラム
JP2012238220A (ja) * 2011-05-12 2012-12-06 Sony Corp 情報処理装置、情報処理方法及びコンピュータプログラム
JP2013037670A (ja) * 2011-07-08 2013-02-21 Dowango:Kk ステージ演出システム、演出制御サブシステム、ステージ演出システムの動作方法、演出制御サブシステムの動作方法、およびプログラム
JP2014230126A (ja) * 2013-05-23 2014-12-08 チームラボ株式会社 視聴者参加型テレビ番組放送方法及びシステム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003116119A (ja) * 2001-10-09 2003-04-18 Yoshimitsu Kagiwada 視聴者参加型放送番組配信方法、この方法に用いる送信システム及び受信システム
JP2007236765A (ja) * 2006-03-10 2007-09-20 Nintendo Co Ltd 演奏装置および演奏制御プログラム
JP2012238220A (ja) * 2011-05-12 2012-12-06 Sony Corp 情報処理装置、情報処理方法及びコンピュータプログラム
JP2013037670A (ja) * 2011-07-08 2013-02-21 Dowango:Kk ステージ演出システム、演出制御サブシステム、ステージ演出システムの動作方法、演出制御サブシステムの動作方法、およびプログラム
JP2014230126A (ja) * 2013-05-23 2014-12-08 チームラボ株式会社 視聴者参加型テレビ番組放送方法及びシステム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016200713A (ja) * 2015-04-10 2016-12-01 日本電信電話株式会社 音合成装置、音合成方法、及びそのプログラム
JP7486283B2 (ja) 2018-12-29 2024-05-17 エイベックス・テクノロジーズ株式会社 動画配信システム
WO2021246104A1 (ja) * 2020-06-01 2021-12-09 ヤマハ株式会社 制御方法および制御システム
JP2021190895A (ja) * 2020-06-01 2021-12-13 ヤマハ株式会社 制御方法および制御システム
JP2022056065A (ja) * 2020-09-29 2022-04-08 株式会社Spoon コンテンツ配信システム、コンテンツ配信方法及びコンテンツ配信プログラム
JP7072911B2 (ja) 2020-09-29 2022-05-23 株式会社Spoon コンテンツ配信システム、コンテンツ配信方法及びコンテンツ配信プログラム
CN116114014A (zh) * 2020-10-01 2023-05-12 雅马哈株式会社 信号处理系统、信号处理装置以及信号处理方法
WO2022208609A1 (ja) * 2021-03-29 2022-10-06 ヤマハ株式会社 配信システム、配信方法、及びプログラム
JP7501786B2 (ja) 2021-03-29 2024-06-18 ヤマハ株式会社 配信システム、配信方法、及びプログラム

Also Published As

Publication number Publication date
JP6281503B2 (ja) 2018-02-21

Similar Documents

Publication Publication Date Title
JP6281503B2 (ja) 通信システム、配信装置及びプログラム
WO2022121558A1 (zh) 一种直播演唱方法、装置、设备和介质
JP5553446B2 (ja) アミューズメントシステム
CN110856009B (zh) 网络k歌系统、网络k歌的音视频播放方法及相关设备
JP7285244B2 (ja) コンピュータプログラム、方法及びサーバ装置
JP2021077257A (ja) 情報処理装置、情報処理方法および情報処理プログラム
JP2021197614A (ja) 映像配信システム、それに用いるコンピュータプログラム、及び制御方法
JP2022020625A (ja) 音声処理システム、音声処理装置、音声処理方法、及び音声処理プログラム
US20240031636A1 (en) Systems and methods for synchronizing remote media streams
JP6182394B2 (ja) デュエット歌唱の歌唱者選択に特徴を有する通信カラオケシステム、及び、その制御方法
JP2018019393A (ja) 再生制御システム、情報処理装置およびプログラム
JP7149193B2 (ja) カラオケシステム
JP2015031996A (ja) 携帯型動き検出装置、感情情報集計装置、感情情報取得報知システム、感情情報取得報知方法およびコンピュータプログラム
WO2022024898A1 (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
JP7480846B2 (ja) 応援支援方法、応援支援装置、およびプログラム
JP6958676B1 (ja) 制御方法および制御システム
JP2020008752A (ja) 生バンドカラオケライブ配信システム
JP7435119B2 (ja) 映像データ処理装置、映像配信システム、映像編集装置、映像データ処理方法、映像配信方法、及びプログラム
Ariyasu et al. Tactile sensibility presentation service for Smart TV
Sithu et al. Effect of dynamic local lag control with dynamic control of prediction time in joint haptic drum performance
JP2020167629A (ja) 受信装置、配信サーバ及び受信プログラム
US20240015368A1 (en) Distribution system, distribution method, and non-transitory computer-readable recording medium
WO2023042436A1 (ja) 情報処理装置および方法、並びにプログラム
JP7149203B2 (ja) カラオケシステム
JP2015011155A (ja) 複数人による通信デュエットに特徴を有する通信カラオケシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170919

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180108

R150 Certificate of patent or registration of utility model

Ref document number: 6281503

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150