JP2017118381A - 通信サーバ、端末装置、通信方法、および、プログラム - Google Patents

通信サーバ、端末装置、通信方法、および、プログラム Download PDF

Info

Publication number
JP2017118381A
JP2017118381A JP2015253204A JP2015253204A JP2017118381A JP 2017118381 A JP2017118381 A JP 2017118381A JP 2015253204 A JP2015253204 A JP 2015253204A JP 2015253204 A JP2015253204 A JP 2015253204A JP 2017118381 A JP2017118381 A JP 2017118381A
Authority
JP
Japan
Prior art keywords
display
terminal
additional object
unit
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015253204A
Other languages
English (en)
Inventor
雄基 藤原
Yuki Fujihara
雄基 藤原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2015253204A priority Critical patent/JP2017118381A/ja
Publication of JP2017118381A publication Critical patent/JP2017118381A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephone Function (AREA)
  • Telephonic Communication Services (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

【課題】複数のユーザー間のコミュニケーションの向上を図ることができるサーバ、端末装置、方法及びプログラムを提供する。【解決手段】管理サーバ30が、投稿端末40又は表示端末60の何れかから、ネットワーク2を介して、追加オブジェクトを表示するための追加オブジェクト表示情報を受信した場合に、管理サーバ30は、追加オブジェクト表示情報を送信した端末以外の端末装置に対して、追加オブジェクト表示情報を配信する。【選択図】図1

Description

本発明は、複数の端末装置と通信する通信サーバ、複数の映像を表示する端末装置、複数の端末装置と通信する通信方法、当該通信サーバとしてコンピュータを機能させるためのプログラム、当該端末装置としてコンピュータを機能させるためのプログラムに関する。
複数の映像を同期させて表示する技術が開示されている。
例えば、特許文献1には、複数のコンテンツに対して共通に定義される共通時間軸を用いて複数のコンテンツ間のリンクを生成し、当該リンクを用いて複数のコンテンツを再生するコンテンツ再生装置が開示されている。
特開2004−328188号公報(2004年11月18日公開)
上述のような従来技術では、コンテンツ再生装置が複数のコンテンツを同期させて表示することはできる。発明者は、もし、それらのコンテンツを他の端末装置と共有し、更に、複数の同期したコンテンツを閲覧しながらコメント等のやりとりを行うことができれば、複数のユーザー間のコミュニケーションの向上を図ることができるとの知見を得た。
本発明は、前記の知見に鑑みてなされたものであり、その目的は、複数のユーザー間のコミュニケーションの向上を図ることができる技術を提供することにある。
上記の課題を解決するために、本発明の一態様に係る通信サーバは、ライブ映像を含む複数の映像を互いに同期して表示する複数の端末装置と通信する通信サーバであって、制御部を備え、上記制御部は、上記複数の端末装置の何れかから、追加オブジェクトを表示するための追加オブジェクト表示情報を取得した場合に、その他の端末装置に対して、当該追加オブジェクト表示情報を配信する。
上記の課題を解決するために、本発明の一態様に係る通信サーバは、ライブ映像を含む複数の映像を表示する複数の端末装置と通信する通信サーバであって、制御部を備え、上記制御部は、上記複数の端末装置の何れかから、追加オブジェクトを表示するための追加オブジェクト表示情報を取得した場合に、当該追加オブジェクト表示情報を記憶部に記憶する。
上記の課題を解決するために、本発明の一態様に係る端末装置は、ライブ映像を含む複数の映像を表示する表示部と制御部とを有する端末装置であって、上記制御部は、ライブ映像をサーバに投稿し、メタファイルを取得し、取得したメタファイルに含まれる追加オブジェクト表示情報に従って、追加オブジェクトを上記ライブ映像とともに表示部に表示させる。
上記の課題を解決するために、本発明の一態様に係る端末装置は、ライブ映像を含む複数の映像を表示する表示部と制御部とを有する端末装置であって、上記制御部は、メタファイルを取得し、取得したメタファイルを参照して、ライブ映像およびその他の映像を上記表示部に表示させ、ユーザーの入力を受け付け、当該入力に関連するオブジェクトを追加オブジェクトとして表示する旨の指示を含む追加オブジェクト表示情報をサーバに送信する。
上記の課題を解決するために、本発明の一態様に係る端末装置は、複数の映像を表示する表示部と制御部とを有する端末装置であって、上記制御部は、メタファイルを取得し、取得したメタファイルを参照して、ネットワーク経由で複数の映像を取得し、取得した複数の映像を同期させて上記表示部に表示させ、取得したメタファイルに含まれる追加オブジェクト表示情報に従って、追加オブジェクトを上記表示部に表示させる。
上記の課題を解決するために、本発明の一態様に係る通信方法は、ライブ映像を含む複数の映像を互いに同期して表示する複数の端末装置と通信する通信方法であって、上記複数の端末装置の何れかから、追加オブジェクトを表示するための追加オブジェクト表示情報を取得した場合に、その他の端末装置に対して、当該追加オブジェクト表示情報を配信するステップ、を含む。
上記の課題を解決するために、本発明の一態様に係る通信方法は、ライブ映像を含む複数の映像を表示する複数の端末装置と通信する通信方法であって、上記複数の端末装置の何れかから、追加オブジェクトを表示するための追加オブジェクト表示情報を取得した場合に、当該追加オブジェクト表示情報を記憶部に記憶するステップ、を含む。
上記の課題を解決するために、本発明の一態様に係るプログラムは、ライブ映像を含む複数の映像を互いに同期して表示する複数の端末装置と通信する通信サーバとしてコンピュータを機能させるためのプログラムであって、上記制御部に、上記複数の端末装置の何れかから、追加オブジェクトを表示するための追加オブジェクト表示情報を取得した場合に、その他の端末装置に対して、当該追加オブジェクト表示情報を配信する処理、を実行させる。
上記の課題を解決するために、本発明の一態様に係るプログラムは、ライブ映像を含む複数の映像を表示する複数の端末装置と通信する通信サーバとしてコンピュータを機能させるためのプログラムであって、上記制御部に、上記複数の端末装置の何れかから、追加オブジェクトを表示するための追加オブジェクト表示情報を取得した場合に、当該追加オブジェクト表示情報を記憶部に記憶する処理、を実行させる。
上記の課題を解決するために、本発明の一態様に係るプログラムでは、ライブ映像を含む複数の映像を表示する表示部と制御部とを有する端末装置としてコンピュータを機能させるためのプログラムであって、上記制御部に、ライブ映像をサーバに投稿する処理、メタファイルを取得する処理、取得したメタファイルに含まれる追加オブジェクト表示情報に従って、追加オブジェクトを表示部に表示させる処理、を実行させる。
上記の課題を解決するために、本発明の一態様に係るプログラムは、ライブ映像を含む複数の映像を表示する表示部と制御部とを有する端末装置としてコンピュータを機能させるためのプログラムであって、上記制御部に、メタファイルを取得し、取得したメタファイルを参照して、ライブ映像およびその他の映像を上記表示部に表示させる処理、ユーザーの入力を受け付け、当該入力に関連するオブジェクトを追加オブジェクトとして表示する旨の指示を含む追加オブジェクト表示情報をサーバに送信する処理、を実行させる。
上記の課題を解決するために、本発明の一態様に係るプログラムは、複数の映像を表示する表示部と制御部とを有する端末装置としてコンピュータを機能させるためのプログラムであって、上記制御部に、メタファイルを取得し、取得したメタファイルを参照して、ネットワーク経由で複数の映像を取得し、取得した複数の映像を同期させて上記表示部に表示させる処理、取得したメタファイルに含まれる追加オブジェクト表示情報に従って、追加オブジェクトを上記表示部に表示させる処理、を実行させる。
本発明の一態様によれば、複数のユーザー間のコミュニケーションの向上を図ることができるという効果を奏する。
本発明の実施形態1に係るコンテンツ提供システムの要部構成を示すブロック図である。 本発明の実施形態1に係るコンテンツ提供システムを模式的に示す図である。 本発明の実施形態1における投稿端末の構成を示すブロック図である。 本発明の実施形態1において配信コンテンツが確定するまでの投稿端末の処理の流れを示すフローチャートである。 本発明の実施形態1における映像追加処理の流れを示すフローチャートである。 本発明の実施形態1において投稿端末が表示する画面の例である。 本発明の実施形態1におけるメタデータの例を示す図である。 本発明の実施形態1において表示端末が配信コンテンツのメタデータを取得する処理の流れを示すフローチャートである。 本発明の実施形態1において表示端末が配信コンテンツを表示する処理の流れを示すフローチャートである。 本発明の実施形態1において表示端末が表示する画面の例である。 本発明の実施形態2における同期イベントが発生した場合のライブ映像と録画映像の再生時間の関係を示す図である。 録画映像配信サーバ、ライブ映像配信サーバ、管理サーバ、投稿端末、および表示端末として利用可能なコンピュータのハードウェア構成を例示したブロック図である。 本発明の実施形態4に係るコンテンツ提供システムの要部構成を示すブロック図である。 本発明の実施形態4における管理サーバの構成を示すブロック図である。 本発明の実施形態4における表示端末の構成を示すブロック図である。 本発明の実施形態4におけるSNS情報に含まれる項目を示す図である。 本発明の実施形態4において、表示端末がSNS情報を送信してから投稿端末および表示端末が追加オブジェクトを表示するまでの処理の流れを示すフローチャートである。 本発明の実施形態4において、表示端末が表示する画面などの例を示す図である。
〔実施形態1〕
以下、本発明の実施の形態について、図1〜図10を用いて詳細に説明する。
(コンテンツ提供システム1)
図2は、本発明の実施形態1に係るコンテンツ提供システム1を模式的に示す図である。コンテンツ提供システム1は、図2に示すように、録画映像配信サーバ(第2のサーバ)10、ライブ映像配信サーバ(第1のサーバ)20、管理サーバ30、投稿端末(端末装置)40、および表示端末(端末装置)60によって構成されている。
コンテンツ提供システム1は、投稿端末40によって投稿された配信コンテンツを、表示端末60が表示するシステムである。投稿端末40によって投稿される配信コンテンツには、(1)投稿端末40から出力され、ライブ映像配信サーバ20を介して出力されるライブ映像、および(2)既に録画されている録画映像であって、録画映像配信サーバ10に格納されている録画映像が含まれている。
投稿端末40は、配信コンテンツにおけるライブ映像と録画映像との同期の仕方を示すリンク情報を生成し、生成したリンク情報をネットワーク2経由で外部に出力する。本明細書では、投稿端末40は、生成したリンク情報を管理サーバ30に出力するが、出力先は限定されない。管理サーバ30は、当該リンク情報を表示端末60に出力し(換言すると、配信コンテンツを配信し)、表示端末60は、当該リンク情報を参照して、ライブ映像と録画映像とが同期するように表示する。より具体的には、表示端末60は、取得したリンク情報を参照することにより、ライブ映像をネットワーク2経由でライブ映像配信サーバ20から取得し、録画映像をネットワーク2経由で録画映像配信サーバ10から取得し、取得したライブ映像と録画映像とが同期するように表示する。
なお、本明細書では、コンテンツ提供システム1が提供する配信コンテンツの例として、録画映像は、配信コンテンツの投稿者以外の人がメイクをする映像であり、ライブ映像は、投稿者が録画映像のメイクの真似をしながら目のメイクをする映像である場合を例に挙げ、説明する。
図1は、本発明の実施形態1に係るコンテンツ提供システム1の要部構成を示すブロック図である。各サーバおよび端末の詳細について、図1を参照して以下に説明する。
(録画映像配信サーバ10)
録画映像配信サーバ10は、図1に示すように、録画映像配信サーバ通信部12、録画映像配信サーバ制御部14、および録画映像配信サーバ記憶部16を含んでいる。
録画映像配信サーバ通信部12は、外部の装置と通信するための通信インターフェースである。
録画映像配信サーバ制御部14は、録画映像配信サーバ10の各構成を統括的に制御する機能を備えている演算装置である。
録画映像配信サーバ記憶部16は、録画映像などが格納されている記憶装置である。
(ライブ映像配信サーバ20)
ライブ映像配信サーバ20は、図1に示すように、ライブ映像配信サーバ通信部22、ライブ映像配信サーバ制御部24、およびライブ映像配信サーバ記憶部26を含んでいる。
ライブ映像配信サーバ通信部22は、外部の装置と通信するための通信インターフェースである。
ライブ映像配信サーバ制御部24は、ライブ映像配信サーバ20の各構成を統括的に制御する機能を備えている演算装置である。
ライブ映像配信サーバ記憶部26は、ライブ映像などが格納されている記憶装置である。
(管理サーバ30)
管理サーバ30は、図1に示すように、管理サーバ通信部32、管理サーバ制御部34、および管理サーバ記憶部36を含んでいる。
管理サーバ通信部32は、外部の装置と通信するための通信インターフェースである。
管理サーバ制御部34は、管理サーバ30の各構成を統括的に制御する機能を備えている演算装置である。
管理サーバ記憶部36は、後述する配信コンテンツのメタデータおよび配信可能な録画映像のリスト、および当該リストに含まれる複数の録画映像をそれぞれ特定するための参照動画ID(映像特定情報)などが格納されている記憶装置である。なお、配信可能な録画映像のリストおよび当該リストに含まれる録画映像をそれぞれ特定するための参照動画IDは、予め管理サーバ記憶部36に格納されているものである。
(投稿端末40)
投稿端末40は、図1に示すように、投稿端末通信部(通信部)42、投稿端末制御部(制御部)44、カメラ(撮像部)46、投稿端末表示部(表示部)48、および投稿端末操作部50を含んでいる。
投稿端末通信部42は、外部の装置と通信するための通信インターフェースである。
カメラ46は、周辺のライブ映像を撮像する撮像装置である。
投稿端末表示部48は、入力された映像信号が示す映像を表示する出力装置である。
投稿端末操作部50は、ユーザーによる操作を受け付ける入力装置である。
投稿端末制御部44は、投稿端末40の各構成を統括的に制御する機能を備えている演算装置である。投稿端末制御部44の詳細な構成について、図3を用いて説明する。
(投稿端末制御部44)
図3は、本発明の実施形態1における投稿端末40の構成を示すブロック図である。投稿端末制御部44は、図3に示すように、ライブ映像取得部440、ライブ映像出力部442、投稿端末表示制御部444、コンテンツ取得部446、投稿端末操作受付部448、リンク情報生成部450、リンク情報出力部452、および投稿端末コンテンツ要求部454としても機能する。
ライブ映像取得部440は、カメラ46によって撮像されたライブ映像を取得する。
ライブ映像出力部442は、ライブ映像取得部が取得したライブ映像を、投稿端末通信部42を介して出力する。
投稿端末表示制御部444は、投稿端末表示部48に表示する映像を示す映像信号を出力する。
コンテンツ取得部446は、投稿端末通信部42を介して、録画映像のリスト、録画映像、およびライブ映像などを取得する。
投稿端末操作受付部448は、投稿端末操作部50が受け付けたユーザーの操作を示す操作信号を取得する。
リンク情報生成部450は、ライブ映像と録画映像との同期の仕方を示すリンク情報を生成する。
リンク情報出力部452は、投稿端末通信部42を介して、リンク情報生成部450が生成したリンク情報を出力する。
投稿端末コンテンツ要求部454は、投稿端末通信部42を介して、録画映像などを要求する。
(表示端末60)
表示端末60は、図1に示すように、表示端末通信部(通信部)62、表示端末制御部(制御部)64、表示端末表示部(表示部)66、および表示端末操作部68を含んでいる。
表示端末通信部62は、外部の装置と通信するための通信インターフェースである。
表示端末表示部66は、入力された映像信号が示す映像を表示する出力装置である。
表示端末操作部68は、ユーザーによる操作を受け付ける入力装置である。
表示端末制御部64は、表示端末60の各構成を統括的に制御する機能を備えている演算装置である。表示端末制御部64の詳細な構成について、以下に説明する。
(表示端末制御部64)
表示端末制御部64は、図1に示すように、コンテンツ情報取得部640、表示端末表示制御部642、表示端末操作受付部644、および表示端末コンテンツ要求部646としても機能する。
コンテンツ情報取得部640は、表示端末通信部62を介して、ライブ映像、録画映像などを取得する。
表示端末表示制御部642は、表示端末表示部66に表示する映像を示す映像信号を出力する。
表示端末操作受付部644は、表示端末操作部68が受け付けたユーザーの操作を示す操作信号を取得する。
表示端末コンテンツ要求部646は、表示端末通信部62を介して、ライブ映像および録画映像などを要求する。
(配信コンテンツ確定処理)
コンテンツ提供システム1において、配信コンテンツの投稿が確定するまでの投稿端末40の処理について、図4〜図6を用いて説明する。図4は、本発明の実施形態1において配信コンテンツが確定するまでの投稿端末40の処理の流れを示すフローチャートである。また、図5は、本発明の実施形態1における映像追加処理の流れを示すフローチャートである。また、図6は、本発明の実施形態1において投稿端末40が表示する画面の例である。
(ステップS2)
ライブ映像取得部440は、カメラ46を介して取得したライブ映像を、投稿端末表示制御部444に出力する。投稿端末表示制御部444は、取得したライブ映像を含む画面、投稿端末表示部48に表示させる。このとき、投稿端末表示部48が表示する画面の例を図6の(a)に示す。図6の(a)は、取得したライブ映像481を含む画面480aを示す図である。
図6の(a)に示すように、画面480aには、ライブ映像481、レイアウト選択リスト482、レイアウト選択ボタン483a〜レイアウト選択ボタン483e、および投稿確定ボタン484が含まれている。
ライブ映像481は、カメラ46が撮像しているライブ映像である。
レイアウト選択リスト482には、配信コンテンツにおいてライブ映像および録画映像を配置可能な複数のレイアウトの各々を選択するためのレイアウト選択ボタン483a〜レイアウト選択ボタン483eが含まれている。
レイアウト選択ボタン483a〜レイアウト選択ボタン483eは、配信コンテンツにおけるライブ映像および録画映像の配置のレイアウトを選択する旨の操作を受け付けるボタンである。
投稿確定ボタン484は、配信コンテンツの投稿を確定する旨の操作を受け付けるボタンである。
(ステップS4)
投稿端末操作受付部448は、投稿端末操作部50を介して、表示する映像の数およびレイアウトを選択する旨の操作信号を取得すると、当該操作信号に応じて表示する映像の数およびレイアウトを選択し、当該操作信号を投稿端末表示制御部444に出力する。投稿端末表示制御部444は、取得した操作信号に応じた画面を、投稿端末表示部48に表示させる。このとき、投稿端末表示部48が表示する画面の例を図6の(b)に示す。図6の(b)は、表示する映像の数およびレイアウトを選択したときに表示する画面480bを示す図である。
なお、本実施形態では、図6の(a)に示す画面において、画面を上下に二分割し、上側にライブ映像、下側に録画映像配信サーバ10に格納されている録画映像を配置するレイアウトを選択する旨の操作を受け付けるレイアウト選択ボタン483cが選択された場合について説明する。
レイアウト選択ボタン483cが選択されると、図6の(b)に示すように、選択されたレイアウトに応じた画面480bが表示される。より具体的には、画面480bには、上述したライブ映像481、レイアウト選択リスト482、レイアウト選択ボタン483a〜レイアウト選択ボタン483eに加えて、映像登録可能エリア485および映像登録ボタン486が含まれている。
映像登録可能エリア485は、表示する映像がまだ登録されていない領域である。
映像登録ボタン486は、映像登録可能エリア485に映像を登録する旨の操作を受け付けるボタンである。
(ステップS6)
投稿端末操作受付部448は、映像登録可能エリア485があるか否か(換言すると、ステップS4において選択した表示する映像の数が、表示している映像の数よりも多いか否か)を判定する。そして、投稿端末操作受付部448は判定結果を投稿端末表示制御部444に出力する。また、ステップS6は、上述した図6の(b)の画面が表示されている状態において、映像登録ボタン486が押されたか否かを投稿端末操作受付部448が判定する処理であってもよい。
(ステップS8)
ステップS6において、「映像登録可能エリア485はある」(ステップS6:YES)と判定された場合、投稿端末40は、図5に示す処理を実行する。
(ステップS30)
まず、投稿端末表示制御部444は、ステップS6において取得した判定結果を参照し、追加映像の選択画面を投稿端末表示部48に表示させる。このとき、投稿端末表示部48が表示する画面の例を図6の(c)に示す。図6の(c)は、追加映像の選択画面480cを示す図である。
追加映像の選択画面480cには、図6の(c)に示すように、投稿端末40の記憶部(不図示)に格納されている録画映像を追加映像として選択する旨を示すボタン487、録画映像配信サーバ10に格納されている録画映像を追加映像として選択する旨を示すボタン488、他の端末から出力されているライブ映像を追加映像として選択する旨を示すボタン489が含まれる。上述したように、本実施形態では、画面下側に録画映像配信サーバ10に格納されている録画映像が表示される構成について説明するため、以下ではボタン488が選択された場合について説明する。
投稿端末操作受付部448は、ボタン488が選択された旨の操作信号を取得すると、当該操作信号を投稿端末コンテンツ要求部454に出力する。投稿端末コンテンツ要求部454は、投稿端末通信部42を介して、選択可能な録画映像のリストを管理サーバ30に要求する。
管理サーバ30の管理サーバ制御部34は、管理サーバ通信部32を介して当該要求を受け付けると、管理サーバ記憶部36に格納されている配信可能な録画映像のリストおよび当該リストに含まれる録画映像をそれぞれ特定するための参照動画IDを取得する。そして、取得したリストおよび参照動画IDを、管理サーバ通信部32を介して投稿端末40に出力する。
投稿端末40のコンテンツ取得部446は、投稿端末通信部42を介して、上記リストを管理サーバ30から取得し、投稿端末コンテンツ要求部454は、投稿端末通信部42を介して、上記参照動画IDを取得する。そして、コンテンツ取得部446は、取得したリストを投稿端末表示制御部444に出力する。投稿端末表示制御部444は、取得したリストを含む画面を投稿端末表示部48に表示させる。このとき、投稿端末表示部48が表示する選択可能な録画映像のリストを含む画面の例を図6の(d)に示す。図6の(d)は、選択可能な録画映像のリスト490を含む画面480dを示す図である。
図6の(d)に示すように、選択可能な録画映像のリスト490には、録画映像490a〜録画映像490cが含まれる。また、画面480dには、図6の(c)に示す画面480cに戻る旨の操作を受け付けるボタン491も含まれている。
(ステップS32)
例えば、図6の(d)に示す画面480dが表示されている場合において、ユーザーは、真似をしたいメイクの録画映像を選択する操作を行う。
上記ユーザーの操作によって、投稿端末操作受付部448は、投稿端末操作部50を介して、追加する録画映像を選択する旨の操作信号を取得すると、当該操作信号を投稿端末コンテンツ要求部454に出力する。
投稿端末コンテンツ要求部454は、取得した操作信号に応じた録画映像を、録画映像配信サーバ10に要求する。より具体的には、ステップS30において投稿端末コンテンツ要求部454が取得した参照動画IDのうち、要求する録画映像を特定するための参照動画IDを出力することにより、当該参照動画IDによって特定される録画映像を出力するよう要求する。また、投稿端末コンテンツ要求部454は、出力した参照動画IDをリンク情報生成部450に出力する。
録画映像配信サーバ10の録画映像配信サーバ制御部14は、録画映像配信サーバ通信部12を介して録画映像の要求を受け付けると、当該録画映像を録画映像配信サーバ記憶部16から取得する。そして、録画映像配信サーバ制御部14は、録画映像配信サーバ通信部12を介して、取得した録画映像を投稿端末40に出力する。
(ステップS34)
コンテンツ取得部446は、録画映像配信サーバ10から、投稿端末通信部42を介して追加する録画映像を取得できたか否かを判定する。
ステップS34において、「追加する録画映像を取得できなかった」と判定された場合(ステップS34:NO)、投稿端末40の処理はステップS30に戻る。
(ステップS36)
一方、ステップS34において、「追加する録画映像を取得できた」と判定された場合(ステップS34:YES)、コンテンツ取得部446は、取得した録画映像を投稿端末表示制御部444に出力する。投稿端末表示制御部444は、取得した録画映像を含む画面を、投稿端末表示部48に表示させる。このとき、投稿端末表示部48が表示する録画映像を含む画面の例を図6の(e)に示す。図6の(e)は、録画映像492を含む画面480eを示す図である。
画面480eでは、上述した図6の(b)に示した画面480bにおける映像登録可能エリア485に、取得した録画映像492が表示されている。また、画面480eには、配信コンテンツの投稿を確定する旨の操作を受け付ける投稿確定ボタン484が再び含まれている。
そして、投稿端末40は、図5に示す処理を終了し、上述したステップS4の処理に戻る。
(ステップS10)
続いて、ステップS6において、「映像登録可能エリア485はない」(ステップS6:NO)と判定された場合、投稿端末操作受付部448は、映像登録可能エリアを追加する旨の操作を受け付けたか否かを判定する。
ステップS10において、「映像登録可能エリアを追加する旨の操作を受け付けた」と判定された場合(ステップS10:YES)、投稿端末40は、上述したステップS4の処理に戻る。
(ステップS12)
一方、ステップS10において、「映像登録可能エリアを追加する旨の操作を受け付けていない」と判定された場合(ステップS10:NO)、投稿端末操作受付部448は、映像を削除する旨の操作を受け付けたか否かを判定する。
(ステップS14)
ステップS12において、「映像を削除する旨の操作を受け付けた」と判定された場合(ステップS12:YES)、投稿端末操作受付部448は、取得した操作信号を投稿端末表示制御部444に出力する。投稿端末表示制御部444は、取得した操作信号に応じて映像を削除する。そして、投稿端末40は、上述したステップS4の処理に戻る。
(ステップS16)
一方、ステップS12において、「映像を削除する旨の操作を受け付けていない」と判定された場合(ステップS12:NO)、投稿端末操作受付部448は、投稿を確定する旨の操作を受け付けたか否かを判定する。
ステップS16において、「投稿を確定する旨の操作を受け付けていない」と判定された場合(ステップS16:NO)、投稿端末40は、上述したステップS4の処理に戻る。
(ステップS18)
例えば録画映像が、再生を始めてから1分30秒後に目のメイクをする映像になった場合、ユーザーは、録画映像の再生を始めてから1分30秒後の録画映像と、ライブ映像とを含む映像を配信コンテンツとして確定する操作(投稿確定ボタン484を選択する操作)を実行する。
上記の操作により、ステップS16において、「投稿を確定する旨の操作を受け付けた」と判定された場合(ステップS16:YES)、投稿端末操作受付部448は、投稿を確定する旨を示す操作信号を、ライブ映像取得部440および投稿端末表示制御部444に出力する。
また、投稿端末操作受付部448は、上記操作信号に加えて、当該操作を受け付けたときの録画映像の再生時間(1分30秒)を示す参照動画再生時間を、リンク情報生成部450に出力する。すなわち、参照動画再生時間は、ライブ映像と録画映像との表示タイミングを示すタイミング情報である。
(ステップS20)
ライブ映像取得部440は、投稿を確定する旨を示す操作信号を取得すると、LIVE配信システムを開設する。ここで、LIVE配信システムの開設とは、ライブ映像配信サーバ20がライブ映像を特定するためのLIVE動画ID(映像特定情報)を発行し、当該LIVE動画IDとライブ映像とを紐付けることである。そのため、ライブ映像取得部440は、投稿を確定する旨を示す操作信号を取得すると、ライブ映像をライブ映像出力部442に出力する。ライブ映像出力部442は、取得したライブ映像をライブ映像配信サーバ20に出力する。
ライブ映像配信サーバ20のライブ映像配信サーバ制御部24は、ライブ映像配信サーバ通信部22を介してライブ映像を取得すると、当該ライブ映像を特定するためのLIVE動画IDを発行し、当該LIVE動画IDとライブ映像とを紐付ける。そして、ライブ映像配信サーバ制御部24は、取得したライブ映像と紐付けたLIVE動画IDとを関連付けてライブ映像配信サーバ記憶部26に出力する。そして、ライブ映像配信サーバ制御部24は、関連付けたLIVE動画IDとライブ映像とを、ライブ映像配信サーバ通信部22を介して投稿端末40に出力する。
(ステップS22)
続いてコンテンツ取得部446は、LIVE配信システムを開設できたか否かを判定する。換言すると、リンク情報生成部450は、ステップS20においてライブ映像出力部442が出力したライブ映像に紐付けられたLIVE動画IDを取得したか否かを判定する。
ステップS22において、「LIVE配信システムを開設できなかった」と判定された場合(ステップS22:NO)、投稿端末40は、上述したステップS4の処理に戻る。
(ステップS24)
一方、ステップS22において、「LIVE配信システムを開設できた」と判定された場合(ステップS22:YES)、コンテンツ取得部446は、取得したLIVE動画IDをリンク情報生成部450に出力し、取得したライブ映像を投稿端末表示制御部444に出力する。
ここで、リンク情報生成部450は、投稿を確定する旨を示す操作信号をステップS16において取得しているので、ステップS32において取得した参照動画ID、ステップS16において取得した参照動画再生時間、およびステップS24において取得したLIVE動画IDを含むリンク情報を生成する。そして、リンク情報生成部450は、生成したリンク情報をリンク情報出力部452に出力し、リンク情報出力部452は、取得したリンク情報を、投稿端末通信部42を介して管理サーバ30に出力する。
また、投稿端末表示制御部444も、投稿を確定する旨を示す操作信号をステップS16において取得しているので、配信コンテンツを投稿端末表示部48に表示させる。このとき、投稿端末表示部48が表示する画面の例を、図6の(f)に示す。図6の(f)は、配信コンテンツの画面480fを示す図である。
画面480fでは、上述した図6の(e)に示した画面480eにおける投稿確定ボタン484に替えて、配信コンテンツが確定した旨を示すメッセージ493が含まれている。
ステップS24の処理が終わると、投稿端末40は、所定のタイミング(例えば、1秒)が経過するごとにリンク情報を生成して管理サーバ30に出力する構成であってもよいし、所定のタイミング(例えば、後述する同期イベントが発生したタイミング)においてリンク情報を生成して管理サーバ30に出力する構成であってもよい。
なお、リンク情報に含まれる情報は、LIVE動画IDおよび参照動画IDに替えて、配信コンテンツIDであってもよい。この場合、配信コンテンツIDは、管理サーバ30がメタデータを生成した後、任意のタイミングで投稿端末40が取得する構成であればよく、リンク情報生成部450は、LIVE動画IDおよび参照動画IDに替えて取得した配信コンテンツIDをリンク情報に含める。
また、投稿端末40は、ステップS22におけるライブ映像を取得する処理を省略する構成であってもよい。この場合、投稿端末表示制御部444は、ライブ映像配信サーバ20から出力されたライブ映像に替えて、カメラ46を介して、ネットワーク2を経由することなく取得したライブ映像を投稿端末表示部48に表示することにより、配信コンテンツを表示することができる。
(メタデータ生成処理)
上述したステップS24において、リンク情報出力部452がリンク情報を管理サーバ30に出力すると、管理サーバ制御部34は、管理サーバ通信部32を介して、リンク情報を取得する。管理サーバ制御部34は、リンク情報を取得すると、メタデータを生成してライブ映像配信サーバ記憶部26に格納する。メタデータについて、図7を用いて説明する。図7は、本発明の実施形態1におけるメタデータの例を示す図である。
メタデータには、図7に示すように、配信コンテンツに関する情報を含むデータである。以下、メタデータに含まれる情報について、説明する。なお、LIVE動画ID、参照動画ID、および参照動画再生時間については既に説明しているため、説明を省略する。
配信コンテンツIDは、配信コンテンツを特定するための識別情報であり、管理サーバ制御部34が発行する。
配信日時は、配信コンテンツの配信を開始した日時を示す情報である。
ユーザーIDは、配信コンテンツを投稿した投稿端末40を特定するための識別情報である。また、ユーザーIDは、投稿端末40を用いて配信コンテンツを投稿したユーザーに紐付けられた識別情報であってもよい。
配信タイトルは、配信コンテンツの題名を示す情報である。
サムネイルは、配信コンテンツに含まれる画像を抽出した画像である。
タグは、配信コンテンツの付随情報であり、例えば、配信コンテンツのジャンルが挙げられる。
SNS情報IDは、配信コンテンツに付随するSNS情報である。
LIVE再生時間は、配信を開始してから経過した時間を示す情報である。
同期イベントIDは、ライブ映像と録画映像との同期の仕方を変更する処理(同期イベント)が投稿端末40において実行された場合(イベントが発生した場合)に生成される、当該同期イベントを特定するための識別情報である。同期イベントについては、後述の実施形態において詳しく説明する。
参照動画座標情報は、ライブ映像と同期したときに、録画映像として、録画映像の一部の領域を表示させた場合、当該録画映像の一部の領域を示す情報である。例えばユーザーが、録画映像のうち目の映像の領域だけを配信コンテンツに含めたい場合、目の映像の領域を示す操作をユーザーから受け付け、当該領域の四隅の座標位置を示す情報を、参照動画座標情報としてメタデータに含めることができる。
(配信コンテンツ表示処理)
コンテンツ提供システム1において、表示端末60が配信コンテンツを表示する処理について、図8〜図10を用いて説明する。図8は、本発明の実施形態1において表示端末60が配信コンテンツのメタデータを取得する処理の流れを示すフローチャートである。また、図9は、本発明の実施形態1において表示端末60が配信コンテンツを表示する処理の流れを示すフローチャートである。また、図10は、本発明の実施形態1において表示端末60が表示する画面の例である。
(ステップS40)
表示端末操作受付部644は、表示端末操作部68を介して、配信可能な配信コンテンツのリストである配信コンテンツ一覧を表示する旨の操作を受け付けた旨の操作信号を取得すると、当該操作信号を表示端末コンテンツ要求部646に出力する。表示端末コンテンツ要求部646は、表示端末通信部62を介して、管理サーバ30に対して配信コンテンツ一覧を要求する。
(ステップS42)
管理サーバ30の管理サーバ制御部34は、管理サーバ通信部32を介して、配信コンテンツ一覧の要求を受け付けると、管理サーバ記憶部36から配信コンテンツ一覧を取得する。より具体的には、管理サーバ制御部34は、配信可能な複数の配信コンテンツのそれぞれのメタデータから、配信コンテンツID、配信タイトル、およびサムネイルを取得し、配信コンテンツID、配信タイトル、およびサムネイルを含む配信コンテンツ一覧を生成する。
(ステップS44)
そして、管理サーバ制御部34は、管理サーバ通信部32を介して、配信コンテンツ一覧を表示端末60に出力する。
(ステップS46)
表示端末60のコンテンツ情報取得部640は、表示端末通信部62を介して、管理サーバ30から出力された配信コンテンツ一覧を取得する。そして、コンテンツ情報取得部640は、配信コンテンツ一覧に含まれる配信コンテンツIDを、表示端末コンテンツ要求部646に出力する。また、コンテンツ情報取得部640は、取得した配信コンテンツ一覧を表示端末表示制御部642に出力する。表示端末表示制御部642は、取得した配信コンテンツ一覧を含む画面を、表示端末表示部66に表示させる。このとき、表示端末表示部66が表示する画面の例を図10の(a)に示す。図10の(a)は、取得した配信コンテンツ一覧661を含む画面660aを示す図である。
画面660aには、図10の(a)に示すように、複数の配信コンテンツ(配信コンテンツ661a〜配信コンテンツ661c)が含まれる配信コンテンツ一覧661が含まれている。また、各配信コンテンツには、配信コンテンツの内容をユーザーに提示するため、配信タイトルおよびサムネイルが含まれている。
(ステップS48)
表示端末操作受付部644は、配信コンテンツを選択する旨の操作を示す操作信号を取得すると、配信コンテンツを選択する。そして、表示端末操作受付部644は、取得した操作信号を表示端末コンテンツ要求部646に出力する。
(ステップS50)
表示端末コンテンツ要求部646は、取得した操作信号を参照し、ステップS46において取得した配信コンテンツIDから、選択されたコンテンツに対応する配信コンテンツIDを選択する。そして、表示端末コンテンツ要求部646は、当該配信コンテンツIDを出力することにより、当該配信コンテンツIDのメタデータを管理サーバ30に要求する。
(ステップS52)
管理サーバ30の管理サーバ制御部34は、管理サーバ通信部32を介してメタデータの要求を受け付けると、管理サーバ記憶部36からメタデータを取得する。ここで管理サーバ制御部34が取得するメタデータには、LIVE動画ID、参照動画ID、LIVE再生時間、参照動画再生時間、および参照動画座標情報が含まれる。
(ステップS54)
そして、管理サーバ制御部34は、管理サーバ通信部32を介して、メタデータを表示端末60に出力する。
(ステップS56)
表示端末60のコンテンツ情報取得部640は、表示端末通信部62を介して、管理サーバ30から出力されたメタデータをネットワーク2経由で取得する。そして、コンテンツ情報取得部640は、取得したメタデータに含まれているLIVE動画ID、参照動画ID、LIVE再生時間、および参照動画再生時間を表示端末コンテンツ要求部646に出力する。また、コンテンツ情報取得部640は、取得したメタデータに含まれる参照動画座標情報を、表示端末表示制御部642に出力する。
(ステップS58)
コンテンツ情報取得部640は、エラーが発生しているか否かを判定する。コンテンツ情報取得部640が判定するエラーの例として、取得したメタデータに情報が含まれていない(要求した配信コンテンツが削除されていた場合など)、が挙げられる。
ステップS58において、「エラーが発生している」と判定された場合(ステップS58:YES)、表示端末60は、上述したステップS40の処理に戻る。
一方、ステップS58において、「エラーが発生していない」と判定された場合(ステップS58:NO)、図8に示す処理は終了し、ステップS60に進む。
(ステップS60)
表示端末コンテンツ要求部646は、ステップS56において取得した参照動画ID、LIVE再生時間、および参照動画再生時間を参照し、所定の時間からの録画映像を録画映像配信サーバ10に要求する。より具体的には、表示端末コンテンツ要求部646は、参照動画再生時間が示す時間に、LIVE再生時間が示す時間を加えた時間以降の録画映像を、録画映像配信サーバ10に要求する。例えば、参照動画再生時間が1分30秒であり、LIVE再生時間が2秒の場合、表示端末コンテンツ要求部646は、1分32秒以降の録画映像を録画映像配信サーバ10に要求する。換言すると、表示端末コンテンツ要求部646は、ライブ映像に同期した録画映像を、録画映像配信サーバ10に要求する。
(ステップS62)
録画映像配信サーバ10の録画映像配信サーバ制御部14は、録画映像配信サーバ通信部12を介して、所定の時間からの録画映像の要求を受け付ける。そして、録画映像配信サーバ制御部14は、受け付けた要求に応じて、所定の時間からの録画映像を、録画映像配信サーバ記憶部16から取得する。
(ステップS64)
録画映像配信サーバ制御部14は、取得した所定の時間からの録画映像を、録画映像配信サーバ通信部12を介して表示端末60に出力する。
(ステップS66)
表示端末60のコンテンツ情報取得部640は、表示端末通信部62を介して、所定の時間からの録画映像をネットワーク2経由で取得する。
(ステップS68)
続いて、表示端末コンテンツ要求部646は、ステップS56において取得したLIVE動画IDを参照し、ライブ映像をライブ映像配信サーバ20に要求する。
(ステップS70)
ライブ映像配信サーバ20のライブ映像配信サーバ制御部24は、ライブ映像配信サーバ通信部22を介して、ライブ映像の要求を受け付ける。そして、ライブ映像配信サーバ制御部24は、受け付けた要求に応じて、ライブ映像をライブ映像配信サーバ記憶部26から取得する。
(ステップS72)
ライブ映像配信サーバ制御部24は、取得したライブ映像を、ライブ映像配信サーバ通信部22を介して表示端末60に出力する。
(ステップS74)
表示端末60のコンテンツ情報取得部640は、表示端末通信部62を介して、ライブ映像をネットワーク2経由で取得する。
(ステップS76)
表示端末表示制御部642は、ステップS66においてネットワーク2経由で取得した所定の時間からの録画映像と、ステップS74においてネットワーク2経由で取得したライブ映像とを含む配信コンテンツを表示端末表示部66に表示させる。このとき、表示端末表示部66が表示する画面の例を図10の(b)に示す。図10の(b)は、配信コンテンツを含む画面660bを示す図である。
図10の(b)に示すように、画面660bには、録画映像492およびライブ映像481が含まれている。また、録画映像492は、ライブ映像481と同期しているため、ライブ映像が目のメイクを始めてから2秒後の映像であれば、録画映像も目のメイクを始めてから2秒後の映像が表示される。
また、表示端末表示制御部642は、参照動画座標情報を参照し、参照動画座標情報によって特定される録画映像の所定の領域の映像を、録画映像として表示する。
このように、本実施形態におけるコンテンツ提供システム1において、投稿端末40(端末装置)は、ライブ映像を含む複数の映像を表示する投稿端末表示部48と投稿端末制御部44とを有し、投稿端末制御部44は、投稿端末表示部48が表示するライブ映像および録画映像(その他の映像)の同期の仕方を示すリンク情報を生成し、生成したリンク情報をネットワーク経由で外部(管理サーバ30)に投稿する。この構成により、投稿端末40は、ライブ映像と録画映像とを管理サーバ30において合成させることなく、表示端末60においてライブ映像と録画映像とを同期して表示させることができる。そのため、投稿端末40は、複数の映像を同期させたコンテンツを配信する管理サーバ30の負荷を軽減することができる。
また、本実施形態におけるコンテンツ提供システム1において、リンク情報には、ライブ映像と録画映像との表示タイミングを示す参照動画再生時間(タイミング情報)が含まれる。この構成により、投稿端末40は、同期するタイミングを管理サーバ30において管理させることなく、ライブ映像と録画映像とを、表示端末60において適切なタイミングで同期して表示させることができる。そのため、投稿端末40は、複数の映像を同期させたコンテンツを配信する管理サーバ30の負荷を軽減することができる。
また、本実施形態におけるコンテンツ提供システム1において、リンク情報には、ライブ映像と録画映像とを特定するためのLIVE動画IDおよび参照動画ID(映像特定情報)が含まれる。この構成により、投稿端末40は、管理サーバ30以外のサーバ(録画映像配信サーバ10およびライブ映像配信サーバ20)に格納されている映像であっても、同期して表示させることができる。そのため、投稿端末40は、複数の映像を同期させたコンテンツを配信する管理サーバ30の負荷を軽減することができる。
また、本実施形態におけるコンテンツ提供システム1において、投稿端末40はカメラ46(撮像部)をさらに備え、投稿端末制御部44は、投稿端末表示部48が表示するライブ映像として、カメラ46が撮像した映像を外部のネットワーク2を経由せずに取得する。この構成により、投稿端末40は、ネットワーク2を経由することなくライブ映像を表示することができる。そのため、投稿端末40は、ネットワーク2を介した通信処理を行うことなく、ライブ映像を表示することができる。
また、本実施形態におけるコンテンツ提供システム1において、投稿端末制御部44は、カメラ46が撮像した映像をライブ映像配信サーバ20(第1のサーバ)に送信する。この構成により、投稿端末40は、ライブ映像をライブ映像配信サーバ20を介して配信することができる。
また、本実施形態におけるコンテンツ提供システム1において、投稿端末表示部48が表示するライブ映像は、ライブ映像配信サーバ20から取得した映像である。この構成により、投稿端末40は、ライブ映像配信サーバ20が配信するライブ映像を表示することができる。
また、本実施形態におけるコンテンツ提供システム1において、投稿端末表示部48が表示するライブ映像は、カメラ46が撮像した映像であって、ライブ映像配信サーバ20に送信され、ライブ映像配信サーバ20から取得された映像である。この構成により、投稿端末40は、ライブ映像をライブ映像配信サーバ20から取得した他の端末と同じ映像を表示することができる。
また、本実施形態におけるコンテンツ提供システム1において、投稿端末制御部44は、録画映像を、録画映像配信サーバ10(第2のサーバ)から取得する。この構成により、投稿端末40は、録画映像配信サーバ10に格納されている録画映像を表示することができる。
また、本実施形態におけるコンテンツ提供システム1において、表示端末60(端末装置)は、ライブ映像および録画映像(複数の映像)を表示する表示端末表示部66と表示端末制御部64とを有し、表示端末制御部64は、ライブ映像および録画映像の同期のさせ方を示すリンク情報をネットワーク2経由で取得し、取得したリンク情報を参照して、ネットワーク経由でライブ映像および録画映像を取得し、取得したライブ映像および録画映像が同期するよう表示端末表示部66に表示させる。この構成により、表示端末60は、ライブ映像および録画映像を管理サーバ30において合成させることなく、同期させて表示することができる。そのため、表示端末60は、複数の映像を同期させたコンテンツを配信する管理サーバ30の負荷を軽減することができる。
なお、コンテンツ提供システム1では、表示端末60は、ライブ映像に替えて、複数の録画映像を同期させて表示してもよい。この場合、管理サーバ30において生成されるメタデータは、LIVE動画IDに替えて複数の参照動画IDを含み、LIVE再生時間は何れかの録画映像の再生時間を示し、参照動画再生時間は何れかの録画映像と他の録画映像との表示タイミングを示す。
〔実施形態2〕
本発明の他の実施形態について、図11に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
例えば、目のメイクをする録画映像を真似しながら、投稿者が目のメイクをするライブ映像を配信コンテンツとして配信していた場合において、投稿者が目のメイクを終えて口元のメイクを始めようとした場合、録画映像も口元のメイクの映像に変更する必要がある。本実施形態では、例えば、目のメイクの映像が録画映像の1分30秒から1分33秒までであり、口元のメイクの映像が録画映像の2分00秒から2分06秒までの場合に、録画映像とライブ映像とを同期させる方法について説明する。
(同期イベント)
上述したように、管理サーバ30が生成するメタデータには、同期イベントを特定する識別情報である同期イベントIDが含まれている。同期イベントについて、図11を参照して説明する。図11は、本発明の実施形態2における同期イベントが発生した場合のライブ映像と録画映像の再生時間の関係を示す図である。
まず、図11に示すように、録画映像が1分30秒の時点において、投稿が開始されている。換言すると、参照動画再生時間は、1分30秒である。
続いて、ライブ映像が3秒の時点(録画映像が1分33秒の時点)でユーザーは目のメイクを終え、次に口元のメイクを始めるため、ユーザーは録画映像の再生位置を変更する指示を行う。投稿端末操作受付部448は、投稿端末操作部50を介して当該指示を示す操作信号を取得すると、当該操作信号をリンク情報生成部450に出力する。
リンク情報生成部450は、当該操作信号を取得すると、(1)当該操作信号を取得したときの録画映像の再生時間(1分33秒)を示す参照動画再生時間、(2)ライブ映像の再生時間(3秒)を示すLIVE再生時間、(3)当該操作を示す同期イベントを特定するための同期イベントID、(4)表示しているライブ映像を特定するためのLIVE動画ID、および(5)表示している録画映像を特定するための参照動画IDを含むリンク情報を生成する。そして、リンク情報生成部450は、生成したリンク情報を、リンク情報出力部452に出力する。リンク情報出力部452は、取得したリンク情報を、投稿端末通信部42を介して管理サーバ30に出力する。
管理サーバ30の管理サーバ制御部34は、管理サーバ通信部32を介してリンク情報を取得すると、取得したリンク情報に含まれるLIVE動画IDおよび参照動画IDを参照し、当該LIVE動画IDおよび参照動画IDに対応するメタデータを更新する。具体的には、管理サーバ制御部34は、ライブ映像配信サーバ記憶部26は、当該LIVE動画IDおよび参照動画IDに対応するメタデータに含まれるLIVE再生時間、参照動画再生時間、および同期イベントIDに、取得したLIVE再生時間、参照動画再生時間、および同期イベントIDを関連付けて追加する処理を行う。
続いて、ライブ映像が5秒の時点で、ユーザーは口元のメイクの録画映像が始まる2分00秒から再生を開始する指示を行う。投稿端末操作受付部448は、投稿端末操作部50を介して当該指示を示す操作信号を取得すると、当該操作信号をリンク情報生成部450に出力する。
リンク情報生成部450は、当該操作信号を取得すると、(1)当該操作信号を取得したときの録画映像の再生時間(2分00秒)を示す参照動画再生時間、(2)ライブ映像の再生時間(5秒)を示すLIVE再生時間、(3)当該操作を示す同期イベントを特定するための同期イベントID、(4)表示しているライブ映像を特定するためのLIVE動画ID、および(5)表示している録画映像を特定するための参照動画IDを含むリンク情報を生成する。そして、リンク情報生成部450は、生成したリンク情報を、リンク情報出力部452に出力する。リンク情報出力部452は、取得したリンク情報を、投稿端末通信部42を介して管理サーバ30に出力する。
管理サーバ30の管理サーバ制御部34は、管理サーバ通信部32を介してリンク情報を取得すると、取得したリンク情報に含まれるLIVE動画IDおよび参照動画IDを参照し、当該LIVE動画IDおよび参照動画IDに対応するメタデータを、上述した方法と同様に更新する。
このように、本実施形態におけるコンテンツ提供システム1におけるリンク情報には、ライブ映像および録画映像を同期して表示する表示タイミングを変更するイベントが発生したことを示すイベント情報(同期イベントID)がさらに含まれ、当該リンク情報に含まれる参照動画再生時間(タイミング情報)は、イベント発生後のライブ映像と録画映像との表示タイミングを示している。この構成により、投稿端末40は、ライブ映像と、任意のタイミングの録画映像とを、同期させることができる。そのため、投稿端末40は、ライブ映像と録画映像とを好適に同期させた配信コンテンツを、表示端末60に表示させることができる。
〔実施形態3〕
本実施形態では、映像登録可能エリアが複数あり、当該映像登録可能エリアに録画映像に加えてライブ映像を配信コンテンツに含める場合について、説明する。
上述した図6の(b)に示す画面において、レイアウト選択ボタン483dまたはレイアウト選択ボタン483eが選択された場合、投稿端末40が出力するライブ映像、録画映像に加えて、他の端末から出力されているライブ映像を含む配信コンテンツを生成することができる。以下では、図4および図5を参照し、投稿端末40が出力するライブ映像、録画映像、および他の端末が出力するライブ映像を含む配信コンテンツを生成する処理について説明する。また、以下では、上述したステップS2〜ステップS36の処理が終了し、投稿端末40がステップS4の処理に戻ってからの処理について、説明する。換言すると、複数の映像登録可能エリアのうちの何れかに録画映像が既に表示されており、残りの映像登録可能エリアにライブ映像を表示される処理について、説明する。
(ステップS4〜ステップS6)
上述した処理と同じであるため、説明を省略する。
(ステップS8)
ステップS6において、「映像登録可能エリア485はある」(ステップS6:YES)と判定された場合、投稿端末40は、図5に示す処理を実行する。
(ステップS30)
まず、投稿端末表示制御部444は、ステップS6において取得した判定結果を参照し、図6の(c)に示すような追加映像の選択画面を投稿端末表示部48に表示させる。そして、図6の(c)に示す画面480cにおいて、他の端末から出力されているライブ映像を追加映像として選択する旨を示すボタン489が押されると、投稿端末操作受付部448は、ボタン489が押された旨を示す操作信号を取得する。続いて、投稿端末操作受付部448は、取得した操作信号を投稿端末コンテンツ要求部454に出力する。投稿端末コンテンツ要求部454は、投稿端末通信部42を介して、選択可能なライブ映像のリストを管理サーバ30に要求する。
管理サーバ30の管理サーバ制御部34は、管理サーバ通信部32を介して当該要求を受け付けると、管理サーバ制御部34は、選択可能なライブ映像のリストを生成する。より具体的には、管理サーバ制御部34は、ライブ映像配信サーバが出力可能なライブ映像のリストおよび当該ライブ映像のLIVE動画IDを、管理サーバ通信部32を介して投稿端末40に出力する。
投稿端末40のコンテンツ取得部446は、投稿端末通信部42を介して、上記リストを管理サーバ30から取得し、投稿端末コンテンツ要求部454は、投稿端末通信部42を介して、上記LIVE動画IDを取得する。そして、コンテンツ取得部446は、取得したリストを投稿端末表示制御部444に出力する。投稿端末表示制御部444は、取得したリストを含む画面を投稿端末表示部48に表示させる。
(ステップS32)
続いて、投稿端末操作受付部448は、投稿端末操作部50を介して、追加するライブ映像を選択する旨の操作信号を取得すると、当該操作信号を投稿端末コンテンツ要求部454に出力する。
投稿端末コンテンツ要求部454は、取得した操作信号に応じたライブ映像を、ライブ映像配信サーバ20に要求する。より具体的には、ステップS30において投稿端末コンテンツ要求部454が取得したLIVE動画IDのうち、要求するライブ映像を特定するためのLIVE動画IDを出力することにより、当該LIVE動画IDによって特定されるライブ映像を出力するよう要求する。また、投稿端末コンテンツ要求部454は、出力したLIVE動画IDをリンク情報生成部450に出力する。
ライブ映像配信サーバ20のライブ映像配信サーバ制御部24は、ライブ映像配信サーバ通信部22を介してライブ映像の要求を受け付けると、当該ライブ映像をライブ映像配信サーバ記憶部26から取得する。そして、ライブ映像配信サーバ制御部24は、ライブ映像配信サーバ通信部22を介して、取得したライブ映像を投稿端末40に出力する。
(ステップS34)
コンテンツ取得部446は、ライブ映像配信サーバ20から、投稿端末通信部42を介して追加するライブ映像を取得できたか否かを判定する。
ステップS34において、「追加するライブ映像を取得できなかった」と判定された場合(ステップS34:NO)、投稿端末40の処理はステップS30に戻る。
(ステップS36)
一方、ステップS34において、「追加するライブ映像を取得できた」と判定された場(ステップS34:YES)、コンテンツ取得部446は、取得したライブ映像を投稿端末表示制御部444に出力する。投稿端末表示制御部444は、取得したライブ映像を含む画面を、投稿端末表示部48に表示させる。
そして、投稿端末40は、図5に示す処理を終了し、ステップS4の処理に戻る。
(ステップS10〜ステップS22)
上述した処理と同じであるため、説明を省略する。
(ステップS24)
リンク情報生成部450は、ステップS22において取得したLIVE動画IDをリンク情報生成部450に出力し、取得したライブ映像を投稿端末表示制御部444に出力する。
ここで、リンク情報生成部450は、投稿を確定する旨を示す操作信号をステップS16において取得しているので、ステップS32において取得した参照動画IDおよびLIVE動画ID、ステップS16において取得した参照動画再生時間、およびステップS24において取得したLIVE動画IDを含むリンク情報を生成する。そして、リンク情報生成部450がリンク情報をリンク情報出力部452に出力する処理以降の処理については、上述した処理と同じであるため、説明を省略する。
このように、本実施形態におけるコンテンツ提供システム1では、複数のライブ映像を含む配信コンテンツを生成し、配信することができる。
〔実施形態4〕
以下、本発明の実施形態4について、図13〜図18を用いて詳細に説明する。なお、本実施形態は実施形態1〜3を前提としているので、重複する説明は割愛する。
(コンテンツ提供システム1a)
図13は、本発明の実施形態4に係るコンテンツ提供システム1aの要部構成を示すブロック図である。コンテンツ提供システム1aは、図1に示されるコンテンツ提供システム1にSNSサーバ70が追加された構成になっている。図14は、本発明の実施形態4における管理サーバ(通信サーバ)30の構成を示すブロック図である。図15は、本発明の実施形態4における表示端末60の構成を示すブロック図である。
(管理サーバ30)
管理サーバ30は、ライブ映像を含む複数の映像を表示する投稿端末40および表示端末60(複数の端末装置)と通信する通信サーバである。
管理サーバ30は、図14に示すように、管理サーバ通信部32、管理サーバ制御部(制御部)34、および管理サーバ記憶部36を含んでいる。管理サーバ制御部34は、SNS情報取得部340およびSNS情報出力部342としても機能する。
管理サーバ制御部34において、SNS情報取得部340が、ライブ映像を投稿する投稿端末40以外の表示端末60の何れかから送信されたSNS情報であって、配信コンテンツに対する追加オブジェクト(コメントや「いいね」、エフェクトなど)を表示するためのSNS情報(追加オブジェクト表示情報)を取得した場合に、SNS情報出力部342が、当該SNS情報を送信した表示端末60以外の端末装置(その他の端末装置)に対して、当該SNS情報を配信する。なお、エフェクトは、「いいね」などに対応して表示される効果映像であり、例えば、複数の星が輝くような「キラキラ星」を表示してもよい。
SNS情報は、投稿端末40および表示端末60に、追加オブジェクトを、ライブ映像を含む複数の映像を表示するレイヤーとは異なるレイヤーにて表示させる情報である。そして、SNS情報取得部340は、SNS情報を取得した場合に、当該SNS情報を管理サーバ記憶部36に記憶する。
なお、SNS情報出力部342は、SNS情報を送信した表示端末60に対しても、当該SNS情報を配信してもよい。
さらに、管理サーバ制御部34において、SNS情報取得部340が、投稿端末40から送信されたSNS情報を取得した場合に、SNS情報出力部342が、当該SNS情報を送信した投稿端末40以外の端末装置(その他の端末装置)に対して、当該SNS情報を配信する構成であってもよい。例えば、視聴者が表示端末60に表示されたライブ映像に対して「いいね」などを入力したのに対して、投稿者が投稿端末40に表示された「いいね」に対して音声で「ありがとう」などと応答する場合に、SNS情報取得部340は、投稿端末40から、投稿者が発した「ありがとう」の音声に対応する追加オブジェクトを表示するためのSNS情報を取得する。そして、SNS情報出力部342は、当該投稿端末40以外の表示端末60(その他の端末装置)に対して、当該SNS情報を配信する。表示端末60は、管理サーバ30からSNS情報を取得し、取得したSNS情報に従って、投稿者の音声に対応するエフェクトまたはメッセージを追加表示する。
また、管理サーバ制御部34において、SNS情報取得部340は、投稿端末40から送信されたSNS情報を取得した場合に、当該SNS情報を管理サーバ記憶部36に記憶する構成であってもよい。
(投稿端末40)
投稿端末40は、上述した構成に加えて、メタデータにSNS情報が含まれる場合、取得したメタデータに含まれるSNS情報に従って、追加オブジェクトをライブ映像とともに投稿端末表示部48に表示させる。
なお、メタデータの構成は、SNS情報が含まれる構成であってもよいし、図7に示すように、メタデータがSNS情報IDを含み、当該SNS情報IDによりSNS情報に関連付けられている構成であってもよい。
(表示端末60)
表示端末60の表示端末制御部64は、上述した構成に加えて、図15に示すように、コンテンツ情報取得部640、表示端末表示制御部642、表示端末操作受付部644およびSNS情報出力部646としても機能する。
ライブ映像視聴者が表示端末60を使用する場合、表示端末制御部64において、コンテンツ情報取得部640がメタデータを取得する。そして、表示端末表示制御部642は、取得したメタデータを参照して、ライブ映像およびその他の映像を表示端末表示部66に表示させる。また、表示端末操作受付部644がライブ映像視聴者(ユーザー)からオブジェクトを表示する旨の入力を受け付け、SNS情報出力部646が、当該オブジェクトを追加オブジェクトとして表示する旨の指示を含むSNS情報を管理サーバ30に送信する。
そして、表示端末制御部64において、表示端末制御部64は、表示端末操作部68に入力された操作によって表示される追加オブジェクトを、当該操作に応じて、ライブ映像およびその他の映像とともに表示端末表示部66に表示させる。
なお、上述したように、管理サーバ30のSNS情報出力部342が、SNS情報を送信した表示端末60に対しても当該SNS情報を配信する構成では、表示端末制御部64は、表示端末操作部68に入力された操作によって表示される追加オブジェクトを当該操作に応じて表示端末表示部66に表示させる処理に替えて、管理サーバ30からSNS情報を受信し、受信したSNS情報に従って、追加オブジェクトを表示端末表示部66に表示させる。
さらに、表示端末制御部64は、当該表示端末60以外の端末装置から管理サーバ30が取得したSNS情報を管理サーバ30から取得し、取得したSNS情報に従って、追加オブジェクトをライブ映像およびその他の映像とともに表示端末表示部66に表示させる。
なお、SNS情報は、管理サーバ30から取得したメタデータに含まれていてもよい。この場合、表示端末制御部64は、取得したメタデータに含まれるSNS情報に従って、追加オブジェクトを表示端末表示部66に表示させる構成であってもよい。
(SNSサーバ70)
SNSサーバ70は、管理サーバ30とは別のサーバであり、表示端末60からSNS情報を取得した場合、当該SNS情報を管理サーバ30に送信する。
管理サーバ30は、SNSサーバ70からSNS情報を取得した場合、SNS情報に含まれる#(ハッシュタグ)などを用いて、SNS情報をコンテンツと連携させる。#は、ユーザーによりメッセージ(追加オブジェクト)が投稿される際に、特定のテーマに関して、当該ユーザーのメッセージと、他人のメッセージとを連携させるために付与される。
SNS情報には、配信コンテンツID、および、#が含まれているとする。その場合、管理サーバ30は、自身が関連するテーマの#が付与されているSNS情報を、当該配信コンテンツIDのコンテンツを閲覧しているユーザーの投稿端末40、または、表示端末60に送信する。
なお、SNSサーバ70の機能は、他のサーバ(例えば、管理サーバ30)が備えていてもよい。以下の説明では、SNSサーバ70の機能を管理サーバ30が備えている場合について説明する。
(SNS情報)
図16は、本発明の実施形態4におけるSNS情報に含まれる項目を示す図である。図16(a)は、SNS情報の項目、および、その内容を示す。SNS情報は、図16(a)に示すように、SNS情報ID、配信コンテンツID、投稿ユーザーID、エフェクト表示情報、コメントID、および、追加時間軸を含む。SNS情報IDは、当該SNS情報を特定するための識別情報である。配信コンテンツIDは、オブジェクトを追加する対象の配信コンテンツを特定するための識別情報である。投稿ユーザーIDは、投稿ユーザーを特定するための識別情報である。
エフェクト表示情報は、追加オブジェクトに対応するエフェクト表示(例えば、「いいね」が押された、キラキラ星が表示されるなど)に関する制御情報である。コメントIDは、追加オブジェクトがコメントの場合、当該コメントを特定するための識別情報である。エフェクト表示情報、および、コメントIDは、画像表示のレイヤーとは異なる投稿表示レイヤーにエフェクトおよびコメントを表示する指示を含む。追加時間軸は、配信コンテンツに対してイベントを追加すべき時間軸に関する情報である。イベントは、配信コンテンツに対するオブジェクトの追加動作を示すものであり、イベントには、エフェクト表示追加、コメント追加などが含まれる。なお、図16(b)に関しては、後述する。
(SNS情報配信処理)
コンテンツ提供システム1aにおけるSNS情報配信処理について、図17、図18を用いて説明する。図17は、本発明の実施形態4において、表示端末60がSNS情報を送信してから投稿端末40および表示端末60が追加オブジェクトを表示するまでの処理の流れを示すフローチャートである。また、図18は、本発明の実施形態4において、表示端末60Aが表示する画面などの例を示す図である。SNS情報配信処理により、表示端末AがSNS情報を投稿すると、表示端末60A、および、当該SNS情報によって追加オブジェクトを表示する対象となる配信コンテンツを表示している表示端末60Bおよび投稿端末40が追加オブジェクトを表示する。例えば、ある配信コンテンツに対して「いいね」が押されると、「いいね」が押されたことにより、当該ライブ映像に対する「キラキラ星の表示」を指示するエフェクト表示情報を含むSNS情報が投稿端末40、表示端末60A、および表示端末60Bに送信される。そして、投稿端末40、表示端末60A、および表示端末60Bは、図18に示すように、当該SNS情報に含まれるエフェクト表示情報に従って、「キラキラ星」を表示する。
図17は、投稿端末40がライブ映像を投稿し、投稿端末40、表示端末60A、および、表示端末60Bが少なくとも当該ライブ映像を含む配信コンテンツを表示している状態から開始される、管理サーバ30、投稿端末40、表示端末60A、および、表示端末60Bの処理を示す。当該状態においては、例えば、図18に示すように、投稿端末40、表示端末60A、および、表示端末60Bが、録画映像配信サーバ10から受信した録画映像を画面の右半分に表示し、投稿端末40から投稿され、ライブ映像配信サーバ20から受信したライブ映像を画面の左半分に表示する。
なお、以下では、管理サーバ30が投稿端末40、表示端末60A、および、表示端末60BにSNS情報を送信する構成について説明するが、管理サーバ30がSNS情報を含むメタデータを作成し、記憶した上で、当該メタデータを送信してもよい。その場合、投稿端末40、表示端末60A、および、表示端末60Bは、管理サーバ30からメタデータを受信し、当該メタデータに含まれるSNS情報を取得し、当該SNS情報に従って、追加オブジェクトを表示部に表示させる。
(ステップS80)
表示端末60Aにおいて、表示端末操作受付部644がユーザーの入力操作(追加オブジェクトを表示させる操作)を受け付ける。そして、表示端末操作受付部644は、受け付けた入力操作を示す操作信号を、SNS情報出力部646に出力する。SNS情報出力部646は、取得した操作信号を参照し、当該追加オブジェクトを表示させるためのSNS情報を管理サーバ30に送信する。
(ステップS82)
管理サーバ30において、管理サーバ通信部32を介して、SNS情報取得部340は表示端末60AからSNS情報を受信する。
(ステップS84)
SNS情報取得部340は、取得したSNS情報を参照し、メタデータとして管理サーバ記憶部36に記憶する。
(ステップS86)
管理サーバ30において、SNS情報出力部342が、SNS情報取得部340が取得したSNS情報を、表示端末60A、表示端末60B、および、投稿端末40に送信する。
なお、管理サーバ30は、エフェクト表示情報の代わりに、エフェクトのデータそのもの(例えば、キラキラ星のデータなど)を生成し、表示端末60A、60B、および、投稿端末40に送信してもよい。この場合、表示端末60A、60B、および、投稿端末40は、エフェクトを生成することなくエフェクトを表示することができる。
(ステップS88)
SNS情報を送信した表示端末60Aにおいて、コンテンツ情報取得部640は、表示端末通信部62を介して管理サーバ30からSNS情報を受信する。コンテンツ情報取得部640は、取得したSNS情報を、表示端末表示制御部642に出力する。
(ステップS90)
表示端末表示制御部642は、取得したSNS情報に従って、追加オブジェクトを表示端末表示部66に表示させる。
例えば、図18に示すように、表示端末60Aは、画面右半分の録画映像、および、画面左半分のライブ映像に加えて、追加オブジェクトとして、"So cute!!!" などのコメントや、「いいね」に対応するする星などのエフェクトを表示する。表示端末60Aは、録画映像、および、ライブ映像の表示レイヤーとは異なる表示レイヤーにコメント、および、エフェクトを表示する。
(ステップS92)
表示端末60A以外の表示端末60Bにおいて、コンテンツ情報取得部640は、表示端末通信部62を介して管理サーバ30からSNS情報を受信する。コンテンツ情報取得部640は、取得したSNS情報を、表示端末表示制御部642に出力する。
(ステップS94)
表示端末表示制御部642は、取得したSNS情報に従って、追加オブジェクトを表示端末表示部66に表示させる。
表示端末60Bは、表示端末60Aと同様に、例えば、図18に示すような、"So cute!!!" などのコメントや、「いいね」に対応するする星などのエフェクトを追加オブジェクトとして表示する。表示端末60Bは、録画映像、および、ライブ映像の表示レイヤーとは異なる表示レイヤーにコメント、および、エフェクトを表示する。
(ステップS96)
投稿端末40において、コンテンツ取得部446は、投稿端末通信部42を介して管理サーバ30からSNS情報を受信する。コンテンツ取得部446は、取得したSNS情報を投稿端末表示制御部444に出力する。
(ステップS98)
投稿端末表示制御部444は、取得したSNS情報に従って、追加オブジェクトを投稿端末表示部48に表示させる。
投稿端末40は、表示端末60Aと同様に、例えば、図18に示すような、"So cute!!!" などのコメントや、「いいね」に対応するする「キラキラ星」などのエフェクトを追加オブジェクトとして表示する。投稿端末40は、録画映像、および、ライブ映像の表示レイヤーとは異なる表示レイヤーにコメント、および、エフェクトを表示する。
このように、本実施形態におけるコンテンツ提供システム1aにおいて、管理サーバ30(通信サーバ)は、ライブ映像を含む複数の映像(配信コンテンツ)を互いに同期して表示する投稿端末40および表示端末60(複数の端末装置)と通信し、表示端末制御部64を備え、表示端末制御部64は、投稿端末40および表示端末60の何れかから、追加オブジェクトを表示するためのSNS情報(追加オブジェクト表示情報)を取得した場合に、当該端末以外の端末装置に対して、当該SNS情報を配信する。この構成によれば、管理サーバ30は、投稿端末40または表示端末60から取得したSNS情報を、当該端末以外の端末装置に対してSNS情報を配信するので、当該端末以外の端末装置に追加オブジェクトを表示させることができる。そのため、管理サーバ30は、複数のユーザー間のコミュニケーションの向上を図ることができる。
また、本実施形態におけるコンテンツ提供システム1aにおいて、SNS情報は、投稿端末40および表示端末60(各端末装置)に、追加オブジェクトを、ライブ映像を含む複数の映像を表示するレイヤーとは異なるレイヤーにて表示させる情報である。この構成によれば、管理サーバ30は、投稿端末40および表示端末60に、追加オブジェクトを、ライブ映像を含む複数の映像を表示するレイヤーとは異なるレイヤーにて表示させることができる。そのため、管理サーバ30は、複数の映像に重ねて、追加オブジェクトを表示させることができる。
また、本実施形態におけるコンテンツ提供システム1aにおいて、投稿端末40(端末装置)は、ライブ映像を含む複数の映像を表示する投稿端末表示部48と投稿端末制御部44とを有し、投稿端末制御部44は、ライブ映像をライブ映像配信サーバ20に投稿し、メタデータ(メタファイル)を取得し、取得したメタデータに含まれるSNS情報に従って、追加オブジェクトをライブ映像とともに投稿端末表示部48に表示させる。この構成によれば、投稿端末40は、メタデータに含まれるSNS情報に従って、追加オブジェクトをライブ映像とともに表示部に表示させる。そのため、投稿端末40は、複数のユーザー間のコミュニケーションの向上を図ることができる。
また、本実施形態におけるコンテンツ提供システム1aにおいて、表示端末60(端末装置)は、ライブ映像を含む複数の映像を表示する表示端末表示部66と表示端末制御部64とを有し、表示端末制御部64は、メタデータを取得し、取得したメタデータを参照して、ライブ映像およびその他の映像を表示端末表示部66に表示させ、ユーザーの入力を受け付け、当該入力に関連するオブジェクトを追加オブジェクトとして表示する旨の指示を含むSNS情報を管理サーバ30に送信する。この構成によれば、表示端末60は、メタデータを参照してライブ映像とその他の映像とを表示端末表示部66に表示させ、ユーザーの入力に関連するオブジェクトを追加オブジェクトとして表示する旨の指示を含むSNS情報を管理サーバ30に送信する。そのため、表示端末60は、SNS情報を管理サーバ30に送信することにより、管理サーバ30に対して、追加オブジェクトの表示が必要な投稿端末40および表示端末60にSNS情報を配信させることができる。
また、本実施形態におけるコンテンツ提供システム1aにおいて、表示端末制御部64は、追加オブジェクトをライブ映像およびその他の映像とともに表示端末表示部66に表示させる。この構成によれば、表示端末60は、追加オブジェクトをライブ映像およびその他の映像とともに表示端末表示部66に表示させる。そのため、表示端末60は、ユーザーに、当該ユーザーの入力に関連するオブジェクトを確認させることができる。
また、本実施形態におけるコンテンツ提供システム1aにおいて、表示端末制御部64は、管理サーバ30からSNS情報を取得し、取得したSNS情報に従って、追加オブジェクトを表示端末表示部66に表示させる。この構成によれば、表示端末60は、管理サーバ30からSNS情報を取得し、取得したSNS情報に従って、追加オブジェクトを表示端末表示部66に表示させる。そのため、表示端末60は、複数のユーザー間のコミュニケーションの向上を図ることができる。
また、本実施形態におけるコンテンツ提供システム1aにおいて、表示端末制御部64は、他の端末装置から管理サーバ30が取得したSNS情報を管理サーバ30から取得し、取得したSNS情報に従って、追加オブジェクトをライブ映像およびその他の映像とともに表示端末表示部66に表示させる。この構成によれば、表示端末60は、他の端末装置から管理サーバ30が取得したSNS情報を管理サーバ30から取得し、取得したSNS情報に従って、追加オブジェクトをライブ映像およびその他の映像とともに表示端末表示部66に表示させる。そのため、表示端末60は、複数のユーザー間のコミュニケーションの向上を図ることができる。
また、本実施形態におけるコンテンツ提供システム1aにおいて、SNS情報は、管理サーバ30から取得したメタデータに含まれており、表示端末制御部64は、取得したメタデータに含まれるSNS情報に従って、追加オブジェクトを表示端末表示部66に表示させる。この構成によれば、表示端末60は、メタデータに含まれるSNS情報に従って、追加オブジェクトを表示端末表示部66に表示させる。そのため、表示端末60は、統合されたデータにより効率的に処理することができる。
〔実施形態5〕
以下、本発明の実施形態5について詳細に説明する。なお、本実施形態は実施形態1〜4を前提としているので、重複する説明は割愛する。
(管理サーバ30)
管理サーバ30は、上記構成に加えて、管理サーバ記憶部36に、過去に配信した配信コンテンツのメタデータを記憶する。なお、管理サーバ30は、過去に配信した配信コンテンツに含まれたライブ映像が録画映像として録画映像配信サーバ10に格納している場合は、LIVE動画IDに替えて、当該録画映像を特定するための参照動画IDを含むメタデータを記憶する。
(表示端末60)
過去に配信された配信コンテンツの視聴者が表示端末60を使用する場合、表示端末制御部64において、コンテンツ情報取得部640がメタデータを取得する。そして、表示端末表示制御部642は、取得したメタデータを参照して、ネットワーク2経由で配信コンテンツ(複数の映像)を取得し、取得した配信コンテンツに含まれる複数の映像を同期させて表示端末表示部66に表示させるとともに、取得したメタデータに含まれるSNS情報に従って、追加オブジェクトを表示端末表示部66に表示させる。
(追加時間軸)
図16(b)は、追加時間軸の構成例を示す。図16(b)に示すように、配信コンテンツの配信開始(時刻)から配信終了(時刻)までの間の期間が、追加時間軸として示されている。次に、「イベント」として、エフェクト表示追加と、コメント追加とが示されている。そして、エフェクト表示追加のイベントが発生したタイミング、および、コメント追加のイベントが発生したタイミングが、それぞれ星印で示されている。さらに、その星印から追加時間軸へ矢印が伸びており、これにより追加時間軸におけるイベント追加のタイミングが示される。なお、図16(b)において、濃淡が互いに異なる星印は、対応するイベントが互いに異なる表示端末に起因したものであることを示している。
(過去の配信コンテンツ取得処理)
過去に配信された配信コンテンツの視聴者が表示端末60を用いて、管理サーバ30が過去に配信した配信コンテンツを視聴しようとすると、過去に配信した配信コンテンツとともに、SNS情報が同期して表示される。この場合における、表示端末60、および、管理サーバ30の処理について、以下に説明する。
まず、表示端末60は、視聴対象の配信コンテンツのメタデータの取得要求を管理サーバ30に送信する。
次に、管理サーバ30は、要求されたメタデータを読み出して、当該メタデータを表示端末60に送信する。
そして、表示端末60は、管理サーバ30から送信されたメタデータを受信する。次に、表示端末60は、取得したメタデータに含まれるLIVE動画IDによって特定されるライブ映像をライブ映像配信サーバ20から取得し、取得したメタデータに含まれる参照動画IDによって特定される録画映像を録画映像配信サーバ10から取得する。さらに、表示端末60は、取得したメタデータに含まれる参照動画再生時間を参照し、ライブ映像、および、録画映像を同期させて表示するとともに、SNS情報に従って、追加オブジェクトを表示端末表示部66に表示させる。
詳細には、表示端末60は、SNS情報の追加時間軸(図16(b))を参照して、配信コンテンツの配信開始からの経過時間に応じて、表示中の配信コンテンツに対して追加オブジェクト(エフェクト、コメントなど)を追加表示する。表示端末60は、コンテンツの表示レイヤーとは異なる表示レイヤーに追加オブジェクトを表示する。
このように、本実施形態におけるコンテンツ提供システム1aにおいて、管理サーバ30(通信サーバ)は、ライブ映像を含む複数の映像を表示する投稿端末40および表示端末60(複数の端末装置)と通信し、管理サーバ制御部34を備え、管理サーバ制御部34は、投稿端末40および表示端末60の何れかから、追加オブジェクトを表示するためのSNS情報を取得した場合に、当該SNS情報を管理サーバ記憶部36に記憶する。この構成によれば、管理サーバ30は、SNS情報を管理サーバ記憶部36に記憶する。そのため、管理サーバ30は、投稿端末40および表示端末60にSNS情報を送信することにより、リアルタイムで表示させていた追加オブジェクトと同様の追加オブジェクトを表示させることができる。
また、本実施形態におけるコンテンツ提供システム1aにおいて、表示端末60(端末装置)は、複数の映像を表示する表示端末表示部66と表示端末制御部64とを有し、表示端末制御部64は、メタデータを取得し、取得したメタデータを参照して、ネットワーク2経由で複数の映像を取得し、取得した複数の映像を同期させて表示端末表示部66に表示させ、取得したメタデータに含まれるSNS情報に従って、追加オブジェクトを表示端末表示部66に表示させる。この構成によれば、表示端末60は、メタデータを参照して、ネットワーク2経由で複数の映像を取得し、取得した複数の映像を同期させて表示端末表示部66に表示させ、取得したメタデータに含まれるSNS情報に従って、追加オブジェクトを表示端末表示部66に表示させる。そのため、表示端末60は、過去に配信された配信コンテンツの視聴者に対して、当該配信コンテンツ、および、追加オブジェクトを表示することができる。
〔実施形態6〕
録画映像配信サーバ10、ライブ映像配信サーバ20、管理サーバ30、投稿端末40、表示端末60、およびSNSサーバ70の制御ブロック(特に録画映像配信サーバ制御部14、ライブ映像配信サーバ制御部24、管理サーバ制御部34、投稿端末制御部44、および表示端末制御部64)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
後者の場合、録画映像配信サーバ10、ライブ映像配信サーバ20、管理サーバ30、投稿端末40、表示端末60、およびSNSサーバ70は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
〔実施形態7〕
上記各実施形態では、複数のサーバ(録画映像配信サーバ10、ライブ映像配信サーバ20、管理サーバ30、およびSNSサーバ70)を用いる例を説明したが、複数のサーバの有する各機能が、1つのサーバにて実現されていてもよいし、さらに多くのサーバによって実現されていてもよい。また、複数のサーバを適用する場合においては、各サーバは、同じ事業者によって管理されていてもよいし、異なる事業者によって管理されていてもよい。
〔実施形態8〕
録画映像配信サーバ10、ライブ映像配信サーバ20、管理サーバ30、投稿端末40、表示端末60、およびSNSサーバ70の各ブロックは、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。後者の場合、録画映像配信サーバ10、ライブ映像配信サーバ20、管理サーバ30、投稿端末40、表示端末60、およびSNSサーバ70のそれぞれを、図12に示すようなコンピュータ(電子計算機)を用いて構成することができる。
図12は、録画映像配信サーバ10、ライブ映像配信サーバ20、管理サーバ30、投稿端末40、表示端末60、およびSNSサーバ70として利用可能なコンピュータ910のハードウェア構成を例示したブロック図である。コンピュータ910は、バス911を介して互いに接続された演算装置912と、主記憶装置913と、補助記憶装置914と、入出力インターフェース915と、通信インターフェース916とを備えている。演算装置912、主記憶装置913、および補助記憶装置914は、それぞれ、例えばCPU、RAM(random access memory)、ハードディスクドライブであってもよい。入出力インターフェース915には、ユーザーがコンピュータ910に各種情報を入力するための入力装置920、および、コンピュータ910がユーザーに各種情報を出力するための出力装置930が接続される。入力装置920および出力装置930は、コンピュータ910に内蔵されたものであってもよいし、コンピュータ910に接続された(外付けされた)ものであってもよい。例えば、入力装置920は、キーボード、マウス、タッチセンサなどであってもよく、出力装置930は、ディスプレイ、プリンタ、スピーカなどであってもよい。また、タッチセンサとディスプレイとが一体化されたタッチパネルのような、入力装置920および出力装置930の双方の機能を有する装置を適用してもよい。そして、通信インターフェース916は、コンピュータ910が外部の装置と通信するためのインターフェースである。
補助記憶装置914には、コンピュータ910を録画映像配信サーバ10、ライブ映像配信サーバ20、管理サーバ30、投稿端末40、表示端末60、およびSNSサーバ70として動作させるための各種のプログラムが格納されている。そして、演算装置912は、補助記憶装置914に格納された上記プログラムを主記憶装置913上に展開して該プログラムに含まれる命令を実行することによって、コンピュータ910を、録画映像配信サーバ10、ライブ映像配信サーバ20、管理サーバ30、投稿端末40、表示端末60、およびSNSサーバ70が備える各部として機能させる。なお、補助記憶装置914が備える、プログラム等の情報を記録する記録媒体は、コンピュータ読み取り可能な「一時的でない有形の媒体」であればよく、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブル論理回路などであってもよい。
また、上記プログラムは、コンピュータ910の外部から取得してもよく、この場合、任意の伝送媒体(通信ネットワークや放送波等)を介して取得してもよい。そして、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。
1、1a コンテンツ提供システム(システム)
10 録画映像配信サーバ
20 ライブ映像配信サーバ
30 管理サーバ(通信サーバ)
34 管理サーバ制御部(制御部)
40 投稿端末(端末装置)
42 投稿端末通信部(通信部)
44 投稿端末制御部(制御部)
440 ライブ映像取得部
442 ライブ映像出力部
444 投稿端末表示制御部
446 コンテンツ取得部
448 投稿端末操作受付部
450 リンク情報生成部
452 リンク情報出力部
454 投稿端末コンテンツ要求部
48 投稿端末表示部(表示部)
60、60A、60B 表示端末(端末装置)
62 表示端末通信部(通信部)
64 表示端末制御部(制御部)
640 コンテンツ情報取得部
642 表示端末表示制御部
644 表示端末操作受付部
646 表示端末コンテンツ要求部
66 表示端末表示部(表示部)
70 SNSサーバ

Claims (17)

  1. ライブ映像を含む複数の映像を互いに同期して表示する複数の端末装置と通信する通信サーバであって、
    制御部を備え、
    上記制御部は、上記複数の端末装置の何れかから、追加オブジェクトを表示するための追加オブジェクト表示情報を取得した場合に、その他の端末装置に対して、当該追加オブジェクト表示情報を配信する、
    ことを特徴とする通信サーバ。
  2. 上記追加オブジェクト表示情報は、各端末装置に、上記追加オブジェクトを、上記ライブ映像を含む複数の映像を表示するレイヤーとは異なるレイヤーにて表示させる情報である、
    ことを特徴とする請求項1に記載の通信サーバ。
  3. ライブ映像を含む複数の映像を表示する複数の端末装置と通信する通信サーバであって、
    制御部を備え、
    上記制御部は、上記複数の端末装置の何れかから、追加オブジェクトを表示するための追加オブジェクト表示情報を取得した場合に、当該追加オブジェクト表示情報を記憶部に記憶する、
    ことを特徴とする通信サーバ。
  4. ライブ映像を含む複数の映像を表示する表示部と制御部とを有する端末装置であって、
    上記制御部は、
    ライブ映像をサーバに投稿し、
    メタファイルを取得し、
    取得したメタファイルに含まれる追加オブジェクト表示情報に従って、追加オブジェクトを上記ライブ映像とともに上記表示部に表示させる、
    ことを特徴とする端末装置。
  5. ライブ映像を含む複数の映像を表示する表示部と制御部とを有する端末装置であって、
    上記制御部は、
    メタファイルを取得し、取得したメタファイルを参照して、ライブ映像およびその他の映像を上記表示部に表示させ、
    ユーザーの入力を受け付け、当該入力に関連するオブジェクトを追加オブジェクトとして表示する旨の指示を含む追加オブジェクト表示情報をサーバに送信する、
    ことを特徴とする端末装置。
  6. 上記制御部は、
    上記追加オブジェクトを上記ライブ映像およびその他の映像とともに上記表示部に表示させる、
    ことを特徴とする請求項5に記載の端末装置。
  7. 上記制御部は、
    上記サーバから上記追加オブジェクト表示情報を取得し、
    取得した追加オブジェクト表示情報に従って、上記追加オブジェクトを上記表示部に表示させる、
    ことを特徴とする請求項6に記載の端末装置。
  8. 上記制御部は、
    他の端末装置からサーバが取得した追加オブジェクト表示情報を当該サーバから取得し、
    取得した追加オブジェクト表示情報に従って、上記追加オブジェクトを上記ライブ映像およびその他の映像とともに上記表示部に表示させる、
    ことを特徴とする請求項5に記載の端末装置。
  9. 上記追加オブジェクト表示情報は、上記サーバから取得したメタファイルに含まれており、
    上記制御部は、
    上記メタファイルに含まれる追加オブジェクト表示情報に従って、追加オブジェクトを上記表示部に表示させる、
    ことを特徴とする請求項7または8に記載の端末装置。
  10. 複数の映像を表示する表示部と制御部とを有する端末装置であって、
    上記制御部は、
    メタファイルを取得し、取得したメタファイルを参照して、ネットワーク経由で複数の映像を取得し、取得した複数の映像を同期させて上記表示部に表示させ、
    取得したメタファイルに含まれる追加オブジェクト表示情報に従って、追加オブジェクトを上記表示部に表示させる、
    ことを特徴とする端末装置。
  11. ライブ映像を含む複数の映像を互いに同期して表示する複数の端末装置と通信する通信方法であって、
    上記複数の端末装置の何れかから、追加オブジェクトを表示するための追加オブジェクト表示情報を取得した場合に、その他の端末装置に対して、当該追加オブジェクト表示情報を配信するステップ、
    を含むことを特徴とする通信方法。
  12. ライブ映像を含む複数の映像を表示する複数の端末装置と通信する通信方法であって、
    上記複数の端末装置の何れかから、追加オブジェクトを表示するための追加オブジェクト表示情報を取得した場合に、当該追加オブジェクト表示情報を記憶部に記憶するステップ、
    を含むことを特徴とする通信方法。
  13. ライブ映像を含む複数の映像を互いに同期して表示する複数の端末装置と通信する制御部を有する通信サーバとしてコンピュータを機能させるためのプログラムであって、上記制御部に、
    上記複数の端末装置の何れかから、追加オブジェクトを表示するための追加オブジェクト表示情報を取得した場合に、その他の端末装置に対して、当該追加オブジェクト表示情報を配信する処理、
    を実行させることを特徴とするプログラム。
  14. ライブ映像を含む複数の映像を表示する複数の端末装置と通信する制御部を有する通信サーバとしてコンピュータを機能させるためのプログラムであって、上記制御部に、
    上記複数の端末装置の何れかから、追加オブジェクトを表示するための追加オブジェクト表示情報を取得した場合に、当該追加オブジェクト表示情報を記憶部に記憶する処理、
    を実行させることを特徴とするプログラム。
  15. ライブ映像を含む複数の映像を表示する表示部と制御部とを有する端末装置としてコンピュータを機能させるためのプログラムであって、上記制御部に、
    ライブ映像をサーバに投稿する処理、
    メタファイルを取得する処理、
    取得したメタファイルに含まれる追加オブジェクト表示情報に従って、追加オブジェクトを表示部に表示させる処理、
    を実行させることを特徴とするプログラム。
  16. ライブ映像を含む複数の映像を表示する表示部と制御部とを有する端末装置としてコンピュータを機能させるためのプログラムであって、上記制御部に、
    メタファイルを取得し、取得したメタファイルを参照して、ライブ映像およびその他の映像を上記表示部に表示させる処理、
    ユーザーの入力を受け付け、当該入力に関連するオブジェクトを追加オブジェクトとして表示する旨の指示を含む追加オブジェクト表示情報をサーバに送信する処理、
    を実行させることを特徴とするプログラム。
  17. 複数の映像を表示する表示部と制御部とを有する端末装置としてコンピュータを機能させるためのプログラムであって、上記制御部に、
    メタファイルを取得し、取得したメタファイルを参照して、ネットワーク経由で複数の映像を取得し、取得した複数の映像を同期させて上記表示部に表示させる処理、
    取得したメタファイルに含まれる追加オブジェクト表示情報に従って、追加オブジェクトを上記表示部に表示させる処理、
    を実行させることを特徴とするプログラム。
JP2015253204A 2015-12-25 2015-12-25 通信サーバ、端末装置、通信方法、および、プログラム Pending JP2017118381A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015253204A JP2017118381A (ja) 2015-12-25 2015-12-25 通信サーバ、端末装置、通信方法、および、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015253204A JP2017118381A (ja) 2015-12-25 2015-12-25 通信サーバ、端末装置、通信方法、および、プログラム

Publications (1)

Publication Number Publication Date
JP2017118381A true JP2017118381A (ja) 2017-06-29

Family

ID=59232226

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015253204A Pending JP2017118381A (ja) 2015-12-25 2015-12-25 通信サーバ、端末装置、通信方法、および、プログラム

Country Status (1)

Country Link
JP (1) JP2017118381A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020137845A (ja) * 2019-02-28 2020-09-03 株式会社ドワンゴ 端末、サーバおよびプログラム
JP7073548B2 (ja) 2020-05-15 2022-05-23 株式会社ドワンゴ 動画配信装置、動画配信方法、および、動画配信プログラム
US11589091B2 (en) 2017-09-08 2023-02-21 Tencent Technology (Shenzhen) Company Limited Video information processing method, computer equipment and storage medium

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11589091B2 (en) 2017-09-08 2023-02-21 Tencent Technology (Shenzhen) Company Limited Video information processing method, computer equipment and storage medium
JP2020137845A (ja) * 2019-02-28 2020-09-03 株式会社ドワンゴ 端末、サーバおよびプログラム
JP7073548B2 (ja) 2020-05-15 2022-05-23 株式会社ドワンゴ 動画配信装置、動画配信方法、および、動画配信プログラム

Similar Documents

Publication Publication Date Title
JP6474932B2 (ja) 通信端末、通信方法、プログラム、及び通信システム
CN105745938B (zh) 多视角音频和视频交互式回放
CN107920274B (zh) 一种视频处理方法、客户端及服务器
JP6285365B2 (ja) 通信端末、通信方法、プログラム、及び通信システム
EP2398021A2 (en) Information processing apparatus, information processing method, and program
JP6273206B2 (ja) 通信端末、通信方法、及びプログラム
KR20220031894A (ko) 데이터 스트림을 동기화하기 위한 시스템 및 방법
JP6258862B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2017118381A (ja) 通信サーバ、端末装置、通信方法、および、プログラム
WO2015131641A1 (zh) 图片的处理方法及装置
US20190074036A1 (en) System and method for live video production monitoring and annotation
JP6260809B2 (ja) ディスプレイ装置、情報処理方法、及び、プログラム
KR20190075596A (ko) 증강 현실 컨텐츠를 제작하는 방법, 이를 이용하는 방법 및 이를 이용한 장치
JP2023153790A (ja) プログラム
EP2942949A1 (en) System for providing complex-dimensional content service using complex 2d-3d content file, method for providing said service, and complex-dimensional content file therefor
CN108616768B (zh) 多媒体资源的同步播放方法、装置、存储位置及电子装置
JP4080295B2 (ja) 仮想空間における複数メディア表示方法、仮想空間における複数メディア表示端末装置、仮想空間管理サーバ装置、仮想空間における複数メディア表示プログラム及びこのプログラムを記録した記録媒体
JP2017118380A (ja) 端末装置およびプログラム
KR101547013B1 (ko) 시나리오 기반 컨텐츠 제작 관리 방법 및 시스템
US20130054772A1 (en) Method and apparatus for content management using network server
US9813612B2 (en) Imaging apparatus, information managing apparatus, control methods thereof, and non-transitory computer-readable storage medium for superimposing image data on a display
JP6849851B2 (ja) 撮影システム、撮影装置及びユーザ撮影方法
JP2000222381A (ja) アルバム作成方法および情報処理装置および情報出力装置
JP2015141671A (ja) コンテンツ処理システム、コンテンツ処理サーバ、端末装置、コンテンツ処理方法、およびコンテンツ処理プログラム
JP2019012973A (ja) 映像配信システム、通信装置、動画配信サーバ及び映像配信方法