JP2013150095A - コンテンツ配信システムおよびコンテンツ配信方法 - Google Patents
コンテンツ配信システムおよびコンテンツ配信方法 Download PDFInfo
- Publication number
- JP2013150095A JP2013150095A JP2012007863A JP2012007863A JP2013150095A JP 2013150095 A JP2013150095 A JP 2013150095A JP 2012007863 A JP2012007863 A JP 2012007863A JP 2012007863 A JP2012007863 A JP 2012007863A JP 2013150095 A JP2013150095 A JP 2013150095A
- Authority
- JP
- Japan
- Prior art keywords
- metadata
- time
- content
- terminal
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
【課題】ネットワークを介したストリーミング配信において、多様性に富んだインタラクティブなサービスの提供を可能とし、ユーザ同士の一体感を向上させることができるようにする。
【解決手段】横軸が遅延時間とされ、縦軸が受講者数とされ、遅延時間毎の端末数が棒グラフとして記述されている。点線より左側の端末では、再生されたコンテンツにおいて、講師からの質問のメタデータの表示などのイベントが既に発生したことを意味し、点線より右側の端末では、そのイベントが未だ発生していないことを意味する。講師からの質問に対して回答した受講者数に対応する部分が別の色で表示される。吹き出しには、イベント名と、既に講師からの質問が表示された端末の割合/既に質問に回答した端末の割合が表示される。
【選択図】図8
【解決手段】横軸が遅延時間とされ、縦軸が受講者数とされ、遅延時間毎の端末数が棒グラフとして記述されている。点線より左側の端末では、再生されたコンテンツにおいて、講師からの質問のメタデータの表示などのイベントが既に発生したことを意味し、点線より右側の端末では、そのイベントが未だ発生していないことを意味する。講師からの質問に対して回答した受講者数に対応する部分が別の色で表示される。吹き出しには、イベント名と、既に講師からの質問が表示された端末の割合/既に質問に回答した端末の割合が表示される。
【選択図】図8
Description
本発明は、コンテンツ配信システムおよびコンテンツ配信方法に関し、特に、ネットワークを介したストリーミング配信において、多様性に富んだインタラクティブなサービスの提供を可能とし、ユーザ同士の一体感を向上させることができるようにするコンテンツ配信システムおよびコンテンツ配信方法に関する。
近年、インターネットなどのネットワークを介した動画配信が盛んに行われている。例えば、カメラで撮影された画像のデータ、マイクで集音された音声のデータなどを、配信サーバでエンコードしてネットワーク上にマルチキャストし、これらのデータをネットワークに接続された端末が受信しながら同時に再生を行うストリーミング配信も普及している。
また、近年のストリーミング配信では、画像、音声などのデータに加えてメタデータをマルチキャストすることにより、端末で再生される画像にキャプションなどが重畳されて表示されることも多い。
このようなストリーミング配信を利用して、例えば、eラーニングシステム、Webラーニングシステムなどが提供されている。これにより、例えば、遠隔地にいる人にも同じ内容の講義を同時に提供でき、ネットワークを介して講義の受講者の理解度を確認することなどが可能となる。
また、近年のeラーニングシステム、Webラーニングシステムは、例えば、受講者がより積極的に講義に参加できるように、「対話型」、「双方向」を指向しており、いわゆるインタラクティブ化が進んでいる。例えば、ほぼ実時間に配信される画像や音声などのライブコンテンツとともに、チャットサービスなどのインタラクティブコンテンツを併用することも行われている。
このように、インタラクティブ化が進むと、例えば、ライブコンテンツとインタラクティブコンテンツとを重畳させて表示することが必要となってくる。しかし、放送波などを利用してコンテンツを配信する場合と異なり、インターネットなどのネットワークを介したストリーミング配信の場合、データを送信してからそのデータが再生されるまでの間の遅延が無視できない程度に大きいものとなる。
例えば、別々に配信されるコンテンツとメタデータとを受信してコンテンツとメタデータとを自動的に対応付ける技術が提案されている(例えば、特許文献1参照)。
また、例えば、チャットサービス等のインタラクティブコンテンツとライブコンテンツを、同期させて提供することで生ずるチャットのコメント表示の待ち時間によるユーザの不安を軽減させる技術が提案されている(例えば、特許文献2参照)。
しかしながら、上述したように、近年のeラーニングシステム、Webラーニングシステムでは、インタラクティブ化が進んでおり、このような状況の中で、例えば、講師と受講者との一体感を向上させ、より臨場感のある講義を提供することが期待されている。
さらに、eラーニングシステムなどに限らず、従来、放送波などを利用してコンテンツを配信することで提供されていた各種のサービスを、インターネットなどのネットワークを介してコンテンツをストリーミング配信することで実現することも期待されている。これにより、従来以上に多様性に富んだインタラクティブなサービスの提供が期待されるからである。
本発明はこのような状況に鑑みてなされたものであり、ネットワークを介したストリーミング配信において、多様性に富んだインタラクティブなサービスの提供を可能とし、ユーザ同士の一体感を向上させることができるようにするものである。
本発明の一側面は、ネットワークを介して接続されるコンテンツ配信サーバと、複数の再生装置と、管理サーバとからなるコンテンツ配信システムであって、前記再生装置は、撮影された画像をリアルタイムでエンコードして得られたデータを含むコンテンツであって、前記コンテンツ配信サーバからネットワークを介して送信されるコンテンツのデータを受信するとともに再生するストリーミング再生手段と、前記再生されるコンテンツのデータに付されたタイムスタンプに基づいて再生時刻を特定する再生時刻特定手段と、前記特定された再生時刻を、予め設定された時間間隔で前記管理サーバに通知する再生時刻通知手段と、前記ネットワークを介して送信され、前記コンテンツの再生時刻と関連する第1のメタデータを受信して、前記第1のメタデータに付されたタイムスタンプに対応する再生時刻において、前記コンテンツの画像とともに前記第1のメタデータに対応する情報を表示する第1のメタデータ処理手段と、前記再生時刻に対応するタイムスタンプを付した第2のメタデータを、前記ネットワークを介して送信する第2のメタデータ処理手段とを備え、前記管理サーバは、前記複数の再生装置によりそれぞれ通知された再生時刻と実際の時刻とを比較することにより、前記複数の再生装置のそれぞれの遅延時間を特定する遅延特定手段と、前記第1のメタデータまたは前記第2のメタデータ、並びに前記特定された前記複数の再生装置のそれぞれの遅延時間に係る情報を表示するための表示データを生成する表示データ生成手段とを備えるコンテンツ配信システムである。
前記コンテンツ配信サーバは、講師による講義の画像を撮影してリアルタイムでエンコードして得られたデータを含むコンテンツを配信し、前記再生装置は、前記講師からの質問が記述された前記第1のメタデータを受信して前記コンテンツの画像とともに表示し、前記質問に対する応答を記述した前記第2のメタデータを、前記ネットワークを介して送信するようにすることができる。
本発明の一側面は、ネットワークを介して接続されるコンテンツ配信サーバと、複数の再生装置と、管理サーバとからなるコンテンツ配信システムのコンテンツ配信方法であって、前記再生装置は、ストリーミング再生手段が、撮影された画像をリアルタイムでエンコードして得られたデータを含むコンテンツであって、前記コンテンツ配信サーバからネットワークを介して送信されるコンテンツのデータを受信するとともに再生し、再生時刻特定手段が、前記再生されるコンテンツのデータに付されたタイムスタンプに基づいて再生時刻を特定し、再生時刻通知手段が、前記特定された再生時刻を、予め設定された時間間隔で前記管理サーバに通知し、第1のメタデータ処理手段が、前記ネットワークを介して送信され、前記コンテンツの再生時刻と関連する第1のメタデータを受信して、前記第1のメタデータに付されたタイムスタンプに対応する再生時刻において、前記コンテンツの画像とともに前記第1のメタデータに対応する情報を表示し、第2のメタデータ処理手段が、前記再生時刻に対応するタイムスタンプを付した第2のメタデータを、前記ネットワークを介して送信しステップを含み、前記管理サーバは、遅延特定手段が、前記複数の再生装置によりそれぞれ通知された再生時刻と実際の時刻とを比較することにより、前記複数の再生装置のそれぞれの遅延時間を特定し、表示データ生成手段が、前記第1のメタデータまたは前記第2のメタデータ、並びに前記特定された前記複数の再生装置のそれぞれの遅延時間に係る情報を表示するための表示データを生成するステップを含むコンテンツ配信方法である。
本発明の一側面においては、再生装置により、撮影された画像をリアルタイムでエンコードして得られたデータを含むコンテンツであって、前記コンテンツ配信サーバからネットワークを介して送信されるコンテンツのデータが受信されるとともに再生され、前記再生されるコンテンツのデータに付されたタイムスタンプに基づいて再生時刻が特定され、前記特定された再生時刻が、予め設定された時間間隔で前記管理サーバに通知され、前記ネットワークを介して送信され、前記コンテンツの再生時刻と関連する第1のメタデータが受信されて、前記第1のメタデータに付されたタイムスタンプに対応する再生時刻において、前記コンテンツの画像とともに前記第1のメタデータに対応する情報が表示され、前記再生時刻に対応するタイムスタンプを付した第2のメタデータが、前記ネットワークを介して送信される。また、管理サーバにより、前記複数の再生装置によりそれぞれ通知された再生時刻と実際の時刻とを比較することにより、前記複数の再生装置のそれぞれの遅延時間が特定され、前記第1のメタデータまたは前記第2のメタデータ、並びに前記特定された前記複数の再生装置のそれぞれの遅延時間に係る情報を表示するための表示データが生成される。
本発明によれば、ネットワークを介したストリーミング配信において、多様性に富んだインタラクティブなサービスの提供を可能とし、ユーザ同士の一体感を向上させることができる。
以下、図面を参照して、本発明の実施の形態について説明する。
まず、従来の技術の問題点について説明する。
近年、インターネットなどのネットワークを介した動画配信が盛んに行われている。ストリーミング配信においては、コンテンツのデータを配信サーバから送信し、ネットワークに接続された端末が、そのデータを受信しながら同時に再生を行う。また、例えば、カメラで撮影された画像のデータ、マイクで集音された音声のデータなどを、配信サーバでエンコードしてネットワーク上にマルチキャストすることで、画像、音声をほぼ実時間で配信することもできる。ほぼ実時間でのコンテンツのストリーミング配信は、ライブ配信とも称される。
図1は、従来のストリーミング配信システムにおけるライブ配信を説明する図である。同図においては、例えば、スタジオ11において撮影、集音された画像や音声などのコンテンツのデータが、インターネット10を介して会場12および会場13に送信される。
会場12および会場13には、例えば、インターネットに接続されたパーソナルコンピュータなどの端末が設置されており、各端末は、コンテンツのデータを受信しながら再生する。
しかし、放送波などを利用してコンテンツを配信する場合と異なり、インターネットなどのネットワークを介したストリーミング配信の場合、データを送信してからそのデータが再生されるまでの間の遅延が無視できない程度に大きいものとなる。
例えば、スタジオ11において所定の時刻に撮影された画像が、数秒から数分経過後に会場12および会場13の端末において再生されることになる。スタジオから各会場までのネットワークの輻輳状況、各端末の処理能力などに応じてデータを送信してからそのデータが再生されるまでの間の遅延時間が異なるためである。
また、例えば、コンテンツの画像と音声を同期させるなどするために、コンテンツのデータにタイムスタンプが付加される。
図1の例では、スタジオ11において、撮影が開始されてから経過した時間により表される時刻(現場時刻と称することにする)が、「10:00:00(10分0.0秒を意味する)」とされている。
一方、会場12の端末において再生された画像に対応する時刻(再生時刻と称することにする)は、「9:58:30」とされており、会場13の端末において再生された画像に対応する時刻は、「9:59:10」とされている。つまり、コンテンツの先頭の時刻を「00:00:00」として当該端末によって再生されているポイント(画像)までの撮影に要した経過時間が再生時刻として表示されている。なお、再生時刻は、例えば、コンテンツのデータに付加されたタイムスタンプに基づいて特定されるようにすることができる。
このように、ライブ配信によりコンテンツを配信する場合、スタジオなどの撮影場所と、会場などの受信場所との間で遅延が発生し、さらに、その遅延が各受信場所によって異なるものとなる。
また、近年、ライブ配信されるコンテンツにおいては、「対話型」、「双方向」を指向する傾向にあり、いわゆるインタラクティブ化が進んでいる。例えば、ライブ配信されるコンテンツとともに、チャットサービスなどのインタラクティブコンテンツを併用することも行われている。この場合、ライブ配信されるコンテンツとインタラクティブコンテンツを構成する文字列などのメタデータとを重畳させて表示することが必要となってくる。この際、画像とメタデータは同期させて表示することが望ましい。すなわち、現場時刻tに撮影場所で入力されたメタデータは、再生時刻tで受信場所の端末の画面に表示されることがのぞましい。
つまり、インタラクティブコンテンツにおけるメタデータは、ライブ配信されるコンテンツの再生時刻と関連している。
図1を参照して上述したようなライブ配信における遅延を考慮して、例えば、インタラクティブコンテンツに、ライブ配信されるコンテンツと同期させるためのタイムスタンプを付加することで、現場時刻tに撮影場所で入力されたメタデータは、再生時刻tで受信場所の端末の画面に表示されるようにすることができる。
しかしながら、インタラクティブコンテンツのメタデータは、受信場所でも入力することが可能であり、例えば、受信場所で入力されたメタデータをそのまま配信すると、画像とメタデータを同期させて配信することができない。このように、従来の技術では、インタラクティブコンテンツのメタデータを常に適切に同期させることができないという問題があった。
さらに、例えば、ライブ配信されるコンテンツとともに、インタラクティブコンテンツを併用するストリーミング配信システムを利用したeラーニングシステム、Webラーニングシステムなどを提供する場合、次のような問題も想定される。
例えば、eラーニングシステムでは、インタラクティブコンテンツのメタデータにより講師の質問およびそれに対する受講者の回答、講義の内容についての受講者からの質問などを表示することが想定される。この場合、講師は、受講者からの回答や質問などの反応を待ってから講義を進める必要がある。多数の受講者の理解の度合、講義への集中の度合などを考慮して講義を進めなければ、単なるビデオ講義とほとんど変わらないものとなってしまうからである。
また、特に、講師と生徒とで討論をしながら、講義を進めていく討論型講義を導入したい場合、講師は、受講者からの回答や質問などの反応を待ってから講義を進める必要がある。各受講者に平等に発言の機会を与える必要があるからであり、また、そのようにすることで、受講者の講義への参加意識を高めて講義の臨場感を高めることができるからである。
しかしながら、従来の技術では、撮影場所にいる講師は、各受信場所の受講者の端末における遅延時間を把握できないので、討論型講義などを導入しづらいという問題があった。つまり、従来の技術によるeラーニングシステムでは、実際に教室で行われる講義のような臨場感は得られ難いものであった。
そこで、本発明においては、上述のような問題を解決できるようにする。
図2は、本発明の一実施の形態に係るストリーミング配信システム100の構成例を示す図である。同図に示されるストリーミング配信システム100は、例えば、eラーニングシステムとして構成される。
図2に示されるように、ストリーミング配信システム100においては、スタジオ101で撮影され、集音された講師121による講義の画像、音声などのコンテンツのデータがインターネットなどのネットワーク110を介して会場102−1、会場102−2、・・・にいる受講者の端末に送信される。この例では、会場102−1において、受講者122が端末150を利用して講義を受講している。
なお、この例では、会場102−1に受講者が1人だけいる例が示されているが、多数の受講者がそれぞれの端末を利用して講義を受講するようにしてもよい。また、同図には、会場102−1にのみ、受講者と端末が図示されているが、会場102−2、・・・においても、やはり受講者が端末を利用して講義を受講しているものとする。
端末150は、例えば、パーソナルコンピュータにより構成され、ネットワーク110を介して送信されたコンテンツのデータを受信しながら再生する。
また、ストリーミング配信システム100では、ほぼ実時間でのコンテンツのストリーミング配信が行われる。つまり、コンテンツのライブ配信が行われる。
すなわち、カメラ131で撮影および集音された講師121による講義の画像および音声は、エンコーダ141においてリアルタイムでエンコードされ、ビデオ配信サーバ142に供給される。この例では、エンコーダ141のみが示されているが、必要に応じて複数のエンコーダが設けられるようにしてもよい。
なお、コンテンツのデータを再生するときの同期を考慮して、コンテンツのデータにタイムスタンプが付加される。コンテンツのデータに付加されるタイムスタンプは、例えば、コンテンツの画像のデータの最初のフレームの画像が撮影されてからの経過時間を識別するための情報とされる。
ビデオ配信サーバ142は、コンテンツの再生時の画像や音声の品質を向上させるために、コンテンツのデータを各会場の各端末にネットワーク110を介して送信するようになされている。端末150では、受信したコンテンツのデータをデコードすることによりコンテンツのデータが再生される。
また、図2に示されるストリーミング配信システム100においては、スタジオ101から送信された情報に各会場の受講者が応答したり、受講者の1人が発信した情報を他の受講者の端末の画面上に表示させることができるようにするインタラクティブコンテンツが導入されている。インタラクティブコンテンツは、実際には、例えば、メタデータ配信サーバ143を介して、ネットワーク110上で送受信されるGUIのデータなどのメタデータにより構成される。
例えば、スタジオ101には、パーソナルコンピュータなどにより構成される専用端末132が設置されており、例えば、受講者からの応答を期待して講師121が発した質問を、講義助手123がテキストデータとして入力する。専用端末132は、講義助手123により入力されたテキストデータを含んで構成されるGUIなどのデータを生成するようになされている。このGUIは、例えば、講師の質問を記載した文字列とともに、その質問に「はい」または「いいえ」で回答できるようなボタンが付されたものとして受講者の端末に表示される。
また、例えば、専用端末132により、講義の内容(例えば、講師121による発言の内容)などを翻訳した文字列を表示させるためのテキストデータを含んで構成されるGUIなどのデータが生成される。
例えば、受講者122の端末150の画面には、コンテンツ画像表示領域151、および、メタデータ表示領域152が設けられている。
コンテンツ画像表示領域151には、講師121による講義の画像が表示される。なお、講義の音声は、図示せぬ端末150のスピーカから出力される。メタデータ表示領域152には、講師の質問を記載した文字列とともに、その質問に「はい」または「いいえ」で回答できるようなボタンが付されたGUIなどが表示される。その他、メタデータ表示領域152には、他の受講者による質問の内容が記載された文字列として構成されるメタデータ、講師の発言を他の言語に翻訳して記載した文字列として構成されるメタデータなどが必要に応じて表示される。さらに、メタデータ表示領域152には、講師への質問などを文字列として入力するための領域なども必要に応じて表示される。
なお、コンテンツ画像表示領域151、および、メタデータ表示領域152を別々に設けることなく、コンテンツの画像にメタデータが重畳されて表示されるようにしても構わない。
管理サーバ144は、例えば、ストリーミング配信システム100における各端末の再生時刻を管理するようになされている。
例えば、受講者122が講義の受講を開始する際に、端末150が管理サーバ144にアクセスする。そして、管理サーバ144は、端末150に固有のIDを割り当てて、そのIDを端末150に送信する。なお、専用端末132も、例えば、講義のコンテンツが配信されるのに先立って端末150にアクセスするものとする。管理サーバ144は、専用端末132に特殊なIDを割り当てて、そのIDを専用端末132に送信するものとする。専用端末132は、例えば、端末150などのように受講者が利用する端末ではないので、特殊なIDが割り当てられる。
また、管理サーバ144は、ビデオ配信サーバ142との通信により、エンコーダ141から供給される画像のデータのタイムスタンプなどを解析し、現場時刻を特定する。
なお、エンコーダが複数設けられる場合、それぞれのエンコーダにおける配信開始時刻が異なる場合もある。例えば、エンコーダが複数設けられている場合、管理サーバ144は、エンコーダ毎に配信開始時刻を特定するようになされている。
さらに、ストリーミング配信システム100における各端末は、定期的に管理サーバ144にアクセスするようになされている。この際、各端末は、現在自分が再生して表示しているコンテンツの画像に対応するタイムスタンプなどに基づいて再生時刻を特定し、管理サーバ144に通知する。
また、専用端末132は、定期的に管理サーバ144にアクセスし、現場時刻を取得するようになされている。
図3は、管理サーバ144の内部に記憶されるテーブルの例を示す図である。同図には、端末IDと再生時刻とが対応付けられたテーブルが記載されている。なお、例えば、端末ID「0001」は、専用端末132に割り当てられる特殊なIDとされ、この場合、端末ID「0001」に対応する再生時刻「2:10:30」は、現場時刻を表す。
管理サーバ144は、例えば、図3に示されるようなテーブルのデータを、各端末からのアクセスの都度更新することにより、各端末における再生時刻を管理する。
例えば、受講者からの応答を期待して講師121が発した質問を、講義助手123がテキストデータとして専用端末132に入力した場合、専用端末132は、現場時刻に対応するタイムススタンプを付加したメタデータを生成し、メタデータ配信サーバ143に送信する。
また、例えば、受講者122が、メタデータ表示領域152に表示されたGUIを操作して講師からの質問に回答する際に、端末150は、質問への回答として送信されるメタデータに再生時刻に対応するタイムスタンプを付加する。あるいはまた、例えば、受講者122が、講義の内容に対する質問を入力する際に、端末150は、質問として送信されるメタデータに再生時刻に対応するタイムスタンプを付加する。そして、タイムスタンプが付されたメタデータがメタデータ配信サーバ143に送信される。
さらに、専用端末132、端末150を含む各端末は、定期的にメタデータ配信サーバ143にアクセスし、自分宛てのメタデータを取得するようになされている。例えば、端末150は、メタデータ配信サーバ143にアクセスして取得した自分宛てのメタデータを、メタデータに付加されたタイムスタンプに基づいて、コンテンツの画像と同期させて表示させる。例えば、講師からの質問などのメタデータは、ライブ配信される講義のコンテンツの再生時刻と関連しているからである。
また、例えば、専用端末132は、メタデータ配信サーバ143にアクセスして取得した自分宛てのメタデータを集計するなどして表示する。なお、メタデータ配信サーバ143は、例えば、専用端末132と一体化されて構成されるようにしても構わない。
また、専用端末132は、例えば、図3に示されるようなテーブルのデータを管理サーバ144から取得し、各受講者の端末における遅延時間などに係るデータベースを作成する。そして、専用端末132は、各受講者の端末における遅延時間などを識別するための情報を生成して講師121などに提示する。このようにすることで、例えば、講師121は、各受講者に質問や発言などをする機会を充分に与えながら講義を進めることができる。
図4は、専用端末132の内部に記憶されるデータベース200の構成例を示す図である。
同図の例では、データベース200は、現在時刻201が記録されている。現在時刻201は、例えば、スタジオ101の現在時刻を24時間表記した情報とされ、例えば、専用端末132の内部の計時機能に基づいて逐次更新される。
また、データベース200には、開始時刻情報202が記録されている。開始時刻情報202は、例えば、コンテンツの配信が開始された時刻を24時間表記した情報とされる。同図に示される「配信ポイント」は、例えば、エンコーダを識別するためのURLなどの情報とされ、複数のエンコーダのそれぞれ(ここでは、配信ポイント1および配信ポイント2)についての配信開始時刻が記録されている。
さらに、データベース200には、受講者別遅延情報203が記録されている。受講者別遅延情報203は、管理サーバ144の内部に記憶される端末IDと再生時刻とが対応付けられたテーブルに基づいて生成される情報とされる。すなわち、同図には図示されていないが、受講者別遅延情報203を構成するレコードは、それぞれ固有の端末IDに対応づけられる。
受講者別遅延情報203における「配信ポイント」は、例えば、当該レコードに対応する端末IDを有する端末が受信したコンテンツのデータをエンコードしたエンコーダを特定する情報とされる。なお、端末IDとエンコーダとの対応づけは、管理サーバ144により事前に行われているものとする。
受講者別遅延情報203における「再生時刻」は、例えば、図3に示されるようなテーブルにおける再生時刻が記述される。すなわち、当該レコードに対応する端末IDを有する端末における再生時刻とされる。なお、上述したように、各端末における再生時刻は、現在自分が再生して表示しているコンテンツの画像に対応するタイムスタンプなどに基づいて特定される。従って、各端末における再生時刻は、例えば、現在自分が再生して表示しているコンテンツの画像が撮影されたときの、最初のフレームの画像が撮影されてからの経過時間を表すものとなる。
なお、エンコーダが複数設けられており、それぞれのエンコーダの配信開始時刻が異なる場合、コンテンツの最初のフレームの画像がエンコーダ毎に異なるものとなる。例えば、第1のエンコーダの配信開始時刻が「13:10:51」である場合、スタジオ101で時刻「13:10:51」に撮影された画像がコンテンツの最初のフレームの画像となる。一方、第2のエンコーダの配信開始時刻が「13:21:00」である場合、スタジオ101で時刻「13:21:00」に撮影された画像がコンテンツの最初のフレームの画像となる。
受講者別遅延情報203における「時刻」は、開始時刻情報202に記述された各配信ポイントの配信開始時刻に、上述した「再生時刻」を加算して得られる時刻とされる。例えば、受講者別遅延情報203における「時刻」を、現在時刻201に記述された時刻と比較することにより、各端末における講義の進捗状況(実際にはコンテンツの再生状況)を実感できる。
受講者別遅延情報203における「遅延」は、受講者別遅延情報203の「時刻」と、現在時刻201に記述された時刻との差分として得られる時間である。
専用端末132は、例えば、図4に示されるようなデータベース200の情報をそのまま提示しいてもよいし、次に述べるように、グラフ化して提示するようにしてもよい。
図5は、専用端末132によりデータベース200の情報をグラフ化して提示する場合の例を示す図である。
同図に示されるグラフは、横軸が遅延時間とされ、縦軸が受講者数とされ、遅延時間毎の受講者数(実際には端末数)が棒グラフとして記述されている。例えば、講師121に図5に示されるようなグラフを提示することにより、講師121は、受講者全体の遅延を簡単に把握することができる。
図6は、専用端末132によりデータベース200の情報をグラフ化して提示する場合の別の例を示す図である。
同図に示されるグラフは、横軸が遅延時間とされ、縦軸が受講者数とされ、遅延時間毎の受講者数(実際には端末数)が棒グラフとして記述されている。また、同図の例では、吹き出しと垂直方向の点線によってイベントの発生が記述されている。ここでイベントは、例えば、所定のメタデータの表示、シーンの切り替わりなどを意味する。
すなわち、図6の点線より左側の端末では、再生されたコンテンツにおいて、所定のメタデータの表示、シーンの切り替わりなどのイベントが既に発生したことを意味し、図中の点線より右側の端末では、そのイベントが未だ発生していないことを意味する。従って、時間が経過するのに伴って、図中の点線がより右側に移動することになる。同図に示される吹き出しには、イベント名(ここでは「Evnt1」)と、既にイベントが発生した端末の割合(ここでは「38%」)が表示されている。
例えば、講師121に図6に示されるようなグラフを提示することにより、講師121は、イベントに対する反応をより的確に把握することができる。
図7は、専用端末132によりデータベース200の情報をグラフ化して提示する場合のさらに別の例を示す図である。
同図に示されるグラフは、横軸が遅延時間とされ、縦軸が受講者数とされ、遅延時間毎の受講者数(実際には端末数)が棒グラフとして記述されている。また、この例では、棒グラフの一部が別の色で表示されている。例えば、端末IDに基づいて、特別な受講者を識別することが可能である場合、その特別な受講者の受講者数に対応する部分を別の色で表示するようにしてもよい。
なお、特別な受講者とは、例えば、有料で講義を受講している受講者、講師に質問する権利を与えられている受講者、講義の内容の筆記を請け負っている受講者などの受講者とされる。
この例では、特別な受講者を1色で表示するようにしたが、特別な受講者の種類に応じて複数の色で表示されるようにしてもよい。
例えば、講師121に図7に示されるようなグラフを提示することにより、講師121は、受講の形態を意識しつつ、遅延の状況を的確に把握することができる。
図8は、専用端末132によりデータベース200の情報をグラフ化して提示する場合のさらに別の例を示す図である。
同図に示されるグラフは、横軸が遅延時間とされ、縦軸が受講者数とされ、遅延時間毎の受講者数(実際には端末数)が棒グラフとして記述されている。また、同図の例では、吹き出しと垂直方向の点線によってイベントの発生が記述されている。いまの場合、例えば、受講者からの回答を期待する講師からの質問のメタデータの表示がイベントとされる。
すなわち、図8の点線より左側の端末では、再生されたコンテンツにおいて、講師からの質問のメタデータの表示などのイベントが既に発生したことを意味し、図中の点線より右側の端末では、そのイベントが未だ発生していないことを意味する。従って、時間が経過するのに伴って、図中の点線がより右側に移動することになる。
また、図8の例では、棒グラフの一部が別の色で表示されている。例えば、上述した講師からの質問に対して回答した受講者の受講者数に対応する部分が別の色で表示される。
同図に示される吹き出しには、イベント名(ここでは「Question1」)と、既にイベント(講師からの質問)が発生した端末の割合(ここでは「62%」)/既に質問に回答した端末の割合(ここでは「41%」)が表示されている。
例えば、講師121に図8に示されるようなグラフを提示することにより、講師121は、イベントに対する反応をさらに的確に把握することができる。
ここでは、専用端末132により図4に示されるようなデータベース200が記録され、図5乃至図8に示されるような情報が提示されると説明したが、例えば、専用端末132が管理サーバ144と一体化されて構成されるようにしてもよい。すなわち、管理サーバ144により、図4に示されるようなデータベース200が記録され、図5乃至図8に示されるような情報が提示されるようにしてもよい。
さらに、管理サーバ144とメタデータ配信サーバ143とが一体化されて構成されるようにしても構わない。
また、ここでは、図4のデータベース200に記録された情報に基づいて、専用端末132により情報が提示される例について説明したが、例えば、端末150において情報が提示されるようにしてもよい。例えば、図4を参照して上述した受講者別遅延情報203における「遅延」に記述された時間がメタデータとしてそれぞれの端末に配信されるようにしてもよい。このようにすることで、例えば、各端末の受講者は、自分の端末で再生されているコンテンツの遅延を意識しながら講義に参加することができる。
このように本発明によれば、例えば、インタラクティブコンテンツのメタデータを常に適切に同期させることができないという問題を解決することができる。すなわち、専用端末132、端末150を含む各端末が、コンテンツの画像の時間軸に基づくタイムスタンプを付加してメタデータを生成するようにしたので、メタデータとコンテンツの画像とを常に適切に同期させるようにすることができる。
また、本発明によれば、討論型講義などを導入しづらいという問題を解決することができる。すなわち、上述したように、図5乃至図8に示されるような情報を提示できるので、講師121は、各受講者に質問や発言などをする機会を充分に与えながら講義を進めることができる。その結果、講師と全受講者との一体感が高められ、例えば、教室で行われる討論型講義と同様に臨場感のある講義を、eラーニングシステムにより提供することができる。
また、図3を参照して上述した例では、端末IDと再生時刻がテーブルのデータとして記憶されると説明したが、例えば、各端末におけるコンテンツの再生状態が合わせて記憶されるようにしてもよい。例えば、端末150などにおいて、ユーザの操作により、コンテンツの再生中に再生を一時停止させたり、過去に再生したシーンをもう一度再生させるなどすることができる。このような、各端末におけるコンテンツの再生状態が、各端末から管理サーバ144に通知され、端末IDに対応付けられてさらに記憶されるようにしてもよい。
あるいはまた、各端末に提供されるメタデータの種類などがテーブルのデータとして記憶されるようにしてもよい。例えば、端末毎に翻訳言語が異なる場合、翻訳言語を識別する情報がメタデータの種類とされる。また、例えば、視覚障害者や聴覚障害者向けに特別な情報が提供される場合、この特別な情報の提供の要否を識別する情報がメタデータの種類とされる。
図9は、管理サーバ144の内部に記憶されるテーブルの別の例を示す図である。同図の例では、再生時刻、再生状態、メタデータ種類1、およびメタデータ種類2が端末IDと対応付けられたテーブルが記載されている。なお同図の例におけるメタデータ種類1は、翻訳言語を識別するための情報とされ、メタデータ種類2は、視覚障害者や聴覚障害者向けの特別な情報の提供の要否を識別する情報とされる。この他にも、メタデータ種類3、メタデータ種類4、・・・のようにさらに情報が記憶されるようにしてもよい。
以上においては、受講者の端末においてコンテンツの画像とメタデータとが同じ画面に表示される例について説明した。すなわち、図2を参照して上述したように、端末150のディスプレイに表示される画面に、コンテンツ画像表示領域151、および、メタデータ表示領域152が設けられている例について説明した。
しかしながら、近年、スマートフォン、タブレットなどの小型端末が普及しており、このような小型端末では表示されるコンテンツの画像が小さい画像となってしまう。また、例えば、パーソナルコンピュータなどの場合と異なり、スマートフォンは持ち運びが容易であり、様々な会場に持ち込むことが可能である。
例えば、スマートフォンなどの小型端末を所持する受講者が、大型のディスプレイでコンテンツの画像を見ながら、メタデータを小型端末に表示させるようにすれば、より利便性の高いストリーミング配信システムを実現するこができる。
例えば、図10に示されるように、会場102−3には、大型のディスプレイを有する表示装置160が設置される。そして、会場102−3において講義を受講する受講者124−1と受講者124−2は、それぞれ自分の小型端末171−1と小型端末171−2を用いて講義を受講する。
なお、ここでの小型端末は、携行に適した電子機器等を一般的に称しているものであり、物理的な大小を区別する意味で「小型」と称しているわけではない。また、小型端末を個々に区別する必要のないときは、単に小型端末171と称することにする。
図10の例の場合、例えば、表示装置160のディスプレイには、コンテンツの画像が表示される。すなわち、図2の端末150の画面におけるコンテンツ画像表示領域151に表示される画像が、表示装置160のディスプレイ全体に表示される。
また、図10の例の場合、例えば、小型端末171−1と小型端末171−2のそれぞれのディスプレイには、メタデータに関する画面が表示される。すなわち、図2の端末150の画面におけるメタデータ表示領域152に表示される画像が、小型端末171のディスプレイ全体に表示される。
図10に示される例の場合、表示装置160がコンテンツを再生するので、表示装置160が定期的に管理サーバ144にアクセスし、再生時刻、再生状態などを通知するが、このままでは、小型端末171−1と小型端末171−2は、表示装置160における再生時刻を特定できない。
そこで、例えば、表示装置160のディスプレイの一部に、表示装置160に割り当てられた端末IDを表示させるようにする。例えば、図11に示されるように、表示装置160のディスプレイの一部に、表示装置160に割り当てられた端末IDに対応するコード画像161を表示させる。コード画像161は、例えば、QRコード(登録商標)として表示される。
小型端末171−1と小型端末171−2は、例えば、それぞれの小型端末に内蔵されたデジタルカメラなどによりコード画像161を撮影し、コード画像161を解析することにより表示装置160に割り当てられた端末IDを特定する。あるいはまた、ユーザが表示装置160に割り当てられた端末IDを入力するようにしてもよい。
そして、小型端末171−1と小型端末171−2は、定期的に管理サーバ144にアクセスし、再生時刻、再生状態などの情報を取得する。これにより、小型端末171−1と小型端末171−2は、例えば、表示装置160の再生時刻に対応するタイムスタンプが付されたメタデータをメタデータ配信サーバ143に送信することができる。
図12は、例えば、図10を参照して上述したように、表示装置と小型端末を導入する場合における、管理サーバ144の内部に記憶されるテーブルの例を示す図である。同図の例では、テーブルにコードを表示する領域が設けられている。図12の例の場合、例えば、端末ID「0001」は専用端末132とされ、端末ID「0002」は表示装置160とされ、端末ID「0003」および端末ID「0004」はそれぞれ小型端末171−1および小型端末171−2とされる。
図12に示されるように、端末ID「0002」乃至端末ID「0004」に対応するレコードには、コード「0002」が記述されており、いまの場合、表示装置160の端末IDがコードとして記憶されている。
例えば、図12に示されるテーブルのレコードを、コードをキーとしてソートすることにより、会場102−3で受講している受講者の端末IDを特定することも可能である。例えば、所定の会場で受講している受講者の端末IDを特定することにより、その会場の受講者のみを対象とするメタデータを生成して配信することも可能となる。
例えば、端末ID「0101」の表示装置が設置された会場は、聴覚障害者用の会場とし、当該会場で受講する受講者の端末には、講義内容のトランスクリプトを表示するためのメタデータが配信されるようにすることもできる。
また、このようにすることで、例えば、会場毎に受講者の数を簡単に集計することも可能となる。通常、1人の受講者が1台の小型端末を所持していると考えられるからである。このように、例えば、管理サーバ144の内部に記憶されるテーブルにおいてコードとして記述された情報により、各受講者がいる会場を特定することも可能となる。
次に、図13のフローチャートを参照して、図2に示されるストリーミング配信システム100における管理サーバ144の処理の例について説明する。なお、管理サーバ144は、例えば、内部にプロセッサ、メモリなどを有する構成とされ、メモリにロードされたプログラムをプロセッサで実行することにより、図13に示される各ステップの処理が実行される。
ステップS21において、管理サーバ144は、例えば、ビデオ配信サーバ142との通信により、エンコーダから供給される画像のデータのタイムスタンプなどを解析し、現場時刻を特定する。
ステップS22において、管理サーバ144は、端末150、小型端末171−1、小型端末171−2などの端末からのアクセスがあったか否かを判定し、アクセスがあったと判定されるまで待機する。
ステップS22において、アクセスがあったと判定された場合、処理は、ステップS23に進む。
ステップS23において、管理サーバ144は、ステップS22でアクセスがあったと判定された端末にIDを割り当て済か否かを判定する。なお、管理サーバ144は、例えば、別途、IPアドレスと端末IDを対応づけたテーブルなどを生成し、各端末にIDを割り当て済か否かを判定できるようになされている。
ステップS23において、IDを割り当て済ではないと判定された場合、処理は、ステップS24に進む。
ステップS24において、管理サーバ144は、ステップS22でアクセスがあったと判定された端末にIDを割り当てる。
なお、ステップS23において、IDを割り当て済であると判定された場合、ステップS24の処理はスキップされる。
ステップS25において、管理サーバ144は、ステップS22でアクセスがあったと判定された端末から再生時刻などの情報を取得する。このとき、例えば、再生時刻、再生状態、メタデータ種類、コードなどの情報が取得される。
ステップS26において、管理サーバ144は、ステップS25の処理で取得された情報に基づいてテーブルのデータを更新する。このとき、例えば、図3、図4、図12を参照して上述したテーブルのデータが更新される。
そして、処理は、ステップS21に戻り、それ以降の処理が繰り返し実行される。
このようにして、管理サーバの処理が実行される。
次に、図14のフローチャートを参照して、ストリーミング配信システム100における端末150の処理の例について説明する。この処理は、例えば、ビデオ配信サーバ142から配信されるコンテンツのデータを受信して再生する受信再生処理と並行して実行される。
なお、端末150は、例えば、内部にプロセッサ、メモリなどを有する構成とされ、メモリにロードされたプログラムをプロセッサで実行することにより、図14に示される各ステップの処理が実行される。
ステップS41において、端末150は、現在自分が再生して表示しているコンテンツの画像に対応するタイムスタンプなどに基づいて再生時刻を特定する。
ステップS42において、端末150は、管理サーバ144にアクセスする。
ステップS43において、端末150は、再生時刻などの情報を管理サーバ144に通知する。このとき、例えば、再生時刻、再生状態、メタデータ種類、コードなどの情報が通知され、図13のステップS25の処理で管理サーバ144によりこの情報が取得されることになる。
ステップS44において、端末150は、メタデータ配信サーバ143にアクセスする。
ステップS45において、端末150は、タイムスタンプを付したメタデータをメタデータ配信サーバ143に送信する。このとき、例えば、講義の内容についての質問として送信されるメタデータ、講師からの質問に対する回答として送信されるメタデータなどに、ステップS41の処理で特定された再生時刻に対応するタイムスタンプが付加される。
ステップS46において、端末150は、自分宛てのメタデータを、メタデータ配信サーバ143から受信する。このとき、例えば、講師からの質問として送信されたメタデータ、講義の内容の翻訳した文字列を表示させるためのメタデータなどのメタデータが受信される。
ステップS47において、端末150は、ステップS46で受信した自分宛てのメタデータを、当該メタデータに付されたタイムスタンプに基づいて特定される再生時刻において再生(画像の表示、音声の出力など)する。
なお、ステップS46およびステップS47の処理を先に実行してから、ステップS45の処理が実行されるようにしてもよい。
ステップS48において、端末150は、所定の時間が経過したか否かを判定し、所定の時間が経過したと判定されるまで待機する。
ステップS48において、所定の時間が経過したと判定された場合、処理は、ステップS41に戻り、それ以降の処理が繰り返し実行される。
このようにして、端末の処理が実行される。
次に、図15のフローチャートを参照して、ストリーミング配信システム100における小型端末171の処理の例について説明する。なお、小型端末171は、例えば、内部にプロセッサ、メモリなどを有する構成とされ、メモリにロードされたプログラムをプロセッサで実行することにより、図15に示される各ステップの処理が実行される。
ステップS61において、小型端末171は、受講者が視聴するコンテンツを再生する表示装置160のコードを取得する。このとき、例えば、上述したように、小型端末171に内蔵されたデジタルカメラなどによりコード画像161を撮影し、コード画像161を解析することにより表示装置160に割り当てられた端末IDが特定される。そして、表示装置160に割り当てられた端末IDがコードとして取得される。
ステップS62において、小型端末171は、管理サーバ144にアクセスする。
ステップS63において、小型端末171は、ステップS61で取得したコードを管理サーバ144に通知する。
ステップS64において、小型端末171は、再生時刻を特定する。このとき、小型端末171は、例えば、ステップS61で取得したコードに対応する端末IDを有する表示装置のレコードを、管理サーバ144が記憶するテーブルから検索し、当該表示装置の再生時刻を自分の再生時刻として特定する。
ステップS65において、小型端末171は、再生時刻などを管理サーバ144に通知する。なお、上述したコードもステップS65で通知されるようにしてもよい。このとき、例えば、再生時刻、メタデータ種類、コードなどの情報が通知され、図13のステップS25の処理で管理サーバ144によりこの情報が取得されることになる。
なお、小型端末171の再生時刻は、コードにより特定される表示装置160の再生時刻と等しいものなので、ステップS65では再生時刻を通知しないようにしてもよい。
ステップS66において、小型端末171は、メタデータ配信サーバ143にアクセスする。
ステップS67において、小型端末171は、タイムスタンプを付したメタデータをメタデータ配信サーバ143に送信する。このとき、例えば、講義の内容についての質問として送信されるメタデータ、講師からの質問に対する回答として送信されるメタデータなどに、ステップS64の処理で特定された再生時刻に対応するタイムスタンプが付加される。
ステップS68において、小型端末171は、自分宛てのメタデータを、メタデータ配信サーバ143から受信する。このとき、例えば、講師からの質問として送信されたメタデータ、講義の内容の翻訳した文字列を表示させるためのメタデータなどのメタデータが受信される。
ステップS69において、小型端末171は、ステップS68で受信した自分宛てのメタデータを、当該メタデータに付されたタイムスタンプに基づいて特定される再生時刻において再生(画像の表示、音声の出力など)する。
ステップS70において、小型端末171は、所定の時間が経過したか否かを判定し、所定の時間が経過したと判定されるまで待機する。
ステップS70において、所定の時間が経過したと判定された場合、処理は、ステップS61に戻り、それ以降の処理が繰り返し実行される。
このようにして、小型端末の処理が実行される。
次に、図16のフローチャートを参照して、ストリーミング配信システム100における専用端末132の処理の例について説明する。この処理は、例えば、図5乃至図8を参照して上述したような情報を提示するとき実行される。
なお、専用端末132は、例えば、内部にプロセッサ、メモリなどを有する構成とされ、メモリにロードされたプログラムをプロセッサで実行することにより、図16に示される各ステップの処理が実行される。
ステップS91において、専用端末132は、現在時刻を特定する。上述したように、スタジオ101の現在時刻を24時間表記した情報とされ、例えば、専用端末132の内部の計時機能に基づいて逐次更新される。
ステップS92において、専用端末132は、配信ポイント毎の配信開始時刻を特定する。上述したように、配信ポイントは、例えば、エンコーダを識別するためのURLなどの情報とされ、複数のエンコーダのそれぞれについての配信開始時刻が特定される。
ステップS93において、専用端末132は、ステップS91で特定された現在時刻、ステップS92で特定された配信ポイント毎の配信開始時刻、および、管理サーバ144の内部に記憶される端末IDと再生時刻とが対応付けられたテーブルに基づいてデータベースを生成または更新する。
このとき、例えば、受講者別遅延情報203の各レコードが生成または更新されて、図4に示されるデータベース200が生成または更新される。
ステップS94において、専用端末132は、ステップS93の処理で生成または更新されたデータベースに記録されている情報に基づいて、グラフのデータを生成する。
ステップS95において、専用端末132は、ステップS94の処理で生成されたグラフのデータに基づいてグラフを表示する。このとき、例えば、図5乃至図8に示されるようなグラフが表示される。
このようにして、専用端末の処理が実行される。
なお、上述したように、例えば、専用端末132が管理サーバ144と一体化されて構成されるようにしてもよい。すなわち、図16に示される処理は、管理サーバ144により実行されるようにしてもよい。
以上においては、本発明のストリーミング配信システム100を、例えば、eラーニングシステムに適用する例について説明したが、例えば、スポーツ観戦に関するライブコンテンツ提供システムに適用することも可能である。
図17は、ストリーミング配信システム100を、スポーツ観戦に関するライブコンテンツ提供システムに適用する場合の例を示す図である。
同図に示されるライブコンテンツ提供システムでは、サッカースタジアム105の画像、音声のコンテンツがライブ配信される。なお、同図には、図示されていないが、図17の場合においても、図2を参照して上述した場合と同様に、カメラ131、専用端末132、エンコーダ141、ビデオ配信サーバ142、メタデータ配信サーバ143、および管理サーバ144が設けられる。
すなわち、図17の例の場合、サッカースタジアム105の画像、音声が図示せぬカメラ131で撮影、集音されてコンテンツのデータとして配信される。
同図の例の場合、サッカースタジアム105では、小型端末171−3乃至小型端末171−5を所持した観客が観戦している。なお、小型端末171−3乃至小型端末171−5は、サッカースタジアム105の電光掲示板などに表示されたQRコード(登録商標)に基づいてコードを取得するようになされている。また、小型端末171−3乃至小型端末171−5の再生時刻は、全て現場時刻とされるようになされている。
ネットワーク110を介して送信されるコンテンツのデータは、ユーザ宅106の端末150で受信されて再生される。端末150は、図2を参照して上述した場合と同様に動作する。
また、ネットワーク110を介して送信されるコンテンツのデータは、スポーツ観戦をしながら飲食できる飲食店(いわゆるスポーツカフェ)107に設置された表示装置160により受信されて再生される。スポーツカフェ107では、小型端末171−6乃至小型端末171−9を所持した客が表示装置160のディスプレイに表示されるサッカースタジアム105の画像を見てサッカーのゲームを観戦している。小型端末171−6乃至小型端末171−9は、図10、図11などを参照して上述した場合と同様に動作する。
このようにすることで、例えば、スタジアムにいる観客と、自宅にいるユーザと、スポーツカフェにいる客とが、同じサッカーのゲームを観戦してコメントなどのメタデータを送受信することができる。例えば、ゴールシーンでの感情の高まりを表す情報などをメタデータとして各端末から送信させるようにし、これらの情報を集計したメタデータを配信するようにすれば、ユーザ同士の一体感を向上させることができる。これにより、従来のサッカー観戦より一層興奮するコンテンツのライブ配信を実現することが可能となる。
なお、上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。上述した一連の処理をソフトウェアにより実行さ
せる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータにネットワークや記録媒体からインストールされる。また、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば図18に示されるような汎用のパーソナルコンピュータ700などに、ネットワークや記録媒体からインストールされる。
せる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータにネットワークや記録媒体からインストールされる。また、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば図18に示されるような汎用のパーソナルコンピュータ700などに、ネットワークや記録媒体からインストールされる。
図18において、CPU(Central Processing Unit)701は、ROM(Read Only Memory)702に記憶されているプログラム、または記憶部708からRAM(Random Access Memory)703にロードされたプログラムに従って各種の処理を実行する。RAM703にはまた、CPU701が各種の処理を実行する上において必要なデータなども適宜記憶される。
CPU701、ROM702、およびRAM703は、バス704を介して相互に接続されている。このバス704にはまた、入出力インタフェース705も接続されている。
入出力インタフェース705には、キーボード、マウスなどよりなる入力部706、LCD(Liquid Crystal display)などよりなるディスプレイ、並びにスピーカなどよりなる出力部707が接続されている。また、入出力インタフェース705には、ハードディスクなどより構成される記憶部708、モデム、LANカードなどのネットワークインタフェースカードなどより構成される通信部709が接続されている。通信部709は、インターネットを含むネットワークを介しての通信処理を行う。
入出力インタフェース705にはまた、必要に応じてドライブ710が接続され、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア711が適宜装着されている。そして、それらのリムーバブルメディアから読み出されたコンピュータプログラムが、必要に応じて記憶部708にインストールされる。
上述した一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、インターネットなどのネットワークや、リムーバブルメディア711などからなる記録媒体からインストールされる。
なお、この記録媒体は、図18に示される、装置本体とは別に、ユーザにプログラムを配信するために配布される、プログラムが記録されている磁気ディスク(フロッピディスク(登録商標)を含む)、光ディスク(CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク(MD(Mini-Disk)(登録商標)を含む)、もしくは半導体メモリなどよりなるリムーバブルメディア711により構成されるものだけでなく、装置本体に予め組み込まれた状態でユーザに配信される、プログラムが記録されているROM702や、記憶部708に含まれるハードディスクなどで構成されるものも含む。
なお、本明細書において上述した一連の処理は、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
100 ストリーミング配信システム, 101 スタジオ, 102 会場, 131 カメラ、 132 専用端末, 141 エンコーダ, 142 ビデオ配信サーバ, 143 メタデータ配信サーバ, 144 管理サーバ, 150 端末, 160 表示装置, 161 コード画像, 171 小型端末
Claims (3)
- ネットワークを介して接続されるコンテンツ配信サーバと、複数の再生装置と、管理サーバとからなるコンテンツ配信システムであって、
前記再生装置は、
撮影された画像をリアルタイムでエンコードして得られたデータを含むコンテンツであって、前記コンテンツ配信サーバからネットワークを介して送信されるコンテンツのデータを受信するとともに再生するストリーミング再生手段と、
前記再生されるコンテンツのデータに付されたタイムスタンプに基づいて再生時刻を特定する再生時刻特定手段と、
前記特定された再生時刻を、予め設定された時間間隔で前記管理サーバに通知する再生時刻通知手段と、
前記ネットワークを介して送信され、前記コンテンツの再生時刻と関連する第1のメタデータを受信して、前記第1のメタデータに付されたタイムスタンプに対応する再生時刻において、前記コンテンツの画像とともに前記第1のメタデータに対応する情報を表示する第1のメタデータ処理手段と、
前記再生時刻に対応するタイムスタンプを付した第2のメタデータを、前記ネットワークを介して送信する第2のメタデータ処理手段とを備え、
前記管理サーバは、
前記複数の再生装置によりそれぞれ通知された再生時刻と実際の時刻とを比較することにより、前記複数の再生装置のそれぞれの遅延時間を特定する遅延特定手段と、
前記第1のメタデータまたは前記第2のメタデータ、並びに前記特定された前記複数の再生装置のそれぞれの遅延時間に係る情報を表示するための表示データを生成する表示データ生成手段とを備える
コンテンツ配信システム。 - 前記コンテンツ配信サーバは、
講師による講義の画像を撮影してリアルタイムでエンコードして得られたデータを含むコンテンツを配信し、
前記再生装置は、
前記講師からの質問が記述された前記第1のメタデータを受信して前記コンテンツの画像とともに表示し、
前記質問に対する応答を記述した前記第2のメタデータを、前記ネットワークを介して送信する
請求項1に記載のコンテンツ配信システム。 - ネットワークを介して接続されるコンテンツ配信サーバと、複数の再生装置と、管理サーバとからなるコンテンツ配信システムのコンテンツ配信方法であって、
前記再生装置は、
ストリーミング再生手段が、撮影された画像をリアルタイムでエンコードして得られたデータを含むコンテンツであって、前記コンテンツ配信サーバからネットワークを介して送信されるコンテンツのデータを受信するとともに再生し、
再生時刻特定手段が、前記再生されるコンテンツのデータに付されたタイムスタンプに基づいて再生時刻を特定し、
再生時刻通知手段が、前記特定された再生時刻を、予め設定された時間間隔で前記管理サーバに通知し、
第1のメタデータ処理手段が、前記ネットワークを介して送信され、前記コンテンツの再生時刻と関連する第1のメタデータを受信して、前記第1のメタデータに付されたタイムスタンプに対応する再生時刻において、前記コンテンツの画像とともに前記第1のメタデータに対応する情報を表示し、
第2のメタデータ処理手段が、前記再生時刻に対応するタイムスタンプを付した第2のメタデータを、前記ネットワークを介して送信するステップを含み、
前記管理サーバは、
遅延特定手段が、前記複数の再生装置によりそれぞれ通知された再生時刻と実際の時刻とを比較することにより、前記複数の再生装置のそれぞれの遅延時間を特定し、
表示データ生成手段が、前記第1のメタデータまたは前記第2のメタデータ、並びに前記特定された前記複数の再生装置のそれぞれの遅延時間に係る情報を表示するための表示データを生成するステップを含む
コンテンツ配信方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012007863A JP2013150095A (ja) | 2012-01-18 | 2012-01-18 | コンテンツ配信システムおよびコンテンツ配信方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012007863A JP2013150095A (ja) | 2012-01-18 | 2012-01-18 | コンテンツ配信システムおよびコンテンツ配信方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013150095A true JP2013150095A (ja) | 2013-08-01 |
Family
ID=49047209
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012007863A Pending JP2013150095A (ja) | 2012-01-18 | 2012-01-18 | コンテンツ配信システムおよびコンテンツ配信方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013150095A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101406288B1 (ko) | 2014-01-02 | 2014-06-12 | 진종원 | 평생 학습 서비스 제공 방법 |
WO2022075418A1 (ja) * | 2020-10-09 | 2022-04-14 | ヤマハ株式会社 | 通信方法およびシステム |
-
2012
- 2012-01-18 JP JP2012007863A patent/JP2013150095A/ja active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101406288B1 (ko) | 2014-01-02 | 2014-06-12 | 진종원 | 평생 학습 서비스 제공 방법 |
WO2022075418A1 (ja) * | 2020-10-09 | 2022-04-14 | ヤマハ株式会社 | 通信方法およびシステム |
JP7426006B2 (ja) | 2020-10-09 | 2024-02-01 | ヤマハ株式会社 | 通信方法およびシステム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11570012B2 (en) | Systems and methods for virtual interactions | |
US10079993B2 (en) | System for juxtaposition of separately recorded videos | |
US20110202967A1 (en) | Apparatus and Method to Broadcast Layered Audio and Video Over Live Streaming Activities | |
JP2007028586A (ja) | 対話型マルチメディアコンテンツ制作システム | |
US11496330B2 (en) | Video playout integrated with video conferencing for a group-watch video system | |
JP2006174414A (ja) | 対話式マルチメディアコンテンツ配信システム | |
Gorman et al. | Immersive telepresence in theatre: performing arts education in digital spaces | |
JP2008096482A (ja) | 受信端末、ネットワーク学習支援システム、受信方法およびネットワーク学習支援方法 | |
Tennent et al. | The machine in the ghost: augmenting broadcasting with biodata | |
JP2013150095A (ja) | コンテンツ配信システムおよびコンテンツ配信方法 | |
JP2013150096A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP2021006894A (ja) | コンテンツ配信サーバ、コンテンツ作成装置、教育端末、コンテンツ配信プログラム、および教育プログラム | |
Chew et al. | Distributed immersive performance | |
JP7408506B2 (ja) | コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム | |
JP6766228B1 (ja) | 遠隔教育システム | |
JP2022016424A (ja) | ストリーミング配信及びテレビ会議のためのシステム | |
JP2005321443A (ja) | 発音学習支援方法、学習者端末及び処理プログラム並びに該プログラムを記録した記録媒体 | |
CN107852523B (zh) | 用于在终端之间同步媒体渲染的方法、终端和设备 | |
McCarthy | Steering Audience Engagement During Audio-Visual Performance | |
JP5777233B1 (ja) | 動画生成装置及び動画生成方法 | |
CN111726692B (zh) | 音视图数据的互动播放方法 | |
JP7137278B2 (ja) | 再生制御方法、制御システム、端末装置およびプログラム | |
KR100874024B1 (ko) | 대화형 콘텐츠를 중계하는 중계기, 방법 및 그 기록매체 | |
Geistweidt et al. | The World Opera: A New Global Format for the Business of Opera | |
Conard | A new proscenium: exploring interactive live performance in a socially distant digital world |