JP2013150096A - Information processor, information processing method, and program - Google Patents

Information processor, information processing method, and program Download PDF

Info

Publication number
JP2013150096A
JP2013150096A JP2012007864A JP2012007864A JP2013150096A JP 2013150096 A JP2013150096 A JP 2013150096A JP 2012007864 A JP2012007864 A JP 2012007864A JP 2012007864 A JP2012007864 A JP 2012007864A JP 2013150096 A JP2013150096 A JP 2013150096A
Authority
JP
Japan
Prior art keywords
time
identification information
terminal
playback
management server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012007864A
Other languages
Japanese (ja)
Inventor
Yutaka Sakane
裕 坂根
Yoichi Takebayashi
洋一 竹林
Masakata Minami
正名 南
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
DIGITAL SENSATION CO Ltd
Original Assignee
DIGITAL SENSATION CO Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DIGITAL SENSATION CO Ltd filed Critical DIGITAL SENSATION CO Ltd
Priority to JP2012007864A priority Critical patent/JP2013150096A/en
Publication of JP2013150096A publication Critical patent/JP2013150096A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide interactive services of great variety in streaming distribution via a network, thereby improving a sense of unity of users.SOLUTION: In a site 102-3, a display apparatus 160 with a large display is installed, and a trainee 124-1 and a trainee 124-2 of a lecture take the lecture respectively using their small terminal 171-1 and small terminal 171-2. On a part of the display of the display apparatus 160, a code image 161 is displayed and imaged with a digital camera incorporated in each small terminal to identify a terminal ID assigned to the display apparatus 160. Each small terminal accesses a management server regularly to acquire information on a reproduction time, a reproduction state, etc. of the display apparatus 160.

Description

本発明は、情報処理装置、情報処理方法、およびプログラムに関し、特に、ネットワークを介したストリーミング配信において、多様性に富んだインタラクティブなサービスの提供を可能とし、ユーザ同士の一体感を向上させることができるようにする情報処理装置、情報処理方法、およびプログラムに関する。   The present invention relates to an information processing apparatus, an information processing method, and a program, and in particular, can provide a variety of interactive services in streaming distribution via a network, and improve a sense of unity between users. The present invention relates to an information processing apparatus, an information processing method, and a program.

近年、インターネットなどのネットワークを介した動画配信が盛んに行われている。例えば、カメラで撮影された画像のデータ、マイクで集音された音声のデータなどを、配信サーバでエンコードしてネットワーク上にマルチキャストし、これらのデータをネットワークに接続された端末が受信しながら同時に再生を行うストリーミング配信も普及している。   In recent years, video distribution via networks such as the Internet has been actively performed. For example, image data captured by a camera, audio data collected by a microphone, etc. are encoded by a distribution server and multicast on the network, and these data are received simultaneously by a terminal connected to the network. Streaming distribution for playback is also popular.

また、近年のストリーミング配信では、画像、音声などのデータに加えてメタデータをマルチキャストすることにより、端末で再生される画像にキャプションなどが重畳されて表示されることも多い。   In recent streaming distribution, captions and the like are often superimposed and displayed on an image reproduced on a terminal by multicasting metadata in addition to data such as image and sound.

このようなストリーミング配信を利用して、例えば、eラーニングシステム、Webラーニングシステムなどが提供されている。これにより、例えば、遠隔地にいる人にも同じ内容の講義を同時に提供でき、ネットワークを介して講義の受講者の理解度を確認することなどが可能となる。   For example, an e-learning system and a web learning system are provided using such streaming distribution. As a result, for example, a lecture having the same contents can be simultaneously provided to a person at a remote place, and the degree of understanding of the lecture students can be confirmed via the network.

また、近年のeラーニングシステム、Webラーニングシステムは、例えば、受講者がより積極的に講義に参加できるように、「対話型」、「双方向」を指向しており、いわゆるインタラクティブ化が進んでいる。例えば、ほぼ実時間に配信される画像や音声などのライブコンテンツとともに、チャットサービスなどのインタラクティブコンテンツを併用することも行われている。   In recent years, e-learning systems and Web learning systems are oriented toward “interactive” and “bidirectional” so that students can participate in lectures more actively. Yes. For example, an interactive content such as a chat service is also used together with live content such as images and sounds distributed almost in real time.

このように、インタラクティブ化が進むと、例えば、ライブコンテンツとインタラクティブコンテンツとを重畳させて表示することが必要となってくる。しかし、放送波などを利用してコンテンツを配信する場合と異なり、インターネットなどのネットワークを介したストリーミング配信の場合、データを送信してからそのデータが再生されるまでの間の遅延が無視できない程度に大きいものとなる。   As described above, when the interactive process progresses, for example, it becomes necessary to superimpose and display live content and interactive content. However, unlike the case where content is distributed using broadcast waves or the like, in the case of streaming distribution via a network such as the Internet, the delay between when the data is transmitted and when the data is played cannot be ignored. It will be big.

例えば、別々に配信されるコンテンツとメタデータとを受信してコンテンツとメタデータとを自動的に対応付ける技術が提案されている(例えば、特許文献1参照)。   For example, a technology has been proposed in which content and metadata that are distributed separately are received and the content and metadata are automatically associated with each other (see, for example, Patent Document 1).

また、例えば、チャットサービス等のインタラクティブコンテンツとライブコンテンツを、同期させて提供することで生ずるチャットのコメント表示の待ち時間によるユーザの不安を軽減させる技術が提案されている(例えば、特許文献2参照)。   In addition, for example, a technique has been proposed that reduces anxiety of a user due to a chat comment display waiting time caused by providing interactive content such as a chat service and live content in synchronization (see, for example, Patent Document 2). ).

特開2005−229509号公報JP 2005-229509 A 特開2004−350178号公報JP 2004-350178 A

しかしながら、上述したように、近年のeラーニングシステム、Webラーニングシステムでは、インタラクティブ化が進んでおり、このような状況の中で、例えば、講師と受講者との一体感を向上させ、より臨場感のある講義を提供することが期待されている。   However, as described above, recent e-learning systems and web learning systems are becoming more interactive. In such a situation, for example, the sense of unity between the lecturer and the student is improved, and the presence is more realistic. It is expected to provide some lectures.

さらに、eラーニングシステムなどに限らず、従来、放送波などを利用してコンテンツを配信することで提供されていた各種のサービスを、インターネットなどのネットワークを介してコンテンツをストリーミング配信することで実現することも期待されている。これにより、従来以上に多様性に富んだインタラクティブなサービスの提供が期待されるからである。   Furthermore, not only e-learning systems, but also various services that have been provided by distributing content using broadcast waves, etc., will be realized by streaming content via a network such as the Internet. It is also expected. This is because it is expected to provide interactive services that are more diverse than ever.

本発明はこのような状況に鑑みてなされたものであり、ネットワークを介したストリーミング配信において、多様性に富んだインタラクティブなサービスの提供を可能とし、ユーザ同士の一体感を向上させることができるようにするものである。   The present invention has been made in view of such a situation, and in streaming delivery via a network, it is possible to provide a variety of interactive services and improve the sense of unity between users. It is to make.

本発明の一側面は、ネットワークに接続された複数の再生装置により再生されるコンテンツのデータに付されたタイムスタンプに基づいて特定される再生時刻を、予め設定された時間間隔で前記複数の再生装置からそれぞれ取得する管理サーバと、前記ネットワークを介して通信する情報処理装置であって、撮影された画像をリアルタイムでエンコードして得られたデータを含むコンテンツをそれぞれ再生する前記複数の再生装置のうちの1つの再生装置に対応する識別情報を取得する識別情報取得手段と、前記識別情報取得手段により取得された前記再生装置の識別情報を、自分の識別情報と対応づけて前記管理サーバに通知する識別情報通知手段と、予め設定された時間間隔で前記管理サーバから、前記識別情報取得手段により取得された前記識別情報に対応する前記再生装置の再生時刻を取得する再生時刻取得手段とを備える情報処理装置である。   According to one aspect of the present invention, a plurality of playback times specified at time intervals set in advance are specified based on time stamps attached to content data played back by a plurality of playback devices connected to a network. An information processing apparatus that communicates via a network with a management server that is acquired from each of the apparatuses, and each of the plurality of playback apparatuses that reproduces content that includes data obtained by encoding captured images in real time Identification information acquisition means for acquiring identification information corresponding to one of the reproduction apparatuses, and notification of the identification information of the reproduction apparatus acquired by the identification information acquisition means to the management server in association with own identification information Identification information notifying means to be acquired by the identification information acquiring means from the management server at a preset time interval. An information processing apparatus and a reproduction time obtaining means for obtaining a reproduction time of the reproduction apparatus corresponding to the identification information.

前記コンテンツの再生時刻に関連するメタデータを、前記取得した再生時刻に対応するタイムスタンプを付して、前記管理サーバに前記ネットワークを介して送信する送信手段をさらに備えるようにすることができる。   The transmission apparatus may further include transmission means for transmitting the metadata related to the reproduction time of the content with a time stamp corresponding to the acquired reproduction time to the management server via the network.

前記ネットワークを介して受信された、前記コンテンツの再生時刻に関連するメタデータを、前記メタデータに付されたタイムスタンプに対応する前記再生装置の再生時刻において再生するメタデータ再生手段をさらに備えるようにすることができる。   Further provided is metadata reproduction means for reproducing the metadata related to the reproduction time of the content received via the network at the reproduction time of the reproduction device corresponding to the time stamp attached to the metadata. Can be.

前記情報処理装置は、前記再生装置により再生されるコンテンツを視聴するユーザによって所持され、1台の前記再生装置により再生されるコンテンツを、複数のユーザが視聴するようにすることができる。   The information processing apparatus is possessed by a user who views the content reproduced by the reproduction apparatus, and a plurality of users can view the content reproduced by one reproduction apparatus.

前記管理サーバによって、複数の前記情報処理装置によりそれぞれ通知された再生時刻と実際の時刻とを比較することにより、複数の前記情報処理装置のそれぞれの遅延時間が特定され、複数の前記情報処理装置のそれぞれの遅延時間に係る情報を表示するための表示データが生成されるようにすることができる。   By comparing the reproduction time notified by each of the plurality of information processing devices and the actual time by the management server, each delay time of the plurality of information processing devices is specified, and the plurality of information processing devices Display data for displaying information related to each of the delay times can be generated.

前記識別情報は、前記再生装置のディスプレイに画像として表示されるようにすることができる。   The identification information can be displayed as an image on the display of the playback device.

本発明の一側面は、ネットワークに接続された複数の再生装置により再生されるコンテンツのデータに付されたタイムスタンプに基づいて特定される再生時刻を、予め設定された時間間隔で前記複数の再生装置からそれぞれ取得する管理サーバと、前記ネットワークを介して通信する情報処理装置の情報処理方法であって、識別情報取得手段が、撮影された画像をリアルタイムでエンコードして得られたデータを含むコンテンツをそれぞれ再生する前記複数の再生装置のうちの1つの再生装置に対応する識別情報を取得し、識別情報通知手段が、前記識別情報取得手段により取得された前記再生装置の識別情報を、自分の識別情報と対応づけて前記管理サーバに通知し、再生時刻取得手段が、予め設定された時間間隔で前記管理サーバから、前記識別情報取得手段により取得された前記識別情報に対応する前記再生装置の再生時刻を取得するステップを含む情報処理方法である。   According to one aspect of the present invention, a plurality of playback times specified at time intervals set in advance are specified based on time stamps attached to content data played back by a plurality of playback devices connected to a network. An information processing method of an information processing apparatus that communicates via a network with a management server respectively acquired from the apparatus, wherein the identification information acquisition unit includes data obtained by encoding a captured image in real time Identification information corresponding to one of the plurality of playback devices is obtained, and the identification information notifying means uses the identification information of the playback device acquired by the identification information acquiring means as its own information. Notifying the management server in association with the identification information, the reproduction time acquisition means from the management server at a preset time interval, Serial is an information processing method comprising the steps of obtaining the reproduction time of the reproduction apparatus corresponding to the identification information acquired by the identification information acquisition unit.

本発明の一側面は、コンピュータを、ネットワークに接続された複数の再生装置により再生されるコンテンツのデータに付されたタイムスタンプに基づいて特定される再生時刻を、予め設定された時間間隔で前記複数の再生装置からそれぞれ取得する管理サーバと、前記ネットワークを介して通信する情報処理装置であって、撮影された画像をリアルタイムでエンコードして得られたデータを含むコンテンツをそれぞれ再生する前記複数の再生装置のうちの1つの再生装置に対応する識別情報を取得する識別情報取得手段と、前記識別情報取得手段により取得された前記再生装置の識別情報を、自分の識別情報と対応づけて前記管理サーバに通知する識別情報通知手段と、予め設定された時間間隔で前記管理サーバから、前記識別情報取得手段により取得された前記識別情報に対応する前記再生装置の再生時刻を取得する再生時刻取得手段とを備える情報処理装置として機能させるプログラムである。   According to one aspect of the present invention, a computer is configured to set a reproduction time specified based on a time stamp attached to data of content reproduced by a plurality of reproduction devices connected to a network at a predetermined time interval. An information processing apparatus that communicates via a network with a management server that is acquired from each of a plurality of playback apparatuses, and each of the plurality of contents that includes data obtained by encoding captured images in real time Identification information acquisition means for acquiring identification information corresponding to one of the reproduction apparatuses, and the management information associated with identification information of the reproduction apparatus acquired by the identification information acquisition means in association with own identification information Identification information notifying means for notifying the server, and the identification information acquisition means from the management server at a preset time interval. A program to function as an information processing apparatus and a reproduction time obtaining means for obtaining a reproduction time of the reproduction apparatus corresponding to the acquired identification information by.

本発明の一側面においては、撮影された画像をリアルタイムでエンコードして得られたデータを含むコンテンツをそれぞれ再生する前記複数の再生装置のうちの1つの再生装置に対応する識別情報が取得され、前記取得された前記再生装置の識別情報が、自分の識別情報と対応づけられて前記管理サーバに通知され、予め設定された時間間隔で前記管理サーバから、前記取得された前記識別情報に対応する前記再生装置の再生時刻が取得される。   In one aspect of the present invention, identification information corresponding to one playback device among the plurality of playback devices that respectively play back content including data obtained by encoding captured images in real time is acquired, The acquired identification information of the reproduction device is notified to the management server in association with its own identification information, and corresponds to the acquired identification information from the management server at a preset time interval. A playback time of the playback device is acquired.

本発明によれば、ネットワークを介したストリーミング配信において、多様性に富んだインタラクティブなサービスの提供を可能とし、ユーザ同士の一体感を向上させることができる。   According to the present invention, it is possible to provide a variety of interactive services in streaming delivery via a network, and to improve the sense of unity between users.

従来のストリーミング配信システムにおけるライブ配信を説明する図である。It is a figure explaining the live delivery in the conventional streaming delivery system. 本発明の一実施の形態に係るストリーミング配信システムの構成例を示す図である。It is a figure which shows the structural example of the streaming delivery system which concerns on one embodiment of this invention. 管理サーバの内部に記憶されるテーブルの例を示す図である。It is a figure which shows the example of the table memorize | stored inside a management server. 専用端末の内部に記憶されるデータベースの構成例を示す図である。It is a figure which shows the structural example of the database memorize | stored inside a dedicated terminal. 図4のデータベースの情報をグラフ化して提示する場合の例を示す図である。It is a figure which shows the example in the case of presenting the information of the database of FIG. 4 in a graph. 図4のデータベースの情報をグラフ化して提示する場合の別の例を示す図である。It is a figure which shows another example in the case of presenting the information of the database of FIG. 4 in a graph. 図4のデータベースの情報をグラフ化して提示する場合のさらに別の例を示す図である。It is a figure which shows another example in the case of presenting the information of the database of FIG. 4 in a graph. 図4のデータベースの情報をグラフ化して提示する場合のさらに別の例を示す図である。It is a figure which shows another example in the case of presenting the information of the database of FIG. 4 in a graph. 管理サーバの内部に記憶されるテーブルの別の例を示す図である。It is a figure which shows another example of the table memorize | stored inside a management server. 小型端末と表示装置を用いて講義を受講する形態を説明する図である。It is a figure explaining the form which takes a lecture using a small terminal and a display apparatus. コード画像の表示例を説明する図である。It is a figure explaining the example of a display of a code image. 管理サーバの内部に記憶されるテーブルのさらに別の例を示す図である。It is a figure which shows another example of the table memorize | stored inside a management server. 管理サーバの処理の例を説明するフローチャートである。It is a flowchart explaining the example of a process of a management server. 端末の処理の例を説明するフローチャートである。It is a flowchart explaining the example of a process of a terminal. 小型端末の処理の例を説明するフローチャートである。It is a flowchart explaining the example of a process of a small terminal. 専用端末の処理の例を説明するフローチャートである。It is a flowchart explaining the example of a process of a dedicated terminal. 本発明のストリーミング配信システムを、スポーツ観戦に関するライブコンテンツ提供システムに適用する場合の例を示す図である。It is a figure which shows the example in the case of applying the streaming delivery system of this invention to the live content provision system regarding sports watching. パーソナルコンピュータの構成例を示すブロック図である。And FIG. 16 is a block diagram illustrating a configuration example of a personal computer.

以下、図面を参照して、本発明の実施の形態について説明する。   Embodiments of the present invention will be described below with reference to the drawings.

まず、従来の技術の問題点について説明する。   First, problems of the conventional technology will be described.

近年、インターネットなどのネットワークを介した動画配信が盛んに行われている。ストリーミング配信においては、コンテンツのデータを配信サーバから送信し、ネットワークに接続された端末が、そのデータを受信しながら同時に再生を行う。また、例えば、カメラで撮影された画像のデータ、マイクで集音された音声のデータなどを、配信サーバでエンコードしてネットワーク上にマルチキャストすることで、画像、音声をほぼ実時間で配信することもできる。ほぼ実時間でのコンテンツのストリーミング配信は、ライブ配信とも称される。   In recent years, video distribution via networks such as the Internet has been actively performed. In streaming distribution, content data is transmitted from a distribution server, and a terminal connected to the network performs playback simultaneously while receiving the data. Also, for example, image data captured by a camera, audio data collected by a microphone, etc. are encoded by a distribution server and multicasted over the network, so that images and sounds can be distributed almost in real time. You can also. Streaming content distribution in near real time is also referred to as live distribution.

図1は、従来のストリーミング配信システムにおけるライブ配信を説明する図である。同図においては、例えば、スタジオ11において撮影、集音された画像や音声などのコンテンツのデータが、インターネット10を介して会場12および会場13に送信される。   FIG. 1 is a diagram for explaining live distribution in a conventional streaming distribution system. In the figure, for example, content data such as images and sounds shot and collected in the studio 11 is transmitted to the venue 12 and the venue 13 via the Internet 10.

会場12および会場13には、例えば、インターネットに接続されたパーソナルコンピュータなどの端末が設置されており、各端末は、コンテンツのデータを受信しながら再生する。   For example, a terminal such as a personal computer connected to the Internet is installed in the hall 12 and the hall 13, and each terminal plays while receiving content data.

しかし、放送波などを利用してコンテンツを配信する場合と異なり、インターネットなどのネットワークを介したストリーミング配信の場合、データを送信してからそのデータが再生されるまでの間の遅延が無視できない程度に大きいものとなる。   However, unlike the case where content is distributed using broadcast waves or the like, in the case of streaming distribution via a network such as the Internet, the delay between when the data is transmitted and when the data is played cannot be ignored. It will be big.

例えば、スタジオ11において所定の時刻に撮影された画像が、数秒から数分経過後に会場12および会場13の端末において再生されることになる。スタジオから各会場までのネットワークの輻輳状況、各端末の処理能力などに応じてデータを送信してからそのデータが再生されるまでの間の遅延時間が異なるためである。   For example, an image photographed at a predetermined time in the studio 11 is reproduced on the terminals of the venue 12 and the venue 13 after several seconds to several minutes have elapsed. This is because the delay time from when the data is transmitted to when the data is reproduced depends on the congestion status of the network from the studio to each venue, the processing capability of each terminal, and the like.

また、例えば、コンテンツの画像と音声を同期させるなどするために、コンテンツのデータにタイムスタンプが付加される。   Also, for example, a time stamp is added to the content data in order to synchronize the content image and sound.

図1の例では、スタジオ11において、撮影が開始されてから経過した時間により表される時刻(現場時刻と称することにする)が、「10:00:00(10分0.0秒を意味する)」とされている。   In the example of FIG. 1, in the studio 11, the time represented by the time elapsed since the start of shooting (referred to as the on-site time) is “10:00: 00 (10 minutes 0.0 seconds”). Yes) ”.

一方、会場12の端末において再生された画像に対応する時刻(再生時刻と称することにする)は、「9:58:30」とされており、会場13の端末において再生された画像に対応する時刻は、「9:59:10」とされている。つまり、コンテンツの先頭の時刻を「00:00:00」として当該端末によって再生されているポイント(画像)までの撮影に要した経過時間が再生時刻として表示されている。なお、再生時刻は、例えば、コンテンツのデータに付加されたタイムスタンプに基づいて特定されるようにすることができる。   On the other hand, the time corresponding to the image reproduced at the terminal of the hall 12 (hereinafter referred to as the reproduction time) is “9:58:30”, and corresponds to the image reproduced at the terminal of the hall 13. The time is “9:59:10”. That is, the elapsed time required for shooting up to the point (image) being played back by the terminal is displayed as the playback time with the top time of the content as “00:00:00”. The reproduction time can be specified based on, for example, a time stamp added to content data.

このように、ライブ配信によりコンテンツを配信する場合、スタジオなどの撮影場所と、会場などの受信場所との間で遅延が発生し、さらに、その遅延が各受信場所によって異なるものとなる。   As described above, when content is distributed by live distribution, a delay occurs between a shooting location such as a studio and a reception location such as a venue, and the delay varies depending on each reception location.

また、近年、ライブ配信されるコンテンツにおいては、「対話型」、「双方向」を指向する傾向にあり、いわゆるインタラクティブ化が進んでいる。例えば、ライブ配信されるコンテンツとともに、チャットサービスなどのインタラクティブコンテンツを併用することも行われている。この場合、ライブ配信されるコンテンツとインタラクティブコンテンツを構成する文字列などのメタデータとを重畳させて表示することが必要となってくる。この際、画像とメタデータは同期させて表示することが望ましい。すなわち、現場時刻tに撮影場所で入力されたメタデータは、再生時刻tで受信場所の端末の画面に表示されることがのぞましい。   In recent years, contents distributed lively tend to be “interactive” and “two-way”, and so-called interactive is progressing. For example, an interactive content such as a chat service is also used together with a content distributed live. In this case, it is necessary to superimpose and display the live-distributed content and metadata such as character strings constituting the interactive content. At this time, it is desirable to display the image and the metadata in synchronization. That is, it is preferable that the metadata input at the shooting location at the site time t is displayed on the terminal screen at the reception location at the playback time t.

つまり、インタラクティブコンテンツにおけるメタデータは、ライブ配信されるコンテンツの再生時刻と関連している。   That is, the metadata in the interactive content is related to the playback time of the content distributed live.

図1を参照して上述したようなライブ配信における遅延を考慮して、例えば、インタラクティブコンテンツに、ライブ配信されるコンテンツと同期させるためのタイムスタンプを付加することで、現場時刻tに撮影場所で入力されたメタデータは、再生時刻tで受信場所の端末の画面に表示されるようにすることができる。   Considering the delay in live distribution as described above with reference to FIG. 1, for example, by adding a time stamp for synchronizing interactive content with the content to be distributed live, at the shooting location at the site time t. The input metadata can be displayed on the terminal screen at the receiving location at the reproduction time t.

しかしながら、インタラクティブコンテンツのメタデータは、受信場所でも入力することが可能であり、例えば、受信場所で入力されたメタデータをそのまま配信すると、画像とメタデータを同期させて配信することができない。このように、従来の技術では、インタラクティブコンテンツのメタデータを常に適切に同期させることができないという問題があった。   However, the metadata of the interactive content can be input even at the reception location. For example, if the metadata input at the reception location is distributed as it is, the image and the metadata cannot be distributed in synchronization. As described above, the conventional technology has a problem that the metadata of the interactive content cannot always be properly synchronized.

さらに、例えば、ライブ配信されるコンテンツとともに、インタラクティブコンテンツを併用するストリーミング配信システムを利用したeラーニングシステム、Webラーニングシステムなどを提供する場合、次のような問題も想定される。   Furthermore, for example, when providing an e-learning system, a web learning system, or the like using a streaming distribution system that uses interactive content together with content that is distributed live, the following problems are also assumed.

例えば、eラーニングシステムでは、インタラクティブコンテンツのメタデータにより講師の質問およびそれに対する受講者の回答、講義の内容についての受講者からの質問などを表示することが想定される。この場合、講師は、受講者からの回答や質問などの反応を待ってから講義を進める必要がある。多数の受講者の理解の度合、講義への集中の度合などを考慮して講義を進めなければ、単なるビデオ講義とほとんど変わらないものとなってしまうからである。   For example, in the e-learning system, it is assumed that instructor's question and the student's answer to the question, the student's question about the contents of the lecture, etc. are displayed by the interactive content metadata. In this case, the lecturer needs to wait for a response such as an answer or question from the student before proceeding with the lecture. This is because if the lecture is not advanced in consideration of the degree of understanding of many students and the degree of concentration in the lecture, it will be almost the same as a simple video lecture.

また、特に、講師と生徒とで討論をしながら、講義を進めていく討論型講義を導入したい場合、講師は、受講者からの回答や質問などの反応を待ってから講義を進める必要がある。各受講者に平等に発言の機会を与える必要があるからであり、また、そのようにすることで、受講者の講義への参加意識を高めて講義の臨場感を高めることができるからである。   In particular, if you want to introduce a debate-type lecture where the lecturer and the student discuss and proceed with the lecture, the lecturer needs to wait for a response from the student and answer the question before proceeding with the lecture. . This is because it is necessary to give each student an opportunity to speak equally, and by doing so, the student's participation in the lecture can be raised and the sense of reality of the lecture can be enhanced. .

しかしながら、従来の技術では、撮影場所にいる講師は、各受信場所の受講者の端末における遅延時間を把握できないので、討論型講義などを導入しづらいという問題があった。つまり、従来の技術によるeラーニングシステムでは、実際に教室で行われる講義のような臨場感は得られ難いものであった。   However, the conventional technique has a problem that it is difficult to introduce a discussion-type lecture or the like because the lecturer at the shooting location cannot grasp the delay time at the terminal of the student at each reception location. In other words, with the conventional e-learning system, it was difficult to get a sense of reality like a lecture in an actual classroom.

そこで、本発明においては、上述のような問題を解決できるようにする。   Therefore, in the present invention, the above-described problems can be solved.

図2は、本発明の一実施の形態に係るストリーミング配信システム100の構成例を示す図である。同図に示されるストリーミング配信システム100は、例えば、eラーニングシステムとして構成される。   FIG. 2 is a diagram illustrating a configuration example of the streaming distribution system 100 according to the embodiment of the present invention. The streaming distribution system 100 shown in the figure is configured as an e-learning system, for example.

図2に示されるように、ストリーミング配信システム100においては、スタジオ101で撮影され、集音された講師121による講義の画像、音声などのコンテンツのデータがインターネットなどのネットワーク110を介して会場102−1、会場102−2、・・・にいる受講者の端末に送信される。この例では、会場102−1において、受講者122が端末150を利用して講義を受講している。   As shown in FIG. 2, in the streaming distribution system 100, content data such as lecture images and voices taken by the instructor 121, which are captured and collected by the studio 101, are sent to the venue 102- via the network 110 such as the Internet. 1 is transmitted to the terminals of the students in the venue 102-2,. In this example, the student 122 is taking a lecture using the terminal 150 in the venue 102-1.

なお、この例では、会場102−1に受講者が1人だけいる例が示されているが、多数の受講者がそれぞれの端末を利用して講義を受講するようにしてもよい。また、同図には、会場102−1にのみ、受講者と端末が図示されているが、会場102−2、・・・においても、やはり受講者が端末を利用して講義を受講しているものとする。   In this example, there is shown an example in which there is only one student in the venue 102-1, but a large number of students may take a lecture using their respective terminals. In addition, in the figure, the student and the terminal are illustrated only at the venue 102-1, but the student also took a lecture using the terminal at the venue 102-2,. It shall be.

端末150は、例えば、パーソナルコンピュータにより構成され、ネットワーク110を介して送信されたコンテンツのデータを受信しながら再生する。   The terminal 150 is constituted by, for example, a personal computer, and reproduces content data transmitted via the network 110 while receiving it.

また、ストリーミング配信システム100では、ほぼ実時間でのコンテンツのストリーミング配信が行われる。つまり、コンテンツのライブ配信が行われる。   In addition, the streaming distribution system 100 performs streaming distribution of content in almost real time. That is, live distribution of content is performed.

すなわち、カメラ131で撮影および集音された講師121による講義の画像および音声は、エンコーダ141においてリアルタイムでエンコードされ、ビデオ配信サーバ142に供給される。この例では、エンコーダ141のみが示されているが、必要に応じて複数のエンコーダが設けられるようにしてもよい。   In other words, the lecture image and sound of the lecturer 121 photographed and collected by the camera 131 are encoded in real time by the encoder 141 and supplied to the video distribution server 142. In this example, only the encoder 141 is shown, but a plurality of encoders may be provided as necessary.

なお、コンテンツのデータを再生するときの同期を考慮して、コンテンツのデータにタイムスタンプが付加される。コンテンツのデータに付加されるタイムスタンプは、例えば、コンテンツの画像のデータの最初のフレームの画像が撮影されてからの経過時間を識別するための情報とされる。   A time stamp is added to the content data in consideration of synchronization when the content data is reproduced. The time stamp added to the content data is, for example, information for identifying the elapsed time since the image of the first frame of the content image data was taken.

ビデオ配信サーバ142は、コンテンツの再生時の画像や音声の品質を向上させるために、コンテンツのデータを各会場の各端末にネットワーク110を介して送信するようになされている。端末150では、受信したコンテンツのデータをデコードすることによりコンテンツのデータが再生される。   The video distribution server 142 is configured to transmit content data to each terminal at each venue via the network 110 in order to improve the quality of images and audio during the playback of the content. The terminal 150 reproduces the content data by decoding the received content data.

また、図2に示されるストリーミング配信システム100においては、スタジオ101から送信された情報に各会場の受講者が応答したり、受講者の1人が発信した情報を他の受講者の端末の画面上に表示させることができるようにするインタラクティブコンテンツが導入されている。インタラクティブコンテンツは、実際には、例えば、メタデータ配信サーバ143を介して、ネットワーク110上で送受信されるGUIのデータなどのメタデータにより構成される。   Further, in the streaming distribution system 100 shown in FIG. 2, a student at each venue responds to information transmitted from the studio 101, and information transmitted by one of the students is displayed on the screen of another student's terminal. Interactive content has been introduced that allows it to be displayed above. The interactive content is actually composed of metadata such as GUI data transmitted and received on the network 110 via the metadata distribution server 143, for example.

例えば、スタジオ101には、パーソナルコンピュータなどにより構成される専用端末132が設置されており、例えば、受講者からの応答を期待して講師121が発した質問を、講義助手123がテキストデータとして入力する。専用端末132は、講義助手123により入力されたテキストデータを含んで構成されるGUIなどのデータを生成するようになされている。このGUIは、例えば、講師の質問を記載した文字列とともに、その質問に「はい」または「いいえ」で回答できるようなボタンが付されたものとして受講者の端末に表示される。   For example, in the studio 101, a dedicated terminal 132 composed of a personal computer or the like is installed. For example, the lecture assistant 123 inputs a question issued by the lecturer 121 in expectation of a response from the student as text data. To do. The dedicated terminal 132 is configured to generate data such as a GUI that includes text data input by the lecture assistant 123. This GUI is displayed on the student's terminal, for example, with a character string describing the instructor's question and a button to which the question can be answered with “Yes” or “No”.

また、例えば、専用端末132により、講義の内容(例えば、講師121による発言の内容)などを翻訳した文字列を表示させるためのテキストデータを含んで構成されるGUIなどのデータが生成される。   In addition, for example, the dedicated terminal 132 generates data such as a GUI including text data for displaying a character string obtained by translating the contents of a lecture (for example, the contents of a statement made by the lecturer 121).

例えば、受講者122の端末150の画面には、コンテンツ画像表示領域151、および、メタデータ表示領域152が設けられている。   For example, a content image display area 151 and a metadata display area 152 are provided on the screen of the terminal 150 of the student 122.

コンテンツ画像表示領域151には、講師121による講義の画像が表示される。なお、講義の音声は、図示せぬ端末150のスピーカから出力される。メタデータ表示領域152には、講師の質問を記載した文字列とともに、その質問に「はい」または「いいえ」で回答できるようなボタンが付されたGUIなどが表示される。その他、メタデータ表示領域152には、他の受講者による質問の内容が記載された文字列として構成されるメタデータ、講師の発言を他の言語に翻訳して記載した文字列として構成されるメタデータなどが必要に応じて表示される。さらに、メタデータ表示領域152には、講師への質問などを文字列として入力するための領域なども必要に応じて表示される。   In the content image display area 151, an image of a lecture by the lecturer 121 is displayed. Note that the audio of the lecture is output from a speaker of the terminal 150 (not shown). The metadata display area 152 displays a character string describing the instructor's question and a GUI with a button that can answer the question with “Yes” or “No”. In addition, the metadata display area 152 is configured as metadata configured as a character string in which the content of a question by another student is described, and as a character string translated from the instructor's utterance into another language. Metadata etc. are displayed as needed. Further, in the metadata display area 152, an area for inputting a question to the lecturer as a character string is displayed as necessary.

なお、コンテンツ画像表示領域151、および、メタデータ表示領域152を別々に設けることなく、コンテンツの画像にメタデータが重畳されて表示されるようにしても構わない。   The content image display area 151 and the metadata display area 152 may not be provided separately, and the metadata may be displayed superimposed on the content image.

管理サーバ144は、例えば、ストリーミング配信システム100における各端末の再生時刻を管理するようになされている。   The management server 144 is configured to manage the playback time of each terminal in the streaming distribution system 100, for example.

例えば、受講者122が講義の受講を開始する際に、端末150が管理サーバ144にアクセスする。そして、管理サーバ144は、端末150に固有のIDを割り当てて、そのIDを端末150に送信する。なお、専用端末132も、例えば、講義のコンテンツが配信されるのに先立って端末150にアクセスするものとする。管理サーバ144は、専用端末132に特殊なIDを割り当てて、そのIDを専用端末132に送信するものとする。専用端末132は、例えば、端末150などのように受講者が利用する端末ではないので、特殊なIDが割り当てられる。   For example, when the student 122 starts taking a lecture, the terminal 150 accesses the management server 144. Then, the management server 144 assigns a unique ID to the terminal 150 and transmits the ID to the terminal 150. Note that the dedicated terminal 132 also accesses the terminal 150 prior to distribution of lecture content, for example. The management server 144 assigns a special ID to the dedicated terminal 132 and transmits the ID to the dedicated terminal 132. For example, the dedicated terminal 132 is not a terminal used by the student such as the terminal 150, and thus a special ID is assigned.

また、管理サーバ144は、ビデオ配信サーバ142との通信により、エンコーダ141から供給される画像のデータのタイムスタンプなどを解析し、現場時刻を特定する。   In addition, the management server 144 analyzes the time stamp of the image data supplied from the encoder 141 through communication with the video distribution server 142 and specifies the local time.

なお、エンコーダが複数設けられる場合、それぞれのエンコーダにおける配信開始時刻が異なる場合もある。例えば、エンコーダが複数設けられている場合、管理サーバ144は、エンコーダ毎に配信開始時刻を特定するようになされている。   In addition, when a plurality of encoders are provided, the distribution start time in each encoder may be different. For example, when a plurality of encoders are provided, the management server 144 is configured to specify the distribution start time for each encoder.

さらに、ストリーミング配信システム100における各端末は、定期的に管理サーバ144にアクセスするようになされている。この際、各端末は、現在自分が再生して表示しているコンテンツの画像に対応するタイムスタンプなどに基づいて再生時刻を特定し、管理サーバ144に通知する。   Furthermore, each terminal in the streaming distribution system 100 accesses the management server 144 periodically. At this time, each terminal specifies the reproduction time based on the time stamp corresponding to the image of the content currently reproduced and displayed, and notifies the management server 144 of the reproduction time.

また、専用端末132は、定期的に管理サーバ144にアクセスし、現場時刻を取得するようになされている。   Further, the dedicated terminal 132 periodically accesses the management server 144 to acquire the local time.

図3は、管理サーバ144の内部に記憶されるテーブルの例を示す図である。同図には、端末IDと再生時刻とが対応付けられたテーブルが記載されている。なお、例えば、端末ID「0001」は、専用端末132に割り当てられる特殊なIDとされ、この場合、端末ID「0001」に対応する再生時刻「2:10:30」は、現場時刻を表す。   FIG. 3 is a diagram illustrating an example of a table stored in the management server 144. In the figure, a table in which terminal IDs and reproduction times are associated is described. For example, the terminal ID “0001” is a special ID assigned to the dedicated terminal 132. In this case, the reproduction time “2:10:30” corresponding to the terminal ID “0001” represents the local time.

管理サーバ144は、例えば、図3に示されるようなテーブルのデータを、各端末からのアクセスの都度更新することにより、各端末における再生時刻を管理する。   The management server 144 manages the reproduction time at each terminal by updating the data in the table as shown in FIG. 3 for each access from each terminal, for example.

例えば、受講者からの応答を期待して講師121が発した質問を、講義助手123がテキストデータとして専用端末132に入力した場合、専用端末132は、現場時刻に対応するタイムススタンプを付加したメタデータを生成し、メタデータ配信サーバ143に送信する。   For example, when a lecture assistant 123 inputs a question issued by the lecturer 121 in expectation of a response from the student as text data to the dedicated terminal 132, the dedicated terminal 132 adds a time stamp corresponding to the local time. Data is generated and transmitted to the metadata distribution server 143.

また、例えば、受講者122が、メタデータ表示領域152に表示されたGUIを操作して講師からの質問に回答する際に、端末150は、質問への回答として送信されるメタデータに再生時刻に対応するタイムスタンプを付加する。あるいはまた、例えば、受講者122が、講義の内容に対する質問を入力する際に、端末150は、質問として送信されるメタデータに再生時刻に対応するタイムスタンプを付加する。そして、タイムスタンプが付されたメタデータがメタデータ配信サーバ143に送信される。   In addition, for example, when the student 122 operates the GUI displayed in the metadata display area 152 to answer a question from the lecturer, the terminal 150 displays the reproduction time in the metadata transmitted as the answer to the question. A time stamp corresponding to is added. Alternatively, for example, when the student 122 inputs a question about the content of the lecture, the terminal 150 adds a time stamp corresponding to the reproduction time to the metadata transmitted as the question. Then, the metadata with the time stamp is transmitted to the metadata distribution server 143.

さらに、専用端末132、端末150を含む各端末は、定期的にメタデータ配信サーバ143にアクセスし、自分宛てのメタデータを取得するようになされている。例えば、端末150は、メタデータ配信サーバ143にアクセスして取得した自分宛てのメタデータを、メタデータに付加されたタイムスタンプに基づいて、コンテンツの画像と同期させて表示させる。例えば、講師からの質問などのメタデータは、ライブ配信される講義のコンテンツの再生時刻と関連しているからである。   Furthermore, each terminal including the dedicated terminal 132 and the terminal 150 periodically accesses the metadata distribution server 143 to acquire metadata addressed to itself. For example, the terminal 150 displays the metadata addressed to itself acquired by accessing the metadata distribution server 143 in synchronization with the content image based on the time stamp added to the metadata. This is because, for example, metadata such as a question from a lecturer is related to the reproduction time of lecture content that is distributed live.

また、例えば、専用端末132は、メタデータ配信サーバ143にアクセスして取得した自分宛てのメタデータを集計するなどして表示する。なお、メタデータ配信サーバ143は、例えば、専用端末132と一体化されて構成されるようにしても構わない。   In addition, for example, the dedicated terminal 132 accesses the metadata distribution server 143 and displays the metadata addressed to itself acquired and aggregated. Note that the metadata distribution server 143 may be configured to be integrated with the dedicated terminal 132, for example.

また、専用端末132は、例えば、図3に示されるようなテーブルのデータを管理サーバ144から取得し、各受講者の端末における遅延時間などに係るデータベースを作成する。そして、専用端末132は、各受講者の端末における遅延時間などを識別するための情報を生成して講師121などに提示する。このようにすることで、例えば、講師121は、各受講者に質問や発言などをする機会を充分に与えながら講義を進めることができる。   For example, the dedicated terminal 132 obtains data of a table as shown in FIG. 3 from the management server 144 and creates a database relating to the delay time in each student's terminal. Then, the dedicated terminal 132 generates information for identifying the delay time and the like in each student's terminal and presents it to the lecturer 121 and the like. By doing in this way, for example, the lecturer 121 can advance the lecture while giving each student a sufficient opportunity to ask questions and remarks.

図4は、専用端末132の内部に記憶されるデータベース200の構成例を示す図である。   FIG. 4 is a diagram illustrating a configuration example of the database 200 stored inside the dedicated terminal 132.

同図の例では、データベース200は、現在時刻201が記録されている。現在時刻201は、例えば、スタジオ101の現在時刻を24時間表記した情報とされ、例えば、専用端末132の内部の計時機能に基づいて逐次更新される。   In the example shown in the figure, the current time 201 is recorded in the database 200. The current time 201 is, for example, information representing the current time of the studio 101 for 24 hours, and is sequentially updated based on, for example, a timekeeping function inside the dedicated terminal 132.

また、データベース200には、開始時刻情報202が記録されている。開始時刻情報202は、例えば、コンテンツの配信が開始された時刻を24時間表記した情報とされる。同図に示される「配信ポイント」は、例えば、エンコーダを識別するためのURLなどの情報とされ、複数のエンコーダのそれぞれ(ここでは、配信ポイント1および配信ポイント2)についての配信開始時刻が記録されている。   Further, the database 200 records start time information 202. The start time information 202 is, for example, information in which the time at which content distribution is started is expressed for 24 hours. The “distribution point” shown in the figure is, for example, information such as a URL for identifying an encoder, and the distribution start time for each of a plurality of encoders (here, distribution point 1 and distribution point 2) is recorded. Has been.

さらに、データベース200には、受講者別遅延情報203が記録されている。受講者別遅延情報203は、管理サーバ144の内部に記憶される端末IDと再生時刻とが対応付けられたテーブルに基づいて生成される情報とされる。すなわち、同図には図示されていないが、受講者別遅延情報203を構成するレコードは、それぞれ固有の端末IDに対応づけられる。   Furthermore, the student 200 delay information 203 is recorded in the database 200. The student delay information 203 is information generated based on a table in which terminal IDs stored in the management server 144 are associated with playback times. That is, although not shown in the figure, each record constituting the student-specific delay information 203 is associated with a unique terminal ID.

受講者別遅延情報203における「配信ポイント」は、例えば、当該レコードに対応する端末IDを有する端末が受信したコンテンツのデータをエンコードしたエンコーダを特定する情報とされる。なお、端末IDとエンコーダとの対応づけは、管理サーバ144により事前に行われているものとする。   The “distribution point” in the delay information for each student 203 is, for example, information that identifies an encoder that encodes content data received by a terminal having a terminal ID corresponding to the record. Assume that the association between the terminal ID and the encoder is performed in advance by the management server 144.

受講者別遅延情報203における「再生時刻」は、例えば、図3に示されるようなテーブルにおける再生時刻が記述される。すなわち、当該レコードに対応する端末IDを有する端末における再生時刻とされる。なお、上述したように、各端末における再生時刻は、現在自分が再生して表示しているコンテンツの画像に対応するタイムスタンプなどに基づいて特定される。従って、各端末における再生時刻は、例えば、現在自分が再生して表示しているコンテンツの画像が撮影されたときの、最初のフレームの画像が撮影されてからの経過時間を表すものとなる。   As the “reproduction time” in the delay information 203 for each student, for example, the reproduction time in a table as shown in FIG. 3 is described. That is, it is set as the reproduction time at the terminal having the terminal ID corresponding to the record. As described above, the playback time at each terminal is specified based on the time stamp corresponding to the image of the content that is currently played back and displayed. Therefore, the playback time at each terminal represents, for example, the elapsed time since the image of the first frame when the image of the content that is currently played back and displayed is captured.

なお、エンコーダが複数設けられており、それぞれのエンコーダの配信開始時刻が異なる場合、コンテンツの最初のフレームの画像がエンコーダ毎に異なるものとなる。例えば、第1のエンコーダの配信開始時刻が「13:10:51」である場合、スタジオ101で時刻「13:10:51」に撮影された画像がコンテンツの最初のフレームの画像となる。一方、第2のエンコーダの配信開始時刻が「13:21:00」である場合、スタジオ101で時刻「13:21:00」に撮影された画像がコンテンツの最初のフレームの画像となる。   When a plurality of encoders are provided and the distribution start times of the encoders are different, the image of the first frame of the content differs for each encoder. For example, when the distribution start time of the first encoder is “13:10:51”, the image shot at the time “13:10:51” in the studio 101 becomes the image of the first frame of the content. On the other hand, when the distribution start time of the second encoder is “13:21:00”, the image taken at the time “13:21:00” in the studio 101 is the image of the first frame of the content.

受講者別遅延情報203における「時刻」は、開始時刻情報202に記述された各配信ポイントの配信開始時刻に、上述した「再生時刻」を加算して得られる時刻とされる。例えば、受講者別遅延情報203における「時刻」を、現在時刻201に記述された時刻と比較することにより、各端末における講義の進捗状況(実際にはコンテンツの再生状況)を実感できる。   The “time” in the delay information 203 for each student is a time obtained by adding the “reproduction time” described above to the distribution start time of each distribution point described in the start time information 202. For example, by comparing the “time” in the delay information 203 for each student with the time described in the current time 201, the progress of the lecture at each terminal (actually, the playback status of the content) can be realized.

受講者別遅延情報203における「遅延」は、受講者別遅延情報203の「時刻」と、現在時刻201に記述された時刻との差分として得られる時間である。   “Delay” in the delay information for each student 203 is a time obtained as a difference between the “time” of the delay information for each student 203 and the time described in the current time 201.

専用端末132は、例えば、図4に示されるようなデータベース200の情報をそのまま提示しいてもよいし、次に述べるように、グラフ化して提示するようにしてもよい。   For example, the dedicated terminal 132 may present the information in the database 200 as shown in FIG. 4 as it is, or may present the information in a graph as described below.

図5は、専用端末132によりデータベース200の情報をグラフ化して提示する場合の例を示す図である。   FIG. 5 is a diagram illustrating an example in which the information of the database 200 is presented as a graph by the dedicated terminal 132.

同図に示されるグラフは、横軸が遅延時間とされ、縦軸が受講者数とされ、遅延時間毎の受講者数(実際には端末数)が棒グラフとして記述されている。例えば、講師121に図5に示されるようなグラフを提示することにより、講師121は、受講者全体の遅延を簡単に把握することができる。   In the graph shown in the figure, the horizontal axis is the delay time, the vertical axis is the number of students, and the number of students for each delay time (actually the number of terminals) is described as a bar graph. For example, by presenting the graph as shown in FIG. 5 to the instructor 121, the instructor 121 can easily grasp the delay of the entire student.

図6は、専用端末132によりデータベース200の情報をグラフ化して提示する場合の別の例を示す図である。   FIG. 6 is a diagram illustrating another example in the case where the dedicated terminal 132 presents the information of the database 200 as a graph.

同図に示されるグラフは、横軸が遅延時間とされ、縦軸が受講者数とされ、遅延時間毎の受講者数(実際には端末数)が棒グラフとして記述されている。また、同図の例では、吹き出しと垂直方向の点線によってイベントの発生が記述されている。ここでイベントは、例えば、所定のメタデータの表示、シーンの切り替わりなどを意味する。   In the graph shown in the figure, the horizontal axis is the delay time, the vertical axis is the number of students, and the number of students for each delay time (actually the number of terminals) is described as a bar graph. Further, in the example of the figure, the occurrence of an event is described by a balloon and a dotted line in the vertical direction. Here, the event means, for example, display of predetermined metadata, switching of a scene, and the like.

すなわち、図6の点線より左側の端末では、再生されたコンテンツにおいて、所定のメタデータの表示、シーンの切り替わりなどのイベントが既に発生したことを意味し、図中の点線より右側の端末では、そのイベントが未だ発生していないことを意味する。従って、時間が経過するのに伴って、図中の点線がより右側に移動することになる。同図に示される吹き出しには、イベント名(ここでは「Evnt1」)と、既にイベントが発生した端末の割合(ここでは「38%」)が表示されている。   That is, in the terminal on the left side of the dotted line in FIG. 6, it means that an event such as display of predetermined metadata or scene switching has already occurred in the reproduced content, and in the terminal on the right side of the dotted line in the figure, This means that the event has not yet occurred. Therefore, as time passes, the dotted line in the figure moves to the right. In the balloon shown in the figure, an event name (here, “Evnt1”) and a ratio of terminals that have already generated an event (here, “38%”) are displayed.

例えば、講師121に図6に示されるようなグラフを提示することにより、講師121は、イベントに対する反応をより的確に把握することができる。   For example, by presenting a graph as shown in FIG. 6 to the instructor 121, the instructor 121 can grasp the reaction to the event more accurately.

図7は、専用端末132によりデータベース200の情報をグラフ化して提示する場合のさらに別の例を示す図である。   FIG. 7 is a diagram showing still another example when the information of the database 200 is presented as a graph by the dedicated terminal 132.

同図に示されるグラフは、横軸が遅延時間とされ、縦軸が受講者数とされ、遅延時間毎の受講者数(実際には端末数)が棒グラフとして記述されている。また、この例では、棒グラフの一部が別の色で表示されている。例えば、端末IDに基づいて、特別な受講者を識別することが可能である場合、その特別な受講者の受講者数に対応する部分を別の色で表示するようにしてもよい。   In the graph shown in the figure, the horizontal axis is the delay time, the vertical axis is the number of students, and the number of students for each delay time (actually the number of terminals) is described as a bar graph. In this example, a part of the bar graph is displayed in a different color. For example, when it is possible to identify a special student based on the terminal ID, a portion corresponding to the number of students of the special student may be displayed in a different color.

なお、特別な受講者とは、例えば、有料で講義を受講している受講者、講師に質問する権利を与えられている受講者、講義の内容の筆記を請け負っている受講者などの受講者とされる。   Special participants include, for example, students who have taken lectures for a fee, students who have been given the right to ask questions to lecturers, and students who have been entrusted with writing the contents of lectures. It is said.

この例では、特別な受講者を1色で表示するようにしたが、特別な受講者の種類に応じて複数の色で表示されるようにしてもよい。   In this example, a special student is displayed in one color, but may be displayed in a plurality of colors according to the type of the special student.

例えば、講師121に図7に示されるようなグラフを提示することにより、講師121は、受講の形態を意識しつつ、遅延の状況を的確に把握することができる。   For example, by presenting the graph as shown in FIG. 7 to the instructor 121, the instructor 121 can accurately grasp the delay situation while being aware of the attendance mode.

図8は、専用端末132によりデータベース200の情報をグラフ化して提示する場合のさらに別の例を示す図である。   FIG. 8 is a diagram showing still another example when the information of the database 200 is presented as a graph by the dedicated terminal 132.

同図に示されるグラフは、横軸が遅延時間とされ、縦軸が受講者数とされ、遅延時間毎の受講者数(実際には端末数)が棒グラフとして記述されている。また、同図の例では、吹き出しと垂直方向の点線によってイベントの発生が記述されている。いまの場合、例えば、受講者からの回答を期待する講師からの質問のメタデータの表示がイベントとされる。   In the graph shown in the figure, the horizontal axis is the delay time, the vertical axis is the number of students, and the number of students for each delay time (actually the number of terminals) is described as a bar graph. Further, in the example of the figure, the occurrence of an event is described by a balloon and a dotted line in the vertical direction. In this case, for example, the display of metadata of a question from a lecturer who expects an answer from a student is an event.

すなわち、図8の点線より左側の端末では、再生されたコンテンツにおいて、講師からの質問のメタデータの表示などのイベントが既に発生したことを意味し、図中の点線より右側の端末では、そのイベントが未だ発生していないことを意味する。従って、時間が経過するのに伴って、図中の点線がより右側に移動することになる。   That is, in the terminal on the left side of the dotted line in FIG. 8, it means that an event such as the display of the metadata of the question from the lecturer has already occurred in the reproduced content, and in the terminal on the right side of the dotted line in FIG. Means that the event has not yet occurred. Therefore, as time passes, the dotted line in the figure moves to the right.

また、図8の例では、棒グラフの一部が別の色で表示されている。例えば、上述した講師からの質問に対して回答した受講者の受講者数に対応する部分が別の色で表示される。   In the example of FIG. 8, a part of the bar graph is displayed in a different color. For example, the part corresponding to the number of students who have answered the question from the instructor described above is displayed in a different color.

同図に示される吹き出しには、イベント名(ここでは「Question1」)と、既にイベント(講師からの質問)が発生した端末の割合(ここでは「62%」)/既に質問に回答した端末の割合(ここでは「41%」)が表示されている。   In the balloon shown in the figure, the event name (here, “Question1”) and the percentage of terminals where the event (question from the instructor) has already occurred (here “62%”) / of terminals that have already answered the question The ratio (here “41%”) is displayed.

例えば、講師121に図8に示されるようなグラフを提示することにより、講師121は、イベントに対する反応をさらに的確に把握することができる。   For example, by presenting a graph as shown in FIG. 8 to the instructor 121, the instructor 121 can more accurately grasp the reaction to the event.

ここでは、専用端末132により図4に示されるようなデータベース200が記録され、図5乃至図8に示されるような情報が提示されると説明したが、例えば、専用端末132が管理サーバ144と一体化されて構成されるようにしてもよい。すなわち、管理サーバ144により、図4に示されるようなデータベース200が記録され、図5乃至図8に示されるような情報が提示されるようにしてもよい。   Here, it has been described that the database 200 as shown in FIG. 4 is recorded by the dedicated terminal 132 and the information as shown in FIGS. 5 to 8 is presented. For example, the dedicated terminal 132 is connected to the management server 144. It may be configured to be integrated. That is, the database 200 as shown in FIG. 4 may be recorded by the management server 144 and information as shown in FIGS. 5 to 8 may be presented.

さらに、管理サーバ144とメタデータ配信サーバ143とが一体化されて構成されるようにしても構わない。   Furthermore, the management server 144 and the metadata distribution server 143 may be integrated.

また、ここでは、図4のデータベース200に記録された情報に基づいて、専用端末132により情報が提示される例について説明したが、例えば、端末150において情報が提示されるようにしてもよい。例えば、図4を参照して上述した受講者別遅延情報203における「遅延」に記述された時間がメタデータとしてそれぞれの端末に配信されるようにしてもよい。このようにすることで、例えば、各端末の受講者は、自分の端末で再生されているコンテンツの遅延を意識しながら講義に参加することができる。   Here, an example in which information is presented by the dedicated terminal 132 based on the information recorded in the database 200 of FIG. 4 has been described, but information may be presented at the terminal 150, for example. For example, the time described in “delay” in the delay information 203 for each student described above with reference to FIG. 4 may be distributed to each terminal as metadata. In this way, for example, students at each terminal can participate in the lecture while being aware of the delay of the content being played back on their own terminal.

このように本発明によれば、例えば、インタラクティブコンテンツのメタデータを常に適切に同期させることができないという問題を解決することができる。すなわち、専用端末132、端末150を含む各端末が、コンテンツの画像の時間軸に基づくタイムスタンプを付加してメタデータを生成するようにしたので、メタデータとコンテンツの画像とを常に適切に同期させるようにすることができる。   Thus, according to the present invention, for example, it is possible to solve the problem that the metadata of interactive content cannot always be properly synchronized. That is, each terminal including the dedicated terminal 132 and the terminal 150 generates the metadata by adding the time stamp based on the time axis of the content image, so that the metadata and the content image are always synchronized appropriately. You can make it.

また、本発明によれば、討論型講義などを導入しづらいという問題を解決することができる。すなわち、上述したように、図5乃至図8に示されるような情報を提示できるので、講師121は、各受講者に質問や発言などをする機会を充分に与えながら講義を進めることができる。その結果、講師と全受講者との一体感が高められ、例えば、教室で行われる討論型講義と同様に臨場感のある講義を、eラーニングシステムにより提供することができる。   Further, according to the present invention, it is possible to solve the problem that it is difficult to introduce a discussion-type lecture. That is, as described above, information as shown in FIG. 5 to FIG. 8 can be presented, so that the lecturer 121 can advance the lecture while giving each student a sufficient opportunity to ask questions and speak. As a result, the sense of unity between the instructor and all the participants is enhanced, and for example, a lecture with a sense of reality can be provided by the e-learning system in the same way as a discussion-type lecture performed in a classroom.

また、図3を参照して上述した例では、端末IDと再生時刻がテーブルのデータとして記憶されると説明したが、例えば、各端末におけるコンテンツの再生状態が合わせて記憶されるようにしてもよい。例えば、端末150などにおいて、ユーザの操作により、コンテンツの再生中に再生を一時停止させたり、過去に再生したシーンをもう一度再生させるなどすることができる。このような、各端末におけるコンテンツの再生状態が、各端末から管理サーバ144に通知され、端末IDに対応付けられてさらに記憶されるようにしてもよい。   In the example described above with reference to FIG. 3, it has been described that the terminal ID and the reproduction time are stored as table data. However, for example, the reproduction state of the content in each terminal may be stored together. Good. For example, on the terminal 150 or the like, it is possible to pause the playback during the playback of the content or to play back a scene played back in the past once again by a user operation. Such a content reproduction state at each terminal may be notified from each terminal to the management server 144 and further stored in association with the terminal ID.

あるいはまた、各端末に提供されるメタデータの種類などがテーブルのデータとして記憶されるようにしてもよい。例えば、端末毎に翻訳言語が異なる場合、翻訳言語を識別する情報がメタデータの種類とされる。また、例えば、視覚障害者や聴覚障害者向けに特別な情報が提供される場合、この特別な情報の提供の要否を識別する情報がメタデータの種類とされる。   Alternatively, the type of metadata provided to each terminal may be stored as table data. For example, when the translation language is different for each terminal, information for identifying the translation language is the type of metadata. In addition, for example, when special information is provided for a visually handicapped person or a hearing handicapped person, information identifying whether or not the special information needs to be provided is a type of metadata.

図9は、管理サーバ144の内部に記憶されるテーブルの別の例を示す図である。同図の例では、再生時刻、再生状態、メタデータ種類1、およびメタデータ種類2が端末IDと対応付けられたテーブルが記載されている。なお同図の例におけるメタデータ種類1は、翻訳言語を識別するための情報とされ、メタデータ種類2は、視覚障害者や聴覚障害者向けの特別な情報の提供の要否を識別する情報とされる。この他にも、メタデータ種類3、メタデータ種類4、・・・のようにさらに情報が記憶されるようにしてもよい。   FIG. 9 is a diagram illustrating another example of a table stored in the management server 144. In the example of the figure, a table in which the reproduction time, the reproduction state, the metadata type 1, and the metadata type 2 are associated with the terminal ID is described. Note that the metadata type 1 in the example of the figure is information for identifying a translation language, and the metadata type 2 is information for identifying whether or not special information for visually handicapped persons or hearing impaired persons needs to be provided. It is said. In addition, information may be further stored as metadata type 3, metadata type 4,.

以上においては、受講者の端末においてコンテンツの画像とメタデータとが同じ画面に表示される例について説明した。すなわち、図2を参照して上述したように、端末150のディスプレイに表示される画面に、コンテンツ画像表示領域151、および、メタデータ表示領域152が設けられている例について説明した。   In the above, the example in which the content image and the metadata are displayed on the same screen on the student's terminal has been described. That is, as described above with reference to FIG. 2, the example in which the content image display area 151 and the metadata display area 152 are provided on the screen displayed on the display of the terminal 150 has been described.

しかしながら、近年、スマートフォン、タブレットなどの小型端末が普及しており、このような小型端末では表示されるコンテンツの画像が小さい画像となってしまう。また、例えば、パーソナルコンピュータなどの場合と異なり、スマートフォンは持ち運びが容易であり、様々な会場に持ち込むことが可能である。   However, in recent years, small terminals such as smartphones and tablets have become widespread, and content images displayed on such small terminals become small images. Also, for example, unlike a personal computer, a smartphone is easy to carry and can be brought into various venues.

例えば、スマートフォンなどの小型端末を所持する受講者が、大型のディスプレイでコンテンツの画像を見ながら、メタデータを小型端末に表示させるようにすれば、より利便性の高いストリーミング配信システムを実現するこができる。   For example, if a student with a small terminal such as a smartphone displays metadata on a small terminal while viewing the content image on a large display, a more convenient streaming distribution system can be realized. Can do.

例えば、図10に示されるように、会場102−3には、大型のディスプレイを有する表示装置160が設置される。そして、会場102−3において講義を受講する受講者124−1と受講者124−2は、それぞれ自分の小型端末171−1と小型端末171−2を用いて講義を受講する。   For example, as shown in FIG. 10, a display device 160 having a large display is installed in the venue 102-3. The students 124-1 and 124-2 who take the lecture at the venue 102-3 take the lecture using their small terminals 171-1 and 171-2, respectively.

なお、ここでの小型端末は、携行に適した電子機器等を一般的に称しているものであり、物理的な大小を区別する意味で「小型」と称しているわけではない。また、小型端末を個々に区別する必要のないときは、単に小型端末171と称することにする。   Here, the small terminal generally refers to an electronic device or the like suitable for carrying, and is not referred to as “small” in order to distinguish between physical sizes. Further, when it is not necessary to distinguish small terminals individually, they are simply referred to as small terminals 171.

図10の例の場合、例えば、表示装置160のディスプレイには、コンテンツの画像が表示される。すなわち、図2の端末150の画面におけるコンテンツ画像表示領域151に表示される画像が、表示装置160のディスプレイ全体に表示される。   In the case of the example in FIG. 10, for example, an image of content is displayed on the display of the display device 160. That is, the image displayed in the content image display area 151 on the screen of the terminal 150 in FIG. 2 is displayed on the entire display of the display device 160.

また、図10の例の場合、例えば、小型端末171−1と小型端末171−2のそれぞれのディスプレイには、メタデータに関する画面が表示される。すなわち、図2の端末150の画面におけるメタデータ表示領域152に表示される画像が、小型端末171のディスプレイ全体に表示される。   In the case of the example in FIG. 10, for example, metadata-related screens are displayed on the respective displays of the small terminal 171-1 and the small terminal 171-2. That is, the image displayed in the metadata display area 152 on the screen of the terminal 150 in FIG. 2 is displayed on the entire display of the small terminal 171.

図10に示される例の場合、表示装置160がコンテンツを再生するので、表示装置160が定期的に管理サーバ144にアクセスし、再生時刻、再生状態などを通知するが、このままでは、小型端末171−1と小型端末171−2は、表示装置160における再生時刻を特定できない。   In the example shown in FIG. 10, since the display device 160 reproduces content, the display device 160 periodically accesses the management server 144 and notifies the reproduction time, the reproduction state, and the like. -1 and the small terminal 171-2 cannot specify the reproduction time on the display device 160.

そこで、例えば、表示装置160のディスプレイの一部に、表示装置160に割り当てられた端末IDを表示させるようにする。例えば、図11に示されるように、表示装置160のディスプレイの一部に、表示装置160に割り当てられた端末IDに対応するコード画像161を表示させる。コード画像161は、例えば、QRコード(登録商標)として表示される。   Therefore, for example, the terminal ID assigned to the display device 160 is displayed on a part of the display of the display device 160. For example, as shown in FIG. 11, a code image 161 corresponding to the terminal ID assigned to the display device 160 is displayed on a part of the display of the display device 160. The code image 161 is displayed as, for example, a QR code (registered trademark).

小型端末171−1と小型端末171−2は、例えば、それぞれの小型端末に内蔵されたデジタルカメラなどによりコード画像161を撮影し、コード画像161を解析することにより表示装置160に割り当てられた端末IDを特定する。あるいはまた、ユーザが表示装置160に割り当てられた端末IDを入力するようにしてもよい。   The small terminal 171-1 and the small terminal 171-2 are, for example, terminals assigned to the display device 160 by photographing the code image 161 with a digital camera or the like built in each small terminal and analyzing the code image 161. Specify the ID. Alternatively, the user may input a terminal ID assigned to the display device 160.

そして、小型端末171−1と小型端末171−2は、定期的に管理サーバ144にアクセスし、再生時刻、再生状態などの情報を取得する。これにより、小型端末171−1と小型端末171−2は、例えば、表示装置160の再生時刻に対応するタイムスタンプが付されたメタデータをメタデータ配信サーバ143に送信することができる。   Then, the small terminal 171-1 and the small terminal 171-2 periodically access the management server 144 and acquire information such as a reproduction time and a reproduction state. Thereby, the small terminal 171-1 and the small terminal 171-2 can transmit the metadata with the time stamp corresponding to the reproduction time of the display device 160 to the metadata distribution server 143, for example.

図12は、例えば、図10を参照して上述したように、表示装置と小型端末を導入する場合における、管理サーバ144の内部に記憶されるテーブルの例を示す図である。同図の例では、テーブルにコードを表示する領域が設けられている。図12の例の場合、例えば、端末ID「0001」は専用端末132とされ、端末ID「0002」は表示装置160とされ、端末ID「0003」および端末ID「0004」はそれぞれ小型端末171−1および小型端末171−2とされる。   FIG. 12 is a diagram illustrating an example of a table stored in the management server 144 when a display device and a small terminal are introduced, for example, as described above with reference to FIG. In the example of the figure, an area for displaying a code is provided in the table. In the example of FIG. 12, for example, the terminal ID “0001” is the dedicated terminal 132, the terminal ID “0002” is the display device 160, and the terminal ID “0003” and the terminal ID “0004” are the small terminals 171- 1 and a small terminal 171-2.

図12に示されるように、端末ID「0002」乃至端末ID「0004」に対応するレコードには、コード「0002」が記述されており、いまの場合、表示装置160の端末IDがコードとして記憶されている。   As shown in FIG. 12, in the records corresponding to the terminal IDs “0002” to “0004”, the code “0002” is described. In this case, the terminal ID of the display device 160 is stored as the code. Has been.

例えば、図12に示されるテーブルのレコードを、コードをキーとしてソートすることにより、会場102−3で受講している受講者の端末IDを特定することも可能である。例えば、所定の会場で受講している受講者の端末IDを特定することにより、その会場の受講者のみを対象とするメタデータを生成して配信することも可能となる。   For example, it is also possible to identify the terminal IDs of students who have attended at the venue 102-3 by sorting the records in the table shown in FIG. 12 using codes as keys. For example, by specifying the terminal ID of a student who has attended at a predetermined venue, it is also possible to generate and distribute metadata for only the student at that venue.

例えば、端末ID「0101」の表示装置が設置された会場は、聴覚障害者用の会場とし、当該会場で受講する受講者の端末には、講義内容のトランスクリプトを表示するためのメタデータが配信されるようにすることもできる。   For example, the venue where the display device with the terminal ID “0101” is installed is a venue for persons with hearing impairments, and metadata for displaying a transcript of the lecture contents is displayed on the terminals of the students who attend the venue. It can also be delivered.

また、このようにすることで、例えば、会場毎に受講者の数を簡単に集計することも可能となる。通常、1人の受講者が1台の小型端末を所持していると考えられるからである。このように、例えば、管理サーバ144の内部に記憶されるテーブルにおいてコードとして記述された情報により、各受講者がいる会場を特定することも可能となる。   In addition, by doing this, for example, it is possible to easily add up the number of students for each venue. This is because it is considered that one student usually has one small terminal. Thus, for example, the venue where each student is located can be specified by information described as a code in a table stored in the management server 144.

次に、図13のフローチャートを参照して、図2に示されるストリーミング配信システム100における管理サーバ144の処理の例について説明する。なお、管理サーバ144は、例えば、内部にプロセッサ、メモリなどを有する構成とされ、メモリにロードされたプログラムをプロセッサで実行することにより、図13に示される各ステップの処理が実行される。   Next, an example of processing of the management server 144 in the streaming distribution system 100 shown in FIG. 2 will be described with reference to the flowchart of FIG. Note that the management server 144 is configured to have a processor, a memory, and the like, for example, and the processing of each step shown in FIG. 13 is executed by executing the program loaded in the memory by the processor.

ステップS21において、管理サーバ144は、例えば、ビデオ配信サーバ142との通信により、エンコーダから供給される画像のデータのタイムスタンプなどを解析し、現場時刻を特定する。   In step S21, the management server 144 analyzes the time stamp of the image data supplied from the encoder, for example, through communication with the video distribution server 142, and specifies the local time.

ステップS22において、管理サーバ144は、端末150、小型端末171−1、小型端末171−2などの端末からのアクセスがあったか否かを判定し、アクセスがあったと判定されるまで待機する。   In step S22, the management server 144 determines whether there is an access from a terminal such as the terminal 150, the small terminal 171-1, the small terminal 171-2, and waits until it is determined that there is an access.

ステップS22において、アクセスがあったと判定された場合、処理は、ステップS23に進む。   If it is determined in step S22 that there is an access, the process proceeds to step S23.

ステップS23において、管理サーバ144は、ステップS22でアクセスがあったと判定された端末にIDを割り当て済か否かを判定する。なお、管理サーバ144は、例えば、別途、IPアドレスと端末IDを対応づけたテーブルなどを生成し、各端末にIDを割り当て済か否かを判定できるようになされている。   In step S23, the management server 144 determines whether or not an ID has been assigned to the terminal determined to have been accessed in step S22. For example, the management server 144 separately generates a table in which IP addresses and terminal IDs are associated with each other, and can determine whether or not an ID has been assigned to each terminal.

ステップS23において、IDを割り当て済ではないと判定された場合、処理は、ステップS24に進む。   If it is determined in step S23 that an ID has not been assigned, the process proceeds to step S24.

ステップS24において、管理サーバ144は、ステップS22でアクセスがあったと判定された端末にIDを割り当てる。   In step S24, the management server 144 assigns an ID to the terminal determined to have been accessed in step S22.

なお、ステップS23において、IDを割り当て済であると判定された場合、ステップS24の処理はスキップされる。   If it is determined in step S23 that an ID has been assigned, the process in step S24 is skipped.

ステップS25において、管理サーバ144は、ステップS22でアクセスがあったと判定された端末から再生時刻などの情報を取得する。このとき、例えば、再生時刻、再生状態、メタデータ種類、コードなどの情報が取得される。   In step S25, the management server 144 acquires information such as the reproduction time from the terminal determined to have been accessed in step S22. At this time, for example, information such as reproduction time, reproduction state, metadata type, and code is acquired.

ステップS26において、管理サーバ144は、ステップS25の処理で取得された情報に基づいてテーブルのデータを更新する。このとき、例えば、図3、図4、図12を参照して上述したテーブルのデータが更新される。   In step S26, the management server 144 updates the table data based on the information acquired in the process of step S25. At this time, for example, the data in the table described above with reference to FIGS. 3, 4, and 12 is updated.

そして、処理は、ステップS21に戻り、それ以降の処理が繰り返し実行される。   And a process returns to step S21 and the process after it is repeatedly performed.

このようにして、管理サーバの処理が実行される。   In this way, the processing of the management server is executed.

次に、図14のフローチャートを参照して、ストリーミング配信システム100における端末150の処理の例について説明する。この処理は、例えば、ビデオ配信サーバ142から配信されるコンテンツのデータを受信して再生する受信再生処理と並行して実行される。   Next, an example of processing of the terminal 150 in the streaming distribution system 100 will be described with reference to the flowchart of FIG. This process is executed in parallel with, for example, a reception / reproduction process for receiving and reproducing content data distributed from the video distribution server 142.

なお、端末150は、例えば、内部にプロセッサ、メモリなどを有する構成とされ、メモリにロードされたプログラムをプロセッサで実行することにより、図14に示される各ステップの処理が実行される。   Note that the terminal 150 is configured to have a processor, a memory, and the like, for example, and the processing of each step shown in FIG. 14 is executed by executing the program loaded in the memory by the processor.

ステップS41において、端末150は、現在自分が再生して表示しているコンテンツの画像に対応するタイムスタンプなどに基づいて再生時刻を特定する。   In step S41, the terminal 150 specifies the reproduction time based on the time stamp corresponding to the image of the content currently reproduced and displayed by the terminal 150.

ステップS42において、端末150は、管理サーバ144にアクセスする。   In step S42, the terminal 150 accesses the management server 144.

ステップS43において、端末150は、再生時刻などの情報を管理サーバ144に通知する。このとき、例えば、再生時刻、再生状態、メタデータ種類、コードなどの情報が通知され、図13のステップS25の処理で管理サーバ144によりこの情報が取得されることになる。   In step S43, the terminal 150 notifies the management server 144 of information such as the reproduction time. At this time, for example, information such as a reproduction time, a reproduction state, a metadata type, and a code is notified, and this information is acquired by the management server 144 in step S25 of FIG.

ステップS44において、端末150は、メタデータ配信サーバ143にアクセスする。   In step S44, the terminal 150 accesses the metadata distribution server 143.

ステップS45において、端末150は、タイムスタンプを付したメタデータをメタデータ配信サーバ143に送信する。このとき、例えば、講義の内容についての質問として送信されるメタデータ、講師からの質問に対する回答として送信されるメタデータなどに、ステップS41の処理で特定された再生時刻に対応するタイムスタンプが付加される。   In step S45, the terminal 150 transmits the metadata with the time stamp to the metadata distribution server 143. At this time, for example, a metadata corresponding to the reproduction time specified in step S41 is added to metadata transmitted as a question about the content of the lecture, metadata transmitted as an answer to the question from the lecturer, and the like. Is done.

ステップS46において、端末150は、自分宛てのメタデータを、メタデータ配信サーバ143から受信する。このとき、例えば、講師からの質問として送信されたメタデータ、講義の内容の翻訳した文字列を表示させるためのメタデータなどのメタデータが受信される。   In step S <b> 46, the terminal 150 receives metadata addressed to itself from the metadata distribution server 143. At this time, for example, metadata such as metadata transmitted as a question from the lecturer and metadata for displaying a translated character string of the contents of the lecture are received.

ステップS47において、端末150は、ステップS46で受信した自分宛てのメタデータを、当該メタデータに付されたタイムスタンプに基づいて特定される再生時刻において再生(画像の表示、音声の出力など)する。   In step S47, the terminal 150 reproduces the metadata addressed to itself received in step S46 at the reproduction time specified based on the time stamp attached to the metadata (image display, audio output, etc.). .

なお、ステップS46およびステップS47の処理を先に実行してから、ステップS45の処理が実行されるようにしてもよい。   Note that the processing in step S45 may be executed after the processing in step S46 and step S47 is executed first.

ステップS48において、端末150は、所定の時間が経過したか否かを判定し、所定の時間が経過したと判定されるまで待機する。   In step S48, the terminal 150 determines whether or not a predetermined time has elapsed, and waits until it is determined that the predetermined time has elapsed.

ステップS48において、所定の時間が経過したと判定された場合、処理は、ステップS41に戻り、それ以降の処理が繰り返し実行される。   If it is determined in step S48 that the predetermined time has elapsed, the process returns to step S41, and the subsequent processes are repeatedly executed.

このようにして、端末の処理が実行される。   In this way, the processing of the terminal is executed.

次に、図15のフローチャートを参照して、ストリーミング配信システム100における小型端末171の処理の例について説明する。なお、小型端末171は、例えば、内部にプロセッサ、メモリなどを有する構成とされ、メモリにロードされたプログラムをプロセッサで実行することにより、図15に示される各ステップの処理が実行される。   Next, an example of processing of the small terminal 171 in the streaming distribution system 100 will be described with reference to the flowchart of FIG. Note that the small terminal 171 has, for example, a configuration including a processor, a memory, and the like, and the processing of each step shown in FIG. 15 is executed by executing a program loaded in the memory by the processor.

ステップS61において、小型端末171は、受講者が視聴するコンテンツを再生する表示装置160のコードを取得する。このとき、例えば、上述したように、小型端末171に内蔵されたデジタルカメラなどによりコード画像161を撮影し、コード画像161を解析することにより表示装置160に割り当てられた端末IDが特定される。そして、表示装置160に割り当てられた端末IDがコードとして取得される。   In step S61, the small terminal 171 obtains the code of the display device 160 that reproduces the content viewed by the student. At this time, for example, as described above, the terminal ID assigned to the display device 160 is specified by photographing the code image 161 with a digital camera or the like built in the small terminal 171 and analyzing the code image 161. Then, the terminal ID assigned to the display device 160 is acquired as a code.

ステップS62において、小型端末171は、管理サーバ144にアクセスする。   In step S <b> 62, the small terminal 171 accesses the management server 144.

ステップS63において、小型端末171は、ステップS61で取得したコードを管理サーバ144に通知する。   In step S63, the small terminal 171 notifies the management server 144 of the code acquired in step S61.

ステップS64において、小型端末171は、再生時刻を特定する。このとき、小型端末171は、例えば、ステップS61で取得したコードに対応する端末IDを有する表示装置のレコードを、管理サーバ144が記憶するテーブルから検索し、当該表示装置の再生時刻を自分の再生時刻として特定する。   In step S64, the small terminal 171 identifies the reproduction time. At this time, for example, the small terminal 171 searches the table stored in the management server 144 for a record of the display device having the terminal ID corresponding to the code acquired in step S61, and reproduces the reproduction time of the display device. Specify as time.

ステップS65において、小型端末171は、再生時刻などを管理サーバ144に通知する。なお、上述したコードもステップS65で通知されるようにしてもよい。このとき、例えば、再生時刻、メタデータ種類、コードなどの情報が通知され、図13のステップS25の処理で管理サーバ144によりこの情報が取得されることになる。   In step S65, the small terminal 171 notifies the management server 144 of the reproduction time and the like. Note that the above-described code may also be notified in step S65. At this time, for example, information such as reproduction time, metadata type, and code is notified, and this information is acquired by the management server 144 in the process of step S25 of FIG.

なお、小型端末171の再生時刻は、コードにより特定される表示装置160の再生時刻と等しいものなので、ステップS65では再生時刻を通知しないようにしてもよい。   Since the playback time of the small terminal 171 is equal to the playback time of the display device 160 specified by the code, the playback time may not be notified in step S65.

ステップS66において、小型端末171は、メタデータ配信サーバ143にアクセスする。   In step S <b> 66, the small terminal 171 accesses the metadata distribution server 143.

ステップS67において、小型端末171は、タイムスタンプを付したメタデータをメタデータ配信サーバ143に送信する。このとき、例えば、講義の内容についての質問として送信されるメタデータ、講師からの質問に対する回答として送信されるメタデータなどに、ステップS64の処理で特定された再生時刻に対応するタイムスタンプが付加される。   In step S <b> 67, the small terminal 171 transmits the metadata with the time stamp to the metadata distribution server 143. At this time, for example, a metadata corresponding to the reproduction time specified in step S64 is added to metadata transmitted as a question about the content of the lecture, metadata transmitted as an answer to the question from the lecturer, or the like. Is done.

ステップS68において、小型端末171は、自分宛てのメタデータを、メタデータ配信サーバ143から受信する。このとき、例えば、講師からの質問として送信されたメタデータ、講義の内容の翻訳した文字列を表示させるためのメタデータなどのメタデータが受信される。   In step S <b> 68, the small terminal 171 receives metadata addressed to itself from the metadata distribution server 143. At this time, for example, metadata such as metadata transmitted as a question from the lecturer and metadata for displaying a translated character string of the contents of the lecture are received.

ステップS69において、小型端末171は、ステップS68で受信した自分宛てのメタデータを、当該メタデータに付されたタイムスタンプに基づいて特定される再生時刻において再生(画像の表示、音声の出力など)する。   In step S69, the small terminal 171 reproduces the metadata addressed to itself received in step S68 at the reproduction time specified based on the time stamp attached to the metadata (image display, audio output, etc.). To do.

ステップS70において、小型端末171は、所定の時間が経過したか否かを判定し、所定の時間が経過したと判定されるまで待機する。   In step S70, the small terminal 171 determines whether or not a predetermined time has elapsed, and waits until it is determined that the predetermined time has elapsed.

ステップS70において、所定の時間が経過したと判定された場合、処理は、ステップS61に戻り、それ以降の処理が繰り返し実行される。   If it is determined in step S70 that the predetermined time has elapsed, the process returns to step S61, and the subsequent processes are repeatedly executed.

このようにして、小型端末の処理が実行される。   In this way, the processing of the small terminal is executed.

次に、図16のフローチャートを参照して、ストリーミング配信システム100における専用端末132の処理の例について説明する。この処理は、例えば、図5乃至図8を参照して上述したような情報を提示するとき実行される。   Next, an example of processing of the dedicated terminal 132 in the streaming distribution system 100 will be described with reference to the flowchart of FIG. This process is executed when, for example, information as described above with reference to FIGS. 5 to 8 is presented.

なお、専用端末132は、例えば、内部にプロセッサ、メモリなどを有する構成とされ、メモリにロードされたプログラムをプロセッサで実行することにより、図16に示される各ステップの処理が実行される。   Note that the dedicated terminal 132 has, for example, a configuration including a processor, a memory, and the like, and the processing of each step illustrated in FIG. 16 is executed by executing a program loaded in the memory by the processor.

ステップS91において、専用端末132は、現在時刻を特定する。上述したように、スタジオ101の現在時刻を24時間表記した情報とされ、例えば、専用端末132の内部の計時機能に基づいて逐次更新される。   In step S91, the dedicated terminal 132 specifies the current time. As described above, the current time of the studio 101 is information expressed in 24 hours, and is sequentially updated based on, for example, the timekeeping function inside the dedicated terminal 132.

ステップS92において、専用端末132は、配信ポイント毎の配信開始時刻を特定する。上述したように、配信ポイントは、例えば、エンコーダを識別するためのURLなどの情報とされ、複数のエンコーダのそれぞれについての配信開始時刻が特定される。   In step S92, the dedicated terminal 132 specifies the distribution start time for each distribution point. As described above, the distribution point is, for example, information such as a URL for identifying the encoder, and the distribution start time for each of the plurality of encoders is specified.

ステップS93において、専用端末132は、ステップS91で特定された現在時刻、ステップS92で特定された配信ポイント毎の配信開始時刻、および、管理サーバ144の内部に記憶される端末IDと再生時刻とが対応付けられたテーブルに基づいてデータベースを生成または更新する。   In step S93, the dedicated terminal 132 obtains the current time specified in step S91, the distribution start time for each distribution point specified in step S92, and the terminal ID and the reproduction time stored in the management server 144. Create or update a database based on the associated table.

このとき、例えば、受講者別遅延情報203の各レコードが生成または更新されて、図4に示されるデータベース200が生成または更新される。   At this time, for example, each record of the delay information 203 by student is generated or updated, and the database 200 shown in FIG. 4 is generated or updated.

ステップS94において、専用端末132は、ステップS93の処理で生成または更新されたデータベースに記録されている情報に基づいて、グラフのデータを生成する。   In step S94, the dedicated terminal 132 generates graph data based on the information recorded in the database generated or updated in the process of step S93.

ステップS95において、専用端末132は、ステップS94の処理で生成されたグラフのデータに基づいてグラフを表示する。このとき、例えば、図5乃至図8に示されるようなグラフが表示される。   In step S95, the dedicated terminal 132 displays a graph based on the graph data generated in the process of step S94. At this time, for example, graphs as shown in FIGS. 5 to 8 are displayed.

このようにして、専用端末の処理が実行される。   In this way, the processing of the dedicated terminal is executed.

なお、上述したように、例えば、専用端末132が管理サーバ144と一体化されて構成されるようにしてもよい。すなわち、図16に示される処理は、管理サーバ144により実行されるようにしてもよい。   As described above, for example, the dedicated terminal 132 may be integrated with the management server 144. That is, the process illustrated in FIG. 16 may be executed by the management server 144.

以上においては、本発明のストリーミング配信システム100を、例えば、eラーニングシステムに適用する例について説明したが、例えば、スポーツ観戦に関するライブコンテンツ提供システムに適用することも可能である。   In the above description, the streaming distribution system 100 according to the present invention is applied to an e-learning system, for example. However, the streaming distribution system 100 can be applied to a live content providing system related to sports watching.

図17は、ストリーミング配信システム100を、スポーツ観戦に関するライブコンテンツ提供システムに適用する場合の例を示す図である。   FIG. 17 is a diagram illustrating an example in which the streaming distribution system 100 is applied to a live content providing system related to sports watching.

同図に示されるライブコンテンツ提供システムでは、サッカースタジアム105の画像、音声のコンテンツがライブ配信される。なお、同図には、図示されていないが、図17の場合においても、図2を参照して上述した場合と同様に、カメラ131、専用端末132、エンコーダ141、ビデオ配信サーバ142、メタデータ配信サーバ143、および管理サーバ144が設けられる。   In the live content providing system shown in the figure, image and audio contents of the soccer stadium 105 are distributed live. Although not shown in the figure, in the case of FIG. 17 as well, as described above with reference to FIG. 2, the camera 131, the dedicated terminal 132, the encoder 141, the video distribution server 142, the metadata A distribution server 143 and a management server 144 are provided.

すなわち、図17の例の場合、サッカースタジアム105の画像、音声が図示せぬカメラ131で撮影、集音されてコンテンツのデータとして配信される。   That is, in the case of the example of FIG. 17, the image and sound of the soccer stadium 105 are photographed and collected by a camera 131 (not shown) and distributed as content data.

同図の例の場合、サッカースタジアム105では、小型端末171−3乃至小型端末171−5を所持した観客が観戦している。なお、小型端末171−3乃至小型端末171−5は、サッカースタジアム105の電光掲示板などに表示されたQRコード(登録商標)に基づいてコードを取得するようになされている。また、小型端末171−3乃至小型端末171−5の再生時刻は、全て現場時刻とされるようになされている。   In the case of the example in the figure, in the soccer stadium 105, a spectator having the small terminals 171-3 to 171-5 is watching. Note that the small terminals 171-3 to 171-5 acquire codes based on QR codes (registered trademark) displayed on an electronic bulletin board of the soccer stadium 105. In addition, the playback times of the small terminals 171-3 to 171-5 are all set to the local time.

ネットワーク110を介して送信されるコンテンツのデータは、ユーザ宅106の端末150で受信されて再生される。端末150は、図2を参照して上述した場合と同様に動作する。   Content data transmitted via the network 110 is received and reproduced by the terminal 150 of the user's home 106. The terminal 150 operates in the same manner as described above with reference to FIG.

また、ネットワーク110を介して送信されるコンテンツのデータは、スポーツ観戦をしながら飲食できる飲食店(いわゆるスポーツカフェ)107に設置された表示装置160により受信されて再生される。スポーツカフェ107では、小型端末171−6乃至小型端末171−9を所持した客が表示装置160のディスプレイに表示されるサッカースタジアム105の画像を見てサッカーのゲームを観戦している。小型端末171−6乃至小型端末171−9は、図10、図11などを参照して上述した場合と同様に動作する。   Further, content data transmitted via the network 110 is received and reproduced by the display device 160 installed in a restaurant (so-called sports cafe) 107 that can eat and drink while watching sports. At the sports cafe 107, a customer who has the small terminals 171-6 to 171-9 watches a soccer game by looking at the image of the soccer stadium 105 displayed on the display of the display device 160. The small terminals 171-6 to 171-9 operate in the same manner as described above with reference to FIGS.

このようにすることで、例えば、スタジアムにいる観客と、自宅にいるユーザと、スポーツカフェにいる客とが、同じサッカーのゲームを観戦してコメントなどのメタデータを送受信することができる。例えば、ゴールシーンでの感情の高まりを表す情報などをメタデータとして各端末から送信させるようにし、これらの情報を集計したメタデータを配信するようにすれば、ユーザ同士の一体感を向上させることができる。これにより、従来のサッカー観戦より一層興奮するコンテンツのライブ配信を実現することが可能となる。   In this way, for example, a spectator at a stadium, a user at home, and a customer at a sports cafe can watch the same soccer game and send and receive metadata such as comments. For example, if information indicating the height of emotions in the goal scene is transmitted from each terminal as metadata, and the metadata that aggregates this information is distributed, the sense of unity between users can be improved. Can do. This makes it possible to realize live distribution of content that is even more exciting than conventional soccer watching.

なお、上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。上述した一連の処理をソフトウェアにより実行さ
せる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータにネットワークや記録媒体からインストールされる。また、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば図18に示されるような汎用のパーソナルコンピュータ700などに、ネットワークや記録媒体からインストールされる。
The series of processes described above can be executed by hardware, or can be executed by software. When the above-described series of processing is executed by software, a program constituting the software is installed from a network or a recording medium into a computer incorporated in dedicated hardware. Further, by installing various programs, the program is installed from a network or a recording medium into a general-purpose personal computer 700 as shown in FIG. 18 that can execute various functions.

図18において、CPU(Central Processing Unit)701は、ROM(Read Only Memory)702に記憶されているプログラム、または記憶部708からRAM(Random Access Memory)703にロードされたプログラムに従って各種の処理を実行する。RAM703にはまた、CPU701が各種の処理を実行する上において必要なデータなども適宜記憶される。   In FIG. 18, a CPU (Central Processing Unit) 701 executes various processes according to a program stored in a ROM (Read Only Memory) 702 or a program loaded from a storage unit 708 to a RAM (Random Access Memory) 703. To do. The RAM 703 also appropriately stores data necessary for the CPU 701 to execute various processes.

CPU701、ROM702、およびRAM703は、バス704を介して相互に接続されている。このバス704にはまた、入出力インタフェース705も接続されている。   The CPU 701, ROM 702, and RAM 703 are connected to each other via a bus 704. An input / output interface 705 is also connected to the bus 704.

入出力インタフェース705には、キーボード、マウスなどよりなる入力部706、LCD(Liquid Crystal display)などよりなるディスプレイ、並びにスピーカなどよりなる出力部707が接続されている。また、入出力インタフェース705には、ハードディスクなどより構成される記憶部708、モデム、LANカードなどのネットワークインタフェースカードなどより構成される通信部709が接続されている。通信部709は、インターネットを含むネットワークを介しての通信処理を行う。   The input / output interface 705 is connected to an input unit 706 composed of a keyboard, a mouse, etc., a display composed of an LCD (Liquid Crystal display), etc., and an output unit 707 composed of a speaker. The input / output interface 705 is connected to a storage unit 708 composed of a hard disk and a communication unit 709 composed of a network interface card such as a modem and a LAN card. The communication unit 709 performs communication processing via a network including the Internet.

入出力インタフェース705にはまた、必要に応じてドライブ710が接続され、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア711が適宜装着されている。そして、それらのリムーバブルメディアから読み出されたコンピュータプログラムが、必要に応じて記憶部708にインストールされる。   A drive 710 is also connected to the input / output interface 705 as necessary, and a removable medium 711 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory is appropriately mounted. Then, the computer program read from these removable media is installed in the storage unit 708 as necessary.

上述した一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、インターネットなどのネットワークや、リムーバブルメディア711などからなる記録媒体からインストールされる。   When the above-described series of processing is executed by software, a program constituting the software is installed from a network such as the Internet or a recording medium such as a removable medium 711.

なお、この記録媒体は、図18に示される、装置本体とは別に、ユーザにプログラムを配信するために配布される、プログラムが記録されている磁気ディスク(フロッピディスク(登録商標)を含む)、光ディスク(CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク(MD(Mini-Disk)(登録商標)を含む)、もしくは半導体メモリなどよりなるリムーバブルメディア711により構成されるものだけでなく、装置本体に予め組み込まれた状態でユーザに配信される、プログラムが記録されているROM702や、記憶部708に含まれるハードディスクなどで構成されるものも含む。   The recording medium shown in FIG. 18 is a magnetic disk (including a floppy disk (registered trademark)) on which a program is recorded, which is distributed to distribute the program to the user, separately from the apparatus main body. Removable media consisting of optical disks (including CD-ROM (compact disk-read only memory), DVD (digital versatile disk)), magneto-optical disks (including MD (mini-disk) (registered trademark)), or semiconductor memory It includes not only those configured by 711 but also those configured by a ROM 702 in which a program is recorded, a hard disk included in the storage unit 708, and the like distributed to the user in a state of being incorporated in the apparatus main body in advance.

なお、本明細書において上述した一連の処理は、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   Note that the series of processes described above in this specification includes processes that are performed in parallel or individually even if they are not necessarily processed in time series, as well as processes that are performed in time series in the order described. Is also included.

また、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。   The embodiments of the present invention are not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention.

100 ストリーミング配信システム, 101 スタジオ, 102 会場, 131 カメラ、 132 専用端末, 141 エンコーダ, 142 ビデオ配信サーバ, 143 メタデータ配信サーバ, 144 管理サーバ, 150 端末, 160 表示装置, 161 コード画像, 171 小型端末   100 streaming distribution system, 101 studio, 102 venue, 131 camera, 132 dedicated terminal, 141 encoder, 142 video distribution server, 143 metadata distribution server, 144 management server, 150 terminal, 160 display device, 161 code image, 171 small terminal

Claims (8)

ネットワークに接続された複数の再生装置により再生されるコンテンツのデータに付されたタイムスタンプに基づいて特定される再生時刻を、予め設定された時間間隔で前記複数の再生装置からそれぞれ取得する管理サーバと、前記ネットワークを介して通信する情報処理装置であって、
撮影された画像をリアルタイムでエンコードして得られたデータを含むコンテンツをそれぞれ再生する前記複数の再生装置のうちの1つの再生装置に対応する識別情報を取得する識別情報取得手段と、
前記識別情報取得手段により取得された前記再生装置の識別情報を、自分の識別情報と対応づけて前記管理サーバに通知する識別情報通知手段と、
予め設定された時間間隔で前記管理サーバから、前記識別情報取得手段により取得された前記識別情報に対応する前記再生装置の再生時刻を取得する再生時刻取得手段と
を備える情報処理装置。
A management server that obtains, from a plurality of playback devices, playback times specified based on time stamps attached to data of content played back by a plurality of playback devices connected to a network, respectively. And an information processing apparatus that communicates via the network,
Identification information acquisition means for acquiring identification information corresponding to one reproduction device among the plurality of reproduction devices, each of which reproduces content including data obtained by encoding a captured image in real time;
Identification information notifying means for notifying the management server of the identification information of the playback device acquired by the identification information acquiring means in association with its own identification information;
An information processing apparatus comprising: a reproduction time acquisition unit configured to acquire a reproduction time of the reproduction apparatus corresponding to the identification information acquired by the identification information acquisition unit from the management server at a preset time interval.
前記コンテンツの再生時刻に関連するメタデータを、前記取得した再生時刻に対応するタイムスタンプを付して、前記管理サーバに前記ネットワークを介して送信する送信手段をさらに備える
請求項1に記載の情報処理装置。
The information according to claim 1, further comprising transmission means for transmitting metadata related to the reproduction time of the content with a time stamp corresponding to the acquired reproduction time to the management server via the network. Processing equipment.
前記ネットワークを介して受信された、前記コンテンツの再生時刻に関連するメタデータを、前記メタデータに付されたタイムスタンプに対応する前記再生装置の再生時刻において再生するメタデータ再生手段をさらに備える
請求項1に記載の情報処理装置。
The apparatus further comprises metadata playback means for playing back the metadata related to the playback time of the content received via the network at the playback time of the playback device corresponding to the time stamp attached to the metadata. Item 4. The information processing apparatus according to Item 1.
前記情報処理装置は、前記再生装置により再生されるコンテンツを視聴するユーザによって所持され、
1台の前記再生装置により再生されるコンテンツを、複数のユーザが視聴する
請求項1に記載の情報処理装置。
The information processing apparatus is possessed by a user who views the content reproduced by the reproduction apparatus,
The information processing apparatus according to claim 1, wherein a plurality of users view content that is played back by one playback apparatus.
前記管理サーバによって、
複数の前記情報処理装置によりそれぞれ通知された再生時刻と実際の時刻とを比較することにより、複数の前記情報処理装置のそれぞれの遅延時間が特定され、
複数の前記情報処理装置のそれぞれの遅延時間に係る情報を表示するための表示データが生成される
請求項4に記載の情報処理装置。
By the management server,
By comparing the reproduction time notified by each of the plurality of information processing devices and the actual time, the delay time of each of the plurality of information processing devices is identified,
The information processing apparatus according to claim 4, wherein display data for displaying information related to a delay time of each of the plurality of information processing apparatuses is generated.
前記識別情報は、前記再生装置のディスプレイに画像として表示される
請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the identification information is displayed as an image on a display of the playback apparatus.
ネットワークに接続された複数の再生装置により再生されるコンテンツのデータに付されたタイムスタンプに基づいて特定される再生時刻を、予め設定された時間間隔で前記複数の再生装置からそれぞれ取得する管理サーバと、前記ネットワークを介して通信する情報処理装置の情報処理方法であって、
識別情報取得手段が、撮影された画像をリアルタイムでエンコードして得られたデータを含むコンテンツをそれぞれ再生する前記複数の再生装置のうちの1つの再生装置に対応する識別情報を取得し、
識別情報通知手段が、前記識別情報取得手段により取得された前記再生装置の識別情報を、自分の識別情報と対応づけて前記管理サーバに通知し、
再生時刻取得手段が、予め設定された時間間隔で前記管理サーバから、前記識別情報取得手段により取得された前記識別情報に対応する前記再生装置の再生時刻を取得するステップ
を含む情報処理方法。
A management server that obtains, from a plurality of playback devices, playback times specified based on time stamps attached to data of content played back by a plurality of playback devices connected to a network, respectively. And an information processing method of an information processing apparatus that communicates via the network,
The identification information acquisition means acquires identification information corresponding to one of the plurality of playback devices that plays back each content including data obtained by encoding the captured image in real time,
The identification information notification means notifies the management server of the identification information of the playback device acquired by the identification information acquisition means in association with its own identification information,
An information processing method, comprising: a reproduction time acquisition unit that acquires a reproduction time of the reproduction device corresponding to the identification information acquired by the identification information acquisition unit from the management server at a preset time interval.
コンピュータを、
ネットワークに接続された複数の再生装置により再生されるコンテンツのデータに付されたタイムスタンプに基づいて特定される再生時刻を、予め設定された時間間隔で前記複数の再生装置からそれぞれ取得する管理サーバと、前記ネットワークを介して通信する情報処理装置であって、
撮影された画像をリアルタイムでエンコードして得られたデータを含むコンテンツをそれぞれ再生する前記複数の再生装置のうちの1つの再生装置に対応する識別情報を取得する識別情報取得手段と、
前記識別情報取得手段により取得された前記再生装置の識別情報を、自分の識別情報と対応づけて前記管理サーバに通知する識別情報通知手段と、
予め設定された時間間隔で前記管理サーバから、前記識別情報取得手段により取得された前記識別情報に対応する前記再生装置の再生時刻を取得する再生時刻取得手段とを備える情報処理装置として機能させる
プログラム。
Computer
A management server that obtains, from a plurality of playback devices, playback times specified based on time stamps attached to data of content played back by a plurality of playback devices connected to a network, respectively. And an information processing apparatus that communicates via the network,
Identification information acquisition means for acquiring identification information corresponding to one reproduction device among the plurality of reproduction devices, each of which reproduces content including data obtained by encoding a captured image in real time;
Identification information notifying means for notifying the management server of the identification information of the playback device acquired by the identification information acquiring means in association with its own identification information;
A program that functions as an information processing device comprising: a playback time acquisition unit that acquires a playback time of the playback device corresponding to the identification information acquired by the identification information acquisition unit from the management server at a preset time interval .
JP2012007864A 2012-01-18 2012-01-18 Information processor, information processing method, and program Pending JP2013150096A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012007864A JP2013150096A (en) 2012-01-18 2012-01-18 Information processor, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012007864A JP2013150096A (en) 2012-01-18 2012-01-18 Information processor, information processing method, and program

Publications (1)

Publication Number Publication Date
JP2013150096A true JP2013150096A (en) 2013-08-01

Family

ID=49047210

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012007864A Pending JP2013150096A (en) 2012-01-18 2012-01-18 Information processor, information processing method, and program

Country Status (1)

Country Link
JP (1) JP2013150096A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017509037A (en) * 2013-12-20 2017-03-30 ノキア テクノロジーズ オーユー Displaying information on a see-through display
JP2019207564A (en) * 2018-05-29 2019-12-05 クックパッド株式会社 Information processing system, information processing device, information processing method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017509037A (en) * 2013-12-20 2017-03-30 ノキア テクノロジーズ オーユー Displaying information on a see-through display
JP2019207564A (en) * 2018-05-29 2019-12-05 クックパッド株式会社 Information processing system, information processing device, information processing method, and program

Similar Documents

Publication Publication Date Title
US20230412412A1 (en) Systems and methods for virtual interactions
US10079993B2 (en) System for juxtaposition of separately recorded videos
CN112468822B (en) Multimedia recording and broadcasting course interaction method based on video SEI message
US20020091658A1 (en) Multimedia electronic education system and method
TW504934B (en) Enhanced video programming apparatus and method providing a shared whiteboard
US11496330B2 (en) Video playout integrated with video conferencing for a group-watch video system
WO2016040869A2 (en) Facilitating online access to and participation in televised events
JP2006174414A (en) Interactive multimedia content distribution system
CN103368932A (en) Multi-screen video playback system and related multi-screen control device
TW201044331A (en) Interactive teaching system
CN102760207A (en) On-line video song playing network interaction response system
JP2021006894A (en) Content distribution server, content generation device, education terminal, content distribution program and education program
Mosse et al. Viral Theatres’ pandemic playbook-documenting German theatre during COVID-19
JP2008096482A (en) Receiving terminal, network learning support system, receiving method, and network learning support method
Tennent et al. The machine in the ghost: augmenting broadcasting with biodata
JP7408506B2 (en) Content distribution system, content distribution method, and content distribution program
JP2013150096A (en) Information processor, information processing method, and program
JP2013150095A (en) Content distribution system and content distribution method
JPH09222848A (en) Remote lecture system and network system
Yarosh et al. Supporting pretend and narrative play over videochat
JP6766228B1 (en) Distance education system
CN210804824U (en) Remote interactive teaching system with synchronous blackboard writing and live broadcasting functions
CN110809180A (en) Information processing apparatus, information processing method, and computer program
JP2017131552A (en) Information processor and program
CN107852523B (en) Method, terminal and equipment for synchronizing media rendering between terminals