JP2009100410A - データ配信装置及びデータ配信システム - Google Patents

データ配信装置及びデータ配信システム Download PDF

Info

Publication number
JP2009100410A
JP2009100410A JP2007272339A JP2007272339A JP2009100410A JP 2009100410 A JP2009100410 A JP 2009100410A JP 2007272339 A JP2007272339 A JP 2007272339A JP 2007272339 A JP2007272339 A JP 2007272339A JP 2009100410 A JP2009100410 A JP 2009100410A
Authority
JP
Japan
Prior art keywords
video
information
video data
data
additional information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007272339A
Other languages
English (en)
Inventor
Toshiaki Suzuki
敏明 鈴木
Mariko Nakayama
真理子 中山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2007272339A priority Critical patent/JP2009100410A/ja
Publication of JP2009100410A publication Critical patent/JP2009100410A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】GOP単位で映像データを切り換えることにより、乱れた映像が再生されてしまうことを防止する映像データ配信装置を提供すること目的とする。
【解決手段】映像データに関連付けられた付加情報を配信するデータ配信装置であって、符号化された映像データの再生可能な単位を示す区切情報に対応して、前記区切情報に関連した映像データに含まれる被写体の情報を示す付加情報を作成し、前記作成された付加情報を配信することを特徴とするデータ配信装置。
【選択図】図9

Description

本発明は、映像データを配信するデータ配信装置に関し、特に、映像データと映像データに関連付けられたメタデータを配信するデータ配信装置に関する。
ネットワーク技術の普及に伴って、インターネットプロトコルを用いて映像ストリームを送信する技術が開発されている。このような映像ストリームの送信技術には、IPマルチキャストを用いて、リアルタイムに映像ストリームを配信する方式、映像ストリームをダウンロードして蓄積された映像データを再生する方式、等がある。また、映像データを符号化する方式としては、MPEG2を用いた方式が知られており、映像ストリームを配信する方式としては、RTP/UDPを利用したIPマルチキャストを用いてリアルタイムにストリームを配信する方式が検討されている。
さらに、通信回線の広帯域化に伴って、複数の視点から撮影された映像を配信し、視聴者の希望に応じて映像を選択可能な映像配信システムが提案されている(例えば、特許文献1参照)。特許文献1に開示された映像配信装置は、映像フレーム毎に映像の内容を示す付加情報を生成し、生成された付加情報をもとに視聴者の好みに応じた映像ストリームを配信する。
また、複数の視点から撮影された複数の映像ストリームから、視聴者の好みに応じた映像ストリームを自動的に選択する映像提示装置が知られている(例えば、特許文献2参照)。この映像提示装置は、映像ストリームの映像フレーム毎に被写体の識別子を含むメタデータを利用して、視聴者の好みに応じた映像ストリームを自動的に選択する。
一方、MPEG2のようにフレーム間の類似性に基づいた予測を用いる映像符号化方式では、Iフレーム、Pフレーム及びBフレームと呼ばれるフレームが存在する。
Iフレームは、フレーム間の予測を使わずに生成されるフレームで、単独で再生することが可能である。
Pフレームは、Iフレーム或いはPフレームからの順方向の予測(前方予測)によって生成されるフレームである。具体的には、Pフレームは、時間的に前に存在するIフレーム或いはPフレームを用いて圧縮符号化されるフレームである。このため、Pフレームを復号化するためには、圧縮符号化に用いたIフレーム或いはPフレームが必要となる。
Bフレームは、時間的に前後に存在するIフレームやPフレームのデータを利用して圧縮符号化される。このため、Bフレームを復号化するためには、圧縮符号化に用いたIフレームやPフレームが必要となる。
特開2003−179908号公報 特開2004−312208号公報
MPEG2のようにフレーム間の類似性に基づいた予測を用いる映像符号化方式では、映像の再生に前後のフレームの情報を利用するため、Iフレームを基本に、Pフレーム及びBフレームを複合化する必要がある。
MPEG2では、複数のフレームを一つのまとまりとして管理しており、このまとまりはGOP(Group of Pictures)と呼ばれる。GOPは、Iフレーム、Pフレーム、及Bフレームを含み、映像の再生単位となる。
このため、Iフレームのデータから復号化されずに、Pフレーム又はBフレームから復号化されると、映像データは正しく復号化されず、乱れた映像が再生されてしまう。
したがって、映像データがMPEG2のようにフレーム間で依存する映像符号化方式によって符号化されている場合には、映像データは、GOP単位で切り換えられなければならない。
しかし、特許文献1及び特許文献2に記載された技術では、映像フレーム毎にメタデータが生成されるので、GOP単位で映像データを切り換えることができない。
また、メタデータを生成する対象のGOPの映像以外のデータ(例えばセンサによって検出されたイベントデータ等)に基づいて、GOP単位でメタデータを生成する場合、GOPの映像とイベントデータとが対応付けられていないため、イベントデータがどのGOPに対応するかを特定しなければならない。
また、撮影された映像の符号化に必要な時間がGOPの時間間隔より短い場合において、GOP単位でメタデータを生成するため、GOPの基になるすべての映像データの入力待ちを行うと、符号化された映像データが、メタデータよりも先に配信されてしまうので、メタデータに基づいた映像データの切り換えができない。
さらに、複数のカメラによって撮影された多視点の映像データを表示する表示装置において、表示装置の画面の大きさ等が原因で、全ての視点の映像データを表示できない場合がある。
本発明は、GOP単位で映像データを切り換えることにより、乱れた映像が再生されてしまうことを防止する映像データ配信装置を提供すること目的とする。
本発明の代表的な一例を示せば以下の通りである。すなわち、映像データに関連付けられた付加情報を配信するデータ配信装置であって、符号化された映像データの再生可能な単位を示す区切情報に対応して、前記区切情報に関連した映像データに含まれる被写体の情報を示す付加情報を作成し、前記作成された付加情報を配信することを特徴とする。
本発明の一実施形態によると、映像ストリームの再生可能な単位を示す区切情報に対応した映像の被写体の情報を示す付加情報が送信されるので、区切情報単位で映像データを切り換えることが可能であるので、乱れた映像が再生されてしまうことを防止できる。
<第1の実施形態>
図1は、本発明の第1の実施の形態の映像配信システムの構成を示すシステム構成図である。
第1の実施の形態の映像配信システムは、映像データを配信する映像配信装置10A〜10N(以下、映像配信装置10A〜10Nを総称する場合、映像配信装置10という)、配信された映像データを受信し、受信した映像データを再生する映像受信装置30、映像配信装置10A〜10Nの間で時刻を同期する時刻管理装置40及びネットワーク20を備える。映像配信装置10と映像受信装置30は、ネットワーク20を介して接続される。また、映像配信装置10と時刻管理装置40は、LAN(Local Area Network)を介して接続される。
<映像配信装置>
まず、映像配信装置10について説明する。
映像配信装置10は、センサ11、イベント管理部12、ビデオカメラ13及び映像・メタデータ管理部14を備える。
センサ11は、イベントを検出するセンサである。例えば、イベントは、ビデオカメラ13によって撮影される被写体の情報である。被写体が個人を識別する識別子を発信するRFID(Radio Frequency Identification)を装着している場合、センサ11は、RFIDによって送信された識別子を受信するRFID受信装置である。これによって、センサ11は、ビデオカメラ13によって撮影されている被写体をイベントとして検出できる。
イベント管理部12は、センサ11によって検出されたイベントデータを管理する。イベント管理部12は、図2で詳細を説明する。
映像・メタデータ管理部14は、ビデオカメラ13によって撮影された映像データ、及び映像データに関連付けられたメタデータを管理する。なお、映像・メタデータ管理部14は、図5で詳細を説明する。
<映像受信装置>
次に、映像受信装置30について説明する。
映像受信装置30は、映像・メタデータ受信部31、CPU32、メインメモリ33、プログラム蓄積部34、ストレージ35、入力部36、表示部37及びバス38を備える。映像・メタデータ受信部31、CPU(Central Processing Unit)32、メインメモリ33、プログラム蓄積部34、ストレージ35、入力部36及び表示部37は、バス38によって接続される。
映像・メタデータ受信部31は、映像配信装置10によって配信された映像データ及びメタデータを受信するインタフェースである。
CPU32は、OS(Operating System)及び各種アプリケーションプログラムを実行する。メインメモリ33は、CPU32が各種アプリケーションプログラムを実行する場合に必要となるデータを一次的に格納する。プログラム蓄積部34は、CPU32によって実行される各種アプリケーションプログラムを格納する。
ストレージ35は、受信したメタデータ及び映像データを格納する。ストレージ35は、データを記憶可能な装置であれば、不揮発性の記憶装置であってもよいし、ディスク装置あってもよい。視聴者が視聴したい被写体の名称等が入力部36から入力される。例えば、入力部36はキーボード等である。表示部37は、再生された映像データの映像を表示する。
<時刻管理装置>
次に、時刻管理装置40について説明する。
時刻管理装置40は、IETF(Internet Engineering Task Force)標準であるRFC(Request for Comments)1305で開示されるNTP(Network Time Protocol)が実装された計算機である。
<映像配信システムの動作>
次に、映像配信システムの動作について説明する。
まず、複数の映像配信装置10A〜10Nのイベント管理部12及び映像・メタデータ管理部14は、時刻管理装置40と通信し、複数の映像配信装置10A〜10N間で時刻を同期する。
次に、センサ11は、イベント(被写体)を検出すると、イベント信号をイベント管理部12へ伝達する。イベント管理部12は、受信したイベント信号をイベントデータとして格納し、格納されたイベントデータを映像・メタデータ管理部14に配信する。
ビデオカメラ13は、被写体を撮影し、撮影された映像信号を映像・メタデータ管理部14へ伝達する。映像・メタデータ管理部14は、受信した映像信号を符号化して映像データを生成する。具体的には、映像・メタデータ管理部14は、フレーム間の類似性に基づいた予測を用いるMPEG形式を用いて受信した映像信号を符号化し、映像データ(MPEG2−TS(Transport Stream))を生成する。
そして、映像・メタデータ管理部14は、生成されたMPEG2−TSから、GOPの先頭を示すグループスタートコード(16進数表記で0x000001B8)を検出する。そして、映像・メタデータ管理部14は、検出したグループスタートコードから始まるGOPの映像データに関連付けられたイベントデータが、イベント管理部12から配信されている場合には、このGOPを配信するRTP(Real-time Transport Protocol)パケットのシーケンス番号と関連付けてメタデータを生成し、生成されたメタデータ及び生成された映像データを、映像受信装置30へ配信する。
また、上記GOP映像データを特定するにあたり、映像フレームのスタートコード(16進数表記で0x00000100)及びピクチャー符号化タイプを利用し、GOP先頭データを含むTSパケットを検出してもよい。
さらに、GOP映像単位以外に、シーケンスヘッダコード(16進数表記で0x000001B3)を用い、1つ以上のGOP映像データを持つシーケンス映像データ単位にメタデータを作成してもよい。
<イベント管理部>
次に、映像配信装置10のイベント管理部12について説明する。
図2は、本発明の第1の実施の形態のイベント管理部12のブロック図である。
イベント管理部12は、センサ情報受信部121、CPU122、メインメモリ123、プログラム蓄積部124、ストレージ125、第1インタフェース126、第2インタフェース127及びバス128を備える。なお、センサ情報受信部121、CPU122、メインメモリ123、プログラム蓄積部124、ストレージ125、第1インタフェース126及び第2インタフェース127は、バス128を介して接続される。
センサ情報受信部121は、センサ11から伝達されるイベント信号を受信するインタフェースである。CPU122は、OS及び各種アプリケーションプログラムを実行する。メインメモリ123は、CPU122が各種アプリケーションプログラムを実行する場合に必要となるデータを一次的に格納する。プログラム蓄積部124は、CPU122によって実行される各種アプリケーションプログラムを格納する。
ストレージ125は、受信したメタデータ及び映像データを格納する。ストレージ125は、データを記憶可能な装置であれば、不揮発性の記憶装置であってもよいし、ディスク装置あってもよい。
第1インタフェース126は、イベント管理部12と同じ映像配信装置10の映像・メタデータ管理部14とを接続するためのインタフェースである。第2インタフェース127は、映像配信装置10と時刻管理装置40とをLANを介して接続するためのインタフェースである。
次に、イベント管理部12の動作について説明する。
図3は、本発明の第1の実施形態のイベント管理処理のフローチャートである。イベント管理処理は、イベント管理部12のCPU122によって実行される。
まず、イベント管理部12は、プログラム蓄積部124に記憶されたイベント管理処理を実行するためのプログラムをCPU122にロードし、イベント管理処理を開始する(ステップ200)。
次に、イベント管理部12は、第2インタフェース127を介して時刻管理装置40と通信し、時刻を同期する(ステップ201)。
そして、イベント管理部12は、センサ11からイベント信号を受信したか否かによって、センサ11がイベントを検出したか否かを判定する(ステップ202)。
ステップ202の処理で、センサ11がイベントを検出していないと判定された場合、ステップ202の処理に戻る。つまり、イベント管理部12は、イベントが検出されるまで、イベントの検出を続ける。
一方、ステップ202の処理で、センサ11がイベントを検出したと判定された場合、イベント管理部12は、イベント信号を受信した時刻を取得することによって、センサ11がイベントを検出した時刻を取得する(ステップ203)。
次に、イベント管理部12は、センサ11がイベントを検出した時刻と、センサ11が検出したイベントの内容とを関連付けたイベントデータを生成し、生成したイベントデータをストレージ125に記憶する(ステップ204)。なお、イベントデータは、図4で詳細を説明する。
次に、イベント管理部12は、ステップ204の処理で記憶されたイベントデータを映像・メタデータ管理部14に配信する(ステップ205)。
そして、イベント管理部12は、ステップ205の処理で伝達し終えたイベントデータをストレージ125から消去し(ステップ206)、ステップ202の処理に戻る。
図4は、本発明の第1の実施形態のストレージ125に記憶されたイベントデータの説明図である。
ストレージ125に記憶されたイベントデータは、イベント検出時刻41及びイベントの内容42を含む。
イベント検出時刻41には、センサ11がイベントを検出した時刻が登録される。イベントの内容42には、センサ11が検出したイベントの内容が登録される。具体的には、イベントの内容42には、被写体に装着したRFIDが発信する識別子によって識別される被写体の人物名が登録される。
<映像・メタデータ管理部>
次に、映像・メタデータ管理部14について説明する。
図5は、本発明の第1の実施形態の映像・メタデータ管理部14のブロック図である。
映像・メタデータ管理部14は、エンコーダ141、CPU142、メインメモリ143、プログラム蓄積部144、ストレージ145と、第3インタフェース146、第4インタフェース147、第5インタフェース148及びバス149を備える。なお、エンコーダ141、CPU142、メインメモリ143、プログラム蓄積部144、ストレージ145と、第3インタフェース146、第4インタフェース147及び第5インタフェース148は、バス149を介して接続される。
エンコーダ141は、ビデオカメラ13から伝達される映像信号を圧縮符号化する。CPU142は、OS及び各種アプリケーションプログラムを実行する。メインメモリ143は、CPU142が各種アプリケーションプログラムを実行する場合に必要となるデータを一次的に記憶する。プログラム蓄積部144は、CPU142によって実行される各種アプリケーションプログラムを記憶する。
ストレージ145は、受信したメタデータ及び映像データを記憶する。ストレージ145は、データを記憶可能な装置であれば、不揮発性の記憶装置であってもよいし、ディスクあってもよい。
第3インタフェース146は、映像・メタデータ管理部14と同じ映像配信装置10のイベント管理部12とを接続するためのインタフェースである。第4インタフェース147は、映像配信装置10と時刻管理装置40とをLANを介して接続するためのインタフェースである。第5インタフェース148は、映像配信装置10とネットワーク20とを接続するためのインタフェースである。
図6は、本発明の第1の実施形態の撮影された映像の符号化に必要な時間がGOPの時間間隔より短い場合におけるGOPの映像データとイベントデータとの関係の説明図である。なお、図6の右方向が時間の経過を示す。
第1GOP時間間隔521は、映像信号がエンコーダ141によって圧縮符号化されたGOP(1)の時間間隔を示す。同様に、第2GOP時間間隔522はGOP(2)の時間間隔を示し、第3GOP時間間隔523はGOP(3)の時間間隔を示す。
第1映像信号時間間隔511は、GOP(1)が圧縮符号化される前の映像信号の時間間隔を示す。同様に、第2映像信号時間間隔情報512は、GOP(2)が圧縮符号化される前の映像信号の時間間隔を示し、第3映像信号時間間隔情報513は、GOP(3)が圧縮符号化される前の映像信号の時間間隔を示す。映像信号開始時刻510は、GOP(1)の映像データの先頭が圧縮符号化される前の映像信号の開始時刻を示す。
図6では、エンコーダ141が映像信号を圧縮符号化するために必要な時間は、GOP(1)の映像データの先頭の開始時刻520とGOP(1)の映像信号開始時刻510との差(560)である。以下、エンコーダ141が映像信号を圧縮符号化するために必要な時間を遅延時間Dt(Delay-time)という。
イベント発生時刻530は、センサ11によって検出されたイベントが実際に発生した時刻、つまりセンサ11がイベントを実際に検出した時刻を示す。また、イベント出現時刻540は、圧縮符号化された映像データのGOPにおいて当該イベントが出現する時刻を示す。
図6に示すように、イベント出現時刻540は、イベント発生時刻530から遅延時間Dt分だけ遅れて出現する。
映像・メタデータ管理部14は、GOPの映像データにおいて出現するイベントをすべて検出するために、このGOPの映像データが圧縮符号化される前の映像信号のすべての時間間隔において発生したイベントを検出しなければならない。
このため、映像・メタデータ管理部14は、圧縮符号化されたGOPの映像データを配信する場合に、映像信号を圧縮符号化のための遅延時間を考慮して圧縮符号化された映像データを配信しなければならない。
具体的には、図6に示すように、撮影された映像の符号化に必要な時間がGOPの時間間隔より短い場合には、映像・メタデータ管理部14は、圧縮符号化されたGOPの映像データをすぐに映像受信装置30へ配信してしまうと、このGOPの映像データが圧縮符号化される前の映像信号のすべての時間間隔において発生したイベントを検出できない。
例えば、第1GOP時間間隔521の映像データに出現するイベントは、第1映像信号時間間隔511内に実際に発生する。したがって、第1GOP時間間隔521の映像データに出現するすべてのイベントが検出されるためには、映像・メタデータ管理部14は、イベント管理部12が第1映像信号時間間隔511の終了時刻550までイベントを検出するまで待機して、GOP(1)を配信しなければならない。
具体的には、第1映像信号時間間隔511の終了時刻550と圧縮符号化された映像データのGOP(1)の先頭が出力される時刻520との差分である時間間隔570(以後、待機時間Wt(Waiting-time)という)の時間だけ、映像・メタデータ管理部14は、GOP(1)の映像データの送信を待機する。そして、映像・メタデータ管理部14は、第1映像信号時間間隔511の終了時刻550までに検出したイベントに基づいて、GOP(1)とGOP(1)の映像データで出現するイベントとを関連付けたメタデータを送信した後に、GOP(1)の映像データを送信する。これによって、映像受信装置30は、受信したメタデータに基づいて、映像データを切り換えることができる。
以上をまとめると、遅延時間Dtが、GOPの映像データの時間間隔(以後、Gi(GOP interval)という)より短い場合、映像・メタデータ管理部14は、待機時間Wtだけ、GOPの映像データの配信を待機するので、GOPの映像データを配信する前に、メタデータを配信できる。
一方、圧縮符号化された映像データのGOP(1)の先頭は、第1映像信号時間間隔511の終了時刻550の前の時刻520に出力されている。よって、イベント管理部12が第1映像信号時間間隔511の終了時刻550までイベントを検出するまで待機せずに、映像・メタデータ管理部14が、圧縮符号化された映像データを映像受信装置30へ配信した場合には、GOP(1)の映像データに出現するイベントをすべて検出する前に、GOP(1)の映像データが配信されてしまう。
したがって、映像受信装置30は、GOPの映像データで出現するイベントを把握できないため、映像データを正しく切り換えることができない。
したがって、GOP(1)とGOP(1)の映像データで出現するイベントとを関連付けたメタデータが配信される前に、GOP(1)の映像データが配信されるので、映像受信装置30は、メタデータに基づいて映像データを切り換えることができない。なお、メタデータは、図8で詳細を説明する。
図7は、本発明の第1の実施形態の圧縮符号化された映像データを配信するRTPパケット及びイベント管理データの構成を示す図である。
図7Aは、本発明の第1の実施形態のGOPの先頭を示すGOPヘッダを含むRTPパケット及びイベント管理データの構成を示す図である。
RTPパケットは、RTPヘッダ51及びRTPパケットのペイロードとしてのMPEG2−TSパケット(TSパケット)52〜55を含む。
RTPヘッダ51は、RTPパケットの連続性を示す識別子であるシーケンス番号を含んでいる。
TS−1パケット52〜TS−7パケット55には、映像データが格納される。なお、新たなGOPが開始される場合、TS−1パケット52には、GOPヘッダデータの先頭から格納される、GOPヘッダデータとして、グループスタートコード(G_SC)及びタイムコード(Time Code)等を含む。なお、グループスタートコードは、当該RTPパケットが新たなGOPの先頭を含んでいることを示す。
なお、TS−1発生時刻56、イベント検出開始時刻57及びイベント検出終了時刻58は、図9に示すステップ406の処理でメインメモリ143に記憶されるデータであり、メタデータ作成のために用いられ、RTPデータとしては送信されない。
TS−1発生時刻56には、GOPが検出された時刻(T0)、すなわち図6に示す開始時刻520を示すデータが格納される。
イベント検出開始時刻57には、映像・メタデータ管理部14が各GOPのイベントデータの検出を開始する時刻(Es)、すなわち、映像信号開始時刻510(図6参照)を示すデータが格納される。具体的には、Esは、TS−1発生時刻56が示す時刻(T0)から圧縮符号化のための遅延時間(Dt)を引いた時刻である。つまり、Esは、式(1)によって算出される。
Es=T0−Dt・・・(1)
イベント検出終了時刻58には、映像・メタデータ管理部14が各GOPのイベントデータの検出を終了する時刻(Ee)、すなわちGOP映像信号の終了時刻550(図6参照)を示すデータが格納される。具体的には、Eeは、EsにGOP時間間隔(Gi)を加算した時刻である。つまり、Eeは式(2)によって算出される。
Ee=Es+Gi=T0−Dt+Gi・・・(2)
図7Bは、本発明の第1の実施の形態のGOPの先頭を示すGOPヘッダを含まないRTPパケットの構成を示す図である。
この場合のRTPパケットは、RTPヘッダ61及びRTPパケットのペイロードとしてのMPEG2−TSパケット(TSパケット)62〜65を含む。
なお、この場合のRTPパケットは、TSパケット62にGOPヘッダが格納されない点以外は、図7Aに示すRTPヘッダ51及びTSパケット52〜55と同じであるので、説明を省略する。
図8は、本発明の第1の実施の形態の映像配信装置10から映像受信装置30へ配信されるメタデータの構成を示す図である。メタデータは、図9に示すステップ412の処理で生成される。
メタデータには、被写体情報66、映像ストリーム識別子67、シーケンス番号68及びタイムコード69が格納される。
被写体情報66は、各GOPの映像データで発生するイベントの内容、具体的には、配信する映像データに含まれる被写体の名称(例えば、人物A)を格納する。
映像ストリーム識別子67は、一つのビデオカメラによって撮影された映像ストリームの一意な識別子を格納する。
シーケンス番号68は、GOPヘッダを含むRTPパケットのシーケンス番号を格納する。タイムコード69は、GOPヘッダ内のタイムコードデータを格納する。
図9は、本発明の第1の実施の形態の映像・メタデータ管理処理のフローチャートである。なお、映像・メタデータ管理処理は、映像・メタデータ管理部14のCPU142によって実行される。
まず、映像・メタデータ管理部14は、プログラム蓄積部144に記憶した映像・メタデータ管理処理を実行するためのプログラムをCPU142にロードし、映像・メタデータ管理処理を開始する(ステップ400)。
次に、映像・メタデータ管理部14は、第4インタフェース147を介して時刻管理装置40と通信し、時刻を同期する(ステップ401)。
そして、映像・メタデータ管理部14は、配信される映像データのRTPパケットが完成しているか否かを判定する(ステップ402)。具体的には、RTPパケットは最大7個のTSパケットをペイロードとして構成されるので、映像・メタデータ管理部14は、RTPパケットにTSパケットが7個含まれているか否かを判定する。
ステップ402の処理で、RTPパケットが完成していないと判定された場合、このRTPパケットはまだTSパケットを格納できるので、映像・メタデータ管理部14は、エンコーダ141からTSパケットを読み込む(ステップ404)。
一方、ステップ402の処理で、RTPパケットが完成していると判定された場合、映像・メタデータ管理部14は、完成しているRTPパケットを映像受信装置30に配信し(ステップ403)、新たなRTPパケットを生成するために、ステップ404の処理に進み、エンコーダ141からTSパケットを読み込む。
ステップ403の処理では、映像データが圧縮符号化されるために必要な時間がGOPの映像データの時間間隔よりも短い場合、映像受信装置30がRTPパケットをメタデータよりも先に受信することを防止する必要がある。このために、映像・メタデータ管理部14は、一つのGOPデータに対するメタデータを全て送信してから、映像データを伝送するRTPパケットを配信する。具体的には、映像・メタデータ管理部14は、GOP映像データ(RTPパケット)を配信することを図6で説明した少なくともWt時間以上待機する。
映像・メタデータ管理部14は、イベント管理部12がGOPの映像データが圧縮符号化される前のGOP映像信号の時間間隔の終了時刻以降に、RTPパケットを送信する。よって、この待機時間中に、このGOP映像信号に関連付けられたメタデータが映像受信装置30へ配信される。これによって、映像・メタデータ管理部14は、メタデータを配信した後に、そのメタデータに関連したGOP映像データをRTPパケットとして送信できる。
ステップ404の処理の実行後、映像・メタデータ管理部14は、新たなGOPが始まるとRTPパケットを新たに生成するため、読み込んだTSパケットにGOPの先頭を示すグループスタートコードが含まれるか否かを判定する(ステップ405)。
ステップ405の処理で、読み込んだTSパケットにグループスタートコードが含まれないと判定された場合、映像・メタデータ管理部14は、完成していないRTPパケットが存在するか否かを判定する(ステップ414)。
ステップ414の処理で、完成していないRTPパケットが存在すると判定された場合、読み込んだTSパケットをこの完成していないRTPパケットに格納できるので、読み込んだTSパケットを完成していないRTPパケットのペイロードにパッキングし(ステップ415)、ステップ409の処理に進む。
一方、ステップ414の処理で、完成していないRTPパケットが存在しないと判定された場合、読み込んだTSパケットを格納できるRTPパケットが存在しないので、RTPパケットを新たに生成するために、RTPヘッダ51を生成し(ステップ416)、読み込んだTSパケットを新たなRTPパケットのペイロードにパッキングする(ステップ415)。
一方、ステップ405の処理で、読み込んだTSパケットにグループスタートコードが含まれていると判定された場合、映像・メタデータ管理部14は、このグループスタートコードを検出した時刻(T0)をTS−1発生時刻56に格納する。また、映像・メタデータ管理部14は、式(1)からイベント検出開始時刻(Es)を算出し、算出した値をイベント検出開始時刻57に格納し、式(2)からイベント検出終了時刻(Ee)を算出し、算出した値をイベント検出終了時刻58に格納する。さらに、映像・メタデータ管理部14は、RTPヘッダ51を生成し、ステップ404の処理で読み込んだTSパケットを新たなRTPパケットのペイロードにパッキングすることによって、新たなRTPパケットを生成する(ステップ406)。
次に、映像・メタデータ管理部14は、ステップ406の処理で生成された新たなRTPパケット以外で完成していないRTPパケットが存在するか否かを判定する(ステップ407)。
ステップ406の処理で生成された新たなRTPパケット以外で完成していないRTPパケットが存在するとステップ407の処理で判定された場合、この完成していないRTPパケットは、以降の処理でTSパケットが格納されることはないため、この完成していないRTPパケットを映像受信装置30に配信し(ステップ408)、ステップ409の処理に進む。なお、ステップ408の処理では、映像・メタデータ管理部14は、ステップ403の処理と同じく、圧縮符号化のための遅延時間がGOPの映像の時間よりも短い場合、GOP映像データ(RTPパケット)を配信することを図6で説明したWt時間以上待機する。
一方、ステップ406の処理で生成された新たなRTPパケット以外で完成していないRTPパケットが存在しないとステップ407の処理で判定された場合、イベント管理部12からイベントデータを受信したか否かを判定する(ステップ409)。
ステップ409の処理で、イベント管理部12からイベントデータを受信したと判定された場合、映像・メタデータ管理部14は、受信したイベントデータをストレージ145に記憶し(ステップ410)、ステップ411の処理に進む。
一方、ステップ409の処理で、イベント管理部12からイベントデータを受信していないと判定された場合、映像・メタデータ管理部14は、現在の時刻がイベント検出終了時刻に達しているか否かを判定する(ステップ411)。
ステップ411の処理で、現在の時刻がイベント検出終了時刻に達していると判定された場合、映像・メタデータ管理部14は、現在処理中のGOPの時間間隔で出現するすべてのイベントを検出しているので、メタデータを生成する(ステップ412)。
具体的には、映像・メタデータ管理部14は、ストレージ145に記憶されたイベントデータを参照し、イベント検出時刻41に登録された時刻を抽出する。そして、映像・メタデータ管理部14は、抽出した時刻がイベント検出開始時刻(Es)56とイベント検出終了時刻(Ee)57との間にある場合、すなわち検出したイベントが現在処理中のGOPで出現するイベントである場合、抽出した時刻と同じエントリに含まれるイベントの内容42に登録される人物の名称を抽出する。
そして、映像・メタデータ管理部14は、抽出した人物の名称をメタデータの被写体情報66に格納し、RTPパケットの宛先となる映像受信装置30のIPアドレス及び宛先ポート番号を映像ストリーム識別子67に格納し、現在処理中のGOP先頭のRTPパケットのRTPヘッダ51に格納されるシーケンス番号をメタデータのシーケンス番号68に格納し、TS−1パケットに格納されるタイムコードをタイムコード69に格納することによって、GOPとイベントを関連付けるメタデータを生成する。
そして、映像・メタデータ管理部14は、ステップ412の処理で生成したすべてのメタデータを映像受信装置30へ配信し(ステップ413)、ステップ402の処理に戻り、ステップ406の処理で生成した新たなRTPパケットが完成している場合、ステップ406の処理で生成した新たなRTPパケットを映像受信装置30へ配信する。
一方、現在の時刻がイベント検出終了時刻に達していないと判定された場合、ステップ402の処理に戻る。
次に、映像受信装置30の処理動作を説明する。
図10は、本発明の第1の実施の形態の映像表示処理のフローチャートである。なお、映像表示処理は、映像受信装置30のCPU32によって実行される。
また、図11は、本発明の第1の実施の形態の映像受信装置30の表示部37に表示される表示画面70の説明図である。
まず、図11を用いて表示部37に表示される表示画面70について説明する。
表示画面70には、メイン画面71、第1サブ画面72〜第3サブ画面74及びキー情報指定部75が表示される。
キー情報指定部75には、視聴者が視聴を希望する人物の名称(キー情報)が指定される。
メイン画面71には、キー情報と合致する映像データの映像が表示される。第1サブ画面72〜第3サブ画面74には、各映像配信装置10から送信された各視点の映像が表示される。
第1サブ画面72の左側には左スクロールボタン76が表示され、第3サブ画面74の右側には右スクロールボタン77が表示される。
左スクロールボタン76は、第1サブ画面72〜第3サブ画面74に表示されている映像を一つずつ左にスクロールさせて現在表示されていない映像を表示させるボタンである。
右スクロールボタン77は、第1サブ画面72〜第3サブ画面74に表示されている映像を一つずつ右にスクロールさせて現在表示されていない映像を表示させるボタンである。
なお、メイン画面71の上方には、メイン画面71に対応する全画面表示ボタン78が表示される。各サブ画面72〜74の上方には、各サブ画面72〜74に対応する視点固定ボタン81〜83、視点固定解除ボタン84〜86、及び全画面表示ボタン87〜89が表示される。
視点固定ボタン81〜83は、操作された視点固定ボタン81〜83に対応するサブ画面72〜74に表示されている映像を、左スクロールボタン76又は右スクロールボタン77が操作された場合であってもスクロールさせないようにするボタンである。
視点固定解除ボタン84〜86は、操作された視点固定解除ボタン84〜86に対応するサブ画面72〜74の視点固定を解除するボタンである。
全画面表示ボタン78及び87〜89は、操作された全画面表示ボタン78及び87〜89に対応するメイン画面71及びサブ画面72〜74に表示されている映像を全画面表示するボタンである。
次に、映像表示処理を図10を用いて説明する。
まず、映像受信装置30は、プログラム蓄積部34に記憶した映像表示処理を実行するプログラムをCPU32にロードし、映像表示処理を開始する(ステップ300)。
次に、映像受信装置30は、映像・メタデータ受信部31又は入力部36を介してデータを受信したか否かを判定する(ステップ301)。
ステップ301の処理で、映像・メタデータ受信部31又は入力部36を介してデータを受信していないと判定された場合、ステップ301の処理を引き続き実行する。
一方、ステップ301の処理で、映像・メタデータ受信部31又は入力部36を介してデータを受信したと判定された場合、映像受信装置30は、受信したデータが映像データであるか否かを判定する(ステップ302)。
ステップ302の処理で、受信したデータが映像データであると判定された場合、受信した映像データを再生し、表示部37に表示する映像再生表示処理を実行する(ステップ303)。
映像再生処理について説明する。
映像再生処理は、どの映像データをメイン画面71に表示させるかを選択して、映像データを再生する処理である。
具体的には、映像受信装置30は、メタデータを参照し、メタデータに含まれる被写体情報66に登録された被写体の名称とストレージ35に記憶されたキー情報とを比較し、被写体情報66にキー情報と一致する被写体の名称が登録された映像ストリーム識別子67及びシーケンス番号68を抽出する。そして、映像受信装置30は、抽出したシーケンス番号68によって特定されるRTPパケットから始まるGOPの映像データを選択し、選択した映像データを再生し、メイン画面71に表示する。
また、抽出した映像ストリーム識別子67、及びその他の映像ストリーム識別子67を含むRTPパケットの映像データを再生し、第1サブ画面72〜第3サブ画面74に表示する。
一方、ステップ302の処理で、受信したデータが映像データでないと判定された場合、受信したデータがメタデータであるか否かを判定する(ステップ304)。
ステップ304の処理で、受信したデータがメタデータであると判定された場合、受信したメタデータをストレージ35に記憶する(ステップ305)。
ステップ304の処理で、受信したデータがメタデータでないと判定された場合、受信したデータが視点スクロール要求データであるか否かを判定する(ステップ306)。視点スクロール要求データは、図11に示す第1サブ画面72〜第3サブ画面74に表示されている映像を一つずつスクロールさせて現在表示されていない映像を表示させることを要求するデータであって、左スクロールボタン76又は右スクロールボタン77が操作された場合に出力されるデータである。
ステップ306の処理で、受信したデータが視点スクロール要求データであると判定された場合、視点スクロール処理を実行する(ステップ307)。
左スクロールボタン76が操作された場合、映像受信装置30は、第1サブ画面72に現在表示されている映像の表示を停止し、第2サブ画面73に表示されている映像を第1サブ画面72に表示する。また、映像受信装置30は、第3サブ画面74に表示されている映像を第2サブ画面73に表示する。また、映像受信装置30は、現在表示されていない映像であって次の表示順番の映像を第3サブ画面74に表示する。
右スクロールボタン77が操作された場合、映像受信装置30は、第3サブ画面74に現在表示されている映像の表示を停止し、第2サブ画面73に表示されている映像を第3サブ画面74に表示する。また、映像受信装置30は、第1サブ画面72に表示されている映像を第2サブ画面73に表示する。また、映像受信装置30は、現在表示されていない映像であって次の表示順番の映像を第1サブ画面72に表示する。
一方、ステップ306の処理で、受信したデータが視点スクロール要求データでないと判定された場合、受信したデータが視点固定要求データであるか否かを判定する(ステップ308)。視点固定要求データは、各視点固定ボタン81〜83が操作された場合、操作された固定ボタン81〜83に対応するサブ画面72〜74に表示されている映像を、左スクロールボタン76又は右スクロールボタン77が操作された場合であってもスクロールさせないことを要求するデータである。
ステップ308の処理で、受信したデータが視点固定要求データであると判定された場合、視点固定処理を実行する(ステップ309)。
例えば、第1サブ画面72に対応する視点固定ボタン81が操作された場合、第1サブ画面72に表示されている映像を変更しない。すなわち、固定ボタン81が操作された場合において、左スクロールボタン76又は右スクロールボタン77が操作されると、第2サブ画面73及び第3サブ画面74に表示されている映像に対して、視点スクロール処理を実行する。
一方、ステップ308の処理で、受信したデータが視点固定要求データでないと判定された場合、受信したデータが視点固定解除データであるか否かを判定する(ステップ310)。視点固定解除データは、視点固定解除ボタン84〜86が操作された場合、操作された視点固定解除ボタン84〜86に対応するサブ画面72〜74の視点固定を解除するデータである。
ステップ310の処理で、受信したデータが視点固定解除要求データであると判定された場合、操作された視点固定解除ボタン84〜86に対応するサブ画面72〜74に視点固定解除処理を実行する(ステップ311)。
一方、ステップ310の処理で、受信したデータが視点固定解除要求データでないと判定された場合、受信したデータが全画面表示要求データであるか否かを判定する(ステップ312)。全画面表示要求データは、全画面表示ボタン78及び87〜89が操作された場合、操作された全画面表示ボタン78及び87〜89に対応するメイン画面71及びサブ画面72〜74に表示されている映像を全画面表示するデータである。
ステップ312の処理で、受信したデータが全画面表示要求データであると判定された場合、操作された78及び87〜89に対応するメイン画面71及びサブ画面72〜74に全画面表示処理を実行する(ステップ313)。
一方、ステップ312の処理で、受信したデータが全画面表示要求データでないと判定された場合、受信したデータが全画面表示解除要求データであるか否かを判定する(ステップ314)。全画面表示解除要求データは、例えば、入力部36の所定のキーが操作された場合、全画面表示処理を解除し、図11に示す通常の表示状態に戻すことを要求するデータである。
ステップ314の処理で、受信したデータが全画面表示解除要求データであると判定された場合、全画面表示処理を解除し、図11に示す通常の表示状態に戻す(ステップ315)。
一方、ステップ314の処理で、受信したデータが全画面表示解除要求データでないと判定された場合、受信したデータがキー入力データであるか否かを判定する(ステップ316)。キー入力データは、視聴者が入力部36を介して入力し、視聴者の好みを示すデータである。本実施形態では、キー入力データは、例えば、視聴者が視聴を希望する人物の名称である。
ステップ316の処理で、受信したデータがキー入力データであると判定された場合、受信したキー入力データをストレージ35に記憶する(ステップ317)。
一方、ステップ316の処理おいて、受信したデータがキー入力データでないと判定された場合、ステップ301の処理を実行する。
<第1の実施形態の変形例1>
図12は、本発明の第1の実施形態の第1の変形例の撮影された映像の符号化に必要な時間がGOPの時間間隔より長い場合におけるGOPの映像データとイベントデータとの関係の説明図である。なお、図6と同じ構成は、図6と同じ番号を付し、説明を省略する。
図12に示すように、エンコーダ141が映像信号を圧縮符号化するために必要な時間560は、GOPの映像信号時間間隔511よりも長いので、第1映像信号時間間隔511の終了時刻550以降に圧縮符号化されたGOPが出力される。これにより、映像・メタデータ管理部14は、GOPが出力される前にメタデータを作成でき、映像データを映像受信装置30に待機せずに配信しても、映像データより先にメタデータを配信できる。
よって、圧縮符号化のための遅延時間がGOPの映像の時間間隔よりも長い場合、映像・メタデータ管理部14は、図9に示すステップ403及び408の処理で、RTPパケットを待機せずに送信してよい。
<第1の実施形態の変形例2>
第1の実施形態の第2の変形例では、センサ11がイベントを検出するために要する遅延時間を考慮するものである。
図13は、本発明の第1の実施形態の第2の変形例のストレージ125に記憶されたイベントデータを説明するための図である。なお、図4と同じ構成は、図4と同じ番号を付し、説明を省略する。
図4のイベントデータと図13のイベントデータとで異なる点は、イベントの検出時刻の取得方法である。図4では、イベント管理部12は、イベントがセンサ11によって検出された時刻を取得し、取得した時刻をイベント検出時刻41に登録する。
一方、図13の取得方法は、センサ11によるイベントの検出に大きな遅延が生じる場合に必要となる取得方法である。具体的には、イベント管理部12は、イベントがセンサ11によって検出された時刻からセンサ11による検出遅延時間を減算した時刻を、43及び44に示すようにイベント検出時刻41に登録する。
なお、センサ11による検出遅延時間は、予めイベント管理部12に設定される。また、このイベントデータは、第1の実施形態で説明した処理と同じ処理で利用できる。
これにより、センサ11による検出遅延時間を考慮した、GOPとGOPに関連するイベントデータとの対応を自動的に生成できる。
<第2の実施形態>
第1の実施形態では、イベント管理部12は、イベントを検出するごとに、イベントデータを映像・メタデータ管理部14へ送信したが、第2の実施形態では、映像・メタデータ管理部14は、一つのGOPの映像データの時間間隔内で出現するイベントの検出が終了した場合に、イベント配信要求データをイベント管理部12へ送信し、イベント管理部12は、イベント配信要求に基づいて、イベントデータを映像・メタデータ管理部14へ送信する。
第2の実施形態を図14及び図15を用いて説明する。
図14は、本発明の第2の実施形態のイベント管理部12によって実行されるイベント管理処理のフローチャートである。なお、第2の実施形態のイベント管理処理のうち、図6に示す第1の実施形態のイベント管理処理と同じ処理は、図6と同じ番号を付与し、説明を省略する。
まず、イベント管理部12は、図6に示すイベント管理処理と同じように、イベント開始処理を開始後(ステップ200)、時刻を同期させる(ステップ201)。
そして、イベント管理部12は、センサ11がイベントを検出したか否かを判定する(ステップ207)。
ステップ207の処理で、センサ11がイベントを検出したと判定された場合、図3に示すイベント管理処理と同じように、イベント管理部12は、センサ11がイベントを検出した時刻を取得し(ステップ203)、イベントデータを生成し、生成したイベントデータをストレージ125に記録し(ステップ204)、ステップ207の処理に戻る。
一方、ステップ207の処理で、センサ11がイベントを検出していないと判定された場合、イベント管理部12は、映像・メタデータ管理部14から送信されたイベントデータ配信要求を受信したか否かを判定する(ステップ208)。
ステップ208の処理で、イベントデータ配信要求を受信したと判定された場合、イベント管理部12は、ストレージ125に記録されているイベントデータを映像・メタデータ管理部14へ配信する(ステップ205)。
そして、イベント管理部12は、ステップ205の処理で伝達終了したイベントデータをストレージ125から消去し(ステップ206)、ステップ207の処理に戻る。
一方、ステップ208の処理で、イベントデータ配信要求を受信していないと判定された場合、ステップ207の処理に戻る。
これによって、イベント管理部12は、映像・メタデータ管理部14から送信されたイベントデータ送信要求を受信した場合に、生成されたイベントデータを映像・メタデータ管理部14へ配信する。
図15は、本発明の第2の実施形態の映像・メタデータ管理処理のフローチャートである。なお、第2の実施形態の映像・メタデータ管理処理のうち、図9に示す第1の実施形態の映像・メタデータ管理処理と同じ処理は、図9と同じ番号を付与し、説明を省略する。具体的には、図15に示すステップ400〜408の処理及びステップ414〜416の処理は、図9に示すステップ400〜408の処理及びステップ414〜416の処理と同じなので説明を省略し、ステップ411〜413の処理及びステップ421〜423の処理について説明する。
映像・メタデータ管理部14は、ステップ407の処理で完成していないRTPパケットがあると判定された場合、ステップ408の処理でRTPパケットを映像受信装置30へ配信した後、又はステップ415の処理で読み込んだTSパケットを完成していないRTPパケットのペイロードにパッキングした後、現在の時刻がイベント検出終了時刻に達しているか否かを判定する(ステップ411)。
ステップ411の処理で、現在の時刻がイベント検出終了時刻に達していると判定された場合、一つのGOPの時間間隔内で発生するイベントの検出が終了しているので、映像・メタデータ管理部14は、イベントデータ配信要求をイベント管理部12へ送信する(ステップ421)。
そして、映像・メタデータ管理部14は、イベント管理部12から配信されたイベントデータを受信した否かを判定する(ステップ422)。映像・メタデータ管理部14は、一つのGOPの映像データの時間間隔で出現するイベントの検出が終了した後にイベントデータ配信要求を送信するので、イベント管理部12から送信されるイベントデータは、一つのGOPの映像データで出現する時間間隔内で出現するすべてのイベントデータである。
ステップ422の処理で、イベントデータを受信していないと判定された場合、ステップ402の処理に戻る。
一方、ステップ422の処理で、イベントデータを受信したと判定された場合、映像・メタデータ管理部14は、受信したすべてのイベントデータをストレージ145に記憶する(ステップ423)。
そして、映像・メタデータ管理部14は、GOPの映像データの時間間隔内で出現するイベントを示すメタデータを生成する(ステップ412)。
そして、映像・メタデータ管理部14は、生成したメタデータを映像受信装置30へ配信し(ステップ413)、ステップ402の処理に戻る。
第2の実施形態では、イベント管理部12は、イベントデータ配信要求に基づいて、一つのGOPの映像データの時間間隔で出現するすべてのイベントデータをまとめて映像・メタデータ管理部14へ送信するので、イベントが発生するごとにイベントデータを映像・メタデータ管理部14へ送信する場合よりも、イベント管理部12の処理負荷を軽減できる。
<第3の実施形態>
第1の実施形態では、イベント管理部12は、イベントを検出するごとに、イベントデータを映像・メタデータ管理部14へ送信したが、第3の実施形態では、映像・メタデータ管理部14は、予め設定された要求タイミングになると、イベントデータ配信要求をイベント管理部12へ送信し、イベント管理部12は、イベントデータ配信要求に基づいてイベントデータを映像・メタデータ管理部14へ配信する。
第3の実施形態の映像・メタデータ管理処理を図16を用いて説明する。なお、イベント管理処理は、第2の実施形態のイベント管理処理と同じであるので説明を省略する。
図16は、本発明の第3の実施形態の映像・メタデータ管理処理のフローチャートである。なお、第3の実施形態の映像・メタデータ管理処理のうち、図9に示す第1の実施形態及び図15に示す第2の実施形態の映像・メタデータ管理処理と同じ処理は、図9及び図15と同じ番号を付与し、説明を省略する。具体的には、図16に示すステップ400〜408の処理及びステップ414〜416の処理は、図9及び図15に示すステップ400〜408の処理及びステップ414〜416の処理と同じなので説明を省略し、ステップ430〜435の処理について説明する。
映像・メタデータ管理部14は、ステップ407の処理で完成していないRTPパケットがあると判定された場合、ステップ408の処理でRTPパケットを映像受信装置30へ配信した後、又はステップ415の処理で読み込んだTSパケットを完成していないRTPパケットのペイロードにパッキングした後、予め設定されたイベントデータ配信要求タイミングになったか否かを判定する(ステップ430)。
ステップ430の処理で、予め設定されたイベントデータ配信要求タイミングになっていないと判定された場合、ステップ402の処理に戻る。
一方、ステップ430の処理で、予め設定されたイベントデータ配信要求タイミングになったと判定された場合、映像・メタデータ管理部14は、イベントデータ配信要求データをイベント管理部12へ送信する(ステップ431)。
次に、イベント管理部12は、イベントデータ配信要求を受信すると、イベントデータを送信するので、映像・メタデータ管理部14は、イベントデータを受信したか否かを判定する(ステップ432)。
ステップ432の処理で、イベントデータを受信していないと判定された場合、ステップ402の処理に戻る。
一方、ステップ432の処理で、イベントデータを受信したと判定された場合、映像・メタデータ管理部14は、受信したすべてのイベントデータをストレージ145に記憶する(ステップ433)。
そして、映像・メタデータ管理部14は、受信したすべてのイベントデータに基づいて、メタデータを生成する(ステップ434)。
そして、映像・メタデータ管理部14は、生成したメタデータを映像受信装置30へ配信し(ステップ435)、ステップ402の処理に戻る。
第3の実施形態では、イベント管理部12は、所定のタイミングの間に発生するすべてのイベントデータをまとめて映像・メタデータ管理部14へ送信するので、イベントが発生するごとにイベントデータを映像・メタデータ管理部14へ送信する場合よりも、イベント管理部12の処理負荷を軽減できる。
<第4の実施形態>
第4の実施形態では、選択映像配信装置1は、視聴者の希望に適合するように映像データを選択し、選択された映像データを選択映像受信装置90へ送信し、選択映像受信装置90は、選択された映像データを再生する。
第4の実施形態を図17〜図20を用いて説明する。
図17は、本発明の第4の実施形態の選択映像配信システムの構成を示すシステム構成図である。なお、図17に示す選択映像配信システムの構成うち、図1に示す映像配信システムと同じ構成は、同じ番号を付与し、説明を省略する。
選択映像システムは、映像データを選択し、選択された映像データを配信する選択映像配信装置1、及び選択された映像データを再生する選択映像受信装置90を備える。
選択映像配信装置1は、映像データ及びメタデータを映像選択部5へ配信する複数の映像配信部10、複数の映像配信部10の時刻を同期させる時刻管理部40及び映像選択部5を備える。映像配信部10、時刻管理部40及び映像選択部5は、それぞれLAN等で接続されている。なお、映像配信部10及び時刻管理部40は、図1に示す映像配信装置10及び時刻管理装置40と同じであるので、説明を省略する。
映像選択部5は、視聴者の希望を示すキー情報を記憶するキー蓄積部15と、複数の映像配信部10から受信した複数の映像データから、視聴者のキー情報に適合する映像データを選択する映像選択処理実行部16と、視聴者によって入力されたキー情報をネットワーク20を介して受信する受信部17と、選択された映像データを選択映像受信装置90へ送信する送信部18と、を備える。
次に、映像選択部5の動作処理について説明する。
まず、映像選択部5は、キー情報を受信部17を介して受信し、受信したキー情報をキー蓄積部15に記憶する。次に、映像選択部5は、映像配信部10から受信したメタデータを記憶する。なお、メタデータは、図8に示す第1実施形態のメタデータと同じであり、検出されたイベント、及び当該イベントに対応して選択されるべき映像データの識別子を含む。
また、映像選択部5は、メタデータを参照し、メタデータに含まれる被写体情報66に登録された被写体の名称とキー蓄積部15に記憶されたキー情報とを比較し、被写体情報66にキー情報と一致する被写体の名称が登録された映像ストリーム識別子67及びシーケンス番号68を抽出する。そして、映像選択部5は、抽出した映像ストリーム識別子67及びシーケンス番号68によって特定されるRTPパケットから始まるGOPの映像データを選択する。
例えば、キー情報が「人物A」である場合、メタデータに含まれる被写体情報66に「人物A」が登録された映像データを選択する。
そして、映像選択部5は、選択された映像データを送信部18から選択映像受信装置90へ送信する。
次に、選択映像受信装置90について説明する。
選択映像受信装置90は、キー送信部91、映像受信部92、CPU32、メインメモリ33、プログラム蓄積部34、ストレージ35、入力部36、表示部37及びバス38を備える。キー送信部91、映像受信部92、CPU32、メインメモリ33、プログラム蓄積部34、ストレージ35、入力部36及び表示部37は、バス38によって接続される。なお、CPU32、メインメモリ33、プログラム蓄積部34、ストレージ35、入力部36及び表示部37は、図1に示す映像受信装置30と同じ構成であるので説明を省略する。
キー送信部91は、入力部36に入力されたキー情報を選択映像配信装置1へ送信するインタフェースである。映像受信部92は、選択映像配信装置1から送信された映像データを受信するインタフェースである。
図18は、本発明の第4の実施形態の選択映像配信システムの選択映像の送受信処理のシーケンス図である。
まず、選択映像受信装置30に、キー情報が視聴者によって入力される(ステップ151)。次に、選択映像受信装置30は、入力されたキー情報を選択映像配信装置1へ送信する(ステップ152)。
選択映像配信装置1は、選択映像受信装置90から送信されたキー情報を受信し、受信したキー情報を記憶装置(図示省略)に記憶する(ステップ153)。
次に、選択映像配信装置1は、キー情報とメタデータの被写体情報66に登録された被写体の名称とを比較し、複数の映像配信部10から送信される複数の映像データから、キー情報と一致する被写体の名称に対応する映像データをGOP単位で選択する(ステップ154)。そして、選択映像配信装置1は、選択された映像データを選択映像受信装置90へ送信する(ステップ155)。
選択映像受信装置90は、選択された映像データを受信し、受信した映像データを再生する(ステップ156)。
図19は、本発明の第4の実施形態の選択映像受信装置90の表示部37で表示される表示画面70の説明図である。
表示画面70には、選択された映像データが表示される再生画面71、及び視聴者の希望を示すキー情報を入力するためのキー情報指定部75が表示される。
図20は、本発明の第4の実施形態の選択映像受信処理を示すフローチャートである。なお、映像表示処理は、選択映像受信装置90のCPU32によって実行される。
まず、選択映像受信装置90は、プログラム蓄積部34に格納した映像表示処理を実行するプログラムをCPU32にロードし、映像表示処理を開始する(ステップ330)。
次に、選択映像受信装置90は、キー情報が入力されたか否かを判定する(ステップ331)。
ステップ331の処理で、キー情報が入力されたと判定された場合、選択映像受信装置90は、入力されたキー情報をストレージ35に記憶し、入力されたキー情報を選択映像配信装置1へキー送信部91から送信し(ステップ332)、ステップ331の処理に戻る。
一方、ステップ331の処理で、キー情報が入力されていないと判定された場合、選択映像受信装置90は、選択された映像データを受信したか否かを判定する(ステップ333)。
ステップ333の処理で、選択された映像データを受信したと判定された場合、選択映像受信装置90は、受信した選択された映像データを再生し、映像データを表示する(スッテプ334)。
一方、ステップ333の処理で、選択された映像データを受信していないと判定された場合、ステップ331の処理に戻る。
本発明の第6の実施形態によると、選択映像配信装置1が、複数の映像データから、視聴者が希望する映像データをGOP単位で選択するので、すべての映像データを選択映像受信装置90へ送信しないので、ネットワーク20の負荷が軽減される。
<第5の実施形態>
第5の実施形態では、映像受信装置30が、複数の映像配信装置10から配信された複数の映像データ及び映像データのGOPごとの内容を示すメタデータをストレージ35に記憶する。そして、映像受信装置30は、メタデータを参照して、ストレージ35に記憶している複数の映像データから、視聴者の希望に適合する映像データを選択して再生する。なお、第5の実施形態の映像配信システムの構成は、第1の実施形態の映像配信システムの構成と同じである。
図21は、本発明の第5の実施形態の映像データ選択処理のフローチャートである。映像データ選択処理は、映像受信装置30のCPU32によって実行される。
まず、映像配信装置10は、図10に示す映像受信処理を実行し、受信したすべての映像データ及びメタデータをストレージ35に記憶する(ステップ350)。次に、映像受信装置30は、視聴者の希望にある映像再生を実行するための処理を開始する(ステップ360)。
次に、映像受信装置30は、キー情報が入力されているか否かを判定する(ステップ361)。
ステップ361の処理で、キー情報が入力されていると判定された場合は、映像受信装置30は、メタデータの被写体情報66に登録された被写体の名称とキー情報とを比較し、キー情報と一致する被写体の名称が格納された被写体情報66と同じエントリに含まれる映像ストリーム識別子67及びタイムコード69を抽出する。そして、抽出した映像ストリーム識別子67及びタイムコードと一致するRTPパケットから始まる映像データを、再生する映像データとして選択する(ステップ362)。
ステップ362の処理では、映像データがストレージ145に記憶されている場合、映像データが格納されたRTPパケットにはシーケンス番号がないので、映像受信装置30は、映像ストリーム識別子及びタイムコードを用いて、再生すべき映像データを選択する。
そして、映像受信装置30は、ステップ362の処理で選択された映像データを再生し、ステップ361の処理に戻る。
一方、ステップ361の処理で、キー情報が入力されていないと判定された場合は、映像受信装置30は、映像データを再生しているか否かを判定する(ステップ364)。
ステップ364の処理で、映像データを再生していないと判定された場合、ステップ361の処理に戻る。
一方、ステップ364の処理で、映像データを再生していると判定された場合、映像受信装置30は、選択された映像データの再生を継続する(ステップ365)。
次に、映像受信装置30は、映像データの再生を終了する時刻に達しているか否かを判定する(ステップ366)。
ステップ366の処理で、映像データの再生を終了する時刻に達していると判定された場合、映像受信装置30は、映像データの再生を終了し(ステップ367)、ステップ361の処理に戻る。
一方、ステップ366の処理で、映像データ再生終了に達していないと判定された場合、ステップ361の処理に戻る。
第5の実施形態によると、映像受信装置25は、ストレージ35に記憶された複数の映像データから、視聴者が希望する映像データをGOP単位に選択して、選択された映像データを再生できる。
特許請求の範囲に記載した以外の本発明の観点の代表的なものとして、次のものがあげられる。
(1)複数の映像データを受信して再生する映像受信装置であって、受信した複数映像データから、視聴者によって指定された情報と合致する映像データを常に表示し、視聴者によって指定された情報と合致しない映像データをスクロール表示可能に再生することを特徴とする映像受信装置。
(2)複数の映像データを受信して再生する受信装置であって、前記受信装置は、前記複数の映像データに関連付けられた被写体の情報を示す付加情報を記憶し、再生を希望する被写体の情報を示す再生情報を受け付け、前記受け付けた再生情報と合致する付加情報に関連付けられた映像データを、前記受信した複数の映像データから選択し、前記選択された映像データを再生することを特徴とする受信装置。
本発明は、映像データを配信する映像配信システムに適用できる。
本発明の第1の実施の形態の映像配信システムの構成を示すシステム構成図である。 本発明の第1の実施の形態のイベント管理部のブロック図である。 本発明の第1の実施形態のイベント管理処理のフローチャートである。 本発明の第1の実施形態のストレージに記憶されたイベントデータの説明図である。 本発明の第1の実施形態の映像・メタデータ管理部14のブロック図である。 本発明の第1の実施形態の撮影された映像の符号化に必要な時間がGOPの時間間隔より短い場合におけるGOPの映像データとイベントデータとの関係の説明図である。 本発明の第1の実施形態の圧縮符号化された映像データを配信するRTPパケットの構成を示す図である。 本発明の第1の実施の形態の映像配信装置から映像受信装置へ配信されるメタデータの構成を示す図である。 発明の第1の実施の形態の映像・メタデータ管理処理のフローチャートである。 本発明の第1の実施の形態の映像表示処理のフローチャートである。 本発明の第1の実施の形態の映像受信装置の表示部に表示される表示画面の説明図である。 本発明の第1の実施形態の第1の変形例の撮影された映像の符号化に必要な時間がGOPの時間間隔より長い場合におけるGOPの映像データとイベントデータとの関係の説明図である。 本発明の第1の実施形態の第2の変形例のストレージに記憶されたイベントデータを説明するための図である。 本発明の第2の実施形態のイベント管理部によって実行されるイベント管理処理のフローチャートである。 本発明の第2の実施形態の映像・メタデータ管理処理のフローチャートである。 本発明の第3の実施形態の映像・メタデータ管理処理のフローチャートである。 本発明の第4の実施形態の選択映像配信システムの構成を示すシステム構成図である。 本発明の第4の実施形態の選択映像配信システムの選択映像の送受信処理のシーケンス図である。 本発明の第4の実施形態の選択映像受信装置の表示部で表示される表示画面70の説明図である。 本発明の第4の実施形態の選択映像受信処理を示すフローチャートである。 本発明の第5の実施形態の映像データ選択処理のフローチャートである。
符号の説明
1 選択映像配信装置
10 映像配信装置
11 センサ
12 イベント管理部
13 ビデオカメラ
14 映像・メタデータ管理部
15 キー蓄積部
16 映像選択処理実行部
17 受信部
18 送信部
20 ネットワーク
30 映像受信装置
40 時刻管理装置
41 イベント検出時刻
42 内容
69 タイムコード
70 表示画面
72 第1サブ画面
73 第2サブ画面
74 第3サブ画面
75 キー情報指定部
76 左スクロールボタン
77 右スクロールボタン
78 全画面表示ボタン
81 視点固定ボタン
84 視点固定解除ボタン
87 全画面表示ボタン
90 選択映像受信装置
91 キー送信部
92 映像受信部

Claims (20)

  1. 映像データに関連付けられた付加情報を配信するデータ配信装置であって、
    符号化された映像データの再生可能な単位を示す区切情報に対応して、前記区切情報に関連した映像データに含まれる被写体の情報を示す付加情報を作成し、
    前記作成された付加情報を配信することを特徴とするデータ配信装置。
  2. 前記データ配信装置は、
    前記映像データの区切情報を検出し、
    前記検出された区切情報に関連した映像データに含まれる被写体の情報を検出し、
    前記検出された区切情報を含むパケットの識別子と、そのパケットに含まれる区切情報に関連した映像データに含まれる被写体の情報とを関連付けた付加情報を作成することを特徴とする請求項1に記載のデータ配信装置。
  3. 前記検出された区切情報に関連した全ての付加情報が作成された後に、前記作成された付加情報を配信することを特徴とする請求項1に記載のデータ配信装置。
  4. 前記検出された区切情報に関連した各付加情報が作成されたときに、前記作成された各付加情報を配信することを特徴とする請求項1に記載のデータ配信装置。
  5. 前記パケットの識別子は、RTPパケットのシーケンス番号であることを特徴とする請求項2に記載のデータ配信装置。
  6. 前記データ配信装置は、前記区切情報に関連した付加情報を全て配信した後、その区切情報に関連した映像データが配信されるように、当該区切情報に関連した映像データの配信を遅延させることを特徴とする請求項1に記載のデータ配信装置。
  7. 前記データ配信装置は、
    被写体を検出するセンサをさらに備え、
    前記センサによって検出された被写体の情報と、前記センサがその被写体の情報を検出した時刻と、を対応して保持し、
    前記区切情報を検出した時刻、撮影された映像の符号化に必要な時間、及び前記検出された区切情報に関連した映像データの時間間隔から、前記検出された区切情報に関連した映像データが符号化される前の映像データの時間間隔を算出し、
    前記センサが被写体の情報を検出した時刻が、前記区切情報に関連した映像データが符号化される前の映像データの時間間隔内である場合に、前記センサによって検出された被写体の情報を、前記検出された区切情報に関連した映像データに含まれる被写体の情報とする付加情報を作成することを特徴とする請求項1に記載のデータ配信装置。
  8. 前記データ配信装置は、撮影された映像の符号化に必要な時間が前記区切情報に関連した映像データの時間間隔より短い場合には、前記区切情報に関連した映像データの時間間隔から符号化に必要な時間を減じた時間以上の時間、前記区切情報に関連した映像データの配信を遅延させることを特徴とする請求項1に記載のデータ配信装置。
  9. 映像データを配信する映像配信装置と、
    前記映像データに関連付けられた被写体の情報を示す付加情報を配信する付加情報配信装置と、を備えるデータ配信システムにおいて、
    前記付加情報配信装置は、
    前記符号化された映像データの再生可能な単位を示す区切情報に対応して、前記前記区切情報に関連した映像データに含まれる被写体の情報を示す付加情報を作成し、
    前記作成された付加情報を配信することを特徴とするデータ配信システム。
  10. 前記付加情報配信装置は、
    前記映像データの区切情報を検出し、
    前記検出された区切情報に関連した映像データに含まれる被写体の情報を検出し、
    前記検出された区切情報を含むパケットの識別子と、そのパケットに含まれる区切情報に関連した映像データに含まれる被写体の情報を示す付加情報を作成することを特徴とする請求項9に記載のデータ配信システム。
  11. 前記付加情報配信装置は、前記検出された区切情報に関連した全ての付加情報が作成された後に、前記作成された付加情報を配信することを特徴とする請求項9に記載のデータ配信システム。
  12. 前記付加情報配信装置は、前記検出された区切情報に関連した各付加情報が作成されたときに、前記作成された各付加情報を配信することを特徴とする請求項9に記載のデータ配信システム。
  13. 前記付加情報配信装置は、前記パケットの識別子は、RTPパケットのシーケンス番号とすることを特徴とする請求項10に記載のデータ配信システム。
  14. 前記映像配信装置は、前記付加情報配信装置が前記区切情報に関連した付加情報を全て配信した後、その区切情報に関連した映像データが配信されるように、当該区切情報に関連した映像データの配信を遅延させることを特徴とする請求項9に記載のデータ配信システム。
  15. 前記データ配信システムは、
    被写体を検出するセンサをさらに備え、
    前記付加情報配信装置は、
    前記センサによって検出された被写体の情報と、前記センサがその被写体の情報を検出した時刻と、を対応して保持し、
    前記区切情報を検出した時刻、撮影された映像の符号化に必要な時間、及び前記検出された区切情報に関連した映像データの時間間隔から、前記検出された区切情報に関連した映像データが符号化される前の映像データの時間間隔を算出し、
    前記センサが被写体の情報を検出した時刻が、前記区切情報に関連した映像データが符号化される前の映像データの時間間隔内である場合に、前記センサによって検出された被写体の情報を、前記検出された区切情報に関連した映像データに含まれる被写体の情報とする付加情報を作成することを特徴とする請求項9に記載のデータ配信システム。
  16. 前記付加情報配信装置は、撮影された映像の符号化に必要な時間が前記区切情報に関連した映像データの時間間隔より短い場合には、前記区切情報に関連した映像データの時間間隔から符号化に必要な時間を減じた時間以上の時間、前記区切情報を含む映像データの配信を遅延させることを特徴とする請求項9に記載のデータ配信装置。
  17. 前記映像配信装置は、複数の映像データを配信し、
    前記付加情報配信装置は、前記複数の映像データに関連付けられた被写体の情報を示す付加情報を配信し、
    前記データ配信システムは、前記映像配信装置によって配信される複数の映像データ及び前記付加情報配信装置によって配信される付加情報を受信する受信装置をさらに備え、
    前記受信装置は、
    再生を希望する被写体の情報を示す再生情報を受け付け、
    前記受け付けた再生情報と合致する付加情報に関連付けられた映像データを、前記受信した複数の映像データから、前記区切情報に関連した映像データ単位で選択し、
    前記選択された映像データを再生することを特徴とする請求項9に記載のデータ配信システム。
  18. 前記映像配信装置は、複数の映像データを配信し、
    前記付加情報配信装置は、前記複数の映像データに関連付けられた被写体の情報を示す付加情報を配信し、
    前記データ配信システムは、前記映像配信装置によって配信される複数の映像データ及び前記付加情報配信装置によって配信される付加情報を受信する受信装置をさらに備え、
    前記受信装置は、
    前記受信した複数の映像データ及び前記受信した付加情報を記憶し、
    再生を希望する被写体の情報を示す再生情報を受け付け、
    前記受け付けた再生情報と合致する付加情報に関連付けられた映像データを、前記記憶されている複数の映像データから、前記区切情報に関連した映像データ単位で選択し、
    前記選択された映像データを再生することを特徴とする請求項9に記載のデータ配信システム。
  19. 前記映像配信装置は、複数の映像データを配信し、
    前記付加情報配信装置は、前記複数の映像データに関連付けられた被写体の情報を示す付加情報を配信し、
    前記映像配信装置は、
    前記付加情報を受信し、
    再生を希望する被写体の情報を示す再生情報を受け付け、
    前記受け付けた再生情報と合致する付加情報に関連付けられた映像データを、前記複数の映像データから、前記区切情報に関連した映像データ単位で選択し、
    前記選択された映像データを配信することを特徴とする請求項9に記載のデータ配信システム。
  20. 前記データ配信システムは、前記映像配信装置の時刻及び前記付加情報配信装置の時刻を同期する時刻同期装置をさらに備えることを特徴とする請求項9に記載のデータ配信システム。
JP2007272339A 2007-10-19 2007-10-19 データ配信装置及びデータ配信システム Pending JP2009100410A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007272339A JP2009100410A (ja) 2007-10-19 2007-10-19 データ配信装置及びデータ配信システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007272339A JP2009100410A (ja) 2007-10-19 2007-10-19 データ配信装置及びデータ配信システム

Publications (1)

Publication Number Publication Date
JP2009100410A true JP2009100410A (ja) 2009-05-07

Family

ID=40702959

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007272339A Pending JP2009100410A (ja) 2007-10-19 2007-10-19 データ配信装置及びデータ配信システム

Country Status (1)

Country Link
JP (1) JP2009100410A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011166637A (ja) * 2010-02-15 2011-08-25 Nippon Telegr & Teleph Corp <Ntt> 再生時間継続再生方法、映像配信要求方法、映像配信方法、映像再生方法、映像配信システムおよびプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011166637A (ja) * 2010-02-15 2011-08-25 Nippon Telegr & Teleph Corp <Ntt> 再生時間継続再生方法、映像配信要求方法、映像配信方法、映像再生方法、映像配信システムおよびプログラム

Similar Documents

Publication Publication Date Title
JP4668515B2 (ja) マルチメディアコンテンツに同期化されたメタデータ伝送装置及び方法
US7664872B2 (en) Media transfer protocol
JP3330797B2 (ja) 動画像データ格納方式および動画像データ復号方式
JP5086285B2 (ja) 映像配信システム,映像配信装置,及び同期補正処理装置
WO2005062614A1 (ja) 映像データ処理方法および映像データ処理装置
CN109155840B (zh) 运动图像分割装置及监视方法
JP2008113301A (ja) ビデオ送信装置及びビデオ送信方法
KR102362513B1 (ko) 타임 슬라이스 영상을 생성하는 서버, 방법 및 사용자 단말
CN112584087B (zh) 视频会议录制方法、电子装置和存储介质
JP2009100411A (ja) 映像配信システム、映像中継装置、及び映像中継方法
JP2003111048A (ja) コンテンツ再生のためのサーバ及びプログラム
EP1331823A2 (en) Receiving apparatus
JP4613860B2 (ja) Mpeg符号化ストリーム復号装置
JP4436573B2 (ja) データ伝送方法およびデータ伝送装置
JP2009171294A (ja) 映像配信システム、映像中継装置、及び映像中継方法
JP4295079B2 (ja) 特殊映像データ処理方法及び特殊映像データ処理装置及び特殊映像データ処理システム
JP2009100410A (ja) データ配信装置及びデータ配信システム
JP2012137900A (ja) 映像出力システム、映像出力方法及びサーバ装置
JP6481290B2 (ja) 情報処理装置
CN114257771A (zh) 一种多路音视频的录像回放方法、装置、存储介质和电子设备
JP6641344B2 (ja) 符号化装置
JP5579657B2 (ja) 動画フレーム同期システム
JP6464647B2 (ja) 動画像処理方法、動画像の送信装置、動画像処理システムおよび動画像処理プログラム
KR20130008436A (ko) Mmt 복합 전달 서비스에서 mmt 패킷 스트림 동기화를 위한 타이밍 정보 제공 방법 및 mmt 패킷 스트림 동기화 방법
JP5358916B2 (ja) コンテンツ配信装置およびコンテンツ配信方法