JP2010193209A - デジタル放送受信機 - Google Patents
デジタル放送受信機 Download PDFInfo
- Publication number
- JP2010193209A JP2010193209A JP2009035856A JP2009035856A JP2010193209A JP 2010193209 A JP2010193209 A JP 2010193209A JP 2009035856 A JP2009035856 A JP 2009035856A JP 2009035856 A JP2009035856 A JP 2009035856A JP 2010193209 A JP2010193209 A JP 2010193209A
- Authority
- JP
- Japan
- Prior art keywords
- metadata
- unit
- reproduction time
- time information
- video content
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
【課題】オブジェクトの位置および範囲を記述するメタデータが、全て伝送されなかったときでも、メタデータを補間できるデジタル放送受信機を提供すること。
【解決手段】受信したトランスポートストリームから取得したメタデータと再生時刻情報とをメタデータ保持部に書き込む受信メタデータ取得部と、再生する映像コンテンツの再生時刻を取得し、該再生時刻に対応するメタデータを、メタデータ保持部から取得する再生メタデータ取得部と、再生メタデータ取得部がメタデータを取得できなかったときは、メタデータ保持部が保持する複数の再生時刻情報と、該再生時刻情報各々に対応するメタデータとに基づく補間処理により、メタデータを算出するメタデータ補間部と、再生メタデータ取得部が取得したメタデータ、または、メタデータ補間部が算出したメタデータと、再生する映像コンテンツとに基づき、再生映像を生成する同期再生部とを具備する。
【選択図】図1
【解決手段】受信したトランスポートストリームから取得したメタデータと再生時刻情報とをメタデータ保持部に書き込む受信メタデータ取得部と、再生する映像コンテンツの再生時刻を取得し、該再生時刻に対応するメタデータを、メタデータ保持部から取得する再生メタデータ取得部と、再生メタデータ取得部がメタデータを取得できなかったときは、メタデータ保持部が保持する複数の再生時刻情報と、該再生時刻情報各々に対応するメタデータとに基づく補間処理により、メタデータを算出するメタデータ補間部と、再生メタデータ取得部が取得したメタデータ、または、メタデータ補間部が算出したメタデータと、再生する映像コンテンツとに基づき、再生映像を生成する同期再生部とを具備する。
【選択図】図1
Description
本発明は、デジタル放送受信機、特にメタデータを利用するデジタル放送受信機に関する。
テレビジョン放送のデジタル化が進み、番組検索、番組推薦、ダイジェスト再生など様々な放送サービスの開発が行われている。これらのサービスを実現するために、放送コンテンツを効率的に管理することが必要であり、そのために放送コンテンツの内容を記述したメタデータを予め準備し、利用する方法が一般的である。
MPEG(Moving Picture Experts Group)7(非特許文献1)やTV Anytime(非特許文献2)では、メタデータの種類として、映像に映っているオブジェクト(人物や物体など)のID、位置および範囲などが規定されている。また、データ放送サービスへのメタデータの利用では、オブジェクトのID、名称、位置や範囲等を記述した独自形式のメタデータを、オブジェクトと連動してコンテンツ視聴における視認性の改善を行う映像トリミングの装置などもある。また、これらのメタデータを使用することにより、画面上のオブジェクトにタグ表示することも可能である。
一方、日本ではBS(Broadcast Satellite;放送衛星)デジタル放送、地上波デジタル放送などのデジタル化されたテレビジョン放送が開始されており、これらの放送のデジタル放送受信機も幅広く普及している。デジタル化されたテレビジョン放送において、例えば、地上波デジタル放送の場合、1チャンネル分16.86Mbpsのうち、映像・音声・データ放送で約16Mbpsを使用しており、空いている帯域は非常に狭く、伝送可能なメタデータの容量は限られている。
このため、空いている帯域に加えて、TS(Transport Stream;トランスポートストリーム)パケットの未使用部分を使用することが考えられるが、同様の問題が残る。また、テレビジョン放送を受信するデジタル放送受信機のハードウェア性能を考慮しても、伝送可能なメタデータの容量は限られてしまう。また、受信状況によっては、デジタル放送受信機が、放送局から送信されたメタデータを全て受信できるとは限らず、受信に失敗してメタデータに欠落が発生することもある。
そこで、特許文献1のコンテンツ受信再生蓄積装置では、現在再生セグメントに続いて再生されるべき次期再生セグメントの再生開始時間を判別し、再生開始時間が到来するまでに次期再生セグメントに対応付けられたメタデータを受信したか否かを判別し、受信しなかったと判別したときは、現在再生セグメントに対応付けられたメタデータの一部を流用して、次期再生セグメントに対応付けられる補間メタデータを生成している。これにより、放送局において、メタデータを間引いて送出したり、コンテンツ受信再生蓄積装置において、一部のメタデータを受信できなかったりなど、全てのメタデータが伝送されなかったときでも、メタデータを補間できる。
ISO/IEC 15938−5:2003、"Information Technology −− Multimedia content description interface − Part 5:Multimedia Description Schemes"
EBU/ETSI,ETSI TS 102 822−3−1 v1.4.1(2007−11)、"Broadcast and On−line Services: Search, select, and rightful use of content on personal storage systems ("TV−Anytime"); Part 3: Metadata; Sub−part 1: Phase 1 − Metadata schemes"
しかしながら、特許文献1のコンテンツ受信再生蓄積装置では、対象とするメタデータが、ARIB STD−B38「サーバ型放送における符号化、伝送及び蓄積制御方式」において規定されているプログラムリファレンス情報、タイムベースリファレンス情報、デスクリプション情報、セグメントロケーター情報、キーフレームロケーター情報などの複数のセグメントにわたって同一の値となる場合がある。このため、映像のフレーム毎に変化するオブジェクトの位置や範囲を記述するメタデータに適用することはできないという問題がある。
本発明は、このような事情に鑑みてなされたもので、その目的は、オブジェクトの位置および範囲を記述するメタデータが、全て伝送されなかったときでも、メタデータを補間できるデジタル放送受信機を提供することにある。
(1)この発明は上述した課題を解決するためになされたもので、本発明のデジタル放送受信機は、映像コンテンツと、前記映像コンテンツ中のオブジェクトの位置および範囲を示すメタデータとが多重されたトランスポートストリームデータを受信する受信部と、前記メタデータと、該メタデータを再生する時刻を表す再生時刻情報とを対応付けて記憶するメタデータ保持部と、前記受信したトランスポートストリームデータから前記メタデータと該メタデータの再生時刻情報とを取得し、該メタデータと該再生時刻情報とを対応付けて前記メタデータ保持部に書き込む受信メタデータ取得部と、再生する映像コンテンツの再生時刻を取得し、該再生時刻に対応するメタデータを、前記メタデータ保持部から取得する再生メタデータ取得部と、前記再生メタデータ取得部が前記メタデータ保持部からメタデータを取得できなかったときは、前記メタデータ保持部が保持する複数の再生時刻情報と、該再生時刻情報各々に対応するメタデータとに基づく補間処理により、前記再生する映像コンテンツの再生時刻に対応するメタデータを算出するメタデータ補間部と、前記再生メタデータ取得部が取得したメタデータ、または、前記メタデータ補間部が算出したメタデータであって、前記再生する映像コンテンツの再生時刻情報に対応するメタデータと、前記再生する映像コンテンツとに基づき、再生映像を生成する同期再生部とを備え、前記メタデータ補間部は、前記メタデータ保持部が保持する複数の再生時刻情報と、該再生時刻情報各々に対応するメタデータとに基づく外挿処理により、前記再生する映像コンテンツの再生時刻情報に対応するメタデータを算出すること、を特徴とする。
(2)また、本発明のデジタル放送受信機は、映像コンテンツと、前記映像コンテンツ中のオブジェクトの位置および範囲を示すメタデータとが多重されたトランスポートストリームを受信する受信部と、前記メタデータと、該メタデータを再生する時刻を表す再生時刻情報とを対応付けて記憶するメタデータ保持部と、前記受信したトランスポートストリームから前記メタデータと該メタデータの再生時刻情報とを取得し、該メタデータと該再生時刻情報とを対応付けて前記メタデータ保持部に書き込む受信メタデータ取得部と、再生する映像コンテンツの再生時刻を取得し、該再生時刻に対応するメタデータを、前記メタデータ保持部から取得する再生メタデータ取得部と、前記再生メタデータ取得部が前記メタデータ保持部からメタデータを取得できなかったときは、前記メタデータ保持部が保持する複数の再生時刻情報と、該再生時刻情報各々に対応するメタデータとに基づく補間処理により、前記再生する映像コンテンツの再生時刻に対応するメタデータを算出するメタデータ補間部と、前記再生メタデータ取得部が取得したメタデータ、または、前記メタデータ補間部が算出したメタデータであって、前記再生する映像コンテンツの再生時刻情報に対応するメタデータと、前記再生する映像コンテンツとに基づき、再生映像を生成する同期再生部と、映像コンテンツを蓄積して、映像コンテンツの再生タイミングを遅らせる映像コンテンツ蓄積部と、を備え、前記メタデータ補間部は、前記メタデータ保持部が保持する複数の再生時刻情報と、該再生時刻情報各々に対応するメタデータとに基づく内挿処理により、前記再生する映像コンテンツの再生時刻情報に対応するメタデータを算出すること、を特徴とする。
(3)また、本発明のデジタル放送受信機は、映像コンテンツと、前記映像コンテンツ中のオブジェクトの位置および範囲を示すメタデータとが多重されたトランスポートストリームを受信する受信部と、前記メタデータと、該メタデータを再生する時刻を表す再生時刻情報とを対応付けて記憶するメタデータ保持部と、前記受信したトランスポートストリームから前記メタデータと該メタデータの再生時刻情報とを取得し、該メタデータと該再生時刻情報とを対応付けて前記メタデータ保持部に書き込む受信メタデータ取得部と、再生する映像コンテンツの再生時刻を取得し、該再生時刻に対応するメタデータを、前記メタデータ保持部から取得する再生メタデータ取得部と、前記再生メタデータ取得部が前記メタデータ保持部からメタデータを取得できなかったときは、前記メタデータ保持部が保持する複数の再生時刻情報と、該再生時刻情報各々に対応するメタデータとに基づく補間処理により、前記再生する映像コンテンツの再生時刻に対応するメタデータを算出するメタデータ補間部と、前記再生メタデータ取得部が取得したメタデータ、または、前記メタデータ補間部が算出したメタデータであって、前記再生する映像コンテンツの再生時刻情報に対応するメタデータと、前記再生する映像コンテンツとに基づき、再生映像を生成する同期再生部と、を備え、前記メタデータ補間部は、前記メタデータ保持部が保持する再生時刻情報とメタデータとに基づく補間処理により算出したメタデータと、前記再生する映像コンテンツによる映像に対して特徴量抽出処理をすることで算出したメタデータとの平均を算出することで、前記再生する映像コンテンツの再生時刻情報に対応するメタデータを算出すること、を特徴とする。
この発明によれば、オブジェクトの位置および範囲を記述するメタデータが、全て伝送されなかったときでも、メタデータを補間できる。
[第1の実施形態]
以下、図面を参照して、本発明の第1の実施形態について説明する。本実施形態におけるデジタル放送受信機10は、地上波を用いたデジタル化されたテレビジョン放送である地上波デジタル放送を受信するデジタル放送受信機であるが、本発明は、BSデジタル放送、デジタル化されたケーブルテレビ放送、インターネットなどのネットワークを介して配信されるIP(Internet Protocol)テレビ放送などを受信するデジタル放送受信機にも適用可能である。
以下、図面を参照して、本発明の第1の実施形態について説明する。本実施形態におけるデジタル放送受信機10は、地上波を用いたデジタル化されたテレビジョン放送である地上波デジタル放送を受信するデジタル放送受信機であるが、本発明は、BSデジタル放送、デジタル化されたケーブルテレビ放送、インターネットなどのネットワークを介して配信されるIP(Internet Protocol)テレビ放送などを受信するデジタル放送受信機にも適用可能である。
図1は、この発明の第1の実施形態によるデジタル放送受信機10の構成を示す概略ブロック図である。デジタル放送受信機10は、受信部11、分離部12、コンテンツ再生部13、受信メタデータ取得部14、メタデータ保持部15、再生メタデータ取得部16、メタデータ補間部17、同期再生部18、表示部19を具備する。受信部11は、映像コンテンツと、映像コンテンツ中のオブジェクトの位置および範囲を示すメタデータとが多重されたMPEG2トランスポートストリームを受信する。このMPEG2トランスポートストリームは、テレビ局から送信されたものであるが、詳細は後述する。
分離部12は、受信部11が受信したMPEG2トランスポートストリームに多重されているメタデータと、映像コンテンツとを分離する。より具体的には、分離部12は、MPEG2トランスポートストリームを構成するTS(Transport Stream)パケットのヘッダに記述されているパケット識別子(PID)の値により、各TSパケットがいずれのデータを格納したエレメンタリストリームのTSパケットであるかを判定し、メタデータのTSパケットを連結したエレメンタリストリームと、映像コンテンツのTSパケットを連結したエレメンタリストリームとに分離する。
コンテンツ再生部13は、分離部12が分離した映像コンテンツのエレメンタリームストリームをデコードする。また、コンテンツ再生部13は、MPEG2の規格においてSTC(System Time Clock)と呼ばれる27MHzで動作するクロックカウンタを備える。コンテンツ再生部13は、映像コンテンツのエレメンタリストリームのTSパケットに記述されているPCR(Program Clock Reference;プログラムクロックリファレンス)に、このSTCの値を同期させる。また、コンテンツ再生部13は、映像コンテンツのPES(Packetized Elementary Stream)パケットに記述されているPTS(Presentation Time Stamp;再生時刻情報)の値と、STCの値とが一致したときに、該当するPTSが記述されていたPESパケットに格納されていた映像コンテンツのフレームを表示させ、音声を出力する。なお、再生時刻情報は、33ビットからなる90KHzのカウンタであり、STCは、上位33ビットが90KHzのカウンタであり、さらに下位8ビットが27MHzのカウンタである。
受信メタデータ取得部14は、分離部12が分離したメタデータのエレメンタリストリームからメタデータとメタデータの再生時刻情報とを取得し、これらのメタデータと再生時刻情報とを対応付けて、後述するメタデータ保持部15に書き込む。メタデータ保持部15は、メタデータと、メタデータを再生する時刻を表す再生時刻情報とを対応付けて記憶する。なお、メタデータ保持部15は、ハードディスク装置や光磁気ディスク装置、フラッシュメモリ等の不揮発性のメモリ、RAM(Random Access Memory)のような揮発性のメモリ、あるいはこれらの組み合わせにより構成されるものとする。
再生メタデータ取得部16は、再生する映像コンテンツの再生時刻情報、すなわち映像コンテンツの次のフレームの再生時刻情報を取得し、該再生時刻情報に対応するメタデータを、メタデータ保持部15から取得する。また、再生メタデータ取得部16は、前回処理、すなわち一つ前のフレームに関する処理において取得を試みたメタデータのオブジェクトIDを記憶しており、記憶していたオブジェクトIDに該当するメタデータがメタデータ保持部15に無いときは、そのオブジェクトIDと、取得した再生時刻情報とを、メタデータ補間部17に出力する。なお、再生メタデータ取得部16の詳細は、後述する。
メタデータ補間部17は、再生メタデータ取得部16がメタデータ保持部15からメタデータを取得できなかったときは、メタデータ保持部15が保持する複数の再生時刻情報と、該再生時刻情報各々に対応するメタデータとに基づく補間処理により、再生する映像コンテンツの再生時刻情報に対応するメタデータを算出する。なお、メタデータ補間部17は、再生メタデータ取得部16から再生時刻情報とオブジェクトIDとの入力を受けると、入力されたオブジェクトIDのメタデータを、メタデータ保持部15から取得できなかったと判定し、該オブジェクトIDのメタデータの補間処理を行う。なお、メタデータ補間部17の詳細は、後述する。
同期再生部18は、再生メタデータ取得部16が取得したメタデータ、または、メタデータ補間部18が算出したメタデータであって、再生する映像コンテンツの再生時刻情報に対応するメタデータと、再生する映像コンテンツをコンテンツ再生部13が再生した結果とに基づき、再生映像を生成する。例えば、同期再生部18は、メタデータに基づき、該メタデータのオブジェクトを表すタグを含む、再生映像を生成する。
表示部19は、液晶パネル、有機EL(Organic Electro-Luminescence)パネルなどの表示デバイスであり、同期再生部18が生成した再生映像を表示する。
表示部19は、液晶パネル、有機EL(Organic Electro-Luminescence)パネルなどの表示デバイスであり、同期再生部18が生成した再生映像を表示する。
図2は、本実施形態における同期再生部18が生成した再生映像の例を示す図である。図2の例では、再生映像Gは、映像コンテンツを再生した映像に、メタデータに基づき生成されたオブジェクトの領域を示す矩形R1、R2と、各オブジェクトのオブジェクトIDを示す文字列C1とC2とが加えられている。
図3は、MPEG2トランスポートストリームを説明する図である。図3に示すようにMPEG2トランスポートストリームST1は、TSパケットと呼ばれるパケットが連結されている。個々のTSパケットは、パケット識別子を含むパケットヘッダを備え、続いて、アダプテーションフィールドおよびペイロード、もしくは、アダプテーションフィールドとペイロードとのどちらか一方を備える。前述のプログラムクロックリファレンスは、アダプテーションフィールドに格納される。
MPEG2トランスポートストリームを構成するTSパケットのうち、同一のパケット識別子のTSパケットのみを連結したものをエレメンタリストリームと呼ぶ。本実施形態では、このエレメンタリストリームを構成する各TSパケットのペイロードを連結すると、メタデータPESパケットST2、ビデオPESパケットST3、オーディオPESパケットST4のいずれかとなる。これらのうち、ビデオPESパケットST3、オーディオPESパケットST4により、映像コンテンツは構成される。
さらにメタデータPESパケットST2のペイロード部分には、再生時刻情報、オブジェクトID、該オブジェクトの位置を表す中心座標、該オブジェクトの範囲を表す幅および高さを格納している。再生時刻情報一つに対して、オブジェクトIDと中心座標と幅と高さとの組み合わせを複数格納していてもよいし、再生時刻情報一つに対して、オブジェクトIDと中心座標と幅と高さとの組み合わせを一つずつ格納していてもよい。ここで、中心座標は、例えば、映像の左下を原点とし、横軸をX座標、縦軸をY座標とし、画素を単位とする座標系で表されるオブジェクトの中心座標である。また、幅と高さとは、オブジェクトの範囲の幅と高さとを、画素数で表した値である。
なお、本実施形態のメタデータでは、オブジェクトの位置と範囲を、その中心座標と幅と高さを用いて表すとして説明したが、オブジェクトの左上の座標と右下の座標とを用いて表すようにしてもよいし、オブジェクトの左上の座標と幅と高さとを用いて表すようにしてもよい。また、本実施形態では、オブジェクトは矩形の領域であるとして説明したが、ポリゴン(多角形)であるとして、オブジェクトの位置と範囲を、ポリゴンの各頂点の座標などを用いて表すようにしてもよい。
また、メタデータPESパケットST2のペイロード部分に格納されるメタデータの形式は、XML形式などのマークアップランゲージであってもよいし、バイナリデータの羅列などであってもよい。
また、メタデータPESパケットST2のペイロード部分に格納されるメタデータの形式は、XML形式などのマークアップランゲージであってもよいし、バイナリデータの羅列などであってもよい。
図4は、本実施形態におけるメタデータ保持部15の記憶内容例を示す図である。メタデータ保持部15は、再生時刻情報とオブジェクトIDと中心座標(X)と中心座標(Y)と幅と高さとを項目とする複数のレコードからなるテーブルに、1つのレコードに1つのメタデータを記憶している。図4に示す例では、1つ目のレコードに、再生時刻情報「0」、オブジェクトID「10」、中心座標(X)「120」、中心座標(Y)「380」、幅「22」、高さ「40」を、すなわち再生時刻が「0」のときのオブジェクトID「10」のメタデータを記憶している。以下、同様に、2つ目のレコードに、再生時刻情報「0」、オブジェクトID「11」、中心座標(X)「470」、中心座標(Y)「220」、幅「17」、高さ「33」を記憶し、3つ目のレコードに、再生時刻情報「3000」、オブジェクトID「10」、中心座標(X)「127」、中心座標(Y)「372」、幅「20」、高さ「37」を記憶し、4つ目のレコードに、再生時刻情報「3000」、オブジェクトID「11」、中心座標(X)「470」、中心座標「220」、幅「17」、高さ「33」を記憶している。
図5は、本実施形態における再生メタデータ取得部16の構成を示す概略ブロック図である。再生メタデータ取得部16は、再生時刻取得部161、メタデータ読出部162、オブジェクトID記憶部163を備える。再生時刻取得部161は、コンテンツ再生部13が入力された映像コンテンツから取得し、出力した次に表示するフレームのPTSの値を、再生する映像コンテンツの再生時刻情報として取得する。
なお、本実施形態では、次に表示するフレームの再生時刻情報は、コンテンツ再生部13が入力された映像コンテンツ中のPTSの値を出力するとして説明したが、再生時刻取得部161は、過去のフレームの再生時刻情報とフレームレートとに基づき算出してもよいし、コンテンツ再生部13が備えるSTCの値から、該値に1フレーム分の時間を加えた値までの範囲に該当するものを全て、次に表示するフレームの再生時刻情報としてもよい。
メタデータ読出部162は、再生時刻取得部161が取得した再生時刻情報に対応付けてメタデータ保持部15が記憶するメタデータ、すなわちオブジェクトID、中心座標、幅、高さを読み出す。次に、メタデータ読出部162は、読み出したオブジェクトID、中心座標、幅、および高さを、同期再生部18に出力する。さらに、メタデータ読出部162は、オブジェクトID記憶部163が記憶する全てのオブジェクトIDを読み出し、この読みだされた全てのオブジェクトIDと先にメタデータ保持部15から読み出したオブジェクトIDとを比較する。メタデータ読出部162は、この比較により、オブジェクトID記憶部163から読み出したオブジェクトIDの中にはあるが、先にメタデータ保持部15から読み出したオブジェクトIDの中にはないオブジェクトIDを検出したときは、該当するオブジェクトIDを再生時刻取得部161が取得した再生時刻情報とともに、メタデータ補間部17に出力する。
また、メタデータ読出部162は、先の比較とメタデータ補間部17への出力とを行った後、オブジェクトID記憶部163が記憶するオブジェクトIDが、先にメタデータ保持部15から読み出したオブジェクトIDと、メタデータ補間部17に再生時刻情報とともに出力したオブジェクトIDとからなるリストになるように、オブジェクトID記憶部163の記憶内容を更新する。したがって、オブジェクトID記憶部163は、メタデータ読出部162がその記憶内容を読み出すときは、メタデータ保持部15が記憶する、その前のフレームに対応するオブジェクトIDと一致している。
なお、本実施形態では、メタデータ読出部162は、オブジェクトID記憶部163が記憶する全てのオブジェクトIDを読み出し、この読みだされた全てのオブジェクトIDと先にメタデータ保持部15から読み出したオブジェクトIDとを比較して、メタデータ補間部17に出力するオブジェクトIDを決定するとして説明した。しかし、メタデータの伝送方法によっては、例えば、同じ再生時刻情報のメタデータ全体に誤り検出符号を付与しておくなど、同じ再生時刻情報のメタデータのうち、一部が受信できずに欠落することがないことを保証していることがある。このような場合は、メタデータ読出部162は、再生時刻取得部161が取得した再生時刻情報に対応付けてメタデータ保持部15が記憶するメタデータがあるか否かを判定し、無いと判定したときに、オブジェクトID記憶部163が記憶する全てのオブジェクトIDを読み出し、これらをメタデータ補間部17に出力するようにしてもよい。
図6は、本実施形態におけるメタデータ補間部17の構成を示す概略ブロック図である。メタデータ補間部17は、使用メタデータリスト決定部171、使用メタデータリスト読出部172、メタデータ補間処理部173を備える。使用メタデータリスト決定部171は、メタデータ読出部162から再生時刻情報と、オブジェクトIDとを受けると、メタデータ補間処理部173における補間処理に用いるメタデータのリストを生成する。本実施形態では、メタデータ補間処理部173は、外挿による補間処理を行う。このため、使用メタデータリスト決定部171は、映像コンテンツのフレームレートに基づき、受けた再生時刻情報の1フレーム前の再生時刻情報および2フレーム前の再生時刻情報を算出し、受けたオブジェクトID各々のこれらの再生時刻情報のメタデータの取得を、使用メタデータリスト読出部172に指示する。
使用メタデータリスト読出部172は、使用メタデータリスト決定部171から取得を指示されたメタデータをメタデータ保持部16から読み出す。メタデータ補間処理部173は、使用メタデータリスト読出部172が読み出したメタデータを用いて、(1)式にしめすような外挿による補間処理を行い、メタデータ読出部162から受けた再生時刻情報とオブジェクトIDとのメタデータを生成する。
M(n)=2M(n−1)−M(n−2)・・・(1)
ただし、M(n)は、nフレーム目のメタデータの値を表す。M(n−1)は、1フレーム前のメタデータの値であり、M(n−2)は、2フレーム前のメタデータの値である。
M(n)=2M(n−1)−M(n−2)・・・(1)
ただし、M(n)は、nフレーム目のメタデータの値を表す。M(n−1)は、1フレーム前のメタデータの値であり、M(n−2)は、2フレーム前のメタデータの値である。
なお、本実施形態では、使用メタデータリスト決定部171が1フレーム前と2フレーム前のメタデータの取得を使用メタデータリスト取得部172に指示するため、メタデータ補間処理部173が行う外挿は、(1)式に示すような演算とした。しかし、これに限らず、使用メタデータリスト決定部171が、メタデータ保持部15が記憶するメタデータを参照して、pフレーム前とqフレーム前のメタデータの取得を使用メタデータリスト取得部172に指示するようにし、メタデータ補間処理部173が行う外挿が、(2)式に示すような演算であってもよい。
M(n)=(q・M(n−q)−p・M(n−p))/(q−p)・・・(2)
さらに、メタデータ補間処理部173が行う補間は、(1)式、(2)式に示すような線形外挿ではなく、例えば、使用メタデータリスト決定部171が3つのメタデータの取得を指示し、2次曲線などによる外挿を行ってもよい。
M(n)=(q・M(n−q)−p・M(n−p))/(q−p)・・・(2)
さらに、メタデータ補間処理部173が行う補間は、(1)式、(2)式に示すような線形外挿ではなく、例えば、使用メタデータリスト決定部171が3つのメタデータの取得を指示し、2次曲線などによる外挿を行ってもよい。
図7は、本実施形態におけるデジタル放送受信機10aの動作を説明するフローチャートである。まず、受信部11が、nフレーム目までの映像コンテンツのデータを含むデジタル放送(D(n))を受信し、分離部12が、受信したデジタル放送のMPEG2トランスポートストリームに多重されているメタデータ(M(n))と、映像コンテンツ(D(n))とを分離する(S1)。受信メタデータ取得部14は、分離部12が分離したメタデータ(M(n))とメタデータの再生時刻情報とをメタデータ保持部15に書き込む(S2)。
次に再生メタデータ取得部16が、次に表示するフレーム(nフレーム目)のメタデータ(M(n))のメタデータ保持部15からの取得を試行する(S3)。ステップS3において、取得に成功したときは(S4−はい)、ステップS5に遷移し、再生メタデータ取得部16は、取得したメタデータを同期再生部18に出力する。次に、同期再生部18は、入力されたメタデータと、コンテンツ再生部13が再生した結果とに基づき、再生映像を生成し(S8)、次のフレーム(n+1フレーム目)を処理するために、nに1を加算し(S9)、ステップS1に戻って処理を繰り返す。
一方、ステップS3において、取得に失敗したときは(S4−いいえ)、ステップS6に遷移し、メタデータ補間部17が、メタデータ保持部15が保持する複数の過去のメタデータ(例えば、M(n−p)とM(n−q))から、nフレーム目のメタデータ(M(n))を外挿により生成する(S6)。次に、メタデータ補間部17は、生成したメタデータ(M(n))を同期再生部18に出力し(S7)、続いてステップS8に遷移する。以降、上述のステップS8と同様の処理を行う。
このように、再生メタデータ取得部16が、次に表示するフレームのメタデータのメタデータ保持部15からの取得に失敗したときは、保持している過去のメタデータに基づき、メタデータ補間部17が外挿を行うので、メタデータが、全て伝送されなかったときでも、メタデータを補間できる。
[第2の実施形態]
以下、図面を参照して、本発明の第2の実施形態について説明する。図8は、この発明の第2の実施形態によるデジタル放送受信機の構成を示す概略ブロック図である。本実施形態におけるデジタル放送受信機10aは、受信部11、分離部12、コンテンツ蓄積部20a、コンテンツ再生部13、受信メタデータ取得部14、メタデータ保持部15、再生メタデータ取得部16、メタデータ補間部17a、同期再生部18、表示部19を備える。図8において、図1の各部に対応する部分には同一の符号(11〜16、18、19)を付け、その説明を省略する。
以下、図面を参照して、本発明の第2の実施形態について説明する。図8は、この発明の第2の実施形態によるデジタル放送受信機の構成を示す概略ブロック図である。本実施形態におけるデジタル放送受信機10aは、受信部11、分離部12、コンテンツ蓄積部20a、コンテンツ再生部13、受信メタデータ取得部14、メタデータ保持部15、再生メタデータ取得部16、メタデータ補間部17a、同期再生部18、表示部19を備える。図8において、図1の各部に対応する部分には同一の符号(11〜16、18、19)を付け、その説明を省略する。
コンテンツ蓄積部20aは、分離部12が分離した映像コンテンツのエレメンタリストリームを記憶する。このように、コンテンツ蓄積部20aにて映像コンテンツのエレメンタリストリームをいったん蓄積することで、コンテンツ再生部13による映像コンテンツの再生を、少なくとも1フレーム分は遅らせている。メタデータ補間部17aは、再生メタデータ取得部16がメタデータ保持部15からメタデータを取得できなかったときは、メタデータ保持部15が保持する複数の再生時刻情報と、該再生時刻情報各々に対応するメタデータとに基づく内挿補間処理により、再生する映像コンテンツの再生時刻情報に対応するメタデータを算出する。なお、メタデータ補間部17aは、メタデータ補間部17と同様に、再生メタデータ取得部16から再生時刻情報とオブジェクトIDとの入力を受けると、入力されたオブジェクトIDのメタデータを、メタデータ保持部15から取得できなかったと判定し、該オブジェクトIDのメタデータの補間処理を行う。
図9は、本実施形態におけるメタデータ補間部17aの構成を示す概略ブロック図である。メタデータ補間部17aは、使用メタデータリスト決定部171a、使用メタデータリスト読出部172、メタデータ補間処理部173aを備える。使用メタデータリスト読出部172は、図6における使用メタデータリスト読出部172と同一であるので、説明を省略する。
使用メタデータリスト決定部171aは、メタデータ読出部162から再生時刻情報と、オブジェクトIDとを受けると、メタデータ補間処理部173における補間処理に用いるメタデータのリストを生成する。本実施形態では、メタデータ補間処理部173は、内挿による補間処理を行う。このため、使用メタデータリスト決定部171aは、映像コンテンツのフレームレートに基づき、受けた再生時刻情報の1フレーム前の再生時刻情報および1フレーム後の再生時刻情報を算出し、受けたオブジェクトID各々のこれらの再生時刻情報のメタデータの取得を、使用メタデータリスト読出部172に指示する。
メタデータ補間処理部173aは、使用メタデータリスト読出部172が読み出したメタデータを用いて、(3)式に示すような内挿による補間処理を行い、メタデータ読出部162から受けた再生時刻情報とオブジェクトIDとのメタデータを生成する。
M(n−r)=M(n−r+1)+M(n−r−1)/2・・・(3)
ただし、nフレーム目までの映像コンテンツを受信済であり、M(n−r)は、次に表示するn−rフレーム目のメタデータの値を表す。M(n−r−1)は、次に表示するn−rフレーム目の1フレーム前のメタデータの値であり、M(n+1)は、次に表示するn−rフレーム目の1フレーム後のメタデータの値である。
M(n−r)=M(n−r+1)+M(n−r−1)/2・・・(3)
ただし、nフレーム目までの映像コンテンツを受信済であり、M(n−r)は、次に表示するn−rフレーム目のメタデータの値を表す。M(n−r−1)は、次に表示するn−rフレーム目の1フレーム前のメタデータの値であり、M(n+1)は、次に表示するn−rフレーム目の1フレーム後のメタデータの値である。
なお、本実施形態では、使用メタデータリスト決定部171aが1フレーム前と1フレーム後のメタデータの取得を使用メタデータリスト取得部172に指示するため、メタデータ補間処理部173aが行う内挿は、(3)式に示すような演算とした。しかし、これに限らず、使用メタデータリスト決定部171aが、メタデータ保持部15が記憶するメタデータを参照して、n−pフレームとn−qフレーム(p>r>q)のメタデータの取得を使用メタデータリスト取得部172に指示するようにし、メタデータ補間処理部173aが行う内挿が、(4)式に示すような演算であってもよい。
M(n−r)=(r−p)・M(n−q)+(r−q)・M(n−p))/(q−p)・・・(4)
さらに、メタデータ補間処理部173aが行う補間は、(3)式、(4)式に示すような線形内挿ではなく、例えば、使用メタデータリスト決定部171aが3つのメタデータの取得を指示し、2次曲線などによる内挿を行ってもよい。
M(n−r)=(r−p)・M(n−q)+(r−q)・M(n−p))/(q−p)・・・(4)
さらに、メタデータ補間処理部173aが行う補間は、(3)式、(4)式に示すような線形内挿ではなく、例えば、使用メタデータリスト決定部171aが3つのメタデータの取得を指示し、2次曲線などによる内挿を行ってもよい。
図10は、本実施形態におけるデジタル受像装置10aの動作を説明するフローチャートである。まず、受信部11が、nフレーム目までの映像コンテンツのデータを含むデジタル放送(D(n))を受信し、分離部12が、受信したデジタル放送MPEG2トランスポートストリームに多重されているメタデータと、映像コンテンツとを分離する(Sa1)。分離部12が、映像コンテンツをコンテンツ蓄積部20aに書き込む(Sa2)。また、受信メタデータ取得部14は、分離部12が分離したメタデータとメタデータの再生時刻情報とをメタデータ保持部15に書き込む(Sa3)。
次に再生メタデータ取得部16が、次に表示するフレーム(n−rフレーム目)のメタデータ(M(n−r))のメタデータ保持部15からの取得を試行する(S4)。ステップSa4において、取得に成功したときは(Sa5−はい)、ステップSa6に遷移し、再生メタデータ取得部16は、取得したメタデータを同期再生部18に出力する。次に、コンテンツ蓄積部20aは、n−rフレーム目までを含む映像コンテンツ(D(n−r))をコンテンツ再生部13へ出力し(Sa9)、コンテンツ再生部13は、入力された映像コンテンツ(D(n−r))を再生する。同期再生部18は、ステップSa6入力されたメタデータと、コンテンツ再生部13が再生した結果とに基づき、再生映像を生成し(Sa10)、次のフレーム(n+1フレーム目)を処理するために、nに1を加算し(Sa11)、ステップSa1に戻って処理を繰り返す。
一方、ステップSa4において、取得に失敗したときは(Sa5−いいえ)、ステップSa7に遷移し、メタデータ補間部17aが、メタデータ保持部15が保持する複数の過去のメタデータ(例えば、M(n−p)とM(n−q))から、n−rフレーム目のメタデータ(M(n−r))を内挿により生成する(Sa7)。次に、メタデータ補間部17aは、生成したメタデータ(M(n−r))を同期再生部18に出力し(Sa8)、続いてステップSa9に遷移する。以降、上述のステップSa9と同様の処理を行う。
である。
である。
このように、再生メタデータ取得部16が、次に表示するフレームのメタデータのメタデータ保持部15からの取得に失敗したときは、保持している過去のメタデータに基づき、メタデータ補間部17aが内挿を行うので、第1の実施形態と同様に、メタデータが、全て伝送されなかったときでも、メタデータを補間できる。
[第3の実施形態]
以下、図面を参照して、本発明の第3の実施形態について説明する。図11は、この発明の第3の実施形態によるデジタル放送受信機10bの構成を示す概略ブロック図である。本実施形態におけるデジタル放送受信機10bは、受信部11、分離部12、コンテンツ再生部13、映像蓄積部30b、受信メタデータ取得部14、メタデータ保持部15、再生メタデータ取得部16、メタデータ補間部17b、同期再生部18、表示部19を備える。図11において、図1の各部に対応する部分には同一の符号(11〜16、18、19)を付け、その説明を省略する。
以下、図面を参照して、本発明の第3の実施形態について説明する。図11は、この発明の第3の実施形態によるデジタル放送受信機10bの構成を示す概略ブロック図である。本実施形態におけるデジタル放送受信機10bは、受信部11、分離部12、コンテンツ再生部13、映像蓄積部30b、受信メタデータ取得部14、メタデータ保持部15、再生メタデータ取得部16、メタデータ補間部17b、同期再生部18、表示部19を備える。図11において、図1の各部に対応する部分には同一の符号(11〜16、18、19)を付け、その説明を省略する。
映像蓄積部30bは、コンテンツ再生部13が再生した各フレームの映像データを蓄積する。メタデータ補間部17bは、再生メタデータ取得部16がメタデータ保持部15からメタデータを取得できなかったときは、メタデータ保持部15が保持する複数の再生時刻情報と該再生時刻情報各々に対応するメタデータとに基づく補間処理により算出された、再生する映像コンテンツの再生時刻情報に対応するメタデータと、再生する映像コンテンツによる映像データに対して特徴量抽出処理をすることで算出したメタデータとの平均を算出することで、再生する映像コンテンツの再生時刻情報に対応するメタデータを算出する。
図12は、本実施形態におけるメタデータ補間部17bの構成を示す概略ブロック図である。メタデータ補間部17bは、使用メタデータリスト決定部171、使用メタデータリスト読出部172、メタデータ補間処理部173b、映像解析部174bを具備する。図12において、図6の各部に対応する部分には同一の符号(171、172)を付け、その説明を省略する。メタデータ補間部173bは、メタデータ補間部173と同様にして算出したメタデータの値と、映像解析部174bが算出したメタデータの値との平均をとった値を、メタデータとして同期再生部18に出力する。
映像解析部174bは、メタデータ読出部162から再生時刻情報と、オブジェクトIDとを受けると、受けた再生時刻情報が表すフレームの1つ前のフレームの映像データとメタデータとを、それぞれ映像蓄積部30bとメタデータ保持部15とから読み出す。次に、メタデータ保持部15から読み出したメタデータのうち、受けたオブジェクトIDに関するメタデータが示す領域であって、映像蓄積部30bから読み出した映像データが表す映像中の領域の特徴量を算出する。ここで、特徴量とその抽出方法としては、輝度分散や、色情報など、「サッカー中継映像の画像特徴に基づくショット分類と選手位置検出を利用した簡易映像トリミング手法」(信学技報、vol.107、No.358、pp.1−6(2007))などに記載されたものを用いることができる。
次に、映像解析部174bは、次に表示するフレームの映像データを、映像蓄積部30bから取得し、該映像データが表す映像中から、先に算出した特徴量と一致する領域、あるいは、先に算出した特徴量との差が予め設定された範囲内となる領域を検出し、該領域の中心座標と幅と高さとをメタデータとして、メタデータ補間処理部173bに出力する。
このように、本実施形態では、第1の実施形態と同様な効果に加えて、メタデータ補間部17bは、保持している過去のメタデータから補間処理により算出したメタデータの値と、対象としているフレームの映像を解析して算出したメタデータの値とに基づき、メタデータを生成するので、補間処理結果が実際のオブジェクトと大きく異なるときでも、メタデータの誤差を抑えることができる。
なお、第1から第3の実施形態において、デジタル放送受信機10、10a、10bは、表示部19を備えるものとして説明したが、デジタル放送受信機10、10a、10bは、表示部19を備えず、同期再生部18は、生成した再生映像の信号を外部に出力し、デジタル放送受信機10、10a、10bに接続された表示装置が、該信号を受けて再生映像を表示するようにしてもよい。
また、図1における分離部12、コンテンツ再生部18、受信メタデータ部14、再生メタデータ取得部16、メタデータ補間部17、同期再生部18、および図8における分離部12、コンテンツ再生部13、受信メタデータ取得部14、再生メタデータ取得部16、メタデータ補間部17a、同期再生部18、および図11における分離部12、コンテンツ再生部18、受信メタデータ部14、再生メタデータ取得部16、メタデータ補間部17b、同期再生部18の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより各部の処理を行ってもよいし、これらの各部を、専用のハードウェアにより実現されるものであってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
以上、この発明の実施形態を図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計変更等も含まれる。
本発明は、デジタルテレビジョン放送を受信し、表示するデジタル放送受信機に用いて好適であるが、これに限定されない。
10、10a、10b…デジタル放送受信機
11…受信部
12…分離部
13…コンテンツ再生部
14…受信メタデータ取得部
15…メタデータ保持部
16…再生メタデータ取得部
17、17a、17b…メタデータ補間部
18…同期再生部
19…表示部
20a…コンテンツ蓄積部
30b…映像蓄積部
11…受信部
12…分離部
13…コンテンツ再生部
14…受信メタデータ取得部
15…メタデータ保持部
16…再生メタデータ取得部
17、17a、17b…メタデータ補間部
18…同期再生部
19…表示部
20a…コンテンツ蓄積部
30b…映像蓄積部
Claims (3)
- 映像コンテンツと、前記映像コンテンツ中のオブジェクトの位置および範囲を示すメタデータとが多重されたトランスポートストリームデータを受信する受信部と、
前記メタデータと、該メタデータを再生する時刻を表す再生時刻情報とを対応付けて記憶するメタデータ保持部と、
前記受信したトランスポートストリームデータから前記メタデータと該メタデータの再生時刻情報とを取得し、該メタデータと該再生時刻情報とを対応付けて前記メタデータ保持部に書き込む受信メタデータ取得部と、
再生する映像コンテンツの再生時刻を取得し、該再生時刻に対応するメタデータを、前記メタデータ保持部から取得する再生メタデータ取得部と、
前記再生メタデータ取得部が前記メタデータ保持部からメタデータを取得できなかったときは、前記メタデータ保持部が保持する複数の再生時刻情報と、該再生時刻情報各々に対応するメタデータとに基づく補間処理により、前記再生する映像コンテンツの再生時刻に対応するメタデータを算出するメタデータ補間部と、
前記再生メタデータ取得部が取得したメタデータ、または、前記メタデータ補間部が算出したメタデータであって、前記再生する映像コンテンツの再生時刻情報に対応するメタデータと、前記再生する映像コンテンツとに基づき、再生映像を生成する同期再生部と
を備え
前記メタデータ補間部は、前記メタデータ保持部が保持する複数の再生時刻情報と、該再生時刻情報各々に対応するメタデータとに基づく外挿処理により、前記再生する映像コンテンツの再生時刻情報に対応するメタデータを算出すること、
を特徴とするデジタル放送受信機。 - 映像コンテンツと、前記映像コンテンツ中のオブジェクトの位置および範囲を示すメタデータとが多重されたトランスポートストリームデータを受信する受信部と、
前記メタデータと、該メタデータを再生する時刻を表す再生時刻情報とを対応付けて記憶するメタデータ保持部と、
前記受信したトランスポートストリームデータから前記メタデータと該メタデータの再生時刻情報とを取得し、該メタデータと該再生時刻情報とを対応付けて前記メタデータ保持部に書き込む受信メタデータ取得部と、
再生する映像コンテンツの再生時刻を取得し、該再生時刻に対応するメタデータを、前記メタデータ保持部から取得する再生メタデータ取得部と、
前記再生メタデータ取得部が前記メタデータ保持部からメタデータを取得できなかったときは、前記メタデータ保持部が保持する複数の再生時刻情報と、該再生時刻情報各々に対応するメタデータとに基づく補間処理により、前記再生する映像コンテンツの再生時刻に対応するメタデータを算出するメタデータ補間部と、
前記再生メタデータ取得部が取得したメタデータ、または、前記メタデータ補間部が算出したメタデータであって、前記再生する映像コンテンツの再生時刻情報に対応するメタデータと、前記再生する映像コンテンツとに基づき、再生映像を生成する同期再生部と、
映像コンテンツを蓄積して、映像コンテンツの再生タイミングを遅らせる映像コンテンツ蓄積部と
を備え、
前記メタデータ補間部は、前記メタデータ保持部が保持する複数の再生時刻情報と、該再生時刻情報各々に対応するメタデータとに基づく内挿処理により、前記再生する映像コンテンツの再生時刻情報に対応するメタデータを算出すること、
を特徴とするデジタル放送受信機。 - 映像コンテンツと、前記映像コンテンツ中のオブジェクトの位置および範囲を示すメタデータとが多重されたトランスポートストリームデータを受信する受信部と、
前記メタデータと、該メタデータを再生する時刻を表す再生時刻情報とを対応付けて記憶するメタデータ保持部と、
前記受信したトランスポートストリームデータから前記メタデータと該メタデータの再生時刻情報とを取得し、該メタデータと該再生時刻情報とを対応付けて前記メタデータ保持部に書き込む受信メタデータ取得部と、
再生する映像コンテンツの再生時刻を取得し、該再生時刻に対応するメタデータを、前記メタデータ保持部から取得する再生メタデータ取得部と、
前記再生メタデータ取得部が前記メタデータ保持部からメタデータを取得できなかったときは、前記メタデータ保持部が保持する複数の再生時刻情報と、該再生時刻情報各々に対応するメタデータとに基づく補間処理により、前記再生する映像コンテンツの再生時刻に対応するメタデータを算出するメタデータ補間部と、
前記再生メタデータ取得部が取得したメタデータ、または、前記メタデータ補間部が算出したメタデータであって、前記再生する映像コンテンツの再生時刻情報に対応するメタデータと、前記再生する映像コンテンツとに基づき、再生映像を生成する同期再生部と、
を備え、
前記メタデータ補間部は、前記メタデータ保持部が保持する再生時刻情報とメタデータとに基づく補間処理により算出したメタデータと、前記再生する映像コンテンツによる映像に対して特徴量抽出処理をすることで算出したメタデータとの平均を算出することで、前記再生する映像コンテンツの再生時刻情報に対応するメタデータを算出すること、
を特徴とするデジタル放送受信機。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009035856A JP2010193209A (ja) | 2009-02-18 | 2009-02-18 | デジタル放送受信機 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009035856A JP2010193209A (ja) | 2009-02-18 | 2009-02-18 | デジタル放送受信機 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010193209A true JP2010193209A (ja) | 2010-09-02 |
Family
ID=42818767
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009035856A Pending JP2010193209A (ja) | 2009-02-18 | 2009-02-18 | デジタル放送受信機 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010193209A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016047475A1 (ja) * | 2014-09-26 | 2016-03-31 | ソニー株式会社 | 情報処理装置および情報処理方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007104716A (ja) * | 2006-12-04 | 2007-04-19 | Toshiba Corp | 動画像中のオブジェクトに関するメタデータストリームのデータ構造及び再生方法 |
JP2008187371A (ja) * | 2007-01-29 | 2008-08-14 | Oki Electric Ind Co Ltd | コンテンツ受信再生蓄積装置 |
-
2009
- 2009-02-18 JP JP2009035856A patent/JP2010193209A/ja active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007104716A (ja) * | 2006-12-04 | 2007-04-19 | Toshiba Corp | 動画像中のオブジェクトに関するメタデータストリームのデータ構造及び再生方法 |
JP2008187371A (ja) * | 2007-01-29 | 2008-08-14 | Oki Electric Ind Co Ltd | コンテンツ受信再生蓄積装置 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016047475A1 (ja) * | 2014-09-26 | 2016-03-31 | ソニー株式会社 | 情報処理装置および情報処理方法 |
US10484725B2 (en) | 2014-09-26 | 2019-11-19 | Sony Corporation | Information processing apparatus and information processing method for reproducing media based on edit file |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1494430B1 (en) | System and method for time synchronization between multimedia content and segment metadata | |
US8112783B2 (en) | Method of controlling ouput time and output priority of caption information and apparatus thereof | |
JP6184408B2 (ja) | 受信装置及びその受信方法 | |
JP5903924B2 (ja) | 受信装置および字幕処理方法 | |
JP2008011404A (ja) | コンテンツ処理装置及びコンテンツ処理方法 | |
US20070286245A1 (en) | Digital signal processing apparatus and data stream processing method | |
CN103491430B (zh) | 流媒体数据处理方法和电子设备 | |
JP2018182677A (ja) | 情報処理装置、情報処理方法、プログラム、および記録媒体製造方法 | |
US20070274675A1 (en) | Method and Apparatus for Transcoding Digital Audio/Video Streams | |
JP6957186B2 (ja) | 情報処理装置、情報処理方法、プログラム、および記録媒体製造方法 | |
JP5283914B2 (ja) | 表示制御装置及び表示制御方法 | |
JP2010193209A (ja) | デジタル放送受信機 | |
EP2723067B1 (en) | Information-providing system, reception device, and information management server | |
JP4197078B2 (ja) | 蓄積型デジタル放送における映像音声の部分再生方法及び受信装置 | |
JP2004088366A (ja) | デジタル放送受信機およびデジタル放送システム | |
JP4941128B2 (ja) | 映像処理装置 | |
JP2002281456A (ja) | デジタル放送用ストリームの蓄積方法 | |
JP6836971B2 (ja) | 受信装置、受信方法及びプログラム | |
JP4242525B2 (ja) | デジタル放送における映像音声の部分再生方法及び受信装置 | |
JP6596363B2 (ja) | 時刻マッピング情報生成装置、同期再生システム、時刻マッピング情報生成方法及び時刻マッピング情報生成プログラム | |
JP7034926B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
EP3528505A1 (en) | Apparatus and method for operating a media device to select from plural instances of content for play back | |
JP2006060587A (ja) | デジタル放送記録再生装置、デジタル放送記録再生プログラム | |
KR20100118786A (ko) | 방송 신호 출력 방법 및 그 방법을 채용한 방송 수신기 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110318 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120806 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120814 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20121211 |