JP2011014992A - 映像再生システム、制御装置及び映像再生方法 - Google Patents

映像再生システム、制御装置及び映像再生方法 Download PDF

Info

Publication number
JP2011014992A
JP2011014992A JP2009155083A JP2009155083A JP2011014992A JP 2011014992 A JP2011014992 A JP 2011014992A JP 2009155083 A JP2009155083 A JP 2009155083A JP 2009155083 A JP2009155083 A JP 2009155083A JP 2011014992 A JP2011014992 A JP 2011014992A
Authority
JP
Japan
Prior art keywords
video
data
encoded data
decoder
stream
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009155083A
Other languages
English (en)
Other versions
JP2011014992A5 (ja
Inventor
Naoya Kawakami
直也 川上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renesas Electronics Corp
Original Assignee
Renesas Electronics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renesas Electronics Corp filed Critical Renesas Electronics Corp
Priority to JP2009155083A priority Critical patent/JP2011014992A/ja
Publication of JP2011014992A publication Critical patent/JP2011014992A/ja
Publication of JP2011014992A5 publication Critical patent/JP2011014992A5/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】第1の映像を符号化した第1の符号化データと、第1の符号化データが有する表示領域情報に基づいて、第1の映像と同一画面上に表示される第2の映像を符号化した第2の符号化データを含むストリームデータの途中再生点にかかわらず、第2の映像を表示することができる表示映像再生システム、制御装置及び映像再生方法を提供すること
【解決手段】本発明にかかる映像再生システムは、第1の映像を符号化した第1の符号化データをデコードする第1のデコーダと、第1の符号化データが有する表示領域情報に基づいて第2の符号化データをデコードする第2のデコーダと、ストリームデータの途中である再生点から再生処理する場合に、第2の符号化データに対応する第1の符号化データが途中再生点より後のストリームデータに含まれていないときに、途中再生点より前のストリームデータに含まれる第1の符号化データを第1のデコーダに出力する制御部を有する。
【選択図】図1

Description

本発明は、映像再生システム、制御装置及び映像再生方法に関する。
特許文献1には、1ストリームデコードによってBD(Blu-ray Disc(登録商標))を再生するプレーヤが開示されている。図4に、特許文献1に開示されているプレーヤのように、1ストリームデコードを行うハードウェア4のブロック図を示す。
また、図4に、MPEGシステム規格(ISO/IEC13818−1)におけるストリーム52を示している。ストリーム52は、映像データが符号化されたデータ"V" (以下、「ビデオデータ」とする)と、音声データが符号化されたデータ"A"(以下、「オーディオデータ」とする)が、1つに多重化されたデータ群である。
MPEGシステム規格におけるストリーム52の特徴は、ビデオデータ及びオーディオデータなど、多重化されたデータがそれらのデコード順に基づくビット列になっており、必ずしも再生順に基づいてビット列が形成されている訳ではないということである。多重化されたデータ、即ち、ビデオデータ及びオーディオデータは、必ずしも再生順に基づいてビット列が形成されている訳ではない。
デマルチプレクサ200は、ストリーム52に含まれるデータをビデオバッファ210とオーディオバッファ211に分配して、それぞれに格納する。具体的には、ビデオバッファ210には、ビデオデータが格納され、オーディオバッファ211には、オーディオデータが格納される。そして、デコードタイミングで、ビデオデコーダ212がビデオバッファ210に格納されたビデオデータをデコードし、オーディオデコーダ213がオーディオバッファ211に格納されたオーディオデータをデコードする。これにより、ビデオデータをデコードして生成した映像データによる映像の表示と、オーディオデータをデコードして生成した音声データによる音声の出音を行うことができる。
なお、特許文献2には、テキスト字幕ストリームの空白期間にあたるPlayItem情報のSTN_Tableにダミーの値を設定する技術が開示されている。これにより、空白期間であってもテキスト字幕ストリームがプリロードされるようにして、シームレス再生を優先させることができ、テキスト字幕ストリームをロードすることができなくなるという事態の発生を避けることができる技術が開示されている。
特開2006−013726号公報 特開2008−251152号公報
次世代DVD規格となるBDでは、2ストリームデコードに対応している。図5に、2ストリームデコードを行うハードウェア5のブロック図を示す。
また、図5は、背景技術として説明したMPEGシステム規格における2つのストリームが多重化されたストリーム53を示している。ストリーム53は、映像データが符号化されたデータ"V1"(以下、「ビデオデータ1」とする)及び"V2"(以下、「ビデオデータ2」とする)と、音声データが符号化されたデータ"A1"(以下、「オーディオデータ1」とする)及び"A2"(以下、「オーディオデータ2」とする)が、1つに多重化されたデータ群である。
具体的には、ビデオデータ1及びオーディオデータ1を含むストリームと、ビデオデータ2及びオーディオデータ2を含むストリームの2つのストリームが多重化されている。つまり、ビデオデータ1及びオーディオデータ1を含むストリームと、ビデオデータ2及びオーディオデータ2を含むストリームは、それぞれ独立した映像及び音声を再生する。
デマルチプレクサ300は、ストリーム53に含まれるデータをビデオバッファ310、320とオーディオバッファ311、321に分配して、それぞれに格納する。ビデオバッファ310には、ビデオデータ1が格納され、ビデオバッファ320には、ビデオデータ2が格納される。また、オーディオバッファ311には、オーディオデータ1が格納され、オーディオバッファ321には、オーディオデータ2が格納される。
そして、デコードタイミングで、ビデオデコーダ312がビデオバッファ310に格納されたビデオデータ1をデコードし、ビデオデコーダ322がビデオバッファ320に格納されたビデオデータ2をデコードする。また、同じタイミングで、オーディオデコーダ313がオーディオバッファ311に格納されたオーディオデータ1をデコードし、オーディオデコーダ323がオーディオバッファ321に格納されたオーディオデータ2をデコードする。これにより、ビデオデータ1及びビデオデータ2をデコードして生成した映像データによる映像の表示と、オーディオデータ1及びオーディオデータ2をデコードして生成した音声データによる音声の出音を行うことができる。
なお、一般的に、BDでは、ビデオデータ1及びビデオデータ2のいずれかをビデオデータに基づいて表示される映像を本編となる主映像として再生し、他方のビデオデータに基づいて表示される映像をメイキングコメンタリー等の副映像として再生している。
ところで、BDでは、2ストリームデコードを行って、同時に同一画面内に主映像及び副映像を表示する場合、図6に示すように、画面内における主映像の表示領域(表示開始位置、幅、高さ)に応じて、画面内における副映像の表示領域が決定される。以下、これを「表示の同期」とする。
しかしながら、背景技術として、図4において示したようなハードウェア4を、そのまま2つ組み合わせて、2ストリームデコードを行えるようにしただけでは、副映像をデコードするデコーダは、主映像の表示領域を知ることができないため、表示の同期を行うことができないという問題があった。
この課題を解決するため、BD規格では図7に示すように、PlayItemIDと、SecondaryVideoStreamIDというIDと、主映像の表示領域を示す表示領域情報を用いて、表示の同期の制御を行っている。なお、ここでは、ビデオデータ1によって主映像が再生され、ビデオデータ2によって副映像が再生される場合について説明する。
ここで、PlayItemIDは、主映像のビデオデータ1に割り当てられた識別情報であり、SecondaryVideoStreamIDは、副映像のビデオデータ2に割り当てられた識別情報である。
図7に示す場合、主映像は、"PlayItemID=0"のビデオデータ1、"PlayItemID=1"のビデオデータ1、"PlayItemID=2"のビデオデータ1の順番にデコードされて再生される。また、副映像は、"SecondaryVideoStreamID=0"のビデオデータ2、"SecondaryVideoStreamID=1"のビデオデータ2の順番にデコードされて再生される。
続いて、図5に示すハードウェア5において、表示の同期を行う場合について詳細に説明する。
まず、ビデオデコーダ312は、ビデオデータ1の入力とともに、そのビデオデータ1に対応付けられたPlayItemIDの入力を受ける。また、ビデオデコーダ322は、ビデオデータ2の入力とともに、そのビデオデータ2に対応付けられたSecondaryVideoStreamIDの入力を受ける。
ビデオデコーダ312は、入力されたビデオデータ1をデコードすることによってビデオデータ1に含まれる表示領域情報を取得し、取得した表示領域情報が示す表示領域に主映像を表示する映像データ1を生成する。このとき、ビデオデコーダ312は、入力されたPlayItemID及び取得した表示領域情報を内部に保持する。
また、ビデオデコーダ322は、入力されたビデオデータ2をデコードして映像データ2を生成するときに、ビデオデコーダ312からビデオデータ1のPlayItemIDを取得して、取得したPlayItemIDと、SecondaryVideoStreamIDと比較する。
ここで、ビデオデータ2のSecondaryVideoStreamIDは、このビデオデータ2によって再生される副映像と同時に表示される主映像のビデオデータ1のPlayItemIDと一致した値が割り当てられる。そのため、ビデオデコーダ322は、PlayItemIDと、SecondaryVideoStreamIDとが一致した場合、ビデオデコーダ312から表示領域情報を取得する。
また、ビデオデコーダ322は、ビデオデータ2をデコードすることによって、このビデオデータ2に含まれる表示領域情報を取得している。このビデオデータ2から取得した表示領域情報は、主映像の表示領域がとり得るパターンのそれぞれに対応する複数のパターンの表示領域が示されている。ビデオデコーダ322は、この複数のパターンの表示領域のうち、ビデオデコーダ312から取得した表示領域情報が示す表示領域に対応するパターンの表示領域に副映像を表示する映像データ2を生成する。つまり、図7に示すように、ビデオデコーダ322は、デコードするビデオデータ2に対応するビデオデータ1の表示領域情報をビデオデコーダ312から取得し、取得した表示領域情報が示す主映像の表示領域に基づいて、副映像の表示領域を決定する。
このように、副映像を正しい表示領域に表示するためには、PlayItemIDや表示領域情報を取得する必要がある。
しかし、ストリームの再生を開始する位置によっては、PlayItemIDや表示領域情報を取得することができないときがあるという問題がある。
続いて、この問題について、図8、9を参照して詳細に説明する。図8は、2ストリームデコードを行うハードウェア5における表示・出音までの流れを示す図である。
なお、図8(A)に示すストリームは、ビデオデータ1をデコード順に、"V1−1"、"V1−2"、・・・として示しており、ビデオデータ2をデコード順に、"V2−1"、"V2−2"、・・・として示している。また、オーディオデータ1をデコード順に、"A1−1"、"V1−2"、・・・として示しており、オーディオデータ2をデコード順に、"A2−1"、"V2−2"、・・・として示している。ここで、ビデオデータ1"V1−1"の表示される期間内に、ビデオデータ2"V2−1"、"V2−2"、"V2−3"が表示されるものとする。つまり、ビデオデータ1"V1−1"のPlayItemIDと一致するように、ビデオデータ2"V2−1"、"V2−2"、"V2−3"のSecondaryVideoStreamIDが設定される。
図8(B)に示すビデオデコーダ312、322及びオーディオデコーダ313、323は、図8(A)に示すストリームに含まれるデータをデコードすることによって、図8(C)に示すような映像及び音声を表示・出音する映像データ及び音声データを生成する。
このとき、ビデオデコーダ312は、ビデオデータ1"V1−1"をデコードした場合、このビデオデータ1"V1−1"のPlayItemID及び表示領域情報を保持する。ここで、ビデオデータ1"V1−1"、"V1−2"をデコードして表示される主映像は、例えば、静止画のように一定期間同一の画像が表示され続ける映像であるものとする。そのため、ビデオデータ1"V1−2"がストリームからビデオデコーダ312に入力されるのは、ビデオデータ1"V1−1"の表示終了直前となる。一般的に、ビデオデータ1"V1−1"によって表示される映像が静止画のように一定期間同一の映像が表示され続ける映像である場合、ビデオデータ1"V1−1"に後続するビデオデータ1"V1−2"は表示終了直前まで入力されない。
また、上述したように、ビデオデータ2"V2−1"、"V2−2"、"V2−3"は、それぞれによって表示される副映像が、ビデオデータ1"V1−1"によって表示される主映像の表示中に表示されるようにSecondaryVideStremIDが割り当てられている。そのため、ビデオデータ2"V2−1"、"V2−2"、"V2−3"をデコードする際には、それぞれに割り当てられたSecondaryVideStremIDと値が一致するPlayItemIDを有するビデオデータ1"V1−1"のビデオデータの表示領域情報を取得する。そして、ビデオデコーダ322は、取得した表示領域情報に基づいて、ビデオデータ2"V2−1"、"V2−2"、"V2−3"をデコードして、副映像を表示する映像データ2を生成する。
図9は、図8(A)に示すストリームが、途中のビデオデータ1"A1−1"から再生される場合において、2ストリームデコードを行うハードウェア5における表示・出音までの流れを示す図である。このように、ストリームにおける再生開始位置が変動することは、レジューム再生や再生開始時刻を指定した再生等によって頻繁に発生し得る。
図9(B)に示すビデオデコーダ312、322及びオーディオデコーダ313、323は、図9(A)に示すストリームに含まれるデータをデコードすることによって、図8(C)に示すような映像及び音声を表示・出音する映像データ及び音声データを生成する。
この場合、図8(A)に示されていたビデオデータ1"V1−1"は、ストリームの再生開始位置よりも前に含まれているため、ビデオデコーダ312に入力されない。そのため、本来ならビデオデータ1"V1−1"によって主映像が再生されている期間中であっても、ビデオデコーダ322は、ビデオデコーダ312からビデオデータ1"V1−1"のPlayItemIDや表示領域情報を取得することができない。ビデオデコーダ312は、ビデオデータ1"V1−2"がデコードされて初めてビデオデータ1のPlayItemID や表示領域情報を保持することになる。
よって、このような場合、ビデオデータ1"V1−1"がデコードされないため、ビデオデコーダ322は、ビデオデータ1"V1−1"のPlayItemIDと表示領域情報を取得することができない。そのため、ビデオデコーダ322は、ビデオデータ2"V2−1"、"V2−2"、"V2−3"について、表示の同期を行うことができず、これらの副映像を表示することができないという問題がある。
つまり、第1の映像を符号化した第1の符号化データと、第1の符号化データが有する表示領域情報に基づいて、第1の映像と同一画面上に表示される第2の映像を符号化した第2の符号化データを含んだストリームデータを途中である再生点から再生処理する場合に、このストリームデータの途中再生点によっては、第2の映像を表示することができないという問題がある。
しかし、背景技術として説明したように、特許文献2は、空白期間であってもテキスト字幕ストリームがプリロードされるようにすることで、シームレス再生を遮ることなく、字幕を表示できるようにするものであるが、この字幕は、主映像の表示領域情報に基づいて表示されるような映像ではない。つまり、特許文献2に記載の技術は、第1の映像を符号化した第1の符号化データと、第1の符号化データが有する表示領域情報に基づいて、第1の映像と同一画面上に表示される第2の映像を符号化した第2の符号化データを含んだストリームデータを再生処理するためのものではなく、本願の課題を解決するために適用することはできない。
本発明の第1の態様にかかる映像再生システムは、第1の映像を符号化した第1の符号化データと、前記第1の映像と同一画面上に表示される第2の映像を符号化した第2の符号化データを含むストリームデータを入力し、前記第1の映像及び前記第2の映像を再生処理する映像再生システムであって、前記第1の符号化データをデコードする第1のデコーダと、前記第2の符号化データに対応する前記第1の符号化データが有する表示領域情報に基づいて、前記第2の符号化データをデコードする第2のデコーダと、前記ストリームデータに含まれる前記第1の符号化データと前記第2の符号化データを夫々前記第1のデコーダ及び前記第2のデコーダに対して出力する制御部と、を有し、前記制御部は、
前記ストリームデータの途中である再生点から前記再生処理を実行する場合に、前記第2の符号化データに対応する前記第1の符号化データが前記途中再生点より後のストリームデータに含まれていないときに、前記途中再生点より前のストリームデータに含まれる前記第1の符号化データを前記第1のデコーダに出力するものである。
そのため、ストリームデータの途中再生点にかかわらず、第1の符号化データをデコードして、第1の符号化データが有する表示領域情報を取得することができるようになるため、この表示領域情報に基づいて第2の符号化データをデコードすることが可能となる。
本発明の第2の態様にかかる制御装置は、第1の映像を符号化した第1の符号化データと、前記第1の映像と同一画面上に表示される第2の映像を符号化した第2の符号化データを含むストリームデータを入力する手段と、前記ストリームデータに含まれる前記第1の符号化データを、前記第1の符号化データをデコードする第1のデコーダに出力する手段と、前記ストリームデータに含まれる当該第2の符号化データを、前記第2の符号化データに対応する前記第1の符号化データが有する表示領域情報に基づいて、前記第2の符号化データをデコードする第2のデコーダに出力する制御装置であって、前記ストリームデータの途中である再生点から再生処理を実行する場合に、前記第2の符号化データに対応する前記第1の符号化データが途中再生点より後のストリームデータに含まれていないときに、前記途中再生点より前のストリームデータに含まれる前記第1の符号化データを前記第1のデコーダに出力するものである。
そのため、ストリームデータの途中再生点にかかわらず、第1の符号化データをデコードして、第1の符号化データが有する表示領域情報を取得することができるようになるため、この表示領域情報に基づいて第2の符号化データをデコードすることが可能となる。
本発明の第3の態様にかかる映像再生方法は、第1の映像を符号化した第1の符号化データと、前記第1の映像と同一画面上に表示される第2の映像を符号化した第2の符号化データを含むストリームデータに基づいて、前記第1の映像と前記第2の映像を再生処理する映像再生方法であって、前記ストリームデータの途中である再生点から前記再生処理を実行する場合に、前記第2の符号化データに対応する前記第1の符号化データが前記途中再生点より後のストリームデータに含まれていないときに、前記途中再生点より前のストリームデータに含まれる前記第1の符号化データが有する表示領域情報に基づいて、第2の映像を前記再生処理するものである。
そのため、ストリームデータの途中再生点にかかわらず、第1の符号化データをデコードして、第1の符号化データが有する表示領域情報を取得することができるようになるため、この表示領域情報に基づいて第2の符号化データをデコードすることが可能となる。
上述した各態様により、第1の映像を符号化した第1の符号化データと、第1の符号化データが有する表示領域情報に基づいて、第1の映像と同一画面上に表示される第2の映像を符号化した第2の符号化データを含んだストリームデータを途中である再生点から再生処理する場合に、このストリームデータの途中再生点にかかわらず、第2の映像を表示することができる映像再生システム、制御装置及び映像再生方法を提供することができる。
本発明の実施の形態にかかる映像再生システムのブロック図である。 本発明の実施の形態にかかる映像再生システムにおける表示・出音までの流れを例示する図である。 本発明の実施の形態にかかる映像再生システムの処理を示すフローチャートである。 1ストリームデコードを行うハードウェアのブロック図である。 2ストリームデコードを行うハードウェアのブロック図である。 主映像及び副映像の表示領域の相関図である。 表示の同期を説明するための図である。 2ストリームデコードを行うハードウェアにおける表示・出音までの流れを示す図である。 2ストリームデコードを行うハードウェアにおいて、ストリームを途中から再生する場合の表示・出音までの流れを示す図である。
まず、図1を参照して、本発明の実施の形態にかかる映像再生システムの構成について説明する。図1は、本発明の実施の形態にかかる映像再生システムのブロック図である。なお、本実施の形態では、例えば、BDディスクレコーダやBDディスクプレーヤ等の再生装置に適用した場合について例示する。
映像再生システム1は、制御部10、デマルチプレクサ20、ビデオバッファ30、40、オーディオバッファ31、41、ビデオデコーダ32、42及びオーディオデコーダ33、43を有する。映像再生システム1には、2つのストリームが多重化されたストリームがBD2から入力される。
制御部10は、BD2から再生するストリームを読み出し、読み出したストリームをデマルチプレクサ20に出力する。このストリームは、図8(A)において説明したように、ビデオデータ1及びビデオデータ2と、オーディオデータ1及びオーディオデータ2が、1つに多重化されたデータ群である。なお、制御部10は、例えば、任意の回路やプロセッサによって構成されている。
デマルチプレクサ20は、制御部10から出力されたストリームに含まれるデータをビデオバッファ30、40及びオーディオバッファ31、41に分配して、それぞれに格納する。具体的には、デマルチプレクサ20は、ビデオデータ1をビデオバッファ30に格納し、ビデオデータ2をビデオバッファ40に格納する。また、デマルチプレクサ20は、オーディオデータ1をオーディオバッファ31に格納し、オーディオデータ2をオーディオバッファ41に格納する。
ここで、デマルチプレクサ20がビデオデータ及びオーディオデータをどのバッファ30、40、31、41に格納するかの判断は、制御部10がマルチプレクサ20に出力するビデオデータ及びオーディオデータに、ビデオデータ1、ビデオデータ2、オーディオデータ1又はオーディオデータ2のうちのいずれのデータであるかを識別可能とする情報を付加することによって判断可能としている。なお、制御部10は、BD2から読み出した情報に基づいて、ビデオデータやオーディオデータが、ビデオデータ1、ビデオデータ2、オーディオデータ1又はオーディオデータ2のうちのいずれのデータであるかを判断する。
ビデオデコーダ32は、デコードタイミングで、ビデオバッファ30に格納されたビデオデータ1をデコードして、主映像を表示するための映像データ1を生成する。
ビデオデコーダ42は、デコードタイミングで、ビデオバッファ40に格納されたビデオデータ2をデコードして、副映像を表示するための映像データ2を生成する。
オーディオデコーダ33は、デコードタイミングで、オーディオバッファ31に格納されたオーディオデータ1をデコードして、主映像の音声を出音するための音声データ1を生成する。
オーディオデコーダ43は、デコードタイミングで、オーディオバッファ41に格納されたオーディオデータ2をデコードして、副映像の音声を出音するための音声データ2を生成する。
なお、映像データ1及び映像データ2、音声データ1及び音声データ2は、映像再生システムから表示装置(図示せず)に出力されて、この出力を受けた表示装置によって再生される。表示装置は、例えば、CRT(Cathode Ray Tube)、PDP(Plasma Display Panel)、LCD(Liquid Crystal Display)又は有機EL(Electro Luminescence)や、スピーカ等から構成される装置である。
続いて、図2、3を参照して、本発明の実施の形態にかかる映像再生システムの処理について説明する。図3は、本発明の実施の形態にかかる映像再生システムにおける表示・出音までの流れを例示する図である。本実施の形態では、図8(A)に示すストリームをオーディオデータ1"A1−1"から再生する場合における処理について例示する。
まず、制御部10は、BD2からストリームを読み出す(S100)。ここで、図2(A)に示すビデオデータ1"V1−1"及び図2(B)に示すオーディオデータ1"A1−1"からビデオデータ1"V1−2"の直前までのデータを読み出す。
このように、まず、図2(B)に示す再生するストリームのうちのオーディオデータ1"A1−1"からビデオデータ1"V1−2"の直前までのデータを読み出して、それ以後も、ストリームのビデオデータ1"V1−2"以降のデータを順次任意の単位で読み出していくことで、再生を行っていく。以下、このようにして図2(B)に示すストリームから読み出す任意の単位のデータ群を「再生ストリーム」とする。
ここで、本実施の形態では、再生開始位置となるオーディオデータ1"A1−1"よりも前にある直近のビデオデータ1"V1−1"も読み出すようにしている。これによって、後述するようにビデオデータ1"V1−1"を使用して、ビデオデータ1"V1−1"によって表示される主映像と同時に表示される副映像の再生を可能としている。
そして、制御部10は、再生ストリームに含まれているビデオデータ2によって再生される副映像と同時に表示される主映像のビデオデータ1が、再生ストリームに含まれていないかどうかを判定する(S101)。なお、ここでの判断は、例えば、ビデオデータ1及びビデオデータ2に含まれるPST(Presentation Time Stamp)等のように、BD2から読み出した時刻情報に基づいて同時に表示されるか否かを判断する。
本実施の形態のように、図2(B)に例示するストリームを再生する場合は、制御部10は、再生ストリームに含まれるビデオデータ2"V2−1"、"V2−2"、"V2−3"によって再生される副映像と同時に表示される主映像のビデオデータ1"V1−1"が再生ストリームに含まれていないと判断する。
ビデオデータ1"V1−1"が再生ストリームに含まれていないと判断した場合、制御部10は、再生ストリームに含まれるデータをデマルチプレクサ20に出力するとき(S105)に、再生開始位置よりも前のストリームに含まれるビデオデータ1"V1−1"もデマルチプレクサ20に出力する(S102)。このとき、制御部10は、ビデオデータ1"V1−1"と対応付けてPlayItemIDをデマルチプレクサ20に出力する。デマルチプレクサ20は、制御部10から出力されたビデオデータ1"V1−1"及びこれに対応付けられたPlayItemIDをビデオバッファ30に格納する。
そして、ビデオデコーダ32は、デコードタイミングで、ビデオバッファ31からビデオデータ1"V1−1"及びこれに対応付けられたPlayItemIDを取得する。ビデオデコーダ32は、取得したビデオデータ1"V1−1"をデコードすることによって、このビデオデータ1"V1−1"に含まれる表示領域情報を取得する(S103)。そして、ビデオデコーダ32は、取得したPlayItemID及び表示領域情報を保持しておく(S104)。なお、PlayItemID及び表示領域情報は、ビデオデコーダ32が有する任意の記憶装置に格納される。ここで、任意の記憶装置は、例えば、レジスタである。
以下、ビデオデコーダ32がこのように取得したPlayItemID及び表示領域情報を「PlayItemID'」及び「表示領域情報'」とし、再生ストリームに含まれるビデオデータ1によって取得したPlayItemID及び表示領域情報を「PlayItemID」及び「表示領域情報」とする。
一方、ビデオデータ1"V1−1"が再生ストリームに含まれていると判断した場合、再生ストリームに含まれるデータをデマルチプレクサ20に出力するが(S105)、別途、再生開始位置よりも前にあるビデオデータ1をデマルチプレクサ20に出力しない。例えば、図8(A)に示すストリームをビデオデータ1"V1−1"から再生する場合、このように判断される。
また、制御部10は、再生ストリームに含まれるデータをデマルチプレクサ20に出力するときに、ビデオデータ1"V1−1"によって再生される主映像と同時に表示される副映像のビデオデータ2"V2−1"、"V2−2"、"V2−3"と対応付けて、ビデオデータ1"V1−1"のPlayItemIDと同じ値のSecondaryVideoStreamIDをデマルチプレクサ20に出力する。
デマルチプレクサ20は、制御部10から出力された再生ストリームに含まれるデータを分配してビデオバッファ30、40及びオーディオバッファ31、41に格納する。具体的には、ビデオデータ2"V2−1"、"V2−2"、"V2−3"及びそれらのSecondaryVideoStreamIDは、ビデオバッファ40に格納される。また、オーディオデータ1"A1−1"、"A1−2"、"A1−3"は、オーディオバッファ31に格納され、オーディオデータ2"A2−1"、"A2−2"は、オーディオバッファ41に格納される。
そして、デコードタイミングで、ビデオデコーダ32、42及びオーディオデコーダ33、43は、ビデオバッファ30、40及びオーディオバッファ31、41に格納されたデータを取得して、取得したデータをデコードする。
具体的には、ビデオデコーダ42は、ビデオデータ2"V2−1"、"V2−2"、"V2−3"をデコードして、それぞれの映像データ2を生成する(S110、S111)。オーディオデコーダ33は、オーディオデータ1"A1−1"、"A1−2"、"A1−3"デコードして、それぞれの音声データ1を生成する(S108、S109)。また、オーディオデコーダ43は、オーディオデータ2"A2−1"、"A2−2"をデコードして、それぞれの音声データ2を生成する(S112、S113)。
ここで、ビデオデコーダ42は、ビデオデータ2"V2−1"、"V2−2"、"V2−3"をデコードするときに、ビデオデータ1"A1−1"のPlayItemID及び表示領域情報をビデオデコーダ32から取得できるか否かを判断する(S117)。
再生ストリームにビデオデータ1"A1−1"は含まれていないため、ビデオデコーダ42は、ビデオデータ1"A1−1"のPlayItemID及び表示領域情報が取得できないと判断し、ビデオデータ1"A1−1"のPlayItemID'をビデオデコーダ32から取得する。
そして、ビデオデコーダ42は、取得したビデオデータ1"A1−1"のPlayItemID'と、ビデオデータ2"V2−1"、"V2−2"、"V2−3"のSecondaryVideoStreamIDが一致するので、ビデオデコーダ32からビデオデータ1"A1−1"の表示領域情報'を取得する。ビデオデコーダ42は、取得した表示領域情報'に基づいて、ビデオデータ2"V2−1"、"V2−2"、"V2−3"によって再生される副映像の表示領域を決定して、それぞれの映像データ2を生成する(S119)。
ここで、ビデオデコーダ32は、PlayItemID及び表示領域情報を保持しているか否かを示すフラグを有している。このフラグは、好ましくは、ビデオデータ1によって再生される主映像の再生期間中に有効とする。よって、ビデオデコーダ42は、このフラグを参照することで、ビデオデータ1"A1−1"のPlayItemID及び表示領域情報をビデオデコーダ32から取得できるか否かを判断することができる。また、これにより、ビデオデコーダ42は、ビデオデコーダ32が、例えば、不定値のように無効なPlayItemID及び表示領域情報を保持している場合に、誤ってこの値を取得してしまわないようにすることができる。
また、ビデオデコーダ32は、同様に、PlayItemID'及び表示領域情報'を保持しているか否かを示すフラグを有している。このフラグは、好ましくは、ビデオデータ1によって本来再生される主映像の再生期間中に有効とする。よって、ビデオデコーダ42は、このフラグを参照することで、ビデオデコーダ32が有効なビデオデータ1"A1−1"のPlayItemID'及び表示領域情報'をから取得できるか否かを判断することができる。そのため、ビデオデコーダ42は、ビデオデコーダ32が、例えば、不定値のように無効なPlayItemID'及び表示領域情報'を保持している場合に、誤ってこの値を取得してしまわないようにすることができる。
なお、上述した各フラグは、ビデオデコーダ32が有する任意の記憶装置に格納される。また、ビデオデコーダ32は、例えば、BD2から読み出した時刻情報に基づいて、再生期間を判断してフラグを更新することができる。
また、ビデオデコーダ32が、上述したどちらのフラグを有効にするか否かは、例えば、制御部10が、再生ストリームに含まれるビデオデータ2によって再生される副映像と同時に表示される主映像のビデオデータ1が再生ストリームに含まれていないと判断した場合に、その旨を通知する情報をデマルチプレクサ20経由でビデオデコーダ32に出力することで判断可能とすることができる。
また、ビデオデコーダ32は、この情報に基づいて、再生ストリームに含まれていないビデオデータ1が入力されたか否かを判断することができる。これにより、再生ストリームに含まれていないビデオデータ1が入力された場合は、このビデオデータ1をデコードして生成した映像データ1を外部の表示装置に出力しないようにすることもできる。
以上のようにして生成された映像データ2は、表示装置に出力されて、表示装置において表示される(S120)。また、以上のようにして生成された音声データ1及び音声データ2は、表示装置に出力されて、表示装置によって出音される(S118、S121)。
続いて、制御部10は、次に再生する再生ストリームをBD2から読み出す(S122)。ここでは、図2(B)に示すストリームの"V1−2"以降のデータを読み出すものとする。そして、制御部10は、読み出した再生ストリームをデマルチプレクサ20に出力する(S123)。
なお、制御部10は、ビデオデータ1"V1−2"と対応付けてPlayItemIDもデマルチプレクサ20に出力する。さらに、制御部10は、ビデオデータ1"V1−2"によって再生される主映像と同時に表示される副映像のビデオデータ2"V2−4"と対応付けて、ビデオデータ1"V1−2"のPlayItemIDと同じ値のSecondaryVideoStreamIDもデマルチプレクサ20に出力する。
デマルチプレクサ20は、制御部10から出力された再生ストリームに含まれるデータを分配してビデオバッファ30、40及びオーディオバッファ31、41に格納する。具体的には、ビデオデータ1"V1−2"及びそのPlayItemIDは、ビデオバッファ40に格納され、ビデオデータ2"V2−4"及びそのSecondaryVideoStreamIDは、ビデオバッファ40に格納される。
そして、デコードタイミングで、ビデオデコーダ32、42及びオーディオデコーダ33、43は、ビデオバッファ30、40及びオーディオバッファ31、41に格納されたデータを取得して、取得したデータをデコードする。
具体的には、ビデオデコーダ32は、ビデオデータ1"A1−2"をデコードして、その映像データ1を生成する(S106、S107)。ビデオデコーダ42は、ビデオデータ2"V2−4"をデコードして、それぞれの映像データ2を生成する(S110、S111)。
ここで、ビデオデコーダ32は、ビデオデータ1"A1−2"をデコードして、その映像データ1を生成するときに、ビデオデータ1"A1−2"をデコードすることによって、このビデオデータ1"V1−1"に含まれる表示領域情報を取得する。そして、ビデオデコーダ32は、取得したPlayItemID及び表示領域情報を保持しておく。なお、ビデオデコーダ32は、取得した表示領域情報に基づいて、映像データ1を生成することとなる。
そして、ビデオデコーダ42は、ビデオデータ2"V2−4"をデコードするときに、ビデオデータ1"A1−2"のPlayItemID及び表示領域情報をビデオデコーダ32から取得できるか否かを判断する(S117)。
ビデオデコーダ32には、ビデオデータ1"A1−1"のPlayItemID及び表示領域情報が保持されているため、ビデオデコーダ42は、ビデオデータ1"A1−1"のPlayItemID及び表示領域情報を取得する(S114)。
そして、ビデオデコーダ42は、取得したビデオデータ1"A1−1"のPlayItemIDと、ビデオデータ2"V2−1"、"V2−2"、"V2−3"のSecondaryVideoStreamIDが一致するので、ビデオデコーダ32からビデオデータ1"A1−1"の表示領域情報を取得する。ビデオデコーダ42は、取得した表示領域情報に基づいて、ビデオデータ2"V2−4"によって再生される副映像の表示領域を決定して、映像データ2を生成する(S118)。
以上のようにして生成された映像データ1及び映像データ2は、表示装置に出力されて、表示装置において表示される(S115、S120)。
以降は、制御部10が、次に再生する再生ストリームをBD2から読み出す(S122)。そして、制御部10は、読み出した再生ストリームをデマルチプレクサ20に出力して(S123)、同様に再生ストリームに含まれるデータをデコードして、表示・出音を行っていく。
以上に説明したように、本実施の形態によれば、主映像のビデオデータ1と、主映像と同一画面上に表示される副映像を再生するために主映像の表示領域情報に基づいてデコードされるビデオデータ2を含んだストリームを途中から再生する場合に、ビデオデータ2に対応するビデオデータ1が再生開始位置以降のストリームに含まれていないときに、再生開始位置よりも前のストリームに含まれているビデオデータ1をビデオデコーダ32に出力するようにしている。
これにより、ストリームの再生が開始される位置にかかわらず、ビデオデータ1をデコードして、ビデオデータ1の表示領域情報を取得することができるようになるため、この表示領域情報に基づいてビデオデータ2をデコードすることが可能となる。
そのため、主映像を再生するためのビデオデータ1と、主映像と同一画面上に表示される副映像を再生するために第1の映像の表示領域情報に基づいてデコードされる第2の符号化データを含んだストリームデータを途中から再生する場合に、このストリームデータの再生が開始される位置にかかわらず、第2の映像を表示することができる。
つまり、本実施の形態によれば、第1の映像を符号化した第1の符号化データと、第1の符号化データが有する表示領域情報に基づいて、第1の映像と同一画面上に表示される第2の映像を符号化した第2の符号化データを含んだストリームデータを途中である再生点から再生処理する場合に、ストリームデータの途中再生点にかかわらず、第1の符号化データをデコードして、第1の符号化データが有する表示領域情報を取得することができるようになるため、この表示領域情報に基づいて第2の符号化データをデコードすることが可能となり、第2の映像を表示することができる。
なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
例えば、映像再生システムに入力されるストリームは、本実施の形態において例示したようにBDに格納されているデータに限られない。例えば、同一画面上に2つの映像を表示するためのストリームを格納する光ディスクであれば、BDに限られない。また、地上波デジタル放送のように、光ディスクからでなく、送信されてきたストリームであってもよい。
また、本実施の形態においては、副映像をデコードするデコーダが、主映像をデコードするデコーダから表示領域情報を取得するようにしているが、別途、主映像のビデオデータから表示領域情報を取得する機能を有する回路又はプロセッサ等を設けて、そこから直接、副映像をデコードするデコーダが表示領域情報を取得できるようにしてもよい。
また、本実施の形態において例示した表示領域情報は、表示領域(表示開始位置、幅、高さ)を示すものに限られず、その他の映像に関する情報であってもよい。
1 映像再生システム
2 BD
10 制御部
20、200、300 デマルチプレクサ
30、40、210、310、320 ビデオバッファ
31、41、211、311、321 オーディオバッファ
32、42、212、312、322 ビデオデコーダ
33、43、213、313、323 オーディオデコーダ
52、53 ストリーム
4、5 ハードウェア

Claims (9)

  1. 第1の映像を符号化した第1の符号化データと、前記第1の映像と同一画面上に表示される第2の映像を符号化した第2の符号化データを含むストリームデータを入力し、前記第1の映像及び前記第2の映像を再生処理する映像再生システムであって、
    前記第1の符号化データをデコードする第1のデコーダと、
    前記第2の符号化データに対応する前記第1の符号化データが有する表示領域情報に基づいて、前記第2の符号化データをデコードする第2のデコーダと、
    前記ストリームデータに含まれる前記第1の符号化データと前記第2の符号化データを夫々前記第1のデコーダ及び前記第2のデコーダに対して出力する制御部と、
    を有し、
    前記制御部は、
    前記ストリームデータの途中である再生点から前記再生処理を実行する場合に、前記第2の符号化データに対応する前記第1の符号化データが前記途中再生点より後のストリームデータに含まれていないときに、前記途中再生点より前のストリームデータに含まれる前記第1の符号化データを前記第1のデコーダに出力する映像再生システム。
  2. 前記第1のデコーダは、前記第2の符号化データに対応する前記第1の符号化データが前記途中再生点より後のストリームデータに含まれていないときに、前記制御部から出力された第1の符号化データをデコードすることにより生成され、前記第1の映像を表示するための映像データを外部に出力しない請求項1に記載の映像再生システム。
  3. 前記第1のデコーダは、前記第1の符号化データをデコードすることにより、前記第1の符号化データが有する表示領域情報を取得し、
    前記第2のデコーダは、前記第2の符号化データに対応する前記第1の符号化データが前記途中再生点より後のストリームデータに含まれていないときに、前記第1のデコーダが取得した前記表示領域情報を前記第1のデコーダから取得する請求項1又は2に記載の映像再生システム。
  4. 前記第1のデコーダは、前記第2の符号化データに対応する前記第1の符号化データが前記途中再生点より後のストリームデータに含まれていないときに、前記制御部から出力された第1の符号化データが有する表示領域情報を取得しているか否かを示すフラグを格納するフラグ記憶部を有し、
    前記第2のデコーダは、前記フラグに基づいて、前記第1の符号化データが有する表示領域情報を前記第1のデコーダから取得するか否かを判断する請求項3に記載の映像再生システム。
  5. 前記第1の符号化データが有する表示領域情報は、前記画面上において、前記第1の映像を表示する表示領域を特定する情報であり、
    前記第2のデコーダは、前記第1の符号化データが有する表示領域情報に基づいて、前記第2の映像を表示する表示領域を決定する請求項1乃至4のいずれか1項に記載の映像再生システム。
  6. 前記ストリームデータは、光ディスクから読み出したデータである請求項1乃至5のいずれか1項に記載の映像再生システム。
  7. 前記第1の映像は、主映像であり、
    前記第2の映像は、副映像である請求項1乃至6のいずれか1項に記載の映像再生システム。
  8. 第1の映像を符号化した第1の符号化データと、前記第1の映像と同一画面上に表示される第2の映像を符号化した第2の符号化データを含むストリームデータを入力する手段と、
    前記ストリームデータに含まれる前記第1の符号化データを、前記第1の符号化データをデコードする第1のデコーダに出力する手段と、
    前記ストリームデータに含まれる当該第2の符号化データを、前記第2の符号化データに対応する前記第1の符号化データが有する表示領域情報に基づいて、前記第2の符号化データをデコードする第2のデコーダに出力する制御装置であって、
    前記ストリームデータの途中である再生点から再生処理を実行する場合に、前記第2の符号化データに対応する前記第1の符号化データが途中再生点より後のストリームデータに含まれていないときに、前記途中再生点より前のストリームデータに含まれる前記第1の符号化データを前記第1のデコーダに出力する制御装置。
  9. 第1の映像を符号化した第1の符号化データと、前記第1の映像と同一画面上に表示される第2の映像を符号化した第2の符号化データを含むストリームデータに基づいて、前記第1の映像と前記第2の映像を再生処理する映像再生方法であって、
    前記ストリームデータの途中である再生点から前記再生処理を実行する場合に、前記第2の符号化データに対応する前記第1の符号化データが前記途中再生点より後のストリームデータに含まれていないときに、前記途中再生点より前のストリームデータに含まれる前記第1の符号化データが有する表示領域情報に基づいて、第2の映像を前記再生処理する映像再生方法。
JP2009155083A 2009-06-30 2009-06-30 映像再生システム、制御装置及び映像再生方法 Pending JP2011014992A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009155083A JP2011014992A (ja) 2009-06-30 2009-06-30 映像再生システム、制御装置及び映像再生方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009155083A JP2011014992A (ja) 2009-06-30 2009-06-30 映像再生システム、制御装置及び映像再生方法

Publications (2)

Publication Number Publication Date
JP2011014992A true JP2011014992A (ja) 2011-01-20
JP2011014992A5 JP2011014992A5 (ja) 2012-04-05

Family

ID=43593498

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009155083A Pending JP2011014992A (ja) 2009-06-30 2009-06-30 映像再生システム、制御装置及び映像再生方法

Country Status (1)

Country Link
JP (1) JP2011014992A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7459506B2 (ja) 2019-12-24 2024-04-02 株式会社Jvcケンウッド 画像処理装置及び画像処理方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11149717A (ja) * 1997-11-19 1999-06-02 Toshiba Corp デコード処理方法及び装置
JP2005303791A (ja) * 2004-04-14 2005-10-27 Matsushita Electric Ind Co Ltd 字幕付き映像再生装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11149717A (ja) * 1997-11-19 1999-06-02 Toshiba Corp デコード処理方法及び装置
JP2005303791A (ja) * 2004-04-14 2005-10-27 Matsushita Electric Ind Co Ltd 字幕付き映像再生装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7459506B2 (ja) 2019-12-24 2024-04-02 株式会社Jvcケンウッド 画像処理装置及び画像処理方法

Similar Documents

Publication Publication Date Title
JP5137345B2 (ja) ローカル3次元ビデオを具現するためのエンコーディング/デコーディング方法及び装置
RU2537800C2 (ru) Способ и устройство для наложения трехмерной графики на трехмерное видеоизображение
JP4288613B2 (ja) 再生装置および再生方法、プログラム、記録媒体、並びにデータ構造
KR101967818B1 (ko) 수신 장치 및 그 수신 방법
JP2010011184A (ja) 映像信号処理装置及びテレビジョン受信装置及びその制御方法
JP2007028261A (ja) 映像音声再生装置および映像音声再生方法
KR20120005929A (ko) 데이터 구조, 기록 매체, 재생 장치 및 재생 방법, 및 프로그램
KR100604831B1 (ko) 오디오에 부가 영상과 문자를 동기시켜 재생하는오디오/비디오 재생 장치 및 그 방법
JP5957769B2 (ja) 映像処理装置及び映像処理方法
JP2006211488A (ja) 映像再生装置
JP2004173118A (ja) 音声画像多重化データ生成装置と再生装置および動画像復号化装置
JP5194343B2 (ja) 情報再生装置及び情報再生方法
JP6385236B2 (ja) 映像再生装置および映像再生方法
JP2007013714A (ja) 情報再生装置及び情報再生方法
JP2011014992A (ja) 映像再生システム、制御装置及び映像再生方法
JP2006324739A (ja) 符号化データ再生装置
JP4810328B2 (ja) 映像再生装置
JP2011028791A (ja) 再生装置、再生方法、およびプログラム、並びに記録媒体
JP2008252752A (ja) 映像情報再生装置及び方法、映像情報再生システム、並びに映像情報再生システムの制御方法
JP2006339857A (ja) 復号化装置
JP5201251B2 (ja) 情報再生装置及び情報再生方法
JP2010109404A (ja) 再生装置、再生制御方法、およびプログラム
JP2006180091A (ja) コンテンツ合成装置及び方法
JP5014674B2 (ja) 再生システム
JP4915861B2 (ja) 映像情報再生システム、並びに映像情報再生システムの制御方法

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120220

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121024

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121106

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130305