JP5710130B2 - 再生装置、制御方法及びプログラム - Google Patents

再生装置、制御方法及びプログラム Download PDF

Info

Publication number
JP5710130B2
JP5710130B2 JP2010018689A JP2010018689A JP5710130B2 JP 5710130 B2 JP5710130 B2 JP 5710130B2 JP 2010018689 A JP2010018689 A JP 2010018689A JP 2010018689 A JP2010018689 A JP 2010018689A JP 5710130 B2 JP5710130 B2 JP 5710130B2
Authority
JP
Japan
Prior art keywords
picture
pts
code
extended
received
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010018689A
Other languages
English (en)
Other versions
JP2010213261A (ja
Inventor
上田 裕明
裕明 上田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Personal Computers Ltd
Original Assignee
NEC Personal Computers Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Personal Computers Ltd filed Critical NEC Personal Computers Ltd
Priority to JP2010018689A priority Critical patent/JP5710130B2/ja
Publication of JP2010213261A publication Critical patent/JP2010213261A/ja
Application granted granted Critical
Publication of JP5710130B2 publication Critical patent/JP5710130B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は、MPEG(Moving Picture Expert Group)規格の符号を再生する技術に関する。
MPEG(Moving Picture Expert Group)規格の符号を解析すると、タイムスタンプ(33ビットPTS;Presentation Time Stamp)を取得することができる。従来は、このタイムスタンプ(33ビットPTS)を用いて符号の編集操作を行っていた。
MPEG規格の符号の上限となる時間は、約26.5時間である。詳細な値は、以下の算出式で得られる。
(0x1ffffffff/90000)/(60×60)≒26.51214
但し、0x1ffffffff;33ビットの最大値
90000;タイムスタンプの周期(Hz)
60×60;秒を時間に換算するための値
このため、MPEG規格では、図1(a)に示すように、MPEG規格の符号が約26.5時間以下ならば、MPEG規格の符号を解析して得られるタイムスタンプ(33ビットPTS)から正しい時刻情報を取得することができる。しかし、図1(b)に示すように、約26.5時間を越えると、タイムスタンプ(33ビットPTS)が桁あふれするため、タイムスタンプ(33ビットPTS)の値が約26.5時間を越えたタイミングでタイムスタンプ(33ビットPTS)の値を0にリセットしている。
このため、図1(c)に示すように、MPEG規格の符号が約26.5時間を越えてしまうと、その符号を解析して得られるタイムスタンプ(33ビットPTS)の値からは正しい時刻情報を取得することができない。その結果、MPEG規格の符号が約26.5時間を越えてしまうと、タイムスタンプ(33ビットPTS)を用いて符号の編集操作を行うことができない。編集操作としては、カット編集や、カット編集のプレビュー等が挙げられる。
このようなことから、MPEG規格の符号が約26.5時間を越えてしまっても、その符号の正しい時刻情報が得られるような仕組みを構築し、MPEG規格のタイムスタンプ(33ビットPTS)の上限(約26.5時間)を越えた符号の編集操作ができるようにしたいのが現状である。
なお、本発明より先に出願された技術文献として、再生位置を示す特別な情報を映像ストリームに挿入することなく、映像コンテンツの再生位置の取得、表示を実現する技術について開示された文献がある(例えば、特許文献1参照)。
上記特許文献1では、時刻情報と映像信号の再生位置との対応を示す再生位置テーブルを取得する。次に、映像信号を含むストリームから時刻情報を取得し、該取得した時刻情報を基に、再生位置テーブルから当該ストリームの再生位置を求めることにしている。
特開2008−227795号公報
上記特許文献1では、時刻情報と再生位置との対応を示す再生位置テーブルを用いて、映像コンテンツの再生位置の取得、表示を実現している。しかし、上記特許文献1には、MPEG規格の符号がMPEG規格の時刻情報の上限(約26.5時間)を越えてしまっても、その符号の正しい時刻情報が得られるような仕組みを構築する点については何ら記載もその必要性についても示唆されていない。
本発明は、上記事情に鑑みてなされたものであり、MPEG規格の符号がMPEG規格の時刻情報の上限(約26.5時間)を越えてしまっても、その符号の正しい時刻情報を得ることが可能な再生装置を提供することを目的とする。
かかる目的を達成するために、本発明は、以下の特徴を有することとする。
<再生装置>
本発明にかかる再生装置は
MPEG(Moving Picture Expert Group)規格の符号を格納する格納手段と、
前記符号に含まれるピクチャの時刻を示す時刻情報と該ピクチャの前記格納手段における位置を示す位置情報とを対応付けて管理する第1の管理手段と、
前記符号の所定時刻からの再生要求を受け付けた場合に、前記第1の管理手段を参照し、前記所定時刻に相当するピクチャの時刻情報に対応する位置情報を基に、前記格納手段から符号を読み出す読出手段と、
前記読出手段が読み出した符号を解析する解析手段と、
前記解析手段から受け付けた符号を復号する出力手段と、を有し、
前記読出手段は、
前記格納手段から読み出した符号と共に、MPEG規格の時刻情報の上限を拡張した値である前記ピクチャの拡張PTS(Presentation Time Stamp)を前記解析手段に出力し、
前記解析手段は、
解析した符号と共に、前記ピクチャの拡張PTSを前記出力手段に出力し、
前記出力手段は、
前記解析手段から受け付けた符号と、前記ピクチャの拡張PTSと、を対応付けて管理する第2の管理手段を有することを特徴とする。
本発明によれば、MPEG規格の符号がMPEG規格の時刻情報の上限(約26.5時間)を越えてしまっても、その符号の正しい時刻情報を得ることができる。
MPEG規格の符号が約26.5時間を越えてしまった場合に発生する問題点を説明するための図である。 本発明と関連する再生装置100'の構成例を示す図である。 再生装置100'のプッシュソース102'での処理動作例を示す図である。 再生装置100'のDemux103'での処理動作例を示す図である。 再生装置100'のDecode104'での処理動作例を示す図である。 第1の実施形態の再生装置100の構成例を示す図である。 再生装置100のプッシュソース102での処理動作例を示す図である。 再生装置100のDemux103での処理動作例を示す図である。 再生装置100のDecode104での処理動作例を示す図である。 第2の実施形態の再生装置100の構成例を示す図である。 再生装置100のプッシュソース102での処理動作例を示す図である。 第3の実施形態の再生装置100の構成例を示す図である。 再生装置100のプッシュソース102での処理動作例を示す図である。 再生装置100のDemux103での処理動作例を示す図である。 第4の実施形態の再生装置100の構成例を示す図である。 再生装置100のプッシュソース102での処理動作例を示す図である。 編集部200の構成例を示す図である。 Video符号検索部203での処理動作例を示す図である。 Audio符号検索部201での処理動作例を示す第1の図である。 Audio符号検索部201での処理動作例を示す第2の図である。 33ビットのリセット前と見なして、桁溢れ分を減らす場合を示す図である。 33ビットのリセット後と見なして、桁溢れ分を増やす場合を示す図である。 34ビット目以上の値を加算する場合(補正無しの場合)を示す図である。
<本発明と関連する再生装置100'の構成例>
まず、図2を参照しながら、本発明と関連する再生装置100'の構成例について説明する。
本発明と関連する再生装置100'は、メモリ101'と、プッシュソース102'と、Demux103'と、Decode104'と、Video Render105'と、Audio Render106'と、ディスプレイ107'と、スピーカ108'と、を含んで構成している。
メモリ101'は、各種情報を記憶するものであり、例えば、Iピクチャテーブル1011'や、MPEGファイル1012'等の情報を格納する。
Iピクチャテーブル1011'は、Iピクチャの表示時刻と、Iピクチャのファイル位置と、を対応付けて管理するテーブルである。Iピクチャは、Intra-coded picture(フレーム内符号化画像)のことを示す。
MPEGファイル1012'は、MPEG規格の多重化符号を格納したファイルである。
プッシュソース102'は、動画ファイルを読み込む機能を行うソースフィルタである。プッシュソース102'は、MPEGファイル1012'から多重化符号を読み取り、その読み取った多重化符号をDemux103'に送信する。
Demux103'は、動画ファイルをVideo符号、Audio符号に区分けする機能を行うスプリッタフィルタである。Demux103'は、バッファを含んで構成し、プッシュソース102'から受け付けた多重化符号をバッファに保存する。また、バッファに保存した多重化符号を解析し、1ピクチャ分の33ビットPTSを取得する。また、多重化符号をVideo符号とAudio符号とに分離する。Demux103'は、Video符号とAudio符号、及び33ビットPTSをDecode104'に出力する。
Decode104'は、動画ファイルを出力データに変換する機能を行う変換フィルタである。Decode104'は、バッファを含んで構成し、Demux103'から受け付けたVideo符号とAudio符号、及び33ビットPTSをバッファに保存する。また、バッファに保存したVideo符号と、Audio符号と、を復号し、その復号したデータをRender105',106'に出力する。Decode104'は、Video符号を復号した画像データをVideo Render105'に出力し、Audio符号を復号した音声データをAudio Render106'に出力する。また、Decode104'は、Video符号を復号した画像データ(サムネイル画像)と、33ビットPTSと、を対応付けてテーブル1041'で管理する。
Video Render105'は、画像データをディスプレイ107'に出力する機能を行うレンダリングフィルタである。Video Render105'は、画像データをディスプレイ107'に出力し、ディスプレイ107'上に画像データを表示する。
Audio Render106'は、音声データをスピーカ108'に出力する機能を行うレンダリングフィルタである。Audio Render106'は、音声データをスピーカ108'に出力し、スピーカ108'から音声データを出力する。
<本発明と関連する再生装置100'の処理動作>
次に、図3〜図5を参照しながら、図2に示す本発明と関連する再生装置100'の処理動作について説明する。図3は、プッシュソース102'での処理動作を示し、図4は、Demux103'での処理動作を示し、図5は、Decode104'での処理動作を示す。
<図3;プッシュソース102'での処理動作>
まず、図3を参照しながら、プッシュソース102'での処理動作について説明する。
プッシュソース102'は、再生開始時刻の指示を受け付けたか否かを判定し(ステップS'1)、再生開始時刻の指示を受け付けた場合は(ステップS'1/Yes)、Iピクチャテーブル1011'を参照し、再生開始時刻に相当するIピクチャの表示時刻を特定し、該特定したIピクチャの表示時刻に対応するIピクチャのファイル位置を取得する(ステップS'2)。
プッシュソース102'は、MPEGファイル1012'を参照し、ステップS'2で取得したIピクチャのファイル位置にシークする(ステップS'3)。
プッシュソース102'は、ステップS'3でシークしたファイル位置から多重化符号の読み取りを開始し(ステップS'4)、MPEGファイル1012'から読み取った多重化符号をDemux103'に送信する(ステップS'5)。
プッシュソース102'は、停止指示を受け付けたか否かを判定し(ステップS'6)、停止指示を受け付けた場合は(ステップS'6/Yes)、処理を終了する。
また、停止指示を受け付けない場合は(ステップS'6/No)、停止指示を受け付けるまで、多重化符号の読み取りを継続する(ステップS'7)。そして、プッシュソース102'は、MPEGファイル1012'から読み取った多重化符号をDemux103'に送信する(ステップS'5)。
<図4;Demux103'での処理動作>
次に、図4を参照しながら、Demux103'での処理動作について説明する。
Demux103'は、プッシュソース102'から多重化符号を受け付けたか否かを判定し(ステップA'1)、多重化符号を受け付けた場合は(ステップA'1/Yes)、多重化符号を解析し、1ピクチャ分の33ビットPTSを取得する(ステップA'2)。
多重化符号を受け付けたか否かの判定は、多重化符号がバッファに格納されているか否かを判定するように構築することも可能である。例えば、多重化符号がバッファに格納されている場合は、多重化符号を受け付けたと判定し、バッファに格納されていない場合は、多重化符号を受け付けていないと判定する。
次に、Demux103'は、多重化符号から1ピクチャ分のVideo符号を分離し(ステップA'3)、その1ピクチャ分のVideo符号と、33ビットPTSと、をDecode104'に送信する(ステップA'4)。
Demux103'は、停止指示を受け付けたか否かを判定し(ステップA'5)、停止指示を受け付けた場合は(ステップA'5/Yes)、処理を終了する。
また、Demux103'は、停止指示を受け付けていない場合は(ステップA'5/No)、プッシュソース102'から受け付けた多重化符号を全てDecode104'に送信したか否かを判定する(ステップA'6)。
Demux103'は、多重化符号がバッファに格納されており、多重化符号を全て送信していない場合は(ステップA'6/No)、ステップA'2〜ステップA'5の一連の処理を行う。また、多重化符号がバッファに格納されておらず、多重化符号を全て送信した場合は(ステップA'6/Yes)、ステップA'1の処理に戻り、プッシュソース102'から多重化符号を受け付けたか否かの判定を行う(ステップA'1)。
<図5;Decode104'での処理動作>
次に、図5を参照しながら、Decode104'での処理動作について説明する。
Decode104'は、Demux103'からVideo符号と33ビットPTSとを受け付けたか否かを判定し(ステップB'1)、Video符号と33ビットPTSとを受け付けた場合は(ステップB'1/Yes)、Video符号をデコードし、サムネイル画像を生成する(ステップB'2)。
次に、Decode104'は、サムネイル画像と、33ビットPTSと、を対応付けてテーブル1041'に記憶する(ステップB'3)。
Decode104'は、停止指示を受け付けたか否かを判定し(ステップB'4)、停止指示を受け付けた場合は(ステップB'4/Yes)、処理を終了する。
また、Decode104'は、停止指示を受け付けていない場合は(ステップB'4/No)、Demux103'から受け付けたVideo符号を全てサムネイル画像に変換したか否かを判定する(ステップB'5)。
Decode104'は、Video符号がバッファに格納されており、Video符号を全てサムネイル画像に変換していない場合は(ステップB'5/No)、ステップB'2〜ステップB'4の一連の処理を行う。また、Video符号がバッファに格納されておらず、Video符号を全てサムネイル画像に変換した場合は(ステップB'5/Yes)、ステップB'1の処理に戻り、Demux103'からVideo符号と33ビットPTSとを受け付けたか否かの判定を行う(ステップB'1)。
このように、図2に示す再生装置100'では、再生開始時刻の指示を受け付けた場合に、プッシュソース102'は、Iピクチャテーブル1011'を参照し、再生開始時刻に相当するIピクチャの表示時刻を特定し、その特定したIピクチャ表示時刻に対応するIピクチャのファイル位置のみを取得する。そして、Iピクチャのファイル位置を基に、MPEGファイル1012'から多重化符号を読み出し、その読み出した多重化符号をDemux103'に送信する。Demux103'は、プッシュソース102'から受け付けた多重化符号を解析し、33ビットPTSを取得する。また、多重化符号をVideo符号、Audio符号に分離する。そして、Demux103'は、Video符号とAudio符号、及び33ビットPTSをDecode104'に送信する。Decode104'は、Demux103'から受け付けたVideo符号を復号し、復号した画像データ(サムネイル画像)と、33ビットPTSと、を対応付けてテーブル1041'に記憶する。また、Decode104'は、復号した画像データ、音声データをRender105',106'に出力し、Render105',106'は、画像データ、音声データをディスプレイ107'、スピーカ108'から出力することにしている。
なお、上述した図2に示す再生装置100'は、MPEGファイル1012'から読み出した多重化符号を解析すると、タイムスタンプ(33ビットPTS)を取得することができる。再生装置100'は、このタイムスタンプ(33ビットPTS)と、サムネイル画像と、を対応付けてテーブル1041'に記憶し、MPEGファイル1012'から読み出した多重化符号の編集操作を行っている。
MPEG規格では、図1(a)に示すように、MPEGファイル1012'から読み出した多重化符号が約26.5時間以下ならば、MPEGファイル1012'の多重化符号を解析して得られるタイムスタンプ(33ビットPTS)から正しい時刻情報を取得することができる。しかし、図1(b)に示すように、約26.5時間を越えると、タイムスタンプ(33ビットPTS)が桁あふれするため、タイムスタンプ(33ビットPTS)の値が約26.5時間を越えたタイミングでタイムスタンプ(33ビットPTS)の値を0にリセットしている。
このため、図1(c)に示すように、MPEGファイル1012'から読み出した多重化符号が約26.5時間を越えてしまうと、その多重化符号を解析して得られるタイムスタンプ(33ビットPTS)の値からは正しい時刻情報を得ることができない。その結果、MPEGファイル1012'から読み出した多重化符号が約26.5時間を越えてしまうと、タイムスタンプ(33ビットPTS)を用いて多重化符号の編集操作を行うことができないことになる。
このようなことから、MPEGファイル1012'から読み出した多重化符号が約26.5時間を越えてしまっても、その多重化符号の正しい時刻情報が得られるような仕組みを構築し、MPEG規格のタイムスタンプ(33ビットPTS)の上限(約26.5時間)を越えた多重化符号の編集操作を行うことができるようにしたいのが現状である。
このため、本発明者は、図6に示すように、プッシュソース102は、Iピクチャテーブル1011で管理しているIピクチャの表示時刻を64ビットに拡張したタイムスタンプ(64ビットPTS)をDecode104まで送信し、MPEGファイル1012から読み出した多重化符号が約26.5時間を越えてしまっても、その多重化符号の正しい時刻情報を、64ビットに拡張したタイムスタンプ(64ビットPTS)から取得することが可能な仕組みを構築した。これにより、MPEGファイル1012から読み出した多重化符号がMPEG規格の上限(約26.5時間)を越えてしまっても、64ビットに拡張したタイムスタンプ(64ビットPTS)を用いて、その多重化符号の編集操作を行うことが可能となる。以下、図6〜図9を参照しながら、本実施形態の再生装置100について詳細に説明する。
(第1の実施形態)
<本実施形態の再生装置100の構成例>
まず、図6を参照しながら、本実施形態の再生装置100の構成例について説明する。
本実施形態の再生装置100は、メモリ101と、プッシュソース102と、Demux103と、Decode104と、Video Render105と、Audio Render106と、ディスプレイ107と、スピーカ108と、を含んで構成している。
メモリ101は、各種情報を記憶するものであり、例えば、Iピクチャテーブル1011や、MPEGファイル1012等の情報を格納する。
Iピクチャテーブル1011は、Iピクチャの表示時刻と、Iピクチャのファイル位置と、を対応付けて管理するテーブルである。Iピクチャは、Intra-coded picture(フレーム内符号化画像)のことを示す。
MPEGファイル1012は、MPEG規格の多重化符号を格納したファイルである。
プッシュソース102は、動画ファイルを読み込む機能を行うソースフィルタである。プッシュソース102は、MPEGファイル1012から多重化符号を読み取り、その読み取った多重化符号と、Iピクチャの64ビットPTSと、をDemux103に送信する。
Demux103は、動画ファイルをVideo符号、Audio符号に区分けする機能を行うスプリッタフィルタである。Demux103は、バッファを含んで構成し、プッシュソース102から受け付けた多重化符号と、Iピクチャの64ビットPTSと、をバッファに保存する。また、バッファに保存した多重化符号を解析し、1ピクチャ分の33ビットPTSを取得し、その取得した1ピクチャ分の33ビットPTSと、Iピクチャの64ビットPTSと、を基に1ピクチャ分の64ビットPTSを取得する。また、Demux103は、多重化符号をVideo符号とAudio符号とに分離する。そして、Demux103は、Video符号とAudio符号、及び64ビットPTSをDecode104に出力する。
Decode104は、動画ファイルを出力データに変換する機能を行う変換フィルタである。Decode104は、バッファを含んで構成し、Demux103から受け付けたVideo符号とAudio符号、及び64ビットPTSをバッファに保存する。また、バッファに保存したVideo符号と、Audio符号と、を復号し、その復号したデータをRender105,106に出力する。Decode104は、Video符号を復号した画像データをVideo Render105に出力し、Audio符号を復号した音声データをAudio Render106に出力する。また、Decode104は、Video符号を復号した画像データ(サムネイル画像)と、64ビットPTSと、を対応付けてテーブル1041で管理する。
Video Render105は、画像データをディスプレイ107に出力する機能を行うレンダリングフィルタである。Video Render105は、画像データをディスプレイ107に出力し、ディスプレイ107上に画像データを表示する。
Audio Render106は、音声データをスピーカ108に出力する機能を行うレンダリングフィルタである。Audio Render106は、音声データをスピーカ108に出力し、スピーカ108から音声データを出力する。
<本実施形態の再生装置100の処理動作>
次に、図7〜図9を参照しながら、図6に示す再生装置100の処理動作について説明する。図7は、プッシュソース102での処理動作を示し、図8は、Demux103での処理動作を示し、図9は、Decode104での処理動作を示す。
<図7;プッシュソース102での処理動作>
まず、図7を参照しながら、プッシュソース102での処理動作について説明する。
プッシュソース102は、再生開始時刻の指示を受け付けたか否かを判定し(ステップS1)、再生開始時刻の指示を受け付けた場合は(ステップS1/Yes)、Iピクチャテーブル1011を参照し、再生開始時刻に相当するIピクチャの表示時刻を特定する。そして、その特定したIピクチャの表示時刻を取得すると共に、該取得したIピクチャの表示時刻に対応するIピクチャのファイル位置を取得する(ステップS2)。再生開始時刻に相当するIピクチャの表示時刻を特定する方法としては、例えば、再生開始時刻に最も近いIピクチャの表示時刻を特定する方法が挙げられる。
次に、プッシュソース102は、ステップS2で取得したIピクチャの表示時刻(IPic Tbl Msec)を基に、Iピクチャの64ビットPTS(IPic Tbl Pts)を算出する(ステップS3)。
Iピクチャの64ビットPTS(IPic Tbl Pts)は、以下の式(1)、式(2)を用いて算出することが可能である。まず、ステップS2で取得したIピクチャの表示時刻(IPic Tbl Msec)を、式(1)に代入し、ステップS2で取得したIピクチャのファイル先頭からの時刻(IPic Tbl Time)を求め、その式(1)で求めた値(IPic Tbl Time)を式(2)に代入し、Iピクチャの64ビットPTS(IPic Tbl Pts)を求める。
IPic Tbl Time=IPic Tbl Msec-IPic Tbl Start・・・式(1)
IPic Tbl Pts=IPic Tbl Time*(90000/1000)・・・式(2)
但し、IPic Tbl Start;Iピクチャテーブルの先頭Iピクチャの時刻(ミリ秒)
IPic Tbl Msec;Iピクチャテーブルから取得したIピクチャの時刻(ミリ秒)
IPic Tbl Time;取得したIピクチャのファイル先頭からの時刻(ミリ秒)
IPic Tbl Pts;取得したIピクチャのファイル先頭からのPTS(64ビットに拡張した値)
なお、式(2)の90000は、タイムスタンプの周期(Hz)であり、1秒当たりの値が90000となる。式(2)では、ミリ秒からタイムスタンプの値に換算するため(90000/1000)をIPic Tbl Timeに乗算している。
次に、プッシュソース102は、MPEGファイル1012を参照し、ステップS2で取得したIピクチャのファイル位置にシークする(ステップS4)。
プッシュソース102は、ステップS4でシークしたファイル位置から多重化符号の読み取りを開始し(ステップS5)、MPEGファイル1012から読み取った多重化符号と、Iピクチャの64ビットPTSと、をDemux103に送信する(ステップS6)。
プッシュソース102は、停止指示を受け付けたか否かを判定し(ステップS7)、停止指示を受け付けた場合は(ステップS7/Yes)、処理を終了する。また、停止指示を受け付けていない場合は(ステップS7/No)、1GOP(Group of Picture)分の多重化符号をDemux103に送信したか否かを判定する(ステップS8)。
プッシュソース102は、1GOP分の多重化符号をDemux103に送信していない場合は(ステップS8/No)、多重化符号の読み取りを継続する(ステップS11)。そして、MPEGファイル1012から読み取った多重化符号と、Iピクチャの64ビットPTSと、をDemux103に送信する(ステップS6)。
プッシュソース102は、1GOP分の多重化符号をDemux103に送信した場合は(ステップS8/Yes)、Iピクチャテーブル1011を参照し、次のIピクチャの表示時刻を取得し(ステップS9)、該取得したIピクチャの表示時刻を基に、Iピクチャの64ビットPTSを算出する(ステップS10)。そして、MPEGファイル1012から読み取った多重化符号と、ステップS10で算出したIピクチャの64ビットPTSと、をDemux103に送信する(ステップS6)。
<図8;Demux103での処理動作>
次に、図8を参照しながら、Demux103での処理動作について説明する。
Demux103は、多重化符号と、Iピクチャの64ビットPTSと、をプッシュソース102から受け付けたか否かを判定し(ステップA1)、多重化符号と、Iピクチャの64ビットPTSと、を受け付けた場合は(ステップA1/Yes)、多重化符号を解析し、1ピクチャ分の33ビットPTSを取得する(ステップA2)。例えば、Demux103は、1回目は、Iピクチャの33ビットPTSを取得し、2回目は、Pピクチャの33ビットPTSを取得し、3回目は、Bピクチャの33ビットPTSを取得する。
Pピクチャは、Predictive-coded picture(順方向予測符号化画像)のことを示す。また、Bピクチャは、Bi-directionally predictive-coded picture(双方向予測符号化画像)のことを示す。
多重化符号とIピクチャの64ビットPTSとを受け付けたか否かの判定は、多重化符号とIピクチャの64ビットPTSとがバッファに格納されているか否かを判定するように構築することも可能である。例えば、多重化符号とIピクチャの64ビットPTSとがバッファに格納されている場合は、多重化符号とIピクチャの64ビットPTSとを受け付けたと判定し、バッファに格納されていない場合は、多重化符号とIピクチャの64ビットPTSとを受け付けていないと判定する。
次に、Demux103は、多重化符号から1ピクチャ分のVideo符号を分離する(ステップA3)。
次に、Demux103は、Iピクチャの33ビットPTS(IPic Pts)と、Decode104に送信するピクチャの33ビットPTS(Pic Pts)と、の差分(Diff Pts)を算出する(ステップA4)。GOPの途中から33ビットPTSがリセットしている場合は、差分(Diff Pts)を補正する必要があるため、差分(Diff Pts)は、以下の式(3−1)、式(3−2)を用いて算出する。
IPic Ptsが33ビットPTSの最大値の3/4以上であり、且つ、Pic Ptsが33ビットPTSの最大値の1/4以下である条件の場合は、以下の式(3−1)を用いて、差分(Diff Pts)を算出する。但し、3/4は固定値ではなく、十分に大きな値であれば、任意に設定変更可能である。また、1/4も固定値ではなく、十分に小さな値であれば、任意に設定変更可能である。
Diff Pts=(Pic Pts+33ビットPTSの最大値)-IPic Pts・・・式(3−1)
また、上記条件以外の場合は、以下の式(3−2)を用いて、差分(Diff Pts)を算出する。
Diff Pts=Pic Pts-IPic Pts・・・式(3−2)
但し、IPic Pts;解析したIピクチャの33ビットPTS
Pic Pts;解析した各ピクチャの33ビットPTS
Diff Pts;差分
なお、Decode104に送信する最初のピクチャは、Iピクチャとなるため、差分(Diff Pts)は、0になる。
次に、Demux103は、ステップA4で算出した差分(Diff Pts)を、ステップA1で取得したIピクチャの64ビットPTS(IPic Pts64)に加算し、Decode104に送信する1ピクチャ分の64ビットPTS(Pic Pts64)を算出する(ステップA5)。Decode104に送信する1ピクチャ分の64ビットPTS(Pic Pts64)は、以下の式(4)を用いて算出することが可能である。
Pic Pts64=IPic Pts64+Diff Pts・・・式(4)
但し、IPic Pts64;取得したIピクチャの64ビットPTS
Pic Pts64;解析した各ピクチャの33ビットPTSを64ビットPTSに拡張した値(ファイル先頭からの64ビットPTS)
Diff Pts;差分
Demux103は、ステップA3で分離した1ピクチャ分のVideo符号と、ステップA5で算出した64ビットPTSと、をDecode104に送信する(ステップA6)。
Demux103は、停止指示を受け付けたか否かを判定し(ステップA7)、停止指示を受け付けた場合は(ステップA7/Yes)、処理を終了する。
また、Demux103は、停止指示を受け付けていない場合は(ステップA7/No)、1GOP分の多重化符号をDecode104に送信したか否かを判定する(ステップA8)。
Demux103は、1GOP分の多重化符号をDecode104に送信していない場合は(ステップA8/No)、ステップA2〜ステップA7の一連の処理を行う。また、1GOP分の多重化符号をDecode104に送信した場合は(ステップA8/Yes)、ステップA1の処理に戻り、多重化符号と、Iピクチャの64ビットPTSと、をプッシュソース102から受け付けたか否かの判定を行う(ステップA1)。
<図9;Decode104での処理動作>
次に、図9を参照しながら、Decode104での処理動作について説明する。
Decode104は、Video符号と64ビットPTSとをDemux103から受け付けたか否かを判定し(ステップB1)、Video符号と64ビットPTSとを受け付けた場合は(ステップB1/Yes)、Video符号をデコードし、サムネイル画像を生成する(ステップB2)。
次に、Decode104は、サムネイル画像と、64ビットPTSと、を対応付けてテーブル1041に記憶する(ステップB3)。
Decode104は、停止指示を受け付けたか否かを判定し(ステップB4)、停止指示を受け付けた場合は(ステップB4/Yes)、処理を終了する。
また、Decode104は、停止指示を受け付けていない場合は(ステップB4/No)、Demux103から受け付けたVideo符号を全てサムネイル画像に変換したか否かを判定する(ステップB5)。
Decode104は、Video符号がバッファに格納されており、Video符号を全てサムネイル画像に変換していない場合は(ステップB5/No)、ステップB2〜ステップB4の一連の処理を行う。また、Video符号がバッファに格納されておらず、Video符号を全てサムネイル画像に変換した場合は(ステップB5/Yes)、ステップB1の処理に戻り、Demux103からVideo符号と64ビットPTSとを受け付けたか否かの判定を行う(ステップB1)。
<本実施形態の再生装置100の作用・効果>
このように、本実施形態の再生装置100は、再生開始時刻の指示を受け付けた場合に、プッシュソース102は、Iピクチャテーブル1011を参照し、再生開始時刻に相当するIピクチャの表示時刻を取得すると共に、その取得したIピクチャ表示時刻に対応するIピクチャのファイル位置を取得する。プッシュソース102は、Iピクチャテーブル1011から取得したIピクチャの表示時刻を基に、Iピクチャの64ビットPTSを算出する。次に、プッシュソース102は、Iピクチャのファイル位置を基に、MPEGファイル1012から多重化符号を読み出し、その読み出した多重化符号と、Iピクチャの64ビットPTSと、をDemux103に送信する。Demux103は、プッシュソース102から受け付けた多重化符号を解析し、各ピクチャの33ビットPTSを取得する。また、多重化符号をVideo符号、Audio符号に分離する。そして、Iピクチャの33ビットPTSと、各ピクチャの33ビットPTSと、の差分を算出し、その差分をIピクチャの64ビットPTSに加算し、各ピクチャの64ビットPTSを算出する。そして、Video符号とAudio符号、及びそれぞれの64ビットPTSをDecode104に送信する。Decode104は、Demux103から受け付けたVideo符号を復号し、復号したサムネイル画像と、64ビットPTSと、を対応付けてテーブル1041に記憶する。また、Decode104は、復号した画像データ、音声データをRender105,106に出力し、Render105,106は、画像データ、音声データをディスプレイ107、スピーカ108から出力する。
本実施形態の再生装置100では、Decode104は、各ピクチャの符号の時刻情報を、MPEG規格の時刻情報の上限(約26.5時間)を拡張した値(64ビットPTS)でテーブル1041にて管理することになる。このため、MPEGファイル1012から読み出した多重化符号がMPEG規格の時刻情報の上限(約26.5時間)を越えてしまっても、64ビットに拡張したタイムスタンプ(64ビットPTS)を用いることで、その多重化符号の正しい時刻情報を得ることができる。その結果、MPEGファイル1012から読み出した多重化符号がMPEG規格の上限(約26.5時間)を越えてしまっても、64ビットに拡張したタイムスタンプ(64ビットPTS)を用いて、その多重化符号の編集操作を行うことが可能となる。編集操作は、タイムスタンプ(33ビットPTS)を用いて多重化符号の編集操作を行うものであれば、あらゆる編集操作が適用可能であり、例えば、カット編集や、カット編集のプレビュー等が挙げられる。
(第2の実施形態)
次に、第2の実施形態について説明する。
第1の実施形態では、プッシュソース102は、図7に示すように、再生開始時刻の指示を受け付けた場合に(ステップS1/Yes)、Iピクチャテーブル1011を参照し、Iピクチャの表示時刻を取得すると共に、該取得したIピクチャの表示時刻に対応するIピクチャのファイル位置を取得する(ステップS2)。そして、ステップS2で取得したIピクチャの表示時刻(IPic Tbl Msec)を基に、Iピクチャの64ビットPTSを算出した(ステップS3)。
第2の実施形態では、図10に示すように、Iピクチャテーブル1013で管理するIピクチャの表示時刻を64ビットPTSに拡張した値(Iピクチャの64ビットPTS)で管理する。そして、プッシュソース102は、図11に示すように、再生開始時刻の指示を受け付けた場合に(ステップS11/Yes)、Iピクチャテーブル1013を参照し、Iピクチャの表示時刻(Iピクチャの64ビットPTS)を取得すると共に、該取得したIピクチャの表示時刻(Iピクチャの64ビットPTS)に対応するIピクチャのファイル位置を取得する(ステップS12)。これにより、第1の実施形態のように、Iピクチャの64ビットPTSを算出する処理を行うことなく、Iピクチャの64ビットPTSを取得することが可能となる。以下、図10〜図11を参照しながら、第2の実施形態の再生装置100について説明する。
<再生装置100の構成例>
まず、図10を参照しながら、本実施形態の再生装置100の構成例について説明する。
本実施形態の再生装置100は、Iピクチャテーブル1013のテーブル構成例が第1の実施形態と異なり、他の構成は、第1の実施形態と同様に構成する。
本実施形態のIピクチャテーブル1013は、Iピクチャの64ビットPTSと、Iピクチャのファイル位置と、を対応付けて管理している。
Iピクチャの64ビットPTSは、Iピクチャの表示時刻を64ビットに拡張した値である。
<本実施形態の再生装置100の処理動作>
次に、図11を参照しながら、図10に示す再生装置100の処理動作について説明する。図11は、プッシュソース102での処理動作を示す。なお、Demux103での処理動作と、Decode104での処理動作は、第1の実施形態と同様な処理を行うため、具体的な処理は割愛する。
<図11;プッシュソース102での処理動作>
まず、図11を参照しながら、プッシュソース102での処理動作について説明する。
プッシュソース102は、再生開始時刻の指示を受け付けたか否かを判定し(ステップS11)、再生開始時刻の指示を受け付けた場合は(ステップS11/Yes)、Iピクチャテーブル1013を参照し、再生開始時刻に相当するIピクチャの64ビットPTSを特定する。そして、その特定したIピクチャの64ビットPTSを取得すると共に、該取得したIピクチャの64ビットPTSに対応するIピクチャのファイル位置を取得する(ステップS12)。
次に、プッシュソース102は、MPEGファイル1012を参照し、ステップS12で取得したIピクチャのファイル位置にシークする(ステップS13)。
プッシュソース102は、ステップS13でシークしたファイル位置から多重化符号の読み取りを開始し(ステップS14)、MPEGファイル1012から読み取った多重化符号と、Iピクチャの64ビットPTSと、をDemux103に送信する(ステップS15)。
プッシュソース102は、停止指示を受け付けたか否かを判定し(ステップS16)、停止指示を受け付けた場合は(ステップS16/Yes)、処理を終了する。また、停止指示を受け付けていない場合は(ステップS16/No)、1GOP(Group of Picture)分の多重化符号をDemux103に送信したか否かを判定する(ステップS17)。
プッシュソース102は、1GOP分の多重化符号をDemux103に送信していない場合は(ステップS17/No)、多重化符号の読み取りを継続する(ステップS19)。そして、MPEGファイル1012から読み取った多重化符号と、Iピクチャの64ビットPTSと、をDemux103に送信する(ステップS15)。
プッシュソース102は、1GOP分の多重化符号をDemux103に送信した場合は(ステップS17/Yes)、Iピクチャテーブル1013を参照し、次のIピクチャの64ビットPTSを取得する(ステップS18)、そして、MPEGファイル1012から読み取った多重化符号と、ステップS18で取得したIピクチャの64ビットPTSと、をDemux103に送信する(ステップS15)。
<本実施形態の再生装置100の作用・効果>
このように、本実施形態の再生装置100は、図10に示すように、Iピクチャテーブル1013で管理するIピクチャの表示時刻を64ビットPTSに拡張した値(Iピクチャ64ビットPTS)で管理する。そして、プッシュソース102は、図11に示すように、再生開始時刻の指示を受け付けた場合に(ステップS11/Yes)、Iピクチャテーブル1013を参照し、Iピクチャの表示時刻(Iピクチャ64ビットPTS)を取得すると共に、該取得したIピクチャの表示時刻(Iピクチャ64ビットPTS)に対応するIピクチャのファイル位置を取得する(ステップS12)。これにより、第1の実施形態のように、Iピクチャの64ビットPTSを算出する処理を行うことなく、Iピクチャの64ビットPTSを取得することが可能となる。
(第3の実施形態)
次に、第3の実施形態について説明する。
第1、第2の実施形態では、図6、図10に示すように、Iピクチャの情報をIピクチャテーブル1011,1013で管理することにした。
第3の実施形態では、図12に示すように、各ピクチャの情報(Iピクチャの表示時刻、Iピクチャのファイル位置)をピクチャテーブル1014で管理する。これにより、各ピクチャの時刻情報を算出しなくとも、各ピクチャの時刻情報を把握することが可能となる。以下、図12〜14を参照しながら、第3の実施形態の再生装置100について説明する。
<再生装置100の構成例>
まず、図12を参照しながら、本実施形態の再生装置100の構成例について説明する。
本実施形態の再生装置100は、ピクチャテーブル1014のテーブル構成例が第1の実施形態と異なり、他の構成は、第1の実施形態と同様に構成する。
本実施形態のピクチャテーブル1014は、各ピクチャの表示時刻と、各ピクチャのファイル位置と、を対応付けて管理している。ピクチャテーブル1014で管理するピクチャとしては、I、P、Bピクチャが挙げられる。
<本実施形態の再生装置100の処理動作>
次に、図13〜図14を参照しながら、図12に示す再生装置100の処理動作について説明する。図13は、プッシュソース102での処理動作を示し、図14は、Demux103での処理動作を示す。なお、Decode104での処理動作は、第1の実施形態と同様な処理を行うため、具体的な処理は割愛する。
<図13;プッシュソース102での処理動作>
まず、図13を参照しながら、プッシュソース102での処理動作について説明する。
プッシュソース102は、再生開始時刻の指示を受け付けたか否かを判定し(ステップS21)、再生開始時刻の指示を受け付けた場合は(ステップS21/Yes)、ピクチャテーブル1014を参照し、再生開始時刻に相当するピクチャの表示時刻を特定する。そして、その特定したピクチャの表示時刻を取得すると共に、該取得したピクチャの表示時刻に対応するピクチャのファイル位置を取得する(ステップS22)。
次に、プッシュソース102は、ステップS22で取得したピクチャの表示時刻(Pic Tbl Msec)を基に、ピクチャの64ビットPTS(Pic Tbl Pts)を算出する(ステップS23)。
ピクチャの64ビットPTS(Pic Tbl Pts)は、以下の式(5)、式(6)を用いて算出することが可能である。まず、ステップS22で取得したピクチャの表示時刻(Pic Tbl Msec)を、式(5)に代入し、ステップS22で取得したピクチャのファイル先頭からの時刻(Pic Tbl Time)を求め、その式(5)で求めた値(Pic Tbl Time)を式(6)に代入し、ピクチャの64ビットPTS(Pic Tbl Pts)を求める。
Pic Tbl Time=Pic Tbl Msec-Pic Tbl Start・・・式(5)
Pic Tbl Pts=Pic Tbl Time*(90000/1000)・・・式(6)
但し、Pic Tbl Start;ピクチャテーブルの先頭ピクチャの時刻(ミリ秒)
Pic Tbl Msec;ピクチャテーブルから取得したピクチャの時刻(ミリ秒)
Pic Tbl Time;取得したピクチャのファイル先頭からの時刻(ミリ秒)
Pic Tbl Pts;取得したピクチャのファイル先頭からのPTS(64ビットに拡張した値)
なお、式(6)の90000は、タイムスタンプの周期(Hz)であり、1秒当たりの値が90000となる。式(6)では、ミリ秒からタイムスタンプの値に換算するため(90000/1000)をIPic Tbl Timeに乗算している。
次に、プッシュソース102は、MPEGファイル1012を参照し、ステップS22で取得したピクチャのファイル位置にシークする(ステップS24)。
プッシュソース102は、ステップS24でシークしたファイル位置から多重化符号の読み取りを開始し(ステップS25)、MPEGファイル1012から読み取った多重化符号と、ピクチャの64ビットPTSと、をDemux103に送信する(ステップS26)。
プッシュソース102は、停止指示を受け付けたか否かを判定し(ステップS27)、停止指示を受け付けた場合は(ステップS27/Yes)、処理を終了する。
また、停止指示を受け付けていない場合は(ステップS27/No)、ピクチャテーブル1014を参照し、次のピクチャの表示時刻を取得し(ステップS28)、該取得した次のピクチャの表示時刻を基に、次のピクチャの64ビットPTSを算出する(ステップS29)。また、プッシュソース102は、MPEGファイル1012から多重化符号を読み取り(ステップS30)、その読み取った多重化符号と、ステップS29で算出した次のピクチャの64ビットPTSと、をDemux103に送信する(ステップS26)。
<図14;Demux103での処理動作>
次に、図14を参照しながら、Demux103での処理動作について説明する。
Demux103は、多重化符号と、ピクチャの64ビットPTSと、をプッシュソース102から受け付けたか否かを判定し(ステップA11)、多重化符号と、ピクチャの64ビットPTSと、を受け付けた場合は(ステップA11/Yes)、多重化符号からVideo符号を分離する(ステップA12)。
次に、Demux103は、ステップA12で分離した1ピクチャ分のVideo符号と、プッシュソース102から受け付けた64ビットPTSと、をDecode104に送信する(ステップA13)。
Demux103は、停止指示を受け付けたか否かを判定し(ステップA14)、停止指示を受け付けた場合は(ステップA14/Yes)、処理を終了する。
また、Demux103は、停止指示を受け付けていない場合は(ステップA14/No)、ステップA11〜ステップA13の一連の処理を行う。
<本実施形態の再生装置100の処理動作>
このように、本実施形態の再生装置100は、再生開始時刻の指示を受け付けた場合に、プッシュソース102は、ピクチャテーブル1014を参照し、再生開始時刻に相当するピクチャの表示時刻を取得すると共に、その取得したピクチャ表示時刻に対応するピクチャのファイル位置を取得する。プッシュソース102は、ピクチャテーブル1014から取得したピクチャの表示時刻を基に、ピクチャの64ビットPTSを算出する。次に、プッシュソース102は、ピクチャのファイル位置を基に、MPEGファイル1012から多重化符号を読み出し、その読み出した多重化符号と、ピクチャの64ビットPTSと、をDemux103に送信する。Demux103は、プッシュソース102から受け付けた多重化符号をVideo符号、Audio符号に分離する。そして、Demux103は、Video符号とAudio符号、及びそれぞれの64ビットPTSをDecode104に送信する。Decode104は、Demux103から受け付けたVideo符号を復号し、復号した画像データ(サムネイル画像)と、64ビットPTSと、を対応付けてテーブル1041に記憶する。これにより、各ピクチャの時刻情報を算出しなくとも、各ピクチャの時刻情報を把握することが可能となる。
(第4の実施形態)
次に、第4の実施形態について説明する。
第3の実施形態では、プッシュソース102は、図13に示すように、再生開始時刻の指示を受け付けた場合に(ステップS21/Yes)、ピクチャテーブル1014を参照し、ピクチャの表示時刻を取得すると共に、該取得したピクチャの表示時刻に対応するピクチャのファイル位置を取得する(ステップS22)。そして、ステップS22で取得したピクチャの表示時刻を基に、ピクチャの64ビットPTSを算出した(ステップS23)。
第4の実施形態では、図15に示すように、ピクチャテーブル1015で管理する各ピクチャの表示時刻を64ビットPTSに拡張した値(各ピクチャの64ビットPTS)で管理する。そして、プッシュソース102は、図16に示すように、再生開始時刻の指示を受け付けた場合に(ステップS31/Yes)、ピクチャテーブル1015を参照し、ピクチャの表示時刻(64ビットPTS)を取得すると共に、該取得したピクチャの表示時刻(64ビットPTS)に対応するピクチャのファイル位置を取得する(ステップS32)。これにより、第3の実施形態のように、各ピクチャの64ビットPTSを算出する処理を行うことなく、各ピクチャの64ビットPTSを取得することが可能となる。以下、図15〜図16を参照しながら、第4の実施形態の再生装置100について説明する。
<再生装置100の構成例>
まず、図15を参照しながら、本実施形態の再生装置100の構成例について説明する。
本実施形態の再生装置100は、ピクチャテーブル1015のテーブル構成例が第3の実施形態と異なり、他の構成は、第3の実施形態と同様に構成する。
本実施形態のピクチャテーブル1015は、各ピクチャの64ビットPTSと、各ピクチャのファイル位置と、を対応付けて管理している。
各ピクチャの64ビットPTSは、各ピクチャの表示時刻を64ビットに拡張した値である。ピクチャとしては、I,P,Bピクチャが挙げられる。
<本実施形態の再生装置100の処理動作>
次に、図16を参照しながら、図15に示す再生装置100の処理動作について説明する。図16は、プッシュソース102での処理動作を示す。なお、Demux103での処理動作と、Decode104での処理動作は、第3の実施形態と同様な処理を行うため、具体的な処理は割愛する。
<図16;プッシュソース102での処理動作>
まず、図16を参照しながら、プッシュソース102での処理動作について説明する。
プッシュソース102は、再生開始時刻の指示を受け付けたか否かを判定し(ステップS31)、再生開始時刻の指示を受け付けた場合は(ステップS31/Yes)、ピクチャテーブル1015を参照し、再生開始時刻に相当するピクチャの64ビットPTSを特定する。そして、その特定したピクチャの64ビットPTSを取得すると共に、該取得したピクチャの64ビットPTSに対応するピクチャのファイル位置を取得する(ステップS32)。
次に、プッシュソース102は、MPEGファイル1012を参照し、ステップS32で取得したピクチャのファイル位置にシークする(ステップS33)。
プッシュソース102は、ステップS33でシークしたファイル位置から多重化符号の読み取りを開始し(ステップS34)、MPEGファイル1012から読み出した多重化符号と、ピクチャの64ビットPTSと、をDemux103に送信する(ステップS35)。
プッシュソース102は、停止指示を受け付けたか否かを判定し(ステップS36)、停止指示を受け付けた場合は(ステップS36/Yes)、処理を終了する。
また、停止指示を受け付けていない場合は(ステップS36/No)、ピクチャテーブル1015を参照し、次のピクチャの64ビットPTSを取得する(ステップS37)、そして、MPEGファイル1012から多重化符号を読み取り(ステップS38)、該読み取った多重化符号と、ステップS37で取得した次のピクチャの64ビットPTSと、をDemux103に送信する(ステップS35)。
<本実施形態の再生装置100の作用・効果>
このように、本実施形態の再生装置100は、図15に示すように、ピクチャテーブル1015で管理する各ピクチャの表示時刻を64ビットPTSに拡張した値(各ピクチャの64ビットPTS)で管理する。そして、プッシュソース102は、図16に示すように、再生開始時刻の指示を受け付けた場合に(ステップS31/Yes)、ピクチャテーブル1015を参照し、ピクチャの表示時刻(ピクチャの64ビットPTS)を取得すると共に、該取得したピクチャの表示時刻(ピクチャの64ビットPTS)に対応するピクチャのファイル位置を取得する(ステップS32)。これにより、第3の実施形態のように、各ピクチャの64ビットPTSを算出する処理を行うことなく、各ピクチャの64ビットPTSを取得することが可能となる。
(第5の実施形態)
次に、第5の実施形態について説明する。
上述した第1〜第4の実施形態は、再生開始時刻の指示(再生要求)を受け付けた場合について説明した。しかし、上述した実施形態の技術内容は、編集操作を行う指定ピクチャを受け付けた場合も同様に行うことができる。編集操作としては、カット編集や、カット編集のプレビュー等が挙げられる。以下、編集操作時の実施形態について説明する。
<編集操作時の構成>
まず、図17を参照しながら、編集操作時の構成について説明する。
本実施形態の再生装置100は、図17に示す編集部200を有して構成する。編集部200は、編集操作を行うものであり、Audio符号検索部201と、Audio符号抜取部202と、Video符号検索部203と、Video符号抜取部204と、Video符号再圧縮部205と、再多重化部206と、を含んで構成する。
Audio符号検索部201は、編集対象の指定ピクチャを受け付けた場合に、Iピクチャテーブル1011及びMPEGファイル1012を参照し、指定ピクチャのAudio符号のファイル位置を検索する。
Audio符号抜取部202は、Audio符号検索部201の検索結果(ファイル位置)を基に、多重化符号からAudio符号を抜き取る。
Video符号検索部203は、編集対象の指定ピクチャを受け付けた場合に、Iピクチャテーブル1011及びMPEGファイル1012を参照し、指定ピクチャのVideo符号のファイル位置を検索する。
Video符号抜取部204は、Video符号検索部203の検索結果(ファイル位置)を基に、多重化符号からVideo符号を抜き取る。
Video符号再圧縮部205は、Video符号抜取部204で抜き取ったVideo符号を再圧縮する。
再多重化部206は、Audio符号とVideo符号とを再多重化する。
<編集部200の処理動作例>
次に、図17を参照しながら、編集部200の処理動作例について説明する。
Audio符号検索部201は、編集対象の指定ピクチャを受け付けた場合に、Iピクチャテーブル1011及びMPEGファイル1012を参照し、指定ピクチャのAudio符号のファイル位置を検索する。そして、その検索結果(ファイル位置)をAudio符号抜取部202に通知する(ステップS10)。
Audio符号抜取部202は、Audio符号検索部201から受け付けた検索結果(ファイル位置)を基に、多重化符号に含まれるAudio符号を抜き取り、その抜き取ったAudio符号を再多重化部206に渡す(ステップS11)。
Video符号検索部203は、編集対象の指定ピクチャを受け付けた場合に、Iピクチャテーブル1011及びMPEGファイル1012を参照し、指定ピクチャのVideo符号のファイル位置を検索する。そして、その検索結果(ファイル位置)をVideo符号抜取部204に通知する(ステップS12)
Video符号抜取部204は、Video符号検索部203から受け付けた検索結果(ファイル位置)を基に、多重化符号に含まれるVideo符号を抜き取る(ステップS13)。
Video符号再圧縮部205は、Video符号抜取部204で抜き取ったVideo符号を再圧縮し、その再圧縮を行ったVideo符号を再多重化部206に渡す(ステップS14)。
再多重化部206は、Audio符号抜取部202から渡されたAudio符号と、Video符号再圧縮部205から渡されたVideo符号と、を再多重化する(ステップS15)。これにより、編集部200は、編集対象の指定ピクチャを受け付けた場合に、その指定ピクチャの編集操作を行うことができる。
<Video符号検索部203での処理動作>
次に、図18を参照しながら、Video符号検索部203での処理動作について説明する。
Video符号検索部203は、編集対象の指定ピクチャを受け付けた場合に(ステップC1/Yes)、Iピクチャテーブル1011を参照し、編集対象の指定ピクチャの64ビットPTSに近いIピクチャのファイル位置をIピクチャテーブル1011から取得する(ステップC2)。
具体的には、Video符号検索部203は、Iピクチャテーブル1011のIピクチャの表示時刻(IPic Tbl Msec)を基に、Iピクチャの64ビットPTS(IPic Tbl Pts)を算出する。
Iピクチャの64ビットPTS(IPic Tbl Pts)は、以下の式(A)、式(B)を用いて算出することができる。まず、Iピクチャの表示時刻(IPic Tbl Msec)を、式(A)に代入し、Iピクチャのファイル先頭からの時刻(IPic Tbl Time)を求め、その式(A)で求めた値(IPic Tbl Time)を式(B)に代入し、Iピクチャの64ビットPTS(IPic Tbl Pts)を求める。
IPic Tbl Time=IPic Tbl Msec-IPic Tbl Start・・・式(A)
IPic Tbl Pts=IPic Tbl Time*(90000/1000)・・・式(B)
但し、IPic Tbl Start;Iピクチャテーブルの先頭Iピクチャの表示時刻(ミリ秒)
IPic Tbl Msec;IピクチャテーブルのIピクチャの表示時刻(ミリ秒)
IPic Tbl Time;Iピクチャのファイル先頭からの時刻(ミリ秒)
IPic Tbl Pts;Iピクチャのファイル先頭からのPTS(64ビットに拡張した値)
なお、式(B)の90000は、タイムスタンプの周期(Hz)であり、1秒当たりの値が90000となる。式(B)では、ミリ秒からタイムスタンプの値に換算するため(90000/1000)をIPic Tbl Timeに乗算している。
次に、Video符号検索部203は、上記算出したIピクチャの64ビットPTSを基に、指定ピクチャの64ビットPTSに近いIピクチャの64ビットPTSを特定し、その特定したIピクチャの64ビットPTSに対応するIピクチャのファイル位置を特定する。
これにより、Video符号検索部203は、編集対象の指定ピクチャを受け付けた場合に(ステップC1/Yes)、Iピクチャテーブル1011を参照し、編集対象の指定ピクチャの64ビットPTSに近いIピクチャのファイル位置をIピクチャテーブル1011から取得することができる(ステップC2)。
次に、Video符号検索部203は、MPEGファイル1012を参照し、ステップC1で取得したIピクチャのファイル位置から多重化符号の読み取りを開始する(ステップC3)。
Video符号検索部203は、MPEGファイル1012から読み取った多重化符号を順次解析し、各ピクチャの33ビットPTSを取得する(ステップC4)。例えば、Video符号検索部203は、1回目は、多重化符号からIピクチャの33ビットPTSを取得し、2回目は、Pピクチャの33ビットPTSを取得し、3回目は、Bピクチャの33ビットPTSを取得する。
次に、Video符号検索部203は、Iピクチャの33ビットPTS(IPic Pts)と、各ピクチャの33ビットPTS(Pic Pts)と、の差分(Diff Pts)を算出する(ステップC5)。GOPの途中から33ビットPTSがリセットしている場合は、差分(Diff Pts)を補正する必要があるため、差分(Diff Pts)は、以下の式(C−1)、式(C−2)を用いて算出する。
IPic Ptsが33ビットPTSの最大値の3/4以上であり、且つ、Pic Ptsが33ビットPTSの最大値の1/4以下である条件の場合は、以下の式(C−1)を用いて、差分(Diff Pts)を算出する。但し、3/4は固定値ではなく、十分に大きな値であれば、任意に設定変更可能である。また、1/4も固定値ではなく、十分に小さな値であれば、任意に設定変更可能である。
Diff Pts=(Pic Pts+33ビットPTSの最大値)-IPic Pts・・・式(C−1)
また、上記条件以外の場合は、以下の式(C−2)を用いて、差分(Diff Pts)を算出する。
Diff Pts=Pic Pts-IPic Pts・・・式(C−2)
但し、IPic Pts;解析したIピクチャの33ビットPTS
Pic Pts;解析した各ピクチャの33ビットPTS
Diff Pts;差分
なお、最初のピクチャは、Iピクチャとなるため、差分(Diff Pts)は、0になる。
次に、Video符号検索部203は、ステップC5で算出した差分(Diff Pts)を、ステップC2の処理で特定したIピクチャの64ビットPTS(IPic Pts64)に加算し、各ピクチャの64ビットPTS(Pic Pts64)を算出する(ステップC6)。各ピクチャの64ビットPTS(Pic Pts64)は、以下の式(D)を用いて算出することが可能である。
Pic Pts64=IPic Pts64+Diff Pts・・・式(D)
但し、IPic Pts64;Iピクチャの64ビットPTS
Pic Pts64;解析した各ピクチャの33ビットPTSを64ビットPTSに拡張した値(ファイル先頭からの64ビットPTS)
Diff Pts;差分
これにより、Video符号検索部203は、各ピクチャの33ビットPTSを64ビットPTSに拡張することができる。
次に、Video符号検索部203は、各ピクチャの64ビットPTSを基に、編集対象の指定ピクチャの64ビットPTSに近いピクチャを特定し、その特定したピクチャのファイル位置を取得する(ステップC7)。Video符号検索部203は、その取得したファイル位置を検索結果としてVideo符号抜取部204に通知する(ステップC8)。
これにより、Video符号抜取部204は、Video符号検索部203から受け付けた検索結果(ファイル位置)を基に、多重化符号に含まれるVideo符号を抜き取り、編集対象の指定ピクチャのファイル位置から編集操作(カット編集等)を行うことができる。
なお、上記処理では、Video符号検索部203は、図17に示すように、Iピクチャテーブル1011のIピクチャの表示時刻(IPic Tbl Msec)を基に、Iピクチャの64ビットPTS(IPic Tbl Pts)を算出し、指定ピクチャの64ビットPTSに近いIピクチャのファイル位置をIピクチャテーブル1011から取得することにした。
しかし、Iピクチャテーブル1011で管理するIピクチャの表示時刻を64ビットPTSに拡張した値(Iピクチャの64ビットPTS)で管理することも可能である。これにより、Video符号検索部203は、Iピクチャの64ビットPTS(IPic Tbl Pts)を算出する処理を行うことなく、指定ピクチャの64ビットPTSに近いIピクチャのファイル位置をIピクチャテーブル1011から取得することができる。
<Audio符号検索部201での処理動作>
次に、図19、図20を参照しながら、Audio符号検索部201での処理動作について説明する。
Audio符号検索部201は、編集対象の指定ピクチャを受け付けた場合に(ステップD1/Yes)、Video符号検索部203でのファイル位置の検索が終了したか否かを判定する(ステップD2)。
Audio符号検索部201は、Video符号検索部203でのファイル位置の検索が終了した場合に(ステップD2/Yes)、MPEGファイル1012を参照し、Video符号検索部203で検索したファイル位置に近いAudio符号の33ビットPTS(Audio 33Pts)を取得する(ステップD3)。
Audio符号検索部201は、Iピクチャテーブル1011を参照し、33ビットPTS(Audio 33Pts)を取得した際に使用したファイル位置に近いIピクチャのファイル位置を特定し、該特定したIピクチャのファイル位置に対応するIピクチャの表示時刻(IPic Tbl Msec)をIピクチャテーブル1011から取得する(ステップD4)。
Audio符号検索部201は、Iピクチャの表示時刻(IPic Tbl Msec)を基に、Iピクチャの64ビットPTS(IPic 64Pts)を算出する(ステップD5)。
Iピクチャの64ビットPTS(IPic 64Pts)は、以下の式(E)、式(F)を用いて算出することができる。まず、Iピクチャの表示時刻(IPic Tbl Msec)を、式(E)に代入し、Iピクチャのファイル先頭からの時刻(IPic Tbl Time)を求め、その式(E)で求めた値(IPic Tbl Time)を式(F)に代入し、Iピクチャの64ビットPTS(IPic 64Pts)を求める。
IPic Tbl Time=IPic Tbl Msec-IPic Tbl Start・・・式(E)
IPic 64Pts=IPic Tbl Time*(90000/1000)+Seq Start Pts・・・式(F)
但し、IPic Tbl Start;Iピクチャテーブルの先頭Iピクチャの表示時刻(ミリ秒)
IPic Tbl Msec;IピクチャテーブルのIピクチャの表示時刻(ミリ秒)
IPic Tbl Time;Iピクチャのファイル先頭からの時刻(ミリ秒)
Seq Start Pts;先頭IピクチャのPTS
IPic 64Pts;Iピクチャのファイル先頭からのPTS(64ビットに拡張した値)
なお、式(F)の90000は、タイムスタンプの周期(Hz)であり、1秒当たりの値が90000となる。式(F)では、ミリ秒からタイムスタンプの値に換算するため(90000/1000)をIPic Tbl Timeに乗算している。
次に、Audio符号検索部201は、上記算出したIピクチャの64ビットPTS(IPic 64Pts)を34ビット目以上と33ビット目以下に分けるため、以下の値を計算する(ステップD6)。
Base 33Pts=(IPic 64Pts & 0x1ffffffff);
Add 64Pts=(IPic 64Pts & 0xfffffffe00000000);
次に、Audio符号検索部201は、Base 33Pts+α<Audio 33Ptsの条件を満たすか否かを判定する(ステップD7)。なお、αは、以下の式で算出する。
α=MAX_STAMP_33BIT - MAX_DIFF
但し、MAX_STAMP_33BIT=0x200000000・・・33ビットの上限値+1
MAX_DIFF=(90000 * 60 * 60 * 1)・・・Video符号とAudio符号とのPTS差の許容最大値(1以上の値)
Audio符号検索部201は、Base 33Pts+α<Audio 33Ptsの条件を満たす場合は(ステップD7/Yes)、33ビットのリセット前と見なして、以下の式を用いて、桁溢れ分を減らす(ステップD10)。
Audio 64Pts=Audio 33Pts + (Add 64Pts - MAX_STAMP_33BIT)
33ビットのリセット前と見なして、桁溢れ分を減らす場合の例を図21に示す。33ビットのリセット前と見なした場合は、図21に示すように、Audio符号の33ビットPTS(Audio 33Pts)にIピクチャテーブルによる拡張後の64ビットPTS(Add 64Pts)を加算する。そして、その値から33ビットのリセットによる桁溢れ分(MAX_STAMP_33BIT)を減算する。これにより、補正後の64ビットPTS(Audio 64Pts)を得ることができる。
次に、Audio符号検索部201は、上記取得した64ビット化したAudioのPTS(Audio 64Pts)と、編集対象の指定ピクチャのVideoの64ビットPTS(Video 64Pts)と、の差分を算出する(ステップD12)。
次に、Audio符号検索部201は、上記算出した差分の絶対値が1AAU(Audio Access Unit)のタイムスタンプ未満か否かを判定する(ステップD13)。AAUは、1つ1つ独立でオーディオデータに復号できる最小単位であり、常に一定のサンプル数Snのデータで構成されている。なお、1AAUのタイムスタンプは、公知の算出式で得られるため、具体的な算出式は割愛する。
Audio符号検索部201は、上記算出した差分の絶対値が1AAUのタイムスタンプ未満である場合は(ステップD13/Yes)、64ビット化したAudio(Audio 64Pts)のファイル位置を検索結果としてAudio符号抜取部202に通知する(ステップD14)。
これにより、Audio符号抜取部202は、Audio符号検索部201から受け付けた検索結果(ファイル位置)を基に、多重化符号に含まれるAudio符号を抜き取り、編集対象の指定ピクチャのファイル位置から編集操作(カット編集等)を行うことができる。
なお、ステップD13の判定において、差分の絶対値が1AAUのタイムスタンプ未満でない場合は(ステップD13/No)、Audio符号検索部201は、64ビット化したAudioのPTS(Audio 64Pts)の方が編集対象の指定ピクチャのVideoの64ビットPTS(Video 64Pts)よりも大きいか否かを判定する(ステップD15)。
Audio符号検索部201は、64ビット化したAudioのPTS(Audio 64Pts)の方が編集対象の指定ピクチャのVideoの64ビットPTS(Video 64Pts)よりも大きい場合は(ステップD15/Yes)、MPEGファイル1012を参照し、64ビット化したAudio(Audio 64Pts)のファイル位置より前方のファイル位置から多重化符号を読み取り、Audio符号の33ビットPTS(Audio 33Pts)を取得し(ステップD16)、ステップD7の判定に移行し、その取得したAudio符号の33ビットPTS(Audio 33Pts)がBase 33Pts+α<Audio 33Ptsの条件を満たすか否かを判定する(ステップD7)。
また、ステップD15の判定において、64ビット化したAudioのPTS(Audio 64Pts)の方が編集対象の指定ピクチャのVideoの64ビットPTS(Video 64Pts)よりも大きくない場合は(ステップD15/No)、MPEGファイル1012を参照し、64ビット化したAudio(Audio 64Pts)のファイル位置より後方のファイル位置から多重化符号を読み取り、Audio符号の33ビットPTS(Audio 33Pts)を取得し(ステップD17)、ステップD7の判定に移行し、その取得したAudio符号の33ビットPTS(Audio 33Pts)がBase 33Pts+α<Audio 33Ptsの条件を満たすか否かを判定する(ステップD7)。
Audio符号検索部201は、ステップD7の判定において、Base 33Pts+α<Audio 33Ptsの条件を満たさない場合は(ステップD7/No)、Base 33Pts>Audio 33Pts + αの条件を満たすか否かを判定する(ステップD8)。
Audio符号検索部201は、Base 33Pts>Audio 33Pts + αの条件を満たす場合は(ステップD8/Yes)、33ビットのリセット後と見なして、以下の式を用いて、桁溢れ分を増やす(ステップD11)。
Audio 64Pts = Audio 33Pts + (Add 64Pts + MAX_STAMP_33BIT)
33ビットのリセット後と見なして、桁溢れ分を増やす場合の例を図22に示す。33ビットのリセット後と見なした場合は、図22に示すように、Audio符号の33ビットPTS(Audio 33Pts)にIピクチャテーブルによる拡張後の64ビットPTS(Add 64Pts)を加算する。そして、その値から33ビットのリセットによる桁溢れ分(MAX_STAMP_33BIT)を加算する。これにより、補正後の64ビットPTS(Audio 64Pts)を得ることができる。
そして、Audio符号検索部201は、上記取得した64ビット化したAudioのPTS(Audio 64Pts)と、編集対象の指定ピクチャのVideoの64ビットPTS(Video 64Pts)と、の差分を算出し(ステップD12)、ステップD13の判定に移行する。
また、ステップD8の判定において、Base 33Pts>Audio 33Pts + αの条件を満たさない場合は(ステップD8/No)、以下の式を用いて、34ビット目以上の値を加算する(ステップD9)。
Audio 64Pts = Audio 33Pts + Add 64Pts
34ビット目以上の値を加算する場合(補正無しの場合)の例を図23に示す。33ビットのリセット前、リセット後の何れにも該当しない場合は、図23に示すように、Audio符号の33ビットPTS(Audio 33Pts)にIピクチャテーブルによる拡張後の64ビットPTS(Add 64Pts)を加算する。そして、その値に補正を行わない。これにより、64ビットPTS(Audio 64Pts)を得ることができる。
そして、Audio符号検索部201は、上記取得した64ビット化したAudioのPTS(Audio 64Pts)と、編集対象の指定ピクチャのVideoの64ビットPTS(Video 64Pts)と、の差分を算出し(ステップD12)、ステップD13の判定に移行する。
なお、上記処理では、Audio符号検索部201は、図17に示すIピクチャテーブル1011を参照し、Audio 33Ptsを取得した際に使用したファイル位置に近いIピクチャの表示時刻(IPic Tbl Msec)をIピクチャテーブル1011から取得し、その取得したIピクチャの表示時刻(IPic Tbl Msec)を基に、Iピクチャの64ビットPTS(IPic 64Pts)を算出することにした。
しかし、Iピクチャテーブル1011で管理するIピクチャの表示時刻を64ビットPTSに拡張した値(IPic 64Pts)で管理することも可能である。これにより、Video符号検索部203は、Iピクチャの64ビットPTS(IPic 64Pts)を算出する処理を行うことなく、Iピクチャの64ビットPTS(IPic 64Pts)をIピクチャテーブル1011から取得することができる。
<本実施形態の再生装置100の作用・効果>
このように、本実施形態の再生装置100の編集部200は、MPEG規格の時刻情報の上限(約26.5時間)を越えるピクチャの編集操作を受け付けた場合に(ステップC1/Yes)、Video符号検索部203は、Iピクチャテーブル1011を参照し、編集操作時に受け付けたピクチャの時刻情報に近いIピクチャの符号の時刻情報を特定し、該特定したIピクチャの符号の時刻情報に対応する位置情報を特定する(ステップC2)。そして、Video符号検索部203は、MPEGファイル1012を参照し、上記特定した位置情報の符号を読み出し、該読み出した符号を解析し、各ピクチャの時刻情報を取得する(ステップC3,C4)。そして、Video符号検索部203は、その取得した各ピクチャの時刻情報を基に、編集操作時に受け付けたピクチャの時刻情報に近いピクチャの位置情報を特定する(ステップC5〜C7)。そして、Video符号抜取部204は、Video符号検索部203で特定したピクチャの位置情報を基に、MPEGファイル1012に格納された符号の編集操作を行う。これにより、編集部200は、Video符号の編集操作を行うことができる。
また、本実施形態の編集部200は、MPEG規格の時刻情報の上限(約26.5時間)を越えるピクチャの編集操作を受け付けた場合に(ステップD1/Yes)、Audio符号検索部201は、MPEGファイル1012を参照し、Video符号検索部203で特定したピクチャの位置情報に近いAudio符号の時刻情報を取得する(ステップD3)。そして、その取得したAudio符号の時刻情報を、MPEG規格の時刻情報の上限を拡張した値に変換する(ステップD9orD10orD11)。次に、Audio符号検索部201は、上記変換したAudio符号の時刻情報に相当するAudio符号の位置情報をAudio符号抜取部202に通知する(ステップD14)。そして、Audio符号抜取部202は、Audio符号検索部201から通知されたAudio符号の位置情報を基に、MPEGファイル1012に格納されたAudio符号の編集操作を行う。これにより、編集部200は、Video符号だけでなく、Audio符号の編集操作も行うことができる。また、編集部200は、GOP単位の編集操作だけではなく、フレーム単位の編集操作も行うことができる。
なお、上述する実施形態は、本発明の好適な実施形態であり、上記実施形態のみに本発明の範囲を限定するものではなく、本発明の要旨を逸脱しない範囲において種々の変更を施した形態での実施が可能である。
例えば、上述した本実施形態の再生装置100は、図6に示すように、プッシュソース102と、Demux103と、を有し、MPEGファイル1012から多重化符号を読み出す機能(プッシュソース102での機能)と、その多重化符号を分離する機能(Demux103)と、を区分して構成した。しかし、プッシュソース102の機能と、Demux103の機能と、を1つの機能として統合するように構築することも可能である。
また、上述した本実施形態における再生装置100を構成する各装置における制御動作は、ハードウェア、または、ソフトウェア、あるいは、両者の複合構成を用いて実行することも可能である。
なお、ソフトウェアを用いて処理を実行する場合には、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれているコンピュータ内のメモリにインストールして実行させることが可能である。あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。
例えば、プログラムは、記録媒体としてのハードディスクやROM(Read Only Memory)に予め記録しておくことが可能である。あるいは、プログラムは、リムーバブル記録媒体に、一時的、あるいは、永続的に格納(記録)しておくことが可能である。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウエアとして提供することが可能である。なお、リムーバブル記録媒体としては、フロッピー(登録商標)ディスク、CD-ROM(Compact Disc Read Only Memory)、MO(Magneto optical)ディスク、DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリなどが挙げられる。
なお、プログラムは、上述したようなリムーバブル記録媒体からコンピュータにインストールすることになる。また、ダウンロードサイトから、コンピュータに無線転送することになる。また、ネットワークを介して、コンピュータに有線で転送することになる。
また、本実施形態における再生装置100は、上記実施形態で説明した処理動作に従って時系列的に実行されるのみならず、処理を実行する装置の処理能力、あるいは、必要に応じて並列的にあるいは個別に実行するように構築することも可能である。
本発明は、MPEG規格の符号を再生する技術に適用可能である。
101 メモリ
1011、1013 Iピクチャテーブル(第1の管理手段)
1014、1015 ピクチャテーブル(第1の管理手段)
1012 MPEGファイル(格納手段)
102 プッシュソース(読出手段)
103 Demux(解析手段)
104 Decode(出力手段)
1041 テーブル(第2の管理手段)
105 Video Render
106 Audio Render
107 ディスプレイ
108 スピーカ
200 編集部(編集手段)
201 Audio符号検索部
202 Audio符号抜取部
203 Video符号検索部
204 Video符号抜取部
205 Video符号再圧縮部
206 再多重化部

Claims (15)

  1. MPEG(Moving Picture Expert Group)規格の符号を格納する格納手段と、
    前記符号に含まれるピクチャの時刻を示す時刻情報と該ピクチャの前記格納手段における位置を示す位置情報とを対応付けて管理する第1の管理手段と、
    前記符号の所定時刻からの再生要求を受け付けた場合に、前記第1の管理手段を参照し、前記所定時刻に相当するピクチャの時刻情報に対応する位置情報を基に、前記格納手段から符号を読み出す読出手段と、
    前記読出手段が読み出した符号を解析する解析手段と、
    前記解析手段から受け付けた符号を復号する出力手段と、を有し、
    前記読出手段は、
    前記格納手段から読み出した符号と共に、MPEG規格の時刻情報の上限を拡張した値である前記ピクチャの拡張PTS(Presentation Time Stamp)を前記解析手段に出力し、
    前記解析手段は、
    解析した符号と共に、前記ピクチャの拡張PTSを前記出力手段に出力し、
    前記出力手段は、
    前記解析手段から受け付けた符号と、前記ピクチャの拡張PTSと、を対応付けて管理する第2の管理手段を有することを特徴とする再生装置。
  2. 前記第1の管理手段は、
    Iピクチャの時刻情報と位置情報とを対応付けて管理し、
    前記読出手段は、
    前記符号の所定時刻からの再生要求を受け付けた場合に、前記第1の管理手段を参照し、前記所定時刻に相当するIピクチャの時刻情報を特定し、該特定したIピクチャの時刻情報に対応する位置情報を基に、前記格納手段からIピクチャの符号を読み出し、該読み出したIピクチャの符号と共に、前記Iピクチャの拡張PTSを前記解析手段に出力する手段と、
    前記Iピクチャの符号を読み出した後に、前記格納手段から読み出した各ピクチャの符号と共に、前記Iピクチャの拡張PTSを前記解析手段に出力する手段と、
    を有し、
    前記解析手段は、
    前記読出手段から受け付けた各ピクチャの符号を解析し、各ピクチャのPTSを取得し、該取得した各ピクチャのPTSと、前記読出手段から受け付けた前記Iピクチャの拡張PTSと、を基に、各ピクチャの拡張PTSを算出し、該算出した各ピクチャの拡張PTSと、前記各ピクチャの符号と、を前記出力手段に出力し、
    前記出力手段は、
    前記解析手段から受け付けた各ピクチャの符号と、前記各ピクチャの拡張PTSと、を対応付けて管理することを特徴とする請求項記載の再生装置。
  3. 前記解析手段は、
    IピクチャのPTSと、各ピクチャのPTSと、の差分を算出し、該算出した差分を、前記読出手段から受け付けた前記Iピクチャの拡張PTSに加算し、前記各ピクチャの拡張PTSを算出することを特徴とする請求項記載の再生装置。
  4. 前記読出手段は、
    1GOP(Group of Picture)分の各ピクチャの符号と前記Iピクチャの拡張PTSとを前記解析手段に出力した場合に、前記第1の管理手段を参照し、前記Iピクチャの時刻情報の次のIピクチャの時刻情報を取得し、前記格納手段から読み出した各ピクチャの符号と共に、前記次のIピクチャの拡張PTSを前記解析手段に出力することを特徴とする請求項記載の再生装置。
  5. 前記第1の管理手段は、
    前記ピクチャの時刻情報を、前記Iピクチャの拡張PTSで管理し、
    前記読出手段は、
    前記符号の所定時刻からの再生要求を受け付けた場合に、前記第1の管理手段を参照し、前記符号の所定時刻に相当する前記Iピクチャの拡張PTSを特定し、該特定した前記Iピクチャの拡張PTSに対応する位置情報を基に、前記格納手段からIピクチャの符号を読み出し、該読み出したIピクチャの符号と共に、前記Iピクチャの拡張PTSを前記解析手段に出力する手段と、
    前記Iピクチャの符号を読み出した後に、前記格納手段から読み出した各ピクチャの符号と共に、前記Iピクチャの拡張PTSを前記解析手段に出力する手段と、
    を有し、
    前記解析手段は、
    前記読出手段から受け付けた各ピクチャの符号を解析し、各ピクチャのPTSを取得し、該取得した各ピクチャのPTSと、前記読出手段から受け付けた前記Iピクチャの拡張PTSと、を基に、各ピクチャの拡張PTSを算出し、該算出した各ピクチャの拡張PTSと、前記各ピクチャの符号と、を前記出力手段に出力し、
    前記出力手段は、
    前記解析手段から受け付けた各ピクチャの符号と、前記各ピクチャの拡張PTSと、を対応付けて管理することを特徴とする請求項記載の再生装置。
  6. 前記第1の管理手段は、
    各ピクチャの時刻情報と位置情報とを対応付けて管理し、
    前記読出手段は、
    前記符号の所定時刻からの再生要求を受け付けた場合に、前記第1の管理手段を参照し、前記符号の所定時刻に相当するピクチャの時刻情報を特定し、該特定したピクチャの時刻情報に対応する位置情報を基に、前記格納手段からピクチャの符号を読み出し、該読み出したピクチャの符号と共に、前記ピクチャの拡張PTSを前記解析手段に出力する手段と、
    前記ピクチャの符号を読み出した後に、前記格納手段から読み出した各ピクチャの符号と共に、前記各ピクチャの拡張PTSを前記解析手段に出力する手段と、
    を有し、
    前記解析手段は、
    前記読出手段から受け付けた各ピクチャの符号と、前記各ピクチャの拡張PTSと、を前記出力手段に出力し、
    前記出力手段は、
    前記解析手段から受け付けた各ピクチャの符号と、前記各ピクチャの拡張PTSと、を対応付けて管理することを特徴とする請求項記載の再生装置。
  7. 前記第1の管理手段は、
    前記ピクチャの時刻情報を、前記各ピクチャの拡張PTSで管理し、
    前記読出手段は、
    前記符号の所定時刻からの再生要求を受け付けた場合に、前記第1の管理手段を参照し、前記符号の所定時刻に相当するピクチャの拡張PTSを特定し、該特定したピクチャの拡張PTSに対応する位置情報を基に、前記格納手段からピクチャの符号を読み出し、該読み出したピクチャの符号と共に、前記ピクチャの拡張PTSを前記解析手段に出力する手段と、
    前記ピクチャの符号を読み出した後に、前記格納手段から読み出した各ピクチャの符号と共に、前記各ピクチャの拡張PTSを前記解析手段に出力する手段と、
    を有し、
    前記解析手段は、
    前記読出手段から受け付けた各ピクチャの符号と、前記各ピクチャの拡張PTSと、を前記出力手段に出力し、
    前記出力手段は、
    前記解析手段から受け付けた各ピクチャの符号と、前記各ピクチャの拡張PTSと、を対応付けて管理することを特徴とする請求項記載の再生装置。
  8. MPEG(Moving Picture Expert Group)規格の符号を格納する格納手段と、
    前記符号に含まれるピクチャの時刻を示す時刻情報と該ピクチャの前記格納手段における位置を示す位置情報とを対応付けて管理する第1の管理手段と、
    前記第1の管理手段を参照し、前記格納手段に格納された前記符号の編集操作を行う編集手段と、を有し、
    前記編集手段は、
    MPEG規格の時刻情報の上限を越えるピクチャの編集操作を受け付けた場合に、前記第1の管理手段を参照し、MPEG規格の時刻情報の上限を拡張した値であるIピクチャの拡張PTS(Presentation Time Stamp)を算出し、該算出したIピクチャの拡張PTSを基に、編集操作時に受け付けたピクチャの拡張PTSに近いIピクチャの拡張PTSを特定し、該特定したIピクチャの拡張PTSに対応するIピクチャの位置情報を特定する第1の特定手段と、
    前記格納手段を参照し、前記特定したIピクチャの位置情報の符号を読み出し、該読み出した符号を解析し、各ピクチャのPTSを取得する第1の取得手段と、
    前記取得した各ピクチャのPTSと、前記Iピクチャの拡張PTSと、を基に、各ピクチャの拡張PTSを算出し、該算出した各ピクチャの拡張PTSを基に、編集操作時に受け付けた前記ピクチャの拡張PTSに近いピクチャの位置情報を特定する第2の特定手段と、
    前記特定したピクチャの位置情報を基に、前記格納手段に格納された前記符号の編集操作を行う第1の編集操作手段と、
    を有することを特徴とする再生装置。
  9. 前記第1の管理手段で管理する前記ピクチャの時刻情報と位置情報とはVideo符号のピクチャの時刻情報と位置情報であり、
    前記編集手段は、
    前記第1の管理手段を参照し、前記格納手段に格納されたVideo符号の編集操作を行うことを特徴とする請求項記載の再生装置。
  10. Audio符号の編集操作を行う場合は、
    前記編集手段は、
    前記格納手段を参照し、前記特定したピクチャの位置情報に近いAudio符号のPTSを取得する第2の取得手段と、
    前記取得したAudio符号のPTSを、MPEG規格の時刻情報の上限を拡張した値である拡張PTSに変換する変換手段と、
    前記変換したAudio符号の拡張PTSに相当するAudio符号の位置情報を基に、前記格納手段に格納されたAudio符号の編集操作を行う第2の編集操作手段と、
    を有することを特徴とする請求項記載の再生装置。
  11. 前記変換手段は、
    前記第1の管理手段を参照し、前記特定したピクチャの位置情報に近いVideo符号の位置情報を特定し、該特定したVideo符号の位置情報に対応するVideo符号のPTSを特定する手段と、
    前記特定したVideo符号のPTSを、MPEG規格の時刻情報の上限を拡張した値である拡張PTSに変換する手段と、
    前記変換したVideo符号の拡張PTSを、前記MPEG規格の時刻情報の上限より大きい値と、前記MPEG規格の時刻情報の上限以下の値と、に分ける手段と、
    前記MPEG規格の時刻情報の上限より大きい値と、前記MPEG規格の時刻情報の上限以下の値と、に応じて、前記取得したAudio符号のPTSを、前記拡張PTSに変換する手段と、
    を有することを特徴とする請求項10記載の再生装置。
  12. 再生装置で行う制御方法であって、
    再生要求を受け付けた場合に、MPEG(Moving Picture Expert Group)規格の符号に含まれるピクチャの時刻を示す時刻情報と該ピクチャの格納手段における位置を示す位置情報とを対応付けて管理する第1の管理手段を参照し、再生要求時に受け付けた時刻情報に相当するピクチャの時刻情報に対応する位置情報を基に、MPEG(Moving Picture Expert Group)規格の符号を格納する格納手段から符号を読み出す読出工程と、
    前記読出工程で読み出した符号を解析する解析工程と、
    前記解析した符号を復号する出力工程と、を有し、
    前記読出工程は、
    前記格納手段から読み出した符号と共に、MPEG規格の時刻情報の上限を拡張した値である前記ピクチャの拡張PTS(Presentation Time Stamp)を出力する工程を有し、
    前記解析工程は、
    解析した符号と共に、前記ピクチャの拡張PTSを出力する工程を有し、
    前記出力工程は、
    前記解析工程から受け付けた符号と、前記ピクチャの拡張PTSと、を対応付けて第2の管理手段で管理する工程を有することを特徴とする制御方法。
  13. 再生装置で行う制御方法であって、
    MPEG(Moving Picture Expert Group)規格の時刻情報の上限を越えるピクチャの編集操作を受け付けた場合に、符号に含まれるピクチャの時刻を示す時刻情報と該ピクチャの格納手段における位置を示す位置情報とを対応付けて管理する第1の管理手段を参照し、MPEG規格の時刻情報の上限を拡張した値であるIピクチャの拡張PTS(Presentation Time Stamp)を算出し、該算出したIピクチャの拡張PTSを基に、編集操作時に受け付けたピクチャの拡張PTSに近いIピクチャの拡張PTSを特定し、該特定したIピクチャの拡張PTSに対応するIピクチャの位置情報を特定する第1の特定工程と、
    MPEG規格の符号を格納する格納手段を参照し、前記特定したIピクチャの位置情報の符号を読み出し、該読み出した符号を解析し、各ピクチャのPTSを取得する第1の取得工程と、
    前記取得した各ピクチャのPTSと、前記Iピクチャの拡張PTSと、を基に、各ピクチャの拡張PTSを算出し、該算出した各ピクチャの拡張PTSを基に、編集操作時に受け付けた前記ピクチャの拡張PTSに近いピクチャの位置情報を特定する第2の特定工程と、
    前記特定したピクチャの位置情報を基に、前記格納手段に格納された前記符号の編集操作を行う第1の編集操作工程と、
    を有することを特徴とする制御方法。
  14. 再生要求を受け付けた場合に、MPEG(Moving Picture Expert Group)規格の符号に含まれるピクチャの時刻を示す時刻情報と該ピクチャの格納手段における位置を示す位置情報とを対応付けて管理する第1の管理手段を参照し、再生要求時に受け付けた時刻情報に相当するピクチャの時刻情報に対応する位置情報を基に、MPEG(Moving Picture Expert Group)規格の符号を格納する格納手段から符号を読み出す読出処理と、
    前記読出処理で読み出した符号を解析する解析処理と、
    前記解析した符号を復号する出力処理と、をコンピュータに実行させ、
    前記読出処理は、
    前記格納手段から読み出した符号と共に、MPEG規格の時刻情報の上限を拡張した値である前記ピクチャの拡張PTS(Presentation Time Stamp)を出力する処理を有し、
    前記解析処理は、
    解析した符号と共に、前記ピクチャの拡張PTSを出力する処理を有し、
    前記出力処理は、
    前記解析処理から受け付けた符号と、前記ピクチャの拡張PTSと、を対応付けて第2の管理手段で管理する処理を有することを特徴とするプログラム。
  15. MPEG(Moving Picture Expert Group)規格の時刻情報の上限を越えるピクチャの編集操作を受け付けた場合に、符号に含まれるピクチャの時刻を示す時刻情報と該ピクチャの格納手段における位置を示す位置情報とを対応付けて管理する第1の管理手段を参照し、MPEG規格の時刻情報の上限を拡張した値であるIピクチャの拡張PTS(Presentation Time Stamp)を算出し、該算出したIピクチャの拡張PTSを基に、編集操作時に受け付けたピクチャの拡張PTSに近いIピクチャの拡張PTSを特定し、該特定したIピクチャの拡張PTSに対応するIピクチャの位置情報を特定する第1の特定処理と、
    MPEG規格の符号を格納する格納手段を参照し、前記特定したIピクチャの位置情報の符号を読み出し、該読み出した符号を解析し、各ピクチャのPTSを取得する第1の取得処理と、
    前記取得した各ピクチャのPTSと、前記Iピクチャの拡張PTSと、を基に、各ピクチャの拡張PTSを算出し、該算出した各ピクチャの拡張PTSを基に、編集操作時に受け付けた前記ピクチャの拡張PTSに近いピクチャの位置情報を特定する第2の特定処理と、
    前記特定したピクチャの位置情報を基に、前記格納手段に格納された前記符号の編集操作を行う第1の編集操作処理と、を、コンピュータに実行させることを特徴とするプログラム。
JP2010018689A 2009-02-13 2010-01-29 再生装置、制御方法及びプログラム Active JP5710130B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010018689A JP5710130B2 (ja) 2009-02-13 2010-01-29 再生装置、制御方法及びプログラム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2009031810 2009-02-13
JP2009031810 2009-02-13
JP2010018689A JP5710130B2 (ja) 2009-02-13 2010-01-29 再生装置、制御方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2010213261A JP2010213261A (ja) 2010-09-24
JP5710130B2 true JP5710130B2 (ja) 2015-04-30

Family

ID=42972918

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010018689A Active JP5710130B2 (ja) 2009-02-13 2010-01-29 再生装置、制御方法及びプログラム

Country Status (1)

Country Link
JP (1) JP5710130B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015102394A1 (en) * 2014-01-02 2015-07-09 Lg Electronics Inc. Broadcast transmission device and operating method thereof, and broadcast reception device and operating method thereof

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03255748A (ja) * 1990-03-06 1991-11-14 Oki Electric Ind Co Ltd パケット順序整列方式
CA2204828C (en) * 1996-05-10 2004-11-23 Ray Nuber Error detection and recovery for high rate isochronous data in mpeg-2 data streams
JP2008227795A (ja) * 2007-03-12 2008-09-25 Matsushita Electric Ind Co Ltd ストリーム受信装置

Also Published As

Publication number Publication date
JP2010213261A (ja) 2010-09-24

Similar Documents

Publication Publication Date Title
US7978955B2 (en) Recording device, recording method, reproducing device, reproducing method, program, and recording medium
JP5142453B2 (ja) 再生装置
EP2012322B1 (en) Recording/reproducing apparatus, recording apparatus, reproducing apparatus, recording method, reproducing method and computer program
JP2007312246A (ja) 記録装置、記録方法および記録プログラム、記録再生装置、記録再生方法および記録再生プログラム、ならびに、編集装置、編集方法および編集プログラム
JP2008035394A (ja) 記録装置、記録方法、再生装置、再生方法、記録再生装置、記録再生方法、撮像記録装置及び撮像記録方法
US8041179B2 (en) Methods and apparatuses for reproducing and recording still picture and audio data and recording medium having data structure for managing reproduction of still picture and audio data
US20080094520A1 (en) Simplified Switch Over Between Content Related Media Streams
JP2009016910A (ja) 映像再生装置及び映像再生方法
JP5710130B2 (ja) 再生装置、制御方法及びプログラム
US8059167B2 (en) Shooting apparatus and shooting method, and program
JP5683871B2 (ja) 再生装置、制御方法及びプログラム
JP2010226278A (ja) 記録装置、方法、プログラム、及び媒体
JP2008134825A (ja) 情報処理装置および情報処理方法、並びにプログラム
TW200414154A (en) Recording medium having data structure for managing reproduction of multiple graphics streams recorded thereon and recording and reproducing methods and apparatuses
JP2005020351A (ja) サムネイル画像作成機能付きビデオ再生装置及びサムネイル画像記録媒体
JP4725675B2 (ja) 記録再生装置、記録装置、再生装置、記録方法、再生方法およびコンピュータプログラム
JP5687867B2 (ja) 情報処理装置、動画ファイル編集方法及びプログラム
JP2006079712A (ja) 記録媒体、再生装置及び記録装置
JP2009124735A (ja) 記録装置、記録方法、再生装置、再生方法、記録再生装置、記録再生方法、撮像記録装置及び撮像記録方法
JP5863244B2 (ja) 編集装置、制御方法及びプログラム
JP5229373B2 (ja) 再生装置
JP4941528B2 (ja) 再生装置
JP5463100B2 (ja) 編集装置、制御方法及びプログラム
JP2006013954A (ja) 動画像処理装置、動画像処理方法、及びプログラム
JP2007201815A (ja) 表示装置、再生装置、方法、及びプログラム

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20110830

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141021

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150304

R150 Certificate of patent or registration of utility model

Ref document number: 5710130

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250