JP2010213261A - Playback apparatus, control method, and program - Google Patents

Playback apparatus, control method, and program Download PDF

Info

Publication number
JP2010213261A
JP2010213261A JP2010018689A JP2010018689A JP2010213261A JP 2010213261 A JP2010213261 A JP 2010213261A JP 2010018689 A JP2010018689 A JP 2010018689A JP 2010018689 A JP2010018689 A JP 2010018689A JP 2010213261 A JP2010213261 A JP 2010213261A
Authority
JP
Japan
Prior art keywords
picture
code
time information
time
received
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010018689A
Other languages
Japanese (ja)
Other versions
JP5710130B2 (en
Inventor
Hiroaki Ueda
裕明 上田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Embedded Products Ltd
Original Assignee
NEC Embedded Products Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Embedded Products Ltd filed Critical NEC Embedded Products Ltd
Priority to JP2010018689A priority Critical patent/JP5710130B2/en
Publication of JP2010213261A publication Critical patent/JP2010213261A/en
Application granted granted Critical
Publication of JP5710130B2 publication Critical patent/JP5710130B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a playback apparatus capable of obtaining right time information of an MPEG-standard code even when the code exceeds the upper limit (about 26.5 hours) of MPEG-standard time information. <P>SOLUTION: Together with a code read out of an MPEG file (1012) by referring to a picture table (1011), a push source (102) outputs time information (64-bit PTS) of the code to a Decode (104) side and the Decode (104) manages the code received from the push source (102) side and the time information (64-bit PTS) of the code in association with each other and manages the time information of the code using a value (64-bit PTS) obtained by expanding the upper limit (about 26.5 hours) of MPEG-standard time information. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、MPEG(Moving Picture Expert Group)規格の符号を再生する再生装置、制御方法及びプログラムに関する。   The present invention relates to a playback apparatus, a control method, and a program for playing back MPEG (Moving Picture Expert Group) standard codes.

MPEG(Moving Picture Expert Group)規格の符号を解析すると、タイムスタンプ(33ビットPTS;Presentation Time Stamp)を取得することができる。従来は、このタイムスタンプ(33ビットPTS)を用いて符号の編集操作を行っていた。   By analyzing the MPEG (Moving Picture Expert Group) standard code, a time stamp (33-bit PTS; Presentation Time Stamp) can be obtained. In the past, code editing operations were performed using this time stamp (33-bit PTS).

MPEG規格の符号の上限となる時間は、約26.5時間である。詳細な値は、以下の算出式で得られる。
(0x1ffffffff/90000)/(60×60)≒26.51214
但し、0x1ffffffff;33ビットの最大値
90000;タイムスタンプの周期(Hz)
60×60;秒を時間に換算するための値
The upper limit of the MPEG standard code is about 26.5 hours. Detailed values are obtained by the following calculation formula.
(0x1ffffffff / 90000) / (60 × 60) ≒ 26.51214
However, 0x1ffffffff; maximum value of 33 bits
90000: Time stamp period (Hz)
60 x 60: Value for converting seconds to hours

このため、MPEG規格では、図1(a)に示すように、MPEG規格の符号が約26.5時間以下ならば、MPEG規格の符号を解析して得られるタイムスタンプ(33ビットPTS)から正しい時刻情報を取得することができる。しかし、図1(b)に示すように、約26.5時間を越えると、タイムスタンプ(33ビットPTS)が桁あふれするため、タイムスタンプ(33ビットPTS)の値が約26.5時間を越えたタイミングでタイムスタンプ(33ビットPTS)の値を0にリセットしている。   Therefore, in the MPEG standard, as shown in FIG. 1A, if the MPEG standard code is approximately 26.5 hours or less, the correct time information is obtained from the time stamp (33-bit PTS) obtained by analyzing the MPEG standard code. Can be obtained. However, as shown in Fig. 1 (b), if the time stamp (33-bit PTS) exceeds about 26.5 hours, the time stamp (33-bit PTS) overflows. The time stamp (33-bit PTS) value is reset to 0 when the timing is exceeded.

このため、図1(c)に示すように、MPEG規格の符号が約26.5時間を越えてしまうと、その符号を解析して得られるタイムスタンプ(33ビットPTS)の値からは正しい時刻情報を取得することができない。その結果、MPEG規格の符号が約26.5時間を越えてしまうと、タイムスタンプ(33ビットPTS)を用いて符号の編集操作を行うことができない。編集操作としては、カット編集や、カット編集のプレビュー等が挙げられる。   Therefore, as shown in FIG. 1 (c), if the MPEG standard code exceeds about 26.5 hours, the correct time information is obtained from the time stamp (33-bit PTS) value obtained by analyzing the code. I can't get it. As a result, if the MPEG standard code exceeds about 26.5 hours, the code cannot be edited using a time stamp (33-bit PTS). Examples of the editing operation include cut editing and cut editing preview.

このようなことから、MPEG規格の符号が約26.5時間を越えてしまっても、その符号の正しい時刻情報が得られるような仕組みを構築し、MPEG規格のタイムスタンプ(33ビットPTS)の上限(約26.5時間)を越えた符号の編集操作ができるようにしたいのが現状である。   For this reason, even if the MPEG standard code exceeds about 26.5 hours, a mechanism is established to obtain the correct time information of the code, and the upper limit of the MPEG standard time stamp (33-bit PTS) ( At present, we want to be able to perform code editing operations exceeding 26.5 hours).

なお、本発明より先に出願された技術文献として、再生位置を示す特別な情報を映像ストリームに挿入することなく、映像コンテンツの再生位置の取得、表示を実現する技術について開示された文献がある(例えば、特許文献1参照)。   In addition, as a technical document filed prior to the present invention, there is a document that discloses a technique for realizing acquisition and display of a playback position of video content without inserting special information indicating the playback position into the video stream. (For example, refer to Patent Document 1).

上記特許文献1では、時刻情報と映像信号の再生位置との対応を示す再生位置テーブルを取得する。次に、映像信号を含むストリームから時刻情報を取得し、該取得した時刻情報を基に、再生位置テーブルから当該ストリームの再生位置を求めることにしている。   In Patent Document 1, a reproduction position table indicating the correspondence between time information and a reproduction position of a video signal is acquired. Next, time information is acquired from the stream including the video signal, and the reproduction position of the stream is obtained from the reproduction position table based on the acquired time information.

特開2008−227795号公報JP 2008-227795 A

上記特許文献1では、時刻情報と再生位置との対応を示す再生位置テーブルを用いて、映像コンテンツの再生位置の取得、表示を実現している。しかし、上記特許文献1には、MPEG規格の符号がMPEG規格の時刻情報の上限(約26.5時間)を越えてしまっても、その符号の正しい時刻情報が得られるような仕組みを構築する点については何ら記載もその必要性についても示唆されていない。   In Patent Document 1, acquisition and display of the playback position of video content is realized using a playback position table that indicates the correspondence between time information and playback position. However, in Patent Document 1 above, there is a point of constructing a mechanism for obtaining correct time information of the MPEG standard code even if the MPEG standard time information exceeds the upper limit (about 26.5 hours). There is no mention or suggestion of its necessity.

本発明は、上記事情に鑑みてなされたものであり、MPEG規格の符号がMPEG規格の時刻情報の上限(約26.5時間)を越えてしまっても、その符号の正しい時刻情報を得ることが可能な再生装置、制御方法及びプログラムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and even when the code of the MPEG standard exceeds the upper limit (about 26.5 hours) of the time information of the MPEG standard, correct time information of the code can be obtained. An object of the present invention is to provide a playback device, a control method, and a program.

かかる目的を達成するために、本発明は、以下の特徴を有することとする。   In order to achieve this object, the present invention has the following features.

<再生装置>
本発明にかかる再生装置は、
MPEG(Moving Picture Expert Group)規格の符号を格納する格納手段から読み出した前記符号と、MPEG規格の時刻情報の上限を越える場合でも前記符号の位置を一意に示す時刻情報と、を対応付けて管理することを特徴とする。
<Reproducing device>
The playback apparatus according to the present invention is
The code read from the storage means for storing the MPEG (Moving Picture Expert Group) standard code and the time information uniquely indicating the position of the code even when the upper limit of the MPEG standard time information is exceeded and managed It is characterized by doing.

本発明にかかる再生装置は、
MPEG(Moving Picture Expert Group)規格の符号を格納する格納手段と、
前記符号の時刻情報と位置情報とを対応付けて管理する第1の管理手段と、
再生要求を受け付けた場合に、前記第1の管理手段を参照し、再生要求時に受け付けた時刻情報に対応する位置情報を基に、前記格納手段から符号を読み出す読出手段と、
前記読出手段が読み出した符号を再生する出力手段と、を有し、
前記読出手段は、
前記格納手段から読み出した符号と共に、前記符号の時刻情報を前記出力手段に出力し、
前記出力手段は、
前記読出手段から受け付けた符号と、当該符号の時刻情報と、を対応付けて管理する第2の管理手段を有し、
前記第2の管理手段は、前記符号の時刻情報を、MPEG規格の時刻情報の上限を拡張した値で管理することを特徴とする。
The playback apparatus according to the present invention is
Storage means for storing MPEG (Moving Picture Expert Group) standard codes;
First management means for managing time information and position information of the code in association with each other;
A reading unit that reads the code from the storage unit based on the position information corresponding to the time information received at the time of the reproduction request with reference to the first management unit when the reproduction request is received;
Output means for reproducing the code read by the reading means,
The reading means includes
Along with the code read from the storage means, the time information of the code is output to the output means,
The output means includes
Second management means for managing the code received from the reading means and the time information of the code in association with each other;
The second management means manages the time information of the code with a value obtained by extending an upper limit of time information of the MPEG standard.

本発明にかかる再生装置は、
MPEG(Moving Picture Expert Group)規格の符号を格納する格納手段と、
前記符号の時刻情報と位置情報とを対応付けて管理する第1の管理手段と、
前記第1の管理手段を参照し、前記格納手段に格納された前記符号の編集操作を行う編集手段と、を有し、
前記編集手段は、
MPEG規格の時刻情報の上限を越えるピクチャの編集操作を受け付けた場合に、前記第1の管理手段を参照し、編集操作時に受け付けたピクチャの時刻情報に近いIピクチャの符号の時刻情報を特定し、該特定したIピクチャの符号の時刻情報に対応する位置情報を特定する第1の特定手段と、
前記格納手段を参照し、前記特定した位置情報の符号を読み出し、該読み出した符号を解析し、各ピクチャの時刻情報を取得する第1の取得手段と、
前記取得した各ピクチャの時刻情報を基に、編集操作時に受け付けた前記ピクチャの時刻情報に近いピクチャの位置情報を特定する第2の特定手段と、
前記特定したピクチャの位置情報を基に、前記格納手段に格納された前記符号の編集操作を行う第1の編集操作手段と、
を有することを特徴とする。
The playback apparatus according to the present invention is
Storage means for storing MPEG (Moving Picture Expert Group) standard codes;
First management means for managing time information and position information of the code in association with each other;
Editing means for editing the code stored in the storage means with reference to the first management means,
The editing means includes
When a picture editing operation exceeding the upper limit of the time information of the MPEG standard is accepted, the time information of the code of the I picture that is close to the time information of the picture accepted at the time of the editing operation is identified with reference to the first management means. First specifying means for specifying position information corresponding to time information of the code of the specified I picture;
A first acquisition unit that reads the code of the specified position information with reference to the storage unit, analyzes the read code, and acquires time information of each picture;
Second specifying means for specifying position information of a picture close to the time information of the picture received at the time of editing operation based on the acquired time information of each picture;
First editing operation means for performing an editing operation of the code stored in the storage means based on the position information of the specified picture;
It is characterized by having.

<制御方法>
本発明にかかる制御方法は、
MPEG(Moving Picture Expert Group)規格の符号を格納する格納手段と、前記符号の時刻情報と位置情報とを対応付けて管理する第1の管理手段と、出力手段と、を有して構成する再生装置で行う制御方法であって、
再生要求を受け付けた場合に、前記第1の管理手段を参照し、再生要求時に受け付けた時刻情報に対応する位置情報を基に、前記格納手段から符号を読み出す読出工程と、
前記読出工程で読み出した符号を前記出力手段で再生する出力工程と、を有し、
前記読出工程は、
前記格納手段から読み出した符号と共に、前記符号の時刻情報を前記出力手段に出力する工程を有し、
前記出力工程は、
前記出力手段が受け付けた符号と、当該符号の時刻情報と、を対応付けて第2の管理手段で管理する工程を有し、
前記第2の管理手段は、前記符号の時刻情報を、MPEG規格の時刻情報の上限を拡張した値で管理することを特徴とする。
<Control method>
The control method according to the present invention includes:
Reproduction comprising: storage means for storing MPEG (Moving Picture Expert Group) standard codes; first management means for managing time information and position information of the codes in association with each other; and output means A control method performed by an apparatus,
A reading step of reading a code from the storage unit based on position information corresponding to the time information received at the time of the reproduction request with reference to the first management unit when the reproduction request is received;
An output step of reproducing the code read in the reading step by the output means,
The reading step includes
A step of outputting the time information of the code to the output means together with the code read from the storage means;
The output step includes
A step of associating and managing the code received by the output means and the time information of the code by the second management means,
The second management means manages the time information of the code with a value obtained by extending an upper limit of time information of the MPEG standard.

本発明にかかる制御方法は、
MPEG(Moving Picture Expert Group)規格の符号を格納する格納手段と、前記符号の時刻情報と位置情報とを対応付けて管理する第1の管理手段と、を有して構成する再生装置で行う制御方法であって、
MPEG規格の時刻情報の上限を越えるピクチャの編集操作を受け付けた場合に、前記第1の管理手段を参照し、編集操作時に受け付けたピクチャの時刻情報に近いIピクチャの符号の時刻情報を特定し、該特定したIピクチャの符号の時刻情報に対応する位置情報を特定する第1の特定工程と、
前記格納手段を参照し、前記特定した位置情報の符号を読み出し、該読み出した符号を解析し、各ピクチャの時刻情報を取得する第1の取得工程と、
前記取得した各ピクチャの時刻情報を基に、編集操作時に受け付けた前記ピクチャの時刻情報に近いピクチャの位置情報を特定する第2の特定工程と、
前記特定したピクチャの位置情報を基に、前記格納手段に格納された前記符号の編集操作を行う第1の編集操作工程と、
を有することを特徴とする。
The control method according to the present invention includes:
Control performed by a playback apparatus configured to include storage means for storing MPEG (Moving Picture Expert Group) standard codes and first management means for managing time information and position information of the codes in association with each other. A method,
When a picture editing operation exceeding the upper limit of the time information of the MPEG standard is accepted, the time information of the code of the I picture that is close to the time information of the picture accepted at the time of the editing operation is identified with reference to the first management means. A first specifying step of specifying position information corresponding to the time information of the code of the specified I picture;
A first acquisition step of referring to the storage means, reading a code of the specified position information, analyzing the read code, and acquiring time information of each picture;
A second specifying step of specifying, based on the acquired time information of each picture, position information of a picture close to the time information of the picture received at the time of an editing operation;
A first editing operation step of performing an editing operation of the code stored in the storage unit based on the position information of the specified picture;
It is characterized by having.

<プログラム>
本発明にかかるプログラムは、
MPEG(Moving Picture Expert Group)規格の符号を格納する格納手段と、前記符号の時刻情報と位置情報とを対応付けて管理する第1の管理手段と、出力手段と、を有して構成する再生装置のコンピュータに実行させるプログラムであって、
再生要求を受け付けた場合に、前記第1の管理手段を参照し、再生要求時に受け付けた時刻情報に対応する位置情報を基に、前記格納手段から符号を読み出す読出処理と、
前記読出処理で読み出した符号を前記出力手段で再生する出力処理と、を前記コンピュータに実行させ、
前記読出処理は、
前記格納手段から読み出した符号と共に、前記符号の時刻情報を前記出力手段に出力する処理を有し、
前記出力処理は、
前記出力手段が受け付けた符号と、当該符号の時刻情報と、を対応付けて第2の管理手段で管理する処理を有し、
前記第2の管理手段は、前記符号の時刻情報を、MPEG規格の時刻情報の上限を拡張した値で管理することを特徴とする。
<Program>
The program according to the present invention is:
Reproduction comprising: storage means for storing MPEG (Moving Picture Expert Group) standard codes; first management means for managing time information and position information of the codes in association with each other; and output means A program to be executed by a computer of a device,
A read process for reading a code from the storage unit based on the position information corresponding to the time information received at the time of the reproduction request with reference to the first management unit when the reproduction request is received;
Causing the computer to execute an output process for reproducing the code read in the read process by the output means;
The reading process includes
A process of outputting time information of the code to the output means together with the code read from the storage means,
The output process is:
A process in which the code received by the output means and the time information of the code are associated with each other and managed by the second management means;
The second management means manages the time information of the code with a value obtained by extending an upper limit of time information of the MPEG standard.

本発明にかかるプログラムは、
MPEG(Moving Picture Expert Group)規格の符号を格納する格納手段と、前記符号の時刻情報と位置情報とを対応付けて管理する第1の管理手段と、を有して構成する再生装置のコンピュータに実行させるプログラムであって、
MPEG規格の時刻情報の上限を越えるピクチャの編集操作を受け付けた場合に、前記第1の管理手段を参照し、編集操作時に受け付けたピクチャの時刻情報に近いIピクチャの符号の時刻情報を特定し、該特定したIピクチャの符号の時刻情報に対応する位置情報を特定する第1の特定処理と、
前記格納手段を参照し、前記特定した位置情報の符号を読み出し、該読み出した符号を解析し、各ピクチャの時刻情報を取得する第1の取得処理と、
前記取得した各ピクチャの時刻情報を基に、編集操作時に受け付けた前記ピクチャの時刻情報に近いピクチャの位置情報を特定する第2の特定処理と、
前記特定したピクチャの位置情報を基に、前記格納手段に格納された前記符号の編集操作を行う第1の編集操作処理と、を、コンピュータに実行させることを特徴とする。
The program according to the present invention is:
In a computer of a playback apparatus configured to have storage means for storing MPEG (Moving Picture Expert Group) standard codes and first management means for managing time information and position information of the codes in association with each other A program to be executed,
When a picture editing operation exceeding the upper limit of the time information of the MPEG standard is accepted, the time information of the code of the I picture that is close to the time information of the picture accepted at the time of the editing operation is identified with reference to the first management means. A first specifying process for specifying position information corresponding to the time information of the code of the specified I picture;
A first acquisition process of referring to the storage means, reading a code of the identified position information, analyzing the read code, and acquiring time information of each picture;
A second specifying process for specifying position information of a picture close to the time information of the picture received at the time of editing operation based on the acquired time information of each picture;
The computer is caused to execute a first editing operation process for performing an editing operation of the code stored in the storage unit based on the position information of the specified picture.

本発明によれば、MPEG規格の符号がMPEG規格の時刻情報の上限(約26.5時間)を越えてしまっても、その符号の正しい時刻情報を得ることができる。   According to the present invention, even if the code of the MPEG standard exceeds the upper limit (about 26.5 hours) of the time information of the MPEG standard, the correct time information of the code can be obtained.

MPEG規格の符号が約26.5時間を越えてしまった場合に発生する問題点を説明するための図である。It is a figure for demonstrating the problem which generate | occur | produces when the code | symbol of MPEG standard exceeds about 26.5 hours. 本発明と関連する再生装置100'の構成例を示す図である。FIG. 3 is a diagram illustrating a configuration example of a playback device 100 ′ related to the present invention. 再生装置100'のプッシュソース102'での処理動作例を示す図である。FIG. 12 is a diagram showing an example of processing operation in the push source 102 ′ of the playback device 100 ′. 再生装置100'のDemux103'での処理動作例を示す図である。FIG. 19 is a diagram illustrating an example of processing operation in the Demux 103 ′ of the playback device 100 ′. 再生装置100'のDecode104'での処理動作例を示す図である。FIG. 25 is a diagram showing an example of processing operation in Decode 104 ′ of the playback device 100 ′. 第1の実施形態の再生装置100の構成例を示す図である。1 is a diagram illustrating a configuration example of a playback device 100 according to a first embodiment. 再生装置100のプッシュソース102での処理動作例を示す図である。6 is a diagram showing an example of processing operation in the push source 102 of the playback device 100. FIG. 再生装置100のDemux103での処理動作例を示す図である。FIG. 12 is a diagram showing an example of processing operation in the Demux 103 of the playback device 100. 再生装置100のDecode104での処理動作例を示す図である。6 is a diagram showing an example of processing operation in Decode 104 of the playback device 100. FIG. 第2の実施形態の再生装置100の構成例を示す図である。It is a figure which shows the structural example of the reproducing | regenerating apparatus 100 of 2nd Embodiment. 再生装置100のプッシュソース102での処理動作例を示す図である。6 is a diagram showing an example of processing operation in the push source 102 of the playback device 100. FIG. 第3の実施形態の再生装置100の構成例を示す図である。It is a figure which shows the structural example of the reproducing | regenerating apparatus 100 of 3rd Embodiment. 再生装置100のプッシュソース102での処理動作例を示す図である。6 is a diagram showing an example of processing operation in the push source 102 of the playback device 100. FIG. 再生装置100のDemux103での処理動作例を示す図である。FIG. 12 is a diagram showing an example of processing operation in the Demux 103 of the playback device 100. 第4の実施形態の再生装置100の構成例を示す図である。It is a figure which shows the structural example of the reproducing | regenerating apparatus 100 of 4th Embodiment. 再生装置100のプッシュソース102での処理動作例を示す図である。6 is a diagram showing an example of processing operation in the push source 102 of the playback device 100. FIG. 編集部200の構成例を示す図である。3 is a diagram illustrating a configuration example of an editing unit 200. FIG. Video符号検索部203での処理動作例を示す図である。6 is a diagram illustrating an example of processing operation in a video code search unit 203. Audio符号検索部201での処理動作例を示す第1の図である。6 is a first diagram illustrating an example of a processing operation in an audio code search unit 201. FIG. Audio符号検索部201での処理動作例を示す第2の図である。6 is a second diagram illustrating an example of a processing operation in the Audio code search unit 201. FIG. 33ビットのリセット前と見なして、桁溢れ分を減らす場合を示す図である。It is a figure which shows the case where it considers before resetting of 33 bits and reduces an overflow part. 33ビットのリセット後と見なして、桁溢れ分を増やす場合を示す図である。It is a figure which shows the case where it considers that it is after 33-bit reset and increases an overflow part. 34ビット目以上の値を加算する場合(補正無しの場合)を示す図である。It is a figure which shows the case where the value beyond the 34th bit is added (in the case of no correction).

<本発明と関連する再生装置100'の構成例>
まず、図2を参照しながら、本発明と関連する再生装置100'の構成例について説明する。
<Configuration Example of Playback Device 100 ′ Related to the Present Invention>
First, referring to FIG. 2, a configuration example of a playback apparatus 100 ′ related to the present invention will be described.

本発明と関連する再生装置100'は、メモリ101'と、プッシュソース102'と、Demux103'と、Decode104'と、Video Render105'と、Audio Render106'と、ディスプレイ107'と、スピーカ108'と、を含んで構成している。   A playback device 100 ′ related to the present invention includes a memory 101 ′, a push source 102 ′, a Demux 103 ′, a Decode 104 ′, a Video Render 105 ′, an Audio Render 106 ′, a display 107 ′, a speaker 108 ′, Is included.

メモリ101'は、各種情報を記憶するものであり、例えば、Iピクチャテーブル1011'や、MPEGファイル1012'等の情報を格納する。   The memory 101 ′ stores various information, and stores information such as an I picture table 1011 ′ and an MPEG file 1012 ′, for example.

Iピクチャテーブル1011'は、Iピクチャの表示時刻と、Iピクチャのファイル位置と、を対応付けて管理するテーブルである。Iピクチャは、Intra-coded picture(フレーム内符号化画像)のことを示す。   The I picture table 1011 ′ is a table that manages the display time of the I picture and the file position of the I picture in association with each other. An I picture indicates an intra-coded picture.

MPEGファイル1012'は、MPEG規格の多重化符号を格納したファイルである。   The MPEG file 1012 ′ is a file that stores a multiplexed code of the MPEG standard.

プッシュソース102'は、動画ファイルを読み込む機能を行うソースフィルタである。プッシュソース102'は、MPEGファイル1012'から多重化符号を読み取り、その読み取った多重化符号をDemux103'に送信する。   The push source 102 ′ is a source filter that performs a function of reading a moving image file. The push source 102 ′ reads the multiplexed code from the MPEG file 1012 ′ and transmits the read multiplexed code to the Demux 103 ′.

Demux103'は、動画ファイルをVideo符号、Audio符号に区分けする機能を行うスプリッタフィルタである。Demux103'は、バッファを含んで構成し、プッシュソース102'から受け付けた多重化符号をバッファに保存する。また、バッファに保存した多重化符号を解析し、1ピクチャ分の33ビットPTSを取得する。また、多重化符号をVideo符号とAudio符号とに分離する。Demux103'は、Video符号とAudio符号、及び33ビットPTSをDecode104'に出力する。   Demux 103 ′ is a splitter filter that performs a function of dividing a moving image file into a Video code and an Audio code. The Demux 103 ′ includes a buffer and stores the multiplexed code received from the push source 102 ′ in the buffer. Also, the multiplexed code stored in the buffer is analyzed to obtain a 33-bit PTS for one picture. Also, the multiplexed code is separated into a Video code and an Audio code. The Demux 103 ′ outputs the Video code, the Audio code, and the 33-bit PTS to the Decode 104 ′.

Decode104'は、動画ファイルを出力データに変換する機能を行う変換フィルタである。Decode104'は、バッファを含んで構成し、Demux103'から受け付けたVideo符号とAudio符号、及び33ビットPTSをバッファに保存する。また、バッファに保存したVideo符号と、Audio符号と、を復号し、その復号したデータをRender105',106'に出力する。Decode104'は、Video符号を復号した画像データをVideo Render105'に出力し、Audio符号を復号した音声データをAudio Render106'に出力する。また、Decode104'は、Video符号を復号した画像データ(サムネイル画像)と、33ビットPTSと、を対応付けてテーブル1041'で管理する。   Decode 104 ′ is a conversion filter that performs a function of converting a moving image file into output data. The Decode 104 ′ includes a buffer, and stores the Video code and Audio code received from the Demux 103 ′ and the 33-bit PTS in the buffer. Also, the video code and the audio code stored in the buffer are decoded, and the decoded data is output to the Renders 105 ′ and 106 ′. Decode 104 ′ outputs the image data obtained by decoding the Video code to Video Render 105 ′, and outputs the audio data obtained by decoding the Audio code to Audio Render 106 ′. Further, Decode 104 ′ associates image data (thumbnail image) obtained by decoding the Video code with 33-bit PTS and manages them in the table 1041 ′.

Video Render105'は、画像データをディスプレイ107'に出力する機能を行うレンダリングフィルタである。Video Render105'は、画像データをディスプレイ107'に出力し、ディスプレイ107'上に画像データを表示する。   Video Render 105 ′ is a rendering filter that performs a function of outputting image data to the display 107 ′. The Video Render 105 ′ outputs the image data to the display 107 ′ and displays the image data on the display 107 ′.

Audio Render106'は、音声データをスピーカ108'に出力する機能を行うレンダリングフィルタである。Audio Render106'は、音声データをスピーカ108'に出力し、スピーカ108'から音声データを出力する。   The Audio Render 106 ′ is a rendering filter that performs a function of outputting audio data to the speaker 108 ′. The Audio Render 106 ′ outputs audio data to the speaker 108 ′, and outputs the audio data from the speaker 108 ′.

<本発明と関連する再生装置100'の処理動作>
次に、図3〜図5を参照しながら、図2に示す本発明と関連する再生装置100'の処理動作について説明する。図3は、プッシュソース102'での処理動作を示し、図4は、Demux103'での処理動作を示し、図5は、Decode104'での処理動作を示す。
<Processing Operation of Reproducing Device 100 ′ Related to the Present Invention>
Next, the processing operation of the reproduction apparatus 100 ′ related to the present invention shown in FIG. 2 will be described with reference to FIGS. 3 shows the processing operation in the push source 102 ′, FIG. 4 shows the processing operation in the Demux 103 ′, and FIG. 5 shows the processing operation in the Decode 104 ′.

<図3;プッシュソース102'での処理動作>
まず、図3を参照しながら、プッシュソース102'での処理動作について説明する。
<Fig. 3; Processing operation in push source 102 '>
First, the processing operation in the push source 102 ′ will be described with reference to FIG.

プッシュソース102'は、再生開始時刻の指示を受け付けたか否かを判定し(ステップS'1)、再生開始時刻の指示を受け付けた場合は(ステップS'1/Yes)、Iピクチャテーブル1011'を参照し、再生開始時刻に相当するIピクチャの表示時刻を特定し、該特定したIピクチャの表示時刻に対応するIピクチャのファイル位置を取得する(ステップS'2)。   The push source 102 ′ determines whether or not an instruction for the reproduction start time has been accepted (step S′1). When the instruction for the reproduction start time is accepted (step S′1 / Yes), the push source 102 ′ , The display time of the I picture corresponding to the playback start time is specified, and the file position of the I picture corresponding to the specified display time of the I picture is acquired (step S′2).

プッシュソース102'は、MPEGファイル1012'を参照し、ステップS'2で取得したIピクチャのファイル位置にシークする(ステップS'3)。   The push source 102 ′ refers to the MPEG file 1012 ′ and seeks to the file position of the I picture acquired in step S′2 (step S′3).

プッシュソース102'は、ステップS'3でシークしたファイル位置から多重化符号の読み取りを開始し(ステップS'4)、MPEGファイル1012'から読み取った多重化符号をDemux103'に送信する(ステップS'5)。   The push source 102 ′ starts reading the multiplexed code from the file position sought in step S′3 (step S′4), and transmits the multiplexed code read from the MPEG file 1012 ′ to the Demux 103 ′ (step S). 'Five).

プッシュソース102'は、停止指示を受け付けたか否かを判定し(ステップS'6)、停止指示を受け付けた場合は(ステップS'6/Yes)、処理を終了する。   The push source 102 ′ determines whether or not a stop instruction has been received (step S′6). If a stop instruction has been received (step S′6 / Yes), the process ends.

また、停止指示を受け付けない場合は(ステップS'6/No)、停止指示を受け付けるまで、多重化符号の読み取りを継続する(ステップS'7)。そして、プッシュソース102'は、MPEGファイル1012'から読み取った多重化符号をDemux103'に送信する(ステップS'5)。   If the stop instruction is not received (step S′6 / No), the multiplexed code reading is continued until the stop instruction is received (step S′7). Then, the push source 102 ′ transmits the multiplexed code read from the MPEG file 1012 ′ to the Demux 103 ′ (Step S′5).

<図4;Demux103'での処理動作>
次に、図4を参照しながら、Demux103'での処理動作について説明する。
<Figure 4: Processing operation in Demux103 '>
Next, the processing operation in the Demux 103 ′ will be described with reference to FIG.

Demux103'は、プッシュソース102'から多重化符号を受け付けたか否かを判定し(ステップA'1)、多重化符号を受け付けた場合は(ステップA'1/Yes)、多重化符号を解析し、1ピクチャ分の33ビットPTSを取得する(ステップA'2)。   The Demux 103 ′ determines whether or not a multiplexed code is received from the push source 102 ′ (step A′1). If the multiplexed code is received (step A′1 / Yes), the multiplexed code is analyzed. Then, a 33-bit PTS for one picture is acquired (step A'2).

多重化符号を受け付けたか否かの判定は、多重化符号がバッファに格納されているか否かを判定するように構築することも可能である。例えば、多重化符号がバッファに格納されている場合は、多重化符号を受け付けたと判定し、バッファに格納されていない場合は、多重化符号を受け付けていないと判定する。   The determination of whether or not a multiplexed code has been accepted can also be configured to determine whether or not the multiplexed code is stored in a buffer. For example, when the multiplexed code is stored in the buffer, it is determined that the multiplexed code has been received. When the multiplexed code is not stored in the buffer, it is determined that the multiplexed code has not been received.

次に、Demux103'は、多重化符号から1ピクチャ分のVideo符号を分離し(ステップA'3)、その1ピクチャ分のVideo符号と、33ビットPTSと、をDecode104'に送信する(ステップA'4)。   Next, the Demux 103 ′ separates the video code for one picture from the multiplexed code (step A′3), and transmits the video code for one picture and the 33-bit PTS to the Decode 104 ′ (step A). 'Four).

Demux103'は、停止指示を受け付けたか否かを判定し(ステップA'5)、停止指示を受け付けた場合は(ステップA'5/Yes)、処理を終了する。   The Demux 103 ′ determines whether or not a stop instruction has been received (step A′5). If a stop instruction has been received (step A′5 / Yes), the process ends.

また、Demux103'は、停止指示を受け付けていない場合は(ステップA'5/No)、プッシュソース102'から受け付けた多重化符号を全てDecode104'に送信したか否かを判定する(ステップA'6)。   Further, when the Demux 103 ′ has not received a stop instruction (Step A′5 / No), the Demux 103 ′ determines whether or not all the multiplexed codes received from the push source 102 ′ have been transmitted to the Decode 104 ′ (Step A ′). 6).

Demux103'は、多重化符号がバッファに格納されており、多重化符号を全て送信していない場合は(ステップA'6/No)、ステップA'2〜ステップA'5の一連の処理を行う。また、多重化符号がバッファに格納されておらず、多重化符号を全て送信した場合は(ステップA'6/Yes)、ステップA'1の処理に戻り、プッシュソース102'から多重化符号を受け付けたか否かの判定を行う(ステップA'1)。   The Demux 103 ′ performs a series of processes from Step A′2 to Step A′5 when the multiplexed code is stored in the buffer and all the multiplexed codes are not transmitted (Step A′6 / No). . If the multiplexed code is not stored in the buffer and all the multiplexed codes have been transmitted (step A'6 / Yes), the process returns to step A'1 and the multiplexed code is sent from the push source 102 '. It is determined whether or not it has been accepted (step A′1).

<図5;Decode104'での処理動作>
次に、図5を参照しながら、Decode104'での処理動作について説明する。
<Fig. 5: Processing operation in Decode104 '>
Next, the processing operation in Decode 104 ′ will be described with reference to FIG.

Decode104'は、Demux103'からVideo符号と33ビットPTSとを受け付けたか否かを判定し(ステップB'1)、Video符号と33ビットPTSとを受け付けた場合は(ステップB'1/Yes)、Video符号をデコードし、サムネイル画像を生成する(ステップB'2)。   Decode104 ′ determines whether or not a Video code and a 33-bit PTS have been received from Demux103 ′ (Step B′1). When a Video code and a 33-bit PTS are received (Step B′1 / Yes), The video code is decoded and a thumbnail image is generated (step B'2).

次に、Decode104'は、サムネイル画像と、33ビットPTSと、を対応付けてテーブル1041'に記憶する(ステップB'3)。   Next, the Decode 104 ′ associates the thumbnail image with the 33-bit PTS and stores them in the table 1041 ′ (Step B′3).

Decode104'は、停止指示を受け付けたか否かを判定し(ステップB'4)、停止指示を受け付けた場合は(ステップB'4/Yes)、処理を終了する。   The Decode 104 ′ determines whether or not a stop instruction has been received (step B′4). If a stop instruction has been received (step B′4 / Yes), the process ends.

また、Decode104'は、停止指示を受け付けていない場合は(ステップB'4/No)、Demux103'から受け付けたVideo符号を全てサムネイル画像に変換したか否かを判定する(ステップB'5)。   Further, when Decode 104 ′ has not received a stop instruction (Step B′4 / No), it determines whether all the Video codes received from Demux 103 ′ have been converted into thumbnail images (Step B′5).

Decode104'は、Video符号がバッファに格納されており、Video符号を全てサムネイル画像に変換していない場合は(ステップB'5/No)、ステップB'2〜ステップB'4の一連の処理を行う。また、Video符号がバッファに格納されておらず、Video符号を全てサムネイル画像に変換した場合は(ステップB'5/Yes)、ステップB'1の処理に戻り、Demux103'からVideo符号と33ビットPTSとを受け付けたか否かの判定を行う(ステップB'1)。   Decode104 ′ performs a series of processing from step B′2 to step B′4 when the video code is stored in the buffer and all the video codes are not converted into thumbnail images (step B′5 / No). Do. If the video code is not stored in the buffer and all the video codes are converted into thumbnail images (step B'5 / Yes), the process returns to step B'1, and the video code and 33 bits are returned from Demux103 '. It is determined whether or not PTS is accepted (step B'1).

このように、図2に示す再生装置100'では、再生開始時刻の指示を受け付けた場合に、プッシュソース102'は、Iピクチャテーブル1011'を参照し、再生開始時刻に相当するIピクチャの表示時刻を特定し、その特定したIピクチャ表示時刻に対応するIピクチャのファイル位置のみを取得する。そして、Iピクチャのファイル位置を基に、MPEGファイル1012'から多重化符号を読み出し、その読み出した多重化符号をDemux103'に送信する。Demux103'は、プッシュソース102'から受け付けた多重化符号を解析し、33ビットPTSを取得する。また、多重化符号をVideo符号、Audio符号に分離する。そして、Demux103'は、Video符号とAudio符号、及び33ビットPTSをDecode104'に送信する。Decode104'は、Demux103'から受け付けたVideo符号を復号し、復号した画像データ(サムネイル画像)と、33ビットPTSと、を対応付けてテーブル1041'に記憶する。また、Decode104'は、復号した画像データ、音声データをRender105',106'に出力し、Render105',106'は、画像データ、音声データをディスプレイ107'、スピーカ108'から出力することにしている。   As described above, in the playback device 100 ′ shown in FIG. 2, when the instruction of the playback start time is received, the push source 102 ′ refers to the I picture table 1011 ′ and displays the I picture corresponding to the playback start time. The time is specified, and only the file position of the I picture corresponding to the specified I picture display time is acquired. Based on the file position of the I picture, the multiplexed code is read from the MPEG file 1012 ′, and the read multiplexed code is transmitted to the Demux 103 ′. The Demux 103 ′ analyzes the multiplexed code received from the push source 102 ′, and acquires a 33-bit PTS. Also, the multiplexed code is separated into a Video code and an Audio code. Then, the Demux 103 ′ transmits the Video code, the Audio code, and the 33-bit PTS to the Decode 104 ′. The Decode 104 ′ decodes the Video code received from the Demux 103 ′, and stores the decoded image data (thumbnail image) and the 33-bit PTS in association with each other in the table 1041 ′. Decode 104 ′ outputs decoded image data and audio data to Renders 105 ′ and 106 ′, and Render 105 ′ and 106 ′ output image data and audio data from the display 107 ′ and speaker 108 ′. .

なお、上述した図2に示す再生装置100'は、MPEGファイル1012'から読み出した多重化符号を解析すると、タイムスタンプ(33ビットPTS)を取得することができる。再生装置100'は、このタイムスタンプ(33ビットPTS)と、サムネイル画像と、を対応付けてテーブル1041'に記憶し、MPEGファイル1012'から読み出した多重化符号の編集操作を行っている。   Note that the reproduction apparatus 100 ′ shown in FIG. 2 described above can acquire a time stamp (33-bit PTS) by analyzing the multiplexed code read from the MPEG file 1012 ′. The playback device 100 ′ associates the time stamp (33-bit PTS) with the thumbnail image and stores them in the table 1041 ′, and performs the editing operation of the multiplexed code read from the MPEG file 1012 ′.

MPEG規格では、図1(a)に示すように、MPEGファイル1012'から読み出した多重化符号が約26.5時間以下ならば、MPEGファイル1012'の多重化符号を解析して得られるタイムスタンプ(33ビットPTS)から正しい時刻情報を取得することができる。しかし、図1(b)に示すように、約26.5時間を越えると、タイムスタンプ(33ビットPTS)が桁あふれするため、タイムスタンプ(33ビットPTS)の値が約26.5時間を越えたタイミングでタイムスタンプ(33ビットPTS)の値を0にリセットしている。   In the MPEG standard, as shown in FIG. 1A, if the multiplexed code read from the MPEG file 1012 ′ is about 26.5 hours or less, the time stamp (33) obtained by analyzing the multiplexed code of the MPEG file 1012 ′ is obtained. The correct time information can be obtained from the bit PTS). However, as shown in Fig. 1 (b), if the time stamp (33-bit PTS) exceeds about 26.5 hours, the time stamp (33-bit PTS) overflows. The time stamp (33-bit PTS) value is reset to 0 when the timing is exceeded.

このため、図1(c)に示すように、MPEGファイル1012'から読み出した多重化符号が約26.5時間を越えてしまうと、その多重化符号を解析して得られるタイムスタンプ(33ビットPTS)の値からは正しい時刻情報を得ることができない。その結果、MPEGファイル1012'から読み出した多重化符号が約26.5時間を越えてしまうと、タイムスタンプ(33ビットPTS)を用いて多重化符号の編集操作を行うことができないことになる。   Therefore, as shown in FIG. 1 (c), when the multiplexed code read from the MPEG file 1012 ′ exceeds about 26.5 hours, a time stamp (33-bit PTS) obtained by analyzing the multiplexed code. The correct time information cannot be obtained from the value of. As a result, if the multiplexed code read from the MPEG file 1012 ′ exceeds about 26.5 hours, the multiplexed code cannot be edited using the time stamp (33-bit PTS).

このようなことから、MPEGファイル1012'から読み出した多重化符号が約26.5時間を越えてしまっても、その多重化符号の正しい時刻情報が得られるような仕組みを構築し、MPEG規格のタイムスタンプ(33ビットPTS)の上限(約26.5時間)を越えた多重化符号の編集操作を行うことができるようにしたいのが現状である。   For this reason, even if the multiplexed code read from the MPEG file 1012 'exceeds about 26.5 hours, a mechanism is established to obtain the correct time information of the multiplexed code, and the MPEG standard time stamp Currently, it is desired to be able to perform multiplexed code editing operations that exceed the upper limit (about 26.5 hours) of (33-bit PTS).

このため、本発明者は、図6に示すように、プッシュソース102は、Iピクチャテーブル1011で管理しているIピクチャの表示時刻を64ビットに拡張したタイムスタンプ(64ビットPTS)をDecode104まで送信し、MPEGファイル1012から読み出した多重化符号が約26.5時間を越えてしまっても、その多重化符号の正しい時刻情報を、64ビットに拡張したタイムスタンプ(64ビットPTS)から取得することが可能な仕組みを構築した。これにより、MPEGファイル1012から読み出した多重化符号がMPEG規格の上限(約26.5時間)を越えてしまっても、64ビットに拡張したタイムスタンプ(64ビットPTS)を用いて、その多重化符号の編集操作を行うことが可能となる。以下、図6〜図9を参照しながら、本実施形態の再生装置100について詳細に説明する。   Therefore, the present inventor, as shown in FIG. 6, the push source 102 uses the I-picture display time managed by the I-picture table 1011 to be extended to 64 bits (64-bit PTS) up to Decode 104. Even if the multiplexed code that is transmitted and read from the MPEG file 1012 exceeds about 26.5 hours, the correct time information of the multiplexed code can be obtained from the time stamp (64-bit PTS) extended to 64 bits. A possible mechanism was built. As a result, even if the multiplexed code read from the MPEG file 1012 exceeds the upper limit of the MPEG standard (about 26.5 hours), the time stamp of the multiplexed code (64-bit PTS) extended to 64 bits is used. Editing operations can be performed. Hereinafter, the reproducing apparatus 100 of the present embodiment will be described in detail with reference to FIGS.

(第1の実施形態)
<本実施形態の再生装置100の構成例>
まず、図6を参照しながら、本実施形態の再生装置100の構成例について説明する。
(First embodiment)
<Configuration Example of Playback Device 100 of the Present Embodiment>
First, a configuration example of the playback device 100 of the present embodiment will be described with reference to FIG.

本実施形態の再生装置100は、メモリ101と、プッシュソース102と、Demux103と、Decode104と、Video Render105と、Audio Render106と、ディスプレイ107と、スピーカ108と、を含んで構成している。   The playback apparatus 100 according to the present embodiment includes a memory 101, a push source 102, a Demux 103, a Decode 104, a Video Render 105, an Audio Render 106, a display 107, and a speaker 108.

メモリ101は、各種情報を記憶するものであり、例えば、Iピクチャテーブル1011や、MPEGファイル1012等の情報を格納する。   The memory 101 stores various types of information, and stores information such as an I picture table 1011 and an MPEG file 1012, for example.

Iピクチャテーブル1011は、Iピクチャの表示時刻と、Iピクチャのファイル位置と、を対応付けて管理するテーブルである。Iピクチャは、Intra-coded picture(フレーム内符号化画像)のことを示す。   The I picture table 1011 is a table for managing the display time of the I picture and the file position of the I picture in association with each other. An I picture indicates an intra-coded picture.

MPEGファイル1012は、MPEG規格の多重化符号を格納したファイルである。   The MPEG file 1012 is a file that stores a multiplexed code of the MPEG standard.

プッシュソース102は、動画ファイルを読み込む機能を行うソースフィルタである。プッシュソース102は、MPEGファイル1012から多重化符号を読み取り、その読み取った多重化符号と、Iピクチャの64ビットPTSと、をDemux103に送信する。   The push source 102 is a source filter that performs a function of reading a moving image file. The push source 102 reads the multiplexed code from the MPEG file 1012, and transmits the read multiplexed code and the 64-bit PTS of the I picture to the Demux 103.

Demux103は、動画ファイルをVideo符号、Audio符号に区分けする機能を行うスプリッタフィルタである。Demux103は、バッファを含んで構成し、プッシュソース102から受け付けた多重化符号と、Iピクチャの64ビットPTSと、をバッファに保存する。また、バッファに保存した多重化符号を解析し、1ピクチャ分の33ビットPTSを取得し、その取得した1ピクチャ分の33ビットPTSと、Iピクチャの64ビットPTSと、を基に1ピクチャ分の64ビットPTSを取得する。また、Demux103は、多重化符号をVideo符号とAudio符号とに分離する。そして、Demux103は、Video符号とAudio符号、及び64ビットPTSをDecode104に出力する。   Demux 103 is a splitter filter that performs a function of dividing a moving image file into a Video code and an Audio code. The Demux 103 includes a buffer, and stores the multiplexed code received from the push source 102 and the 64-bit PTS of the I picture in the buffer. Also, the multiplexed code stored in the buffer is analyzed to obtain 33-bit PTS for one picture, and one picture is obtained based on the obtained 33-bit PTS for one picture and the 64-bit PTS for I picture. Get 64-bit PTS. The Demux 103 separates the multiplexed code into a Video code and an Audio code. Then, the Demux 103 outputs the Video code, the Audio code, and the 64-bit PTS to the Decode 104.

Decode104は、動画ファイルを出力データに変換する機能を行う変換フィルタである。Decode104は、バッファを含んで構成し、Demux103から受け付けたVideo符号とAudio符号、及び64ビットPTSをバッファに保存する。また、バッファに保存したVideo符号と、Audio符号と、を復号し、その復号したデータをRender105,106に出力する。Decode104は、Video符号を復号した画像データをVideo Render105に出力し、Audio符号を復号した音声データをAudio Render106に出力する。また、Decode104は、Video符号を復号した画像データ(サムネイル画像)と、64ビットPTSと、を対応付けてテーブル1041で管理する。   Decode 104 is a conversion filter that performs a function of converting a moving image file into output data. The Decode 104 includes a buffer, and stores the Video code and Audio code received from the Demux 103 and the 64-bit PTS in the buffer. Also, the video code and audio code stored in the buffer are decoded, and the decoded data is output to the Renders 105 and 106. The Decode 104 outputs image data obtained by decoding the Video code to the Video Render 105, and outputs audio data obtained by decoding the Audio code to the Audio Render 106. The Decode 104 associates image data (thumbnail image) obtained by decoding the Video code with a 64-bit PTS and manages them in the table 1041.

Video Render105は、画像データをディスプレイ107に出力する機能を行うレンダリングフィルタである。Video Render105は、画像データをディスプレイ107に出力し、ディスプレイ107上に画像データを表示する。   Video Render 105 is a rendering filter that performs a function of outputting image data to the display 107. Video Render 105 outputs the image data to display 107 and displays the image data on display 107.

Audio Render106は、音声データをスピーカ108に出力する機能を行うレンダリングフィルタである。Audio Render106は、音声データをスピーカ108に出力し、スピーカ108から音声データを出力する。   The Audio Render 106 is a rendering filter that performs a function of outputting audio data to the speaker 108. The Audio Render 106 outputs audio data to the speaker 108 and outputs audio data from the speaker 108.

<本実施形態の再生装置100の処理動作>
次に、図7〜図9を参照しながら、図6に示す再生装置100の処理動作について説明する。図7は、プッシュソース102での処理動作を示し、図8は、Demux103での処理動作を示し、図9は、Decode104での処理動作を示す。
<Processing Operation of Playback Device 100 of Present Embodiment>
Next, the processing operation of the playback apparatus 100 shown in FIG. 6 will be described with reference to FIGS. 7 shows the processing operation at the push source 102, FIG. 8 shows the processing operation at the Demux 103, and FIG. 9 shows the processing operation at the Decode 104.

<図7;プッシュソース102での処理動作>
まず、図7を参照しながら、プッシュソース102での処理動作について説明する。
<FIG. 7; Processing operation in push source 102>
First, the processing operation in the push source 102 will be described with reference to FIG.

プッシュソース102は、再生開始時刻の指示を受け付けたか否かを判定し(ステップS1)、再生開始時刻の指示を受け付けた場合は(ステップS1/Yes)、Iピクチャテーブル1011を参照し、再生開始時刻に相当するIピクチャの表示時刻を特定する。そして、その特定したIピクチャの表示時刻を取得すると共に、該取得したIピクチャの表示時刻に対応するIピクチャのファイル位置を取得する(ステップS2)。再生開始時刻に相当するIピクチャの表示時刻を特定する方法としては、例えば、再生開始時刻に最も近いIピクチャの表示時刻を特定する方法が挙げられる。   The push source 102 determines whether or not an instruction for the reproduction start time has been accepted (step S1). When the instruction for the reproduction start time is accepted (step S1 / Yes), the push source 102 refers to the I picture table 1011 and starts reproduction. The display time of the I picture corresponding to the time is specified. Then, the display time of the specified I picture is acquired, and the file position of the I picture corresponding to the acquired display time of the I picture is acquired (step S2). As a method for specifying the display time of the I picture corresponding to the reproduction start time, for example, there is a method for specifying the display time of the I picture closest to the reproduction start time.

次に、プッシュソース102は、ステップS2で取得したIピクチャの表示時刻(IPic Tbl Msec)を基に、Iピクチャの64ビットPTS(IPic Tbl Pts)を算出する(ステップS3)。   Next, the push source 102 calculates a 64-bit PTS (IPic Tbl Pts) of the I picture based on the display time (IPic Tbl Msec) of the I picture acquired in Step S2 (Step S3).

Iピクチャの64ビットPTS(IPic Tbl Pts)は、以下の式(1)、式(2)を用いて算出することが可能である。まず、ステップS2で取得したIピクチャの表示時刻(IPic Tbl Msec)を、式(1)に代入し、ステップS2で取得したIピクチャのファイル先頭からの時刻(IPic Tbl Time)を求め、その式(1)で求めた値(IPic Tbl Time)を式(2)に代入し、Iピクチャの64ビットPTS(IPic Tbl Pts)を求める。   The 64-bit PTS (IPic Tbl Pts) of the I picture can be calculated using the following equations (1) and (2). First, the display time (IPic Tbl Msec) of the I picture acquired in step S2 is substituted into equation (1) to obtain the time (IPic Tbl Time) from the beginning of the I picture file acquired in step S2, and the equation The value (IPic Tbl Time) obtained in (1) is substituted into Expression (2) to obtain a 64-bit PTS (IPic Tbl Pts) of the I picture.

IPic Tbl Time=IPic Tbl Msec-IPic Tbl Start・・・式(1)
IPic Tbl Pts=IPic Tbl Time*(90000/1000)・・・式(2)
IPic Tbl Time = IPic Tbl Msec-IPic Tbl Start (1)
IPic Tbl Pts = IPic Tbl Time * (90000/1000) ... Formula (2)

但し、IPic Tbl Start;Iピクチャテーブルの先頭Iピクチャの時刻(ミリ秒)
IPic Tbl Msec;Iピクチャテーブルから取得したIピクチャの時刻(ミリ秒)
IPic Tbl Time;取得したIピクチャのファイル先頭からの時刻(ミリ秒)
IPic Tbl Pts;取得したIピクチャのファイル先頭からのPTS(64ビットに拡張した値)
IPic Tbl Start; Time of the first I picture in the I picture table (milliseconds)
IPic Tbl Msec; I picture time (milliseconds) obtained from the I picture table
IPic Tbl Time: Time from the beginning of the acquired I picture file (milliseconds)
IPic Tbl Pts: PTS from the beginning of the acquired I picture file (value expanded to 64 bits)

なお、式(2)の90000は、タイムスタンプの周期(Hz)であり、1秒当たりの値が90000となる。式(2)では、ミリ秒からタイムスタンプの値に換算するため(90000/1000)をIPic Tbl Timeに乗算している。   Note that 90000 in the formula (2) is the time stamp period (Hz), and the value per second is 90000. In Expression (2), IPic Tbl Time is multiplied by (90000/1000) in order to convert from milliseconds to a time stamp value.

次に、プッシュソース102は、MPEGファイル1012を参照し、ステップS2で取得したIピクチャのファイル位置にシークする(ステップS4)。   Next, the push source 102 refers to the MPEG file 1012 and seeks to the file position of the I picture acquired in step S2 (step S4).

プッシュソース102は、ステップS4でシークしたファイル位置から多重化符号の読み取りを開始し(ステップS5)、MPEGファイル1012から読み取った多重化符号と、Iピクチャの64ビットPTSと、をDemux103に送信する(ステップS6)。   The push source 102 starts reading the multiplexed code from the file position sought in step S4 (step S5), and transmits the multiplexed code read from the MPEG file 1012 and the 64-bit PTS of the I picture to the Demux 103. (Step S6).

プッシュソース102は、停止指示を受け付けたか否かを判定し(ステップS7)、停止指示を受け付けた場合は(ステップS7/Yes)、処理を終了する。また、停止指示を受け付けていない場合は(ステップS7/No)、1GOP(Group of Picture)分の多重化符号をDemux103に送信したか否かを判定する(ステップS8)。   The push source 102 determines whether or not a stop instruction has been received (step S7), and if a stop instruction has been received (step S7 / Yes), the process ends. If no stop instruction has been received (step S7 / No), it is determined whether or not multiplexed codes for 1 GOP (Group of Picture) have been transmitted to the Demux 103 (step S8).

プッシュソース102は、1GOP分の多重化符号をDemux103に送信していない場合は(ステップS8/No)、多重化符号の読み取りを継続する(ステップS11)。そして、MPEGファイル1012から読み取った多重化符号と、Iピクチャの64ビットPTSと、をDemux103に送信する(ステップS6)。   If the push source 102 has not transmitted multiplexed codes for 1 GOP to the Demux 103 (step S8 / No), the push source 102 continues to read the multiplexed codes (step S11). Then, the multiplexed code read from the MPEG file 1012 and the 64-bit PTS of the I picture are transmitted to the Demux 103 (step S6).

プッシュソース102は、1GOP分の多重化符号をDemux103に送信した場合は(ステップS8/Yes)、Iピクチャテーブル1011を参照し、次のIピクチャの表示時刻を取得し(ステップS9)、該取得したIピクチャの表示時刻を基に、Iピクチャの64ビットPTSを算出する(ステップS10)。そして、MPEGファイル1012から読み取った多重化符号と、ステップS10で算出したIピクチャの64ビットPTSと、をDemux103に送信する(ステップS6)。   When the push source 102 transmits the multiplexed code for 1 GOP to the Demux 103 (step S8 / Yes), the push source 102 refers to the I picture table 1011 and acquires the display time of the next I picture (step S9). Based on the display time of the I picture, a 64-bit PTS of the I picture is calculated (step S10). Then, the multiplexed code read from the MPEG file 1012 and the 64-bit PTS of the I picture calculated in step S10 are transmitted to the Demux 103 (step S6).

<図8;Demux103での処理動作>
次に、図8を参照しながら、Demux103での処理動作について説明する。
<Figure 8: Processing operation in Demux103>
Next, the processing operation in the Demux 103 will be described with reference to FIG.

Demux103は、多重化符号と、Iピクチャの64ビットPTSと、をプッシュソース102から受け付けたか否かを判定し(ステップA1)、多重化符号と、Iピクチャの64ビットPTSと、を受け付けた場合は(ステップA1/Yes)、多重化符号を解析し、1ピクチャ分の33ビットPTSを取得する(ステップA2)。例えば、Demux103は、1回目は、Iピクチャの33ビットPTSを取得し、2回目は、Pピクチャの33ビットPTSを取得し、3回目は、Bピクチャの33ビットPTSを取得する。   Demux 103 determines whether or not a multiplexed code and a 64-bit PTS of an I picture have been received from the push source 102 (step A1), and receives a multiplexed code and a 64-bit PTS of an I picture (Step A1 / Yes) analyzes the multiplexed code and obtains a 33-bit PTS for one picture (Step A2). For example, the Demux 103 acquires the 33-bit PTS of the I picture at the first time, the 33-bit PTS of the P picture at the second time, and the 33-bit PTS of the B picture at the third time.

Pピクチャは、Predictive-coded picture(順方向予測符号化画像)のことを示す。また、Bピクチャは、Bi-directionally predictive-coded picture(双方向予測符号化画像)のことを示す。   The P picture indicates a Predictive-coded picture. A B picture indicates a bi-directionally predictive-coded picture.

多重化符号とIピクチャの64ビットPTSとを受け付けたか否かの判定は、多重化符号とIピクチャの64ビットPTSとがバッファに格納されているか否かを判定するように構築することも可能である。例えば、多重化符号とIピクチャの64ビットPTSとがバッファに格納されている場合は、多重化符号とIピクチャの64ビットPTSとを受け付けたと判定し、バッファに格納されていない場合は、多重化符号とIピクチャの64ビットPTSとを受け付けていないと判定する。   The determination of whether or not a multiplexed code and a 64-bit PTS of an I picture are accepted can also be configured to determine whether the multiplexed code and a 64-bit PTS of an I picture are stored in a buffer. It is. For example, when a multiplexed code and a 64-bit PTS of an I picture are stored in a buffer, it is determined that the multiplexed code and a 64-bit PTS of an I picture have been received. It is determined that the encoded code and the 64-bit PTS of the I picture are not accepted.

次に、Demux103は、多重化符号から1ピクチャ分のVideo符号を分離する(ステップA3)。   Next, the Demux 103 separates the video code for one picture from the multiplexed code (step A3).

次に、Demux103は、Iピクチャの33ビットPTS(IPic Pts)と、Decode104に送信するピクチャの33ビットPTS(Pic Pts)と、の差分(Diff Pts)を算出する(ステップA4)。GOPの途中から33ビットPTSがリセットしている場合は、差分(Diff Pts)を補正する必要があるため、差分(Diff Pts)は、以下の式(3−1)、式(3−2)を用いて算出する。   Next, the Demux 103 calculates a difference (Diff Pts) between the 33-bit PTS (IPic Pts) of the I picture and the 33-bit PTS (Pic Pts) of the picture transmitted to the Decode 104 (step A4). When the 33-bit PTS is reset from the middle of the GOP, it is necessary to correct the difference (Diff Pts). Therefore, the difference (Diff Pts) is expressed by the following equations (3-1) and (3-2). Calculate using.

IPic Ptsが33ビットPTSの最大値の3/4以上であり、且つ、Pic Ptsが33ビットPTSの最大値の1/4以下である条件の場合は、以下の式(3−1)を用いて、差分(Diff Pts)を算出する。但し、3/4は固定値ではなく、十分に大きな値であれば、任意に設定変更可能である。また、1/4も固定値ではなく、十分に小さな値であれば、任意に設定変更可能である。   In the case where IPic Pts is 3/4 or more of the maximum value of 33-bit PTS and Pic Pts is 1/4 or less of the maximum value of 33-bit PTS, the following equation (3-1) is used. Then, the difference (Diff Pts) is calculated. However, 3/4 is not a fixed value and can be arbitrarily changed as long as it is a sufficiently large value. Moreover, if 1/4 is not a fixed value but a sufficiently small value, the setting can be arbitrarily changed.

Diff Pts=(Pic Pts+33ビットPTSの最大値)-IPic Pts・・・式(3−1)   Diff Pts = (Pic Pts + Maximum 33-bit PTS) −IPic Pts Expression (3-1)

また、上記条件以外の場合は、以下の式(3−2)を用いて、差分(Diff Pts)を算出する。   In cases other than the above conditions, the difference (Diff Pts) is calculated using the following equation (3-2).

Diff Pts=Pic Pts-IPic Pts・・・式(3−2)   Diff Pts = Pic Pts-IPic Pts Expression (3-2)

但し、IPic Pts;解析したIピクチャの33ビットPTS
Pic Pts;解析した各ピクチャの33ビットPTS
Diff Pts;差分
IPic Pts: 33-bit PTS of the analyzed I picture
Pic Pts: 33-bit PTS for each analyzed picture
Diff Pts

なお、Decode104に送信する最初のピクチャは、Iピクチャとなるため、差分(Diff Pts)は、0になる。   Since the first picture to be transmitted to Decode 104 is an I picture, the difference (Diff Pts) is 0.

次に、Demux103は、ステップA4で算出した差分(Diff Pts)を、ステップA1で取得したIピクチャの64ビットPTS(IPic Pts64)に加算し、Decode104に送信する1ピクチャ分の64ビットPTS(Pic Pts64)を算出する(ステップA5)。Decode104に送信する1ピクチャ分の64ビットPTS(Pic Pts64)は、以下の式(4)を用いて算出することが可能である。   Next, the Demux 103 adds the difference (Diff Pts) calculated in Step A4 to the 64-bit PTS (IPic Pts64) of the I picture acquired in Step A1, and transmits the 64-bit PTS (Pic) for one picture to be transmitted to the Decode 104. Pts64) is calculated (step A5). The 64-bit PTS (Pic Pts64) for one picture transmitted to the Decode 104 can be calculated using the following equation (4).

Pic Pts64=IPic Pts64+Diff Pts・・・式(4)   Pic Pts64 = IPic Pts64 + Diff Pts ・ ・ ・ Formula (4)

但し、IPic Pts64;取得したIピクチャの64ビットPTS
Pic Pts64;解析した各ピクチャの33ビットPTSを64ビットPTSに拡張した値(ファイル先頭からの64ビットPTS)
Diff Pts;差分
IPic Pts64; 64-bit PTS of the acquired I picture
Pic Pts64: Value obtained by extending 33-bit PTS of each analyzed picture to 64-bit PTS (64-bit PTS from the beginning of the file)
Diff Pts

Demux103は、ステップA3で分離した1ピクチャ分のVideo符号と、ステップA5で算出した64ビットPTSと、をDecode104に送信する(ステップA6)。   The Demux 103 transmits the Video code for one picture separated in Step A3 and the 64-bit PTS calculated in Step A5 to the Decode 104 (Step A6).

Demux103は、停止指示を受け付けたか否かを判定し(ステップA7)、停止指示を受け付けた場合は(ステップA7/Yes)、処理を終了する。   The Demux 103 determines whether or not a stop instruction has been received (step A7), and if a stop instruction has been received (step A7 / Yes), the process ends.

また、Demux103は、停止指示を受け付けていない場合は(ステップA7/No)、1GOP分の多重化符号をDecode104に送信したか否かを判定する(ステップA8)。   Further, when the Demux 103 has not received a stop instruction (Step A7 / No), the Demux 103 determines whether or not a multiplexed code for 1 GOP has been transmitted to the Decode 104 (Step A8).

Demux103は、1GOP分の多重化符号をDecode104に送信していない場合は(ステップA8/No)、ステップA2〜ステップA7の一連の処理を行う。また、1GOP分の多重化符号をDecode104に送信した場合は(ステップA8/Yes)、ステップA1の処理に戻り、多重化符号と、Iピクチャの64ビットPTSと、をプッシュソース102から受け付けたか否かの判定を行う(ステップA1)。   When the Demux 103 has not transmitted the multiplexed code for 1 GOP to the Decode 104 (Step A8 / No), the Demux 103 performs a series of processing from Step A2 to Step A7. Also, when a multiplexed code for 1 GOP is transmitted to Decode 104 (step A8 / Yes), the process returns to step A1, and whether or not the multiplexed code and the 64-bit PTS of the I picture are received from the push source 102 Is determined (step A1).

<図9;Decode104での処理動作>
次に、図9を参照しながら、Decode104での処理動作について説明する。
<Figure 9: Processing operation in Decode104>
Next, the processing operation in Decode 104 will be described with reference to FIG.

Decode104は、Video符号と64ビットPTSとをDemux103から受け付けたか否かを判定し(ステップB1)、Video符号と64ビットPTSとを受け付けた場合は(ステップB1/Yes)、Video符号をデコードし、サムネイル画像を生成する(ステップB2)。   Decode 104 determines whether or not the Video code and 64-bit PTS are received from Demux 103 (step B1). When the Video code and 64-bit PTS are received (step B1 / Yes), the video code is decoded, A thumbnail image is generated (step B2).

次に、Decode104は、サムネイル画像と、64ビットPTSと、を対応付けてテーブル1041に記憶する(ステップB3)。   Next, the Decode 104 associates the thumbnail image with the 64-bit PTS and stores them in the table 1041 (Step B3).

Decode104は、停止指示を受け付けたか否かを判定し(ステップB4)、停止指示を受け付けた場合は(ステップB4/Yes)、処理を終了する。   Decode 104 determines whether or not a stop instruction has been accepted (step B4), and if a stop instruction has been accepted (step B4 / Yes), the process ends.

また、Decode104は、停止指示を受け付けていない場合は(ステップB4/No)、Demux103から受け付けたVideo符号を全てサムネイル画像に変換したか否かを判定する(ステップB5)。   Further, when the Decode 104 has not received a stop instruction (Step B4 / No), the Decode 104 determines whether or not all the Video codes received from the Demux 103 have been converted into thumbnail images (Step B5).

Decode104は、Video符号がバッファに格納されており、Video符号を全てサムネイル画像に変換していない場合は(ステップB5/No)、ステップB2〜ステップB4の一連の処理を行う。また、Video符号がバッファに格納されておらず、Video符号を全てサムネイル画像に変換した場合は(ステップB5/Yes)、ステップB1の処理に戻り、Demux103からVideo符号と64ビットPTSとを受け付けたか否かの判定を行う(ステップB1)。   Decode 104 performs a series of processing from step B2 to step B4 when the video code is stored in the buffer and all the video codes are not converted into thumbnail images (step B5 / No). If the video code is not stored in the buffer and all the video codes are converted into thumbnail images (step B5 / Yes), the process returns to step B1 and the video code and 64-bit PTS are accepted from Demux103. It is determined whether or not (step B1).

<本実施形態の再生装置100の作用・効果>
このように、本実施形態の再生装置100は、再生開始時刻の指示を受け付けた場合に、プッシュソース102は、Iピクチャテーブル1011を参照し、再生開始時刻に相当するIピクチャの表示時刻を取得すると共に、その取得したIピクチャ表示時刻に対応するIピクチャのファイル位置を取得する。プッシュソース102は、Iピクチャテーブル1011から取得したIピクチャの表示時刻を基に、Iピクチャの64ビットPTSを算出する。次に、プッシュソース102は、Iピクチャのファイル位置を基に、MPEGファイル1012から多重化符号を読み出し、その読み出した多重化符号と、Iピクチャの64ビットPTSと、をDemux103に送信する。Demux103は、プッシュソース102から受け付けた多重化符号を解析し、各ピクチャの33ビットPTSを取得する。また、多重化符号をVideo符号、Audio符号に分離する。そして、Iピクチャの33ビットPTSと、各ピクチャの33ビットPTSと、の差分を算出し、その差分をIピクチャの64ビットPTSに加算し、各ピクチャの64ビットPTSを算出する。そして、Video符号とAudio符号、及びそれぞれの64ビットPTSをDecode104に送信する。Decode104は、Demux103から受け付けたVideo符号を復号し、復号したサムネイル画像と、64ビットPTSと、を対応付けてテーブル1041に記憶する。また、Decode104は、復号した画像データ、音声データをRender105,106に出力し、Render105,106は、画像データ、音声データをディスプレイ107、スピーカ108から出力する。
<Operation / Effect of Playback Device 100 of this Embodiment>
As described above, when the playback device 100 according to the present embodiment receives an instruction of the playback start time, the push source 102 refers to the I picture table 1011 and acquires the display time of the I picture corresponding to the playback start time. At the same time, the file position of the I picture corresponding to the acquired I picture display time is acquired. The push source 102 calculates a 64-bit PTS of the I picture based on the display time of the I picture acquired from the I picture table 1011. Next, the push source 102 reads the multiplexed code from the MPEG file 1012 based on the file position of the I picture, and transmits the read multiplexed code and the 64-bit PTS of the I picture to the Demux 103. The Demux 103 analyzes the multiplexed code received from the push source 102 and acquires the 33-bit PTS of each picture. Also, the multiplexed code is separated into a Video code and an Audio code. Then, the difference between the 33-bit PTS of the I picture and the 33-bit PTS of each picture is calculated, and the difference is added to the 64-bit PTS of the I picture to calculate the 64-bit PTS of each picture. Then, the Video code, the Audio code, and each 64-bit PTS are transmitted to the Decode 104. The Decode 104 decodes the Video code received from the Demux 103, stores the decoded thumbnail image and the 64-bit PTS in association with each other in the table 1041. Decode 104 outputs decoded image data and audio data to Renders 105 and 106, and Renders 105 and 106 output image data and audio data from display 107 and speaker 108.

本実施形態の再生装置100では、Decode104は、各ピクチャの符号の時刻情報を、MPEG規格の時刻情報の上限(約26.5時間)を拡張した値(64ビットPTS)でテーブル1041にて管理することになる。このため、MPEGファイル1012から読み出した多重化符号がMPEG規格の時刻情報の上限(約26.5時間)を越えてしまっても、64ビットに拡張したタイムスタンプ(64ビットPTS)を用いることで、その多重化符号の正しい時刻情報を得ることができる。その結果、MPEGファイル1012から読み出した多重化符号がMPEG規格の上限(約26.5時間)を越えてしまっても、64ビットに拡張したタイムスタンプ(64ビットPTS)を用いて、その多重化符号の編集操作を行うことが可能となる。編集操作は、タイムスタンプ(33ビットPTS)を用いて多重化符号の編集操作を行うものであれば、あらゆる編集操作が適用可能であり、例えば、カット編集や、カット編集のプレビュー等が挙げられる。   In the playback device 100 of the present embodiment, the Decode 104 manages the time information of the code of each picture in the table 1041 with a value (64-bit PTS) obtained by extending the upper limit (about 26.5 hours) of the time information of the MPEG standard. become. For this reason, even if the multiplexed code read from the MPEG file 1012 exceeds the upper limit (about 26.5 hours) of the time information of the MPEG standard, the time stamp (64-bit PTS) extended to 64 bits can be used. The correct time information of the multiplexed code can be obtained. As a result, even if the multiplexed code read from the MPEG file 1012 exceeds the upper limit of the MPEG standard (about 26.5 hours), the time stamp (64-bit PTS) extended to 64 bits is used for the multiplexed code. Editing operations can be performed. Any editing operation can be applied as long as a multiplexed code editing operation is performed using a time stamp (33-bit PTS). Examples of the editing operation include cut editing and cut editing preview. .

(第2の実施形態)
次に、第2の実施形態について説明する。
(Second Embodiment)
Next, a second embodiment will be described.

第1の実施形態では、プッシュソース102は、図7に示すように、再生開始時刻の指示を受け付けた場合に(ステップS1/Yes)、Iピクチャテーブル1011を参照し、Iピクチャの表示時刻を取得すると共に、該取得したIピクチャの表示時刻に対応するIピクチャのファイル位置を取得する(ステップS2)。そして、ステップS2で取得したIピクチャの表示時刻(IPic Tbl Msec)を基に、Iピクチャの64ビットPTSを算出した(ステップS3)。   In the first embodiment, as shown in FIG. 7, when the push source 102 receives an instruction for the reproduction start time (step S1 / Yes), the push source 102 refers to the I picture table 1011 and sets the display time of the I picture. At the same time, the file position of the I picture corresponding to the display time of the acquired I picture is acquired (step S2). Then, based on the display time (IPic Tbl Msec) of the I picture acquired in step S2, a 64-bit PTS of the I picture was calculated (step S3).

第2の実施形態では、図10に示すように、Iピクチャテーブル1013で管理するIピクチャの表示時刻を64ビットPTSに拡張した値(Iピクチャの64ビットPTS)で管理する。そして、プッシュソース102は、図11に示すように、再生開始時刻の指示を受け付けた場合に(ステップS11/Yes)、Iピクチャテーブル1013を参照し、Iピクチャの表示時刻(Iピクチャの64ビットPTS)を取得すると共に、該取得したIピクチャの表示時刻(Iピクチャの64ビットPTS)に対応するIピクチャのファイル位置を取得する(ステップS12)。これにより、第1の実施形態のように、Iピクチャの64ビットPTSを算出する処理を行うことなく、Iピクチャの64ビットPTSを取得することが可能となる。以下、図10〜図11を参照しながら、第2の実施形態の再生装置100について説明する。   In the second embodiment, as shown in FIG. 10, the display time of the I picture managed by the I picture table 1013 is managed by a value (64 bit PTS of I picture) extended to 64 bit PTS. Then, as shown in FIG. 11, when the push source 102 receives an instruction of the reproduction start time (step S11 / Yes), the push source 102 refers to the I picture table 1013 and displays the I picture display time (64 bits of the I picture). (PTS) is acquired, and the file position of the I picture corresponding to the display time (64-bit PTS of the I picture) of the acquired I picture is acquired (step S12). As a result, the 64-bit PTS of the I picture can be acquired without performing the process of calculating the 64-bit PTS of the I picture as in the first embodiment. Hereinafter, the playback apparatus 100 according to the second embodiment will be described with reference to FIGS.

<再生装置100の構成例>
まず、図10を参照しながら、本実施形態の再生装置100の構成例について説明する。
<Configuration example of playback device 100>
First, a configuration example of the playback device 100 of the present embodiment will be described with reference to FIG.

本実施形態の再生装置100は、Iピクチャテーブル1013のテーブル構成例が第1の実施形態と異なり、他の構成は、第1の実施形態と同様に構成する。   The playback apparatus 100 of the present embodiment differs from the first embodiment in the table configuration example of the I picture table 1013, and the other configurations are configured in the same manner as in the first embodiment.

本実施形態のIピクチャテーブル1013は、Iピクチャの64ビットPTSと、Iピクチャのファイル位置と、を対応付けて管理している。   The I picture table 1013 of this embodiment manages a 64-bit PTS of an I picture and a file position of the I picture in association with each other.

Iピクチャの64ビットPTSは、Iピクチャの表示時刻を64ビットに拡張した値である。   The 64-bit PTS of the I picture is a value obtained by extending the display time of the I picture to 64 bits.

<本実施形態の再生装置100の処理動作>
次に、図11を参照しながら、図10に示す再生装置100の処理動作について説明する。図11は、プッシュソース102での処理動作を示す。なお、Demux103での処理動作と、Decode104での処理動作は、第1の実施形態と同様な処理を行うため、具体的な処理は割愛する。
<Processing Operation of Playback Device 100 of Present Embodiment>
Next, the processing operation of the playback apparatus 100 shown in FIG. 10 will be described with reference to FIG. FIG. 11 shows a processing operation in the push source 102. Note that the processing operation in the Demux 103 and the processing operation in the Decode 104 perform the same processing as in the first embodiment, and thus specific processing is omitted.

<図11;プッシュソース102での処理動作>
まず、図11を参照しながら、プッシュソース102での処理動作について説明する。
<FIG. 11; Processing operation in the push source 102>
First, the processing operation in the push source 102 will be described with reference to FIG.

プッシュソース102は、再生開始時刻の指示を受け付けたか否かを判定し(ステップS11)、再生開始時刻の指示を受け付けた場合は(ステップS11/Yes)、Iピクチャテーブル1013を参照し、再生開始時刻に相当するIピクチャの64ビットPTSを特定する。そして、その特定したIピクチャの64ビットPTSを取得すると共に、該取得したIピクチャの64ビットPTSに対応するIピクチャのファイル位置を取得する(ステップS12)。   The push source 102 determines whether or not an instruction for the reproduction start time has been accepted (step S11). When the instruction for the reproduction start time is accepted (step S11 / Yes), the push source 102 refers to the I picture table 1013 and starts reproduction. A 64-bit PTS of an I picture corresponding to the time is specified. Then, the 64-bit PTS of the specified I picture is acquired, and the file position of the I picture corresponding to the acquired 64-bit PTS of the I picture is acquired (step S12).

次に、プッシュソース102は、MPEGファイル1012を参照し、ステップS12で取得したIピクチャのファイル位置にシークする(ステップS13)。   Next, the push source 102 refers to the MPEG file 1012 and seeks to the file position of the I picture acquired in step S12 (step S13).

プッシュソース102は、ステップS13でシークしたファイル位置から多重化符号の読み取りを開始し(ステップS14)、MPEGファイル1012から読み取った多重化符号と、Iピクチャの64ビットPTSと、をDemux103に送信する(ステップS15)。   The push source 102 starts reading the multiplexed code from the file position sought in step S13 (step S14), and transmits the multiplexed code read from the MPEG file 1012 and the 64-bit PTS of the I picture to the Demux 103. (Step S15).

プッシュソース102は、停止指示を受け付けたか否かを判定し(ステップS16)、停止指示を受け付けた場合は(ステップS16/Yes)、処理を終了する。また、停止指示を受け付けていない場合は(ステップS16/No)、1GOP(Group of Picture)分の多重化符号をDemux103に送信したか否かを判定する(ステップS17)。   The push source 102 determines whether or not a stop instruction has been received (step S16). If a stop instruction has been received (step S16 / Yes), the process ends. If a stop instruction has not been received (step S16 / No), it is determined whether or not multiplexed codes for 1 GOP (Group of Picture) have been transmitted to the Demux 103 (step S17).

プッシュソース102は、1GOP分の多重化符号をDemux103に送信していない場合は(ステップS17/No)、多重化符号の読み取りを継続する(ステップS19)。そして、MPEGファイル1012から読み取った多重化符号と、Iピクチャの64ビットPTSと、をDemux103に送信する(ステップS15)。   When the push source 102 has not transmitted the multiplexed code for 1 GOP to the Demux 103 (step S17 / No), the push source 102 continues to read the multiplexed code (step S19). Then, the multiplexed code read from the MPEG file 1012 and the 64-bit PTS of the I picture are transmitted to the Demux 103 (step S15).

プッシュソース102は、1GOP分の多重化符号をDemux103に送信した場合は(ステップS17/Yes)、Iピクチャテーブル1013を参照し、次のIピクチャの64ビットPTSを取得する(ステップS18)、そして、MPEGファイル1012から読み取った多重化符号と、ステップS18で取得したIピクチャの64ビットPTSと、をDemux103に送信する(ステップS15)。   When the push source 102 transmits the multiplexed code for 1 GOP to the Demux 103 (step S17 / Yes), the push source 102 refers to the I picture table 1013 to obtain the 64-bit PTS of the next I picture (step S18), and Then, the multiplexed code read from the MPEG file 1012 and the 64-bit PTS of the I picture acquired in step S18 are transmitted to the Demux 103 (step S15).

<本実施形態の再生装置100の作用・効果>
このように、本実施形態の再生装置100は、図10に示すように、Iピクチャテーブル1013で管理するIピクチャの表示時刻を64ビットPTSに拡張した値(Iピクチャ64ビットPTS)で管理する。そして、プッシュソース102は、図11に示すように、再生開始時刻の指示を受け付けた場合に(ステップS11/Yes)、Iピクチャテーブル1013を参照し、Iピクチャの表示時刻(Iピクチャ64ビットPTS)を取得すると共に、該取得したIピクチャの表示時刻(Iピクチャ64ビットPTS)に対応するIピクチャのファイル位置を取得する(ステップS12)。これにより、第1の実施形態のように、Iピクチャの64ビットPTSを算出する処理を行うことなく、Iピクチャの64ビットPTSを取得することが可能となる。
<Operation / Effect of Playback Device 100 of this Embodiment>
Thus, as shown in FIG. 10, the playback apparatus 100 of the present embodiment manages the display time of the I picture managed in the I picture table 1013 with a value (I picture 64-bit PTS) extended to 64-bit PTS. . Then, as shown in FIG. 11, when the push source 102 receives an instruction of the reproduction start time (step S11 / Yes), the push source 102 refers to the I picture table 1013 and displays the I picture display time (I picture 64-bit PTS). ) And the file position of the I picture corresponding to the display time (I picture 64-bit PTS) of the acquired I picture (step S12). As a result, the 64-bit PTS of the I picture can be acquired without performing the process of calculating the 64-bit PTS of the I picture as in the first embodiment.

(第3の実施形態)
次に、第3の実施形態について説明する。
(Third embodiment)
Next, a third embodiment will be described.

第1、第2の実施形態では、図6、図10に示すように、Iピクチャの情報をIピクチャテーブル1011,1013で管理することにした。   In the first and second embodiments, as shown in FIGS. 6 and 10, I picture information is managed by I picture tables 1011 and 1013.

第3の実施形態では、図12に示すように、各ピクチャの情報(Iピクチャの表示時刻、Iピクチャのファイル位置)をピクチャテーブル1014で管理する。これにより、各ピクチャの時刻情報を算出しなくとも、各ピクチャの時刻情報を把握することが可能となる。以下、図12〜14を参照しながら、第3の実施形態の再生装置100について説明する。   In the third embodiment, as shown in FIG. 12, information of each picture (I-picture display time, I-picture file position) is managed by a picture table 1014. This makes it possible to grasp the time information of each picture without calculating the time information of each picture. Hereinafter, the playback apparatus 100 according to the third embodiment will be described with reference to FIGS.

<再生装置100の構成例>
まず、図12を参照しながら、本実施形態の再生装置100の構成例について説明する。
<Configuration example of playback device 100>
First, a configuration example of the playback device 100 of the present embodiment will be described with reference to FIG.

本実施形態の再生装置100は、ピクチャテーブル1014のテーブル構成例が第1の実施形態と異なり、他の構成は、第1の実施形態と同様に構成する。   The playback apparatus 100 of the present embodiment is different from the first embodiment in the table configuration example of the picture table 1014, and the other configurations are the same as those in the first embodiment.

本実施形態のピクチャテーブル1014は、各ピクチャの表示時刻と、各ピクチャのファイル位置と、を対応付けて管理している。ピクチャテーブル1014で管理するピクチャとしては、I、P、Bピクチャが挙げられる。   The picture table 1014 of this embodiment manages the display time of each picture and the file position of each picture in association with each other. The pictures managed by the picture table 1014 include I, P, and B pictures.

<本実施形態の再生装置100の処理動作>
次に、図13〜図14を参照しながら、図12に示す再生装置100の処理動作について説明する。図13は、プッシュソース102での処理動作を示し、図14は、Demux103での処理動作を示す。なお、Decode104での処理動作は、第1の実施形態と同様な処理を行うため、具体的な処理は割愛する。
<Processing Operation of Playback Device 100 of Present Embodiment>
Next, the processing operation of the playback apparatus 100 shown in FIG. 12 will be described with reference to FIGS. FIG. 13 shows the processing operation in the push source 102, and FIG. 14 shows the processing operation in the Demux 103. Note that the processing operation in Decode 104 performs the same processing as in the first embodiment, and thus specific processing is omitted.

<図13;プッシュソース102での処理動作>
まず、図13を参照しながら、プッシュソース102での処理動作について説明する。
<FIG. 13; Processing Operation in Push Source 102>
First, the processing operation in the push source 102 will be described with reference to FIG.

プッシュソース102は、再生開始時刻の指示を受け付けたか否かを判定し(ステップS21)、再生開始時刻の指示を受け付けた場合は(ステップS21/Yes)、ピクチャテーブル1014を参照し、再生開始時刻に相当するピクチャの表示時刻を特定する。そして、その特定したピクチャの表示時刻を取得すると共に、該取得したピクチャの表示時刻に対応するピクチャのファイル位置を取得する(ステップS22)。   The push source 102 determines whether or not an instruction for the reproduction start time has been accepted (step S21). When the instruction for the reproduction start time is accepted (step S21 / Yes), the push source 102 refers to the picture table 1014 and refers to the reproduction start time. The display time of the picture corresponding to is specified. Then, the display time of the specified picture is acquired, and the file position of the picture corresponding to the acquired display time of the picture is acquired (step S22).

次に、プッシュソース102は、ステップS22で取得したピクチャの表示時刻(Pic Tbl Msec)を基に、ピクチャの64ビットPTS(Pic Tbl Pts)を算出する(ステップS23)。   Next, the push source 102 calculates a 64-bit PTS (Pic Tbl Pts) of the picture based on the display time (Pic Tbl Msec) of the picture acquired in Step S22 (Step S23).

ピクチャの64ビットPTS(Pic Tbl Pts)は、以下の式(5)、式(6)を用いて算出することが可能である。まず、ステップS22で取得したピクチャの表示時刻(Pic Tbl Msec)を、式(5)に代入し、ステップS22で取得したピクチャのファイル先頭からの時刻(Pic Tbl Time)を求め、その式(5)で求めた値(Pic Tbl Time)を式(6)に代入し、ピクチャの64ビットPTS(Pic Tbl Pts)を求める。   A 64-bit PTS (Pic Tbl Pts) of a picture can be calculated using the following equations (5) and (6). First, the display time (Pic Tbl Msec) of the picture acquired in step S22 is substituted into equation (5) to obtain the time (Pic Tbl Time) from the beginning of the picture file acquired in step S22. The value (Pic Tbl Time) obtained in () is substituted into Equation (6) to obtain a 64-bit PTS (Pic Tbl Pts) of the picture.

Pic Tbl Time=Pic Tbl Msec-Pic Tbl Start・・・式(5)
Pic Tbl Pts=Pic Tbl Time*(90000/1000)・・・式(6)
Pic Tbl Time = Pic Tbl Msec-Pic Tbl Start (5)
Pic Tbl Pts = Pic Tbl Time * (90000/1000) (6)

但し、Pic Tbl Start;ピクチャテーブルの先頭ピクチャの時刻(ミリ秒)
Pic Tbl Msec;ピクチャテーブルから取得したピクチャの時刻(ミリ秒)
Pic Tbl Time;取得したピクチャのファイル先頭からの時刻(ミリ秒)
Pic Tbl Pts;取得したピクチャのファイル先頭からのPTS(64ビットに拡張した値)
However, Pic Tbl Start: Time of the first picture in the picture table (milliseconds)
Pic Tbl Msec: Time of the picture acquired from the picture table (milliseconds)
Pic Tbl Time: Time from the beginning of the acquired picture file (milliseconds)
Pic Tbl Pts: PTS from the beginning of the acquired picture file (extended value to 64 bits)

なお、式(6)の90000は、タイムスタンプの周期(Hz)であり、1秒当たりの値が90000となる。式(6)では、ミリ秒からタイムスタンプの値に換算するため(90000/1000)をIPic Tbl Timeに乗算している。   Note that 90000 in Equation (6) is the time stamp period (Hz), and the value per second is 90000. In Expression (6), IPic Tbl Time is multiplied by (90000/1000) in order to convert from milliseconds to a time stamp value.

次に、プッシュソース102は、MPEGファイル1012を参照し、ステップS22で取得したピクチャのファイル位置にシークする(ステップS24)。   Next, the push source 102 refers to the MPEG file 1012 and seeks to the file position of the picture acquired in step S22 (step S24).

プッシュソース102は、ステップS24でシークしたファイル位置から多重化符号の読み取りを開始し(ステップS25)、MPEGファイル1012から読み取った多重化符号と、ピクチャの64ビットPTSと、をDemux103に送信する(ステップS26)。   The push source 102 starts reading the multiplexed code from the file position sought in step S24 (step S25), and transmits the multiplexed code read from the MPEG file 1012 and the 64-bit PTS of the picture to the Demux 103 ( Step S26).

プッシュソース102は、停止指示を受け付けたか否かを判定し(ステップS27)、停止指示を受け付けた場合は(ステップS27/Yes)、処理を終了する。   The push source 102 determines whether or not a stop instruction has been received (step S27). When the stop instruction is received (step S27 / Yes), the process ends.

また、停止指示を受け付けていない場合は(ステップS27/No)、ピクチャテーブル1014を参照し、次のピクチャの表示時刻を取得し(ステップS28)、該取得した次のピクチャの表示時刻を基に、次のピクチャの64ビットPTSを算出する(ステップS29)。また、プッシュソース102は、MPEGファイル1012から多重化符号を読み取り(ステップS30)、その読み取った多重化符号と、ステップS29で算出した次のピクチャの64ビットPTSと、をDemux103に送信する(ステップS26)。   If the stop instruction has not been received (step S27 / No), the display time of the next picture is obtained by referring to the picture table 1014 (step S28), and the next display time of the next picture is obtained. Then, the 64-bit PTS of the next picture is calculated (step S29). The push source 102 reads the multiplexed code from the MPEG file 1012 (step S30), and transmits the read multiplexed code and the 64-bit PTS of the next picture calculated in step S29 to the Demux 103 (step S30). S26).

<図14;Demux103での処理動作>
次に、図14を参照しながら、Demux103での処理動作について説明する。
<FIG. 14: Processing operation in Demux 103>
Next, the processing operation in the Demux 103 will be described with reference to FIG.

Demux103は、多重化符号と、ピクチャの64ビットPTSと、をプッシュソース102から受け付けたか否かを判定し(ステップA11)、多重化符号と、ピクチャの64ビットPTSと、を受け付けた場合は(ステップA11/Yes)、多重化符号からVideo符号を分離する(ステップA12)。   The Demux 103 determines whether or not the multiplexed code and the 64-bit PTS of the picture have been received from the push source 102 (step A11), and when receiving the multiplexed code and the 64-bit PTS of the picture ( Step A11 / Yes), the video code is separated from the multiplexed code (step A12).

次に、Demux103は、ステップA12で分離した1ピクチャ分のVideo符号と、プッシュソース102から受け付けた64ビットPTSと、をDecode104に送信する(ステップA13)。   Next, the Demux 103 transmits the Video code for one picture separated in Step A12 and the 64-bit PTS received from the push source 102 to the Decode 104 (Step A13).

Demux103は、停止指示を受け付けたか否かを判定し(ステップA14)、停止指示を受け付けた場合は(ステップA14/Yes)、処理を終了する。   The Demux 103 determines whether or not a stop instruction has been received (step A14). If a stop instruction has been received (step A14 / Yes), the process ends.

また、Demux103は、停止指示を受け付けていない場合は(ステップA14/No)、ステップA11〜ステップA13の一連の処理を行う。   Further, when the Demux 103 has not received a stop instruction (Step A14 / No), the Demux 103 performs a series of processes from Step A11 to Step A13.

<本実施形態の再生装置100の処理動作>
このように、本実施形態の再生装置100は、再生開始時刻の指示を受け付けた場合に、プッシュソース102は、ピクチャテーブル1014を参照し、再生開始時刻に相当するピクチャの表示時刻を取得すると共に、その取得したピクチャ表示時刻に対応するピクチャのファイル位置を取得する。プッシュソース102は、ピクチャテーブル1014から取得したピクチャの表示時刻を基に、ピクチャの64ビットPTSを算出する。次に、プッシュソース102は、ピクチャのファイル位置を基に、MPEGファイル1012から多重化符号を読み出し、その読み出した多重化符号と、ピクチャの64ビットPTSと、をDemux103に送信する。Demux103は、プッシュソース102から受け付けた多重化符号をVideo符号、Audio符号に分離する。そして、Demux103は、Video符号とAudio符号、及びそれぞれの64ビットPTSをDecode104に送信する。Decode104は、Demux103から受け付けたVideo符号を復号し、復号した画像データ(サムネイル画像)と、64ビットPTSと、を対応付けてテーブル1041に記憶する。これにより、各ピクチャの時刻情報を算出しなくとも、各ピクチャの時刻情報を把握することが可能となる。
<Processing Operation of Playback Device 100 of Present Embodiment>
As described above, when the playback device 100 according to the present embodiment receives the instruction of the playback start time, the push source 102 refers to the picture table 1014 and acquires the display time of the picture corresponding to the playback start time. The file position of the picture corresponding to the acquired picture display time is acquired. The push source 102 calculates a 64-bit PTS of the picture based on the display time of the picture acquired from the picture table 1014. Next, the push source 102 reads the multiplexed code from the MPEG file 1012 based on the file position of the picture, and transmits the read multiplexed code and the 64-bit PTS of the picture to the Demux 103. The Demux 103 separates the multiplexed code received from the push source 102 into a Video code and an Audio code. Then, the Demux 103 transmits the Video code, the Audio code, and each 64-bit PTS to the Decode 104. The Decode 104 decodes the Video code received from the Demux 103, and stores the decoded image data (thumbnail image) and 64-bit PTS in association with each other in the table 1041. This makes it possible to grasp the time information of each picture without calculating the time information of each picture.

(第4の実施形態)
次に、第4の実施形態について説明する。
(Fourth embodiment)
Next, a fourth embodiment will be described.

第3の実施形態では、プッシュソース102は、図13に示すように、再生開始時刻の指示を受け付けた場合に(ステップS21/Yes)、ピクチャテーブル1014を参照し、ピクチャの表示時刻を取得すると共に、該取得したピクチャの表示時刻に対応するピクチャのファイル位置を取得する(ステップS22)。そして、ステップS22で取得したピクチャの表示時刻を基に、ピクチャの64ビットPTSを算出した(ステップS23)。   In the third embodiment, as shown in FIG. 13, the push source 102 refers to the picture table 1014 and obtains the display time of a picture when receiving an instruction for a playback start time (step S21 / Yes). At the same time, the file position of the picture corresponding to the display time of the acquired picture is acquired (step S22). Then, the 64-bit PTS of the picture is calculated based on the picture display time acquired in step S22 (step S23).

第4の実施形態では、図15に示すように、ピクチャテーブル1015で管理する各ピクチャの表示時刻を64ビットPTSに拡張した値(各ピクチャの64ビットPTS)で管理する。そして、プッシュソース102は、図16に示すように、再生開始時刻の指示を受け付けた場合に(ステップS31/Yes)、ピクチャテーブル1015を参照し、ピクチャの表示時刻(64ビットPTS)を取得すると共に、該取得したピクチャの表示時刻(64ビットPTS)に対応するピクチャのファイル位置を取得する(ステップS32)。これにより、第3の実施形態のように、各ピクチャの64ビットPTSを算出する処理を行うことなく、各ピクチャの64ビットPTSを取得することが可能となる。以下、図15〜図16を参照しながら、第4の実施形態の再生装置100について説明する。   In the fourth embodiment, as shown in FIG. 15, the display time of each picture managed in the picture table 1015 is managed by a value (64-bit PTS of each picture) extended to 64-bit PTS. Then, as illustrated in FIG. 16, when the push source 102 receives an instruction of the reproduction start time (step S31 / Yes), the push source 102 refers to the picture table 1015 and acquires the picture display time (64-bit PTS). At the same time, the file position of the picture corresponding to the obtained picture display time (64-bit PTS) is obtained (step S32). Accordingly, it is possible to acquire the 64-bit PTS of each picture without performing the process of calculating the 64-bit PTS of each picture as in the third embodiment. Hereinafter, the playback apparatus 100 according to the fourth embodiment will be described with reference to FIGS. 15 to 16.

<再生装置100の構成例>
まず、図15を参照しながら、本実施形態の再生装置100の構成例について説明する。
<Configuration example of playback device 100>
First, a configuration example of the playback device 100 of the present embodiment will be described with reference to FIG.

本実施形態の再生装置100は、ピクチャテーブル1015のテーブル構成例が第3の実施形態と異なり、他の構成は、第3の実施形態と同様に構成する。   The playback apparatus 100 of the present embodiment is different from the third embodiment in the table configuration example of the picture table 1015, and the other configurations are the same as in the third embodiment.

本実施形態のピクチャテーブル1015は、各ピクチャの64ビットPTSと、各ピクチャのファイル位置と、を対応付けて管理している。   The picture table 1015 of this embodiment manages the 64-bit PTS of each picture in association with the file position of each picture.

各ピクチャの64ビットPTSは、各ピクチャの表示時刻を64ビットに拡張した値である。ピクチャとしては、I,P,Bピクチャが挙げられる。   The 64-bit PTS of each picture is a value obtained by extending the display time of each picture to 64 bits. Examples of pictures include I, P, and B pictures.

<本実施形態の再生装置100の処理動作>
次に、図16を参照しながら、図15に示す再生装置100の処理動作について説明する。図16は、プッシュソース102での処理動作を示す。なお、Demux103での処理動作と、Decode104での処理動作は、第3の実施形態と同様な処理を行うため、具体的な処理は割愛する。
<Processing Operation of Playback Device 100 of Present Embodiment>
Next, the processing operation of the playback apparatus 100 shown in FIG. 15 will be described with reference to FIG. FIG. 16 shows the processing operation at the push source 102. Note that the processing operation in the Demux 103 and the processing operation in the Decode 104 perform the same processing as in the third embodiment, and thus specific processing is omitted.

<図16;プッシュソース102での処理動作>
まず、図16を参照しながら、プッシュソース102での処理動作について説明する。
<FIG. 16; Processing Operation at Push Source 102>
First, the processing operation in the push source 102 will be described with reference to FIG.

プッシュソース102は、再生開始時刻の指示を受け付けたか否かを判定し(ステップS31)、再生開始時刻の指示を受け付けた場合は(ステップS31/Yes)、ピクチャテーブル1015を参照し、再生開始時刻に相当するピクチャの64ビットPTSを特定する。そして、その特定したピクチャの64ビットPTSを取得すると共に、該取得したピクチャの64ビットPTSに対応するピクチャのファイル位置を取得する(ステップS32)。   The push source 102 determines whether or not an instruction for the reproduction start time has been received (step S31). When the instruction for the reproduction start time has been accepted (step S31 / Yes), the push source 102 refers to the picture table 1015 and refers to the reproduction start time. The 64-bit PTS of the picture corresponding to is specified. Then, the 64-bit PTS of the specified picture is acquired, and the file position of the picture corresponding to the 64-bit PTS of the acquired picture is acquired (step S32).

次に、プッシュソース102は、MPEGファイル1012を参照し、ステップS32で取得したピクチャのファイル位置にシークする(ステップS33)。   Next, the push source 102 refers to the MPEG file 1012 and seeks to the file position of the picture acquired in step S32 (step S33).

プッシュソース102は、ステップS33でシークしたファイル位置から多重化符号の読み取りを開始し(ステップS34)、MPEGファイル1012から読み出した多重化符号と、ピクチャの64ビットPTSと、をDemux103に送信する(ステップS35)。   The push source 102 starts reading the multiplexed code from the file position sought in step S33 (step S34), and transmits the multiplexed code read from the MPEG file 1012 and the 64-bit PTS of the picture to the Demux 103 ( Step S35).

プッシュソース102は、停止指示を受け付けたか否かを判定し(ステップS36)、停止指示を受け付けた場合は(ステップS36/Yes)、処理を終了する。   The push source 102 determines whether or not a stop instruction has been received (step S36), and if a stop instruction has been received (step S36 / Yes), the process ends.

また、停止指示を受け付けていない場合は(ステップS36/No)、ピクチャテーブル1015を参照し、次のピクチャの64ビットPTSを取得する(ステップS37)、そして、MPEGファイル1012から多重化符号を読み取り(ステップS38)、該読み取った多重化符号と、ステップS37で取得した次のピクチャの64ビットPTSと、をDemux103に送信する(ステップS35)。   If a stop instruction has not been received (step S36 / No), the 64-bit PTS of the next picture is obtained by referring to the picture table 1015 (step S37), and the multiplexed code is read from the MPEG file 1012 (Step S38) The read multiplexed code and the 64-bit PTS of the next picture acquired in Step S37 are transmitted to the Demux 103 (Step S35).

<本実施形態の再生装置100の作用・効果>
このように、本実施形態の再生装置100は、図15に示すように、ピクチャテーブル1015で管理する各ピクチャの表示時刻を64ビットPTSに拡張した値(各ピクチャの64ビットPTS)で管理する。そして、プッシュソース102は、図16に示すように、再生開始時刻の指示を受け付けた場合に(ステップS31/Yes)、ピクチャテーブル1015を参照し、ピクチャの表示時刻(ピクチャの64ビットPTS)を取得すると共に、該取得したピクチャの表示時刻(ピクチャの64ビットPTS)に対応するピクチャのファイル位置を取得する(ステップS32)。これにより、第3の実施形態のように、各ピクチャの64ビットPTSを算出する処理を行うことなく、各ピクチャの64ビットPTSを取得することが可能となる。
<Operation / Effect of Playback Device 100 of this Embodiment>
Thus, as shown in FIG. 15, the playback device 100 of the present embodiment manages the display time of each picture managed in the picture table 1015 with a value (64-bit PTS of each picture) extended to 64-bit PTS. . Then, as shown in FIG. 16, the push source 102 refers to the picture table 1015 and receives the picture display time (64-bit PTS of the picture) when receiving the instruction of the playback start time (step S31 / Yes). In addition to the acquisition, the file position of the picture corresponding to the display time (64-bit PTS of the picture) of the acquired picture is acquired (step S32). Accordingly, it is possible to acquire the 64-bit PTS of each picture without performing the process of calculating the 64-bit PTS of each picture as in the third embodiment.

(第5の実施形態)
次に、第5の実施形態について説明する。
(Fifth embodiment)
Next, a fifth embodiment will be described.

上述した第1〜第4の実施形態は、再生開始時刻の指示(再生要求)を受け付けた場合について説明した。しかし、上述した実施形態の技術内容は、編集操作を行う指定ピクチャを受け付けた場合も同様に行うことができる。編集操作としては、カット編集や、カット編集のプレビュー等が挙げられる。以下、編集操作時の実施形態について説明する。   In the first to fourth embodiments described above, the case where an instruction (reproduction request) of the reproduction start time is received has been described. However, the technical contents of the above-described embodiment can be similarly performed when a designated picture for editing operation is received. Examples of the editing operation include cut editing and cut editing preview. Hereinafter, an embodiment during an editing operation will be described.

<編集操作時の構成>
まず、図17を参照しながら、編集操作時の構成について説明する。
<Configuration during editing operations>
First, a configuration during an editing operation will be described with reference to FIG.

本実施形態の再生装置100は、図17に示す編集部200を有して構成する。編集部200は、編集操作を行うものであり、Audio符号検索部201と、Audio符号抜取部202と、Video符号検索部203と、Video符号抜取部204と、Video符号再圧縮部205と、再多重化部206と、を含んで構成する。   The playback apparatus 100 according to this embodiment includes an editing unit 200 shown in FIG. The editing unit 200 performs an editing operation. The audio code searching unit 201, the audio code extracting unit 202, the video code searching unit 203, the video code extracting unit 204, the video code recompressing unit 205, And a multiplexing unit 206.

Audio符号検索部201は、編集対象の指定ピクチャを受け付けた場合に、Iピクチャテーブル1011及びMPEGファイル1012を参照し、指定ピクチャのAudio符号のファイル位置を検索する。   When receiving the designated picture to be edited, the audio code retrieval unit 201 refers to the I picture table 1011 and the MPEG file 1012 and retrieves the file position of the audio code of the designated picture.

Audio符号抜取部202は、Audio符号検索部201の検索結果(ファイル位置)を基に、多重化符号からAudio符号を抜き取る。   The audio code extraction unit 202 extracts the audio code from the multiplexed code based on the search result (file position) of the audio code search unit 201.

Video符号検索部203は、編集対象の指定ピクチャを受け付けた場合に、Iピクチャテーブル1011及びMPEGファイル1012を参照し、指定ピクチャのVideo符号のファイル位置を検索する。   When receiving the designated picture to be edited, the video code retrieval unit 203 refers to the I picture table 1011 and the MPEG file 1012 to retrieve the file position of the video code of the designated picture.

Video符号抜取部204は、Video符号検索部203の検索結果(ファイル位置)を基に、多重化符号からVideo符号を抜き取る。   The video code extraction unit 204 extracts the video code from the multiplexed code based on the search result (file position) of the video code search unit 203.

Video符号再圧縮部205は、Video符号抜取部204で抜き取ったVideo符号を再圧縮する。   The video code recompressing unit 205 recompresses the video code extracted by the video code extracting unit 204.

再多重化部206は、Audio符号とVideo符号とを再多重化する。   The remultiplexing unit 206 remultiplexes the Audio code and the Video code.

<編集部200の処理動作例>
次に、図17を参照しながら、編集部200の処理動作例について説明する。
<Example of processing operation of editing unit 200>
Next, an example of processing operation of the editing unit 200 will be described with reference to FIG.

Audio符号検索部201は、編集対象の指定ピクチャを受け付けた場合に、Iピクチャテーブル1011及びMPEGファイル1012を参照し、指定ピクチャのAudio符号のファイル位置を検索する。そして、その検索結果(ファイル位置)をAudio符号抜取部202に通知する(ステップS10)。   When receiving the designated picture to be edited, the audio code retrieval unit 201 refers to the I picture table 1011 and the MPEG file 1012 and retrieves the file position of the audio code of the designated picture. Then, the audio code extraction unit 202 is notified of the search result (file position) (step S10).

Audio符号抜取部202は、Audio符号検索部201から受け付けた検索結果(ファイル位置)を基に、多重化符号に含まれるAudio符号を抜き取り、その抜き取ったAudio符号を再多重化部206に渡す(ステップS11)。   The audio code extraction unit 202 extracts the audio code included in the multiplexed code based on the search result (file position) received from the audio code search unit 201 and passes the extracted audio code to the remultiplexing unit 206 ( Step S11).

Video符号検索部203は、編集対象の指定ピクチャを受け付けた場合に、Iピクチャテーブル1011及びMPEGファイル1012を参照し、指定ピクチャのVideo符号のファイル位置を検索する。そして、その検索結果(ファイル位置)をVideo符号抜取部204に通知する(ステップS12)   When receiving the designated picture to be edited, the video code retrieval unit 203 refers to the I picture table 1011 and the MPEG file 1012 to retrieve the file position of the video code of the designated picture. Then, the search result (file position) is notified to the Video code extraction unit 204 (step S12).

Video符号抜取部204は、Video符号検索部203から受け付けた検索結果(ファイル位置)を基に、多重化符号に含まれるVideo符号を抜き取る(ステップS13)。   The video code extraction unit 204 extracts the video code included in the multiplexed code based on the search result (file position) received from the video code search unit 203 (step S13).

Video符号再圧縮部205は、Video符号抜取部204で抜き取ったVideo符号を再圧縮し、その再圧縮を行ったVideo符号を再多重化部206に渡す(ステップS14)。   The video code recompressing unit 205 recompresses the video code extracted by the video code extracting unit 204, and passes the recompressed video code to the remultiplexing unit 206 (step S14).

再多重化部206は、Audio符号抜取部202から渡されたAudio符号と、Video符号再圧縮部205から渡されたVideo符号と、を再多重化する(ステップS15)。これにより、編集部200は、編集対象の指定ピクチャを受け付けた場合に、その指定ピクチャの編集操作を行うことができる。   The remultiplexing unit 206 remultiplexes the Audio code passed from the Audio code sampling unit 202 and the Video code passed from the Video code recompressing unit 205 (Step S15). Thus, the editing unit 200 can perform an editing operation on the designated picture when the designated picture to be edited is received.

<Video符号検索部203での処理動作>
次に、図18を参照しながら、Video符号検索部203での処理動作について説明する。
<Processing in Video Code Search Unit 203>
Next, the processing operation in the video code search unit 203 will be described with reference to FIG.

Video符号検索部203は、編集対象の指定ピクチャを受け付けた場合に(ステップC1/Yes)、Iピクチャテーブル1011を参照し、編集対象の指定ピクチャの64ビットPTSに近いIピクチャのファイル位置をIピクチャテーブル1011から取得する(ステップC2)。   When receiving the designated picture to be edited (Step C1 / Yes), the video code search unit 203 refers to the I picture table 1011 and refers to the I picture file position close to the 64-bit PTS of the designated picture to be edited. Obtained from the picture table 1011 (step C2).

具体的には、Video符号検索部203は、Iピクチャテーブル1011のIピクチャの表示時刻(IPic Tbl Msec)を基に、Iピクチャの64ビットPTS(IPic Tbl Pts)を算出する。   Specifically, the video code search unit 203 calculates a 64-bit PTS (IPic Tbl Pts) of the I picture based on the display time (IPic Tbl Msec) of the I picture in the I picture table 1011.

Iピクチャの64ビットPTS(IPic Tbl Pts)は、以下の式(A)、式(B)を用いて算出することができる。まず、Iピクチャの表示時刻(IPic Tbl Msec)を、式(A)に代入し、Iピクチャのファイル先頭からの時刻(IPic Tbl Time)を求め、その式(A)で求めた値(IPic Tbl Time)を式(B)に代入し、Iピクチャの64ビットPTS(IPic Tbl Pts)を求める。   The 64-bit PTS (IPic Tbl Pts) of the I picture can be calculated using the following equations (A) and (B). First, the I picture display time (IPic Tbl Msec) is substituted into Expression (A), the time from the beginning of the I picture file (IPic Tbl Time) is obtained, and the value (IPic Tbl Time) obtained from Expression (A) is obtained. Substituting (Time) into equation (B) to obtain a 64-bit PTS (IPic Tbl Pts) of the I picture.

IPic Tbl Time=IPic Tbl Msec-IPic Tbl Start・・・式(A)
IPic Tbl Pts=IPic Tbl Time*(90000/1000)・・・式(B)
IPic Tbl Time = IPic Tbl Msec-IPic Tbl Start ・ ・ ・ Formula (A)
IPic Tbl Pts = IPic Tbl Time * (90000/1000) ・ ・ ・ Formula (B)

但し、IPic Tbl Start;Iピクチャテーブルの先頭Iピクチャの表示時刻(ミリ秒)
IPic Tbl Msec;IピクチャテーブルのIピクチャの表示時刻(ミリ秒)
IPic Tbl Time;Iピクチャのファイル先頭からの時刻(ミリ秒)
IPic Tbl Pts;Iピクチャのファイル先頭からのPTS(64ビットに拡張した値)
IPic Tbl Start; Display time of the first I picture in the I picture table (milliseconds)
IPic Tbl Msec; I picture table I picture display time (milliseconds)
IPic Tbl Time; Time from the beginning of the I picture file (milliseconds)
IPic Tbl Pts: PTS from the beginning of the I picture file (value expanded to 64 bits)

なお、式(B)の90000は、タイムスタンプの周期(Hz)であり、1秒当たりの値が90000となる。式(B)では、ミリ秒からタイムスタンプの値に換算するため(90000/1000)をIPic Tbl Timeに乗算している。   Note that 90000 in the formula (B) is the period (Hz) of the time stamp, and the value per second is 90000. In the formula (B), the IPic Tbl Time is multiplied by (90000/1000) in order to convert from milliseconds to a time stamp value.

次に、Video符号検索部203は、上記算出したIピクチャの64ビットPTSを基に、指定ピクチャの64ビットPTSに近いIピクチャの64ビットPTSを特定し、その特定したIピクチャの64ビットPTSに対応するIピクチャのファイル位置を特定する。   Next, the video code search unit 203 identifies the 64-bit PTS of the I picture that is close to the 64-bit PTS of the designated picture based on the calculated 64-bit PTS of the I picture, and the 64-bit PTS of the identified I picture The file position of the I picture corresponding to is specified.

これにより、Video符号検索部203は、編集対象の指定ピクチャを受け付けた場合に(ステップC1/Yes)、Iピクチャテーブル1011を参照し、編集対象の指定ピクチャの64ビットPTSに近いIピクチャのファイル位置をIピクチャテーブル1011から取得することができる(ステップC2)。   Accordingly, when the video code search unit 203 receives the designated picture to be edited (step C1 / Yes), the video code search unit 203 refers to the I picture table 1011 and refers to the I picture file close to the 64-bit PTS of the designated picture to be edited. The position can be acquired from the I picture table 1011 (step C2).

次に、Video符号検索部203は、MPEGファイル1012を参照し、ステップC1で取得したIピクチャのファイル位置から多重化符号の読み取りを開始する(ステップC3)。   Next, the video code search unit 203 refers to the MPEG file 1012, and starts reading the multiplexed code from the file position of the I picture acquired in step C1 (step C3).

Video符号検索部203は、MPEGファイル1012から読み取った多重化符号を順次解析し、各ピクチャの33ビットPTSを取得する(ステップC4)。例えば、Video符号検索部203は、1回目は、多重化符号からIピクチャの33ビットPTSを取得し、2回目は、Pピクチャの33ビットPTSを取得し、3回目は、Bピクチャの33ビットPTSを取得する。   The video code search unit 203 sequentially analyzes the multiplexed codes read from the MPEG file 1012, and acquires the 33-bit PTS of each picture (step C4). For example, the Video code search unit 203 obtains the 33-bit PTS of the I picture from the multiplexed code at the first time, the 33-bit PTS of the P picture at the second time, and the 33 bits of the B picture at the third time. Get PTS.

次に、Video符号検索部203は、Iピクチャの33ビットPTS(IPic Pts)と、各ピクチャの33ビットPTS(Pic Pts)と、の差分(Diff Pts)を算出する(ステップC5)。GOPの途中から33ビットPTSがリセットしている場合は、差分(Diff Pts)を補正する必要があるため、差分(Diff Pts)は、以下の式(C−1)、式(C−2)を用いて算出する。   Next, the video code search unit 203 calculates a difference (Diff Pts) between the 33-bit PTS (IPic Pts) of the I picture and the 33-bit PTS (Pic Pts) of each picture (step C5). If the 33-bit PTS is reset from the middle of the GOP, it is necessary to correct the difference (Diff Pts). Therefore, the difference (Diff Pts) can be calculated using the following equations (C-1) and (C-2). Calculate using.

IPic Ptsが33ビットPTSの最大値の3/4以上であり、且つ、Pic Ptsが33ビットPTSの最大値の1/4以下である条件の場合は、以下の式(C−1)を用いて、差分(Diff Pts)を算出する。但し、3/4は固定値ではなく、十分に大きな値であれば、任意に設定変更可能である。また、1/4も固定値ではなく、十分に小さな値であれば、任意に設定変更可能である。   For the condition that IPic Pts is 3/4 or more of the maximum value of 33-bit PTS and Pic Pts is 1/4 or less of the maximum value of 33-bit PTS, the following formula (C-1) is used. Then, the difference (Diff Pts) is calculated. However, 3/4 is not a fixed value and can be arbitrarily changed as long as it is a sufficiently large value. Moreover, if 1/4 is not a fixed value but a sufficiently small value, the setting can be arbitrarily changed.

Diff Pts=(Pic Pts+33ビットPTSの最大値)-IPic Pts・・・式(C−1)   Diff Pts = (Pic Pts + Maximum 33-bit PTS) −IPic Pts Expression (C−1)

また、上記条件以外の場合は、以下の式(C−2)を用いて、差分(Diff Pts)を算出する。   In cases other than the above conditions, the difference (Diff Pts) is calculated using the following equation (C-2).

Diff Pts=Pic Pts-IPic Pts・・・式(C−2)   Diff Pts = Pic Pts-IPic Pts Expression (C-2)

但し、IPic Pts;解析したIピクチャの33ビットPTS
Pic Pts;解析した各ピクチャの33ビットPTS
Diff Pts;差分
IPic Pts: 33-bit PTS of the analyzed I picture
Pic Pts: 33-bit PTS for each analyzed picture
Diff Pts

なお、最初のピクチャは、Iピクチャとなるため、差分(Diff Pts)は、0になる。   Since the first picture is an I picture, the difference (Diff Pts) is 0.

次に、Video符号検索部203は、ステップC5で算出した差分(Diff Pts)を、ステップC2の処理で特定したIピクチャの64ビットPTS(IPic Pts64)に加算し、各ピクチャの64ビットPTS(Pic Pts64)を算出する(ステップC6)。各ピクチャの64ビットPTS(Pic Pts64)は、以下の式(D)を用いて算出することが可能である。   Next, the video code search unit 203 adds the difference (Diff Pts) calculated in step C5 to the 64-bit PTS (IPic Pts64) of the I picture specified in the process of step C2, and the 64-bit PTS ( Pic Pts64) is calculated (step C6). The 64-bit PTS (Pic Pts64) of each picture can be calculated using the following equation (D).

Pic Pts64=IPic Pts64+Diff Pts・・・式(D)   Pic Pts64 = IPic Pts64 + Diff Pts ・ ・ ・ Formula (D)

但し、IPic Pts64;Iピクチャの64ビットPTS
Pic Pts64;解析した各ピクチャの33ビットPTSを64ビットPTSに拡張した値(ファイル先頭からの64ビットPTS)
Diff Pts;差分
IPic Pts64: 64-bit PTS of I picture
Pic Pts64: Value obtained by extending 33-bit PTS of each analyzed picture to 64-bit PTS (64-bit PTS from the beginning of the file)
Diff Pts

これにより、Video符号検索部203は、各ピクチャの33ビットPTSを64ビットPTSに拡張することができる。   As a result, the video code search unit 203 can extend the 33-bit PTS of each picture to a 64-bit PTS.

次に、Video符号検索部203は、各ピクチャの64ビットPTSを基に、編集対象の指定ピクチャの64ビットPTSに近いピクチャを特定し、その特定したピクチャのファイル位置を取得する(ステップC7)。Video符号検索部203は、その取得したファイル位置を検索結果としてVideo符号抜取部204に通知する(ステップC8)。   Next, the video code search unit 203 specifies a picture close to the 64-bit PTS of the designated picture to be edited based on the 64-bit PTS of each picture, and acquires the file position of the specified picture (step C7). . The video code search unit 203 notifies the video code extraction unit 204 of the acquired file position as a search result (step C8).

これにより、Video符号抜取部204は、Video符号検索部203から受け付けた検索結果(ファイル位置)を基に、多重化符号に含まれるVideo符号を抜き取り、編集対象の指定ピクチャのファイル位置から編集操作(カット編集等)を行うことができる。   Thereby, the video code extraction unit 204 extracts the video code included in the multiplexed code based on the search result (file position) received from the video code search unit 203, and performs the editing operation from the file position of the designated picture to be edited. (Cut edit etc.) can be performed.

なお、上記処理では、Video符号検索部203は、図17に示すように、Iピクチャテーブル1011のIピクチャの表示時刻(IPic Tbl Msec)を基に、Iピクチャの64ビットPTS(IPic Tbl Pts)を算出し、指定ピクチャの64ビットPTSに近いIピクチャのファイル位置をIピクチャテーブル1011から取得することにした。   In the above process, the Video code search unit 203, as shown in FIG. 17, uses the I picture display time (IPic Tbl Msec) of the I picture table 1011 as the 64-bit PTS (IPic Tbl Pts) of the I picture. And the file position of the I picture close to the 64-bit PTS of the designated picture is obtained from the I picture table 1011.

しかし、Iピクチャテーブル1011で管理するIピクチャの表示時刻を64ビットPTSに拡張した値(Iピクチャの64ビットPTS)で管理することも可能である。これにより、Video符号検索部203は、Iピクチャの64ビットPTS(IPic Tbl Pts)を算出する処理を行うことなく、指定ピクチャの64ビットPTSに近いIピクチャのファイル位置をIピクチャテーブル1011から取得することができる。   However, it is also possible to manage the display time of the I picture managed in the I picture table 1011 with a value (64-bit PTS of I picture) extended to 64-bit PTS. As a result, the video code search unit 203 acquires the I-picture file position close to the 64-bit PTS of the designated picture from the I-picture table 1011 without performing the process of calculating the 64-bit PTS (IPic Tbl Pts) of the I-picture. can do.

<Audio符号検索部201での処理動作>
次に、図19、図20を参照しながら、Audio符号検索部201での処理動作について説明する。
<Processing in Audio Code Search Unit 201>
Next, the processing operation in the audio code search unit 201 will be described with reference to FIGS. 19 and 20.

Audio符号検索部201は、編集対象の指定ピクチャを受け付けた場合に(ステップD1/Yes)、Video符号検索部203でのファイル位置の検索が終了したか否かを判定する(ステップD2)。   When the audio code search unit 201 receives the designated picture to be edited (step D1 / Yes), the audio code search unit 201 determines whether or not the search of the file position in the video code search unit 203 has ended (step D2).

Audio符号検索部201は、Video符号検索部203でのファイル位置の検索が終了した場合に(ステップD2/Yes)、MPEGファイル1012を参照し、Video符号検索部203で検索したファイル位置に近いAudio符号の33ビットPTS(Audio 33Pts)を取得する(ステップD3)。   When the search of the file position in the video code search unit 203 is completed (step D2 / Yes), the audio code search unit 201 refers to the MPEG file 1012 and searches for an audio that is close to the file position searched by the video code search unit 203. A 33-bit PTS (Audio 33Pts) of the code is acquired (step D3).

Audio符号検索部201は、Iピクチャテーブル1011を参照し、33ビットPTS(Audio 33Pts)を取得した際に使用したファイル位置に近いIピクチャのファイル位置を特定し、該特定したIピクチャのファイル位置に対応するIピクチャの表示時刻(IPic Tbl Msec)をIピクチャテーブル1011から取得する(ステップD4)。   The audio code search unit 201 refers to the I picture table 1011, identifies the file position of the I picture that is close to the file position used when the 33-bit PTS (Audio 33Pts) is acquired, and the file position of the identified I picture The display time (IPic Tbl Msec) of the I picture corresponding to is acquired from the I picture table 1011 (step D4).

Audio符号検索部201は、Iピクチャの表示時刻(IPic Tbl Msec)を基に、Iピクチャの64ビットPTS(IPic 64Pts)を算出する(ステップD5)。   The audio code search unit 201 calculates a 64-bit PTS (IPic 64Pts) of the I picture based on the display time (IPic Tbl Msec) of the I picture (step D5).

Iピクチャの64ビットPTS(IPic 64Pts)は、以下の式(E)、式(F)を用いて算出することができる。まず、Iピクチャの表示時刻(IPic Tbl Msec)を、式(E)に代入し、Iピクチャのファイル先頭からの時刻(IPic Tbl Time)を求め、その式(E)で求めた値(IPic Tbl Time)を式(F)に代入し、Iピクチャの64ビットPTS(IPic 64Pts)を求める。   The 64-bit PTS (IPic 64Pts) of an I picture can be calculated using the following formulas (E) and (F). First, the I picture display time (IPic Tbl Msec) is substituted into the equation (E), the time from the beginning of the I picture file (IPic Tbl Time) is obtained, and the value obtained by the equation (E) (IPic Tbl) Substituting (Time) into equation (F) to obtain a 64-bit PTS (IPic 64Pts) of an I picture

IPic Tbl Time=IPic Tbl Msec-IPic Tbl Start・・・式(E)
IPic 64Pts=IPic Tbl Time*(90000/1000)+Seq Start Pts・・・式(F)
IPic Tbl Time = IPic Tbl Msec-IPic Tbl Start ・ ・ ・ Formula (E)
IPic 64Pts = IPic Tbl Time * (90000/1000) + Seq Start Pts ・ ・ ・ Formula (F)

但し、IPic Tbl Start;Iピクチャテーブルの先頭Iピクチャの表示時刻(ミリ秒)
IPic Tbl Msec;IピクチャテーブルのIピクチャの表示時刻(ミリ秒)
IPic Tbl Time;Iピクチャのファイル先頭からの時刻(ミリ秒)
Seq Start Pts;先頭IピクチャのPTS
IPic 64Pts;Iピクチャのファイル先頭からのPTS(64ビットに拡張した値)
IPic Tbl Start; Display time of the first I picture in the I picture table (milliseconds)
IPic Tbl Msec; I picture table I picture display time (milliseconds)
IPic Tbl Time; Time from the beginning of the I picture file (milliseconds)
Seq Start Pts; PTS of the first I picture
IPic 64Pts; PTS from the beginning of the I picture file (value expanded to 64 bits)

なお、式(F)の90000は、タイムスタンプの周期(Hz)であり、1秒当たりの値が90000となる。式(F)では、ミリ秒からタイムスタンプの値に換算するため(90000/1000)をIPic Tbl Timeに乗算している。   Note that 90000 in the formula (F) is a time stamp period (Hz), and the value per second is 90000. In formula (F), IPic Tbl Time is multiplied by (90000/1000) in order to convert from milliseconds to a time stamp value.

次に、Audio符号検索部201は、上記算出したIピクチャの64ビットPTS(IPic 64Pts)を34ビット目以上と33ビット目以下に分けるため、以下の値を計算する(ステップD6)。   Next, the audio code search unit 201 calculates the following values to divide the calculated 64-bit PTS (IPic 64Pts) of the I picture into the 34th bit and the 33rd bit (step D6).

Base 33Pts=(IPic 64Pts & 0x1ffffffff);
Add 64Pts=(IPic 64Pts & 0xfffffffe00000000);
Base 33Pts = (IPic 64Pts &0x1ffffffff);
Add 64Pts = (IPic 64Pts &0xfffffffe00000000);

次に、Audio符号検索部201は、Base 33Pts+α<Audio 33Ptsの条件を満たすか否かを判定する(ステップD7)。なお、αは、以下の式で算出する。   Next, the audio code search unit 201 determines whether or not the condition of Base 33Pts + α <Audio 33Pts is satisfied (step D7). Α is calculated by the following equation.

α=MAX_STAMP_33BIT - MAX_DIFF   α = MAX_STAMP_33BIT-MAX_DIFF

但し、MAX_STAMP_33BIT=0x200000000・・・33ビットの上限値+1
MAX_DIFF=(90000 * 60 * 60 * 1)・・・Video符号とAudio符号とのPTS差の許容最大値(1以上の値)
However, MAX_STAMP_33BIT = 0x200000000 ... Upper limit value of 33 bits + 1
MAX_DIFF = (90000 * 60 * 60 * 1) ・ ・ ・ Maximum allowable value of PTS difference between Video code and Audio code (1 or more)

Audio符号検索部201は、Base 33Pts+α<Audio 33Ptsの条件を満たす場合は(ステップD7/Yes)、33ビットのリセット前と見なして、以下の式を用いて、桁溢れ分を減らす(ステップD10)。   When the condition of Base 33Pts + α <Audio 33Pts is satisfied (step D7 / Yes), the audio code search unit 201 considers that it is before 33-bit reset, and reduces the overflow by using the following formula (step D10).

Audio 64Pts=Audio 33Pts + (Add 64Pts - MAX_STAMP_33BIT)   Audio 64Pts = Audio 33Pts + (Add 64Pts-MAX_STAMP_33BIT)

33ビットのリセット前と見なして、桁溢れ分を減らす場合の例を図21に示す。33ビットのリセット前と見なした場合は、図21に示すように、Audio符号の33ビットPTS(Audio 33Pts)にIピクチャテーブルによる拡張後の64ビットPTS(Add 64Pts)を加算する。そして、その値から33ビットのリセットによる桁溢れ分(MAX_STAMP_33BIT)を減算する。これにより、補正後の64ビットPTS(Audio 64Pts)を得ることができる。   FIG. 21 shows an example in which the overflow of digits is considered as before 33-bit reset. When it is considered that the 33-bit reset is not performed, as shown in FIG. 21, the 64-bit PTS (Add 64 Pts) expanded by the I picture table is added to the 33-bit PTS (Audio 33Pts) of the Audio code. Then, the overflow (MAX_STAMP_33BIT) due to the 33-bit reset is subtracted from the value. Thereby, a 64-bit PTS (Audio 64Pts) after correction can be obtained.

次に、Audio符号検索部201は、上記取得した64ビット化したAudioのPTS(Audio 64Pts)と、編集対象の指定ピクチャのVideoの64ビットPTS(Video 64Pts)と、の差分を算出する(ステップD12)。   Next, the audio code search unit 201 calculates a difference between the acquired 64-bit audio PTS (Audio 64Pts) and the 64-bit PTS (Video 64Pts) of the specified picture to be edited (step 64). D12).

次に、Audio符号検索部201は、上記算出した差分の絶対値が1AAU(Audio Access Unit)のタイムスタンプ未満か否かを判定する(ステップD13)。AAUは、1つ1つ独立でオーディオデータに復号できる最小単位であり、常に一定のサンプル数Snのデータで構成されている。なお、1AAUのタイムスタンプは、公知の算出式で得られるため、具体的な算出式は割愛する。   Next, the audio code search unit 201 determines whether or not the absolute value of the calculated difference is less than a time stamp of 1 AAU (Audio Access Unit) (step D13). AAU is the smallest unit that can be decoded into audio data one by one, and is always composed of data of a certain number of samples Sn. The time stamp of 1 AAU is obtained by a known calculation formula, and a specific calculation formula is omitted.

Audio符号検索部201は、上記算出した差分の絶対値が1AAUのタイムスタンプ未満である場合は(ステップD13/Yes)、64ビット化したAudio(Audio 64Pts)のファイル位置を検索結果としてAudio符号抜取部202に通知する(ステップD14)。   When the absolute value of the calculated difference is less than 1 AAU time stamp (step D13 / Yes), the audio code search unit 201 extracts the audio code using the 64-bit audio (Audio 64Pts) file position as the search result. The unit 202 is notified (step D14).

これにより、Audio符号抜取部202は、Audio符号検索部201から受け付けた検索結果(ファイル位置)を基に、多重化符号に含まれるAudio符号を抜き取り、編集対象の指定ピクチャのファイル位置から編集操作(カット編集等)を行うことができる。   Thereby, the audio code extraction unit 202 extracts the audio code included in the multiplexed code based on the search result (file position) received from the audio code search unit 201, and performs the editing operation from the file position of the designated picture to be edited. (Cut edit etc.) can be performed.

なお、ステップD13の判定において、差分の絶対値が1AAUのタイムスタンプ未満でない場合は(ステップD13/No)、Audio符号検索部201は、64ビット化したAudioのPTS(Audio 64Pts)の方が編集対象の指定ピクチャのVideoの64ビットPTS(Video 64Pts)よりも大きいか否かを判定する(ステップD15)。   If the absolute value of the difference is not less than the time stamp of 1 AAU in the determination in step D13 (step D13 / No), the audio code search unit 201 edits the 64-bit audio PTS (Audio 64Pts). It is determined whether or not it is larger than the 64-bit PTS (Video 64Pts) of the video of the target designated picture (step D15).

Audio符号検索部201は、64ビット化したAudioのPTS(Audio 64Pts)の方が編集対象の指定ピクチャのVideoの64ビットPTS(Video 64Pts)よりも大きい場合は(ステップD15/Yes)、MPEGファイル1012を参照し、64ビット化したAudio(Audio 64Pts)のファイル位置より前方のファイル位置から多重化符号を読み取り、Audio符号の33ビットPTS(Audio 33Pts)を取得し(ステップD16)、ステップD7の判定に移行し、その取得したAudio符号の33ビットPTS(Audio 33Pts)がBase 33Pts+α<Audio 33Ptsの条件を満たすか否かを判定する(ステップD7)。   If the 64-bit audio PTS (Audio 64Pts) is larger than the 64-bit PTS (Video 64Pts) of the specified picture to be edited (step D15 / Yes), the audio code search unit 201 determines that the MPEG file Referring to 1012, the multiplexed code is read from the file position ahead of the 64-bit Audio (Audio 64Pts) file position, and the 33-bit PTS (Audio 33Pts) of the Audio code is acquired (Step D16). The process proceeds to determination, and it is determined whether or not the 33-bit PTS (Audio 33Pts) of the acquired Audio code satisfies the condition of Base 33Pts + α <Audio 33Pts (step D7).

また、ステップD15の判定において、64ビット化したAudioのPTS(Audio 64Pts)の方が編集対象の指定ピクチャのVideoの64ビットPTS(Video 64Pts)よりも大きくない場合は(ステップD15/No)、MPEGファイル1012を参照し、64ビット化したAudio(Audio 64Pts)のファイル位置より後方のファイル位置から多重化符号を読み取り、Audio符号の33ビットPTS(Audio 33Pts)を取得し(ステップD17)、ステップD7の判定に移行し、その取得したAudio符号の33ビットPTS(Audio 33Pts)がBase 33Pts+α<Audio 33Ptsの条件を満たすか否かを判定する(ステップD7)。   Also, if the 64-bit Audio PTS (Audio 64Pts) is not larger than the 64-bit PTS (Video 64Pts) of the specified picture to be edited in the determination of Step D15 (Step D15 / No), Referring to the MPEG file 1012, the multiplexed code is read from the file position behind the 64-bit audio (Audio 64Pts) file position, and the 33-bit PTS (Audio 33Pts) of the audio code is obtained (step D17), step The process proceeds to the determination of D7, and it is determined whether or not the 33-bit PTS (Audio 33Pts) of the acquired audio code satisfies the condition of Base 33Pts + α <Audio 33Pts (step D7).

Audio符号検索部201は、ステップD7の判定において、Base 33Pts+α<Audio 33Ptsの条件を満たさない場合は(ステップD7/No)、Base 33Pts>Audio 33Pts + αの条件を満たすか否かを判定する(ステップD8)。   When the determination of Step D7 does not satisfy the condition of Base 33Pts + α <Audio 33Pts (Step D7 / No), the Audio code search unit 201 determines whether or not the condition of Base 33Pts> Audio 33Pts + α is satisfied. (Step D8).

Audio符号検索部201は、Base 33Pts>Audio 33Pts + αの条件を満たす場合は(ステップD8/Yes)、33ビットのリセット後と見なして、以下の式を用いて、桁溢れ分を増やす(ステップD11)。   When the condition of Base 33Pts> Audio 33Pts + α is satisfied (step D8 / Yes), the audio code search unit 201 considers that after 33-bit reset, and increases the overflow by using the following equation (step D11).

Audio 64Pts = Audio 33Pts + (Add 64Pts + MAX_STAMP_33BIT)   Audio 64Pts = Audio 33Pts + (Add 64Pts + MAX_STAMP_33BIT)

33ビットのリセット後と見なして、桁溢れ分を増やす場合の例を図22に示す。33ビットのリセット後と見なした場合は、図22に示すように、Audio符号の33ビットPTS(Audio 33Pts)にIピクチャテーブルによる拡張後の64ビットPTS(Add 64Pts)を加算する。そして、その値から33ビットのリセットによる桁溢れ分(MAX_STAMP_33BIT)を加算する。これにより、補正後の64ビットPTS(Audio 64Pts)を得ることができる。   FIG. 22 shows an example in which the overflow amount is increased assuming that the 33-bit reset has occurred. When it is considered that 33 bits have been reset, the 64-bit PTS (Add 64 Pts) expanded by the I picture table is added to the 33 bits PTS (Audio 33Pts) of the Audio code as shown in FIG. Then, the overflow (MAX_STAMP_33BIT) due to the 33-bit reset is added from the value. Thereby, a 64-bit PTS (Audio 64Pts) after correction can be obtained.

そして、Audio符号検索部201は、上記取得した64ビット化したAudioのPTS(Audio 64Pts)と、編集対象の指定ピクチャのVideoの64ビットPTS(Video 64Pts)と、の差分を算出し(ステップD12)、ステップD13の判定に移行する。   Then, the audio code search unit 201 calculates a difference between the acquired 64-bit audio PTS (Audio 64Pts) and the 64-bit PTS (Video 64Pts) of the specified picture to be edited (step D12). ), The process proceeds to step D13.

また、ステップD8の判定において、Base 33Pts>Audio 33Pts + αの条件を満たさない場合は(ステップD8/No)、以下の式を用いて、34ビット目以上の値を加算する(ステップD9)。   If the condition of Base 33Pts> Audio 33Pts + α is not satisfied in the determination in step D8 (step D8 / No), a value of the 34th bit or more is added using the following equation (step D9).

Audio 64Pts = Audio 33Pts + Add 64Pts   Audio 64Pts = Audio 33Pts + Add 64Pts

34ビット目以上の値を加算する場合(補正無しの場合)の例を図23に示す。33ビットのリセット前、リセット後の何れにも該当しない場合は、図23に示すように、Audio符号の33ビットPTS(Audio 33Pts)にIピクチャテーブルによる拡張後の64ビットPTS(Add 64Pts)を加算する。そして、その値に補正を行わない。これにより、64ビットPTS(Audio 64Pts)を得ることができる。   FIG. 23 shows an example in the case of adding a value of the 34th bit or more (in the case of no correction). If none of the above before and after the 33-bit reset, the 64-bit PTS (Add 64Pts) expanded by the I picture table is added to the 33-bit PTS (Audio 33Pts) of the Audio code as shown in FIG. to add. And the value is not corrected. Thereby, 64-bit PTS (Audio 64Pts) can be obtained.

そして、Audio符号検索部201は、上記取得した64ビット化したAudioのPTS(Audio 64Pts)と、編集対象の指定ピクチャのVideoの64ビットPTS(Video 64Pts)と、の差分を算出し(ステップD12)、ステップD13の判定に移行する。   Then, the audio code search unit 201 calculates a difference between the acquired 64-bit audio PTS (Audio 64Pts) and the 64-bit PTS (Video 64Pts) of the specified picture to be edited (step D12). ), The process proceeds to step D13.

なお、上記処理では、Audio符号検索部201は、図17に示すIピクチャテーブル1011を参照し、Audio 33Ptsを取得した際に使用したファイル位置に近いIピクチャの表示時刻(IPic Tbl Msec)をIピクチャテーブル1011から取得し、その取得したIピクチャの表示時刻(IPic Tbl Msec)を基に、Iピクチャの64ビットPTS(IPic 64Pts)を算出することにした。   In the above process, the Audio code search unit 201 refers to the I picture table 1011 shown in FIG. 17 and sets the I picture display time (IPic Tbl Msec) close to the file position used when obtaining the Audio 33Pts to I. The 64-bit PTS (IPic 64Pts) of the I picture is calculated from the picture table 1011 and based on the display time (IPic Tbl Msec) of the acquired I picture.

しかし、Iピクチャテーブル1011で管理するIピクチャの表示時刻を64ビットPTSに拡張した値(IPic 64Pts)で管理することも可能である。これにより、Video符号検索部203は、Iピクチャの64ビットPTS(IPic 64Pts)を算出する処理を行うことなく、Iピクチャの64ビットPTS(IPic 64Pts)をIピクチャテーブル1011から取得することができる。   However, it is also possible to manage the display time of the I picture managed in the I picture table 1011 with a value (IPic 64Pts) extended to 64-bit PTS. Thereby, the video code search unit 203 can acquire the 64-bit PTS (IPic 64Pts) of the I picture from the I-picture table 1011 without performing the process of calculating the 64-bit PTS (IPic 64Pts) of the I picture. .

<本実施形態の再生装置100の作用・効果>
このように、本実施形態の再生装置100の編集部200は、MPEG規格の時刻情報の上限(約26.5時間)を越えるピクチャの編集操作を受け付けた場合に(ステップC1/Yes)、Video符号検索部203は、Iピクチャテーブル1011を参照し、編集操作時に受け付けたピクチャの時刻情報に近いIピクチャの符号の時刻情報を特定し、該特定したIピクチャの符号の時刻情報に対応する位置情報を特定する(ステップC2)。そして、Video符号検索部203は、MPEGファイル1012を参照し、上記特定した位置情報の符号を読み出し、該読み出した符号を解析し、各ピクチャの時刻情報を取得する(ステップC3,C4)。そして、Video符号検索部203は、その取得した各ピクチャの時刻情報を基に、編集操作時に受け付けたピクチャの時刻情報に近いピクチャの位置情報を特定する(ステップC5〜C7)。そして、Video符号抜取部204は、Video符号検索部203で特定したピクチャの位置情報を基に、MPEGファイル1012に格納された符号の編集操作を行う。これにより、編集部200は、Video符号の編集操作を行うことができる。
<Operation / Effect of Playback Device 100 of this Embodiment>
As described above, when the editing unit 200 of the playback apparatus 100 according to the present embodiment receives a picture editing operation exceeding the upper limit (about 26.5 hours) of the time information of the MPEG standard (step C1 / Yes), the video code search The unit 203 refers to the I picture table 1011, identifies the time information of the code of the I picture that is close to the time information of the picture received at the time of the editing operation, and stores the position information corresponding to the time information of the code of the identified I picture Specify (step C2). Then, the video code search unit 203 reads the code of the specified position information with reference to the MPEG file 1012, analyzes the read code, and acquires time information of each picture (steps C3 and C4). Then, the video code search unit 203 identifies the position information of the picture that is close to the time information of the picture received during the editing operation, based on the acquired time information of each picture (steps C5 to C7). Then, the video code extraction unit 204 performs an editing operation of the code stored in the MPEG file 1012 based on the position information of the picture specified by the video code search unit 203. Thereby, the editing unit 200 can perform an editing operation of the Video code.

また、本実施形態の編集部200は、MPEG規格の時刻情報の上限(約26.5時間)を越えるピクチャの編集操作を受け付けた場合に(ステップD1/Yes)、Audio符号検索部201は、MPEGファイル1012を参照し、Video符号検索部203で特定したピクチャの位置情報に近いAudio符号の時刻情報を取得する(ステップD3)。そして、その取得したAudio符号の時刻情報を、MPEG規格の時刻情報の上限を拡張した値に変換する(ステップD9orD10orD11)。次に、Audio符号検索部201は、上記変換したAudio符号の時刻情報に相当するAudio符号の位置情報をAudio符号抜取部202に通知する(ステップD14)。そして、Audio符号抜取部202は、Audio符号検索部201から通知されたAudio符号の位置情報を基に、MPEGファイル1012に格納されたAudio符号の編集操作を行う。これにより、編集部200は、Video符号だけでなく、Audio符号の編集操作も行うことができる。また、編集部200は、GOP単位の編集操作だけではなく、フレーム単位の編集操作も行うことができる。   In addition, when the editing unit 200 of the present embodiment receives an editing operation of a picture that exceeds the upper limit (about 26.5 hours) of the time information of the MPEG standard (step D1 / Yes), the audio code search unit 201 displays the MPEG file Referring to 1012, audio code time information close to the position information of the picture specified by the video code search unit 203 is acquired (step D 3). Then, the time information of the acquired audio code is converted into a value obtained by extending the upper limit of the time information of the MPEG standard (step D9orD10orD11). Next, the audio code search unit 201 notifies the audio code extraction unit 202 of the position information of the audio code corresponding to the time information of the converted audio code (step D14). Then, the audio code extraction unit 202 performs an editing operation of the audio code stored in the MPEG file 1012 based on the position information of the audio code notified from the audio code search unit 201. Thus, the editing unit 200 can perform not only the video code but also the audio code editing operation. The editing unit 200 can perform not only the GOP-based editing operation but also the frame-based editing operation.

なお、上述する実施形態は、本発明の好適な実施形態であり、上記実施形態のみに本発明の範囲を限定するものではなく、本発明の要旨を逸脱しない範囲において種々の変更を施した形態での実施が可能である。   The above-described embodiment is a preferred embodiment of the present invention, and the scope of the present invention is not limited to the above-described embodiment alone, and various modifications are made without departing from the gist of the present invention. Implementation is possible.

例えば、上述した本実施形態の再生装置100は、図6に示すように、プッシュソース102と、Demux103と、を有し、MPEGファイル1012から多重化符号を読み出す機能(プッシュソース102での機能)と、その多重化符号を分離する機能(Demux103)と、を区分して構成した。しかし、プッシュソース102の機能と、Demux103の機能と、を1つの機能として統合するように構築することも可能である。   For example, the playback apparatus 100 of the present embodiment described above includes a push source 102 and a Demux 103 as shown in FIG. 6, and a function of reading a multiplexed code from an MPEG file 1012 (function in the push source 102) And a function (Demux 103) for separating the multiplexed code. However, it is also possible to construct such that the function of the push source 102 and the function of the Demux 103 are integrated as one function.

また、上述した本実施形態における再生装置100を構成する各装置における制御動作は、ハードウェア、または、ソフトウェア、あるいは、両者の複合構成を用いて実行することも可能である。   Further, the control operation in each device constituting the playback device 100 in the present embodiment described above can be executed using hardware, software, or a combined configuration of both.

なお、ソフトウェアを用いて処理を実行する場合には、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれているコンピュータ内のメモリにインストールして実行させることが可能である。あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。   In the case of executing processing using software, it is possible to install and execute a program in which a processing sequence is recorded in a memory in a computer incorporated in dedicated hardware. Alternatively, the program can be installed and executed on a general-purpose computer capable of executing various processes.

例えば、プログラムは、記録媒体としてのハードディスクやROM(Read Only Memory)に予め記録しておくことが可能である。あるいは、プログラムは、リムーバブル記録媒体に、一時的、あるいは、永続的に格納(記録)しておくことが可能である。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウエアとして提供することが可能である。なお、リムーバブル記録媒体としては、フロッピー(登録商標)ディスク、CD-ROM(Compact Disc Read Only Memory)、MO(Magneto optical)ディスク、DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリなどが挙げられる。   For example, the program can be recorded in advance on a hard disk or ROM (Read Only Memory) as a recording medium. Alternatively, the program can be stored (recorded) temporarily or permanently in a removable recording medium. Such a removable recording medium can be provided as so-called package software. Examples of the removable recording medium include a floppy (registered trademark) disk, a CD-ROM (Compact Disc Read Only Memory), an MO (Magneto optical) disk, a DVD (Digital Versatile Disc), a magnetic disk, and a semiconductor memory.

なお、プログラムは、上述したようなリムーバブル記録媒体からコンピュータにインストールすることになる。また、ダウンロードサイトから、コンピュータに無線転送することになる。また、ネットワークを介して、コンピュータに有線で転送することになる。   The program is installed in the computer from the removable recording medium as described above. In addition, it is wirelessly transferred from the download site to the computer. In addition, it is transferred to the computer via a network by wire.

また、本実施形態における再生装置100は、上記実施形態で説明した処理動作に従って時系列的に実行されるのみならず、処理を実行する装置の処理能力、あるいは、必要に応じて並列的にあるいは個別に実行するように構築することも可能である。   Further, the playback device 100 in the present embodiment is not only executed in time series according to the processing operation described in the above embodiment, but also the processing capability of the device that executes the processing, or in parallel as necessary It can also be constructed to run individually.

本発明は、MPEG規格の符号を再生する技術に適用可能である。   The present invention is applicable to a technique for reproducing an MPEG standard code.

101 メモリ
1011、1013 Iピクチャテーブル(第1の管理手段)
1014、1015 ピクチャテーブル(第1の管理手段)
1012 MPEGファイル(格納手段)
102 プッシュソース(読出手段)
103 Demux(解析手段)
104 Decode(出力手段)
1041 テーブル(第2の管理手段)
105 Video Render
106 Audio Render
107 ディスプレイ
108 スピーカ
200 編集部(編集手段)
201 Audio符号検索部
202 Audio符号抜取部
203 Video符号検索部
204 Video符号抜取部
205 Video符号再圧縮部
206 再多重化部
101 Memory 1011, 1013 I picture table (first management means)
1014, 1015 Picture table (first management means)
1012 MPEG file (storage means)
102 Push source (reading means)
103 Demux (analysis means)
104 Decode (output means)
1041 Table (second management means)
105 Video Render
106 Audio Render
107 display 108 speaker 200 editing section (editing means)
201 Audio Code Search Unit 202 Audio Code Extraction Unit 203 Video Code Search Unit 204 Video Code Extraction Unit 205 Video Code Recompression Unit 206 Remultiplexing Unit

Claims (20)

MPEG(Moving Picture Expert Group)規格の符号を格納する格納手段から読み出した前記符号と、MPEG規格の時刻情報の上限を越える場合でも前記符号の位置を一意に示す時刻情報と、を対応付けて管理することを特徴とする再生装置。   The code read from the storage means for storing the MPEG (Moving Picture Expert Group) standard code and the time information uniquely indicating the position of the code even when the upper limit of the MPEG standard time information is exceeded and managed And a playback apparatus. MPEG(Moving Picture Expert Group)規格の符号を格納する格納手段と、
前記符号の時刻情報と位置情報とを対応付けて管理する第1の管理手段と、
再生要求を受け付けた場合に、前記第1の管理手段を参照し、再生要求時に受け付けた時刻情報に対応する位置情報を基に、前記格納手段から符号を読み出す読出手段と、
前記読出手段が読み出した符号を再生する出力手段と、を有し、
前記読出手段は、
前記格納手段から読み出した符号と共に、前記符号の時刻情報を前記出力手段に出力し、
前記出力手段は、
前記読出手段から受け付けた符号と、当該符号の時刻情報と、を対応付けて管理する第2の管理手段を有し、
前記第2の管理手段は、前記符号の時刻情報を、MPEG規格の時刻情報の上限を拡張した値で管理することを特徴とする再生装置。
Storage means for storing MPEG (Moving Picture Expert Group) standard codes;
First management means for managing time information and position information of the code in association with each other;
A reading unit that reads the code from the storage unit based on the position information corresponding to the time information received at the time of the reproduction request with reference to the first management unit when the reproduction request is received;
Output means for reproducing the code read by the reading means,
The reading means includes
Along with the code read from the storage means, the time information of the code is output to the output means,
The output means includes
Second management means for managing the code received from the reading means and the time information of the code in association with each other;
The second management unit manages the time information of the code with a value obtained by extending an upper limit of time information of the MPEG standard.
前記読出手段は、
前記符号の時刻情報を、MPEG規格の時刻情報の上限を拡張した値に変換し、該変換した符号の時刻情報を前記出力手段に出力することを特徴とする請求項2記載の再生装置。
The reading means includes
3. The playback apparatus according to claim 2, wherein the time information of the code is converted into a value obtained by extending an upper limit of the time information of the MPEG standard, and the converted time information of the code is output to the output means.
前記第1の管理手段は、
前記符号の時刻情報を、MPEG規格の時刻情報の上限を拡張した値で管理することを特徴とする請求項2記載の再生装置。
The first management means includes
3. The playback apparatus according to claim 2, wherein the time information of the code is managed by a value obtained by extending an upper limit of time information of the MPEG standard.
前記読出手段が読み出した符号を解析し、当該符号のMPEG規格の時刻情報を取得する解析手段を有し、
前記第1の管理手段は、
Iピクチャの符号の時刻情報と位置情報とを対応付けて管理し、
前記読出手段は、
再生要求を受け付けた場合に、前記第1の管理手段を参照し、再生要求時に受け付けた時刻情報に相当するIピクチャの符号の時刻情報を特定し、該特定したIピクチャの符号の時刻情報に対応する位置情報を基に、前記格納手段からIピクチャの符号を読み出し、該読み出したIピクチャの符号と共に、当該Iピクチャの符号の時刻情報を前記解析手段に出力する手段と、
前記Iピクチャの符号を読み出した後に、前記格納手段から読み出した各ピクチャの符号と共に、前記Iピクチャの符号の時刻情報を前記出力手段に出力する手段と、
を有し、
前記解析手段は、
前記読出手段から受け付けた各ピクチャの符号を解析し、各ピクチャの符号のMPEG規格の時刻情報を取得し、該取得したMPEG規格の時刻情報を基に、前記読出手段から受け付けた前記Iピクチャの符号の時刻情報を補正し、MPEG規格の時刻情報の上限を拡張した各ピクチャの符号の時刻情報を算出し、該算出した各ピクチャの符号の時刻情報と、前記各ピクチャの符号と、を前記出力手段に出力し、
前記出力手段は、
前記解析手段から受け付けた各ピクチャの符号と、前記各ピクチャの符号の時刻情報と、を対応付けて管理することを特徴とする請求項3または4記載の再生装置。
Analyzing the code read by the reading means, having analysis means for obtaining time information of the MPEG standard of the code,
The first management means includes
Managing the time information and position information of the code of the I picture in association with each other;
The reading means includes
When a reproduction request is received, the first management means is referred to, time information of the code of the I picture corresponding to the time information received at the time of the reproduction request is specified, and the time information of the code of the specified I picture is specified. Based on the corresponding position information, reads the code of the I picture from the storage means, and outputs the time information of the code of the I picture to the analysis means together with the code of the read I picture;
Means for outputting the time information of the code of the I picture to the output means together with the code of each picture read from the storage means after reading the code of the I picture;
Have
The analysis means includes
Analyzing the code of each picture received from the reading means, obtaining MPEG standard time information of the code of each picture, and based on the acquired MPEG standard time information, the I picture received from the reading means Correcting the time information of the code, calculating the time information of the code of each picture in which the upper limit of the time information of the MPEG standard is extended, and calculating the time information of the code of each picture and the code of each picture Output to the output means,
The output means includes
5. The playback apparatus according to claim 3, wherein the code of each picture received from the analyzing unit and the time information of the code of each picture are managed in association with each other.
前記解析手段は、
Iピクチャの符号のMPEG規格の時刻情報と、各ピクチャの符号のMPEG規格の時刻情報と、の差分を算出し、該算出した差分を、前記読出手段から受け付けた前記Iピクチャの符号の時刻情報に加算し、前記MPEG規格の時刻情報の上限を拡張した各ピクチャの符号の時刻情報を算出することを特徴とする請求項5記載の再生装置。
The analysis means includes
The difference between the MPEG standard time information of the code of the I picture and the MPEG standard time information of the code of each picture is calculated, and the calculated difference is the time information of the code of the I picture received from the reading means. 6. The reproduction apparatus according to claim 5, wherein the time information of the code of each picture in which the upper limit of the time information of the MPEG standard is extended is calculated.
前記読出手段は、
1GOP(Group of Picture)分の各ピクチャの符号とIピクチャの符号の時刻情報とを前記出力手段に出力した場合に、前記第1の管理手段を参照し、前記Iピクチャの符号の時刻情報の次のIピクチャの符号の時刻情報を取得し、前記格納手段から読み出した各ピクチャの符号と共に、前記次のIピクチャの符号の時刻情報を前記解析手段に出力することを特徴とする請求項5記載の再生装置。
The reading means includes
When the code information of each picture for 1 GOP (Group of Picture) and the time information of the code of the I picture are output to the output means, the time information of the code information of the I picture is referred to the first management means. 6. The time information of the code of the next I picture is acquired, and the time information of the code of the next I picture is output to the analysis means together with the code of each picture read out from the storage means. The reproducing apparatus as described.
前記読出手段は、
再生要求を受け付けた場合に、前記第1の管理手段を参照し、再生要求時に受け付けた時刻情報に相当するIピクチャの符号の時刻情報を特定し、該特定したIピクチャの符号の時刻情報に対応する位置情報を基に、前記格納手段からIピクチャの符号を読み出し、該読み出したIピクチャの符号と共に、当該Iピクチャの符号の時刻情報をMPEG規格の時刻情報の上限値以上に拡張したIピクチャの拡張ビットタイムスタンプを前記解析手段に出力する手段と、
前記Iピクチャの符号を読み出した後に、前記格納手段から読み出した各ピクチャの符号と共に、前記Iピクチャの拡張ビットタイムスタンプを前記出力手段に出力する手段と、
を有し、
前記解析手段は、
前記読出手段から受け付けた各ピクチャの符号を解析し、各ピクチャのビットタイムスタンプを取得し、該取得した各ピクチャのビットタイムスタンプを基に、前記読出手段から受け付けた前記Iピクチャの拡張ビットタイムスタンプを補正し、各ピクチャのビットタイムスタンプをMPEG規格の時刻情報の上限値以上に拡張した各ピクチャの拡張ビットタイムスタンプを算出し、該算出した各ピクチャの拡張ビットタイムスタンプと、前記各ピクチャの符号と、を前記出力手段に出力し、
前記出力手段は、
前記解析手段から受け付けた各ピクチャの符号と、前記各ピクチャの拡張ビットタイムスタンプと、を対応付けて管理することを特徴とする請求項5記載の再生装置。
The reading means includes
When a reproduction request is received, the first management means is referred to, time information of the code of the I picture corresponding to the time information received at the time of the reproduction request is specified, and the time information of the code of the specified I picture is specified. Based on the corresponding position information, the code of the I picture is read from the storage means, and the time information of the code of the I picture is expanded to the upper limit value of the time information of the MPEG standard or more together with the code of the read I picture. Means for outputting an extended bit time stamp of a picture to the analyzing means;
Means for outputting the extended bit time stamp of the I picture to the output means together with the code of each picture read from the storage means after reading the code of the I picture;
Have
The analysis means includes
Analyzing the sign of each picture received from the reading means, obtaining the bit time stamp of each picture, and based on the obtained bit time stamp of each picture, the extended bit time of the I picture received from the reading means Correcting the stamp, calculating an extended bit time stamp of each picture obtained by extending the bit time stamp of each picture to an upper limit value of the time information of the MPEG standard, and calculating the extended bit time stamp of each picture; Is output to the output means,
The output means includes
6. The playback apparatus according to claim 5, wherein the code of each picture received from the analysis unit and the extended bit time stamp of each picture are managed in association with each other.
前記第1の管理手段は、
前記Iピクチャの符号の時刻情報を、MPEG規格の時刻情報の上限値以上に拡張したIピクチャの拡張ビットタイムスタンプとして管理し、
前記読出手段は、
再生要求を受け付けた場合に、前記第1の管理手段を参照し、再生要求時に受け付けた時刻情報に相当するIピクチャの拡張ビットタイムスタンプを特定し、該特定したIピクチャの拡張ビットタイムスタンプに対応する位置情報を基に、前記格納手段からIピクチャの符号を読み出し、該読み出したIピクチャの符号と共に、当該Iピクチャの拡張ビットタイムスタンプを前記解析手段に出力する手段と、
前記Iピクチャの符号を読み出した後に、前記格納手段から読み出した各ピクチャの符号と共に、前記Iピクチャの拡張ビットタイムスタンプを前記出力手段に出力する手段と、
を有し、
前記解析手段は、
前記読出手段から受け付けた各ピクチャの符号を解析し、前記各ピクチャのビットタイムスタンプを取得し、該取得した各ピクチャのビットタイムスタンプを基に、前記読出手段から受け付けた前記Iピクチャの拡張ビットタイムスタンプを補正し、各ピクチャのビットタイムスタンプをMPEG規格の時刻情報の上限値以上に拡張した各ピクチャの拡張ビットタイムスタンプを算出し、該算出した各ピクチャの拡張ビットタイムスタンプと、前記各ピクチャの符号と、を前記出力手段に出力し、
前記出力手段は、
前記解析手段から受け付けた各ピクチャの符号と、前記各ピクチャの拡張ビットタイムスタンプと、を対応付けて管理することを特徴とする請求項5記載の再生装置。
The first management means includes
Managing the time information of the code of the I picture as an extended bit time stamp of the I picture that is extended to the upper limit of the time information of the MPEG standard,
The reading means includes
When a reproduction request is received, the first management means is referred to identify an extended bit time stamp of the I picture corresponding to the time information received at the time of the reproduction request, and the extended bit time stamp of the specified I picture Based on the corresponding position information, reads the code of the I picture from the storage means, and outputs the I bit extension bit time stamp of the I picture to the analysis means together with the read I picture code;
Means for outputting the extended bit time stamp of the I picture to the output means together with the code of each picture read from the storage means after reading the code of the I picture;
Have
The analysis means includes
Analyzing the sign of each picture received from the reading means, obtaining the bit time stamp of each picture, and based on the obtained bit time stamp of each picture, the extension bit of the I picture received from the reading means Correcting the time stamp, calculating an extended bit time stamp of each picture obtained by extending the bit time stamp of each picture to the upper limit value of the time information of the MPEG standard, and calculating the extended bit time stamp of each picture, A picture code and the output means,
The output means includes
6. The playback apparatus according to claim 5, wherein the code of each picture received from the analysis unit and the extended bit time stamp of each picture are managed in association with each other.
前記読出手段が読み出した符号を解析し、前記符号のMPEG規格の時刻情報を取得する解析手段を有し、
前記第1の管理手段は、
各ピクチャの符号の時刻情報と位置情報とを対応付けて管理し、
前記読出手段は、
再生要求を受け付けた場合に、前記第1の管理手段を参照し、再生要求時に受け付けた時刻情報に相当するピクチャの符号の時刻情報を特定し、該特定したピクチャの符号の時刻情報に対応する位置情報を基に、前記格納手段からピクチャの符号を読み出し、該読み出したピクチャの符号と共に、当該ピクチャの符号の時刻情報を前記解析手段に出力する手段と、
前記ピクチャの符号を読み出した後に、前記格納手段から読み出した各ピクチャの符号と共に、前記第1の管理手段に管理されている各ピクチャの符号の時刻情報を前記出力手段に出力する手段と、
を有し、
前記解析手段は、
前記読出手段から受け付けた各ピクチャの符号と、前記各ピクチャの符号の時刻情報と、を前記出力手段に出力し、
前記出力手段は、
前記解析手段から受け付けた各ピクチャの符号と、前記各ピクチャの符号の時刻情報と、を対応付けて管理することを特徴とする請求項3または4記載の再生装置。
Analyzing the code read by the reading means, and having an analysis means for acquiring time information of the MPEG standard of the code,
The first management means includes
Manage the time information and position information of the code of each picture in association with each other,
The reading means includes
When a playback request is received, the first management means is referred to, the time information of the code of the picture corresponding to the time information received at the time of the playback request is specified, and the time information of the code of the specified picture is handled. Means for reading a code of a picture from the storage means based on position information, and outputting time information of the code of the picture to the analyzing means together with the code of the read picture;
Means for outputting the time information of the code of each picture managed by the first management means to the output means together with the code of each picture read from the storage means after reading the code of the picture;
Have
The analysis means includes
The code of each picture received from the reading means and the time information of the code of each picture are output to the output means,
The output means includes
5. The playback apparatus according to claim 3, wherein the code of each picture received from the analyzing unit and the time information of the code of each picture are managed in association with each other.
前記読出手段は、
再生要求を受け付けた場合に、前記第1の管理手段を参照し、再生要求時に受け付けた時刻情報に相当するピクチャの符号の時刻情報を特定し、該特定したピクチャの符号の時刻情報に対応する位置情報を基に、前記格納手段からピクチャの符号を読み出し、該読み出したピクチャの符号と共に、当該ピクチャの符号の時刻情報をMPEG規格の時刻情報の上限値以上に拡張した拡張ビットタイムスタンプを前記解析手段に出力する手段と、
前記ピクチャの符号を読み出した後に、前記格納手段から読み出した各ピクチャの符号と共に、前記第1の管理手段に管理されている各ピクチャの符号の時刻情報をMPEG規格の時刻情報の上限値以上に拡張した拡張ビットタイムスタンプを前記出力手段に出力する手段と、
を有し、
前記解析手段は、
前記読出手段から受け付けた各ピクチャの符号と、各ピクチャの拡張ビットタイムスタンプと、を前記出力手段に出力し、
前記出力手段は、
前記解析手段から受け付けた各ピクチャの符号と、前記各ピクチャの拡張ビットタイムスタンプと、を対応付けて管理することを特徴とする請求項10記載の再生装置。
The reading means includes
When a playback request is received, the first management means is referred to, the time information of the code of the picture corresponding to the time information received at the time of the playback request is specified, and the time information of the code of the specified picture is handled. Based on the position information, the code of the picture is read out from the storage means, and the extended bit time stamp obtained by extending the time information of the code of the picture to the upper limit value of the time information of the MPEG standard together with the code of the read picture Means for outputting to the analysis means;
After reading the code of the picture, together with the code of each picture read from the storage means, the time information of the code of each picture managed by the first management means is equal to or higher than the upper limit value of the time information of the MPEG standard Means for outputting an extended extended bit time stamp to the output means;
Have
The analysis means includes
Outputting the sign of each picture received from the reading means and the extended bit time stamp of each picture to the output means;
The output means includes
11. The playback apparatus according to claim 10, wherein the code of each picture received from the analysis unit and the extended bit time stamp of each picture are managed in association with each other.
前記第1の管理手段は、
前記各ピクチャの符号の時刻情報を、MPEG規格の時刻情報の上限値以上に拡張した拡張ビットタイムスタンプとして管理し、
前記読出手段は、
再生要求を受け付けた場合に、前記第1の管理手段を参照し、再生要求時に受け付けた時刻情報に相当する拡張ビットタイムスタンプを特定し、該特定した拡張ビットタイムスタンプに対応する位置情報を基に、前記格納手段からピクチャの符号を読み出し、該読み出したピクチャの符号と共に、当該ピクチャの拡張ビットタイムスタンプを前記解析手段に出力する手段と、
前記ピクチャの符号を読み出した後に、前記格納手段から読み出した各ピクチャの符号と共に、前記第1の管理手段に管理されている各ピクチャの拡張ビットタイムスタンプを前記出力手段に出力する手段と、
を有し、
前記解析手段は、
前記読出手段から受け付けた各ピクチャの符号と、各ピクチャの拡張ビットタイムスタンプと、を前記出力手段に出力し、
前記出力手段は、
前記解析手段から受け付けた各ピクチャの符号と、前記各ピクチャの拡張ビットタイムスタンプと、を対応付けて管理することを特徴とする請求項10記載の再生装置。
The first management means includes
Managing the time information of the code of each picture as an extended bit time stamp that is expanded to the upper limit value of the time information of the MPEG standard,
The reading means includes
When a reproduction request is received, the first management means is referred to, an extended bit time stamp corresponding to the time information received at the time of the reproduction request is specified, and position information corresponding to the specified extended bit time stamp is used as a reference. A means for reading the code of the picture from the storage means, and outputting the extension bit time stamp of the picture to the analysis means together with the code of the read picture;
Means for outputting the extended bit time stamp of each picture managed by the first management means to the output means together with the code of each picture read from the storage means after reading the code of the picture;
Have
The analysis means includes
Outputting the sign of each picture received from the reading means and the extended bit time stamp of each picture to the output means;
The output means includes
11. The playback apparatus according to claim 10, wherein the code of each picture received from the analysis unit and the extended bit time stamp of each picture are managed in association with each other.
MPEG(Moving Picture Expert Group)規格の符号を格納する格納手段と、
前記符号の時刻情報と位置情報とを対応付けて管理する第1の管理手段と、
前記第1の管理手段を参照し、前記格納手段に格納された前記符号の編集操作を行う編集手段と、を有し、
前記編集手段は、
MPEG規格の時刻情報の上限を越えるピクチャの編集操作を受け付けた場合に、前記第1の管理手段を参照し、編集操作時に受け付けたピクチャの時刻情報に近いIピクチャの符号の時刻情報を特定し、該特定したIピクチャの符号の時刻情報に対応する位置情報を特定する第1の特定手段と、
前記格納手段を参照し、前記特定した位置情報の符号を読み出し、該読み出した符号を解析し、各ピクチャの時刻情報を取得する第1の取得手段と、
前記取得した各ピクチャの時刻情報を基に、編集操作時に受け付けた前記ピクチャの時刻情報に近いピクチャの位置情報を特定する第2の特定手段と、
前記特定したピクチャの位置情報を基に、前記格納手段に格納された前記符号の編集操作を行う第1の編集操作手段と、
を有することを特徴とする再生装置。
Storage means for storing MPEG (Moving Picture Expert Group) standard codes;
First management means for managing time information and position information of the code in association with each other;
Editing means for editing the code stored in the storage means with reference to the first management means,
The editing means includes
When a picture editing operation exceeding the upper limit of the time information of the MPEG standard is accepted, the time information of the code of the I picture that is close to the time information of the picture accepted at the time of the editing operation is identified with reference to the first management means. First specifying means for specifying position information corresponding to time information of the code of the specified I picture;
A first acquisition unit that reads the code of the specified position information with reference to the storage unit, analyzes the read code, and acquires time information of each picture;
Second specifying means for specifying position information of a picture close to the time information of the picture received at the time of editing operation based on the acquired time information of each picture;
First editing operation means for performing an editing operation of the code stored in the storage means based on the position information of the specified picture;
A playback apparatus comprising:
前記第1の管理手段で管理する前記時刻情報と前記位置情報とはVideo符号の時刻情報と位置情報であり、
前記編集手段は、
前記第1の管理手段を参照し、前記格納手段に格納されたVideo符号の編集操作を行うことを特徴とする請求項13記載の再生装置。
The time information and the position information managed by the first management means are time information and position information of a video code,
The editing means includes
14. The playback apparatus according to claim 13, wherein the video code stored in the storage unit is edited with reference to the first management unit.
Audio符号の編集操作を行う場合は、
前記編集手段は、
前記格納手段を参照し、前記特定したピクチャの位置情報に近いAudio符号の時刻情報を取得する第2の取得手段と、
前記取得したAudio符号の時刻情報を、MPEG規格の時刻情報の上限を拡張した値に変換する変換手段と、
前記変換したAudio符号の時刻情報に相当するAudio符号の位置情報を基に、前記格納手段に格納されたAudio符号の編集操作を行う第2の編集操作手段と、
を有することを特徴とする請求項14記載の再生装置。
When editing audio code,
The editing means includes
A second acquisition unit that refers to the storage unit and acquires time information of an Audio code close to the position information of the specified picture;
Conversion means for converting the time information of the acquired Audio code into a value obtained by extending the upper limit of the time information of the MPEG standard;
A second editing operation means for performing an editing operation of the Audio code stored in the storage means based on the position information of the Audio code corresponding to the time information of the converted Audio code;
15. The reproducing apparatus according to claim 14, further comprising:
前記変換手段は、
前記第1の管理手段を参照し、前記特定したピクチャの位置情報に近いVideo符号の位置情報を特定し、該特定したVideo符号の位置情報に対応するVideo符号の時刻情報を特定する手段と、
前記特定したVideo符号の時刻情報を、MPEG規格の時刻情報の上限を拡張した値の時刻情報に変換する手段と、
前記変換したVideo符号の時刻情報を、前記MPEG規格の時刻情報の上限より大きい値と、前記MPEG規格の時刻情報の上限以下の値と、に分ける手段と、
前記MPEG規格の時刻情報の上限より大きい値と、前記MPEG規格の時刻情報の上限以下の値と、に応じて、前記取得したAudio符号の時刻情報を、MPEG規格の時刻情報の上限を拡張した値に変換する手段と、
を有することを特徴とする請求項15記載の再生装置。
The converting means includes
Means for referring to the first management means, specifying position information of the Video code close to the position information of the specified picture, and specifying time information of the Video code corresponding to the position information of the specified Video code;
Means for converting the time information of the identified video code into time information having a value obtained by extending the upper limit of the time information of the MPEG standard;
Means for dividing the time information of the converted video code into a value larger than an upper limit of the time information of the MPEG standard and a value less than an upper limit of the time information of the MPEG standard;
In accordance with a value larger than the upper limit of the time information of the MPEG standard and a value less than or equal to the upper limit of the time information of the MPEG standard, the upper limit of the time information of the MPEG standard is extended to the time information of the acquired Audio code. Means for converting to a value;
16. The playback apparatus according to claim 15, further comprising:
MPEG(Moving Picture Expert Group)規格の符号を格納する格納手段と、前記符号の時刻情報と位置情報とを対応付けて管理する第1の管理手段と、出力手段と、を有して構成する再生装置で行う制御方法であって、
再生要求を受け付けた場合に、前記第1の管理手段を参照し、再生要求時に受け付けた時刻情報に対応する位置情報を基に、前記格納手段から符号を読み出す読出工程と、
前記読出工程で読み出した符号を前記出力手段で再生する出力工程と、を有し、
前記読出工程は、
前記格納手段から読み出した符号と共に、前記符号の時刻情報を前記出力手段に出力する工程を有し、
前記出力工程は、
前記出力手段が受け付けた符号と、当該符号の時刻情報と、を対応付けて第2の管理手段で管理する工程を有し、
前記第2の管理手段は、前記符号の時刻情報を、MPEG規格の時刻情報の上限を拡張した値で管理することを特徴とする制御方法。
Reproduction comprising: storage means for storing MPEG (Moving Picture Expert Group) standard codes; first management means for managing time information and position information of the codes in association with each other; and output means A control method performed by an apparatus,
A reading step of reading a code from the storage unit based on position information corresponding to the time information received at the time of the reproduction request with reference to the first management unit when the reproduction request is received;
An output step of reproducing the code read in the reading step by the output means,
The reading step includes
A step of outputting the time information of the code to the output means together with the code read from the storage means;
The output step includes
A step of associating the code received by the output means with the time information of the code and managing it by the second management means,
The second management means manages the time information of the code with a value obtained by extending an upper limit of time information of the MPEG standard.
MPEG(Moving Picture Expert Group)規格の符号を格納する格納手段と、前記符号の時刻情報と位置情報とを対応付けて管理する第1の管理手段と、を有して構成する再生装置で行う制御方法であって、
MPEG規格の時刻情報の上限を越えるピクチャの編集操作を受け付けた場合に、前記第1の管理手段を参照し、編集操作時に受け付けたピクチャの時刻情報に近いIピクチャの符号の時刻情報を特定し、該特定したIピクチャの符号の時刻情報に対応する位置情報を特定する第1の特定工程と、
前記格納手段を参照し、前記特定した位置情報の符号を読み出し、該読み出した符号を解析し、各ピクチャの時刻情報を取得する第1の取得工程と、
前記取得した各ピクチャの時刻情報を基に、編集操作時に受け付けた前記ピクチャの時刻情報に近いピクチャの位置情報を特定する第2の特定工程と、
前記特定したピクチャの位置情報を基に、前記格納手段に格納された前記符号の編集操作を行う第1の編集操作工程と、
を有することを特徴とする制御方法。
Control performed by a playback apparatus configured to include storage means for storing MPEG (Moving Picture Expert Group) standard codes and first management means for managing time information and position information of the codes in association with each other. A method,
When a picture editing operation exceeding the upper limit of the time information of the MPEG standard is accepted, the time information of the code of the I picture that is close to the time information of the picture accepted at the time of the editing operation is identified with reference to the first management means. A first specifying step of specifying position information corresponding to the time information of the code of the specified I picture;
A first acquisition step of referring to the storage means, reading a code of the specified position information, analyzing the read code, and acquiring time information of each picture;
A second specifying step of specifying, based on the acquired time information of each picture, position information of a picture close to the time information of the picture received at the time of an editing operation;
A first editing operation step of performing an editing operation of the code stored in the storage unit based on the position information of the specified picture;
A control method characterized by comprising:
MPEG(Moving Picture Expert Group)規格の符号を格納する格納手段と、前記符号の時刻情報と位置情報とを対応付けて管理する第1の管理手段と、出力手段と、を有して構成する再生装置のコンピュータに実行させるプログラムであって、
再生要求を受け付けた場合に、前記第1の管理手段を参照し、再生要求時に受け付けた時刻情報に対応する位置情報を基に、前記格納手段から符号を読み出す読出処理と、
前記読出処理で読み出した符号を前記出力手段で再生する出力処理と、を前記コンピュータに実行させ、
前記読出処理は、
前記格納手段から読み出した符号と共に、前記符号の時刻情報を前記出力手段に出力する処理を有し、
前記出力処理は、
前記出力手段が受け付けた符号と、当該符号の時刻情報と、を対応付けて第2の管理手段で管理する処理を有し、
前記第2の管理手段は、前記符号の時刻情報を、MPEG規格の時刻情報の上限を拡張した値で管理することを特徴とするプログラム。
Reproduction comprising: storage means for storing MPEG (Moving Picture Expert Group) standard codes; first management means for managing time information and position information of the codes in association with each other; and output means A program to be executed by a computer of a device,
A read process for reading a code from the storage unit based on the position information corresponding to the time information received at the time of the reproduction request with reference to the first management unit when the reproduction request is received;
Causing the computer to execute an output process for reproducing the code read in the read process by the output means;
The reading process includes
A process of outputting time information of the code to the output means together with the code read from the storage means,
The output process is:
A process in which the code received by the output means and the time information of the code are associated with each other and managed by the second management means;
The second management means manages the time information of the code with a value obtained by extending an upper limit of time information of the MPEG standard.
MPEG(Moving Picture Expert Group)規格の符号を格納する格納手段と、前記符号の時刻情報と位置情報とを対応付けて管理する第1の管理手段と、を有して構成する再生装置のコンピュータに実行させるプログラムであって、
MPEG規格の時刻情報の上限を越えるピクチャの編集操作を受け付けた場合に、前記第1の管理手段を参照し、編集操作時に受け付けたピクチャの時刻情報に近いIピクチャの符号の時刻情報を特定し、該特定したIピクチャの符号の時刻情報に対応する位置情報を特定する第1の特定処理と、
前記格納手段を参照し、前記特定した位置情報の符号を読み出し、該読み出した符号を解析し、各ピクチャの時刻情報を取得する第1の取得処理と、
前記取得した各ピクチャの時刻情報を基に、編集操作時に受け付けた前記ピクチャの時刻情報に近いピクチャの位置情報を特定する第2の特定処理と、
前記特定したピクチャの位置情報を基に、前記格納手段に格納された前記符号の編集操作を行う第1の編集操作処理と、を、コンピュータに実行させることを特徴とするプログラム。
In a computer of a playback apparatus configured to have storage means for storing MPEG (Moving Picture Expert Group) standard codes and first management means for managing time information and position information of the codes in association with each other A program to be executed,
When a picture editing operation exceeding the upper limit of the time information of the MPEG standard is accepted, the time information of the code of the I picture that is close to the time information of the picture accepted at the time of the editing operation is identified with reference to the first management means. A first specifying process for specifying position information corresponding to the time information of the code of the specified I picture;
A first acquisition process of referring to the storage means, reading a code of the identified position information, analyzing the read code, and acquiring time information of each picture;
A second specifying process for specifying position information of a picture close to the time information of the picture received at the time of editing operation based on the acquired time information of each picture;
A program for causing a computer to execute a first editing operation process for performing an editing operation of the code stored in the storage unit based on position information of the specified picture.
JP2010018689A 2009-02-13 2010-01-29 Playback apparatus, control method, and program Active JP5710130B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010018689A JP5710130B2 (en) 2009-02-13 2010-01-29 Playback apparatus, control method, and program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2009031810 2009-02-13
JP2009031810 2009-02-13
JP2010018689A JP5710130B2 (en) 2009-02-13 2010-01-29 Playback apparatus, control method, and program

Publications (2)

Publication Number Publication Date
JP2010213261A true JP2010213261A (en) 2010-09-24
JP5710130B2 JP5710130B2 (en) 2015-04-30

Family

ID=42972918

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010018689A Active JP5710130B2 (en) 2009-02-13 2010-01-29 Playback apparatus, control method, and program

Country Status (1)

Country Link
JP (1) JP5710130B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018207499A (en) * 2014-01-02 2018-12-27 エルジー エレクトロニクス インコーポレイティド Broadcast transmission device and operating method thereof, and broadcast reception device and operating method thereof

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03255748A (en) * 1990-03-06 1991-11-14 Oki Electric Ind Co Ltd Packet order arranging system
JPH10136355A (en) * 1996-05-10 1998-05-22 General Instr Corp Of Delaware Error detection and recovery for high speed isochronous data in mpeg-2 data stream
JP2008227795A (en) * 2007-03-12 2008-09-25 Matsushita Electric Ind Co Ltd Stream receiver

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03255748A (en) * 1990-03-06 1991-11-14 Oki Electric Ind Co Ltd Packet order arranging system
JPH10136355A (en) * 1996-05-10 1998-05-22 General Instr Corp Of Delaware Error detection and recovery for high speed isochronous data in mpeg-2 data stream
JP2008227795A (en) * 2007-03-12 2008-09-25 Matsushita Electric Ind Co Ltd Stream receiver

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
大久保 榮, 改訂三版H.264/AVC教科書 第1版 H.264/AVC TEXTBOOK, vol. 第1版, JPN6014000512, 1 January 2009 (2009-01-01), pages 223, ISSN: 0002720617 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018207499A (en) * 2014-01-02 2018-12-27 エルジー エレクトロニクス インコーポレイティド Broadcast transmission device and operating method thereof, and broadcast reception device and operating method thereof
US10694260B2 (en) 2014-01-02 2020-06-23 Lg Electronics Inc. Broadcast transmission device and operating method thereof, and broadcast reception device and operating method thereof
US11057684B2 (en) 2014-01-02 2021-07-06 Lg Electronics Inc. Broadcast transmission device and operating method thereof, and broadcast reception device and operating method thereof

Also Published As

Publication number Publication date
JP5710130B2 (en) 2015-04-30

Similar Documents

Publication Publication Date Title
US7978955B2 (en) Recording device, recording method, reproducing device, reproducing method, program, and recording medium
EP2012322B1 (en) Recording/reproducing apparatus, recording apparatus, reproducing apparatus, recording method, reproducing method and computer program
JP2011103688A (en) Reproducing method
JP2007312246A (en) Recorder, method and program of recording, apparatus, method and program of recording reproduction, device, method and program of editing
JP2008035394A (en) Recorder, recording method, reproducing device, reproducing method, recording and reproducing device, recording and reproducing method, imaging and recording device and imaging and recording method
JP2009005388A (en) Video information reproducing method and video information reproducing device
US8041179B2 (en) Methods and apparatuses for reproducing and recording still picture and audio data and recording medium having data structure for managing reproduction of still picture and audio data
JP2007305213A (en) Recording device, recording method, and recording program, and imaging device, imaging method, and imaging program
KR101009341B1 (en) A recording apparatus, a reproducing apparatus, a recording method, a reproducing method and the recording medium thereof
JP5710130B2 (en) Playback apparatus, control method, and program
US8331757B2 (en) Time code processing apparatus, time code processing method, program, and video signal playback apparatus
JP2006245744A (en) Video signal recording device, information recording medium, and video signal reproducing device
JP6089970B2 (en) Video data reduction device and playback device
JP5683871B2 (en) Playback apparatus, control method, and program
JP2008134825A (en) Information processor, information processing method and program
JP2010226278A (en) Recording device and method, program, and medium
JP2005020351A (en) Video reproducing device with thumb nail picture creation function and thumb nail picture recording medium
JP4725675B2 (en) Recording / reproducing apparatus, recording apparatus, reproducing apparatus, recording method, reproducing method, and computer program
JP5687867B2 (en) Information processing apparatus, moving image file editing method, and program
JP2009124735A (en) Recording apparatus, recording method, reproducing apparatus, reproducing method, recording/reproducing apparatus, recording/reproducing method, imaging/recording apparatus, and imaging/recording method
JP5863244B2 (en) Editing apparatus, control method, and program
JP2006079712A (en) Recording medium, reproducing device, and recording device
JP5229373B2 (en) Playback device
JP2006013954A (en) Moving image processor, moving image processing method, and program
JP4941528B2 (en) Playback device

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20110830

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141021

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150304

R150 Certificate of patent or registration of utility model

Ref document number: 5710130

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250