JP4566821B2 - Apparatus having moving picture data playing function, moving picture playing program, and moving picture data playing method - Google Patents

Apparatus having moving picture data playing function, moving picture playing program, and moving picture data playing method Download PDF

Info

Publication number
JP4566821B2
JP4566821B2 JP2005147976A JP2005147976A JP4566821B2 JP 4566821 B2 JP4566821 B2 JP 4566821B2 JP 2005147976 A JP2005147976 A JP 2005147976A JP 2005147976 A JP2005147976 A JP 2005147976A JP 4566821 B2 JP4566821 B2 JP 4566821B2
Authority
JP
Japan
Prior art keywords
frame
moving image
data file
stream cache
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005147976A
Other languages
Japanese (ja)
Other versions
JP2006325086A5 (en
JP2006325086A (en
Inventor
智晃 吉田
陽介 久保田
大一 小出
雅彦 岸田
春樹 徳丸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2005147976A priority Critical patent/JP4566821B2/en
Publication of JP2006325086A publication Critical patent/JP2006325086A/en
Publication of JP2006325086A5 publication Critical patent/JP2006325086A5/ja
Application granted granted Critical
Publication of JP4566821B2 publication Critical patent/JP4566821B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Television Signal Processing For Recording (AREA)

Description

この発明は、動画ファイルの再生処理をスムースに行うための技術に関するものである。   The present invention relates to a technique for smoothly performing reproduction processing of a moving image file.

動画データは、データ容量が大きくなるため、圧縮された上、ハードディスクなどの可動部を有する大容量記録装置に動画データファイルとして記録されることが多い。動画データの圧縮方式としては、MPEGが広く用いられている。   Since moving image data has a large data capacity, it is often compressed and recorded as a moving image data file on a large-capacity recording apparatus having a movable part such as a hard disk. MPEG is widely used as a compression method for moving image data.

MPEG方式の動画データは、Iピクチャ、Pピクチャ、Bピクチャの3種類のデータによって構成される。Iピクチャはフレーム内符号化によって圧縮されており、それ単独で画像を復元することができる。Pピクチャは、過去のフレーム画像に基づく動き補償予測を用いたフレーム間予測により圧縮されている。Bピクチャは、過去または未来のフレーム画像に基づく動き補償予測を用いたフレーム間予測により圧縮されている。MPEG方式の動画データを記録したり伝送したり場合には、このようなIピクチャ、Pピクチャ、Bピクチャをグループ化してGOPとすることが多い。また、このGOPを、さらにパケット化することも多い。   MPEG moving image data is composed of three types of data: I picture, P picture, and B picture. An I picture is compressed by intraframe coding, and can restore an image by itself. The P picture is compressed by inter-frame prediction using motion compensation prediction based on past frame images. B pictures are compressed by inter-frame prediction using motion compensated prediction based on past or future frame images. When recording or transmitting MPEG moving image data, such I pictures, P pictures, and B pictures are often grouped into a GOP. In many cases, the GOP is further packetized.

動画データの再生装置、編集装置、送信装置などは、対象とするフレームを含むGOPを動画データをハードディスクから読み出し、デコードして対象フレームを復元する。   A moving image data reproducing device, editing device, transmitting device, etc. reads a GOP including a target frame from the hard disk and decodes it to restore the target frame.

特開2003−153261JP 2003-153261 A

このような動画データファイルを読み出して再生する装置(再生装置、編集装置、送信装置など)においては、可動部があるためアクセス時間を要するハードディスクからのトータルな読み出し時間をいかに短くするかが重要である。   In a device that reads and plays such a video data file (playback device, editing device, transmission device, etc.), it is important how to shorten the total read time from the hard disk that requires access time due to the movable parts. is there.

いずれの装置においても、再生時の時間経過と同じ時間経過にて各フレームを再生することが好ましい。しかしながら、圧縮された動画データを伸張するための処理時間を要する上、ハードディスクへのアクセス時間が必要であるため、再生速度を維持することが困難な場合があった。特に、逆方向への再生を行う場合には、ハードディスクへの逆方向へのアクセスが発生し顕著な問題となっていた。同様に、トランジションなどの特殊効果などの再生の場合には、離れた場所に記録されている2つの動画データファイルに対して、交互にアクセスを行わねばならず、再生時間の遅延が特に問題であった。このような問題は、MPEG方式の動画データだけでなく、他のエンコード形式の動画データについても同様であった。   In any apparatus, it is preferable that each frame is played back at the same time as the playback time. However, since processing time for decompressing compressed moving image data is required and access time to the hard disk is required, it may be difficult to maintain the playback speed. In particular, when reproducing in the reverse direction, access to the hard disk in the reverse direction occurs, which is a significant problem. Similarly, in the case of playback of special effects such as transitions, two moving image data files recorded at separate locations must be accessed alternately, and playback time delay is a particular problem. there were. Such a problem is not limited to MPEG moving image data but also to other encoded moving image data.

特許文献1には、上記のような再生時間の遅れが生じることを前提に、これに対する対応を施した装置を開示している。しかしながら、これは、上記の問題を直接的に解決するものではない。   Japanese Patent Application Laid-Open No. 2004-228561 discloses a device that has taken measures against this on the assumption that the reproduction time is delayed as described above. However, this does not directly solve the above problem.

この発明は上記のような問題点を解決して、可動式の記録装置にエンコードされた動画データが記録されている場合であっても、迅速に目的とするフレームを得ることのできる装置を提供することを目的とする。   The present invention solves the above problems and provides a device that can quickly obtain a target frame even when encoded moving image data is recorded in a movable recording device. The purpose is to do.

(1)(2)この発明の一側面に係る動画再生機能を有する装置は、動画を構成するフレームをエンコードしてグル−プ化した動画データファイル、該動画データファイルのグループ情報を記述した動画インデックスファイル、該動画データファイルの一部である各動画素材の開始フレームおよび終了フレーム順番情報を特定した編集構成インデックスファイル可動式記録部に記録し、アクセスする記録手段と前記編集構成データファイルに基づいて必要となる複数フレームを予想する予測手段と、前記予測手段による当該予想複数フレームに対応する動画データファイルの一部を、前記可動式記録部から読み出して、動画データファイルのフレーム群を記録するための非可動式のストリームキャッシュ記録部に記憶するストリームキャッシュ処理手段と、前記編集構成データファイルに基づいて次に必要な対象フレームを特定する特定手段と、前記ストリームキャッシュ手段に記憶された動画データファイルに基づいて、前記特定手段により特定された対象フレームをデコードするフレーム復元手段とを備えている。 (1) (2) An apparatus having a video playback function according to one aspect of the present invention is a video data file in which frames constituting a video are encoded and grouped, and a video that describes group information of the video data file record the index file, the editing configuration index file to identify the start frame and end frame order information of each video material which is part of the moving picture data file movable recording unit, recording means for accessing the edit configuration data file prediction means for predicting a plurality of frames required based on a part of the moving image data file corresponding to the predicted plurality of frames by the prediction means, reads from said movable recording unit, a frame group of the moving image data files stream cache processing for storing the stream cache recording portion of the non-movable for recording Decoding means, specifying means for specifying a required next target frame based on the editing configuration data file, based on the stream cache means stored moving picture data file, the target frame specified by the specifying means Frame restoring means.

予測手段を設けて、複数フレームに対応する動画データファイルの一部分をまとめて可動式記録部から読み出し、非可動式の記録部に記録するようにしているので、フレームを取得するためのトータルの時間を減少させることができる。   Prediction means is provided so that a part of the moving image data file corresponding to a plurality of frames is read from the movable recording unit and recorded in the non-movable recording unit, so the total time for acquiring the frame Can be reduced.

(3)この発明の一側面に係る動画再生プログラムは、可動式記録部に記録された動画データファイルは、エンコードした複数フレームの動画をグループ化してグループデータとし、当該グループデータを時系列順に配置したものであり、
前記動画インデックスファイルは、動画データファイル中の各グループデータの代表点の記録位置をアクセス位置として記述するとともに各グループデータに含まれる代表フレームの、動画データファイル全体のフレームにおける順番を示す代表フレーム順番情報を記述したものであり、前記ストリームキャッシュ処理手段は、予想複数フレームの両端のフレーム順番情報と前記動画インデックスファイルの代表フレーム順番情報に基づいて、予想複数フレームを含むグループデータを特定し、当該グループデータのアクセス位置に基づいて、前記可動式記録部からグループデータを取得する ことを特徴としている。
(3) In the moving image reproduction program according to one aspect of the present invention, the moving image data file recorded in the movable recording unit groups the encoded plural frames of moving images into group data, and arranges the group data in chronological order. And
The moving image index file describes the recording position of the representative point of each group data in the moving image data file as an access position, and represents the order of the representative frames included in each group data in the entire moving image data file. The stream cache processing means identifies group data including the predicted multiple frames based on the frame order information at both ends of the predicted multiple frames and the representative frame order information of the video index file, and Based on the access position of the group data, the group data is acquired from the movable recording unit.

動画インデックスファイルを設けているので、予想複数フレームを含むグループデータを、可動式記録部から迅速に読み出すことができる。 Since the moving image index file is provided, group data including a plurality of expected frames can be quickly read from the movable recording unit.

(4)この発明の一側面に係る動画再生プログラムは、可動式記録部に記録された動画データファイルは、エンコードした複数フレームの動画をグループ化してグループデータとし、当該グループデータをパケット化したパケットデータを時系列順に配置したものであり、動画インデックスファイルは、動画データファイル中の各グループデータを含むパケットの代表点の記録位置をアクセス位置として記述し、各グループデータに含まれる代表フレームの、動画データファイル全体のフレームにおける順番を示す代表フレーム順番情報を記述したものであり、前記ストリームキャッシュ処理手段は、a)予想複数フレームの両端のフレーム順番情報と前記動画インデックスファイルの代表フレーム順番情報に基づいて、予想複数フレームを含むグループデータを特定し、b)当該グループデータを含むパケットのアクセス位置に基づいて、前記可動式記録部からグループデータを含むパケットを取得し、c)当該パケットからグループデータを復元してストリームキャッシュ記録部に記録することを特徴としている。 (4) In the moving image reproduction program according to one aspect of the present invention , the moving image data file recorded in the movable recording unit is a packet obtained by grouping encoded plural frames of moving images into group data and packetizing the group data. Data is arranged in chronological order, and the moving image index file describes the recording position of the representative point of the packet including each group data in the moving image data file as the access position, and the representative frame included in each group data, Representative frame order information indicating the order of frames in the entire moving image data file is described , and the stream cache processing means a) includes frame order information at both ends of a plurality of predicted frames and representative frame order information in the moving image index file. Based on the expected multiple frames B) acquiring a packet including group data from the movable recording unit based on the access position of the packet including the group data, and c) restoring the group data from the packet to obtain a stream cache recording unit. It is characterized by recording.

動画インデックスファイルを設けているので、予想複数フレームを含むグループデータを、可動式記録部から迅速に読み出すことができる。 Since the moving image index file is provided, group data including a plurality of expected frames can be quickly read from the movable recording unit.

(5)この発明の一側面に係る動画再生プログラムは、ストリームキャッシュ処理手段は、グループデータをストリームキャッシュ部に記録する際に、当該グループデータを構成する少なくとも主要ピクチャーデータの個別フレーム順番情報を算出してストリームキャッシュ部に記録し、前記フレーム復元手段は、前記個別フレーム情報に基づいて、対象フレームの復元に必要なピクチャーデータを特定することを特徴としている。 (5) In the video reproduction program according to one aspect of the present invention , when the stream cache processing unit records the group data in the stream cache unit , the stream cache processing unit calculates individual frame order information of at least main picture data constituting the group data. The frame restoring means specifies the picture data necessary for restoring the target frame based on the individual frame information.

したがって、フレーム復元手段は、迅速に対象フレームを復元を行うことができる。   Therefore, the frame restoration means can quickly restore the target frame.

(6)この発明の一側面に係る動画再生プログラムは、ストリームキャッシュ処理手段は、グールプデータをストリームキャッシュ部に記録する際に、当該グループデータを構成する少なくとも主要ピクチャーデータのストリームキャッシュ記録部における記録位置を個別アクセス位置としてストリームキャッシュ記録部に記録し、前記フレーム復元手段は、前記個別フレーム情報に基づいて、対象フレームの復元に必要なピクチャーデータを特定することを特徴としている。 (6) In the video reproduction program according to one aspect of the present invention , when the stream cache processing unit records the group data in the stream cache unit, the stream cache recording unit records at least the main picture data constituting the group data in the stream cache recording unit. The position is recorded in the stream cache recording unit as an individual access position, and the frame restoration means identifies picture data necessary for restoration of the target frame based on the individual frame information.

したがって、フレーム復元手段は、迅速に対象フレームを復元を行うことができる。   Therefore, the frame restoration means can quickly restore the target frame.

(7)この発明の一側面に係る動画再生プログラムは、フレーム復元手段は、対象フレームを得るために復元した一以上のフレームをデコード済キャッシュ記録部に記録しておき、新たに必要となった対象フレームについて、デコード済キャッシュ記録部に記録されていればこれから取得し、デコード済キャッシュ記録部に記録されていなければ、ストリームキャッシュ記録部から取得して復元することを特徴としている。 (7) In the moving image reproduction program according to one aspect of the present invention , the frame restoration means records one or more frames restored to obtain the target frame in the decoded cache recording unit, and is newly required. If the target frame is recorded in the decoded cache recording unit, it is acquired from this, and if it is not recorded in the decoded cache recording unit, it is acquired from the stream cache recording unit and restored.

したがって、フレーム復元手段は、直近に使用したフレームを迅速に得ることができる。   Therefore, the frame restoration means can quickly obtain the most recently used frame.

(8)この発明の一側面に係る動画再生プログラムは、フレーム復元手段は、対象フレームがデコード済キャッシュ記録およびストリームキャッシュ記録部のいずれにも記録されていない場合には、可動式記録部から取得して復元することを特徴としている。 (8) In the moving image reproduction program according to one aspect of the present invention , the frame restoration means starts from the movable recording unit when the target frame is not recorded in either the decoded cache recording unit or the stream cache recording unit. It is characterized by acquisition and restoration.

したがって、確実に対象フレームを取得することができる。   Therefore, it is possible to reliably acquire the target frame.

(9)この発明の一側面に係る動画再生プログラムは、ストリームキャッシュ処理手段または前記予測手段は、予測複数フレームが、予想再生順序において降順であるか否かを、フレーム順番情報に基づいて判断し、降順であれば昇順に修正することを特徴としている。 (9) In the video reproduction program according to one aspect of the present invention , the stream cache processing unit or the prediction unit determines whether or not the predicted plurality of frames are in descending order in the expected reproduction order based on the frame order information. In the descending order, the correction is made in ascending order.

したがって、可動式記録部からの予測複数フレームの取り出しを迅速に行うことができる。   Therefore, it is possible to quickly extract a plurality of predicted frames from the movable recording unit.

(12)この発明の一側面に係る動画再生方法は、動画を構成するフレームをエンコードした動画データファイルを記録し、アクセスのための可動部を有する可動式記録部と、動画の一部である各動画素材の開始フレーム順番情報および終了フレーム順番情報を特定する編集構成データファイルを記録した編集構成データファイル記録部と、動画データファイルのフレーム群を記録するためのストリームキャッシュ記録部にアクセス可能なコンピュータによって動画を再生する方法であって、予測手段により、編集構成データファイルに基づいて必要となる複数フレームを予想し、ストリームキャッシュ処理手段により、予測手段による当該予想複数フレームに対応する動画データファイルの一部を、可動式記録部から読み出して、ストリームキャッシュ記録部に記憶し、特定手段により、編集構成データファイルに基づいて次に必要な対象フレームを特定し、ストリーム復元手段により、ストリームキャッシュ手段に記憶された動画データファイルに基づいて、前記対象フレームをデコードし、表示部により、フレーム復元手段によって復元されたフレームを表示することを特徴としている。 (12) A moving image reproduction method according to one aspect of the present invention is a moving recording unit that records a moving image data file in which frames constituting a moving image are encoded and has a movable unit for access, and a part of the moving image. An editing configuration data file recording unit that records an editing configuration data file that specifies start frame order information and end frame order information of each moving image material, and a stream cache recording unit that records a frame group of the moving image data file are accessible. A method of reproducing a moving image by a computer, wherein a plurality of frames required based on the editing configuration data file are predicted by a prediction unit, and a moving image data file corresponding to the predicted plurality of frames by the prediction unit is predicted by a stream cache processing unit A part of the The target frame is specified based on the editing configuration data file by the specifying unit, and the target frame is determined based on the moving image data file stored in the stream cache unit by the stream restoring unit. And the display unit displays the frame restored by the frame restoration means.

複数フレームに対応する動画データファイルの一部分をまとめて可動式記録部から読み出し、非可動式の記録部に記録するようにしているので、フレームを取得するためのトータルの時間を減少させることができる。   Since a part of the moving image data file corresponding to a plurality of frames is collectively read from the movable recording unit and recorded on the non-movable recording unit, the total time for acquiring the frames can be reduced. .

この発明において、「可動式記録部」とは、記録内容にアクセスするために機械的動作が必要な記録装置をいい、ハードディスク、CD−ROMドライブ、DVDドライブなどを含む概念である。実施形態では、ハードディスク2がこれに該当する。   In the present invention, the “movable recording unit” refers to a recording device that requires a mechanical operation to access recorded contents, and includes a hard disk, a CD-ROM drive, a DVD drive, and the like. In the embodiment, the hard disk 2 corresponds to this.

「編集構成データファイル記録部」とは、少なくとも編集構成データを記録するものであり、可動式・非可動式を問わない。実施形態では、ハードディスク2、メモリ34がこれに該当する。   The “editing configuration data file recording unit” records at least editing configuration data, regardless of whether it is movable or non-movable. In the embodiment, the hard disk 2 and the memory 34 correspond to this.

「ストリームキャッシュ記録部」とは、少なくとも動画データファイルの一部を記録するものであり、非可動式のものをいう。ここに「非可動式記録部」とは、記録内容にアクセスするために機械的動作が本質的に必要でない記録装置をいい、RAM、ROM、USBメモリ、メモリカードなどを含む概念である。実施形態では、メモリ34がこれに該当する。   The “stream cache recording unit” is a unit that records at least a part of a moving image data file and is a non-movable type. Here, the “non-movable recording unit” refers to a recording device that essentially does not require a mechanical operation to access the recorded content, and is a concept including a RAM, a ROM, a USB memory, a memory card, and the like. In the embodiment, the memory 34 corresponds to this.

「予測手段」は、実施形態においては、図16のステップS102がこれに対応する。   In the embodiment, “prediction means” corresponds to step S102 in FIG.

「ストリームキャッシュ処理手段」は、実施形態においては、図16のステップS103がこれに対応する。   In the embodiment, “stream cache processing means” corresponds to step S103 in FIG.

「特定手段」は、実施形態においては、図16のステップS104がこれに対応する。   In the embodiment, “identifying means” corresponds to step S104 in FIG.

「フレーム復元手段」は、エンコードされたフレームを復元してフレームを得るものだけでなく、既に復元されて記録されているフレームを取得するものも含む概念である。実施形態においては、図16のステップS105がこれに対応する。   “Frame restoration means” is a concept that includes not only a frame obtained by restoring an encoded frame but also a frame that is already restored and recorded. In the embodiment, step S105 in FIG. 16 corresponds to this.

「フレーム順番情報」とは、少なくとも、フレームの構成順序を明らかにすることのできるデータであり、フレーム番号、当該フレームのファイル開始からの再生時刻などを含む概念である。   The “frame order information” is at least data that can clarify the composition order of frames, and is a concept including a frame number, a reproduction time from the start of a file of the frame, and the like.

「表示部」とは、復元したフレームを表示するものをいう。実施形態においては、ディスプレイ32がこれに該当する。   The “display unit” refers to a unit that displays the restored frame. In the embodiment, the display 32 corresponds to this.

「記録部にアクセスする手段」とは、記録部の内容を読み出したり、記録部に内容を記録したりする手段であり、実施形態においては図16のステップS101、S103、図17のステップS204、図18のステップS301、図19のステップS404等がこれに対応する。   The “means for accessing the recording unit” is means for reading the content of the recording unit or recording the content in the recording unit. In the embodiment, steps S101 and S103 in FIG. 16, step S204 in FIG. Step S301 in FIG. 18, step S404 in FIG. 19, and the like correspond to this.

「プログラム」とは、CPUにより直接実行可能なプログラムだけでなく、ソース形式のプログラム、圧縮処理がされたプログラム、暗号化されたプログラム等を含む概念である。   The “program” is a concept that includes not only a program that can be directly executed by the CPU, but also a source format program, a compressed program, an encrypted program, and the like.

発明を実施するための形態BEST MODE FOR CARRYING OUT THE INVENTION

1.全体構成
図1に、この発明の一実施形態による動画再生装置の機能ブロック図を示す。可動式記録部2には、動画インデックスファイル4、動画データファイル6、編集構成データファイル12が記録される。
1. Overall Configuration FIG. 1 is a functional block diagram of a moving image playback apparatus according to an embodiment of the present invention. In the movable recording unit 2, a moving image index file 4, a moving image data file 6, and an editing configuration data file 12 are recorded.

動画データファイル6は、圧縮した複数フレームの動画をグループ化してグループデータとし、当該グループデータを時系列順に配置したものである。動画インデックスファイル4は、動画データファイル6に対応して設けられたものである。動画インデックスファイル4には、上記のグループデータ毎にグループ情報が記述されている。グループ情報には、動画データファイル4中の各グループデータの代表点の記録位置をアクセス位置や、各グループデータに含まれるグループ先頭フレームおよびグループ最終フレームの、動画データファイル6全体のフレームにおける順番を示す先頭最終フレーム順番情報が記述されている。   The moving image data file 6 is obtained by grouping compressed moving images of a plurality of frames into group data, and arranging the group data in chronological order. The moving image index file 4 is provided corresponding to the moving image data file 6. In the moving image index file 4, group information is described for each group data. In the group information, the recording position of the representative point of each group data in the moving image data file 4 is the access position, and the order of the group start frame and group last frame included in each group data in the entire moving image data file 6 frame. The first last frame order information shown is described.

編集構成データファイル12は、動画データファイル6の一部である各動画素材の開始フレーム順番情報および終了フレーム順番情報を特定することにより、再生する動画を決定するものである。   The editing configuration data file 12 determines a moving image to be reproduced by specifying start frame order information and end frame order information of each moving image material that is a part of the moving image data file 6.

予測手段8は、編集構成データファイル12を参照し、現在処理中のフレーム番号および再生形態(順方向再生か逆方向再生かなど)に基づいて、この先に必要となるフレームの固まり(予想複数フレーム)を予想する。   The prediction means 8 refers to the editing configuration data file 12, and based on the frame number currently being processed and the playback mode (forward playback or reverse playback, etc.), a block of frames (predicted frames) ).

ストリームキャッシュ処理手段10は、上記予想複数フレームの両端(最初と最後)のフレームのフレーム順番情報と、インデックスファイル4の代表フレームの順番情報に基づいて、予想複数フレームを含むグループデータを特定する。   The stream cache processing means 10 identifies group data including the predicted multiple frames based on the frame order information of the frames at both ends (first and last) of the predicted multiple frames and the order information of the representative frames in the index file 4.

さらに、インデックスファイル4に記述された当該グループデータのアクセス位置に基づいて、動画データファイル6の予想複数フレームを含むグループデータにアクセスする。取得した予想複数フレームを含むグループデータ16は、非可動式記録部14に記録される。 Further, based on the access position of the group data described in the index file 4, the group data including the expected plural frames of the moving image data file 6 is accessed. The acquired group data 16 including the expected plural frames is recorded in the non-movable recording unit 14.

この際、ストリームキャッシュ処理手段10は、当該グループデータ16のアクセス位置をインデックスファイル4から取得し、これを非可動式記録部14のアクセス位置(記録位置)に変換して記録する。さらに、当該グループデータに含まれる各フレームの(非可動式記録部14における)アクセス位置を算出し、個別アクセス位置20として記録する。さらに、当該グループデータ16の先頭最終フレーム順番情報をインデックスファイル4から取得し、これに基づいて、当該グループデータに含まれる各フレームのフレーム順番情報を算出して、個別フレーム順番情報18として記録する。   At this time, the stream cache processing means 10 obtains the access position of the group data 16 from the index file 4, converts it into the access position (recording position) of the non-movable recording unit 14, and records it. Further, the access position (in the non-movable recording unit 14) of each frame included in the group data is calculated and recorded as the individual access position 20. Further, the first and last frame order information of the group data 16 is obtained from the index file 4, and based on this, the frame order information of each frame included in the group data is calculated and recorded as the individual frame order information 18. .

特定手段22は、編集構成データファイル12を参照し、動画データファイル6中の次に処理すべき対象フレームのフレーム順番情報を特定する。フレーム復元手段24は、非可動式記録部14の個別フレーム順番情報18、個別アクセス位置20に基づいて、グループデータ16中の対象フレームをデコードし、表示部26に与える。表示部26は、デコードされたフレームを表示する。
The specifying unit 22 refers to the editing configuration data file 12 and specifies the frame order information of the target frame to be processed next in the moving image data file 6. The frame restoring unit 24 decodes the target frame in the group data 16 based on the individual frame order information 18 and the individual access position 20 of the non-movable recording unit 14 and gives the decoded frame to the display unit 26. The display unit 26 displays the decoded frame.

2.ハードウエア構成
図2に動画再生装置のハードウエア構成を示す。CPU30には、ディスプレイ32、メモリ34、ハードディスク2、、キーボード/マウス36、CD−ROMドライブ38が接続されている。ディスプレイ32は、デコードされた動画表示するためのものである。キーボード/マウス36は、再生のための操作を入力するためのものである。メモリ34は、CPU30のワーク領域として使用される。
2. Hardware Configuration FIG. 2 shows a hardware configuration of the moving image playback apparatus. A display 32, a memory 34, a hard disk 2, a keyboard / mouse 36, and a CD-ROM drive 38 are connected to the CPU 30. The display 32 is for displaying the decoded moving image. The keyboard / mouse 36 is for inputting an operation for reproduction. The memory 34 is used as a work area for the CPU 30.

ハードディスク2には、WINDOWS(商標)などのオペレーティングシステム25、動画データファイル6、編集構成データファイル12、再生処理プログラム28などが記録されている。再生処理プログラム28は、オペレーティングシステム25と協働して、編集構成データファイル12の記述にしたがって、動画データファイル6を再生する。インデックス作成プログラム5は、動画データファイル6に対応するインデックスファイル4を作成する。   The hard disk 2 stores an operating system 25 such as WINDOWS (trademark), a moving image data file 6, an editing configuration data file 12, a reproduction processing program 28, and the like. The reproduction processing program 28 reproduces the moving image data file 6 according to the description of the editing configuration data file 12 in cooperation with the operating system 25. The index creation program 5 creates an index file 4 corresponding to the moving image data file 6.

再生処理プログラム28、インデックス作成プログラム5は、CD−ROM40に記録されていたものを、CD−ROMドライブ38を介してインストールしたものである。動画データファイル6は、ディジタルビデオカメラなどからの動画データを記録したものである。この実施形態では、動画データファイル6として、MPEG方式のエレメンタリーストリームが記録されている。   The reproduction processing program 28 and the index creation program 5 are the ones recorded on the CD-ROM 40 and installed via the CD-ROM drive 38. The moving image data file 6 is recorded with moving image data from a digital video camera or the like. In this embodiment, an MPEG elementary stream is recorded as the moving image data file 6.

図3に、動画データファイル6の構造を示す。複数のGOPが時系列順に記録されている。GOPの直前にはシーケンスヘッダSHが設けられている場合と、設けられていない場合とがある。シーケンスヘッダSHは、再生のために必要な画素縦横比などの情報を記録している。各GOPには、Iピクチャ、Bピクチャ、Pピクチャが記録されている。また、GOPの先頭には、スタートコード20が記録されている。なお、GOPには、十数フレーム分の動画データが含まれている。
FIG. 3 shows the structure of the moving image data file 6. A plurality of GOPs are recorded in chronological order. There are cases where a sequence header SH is provided immediately before the GOP and cases where a sequence header SH is not provided. The sequence header SH records information such as a pixel aspect ratio necessary for reproduction. In each GOP, an I picture, a B picture, and a P picture are recorded. A start code 20 is recorded at the head of the GOP. Note that the GOP includes moving image data for ten or more frames.

3.インデックスファイルの作成
再生を行う前の準備として、動画データファイル6のインデックスファイル4を作成しておく。図4、図5に、インデックス作成プログラム5のフローチャートを示す。
3. Creation of index file As a preparation before reproduction, an index file 4 of the moving image data file 6 is created. 4 and 5 show flowcharts of the index creation program 5.

まず、CPU30は、GOPカウンタやフレーム数カウンタ等をクリアする。次に、CPU30は、ステップS1において、ハードディスク2から動画データファイル6を先頭から読み出す。ステップS2において、動画データファイル6の末尾に到達したかどうかを判断する。末尾に到達していなければ、CPU30はGOPの先頭を探し出す。GOPの先頭には、図3に示すようにスタートコードが存在するのでこれを見いだす。なお、GOPのスタートコードは、"000001B8"によって開始されるので、これを検出することによりGOPの先頭であることを判断することができる。   First, the CPU 30 clears the GOP counter, the frame number counter, and the like. Next, in step S1, the CPU 30 reads the moving image data file 6 from the hard disk 2 from the top. In step S2, it is determined whether or not the end of the moving image data file 6 has been reached. If the end has not been reached, the CPU 30 searches for the beginning of the GOP. As shown in FIG. 3, a start code is present at the head of the GOP, and this is found. Note that the start code of the GOP starts with “000001B8”, so that it can be determined that this is the head of the GOP by detecting this.

読み出した部分がGOPの先頭でなければ(ステップS3)、ステップS1に戻って、さらに動画データファイル6を読み出す。GOPの先頭が見いだされれば(ステップS3)、GOPカウンタをインクリメントする(ステップS4)。次に、CPU30は、GOPの直前にシーケンスヘッダSHがあるかどうかを判断する(ステップS5)。シーケンスヘッダSHの開始を示すスタートコードは、"000001B3"で始まるので、これにより検出が可能である。   If the read portion is not the head of the GOP (step S3), the process returns to step S1 to further read the moving image data file 6. If the head of the GOP is found (step S3), the GOP counter is incremented (step S4). Next, the CPU 30 determines whether or not there is a sequence header SH immediately before the GOP (step S5). Since the start code indicating the start of the sequence header SH starts with “000001B3”, this can be detected.

シーケンスヘッダSHがあれば、CPU30は、SHヘッダのスタートコードの記録位置(動画データファイルの先頭から何バイト目にあるか(以下同じ))を取得して、アクセス位置としてメモリ34に記録する(ステップS6)。直前にシーケンスヘッダSHがなければ、GOPのスタートコードの記録位置を取得して、アクセス位置としてメモリ34に記憶する(ステップS7)。   If there is a sequence header SH, the CPU 30 acquires the recording position of the start code of the SH header (the number of bytes from the beginning of the moving image data file (hereinafter the same)) and records it in the memory 34 as the access position ( Step S6). If there is no sequence header SH immediately before, the GOP start code recording position is acquired and stored in the memory 34 as an access position (step S7).

次に、CPU30は、GOPのスタートコードに記述されているタイムコード(動画の最初からの経過時間)およびクローズドGOPかブロークンリンクかの区別を取得し、メモリ34に記憶する(ステップS8)。当該GOPの画像データが、前のGOPの画像データを参照しなくとも復元できる場合は、クローズドGOPである旨、前のGOPの画像データを参照しなければ復元できない場合は、ブロークンリンクである旨がスタートコード内に記録されている。CPU30は、これを取得してメモリ34に記録する。   Next, the CPU 30 acquires the time code (elapsed time from the beginning of the moving image) described in the start code of the GOP and the distinction between the closed GOP and the broken link, and stores them in the memory 34 (step S8). If the image data of the GOP can be restored without referring to the image data of the previous GOP, it is a closed GOP, and if it cannot be restored without referring to the image data of the previous GOP, it is a broken link Is recorded in the start code. The CPU 30 acquires this and records it in the memory 34.

次に、CPU30は、動画データファイル6を読み出して当該GOPのデータを取得する(ステップS9)。取得したGOPのデータを解析し、フレーム数カウンタによりフレーム数をカウントする(ステップS10)。CPU30は、次のようにしてGOPを解析し、当該GOPに含まれるフレームの数を取得する。   Next, the CPU 30 reads the moving image data file 6 and acquires the data of the GOP (step S9). The acquired GOP data is analyzed, and the number of frames is counted by a frame number counter (step S10). The CPU 30 analyzes the GOP as follows and acquires the number of frames included in the GOP.

CPU30は、GOPの先頭から順にピクチャースタートコード(00000100)を見いだす。ピクチャースタートコードは、Iピクチャー、Bピクチャー、Pピクチャーの先頭に設けられている。したがって、ピクチャースタートコードを検出することにより、Iピクチャー、Bピクチャー、Pピクチャーの存在を知ることができる。   The CPU 30 finds the picture start code (00000100) in order from the top of the GOP. The picture start code is provided at the head of the I picture, B picture, and P picture. Therefore, the presence of an I picture, B picture, and P picture can be known by detecting the picture start code.

たとえば、Iピクチャー、Bピクチャー、Pピクチャーがそれぞれ1つのフレームに対応している場合には、ピクチャースタートコードが1つで、1つのフレームに対応する。   For example, when an I picture, a B picture, and a P picture each correspond to one frame, one picture start code corresponds to one frame.

また、Iピクチャー(Bピクチャー、Pピクチャー)が2つで1フレームの画像を構成している場合もある。このような場合には、ピクチャースタートコードが2つで、1つのフレームに対応することになる。   In some cases, two I pictures (B picture, P picture) constitute one frame image. In such a case, two picture start codes correspond to one frame.

図3に示すように、ピクチャースタートコードに続いて、Iピクチャー、Bピクチャー、Pピクチャーのいずれであるかを示す「種類」のデータと、当該1つのピクチャーで1フレームを構築するか(ノンインターレース)、2つのピクチャーで1フレームを構築するか(インターレース)の「区別」データが記録されている。CPU30は、この「区別」データを参照し、ノンインターレースの場合には、1つのピクチャースタートコードで1つのフレームを認識し、インターレースの場合には、2つのピクチャースタートコードで1つのフレームを認識する。   As shown in FIG. 3, following the picture start code, “type” data indicating whether the picture is an I picture, a B picture, or a P picture, and whether one frame is constructed with the one picture (non-interlaced) ) “Distinction” data is recorded on whether one frame is constructed by two pictures (interlace). The CPU 30 refers to this “discrimination” data, and recognizes one frame with one picture start code in the case of non-interlace, and recognizes one frame with two picture start codes in the case of interlace. .

一方、フレーム数カウンタは、動画の最初のフレームからのフレーム数をカウントするものである。なお、CPU30は、当該GOPの最初のフレーム番号(フレー数カウンタの計数値)を先頭フレーム番号としてメモリ34に記録する。   On the other hand, the frame number counter counts the number of frames from the first frame of the moving image. The CPU 30 records the first frame number (count value of the frame number counter) of the GOP in the memory 34 as the first frame number.

次に、CPU30は、当該GOPの最後までフレームを解析したかどうかを判断する(ステップS11)。なお、この実施形態では、CPU30は、次のGOPが現れたかどうかによって、最後までフレームを解析したかどうかを判断するようにしている。最後でなければ、ステップS9以下を繰り返し実行する。GOPの最後まで復元すれば、その時点のフレーム数カウンタの計数値を最終フレーム番号としてメモリ34に記憶する(ステップS12)。   Next, the CPU 30 determines whether or not the frame has been analyzed to the end of the GOP (step S11). In this embodiment, the CPU 30 determines whether the frame has been analyzed to the end depending on whether the next GOP has appeared. If it is not the last, step S9 and subsequent steps are repeatedly executed. If the GOP is restored to the end, the count value of the frame number counter at that time is stored in the memory 34 as the last frame number (step S12).

次に、CPU30は、メモリ34の記憶内容を、インデックスファイル4に出力する(ステップS13)。   Next, the CPU 30 outputs the stored contents of the memory 34 to the index file 4 (step S13).

図6に、インデックスファイル4の構造を示す。総GOP数、総フレーム数は、動画データファイル6のすべてのGOPについての処理が終了してから記録される。ここでは、GOPのID(図ではGOP1として示されている)、アクセス位置、先頭フレーム番号、最終フレーム番号、タイムコード、種類(クローズドGOPかブロークンリンクか)が、メモリ34の記録内容に基づいて記録される。なお、GOPのIDは、GOPを特定するために各GOPに付した連番である。   FIG. 6 shows the structure of the index file 4. The total number of GOPs and the total number of frames are recorded after the processing for all the GOPs in the moving image data file 6 is completed. Here, the GOP ID (shown as GOP1 in the figure), the access position, the top frame number, the last frame number, the time code, and the type (closed GOP or broken link) are based on the recorded contents of the memory 34. To be recorded. The GOP ID is a serial number assigned to each GOP in order to identify the GOP.

次に、CPU30は、ステップS1に戻り、次のGOPについて同様の処理を行う。これにより、図6のGOP2について、アクセス位置、先頭フレーム番号、最終フレーム番号、タイムコード、種類が記録される。   Next, the CPU 30 returns to step S1 and performs the same processing for the next GOP. Thereby, the access position, the top frame number, the last frame number, the time code, and the type are recorded for GOP2 in FIG.

この処理を繰り返し動画ファイルの最後に到達すると(ステップS2)、CPU30は、総フレーム数、総GOP数をインデックスファイル4に記録する(ステップS15)。このようにしてインデックスファイル4が生成される。   When this process is repeated and the end of the moving image file is reached (step S2), the CPU 30 records the total number of frames and the total number of GOPs in the index file 4 (step S15). In this way, the index file 4 is generated.

なお、この実施形態では、動画データファイル6と当該動画データファイル6について作成されたインデックスファイル4とを対応づけるために、両ファイルのファイル名を同一にし、拡張子を異ならせるようにしている。たとえば、動画データファイルがaaa.mpgである場合には、インデックスファイルはaaa.imvとされる。これにより、同一ファイル名の動画データファイルとインデックスファイルが関連づけられていることが容易に判別できる。   In this embodiment, in order to associate the moving image data file 6 with the index file 4 created for the moving image data file 6, both files have the same file name and different extensions. For example, when the moving image data file is aaa.mpg, the index file is aaa.imv. Thereby, it can be easily determined that the moving image data file having the same file name is associated with the index file.

上記実施形態では、動画データファイル6がエレメンタリーストリーム(ES)の形式である場合について説明した。動画データファイル6としては、図7に示すように、エレメンタリーストリームをパケット化したPESの形式も存在する。PESの各パケットには、ビデオストリームスタートコードが付され、ESを細分化したデータが内容として記述されている。たとえば、パケットP1は、ESのαの部分のデータを記録している。また、パケットP2は、ESのβの部分のデータを記録している。   In the above-described embodiment, the case where the moving image data file 6 has the elementary stream (ES) format has been described. As the moving image data file 6, there is a PES format in which elementary streams are packetized as shown in FIG. A video stream start code is attached to each packet of the PES, and data obtained by subdividing the ES is described as content. For example, the packet P1 records data of the α part of ES. Further, the packet P2 records the data of the β part of ES.

このようなPES形式の動画データファイル6についてインデックスファイルを生成する処理のフローチャートを図8、図9に示す。図4、図5と同様のステップについては、同一の符号を付している。   Flow charts of processing for generating an index file for such a PES format moving image data file 6 are shown in FIGS. Steps similar to those in FIGS. 4 and 5 are given the same reference numerals.

CPU30は、GOPの先頭であるかどうかを判断するために、まず、パケットを解く必要がある。したがって、ステップS3の前に、パケットを解くステップS25を実行するようにしている。   In order to determine whether or not the CPU 30 is at the head of the GOP, it is necessary to first solve the packet. Therefore, step S25 for solving a packet is executed before step S3.

図4においては、SHまたはGOPのスタートコードの記録位置を取得してインデックスファイルに記録するようにしていた(ステップS6、S7)。しかし、図9では、SHまたはGOPのスタートコードを含むパケットのビデオストリームスタートコードの記録位置を取得してインデックスファイルに記録するようにしている(ステップS65、S75)。たとえば、図7のESのSHを見いだすと、これを含むパケットP2の先頭位置をアクセス位置として記録する。このようにパケットのスタートコードの記録位置をインデックスファイルに記録することにより、編集時にパケットを解かなくとも、所望のフレームを得るためにどのパケットにアクセスすればよいかを知ることができる。   In FIG. 4, the recording position of the start code of SH or GOP is acquired and recorded in the index file (steps S6 and S7). However, in FIG. 9, the recording position of the video stream start code of the packet including the SH or GOP start code is acquired and recorded in the index file (steps S65 and S75). For example, when the SH of the ES in FIG. 7 is found, the head position of the packet P2 including this is recorded as the access position. Thus, by recording the recording position of the start code of the packet in the index file, it is possible to know which packet should be accessed to obtain a desired frame without solving the packet at the time of editing.

ステップS85においては、SHまたはGOPのスタートコードを含むパケットのスタートコード中に記録されているPTS(時間情報)を取得して、インデックスファイルに記録するようにしている。   In step S85, the PTS (time information) recorded in the start code of the packet including the SH or GOP start code is acquired and recorded in the index file.

また、ステップS10においてフレーム数をカウントする前に、パケットを解いてGOPのデータを取得する処理を行っている(ステップS95)。   In addition, before counting the number of frames in step S10, a process of solving the packet and acquiring GOP data is performed (step S95).

上記の処理によって生成されたインデックスファイル4のデータ構造を、図10に示す。基本的には図6と同様であるが、アクセス位置としてパケットの位置が記録されている点が異なっている。   The data structure of the index file 4 generated by the above processing is shown in FIG. Basically, it is the same as in FIG. 6 except that the packet position is recorded as the access position.

なお、音声データのPESと動画データのPES双方を含むPS(プログラムストリーム)についても、動画データのPESだけのためのインデックスファイルと上記と同様にして作成することができる。   Note that a PS (program stream) including both PES of audio data and PES of moving image data can be created in the same manner as described above with an index file for only PES of moving image data.

上記実施形態では、動画データファイル6がパケット化されたエレメンタリーストリーム(PES)の形式である場合について説明した。動画データファイル6としては、図11に示すように、PESをさらにパケット化したトランスポートストリーム(TS)の形式も存在する。TSの各パケットには、パケットIDが付され、PESを細分化したデータが内容として記述されている。   In the above embodiment, the case where the moving image data file 6 is in the form of packetized elementary stream (PES) has been described. As shown in FIG. 11, the moving picture data file 6 also has a transport stream (TS) format in which PES is further packetized. Each packet of the TS is assigned a packet ID, and data obtained by subdividing PES is described as the content.

このようなPES形式の動画データファイル4についてインデックスファイルを生成するプログラムのフローチャートを図12、図13に示す。図4、図5、図8、図9と同様のステップについては、同一の符号を付している。   Flow charts of a program for generating an index file for such a PES format moving image data file 4 are shown in FIGS. Steps similar to those in FIGS. 4, 5, 8, and 9 are given the same reference numerals.

CPU30は、GOPの先頭であるかどうかを判断するために、まず、TSのパケットを解いてPESのパケットを得て(ステップS255)、さらに、PESのパケットを解く必要がある(ステップS25)。したがって、ステップS3の前に、TSパケットを解くステップS255、PESパケットを解くステップS25を実行するようにしている。   In order to determine whether or not it is the head of the GOP, the CPU 30 first needs to solve the TS packet to obtain the PES packet (step S255), and further solve the PES packet (step S25). Therefore, before step S3, step S255 for solving the TS packet and step S25 for solving the PES packet are executed.

図8においては、SHまたはGOPのスタートコードを含むPESパケットのビデオストリームスタートコードの記録位置を取得してインデックスファイルに記録するようにしていた(ステップS65、S75)。しかし、図12では、SHまたはGOPのスタートコードを含むPESパケットのビデオストリームスタートコードを含むTSパケットの記録位置を取得してインデックスファイルに記録するようにしている(ステップS655、S755)。たとえば、図11のESのSHを見いだすと、これを含むPESパケットP2の先頭位置を見いだし、さらに、この先頭位置を含むTSパケットγの先頭位置をアクセス位置として記録する。このようにTSパケットのスタートコードの記録位置をインデックスファイルに記録することにより、編集時にパケットを解かなくとも、所望のフレームを得るためにどのTSパケットにアクセスすればよいかを知ることができる。   In FIG. 8, the recording position of the video stream start code of the PES packet including the SH or GOP start code is acquired and recorded in the index file (steps S65 and S75). However, in FIG. 12, the recording position of the TS packet including the video stream start code of the PES packet including the SH or GOP start code is acquired and recorded in the index file (steps S655 and S755). For example, when the ES SH in FIG. 11 is found, the head position of the PES packet P2 including this is found, and the head position of the TS packet γ including this head position is recorded as the access position. By recording the recording position of the start code of the TS packet in the index file in this way, it is possible to know which TS packet should be accessed to obtain a desired frame without solving the packet at the time of editing.

ステップS855においては、アクセス位置のTSパケット内のPESに記録されているPTS(時間情報)を取得して、インデックスファイルに記録するようにしている。   In step S855, the PTS (time information) recorded in the PES in the TS packet at the access position is acquired and recorded in the index file.

また、ステップS10においてフレーム数をカウントする前に、TSパケットを解いてPESパケットを得て、さらにPESパケットを解いてGOPのデータを取得する処理を行っている(ステップS955、S95)。   Also, before counting the number of frames in step S10, processing is performed to obtain the PES packet by solving the TS packet, and further obtaining the GOP data by solving the PES packet (steps S955 and S95).

上記の処理によって生成されたインデックスファイル4のデータ構造を、図14に示す。基本的には図6、図10と同様であるが、アクセス位置としてTSパケットの位置が記録されている点が異なっている。   The data structure of the index file 4 generated by the above processing is shown in FIG. This is basically the same as FIGS. 6 and 10 except that the position of the TS packet is recorded as the access position.

なお、上記の各実施形態では、動画データファイル4がES、PES(PS)、TSである場合のそれぞれについて説明した。しかし、図15に示すように、取得した動画データファイル6が上記のいずれに該当するかを判断し(ステップS50)、それぞれ適切な処理を選択してインデックスファイル4を作成するようにしてもよい。   In each of the above embodiments, the case where the moving image data file 4 is ES, PES (PS), or TS has been described. However, as shown in FIG. 15, it may be determined whether the acquired moving image data file 6 corresponds to any of the above (step S50), and an appropriate process may be selected to create the index file 4. .

なお、動画データファイル6が複数ある場合には、それぞれの動画データファイル6に対してインデックスファイル4が生成される。
When there are a plurality of moving image data files 6, an index file 4 is generated for each moving image data file 6.

4.再生処理
次に、再生処理について説明する。再生処理プログラムのフローチャートを図16に示す。ここでは、動画データファイル6が、図3のような構造である場合(ES)について説明する。
4). Reproduction Process Next, the reproduction process will be described. A flowchart of the reproduction processing program is shown in FIG. Here, a case where the moving image data file 6 has a structure as shown in FIG. 3 (ES) will be described.

CPU30は、ステップS101において、編集構成データファイル12をハードディスク2から読み出して、メモリ34に記録する。編集構成データファイル12の構造を、図20に示す。図21に示すように、編集構成データファイル12は、動画データファイル6からクリップ(動画素材)C1、C2、C3を特定し、編集済み動画を定義するファイルである。   In step S <b> 101, the CPU 30 reads the editing configuration data file 12 from the hard disk 2 and records it in the memory 34. The structure of the editing configuration data file 12 is shown in FIG. As shown in FIG. 21, the editing configuration data file 12 is a file that defines clips (moving image materials) C1, C2, and C3 from the moving image data file 6 and defines edited moving images.

図20において、タイムライン情報200に、各クリップ(動画素材)ごとの情報が示される。各クリップの情報の中には、AVIファイル名202、IN点情報204、OUT点情報206、タイムライン上の開始位置タイムコード208、オーディオレベル情報210、オーディオビデオリンク情報212、再生速度情報214が含まれる。   In FIG. 20, timeline information 200 shows information for each clip (moving picture material). The information of each clip includes AVI file name 202, IN point information 204, OUT point information 206, start position time code 208 on the timeline, audio level information 210, audio video link information 212, and playback speed information 214. included.

AVIファイル名202は、動画データファイル6のファイル名である。IN点情報204は、そのクリップが開始するメイン動画データファイル6上の位置である。OUT点情報206は、そのクリップが終了する動画データファイル6上の位置である。タイムライン上の開始位置タイムコード208は、そのクリップの先頭を再生する際の、再生タイミングを示している。つまり、編集済み動画を再生する際の、そのクリップの先頭フレームの再生タイミングを、再生開始からの経過時間によって表したものである。オーディオレベル情報210は、オーディオ情報の再生レベルを示すものである。オーディオビデオリンク情報212は、動画とオーディオの同期をとるための情報である。再生速度情報214は、再生速度を示すものである。   The AVI file name 202 is the file name of the moving image data file 6. The IN point information 204 is a position on the main moving image data file 6 where the clip starts. The OUT point information 206 is a position on the moving image data file 6 where the clip ends. A start position time code 208 on the timeline indicates a reproduction timing when reproducing the head of the clip. That is, the reproduction timing of the first frame of the clip when reproducing the edited moving image is represented by the elapsed time from the reproduction start. Audio level information 210 indicates the playback level of audio information. The audio video link information 212 is information for synchronizing the moving image and the audio. The playback speed information 214 indicates the playback speed.

図21に、動画データファイル6と所望の編集済み動画と編集構成データとの関係を示す。図に示すように、動画データファイル6の一部をクリップC1、C2、C3として抜き出して結合し、編集済み動画としたい場合には、編集構成データを図に示すように構成する。編集構成データ15のタイムライン情報の最初のクリップ記述の部分に、クリップC1の開始点a1(動画データファイル6におけるフレーム番号)と終了点a2(動画データファイル6におけるフレーム番号)を記述する。さらに、タイムライン上の開始位置のタイムコード記述の部分に、編集済み動画におけるフレーム番号b1を記録する。クリップC2、C3についても同様である。   FIG. 21 shows the relationship among the moving image data file 6, the desired edited moving image, and the editing configuration data. As shown in the drawing, when a part of the moving image data file 6 is extracted and combined as clips C1, C2, and C3 to make an edited moving image, the editing configuration data is configured as shown in the drawing. The start point a1 (frame number in the moving image data file 6) and end point a2 (frame number in the moving image data file 6) of the clip C1 are described in the first clip description portion of the timeline information of the editing configuration data 15. Further, the frame number b1 in the edited moving image is recorded in the time code description portion at the start position on the timeline. The same applies to the clips C2 and C3.

なお、編集済み動画は、動画データファイル6と編集構成データファイル12によって特定されるものであり、編集済み動画データファイルとして独立して記録されるものではない。このようにすることにより、編集構成データファイル12を修正するだけで、動画データファイル6を改変することなく、編集を行うことができる。   Note that the edited moving image is specified by the moving image data file 6 and the editing configuration data file 12, and is not recorded independently as an edited moving image data file. By doing so, it is possible to perform editing without modifying the moving image data file 6 only by correcting the editing configuration data file 12.

次に、CPU30は、メモリ34に記録した編集構成データファイル12に基づいて、キャッシュすべき必要複数フレームを予測する(ステップS102)。この予測処理の詳細フローチャートを、図17に示す。   Next, the CPU 30 predicts necessary plural frames to be cached based on the editing configuration data file 12 recorded in the memory 34 (step S102). A detailed flowchart of this prediction processing is shown in FIG.

CPU30は、編集構成データファイル12に基づいて、必要複数フレームのリストを作成する(ステップS201)。たとえば、編集構成データファイル12のタイムライン情報200のIN点とOUT点の記述が、図22に示すようであったとする。この構成データファイル12によれば、通常再生モードにおいては、クリップCL1、CL2、CL3、CL4の順に再生が行われることがわかる。なお、クリップCL3は、通常再生モードにおいて、逆方向にフレームが進行するクリップである。   The CPU 30 creates a list of necessary plural frames based on the editing configuration data file 12 (step S201). For example, it is assumed that the description of the IN point and the OUT point of the timeline information 200 of the editing configuration data file 12 is as shown in FIG. According to the configuration data file 12, it can be seen that in the normal playback mode, playback is performed in the order of the clips CL1, CL2, CL3, and CL4. Note that the clip CL3 is a clip in which the frame advances in the reverse direction in the normal playback mode.

ここで、クリップCL1(フレーム番号1〜10)については、既にキャッシュ済みであるとする。この場合、CPU30は、次にキャッシュすべきフレーム範囲を次のように決定する。なお、ここでは、通常再生が指示されているものとする。逆方向再生などの場合にも、予測方向が逆になるだけであり、同様の手法にて予測を行うことができる。   Here, it is assumed that the clip CL1 (frame numbers 1 to 10) has already been cached. In this case, the CPU 30 determines the frame range to be cached next as follows. Here, it is assumed that normal reproduction is instructed. Also in the case of backward reproduction or the like, the prediction direction is only reversed, and prediction can be performed by the same method.

キャッシュすべきフレーム数は、たとえば、20フレームというように予め定められている。CPU30は、編集構成データファイル12のタイムライン情報に基づいて、既にキャッシュしているフレームより後の20フレームを必要複数フレームとする。図22の場合であれば、クリップCL2のフレーム15〜25およびクリップCL3のフレーム30〜20を必要複数フレームとすることになる。CPU30は、これを図23Aに示すような範囲リストとして、メモリ34に記録する(ステップS201)。図23Aにおいては、範囲リストに2つの項目が設けられている。対象となるクリップのサイズが大きい場合には、項目は一つになる。   The number of frames to be cached is predetermined, for example, 20 frames. Based on the timeline information of the editing configuration data file 12, the CPU 30 sets 20 frames after the already cached frames as necessary plural frames. In the case of FIG. 22, the frames 15 to 25 of the clip CL2 and the frames 30 to 20 of the clip CL3 are set as a plurality of necessary frames. The CPU 30 records this in the memory 34 as a range list as shown in FIG. 23A (step S201). In FIG. 23A, two items are provided in the range list. When the size of the target clip is large, there is one item.

次に、CPU30は、範囲リストの各項目において、IN点がOUT点より大きい場合には、IN点とOUT点を入れ替える(ステップS202)。したがって、範囲リストは、図23Bのように書き換えられる。   Next, when the IN point is larger than the OUT point in each item of the range list, the CPU 30 switches the IN point and the OUT point (step S202). Therefore, the range list is rewritten as shown in FIG. 23B.

CPU30は、範囲リストの各項目を、IN点のフレーム番号が昇順になるように並び替える。これは、後に、ハードディスク2にアクセスする際に、戻る方向へのヘッドシークをなくすためである。図23Bの範囲リストでは、既に昇順となっているので、並び替えは行われない。   The CPU 30 rearranges the items in the range list so that the frame numbers of the IN points are in ascending order. This is to eliminate the head seek in the returning direction when accessing the hard disk 2 later. In the range list of FIG. 23B, since the order is already in ascending order, no rearrangement is performed.

次に、CPU30は、範囲リストの各項目のそれぞれにつき、IN点、OUT点に基づいて、インデックスファイル4を参照し、必要複数フレームが含まれる動画データファイル6のGOPを特定してアクセス位置を取得する(ステップS204)。たとえば、インデックスファイル4の内容が図24に示すようであれば、最初の項目(フレーム番号15〜25)についてはGOP1とGOP2が特定され、2番目の項目(フレーム番号20〜30)についてはGOP2が特定される。つまり、最初の項目については、GOP1のアクセス位置からGOP2の最後の位置(GOP3のアクセス位置の直前)までを読み出せばよいことがわかる。2番目の項目については、GOP2のアクセス位置からGOP2の最後の位置(GOP3のアクセス位置の直前)までを読み出せばよいことがわかる。   Next, the CPU 30 refers to the index file 4 based on the IN point and the OUT point for each item in the range list, identifies the GOP of the moving image data file 6 including the necessary multiple frames, and sets the access position. Obtain (step S204). For example, if the contents of the index file 4 are as shown in FIG. 24, GOP1 and GOP2 are specified for the first item (frame numbers 15 to 25), and GOP2 is specified for the second item (frame numbers 20 to 30). Is identified. That is, for the first item, it is understood that it is sufficient to read from the access position of GOP1 to the last position of GOP2 (immediately before the access position of GOP3). As for the second item, it is understood that it is sufficient to read from the access position of GOP2 to the last position of GOP2 (immediately before the access position of GOP3).

続いて、CPU30は、連続または重複するアクセス範囲を1つにまとめる(ステップS205)。上記の場合であれば、GOP2についてのアクセス範囲が重複しているのでこれをまとめて、GOP1のアクセス位置からGOP2の最後の位置(GOP3のアクセス位置の直前)までをアクセス範囲とする。なお、2つの項目のアクセス範囲が連続する場合には、連続する1つのアクセス範囲とする。アクセス速度を速くするためのである。   Subsequently, the CPU 30 collects continuous or overlapping access ranges into one (step S205). In the above case, since the access ranges for GOP2 are overlapped, these are collected and used as the access range from the access position of GOP1 to the last position of GOP2 (immediately before the access position of GOP3). In addition, when the access range of two items is continuous, it is set as one continuous access range. This is to increase the access speed.

次に、CPU30は、上記のようにして算出した必要複数フレームのアクセス範囲について、既に、ストリームキャッシュ記録部(メモリ34)にキャッシュされていないかどうかを判断する。キャッシュされている範囲があれば、当該部分を必要複数フレームのアクセス範囲から外す(ステップS206)。たとえば、上記の例において、GOP1についてストリームキャッシュ記録部(メモリ34)にキャッシュがなされていれば、GOP2だけを必要複数フレームとする。つまり、アクセス範囲は、GOP2のアクセス位置からGOP2の最後の位置(GOP3のアクセス位置の直前)までとなる。上記のようにして必要複数フレームを含むGOP(必要複数GOP)を予測し、アクセス範囲を取得する。 Next, the CPU 30 determines whether or not the access range of the necessary plural frames calculated as described above has already been cached in the stream cache recording unit (memory 34). If there is a cached range, the part is removed from the access range of the necessary plural frames (step S206). For example, in the above example, if GOP1 is cached in the stream cache recording unit ( memory 34 ), only GOP2 is set as a necessary plurality of frames. That is, the access range is from the access position of GOP2 to the last position of GOP2 (immediately before the access position of GOP3). As described above, a GOP including necessary plural frames (necessary plural GOP) is predicted, and an access range is acquired.

図16に戻って、ステップS103において、CPU30は、予測した必要複数GOPをハードディスク2の動画データファイル6から読み出し、ストリームキャッシュ記録部(メモリ34)に記録する。このストリームキャッシュ処理の詳細なフローチャートを図18に示す。   Returning to FIG. 16, in step S103, the CPU 30 reads the predicted plurality of necessary GOPs from the moving image data file 6 of the hard disk 2 and records them in the stream cache recording unit (memory 34). A detailed flowchart of this stream cache processing is shown in FIG.

CPU30は、予測処理において算出したアクセス範囲の先頭のアクセス位置に基づいて、ハードディスク2の動画データファイル6にアクセスし、必要GOPを読み出す(ステップS301)。   The CPU 30 accesses the moving image data file 6 on the hard disk 2 based on the access position at the head of the access range calculated in the prediction process, and reads out the necessary GOP (step S301).

CPU30は、読み出したGOPの内容をストリームキャッシュ記録部に記録する(ステップS302)。ここでは、GOPの内容をデコードせずそのまま記録する。CPU30は、上記の記録時に、GOPの先頭フレームのフレーム番号をインデックスファイル4に基づいて取得する(ステップS102において取得しておいてもよい)。さらに、上記記録時に、GOPを構成するIピクチャ、Pピクチャ、Bピクチャの存在を判断し、各フレームのフレーム番号を個別的に算出し、個別フレーム番号を算出する(ステップS303)。   The CPU 30 records the contents of the read GOP in the stream cache recording unit (step S302). Here, the contents of the GOP are recorded as they are without being decoded. The CPU 30 acquires the frame number of the first frame of the GOP based on the index file 4 at the time of the above recording (may be acquired in step S102). Further, at the time of the recording, the presence of an I picture, P picture, and B picture constituting the GOP is determined, the frame number of each frame is individually calculated, and the individual frame number is calculated (step S303).

また、CPU30は、上記記録時に、GOPのアクセス位置をインデックスファイル4に基づいて取得する(ステップS102において取得しておいてもよい)。このアクセス位置を、ストリームキャッシュ記録部(メモリ34)におけるアクセス位置に変換する。さらに、上記記録時に、GOPを構成するIピクチャ、Pピクチャ、Bピクチャの存在を判断し、各フレームのストリームキャッシュ記録部(メモリ34)におけるアクセス位置を個別的に算出し、個別アクセス位置を算出する(ステップS303)。   Further, the CPU 30 acquires the access position of the GOP based on the index file 4 at the time of recording (may be acquired in step S102). This access position is converted into an access position in the stream cache recording unit (memory 34). Further, at the time of recording, the existence of an I picture, P picture, and B picture constituting the GOP is determined, and the access position of each frame in the stream cache recording unit (memory 34) is calculated individually, and the individual access position is calculated. (Step S303).

CPU30は、このようにして算出した個別フレーム番号、個別アクセス位置およびピクチャの種類(P、B、Iピクチャの区別)をキャッシュインデックスデータとして、メモリ34に記録する。図25にキャッシュインデックスファイルのデータ例を示す。なお、この実施形態では、すべてのフレームについて個別フレーム番号、個別アクセス位置を算出して記録しているが、主要なフレームについてのみこれを行うようにしてもよい。   The CPU 30 records the individual frame number, the individual access position, and the picture type (discrimination between P, B, and I pictures) calculated as described above in the memory 34 as cache index data. FIG. 25 shows an example of data in the cache index file. In this embodiment, individual frame numbers and individual access positions are calculated and recorded for all frames, but this may be performed only for main frames.

次に、CPU30は、すべての必要複数GOPについて処理を行ったかどうかを判断する(ステップS304)。図23の例では、最終的に必要複数GOPは連続する1つのグループにまとまったが、場合によっては、複数のグループに分かれることもある。このような場合には、すべての必要複数GOPについて上記の処理を繰り返す。   Next, the CPU 30 determines whether or not all necessary multiple GOPs have been processed (step S304). In the example of FIG. 23, the necessary plurality of GOPs are finally grouped into one continuous group, but depending on the case, they may be divided into a plurality of groups. In such a case, the above processing is repeated for all necessary plural GOPs.

図16に戻って、CPU30は、ステップS104において、編集構成データファイル12に基づいて、次にデコードすべきフレームを特定し対象フレームとする。つまり、対象フレームのフレーム番号を特定する。CPU30は、いずれのフレームまでをデコードし再生用バッファに転送したかを記録しているので、次にデコードすべきフレームを特定することができる。   Returning to FIG. 16, in step S <b> 104, the CPU 30 specifies a frame to be decoded next based on the editing configuration data file 12 and sets it as a target frame. That is, the frame number of the target frame is specified. Since the CPU 30 records which frame has been decoded and transferred to the reproduction buffer, the CPU 30 can specify the frame to be decoded next.

次に、CPU30は、デコードして対象フレームを復元する処理を行う(ステップS105)。このフレーム復元処理の詳細フローチャートを図19に示す。   Next, the CPU 30 performs a process of decoding and restoring the target frame (step S105). A detailed flowchart of this frame restoration process is shown in FIG.

CPU30は、対象フレームがデコード済キャッシュ(メモリ34)に記録されているかどうかを判断する(ステップS401)。デコード済キャッシュに記録されていれば、これを読み出して対象フレームを取得する(ステップS402)。   The CPU 30 determines whether or not the target frame is recorded in the decoded cache (memory 34) (step S401). If it is recorded in the decoded cache, it is read out and the target frame is acquired (step S402).

デコード済キャッシュに記録されていなければ、CPU30は、ストリームキャッシュ記録部から対象フレームを探す(ステップS403)。CPU30は、メモリ34のキャッシュインデックスファイル(図25参照)に記述された個別フレーム番号に基づいて、対象フレームのフレーム番号があるかどうかを判断することにより、対象フレームがあるかどうかを判断することができる。対象フレームがストリームキャッシュ記録部にあれば、CPU30は、キャッシュインデックスファイルに記述された対象フレームの種別を取得する。   If not recorded in the decoded cache, the CPU 30 searches for the target frame from the stream cache recording unit (step S403). The CPU 30 determines whether there is a target frame by determining whether there is a frame number of the target frame based on the individual frame number described in the cache index file (see FIG. 25) of the memory 34. Can do. If the target frame is in the stream cache recording unit, the CPU 30 acquires the type of the target frame described in the cache index file.

対象フレームがIピクチャであば、対象フレームの個別アクセス位置に基づいて、ストリームキャッシュ記録部にアクセスし、データを取得して対象フレームをデコードする(ステップS404)。   If the target frame is an I picture, the stream cache recording unit is accessed based on the individual access position of the target frame, data is acquired, and the target frame is decoded (step S404).

対象フレームがIピクチャでなければ、対象フレームの直前のIピクチャの個別アクセス位置をキャッシュインデックスファイルから取得し、ストリームキャッシュ記録部にアクセスし、データを取得してIフレームをデコードする。これに続くフレームをデコードし、対象フレームまでこれを続ける。このようにして対象フレームをデコードする(ステップS404)。なお、ステップS404においてデコードしたフレームは、デコード済キャッシュ(メモリ34)に記録する(ステップS405)。   If the target frame is not an I picture, the individual access position of the I picture immediately before the target frame is acquired from the cache index file, the stream cache recording unit is accessed, data is acquired, and the I frame is decoded. The subsequent frame is decoded and this is continued until the target frame. In this way, the target frame is decoded (step S404). The frame decoded in step S404 is recorded in the decoded cache (memory 34) (step S405).

なお、ステップS403において、対象フレームがストリームキャッシュ記録部に存在しない場合もある(予測が外れた場合)。この場合、CPU30は、ハーディスク2のインデックスファイル4を参照し、対象フレームを得るためのGOPを特定する。これは、対象フレームのフレーム番号とGOPの先頭フレーム番号と最終フレーム番号とに基づいて判断することができる。特定したGOPのアクセス位置を取得する(ステップS406)。   In step S403, there is a case where the target frame does not exist in the stream cache recording unit (when prediction is lost). In this case, the CPU 30 refers to the index file 4 of the hard disk 2 and specifies the GOP for obtaining the target frame. This can be determined based on the frame number of the target frame, the first frame number of the GOP, and the last frame number. The access position of the identified GOP is acquired (step S406).

次に、CPU30は、アクセス位置に基づき、ハードディスク2の動画データファイル6にアクセスしGOPを取得する。GOPの最初のフレームからデコードし、対象フレームを得る(ステップS407)。なお、ステップS407においてデコードしたフレームは、デコード済キャッシュ(メモリ34)に記録する(ステップS405)。   Next, the CPU 30 accesses the moving image data file 6 on the hard disk 2 based on the access position, and acquires the GOP. A target frame is obtained by decoding from the first frame of the GOP (step S407). Note that the frame decoded in step S407 is recorded in the decoded cache (memory 34) (step S405).

図16に戻って、CPU30は、上記のようにして取得した対象フレームを再生用バッファ(図示せず)に出力する(ステップS106)。これにより、ディスプレイ32は、再生用バッファに記録されたフレームを表示する。   Returning to FIG. 16, the CPU 30 outputs the target frame obtained as described above to a reproduction buffer (not shown) (step S106). Thereby, the display 32 displays the frame recorded in the reproduction buffer.

なお、CPU30は、どのフレームを再生用バッファに出力したかをメモリ34において記録している。CPU30は、ストリームキャッシュ記録部に記録されたGOPに含まれるフレームのうち必要複数フレームのすべてについて再生用バッファに出力した場合には、当該ストリームキャッシュ記録部の内容を消去する。   The CPU 30 records in the memory 34 which frame has been output to the reproduction buffer. When the CPU 30 outputs all necessary plural frames among the frames included in the GOP recorded in the stream cache recording unit to the reproduction buffer, the CPU 30 erases the contents of the stream cache recording unit.

ストリームキャッシュ記録部の内容が無くなると(ステップS107)、ステップS102に戻って、次の必要複数フレームをストリームキャッシュ記録部に記録する。   When there is no more content in the stream cache recording unit (step S107), the process returns to step S102 to record the next necessary plurality of frames in the stream cache recording unit.

なお、ストリームキャッシュ記録部は2つ以上設けるようにしてもよい。一方のストリームキャッシュ記録部の必要複数フレームがすべて再生用バッファに出力されると内容が消去され、次の必要複数フレームを蓄積するように処理がなされる。この間、もう一方のストリームキャッシュ記録部の記録内容により、対象フレームがデコードされる。この場合、図16のフローチャートのステップS102、S103の処理とステップS104〜S106の処理は、平行して実行される。   Two or more stream cache recording units may be provided. When all the necessary plural frames of one stream cache recording unit are output to the reproduction buffer, the contents are erased and processing is performed so as to accumulate the next necessary plural frames. During this time, the target frame is decoded according to the recording contents of the other stream cache recording unit. In this case, the processes in steps S102 and S103 and the processes in steps S104 to S106 in the flowchart of FIG. 16 are executed in parallel.

上記では、動画データファイルが図3のような構造である場合(ES)について説明した。次に、動画データファイルが図7のような構造である場合(PES、PS)について説明する。基本的な処理の流れは図16と同じである。   The case where the moving image data file has a structure as shown in FIG. 3 (ES) has been described above. Next, a case where the moving image data file has a structure as shown in FIG. 7 (PES, PS) will be described. The basic processing flow is the same as in FIG.

ただし、予測処理、ストリームキャッシュ処理、フレーム復元処理が、それぞれ、図26、図27、図28に示すように若干異なっている。図17、図18、図19と同じ処理の部分には同一の符号を付している。   However, the prediction process, the stream cache process, and the frame restoration process are slightly different as shown in FIGS. 26, 27, and 28, respectively. Parts that are the same as those in FIGS. 17, 18, and 19 are denoted by the same reference numerals.

図26の予測処理では、ステップS2041において、必要複数フレームが含まれるPESパケットのアクセス位置をインデックスファイル(図10参照)から取得する。   In the prediction process of FIG. 26, in step S2041, the access position of the PES packet including the necessary plural frames is acquired from the index file (see FIG. 10).

図27のストリームキャッシュ処理では、ステップS3011において、必要複数GOPが含まれるPESパケットにアクセスし、ステップS3012において、PESパケットを取得してGOPを復元する。このように、ストリームキャッシュ処理に段階で、GOPをまとめて復元してキャッシュしておくことにより、処理の迅速化を図っている。   In the stream cache process of FIG. 27, a PES packet including a necessary plurality of GOPs is accessed in step S3011, and the PES packet is acquired and the GOP is restored in step S3012. In this way, at the stage of the stream cache process, the GOP is collectively restored and cached to speed up the process.

図28のフレーム復元処理では、ステップS4061において、インデックスファイル4(図10)を参照し、対象フレームを得るためのPESパケットのアクセス位置を取得する。ステップS4062において、PESパケットを取得し、当該PES形式パケットに基づいてGOPを復元する。   In the frame restoration process of FIG. 28, in step S4061, the index file 4 (FIG. 10) is referred to, and the access position of the PES packet for obtaining the target frame is acquired. In step S4062, a PES packet is acquired, and a GOP is restored based on the PES format packet.

上記では、動画データファイルが図7のような構造である場合(PES、PS)について説明した。次に、動画データファイルが図11のような構造である場合(TS)について説明する。基本的な処理の流れは図16と同じである。   The case where the moving image data file has the structure as shown in FIG. 7 (PES, PS) has been described above. Next, a case where the moving image data file has a structure as shown in FIG. 11 (TS) will be described. The basic processing flow is the same as in FIG.

ただし、予測処理、ストリームキャッシュ処理、フレーム復元処理が、それぞれ、図29、図30、図31に示すように若干異なっている。図17、図18、図19と同じ処理の部分には同一の符号を付している。   However, the prediction process, the stream cache process, and the frame restoration process are slightly different as shown in FIGS. 29, 30, and 31, respectively. Parts that are the same as those in FIGS. 17, 18, and 19 are denoted by the same reference numerals.

図29の予測処理では、ステップS2045において、必要複数フレームが含まれるTSパケットのアクセス位置をインデックスファイル(図14参照)から取得する。   In the prediction process of FIG. 29, in step S2045, the access position of the TS packet including the necessary plural frames is acquired from the index file (see FIG. 14).

図30のストリームキャッシュ処理では、ステップS3015において、必要複数GOPが含まれるTSパケットにアクセスし、ステップS3016において、TSパケットを取得してPESパケットを復元し、さらにGOPを復元する。このように、ストリームキャッシュ処理に段階で、GOPをまとめて復元してキャッシュしておくことにより、処理の迅速化を図っている。   In the stream cache process of FIG. 30, a TS packet including a plurality of necessary GOPs is accessed in step S3015. In step S3016, the TS packet is acquired to restore the PES packet, and further the GOP is restored. In this way, at the stage of the stream cache process, the GOP is collectively restored and cached to speed up the process.

図31のフレーム復元処理では、ステップS4065において、インデックスファイル4(図14)を参照し、対象フレームを得るためのTSパケットのアクセス位置を取得する。ステップS4066において、TSパケットを取得し、当該TSパケットに基づいてPESパケットを復元し、GOPを復元する。   In the frame restoration process of FIG. 31, in step S4065, the index file 4 (FIG. 14) is referred to, and the access position of the TS packet for obtaining the target frame is acquired. In step S4066, a TS packet is acquired, a PES packet is restored based on the TS packet, and a GOP is restored.

上記実施形態では、同時に再生すべきクリップが1つである場合について説明した。しかし、図32に示すように、2つのフレームをデコードして、これらフレームに基づいて1つのフレームを作るトランジションの場合においても適用することができる。図32において、T1およびT2の部分が、トランジションである。   In the above embodiment, the case where there is one clip to be reproduced at the same time has been described. However, as shown in FIG. 32, the present invention can also be applied to a transition in which two frames are decoded and one frame is generated based on these frames. In FIG. 32, portions T1 and T2 are transitions.

この場合には、トランジションの対象となる2つのクリップのためにそれぞれ独立したフレームキャッシュ記録部を設ける。たとえば、トランジションT1においては、動画データファイルXのクリップClip001のフレームと、動画データファイルYのクリップClip002のフレームの2つを合成しなければならない。ハードディスク2から両フレームを読み出した場合には、動画データファイルXと動画データファイルYに対してフレーム毎に、交互にアクセスしなければならなくなる。したがって、処理速度がきわめて遅くなってしまう。   In this case, independent frame cache recording units are provided for the two clips to be transitioned. For example, in the transition T1, two frames of the clip Clip001 of the moving image data file X and the frame of the clip Clip002 of the moving image data file Y must be synthesized. When both frames are read from the hard disk 2, the moving image data file X and the moving image data file Y must be accessed alternately for each frame. Therefore, the processing speed is extremely slow.

この実施形態では、メモリ34にフレームキャッシュ記録部を設けているので、処理速度を向上させることができる。   In this embodiment, since the frame cache recording unit is provided in the memory 34, the processing speed can be improved.

なお、このようなトランジションは、図33に示すように、編集構成データ12のトランジション情報215に記述されているので、CPU30は予測を行うことができる。
Since such a transition is described in the transition information 215 of the editing configuration data 12 as shown in FIG. 33, the CPU 30 can make a prediction.

5.その他の実施形態
上記実施形態では、再生装置を例として説明したが、再生機能を有する装置、たとえば動画編集装置、動画送信装置などにも同様に適用することができる。動画編集装置においては、オペレータの操作入力に基づいて、編集構成データファイル6の記述を書き換えることにより編集を行う。
5). Other Embodiments In the above-described embodiment, the playback device has been described as an example. However, the present invention can be similarly applied to a device having a playback function, such as a video editing device or a video transmission device. In the moving image editing apparatus, editing is performed by rewriting the description of the editing configuration data file 6 based on the operation input of the operator.

上記実施形態では、インデックスファイルを用いてアクセスを迅速化している。しかし、インデックスファイルを用いなくとも、この発明を実施することができる。この場合、予測手段8、ストリームキャッシュ処理手段10は、インデックスファイル4を参照できないので、直接的に動画データファイル6にアクセスして所望のデータを探し出すことになる。また、この場合において、ストリームキャッシュ処理手段10は、動画データファイル6の該当部分を読み出して非可動式記録部14に記録する際に、キャッシュインデックスファイルを生成するようにしてもよい。   In the above embodiment, access is speeded up using an index file. However, the present invention can be implemented without using an index file. In this case, since the predicting unit 8 and the stream cache processing unit 10 cannot refer to the index file 4, the moving image data file 6 is directly accessed to search for desired data. In this case, the stream cache processing unit 10 may generate a cache index file when the relevant part of the moving image data file 6 is read and recorded in the non-movable recording unit 14.

上記実施形態では、図6、図10、図14に示すように、インデックスファイルにおいて、各GOPごとに、先頭フレームおよび最終フレームを代表フレームとし、先頭フレーム番号および最終フレーム番号を記録するようにしている。しかし、先頭フレームを代表フレームとし、先頭フレーム番号を記録するようにしてもよい。この場合、最終フレーム番号は記録されないが、CPU130は、ステップS402、S503において、時系列に並んだ次のGOPの先頭フレーム番号を取得すれば、当該GOPに含まれるフレーム番号の範囲を認識することができる。   In the above embodiment, as shown in FIGS. 6, 10, and 14, in the index file, for each GOP, the head frame and the last frame are set as the representative frames, and the head frame number and the last frame number are recorded. Yes. However, the head frame number may be recorded using the head frame as a representative frame. In this case, the final frame number is not recorded, but if the CPU 130 acquires the first frame number of the next GOP arranged in time series in steps S402 and S503, the CPU 130 recognizes the range of frame numbers included in the GOP. Can do.

上記実施形態では、MPEG形式のデータについて説明したが、双方向予測符号化を用いる他の圧縮形式の動画データについても同様に適用することができる。   In the above-described embodiment, data in the MPEG format has been described. However, the present invention can be similarly applied to moving image data in other compression formats that use bidirectional predictive coding.

上記実施形態では、グループデータやパケットの代表点として、先頭位置を用いている。しかし、アクセスを容易にできる位置であれば、どの場所を代表点として用いてもよい。たとえば、動画データファイルの後方からアクセする場合には、終了位置を代表点として用いるとよい。   In the above embodiment, the head position is used as a representative point of the group data or packet. However, any location may be used as a representative point as long as it can be easily accessed. For example, when accessing from behind the moving image data file, the end position may be used as the representative point.

上記実施形態では、CPUを用いて各機能を達成しているが、その全部または一部をハードウエアによって構成してもよい。   In the above-described embodiment, each function is achieved by using the CPU, but all or a part thereof may be configured by hardware.

図1は、この発明の一実施形態による動画再生装置の機能ブロック図である。FIG. 1 is a functional block diagram of a moving image playback apparatus according to an embodiment of the present invention. 動画再生装置のハードウエア構成を示す図である。It is a figure which shows the hardware constitutions of a moving image reproducing device. メイン(プロキシ)動画データファイル(ES)の構成を示す図である。It is a figure which shows the structure of the main (proxy) moving image data file (ES). インデックスファイル作成処理のフローチャートである。It is a flowchart of an index file creation process. インデックスファイル作成処理のフローチャートである。It is a flowchart of an index file creation process. インデックスファイルの構成を示す図である。It is a figure which shows the structure of an index file. 動画データファイル(PES)の構成を示す図である。It is a figure which shows the structure of a moving image data file (PES). インデックスファイル作成処理のフローチャートである。It is a flowchart of an index file creation process. インデックスファイル作成処理のフローチャートである。It is a flowchart of an index file creation process. インデックスファイルの構成を示す図である。It is a figure which shows the structure of an index file. 動画データファイル(TS)の構成を示す図である。It is a figure which shows the structure of a moving image data file (TS). インデックスファイル作成処理のフローチャートである。It is a flowchart of an index file creation process. インデックスファイル作成処理のフローチャートである。It is a flowchart of an index file creation process. 動画インデックスファイルの構成を示す図である。It is a figure which shows the structure of a moving image index file. インデックスファイル作成処理のフローチャートである。It is a flowchart of an index file creation process. 再生処理プログラムのフローチャートである。It is a flowchart of a reproduction | regeneration processing program. 予測処理のフローチャートである。It is a flowchart of a prediction process. ストリームキャッシュ処理のフローチャートである。It is a flowchart of a stream cache process. フレーム復元処理のフローチャートである。It is a flowchart of a frame restoration process. 編集構成データの構造を示す図である。It is a figure which shows the structure of edit structure data. 動画データファイルと編集構成データとの関係を示す図である。It is a figure which shows the relationship between a moving image data file and edit structure data. 編集構成データの一部を示す図である。It is a figure which shows a part of edit structure data. リストを示す図である。It is a figure which shows a list. インデックスファイルのデータ例である。It is an example of data of an index file. キャッシュインデックスファイルのデータ例を示す図である。It is a figure which shows the example of data of a cache index file. 予測処理のフローチャートである。It is a flowchart of a prediction process. ストリームキャッシュ処理のフローチャートである。It is a flowchart of a stream cache process. フレームの復元処理のフローチャートである。It is a flowchart of a restoration process of a frame. 予測処理のフローチャートである。It is a flowchart of a prediction process. ストリームキャッシュ処理のフローチャートである。It is a flowchart of a stream cache process. フレーム復元処理のフローチャートである。It is a flowchart of a frame restoration process. トランジションを説明するための図である。It is a figure for demonstrating a transition. 編集構成データのトランジション情報の詳細を示す図である。It is a figure which shows the detail of the transition information of edit structure data.

符号の説明Explanation of symbols

2・・・可動式記録部
4・・・インデックスファイル
6・・・動画データファイル
8・・・予測手段
10・・・ストリームキャッシュ処理手段
12・・・編集構成データファイル
14・・・非可動式記録部
16・・・グループデータ
18・・・個別フレーム順番情報
20・・・個別アクセス位置
22・・・特定手段
24・・・フレーム復元手段
26・・・表示部
DESCRIPTION OF SYMBOLS 2 ... Movable recording part 4 ... Index file 6 ... Movie data file 8 ... Prediction means 10 ... Stream cache processing means
12 ... Editing composition data file
14 ... Non-movable recording unit 16 ... Group data 18 ... Individual frame order information 20 ... Individual access position 22 ... Specific means 24 ... Frame restoration means 26 ... Display unit

Claims (8)

動画を構成するフレームをエンコードしてグル−プ化した動画データファイル、該動画データファイルのグループ情報を記述した動画インデックスファイル、該動画データファイルの一部である各動画素材の開始フレームおよび終了フレーム順番情報を特定した編集構成データファイルを可動式記録部に記録し、アクセスする記録手段と、
前記編集構成データファイルに基づいて必要となる複数フレームを予想する予測手段と、
前記予測手段による当該予想複数フレームに対応する動画データファイルの一部を、前記可動式記録部から読み出して、動画データファイルのフレーム群を記録するための非可動式のストリームキャッシュ記録部に記憶するストリームキャッシュ処理手段と、
前記編集構成データファイルに基づいて次に必要な対象フレームを特定する特定手段と、
前記ストリームキャッシュ手段に記憶された動画データファイルに基づいて、前記特定手段により特定された対象フレームをデコードするフレーム復元手段と
を備えた動画再生機能を有する装置であって、
前記ストリームキャッシュ処理手段は、グループデータを前記ストリームキャッシュ部に記録する際に、当該グループデータを構成する少なくとも主要ピクチャーデータの個別フレーム順番情報を算出してストリームキャッシュ部に記録し、
前記フレーム復元手段は、前記個別フレーム順番情報に基づいて、対象フレームの復元に必要なピクチャーデータを特定し、
前記ストリームキャッシュ処理手段は、グループデータを前記ストリームキャッシュ部に記録する際に、当該グループデータを構成する少なくとも主要ピクチャーデータのストリームキャッシュ記録部における記録位置を個別アクセス位置としてストリームキャッシュ記録部に記録し、
前記フレーム復元手段は、前記個別アクセス位置に基づいて、対象フレームの復元に必要なピクチャーデータのアクセス位置を特定する動画再生機能を有する装置。
Movie data file in which frames constituting a movie are encoded and grouped, movie index file describing group information of the movie data file, start frame and end frame of each movie material which is a part of the movie data file Recording means for recording and accessing the edit configuration data file specifying the order information in the movable recording unit, and
Predicting means for predicting a plurality of frames required based on the editing configuration data file;
A part of the moving image data file corresponding to the predicted plurality of frames by the predicting unit is read from the movable recording unit and stored in a non-movable stream cache recording unit for recording a frame group of the moving image data file. Stream cache processing means;
Specifying means for specifying the next required target frame based on the editing configuration data file;
A device having a video playback function, comprising: a frame restoration unit that decodes a target frame specified by the specifying unit based on a video data file stored in the stream cache unit;
The stream cache processing means, when recording the group data in the stream cache unit, calculates the individual frame order information of at least the main picture data constituting the group data and records it in the stream cache unit,
The frame restoration means specifies picture data necessary for restoration of the target frame based on the individual frame order information,
When recording the group data in the stream cache unit, the stream cache processing unit records the recording position in the stream cache recording unit of at least main picture data constituting the group data as an individual access position in the stream cache recording unit. ,
The frame restoration means is an apparatus having a moving picture reproduction function for specifying an access position of picture data necessary for restoration of a target frame based on the individual access position .
コンピュータを、
動画を構成するフレームをエンコードしてグル−プ化した動画データファイル、該動画データファイルのグループ情報を記述した動画インデックスファイル、該動画データファイルの一部である各動画素材の開始フレームおよび終了フレーム順番情報を特定した編集構成データファイルを可動式記録部に記録し、アクセスする記録手段、
前記編集構成データファイルに基づいて必要となる複数フレームを予想する予測手段、
前記予測手段による当該予想複数フレームに対応する動画データファイルの一部を、前記可動式記録部から読み出して、動画データファイルのフレーム群を記録するための非可動式のストリームキャッシュ記録部に記憶するストリームキャッシュ処理手段、
前記編集構成データファイルに基づいて次に必要な対象フレームを特定する特定手段、
前記ストリームキャッシュ手段に記憶された動画データファイルに基づいて、前記特定手段により特定された対象フレームをデコードするフレーム復元手段、
として機能させるための動画再生プログラムであって、
前記ストリームキャッシュ処理手段は、グループデータを前記ストリームキャッシュ部に記録する際に、当該グループデータを構成する少なくとも主要ピクチャーデータの個別フレーム順番情報を算出してストリームキャッシュ部に記録し、
前記フレーム復元手段は、前記個別フレーム順番情報に基づいて、対象フレームの復元に必要なピクチャーデータを特定し、
前記ストリームキャッシュ処理手段は、グループデータを前記ストリームキャッシュ部に記録する際に、当該グループデータを構成する少なくとも主要ピクチャーデータのストリームキャッシュ記録部における記録位置を個別アクセス位置としてストリームキャッシュ記録部に記録し、
前記フレーム復元手段は、前記個別アクセス位置に基づいて、対象フレームの復元に必要なピクチャーデータのアクセス位置を特定する動画再生プログラム。
Computer
Movie data file in which frames constituting a movie are encoded and grouped, movie index file describing group information of the movie data file, start frame and end frame of each movie material which is a part of the movie data file Recording means for recording and accessing an edit configuration data file specifying the order information in the movable recording unit,
Prediction means for predicting a plurality of necessary frames based on the editing configuration data file,
A part of the moving image data file corresponding to the predicted plurality of frames by the predicting unit is read from the movable recording unit and stored in a non-movable stream cache recording unit for recording a frame group of the moving image data file. Stream cache processing means,
A specifying means for specifying a next required target frame based on the editing configuration data file;
Frame restoring means for decoding the target frame specified by the specifying means based on the moving image data file stored in the stream cache means;
A video playback program to function as
The stream cache processing means, when recording the group data in the stream cache unit, calculates the individual frame order information of at least the main picture data constituting the group data and records it in the stream cache unit,
The frame restoration means specifies picture data necessary for restoration of the target frame based on the individual frame order information,
When recording the group data in the stream cache unit, the stream cache processing unit records the recording position in the stream cache recording unit of at least main picture data constituting the group data as an individual access position in the stream cache recording unit. ,
The frame restoration means is a moving picture reproduction program for specifying an access position of picture data necessary for restoration of a target frame based on the individual access position .
請求項2のプログラムにおいて、
前記可動式記録部に記録された動画データファイルは、エンコードした複数フレームの動画をグループ化してグループデータとし、当該グループデータを時系列順に配置したものであり、
前記動画インデックスファイルは、動画データファイル中の各グループデータの代表点の記録位置をアクセス位置として記述するとともに各グループデータに含まれる代表フレームの、動画データファイル全体のフレームにおける順番を示す代表フレーム順番情報を記述したものであり、
前記ストリームキャッシュ処理手段は、予想複数フレームの両端のフレーム順番情報と前記動画インデックスファイルの代表フレーム順番情報に基づいて、予想複数フレームを含むグループデータを特定し、当該グループデータのアクセス位置に基づいて、前記可動式記録部からグループデータを取得する動画再生プログラム。
In the program of Claim 2,
The moving image data file recorded in the movable recording unit is a group data obtained by grouping encoded moving images of a plurality of frames, and the group data is arranged in time series,
The moving image index file describes the recording position of the representative point of each group data in the moving image data file as an access position, and represents the order of the representative frames included in each group data in the entire moving image data file. Is a description of information,
The stream cache processing means identifies group data including the predicted multiple frames based on the frame order information at both ends of the predicted multiple frames and the representative frame order information of the moving image index file, and based on the access position of the group data A moving image reproduction program for acquiring group data from the movable recording unit.
請求項2のプログラムにおいて、
前記可動式記録部に記録された動画データファイルは、エンコードした複数フレームの動画をグループ化してグループデータとし、当該グループデータをパケット化したパケットデータを時系列順に配置したものであり、
前記動画インデックスファイルは、動画データファイル中の各グループデータを含むパケットの代表点の記録位置をアクセス位置として記述し、各グループデータに含まれる代表フレームの、動画データファイル全体のフレームにおける順番を示す代表フレーム順番情報を記述したものであり、
前記ストリームキャッシュ処理手段は、a)予想複数フレームの両端のフレーム順番情報と前記動画インデックスファイルの代表フレーム順番情報に基づいて、予想複数フレームを含むグループデータを特定し、b)当該グループデータを含むパケットのアクセス位置に基づいて、前記可動式記録部からグループデータを含むパケットを取得し、c)当該パケットからグループデータを復元してストリームキャッシュ記録部に記録する動画再生プログラム。
In the program of Claim 2,
The moving image data file recorded in the movable recording unit is a group data obtained by grouping encoded frames of moving images, and packet data obtained by packetizing the group data is arranged in time series,
The moving image index file describes the recording position of the representative point of the packet including each group data in the moving image data file as the access position, and indicates the order of the representative frame included in each group data in the frame of the entire moving image data file. It describes the representative frame order information,
The stream cache processing means a) specifies group data including a plurality of predicted frames based on frame order information at both ends of the predicted plurality of frames and representative frame order information of the moving image index file, and b) includes the group data. A moving image reproducing program that acquires a packet including group data from the movable recording unit based on the access position of the packet, and c) restores the group data from the packet and records it in the stream cache recording unit.
請求項2〜4のいずれかのプログラムにおいて、
前記フレーム復元手段は、対象フレームを得るために復元した一以上のフレームをデコード済キャッシュ記録部に記録しておき、新たに必要となった対象フレームについて、デコード済キャッシュ記録部に記録されていればこれから取得し、デコード済キャッシュ記録部に記録されていなければ、前記ストリームキャッシュ記録部から取得して復元する動画再生プログラム。
In the program in any one of Claims 2-4,
The frame restoration means records one or more frames restored to obtain the target frame in the decoded cache recording unit, and the newly required target frame is recorded in the decoded cache recording unit. For example, a moving image reproduction program that is acquired from this and is acquired from the stream cache recording unit and restored if it is not recorded in the decoded cache recording unit.
請求項5のプログラムにおいて、
前記フレーム復元手段は、対象フレームが前記デコード済キャッシュ記録部および前記ストリームキャッシュ記録部のいずれにも記録されていない場合には、前記可動式記録部から取得して復元する動画再生プログラム。
In the program of Claim 5,
The frame restoration means is a moving image reproduction program for obtaining and restoring from the movable recording unit when the target frame is not recorded in either the decoded cache recording unit or the stream cache recording unit.
請求項2〜6のいずれかのプログラムにおいて、
前記ストリームキャッシュ処理手段または前記予測手段は、予測複数フレームが、予想再生順序において降順であるか否かを、フレーム順番情報に基づいて判断し、降順であれば昇順に修正する動画再生プログラム。
In the program in any one of Claims 2-6,
The stream cache processing unit or the prediction unit determines whether or not the predicted plurality of frames are in descending order in the expected reproduction order based on the frame order information, and corrects in ascending order if descending order.
動画を構成するフレームをエンコードした動画データファイルを記録し、アクセスのための可動部を有する可動式記録部と、動画の一部である各動画素材の開始フレーム順番情報および終了フレーム順番情報を特定する編集構成データファイルを記録した編集構成データファイル記録部と、動画データファイルのフレーム群を記録するためのストリームキャッシュ記録部にアクセス可能なコンピュータによって動画を再生する方法であって、
予測手段により、編集構成データファイルに基づいて必要となる複数フレームを予想し、
ストリームキャッシュ処理手段により、予測手段による当該予想複数フレームに対応する動画データファイルの一部を、可動式記録部から読み出して、ストリームキャッシュ記録部に記憶し、
特定手段により、編集構成データファイルに基づいて次に必要な対象フレームを特定し、
ストリーム復元手段により、ストリームキャッシュ手段に記憶された動画データファイルに基づいて、前記対象フレームをデコードすることを特徴とする動画再生方法であって、
前記ストリームキャッシュ処理手段により、グループデータを前記ストリームキャッシュ部に記録する際に、当該グループデータを構成する少なくとも主要ピクチャーデータの個別フレーム順番情報を算出してストリームキャッシュ部に記録し、
前記フレーム復元手段により、前記個別フレーム順番情報に基づいて、対象フレームの復元に必要なピクチャーデータを特定し、
前記ストリームキャッシュ処理手段により、グループデータを前記ストリームキャッシュ部に記録する際に、当該グループデータを構成する少なくとも主要ピクチャーデータのストリームキャッシュ記録部における記録位置を個別アクセス位置としてストリームキャッシュ記録部に記録し、
前記フレーム復元手段により、前記個別アクセス位置に基づいて、対象フレームの復元に必要なピクチャーデータのアクセス位置を特定する動画再生方法。
Record a video data file that encodes the frames that make up a video, and specify a movable recording unit with a movable unit for access, and start frame order information and end frame order information for each video material that is part of the video A method of reproducing a moving image by a computer accessible to an editing configuration data file recording unit that records the editing configuration data file and a stream cache recording unit for recording a frame group of the moving image data file,
Predicting means to predict the required multiple frames based on the editing configuration data file,
The stream cache processing unit reads out a part of the moving image data file corresponding to the predicted plurality of frames by the prediction unit from the movable recording unit, and stores it in the stream cache recording unit.
By the specifying means, the next necessary target frame is specified based on the editing configuration data file,
A video reproduction method characterized by decoding the target frame based on a video data file stored in a stream cache means by a stream restoration means,
When recording the group data in the stream cache unit by the stream cache processing unit, the individual frame order information of at least main picture data constituting the group data is calculated and recorded in the stream cache unit,
Based on the individual frame order information, the frame restoration means identifies picture data necessary for restoration of the target frame,
When recording the group data in the stream cache unit by the stream cache processing means, the recording position in the stream cache recording unit of at least main picture data constituting the group data is recorded in the stream cache recording unit as an individual access position. ,
A moving image reproduction method for specifying an access position of picture data necessary for restoring a target frame based on the individual access position by the frame restoration means.
JP2005147976A 2005-05-20 2005-05-20 Apparatus having moving picture data playing function, moving picture playing program, and moving picture data playing method Active JP4566821B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005147976A JP4566821B2 (en) 2005-05-20 2005-05-20 Apparatus having moving picture data playing function, moving picture playing program, and moving picture data playing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005147976A JP4566821B2 (en) 2005-05-20 2005-05-20 Apparatus having moving picture data playing function, moving picture playing program, and moving picture data playing method

Publications (3)

Publication Number Publication Date
JP2006325086A JP2006325086A (en) 2006-11-30
JP2006325086A5 JP2006325086A5 (en) 2008-06-26
JP4566821B2 true JP4566821B2 (en) 2010-10-20

Family

ID=37544402

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005147976A Active JP4566821B2 (en) 2005-05-20 2005-05-20 Apparatus having moving picture data playing function, moving picture playing program, and moving picture data playing method

Country Status (1)

Country Link
JP (1) JP4566821B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090037965A1 (en) * 2007-07-31 2009-02-05 Leonard Tsai Portal based video indexing
JP4322944B2 (en) 2007-10-31 2009-09-02 株式会社東芝 VIDEO REPRODUCTION DEVICE, VIDEO REPRODUCTION METHOD, AND VIDEO REPRODUCTION PROCESSING PROGRAM
JP5496293B2 (en) * 2012-09-26 2014-05-21 キヤノン株式会社 Information transmitting apparatus, control method thereof, and program
CN110473275B (en) * 2018-05-09 2023-05-30 鸿合科技股份有限公司 Frame animation realization method and device under android system and electronic equipment
CN116761019A (en) * 2023-08-24 2023-09-15 瀚博半导体(上海)有限公司 Video processing method, system, computer device and computer readable storage medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000023090A (en) * 1998-04-28 2000-01-21 Hitachi Ltd Compressed moving image editing device and storage medium
JP2000030419A (en) * 1998-07-08 2000-01-28 Sony Corp Record medium controller and method as well as access controller
JP2002230948A (en) * 2000-11-29 2002-08-16 Matsushita Electric Ind Co Ltd Optical disk, recorder, reproducing apparatus, program, computer-readable recording medium, and method
JP2004040261A (en) * 2002-06-28 2004-02-05 Nec Micro Systems Ltd Multi-value image encoding / decoding apparatus
JP2004110876A (en) * 2002-09-13 2004-04-08 Canon Inc Coding rate controlling method of video data

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000023090A (en) * 1998-04-28 2000-01-21 Hitachi Ltd Compressed moving image editing device and storage medium
JP2000030419A (en) * 1998-07-08 2000-01-28 Sony Corp Record medium controller and method as well as access controller
JP2002230948A (en) * 2000-11-29 2002-08-16 Matsushita Electric Ind Co Ltd Optical disk, recorder, reproducing apparatus, program, computer-readable recording medium, and method
JP2004040261A (en) * 2002-06-28 2004-02-05 Nec Micro Systems Ltd Multi-value image encoding / decoding apparatus
JP2004110876A (en) * 2002-09-13 2004-04-08 Canon Inc Coding rate controlling method of video data

Also Published As

Publication number Publication date
JP2006325086A (en) 2006-11-30

Similar Documents

Publication Publication Date Title
JP5332773B2 (en) Image processing apparatus and method
US20070201832A1 (en) Recording apparatus, recording method, program for recording method, recording medium recording program for recording method, reproducing apparatus, reproduction method, program for reproduction method, and recording medium recording program for reproduction method
EP2012322B1 (en) Recording/reproducing apparatus, recording apparatus, reproducing apparatus, recording method, reproducing method and computer program
US7716259B2 (en) File splitting apparatus, file splitting method and file splitting program
US20100166081A1 (en) Video stream processing apparatus and control method, program and recording medium for the same
JP2012146391A (en) Method and apparatus for storing or rearranging prescribed position in data stream
JP2008053763A (en) Av data recording device and method, av data reproducing device and method, and recording medium recorded by the av data recording device or the method
TW579506B (en) A recording device and a recording method
JP2002218390A (en) Mpeg video editor and mpeg video editing method
JP4566821B2 (en) Apparatus having moving picture data playing function, moving picture playing program, and moving picture data playing method
JP7016377B2 (en) Reproduction method and reproduction device
JP2006324848A (en) Apparatus and method for information processing
JP4552802B2 (en) Recording apparatus, recording method, recording method program, and recording medium recording the recording method program
JP4548226B2 (en) Data processing method, apparatus and program thereof
US7343088B2 (en) Disc apparatus, disc recording method, disc playback method, recording medium, and program
JP2006325086A5 (en)
TWI275307B (en) Video reproducing apparatus
US6999090B2 (en) Data processing apparatus, data processing method, information storing medium, and computer program
US20060291805A1 (en) Recording/reproduction device and recording/reproduction method
CN101032165B (en) Authoring device, authoring method
JP4616144B2 (en) Data processing device
JP2004192774A (en) Audio and visual data recording method, audio and visual data recording device, data recording medium, program and program recording medium
JP2006279147A (en) Index file generating apparatus and moving picture edit apparatus
JP3132479B2 (en) Compressed stream decoding method and compressed stream decoding device
JP2004096474A (en) Reproducing method and system of moving picture data

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080507

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080507

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080630

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100311

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100713

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100802

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100804

R150 Certificate of patent or registration of utility model

Ref document number: 4566821

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130813

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250