JP2001169246A - Data recording method and data reproduction method - Google Patents

Data recording method and data reproduction method

Info

Publication number
JP2001169246A
JP2001169246A JP35258199A JP35258199A JP2001169246A JP 2001169246 A JP2001169246 A JP 2001169246A JP 35258199 A JP35258199 A JP 35258199A JP 35258199 A JP35258199 A JP 35258199A JP 2001169246 A JP2001169246 A JP 2001169246A
Authority
JP
Japan
Prior art keywords
data
file
scene
reproduction
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP35258199A
Other languages
Japanese (ja)
Inventor
Hirotoshi Iwano
裕利 岩野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP35258199A priority Critical patent/JP2001169246A/en
Publication of JP2001169246A publication Critical patent/JP2001169246A/en
Pending legal-status Critical Current

Links

Landscapes

  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

PROBLEM TO BE SOLVED: To solve a problem involved in a conventional data recording method and data reproduction method that complicated processing procedures has been required because it is required to transfer two files for stream data being part of an original scene and its management information if the stream data corresponding to a user scene defined by a user is copied or transferred to a network due to the absence of concept of nondestructive edit caused by e.g. one user scene consisting of one independent file despite of the necessity of reproduction management information for each user scene or due to the reproduction management information intensively recorded on a disk as a file separately from a file of stream data even when the nondestructive edit is preconditioned. SOLUTION: Information relating to a user scene is recorded in a header position of each data unit in stream data so as to manage reproduction information together with the stream data and even a data transfer destination can control a reproduction start and end from an optional frame position.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、動画像ファイルを
記録再生する方法に関するものであり、特に非破壊編集
を行う場合における再生管理情報の記録手法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for recording and reproducing a moving image file, and more particularly to a method for recording reproduction management information when performing non-destructive editing.

【0002】[0002]

【従来の技術】近年のマルチメディアの普及に伴い、映
像、音楽、静止画などの様々なマルチメディアデータ
を、記録媒体へ記録する需要が高まってきている。記録
媒体の中でも、従来はビデオテープやオーディオテープ
などのテープメディアが主流であったが、近年はハード
ディスク、光磁気ディスクなどのディスクメディアに記
録することが多くなってきている。ディスクメディアを
利用したものとして、音楽用の場合はMD、映像用の場合
はDVD Videoなどが一般的に知られており、ランダムア
クセス性を特徴として普及している。
2. Description of the Related Art With the spread of multimedia in recent years, there has been an increasing demand for recording various multimedia data such as video, music, and still images on a recording medium. Among recording media, tape media such as video tapes and audio tapes have conventionally been the mainstream, but in recent years, recording on disk media such as hard disks and magneto-optical disks has been increasing. MDs for music, DVD Video for video, and the like are generally known as those using disk media, and are widely used because of their random access characteristics.

【0003】ここで、MPEGでエンコードした映像データ
と音声データを多重したストリームデータをディスクに
記録する場合について説明する。例えば、ディスクに記
録したストリームデータを記録開始から停止あるいは一
時停止と言った管理単位でファイルとして管理する事に
する。ディスクのランダムアクセス性を利用すると、1
つのファイルに対応するストリームデータであってもデ
ィスク上で連続的に記録されている必要はない。つまり
1つのファイルで管理する一連のデータがディスク上で
分断して記録されていても、ディスクからそれらの分断
を順番に読み出して行くことによって、各分断点におい
て次にデータを読み出すディスク上の位置までディスク
装置のヘッドを移動させるシークやトラックジャンプが
発生するが、テープメディアと比較して無視できるデー
タ読み出し中断時間なので、あたかも連続的に対応する
データをディスクから読み出しているのと同様の効果が
得られる。
Here, a description will be given of a case where stream data obtained by multiplexing video data and audio data encoded by MPEG is recorded on a disc. For example, stream data recorded on a disc is managed as a file in units of management such as stop or pause from the start of recording. With the random accessibility of the disk, 1
It is not necessary that stream data corresponding to one file be continuously recorded on the disk. I mean
Even if a series of data managed by one file is recorded on the disk as divided data, by reading those divided data sequentially from the disk, the data is read to the next position on the disk where the next data is read at each dividing point. Although seeks and track jumps that move the head of the disk drive occur, the data read interruption time is negligible compared to tape media, so the same effect is obtained as if the corresponding data was read from the disk continuously. Can be

【0004】以下、本実施例においてユーザによって記
録された記録開始から終了あるいは一時停止の一連のス
トリームデータをオリジナルシーンと呼び、ユーザが編
集操作によってオリジナルシーンの任意の箇所を選択し
たストリームデータをユーザシーンと呼ぶ事とする。ま
た、全てのオリジナルシーンを組み合わせた管理単位を
オリジナルプログラムと呼び、任意の数ののユーザシー
ンを任意の順番で組み合わせた管理単位をユーザプログ
ラムと呼ぶ事とする。
Hereinafter, in this embodiment, a series of stream data recorded from the start to the end or paused by the user is referred to as an original scene, and the stream data in which the user has selected an arbitrary portion of the original scene by an editing operation is referred to as a user. It is called a scene. Also, a management unit combining all original scenes is called an original program, and a management unit combining an arbitrary number of user scenes in an arbitrary order is called a user program.

【0005】ディスクのランダムアクセス性は、編集に
おいても効果を発揮する。ディスクメディアに記録され
たストリームデータを編集する場合について説明する。
ビデオカメラなどを考えた場合、撮影したオリジナルシ
ーンのストリームデータは必ずしも全て見たいものであ
るとは限らない。例えば、オリジナルシーンの最初に不
要な部分が含まれている事も考えられる。編集操作を行
なうことによって、必要な任意の箇所をオリジナルシー
ンから選択してユーザシーンとして定義することが可能
である。ランダムアクセス性を利用すると、素材データ
であるオリジナルシーンのストリームデータをコピーし
たり手を加えることなくディスク上のストリームデータ
を共有する形で非破壊編集を行ない、ユーザシーンに対
応するストリームデータのディスク上の位置情報を元に
再生が可能となる。このように、オリジナルシーンに対
応するディスク上のストリームデータを参照する形で定
義されるユーザシーンを、仮想ファイルとして管理する
ものとする。
[0005] The random accessibility of a disc is also effective in editing. A case in which stream data recorded on a disk medium is edited will be described.
When a video camera or the like is considered, not all the stream data of the captured original scene is necessarily desired to be viewed. For example, an unnecessary portion may be included at the beginning of the original scene. By performing an editing operation, it is possible to select a necessary arbitrary portion from the original scene and define it as a user scene. Using random accessibility, non-destructive editing is performed by sharing the stream data on the disc without copying or modifying the stream data of the original scene, which is the material data. Reproduction becomes possible based on the above positional information. As described above, a user scene defined by referring to stream data on a disc corresponding to an original scene is managed as a virtual file.

【0006】図24に示すように3つのオリジナルシーン
に対応するストリームデータがディスク上に記録されて
おり、それぞれのオリジナルシーンにおいて任意の箇所
を選択し3つのユーザシーンが定義されている例につい
て説明する。この例では、ディスク上のオリジナルシー
ンのストリームデータは論理ファイルシステムによっ
て、ファイル名OS0001.MPG、OS0002.MPG、OS0003.MPGと
ディスク上の記録位置が関連付けられ管理されている。
[0008] As shown in FIG. 24, an example in which stream data corresponding to three original scenes are recorded on a disk, and an arbitrary portion is selected in each original scene to define three user scenes will be described. I do. In this example, the stream data of the original scene on the disk is managed by associating the file names OS0001.MPG, OS0002.MPG, and OS0003.MPG with the recording positions on the disk by the logical file system.

【0007】一方、ユーザシーンは論理ファイルシステ
ムによって仮想ファイルとしてUS0001.MPG、US0002.MP
G、US0003.MPGという名前で管理されている。仮想ファ
イルの論理ファイルシステムの管理情報は参照している
オリジナルシーンのファイルを特定するための情報とス
トリームデータのディスク上での選択箇所を示す開始点
と長さの集合である。仮想ファイルのポインタ情報によ
ってオリジナルシーンの任意の箇所を抜き出し、仮想的
なファイルとして扱うことが可能となる。
On the other hand, user scenes are stored as virtual files US0001.MPG and US0002.MP by the logical file system.
G, US0003.MPG. The management information of the logical file system of the virtual file is a set of information for specifying the file of the referenced original scene and a start point and a length indicating a selected location on the disk of the stream data. Arbitrary portions of the original scene can be extracted from the virtual file pointer information and handled as a virtual file.

【0008】ファイルや仮想ファイルの管理情報は論理
ファイルシステム階層のものであるため、デバイスドラ
イバを介してアクセスすることによって、ディスク上に
オリジナルシーンのデータが記録されているだけにも関
わらず、ユーザシステムから見ると仮想ファイルで管理
されるユーザシーンに対応するデータが仮想的に別途デ
ィスクに記録されているものとして扱われる。つまり、
仮想ファイルUS00001.MPGをディスクから読み出す命令
をデバイスドライバに渡すことによって、ユーザシーン
を構成するオリジナルシーン中の選択箇所のデータが自
動的に読み出されることになる。
[0008] Since the management information of the file and the virtual file is of the logical file system hierarchy, the user can access the information via the device driver even though the original scene data is recorded on the disc. From the viewpoint of the system, the data corresponding to the user scene managed by the virtual file is treated as being recorded on the disk virtually separately. That is,
By passing an instruction to read the virtual file US00001.MPG from the disk to the device driver, the data at the selected location in the original scene constituting the user scene is automatically read.

【0009】このようにオリジナルシーンをファイル
で、ユーザシーンを仮想ファイルで管理することによっ
て、例えば編集したユーザシーンやユーザプログラムを
他の人にあげる用途などで、IEEE1394などのネットワー
クで接続されたコンピュータなどに転送の基本コマンド
であるファイルのGetやPutのみで転送することが可能と
なる。これは、転送を行ないたいオリジナルシーンを特
定するファイル名やユーザシーンを特定するための仮想
ファイル名を指定して転送を行なうことによって達成さ
れるものである。
By managing the original scene as a file and the user scene as a virtual file in this way, a computer connected via a network such as IEEE1394 can be used, for example, to give an edited user scene or a user program to another person. For example, it is possible to transfer only by Get or Put of a file which is a basic command of transfer. This is achieved by specifying a file name for specifying an original scene to be transferred or a virtual file name for specifying a user scene and performing transfer.

【0010】しかしながら、ファイルや仮想ファイルの
枠組みでMPEGストリームを管理する場合に問題になるこ
とがある。MPEG技術では、データ量を圧縮するにあたっ
て、その映像フレームのデータだけで独立して符号化す
るフレーム内符号化画像(Iピクチャ)、前方向のフレ
ームの情報を元に符号化するフレーム間順方向予測符号
化画像(Pピクチャ)、前方向と後方向のフレームを元
に符号化する双方向予測符号化画像(Bピクチャ)とい
う3種類の画像圧縮手法を使って、効率的にデータ量を
削減している。
However, a problem may arise when managing an MPEG stream in the framework of a file or a virtual file. In MPEG technology, when compressing the amount of data, an intra-frame coded image (I picture) that is independently coded only with the data of the video frame, and an inter-frame forward direction that is coded based on the information of the forward frame Efficiently reduces data volume by using three types of image compression methods: predictive coded images (P pictures) and bidirectional predictive coded images (B pictures) that encode based on forward and backward frames are doing.

【0011】つまり、PピクチャやBピクチャを再生した
い場合は、レファレンスとなったIピクチャやPピクチャ
のデータがないと、デコードできないことを意味する。
そこで、このような問題を解決するために、MPEGにおい
ては、何枚かのフレームを集めたGOP(Group of Pictu
res)という構造が用意されている。このGOP構造は、GO
Pの中には少なくとも1枚のIピクチャがなければならな
いというものである。従って、GOP構造単位でアクセス
を行なえば、そのGOPの中に含まれている各Pピクチャ及
びBピクチャのレファレンスとなるIピクチャが含まれて
いるので、目的のフレームをデコードすることが保証さ
れる。
That is, when it is desired to reproduce a P picture or a B picture, it cannot be decoded without the data of the reference I picture or the P picture.
In order to solve such a problem, in MPEG, a GOP (Group of Pictu
res) is provided. This GOP structure is GO
In P, there must be at least one I picture. Therefore, if access is performed in units of a GOP structure, since the I picture which is a reference of each P picture and B picture included in the GOP is included, it is guaranteed that the target frame is decoded. .

【0012】このように、MPEGストリームデータを対象
にランダムアクセスを行なう場合は、GOP構造に相当す
る単位で行なう必要がある。つまり、ファイルや仮想フ
ァイルで管理するストリームデータの最小管理単位はGO
Pに相当する管理単位であり、ファイルや仮想ファイル
を構成するストリームデータはGOP構造に相当するスト
リームデータの管理単位を整数個集めた構造となること
になる。
As described above, when random access is performed for MPEG stream data, it is necessary to perform the random access in units corresponding to the GOP structure. In other words, the minimum management unit of stream data managed by files and virtual files is GO
This is a management unit corresponding to P, and the stream data constituting a file or a virtual file has a structure in which an integer number of management units of stream data corresponding to the GOP structure are collected.

【0013】仮に1GOPが15フレームの映像データで構成
されているとすると、ファイルや仮想ファイルによって
管理されるストリームデータは15フレーム単位のストリ
ームデータということになり、ファイルや仮想ファイル
を指定して再生を行うと、このGOP単位の再生になる。
If one GOP is composed of 15 frames of video data, the stream data managed by a file or virtual file is stream data of a unit of 15 frames. Is performed, this GOP unit is reproduced.

【0014】しかしながら、一般的に、ユーザが再生し
たいユーザシーンがGOPの先頭から開始されることはま
れであり、不要なフレームも再生されてしまうという問
題がある。一般的に図25に示すようにユーザシーン情報
をストリームデータ自身の先頭にヘッダとして記録する
方法がある。この場合は、ユーザによる編集結果である
ユーザシーンは仮想ファイルでは管理せず、ユーザシー
ン毎に独立した実ファイルで管理する事になる。つま
り、編集結果であるユーザシーン毎にディスク上に独立
したストリームデータが記録されることになり、実ファ
イルの一部を仮想ファイルとするのに比べ、ディスク領
域を多く消費することになる。これは、本発明が前提と
している非破壊編集ではない。
However, in general, a user scene to be reproduced by a user rarely starts from the beginning of a GOP, and there is a problem that unnecessary frames are also reproduced. Generally, as shown in FIG. 25, there is a method of recording user scene information as a header at the head of the stream data itself. In this case, the user scene as a result of editing by the user is not managed in a virtual file, but is managed in an independent real file for each user scene. In other words, independent stream data is recorded on the disk for each user scene as an editing result, and disk space is consumed more than when a part of a real file is used as a virtual file. This is not the non-destructive editing assumed by the present invention.

【0015】また、図26に示すように非破壊編集を前提
として、ディスクに記録されたストリームデータを1つ
の実ファイルで管理し、そのストリームデータ内の詳細
は別の実ファイルとしてディスクに記録される管理情報
で管理する方法がある。図の例では、再生情報が格納さ
れている実ファイルと、ストリームデータが格納されて
いる実ファイルの2つのファイルと、論理ファイルシス
テムの管理情報として、ファイル名とディスク上のデー
タの記録位置を関連付けるファイル管理情報がディスク
上に記録されている。ここでの再生情報とは、各ユーザ
シーンに対応するストリームデータがファイルで管理さ
れているデータのどの箇所のものであるかを特定するた
めの情報と、前述したようにディスクからの読み出しが
GOPに相当する単位になるため、再生を開始および停止
するフレームを特定するための情報である。
As shown in FIG. 26, on the premise of nondestructive editing, stream data recorded on a disc is managed in one real file, and details in the stream data are recorded on the disc as another real file. There is a method to manage with management information. In the example shown in the figure, two files, a real file in which playback information is stored, and a real file in which stream data is stored, and the file name and the data recording position on the disc are used as management information of the logical file system. File management information to be associated is recorded on the disc. Here, the reproduction information is information for specifying which part of the data managed in the file the stream data corresponding to each user scene is, and as described above, reading from the disc is
Since this is a unit corresponding to a GOP, it is information for specifying a frame at which playback is started and stopped.

【0016】[0016]

【発明が解決しようとする課題】オリジナルシーンの任
意の箇所を参照する形で行われる非破壊編集によって定
義されるユーザシーンについて、対応するディスク上の
ストリームデータを他の機器へコピーしたりネットワー
ク転送などを行う事を考えると、従来技術で述べた方法
などによって実現できた。
With respect to a user scene defined by nondestructive editing performed by referring to an arbitrary portion of an original scene, stream data on a corresponding disk is copied to another device or transferred to a network. Considering that such operations are performed, the method can be realized by the method described in the related art.

【0017】しかしMPEG技術によって記録されたディス
ク上のストリームデータに関して任意の箇所を選択し抜
き出すユーザシーンを他の機器などにコピーや転送する
場合、対応するストリームデータが前述したようにGOP
に相当する管理単位毎に行われる必要がある。よって転
送先において、フレーム単位の再生範囲を示す管理情報
がなければ、実際にコピーや転送されたGOP単位での再
生しかできなくなる。また、一般的に転送先において単
純な映像再生を行うだけであれば、単純にストリームデ
ータだけあれば十分であるが、それらに付随するタイト
ルやデータに関する属性情報なども一緒に転送する事に
よって、単純な再生だけではなく様々な処理を行う事が
可能となる。
However, when copying or transferring a user scene to select and extract an arbitrary portion of the stream data on the disc recorded by the MPEG technology to another device or the like, the corresponding stream data is stored in the GOP as described above.
Needs to be performed for each management unit corresponding to. Therefore, if there is no management information indicating the reproduction range in units of frames at the transfer destination, it is only possible to perform reproduction in units of GOPs actually copied or transferred. In general, if only a simple video playback is performed at the transfer destination, it is sufficient to simply use the stream data. Various processing can be performed in addition to simple reproduction.

【0018】このように、ユーザシーン毎に再生管理情
報が必要になるが、従来の方法では、例えば1つのユー
ザシーンが1つの独立したファイルで構成され非破壊編
集の概念がなかったり(図25)、非破壊編集を前提と
した場合であっても必要となる再生管理情報が集中的に
ストリームデータとは別のファイルとしてディスクに記
録されている(図26)。よって、仮にユーザによって
定義されたユーザシーンに対応するストリームデータを
コピーやネットワーク転送する場合は、オリジナルシー
ンの一部であるストリームデータとその管理情報の2つ
のファイルを転送する必要が出てくる。転送先において
ストリームデータと管理情報が2つのファイルに別れて
いるのは、例えば転送先がPCでありユーザによって誤っ
て管理情報のファイルが消されてしまうと再生情報が消
失してしまう事も考えられ問題がある。
As described above, the reproduction management information is required for each user scene. In the conventional method, for example, one user scene is composed of one independent file and there is no concept of non-destructive editing (FIG. 25). ), Even when non-destructive editing is premised, necessary reproduction management information is intensively recorded on the disk as a file separate from the stream data (FIG. 26). Therefore, if stream data corresponding to a user scene defined by a user is copied or transferred over a network, it is necessary to transfer two files, that is, stream data that is a part of the original scene and its management information. The reason why stream data and management information are separated into two files at the transfer destination is that, for example, if the transfer destination is a PC and the user deletes the management information file by mistake, the playback information may be lost. Problem.

【0019】そこで、コピーやネットワーク転送を行う
場合には極力関連するデータを1つのファイルとして行
うのが望ましいが、これを行うためにはコピーや転送を
行う時に、(全てのユーザシーンに関する再生情報が)
1つのファイルとして集中管理されている管理情報から
目的のユーザシーンに関する再生情報を抜き出し、コピ
ーや転送しようとするストリームデータのヘッダ情報と
して付加する処理を行う必要がある。よって、ユーザシ
ーンなどをコピーやネットワーク転送する際には、前処
理を行う必要が生じ処理手順が煩雑になってしまうとい
う問題点がある。
Therefore, when performing copying or network transfer, it is desirable to carry out the related data as one file as much as possible. But)
It is necessary to perform a process of extracting reproduction information relating to a target user scene from management information centrally managed as one file and adding it as header information of stream data to be copied or transferred. Therefore, when copying or transferring a user scene or the like over a network, there is a problem that pre-processing is required and the processing procedure becomes complicated.

【0020】そこで、本願発明においては、ストリーム
データ中の各データユニットのヘッダ位置にユーザシー
ンに関する情報を記録することにより、ストリームデー
タとともに、再生情報を管理することができ、データ転
送先においても、任意のフレーム位置からの再生開始、
終了を制御することを可能としたり、単純な再生だけで
はなく様々な処理を行う事が可能とするものである。
Therefore, according to the present invention, by recording information on the user scene at the header position of each data unit in the stream data, the reproduction information can be managed together with the stream data. Start playback from any frame position,
It is possible to control the end, and to perform not only simple reproduction but also various processes.

【0021】[0021]

【課題を解決するための手段】本願の第1の発明によれ
ば、記録媒体上に、1つあるいは複数のGOPデータ及び
対応する音声データ、及び補助データ(Unit Header)で
構成されるユニット(VU/PRU)の集合であるファイル(EU
S)として映像データを記録し、該ファイル単位で映像デ
ータの読出し及び書き込みを行う記録再生装置における
データ記録方法であって、当該ファイルの先頭のユニッ
ト(VU/PRU)の補助データ(Unit Header)に、当該ファイ
ルの(再生開始位置及び終了位置を示す)再生情報を記
録することにより、上記課題を解決する。
According to the first aspect of the present invention, a unit (one or more GOP data and corresponding audio data and auxiliary data (Unit Header)) on a recording medium is provided. VU / PRU) file (EU
S) is a data recording method in a recording / reproducing apparatus that records video data as a file and reads and writes video data in file units, and the auxiliary data (Unit Header) of a head unit (VU / PRU) of the file. The above problem is solved by recording reproduction information (indicating a reproduction start position and an end position) of the file.

【0022】また、本願の第2の発明によれば、記録媒
体上に、1つあるいは複数のGOPデータ及び対応する音
声データ、及び補助データ(Unit Header)で構成される
ユニット(VU/PRU)の集合であるファイル(EUS)として映
像データを記録し、該ファイル単位で映像データの読出
し及び書き込みを行う記録再生装置におけるデータ記録
方法であって、記録されたファイル中の全部あるいは一
部のユニットを仮想ファイルとして(例えばVirtual Fi
le Descriptorなどで)管理し、当該仮想ファイルの先
頭のユニットの補助データ(Unit Header)に、当該ファ
イルの(再生開始位置及び終了位置を示す)再生情報を
記録することにより上記課題を解決する。
According to the second aspect of the present invention, a unit (VU / PRU) composed of one or a plurality of GOP data, corresponding audio data, and auxiliary data (Unit Header) is recorded on a recording medium. A method for recording video data as a file (EUS), which is a set of data, and a data recording method in a recording / reproducing apparatus for reading and writing video data in file units, wherein all or some of the units in the recorded file As a virtual file (for example, Virtual Fi
le Descriptor, etc., and the above-mentioned problem is solved by recording the reproduction information (indicating the reproduction start position and the end position) of the file in the auxiliary data (Unit Header) of the head unit of the virtual file.

【0023】本願の第3の発明によれば、1つあるいは
複数のGOPデータ及び対応する音声データ、及び補助デ
ータで構成されるユニット(VU/PRU)の集合であるファイ
ル(EUS)として映像データが記録された記録媒体におい
て、該ファイル単位で映像データの読出し及び書き込み
を行う記録再生装置におけるデータ再生方法であって、
読み出されたファイルの先頭のユニット(VU/PRU)の補助
データ(Unit Header)に記録されている(再生開始位置
及び終了位置を示す)再生情報を読出し、当該再生情報
に基づいて、読み出されたファイルの再生制御を行うこ
とにより上記課題を解決する。
According to the third aspect of the present invention, video data is stored as a file (EUS) which is a set of units (VU / PRU) composed of one or more GOP data and corresponding audio data, and auxiliary data. Is a data reproducing method in a recording / reproducing apparatus for reading and writing video data in file units on a recording medium on which
The reproduction information (indicating the reproduction start position and the end position) recorded in the auxiliary data (Unit Header) of the head unit (VU / PRU) of the read file is read, and read based on the reproduction information. The above-mentioned problem is solved by controlling the reproduction of the selected file.

【0024】[0024]

【発明の実施の形態】以下、本発明のファイル管理方法
に関する実施形態について、図面を用いて詳細に説明す
る。本実施形態において、記録装置として携帯型のディ
スクを用いたビデオカメラを、ディスクに記録する映像
データはMPEGを想定する。また、ディスク装置に関して
は、据え置き型のビデオデッキや、記録媒体はハードデ
ィスクや半導体メモリであっても本実施形態をそのまま
適用できるものである。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of a file management method according to the present invention will be described in detail with reference to the drawings. In the present embodiment, it is assumed that a video camera using a portable disk as a recording device and the video data to be recorded on the disk is MPEG. Further, as for a disk device, the present embodiment can be applied as it is even if a stationary video deck or a recording medium is a hard disk or a semiconductor memory.

【0025】以下、本実施形態の説明において、ディス
クに記録されたオリジナルシーンに対応するディスク上
のオリジナルデータを管理するファイルを実ファイルと
呼び、オリジナルデータを参照する形で構成されるユー
ザシーンを管理するファイルを仮想ファイルと呼び、区
別して説明するものとする。
Hereinafter, in the description of the present embodiment, a file for managing original data on the disc corresponding to the original scene recorded on the disc is called a real file, and a user scene constituted by referring to the original data is referred to as a real file. The file to be managed is called a virtual file, and will be described separately.

【0026】ユーザが撮影した記録開始から停止あるい
は一時停止までのオリジナルシーンを論理ファイルシス
テムにおいて実ファイルとして扱い、その素材データで
あるオリジナルシーンのデータをコピーしたり手を加え
ることなくディスク上のストリームデータを共有する形
(いわゆる非破壊編集)で、オリジナルシーンの任意の
箇所を選択することによって定義されるユーザシーンを
論理ファイルシステムの仮想ファイルで管理を行うもの
とする。既にディスク上で実ファイルとして管理されて
いるデータの任意の箇所を共有するため仮想ファイルと
呼ぶものである。
The original scene from the start of recording to the stop or pause taken by the user is treated as a real file in the logical file system, and the stream of the original scene is copied on the disk without copying or modifying the original data. In a form of sharing data (so-called non-destructive editing), a user scene defined by selecting an arbitrary part of an original scene is managed by a virtual file of a logical file system. This is called a virtual file because any part of data already managed as a real file on the disk is shared.

【0027】図1に、本発明のシステム構成図の一例を
示す。記録時と再生時の処理の流れに併せて説明を行な
う。まず記録時の説明を行なう。ユーザから記録要求を
受けとった制御部1は、各処理部に対して制御信号を出
しシステム全体を制御する。カメラ部2からの映像と音
声入力はまずMPEGエンコーダ3においてそれぞれエンコ
ードされる。それぞれのエンコードされたデータはMPEG
システム部4において映像と音声が多重され、例えばMP
EGのPESストリームなどのストリーム構成に整形される
ことになる。このストリームデータは一時的にバッファ
メモリ5に格納される。そして、ECC信号処理部6がバ
ッファメモリ5に格納されたストリームデータに対して
ECC(Error Correction Code)符号を付加したりする信
号処理を施す。ECCなどの信号処理が行なわれたストリ
ームデータはディスク9に記録するために、変復調/セ
クタコーディック部7で、変調及びセクタ構造に併せて
フォーマットを行い、サーボ制御部8がディスク9を制
御して記録されることになる。
FIG. 1 shows an example of a system configuration diagram of the present invention. The description will be made in conjunction with the flow of processing during recording and during reproduction. First, the recording will be described. Upon receiving a recording request from the user, the control unit 1 issues a control signal to each processing unit and controls the entire system. The video and audio inputs from the camera unit 2 are first encoded in the MPEG encoder 3. Each encoded data is MPEG
Video and audio are multiplexed in the system unit 4,
It will be shaped into a stream configuration such as the EG PES stream. This stream data is temporarily stored in the buffer memory 5. Then, the ECC signal processing unit 6 processes the stream data stored in the buffer memory 5.
Performs signal processing such as adding an ECC (Error Correction Code) code. The stream data on which signal processing such as ECC has been performed is formatted by modulation / demodulation / sector codec unit 7 in accordance with the modulation and sector structure in order to be recorded on disk 9, and servo control unit 8 controls disk 9. Will be recorded.

【0028】続いて、再生時の処理を説明する。ユーザ
からに再生要求を受けとった制御部1は、各処理部に対
して制御信号を出しシステム全体を制御する。ディスク
9から目的のストリームデータがサーボ制御部8の制御
下で読み出されたら、変復調/セクタコーディック部7
で復調され、復調されたストリームデータはバッファメ
モリ5に格納される。バッファメモリ5に格納されたス
トリームデータはECC信号処理部6によって、記録時に
付加されたECC符号などにより誤り訂正が行なわれ、余
分な符号などが取り除かれる。実際に再生する段階に来
た時に、MPEGシステム部4において多重化されていた映
像と音声データを分離し、このデータをMPEGデコーダ部
3においてデコードし、図示しない実際のモニタ画面等
の出力装置に表示されることになる。
Next, the processing at the time of reproduction will be described. Upon receiving a reproduction request from the user, the control unit 1 issues a control signal to each processing unit and controls the entire system. When the target stream data is read from the disk 9 under the control of the servo control unit 8, the modulation / demodulation / sector codec unit 7
The demodulated stream data is stored in the buffer memory 5. The stream data stored in the buffer memory 5 is subjected to error correction by an ECC code or the like added at the time of recording by an ECC signal processing unit 6, and an extra code or the like is removed. When it comes to the stage of actual playback, the video and audio data multiplexed in the MPEG system unit 4 are separated, and this data is decoded in the MPEG decoder unit 3 and output to an output device (not shown) such as an actual monitor screen. Will be displayed.

【0029】次に、本実施形態で扱うMPEGストリームの
構成の一例について説明を行なう。図2のストリーム構
成において、EUS(Editable Unit Sequence)は、複数
のEU(Editable Unit)によって構成され、REC Start
(記録開始)からRec Stop(記録停止)或いはRec Pau
se(記録一時停止)に対応する単位である。図24に示し
た、オリジナルシーンに対応するストリームデータがEU
Sに対応する。
Next, an example of the configuration of an MPEG stream handled in this embodiment will be described. In the stream configuration of FIG. 2, an EUS (Editable Unit Sequence) is composed of a plurality of EUs (Editable Units), and a REC Start
(Record start) to Rec Stop (Record stop) or Rec Pau
This is a unit corresponding to se (recording suspension). The stream data corresponding to the original scene shown in FIG.
Corresponds to S.

【0030】尚、EUは破壊編集における最小単位であ
る。破壊編集とは、ディスク上での移動や削除を伴う編
集のことを意味し、破壊編集の最小単位とは、ディスク
上での移動や削除がEU単位でしか行うことできないこと
を意味する。 EUは1つ以上のVU(Video Unit)及び0あ
るいは1つのPRU(Post Recording Unit)によって構成
され、1つのEUはディスク上では必ず連続的に記録され
なけらばならない。尚、PRUが無いストリーム構成も定
義することが可能であり、その様子を図3に示す。この
例では1つのEUは1つのVUによって構成されている様子で
ある。なおPost Recordingとはアフレコのことを意味す
る。また、PRUはEU内のビデオデータと同期して再生す
るPost Recording用のデータ領域であるので、最低でも
EUのビデオデータの提示時間に相当するだけのデータが
記録できる領域がなければならない。また、VUはUnit H
eaderと1GOP以上の映像データ及び対応する音声データ
とをまとめた単位である。
EU is the minimum unit in destructive editing. Destructive editing means editing involving movement or deletion on the disk, and the minimum unit of destructive editing means that movement or deletion on the disk can be performed only in EU units. The EU includes one or more VUs (Video Units) and zero or one PRU (Post Recording Unit), and one EU must be continuously recorded on a disk. Note that it is also possible to define a stream configuration without a PRU, and this is shown in FIG. In this example, one EU is composed of one VU. Post Recording means post-recording. The PRU is a data area for Post Recording that is played back in synchronization with video data in the EU, so at least
There must be an area that can record data corresponding to the presentation time of EU video data. VU is Unit H
This is a unit in which the eader, video data of 1 GOP or more, and corresponding audio data are put together.

【0031】前記EUSは2048byteの固定長のブロックに
分割される。1つのブロックは1つの論理ブロックに格納
され、1つのブロックは原則として1個のパケットで構成
される。ここでのパケットは、ISO/IEC13818-1で規定さ
れるPES Packetに準拠し、ディスクにはこのパケットを
記録していくことになる。
The EUS is divided into fixed-length blocks of 2048 bytes. One block is stored in one logical block, and one block is basically composed of one packet. The packet here conforms to the PES Packet defined in ISO / IEC13818-1, and this packet is recorded on the disk.

【0032】図4にPRUが存在するEUSとブロックとの関
係、図5にPRUが存在しないEUSとブロックとの関係を示
す。図中において、PRUはUH-BLK(Unit Header Bloc
k)、A-BLK(Audio Block)、P-BLK(Padding Block)
で構成される。UH-BLKは、PRUに関するヘッダ情報を格
納したパケット、A-BLKは、ISO/IEC13818-3で規定され
るオーディオパケット、P-BLKは、ISO/IEC13818-1で規
定されるパディングパケットがそれぞれ格納される。
FIG. 4 shows a relationship between an EUS having a PRU and a block, and FIG. 5 shows a relationship between an EUS having no PRU and a block. In the figure, PRU is UH-BLK (Unit Header Bloc
k), A-BLK (Audio Block), P-BLK (Padding Block)
It consists of. UH-BLK is a packet storing header information related to PRU, A-BLK is an audio packet specified by ISO / IEC13818-3, and P-BLK is a padding packet specified by ISO / IEC13818-1. Is done.

【0033】また、VUはUH-BLK(Unit Header Bloc
k)、A-BLK(Audio Block)、V-BLK(Video Block)に
よって構成される。UH-BLKは、VUに関するヘッダ情報を
格納したパケット、A BLKは、ISO/IEC13818-3で規定さ
れるオーディオパケット、V-BLKは、ISO/IEC13818-2で
規定されるビデオデータを格納したパケットがそれぞれ
格納される。UH-BLKは、PRUあるいはVUに関するヘッダ
情報を格納したパケットである。
The VU is UH-BLK (Unit Header Bloc)
k), A-BLK (Audio Block) and V-BLK (Video Block). UH-BLK is a packet storing header information related to VU, A BLK is an audio packet specified by ISO / IEC13818-3, and V-BLK is a packet storing video data specified by ISO / IEC13818-2. Are respectively stored. UH-BLK is a packet storing header information related to PRU or VU.

【0034】Unit Headerはいわゆるユニットに関する
補助データ領域である。このUnit Headerパケットの構
成を図6に示す。図6の表中の、BPはByte Positionを意
味し、先頭から見た対応する管理項目の開始位置を示す
情報で、Lengthはその管理項目の大きさをByteで表し、
Field Nameは管理項目名、Contentsは、管理項目がどの
ような形式で記録されなければならないかということを
示す。Contentsで用いられているデータ型のうち、Uint
8は符号無し8bit整数、Uint16は符号無し16bit整数、Ui
nt32は符号無し32bit整数、Stringは文字列を格納する
ためのデータ型、Timestampは日時情報を格納する型で
ある。
The Unit Header is a so-called auxiliary data area relating to the unit. FIG. 6 shows the configuration of this Unit Header packet. In the table of FIG. 6, BP means Byte Position, information indicating the start position of the corresponding management item viewed from the top, Length represents the size of the management item in Byte,
Field Name indicates a management item name, and Contents indicates what format the management item must be recorded. Uint among data types used in Contents
8 is unsigned 8-bit integer, Uint16 is unsigned 16-bit integer, Ui
nt32 is an unsigned 32-bit integer, String is a data type for storing a character string, and Timestamp is a type for storing date and time information.

【0035】Unit Headerパケットは、パケットが始ま
ることを示すpacket-start-code-prefix、ストリームの
IDを示すstream-id、このPES Packetの長さを示すPES-p
acket-length、このPacketが含まれるUnitの状態を示す
Unit Property、このPacketの含まれるUnitの長さを示
すLength of Unit、このpacketが含まれるunitの先頭か
らビデオデータの含まれる最初のblockまでの相対論理
ブロック数を示すStart RLBN of Video Data、このpack
etに含まれるユニット中の全てのI PictureおよびP Pic
tureの数を示すNumber of IP Pictures、packetに含ま
れるunit内のI PictureおよびP Pictureの含まれるディ
スク上の最終アドレスを示すEnd RLBN of IPPictures、
このpacketの含まれるEU中に含まれるVUの数を示すNumb
er of VU、このpacketの含まれるEUに含まれるそれぞれ
のVUに対応するPRU中のデータの、PRUの先頭からの相対
論理ブロック数を示すStart RLBN of Data for VU、管
理するシーン数を表すNumber of Scenes、シーンに関す
る管理情報を管理するSceneInformationで構成される。
なお、Scene Informationの詳細については後述する。
The Unit Header packet has a packet-start-code-prefix indicating that the packet starts,
Stream-id indicating ID, PES-p indicating length of this PES Packet
acket-length, indicating the state of the Unit that contains this Packet
Unit Property, Length of Unit that indicates the length of the Unit that includes this Packet, Start RLBN of Video Data that indicates the number of relative logical blocks from the beginning of the unit that includes this Packet to the first block that includes video data, pack
All I Picture and P Pic in units included in et
End RLBN of IPPictures indicating the last address on the disc containing the I Picture and P Picture in the unit included in the packet,
Numb indicating the number of VUs contained in the EU containing this packet
er of VU, Start RLBN of Data for VU indicating the relative number of logical blocks from the beginning of the PRU of the data in the PRU corresponding to each VU included in the EU included in this packet, Number indicating the number of scenes to be managed of Scenes, and SceneInformation that manages management information about scenes.
The details of Scene Information will be described later.

【0036】ここで、管理できるScene Informationに
数の上限を設ける。例えば、20シーンを上限とした場
合、Unit Headerにはあらかじめ20シーン分のScene Inf
ormationが記録できるだけの領域を確保するものとす
る。これはScene Informationがストリームデータをデ
ィスクに記録し、ユーザシーンを作成した際にScene In
formation部分のみを書き換えるために、あらかじめそ
のデータ領域を用意しておくためのものである。一番初
めにストリームデータをディスクに記録する際は、例え
ばNumber of Scenesに0を、Scene Informationを20個記
録するための領域には全て16進数でFFを記録しておく。
Here, the upper limit of the number of scene information that can be managed is set. For example, if the upper limit is 20 scenes, the Unit Header has 20 Scene Inf
The area that can be recorded by ormation shall be secured. This is because when Scene Information records the stream data on the disc and creates a user scene, the Scene In
This is to prepare the data area in advance to rewrite only the formation part. When recording stream data on a disc for the first time, for example, 0 is recorded in Number of Scenes, and FF is recorded in hexadecimal in all areas for recording 20 pieces of Scene Information.

【0037】なお、Unit Header blockは論理ブロック
の単位でアライメントされ、Unit Header Blockの先頭
は必ず論理ブロックの先頭に一致するように構成されて
いるので、容易にアクセスすることが可能である。
The Unit Header block is aligned in units of logical blocks, and the head of the Unit Header Block is configured to always coincide with the head of the logical block, so that it can be easily accessed.

【0038】上記のMPEGストリームをディスクに記録す
る際の実ファイルで管理されるオリジナルシーンと仮想
ファイルで管理されるユーザシーンは、既に述べたよう
にMPEGにおけるGOPに相当するストリームデータの集合
であるVU単位でなければならない。これは、MPEGストリ
ームデータの途中から再生を開始するフレームが、Pピ
クチャやBピクチャの場合、実際にそのフレームをデコ
ードするためには、レファレンスとなったIピクチャやP
ピクチャのデータが無いとデコードできないからであ
る。また、前述した本実施例におけるPRUの存在するス
トリーム構成においては、更にGOP構造に相当するスリ
ームデータの集合である任意の個数のVUとPRU領域で構
成されるEU単位で、ファイルや仮想ファイルを扱わなけ
ればならない。これは、EU内の全てのVUに対応してPRU
の領域が連続的に割り当てられており、EU内の各VUとPR
Uを分けて管理することが困難であるためである。
As described above, the original scene managed by the real file and the user scene managed by the virtual file when the MPEG stream is recorded on the disc are a set of stream data corresponding to a GOP in MPEG as described above. Must be in VU units. This is because, when a frame starting to be reproduced from the middle of the MPEG stream data is a P picture or a B picture, in order to actually decode the frame, the I picture or the P
This is because decoding cannot be performed without picture data. Further, in the stream configuration in which a PRU exists in the above-described embodiment, a file or virtual file is further divided into EU units including an arbitrary number of VUs, which are sets of stream data corresponding to the GOP structure, and PRU areas. Must be treated. This is a PRU for all VUs in the EU
Are continuously allocated, and each VU and PR in the EU
This is because it is difficult to manage U separately.

【0039】PRUの存在しないストリーム構成の場合
は、VU単位でファイルや仮想ファイルを作成することに
なる。よって、オリジナルシーンやユーザシーンを管理
するファイルや仮想ファイルは、PRUが存在するストリ
ームデータを対象にするかによって、ディスク上の整数
個のEUあるいはVUを集めた管理単位となる。
In the case of a stream configuration having no PRU, a file or a virtual file is created for each VU. Therefore, a file or virtual file that manages an original scene or a user scene is a management unit in which an integer number of EUs or VUs on a disk are collected, depending on whether stream data in which a PRU exists is targeted.

【0040】図7にオリジナルシーンである実ファイル
と、ユーザシーンである仮想ファイルとの関係を示す。
この例では、オリジナルシーンは実ファイルOS0001.MPG
であり、該ファイルの管理情報で管理されている。OS00
01.MPGは、ディスク上で3つの連続領域に分断されて記
録されている。オリジナルシーンをディスクから読み出
す際は、ユーザシステムがデバイスドライバにファイル
OS0001.MPGの読み出しを指定することによって、論理フ
ァイルシステムの管理情報で管理されるディスク上の分
断1A、分断2A、分断3Aの位置情報(開始アドレスと長
さ)を元に、デバイスドライバが分断1A、分断2A、分断
3Aの順番にディスクからデータを読み出す。
FIG. 7 shows a relationship between a real file as an original scene and a virtual file as a user scene.
In this example, the original scene is the real file OS0001.MPG
And is managed by the management information of the file. OS00
01. The MPG is recorded on the disc by being divided into three continuous areas. When reading the original scene from the disk, the user system sends the file to the device driver.
By specifying the reading of OS0001.MPG, the device driver divides based on the position information (start address and length) of the divide 1A, divide 2A, and divide 3A on the disk managed by the logical file system management information. 1A, split 2A, split
Read data from disk in 3A order.

【0041】ここで実ファイルで管理されるディスク上
のデータと論理ファイルシステムの管理情報の関係を図
9に示す。図の例ではディスク上に、1つの実ファイルと
して3つに分断して記録されたデータとそれらを管理す
るためのファイル管理情報が記録されている。このファ
イル管理情報によって、ファイル名からディスク上に記
録されたデータの記録位置を特定する事が可能となる。
ファイル管理情報は、通常ディスクにアクセスするため
のデバイスドライバが利用する情報であり、ユーザシス
テムからは直接見えない情報である。つまり、ユーザシ
ステムはデバイスドライバに対してファイル名を指定し
てデータの読み出し命令を出すわけである。本発明では
実ファイルを管理するためのファイル管理情報をFile D
escriptorと呼ぶ事とする。
Here, the relationship between the data on the disk managed by the real file and the management information of the logical file system is shown.
See Figure 9. In the example shown in the figure, data recorded as three separate files as one real file and file management information for managing the data are recorded on the disk. With this file management information, the recording position of the data recorded on the disc can be specified from the file name.
The file management information is information that is normally used by a device driver for accessing a disk, and is information that cannot be directly seen from a user system. That is, the user system issues a data read command to the device driver by designating a file name. In the present invention, file management information for managing a real file
Call it escriptor.

【0042】次に、図7においてオリジナルシーンを編
集してEU#1からEU#7までを選択して定義されたユーザシ
ーンについて説明する。ユーザシーンは仮想ファイルUS
0001.MPGとして管理されており、論理ファイルシステム
の管理情報内の分断1B、分断2B、分断3Bの位置情報(開
始アドレスと長さ)によってディスク上のオリジナルデ
ータを参照している。ここで、ディスク上にはEU#0から
EU#9に対応する映像データが1つしか記録されていない
が、仮想ファイルで参照される任意箇所の位置情報によ
って、部分的なデータの読み出しがユーザシステムにお
いては仮想ファイルを指定することによって可能とな
る。
Next, a user scene defined by editing the original scene and selecting EU # 1 to EU # 7 in FIG. 7 will be described. User scene is virtual file US
0001.MPG, and refers to the original data on the disk by the position information (start address and length) of the division 1B, division 2B, and division 3B in the management information of the logical file system. Here, from the EU # 0 on the disc
Only one piece of video data corresponding to EU # 9 is recorded, but partial data can be read out by specifying the virtual file in the user system based on the location information of any location referenced in the virtual file Becomes

【0043】ここで仮想ファイルで管理されるディスク
上のデータと論理ファイルシステムの管理情報の関係を
図10に示す。図の例ではディスク上に記録されたデータ
を1つの実ファイルで管理し、その実ファイルが管理す
るデータの任意の箇所を参照する形でそのディスク上の
位置を仮想ファイルで管理するものである。ディスク上
には、実ファイルおよび仮想ファイルのファイル管理情
報が記録されている。これらのファイル管理情報によっ
て、ファイル名からディスク上に記録されたデータの記
録位置を特定する事が可能となる。実ファイルのファイ
ル管理情報では、ディスク上に記録されたデータの位置
情報を管理し、仮想ファイルのファイル管理情報では、
実ファイルが管理するディスク上に記録されたデータの
任意の箇所の位置情報を管理するものである。実ファイ
ルのファイル管理情報と仮想ファイルのファイル管理情
報はそれぞれを区別するための情報を保有している。本
発明では仮想ファイルを管理するためのファイル管理情
報をVirtual File Descriptorと呼ぶ事とする。
FIG. 10 shows the relationship between the data on the disk managed by the virtual file and the management information of the logical file system. In the example shown in the figure, data recorded on a disk is managed by one real file, and a position on the disk is managed by a virtual file by referring to an arbitrary part of data managed by the real file. On the disk, file management information of a real file and a virtual file is recorded. With these file management information, it is possible to specify the recording position of the data recorded on the disc from the file name. In the file management information of the real file, the position information of the data recorded on the disk is managed, and in the file management information of the virtual file,
It manages position information of an arbitrary portion of data recorded on a disk managed by an actual file. The file management information of the real file and the file management information of the virtual file have information for distinguishing each. In the present invention, file management information for managing a virtual file is called a Virtual File Descriptor.

【0044】このように、仮想ファイルはディスク上に
記録されているオリジナルシーンのデータを参照するも
のである。また、仮想ファイルは同一のオリジナルシー
ンを複数のユーザシーンで参照することも可能である。
図8に2つのユーザシーンを管理する仮想ファイルの様子
を示す。この例では、EU#0からEU#9までがオリジナルシ
ーンであり、EU#1からEU#7までがユーザシーン1(US000
1.MPG)、EU#6からEU#9までがユーザシーン2(US0002.M
PG)という構成である。つまり、EU#6、EU#7が2つのユ
ーザシーンで参照されていることになる。
As described above, the virtual file refers to the data of the original scene recorded on the disk. Also, the virtual file can refer to the same original scene in a plurality of user scenes.
FIG. 8 shows a virtual file for managing two user scenes. In this example, EU # 0 to EU # 9 are original scenes, and EU # 1 to EU # 7 are user scenes 1 (US000
1.MPG), EU # 6 to EU # 9 are user scene 2 (US0002.M
PG). That is, EU # 6 and EU # 7 are referred to in two user scenes.

【0045】PRU領域の定義されないストリームデータ
の場合についてのオリジナルシーンである実ファイル
と、ユーザシーンである仮想ファイルとの関係を図11、
12に示す。上記図7、8との違いは、EUがVUとなるだけで
あるので、説明は省略する。
FIG. 11 shows a relationship between a real file as an original scene and a virtual file as a user scene in the case of stream data in which a PRU area is not defined.
See Figure 12. The difference from FIGS. 7 and 8 is that EU is only VU, and therefore the description is omitted.

【0046】このような形態で管理されるユーザシーン
を、IEEE1394などを用いてネットワーク経由でPCやその
他のAV機器に転送することを考える。オリジナルシーン
やユーザシーンのコピーやネットワーク転送を行なうに
は、それぞれ対応するファイルや仮想ファイルを指定し
てファイルコピーを行なったり、ファイル転送を行なう
ことになる。例えば図24における、仮想ファイルによっ
て管理されるユーザシーンUS0001.MPGをPCに転送を行な
いたい場合、PCにおいて転送用のアプリケーションを用
いて、US0001.MPGを取得する命令を発行する。
It is assumed that a user scene managed in such a form is transferred to a PC or another AV device via a network using IEEE1394 or the like. In order to copy an original scene or a user scene or to perform network transfer, a corresponding file or virtual file is designated to perform file copy or file transfer. For example, when it is desired to transfer the user scene US0001.MPG managed by the virtual file to the PC in FIG. 24, the PC issues an instruction to acquire US0001.MPG using a transfer application.

【0047】図13にシステム構成図の一例を示す。この
図では、ビデオカメラとPCがIEEE1394で接続されてい
る。それぞれのシステムにおいて、ディスク媒体を管理
している論理ファイルシステムを元にデバイスドライバ
が用意されている。つまり、それぞれのユーザシステム
がそれぞれのデバイスドライバを介して、ファイル単位
のディスクへのアクセスができることになる。また、そ
れぞれのシステムにはIEEE1394を使用するためのドライ
バが用意されている。
FIG. 13 shows an example of a system configuration diagram. In this figure, the video camera and the PC are connected by IEEE1394. In each system, a device driver is prepared based on a logical file system that manages a disk medium. That is, each user system can access the disk in file units via each device driver. Each system is provided with a driver for using IEEE1394.

【0048】例えば、PC側のユーザシステムB(7)がIEEE
1394ドライバB(8)を介して、ビデオカメラ側のIEEE1394
ドライバA(3)に対してユーザシーンを管理する仮想ファ
イル名を指定してストリームデータの取得要求を出す
と、IEEE1394ドライバA(3)はデバイスドライバA(2)に対
して指定された仮想ファイルの読み出し命令を出す。こ
れにより、ディスク(6)上のストリームデータがディス
クから読み出され、IEEE1394ドライバA(3)を経由してPC
側に転送される。転送されたデータはPC側のIEEE1394ド
ライバB(8)を経由しユーザシステムB(7)の指定するファ
イル名でデバイスドライバB(9)を介してPC側のディスク
(12)上に記録される事になる。
For example, if the user system B (7) on the PC side is IEEE
Via the 1394 driver B (8), the IEEE1394
When a stream data acquisition request is issued to the driver A (3) by specifying a virtual file name for managing the user scene, the IEEE1394 driver A (3) transmits the virtual file designated to the device driver A (2). Issue a read command. As a result, the stream data on the disk (6) is read from the disk, and the stream data is read from the PC via the IEEE1394 driver A (3).
Transferred to the side. The transferred data passes through the IEEE 1394 driver B (8) on the PC side and the disk on the PC side via the device driver B (9) with the file name specified by the user system B (7).
(12) will be recorded above.

【0049】転送したストリームデータを再生する場合
は、PCにおいて再生するためのアプリケーションプログ
ラムを用いて、転送したストリームデータを読み込む。
従来、ディスクから読み出したストリームデータを端か
ら順番に最後まで再生を行なうと、前述したようにEUあ
るいはVU単位での再生となる。しかし、実際にはユーザ
による編集によって定義されたユーザシーンはEUやVUの
途中のフレームから再生を開始し、最後のEUやVUに関し
ても途中のフレームで再生を終了するものである可能性
が高い。
When reproducing the transferred stream data, the transferred stream data is read by using an application program to be reproduced on a PC.
Conventionally, if the stream data read from the disc is reproduced from the end to the end in order, the reproduction is performed in EU or VU units as described above. However, in reality, it is highly possible that a user scene defined by editing by a user starts playback from a frame in the middle of an EU or VU, and ends playback in a frame in the middle of the last EU or VU. .

【0050】図14において、ユーザが指定したユーザシ
ーンの再生範囲は、EU#0中のVU#3中の6番目の映像フレ
ーム(フレーム番号5)からEU#20内のVU#121の中の12番
目のフレーム(フレーム番号11)までの例を示してい
る。つまり、転送先のディスクでのストリームデータは
EU#0〜EU#20までであり、このストリームデータ全体を
再生すると、ユーザによって指定されたユーザシーンの
再生範囲と異なっている。
In FIG. 14, the reproduction range of the user scene designated by the user is from the sixth video frame (frame number 5) in VU # 3 in EU # 0 to VU # 121 in VU # 121 in EU # 20. The example up to the twelfth frame (frame number 11) is shown. In other words, the stream data on the destination disk is
EU # 0 to EU # 20, and when this entire stream data is reproduced, it differs from the reproduction range of the user scene specified by the user.

【0051】そこで、本実施形態においては、ユーザシ
ーンを正確に再生するための情報をストリーム上のUnit
Headerに記録することで、ストリームデータのみで、
フレーム単位での再生範囲の指定を行うことを可能とす
る。
Therefore, in the present embodiment, information for accurately reproducing a user scene is expressed by a unit on the stream.
By recording in the Header, only stream data,
It is possible to specify a reproduction range in frame units.

【0052】Unit Headerパケットにユーザシーンを正
確に再生するための情報として、Number of ScenesとSc
ene Informationがある。Scene InformationはNumber o
f Scenesの数だけ記録されることになる。Scene Inform
ationの詳細を以下に示す。
As information for accurately reproducing the user scene in the Unit Header packet, Number of Scenes and Sc
There is ene Information. Scene Information is Number o
f The number of Scenes will be recorded. Scene Inform
The details of the ation are shown below.

【0053】Scene Nameは、シーンの名前を格納し、Sc
ene Creation Dateはシーンの作成日時、Scene Data Si
zeは、定義されたシーンを管理するファイルのデータサ
イズを格納する。このデータサイズはディスクから読み
出した後の実データサイズを表すものである。
[0053] Scene Name stores the name of the scene.
ene Creation Date is the date and time the scene was created, Scene Data Si
ze stores the data size of the file that manages the defined scene. This data size represents the actual data size after reading from the disk.

【0054】Scene Start VU Numberは、ファイルとし
て管理されているストリームデータの中で再生を開始し
たい映像フレームが含まれるVUの番号をストリームデー
タの先頭のVUを基準とした値で管理する。PRUの存在し
ないストリームの場合は、必ずこの値は0となり、PRUが
存在するストリームの場合は、EUの中の再生を開始した
いフレームの含まれるVUの番号を管理することになる。
The Scene Start VU Number manages the number of the VU including the video frame whose reproduction is to be started in the stream data managed as a file, with a value based on the first VU of the stream data. In the case of a stream in which there is no PRU, this value is always 0, and in the case of a stream in which a PRU exists, the number of the VU containing the frame in the EU whose reproduction is to be started is managed.

【0055】Scene Number of VUは、ユーザシーン中の
VUの数を示すための情報であり、Scene Start VU Numbe
rで管理されるVUから再生を停止するフレームの含まれ
るVUまでのVU数を管理する。
The Scene Number of VU is
Information to indicate the number of VUs, Scene Start VU Numbe
It manages the number of VUs from the VU managed by r to the VU including the frame to stop playback.

【0056】Scene Start Frame Numberは、再生を開始
するフレームの番号を管理する。フレーム番号はScene
Start VU Numberで管理される再生開始VU番号内のフレ
ーム番号となる。つまり、再生を開始する映像フレーム
は、ディスクから読み出したストリームデータ中のScen
e Start VU Number目のVU内のScene Start Frame Numbe
rからとなる。
The Scene Start Frame Number manages the number of the frame at which playback is started. Frame number is Scene
This is the frame number within the playback start VU number managed by Start VU Number. In other words, the video frame from which playback is started is the Scen in the stream data read from the disc.
e Start VU Number Scene Start Frame Numbe in the VU of the eye
r.

【0057】Scene End Frame Numberは、再生を停止す
るフレームの番号を管理する。フレーム番号はScene St
art VU Numberで管理される再生開始VU番号にユーザシ
ーン中のVU数であるScene Number of VUを足した値から
1を引いたものに相当する再生終了VU内のフレーム番号
になる。
The Scene End Frame Number manages the number of the frame at which playback is stopped. Frame number is Scene St
A frame number in the playback end VU corresponding to a value obtained by subtracting 1 from the value obtained by adding the Scene Number of VU, which is the number of VUs in the user scene, to the playback start VU number managed by the art VU Number.

【0058】以上説明したようなUnit Headerを使うこ
とによって、ユーザシーンの正確な再生が可能となり、
ユーザシーンに関する管理情報を含める事が可能とな
る。実際には、PRUが存在するストリームであっても存
在しないストリームであっても、必ずストリームデータ
の先頭はUnit Headerから始まることになる。よって、
これから再生しようとするストリームデータの一番先頭
のUnit Headerを読み出すことによってユーザシーンの
再生情報を把握することが可能となる。つまり仮想ファ
イルによって管理されるストリームデータにおいて、一
番先頭にVUがくる場合(PRUが定義されていない場合)
はVUに対応するUnit HeaderにScene Informationを記録
し、PRUが先頭に配置される場合はPRUに対応するUnit H
eaderにScene Informationを記録することになる。
By using the Unit Header as described above, it is possible to accurately reproduce the user scene.
It is possible to include management information on the user scene. Actually, the stream data always starts at the Unit Header regardless of whether the stream has a PRU or not. Therefore,
By reading the head header of the stream data to be reproduced from now on, it is possible to grasp the reproduction information of the user scene. In other words, when the VU comes first in the stream data managed by the virtual file (when the PRU is not defined)
Records Scene Information in the Unit Header corresponding to the VU, and if the PRU is placed at the top, the Unit H corresponding to the PRU
The scene information will be recorded in the eader.

【0059】図14の例では、PRUが定義されているスト
リームデータが仮想ファイルUS0001.MPGによって管理さ
れており、一番先頭にPRUが配置されているのでPRUの先
頭に存在するUnit Header中のScene Informationにシー
ンの再生情報を格納することになる。この例では、再生
を開始するフレームが含まれるVU番号を管理するScene
Start VU Numberには3を、シーン中のVU数を管理するSc
ene Number of VUには118を、再生開始フレーム番号を
管理するScene Start Frame Numには5を、再生を停止す
るフレーム番号には11が格納される事になる。また、図
15にPRUが存在しないストリームデータが仮想ファイルU
S0001.MPGによって管理されている様子を示す。この例
ではPRUが定義されていない関係で、1EUが1VUによって
構成されていおり、仮想ファイルで管理されるストリー
ムデータの先頭はVU#0の先頭に存在するUnit Headerと
なり、このUnit Headerにこのユーザシーンの管理情報
を格納する事になる。
In the example of FIG. 14, the stream data in which the PRU is defined is managed by the virtual file US0001.MPG, and since the PRU is located at the top, the data in the Unit Header at the top of the PRU The scene information is stored in the scene information. In this example, a Scene that manages the VU number that contains the frame to start playback
Start VU Number is 3, Sc managing the number of VUs in the scene
118 is stored in the ene Number of VU, 5 is stored in the Scene Start Frame Num that manages the playback start frame number, and 11 is stored in the frame number to stop the playback. Also figure
Stream data with no PRU in virtual file U
The state managed by S0001.MPG is shown. In this example, 1EU is composed of 1VU because PRU is not defined.The head of the stream data managed by the virtual file is the Unit Header existing at the head of VU # 0, and this user header is This stores scene management information.

【0060】このように構成した場合、複数のユーザシ
ーンが同一のEUから再生を開始する場合がある。このよ
うな場合、図16に示すように、例えばユーザシーンUS00
01.MPGとUS0002.MPGが同一のEUから再生を開始する場合
に、Unit Headerに格納されたどのScene Informationを
使用したら良いのかが不明になる。そこで、Scene Info
rmation中のScene名をユーザに提示して再生情報を選択
すると言った事が可能である。例えば、Scene名として
仮想ファイルのファイル名を使うことも考えられるが、
この場合、仮想ファイルのファイル名が変更になると対
応関係の整合性が取れなくなってしまう。PRUが定義さ
れないストリームの場合は、ユーザシーンはEU単位では
なくVU単位で構成され、図16におけるEUを全てVUに置き
換えて考えれば良いので説明を省く。
In such a configuration, a plurality of user scenes may start reproducing from the same EU. In such a case, for example, as shown in FIG.
When 01.MPG and US0002.MPG start playback from the same EU, it is unclear which Scene Information stored in the Unit Header should be used. So, Scene Info
It is possible to say that the user is presented with the name of the scene in the rmation and the playback information is selected. For example, it is possible to use the file name of the virtual file as the scene name,
In this case, if the file name of the virtual file is changed, consistency of the correspondence cannot be maintained. In the case of a stream in which no PRU is defined, the user scene is configured not in EU units but in VU units, and it is sufficient to replace all EUs in FIG. 16 with VUs.

【0061】自動的にSceneに対応する再生情報を選択
させたい場合は、転送を行なったファイルシステムで管
理されるファイルのデータサイズとScene Information
内のScene Data Sizeの値を比較することによって、目
的の再生情報を選択することが可能となる。図16の例で
は、ユーザシーンUS0001.MPGはEU#0〜EU#nで構成されて
おり、ユーザシーンを管理する仮想ファイルのファイル
サイズが256000KBである。また、ユーザシーンUS0002.M
PGはEU#0〜EU#n-3で構成されており、ユーザシーンを管
理するファイルサイズは20480KBである。Unit Headerに
記録されるSceneInformationのScene Data Sizeにそれ
ぞれ、256000KBと20480KBが記録されたフィールドがあ
るかどうかを調べることによって、対応するScene Info
rmationを自動的に抽出することができる。
When it is desired to automatically select the reproduction information corresponding to the scene, the data size of the file managed by the transferred file system and the scene information
By comparing the values of the Scene Data Size in the above, it is possible to select the desired reproduction information. In the example of FIG. 16, the user scene US0001.MPG is composed of EU # 0 to EU # n, and the virtual file for managing the user scene has a file size of 256000 KB. Also, the user scene US0002.M
The PG is composed of EU # 0 to EU # n-3, and the file size for managing the user scene is 20480 KB. The corresponding Scene Info is checked by checking if the Scene Data Size of the SceneInformation recorded in the Unit Header has a field recorded with 256000KB and 20480KB, respectively.
rmation can be extracted automatically.

【0062】ここで、具体的な処理として、ビデオカメ
ラで撮影を行ないオリジナルシーンをファイルとしてデ
ィスクに記録した場合について説明する。オリジナルシ
ーンをディスク上に記録し、前述の論理ファイルシステ
ムのFile Descriptorが作成されるまでの手順は従来と
同様であるので、省略する。ここでは、ファイルが記録
された後の本発明特有の処理について、図17のフローチ
ャートを用いて説明する。
Here, as a specific process, a case where an original scene is shot by a video camera and an original scene is recorded as a file on a disc will be described. The procedure from the recording of the original scene on the disc to the creation of the above-described File Descriptor of the logical file system is the same as in the related art, and will not be described. Here, the processing unique to the present invention after the file is recorded will be described with reference to the flowchart in FIG.

【0063】ステップS10においてオリジナルシーンの
作成要求があり、ストリームデータを管理するファイル
の作成が終了したら、ステップS11において、ファイル
によって管理されているストリームデータのディスク上
での位置情報を元に、対応するストリームデータの先頭
の論理ブロックを読み出す。論理ブロックとは、ファイ
ルシステムで管理する最小読み書きの単位である。ここ
で、読み出した論理ブロックは、オリジナルシーンの先
頭に配置されているUnit Headerが記録されているUnit
Headerパケットとなる。このUnit Headerにオリジナル
シーンの再生情報を記録することになる。
In step S10, when there is a request to create an original scene and the creation of a file for managing stream data is completed, in step S11, a response to the stream data managed by the file is performed based on the position information on the disk. The first logical block of the stream data to be read is read. A logical block is a minimum read / write unit managed by the file system. Here, the read logical block is a Unit in which the Unit Header arranged at the head of the original scene is recorded.
Header packet. The playback information of the original scene is recorded in this Unit Header.

【0064】ステップS12において、Unit Header内のNu
mber of Sceneに1をセットする。ステップS13におい
て、Scene Information内のScene Nameにシーン名をセ
ットし、Scene Creation Time and Dateオリジナルシー
ンの作成日時をセットする。ステップ14において、Scen
e Information内のScene Data Sizeにファイルシステム
で管理しているオリジナルシーンのファイルサイズ、つ
まりFile Descriptorに記録されているファイルのデー
タサイズをセットする。
In step S12, Nu in the Unit Header
Set 1 for mber of Scene. In step S13, the scene name is set to Scene Name in Scene Information, and the creation date and time of the original scene is set. In step 14, Scen
Set the file size of the original scene managed by the file system, that is, the data size of the file recorded in the File Descriptor, in Scene Data Size in e Information.

【0065】ステップ15において、Scene Information
内のScene Start VU Numberに0を、Scene Number of VU
にオリジナルシーン中のVU数の値を、Scene Start Fram
e Numberに0を、Scene End Frame Numberにオリジナル
シーン中の最後のVUの最後のフレーム番号をセットす
る。フレーム番号はVU中の番号であり0から始まる番号
である。ステップS16において、ステップS12からS15に
おいて更新した内容をディスク上にて更新し処理を終了
する。ここまでで、オリジナルシーンの先頭のUnitHead
erにオリジナルシーンとしての再生情報が作成されたこ
とになる。
In step 15, Scene Information
0 for the Scene Start VU Number in the
The value of the number of VUs in the original scene to the Scene Start Fram
Set e to 0 and Scene End Frame Number to the last frame number of the last VU in the original scene. The frame number is a number in the VU and is a number starting from 0. In step S16, the content updated in steps S12 to S15 is updated on the disk, and the process ends. At this point, the UnitHead at the beginning of the original scene
This means that reproduction information as an original scene has been created in er.

【0066】次に、ユーザがオリジナルシーンを素材と
してユーザシーンを定義した場合を説明する。ユーザシ
ーンに対応する映像データは仮想ファイルの先頭のユニ
ット中の任意のフレームから、仮想ファイルの最終のユ
ニットの任意のフレームまでである。そこで、ユーザが
任意のシーンを指定した場合、その先頭のフレームを含
むユニットからその最後のフレームを含むユニットまで
を仮想ファイルとして、まず定義する。この仮想ファイ
ルの定義については、上記したものと同様であり、Virt
ual File Descriptorが作成される。Virtual File Desc
riptorが作成された後の処理について、以下に図18のフ
ローチャートを元に説明する。
Next, a case where a user defines a user scene using an original scene as a material will be described. The video data corresponding to the user scene ranges from an arbitrary frame in the first unit of the virtual file to an arbitrary frame in the last unit of the virtual file. Therefore, when the user specifies an arbitrary scene, first, a unit from the unit including the first frame to the unit including the last frame is defined as a virtual file. The definition of this virtual file is the same as above,
A ual File Descriptor is created. Virtual File Desc
The processing after the riptor is created will be described below with reference to the flowchart in FIG.

【0067】ステップS20において、ユーザシーンの作
成要求があり、対応するストリームデータを管理する仮
想ファイルの作成(File Descriptorの作成)が終了し
たら、ステップS21において、仮想ファイルによって管
理されているストリームデータのディスク上での位置情
報を元に、対応するストリームデータの先頭の論理ブロ
ックを読み出す。読み出した論理ブロックは、ユーザシ
ーンの先頭に配置されているUnit Headerが記録されて
いるUnit Headerパケットである。このUnit Headerにユ
ーザシーンの再生情報が記録されることになる。
In step S20, when there is a user scene creation request and creation of a virtual file for managing the corresponding stream data (creation of a file descriptor) is completed, in step S21, the stream data of the stream data managed by the virtual file is managed. The head logical block of the corresponding stream data is read based on the position information on the disk. The read logical block is a Unit Header packet in which the Unit Header arranged at the head of the user scene is recorded. The reproduction information of the user scene is recorded in this Unit Header.

【0068】ステップS22において、Unit Header内のNu
mber of Sceneの値に1を足す。ステップS23において、
対応するScene Information内のScene Nameにシーン名
をセットし、Scene Creation Time and Dateユーザシー
ンの作成日時をセットする。ステップS24において、Sce
ne Information内のScene Data Sizeにファイルシステ
ムで管理しているユーザシーンのファイルサイズ(Virt
ual File Descriptor中のファイルサイズ)をセットす
る。
In step S22, Nu in the Unit Header
Add 1 to the value of mber of Scene. In step S23,
Set the scene name in Scene Name in the corresponding Scene Information, and set the creation date and time of the user scene. In step S24, Sce
The file size of the user scene managed by the file system (Virt
ual File Descriptor).

【0069】ステップS25において、Scene Information
内のScene Start VU Numberにユーザシーンのストリー
ムデータ中の再生を開始するフレームが含まれるVU番号
をセットする。VU番号は、ユーザシーンのストリームデ
ータの先頭を基準として相対的な値である。ステップS2
6において、Scene Information内のScene Number ofVU
にユーザシーン中の再生するVU数の値をセットする。ス
テップS27において、Scene Information内のScene Star
t Frame Numberに、再生を開始するフレームの番号をセ
ットする。フレーム番号は、ステップS25においてセッ
トしたScene Start VU Numberで管理されるVU内のフレ
ーム番号であり、VUの先頭を基準として相対的な値であ
る。ステップS28において、Scene Information内のScen
e End Frame Numberにユーザシーン中の表示する最後の
VU内のフレーム番号をセットする。表示する最後のフレ
ームが含まれるVU番号は、ステップS25においてセット
した、Scene Start VU NumberにステップS26においてセ
ットしたScene Number of VUの値−1を足し合わせた値
となる。ステップS29において、ステップS22からS28に
おいて更新したUnit Headerの内容をディスク上にて更
新し処理を終了する。
In step S25, Scene Information
Set the VU number including the frame to start the reproduction in the stream data of the user scene in the Scene Start VU Number in. The VU number is a relative value based on the head of the stream data of the user scene. Step S2
In 6, Scene Number of VU in Scene Information
Is set to the value of the number of VUs to be reproduced in the user scene. In step S27, the Scene Star in the Scene Information
Set the number of the frame to start playback to t Frame Number. The frame number is a frame number in the VU managed by the Scene Start VU Number set in step S25, and is a relative value with respect to the head of the VU. In step S28, the Scen in the Scene Information
e End Frame Number is the last number displayed in the user scene.
Set the frame number in the VU. The VU number including the last frame to be displayed is a value obtained by adding the value -1 of the Scene Number of VU set in step S26 to the Scene Start VU Number set in step S25. In step S29, the contents of the Unit Header updated in steps S22 to S28 are updated on the disk, and the process ends.

【0070】図14、15は上記した図18のフローチャート
に基づいて、ユーザシーンに関する再生情報が記録され
た様子を示している。
FIGS. 14 and 15 show a state in which reproduction information relating to a user scene is recorded based on the flowchart of FIG. 18 described above.

【0071】仮想ファイルで管理するユーザシーンに対
応するストリームデータをネットワークなどを介してPC
等に転送した際に、転送先のPCでのユーザシーンの正確
な再生方法について図19に示すフローチャートを元に説
明する。もちろん転送しない場合の再生についても同様
である。
The stream data corresponding to the user scene managed by the virtual file is transmitted to a PC via a network or the like.
An accurate method of reproducing the user scene on the transfer destination PC when the data is transferred to the destination PC will be described with reference to the flowchart shown in FIG. Of course, the same applies to reproduction in the case where transfer is not performed.

【0072】ステップS30において、ユーザシーンの再
生要求が発生すると、ステップS31において、ユーザシ
ーンを管理するファイルのディスク上の位置情報からス
トリームデータの先頭の論理ブロックを読み出す。読み
出した論理ブロックは、Unit Headerに相当するUnit He
aderパケットである。読み出したUnit HeaderからNumbe
r of Scenesの値を把握する。ステップS32において、Un
it Header内のNumber ofScenesが0の場合は、ステップS
33において、表示開始フレームをストリームデータ中の
最初の表示フレームに、表示終了フレームをストリーム
データ中の最後の表示フレームにセットする。つまり、
ストリームデータ中の全ての映像フレームを表示するこ
とになる。Number of Scenesが値が0の場合というのは
ユーザシーンを作成した際に、何らかの理由によって正
しくScene Informationが記録されなかったイリーガル
な状況である。ステップS35でストリームデータからデ
ータを読出して、デコードを行い再生する。ここでは全
てのフレームが再生されることになる。
When a request to reproduce a user scene occurs in step S30, the logical block at the head of the stream data is read from the position information on the disk of the file for managing the user scene in step S31. The read logical block is Unit He equivalent to Unit Header.
ader packet. Numbe from the read Unit Header
Understand the value of r of Scenes. In step S32, Un
If Number of Scenes in it Header is 0, step S
At 33, the display start frame is set to the first display frame in the stream data, and the display end frame is set to the last display frame in the stream data. That is,
All video frames in the stream data will be displayed. The case where the value of Number of Scenes is 0 is an illegal situation where scene information was not correctly recorded for some reason when a user scene was created. In step S35, data is read from the stream data, decoded, and reproduced. Here, all frames are reproduced.

【0073】ステップS32において、Unit Header内のNu
mber of Scenesが1の場合は、ステップS34において表示
開始フレームを、Scene Information内のScene Start V
U Numberで示されるVU内のScene Start Frame Numberで
示されるフレームとし、表示終了フレームを、Scene St
art Flame NumberとScene Number of VUを足し合わせた
値−1のVU内のScene End Frame Numberで示されるフレ
ームに設定する。
At step S32, Nu in the Unit Header
If mber of Scenes is 1, the display start frame is set to Scene Start V in Scene Information in step S34.
The frame indicated by the Scene Start Frame Number in the VU indicated by U Number, and the display end frame
The value is set to the frame indicated by the Scene End Frame Number in the VU of the value -1 obtained by adding the art Flame Number and the Scene Number of VU.

【0074】ステップS35において、ステップS34におい
て設定された再生情報を元にディスクから読み出したス
トリームデータに対して表示の制御を行ない処理を終了
する。具体的には、ディスクから読み出されるストリー
ムデータは、EU単位で読み出され、VU単位にデコードさ
れ、再生制御情報に基づいて開始フレームから再生が行
われる。
In step S35, display control is performed on the stream data read from the disk based on the reproduction information set in step S34, and the process ends. Specifically, stream data read from a disk is read in EU units, decoded in VU units, and played back from a start frame based on playback control information.

【0075】ステップS32において、Unit Header内のNu
mber of Scenesが2以上の場合は、ステップS36において
Unit Header内のすべてのScene Informationをチェック
したかどうかを判断する。ステップS36において全てのS
cene Informationのチェックが終っていなければ、ステ
ップS37においてファイルシシステムで管理されている
ユーザシーンのファイルサイズとステップS31において
読み出したScene Information内のScene Data Sizeを比
較する。ステップS38においてユーザシーンを管理して
いるファイルのファイルサイズと、Scene Information
内のScene DataSizeが一致する場合は、ステップS34に
おいて表示開始フレームを、Scene Information内のSce
ne Start VU Numberで示されるVU内のScene Start Fram
e Numberで示されるフレームとし、終了フレームをScen
e Information内Scene Start VUNumberにScene Number
of VUを足し合わせた値−1のVU内のScene End Frame N
umberと設定する。ステップS35において、ステップS34
において設定された再生情報を元にディスクから読み出
したストリームデータに対して表示の制御を行ない処理
を終了する。
In step S32, Nu in the Unit Header
If mber of Scenes is 2 or more, in step S36
Determines whether all Scene Information in the Unit Header has been checked. In step S36, all S
If the scene information check has not been completed, the file size of the user scene managed in the file system is compared with the scene data size in the scene information read out in step S31 in step S37. In step S38, the file size of the file managing the user scene and the Scene Information
If the Scene DataSizes in the scene information match, the display start frame is
Scene Start Fram in VU indicated by ne Start VU Number
Set the frame indicated by e Number to the end frame
e Scene Number in Scene Start VUNumber in Information
Scene End Frame N in the VU of the value minus one of the VUs
Set as umber. In step S35, step S34
The display control is performed on the stream data read from the disk based on the reproduction information set in the step, and the processing ends.

【0076】ステップS38においてユーザシーンを管理
している仮想ファイルのファイルサイズと、Scene Info
rmation内のScene Data Sizeが一致しない場合は、ステ
ップS36に戻り次のScene Informationについて同様の処
理を繰り返す。ステップS36において全てのScene Infor
mationのチェックが終った場合は、該当するシーンがな
いため、イリーガルな状態ではあるが、一例としてS39
においてユーザに対してScene Informationを選択させ
る事も可能である。あるいは、S39の段階でエラー処理
をして処理を終了しても良い。
At step S38, the file size of the virtual file managing the user scene and the Scene Info
If the Scene Data Sizes in the rmation do not match, the process returns to step S36, and the same processing is repeated for the next Scene Information. In Step S36, all Scene Infor
When the mation check is completed, there is no corresponding scene, so it is illegal, but as an example, S39
It is also possible to let the user select Scene Information in. Alternatively, error processing may be performed at the stage of S39, and the processing may end.

【0077】続いて、第2の実施形態として第1の実施形
態で説明してきた再生情報を、ユーザ定義したヘッダ用
のパケットを使用せずMPEG規格準拠のヘッダ領域に格納
する場合について説明する。
Next, a case where the reproduction information described in the first embodiment as the second embodiment is stored in an MPEG standard compliant header area without using a user-defined header packet will be described.

【0078】MPEG1およびMPEG2の符号化されたストリー
ムデータは、図20のようにシーケンス層、GOP層、ピク
チャ層、スライス層、マクロブロック層、ブロック層と
言った階層構造になっている。それぞれの階層において
ヘッダ情報が付加されており、ここではシーケンス層お
よびGOP層に注目する。
The stream data encoded by MPEG1 and MPEG2 has a hierarchical structure such as a sequence layer, a GOP layer, a picture layer, a slice layer, a macroblock layer, and a block layer as shown in FIG. Header information is added to each layer. Here, attention is paid to the sequence layer and the GOP layer.

【0079】ここで、MPEG2規格におけるビデオストリ
ームのシーケンスの定義を図21に示す。この図のように
シーケンス層において、シーケンスヘッダの情報(sequ
ence-header() 20)、シーケンスエクステンション(se
quence-extension() 21)の後に、ユーザデータ(exten
sion-user-data(0) 22)を記録することが可能である。
図22にextension-user-data()の処理内容を示す。ここ
で、user-data-start-code 30が記録されているかを判
定する。user-data-start-codeは16進数で000001B2であ
る。図23に示すユーザデータの内容は、8bit*n個単位の
情報を格納することができ16進数で000001、つまり次の
情報のstart code 40が現れるまで記録できる。またGOP
層において、GOPヘッダの情報(group-of-pictures-hea
der() 23)の後にシーケンス層と同様にユーザデータ
(extension-user-data(1) 24)を記録することが可能
である。ユーザデータの形態はシーケンス層の場合と同
様である。
FIG. 21 shows the definition of the video stream sequence in the MPEG2 standard. As shown in this figure, in the sequence layer, information (sequential
ence-header () 20), sequence extension (se
After quence-extension () 21), user data (exten
It is possible to record sion-user-data (0) 22).
FIG. 22 shows the processing contents of extension-user-data (). Here, it is determined whether the user-data-start-code 30 is recorded. user-data-start-code is 000001B2 in hexadecimal. The content of the user data shown in FIG. 23 can store information in units of 8 bits * n and can be recorded until 000001 in hexadecimal, that is, until the start code 40 of the next information appears. Also GOP
In the layer, information of the GOP header (group-of-pictures-hea
After der () 23), user data (extension-user-data (1) 24) can be recorded in the same manner as in the sequence layer. The form of the user data is the same as that of the sequence layer.

【0080】このようにシーケンス層およびGOP層にユ
ーザ定義の情報を記録することが可能となっている。こ
こで、第1実施形態において説明してきた再生情報をUni
t Headerではなく、このユーザデータ領域に格納するこ
とを考える。
As described above, it is possible to record user-defined information in the sequence layer and the GOP layer. Here, the reproduction information described in the first embodiment is
Consider storing in the user data area instead of the t Header.

【0081】ここで、この再生情報がGOP単位で必要に
なることを考えた場合に、ストリーム構成に関して若干
の制限を付ける必要がある。まず、MPEG2規格においてG
OP層のヘッダ情報を持たないストリームを定義すること
が可能であるが、本実施形態においては、かならず1つ
のGOPに対して1つのGOP層のヘッダ情報を付加するよう
にする制限を付ける。
Here, when it is considered that this reproduction information is required in GOP units, it is necessary to place some restrictions on the stream configuration. First, G in the MPEG2 standard
Although it is possible to define a stream having no OP layer header information, in the present embodiment, there is always a restriction that one GOP layer header information is added to one GOP.

【0082】本実施形態においては、GOP層におけるユ
ーザデータに再生情報を格納する場合について説明す
る。前述のGOP層におけるextension-user-data(1)で再
生情報を格納する。再生情報自体は第1実施形態で述べ
た構成と同様なので説明は省略する。具体的にはUnit H
eader中のNumber of ScenesとScene Informationの値を
GOP層のユーザデータに記録することになる。
In the present embodiment, a case where reproduction information is stored in user data in the GOP layer will be described. The playback information is stored in the extension-user-data (1) in the GOP layer described above. Since the reproduction information itself is the same as the configuration described in the first embodiment, the description is omitted. Specifically, Unit H
the value of Number of Scenes and Scene Information in the eader
It will be recorded in the GOP layer user data.

【0083】GOP層のユーザデータにおいて記録できるS
cene Informationの数の上限値を定める。例えば上限を
20個と定め、最初にストリームを記録する際に、GOP層
におけるユーザデータを記録する領域としてScene Info
rmationを20個記録できる領域をあらかじめ確保してお
く。最初にストリームを記録する時に、ダミーデータ例
えば16進数でFFをこの領域に記録することによって、後
からユーザの編集により再生情報を追加する際に記録す
るデータ領域が無いといった事を防ぐ事が可能となる。
S that can be recorded in the user data of the GOP layer
Set the upper limit of the number of scene information. For example, the upper limit
When the stream is recorded for the first time, the number of user data in the GOP layer is set as Scene Info.
Reserve an area where 20 rmations can be recorded in advance. By recording dummy data, for example, FF in hexadecimal, in this area when recording a stream for the first time, it is possible to prevent that there is no data area to record when adding playback information by user editing later Becomes

【0084】このように定義されたビデオのストリーム
データとオーディオストリームデータを多重し、GOP構
造に相当する管理単位毎にランダムアクセスを行なうも
のとする。ユーザシーンを管理する仮想ファイルは、ユ
ーザシーンの再生開始および終了フレームを含むGOP構
造に相当する管理単位毎の位置情報を管理すれば良い。
It is assumed that the video stream data and the audio stream data thus defined are multiplexed and random access is performed for each management unit corresponding to the GOP structure. The virtual file for managing the user scene may manage the position information for each management unit corresponding to the GOP structure including the reproduction start and end frames of the user scene.

【0085】ここで、このストリームデータをディスク
に記録する場合、上記第1の実施形態のように、各GOP
層のヘッダ情報がディスクの論理ブロックにアライメン
トされるように制御されている場合であれば、ユーザシ
ーンを管理している仮想ファイルの先頭の論理ブロック
を読み出せば、GOPヘッダーを読み出し、更新すること
が容易にできる。しかし、ストリーム中の各GOPのヘッ
ダ情報がディスクの論理ブロックにアライメントされて
いない場合は、ユーザシーンを管理している仮想ファイ
ルの先頭の論理ブロックを読み出しても、必ずしも注目
しているGOPヘッダの情報が読み出した論理ブロックの
先頭に入っているとは限らない。つまり、注目している
1つ前のGOPの情報が読み出したデータの先頭に入ってい
ることも考えられる。
Here, when this stream data is recorded on a disk, each GOP is recorded as in the first embodiment.
If the header information of the layer is controlled so as to be aligned with the logical block of the disk, the GOP header is read and updated by reading the first logical block of the virtual file managing the user scene. Can be done easily. However, when the header information of each GOP in the stream is not aligned with the logical block of the disk, even if the first logical block of the virtual file managing the user scene is read, the header of the GOP header of interest is not necessarily read. The information is not always at the beginning of the read logical block. In other words, we are paying attention
It is also conceivable that the information of the immediately preceding GOP is at the beginning of the read data.

【0086】更に、実際にMPEGストリームデータをディ
スクに記録する際はMPEGのシステム規格であるPESスト
リームやPSストリームなどと言ったパケット形式に整形
してから行なうのが一般的である。PESやPSのパケット
の形式で記録されるという事は、基本的にビデオストリ
ームとオーディオストリームを多重したストリームデー
タを任意の大きさに分割しパケット化し、それぞれのパ
ケットに対してヘッダ情報を付けるものである。
Further, when actually recording MPEG stream data on a disc, it is common practice to format it into a packet format such as a PES stream or a PS stream which is an MPEG system standard. Recording in the form of PES or PS packets basically means that stream data obtained by multiplexing a video stream and an audio stream is divided into arbitrary size packets, and header information is attached to each packet. It is.

【0087】このような場合は、読み出したストリーム
データを先頭から順番に見ていき、余分なヘッダ情報を
読み飛ばして、GOP層のヘッダ情報であるextension-use
r-data(1)が見つかるまでサーチすることになる。具体
的には、user-data-start-codeとして16進数で000001B2
が見つかるまでサーチをする。サーチ操作で特定した再
生情報を記録する領域を読み出したり、更新したりする
ことになる。
In such a case, the read stream data is viewed in order from the beginning, extra header information is skipped, and the extension-use
Search until r-data (1) is found. Specifically, 000001B2 in hexadecimal as user-data-start-code
Search until is found. The area for recording the reproduction information specified by the search operation is read or updated.

【0088】再生情報の書き込みなどの処理手順に関し
ては、第1実施形態で説明した場合と基本部分では同一
なので説明を省略する。
The processing procedure for writing the reproduction information and the like are basically the same as those described in the first embodiment, so that the description is omitted.

【0089】第1および第2実施形態において、ユーザシ
ーンを仮想ファイルで管理する前提で説明してきたが、
図26に示した従来方法のようにユーザシーンが参照する
オリジナルシーンの任意箇所に対応するディスク上の位
置情報を1つの管理情報ファイルとして管理し、再生情
報であるScene Informationをその参照しているストリ
ームデータの先頭のUnit Headerに入れるようにしても
良い。このような方法によって仮想ファイル機能が無い
ようなシステムにおいても、本発明を実施する事が可能
となる。この場合、ユーザシーンを他の機器などにコピ
ーや転送したい場合、管理情報ファイルで管理されてい
るユーザシーンのディスク上の位置情報を元に、ディス
クからストリームデータを読み出す位置を特定し転送を
行う。転送先では、再生情報がストリームデータの先頭
のUnit Headerに格納されているストリームデータがフ
ァイルとして管理される事になる。
Although the first and second embodiments have been described on the assumption that the user scene is managed by the virtual file,
As in the conventional method shown in FIG. 26, position information on a disc corresponding to an arbitrary portion of an original scene referred to by a user scene is managed as one management information file, and Scene Information which is playback information is referenced. You may make it put in the head header of stream data. According to such a method, the present invention can be implemented even in a system having no virtual file function. In this case, when the user scene is to be copied or transferred to another device or the like, the position where the stream data is read from the disk is specified and transferred based on the position information on the disk of the user scene managed in the management information file. . At the transfer destination, stream data whose playback information is stored in the Unit Header at the head of the stream data is managed as a file.

【0090】[0090]

【発明の効果】本発明によれば、映像データ及び音声デ
ータが記録されているユニットの補助データに再生開始
位置及び再生終了位置を示す情報を格納可能としている
ために、オリジナルシーンの一部をユーザシーンとする
場合に、そのユーザシーンの先頭の補助データに再生情
報を格納することで、ユニット中の任意の位置からの再
生開始、再生終了制御を行うことが可能であり、かつ、
再生情報を例えば他のファイルなどで管理する必要がな
い。
According to the present invention, since the information indicating the reproduction start position and the reproduction end position can be stored in the auxiliary data of the unit in which the video data and the audio data are recorded, a part of the original scene can be stored. In the case of a user scene, by storing the reproduction information in the auxiliary data at the head of the user scene, it is possible to perform reproduction start and reproduction end control from an arbitrary position in the unit, and
There is no need to manage the reproduction information in another file, for example.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明のデータ管理方法の実施形態が対象とす
る装置の構成を示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration of a device targeted by an embodiment of a data management method of the present invention.

【図2】本発明のデータ管理方法の実施形態で扱うPRU
が定義されたMPEGストリームの構成を示す図である。
FIG. 2 shows a PRU handled in an embodiment of the data management method of the present invention.
FIG. 3 is a diagram showing a configuration of an MPEG stream in which is defined.

【図3】本発明のファイル管理方法の実施形態で扱うPR
Uの定義されていないMPEGストリームの構成を示す図で
ある。
FIG. 3 is a PR used in the embodiment of the file management method of the present invention.
FIG. 3 is a diagram illustrating a configuration of an MPEG stream in which U is not defined.

【図4】本発明のデータ管理方法の実施形態で扱うPRU
の定義されたMPEGストリームとブロックの関係を示す図
である。
FIG. 4 shows a PRU used in the embodiment of the data management method of the present invention.
FIG. 3 is a diagram showing a relationship between an MPEG stream and blocks defined as follows.

【図5】本発明のデータ管理方法の実施形態で扱うPRU
の定義されていないMPEGストリームとブロックの関係を
示す図である。
FIG. 5 shows a PRU used in the embodiment of the data management method of the present invention.
FIG. 4 is a diagram showing a relationship between an MPEG stream and a block for which no is defined.

【図6】本発明のデータ管理方法の実施形態で扱うUnit
Headerの内容を示す図である。
FIG. 6 is a diagram illustrating a unit handled in the embodiment of the data management method of the present invention.
It is a figure showing the content of Header.

【図7】本発明のデータ管理方法の実施形態において1
つの仮想ファイルがオリジナルシーンのデータを参照し
ている様子を示す図である(PRUありの場合)。
FIG. 7 shows a first embodiment of the data management method according to the present invention.
FIG. 7 is a diagram showing a state in which two virtual files refer to data of an original scene (in the case where there is a PRU).

【図8】本発明のデータ管理方法の実施形態において2
つの仮想ファイルがオリジナルシーンのデータを参照し
ている様子を示す図である(PRUありの場合)。
FIG. 8 shows a second embodiment of the data management method of the present invention.
FIG. 7 is a diagram showing a state in which two virtual files refer to data of an original scene (in the case where there is a PRU).

【図9】本発明のデータ管理方法の実施形態におけるデ
ィスクに記録された実ファイルの論理ファイルシステム
の管理情報と実ファイルで管理されるデータの関係を示
す図である。
FIG. 9 is a diagram showing a relationship between management information of a logical file system of a real file recorded on a disk and data managed by the real file in the embodiment of the data management method of the present invention.

【図10】本発明のデータ管理方法の実施形態における
ディスクに記録された仮想ファイルの論理ファイルシス
テムの管理情報と仮想ファイルで参照されるデータの関
係を示す図である。
FIG. 10 is a diagram showing a relationship between management information of a logical file system of a virtual file recorded on a disk and data referenced by the virtual file in the embodiment of the data management method of the present invention.

【図11】本発明のデータ管理方法の実施形態において
1つの仮想ファイルがオリジナルシーンのデータを参照
している様子を示す図である(PRUなしの場合)。
FIG. 11 is a diagram showing a state in which one virtual file refers to data of an original scene in the embodiment of the data management method of the present invention (when there is no PRU).

【図12】本発明のデータ管理方法の実施形態において
2つの仮想ファイルがオリジナルシーンのデータを参照
している様子を示す図である(PRUなしの場合)。
FIG. 12 is a diagram showing a state in which two virtual files refer to data of an original scene in the embodiment of the data management method of the present invention (when there is no PRU).

【図13】本発明のファイル管理方法の実施形態におけ
るシステム構成を示す図である。
FIG. 13 is a diagram showing a system configuration in an embodiment of the file management method of the present invention.

【図14】本発明のデータ管理方法の実施形態において
仮想ファイルが管理するストリームデータとユーザが実
際に指定した再生範囲の関係を示す図である(PRUあり
の場合)。
FIG. 14 is a diagram showing a relationship between stream data managed by a virtual file and a reproduction range actually specified by a user in the embodiment of the data management method of the present invention (in the case where there is a PRU).

【図15】本発明のデータ管理方法の実施形態において
仮想ファイルが管理するストリームデータとユーザが実
際に指定した再生範囲の関係を示す図である(PRUなし
の場合)。
FIG. 15 is a diagram showing a relationship between stream data managed by a virtual file and a reproduction range actually specified by a user in the embodiment of the data management method of the present invention (in the case where there is no PRU).

【図16】本発明のデータ管理方法の実施形態において
同一のEUから再生を開始する仮想ファイルの様子を示す
図である。
FIG. 16 is a diagram showing a state of a virtual file whose reproduction is started from the same EU in the embodiment of the data management method of the present invention.

【図17】本発明のデータ管理方法の実施形態において
オリジナルシーンを作成する際に行なう処理の流れを示
すフローチャートである。
FIG. 17 is a flowchart illustrating a flow of processing performed when an original scene is created in the data management method according to the embodiment of the present invention.

【図18】本発明のデータ管理方法の実施形態において
ユーザシーンを作成する際に行なう処理の流れを示すフ
ローチャートである。
FIG. 18 is a flowchart showing the flow of processing performed when creating a user scene in the embodiment of the data management method of the present invention.

【図19】本発明のデータ管理方法の実施形態において
ユーザシーンを再生する際に行なう処理の流れを示すフ
ローチャートである。
FIG. 19 is a flowchart showing a flow of processing performed when a user scene is reproduced in the embodiment of the data management method of the present invention.

【図20】本発明のデータ管理方法の第2の実施形態に
おいて扱うMPEGの階層構造を示す図である。
FIG. 20 is a diagram showing the hierarchical structure of MPEG handled in the second embodiment of the data management method of the present invention.

【図21】本発明のデータ管理方法の第2の実施形態に
おいて扱うMPEGのビデオシーケンスの処理を示す図であ
る。
FIG. 21 is a diagram illustrating processing of an MPEG video sequence handled in the second embodiment of the data management method of the present invention.

【図22】本発明のデータ管理方法の第2の実施形態に
おいて扱うMPEGの拡張およびユーザデータの処理を示す
図である。
FIG. 22 is a diagram showing MPEG extension and user data processing handled in the second embodiment of the data management method of the present invention.

【図23】本発明のデータ管理方法の第2の実施形態に
おいて扱うMPEGのユーザデータの処理を示す図である。
FIG. 23 is a diagram showing processing of MPEG user data handled in the second embodiment of the data management method of the present invention.

【図24】従来技術における実ファイルと仮想ファイル
の関係を示す図である。
FIG. 24 is a diagram showing a relationship between a real file and a virtual file in a conventional technique.

【図25】従来技術におけるユーザシーン毎に再生情報
を持ちそれぞれ実ファイルとして管理されている様子を
示す図である。
FIG. 25 is a diagram showing a state in which reproduction information is provided for each user scene and is managed as a real file in the related art.

【図26】従来技術におけるストリームデータを実ファ
イル出管理しそのストリームデータの任意の箇所を参照
するユーザシーンの再生情報を管理情報として実ファイ
ルで記録する様子を示す図である。
FIG. 26 is a diagram showing a state in which stream data according to the related art is managed in a real file, and reproduction information of a user scene that refers to an arbitrary portion of the stream data is recorded as management information in a real file.

【符号の説明】[Explanation of symbols]

1 制御部 2 カメラ部 3 MPEGエンコーダ 4 MPEGシステム部 5 バッファメモリ 6 ECC信号処理部 7 変復調/セクタコーディック部 8 サーボ制御部 9 ディスク Reference Signs List 1 control unit 2 camera unit 3 MPEG encoder 4 MPEG system unit 5 buffer memory 6 ECC signal processing unit 7 modulation / demodulation / sector codec unit 8 servo control unit 9 disk

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 5/91 G11B 27/02 A ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) H04N 5/91 G11B 27/02 A

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 記録媒体上に、1つあるいは複数のGOP
データ及び対応する音声データ、及び補助データで構成
されるユニットの集合であるファイルとして映像データ
を記録し、該ファイル単位で映像データの読出し及び書
き込みを行う記録再生装置におけるデータ記録方法であ
って、 当該ファイルの先頭のユニットの補助データに、当該フ
ァイルの再生情報を記録することを特徴とするデータ記
録方法。
1. One or more GOPs on a recording medium
A data recording method in a recording / reproducing apparatus that records video data as a file that is a set of units composed of data and corresponding audio data, and auxiliary data, and reads and writes video data in file units, A data recording method characterized by recording reproduction information of the file in auxiliary data of a head unit of the file.
【請求項2】 記録媒体上に、1つあるいは複数のGOP
データ及び対応する音声データ、及び補助データで構成
されるユニットの集合であるファイルとして映像データ
を記録し、該ファイル単位で映像データの読出し及び書
き込みを行う記録再生装置におけるデータ記録方法であ
って、 記録されたファイル中の全部あるいは一部のユニットを
仮想ファイルとして管理し、 当該仮想ファイルの先頭のユニットの補助データに、当
該ファイルの再生情報を記録することを特徴とするデー
タ記録方法。
2. One or a plurality of GOPs on a recording medium
A data recording method in a recording / reproducing apparatus that records video data as a file that is a set of units composed of data and corresponding audio data, and auxiliary data, and reads and writes video data in file units, A data recording method which manages all or a part of units of a recorded file as a virtual file, and records reproduction information of the file in auxiliary data of a head unit of the virtual file.
【請求項3】 前記再生情報は、再生を開始するフレー
ム及び再生を終了するフレームを示す情報を含むことを
特徴とする前記請求項1または2に記載のデータ記録方
法。
3. The data recording method according to claim 1, wherein the reproduction information includes information indicating a frame to start reproduction and a frame to end reproduction.
【請求項4】 前記再生情報は、当該ファイル或いは仮
想ファイルのファイルサイズを含むことを特徴とする前
記請求項1乃至3のいずれかに記載のデータ記録方法。
4. The data recording method according to claim 1, wherein the reproduction information includes a file size of the file or the virtual file.
【請求項5】 前記ユニットを1GOP単位とし、前記再
生情報をMPEGフォーマットにおけるGOP層のユーザデー
タ領域に記録することを特徴とする前記請求項1乃至4
のいずれかに記載のデータ記録方法。
5. The apparatus according to claim 1, wherein the unit is one GOP unit, and the reproduction information is recorded in a user data area of a GOP layer in an MPEG format.
The data recording method according to any one of the above.
【請求項6】 1つあるいは複数のGOPデータ及び対応
する音声データ、及び補助データで構成されるユニット
の集合であるファイルとして映像データが記録された記
録媒体において、該ファイル単位で映像データの読出し
及び書き込みを行う記録再生装置におけるデータ再生方
法であって、 読み出されたファイルの先頭のユニットの補助データに
記録されている再生情報を読出し、当該再生情報に基づ
いて、読み出されたファイルの再生制御を行うことを特
徴とするデータ再生方法。
6. On a recording medium on which video data is recorded as a file which is a set of one or a plurality of GOP data, corresponding audio data, and auxiliary data, read out the video data in file units. And a data reproducing method in a recording / reproducing apparatus for performing writing, wherein the reproducing information recorded in the auxiliary data of the head unit of the read file is read, and the read file is read out based on the reproducing information. A data reproduction method comprising performing reproduction control.
【請求項7】 前記再生情報は、再生を開始するフレー
ム及び再生を終了するフレームを示す情報を含むことを
特徴とする前記請求項6に記載のデータ再生方法。
7. The data reproduction method according to claim 6, wherein the reproduction information includes information indicating a frame to start reproduction and a frame to end reproduction.
【請求項8】 前記再生情報は、管理領域に記録される
当該ファイルのファイルサイズを含み、 再生するファイルのファイルサイズと、一致する再生情
報を選択し、選択された再生情報に基づいて、再生制御
を行うことを特徴とする前記請求項6または請求項7に
記載のデータ再生方法。
8. The reproduction information includes a file size of the file recorded in a management area, selects reproduction information that matches a file size of a file to be reproduced, and reproduces the reproduction information based on the selected reproduction information. 8. The data reproducing method according to claim 6, wherein control is performed.
【請求項9】 前記ユニットは1GOP単位であり、前記
再生位置管理情報は、MPEGフォーマットにおけるGOP層
のユーザデータ領域に記録されていることを特徴とする
前記請求項6乃至8のいずれかに記載のデータ記録方
法。
9. The apparatus according to claim 6, wherein the unit is one GOP unit, and the reproduction position management information is recorded in a user data area of a GOP layer in an MPEG format. Data recording method.
JP35258199A 1999-12-13 1999-12-13 Data recording method and data reproduction method Pending JP2001169246A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP35258199A JP2001169246A (en) 1999-12-13 1999-12-13 Data recording method and data reproduction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP35258199A JP2001169246A (en) 1999-12-13 1999-12-13 Data recording method and data reproduction method

Publications (1)

Publication Number Publication Date
JP2001169246A true JP2001169246A (en) 2001-06-22

Family

ID=18425036

Family Applications (1)

Application Number Title Priority Date Filing Date
JP35258199A Pending JP2001169246A (en) 1999-12-13 1999-12-13 Data recording method and data reproduction method

Country Status (1)

Country Link
JP (1) JP2001169246A (en)

Cited By (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002067095A3 (en) * 2001-02-20 2003-03-13 Sony Comp Emtertainment Us System and method for transfer of disc ownership based on disc and user identification
WO2004001748A1 (en) * 2002-06-21 2003-12-31 Lg Electronics Inc. Recording medium having data structure for managing reproduction of video data recorded thereon
WO2004001752A1 (en) * 2002-06-24 2003-12-31 Lg Electronics Inc. Recording medium having data structure for managing reproduction of multiple title video data recorded thereon and recording and reproducing methods and apparatuses
WO2004001749A1 (en) * 2002-06-21 2003-12-31 Lg Electronics Inc. Recording medium having data structure for managing reproduction of video data recorded thereon
WO2004001754A1 (en) * 2002-06-24 2003-12-31 Lg Electronics Inc. Recording medium having data structure for managing reproduction of multiple reproduction path video data for at least a segment of a title recorded thereon and recording and reproducing methods and apparatuses
WO2004044913A1 (en) * 2002-11-12 2004-05-27 Lg Electronics Inc. Recording medium having data structure for managing reproduction of multiple reproduction path video data recorded thereon and recording and reproducing methods and apparatuses
US7216156B2 (en) 2001-02-20 2007-05-08 Sony Computer Entertainment America Inc. Incentivizing software sharing thru incentive points
US7280743B2 (en) 2001-11-09 2007-10-09 Kabushiki Kaisha Toshiba Data recording apparatus for recording stream data in which dummy data is inserted and data recording apparatus for recording end code in place of dummy code
US7409409B2 (en) 2001-12-11 2008-08-05 Thomson Licensing Method for editing a recorded stream of application packets, and corresponding stream recorder
US7561778B2 (en) 2002-05-07 2009-07-14 Lg Electronics Inc. Method for recording and managing a multi-channel stream
US7693394B2 (en) 2003-02-26 2010-04-06 Lg Electronics Inc. Recording medium having data structure for managing reproduction of data streams recorded thereon and recording and reproducing methods and apparatuses
US7720356B2 (en) 2002-11-12 2010-05-18 Lg Electronics Inc Recording medium having data structure for managing reproduction of multiple reproduction path video data recorded thereon and recording and reproducing methods and apparatuses
US7769272B2 (en) 2002-11-20 2010-08-03 Lg Electronics Inc. Recording medium having data structure for managing reproduction of at least video data recorded thereon and recording and reproducing methods and apparatuses
US7783160B2 (en) 2002-11-20 2010-08-24 Lg Electronics Inc. Recording medium having data structure for managing reproduction of interleaved multiple reproduction path video data recorded thereon and recording and reproducing methods and apparatuses
US7809775B2 (en) 2003-02-27 2010-10-05 Lg Electronics, Inc. Recording medium having data structure for managing playback control recorded thereon and recording and reproducing methods and apparatuses
US7813237B2 (en) 2002-10-14 2010-10-12 Lg Electronics Inc. Recording medium having data structure for managing reproduction of multiple audio streams recorded thereon and recording and reproducing methods and apparatuses
US7826720B2 (en) 2002-06-28 2010-11-02 Lg Electronics, Inc. Recording medium having data structure for managing recording and reproduction of multiple path data recorded thereon and recording and reproducing methods and apparatus
US7840121B2 (en) 2002-10-15 2010-11-23 Lg Electronics Inc. Recording medium having data structure for managing reproduction of multiple graphics streams recorded thereon and recording and reproducing methods and apparatuses
US7848619B2 (en) 2003-04-04 2010-12-07 Lg Electronics Inc. Recording medium having data structure for managing to resume reproduction of video data recorded thereon and recording and reproducing methods and apparatuses
US7889968B2 (en) 2002-06-24 2011-02-15 Lg Electronics Inc. Recording medium having data structure for managing reproduction of multiple reproduction path video data for at least a segment of a title recorded thereon and recording and reproducing methods and apparatuses
US7894706B2 (en) 2002-12-27 2011-02-22 Sony Corporation Method of recording compressed image data multiplexed with additional information
US7912338B2 (en) 2003-02-28 2011-03-22 Lg Electronics Inc. Recording medium having data structure for managing random/shuffle reproduction of video data recorded thereon and recording and reproducing methods and apparatuses
US8064755B2 (en) 2002-11-08 2011-11-22 Lg Electronics Inc. Method and apparatus for recording a multi-component stream and a high-density recording medium having a multi-component stream recorded thereon and reproducing method and apparatus of said recording medium
US8260110B2 (en) 2002-06-28 2012-09-04 Lg Electronics Inc. Recording medium having data structure for managing reproduction of multiple playback path video data recorded thereon and recording and reproducing methods and apparatuses
US8290604B2 (en) 2008-08-19 2012-10-16 Sony Computer Entertainment America Llc Audience-condition based media selection
US8433759B2 (en) 2010-05-24 2013-04-30 Sony Computer Entertainment America Llc Direction-conscious information sharing
US8447421B2 (en) 2008-08-19 2013-05-21 Sony Computer Entertainment Inc. Traffic-based media selection
US8484219B2 (en) 2010-09-21 2013-07-09 Sony Computer Entertainment America Llc Developing a knowledge base associated with a user that facilitates evolution of an intelligent user interface
US8954356B2 (en) 2010-09-21 2015-02-10 Sony Computer Entertainment America Llc Evolution of a user interface based on learned idiosyncrasies and collected data of a user
US8966557B2 (en) 2001-01-22 2015-02-24 Sony Computer Entertainment Inc. Delivery of digital content
US8996409B2 (en) 2007-06-06 2015-03-31 Sony Computer Entertainment Inc. Management of online trading services using mediated communications
US9105178B2 (en) 2012-12-03 2015-08-11 Sony Computer Entertainment Inc. Remote dynamic configuration of telemetry reporting through regular expressions
US9275197B2 (en) 2009-07-20 2016-03-01 Sony Computer Entertainment America Llc Sharing and lending of digital content
US9483405B2 (en) 2007-09-20 2016-11-01 Sony Interactive Entertainment Inc. Simplified run-time program translation for emulating complex processor pipelines
US10325266B2 (en) 2009-05-28 2019-06-18 Sony Interactive Entertainment America Llc Rewarding classes of purchasers

Cited By (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8966557B2 (en) 2001-01-22 2015-02-24 Sony Computer Entertainment Inc. Delivery of digital content
US10061902B2 (en) 2001-02-20 2018-08-28 Sony Interactive Entertainment America Llc Method, medium, and system for managing transfer of content
US7539737B2 (en) 2001-02-20 2009-05-26 Sony Computer Entertainment America Inc. Utilizing an incentive point system based on disc and user identification
WO2002067095A3 (en) * 2001-02-20 2003-03-13 Sony Comp Emtertainment Us System and method for transfer of disc ownership based on disc and user identification
US7228342B2 (en) 2001-02-20 2007-06-05 Sony Computer Entertainment America Inc. System for utilizing an incentive point system based on disc and user identification
US7216156B2 (en) 2001-02-20 2007-05-08 Sony Computer Entertainment America Inc. Incentivizing software sharing thru incentive points
US7280743B2 (en) 2001-11-09 2007-10-09 Kabushiki Kaisha Toshiba Data recording apparatus for recording stream data in which dummy data is inserted and data recording apparatus for recording end code in place of dummy code
US7409409B2 (en) 2001-12-11 2008-08-05 Thomson Licensing Method for editing a recorded stream of application packets, and corresponding stream recorder
US7561778B2 (en) 2002-05-07 2009-07-14 Lg Electronics Inc. Method for recording and managing a multi-channel stream
US8406605B2 (en) 2002-05-07 2013-03-26 Lg Electronics Inc. Method for recording and managing a multi-channel stream
US7835622B2 (en) 2002-06-21 2010-11-16 Lg Electronics Inc. Recording medium having data structure for managing reproduction of video data recorded thereon and recording and reproducing methods and apparatuses
US7835623B2 (en) 2002-06-21 2010-11-16 Lg Electronics Inc. Recording medium having data structure for managing reproduction of video data recorded thereon
WO2004001748A1 (en) * 2002-06-21 2003-12-31 Lg Electronics Inc. Recording medium having data structure for managing reproduction of video data recorded thereon
AU2003241198B2 (en) * 2002-06-21 2009-09-03 Lg Electronics Inc. Recording medium having data structure for managing reproduction of video data recorded thereon
WO2004001749A1 (en) * 2002-06-21 2003-12-31 Lg Electronics Inc. Recording medium having data structure for managing reproduction of video data recorded thereon
CN100447880C (en) * 2002-06-21 2008-12-31 Lg电子株式会社 Recording medium having data structure for managing reproduction of video data recorded thereon
CN101188133A (en) * 2002-06-24 2008-05-28 Lg电子株式会社 Recording and reproducing methods and apparatuses for recording and reproducing data structure of video data
WO2004001752A1 (en) * 2002-06-24 2003-12-31 Lg Electronics Inc. Recording medium having data structure for managing reproduction of multiple title video data recorded thereon and recording and reproducing methods and apparatuses
WO2004001751A1 (en) * 2002-06-24 2003-12-31 Lg Electronics Inc. Recording medium having data structure including navigation control information for managing reproduction of video data recorded thereon and recording and reproducing methods and apparatuses
US7672567B2 (en) 2002-06-24 2010-03-02 Lg Electronics Inc. Recording medium having data structure for managing reproduction of multiple reproduction path video data for at least a segment of a title recorded thereon and recording and reproducing methods and apparatuses
CN100378854C (en) * 2002-06-24 2008-04-02 Lg电子株式会社 Recording medium having data structure including navigation control information for managing reproduction of video data recorded thereon and recording and reproducing methods and apparatuses
WO2004001754A1 (en) * 2002-06-24 2003-12-31 Lg Electronics Inc. Recording medium having data structure for managing reproduction of multiple reproduction path video data for at least a segment of a title recorded thereon and recording and reproducing methods and apparatuses
US7949231B2 (en) 2002-06-24 2011-05-24 Lg Electronics Inc. Recording medium having data structure for managing reproduction of multiple reproduction path video data recorded thereon and recording and reproducing methods and apparatuses
US7783159B2 (en) 2002-06-24 2010-08-24 Lg Electronics Inc. Recording medium having data structure for managing reproduction of multiple reproduction path video data for at least a segment of a title recorded thereon and recording and reproducing methods and apparatuses
US7889968B2 (en) 2002-06-24 2011-02-15 Lg Electronics Inc. Recording medium having data structure for managing reproduction of multiple reproduction path video data for at least a segment of a title recorded thereon and recording and reproducing methods and apparatuses
CN101188133B (en) * 2002-06-24 2015-08-05 Lg电子株式会社 The method of the data structure of the reproduction of record, reproducing video data and device thereof
US7809243B2 (en) 2002-06-24 2010-10-05 Lg Electronics, Inc. Recording medium having data structure including navigation control information for managing reproduction of video data recorded thereon and recording and reproducing methods and apparatuses
WO2004001750A1 (en) * 2002-06-24 2003-12-31 Lg Electronics Inc. Recording medium having data structure for managing reproduction of multiple reproduction path video data recorded thereon and recording and reproducing methods and apparatuses
US7826720B2 (en) 2002-06-28 2010-11-02 Lg Electronics, Inc. Recording medium having data structure for managing recording and reproduction of multiple path data recorded thereon and recording and reproducing methods and apparatus
US8554060B2 (en) 2002-06-28 2013-10-08 Lg Electronics Inc. Recording medium having data structure for managing recording and reproduction of multiple path data recorded thereon and recording and reproducing methods and apparatus
US8260110B2 (en) 2002-06-28 2012-09-04 Lg Electronics Inc. Recording medium having data structure for managing reproduction of multiple playback path video data recorded thereon and recording and reproducing methods and apparatuses
US7961570B2 (en) 2002-10-14 2011-06-14 Lg Electronics Inc. Recording medium having data structure for managing reproduction of multiple audio streams recorded thereon and recording and reproducing methods and apparatuses
US7813237B2 (en) 2002-10-14 2010-10-12 Lg Electronics Inc. Recording medium having data structure for managing reproduction of multiple audio streams recorded thereon and recording and reproducing methods and apparatuses
US7840121B2 (en) 2002-10-15 2010-11-23 Lg Electronics Inc. Recording medium having data structure for managing reproduction of multiple graphics streams recorded thereon and recording and reproducing methods and apparatuses
US8064755B2 (en) 2002-11-08 2011-11-22 Lg Electronics Inc. Method and apparatus for recording a multi-component stream and a high-density recording medium having a multi-component stream recorded thereon and reproducing method and apparatus of said recording medium
US7720356B2 (en) 2002-11-12 2010-05-18 Lg Electronics Inc Recording medium having data structure for managing reproduction of multiple reproduction path video data recorded thereon and recording and reproducing methods and apparatuses
WO2004044913A1 (en) * 2002-11-12 2004-05-27 Lg Electronics Inc. Recording medium having data structure for managing reproduction of multiple reproduction path video data recorded thereon and recording and reproducing methods and apparatuses
AU2003276756B2 (en) * 2002-11-12 2007-09-13 Lg Electronics Inc. Recording medium having data structure for managing reproduction of multiple reproduction path video data recorded thereon and recording and reproducing methods and apparatuses
US7769272B2 (en) 2002-11-20 2010-08-03 Lg Electronics Inc. Recording medium having data structure for managing reproduction of at least video data recorded thereon and recording and reproducing methods and apparatuses
US7783160B2 (en) 2002-11-20 2010-08-24 Lg Electronics Inc. Recording medium having data structure for managing reproduction of interleaved multiple reproduction path video data recorded thereon and recording and reproducing methods and apparatuses
US8886021B2 (en) 2002-11-20 2014-11-11 Lg Electronics Inc. Recording medium having data structure for managing reproduction of at least video data recorded thereon and recording and reproducing methods and apparatuses
US8831406B2 (en) 2002-11-20 2014-09-09 Lg Electronics Inc. Recording medium having data structure for managing reproduction of at least video data recorded thereon and recording and reproducing methods and apparatuses
US7894706B2 (en) 2002-12-27 2011-02-22 Sony Corporation Method of recording compressed image data multiplexed with additional information
US7693394B2 (en) 2003-02-26 2010-04-06 Lg Electronics Inc. Recording medium having data structure for managing reproduction of data streams recorded thereon and recording and reproducing methods and apparatuses
US7809775B2 (en) 2003-02-27 2010-10-05 Lg Electronics, Inc. Recording medium having data structure for managing playback control recorded thereon and recording and reproducing methods and apparatuses
US7912338B2 (en) 2003-02-28 2011-03-22 Lg Electronics Inc. Recording medium having data structure for managing random/shuffle reproduction of video data recorded thereon and recording and reproducing methods and apparatuses
US7848619B2 (en) 2003-04-04 2010-12-07 Lg Electronics Inc. Recording medium having data structure for managing to resume reproduction of video data recorded thereon and recording and reproducing methods and apparatuses
US8996409B2 (en) 2007-06-06 2015-03-31 Sony Computer Entertainment Inc. Management of online trading services using mediated communications
US9483405B2 (en) 2007-09-20 2016-11-01 Sony Interactive Entertainment Inc. Simplified run-time program translation for emulating complex processor pipelines
US8447421B2 (en) 2008-08-19 2013-05-21 Sony Computer Entertainment Inc. Traffic-based media selection
US8290604B2 (en) 2008-08-19 2012-10-16 Sony Computer Entertainment America Llc Audience-condition based media selection
US10325266B2 (en) 2009-05-28 2019-06-18 Sony Interactive Entertainment America Llc Rewarding classes of purchasers
US9275197B2 (en) 2009-07-20 2016-03-01 Sony Computer Entertainment America Llc Sharing and lending of digital content
US8433759B2 (en) 2010-05-24 2013-04-30 Sony Computer Entertainment America Llc Direction-conscious information sharing
US8954356B2 (en) 2010-09-21 2015-02-10 Sony Computer Entertainment America Llc Evolution of a user interface based on learned idiosyncrasies and collected data of a user
US8484219B2 (en) 2010-09-21 2013-07-09 Sony Computer Entertainment America Llc Developing a knowledge base associated with a user that facilitates evolution of an intelligent user interface
US9105178B2 (en) 2012-12-03 2015-08-11 Sony Computer Entertainment Inc. Remote dynamic configuration of telemetry reporting through regular expressions
US9613147B2 (en) 2012-12-03 2017-04-04 Sony Interactive Entertainment Inc. Collection of telemetry data by a telemetry library within a client device

Similar Documents

Publication Publication Date Title
JP2001169246A (en) Data recording method and data reproduction method
JP3356991B2 (en) Optical disc, recording method, recording device, reproducing method, and reproducing device
JP4264617B2 (en) Recording apparatus and method, reproducing apparatus and method, recording medium, program, and recording medium
KR100780153B1 (en) Recording apparatus and method, reproducing apparatus and method, and recorded medium
EP1983522A2 (en) Recording/reproduction apparatus and method as well as recording medium
EP1486979B1 (en) Data recording method and data recording device
KR100565875B1 (en) Method and apparatus for recording a continuous data
US20060110111A1 (en) Editing of real time information on a record carrier
US7130525B1 (en) Method of determining access position on recording medium and method of managing recording medium
JPH11176137A (en) Optical disk medium and its recording method and device
JPH1196730A (en) Optical disk and its editing device and reproducing device
JP2005033383A (en) Dynamic image editing apparatus and method for controlling the same
EP1873783A2 (en) Apparatus, method, and computer program for processing information
KR100537392B1 (en) Data recording method, data editing method, data decoding method, and apparatus thereof, and recording medium
JPH11298845A (en) Optical disk, optical disk recorder and optical disk player
JP3986973B2 (en) AV data recording method, AV data recording apparatus, data recording medium, and program
JP3895305B2 (en) Data recording method, data recording apparatus, and data recording medium
JP2001101050A (en) Method for managing file
JP3510782B2 (en) Moving image recording method, reproducing method, editing method and apparatus
JP2001103428A (en) Access position specifying method for medium, and management device for recording medium
JP2004120099A (en) Information processing apparatus and method, program, and recording medium
KR20060082380A (en) Method and apparatus for managing information for edition of recorded data
JP2002373480A (en) Data-recording method, data recorder and recording medium
KR20020060982A (en) Information recording apparatus and method, and information recording medium by them
JPWO2004028157A1 (en) Data recording method, data reproducing method, data recording device, data reproducing device, data recording medium, program, and recording medium storing the program