JP2006005955A - Motion picture recording and reproducing apparatus and recording medium - Google Patents
Motion picture recording and reproducing apparatus and recording medium Download PDFInfo
- Publication number
- JP2006005955A JP2006005955A JP2005213722A JP2005213722A JP2006005955A JP 2006005955 A JP2006005955 A JP 2006005955A JP 2005213722 A JP2005213722 A JP 2005213722A JP 2005213722 A JP2005213722 A JP 2005213722A JP 2006005955 A JP2006005955 A JP 2006005955A
- Authority
- JP
- Japan
- Prior art keywords
- data
- video
- gop
- audio
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Signal Processing For Digital Recording And Reproducing (AREA)
- Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
- Management Or Editing Of Information On Record Carriers (AREA)
Abstract
Description
本発明は、圧縮された映像、音声データをディスク媒体や半導体メモリに記録、再生する装置及び記録媒体に関する。 The present invention relates to an apparatus and a recording medium for recording and reproducing compressed video and audio data on a disk medium or a semiconductor memory.
近年、動画像符号化方式として、MPEG1(ISO/IEC 11172)、MPEG2(ISO/IEC 13818)方式が蓄積、通信、放送の分野で用いられている。MPEG方式ではフレーム毎にフレーム内符号化、前方向のフレーム間予測符号化、両方向のフレーム間予測符号化を切り替えて用いる。
以下では、フレーム内符号化するフレームをIフレーム、前方向のフレーム間予測符号化するフレームをPフレーム、両方向のフレーム間予測符号化するフレームをBフレームと呼ぶ。
図19にIフレーム、Pフレーム、Bフレームの並びの例を示す。MPEG方式では図19に示すように、1枚以上のIフレームを含む複数のフレーム群をGroup Of Pictures(以下ではGOPと略す)と呼ぶ。
MPEG方式で圧縮した符号化データをビデオシーケンスの途中から再生する場合、Iピクチャから復号する必要がある。これは、PピクチャやBピクチャはフレーム間予測符号化されているため、予測に用いる画像を先に復号しておく必要があり、この依存関係をたどると全てのPピクチャやBピクチャはIピクチャに依存しているためである。
ところで、MPEG方式は可変長符号化であり、時間と符号量が比例しない。即ち、ランダムアクセス等で符号化データの途中から再生する場合などでは、再生開始時刻がわかっても、その時刻のデータがどこに記録されているかはわからない。そのため、どの時刻のデータがメディアのどの位置に記録してあるかを予め管理しておく必要がある。
MPEG方式でアクセスの単位となるGOPの位置を管理し、ランダムアクセスを効率良く行う装置が特許文献1に記載されている。特許文献1では、n個(nは1以上の整数)のGOPをデータユニット(DUT)とてまとめて光ディスクに記録し、DUTの記録位置も別途記録する。
図20に特許文献1で用いるDUTの構成を示す。
DUT201はDUTヘッダ202、副映像データ203、音声データ204、主映像データ205で構成され、副映像データ203には主映像データ205の時間に対応するサブピクチャ(字幕データ)など、音声データ204には主映像データ205の時間に対応する音声データ、主映像データ205にはMPEG方式で圧縮された映像データが記録される。
ここで、DUTヘッダ202以外のデータは、DUT毎にデータ長が異なる。そして、DUTを構成する各データは、光ディスクの物理セクタ長の整数倍となるように長さが決められている。
DUTの先頭が記録されるセクタ番号は、ディスクの管理ファイルに別途記録されており、ランダムアクセスや高速再生時には管理ファイルの情報から目的のDUTの開始位置を検索、ジャンプし、GOPの先頭から再生する。
Hereinafter, a frame to be intra-coded is referred to as an I frame, a frame to be subjected to inter-frame predictive coding in the forward direction is referred to as a P frame, and a frame to be subjected to inter-frame predictive coding in both directions is referred to as a B frame.
FIG. 19 shows an example of the arrangement of I frames, P frames, and B frames. In the MPEG system, as shown in FIG. 19, a plurality of frame groups including one or more I frames are referred to as “Group Of Pictures” (hereinafter abbreviated as GOP).
When the encoded data compressed by the MPEG method is reproduced from the middle of the video sequence, it is necessary to decode from the I picture. This is because the P picture and B picture are inter-frame prediction encoded, so it is necessary to first decode the picture used for prediction. If this dependency is followed, all P pictures and B pictures are I pictures. Because it depends on.
By the way, the MPEG system is variable length coding, and time and code amount are not proportional. That is, in the case of reproducing from the middle of encoded data by random access or the like, even if the reproduction start time is known, it is not known where the data at that time is recorded. For this reason, it is necessary to manage in advance which time data is recorded in which position on the medium.
Japanese Patent Application Laid-Open No. 2004-228561 describes an apparatus that manages the position of a GOP that is an access unit in the MPEG system and efficiently performs random access. In
FIG. 20 shows the configuration of the DUT used in
The
Here, data other than the
The sector number at which the head of the DUT is recorded is recorded separately in the management file of the disk. During random access or high-speed playback, the start position of the target DUT is searched from the management file information, jumped, and playback is started from the head of the GOP. To do.
しかしながら、特許文献1に記載の方式(以下では従来例と呼ぶ)では、下記に記述する5つの問題点がある。
第1に従来例では、DUTの開始位置しか管理していないため、2〜3倍速の高速再生時になめらかな表示ができないという問題がある。
高速再生時には、圧縮データの中からIピクチャの符号の読み出しを繰り返す。
図21を用いてこの様子を説明する。
図21において、まずDUT211の先頭にジャンプし、DUT211内のIピクチャ213を読み出す。Iピクチャの終了を検出するとDUT212の先頭にジャンプし、DUT212内のIピクチャ214を読み出し、以下同様の動作を繰り返す。
一例として、GOPを構成するフレーム数を15枚、DUTが4GOPで構成されているとすると1DUTは約2秒のデータに相当し、約2秒毎のデータのうちの1枚のIピクチャの再生を繰り返す。この場合に、1秒当たり1枚のIピクチャを再生すると2倍速となり、1秒当たり2枚のIピクチャを再生すると4倍速になる。言い変えると2倍速の場合は1秒間に1枚、4倍速の場合は1秒間に2枚の画像しか表示できず、なめらかな高速再生にならない。
従来例において、DUTを構成するGOPの数を少なくすれば、より多くのIピクチャを再生することはできる。例えばDUTを1GOPで構成するとすると、1秒当たり4枚のIピクチャを再生すると2倍速となる。しかしながら、単位時間当たりに読み出し可能なIピクチャの枚数がより多い場合には、表示可能枚数よりも少ない枚数しか表示できない。
第2に、従来例では、高速再生時に無駄な読み出しが生じるという問題がある。
図21に示した通り、高速再生時にはまずDUTの先頭にジャンプする。読み出すべきIピクチャのデータは図20の主映像データ205に記録されているが、それまでにDUTヘッダ202、副映像データ203、音声データ204を読み出す必要がある。
また、高速再生時には、Iピクチャの読み出しが終了した後に次のDUTにジャンプするが、Iピクチャの終了位置は別途検出する必要がある。
図22にディスクに映像を記録、再生する装置のブロック図を示す。
図22において、コントローラ229が記録メディア231を制御し、記録メディア231からはDIUの先頭からのデータが出力される。出力データは、ECC(誤り訂正)符号化されており、ECC部230でデコードされる。
デコードされたデータは多重化・分離回路227でDUTヘッダ、副映像データ、音声データ、主映像データに分離され、メモリ228に保持される。DUTヘッダは図示しないシステムコントローラに入力され、副映像データは図示しない副映像デコード回路に入力される。そして音声データはオーディオコーデック225でデコードされ、主映像データはビデオコーデック226でデコードされる。通常、ビデオデータのデコードは、ビデオコーデック226で行われるため、Iピクチャの終了もビデオコーデック226で検出される。
図22において、記録メディア231からデータが読み出されてから、ビデオコーデック226に主映像データが入力されるまでにはECC部230、多重化・分離回路227での処理時間の遅延がある。
ECC部230は、32KBといった大きな単位で処理を行うので、最低でも単位分のデータが蓄積する時間の遅延が発生する。従って、ビデオコーデック226でIピクチャの終了を検出した時点で、既に次の不要なデータが読み出されていることになる。
第3に、従来例において記録メディアにリアルタイムで記録を行う場合には、DUTを構成するために大容量のメモリが必要になるという問題がある。
図20に示したように、従来例ではまず音声データを記録し、次に主映像データを記録する。即ち、DUTの音声データが得られるまで、主映像データはメモリに保持しておく必要がある。
例えば、映像の符号化データレートが平均で4Mbps、DUTが約2秒のデータで構成されている場合、
4Mbit × 2 = 8Mbit
の容量のメモリが必要になる。
さらには、映像の符号化データは可変長のため、一時的な発生符号量はより多くなるため、平均符号量以上のメモリ容量を備えておく必要がある。
第4に、従来例では、DUTより細かい単位での符号化データの加工ができないという問題がある。
ディスク媒体の場合には、記録されているデータは変更せず、再生順序をポインタで示すプログラム再生や編集を行うことが可能である。従来例でDUTが複数のGOPで構成されている場合、GOPの境界がわからないために最小の編集単位はDUTとなってしまい、MPEGのアクセス単位であるGOP毎の編集ができないという問題がある。
第5に、従来例ではオーディオデータとビデオデータの同期のための情報がないため、オーディオとビデオの同期を確保できないという問題もある。
従来例では、DUTはGOPを構成する時間に対応する符号化データで構成される。ここで、ビデオフレームの周期は 30000/1001 Hz であり、符号化も1周期毎に行われる。これに対して、オーディオデータのサンプリング周波数は44.1KHzで、MPEG1方式の場合は1152データをオーディオフレームとし、ATRAC方式、ATRAC2方式では1024データをオーディオフレームとして符号化することが多い。
ビデオフレームは約33m秒、オーディオフレームは約26m秒や約23m秒となり、GOPに対応する主映像データと音声データの時間を完全に一致させることはできない。即ち、DUT単位で主映像データと音声データの再生開始時刻が完全に一致しているのは最初のDUTだけで、以降のDUTの開始点では主映像の再生時刻と音声データの再生時刻は一致しない。
DUTを構成する主映像データと音声データの時間が異なるため、再生開始点と終了点をポインタで指定するプログラム再生を連続して行った場合には、主映像データと音声データの時間の誤差が蓄積し、同期がとれない問題が発生する。
本発明は、このような問題点に鑑みてなされたものであり、高速再生時において無駄なデータを読み出すことがなく、単位時間当たりの表示枚数を増やしてなめらかな高速再生を実現する動画像記録再生方法及び装置、及びリアルタイム記録の場合においても大容量のメモリを必要しない動画像記録再生方法及び装置、及びGOP単位でのランダムアクセスや編集が可能で、編集を行ってもオーディオデータとビデオデータの同期を確保できる動画像記録再生方法及び装置を提供することを目的とする。
However, the method described in Patent Document 1 (hereinafter referred to as a conventional example) has the following five problems.
First, since only the start position of the DUT is managed in the conventional example, there is a problem that smooth display cannot be performed during high-speed playback at 2 to 3 times speed.
During high-speed playback, reading of the I picture code from the compressed data is repeated.
This situation will be described with reference to FIG.
In FIG. 21, first, jump to the head of the
As an example, if the number of frames constituting a GOP is 15 and the DUT is composed of 4 GOPs, 1 DUT is equivalent to about 2 seconds of data, and one I picture of about 2 seconds of data is played back. repeat. In this case, when one I picture per second is reproduced, the speed is doubled, and when two I pictures are reproduced per second, the speed is quadrupled. In other words, only one image per second can be displayed at 2 × speed, and only two images per second can be displayed at 4 × speed, and smooth high-speed playback cannot be achieved.
In the conventional example, if the number of GOPs constituting the DUT is reduced, more I pictures can be reproduced. For example, if the DUT is composed of 1 GOP, the playback speed is doubled when 4 I pictures are played per second. However, when the number of I pictures that can be read per unit time is larger, only a smaller number than the displayable number can be displayed.
Secondly, the conventional example has a problem in that useless reading occurs during high-speed reproduction.
As shown in FIG. 21, at the time of high-speed playback, first jump to the head of the DUT. The I picture data to be read is recorded in the main video data 205 of FIG. 20, but it is necessary to read the
In high-speed playback, jumping to the next DUT is completed after reading of the I picture, but the end position of the I picture needs to be detected separately.
FIG. 22 shows a block diagram of an apparatus for recording and reproducing video on a disc.
In FIG. 22, the
The decoded data is separated into a DUT header, sub-video data, audio data, and main video data by a multiplexing / separating
In FIG. 22, there is a processing time delay in the
Since the
Third, in the conventional example, when recording is performed in real time on a recording medium, there is a problem that a large-capacity memory is required to configure the DUT.
As shown in FIG. 20, in the conventional example, audio data is first recorded, and then main video data is recorded. That is, the main video data must be held in the memory until the DUT audio data is obtained.
For example, if the encoded data rate of the video is composed of 4 Mbps on average and the DUT is about 2 seconds,
4Mbit x 2 = 8Mbit
Of memory is required.
Furthermore, since the encoded data of the video has a variable length, the amount of code generated temporarily increases, so that it is necessary to have a memory capacity that is greater than the average code amount.
Fourthly, the conventional example has a problem that the encoded data cannot be processed in a unit smaller than that of the DUT.
In the case of a disk medium, it is possible to perform program reproduction and editing in which the reproduction order is indicated by a pointer without changing the recorded data. In the conventional example, when the DUT is composed of a plurality of GOPs, since the GOP boundary is not known, the minimum editing unit becomes the DUT, and there is a problem that editing cannot be performed for each GOP which is an MPEG access unit.
Fifth, since there is no information for synchronizing audio data and video data in the conventional example, there is a problem that synchronization between audio and video cannot be ensured.
In the conventional example, the DUT is composed of encoded data corresponding to the time constituting the GOP. Here, the period of the video frame is 30000/1001 Hz, and encoding is also performed for each period. On the other hand, the sampling frequency of audio data is 44.1 KHz. In the case of the MPEG1 system, 1152 data is often used as an audio frame, and in the ATRAC system and ATRAC2 system, 1024 data is often encoded as an audio frame.
The video frame is about 33 ms, and the audio frame is about 26 ms or about 23 ms, so that the time of the main video data and the audio data corresponding to the GOP cannot be completely matched. That is, the playback start time of the main video data and the audio data is completely the same for each DUT only in the first DUT, and the playback time of the main video and the playback time of the audio data are the same at the start point of the subsequent DUT. do not do.
Since the time of the main video data and the audio data constituting the DUT is different, when the program reproduction in which the reproduction start point and the end point are designated by the pointer is continuously performed, the time error between the main video data and the audio data is increased. Accumulation causes problems that cannot be synchronized.
The present invention has been made in view of such a problem, and is a moving image recording that realizes smooth high-speed reproduction by increasing the number of displayed images per unit time without reading useless data during high-speed reproduction. Reproduction method and apparatus, moving image recording / reproduction method and apparatus that do not require a large-capacity memory even in the case of real-time recording, and random access and editing in GOP units are possible. It is an object of the present invention to provide a moving image recording / reproducing method and apparatus capable of ensuring the synchronization of images.
本発明は、課題を解決するために以下のような手段を講じた。
即ち、本発明にかかる動画像記録再生装置は、少なくともオーディオ符号化データとビデオ符号化データを多重化した多重化データ及び管理データが記録された記録メディアから、多重化データを再生する動画像再生装置であって、前記管理データは少なくとも多重化データの記録メディア上での位置情報及び再生時刻を含み、該位置情報は、複数のフレームで構成されるフレーム群の多重化データについて、該フレーム群の開始位置及びフレーム内符号化されるフレームの終了位置を含み、前記再生時刻は、前記フレーム群の先頭のビデオフレームの再生時刻を含むことを特徴とするものである。
The present invention has taken the following measures in order to solve the problems.
That is, the moving image recording / reproducing apparatus according to the present invention reproduces the multiplexed data from a recording medium on which multiplexed data and management data in which audio encoded data and video encoded data are multiplexed are recorded. The management data includes at least position information and reproduction time of multiplexed data on a recording medium, and the position information includes the frame group for multiplexed data of a frame group composed of a plurality of frames. And the playback time includes the playback time of the first video frame of the frame group.
加えて、前記多重化データは前記記録メディアに一定長に分割して記録され、前記フレーム群の多重化データを該一定長の単位に過不足なく記録されていることを特徴とする動画像再生装置である。 In addition, the multiplexed data is recorded on the recording medium while being divided into a predetermined length, and the multiplexed data of the frame group is recorded in the unit of the fixed length without excess or deficiency. Device.
また、本発明にかかる記録媒体は、少なくともオーディオ符号化データとビデオ符号化データを多重化した多重化データ及び管理データが記録された記録媒体であって、前記管理データは少なくとも多重化データの記録メディア上での位置情報及び再生時刻を含み、該位置情報は、複数のフレームで構成されるフレーム群の多重化データについて、該フレーム群の開始位置及びフレーム内符号化されるフレームの終了位置を含み、前記再生時刻は、前記フレーム群の先頭のビデオフレームの再生時刻を含むことを特徴とするものである。 The recording medium according to the present invention is a recording medium on which multiplexed data and management data obtained by multiplexing at least audio encoded data and video encoded data are recorded, and the management data is a record of at least multiplexed data. Including position information on the medium and playback time, the position information indicates the start position of the frame group and the end position of the intra-coded frame for multiplexed data of the frame group composed of a plurality of frames. And the playback time includes the playback time of the first video frame of the frame group.
本発明によれば、多重化データとは別に記録される管理ファイルにGOP毎の位置情報とIピクチャやPピクチャの終了位置を記録し、高速再生時には記録メディアから必要なデータだけを読み出すことができ、高速再生時の表示枚数が多くなる。
また、Iピクチャ、Pピクチャ両方の終了位置を管理しているため、2〜3倍の高速再生においても多くの画像を表示することができ、なめらかに画面を変化させることができる。
また、管理ファイルだけで高速再生に読み出すべき多重化データの記録位置がわかるので、ビデオコーデックや多重化・分離回路からの制御信号は必要なく、高速再生の読み出し制御が単純になる効果もある。
さらに、位置情報は多重化データとは別の管理ファイルに記録し、多重化データにはヘッダなどの付加的な情報を付加しないため、記録メディアの記録速度を全て多重化データに割り当てることができ、画質が向上する効果がある。
さらに、本発明では管理ファイルにGOP毎の位置情報とともにオーディオとビデオの再生時刻を記録しているため、GOP単位でランダムアクセスが可能で、かつオーディオとビデオで再生時間にずれが生じた場合にも補正することができ、常にオーディオとビデオで同期を確保できる。
また、本発明によれば、複数のGOPでパケットを構成し、多重化データ、管理データともにパケット毎に記録するため、パケット単位でのデータの削除や編集が容易に行える。
また、本発明によれば、GOPの多重化データをビデオ符号化データ、オーディオ符号化データの順に構成するので、ビデオコーデックから出力されるビデオ符号化データは順次記録することができ、符号化データをバッファリングする大容量のメモリを備える必要がない効果がある。
また、GOPの多重化データを構成するビデオフレームとオーディオフレームのずれが一定の閾値以下になっているので、編集等でGOP単位やパケット単位で多重化データを入れ換えてもビデオフレームとオーディオフレームのずれが一定の閾値以下にすることができる。
また、本発明によれば、GOPの境界毎にビデオフレームの再生時刻とオーディオフレームの再生時刻のずれ量が大きい場合に補正が行われるため、ずれ量が蓄積することがない。
また、ずれ量の補正はビデオフレームのフリーズまたはスキップで容易に実現できる。
また、ずれ量の補正はビデオフレームで行い、オーディオフレームは連続して再生するので不快な音を発生させることがない効果がある。
また、本発明によれば、管理ファイルの位置を示すポインタだけでプログラム再生が表現できる。管理ファイルはコントローラに保持されており、多重化データを読み出すことなく、容易にプログラム再生を指定できる効果がある。
また、本発明によれば、ビデオフレーム毎に多重化データを構成するので、ビデオ符号化データだけでなく、オーディオ符号化データも順次記録することができるので、バッファリング用のメモリがより少ない容量とすることができる。
また、本発明によれば、ビデオ符号化データとオーディオ符号化データの境界が管理データに記録されているので、境界を検出する回路を削減できる。
また、高速再生時には予めビデオ符号化データとオーディオ符号化データを読み出すことができ、不要なデータを読み出すことなく音声を再生しながらの高速再生が実現できる。
また、本発明によれば、GOP毎の位置情報や時刻情報を多重化データに多重化して記録するため、管理ファイルの大きさを大幅に小さくすることができる。
According to the present invention, the position information for each GOP and the end position of the I picture or P picture are recorded in a management file recorded separately from the multiplexed data, and only necessary data is read from the recording medium during high-speed playback. This increases the number of images displayed during high-speed playback.
In addition, since the end positions of both the I picture and the P picture are managed, many images can be displayed even at a high speed reproduction of 2 to 3 times, and the screen can be changed smoothly.
Further, since the recording position of multiplexed data to be read for high-speed reproduction can be known only by the management file, there is no need for a control signal from the video codec or the multiplexing / demultiplexing circuit, and there is an effect that the high-speed reproduction read control is simplified.
Furthermore, since the position information is recorded in a management file separate from the multiplexed data and no additional information such as a header is added to the multiplexed data, all recording media recording speeds can be assigned to the multiplexed data. The image quality is improved.
Furthermore, in the present invention, since the playback time of audio and video is recorded in the management file together with the position information for each GOP, random access is possible in GOP units, and there is a difference in playback time between audio and video. Can also be corrected, and synchronization can always be ensured with audio and video.
Also, according to the present invention, a packet is composed of a plurality of GOPs, and both multiplexed data and management data are recorded for each packet, so that data can be easily deleted or edited in units of packets.
Also, according to the present invention, since the multiplexed data of GOP is configured in the order of video encoded data and audio encoded data, the video encoded data output from the video codec can be recorded sequentially, and the encoded data There is an effect that it is not necessary to provide a large-capacity memory for buffering.
In addition, since the deviation between the video frame and the audio frame constituting the multiplexed data of the GOP is below a certain threshold value, even if the multiplexed data is exchanged in GOP units or packet units in editing or the like, The deviation can be made below a certain threshold.
Further, according to the present invention, since the correction is performed when the deviation amount between the reproduction time of the video frame and the reproduction time of the audio frame is large for each GOP boundary, the deviation amount does not accumulate.
Further, the correction of the shift amount can be easily realized by freezing or skipping the video frame.
Further, the correction of the shift amount is performed on the video frame, and the audio frame is reproduced continuously, so that there is an effect that an unpleasant sound is not generated.
Further, according to the present invention, program reproduction can be expressed only by a pointer indicating the position of the management file. The management file is held in the controller, and there is an effect that program reproduction can be easily specified without reading multiplexed data.
In addition, according to the present invention, since multiplexed data is configured for each video frame, not only video encoded data but also audio encoded data can be recorded sequentially, so that a buffering memory has a smaller capacity. It can be.
Further, according to the present invention, since the boundary between the video encoded data and the audio encoded data is recorded in the management data, the circuit for detecting the boundary can be reduced.
In addition, video encoded data and audio encoded data can be read in advance during high-speed reproduction, and high-speed reproduction while reproducing sound can be realized without reading unnecessary data.
Further, according to the present invention, since the position information and time information for each GOP are multiplexed and recorded in the multiplexed data, the size of the management file can be greatly reduced.
以下図面を参照しながら、本発明の実施の形態を詳細に説明する。
〔第1の実施の形態〕
図1に本発明の動画像記録再生装置の第1の実施の形態の構成をブロック図で示す。
図1の実施の形態はオーディオコーデック15、ビデオコーデック16、多重化・分離回路17、メモリ18、コントローラ19、ECC部20、ディスク21で構成され、本発明では、多重化・分離回路17とコントローラ19の動作に特徴がある。
なお、ディスク21は磁気ディスク、光磁気ディスク、相変化ディスクなどの書き換え可能な記録媒体全てを指すが、ディスクに限らず半導体メモリと置き換えても構わない。
図1の実施の形態の記録時の動作を説明する。
記録時にはオーディオ入力端子11からオーディオデータが入力され、オーディオコーデック15で符号化される。ビデオ入力端子13からはビデオデータが入力され、ビデオコーデック16で符号化される。オーディオコーデック15からはオーディオ符号化データが出力され、ビデオコーデック16からはビデオ符号化データが出力され、それぞれ多重化・分離回路17に入力される。
多重化・分離回路17は符号化データを一旦メモリ18に出力し、後述する順序でメモリ18から符号化データを読み出し、多重化データとしてECC部20に出力する。多重化データはECC部20で誤り訂正符号化され、ディスク21に記録される。コントローラ19は記録メディアの制御を行う。
図2を用いて多重化・分離回路17から出力される多重化データについて説明する。
図2(a)は、GOPを構成するビデオフレームとGOPに対応するオーディオフレームの時間関係を示す図である。
図2(a)は、15ビデオフレームで1GOPが構成され、オーディオフレームの期間がビデオフレームの期間よりも短い場合の例であり、15ビデオフレームの期間をGOP期間22としている。ビデオフレームとオーディオフレームの期間が異なる場合、オーディオフレームを複数集めてもGOP期間22とは一致しない。そのためにGOP期間22の先頭からのずれと後端からのずれがそれぞれ1オーディオフレーム期間未満となる期間をオーディオ期間23とし、GOP期間22のビデオフレームの符号化データとオーディオ期間23のオーディオフレームの符号化データをまとめて多重化を行う。
図2(b)に多重化データにおけるビデオ符号化データとオーディオ符号化データの並びを示す。
多重化データは、GOP毎に図2(a)で示したGOP期間22のビデオ符号化データ、オーディオ期間23のオーディオ符号化データの順に出力する。そして、複数のGOPをまとめたパケットという単位でディスクに記録する。図2(b)には4つのGOPをパケットとする例を示している。
図3に、多重化・分離部回路17において図2(b)で示した多重化データを出力する動作をフローチャートで示す。
多重化・分離回路17では、オーディオコーデック15から入力されるオーディオ符号化データとビデオコーデック16から入力されるビデオ符号化データを一旦メモリ18に記録する。
図3のフローチャートは、メモリ18に記録された符号化データを読み出す動作を示す。
図3において、ステップS32〜S35では図2(a)に示したGOP期間22のビデオ符号化データを出力し、ステップS36〜S39ではオーディオ期間23のオーディオ符号化データを読み出す。
まずステップS31でビデオフレームの時刻を示すVPTS、オーディオフレームの時刻を示すAPTSを0にセットする。そしてステップS32でメモリ18からビデオ符号化データを読み出し、ECC部20に出力する。
次にステップS33では、ビデオフレームの終了かどうかを判定する。ビデオフレームの終了かどうかはビデオフレームの符号量がわかっていれば判定ができる。このために、多重化・分離回路17にビデオフレームのヘッダを検出する回路を付加してメモリ18へのビデオ符号化データ書き込み時にビデオフレームの区切りを検出し、予めビデオフレーム毎の符号量を算出しておく、あるいはビデオコーデック16にビデオフレームの符号量を算出する回路を付加しておき、ビデオコーデックからビデオフレーム毎の符号量の通知を受けるようにしておく。
ステップS33でビデオフレームの終了と判定された場合、ステップS34でVPTSをビデオフレーム期間分増加させる。ステップS35ではGOPの終了かどうかを判定し、GOPの終了でない場合はステップS32〜S34を繰り返す。GOPの終了かどうかは、ビデオフレームの終了となる回数をカウントしておき、GOPを構成するビデオフレーム数と一致するかどうかを比較すればよい。ステップS35までの過程でGOP期間のビデオ符号化データを全て出力することになる。また、ステップS31でVPTSを0とし、以降1ビデオフレームのビデオ符号化データを出力する毎にステップS34でVPTSをインクリメントするため、VPTSは常にメモリ18から読み出すビデオ符号化データの時刻を指すことになる。
ステップS35でGOPの終了と判定された場合は、ステップS36でメモリ18からオーディオ符号化データを読み出し、ECC部20に出力する。次にステップS37ではオーディオフレームの終了かどうかを判定する。
MPEG1方式、ATRAC方式などの主なオーディオ符号化方式では、オーディオフレームの符号量は一定になるので、ステップS36での読み出しデータ量を用いてオーディオフレームの終了かどうかを判定できる。ステップS37でオーディオフレームの終了と判定された場合、ステップS38でAPTSをオーディオフレーム期間分増加させる。ステップS39ではAPTSとVPTSを比較し、APTSが小さい場合にはステップS36〜S38を繰り返し、次のオーディオ符号化データを読み出す。
このとき、GOP期間のビデオ符号化データは全て出力され、VPTSは次のGOP期間の先頭を示しているので、ステップS39の判定がNoとなるのはオーディオ期間のオーディオ符号化データを全て読み出し、APTSがGOP期間外を指した時になる。
図3は、多重化・分離回路17内でVPTSやAPTSを計算して求める例であるが、VPTSをビデオコーデック16から入力し、APTSをオーディオコーデック15から入力する構成としてもよい。
ステップS32〜S39で1GOP期間に対応するビデオ符号化データ、オーディオ符号化データの順でメモリ18から読み出され、図2(b)で示した多重化データが出力されることになる。そしてステップS40で符号化データの終了かどうかを判定し、符号化データが終了するまでステップS32〜S39を繰り返す。
従来例では、DUTのビデオ符号化データ全てを一旦メモリに格納しておく必要があり、大容量のメモリが必要であったが、本実施の形態ではビデオ符号化データは順次メモリから読み出すため、大容量のメモリは必要ない。
GOPに対応するオーディオ符号化データはメモリに格納しておく必要があるが、オーディオ符号化データはビデオ符号化データと比較してデータ量が非常に小さいので、従来例と比較すると格段に小さい容量のメモリを備えるだけでよい。
なお、記録媒体への多重化データの記録は、2Kバイトや32Kバイトといった一定の記録単位毎に行われる。そこで、GOP期間のビデオ符号化データ毎、GOP期間の多重化データ毎、あるいはパケット毎に記録単位となるようにスタッフィングとよばれるデータを付加してもよい。スタッフィングは全てが0又は1のデータで、復号処理の際には無視されるデータである。
GOP期間のビデオ符号化データ毎に記録単位となるようにするには、ステップS35でGOPの終了と判定された後に記録単位まで0又は1を付加し、GOP期間の多重化データ毎に記録単位となるようにするには、ステップS39でNoと判定された後に記録単位まで0又は1を付加し、パケット毎に記録単位となるようにするには、ステップS39でNoと判定された後にパケットの終了かどうかの判定を行い、パケットの終了の場合には記録単位まで0又は1を付加すればよい。
本実施の形態では、パケットは4つのGOPで構成されているので、GOPの数を積算し、GOPの数が4の倍数の場合にパケットの終了と判定できる。
次にコントローラ19の動作について説明する。コントローラ19はディスク21に記録される多重化データをファイルとして管理し、ディスクの記録制御、再生制御を行う。
ディスク21には、多重化ファイルを記録する領域とは別の領域にディスク全体の情報として管理ファイルが記録されている。管理ファイルは、動画像記録再生装置の起動時やディスク媒体が装置に挿入された時にディスク21から読み出され、コントローラ19に保持される。コントローラ19は、記録時にはディスクの空き領域に多重化データを記録するようにディスクを制御するとともに、随時管理ファイルの内容を更新する。
図4に管理ファイルの一例を示す。管理ファイルはディスクのタイトルなどの「ディスク情報41」、ファイル(即ち多重化データ)の記録位置情報やファイルが不連続領域に分割して記録されている場合のつながりを示す情報などの「ファイル情報42」、ディスクの空き情報である「空き領域情報43」、パケット毎の情報を記録する「パケット情報44」で構成される。
図2(b)で示したように、本実施の形態では4つのGOPをまとめたものをパケットと呼び、パケット単位で管理を行う。「パケット情報」は1パケットに1つあり、記録時にはディスク21にパケットを記録する毎に記録したパケットの「パケット情報」が追記される。
「パケット情報」は「パケット開始位置」、「次のアドレス」とGOP毎に「GOP開始位置」、「VPTS」、「APTS」、「I終了位置」、「P終了位置」が記録される。
図5に、記録時に図4で示した管理ファイルの「パケット情報」を更新する動作をフローチャートで示す。
この動作は図3で示した、多重化・分離回路17でパケットを構成する動作に、「パケットの開始位置」、「GOPの開始位置」、「VPTS」、「APTS」、「I終了位置」、「P終了位置」を出力する動作を付加したもので、図3と同じ動作の部分は同じ記号を付与して説明は省略する。
コントローラ19では多重化・分離回路17から入力される位置情報を取り込み、パケット毎に「パケット情報」を追記する。このため、コントローラ19は管理ファイル上の「パケット情報」を書き込む空き領域も管理する。「パケット情報」の「次のアドレス」は現パケットに続くパケットの「パケット情報」のアドレスを示すもので、コントローラ19で付与される。
本実施の形態では、「パケット開始位置」や「I終了位置」、「P終了位置」(以降ではまとめて位置情報と呼ぶ)は多重化データの先頭からの相対位置であり、例えばアクセスの単位が32Kバイトの場合は最初の32Kバイトが0、次の32Kバイトが1となり、以降32Kバイト毎にインクリメントされる値である。相対位置からディスクの物理アドレスへの変換は図示しないファイルシステムが行う。多重化・分離回路17ではメモリ18に記録するデータ量やECC部20に出力するデータ量をカウントしておき、位置情報の算出に用いる。
図5において、まずステップS51で「パケット開始位置」をコントローラ19に出力する。次にステップS52で「GOP開始位置」と「VPTS」をコントローラ19に出力する。次にS32〜S33で1ビデオフレームの符号化データの読み出しが終了した後に、Iピクチャの終了かどうかを判定する(ステップS53)。
Iピクチャの終了の場合は「I終了位置」をコントローラ19に出力し(ステップS54)、Iピクチャの終了でない場合はGOP内で1枚目のPピクチャの終了かどうかを判定する(ステップS55)。GOP内で1枚目のPピクチャの終了の場合は「P終了位置」をコントローラ19に出力する(ステップS56)。ステップS32〜S35のループでGOPのビデオ符号化データの出力が終了すると、ステップS57でAPTSを出力し、S36〜S39でGOPのオーディオ符号化データを読み出した後に、パケットの終了かどうかを判定する(ステップS58)。
パケットの終了でない場合はS52〜S39を繰り返し実行し、パケットが終了するまでGOP毎の処理を行う。パケットの終了の場合はステップS40で符号化データの終了かどうかを判定し、符号化データの終了でない場合はステップS51〜S58を繰り返し実行し、パケット毎の処理を繰り返す。
ステップS51はパケット毎に1回実行され、S52、S54、S56、S57はGOP毎に1回実行され、パケット情報を構成するのに必要な情報が多重化・分離回路17からコントローラ19に出力される。
本実施の形態では、管理ファイルにパケット毎の位置情報及びGOP毎の位置情報を記録することに特徴があるのであり、管理ファイルの内容は図4で示した例に限定するものではない。例えば管理ファイルに多重化データ毎の管理情報を付加してもよいし、パケット情報にパケットの符号量やGOP毎の符号量を付加しもよい。また、図4の例ではディスク全体の多重化データに対するパケット情報がまとまって管理されているが、多重化データ毎に分離して管理しても構わない。
更に、図4に示した管理ファイルは一例であり、例えば「P終了位置」は2つ以上であっても構わない。
次に、本実施の形態における通常再生の動作について説明する。
通常再生時には、コントローラ19がディスク21に再生するファイル(即ち多重化データ)を読み出すように制御する。再生するファイルのディスク上での位置は図4の「ファイル情報42」に記録されている。
ディスクから読み出されたデータはECC部20で誤り訂正復号され、多重化データとなる。多重化データは多重化・分離回路17でオーディオ符号化データとビデオ符号化データに分離され、一旦メモリ18に記録される。メモリ18からはオーディオ符号化データがオーディオコーデック15に出力され、デコードされる。ビデオ符号化データはビデオコーデック16に出力され、デコードされる。
ディスク媒体では、記録されている多重化は変更せず、ランダムアクセスで連続していないデータをあたかも連続したデータであるかのように再生することが可能である。この場合、オーディオとビデオの同期を確保するための処理が必要になる。
図6に2つのGOPを連続したデータであるかのように再生する場合の例を示す。
図2(a)で示したように一般的にはGOPを構成するビデオフレームの期間であるGOP期間とGOPに対応するオーディオフレームの期間であるオーディオ期間は一致しない。図6において、(a)で示したGOP期間61とオーディオ期間62で構成される多重化データと、(b)で示したGOP期間63とオーディオ期間64で構成される多重化データを連続して再生した場合を(c)に示す。図6(a)、(b)のようにGOP期間よりもオーディオ期間の方が長い場合、GOPを連続して再生すると、(c)にようにオーディオフレームとビデオフレームの再生時刻の誤差が蓄積する問題がある。
そこで、本実施の形態では管理ファイルのパケット情報の中の「VPTS」、「APTS」を用いて再生時刻補正を行う。
例えば、図6(c)のようにビデオフレームがオーディオフレームに先行する場合は、ビデオのデコードを1フレーム中断させるフリーズ期間65を設定して同期を確保する。この様子を図6(d)に示す。また、逆にオーディオフレームがビデオフレームに先行する場合は、ビデオの1フレームをスキップするスキップ期間を設定する。
図7を用いてビデオのフリーズ期間とスキップ期間を設定する方法について説明する。図7は連続して再生するビデオ符号化データとオーディオ符号化データのGOPの境界での再生時刻を示すものである。図7(a)はデコードされるビデオフレーム、(b)、(c)はデコードされるオーディオフレームを示し、ビデオのGOP期間71は記録時、再生時とも時刻1から始まり、記録時のオーディオ期間72は時刻2から始まるが、再生時にはオーディオ期間3として時刻3から始まることを示している。
図6(b)、(c)で示したように、再生時のビデオフレームとオーディオフレームの関係は、記録時のビデオフレームとオーディオフレームの関係と一致しないことがある。図7において、記録時には時刻1が「VPTS」、時刻2が「APTS」として管理ファイルに記録されるが、再生時にオーディオ期間は時刻2からずれ量74だけ遅れて始まる。本実施の形態では、この「ずれ量」の大きさによってビデオのフリーズ期間とスキップ期間を設定する。
図8を用いて図7のずれ量74の求め方を説明する。
図8は多重化データの先頭から再生を開始し、途中のGOP81を再生した後、GOP83にジャンプしGOP83から再生を行う例を示している。
図8において、GOP82の「VPTS」、「APTS」をそれぞれVPTS82、APTS82とし、GOP83の「VPTS」、「APTS」をそれぞれVPTS83、APTS83とする。ここで、(VPTS82 − APTS82)と (VPTS83 − APTS83)が一致しない場合にGOP83の再生でオーディオフレームの再生時刻にずれが生じる。図7(c)で示した、再生が遅れるずれ量を正の値とすると、図8の場合のずれ量は、(APTS82 − VPTS82) − (APTS83 − VPTS83)となる。
図9に、正のずれ量がビデオフレーム期間以上となった場合にビデオのデコードを1フレーム期間停止してビデオ出力をフリーズ(静止)させ、負のずれ量がオーディオフレーム期間以上となった場合にビデオデコードを1フレーム分スキップさせる動作をフローチャートで示す。
図9において、まずステップS91でずれ量を0にセットする。そして、ステップS92でずれ量がビデオフレーム期間以上の場合は、オーディオデコードが遅れているので、ステップS93でビデオデコードを1フレーム分停止し、ビデオ出力をフリーズさせ、ステップS94でずれ量からビデオフレーム期間を減算する。ステップS92でずれ量がビデオフレーム期間未満の場合は、ステップS95でずれ量が負のオーディオフレーム期間より小さいかどうかを判定する。
ステップS95でYesとなった場合は、ビデオデコードが遅れているので、ステップS96でビデオのデコードをスキップしてビデオを1フレーム分先に進める。ステップS96では、GOPの最初のIピクチャは通常通り再生し、次のBピクチャをスキップする。これは、IピクチャをスキップするとGOP全体がデコードできなくなるためである。
また、Bピクチャは符号量が少なくスキップが容易に行えるという効果もある。GOPにBピクチャがない場合は、GOPの最後のPピクチャをスキップする。そしてステップS97でずれ量にビデオフレーム期間を加算する。次にステップS98、S99でGOPが終了するまでオーディオデータとビデオデータのデコードを行う。GOPのデコードが終了するとステップS100で次のGOPの先頭でのずれ量を計算する。
ステップS100で[次に記録されているGOP]とは記録時に連続していたGOPであり、[次に再生するGOP]とはランダムアクセスで次に再生するGOPを示す。図8の例では、[次に記録されているGOP]がGOP82であり、[次に再生するGOP]はGOP83である。[次に記録されているGOP]と[次に再生するGOP]は現在のGOPと次に再生するGOPが連続して記録されていない場合にのみ異なり、記録された順に再生する場合には同じGOPを指し、ずれ量も変化しない。
ステップS101で符号化データが終了するまでステップS92〜S100を繰り返し実行し、GOPの先頭でずれ量の絶対値が大きい場合にはずれ量を補正するようにビデオフリーズやビデオスキップが行われ、常にオーディオとビデオの同期が保たれる。
次に、本実施の形態における高速再生の動作について説明する。
高速再生時の動作は、図21で示した通り、ランダムアクセスとIピクチャの読み出しを繰り返すことになる。
本実施の形態では、管理ファイルの「パケット情報」のうちの「GOP開始位置」から「I終了位置」までがIピクチャのビデオ符号化データとなる。従来の実施の形態では「I終了位置」を管理していなかったため、別途Iピクチャの終了を検出する必要があり、ディスクからのデータ読み出しからIピクチャの終了を検出するまでに時間差があるために不要なデータまで読み出していたが、本実施の形態では予め読み出すべきデータがわかっているので、無駄なデータを読み出すことがなく、高速再生時の表示枚数がより多くなる。
高速再生時に全てのGOPのIピクチャを読み出すのか、間引いて読み出すのかは、高速再生時の表示枚数との速度によって判定すればよい。
全てのIピクチャよりも、より多くの画像を表示できる場合にはIピクチャに加えてPピクチャも表示することで、よりなめらかな高速再生が実現できる。高速再生時にIピクチャとPピクチャを表示する場合に読み出すデータを図10を用いて説明する。
図10は図19で示したGOP構成で符号化した場合の例で、GOPの符号化データはI、B、B、P、...という順序で記録される。一般的にビデオフレーム当たりの符号量は、Iピクチャが最も多く、次にPピクチャが多く、Bピクチャが最も少ない。そして、Bピクチャの符号量はIピクチャやPピクチャに比べるとかなり少ないことが多い。
そのため、同一GOP内のIピクチャとPピクチャを読み出す場合に、Iピクチャ、Pピクチャそれぞれにランダムアクセスするよりは、Iピクチャの開始位置からPピクチャの終了位置まで読み出し、不要なBピクチャを捨てる方が効率がよい。
従って、本実施の形態では、IピクチャとPピクチャを読み出す場合は、「パケット情報」の「GOP開始位置」から「P終了位置」までを読み出し、ビデオコーデック16でIピクチャ101を再生し、不要になるBピクチャ102、103の符号を捨て、次にPピクチャ104を再生する。
高速再生時には、コントローラ19がIピクチャ、あるいはIピクチャから最初のPピクチャまでの符号化データを再生するように制御し、その他は通常動作と同じ動作を行う。
次に、ディスク21に記録された多重化データの再生開始点と終了点をポインタで指定し、記録されている多重化データを変更せずに再生編集を行うプログラム再生について説明する。
図11にプログラム再生の例を示す。図11は多重化データのうち、GOP111〜112、GOP114〜115だけを選択して再生する例で、再生開始点と終了点を示す管理ファイルのアドレスをユーザプログラムとして多重化データと別に記録する。図11において、ユーザプログラムは2組の開始アドレスと終了アドレスを持ち、開始アドレス1はGOP111の開始位置を示し、終了アドレス1はGOP112の終了位置を示す。また開始アドレス2はGOP113の開始位置を示し、終了アドレス2はGOP114の終了位置を示す。ユーザプログラムは管理ファイルのアドレスを指すため、開始アドレス1はGOP111を含むパケットのパケット情報の「GOP先頭位置」が記録されるアドレスを示し、終了アドレス1はGOP113を含むパケットのパケット情報の「GOP先頭位置」が記録されるアドレスを示す。本実施の形態では、GOPの終了位置は管理していないので、次のGOPの「GOP開始位置」の1前の位置をGOPの終了位置とする。
プログラム再生時にも、コントローラ19が指定された多重化データをディスク21から読み出すように制御し、その他は通常動作と同じ動作を行う。
本実施の形態において、多重化データを削除する場合は、多重化データそのものを削除するとともに、削除する多重化データに対応するパケット情報も削除する。削除して空き領域となったパケット情報部分は別途空き領域を管理するテーブルを用いて管理するか、多重化データを削除する毎に空き領域部分を詰めるようにパケット情報部分の書き換えを行う。
なお、本実施の形態では、多重化データを構成するオーディオ符号化データとビデオビデオ符号化データの境界を示す情報は備えていない。オーディオ符号化データとビデオ符号化データの境界は、例えばビデオの復号を行い、GOPの復号が終了した時点をビデオ符号化データとオーディオ符号化データの境界とする、あるいは各符号化データの先頭に符号化データの種類を示すヘッダを付加するなどで認識することができる。
〔第1の実施の形態の変形例〕第1の実施の形態では、図2(b)に示したようにGOP毎のビデオ符号化データとオーディオ符号化データをまとめて記録しているが、図12に示すようにGOPのビデオ符号化データとオーディオ符号化データを分割して記録してもよい。
図2(b)で示した多重化データを構成するには、GOP期間のオーディオデータを全てメモリ18に保持しておく必要があったが、図12で示した多重化データを構成する場合は、オーディオ符号化データを順次出力することができ、メモリ18の容量をより少なくすることができる。
図13に、多重化・分離部回路17において図12で示した多重化データを出力する動作をフローチャートで示す。図12のフローチャートと図2(b)の多重化データを構成する動作を示す図3のフローチャートでは、図3ではステップS32〜S35でGOP毎のビデオ符号化データの読み出しを行い、ステップS36〜S39でGOPに対応するオーディオ符号化データの読み出しを行っているのに対し、図13ではステップS32〜S34で1ビデオフレームのビデオ符号化データの読み出しを行い、ステップS36〜S39で1ビデオフレームに対応するオーディオ符号化データの読み出しを実行し、ステップS32〜S34とステップS36〜S39をGOPが終了するまで繰り返し実行する点が異なるが、各ステップで実行する処理は同一である。
なお、本実施の形態では、ビデオフレームの符号化データは、再生するビデオフレーム順には入力されない。例えば図19で示したGOPの場合、GOPはBピクチャから始まるが、符号化データはBピクチャの後のIピクチャから入力される。従って、ビデオフレームに対応するオーディオフレームとは符号化データ順での対応のことである。
〔第2の実施の形態〕
第1の実施の形態では、多重化データを構成するオーディオ符号化データとビデオ符号化データの境界は、多重化データを入力しなければわからなかった。本実施の形態では、境界を示す情報を管理ファイルに含め、予めオーディオ符号化データとビデオ符号化データの境界を認識できるようにしたものである。
本実施の形態では、例えば高速再生時にもビデオフレームとオーディオフレームを選択して読み出すことができ、音声を再生しながらの高速再生が可能になる。
本実施の形態における管理ファイルの構成を図14に示す。
図14の管理ファイルと図4に示した第1の実施の形態の管理ファイルとでは、図14の管理ファイルにはパケット情報にGOPのビデオ符号化データ量を示す「ビデオ符号量」が含まれている点が異なる。
本実施の形態では図2(b)で示したように、GOPのビデオ符号化データがGOPの先頭から記録されているので、「GOP開始位置」と「GOP符号量」からオーディオ符号化データの開始位置がわかる。
図15に、記録時に図14で示した管理ファイルの「パケット情報」を更新する動作をフローチャートで示す。この動作は図5で示した、管理ファイルの「パケット情報」を更新する動作のフローチャートにおいて、図5ではステップS35で「APTS」を出力していた動作を、「ビデオ符号量」と「APTS」を出力するステップ151に変更したもので、ステップ151以外は図5のフローチャートと同じ動作を行う。「ビデオ符号量」はステップS32でビデオ符号化データを読み出す際に、符号量をカウントすることで算出する。
〔第3の実施の形態〕
第1、第2の実施の形態では、ディスク全体の管理ファイルにGOP毎の「GOP開始位置」、「VPTS」、「APTS」「I終了位置」、「P終了位置」を記録していたが、記録時間が長くなると管理ファイルのデータ量が多くなるという問題ある。第3の実施の形態では、GOPの位置情報の一部を多重化データに記録し、管理ファイルのデータ量を削減する。
図16に本発明の第3の実施の形態における多重化データの構成を示す。
図16は、図2(b)で示した多重化データの構成に加え、GOPの先頭にGOPの管理データを付加したものである。GOPの管理データには、第1の実施の形態では管理ファイルに記録していた「VPTS」、「APTS」、「I終了位置」、「P終了位置」を記録する。この場合の管理ファイルの構成を図17に示す。
図18に、記録時に図17で示した管理ファイルの「パケット情報」を更新する動作をフローチャートで示す。この動作は図5で示した、管理ファイルの「パケット情報」を更新する動作のフローチャートにおいて、「GOP開始位置」、「VPTS」、「APTS」、「I終了位置」、「P終了位置」を出力する動作部分をステップS181〜S186に変更したもので、図5と同じ動作の部分は同じ番号を付して説明を省略する。
図18において、パケットの先頭で「パケット開始位置」をコントローラ19に出力する(ステップS51)。次にステップS181で「GOP開始位置」、「VPTS」、「APTS」をECC部20に出力する。次にビデオコーデック16からIピクチャの符号化データの入力が終了すると、「I終了位置」をECC部20に出力し(ステップS183)、GOPの最初のPピクチャの符号化データの入力が終了すると、「P終了位置」をECC部20に出力する(ステップS185)。
ステップS181〜S185はGOPの先頭で実行され、ビデオエンコーダ16からPピクチャの符号化データの入力が終了した時点でGOP毎の位置情報や時刻情報が出力され、その後にステップS32〜S39でGOPのビデオ符号化データとオーディオ符号化データが出力される。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[First Embodiment]
FIG. 1 is a block diagram showing the configuration of the first embodiment of the moving image recording / playback apparatus of the present invention.
1 includes an
The
The operation during recording in the embodiment of FIG. 1 will be described.
At the time of recording, audio data is input from the
The multiplexing / demultiplexing circuit 17 once outputs the encoded data to the memory 18, reads the encoded data from the memory 18 in the order described later, and outputs the encoded data to the ECC unit 20 as multiplexed data. The multiplexed data is error correction encoded by the ECC unit 20 and recorded on the
The multiplexed data output from the multiplexing / separation circuit 17 will be described with reference to FIG.
FIG. 2A is a diagram illustrating a temporal relationship between a video frame constituting a GOP and an audio frame corresponding to the GOP.
FIG. 2A shows an example in which 1 GOP is composed of 15 video frames, and the audio frame period is shorter than the video frame period. The 15 video frame period is the GOP period 22. When the video frame and audio frame periods are different, the GOP period 22 does not match even if a plurality of audio frames are collected. Therefore, a period in which the deviation from the beginning and the rear end of the GOP period 22 is less than one audio frame period is an audio period 23, and the encoded data of the video frame in the GOP period 22 and the audio frame in the audio period 23 are The encoded data is multiplexed and multiplexed.
FIG. 2B shows an arrangement of video encoded data and audio encoded data in the multiplexed data.
The multiplexed data is output for each GOP in the order of the video encoded data in the GOP period 22 and the audio encoded data in the audio period 23 shown in FIG. A plurality of GOPs are recorded on the disk in units of packets. FIG. 2B shows an example in which four GOPs are used as packets.
FIG. 3 is a flowchart showing an operation of outputting the multiplexed data shown in FIG. 2B in the multiplexing / separating unit circuit 17.
The multiplexing / demultiplexing circuit 17 once records the audio encoded data input from the
The flowchart in FIG. 3 shows an operation of reading the encoded data recorded in the memory 18.
In FIG. 3, the encoded video data of the GOP period 22 shown in FIG. 2A is output in steps S32 to S35, and the encoded audio data of the audio period 23 is read in steps S36 to S39.
First, in step S31, VPTS indicating the time of the video frame and APTS indicating the time of the audio frame are set to zero. In
Next, in step S33, it is determined whether or not the video frame ends. Whether the video frame ends can be determined if the code amount of the video frame is known. For this purpose, a circuit for detecting the header of the video frame is added to the multiplexing / demultiplexing circuit 17 to detect a break of the video frame when writing the video encoded data to the memory 18, and the code amount for each video frame is calculated in advance. Alternatively, a circuit for calculating the code amount of the video frame is added to the video codec 16 so that the video codec is notified of the code amount for each video frame.
If it is determined in step S33 that the video frame has ended, VPTS is increased by the video frame period in step S34. In step S35, it is determined whether or not the GOP is finished. If the GOP is not finished, steps S32 to S34 are repeated. Whether or not the GOP is ended may be determined by counting the number of times the video frame is ended and comparing whether or not it matches the number of video frames constituting the GOP. In the process up to step S35, all of the video encoded data in the GOP period is output. Since VPTS is set to 0 in step S31 and VPTS is incremented in step S34 every time video encoded data of one video frame is output, VPTS always indicates the time of video encoded data read from the memory 18. Become.
If it is determined in step S35 that the GOP has ended, the encoded audio data is read from the memory 18 and output to the ECC unit 20 in step S36. Next, in step S37, it is determined whether or not the audio frame ends.
In main audio encoding systems such as the MPEG1 system and the ATRAC system, the code amount of the audio frame is constant. Therefore, it is possible to determine whether or not the audio frame is ended by using the read data amount in step S36. If it is determined in step S37 that the audio frame has ended, APTS is increased by the audio frame period in step S38. In step S39, APTS and VPTS are compared. If APTS is small, steps S36 to S38 are repeated to read the next audio encoded data.
At this time, all of the video encoded data in the GOP period is output, and VPTS indicates the beginning of the next GOP period. Therefore, the determination in step S39 is No. All the audio encoded data in the audio period is read. When APTS points outside the GOP period.
FIG. 3 shows an example in which VPTS and APTS are calculated and obtained in the multiplexing / demultiplexing circuit 17, but VPTS may be input from the video codec 16 and APTS may be input from the
In steps S32 to S39, video encoded data corresponding to one GOP period and audio encoded data are read from the memory 18 in this order, and the multiplexed data shown in FIG. 2B is output. In step S40, it is determined whether or not the encoded data is finished, and steps S32 to S39 are repeated until the coded data is finished.
In the conventional example, it is necessary to temporarily store all the video encoded data of the DUT in the memory, and a large-capacity memory is necessary. However, in this embodiment, since the video encoded data is sequentially read from the memory, Large memory is not required.
The audio encoded data corresponding to the GOP needs to be stored in the memory. However, since the audio encoded data has a very small data amount compared to the video encoded data, the capacity is much smaller than that of the conventional example. It is only necessary to provide the memory.
Note that the recording of the multiplexed data on the recording medium is performed for each fixed recording unit such as 2 Kbytes or 32 Kbytes. Therefore, data called stuffing may be added so as to be a recording unit for each video encoded data in the GOP period, for each multiplexed data in the GOP period, or for each packet. Stuffing is data that is all 0 or 1, and is ignored in the decoding process.
In order to set the recording unit for each video encoded data in the GOP period, 0 or 1 is added to the recording unit after it is determined in step S35 that the GOP has ended, and the recording unit is set for each multiplexed data in the GOP period. In order to be set to No, in step S39, 0 or 1 is added to the recording unit after it is determined to be No, and in order to become a recording unit for each packet, the packet is determined after No is determined in step S39. It is sufficient to add 0 or 1 to the recording unit in the case of the end of the packet.
In the present embodiment, since the packet is composed of four GOPs, the number of GOPs is integrated, and when the number of GOPs is a multiple of 4, it can be determined that the packet has ended.
Next, the operation of the controller 19 will be described. The controller 19 manages the multiplexed data recorded on the
On the
FIG. 4 shows an example of the management file. The management file includes “
As shown in FIG. 2B, in this embodiment, a group of four GOPs is called a packet, and management is performed in units of packets. There is one “packet information” per packet, and at the time of recording, the “packet information” of the recorded packet is added each time a packet is recorded on the
The “packet information” includes “packet start position”, “next address”, and “GOP start position”, “VPTS”, “APTS”, “I end position”, and “P end position” for each GOP.
FIG. 5 is a flowchart showing an operation for updating the “packet information” of the management file shown in FIG. 4 at the time of recording.
This operation is the same as the operation of constructing a packet by the multiplexing / demultiplexing circuit 17 shown in FIG. 3 except that “packet start position”, “GOP start position”, “VPTS”, “APTS”, “I end position”. The operation of outputting “P end position” is added, and the same operation parts as in FIG.
The controller 19 takes in the position information input from the multiplexing / demultiplexing circuit 17 and adds “packet information” for each packet. For this reason, the controller 19 also manages an empty area for writing “packet information” on the management file. “Next address” of “packet information” indicates the address of “packet information” of the packet following the current packet, and is given by the controller 19.
In this embodiment, “packet start position”, “I end position”, and “P end position” (hereinafter collectively referred to as position information) are relative positions from the beginning of the multiplexed data. Is 32K bytes, the first 32K bytes are 0, the next 32K bytes are 1, and the value is incremented every 32K bytes thereafter. The file system (not shown) performs conversion from the relative position to the physical address of the disk. The multiplexing / demultiplexing circuit 17 counts the amount of data to be recorded in the memory 18 and the amount of data to be output to the ECC unit 20 and uses it for calculation of position information.
In FIG. 5, first, “packet start position” is output to the controller 19 in step S51. In
If the I picture ends, the “I end position” is output to the controller 19 (step S54). If the I picture does not end, it is determined whether the first P picture ends in the GOP (step S55). . If the end of the first P picture in the GOP, the “P end position” is output to the controller 19 (step S56). When the output of the GOP video encoded data is completed in the loop of steps S32 to S35, APTS is output in step S57, and after the GOP audio encoded data is read in S36 to S39, it is determined whether or not the packet is ended. (Step S58).
If it is not the end of the packet, S52 to S39 are repeatedly executed, and processing for each GOP is performed until the packet ends. In the case of the end of the packet, it is determined in step S40 whether or not the encoded data is ended.
Step S51 is executed once for each packet, and S52, S54, S56, and S57 are executed once for each GOP, and information necessary to configure packet information is output from the multiplexing / demultiplexing circuit 17 to the controller 19. The
This embodiment is characterized in that location information for each packet and location information for each GOP are recorded in the management file, and the contents of the management file are not limited to the example shown in FIG. For example, management information for each multiplexed data may be added to the management file, or a packet code amount or a code amount for each GOP may be added to the packet information. Further, in the example of FIG. 4, packet information for multiplexed data of the entire disk is managed collectively, but may be managed separately for each multiplexed data.
Furthermore, the management file shown in FIG. 4 is an example. For example, the “P end position” may be two or more.
Next, the normal playback operation in the present embodiment will be described.
During normal reproduction, the controller 19 controls to read a file (that is, multiplexed data) to be reproduced on the
The data read from the disk is subjected to error correction decoding by the ECC unit 20 and becomes multiplexed data. The multiplexed data is separated into audio encoded data and video encoded data by a multiplexing / separating circuit 17 and once recorded in the memory 18. Audio encoded data is output from the memory 18 to the
In the disk medium, the recorded multiplexing is not changed, and it is possible to reproduce data that is not continuous by random access as if it were continuous data. In this case, a process for ensuring synchronization between audio and video is necessary.
FIG. 6 shows an example in which two GOPs are reproduced as if they were continuous data.
As shown in FIG. 2A, generally, a GOP period that is a period of a video frame constituting a GOP and an audio period that is an audio frame period corresponding to the GOP do not match. In FIG. 6, the multiplexed data composed of the
Therefore, in this embodiment, the reproduction time is corrected using “VPTS” and “APTS” in the packet information of the management file.
For example, when a video frame precedes an audio frame as shown in FIG. 6C, a freeze period 65 for interrupting video decoding by one frame is set to ensure synchronization. This state is shown in FIG. Conversely, if the audio frame precedes the video frame, a skip period for skipping one frame of the video is set.
A method for setting a video freeze period and a skip period will be described with reference to FIG. FIG. 7 shows the reproduction time at the GOP boundary between video encoded data and audio encoded data that are continuously reproduced. FIG. 7A shows a video frame to be decoded, and FIGS. 7B and 7C show an audio frame to be decoded. A
As shown in FIGS. 6B and 6C, the relationship between the video frame and the audio frame at the time of reproduction may not match the relationship between the video frame and the audio frame at the time of recording. In FIG. 7, the
A method of obtaining the
FIG. 8 shows an example in which reproduction is started from the beginning of the multiplexed data,
In FIG. 8, “VPTS” and “APTS” of
In FIG. 9, when the positive shift amount is equal to or longer than the video frame period, the video decoding is stopped for one frame period to freeze the video output, and the negative shift amount is equal to or longer than the audio frame period. An operation for skipping video decoding by one frame is shown in a flowchart.
In FIG. 9, first, the deviation amount is set to 0 in step S91. If the deviation amount is equal to or longer than the video frame period in step S92, the audio decoding is delayed. Therefore, in step S93, the video decoding is stopped by one frame, the video output is frozen, and the video frame is calculated from the deviation amount in step S94. Subtract period. If the shift amount is less than the video frame period in step S92, it is determined in step S95 whether the shift amount is smaller than the negative audio frame period.
If Yes in step S95, the video decoding is delayed, so in step S96 the video decoding is skipped and the video is advanced by one frame. In step S96, the first I picture of the GOP is reproduced normally, and the next B picture is skipped. This is because if the I picture is skipped, the entire GOP cannot be decoded.
In addition, the B picture has an effect that the code amount is small and skipping can be easily performed. If there is no B picture in the GOP, the last P picture of the GOP is skipped. In step S97, the video frame period is added to the shift amount. Next, audio data and video data are decoded until GOP is completed in steps S98 and S99. When the GOP decoding is completed, a deviation amount at the head of the next GOP is calculated in step S100.
In step S100, [next recorded GOP] is a GOP that was continuous at the time of recording, and [next GOP to be reproduced] indicates a GOP to be reproduced next by random access. In the example of FIG. 8, [Next recorded GOP] is
Steps S92 to S100 are repeatedly executed until the encoded data is completed in step S101. When the absolute value of the deviation amount is large at the head of the GOP, video freeze or video skip is performed so as to correct the deviation amount. And video sync.
Next, the high-speed playback operation in this embodiment will be described.
In the high-speed playback operation, random access and I-picture reading are repeated as shown in FIG.
In the present embodiment, “GOP start position” to “I end position” in the “packet information” of the management file is the video encoded data of the I picture. Since the “I end position” is not managed in the conventional embodiment, it is necessary to separately detect the end of the I picture, and there is a time difference between the data reading from the disk and the end of the I picture being detected. Although unnecessary data has been read, in this embodiment, since data to be read is known in advance, useless data is not read, and the number of displayed images during high-speed playback is increased.
Whether to read out the I picture of all GOPs during thin playback or thin out may be determined based on the speed with the number of displayed images during fast playback.
When more images can be displayed than all I pictures, a smoother high-speed reproduction can be realized by displaying P pictures in addition to I pictures. Data read when displaying an I picture and a P picture during high-speed playback will be described with reference to FIG.
FIG. 10 shows an example of encoding with the GOP configuration shown in FIG. 19, and the encoded data of the GOP is I, B, B, P,. . . Are recorded in this order. In general, the amount of codes per video frame is the largest for I pictures, the largest for P pictures, and the smallest for B pictures. In many cases, the code amount of a B picture is considerably smaller than that of an I picture or P picture.
Therefore, when reading I and P pictures in the same GOP, rather than randomly accessing each of the I and P pictures, reading from the start position of the I picture to the end position of the P picture and discarding unnecessary B pictures Is efficient.
Therefore, in this embodiment, when reading out the I picture and the P picture, the “packet information” is read from “GOP start position” to “P end position”, and the video codec 16 reproduces the I picture 101, which is unnecessary. The sign of the B pictures 102 and 103 to be discarded is discarded, and then the
At the time of high-speed reproduction, the controller 19 performs control so as to reproduce the encoded data from the I picture or the I picture to the first P picture, and otherwise performs the same operation as the normal operation.
Next, a description will be given of program reproduction in which reproduction start points and end points of multiplexed data recorded on the
FIG. 11 shows an example of program reproduction. FIG. 11 shows an example in which only GOPs 111 to 112 and
Also during program reproduction, the controller 19 controls to read the designated multiplexed data from the
In the present embodiment, when deleting multiplexed data, the multiplexed data itself is deleted, and packet information corresponding to the multiplexed data to be deleted is also deleted. The packet information part that has been deleted to become a free area is managed using a separate table for managing the free area, or the packet information part is rewritten so as to fill the free area part every time the multiplexed data is deleted.
In the present embodiment, there is no information indicating the boundary between audio encoded data and video video encoded data constituting multiplexed data. The boundary between the encoded audio data and the encoded video data is, for example, when video decoding is performed, and when the GOP decoding ends, the boundary between the encoded video data and the encoded audio data is used, or at the beginning of each encoded data. It can be recognized by adding a header indicating the type of encoded data.
[Modification of First Embodiment] In the first embodiment, as shown in FIG. 2B, video encoded data and audio encoded data for each GOP are recorded together. As shown in FIG. 12, GOP video encoded data and audio encoded data may be divided and recorded.
In order to configure the multiplexed data shown in FIG. 2B, it is necessary to store all audio data in the GOP period in the memory 18, but in the case of configuring the multiplexed data shown in FIG. The encoded audio data can be sequentially output, and the capacity of the memory 18 can be further reduced.
FIG. 13 is a flowchart showing an operation of outputting the multiplexed data shown in FIG. 12 in the multiplexing / separating unit circuit 17. In the flowchart of FIG. 12 and the flowchart of FIG. 3 showing the operation of forming the multiplexed data of FIG. 2B, in FIG. 3, the video encoded data is read for each GOP in steps S32 to S35, and steps S36 to S39 are performed. In FIG. 13, video encoded data of one video frame is read in steps S32 to S34, and one video frame is supported in steps S36 to S39. The audio encoded data is read out, and steps S32 to S34 and steps S36 to S39 are repeatedly executed until the GOP is completed, but the processes executed in each step are the same.
In this embodiment, encoded data of video frames is not input in the order of video frames to be reproduced. For example, in the case of the GOP shown in FIG. 19, the GOP starts from the B picture, but the encoded data is input from the I picture after the B picture. Therefore, an audio frame corresponding to a video frame is a correspondence in the order of encoded data.
[Second Embodiment]
In the first embodiment, the boundary between the encoded audio data and the encoded video data constituting the multiplexed data is not known unless the multiplexed data is input. In the present embodiment, information indicating the boundary is included in the management file so that the boundary between the encoded audio data and the encoded video data can be recognized in advance.
In the present embodiment, for example, video frames and audio frames can be selected and read out even during high-speed reproduction, and high-speed reproduction while reproducing sound is possible.
The configuration of the management file in this embodiment is shown in FIG.
In the management file of FIG. 14 and the management file of the first embodiment shown in FIG. 4, the management file of FIG. 14 includes “video code amount” indicating the GOP video encoded data amount in the packet information. Is different.
In this embodiment, as shown in FIG. 2B, since the GOP video encoded data is recorded from the head of the GOP, the audio encoded data is calculated from the “GOP start position” and the “GOP code amount”. You know the starting position.
FIG. 15 is a flowchart showing an operation for updating the “packet information” of the management file shown in FIG. 14 during recording. This operation is a flowchart of the operation of updating the “packet information” of the management file shown in FIG. 5. In FIG. 5, the operation that output “APTS” in step S35 is replaced with “video code amount” and “APTS”. The operation is the same as that shown in the flowchart of FIG. 5 except for step 151. The “video code amount” is calculated by counting the code amount when reading the video encoded data in step S32.
[Third Embodiment]
In the first and second embodiments, “GOP start position”, “VPTS”, “APTS”, “I end position”, and “P end position” for each GOP are recorded in the management file of the entire disk. There is a problem that the data amount of the management file increases as the recording time increases. In the third embodiment, part of the GOP position information is recorded in the multiplexed data to reduce the data amount of the management file.
FIG. 16 shows the structure of multiplexed data in the third embodiment of the present invention.
FIG. 16 is obtained by adding GOP management data to the head of a GOP in addition to the multiplexed data configuration shown in FIG. In the GOP management data, “VPTS”, “APTS”, “I end position”, and “P end position” recorded in the management file in the first embodiment are recorded. The configuration of the management file in this case is shown in FIG.
FIG. 18 is a flowchart showing an operation for updating the “packet information” of the management file shown in FIG. 17 during recording. This operation is performed by updating “GOP start position”, “VPTS”, “APTS”, “I end position”, and “P end position” in the flowchart of the operation for updating the “packet information” of the management file shown in FIG. The operation part to be output is changed to steps S181 to S186, and the same operation part as in FIG.
In FIG. 18, “packet start position” is output to the controller 19 at the head of the packet (step S51). Next, “GOP start position”, “VPTS”, and “APTS” are output to the ECC unit 20 in step S181. Next, when the input of the encoded data of the I picture from the video codec 16 ends, the “I end position” is output to the ECC unit 20 (step S183), and the input of the encoded data of the first P picture of the GOP ends. , “P end position” is output to the ECC unit 20 (step S185).
Steps S181 to S185 are executed at the head of the GOP, and position information and time information for each GOP are output when the input of the encoded data of the P picture from the video encoder 16 is completed. Video encoded data and audio encoded data are output.
11 オーディオ入力端子
12 オーディオ出力端子
13 ビデオ入力端子
14 ビデオ出力端子
15 オーディオコーデック
16 ビデオコーデック
17 多重化・分離回路
18 メモリ
19 コントローラ
20 ECC部
21 ディスク
22 GOP期間
23 オーディオ期間
41 ディスク情報
42 ファイル情報
43 空き領域情報
44 パケット情報
61 GOP期間
62 オーディオ期間
63 GOP期間
64 オーディオ期間
65 フリーズ期間
71 GOP期間
72 オーディオ期間
73 オーディオ期間
74 ずれ量
81 GOP
82 GOP
83 GOP
84 GOP
101 Iピクチャ
102 Bピクチャ
103 Bピクチャ
104 Pピクチャ
111 GOP
112 GOP
113 GOP
114 GOP
115 GOP
116 GOP
201 DUT
202 DUTヘッダ
203 副映像データ
204 音声データ
205 主音声データ
211 DUT
212 DUT
213 Iピクチャの符号化データ
214 Iピクチャの符号化データ
221 オーディオ入力端子
222 オーディオ出力端子
223 ビデオ入力端子
224 ビデオ出力端子
225 オーディオコーデック
226 ビデオコーデック
227 多重化・分離回路
228 メモリ
229 コントローラ
230 ECC部
231 記録メディア
11
82 GOP
83 GOP
84 GOP
101 I picture 102 B picture 103 B picture 104 P picture 111 GOP
112 GOP
113 GOP
114 GOP
115 GOP
116 GOP
201 DUT
202 DUT header 203
212 DUT
213 I picture encoded data 214 I picture encoded
Claims (3)
前記管理データは少なくとも多重化データの記録メディア上での位置情報及び再生時刻を含み、
該位置情報は、複数のフレームで構成されるフレーム群の多重化データについて、該フレーム群の開始位置及びフレーム内符号化されるフレームの終了位置を含み、
前記再生時刻は、前記フレーム群の先頭のビデオフレームの再生時刻を含むこと、
を特徴とする動画像再生装置。 A moving image reproducing device for reproducing multiplexed data from a recording medium on which multiplexed data and management data in which at least audio encoded data and video encoded data are multiplexed is recorded,
The management data includes at least position information and reproduction time on the recording medium of multiplexed data,
The position information includes, for multiplexed data of a frame group composed of a plurality of frames, a start position of the frame group and an end position of a frame to be intra-coded,
The playback time includes the playback time of the first video frame of the frame group;
A moving picture reproducing apparatus characterized by the above.
を特徴とする請求項1記載の動画像再生装置。 The multiplexed data is recorded on the recording medium by dividing it into a fixed length, and the multiplexed data of the frame group is recorded in units of the fixed length without excess or deficiency,
The moving image reproducing apparatus according to claim 1.
前記管理データは少なくとも多重化データの記録メディア上での位置情報及び再生時刻を含み、
該位置情報は、複数のフレームで構成されるフレーム群の多重化データについて、該フレーム群の開始位置及びフレーム内符号化されるフレームの終了位置を含み、
前記再生時刻は、前記フレーム群の先頭のビデオフレームの再生時刻を含むこと、
を特徴とする記録媒体。
A recording medium on which multiplexed data obtained by multiplexing at least audio encoded data and video encoded data and management data are recorded,
The management data includes at least position information and reproduction time on the recording medium of multiplexed data,
The position information includes, for multiplexed data of a frame group composed of a plurality of frames, a start position of the frame group and an end position of a frame to be intra-coded,
The playback time includes the playback time of the first video frame of the frame group;
A recording medium characterized by the above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005213722A JP4227604B2 (en) | 2005-07-25 | 2005-07-25 | Moving picture reproducing apparatus and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005213722A JP4227604B2 (en) | 2005-07-25 | 2005-07-25 | Moving picture reproducing apparatus and recording medium |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002345217A Division JP3718498B2 (en) | 2002-11-28 | 2002-11-28 | Moving image recording / playback method |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008200388A Division JP4874307B2 (en) | 2008-08-04 | 2008-08-04 | Moving picture reproducing apparatus and recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006005955A true JP2006005955A (en) | 2006-01-05 |
JP4227604B2 JP4227604B2 (en) | 2009-02-18 |
Family
ID=35773886
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005213722A Expired - Lifetime JP4227604B2 (en) | 2005-07-25 | 2005-07-25 | Moving picture reproducing apparatus and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4227604B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103888662A (en) * | 2012-12-19 | 2014-06-25 | 佳能株式会社 | Recording apparatus and recording method |
-
2005
- 2005-07-25 JP JP2005213722A patent/JP4227604B2/en not_active Expired - Lifetime
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103888662A (en) * | 2012-12-19 | 2014-06-25 | 佳能株式会社 | Recording apparatus and recording method |
CN103888662B (en) * | 2012-12-19 | 2017-04-12 | 佳能株式会社 | Recording apparatus and recording method |
Also Published As
Publication number | Publication date |
---|---|
JP4227604B2 (en) | 2009-02-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4837868B2 (en) | Method and apparatus for editing digital video recordings, and recordings produced by such methods | |
KR100405249B1 (en) | Decoding and reverse playback apparatus and method | |
KR101129142B1 (en) | Reproduction device, recording medium, reproduction system | |
JP4589120B2 (en) | Information storage medium on which stop video is recorded, reproducing apparatus and method thereof | |
EP1995731B1 (en) | Method to guarantee seamless playback of data streams | |
EP0869679A2 (en) | Encoding, decoding and editing | |
JPH1169301A (en) | Decoding method, decoding and reproducing device and recording medium | |
JP3718498B2 (en) | Moving image recording / playback method | |
JP3510783B2 (en) | Moving image recording / reproducing method and moving image recording / reproducing apparatus | |
KR100537392B1 (en) | Data recording method, data editing method, data decoding method, and apparatus thereof, and recording medium | |
KR100975170B1 (en) | Image data reproducing device and method | |
KR100537394B1 (en) | Recording method, recording medium and recorder | |
JP3253530B2 (en) | Video recording device | |
JP4227604B2 (en) | Moving picture reproducing apparatus and recording medium | |
KR100577327B1 (en) | Av data recording/reproducing apparatus and method and recording medium on which data is recorded by the av data recording/reproducing apparatus or method | |
JPH11261964A (en) | Moving image recording method, reproduction method and device | |
JP4874307B2 (en) | Moving picture reproducing apparatus and recording medium | |
JP2003324690A (en) | Video record playback device | |
JP2006157855A (en) | Information recording medium, image coding method, and image decoding method | |
JP3695425B2 (en) | Playback device | |
JPH10164512A (en) | Data-processing synchronization device | |
JP3695424B2 (en) | Playback device | |
JPH11355722A (en) | Multiplexing method and multiplexer for high efficiency coded data | |
JP3695423B2 (en) | Playback device | |
JP2001268513A (en) | Moving image reproducing device and moving image recording/reproducing system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD05 | Notification of revocation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7425 Effective date: 20071205 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080610 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080804 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080826 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081022 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20081118 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20081128 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111205 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111205 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121205 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121205 Year of fee payment: 4 |
|
SG99 | Written request for registration of restore |
Free format text: JAPANESE INTERMEDIATE CODE: R316G99 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
EXPY | Cancellation because of completion of term |