WO2001041435A1 - Recording apparatus and method - Google Patents

Recording apparatus and method Download PDF

Info

Publication number
WO2001041435A1
WO2001041435A1 PCT/JP2000/008509 JP0008509W WO0141435A1 WO 2001041435 A1 WO2001041435 A1 WO 2001041435A1 JP 0008509 W JP0008509 W JP 0008509W WO 0141435 A1 WO0141435 A1 WO 0141435A1
Authority
WO
WIPO (PCT)
Prior art keywords
header
data
recording
frame
bit stream
Prior art date
Application number
PCT/JP2000/008509
Other languages
English (en)
French (fr)
Inventor
Haruo Togashi
Akira Sugiyama
Shin Todo
Hideyuki Matsumoto
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to EP00979045A priority Critical patent/EP1175097A4/en
Priority to US09/890,498 priority patent/US7127156B1/en
Publication of WO2001041435A1 publication Critical patent/WO2001041435A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • H04N9/8047Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction using transform coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/036Insert-editing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/90Tape-like record carriers
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/032Electronic editing of digitised analogue information signals, e.g. audio or video signals on tapes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/7921Processing of colour television signals in connection with recording for more than one processing mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/87Regeneration of colour television signals
    • H04N9/88Signal drop-out compensation
    • H04N9/888Signal drop-out compensation for signals recorded by pulse code modulation

Definitions

  • the present invention relates to a recording apparatus and method for recording a digital video signal compressed and encoded using a variable length code on a recording medium in predetermined equal length units.
  • a data recording / reproducing apparatus which records a digital video signal and a digital audio signal on a recording medium as represented by a digital VTR (Video Tape Recorder) and reproduces the data from the recording medium is known.
  • a digital video signal Since a digital video signal has a huge data capacity, it is generally compressed and coded by a predetermined method and recorded on a recording medium.
  • an MPEG2 (Moving Picture Experts Group phase 2) method is known as a standard method of compression encoding.
  • Image compression techniques such as MPEG2 described above use variable-length codes to increase the data compression rate. Therefore, the amount of code for one screen, for example, one frame or one field after compression varies depending on the complexity of the image to be compressed.
  • one frame or one field is a unit of equal length. That is, the code amount per frame or field is kept below a certain value, and is recorded in a fixed capacity area of the storage medium.
  • the reason why the equal length method is adopted for the VTR is that the recording area on the magnetic tape, which is the recording medium, is composed of one frame, and the recording data for one frame is excessive or insufficient in this recording area. Because you need to enter without You.
  • the recording medium is consumed in proportion to the recording time, the total recording amount and the remaining amount can be accurately obtained, and there is an advantage that the cueing process by the high-speed search can be easily performed.
  • the viewpoint of control of the recording medium for example, if the recording medium is a magnetic tape, the data is recorded in an equal-length system so that the dynamically driven magnetic tape is driven at a constant speed. This has the advantage that stabilization can be achieved.
  • variable-length coding scheme and the equal-length coding scheme have contradictory properties.
  • a recording device that inputs a video signal as an uncompressed baseband signal, internally performs compression encoding using a variable length code such as MPEG 2 or JPEG (Joint Photographic Experts Group), and records it on a recording medium has appeared. are doing.
  • a recording / reproducing apparatus that directly inputs / outputs and stream-Z-reproduces a stream that has been compression-encoded using a variable-length code has been proposed. In the following, the description will be made assuming that the compression encoding method of the digital video signal is MPEG2.
  • MPEG2 is a combination of motion-compensated prediction coding and compression coding by DCT.
  • the data structure of MPEG2 has a hierarchical structure, which includes, from the bottom, a block layer, a macroblock layer, a slice layer, a picture layer, a GOP (Group Of Picture) layer, and a sequence layer.
  • the block layer is composed of DCT blocks, which are units for performing DCT.
  • the macro block layer is composed of multiple DCT blocks.
  • the slice layer includes a header section and one or more macroblocks.
  • the picture layer is composed of a header section and one or more slices. A picture corresponds to one screen.
  • the GOP layer consists of a header section and an I picture (Intra -coded picture: Intra coded picture, P picture (Prediction-coded picture: forward prediction coded picture), and B picture (Bidi recti onally pred icti ve— coded picture: bidirectional prediction coding) Image) and force.
  • An I-picture uses information that is closed only in one picture when it is encoded. Therefore, at the time of decoding, decoding can be performed using only the information of the I picture itself.
  • a P-picture uses a previously decoded I-picture or P-picture, which is a temporally previous picture, as a predicted picture (a reference picture for taking a difference). Either encode the difference from the motion-compensated predicted image or encode without taking the difference, or select the more efficient one for each macro block.
  • a B-picture is a predicted picture (a reference picture for taking a difference), which is a previously decoded I-picture or P-picture that is earlier in time, an already-decoded I-picture or P-picture that is later in time, and We use three types of interpolated images created from both. Of the three types of differential coding after motion compensation and intra coding, the most efficient one is selected in macroblock units.
  • the macroblock types include intra-coded (Intra) macroblocks, forward frames predicting the future from the past, and macroblocks predicting the future from the future.
  • the P picture includes an intra-frame coded macro block and a forward inter-frame prediction macro block.
  • the B picture includes macroblocks of all four types of evenings described above.
  • a macro block is a set of multiple DCT blocks. Is divided into a lattice of 16 pixels ⁇ 16 lines. The slice is formed by, for example, connecting these macroblocks in the horizontal direction. Once the screen size is determined, the number of macroblocks per screen is uniquely determined.
  • a slice is one variable-length code sequence.
  • a variable-length code sequence is a sequence in which the boundary of data cannot be detected without decoding the variable-length code.
  • one slice is usually composed of one stripe (16 lines), and variable-length coding starts at the left end of the screen and ends at the right end. Therefore, when a recording medium on which an MPEG stream is directly recorded by VTR is played back at high speed, the portion that can be played back is concentrated on the left edge of the screen and cannot be updated uniformly. In addition, since the arrangement of the tape on the tape at night cannot be predicted, if the tape pattern is traced at regular intervals, it is impossible to update the screen uniformly. Furthermore, if an error occurs even at one point, it affects the right edge of the screen and cannot return until the next slice header is detected. Preferably, such a disadvantage can be avoided by configuring one slice with one macroblock.
  • video signals are recorded on magnetic tape by a helical track method in which tracks are formed diagonally with a rotating head.
  • the sync blocks are grouped by data type with the sync block as the minimum unit of recording to form a sector.
  • a recording area in which the recording data for one frame is recorded is a predetermined area. For example, one frame of recorded data is recorded using 8 tracks. It is.
  • a digital VTR editing processing is usually performed. It is preferable that the editing process be performed in as small units as possible.
  • a GOP unit can be considered as an editing unit.
  • editing processing in GOP units is possible.
  • the GOP is composed of, for example, 15 frames, there is a problem that the editing unit is too large.
  • a GOP Group Of Picture
  • the MPEG rules for G ⁇ P are as follows: first, in the bitstream, the first of G ⁇ P is an I-picture; second, in the order of the original image, the last of the GOP is the I or P-picture. It is specified that G ⁇ P is also permitted if it requires a prediction from the last I or P picture of the previous GOP.
  • a GOP that can be decoded without using the previous GOP image is called a closed GOP.
  • an identification code composed of a predetermined bit pattern is arranged at the head of the sequence layer.
  • the coding parameters of each layer are arranged.
  • the MPEG decoder that decodes the MPEG2 extracts an identification code by pattern matching to determine the hierarchy, and decodes the MPEG stream based on the parameter information stored in the header. Headers in layers lower than the picture layer are necessary information for each frame, and are therefore always added to each frame. On the other hand, the header of the sequence layer need only be added once to the sequence and the GOP, and need not be added to each frame.
  • the header of the sequence layer As information included in the header of the sequence layer, the number of pixels, bit rate, profile, level, color difference format, progressive sequence, and the like are specified. For example, if one piece of video tape is regarded as one sequence, the same value is usually specified. If a header of the sequence layer is added to the beginning of the video tape, there is a problem in the MPEG coding grammar. What? Also, the quantization matrix may exist in a header other than the sequence layer (the header of the sequence layer or the header of the picture layer) in the coding grammar of M PEG. In the coding grammar of MPEG, it is stipulated that a quantization matrix may or may not be added.
  • Figure 25 schematically illustrates this problem.
  • Figure 25A shows the temporal relationship of the stream before editing. A picture header is added to each picture of frames 4 and 5, but the header of the sequence layer and the header of the GOP layer are not added. However, these picture data can be decoded by using the information of the header of the sequence layer and the header of the GOP layer added to the previous frame 3.
  • the editing process reverses the temporal relationship between the frames.
  • the temporal position of frames 4 and 5 is the temporal position of frames 1 and 2 before frame 3.
  • the header of the sequence layer may not appear at the beginning of the video tape, or the sequence layer header may not exist anywhere in one volume of the video tape.
  • the MPEG coding grammar is not satisfied, MPEG decoding becomes impossible.
  • the quantization matrix may be present in the header other than the sequence layer in the coding grammar of MPEG, but it is not stipulated that it is always present in each frame. Therefore, the quantization matrix, like the sequence layer header, has a problem that after editing in units of frames, it may not be possible to obtain it prior to MPEG decoding. Playback is performed from an arbitrary position on the tape. The header of the sequence layer may not be obtained during playback or during special playback.
  • an object of the present invention is to make it possible to edit a frame unit, and to make sure that a reproduction bitstream satisfies an encoding grammar at the time of normal reproduction from an arbitrary position or at the time of special reproduction such as reverse reproduction. It is an object of the present invention to provide a recording device and a method which can be guaranteed.
  • a digital video signal is compression-encoded, a bit stream having a hierarchical structure including a plurality of layers is generated, and the bit stream is recorded on a recording medium.
  • the recording device In the recording device,
  • the invention according to claim 5 compresses and encodes a digital video signal, generates a bit stream having a hierarchical structure including a plurality of layers, and In a recording device that records a stream on a recording medium,
  • Recording means for recording a bitstream to which a quantization matrix is added on a recording medium.
  • the invention according to claim 9 is a recording method for compressing and encoding a digital video signal, generating a bit stream having a hierarchical structure including a plurality of layers, and recording the bit stream on a recording medium.
  • All of the digital video signals are compressed by intra-frame coding, and the top layer header is added to the bit stream of each frame,
  • the invention according to claim 10 is a recording method for compressing and encoding a digital video signal, generating a bit stream having a hierarchical structure including a plurality of layers, and recording the bit stream on a recording medium.
  • All digital video signals are compressed by intra-frame coding, a quantization matrix is added to the bit stream of each frame, and the bit stream to which the quantization matrix is added is recorded on a recording medium. Is a recording method.
  • the present invention enables editing on a frame basis by encoding data of all frames by intra-frame encoding. And when recording on a recording medium, the sequence layer of each frame Add header and quantization matrix respectively. As a result, it is possible to prevent the edited data and the data reproduced by the special reproduction such as the reverse reproduction from satisfying the coding grammar.
  • FIG. 1 is a schematic diagram schematically showing a hierarchical structure of a general MPEG2 stream.
  • FIG. 2 is a schematic diagram showing the contents of data arranged in the MPEG2 stream and bit allocation.
  • FIG. 3 is a schematic diagram showing data contents and bit assignments arranged in an MPEG2 stream.
  • FIG. 4 is a schematic diagram showing data contents and bit assignments arranged in the MPEG2 stream.
  • FIG. 5 is a schematic diagram showing the contents of data arranged in the MPEG2 stream and bit allocation.
  • FIG. 6 is a schematic diagram showing the contents of data distributed in the MPEG2 stream and bit allocation.
  • FIG. 7 is a schematic diagram showing the contents of data arranged in the MPEG2 stream and bit allocation.
  • FIG. 8 is a schematic diagram showing the contents of data allocated in the stream of MPEG2 and bit allocation.
  • FIG. 9 is a schematic diagram showing data contents and bit assignments arranged in the stream of MPEG2.
  • FIG. 10 is a schematic diagram showing the contents of the data and bit assignments arranged in the stream of MPEG2.
  • FIG. 11 is a schematic diagram showing data contents and bit assignments arranged in the stream of MPEG2.
  • FIG. 12 is a schematic diagram showing the contents of the data and bit assignments arranged in an MPEG 2 stream.
  • FIG. 13 is a diagram for explaining the arrangement of byte units of data overnight.
  • FIG. 14 is a schematic diagram showing a data configuration of an MPEG stream according to an embodiment of the present invention.
  • FIG. 15 is a block diagram showing an example of a configuration of a recording / reproducing apparatus according to an embodiment of the present invention.
  • FIG. 16 is a schematic diagram showing an example of a track format formed on a magnetic tape.
  • FIG. 17 is a schematic diagram for explaining an output method of a video encoder and variable-length coding.
  • FIG. 18 is a schematic diagram for explaining rearrangement of the output order of the video encoder.
  • FIG. 19 is a schematic diagram for explaining a process of packing the rearranged data in the sync block.
  • FIG. 20 is a schematic diagram showing the packing process more specifically.
  • FIG. 21 is a block diagram showing a more specific configuration of the ECC encoder.
  • FIG. 22 is a schematic diagram illustrating an example of an address configuration of a main memory.
  • FIG. 23 is a block diagram of an interpolator of a header of a sequence layer according to an embodiment of the present invention.
  • FIG. 24 is a flowchart for explaining the interpolation processing.
  • FIG. 25 is a schematic diagram for explaining a problem to be solved by the present invention. BEST MODE FOR CARRYING OUT THE INVENTION
  • the MPEG2 method is adopted as the compression method.
  • MPEG2 is a combination of motion-compensated predictive coding and compression coding by DCT.
  • the data structure of MPEG2 has a hierarchical structure.
  • FIG. 1 schematically shows a hierarchical structure of a general MPEG2 bitstream. As shown in Fig. 1, the data structure consists of the macroblock layer (Fig. 1E), slice layer (Fig. 1D), picture layer (Fig. 1C), and GOP layer (Fig. 1). B) and the sequence layer (Fig. 1A).
  • the macroblock layer is composed of DCT blocks, which are units for performing DCT.
  • the macro block layer is composed of a macro block header and a plurality of DCT blocks.
  • the slice layer is composed of a slice header section and one or more macro blocks as shown in FIG. 1D.
  • the picture layer is composed of a picture header section and one or more slices.
  • a picture corresponds to one screen.
  • the GOP layer is composed of a GOP header part, I pictures that are pictures based on intra-frame coding, and P and B pictures that are pictures based on predictive coding. You.
  • a GOP contains at least one I picture, and P and B pictures are allowed even if they do not exist.
  • the uppermost sequence layer is composed of a sequence header section and a plurality of GOPs as shown in FIG. 1A.
  • a slice is one variable-length code sequence.
  • a variable-length code sequence is a sequence in which a data boundary cannot be detected unless variable-length codes are correctly decoded.
  • a start code having a predetermined bit pattern arranged in units of bytes is arranged at the beginning of each of the sequence layer, the GOP layer, the picture layer, and the slice layer.
  • the set code arranged at the head of each layer is called a sequence header code in the sequence layer and a start code in the other layers, and the bit pattern is [00000001xx] (16). Hex notation). Two digits are shown, and [xx] indicates that a different bit pattern is arranged in each of the layers.
  • the upper four bits of one byte following the start code are identifiers of the contents of the extended data area described later.
  • the content of the extension data can be determined from the value of this identifier.
  • such an identification code having a predetermined bit pattern arranged in byte units is not arranged in the macro block layer and the DCT block in the macro block.
  • sequence header 2 is arranged at the beginning, followed by sequence extension 3, extension and user data 4.
  • Sequence header code 1 is arranged at the beginning of sequence header 2. Also the figure although not shown, predetermined start codes are also arranged at the beginning of the sequence extension 3 and the user data 4, respectively. From sequence header 2 to extension and user data 4 are the headers of the sequence layer.Sequence header 2 has the sequence header code 1, Information set in sequence units, such as the coded image size consisting of the number of pixels in the horizontal direction and the number of lines in the vertical direction, aspect ratio, frame rate, bit rate, VBV (Video Buffering Verifier) buffer size, quantization matrix, etc. Is allocated and stored.
  • sequence extension 3 after the extension header following the sequence header, as shown in Fig. 3, additional data such as profiles, levels, chrominance formats, and progressive sequences used in MPEG2 are used. One night is specified.
  • the extension and user data 4 can store the information of the RGB conversion characteristics of the original signal and the display image size by the sequence display (), and the scalability module by the sequence scalable extension 0. It is possible to specify a layer for one-dose scalability.
  • a GOP is arranged following the header of the sequence layer.
  • a GOP header 6 and a user data 7 are arranged.
  • GOP header 6 and user data 7 are used as the header of G ⁇ P.
  • G ⁇ P start code 5 time code, and flag indicating independence or validity of GOP are assigned to predetermined number of bits in GOP header 6 and stored. Is done.
  • the user data 7 includes extended data and user data as shown in FIG. Although not shown, extension data and user data At the head, predetermined preset codes are allocated.
  • a picture is arranged following the header of the GOP layer.
  • a picture header 9 a picture coding extension 10 and an extension and user data 11 are arranged as shown in FIG. 1C.
  • a picture start code 8 is arranged.
  • a predetermined start code is provided at the head of the picture coding extension 10 and the extension and user data 11 respectively. From the picture header 9 to the extension and user data 11 are the picture header.
  • a picture start code 8 is arranged in the picture header 9, and encoding conditions for the screen are set.
  • the picture coding extension 10 specifies the range of the motion vector in the front-rear direction, the horizontal Z-vertical direction, and the picture structure.
  • setting of the DC coefficient accuracy of the intra macroblock, selection of the VLC type, selection of the linear / non-linear quantization scale, selection of the scanning method in the DCT, and the like are performed.
  • the setting of the quantization matrix and the setting of the spatial scalable parameters are performed. These settings can be made for each picture, and encoding can be performed according to the characteristics of each screen. In addition, it is possible to set the display area of the picture in the extension and user data 11. In addition, copyright information can be set for extension and user data.
  • a slice is arranged following the header part of the picture layer.
  • a slice header 13 is arranged as shown in Fig. D.
  • the slice start code 12 is arranged at the head of the slice head 13. As shown in FIG. 10, the slice start code 12 includes vertical position information of the slice.
  • the slice header 13 further stores extended slice vertical position information, quantization scale information, and the like.
  • a macroblock is placed (Fig. 1E).
  • a macroblock In the macro block, a plurality of DCT blocks are arranged following the macro block header 14. As described above, no start code is assigned to the macro block header 14.
  • the macroblock header 14 stores the relative position information of the macroblock, and indicates the setting of the motion compensation mode, the detailed setting of DCT coding, and the like. I do.
  • the DCT block stores variable-length-coded DCT coefficients and data relating to DCT coefficients.
  • a solid line delimiter in each layer indicates that data is aligned in byte units
  • a dotted line delimiter indicates that data is not aligned in byte units.
  • the boundaries of the codes are divided in byte units
  • the slice layer only the slice start code 12 is in byte units.
  • Each macroblock can be separated on a bit-by-bit basis, as shown in FIG. 13B.
  • each DCT block can be partitioned on a bit-by-bit basis.
  • one GOP is made up of one I picture.
  • a recording area in which recording data for one frame is recorded is defined.
  • M PEG 2 since variable-length coding is used, the amount of generated data for one frame is controlled so that data generated in one frame period can be recorded in a predetermined recording area.
  • one slice is composed of one macroblock and one macroblock is applied to a fixed frame of a predetermined length so as to be suitable for recording on a magnetic tape.
  • FIG. 14 specifically shows the header of the MPEG stream in this embodiment.
  • the headers of the sequence layer, the GP layer, the picture layer, the slice layer, and the macroblock layer appear continuously from the beginning of the sequence layer.
  • Fig. 14 shows an example of a data array that is continuous from the sequence header.
  • sequence header 2 having a length of 12 bytes is arranged, followed by a sequence extension 3 having a length of 10 bytes.
  • sequence extension 3 having a length of 10 bytes.
  • extension and user data 4 are arranged.
  • a 4-byte user data start code is arranged, and in the subsequent user data area, information based on the SMPTE standard is stored.
  • GOP layer header Following the sequence layer header is the GOP layer header.
  • a GOP header 6 having a length of 8 bytes is arranged, followed by extension and user data 7.
  • extension and user data 7 At the beginning of the extension and user data 7, a 4-byte user data start code is allocated.
  • the area stores information for compatibility with other existing video formats.
  • a picture header 9 having a length of 9 bytes is arranged, followed by a picture coding extension 10 having a length of 9 bytes.
  • extension and user data 11 are arranged.
  • Extension and user data are stored in the first 133 bytes of extension and user data 11, followed by a user data start code having a length of 4 bytes.
  • a user data start code is provided, and data based on the SMPTE standard is stored after the user data start code.
  • Next to the header part of the picture layer is a slice.
  • the macroblock included in the slice layer is a set of a plurality of DCT blocks, and the encoded sequence of the DCT block is a sequence of quantized DCT coefficients obtained by dividing the sequence of 0 coefficients by the number of consecutive (runs) of 0 coefficients and the non- It is variable-length coded with the sequence (level) as one unit.
  • Macroblocks and DCT blocks within macroblocks do not have identification codes aligned in byte units.
  • a macroblock is a screen (picture) divided into 16 pixels x 16 lines.
  • a slice is formed by connecting these macroblocks in the horizontal direction, for example.
  • the last macroblock of the previous slice of the successive slice and the first macroblock of the next slice are continuous, and overlapping of macroblocks between slices is not allowed. Also, once the screen size is determined, one screen The number of macroblocks per hit is uniquely determined.
  • the numbers of macroblocks in the vertical and horizontal directions on the screen are called mb—height and mb_width, respectively.
  • the coordinates of the macroblock on the screen are: mb—row, counting the vertical position number of the macroblock from 0, based on the top, and mb—co, counting the horizontal position number of the macroblock, from 0 based on the left edge. It is defined as 1 umn.
  • macrob1ock--addresss is expressed as
  • the order of the slice and the macroblock on the stream must be in the order of macrob1ock—addresss. That is, the stream is transmitted from top to bottom of the screen and from left to right.
  • one slice is usually composed of one stripe (16 lines), and variable-length coding starts at the left end of the screen and ends at the right end. Therefore, when the MPEG element stream is recorded as it is by the VTR, the part that can be played is concentrated at the left edge of the screen during high-speed playback, and cannot be updated uniformly. Also, since the arrangement of the data on the tape cannot be predicted, it is not possible to update the screen evenly if the tape pattern is traced at regular intervals. Furthermore, if an error occurs even at one point, it affects the right edge of the screen and cannot return until the next slice header is detected. For this purpose, one slice is composed of one macroblock.
  • FIG. 15 shows the configuration of the recording side of the recording / reproducing apparatus according to this embodiment. An example is shown.
  • a digital signal input from the terminal 100 is supplied to the SDI (Serial Data Interface) receiver 101.
  • SDI is an interface specified by SMPTE for transmitting (4: 2: 2) component video signals, digital audio signals, and additional data.
  • the SDI receiver 101 extracts a digital video signal and a digital audio signal from the input digital signal, respectively, and the digital video signal is supplied to the MPEG encoder 102 and the digital audio signal is output. Is supplied to the ECC encoder 109 via the delay 103.
  • the delay 103 is for eliminating the time difference between the digital audio signal and the digital video signal.
  • the SDI receiving section 101 extracts a synchronization signal from the input digital signal, and supplies the extracted synchronization signal to the timing generator 104.
  • An external synchronization signal can also be input to the timing generator 104 from the terminal 105.
  • the timing generator 104 generates a timing pulse based on a designated signal among the input synchronization signal and a synchronization signal supplied from an SDTI receiving unit 108 described later. The generated timing pulse is supplied to each section of the recording / reproducing apparatus.
  • the input video signal is subjected to DCT (Discrete Cosine Transform) processing in the MPEG encoder 102, converted into coefficient data, and the coefficient data is subjected to variable length coding.
  • the variable length coded (VLC) data from the MPEG encoder 102 is an elementary stream (ES) compliant with MPEG2.
  • ES elementary stream
  • MFC multi-format converter
  • an input terminal 107 receives a serial data transport interface (SDTI) format.
  • SDTI serial data transport interface
  • This signal is synchronously detected by the SDTI receiving unit 108. Then, it is temporarily stored in the buffer, and the elementary stream is extracted.
  • the extracted elementary stream is supplied to the other input terminal of the MFC 106 on the recording side.
  • the synchronization signal obtained by the synchronization detection is supplied to the timing generator 104 described above.
  • an SDT I Serial Data Transport Interface
  • CP Content Package
  • MP E G E S MP E G element list
  • the MPEGES is separated into access units and packed in frame-based packets.
  • SDTI — CP uses ample transmission bandwidth (27 Mhz or 36 MHz at clock rate, 270 Mbps or 360 Mbps at stream bit rate), and bursts in one frame period It is possible to send the ES in an efficient manner.
  • the system data, video stream, audio stream, and AUX data are arranged after the SAV of one frame period until the EAV. There is no data in the entire one frame period, and there is a burst of data for a predetermined period from the beginning.
  • SDTI—CP streams video and audio
  • SDTI — CP has a mechanism to establish synchronization between audio and video for content using SMP TE timecode as the clock reference. Further In addition, the format is determined so that SDTI—CP and SDI can coexist.
  • the encoder and decoder pass through VBV (Video Buffer Verifier) buffers and TBs (Transport Buffers), as in the case of TS (Transport Stream) transfer.
  • VBV Video Buffer Verifier
  • TBs Transport Buffers
  • TS Transport Stream
  • the SDTI receiving section 108 further extracts a digital audio signal from the input stream of SDTI-CP.
  • the extracted digital audio signal is supplied to the ECC encoder 109.
  • the MFC 106 on the recording side incorporates a selector and a stream converter.
  • the recording side MFC 106 is configured in, for example, one integrated circuit. The processing performed in the recording side MFC 106 will be described.
  • One of the MPEGES supplied from the MPEG encoder 102 and the SDTI receiving unit 108 described above is selected by a selector, and is processed by the recording-side MFC 106.
  • the MFC 106 on the recording side combines the DCT coefficients arranged for each DCT block based on the MPEG2 rules into multiple DCT blocks that make up one macroblock for each frequency component, and combines the aggregated frequency components. Sort. If one slice of the elementary stream is one stripe, one slice shall consist of one macroblock. Furthermore, the maximum length of variable-length data generated in one macroblock is limited to a predetermined length. This is because the higher-order DCT coefficient is set to 0. Can. Further, the MFC 106 on the recording side interpolates the header of the sequence layer and the quantization matrix for each picture of the MPEG bit stream, as described later. The converted elementary streams rearranged in the recording side MFC 106 are supplied to the ECC encoder 109.
  • the ECC encoder 109 is connected to a large-capacity main memory (not shown), and has packing and shuffling units, an outer code encoder for audio, an outer code encoder for video, an inner code encoder, and a shuffling unit for audio. And a video shuffling unit. Further, the ECC encoder 109 includes a circuit for adding an ID in sync block units and a circuit for adding a synchronization signal.
  • the ECC encoder 109 is composed of, for example, one integrated circuit.
  • a product code is used as an error correction code for video data and audio data.
  • the product code encodes the outer code vertically in a two-dimensional array of video or audio data, encodes the inner code in the horizontal direction, and double encodes data symbols. Is what you do.
  • a Reed-Solomon code can be used as the outer code and the inner code.
  • the processing in the ECC encoder 109 will be described. Since the video data of the elementary stream is variable-length coded, the data length of each macroblock is not uniform. In the packing and shuffling sections, macroblocks are packed into fixed frames. At this time, the overflow portion that protrudes from the fixed frame is sequentially packed into an area that is vacant with respect to the size of the fixed frame.
  • a system data including information such as an image format and a shuffling pattern version is supplied from a system controller 121 described later. Input from an input terminal (not shown).
  • the system data is supplied to a packing and shuffling unit, and is subjected to a recording process as in the case of the picture data.
  • System data is recorded as video AUX.
  • shuffling is performed to rearrange the macroblocks of one frame generated in the scanning order and disperse the recording positions of the macroblocks on the tape. Shuffling can improve the image update rate even when data is fragmented during variable speed playback.
  • the video data and the system data from the packing and shuffling unit (hereinafter, also including the system data unless otherwise required, are also simply referred to as video data) are used for outer coding of the video data.
  • This is supplied to the video outer code encoder that performs encoding, and an outer code parity is added.
  • the output of the outer code encoder is shuffled by a video shuffling unit, which changes the order in sync block units over a plurality of ECC blocks. The error is prevented from being concentrated on a specific ECC block by the shuffling in the sync block unit.
  • Shuffling performed in the shuffling section is sometimes referred to as interleaving.
  • the output of the video shuffling unit is written to the main memory.
  • the digital audio signal output from the SDTI receiving unit 108 or the delay 103 is supplied to the ECC encoder 109.
  • uncompressed digital audio signals are handled.
  • the digital audio signal is not limited to these, and can be input via an audio interface.
  • An audio AUX is supplied from an input terminal (not shown).
  • Audio AUX is auxiliary data that contains information related to audio data such as the sampling frequency of audio data. It is. Audio AUX is added to audio data overnight, and is treated the same as audio data.
  • Audio data to which audio AUX is added (hereinafter, unless otherwise required, audio data including AUX is simply referred to as audio data) is an audio outer code that encodes an outer code for audio data. Supplied to the encoder. The output of the audio outer code encoder is supplied to the audio shuffling unit and undergoes shuffling processing. As audio shuffling, shuffling in sync block units and shuffling in channel units are performed.
  • the output of the audio shuffling unit is written to main memory. As described above, the output of the video shuffling unit is also written in the main memory, and the audio data and the video data are mixed in the main memory to form one-channel data.
  • Data is read from the main memory, added with an ID having information indicating a sync block number, and supplied to the inner code encoder.
  • the inner code encoder encodes the supplied data with the inner code.
  • a sync signal for each sync block is added to the output of the inner code encoder, and the recording data in which the sync blocks are continuous is configured.
  • the recording data output from the ECC encoder 109 is supplied to an equalizer 110 including a recording amplifier and the like, and is converted into a recording RF signal.
  • the recording RF signal is supplied to a rotating drum 111 provided with a rotating head in a predetermined manner, and is recorded on a magnetic tape 112. Actually, a plurality of magnetic heads having different azimuths of the heads forming adjacent tracks are attached to the rotating drum 111.
  • the recording data may be subjected to scramble processing as needed. Also, digital modulation may be performed at the time of recording. 'Response class 4 and video code may be used.
  • the equalizer 110 includes both a recording-side configuration and a reproducing-side configuration.
  • Fig. 16 shows an example of a frame frequency of 29.97 Hz, a size of 720 pixels (number of effective horizontal pixels) x 480 lines (number of effective lines).
  • This figure shows the track format when a video signal and a 4-channel PCM audio signal are recorded on a magnetic tape by a rotating head.
  • video and audio data per frame are recorded on four tracks. Two tracks with different azimuths are considered as one set.
  • a recording area (audio sector) for audio data is provided substantially in the center, and a video recording area (video sector) for recording video data is provided on both sides of the audio sector.
  • A1 to A4 indicate 1 to 4 channels of the audio data, respectively. It is recorded in a different arrangement in units of a set of two tracks with different azimuths.
  • data of four error correction blocks is read in one track, and the video data is divided into UpperSide and LowerSide sectors and recorded.
  • a system area (SYS) is provided at a predetermined position in the video sector of the Lower Side.
  • the system area is provided alternately for each track, for example, on the head side and the side near the end of the lower side video sector.
  • SAT is an area where a signal for servo lock is recorded.
  • a gap of a predetermined size is provided between the recording areas.
  • Fig. 16 shows an example in which data per frame is recorded on eight tracks, but depending on the format of the data to be recorded and reproduced, data per frame can be recorded on four tracks, six tracks, etc. It can also be recorded.
  • the data recorded on the tape consists of a plurality of equally spaced blocks called sync blocks.
  • FIG. 16C schematically shows the configuration of the sync block.
  • the sync block consists of a SYNC pattern for detecting synchronization, an ID for identifying each sync block, a DID indicating the content of the following data, a data packet, and an inner code parity for error correction. Be composed. Data is handled as packets in sync block units. That is, the smallest data unit to be recorded or reproduced is one sync block. A number of sync blocks are arranged (Fig. 16B) to form, for example, a video sector.
  • a reproduction signal reproduced from the magnetic tape 112 by the rotary drum 111 is supplied to the reproduction-side configuration of the equalizer 110 including a reproduction amplifier and the like.
  • the equalizer 110 performs equalization and waveform shaping on the reproduced signal. Also, demodulation of digital modulation, Viterbi decoding, etc. are performed as needed.
  • the output of the equalizer 110 is supplied to the ECC decoder 113.
  • the ECC decoder 113 performs the reverse processing of the ECC encoder 109 described above, and includes a large-capacity main memory, an inner code decoder, a deshuffling unit for audio and video, and an outer code decoder. Including. Further, the ECC decoder 113 includes a deshuffling and depacking unit and a data interpolation unit for video. Similarly, an audio AUX separation unit and a data interpolation unit are used for audio. Including. ECC decoder 1 13 consists of one integrated circuit, for example
  • the processing in the ECC decoder 113 will be described.
  • the ECC decoder 113 detects synchronization first, detects the synchronization signal added to the head of the sync block, and cuts out the sync block.
  • the reproduced data is supplied to the inner code encoder for each sync block, and error correction of the inner code is performed.
  • An ID interpolation process is performed on the output of the inner code encoder, and the ID of the sync block, for example, the sync block number that has been erased by the inner code is interpolated.
  • the reproduction data with the interpolated ID is separated into video data and audio data.
  • video data means DCT coefficient data and system data generated by intra coding of MPEG
  • audio data means PCM (Pulse Code Modulation) data and audio AUX.
  • the separated audio data is supplied to an audio deshuffling unit, and performs a process reverse to the shuffling performed by the recording-side shuffling unit.
  • the output of the deshuffling unit is supplied to an outer code decoder for audio, and error correction by the outer code is performed.
  • the error-corrected audio data is output from the outer code decoder for audio. For data with uncorrectable errors, the error flag is set.
  • the audio AUX is separated from the output of the outer code decoder for audio by the audio AUX separation unit, and the separated audio AUX is output from the ECC decoder 113 (the path is omitted).
  • the audio AUX is supplied to, for example, a system controller 121 described later. Further, the data is supplied to the data interpolation unit. In the overnight interpolation section, Samples with errors are interpolated.
  • the interpolation method it is possible to use an average value interpolation for interpolating with an average value of correct data before and after in time, a previous value hold for holding a previous correct sample value, and the like.
  • the output of the data interpolation unit is the output of audio data from the ECC decoder 113, and the audio data output from the ECC decoder 113 is supplied to the delay 117 and the SDTI output unit 115.
  • the delay 117 is provided in order to absorb a delay caused by the video data processing in the MPEG decoder 116 described later.
  • the audio data supplied to the delay 117 is supplied to the SDI output unit 118 with a predetermined delay.
  • the separated video data is supplied to a deshuffling unit, where the processing is performed in the reverse order of the shuffling on the recording side.
  • the deshuffling unit performs processing for restoring shuffling in sync block units performed by the shuffling unit on the recording side.
  • the output of the deshuffling unit is supplied to the outer code decoder, and error correction by the outer code is performed. When an uncorrectable error occurs, the error flag indicating the presence or absence of the error indicates that an error has occurred.
  • the output of the outer code decoder is supplied to the deshuffling and depacking unit.
  • the deshuffling and depacking unit performs a process of restoring the packing and shuffling on a macroblock basis performed by the recording-side packing and shuffling unit.
  • the packing applied during recording is disassembled. That is, the length of the data is returned in units of macro blocks, and the original variable-length code is restored.
  • the system data is separated, output from the ECC decoder 113, and supplied to a later-described system 121.
  • the output of the deshuffling and depacking unit is supplied to the data interpolation unit, and the data that has the error flag set (that is, has an error) is corrected. That is, if there is an error in the middle of the macroblock data before the conversion, the DCT coefficients of the frequency components after the error cannot be restored. Therefore, for example, the data at one error location is replaced with a block end code (EOB), and the DCT coefficients of the subsequent frequency components are set to zero. Similarly, during high-speed playback, only the DCT coefficients up to the length corresponding to the sync block length are restored, and the subsequent coefficients are replaced with zero data. Further, in the data interpolation section, when the header added to the head of the video data is an error, processing for recovering the header (sequence header, GOP header, picture header, user data, etc.) is also performed.
  • DCT coefficients are arranged from DC components and low-frequency components to high-frequency components across the DCT block, a macro block is constructed even if the DCT coefficients are ignored from a certain point onward. DCT coefficients from DC and low-frequency components can be distributed to each of the DCT blocks that do not.
  • the video data output from the data interpolation unit is the output of the ECC decoder 113.
  • the output of the ECC decoder 113 is a multi-format converter on the playback side (hereinafter abbreviated as MFC on the playback side).
  • MFC multi-format converter on the playback side
  • the reproduction-side MFC 114 performs processing reverse to that of the recording-side MFC 106 described above, and includes a stream compander.
  • the reproduction side MFC 106 is composed of, for example, one integrated circuit.
  • the stream converter processing opposite to that of the stream stream on the recording side is performed. That is, the DCT coefficients arranged for each frequency component across the DCT blocks are rearranged for each DCT block. This Thereby, the reproduction signal is converted into an elementary stream conforming to MPEG2.
  • a sufficient transfer rate (bandwidth) must be secured for the input and output of the stream converter according to the maximum length of the macroblock. If the length of the macroblock (slice) is not limited, it is preferable to secure a bandwidth three times the pixel rate.
  • the output of the stream compander is the output of the reproduction side MFC 114, and the output of the reproduction side MFC 114 is supplied to the SDTI output section 115 and the MPEG decoder 116.
  • the MPEG decoder 116 decodes the elementary stream and outputs a video image.
  • the elementary stream is supplied to the MPEG decoder 116, where pattern matching is performed, and a sequence header code and a time code are detected.
  • the encoded parameters stored in the header of each layer are extracted from the detected sequence header code, star, and code.
  • an inverse quantization process and an inverse DCT process are performed on the elementary stream based on the extracted encoding parameters.
  • the decoded video data output from the MPEG decoder 116 is supplied to the SDI output unit 118.
  • audio data separated from video data by the ECC decoder 113 is supplied to the SDI output unit 118 via the delay 117.
  • the SDI output section 118 the supplied video data and audio data are mapped to an SDI format and converted into a stream having a SDI format data structure.
  • the stream from the SDI output section 118 is output from the output terminal 120 to the outside.
  • the SDTI output The audio data that is separated from the video data is supplied by the digital camera 113. ⁇ 0 1 In the output section 1 15, the supplied video data as an elementary stream and the audio data are mapped to the format of the SDT I, and the format of the SDT I format is obtained. It is converted to a stream having an evening structure. The converted stream is output from the output terminal 119 to the outside.
  • An external device to which the SDTI stream is supplied from the output terminal 119 performs pattern matching on the supplied stream when the MPEG decoding process is necessary, and executes the sequence header. In addition to detecting the code and start code, it extracts the encoding parameters in the header of each layer. Then, based on the extracted encoding parameters, the supplied SDTI stream is decoded.
  • a system controller 122 is composed of, for example, a microcomputer, and controls the entire operation of the storage / reproduction device.
  • the servos 122 perform traveling control of the magnetic tape 112 and drive control of the rotating drum 111 while communicating with the system controller 121.
  • FIG. 17A shows the order of DCT coefficients in video data output from the DCT circuit of the MPEG encoder 102.
  • the output of the MPEG encoder 102 will be described as an example.
  • the DCT coefficients are output in a zigzag scan in the direction in which the horizontal and vertical spatial frequencies increase.
  • Fig. 17B a total of 64 DCT coefficients (8 pixels x 8 lines) are arranged in order of frequency component.
  • the DCT coefficients are obtained by the VLC section of the MPEG encoder. Variable length by Is encoded.
  • the first coefficient is fixed as a DC component, and codes are assigned to the next component (AC component) in accordance with the zero run and the subsequent levels. Therefore, the variable-length coded output for the coefficient data of the AC component is represented by Ad, AC 2 , AC 3 , ..., from the low (low-order) coefficient of the frequency component to the high (high-order) coefficient. They are arranged.
  • the element list contains variable length coded DC DC coefficients.
  • the DC ⁇ coefficients of the supplied signal are rearranged. That is, in each macroblock, the DCC coefficients arranged in the order of frequency components for each DCblock by the zigzag scan are rearranged in the order of frequency components for each DCblock constituting the macroblock.
  • FIG. 18 schematically shows the rearrangement of the DC ⁇ coefficients in the recording-side stream comparator. (4: 2: 2) If the component signal, one macro block, four DC T blocks by the luminance signal ⁇ ( ⁇ 1, ⁇ 2, ⁇ 3 and Upsilon 4) and the chromaticity signal C b, It consists of two DCT blocks (C b, C b 2, C r] and C r 2) by each of C r.
  • zigzag scanning is performed in accordance with the MPEG2 rule, and as shown in FIG. 18A, the DCT coefficient and the low The frequency components are arranged in order from frequency components to high frequency components.
  • scanning of one DCT block is completed, scanning of the next DCT block is performed, and DCT coefficients are similarly arranged.
  • the recording-side stream converter decodes the variable-length coded and arranged DCT coefficients once, detects the break of each coefficient by decoding the variable-length code, and sets the frequency across each DCT block that constitutes the macro block.
  • the rearranged coefficient data is DC (Y,), DC (Y 2 ), DC (Y 3 ), DC ( ⁇ 4 ), DC (C b!), DC (C r,), DC (C b 2 ), DC (C r 2 ), Ad (Y,), Ad (Y 2 ), AC i (Y 3 ), AC i (Y 4 ), AC, (C b,), Ad (C r,) , AC, (C b 2 ), AC, (C r 2),.
  • DC, Ad, AC 2 ,... Are the codes of the variable-length code assigned to the set consisting of the run and the subsequent level, as described with reference to FIG. is there.
  • the converted element stream in which the order of the coefficient data is rearranged by the recording-side stream converter is supplied to a packing and shuffling unit built in the ECC encoder 109.
  • the data length of the macroblock is the same for the converted elementary stream and the elementary stream before conversion. Also, the MPEG encoder 102 Therefore, even if the length is fixed in GOP (one frame) units by bit rate control, the length varies in macroblock units. In the packing and shuffling sections, macroblock data is applied to fixed frames.
  • FIG. 19 schematically shows a packing process of a macroblock in a packing and shuffling unit.
  • Macroblocks are applied to fixed frames having a predetermined data length and are packed.
  • the data length of the fixed frame used at this time matches the data length of the sync block, which is the minimum unit of data during recording and reproduction. This is to simplify the processing of shuffling and error correction coding.
  • Fig. 19 for simplicity, it is assumed that one frame contains eight macroblocks.
  • the lengths of the eight macroblocks are different from each other as shown in an example in FIG. 19A.
  • the data of macro block # 1 data of # 3 and data of # 6 are longer than the data area of one sync block, which is a fixed frame, and the data of macro block # 2 is longer. Evening, # 5 day, # 7 data and # 8 day are short.
  • the data of macro block # 4 has a length substantially equal to one sync block.
  • the macro block is packed into a fixed-length frame of one sync block length by the packing process. Data can be packed without excess or shortage because the amount of data generated in one frame period is controlled to a fixed amount.
  • FIG. 19B an example of a macroblock longer than one sync block is divided at a position corresponding to the sync block length. Of the divided macroblocks, the part that overflows the sync block length (overflow part) is free from the top in order. Area, ie, after a macroblock whose length is less than the sync block length.
  • the portion of macro block # 1 that extends beyond the sync block length is packed first after macro block # 2. Packed behind # 5.
  • the portion of macro block # 3 that extends beyond the sync block length is packed after macro block # 7.
  • the part that protrudes from the sync block length of macro block # 6 is packed after macro block # 7
  • the part that protrudes from macro block # 8 is packed after macro block # 8. In this way, each macroblock is packed into a fixed frame of the sink block length.
  • FIG. 20 shows the packing process for one frame of data more specifically.
  • macroblocks MB1 to MB4 at dispersed positions on the screen are arranged in order as shown in FIG. 25B.
  • a header of the sequence layer and a header of the picture layer are added to each frame, and a header portion composed of these headers is also subjected to packing processing as being equivalent to the first macroblock.
  • Overflow portions that protrude from the fixed frame are stuffed into empty areas in order, as shown in Figure 20C.
  • the overflow portion is indicated as 300, 301, 302.
  • the data packed in this way is recorded on the magnetic tape 112 as shown in FIG. 20D.
  • a depacking process that is the reverse of the packing process is performed. The depacking process requires that all data for one frame be available. When multiple frames of data are mixed in one frame of data, such as during high-speed playback, depacking cannot be performed. Therefore, during high-speed playback, only the data allocated from the top of each fixed frame is used, and overflow data is not used.
  • FIG. 21 shows a more specific configuration of the ECC encoder 109 described above.
  • reference numeral 164 denotes an interface of the main memory 160 external to the IC.
  • the main memory 160 is constituted by SDRAM.
  • the interface 164 arbitrates a request from the inside to the main memory 160, and performs write Z read processing to the main memory 160.
  • a packing and shuffling unit is constituted by the packing unit 1337a, the video shuffling unit 1337b, and the packing unit 1337c.
  • FIG. 22 shows an example of the address configuration of the main memory 160.
  • the main memory 160 is composed of, for example, a 64 Mbit SDRAM.
  • the main memory 160 has a video area 250, an overflow area 251, and an audio area 250.
  • the video area 250 is composed of four banks (vbank # 0, vbank #l, vbank # 2 and vbank # 3). Each of the four banks can store a digital video signal of one equal length unit.
  • One isometric unit is a unit for controlling the amount of generated data to a substantially target value, for example, one picture of a video signal. Char (I picture).
  • Part A in FIG. 22 shows the data part of one sync block of the video signal. Data of a different number of bytes is inserted into one sync block depending on the format. In order to support a plurality of formats, the number of bytes that is more than the maximum number of bytes and is convenient for processing, for example, 256 bytes, is set as the data size of one sync block.
  • Each bank of the video area is further divided into a packing area 250A and an output area 250B to the inner encoding encoder.
  • the overflow area 251 consists of four banks corresponding to the above-mentioned video area.
  • the main memory 160 has an area for audio data processing.
  • the packing section 1337a stores the fixed frame length data and the overflow data that is beyond the fixed frame in the main memory 1. 60 separate areas are stored.
  • the fixed frame length data is data shorter than the length of the data area of the sync block, and is hereinafter referred to as block length data.
  • the area for storing the block length data is the packing processing area 250 A of each bank. If the data length is shorter than the block length, an empty area is created in the corresponding area of the main memory 160.
  • the video shuffling unit 13 7 b performs shuffling by controlling the write address.
  • the video shuffling unit 1337b shuffles only the block length data, and the overflow portion is written to the area allocated to the overflow data without shuffling.
  • the packing section 1337c performs processing of packing and reading the overflow portion into the memory for the outer code encoder 1339. That is, it is provided from the main memory 160 to the outer code encoder 1339.
  • the block length data is read into the memory of one ECC block, and if there is free space in the block length data, the overflow portion is read there and the data is read to the block length. To be clogged.
  • the reading process is suspended, and the outer code encoder 1339 generates the parity of the outer code.
  • the outer code parity is stored in the memory of the outer code encoder 139.
  • the data and the outer code parity from the outer code encoder 1339 are rearranged in the order in which the inner code is performed, and the packing processing area of the main memory 160 is provided. Write back to 250 A and another output area 250 B.
  • the video shuffling section 140 performs shuffling on a sync block basis by controlling the address when writing back the data after the encoding of the outer code to the main memory 160. .
  • the process of generating the outer code parity, and writing back the data and the outer code parity to the second area 250B of the main memory 160 is performed in units of 1 ECC block. Since the outer code encoder 1339 has a memory of the size of the ECC block, the frequency of access to the main memory 160 can be reduced.
  • a predetermined number of ECC blocks included in one picture for example, 3
  • the data read from the area 250B of the main memory 160 via the interface 164 is the ID. It is processed by the addition section 148, inner code encoder 147, and synchronization addition section 150, and the output data of the synchronization addition section 150 is converted into bit serial data by the parallel / serial conversion section 124. You.
  • the output serial data is processed by the partial and response class 4 precoders 125. This output is digitally modulated as necessary, and supplied to the rotary head provided on the rotating drum 111 via the recording amplifier 110.
  • null sync in which no effective data is allocated
  • the null sink is generated in the packing section 1337a of the packing and shuffling block 1337, and written to the main memory 160. Therefore, since the null sync has a data recording area, it can be used as a recording sync for the overflow portion.
  • the outer code encoder 1336 Since the ECC outer code sequence is composed of audio samples in the input order, the outer code encoder 1336 generates an outer code parity each time an outer code sequence audio sample is input.
  • the shuffling unit 147 performs shuffling (channel unit and sync block unit) by address control when writing the output of the outer code encoder 1 36 to the area 2 52 of the main memory 1 60.
  • a CPU interface indicated by 126 which receives data from an external CPU 127 that functions as a system controller and enables parameter settings for internal blocks. ing .
  • Sync block length, parity It is possible to set a lot of parameters, including the length of the head.
  • the "packing length data" as one of the parameters is sent to the packing units 13 7a and 13 7b, and the packing units 13 7a and 13 7b are determined based on this. Pack the VLC data in a fixed frame (the length shown as “sink block length” in Figure 19A).
  • the "pack number data" as one of the parameters is sent to the packing section 1337b, which determines the number of packs per sync block based on this.
  • the data for the number of packs is supplied to the outer code encoder 13 9.
  • the “video outer code parity number data” as one of the parameters is sent to the outer code encoder 13 9, and the outer code encoder 13 9 generates the number of parities based on this data of the video data. Encode the outer code.
  • ID information and "DID information” as one of the parameters is sent to the ID adding section 148, and the ID adding section 148 stores the ID information and the DID information in the main. It is added to the unit-length data string read from memory 160.
  • Each of "parameter number data for video inner code” and “parity number data for audio inner code” as one of the parameters is sent to inner code encoder 14 9, and inner code encoder 14 9 Based on these, the video data for which the number of parities are generated and the inner code of the audio are encoded.
  • one of the parameters “sink length data” is also sent to the inner code encoder 149, which regulates the unit length (sink length) of the inner coded data. Is done.
  • shuffling table data as one of the parameters is stored in the video shuffling table (R AM) 128 V and for the audio.
  • the shuffling table 128 V performs address conversion for the shuffling of the video shuffling units 1337b and 140b.
  • the shuffling table 128a performs an address conversion for audio shuffling 147.
  • the input video data when the input video data is encoded into an MPEG bit stream in the MPEG encoder 102, all frames are encoded as I-pictures in order to enable frame-by-frame editing. And one GOP is composed of one I picture. One slice is defined as one macroblock.
  • the header of the sequence layer and the quantization matrix are always added to all frames. In this way, the time relationship of the stream recorded on the tape differs from the original one due to editing or special playback (reverse playback, slow playback, high-speed playback, etc.), and the MPEG encoding grammar is changed. The occurrence of unsatisfactory problems can be prevented.
  • the MPEG bit stream may be input from the SDT I receiving unit 108.
  • a header of the sequence layer and a quantization matrix are added to all frames. Not necessarily. Therefore, in this embodiment, when the header of the sequence layer is not added to each frame in the recording-side MFC 106, an interpolation process of interpolating the header of the sequence layer is performed. Do. The same applies to the quantization matrix.
  • FIG. 23 shows an example of a header interpolator of the sequence layer.
  • Reference numeral 51 denotes an MPEG bit stream input from the SDTI receiving unit 108.
  • the output stream of the MPEG encoder 102 is sequenced frame by frame. Since the configuration is such that the header of the impedance layer is added, there is no need to perform processing in the interpolation unit.
  • the input stream 51 is supplied to the delay section 52 and the detection section 53.
  • the delay unit 52 generates a delay corresponding to the time during which the detection unit 53 performs the detection process.
  • the output of the delay section 52 is supplied to the RAM 54 and the selector 55, respectively.
  • the sequence layer header in the bitstream is written into the RAM 54.
  • the read output of the RAM 54 is supplied to the selector 55.
  • a ROM 56 is provided.
  • the ROM 56 stores in advance header information of a typical sequence layer according to the model of the digital VTR. For example, the header of the sequence layer corresponding to the format of the video data handled by the model is written. In this case, headers of a plurality of types of sequence layers may be written in the ROM 56, and the header of the sequence layer selected by the user or the like may be read from the ROM 56.
  • the header read from the ROM 56 is supplied to the selector 55. The selection operation of the selector 55 is controlled by the output of the detection unit 53.
  • the selector 55 When the header of the sequence layer is present in the stream from the delay section 52, the selector 55 outputs the stream in which the header of the sequence layer is added for each frame (picture) to the output stream. 5 Select as 7. If the sequence layer header does not exist, the sequence layer header stored in RAM 54 or ROM 56 is added to each frame of the stream, and a header is added for each frame. And output the stream. In this case, the sequence layer header stored in the RAM 54 is preferentially added to the sequence layer header stored in the ROM 56.
  • FIG. 23 shows the hardware configuration, some of the functions of the blocks may be processed by software, or all of the functions may be processed by software.
  • FIG. 24 is a flowchart showing a detection process of the detection unit 53 and a control process based on a detection result. It is determined in step S1 whether a sequence layer header exists in the input stream 51. In the following description, the presence / absence is detected. It is preferred to do so. If there is, the process moves to step S2, and the sequence layer header in the stream is written to the RAM 54. In the RAM 54, the header of the old sequence layer is overwritten with the header of the new sequence layer. Then, the header of the sequence layer in the incoming stream is directly added to each frame as the header of the sequence layer (step S3).
  • step S4 determines whether a sequence layer header exists in the RAM 54. If the sequence layer header exists in the RAM 54, in step S5, the contents of the RAM 54 are added to each frame as a sequence layer header. If it is determined in step S4 that the sequence layer header does not exist in the RAM 54, the contents of the ROM 56 are added to each frame as a sequence layer header in step S6. For example, immediately after the device is turned on, the sequence layer header does not exist in the RAM 54.
  • the output stream from the selector 55 is made to have the sequence layer header added to each frame.
  • the header of the sequence layer has been described.
  • the quantization matrix can be interpolated by exactly the same processing, and the quantization matrix must be added to each frame in the output stream. Can be.
  • the present invention has been described as being applied to a digital VTR that records a stream of MPEG or JPEG data.
  • the present invention is also applicable to compression coding having another hierarchical structure. It is. In this case, a header of the highest hierarchy corresponding to the sequence header is added to each frame.
  • the present invention is applicable even if the recording medium is other than a magnetic tape. If the data stream is recorded directly, it can be applied to, for example, a disk-shaped recording medium such as a hard disk or a DVD (Digital Versatile Disc), or a RAM recorder using a semiconductor memory as a recording medium. is there.
  • the present invention by performing frame-by-frame editing, it is possible to prevent the bit stream from satisfying the coding grammar. Further, according to the present invention, unlike the case where the sequence layer is recorded only at a predetermined position such as the head position of the tape,

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Television Signal Processing For Recording (AREA)

Description

明 細 書
記録装置および方法
技術分野
この発明は、 可変長符号を用いて圧縮符号化されたディジタルビデ ォ信号を、 所定の等長化単位で記録媒体に記録する記録装置および方 法に関する。
背景技術
ディジタル VT R (Video Tape Recorder) に代表されるように、 デ ィジタルビデオ信号およびディジ夕ルオーディォ信号を記録媒体に記 録し、 また、 記録媒体から再生するようなデータ記録再生装置が知ら れている。 ディジタルビデオ信号は、 データ容量が膨大となるため、 所定の方式で圧縮符号化されて記録媒体に記録されるのが一般的であ る。 近年では、 MP E G 2 (Moving Picture Experts Group phase 2) 方式が圧縮符号化の標準的な方式として知られている。
上述の MP E G 2を始めとする画像圧縮技術では、 可変長符号を用 いてデータの圧縮率を高めている。 したがって、 圧縮しょうとする画 像の複雑さによって、 1画面分、 例えば 1 フレームあるいは 1フィー ルド当たりの圧縮後の符号量が変動する。
一方、 磁気テープやディスク記録媒体といった記録媒体にビデオ信 号を記録する記録装置、 特に VTRにおいては、 1 フレームや 1 フィ 一ルドが等長化の単位とされる。 すなわち、 1 フレームや 1 フィ一ル ド当たりの符号量を一定値以下に収め、 記憶媒体の一定容量の領域に 記録する。
VTRに等長化方式が採用される理由は、 記録媒体である磁気テー プ上での記録領域が 1 フレームの単位で構成されており、 この記録領 域に 1 フレーム分の記録データが過不足無く入る必要があるからであ る。 また、 記録時間に比例して記録媒体が消費されるため、 記録総量 や残量を、 正確に求めることができ、 高速サーチによる頭出し処理も 容易に行えるという利点がある。 また、 記録媒体の制御の観点からは 、 例えば記録媒体が磁気テープであれば、 等長化方式でデータを記録 することで、 力学的に駆動される磁気テープを等速度に保って走行さ せることで安定化を図れるという利点を有する。 これらの利点は、 デ イスク記録媒体であっても、 同様に適用させることができる。
可変長符号化方式と、 等長化方式とでは、 上述のように、 相反する 性質を有する。 近年では、 ビデオ信号を非圧縮のベースバンド信号で 入力し、 内部で M P E G 2や J P E G (Joint Photographic Experts Group)といった可変長符号により圧縮符号化を施して、 記録媒体に記 録する記録装置が出現している。 また、 可変長符号を用いて圧縮符号 化されたストリームを直接的に入出力および記録 Z再生するような記 録再生装置も提案されている。 なお、 以下では、 ディジタルビデオ信 号の圧縮符号化方式を M P E G 2であるとして説明する。
ここで、 M P E G 2のデ一夕ス トリーム構造について、 概略的に説 明する。 MP EG 2は、 動き補償予測符号化と、 D CTによる圧縮符 号化とを組み合わせたものである。 MP E G 2のデータ構造は、 階層 構造をなしており、 下位から、 ブロック層、 マクロブロック層、 スラ イス層、 ピクチャ層、 GO P (Group Of Picture)層およびシーケンス 層となっている。
ブロック層は、 D C Tを行う単位である D C Tブロックからなる。 マクロブロック層は、 複数の D C Tブロックで構成される。 スライス 層は、 ヘッダ部と、 1以上のマクロブロックより構成される。 ピクチ ャ層は、 ヘッダ部と、 1以上のスライスとから構成される。 ピクチャ は、 1画面に対応する。 GOP層は、 ヘッダ部と、 I ピクチャ(Intra - coded picture: イントラ符号化画像) と、 Pピクチャ(Pred i c t i ve - coded picture : 順方向予測符号化画像) と、 Bピクチャ(Bi d i rec t i onal ly pred i c t i ve— coded picture : 両方向予測符号ィ匕画像) と力 ら 構成される。
I ピクチャは、 符号化されるときその画像 1枚の中だけで閉じた情 報を使用するものである。 従って、 復号時には、 I ピクチャ自身の情 報のみで復号できる。 Pピクチャは、 予測画像 (差分をとる基準とな る画像) として、 時間的に前の既に復号された I ピクチャまたは Pピ クチャを使用するものである。 動き補償された予測画像との差を符号 化するか、 差分を取らずに符号化するか、 効率の良い方をマクロプロ ック単位で選択する。 Bピクチャは、 予測画像 (差分をとる基準とな る画像) として、 時間的に前の既に復号された I ピクチャまたは Pピ クチャ、 時間的に後ろの既に復号された I ピクチャまたは Pピクチャ 、 並びにこの両方から作られた補間画像の 3種類を使用する。 この 3 種類のそれぞれの動き補償後の差分の符号化と、 イントラ符号化の中 で、 最も効率の良いものをマクロブロック単位で選択する。
従って、 マクロブロックタイプとしては、 フレーム内符号化(Intra ) マクロブロックと、 過去から未来を予測する順方向(Forward) フレ —ム間予測マクロブロックと、 未来から過去を予測する逆方向(Backw ard)フレーム間予測マクロブロックと、 前後両方向から予測する両方 向マクロブロックとがある。 I ピクチャ内の全てのマクロブロックは 、 フレーム内符号化マクロブロックである。 また、 Pピクチャ内には 、 フレーム内符号化マクロプロックと順方向フレーム間予測マクロブ ロックとが含まれる。 Bピクチャ内には、 上述した 4種類の全ての夕 イブのマクロブロックが含まれる。
マクロブロックは、 複数の D C Tブロックの集合であり、 画面 (ピ クチャ) を 1 6画素 X 1 6ラインの格子状に分割したものである。 ス ライスは、 例えばこのマクロブロックを水平方向に連結してなるもの である。 画面のサイズが決まると、 1画面当たりのマクロブロック数 は、 一意に決まる。
M P E Gのフォーマッ トにおいては、 スライスが 1つの可変長符号 系列である。 可変長符号系列とは、 可変長符号を復号化しなければデ 一夕の境界を検出できない系列である。 M P E Gストリームの復号時 には、 スライスのヘッダ部を検出し、 可変長符号の始点と終点とを見 つけ出す。
M P E Gでは、 1スライスを 1ス トライプ ( 1 6ライン) で構成す るのが普通であり、 画面の左端から可変長符号化が始まり、 右端で終 わる。 したがって、 V T Rによって M P E Gストリームがそのまま記 録された記録媒体を、 高速再生したときに、 再生できる部分が画面の 左端に集中し、 均一に更新することができない。 また、 デ一夕のテ一 プ上の配置を予測できないため、 テープパターンを一定の間隔でトレ ースしたのでは、 均一な画面更新ができなくなる。 さらに、 1箇所で もエラーが発生すると、 画面右端まで影響し、 次のスライスヘッダが 検出されるまで復帰できない。 好ましくは、 1スライスを 1マクロブ 口ックで構成することによって、 このような不都合を回避することが できる。
一方、 ビデオ信号は、 回転するヘッ ドで斜めにトラックを形成する ヘリカルトラック方式によって、 磁気テープ上に記録される。 1 トラ ックにおいて、 シンクブロックを記録の最小単位として、 シンクプロ ックがデータの種類毎にグループ化されてセクタが形成される。 また 、 1 フレーム分の記録デ一夕が記録される記録領域が所定のものとさ れる。 例えば、 8 トラックを用いて 1フレームの記録データが記録さ れる。
また、 ディジタル VTRでは、 編集処理が行われるのが普通である 。 編集処理は、 なるべく細かい単位で行われることが好ましい。 MP E G 2のストリームを記録している場合には、 編集単位として GO P 単位が考えられる。 G〇 P単位として前後の他の G〇 Pの画像を使用 しないで復調できるクローズド G〇Pの構成とすることによって、 G O P単位の編集処理が可能である。 しかしながら、 GOPが例えば 1 5フレームから構成されている場合では、 編集単位が大きすぎる問題 がある。
そして、 MP E Gでは、 ランダムアクセスを可能とするために、 複 数枚のピクチャのまとまりである GOP (Group Of Picture)構造が規 定されている。 G〇 Pに関する MP EGの規則では、 第 1にビッ トス トリーム上で、 G〇 Pの最初が I ピクチャであること、 第 2に、 原画 像の順で、 GO Pの最後が I または Pピクチャであることが規定され ている。 また、 G〇 Pとしては、 以前の GO Pの最後の I または Pピ クチャからの予測を必要とする構造も許容されている。 以前の GO P の画像を使用しないで復号できる GOPは、 クローズド GOPと称さ れる。
MP E Gでは、 GOP単位のフレーム相関を用いてコーディングを 行なっているので、 M P E Gビッ トス トリームを編集する時には、 制 約が発生する。 すなわち、 GOPの切れ目と編集点を一致させれば、 クローズド GO Pであれば、 特に問題が生じない。 しかしながら、 通 常、 一つの G〇Pの長さは、 0. 5秒程度のことが多く、 編集点とし ては、 期間が長くなりすぎる。 そこで、 一般的には、 フレーム (ピク チヤ) 単位の精度で編集を行うことが好ましい。
しかしながら、 MP E Gストリ一ムが復号時に前または前後の画像 を必要とする予測画像が含まれていると、 フレーム単位の編集が不可 能となる。 そこで、 好ましくは、 全ての画像をフレーム内符号化 (ィ ントラフレーム) で符号化し、 1 G O Pを 1つのイントラピクチャで 構成する。 このように規定したストリームも、 M P E G 2の符号化の 文法 (シンタックス) を満たしている。
また、 シーケンス層、 G O P層、 ピクチャ層、 スライス層およびマ クロブロック層の先頭には、 それぞれ所定のビッ トパターンからなる 識別コードが配され、 識別コードに続けて、 各層の符号化パラメ一夕 が格納されるヘッダ部が配される。 M P E G 2の復号化を行う M P E Gデコーダでは、 パターンマッチングにより識別コードを抽出して階 層を判別し、 ヘッダ部に格納されたパラメ一夕情報に基づき、 M P E Gストリ一ムの復号化を行う。 ピクチャ層より下位の層のへッダは、 各フレーム毎に必要な情報であるので、 必ず各フレーム毎に付加する 規則とされている。 一方、 シーケンス層のヘッダは、 シーケンスおよ び G O Pに 1回付加すれば良く、 各フレームに付加する必要はない。
ここで、 シーケンス層のヘッダについて注目する。 シーケンス層の ヘッダに含まれる情報として、 画素数、 ビッ トレート、 プロファイル 、 レベル、 色差フォーマッ ト、 プログレッシブシーケンス等が指定さ れる。 これらの情報は、 例えばビデオテープ 1卷を 1シーケンスとみ なした時に、 通常、 同じ値が指定され、 ビデオテープの先頭にシーケ ンス層のヘッダを付加すれば、 M P E Gの符号化文法上では問題がな レ 。 また、 量子化マトリクスは、 M P E Gの符号化文法上、 シーケン ス層以外のヘッダ (シーケンス層のヘッダまたはピクチャ層のヘッダ ) に存在する場合もある。 M P E Gの符号化文法上では、 量子化マト リクスを付加しても付加しなくてもよいものとされている。
このように 1 フレームの精度でもって編集を行うことが可能となる 。 しかしながら、 編集後のテープは、 編集前のテープと比較して各フ レーム間で時間的関係が反転する可能性がある。 第 2 5図は、 この問 題点を概略的に示すものである。 第 2 5図 Aは、 編集前のストリーム の時間的関係を示す。 フレーム 4およびフレーム 5のそれぞれのピク チヤデ一夕に対して、 ピクチャヘッダが付加されているが、 シ一ケン ス層のヘッダおよび G O P層のへッダが付加されていない。 しかしな がら、 前のフレーム 3に付加されているシーケンス層のヘッダおよび G O P層のヘッダの情報を使用することによって、 これらのピクチャ データを復号することができる。
編集処理によって、 フレーム間の時間的関係が反転し、 例えば、 第 2 5図 Bに示すように、 フレーム 3の前のフレーム 1およびフレーム 2の時間的位置にフレーム 4およびフレーム 5の時間的位置にあった ピクチャデータが存在することが生じる。 この例から分かるように、 編集後では、 ビデオテープの先頭にシーケンス層のへッダが現れない 場合が生じたり、 ビデオテープ 1巻を通してどこにもシーケンス層の ヘッダが存在しない場合が生じる。 このように、 編集される前のテー プは、 M P E Gの符号化文法を満足していても、 編集された後のテー プが M P E Gの符号化文法を満足できなくなる問題が生じる。 M P E Gの符号化文法を満足しないことは、 M P E G復号ができなくなる事 態を招く。 なお、 G O P層のヘッダは、 上述したように、 1 G O Pを 1つの I ピクチャで構成しているので、 G O P層のへッダが得られな くても、 問題がない。 また、 テープの先頭にのみシーケンス層のへッ ダが記録されている場合では、 テープの先頭以外の任意の位置から再 生を行った時に、 シーケンス層のヘッダを取得できない問題がある。 さらに、 逆転再生する場合でも、 編集処理と同様に、 時間関係の反転 が生じる。 よりさらに、 高速再生、 スロー再生等の特殊再生時には、 テープ上に記録されている全てのデータを再生できないので、 シ一ケ ンス層のヘッダを得ることができないことが生じる。
さらに、 量子化マトリクスは、 M P E Gの符号化文法では、 シーケ ンス層以外のヘッダに存在することもあるが、 各フレームに必ず存在 するものと規定されていない。 したがって、 量子化マトリクスも、 シ 一ケンス層のヘッダと同様に、 フレーム単位の編集後では、 M P E G 復号に先立って得られない事態が生じる問題があり、 任意のテープ上 の位置からの再生を行う時または特殊再生時にシーケンス層のへッダ を取得できないおそれが生じる問題がある。
したがって、 この発明の目的は、 フレーム単位の編集を可能とし、 また、 任意の位置からの通常再生を行う時、 または逆転再生等の特殊 再生時に再生ビッ トス トリームが符号化文法を満足することを保証で きる記録装置および方法を提供することにある。
発明の開示
請求の範囲 1の発明は、 上述した課題を解決するために、 ディジ夕 ルビデオ信号を圧縮符号化し、 複数の階層からなる階層構造を有する ビッ トス トリームを生成し、 ビッ トストリームを記録媒体に記録する 記録装置において、
ディジタルビデオ信号の全てをフレーム内符号化によって圧縮する 符号化手段と、
各フレームのビッ トス卜リームに対して最上位階層のへッダを付加 する手段と、
最上位階層のヘッダが付加されたビッ トストリームを記録媒体上に 記録する手段とからなることを特徴とする記録装置である。
請求の範囲 5の発明は、 ディジタルビデオ信号を圧縮符号化し、 複 数の階層からなる階層構造を有するビッ トストリームを生成し、 ビッ トストリームを記録媒体に記録する記録装置において、
ディジタルビデオ信号の全てをフレーム内符号化によって圧縮する 符号化手段と、
各フレームのビッ トストリームに対して量子化マトリクスを付加す る手段と、
量子化マトリクスが付加されたビッ トストリ一ムを記録媒体上に記 録する手段とからなることを特徴とする記録装置である。
請求の範囲 9の発明は、 ディジタルビデオ信号を圧縮符号化し、 複 数の階層からなる階層構造を有するビッ トストリームを生成し、 ビッ トストリームを記録媒体に記録する記録方法において、
ディジタルビデオ信号の全てをフレーム内符号化によって圧縮し、 各フレームのビッ トス卜リームに対して最上位階層のヘッダを付加 し、
最上位階層のヘッダが付加されたビッ トス卜リームを記録媒体上に 記録することを特徴とする記録方法である。
請求の範囲 1 0の発明は、 ディジタルビデオ信号を圧縮符号化し、 複数の階層からなる階層構造を有するビッ トストリームを生成し、 ビ ッ トストリームを記録媒体に記録する記録方法において、
ディジタルビデオ信号の全てをフレーム内符号化によって圧縮し、 各フレームのビッ トストリームに対して量子化マトリクスを付加し 量子化マトリクスが付加されたビッ トストリームを記録媒体上に記 録することを特徴とする記録方法である。
この発明は、 全てのフレームのデ一夕をフレーム内符号化によって 符号化することによって、 フレーム単位の編集を可能とする。 そして 、 記録媒体上に記録する時には、 各フレームに対してシーケンス層の ヘッダ、 量子化マトリクスをそれぞれ付加する。 それによつて、 編集 後のデータ、 逆転再生等の特殊再生による再生データが符号化文法を 満足しなくなることを防止できる。
図面の簡単な説明
第 1図は、 一般的な M P E G 2ストリームの階層構造を概略的に示 す略線図である。
第 2図は、 MP E G 2のストリーム中に配されるデータの内容とビ ット割り当てを示す略線図である。
第 3図は、 MP E G 2のストリーム中に配されるデータの内容とビ ッ ト割り当てを示す略線図である。
第 4図は、 MP E G 2のストリーム中に配されるデータの内容とビ ッ ト割り当てを示す略線図である。
第 5図は、 MP E G 2のストリーム中に配されるデータの内容とビ ッ ト割り当てを示す略線図である。
第 6図は、 MP E G 2のストリーム中に配されるデータの内容とビ ッ ト割り当てを示す略線図である。
第 7図は、 MP E G 2のストリーム中に配されるデータの内容とビ ッ ト割り当てを示す略線図である。
第 8図は、 MP E G 2のストリーム中に配されるデータの内容とビ ット割り当てを示す略線図である。
第 9図は、 MP E G 2のストリ一ム中に配されるデータの内容とビ ッ ト割り当てを示す略線図である。
第 1 0図は、 MP E G 2のストリ一ム中に配されるデ一夕の内容と ビッ ト割り当てを示す略線図である。
第 1 1図は、 MP E G 2のストリーム中に配されるデータの内容と ビッ 卜割り当てを示す略線図である。 第 1 2図は、 M P E G 2のストリーム中に配されるデ一夕の内容と ビット割り当てを示す略線図である。
第 1 3図は、 デ一夕のバイ ト単位の整列を説明するための図である 第 1 4図は、 この発明の一実施形態における M P E Gストリームの データ構成を示す略線図である。
第 1 5図は、 この発明の一実施形態による記録再生装置の構成の一 例を示すブロック図である。
第 1 6図は、 磁気テープ上に形成されるトラックフォーマッ トの一 例を示す略線図である。
第 1 7図は、 ビデオエンコーダの出力の方法と可変長符号化を説明 するための略線図である。
第 1 8図は、 ビデオエンコーダの出力の順序の並び替えを説明する ための略線図である。
第 1 9図は、 順序の並び替えられたデータをシンクブロックにパッ キングする処理を説明するための略線図である。
第 2 0図は、 パッキング処理をより具体的に示す略線図である。 第 2 1図は、 E C Cエンコーダのより具体的な構成を示すブロック 図である。
第 2 2図は、 メインメモリのアドレス構成の一例を示す略線図であ る。
第 2 3図は、 この発明の一実施形態におけるシーケンス層のヘッダ の補間部のブロック図である。
第 2 4図は、 補間処理を説明するためのフローチヤ一トである。 第 2 5図は、 この発明の解決しょうとする課題を説明するための略 線図である。 発明を実施するための最良の形態
以下、 この発明をディジ夕ル VTRに対して適用した一実施形態に ついて説明する。 この一実施形態は、 放送局の環境で使用して好適な ものである。
この一実施形態では、 圧縮方式としては、 例えば MP E G 2方式が 採用される。 MP E G 2は、 動き補償予測符号化と、 DCTによる圧 縮符号化とを組み合わせたものである。 MP E G 2のデータ構造は、 階層構造をなしている。 第 1図は、 一般的な MP E G 2のビッ トスト リームの階層構造を概略的に示す。 第 1図に示されるように、 データ 構造は、 下位から、 マクロブロック層 (第 1図 E) 、 スライス層 (第 1図 D) 、 ピクチャ層 (第 1図 C) 、 GOP層 (第 1図 B) およびシ 一ケンス層 (第 1図 A) となっている。
第 1図 Eに示されるように、 マクロブロック層は、 D CTを行う単 位である D C Tブロックからなる。 マクロブロック層は、 マクロブロ ックヘッダと複数の D C Tブロックとで構成される。 スライス層は、 第 1図 Dに示されるように、 スライスヘッダ部と、 1以上のマクロブ ロックより構成される。 ピクチャ層は、 第 1図 Cに示されるように、 ピクチャヘッダ部と、 1以上のスライスとから構成される。 ピクチャ は、 1画面に対応する。 GOP層は、 第 1図 Bに示されるように、 G OPヘッダ部と、 フレーム内符号化に基づく ピクチャである I ピクチ ャと、 予測符号化に基づくピクチャである Pおよび Bピクチャとから 構成される。
MP EG符号化文法では、 GOPには、 最低 1枚の I ピクチャが含 まれ、 Pおよび Bピクチャは、 存在しなくても許容される。 最上層の シーケンス層は、 第 1図 Aに示されるように、 シーケンスヘッダ部と 複数の GO Pとから構成される。 MP EGのフォーマツ トにおいては 、 スライスが 1つの可変長符号系列である。 可変長符号系列とは、 可 変長符号を正しく復号化しなければデータの境界を検出できない系列 である。
また、 シーケンス層、 G O P層、 ピクチャ層およびスライス層の先 頭には、 それぞれ、 バイ ト単位に整列された所定のビッ トパターンを 有するスタートコードが配される。 この、 各層の先頭に配されるス夕 一卜コードを、 シーケンス層においてはシーケンスヘッダコード、 他 の階層においてはスタートコードと称し、 ビッ トパターンが 〔 0 0 0 0 0 1 x x〕 ( 1 6進表記) とされる。 2桁ずつ示され、 〔x x〕 は、 各層のそれぞれで異なるビッ トパターンが配されることを示 す。
すなわち、 スタートコードおよびシーケンスヘッダコードは、 4バ イ ト (= 3 2ビッ ト) からなり、 4バイ ト目の値に基づき、 後に続く 情報の種類を識別できる。 これらスタートコードおよびシーケンスへ ッダコードは、 バイ ト単位で整列されているため、 4バイ トのパター ンマッチングを行うだけで捕捉することができる。
さらに、 スタートコードに続く 1バイ トの上位 4ビッ トが、 後述す る拡張データ領域の内容の識別子となっている。 この識別子の値によ り、 その拡張データの内容を判別することができる。
なお、 マクロブロック層およびマクロブロック内の D C Tブロック には、 このような、 バイ ト単位に整列された所定のビッ トパターンを 有する識別コードは、 配されない。
各層のヘッダ部について、 より詳細に説明する。 第 1図 Aに示すシ 一ケンス層では、 先頭にシーケンスヘッダ 2が配され、 続けて、 シー ケンス拡張 3、 拡張およびユーザデータ 4が配される。 シーケンスへ ッダ 2の先頭には、 シーケンスヘッダコード 1が配される。 また、 図 示しないが、 シーケンス拡張 3およびユーザデータ 4の先頭にも、 そ れぞれ所定のスタートコ一ドが配される。 シーケンスヘッダ 2からか ら拡張およびユーザデ一夕 4までがシーケンス層のへッダ部とされる シーケンスヘッダ 2には、 第 2図に内容と割当ビッ トが示されるよ うに、 シーケンスヘッダコード 1、 水平方向画素数および垂直方向ラ イン数からなる符号化画像サイズ、 アスペク ト比、 フレームレート、 ビッ トレート、 V B V (Video Buffering Verifier)バッフアサイズ、 量子化マトリクスなど、 シーケンス単位で設定される情報がそれぞれ 所定のビッ ト数を割り当てられて格納される。
シーケンスへッダに続く拡張ス夕一トコ一ド後のシーケンス拡張 3 では、 第 3図に示されるように、 M P E G 2で用いられるプロフアイ ル、 レベル、 色差フォーマッ ト、 プログレッシブシーケンスなどの付 加デ一夕が指定される。 拡張およびユーザデータ 4は、 第 4図に示さ れるように、 シーケンス表示 () により、 原信号の RGB変換特性や 表示画サイズの情報を格納できると共に、 シーケンススケ一ラブル拡 張 0 により、 スケーラビリティモ一ドゃスケ一ラビリティのレイヤ 指定などを行うことができる。
シーケンス層のヘッダ部に続けて、 GOPが配される。 G〇Pの先 頭には、 第 1図 Bに示されるように、 GOPヘッダ 6およびユーザデ 一夕 7が配される。 GOPヘッダ 6およびユーザデ一夕 7が G〇 Pの ヘッダ部とされる。 GO Pヘッダ 6には、 第 5図に示されるように、 G〇Pのスタートコード 5、 タイムコード、 GO Pの独立性や正当性 を示すフラグがそれぞれ所定のビッ ト数を割り当てられて格納される 。 ユーザデータ 7は、 第 6図に示されるように、 拡張デ一夕およびュ 一ザデータを含む。 図示しないが、 拡張データおよびユーザデータの 先頭には、 それぞれ所定のス夕一トコードが配される。
G O P層のヘッダ部に続けて、 ピクチャが配される。 ピクチャの先 頭には、 第 1図 Cに示されるように、 ピクチャヘッダ 9、 ピクチャ符 号化拡張 1 0、 ならびに、 拡張およびユーザデータ 1 1が配される。 ピクチャヘッダ 9の先頭には、 ピクチャスタートコード 8が配される 。 また、 ピクチャ符号化拡張 1 0、 ならびに、 拡張およびユーザデー 夕 1 1の先頭には、 それぞれ所定のスタートコードが配される。 ピク チヤヘッダ 9から拡張およびユーザデータ 1 1までがピクチャのへッ ダ部とされる。
ピクチャヘッダ 9は、 第 7図に示されるように、 ピクチャスタート コード 8が配されると共に、 画面に関する符号化条件が設定される。 ピクチャ符号化拡張 1 0では、 第 8図に示されるように、 前後方向お よび水平 Z垂直方向の動きべク トルの範囲の指定や、 ピクチャ構造の 指定がなされる。 また、 ピクチャ符号化拡張 1 0では、 イントラマク ロブロックの D C係数精度の設定、 V L Cタイプの選択、 線型/非線 型量子化スケールの選択、 D C Tにおけるスキャン方法の選択などが 行われる。
拡張およびユーザデータ 1 1では、 第 9図に示されるように、 量子 化マトリクスの設定や、 空間スケーラブルパラメ一夕の設定などが行 われる。 これらの設定は、 ピクチャ毎に可能となっており、 各画面の 特性に応じた符号化を行うことができる。 また、 拡張およびユーザデ 一夕 1 1では、 ピクチャの表示領域の設定を行うことが可能となって いる。 さらに、 拡張およびユーザデ一夕 1 1では、 著作権情報を設定 することもできる。
ピクチャ層のヘッダ部に続けて、 スライスが配される。 スライスの 先頭には、 第 1図 Dに示されるように、 スライスヘッダ 1 3が配され 、 スライスヘッ ド 1 3の先頭に、 スライススタートコード 1 2が配さ れる。 第 1 0図に示されるように、 スライススタートコード 1 2は、 当該スライスの垂直方向の位置情報を含む。 スライスヘッダ 1 3には 、 さらに、 拡張されたスライス垂直位置情報や、 量子化スケール情報 などが格納される。
スライス層のヘッダ部に続けて、 マクロブロックが配される (第 1 図 E ) 。 マクロブロックでは、 マクロブロックヘッダ 1 4に続けて複 数の D C Tブロックが配される。 上述したように、 マクロブロックへ ッダ 1 4にはスタートコ一ドが配されない。 第 1 1図に示されるよう に、 マクロブロックヘッダ 1 4は、 マクロブロックの相対的な位置情 報が格納されると共に、 動き補償モードの設定、 D C T符号化に関す る詳細な設定などを指示する。
マクロブ口ックヘッダ 1 4に続けて、 D C Tブロックが配される。 D C Tブロックは、 第 1 2図に示されるように、 可変長符号化された D C T係数および D C T係数に関するデータが格納される。
なお、 第 1図では、 各層における実線の区切りは、 データがバイ ト 単位に整列されていることを示し、 点線の区切りは、 データがバイ ト 単位に整列されていないことを示す。 すなわち、 ピクチャ層までは、 第 1 3図 Aに一例が示されるように、 符号の境界がバイ ト単位で区切 られているのに対し、 スライス層では、 スライススタートコード 1 2 のみがバイ ト単位で区切られており、 各マクロブロックは、 第 1 3図 Bに一例が示されるように、 ビッ ト単位で区切ることができる。 同様 に、 マクロブロック層では、 各 D C Tブロックをビッ ト単位で区切る ことができる。
一方、 復号および符号化による信号の劣化を避けるためには、 符号 化デ一夕上で編集することが望ましい。 このとき、 Pピクチャおよび Bピクチャは、 その復号に、 時間的に前のピクチャあるいは前後のピ クチャを必要とする。 そのため、 編集単位を 1 フレーム単位とするこ とができない。 この点を考慮して、 この一実施形態では、 1つの G O Pが 1枚の I ピクチャからなるようにしている。
また、 例えば 1 フレーム分の記録データが記録される記録領域が所 定のものとされる。 M P E G 2では、 可変長符号化を用いているので 、 1 フレーム期間に発生するデータを所定の記録領域に記録できるよ うに、 1 フレーム分の発生デ一夕量が制御される。 さらに、 この一実 施形態では、 磁気テープへの記録に適するように、 1スライスを 1マ クロブロックから構成すると共に、 1マクロブロックを、 所定長の固 定枠に当てはめる。
第 1 4図は、 この一実施形態における M P E Gス トリームのへッダ を具体的に示す。 第 1図で分かるように、 シーケンス層、 G〇 P層、 ピクチャ層、 スライス層およびマクロブロック層のそれぞれのヘッダ 部は、 シーケンス層の先頭から連続的に現れる。 第 1 4図は、 シーケ ンスへッダ部分から連続したデ一夕配列の一例を示している。
先頭から、 1 2バイ ト分の長さを有するシーケンスヘッダ 2が配さ れ、 続けて、 1 0バイ ト分の長さを有するシーケンス拡張 3が配され る。 シーケンス拡張 3の次には、 拡張およびユーザデータ 4が配され る。 拡張およびユーザデータ 4の先頭には、 4バイ 卜分のユーザデ一 タスタートコードが配され、 続くユーザデ一夕領域には、 S M P T E の規格に基づく情報が格納される。
シーケンス層のヘッダ部の次は、 G O P層のヘッダ部となる。 8バ ィ ト分の長さを有する G O Pヘッダ 6が配され、 続けて拡張およびュ 一ザデータ 7が配される。 拡張およびユーザデータ 7の先頭には、 4 バイ ト分のユーザデータスタートコ一ドが配され、 続くユーザデ一夕 領域には、 既存の他のビデオフォーマツ トとの互換性をとるための情 報が格納される。
G O P層のヘッダ部の次は、 ピクチャ層のヘッダ部となる。 9バイ 卜の長さを有するピクチャヘッダ 9が配され、 続けて 9バイ トの長さ を有するピクチャ符号化拡張 1 0が配される。 ピクチャ符号化拡張 1 0の後に、 拡張およびユーザデータ 1 1が配される。 拡張およびユー ザデータ 1 1の先頭側 1 3 3バイ トに拡張およびユーザデータが格納 され、 続いて 4バイ トの長さを有するユーザデータスタートコ一ドが 配される。 ユーザデータスタートコードに続けて、 既存の他のビデオ フォーマッ トとの互換性をとるための情報が格納される。 さらに、 ュ —ザデータスタートコ一ドが配され、 ユーザデータスタートコードに 続けて、 S M P T Eの規格に基づくデータが格納される。 ピクチャ層 のヘッダ部の次は、 スライスとなる。
マクロブロックについて、 さらに詳細に説明する。 スライス層に含 まれるマクロブロックは、 複数の D C Tブロックの集合であり、 D C Tブロックの符号化系列は、 量子化された D C T係数の系列を 0係数 の連続回数 (ラン) とその直後の非 0系列 (レベル) を 1つの単位と して可変長符号化したものである。 マクロブロックならびにマクロブ ロック内の D C Tブロックには、 バイ ト単位に整列した識別コードが 付加されない。
マクロブロックは、 画面 (ピクチャ) を 1 6画素 X 1 6ラインの格 子状に分割したものである。 スライスは、 例えばこのマクロブロック を水平方向に連結してなる。 連続するスライスの前のスライスの最後 のマクロブロックと、 次のスライスの先頭のマクロブロックとは連続 しており、 スライス間でのマクロブロックのオーバーラップを形成す ることは、 許されていない。 また、 画面のサイズが決まると、 1画面 当たりのマクロブロック数は、 一意に決まる。
画面上での垂直方向および水平方向のマクロブロック数を、 それぞ れ m b— h e i g h tおよび m b_w i d t hと称する。 画面上での マクロブロックの座標は、 マクロブロックの垂直位置番号を、 上端を 基準に 0から数えた m b— r o wと、 マクロブロックの水平位置番号 を、 左端を基準に 0から数えた mb— c o 1 umnとで表すように定 められている。 画面上でのマクロブロックの位置を一つの変数で表す ために、 ma c r o b 1 o c k― a d d r e s sを、
ma c r o 1 o c k一 a d d r e s s = m b― r o w x m b一 w i d t h +mb― c o l umn
このように定義する。
ストリーム上でのスライスとマク口ブロックの順は、 ma c r o b 1 o c k— a d d r e s sの小さい順でなければいけないと定められ ている。 すなわち、 ストリームは、 画面の上から下、 左から右の順に 伝送される。
MP E Gでは、 1スライスを 1ストライプ ( 1 6ライン) で構成す るのが普通であり、 画面の左端から可変長符号化が始まり、 右端で終 わる。 従って、 VTRによってそのまま MP E Gエレメン夕リストリ ームを記録した場合、 高速再生時に、 再生できる部分が画面の左端に 集中し、 均一に更新することができない。 また、 データのテープ上の 配置を予測できないため、 テープパターンを一定の間隔でトレースし たのでは、 均一な画面更新ができなくなる。 さらに、 1箇所でもエラ 一が発生すると、 画面右端まで影響し、 次のスライスヘッダが検出さ れるまで復帰できない。 このために、 1スライスを 1マクロブロック で構成するようにしている。
第 1 5図は、 この一実施形態による記録再生装置の記録側の構成の 一例を示す。 記録時には、 端子 1 0 0から入力されたディジタル信号 が S D I (Serial Data Interface) 受信部 1 0 1に供給される。 SD Iは、 (4 : 2 : 2 ) コンポーネントビデオ信号とディジタルオーデ ィォ信号と付加的データとを伝送するために、 SMPTEによって規 定されたインターフェイスである。 S D I受信部 1 0 1で、 入力され たディジ夕ル信号からディジタルビデオ信号とディジ夕ルオーディォ 信号とがそれぞれ抽出され、 ディジタルビデオ信号は、 MP E Gェン コーダ 1 0 2に供給され、 ディジタルオーディオ信号は、 ディ レイ 1 0 3を介して E C Cエンコーダ 1 0 9に供給される。 ディ レイ 1 0 3 は、 ディジタルオーディオ信号とディジタルビデオ信号との時間差を 解消するためのものである。
また、 S D I受信部 1 0 1では、 入力されたディジタル信号から同 期信号を抽出し、 抽出された同期信号をタイミングジェネレータ 1 0 4に供給する。 タイミングジェネレータ 1 04には、 端子 1 0 5から 外部同期信号を入力することもできる。 タイミングジェネレータ 1 0 4では、 入力されたこれらの同期信号および後述する S DT I受信部 1 0 8から供給される同期信号のうち、 指定された信号に基づきタイ ミングパルスを生成する。 生成されたタイミングパルスは、 この記録 再生装置の各部に供給される。
入力ビデオ信号は、 M P E Gエンコーダ 1 0 2において D C T (Dis crete Cosine Transform) の処理を受け、 係数データに変換され、 係 数データが可変長符号化される。 MP E Gエンコーダ 1 0 2からの可 変長符号化 (VL C) データは、 MP E G 2に準拠したエレメンタリ ストリーム (E S) である。 この出力は、 記録側のマルチフォ一マツ トコンバータ (以下、 MF Cと称する) 1 0 6の一方の入力端に供給 される。 一方、 入力端子 1 0 7を通じて、 S DT I (Serial Data Transport Interface) のフォーマッ トのデ一夕が入力される。 この信号は、 S D T I受信部 1 0 8で同期検出される。 そして、 バッファに一旦溜め 込まれ、 エレメンタリストリームが抜き出される。 抜き出されたエレ メンタリストリームは、 記録側 MF C 1 0 6の他方の入力端に供給さ れる。 同期検出されて得られた同期信号は、 上述したタイミングジェ ネレ一夕 1 04に供給される。
一実施形態では、 例えば MP E G E S (MP E Gエレメン夕リス トリ一ム) を伝送するために、 S D T I (Serial Data Transport Int erface) -C P (Content Package) が使用される。 この E Sは、 4 : 2 : 2のコンポーネントであり、 また、 上述したように、 全て I ピク チヤのストリームであり、 1 GO P = 1 ピクチャの関係を有する。 S DT I— C Pのフォーマッ トでは、 MP E G E Sがアクセスュニッ トへ分離され、 また、 フレーム単位のパケッ トにパッキングされてい る。 S D T I — C Pでは、 十分な伝送帯域 (クロックレートで 2 7 M Hzまたは 3 6 MHz、 ストリームビッ トレートで 2 7 0 M bpsまたは 3 6 0 M bps) を使用しており、 1フレーム期間で、 バースト的に E S を送ることが可能である。
すなわち、 1フレーム期間の S AVの後から EAVまでの間に、 シ ステムデータ、 ビデオストリーム、 オーディオストリーム、 AUXデ 一夕が配される。 1フレーム期間全体にデータが存在せずに、 その先 頭から所定期間バースト状にデ一夕が存在する。 フレームの境界にお いて S DT I— C Pのストリーム (ビデオおよびオーディオ) をス ト リームの状態でスィツチングすることができる。 S D T I — C Pは、 クロック基準として SMP TEタイムコードを使用したコンテンツの 場合に、 オーディオ、 ビデオ間の同期を確立する機構を有する。 さら に、 S D T I— C Pと S D I とが共存可能なように、 フォーマッ トが 決められている。
上述した S DT I— C Pを使用したィンタ一フェースは、 T S (Tra nsport Stream)を転送する場合のように、 エンコーダおよびデコーダ が VBV(Video Buffer Verifier) バッファおよび T B s (Transpor t Buffers) を通る必要がなく、 ディ レイを少なくできる。 また、 S D T I一 C P自体が極めて高速の転送が可能なこともディ レイを一層少 なくする。 従って、 放送局の全体を管理するような同期が存在する環 境では、 S D T I— C Pを使用することが有効である。
なお、 S DT I受信部 1 0 8では、 さらに、 入力された S D T I - C Pのス トリームからディジタルオーディオ信号を抽出する。 抽出さ れたディジ夕ルオーディォ信号は、 E C Cエンコーダ 1 0 9に供給さ れる。
記録側 MF C 1 0 6は、 セレクタおよびストリ一ムコンバータを内 蔵する。 記録側 MF C 1 0 6は、 例えば 1個の集積回路内に構成され る。 記録側 MF C 1 0 6において行われる処理について説明する。 上 述した MP E Gエンコーダ 1 0 2および S DT I受信部 1 0 8から供 給された MP EG E Sは、 セレクタで何れか一方が選択され、 記録 側 MF C 1 0 6において処理される。
記録側 MF C 1 0 6は、 M P E G 2の規定に基づき D C Tブロック 毎に並べられていた D C T係数を、 1マクロブロックを構成する複数 の DCTブロックを通して、 周波数成分毎にまとめ、 まとめた周波数 成分を並べ替える。 また、 エレメン夕リストリームの 1スライスが 1 ストライプの場合には、 1スライスを 1マクロブロックからなるもの にする。 さらに、 1マクロブロックで発生する可変長データの最大長 を所定長に制限する。 これは、 高次の D C T係数を 0とすることでな しうる。 よりさらに、 記録側 M F C 1 0 6は、 後述するように、 M P E Gビッ トストリームの各ピクチャに対してシーケンス層のヘッダお よび量子化マトリクスの補間処理を行う。 記録側 M F C 1 0 6におい て並べ替えられた変換エレメンタリストリームは、 E C Cエンコーダ 1 0 9に供給される。
E C Cエンコーダ 1 0 9は、 大容量のメインメモリが接続され (図 示しない) 、 パッキングおよびシャフリング部、 オーディオ用外符号 エンコーダ、 ビデオ用外符号エンコーダ、 内符号エンコーダ、 オーデ ィォ用シャフリング部およびビデオ用シャフリング部などを内蔵する 。 また、 E C Cエンコーダ 1 0 9は、 シンクブロック単位で I Dを付 加する回路や、 同期信号を付加する回路を含む。 E C Cエンコーダ 1 0 9は、 例えば 1個の集積回路で構成される。
なお、 一実施形態では、 ビデオデータおよびオーディオデータに対 するエラー訂正符号としては、 積符号が使用される。 積符号は、 ビデ ォデ一夕またはオーディォデ一夕の 2次元配列の縦方向に外符号の符 号化を行い、 その横方向に内符号の符号化を行い、 データシンボルを 2重に符号化するものである。 外符号および内符号としては、 リード ソロモンコード(Reed- So l omon c o de) を使用できる。
E C Cエンコーダ 1 0 9における処理について説明する。 エレメン 夕リストリームのビデオデータは、 可変長符号化されているため、 各 マクロブロックのデータの長さが不揃いである。 パッキングおよびシ ャフリング部では、 マクロブロックが固定枠に詰め込まれる。 このと き、 固定枠からはみ出たオーバーフロー部分は、 固定枠のサイズに対 して空いている領域に順に詰め込まれる。
また、 画像フォーマッ ト、 シャフリングパターンのバ一ジョン等の 情報を有するシステムデ一夕が、 後述するシスコン 1 2 1から供給さ れ、 図示されない入力端から入力される。 システムデータは、 パツキ ングおよびシャフリング部に供給され、 ピクチャデ一夕と同様に記録 処理を受ける。 システムデータは、 ビデオ A U Xとして記録される。 また、 走査順に発生する 1 フレームのマクロブロックを並び替え、 テ —プ上のマクロブ口ックの記録位置を分散させるシャフリングが行わ れる。 シャフリングによって、 変速再生時に断片的にデータが再生さ れる時でも、 画像の更新率を向上させることができる。
パッキングおよびシャフリング部からのビデオデ一夕およびシステ ムデ一夕 (以下、 特に必要な場合を除き、 システムデ一夕を含む場合 も単にビデオデータと称する) は、 ビデオデータに対して外符号化の 符号化を行うビデオ用外符号エンコーダに供給され、 外符号パリティ が付加される。 外符号エンコーダの出力は、 ビデオ用シャフリング部 で、 複数の E C Cブロックにわたつてシンクプロック単位で順番を入 れ替える、 シャフリングがなされる。 シンクブロック単位のシャフリ ングによって特定の E C Cブロックにエラーが集中することが防止さ れる。 シャフリング部でなされるシャフリングを、 インターリーブと 称することもある。 ビデオ用シャフリング部の出力は、 メインメモリ に書き込まれる。
一方、 上述したように、 S D T I受信部 1 0 8あるいはディ レイ 1 0 3から出力されたディジ夕ルオーディォ信号が E C Cエンコーダ 1 0 9に供給される。 この一実施形態では、 非圧縮のディジタルオーデ ィォ信号が扱われる。 ディジタルオーディオ信号は、 これらに限らず 、 オーディオイン夕一フェースを介して入力されるようにもできる。 また、 図示されない入力端子から、 オーディオ A U Xが供給される。 オーディオ A U Xは、 補助的データであり、 オーディオデータのサン プリング周波数等のオーディォデータに関連する情報を有するデータ である。 オーディオ A U Xは、 オーディオデ一夕に付加され、 オーデ ィォデータと同等に扱われる。
オーディオ A U Xが付加されたオーディオデータ (以下、 特に必要 な場合を除き、 A U Xを含む場合も単にオーディォデータと称する) は、 オーディオデ一夕に対して外符号の符号化を行うオーディオ用外 符号エンコーダに供給される。 オーディォ用外符号エンコーダの出力 がオーディオ用シャフリング部に供給され、 シャフリング処理を受け る。 オーディオシャフリングとして、 シンクブロック単位のシャフリ ングと、 チヤンネル単位のシャフリングとがなされる。
オーディオ用シャフリング部の出力は、 メインメモリに書き込まれ る。 上述したように、 メインメモリには、 ビデオ用シャフリング部の 出力も書き込まれており、 メインメモリで、 オーディオデータとビデ ォデータとが混合され、 1チャンネルのデータとされる。
メインメモリからデータが読み出され、 シンクブロック番号を示す 情報等を有する I Dが付加され、 内符号エンコーダに供給される。 内 符号エンコーダでは、 供給されたデータに対して内符号の符号化を施 す。 内符号エンコーダの出力に対してシンクプロック毎の同期信号が 付加され、 シンクブロックが連続する記録データが構成される。
E C Cエンコーダ 1 0 9から出力された記録データは、 記録アンプ などを含むイコライザ 1 1 0に供給され、 記録 R F信号に変換される 。 記録 R F信号は、 回転ヘッ ドが所定に設けられた回転ドラム 1 1 1 に供給され、 磁気テープ 1 1 2上に記録される。 回転ドラム 1 1 1に は、 実際には、 隣接する トラックを形成するヘッ ドのアジマスが互い に異なる複数の磁気ヘッ ドが取り付けられている。
記録データに対して必要に応じてスクランブル処理を行っても良い 。 また、 記録時にディジタル変調を行っても良く、 さらに、 パーシャ ル ' レスポンスクラス 4とビ夕ビ符号を使用しても良い。 なお、 ィコ ライザ 1 1 0は、 記録側の構成と再生側の構成とを共に含む。
第 1 6図は、 例えば、 フレーム周波数が 2 9. 9 7Hzで、 7 2 0画 素 (有効水平画素数) X 4 8 0ライン (有効ライン数) のサイズを有 し、 イン夕一レスのビデオ信号と、 4チャンネルの P C Mオーディオ 信号とを回転へッ ドにより磁気テープ上に記録する場合のトラックフ ォーマッ トを示す。 この例では、 1フレーム当たりのビデオおよびォ 一ディォデ一夕が 4 トラックで記録されている。 互いに異なるアジマ スの 2 トラックが 1組とされる。 トラックのそれぞれにおいて、 略中 央部にオーディオデータの記録領域 (オーディオセクタ) が設けられ 、 オーディォセクタを挟んで両側にビデオデータが記録されるビデオ 記録領域 (ビデオセクタ) が設けられる。
この例では、 4チヤンネルのオーディォデータを扱うことができる ようにされている。 A 1〜A4は、 それぞれォ一ディォデータの 1〜 4チヤンネルを示す。 互いに異なるアジマスの 2 トラックからなる 1 組を単位として配列を変えられて記録される。 また、 ビデオデ一夕は 、 この例では、 1 トラックに対して 4エラー訂正ブロック分のデータ がイン夕一リーブされ、 Up p e r S i d eおよび L owe r S i d eのセクタに分割され記録される。
L owe r S i d eのビデオセクタには、 所定位置にシステム領 域 (S YS) が設けられる。 システム領域は、 例えば、 L owe r S i d eのビデオセクタの先頭側と末尾に近い側とに、 トラック毎に 交互に設けられる。
なお、 第 1 6図において、 S ATは、 サーボロック用の信号が記録 されるエリアである。 また、 各記録エリアの間には、 所定の大きさの ギヤップが設けられる。 第 1 6図は、 1フレーム当たりのデ一夕を 8 トラックで記録する例 であるが、 記録再生するデータのフォーマッ トによっては、 1フレー ム当たりのデ一夕を 4 トラック、 6 トラックなどで記録するようにも できる。
第 1 6図 Bに示されるように、 テープ上に記録されるデ一夕は、 シ ンクブロックと称される等間隔に区切られた複数のブロックからなる 。 第 1 6図 Cは、 シンクブロックの構成を概略的に示す。 シンクプロ ックは、 同期検出するための S Y N Cパターン、 シンクブロックのそ れぞれを識別するための I D、 後続するデータの内容を示す D I D、 デ一夕パケッ トおよびエラー訂正用の内符号パリティから構成される 。 データは、 シンクブロック単位でパケッ トとして扱われる。 すなわ ち、 記録あるいは再生されるデータ単位の最小のものが 1 シンクプロ ックである。 シンクブロックが多数並べられて (第 1 6図 B ) 、 例え ばビデオセクタが形成される。
第 1 5図の説明に戻り、 再生時には、 磁気テープ 1 1 2から回転ド ラム 1 1 1で再生された再生信号が再生アンプなどを含むイコライザ 1 1 0の再生側の構成に供給される。 イコライザ 1 1 0では、 再生信 号に対して、 等化や波形整形などがなされる。 また、 ディジタル変調 の復調、 ビタビ復号等が必要に応じてなされる。 イコライザ 1 1 0の 出力は、 E C Cデコーダ 1 1 3に供給される。
E C Cデコーダ 1 1 3は、 上述した E C Cエンコーダ 1 0 9と逆の 処理を行うもので、 大容量のメインメモリと、 内符号デコーダ、 ォー ディォ用およびビデオ用それぞれのデシャフリング部ならびに外符号 デコーダを含む。 さらに、 E C Cデコーダ 1 1 3は、 ビデオ用として 、 デシャフリングおよびデパッキング部、 データ補間部を含む。 同様 に、 オーディオ用として、 オーディオ A U X分離部とデ一夕補間部を 含む。 E C Cデコーダ 1 1 3は、 例えば 1個の集積回路で構成される
E C Cデコーダ 1 1 3における処理について説明する。 E C Cデコ ーダ 1 1 3では、 先ず、 同期検出を行いシンクブロックの先頭に付加 されている同期信号を検出し、 シンクブロックを切り出す。 データは 、 再生データは、 シンクブロック毎に内符号エンコーダに供給され、 内符号のエラー訂正がなされる。 内符号エンコーダの出力に対して I D補間処理がなされ、 内符号によりエラ一とされたシンクブロックの I D例えばシンクブロック番号が補間される。 I Dが補間された再生 データは、 ビデオデータとオーディオデータとに分離される。
上述したように、 ビデオデータは、 MP E Gのイントラ符号化で発 生した D CT係数データおよびシステムデータを意味し、 オーディオ データは、 P C M (Pulse Code Modulation) デ一夕およびオーディオ AUXを意味する。
分離されたオーディオデータは、 オーディオ用デシャフリング部に 供給され、 記録側のシャフリング部でなされたシャフリングと逆の処 理を行う。 デシャフリング部の出力がオーディォ用の外符号デコーダ に供給され、 外符号によるエラー訂正がなされる。 オーディオ用の外 符号デコーダからは、 エラー訂正されたオーディォデ一夕が出力され る。 訂正できないエラーがあるデータに関しては、 エラ一フラグがセ ッ 卜される。
オーディォ用の外符号デコーダの出力から、 オーディォ AUX分離 部でオーディォ AUXが分離され、 分離されたオーディォ AUXが E C Cデコーダ 1 1 3から出力される (経路は省略する) 。 オーディオ AUXは、 例えば後述するシスコン 1 2 1に供給される。 また、 ォ一 ディォデ一夕は、 データ補間部に供給される。 デ一夕補間部では、 ェ ラーの有るサンプルが補間される。 補間方法としては、 時間的に前後 の正しいデータの平均値で補間する平均値補間、 前の正しいサンプル の値をホールドする前値ホールド等を使用できる。
データ補間部の出力が E C Cデコーダ 1 1 3からのオーディオデー 夕の出力であって、 E C Cデコーダ 1 1 3から出力されたオーディオ データは、 ディ レイ 1 1 7および S D T I 出力部 1 1 5に供給される 。 ディ レイ 1 1 7は、 後述する M P E Gデコーダ 1 1 6でのビデオデ 一夕の処理による遅延を吸収するために設けられる。 ディ レイ 1 1 7 に供給されたオーディオデータは、 所定の遅延を与えられて、 S D I 出力部 1 1 8に供給される。
分離されたビデオデ一夕は、 デシャフリング部に供給され、 記録側 のシャフリングと逆の処理がなされる。 デシャフリング部は、 記録側 のシャフリング部でなされたシンクブロック単位のシャフリングを元 に戻す処理を行う。 デシャフリング部の出力が外符号デコーダに供給 され、 外符号によるエラ一訂正がなされる。 訂正できないエラ一が発 生した場合には、 エラ一の有無を示すエラ一フラグがエラー有りを示 すものとされる。
外符号デコーダの出力がデシャフリングおよびデパッキング部に供 給される。 デシャフリングおよびデパッキング部は、 記録側のパツキ ングおよびシャフリング部でなされたマクロブ口ック単位のシャフリ ングを元に戻す処理を行う。 また、 デシャフリングおよびデパッキン グ部では、 記録時に施されたパッキングを分解する。 すなわち、 マク ロブロック単位にデータの長さを戻して、 元の可変長符号を復元する 。 さらに、 デシャフリングおよびデパッキング部において、 システム データが分離され、 E C Cデコーダ 1 1 3から出力され、 後述するシ スコン 1 2 1に供給される。 デシャフリングおよびデパッキング部の出力は、 デー夕補間部に供 給され、 エラ一フラグが立っている (すなわち、 エラーのある) デ一 夕が修整される。 すなわち、 変換前に、 マクロブロックデータの途中 にエラーがあるとされた場合には、 エラ一箇所以降の周波数成分の D C T係数が復元できない。 そこで、 例えばエラ一箇所のデータをプロ ック終端符号 (E O B ) に置き替え、 それ以降の周波数成分の D C T 係数をゼロとする。 同様に、 高速再生時にも、 シンクブロック長に対 応する長さまでの D C T係数のみを復元し、 それ以降の係数は、 ゼロ データに置き替えられる。 さらに、 データ補間部では、 ビデオデータ の先頭に付加されているヘッダがエラ一の場合に、 ヘッダ (シーゲン スヘッダ、 G O Pヘッダ、 ピクチャヘッダ、 ユーザデータ等) を回復 する処理もなされる。
D C Tブロックに跨がって、 D C T係数が D C成分および低域成分 から高域成分へと並べられているため、 このように、 ある箇所以降か ら D C T係数を無視しても、 マクロブロックを構成する D C Tブロッ クのそれぞれに対して、 満逼なく D Cならびに低域成分からの D C T 係数を行き渡らせることができる。
データ補間部から出力されたビデオデータが E C Cデコーダ 1 1 3 の出力であって、 E C Cデコーダ 1 1 3の出力は、 再生側のマルチフ ォーマッ トコンバータ (以下、 再生側 M F Cと略称する) 1 1 4に供 給される。 再生側 M F C 1 1 4は、 上述した記録側 M F C 1 0 6と逆 の処理を行うものであって、 ストリームコンパ一夕を含む。 再生側 M F C 1 0 6は、 例えば 1個の集積回路で構成される。
ストリ一ムコンバータでは、 記録側のストリームコンパ一夕と逆の 処理がなされる。 すなわち、 D C Tブロックに跨がって周波数成分毎 に並べられていた D C T係数を、 D C Tブロック毎に並び替える。 こ れにより、 再生信号が M P E G 2に準拠したエレメンタリストリーム に変換される。
また、 ストリームコンバータの入出力は、 記録側と同様に、 マクロ ブロックの最大長に応じて、 十分な転送レート (バンド幅) を確保し ておく。 マクロブロック (スライス) の長さを制限しない場合には、 画素レートの 3倍のバンド幅を確保するのが好ましい。
ストリームコンパ一夕の出力が再生側 M F C 1 1 4の出力であって 、 再生側 MF C 1 1 4の出力は、 S DT I出力部 1 1 5および MP E Gデコーダ 1 1 6に供給される。
MP EGデコーダ 1 1 6は、 エレメン夕リス トリ一ムを復号し、 ビ デォデ一夕を出力する。 エレメンタリストリームは、 MP E Gデコー ダ 1 1 6に供給されパターンマッチングが行われ、 シーケンスヘッダ コードおよびス夕一トコ一ドが検出される。 検出されたシーケンスへ ッダコードおよびスターとコードにより、 各層のヘッダ部に格納され た符号化パラメ一夕が抽出される。 M P E Gデコーダ 1 1 6において 、 抽出された符号化パラメ一夕に基づき、 エレメン夕リストリームに 対して逆量子化処理と、 逆 D C T処理とがなされる。
MP E Gデコーダ 1 1 6から出力された復号ビデオデータは、 S D I出力部 1 1 8に供給される。 上述したように、 S D I出力部 1 1 8 には、 E C Cデコーダ 1 1 3でビデオデ一夕と分離されたオーディオ データがディ レイ 1 1 7を介して供給されている。 S D I出力部 1 1 8では、 供給されたビデオデータとオーディオデータとを、 S D Iの フォ一マツ 卜にマッピングし、 S D I フォーマツ トのデ一夕構造を有 するストリームへ変換される。 S D I出力部 1 1 8からのストリーム が出力端子 1 2 0から外部へ出力される。
一方、 S D T I出力部 1 1 5には、 上述したように、 E C Cデコー ダ 1 1 3でビデオデ一夕と分離されたオーディオデ一夕が供給されて いる。 ≤ 0丁 1出カ部 1 1 5では、 供給された、 エレメンタリストリ ームとしてのビデオデータと、 オーディォデ一夕とを SDT Iのフォ —マッ トにマッピングし、 SDT I フォーマツ トのデ一夕構造を有す るストリ一ムへ変換される。 変換されたストリームは、 出力端子 1 1 9から外部へ出力される。
出力端子 1 1 9から S DT Iのス 卜リームを供給された外部機器で は、 MP E Gの復号化処理が必要な場合には、 供給されたス トリーム に対してパターンマッチングを行い、 シーケンスヘッダコードおよび スタートコードを検出すると共に、 各層のヘッダ部の符号化パラメ一 夕を抽出する。 そして、 抽出された符号化パラメ一夕に基づき、 供給 された S D T Iのストリ一ムの復号化を行う。
第 1 5図において、 シスコン 1 2 1は、 例えばマイクロコンピュー 夕からなり、 この記憶再生装置の全体の動作を制御する。 またサ一ボ 1 2 2は、 シスコン 1 2 1と互いに通信を行いながら、 磁気テ一プ 1 1 2の走行制御や回転ドラム 1 1 1の駆動制御などを行う。
第 1 7図 Aは、 MP E Gエンコーダ 1 0 2の D C T回路から出力さ れるビデオデータ中の D C T係数の順序を示す。 S DT I受信部 1 0 8から出力される MP E G E Sについても同様である。 以下では、 MP E Gエンコーダ 1 0 2の出力を例に用いて説明する。 DCTブロ ックにおいて左上の D C成分から開始して、 水平ならびに垂直空間周 波数が高くなる方向に、 D C T係数がジグザグスキャンで出力される 。 その結果、 第 1 7図 Bに一例が示されるように、 全部で 64個 (8 画素 X 8ライン) の D C T係数が周波数成分順に並べられて得られる の D C T係数が MP E Gエンコーダの VL C部によって可変長符 号化される。 すなわち、 最初の係数は、 D C成分として固定的であり 、 次の成分 (AC成分) からは、 ゼロのランとそれに続く レベルに対 応してコードが割り当てられる。 従って、 AC成分の係数データに対 する可変長符号化出力は、 周波数成分の低い (低次の) 係数から高い (高次の) 係数へと、 Ad , AC2 , AC3 , · · · と並べられた ものである。 可変長符号化された D C Τ係数をエレメン夕リストリ一 ムが含んでいる。
上述した記録側 MF C 1 0 6に内蔵される、 記録側のス トリームコ ンバ一夕では、 供給された信号の D C Τ係数の並べ替えが行われる。 すなわち、 それぞれのマクロブロック内で、 ジグザグスキャンによつ て D C Τブロック毎に周波数成分順に並べられた D C Τ係数がマクロ ブロックを構成する各 D C Τブロックにわたつて周波数成分順に並べ 替えられる。
第 1 8図は、 この記録側ストリームコンパ一夕における D C Τ係数 の並べ替えを概略的に示す。 (4 : 2 : 2) コンポーネント信号の場 合に、 1マクロブロックは、 輝度信号 Υによる 4個の D C Τブロック (Υ 1 , Υ2 , Υ3 および Υ4 ) と、 色度信号 C b, C rのそれぞれ による 2個ずつの D CTブロック (C b , , C b 2 , C r】 および C r 2 ) からなる。
上述したように、 MP E Gエンコーダ 1 0 2では、 MP E G 2の規 定に従いジグザグスキャンが行われ、 第 1 8図 Aに示されるように、 各 D C Tブロック毎に、 D C T係数が D C成分および低域成分から高 域成分に、 周波数成分の順に並べられる。 一つの D CTブロックのス キャンが終了したら、 次の D CTブロックのスキャンが行われ、 同様 に、 D CT係数が並べられる。
すなわち、 マクロブロック内で、 D CTブロック Υ, , Υ2 , Y3 および Y4 、 D C Tブロック C b , , C b 2 , C r , および C r 2 の それぞれについて、 D C T係数が D C成分および低域成分から高域成 分へと周波数順に並べられる。 そして、 連続したランとそれに続く レ ベルとからなる組に、 [D C Ad ' ACz ACs , · · · 〕 と 、 それぞれ符号が割り当てられるように、 可変長符号化されている。 記録側ストリームコンバータでは、 可変長符号化され並べられた D CT係数を、 一旦可変長符号を解読して各係数の区切りを検出し、 マ クロブロックを構成する各 D C Tブロックに跨がって周波数成分毎に まとめる。 この様子を、 第 1 8図 Bに示す。 最初にマクロブロック内 の 8個の D C Tブロックの D C成分をまとめ、 次に 8個の D C Tブロ ックの最も周波数成分が低い AC係数成分をまとめ、 以下、 順に同一 次数の AC係数をまとめるように、 8個の D CTブロックに跨がって 係数データを並び替える。
並び替えられた係数データは、 D C (Y, ) , D C (Y2 ) , D C (Y3 ) , D C (Υ4 ) , D C (C b ! ) , D C (C r , ) , D C ( C b2 ) , D C (C r 2 ) , Ad (Y, ) , Ad (Y2 ) , AC i (Y3 ) , AC i (Y4 ) , AC , (C b , ) , Ad (C r , ) , AC , (C b 2 ) , AC , ( C r 2 ) , · · · である。 ここで、 D C、 Ad 、 AC2 、 · · · は、 第 1 7図を参照して説明したように 、 ランとそれに続く レベルとからなる組に対して割り当てられた可変 長符号の各符号である。
記録側ス トリームコンバータで係数デ一夕の順序が並べ替えられた 変換エレメン夕リストリームは、 E C Cエンコーダ 1 0 9に内蔵され るパッキングおよびシャフリング部に供給される。 マクロブロックの データの長さは、 変換エレメンタリストリームと変換前のエレメンタ リス トリームとで同一である。 また、 M P E Gエンコーダ 1 0 2にお いて、 ビッ トレート制御により G O P ( 1 フレーム) 単位に固定長化 されていても、 マクロブロック単位では、 長さが変動している。 パッ キングおよびシャフリング部では、 マクロブロックのデータを固定枠 に当てはめる。
第 1 9図は、 パッキングおよびシャフリング部でのマクロブロック のパッキング処理を概略的に示す。 マクロブロックは、 所定のデータ 長を持つ固定枠に当てはめられ、 パッキングされる。 このとき用いら れる固定枠のデ一夕長を、 記録および再生の際のデータの最小単位で あるシンクブロックのデ一夕長と一致させている。 これは、 シャフリ ングおよびエラー訂正符号化の処理を簡単に行うためである。 第 1 9 図では、 簡単のため、 1フレームに 8マクロブロックが含まれるもの と仮定する。
可変長符号化によって、 第 1 9図 Aに一例が示されるように、 8マ クロブロックの長さは、 互いに異なる。 この例では、 固定枠である 1 シンクブロックのデータ領域の長さと比較して、 マクロブロック # 1 のデータ, # 3のデータおよび # 6のデ一夕がそれぞれ長く、 マクロ ブロック # 2のデ一夕, # 5のデ一夕, # 7のデータおよび # 8のデ 一夕がそれぞれ短い。 また、 マクロブロック # 4のデータは、 1シン クブロックと略等しい長さである。
パッキング処理によって、 マクロブロックが 1シンクブロック長の 固定長枠に詰め込まれる。 過不足無くデータを詰め込むことができる のは、 1 フレーム期間で発生するデータ量が固定量に制御されている からである。 第 1 9図 Bに一例が示されるように、 1 シンクブロック と比較して長いマクロブロックは、 シンクブロック長に対応する位置 で分割される。 分割されたマクロブロックのうち、 シンクブロック長 からはみ出た部分 (オーバーフロー部分) は、 先頭から順に空いてい る領域に、 すなわち、 長さがシンクブロック長に満たないマクロプロ ックの後ろに、 詰め込まれる。
第 1 9図 Bの例では、 マクロブロック # 1の、 シンクブロック長か らはみ出た部分が、 先ず、 マクロブロック # 2の後ろに詰め込まれ、 そこがシンクブロックの長さに達すると、 マクロブロック # 5の後ろ に詰め込まれる。 次に、 マクロブロック # 3の、 シンクブロック長か らはみ出た部分がマクロプロック # 7の後ろに詰め込まれる。 さらに 、 マクロブロック # 6のシンクブロック長からはみ出た部分がマクロ プロック # 7の後ろに詰め込まれ、 さらにはみ出た部分がマクロプロ ック # 8の後ろに詰め込まれる。 こうして、 各マクロブロックがシン クブロック長の固定枠に対してパッキングされる。
各マクロブロックに対応する可変長デ一夕の長さは、 記録側ストリ ームコンバータにおいて予め調べておく ことができる。 これにより、 このパッキング部では、 V L Cデータをデコードして内容を検査する こと無く、 マクロブロックのデータの最後尾を知ることができる。 第 2 0図は、 1フレームのデータに対するパッキング処理をより具 体的に示す。 シャフリング処理によって、 第 2 0図 Aに示すように、 画面上で分散した位置のマクロブロック M B 1〜M B 4が第 2 5図 B に示すように、 順に並べられる。 各フレームに対してシーケンス層の ヘッダ、 ピクチャ層のヘッダが付加され、 これらのヘッダからなるへ ッダ部も先頭のマクロブロックに相当するものとしてパッキング処理 の対象とされる。 固定枠 (シンクブロック長) からはみ出たオーバ一 フロー部分が第 2 0図 Cに示すように、 空いている領域に順に詰め込 まれる。 第 2 5図 Bでは、 オーバーフロー部分が 3 0 0, 3 0 1, 3 0 2として示されている。 このようにパッキングされたデータが第 2 0図 Dに示すように、 磁気テープ 1 1 2上に記録される。 磁気テープを記録時の速度より高速で送って再生を行う高速再生時 には、 回転へッ ドが複数のトラックを跨いでトレースすることになる 。 したがって、 再生データ中には、 異なるフレームのデータが混在す る。 再生時には、 パッキング処理と逆のデパッキング処理がなされる 。 デパッキング処理は、 1フレーム分の全データが揃っている必要が ある。 高速再生時のように、 1フレーム分のデータ中に複数のフレー ムのデータが混在している場合には、 デパッキング処理ができない。 したがって、 高速再生時には、 各固定枠の先頭から配されているデー 夕のみが利用され、 オーバーフローデータは、 利用しないようになさ れる。
第 2 1図は、 上述した E C Cエンコーダ 1 0 9のより具体的な構成 を示す。 第 2 1図において、 1 64が I Cに対して外付けのメインメ モリ 1 6 0のインターフェースである。 メインメモリ 1 6 0は、 S D RAMで構成されている。 インターフェース 1 64によって、 内部か らのメインメモリ 1 6 0に対する要求を調停し、 メインメモリ 1 6 0 に対して書込み Z読出しの処理を行う。 また、 パッキング部 1 3 7 a 、 ビデオシャフリング部 1 3 7 b、 パッキング部 1 3 7 cによって、 パッキングおよびシャフリング部が構成される。
第 2 2図は、 メインメモリ 1 6 0のアドレス構成の一例を示す。 メ インメモリ 1 6 0は、 例えば 64 Mビッ 卜の S D R A Mで構成される 。 メインメモリ 1 6 0は、 ビデオ領域 2 5 0、 オーバ一フロー領域 2 5 1およびオーディオ領域 2 5 2を有する。 ビデオ領域 2 5 0は、 4 つのバンク (v b a n k # 0、 v b a n k # l、 v b a n k # 2およ び v b a n k # 3 ) からなる。 4バンクのそれぞれは、 1等長化単位 のディジタルビデオ信号が格納できる。 1等長化単位は、 発生するデ 一夕量を略目標値に制御する単位であり、 例えばビデオ信号の 1 ピク チヤ ( I ピクチャ) である。 第 2 2図中の、 部分 Aは、 ビデオ信号の 1 シンクブロックのデータ部分を示す。 1 シンクブロックには、 フォ 一マツ 卜によって異なるバイ ト数のデータが挿入される。 複数のフォ 一マッ トに対応するために、 最大のバイ ト数以上であって、 処理に都 合の良いバイ ト数例えば 2 5 6バイ 卜が 1 シンクブロックのデータサ ィズとされている。
ビデオ領域の各バンクは、 さらに、 パッキング用領域 2 5 0 Aと内 符号化エンコーダへの出力用領域 2 5 0 Bとに分けられる。 オーバ一 フロー領域 2 5 1は、 上述のビデオ領域に対応して、 4つのバンクか らなる。 さらに、 オーディオデータ処理用の領域 2 5 2をメインメモ リ 1 6 0が有する。
この一実施形態では、 各マクロブロックのデータ長標識を参照する ことによって、 パッキング部 1 3 7 aが固定枠長デ一夕と、 固定枠を 越える部分であるオーバ一フローデータとをメインメモリ 1 6 0の別 々の領域に分けて記憶する。 固定枠長データは、 シンクブロックのデ 一夕領域の長さ以下のデータであり、 以下、 ブロック長データと称す る。 ブロック長データを記憶する領域は、 各バンクのパッキング処理 用領域 2 5 0 Aである。 ブロック長より短いデータ長の場合には、 メ インメモリ 1 6 0の対応する領域に空き領域を生じる。 ビデオシャフ リング部 1 3 7 bが書込みァドレスを制御することによってシャフリ ングを行う。 ここで、 ビデオシャフリング部 1 3 7 bは、 ブロック長 デ一夕のみをシャフリングし、 オーバーフロー部分は、 シャフリング せずに、 オーバ一フローデータに割り当てられた領域に書込まれる。 次に、 パッキング部 1 3 7 cが外符号エンコーダ 1 3 9へのメモリ にオーバーフロー部分をパッキングして読み込む処理を行う。 すなわ ち、 メインメモリ 1 6 0から外符号エンコーダ 1 3 9に用意されてい る 1 E C Cブロック分のメモリに対してプロック長のデ一夕を読み込 み、 若し、 ブロック長のデータに空き領域が有れば、 そこにオーバ一 フロー部分を読み込んでブロック長にデータが詰まるようにする。 そ して、 1 E C Cブロック分のデ一夕を読み込むと、 読み込み処理を一 時中断し、 外符号エンコーダ 1 3 9によって外符号のパリティを生成 する。 外符号パリティは、 外符号エンコーダ 1 3 9のメモリに格納す る。 外符号エンコーダ 1 3 9の処理が 1 E C Cブロック分終了すると 、 外符号エンコーダ 1 3 9からデータおよび外符号パリティを内符号 を行う順序に並び替えて、 メインメモリ 1 6 0のパッキング処理用領 域 2 5 0 Aと別の出力用領域 2 5 0 Bに書き戻す。 ビデオシャフリ ン グ部 1 4 0は、 この外符号の符号化が終了したデ一夕をメインメモリ 1 6 0へ書き戻す時のァドレスを制御することによって、 シンクプロ ック単位のシャフリングを行う。
このようにブロック長データとオーバーフローデータとを分けてメ インメモリ 1 6 0の第 1の領域 2 5 0 Aへのデータの書込み (第 1の パッキング処理) 、 外符号エンコーダ 1 3 9へのメモリにォ一バーフ ローデ—夕をパッキングして読み込む処理 (第 2のパッキング処理)
、 外符号パリティの生成、 データおよび外符号パリティをメインメモ リ 1 6 0の第 2の領域 2 5 0 Bに書き戻す処理が 1 E C Cブロック単 位でなされる。 外符号エンコーダ 1 3 9が E C Cブロックのサイズの メモリを備えることによって、 メインメモリ 1 6 0へのアクセスの頻 度を少なくすることができる。
そして、 1 ピクチャに含まれる所定数の E C Cブロック (例えば 3
2個の E C Cブロック) の処理が終了すると、 1 ピクチャのパッキン グ、 外符号の符号化が終了する。 そして、 インタ一フェース 1 6 4を 介してメインメモリ 1 6 0の領域 2 5 0 Bから読出したデータが I D 付加部 1 4 8、 内符号エンコーダ 1 4 7、 同期付加部 1 5 0で処理さ れ、 並列直列変換部 1 2 4によって、 同期付加部 1 5 0の出力データ がビッ トシリアルデータに変換される。 出力されるシリアルデータが パーシャル , レスポンスクラス 4のプリコーダ 1 2 5により処理され る。 この出力が必要に応じてディジタル変調され、 記録アンプ 1 1 0 を介して、 回転ドラム 1 1 1 に設けられた回転へッ ドに供給される。 なお、 E C Cプロック内にヌルシンクと称する有効なデ一夕が配さ れないシンクブロックを導入し、 記録ビデオ信号のフォーマツ 卜の違 いに対して E C Cブロックの構成の柔軟性を持たせるようになされる 。 ヌルシンクは、 パッキングおよびシャフリングブロック 1 3 7のパ ッキング部 1 3 7 aにおいて生成され、 メインメモリ 1 6 0に書込ま れる。 従って、 ヌルシンクがデータ記録領域を持つことになるので、 これをオーバーフロー部分の記録用シンクとして使用することができ る。
オーディオデ一夕の場合では、 1 フィールドのオーディオデータの 偶数番目のサンプルと奇数番目のサンプルとがそれぞれ別の E C Cブ ロックを構成する。 E C Cの外符号の系列は、 入力順序のオーディオ サンプルで構成されるので、 外符号系列のオーディオサンプルが入力 される毎に外符号エンコーダ 1 3 6が外符号パリティを生成する。 外 符号エンコーダ 1 3 6の出力をメインメモリ 1 6 0の領域 2 5 2に書 込む時のァドレス制御によって、 シャフリング部 1 4 7がシャフリン グ (チャンネル単位およびシンクブロック単位) を行う。
さらに、 1 2 6で示す C P Uイン夕一フェースが設けられ、 システ ムコントローラとして機能する外部の C P U 1 2 7からのデータを受 け取り、 内部ブロックに対してパラメ一夕の設定が可能とされている 。 複数のフォーマッ トに対応するために、 シンクブロック長、 パリテ ィ長を始め多くのパラメ一夕を設定することが可能とされている。 パラメ一夕の 1つとしての" パッキング長データ" は、 パッキング 部 1 3 7 aおよび 1 3 7 bに送られ、 パッキング部 1 3 7 a、 1 3 7 bは、 これに基づいて決められた固定枠 (第 1 9図 Aで 「シンクプロ ック長」 として示される長さ) に V L Cデータを詰め込む。
パラメ一夕の 1つとしての" パック数データ" は、 パッキング部 1 3 7 bに送られ、 パッキング部 1 3 7 bは、 これに基づいて 1 シンク ブロック当たりのパック数を決め、 決められたパック数分のデ一夕を 外符号エンコーダ 1 3 9に供給する。
パラメ一夕の 1つとしての" ビデオ外符号パリティ数データ" は、 外符号エンコーダ 1 3 9に送られ、 外符号エンコーダ 1 3 9は、 これ に基づいた数のパリティが発声されるビデオデータの外符号の符号化 を行う。
パラメ一夕の 1つとしての" I D情報" および" D I D情報" のそ れぞれは、 I D付加部 1 4 8に送られ、 I D付加部 1 4 8は、 これら I D情報および D I D情報をメインメモリ 1 6 0から読み出された単 位長のデータ列に付加する。
パラメ一夕の 1つとしての" ビデオ内符号用パリティ数データ" お よび" オーディオ内符号用パリティ数データ" のそれぞれは、 内符号 エンコーダ 1 4 9に送られ、 内符号エンコーダ 1 4 9は、 これらに基 づいた数のパリティが発生されるビデオデータとオーディォデ一夕の 内符号の符号化を行う。 なお、 内符号エンコーダ 1 4 9には、 パラメ 一夕の 1つである" シンク長デ一夕" も送られており、 これにより、 内符号化されたデータの単位長 (シンク長) が規制される。
また、 パラメ一夕の 1つとしてのシャフリングテーブルデータがビ デォ用シャフリングテーブル (R A M ) 1 2 8 Vおよびオーディォ用
4 シャフリングテーブル (RAM) 1 2 8 aに格納される。 シャフリン グテーブル 1 2 8 Vは、 ビデオシャフリング部 1 3 7 bおよび 1 4 0 のシャフリングのためのァドレス変換を行う。 シャフリングテ一ブル 1 2 8 aは、 ォ一ディオシャフリング 1 4 7のためのアドレス変換を 行う。
この発明の一実施形態では、 MP E Gエンコーダ 1 0 2において、 入力ビデオデータを M P E Gビッ トストリームへ符号化する時に、 フ レーム単位の編集を可能とするために、 全てのフレームを I ピクチャ として符号化し、 1 GO Pを 1つの I ピクチャで構成する。 また、 1 スライスを 1マクロブロックとする。 さらに、 全てのフレームに対し て必ずシーケンス層のへッダおよび量子化マトリクスを付加する。 こ のようにすれば、 編集、 または特殊再生 (逆転再生、 スロー再生、 高 速再生等) によって、 テープ上に記録されたストリームの時間関係が 元のものと異なり、 MP E Gの符号化文法を満足しなくなる問題の発 生を防止することができる。
また、 この一実施形態では、 S D T I受信部 1 0 8から M P E Gビ ッ トストリームが入力されることもある。 この場合には、 MP E Gェ ンコーダ 1 0 2において符号化するのと異なり、 MP E Gの符号化文 法を満たしていても、 全フレームに対してシーケンス層のヘッダおよ び量子化マトリクスが付加されているとは限らない。 そこで、 この一 実施形態では、 記録側 MF C 1 0 6において、 各フレームにシ一ケン ス層のへッダが付加されていない場合には、 シーケンス層のへッダを 補間する補間処理を行う。 量子化マトリクスについても同様である。 第 2 3図は、 シーケンス層のヘッダの補間部の一例を示す。 5 1は 、 S D T I受信部 1 0 8から M P E Gビッ トストリーム入力を示す。
MP E Gエンコーダ 1 0 2の出力ストリームは、 フレーム毎にシーケ ンス層のへッダを付加する構成とされているので、 補間部で処理する 必要がない。 入カストリーム 5 1がディ レイ部 5 2および検出部 5 3 に供給される。 ディ レイ部 5 2は、 検出部 5 3が検出処理を行う時間 に相当する遅延を発生する。 ディ レイ部 5 2の出力が RAM 54およ びセレクタ 5 5にそれぞれ供給される。 RAM 54には、 ビッ トス ト リーム中のシーケンス層のへッダが書き込まれる。 RAM 54の読み 出し出力がセレクタ 5 5に供給される。
さらに、 R OM 5 6が設けられている。 ROM 5 6には、 予めディ ジタル VT Rの機種に応じた典型的なシーケンス層のへッダの情報が 記憶されている。 例えばその機種が取り扱うビデオデータのフォ一マ ッ トに対応したシーケンス層のヘッダが書き込まれている。 この場合 、 複数種類のシーケンス層のヘッダを ROM 5 6に書き込んでおき、 ユーザの指定等によつて選択されたシーケンス層のへッダを R OM 5 6から読み出すようにしても良い。 ROM 5 6から読み出されたへッ ダがセレクタ 5 5に供給される。 セレクタ 5 5の選択動作は、 検出部 5 3の出力によって制御される。
セレクタ 5 5は、 ディ レイ部 5 2からのス トリーム中にシーケンス 層のヘッダが存在している場合には、 そのシーケンス層のヘッダをフ レーム (ピクチャ) 毎に付加したストリ一ムを出力ストリーム 5 7と して選択する。 また、 シーケンス層のヘッダが存在していない場合に は、 RAM 54または R OM 5 6に記憶されているシーケンス層のへ ッダをストリームの各フレームに対して付加し、 フレーム毎にヘッダ が付加されたス トリームを出力する。 この場合、 RAM 54に記憶さ れているシーケンス層のヘッダを R OM 5 6に記憶されているシーケ ンス層のヘッダに対して優先して付加する。
なお、 図示しないが、 第 2 3図に示す構成を制御する制御部が設け られている。 また、 第 2 3図は、 ハードウェアの構成を示しているが 、 ブロックの機能の一部をソフ トウエアにより処理するようにしたり 、 全てソフトウェアにより処理することも可能である。
第 24図は、 検出部 5 3の検出処理と、 検出結果に基づく制御処理 を示すフローチャートである。 入力ストリーム 5 1中にシーケンス層 のヘッダが存在するかどうかがステップ S 1で決定される。 以下の説 明では、 存在の有無を検出するようにしているが、 存在の有無に加え て、 存在するシーケンス層のへッダが MP E G符号化文法を満足する 正常なものかどうかの検出を行うことが好ましい。 存在するならば、 処理がステップ S 2に移り、 RAM 54に対してス トリーム中のシ一 ケンス層のヘッダが書き込まれる。 RAM 54では、 旧いシーケンス 層のヘッダに対して新たなシーケンス層のへッダが上書きされる。 そ して、 入カストリ一ム中のシーケンス層のヘッダをそのままシーケン ス層のヘッダとして各フレームに対して付加する (ステップ S 3) 。 ステップ S 1において、 入力ス トリーム中にシーケンス層のヘッダ が存在しないと決定されると、 ステップ S 4において、 RAM 54に シーケンス層のヘッダが存在するか否かが決定される。 RAM 54に シーケンス層のへッダが存在しているならば、 ステップ S 5において 、 RAM 54の内容をシーケンス層のヘッダとして各フレームに対し て付加する。 若し、 ステップ S 4において、 RAM 54にシーケンス 層のヘッダが存在していないと決定されると、 ステップ S 6において 、 ROM 5 6の内容をシーケンス層のヘッダとして各フレームに対し て付加する。 例えば機器の電源をオンした直後では、 RAM 54にシ —ケンス層のへッダが存在していない。
以上の処理によって、 セレクタ 5 5からの出力ストリームは、 各フ レームに対して必ずシーケンス層のへッダが付加されたものとされる 。 なお、 以上の説明は、 シーケンス層のヘッダについて説明したが、 量子化マトリクスについても全く同様の処理によって補間することが でき、 出力ストリーム中の各フレームに対して量子化マトリクスを必 ず付加することができる。
上述では、 この発明が MP E Gや J P E Gのデ一夕ストリームを記 録するディジタル VTRに適用されるように説明したが、 この発明は 、 他の階層構造を有する圧縮符号化に対しても適用可能である。 その 場合には、 シーケンスヘッダに相当する最上位階層のヘッダを各フレ ームに対して付加するようになされる。
さらに、 この発明は、 記録媒体が磁気テープ以外であっても適用可 能である。 データストリームが直接的に記録されるのであれば、 例え ば、 ハードディスクや DVD (Digital Versatile Disc)といったディ スク状記録媒体や、 半導体メモリを記録媒体に用いた RAMレコーダ などにも適用可能なものである。
以上説明したように、 この発明によれば、 フレーム単位の編集を行 うことによって、 ビッ トストリームが符号化文法を満足しなくなるこ とを防止することができる。 また、 この発明によれば、 テープの先頭 位置等の所定位置にのみシーケンス層が記録されている場合と異なり
、 任意の位置からの通常再生を行うことが可能となる。 さらに、 この 発明によれば、 高速再生、 スロー再生、 逆転再生等の特殊再生時に確 実にシーケンス層のへッダまたは量子化マトリクスを得ることができ る。

Claims

請求の範囲
1 . ディジタルビデオ信号を圧縮符号化し、 複数の階層からなる階層 構造を有するビッ トストリームを生成し、 ビットストリームを記録媒 体に記録する記録装置において、
ディジタルビデオ信号の全てをフレーム内符号化によって圧縮する 符号化手段と、
各フレームのビットストリームに対して最上位階層のへッダを付加 する手段と、
上記最上位階層のへッダが付加されたビットストリームを記録媒体 上に記録する手段とからなることを特徴とする記録装置。
2 . 請求の範囲 1において、
さらに、 上記最上位階層のへッダを補間する補間手段を有すること を特徴とする記録装置。
3 . 請求の範囲 2において、
上記補間手段は、 上記最上位階層のヘッダが存在しないか、 または 符号化文法と矛盾するかを判定する判定手段と、
最後に現れた過去の最上位階層のヘッダを保持する保持手段とから なり、
上記判定手段によって、 上記最上位階層のヘッダが存在しないか、 または異常であると判定するときに、 上記保持手段内の上記最後に現 れた過去の最上位階層のへッダを上記付加手段において各フレームの ビッ トストリームに対して付加することを特徴とする記録装置。
4 . 請求の範囲 2において、
上記補間手段は、 上記最上位階層のヘッダが存在しないか、 または 異常であることを判定する判定手段と、
予め用意された最上位階層のへッダを保持する保持手段とからなり 上記判定手段によって、 上記最上位階層のヘッダが存在しないか、 または符号化文法と矛盾すると判定するときに、 上記保持手段内の上 記予め用意された最上位階層のヘッダを上記付加手段において各フレ ームのビッ トストリームに対して付加することを特徴とする記録装置
5 . ディジタルビデオ信号を圧縮符号化し、 複数の階層からなる階層 構造を有するビッ トストリームを生成し、 ビッ トストリームを記録媒 体に記録する記録装置において、
ディジタルビデオ信号の全てをフレーム内符号化によって圧縮する 符号化手段と、
各フレームのビッ トストリームに対して量子化マ卜リクスを付加す る手段と、
上記量子化マトリクスが付加されたビッ トストリームを記録媒体上 に記録する手段とからなることを特徴とする記録装置。
6 . 請求の範囲 5において、
さらに、 上記量子化マトリクスを補間する補間手段を有することを 特徴とする記録装置。
7 . 請求の範囲 6において、
上記補間手段は、 上記量子化マトリクスが存在しないか、 または異 常であることを判定する判定手段と、
最後に現れた過去の上記量子化マトリクスを保持する保持手段とか らなり、
上記判定手段によって、 上記量子化マトリクスが存在しないか、 ま たは異常であると判定するときに、 上記保持手段内の上記最後に現れ た過去の上記量子化マトリクスを上記付加手段において各フレームの ビッ トス トリームに対して付加することを特徴とする記録装置。
8 . 請求の範囲 6において、
上記補間手段は、 上記上記量子化マトリクスが存在しないか、 また は異常であることを判定する判定手段と、
予め用意された上記量子化マトリクスを保持する保持手段とからな 0 、
上記判定手段によって、 上記量子化マトリクスが存在しないか、 ま たは異常であると判定するときに、 上記保持手段内の上記予め用意さ れた上記量子化マトリクスを上記付加手段において各フレームのビッ トス 卜リームに対して付加することを特徴とする記録装置。
9 . ディジタルビデオ信号を圧縮符号化し、 複数の階層からなる階層 構造を有するビッ トストリームを生成し、 ビッ トストリームを記録媒 体に記録する記録方法において、
ディジタルビデオ信号の全てをフレーム内符号化によって圧縮し、 各フレームのビッ トストリームに対して最上位階層のへッダを付加 し、
上記最上位階層のへッダが付加されたビッ トストリームを記録媒体 上に記録することを特徴とする記録方法。
1 0 . ディジタルビデオ信号を圧縮符号化し、 複数の階層からなる階 層構造を有するビッ トストリームを生成し、 ビッ トス トリームを記録 媒体に記録する記録方法において、
ディジ夕ルビデオ信号の全てをフレーム内符号化によって圧縮し、 各フレームのビッ トス トリームに対して量子化マトリクスを付加し 上記量子化マトリクスが付加されたビッ トストリームを記録媒体上 に記録することを特徴とする記録方法。
PCT/JP2000/008509 1999-12-02 2000-12-01 Recording apparatus and method WO2001041435A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP00979045A EP1175097A4 (en) 1999-12-02 2000-12-01 RECORDING APPARATUS AND METHOD
US09/890,498 US7127156B1 (en) 1999-12-02 2000-12-01 Recording apparatus and method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP34337599 1999-12-02
JP11/343375 1999-12-02

Publications (1)

Publication Number Publication Date
WO2001041435A1 true WO2001041435A1 (en) 2001-06-07

Family

ID=18361037

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2000/008509 WO2001041435A1 (en) 1999-12-02 2000-12-01 Recording apparatus and method

Country Status (4)

Country Link
US (1) US7127156B1 (ja)
EP (1) EP1175097A4 (ja)
KR (1) KR100681992B1 (ja)
WO (1) WO2001041435A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3775265B2 (ja) * 2001-08-16 2006-05-17 ソニー株式会社 信号処理装置および方法、記録再生装置および方法、ならびに、再生装置および方法
US7471218B2 (en) 2006-09-18 2008-12-30 National Semiconductor Corporation Methods and systems for efficiently storing and retrieving streaming data
KR101361512B1 (ko) * 2007-07-09 2014-02-10 삼성전자 주식회사 방송처리장치 및 그 제어방법
GB2512276A (en) * 2013-02-15 2014-10-01 Univ Warwick Multisensory data compression

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05199495A (ja) * 1992-01-23 1993-08-06 Hitachi Ltd ディジタル録画装置
JPH07250331A (ja) * 1994-03-14 1995-09-26 Matsushita Electric Ind Co Ltd 圧縮動画像の記録方法と再生装置
JPH08279987A (ja) * 1995-04-07 1996-10-22 Sharp Corp 画像蓄積通信装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3226444B2 (ja) * 1995-01-25 2001-11-05 三菱電機株式会社 ディジタル信号記録装置及び再生装置
JPH1042286A (ja) * 1996-07-19 1998-02-13 Canon Inc 画像処理装置、方法及びコンピュータ可読メモリ装置
AR016812A1 (es) * 1997-08-14 2001-08-01 Samsung Electronics Co Ltd Metodo para transmitir informacion de video comprimida, disposiciones de compresion y de grabacion de video y aparato de reproduccion de video

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05199495A (ja) * 1992-01-23 1993-08-06 Hitachi Ltd ディジタル録画装置
JPH07250331A (ja) * 1994-03-14 1995-09-26 Matsushita Electric Ind Co Ltd 圧縮動画像の記録方法と再生装置
JPH08279987A (ja) * 1995-04-07 1996-10-22 Sharp Corp 画像蓄積通信装置

Also Published As

Publication number Publication date
EP1175097A1 (en) 2002-01-23
KR100681992B1 (ko) 2007-02-15
US7127156B1 (en) 2006-10-24
KR20010101937A (ko) 2001-11-15
EP1175097A4 (en) 2006-06-07

Similar Documents

Publication Publication Date Title
JP4010066B2 (ja) 画像データ記録装置および記録方法、並びに画像データ記録再生装置および記録再生方法
US20060239636A1 (en) Recording apparatus, recording method, reproducing apparatus, and reproducing method
JP4182641B2 (ja) データ処理装置および方法、ならびに、記録装置および方法
JP2000125262A (ja) 信号処理装置および方法、ならびに、記録装置、再生装置および記録再生装置
US6643729B2 (en) Data processing apparatus and data recording apparatus
KR100739262B1 (ko) 기록 장치 및 기록 방법과, 재생 장치 및 재생 방법
JP2002204450A (ja) データ処理装置および方法
US20020071491A1 (en) Signal processor
JP2001169251A (ja) 記録装置および方法、ならびに、再生装置および方法
JP3775265B2 (ja) 信号処理装置および方法、記録再生装置および方法、ならびに、再生装置および方法
JP2000324448A (ja) データ記録装置、データ記録再生装置、データ記録方法およびデータ記録再生方法
WO2001041435A1 (en) Recording apparatus and method
JP2001155437A (ja) 記録装置および方法
JP4038949B2 (ja) 再生装置および方法
JP4432284B2 (ja) 記録装置および方法
JP2001169243A (ja) 記録装置および方法、ならびに、再生装置および方法
JP2000149455A (ja) データ記録装置および記録方法、データ記録再生装置および記録再生方法、並びにデータ記録媒体
JP3978903B2 (ja) データ記録装置、データ記録方法、データ処理装置、およびデータ処理方法
JP2000132914A (ja) データ処理装置およびデータ記録装置
JP2001218162A (ja) 記録装置および方法
JP2001346163A (ja) 記録装置および方法、再生装置および方法、ならびに、記録再生装置および方法
JP2000123485A (ja) 記録装置および方法
JP2000312341A (ja) データ伝送装置および方法、記録装置、ならびに、記録再生装置
JP2001218202A (ja) ストリーム変換装置および方法、ならびに、再生装置および方法
JP2001218161A (ja) 記録装置および方法、ならびに、再生装置および方法

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): JP KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR

ENP Entry into the national phase

Ref country code: JP

Ref document number: 2001 541240

Kind code of ref document: A

Format of ref document f/p: F

WWE Wipo information: entry into national phase

Ref document number: 09890498

Country of ref document: US

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 1020017009749

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 2000979045

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1020017009749

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 2000979045

Country of ref document: EP

WWG Wipo information: grant in national office

Ref document number: 1020017009749

Country of ref document: KR