WO1999005864A1 - Dispositif d'edition, procede d'edition, dispositif d'epissage, procede d'epissage, dispositif de codage et procede de codage - Google Patents

Dispositif d'edition, procede d'edition, dispositif d'epissage, procede d'epissage, dispositif de codage et procede de codage Download PDF

Info

Publication number
WO1999005864A1
WO1999005864A1 PCT/JP1998/003332 JP9803332W WO9905864A1 WO 1999005864 A1 WO1999005864 A1 WO 1999005864A1 JP 9803332 W JP9803332 W JP 9803332W WO 9905864 A1 WO9905864 A1 WO 9905864A1
Authority
WO
WIPO (PCT)
Prior art keywords
encoding
stream
picture
encoded
editing
Prior art date
Application number
PCT/JP1998/003332
Other languages
English (en)
French (fr)
Inventor
Hiromi Yoshinari
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to EP19980933940 priority Critical patent/EP0923243B1/en
Priority to JP50967099A priority patent/JP3736808B2/ja
Priority to DE69841897T priority patent/DE69841897D1/de
Publication of WO1999005864A1 publication Critical patent/WO1999005864A1/ja
Priority to US09/275,999 priority patent/US6567471B1/en
Priority to US10/282,784 priority patent/US7139316B2/en
Priority to US11/586,245 priority patent/US7711051B2/en
Priority to US11/591,063 priority patent/US8923409B2/en
Priority to US11/591,073 priority patent/US8798143B2/en
Priority to US11/642,369 priority patent/US8223847B2/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23424Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving splicing one content stream with another content stream, e.g. for inserting or substituting an advertisement
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/036Insert-editing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/114Adapting the group of pictures [GOP] structure, e.g. number of B-frames between two anchor frames
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/142Detection of scene cut or scene change
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/177Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a group of pictures [GOP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/40Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video transcoding, i.e. partial or full decoding of a coded input stream followed by re-encoding of the decoded output stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23406Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving management of server-side video buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44004Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving video buffer management, e.g. video decoder buffer or video display buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44016Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving splicing one content stream with another content stream, e.g. for substituting a video clip
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440254Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering signal-to-noise parameters, e.g. requantization
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/24Systems for the transmission of television signals using pulse code modulation
    • H04N7/52Systems for transmission of a pulse code modulated video signal with one or more other pulse code modulated signals, e.g. an audio signal or a synchronizing signal
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2562DVDs [digital versatile discs]; Digital video discs; MMCDs; HDCDs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/149Data rate or code amount at the encoder output by estimating the code amount by means of a model, e.g. mathematical model or statistical model
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/15Data rate or code amount at the encoder output by monitoring actual compressed data size at the memory before deciding storage at the transmission buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding

Definitions

  • Description-Editing device editing method, splicing device, splicing method, encoding device, and encoding method
  • the present invention relates to an editing apparatus and method for generating an edited video material by editing a plurality of video materials, and a bitstream splicer for generating a seamless spliced stream by splicing a plurality of bitstreams.
  • the present invention relates to a licensing apparatus and method, and an encoding apparatus and method for encoding video data. Background art
  • compression-encoded image data is recorded and played back using storage media such as DVDs (digital versatile discs or digital video discs), which are optical discs that can record large amounts of digital data.
  • storage media such as DVDs (digital versatile discs or digital video discs), which are optical discs that can record large amounts of digital data.
  • a recording / reproducing system and a multiplex transmission system for multiplexing and transmitting a plurality of compression-encoded broadcast materials (programs) have been proposed.
  • compression coding technology of image data according to the Moving Picture Experts Group (MPEG) standard is used.
  • a bidirectional predictive coding method is adopted as a coding method.
  • this bidirectional predictive coding method three types of coding are performed: intraframe coding, interframe forward predictive coding, and bidirectional predictive coding, and the image of each coding type is It is called an I picture (intra coded picture), a P picture (predictive coded picture) and a ⁇ direction (bidirectionally predictive coded picture).
  • I picture intra coded picture
  • P picture predictive coded picture
  • ⁇ direction bidirectionally predictive coded picture.
  • the amount of generated code for each picture is the largest for I-pictures, followed by the largest number of P-pictures, and the smallest for B-pictures.
  • the bit generation amount differs for each picture as in the MPEG standard
  • the amount of data occupied in the input buffer of the image decoding device is determined by the image codec.
  • the MPEG standard assumes a VBV (Video Buffering Verifier) buffer, which is a virtual buffer corresponding to the input buffer in the image decoding device, and the image encoding device side breaks the VBV buffer, A stream must be created to avoid overflow.
  • VBV Video Buffering Verifier
  • FIG. Fig. 1 shows a transmission system configured to realize ISO / IEC13818-1 (MPEG1) and ISO / IEC13818-2 (MPEG2). I have.
  • This transmission system encodes (encodes) input video data DV as an encoding device 110 side and outputs a video elementary stream (video ES) as an encoded bitstream.
  • a video encoder 111 and a video elementary stream output from the video encoder 111 are added with a header or the like to form a bucket, and a video bucket sized elementary stream (video PES) is output.
  • Baketsutaiza 1 1 2 the audio data D a input to Enko one de, an audio encoder 1 1 3 for outputting an audio elementary squirrel stream is encoded bit stream (audio ES), this audio encoder 1 Add a header etc.
  • a bucketizer 114 that outputs a packetized elementary stream (audio PES), and a video bucketized elementary stream and a bucketizer that is output from the bucketizer 112.
  • the output audio bucketized elementary stream is multiplexed with the stream stream packet to create a 188-byte transport stream packet, which is output as a transport stream (TS). Note: 1 1 and 5 are provided.
  • the transmission medium output from the transport stream multiplexer 115 is used as the configuration of the decryption device 120.
  • Transport stream demultiplexer that receives a transport stream transmitted via the MV and separates it into a video bucketized-elementary stream (video PES) and an audio bucketized elementary stream (audio PES). (In the figure, it is denoted as TSDE MU X.) 1 2 1 and the video bucket sized elementary stream output from the transport stream demultiplexer 1 2 1 are debucketed to form a video elementary stream.
  • Video ES A video decoder 124 that decodes (decodes) the video elementary stream output from this bucketizer 122 and outputs video data DV, and a transport stream. Audio bucketized elementary stream output from the demultiplexer 1 2 1 is depacketized and an audio elementary stream (audio ES) is output. An audio decoder 125 for decoding the mental stream and outputting the audio data DA.
  • the decryption device 120 in FIG. 1 is generally called an intelligent receiver decoder (IRD).
  • IRD intelligent receiver decoder
  • a video bucketized elementary stream and an audio bucketized elementary stream are used instead of the transport stream multiplexer 115 in FIG.
  • a program stream multiplexer for multiplexing the stream and outputting a program stream (PS) is provided.
  • a transmission medium 116 a storage medium for recording the program stream is used.
  • a program stream demultiplexer 1221 a program stream demultiplexer for separating the program stream into a video packetized elementary stream and an audio packetized elementary stream is provided.
  • each picture has an input video with the same bit amount.
  • the data Dv is encoded by the video encoder 111, converted into a different bit amount for each picture according to its redundancy, compressed, and output as a video elementary stream.
  • the bucketizer 1 1 2 receives the video elementary stream, converts it into a packet to absorb (average) the fluctuation of the bit amount on the bitstream time axis, and forms a video bucketized elementary stream.
  • the PES packet packetized by the bucketizer 112 includes one access unit or a plurality of access units. Generally, one access unit is composed of one frame.
  • the transport stream multiplexer 1 15 multiplexes the video bucketized elementary stream and the audio bucketized elementary stream output from the bucketizer 114 to create a transport stream bucket, and creates a transport stream bucket. It is sent as a port stream (TS) to the decoding device 120 via the transmission medium 116.
  • TS port stream
  • the transport stream is separated into a video bucketized elementary stream and an audio packetized elementary stream by the transport stream demultiplexer 122.
  • the debucketizer 122 depackets the video bucketized elementary stream and outputs a video elementary stream
  • the video decoder 123 decodes the video elementary stream and outputs video data DV.
  • the decoding device 120 buffers the stream transmitted at a fixed transmission rate in a VBV buffer, and also outputs data for each picture from the VBV buffer based on a decoded time stamp (DTS) set for each picture in advance. Pull out.
  • DTS decoded time stamp
  • the capacity of this VBV buffer is determined according to the standard of the signal to be transmitted. In the case of a main video signal (MP @ ML) standard video signal, the capacity of 1.75 Mbits have.
  • the encoder 110 must control the amount of bits generated in each picture so that the VBV buffer does not overflow or underflow.
  • the polygonal line represents the change in the amount of data occupied in the VBV buffer, and its slope 1 Represents the transmission bit rate, and the vertically falling portion 132 represents the amount of bits extracted from the VBV buffer by the video decoder 123 to reproduce each picture.
  • the timing to be derived by the video decoder 123 is specified by information called a presentation time stamp (PTS) or information called a decoded time stamp (DTS).
  • PTS presentation time stamp
  • DTS decoded time stamp
  • the interval between the PTS and the DTS is generally one frame period.
  • I, P, and B represent an I picture, a P picture, and a B picture, respectively. This is the same in other figures.
  • FIG. 2 the same in other figures.
  • vbv_delay is the time from when the occupancy of the VBV buffer is zero to full, and T p indicates the presentation time period.
  • the transmitted stream fills the VBV buffer at a fixed bit rate of 131, and data is extracted from this VBV buffer for each picture at the timing according to the presentation time. It is.
  • FIG. 3 shows the picture order of the input video data supplied to the encoder, (b) shows the picture order after rearrangement is performed in the encoder, and (c) shows Indicates the picture order of the video stream output from the encoder.
  • the input video frames are rearranged according to the picture type (1, P, B) during encoding, and are encoded in the rearranged order.
  • a B picture is predictively coded from an I picture or a P picture.
  • the encoder performs an encoding process in the order of the rearranged pictures, and outputs each encoded picture as a video stream in the order shown in FIGS. 3 (b) and 3 (c).
  • the output coded stream is supplied to a decoder or a storage medium via a transmission path.
  • a GOP is composed of 15 pictures.
  • FIG. 4 is a diagram for illustrating which picture is used for predictive encoding processing in the predictive encoding method described in FIG. 3, and FIG. 9 shows the relationship between the rearrangement of pictures and the prediction encoding process.
  • (a) indicates the order of pictures in the input video data to the encoder
  • (b) indicates the order of pictures after rearrangement is performed in the encoder
  • (c) and (d) Indicates the pictures stored in the two frame memories FM1 and FM2 in the encoder
  • (e) indicates the elementary stream (ES) output from the encoder.
  • the numbers attached to I, P, and B indicate the order of pictures.
  • the input video data as shown in FIG. 4 (a) is rearranged in the order of pictures as shown in FIG. 4 (b).
  • the two frame memories FM 1 and FM2 are shown in Fig. 4 (c) and
  • the picture as shown in (d) is retained.
  • the encoder performs encoding processing based on only the input video data (I picture).
  • the encoder stores the input video data and the frame data in the frame memory FM1.
  • Predictive coding processing based on the current I-picture or P-picture, and when the input video data is a B-picture, based on the input video data and the two pictures held in the frame memories FM1 and FM2. Perform predictive encoding processing.
  • the codes in FIG. 4 (e) represent pictures used for the encoding process.
  • (a) represents the order of pictures in the encoded video stream supplied from the encoder to the decoder via the transmission path
  • (b) shows the encoded video stream supplied from the encoder to the decoder via the transmission path
  • (c) shows the picture order of the video data output from the decoder.
  • the B picture is subjected to the predictive encoding process using the I picture or the P picture at the time of encoding, so that the picture used for the predictive encoding process is different from the picture used for the predictive encoding process. Perform decoding using the same picture.
  • the picture order of the video data output from this decoder is such that the B picture is output earlier than the I picture or P picture.
  • FIG. 6 is a diagram for explaining the decoding process described in FIG. 5 in more detail. is there.
  • FIG. 6 (a) shows the order of the encoded video-elementary stream (ES) pictures supplied to the decoder, and (b) and (c) show the order of 2 pictures in the decoder, respectively.
  • the pictures stored in the two frame memories FM1 and FM2 are shown, and (d) shows the output video data output from the decoder.
  • the numbers attached to I, P, and B in the figure indicate the order of the pictures.
  • the decoder receives the input elementary stream (ES) power S as shown in Fig. 6 (a), it has to store the two pictures used in the predictive coding process.
  • the memories FM 1 and FM2 are shown in Fig. 6 (b) and
  • the picture as shown in (c) is held.
  • the decoder performs decoding processing based on only the input elementary stream (I-picture), and when the input elementary stream is a P-picture, the input elementary stream.
  • the decoding process is performed based on the I picture or P picture stored in the frame memory FM1. If the input elementary stream is a B picture, the decoding is performed in the input elementary stream and the frame memories FM1 and FM2.
  • a decoding process is performed based on the two pictures to generate output video data as shown in FIG. 6 (d).
  • Figure 7 shows the direction of prediction (the direction in which the difference is taken) between pictures arranged in the order of the input video frames by arrows.
  • the MPEG standard employs motion compensation that enables higher compression.
  • the encoder performs motion detection according to the prediction direction shown in FIG. 7 at the time of encoding to obtain a motion vector.
  • the P picture and the B picture are composed of a difference value between the motion vector and a search image or a predicted image obtained according to the motion vector.
  • a P picture and a B picture are reconstructed based on the motion vector and the difference value.
  • an I picture is a picture encoded from information of the I picture, and is a picture generated without using inter-frame prediction.
  • a P picture is a picture generated by performing prediction from a past I picture or P picture.
  • B picture is past I or P picture Either a picture predicted from both directions of the future I or P picture, a picture predicted from the forward direction of the past I or P picture, or a picture predicted from the backward direction of I or P .
  • splicing means editing multiple streams while maintaining the state of the encoded stream.
  • the first problem is a problem from the viewpoint of picture presentation order.
  • the picture presentation order is the display order of each video frame. This first problem will be described with reference to FIG. 8 and FIG.
  • FIG. 8 and 9 both show the relationship between the order of pictures in the stream before and after splicing and the order of picture presentation after splicing when simple splicing of the stream is performed.
  • FIG. 8 shows a case where no problem occurs in the order of picture presentation
  • FIG. 9 shows a case where a problem occurs in the order of picture presentation. 8 and 9, (a) shows one video stream A to be spliced,
  • (b) shows the other video stream B to be spliced
  • (c) shows the stream after splicing
  • (d) shows the order of presentation.
  • SP A represents a splicing point in the stream A
  • SP B represents a splicing point in the string over beam B
  • ST A represents the stream A
  • STB denotes a stream B
  • ST S p is spliced Shows the stream.
  • FIG. 8 is a diagram showing an example in which a splice point SPA is set after a B picture of stream A and a splice point SPB is set before a P picture of stream B. .
  • a splice point SPA is set after a B picture of stream A
  • a splice point SPB is set before a P picture of stream B.
  • the picture of stream A appears after the picture of stream B, or the picture of stream B
  • splicing is performed at the splice points SPA and SPB shown in FIG. 8, there is no problem in the presentation order.
  • the splicing process shown in Fig. 9 shows an example in which a splice point SP A is set after the P picture of stream A and a splice point SP B is set before the B picture of stream B. It is.
  • the last picture of stream A appears after the picture of stream B, or the picture of stream B
  • the phenomenon occurs when two pictures are displayed before the last picture in stream A. That is, if the picture is displayed in this order, the video image of stream A switches from the video image of stream A to the video image of stream B near the splicing point, and two frames later, the video image of stream A changes to 1 It becomes a strange image that only the frame is displayed.
  • a problem occurs in the order of presentation.
  • FIGS. 11 and 12 show the cases where the splices shown in FIGS. 8 and 9 are performed, respectively. In each figure, (a) shows the stream after splicing, and (b) shows the order of presentation.
  • stream B is a closed GOP (a closed GOP whose forecast does not depend on the previous GOP), and the splice is performed at the break of the GOP. Motion compensation is performed without any excess or shortage, and picture decoding is performed without any problem.
  • FIGS. 11 and 12 when decoding, motion compensation referring to pictures in different streams is performed, so that a problem occurs in motion compensation. More specifically, since a B picture or a P picture of stream B cannot be created with reference to a P picture of stream A, motion compensation is performed using the motion vector in the prediction direction indicated by the broken line in the figure. Is invalid (denoted as NG in the figure). Therefore, in the examples shown in FIGS. 11 and 12, the picture remains broken until the next I picture. When splicing in arbitrary picture units, this problem cannot be solved with a simple stream splice.
  • the third problem is a problem from the viewpoint of the VBV buffer. This problem will be described with reference to FIGS.
  • FIG. 13 shows an example in which ideal stream splicing that satisfies the conditions of picture presentation order, motion compensation, and VBV buffer is performed.
  • STC indicates stream A, stream B, and stream C, respectively.
  • (a) shows the state of the VBV buffer on the decoder side
  • (b) shows the stream after splicing
  • (c) shows the generation timing of each picture after rearrangement in the encoder
  • (d) ) Indicates the order of pictures after decoding.
  • SPV indicates a splice point in the VBV buffer
  • V0C indicates the occupancy of the VBV buffer in the splice point SPV
  • SPS indicates a splice point in the stream.
  • splicing does not cause the VBV buffer to fail such as overflow or underflow of the VBV buffer.
  • FIGS. 14 to 18 show normal stream A and stream B, respectively, that satisfy the VB V buffer constraints
  • FIGS. 16 to 18 show three examples in which streams A and B are simply spliced at arbitrary positions. In these figures,
  • the state of the VBV buffer differs depending on where the streams A and B are spliced.
  • the spliced stream also satisfies the VBV buffer constraint, but in the example shown in Fig. 17, the overflow indicated by reference numeral 141 occurs, and the VBV buffer The constraint has not been met.
  • the underflow indicated by reference numeral 142 occurs, and does not satisfy the restrictions of the VBV buffer.
  • the present invention has been made in view of such a problem, and a first object of the present invention is to cause a failure of a virtual buffer corresponding to an input buffer on the decoding device side and a discontinuity of data occupancy in the virtual buffer.
  • An object of the present invention is to provide a splicing device and a stream editing device that realize seamless splicing of a plurality of coded streams so as not to perform such a process.
  • a second object of the present invention is to provide a splicing apparatus, a stream editing apparatus, and a method for reducing image quality deterioration near a splicing point and preventing image quality deterioration in re-encoding processing in addition to the above objects. And an encoding device.
  • a stream editing apparatus receives a plurality of encoded bit streams obtained by encoding a plurality of video materials and connects the plurality of encoded bit streams.
  • decoding each encoded bit stream in a predetermined section before and after a connection point including a connection point of the plurality of encoded bit streams and Decoding means for outputting image data within the frame
  • target code amount setting means for setting a new target code amount for image data within a predetermined section outputted by the decoding means
  • decoding means The image data in the predetermined section output by the above is encoded according to the new target code amount set by the target code amount setting means, and a new encoded bit stream in the predetermined section
  • Encoding means for outputting a stream, and replacing the original coded bit stream in the predetermined section with a new coded bit stream in the predetermined section output by the coding means
  • Coded bit stream output means for connecting and outputting the original coded bit stream and the new coded bit stream.
  • the decoding means decodes each encoded bit stream in a predetermined section before and after a connection point including a connection point of a plurality of coded bit streams, and decodes the image in the predetermined section.
  • the data is output, the target code amount setting means sets a new target code amount for the image data in the predetermined section, and the encoding means codes the image data in the predetermined section according to the new target code amount.
  • a new coded bit stream within a predetermined section is output.
  • the coded bit stream output means replaces the original coded bit stream in the predetermined section with a new coded bit stream in the predetermined section, and outputs the original coded bit stream before and after the predetermined section.
  • the stream and the new coded bitstream are concatenated and output.
  • the splicing apparatus of the present invention is capable of processing a plurality of source encoded streams.
  • Splicing point setting means for setting splicing points, respectively; decoding means for decoding pictures near the splicing points of a plurality of source encoded streams, respectively, and outputting decoded video data; Re-encoding video data and outputting a re-encoded stream, and a spliced spliced industry by switching and outputting the source encoded stream and the re-encoded stream.
  • Equipment It is.
  • the splice control means of the splicing apparatus of the present invention has a function of calculating the target bit amount of the re-encoding in the re-encoding means so that the overflow and underflow do not occur in the VBV buffer. ing.
  • the splice control means of the splicing apparatus of the present invention is characterized in that the locus of the data occupancy of the VBV buffer at the point of switching between the source encoding stream and the re-encoding stream or at the splicing point of the re-encoding stream. It has the function of calculating the target bit amount of re-encoding in the re-encoding means so as not to be disconnected.
  • the splice control means of the splicing apparatus of the present invention comprises a VBV buffer which can assume that the trajectory of the data occupancy of the VBV buffer corresponding to the re-encoding stream would have originally been possessed by the source coded stream. It has a function to control the re-encoding means so as to be close to the locus of the data occupancy.
  • the splice control means of the splicing apparatus of the present invention extracts encoded parameters included in the source encoded stream, and selectively extracts the extracted code parameters at the time of re-encoding processing by the re-encoding means. It has the function of preventing image quality deterioration of the splicing stream by reuse. Further, the splice control means of the splicing apparatus of the present invention extracts information on the quantization characteristic included in the source coding stream, and performs re-encoding processing in the re-encoding means based on the extracted quantization characteristic. Re-encode It has the function of controlling the means.
  • the splice control means of the splicing apparatus of the present invention extracts information on the quantization characteristic included in the source coding stream for each picture, and performs re-processing so that overflow and underflow do not occur in the VBV buffer.
  • the target bit amount of each picture in the re-encoding process in the encoding means is calculated, and information on the quantization characteristics included in the source coded stream is extracted for each picture, and extracted from the source coded stream.
  • Re-encoding means for calculating a new quantization characteristic based on the calculated quantization characteristic and the calculated target bit amount, and performing a re-encoding process based on the calculated new quantization characteristic. It has the function of controlling
  • the splice control means of the splicing apparatus of the present invention calculates a target bit amount in the re-encoding processing in the re-encoding means so as to prevent overflow and underflow from occurring in the VBV buffer, and performs source coding.
  • the target bit amount is allocated to each picture to be re-encoded, and the target bit amount allocated to each picture is allocated. It has a function of controlling the re-encoding means so as to perform the re-encoding process for each picture according to the amount of data.
  • the splice control means of the splicing apparatus of the present invention calculates a target bit amount in the re-encoding process in the re-encoding means so that overflow and underflow do not occur in the VBV buffer, and performs source coding.
  • a target bit amount is assigned to each picture to be re-encoded so as to be close to a generated bit amount for each picture in a past encoding process of the stream, and the target bit amount assigned to each picture is set. It has a function of controlling the re-encoding means so that re-encoding processing is performed for each picture according to the amount.
  • the splice control means of the splicing apparatus of the present invention selectively re-uses the motion vector information extracted from the source coding stream at the time of re-encoding by the re-encoding means, thereby providing a splicing signal. It has a function to prevent image quality deterioration of the stream.
  • the splice control means of the splicing apparatus of the present invention includes a source coding splicing device. It is determined whether or not the motion vector information extracted from the stream is to be used during re-encoding by the re-encoding means, and if it is determined to be reused, the motion detected by the motion detecting means is determined. It has a function of controlling the re-encoding means so as to supply the motion vector extracted from the stream instead of the vector to the motion compensation circuit of the re-encoding means.
  • the splice control means of the splicing apparatus of the present invention performs the re-encoding process of the re-encoding means so as not to be predicted from a picture of a different source coded stream across the splice point. It has a function to set the prediction direction for the picture near the splice point to be predicted.
  • the splice control means of the splicing apparatus of the present invention selectively changes a picture type of a picture near the splice point re-encoded by the re-encoding means, thereby obtaining a picture near the splice point of the splicing stream.
  • the splice control means of the splicing apparatus of the present invention includes a splice re-encoding means for re-encoding by a re-encoding means so as not to be predicted from a picture of a different source coded stream across a splice point. It has the function of selectively changing the picture type of the picture near the point.
  • FIG. 1 is a block diagram showing a schematic configuration of a transmission system according to the MPEG standard.
  • FIG. 2 is an explanatory diagram for describing a VBV buffer.
  • FIG. 3 is an explanatory diagram for describing picture rearrangement in the encoder required in the bidirectional predictive encoding scheme of the MPEG standard.
  • FIG. 4 is an explanatory diagram showing the relationship between picture rearrangement and encoding processing in the encoder.
  • FIG. 5 is an explanatory diagram for describing the rearrangement of pictures in the decoder.
  • FIG. 6 shows the relationship between picture reordering and decoding in the decoder.
  • FIG. FIG. 7 is an explanatory diagram for describing motion detection and motion compensation in the bidirectional predictive coding system of the MPEG standard.
  • FIG. 8 is an explanatory diagram showing an example of the relationship between the order of pictures in a stream before and after splicing and the order of picture presentation after splicing when a stream is simply spliced.
  • FIG. 9 is an explanatory diagram showing another example of the relationship between the order of pictures in a stream before and after splicing and the order of picture presentation after splicing when a simple splicing of a stream is performed.
  • FIG. 10 is an explanatory diagram showing an example of the relationship between the order of pictures and the order of picture presentation in a stream after splicing when a simple splicing of the stream is performed.
  • FIG. 11 is an explanatory diagram showing another example of the relationship between the order of pictures and the order of picture presentation in a stream after splicing when a simple stream splicing is performed.
  • FIG. 12 is an explanatory diagram showing still another example of the relationship between the order of pictures and the order of picture presentation in a stream after splicing when a stream is simply spliced.
  • FIG. 13 is an explanatory diagram showing an example of an ideal stream splice satisfying the conditions of picture presentation order, motion compensation, and VBV buffer.
  • FIG. 14 is an explanatory diagram showing a normal stream satisfying the constraints of the VBV buffer.
  • FIG. 15 is an explanatory diagram showing another normal stream satisfying the constraints of the VBV buffer.
  • FIG. 16 is an explanatory diagram illustrating an example of a case where two streams are simply spliced at an arbitrary position.
  • FIG. 17 is an explanatory diagram for explaining another example in which two streams are simply spliced at an arbitrary position.
  • FIG. 19 is a block diagram showing a configuration of a splicing device and a stream editing device according to an embodiment of the present invention.
  • FIG. 20 is a block diagram showing a configuration of the MPEG decoder and MPEG encoder in FIG.
  • FIG. 21 is an explanatory diagram showing an example of a splice point and a re-encoding section in the presentation video data obtained by decoding by the MPEG decoder in FIG.
  • FIG. 22 is an explanatory diagram showing a sequence of pictures before and after decoding two streams in the example shown in FIG. 21.
  • FIG. 23 is an explanatory diagram showing an arrangement of pictures of a spliced stream after splicing in the example shown in FIG. 21.
  • FIG. 24 is an explanatory diagram showing another example of a splice point and a re-encoding section in the presentation video data obtained by decoding by the MPEG decoder in FIG.
  • FIG. 25 is an explanatory diagram showing the picture arrangement of the two streams before and after decoding in the example shown in FIG. 24.
  • FIG. 26 is an explanatory diagram showing an arrangement of pictures of a spliced stream after splicing in the example shown in FIG.
  • FIG. 27 is an explanatory diagram showing an example in which an underflow occurs in the data occupancy of the VBV buffer.
  • FIG. 28 is an explanatory diagram showing an example in which the underflow described in FIG. 27 is improved by the splicing device of the present invention.
  • FIG. 28 is an explanatory diagram showing an example in which an overflow occurs in the data occupancy of the VBV buffer.
  • FIG. 29 is an explanatory diagram showing an example in which the overflow described in FIG. 28 is improved by the splicing device of the present invention.
  • FIG. 30 and FIG. 31 are flowcharts for explaining the operation of the splicing device and the stream editing device of the present invention.
  • FIG. 19 is a block diagram showing a configuration of a splicing device and an editing device according to an embodiment of the present invention.
  • M The splicing device and the editing device, for example, multiple video material video data VD A, the VD B encoder 1 A, the IB
  • P EG standard multiple obtained by Enko one de accordance bidirectional predictive coding method according to coding bit string - beam (hereinafter, simply referred to as streams.) Has become ST A, so as to enter the ST B .
  • the stream in the present embodiment may be any of an elementary stream, a bucketized elementary stream, and a transport stream.
  • Splicing device and the editing device inputs stream STA, the ST B, counts the buffer memory 10 for temporarily storing them, stream-ST A, the number of bits of the STB It comprises a stream counter 11, a stream analyzer 12 for analyzing the syntax of the streams ST A and ST B, and a splice controller 13 for controlling each block described later for performing splicing processing. I have.
  • the splicing device and the editing device further decode the streams STA and STB output from the buffer memory 10 according to the MPEG standard, respectively, and output the MPEG decoders 14A and 14B that output baseband video data.
  • a switch 15 for switching output video data from the MPEG decoders 14A and 14B, and an MPEG encoder 16 for re-encoding output video data output from the switch 15 If, stream-ST a output from the buffer memory 1 0, by switching and outputting re Enko one de stream ST rE output from the STB and the MPEG encoder 1 6, spliced string over arm ST S p And a switch 17 for outputting the same.
  • the buffer memory 10 temporarily stores the supplied two streams ST A and STB in response to a write command from the splice controller 13 described later. Then, in response to a read command from the splice controller 13, the stored streams ST A and STB are read, respectively.
  • Yotsute thereto, stream-STA in order to perform the splice in the splicing point set for each STB, the stream STA, it is possible to match the phases ⁇ Pi timing of splicing points ST B.
  • the stream counter 11 receives the streams ST A and STB, counts the number of bits in each of the streams, and supplies the count value to the splice controller 13.
  • the reason for counting the number of bits of the supplied bit streams ST A and STB is to virtually grasp the trajectory of the data occupancy of the VBV buffer corresponding to the streams ST A and ST B.
  • the stream analysis unit 12 extracts appropriate information from the sequence layer, the GOP layer, the picture layer, and the macroblock layer by analyzing the syntax of the streams STA and STB. For example, picture information indicating a picture type (1, B or P), motion vector, quantization step, and encoding information such as a quantization matrix are extracted and the information is output to the splice controller 13. I do.
  • Pieces of encoding information are encoding information generated in the past encoding processing in the encoders 1A and 1B, and in the splicing apparatus of the present invention, these pieces of encoding information are used. Is used selectively during re-encoding.
  • the splice controller 13 includes a count value output from the stream counter 11, encoding information output from the stream analysis unit 12, and parameters n 0 , m 0 and splices for setting a re-encoding section. It receives a parameter P 0 for indicating a point, and controls the switch 15, the MPEG encoder 16 and the switch 17 based on the information. Specifically, the splice controller 13 controls the switching timing of the switch 15 in accordance with the input parameter p 0, and controls the switching of the switch 17 in accordance with the parameters n 0, m 0 , and p 0. The timing is controlled.
  • the splice controller 13 has a stream counter 11 and a stream counter. Based on the count value supplied from the system analysis unit 12 and the encoding information supplied from the stream analysis unit 12, the spliced stream prevents the VB V buffer from overflowing and underflowing. The new target code amount is calculated for each picture in the re-encoding section so that the trajectory of the data occupancy of the VBV buffer does not become discontinuous due to the spliced stream.
  • the price controller 13 adjusts the delay amount of each of the streams ST A and STB in the buffer memory 10 by controlling, for example, the write address and the read address of the buffer memory 10, and sets the presentation time.
  • the phase of the splice point of each stream ST A and STB is adjusted based on the reference.
  • FIG. 20 is a block diagram showing the configuration of the MPEG decoders 14A and 14B and the MPEG encoder 16 in FIG.
  • MP EG decoder 14 on behalf of the MPEG decoder 14 A, 14 B, shows stream ST A, on behalf of the STB as a stream ST.
  • the MPEG decoder 14 receives the stream ST, and performs variable length decoding on the variable length decoding circuit (denoted as VLD in the figure) 21 and the output data from the variable length decoding circuit 21.
  • Motion compensation unit for outputting the predicted image data to the addition circuit 24 and a 28.
  • MP EG encoder 16 outputs the output video supplied from MP EG decoder 14
  • An encoder pre-processing unit 30 for performing pre-processing for encoding on data is provided.
  • the encoder pre-processing unit 30 rearranges pictures for encoding by bidirectional predictive encoding, calculates a macroblock of 16 ⁇ 16 pixels, calculates the encoding difficulty of each picture, etc. Is performed.
  • the MPEG encoder 16 further includes a subtraction circuit 31 for obtaining a difference between the output data of the encoder preprocessing unit 30 and the predicted image data, and an output data of the encoder preprocessing unit 30 and an output of the subtraction circuit 31.
  • a switch 32 for selectively outputting one of the data and a DCT (discrete cosine transform) block unit for the output data of the switch 32 to output a coefficient of 0 ⁇ 001: 001 Circuit (shown as DC T in the figure)
  • variable-length coding circuit outputs the ST RE (in the figure to serial and VLC.) and a 35.
  • the MPEG encoder 16 further includes an inverse quantization circuit (denoted as IQ in the figure) 36 for inversely quantizing the output data of the quantization circuit 34, and an output data of the inverse quantization circuit 36.
  • Two frame memories shown as FM 1 and FM 2 in the figure) for holding the output data of the frame memories 39 and 40 and the frame memories 39 and 40
  • a motion compensation unit that performs motion compensation on the basis of the data held in 40 and the motion vector information to generate predicted image data, and outputs the predicted image data to a subtraction circuit 31 and an addition circuit 38. (In the figure, it is described as MC.) 41 is provided.
  • the MPEG encoder 16 further detects a motion vector based on the data held in the frame memories 39 and 40 and the output data of the encoder preprocessing unit 30, and outputs a motion vector to output the motion vector information. It receives the circuit (denoted by ME in the figure) 42, the encode information supplied from the splice controller 13 and the target code amount, and based on these information, a quantization circuit 34 and an inverse quantization circuit 36. And an encoder controller 43 for controlling the frame memories 39 and 40, and movements controlled by the encoder controller 43 and output from the encoder controller 43. A switch 44 for selectively outputting one of the vector information and the motion vector information output from the motion detection circuit 42 to the motion compensation unit 41 is provided.
  • the stream ST is variable-length decoded by the variable-length decoding circuit 21, is inversely quantized by the inverse quantization circuit 22, and inverse DCT is performed by the inverse DCT circuit 23.
  • the output data of the inverse DCT circuit 23 is input to the adding circuit 24 and the switch 25.
  • output data of the inverse DCT circuit 23 is output as output data of the MPEG decoder 14 via the switch 25.
  • the output data of the inverse DCT circuit 23 and the predicted image data output from the motion compensator 28 are added by the addition circuit 24 to reproduce the P picture or the B picture.
  • the output data of the adder circuit 24 is output as output data of the MPEG decoder 14 via the switch 25.
  • the I picture or the P picture is appropriately held in the frame memories 26 and 27, and is used by the motion compensation unit 28 to generate predicted image data.
  • the output data of the MPEG decoder 14 is input to the encoder pre-processing unit 30, and the encoder pre-processing unit 30 performs picture rearrangement, macroblock conversion, and the like.
  • the encoder pre-processing unit 30 rearranges pictures based on the picture type information from the splice controller 13.
  • Output data of the encoder pre-processing unit 30 is input to the subtraction circuit 31 and the switch 32.
  • the switch 32 selectively outputs the output data of the encoder preprocessor 30.
  • the subtraction circuit 31 subtracts the predicted image data output from the motion compensation section 41 from the output data of the encoder preprocessing section 30, and the switch 3 2 Output data of 1 selectively.
  • the output data of the switch 32 is subjected to DCT by the DCT circuit 33, the output data of the DCT circuit 33 is quantized by the quantization circuit 34, and is variable-length coded by the variable-length coding circuit 35, and the stream ST Output as RE .
  • the output data of the quantization circuit 34 is
  • the inverse DCT circuit 37 performs inverse quantization, and the inverse DCT circuit 37 performs inverse DCT.
  • the output data of the inverse DCT circuit 37 is held in the frame memory 39 or the frame memory 40.
  • the output data of the quantization circuit 34 is inversely quantized by the inverse quantization circuit 36
  • inverse DCT is performed by the inverse DCT circuit 37
  • the inverse DCT circuit 3 is calculated by the addition circuit 38.
  • 7 and the predicted image data from the motion compensator 41 are added and held in the frame memory 39 or the frame memory 40.
  • the I-picture or P-picture held in the frame memory 39 or the frame memory 40 is appropriately used by the motion compensation unit 41 to generate predicted image data.
  • the motion detection circuit 42 detects a motion vector based on the data held in the frame memories 39 and 40 and the output data of the encoder preprocessing unit 30 and outputs the information of the motion vector. Output.
  • the encode controller 43 receives the encode information and the target code amount for each picture supplied from the splice controller 13 and, based on the information, a quantization circuit 34, an inverse quantization circuit 36, Frame memory 39, 40 and switch
  • the encoding controller 43 uses the information of the motion vector as a switch.
  • the motion vector included in the encoding information supplied from the splice controller 13 is not reused, the motion vector is newly generated in the motion detection circuit 42.
  • the switch 44 is controlled so that information on the motion vector is input to the motion compensator 41.
  • the encoding controller 43 holds the pictures necessary for generating the predicted image data in the frame memories 39 and 40 based on the picture type included in the encode information supplied from the splice controller 13
  • the frame memories 39, 40 are controlled as described above.
  • the encode controller 43 monitors the amount of code generated by the variable-length encoding circuit 35 and controls the variable-length encoding circuit 35. Then, the encoder controller 43 determines that the generated code amount does not match the set target code amount. When the VBV buffer is likely to overflow, dummy data is added, that is, stuffing is performed to compensate for the shortage of the generated code amount with respect to the target code amount. Also, when the generated code amount exceeds the set target code amount and the VBV buffer is likely to underflow, the encode controller 43 performs a skipped macro that is a process of stopping the encoding process in units of macro blocks. Block processing (ISO / IEC 1 381 8-2 7.6.6) is performed.
  • FIG. 21 is an explanatory diagram showing an example of splice points and re-encoding sections in video data (hereinafter, referred to as presentation video data) obtained by decoding by the MPEG decoders 14A and 14B.
  • FIG. 21 (a) that shows the presentation video data corresponding to the presentation video data
  • ST B stream B
  • a re-encoding section is set as a predetermined section before and after the splice point including the splice point.
  • the re-encoding section is set using parameters n 0 and m 0 .
  • the picture of the splice point in the presentation video data corresponding to the stream STA is represented as A n _ Po using the parameter p 0
  • the picture of the splice point A n Future pictures than -p 0 are A (n — p 0) +1 , A (n — p 0) +2 , A ( n — p 0) +3 , A (n — Po) +4
  • the picture past the splice point picture A n _ Po is A ( n — po) — ⁇ A
  • n 0 frames are set before the splice point
  • m 0 frames are set after the splice point. Therefore, re-encoding section, the picture A (n - p 0) + n0 ⁇ picture A n _ Po pixels off - catcher> m - p 0 ⁇ pixels catcher D (m -po) - the m0.
  • the re-encoding process is performed for the re-encoding section set as described above.
  • This re-encoding process means that the supplied source encoded streams ST A and ST B are restored to baseband video data by decoding, and the two pieces of decoded video data are connected at a splice point.
  • the video data and re-encoding is a process that creates a new stream-ST rE.
  • This re-encoding eliminates the problems associated with picture reordering and motion compensation. This will be described below.
  • FIG. 22 shows the arrangement of pictures before and after decoding in the example shown in FIG.
  • (a) shows the stream STA near the re-encoding section
  • (b) shows the presentation video data corresponding to the stream ST A near the re-encoding section
  • (c) shows the It shows the presentation video data corresponding to the stream STB near the encoding section
  • (d) shows the stream STB near the re-encoding section.
  • REP A indicates a picture to be re-encoded in the presentation video data corresponding to the stream STA
  • REP B indicates a picture to be re-encoded in the presentation video data corresponding to the stream STB.
  • the curved arrows indicate the prediction direction.
  • FIG. 23 shows a state after the stream ST A and the stream ST B shown in FIGS. 21 and 22 have been spliced
  • FIG. 23 (a) shows a state where the two streams have been spliced. It indicates presentation video data after
  • FIG 2 3 (b) shows a stream ST SP after splicing two streams.
  • the stream ST SP shown in Fig. 23 (b) The image data shown in FIG. 23 (a) is re-encoded to generate a new stream ST RE , which is further re-coded as an original stream ST A (hereinafter referred to as OST A ) before the re-encoding section.
  • OST A original stream ST A
  • TRE indicates a re-encoding period.
  • FIGS. 24 to 26 show other examples having different splice points from the examples shown in FIGS. 21 to 23.
  • FIG. 24 to 26 show other examples having different splice points from the examples shown in FIGS. 21 to 23.
  • FIG. 24 is an explanatory diagram showing another example of a splice point and a re-encoding section in presentation video data.
  • (a) shows presentation video data corresponding to stream ST A
  • (b) shows presentation video data corresponding to stream ST B.
  • FIG. 25 shows the arrangement of pictures before and after decoding in the example shown in FIG.
  • (a) shows the stream ST A near the re-encoding section
  • (b) shows the presentation video data corresponding to the stream STA near the re-encoding section
  • (c) shows the re-encoding section.
  • the presentation video data corresponding to the stream STB near the section is shown
  • (d) shows the stream STB near the re-encoding section.
  • FIG. 26 shows an arrangement of pictures after splicing in the example shown in FIG.
  • (a) shows image data obtained by concatenating the presentation video data shown in FIG. 25 (b) and the presentation video data shown in FIG. 25 (c), and (b) shows splice data.
  • This shows the stream ST SP that was created.
  • the stream ST sp shown in (b) re-encodes the image data shown in (a) for the re-encoding section to generate a new stream ST RE , and further generates the stream ST RE before the re-encoding section.
  • FIG. 26 (a) is the result of the reconstruction of the picture type, picture B m - shows the status after the Po is changed to the I picture from the P-picture.
  • picture A n-po is a B picture
  • this picture A n -p 0 is originally a picture on which bidirectional predictive encoding processing is performed.
  • predictive coding process using a picture belonging to a different stream ST B is occur while image quality deterioration occurs. Therefore, in the present embodiment, even in the case of a B picture, prediction encoding is performed at the time of re-encoding without using prediction from the picture side belonging to a different stream.
  • the picture A n _p the previous ⁇ picture - performing ( ⁇ ( ⁇ ⁇ ) +1) only predictive encoding process using the.
  • the setting of the picture type reconstruction as described above is performed by the splice controller 13, and the information of the picture type reconstruction setting is given to the encoder controller 43 of the MPEG encoder 17.
  • the encoding controller 43 performs an encoding process according to the picture type reconstruction setting.
  • the reuse of the encoding information generated in the past encoding processing such as the motion vector is also performed according to the picture type reconfiguration setting.
  • the splice processing exists in the stream STB after (past) the picture B m — Po in the stream STB as shown in Fig. 25 (d).
  • B-picture which has been (B (m - Po) +2 and B (m _ P o) +1 ) , in order to be discarded after the decoding as shown in FIG. 25 (c), re Enko It does not exist in the picture sequence after loading.
  • a method of calculating a new target code amount for image data in a re-encoding section according to the present embodiment will be described with reference to FIGS. 27 to 30.
  • the spliced stream's VBV buffer will either underflow or overflow after the splice point, or the data occupancy trajectory of the VBV buffer of the spliced stream will be Discontinuities occur.
  • the re-encoding process of the splicing apparatus of the present invention for solving these problems will be described with reference to FIGS. 27 to 30.
  • FIG. 27 shows an example in which a simple splicing process corresponding to FIG. 23 described above is performed, and FIG. 27 (a) shows the VB of the stream ST RE 'to be re-encoded.
  • FIG. 27B is a diagram showing a locus of the data occupancy of the V buffer
  • FIG. 27B is a diagram showing a stream ST RE for re-encoding.
  • T RE indicates a re-encoding control period
  • OS T A indicates an original stream A
  • ST RE ' indicates a re-encoding target stream to be re-encoded.
  • this stream to be re-encoded ST RE ' is different from the re-encoded stream ST RE which is actually re-encoded, and is assumed to be such a stream ST RE when simple splicing is performed.
  • OST B indicates the original stream B
  • SP VBV indicates a splice point in the VBV buffer
  • SP indicates a splice point in the stream.
  • the trajectory of the VBV buffer of stream STRE 'to be spliced is the data occupancy of the VBV buffer of stream A (STA) before the splice point SP.
  • STA data occupancy of the VBV buffer of stream A
  • STB locus of the data occupancy of the VBV buffer of the stream B
  • FIG. 27 (a) the start level of the data occupancy of VBV in stream B at the splice point must match the end level of the data occupancy of VBV in the splice point of stream A. That is, in order to make these levels coincide, in the example shown in FIG. 27 (a), the locus of the data occupancy of the VBV buffer of stream B originally had during the re-encoding control period T RE . The level must be lower than the trajectory. Note that the trajectory that this data occupancy trajectory would originally have is the data occupancy of the VB V buffer for stream B assuming that the supplied stream B was not spliced. This is indicated by the extended trajectory of VB V 0ST B in FIG. 27 (a).
  • the VBV buffer underflows at the timing of extracting the I-picture having the largest amount of bits extracted from the VBV buffer.
  • the trajectory of the data occupancy of the VBV buffer is continuous at the splice point, and it is necessary to prevent the occurrence of an underflow after the splice point.
  • a new target code amount is set for each picture in the re-encoding period.
  • the trajectory of the data occupancy of the VBV buffer of stream B is simply reduced so that the trajectory of the data occupancy of the VBV buffer of the spliced stream is continuous at the spplus point, an underflow occurs
  • the trajectory of the data occupancy of the VBV buffer becomes discontinuous at the switching point between the stream ST RE 'for re-encoding and the original stream OSTB.
  • the locus of the data occupancy of the VBV buffer is continuous at the switching point between the stream to be re-encoded ST RE -and the original stream OS TB as shown in FIG. In this way, a new target code amount is set for each picture in the re-encoding period.
  • the reason for not controlling the origination Narusutori Ichimu OSTB the corresponding trajectory VB V 0st data occupancy quantity of the VBV buffer B includes a trajectory VBV 0st B, the locus of the data occupancy quantity of VB V buffer of stream B This is because it is a trajectory that it originally had, and this trajectory cannot be controlled. Because this trajectory VB V 0ST B is the optimal trajectory determined so that the original stream OSTB does not overflow or underflow, if the level of this optimal trajectory is controlled, the overflow or This is because underflow may occur.
  • FIG. 29 shows an example in which the splicing process corresponding to FIG. 26 described above is performed
  • FIG. 29 (a) is a diagram showing a locus of the data occupancy of the VBV buffer of the splicer stream ST sp.
  • FIG. 29 (b) is a diagram showing a spliced stream STsp.
  • T RE indicates a splice period under splicing control
  • OST A indicates an original stream A
  • ST RE indicates a stream to be re-encoded
  • OST B indicates an original stream B.
  • SP VBV indicates a splice point in the VBV buffer
  • SP indicates a splice point in the stream.
  • the locus of the VBV buffer of the spliced stream to be re-encoded ST RE occupies the data of the VBV buffer of stream A (STA). After the splice point SP, it becomes a locus of the data occupancy of the VBV buffer of the stream B (STB).
  • STB locus of the data occupancy of the VBV buffer of the stream B
  • FIG. 29 (a) To realize seamless splicing in which the locus of VBV data occupancy at the splice point of stream A and the locus of VBV data occupancy of stream B at the splice point are continuous, FIG. As in a), the start level of the data occupancy of the stream B VBV at the splice point must match the end level of the VBV data occupancy at the stream A splice point. In other words, in order to make these levels coincide, in the example shown in Fig. 29 (a), the locus of the data occupation amount of the stream B VBV buffer originally exists in the re-encoding process control period T RE . The level must be higher than the trajectory that would have been. The trajectory that this data occupancy trace would have originally is the data occupancy of the VB V buffer for stream B assuming that supplied stream B was not spliced. This is indicated by the extended trajectory of VBV 0ST B in Fig. 29 (a).
  • this VBV buffer is It overflows.
  • the trajectory of the data occupancy of the VBV buffer is continuous at the splice point, and no overflow occurs after the splice point. Then, a new target code amount is set for each picture in the re-encoding period.
  • trajectory of the data occupancy of the VBV buffer of stream B is simply increased so that the trajectory of the data occupancy of the VBV buffer of the spliced stream is continuous at the spplus point, overflow occurs.
  • the trajectory of the data occupancy of the VBV buffer becomes discontinuous at the point of switching between the stream ASTR 'for re-encoding and the original stream OSTB.
  • a new target code amount is set for each picture in the re-encoding period so that the trajectory of the data occupancy of the VBV buffer is continuous. ing.
  • the reason why the trajectory VBV 0ST B of the data occupancy of the VBV buffer corresponding to the original stream OS TB is not controlled is that the trajectory VB V 0 S TB is originally the trajectory of the data occupancy of the VB V buffer of stream B. This is because it is a trajectory that it would have had, and this trajectory cannot be controlled. Because this trajectory VB V 0ST B is the optimal trajectory determined so that the original stream OSTB does not overflow or underflow, if the level of this optimal trajectory is controlled, the overflow or underflow will occur. This is because it may occur.
  • vbv_under indicates the amount of underflow of the VBV buffer
  • vbv—over indicates the amount of overflow of the VBV buffer
  • vbv_gap indicates the stream ST RE 'that is to be re-encoded. This data shows the gap value of the VBV buffer at the switching point with the stream OS TB.
  • the splice controller 13 determines the data occupancy of the original stream ⁇ ST A VBV buffer based on the bit count value of stream A and the bit count value of stream B supplied from the stream counter 11. Locus, the locus of the data occupancy of the VBV buffer of the original stream OS TB, and the data occupancy of the VBV buffer of the stream ST RE , which is to be re-encoded when stream A and stream B are simply spliced. Calculate the trajectory.
  • the trajectory of the data occupancy of each VBV buffer is calculated by subtracting the bit amount output from the VBV buffer according to the presentation time from the bit count value supplied from the stream counter 11 for each presentation time. By doing so, it can be easily calculated.
  • the splice controller 1 the origination Narusu stream OS T data occupancy quantity of the locus of the VBV buffer A, the original stream locus of the data occupancy quantity of the VBV buffer of OSTB, and stream A
  • the trajectory of the data occupancy of the VBV buffer of the re-encoding target stream STR E can be virtually grasped.
  • the splice controller 13 refers to the trajectory of the data occupancy of the VBV buffer of the stream to be re-encoded ST RE , which is virtually obtained, and thereby under-streams the stream to be re-encoded ST RE '. Calculate the flow amount (vbv-under) or the overflow amount (vbv-over).
  • the splice controller 13 calculates the trajectory of the data occupancy of the VBV buffer of the stream ST RE ', which is virtually obtained, and the occupancy of the data of the VBV buffer of the original stream OS TB. (by reference to the VB V 0st, it calculates a gap value of the VBV buffer (vbv- gap) in the sweep rate Tsu quenching Poin DOO the re-encoding Target stream ST rE 'to the original stream OS TB.
  • the splice controller 13 obtains the offset amount vbv-off of the target code amount by the following equations (1) and (2).
  • vov_off — (vbv— under-vbv— gap)... (1)
  • vbv—off + (vbv_over-vbv—gap)... (2) If the VBV buffer underflows as in the example shown in Fig. 27 (a), use equation (1). The offset amount vbv—off is calculated, and when the VBV buffer overflows as in the example shown in FIG. 29 (a), the offset amount vbv_off is calculated using equation (2).
  • the splice controller 13 calculates the target code amount (target bit amount) TB ⁇ by the following equation (3) using the offset amount vbv_off obtained by the equation (1) or (2). . no mo
  • this target bit amount TB po is calculated for the picture to be re-encoded. Is a value indicating a target bit amount to be allocated.
  • GB_A is a value indicating the bit generation amount of any picture from picture A n -p 0 to picture A (n — Po) + no in stream A
  • ⁇ GB_A (n _ Po) + i from the picture a n _ Po picture a (n - is the total value of the quantity of generated bits of each picture to Po) + n0.
  • GB_B is picture B from the picture B m _ Po in the stream B (m - Po) - up m0 les, a value indicating the quantity of generated bits of a picture of Zureka, sigma
  • GB_B (m - p 0) - i is the picture B m - a - (p 0 m) value which is the sum of bits generated amount of each picture to _ m0 pictures from Po B.
  • the target code amount TB po expressed by the equation (3) is calculated as follows: picture ⁇ ( ⁇ — ⁇ 0) + ⁇ 0
  • the splice controller 13 converts the target bit amount TB po obtained based on the equation (3) from the picture A (n— p0 ) + n0 to the picture B (m— p0 ) —m0. Assign.
  • the quantization characteristics of each picture are determined so that the pictures are distributed in a ratio of 4: 2: 1.
  • the splicing apparatus of the present invention does not simply use a quantization characteristic that distributes the target bit amount TB Po at a fixed ratio of 4: 2: 1 with respect to the I picture: P picture: B picture. without referring to the quantization characteristics, such as past of the quantization step and the quantization matrix of each picture a (n -p 0) + n0 ⁇ picture B (m-Po) -mo, determine a new quantizer characteristic I do.
  • the encoding controller 43 refers to the information of the quantization step and the quantization matrix included in the stream A and the stream B, and performs the quantization in the past encoding process in the encoders 1A and 1B.
  • the quantization characteristic at the time of re-encoding is determined so that it does not greatly differ from the quantization characteristic. However, a picture whose picture type has been changed due to Regarding the channel, a new quantization characteristic is calculated at the time of re-encoding without referring to the quantization step and quantization matrix information.
  • Fig. 28 shows the data in the VBV buffer when re-encoding is performed with the target bit amount TB po calculated in the splice controller 13 in order to solve the problem of VBV buffer underflow described in Fig. 27. It is a figure for showing occupancy. Also, FIG. 30 shows the V when the re-encoding process is performed with the target bit amount TB po calculated in the splice controller 13 in order to solve the VBV buffer overflow problem described in FIG.
  • FIG. 5 is a diagram showing the data occupancy of a BV buffer.
  • the re-encoded stream ST RE after re-encoding is, as shown in FIGS. 28 and 30, the VB V buffer of the re-encoding target stream ST RE in FIG. 27 (a).
  • the locus of the data occupancy is similar to the locus of the data occupancy of the VBV buffer of the re-encoded code stream ST in Fig. 28 (a), and the trajectory of the stream to be re-encoded ST RE 'in Fig. 29 (a) is similar.
  • the locus of the data occupancy of the VBV buffer is similar to the locus of the data occupancy of the VBV buffer of the re-encoding stream ST RE in FIG. 30 (a).
  • the present embodiment satisfies the rules of Annexe C of IS01381-8-2 and IS011172-2 and the rules of AnnexeL of IS01381818-1.
  • step S 10 the splice controller 1 3 receives a stream ST A, re-encoding section n at the splicing point p 0 and splicing processing for splicing the STB at any picture position 0, m 0.
  • the operator inputs these parameters from the outside.
  • the re-encoding sections n 0 and m 0 may be automatically set according to the stream GOP configuration and the like.
  • a case where the stream STA is switched to the stream STB at the splice point will be described as an example. However, the reverse is also possible.
  • step S11 splice controller 13 sends stream ST A And control the write operation of the buffer memory 10 so that the stream STB is temporarily stored in the buffer memory 10, and the phase of the splicing point of the stream STA and the stream STB with respect to the presentation time.
  • the read operation of the buffer memory 10 is controlled so that the signals are synchronized.
  • step S12 the splice controller 13 selects a picture of the stream ST A so as not to output a picture future than the picture A n _ Po of the splice point set in the stream ST A, and selects a picture of the stream ST B
  • the picture of stream ST B is selected so as not to output a picture past the splice point picture B m — ⁇ set to.
  • the picture A (n -p 0) - 2 a is P picture, string - On-time ST A, spliced Boyne City of picture A It is more past than n - Po , but in the order of presentation it is more future than picture A n-po. Therefore, this picture ⁇ ( ⁇ — ⁇ 0) — 2 ⁇ picture is not output. Further, in the example shown in FIG. 25 (a) ⁇ Pi view 25 (b), the picture A (n -p 0) - 2 a is P picture, string - On-time ST A, spliced Boyne City of picture A It is more past than n - Po , but in the order of presentation it is more future than picture A n-po. Therefore, this picture ⁇ ( ⁇ — ⁇ 0) — 2 ⁇ picture is not output. Further, in the example shown in FIG.
  • the splice controller 13 controls the decoders 14A and 14B, so that the pictures not selected in this step are not supplied to the encoder 16.
  • step S13 the splice controller 13 starts processing for setting encoding parameters required for picture reconstruction processing when performing re-encoding processing.
  • This picture reconstruction processing means the following processing from step S14 to step S30, and the parameters set in this processing are a picture type, a prediction direction, a motion vector, and the like. .
  • step S14 the splice controller 13 performs a picture reconstruction process. It is determined whether the picture to be processed is a picture A n _Po at the splice point. If the picture to be subjected to the picture reconstruction processing is the picture A n — po at the splice point, the process proceeds to the next step S15. On the other hand, otherwise, that is, picture relevant catcher to be subjected to the picture reconstruction process is a picture Alpha - in the case of ( ⁇ ⁇ ) + picture ⁇ ( ⁇ _ ⁇ 0) from .eta.0 +1, the step S 2
  • step S15 the splice controller 13 determines whether the picture to be subjected to the picture reconstruction processing is a ⁇ picture, a ⁇ picture, or an I picture. If the picture to be subjected to the picture reconstruction processing is a ⁇ picture, the process proceeds to step S17. If the picture to be subjected to the picture reconstruction processing is a ⁇ or I picture, Proceed to step S18.
  • Step S 1 6 the splice controller 1 3, in spliced spliced stream ST S p, it is determined whether two or more ⁇ pixels Chiya the previous picture A ⁇ - ⁇ exists. For example, as shown in Figure 26 (b), before the picture A n-po, two ⁇ pictures (picture ⁇ ( ⁇ _ ⁇ 0 ) +2 and picture ⁇ ( ⁇ - ⁇ ) + 3) are If so, go to step S18. If not, go to step S17.
  • step S 1 7 the splice controller 1 3 determines that no required changes pixels Chiyataipu picture A n _ Po, as the picture type at the time of re-encoding process of the picture A n _ Po, past the encoder 1 A Set the same picture type as the picture type (B picture) set in the encoding process of. Therefore, at the time of the re-encoding processing described later, the picture A n — po is coded again as a picture.
  • step S 1 8 the splice controller 1 3 changes the picture type of picture ⁇ ⁇ _ ⁇ () from ⁇ picture in ⁇ picture.
  • the reason for changing the picture type will be described.
  • Reaching this step S18 means that before the ⁇ picture (picture A ⁇ - 1 po), two B pictures (picture A (n- 1 p0 ) +2 and picture A ( n 1 p 0) +3 ) exists. I taste. That is, in the re-encoding target stream ST RE ', is that are lined up three B Piku Chiya.
  • a normal MPEG decoder has only two frame memories to temporarily store the predicted picture, so if three B pictures are consecutively arranged on the stream Will not be able to decode the last B picture. Therefore, as explained in FIG. 2 6, by changing the picture type of the picture A ⁇ - ⁇ ⁇ the picture or al ⁇ picture, reliably picture A n _ Po can and child decoded.
  • step S 1 9 the splice controller 1 3 determines that no required changes pixels Chiyataipu picture A ⁇ _ ⁇ , picture A n - as a picture type at the time of re-encoding process of the P (), the encoder 1 A Set the same picture type as the picture type (I picture or P picture) set in the past encoding process in.
  • step S 2 the splice controller 1 3 determines that no required changes pixels Chiyataipu picture A n -p 0, as a picture type at the time of re-encoding process of the picture A ⁇ _ ⁇ , in the encoder 1 A Set the same picture type as the picture type (I picture, P picture or B picture) set in the past encoding process.
  • step S21 the splice controller 13 sets a prediction direction and a parameter related to a motion vector for each picture.
  • the picture picture a ⁇ - ⁇ which are subject to the configuration process, ⁇ ( ⁇ _ ⁇ ) +1 of [rho picture ⁇ Pi ⁇ ( ⁇ - ⁇ ()) - is bidirectional prediction from both of the picture of the second [rho picture
  • the picture was That is, in the past E down code processing in the encoder 1 Alpha, picture ⁇ ⁇ - ⁇ is, A (n - p 0) +1 P-picture and A (n - p 0) _
  • Step S 1 2 as described in, since A (n one p 0) one second P-picture is not output as the splicing stream picture reconstruction
  • the backward prediction picture of the picture A n-po to be processed is ⁇ ( ⁇ - ⁇ () )
  • the splice controller 13 sets the unidirectional prediction in the forward direction so as to predict only the P picture of A (n — p 0) +1 for the picture A n — ⁇ .
  • a one-sided prediction that predicts only the P picture of A ( n — p 0) +1 is performed.
  • step S 1 9 picture type in the set that no modified picture A n _ Po (P-picture), the prediction direction is not changed.
  • the splice controller 13 performs a one-way forward operation on the picture A n — p 0 so as to predict only the same picture as the picture predicted during the past encoding process in the encoder 1 ⁇ . Set forecasts.
  • the change of prediction direction picture type settings that no modified picture A (n _ Po) + n0 from picture A in step S 2 0. That is, in this case, the splice controller 13 compares the picture A ( n_p0 ) + n0 to the picture A (n— p0 ) +1 with the picture predicted during the past encoding processing in the encoder 1A. Set the prediction direction to predict the same picture. However, both picture A (n- p0 ) +1 and picture A n- po are predicted from bidirectional pictures of forward P-pictures or I-pictures and reverse I-pictures or P-pictures.
  • the picture A ( n- ⁇ 0) + ⁇ must be changed to unilateral prediction in which not only picture A n _p 0 but also picture A ( n ⁇ 1 ⁇ 0 ) + ⁇ is predicted only from forward pictures.
  • the splice controller 13 uses the motion vector set by the previous encoding process in the encoder 1A for each picture based on the newly set prediction direction. Determine whether or not to reuse during re-encoding processing.
  • the motion vector used in the past encoding process in the encoder 1A is used as it is in the re-encoding process. For example, in the examples shown in FIGS. 23 and 26, pictures A (n — Po) + n0 to picture A (n _p 0) +1 are used for past encoding processing in the encoder 1 A, respectively.
  • the motion vector is reused at the time of restart.
  • the picture ⁇ ( ⁇ — ⁇ 0) + i and the picture A n _p 0 are a P picture or I picture in the forward direction and a B picture predicted from both directions of the I or P picture in the reverse direction.
  • the prediction is changed to unilateral prediction in which prediction is performed only from the forward picture, only the motion vector corresponding to the forward picture needs to be used. That is, the splice controller 1 3, in this scan Tetsupu S 2 1, pictures A - If (n p 0) +1 ⁇ Pi picture A n _ Po is B-picture, with respect to these pictures, forward Use the motion vector for the picture in the direction, and do not perform the motion vector for the picture in the opposite direction.
  • picture A n _ P 0 is a picture that was unilaterally predicted in the reverse direction only from ⁇ ( ⁇ — ⁇ 0) — 2, which is a future picture , generated during the re-encoding process, without any motion base-vector generated during the encoding process in the past is used in the encoder 1 Alpha, a new motion vector corresponding to a (n _ P ()) +1 I do. That is, the splice controller 13 makes a setting in step S21 in which no past motion vector is used.
  • step S22 the splice controller 13 determines a picture type, a prediction direction, and a past motion vector for all pictures from picture A ( n -PO) + no to picture A n-Po. Then, it is determined whether or not the parameters relating to are set.
  • step S 2 3 the splice controller 1 3 picture has a picture reconstruction processing of the object to determine whether the picture B m _ Po splice Boyne bets. If the picture to be subjected to the picture reconstruction processing is the picture B m -p 0 at the splice point, the process proceeds to the next step S24. On the other hand, if not, that is, the picture targeted for picture reconstruction processing If the key is picture B (m- p0 ) -i to picture B ( m- Po) + m0 , the process proceeds to step S2-8 .
  • step S24 the splice controller 13 determines whether the picture to be subjected to the picture reconstruction processing is a B picture, a P picture, or an I picture. If the picture to be reconstructed is a B picture, the process proceeds to step S25. If the picture to be reconstructed is a P picture, the process proceeds to step S25. Proceeding to step S26, if the picture to be subjected to the picture reconstruction processing is an I picture, the procedure proceeds to step S27.
  • step S 2 5 the splice controller 1 3, as shown by the example in FIG. 2 2 ⁇ Pi Figure 2 3, picture B during re-encoding process m - change of the picture type of Po is determined that there is no need and is set as picture type during re-encoding process of the picture B m -p 0, the same picture type as set by picture type (B-picture) in Enko one de processing the past in the encoder 1 B.
  • step S 2 6 the splice controller 1 3, as in the example shown in FIG. 2 5 and 2 6, the picture B m - to change the picture type of po from P picture to the I pixels Chiya.
  • a P-picture is a picture of uni-prediction predicted from an I-picture or P-picture in the jlll direction, and therefore, is a picture that always exists at a position after the predicted picture on the stream. If the first picture B M — Po of the splice point in the stream STB is a P-picture, it must be predicted from the forward picture of the stream STA that precedes this picture B m -Po .
  • the splice controller 1 3 the first picture B m of stream-ST B Keru Supuraisupo Into - if the picture type of Po was P-picture, the picture B m - the picture type of P () I Change to a picture.
  • step S 2 7 the splice controller 1 3, picture B m _ P of () It is determined that there is no need to change the picture type, and the picture type (I picture) set in the past encoding process in the encoder 1B is used as the picture type at the time of re-encoding the picture B m -po. Set the same picture type.
  • step S 2 8 the splice controller 1 3, picture B (m-po) ⁇ force al picture B (m one p 0) - m0 required picture type changes is judged to no re their picture
  • the same picture type (I picture, P picture or B picture) set in the past encoding processing in encoder 1B is set.
  • step S29 the splice controller 13 sets a prediction direction and a motion vector for each picture.
  • the picture B m _ Po which are subject to the picture reconstruction process is a B-picture in the original stream OSTB is re picture relevant catcher
  • the picture B m - Po that is the target of the composition processing was bi-directionally predicted from both the P picture of B ( m- 1 ⁇ 0 ) + ⁇ and the I picture of ⁇ ⁇ - ⁇ )-2 It is a picture.
  • the picture B m - Po is the picture of both the ⁇ picture of B ( m — ⁇ 0 ) + ⁇ and the I picture of B ( m- p 0) — 2 Is a picture that has been bidirectionally predicted from.
  • B (m - p 0) since +1 P-picture is not output as the splicing stream, picture B m _ P to be subjected to the picture reconstruction process () P picture of B (m — ⁇ 0) + ⁇ cannot be specified as the forward prediction picture of.
  • Step S 2 5 pixels Chiya set and without changing the picture type in B m - for the Po (B-pictures), B (m - p 0 ) - of Yoyo only to predict the second I-picture Reverse one-sided prediction must be performed. Therefore in this case, splice controller 1 3, picture B m - relative po, B (m - ⁇ 0 ) - 2 I-picture relevant Yanomi to perform a reverse side prediction as to predict Set the prediction direction to.
  • step S28 picture B ( m- For the picture from (P0) + m0 to picture B (m-P0) +1, the prediction direction needs to be changed. That in this case, the splice controller 1 3, picture B (m - P ()) + a m () for the picture B (m _p 0) + i , predicted during past encoding processing in the encoder 1 B Set the prediction direction to predict the same picture as the predicted picture. However, when B ⁇ p ⁇ -i is a B picture, as in the case of picture B m - Po , for picture B (m -p 0) -1, only B (2 I pictures The prediction direction is set such that one-sided prediction in the reverse direction is performed to predict the prediction.
  • step S29 the splice controller 13 uses the motion vector set by the previous encoding process in the encoder 1B for each picture based on the newly set prediction direction. Determine whether or not to reuse during re-encoding processing.
  • the motion vector used in the past encoding process in the encoder 1B is used as it is in the re-encoding process.
  • B (m -p 0 ) - For each picture from the second I-picture to the P picture to the B (m m0, motion used during past encoding .
  • step S 3 the splice controller 1 3, picture B from the picture B m_ PQ (m - p 0 ) - with respect to m o all pictures, picture type, Prediction Direction and motion base-vector It is determined whether the parameter has been set.
  • step S31 the splice controller 13 uses the equation already described. Based on (3), a target bit amount (TB Po ) to be generated in the re-encoding period is calculated. This will be specifically described below. First, the splice controller 1 3, bit count value of the stream A supplied from the string Mukaunta 1 1 and based on the bit count value of the stream B, the locus of the data occupancy quantity of the VBV the puffer the original stream OS T lambda , The trajectory of the data occupancy of the VB V buffer of the original stream OST ⁇ , and the data occupancy of the VB V buffer of the stream ST RE , which is the target of re-encoding when stream ⁇ and stream B are simply spliced. Is calculated.
  • the splice controller 1 Te cowpea to analyze the locus of the data occupancy quantity of the re-encoding target stream ST RE, VBV buffer which is determined virtually, under re-encoding target stream ST RE ' Calculate the flow amount (vbv-under) or overflow amount (vbv-over). Further, the splice controller 13 calculates the trajectory of the data occupancy of the VBV buffer of the re-encoding target stream ST RE > and the trajectory of the data occupancy of the VBV buffer of the original stream OST B (virtually obtained).
  • the splice controller 13 calculates the offset amount vbv_off of the target code amount from the equations (1) and (2) described above, and further calculates the equation (1) or the equation (1).
  • the target code amount (target bit amount) TB p 0 is obtained by the equation (3) described above.
  • step S 32 the splice controller 1 3, the target bit quantity TB po obtained based on the equation (3), the picture ⁇ ( ⁇ - ⁇ 0) + ⁇ 0 ⁇ picture B (m one p. ) _ Based on the assignment to mQ , determine the quantization characteristic set for each picture.
  • the splicing device of the present invention each picture A (n - p 0) + n () ⁇ picture B (m -Po) - Encoder 1 m0 A, 1 past quantization step and the quantization Ma tri box or the like in the B A new quantization characteristic is determined with reference to the quantization characteristic of.
  • the splicing controller 13 first sends the encoders 1 A and 1 B, such as quantization steps and quantization matrices, included in the stream A and the stream B.
  • the encoding parameter information generated in the past encoding process in the stream is received from the stream analysis unit 12.
  • the splicing controller 13 converts the target bit amount TB po obtained based on the equation (3) from the picture A ( n_p0 ) + n () to the picture B (m— p0 ) —m0 .
  • the encoders 1A, 1A, and 4B are referred to based on the code amount allocated from the target bit amount TB p 0 and the past coding parameter information.
  • the quantization characteristics at the time of encoding are determined so as not to be significantly different from the quantization characteristics at the time of encoding in 1B.
  • step S18 and step S26 for the picture whose picture type has been changed by the picture reconstruction processing, the picture is re-encoded without referring to the quantization step and quantization matrix information. A new quantization characteristic is calculated at the time of one-step processing.
  • step S 3 the splice controller 1 3, re Enko picture A (n -p 0) included in one de period + n0 ⁇ picture B (m -p 0) - m0 decode the.
  • step S 3 4 the splice controller 1 3, Hikura ⁇ A (n -po) Te Step S 3 2 [Nobi Rere + no ⁇ Pikura turbocharger B (m -p 0), respectively for one m o use set quantization characteristics, while control of the amount of generated bits, Pic Chiya a (n - p 0) + n0 ⁇ picture B (m _ Po) - re-encoding m0.
  • the splice controller 13 performs motion compensation via the switch 44.
  • a control signal is supplied to the encoder controller to supply it to the encoder 41, and the motion vector used in the past encoder processing in the encoders 1A and IB is not used, a new motion detector 4 is used.
  • the encoder controller 43 is controlled so that the motion vector generated in 2 is supplied to the motion compensator 41 via the switch 41.
  • the encoder controller 43 sets the frame memory 39, 40 so that the pictures necessary for generating the predicted image data are held in the frame memories 39, 40. Controls memory 39, 40.
  • the encoder controller 43 also calculates the inverse of the quantization characteristic set for each picture in the re-encoding section supplied from the splice controller 13 by the quantization circuit 34. Set for the child circuit 36.
  • step S35 the splice controller 13 controls the switch 17 so that the streams ST A and STB output from the buffer memory 10 and the re-encoding section output from the MPEG encoder 16 are controlled.
  • the switch 17 controls the switch 17 so that the streams ST A and STB output from the buffer memory 10 and the re-encoding section output from the MPEG encoder 16 are controlled.
  • a new stream ST RE in the re-encoding section obtained by performing re-encoding while performing rate control according to the target bit amount TB p 0 in the MPEG encoder 17 in this way is described.
  • Switch 17 to fit the position of picture ⁇ ( ⁇ — ⁇ 0 ) + ⁇ 0 to picture B ( m — p0 ) — m0 in the original stream. This achieves a seamless splice.
  • the stream STB after the splice, the overflow of the VBV buffer, the damage such cause underflow, the state of the VBV buffer after the splice of the stream STB, splice previous state Is a condition for buffer control to guarantee continuous picture presentation.
  • this condition is satisfied by setting a new target code amount (target bit amount) as described above.
  • each stream in the re-encoding section including the splice points of a plurality of streams is decoded, and the obtained image data in the re-encoding section is obtained.
  • a new stream in the re-encoding section is generated, and the original stream before and after the re-encoding section is concatenated with the new stream.
  • the motion detection information such as the motion vector detected during the previous encoding is reused. Therefore, the image quality does not deteriorate due to the re-encoding process.
  • the information used in decoding is reconstructed from the calculation accuracy of the orthogonal transform and the non-linear operation such as mismatch processing (processing to add an error to the high frequency of DCT coefficient). Reconstruction errors that cannot be suppressed by use alone are introduced.
  • decoding and re-encoding should be limited to pictures in a certain section near the splice point including the splice point. Therefore, in the present embodiment, instead of decoding and re-encoding the entire stream, a re-encoding section is set, and decoding and re-encoding are performed only in that section. This can also prevent the image quality from deteriorating.
  • the re-encoding section may be automatically set according to the degree of image quality deterioration, the GOP length, and the GOP structure. Can be set arbitrarily in consideration of
  • the present invention is not limited to the above embodiment.
  • the method of calculating a new target code amount for a re-encoding section is not limited to the methods shown in Expressions (1) to (3), and may be appropriately changed. Can be set.
  • each encoded bit stream in a predetermined section before and after a connection point including a connection point of a plurality of encoded bit streams is decoded.
  • the image data within the predetermined interval is output, the image data within the predetermined interval is encoded according to the new target code amount, a new encoded bit stream within the predetermined interval is output, and the original data within the predetermined interval is output.
  • Coded bitstream Is replaced with a new coded bit stream in a predetermined section, and the original coded bit stream before and after the predetermined section is connected to the new coded bit stream and output.
  • encoding is performed by using information included in the original encoded bit stream and used at the time of decoding. This has the effect of reducing image quality degradation near points.
  • the encoding is performed by reconstructing the picture type so that the predictive encoding process using the pictures belonging to different encoding bit streams is not performed.
  • the bidirectional predictive encoding method there is an effect that an image is not broken.
  • a new target is set so as to reduce the deviation before and after the connection point of the locus of the data occupancy of the virtual buffer corresponding to the input buffer on the decoding apparatus side. Since the code amount is set, there is an effect that the failure of the virtual buffer can be more reliably prevented.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Television Signal Processing For Recording (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Description

明 細 書 - 編集装置、 編集方法、 スプライシング装置、 スプライシング方法、 符号化装置及 び符号化方法 技術分野
本発明は、 複数の映像素材を編集することによって編集された映像素材を生成 する編集装置および方法、 複数のビットストリームをスプライシングすることに よってシ一ムレスなスプライシンダス トリームを生成するビッ トス トリームスプ ライシング装置及び方法、 及び、 ビデオデータを符号化する符号化装置及び方法 に関する。 背景技術
近年、 大容量のディジタルデータを記録可能な光ディスクである D V D (ディ ジタル .バーサタイル ·ディスクまたはディジタル · ビデオ ·ディスク) のよう な蓄積メディアを用いて、 圧縮符号化した画像データの記録や再生を行う記録再 生システムや、 複数の圧縮符号化された放送素材 (プログラム) を多重化して伝 送する多重伝送システムが提案されている。 これらのシステムでは、 M P E G (Moving Picture Experts Group) 規格による画像データの圧縮符号化技術が利 用されている。
この M P E G規格では、 符号化方式として双方向予測符号化方式が採用されて いる。 この双方向予測符号化方式では、 フレーム内符号化、 フレーム間順方向予 測符号化および双方向予測符号化の 3つのタイプの符号化が行われ、 各符号化タ ィプによる画像は、 それぞれ I ピクチャ (intra coded picture ) 、 Pピクチャ (predictive coded pictureノ およひ βヒクテャ (bidirectionally predictive coded picture) と呼ばれる。 また、 I, P, Bの各ピクチャを適切に組み合わせ て、 ランダムアクセスの単位となる G O P (Group of Picture) が構成される。 一般的には、 各ピクチャの発生符号量は、 I ピクチャが最も多く、 次に Pピクチ ャが多く、 Bピクチャが最も少ない。
M P E G規格のようにピクチャ毎にビット発生量が異なる符号化方法では、 得 られる符号化ビッ トス トリーム (以下、 単にス トリームとも言う。 ) を適切に伝 - 送及ぴ復号して画像を得るためには、 画像復号化装置における入力バッファ内の データ占有量を、 画像符号化装置側で把握していなければならない。 そこで、 M P E G規格では、 画像復号化装置における入カバッファに対応する仮想的なバッ ファである VBV (Video Buffering Verifier) バッファを想定し、 画像符号化 装置側では、 VBVバッファを破綻、 つまりアンダフローやオーバフローさせな いように、 ストリームを生成しなければならない。
ここで、 図 1を参照して、 MP EG規格に従った伝送システムおよび記録再生 システムの概略について説明する。 なお、 図 1は、 I S O/ I E C 1 3 8 1 8 - 1 (MP EG 1 ) , I S O/ I E C 1 3 8 1 8 - 2 (MP EG 2) を実現できる ように構成された伝送システムを表している。
この伝送システムは、 符号化装置 1 1 0側の構成として、 入力されるビデオデ —タ D V をエンコード (符号化) して、 符号化ビッ トス トリームであるビデオェ レメンタリストリーム (ビデオ E S) を出力するビデオエンコーダ 1 1 1 と、 こ のビデオエンコーダ 1 1 1 より出力されるビデオエレメンタリス トリームにへッ ダ等を付加してバケツ トイ匕し、 ビデオバケツタイズドエレメンタリス トリーム (ビデオ P E S) を出力するバケツタイザ 1 1 2と、 入力されるオーディオデー タ D A をェンコ一ドして、 符号化ビットストリームであるオーディオエレメンタ リス トリーム (オーディオ E S) を出力するオーディオエンコーダ 1 1 3と、 こ のオーディオエンコーダ 1 1 3より出力されるオーディオエレメンタリス トリー ムにヘッダ等を付加してバケツ ト化し、 ォ一ディォバケツタイズドエレメンタリ ストリーム (オーディオ P E S) を出力するバケツタイザ 1 1 4と、 バケツタイ ザ 1 1 2より出力されるビデオバケツタイズドエレメンタリストリームとバケツ タイザ 1 1 4より出力されるオーディオバケツタイズドエレメンタリストリーム とを多重化し、 1 8 8バイ トのトランスポートス トリームパケットを作成し、 ト ランスポートス トリーム (T S) として出力する トランスポートス トリームマル チプレクサ (図では、 T SMUXと記す。 ) 1 1 5とを備えている。
また、 図 1に示した伝送システムは、 複号化装置 1 2 0側の構成として、 トラ ンスポ一トストリームマルチプレクサ 1 1 5より出力され伝送メディア 1 1 6を 介して伝送される トランスポートストリームを入力し、 ビデオバケツタイズドエ - レメンタリストリーム (ビデオ P E S ) とオーディオバケツタイズドエレメンタ リス トリーム (オーディオ P E S ) とに分離して出力するトランスポートストリ —ムデマルチプレクサ (図では、 T S D E MU Xと記す。 ) 1 2 1と、 このトラ ンスポートストリームデマルチプレクサ 1 2 1より出力されるビデオバケツタイ ズドエレメンタリストリ一ムをデバケツトイ匕し、 ビデオエレメンタリストリーム
(ビデオ E S ) を出力するデバケツタイザ 1 2 2と、 このデバケツタイザ 1 2 2 より出力されるビデオエレメンタリストリームをデコード (復号化) してビデオ データ D V を出力するビデオデコーダ 1 2 4と、 トランスポートストリームデマ ルチプレクサ 1 2 1より出力されるオーディオバケツタイズドエレメンタリスト リームをデパケッ ト化し、 オーディオエレメンタリス ト リーム (オーディオ E S ) を出力するデバケツタイザ 1 2 4と、 このデバケツタイザ 1 2 4より出力さ れるオーディオエレメンタリストリームをデコードしてオーディオデータ D A を 出力するオーディオデコーダ 1 2 5とを備えている。
図 1における複号化装置 1 2 0は、 一般に、 インテリジェントレシーバデコー ダ ( I R D) と呼ばれる。
なお、 符号化されたデータをス トレージメディアに記録する記録再生システム の場合には、 図 1における トランスポートス トリームマルチプレクサ 1 1 5の代 わりに、 ビデオバケツタイズドエレメンタリストリームとオーディオバケツタイ ズドエレメンタリストリームとを多重化してプログラムス トリーム (P S ) を出 力するプログラムス トリームマルチプレクサが設けられ、 伝送メディア 1 1 6の 代わりに、 プログラムス トリームを記録する蓄積メディアが用いられ、 トランス ポ一トストリームデマルチプレクサ 1 2 1の代わりに、 プログラムス トリームを ビデオパケッタイズドエレメンタリストリームとオーディォパケッタイズドエレ メンタリストリームとに分離するプログラムストリームデマルチプレクサが設け られる。
次に、 ビデオデータを符号化処理、 伝送処理及ぴ復号化処理する場合を例にあ げて、 図 1に示したシステムの動作について説明する。
まず、 符号化装置 1 1 0側では、 各ピクチャが同じビッ ト量を持つ入力ビデオ データ D v は、 ビデオエンコーダ 1 1 1によってエンコードされ、 各ピクチャ毎- に、 その冗長度に応じて異なるビット量に変換、 圧縮され、 ビデオエレメンタリ ス トリームとして出力される。 バケツタイザ 1 1 2は、 ビデオエレメンタリス ト リームを入力し、 そのビッ トス ト リーム時間軸上のビッ ト量の変動を吸収 (平 均) するためにパケッ ト化し、 ビデオバケツタイズドエレメンタリス トリーム
(PE S) として出力する。 このバケツタイザ 1 1 2によってパケッ ト化される P E Sパケットは、 1アクセスュニット又は複数のアクセスュニッ トから構成さ れる。 一般的には、 この 1アクセスユニットは、 1フレームから構成される。 ト ランスポートストリームマルチプレクサ 1 1 5は、 ビデオバケツタイズドエレメ ンタリストリームとバケツタイザ 1 1 4より出力されるオーディオバケツタイズ ドエレメンタリス ト リームとを多重化してトランスポートス トリームバケツトを 作成し、 トランスポートス ト リーム (T S) として、 伝送メディア 1 1 6を介し て、 復号化装置 1 20に送る。
復号化装置 1 20側では、 トランスポートストリームデマルチプレクサ 1 2 1 によって、 トランスポ一トストリ一ムが、 ビデオバケツタイズドエレメンタリス トリ一ムとオーディオパケッタイズドエレメンタリストリームとに分離される。 デバケツタイザ 1 22は、 ビデオバケツタイズドエレメンタリストリームをデパ ケッ ト化して、 ビデオエレメンタリストリームを出力し、 ビデオデコーダ 1 23 は、 ビデオエレメンタリストリームをデコードしてビデオデータ D V を出力する。 復号化装置 1 20は、 一定の伝送レートで伝送されたストリームを VB Vバッ ファにバッファリングすると共に、 予めピクチャ毎に設定されたデコーデッドタ ィムスタンプ (DT S) に基いて VBVバッファからピクチャ毎にデータを引き 出す。 この VBVバッファの容量は、 伝送される信号の規格に応じて決められて おり、 メインプロフアイノレ ' メインレベル (MP @ML) のスタンダードビデオ 信号の場合であれば、 1. 75Mビッ トの容量を有している。 符号化装置 1 1 0 側では、 この VBVバッファをオーバフローやアンダフローさせないように、 各 ピクチャのビット発生量をコントロールしなければならない。
次に、 図 2を参照して、 VBVバッファについて説明する。 図 2において、 折 れ線は VBVバッファに記憶されるデータ占有量の変化を表し、 その傾き 1 3 1 は伝送ビットレートを表し、 垂直に落ちている部分 1 32は各ピクチャの再生の _ ためにビデオデコーダ 1 2 3が VBVバッファから引き出すビット量を表してい る。 ビデオデコーダ 1 2 3が引き出すタイミングは、 プレゼンテーションタイム スタンプ (PTS) と呼ばれる情報又デコーデッドタイムスタンプ (DTS) と 呼ばれる情報によって指定される。 この PTS及び DTSの間隔は、 一般的には 1フレーム期間である。 なお、 図 2中、 I, P, Bは、 それぞれ I ピクチャ, P ピクチャ, Bピクチャを表している。 これは、 他の図においても同様である。 ま た、 図 2中、 vbv_delay は、 V B Vバッファの占有量が零の状態から一杯に満た されるまでの時間であり、 T p はプレゼンテーションタイム周期を表している。 デコーダ側において、 図 2に示したように、 伝送されたス トリームによって一定 のビッ トレート 1 3 1で VBVバッファが満たされ、 プレゼンテーションタイム に従ったタイミングで各ピクチャ毎にデータがこの V B Vバッファから引き出さ れる。
次に、 図 3を参照して、 MP E G規格の双方向予測符号化方式におけるピクチ ャの並べ替えについて説明する。 図 3において、 (a) はエンコーダに対して供 給される入力ビデオデータのピクチャ順を表し、 (b) はエンコーダにおいて並 ベ替えが行われた後のピクチャの順番を表し、 (c) はエンコーダより出力され るビデオス トリームのピクチャ順を表している。 図 3に示したように、 ェンコ一 ダでは、 入力ビデオフレームは、 エンコード時にピクチャの種類 ( 1, P, B) に応じて並べ替えが行われて、 並べ替え後の順番でエンコードされる。 具体的に は、 Bピクチャは、 I ピクチャ又は Pピクチャから予測符号化されるので、 図 3
(b) に示されるように、 予測符号化に使用される I ピクチャ又は Pピクチャの 後に位置するように並び替えられる。 エンコーダは、 並ぴ替えられたピクチャの 順に符号化処理を行い、 図 3 (b) 及び (c) に示される順で、 符号化された各 ピクチャをビデオストリームとして出力する。 出力された符号化ストリームは、 伝送路を介してデコーダ又は蓄積メディアに供給される。 なお、 図 3では、 1 5 枚のピクチャで GO Pが構成されるものとしている。
図 4は、 図 3において説明した予測符号化方式において、 各ピクチャが、 どの ピクチャを使用して予測符号化処理されるかを示すための図であって、 ェンコ一 ダにおけるピクチャの並べ替えと予測符号化処理との関係を表している。 図 4に— おいて、 (a) はエンコーダに対する入力ビデオデータにおけるピクチャの順番 を表し、 (b) はエンコーダにおいて並べ替えが行われた後のピクチャの順番を 表し、 (c) , ( d) はそれぞれエンコーダ内の 2つのフレームメモリ FM1, FM2に保持されるピクチャを表し、 (e) はエンコーダより出力されるエレメ ンタリス トリーム (E S) を表している。 なお、 図中、 I, P, Bに付随した数 字はピクチャの順番を表している。 エンコーダでは、 図 4 (a) に示したような 入力ビデオデータは、 図 4 (b) に示したようなピクチャの順番に並べ替えられ る。 また、 2つのフレームメモリ FM 1 , FM2には、 それぞれ図 4 ( c ) ,
(d) に示したようなピクチャが保持される。 そして、 エンコーダは、 入力ビデ ォデータが I ピクチャの場合は入力ビデオデータ ( I ピクチャ) のみに基づいて 符号化処理を行い、 入力ビデオデータが Pピクチャの場合は入力ビデオデータと フレームメモリ FM1に保持されている I ピクチャまたは Pピクチャとに基づい て予測符号化処理を行い、 入力ビデオデータが Bピクチャの場合は入力ビデオデ ータとフレームメモリ FM1 , FM2に保持されている 2つのピクチャとに基づ いて予測符号化処理を行う。 図 4 (e) 中の符号は、 符号化処理に用いられるピ クチャを表している。
次に、 図 5を参照して、 MP E G規格の双方向予測複号化方式におけるピクチ ャの並べ替えについて説明する。 図 5において、 (a) はエンコーダから伝送路 を介してデコーダに供給された符号化ビデオストリームのピクチャの順番を表し、
(b) はエンコーダから伝送路を介してデコーダに供給された符号化ビデオスト リームを表わし、 (c) はデコーダより出力されるビデオデータのピクチャ順を 表している。 図 5に示したように、 このデコーダでは、 Bピクチャは、 ェンコ一 ド時に I ピクチャ又は Pピクチャを使用して予測符号化処理されているので、 こ の予測符号化処理に使用されたピクチャと同じピクチャを用いて復号化処理を行 なう。 その結果、 図 5 (c) に示されるように、 このデコーダから出力されるビ デォデータのピクチャの順番は、 I ピクチャや Pピクチヤより Bピクチャが早く 出力される。
図 6は、 図 5において説明した複号化処理をさらに詳しく説明するための図で ある。 図 6において、 (a) はデコーダに対して供給される符号化されたビデオ一 エレメンタリス トリーム (E S) のピクチャの順番を表し、 (b) , (c) はそ れぞれデコーダ内の 2つのフレームメモリ FM1, FM 2に保持されるピクチャ を表し、 (d) はデコーダより出力される出力ビデオデータを表している。 図 4 と同様に、 図中、 I, P, Bに付随した数字はピクチャの順番を表している。 デ コーダでは、 図 6 (a) に示したような入力エレメンタリストリーム (ES) 力 S 入力されると、 予測符号化処理に使用した 2つのピクチャを記憶しめければいけ ないので、 2つのフレームメモリ FM 1, FM2には、 それぞれ図 6 (b ) ,
(c) に示したようなピクチャが保持される。 そして、 デコーダは、 入力エレメ ンタリス ト リームが I ピクチャの場合は入力エレメンタリス トリーム ( I ピクチ ャ) のみに基づいて復号化処理を行い、 入力エレメンタリストリームが Pピクチ ャの場合は入力エレメンタリストリームとフレームメモリ FM1に保持されてい る I ピクチャまたは Pピクチャとに基づいて復号化処理を行い、 入力エレメンタ リス トリームが Bピクチヤの場合は入力エレメンタリス トリ一ムとフレームメモ リ FM1, FM2に保持されている 2つのピクチャとに基づいて復号化処理を行 つて、 図 6 (d) に示したような出力ビデオデータを生成する。
次に、 図 7を参照して、 MP EG規格の双方向予測符号化方式における動き検 出および動き補償について説明する。 図 7は、 入力ビデオフレーム順に並んだピ クチャ間の予測方向 (差分をとる方向) を矢印で示したものである。 MP EG規 格では、 より高圧縮を可能とする動き補償が採用されている。 エンコーダでは、 動き補償を行うために、 エンコード時に、 図 7に示した予測方向に従って、 動き 検出を行って動きベク トルを得る。 Pピクチャおよび Bピクチャは、 この動きべ ク トルと、 動きべク トルに従って得たサーチ画または予測画との差分値で構成さ れる。 デコード時には、 この動きベク トルと差分値に基づいて、 Pピクチャおよ び Bピクチャが再構成される。
一般的に、 図 7に示されるように、 I ピクチャは、 その I ピクチャないの情報 から符号化されたピクチャで、 フレーム間予測を使用せずに生成されたピクチャ である。 Pピクチャは、 過去の I ピクチャ又は Pピクチャからの予測を行なうこ とによって生成されたピクチャである。 Bピクチャは、 過去の I又は Pピクチャ 及ぴ未来の I又は Pピクチャの双方向から予測されたピクチャ、 過去の I又は P— ピクチャの順方向から予測されたピクチャ、 又は I又は Pの逆方向から予測され たピクチャのいずれかである。
ところで、 放送局の編集システムにおいては、 取材現場においてカムコーダや デジタル V T Rを使用して収録したビデオ素材や、 地方局や番組供給会社から伝 送されてきたビデオ素材等を編集して、 1つのオンエア用のビデオプログラムを 生成するようにしている。 近年、 カムコーダやデジタル V T Rを使用して収録さ れたビデオ素材及び地方局や番組供給会社等から供給されたビデオ素材は、 前述 した M P E G技術を使用して、 圧縮符号化された符号化ストリームとして供給さ れることがほとんどである。 その理由は、 圧縮されていないベースバンドのビデ ォデータをそのまま記録媒体に記録するよりも、 M P E G技術を使用して圧縮符 号化した方が記録媒体の記録エリアを有効に活用できるという理由や、 圧縮され ていないベースバンドのビデオデータをそのまま伝送するよりも、 M P E G技術 を使用して圧縮符号化した方が伝送路を有効に活用できるという理由からである。 この従来の編集システムにおいては、 例えば 2つの符号化ビデオストリ一ムを 編集して 1つのオンエア用のビデオプログラムを生成するためには、 編集処理の 前に、 一端符号化ス トリームの全データをデコードして、 ベースバンドのビデオ データに戻さなければいけない。 なぜなら、 M P E G規格に準じた符号化ストリ —ムに含まれる各ピクチャの予測方向は、 前後のピクチャの予測方向と相互に関 連しているので、 ストリーム上の任意の位置において符号化ストリームを接続す ることができないからである。 もし強引に 2つの符号化ストリームをつなげたと すると、 つなぎめが不連続になってしない、 正確にデコードできなくなってしま うことが発生する。
従って、 従来の編集システムにおいて供給された 2つの符号化ストリームを編 集しようとすると、 2つのソース符号化ストリームを一端デコードして 2つのべ —スバンドのビデオデータを生成するデコード処理と、 2つのベースバンドのビ デォデータを編集してオンエア用の編集されたビデオデータを生成する編集処理 と、 編集されたビデオデータを再び符号化して、 符号化ビデオストリームを生成 するという符号化処理とを行なわなくてはいけない。 しかしながら、 M P E G符号化は 1 0 0 %可逆の符号化ではないので、 このよ- うに編集処理だけのために復号化処理及び符号化処理を行なうと画質が劣化して しまうという問題があった。 つまり、 従来の編集システムにおいて編集処理する ためには、 必ず複号化処理と符号化処理とが必要であったので、 その分だけ画質 が劣化するという問題があった。
その結果、 近年では、 供給された符号化ス トリームの全ての複号化処理せずに、 符号化ストリームの状態のまま編集することを可能にする技術が要求されるよう になってきた。 尚、 このように符号化されたビットス トリームレベルで、 異なる 2つの符号化ビッ トストリ一ムを連結し、 連結されたビットストリームを生成す ることを 「スプライシング」 と呼んでいいる。 つまり、 スプライシングとは、 符 号化ストリームの状態のままで複数のストリームを編集することを意味する。
しかしながら、 このスプライシングを実現するためには以下のような 3つの大 きな問題点がある。
第 1の問題点は、 ピクチャプレゼンテーション順の観点からくる問題点である。 このピクチャプレゼンテーション順とは、 各ビデオフレームの表示順のことであ る。 この第 1の問題点について、 図 8およぴ図 9を参照して説明する。
図 8および図 9は、 いずれも、 ストリームの単純なスプライスを行ったときの、 スプライス前後のストリームにおけるピクチャの順番とスプライス後のピクチャ プレゼンテーションの順番との関係を示したものである。 図 8はピクチャプレゼ ンテーシヨンの順番に問題が生じない場合について示し、 図 9はピクチャプレゼ ンテーシヨンの順番に問題が生じている場合について示している。 また、 図 8お よび図 9において、 (a ) はスプライスされる一方のビデオストリーム Aを示し、
( b ) はスプライスされる他方のビデオストリーム Bを示し、 (c ) はスプライ ス後のストリームを示し、 (d ) はプレゼンテーションの順番を示している。 ま た、 S P A はストリーム Aにおけるスプライスポイントを示し、 S P B はストリ ーム Bにおけるスプライスポイントを示し、 S T A はストリーム Aを示し、 S T B はス トリーム Bを示し、 S T Spは、 スプライシングされたス トリームを示して いる。
エンコーダにおいてピクチャの並べ替えを行うことから、 ェンコ一ド後の符号 化ストリームにおけるピクチャの順番とデコード後のプレゼンテーションの順番— とは異なる。 しかしながら、 図 8に示したスプライス処理は、 ストリーム Aの B ピクチャの後にスプライスポイント S P A が設定され、 ス トリーム Bの Pピクチ ャの前にスプライスポイント S P B が設定された例を示している図である。 この 図 8 ( d ) に示されるように、 ス トリーム Aとス トリーム Bの境界 S Pを境にし て、 ス トリーム Aのピクチャがス トリーム Bのピクチャより後に表示されたり、 ストリーム Bのピクチャがストリーム Aのピクチャの前に表示されるというよう な現象はおきていない。 つまり、 図 8に示したスプライスポイント S P A及び S P B においてスプライシングする場合であれば、 プレゼンテーションの順番に問 題は生じない。
一方、 図 9に示したスプライス処理は、 ストリーム Aの Pピクチヤの後にスプ ライスポイント S P A が設定され、 ス トリーム Bの Bピクチヤの前にスプライス ポイント S P B が設定された例を示している図である。 この図 8 ( d ) に示され るように、 ス トリーム Aとス トリーム Bの境界 S Pを境にして、 ス トリーム Aの 最後のピクチャがストリーム Bのピクチャより後に表示されたり、 ス トリーム B の 2つのピクチャがストリーム Aの最後のピクチャより前に表示されるとい現象 が起こったいる。 つまり、 このような順でピクチヤが表示されたとすると、 スプ ライスポィントの近傍におうて、 ストリーム Aのビデオイメージからストリーム Bのビデオイメージに切り替わり、 その 2フレーム後に再びストリーム Aのビデ ォイメージが 1フレームだけ表示されるという奇妙なイメージになってしまう。 つまり、 図 9に示したスプライスポイント S P A及び S P B においてスプライシ ングする場合であれば、 プレゼンテーションの順番に問題が生じる。
よって、 任意のピクチャ位置でスプライスを実現するためには、 このようなプ レゼンテーシヨン順に関する問題が発生することがある。
第 2の問題点は、 動き補償の観点からくる問題点である。 この問題点について、 図 1 0ないし図 1 2を参照して説明する。 これらの図は、 いずれも、 ス トリーム の単純なスプライスを行ったときの、 スプライス後のストリームにおけるピクチ ャの順番とピクチャプレゼンテーションの順番との関係を示したものであ。 図 1 0は動き補償に関して問題が生じない場合の例を示し、 図 1 1および図 1 2は動 き補償に関して問題が生じる場合の例を示している。 なお、 図 1 1および図 1 2— は、 それぞれ、 図 8および図 9に示したスプライスを行った場合について示して いる。 また、 各図において、 (a) はスプライス後のストリームを示し、 (b) はプレゼンテーションの順番を示している。
図 1 0に示した例では、 ス ト リーム Bがクローズド GO P (以前の GOPに予 測が依存しない閉じた GO P) であり、 且つ、 ちょうど GO Pの切れ目でスプラ イスを行っているため、 過不足なく動き補償が行われ、 問題なくピクチャのデコ 一ドが行われる。
これに対し、 図 1 1および図 1 2では、 デコード時に、 異なるス ト リームにお けるピクチャを参照する動き補償が行われるため、 動き補償に問題が生じる。 具 体的には、 ス ト リーム Aの Pピクチャを参照してストリーム Bの Bピクチャや P ピクチャは作れないという理由から、 図中、 破線で示した予測方向での動きべク トルによる動き補償は無効 (図では NGと記す。 ) である。 従って、 図 1 1およ ぴ図 1 2に示した例では、 次の I ピクチャまで、 ピクチャが破綻したままになる。 任意のピクチャ単位でスプライスを行う場合、 単純なストリーム上のスプライ スでは、 この問題は解決することができない。
第 3の問題点は、 V B Vバッファの観点からくる問題点である。 この問題点に ついて、 図 1 3ないし図 1 8を参照して説明する。 図 1 3は、 ピクチャプレゼン テーションの順番、 動き補償および VBVバッファの条件を満たす理想的なスト リームスプライスを行った場合の例を示している。 なお、 図中、 ST A, ST B
S T C は、 それぞれス ト リ一ム A, ス ト リーム B, ス トリーム Cを示している。 図 1 3において、 (a) はデコーダ側の VBVバッファの状態を示し、 (b) は スプライス後のストリームを示し、 (c) はエンコーダにおける並べ替え後の各 ピクチャの発生タイミングを示し、 (d) はデコード後のピクチャの順番を示し ている。 なお、 図 1 3において、 S P V は VBVバッファにおけるスプライス点 を示し、 V 0Cはスプライス点 S P V における VB Vバッファの占有量を示し、 S P S はストリームにおけるスプライス点を示している。 図 1 3に示した例では、 VBVバッファの観点から見るとき、 スプライスにより VBVバッファのオーバ フローやアンダフロー等の VBVバッファの破綻が起きていない。 しかし、 一般的には、 任意のピクチャ単位にスプライスを行うときには、 VB— Vバッファの破綻を起こさないという条件を満たすとは限らない。 このことを図 1 4ないし図 1 8を参照して説明する。 図 1 4および図 1 5は、 それぞれ、 VB Vバッファの制約を満たす正常なス トリーム Aおよぴス トリーム Bを表し、
(a) はデコーダ側の VBVバッファの状態を示し、 (b) はス トリーム A, B を示している。 このようなス トリーム A, Bを任意の位置で単純にスプライスし た場合の 3通りの例を、 図 1 6ないし図 1 8に示す。 これらの図において、
(a) はデコーダ側の VBVバッファの状態を示し、 (b) はスプライス後のス トリ一ムを示している。 これらの図に示したように、 ス トリーム A, Bをどこで スプライスするかによって、 VBVバッファの状態が異なっている。 図 1 6に示 した例では、 スプライス後のストリームも VBVバッファの制約を満たしている が、 図 1 7に示した例では、 符号 1 4 1で示したオーバフローが発生しており、 VBVバッファの制約を満たしていない。 また、 図 1 8に示した例では、 符号 1 42で示したアンダフローが発生しており、 VBVバッファの制約を満たしてい ない。 デコーダ ( I RD) 側では、 VBVバッファのアンダフ口一またはオーバ フローが発生すると、 VBVバッファの破綻によりピクチャデコ一ドに失敗し、 シ一ムレスな画像再生を実現することができない。 そのときの画像再生の状態は、 エンコーダ ( I RD) の機能によって画像スキップ、 フリーズ、 処理ストップ等、 様々である。 任意のピクチャ単位でスプライスを行う場合、 単純なス トリーム上 のスプライスでは、 この問題は解決することができない。
このように、 従来は、 ス トリーム上のシームレスなスプライスを実現する有効 な手段がないという問題点があつた。 発明の開示
本発明はかかる問題点に鑑みてなされたもので、 その第 1の目的は、 復号化装 置側の入カバッファに対応する仮想的バッファの破綻や仮想的バッファびおける データ占有量の不連続が発生することがないように、 複数の符号化ストリームを シームレスにスプライシングすることを実現するスプライシング装置及ぴストリ ーム編集装置を提供することにある。 本発明の第 2の目的は、 上記目的に加え、 スプライシングポイント近傍におけ— る画質劣化を低減すると共に、 再ェンコ一ド処理における画質劣化を防止するよ うにしたスプライシング装置、 ス トリーム編集装置、 及び符号化装置を提供する ことにある。
本発明のストリーム編集装置は、 複数の映像素材を符号化して得られる複数の 符号化ビッ トス トリ一ムを入力して、 この複数の符号化ビッ トス トリームを接続 するためのストリ一ム編集装置であって、 複数の符号化ビットストリームを入力 して、 この複数の符号化ビッ トストリームの接続点を含む接続点前後の所定区間 内における各符号化ビッ トストリ一ムを復号化して、 所定区間内の画像データを 出力する複号化手段と、 この複号化手段によって出力される所定区間内の画像デ ータに対する新たな目標符号量を設定する目標符号量設定手段と、 複号化手段に よって出力される所定区間内の画像データを、 目標符号量設定手段によって設定 される新たな目標符号量に従って符号化して、 所定区間内の新たな符号化ビッ ト ストリームを出力する符号化手段と、 所定区間内の元の符号化ビットストリ一ム を、 符号化手段によって出力される所定区間内の新たな符号化ビッ トス トリーム に置き換えて、 所定区間の前後における元の符号化ビットストリームと新たな符 号化ビットストリームとを連結して出力する符号化ビットストリーム出力手段と を備えたものである。
本発明のストリーム編集装置では、 復号化手段によって、 複数の符号化ビッ ト ストリームの接続点を含む接続点前後の所定区間内における各符号化ビッ トスト リームが復号化されて、 所定区間内の画像データが出力され、 目標符号量設定手 段によって、 所定区間内の画像データに対する新たな目標符号量が設定され、 符 号化手段によって、 所定区間内の画像データが、 新たな目標符号量に従って符号 化され、 所定区間内の新たな符号化ビットストリームが出力される。 そして、 符 号化ビットストリーム出力手段によって、 所定区間内の元の符号化ビットストリ ームが、 所定区間内の新たな符号化ビットストリームに置き換えられ、 所定区間 の前後における元の符号化ビッ トス トリームと新たな符号化ビッ トス トリームと が連結されて出力される。
本発明のスプライシング装置は、 複数のソース符号化ス トリームに対して、 そ れぞれスプライシングポィントを設定するスプライシングポイント設定手段と、― 複数のソース符号化ストリームのスプライシングポイント付近のピクチャをそれ ぞれデコードし、 デコードされたビデオデータを出力するデコード手段と、 デコ ―ドされたビデオデータを再ェンコ一ドし、 再エンコードストリームを出力する 再ェンコ一ド手段と、 ソース符号化ストリ一ムと再エンコードストリームとを切 り換えて出力することによって、 スプライシングされたスプライシンダストリー ムを生成するスプライシンダス トリーム生成手段と、 スプライシングストリーム がデコード時に不連続とならないように再ェンコ一ド手段及ぴスプライシングス トリ一ム生成手段を制御するスプライス制御手段とを備えたことを特徴としてい る装置である。
また、 本発明のスプライシング装置のスプライス制御手段は、 V B Vバッファ にオーバ一フロー及びアンダーフローが発生しないように、 再ェンコ一ド手段に おける再ェンコ一ドの目標ビット量を演算するという機能を備えている。
また、 本発明のスプライシング装置のスプライス制御手段は、 ソース符号化ス トリ一ムと再ェンコ一ドス トリームの切換えポィント又は再ェンコ一ドス トリー ムのスプライスポイントにおいて、 V B Vバッファのデータ占有量の軌跡が不連 続にならないように、 再ェンコ一ド手段における再ェンコ一ドの目標ビッ ト量を 演算するという機能を有している。
また、 本発明のスプライシング装置のスプライス制御手段は、 再エンコードス トリ一ムに対応する V B Vバッファのデータ占有量の軌跡が、 ソース符号化スト リームが本来有していたであろうと想定できる V B Vバッファのデータ占有量の 軌跡に近くなるように、 再ェンコ一ド手段を制御する機能を有している。
また、 本発明のスプライシング装置のスプライス制御手段は、 ソース符号化ス トリームに含まれる符号化バタメータを抽出し、 抽出された符号パラメータを、 再ェンコ一ド手段における再ェンコ一ド処理時に選択的に再利用することによつ て、 スプライシングストリームの画質劣化を防止するという機能を有している。 また、 本発明のスプライシング装置のスプライス制御手段は、 ソース符号化ス トリームに含まれる量子化特性に関する情報を抽出し、 抽出された量子化特性に 基いて再ェンコ一ド手段における再エンコード処理を行なうように再ェンコ一ド 手段を制御するという機能を有している。 " また、 本発明のスプライシング装置のスプライス制御手段は、 ソース符号化ス トリームに含まれる量子化特性に関する情報を各ピクチャ毎に抽出し、 V B Vバ ッファにオーバーフロー及びアンダーフローが発生しないように、 再ェンコ一ド 手段における再ェンコ一ド処理における各ピクチャ目標ビット量を演算し、 ソー ス符号化ストリームに含まれる量子化特性に関する情報を各ピクチャ毎に抽出し、 ソ一ス符号化ス トリームから抽出された量子化特性と、 演算された目標ビット量 とに基いて、 新たな量子化特性を演算し、 演算された新たな量子化特性に基いて 再ェンコ一ド処理を行なうように再エンコード手段を制御するという機能を有し ている。
また、 本発明のスプライシング装置のスプライス制御手段は、 V B Vバッファ にオーバーフロー及ぴアンダーフローが発生しないように、 再ェンコ一ド手段に おける再ェンコ一ド処理における目標ビット量を演算し、 ソース符号化ストリー ムに含まれる過去の符号化処理において生成された量子化特性を参照することに よって、 目標ビッ ト量を、 再エンコード処理すべき各ピクチャに対して割当て、 各ピクチャに割当てられた目標ビッ ト量に従って、 各ピクチャ毎に再ェンコ一ド 処理を行なうように再ェンコ一ド手段を制御するという機能を有している。
また、 本発明のスプライシング装置のスプライス制御手段は、 V B Vバッファ にオーバーフロー及びアンダーフローが発生しないように、 再ェンコ一ド手段に おける再ェンコ一ド処理における目標ビッ ト量を演算し、 ソース符号化ス トリー ムの過去の符号化処理における各ピクチャ毎の発生ビット量に近くなるように、 目標ビッ ト量を、 再エンコード処理すべきピクチャに対してそれぞれ割当て、 各 ピクチャに割当てられた目標ビッ ト量に従って、 各ピクチャ毎に再エンコード処 理を行なうように再ェンコ一ド手段を制御するという機能を備えている。
また、 本発明のスプライシング装置のスプライス制御手段は、 ソース符号化ス トリームから抽出された動きべク トル情報を、 再エンコード手段における再ェン コード処理時に選択的に再利用することによって、 スプライシンダストリームの 画質劣化を防止するという機能を有している。
また、 本発明のスプライシング装置のスプライス制御手段は、 ソース符号化ス トリームから抽出された動きべク トル情報を、 再エンコード手段における再ェン— コード処理時に 利用するか否かを判断し、 再利用すると判断された場合には、 動き検出手段において検出された動きべク トルではなくて、 ストリームから抽出 された動きべク トルを、 再エンコード手段の動き補償回路に供給するように再ェ ンコード手段を制御するという機能を有している。
また、 本発明のスプライシング装置のスプライス制御手段は、 スプライスボイ ントを挟んで異なるソース符号化ストリームのピクチャから予測されることが無 いように、 再ェンコ一ド手段の再ェンコ一ド処理が行われるスプライスポイント の近傍のピクチャに対して予測方向を設定するという機能を有している。
また、 本発明のスプライシング装置のスプライス制御手段は、 再エンコード手 段によって再ェンコ一ドされるスプライスポイント近傍のピクチャのピクチャタ イブを選択的に変更することによって、 スプライシングストリームのスプライス ボイントの近傍のピクチャの画質劣化を防止するという機能を有している。
また、 本発明のスプライシング装置のスプライス制御手段は、 スプライスボイ ントを跨いで異なるソース符号化ストリームのピクチャから予測されることが無 いように、 再ェンコ一ド手段によって再ェンコ一ドされるスプライスポイント近 傍のピクチャのピクチャタイプを選択的に変更するという機能を有している。 図面の簡単な説明
図 1は、 M P E G規格に従った伝送システムの概略の構成を示すプロック図で ある。
図 2は、 V B Vバッファについて説明するための説明図である。
図 3は、 M P E G規格の双方向予測符号化方式において必要となるエンコーダ におけるピクチャの並べ替えについて説明するための説明図である。
図 4は、 エンコーダにおけるピクチャの並べ替えと符号化処理との関係を表す 説明図である。
図 5は、 デコーダにおけるピクチャの並べ替えについて説明するための説明図 である。
図 6は、 デコーダにおけるピクチャの並べ替えと複号化処理との関係を表す説 明図である。 " 図 7は、 M P E G規格の双方向予測符号化方式における動き検出および動き補 償について説明するための説明図である。
図 8は、 ストリームの単純なスプライスを行ったときのスプライス前後のスト リームにおけるピクチャの順番とスプライス後のピクチャプレゼンテーションの 順番との関係の一例を示す説明図である。
図 9は、 ストリームの単純なスプライスを行ったときのスプライス前後のスト リームにおけるピクチャの順番とスプライス後のピクチャプレゼンテーションの 順番との関係の他の例を示す説明図である。
図 1 0は、 ス トリームの単純なスプライスを行ったときのスプライス後のスト リームにおけるピクチャの順番とピクチャプレゼンテーションの順番との関係の 一例を示す説明図である。
図 1 1は、 ス トリームの単純なスプライスを行ったときのスプライス後のスト リームにおけるピクチャの順番とピクチャプレゼンテーションの順番との関係の 他の例を示す説明図である。
図 1 2は、 ストリームの単純なスプライスを行ったときのスプライス後のスト リームにおけるピクチャの順番とピクチャプレゼンテーションの順番との関係の 更に他の例を示す説明図である。
図 1 3は、 ピクチャプレゼンテーションの順番、 動き補償および V B Vバッフ ァの条件を満たす理想的なストリームスプライスの例を示す説明図である。
図 1 4は、 V B Vバッファの制約を満たす正常なストリームを示す説明図であ る。
図 1 5は、 V B Vバッファの制約を満たす正常な他のス トリームを示す説明図 である。
図 1 6は、 2つのストリームを任意の位置で単純にスプライスした場合の一例 を説明するための説明図である。
図 1 7は、 2つのストリームを任意の位置で単純にスプライスした場合の他の 例を説明するための説明図である。
図 1 8は、 2つのストリームを任意の位置で単純にスプライスした場合の更に 他の例を説明するための説明図である。 " 図 1 9は、 本発明の一実施の形態に係るスプライシング装置及びス トリーム編 集装置の構成を示すプロック図である。
図 2 0は、 図 1 9における M P E Gデコーダと M P E Gエンコーダの構成を示 すブロック図である。
図 2 1は、 図 1 9における M P E Gデコーダによってデコードして得られたプ レゼンテーシヨンビデオデータにおけるスプライス点および再ェンコード区間の 一例を示す説明図である。
図 2 2は、 図 2 1に示した例における 2つのストリームのデコード前後のピク チヤの並ぴを示す説明図である。
図 2 3は、 図 2 1に示した例におけるスプライス後のスプライスストリームの ピクチャの並ぴを示す説明図である。
図 2 4は、 図 1 9における M P E Gデコーダによってデコードして得られたプ レゼンテーシヨンビデオデータにおけるスプライス点および再ェンコード区間の 他の例を示す説明図である。
図 2 5は、 図 2 4に示した例におけるデコード前後の 2つのストリームのピク チヤの並ぴを示す説明図である。
図 2 6は、 図 2 4に示した例におけるスプライス後のスプライスストリームの ピクチャの並びを示す説明図である。
図 2 7は、 V B Vバッファのデータ占有量にアンダーフローが生じる例を示す 説明図である。
図 2 8は、 図 2 7において説明したアンダーフローを、 本発明のスプライシン グ装置によって改善した例を示す説明図である。
図 2 8は、 V B Vバッファのデータ占有量にオーバフローが生じる例を示す説 明図である。
図 2 9は、 図 2 8において説明したオーバーフローを、 本発明のスプライシン グ装置によって改善した例を示す説明図である。
図 3 0及び図 3 1は、 本発明のスプライシング装置及ぴストリーム編集装置の 動作を説明するためのフローチャートである。 発明を実施するための最良の形態
以下、 本発明の実施の形態について図面を参照して詳細に説明する。
図 1 9は、 本発明の一実施の形態に係るスプライシング装置及び編集装置の構 成を示すブロック図である。 このスプライシング装置及び編集装置は、 例えば複 数の映像素材のビデオデータ VD A , VD B をエンコーダ 1 A, I Bによって M
P EG規格による双方向予測符号化方式に従ってェンコ一ドして得られた複数の 符号化ビットストリ―ム (以下、 単にストリームと言う。 ) ST A, ST B を入 力するようになっている。 なお、 本実施の形態におけるス トリームは、 エレメン タリス トリ—ム、 バケツタイズドエレメンタリス トリーム、 トランスポートス ト リームのいずれでもよい。
本実施の形態に係るスプライシング装置及び編集装置は、 ス トリーム S T A, ST B を入力し、 これらを一時的に記憶するためのバッファメモリ 10と、 ス ト リーム ST A, S T B のビット数をカウントするストリームカウンタ 1 1と、 ス トリーム ST A, ST B のシンタックスを解析するストリーム解析部 1 2と、 ス プライシング処理を行なうために後述する各ブロックをコントロールするための スプライスコントローラ 1 3とを備えている。
スプライシング装置及び編集装置は、 更に、 それぞれ、 バッファメモリ 1 0よ り出力されるストリーム S T A, S T B を MPEG規格に従ってデコードして、 ベースバンドビデオデータを出力する MP EGデコーダ 1 4 A, 1 4 Bと、 これ らの MP EGデコーダ 1 4 A, 1 4 Bからの出力ビデオデータをスィツチングす るスィッチ 1 5と、 このスィッチ 1 5から出力された出力ビデオデータを再ェン コードする MP EGエンコーダ 1 6と、 バッファメモリ 1 0より出力されるス ト リーム S T A, S T B および MPEGエンコーダ 1 6より出力される再ェンコ一 ドストリーム ST REを切り換えて出力することにより、 スプライスされたストリ ーム S T Spを出力するスィツチ 1 7とを備えている。
以下に、 上述した各ブロックについて詳細に説明する。
バッファメモリ 1 0は、 後述するスプライスコントローラ 1 3からの書込みコ マンドに応答して、 供給された 2つのストリーム ST A, S T B を一時的に記憶 し、 スプライスコントローラ 1 3からの読み出しコマンドに応答して、 記憶され— たス ト リーム S T A, S T B をそれぞれ読み出す。 これによつて、 ス ト リーム S T A, S T B のそれぞれに対して設定されたスプライシングポイントにおいてス プライスを行なうために、 ストリーム S T A, S T Bのスプライシングポイント の位相及ぴタイミングの合わせることができる。
ス ト リームカウンタ 1 1は、 ス トリーム S T A, S T B を受取り、 これらのス トリームのビット数をそれぞれカウントし、 そのカウント値をスプライスコント ローラ 1 3にそれぞれ供給する。 このように供給されたビットストリーム S T A , S T B のビット数をカウントする理由は、 ストリーム S T A, S T Bに対応する V B Vバッファのデータ占有量の軌跡を仮想的に把握するためである。
ストリーム解析部 1 2は、 ストリーム S T A, S T Bのシンタックスを解析す ることによって、 シーケンス層、 G O P層、 ピクチャ層、 及びマクロブロック層 から適切な情報を抽出する。 例えば、 ピクチャのタイプ ( 1、 B又は P ) を示す ピクチャタイプ、 動きベク トル、 量子化ステップ、 及び量子化マトリックス等の ェンコ一ド情報を抽出して、 それらの情報をスプライスコントローラ 1 3に出力 する。
これらのェンコ一ド情報は、 エンコーダ 1 A及び 1 Bにおける過去のェンコ一 ド処理において生成された符号化情報であって、 本発明のスプライシング装置に おいては、 これらの過去のェンコ一ド情報を再ェンコ一ド処理時において選択的 に使用する。
このスプライスコントローラ 1 3は、 ストリームカウンタ 1 1から出力された カウント値、 ストリーム解析部 1 2から出力されたエンコード情報、 再ェンコ一 ド区間を設定するためのパラメータ n 0 , m 0 およぴスプライスポイントを指示 するためのパラメータ P 0 を受取り、 それらの情報に基いて、 スィッチ 1 5、 M P E Gエンコーダ 1 6及びスィッチ 1 7を制御する。 具体的には、 スプライスコ ントローラ 1 3は、 入力されたパラメータ p 0 に応じてスィッチ 1 5のスィッチ ングタイミングを制御し、 パラメータ n 0, m 0 , p 0 に応じてスィッチ 1 7の スィツチングタイミングを制御するようになっている。
また、 スプライスコントローラ 1 3は、 ストリームカウンタ 1 1及ぴストリー ム解析部 1 2から供給されたカウント値とストリーム解析部 1 2から供給された ェンコ一ド情報とに基いて、 スプライシングされたストリームによって VB Vバ ッファがオーバーフローノアンダーフローしないようにすると共に、 スプライシ ングされたストリームによって VBVバッファのデータ占有量の軌跡が不連続に ならないように、 再ェンコ一ド区間内の各ピクチャ対して新たな目標符号量を演 算する。
さらに、 プライスコントローラ 1 3は、 例えば、 バッファメモリ 1 0の書き込 みァドレスおよび読み出しァドレスを制御することによって、 バッファメモリ 1 0における各ス トリーム S T A, S T B の遅延量を調整して、 プレゼンテーショ ンタイムを基準にして、 各ス トリーム ST A, S T B のスプライスポイントの位 相を調整するようになっている。
図 20は、 図 1 9における MP E Gデコーダ 1 4 A, 1 4 Bと MPEGェンコ —ダ 1 6の構成を示すブロック図である。 なお、 この図では、 MPEGデコーダ 14 A, 14 Bを代表して MP EGデコーダ 14として示し、 ス トリーム STA, S T B を代表してストリーム S Tとして示している。
MP EGデコーダ 1 4は、 ス トリーム STを入力し、 可変長複号化する可変長 復号化回路 (図では VLDと記す。 ) 2 1と、 この可変長複号化回路 2 1の出力 データを逆量子化する逆量子化回路 (図では I Qと記す。 ) 22と、 この逆量子 化回路 22の出力データに対して逆 DCT (逆離散コサイン変換) を行う逆 DC T回路 (図では I DCTと記す。 ) 23と、 この逆 D CT回路 23の出力データ と予測画像データとを加算する加算回路 24と、 逆 DC T回路 23の出力データ と加算回路 24の出力データの一方を選択的に MP EGデコーダ 1 4の出力デー タとして出力するスィツチ 25と、 加算回路 24の出力データを保持するための 2つのフレームメモリ (図では、 FM1, FM2と記す。 ) 26, 27と、 フレ ームメモリ 26, 27に保持されたデータとストリーム STに含まれる動きべク トルの情報とに基づいて、 動き補償を行って予測画像データを生成し、 この予測 画像データを加算回路 24に出力する動き補償部 (図では MCと記す。 ) 28と を備えている。
MP EGエンコーダ 1 6は、 MP EGデコーダ 1 4から供給された出力ビデオ データに対してェンコ一ドのための前処理等を行うエンコーダ前処理部 30を備ー えている。 このエンコーダ前処理部 30は、 双方向予測符号化方式による符号化 のためのピクチャの並べ替えや、 1 6 X 1 6画素のマクロブロックィヒや、 各ピク チヤの符号化難易度の演算等の処理を行うようになっている。
MP E Gエンコーダ 1 6は、 更に、 エンコーダ前処理部 30の出力データと予 測画像データとの差分をとる減算回路 3 1 と、 エンコーダ前処理部 30の出力デ ータと減算回路 3 1の出力データの一方を選択的に出力するスィツチ 3 2と、 こ のスィッチ 32の出力データに対して、 DCT (離散コサイン変換) ブロック単 位で DC Tを行い、 0〇丁係数を出カする001:回路 (図では DC Tと記す。 )
33と、 この DC T回路 3 3の出力データを量子化する量子化回路 (図では Qと 記す。 ) 34と、 この量子化回路 34の出力データを可変長符号化して、 再ェン コードス トリーム S T RE として出力する可変長符号化回路 (図では VLCと記 す。 ) 35とを備えている。
MP EGエンコーダ 1 6は、 更に、 量子化回路 34の出力データを逆量子化す る逆量子化回路 (図では I Qと記す。 ) 36と、 この逆量子化回路 36の出力デ ータに対して逆 DCTを行う逆 DCT回路 (図では I DCTと記す。 ) 3 7と、 この逆 DCT回路 3 7の出力データと予測画像データとを加算して出力する加算 回路 3 8と、 この加算回路 38の出力データを保持するための 2つのフレームメ モリ (図では、 FM 1, FM 2と記す。 ) 39, 40と、 フレームメモリ 39 ,
40に保持されたデータと動きべク トル情報とに基づいて、 動き補償を行って予 測画像データを生成し、 この予測画像データを減算回路 3 1および加算回路 3 8 に出力する動き補償部 (図では MCと記す。 ) 41とを備えている。
MP EGエンコーダ 1 6は、 更に、 フレームメモリ 39, 40に保持されたデ ータとエンコーダ前処理部 30の出力データとに基づいて動きべクトルを検出し、 動きベク トル情報を出力する動き検出回路 (図では MEと記す。 ) 42と、 スプ ライスコントローラ 1 3から供給されたェンコ一ド情報と目標符号量とを受取り、 これらの情報に基いて、 量子化回路 34, 逆量子化回路 36およびフレームメモ リ 3 9, 40を制御するエンコードコントローラ 43と、 このエンコードコント ローラ 43によって制御され、 エンコードコントローラ 43から出力される動き べク トルの情報と動き検出回路 42から出力される動きべク トルの情報の一方を ― 選択的に動き補償部 41に対して出力するスィツチ 44とを備えている。
次に、 図 20に示した MP EGデコーダ 14および MP EGエンコーダ 1 6の 動作の概略について説明する。
まず、 MP EGデコーダ 1 4では、 ス トリーム STは、 可変長復号化回路 21 によって可変長復号化され、 逆量子化回路 22によって逆量子化され、 逆 DCT 回路 23によって逆 DC Tが行われ、 逆 DC T回路 23の出力データが加算回路 24およびスィッチ 25に入力される。 I ピクチャの場合には、 逆 DC T回路 2 3の出力データが、 スィツチ 25を介して MPEGデコーダ 14の出力データと して出力される。 Pピクチャまたは Bピクチャの場合には、 加算回路 24によつ て逆 DCT回路 23の出力データと動き補償部 28より出力される予測画像デー タとが加算されて Pピクチヤまたは Bピクチャが再現され、 加算回路 24の出力 データが、 スィツチ 25を介して MPEGデコーダ 14の出力データとして出力 される。 また、 I ピクチャまたは Pピクチャは、 適宜、 フレームメモリ 26, 2 7に保持され、 動き補償部 28による予測画像データの生成に利用される。
一方、 MP EGエンコーダ 1 6では、 MPEGデコーダ 14の出力データはェ ンコーダ前処理部 30に入力され、 このエンコーダ前処理部 30によって、 ピク チヤの並べ替えやマクロブロック化等が行われる。 ここで、 エンコーダ前処理部 30は、 スプライスコントローラ 1 3からのピクチャタイプの情報に基づいてピ クチャの並べ替えを行う。
エンコーダ前処理部 30の出力データは、 減算回路 3 1およびスィツチ 32に 入力される。 I ピクチャの場合には、 スィッチ 32は、 エンコーダ前処理部 30 の出力データを選択的に出力する。 Pピクチャまたは Bピクチャの場合には、 減 算回路 3 1によってエンコーダ前処理部 30の出力データから動き補償部 4 1よ り出力される予測画像データが減算され、 スィッチ 3 2は、 減算回路 3 1の出力 データを選択的に出力する。
スィッチ 32の出力データは、 DCT回路 33によって DCTが行われ、 DC T回路 3 3の出力データが量子化回路 34によって量子化され、 可変長符号化回 路 35によって可変長符号化され、 ストリーム ST REとして出力される。 また、 I ピクチャの場合には、 量子化回路 3 4の出力データは、 逆量子化回路
3 6によって逆量子化され、 逆 D C T回路 3 7によって逆 D C Tが行われ、 逆 D C T回路 3 7の出力データが、 フレームメモリ 3 9またはフレームメモリ 4 0に 保持される。 Pピクチャの場合には、 量子化回路 3 4の出力データは、 逆量子化 回路 3 6によって逆量子化され、 逆 D C T回路 3 7によって逆 D C Tが行われ、 加算回路 3 8によって逆 D C T回路 3 7の出力データと動き補償部 4 1からの予 測画像データとが加算されてフレームメモリ 3 9またはフレームメモリ 4 0に保 持される。 フレームメモリ 3 9またはフレームメモリ 4 0に保持された I ピクチ ャまたは Pピクチャは、 適宜、 動き補償部 4 1による予測画像データの生成に利 用される。 また、 動き検出回路 4 2は、 フレームメモリ 3 9 , 4 0に保持された データとエンコーダ前処理部 3 0の出力データとに基づいて動きべク トルを検出 し、 動きべク トルの情報を出力する。
エンコードコントローラ 4 3は、 スプライスコントローラ 1 3から供給された ェンコ一ド情報及ぴ各ピクチャ毎の目標符号量を受取り、 それらの情報に基いて、 量子化回路 3 4, 逆量子化回路 3 6、 フレームメモリ 3 9, 4 0およびスィッチ
4 4を制御する。
具体的には、 エンコードコントローラ 4 3は、 スプライスコントローラ 1 3力 ら供給されたェンコ一ド情報に含まれている動きべク トルを再利用するときには、 その動きべク トルの情報をスィツチ 4 4を介して動き補償部 4 1に入力させ、 ス プライスコントローラ 1 3から供給されたェンコ一ド情報に含まれている動きべ ク トルを再利用しないときには動き検出回路 4 2において新たに生成された動き べク トルの情報が動き補償部 4 1に入力されるようにスィッチ 4 4を制御する。 また、 エンコードコントローラ 4 3は、 スプライスコントローラ 1 3から供給さ れたェンコード情報に含まれるピクチャタイプに基づいて、 予測画像データの生 成に必要なピクチャがフレームメモリ 3 9, 4 0に保持されるようにフレームメ モリ 3 9, 4 0を制御する。
更に、 エンコードコントローラ 4 3は、 可変長符号化回路 3 5の発生符号量を 監視すると共に、 可変長符号化回路 3 5を制御するようになっている。 そして、 ェンコ一ドコントローラ 4 3は、 設定された目標符号量に対して発生符号量が不 足して VBVバッファがオーバフローしそうなときには、 目標符号量に対する発 生符号量の不足分を補うためにダミーデータの付加、 すなわちスタッフイングを 行うようになっている。 また、 エンコードコントローラ 43は、 設定された目標 符号量に対して発生符号量が超過して V B Vバッファがアンダフローしそうなと きには、 マクロプロック単位の符号化処理の停止処理であるスキップドマクロブ 口ック処理 ( I S O/ I EC 1 381 8-2 7. 6. 6) を行うようになって いる。
次に、 図 21ないし図 26を参照して、 本発明の実施の形態におけるピクチャ の並べ替え制御と動き補償制御に関して詳しく説明する。
図 21は MP E Gデコーダ 14 A, 14 Bによってデコードして得られたビデ ォデータ (以下、 プレゼンテーションビデオデータと言う。 ) におけるスプライ ス点および再エンコード区間の一例を示す説明図である。 図 21 (a) はストリ ーム A (ST A ) に対応するプレゼンテーションビデオデータ、 図 21 (b) は ストリーム B (S T B ) に対応するプレゼンテーションビデオデータを示してい る。 まず、 スプライス点を決めるときには、 プレゼンテーションビデオデータ上 でピクチャを指定する。 スプライスポイントの指定は、 パラメータ p 0 によって 行う。 また、 スプライス点を含むスプライス点前後の所定区間として、 再ェンコ —ド区間を設定する。 再エンコード区間の設定は、 パラメータ n 0 , m 0 によつ て行う。
以下の説明では、 図 21に示したように、 パラメータ p 0 を用いて、 ストリー ム S T A に対応するプレゼンテーションビデオデータにおけるスプライス点のピ クチャを A n_Poと表わすと、 スプライス点のピクチャ A n-p0よりも未来のピクチ ャは、 A(n— p0)+1、 A(n—p0)+2、 A(n— p0)+3、 A(nPo)+4、 と表わすことが でき、 スプライス点のピクチャ A n_Po よりも過去のピクチャは、 A(n— po)—^ A
(n-P0)-2> Α(η一 ρο)一 3、 ΑΡο)一 4、 と表わすことができる。 同様に、 ス ト リーム S T Β に対応するプレゼンテーションビデオデータにおけるスプライス点 のピクチャを B m-Po と表わすと、 スプライス点のピクチャ B 0よりも未来のピク チヤは、 B (m一 p0)+1、 B(m一 p0)+2、 B(m— p0)+3、 B (m_p0)+4、 と表わすこと ができ、 スプライス点のピクチャ B 0 よりも過去のピクチャは、 B(m_p0)一 B (m- PO)- 2、 B (m- Ρθ) - 3、 B (mPo)— 4、 と表わすことができる。
再エンコード区間は、 ストリーム ST A に対応するプレゼンテーションビデオ データについては、 スプライス点より前に n 0 枚、 ス トリーム ST B に対応する プレゼンテーションビデオデータについては、 スプライス点より後に m 0 枚とす る。 従って、 再エンコード区間は、 ピクチャ A(n— p0)+n0 〜ピクチャ A n_Po ピク フ-ャ > m— p0〜ピク ャ D (m-po) -m0 となる。
本実施の形態では、 このように設定された再エンコード区間について、 再ェン コード処理を行なうようにしている。 この再エンコード処理とは、 供給されたソ ース符号化ス トリーム ST A 及び S T B をデコードすることによってベースパ ンドビデオデータに戻し、 スプライスポイントでこのデコードされた 2つのビデ ォデータをつなげた後、 このビデオデータを再エンコードして、 新たなス トリー ム S T REを作成するという処理である。
この再ェンコ一ド処理によって、 ピクチャの並べ替えと動き補償に関する問題 はなくなる。 このことを、 以下で説明する。
図 2 2は、 図 2 1に示した例におけるデコード前後のピクチャの並びを示した ものである。 図 2 2において、 (a) は再エンコード区間近傍のス トリーム S T A を示し、 (b) は再エンコード区間近傍のス トリーム ST A に対応するプレゼン テ一シヨンビデオデータを示し、 (c) は再エンコード区間近傍のス トリーム S T B に対応するプレゼンテーションビデオデータを示し、 (d) は再エンコード 区間近傍のストリーム S T Bを示している。 なお、 図中、 REP A は、 ス トリー ム S T A に対応するプレゼンテーションビデオデータ中の再エンコード対象ピク チヤを示し、 RE P B は、 ストリーム S T B に対応するプレゼンテーションビデ ォデータ中の再エンコード対象ピクチャを示している。 また、 図中、 曲線の矢印 は、 予測方向を表している。
図 2 3は、 図 2 1及び図 2 2に示したス トリーム ST A とストリーム S T B と をスプライシング処理した後の状態を示しており、 図 23 (a) は、 2つのスト リームをスプライシングした後のプレゼンテーションビデオデータを示し、 図 2 3 (b) は 2つのストリームをスプライシングした後のストリーム ST SPを示し ている。 図 23 (b) に示したス トリーム ST SPは、 再エンコード区間について 図 23 (a) に示した画像データを再エンコードして新たなス トリーム ST REを— 生成し、 更に、 再エンコード区間の前におけるオリジナルストリーム S T A (以 下、 OST A と記す。 ) と再エンコード区間内の新たなス トリーム ST REと再ェ ンコード区間の後におけるオリジナルス ト リーム S T B (以下、 O S T B と記 す。 ) とを連結して形成される。 なお、 図中、 T REは再エンコード期間を示して いる。
図 21ないし図 23に示した例では、 スプライス点の近傍において、 異なるス トリームに属するピクチャを利用した予測符号化処理は行われていないので、 ピ クチャのプレゼンテーション順に関しては、 問題は生じていない。
次に、 図 21ないし図 23に示した例とは、 スプライスポイントが異なる他の 例を、 図 24ないし図 26に示す。
図 24はプレゼンテーションビデオデータにおけるスプライス点おょぴ再ェン コード区間の他の例を示す説明図である。 図 24において、 (a) はス ト リーム ST A に対応するプレゼンテーションビデオデータ、 (b) はス ト リーム ST B に対応するプレゼンテーションビデオデータを示している。
図 25は、 図 24に示した例におけるデコード前後のピクチャの並ぴを示した ものである。 図 25において、 (a) は再エンコード区間近傍のス トリーム S T A を示し、 (b) は再エンコード区間近傍のス ト リーム S T A に対応するプレゼン テーシヨンビデオデータを示し、 (c) は再エンコード区間近傍のス ト リーム S T B に対応するプレゼンテーションビデオデータを示し、 (d) は再エンコード 区間近傍のス トリーム ST B を示している。
図 26は、 図 24に示した例におけるスプライス後のピクチャの並びを示した ものである。 図 26において、 (a) は、 図 25 (b) に示したプレゼンテーシ ヨンビデオデータと図 25 (c) に示したプレゼンテーションビデオデータとを 連結した後の画像データを示し、 (b) はスプライスされたストリーム ST SPを 示している。 (b) に示したス ト リーム ST sp は、 再エンコード区間について ( a ) に示した画像データを再ェンコ一ドして新たなストリーム S T REを生成し、 更に、 再エンコード区間の前における元のス トリーム ST A (OST A ) と再ェ ンコード区間内の新たなストリーム ST RE と再エンコード区間の後における元の ス トリーム S T B (O S T B ) とを連結して形成される。 ― 図 23ないし図 26に示した例では、 スプライス点のピクチャ B m— poが Pピク チヤであるため、 ピクチャタイプの再構成を行わずにそのまま図 25 (b) に示 したプレゼンテーションビデオデータと図 25 (c) に示したプレゼンテーショ ンビデオデータとを連結すると、 ピクチャ B m-P() の再エンコード時に、 異なるス トリーム ST A に属するピクチャを利用した予測符号化処理が行われてしまい、 画質劣化が生じてしまう。 そこで、 本実施の形態では、 スプライス点近傍におい て、 異なるストリームに属するピクチャを利用した予測符号化処理が行われない ようにピクチャタイプの再構成を行う。 図 26 (a) は、 このピクチャタイプの 再構成の結果、 ピクチャ B m-Poが Pピクチヤから Iピクチャに変えられた後の状 態を示している。
また、 図 26 (a) では、 ピクチャ A n—poが Bピクチヤとなっており、 このピ クチャ A n-p0 は、 本来、 双方向からの予測符号化処理が行われるピクチャである 、 そうすると、 ピクチャ A n_Poの再ェンコ一ド時に、 異なるストリーム ST B に属するピクチャを利用した予測符号化処理が行われてしまい、 画質劣化が生じ てしまう。 そこで、 本実施の形態では、 Bピクチャであっても、 再エンコード時 に、 異なるストリームに属するピクチャ側からの予測は用いずに予測符号化処理 を行なう。 従って、 図 26 (a) に示した例では、 ピクチャ A n_p0 については、 その前の Ρピクチャ ( ΑΡο)+1 ) のみを用いた予測符号化処理を行う。
以上のようなピクチャタイプの再構成の設定は、 スプライスコントローラ 1 3 によって行われ、 ピクチャタイプの再構成の設定の情報が MP EGェンコ一ド 1 7のェンコ一ドコントローラ 43に与えられる。 エンコードコントローラ 43は、 ピクチャタイプの再構成の設定に従って、 符号化処理を行う。 動きベク トル等の 過去の符号化処理において生成されたェンコ一ド情報の再利用も、 ピクチャタイ プの再構成の設定に従って行われる。
なお、 本実施の形態によるスプライス処理では、 単純なストリーム上のスプラ イスとは異なるため、 図 25 (d) に示したようにス トリーム S T B においてピ クチャ B mPo の後(過去)に存在していた Bピクチャ (B (mPo)+2 及び B (m_ Po)+1 ) は、 図 25 (c) に示したようにデコード後に捨てられるため、 再ェンコ ード後のピクチャ列では存在しない。 ― 次に、 図 2 7から図 3 0を参照して、 本実施の形態における再エンコード区間 内の画像データに対する新たな目標符号量の算出方法について説明する。
2つのス トリームを単純にスプライスすると、 スプライスポイント後に、 スプ ライスされたストリームの VBVバッファがアンダーフロー又はオーバーフロー してしまったり、 又は、 スプライスされたストリ一ムの VBVバッファのデータ 占有量の軌跡が不連続になることが起こる。 これらの問題点を解決するための本 発明のスプライシング装置の再ェンコ一ド処理について図 2 7から図 3 0を参照 して説明する。
まず、 図 2 7を参照して、 スプライスス トリームの VBVバッファがアンダー フ口一及ぴ V B Vバッファのデータ占有量が不連続になる問題について説明する。 図 2 7は、 先に説明した図 23に対応する単純なスプライス処理を行なった場 合の例であって、 図 27 (a) は、 再エンコード対象ス トリーム S T RE' の VB
Vバッファのデータ占有量の軌跡を示した図であって、 図 27 (b) は、 再ェン コード対象ス トリーム S T RE,を示した図である。 図 2 7において、 T RE は、 再 エンコードコントロール期間を示し、 OS T A は、 オリジナルストリーム Aを示 し、 S T RE' は再エンコードの対象となる再エンコード対象ス トリームを示して いる。 尚、 この再エンコード対象ス トリーム S T RE'とは実際に再エンコードされ た再エンコードストリーム S T RE とは異なり、 単純なスプライス処理を行った場 合にこのようなストリーム S T RE,になると想定されるストリームを示している。 また、 OST B は、 オリジナルストリーム Bを示し、 S P VBV は、 VBVバッフ ァにおけるスプライスポィントを示し、 S Pはストリームにおけるスプライスポ イントを示している。
図 27 (a) に示されるように、 スプライス処理の対象となるストリーム S T RE'の VB Vバッファの軌跡は、 スプライスポイント S Pの前では、 ス トリーム A (S T A ) の VBVバッファのデータ占有量の軌跡となり、 スプライスポイント S Pの後では、 ス トリーム B (S T B ) の VBVバッファのデータ占有量の軌跡 となる。 ス トリーム Aとス トリーム Bとを単純にスプライシングすると、 ストリ ーム A (S T A) の VBVバッファのデータ占有量のスプライスポイントにおける レべノレと、 ストリーム B (STB) の VBVバッファのデータ占有量のスプライス一 ボイントにおけるレベルとは異なるので、 VBVバッファのデータ占有量の軌跡 が不連続になる。
ストリーム Aのスプライスポイントにおける VBVのデータ占有量の軌跡と、 スプライスポイントにおけるストリーム Bの VBVのデータ占有量の軌跡とが連 続しているようなシームレスなスプライシングを実現するためには、 図 2 7 (a) のように、 スプライスポイントにおけるストリーム Bの VBVのデータ占 有量の開始レベルを、 ストリーム Aのスプライスポィントにおける VBVのデー タ占有量の終了レベルに一致させなければいけない。 つまり、 それらのレベルを 一致させるためには、 図 27 (a) に示される例では、 再エンコード制御期間 T RE において、 ストリーム Bの VB Vバッファのデータ占有量の軌跡が本来有して いたであろう軌跡よりもレベルを低く しなければいけない。 尚、 このデータ占有 量の軌跡が本来有していただであろう軌跡とは、 供給されたストリーム Bがスプ ライシング処理されなかったと仮定した場合のストリーム Bに関する VB Vパッ ファのデータ占有量を軌跡であって、 図 2 7 (a) の VB V 0ST B の延長軌跡に よって示される。
その結果、 図 2 7 (a) に示されるように、 VBVバッファからの引き出しビ ット量が最も多い I ピクチャの引き出しタイミングで、 この VB Vバッファがァ ンダ一フローしてしまう。
本発明の実施の形態では、 図 27 (a) に示したように VBVバッファのデー タ占有量の軌跡がスプライス点において連続し、 かつ、 スプライス点の後に、 ァ ンダ一フローが発生しないように再ェンコ一ド期間の各ピクチャに対して新たな 目標符号量を設定するようにしている。
また、 スプライシングされたストリームの VBVバッファのデータ占有量の軌 跡が、 スプラスポイントにおいて連続になるように、 ストリーム Bの VBVバッ ファのデータ占有量の軌跡を単純に下げると、 アンダーフローが発生するばかり でなく、 再ェンコ一ド対象ストリーム ST RE'とオリジナルストリーム OS T Bと の切り替わりボイントで、 VBVバッファのデータ占有量の軌跡が不連続になつ てしまう。 本発明の実施の形態では、 さらに、 図 27 (a) に示したように再エンコード 対象ス トリーム ST RE- とオリジナルストリーム OS T B との切り替わりポイント で、 VBVバッファのデータ占有量の軌跡が連続するように、 再エンコード期間 の各ピクチャに対して新たな目標符号量を設定するようにしている。 尚、 オリジ ナルストリ一ム O S T B に対応する VBVバッファのデータ占有量の軌跡 VB V 0ST Bを制御しない理由は、 軌跡 VBV 0ST B とは、 ス トリーム Bの VB Vバッフ ァのデータ占有量の軌跡が本来有していたであろう軌跡であって、 この軌跡をコ ントロールすることはできないからである。 なぜなら、 この軌跡 VB V 0ST Bは、 オリジナルス トリーム OS T B がオーバ一フロー又はアンダーフローしないよう に決定された最適な軌跡であって、 もしこの最適な軌跡のレベルを制御するとォ 一バーフロー又はアンダーフローが発生する可能性があるからである。
次に、 VBVのアンダーフローの問題に関する説明と同じように、 図 29を参 照して、 スプライスス トリームの VBVバッファがオーバーフローする問題につ いて説明する。
図 29は、 先に説明した図 26に対応するスプライス処理を行った場合の例で あって、 図 29 (a) は、 スプライシンダストリーム ST sp の VBVバッファの データ占有量の軌跡を示した図であって、 図 29 (b) は、 スプライシンダス ト リーム ST sp を示した図である。 図 29において、 T RE は、 スプライシング制 御されるスプライス期間を示し、 OST A は、 オリジナルストリーム Aを示し、 S T REは再エンコード対象ス トリームを示し、 OST Bは、 オリジナルス トリー ム Bを示し、 S P VBV は、 VBVバッファにおけるスプライスポイントを示し、 S Pはストリームにおけるスプライスボイントを示している。
図 29 (a) に示されるように、 スプライスされた再エンコード対象ストリー ム S T RE,の VB Vバッファの軌跡は、 スプライスポイント S Pの前では、 ストリ ーム A (S T A ) の VBVバッファのデータ占有量の軌跡となり、 スプライスポ イント S Pの後では、 ス トリーム B (S T B ) の VBVバッファのデータ占有量 の軌跡となる。 ス トリーム Aとス トリーム Bとを単純にスプライシングすると、 ストリーム A (S T A ) の VBVバッファのデータ占有量のスプライスポイント におけるレベルと、 ス トリーム B (S T B ) の VBVバッファのデータ占有量の スプライスポィントにおけるレベルとは異なるので、 VBVバッファのデータ占 有量の軌跡が不連続になる。
ストリーム Aのスプライスポイントにおける VBVのデータ占有量の軌跡と、 スプライスポイントにおけるストリーム Bの VBVのデータ占有量の軌跡とが連 続しているようなシームレスなスプライシングを実現するためには、 図 29 (a) のように、 スプライスポイントにおけるス トリーム Bの VBVのデータ占 有量の開始レベルを、 ストリーム Aのスプライスポイントにおける VBVのデー タ占有量の終了レベルに一致させなければいけない。 つまり、 それらのレベルを 一致させるためには、 図 29 (a) に示される例では、 再エンコード処理制御期 間 T REにおいて、 ス トリーム Bの VBVバッファのデータ占有量の軌跡が本来有 していたであろう軌跡よりもレベルを高く しなければいけない。 尚、 このデータ 占有量の軌跡が本来有していただであろう軌跡とは、 供給されたストリーム Bが スプライシング処理されなかったと仮定した場合のストリーム Bに関する VB V バッファのデータ占有量を軌跡であって、 図 29 (a) の VBV 0ST B の延長軌 跡によって示される。
その結果、 図 29 (a) に示されるように、 VBVバッファからの引き出しビ ット量が少ない Bピクチャや Pピクチャのいくつかが連続して VBVバッファか ら引き出された後に、 この VBVバッファがオーバーフローしてしまう。
本発明の実施の形態では、 図 29 (a) に示したように VBVバッファのデー タ占有量の軌跡がスプライス点において連続し、 かつ、 スプライス点の後に、 ォ ーバ—フローが発生しないように再エンコード期間の各ピクチャに対して新たな 目標符号量を設定するようにしている。
また、 スプライシングされたストリームの VBVバッファのデータ占有量の軌 跡が、 スプラスポイントにおいて連続になるように、 ストリーム Bの VBVバッ ファのデータ占有量の軌跡を単純に上げると、 オーバーフローが発生するばかり でなく、 再ェンコ一ド対象ストリ一AS T RE'とオリジナルストリーム O S T Bと の切り替わりポイントで、 V B Vバッファのデータ占有量の軌跡が不連続になつ てしまう。
本発明の実施の形態では、 さらに、 図 29 (a) に示したように再エンコード 対象ストリーム ST RE,とオリジナルストリーム OS T Bとの切り替わりポイント— で、 VBVバッファのデータ占有量の軌跡が連続するように、 再エンコード期間 の各ピクチャに対して新たな目標符号量を設定するようにしている。 尚、 オリジ ナルストリーム OS T B に対応する VBVバッファのデータ占有量の軌跡 VBV 0ST Bを制御しない理由は、 軌跡 VB V 0ST B とは、 ストリーム Bの VB Vバッフ ァのデータ占有量の軌跡が本来有していたであろう軌跡であって、 この軌跡をコ ントロールすることはできないからである。 なぜなら、 この軌跡 VB V 0ST Bは、 オリジナルストリーム O S T B がオーバーフロー又はアンダーフローしないよう に決定された最適な軌跡であって、 もしこの最適な軌跡のレベルを制御するとォ ーバ一フロー又はアンダーフローが発生する可能性があるからである。
次に、 上述した VBVバッファのアンダーフロー又はオーバーフローを回避す る本発明のスプライス制御方法、 及ぴ VBVバッファのデータ占有量が不連続に ならない本発明のスプライス制御方法について説明する。
図 27力 ら図 30において、 vbv_under は、 V B Vバッファのアンダーフロー 量を示し、 vbv— overは、 V B Vバッファのオーバーフロー量を示し、 vbv_gapは、 再ェンコ一ド対象ス トリ一ム S T RE 'とオリジナルス 卜リーム OS T Bとのスィッ チングポイントにおける V B Vバッファのギヤップ値を示すデータである。
まず、 スプライスコントローラ 1 3は、 ス トリームカウンタ 1 1から供給され たストリーム Aのビッ トカウント値及ぴストリーム Bのビッ トカウント値に基い て、 オリジナルストリーム〇 S T A の VBVバッファのデータ占有量の軌跡、 ォ リジナルストリーム OS T B の VBVバッファのデータ占有量の軌跡、 及びスト リーム Aとストリーム Bとを単純にスプライシングした場合の再ェンコ一ド対象 ストリーム S T RE,の VBVバッファのデータ占有量の軌跡を演算する。 各 VB V バッファのデータ占有量の軌跡の演算は、 プレゼンテーション時間毎に、 ストリ ームカンゥンタ 1 1から供給されるビットカウント値のから、 プレゼンテーショ ン時間に応じて V B Vバッファから出力されるビッ ト量を減算することによって 容易に演算することができる。 従って、 スプライスコントローラ 1 3は、 オリジ ナルス トリーム OS T A の VBVバッファのデータ占有量の軌跡、 オリジナルス トリーム O S T B の VBVバッファのデータ占有量の軌跡、 及びストリーム Aと ストリーム Bとを単純にスプライシングした場合の再ェンコ一ド対象ストリーム S T RE,の V B Vバッファのデータ占有量の軌跡を仮想的に把握することができる。 次に、 スプライスコントローラ 1 3は、 仮想的に求められた再エンコード対象 ス トリーム ST RE,の VBVバッファのデータ占有量の軌跡を参照することによつ て、 再エンコード対象ストリーム S T RE 'のアンダーフロー量 (vbv— under) 又は オーバ一フロー量 (vbv— over) を演算する。 さらに、 スプライスコントローラ 1 3は、 仮想的に求められた再ェンコ一ド対象ス トリーム ST RE'の VBVバッファ のデータ占有量の軌跡と、 オリジナルストリーム OS T B の VBVバッファのデ —タ占有量の軌跡 (VB V 0ST とを参照することによって、 再エンコード対 象ストリーム S T RE 'とオリジナルストリーム OS T Bとのスィツチングポィント における VBVバッファのギャップ値 (vbv— gap) を演算する。
そして、 スプライスコントローラ 1 3は、 以下の式 ( 1 ) 及ぴ (2) により目 標符号量のオフセット量 vbv— off を求める。 vov_off = — ( vbv— under - vbv— gap ) … (1)
vbv— off = + ( vbv_over - vbv— gap ) … (2) 尚、 図 2 7 (a) に示した例のように VBVバッファがアンダーフローする場 合には、 式 (1) を使用してオフセット量 vbv— off を演算し、 図 29 (a) に示 した例のように VBVバッファがオーバーフローする場合には、 式 (2) を使用 してオフセッ ト量 vbv_off を演算する。
スプライスコントローラ 1 3は、 次に、 式 (1) または式 (2) によって求め たオフセット量 vbv_off を使用して、 以下の式 (3) によって、 目標符号量 (目 標ビット量) TB ροを求める。 no mo
T B po = ∑ GB— A(nP0)+i + ∑ GB— B(m一 p^—i + vbv一 off ·· ( 3 ) i=0 i=0
なお、 この目標ビット量 TB poは、 再エンコード処理を行なうピクチャに対し て割当てられる目標ビット量を示している値である。 (3) において、 GB_A は、 ― ストリーム Aにおけるピクチャ A n-p0からピクチャ A(nPo)+noまでのいずれかの ピクチャのビット発生量を示す値であって、 ∑ GB_A(n_Po)+i は、 ピクチャ A n_Po からピクチャ A(n-Po)+n0 までの各ピクチャの発生ビット量を合計した値である。 同様に、 式 (3) において、 GB_Bは、 ストリーム Bにおけるピクチャ B m_Poから ピクチャ B (m-Po)—m0までのレ、ずれかのピクチャの発生ビット量を示す値であって、 ∑ GB_B(m— p0)— i は、 ピクチャ B m-Poからピクチャ B (m— p0)_m0までの各ピクチャ のビッ ト発生量を合計した値である。
即ち、 式 (3) によって示される目標符号量 TB po は、 ピクチャ Α— ρ0)+η0
〜ピクチャ B (mPo)-m0の合計発生ビット量に、 VBVのオフセット値 vbv— off を 加算した値である。 このように、 オフセット値 vbv_off を加算して目標ビット量 TB p0 を補正することによって、 再ェンコ一ド対象ストリーム ST Sp とオリジ ナルス トリーム〇ST B の切換えポイントにおけるデータ占有量の軌跡のギヤッ プを 0にすることができる。 よって、 つなぎめの無いシームレスなスプライシン グを実現することができる。
次に、 スプライスコントローラ 1 3は、 式 (3) に基いて得られた目標ビッ ト 量 TB po を、 ピクチャ A(n— p0)+n0 〜ピクチャ B(m— p0)m0 に対して割り当てる。 通常は、 目標ビッ ト量 TB p0 を、 単純に I ピクチャ : Pピクチャ : Bピクチャが
4 : 2 : 1の比率になるように分配するように、 各ピクチャの量子化特性を決定 している。
しかしながら、 本発明のスプライシング装置では、 単純に I ピクチャ : Pピク チヤ : Bピクチャに対して 4 : 2 : 1の固定比率で目標ビット量 TB Poを分配す るような量子化特性を用いるのではなく、 各ピクチャ A(n-p0)+n0 〜ピクチャ B (m-Po)-moの過去の量子化ステップ及び量子化マトリックス等の量子化特性を参照 して、 新たな量子化特性を決定する。 具体的には、 エンコードコントローラ 43 は、 ストリーム A及ぴストリーム Bに含まれている量子化ステップや量子化マト リクスの情報を参照して、 エンコーダ 1 A, 1 Bにおける過去のエンコード処理 時の量子化特性と大きく異なることがないように、 再ェンコ一ド時の量子化特性 を決定する。 ただし、 ピクチャの再構成によりピクチャタイプが変更されたピク チヤに関しては、 量子化ステップや量子化マトリクスの情報を参照せずに、 再ェ ンコード時に新たに量子化特性を演算する。
図 28は、 図 27において説明した VBVバッファのアンダーフローの問題を 解決するために、 スプライスコントローラ 1 3において演算された目標ビット量 TB poによって再ェンコ一ド処理を行った場合の VBVバッファのデータ占有量 を示すための図である。 また、 図 30は、 図 29において説明した VBVバッフ ァのオーバーフローの問題を解決するために、 スプライスコントローラ 13にお いて演算された目標ビット量 TB poによって再ェンコ一ド処理を行った場合の V
BVバッファのデータ占有量を示すための図である
よって、 再ェンコ一ドされた後の再ェンコ一ドストリーム S T RE は、 図 28及 び図 30に示されるように、 図 27 (a) における再エンコード対象ス トリーム S T RE,の VB Vバッファのデータ占有量の軌跡と、 図 28 (a) における再ェン コードストリーム ST の VBVバッファのデータ占有量の軌跡とは似た軌跡に なり、 図 29 (a) における再エンコード対象ストリーム S T RE'の VBVバッフ ァのデータ占有量の軌跡と、 図 30 (a) における再エンコードス トリーム S T RE の VBVバッファのデータ占有量の軌跡とは似た軌跡になる。
次に、 本実施の形態に係るスプライシング装置及び編集装置の動作について、 図 3 1及び図 32を参照して説明する。 また、 本実施の形態は、 I S01 381 8— 2, I S01 1 1 72— 2の An n e x Cの規定と I S01 381 8— 1の Ann e x Lの規定を満たしているものである。
まず、 ステップ S 10において、 スプライスコントローラ 1 3は、 ストリーム ST A , S T B を任意のピクチャ位置でスプライスするためのスプライスポイン ト p 0及びスプライシング処理における再エンコード区間 n 0, m0を受け取る。 実際には、 オペレータが外部からこれらのパラメータを入力することになるが、 再エンコード区間 n 0, m 0 については、 ストリームの GO Pの構成等に応じて 自動で設定するようにしても良い。 なお、 以下の説明では、 スプライス点におい て、 ス トリーム S T A からストリーム S T B に切り換える場合を例にとって説明 するが、 もちろん逆でもかまわない。
ステップ S 1 1において、 スプライスコントローラ 1 3は、 ストリーム ST A 及び ストリーム ST Bを、 それぞれ、 バッファメモリ 10に一時的に記憶される ようにバッファメモリ 1 0の書込み動作を制御すると共に、 プレゼンテーション タイムを基準にしてストリーム S T A及び ストリーム ST Bのスプライシングポ イントの位相が同期するように、 バッファメモリ 10の読み出し動作を制御する。 ステップ S 1 2において、 スプライスコントローラ 1 3は、 ストリーム ST A に設定されたスプライスボイントのピクチャ A n_Po よりも未来のピクチャを出力 しないように、 ストリーム ST A のピクチャを選択し、 ストリーム ST B に設定 されたスプライスポイントのピクチャ B m— ρο よりも過去のピクチャを出力しない ように、 ス トリーム ST B のピクチャを選択する。 例えば、 図 25 (a) 及ぴ図 25 (b) に示された例では、 ピクチャ A(n-p0)2 である Pピクチャは、 ストリ —ム S T A上では、 スプライスボイントのピクチャ A n-Poよりは過去であるが、 プレゼンテーション順では、 ピクチャ A n—po よりは未来のピクチャである。 よつ て、 このピクチャ Α(η— ρ0)2 である Ρピクチャは、 出力されない。 また、 図 25 (c) 及び (d) に示された例では、 ピクチャ B(m一 p0)+2及びピクチャ B(m_p0)+i である Bピクチャは、 ス トリーム ST B 上では、 スプライスポイントのピクチャ B m— poよりは未来であるが、 プレゼンテーション順では、 ピクチャ B m-P()よりは 過去のピクチャである。 よって、 この、 ピクチャ B (m— p0)+2 及ぴピクチャ B (mP())+1 である Bピクチャは、 出力されない。 なお、 スプライスコントローラ 1 3が デコーダ 14 A、 14 Bを制御すことによって、 このステップにおいて選択され なかったピクチャは、 エンコーダ 1 6には供給されない。
このように、 プレゼンテーション順を基準として出力すべきピクチャを選択し ているので、 スプライシング処理を行なったとしても図 9において説明したよう なプレゼンテーション順に関する問題は発生することは無い。
ステップ S 1 3において、 スプライスコントローラ 13は、 再エンコード処理 を行なう際の、 ピクチャの再構成処理のために必要な符号化パラメータを設定す るための処理をスタートする。 このピクチャ再構成処理は、 以下のステップ S 1 4からステップ S 30まで処理のことを意味し、 この処理において設定されるパ ラメ一タは、 ピクチャタイプ、 予測方向及び動きベク トル等であるる。
ステップ S 14において、 スプライスコントローラ 1 3は、 ピクチャ再構成処 理の対象となっているピクチャがスプライスポイントのピクチャ A n_Poである力 否かを判断する。 もし、 ピクチャ再構成処理の対象となっているピクチャがスプ ライスポイントのピクチャ A n— poである場合には、 次のステップ S 1 5に進む。 一方、 そうでない場合、 つまり、 ピクチャ再構成処理の対象となっているピクチ ャがピクチャ Α (ηΡο) +η0からピクチャ Α (η0) +1 である場合には、 ステップ S 2
0に進む。
ステップ S 1 5において、 スプライスコントローラ 1 3は、 ピクチャ再構成処 理の対象となっているピクチヤが、 Βピクチャであるのか、 Ρピクチャであるの 力 、 又は I ピクチャであるのかを判断する。 ピクチャ再構成処理の対象となって いるピクチャが、 Βピクチャである場合には、 ステップ S 1 7に進み、 ピクチャ 再構成処理の対象となっているピクチヤが、 Ρ又は I ピクチャである場合には、 ステップ S 1 8に進む。
ステップ S 1 6では、 スプライスコントローラ 1 3は、 スプライシングされた スプライスストリーム S T Spにおいて、 ピクチャ A η—ροの前に 2つ以上の Βピク チヤが存在するか否かを判断する。 例えば、 図 2 6 ( b ) に示されるように、 ピ クチャ A n-po の前に、 2つの Βピクチャ (ピクチャ Α 0) +2 とピクチャ Α (η- Ρο) +3 ) がある場合には、 ステップ S 1 8に進む。 そうで無い場合には、 ステツ プ S 1 7に進む。
ステップ S 1 7では、 スプライスコントローラ 1 3は、 ピクチャ A n_Po のピク チヤタイプの変更の必要は無しと判断し、 ピクチャ A n_Po の再エンコード処理時 におけるピクチャタイプとして、 エンコーダ 1 Aにおける過去のエンコード処理 において設定されたピクチャタイプ (Bピクチャ) と同じピクチャタイプを設定 する。 よって、 後述する再エンコード処理時に、 ピクチャ A n— po を再び Βピクチ ャとして符号化することになる。
ステップ S 1 8において、 スプライスコントローラ 1 3は、 ピクチャ Α η_ρ()の ピクチャタイプを Βピクチヤから Ρピクチャに変更する。 このようにピクチャタ イブを変更する理由について説明する。 このステップ S 1 8のステップに到達す るということは、 Βピクチャ (ピクチャ A η一 po) の前に、 2つの Bピクチャ (図 8におけるピクチャ A (n一 p0) +2 とピクチャ A (n一 p0) +3 ) が存在していることを意 味している。 即ち、 再エンコード対象ス トリーム S T RE'において、 3つの Bピクー チヤが並んでいるということである。 通常の M P E Gデコーダでは、 予測されて いるピクチャを一時的に記憶するために、 2つのフレームメモリ しか有していな いので、 3つの Bピクチャがストリーム上において連続して配列されるている場 合には、 最後の Bピクチャをデコードできないことになつてしまう。 よって、 図 2 6において説明したように、 ピクチャ A η-ροのピクチャタイプを Βピクチャか ら Ρピクチヤに変更することによって、 ピクチャ A n_Po を確実にデコードするこ とができる。
ステップ S 1 9では、 スプライスコントローラ 1 3は、 ピクチャ A η_Ροのピク チヤタイプの変更の必要は無しと判断し、 ピクチャ A n-P() の再エンコード処理時 におけるピクチャタイプとして、 エンコーダ 1 Aにおける過去のェンコ一ド処理 において設定されたピクチャタイプ ( I ピクチャ又は Pピクチャ) と同じピクチ ャタイプを設定する。
ステップ S 2 0では、 スプライスコントローラ 1 3は、 ピクチャ A n-p0のピク チヤタイプの変更の必要は無しと判断し、 ピクチャ A η_Ρο の再エンコード処理時 におけるピクチャタイプとして、 エンコーダ 1 Aにおける過去のェンコ一ド処理 において設定されたピクチャタイプ ( I ピクチャ、 Pピクチャ又は Bピクチ ャ) ) と同じピクチャタイプを設定する。
ステップ S 2 1では、 スプライスコントローラ 1 3は、 各ピクチャに対して予 測方向の設定及び動きベク トルに関するパラメータの設定を行なう。 例えば、 図 2 5及び図 2 6の例において示されているように、 ピクチャ再構成処理の対象と なっているピクチャ A η-Ροがオリジナルストリーム O S T Aにおいて Bピクチャ であった場合には、 ピクチャ再構成処理の対象となっているピクチャ A η-ροは、 Α (η_Ρο) +1 の Ρピクチャ及ぴ Α (η-Ρ())— 2 の Ρピクチヤの両方のピクチャから双方 向予測されていたピクチャである。 つまり、 エンコーダ 1 Αにおける過去のェン コード処理において、 ピクチャ Α η— ροは、 A (n— p0) +1の Pピクチャ及び A (n— p0)_
2の ピクチヤの両方のピクチャから双方向予測さされ生成されたピクチャである ということである。 ステップ S 1 2において説明したように、 A (n一 p0)2 の Pピ クチャはスプライシングストリームとしては出力されないので、 ピクチャ再構成 処理の対象となっているピクチャ A n-poの逆方向予測ピクチャとして、 Α (η-Ρ())二
2の?ピクチヤを指定することはできない。
よって、 ステップ S 1 7においてピクチャタイプの変更無しと設定されたピク チヤ A n-po ( Bピクチャ) に対しては、 A (n— p0) +1 の Pピクチヤのみを予測する ようような順方向片側予測が行われなくてはいけない。 従って、 この場合には、 スプライスコントローラ 1 3は、 ピクチャ A n— ροに対して、 A (n— p0) +1 の Pピク チヤのみを予測するようような順方向の片側予測を設定する。 また、 ステップ S 1 8において Bピクチャから Pピクチャに変更されたピクチャ A n_P()についても、 同様に、 A (n— p0) +1 の Pピクチヤのみを予測するような片側予測のパラメータを 設定する。
ステップ S 1 9においてピクチャタイプの変更無しと設定されたピクチャ A n_ Po ( Pピクチャ) においては、 予測方向は変更されない。 つまりこの場合には、 スプライスコントローラ 1 3は、 ピクチャ A n— p0 に対して、 エンコーダ 1 Αにお ける過去のエンコード処理時に予測したピクチャと同じピクチャのみを予測する ようような順方向の片側予測を設定する。
ステップ S 2 0においてピクチャタイプの変更無しと設定されたピクチャ A (n_ Po) +n0 からピクチャ A (n— p0) +1 のピクチャについては、 予測方向の変更は必要な レ、。 つまりこの場合には、 スプライスコントローラ 1 3は、 ピクチャ A (n_p0) +n0 からピクチャ A (n— p0) +1 に対して、 エンコーダ 1 Aにおける過去のエンコード処 理時に予測したピクチャと同じピクチャを予測するようような予測方向を設定す る。 但し、 ピクチャ A (n-p0) +1及びピクチャ A n一 poの両ピクチャが、 順方向の P ピクチャ又は I ピクチャと、 逆方向の I ピクチャ又は Pピクチャの双方向のピク チヤから予測されている Bピクチャである場合には、 ピクチャ A n_p0だけでは無 く、 ピクチャ A (n一 ρ0) +ι も順方向のピクチャのみから予測するような片側予測に 変更されなければいけない。
さらに、 このステップ S 2 1において、 スプライスコントローラ 1 3は、 新し く設定された予測方向に基いて、 各ピクチャに対してエンコーダ 1 Aにおける過 去のエンコード処理によって設定された動きべク トルを、 再エンコード処理時に 再利用するか否かを決定する。 上述したように予測方向の変更の無かった Pピクチャや Bピクチャについては、 再ェンコ一ド処理時において、 エンコーダ 1 Aにおける過去のェンコ一ド処理に 使用した動きベク トルをそのまま使用する。 例えば、 図 2 3及び図 2 6に示した 例では、 ピクチャ A (nPo) +n0からピクチャ A (n_p0) +1 については、 それぞれェン コーダ 1 Aにおける過去のエンコード処理に使用した動きべク トルを、 再ェンコ 一ド時に再利用する。
また、 ピクチャ Α — ρ0) +ι 及ぴピクチャ A n_p0力 順方向の Pピクチャ又は I ピクチャと、 逆方向の I ピクチャ又は Pピクチャの双方向から予測されている B ピクチャである場合には、 順方向のピクチャのみから予測するような片側予測に 変更されているので、 それに伴なつて、 順方向のピクチャに対応する動きべク ト ルのみを使用する必要がある。 つまり、 スプライスコントローラ 1 3は、 このス テツプ S 2 1において、 ピクチャ A (n— p0) +1及ぴピクチャ A n_Poが Bピクチヤで ある場合には、 これらのピクチャに対して、 順方向のピクチャに関する動きべク トルを使用し、 逆方向のピクチャの動きべク トルをしないという設定を行なう。 もし、 エンコーダ 1 Aにおける過去のエンコード処理において、 ピクチャ A n_ P0 が未来のピクチャである Α — ρ0)— 2 からのみ逆方向の片側予測されていたピク チヤであったならば、 再エンコード処理時において、 エンコーダ 1 Αにおける過 去のエンコード処理時に生成した動きべク トルは一切使用せずに、 A (n_P())+1 に 対応する新たな動きベク トルを生成する。 つまり、 スプライスコントローラ 1 3 は、 このステップ S 2 1において、 過去の動きベク トルを一切使用しないという 設定を行なう。
次に、 ステップ S 2 2において、 スプライスコントローラ 1 3は、 ピクチャ A (n- PO) +noからピクチャ A n-Poの全てのピクチャに対して、 ピクチャタイプ、 予測 方向及び過去の動きべク トルに関するパタメータが設定されたか否かを判断する。 ステップ S 2 3において、 スプライスコントローラ 1 3は、 ピクチャ再構成処 理の対象となっているピクチャがスプライスボイントのピクチャ B m_Poであるか 否かを判断する。 もし、 ピクチャ再構成処理の対象となっているピクチャがスプ ライスポイントのピクチャ B m-p0である場合には、 次のステップ S 2 4に進む。 一方、 そうでない場合、 つまり、 ピクチャ再構成処理の対象となっているピクチ ャがピクチャ B (m— p0) -i からピクチャ B (mPo) +m0である場合には、 ステップ S 2— 8に進む。
ステップ S 2 4において、 スプライスコントローラ 1 3は、 ピクチャ再構成処 理の対象となっているピクチャが、 Bピクチャであるのか、 Pピクチャであるの 力、 又は I ピクチャであるのかを判断する。 ピクチャ再構成処理の対象となって いるピクチャが、 Bピクチャである場合には、 ステップ S 2 5に進み、 ピクチャ 再構成処理の対象となっているピクチャが、 Pピクチャである場合には、 ステツ プ S 2 6に進み、 ピクチャ再構成処理の対象となっているピクチャが I ピクチャ である場合には、 ステップ S 2 7に進む。
ステップ S 2 5では、 スプライスコントローラ 1 3は、 図 2 2及ぴ図 2 3に示 された例のように、 再エンコード処理時におけるピクチャ B m-Poのピクチャタイ プの変更は必要無しと判断し、 ピクチャ B m—p0の再エンコード処理時におけるピ クチャタイプとして、 エンコーダ 1 Bにおける過去のェンコ一ド処理において設 定されたピクチャタイプ (Bピクチャ) と同じピクチャタイプを設定する。
ステップ S 2 6において、 スプライスコントローラ 1 3は、 図 2 5及び図 2 6 に示した例のように、 ピクチャ B m— po のピクチャタイプを Pピクチヤから I ピク チヤに変更する。 このようにピクチャタイプを変更する理由について説明する。 Pピクチャは、 jlll方向の I ピクチャ又は Pピクチャから予測される片側予測のピ クチャであるので、 ストリ一ム上においてそれらの予測されたピクチャよりは必 ず後ろの位置に存在するピクチャである。 もし、 ス トリーム S T B けるスプライ スポイントの最初のピクチャ B MPoが Pピクチヤであるとすると、 このピクチャ B m-Poより前に存在するストリーム S T Aの順方向のピクチャから予測しなけれ ばいけない。 ス ト リーム S T A とス トリーム S T B とは全くことなるので、 最初 のピクチャ B m-p0 のピクチャタイプを Pピクチヤに設定すると、 このピクチャを デコードしたとしても画質のかなり劣化した絵になることはあきらかである。 よって、 スプライスコントローラ 1 3は、 ス ト リーム S T B けるスプライスポ ィントの最初のピクチャ B m-Poのピクチャタイプが Pピクチャであった場合には、 このピクチャ B m-P()のピクチャタイプを Iピクチャに変更する。
ステップ S 2 7において、 スプライスコントローラ 1 3は、 ピクチャ B m_P()の ピクチャタイプの変更の必要は無しと判断し、 ピクチャ B m-poの再エンコード処— 理時におけるピクチャタイプとして、 エンコーダ 1 Bにおける過去のェンコ一ド 処理において設定されたピクチャタイプ ( I ピクチャ) と同じピクチャタイプを 設定する。
ステップ S 2 8では、 スプライスコントローラ 1 3は、 ピクチャ B (m-po)^ 力 らピクチャ B (m一 p0)m0のピクチャタイプの変更の必要は無しと判断し、 それらの ピクチャの再ェンコ一ド処理時におけるピクチャタイプとして、 エンコーダ 1 B における過去のエンコード処理において設定されたピクチャタイプ (I ピクチャ、 Pピクチャ又は Bピクチャ) と同じピクチャタイプを設定する。
ステップ S 2 9では、 スプライスコントローラ 1 3は、 各ピクチャに対して予 測方向の設定及ぴ動きべク トル関する設定を行なう。 例えば、 図 2 2及び図 2 3 に示された例のように、 ピクチャ再構成処理の対象となっているピクチャ B m_Po がオリジナルストリーム O S T B において Bピクチャであった場合には、 ピクチ ャ再構成処理の対象となっているピクチャ B m-Poは、 B (m一 ρ0)+ι の Pピクチヤ及 び Β θη-Ρο) - 2 の I ピクチャの両方のピクチャから双方向予測されていたピクチャ である。 つまり、 エンコーダ 1 Βにおける過去のエンコード処理において、 ピク チヤ B m-Poは、 B (m— ρ0) +ι の Ρピクチャ及び B (m-p0)2 の Iピクチャの両方のピ クチャから双方向予測されて生成されたピクチャであるということである。 ステ ップ S 1 2において説明したように、 B (m— p0) +1 の Pピクチャはスプライシング ストリームとしては出力されないので、 ピクチャ再構成処理の対象となっている ピクチャ B m_P()の順方向予測ピクチャとして、 B (m— ρ0) +ι の Pピクチヤを指定す ることはできない。
よって、 ステップ S 2 5においてピクチャタイプの変更無しと設定されたピク チヤ B m-Po ( Bピクチャ) に対しては、 B (m— p0)2 の Iピクチャのみを予測する ようような逆方向片側予測が行われなくてはいけない。 よってこの場合には、 ス プライスコントローラ 1 3は、 ピクチャ B m— poに対して、 B (m— ρ0)-2 の Iピクチ ャのみを予測するようような逆方向の片側予測を行なうように予測方向を設定す る。
ステップ S 2 8においてピクチャタイプの変更無しと設定されたピクチャ B (m一 P0) +m0からピクチャ B (m- P0) +1 のピクチャについては、 予測方向の変更は必要な— レ、。 つまりこの場合には、 スプライスコントローラ 1 3は、 ピクチャ B (mP()) +m() からピクチャ B (m_p0) +i に対して、 エンコーダ 1 Bにおける過去のエンコード処 理時に予測したピクチャと同じピクチャを予測するようような予測方向を設定す る。 但し、 B ^p^ -i が Bピクチヤである場合には、 ピクチャ B m-Poの場合と同 様に、 ピクチャ B (m— p0)— 1 に対して、 B ( 2 の Iピクチャのみを予測するよ うような逆方向の片側予測を行なうような予測方向が設定される。
さらに、 このステップ S 2 9において、 スプライスコントローラ 1 3は、 新し く設定された予測方向に基いて、 各ピクチャに対してエンコーダ 1 Bにおける過 去のエンコード処理によって設定された動きべク トルを、 再エンコード処理時に 再利用するか否かを決定する。
上述したように予測方向の変更の無かった Pピクチャや Bピクチャについては、 再ェンコ一ド処理時において、 エンコーダ 1 Bにおける過去のェンコ一ド処理に 使用した動きベク トルをそのまま使用する。 例えば、 図 2 2及び図 2 3において は、 B (m-p0) -2 の I ピクチャから B (m m0 までの Pピクチャまでの各ピクチャ に対しては、 過去のエンコード時に使用した動きべク トルをそのまま使用する。 エンコーダ 1 Bにおける過去のエンコード処理において、 B (m_p0) +1 の Pピク チヤ及ぴ B (m-P()) -2 の I ピクチャの両方のピクチャから双方向予測されていたピ クチャ B m— ρο及びピクチャ B (m— ρ0)_ι に対しては、 B (m-Po)2 の I ピクチャのみ を予測するような片側予測に予測方向が変更されているので、 ピクチャ B (mP()) +1 に対応する動きべク トルを使用せずに、 ピクチャ B m— poに対してはピクチャ B (m_ Po)_2 に対応する動きべク トルのみを使用する必要がある。 つまり、 スプライスコ ントローラ 1 3は、 このステップ S 2 9において、 ピクチャ B m Po及びピクチャ B (m-Po) -i に対しては、 一方向のみの過去の動きベク トルを再使用し、 他方の過 去の動きべク トルを使用しないという設定を行なう。
次に、 ステップ S 3 0において、 スプライスコントローラ 1 3は、 ピクチャ B m_PQからピクチャ B (m— p0)— mo全てのピクチャに対して、 ピクチャタイプ、 予測方 向及び動きべク トルに関するパラメータが設定されたか否かを判断する。
ステップ S 3 1において、 スプライスコントローラ 1 3は、 既に説明した式 (3) に基いて、 再エンコード期間に発生すべき目標ビット量 (TB Po) を演算— する。 以下に具体的に説明する。 まず、 スプライスコントローラ 1 3は、 ストリ ームカウンタ 1 1から供給されたストリーム Aのビッ トカウント値及びストリー ム Bのビットカウント値に基いて、 オリジナルストリーム O S Τ Λ の VBVパッ ファのデータ占有量の軌跡、 オリジナルス トリーム OST Β の VB Vバッファの データ占有量の軌跡、 及びストリーム Αとストリーム Bとを単純にスプライシン グした場合の再ェンコ一ド対象ス トリーム ST RE,の VB Vバッファのデータ占有 量の軌跡を演算する。
次に、 スプライスコントローラ 1 3は、 仮想的に求められた再エンコード対象 ストリーム ST RE,の VBVバッファのデータ占有量の軌跡を解析することによつ て、 再エンコード対象ス トリーム S T RE'のアンダーフロー量 (vbv— under) 又は オーバーフロー量 (vbv— over) を演算する。 さらに、 スプライスコントローラ 1 3は、 仮想的に求められた再ェンコ一ド対象ストリーム S T RE>の VBVバッファ のデータ占有量の軌跡と、 オリジナルストリーム OST B の VBVバッファのデ ータ占有量の軌跡 (VBV 0ST B) とを比較することによって、 再エンコード対象 ストリ一ム S T RE-とオリジナルス トリーム O S T Bとのスィツチングポィントに おける VBVバッファのギャップ値 (vbv_gap) を演算する。
続いて、 スプライスコントローラ 1 3は、 既に説明した式 (1) 及び (2) に より 目標符号量のオフセッ ト量 vbv_off を求め、 さらに、 式 ( 1 ) または式
(2) によって求めたオフセット量 vbv— off を使用して、 既に説明した式 (3) によって、 目標符号量 (目標ビッ ト量) TB p0を求める。
次に、 ステップ S 32において、 スプライスコントローラ 1 3は、 式 (3) に 基いて得られた目標ビッ ト量 TB po を、 ピクチャ Α(η— ρ0)+η0 〜ピクチャ B (m一 p。)_mQ に対して割り当てに基いて、 各ピクチャに対して設定される量子化特性を 決定する。 本発明のスプライシング装置では、 各ピクチャ A(n— p0)+n() 〜ピクチャ B (m-Po)-m0 のエンコーダ 1 A, 1 Bにおける過去の量子化ステップ及び量子化マ トリ ックス等の量子化特性を参照して、 新たな量子化特性を決定する。 具体的に は、 スプライシングコントローラ 1 3は、 まず、 ス トリーム A及ぴス トリーム B に含まれている量子化ステップや量子化マトリクス等のエンコーダ 1 A, 1 Bに おける過去の符号化処理において生成された符号化パラメータ情報をストリーム— 解析部 1 2から受取る。
そして、 スプライシングコントローラ 1 3は、 式 (3 ) に基いて得られた目標 ビット量 T B poを、 ピクチャ A (n_p0) +n() 〜ピクチャ B (m— p0)m0に対して割り当 てられた符号量のみから量子化特性を決定するのでは無く、 この目標ビット量 T B p0から割当てられた符号量とこれらの過去の符号化パラメータ情報を参照して、 エンコーダ 1 A, 1 Bにおけるェンコ一ド時の量子化特性と大きく異なることが ないように、 エンコード時の量子化特性を決定する。 ただし、 ステップ S 1 8 やステップ S 2 6において説明したように、 ピクチャの再構成処理によりピクチ ャタイプが変更されたピクチャに関しては、 量子化ステップや量子化マトリクス の情報を参照せずに、 再ェンコ一ド処理時に新たに量子化特性を演算する。
次に、 ステップ S 3 3において、 スプライスコントローラ 1 3は、 再ェンコ一 ド期間に含まれるピクチャ A (n-p0) +n0 〜ピクチャ B (m-p0)—m0をデコードする。 次に、 ステップ S 3 4において、 スプライスコントローラ 1 3、 ステップ S 3 2【こおレヽて ヒクラ Ύ A (n-po) +no 〜ピクラ ャ B (m-p0)一 mo に対してそれぞれ設定 された量子化特性を使用して、 発生ビット量のコントロールを行いながら、 ピク チヤ A (n— p0) +n0 〜ピクチャ B (m_Po)m0 を再エンコードする。
この再ェンコ一ド処理において、 スプライスコントローラ 1 3は、 エンコーダ 1 A, 1 Bにおける過去のエンコード処理において使用した動きべク トノレを再禾I 用する場合には、 スィツチ 4 4を介して動き補償部 4 1に供給するようにェンコ ードコントローラに制御信号を与え、 エンコーダ 1 A, I Bにおける過去のェン コード処理において使用した動きべク トルを使用しない場合には、 新しく動き検 出部 4 2において生成された動きべク トルをスィツチ 4 1を介して動き補償部 4 1に供給するようにエンコードコントローラ 4 3を制御する。 その際、 ェンコ一 ドコントローラ 4 3は、 スプライスコントローラ 1 3からのピクチャタイプの情 報に基づいて、 予測画像データの生成に必要なピクチャがフレームメモリ 3 9, 4 0に保持されるようにフレームメモリ 3 9, 4 0を制御する。 また、 ェンコ一 ドコントローラ 4 3は、 スプライスコントローラ 1 3から供給された再ェンコ一 ド区間内の各ピクチャに対して設定された量子化特性を、 量子化回路 3 4と逆量 子化回路 3 6に対して設定する。
ステップ S 3 5において、 スプライスコントローラ 1 3は、 スィッチ 1 7を制 御して、 バッファメモリ 1 0より出力されるストリーム ST A, S T B および M PEGエンコーダ 1 6より出力される再ェンコ一ド区間内の新たなス トリーム S T REのうちの一つを選択的に出力することによって、 再エンコード区間の前にお けるストリーム ST A と Sエンコード区間内の新たなス トリーム S T REと再ェン コード区間の後におけるストリーム S T B とを連結して、 スプライスされたスト リーム S T SPとして出力する。
本実施の形態では、 このように MP EGエンコーダ 1 7において目標ビット量 TB p0に従ってレートコントロールしながら再ェンコ一ドを行って得られた再ェ ンコード区間内の新たなストリ一ム S T REを、 スィツチ 1 7によって、 元のスト リームにおけるピクチャ Α— ρ0)+η0 〜ピクチャ B(m— p0)m0 の位置にはめ込む。 これにより、 シームレスなスプライスが実現される。
ストリーム S T A にス トリーム S T B をスプライスするとき、 スプライス後の ストリーム S T B で、 VBVバッファのオーバフロー、 アンダフローを起こさな いためには、 ストリーム S T B のスプライス後の VBVバッファの状態を、 スプ ライス以前の状態に合わせることが、 連続なピクチャプレゼンテーションを保証 するためのバッファ制御上の条件となる。 本実施の形態では、 この条件を、 原則 として、 上述のような新たな目標符号量 (目標ビッ ト量) の設定によって満たす ようにする。
以上説明したように、 本実施の形態によれば、 複数のス トリームのスプライス 点を含む再ェンコ一ド区間内における各ストリ一ムを復号化して、 得られた再ェ ンコード区間内の画像データを新たな目標符号量に従って再ェンコ一ドして、 再 ェンコ一ド区間内の新たなストリームを生成し、 再ェンコ一ド区間の前後におけ る元のストリームと新たなス トリームとを連結して出力するようにしたので、 復 号化装置 ( I RD) 側の VBVバッファを破綻させず、 且つスプライス点前後で ピクチャプレゼンテーションが連続で画像を破綻させることもなく、 ス トリーム 上の任意のピクチャ単位で、 複数の映像素材をシームレスにスプライスすること ができる。 また、 本実施の形態では、 再エンコード時に、 動きベク トル等の複号化の際に 使用される情報を再利用するようにしている。 すなわち、 本実施の形態では、 ス プライス点近傍において、 動き検出が無効になるピクチャ以外のピクチャについ ては、 以前のエンコード時に検出された動きべク トル等の動き検出の情報を再利 用しているので、 再ェンコ一ド処理によって画質が劣化することは無い。
更に、 再エンコード時における量子化特性を決定する際には、 復号化の際に使 用される量子化ステップや量子化マトリクスの情報を参照するようにしている。 従って、 本実施の形態によれば、 デコードと再エンコードの繰り返しによる画質 の劣化を極力抑えることができ、 画像再構成の精度を保証することができる。 なお、 M P E G規格による圧縮符号化過程では、 直交変換の演算精度や、 ミス マッチ処理 (D C T係数の高域に誤差を入れる処理) 等の非線形演算から、 復号 化の際に使用される情報の再利用だけでは抑えることのできない再構成誤差が持 ち込まれる。 そのため、 再エンコード時に、 複号化の際に使用される情報を再利 用したとしても完全な画像の再構成はできない。 従って、 画質劣化が存在するこ とを考慮すれば、 デコード、 再エンコードを行うのは、 スプライス点を含むスプ ライス点近傍の一定区間のピクチャに留めるべきである。 そこで、 本実施の形態 では、 ス トリームを全てデコード、 再エンコードするのではなく、 再エンコード 区間を設定して、 その区間だけ、 デコード、 再エンコードを行うようにしている。 これによつても、 画質の劣化を防止することができる。 なお、 再エンコード区間 は、 画質の劣化の程度等や G O P長や G O P構造に応じて自動出で設定できるよ うにしても良い。 を考慮して、 任意に設定することができる。
なお、 本発明は上記実施の形態に限定されず、 例えば、 再エンコード区間に対 する新たな目標符号量の算出方法は、 式 (1 ) 〜 (3 ) に示した方法に限らず、 適宜に設定可能である。
以上説明したように、 本発明のスプライシング装置及び編集方法によれば、 複 数の符号化ビッ トス トリームの接続点を含む接続点前後の所定区間内における各 符号化ビッ トストリ一ムを復号化して所定区間内の画像データを出力し、 所定区 間内の画像データを、 新たな目標符号量に従って符号化して、 所定区間内の新た な符号化ビッ トストリームを出力し、 所定区間内の元の符号化ビットストリーム を、 所定区間内の新たな符号化ビッ トストリームに置き換えて、 所定区間の前後— における元の符号化ビッ トストリームと新たな符号化ビットストリームとを連結 して出力するようにしたので、 復号化装置側の入力バッファに対応する仮想的パ ッファの破綻や画像の破綻をきたすことなく、 符号化ビットストリーム上の任意 のピクチャ単位で、 複数の映像素材を接続することができるという効果を奏する。 また、 本発明のスプライシング装置及び編集装置によれば、 元の符号化ビット ストリームに含まれ、 複号化の際に使用される情報を利用して符号化を行うよう にしたので、 更に、 接続点近傍における画質劣化を低減することができるという 効果を奏する。
また、 本発明のスプライシング装置及び編集装置によれば、 元の符号化ビット ストリ一ムが双方向予測符号化方式による符号化のためにピクチャの並べ替えが 行われている場合に、 所定区間内の画像データの符号化の際に、 異なる符号化ビ ットス トリームに属するピクチャを利用した予測符号化処理が行われないように ピクチャタイプの再構成を行って符号化を行うようにしたので、 更に、 双方向予 測符号化方式による符号化を行う場合であっても画像の破綻をきたすことがない という効果を奏する。
また、 本発明のスプライシング装置及び編集装置によれば、 複号化装置側の入 カバッファに対応する仮想的バッファのデータ占有量の軌跡の接続点前後におけ るずれを減ずるように、 新たな目標符号量を設定するようにしたので、 更に、 仮 想的バッファの破綻をより確実に防止することができるという効果を奏する。

Claims

求 の 範 囲
1 . 複数の映像素材を符号化して得られる複数の符号化ビットストリームを入力 して、 この複数の符号ィ匕ビットストリームを接続するための編集装置であって、 複数の符号化ビッ トストリームを入力して、 この複数の符号化ビットストリーム の接続点を含む接続点前後の各符号化ビッ トストリームを復号化して、 符号化画 口
像データを出力する復号化手段と、
符号化画像データに対する新たな目標符号量を設定する目標符号量設定手段と、 上記複号化手段から出力された符号化画像データを、 上記目標符号量設定手段に よって設定される新たな目標符号量に従って符号化して、 新たな符号化ビットス トリームを生成する符号化手段と、
上記供給された元の符号化ビッ トストリームと上記符号化手段によって出力され る新たな符号化ビッ トス ト リームとを、 上記接続点において切り換えて出力する ことによって、 編集されたビットストリームを出力する出力手段とを備えたこと を特徴とする編集装置。
2 . 上記符号化手段は、 元の符号化ビッ トストリームに含まれる符号化パラメ一 タを再利用して符号化を行うことを特徴とする請求項 1記載の編集装置。
3 . 元の符号化ビッ トス ト リームは、 双方向予測符号化方式による符号化のため にピクチャの並べ替えが行われているものであり、
上記符号化手段は、 異なる符号化ビッ トストリームに属するピクチャを利用した 予測符号化処理が行われないようにピクチャタイプの再構成を行って、 双方向予 測符号化方式による符号化を行うことを特徴とする請求項 1記載の編集装置。
4 . 上記目標符号量設定手段は、 復号化装置側の入力バッファに対応する仮想的 バッファのデータ占有量の軌跡の接続点前後におけるずれを減ずるように、 新た な目標符号量を設定することを特徴とする請求項 1記載の編集装置。
5 . 上記符号化手段は、 設定された目標符号量に対する発生符号量の不足分を補 うためにダミ一データの付加を行う機能を有することを特徴とする請求項 1記載 の編集装置。
6 . 上記符号化手段は、 設定された目標符号量に対して発生符号量が超過したと きに、 所定単位の符号化処理の停止を行う機能を有することを特徴とする請求項 1記載の編集装置。
7 . 複数の映像素材を符号化して得られる複数の符号化ビットストリームを入力 して、 この複数の符号化ビットストリームを接続するための編集方法であって、 複数の符号化ビッ トストリームを入力して、 この複数の符号化ビットストリーム の接続点を含む接続点前後の各符号化ビッ トストリームを復号化して、 符号化画 像データを出力する復号化工程と、
符号化画像データに対する新たな目標符号量を設定する目標符号量設定工程と、 上記複号化工程から出力された符号化画像データを、 上記目標符号量設定工程に よって設定される新たな目標符号量に従って符号化して、 新たな符号化ビットス トリームを生成する符号化工程と、
上記供給された元の符号化ビッ トストリームと上記符号化工程によって出力され る新たな符号化ビッ トス ト リームとを、 上記接続点において切り換えて出力する ことによって、 編集されたビッ トストリームを出力する出力工程とから構成され る編集方法。
8 . 上記符号化工程は、 元の符号化ビッ トス ト リームに含まれる符号化パラメ一 タを再利用して符号化を行うことを特徴とする請求項 1記載の編集方法。
9 . 元の符号化ビットス ト リームは、 双方向予測符号化方式による符号化のため にピクチャの並べ替えが行われているものであり、
上記符号化工程は、 異なる符号化ビッ トス ト リームに属するピクチャを利用した 予測符号化処理が行われないようにピクチャタイプの再構成を行って、 双方向予 測符号化方式による符号化を行うことを特徴とする請求項 7記載の編集方法。
1 0 . 上記目標符号量設定工程は、 複号化方法側の入力バッファに対応する仮想 的バッファのデータ占有量の軌跡の接続点前後におけるずれを減ずるように、 新 たな目標符号量を設定することを特徴とする請求項 7記載の編集方法。
1 1 . 上記符号化工程は、 設定された目標符号量に対する発生符号量の不足分を 補うためにダミーデータの付加を行う機能を有することを特徴とする請求項 7記 載の編集方法。
1 2 . 上記符号化工程は、 設定された目標符号量に対して発生符号量が超過した ときに、 所定単位の符号化処理の停止を行う機能を有することを特徴とする請求一 項 7記載の編集方法。
1 3 . 複数のソース符号化ス トリームを編集する編集装置において、
上記複数のソース符号化ス トリ一ムに対して、 それぞれ編集ボイントを設定する 編集ポイント設定手段と、
上記複数のソース符号化ス トリームの上記編集ボイント付近のピクチャをそれぞ れデコ一ドし、 デコードされたビデオデータを出力するデコード手段と、 上記デコードされたビデオデータを再ェンコ一ドし、 再ェンコ一ドストリームを 出力する再ェンコ一ド手段と、
上記ソース符号化ストリームと上記再エンコードストリームとを切り換えて出力 することによって、 編集された編集ストリームを生成する編集ストリーム生成手 段と、
上記上記編集ス トリームがデコード時に不連続とならないように上記再ェンコ一 ド手段及び上記編集ストリーム生成手段を制御する編集制御手段
とを備えたことを特徴とする編集装置。
1 4 . 上記編集制御手段は、
V B Vバッファにオーバーフロー及びアンダーフローが発生しないように、 上記 再ェンコ一ド手段における再ェンコ一ドの目標ビット量を演算し、
上記再ェンコ一ド手段は、
上記編集制御手段から供給された上記目標ビット量に基いて、 上記ソース符号化 ストリームを符号化することを特徴とする請求項 1 3項記載の編集装置。
1 5 . 上記編集制御手段は、
上記ソース符号化ストリームと上記再エンコードストリームの切換えポイント又 は上記再ェンコ一ドス トリームの上記編集ポィントにおいて、 V B Vバッファの データ占有量の軌跡が不連続にならないように、 上記再ェンコ一ド手段における 再ェンコ一ドの目標ビット量を演算し、
上記再ェンコ一ド手段は、
上記編集制御手段から供給された上記目標ビット量に基いて、 上記ソース符号化 ストリームを符号化することを特徴とする請求項 1 3項記載の編集装置。
1 6 . 上記編集制御手段は、
上記再ェンコ一ドストリ一ムに対応する V B Vバッファのデータ占有量の軌跡が、 上記ソース符号化ストリームが本来有していたであろうと想定できる V B Vバッ ファのデータ占有量の軌跡に近くなるように、 上記再ェンコード手段を制御する 請求項 1 3項記載の編集装置。
1 7 . 上記編集制御手段は、
上記ソース符号化ストリームに含まれる符号化バタメータを抽出し、 上記抽出さ れた符号パラメータを、 上記再ェンコ一ド手段における再ェンコ一ド処理時に選 択的に再利用することによって、 上記編集ストリームの画質劣化を防止すること を特徴とする請求項 1 3項記載の編集装置。
1 8 . 上記編集制御手段は、
上記ソース符号化ストリームに含まれる量子化特性に関する情報を抽出し、 上記 抽出された量子化特性に基いて上記再ェンコ一ド手段における再ェンコ一ド処理 を行なうように上記再ェンコ一ド手段を制御することを特徴とする請求項 1 3項 記載の編集装置。
1 9 . 上記編集制御手段は、
上記ソース符号化ストリームに含まれる量子化特性に関する情報を各ピクチャ毎 に抽出し、
V B Vバッファにオーバーフロ一及ぴアンダーフローが発生しないように、 上記 再ェンコ一ド手段における再エンコード処理における各ピクチャ目標ビット量を 演算し、
上記ソース符号化ストリームに含まれる量子化特性に関する情報を各ピクチャ毎 に抽出し、 上記ソース符号化ストリームから抽出された量子化特性と、 上記演算 された目標ビット量とに基いて、 新たな量子化特性を演算し、
上記演算された新たな量子化特性に基いて上記再ェンコ一ド処理を行なうように 上記再ェンコ一ド手段を制御することを特徴とする請求項 1 3項記載の編集装置。
2 0 . 上記編集制御手段は、
V B Vバッファにオーバーフロー及ぴアンダーフローが発生しないように、 上記 再ェンコ一ド手段における再ェンコ一ド処理における目標ビット量を演算し、 上記ソース符号化ストリームに含まれる過去の符号化処理において生成された量— 子化特性を参照することによって、 上記目標ビット量を、 再エンコード処理すベ き各ピクチャに対して割当て、
上記各ピクチャに割当てられた目標ビット量に従って、 上記各ピクチャ毎に上記 再ェンコ一ド処理を行なうように上記再ェンコ一ド手段を制御することを特徴と する請求項 1 3項記載の編集装置。
2 1 . 上記編集制御手段は、
V B Vバッファにオーバーフロー及ぴアンダーフローが発生しないように、 上記 再ェンコ一ド手段における再エンコード処理における目標ビット量を演算し、 上記ソース符号化ストリームの過去の符号化処理における各ピクチャ毎の発生ビ ット量に近くなるように、 上記目標ビッ ト量を、 再エンコード処理すべきピクチ ャに対してそれぞれ割当て、
上記各ピクチャに割当てられた目標ビッ ト量に従って、 上記各ピクチャ毎に上記 再エンコード処理を行なうように上記再エンコード手段を制御することを特徴と する請求項 1 3項記載の編集装置。
2 2 . 上記編集制御手段は、
上記ソース符号化ストリームから抽出された動きべク トル情報を、 再ェンコ一ド 手段における再ェンコ一ド処理時に選択的に再利用することによって、 上記編集 ストリームの画質劣化を防止することを特徴とする請求項 1 3項記載の編集装置。
2 3 . 上記再エンコード手段は、
各ピクチャの動きを検出して、 動きべク トルを生成する動き検出手段と、 上記動き検出手段によって検出された動きべク トルに基いて動き補償を行なう動 き補償手段を備え、
上記編集制御手段は、
上記ソース符号化ス ト リームから抽出された動きべク トル情報を、 再エンコード 手段における再ェンコ一ド処理時に再利用するか否かを判断し、
再利用すると判断された場合には、 上記動き検出手段において検出された動きべ ク トルではなくて、 上記ストリームから抽出された動きベク トルを、 上記再ェン コード手段の動き補償回路に供給するように上記再ェンコ一ド手段を制御するこ とを特徴とする請求項 1 3項記載の編集装置。 - 2 4 . 上記編集制御手段は、
上記編集ポイントを挟んで異なるソース符号化ストリ一ムのピクチャから予測さ れることが無いように、 上記再ェンコ一ド手段の再ェンコ一ド処理が行われる上 記編集ボイントの近傍のピクチヤに対して予測方向を設定することを特徴とする 請求項 1 3項記載の編集装置。
2 5 . 上記編集制御手段は、
上記再ェンコ一ド手段によって再ェンコ一ドされる上記編集ボイント近傍のピク チヤのピクチャタイプを選択的に変更することによって、 上記編集ストリームの 上記編集ボイントの近傍のピクチャの画質劣化を防止することを特徴とする請求 項 1 3項記載の編集装置。
2 6 . 上記編集制御手段は、
上記編集ポイントを跨いで異なるソース符号化ストリームのピクチャから予測さ れることが無いように、 上記再ェンコ一ド手段によって再ェンコ一ドされる上記 編集ポイント近傍のピクチャのピクチャタイプを選択的に変更することを特徴と する請求項 1 3項記載の編集装置。
2 7 . 上記複数のソース符号化ストリームは、 少なく とも第 1の符号化ストリー ムと第 2の符号化ストリームを含み、
上記編集制御手段は、
上記第 1の符号化ストリームを構成する複数のピクチャのうち、 上記第 1の符号 化ストリームに設定された第 1の編集ボイントに対して、 プレゼンテ一ション時 間軸において未来のピクチャを上記編集ストリームとして出力しないように出力 ピクチャを選択し、
且つ、 上記第 2の符号化ス トリームを構成する複数のピクチャのうち、 第 2の符 号化ストリームに設定された第 2の編集ポイントに対して、 プレゼンテーション 時間軸において過去のピクチャを出力しないように出力ピクチャを選択すること を特徴とする請求項 1 3項記載の編集装置。
2 8 . 上記複数のソース符号化ス トリームは、 少なく とも第 1の符号化ス トリー ムと第 2の符号化ストリ一ムを含み、 上記編集制御手段は、
上記第 1の符号化ストリームを構成する複数のピクチャのうち、 上記第 1の符号 化ストリ一ムに設定された第 1の編集ポイントに対して、 プレゼンテーション時 間軸において未来のピクチャを上記編集ストリームとして出力しないように出力 ピクチャを選択し、
且つ、 上記第 2の符号化ス ト リームを構成する複数のピクチャのうち、 第 2の符 号化ストリームに設定された第 2の編集ポイントに対して、 プレゼンテーション 時間軸において過去のピクチャを出力しないように出力ピクチャを選択し、 上記再ェンコ一ド手段によって再ェンコ一ドされるピクチャの上記編集ボイント の近傍のピクチャタイプ及び予測方向を設定し、
上記ソース符号化ストリームから抽出された動きべク トル情報を、 再ェンコ一ド 手段における再ェンコ一ド処理時に再利用するピクチャに対して設定し、
V B Vバッファにオーバーフロー及びアンダーフローが発生しないように、 上記 再ェンコ一ド手段における再ェンコ一ド処理における目標ビット量を演算し、 上記ソース符号化ストリームの過去の符号化処理における各ピクチャ毎の発生ビ ッ ト量に近くなるように、 上記目標ビット量を、 再エンコード処理すべきピクチ ャに対してそれぞれ割当て、
上記各ピクチャに割当てられた目標ビッ ト量、 予測方向、 ピクチャタイプ及び動 きべク トルに従って、 上記各ピクチャ毎に上記再ェンコ一ド処理を行なうように 上記再ェンコ一ド手段を制御する
ことを特徴とする請求項 1 3項記載の編集装置。
2 9 . 複数のソース符号化ス ト リームを編集して、 編集されたス ト リームを生成 する編集方法において、
上記複数のソース符号化ストリームに対して、 それぞれ編集ポイントを設定する 編集ポイント設定工程と、
上記複数のソース符号化ストリームの上記編集ボイント付近のピクチャをそれぞ れデコ一ドし、 デコードされたビデオデータを出力するデコードエ程と、 上記デコードされたビデオデータを再エンコードし、 再エンコードス ト リームを 出力する再ェンコ一ドエ程と、 上記ソース符号化ストリームと上記再エンコードストリームとを切り換えて出力 することによって、 編集された編集ストリームを生成する編集ストリーム生成ェ 程と、
上記上記編集ストリームがデコード時に不連続とならないように上記再ェンコ一 ドエ程及び上記編集ストリーム生成工程を制御する編集制御工程
とを備えたことを特徴とする編集方法。
3 0 . 複数のソース符号化ストリ一ムをスプライシングするスプライシング装置 において、
上記複数のソース符号化ス ト リームに対して、 それぞれスプライシングポイント を設定するスプライシングポィント設定手段と、
上記複数のソース符号化ス ト リームの上記スプライシングポィント付近のピクチ ャをそれぞれデコードし、 デコードされたビデオデータを出力するデコード手段 と、
上記デコードされたビデオデータを再ェンコ一ドし、 再ェンコ一ドストリームを 出力する再ェンコ一ド手段と、
上記ソース符号化ストリームと上記再ェンコ一ドストリ一ムとを切り換えて出力 することによって、 スプライシングされたスプライシングストリームを生成する スプライシングス トリーム生成手段と、
上記上記スプライシンダス トリームがデコード時に不連続とならないように上記 再ェンコ一ド手段及び上記スプライシンダストリーム生成手段を制御するスプラ イス制御手段
とを備えたことを特徴とするスプライシング装置。
3 1 . 上記スプライス制御手段は、
V B Vバッファにォ一バーフロー及びアンダーフローが発生しないように、 上記 再ェンコ一ド手段における再ェンコ一ドの目標ビット量を演算し、
上記再ェンコ一ド手段は、
上記スプライス制御手段から供給された上記目標ビット量に基いて、 上記ソース 符号化ストリームを符号化することを特徴とする請求項 3 0項記載のスプライシ ング装置。
3 2 . 上記スプライス制御手段は、 ― 上記ソース符号化ストリームと上記再エンコードストリームの切換えポイント又 は上記再ェンコ一ドス トリームの上記スプライスポィントにおいて、 V B Vバッ ファのデータ占有量の軌跡が不連続にならないように、 上記再ェンコ一ド手段に おける再ェンコ一ドの目標ビット量を演算し、
上記再ェンコ一ド手段は、
上記スプライス制御手段から供給された上記目標ビッ ト量に基いて、 上記ソース 符号化ストリームを符号化することを特徴とする請求項 3 0項記載のスプライシ ング装置。
3 3 . 上記スプライス制御手段は、
上記再ェンコ一ドストリームに対応する V B Vバッファのデータ占有量の軌跡が、 上記ソース符号化ストリームが本来有していたであろうと想定できる V B Vバッ ファのデータ占有量の軌跡に近くなるように、 上記再ェンコ一ド手段を制御する 請求項 3 0項記載のスプライシング装置。
3 4 . 上記スプライス制御手段は、
上記ソース符号化ストリームに含まれる符号化パタメータを抽出し、 上記抽出さ れた符号パラメータを、 上記再ェンコ一ド手段における再ェンコ一ド処理時に選 択的に再利用することによって、 上記スプライシンダストリームの画質劣化を防 止することを特徴とする請求項 3 0項記載のスプライシング装置。
3 5 . 上記スプライス制御手段は、
上記ソース符号化ストリームに含まれる量子化特性に関する情報を抽出し、 上記 抽出された量子化特性に基いて上記再ェンコ一ド手段における再ェンコ一ド処理 を行なうように上記再ェンコ一ド手段を制御することを特徴とする請求項 3 0項 記載のスプライシング装置。
3 6 . 上記スプライス制御手段は、
上記ソース符号化ストリームに含まれる量子化特性に関する情報を各ピクチャ毎 に抽出し、
V B Vバッファにオーバーフロー及びアンダーフローが発生しないように、 上記 再ェンコ一ド手段における再ェンコ一ド処理における各ピクチャ目標ビット量を 演算し、
上記ソース符号化ストリームに含まれる量子化特性に関する情報を各ピクチャ毎 に抽出し、 上記ソース符号化ス トリームから抽出された量子化特性と、 上記演算 された目標ビット量とに基いて、 新たな量子化特性を演算し、
上記演算された新たな量子化特性に基いて上記再ェンコ一ド処理を行なうように 上記再ェンコ一ド手段を制御することを特徴とする請求項 3 0項記載のスプライ シング装置。
3 7 . 上記スプライス制御手段は、
V B Vバッファにオーバーフロー及びアンダーフローが発生しないように、 上記 再ェンコ一ド手段における再ェンコ一ド処理における目標ビット量を演算し、 上記ソース符号化ストリームに含まれる過去の符号化処理において生成された量 子化特性を参照することによって、 上記目標ビット量を、 再エンコード処理すベ き各ピクチャに対して割当て、
上記各ピクチャに割当てられた目標ビット量に従って、 上記各ピクチャ毎に上記 再ェンコ一ド処理を行なうように上記再ェンコ一ド手段を制御することを特徴と する請求項 3 0項記載のスプライシング装置。
3 8 . 上記スプライス制御手段は、
V B Vバッファにオーバーフロー及びアンダーフローが発生しないように、 上記 再ェンコ一ド手段における再ェンコ一ド処理における目標ビット量を演算し、 上記ソース符号化ストリームの過去の符号化処理における各ピクチャ毎の発生ビ ット量に近くなるように、 上記目標ビット量を、 再エンコード処理すべきピクチ ャに対してそれぞれ割当て、
上記各ピクチャに割当てられた目標ビット量に従って、 上記各ピクチャ毎に上記 再ェンコ一ド処理を行なうように上記再ェンコ一ド手段を制御することを特徴と する請求項 3 0項記載のスプライシング装置。
3 9 . 上記スプライス制御手段は、
上記ソース符号化ストリームから抽出された動きべク トル情報を、 界ェンコード 手段における再ェンコ一ド処理時に選択的に再利用することによって、 上記スプ ライシンダストリームの画質劣化を防止することを特徴とする請求項 3 0項記載 のスプライシング装置。
4 0 . 上記!?エンコード手段は、
各ピクチャの動きを検出して、 動きべク トルを生成する動き検出手段と、 上記動き検出手段によって検出された動きべク トルに基いて動き補償を行なう動 き補償手段を備え、
上記スプライス制御手段は、
上記ソース符号化ストリームから抽出された動きべク トル情報を、 再ェンコ一ド 手段における再ェンコ一ド処理時に再利用するか否かを判断し、
再利用すると判断された場合には、 上記動き検出手段において検出された動きべ ク トルではなくて、 上記ス トリームから抽出された動きベク トルを、 上記再ェン コード手段の動き補償回路に供給するように上記再ェンコ一ド手段を制御するこ とを特徴とする請求項 3 0項記載のスプライシング装置。
4 1 . 上記スプライス制御手段は、
上記スプライスポイントを挟んで異なるソース符号化ストリームのピクチャから 予測されることが無いように、 上記再ェンコ一ド手段の再ェンコ一ド処理が行わ れる上記スプライスボイントの近傍のピクチャに対して予測方向を設定すること を特徴とする請求項 3 0項記載のスプライシング装置。
4 2 . 上記スプライス制御手段は、
上記再ェンコ一ド手段によって再ェンコ一ドされる上記スプライスボイント近傍 のピクチャのピクチャタイプを選択的に変更することによって、 上記スプライシ ングス トリームの上記スプライスポィントの近傍のピクチャの画質劣化を防止す ることを特徴とする請求項 3 0項記載のスプライシング装置。
4 3 . 上記スプライス制御手段は、
上記スプライスボイントを跨いで異なるソース符号化ストリ一ムのピクチャから 予測されることが無いように、 上記再ェンコ一ド手段によって再ェンコ一ドされ る上記スプライスボイント近傍のピクチャのピクチャタイプを選択的に変更する ことを特徴とする請求項 3 0項記載のスプライシング装置。
4 4 . 上記複数のソース符号化ス トリームは、 少なく とも第 1の符号化ス トリー ムと第 2の符号化ストリームを含み、 上記スプライス制御手段は、
上記第 1の符号化ストリームを構成する複数のピクチャのうち、 上記第 1の符号 化ストリームに設定された第 1のスプライスポイントに対して、 プレゼンテーシ ョン時間軸において未来のピクチャを上記スプライシングストリ一ムとして出力 しないように出力ピクチャを選択し、
且つ、 上記第 2の符号化ス ト リームを構成する複数のピクチャのうち、 第 2の符 号化ストリームに設定された第 2のスプライシングポイントに対して、 プレゼン テ一ション時間軸において過去のピクチャを出力しないように出力ピクチャを選 択することを特徴とする請求項 3 0項記載のスプライシング装置。
4 5 . 上記複数のソース符号化ス トリームは、 少なく とも第 1の符号化ストリー ムと第 2の符号化ストリームを含み、
上記スプライス制御手段は、
上記第 1の符号化ストリームを構成する複数のピクチャのうち、 上記第 1の符号 化ストリームに設定された第 1 のスプライスポイントに対して、 プレゼンテーシ ョン時間軸において未来のピクチャを上記スプライシンダストリームとして出力 しないように出力ピクチャを選択し、
且つ、 上記第 2の符号化ス ト リームを構成する複数のピクチャのうち、 第 2の符 号化ストリームに設定された第 2のスプライシングポイントに対して、 プレゼン テーション時間軸において過去のピクチャを出力しないように出力ピクチャを選 択し、
上記再ェンコ一ド手段によって再ェンコ一ドされるピクチャの上記スプライスポ イントの近傍のピクチャタイプ及び予測方向を設定し、
上記ソース符号化ストリームから抽出された動きべク トル情報を、 再ェンコ一ド 手段における再ェンコ一ド処理時に再利用するピクチャに対して設定し、
V B Vバッファにオーバーフロー及ぴアンダーフローが発生しないように、 上記 再ェンコ一ド手段における再ェンコ一ド処理における目標ビット量を演算し、 上記ソース符号化ストリームの過去の符号化処理における各ピクチャ毎の発生ビ ット量に近くなるように、 上記目標ビット量を、 再エンコード処理すべきピクチ ャに対してそれぞれ割当て、 上記各ピクチャに割当てられた目標ビッ ト量、 予測方向、 ピクチャタイプ及び動— きべク トルに従って、 上記各ピクチャ毎に上記再エンコード処理を行なうように 上記再ェンコ一ド手段を制御する
ことを特徴とする請求項 3 0項記載のスプライシング装置。
4 6 . 複数のソース符号化ス トリ一ムをスプライシングするスプライシング方法 において、
上記複数のソース符号化ストリームに対して、 それぞれスプライシングポィント を設定するスプライシングポイント設定工程と、
上記複数のソース符号化ス トリームの上記スプライシングポイント付近のピクチ ャをそれぞれデコードし、 デコードされたビデオデータを出力するデコードエ程 と、
上記デコードされたビデオデータを再ェンコ一ドし、 再ェンコ一ドストリームを 出力する再ェンコ一ドエ程と、
上記ソース符号化ストリームと上記再エンコードス トリームとを切り換えて出力 することによって、 スプライシングされたスプライシングストリームを生成する スプライシンダス トリーム生成工程と、
上記上記スプライシングス トリームがデコード時に不連続とならないように上記 再ェンコ一ドエ程及び上記スプライシンダストリーム生成工程を制御するスプラ イス制御工程
とを備えたことを特徴とするスプライシング装置。
4 7 . 上記スプライス制御工程は、
V B Vバッファにオーバーフロー及びアンダーフローが発生しないように、 上記 再ェンコ一ドエ程における再ェンコ一ドの目標ビット量を演算し、
上記再ェンコ一ドエ程は、
上記スプライス制御工程から供給された上記目標ビッ ト量に基いて、 上記ソース 符号化ストリームを符号化することを特徴とする請求項 4 6項記載のスプライシ ング方法。
4 8 . 上記スプライス制御工程は、
上記ソース符号化ス トリームと上記再ェンコ一ドス トリームの切換えポィント又 は上記再ェンコ一ドス トリームの上記スプライスポィントにおいて、 V B Vバッ ファのデータ占有量の軌跡が不連続にならないように、 上記再ェンコ一ドエ程に おける再ェンコ一ドの目標ビット量を演算し、
上記再エンコード工程は、
上記スプライス制御工程から供給された上記目標ビッ ト量に基いて、 上記ソース 符号化ストリームを符号化することを特徴とする請求項 4 6項記載のスプライシ ング方法。
4 9 . 上記スプライス制御工程は、
上記再ェンコ一ドストリームに対応する V B Vバッファのデータ占有量の軌跡が、 上記ソース符号化ストリームが本来有していたであろうと想定できる V B Vバッ ファのデータ占有量の軌跡に近くなるように、 上記再ェンコ一ドエ程を制御する 請求項 4 6項記載のスプライシング方法。
5 0 . 上記スプライス制御工程は、
上記ソース符号化ストリームに含まれる符号化パタメータを抽出し、 上記抽出さ れた符号パラメータを、 上記再ェンコ一ドエ程における再ェンコ一ド処理時に選 択的に再利用することによって、 上記スプライシンダストリームの画質劣化を防 止することを特徴とする請求項 4 6項記載のスプライシング方法。
5 1 . 上記スプライス制御工程は、
上記ソース符号化ストリームに含まれる量子化特性に関する情報を抽出し、 上記 抽出された量子化特性に基いて上記再ェンコ一ドエ程における再ェンコ一ド処理 を行なうように上記再ェンコ一ドエ程を制御することを特徴とする請求項 4 6項 記載のスプライシング方法。
5 2 . 供給されたソースビデオデータを符号化する符号化装置において、 上記ソースビデオデータを符号化し、 第 1 の符号化ストリームを出力する第 1 の ェンコ一ド手段と、
上記第 1のェンコ一ド手段によって符号化された符号化ストリームをデコードし、 デコードされたビデオデータを出力するデコード手段と、
上記第 1 の符号化ストリームに含まれる上記第 1 の符号化時において使用した符 号化パラメータを選択的に使用して、 上記デコード手段によってデコードされた ビデオデータを再ェンコ一ドして再ェンコ一ドス トリ一ムとして出力する第 2の ェンコ一ド手段と、
上記再エンコードス トリームに対応する V B Vバッファにオーバーフロー及ぴァ ンダ一フローが発生しないように、 上記第 2のェンコ一ド手段を制御するェンコ ード制御手段と
を備えたことを特徴とする符号化装置。
5 3 . 上記エンコード制御手段は、
V B Vバッファのデータ占有量の軌跡が不連続にならないように、 上記第 2のェ ンコ一ド手段における再ェンコ一ドの目標ビット量を演算し、
上記第 2のェンコ一ド手段は、
上記エンコード制御手段から供給された上記目標ビッ ト量に基いて、 上記デコー ドされたビデオデータを符号化することを特徴とする請求項 5 2項記載の符号化
5 4 . 上記エンコード制御手段は、
上記第 1の符号化ストリームに含まれる符号化パタメータを抽出し、 上記抽出さ れた符号パラメータを、 上記第 2のェンコ一ド手段における再ェンコ一ド処理時 に選択的に再利用することによって、 上記再ェンコ一ドストリームの画質劣化を 防止することを特徴とする請求項 5 2項記載の符号化装置。
5 5 . 上記エンコード制御手段は、
上記第 1の符号化ストリームに含まれる量子化特性に関する情報を抽出し、 上記 抽出された量子化特性に基いて上記第 2のェンコ一ド手段における再ェンコ一ド 処理を行なうように上記第 2のェンコ一ド手段を制御することを特徴とする請求 項 5 2項記載の符号化装置。
5 6 . 上記ェンコード制御手段は、
上記第 1の符号化ス トリームに含まれる量子化特性に関する情報を各ピクチャ毎 に抽出し、
V B Vバッファにオーバ一フロー及ぴアンダーフローが発生しないように、 上記 第 2のェンコ一ド手段における再ェンコ一ド処理における各ピクチャ目標ビット 量を演算し、 上記第 1の符号化ストリームに含まれる量子化特性に関する情報を各ピクチャ毎 に抽出し、 上記第 1の符号化ス トリームから抽出された量子化特性と、 上記演算 された目標ビット量とに基いて、 新たな量子化特性を演算し、
上記演算された新たな量子化特性に基いて上記再ェンコ一ド処理を行なうように 上記第 2のェンコ一ド手段を制御することを特徴とする請求項 5 2項記載の符号 化装置。
5 7 . 上記エンコード制御手段は、
V B Vバッファにオーバーフロー及びアンダーフローが発生しないように、 上記 第 2のェンコ一ド手段における再ェンコ一ド処理における目標ビット量を演算し、 上記第 1の符号化ス トリームに含まれる過去の符号化処理において生成された量 子化特性を参照することによって、 上記目標ビット量を、 再エンコード処理すベ き各ピクチャに対して割当て、
上記各ピクチャに割当てられた目標ビット量に従って、 上記各ピクチャ毎に上記 再ェンコ一ド処理を行なうように上記第 2のェンコ一ド手段を制御することを特 徴とする請求項 5 2項記載の符号化装置。
5 8 . 上記エンコード制御手段は、
V B Vバッファにオーバーフロー及びアンダーフローが発生しないように、 上記 第 2のェンコ一ド手段における再ェンコ一ド処理における目標ビット量を演算し、 上記第 1の符号化ストリームの過去の符号化処理における各ピクチャ毎の発生ビ ット量に近くなるように、 上記目標ビッ ト量を、 再エンコード処理すべきピクチ ャに対してそれぞれ割当て、
上記各ピクチャに割当てられた目標ビット量に従って、 上記各ピクチャ毎に上記 再エンコード処理を行なうように上記第 2のエンコード手段を制御することを特 徴とする請求項 5 2項記載の符号化装置。
5 9 . 上記エンコード制御手段は、
上記第 1の符号化ストリームから抽出された動きべクトル情報を、 第 2のェンコ ―ド手段における再ェンコ一ド処理時に選択的に再利用することによって、 上記 再ェンコ一ドストリームの画質劣化を防止することを特徴とする請求項 5 2項記 載の符号化装置。
6 0 . 上記第 2のエンコード手段は、
各ピクチャの動きを検出して、 動きべクトルを生成する動き検出手段と、 上記動き検出手段によって検出された動きべク トルに基いて動き補償を行なう動 き補償手段を備え、
上記エンコード制御手段は、
上記第 1の符号化ストリームから抽出された動きべク トル情報を、 第 2のェンコ 一ド手段における再ェンコ一ド処理時に再利用するか否かを判断し、
再利用すると判断された場合には、 上記動き検出手段において検出された動きべ ク トルではなくて、 上記ストリームから抽出された動きベク トルを、 上記第 2の ェンコ一ド手段の動き補償回路に供給するように上記第 2のェンコ一ド手段を制 御することを特徴とする請求項 5 2項記載の符号化装置。
6 1 . 供給されたソースビデオデータを符号化する符号化方法において、 上記ソースビデオデータを符号化し、 第 1 の符号化ストリームを出力する第 1 の ェンコ一ドエ程と、
上記第 1のェンコ一ドエ程によって符号化された符号化ストリームをデコードし、 デコードされたビデオデ一タを出力するデコードエ程と、
上記第 1 の符号化ストリ一ムに含まれる上記第 1 の符号化時において使用した符 号化パラメータを選択的に使用して、 上記デコードエ程によってデコードされた ビデオデータを再ェンコ一ドして再ェンコ一ドストリームとして出力する第 2の ェンコ一ドエ程と、
上記再ェンコ一ドス トリームに対応する V B Vバッファにオーバーフロー及ぴァ ンダ一フローが発生しないように、 上記第 2のエンコード工程を制御するェンコ —ド制御工程と
を備えたことを特徴とする符号化方法。
6 2 . 上記ェンコ一ド制御工程は、
V B Vバッファのデータ占有量の軌跡が不連続にならないように、 上記第 2のェ ンコードエ程における再ェンコ一ドの目標ビット量を演算し、
上記第 2のェンコ一ドエ程は、
上記エンコード制御工程から供給された上記目標ビッ ト量に基いて、 上記デコー ドされたビデオデータを符号化することを特徴とする請求項 6 1項記載の符号化 方法。
6 3 . 上記エンコード制御工程は、
上記第 1の符号化ストリームに含まれる符号化パタメータを抽出し、 上記抽出さ れた符号パラメータを、 上記第 2のェンコ一ドエ程における再ェンコ一ド処理時 に選択的に再利用することによって、 上記再ェンコ一ドストリームの画質劣化を 防止することを特徴とする請求項 6 1項記載の符号化方法。
6 4 . 上記エンコード制御工程は、
上記第 1の符号化ストリームに含まれる量子化特性に関する情報を抽出し、 上記 抽出された量子化特性に基いて上記第 2のェンコ一ドエ程における再ェンコ一ド 処理を行なうように上記第 2のェンコ一ドエ程を制御することを特徴とする請求 項 6 1項記載の符号化方法。
6 5 . 上記エンコード制御工程は、
上記第 1の符号化ストリームに含まれる量子化特性に関する情報を各ピクチャ毎 に抽出し、
V B Vバッファにオーバーフロー及びアンダーフローが発生しないように、 上記 第 2のェンコ一ドエ程における再ェンコ一ド処理における各ピクチャ目標ビット 量を演算し、
上記第 1の符号化ストリームに含まれる量子化特性に関する情報を各ピクチャ毎 に抽出し、 上記第 1の符号化ス トリームから抽出された量子化特性と、 上記演算 された目標ビット量とに基いて、 新たな量子化特性を演算し、
上記演算された新たな量子化特性に基いて上記再ェンコ一ド処理を行なうように 上記第 2のェンコ一ドエ程を制御することを特徴とする請求項 6 1項記載の符号 化方法。
6 6 . 上記ェンコ一ド制御工程は、
V B Vバッファにオーバーフロー及ぴアンダーフローが発生しないように、 上記 第 2のェンコ一ドエ程における再ェンコ一ド処理における目標ビット量を演算し、 上記第 1の符号化ストリームに含まれる過去の符号化処理において生成された量 子化特性を参照することによって、 上記目標ビット量を、 再エンコード処理すベ き各ピクチャに対して割当て、
上記各ピクチャに割当てられた目標ビット量に従って、 上記各ピクチャ毎に上記 再ェンコ一ド処理を行なうように上記第 2のェンコ一ドエ程を制御することを特 徴とする請求項 6 1項記載の符号化方法。
6 7 . 上記エンコード制御工程は、
V B Vバッファにオーバーフロー及びアンダーフローが発生しないように、 上記 第 2のェンコ一ドエ程における再ェンコ一ド処理における目標ビッ ト量を演算し、 上記第 1の符号化ストリームの過去の符号化処理における各ピクチャ毎の発生ビ ット量に近くなるように、 上記目標ビット量を、 再エンコード処理すべきピクチ ャに対してそれぞれ割当て、
上記各ピクチャに割当てられた目標ビット量に従って、 上記各ピクチャ毎に上記 再ェンコ一ド処理を行なうように上記第 2のェンコ一ドエ程を制御することを特 徴とする請求項 6 1項記載の符号化方法。
6 8 . 上記ェンコ一ド制御工程は、
上記第 1の符号化ストリ一ムから抽出された動きべクトル情報を、 第 2のェンコ 一ドエ程における再ェンコ一ド処理時に選択的に再利用することによって、 上記 再エンコードストリームの画質劣化を防止することを特徴とする請求項 6 1項記 載の符号化方法。
6 9 . 上記第 2のエンコード工程は、
各ピクチャの動きを検出して、 動きべクトルを生成する動き検出工程と、 上記動き検出工程によって検出された動きべクトルに基いて動き補償を行なう動 き補償工程を備え、
上記エンコード制御工程は、
上記第 1の符号化ス トリームから抽出された動きべクトル情報を、 第 2のェンコ 一ドエ程における再ェンコ一ド処理時に再利用するか否かを判断し、
再利用すると判断された場合には、 上記動き検出工程において検出された動きべ タトルではなくて、 上記ストリームから抽出された動きベクトルを、 上記第 2の ェンコ一ドエ程の動き補償回路に供給するように上記第 2のェンコ一ドエ程を制 御することを特徴とする請求項 6 1項記載の符号化方法。
PCT/JP1998/003332 1997-07-25 1998-07-27 Dispositif d'edition, procede d'edition, dispositif d'epissage, procede d'epissage, dispositif de codage et procede de codage WO1999005864A1 (fr)

Priority Applications (9)

Application Number Priority Date Filing Date Title
EP19980933940 EP0923243B1 (en) 1997-07-25 1998-07-27 Editing device, editing method, splicing device, splicing method, encoding device, and encoding method
JP50967099A JP3736808B2 (ja) 1997-07-25 1998-07-27 編集装置、編集方法、再符号化装置及び再符号化方法
DE69841897T DE69841897D1 (de) 1997-07-25 1998-07-27 Bearbeitungsanlage, bearbeitungsverfahren, spleissungsanlage, spleissungsverfahren, kodieranlage und kodierverfahren
US09/275,999 US6567471B1 (en) 1997-07-25 1999-03-25 System method and apparatus for seamlessly splicing data
US10/282,784 US7139316B2 (en) 1997-07-25 2002-10-29 System method and apparatus for seamlessly splicing data
US11/586,245 US7711051B2 (en) 1997-07-25 2006-10-25 System method and apparatus for seamlessly splicing data
US11/591,063 US8923409B2 (en) 1997-07-25 2006-11-01 System method and apparatus for seamlessly splicing data
US11/591,073 US8798143B2 (en) 1997-07-25 2006-11-01 System method and apparatus for seamlessly splicing data
US11/642,369 US8223847B2 (en) 1997-07-25 2006-12-19 Editing device, editing method, splicing device, splicing method, encoding device, and encoding method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP19992397 1997-07-25
JP9/199923 1997-07-25

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US09/275,999 Continuation US6567471B1 (en) 1997-07-25 1999-03-25 System method and apparatus for seamlessly splicing data

Publications (1)

Publication Number Publication Date
WO1999005864A1 true WO1999005864A1 (fr) 1999-02-04

Family

ID=16415853

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1998/003332 WO1999005864A1 (fr) 1997-07-25 1998-07-27 Dispositif d'edition, procede d'edition, dispositif d'epissage, procede d'epissage, dispositif de codage et procede de codage

Country Status (7)

Country Link
US (6) US6567471B1 (ja)
EP (3) EP1445773A1 (ja)
JP (5) JP3736808B2 (ja)
KR (2) KR100555164B1 (ja)
CN (1) CN1161989C (ja)
DE (1) DE69841897D1 (ja)
WO (1) WO1999005864A1 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000062551A1 (en) * 1999-04-14 2000-10-19 Sarnoff Corporation Frame-accurate seamless splicing of information streams
EP1058262A2 (en) * 1999-06-01 2000-12-06 Sony Corporation Encoding and multiplexing of video streams
JP2000354249A (ja) * 1999-04-16 2000-12-19 Sony United Kingdom Ltd ビデオ信号処理装置、ビデオ信号処理方法及びコンピュータプログラム製品
JP2001008210A (ja) * 1999-04-16 2001-01-12 Sony United Kingdom Ltd ビデオ信号処理装置、コンピュータプログラム製品及びビデオ信号処理方法
JP2001119305A (ja) * 1999-08-26 2001-04-27 Sony United Kingdom Ltd 信号処理装置
JP2001204035A (ja) * 1999-11-30 2001-07-27 Thomson Licensing Sa デジタル・ビデオ復号システム、複数のビデオ・プログラムを順次表示する方法およびユーザーによって選択される次のチャネルを予測する方法
JP2002281433A (ja) * 2001-03-15 2002-09-27 Kddi Corp 動画像検索閲覧編集装置および記録媒体
EP1045589A3 (en) * 1999-04-16 2004-03-03 Sony United Kingdom Limited Apparatus and method for splicing of encoded video bitstreams
WO2006022221A1 (ja) * 2004-08-25 2006-03-02 Sony Corporation 情報処理装置および情報処理方法、記録媒体、並びに、プログラム
JP2007059996A (ja) * 2005-08-22 2007-03-08 Sony Corp 情報処理装置および情報処理方法、記録媒体、並びに、プログラム
US7254175B2 (en) 1999-07-02 2007-08-07 Crystalmedia Technology, Inc. Frame-accurate seamless splicing of information streams
US8817887B2 (en) 2006-09-05 2014-08-26 Sony Corporation Apparatus and method for splicing encoded streams

Families Citing this family (98)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0725399U (ja) * 1993-10-19 1995-05-12 廉正 赤澤 ミッションオイルクリーナ
GB2327548B (en) * 1997-07-18 2002-05-01 British Broadcasting Corp Switching compressed video bitstreams
EP1445773A1 (en) * 1997-07-25 2004-08-11 Sony Corporation Encoding device and encoding method
CA2284216A1 (en) * 1998-01-19 1999-07-22 Sony Corporation Edit system, edit control device, and edit control method
JP2000138896A (ja) * 1998-10-30 2000-05-16 Hitachi Ltd 画像音声記録装置
JP2000165802A (ja) 1998-11-25 2000-06-16 Matsushita Electric Ind Co Ltd ストリーム編集装置と編集方法
US6763390B1 (en) * 2000-01-24 2004-07-13 Ati Technologies, Inc. Method and system for receiving and framing packetized data
US6988238B1 (en) 2000-01-24 2006-01-17 Ati Technologies, Inc. Method and system for handling errors and a system for receiving packet stream data
US6785336B1 (en) 2000-01-24 2004-08-31 Ati Technologies, Inc. Method and system for retrieving adaptation field data associated with a transport packet
US6885680B1 (en) 2000-01-24 2005-04-26 Ati International Srl Method for synchronizing to a data stream
US6778533B1 (en) 2000-01-24 2004-08-17 Ati Technologies, Inc. Method and system for accessing packetized elementary stream data
US8284845B1 (en) 2000-01-24 2012-10-09 Ati Technologies Ulc Method and system for handling data
JP2001218213A (ja) * 2000-01-31 2001-08-10 Mitsubishi Electric Corp 画像信号変換符号化装置
JP4170555B2 (ja) 2000-02-28 2008-10-22 株式会社東芝 映像符号化装置及び映像符号化方法
GB0007868D0 (en) 2000-03-31 2000-05-17 Koninkl Philips Electronics Nv Methods and apparatus for editing digital video recordings and recordings made by such methods
JP2002010259A (ja) * 2000-06-21 2002-01-11 Mitsubishi Electric Corp 画像符号化装置及び画像符号化方法及び画像符号化プログラムを記録した記録媒体
US7490344B2 (en) 2000-09-29 2009-02-10 Visible World, Inc. System and method for seamless switching
US7095945B1 (en) 2000-11-06 2006-08-22 Ati Technologies, Inc. System for digital time shifting and method thereof
US20020133486A1 (en) * 2001-03-15 2002-09-19 Kddi Corporation Video retrieval and browsing apparatus, video retrieval, browsing and editing apparatus, and recording medium
FI111590B (fi) * 2001-04-20 2003-08-15 Swelcom Oy Menetelmä ja laite datan lokalisointia varten
US7349691B2 (en) * 2001-07-03 2008-03-25 Microsoft Corporation System and apparatus for performing broadcast and localcast communications
US6965597B1 (en) * 2001-10-05 2005-11-15 Verizon Laboratories Inc. Systems and methods for automatic evaluation of subjective quality of packetized telecommunication signals while varying implementation parameters
KR100454501B1 (ko) * 2001-12-26 2004-10-28 브이케이 주식회사 영상신호를 부호화 또는 복호화하기 위한 예측 장치 및 방법
KR100475412B1 (ko) * 2002-03-11 2005-03-10 주식회사 럭스퍼트 상부 펌핑방식의 광소자
DE10212656A1 (de) * 2002-03-21 2003-10-02 Scm Microsystems Gmbh Selektive Verschlüsselung von Multimediadaten
US7151856B2 (en) * 2002-04-25 2006-12-19 Matsushita Electric Industrial Co., Ltd. Picture coding apparatus and picture coding method
US9948977B2 (en) * 2003-01-09 2018-04-17 Avago Technologies General Ip (Singapore) Pte. Ltd. System, method, and apparatus for determining presentation time for picture without presentation time stamp
US7426306B1 (en) * 2002-10-24 2008-09-16 Altera Corporation Efficient use of keyframes in video compression
FR2848766B1 (fr) * 2002-12-13 2005-03-11 Thales Sa Procede de commutation de signaux numeriques avant emission, commutateur et signal resultant
US8175154B2 (en) * 2003-06-03 2012-05-08 General Instrument Corporation Method for restructuring a group of pictures to provide for random access into the group of pictures
US7609762B2 (en) * 2003-09-07 2009-10-27 Microsoft Corporation Signaling for entry point frames with predicted first field
US7852919B2 (en) * 2003-09-07 2010-12-14 Microsoft Corporation Field start code for entry point frames with predicted first field
US8213779B2 (en) 2003-09-07 2012-07-03 Microsoft Corporation Trick mode elementary stream and receiver system
US7839930B2 (en) * 2003-11-13 2010-11-23 Microsoft Corporation Signaling valid entry points in a video stream
US7924921B2 (en) 2003-09-07 2011-04-12 Microsoft Corporation Signaling coding and display options in entry point headers
US20050060420A1 (en) * 2003-09-11 2005-03-17 Kovacevic Branko D. System for decoding multimedia data and method thereof
JP3675464B2 (ja) * 2003-10-29 2005-07-27 ソニー株式会社 動画像符号化装置および動画像符号化制御方法
US9715898B2 (en) * 2003-12-16 2017-07-25 Core Wireless Licensing S.A.R.L. Method and device for compressed-domain video editing
US7391809B2 (en) * 2003-12-30 2008-06-24 Microsoft Corporation Scalable video transcoding
TW200603614A (en) * 2004-06-02 2006-01-16 Matsushita Electric Ind Co Ltd Seamless switching between random access units multiplexed in a multi angle view multimedia stream
CN1713727B (zh) * 2004-06-14 2010-11-10 松下电器产业株式会社 编辑资料流的方法及装置
KR100608061B1 (ko) * 2004-07-12 2006-08-02 삼성전자주식회사 전송 스트림 생성을 위한 다중화 방법 및 그 장치
US8155186B2 (en) * 2004-08-11 2012-04-10 Hitachi, Ltd. Bit stream recording medium, video encoder, and video decoder
JP4438059B2 (ja) * 2004-08-24 2010-03-24 キヤノン株式会社 画像再生装置及びその制御方法
JP4221667B2 (ja) * 2004-08-25 2009-02-12 ソニー株式会社 情報処理装置および情報処理方法、記録媒体、並びに、プログラム
JP4174728B2 (ja) * 2004-08-25 2008-11-05 ソニー株式会社 情報処理装置および情報処理方法、記録媒体、並びに、プログラム
WO2007014384A2 (en) * 2005-07-28 2007-02-01 Thomson Licensing Method and apparatus for transmitting multiple video streams over a video channel
JP4528694B2 (ja) * 2005-08-12 2010-08-18 株式会社東芝 動画像符号化装置
JP4791129B2 (ja) * 2005-10-03 2011-10-12 ルネサスエレクトロニクス株式会社 画像符号化装置、画像符号化方法及び画像編集装置
US20070116117A1 (en) * 2005-11-18 2007-05-24 Apple Computer, Inc. Controlling buffer states in video compression coding to enable editing and distributed encoding
JP4828925B2 (ja) * 2005-11-30 2011-11-30 パナソニック株式会社 符号化装置
JP4932242B2 (ja) * 2005-12-13 2012-05-16 三菱電機株式会社 ストリーム切換装置及びストリーム切換方法
JP4207072B2 (ja) 2006-04-07 2009-01-14 ソニー株式会社 情報処理装置および情報処理方法、記録媒体、並びに、プログラム
JP4207981B2 (ja) * 2006-06-13 2009-01-14 ソニー株式会社 情報処理装置および情報処理方法、プログラム、並びに記録媒体
JP4229149B2 (ja) * 2006-07-13 2009-02-25 ソニー株式会社 ビデオ信号処理装置およびビデオ信号処理方法、ビデオ信号符号化装置およびビデオ信号符号化方法、並びにプログラム
JP2008066851A (ja) * 2006-09-05 2008-03-21 Sony Corp 情報処理装置および情報処理方法、記録媒体、並びに、プログラム
JP4369948B2 (ja) * 2006-09-20 2009-11-25 シャープ株式会社 画像表示装置及び方法、画像処理装置及び方法
JP4303743B2 (ja) * 2006-10-04 2009-07-29 シャープ株式会社 画像表示装置及び方法、画像処理装置及び方法
JP4241839B2 (ja) 2007-02-02 2009-03-18 ソニー株式会社 データ及びファイルシステム情報の記録装置及び記録方法
JP2009077105A (ja) * 2007-09-20 2009-04-09 Sony Corp 編集装置および編集方法、プログラム、並びに記録媒体
US20090083811A1 (en) * 2007-09-26 2009-03-26 Verivue, Inc. Unicast Delivery of Multimedia Content
US8457958B2 (en) 2007-11-09 2013-06-04 Microsoft Corporation Audio transcoder using encoder-generated side information to transcode to target bit-rate
US8432804B2 (en) * 2007-11-29 2013-04-30 Hewlett-Packard Development Company, L.P. Transmitting video streams
US8543667B2 (en) 2008-01-14 2013-09-24 Akamai Technologies, Inc. Policy-based content insertion
US8335262B2 (en) * 2008-01-16 2012-12-18 Verivue, Inc. Dynamic rate adjustment to splice compressed video streams
EP2272004A4 (en) 2008-04-17 2012-10-10 Sony Corp DOUBLE PLAYBACK FOR MULTIMEDIA CONTENT
DE102008002005A1 (de) * 2008-05-27 2009-12-03 Robert Bosch Gmbh Exzenter-Planetenantrieb
JP2010004142A (ja) * 2008-06-18 2010-01-07 Hitachi Kokusai Electric Inc 動画像符号化装置、復号化装置、符号化方法及び復号化方法
US8259177B2 (en) * 2008-06-30 2012-09-04 Cisco Technology, Inc. Video fingerprint systems and methods
US8904426B2 (en) * 2008-06-30 2014-12-02 Rgb Networks, Inc. Preconditioning ad content for digital program insertion
US20090327334A1 (en) * 2008-06-30 2009-12-31 Rodriguez Arturo A Generating Measures of Video Sequences to Detect Unauthorized Use
US8347408B2 (en) * 2008-06-30 2013-01-01 Cisco Technology, Inc. Matching of unknown video content to protected video content
WO2010032636A1 (ja) * 2008-09-17 2010-03-25 シャープ株式会社 スケーラブルビデオストリーム復号装置およびスケーラブルビデオストリーム生成装置
US20100104022A1 (en) * 2008-10-24 2010-04-29 Chanchal Chatterjee Method and apparatus for video processing using macroblock mode refinement
US20100128779A1 (en) * 2008-11-14 2010-05-27 Chanchal Chatterjee Method and apparatus for splicing in a compressed video bitstream
US8743906B2 (en) * 2009-01-23 2014-06-03 Akamai Technologies, Inc. Scalable seamless digital video stream splicing
US8396114B2 (en) * 2009-01-29 2013-03-12 Microsoft Corporation Multiple bit rate video encoding using variable bit rate and dynamic resolution for adaptive video streaming
US8311115B2 (en) * 2009-01-29 2012-11-13 Microsoft Corporation Video encoding using previously calculated motion information
US20100201870A1 (en) * 2009-02-11 2010-08-12 Martin Luessi System and method for frame interpolation for a compressed video bitstream
US9906757B2 (en) * 2009-02-26 2018-02-27 Akamai Technologies, Inc. Deterministically skewing synchronized events for content streams
US9565397B2 (en) * 2009-02-26 2017-02-07 Akamai Technologies, Inc. Deterministically skewing transmission of content streams
US8650602B2 (en) * 2009-02-27 2014-02-11 Akamai Technologies, Inc. Input queued content switching using a playlist
EP2403248B1 (en) * 2009-02-27 2018-07-04 Fujitsu Limited Moving picture encoding device, moving picture encoding method, and moving picture encoding computer program
US8270473B2 (en) * 2009-06-12 2012-09-18 Microsoft Corporation Motion based dynamic resolution multiple bit rate video encoding
US8724710B2 (en) * 2010-02-24 2014-05-13 Thomson Licensing Method and apparatus for video encoding with hypothetical reference decoder compliant bit allocation
US8718148B2 (en) * 2010-03-11 2014-05-06 Sony Corporation Information processing apparatus, information processing method, and program
JP5682331B2 (ja) * 2010-03-11 2015-03-11 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US8705616B2 (en) 2010-06-11 2014-04-22 Microsoft Corporation Parallel multiple bitrate video encoding to reduce latency and dependences between groups of pictures
CA2802904C (en) 2010-06-18 2019-06-18 Akamai Technologies, Inc. Extending a content delivery network (cdn) into a mobile or wireline network
JP6056122B2 (ja) * 2011-01-24 2017-01-11 ソニー株式会社 画像符号化装置と画像復号装置およびその方法とプログラム
EP2547062B1 (en) * 2011-07-14 2016-03-16 Nxp B.V. Media streaming with adaptation
US9591318B2 (en) * 2011-09-16 2017-03-07 Microsoft Technology Licensing, Llc Multi-layer encoding and decoding
US11089343B2 (en) 2012-01-11 2021-08-10 Microsoft Technology Licensing, Llc Capability advertisement, configuration and control for video coding and decoding
JP5891975B2 (ja) 2012-07-02 2016-03-23 富士通株式会社 動画像符号化装置、動画像復号装置、動画像符号化方法および動画像復号方法
ITMI20131710A1 (it) * 2013-10-15 2015-04-16 Sky Italia S R L "sistema di cloud encoding"
EP3185564A1 (en) * 2015-12-22 2017-06-28 Harmonic Inc. Video stream splicing of groups of pictures (gop)
CN105657547B (zh) * 2015-12-31 2019-05-10 北京奇艺世纪科技有限公司 一种相似视频和盗版视频的检测方法及装置
US11936712B1 (en) * 2023-04-06 2024-03-19 Synamedia Limited Packet-accurate targeted content substitution

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06253331A (ja) * 1993-03-01 1994-09-09 Toshiba Corp 可変長符号化信号に対応した編集装置
JPH0837640A (ja) * 1994-07-22 1996-02-06 Victor Co Of Japan Ltd 画像データ編集装置
JPH08149408A (ja) * 1994-11-17 1996-06-07 Matsushita Electric Ind Co Ltd ディジタル動画編集方法及び装置
JPH10112840A (ja) * 1996-10-07 1998-04-28 Sony Corp 編集装置

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5614952A (en) * 1994-10-11 1997-03-25 Hitachi America, Ltd. Digital video decoder for decoding digital high definition and/or digital standard definition television signals
DE69422960T2 (de) * 1993-12-01 2000-06-15 Matsushita Electric Industrial Co., Ltd. Verfahren und Vorrichtung zum Editieren oder zur Mischung von komprimierten Bildern
JPH07212766A (ja) 1994-01-18 1995-08-11 Matsushita Electric Ind Co Ltd 動画像圧縮データ切り換え装置
GB9424437D0 (en) * 1994-12-02 1995-01-18 Philips Electronics Uk Ltd Encoder system level buffer management
US5612900A (en) * 1995-05-08 1997-03-18 Kabushiki Kaisha Toshiba Video encoding method and system which encodes using a rate-quantizer model
GB2307613B (en) 1995-08-31 2000-03-22 British Broadcasting Corp Switching bit-rate reduced signals
JP3493872B2 (ja) * 1996-02-29 2004-02-03 ソニー株式会社 画像データ処理方法およびその装置
US6137834A (en) * 1996-05-29 2000-10-24 Sarnoff Corporation Method and apparatus for splicing compressed information streams
CA2208950A1 (en) * 1996-07-03 1998-01-03 Xuemin Chen Rate control for stereoscopic digital video encoding
US5982436A (en) * 1997-03-28 1999-11-09 Philips Electronics North America Corp. Method for seamless splicing in a video encoder
US6151443A (en) * 1997-05-16 2000-11-21 Indigita Corporation Digital video and data recorder
US6101195A (en) * 1997-05-28 2000-08-08 Sarnoff Corporation Timing correction method and apparatus
US6298088B1 (en) * 1997-05-28 2001-10-02 Sarnoff Corporation Method and apparatus for splicing compressed information signals
GB2327548B (en) * 1997-07-18 2002-05-01 British Broadcasting Corp Switching compressed video bitstreams
EP1445773A1 (en) * 1997-07-25 2004-08-11 Sony Corporation Encoding device and encoding method
US6611624B1 (en) * 1998-03-13 2003-08-26 Cisco Systems, Inc. System and method for frame accurate splicing of compressed bitstreams
GB9908809D0 (en) * 1999-04-16 1999-06-09 Sony Uk Ltd Signal processor
GB2353655B (en) * 1999-08-26 2003-07-23 Sony Uk Ltd Signal processor
GB2353653B (en) * 1999-08-26 2003-12-31 Sony Uk Ltd Signal processor

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06253331A (ja) * 1993-03-01 1994-09-09 Toshiba Corp 可変長符号化信号に対応した編集装置
JPH0837640A (ja) * 1994-07-22 1996-02-06 Victor Co Of Japan Ltd 画像データ編集装置
JPH08149408A (ja) * 1994-11-17 1996-06-07 Matsushita Electric Ind Co Ltd ディジタル動画編集方法及び装置
JPH10112840A (ja) * 1996-10-07 1998-04-28 Sony Corp 編集装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP0923243A4 *

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000062551A1 (en) * 1999-04-14 2000-10-19 Sarnoff Corporation Frame-accurate seamless splicing of information streams
JP2000354249A (ja) * 1999-04-16 2000-12-19 Sony United Kingdom Ltd ビデオ信号処理装置、ビデオ信号処理方法及びコンピュータプログラム製品
JP2001008210A (ja) * 1999-04-16 2001-01-12 Sony United Kingdom Ltd ビデオ信号処理装置、コンピュータプログラム製品及びビデオ信号処理方法
JP4689001B2 (ja) * 1999-04-16 2011-05-25 ソニー ヨーロッパ リミテッド ビデオ信号処理装置、コンピュータプログラム及びビデオ信号処理方法
EP1045589A3 (en) * 1999-04-16 2004-03-03 Sony United Kingdom Limited Apparatus and method for splicing of encoded video bitstreams
US6760377B1 (en) 1999-04-16 2004-07-06 Sony United Kingdom Limited Signal processing
EP1058262A2 (en) * 1999-06-01 2000-12-06 Sony Corporation Encoding and multiplexing of video streams
EP1058262A3 (en) * 1999-06-01 2004-04-21 Sony Corporation Encoding and multiplexing of video streams
US7254175B2 (en) 1999-07-02 2007-08-07 Crystalmedia Technology, Inc. Frame-accurate seamless splicing of information streams
JP2001119305A (ja) * 1999-08-26 2001-04-27 Sony United Kingdom Ltd 信号処理装置
JP2001204035A (ja) * 1999-11-30 2001-07-27 Thomson Licensing Sa デジタル・ビデオ復号システム、複数のビデオ・プログラムを順次表示する方法およびユーザーによって選択される次のチャネルを予測する方法
JP2012157046A (ja) * 1999-11-30 2012-08-16 Thomson Licensing デジタル・ビデオ復号システム、複数のビデオ・プログラムを順次表示する方法およびユーザーによって選択される次のチャネルを予測する方法
JP2002281433A (ja) * 2001-03-15 2002-09-27 Kddi Corp 動画像検索閲覧編集装置および記録媒体
WO2006022221A1 (ja) * 2004-08-25 2006-03-02 Sony Corporation 情報処理装置および情報処理方法、記録媒体、並びに、プログラム
JPWO2006022221A1 (ja) * 2004-08-25 2008-05-08 ソニー株式会社 情報処理装置および情報処理方法、記録媒体、並びに、プログラム
JP4743119B2 (ja) * 2004-08-25 2011-08-10 ソニー株式会社 情報処理装置および情報処理方法、記録媒体、並びに、プログラム
US8295347B2 (en) 2004-08-25 2012-10-23 Sony Corporation Information processing apparatus and information processing method, recording medium, and program
KR101194967B1 (ko) * 2004-08-25 2012-10-25 소니 주식회사 정보 처리 장치 및 정보 처리 방법, 및 기록 매체
JP2007059996A (ja) * 2005-08-22 2007-03-08 Sony Corp 情報処理装置および情報処理方法、記録媒体、並びに、プログラム
JP4492484B2 (ja) * 2005-08-22 2010-06-30 ソニー株式会社 情報処理装置および情報処理方法、記録媒体、並びに、プログラム
US8311104B2 (en) 2005-08-22 2012-11-13 Sony Corporation Information processing apparatus and method, recording medium, and program
KR101450864B1 (ko) * 2005-08-22 2014-10-15 소니 주식회사 정보 처리 장치, 정보 처리 방법 및 기록 매체
US8817887B2 (en) 2006-09-05 2014-08-26 Sony Corporation Apparatus and method for splicing encoded streams

Also Published As

Publication number Publication date
DE69841897D1 (de) 2010-10-28
EP0923243A1 (en) 1999-06-16
US20070058729A1 (en) 2007-03-15
JP2005253116A (ja) 2005-09-15
US8798143B2 (en) 2014-08-05
KR100604631B1 (ko) 2006-07-28
US7139316B2 (en) 2006-11-21
US20070047662A1 (en) 2007-03-01
KR20000068626A (ko) 2000-11-25
JP4045553B2 (ja) 2008-02-13
US20030067989A1 (en) 2003-04-10
US7711051B2 (en) 2010-05-04
JP4088800B2 (ja) 2008-05-21
EP0923243A4 (en) 2002-12-04
US20070165715A1 (en) 2007-07-19
CN1161989C (zh) 2004-08-11
JP2005328548A (ja) 2005-11-24
EP1467563A1 (en) 2004-10-13
CN1236522A (zh) 1999-11-24
KR100555164B1 (ko) 2006-03-03
JP3736808B2 (ja) 2006-01-18
US8223847B2 (en) 2012-07-17
KR20050103248A (ko) 2005-10-27
JP4088799B2 (ja) 2008-05-21
US8923409B2 (en) 2014-12-30
US6567471B1 (en) 2003-05-20
JP2005295587A (ja) 2005-10-20
EP1445773A1 (en) 2004-08-11
JP2005323386A (ja) 2005-11-17
EP0923243B1 (en) 2010-09-15
US20070047661A1 (en) 2007-03-01

Similar Documents

Publication Publication Date Title
JP3736808B2 (ja) 編集装置、編集方法、再符号化装置及び再符号化方法
US6611624B1 (en) System and method for frame accurate splicing of compressed bitstreams
US8260122B2 (en) MPEG picture data recording apparatus, MPEG picture data recording method, MPEG picture data recording medium, MPEG picture data generating apparatus, MPEG picture data reproducing apparatus, and MPEG picture data reproducing method
KR20060045719A (ko) 고충실도 트랜스코딩
JPH11511605A (ja) ビットレートを低減された信号間のスイッチング方法
US20030002583A1 (en) Transcoding of video data streams
JP2000059790A (ja) 動画像符号列変換装置及びその方法
US6483945B1 (en) Moving picture encoding method and apparatus
WO2004102972A1 (ja) 画像処理装置および画像処理方法、情報処理装置および情報処理方法、情報記録装置および情報記録方法、情報再生装置および情報再生方法、記録媒体、並びに、プログラム
WO1999036912A1 (fr) Systeme d'edition, dispositif de commande d'edition et procede de commande d'edition
US6683911B1 (en) Stream editing apparatus and stream editing method
JP4342139B2 (ja) 信号処理装置
JPH08251582A (ja) 符号化データ編集装置
WO2004112397A1 (ja) 画像処理装置および画像処理方法、情報処理装置および情報処理方法、情報記録装置および情報記録方法、情報再生装置および情報再生方法、記録媒体、並びに、プログラム
JP4193224B2 (ja) 動画像符号化装置及び方法並びに動画像復号装置及び方法
JP2005278207A (ja) 編集装置および方法、再符号化装置および方法
JP2002218470A (ja) 画像符号化データのレート変換方法、及び画像符号化レート変換装置
JP2009049826A (ja) 符号化装置、符号化方法、符号化方法のプログラム及び符号化方法のプログラムを記録した記録媒体

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 98801159.X

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): CN JP KR MX US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE

WWE Wipo information: entry into national phase

Ref document number: 1019997002513

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 09275999

Country of ref document: US

Ref document number: PA/a/1999/002866

Country of ref document: MX

WWE Wipo information: entry into national phase

Ref document number: 1998933940

Country of ref document: EP

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWP Wipo information: published in national office

Ref document number: 1998933940

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1019997002513

Country of ref document: KR

WWG Wipo information: grant in national office

Ref document number: 1019997002513

Country of ref document: KR