WO2001063938A1 - Video encoding apparatus and video encoding method - Google Patents

Video encoding apparatus and video encoding method Download PDF

Info

Publication number
WO2001063938A1
WO2001063938A1 PCT/JP2001/001514 JP0101514W WO0163938A1 WO 2001063938 A1 WO2001063938 A1 WO 2001063938A1 JP 0101514 W JP0101514 W JP 0101514W WO 0163938 A1 WO0163938 A1 WO 0163938A1
Authority
WO
WIPO (PCT)
Prior art keywords
block information
code amount
video encoding
variable
counting
Prior art date
Application number
PCT/JP2001/001514
Other languages
English (en)
French (fr)
Inventor
Yuji Kawashima
Atsushi Asano
Original Assignee
Kabushiki Kaisha Toshiba
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kabushiki Kaisha Toshiba filed Critical Kabushiki Kaisha Toshiba
Priority to EP20010908152 priority Critical patent/EP1185108B1/en
Priority to DE2001604616 priority patent/DE60104616T2/de
Priority to US09/959,458 priority patent/US6819712B2/en
Publication of WO2001063938A1 publication Critical patent/WO2001063938A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44004Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving video buffer management, e.g. video decoder buffer or video display buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23406Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving management of server-side video buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234354Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by altering signal-to-noise ratio parameters, e.g. requantization
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23611Insertion of stuffing data into a multiplex stream, e.g. to obtain a constant bitrate

Definitions

  • the present invention relates to a video encoding device and a video encoding method.
  • the present invention relates to a video encoding device that encodes a signal of a digital moving image, and in particular, performs signal processing when a video signal such as a digital moving image is signal-processed by a predetermined encoding method.
  • the present invention relates to a video encoding device that inserts a predetermined stuffing bit into a bitstream.
  • a video coding apparatus for coding a video signal that is, a video signal
  • the video signal is coded by a predetermined method and is divided into units having a predetermined coding amount. It is said that a stream must be output. That is, in order to prevent overflow or underflow from occurring in the buffer in the decoding device on the receiving side that receives the bit stream, the code on the output side of the bit stream is used. It is required that the code amount of the bit stream be controlled in the coding device.
  • control of a quantization parameter and control of an encoding frame are performed, and the code amount is controlled to a predetermined code amount by these controls. Has been adjusted.
  • MPEG-4 has been proposed as a video signal encoding method and is being put to practical use.
  • stuffing is inserted in macroblock (MB) units.
  • the stuff inserted in this macro block MB unit is called MB stuffing.
  • MB stuffing it is a macro block.
  • the coding method of the MB is specified, and the coding method is defined as MB type. In the MB type, any number of stacks are repeated until an MB (Intra) or an MB type indicating presence or absence of an inter (Inter) or a differential quantization scale (DQ uant) appears.
  • the wing bit can be inserted.
  • one unit of the stuffing bit to be inserted is defined as a 9-bit code string.
  • stuffing is a method for preventing buffer underflow in a decoding device, and is usually performed for each macroblock MB (MB) in a bitstream. Insufficient code amount is calculated, and MB stuffing corresponding to the code amount is performed. That is, when the video signal is signal-processed by a predetermined method, the signal-processed signal is subjected to variable-length coding, and the generated code amount of the variable-length-coded signal does not reach the predetermined code amount. , And stuffing is performed. In this stuffing, for the code amount to be inserted, the lacking code amount is obtained, and stuffing corresponding to the code amount is performed.
  • the macroblock MB (MB) stuffing can be inserted into the bitstream by using a variable-length coded macroblock MB.
  • a method of inserting stuffing every time can be considered. For this reason, it is necessary to add a device for inserting stuffing at a stage before the transmission buffer for transmitting the bitstream.
  • This additional device may be, for example, a buffer for temporarily storing a bit stream having no MB stuffing, or an MB stuffing during a bit stream. It is expected that the device will show the insertion point so that it can be inserted.
  • Insertion of MB stuffing in the bitstream requires memory as a buffer, and the power consumption of this device is increased. Further, since an additional device is required, a circuit becomes large, power consumption increases, and there is a problem that a delay may occur in signal processing.
  • Another object of the present invention is to perform variable-length encoding processing after stuffing is inserted into data to be encoded.
  • An object of the present invention is to provide a video encoding device and a video encoding method capable of outputting a predetermined bitstream without increasing the number of circuits and without causing a delay.
  • a signal processing means for orthogonally transforming a certain unit of video signal for each block constituting the video signal, quantizing the block, and generating block information
  • Coding means for performing variable length coding on the block information of the integrated information for each block information
  • Estimating calculation means for estimating a generated code amount after variable-length coding from the integrated block information and calculating a stuffing bit to be inserted for each block; Means for inserting the calculated stuffing bit into a predetermined portion of the integrated information, and converting the block information with the stuffing bit added to the coding means into a variable length code.
  • a video encoding device for encoding is provided.
  • the estimation calculation means calculates
  • a first counting means for counting the quantized DCT coefficients included in the uncoded block information output from the signal processing means
  • Average codeword length calculation means for calculating an average codeword length of block information when the block information is encoded based on outputs from the first and second count means;
  • Estimating means for estimating the amount of code generated when certain block information input from the signal processing means to the integrating means is encoded
  • a video encoding device further comprising:
  • the estimating means includes:
  • a video encoding device for estimating a generated code amount based on an estimation formula of (average codeword length) X (total number of quantized DCT coefficients).
  • the average codeword length calculating means includes:
  • a video coding device that calculates an average codeword length based on (cumulative generated code amount) / (cumulative number of quantized DCT coefficients).
  • the estimation calculation means calculates
  • a video encoding device further comprising a unit is provided. Further, according to the present invention,
  • a video encoding method comprising:
  • An encoding method is provided.
  • FIG. 1 is a block diagram showing a configuration of a video encoding device according to one embodiment of the present invention.
  • FIG. 2 is a block diagram showing the configuration of the signal processing unit 10 shown in FIG. FIG.
  • FIG. 3 is a functional block diagram showing processing in the generated code amount estimating unit shown in FIG.
  • FIG. 4 shows the target bit rate T br, the target frame rate T fr, and the signal-processed MAC processed by the signal processing unit 10 in the stuffing amount calculation unit 17 shown in FIG.
  • This is a flowchart showing the process of calculating a target generated code amount T code (X) from the number of MBs (MB) Nmb (x).
  • FIG. 5 shows the variable length coded MAC counted by the generated code amount counting unit 14 shown in FIG. 1 in the stuffing amount calculating unit 17 shown in FIG.
  • 5 is a flowchart showing a process of obtaining a stuffing amount S (X) from a code amount E (X).
  • Figure 6 shows the process of encoding the macroblock MB information when the stuffing is inserted and converting it to the bitstream output from the device shown in Fig. 1 and the macroblock.
  • An explanatory diagram showing the structure of a bitstream including MB data is shown.
  • FIG. 7 shows the process of encoding the macroblock MB information when no stuffing is inserted and converting it to the bit stream output from the device shown in Fig. 1, and
  • FIG. 3 is an explanatory diagram showing a structure of a bit stream including data of a block block MB.
  • 8A and 8B are a plan view illustrating a coding order of a video object plane and a plan view illustrating a relationship between a coded macroblock MB and a coded macroblock MB.
  • FIG. 9 is a flowchart showing a process of obtaining a stuffing amount according to a modified embodiment of the present invention.
  • a generated code amount counting unit 14 is used.
  • the amount of code T code (x) and the amount of stuffing S ((S) to be inserted into the video packet from the estimated amount of code E (X) of the coded video packet calculated by the same processing as the processing shown in FIG. X) is a flow chart showing a process of obtaining X, and FIGS.
  • FIG. 10A, 10B, 10 ⁇ and 100 show data output from the system shown in FIG. 1 according to a modified embodiment of the present invention.
  • FIG. 7 is an explanatory diagram showing a data structure when a packet is inserted.
  • FIG. 1 shows a block diagram of a video encoding device that performs variable-length encoding of a video signal, that is, a video signal, according to an embodiment of the present invention.
  • the device shown in FIG. 1 includes a device control unit 20 for controlling each unit in the device and a video object display.
  • a unit of video VOP
  • a digitized video signal input in units of frames or fields is converted to a predetermined video signal compression format (MPE G-4 format or ITU- Signal processing for dividing into predetermined blocks, that is, macroblock MBs in accordance with the H.263 system of T Recommendation or a modified version of them, and signal processing and compression of the macroblock MBs It has a part 10.
  • MPE G-4 format or ITU- Signal processing for dividing into predetermined blocks, that is, macroblock MBs in accordance with the H.263 system of T Recommendation or a modified version of them, and signal processing and compression of the macroblock MBs It has
  • the signal processing section 10 includes a quantized DCT coefficient (Discrete Cosine Transform) section 24 and a quantization section 25.
  • the digitized video signal input under the control of the control device 20 is subjected to orthogonal transform by the DCT unit 24 for each macro block MB, which is the minimum unit of a frame or a field. That is, the DCT coefficient obtained by the DCT operation is quantized independently for each of the DC (direct current) component and the AC (alternating current) component in the quantization unit 25, and the quantized DCT coefficient is expressed by It is output to the syntax generation unit 12 shown in FIG. 1 as a quantized DCT coefficient).
  • DCT coefficient Discrete Cosine Transform
  • the signal processing unit 10 shown in FIG. 2 further includes an inverse quantization unit 26 that inversely quantizes the quantized bit stream, and an inverse DCT that performs an inverse DCT transform on the inversely quantized DCT coefficients.
  • the DCT coefficient is subjected to the inverse DCT transform to reproduce a decoded image as indicated by reference numeral 28, and the decoded image is input to the next frame or frame.
  • the motion vector and the predicted reference image are output from the MC unit 29 based on a comparison between the two blocks in the unit of the block MB.
  • the motion vector is output to the syntax generation unit 12 shown in FIG. 1 in the same manner as the texture (quantized DCT coefficient).
  • the predicted reference image is compared with the next frame image before the DCT transform, and the difference is subjected to the DCT transform in the DCT section 24, the DCT coefficient is quantized, and the macroblock MB is decoded. Is output to the syntax generator 12.
  • macro block MB (MB) information including the input texture (quantized DCT coefficient) and motion vector, and a sta- phing described later.
  • the syntax according to the encoding mode based on the MPEG-4 standard is generated from the quantity, and this syntax is input to the variable length encoding unit 13.
  • the control of this encoding mode is set by the device control unit 20.
  • the syntax from the syntax generation unit 12 is sequentially coded with a variable length by the variable length coding processing unit 13, and the bit stream is variably coded. Is supplied to the transmission buffer 22 and transmitted according to the target bit rate set by the device control unit 10.
  • the video encoding apparatus shown in FIG. 1 further includes a quantized DCT (distributed cosine transform) coefficient counting section 21, a variable-length encoding processing section 13, a generated code amount counting section 14, an average A code word length calculator 15, a generated code amount estimator 16, and a stuffing amount calculator 17 are provided.
  • the device control unit 20 controls these units. It also controls the video signal input to the device, and controls the bitstream that the device should output.
  • the control of the bit stream is the setting of a target generated code amount (target bit rate) or the number of frames (target frame rate), rate control, or error resilience. Includes setting of encoding mode, etc.
  • variable-length coding unit 13 The output of the variable-length coding unit 13 is supplied to a generated code amount counting unit 16, and the generated code amount counting unit 16 counts the code amount and calculates the count value. Is supplied to the stuffing amount calculating section 17 and the average codeword length calculating section 15.
  • the quantized DCT coefficient counting section 21 counts the quantized DCT coefficients included in the MB information generated by the signal processing section 10, and the count value is used as the average codeword length calculation section. 15 and the generated code amount estimation unit 16.
  • the average codeword length calculator 15 is counted by the quantized DCT coefficient count unit 21 by the cumulative number of quantized DCT coefficients counted by the quantized DCT coefficient unit 21 and by the generated code amount count unit 14.
  • the average codeword length L of the quantized DCT coefficient is calculated from the accumulated number of code amounts, and the average codeword length L is given to the code amount estimation unit 16. If the accumulated code amount is C sura and the accumulated number of quantized DCT coefficients is N sum, the average codeword length L is C sum / N sum.
  • the cumulative number is the total number of generated code amounts or quantized DCT coefficients from the input start force of a certain frame to the processing of the corresponding macroblock MB. It is equivalent to a number.
  • the generated code amount estimating unit 16 includes a quantized DCT coefficient N coef of a certain macroblock MB counted by the quantized DCT coefficient counting unit 21, and From the average codeword length of the quantized DCT coefficient calculated by the average codeword length calculation unit 16, it is expected that the macroblock MB will be generated by the variable length coding processing unit 13. The estimated value of the code amount to be calculated is calculated.
  • the variable-length coding processing unit 13 calculates the estimated value before the syntax output from the syntax generation unit is subjected to the variable-length coding.
  • X indicates the video object plane (VOP: Video Object Plane), that is, the frame or the number of the macroblock MB in the field. Assume a positive integer.
  • the stuffing amount calculation unit 17 includes a target generated code amount (target bit rate) T br set by the device control unit 10 and a frame number (target frame rate).
  • G) T fr, the target generated code amount T code) is calculated from the number of signal-processed macro blocks MB (MB) Nmb (x) in one frame obtained by the signal processing unit 11. I have.
  • the predetermined total number of macroblocks MB (MB) per 1 V OP is Nvop
  • the target generated code amount T code (x) is
  • T code (x) (T br / ⁇ fr) X ( ⁇ mb ( ⁇ ) / ⁇ ⁇ )
  • (T br / T fr) is the target bit rate per frame, that is, the target code amount in one video object plane.
  • (Nmb (x) / N vop) is the ratio of the number of signaled macro block MBs to the total number of macro block MBs within one video object plane.
  • the target generated code amount T code (x) is one video object after the Xth macroblock MB to be subjected to signal processing is encoded. It is defined as the target code amount to be generated cumulatively in the plane.
  • coding MB (Hereinafter referred to as coding MB) target code amount Tmb ( X )
  • Tmb (X) Tcode (x) — C (i)
  • the estimated shortage code amount S (X) is obtained as follows. Is calculated.
  • This S (x) becomes the amount of stuffing, and this value is given to the syntax generator 2.
  • the amount of this stuffing is determined as an integral multiple of 9 bits as one unit.
  • FIG. 1 The operation of the video encoding device shown in FIG. 1 will be described with reference to FIGS. 3 to 8B.
  • image signals in the video object plane are sequentially input to the signal processing unit 10 as shown by arrows.
  • the video signal is processed by the signal processing unit 10 in a macroblock MB unit as shown in FIGS.
  • Macroblock MB information including (quantized DCT coefficients) and motion vectors is generated.
  • the DCT coefficient of the texture (quantized DCT coefficient) is counted by the DCT coefficient counting unit 21 to calculate the code amount.
  • the cumulative value of the code amount counted by the DCT coefficient counting section 21 is given to the average codeword length calculating section 15 as the cumulative number N sum of the quantized DCT coefficients.
  • a syntax is generated by a syntax generation unit 12 based on the macroblock MB information, and this syntax is variable-length encoded by a variable-length encoding unit '13. Is done. The code amount of this coded bit stream is counted by the generated code amount counting section 14, and the accumulated value of the generated code amount is the same as the accumulated generated code amount C sum. Is given to the average codeword length calculation unit 15.
  • This cumulative generated code amount C sum is the generated code generated after variable-length coding of the macroblock MB in the hatched area in the video object plane shown in FIG. 8B. It corresponds to the total number of issues.
  • the estimated generated code amount E ( X ) is provided to a stuffing amount calculation unit 17.
  • This stuffing amount calculation unit 17 has a target bit rate T br as shown in steps S41 and S42 of FIG.
  • Nvop is given to the total number of macroblocks MB (MB) per one object plane VOP in parallel with the target frame rate Tfr, and is shown in step S44 in FIG.
  • the number N mb (X) of signal-processed macroblocks MB (MB) in one object plane V ⁇ from the signal processing unit 10 is given.
  • the target code amount (T br / T fr) in one video object plane is obtained as shown in step S43
  • the target code amount in one video object plane is obtained as shown in step S45.
  • the signal-processed macroblock MB (MB) rate (Nmb (X) ZN vop) at is obtained.
  • the target generated code amount T code (x) of B is obtained.
  • T code (x) (TbrZTfr) X (Nmb (x) / N vop)
  • the target generated code amount T code (x) is obtained by coding the x-th macroblock MB by the variable-length coding processing unit 13. In this case, it corresponds to the target total code amount in the encoding video object plane VOP generated up to the X-th macroblock MB.
  • T code (x) When this target generated code amount T code (x) is determined as shown in step 51 of FIG. 5, the variable-length coded macrob port supplied from the generated code amount count unit 14 is provided.
  • the generated code amount of the X-th macroblock MB (MB) currently being encoded is compared with the generated code amount C) of the block MB and corresponds to the difference as shown in Fig. 8B.
  • T mb (X) is required.
  • the step is calculated from the average code length L and the total number of quantized DCT coefficients N coef of the coding macroblock MB, which are calculated as shown in steps S54 and S56.
  • the estimated code amount E (X) of the encoded macroblock MB is calculated.
  • the generated code amount T mb (x) is compared with the estimated code amount E (X), and when the estimated generated code amount is smaller than the target generated code amount, Then, as shown in step S58, the difference is set as the amount S (X) to be stuffed.
  • the staffing is inserted as a macro block MB type (MB type) for each macro block MB information as shown in Fig. 6.
  • the macroblock MB information is subjected to variable-length coding. And is output to the transmission buffer.
  • the process proceeds as shown in FIG.
  • the macro block MB information is variable-length coded without inserting any toughening.
  • Fig. 6 shows the structure of macroblock MB data with stuffing inserted in the macroblock MB
  • Fig. 7 shows the stuffing of macroblock MB with stuffing inserted.
  • This shows the structure of the macro data.
  • the macroblock MB data a plurality of variable-length-coded macroblock MB information are consecutively arranged, and as shown in Fig. 6, stuffing and motion vectors ( MV) and texture (quantized DCT coefficient) in the order of macroblock MB information.
  • MV motion vector
  • texture quantized DCT coefficient
  • the quantized DCT coefficient count section 21 and the generated code amount count section 14 are cleared. Then, the processing described above for the next video object plane is started again.
  • the method of inserting the stuffing at any time in units of macroblock MB has been described. Touching It is not necessary to decide whether or not to perform the stuffing and to insert the stuffing into the MAC block MB every time the stuffing is needed. For example, the total number of coded signals is measured up to a certain point, and only the last row of the video object plane (VOP) or the last macroblock MB is stuffed by the above-described method. May be inserted.
  • VOP video object plane
  • the method of performing the stuffing on a macroblock MB (MB) basis has been described, but the video bucket (VP: Video Packet) unit defined by MPEG-4 is used. May be staffed.
  • the video bucket VP contains at least one adjacent MB to be coded together.
  • the amount of generated code is also estimated in video packet VP units. Estimating the amount of generated codes in video packet VP units reduces the estimation accuracy slightly, but reduces the number of estimations and reduces the overall processing amount, which is effective for real-time processing.
  • the coding of a data partitioning mode (Data Partitioning Mode) described below is particularly effective because a variable length coding process is performed for each video packet VP.
  • the MB number X set above is set as the VP number X
  • the target generated code amount T mb) of the encoded MB is set as the target generated code amount T vp) of the encoded VP.
  • the calculations for the estimation are all the same.
  • the generated code amount estimating unit 16 calculates the number N coef (j) obtained in the quantized DCT coefficient counting unit 21 shown in step S96 in FIG. 9 (in the video packet VP).
  • an estimated value E (X) of the code amount generated by the variable-length coding processing unit 13 is calculated before the variable-length coding processing as shown in step S95 of FIG. Is done.
  • the estimated code amount E (j) of the VP of the video bucket VP number j is
  • j is a positive integer indicating the number of the video VP in the video object plane (VOP: Video Object Plane).
  • X (j) is a positive integer indicating the number of the last macroblock MB included in the video packet VP of number j.
  • the stuffing amount calculation unit 17 includes a target bit rate T br set by the device control unit 20, a target frame rate T fr, and a signal processed by the signal processing unit 10.
  • the target generated code amount T code (x (j)) is calculated from the number of MBs N mb (X (j)) as shown in step S91 of FIG.
  • the target generated code amount ⁇ code (x (j)) is
  • T code (x (j)) (T br / T fr) X (N mb (x (j)) / N vop)
  • T vp (j) T code (x (j)) - ⁇ C (i)
  • the prediction that is, the estimated insufficient code amount S (j) is calculated as follows.
  • step S97 when the estimated amount of generated code is larger than the target amount of generated code, as shown in step S97,
  • the size of the video bucket VP may exceed the upper limit.
  • a video bucket The size VP target ( ⁇ VP max) of the target video bucket VP is set by the device control unit 20 based on the upper limit value VP max of the size of the target VP.
  • the size of the target video packet VP is smaller than the upper limit VPmax of the size of the video bucket VP as shown in step S99, and also depends on the estimation accuracy of the generated code amount. Is set to a numerical value considering the estimation error, for example, half of the upper limit.
  • the amount of stuffing when encoding is performed in video packet VP units is based on the insufficient code amount S (j) and the estimated generated code amount.
  • the sum of E (j) ensures that the target VP size does not exceed the VP target. That is, the target generated code amount T vp (j) of the encoded VP is compared with the target VP size VP target, and a value obtained by subtracting the estimated generated code amount E (j) of the encoded VP from a small value is obtained.
  • the amount of buffering is S (j). This stuffing amount S (j) is provided to the syntax generation unit 21.
  • the amount of staffing S (j) is the difference between the target VP size and the VP target. Determined by the difference.
  • the amount of stuffing S ( j) is defined as the difference between the target VP size and the estimated amount of generated code E (j). If the target VP size exceeds the VP target and the estimated amount of generated code E (j) is smaller than the VP target, the stuffing amount S (j) becomes zero. No towing will be given.
  • the above-described method of determining the amount of stuffing can be similarly applied to the encoding method in the data partitioning mode.
  • FIGS. 10A to 10D show a bit stream in the data notation (Data Partitioning) mode.
  • Data node 0— encoding in the partitioning mode is a macroblock MB (MB) of one or more macroblocks MB as shown in Figure 10D.
  • Information motion vectors and textures (quantized DCT coefficients)
  • variable-length coding is performed as shown in Fig. 10C.
  • the above 1 and 2 are divided by inserting a motion marker as shown in Fig. 10B.
  • the stat-fing bit is inserted into a macroblock MB (MB) type position.
  • the video packets VP are separated from each other by Resync Markers as shown in FIG. 10A and are recorded.
  • Such data notation jungle Data
  • the above-described method is applied to the structure of the bit stream in the partitioning mode, and the code amount of the MB stuffing shown in FIG. 10B is determined.
  • the header of the socket describes a resynchronization marker, a macroblock MB number, a quantization scale, and a HEC (Header Extension Code). This is followed by macro-block MB data.
  • the amount of stuffing is estimated before the variable-length coding process, and the variable-length coding process is performed after the stuffing is performed.
  • the variable-length coding process is performed after the stuffing is performed.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

明 細 書
映像符号化装置及び映像符号化方法 技術分野
こ の発明は、 ディ ジタル動画像の信号を符号化する映像符 号化装置に係り 、 特に、 ディ ジタル動画像等の映像信号を所 定の符号化方式で信号処理する際に信号処理されたビッ トス ト リ ームに所定のスタ ッフイ ングビッ トを挿入する映像符号 化装置に関する。 背景技術
一般に、 ビデオ信号、 即ち、 映像信号を符号化する映像符 号化装置では、 映像信号を所定の方式で符号化して所定の符 号量を有する単位に区分され、 こ の単位を有する ビ ッ ト ス ト リ ームを出力 しなければな らないと されている。 即ち、 ビッ ト ス ト リ ームを受ける受信側の複号化装置におけるバッ ファ において、 オーバーフロー、 或いは、 アンダーフ ローが生じ ないよ う にするために、 ビッ トス ト リ ームの出力側の符号化 装置においては、 そのビッ ト ス ト リ ーム の符号量が制御され る こ とが要求されている。 こ のオーバー フ ロ ーを防ぐ一般的 な方法と しては、 量子化パラメ ータの制御及び符号化フ レー ム の制御等があ り 、 これらの制御によって符号量が所定の符 号量に調整されている。 また、 アンダーフ ローを防ぐ方法と しては、 ス タ ッ フイ ングを挿入する方法がある。 こ の方法で は、 受信側における復号処理で捨て去られる冗長ビッ トがス タ ツ フィ ングと してビッ ト ス ト リ ームの所定の箇所に揷入さ れる。 尚、 スタ ッ フイ ング自体は、 揷入を意味し、 スタ ッフ イ ングの挿入は、 正確にはス タ ッ フイ ングビッ ト の揷入を意 味している。 (単に省略してス タ ッ フイ ングの挿入と表現さ れるこ と もある。 )
映像信号符号化方式と して近年 M P E G - 4 が提案され、 実 用化されつつある。 この M P E G- 4 の規格においては、 一例 と してマク ロブロ ック M B (Macro-block) 単位でスタ ッ フィ ングが挿入される。 (こ のマク ロブ口 ッ ク M B単位で挿入さ れたス タ ッ フ ィ ン グは、 M B ス タ ッ フ ィ ン グ と 称せ られ る。 ) M B スタ ッ フイ ングであれば、 マク ロ ブロ ッ ク M Bの 符号化方法が特定され、 その符号化方法は、 M B タイ プと し て定義される。 M B タイ プでは、 イ ン ト ラ ( I n t r a ) 、 或いは、 イ ンター ( I n t e r ) 、 差分量子化スケール ( D Q u a n t ) の有無を表す M B タイ プが現れるまで何個でも 繰 り 返しス タ ッ フイ ングビッ ト を揷入する こ と ができ る。 尚、 揷入するス タ ッ フ イ ングビッ ト の 1 単位は、 9 ビッ ト の符号 列に定められている。
前述したよ う に、 ス タ ッ フイ ングは、 復号化装置における バッフ ァアンダーフローを防ぐための方法であ り 、 通常、 ビ ッ トス ト リ ーム中でマク ロプロ ッ ク M B (M B ) 毎に不足し ている符号量が求め られ、 その符号量に相当する M B ス タ ッ フイ ングが実施される。 即ち、 映像信号が所定の方式で信号 処理され、 この信号処理された信号が可変長符号化処理され、 可変長符号化処理された信号の発生符号量が所定の符号量に 達していない場合において、 ス タ ッフィ ングが実行される。 このス タ ッ フ イ ングにおいて、 挿入すべき符号量は、 その不 足している符号量が求め られ、 その符号量に対応するスタ ツ フイ ングがなされる。
M B情報が可変長符号化された後、 ビッ トス ト リ ームにマ ク ロブロ ック M B ( M B ) スタ ッフイ ングを揷入するには、 可変長符号化処理されたマク ロブ口 ック M B毎にスタ ッフィ ングを挿入する方法が考えられる。 このため、 ビッ トス ト リ ームを送信する送信バッファの前段にスタ ッフィ ングを揷入 するための装置を追加するこ とが必要と される。 この追加す る装置と しては、 例えば、 M Bスタ ッフイ ングを有しないビ ッ トス ト リ ームを一時的に格納するノ ッファ、 或いは、 ビッ トス ト リ ーム中に M Bスタ ッフイ ングを挿入可能なよ う にそ の揷入箇所を示す装置が予想される。
ビッ トス ト リ ーム中に M Bスタ ッフイ ングを挿入するには、 バッファ と してのメモ リ が必要され、 この装置の消費電力が 大き く なる問題点がある。 また、 追加する装置を必要とする こ とから、 回路が大き く な り 、 消費電力も増大し、 信号処理 に遅延が生じる虞がある問題がある。
発明の開示
この発明の 目的は、 可変長符号化処理前に符号化すべきデ ータに対してスタ ッフイ ング量を推定し、 この符号化すべき データにスタ ッフィ ングを挿入して符号化するこ とが可能な 映像符号化装置及び映像符号化方法を提供するにある。
また、 この発明の目的は、 符号化すべきデータにスタ ッ フ ィ ングが挿入 された後に可変長符号化処理がなされる こ と で、 回路を増やすこ となく 、 また、 遅延を生じさせるこ となく 、 所定のビッ トス ト リ ームを出力するこ とができる映像符号化 装置及び映像符号化方法を提供するにある。
この発明によれば、
ある単位の映像信号をこの映像信号を構成するプロ ッ ク毎 に直交変換し、 量子化してプロ ッ ク情報生成する信号処理手 段と、
こ のブロ ッ ク情報を一定の方式に従って統合して統合情報 を生成する統合手段と、
こ の統合情報のブロ ッ ク情報に対してブロ ッ ク情報毎に可 変長符号化する符号化手段と、
から構成される映像符号化装置において、
前記統合されたプロ ッ ク情報から可変長符号化後の発生符 号量を推定してブロ ク毎に揷入すべきス タ ッ フ ィ ングビッ ト を算出する推定算出手段を具備し、 前記統合手段においてこ の算出されたス タ ッ フイ ングビッ ト を統合情報の所定の箇所 に揷入させ、 前記符号化手段にこ のス タ ッ フイ ングビッ トが 付加されたプロ ッ ク情報を可変長符号化させる映像符号化装 置が提供される。
この発明によれば、 上述した発明において、
前記推定算出手段は、
前記信号処理手段から出力 される符号化前プロ ック情報に 含まれる量子化 D C T係数をカ ウン トする第 1 のカ ウン ト手 段と、
前記符号化手段から出力される符号化された符号列の発生 符号量をカ ウン トする第 2のカ ウン ト手段と、
第 1 及び第 2 のカ ウン ト手段からの出力に基づいて前記ブ ロ ッ ク情報を符号化した際のプロ ッ ク情報の平均符号語長を 算出する平均符号語長算出手段と、
前記信号処理手段から前記統合手段に入力 されるあるプロ ッ ク情報が符号化された際の発生符号量の推定する推定手段 と、
を更に具備する映像符号化装置が提供される。
また、 この発明によれば、 上述した発明において、
前記推定手段は、
(平均符号語長) X (量子化 D C T係数の総数) の推定式 を基に発生符号量を推定する映像符号化装置が提供される。
更に、 こ の発明によれば、 上述した発明において、 前記平 均符号語長算出手段は、
前記第 2 カ ウン ト手段からの可変長符号化後の累積発生符 号量及び前記第 2 カ ウン ト手段からの前記統合情報内のプロ ック情報の量子化 D C T係数の総数から
(累積発生符号量) / (量子化 D C T係数の累積数) に基づ いて平均符号語長を算出する映像符号化装置が提供される。
更にまた、 この発明によれば、 上述した発明において、
前記推定算出手段は、
前記推定された発生符号量と前記第 2 の力 ゥン ト手段で 力 ゥン ト された符号量を累積した符号化累積数を比較してス タ ッ フィ ング量を決定するスタ ッフィ ング算出部を更に具備 する映像符号化装置が提供される。 また、 更にこの発明によれば、
ある単位の映像信号をこ の映像信号を構成するブロ ック 毎に直交変換し、 量子化してプロ ッ ク情報生成する信号処理 工程と、
このブロ ッ ク情報を一定の方式に従って統合して統合情報 を生成する統合工程と、
この統合情報のブロ ッ ク情報に対してプロ ッ ク情報毎に可 変長符号化する符号化工程と、
から構成される映像符号化方法において、
前記統合されたプロ ッ ク情報から可変長符号化後の発生符 号量を推定してブロ ク毎に挿入すべきス タ ッ フィ ングビッ ト を算出する推定算出工程を具備し、 前記統合工程においてこ の算出 されたス タ ッ フイ ングビッ ト を統合情報の所定の箇所 に揷入させ、 前記符号化工程において、 このスタ ッフイ ング ビッ トが付加されたプロ ッ ク情報を可変長符号化させる映像 符号化方法が提供される。
この発明においては、 複号化装置におけるバッファアンダ 一フローを防ぐために行う スタ ッフィ ングに関して、 新たに 追加する回路および処理が極力少ないので、 消費電力も抑え られ、 リ アルタイ ム性も保つこ と ができ る。 図面の簡単な説明
図 1 は、 この発明の一実施例に係る映像符号化装置の構成 を示すブロ ック図である。
図 2 は、 図 1 に示した信号処理部 1 0の構成を示すブロ ッ ク図である。
図 3 は、 図 1 に示された発生符号量推定部における処理を 示す機能ブロ ッ ク図である。
図 4は、 図 1 に示したスタ ッフイ ング量算出部 1 7 におい て、 目標ビッ ト レー ト T br、 目標フ レームレー ト T f r及び信 号処理部 1 0 で処理された信号処理済のマク ロブ口 ック M B (M B ) 数 Nmb(x)から 目標発生符号量 T code (X)を算出する 過程を示すフローチャー トである。
図 5 は、 図 1 に示したス タ ッ フイ ング量算出部 1 7 におい て、 図 1 に示された発生符号量カウン ト部 1 4でカ ウン ト さ れた可変長符号化済のマク ロブロ ック M B (M B ) の発生符 号量 C (x)、 図 4 に示された処理で求められた目標発生符号量 T code(x), 図 3 に示した処理で算出された推定発生符号量 E (X)からス タ ッフィ ング量 S (X)を求める過程を示すフローチ ヤー トである。
図 6 は、 ス タ ッフィ ングが挿入される場合におけるマク 口 プロ ック M B情報を符号化して図 1 に示される装置から出力 される ビッ トス ト リ ームに変換する過程及びマク ロプロ ック M Bのデータを含むビ ッ ト ス ト リ ームの構造を示す説明図で める。
図 7は、 ス タ ッ フ ィ ングが揷入されない場合におけるマク ロブロ ック M B情報を符号化して図 1 に示される装置から出 力される ビッ ト ス ト リ ームに変換する過程及びマク ロブロ ッ ク M Bのデータを含むビッ ト ス ト リ ームの構造を示す説明図 である。 図 8 A及ぴ 8 Bは、 ビデオオブジェク トプレーンの符号化 順序を説明する平面図及び符号化済みマク ロブロ ック M B と 符号化マク ロブ口 ック M B との関係を示す平面図である。
図 9 は、 この発明の変形実施例に係るスタ ッフイ ング量を 求める過程を示すフローチヤ一トであって、 図 1 に示したス タツフィ ング量算出部において、 発生符号量カ ウン ト部 1 4 でカウン ト された可変長符号化済のマク ロブ口 ック M B (M B ) の発生符号量 C (x)、 図 4 に示された処理と同様の処理で 求められる符号化ビデオパケッ トの目標符号量 T code (x)、 図 3 に示した処理と同様の処理で算出された符号化ビデオパケ ッ トの推定符号量 E (X)からビデオパケッ トに揷入されるスタ ッフイ ング量 S (X)を求める過程を示すフローチヤ一トである , 図 1 0 A、 1 0 B、 1 0 〇及び 1 0 0は、 この発明の変形 実施例に係る図 1 に示されるシステムから出力されるデータ パーティ ショ ユングモー ドにおけるのビッ ト.ス ト リ ームにス タ ツフイ ングが挿入されている場合のデータ構造を示す説明 図である。 . 発明を実施するための最良の形態
以下、 図面を参照してこの発明の一実施例に係る映像符号 化装置を説明する。
図 1 には、 こ の発明の一実施例に係る映像信号、 即ち、 ビ デォ信号を可変長符号化する映像符号化装置のプロ ッ ク 図が 示されている。 こ の図 1 に示される装置は、 こ の装置内の各 部を制御する装置制御部 2 0及びビデオオブジェク トプレー ン ( V O P ) の単位で、 付帯的には、 フ レーム或いはフ ィ ー ル ド単位で入力 されるディ ジタル化映像信号を所定の映像信 号圧縮方式 (M P E G- 4方式、 或いは、 I T U— T勧告の H . 2 6 3方式、 又は、 これらを変更した方式) に従って所定の ブロ ック 、 即ち、 マク ロブロ ック M B に分割 し、 マク ロプロ ック M B を信号処理して圧縮する信号処理部 1 0 を備えてい る。
この信号処理部 1 0 は、 図 2 に示される よ う に量子化 D C T係数 (Discrete Cosine Transform: 離散コサイ ン変換) 部 2 4及び量子化部 2 5 を含んでいる.。 制御装置 2 0 の制御に 従って入力 されたディ ジタル化映像信号は、 D C T部 2 4 に おいて、 フ レーム或いはフ ィ ール ドの最小単位であるマク ロ ブロ ック M B毎に直交変換、 即ち、 D C T演算され、 得られ た D C T係数が量子化部 2 5 において D C (直流) 成分及ぴ A C (交流) 成分毎に独立して量子化され、 量子化された D C T係数は、 テク スチャ (量子化 D C T係数) と して図 1 に 示されるシンタ ックス生成部 1 2に出力される。
図 2 に示される信号処理部 1 0 は、 更に量子化されたビッ ト ス ト リ ームを逆量子化する逆量子化部 2 6 、 逆量子化され た D C T係数を逆 D C T変換する逆 D C T部 2 7及びマク ロ プロ ック M B単位で次のフ レーム と比較する動き補償部、 即 ち、 M C (Motion Compensation) ¾ 2 9 力 ら構成されている。 この信号処理部 1 0 においては、 D C T係数が逆 D C T変換 されて符号 2 8 で示すよ う に複号化画像が再現され、 こ の復 号化画像が次に入力 される フ レーム或いはフ ィ ール ドとマク ロブロ ッ ク M B単位で M C部 2 9 において比較され、 その両 者の比較から動きベク ト ル及び予測参照画像がこ の M C部 2 9 カゝら出力される。 動きべク トルは、 テ ク ス チ ャ (量子化 D C T係数) と 同様に図 1 に示されるシンタ ッ ク ス生成部 1 2 に出力 される。 また、 予測参照画像は、 D C T変換される前 に次のフ レーム画像と比較されてその差分が D C T部 2 4 に おいて D C T変換され、 D C T係数が量子化されてマク ロブ 口 ック M B毎にシンタ ッ ク ス生成部 1 2 に出力される。
シンタ ッ ク ス生成部 1 2 においては、 入力 されたテク スチ ャ (量子化 D C T係数) 及び動きべク ト ルを含むマク ロ ブロ ッ ク M B ( M B ) 情報及び後に説明するス タ ッ フイ ング量か ら、 M P E G - 4 の規格に基づく 符号化モー ドに従ったシンタ ッ ク スが生成され、 こ の シンタ ッ ク ス が可変長符号化部 1 3 に入力される。 尚、 こ の符号化モー ドの制御は装置制御部 2 0で設定される。
シンタ ッ ク ス生成部 1 2 力 ら の シンタ ッ ク スは、 可変長符 号化処理部 1 3 において、 順次可変長で符号化され、 可変長 符号化された ビ ッ ト ス ト リ ームは、 送信バ ッ フ ァ 2 2 に与え られ、 装置制御部 1 0 で設定された 目標ビ ッ ト レー ト に従つ て送信される。
図 1 に示される映像符号化装置は、 更に量子化 D C T (離 散コサイ ン変換) 係数カ ウン ト部 2 1 、 可変長符号化処理部 1 3 、 発生符号量カ ウン ト部 1 4 、 平均符号語長算出部 1 5 、 発生符号量推定部 1 6及びス タ ッ フイ ング量算出部 1 7 を備 えている。 尚、 装置制御部 2 0 は、 これらの各部を制御する と共に装置に入力される映像信号を制御し、 装置が出力すベ き ビッ トス ト リ ームを制御している'。 こ こで、 ビッ トス ト リ ー ム の制御 と は、 目標 と なる発生符号量 ( 目 標 ビ ッ ト レー ト) 或いはフ レーム数 ( 目標フ レーム レー ト) の設定、 レー ト制御或いは誤り 耐性な どの符号化モー ドの設定等を含んで いる。
可変長符号化部 1 3 の出力は、 発生符号量カ ウン ト部 1 6 に与えられ、 この発生符号量カ ウン ト部 1 6 において、 その 符号量がカ ウン ト され、 そのカ ウン ト値がス タ ッ フイ ング量 算出部 1 7及び平均符号語長算出部 1 5 に与えられる。
量子化 D C T係数カ ウン ト部 2 1 には、 信号処理部 1 0 で 生成された M B情報に含まれる量子化 D C T係数がカ ウン ト され、 そのカ ウ ン ト値が平均符号語長算出部 1 5及び発生符 号量推定部 1 6 に与えられる。
平均符号語長算出部 1 5 は、 量子化 D C T係数カ ウン ト部 2 1 でカ ウ ン ト された量子化 D C T係数の累積数と発生符号 量カ ウン ト部 1 4 でカ ウン ト された符号量の累積数から、 量 子化 D C T係数の平均符号語長 Lを算出 し、 こ の平均符号語 長 L を符号量推定部 1 6 に与えている。 累積発生符号量を C sura, 量子化 D C T係数の累積数を N sumとする と、 平均符号 語長 Lは、 C sum/ N sumと なる。 こ こで、 平均符号語長と し て可変値ではな く 固定値を用いても良い。 例えば、 平均符号 語長と して固定値 L = 8 に定めても良い。 また、 累積数は、 ある フ レー ム の入力開始力 らその内の該当するマク ロブ口 ッ ク M B の処理までの発生符号量或いは量子化 D C T係数の総 数に相当 している。
発生符号量推定部 1 6 は、 図 3 に示すよ う に量子化 D C T 係数カ ウ ン ト部 2 1 でカ ウ ン ト される あるマク ロ プロ ッ ク M B の量子化 D C T係数 N coef と 、 平均符号語長算出部 1 6 で 算出 される量子化 D C T係数の平均符号語長 から、 当該マ ク ロ ブ口 ッ ク M B に関 して可変長符号化処理部 1 3 で発生さ れる と 予想される符号量の推定値を算出 している。 可変長符 号化処理部 1 3 において、 シ ンタ ッ ク ス生成部か らのシンタ ッ ク ス 出力が可変長符号化処理される前にこ の推定値が算出 される。
推定発生符号量 E (X)は、
E (x) = N coef X L
と なる。 こ こで、 Xは、 ビデオオブジェ ク トプレーン ( V O P : V i d e o O b j e c t P l a n e ) 、 即ち、 フ レ 一ム或レヽはフ ィ ール ド内でのマク 口 プロ ッ ク M B の番号を示 す正の整数とする。
ス タ ッ フ イ ング量算出部 1 7 は、 装置制御部 1 0 で設定さ れる 目標 と なる発生符号量 ( 目標ビ ッ ト レー ト ) T br、 フ レ ーム数 ( 目 標フ レーム レー ト) T fr、 信号処理部 1 1 で得ら れる 1 フ レーム内における信号処理済のマク ロ ブロ ッ ク M B (M B ) 数 Nmb(x)から、 目標発生符号量 T code )を算出 し ている。 こ こで、 予め定まっ ている 1 V O P 当た り のマク ロ ブロ ッ ク M B (M B ) の総数を Nvopとする と 、 目標発生符号 量 T code (x)は、
T code (x) = ( T br/ Τ fr) X ( Ν mb (χ) / Ν νορ) と なる。 こ こ で、 ( T br/ T fr) は、 1 フ レーム当た り の 目 標 ビッ ト レー ト 、 即ち、 1 ビデオオブジェ ク ト プレーン内に おけ る 目標符号量である。 また、 ( Nmb(x)/ N vop) は、 1 ビデオオブジェ ク トプレーン内における全体のマ ク ロ プロ ッ ク M B数に対する信号済マク ロ ブ口 ッ ク M B数の割合である。 この 目標発生符号量 T code(x)は、 上記式から明 らかなよ う に 信号処理の対象 と される X番 目 マ ク ロ ブ口 ッ ク M Bが符号化 された後に 1 ビデオオブジェ ク ト プレーン内において累積的 に発生されるべき 目標とする符号量と して定義される。
こ の 目標発生符号量 T code (X) と発生符号量カ ウ ン ト部 1
4 で得られる可変長符号化済のマク ロ ブロ ッ ク M Bの発生符 号量 C (X)を用いて、 現在符号化しているマク ロ ブ口 ッ ク M B
(以下、 符号化 M B と呼ぶ) の 目標発生符号量 Tmb(X)が
x-1
Tmb (X) = Tcode (x)— C (i)
i=0
で算出される。 ただし、 C (0) = 0。
こ の 目標発生符号量 Tmb (x)と発生符号量推定部 1 6 で得ら ' れる推定発生符号量 E )から予測、 即ち、 推定される不足符 号量 S (X)が以下の通 り に算出される。
( 1 ) 推定発生符号量 T mb (X)が 目標発生符号量 E )よ り 小さいと き、
S (x) = T mb (x)一 E (x) if T mb (x) > E (x) とする。
( 2 ) 他方、 ί|定発生符号量 T mb (x)が 目 標発生符号量 E )よ り 大きい場合、 S (x) = 0 if T mb (x) < = E (x)
とする。 この S (x)がスタ ッフイ ング量と な り 、 この値をシ ンタ ッ ク ス生成部 2 に与え られる。 尚、 こ のスタ ッ フイ ング 量は、 9 ビッ トを 1 単位と してその整数倍に定められる。
図 1 に示された映像符号化装置における動作について図 3 から図 8 Bを参照して説明する。
信号処理部 1 0 には、 図 8 Aに示すよ う にビデオオブジェ ク トプレーン内の画像信号が矢印で示すよ う に順次入力 され る。 この信号処理部 1 0 に映像信号が与え られる と 、 映像信 号は、 信号処理部 1 0 において、 図 6 及び図 7 に示すよ う に マク ロブ口 ッ ク M B単位で信号処理されてテク スチャ (量子 化 D C T係数) 及び動きべク トルを含むマク ロブロ ッ ク M B 情報が生成される。 テク スチャ (量子化 D C T係数) の D C T係数が D C T係数カ ウ ン ト部 2 1 でカ ウン ト されて符号量 が算出される。 D C T係数カ ウ ン ト部 2 1 でカ ウン ト された 符号量の累積値が量子化 D C T係数の累積数 N sumと して平均 符号語長算出部 1 5 に与えられる。 また、 マク ロブロ ッ ク M B情報を基に してシンタ ッ ク ス生成部 1 2 でシンタ ッ ク スが 生成され、 こ のシンタ ッ ク スが可変長符号化部' 1 3 で可変長 符号化される。 こ の符号化されたビッ ト ス ト リ ームの符号量 が発生符号量カ ウ ン ト部 1 4 でカ ウン ト され、 発生符号量の 累積値が累積発生符号量 C sumと して同様に平均符号語長算出 部 1 5 に与え られる。 この累積発生符号量 C sumは、 図 8 Bに 示すビデオオブジェク トプレーン内において斜線で示す領域 のマク ロ ブロ ッ ク M B を可変長符号化後に発生される発生符 号量の総数に相当する。
平均符号語長算出部 1 5 において、 与え られた累積発生符 号量 C sum及び量子化 D C T係数の累積数 N sumから、 平均符 号語長 L ( L = C sum/ N sum) が算出される。 こ の平均符号 語長 Lは、 発生符号量推定部 1 6 に与え られる.。 こ こで、 発 生符号量推定部 1 6 には、 マク ロブロ ッ ク M B毎の D C T係 数 N coefが量子化 D C T係数カ ウン ト部 2 1 から次々 と与え られる こ とから、 図 3 に示すよ う に推定発生符号量 E (x) ( E (x) = N coef X L ) が求められる。
推定発生符号量 E (X)は、 スタ ッ フイ ング量算出部 1 7 に与 えられる。 こ のス タ ッ フイ ング量算出部 1 7 には、 装置制御 部 2 0 力、ら図 4 のステ ップ S 4 1 及ぴ S 4 2 で示すよ う に 目 標ビッ ト レー ト T br及び目標フ レーム レー ト T f r並ぴに 1 ォ ブジェ ク トプレーン V O P 当た り のマク ロブロ ッ ク M B (M B ) の総数を Nvopが与えられ、 また、 図 4 のステ ップ S 4 4 に示すよ う に信号処理部 1 0 から 1 ォブジェ ク トプレーン V 〇 Ρ内における信号処理済のマク ロブロ ック M B (M B ) 数 N mb (X)が与えられている。 従って、 ステップ S 4 3 に示すよ う に 1 ビデオオブジェ ク ト プレーン内における 目標符号量 ( T br/ T fr) が求め られ、 ステ ップ S 4 5 に示すよ う に 1 ビデオオブジェ ク トプレーン内における信号処理済マク ロブ ロ ッ ク M B (M B ) 率 ( N mb (X) Z N vop) が求め られる。 ス テ ツプ S 4 7 に示すよ う にこ の 目標符号量 .( T br/ T fr) 及 び信号処理済マク ロ ブロ ッ ク M B (M B ) 率 ( Nmb(x) Z N vop) から次式で定め られる信号処理済みのマク ロプロ ック M Bの目標発生符号量 T code (x)が求められる。
T code (x) = (TbrZTfr) X ( Nmb (x) / N vop) この 目標発生符号量 T code (x)は、 x番目 のマク ロブロ ック M B を可変長符号化処理部 1 3 で符号化する場合、 X番目 の マク 口プロ ッ ク M Bまでに発生される、 符号化している ビデ ォォブジェク トプレーン V O P における 目標とする総符号量 に該当する。
図 5 のステ ッ プ 5 1 に示すよ う に こ の 目標発生符号量 T code(x)が定まる と、 発生符号量カ ウン ト部 1 4 から与えられ る可変長符号化済のマク ロブ口 ッ ク M Bの発生符号量 C )と 比較され、 図 8 B に示すよ う にその差に相当する現在符号化 している X番目 のマク ロブロ ッ ク M B (M B ) の 目標とする 発生符号量 T mb (X)が求められる。
また、 ステ ップ S 5 4及びステ ップ S 5 6 に示すよ う に算 出された平均符号長 L及ぴ符号化マク ロブ口 ッ ク M Bの量子 化 D C T係数の総数 N coefからステ ップ S 5 5 に示すよ う に 符号化されたマク ロブロ ッ ク M B の推定符号量 E ( X ) が演 算 される。 ステ ッ プ S 5 7 で示すよ う に こ の発生符号量 T mb(x)と推定符号量 E ( X ) とが比較され、 推定発生符号量が 目標発生符号量よ り 小さいと きには、 ステップ S 5 8 に示す よ う にその差がスタ ッ フイ ングすべき量 S (X)と して設定され る。 この場合、 その量 S (X)を基準にスタ ッ フイ ングが図 6 に 示すよ う にマク ロブ口 ッ ク M B情報毎にマク 口 プロ ック M B タイ プ (M B タイ プ) と して挿入され、 そのマク ロブロ ッ ク M B情報が図 1 に示すよ う に可変長符号化処理.部で可変長符 号化され、 送信バッ ファ に出力 される。 これに対して、 ステ ップ S 5 9 に示すよ う に、 推定発生符号量 T mb (X)が 目標発生 符号量 E (X)よ り 大きい場合には、 図 7 に示すよ う にス タ ッ フ イ ングが挿入される こ と なく 、 図 7 に示すよ う にマク ロ プロ ック M B情報が可変長符号化される。
図 6 は、 マク ロブロ ッ ク M B にスタ ッ フイ ングが挿入され たマク ロブロ ッ ク M Bデータの構造を示 し、 図 7 は、 マク ロ ブロ ック M B にスタ ッフ ィ ングが挿入されてレヽないマク ロブ 口 ッ ク M Bデータの構造を示している。 マク ロ ブ口 ック M B データには、 可変長符号化されたマク ロプロ ック M B情報が 複数個連続して配置され、 図 6 に示すよ う にスタ ッ フィ ング、 動きべク ト ル (MV ) 及びテ ク ス チャ (量子化 D C T係数) の順序で各マク ロブ口 ッ ク M B情報が構成されている。 これ に対して、 図 7 に示す構造では、 ス タ ッ フイ ングが不要と さ れたこ と 力ゝら、 各マ ク ロ プロ ッ ク M B情報には、 動きべタ ト ル (MV ) 及びテク スチャ (量子化 D C T係数) のみが配置 されている。
尚、 1 オブジェク トプレーン内の全てのマク ロブロ ッ ク M Bが可変長符号化された後に、 量子.化 D C T係数カ ウン ト部 2 1 及び発生符号量カ ウ ン ト部 1 4 がク リ ア され、 再び次の ビデオオブジェク トプ レー ンの為の上述した処理が開始され る。
上述した実施例においては、 マク ロブロ ック M B (M B ) 単位で随時ス タ ッ フ ィ ングを揷入する方法を示したが、 すべ てのマ ク ロ ブ ロ ッ ク M B (M B ) に対してス タ ッ フイ ングす るか否かを決定してスタ ッフィ ングの必要がある毎にマク 口 ブロ ッ ク M B にス タ ッ フイ ングを揷入しなく と も良い。 例え ば、 ある時点まで符号化信号量の総数を計測 し、 ビデオォブ ジェク トプレーン ( V O P ) の最後列、 或いは、. 最後のマク ロブ口 ッ ク M B に対してのみスタ ッ フィ ングが上述の方法で 挿入されても良い。
また、 上述 した実施例においては、 マ ク ロ ブロ ッ ク M B (M B ) 単位でスタ ッフイ ングする方法を示したが、 M P E G - 4 で規定されている ビデオバケツ ト (VP: Video Packet)単 位でス タ ッ フ イ ングがなされても良い。 ビデオバケツ ト V P は、 ま と めて符号化する隣接する M B を少な く と も 1 つ含ん でいる。 ビデオパケッ ト V P単位でス タ ッ フイ ングを行 う場 合、 発生符号量も ビデオパケッ ト V P単位で推定する こ と に なる。 ビデオパケッ ト V P単位で発生符号量を推定する と、 推定精度は少 し落ちるが、 推定回数が減 り 、 全体の処理量が 減る ため リ アル タ イ ム処理に有効である。 また、 後記デー タ ' ノ 一テ ィ シシ ョ ニングモー ド (Data Partitioning Mode) の符号化では、 ビデオパケッ ト V P単位に可変長符号化処理 を行 う ので特に有効である。 具体的な変更は、 上記で設定し た M B番号 Xを V P番号 Xと し、 符号化 M B の 目標発生符号量 T mb )を符号化 V P の 目標発生符号量 T vp ) とする。 推定 に関する計算はすべて同一である。
以下、 V P単位のスタ ッフイ ングの方法を M B単位の と き と変更がある箇所、 発生符号量推定部 1 6 と ス タ ッ フイ ング 量算出部 1 7 の動作について説明する。 発生符号量推定部 1 6 は、 図 9 のステ ップ S 9 6 で示され る量子化 D C T係数カ ウ ン ト部 2 1 で得られる数 N coef (j) (ビデオノ ケ ッ ト V P内のすべてのマク 口プロ ック M B の量 子化 D C T係数の総数) と、 図 9 のステ ップ S 9 4 で示され る平均符号語長算出部 1 6 で算出 される量子化 D C T係数の 平均符号語長 から、 図 9 のステ ップ S 9 5 で示される よ う に可変長符号化処理部 1 3 で発生される符号量の推定値 E ( X ) が可変長符号化処理前に算出される。
ビデオバケツ ト V P番号 j の V Pの推定発生符号量 E ( j)は、
E (j) = N coef (j) X L
と な る 。 た だ し、 jは、 ビデオオブ ジェ ク ト プ レー ン (VOP: Video Object Plane)内での ビデオノ ケ ッ 卜 V Pの番号 を示す正の整数とする。 X ( j ) は番号 j の ビデオパケ ッ ト V P に含まれる最後のマク ロブ口 ック M B の番号を示す正の 整数とする。
ス タ ッ フ イ ング量算出部 1 7 は、 装置制御部 2 0 で設定さ れる 目標ビ ッ ト レー ト T br、 目標フ レーム レー ト T fr、 信号 処理部 1 0 で得られる信号処理済の M B数 N mb (X ( j) )から、 図 9 の ス テ ッ プ S 9 1 に示す よ う に 目 標発生符号量 T code (x(j))を算出する。 こ こ で、 1 V O P あた り の総マク ロ ブロ ック M B (M B ) 数を Nvopとする と、 目標発生符号量 Τ code (x ( j) )は
T code(x(j)) = ( T br/ T fr ) X ( N mb(x(j)) / N vop)
と なる。 こ の T code (x (j) ).と 図 9 のステ ップ S 9 2 に示 される発生 符号量カ ウ ン ト部 1 4 で得られる可変長符号化済の V P の発 生符号量 C (j)を用いて、 ステ ップ S 9 3 に示される よ う に現 在符号化 している ビデオパケ ッ ト V P (以下、 符号化 V P と 呼ぶ) の 目標発生符号量 T vp(x(j))が
x(j-l)
T vp(j) = T code(x(j)) -∑C (i)
i = 0
と算出される。 ただし、 C (0) = 0。
この符号化ビデオバケ ツ ト V P の 目標発生符号量 T vp ( j) と 発生符号量推定部 1 6 で得られる推定発生符号量 E (j)からス テ ツプ S 9 7 に示される よ う に予測、 即ち、 推定される不足 符号量 S (j)が以下の通 り 算出される。
推定発生符号量が 目標発生符号量よ り 小さいと き、
S (j) = T vp(j) - E (j) if T vp(j) > Ε (j)
とする。 他方、 推定発生符号量が 目標発生符号量よ り 大き い場合、 ステップ S 9 7 に示すよ う に
S (j) = 0 if T vp (j) < = E (j)
とする。 この S (j)がス タ ッ フイ ング量と な り 、 この値をシ ンタ ッ クス生成部 2へと与える。
こ こで、 映像信号符号化方式 M P E G - 4 においては、 ステ ップ S 9 8 に示される よ う に ビデオパケ ッ ト V P のサイ ズに 上限がある。 そのため、 この不足符号量 S (j)を制限な しにス タ ツ フ イ ングと して揷入する と 、 ビデオバケ ツ ト V P のサイ ズの上限を超えて しま う こ と がある。 そ こで、 ビデオバケ ツ ト V Pのサイ ズの上限値 V P maxをも と に目標ビデオバケツ ト V P のサイズ V P target ( < V P max) を装置制御部 2 0 で設 定する。 この 目標ビデオパケ ッ ト V Pのサイ ズは、 ステ ップ S 9 9 に示される よ う にビデオバケツ ト V P のサイズの'上限 値 V P maxよ り 小さ く 、 かつ発生符号量の推定精度にも よるが 推定誤差を考慮した数値、 例えば、 上限値の半分に設定され る。
これらを考慮して、 ステップ S 9 9 に示すよ う にビデオパ ケッ ト V P単位に符号化を行 う場合のスタ ッ フ ィ ング量は、 前記不足符号量 S (j)と前記推定発生符号量 E (j)の和が 目標 V Pサイ ズが V P targetを超えないよ う に している。 つま り 符号化 V P の 目 標発生符号量 T vp(j) と 目標 V P サイ ズ V P targetを比較 して、 小さい値から符号化 V P の推定発生符号 量 E (j)を減算 した値をス タ ッ フイ ング量 S (j)とする。 こ の スタ ッフィ ング量 S (j)をシンタ ックス生成部 2 1 に与えてい る。
S (j) = S (j)
if T vp ( j) < = V P target
S (j) = V P target- E (j)
if T vp (j)〉 V P target、 且つ、 V P target > E
(j)
S (j) = 0 if V P targetく = E (j)
即ち、 ステ ップ S 1 0 1 に示すよ う に 目標 V Pサイ ズが V P targetを超えない場合には、 ス タ ッ フイ ング量 S (j)は、 目 標 V Pサイ ズと V P targetと の差に定め られる。 また、 ス テ ップ S 1 0 0 に示すよ う に 目標 V Pサイズが V P targetを超 え、 しかも、 推定発生符号量 E (j)が V P targetよ り も小さい 場合には、 ス タ ッ フイ ング量 S (j)は、 目標 V Pサイズと推定 発生符号量 E (j)と の差に定め られる。 また、 目標 V Pサイズ が V P targetを超え、 しかも、 推定発生符号量 E ( j )が V P targetよ り も小さい場合には、 ス タ ッ フイ ング量 S (j)は、 ゼ 口 と してス タ ッ フイ ングが与えられないこ と となる。
上述したス タ ッ フ ィ ング量を決定する方法は、 データパー ティ シ ョ ユング(Data Partitioning)モー ドにおける符号ィ匕方 法についても同様に適用するこ とができる。
図 1 0 A〜 1 0 D は、 データ ノ ーテ ィ シ ョ ユ ング (Data Partitioning)モー ドにおけるのビ ッ ト ス ト リ ームを示してい る。 データノヽ0 —テ ィ シ ョ ユ ング (Data Partitioning)モー ドの 符号化と は、 図 1 0 Dに示すよ う な 1 つ以上のマク ロブロ ッ ク M B のマク ロ ブロ ッ ク M B (M B ) 情報 (動きべク ト ルや テ ク スチャ (量子化 D C T係数) ) を
1 . (M Bタイプ及び動きベク トル)
2. (テク ス チャ)
と に統合して、 図 1 0 Cに示すよ う に可変長符号化する方 法である。 上記 1 と 2 は、 図 1 0 B に示すよ う にモーシ ョ ン マーカー(Motion Marker)を挿入し分割される。 前記の通 り ス タ ツ フ ィ ングビッ トは、 マク ロブロ ック M B (M B ) タイプ の位置に揷入される。 ビデオパケッ ト V P は、 図 1 0 Aに示 すよ う に互いに再同期マーカー(Resync Marker)によ り 区切ら れて レヽ る 。 こ の よ う な デー タ ノ ーテ ィ シ ョ ユ ン グ (Data Partitioning)モー ドにおけるの ビ ッ ト ス ト リ ームの構造にお いて も 同様に上述 した方法を適用 して図 1 0 B に示す M B ス タ ッ フ ィ ングの符号量が決定される。
尚、 図 1 0 Aに示すよ う に、 ノ ケ ッ ト のヘッダには、 再同 期マーカー、 マク ロ ブロ ッ ク M B番号、 量子化ス ケール及び H E C ( Header Extension Code) 等が記述され、 これに続い てマク ロ ブ口 ッ ク M Bデータが配置されている。 産業上の利用可能性
上述した よ う に、 こ の発明によれば、 可変長符号化処理前 にス タ ッ フ ィ ング量が推定され、 ス タ ッ フ ィ ングがな されて から可変長符号化処理がな される こ と で、 回路を増やすこ と な く 、 また遅延も生 じる こ と な く 、 所定の ビ ッ ト ス ト リ ーム を出力する こ と ができ る。 したがって、 ビッ ト ス ト リ ーム の 再構成のために、 新たなメ モ リ が必要と なる問題、 或いは、 処理量が増加する こ と によ り 遅延が生じ、 リ アルタ イ ム性を 損な う 問題を解消する こ と ができ る。

Claims

請 求 の 範 囲
1 . ある単位の映像信号をこの映像信号を構成するプロ ック 毎に直交変換し、 量子化してブロ ック情報を生成する信号処 理手段と、
このプロ ッ ク情報を一定の方式に従って統合して統合情報 を生成する統合手段と、
こ の統合情報のプロ ッ ク情報に対してプロ ッ ク情報毎に可 変長符号化する符号化手段と、
から構成される映像符号化装置において、
前記統合されたプロ ッ ク情報から可変長符号化後の発生符 号量を推定してブロ ク毎に挿入すべきス タ ッ フ ィ ングビッ ト を算出する推定算出手段を具備し、 前記統合手段においてこ の算出されたス タ ッ フイ ングビッ ト を統合情報の所定の箇所 に挿入させ、 前記符号化手段にこ のスタ ッ フイ ングビッ トカ S 付加されたプロ ッ ク情報を可変長符号化させる映像符号化装
2 . 前記推定算出手段は、
前記信号処理手段から出力 される符号化前プロ ッ ク情報に 含まれる量子化 D C T係数をカ ウン トする第 1 のカ ウン ト手 段と、
前記符号化手段から出力 される符号化された符号列の発生 符号量をカ ウン トする第 2のカウン ト手段と、
第 1 及び第 2 のカ ウン ト手段からの出力に基づいて前記プ ロ ッ ク情報を符号化した際のプロ ック情報の平均符号語長を 算出する平均符号語長算出手段と、 前記信号処理手段から前記統合手段に入力 されるあるプロ ック情報が符号化された際の発生符号量の推定する推定手段 と、
を更に具備する請求項 1 の映像符号化装置。
3 . 前記推定手段は、
(平均符号語長) X (量子化 D C T係数の総数) の推定式 を基に発生符号量を推定する請求項 2 の映像符号化装置。
4 . 前記平均符号語長算出手段は、
前記第 2 のカ ウン ト手段からの可変長符号化後の累積発生 符号量及び前記第 1 の力 ゥン ト手段からの前記統合情報内の プロ ック情報に関する量子化 D C T係数の総数から
(累積発生符号量) / (量子化 D C T係数の累積数)
に基づいて平均符号語長を算出する請求項 2 の映像符号化 装置。
5 . 前記推定算出手段は、
前記推定された発生符号量と前記第 2 のカ ウン ト手段で 力 ゥン ト された符号量を累積した符号化累積数を比較してス タ ツ フ ィ ング量を決定するス タ ッ フ イ ング算出部を更に具備 する請求項 2 の映像符号化装置。
6 . 前記ス タ ッ フイ ングビッ トは、 前記ブロ ック情報毎に付 加される請求項 1 の映像符号化装置。.
7 . 前記ス タ ッ フイ ングビッ トは、 前記ブロ ック情報の集合 に対して付加される請求項 1 の映像符号化装置。
8 . ある単位の映像信号をこの映像信号を構成するブロ ック 毎に直交変換し、 量子化してプロ ック情報生成する信号処理 工程と、
こ のプロ ッ ク情報を一定の方式に従って統合して統合情報 を生成する統合工程と、
この統合情報のブロ ッ ク情報に対してブロ ッ ク情報毎に可 変長符号化する符号化工程と、
から構成される映像符号化方法において、
前記統合されたプロ ッ ク情報から可変長符号化後の発生符 号量を推定してプロ ク毎に挿入すべきスタ ッ フ ィ ングビッ ト を算出する推定算出工程を具備し、 前記統合工程においてこ の算出されたス タ ッ フイ ングビッ ト を統合情報の所定の箇所 に挿入させ、 前記符号化工程において、 こ のス タ ッ フイ ング ビッ トが付加されたブロ ック情報を可変長符号化させる映像 符号化方法。
9 . 前記推定算出工程は、
前記信号処理工程において、 出力 される符号化前ブロ ック 情報に含まれる量子化 D C T係数をカ ウ ン トする第 1 のカ ウ ン ト工程と、
前記符号化工程において、 出力 される符号化された符号列 の発生符号量をカウン トする第 2 のカ ウン ト工程と、
第 1 及び第 2 の力 ゥン ト工程における出力に基づいて前記 ブロ ック情報を符号化した際のプロ ッ ク情報の平均符号語長 を算出する平均符号語長算出工程と、
前記信号処理工程から前記統合工程に入力 されるあるプロ ック情報が符号化された際の発生符号量の推定する推定工程 と、 を更に具備する請求項 8 の映像符号化方法。
1 0 . 前記推定工程では、
(平均符号語長) X (量子化 D C T係数の総数) の推定式 を基に発生符号量を推定する請求項 8 の映像符号化方法。
1 1 . 前記平均符号語長算出工程では、
前記第 2 カ ウン ト工程における可変長符号化後の累積発生 符号量及び前記第 1 カ ウ ン ト工程における前記統合情報内の ブロ ック情報に関する量子化 D C T係数の総数から
(累積発生符号量) / (量子化 D C T係数の累積数) に基づいて平均符号語長を算出する請求項 8 の映像符号化 方法。
1 2 . 前記推定算出工程では、
前記推定された発生符号量と前記第 2 のカ ウ ン ト工程に おいて力 ゥン ト された符号量を累積した符号化累積数を比較 してス タ ッ フ ィ ング量を決定するス タ ッ フ ィ ング算出工程を 更に具備する請求項 8 の映像符号化方法。
1 3 . 前記スタ ッ フイ ングビッ トは、 前記ブロ ッ ク情報毎に 付加される請求項 8 の映像符号化方法。
1 4 . 前記スタ ッ フイ ングビッ ト は、 前記ブロ ッ ク情報の 集合に対して付加される請求項 8 の映像符号化方法。
PCT/JP2001/001514 2000-02-28 2001-02-28 Video encoding apparatus and video encoding method WO2001063938A1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP20010908152 EP1185108B1 (en) 2000-02-28 2001-02-28 Video encoding apparatus and video encoding method
DE2001604616 DE60104616T2 (de) 2000-02-28 2001-02-28 Videokodierungsverfahren und -vorrichtung
US09/959,458 US6819712B2 (en) 2000-02-28 2001-02-28 Video encoding apparatus and video encoding method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2000052457A JP4170555B2 (ja) 2000-02-28 2000-02-28 映像符号化装置及び映像符号化方法
JP2000-52457 2000-02-28

Publications (1)

Publication Number Publication Date
WO2001063938A1 true WO2001063938A1 (en) 2001-08-30

Family

ID=18573966

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2001/001514 WO2001063938A1 (en) 2000-02-28 2001-02-28 Video encoding apparatus and video encoding method

Country Status (5)

Country Link
US (1) US6819712B2 (ja)
EP (1) EP1185108B1 (ja)
JP (1) JP4170555B2 (ja)
DE (1) DE60104616T2 (ja)
WO (1) WO2001063938A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4534106B2 (ja) * 2000-12-26 2010-09-01 日本電気株式会社 動画像符号化システム及び方法
JP4349816B2 (ja) * 2003-02-17 2009-10-21 株式会社リコー 画像処理装置、画像圧縮装置、画像処理方法、画像圧縮方法、プログラム、及び記録媒体
JP2005203905A (ja) * 2004-01-13 2005-07-28 Sony Corp 画像符号化装置、画像符号化方法並びに画像符号化プログラム
JP4612721B2 (ja) * 2005-07-20 2011-01-12 ヒューマックス カンパニーリミテッド 復号化器及びビットストリーム復号化方法
KR100705971B1 (ko) 2005-07-20 2007-04-12 주식회사 휴맥스 비트스트림 인코딩/디코딩 방법 및 장치
KR100767606B1 (ko) 2006-03-31 2007-10-18 주식회사 휴맥스 통합 코덱 장치 및 방법
WO2007114586A1 (en) * 2006-03-31 2007-10-11 Humax Co., Ltd. Device and method for unified codecs
KR100807100B1 (ko) 2006-07-11 2008-03-03 주식회사 휴맥스 통합 코덱 장치 및 방법
KR100970145B1 (ko) * 2008-07-18 2010-07-14 (주)휴맥스 부호화/복호화 방법 및 장치
US10805635B1 (en) * 2016-03-22 2020-10-13 NGCodec Inc. Apparatus and method for coding tree unit bit size limit management

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06205393A (ja) * 1993-01-08 1994-07-22 Nippon Steel Corp 動画像符号化情報発生量制御装置
JPH06350460A (ja) * 1993-06-11 1994-12-22 Victor Co Of Japan Ltd 圧縮符号用エラー訂正回路
JPH0787444A (ja) * 1993-07-16 1995-03-31 Pioneer Electron Corp 圧縮符号化データ記録方法
JPH0865683A (ja) * 1994-08-17 1996-03-08 Graphics Commun Lab:Kk 動画像符号量制御方法と装置
JPH10155152A (ja) * 1996-09-25 1998-06-09 Matsushita Electric Ind Co Ltd 画像圧縮符号化装置及び方法
JPH11122612A (ja) * 1997-10-17 1999-04-30 Kdd 動画像の圧縮符号化装置
JPH11234671A (ja) * 1998-02-12 1999-08-27 Hitachi Ltd 信号処理装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69126565T2 (de) * 1990-04-17 1998-01-02 Matsushita Electric Ind Co Ltd Verfahren zur Übertragung von Kodes mit variabler Länge
US5392037A (en) * 1991-05-21 1995-02-21 Matsushita Electric Industrial Co., Ltd. Method and apparatus for encoding and decoding
JP2766919B2 (ja) 1991-06-07 1998-06-18 三菱電機株式会社 ディジタル信号記録再生装置、ディジタル信号記録装置、ディジタル信号再生装置
KR100206261B1 (ko) * 1992-02-28 1999-07-01 윤종용 디지탈 vtr의 영상신호 대역 압축장치
US5440345A (en) * 1992-07-17 1995-08-08 Kabushiki Kaisha Toshiba High efficient encoding/decoding system
JP3364281B2 (ja) * 1993-07-16 2003-01-08 パイオニア株式会社 時分割ビデオ及びオーディオ信号の同期方式
JP3224465B2 (ja) * 1993-12-22 2001-10-29 シャープ株式会社 画像符号化装置
US6094455A (en) * 1996-09-25 2000-07-25 Matsushita Electric Industrial Co., Ltd. Image compression/encoding apparatus and system with quantization width control based on bit generation error
WO1999005864A1 (fr) * 1997-07-25 1999-02-04 Sony Corporation Dispositif d'edition, procede d'edition, dispositif d'epissage, procede d'epissage, dispositif de codage et procede de codage

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06205393A (ja) * 1993-01-08 1994-07-22 Nippon Steel Corp 動画像符号化情報発生量制御装置
JPH06350460A (ja) * 1993-06-11 1994-12-22 Victor Co Of Japan Ltd 圧縮符号用エラー訂正回路
JPH0787444A (ja) * 1993-07-16 1995-03-31 Pioneer Electron Corp 圧縮符号化データ記録方法
JPH0865683A (ja) * 1994-08-17 1996-03-08 Graphics Commun Lab:Kk 動画像符号量制御方法と装置
JPH10155152A (ja) * 1996-09-25 1998-06-09 Matsushita Electric Ind Co Ltd 画像圧縮符号化装置及び方法
JPH11122612A (ja) * 1997-10-17 1999-04-30 Kdd 動画像の圧縮符号化装置
JPH11234671A (ja) * 1998-02-12 1999-08-27 Hitachi Ltd 信号処理装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1185108A4 *

Also Published As

Publication number Publication date
DE60104616T2 (de) 2005-07-28
EP1185108B1 (en) 2004-08-04
US20020186767A1 (en) 2002-12-12
JP2001245296A (ja) 2001-09-07
EP1185108A4 (en) 2004-01-02
US6819712B2 (en) 2004-11-16
JP4170555B2 (ja) 2008-10-22
EP1185108A1 (en) 2002-03-06
DE60104616D1 (de) 2004-09-09

Similar Documents

Publication Publication Date Title
US6826229B2 (en) Device and method for coding video information
WO1999020051A1 (en) Video data multiplexer, video data multiplexing control method, method and apparatus for multiplexing encoded stream, and encoding method and apparatus
JPH07203447A (ja) ビデオ信号符号化装置
KR20000071026A (ko) 코딩 시스템내에서 속도 제어를 최적화하기 위한 장치 및 방법
EP1825681A1 (en) Quantizer parameter determination for video encoder rate control
JPH09510070A (ja) 可変ビットレート圧縮システムのバッファ管理
EP1661398A2 (en) Method and apparatus for selection of scanning mode in dual pass encoding
US20130294502A1 (en) Motion video encoding apparatus, motion video encoding method, and motion video encoding computer program
WO2001063938A1 (en) Video encoding apparatus and video encoding method
Kim et al. A novel linear source model and a unified rate control algorithm for H. 263/MPEG-2/MPEG-4
US20050036548A1 (en) Method and apparatus for selection of bit budget adjustment in dual pass encoding
JP2003209837A (ja) 動画像符号化方法及び動画像符号化装置
WO2002080567A1 (en) Image signal quantizing device and its method
US20090168891A1 (en) Method for controlling video encoding bit rate based on transport packet length, and apparatus for coding video using the same
JP5772623B2 (ja) 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム
US6931069B2 (en) Coding device and coding method
WO2003092302A1 (en) Moving image transferring system, moving image encoding apparatus, moving image decoding apparatus, and moving image transferring program
JP3149673B2 (ja) 映像符号化装置、映像符号化方法、映像再生装置及び光ディスク
JP3948597B2 (ja) 動画像圧縮符号化送信装置、受信装置および送受信装置
JPH11234671A (ja) 信号処理装置
JP2003116133A (ja) 動画像圧縮符号化伝送品質制御方式および方法
US8711927B2 (en) System and method for video encoding
JP3934772B2 (ja) 可変転送レート符号化方法および装置
JPH10308944A (ja) 符号化伝送方式
JP2006325239A (ja) 画像信号量子化装置およびその方法

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): DE GB

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 09959458

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2001908152

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 2001908152

Country of ref document: EP

WWG Wipo information: grant in national office

Ref document number: 2001908152

Country of ref document: EP