WO1998036576A1 - Moving picture prediction system - Google Patents

Moving picture prediction system Download PDF

Info

Publication number
WO1998036576A1
WO1998036576A1 PCT/JP1998/000232 JP9800232W WO9836576A1 WO 1998036576 A1 WO1998036576 A1 WO 1998036576A1 JP 9800232 W JP9800232 W JP 9800232W WO 9836576 A1 WO9836576 A1 WO 9836576A1
Authority
WO
WIPO (PCT)
Prior art keywords
memory
prediction
image
memories
parameter
Prior art date
Application number
PCT/JP1998/000232
Other languages
English (en)
French (fr)
Other versions
WO1998036576A8 (en
Inventor
Shunichi Sekiguchi
Kohtaro Asai
Tokumichi Murakami
Hirofumi Nishikawa
Shinichi Kuroda
Yoshimi Isu
Yuri Hasegawa
Original Assignee
Mitsubishi Denki Kabushiki Kaisha
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=12260195&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=WO1998036576(A1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Mitsubishi Denki Kabushiki Kaisha filed Critical Mitsubishi Denki Kabushiki Kaisha
Priority to JP53555298A priority Critical patent/JP3748895B2/ja
Priority to US09/142,577 priority patent/US6775326B2/en
Priority to KR1019980708155A priority patent/KR100309086B1/ko
Priority to EP98900693A priority patent/EP0898427A4/en
Publication of WO1998036576A1 publication Critical patent/WO1998036576A1/ja
Publication of WO1998036576A8 publication Critical patent/WO1998036576A8/ja
Priority to US11/932,735 priority patent/US9225945B2/en
Priority to US11/932,623 priority patent/US9232198B2/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/24Systems for the transmission of television signals using pulse code modulation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/127Prioritisation of hardware or computational resources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/142Detection of scene cut or scene change
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/179Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scene or a shot
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • H04N19/23Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding with coding of regions that are present throughout a whole video segment, e.g. sprites, background or mosaic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/423Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/58Motion compensation with long-term prediction, i.e. the reference frame for a current frame not being the temporally closest one
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/87Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving scene cut or scene change detection in combination with video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Definitions

  • Video coding and Z-decoding devices used in mobile and stationary image communication equipment used for video communication applications such as videophones and video conferences,
  • Video encoding / decoding devices used in image storage and recording devices such as digital VTRs and video servers,
  • Video coding Z-decoding program implemented in standalone software or in the form of DSP (Digital Signal Processor) firmware
  • the present invention relates to prediction of a moving image used for such purposes.
  • VM Video coding and decoding reference method
  • VM Version 5.0 is assumed, and is simply expressed as VM hereinafter.
  • VM is a method of encoding / decoding a moving image sequence as a set of image objects // that take an arbitrary shape in time and space, and each image object as a unit.
  • Figure 29 shows the video data structure in the VM.
  • the VM calls a video object including the time axis a Video Object (V0), and expresses the image data representing the state of each time point of V0 and serving as a coding unit in the Video Object (V0). Called ct Plane (VOP).
  • VOL Video Object Layer
  • Each V0P is separated into shape information and texture information. However, if there is one V0 in the video sequence, each V0P is equivalent to a frame. In this case, there is no shape information, and only the texture information is encoded and Z-decoded.
  • V0P has a structure including alpha data representing shape information and texture data representing texture information.
  • Each data is defined as a set of blocks (alpha blocks and macro blocks) each consisting of 16x16 samples.
  • Each sample in the alpha block is represented by 8 bits.
  • a macroblock includes a 16x16 sample sumorer luminance signal and a corresponding color difference signal. It is assumed that the process of generating V0P data from a moving image sequence is performed outside the present encoding device.
  • FIG. 31 shows a configuration of a V0P encoding device using the VM encoding Z method.
  • P 1 is the input original V0P data
  • P 2 is an alpha block representing the shape information of the V 0 P
  • P 3 a is a switch for transmitting the presence or absence of the shape information of the input original VOP data
  • P 4 is P5 is the compressed alpha block data
  • P6 is the locally decoded alpha block
  • P7 is the texture data (macroblock)
  • P8 is the motion detector
  • P9 is the shape encoder that compresses and encodes the alpha block.
  • Motion parameters P10 is motion compensation unit, P11 is prediction image candidate, P12 is prediction mode selection unit, P13 is prediction mode, P14 is prediction image, P15 is prediction error Signal, P16 is a texture coding unit, P17 is texture coding information, P18 is a local decoding prediction error signal, P19 is a local decoding macroblock, P20 is a split memory updating unit, P 2 1 is V0P memory, P 2 2 is split memory, P 2 3 is variable Long coding: multiplexing unit, P 24 is a buffer, P 25 is a coded bitstream.
  • FIG. 32 is a flowchart summarizing the operation of the encoding apparatus.
  • the original V0P data P 1 is first separated into an alpha block P 2 and a macro block P 7 (step PS 2, step PS 3), and the alpha block P 2 is converted into a shape encoding unit P To 4, the macroblock P7 is sent to the motion detector P8.
  • the shape encoding unit P4 is a processing block (step PS4) for compressing the data of the alpha block P2. Since the present invention does not relate to the shape information compression method, the details of the processing are not described here. Omitted.
  • the output of the shape encoding unit P4 is compressed alpha data P5 and a local decoding alpha block P6.
  • the former is sent to the variable-length encoding multiplexing unit P23.
  • the latter is a motion detecting unit P8. These are sent to the motion compensation unit P 10, the prediction mode selection unit P 12, and the texture encoding unit P 16, respectively.
  • the motion detector P 8 receives the macro block P 7, and uses the reference image data stored in the V0P memory P 21 and the locally decoded alpha block P 6 to generate a local block for each macro block. Detects a motion vector.
  • the motion vector is an example of a motion parameter.
  • the V0P memory P21 stores the already-encoded V0P locally decoded image.
  • the contents of the V0P memory P 21 are sequentially updated with the locally decoded image every time the coding of the macroblock ends.
  • the motion detection unit P8 also has a function of receiving the entire texture data of the original V0P and detecting global live parameters using reference image data and locally decoded alpha data stored in the split memory P22. Have both.
  • the motion compensation unit P10 (step PS6) generates a predicted image candidate P11 using the motion parameter P9 detected by the motion detection unit P8 and the local decoding alpha block P6.
  • the prediction mode selection unit P12 determines the final prediction mode P13 and the predicted image P14 of the macroblock using the prediction error signal power and the original signal power (step PS7). .
  • the prediction mode selection unit P12 also determines whether the encoding is either the intra-frame encoding or the inter-frame encoding.
  • the texture encoding unit P16 quantizes the prediction error signal P15 or the original macroblock itself by DCT (Discrete Cosine Transform) based on the prediction mode P13, and predicts the obtained quantized DCT coefficients. Then, or directly, it is sent to the variable-length coding / multiplexing unit P23 to perform coding (step PS8, step PS9).
  • Variable length coding unit The multiplexing unit P23 converts the received data into a bit stream and multiplexes the data according to a predetermined syntax and a variable length coding code (step PS10). .
  • the quantized DCT coefficient is converted to a local decoding prediction error signal P 18 through inverse quantization and inverse DCT, and then added to the prediction image P 14 to obtain a local decoding macroblock P 19 (step PS 11).
  • the locally decoded macroblock P 19 is written to the V0P memory P 21 and the split memory P 22, and is used for the subsequent V0P prediction (step PS 12).
  • the following describes in detail the prediction part, particularly the prediction method and motion compensation, and the update control of the split memory P22 and the V0P memory P21.
  • V0P In VM, usually, there are four types of V0P coding types as shown in FIG. 33, and the prediction method indicated by ⁇ can be selected for each macroblock for each type. I-V0P does not make any predictions, Encoding. P-V0P can make predictions from past V0P. B-V0P can use past and future V0Ps for prediction.
  • Sprite-V OP can be predicted using a split memory.
  • the split is
  • Is a VOP unit ( ⁇ indicates a vector; the same applies hereafter), and is an image space generated by sequentially mixing V0P based on this, and is stored in the split memory P22 .
  • (X, y) is the pixel position on the two-dimensional coordinates of the original V0P
  • (x,, y ') is the pixel position in the split memory associated with (X, y) by the moving parameter. is there.
  • each macroblock of Sprite-VOP it is possible to perform prediction by generating the prediction image by determining ( ⁇ ', y';) in the split memory by using this set of convergence parameters in a unified manner. .
  • a “split dynamic” used for prediction and a “static sprite” used for prediction and used for the purpose of approximately synthesizing V0P on the decoding side.
  • dynamics light is used to mean "split.”
  • the motion detector P8 detects a motion vector and a peaking parameter used for the above prediction.
  • the motion vector and the moving parameter are collectively referred to as the motion parameter P9.
  • the motion compensator P 10 has, for example, an internal configuration as shown in FIG. Same figure , P 26 is a moving parameter, P 27 is a motion vector, P 28 is a global motion compensator, P 29 is a mouth motion compensator, and P 30 is a predicted image candidate based on the moving parameter. And P31 are prediction image candidates based on the motion vector.
  • the predicted image candidate P 11 is a general term for the predicted image candidate P 30 based on the moving parameter and the predicted image candidate P 31 based on the motion vector.
  • a flowchart summarizing the operation of the motion compensator P10 is shown in steps PS14 to PS21 in FIG.
  • a predicted image is obtained using the voving parameters P26 of the entire V0P detected by the motion detector P8 for each macroblock P7 or the motion vector P27 of a macroblock unit.
  • the global motion compensator p 28 performs motion compensation using the moving parameter P 26, and the oral motion compensator P 29 performs motion compensation using the motion vector P 27.
  • the motion compensation unit P10 does not operate (go from step PS14 to step PS21).
  • the local motion compensation unit P29 operates to extract a predicted image candidate (PR1) from the past V0P locally decoded image in the V0P memory P21 using the motion vector P27. (Step PS 15). In P-V0P, only this predicted image candidate (PR1) is used.
  • the local motion compensator P29 further uses the motion vector P27 to calculate the future V0P local decoded image in the V0P memory P21.
  • the predicted image candidate (PR2) is extracted (step PS17), and the predicted image candidates obtained from the past and future V0P locally decoded images are averaged to obtain the predicted image candidate (PR3) (step PS18). ) —
  • direct prediction B frame in the ITU-T Recommendation H.263 coding scheme
  • Forecasting based on a prediction method equivalent to the system.
  • the predicted image candidate P31 based on the motion vector is a generic term for a part or all of the predicted image candidates PR1 to PR4.
  • the predicted image candidate (PR1) is extracted from the V0P memory using the motion vector, and the global motion compensation unit P28 in step PS20. Then, the predicted image candidate P30 is fetched from the split memory P22 using the singing parameter P26.
  • the motion compensation unit P 28 calculates the address where the predicted image candidate exists in the split memory P 22 from the mapping parameter P 26, and predicts the address from the split memory P 22 based on this. Extract and output image candidate P30.
  • the local motion compensation unit P29 calculates the address where the predicted image in the V0P memory P21 exists from the motion vector P27 and, based on this, the predicted image candidate P from the V0P memory P21. 3 Take out 1 and output.
  • These prediction image candidates P 11 are evaluated including the intra-frame coded signal of the texture data P 7 in the prediction mode selection unit P 12, and the prediction image candidate and the prediction mode with the smallest prediction error signal power are determined. O selected
  • the memory update control (step PS12) is performed by the memory update unit P20, and updates the V0P memory P21 and the split memory P22. These memory contents are updated irrespective of the prediction mode P13 selected for each macroblock.
  • Figure 36 shows the internal configuration of the memory update unit P20.
  • the flow chart showing the operation is shown in Fig. 37 from step PS22 to step PS22.
  • P 32 is a V0P encoding type given from outside, P
  • 3 3 indicates whether or not to make predictions using the split memory.Sprite prediction identification flag given from the outside.P 34 is an externally given blend coefficient used for prediction using the split memory.
  • 3 5 is a switch
  • P 3 6 is a switch
  • P 3 7 is a split synthesis section
  • P 3 8 is a split deformation processing section
  • P 3 9 is a V0P memory update signal
  • P 4 0 is a split. This is an update signal.
  • the split prediction identification flag P33 checks whether or not it is specified to use a sprite in the relevant V0 or VOL (step PS22). If no sprite is used, B-V0P Checked (step PS27), if B- V0P, no update of V0P memory P21 is performed. In the I-V0P or P-V0P, the local decoding macroblock P19 is overwritten on the V0P memory P21 for each macroblock (step PS28). On the other hand, if it is determined that the split is to be used in the check of step PS22, after the V0P memory P21 is updated as described above (step PS23, step PS24), the following procedure is performed. The update of the split memory P22 is performed.
  • an area on the split memory (an area of the same area as the V0P whose origin is the position on the split memory when the time of the V0P is t)
  • the ⁇ -ping parameter ⁇ a (a, b, c, d, e, f, g, h)
  • a new sprite memory area is calculated in the split synthesis unit P37 according to the following equation.
  • VO ( ⁇ , t) Local decoding VOP position and pixel value at time t.
  • a memory that only detects a motion vector and a memory that only detects a moving parameter are maximum one screen at a time. Since the configuration is such that it can only be used, the reference image that can be used for prediction is used only in a very limited way, and the prediction efficiency cannot be improved sufficiently.
  • these memories store the predicted moving image objects themselves. Since only the reference image indicating the history of the image is included, the variation of the reference image is limited, and prediction cannot be performed using the correlation between the moving image objects. ⁇
  • the memory is rewritten regardless of the internal structure, properties, history, etc. of the moving image object, so that sufficient knowledge important for predicting the moving image object can be accumulated in the memory. There was a problem that the prediction efficiency could not be improved.
  • the present invention has been made to solve the above problems, and when encoding and decoding image data, a plurality of memories are provided and the internal structure and properties of a moving image sequence are taken into consideration.
  • the history of video sequences can be effectively stored in multiple memories to improve the efficiency of prediction and coding Z-decoding, and more flexible by providing a structure that allows prediction between multiple video objects
  • the purpose is to provide a simple prediction method. Disclosure of the invention
  • the present invention accumulates image data to be referred to at the time of prediction, and inputs a plurality of memories, each of which is associated with an individual deformation method, and a parameter expressing a motion of a predicted image area.
  • a predicted image generating unit that generates a predicted image based on a deformation method associated with the memory;
  • This is a moving image prediction method for predicting a moving image, which is used in any of a decoding device and a decoding device.
  • the encoding device generates a prediction memory instruction information signal indicating the memory used for generating the prediction image, and associates the decoding side with the memory using the image data stored in the memory on the decoding side.
  • the predicted memory instruction information signal and the parameter are generated so that the predicted image can be generated based on the changed method. Is transmitted to the decoding side.
  • the decoding device receives, from the encoding side, the parameter and prediction memory instruction information indicating a memory used for generating the predicted image, and the predicted image generation unit performs a transformation corresponding to the parameter and the memory.
  • the method is characterized in that the predicted image is generated using image data stored in the memory based on a method.
  • the present invention stores image data to be referred to at the time of prediction, inputs a plurality of memories each of which is associated with an individual parameter effective value range, and a parameter expressing a motion of a predicted image area.
  • a prediction image generation unit that selects a memory associated with the parameter effective value range including the parameter value and generates a prediction image using image data stored in the selected memory. Both are moving picture prediction methods for predicting moving pictures, which are used for either encoding or decoding.
  • the present invention provides a plurality of memories for storing image data to be referred to at the time of prediction, and a parameter representing a motion of a predicted image area, and the image data stored in the plurality of memories based on the parameters.
  • a motion compensation unit that generates a predicted image by using a memory
  • a predicted image generation unit that includes a memory update unit that updates image data stored in at least one of the plurality of memories at an arbitrary timing.
  • This is a moving picture prediction method for predicting a moving picture, which is used for at least one of encoding and decoding.
  • the moving picture prediction method predicts a moving picture on a moving picture sequence having first and second moving picture objects, and the plurality of memories correspond to the first and second 3 ⁇ 4 picture objects.
  • the prediction image is generated using the image data stored in any of the above, and information indicating whether or not the second plurality of memories is used for the prediction of the first object is used as the prediction image. It is generated to add to.
  • the prediction image generation unit generates a prediction image by increasing or decreasing one of the number and the size of the plurality of memories according to a change in a moving image at each time.
  • the prediction image generation unit generates a prediction image by limiting a memory used for prediction in accordance with a change in a moving image at each time.
  • the prediction image generation unit generates a prediction image by calculating a plurality of prediction images generated respectively using the image data stored in the plurality of memories.
  • the video prediction method includes an importance detection unit that detects a feature parameter indicating the importance of the predicted image area, and the prediction image generation unit includes at least a plurality of prediction parameters based on the feature parameter.
  • the method is characterized in that a predicted image is generated by selecting at least one of a plurality of options for a prediction method, a plurality of memories, and a plurality of memory update methods.
  • the above-mentioned moving picture prediction method includes at least an important amount for detecting a parameter indicating any of a code amount available for the predicted image area, a change amount of the image area at each time, and a degree of importance of the image area.
  • the prediction image generation unit includes a plurality of prediction methods, a plurality of memories, and a plurality of memory update methods based on the parameters.
  • a feature is that a predicted image is generated by selecting at least one of the options.
  • the moving picture prediction method predicts a moving image in units of moving image objects.
  • the moving picture prediction method includes, at least, a code amount that can be used by the predicted moving image object and the moving image object at each time.
  • a predictive image generating unit that detects a parameter indicating any of the change amount of the moving image object and the importance of the moving image object.
  • the predictive image generating unit includes at least a plurality of predictive methods based on the parameters.
  • the method is characterized in that a predicted image is generated by selecting at least one of a plurality of options for any of a plurality of memories and a plurality of memory updating methods.
  • the video prediction method includes a prediction information encoding unit that encodes information related to prediction in encoding a video, and the prediction image generation unit counts a frequency of use of a memory used for prediction. Then, the ranks of the plurality of memories are determined based on the counted frequency of use, and the prediction information coding unit assigns a code length to information related to prediction according to the rank of the memory used for prediction. It is characterized by encoding information related to prediction.
  • the plurality of memories have at least a frame memory for storing image data in units of frames and a split memory for storing a split image.
  • the above-mentioned split memory is characterized by having at least one of a dynamic split memory with sequential update and a static sprite memory without sequential update.
  • the plurality of memories are characterized in that at least one of the transformation methods of translation, affine transformation, and perspective transformation can be changed. Further, the present invention provides a step of accumulating image data to be referred to at the time of prediction in a plurality of memories, a step of associating each of the plurality of memories with an individual deformation technique, A predicted image is generated based on the parameters and a deformation method associated with the memory, using a data input step and image data stored in a memory used for the prediction of the predicted image area.
  • a method for predicting a moving image comprising a step and being used for at least one of encoding and decoding.
  • the method for predicting a moving image further includes a step of generating a predicted memory instruction information signal indicating the memory used for generating the predicted image, and transmitting the predicted memory information signal and the parameter to a decoding side. And a process.
  • the method for predicting a moving image further includes a step of receiving, from the encoding side, a prediction memory instruction information signal indicating a memory used for generating the predicted image and a parameter expressing a motion of the predicted image area. It is characterized by being used for
  • the present invention provides a step of storing image data to be referred to at the time of prediction in a plurality of memories, a step of associating each of the plurality of memories with a parameter effective value range individually, and a parameter expressing a motion of a predicted image area.
  • a step of inputting data a step of selecting a memory associated with the parameter effective value range including the value of the parameter, and a step of generating a predicted image using image data stored in the selected memory. This is a method for predicting a moving image, which is provided for use in at least one of encoding and decoding.
  • the present invention provides a step of storing image data to be referred to at the time of prediction in a plurality of memories, a step of inputting a parameter representing a motion of a predicted image area, and the steps of: Stored in memory A step of generating a predicted image using image data; and a step of updating image data stored in at least one of the plurality of memories at an arbitrary timing.
  • At least one of encoding and decoding This is a method for predicting a moving image that is characterized by being used for crabs.
  • FIG. 1 is a configuration diagram showing a moving picture encoding device according to an embodiment of the present invention.
  • FIG. 2 is a flowchart showing the operation of the moving picture coding apparatus according to the embodiment of the present invention.
  • FIG. 3 is a configuration diagram showing a configuration of the motion compensation unit of the video encoding device according to the embodiment of the present invention.
  • FIG. 4 is a flowchart showing the operation of the motion compensation unit.
  • FIG. 5 is a configuration diagram showing a configuration of a memory updating unit of the video encoding device according to the embodiment of the present invention.
  • FIG. 6 is a flowchart showing the operation of the memory update unit.
  • FIG. 7 is a configuration diagram showing a configuration of the motion compensation unit of the video encoding device according to the embodiment of the present invention.
  • FIG. 8 is a flowchart showing the operation of the motion compensation unit in FIG.
  • FIG. 9 is a configuration diagram showing a configuration of the motion compensation unit of the video encoding device according to the embodiment of the present invention.
  • FIG. 10 is a flowchart showing the operation of the motion compensation unit in FIG.
  • FIG. 11 is a configuration diagram showing a video encoding device according to an embodiment of the present invention.
  • FIG. I2 is a configuration diagram showing a configuration of the motion compensation unit of the video encoding device according to the embodiment of the present invention.
  • FIG. 13 is a flowchart showing the operation of the motion compensation unit in FIG.
  • FIG. 14 is a configuration diagram showing a configuration of the memory updating unit of the video encoding device according to the embodiment of the present invention.
  • FIG. 15 is a flowchart showing the operation of the memory update unit in FIG.
  • FIG. 16 is a configuration diagram showing a video encoding device according to an embodiment of the present invention.
  • FIG. 17 is a configuration diagram showing a video encoding device according to an embodiment of the present invention.
  • FIG. 18 is a configuration diagram showing a moving picture encoding device according to an embodiment of the present invention.
  • FIG. 19 is a configuration diagram showing a video encoding device according to an embodiment of the present invention.
  • FIG. 20 is a diagram showing the bitstream 21 according to the first embodiment of the present invention.
  • FIG. 21 is a diagram showing a bit stream 21 according to the second embodiment of the present invention.
  • FIG. 22 is a diagram illustrating a bitstream 21 according to the third embodiment of the present invention.
  • FIG. 23 is a diagram showing a bitstream 21 according to the sixth embodiment of the present invention.
  • FIG. 24 is a configuration diagram showing a video decoding device according to an embodiment of the present invention.
  • FIG. 25 is a configuration diagram showing a karaka of the motion compensation unit of the video decoding device according to the embodiment of the present invention.
  • FIG. 26 is a flowchart showing the operation of the motion compensation unit.
  • FIG. 27 is a diagram illustrating the interpolation process.
  • FIG. 28 is a flowchart showing the operation of the memory update unit of the video decoding device according to the embodiment of the present invention.
  • FIG. 29 is an explanatory diagram showing a video data structure in the VM encoding method.
  • FIG. 30 is an explanatory diagram showing the structure of V0P data.
  • FIG. 31 is a configuration diagram showing a configuration of the VM encoding device.
  • FIG. 32 is a flowchart showing the operation of the encoding device in FIG.
  • FIG. 33 is an explanatory diagram showing the types of prediction corresponding to the V0P coding type.
  • FIG. 34 is a configuration diagram illustrating a configuration of the motion compensation unit in the encoding device in FIG. 31.
  • FIG. 35 is a flowchart showing the operation of the motion compensation unit in FIG.
  • FIG. 36 is a configuration diagram showing the configuration of the memory update unit in the encoding device of FIG. 31.
  • FIG. 37 is a flowchart showing the operation of the memory update unit in FIG.
  • FIG. 1 is a block diagram showing a configuration of an encoding device according to Embodiment 1 and an embodiment described later.
  • 1 is an input video signal
  • 2 is texture data
  • 3 is a motion detection unit
  • 4 is a motion parameter
  • 5 is a motion compensation unit
  • 6 is a predicted image candidate
  • 7 is a prediction mode selection unit.
  • FIG. 2 is a flowchart showing the operation flow of the encoding apparatus.
  • a plurality of, for example, three memories are selectively used according to importance based on image characteristics such as a motion amount and chromaticity of an input moving image, and an arbitrary memory (area) at an arbitrary time interval, for example, Provide a mechanism to update the contents of memory a and. Also, it is assumed that the moving image sequence is input in frame units.
  • the coding apparatus inputs a frame representing an image at each time of a moving image sequence in units, and the frame is divided into macroblocks, which are coding units, which are examples of a predicted image area (step S 1).
  • an image that has been decoded in the past or an image that has been fixedly given in advance is accumulated.
  • three memories are used according to the importance of the partial area in the frame. Use them properly as follows.
  • An image region of low importance stored in the memory a can be considered as a background image region appearing in a video conference scene or the like. It also corresponds to a background area in a scene that includes a subject with a certain slight movement and that includes a uniform movement of the entire screen by camera operation. For these movements, it is more efficient to obtain the motion of the entire frame in advance than a small unit called a macroblock, and use that as the macroblock motion. That is, a deformation parameter corresponding to the moving parameter in the split described in the conventional example is obtained, and the deformation parameter of the entire frame is regarded as a motion parameter of each macroblock.
  • the motion parameter may be a simple translation parameter (synonymous with the motion vector), an affine including a deformation, a perspective motion parameter, or the like.
  • the motion vector is an example of a motion parameter.
  • the image area of medium importance stored in the memory b is, for example, an image area of a person whose body is moving without speaking in a video conference scene, and is considered to be a subject area with low interest on the screen be able to.
  • the image region of high importance stored in the memory c can be considered as a subject region that has a high degree of interest even if a speaker is present in a video conference scene, for example.
  • the motion detector 3 in this embodiment removes the distinction between the motion vector and the convergence parameter as in the conventional example, and removes all three memories. , An arbitrary deformation parameter can be detected for each macroblock.
  • the motion detection unit 3 detects global motion parameters for detecting deformation parameters of the entire frame using the memory a, and local motion parameters for detecting deformation parameters for each macroblock using the memories a to c. It has a detection function.
  • FIG. 3 shows the internal configuration of the motion compensation unit 5 in this embodiment.
  • 22 is a predicted image memory address calculation unit
  • 23 is a predicted image memory address
  • 24 is a memory read unit
  • 25 is a reference memory instruction signal given from the outside.
  • the reference memory indication signal 25 indicates that the memories a, b, and c are used.
  • a flowchart showing the operation of the motion compensation unit 5 is shown in steps S11 to S16 in FIG.
  • step S11 if it is an I (Intra) -frame, no motion compensation is performed (step S11). If it is not an I-frame, a predicted image candidate is generated based on the global motion parameters detected by the motion detection unit 3 and the local motion parameters based on each memory (steps S12 to S15). Specifically, the predicted image memory address calculation unit 22 calculates the predicted image memory address 23 where the predicted image candidate in the memory indicated by the reference memory instruction signal 25 exists based on the motion parameter 4. The memory read unit 24 calculates the predicted image memory address 23 from the corresponding memory, and outputs the predicted image candidate 6 from the corresponding memory.
  • any of the predicted image generations can share and use the compensation unit 5 of FIG.
  • the predicted image candidate 6 is generated using the global motion parameter (step S15) Always uses memory a as the reference memory.
  • the prediction mode selection unit 7 includes all the prediction image candidates 6 generated by the motion compensation unit 5 and the ) Select the predicted image candidate 6 with the smaller value and output it as the predicted image 9. Also, the prediction mode 8 corresponding to the selected prediction image 9 is output. The information of the prediction mode 8 also includes memory selection information indicating the memory that predicted the selected predicted image 9. The prediction mode 8 is sent to the variable-length coding / multiplexing unit 19, and is encoded in the bit stream 21 as prediction memory indication information 800 with the assigned code length.
  • FIG. 5 shows the internal configuration of the memory update unit 15 in this embodiment.
  • 26 is an activity used for updating the memory a (details will be described later)
  • 27 is a memory a update judging unit
  • 28 is a reference memory selecting unit
  • 29 and 30 are switches
  • 3 1 is image data for updating memory a
  • 32 is image data for updating memory b
  • 33 is image data for updating memory c
  • 34 is global prediction image data for updating memory a.
  • Figure 6 shows the operation flow of memory update.
  • the memory update in the present embodiment follows the following procedure.
  • Memory update When the local decoded image 14 is input, the unit 15 determines the necessity of updating the memory a for the frame to which the local decoded image 14 belongs in the memory a update determining unit 27 (step S 17), and refers to it.
  • the memory used in the prediction is selected in the memory selection unit 28 based on the prediction mode 8 (steps S 18 and S 19), and the reference image in the selected memory is stored in the memory a of the local decoded image 14.
  • the following rules can be applied by using one of the following: image data 3 1 to update memory 3, image data 3 2 to update memory b, image data 3 3 to update memory c, and global prediction image data 3 4 to update memory a.
  • the memory update is performed for each frame in prediction units (macroblock units).
  • Step S22 and S23 Update any frame in memory a (Steps S22 and S23) Add any frame to memory a used for prediction of the image based on the memory a update determination result 100 in Step S17. , Or write the locally decoded image 14 at an arbitrary time interval.
  • the contents of the memory a are the history of the time-invariant image area such as the background image, so it is necessary to update the memory contents unless the contents of the area change largely due to a scene change or large movement of the entire screen. Absent. As described above, moving areas such as the subject are updated sequentially on a frame-by-frame basis, and if a mechanism for updating the contents of memory a at longer time intervals is provided, it is effective in predicting background images that appear and disappear due to the movement of the subject. It is a target.
  • a mechanism for updating the memory a at an arbitrary time interval is provided from the above viewpoint. Specifically, for example,
  • the data serving as the arbitrary update determination criterion as described above is collectively referred to as an activity 26 used for updating the memory a.
  • the memory a update determination unit 27 determines whether to update the contents of the memory a using the activity 26 (step S17).
  • the value of the global motion parameter detected by the motion detection unit 3 is the activity
  • the time stamp of the frame from the timer 181 is:
  • the flag for notifying the scene change detection output from the scene change detection unit 80 corresponds to the activity 26.
  • Step S 2 3 If it is not determined that the contents of the memory a should be updated, the memory a is not updated.
  • the memory a update determination result 10000 in the frame is multiplexed into a bit stream 21 and transmitted to the decoding side so that the same arbitrary update can be performed on the decoding side.
  • FIG. 20 is a diagram showing the bit stream 21 of this embodiment.
  • FIG. 20 conceptually shows how frame data is sequentially encoded and transferred.
  • frame unit The header information is added as additional information of.
  • the memory a update determination result 10000 is multiplexed with the header information and transmitted to the decoding side.
  • macroblock data composing the frame follows.
  • the inside of the macroblock data includes prediction memory indication information 800 indicating a memory used for predicting the macroblock data.
  • the decoding device specifies a memory for predicting a predicted image based on the prediction memory instruction information 800 of each macroblock data, and generates a predicted image.
  • the memory b update information and / or the memory c update information may be transferred to the decoding side together with or instead of the memory a update determination result 100000.
  • the encoding device described above provides a mechanism for efficiently using a plurality of memories according to the content of a moving image sequence, and can improve prediction efficiency.
  • prediction is performed based on arbitrary deformation parameters by using multiple memories depending on the contents and properties of the moving image sequence.
  • an encoding apparatus that can perform efficient moving image prediction that follows, improves prediction efficiency, and reduces the amount of generated encoded data while maintaining the quality of the encoded image.
  • a decoding device that decodes a bitstream encoded based on the prediction method of the present invention can be configured by the same prediction method.
  • the coding apparatus is described in units of macro blocks as an example of the predicted image area.
  • a similar effect can be expected for a device that encodes an image in image units such as an image or in a variable shape block formed of a combination of a plurality of fixed size blocks.
  • global motion parameter detection using the memory a is used. However, it is needless to say that a configuration using only oral motion detection without using this can be applied. . If global motion detection is not performed, it is not necessary to transmit global / local prediction discrimination information as the prediction mode.
  • the memory update by the memory update unit 15 is performed by storing partial areas in the memories a, b, and c, respectively, so that any one of the memories a, b, and c is updated.
  • the memory updating unit 15 uses the memories a, b, and Update two or all of c. For example, if memory a is a frame memory for storing one frame of reference image data, memory b is a static sprite memory without successive updates, and memory c is a dynamic sprite memory with successive updates.
  • the memory b Since the static sprite memory previously stores fixed data as reference image data, the memory b is not updated by the memory update unit 15, but the memory a and the memory c are stored in the same area.
  • the memory update unit 15 updates the memory a and the memory c simultaneously; In this way, when the memories a, b, and c store the reference image data redundantly, the overlapping area is updated in the memory, respectively. Part 15 updates.
  • FIG. 7 shows the internal configuration of the motion compensation unit 5a according to this embodiment.
  • reference numeral 35 denotes a reference memory determining unit.
  • FIG. 8 is a flowchart showing the detailed operation of the motion compensation unit 5a.
  • the reference memory determination unit 35 determines a reference memory based on the value of the motion parameter 4 (step S25).
  • the reference memory determination unit 35 holds an effective motion parameter value range (details will be described later) assigned to each of the memories a, b, and c.
  • an effective motion parameter value range (details will be described later) assigned to each of the memories a, b, and c.
  • the effective motion parameter value range is, for example, when detecting a motion vector, Assuming that the search range is 15 pixels in soil, memory a is predicted in the range of ⁇ 0 to 3 pixels, memory b is predicted in the range of ⁇ 4 to 8 pixels, and memory c is predicted in the range of 9 to 15 pixels. It means the effective search range for each memory, such as using it. However, when a predicted image is generated using global motion parameters, the reference memory is determined to be the memory a. Therefore, the reference memory determination unit 35 is activated only when the oral motion parameters are used. The reason for specifying the memory used for prediction based on the value of the motion vector is based on the assumption that the background image has a small amount of motion, and the higher the attention level, the larger the motion should be. Thus, when specifying the memory used for prediction by the value of the motion vector, it is not necessary to encode and transmit the prediction mode.
  • a predicted image candidate 6 is generated according to the selected reference memory indication signal 25a (from step S26 to step S30). Specifically, the predicted image memory address calculation unit 22 calculates the predicted image memory end address 23 in which the predicted image candidate 6 in the memory indicated by the reference memory instruction signal 25a exists based on the motion parameter 4. Based on the predicted image memory address 23, the memory read unit 24 extracts the predicted image candidate 6 from the corresponding memory and outputs it.
  • any of the predicted image generations can share and use the motion compensation unit 5a in FIG. .
  • the memory a is always used as the reference memory.
  • the effective motion parameter value range may be a fixed value range for each moving image sequence. For example, the effective motion parameter value range may be changed for each frame. When changing for each frame, the effective motion parameter value range of each memory in the frame is Then, the data is multiplexed into a bit stream and transmitted to the decoding side so that the same memory selection can be performed on the decoding side.
  • FIG. 21 is a diagram showing a bit stream 21 of this embodiment. At the beginning of this bit stream, there is header information added for each video sequence. This header information has valid motion parameter value range indication information of each memory. In this way, by specifying the effective motion parameter value range indication information at the beginning of the moving image sequence, the decoding apparatus performs a prediction method using a fixed value range of effective motion parameter value ranges for the moving image sequence. be able to.
  • the effective motion parameter indication information may be included in the header information added for each frame.
  • the encoding device having the configuration of the motion compensation unit 5a described above supplies a mechanism for efficiently using a plurality of memories according to the degree of local motion of a frame, thereby improving prediction efficiency. .
  • variable shapes formed by combining image units such as partial images having an arbitrary shape or a plurality of fixed-size blocks are described.
  • a similar effect can be expected for a device that encodes an image in units of images such as a block.
  • global motion parameter output using the memory a is used.
  • a configuration using only local motion detection without using this is also applicable. Perform global motion detection Otherwise, it is not necessary to transmit the discrimination information of the global prediction as the prediction mode.
  • a decoding device using a predicted image generation unit 100 having exactly the same members as the motion compensation unit 5 described in this embodiment can be configured.
  • the motion compensation unit need only generate a predicted image related to the decoded motion parameter.
  • the motion detection unit 3a in this embodiment outputs a translation amount, an affine parameter, and a perspective parameter as the motion parameter 4a.
  • the memory a is a frame memory for storing one frame of the reference image
  • the memory b is a static sprite memory
  • the memory c is a dynamic sprite memory.
  • FIG. 9 shows the internal configuration of the motion compensation unit 5b.
  • 37 is an affinity parameter
  • 38 is a perspective parameter
  • 39 is a predicted image memory address calculator based on the translation amount
  • 40 is a prediction image memory address calculation unit.
  • 41 is a predicted image memory address calculator based on the perspective parameter.
  • FIG. 10 is a flowchart illustrating a detailed operation of the motion compensator 5b.
  • step S33 [-frame, motion compensation is not performed (step S33). If it is not an I-frame, the prediction image memory address calculators 39 to 41 A predicted image memory address 23 is calculated based on the value of the motion parameter 4a, respectively (step S34).
  • Each predicted image memory address calculation unit performs an address calculation based on the image deformation method assigned to each corresponding memory.
  • memory a has translation parameters
  • memory b has affine parameters with simple transformations such as rotation and enlargement / reduction to some extent
  • memory c has perspective parameters with three-dimensional and complicated movements. Used. These transformation methods can be expressed by the following conversion equations.
  • (x, y) on the two-dimensional coordinates is the pixel position of the original macroblock
  • ( ⁇ ′, y ′) is the pixel position in the memory corresponding to (X, y) by each parameter. That is, the position of ( ⁇ ', y') on the memory is calculated based on these parameters.
  • prediction can be performed from the memory that has the best motion characteristics for each macro block. Forecast calculated from each motion parameter 36, 37, 38 Based on the measured image memory address 23, the memory reading unit 24 extracts the predicted image candidate 6 from the corresponding memory and outputs it (steps S35 to S39).
  • the type of the deformation method of each memory in the frame is multiplexed into the bit stream 21 as motion detection method instruction information and transmitted to the decoding side so that the same motion compensation can be performed on the decoding side. Transmitted.
  • FIG. 22 is a diagram showing a bitstream 21 of this embodiment.
  • the header information added to the beginning of the moving image sequence includes motion detection method instruction information.
  • the type of the modification method used in each memory can be changed, and the motion detection method instruction information indicating this correspondence is sent to the decoding device as header information of the video sequence. In this way, in the decoding device, the type of the deformation method used in each memory can be identified.
  • the type of the identified deformation method is dynamically associated with each memory.
  • the coding apparatus is described in units of macroblocks.
  • variable-shaped blocks composed of image units such as partial images having an arbitrary shape or a combination of a plurality of fixed-size blocks are described.
  • a similar effect can be expected for a device that encodes images in units of images such as locks.
  • global motion parameter detection using the memory a is used. However, it is needless to say that a configuration using only oral motion detection without using this can also be applied. When global motion detection is not performed, it is not necessary to transmit the global local prediction discrimination information as the prediction mode.
  • the case where only the memories a, b, and c are used is shown. Only the memories a and b are used, or the memories a and c are used, or only the memories b and c are used. This may be the case.
  • a decoding device using a predicted image generation unit 100 having exactly the same members as the motion compensation unit 5b described in this embodiment can be configured.
  • the motion compensation unit need only generate a predicted image related to the decoded motion parameter.
  • FIG. 11 shows the configuration of the encoding device according to this embodiment.
  • 42 is an input image frame
  • 43 is an object separation section
  • 44a and 44b are object data
  • 45a and 45b are shape blocks
  • 46a and 46b are Switches
  • 47a and 47b are shape encoders
  • 48a and 48b are compressed shape block data
  • 49a and 49b are locally decoded shape blocks
  • 50a and 50b Is texture data (macroblock)
  • 51a and 51b are motion detectors
  • 52a and 52b are motion parameters
  • 53a and 53b are motion compensators
  • 54a and 54b Is a predicted image candidate
  • 55 a and 55 b are prediction mode selection sections
  • 56 a and 56 b are prediction mode information
  • 57 a and 57 b is a predicted image
  • 58a and 58b are prediction error signals
  • 59a and 59b are texture coding sections
  • 60a and 60b are compressed texture data
  • 61a and 61b are compressed texture data
  • Is a local decoding prediction error signal Is a local decoding prediction error signal
  • 62 a and 62 b are local decoding macro blocks
  • 63 is a memory update unit
  • 64 is memory a
  • 65 is memory b
  • 66 is memory c
  • 67 is memory d and 68 are memories e
  • 69 are memories f
  • 70a and 70b are variable length coding sections
  • 71 is a multiplexing section
  • 72 is a buffer
  • 73 is a bitstream
  • 94 is a bit stream.
  • 88a is an A object encoding unit that encodes an A object
  • 88b is a B object encoding unit that encodes a B object.
  • the object encoding units 88a and 88b have the same internal configuration using the same members.
  • This encoding device inputs an image frame 42, which is divided by an object separating section 43 into objects in coding units.
  • the processing of the object separating unit 43 can be performed by any method.
  • the shape information of the object is sent to the shape encoders 47a and 47b in the form of shape blocks 45a and 45b, which encodes them as compressed shape block data 48a and 48b. It is sent to the variable length coding units 70a and 70b. Similar to the VM coding method, the motion detecting section 51a 51b detects a motion parameter in consideration of the local decoding shape blocks 49a and 49b. Motion parameter detection can be performed using all of the memories a to f for each macro block.
  • the memories a to c are used for the A object encoded in the A object encoding unit 88a, and the memory d is used for the B object encoded in the B object encoding unit 88b. Therefore, f is used for each.
  • the prediction images 57a and 57b and the prediction mode information 56a and 56b are obtained by the sections 55a and 55b.
  • the difference between the original signal or texture data 50a, 50b and the predicted image 57a, 57b is used to obtain prediction error signals 58a, 58b, which are used as the texture coding units 59a, It is encoded by 59b and sent to the variable length encoding units 70a and 70b.
  • the locally decoded prediction error signals 61a and 6lb are added to the predicted images 57a and 57b to be locally decoded macroblocks 62a and 62b, which are instructed by the memory update unit. Therefore, data is written from memory a to f.
  • the AZB object data encoded in the A / B object encoding sections 88a and 88b is multiplexed into one bit stream 73 by the multiplexing section 71, and Is transmitted via
  • the motion compensators 53a and 53b in this embodiment generate predicted image candidates based on the motion parameters 52a and 52b detected by the motion detectors 5la and 51b.
  • FIG. 12 shows the internal configuration of the motion compensation unit 53a. Also, a flow chart of the operation of the motion compensation unit 5.3 a in A object coding section 8 8 a shown in FIG 3. It should be noted that the motion compensating section 53b has the same configuration and operates similarly.
  • reference numeral 74a denotes a B object reference determining unit
  • reference numeral 75a denotes a B object reference instruction flag
  • the motion parameter 52a includes the memory information used for the detection.
  • the predicted image memory address A predicted image candidate is generated using the address calculation unit 22a and the memory reading unit 24a (from step S44 to step S49).
  • the B object reference determination unit 74a determines from the memory information referred to in the motion parameter 52a whether or not the memory for the B object is used for predicting the macro block. (Step S43).
  • the B object reference determination section 74a outputs the determination result as a B object reference instruction flag 75a, and the decoding side reproduces the object alone using only its own memories a, b, and c. It is multiplexed into bitstream 73 and transmitted to the decoding side for use in determining whether it can be performed.
  • its own prediction memory (a, b) is used to detect the motion parameters so that the object can always be played back alone on the decoding side with the signal 85a given from the outside. , C, only) can be controlled.
  • an apparatus for encoding an object in units of macroblocks has been described.
  • a partial image having an arbitrary shape or a variable-shaped block constituted by a combination of a plurality of fixed-size blocks is used.
  • the same effect can be expected for a device that performs encoding in units of .
  • the decoding device using the same components as the motion compensation units 53 a and 53 b described in this embodiment can also be configured. it can.
  • the motion compensation unit 53 only needs to generate only a predicted image related to the decoded motion parameter. It also decodes the bits corresponding to the reference flags 75a and 75b from the bitstream to other objects, and decodes the object being decoded. If it is configured to recognize whether the object can be played back alone, it will be possible to decode and play back the object data without error.
  • Embodiment 5 Embodiment 5
  • an embodiment of an encoding apparatus having a configuration in which the number or capacity of memories can be freely changed in response to a temporal change of a moving image object will be described.
  • an encoding device in which the configuration of the memory updating unit 15 in the encoding device having the configuration shown in FIG. 1 is replaced will be considered.
  • FIG. 14 shows the internal configuration of the memory update unit 15a in this embodiment.
  • reference numeral 76 denotes a memory expansion determination unit
  • 77 denotes a memory expansion instruction signal
  • 78 denotes a memory reduction determination unit
  • 79 denotes a memory reduction instruction signal.
  • FIG. 15 shows an operation flow of the memory updating unit 15a (from step S51 to step S63).
  • the prediction efficiency after the scene change will deteriorate with only the reference image contained in the existing memory. There is. In such a case, a scene change is detected by the scene change detection unit 80, and the frame immediately after the scene change is subjected to intra-frame encoding and the like, and is additionally stored in the memory as a new reference image. If possible, the subsequent prediction efficiency can be improved.
  • the memory updating unit 15a measures the frequency used for each memory area prediction for memories a, b, and c based on the prediction mode 8, and the memory updating unit releases the less frequent memory area from the used area.
  • the encoding device is configured by software. In such cases, limited RAM (random access memory) resources can be used effectively.
  • the memory update unit 15a in this embodiment increases the memory area according to the temporal change situation of the moving image sequence, or degenerates the memory area including the reference image that is rarely used for prediction. Function.
  • step S50 whether or not the memory a can be updated is determined by the memory a update determination unit 27 (step S50).
  • the locally decoded image 14 is written into the memory a (step S50).
  • step S56 step S57).
  • step S51 to S55 the prediction mode 8
  • the memory expansion determination unit 76 determines whether to increase the capacity of the memory a (or the memories b and c) based on the activity 26 used to update the memory a (from step S58 to step S58). 60). If it is determined that the capacity should be increased by a sequence or the like, the memory expansion is instructed by the memory expansion instruction signal 77. In addition, the memory degeneracy determination unit 78 counts the memory area used for prediction based on the prediction mode 8, and issues a memory degeneration instruction for a memory area that is used for prediction only for a predetermined number of times or less. The degeneration of the memory is instructed by the signal 79 (from step S61 to step S63).
  • an apparatus for encoding a frame in macroblock units has been described.
  • the apparatus is configured by combining an image unit such as a partial image having an arbitrary shape or a plurality of fixed-size blocks.
  • a similar effect can be expected for an apparatus that encodes an image in units of an image such as a variable-shaped block area to be obtained.
  • FIG. 23 shows the embodiment shown in FIG. The difference between the transmission bitstream 21 of FIG. 1 and the transmission bitstream 21 of the present embodiment will be described.
  • the example shown in FIG. 23 shows a case where the memory used for prediction is changed for each frame, and the prediction memory instruction information 800 is included in the header information for each frame.
  • the example shown in FIG. 23 is effective, for example, when the video properties of the moving image sequence do not constantly change and the local change of the macroblock level is small.
  • a decoding device that decodes the bitstream encoded as described above and reproduces a frame or a moving image object can be configured.
  • a decoding device that decodes the bit stream encoded as described above and reproduces a frame or a moving image object can be configured.
  • feature amount parameters that prescribe the spatial complexity, the degree of gaze, and the like of the image region as a unit for performing prediction are detected in advance, and these are detected. It is possible to adopt a configuration that is used as a judgment criterion when determining the prediction mode and updating the memory.
  • a moving image that includes complex motion and is difficult to perform encoding to achieve acceptable quality within a given amount of code.
  • the importance is determined for each predicted image area (macroblock, arbitrarily shaped image area, arbitrarily shaped block, etc.), and the quality of low importance areas is reduced to some extent.
  • a feature parameter indicating the importance of a predicted image area is detected, and the memory is dynamically used based on the parameter.
  • an area importance detection unit 95 that detects feature amount parameters for each area and determines the importance is provided.
  • the region importance detection unit 95 transmits the region importance to the prediction mode selection unit 7a, and also transmits the quantization parameter based on the region importance to the texture encoding unit 11a.
  • the region determined to be high in importance by the region importance detection unit 95 performs prediction using the most complicated mode among a plurality of prediction modes prepared. For example, using the reference images from the memories a, b, and c, a motion parameter and a prediction image based on a complex motion model are obtained, and any combination (such as averaging) of these prediction images can be obtained.
  • the prediction mode having the highest prediction efficiency is selected in the prediction mode selection unit 7a.
  • the texture encoding unit 11a performs encoding using a quantization parameter with a small quantization step width.
  • prediction is performed by a simple prediction mode (parallel movement amount detection using only one memory), and a small code amount is obtained regardless of the amplitude of the obtained prediction error signal. Coding is performed using the coarse quantization parameter of the quantization step.
  • Embodiment 9 In a device that predicts and encodes a moving image sequence using a plurality of memories, the amount of code that can be used at each time of the moving image sequence or the amount of change in the scene at that time (such as scene change detection) A parameter such as a feature amount or importance of the predicted image area as described in Embodiment 8 is detected, and these values are used in a prediction method or a reference memory that can be used for predicting an image at the time. It can be configured to be used as a criterion scale when selecting a region. For example, as shown in FIG. 17, a frame importance detection unit 96 that determines the importance in frame units is provided, and the amount of change of the frame with respect to the previous frame (from the scene change detection unit 80).
  • a total code amount usable as a sequence each moving object
  • the amount of code that can be used at each time of the video, the amount of change in the video object at that time (appearance, concealment, etc. of the object), the importance of each video object in the scene Parameters such as the feature level and importance of the predicted image area as described in the eighth and ninth embodiments, and these values are used for predicting the moving image object at the time. It is possible to adopt a configuration that can be used as a prediction method that can be used or as a determination scale when selecting a reference memory area.
  • importance level detection units 97a to 97n corresponding to each of the objects 1 to n are provided, and the change amount of each object at each time is represented by the appearance and concealment of the object. Detects parameters indicating presence / absence, etc., as well as the occupancy of the entire buffer 72 X that stores the encoded data of all objects, and the occupancy of the virtual buffers 72 a to 72 n of each object. Considering the above, the importance of the object is determined at each time. For example, if a new type of area appears as a result of an object being partially overlapped with another object, this has a large effect on the prediction efficiency in the future, so there is some room in the virtual buffer for the object.
  • Importance detected by the importance detectors 97a to 97n are passed to the objects 1 to N encoding units 98a to 98n, and are prepared for objects with higher importance.
  • Using all prediction methods and reference memory area It is possible to consider a device configuration in which the prediction efficiency is improved to a large extent, the prediction method and reference memory area are limited for objects of low importance, and the encoding process is simplified to reduce the processing amount.
  • a device that separates and encodes objects from a frame in real time does not perform prediction when the contents of the object change significantly due to the appearance of a new object or the concealment of an existing object.
  • a device that performs all intra-frame coding is also conceivable. Further, if the region importance detection unit 95 described in Embodiment 8 is also used in the object 1 to N encoding units 98 a to 98 ⁇ , finer quality can be obtained for each predicted target region unit in the object. Control can be performed. By performing the above control, the quality of low importance objects is reduced to some extent, but the quality of high importance objects is maintained by advanced prediction, and the overall quality is given by the given code amount. Can be improved.
  • a prediction information encoding unit 91 that performs code assignment (encoding) of encoding information (for example, a reference memory number) related to prediction may be provided.
  • the plurality of memories are ranked according to the frequency of use of the memory used for the prediction.
  • the ranking of parentheses can be dynamically changed during encoding, and the code assignment of the encoding information (such as the reference memory number) related to prediction in the prediction information encoding unit 91 is used for prediction. It is possible to adopt a configuration in which execution is performed according to the ranks of a plurality of memories.
  • a counter 92 is provided for counting the frequencies used for the predictions 3 , 4 , and c, and the memories a, b, and c are ranked according to the count value, and rank information 90 is output.
  • This ranking may be performed, for example, on the basis of an image (V0P) at a certain time of one frame or a moving image object, or on a predicted image area (macro block, arbitrary shape area, arbitrary shape) which is a finer unit. It can be done every time.
  • the memory that is frequently used for prediction is the one that has high importance in performing prediction, and the higher the frequency of reference, the higher the rank.
  • the motion parameters detected in each predicted image area unit can be assigned a code length corresponding to the rank of the referenced memory, a short code length is assigned to the frequently occurring motion parameter values. It is possible to efficiently encode prediction information.
  • These mechanisms are configured such that the prediction information coding unit 91 of the variable length coding / multiplexing unit 19 receives the rank of each memory from the counter 92 of the memory updating unit 15 and the rank information 9 This can be realized by a configuration in which prediction information is encoded by changing the code length based on 0. Embodiment 1 2.
  • FIG. 24 shows a configuration of an image decoding apparatus according to the present embodiment that decompresses and reproduces a compressed and encoded digital image.
  • 2 1 is an encoded bit stream
  • 1 19 is a variable length decoding unit
  • 1 2 is a quantized DCT coefficient
  • 1 2 a is a quantized orthogonal transform coefficient
  • 1 2 b is a quantization step
  • 1 1 1 is a texture decoding unit
  • 1 1 a is an inverse quantization unit
  • 1 1 b is an inverse orthogonal transform unit
  • 1 9 0 is a decoding addition unit
  • 1 0 1 is a decoded image
  • 1 9 1 is a display control unit
  • 8 is prediction mode
  • 1001 is memory b update information
  • 1002 is memory c update information
  • 4 is motion vector (motion parameter)
  • 800 is prediction memory instruction information
  • 195 is The position in the screen of the predicted image area
  • 105 is the motion compensation unit
  • 116 is the memory a
  • a memory update unit 1 15 is a memory update unit
  • 106 is a predicted image.
  • the motion compensation unit 105 and the memory update unit 115 constitute a predicted image generation unit 100a.
  • a memory area 200a is constituted by the memories a, b, and c.
  • the memory a is a frame memory for storing one frame of image data
  • the memory b is a static sprite memory
  • the memory c is a dynamic sprite memory.
  • the decoding device receives the bit stream 21 shown in FIG.
  • the memory update information 1001 and the memory c update information 1002 are sent in the bitstream.
  • the memory b update information 1001 includes an update instruction for entirely updating the static-split memory and image data for entirely updating the static-split memory.
  • the memory c update information 1002 includes an update instruction for completely updating the dynamic sprite memory and image data for entirely updating the dynamic sprite memory.
  • the bit stream 21 is analyzed in the variable length decoding unit 119, and is divided into individual encoded data.
  • the quantized orthogonal transform coefficient 1 2a is sent to the inverse quantization unit 1 19a and is inversely quantized using the quantization step 12b. This result is inverse orthogonal
  • the texture is decoded by inverse orthogonal transform in the conversion unit 111b, and is sent to the decoding addition unit 190.
  • the orthogonal transform used is the same as that used on the encoder side, such as DCT (discrete cosine transform).
  • the motion compensation unit 105 includes a motion vector 4 decoded from the bit stream 21 by the variable length decoding unit 119, prediction memory instruction information 800, and a position 1 in the screen of the predicted image area. Information indicating 95 is input.
  • the motion compensation unit 105 extracts a desired predicted image from the reference images stored in the plurality of memories a, b, and c according to these three types of information.
  • the in-screen position 195 of the predicted image area can be calculated by counting the number of macroblocks, not the information contained in the bit stream. The process of generating a predicted image will be described in detail in the following description of the operation of the motion compensation unit 105.
  • the decoding addition unit 190 performs the intraframe-encoded block based on the information of the prediction mode 8.
  • the output of the inverse orthogonal transform unit 111b is output as it is as a decoded image 101, and if the block is inter-frame encoded, the output of the inverse orthogonal transform unit 111b is the predicted image 106. Are added and output as a decoded image 101.
  • the decoded image 101 is sent to the display control unit 191 and output to the display device, and is written to the memories a to c for use as a reference image in the subsequent decoding processing. Writing to the memory is controlled by the memory update unit 115 based on the prediction mode 8.
  • the image prediction method is determined based on the prediction memory instruction information 800.
  • predetermined coordinate conversion processing and interpolation processing are performed to generate a predicted image from the reference image. Generate a prediction image. Coordinate conversion method It is assumed that it is associated with the memory used for prediction. For example, an example of the following deformation method that is the same as the image deformation method described in the third embodiment can be considered.
  • the coordinates of each pixel in the region to be predicted are translated in parallel by the motion vector, and the image data at the corresponding position in the memory a is extracted as a predicted image.
  • An affine transformation formula is obtained based on the motion vector, the coordinates of each pixel in the region to be predicted are displaced by the transformation formula, and image data at a corresponding position in the memory c is extracted as a prediction image.
  • a perspective transformation formula is obtained based on the motion vector, and the coordinates of each pixel in the region to be predicted are displaced by the conversion formula, and image data at a corresponding position in the memory b is extracted as a predicted image.
  • FIG. 25 shows the internal configuration of the motion compensation unit 105.
  • 16 1 is a switch
  • 16 2 is a corresponding point determining unit for memory a
  • 16 3 is a corresponding point determining unit for memory b
  • 16 4 is a corresponding point determining unit for memory c
  • 1 65 Is a memory read address generation unit
  • 166 is a switch
  • 167 is an interpolation processing unit.
  • FIG. 26 is a flowchart showing the operation.
  • the switch 16 Select the corresponding point determination unit for the corresponding memory, and input the motion vector 4 to the selected corresponding point determination unit.
  • the predicted image position corresponding to each memory is calculated. In the following, description will be made for a memory.
  • the predicted image position is calculated by the parallel movement using the motion vector (step S101). Specifically, the motion vector (a, b) is used to determine the predicted image position ( ⁇ ′, y ′) for the pixel at the position (x, y) in the predicted image area using the following equation.
  • the determined predicted image position is output to the memory read address generator 165.
  • the affine transformation formula is determined based on the motion vector 4. Specifically, the affine parameters (a, b, c, ⁇ ) of the following equation are determined using the motion vectors of the vertices of the rectangular area surrounding the predicted image area.
  • a predicted image position (x ′, y ′) for the pixel at the position (x, y) in the predicted image area is obtained and output to the memory read address generation unit 165 (step S 104).
  • Predicted memory instruction information 800 indicates memory c (step S106)
  • the perspective transformation formula is determined based on the motion vector. Specifically, The perspective parameters (a, b, c, d, e, f) of the following equation are determined using the motion vectors of the vertices of the rectangular area surrounding the measurement area.
  • a predicted image position (x ′, y ′) for the pixel at the position (x, y) in the predicted image area is obtained and output to the memory read address generation unit (step S 107).
  • the memory read address generation unit 165 Based on the predicted image position ( ⁇ ′ y ′) output from the selected corresponding point determination unit, the memory read address generation unit 165 generates a predicted image in the reference image stored in the memory. A memory address for specifying the position of the image data is generated, and the predicted image generation data is read (steps S102, S105, S108).
  • the predicted image generation data is directly used as the predicted image constituent pixel.
  • an interpolation pixel value is generated by the interpolation processing unit 167 by the interpolation processing of the data for generating the predicted image (steps S109 and S111). 0, S 1 1 1).
  • the generation of the inner pixel value is shown in FIG. In FIG. 26, (i P , j P ) indicates an integer pixel position, (i ′, j ′) indicates a pixel position with real precision, and w indicates a weight.
  • FIG. 28 shows a flowchart of the control of the memory updating unit 115.
  • the memory update unit 115 controls updating of each memory in units of predictive image retrieval (for example, macroblock units) based on the prediction mode 8 (or prediction memory instruction information 800).
  • the contents of the memories a and c are sequentially updated with the decoded image 101 (step S113).
  • the reference image of the memory b is not updated in the unit of extracting the predicted image.
  • the contents of the memories a and c are sequentially updated by the decoded image 101 (step S115).
  • step S116 when an update instruction is received from the memory b update information 1001, image data included in the memory b update information 1001 is received, and the entire contents of the memory b are updated (step S116).
  • step S117 When the prediction is performed using the memory c (step S117), the contents of the memories a and c are sequentially updated by the decoded image 101 (step S118).
  • step S119 When an update instruction is received by the memory update information, the image data included in the memory c update information 1002 is received, and the content of the memory c is updated (step S119).
  • memories a and b that is, a frame memory and a static sprite memory may be used.
  • memories a and c that is, a frame memory and a dynamic sprite memory may be used.
  • various types of motion parameters In addition to being able to decode the coded bitstream 21 that has been efficiently predicted by using, the system can arbitrarily update the content of the reference image at the timing determined by the encoding side, so It is possible to perform a decoding process adapted to the property.
  • the motion compensation unit even if a bitstream in which a prediction error signal is encoded by another encoding method other than the orthogonal transform encoding, the motion compensation unit A similar effect can be obtained by changing members other than the memory update unit for the prediction error signal decoding process.
  • the present embodiment can be applied not only to a decoding device using a frame of a normal television signal as a unit for performing decoding processing on a fixed-size block basis, but also restricting a region to be predicted to a fixed-size block.
  • the present invention can also be applied to a decoding device using an arbitrary shape image object (eg, Video Object Plane disclosed in ISO / IEC JTC1 / SC29 / WG11 / N1902).
  • the images can be distributed and stored in the memory according to the properties of the moving image sequence. Since the contents of one or more of the memory areas can be updated at any time, the invariant image contents such as the background image are not updated for a long time, and the image areas that change locally are frequent. This makes it possible to perform control such as updating the contents of the memory, and to make efficient predictions using the history of the moving image sequence.
  • a deformation parameter range in which each memory area is valid is set in each of the plurality of memory areas, and the memory area is switched according to the value of the deformation parameter of the predicted image area and used for prediction.
  • Efficient prediction can be performed according to the magnitude of local motion in the local sequence.
  • the motion parameters to be encoded for each predicted image area can be efficiently encoded within the effective motion parameter value range of the reference memory area.
  • a deformation method that is effective in each memory is set, and prediction can be performed by switching the memory according to the type of deformation parameter of the predicted image area.
  • Global movement Efficient prediction can be made according to complexity.
  • the deformation method can be appropriately selected according to the nature of the motion of the predicted image area, the motion parameters can be efficiently coded.

Description

明 細 書 動画像予測方式 技術分野
この発明は、 例えば、
テレビ電話 ·テレビ会議などの画像通信用途に用いられる携帯および据 置型画像通信機器などで用いられる動画像符号化 Z復号装置、
デジタル VTR、 ビデオサーバ一などの画像蓄積 ·記録装置などで用いら れる動画像符号化 復号装置、
単独ソフ トウェアもしくは DSP (Digi tal Si gnal Processor) のファー ムウェアの形で実装される動画像符号化 Z復号プログラム
などに用いられる動画像の予測に関するものである。 背景技術
従来の動画像の符号化 復号方式における予測符号化 復号の例とし て、 ISO/IEC JTC1/SC29/WG11にて標準化作業がすすめられている MPEG - 4
(Moving Picture Experts Group Phase - 4)のビデオ符号ィ匕 復号参照方 式(Verif ication Model , 以下 V M)があげられる。 VMは MPEG-4の標準 化作業の進行に伴って方式の内容が変化しているが、 ここでは VM Vers i on5. 0を想定し、 以下単に VMと表現する。
V Mは動画像シーケンスを時間 //空間的に任意の形状をとる画像ォブジ ェク トの集合体としてとらえ、 各画像オブジェク トを単位として符号化 /復号を行う方式である。 VMにおけるビデオデータ構造を図 2 9に示す 。 VM は時間軸を含めた動画像ォブジェク トを Video Ob ject (V0)と呼び 、 V0の各時刻の状態を表し符号化の単位となる画像データを Video Obje ct Plane (VOP)と呼ぶ。 VOが時間的/空間的に階層性を持つ場合、 特別 に V0と V0Pの間に Video Object Layer (VOL)なる単位を設けて VO内の階層 構造を表現するようになつている。 各 V0Pは形状情報とテクスチャ情報 とに分離される。 ただし、 動画像シーケンス中で V0が 1つの場合、 各 V0 Pはフレームと同義となる。 この場合は形状情報は存在せず、 テクスチ ャ情報だけが符号化 Z復号される。
V0Pは図 3 0に示すように、 形状情報をあらわすアルファデータとテ クスチヤ情報をあらわすテクスチャデータからなる構造を持つ。 各デー タは、 それぞれ 16x 16サンプルからなるブロック (アルファブロック、 マクロブロック) の集合体として定義される。 アルファブロ ック内の各 サンプルは 8ビッ トで表現される。 マクロブロックは、 16x16サンプノレの 輝度信号に付随してそれに対応する色差信号を含む。 動画像シーケンス から V0Pデータを作り出す処理は本符号化装置外で行われるものとする 図 3 1は VM符号化 Z方式による V0P符号化装置の構成を示したもので ある。 同図において、 P 1は入力となる原 V0Pデータ、 P 2は V0Pの形状 情報をあらわすアルファブロック、 P 3 aは入力された原 VOPデータの 形状情報の有無を伝えるためのスィツチ、 P 4はアルファブロックを圧 縮符号化する形状符号化部、 P 5は圧縮アルファブロックデータ、 P 6 は局所復号アルファブロック、 P 7はテクスチャデータ(マクロブロッ ク)、 P 8は動き検出部、 P 9は動きパラメータ、 P 1 0は動き補償部 、 P 1 1は予測画像候補、 P 1 2は予測モード選択部、 P 1 3は予測モ ード、 P 1 4は予測画像、 P 1 5は予測誤差信号、 P 1 6はテクスチャ 符号化部、 P 1 7はテクスチャ符号化情報、 P 1 8は局所復号予測誤差 信号、 P 1 9は局所復号マクロブロック、 P 2 0はスプライ トメモリ更 新部、 P 2 1 は V0Pメモリ、 P 2 2はスプライ トメモリ、 P 2 3は可変 長符号化 '多重化部、 P 2 4はバッファ、 P 2 5は符号化ビッ トス ト リ ームである。
また、 図 3 2にこの符号化装置の動作を要約したフローチヤ一トを示 す。
図 3 1 の符号化装置において、 原 V0Pデータ P 1はまずアルファブロ ック P 2、 マクロブロック P 7に分離され (ステップ P S 2、 ステップ P S 3 ) 、 アルファブロック P 2は形状符号化部 P 4へ、 マクロブロッ ク P 7は動き検出部 P 8へ送られる。 形状符号化部 P 4はアルファプロ ック P 2のデータ圧縮を行う処理ブロック (ステップ P S 4 ) であり、 この発明は形状情報の圧縮方法に関わるものではないので、 その処理の 詳細はここでは省略する。
形状符号化部 P 4の出力は圧縮アルファデータ P 5と局所復号アルフ アブロック P 6で、 前者は可変長符号化 .多重化部 P 2 3に送られ, 後 者は動き検出部 P 8、 動き補償部 P 1 0、 予測モード選択部 P 1 2、 テ クスチヤ符号化部 P 1 6にそれぞれ送られる。
動き検出部 P 8 (ステップ P S 5 ) は、 マクロブロック P 7を受け取 り、 V0Pメモリ P 2 1 に蓄積されている参照画像データと局所復号アル ファブロック P 6を用いて、 マクロブロックごとにローカルな動きべク トルを検出する。 ここで、 動きべク トルは動きパラメータの一例である 。 V0Pメモリ P 2 1には、 すでに符号化された V0Pの局所復号画像が蓄積 される。 V0Pメモリ P 2 1の内容は、 マクロブロックの符号化が終わる ごとに逐次その局所復号画像で更新される。 さらに動き検出部 P 8は、 原 V0Pのテクスチャデータ全体を受け取り、 スプライ トメモリ P 2 2に 蓄積されている参照画像データと局所復号アルファデータを用いてグロ 一バルなヮービングパラメータを検出する機能も併せ持つ。 スプライ ト メモリ P 2 2については後で詳しく述べる。 動き補償部 P 1 0 (ステップ P S 6) は、 動き検出部 P 8で検出した 動きパラメータ P 9と局所復号アルファプロック P 6を用いて予測画像 候補 P 1 1を生成する。 次いで、 予測モード選択部 P 1 2において、 予 測誤差信号電力と原信号電力とを用いて当該マクロプロックの最終的な 予測モード P 1 3および予測画像 P 1 4を決定する (ステップ P S 7) 。 予測モ一ド選択部 P 1 2ではィントラフレーム符号化/ィンターフレ —ム符号化のいずれかの符号化かという判定も行われる。
テクスチャ符号化部 P 1 6では、 予測モード P 1 3に基づいて、 予測 誤差信号 P 1 5または原マクロブロックそのものを DCT (Discrete Cosi ne Transform) 、 量子化し、 得られた量子化 DCT係数を予測後、 または 直接、 可変長符号化 · 多重化部 P 2 3へ送り符号化する (ステップ P S 8, ステップ P S 9) 。 可変長符号化部 .多重化部 P 23は、 あらかじ め定められたシンタックスと可変長符号化コードとに従い、 受け取った データをビッ トス トリームに変換して多重化する (ステップ P S 1 0) 。 量子化 DCT係数は、 逆量子化、 逆 DCTを経て局所復号予測誤差信号 P 1 8にされた後、 予測画像 P 1 4と加算され局所復号マクロプロック P 1 9を得る (ステップ P S 1 1 ) 。 局所復号マクロブロック P 1 9は V0P メモリ P 2 1およびスプライ トメモリ P 2 2に書き込まれ、 以降の V0P の予測に用いられる (ステップ P S 1 2) 。
以下では、 予測を行う部分、 特に予測方式と動き補償、 スプライ トメ モリ P 2 2および V0Pメモリ P 2 1の更新制御について詳しく説明する
(1 ) VMにおける予測方式
VMでは通常、 図 3 3に示すように 4種類の V0Pの符号化タイプがあり 、 それぞれのタイプごとに〇で示される予測方式をマクロブロックごと に選択できる。 I-V0Pでは予測をまったく行わず、 すべてイントラフレ ーム符号化する。 P- V0Pは過去の V0Pからの予測を行うことができる。 B- V0Pは、 過去および未来の V0Pを予測に使用できる。
以上の予測はすべて動きべク トルによる予測である。 一方、 Sprite- V OPはスプライ トメモリを用いた予測が可能である。 スプライ トとは、 下 式
X = (a x + b y + c)/(,g x + h y + U
y' = (d X + e y + f ) / (g x + h y + 1)
に示すヮーピングパラメータセッ ト
二 (a, b, c, d, e, f , g, h)
を VOP単位に検出し (→はベク トルを示す。 以下、 同じ) 、 これに基づ いて V0Pを順次混合していくことにより生成する画像空間であり、 スプ ライ トメモリ P 2 2に蓄積される。
ここで、 (X, y)は原 V0Pの 2次元座標上での画素位置、 (x, , y' )は ヮービングパラメ一タによって(X, y)に対応付けられるスプライ トメモ リ中の画素位置である。 Sprite-VOPの各マクロブロックでは、 このヮー ビングパラメータセッ トを統一的に用いて、 スプライ トメモリ中の(χ' , y' ;)を決定して予測画像を生成して予測を行うことができる。 厳密に は、 スプライ トには、 予測に用いる 「ダイナミックスブライ ト」 と、 予 測に用いるとともに、 復号側で近似的に V0Pを合成する目的で用いる 「 スタティックスプライ ト」 の区別があるが、 以下に述べる図 3 4〜図 3 7では、 ダイナミックスブライ トを 「スプライ ト」 の意味で用いる。 動き検出部 P 8では、 以上の予測に用いる動きべク トルおよびヮーピ ングパラメ一タを検出する。 動きべク トルおよびヮービングパラメータ を動きパラメータ P 9という言葉で総称する。
(2).動き補償部
動き補償部 P 1 0は例えば図 34に示すような内部構成をとる。 同図 において、 P 2 6はヮ一ビングパラメータ、 P 2 7は動きベク トル、 P 2 8はグローバル動き補償部、 P 2 9は口一カル動き補償部、 P 3 0は ヮービングパラメータによる予測画像候補、 P 3 1は動きべク トルによ る予測画像候補である。 予測画像候補 P 1 1 をヮービングパラメータに よる予測画像候補 P 3 0および動きべク トルによる予測画像候補 P 3 1 を総称する言葉とする。
動き補償部 P 1 0の動作を要約するフローチヤ一トを図 3 5のステツ プ P S 1 4からステップ P S 2 1に示す。
動き補償部 P 1 0では、 マクロブロック P 7ごとに動き検出部 P 8で 検出された V0P全体のヮービングパラメータ P 2 6またはマクロブロッ ク単位の動きべク トル P 2 7を用いて予測画像候補 P 1 1を生成する。 グローバル動き補償部 p 2 8においてヮービングパラメータ P 2 6を用 いた動き補償を行い、 口一カル動き補償部 P 2 9において動きべク トル P 2 7を用いた動き補償を行う。
I- V0Pでは動き補償部 P 1 0は動作しない (ステップ P S 1 4からス テツプ P S 2 1へ行く) 。 I - V0P以外のとき、 ローカル動き補償部 P 2 9が動作し、 動きベク トル P 2 7を用いて V0Pメモリ P 2 1内の過去の V 0P局所復号画像から予測画像候補(PR1)を取り出す (ステップ P S 1 5 ) 。 P - V0Pではこの予測画像候補(PR1)のみを用いることになる。
ステップ P S 1 6で B - V0Pであるとされた場合は、 さらにローカル動 き補償部 P 2 9において、 動きベク トル P 2 7を用いて V0Pメモリ P 2 1内の未来の V0P局所復号画像から予測画像候補(PR2)を取り出すととも に (ステップ P S 1 7 ) 、 過去および未来の V0P局所復号画像から得た 予測画像候補を加算平均して予測画像候補(PR3)を得る (ステップ P S 1 8 )— 。
また、 ダイレク ト予測(ITU- T勧告 H. 263符号化方式における Bフレー ム相当の予測方式に基づく予測。 組になる P- V0Pのべク トルから Bフレー ム用のべク トルを作る。 ここでは詳細の記述は省略する)についても同 様に予測画像候補(PR4)を生成する (ステップ P S 1 9 ) 。 図 3 4にお いて、 動きべク トルによる予測画像候補 P 3 1は上記予測画像候補 PR1 から PR4の一部またはすベてを総称するものとする。
I-V0Pでも B-V0Pでもない場合は Sprite- V0Pであり、 V0Pメモリから動 きべク トルを用いて予測画像候補(PR1)を取り出すとともに、 ステップ P S 2 0でグローバル動き補償部 P 2 8においてヮ一ビングパラメータ P 2 6を用いてスプライ トメモリ P 2 2から予測画像候補 P 3 0を取り 出す。
グ口一バル動き補償部 P 2 8はヮ一ピングパラメータ P 2 6からスプ ライ トメモリ P 2 2中の予測画像候補が存在するァドレスを計算し、 こ れに基づいてスプライ トメモリ P 2 2から予測画像候補 P 3 0を取り出 して出力する。 ローカル動き補償部 P 2 9は動きべク トノレ P 2 7から V0 Pメモリ P 2 1中の予測画像が存在するア ドレスを計算し、 これに基づ いて V0Pメモリ P 2 1から予測画像候補 P 3 1を取り出して出力する。 これらの予測画像候補 P 1 1は、 予測モード選択部 P 1 2においてテ クスチヤデータ P 7のイントラフレーム符号化信号を含めて評価され、 最も予測誤差信号電力の小さい予測画像候補と予測モ一ドが選択される o
( 3 ) メモリ更新
メモリ更新制御 (ステップ P S 1 2 ) はメモリ更新部 P 2 0で行われ 、 V0Pメモリ P 2 1およぴスプライ トメモリ P 2 2の更新を行う。 これ らのメモリ内容の更新は、 マクロプロック単位に選択された予測モ一ド P 1 3に関係なく行われる。
メモリ更新部 P 2 0の内部構成を図 3 6に、 メモリ更新部 P 2 0の動 作を示すフローチヤ一トを図 3 7のステップ P S 2 2からステップ P S
28に示す。
図 3 6において、 P 3 2は外部から与えられる V0P符号化タイプ、 P
3 3はスプライ トメモリを用いた予測をするかしないかを示す、 外部か ら与えられるスプライ ト予測識別フラグ、 P 34はスプライ トメモリを 用いた予測に用いられる、 外部から与えられるブレン ド係数、 P 3 5は スィ ッチ、 P 3 6はスィ ッチ、 P 3 7はスプライ ト合成部、 P 3 8はス プライ ト変形処理部、 P 3 9は V0Pメモリ更新信号、 P 4 0はスプライ ト更新信号である。
まず、 スプライ ト予測識別フラグ P 3 3により、 当該 V0または VOLで スプライ トを使用すると指定されているかどうかがチェックされ (ステ ップ P S 2 2) 、 スプライ トを用いない場合、 B - V0Pかチェックされ ( ステップ P S 27) 、 B- V0Pならば V0Pメモリ P 2 1の更新は全く行わな レ、。 I-V0Pまたは P-V0Pでは、 マクロブロックごとに局所復号マクロブロ ック P 1 9を V0Pメモリ P 2 1に上書きする (ステップ P S 2 8) 。 一方、 ステップ P S 22のチエツクにおいてスプライ トを用いるとさ れた場合は、 まず上記と同様の V0Pメモリ P 2 1の更新が行われた後 ( ステップ P S 23, ステップ P S 24) 、 以下の手順に従ってスプライ トメモリ P 22の更新が行われる。
a ) スプライ トのヮービング (ステップ P S 25 )
まず、 スプライ ト変形処理部 P 3 8において、 スプライ トメモリ上の 領域 (当該 V0Pの時刻を tとしたときの、 スプライ トメモリ上の位置を原 点とする V0Pと同面積の領域)
M ( , t -1)
を、 ヮ一-ピングパラメータ a = ( a , b, c , d, e , f , g, h)
によってヮ一ビング (変形) させる。
b ) スプライ トのブレンド (ステップ P S 2 6 )
上記 a)の結果得られたヮービング画像を用いて、 スプライ ト合成部 P 3 7において、 下式に従って新しいスプライ トメモリ領域
M (→, t ) = ( 1 - α) · W b [M (→, t - 1 ) , ]
+ α · VO ( , t )
r '
を求める。 ここで、
a プレンド係数 P 3 4
W b [M, :上記 (a ) の結果得られるヮービング画像
VO (^, t ) :局所復号 VOPの位置 及び時刻 tにおける画素値 である。
ただし、 局所復号マクロブロック中で V0Pに属さない領域については
VO ( , t ) = 0 とみなす。 ブレンド係数 αは V0P単位で与えられるので、 局所復号 V0Pは 、 V0P領域の内容の如何に閲わらず、 αに基づく比重で、 一括してスプ ライ トメモリに合成される。
以上のような従来の符号化方式における予測方式では、 動画像ォブジ ェク トの予測に際して、 動きべク トルの検出しか行わないメモリとヮー ビングパラメータの検出しか行わないメモリ とを最大 1画面ずつだけし か使用できない構成になっているため、 予測に用いることのできる参照 画像をごく限られた方法でしか使用しておらず、 予測効率を十分に向上 させることができない。
また、 -複数の動画像オブジェク トを同時に符号化するようなシステム においても、 これらのメモリには、 予測される動画像オブジェク ト自身 の履歴を示す参照画像しか含まれないので、 参照画像のバリエーション が限定されるとともに、 動画像オブジェク ト間の相関を利用して予測を 行うことができない。 ·
さらに、 メモリの更新に際しても、 動画像ォブジェク 卜の内部構造や 性質、 履歴等に関係なくメモリが書き換えられるため、 動画像オブジェ ク トを予測する上で重要な知識を十分にメモリに蓄積できておらず、 予 測効率の向上が図れないという問題があった。
この発明は前記問題点を解決するためになされたものであり、 画像デ ータを符号化ノ復号する場合、 複数のメモリを設けて、 動画像シーケン スの内部構造、 性質などを考慮して、 複数のメモリに効果的に動画像シ 一ケンスの履歴を蓄積して、 予測および符号化 Z復号の効率を高めると ともに、 複数の動画像オブジェク ト間で予測が行える構造を設けてより 柔軟な予測方式を提供することを目的とする。 発明の開示
本発明は、 予測に際して参照する画像データを蓄積するとともに、 それ ぞれ個別の変形手法が対応づけられている複数のメモリと、 被予測画像 領域の動きを表現するパラメ一タを入力し、 該被予測画像領域の予測に 用いたメモリに蓄積された画像データを用いて、 上記パラメータと、 該 メモリに対応づけられた変形手法に基づき予測画像を生成する予測画像 生成部とを備え、 少なくとも符号化装置および復号装置のいずれかに用 いられることを特徴とする動画像を予測する動画像予測方式である。 上記符号化装置は、 上記予測画像の生成に用いた該メモリを示す予測 メモリ指示情報信号を生成し、 復号側でも該メモリに蓄積された画像デ ータを用 、て、 該メモリに対応づけられた変更手法に基づき上記予測画 像が生成できるように、 上記予測メモリ指示情報信号と上記パラメータ を復号側へ送信することを特徴とする。
上記復号装置は、 上記パラメータと上記予測画像の生成に用いたメモ リを示す予測メモリ指示情報を符号化側から受け取り、 上記予測画像生 成部は、 上記パラメータと該メモリに対応づけられた変形手法に基づき 、 該メモリに蓄積された画像データを用いて上記予測画像を生成するこ とを特徴とする。
また、 本発明は、 予測に際して参照する画像データを蓄積するととも に、 それぞれ個別のパラメータ有効値域が対応づけられている複数のメ モリ と、 被予測画像領域の動きを表現するパラメータを入力し、 該パラ メータの値を含む上記パラメータ有効値域が対応づけられたメモリを選 択し、 選択されたメモリに蓄積された画像データを用いて予測画像を生 成する予測画像生成部とを備え、 少なく とも符号化および復号のいずれ かに用いられることを特徴とする動画像を予測する動画像予測方式であ る。
また、 本発明は、 予測に際して参照する画像データを蓄積する複数の メモリと、 被予測画像領域の動きを表現するパラメータを入力し、 該パ ラメータに基づいて上記複数のメモリに蓄積された画像データを用いて 予測画像を生成する動き補償部と、 上記複数のメモリの少なく とも 1つ のメモリに蓄積される画像データを任意のタイミングで更新するメモリ 更新部とを有する予測画像生成部とを備え、 少なく とも符号化および復 号のいずれかに用いられることを特徴とする動画像を予測する動画像予 測方式である。
上記動画像予測方式は、 第 1 と第 2の動画像オブジェク トを有する動 画像シーケンス上の動画像を予測し、 上記複数のメモリは、 上記第 1 と 第 2の ¾画像オブジェク トに対応する第 1 と第 2の個別の複数のメモリ を備え、 上記予測画像生成部は、 上記第 1 と第 2の動画像ォブジェク ト に対応する第 1 と第 2の個別の生成部を備えており、 上記第 1の生成部 は、 上記第 1のオブジェク トを予測する場合に、 少なく とも上記第 1 と 第 2の複数のメモリのいずれかに蓄積されている画像データを用いて上 記予測画像を生成するとともに、 第 2の複数のメモリを第 1のオブジェ ク トの予測に使用しているか否かを示す情報を予測画像に付加するため に生成することを特徴とする。
上記予測画像生成部は、 動画像の各時刻における変化に応じて、 上記 複数のメモリの数とサイズのいずれかを増減することにより予測画像を 生成することを特徴とする。
上記予測画像生成部は、 動画像の各時刻における変化に応じて、 予測 に用いるメモリを限定することにより予測画像を生成することを特徴と する。
上記予測画像生成部は、 上記複数のメモリに蓄積された上記画像デ一 タを用いてそれぞれに生成された複数の予測画像を演算することにより 予測画像を生成することを特徴とする。
上記動画像予測方式は、 被予測画像領域の重要度を示す特徴量パラメ —タを検出する重要度検出部を備え、 上記予測画像生成部は、 上記特徴 量パラメータに基づいて、 少なく とも複数の予測方式と、 複数のメモリ と、 複数のメモリ更新方法のいずれかについて、 複数の選択肢の中から 少なく とも 1つを選択することにより予測画像を生成することを特徴と する。
上記動画像予測方式は、 少なく とも、 被予測画像領域が利用可能な符 号量と、 各時刻における該画像領域の変化量と、 該画像領域の重要度の いずれかを表すパラメータを検出する重要度検出部を備え、 上記予測画 像生 部は、 上記パラメータに基づいて、 少なく とも複数の予測方式と 、 複数のメモリと、 複数のメモリ更新方法のいづれかについて、 複数の 選択肢の少なく とも 1つを選択することにより予測画像を生成すること を特徴とする。
上記動画像予測方式は、 動画像を動画像ォブジェク ト単位で予測し、 上記動画像予測方式は、 少なく とも、 被予測動画像ォブジェク トが利用 可能な符号量と、 各時刻における該動画像オブジェク トの変化量と、 該 動画像オブジェク トの重要度のいずれかを表すパラメータを検出する重 要度検出部を備え、 上記予測画像生成部は、 上記パラメータに基づいて 、 少なく とも複数の予測方式と、 複数のメモリと、 複数のメモリ更新方 法のいづれかについて、 複数の選択肢の少なく とも 1つを選択すること により予測画像を生成することを特徴とする。
上記動画像予測方式は、 動画像の符号化において、 予測に係る情報を 符号化する予測情報符号化部を備え、 上記予測画像生成部は、 予測に使 用されるメモリの使用頻度数をカウントし、 カウントした使用頻度数に 基づいて上記複数のメモリのランクを決定し、 上記予測情報符号化部は 、 予測に用いられるメモリのランクに応じて、 予測に係わる情報に符号 長を割り当てることにより予測に係わる情報を符号化することを特徴と する。
上記複数のメモリは、 少なく とも、 画像データをフレーム単位で蓄積 するフレームメモリと、 スプライ ト画像を蓄積するスプライ トメモリ と を有することを特徴とする。
上記スプライ トメモリは、 少なく とも、 逐次更新を伴うダイナミック スプライ トメモリ と逐次更新を伴わないスタティックスプライ トメモリ のいずれかを有することを特徴とする。
上記複数のメモリは、 少なく とも、 平行移動、 ァフィン変換、 遠近法 変換の Λのいずれかの変形手法が変更可能に対応づけられることを特徴 とする。 また、 本発明は、 予測に際して参照する画像データを複数のメモリに 蓄積する工程と、 上記複数のメモリにそれぞれ個別の変形手法を対応づ ける工程と、 被予測画像領域の動きを表現するパラメ一タを入力するェ 程と、 上記被予測画像領域の予測に用いたメモリに蓄積された画像デー タを用いて、 上記パラメータと該メモリに対応づけられた変形手法に基 づき予測画像を生成する工程を備え、 少なく とも符号化および復号のい ずれかに用いられることを特徴とする動画像を予測する方法である。 上記動画像を予測する方法は、 さらに、 上記予測画像生成に用いた該 メモリを示す予測メモリ指示情報信号を生成する工程と、 上記予測メモ リ情報信号と上記パラメ一タを復号側へ送信する工程とを備えたことを 特徴とする。
上記動画像を予測する方法は、 さらに、 予測画像の生成に用いたメモ リを示す予測メモリ指示情報信号と被予測画像領域の動きを表現するパ ラメータを符号化側から受け取る工程を備え、 復号に用いられることを 特徴とする。
また、 本発明は、 予測に際して参照する画像データを複数のメモリに 蓄積する工程と、 上記複数のメモリにそれぞれ個別のパラメータ有効値 域を対応づける工程と、 被予測画像領域の動きを表現するパラメ一タを 入力する工程と、 上記パラメータの値を含む上記パラメータ有効値域が 対応づけられたメモリを選択する工程と、 選択されたメモリに格納され た画像データを用いて予測画像を生成する工程を備え、 少なく とも符号 化および復号のいずれかに用いられることを特徴とする動画像を予測す る方法である。
また、 本発明は、 予測に際して参照する画像データを複数のメモリに 蓄積する工程と、 被予測画像領域の動きを表現するパラメ一タを入力す る工程と、 上記パラメータに基づいて、 上記複数のメモリに蓄積された 画像データを用いて予測画像を生成する工程と、 上記複数のメモリの少 なく とも 1つのメモリに格納される画像データを任意のタイミングで更 新する工程を備え、 少なく とも符号化および復号のいずれかに用いられ ることを特徴とする動画像を予測する方法である。 図面の簡単な説明
図 1は、 この発明の実施の形態における動画像符号化装置を示す構成 図である。
図 2は、 この発明の実施の形態における動画像符号化装置の動作を示 すフローチヤ一トである。
図 3は、 この発明の実施の形態における動画像符号化装置の動き補償 部の構成を示す構成図である。
図 4は、 動き補償部の動作を示すフローチャートである。
図 5は、 この発明の実施の形態における動画像符号化装置のメモリ更 新部の構成を示す構成図である。
図 6は、 メモリ更新部の動作を示すフローチャートである。
図 7は、 この発明の実施の形態における動画像符号化装置の動き補償 部の構成を示す構成図である。
図 8は、 図 7の動き補償部の動作を示すフローチヤ一トである。 図 9は、 この発明の実施の形態における動画像符号化装置の動き補償 部の構成を示す構成図である。
図 1 0は、 図 9の動き補償部の動作を示すフローチヤ一トである。 図 1 1は、 この発明の実施の形態における動画像符号化装置を示す構 成図である。
図 i 2は、 この発明の実施の形態における動画像符号化装置の動き補 償部の構成を示す構成図である。 図 1 3は、 図 1 2の動き補償部の動作を示すフローチヤ一トである。 図 1 4は、 この発明の実施の形態における動画像符号化装置のメモリ 更新部の構成を示す構成図である。
図 1 5は、 図 1 4のメモリ更新部の動作を示すフロ一チヤ一トである o
図 1 6は、 この発明の実施の形態における動画像符号化装置を示す構 成図である。
図 1 7は、 この発明の実施の形態における動画像符号化装置を示す構 成図である。
図 1 8は、 この発明の実施の形態における動画像符号化装置を示す構 成図である。
図 1 9は、 この発明の実施の形態における動画像符号化装置を示す構 成図である。
図 2 0は、 この発明の実施の形態 1のビッ トス トリーム 2 1を示す図 である。
図 2 1は、 この発明の実施の形態 2のビッ トス トリ一ム 2 1を示す図 である。
図 2 2は、 この発明の実施の形態 3のビッ トス トリーム 2 1を示す図 である。
図 2 3は、 この発明の実施の形態 6のビッ トス トリーム 2 1を示す図 である。
図 2 4は、 この発明の実施の形態における動画像復号装置を示す構成 図である。
図 2 5は、 この発明の実施の形態における動画像復号装置の動き補償 部の樺成 _を示す構成図である。
図 2 6は、 動き補償部の動作を示すフローチャートである。 図 2 7は、 内挿処理を説明する図である。
図 2 8は、 この発明の実施の形態における動画像復号装置のメモリ更 新部の動作を示すフローチヤ一トである。
図 2 9は、 VM符号化方式におけるビデオデータ構造を示す説明図であ る。
図 3 0は、 V0Pデータの構成を示す説明図である。
図 3 1は、 VM符号化装置の構成を示す構成図である。
図 3 2は、 図 3 1の符号化装置の動作を示すフローチヤ一トである。 図 3 3は、 V0P符号化タイプと対応する予測の種類を示す説明図であ る。
図 3 4は、 図 3 1の符号化装置における動き補償部の構成を示す構成 図である。
図 3 5は、 図 3 4の動き補償部の動作を示すフロ一チヤ一トである。 図 3 6は、 図 3 1の符号化装置におけるメモリ更新部の構成を示す構 成図である。
図 3 7は、 図 3 6のメモリ更新部の動作を示すフローチヤ一トである
発明を実施するための最良の形態
実施の形態 1 .
図 1は実施の形態 1及び後述する実施の形態における符号化装置の構 成を示すブロック図である。 同図において、 1は入力動画像信号、 2は テクスチャデ一タ、 3は動き検出部、 4は動きパラメ一タ、 5は動き補 償部、 6は予測画像候補、 7は予測モード選択部、 8は予測モード、 9 は予翊画像、 1 0は予測誤差画像、 1 1はテクスチャ符号化部、 1 2は 量子化 DCT係数、 1 3は局所復号された予測誤差画像、 1 4は局所復号 画像、 1 5はメモリ更新部、 1 6はメモリ a、 1 7はメモリ b、 1 8は メモリ c、 1 9は可変長符号化 ·多重化部、 2 0は送信バッファ、 2 1 はビッ トス トリーム、 8 0はシーンチェンジ検出部、 8 1はタイマーで ある。 このうち動き補償部 5およびメモリ更新部 1 5が予測方式を実現 する予測画像生成部 1 0 0である。 また、 メモリ a, b, cがメモリ領 域 2 0 0である。 図中この実施の形態で取り上げない部分については後 の実施の形態で説明する。 図 2は、 この符号化装置の動作の流れを示す フ口一チヤ一トである。
この実施の形態では複数、 例えば 3つのメモリ、 を入力動画像の動き 量 ·色度等の画像の特徴に基づく重要度に応じて使い分け、 かつ任意の 時間間隔で任意のメモリ (領域) 、 例えばメモリ a、 の内容を更新する 仕組みを設ける。 また、 動画像シーケンスはフレーム単位に入力される ものとする。
( 1 ) 入力信号
上述のごとく、 上記符号化装置は動画像シーケンスの各時刻の画像を 表すフレームを単位に入力し、 フレームは被予測画像領域の一例である 符号化単位となるマクロブロックに分割される (ステップ S 1 ) 。
( 2 ) メモリの使い分け方
メモリには、 過去に復号済みの画像や、 またはあらかじめ固定的に与 えられた画像が蓄積されるが、 この実施の形態では、 フレーム中の部分 領域の重要度に応じて、 3つのメモリを以下のように使い分ける。
メモリ a :重要度小の画像領域 (=動きが静止または均一で、 かつテク スチヤが均一な背景的画像領域) を蓄積する。
メモリ b :重要度中の画像領域 (=被写体の動きで、 比較的動きの小さ い画像領域) を蓄積する。
メモリ C :重要度大の画像領域 (=被写体の動きで、 動きの大きな画像 領域) を蓄積する。
メモリ aに蓄積される重要度小の画像領域は、 テレビ会議のシーンな どに出てくる背景画像領域と考えることができる。 また、 ある微少な動 きを伴う被写体を含み、 カメラ操作によって画面全体の均一な動きが含 まれるようなシーンにおける背景領域にも相当する。 これらの動きはマ クロブロックという小さな単位よりもあらかじめフレーム全体の動きを 求めて、 それをマクロプロックの動きとして代用すると効率的である。 すなわち、 従来例に述べたスプライ トにおけるヮービングパラメータに 相当する変形パラメ一タを求め、 フレーム全体の変形パラメ一タを各マ クロブロックの動きパラメータとみなすことにする。 動きパラメ一タは 、 単なる平行移動パラメータ (=動きベク トルと同義) でもよいし、 変 形を含んだァフィン、 遠近法動きパラメータなどであってもよい。 ここ で、 動きべク トルは動きパラメータの一例である。
メモリ bに蓄積される重要度中の画像領域は例えばテレビ会議のシー ンにおいて発言をせずに体だけが動いているような人物の画像領域で、 画面中の注目度が低い被写体領域と考えることができる。 メモリ cに蓄 積される重要度大の画像領域は例えばテレビ会議のシーン中、 発言者な どもつとも注目度が高い被写体領域と考えることができる。
メモリ b、 cに蓄積される領域は被写体固有の動きを持っため、 マク ロブ口ックごとに異なる動きパラメータを持つと考えるのが自然である 。 この際の動きパラメ一タは、 単なる平行移動パラメ一タ (==動きべク トルと同義) でもよいし、 変形を含んだァフィン、 遠近法動きパラメ一 タなどであってもよい。
( 3 ) 動き検出 (ステップ S 2 )
こ^実施の形態における動き検出部 3は、 従来例のような動きべク ト ルとヮ一ビングパラメータという区別を取り去り、 3つのメモリすべて について任意の変形パラメータをマクロブロック単位に検出できるよう にする。 また、 動き検出部 3はメモリ aを用いてフレーム全体の変形パ ラメ一タを検出するグローバル動きパラメータ検出と、 メモリ aから c を用いてマクロブ口ックごとの変形パラメータを検出するローカル動き パラメータ検出の機能を備える。
( 4 ) 動き補償 (ステップ S 3 )
この実施の形態における動き補償部 5の内部構成を図 3に示す。 同図 において、 2 2は予測画像メモリア ドレス算出部、 2 3は予測画像メモ リアドレス、 2 4はメモリ読み出し部、 2 5は外部から与えられる参照 メモリ指示信号である。 ここでは、 参照メモリ指示信号 2 5は、 メモリ a , b, cを使用することを指示しているものとする。 この動き補償部 5の動作を記したフローチヤ一トを図 4のステップ S 1 1からステップ S 1 6に示す。
まず I (Intra) -フレームならば、 動き補償を行わない (ステップ S 1 1 ) 。 I-フレームでなければ、 動き検出部 3で検出されたグローバル動 きパラメータならびに各メモリに基づくローカル動きパラメータをもと に予測画像候補を生成する (ステップ S 1 2からステップ S 1 5 ) 。 具 体的には、 予測画像メモリア ドレス算出部 2 2において、 参照メモリ指 示信号 2 5で指示されるメモリ中の予測画像候補が存在する予測画像メ モリア ドレス 2 3を動きパラメータ 4に基づいて計算し、 予測画像メモ リアドレス 2 3によってメモリ読み出し部 2 4が対応するメモリから予 測画像候補 6を取り出して出力する。
この実施の形態においてはグローバル動きパラメータも口一カル動き パラメータも同一の変形方式に基づくので、 いずれの予測画像生成も図 3の ¾き補償部 5を共有して用いることができる。 なお、 グローバル動 きパラメータにより予測画像候補 6を生成する場合 (ステップ S 1 5 ) は、 常にメモリ aが参照メモリとして用いられる。
( 5 ) 予測モードの選択 (ステップ S 4 )
この実施の形態における予測モードは、
( a ) メモリ aを使用するモード、
( b ) メモリ bを使用するモード、
( c ) メモリ cを使用するモ一ド、
( d ) イントラフレーム符号化信号を使用するモード
があるものとする。 予測モード選択部 7は、 例えば従来例に示したよう に、 動き補償部 5によって生成されるすべての予測画像候補 6とイン ト ラフレーム符号化信号を含めて、 最も予測誤差信号の電力 (振幅) の小 さい予測画像候補 6を選択して予測画像 9として出力する。 また、 選択 した予測画像 9に対応する予測モード 8を出力する。 この予測モ一ド 8 の情報の中には、 選択した予測画像 9を予測したメモリを示すメモリ選 択情報も含まれている。 予測モード 8は可変長符号化 ·多重化部 1 9へ 送られ、 割り当てられた符号長で予測メモリ指示情報 8 0 0としてビッ トストリ一ム 2 1の中に符号化される。
( 6 ) メモリの更新
メモリの更新はメモリ更新部 1 5で制御される。 この実施の形態にお けるメモリ更新部 1 5の内部構成を図 5に示す。 同図において、 2 6は メモリ aの更新に用いるアクティビティ (詳細は後述する) 、 2 7はメ モリ a更新判定部、 2 8は参照メモリ選択部、 2 9、 3 0はスィ ッチ、 3 1はメモリ aを更新する画像データ、 3 2はメモリ bを更新する画像 データ、 3 3はメモリ cを更新する画像データ、 3 4はメモリ aを更新 するグローバル予測画像データである。 また、 メモリ更新の動作フロー を図 _ 6に示す。
この実施の形態におけるメモリ更新は以下の手順を踏む。 メモリ更新 部 1 5は局所復号画像 1 4を入力すると、 メモリ a更新判定部 2 7にお いて該局所復号画像 1 4が属するフレームに対するメモリ a更新の必要 性を判定し (ステップ S 1 7 ) 、 参照メモリ選択部 2 8において予測モ ード 8に基づき予測に使用したメモリを選択し (ステップ S 1 8、 S 1 9 ) 、 選択されたメモリ内の参照画像を該局所復号画像 1 4のメモリ a を更新する画像データ 3 1、 メモリ bを更新する画像データ 3 2、 メモ リ cを更新する画像データ 3 3、 メモリ aを更新するグローバル予測画 像データ 3 4のいずれかを用いて下記のルールで更新する。 なお、 該メ モリ更新は予測単位 (マクロブロック単位) でフレーム毎に行われる。
( 1 ) メモリ b、 cの毎フレ一ム更新 (ステップ S 2 0、 S 2 1 ) 当該画像の予測に用いたメモリ bまたはメモリ じに、 局所復号画像 1 4を書き込む。
( 2 ) メモリ aの任意フレーム更新 (ステップ S 2 2、 S 2 3 ) 当該画像の予測に用いたメモリ aにステップ S 1 7のメモリ a更新判 定結果 1 0 0 0に基づき、 任意のフレームについてのみ、 または任意の 時間間隔で局所復号画像 1 4を書き込む。
メモリ aの内容はいわば背景画像などの時不変画像領域の履歴であり 、 シーンチェンジや画面全体の大きな動きなどによって領域の内容がお おきく変化することでもない限り、 メモリ内容の更新の必要がない。 上述のように被写体などの動領域についてはフレーム単位で逐次更新 し、 メモリ aの内容はより長い時間間隔で更新する仕組みを備えておけ ば、 被写体の動きによって見え隠れする背景画像などの予測に効果的で ある。
この実施の形態では、 以上の観点からメモリ aの更新を任意の時間間 隔で行う仕組みを設ける。 具体的には例えば、
a . グロ一バル動きパラメータの大きさに基づき、 動きが大きい場合は 画面全体の内容を一斉に更新し、 動きが小さい場合は内容を更新しない 方法、
b . フレーム間の時間間隔に限定されず、 ある一定時間ごとに画面全体 の内容を一斉に更新する方法、
c . シーンチェンジを検出した場合、 シーンチェンジ直後のフレームで 画面全体の内容を一斉に更新する方法
などの任意更新判定基準が考えられる。
この実施の形態では、 以上のような任意更新判定基準になるデータを メモリ aの更新に用いるァクティビティ 2 6という言葉で総称する。 ま ず、 メモリ a更新判定部 2 7はアクティビティ 2 6を用いてメモリ aの 内容を更新するかどうかを判定する (ステップ S 1 7 ) 。 上記任意更新 判定基準 aの場合は動き検出部 3で検出されたグローバル動きパラメ一 タの値がァクティビティとなり、 任意更新判定基準 bの場合はタイマ一 8 1からの当該フレームのタイムスタンプが、 任意更新判定基準 cの場 合はシーンチェンジ検出部 8 0から出力されるシーンチェンジ検出を知 らせるフラグがァクティビティ 2 6に相当する。
メモリ aの内容を更新すると判断された場合は、 局所復号画像 1 4の 内容がグローバル予測画像データ 3 4として出力されてメモリ aの内容 を書きかえる (ステップ S 2 3 ) 。 メモリ aの内容を更新すると判断さ れなかった場合は、 メモリ aの更新を行わない。
なお、 当該フレームにおけるメモリ a更新判定結果 1 0 0 0は復号側 で同様の任意更新を行うことができるよう、 ビッ トス ト リーム 2 1に多 重化されて復号側に伝送される。
図 2 0は、 この実施の形態のビッ トス トリ一ム 2 1を示す図である。 図 2 0においては、 フレームデータが順に符号化されて転送される様 子を概念的に示している。 各フレームデータの先頭には、 フレーム単位 の付加情報としてヘッダ情報が付け加えられている。 また、 ヘッダ情報 には、 メモリ a更新判定結果 1 0 0 0が多重化されて復号側に伝送され る。 ヘッダ情報の後からは、 そのフレームを構成するマクロブロックデ —タが続いている。 マクロブロックデ一タの内部には、 そのマクロブロ ックデータを予測するために用いられたメモリを示す予測メモリ指示情 報 8 0 0が含まれている。 復号装置においては、 各マクロブロックデ一 タの予測メモリ指示情報 8 0 0に基づいて、 予測画像を予測するメモリ を特定して予測画像を生成する。
また、 図示していないが、 メモリ a更新判定結果 1 0 0 0とともに、 或いは、 その代わりに、 メモリ b更新情報、 及び 又はメモリ c更新情 報を復号側に転送するようにしても構わない。
以上述べた符号化装置により、 動画像シーケンスの内容に応じて複数 のメモリを効率的に使い分ける仕組みが供給され、 予測効率を向上させ ることができる。 すなわち、 動画像シーケンスの予測に際して、 動画像 シーケンスの内容や性質によって複数のメモリを使い分けて任意の変形 パラメータに基づいた予測を行うので、 複雑な動きまでもカバーして局 所的な画像の性質に追随した効率的な動画像予測が行え、 予測効率が向 上し、 符号化画像の品質を保ちつつ符号化データの発生量を低減させる 符号化装置を構成することができる。 また、 この発明の予測方式に基づ いて符号化されたビッ トストリ一ムを復号する復号装置においても同様 の予測方式により構成することができる。
この実施の形態ではフレームごとに符号化する装置について述べたが 、 任意の形状を持つ動画像オブジェク ト (V0P) を符号化する装置につ いても同様の効果が期待できる。
また、 ;の実施の形態では被予測画像領域の一例としてマクロプロッ クを単位とした符号化装置について述べたが、 任意の形状を持つ部分画 像などの画像単位または複数個の固定サイズブロックの組み合わせによ つて構成される可変形状のプロックなどの画像単位で画像を符号化する 装置についても、 同様の効果が期待できる。
また、 この実施の形態では、 メモリ aを用いたグロ一バル動きパラメ —タ検出を用いたが、 これを用いずに口一カル動き検出だけを用いる構 成でも適用可能であることは言うまでもない。 グロ一バル動き検出を行 わない場合は、 予測モードとしてグローバル/ /ローカル予測の判別情報 は伝送する必要がない。
また、 この実施の形態において、 あらかじめ動画像シーケンスの内容 に基づいて生成した参照画像データを蓄積して符号化中に更新を行わな いメモリを設け、 それを予測に用いる構成もとることができる。
また、 この実施の形態においては、 メモリ a, b, cに対してそれぞ れ部分領域を蓄積するようにしてメモリ更新部 1 5によるメモリ更新は 、 メモリ a, b, cのいずれか 1つのメモリに対して行う場合を示した 力 メモリ a, b, cが画像の一部分、 或いは、 全部を共有して画像を 蓄積するような場合には、 メモリ更新部 1 5は、 メモリ a , b, cのう ち 2つのメモリ、 或いは、 全てのメモリを更新する。 例えば、 メモリ a が 1 フレームの参照画像データを蓄積するフレームメモリであり、 メモ リ bが逐次更新を伴わないスタティックスプライ トメモリであり、 メモ リ cが逐次更新を伴うダイナミックスプライ トメモリである場合には、 スタティックスプライ トメモリは、 予め固定的なデータを参照画像デ一 タとして蓄積しているため、 メモリ bはメモリ更新部 1 5によっては更 新されないが、 メモリ aとメモリ cが同一領域の参照画像データを蓄積 している場合には、 メモリ更新部 1 5は、 メモリ a とメモリ cを同時に 更新する;とになる。 このように、 メモリ a, b, cが参照画像データ を重複して蓄積している場合には、 重複した領域をそれぞれメモリ更新 部 1 5が更新する。
以上のことは、 以下に述べる実施の形態においても同様である。
また、 この実施の形態では、 3つのメモリ a, b, cを用いる場合を 示したが、 いずれか 2つのメモリを用いる場合であっても構わない。 また、 この実施の形態で述べた動き補償部 5、 メモリ更新部 1 5とま つたく同一の部材を有する予測画像生成部 1 0 0を用いた復号装置を構 成することもできる。 復号装置に用いられる場合は、 動き補償部は 3つ の全ての予測画像候補を生成する必要はなく復号された動きパラメータ に関わる予測画像だけを生成すればよい。 実施の形態 2 .
次に、 図 1に示した構成の符号化装置において、 動き補償部 5の構成 だけ別の構成とした符号化装置の実施形態を示し、 実施の形態 2の動き 補償部 5 aの構成と動作について述べる。
この実施の形態における動き補償部 5 aの内部構成を図 7に示す。 同 図において、 3 5は参照メモリ決定部である。 またこの動き補償部 5 a の詳細な動作を記したフローチヤ一トを図 8に示す。
まず、 I-フレームならば動き補償を行わない (ステップ S 2 4 ) 。 I - フレームでなければ、 参照メモリ決定部 3 5は動きパラメータ 4の値に 基づいて参照メモリを決定する (ステップ S 2 5 ) 。 参照メモリ決定部 3 5は各メモリ a, b, cに割り当てられている有効動きパラメ一タ値 域 (詳細は後述する) を保持しており、 動きパラメータ 4の値と比較す ることによって、 当該動きパラメータ 4がどのメモリを指しているかを 判断し、 メモリ a, b, cを識別する参照メモリ指示信号 2 5 aを出力 する .
有効動きパラメータ値域とは、 例えば動きべク トルを検出する場合、 その探索範囲が土 1 5画素だとすると、 ± 0から 3画素の範囲ではメモ リ aを、 ± 4から 8画素の範囲ではメモリ bを、 土 9から 1 5画素の範 囲ではメモリ cを予測に用いるようにするというような、 各メモリごと の有効探索範囲を意味する。 ただし、 グロ一バル動きパラメータで予測 画像を生成する場合は参照メモリはメモリ a と決まっているので、 参照 メモリ決定部 3 5を起動するのは口一カル動きパラメータを用いるとき のみとする。 このように、 動きベク トルの値で予測に用いるメモリを特 定するのは、 背景画像は動きが少なく、 注目度が高い画像ほど動きが大 きくなるはずであるという前提に基づく ものである。 このように、 動き ベク トルの値で予測に用いるメモリを特定する場合は、 予測モードを符 号化して伝送する必要がない。
次いで、 選択された参照メモリ指示信号 2 5 aにしたがって予測画像 候補 6が生成される (ステップ S 2 6からステップ S 3 0 ) 。 具体的に は、 予測画像メモリア ドレス算出部 2 2において、 参照メモリ指示信号 2 5 aで指示されるメモリ中の予測画像候補 6が存在する予測画像メモ リ了ドレス 2 3を動きパラメータ 4に基づいて計算し、 予測画像メモリ ア ドレス 2 3によってメモリ読み出し部 2 4が対応するメモリから予測 画像候補 6を取り出して出力する。
この実施の形態においてはグ口一バル動きパラメータも口一力ル動き パラメータも同一の変形方式に基づくので、 いずれの予測画像生成も図 7の動き補償部 5 aを共有して用いることができる。 なお、 グローバル 動きパラメータにより予測画像候補 6を取り出す場合 (ステップ S 3 1 ) は、 常にメモリ aが参照メモリとして用いられる。
有効動きパラメータ値域は、 動画像シーケンス毎に一定値域でもよい 力 S、 ことえば、 各フレーム毎に変更してもよい。 各フレーム毎に変更す る場合は、 当該フレームにおける各メモリの有効動きパラメータ値域は 、 復号側で同様のメモリ選択を行うことができるよう、 ビッ トストリ一 ムに多重化されて復号側に伝送される。
図 2 1は、 この実施の形態のビッ トストリーム 2 1を示す図である。 このビッ トストリームの先頭には、 動画像シーケンス単位に付加され たヘッダ情報がある。 このヘッダ情報は、 各メモリの有効動きパラメ一 タ値域指示情報を有している。 このように、 動画像シーケンスの先頭に 有効動きパラメータ値域指示情報を指定することにより、 その動画像シ —ケンスに対して一定値域の有効動きパラメ一タ値域を用いた予測方式 を復号装置で行うことができる。
フレーム毎に有効動きパラメータ値域を変更する場合は、 フレーム単 位に付加されたヘッダ情報の中に有効動きパラメータ指示情報を含ませ ればよい。
以上述べた動き補償部 5 aの構成を持つ符号化装置により、 フレーム の局所的な動きの程度に応じて複数のメモリを効率的に使い分ける仕組 みが供給され、 予測効率を向上させることができる。
この実施の形態ではフレームごとに符号化する装置について述べたが 、 任意の形状を持つ動画像オブジェク ト (V0P) を符号化する装置につ いても同様の効果が期待できる。
また、 この実施の形態ではマクロプロックを単位とした符号化装置に ついて述べたが、 任意の形状を持つ部分画像などの画像単位または複数 個の固定サイズブロックの組み合わせによつて構成される可変形状のブ 口ックなどの画像単位で画像を符号化する装置についても、 同様の効果 が期待できる。
また、 この実施の形態では、 メモリ aを用いたグローバル動きパラメ 一タ 出を用いたが、 これを用いずにローカル動き検出だけを用いる構 成でも適用可能であることは言うまでもない。 グロ一バル動き検出を行 わない場合は、 予測モードとしてグロ一バルノロ一カル予測の判別情報 は伝送する必要がない。
また、 この実施の形態で述べた動き補償部 5とまったく同一の部材有 する予測画像生成部 1 0 0を用いた復号装置を構成することもできる。 復号装置に用いられる場合は、 動き補償部は復号された動きパラメータ に関わる予測画像だけを生成すればよい。 実施の形態 3 .
次に、 図 1に示した構成の符号化装置において、 動き補償部 5の構成 だけをさらに別の構成とした符号化装置の実施形態を示し、 動き補償部 5 bの構成と動作について述べる。 この実施の形態における動き検出部 3 aは、 動きパラメータ 4 aとして平行移動量、 ァフィンパラメータ、 遠近法パラメータをそれぞれ出力するものとする。
また、 この実施の形態におけるメモリ aは参照画像を 1 フレーム分記 憶するフレームメモリであり、 メモリ bはスタティックスプライ トメモ リであり、 メモリ cはダイナミックスプライ トメモリであるものとする この実施の形態における動き補償部 5 bの内部構成を図 9に示す。 同 図において、 3 6は平行移動量 (=動きベク トル) 、 3 7はァフィ ンパ ラメータ、 3 8は遠近法パラメータ、 3 9は平行移動量に基づく予測画 像メモリアドレス算出部、 4 0はァフィンパラメータに基づく予測画像 メモリアドレス算出部、 4 1は遠近法パラメータに基づく予測画像メモ リアドレス算出部である。 またこの動き補償部 5 bの詳細な動作を記し たフ口一チヤ一トを図 1 0に示す。
まず、 ; [-フレームならば動き補償を行わない (ステップ S 3 3 ) 。 I - フレームでない場合、 予測画像メモリァドレス算出部 3 9から 4 1はそ れぞれ動きパラメータ 4 aの値に基づいて予測画像メモリアドレス 2 3 を計算する (ステップ S 3 4) 。
各予測画像メモリアドレス算出部は、 対応する各メモリに割り当てら れている画像変形方式に基づいてァドレス計算を行う。 この実施の形態 においては、 メモリ aに平行移動、 メモリ bにある程度回転や拡大 '縮 小などの単純な変形を伴うァフィンパラメータ、 メモリ cに 3次元的で 複雑な動きを伴う遠近法パラメータを用いる。 これらの変形方式は以下 のよ うな変換式で表せる。
〔平行移動〕
平行移動量(a, b) :
X = X + a
y = y + b
〔ァフィン変換〕
アブインパラメ一タ(a,b, c, Θ) :
χ = a(cos θ ) x + a (sin θ ) y + b
y ' = a (-sin Θ ) x + a (cos Θ ) y + c
〔遠近法変換〕
遠近法パラメータ(a,b,c, d,e,f) :
x' = (a x + b y + c) / (g x + h y + 1)
y' = (d x + e y + f)/(g x + h y + l)
ここで、 2次元座標上の(x, y)は原マクロブロックの画素位置、 (χ' ,y' )は各パラメータによって(X, y)に対応付けられるメモリ中の画素 位置である。 すなわち、 これらのパラメータをもとに (χ' , y' )のメ モリ上の位置を計算する。 この仕組みをもつことにより、 各マクロプロ ック-ごとに動きの性質がもっとも適合するメモリから予測を行うことが できるようになる。 各動きパラメータ 3 6、 3 7、 3 8から計算した予 測画像メモリアドレス 2 3によって、 メモリ読み出し部 2 4が対応する メモリから予測画像候補 6を取り出して出力する (ステップ S 3 5から ステップ S 3 9 ) 。
なお、 当該フレームにおける各メモリの変形方式のタイプは、 復号側 で同様の動き補償を行うことができるよう、 動き検出手法指示情報と し てビッ トス ト リーム 2 1に多重化されて復号側に伝送される。
図 2 2は、 この実施の形態のビッ トス トリーム 2 1を示す図である。 動画像シーケンスの先頭に付加されるヘッダ情報の中には、 動き検出 手法指示情報が含まれている。 符号化装置では、 各メモリで使用する変 形方式のタイプが変更可能であり、 この対応関係を示す動き検出手法指 示情報を動画像シーケンスのヘッダ情報として復号装置に送る。 こ う し て復号装置においては、 各メモリで使用する変形方式のタイプを識別す ることができる。
復号装置においては、 この識別された変形方式のタイプが動的に各メ モリに対応づけられるようになっている。
以上述べた動き補償部 5 bの構成を持つ符号化装置により、 フレーム の局所的な動きの性質に応じて複数のメモリを効率的に使い分ける仕組 みが供給され、 予測効率を向上させることができる。
この実施の形態ではフレームごとに符号化する装置について述べたが、 任意の形状を持つ動画像オブジェク ト (V0P) を符号化する装置につい ても同様の効果が期待できる。
また、 この実施の形態ではマクロプロックを単位とした符号化装置に ついて述べたが、 任意の形状を持つ部分画像などの画像単位または複数 個の固定サイズブロックの組み合わせによって構成される可変形状のブ ロックなどの画像単位で画像を符号化する装置についても、 同様の効果 が期待できる。 また、 この実施の形態では、 メモリ aを用いたグローバル動きパラメ —タ検出を用いたが、 これを用いずに口一カル動き検出だけを用いる構 成でも適用可能であることは言うまでもない。 グローバル動き検出を行 わない場合は、 予測モードとしてグローバル ローカル予測の判別情報 は伝送する必要がない。
また、 この実施の形態では、 メモリ a, b, cを用いる場合を示した 力 メモリ a と bだけを用いる場合、 或いは、 メモリ aと cを用いる場 合、 或いは、 メモリ b と cだけを用いる場合であっても構わない。
また、 この実施の形態で述べた動き補償部 5 b とまったく同一の部材 を有する予測画像生成部 1 0 0を用いた復号装置を構成することもでき る。 復号装置に用いられる場合は、 動き補償部は復号された動きパラメ ータに関わる予測画像だけを生成すればよい。 実施の形態 4.
次に、 形状情報を持った複数、 例えば 2つ、 の異なる動画像オブジェ ク トが混在する動画像シーケンスを対象とし、 これらの動画像オブジェ ク トを一括して符号化する装置の実施形態を説明する。 図 1 1 にこの実 施の形態における符号化装置の構成を示す。
同図において、 4 2は入力画像フレーム、 4 3はオブジェク ト分離部 、 4 4 a、 4 4 bはオブジェク トデータ、 4 5 a、 4 5 bは形状ブロッ ク、 4 6 a、 4 6 bはスィ ッチ、 4 7 a、 4 7 bは形状符号化部、 4 8 a、 4 8 bは圧縮形状ブロックデータ、 4 9 a、 4 9 bは局所復号形状 ブロック、 5 0 a、 5 0 bはテクスチャデータ(マクロブロック)、 5 1 a、 5 1 bは動き検出部、 5 2 a、 5 2 bは動きパラメータ、 5 3 a、 5 3. bは動き補償部、 5 4 a、 54 bは予測画像候補、 5 5 a、 5 5 b は予測モード選択部、 5 6 a、 5 6 bは予測モ一ド情報、 5 7 a、 5 7 bは予測画像、 5 8 a、 5 8 bは予測誤差信号、 5 9 a、 5 9 bはテク スチヤ符号化部、 6 0 a、 6 0 bは圧縮テクスチャデータ、 6 1 a、 6 1 bは局所復号予測誤差信号、 6 2 a、 6 2 bは局所復号マクロプロッ ク、 6 3はメモリ更新部、 6 4はメモリ a、 6 5はメモリ b、 6 6はメ モリ c、 6 7はメモリ d、 6 8はメモリ e、 6 9はメモリ f 、 7 0 a、 7 0 bは可変長符号化部、 7 1は多重化部、 7 2はバッファ、 7 3はビ ッ トス トリーム、 9 4はメモリ部、 8 8 aは Aオブジェク トを符号化す る Aオブジェク ト符号化部、 8 8 bは Bォブジェク トを符号化する Bォ ブジェク ト符号化部である。 オブジェク ト符号化部 8 8 a、 8 8 bは同 一の部材による同一の内部構成を有する。
この符号化装置は画像フレーム 4 2を入力し、 これがオブジェク ト分 離部 4 3において符号化単位のオブジェク トに分けられる。 オブジェク ト分離部 4 3の処理は任意の方法をとることができるものとする。
オブジェク トの形状情報は形状プロック 4 5 a、 4 5 bの形式で形状 符号化部 4 7 a、 4 7 bに送られて符号化され、 圧縮形状ブロックデー タ 4 8 a、 4 8 bとして可変長符号化部 7 0 a、 7 O bに送られる。 動き検出部 5 1 a 5 1 bは VM符号化方式と同様、 局所復号形状プロ ック 4 9 a、 4 9 bを考慮して動きパラメータの検出を行う。 動きパラ メータ検出はマクロブ口ック単位にメモリ aから f のすベてを用いて行 うことができる。
ただし、 原則として Aオブジェク ト符号化部 8 8 aにおいて符号化さ れる Aォブジェク トについてはメモリ aから cを、 Bオブジェク ト符号 化部 8 8 bにおいて符号化される Bオブジェク トについてはメモリ dか ら f をそれぞれ用いるものとする。
また-、 動きの種類としては、 動きベク トルとヮービングパラメータと いう区別を取り去り、 メモリ部 9 4のすベてのメモリについて任意の変 形パラメータをマクロブ口ック単位に検出できるものとする。
動き補償部 5 3 a、 5 3 bで各動きパラメータ 5 2 a、 5 2 bに基づ いてすベての予測画像候補 5 4 a、 5 4 bを生成した後、 予測モ一ド選 択部 5 5 a、 5 5 bで予測画像 5 7 a、 5 7 bおよび予測モード情報 5 6 a、 5 6 bを得る。 原信号またはテクスチャデータ 5 0 a、 5 0 b と 予測画像 5 7 a、 5 7 bとの差分をとつて予測誤差信号 5 8 a、 5 8 b を得、 これがテクスチャ符号化部 5 9 a、 5 9 bで符号化されて可変長 符号化部 7 0 a、 7 0 bに送られる。 また、 局所復号された予測誤差信 号 6 1 a、 6 l bが予測画像 5 7 a、 5 7 b と加算されて局所復号マク ロブロック 6 2 a、 6 2 bとなり、 メモリ更新部の指示にしたがってメ モリ aから f に書き込まれる。
上記 A/Bオブジェク ト符号化部 8 8 a、 8 8 bにおいて符号化され た AZBオブジェク トデータは多重化部 7 1で 1つのビッ トス トリ一ム 7 3に多重化され、 ノくッファ 7 2を介して伝送される。
以下、 この実施の形態における予測について主要な動作を行う動き補 償部 5 3 a、 5 3 bを中心に説明する。
この実施の形態における動き補償部 5 3 a、 5 3 bは、 動き検出部 5 l a、 5 1 bで検出した動きパラメータ 5 2 a、 5 2 bに基づいて予測 画像候補を生成する。 動き補償部 5 3 aの内部構成を図 1 2に示す。 ま た、 Aオブジェク ト符号化部 8 8 aにおける動き補償部 5.3 aの動作の フローチャートを図 1 3に示す。 なお、 動き補償部 5 3 bでも同様に構 成され同様に動作する。
図 1 2において、 7 4 aは Bオブジェク ト参照判定部、 7 5 aは Bォ ブジェク ト参照指示フラグである。
-ここで動きパラメータ 5 2 aは検出に用いたメモリ情報も含むものと する。 パラメータの値から実施の形態 1 と同様に、 予測画像メモリアド レス算出部 2 2 a、 メモリ読み出し部 2 4 aを用いて予測画像候補を生 成する (ステップ S 4 4からステップ S 4 9 ) 。 また、 Bオブジェク ト 参照判定部 7 4 aは動きパラメータ 5 2 aの中の参照するメモリ情報か ら、 当該マクロブ口ックの予測に Bオブジェク ト用のメモリを使用して いるかどうかを判定する (ステップ S 4 3 ) 。
Bオブジェク ト参照判定部 7 4 aは、 判定結果を Bオブジェク ト参照 指示フラグ 7 5 a として出力し、 復号側で当該オブジェク トが単独で、 自身のメモリ a, b , cのみを用いて再生できるかどうかの判定に用い るため、 ビッ トス トリーム 7 3に多重化されて復号側に伝送される。 符 号化時には、 外部から与える信号 8 5 aにより、 常に復号側で当該ォブ ジェク トの単独再生が可能になるように、 動きパラメータの検出に際し て、 自身の予測用のメモリ (a, b, c, のみ) しか使用しないように 制御することも可能とする。
以上述べた動き補償部 5 3 a、 5 3 bの構成を持つ符号化装置により 、 フレームの局所的な動きの性質に応じて複数のメモリを効率的に使い 分ける仕組みが供給され、 予測効率を向上させることができる。
また、 この実施の形態ではオブジェク トをマクロブロック単位に符号 化する装置について述べたが、 任意の形状を持つ部分画像または複数個 の固定サイズブロックの組み合わせによって構成される可変形状のブロ ックなどの単位で符号化する装置についても、 同様の効果が期待できる また、 この実施の形態で述べた動き補償部 5 3 a、 5 3 bと同一の部 材を用いた復号装置を構成することもできる。 復号装置に用いられる場 合は、 動き補償部 5 3は復号された動きパラメータに関わる予測画像だ げを生成すればよい。 また、 ビッ トス トリームから他オブジェク ト参照 指示フラグ 7 5 a、 7 5 b相当のビッ トを復号して、 復号中のオブジェ ク トが単独で再生できるかどうかを認識できる構成とすれば、 ォブジェ ク トデータを誤りなく復号再生できるようになる。 実施の形態 5 .
次に、 動画像オブジェク トの時間的変化に対応して、 メモリの数また は容量を自在に変化可能な構成の符号化装置の実施形態を説明する。 実 施の形態 5においては、 図 1に示した構成の符号化装置におけるメモリ 更新部 1 5の構成を置きかえた符号化装置を考える。
図 1 4にこの実施の形態におけるメモリ更新部 1 5 aの内部構成を示 す。 同図において、 7 6はメモリ拡張判定部、 7 7はメモリ拡張指示信 号、 7 8はメモリ縮退判定部、 7 9はメモリ縮退指示信号である。 図 1 5にメモリ更新部 1 5 aの動作フロ一 (ステップ S 5 1からステップ S 6 3 ) を示す。
シーンチェンジなどによりメモリに蓄積されていた動画像シーケンス の履歴とは著しく異なる画像が現れた場合、 シーンチェンジ後の予測に おいては、 既存メモリに含まれる参照画像だけでは予測効率が劣化する ことがある。 そのような場合、 シーンチェンジ検出部 8 0によりシーン チェンジを検出し、 シーンチェンジ直後のフレームはィントラフレ一ム 符号化するなどして、 それを新たな参照画像としてメモリに追加蓄積し ておくことができれば、 それ以降の予測効率を向上できる。
また、 追加できるメモリの容量には物理的限界があるため、 メモリ上 の参照画像のうち、 ほとんど予測に使われない部分を逐次縮退できる仕 組みも持たせる。 メモリ a , b, cの各メモリ領域予測に使われる頻度 を予測モード 8に基づいてメモリ更新部 1 5 aで計測しておき、 メモリ 更新部に頻度の小さいメモリ領域を使用領域から開放する仕組みをもた せる。 この実施の形態によれば、 例えばソフ トウェアで符号化装置を構 成するような場合、 限られた RAM (ランダムアクセスメモリ) 資源を有 効に活用することができる。
以上の観点から、 この実施の形態におけるメモリ更新部 1 5 aは、 動 画像シーケンスの時間的変化の状況に応じてメモリ領域を増やしたり、 予測にあまり使われない参照画像を含むメモリ領域を縮退したりする機 能を備える。
メモリ aについては、 実施の形態 1 と同様、 メモリ a更新判定部 2 7 において更新の可否が決定され (ステップ S 5 0 ) 、 更新する場合は局 所復号画像 1 4をメモリ aに書き込む (ステップ S 5 6、 ステップ S 5 7 ) 。 また、 予測モード 8にしたがって各メモリへ局所復号画像 1 4が 書き込まれる (ステップ S 5 1からステップ S 5 5 ) 。
これらメモリ内容更新は、 メモリ拡張 Z縮退の判定をともなって行わ れる。 メモリ拡張判定部 7 6においては、 メモリ aの更新に用いるァク テイビティ 2 6をもとにメモリ a (またはメモリ b, c ) の容量を増や すかを判定する (ステップ S 5 8からステップ S 6 0 ) 。 シ一ンチェン ジなどにより容量を増やした方がよいと判定されれば、 メモリ拡張指示 信号 7 7によってメモリの拡張が指示される。 また、 メモリ縮退判定部 7 8においては、 予測モード 8をもとに予測に用いられるメモリ領域の カウントをおこなっておき、 所定の回数以下しか予測に用いられないメ モリ領域については、 メモリ縮退指示信号 7 9によってメモリの縮退が 指示される (ステップ S 6 1からステップ S 6 3 ) 。
以上述べたメモリ更新部 1 5 aの構成を持つ符号化装置により、 動画 像シーケンスの時間的変化に追随して効率のよい予測が行えるとともに 、 予測に必要なメモリ領域をダイナミックに割り当てる仕組みが供給さ れ、 予測効率を向上させるとともにメモリ資源の有効活用が可能になる この実施の形態ではフレームごとに符号化する装置について述べたが 、 任意の形状を持つ動画像オブジェク ト (V0P) を符号化する装置につ いても同様の効果が期待できる。
また、 この実施の形態ではフレームをマクロブ口ック単位に符号化す る装置について述べたが、 任意の形状を持つ部分画像などの画像単位ま たは複数個の固定サイズブロックの組み合わせによつて構成される可変 形状のプロック領域などの画像単位で画像を符号化する装置についても 、 同様の効果が期待できる。
また、 この実施の形態で述べたメモリ更新部 1 5 a とまったく同一の 部材を用いた復号装置を構成することもできる。 実施の形態 6 .
上記の各実施の形態においてはマクロプロックで予測に使用するメモ リを変更する場合を示したが、 フレームもしくは動画像ォブジェク トの 単位で、 予測に使用するメモリを変更して予測を行う構成をとることも できる。 これにより、 フレームもしくは動画像オブジェク トの単位で符 号化すべきメモリ関連の情報、 およびマクロプロック単位で符号化すベ きメモリ選択情報 (予測モード 8に含まれる) を符号化する必要がなく なり、 効率的な符号化を行うことができる。
例えば実施の形態 1における図 1の符号化装置においては、 マクロブ 口ック単位で予測に使用するメモリを切替えることが可能になっている ため、 マクロブロック単位でどのメモリを予測に使用したかを示す付加 情報を伝送する必要がある。 これに対して、 本実施の形態ではこの使用 メモリの切替の単位をフレームまたは動画像オブジェク トに制限して予 測を行うことにより、 マクロブロック単位に伝送すべき付加情報を効果 的に削減することを可能とする。 図 2 3に、 図 2 0に示した実施の形態 1の伝送ビッ トス トリーム 2 1 と本実施の形態の伝送ビッ トス トリーム 2 1との違いを示す。 図 2 3に示す例は、 フレーム単位に予測に使用す るメモリを変更する場合を示しており、 予測メモリ指示情報 8 0 0がフ レーム単位のヘッダ情報に含まれている。 図 2 3に示す例は、 例えば、 動画像シーケンスの映像の性質が定常的に変化せず、 マクロブロックレ ベルの局所的な変化が少ないような場合に有効である。 また、 以上のよ うにして符号化されたビットストリ一ムを復号してフレームもしくは動 画像オブジェク トを再生する復号装置を構成することもできる。 実施の形態 7 .
上記の各実施の形態において、 複数のメモリのうち、 任意の複数、 例 えば 2つ、 のメモリ (例えばメモリ aと b ) から取り出された 2つの予 測画像候補を加算平均した画像を予測画像候補 6の 1つとする構成また は予測画像 9として用いる構成にすることができる。 また、 以上のよう にして符号化されたビットストリームを復号してフレームもしくは動画 像オブジェク トを再生する復号装置を構成することもできる。 実施の形態 8 .
上記の各実施の形態に示した符号化装置において、 予測を行う単位と なる画像領域の空間的な複雑さ、 注視度、 などを規定する特徴量パラメ ータをあらかじめ検出しておき、 これらを予測モード決定、 メモリ更新 の際の判定尺度として利用する構成をとることができる。
例えば、 複雑な動きを含み、 与えられた符号量内で許容品質を達成す る符号化を行うことが困難な動画像を想定する。 このような場合は、 被 予拠画像領域 (マクロブロック、 任意形状画像領域、 任意形状ブロック など) ごとに重要度を見極め、 重要度の低い領域はある程度品質を落し て符号量を減少させ、 その分を重要度の高い領域に割り当てて全体の品 質を向上させる。 本発明のように複数のメモリを任意のタイミングで切 り替えて予測を行う装置では、 被予測画像領域の重要度を表す特徴量パ ラメータを検出して、 これに基づいて動的にメモリ使用方法を決定する ことにより、 より画像の性質に適応した予測を行うことができる。 例え ば、 図 1 6に示すように、 領域ごとに特徴量パラメ一タを検出して重要 度を決定する領域重要度検出部 9 5を設ける。 領域重要度検出部 9 5は 領域重要度を予測モード選択部 7 aへ伝えるとともに領域重要度に基づ く量子化パラメータをテクスチャ符号化部 1 1 aへ伝える。 領域重要度 検出部 9 5で重要度が高いと判定された領域は、 複数用意された予測モ —ドのうち、 もっとも複雑なモードを用いて予測を行う。 例えば、 各メ モリ a, b, cからの参照画像を用いてそれぞれ複雑な動きモデルに基 づいた動きパラメ一タと予測画像を求め、 これら予測画像の任意の組み 合せ (加算平均など) も含めて最も予測効率の高い予測モードを予測モ —ド選択部 7 aにおいて選択する。 この際、 予測に使用したすべてのメ モリに対して参照画像を更新する。 さらに、 テクスチャ符号化部 1 1 a では、 量子化ステップ幅が細かい量子化パラメータにより符号化を行う 。 一方、 重要度の低い領域では、 簡易な予測モード (1つのメモリだけ を用いた平行移動量検出) によって予測を行い、 得られた予測誤差信号 の振幅に関わらず少ない符号量になるように、 量子化ステップの粗い量 子化パラメータを用いて符号化する。 以上の制御を行うことによって、 重要度の低い領域はある程度品質を落しても、 重要度の高い領域は高度 な予測によって品質が保たれ、 与えられた符号量で全体の品質を向上す ることができる。 実施の形態 9 . 複数のメモリを用いて動画像シーケンスを予測、 符号化する装置にお いて、 動画像シーケンスの各時刻において使用可能な符号量、 あるいは 当該時刻でのシーンの変化量 (シーンチェンジ検出など) 、 実施の形態 8で述べたような被予測画像領域の特徴量や重要度などのパラメータを 検出しておき、 これらの値を、 当該時刻における画像の予測に用いるこ とのできる予測方式、 あるいは参照メモリ領域の選択の際の判定尺度と して利用する構成をとることができる。 例えば、 図 1 7のように、 フレ ーム単位で重要度を決定するフレーム重要度検出部 9 6を設け、 前フレ —ムに対する当該フレ一ムの変化量 (シーンチェンジ検出部 8 0からの シンーンチェンジを検出) 、 新しいオブジェク トの出現 '隠蔽の有無な どを検出し、 送信バッファ 2 0から通知される当該フレームで使用でき る符号量を考慮して最終的なフレーム重要度を決定する。 これに基づい て、 重要度の高いフレームでは用意されたすベての予測方式と参照メモ リ領域を用いて最大限予測効率を向上し、 重要度の低いフレームでは予 測方式や参照メモリ領域を限定して用い、 符号化処理を簡素化して処理 量を低減する、 という装置構成が考えられる。 また、 シーンチェンジ時 に予測を行わずにすべてィントラフレーム符号化する装置も考えられる 。 さらに、 実施の形態 8で述べた領域重要度検出部 9 5と併用すれば、 よりきめ細かい品質制御を行うことができる。 以上の制御を行うことに よって、 重要度の低いフレームはある程度品質を落しても、 重要度の高 いフレームは高度な予測によって品質が保たれ、 与えられた符号量で全 体の品質を向上することができる。
本実施の形態の考え方は、 処理プロセスや使用可能なメモリ量が流動 的なソフトウエアによる符号化の際に、 利用できる資源を最大限に活用 して 率よく符号化処理を行わせる場合にも適用可能である。 重要度の 低いフレームでは処理量を低減でき、 全体の処理速度を向上させること ができる。 実施の形態 1 0 .
図 1 1に示したような、 複数のメモリを用いて複数の動画像オブジェ ク トから構成される動画像シーケンスを予測、 符号化する装置において 、 シーケンスとして使用できる総符号量、 各動画像オブジェク トの各時 刻において使用可能な符号量、 あるいは当該時刻での動画像オブジェク トの変化量 (オブジェク トの出現、 隠蔽など) 、 各動画像ォブジェク ト のシーンの中での重要度ノ注視度のレベル、 実施の形態 8や 9で述べた ような被予測画像領域の特徴量や重要度などのパラメータを検出してお き、 これらの値を、 当該時刻における動画像オブジェク トの予測に用い ることのできる予測方式、 あるいは参照メモリ領域の選択の際の判定尺 度として利用する構成をとることができる。
例えば、 図 1 8のように、 各オブジェク ト 1〜nに対応する重要度検 出部 9 7 a〜 9 7 nを設け、 オブジェク トの各時刻における変化量ゃォ ブジェク トの出現 ·隠蔽の有無などを表すパラメ一タを検出するととも に、 すべてのオブジェク 卜の符号化データが蓄積される全体バッファ 7 2 Xの占有率、 各オブジェク トの仮想バッファ 7 2 a〜 7 2 nの占有率 とを考慮して、 各時刻においてオブジェク トの重要度を決定する。 例え ば、 オブジェク ト内に他のオブジェク トの一部が重なるなどの結果とし て新しいタイプの領域が出現した場合、 これは以降の予測効率に大きく 影響するため、 ある程度オブジェク トの仮想バッファに余裕のない場合 であっても重要度を高く し、 符号化画像をきれいにしておく、 などの制 御が考えられる。 重要度検出部 9 7 a〜 9 7 nで検出された重要度はォ ブジェク ト 1〜N符号化部 9 8 a〜 9 8 nに渡され、 重要度の高いォブ ジェク トでは用意されたすベての予測方式と参照メモリ領域を用いて最 大限予測効率を向上し、 重要度の低いオブジェク トでは予測方式や参照 メモリ領域を限定して用い、 符号化処理を簡素化して処理量を低減する 、 という装置構成が考えられる。 また、 フレームからリアルタイムにォ ブジェク ト分離を行って符号化する装置では、 新しいオブジェク トの出 現や、 既存オブジェク トの隠蔽などによって当該オブジェク トの内容が 著しく変化した場合に、 予測を行わずにすべてィントラフレーム符号化 する装置も考えられる。 さらに、 オブジェク ト 1〜N符号化部 9 8 a〜 9 8 ηにおいて実施の形態 8で述べた領域重要度検出部 9 5も併用すれ ば、 オブジェク ト内の各被予測対象領域単位によりきめ細かい品質制御 を行うことができる。 以上の制御を行うことによって、 重要度の低いォ ブジェク トはある程度品質を落しても、 重要度の高いオブジェク トは高 度な予測によって品質が保たれ、 与えられた符号量で全体の品質を向上 することができる。 実施の形態 1 1 .
また、 図 1 9に示すように、 予測に関する符号化情報 (参照メモリ番 号など) の符号割り当て (符号化) を行う予測情報符号化部 9 1を設け る場合がある。
複数のメモリ a, b , cを用いて動画像シーケンスまたは動画像ォブ ジェク トを予測、 符号化する装置において、 予測に用いられるメモリの 使用頻度に応じて複数のメモリのランク付けを行い、 かっこのランク付 けを符号化中にダイナミックに変更することができるようにして、 上記 予測情報符号化部 9 1における予測に関する符号化情報 (参照メモリ番 号など) の符号割り当てを、 予測に用いる複数のメモリのランクに応じ て行 ようにする構成をとることができる。
例えば、 図 1 9の符号化装置において、 メモリ更新部 1 5 bに、 メモ リ 3, b, cそれぞれの予測に用いられる頻度をカウントするカウンタ 9 2を設けておき、 そのカウント値にしたがってメモリ a, b , cをラ ンク付けし、 ランク情報 9 0を出力する。 このランク付けは、 例えば 1 フレームもしくは動画像ォブジェク トのある時刻における画像 (V0P) を単位に行ってもよいし、 より細かい単位である被予測画像領域 (マク ロブロック、 任意形状領域、 任意形状ブロックなど) 毎に行うこともで さる。
これにより、 どのメモリがどれだけ頻繁に予測に使われるかを認識で きる。 頻繁に予測に用いられるメモリは、 予測を行うにあたって重要度 の高いメモリであり、 参照頻度が高いほどランクを高くする。
このようにして、 各被予測画像領域単位に予測に用いたメモリの頻度 情報を符号化する場合、 頻繁に参照するメモリ (=ランクが高いメモリ ) には短い符号長を割り当てるほうが符号化効率が高まる。
また、 各被予測画像領域単位に検出した動きパラメ一タも、 参照した メモリのランクに対応して符号長を割り当てることができれば、 頻繁に 発生する動きパラメータ値に対して短い符号長を割り当てることができ 、 効率的な予測情報の符号化が可能になる。 これらの仕組みは、 可変長 符号化 ·多重化部 1 9の予測情報符号化部 9 1がメモリ更新部 1 5 の カウンタ 9 2から各メモリのランクを受け取るようにしておき、 このラ ンク情報 9 0に基づいて符号長を可変にして予測情報の符号化を行う構 成で実現できる。 実施の形態 1 2 .
図 2 4は、 本実施の形態における、 圧縮符号化されたディジタル画像 を伸長再生する画像復号装置の構成を示したものである。 同図において 2 1は符号化されたビッ トス ト リーム、 1 1 9は可変長復号部、 1 2は 量子化 DCT係数、 1 2 aは量子化直交変換係数、 1 2 bは量子化ステツ プ、 1 1 1はテクスチャ復号部、 1 1 1 aは逆量子化部、 1 1 1 bは逆 直交変換部、 1 9 0は復号加算部、 1 0 1は復号画像、 1 9 1は表示制 御部、 8は予測モード、 1 0 0 1はメモリ b更新情報、 1 0 0 2はメモ リ c更新情報、 4は動きベク トル (動きパラメータ) 、 8 0 0は予測メ モリ指示情報、 1 9 5は被予測画像領域の画面内位置、 1 0 5は動き補 償部、 1 1 6はメモリ a、 1 1 7はメモリ 13、 1 1 8はメモリ 。、 1 1 5はメモリ更新部、 1 0 6は予測画像である。 動き補償部 1 0 5とメモ リ更新部 1 1 5により予測画像生成部 1 0 0 aを構成している。 また、 メモリ a, b, cによりメモリ領域 2 0 0 aを構成している。
この実施の形態では、 メモリ aは 1 フレーム分の画像データを蓄積す るフレームメモリであり、 メモリ bはスタティ ックスプライ トメモリで あり、 メモリ cはダイナミックスプライ トメモリであるものとする。 ま た、 この実施の形態の復号装置は、 図 2 2に示したビッ トストリーム 2 1を入力するものとする。 また、 図 2 2には示していないが、 メモリ 更新情報 1 0 0 1及びメモリ c更新情報 1 0 0 2がビッ トス ト リームの 中で送られてくるものとする。 メモリ b更新情報 1 0 0 1には、 スタテ ィックスプライ トメモリを全面更新するための更新指示と全面更新する ための画像データが含まれているものとする。 同様に、 メモリ c更新情 報 1 0 0 2には、 ダイナミックスプライ トメモリを全面更新する更新指 示と全面更新するための画像データが含まれているものとする。
以下、 上記構成の装置の動作を説明する。 まず、 可変長復号部 1 1 9 においてビッ トス トリーム 2 1が解析され、 個々の符号化データに切り 分 られる。 量子化直交変換係数 1 2 aは逆量子化部 1 1 9 aに送られ 、 量子化ステップ 1 2 bを用いて逆量子化される。 この結果が逆直交変 換部 1 1 1 bにおいて逆直交変換されテクスチャが復号され、 復号加算 部 1 9 0に送られる。 直交変換は DCT (離散コサイン変換) など、 符号 化装置側で用いるものと同じものを用いる。
動き補償部 1 0 5には、 可変長復号部 1 1 9でビッ トス ト リーム 2 1 から復号された動きベク トル 4、 予測メモリ指示情報 8 0 0と、 被予測 画像領域の画面内位置 1 9 5を示す情報が入力される。 動き補償部 1 0 5は、 これらの 3種類の情報にしたがって複数のメモリ a, b, cに格 納されている参照画像から所望の予測画像を取り出す。 被予測画像領域 の画面内位置 1 9 5はビッ トストリームに含まれている情報ではなくマ クロブロックの数をカウントすることにより計算できる。 予測画像生成 の処理については以下の動き補償部 1 0 5の動作説明の箇所で詳述する 復号加算部 1 9 0は、 予測モード 8の情報に基づいて、 イントラフレ —ム符号化されたブロックならば逆直交変換部 1 1 1 bの出力をそのま ま復号画像 1 0 1 として出力し、 インターフレーム符号化されたブロッ クなら逆直交変換部 1 1 1 bの出力に予測画像 1 0 6を加算して復号画 像 1 0 1 として出力する。 復号画像 1 0 1は表示制御部 1 9 1に送られ 、 表示デバイスに出力されるともに、 以降の復号処理において参照画像 として用いるためにメモリ a〜cに書き込まれる。 メモリへの書き込み は予測モード 8に基づいて、 メモリ更新部 1 1 5で制御される。
次に、 予測画像生成部 1 0 0 aの動き補償部 1 0 5における予測画像 生成処理について説明する。 本実施の形態では、 画像の予測方式は予測 メモリ指示情報 8 0 0に基づいて決定される。 本実施の形態による復号 装置では、 予測画像を生成するにあたって、 動きべク トル 4と予測メモ リ指^情報 8 0 0とに基づいて、 所定の座標変換処理および内挿処理に より参照画像から予測画像を生成する。 座標変換処理の方法はあらかじ め予測に使用するメモリに対応づけられているものとする。 例えば、 実 施の形態 3で述べた画像変形方式と同じ以下のような変形手法の例を考 えることができる。
( 1 ) メモリ aを予測に用いる場合 (=予測メモリ指示情報 8 0 0がメ モリ aの使用を指示している場合)
動きべク トルによつて被予測対象領域の各画素の座標を平行移動させ 、 メモリ a中の対応する位置の画像データを予測画像として取り出す。
( 2 ) メモリ bを予測に用いる場合 (=予測メモリ指示情報がメモリ b の使用を指示している場合)
動きベク トルに基づいてァフィン変換式を求め、 同変換式によって被 予測対象領域の各画素の座標を変位させ、 メモリ c中の対応する位置の 画像データを予測画像として取り出す。
( 3 ) メモリ cを予測に用いる場合 (=使用メモリ指示情報がメモリ c の使用を指示している場合)
動きべク トルに基づいて遠近法変換式を求め、 同変換式によって被予 測対象領域の各画素の座標を変位させ、 メモリ b中の対応する位置の画 像データを予測画像として取り出す。
動き補償部 1 0 5の内部構成を図 2 5に示す。 同図において、 1 6 1 はスィッチ、 1 6 2はメモリ a用対応点決定部、 1 6 3はメモリ b用対 応点決定部、 1 6 4はメモリ c用対応点決定部、 1 6 5はメモリ読み出 しア ドレス生成部、 1 6 6はスィ ッチ、 1 6 7は内挿処理部である。 ま た、 図 2 6はその動作の様子を示すフローチャートである。
以下、 図 2 5および図 2 6をもとに、 本実施形態における動き補償部
1 0 5の動作を説明する。
1 ) 対応点の決定
まず、 予測メモリ指示情報 8 0 0に基づき、 スィツチ 1 6 1によって対 応するメモリ用の対応点決定部を選択し、 選択された対応点決定部に動 きベク トル 4を入力する。 ここでは、 各メモリに対応した予測画像位置 の算出を行う。 以下、 メモリ対応で説明する。
1一 1 ) 予測メモリ指示情報 8 0 0がメモリ aを指示している場合 (ス テツプ S 1 0 0)
動きベク トルによる平行移動によって、 予測画像位置を算出する (ス テツプ S 1 0 1) 。 具体的には、 動きべク トル(a,b)によって、 被予測 画像領域の位置(x, y)の画素に対する予測画像位置(χ' , y' )を下式によつ て決定する。
x' = X + a
y = y +
決定された予測画像位置をメモリ読み出しァドレス生成部 1 6 5に出力 する。
1— 2) 予測メモリ指示情報 8 0 0がメモリ bを指示している場合 (ス テツプ S 1 0 3 )
動きべク トル 4に基づいてァフィン変換式を決定する。 具体的には、 被予測画像領域を取り囲む矩形領域の頂点の動きべク トルを用いて、 下 式のァフィンパラメータ(a,b,c, Θ)を決定する。
= a (cos θ ) x + a (sin θ ) y + b
y ' = a (-sin Θ ) x + a (cos Θ ) y + c
これにより、 被予測画像領域の位置(x,y)の画素に対する予測画像位置( x',y')を求め、 メモリ読み出しアドレス生成部 1 6 5に出力する (ステ ップ S 1 04 ) 。
1— 3) 予測メモリ指示情報 8 0 0がメモリ cを指示している場合 (ス テツプ S 1 0 6 )
動きべク トルに基づいて遠近法変換式を決定する。 具体的には、 被予 測画像領域を取り囲む矩形領域の頂点の動きべク トルを用いて、 下式の 遠近法パラメータ(a,b,c,d,e, f)を決定する。
X = 、a x + b y + c)Ag x + h y + l)
y' = (d x + e y + f)/(g x + h y + 1)
これにより、 被予測画像領域の位置(x,y)の画素に対する予測画像位置( x',y')を求め、 メモリ読み出しア ドレス生成部に出力する (ステップ S 1 0 7) 。
2) 予測画像生成用データの読み出し
選択された対応点決定部から出力される予測画像位置(χ' y' )を基に、 メモリ読み出しァドレス生成部 1 6 5がメモリに蓄積されている参照画 像中の予測画像生成に必要な画像データの位置を特定するメモリァドレ スを生成し、 予測画像生成用データを読み出す (ステップ S 1 0 2、 S 1 0 5、 S 1 08 ) 。
3) 予測画像の生成
予測画像を構成する画素のうち、 整数画素位置の画素ならば、 予測画 像生成用データがそのまま予測画像構成画素となる。 一方、 実数精度の 画素位置の画素の場合、 内挿処理部 1 6 7によって予測画像生成用デ一 タの内挿処理によって内挿画素値が生成される (ステップ S 1 0 9, S 1 1 0, S 1 1 1 ) 。 内揷画素値の生成は図 26による。 図 26におい て、 (iP, jP)は整数画素位置を示し、 (i',j')は実数精度の画素位置を示 し、 wは重みを示す。
4) メモリ (参照画像) の更新
図 28に、 メモリ更新部 1 1 5の制御のフローチャートを示す。 メモ リ更新部 1 1 5では、 予測モード 8 (又は、 予測メモリ指示情報 8 0 0 ) に基づいて予測画像取り出しの単位 (例えばマクロブロ ック単位) で 各メモリの更新を制御する。 メモリ aを用いて予測した場合 (ステップ S 1 1 2 ) は、 復号画像 1 0 1によって逐次、 メモリ aおよび cの内容 を更新する (ステップ S 1 1 3 ) 。 メモリ bを用いて予測した場合 (ス テツプ S 1 1 4 ) は、 メモリ bはスタティックスプライ トメモリなので 、 メモリ bの参照画像は予測画像取り出しの単位では更新しない。 しか し、 復号画像 1 0 1によって逐次、 メモリ aおよびび cの内容を更新す る (ステップ S 1 1 5 ) 。 一方、 メモリ b更新情報 1 0 0 1による更新 指示を受けた場合、 メモリ b更新情報 1 0 0 1に含まれる画像データを 受け取りメモリ bの内容を全面更新する (ステップ S 1 1 6 ) 。 また、 メモリ cを用いて予測した場合 (ステップ S 1 1 7 ) は、 復号画像 1 0 1によって逐次、 メモリ aおよび cの内容を更新する (ステップ S 1 1 8 ) 。 また、 メモリ更新情報により更新指示を受けた場合に、 メモリ c 更新情報 1 0 0 2に含まれる画像データを受け取りメモリ cの内容を更 新する (ステップ S 1 1 9 ) 。
この実施の形態においては、 メモリ a, b, cの 3つのメモリを用い る場合を示したが、 2つのメモリを用いる場合であっても構わない。 例 えば、 メモリ aと b、 即ち、 フレームメモリとスタティックスプライ ト メモリを用いる場合でも構わない。 或いは、 メモリ a と c、 即ち、 フレ ームメモリとダイナミックスプライ トメモリを用いる場合でも構わない 以上のように、 本実施の形態の復号装置によれば、 画像の動きに対応 して様々な種類の動きパラメータを用いて効率よく予測を行った符号化 されたビッ トス トリーム 2 1を復号できるとともに、 符号化側で定めら れるタイミングで参照画像の内容を任意に更新する仕組みに対応できる ので、 より画像の性質に適応した復号処理を行うことが可能である。 本寒施の形態では、 直交変換符号化以外の別の符号化方式によって予 測誤差信号を符号化したビッ トス ト リームであっても、 動き補償部 · メ モリ更新部以外の、 予測誤差信号復号処理のための部材を変更すること で同様の効果を得ることができる。
また、 本実施の形態は、 固定サイズブロックを単位として復号処理を 行うような通常のテレビ信号のフレームを単位とする復号装置に適用で きるだけでなく、 被予測対象領域を固定サイズブロックに限定せずに、 任意形状画像ォブジェク ト (例 : ISO/IEC JTC1/SC29/WG11/N1902で開示 される Video Object Planeなど) を単位とする復号装置にも適用可能で ある。 産業上の利用可能性
以上説明したように、 この発明によれば、 参照用画像を蓄積するメモ リ領域を複数個持つので、 動画像シーケンスの性質に応じてメモリに振 り分けて蓄積することができ、 また、 複数のメモリ領域のうち 1つ以上 のメモリ領域の内容を任意のタイミングで更新可能なので、 背景画像な どの時不変な画像内容は長時間内容の更新を行わず、 局所的に変化する 画像領域は頻繁にメモリ内容を更新するなどの制御が可能となり、 動画 像シーケンスの履歴を生かした効率的な予測が行える。
また、 複数のメモリ領域それぞれに、 各メモリ領域が有効となる変形 パラメ一タ値域を設定し、 被予測画像領域の変形パラメータの値に応じ てメモリ領域を切り替えて予測に用いるるので、 動画像シーケンスの局 所的 大域的な動きの大きさに応じて効率的な予測が行える。 同時に、 被予測画像領域ごとに符号化すべき動きパラメータは参照メモリ領域の 有効動きパラメータ値域の範囲内で効率的に符号化することができる。 また、 複数のメモリ領域それぞれに、 各メモリで有効となる変形手法 を設定 、 被予測画像領域の変形パラメータの種類に応じてメモリを切 り替えて予測できるので、 動画像シーケンスの局所的/ "大域的な動きの 複雑さに応じて効率的な予測が行える。 同時に、 被予測画像領域の動き の性質にあわせて変形手法を適宜選択できることで、 動きパラメータを 効率的に符号化することができる。

Claims

請 求 の 範 囲
1 , 予測に際して参照する画像デ一タを蓄積するとともに、 それぞれ個 別の変形手法が対応づけられている複数のメモリと、
被予測画像領域の動きを表現するパラメ一タを入力し、 該被予測画像 領域の予測に用いたメモリに蓄積された画像データを用いて、 上記パラ メータと、 該メモリに対応づけられた変形手法に基づき予測画像を生成 する予測画像生成部とを備え、
少なく とも符号化装置および復号装置のいずれかに用いられることを 特徴とする動画像を予測する動画像予測方式。
2 . 上記符号化装置は、 上記予測画像の生成に用いた該メモリを示す予 測メモリ指示情報信号を生成し、 復号側でも該メモリに蓄積された画像 データを用いて、 該メモリに対応づけられた変更手法に基づき上記予測 画像が生成できるように、 上記予測メモリ指示情報信号と上記パラメ一 タを復号側へ送信することを特徴とする請求項 1記載の動画像予測方式
3 . 上記復号装置は、 上記パラメータと上記予測画像の生成に用いたメ モリを示す予測メモリ指示情報を符号化側から受け取り、
上記予測画像生成部は、 上記パラメ一タと該メモリに対応づけられた 変形手法に基づき、 該メモリに蓄積された画像データを用いて上記予測 画像を生成することを特徴とする請求項 1記載の動画像予測方式。
4 . 予測 Jこ際して参照する画像データを蓄積するとともに、 それぞれ個 別のパラメータ有効値域が対応づけられている複数のメモリと、 被予測画像領域の動きを表現するパラメ一タを入力し、 該パラメータ の値を含む上記パラメータ有効値域が対応づけられたメモリを選択し、 選択されたメモリに蓄積された画像データを用いて予測画像を生成する 予測画像生成部とを備え、
少なく とも符号化および復号のいずれかに用いられることを特徴とす る動画像を予測する動画像予測方式。
5 . 予測に際して参照する画像データを蓄積する複数のメモリと、 被予測画像領域の動きを表現するパラメータを入力し、 該パラメータ に基づいて上記複数のメモリに蓄積された画像データを用いて予測画像 を生成する動き補償部と、 上記複数のメモリの少なく とも 1つのメモリ に蓄積される画像データを任意のタイミングで更新するメモリ更新部と を有する予測画像生成部とを備え、
少なく とも符号化および復号のいずれかに用いられることを特徴とす る動画像を予測する動画像予測方式。
6 . 上記動画像予測方式は、 第 1と第 2の動画像オブジェク トを有する 動画像シーケンス上の動画像を予測し、
上記複数のメモリは、 上記第 1と第 2の動画像オブジェク トに対応す る第 1 と第 2の個別の複数のメモリを備え、 上記予測画像生成部は、 上 記第 1と第 2の動画像ォブジェク トに対応する第 1と第 2の個別の生成 部を備えており、
上記第 1の生成部は、 上記第 1のオブジェク トを予測する場合に、 少 なくとも上記第 1 と第 2の複数のメモリのいずれかに蓄積されている画 像デ一タ_を用いて上記予測画像を生成するとともに、 第 2の複数のメモ リを第 1のォブジェク トの予測に使用しているか否かを示す情報を予測 画像に付加するために生成することを特徴とする請求項 1、 4、 5いず れかに記載の動画像予測方式。
7 . 上記予測画像生成部は、 動画像の各時刻における変化に応じて、 上 記複数のメモリの数とサイズのいずれかを増減することにより予測画像 を生成することを特徴とする請求項 1、 4、 5いずれかに記載の動画像 予測方式。
8 . 上記予測画像生成部は、 動画像の各時刻における変化に応じて、 予 測に用いるメモリを限定することにより予測画像を生成することを特徴 とする請求項 1、 4、 5いずれかに記載の動画像予測方式。
9 . 上記予測画像生成部は、 上記複数のメモリに蓄積された上記画像デ —タを用いてそれぞれに生成された複数の予測画像を演算することによ り予測画像を生成することを特徴とする請求項 1記載の動画像予測方式
1 0 . 上記動画像予測方式は、 被予測画像領域の重要度を示す特徴量パ ラメ一タを検出する重要度検出部を備え、
上記予測画像生成部は、 上記特徴量パラメータに基づいて、 少なく と も複数の予測方式と、 複数のメモリと、 複数のメモリ更新方法のいずれ かについて、 複数の選択肢の中から少なくとも 1つを選択することによ り予測画像を生成することを特徴とする請求項 1記載の動画像予測方式
. 上記動画像予測方式は、 少なくとも、 被予測画像領域が利用可能 な符号量と、 各時刻における該画像領域の変化量と、 該画像領域の重要 度のいずれかを表すパラメータを検出する重要度検出部を備え、 上記予測画像生成部は、 上記パラメ一タに基づいて、 少なく とも複数 の予測方式と、 複数のメモリと、 複数のメモリ更新方法のいづれかにつ いて、 複数の選択肢の少なく とも 1つを選択することにより予測画像を 生成することを特徴とする請求項 1又は 5記載の動画像予測方式。
1 2 . 上記動画像予測方式は、 動画像を動画像オブジェク ト単位で予測 し、
上記動画像予測方式は、 少なく とも、 被予測動画像ォブジェク 卜が利 用可能な符号量と、 各時刻における該動画像オブジェク トの変化量と、 該動画像オブジェク トの重要度のいずれかを表すパラメータを検出する 重要度検出部を備え、
上記予測画像生成部は、 上記パラメータに基づいて、 少なく とも複数 の予測方式と、 複数のメモリと、 複数のメモリ更新方法のいづれかにつ いて、 複数の選択肢の少なく とも 1つを選択することにより予測画像を 生成することを特徴とする請求項 1又は 5記載の動画像予測方式。
1 3 . 上記動画像予測方式は、 動画像の符号化において、 予測に係る情 報を符号化する予測情報符号化部を備え、
上記予測画像生成部は、 予測に使用されるメモリの使用頻度数をカウ ントし、 カウントした使用頻度数に基づいて上記複数のメモリのランク を決定し、
上記予測情報符号化部は、 予測に用いられるメモリのランクに応じて 、 予測に _係わる情報に符号長を割り当てることにより予測に係わる情報 を符号化することを特徴とする請求項 1又は 5記載の動画像予測方式。
1 4 . 上記複数のメモリは、 少なく とも、 画像データをフレーム単位で 蓄積するフレームメモリと、 スプライ ト画像を蓄積するスプライ トメモ リとを有することを特徴とする請求項 1記載の動画像予測方式。
1 5 . 上記スプライ トメモリは、 少なく とも、 逐次更新を伴うダイナミ ックスプライ トメモリ と逐次更新を伴わないスタティックスプライ トメ モリのいずれかを有することを特徴とする請求項第 1 4記載の動画像予 測方式。
1 6 . 上記複数のメモリは、 少なく とも、 平行移動、 ァフィン変換、 遠 近法変換の内のいずれかの変形手法が変更可能に対応づけられることを 特徴とする請求項第 1 4記載の動画像予測方式。
1 7 . 予測に際して参照する画像データを複数のメモリに蓄積する工程 と、
上記複数のメモリにそれぞれ個別の変形手法を対応づける工程と、 被予測画像領域の動きを表現するパラメータを入力する工程と、 上記被予測画像領域の予測に用いたメモリに蓄積された画像データを 用いて、 上記パラメータと該メモリに対応づけられた変形手法に基づき 予測画像を生成する工程を備え、
少なく とも符号化および復号のいずれかに用いられることを特徴とす る動画像を予測する方法。
1 8 . _上記動画像を予測する方法は、 さらに、 上記予測画像生成に用い た該メモリを示す予測メモリ指示情報信号を生成する工程と、 上記予測メモリ情報信号と上記パラメ一タを復号側へ送信する工程と を備えたことを特徴とする請求項 1 7記載の動画像を予測する方法。
1 9 . 上記動画像を予測する方法は、 さらに、 予測画像の生成に用いた メモリを示す予測メモリ指示情報信号と被予測画像領域の動きを表現す るパラメータを符号化側から受け取る工程を備え、 復号に用いられるこ とを特徴とする請求項 1 7記載の動画像を予測する方法。
2 0 . 予測に際して参照する画像データを複数のメモリに蓄積する工程 と、
上記複数のメモリにそれぞれ個別のパラメータ有効値域を対応づける 工程と、
被予測画像領域の動きを表現するパラメータを入力する工程と、 上記パラメ一タの値を含む上記パラメ一タ有効値域が対応づけられた メモリを選択する工程と、
選択されたメモリに格納された画像データを用いて予測画像を生成す る工程を備え、 少なく とも符号化および復号のいずれかに用いられるこ とを特徴とする動画像を予測する方法。 2 1 . 予測に際して参照する画像データを複数のメモリに蓄積する工程 と、
被予測画像領域の動きを表現するパラメ一タを入力する工程と、 上記パラメータに基づいて、 上記複数のメモリに蓄積された画像デー タを用いて予測画像を生成する工程と、
上記複敎のメモリの少なく とも 1つのメモリに格納される画像データ を任意のタイミングで更新する工程を備え、 少なく とも符号化および復 号のいずれかに用いられることを特徴とする動画像を予測する方法
PCT/JP1998/000232 1997-02-13 1998-01-22 Moving picture prediction system WO1998036576A1 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP53555298A JP3748895B2 (ja) 1997-02-13 1998-01-22 符号化装置及び復号装置及び符号化方法及び復号方法
US09/142,577 US6775326B2 (en) 1997-02-13 1998-01-22 Moving image estimating system
KR1019980708155A KR100309086B1 (ko) 1997-02-13 1998-01-22 동화상예측시스템및방법
EP98900693A EP0898427A4 (en) 1997-02-13 1998-01-22 ANIMATED IMAGE ESTIMATION SYSTEM
US11/932,735 US9225945B2 (en) 1997-02-13 2007-10-31 Moving picture encoder and encoding method
US11/932,623 US9232198B2 (en) 1997-02-13 2007-10-31 Moving picture prediction system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP9/28862 1997-02-13
JP2886297 1997-02-13

Related Child Applications (4)

Application Number Title Priority Date Filing Date
EP10010359.7A Previously-Filed-Application EP2352297B1 (en) 1997-02-13 1998-01-22 Moving picture decoding apparatus
EP10010358.9A Previously-Filed-Application EP2369847B1 (en) 1997-02-13 1998-01-22 Moving picture decoding method
US09/142,577 A-371-Of-International US6775326B2 (en) 1997-02-13 1998-01-22 Moving image estimating system
US10/642,508 Division US20050100092A1 (en) 1997-02-13 2003-08-18 Moving picture prediction system

Publications (2)

Publication Number Publication Date
WO1998036576A1 true WO1998036576A1 (en) 1998-08-20
WO1998036576A8 WO1998036576A8 (en) 1999-12-16

Family

ID=12260195

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1998/000232 WO1998036576A1 (en) 1997-02-13 1998-01-22 Moving picture prediction system

Country Status (8)

Country Link
US (7) US6775326B2 (ja)
EP (12) EP2352300A1 (ja)
JP (10) JP3748895B2 (ja)
KR (1) KR100309086B1 (ja)
CN (5) CN101026762B (ja)
HK (3) HK1109001A1 (ja)
TW (1) TW376650B (ja)
WO (1) WO1998036576A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003531532A (ja) * 2000-04-14 2003-10-21 シーメンス アクチエンゲゼルシヤフト 時間的に順次連続する画像の画像情報を記憶および処理するための方法並びに装置
JP2003333602A (ja) * 2002-05-03 2003-11-21 Lg Electronics Inc 動画コーディング方法
WO2005062625A1 (ja) * 2003-12-22 2005-07-07 Nec Corporation 動画像を符号化する方法及び装置
JP2011199411A (ja) * 2010-03-17 2011-10-06 Panasonic Corp 画像符号化装置及びカメラシステム
JP2012512566A (ja) * 2008-12-12 2012-05-31 クゥアルコム・インコーポレイテッド デコードされたピクチャのインテリジェントなバッファリング
JP2013106090A (ja) * 2011-11-10 2013-05-30 Ntt Docomo Inc 動画像予測符号化方法、動画像予測符号化装置、動画像予測符号化プログラム、動画像予測復号方法、動画像予測復号装置および動画像予測復号プログラム

Families Citing this family (117)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2352300A1 (en) * 1997-02-13 2011-08-03 Mitsubishi Denki Kabushiki Kaisha Moving picture prediction system
US6499060B1 (en) * 1999-03-12 2002-12-24 Microsoft Corporation Media coding for loss recovery with remotely predicted data units
US6959043B2 (en) * 2000-05-15 2005-10-25 Matsushita Electric Industrial Co., Ltd. Video decoding method, video decoding apparatus, and video decoding program storage medium
KR20030042115A (ko) * 2001-11-21 2003-05-28 정한승 다중 레퍼런스 프레임 기반의 동영상 부호화 방법
JP3936335B2 (ja) * 2001-11-30 2007-06-27 株式会社エヌ・ティ・ティ・ドコモ 動画像符号化装置、動画像復号化装置、動画像符号化方法、動画像復号化方法、プログラム及びプログラムを記憶したコンピュータ読み取り可能な記録媒体
US7130472B2 (en) * 2002-01-21 2006-10-31 Canon Kabushiki Kaisha Image distribution apparatus, communication terminal apparatus, and control method thereof
FI114527B (fi) 2002-01-23 2004-10-29 Nokia Corp Kuvakehysten ryhmittely videokoodauksessa
KR100931915B1 (ko) * 2002-01-23 2009-12-15 노키아 코포레이션 비디오 코딩시 이미지 프레임들의 그루핑
KR100508798B1 (ko) * 2002-04-09 2005-08-19 엘지전자 주식회사 쌍방향 예측 블록 예측 방법
US7119837B2 (en) * 2002-06-28 2006-10-10 Microsoft Corporation Video processing system and method for automatic enhancement of digital video
US7421129B2 (en) * 2002-09-04 2008-09-02 Microsoft Corporation Image compression and synthesis for video effects
JP4007594B2 (ja) * 2002-09-26 2007-11-14 株式会社東芝 動画像符号化装置及び方法、動画像符号化方式変換装置及び方法
EP1614297A1 (en) * 2003-04-04 2006-01-11 Koninklijke Philips Electronics N.V. Video encoding and decoding methods and corresponding devices
DE602004028927D1 (de) * 2003-05-06 2010-10-14 Nxp Bv Videokodierungs- und dekodierungsverfahren und entsprechende kodierungs- und dekodierungsvorrichtungen
US7408986B2 (en) * 2003-06-13 2008-08-05 Microsoft Corporation Increasing motion smoothness using frame interpolation with motion analysis
US7558320B2 (en) * 2003-06-13 2009-07-07 Microsoft Corporation Quality control in frame interpolation with motion analysis
US20050105621A1 (en) * 2003-11-04 2005-05-19 Ju Chi-Cheng Apparatus capable of performing both block-matching motion compensation and global motion compensation and method thereof
US7521174B2 (en) * 2003-12-05 2009-04-21 Albert Einstein College Of Medicine Of Yeshiva University Universal red blood cells, methods of preparing same, and uses thereof
JP2007524309A (ja) * 2004-02-20 2007-08-23 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ビデオ復号の方法
KR100994773B1 (ko) 2004-03-29 2010-11-16 삼성전자주식회사 계층적 움직임 추정에 있어서 움직임 벡터 생성 방법 및장치
JP4414904B2 (ja) * 2004-04-16 2010-02-17 株式会社エヌ・ティ・ティ・ドコモ 動画像符号化装置、動画像符号化方法、動画像符号化プログラム、動画像復号装置、動画像復号方法、及び動画像復号プログラム
US8902971B2 (en) * 2004-07-30 2014-12-02 Euclid Discoveries, Llc Video compression repository and model reuse
US9743078B2 (en) 2004-07-30 2017-08-22 Euclid Discoveries, Llc Standards-compliant model-based video encoding and decoding
US9578345B2 (en) 2005-03-31 2017-02-21 Euclid Discoveries, Llc Model-based video encoding and decoding
WO2008091483A2 (en) 2007-01-23 2008-07-31 Euclid Discoveries, Llc Computer method and apparatus for processing image data
US9532069B2 (en) 2004-07-30 2016-12-27 Euclid Discoveries, Llc Video compression repository and model reuse
DE102004049156B4 (de) 2004-10-08 2006-07-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Codierschema für einen ein zeitlich veränderliches Graphikmodell darstellenden Datenstrom
US8948266B2 (en) * 2004-10-12 2015-02-03 Qualcomm Incorporated Adaptive intra-refresh for digital video encoding
JP4257655B2 (ja) * 2004-11-04 2009-04-22 日本ビクター株式会社 動画像符号化装置
JP4501676B2 (ja) * 2004-12-22 2010-07-14 日本電気株式会社 動画像圧縮符号化方法と動画像圧縮符号化装置並びにプログラム
US8634413B2 (en) 2004-12-30 2014-01-21 Microsoft Corporation Use of frame caching to improve packet loss recovery
JP4480156B2 (ja) * 2005-02-02 2010-06-16 キヤノン株式会社 画像処理装置及び方法
US7822121B2 (en) * 2005-03-17 2010-10-26 Lsi Corporation Method and/or apparatus for implementing global motion compensation in a video system
US20060215036A1 (en) * 2005-03-25 2006-09-28 Multivision Intelligent Surveillance (Hk) Ltd. Method and apparatus for video stabilization
US7769274B2 (en) * 2005-05-06 2010-08-03 Mediatek, Inc. Video processing and optical recording using a shared memory
CA2610276C (en) * 2005-07-22 2013-01-29 Mitsubishi Electric Corporation Image encoder and image decoder, image encoding method and image decoding method, image encoding program and image decoding program, and computer readable recording medium recorded with image encoding program and computer readable recording medium recorded with image decoding program
US8509551B2 (en) * 2005-07-22 2013-08-13 Mitsubishi Electric Corporation Image encoder and image decoder, image encoding method and image decoding method, image encoding program and image decoding program, and computer readable recording medium recording with image encoding program and computer readable recording medium recorded with image decoding program
US8488889B2 (en) * 2005-07-22 2013-07-16 Mitsubishi Electric Corporation Image encoder and image decoder, image encoding method and image decoding method, image encoding program and image decoding program, and computer readable recording medium recorded with image encoding program and computer readable recording medium recorded with image decoding program
JP4514666B2 (ja) * 2005-07-25 2010-07-28 シャープ株式会社 動画像符号化装置
US7596243B2 (en) 2005-09-16 2009-09-29 Sony Corporation Extracting a moving object boundary
US8165205B2 (en) * 2005-09-16 2012-04-24 Sony Corporation Natural shaped regions for motion compensation
US8005308B2 (en) * 2005-09-16 2011-08-23 Sony Corporation Adaptive motion estimation for temporal prediction filter over irregular motion vector samples
US8059719B2 (en) * 2005-09-16 2011-11-15 Sony Corporation Adaptive area of influence filter
US7957466B2 (en) * 2005-09-16 2011-06-07 Sony Corporation Adaptive area of influence filter for moving object boundaries
US8107748B2 (en) * 2005-09-16 2012-01-31 Sony Corporation Adaptive motion search range
US7620108B2 (en) * 2005-09-16 2009-11-17 Sony Corporation Integrated spatial-temporal prediction
US7885335B2 (en) * 2005-09-16 2011-02-08 Sont Corporation Variable shape motion estimation in video sequence
US20070064805A1 (en) * 2005-09-16 2007-03-22 Sony Corporation Motion vector selection
US7894527B2 (en) * 2005-09-16 2011-02-22 Sony Corporation Multi-stage linked process for adaptive motion vector sampling in video compression
US7894522B2 (en) * 2005-09-16 2011-02-22 Sony Corporation Classified filtering for temporal prediction
US7924914B2 (en) * 2005-09-20 2011-04-12 Intel Corporation Dynamically configuring a video decoder cache for motion compensation
JP4666255B2 (ja) * 2005-12-27 2011-04-06 日本電気株式会社 符号化データ選定、符号化データ設定、再符号化データ生成及び再符号化の方法及び装置
CN101496387B (zh) 2006-03-06 2012-09-05 思科技术公司 用于移动无线网络中的接入认证的系统和方法
US8363724B2 (en) 2006-07-11 2013-01-29 Thomson Licensing Methods and apparatus using virtual reference pictures
US7957601B2 (en) * 2006-08-30 2011-06-07 Siemens Medical Solutions Usa, Inc. Systems and methods of inter-frame compression
KR100678410B1 (ko) * 2006-11-13 2007-02-02 (주)아이팝엔지니어링종합건축사사무소 공동주택용 조립식 계단 설치구조
JP4875007B2 (ja) * 2007-02-09 2012-02-15 パナソニック株式会社 動画像符号化装置、動画像符号化方法、及び、動画像復号化装置
CN101543064B (zh) * 2007-02-20 2013-07-03 索尼株式会社 图像显示装置
US8634462B2 (en) * 2007-03-13 2014-01-21 Matthias Narroschke Quantization for hybrid video coding
US20080225947A1 (en) 2007-03-13 2008-09-18 Matthias Narroschke Quantization for hybrid video coding
US8145002B2 (en) * 2007-06-28 2012-03-27 Mitsubishi Electric Corporation Image encoding device and image encoding method
US8797377B2 (en) 2008-02-14 2014-08-05 Cisco Technology, Inc. Method and system for videoconference configuration
JP5281839B2 (ja) * 2008-07-23 2013-09-04 パナソニック株式会社 画像合成符号化方法、画像合成符号化装置、撮像システム
WO2010021153A1 (ja) * 2008-08-21 2010-02-25 パナソニック株式会社 動き検出装置
US8694658B2 (en) 2008-09-19 2014-04-08 Cisco Technology, Inc. System and method for enabling communication sessions in a network environment
EP2345256B1 (en) 2008-10-07 2018-03-14 Euclid Discoveries, LLC Feature-based video compression
JP2012080151A (ja) * 2009-02-09 2012-04-19 Toshiba Corp 幾何変換動き補償予測を用いる動画像符号化及び動画像復号化の方法と装置
US8659637B2 (en) 2009-03-09 2014-02-25 Cisco Technology, Inc. System and method for providing three dimensional video conferencing in a network environment
US8659639B2 (en) 2009-05-29 2014-02-25 Cisco Technology, Inc. System and method for extending communications between participants in a conferencing environment
EP2457377A1 (en) * 2009-07-23 2012-05-30 Thomson Licensing Methods and apparatus for adaptive transform selection for video encoding and decoding
US9082297B2 (en) 2009-08-11 2015-07-14 Cisco Technology, Inc. System and method for verifying parameters in an audiovisual environment
WO2011048764A1 (ja) * 2009-10-19 2011-04-28 パナソニック株式会社 復号装置、復号方法、プログラム、及び集積回路
CN101783958B (zh) * 2010-02-10 2011-10-05 中国科学院计算技术研究所 Avs视频标准中时域直接模式运动矢量的计算方法和装置
US9225916B2 (en) 2010-03-18 2015-12-29 Cisco Technology, Inc. System and method for enhancing video images in a conferencing environment
US9313452B2 (en) 2010-05-17 2016-04-12 Cisco Technology, Inc. System and method for providing retracting optics in a video conferencing environment
CN102959587A (zh) * 2010-06-29 2013-03-06 富士胶片株式会社 代表图像判定设备、图像压缩设备、以及用于控制其操作的方法和程序
US8896655B2 (en) 2010-08-31 2014-11-25 Cisco Technology, Inc. System and method for providing depth adaptive video conferencing
US8599934B2 (en) * 2010-09-08 2013-12-03 Cisco Technology, Inc. System and method for skip coding during video conferencing in a network environment
US9532059B2 (en) 2010-10-05 2016-12-27 Google Technology Holdings LLC Method and apparatus for spatial scalability for video coding
US8599865B2 (en) 2010-10-26 2013-12-03 Cisco Technology, Inc. System and method for provisioning flows in a mobile network environment
US8699457B2 (en) 2010-11-03 2014-04-15 Cisco Technology, Inc. System and method for managing flows in a mobile network environment
US9143725B2 (en) 2010-11-15 2015-09-22 Cisco Technology, Inc. System and method for providing enhanced graphics in a video environment
US9338394B2 (en) 2010-11-15 2016-05-10 Cisco Technology, Inc. System and method for providing enhanced audio in a video environment
US8902244B2 (en) 2010-11-15 2014-12-02 Cisco Technology, Inc. System and method for providing enhanced graphics in a video environment
US8730297B2 (en) 2010-11-15 2014-05-20 Cisco Technology, Inc. System and method for providing camera functions in a video environment
US8723914B2 (en) 2010-11-19 2014-05-13 Cisco Technology, Inc. System and method for providing enhanced video processing in a network environment
US9111138B2 (en) 2010-11-30 2015-08-18 Cisco Technology, Inc. System and method for gesture interface control
US8692862B2 (en) 2011-02-28 2014-04-08 Cisco Technology, Inc. System and method for selection of video data in a video conference environment
US8670019B2 (en) 2011-04-28 2014-03-11 Cisco Technology, Inc. System and method for providing enhanced eye gaze in a video conferencing environment
US8786631B1 (en) 2011-04-30 2014-07-22 Cisco Technology, Inc. System and method for transferring transparency information in a video environment
US8934026B2 (en) 2011-05-12 2015-01-13 Cisco Technology, Inc. System and method for video coding in a dynamic environment
JP2012244437A (ja) * 2011-05-19 2012-12-10 Canon Inc 画像処理装置、画像処理方法
US8989256B2 (en) * 2011-05-25 2015-03-24 Google Inc. Method and apparatus for using segmentation-based coding of prediction information
US9131245B2 (en) 2011-09-23 2015-09-08 Qualcomm Incorporated Reference picture list construction for video coding
JP5729825B2 (ja) * 2011-09-26 2015-06-03 日本電信電話株式会社 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム及び画像復号プログラム
US8947493B2 (en) 2011-11-16 2015-02-03 Cisco Technology, Inc. System and method for alerting a participant in a video conference
US9247257B1 (en) 2011-11-30 2016-01-26 Google Inc. Segmentation based entropy encoding and decoding
US8682087B2 (en) 2011-12-19 2014-03-25 Cisco Technology, Inc. System and method for depth-guided image filtering in a video conference environment
US9094681B1 (en) 2012-02-28 2015-07-28 Google Inc. Adaptive segmentation
KR20130108949A (ko) * 2012-03-26 2013-10-07 한국전자통신연구원 영상부호 및 복호화 단계에서의 이중 객체검출 및 이동경로 정보를 이용한 영상 압축 방법
US9332276B1 (en) 2012-08-09 2016-05-03 Google Inc. Variable-sized super block based direct prediction mode
US9380298B1 (en) 2012-08-10 2016-06-28 Google Inc. Object-based intra-prediction
US9681154B2 (en) 2012-12-06 2017-06-13 Patent Capital Group System and method for depth-guided filtering in a video conference environment
KR102121558B1 (ko) * 2013-03-15 2020-06-10 삼성전자주식회사 비디오 이미지의 안정화 방법, 후처리 장치 및 이를 포함하는 비디오 디코더
US9843621B2 (en) 2013-05-17 2017-12-12 Cisco Technology, Inc. Calendaring activities based on communication processing
JP2015002462A (ja) * 2013-06-17 2015-01-05 ソニー株式会社 画像圧縮回路、画像圧縮方法、および伝送システム
JP6614472B2 (ja) * 2013-09-30 2019-12-04 サン パテント トラスト 画像符号化方法、画像復号方法、画像符号化装置及び画像復号装置
US10097851B2 (en) 2014-03-10 2018-10-09 Euclid Discoveries, Llc Perceptual optimization for model-based video encoding
US10091507B2 (en) 2014-03-10 2018-10-02 Euclid Discoveries, Llc Perceptual optimization for model-based video encoding
US9621917B2 (en) 2014-03-10 2017-04-11 Euclid Discoveries, Llc Continuous block tracking for temporal prediction in video encoding
JP2017126896A (ja) * 2016-01-14 2017-07-20 株式会社東芝 監視システム、監視装置、および再生装置
US10448010B2 (en) * 2016-10-05 2019-10-15 Qualcomm Incorporated Motion vector prediction for affine motion models in video coding
US20190045213A1 (en) * 2017-08-03 2019-02-07 Intel Corporation Reference frame reprojection for improved video coding
JP7315821B2 (ja) * 2019-04-01 2023-07-27 日本電信電話株式会社 画像生成装置、画像生成方法、及びプログラム
US11095901B2 (en) * 2019-09-23 2021-08-17 International Business Machines Corporation Object manipulation video conference compression
US20220377356A1 (en) * 2019-11-15 2022-11-24 Nippon Telegraph And Telephone Corporation Video encoding method, video encoding apparatus and computer program
US20240089460A1 (en) * 2022-09-13 2024-03-14 Ati Technologies Ulc Scene-change detection at server for triggering client-side temporal frame buffer reset

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08172631A (ja) * 1994-12-20 1996-07-02 Matsushita Electric Ind Co Ltd 画像予測符号化方法

Family Cites Families (90)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5886A (en) * 1848-10-31 Shihgle-machine
US4218704A (en) 1979-03-16 1980-08-19 Bell Telephone Laboratories, Incorporated Method and apparatus for video signal encoding with motion compensation
US4460923A (en) * 1981-06-01 1984-07-17 Nippon Electric Co., Ltd. Predictive coding system for television signals
JPS58127488A (ja) 1982-01-25 1983-07-29 Kokusai Denshin Denwa Co Ltd <Kdd> テレビジヨン信号の適応予測符号化方式
GB8724789D0 (en) 1987-10-19 1987-11-25 British Telecomm Signal coding
JP2810052B2 (ja) * 1987-11-18 1998-10-15 株式会社日立製作所 伝送装置
FR2623955B1 (fr) * 1987-11-27 1990-04-27 Labo Electronique Physique Procede et dispositif d'estimation et de compensation de mouvement dans une sequence d'images et leur application dans un systeme de transmission d'images de television a haute definition
JPH02171093A (ja) 1988-12-23 1990-07-02 Nec Corp 動画像の予測符号化方式
US5151754A (en) * 1989-10-06 1992-09-29 Kabushiki Kaisha Toshiba Method and an apparatus for measuring a displacement between two objects and a method and an apparatus for measuring a gap distance between two objects
JPH04127689A (ja) 1990-09-19 1992-04-28 Hitachi Ltd 動画像予測符号化方式
US5205177A (en) * 1991-01-23 1993-04-27 Research-Cottrell, Inc. Method and apparatus for gas monitoring
US5353062A (en) * 1991-04-25 1994-10-04 Canon Kabushiki Kaisha Method and apparatus for decoding moving images encoded by inter-frame prediction and displaying it
US5185819A (en) * 1991-04-29 1993-02-09 General Electric Company Video signal compression apparatus for independently compressing odd and even fields
US5151784A (en) * 1991-04-30 1992-09-29 At&T Bell Laboratories Multiple frame motion estimation
US5647049A (en) * 1991-05-31 1997-07-08 Kabushiki Kaisha Toshiba Video recording/reproducing apparatus which uses a differential motion vector determined using two other motion vectors
US5428396A (en) * 1991-08-03 1995-06-27 Sony Corporation Variable length coding/decoding method for motion vectors
US5231384A (en) * 1991-08-26 1993-07-27 General Electric Company Apparatus for splitting video signal between two channels
US5420635A (en) * 1991-08-30 1995-05-30 Fuji Photo Film Co., Ltd. Video camera, imaging method using video camera, method of operating video camera, image processing apparatus and method, and solid-state electronic imaging device
US5488482A (en) * 1992-01-29 1996-01-30 Mitsubishi Denki Kabushiki Kaisha High-efficiency encoder and video information recording/reproducing apparatus
US5247363A (en) * 1992-03-02 1993-09-21 Rca Thomson Licensing Corporation Error concealment apparatus for hdtv receivers
JP2636622B2 (ja) * 1992-03-13 1997-07-30 松下電器産業株式会社 ビデオ信号の符号化方法及び復号化方法ならびにビデオ信号の符号化装置及び復号化装置
US5420638A (en) * 1992-04-14 1995-05-30 U.S. Philips Corporation Subassembly for coding images with refresh correction of the data to be coded, and subassembly for decording signals representing these images and previously coded by means of a subassembly of the former kind
JPH05344493A (ja) * 1992-06-10 1993-12-24 Victor Co Of Japan Ltd 動画像符号化装置
JP3245977B2 (ja) * 1992-06-30 2002-01-15 ソニー株式会社 ディジタル画像信号の伝送装置
JP3358835B2 (ja) * 1992-12-14 2002-12-24 ソニー株式会社 画像符号化方法及び装置
WO1994018799A1 (en) * 1993-02-03 1994-08-18 Qualcomm Incorporated Interframe video encoding and decoding system
TW224553B (en) * 1993-03-01 1994-06-01 Sony Co Ltd Method and apparatus for inverse discrete consine transform and coding/decoding of moving picture
US5592228A (en) * 1993-03-04 1997-01-07 Kabushiki Kaisha Toshiba Video encoder using global motion estimation and polygonal patch motion estimation
US5515388A (en) * 1993-03-19 1996-05-07 Sony Corporation Apparatus and method for preventing repetitive random errors in transform coefficients representing a motion picture signal
US5815646A (en) * 1993-04-13 1998-09-29 C-Cube Microsystems Decompression processor for video applications
BE1007252A3 (nl) * 1993-06-29 1995-05-02 Philips Electronics Nv Bewegingscompensator.
US5329365A (en) * 1993-07-07 1994-07-12 Rca Thomson Licensing Corporation Method and apparatus for providing compressed non-interlaced scanned video signal
US5699474A (en) 1993-07-12 1997-12-16 Sony Corporation Method and apparatus for decoding MPEG-type data reproduced from a recording medium during a high-speed reproduction operation
EP1130922B1 (en) * 1993-07-12 2008-09-24 Sony Corporation Processing digital video data
JPH0799658A (ja) * 1993-08-03 1995-04-11 Sony Corp 動きベクトル検出装置
KR0122745B1 (ko) * 1993-10-28 1997-11-17 배순훈 개선된 메모리 구조를 갖는 동영상 복호화장치
US5625656A (en) * 1993-10-29 1997-04-29 General Electric Company Method for monitoring noble metal distribution in reactor circuit during plant application
JPH07184206A (ja) 1993-12-24 1995-07-21 Mitsubishi Electric Corp 画像符号化装置
JP3031152B2 (ja) * 1993-12-24 2000-04-10 日本電気株式会社 動き予測プロセッサ及び動き予測装置
KR950024600A (ko) * 1994-01-31 1995-08-21 김광호 휘도신호적응 움직임 평가방법
JPH07226917A (ja) 1994-02-14 1995-08-22 Toshiba Corp 画像再生方式及び装置
US5576765A (en) * 1994-03-17 1996-11-19 International Business Machines, Corporation Video decoder
JPH07336461A (ja) 1994-06-03 1995-12-22 Canon Inc 画像通信装置
KR0134483B1 (ko) * 1994-06-14 1998-05-15 배순훈 디코더에 있어서 어드레스 보정 회로(address correction circuit of the decoder)
KR0148154B1 (ko) * 1994-06-15 1998-09-15 김광호 움직임크기에 따른 동영상데이타의 부호화방법 및 장치
US5684538A (en) * 1994-08-18 1997-11-04 Hitachi, Ltd. System and method for performing video coding/decoding using motion compensation
DE69533870T2 (de) * 1994-10-19 2005-05-25 Matsushita Electric Industrial Co., Ltd., Kadoma Vorrichtung zur Bilddekodierung
KR100396971B1 (ko) * 1994-11-29 2003-11-03 산요덴키가부시키가이샤 인코드된비디오데이터의에러검출및처리기능을구비한비디오디코더
US5767911A (en) * 1994-12-20 1998-06-16 Matsushita Electric Industrial Co., Ltd. Object-based digital image predictive coding transfer method and apparatus, and decoding apparatus
KR100235343B1 (ko) * 1994-12-29 1999-12-15 전주범 영역분할 기법을 이용한 동영상신호 부호화기의 움직임 벡터 측정장치
EP0721286A3 (en) * 1995-01-09 2000-07-26 Matsushita Electric Industrial Co., Ltd. Video signal decoding apparatus with artifact reduction
JP3694912B2 (ja) * 1995-02-23 2005-09-14 株式会社日立製作所 メモリ制御方法及び画像復号装置
US6064803A (en) * 1995-03-01 2000-05-16 Matsushita Electric Industrial Co., Ltd. Image information decoder with a reduced capacity frame memory
JP3086396B2 (ja) * 1995-03-10 2000-09-11 シャープ株式会社 画像符号化装置及び画像復号装置
KR0171118B1 (ko) * 1995-03-20 1999-03-20 배순훈 비디오신호 부호화 장치
JP4223571B2 (ja) * 1995-05-02 2009-02-12 ソニー株式会社 画像符号化方法及び装置
JP3803122B2 (ja) * 1995-05-02 2006-08-02 松下電器産業株式会社 画像メモリ装置および動きベクトル検出回路
JP3824678B2 (ja) * 1995-05-09 2006-09-20 株式会社ルネサステクノロジ 画像復号表示装置
KR100203243B1 (ko) * 1995-07-31 1999-06-15 윤종용 에스디알에이엠에 프레임의 영상신호를 기록하는 방법
JPH0955941A (ja) * 1995-08-16 1997-02-25 Sony Corp 画像符号化方法、画像符号化装置、及び画像符号化データの記録装置
EP2129133A3 (en) * 1995-08-29 2012-02-15 Sharp Kabushiki Kaisha Video coding device and video decoding device with a motion compensated interframe prediction
JPH10509008A (ja) * 1995-09-06 1998-09-02 フィリップス エレクトロニクス ネムローゼ フェンノートシャップ 符号化信号に対応するセグメント化された画像のシーケンスを符号化する方法及びシステム、記憶媒体、並びにこのような符号化信号を復号化する方法及びシステム
JP3068002B2 (ja) * 1995-09-18 2000-07-24 沖電気工業株式会社 画像符号化装置、画像復号化装置及び画像伝送システム
JPH0997425A (ja) * 1995-09-29 1997-04-08 Kao Corp 磁気記録媒体の製造方法
JPH0998425A (ja) * 1995-09-29 1997-04-08 Toshiba Corp 画像符号化装置および画像復号化装置
US5959672A (en) * 1995-09-29 1999-09-28 Nippondenso Co., Ltd. Picture signal encoding system, picture signal decoding system and picture recognition system
JPH09121358A (ja) 1995-10-25 1997-05-06 Matsushita Electric Ind Co Ltd 画像符号化及び復号化装置と方法
WO1997017797A2 (en) * 1995-10-25 1997-05-15 Sarnoff Corporation Apparatus and method for quadtree based variable block size motion estimation
JP3347954B2 (ja) * 1995-11-02 2002-11-20 三菱電機株式会社 動画像符号化装置及び動画像復号化装置
IL116060A (en) * 1995-11-19 2000-02-17 Israel State Method for compression and decompression of a video signal
US5963673A (en) * 1995-12-20 1999-10-05 Sanyo Electric Co., Ltd. Method and apparatus for adaptively selecting a coding mode for video encoding
US5692063A (en) * 1996-01-19 1997-11-25 Microsoft Corporation Method and system for unrestricted motion estimation for video
EP1229740A3 (en) * 1996-01-22 2005-02-09 Matsushita Electric Industrial Co., Ltd. Method and device for digital image encoding and decoding
US5764553A (en) * 1996-02-28 1998-06-09 Lsi Logic Corporation Generalized data processing path for performing transformation and quantization functions for video encoder systems
US5668599A (en) * 1996-03-19 1997-09-16 International Business Machines Corporation Memory management for an MPEG2 compliant decoder
US5719966A (en) * 1996-03-29 1998-02-17 David Sarnoff Research Center, Inc. Apparatus for assessing the visiblity of differences between two image sequences
US6084912A (en) * 1996-06-28 2000-07-04 Sarnoff Corporation Very low bit rate video coding/decoding method and apparatus
JP3628810B2 (ja) * 1996-06-28 2005-03-16 三菱電機株式会社 画像符号化装置
JP3426092B2 (ja) * 1996-09-12 2003-07-14 シャープ株式会社 動画像符号化装置における動き補償フレーム間予測方法
US6205178B1 (en) * 1996-09-20 2001-03-20 Hitachi, Ltd. Method and synthesizing a predicted image, video coding device and video coding method
US5870087A (en) 1996-11-13 1999-02-09 Lsi Logic Corporation MPEG decoder system and method having a unified memory for transport decode and system controller functions
EP2352300A1 (en) * 1997-02-13 2011-08-03 Mitsubishi Denki Kabushiki Kaisha Moving picture prediction system
US6175592B1 (en) * 1997-03-12 2001-01-16 Matsushita Electric Industrial Co., Ltd. Frequency domain filtering for down conversion of a DCT encoded picture
US6404813B1 (en) * 1997-03-27 2002-06-11 At&T Corp. Bidirectionally predicted pictures or video object planes for efficient and flexible video coding
SG65064A1 (en) * 1997-04-09 1999-05-25 Matsushita Electric Ind Co Ltd Image predictive decoding method image predictive decoding apparatus image predictive coding method image predictive coding apparatus and data storage media
JP3094944B2 (ja) * 1997-04-25 2000-10-03 日本電気株式会社 アービトレーション方法及びその装置
US6249318B1 (en) * 1997-09-12 2001-06-19 8×8, Inc. Video coding/decoding arrangement and method therefor
US5946043A (en) * 1997-12-31 1999-08-31 Microsoft Corporation Video coding using adaptive coding of block parameters for coded/uncoded blocks
US6425056B2 (en) * 1998-10-26 2002-07-23 Micron Technology, Inc. Method for controlling a direct mapped or two way set associative cache memory in a computer system
SG75189A1 (en) * 1998-12-04 2000-09-19 Canon Kk Image processing apparatus method therefor and recording medium storing image processing program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08172631A (ja) * 1994-12-20 1996-07-02 Matsushita Electric Ind Co Ltd 画像予測符号化方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
NYOZAWA H: "EFFICIENCY OF ENCODING IN CONFORMITY WITH MPEG-4", PREPRINTS OF MEETING OF IMAGE MEDIA SECTION, THE INSTITUTE OFTELEVISION ENGINEERS OF JAPAN, XX, XX, 4 December 1996 (1996-12-04), XX, pages 39 - 44, XP002916975 *
See also references of EP0898427A4 *

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4805518B2 (ja) * 2000-04-14 2011-11-02 シーメンス アクチエンゲゼルシヤフト 時間的に順次連続する画像の画像情報を記憶および処理するための方法並びに装置
JP2003531532A (ja) * 2000-04-14 2003-10-21 シーメンス アクチエンゲゼルシヤフト 時間的に順次連続する画像の画像情報を記憶および処理するための方法並びに装置
US8837596B2 (en) 2002-05-03 2014-09-16 Lg Electronics Inc. Method of determining motion vectors for a bi-predictive image block
US8811489B2 (en) 2002-05-03 2014-08-19 Lg Electronics Inc. Method of determining motion vectors for a bi-predictive image block
US9106889B2 (en) 2002-05-03 2015-08-11 Lg Electronics Inc. Method of determining motion vectors for bi-predictive image block
US9106891B2 (en) 2002-05-03 2015-08-11 Lg Electronics Inc. Method of determining motion vectors for bi-predictive image block
JP2003333602A (ja) * 2002-05-03 2003-11-21 Lg Electronics Inc 動画コーディング方法
US9106890B2 (en) 2002-05-03 2015-08-11 Lg Electronics Inc. Method of determining motion vectors for bi-predictive image block
US9860556B2 (en) 2002-05-03 2018-01-02 Lg Electronics Inc. Method of determining motion vectors for bi-predictive image block
US8842737B2 (en) 2002-05-03 2014-09-23 Lg Electronics Inc. Method of determining motion vectors for a bi-predictive image block
US8634468B2 (en) 2002-05-03 2014-01-21 Lg Electronics Inc. Method of decoding a current image block
US8743960B2 (en) 2002-05-03 2014-06-03 Lg Electronics Inc. Method of decoding a bi-predictive image block
US8798156B2 (en) 2002-05-03 2014-08-05 Lg Electronics Inc. Method of determining motion vectors for a bi-predictive image block
US9124890B2 (en) 2002-05-03 2015-09-01 Lg Electronics Inc. Method of determining motion vectors for bi-predictive image block
US9872039B2 (en) 2002-05-03 2018-01-16 Lg Electronics Inc. Method of determining motion vectors for bi-predictive image block
US9008183B2 (en) 2002-05-03 2015-04-14 Lg Electronics Inc. Method of determining motion vectors for bi-predictive image block
US8982955B2 (en) 2002-05-03 2015-03-17 Lg Electronics Inc. Method of determining motion vectors for bi-predictive image block
US8848796B2 (en) 2002-05-03 2014-09-30 Lg Electronics Inc. Method of determining motion vectors for bi-predictive image block
US8848797B2 (en) 2002-05-03 2014-09-30 Lg Electronics Inc. Method of determining motion vectors for a bi-predictive image block
US8976866B2 (en) 2002-05-03 2015-03-10 Lg Electronics Inc. Method of determining motion vectors for bi-predictive image block
US8842736B2 (en) 2002-05-03 2014-09-23 Lg Electronics Inc. Method of determining motion vectors for a bi-predictive image block
US8982954B2 (en) 2002-05-03 2015-03-17 Lg Electronics Inc. Method of determining motion vectors for bi-predictive image block
JPWO2005062625A1 (ja) * 2003-12-22 2007-07-19 日本電気株式会社 動画像を符号化する方法及び装置
WO2005062625A1 (ja) * 2003-12-22 2005-07-07 Nec Corporation 動画像を符号化する方法及び装置
JP4702059B2 (ja) * 2003-12-22 2011-06-15 日本電気株式会社 動画像を符号化する方法及び装置
US7835438B2 (en) 2003-12-22 2010-11-16 Nec Corporation Method and device for encoding moving picture using reference frequency of reference frame
US9253496B2 (en) 2008-12-12 2016-02-02 Qualcomm Incorporated Intelligent decoded picture buffering
JP2012512566A (ja) * 2008-12-12 2012-05-31 クゥアルコム・インコーポレイテッド デコードされたピクチャのインテリジェントなバッファリング
JP2011199411A (ja) * 2010-03-17 2011-10-06 Panasonic Corp 画像符号化装置及びカメラシステム
JP2013106090A (ja) * 2011-11-10 2013-05-30 Ntt Docomo Inc 動画像予測符号化方法、動画像予測符号化装置、動画像予測符号化プログラム、動画像予測復号方法、動画像予測復号装置および動画像予測復号プログラム

Also Published As

Publication number Publication date
EP2369847A1 (en) 2011-09-28
EP2352300A1 (en) 2011-08-03
EP2173103A2 (en) 2010-04-07
EP2352297B1 (en) 2016-04-13
US20080152007A1 (en) 2008-06-26
KR100309086B1 (ko) 2001-12-17
CN101005624B (zh) 2011-11-16
EP2352297A1 (en) 2011-08-03
TW376650B (en) 1999-12-11
JP3748895B2 (ja) 2006-02-22
JP2012120243A (ja) 2012-06-21
JP2009071878A (ja) 2009-04-02
EP1887806A2 (en) 2008-02-13
US20040146107A1 (en) 2004-07-29
JP5258991B2 (ja) 2013-08-07
CN1284376C (zh) 2006-11-08
EP1511325A3 (en) 2006-07-19
EP2352298A1 (en) 2011-08-03
US20020114392A1 (en) 2002-08-22
JP2006262528A (ja) 2006-09-28
HK1109687A1 (en) 2008-06-13
JP4963496B2 (ja) 2012-06-27
JP2011250470A (ja) 2011-12-08
HK1109278A1 (en) 2008-05-30
WO1998036576A8 (en) 1999-12-16
JP4819865B2 (ja) 2011-11-24
JP4963520B2 (ja) 2012-06-27
JP2009071879A (ja) 2009-04-02
US9232198B2 (en) 2016-01-05
EP0898427A1 (en) 1999-02-24
JP4963526B2 (ja) 2012-06-27
US8553772B2 (en) 2013-10-08
CN1217852A (zh) 1999-05-26
JP4260786B2 (ja) 2009-04-30
EP2320664A1 (en) 2011-05-11
EP2173103A3 (en) 2010-09-08
US20080063073A1 (en) 2008-03-13
EP2352299A1 (en) 2011-08-03
US9225945B2 (en) 2015-12-29
EP1887806B1 (en) 2014-04-30
EP2369847B1 (en) 2016-04-20
HK1109001A1 (en) 2008-05-23
CN1992900B (zh) 2010-06-23
CN1992900A (zh) 2007-07-04
EP1511325A2 (en) 2005-03-02
CN101026762B (zh) 2015-08-19
JP2006060840A (ja) 2006-03-02
JP2009071877A (ja) 2009-04-02
KR20000064898A (ko) 2000-11-06
US20050100092A1 (en) 2005-05-12
US20080144718A1 (en) 2008-06-19
EP2357829A1 (en) 2011-08-17
CN1510928A (zh) 2004-07-07
JP3836827B2 (ja) 2006-10-25
JP2012120244A (ja) 2012-06-21
EP1887806A3 (en) 2009-04-08
US6775326B2 (en) 2004-08-10
CN101026762A (zh) 2007-08-29
JP4755242B2 (ja) 2011-08-24
US20080144719A1 (en) 2008-06-19
EP2364024A1 (en) 2011-09-07
JP2004088801A (ja) 2004-03-18
EP0898427A4 (en) 2004-04-28
CN101005624A (zh) 2007-07-25

Similar Documents

Publication Publication Date Title
WO1998036576A1 (en) Moving picture prediction system
JP2009071878A5 (ja)
KR101053628B1 (ko) 영상 신호의 스케일러블 인코딩 및 디코딩 방법

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 98800131.4

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): CN JP KR SG US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH DE DK ES FI FR GB GR IE IT LU MC NL PT SE

WWE Wipo information: entry into national phase

Ref document number: 09142577

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 1998900693

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 1019980708155

Country of ref document: KR

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWP Wipo information: published in national office

Ref document number: 1998900693

Country of ref document: EP

AK Designated states

Kind code of ref document: C1

Designated state(s): CN JP KR SG US

AL Designated countries for regional patents

Kind code of ref document: C1

Designated state(s): AT BE CH DE DK ES FI FR GB GR IE IT LU MC NL PT SE

CFP Corrected version of a pamphlet front page

Free format text: CORRECTED TITLE, ABSTRACT AND DRAWINGS RECEIVED BY THE INTERNATIONAL BUREAU AFTER COMPLETION OF THE TECHNICAL PREPARATIONS FOR INTERNATIONAL PUBLICATION

WWP Wipo information: published in national office

Ref document number: 1019980708155

Country of ref document: KR

WWG Wipo information: grant in national office

Ref document number: 1019980708155

Country of ref document: KR