WO2006056720A1 - Compression video par modification de quantification par zones d'images - Google Patents

Compression video par modification de quantification par zones d'images Download PDF

Info

Publication number
WO2006056720A1
WO2006056720A1 PCT/FR2005/050982 FR2005050982W WO2006056720A1 WO 2006056720 A1 WO2006056720 A1 WO 2006056720A1 FR 2005050982 W FR2005050982 W FR 2005050982W WO 2006056720 A1 WO2006056720 A1 WO 2006056720A1
Authority
WO
WIPO (PCT)
Prior art keywords
video signal
images
image data
original video
quantization
Prior art date
Application number
PCT/FR2005/050982
Other languages
English (en)
Inventor
Paul Bazzaz
Original Assignee
Paul Bazzaz
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from FR0412425A external-priority patent/FR2878395A1/fr
Application filed by Paul Bazzaz filed Critical Paul Bazzaz
Publication of WO2006056720A1 publication Critical patent/WO2006056720A1/fr

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • H04N19/126Details of normalisation or weighting functions, e.g. normalisation matrices or variable uniform quantisers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals

Definitions

  • the present invention relates to the field of video signal processing systems, these systems can be transmitters (camera, encoders), receivers (decoders, screens) transmission nodes, or storage where can be made a transformation of the signal , such as a transcoding.
  • Video compression systems aim to reduce the volume of the video signal in order to transmit it or to store it.
  • the volume of the original video signal depends on several parameters. In the first place, these parameters are those relating to the digitization of the video signal.
  • the digital video signal is defined as a temporal succession of images, each image consisting of pixels, each pixel being encoded on a number of bits, this number of bits per pixel being known as color depth.
  • a pixel of a color video signal is defined by its three color components that are expressed in a given color space (the RGB color space, the YUV color space, etc.).
  • the parameters relating to the digitization of the video signal are the image frequency, the spatial resolution of the image in pixels and the number of bits describing the pixel on each of its color components.
  • the current compression techniques do indeed provide for modifying the quantization of the video signal, but this modification takes place in the frequency domain, on the DCT (Discrete Cosine Transform) coefficients, for the "discrete cosine transformation", of the signal .
  • the data is spatially decorrelated and is no longer related to the major characteristic color depth parameter of the screen to display the video signal.
  • the quantization of the DCT coefficients is less effective than it could be since it does not take into account the strong spatial correlation or the application context that represents the screen of the terminal.
  • the method according to the invention takes advantage of the spatial correlation as well as it takes advantage of the temporal correlation.
  • MPEG-4 ISO-IEC 14496-2 defines tools that make it possible to indicate that a portion of a given image has been compressed with a spatial resolution reduced by half in each of the horizontal and vertical directions relative to the resolution of the video sequence.
  • the MPEG standard plans to analyze the input signal to identify the VOP (Video Object Planes) corresponding to specific objects in the image, and change the spatial resolution associated with certain VOPs.
  • the standard provides for a uniform modification of the YUV components.
  • PCT application WO 03/107678 describes a non-uniform modification of these components and an associated syntax.
  • VOPs as defined in MPEG-4 are obtained semi-automatically, and the definition of a VOP uses an operator.
  • the modification of the spatial resolution according to the VOPs therefore requires this intervention which is not compatible with an efficient compression method.
  • the modification of the spatial resolution according to these VOPs is not the most suitable modification for the compression.
  • US Patent 6,490,319 to Yang relating to a video processing method for controlling the contrast between a region of interest of a video image, and the background of a video image.
  • a video controller allows the user to control the levels of quantification of the area of interest and the background of the image.
  • An interface is provided to the user to enable him to perform such control. This interface is presented as a slider.
  • the region of interest can be defined by the user or depend on the video content. In any case, the region of interest for which the contrast can be changed by changing the quantization level is set before the quantization level is changed. The division according to a region of interest therefore does not depend on the level of quantification that will be applied to the region of interest.
  • this coding method has the disadvantage of not being automatic and depending on the action of the user on the image. This in particular results in the fact that only two distinct quantization levels are applicable to the video image. On the other hand, if the user wishes to modify the region of interest and / or the quantization level of the image, he must make a new selection of the image and operate the quantization cursor again.
  • This encoding method therefore has the disadvantage of not being automatically applied to the video signal. It also has the disadvantage of not being temporally variable, depending on the number of the image in the video signal.
  • the present invention therefore intends to solve the disadvantages of the prior art as defined above.
  • the present invention relates to a method of encoding an original video signal comprising a temporal succession of images comprising data space-quantized images for obtaining a modified video signal, characterized in that it comprises the steps of:
  • said cutting of the images is variable according to the number of the image in said temporal succession of images, which makes it possible to adapt the quantization to the image succession.
  • said new quantization is variable according to the number of the image in said temporal succession of images, and this, whether the cutting remains identical or not, again to adapt the compression temporally.
  • the method according to the invention further comprises a step of analyzing said original video signal, and said division and / or said new quantification depend on said analysis.
  • the selected areas and the associated quantization are optimized for compression.
  • the analysis of the images concerns at least the spatial proximity, the movement characteristics and the residual energy characteristics of the image blocks.
  • said division and / or said new quantization are predetermined. According to yet another variant of the method, said division and / or said new quantization depend on an action external to the method, such as, for example, the characteristics of the receiving terminal.
  • the new quantization concerns the spatial resolution according to the image components.
  • said images comprise a set of digital image data sampled in pixels within said image, and said new quantization is a resampling of the spatial resolution according to at least one of said digital image data, the data digital images being for example the color components.
  • the new quantization relates to the number of bits on which the image data are coded, and in this case, said images comprise a set of digital data sampled in pixels, and are quantized over a number of bits. of origin, and said new quantization is a new quantization of said number of bits according to at least one of said digital image data or the manner of quantizing the image data on these bits, the digital image data being for example the color components.
  • said images comprise a set of digital data sampled in pixels, and quantized over a number of original bits, and said new quantization is a new quantization of said number of bits. bits according to at least one of said data digital images or how to quantify the image data on these bits, and a resampling of the spatial resolution according to at least one of said digital image data, for example the color components.
  • said images of the original video signal are cut into a plurality of predefined size blocks, and in that said image areas obtained during the cutting step correspond to a plurality of said adjacent blocks.
  • the invention also relates to an apparatus for coding an original video signal comprising a temporal succession of images comprising spatially quantized image data for obtaining a modified video signal, characterized in that it comprises means for receiving said original video signal, means for splitting the images of said video signal into a set of image areas, means for generating a new quantization of the image data in the spatial domain, variable according to the zones of said set of zones, for obtaining a modified video signal.
  • the invention also relates to a recording medium on which a series of images of a video scene coded according to the method according to the invention are stored.
  • FIG. 1 generally illustrates the description of a video signal in images
  • FIG. 2a is an example of a division of a succession of images; in image areas in which quantization varies,
  • FIG. 2b represents a VOP slicing as defined in the prior art
  • FIG. 3 is a diagram illustrating the implementation of the invention in an encoder, the FIG. 4 details the compression entity described in FIG. 3
  • FIG. 5 gives a more detailed description of the invention according to an embodiment that can be envisaged in a video coder taking up the compression scheme based on spatial prediction and temporal prediction
  • FIG. 6 gives a description of the quantization modification process according to the invention
  • FIGS. 7a and 7b are examples of algorithms for the definition of the zones according to the invention.
  • Table 1 describes the variables taken into account in an exemplary algorithm implemented by the present invention.
  • the subject of the invention is a method for modifying the quantization of the color components of a video signal in order to improve the video compression / decompression systems and more generally the video signal processing systems.
  • the video signal is described in Figure 1.
  • This figure gives a structure of a video sequence as commonly used today.
  • the video sequence of structure as described in the figure, consists of a periodic succession of I- images of the same size HxL.
  • j indicates the time reference.
  • An image is composed of pixels, the number of which defines the spatial resolution of the image.
  • an image at a time j is an array of HxL pixels.
  • a video signal can be described as a temporal succession of two-dimensional or three-dimensional images.
  • the periodicity of the temporal succession, as well as the geometry and the image size can be variable. These images can result from a natural shooting through a sensor such as a camera, or a computer program for image synthesis, or drawings, or any other material and / or software and / or human. These images can equally be formed of a combination of images generated separately and combined by any editing process.
  • a color dot is represented by three components: the RGB components for example.
  • the RGB components for example.
  • Other triplets of components than those mentioned above are defined and can be used just as much, these triplets of components being linked to each other by a linear combination.
  • the color components C1, C2 and C3 In the example image structure considered in Figure 1, we consider the simplest, namely each pixel P x , y of the image has a value given by a triplet C1, C2 and C3.
  • the three color components C1, C2 and C3 are quantized over a generally identical number of bits. Quantification is usually linear.
  • the object of the invention is to modify the quantization of C1, C2 and C3 for a group of zones Z k into a predefined quantization Qi, and for a given duration of images, the duration of images ranging from one image to the number of images constituting the total video sequence.
  • a zone Z k will have its components quantized chronologically according to, for example, the type Qi during 100 images, then Q m during 1000 images, then Q n during 50 images etc. It is the object of this invention that the zones can be made and discarded as and when advancement in the video sequence.
  • the modification of the quantization relates to the spatial resolution of the original video signal.
  • the spatial resolution is modified according to at least one of the color components.
  • this modification may be variable depending on the zones obtained by the method of the invention, and depending on the image or image group chosen, for a temporal variation. In this way, a spatio-temporal variation of the spatial resolution of the video signal is obtained.
  • quantization modification will be used to refer to the modifications relating to the number of bits on which the color components are quantized or how to quantify the image data on these bits, which corresponds to to a quantification in depth, the modifications relating to the spatial resolution of the image, which corresponds to a spatial quantization as well as the modifications on these two types of quantization in a temporal manner, therefore according to the index of the image.
  • quantization modifications applied to the number of quantization bits are also applicable to a modification of the spatial resolution, or to a combination of these two quantization modifications.
  • control entity can be based on different tools. These tools allow the analysis of the video signal which consists of studying each of the components forming the video signal to be modified, in a global manner-that is to say on the image-or local-that is to say on an area of the image.
  • This analysis of the video signal calculates its complexity, namely its texture, likewise this analysis relates to its range, namely the set of values taken by each of the components, likewise this analysis relates to its cleanliness, therefore to the power of the noise included in the signal, likewise this analysis relates to its variation, in particular temporal, that is to say from one image to the following ones. This analysis step will be described in more detail later.
  • the quality of service sought is a decision element.
  • the entity may use all or part of these tools.
  • Other decision criteria can be used as well.
  • Figure 1 depicts a structure of the video as a temporal succession of images (j being the time index).
  • Each image is an array of HxL pixels (along x and y axes), each pixel P x , y of coordinates (x, y) can be described at most by three values Cl x , y (j), C2 x , y (j), C3 x , y (j).
  • FIG. 2 describes the invention by giving an example of image zones Z k .
  • the controlling entity makes the following decisions with regard to area-based quantifications after modification
  • Quantization Q 3 applied on Z 2 , Z 5 and Z 6 Quantification Q 4 applied on Z 3 and Z 7
  • Qi Cl, C2 and C3 quantized linearly over 8 bits
  • Q 3 C quantized linearly over 6 bits
  • Q 4 C quantized nonlinearly over 6 bits
  • FIG. 3 a general view is given of the example of an embodiment of the invention, in which the video signal is caused to be compressed by an encoder.
  • the signal is received by the control entity that analyzes the signal to generate elements techniques such as its complexity, the range of values taken by each component, its cleanliness, its temporal variation, etc. This analysis can be done after the "Pre-treatment" process.
  • the same original video signal composed by Cl, C2 and C3 is transformed by the "Preprocessing” entity.
  • the output of this entity is also a video signal described by three color component signals.
  • These signals are compressed by the "Compression” entity which generates a signal that is called a bitstream.
  • this compression entity may comprise functions of MPEG or H.26x compression standards, such as spatial prediction, temporal prediction, transformation (DCT, DWT, etc.), quantization coefficients, entropy coding, to name only the main ones.
  • the control entity by analyzing the original video signal and / or other parameters, calculates areas
  • the control entity reduces the quantization of each of the components C1, C2 and C3.
  • the reduction consists of reducing the number of bits describing Cl, C2 and C3 and thus of changing to a number
  • N1, N2 and N3 (for each component) less than 8, 8 being the quantification assumed in the original video signal.
  • the quantization modification takes place on signals representing each of the components C1, C2 and C3, as much in the entity of "pre-treatment" as in that of
  • the control entity adds information to the outgoing bitstream of the "Compression" entity. such as those describing the zones and their quantization, as well as scene change information. It is understood that this additional information can be conveyed differently from the sender to the receiver, and they may not be routed, depending on the application. Other information can be used just as much.
  • the raster bit stream enriched or not this information is then transmitted or stored.
  • FIG. 5 a more detailed example of an embodiment in which the video signal is made to be compressed by an encoder is given.
  • the quantization modification is performed in the compression entity.
  • the compression entity is assumed to be based on a schema as detailed in Figure 4.
  • Figure 5 only the main functions and only the main signals are shown.
  • the control signals, the additional information signals (including in particular the choice of quantization modification, the zones formed in the image), the signal of the motion vectors, the storage entities ("Buf Im") are not indicated.
  • the signal (1) of the original video passes through the Preprocessing entity (A) and becomes the signal (2) to be compressed.
  • This signal is processed by the Spatial Prediction entity (B) and the Temporal Prediction entity (F).
  • the Spatial Prediction entity (B) generates three signals: the signal (3) Image, the signal (10) Spatial Prediction and the signal (4) Residual Spatial.
  • the signal Image is the set of pixels of the original image transmitted to the other compression steps (DCT, DWT or other type of equivalent transformation, quantization, reorganization, entropy encoding).
  • the signal Spatial Prediction is the set of pixels considered as good prediction for spatially adjacent pixels and used as such.
  • the Residual Spatial signal is the set of pixels represented by the difference between their original value and the value of the corresponding Prediction pixel.
  • the signals (3) and (4) are then processed by the Quantization Modification entity (C) which is the subject of the present invention.
  • the two resulting signals (5) and (6) are respectively the Image signal and the Spatial Residual signal after Modification of Quantization. These two signals are then transmitted to the following compression steps (DCT, DWT or other type of equivalent transformation, quantization, reorganization, entropy encoding).
  • DCT compression steps
  • DWT or other type of equivalent transformation, quantization, reorganization, entropy encoding
  • the purpose of this entity is to operate the inverse function of the quantization modification entity (C).
  • the resulting signals (7) and (8) are respectively the Image and Spatial Residual signal after resizing and are directed to the Reconstruction entity (E) which likewise receives the signal (10).
  • the objective of (E) is to re-form the original pixels, in particular for the residual pixels. For said residual pixels, this re-formation of the original pixels is based on a simple addition of the value of the residual pixel and the value of the corresponding prediction pixel.
  • the signal (9) Reconstructed Spatial then serves as a signal of reference for Spatial Prediction (B) as well as signal (2) Image.
  • this signal (8) serves as a reference signal for the temporal prediction (F).
  • the Time Prediction (F) entity generates two signals: the Spatiotemporal Prediction (15) signal and the Spatio-Temporal Residual (11) signal.
  • the Spatio-temporal Prediction signal is the set of pixels considered as good prediction for spatio-temporally adjacent pixels and used as such.
  • the Spatio-Temporal Residual signal is the set of pixels represented by the difference between their original value and the value of the corresponding Prediction pixel.
  • the signal (11) is then processed by the Quantification Modification entity (G) object of the present invention.
  • the resulting signal (12) is therefore the residual Spatio-temporal signal after quantization modification.
  • This signal is then transmitted to the following compression steps (DCT, DWT or other type of equivalent transformation, quantization, reorganization, entropy encoding).
  • This same signal (12) is also processed by the entity (D) of Scaling. The purpose of this entity is to operate the inverse function of the quantization modification entity (G).
  • the resulting signal (13) is the Spatio-Temporal Residual signal after Scaling and is directed to the Reconstruction entity (E) which likewise receives the Prediction signal (15).
  • the Spatiotemporal Rebuilt signal (14) then serves as a reference signal for the Temporal Prediction (F) as well as the signal (2) Image. Likewise, this Reconstructed signal (14) serves as a reference signal for Spatial Prediction (B).
  • the Reconstruction entity (E) also receives signals (30) from the other functions of compression, including signals that have traveled the path DCT, Q, Q "1 and DCT “ 1 .
  • Output Input x Q
  • Input is the value of a pixel at the input of the entity (D) and Output is the value of this same pixel at the output, Q being a constant whose value varies under the control of a control entity such as shown in Figure 3.
  • this entity can, in addition to the re-forming function of the original pixel as already described, include other useful functions but not indispensable.
  • this entity can, in addition to the re-forming function of the original pixel as already described, include other useful functions but not indispensable.
  • the standardization function can be described according to the formula:
  • P represents the pixel after uniformization function
  • P ' represents the pixel before uniformization function
  • x, y are the spatial coordinates of the pixel
  • j is the temporal index of the pixel (the index of the image to which it belongs)
  • x m , Yn and x m ' , Yn ' are the spatial coordinates of pixels, pixels taken into account in the uniformization function
  • ji ' and ji are the temporal indices of pixels, pixels taken into account in the function of uniformity
  • C is a linear combination of all or part of pixels.
  • FIG. 6 gives a description of the Quantification Modification phase and its surrounding elements.
  • the quantization modification can be done on the color component signals passing through the Preprocessing entity as shown in FIG. it can be done on the input color component signals of the two spatial and temporal prediction entities, or it can be done on the signals to be processed by the following compression steps (DCT, DWT or other equivalent transformation type) , quantization, reorganization, entropy encoding) as described in Figure 5, etc.
  • the Quantization Editing Signal Selection and Quantization Editing entity (H) receives three signals: a signal (16), this signal being generally the Image signal ((2) according to FIG.
  • Entity (J) is the entity that performs Quantification Modification. This entity
  • the entity (J) therefore receives the signal (17) already mentioned and the signal (22) carrying the choice of quantization changes from the entity (H).
  • the entity (K) is a simple Multiplexer, controlled through the signal (21) from the entity (H).
  • the entity (K) will switch to the output (signal (19)) either the modified quantization signal (18) or the original signal (17). This switching takes place at the pixel rate.
  • the signal (19) to be processed by the following entities and the signal (22) carrying the quantization modification choices.
  • the quantization modification takes place at least on the residual signals of the pixels located in the areas concerned.
  • the pixels that predict the neighboring pixels may not be affected by the quantization change.
  • the signal (17) is the same as the signal (16).
  • the signals (16) and (17) are distinct.
  • the information conveyed by the signal (22) is taken again to be inserted possibly in the bit stream at the output of the Screening entity as shown in FIG. 3, and this as part of the additional information such as as previously described, just as this signal (22) can be used by other entities of the compression.
  • the quantization modification takes place at least on the residual signals of the pixels situated in the zones concerned.
  • the pixels that predict the neighboring pixels may not be affected by the quantization change.
  • the images are cut into blocks of predefined sizes.
  • the coder decides for each block of the type of prediction noted Type_Pred and the mode noted Mode_Pred for this prediction which will be operated on it.
  • the motion estimator receives a video signal. It calculates for the blocks to be predicted temporally the error on the block between the pixels of the potential predictor blocks and the pixels of the current block. It then retains as block predictor the one that gives the minimum error, which will be noted Pred error. He deduces the corresponding motion vector, which will be noted MV.
  • Error_Pred For spatially intra-predicted blocks, a prediction error that will also be noted Error_Pred is usually calculated to choose among the different spatial prediction modes.
  • the signal after passing through a) i.e. by quantization modification and rescaling functions or by track b) that is, by the modification functions of quantization, DCT, quantization and its inverse function coefficients and rescaling, is reconstructed by the entity (E).
  • the reconstructed signal along one of two channels a) or b) is compared to the original signal, and an error between the two signals is calculated. This error will be noted Error_a_Posteriori.
  • each block of an image at a given time index has a set of variables that are: Type_Pred, Mode_Pred, Error_a_Posteriori, Error_Pred and MV, except the intra blocks for which the variable MV does not exist.
  • Err ⁇ ur_a_Post ⁇ r ⁇ or ⁇ Err ⁇ ur_Pr ⁇ d and MV thresholds respectively S_EaPi, S_Ej and S_MVk.
  • Type_Pred and Mode_Pred have meanwhile discrete values defined in the cited norms.
  • Table 1 above is a summary table of the variables of a block and their values taken for the zone formed of block (s). Other possibilities may be provided such replace the average values by sums, in which case the thresholds at which the values obtained by these sums will be compared will have to be multiplied by the factor corresponding to the number of pixels included in the blocks in the zone.
  • external actions are considered, such as the characteristics of the screen of the target terminal, user configurations (for example the operator), a command issued by the debit controller entity, requests from the network for more or less debit and more generally context information of the application.
  • external parameters discrete values are defined.
  • FIGS. 7a and 7b describe an example of zone formation algorithm.
  • This algorithm is an automatic zone renewal algorithm in each image.
  • the principle of this algorithm is that neighboring blocks spatially are gathered in a zone if their Error Preds and their MVs are close in values. For this, the blocks are "scanned" in the natural sense.
  • a block may have as neighbors several areas formed of at least one block.
  • the difference of the MVs is then compared with a first threshold S_MV1, if this difference does not exceed the threshold, the block is included in the zone and the variables of this zone are updated by calculating the average values; if this difference exceeds the threshold, we compare the signs of MV of the zone and MV of the block: if the signs are different, we go to the next neighboring zone, otherwise we continue the process.
  • the algorithm part described in FIG. 7b is applied: the given block is included in any neighboring zone having the same type and the same mode of prediction as this block, if the difference of Error_Pred of the block and of Pred error of the zone does not exceed S E2 in absolute value.
  • An option not described in FIGS. 7a and 7b provides for selecting from the zones that meet the criteria for inclusion of the processed block the zone for which the value Err ⁇ ur_Pr ⁇ d is the lowest. To implement this option, for example, it will suffice during the processing of a block, to record the data relating to each area meeting the inclusion criteria and then to compare the values of the Pred errors and to make the right inclusion decision. If more than one zone meets this criterion, then these zones will only form a new zone including the processed block, and the variables of this zone will be updated by calculating the average values.
  • any block that does not find a neighboring area that meets the inclusion criteria forms a new area.
  • a new quantization is chosen according to the time index of the zone, the external actions and the result of the comparison tests of the variables Type_Pred, Mode_Pred, MV and Error_Pred with the discrete values that the first two variables are likely to take or with the respective thresholds S_MVk and S_Ej for the last two variables. It is well understood that the new quantification chosen may be the same as the original one.
  • the method that is the subject of this invention as well as the various steps constituting it can be implemented in a hardware and / or software way, in any video signal processing system, video signal transmission or video signal storage.
  • the invention relates more particularly to systems where the compression as well as the optimization of the video signal with respect to the screens of the terminals are of primary importance.

Abstract

L'invention concerne le domaine du traitement du signal vidéo, et plus particulièrement un procédé de codage de signal vidéo adapté pour la compression. Elle concerne un procédé de codage d'un signal vidéo d'origine comprenant une succession temporelle d'images comprenant des données d'images quantifiées dans le domaine spatial, pour l'obtention d'un signal vidéo modifié, caractérisé en ce qu'il comprend les étapes consistant à : - recevoir ledit signal vidéo d'origine, - découper les images dudit signal vidéo en un ensemble de zones d'image, - définir une nouvelle quantification des données d'images dans le domaine spatial, variable en fonction des zones dudit ensemble de zones, pour l'obtention d'un signal vidéo modifié.

Description

COMPRESSION VIDÉO PAR MODIFICATION DE QUANTIFICATION
PAR ZONES D'IMAGES
La présente invention concerne le domaine des systèmes de traitement du signal vidéo, ces systèmes pouvant être des émetteurs (caméra, codeurs) , des récepteurs (décodeurs, écrans) des nœuds de transmission, ou de stockage où peut s'opérer une transformation du signal, tel qu'un transcodage.
Les systèmes de compression vidéo ont pour objectif de réduire le volume du signal vidéo pour pouvoir le transmettre ou bien pour le stocker. Le volume du signal vidéo d'origine dépend de plusieurs paramètres. En premier lieu, ces paramètres sont ceux relatifs à la numérisation du signal vidéo. Le signal vidéo numérique est défini comme une succession temporelle d'images, chaque image étant constitué de pixels, chaque pixel étant codé sur un nombre de bits, ce nombre de bits par pixel étant connu sous le nom de profondeur couleur. Un pixel d'un signal vidéo couleur est défini par ses trois composantes de couleur qui sont exprimées dans un espace couleur donné (l'espace couleur RGB, l'espace couleur YUV, etc.) . Ainsi les paramètres relatifs à la numérisation du signal vidéo sont la fréquence image, la résolution spatiale de l'image en pixels et le nombre de bits décrivant le pixel sur chacune de ses composantes de couleur.
Avec l'avènement de l'accès aux données audiovisuelles à travers des réseaux à très bas débit, tels les réseaux mobiles, il est primordial de fournir des techniques permettant de compresser plus encore le signal vidéo. Le coût de déploiement prohibitif de ces réseaux, ajouté à une limitation des performances, notamment dans des situations de surcharges, en fait un impératif. D'autre part, il est à noter que les terminaux devant afficher ces signaux vidéos sont de plus en plus disparates au niveau de leurs caractéristiques d'écran.
Dans les normes de compression en vigueur, les paramètres cités ne sont pris en compte par la norme que de manière statique. Ainsi, au flux résultat de la compression d'un signal vidéo sont ajoutées des informations donnant la valeur de ces paramètres. L'objectif est de permettre au décodeur de connaître ces informations pour pouvoir se configurer.
Les techniques de compression actuelles prévoient bien de modifier la quantification du signal vidéo, mais cette modification s'opère dans le domaine fréquentiel, sur les coefficients DCT (« Discrète Cosine Transform » en anglais, pour « transformation en cosinus discret ») , du signal. Dans ce domaine, les données sont décorrelées spatialement et ne sont plus liées au paramètre de profondeur couleur caractéristique majeure de l'écran amené à afficher le signal vidéo. Ainsi, la quantification des coefficients DCT est moins efficace que ce qu'elle pourrait être puisqu'elle ne tient pas compte de la forte corrélation spatiale, ni du contexte applicatif que représente l'écran du terminal.
Le procédé selon l'invention tire au contraire profit de la corrélation spatiale de même qu' il tire profit de la corrélation temporelle.
Par ailleurs, la norme de compression connue MPEG-4 ISO-IEC 14496-2 définit des outils qui permettent d'indiquer qu'une portion d'image donnée a été compressée avec une résolution spatiale réduite de moitié dans chacune des directions horizontales et verticales par rapport à la résolution de la séquence vidéo.
Pour ce faire, la norme MPEG a prévu d'analyser le signal d'entrée pour identifier les VOP (Video Object Planes) correspondant à des objets spécifiques dans l'image, et modifier la résolution spatiale associée à certains VOP. La norme prévoit une modification uniforme des composantes YUV.
Plus particulièrement, la demande PCT WO 03/107678, décrit une modification non uniforme de ces composantes et une syntaxe associée.
Ce procédé de compression comprend deux inconvénients majeurs. D'une part, les VOP tels que définis dans MPEG-4 sont obtenus de façon semi-automatique, et la définition d'un VOP fait appel à un opérateur. La modification de la résolution spatiale selon les VOP nécessite donc cette intervention qui n'est pas compatible avec un procédé de compression efficace. De plus, il est possible que la modification de la résolution spatiale selon ces VOP ne soit pas la modification la plus adaptée pour la compression.
L'art antérieur connaît également le brevet américain US 6,490,319 de Yang concernant un procédé de traitement vidéo permettant le contrôle du contraste entre une région d'intérêt d'une image vidéo, et le fond d'une image vidéo. Pour ce faire, un contrôleur vidéo permet à l'utilisateur de contrôler les niveaux de quantifications de la zone d'intérêt et du fond de l'image. Une interface est fournie à l'utilisateur pour lui permettre de réaliser un tel contrôle. Cette interface est présentée sous la forme d'un curseur glissant. La région d'intérêt peut être définie par l'utilisateur ou dépendre du contenu vidéo. Dans tous les cas, la région d'intérêt pour laquelle le contraste peut être modifié par modification du niveau de quantification est fixée avant la modification du niveau de quantification. Le découpage selon une région d' intérêt ne dépend donc pas du niveau de quantification qui sera appliqué à la région d' intérêt.
Le procédé de codage défini dans le document US 6 490 319 possède donc l'inconvénient de dissocier la définition de la région d'intérêt et l'application des niveaux de quantification à cette région d'intérêt.
Par ailleurs, ce procédé de codage possède l'inconvénient de ne pas être automatique et de dépendre de l'action de l'utilisateur sur l'image. Ceci a en particulier comme conséquence le fait que seuls deux niveaux distincts de quantification sont applicables à l'image vidéo. Par ailleurs, si l'utilisateur désire modifier la région d'intérêt et/ou le niveau de quantification de l'image, il doit réaliser une nouvelle sélection de l'image et actionner de nouveau le curseur de quantification. Ce procédé de codage possède donc l'inconvénient de ne pas être appliqué automatiquement au signal vidéo. Il possède également l'inconvénient de ne pas être variable temporellement, en fonction du numéro de l'image dans le signal vidéo.
La présente invention entend donc résoudre les inconvénients de l'art antérieur tels que définis plus haut.
Pour ce faire, la présente invention concerne un procédé de codage d'un signal vidéo d'origine comprenant une succession temporelle d'images comprenant des données d'images quantifiées dans le domaine spatial, pour l'obtention d'un signal vidéo modifié, caractérisé en ce qu'il comprend les étapes consistant à :
- recevoir ledit signal vidéo d'origine, - découper les images dudit signal vidéo en un ensemble de zones d'images,
- définir une nouvelle quantification des données d'images dans le domaine spatial, variable en fonction des zones dudit ensemble de zones, pour l'obtention d'un signal vidéo modifié.
De préférence, ledit découpage des images est variable en fonction du numéro de l'image dans ladite succession temporelle d'images, ce qui permet d'adapter la quantification à la succession d'image.
Avantageusement, ladite nouvelle quantification est variable en fonction du numéro de l'image dans ladite succession temporelle d'images, et ce, que le découpage reste identique ou non, encore une fois pour adapter temporellement la compression.
De préférence, le procédé selon l'invention comprend en outre une étape d'analyse dudit signal vidéo d'origine, et ledit découpage et/ou ladite nouvelle quantification dépendent de ladite analyse. De la sorte, les zones sélectionnées et la quantification associée sont optimisées pour la compression. Selon une variante, l'analyse des images concerne au moins la proximité spatiale, les caractéristiques de mouvement et d'énergie résiduelle des blocs d'image.
Selon une autre variante, ledit découpage et/ou ladite nouvelle quantification sont prédéterminés. Selon encore une autre variante du procédé, ledit découpage et/ou ladite nouvelle quantification dépendent d'une action externe au procédé, comme par exemple les caractéristiques du terminal de réception.
Selon un mode de réalisation, la nouvelle quantification concerne la résolution spatiale selon les composantes d'images. Dans ce cas, lesdites images comprennent un ensemble de données numériques d' image échantillonnées en pixel au sein de ladite image, et ladite nouvelle quantification est un ré-échantillonnage de la résolution spatiale selon au moins une desdites données numériques d'images, les données numériques d'images étant par exemple les composantes couleur.
Selon un autre mode de réalisation, la nouvelle quantification concerne le nombre de bits sur lesquels sont codées les données d'images, et dans ce cas, lesdites images comprennent un ensemble de données numériques échantillonnées en pixel, et sont quantifiées sur un nombre de bits d'origine, et ladite nouvelle quantification est une nouvelle quantification dudit nombre de bits selon au moins une desdites données numériques d' images ou la manière de quantifier les données d'images sur ces bits, les données numériques d' images étant par exemple les composantes couleur.
De façon plus générale, en combinant les deux modes de réalisation ci-dessus, lesdites images comprennent un ensemble de données numériques échantillonnées en pixel, et quantifiées sur un nombre de bits d'origine, et ladite nouvelle quantification est une nouvelle quantification dudit nombre de bits selon au moins une desdites données numériques d'images ou la manière de quantifier les données d'images sur ces bits, ainsi qu'un ré-échantillonnage de la résolution spatiale selon au moins une desdites données numériques d'images, par exemple les composantes couleurs.
Selon une variante, lesdites images du signal vidéo d'origine sont découpées en une pluralité de blocs de tailles prédéfinies, et en ce que lesdites zones d'image obtenues lors de l'étape de découpage correspondent à une pluralité desdits blocs adjacents.
L'invention concerne également un appareil de codage d'un signal vidéo d'origine comprenant une succession temporelle d' images comprenant des données d' images quantifiées dans le domaine spatial, pour l'obtention d'un signal vidéo modifié, caractérisé en ce qu'il comprend un moyen pour recevoir ledit signal vidéo d'origine, un moyen pour découper les images dudit signal vidéo en un ensemble de zones d'image, un moyen pour générer une nouvelle quantification des données d'images dans le domaine spatial, variable en fonction des zones dudit ensemble de zones, pour l'obtention d'un signal vidéo modifié.
L'invention concerne aussi un support d'enregistrement sur lequel une série d'images d'une scène vidéo codée selon le procédé selon l'invention, sont stockées.
Il est à signaler que le procédé décrit dans la présente invention est compatible avec les normes de compression en vigueur.
On comprendra mieux l'invention à l'aide de la description, faite ci-après à titre purement explicatif, d'un mode de réalisation de l'invention, en référence aux figures annexées : la figure 1 illustre de façon générale la description d'un signal vidéo en images, - la figure 2a est un exemple de découpage d'une succession d'images en zones d'image dans lesquelles varie la quantification, la figure 2b représente un découpage en VOP tel que défini dans l'art antérieur, - la figure 3 est un schéma illustrant la mise en œuvre de l'invention dans un codeur, la figure 4 détaille l'entité de compression décrite dans la figure 3, la figure 5 donne une description plus détaillée de l'invention suivant un mode de réalisation envisageable dans un codeur vidéo reprenant le schéma de compression basé sur la prédiction spatiale et la prédiction temporelle, la figure 6 donne une description du processus de modification de quantification selon l'invention, - les figures 7a et 7b sont des exemples d'algorithmes pour la définition des zones selon 1' invention.
En outre, le tableau 1 décrit les variables prises en compte dans un exemple d'algorithme mis en œuvre par la présente invention.
L'objet de l'invention est un procédé de modifications de quantification des composantes couleur d'un signal vidéo dans le but d'améliorer les systèmes de compression/décompression vidéo et plus généralement les systèmes de traitement de signal vidéo. Le signal vidéo est décrit dans la figure 1. Cette figure donne une structure d'une séquence vidéo telle que communément employée aujourd'hui. La séquence vidéo, de structure telle que décrite dans la figure, consiste en une succession périodique d'images I-, de même taille HxL. Dans cette représentation, j indique la référence temporelle. Une image est composée de pixels, dont le nombre définit la résolution spatiale de l'image. Ainsi, une image à un instant j est un tableau de HxL pixels. Cet exemple n'exclut pas d'autres types de vidéo, et de manière générale on notera qu'un signal vidéo peut se décrire comme une succession temporelle d'images bidimensionnelles ou tridimensionnelles. La périodicité de la succession temporelle, ainsi que la géométrie et la taille d'image peuvent être variables. Ces images peuvent résulter d'une prise de vue naturelle à travers un capteur tel qu'une caméra, ou bien d'un programme informatique de synthèse d'images, ou bien de dessins, ou bien de tout autre procédé matériel et/ou logiciel et/ou humain. Ces images peuvent tout autant être formées d'une combinaison d'images générées séparément et combinées par tout procédé de montage.
Comme dans tout système couleur, un point couleur est représenté par trois composantes : les composantes RVB par exemple. Généralement dans un système de compression vidéo, on utilise trois autres composantes, Y, U et V, qui sont une combinaison des composantes RVB. D'autres triplets de composantes que ceux cités ci-dessus sont définis et peuvent être utilisés tout autant, ces triplets de composantes étant liés les uns aux autres par une combinaison linéaire. Quel que soit le triplet de composantes choisi, nous noterons dorénavant dans le présent document les composantes couleurs Cl, C2 et C3. Dans l'exemple de structure d'image considéré dans la figure 1, nous considérons la plus simple, à savoir que chaque pixel Px,y de l'image possède une valeur donnée par un triplet Cl, C2 et C3. Dans les systèmes de vidéo classiques, les trois composantes couleur Cl, C2 et C3 sont quantifiées sur un nombre de bits généralement identique. La quantification est généralement linéaire.
Dans la présente invention, nous proposons de modifier la quantification des signaux représentant chacune des trois composantes couleurs Cl, C2 et C3. Pour cela, nous définissons la notion de « zone » sur lequel la modification est effectuée. Telle que dessinée dans la figure 2, une « zone » est un ensemble de pixels de l'image vidéo, les pixels pouvant être voisins ou pas dans une même image. Suivant cette définition, l'objet de l'invention est de modifier la quantification de Cl, C2 et C3 pour un groupe de zones Zk en une quantification prédéfinie Qi, et ce pour une durée d'images donnée, la durée d'images pouvant aller d'une image au nombre d' images constituant la séquence vidéo totale. Ainsi, de par le procédé décrit ici, sur la durée de la séquence vidéo, une zone Zk aura ses composantes quantifiées chronologiquement suivant, par exemple, le type Qi durant 100 images, puis Qm durant 1000 images, puis Qn durant 50 images etc. Il est l'objet de cette invention que les zones peuvent se faire et se défaire au fur et à mesure de l'avancement dans la séquence vidéo.
On note également que selon un autre mode de réalisation de l'invention, la modification de la quantification porte sur la résolution spatiale du signal vidéo d'origine. Dans ce cas, on modifie la résolution spatiale selon au moins une des composantes couleurs . Comme précédemment, cette modification peut être variable en fonction des zones obtenues par le procédé de l'invention, et en fonction de l'image ou du groupe d'image choisi, pour une variation temporelle. De la sorte, on obtient une variation spatio-temporelle de la résolution spatiale du signal vidéo.
L'homme du métier comprendra également que l'on peut combiner les deux modes de réalisation ci-dessus en modifiant à la fois la résolution spatiale de l'image par zone, et le nombre de bits sur lesquels sont quantifiés les composantes couleur ou la manière de quantifier les composantes couleur sur ces bits .
De façon générale, aux fins de la présente demande, on appellera « modification de quantification » les modifications portant sur le nombre de bits sur lesquels sont quantifiés les composantes couleur ou la manière de quantifier les données d'images sur ces bits , ce qui correspond à une quantification en profondeur, les modifications portant sur la résolution spatiale de l'image, ce qui correspond à une quantification spatiale ainsi que les modifications sur ces deux types de quantification de façon temporelle, donc selon l'index de l'image.
Il est entendu que dans toute la suite de la présente description, les modifications de quantification appliquées au nombre de bits de quantification sont également applicables à une modification de la résolution spatiale, ou à une combinaison de ces deux modifications de quantification.
Selon l'invention, la formation des zones, le choix d'en modifier la quantification ainsi que le choix du type de quantification se font grâce à une entité de contrôle. Cette entité de contrôle peut se baser sur différents outils . Ces outils permettent l'analyse du signal vidéo qui consiste à étudier chacune des composantes formant le signal vidéo à modifier, de manière globale -c'est-à-dire sur l'image- ou locale -c'est-à-dire sur une zone de l'image. Cette analyse du signal vidéo calcule sa complexité, à savoir sa texture, de même cette analyse porte sur sa gamme, à savoir l'ensemble des valeurs prises par chacune des composantes, de même cette analyse porte sur sa propreté, donc sur la puissance du bruit inclus dans le signal, de même cette analyse porte sur sa variation, notamment temporelle, c'est-à-dire d'une image aux suivantes. Cette étape d'analyse sera décrite plus en détail par la suite.
D'autre part, la qualité de service recherchée, notamment en termes de débit, moyen ou instantané, est un élément de décision.
D'autre part, le choix effectué par des entités de décision existantes dans les normes de compression actuelles, notamment sur l'utilisation de la prédiction temporelle ou de la prédiction spatiale, et sur leur type, peut être pris en compte.
Enfin, un paramétrage manuel aide aussi l'entité de contrôle.
Ainsi, suivant l'application, l'entité pourra utiliser la totalité ou une partie de ces outils. D'autres critères de décision peuvent être tout autant utilisés.
Enfin, il faut signaler que suivant le procédé décrit le signal modifié préserve l'espace spatio-temporel du signal original. La figure 1 décrit une structure de la vidéo comme étant une succession temporelle d'images (j étant l'indice temporel) . Chaque image est un tableau de HxL pixels (suivant des axes x et y) , chaque pixel Px,y de coordonnées (x,y) pouvant être décrit au maximum par trois valeurs Clx,y(j),C2x,y(j),C3x,y(j) .
La figure 2 décrit l'invention en donnant un exemple de zones d'image Zk. Dans ce même exemple, l'entité de contrôle prend les décisions suivantes en ce qui concerne les quantifications par zone après modification objet de
1' invention :
Quantification Qi appliquée sur Zi et Z4
Quantification Q3 appliquée sur Z2, Z5 et Z6 Quantification Q4 appliquée sur Z3 et Z7
Qi : Cl, C2 et C3 quantifiés linéairement sur 8 bits Q3 : Cl quantifié linéairement sur 6 bits C2 quantifié linéairement sur 5 bits C3 quantifié linéairement sur 5 bits Q4 : Cl quantifié non-linéairement sur 6 bits C2 quantifié non-linéairement sur 5 bits C3 quantifié non-linéairement sur 5 bits etc.
Dans la figure 3, on donne une vue générale de l'exemple d'un mode de réalisation de l'invention, dans lequel le signal vidéo est amené à être compressé par un codeur.
Suivant ce mode, le signal est reçu par l'entité de contrôle qui analyse le signal pour en générer des éléments techniques tels que sa complexité, la gamme de valeurs prises par chacune des composantes, sa propreté, sa variation temporelle, etc. Cette analyse peut être effectuée après le processus de « Pré-traitement ».
Le même signal vidéo d'origine composé par Cl,C2 et C3, est transformé par l'entité de « Pré-traitement ». La sortie de cette entité est aussi un signal vidéo décrit par trois signaux composantes couleurs. Ces signaux sont compressés par l'entité « Compression » qui génère un signal que l'on appelle flux binaire. Comme cela sera détaillé dans la figure 4, cette entité de compression peut comprendre des fonctions des normes de compression MPEG ou H.26x, telles que la prédiction spatiale, la prédiction temporelle, la transformation (DCT, DWT, etc.), la quantification des coefficients, le codage entropique, pour ne citer que les principales .
L'entité de contrôle, de par son analyse du signal vidéo d'origine et/ou d'autres paramètres, calcule des zones
Zk (cf. Figure 2) dans les images successives. Sur certaines de ces zones, l'entité de contrôle réduit la quantification de chacune des composantes Cl, C2 et C3. Dans ce mode de réalisation, la réduction consiste à diminuer le nombre de bits décrivant Cl, C2 et C3 et donc de passer à un nombre
Nl, N2 et N3 (pour chaque composante) inférieurs à 8, 8 étant la quantification supposée dans le signal vidéo d'origine. La modification de quantification s'opère sur des signaux représentant chacune des composantes Cl, C2 et C3, autant dans l'entité de « Pré-traitement » que dans celle de
« Compression ».
L'entité de contrôle ajoute dans le flux binaire sortant de l'entité de « Compression » des informations supplémentaires telles que celles décrivant les zones et leur quantification, ainsi qu'une information de changement de scène. Il est bien entendu que ces informations supplémentaires peuvent être acheminées différemment de l'émetteur au récepteur, de même qu'elles peuvent ne pas y être acheminées, et ce, suivant l'application. D'autres informations peuvent être utilisées tout autant.
Le flux binaire tramé enrichi ou pas de ces informations est ensuite transmis ou stocké.
Dans la figure 5, on donne un exemple plus détaillé d'un mode de réalisation, dans lequel le signal vidéo est amené à être compressé par un codeur. Dans ce mode de réalisation, la modification de quantification est opérée dans l'entité de compression. Toujours dans cet exemple, l'entité de compression est supposée être basée sur un schéma tel que détaillé dans la figure 4. Dans la figure 5, seules les fonctions principales et seuls les signaux principaux sont montrés. Ainsi, par exemple et pour n'en citer que quelques-uns, les signaux de contrôle, les signaux d'informations supplémentaires (incluant notamment le choix de modification de quantification, les zones formées dans image) , le signal des vecteurs mouvements, les entités de stockage (« Buf Im ») ne sont pas indiqués.
Dans ce qui suit, nous n'utiliserons plus les termes de « composantes couleurs Cl, C2, C3 » dans les différentes phases de traitement, mais tout simplement celui de « signal » en lieu et place. Le signal (1) de la vidéo original traverse l'entité de Pré-traitement (A) et devient le signal (2) devant être compressé. Ce signal est traité par l'entité (B) de Prédiction Spatiale et l'entité (F) de Prédiction Temporelle. L'entité de Prédiction Spatiale (B) génère trois signaux : le signal (3) Image, le signal (10) Prédiction Spatiale et le signal (4) Résiduel Spatial. Le signal Image est l'ensemble de pixels de l'image d'origine transmis vers les autres étapes de compression (DCT, DWT ou autre type de transformation équivalente, quantification, réorganisation, codage entropique) . Le signal Prédiction Spatiale est l'ensemble des pixels considérés comme bonne prédiction pour des pixels spatialement voisins et utilisés en tant que telle. Le signal Résiduel Spatial est l'ensemble de pixels représentés par la différence entre leur valeur originale et la valeur du pixel Prédiction correspondant. Les signaux (3) et (4) sont alors traités par l'entité (C) de Modification de Quantification objet de la présente invention. Les deux signaux résultant (5) et (6) sont donc respectivement le signal Image et le signal Résiduel Spatial après Modification de Quantification. Ces deux signaux sont ensuite transmis vers les étapes de compression qui suivent (DCT, DWT ou autre type de transformation équivalente, quantification, réorganisation, codage entropique) . Ces mêmes signaux (5) et (6) sont aussi traités par l'entité (D) de Remise à l'Echelle autre objet de cette invention. Cette entité a pour objectif d'opérer la fonction inverse de l'entité (C) de modification de quantification. Les signaux résultant (7) et (8) sont respectivement le signal Image et Résiduel Spatial après Remise à l'Echelle et sont orientés vers l'entité (E) de Reconstruction qui reçoit de même le signal (10) . L'objectif de (E) est de re-former les pixels d'origine notamment pour les pixels résiduels. Pour lesdits pixels résiduels, cette re-formation des pixels d'origine est basée sur une simple addition de la valeur du pixel résiduel et la valeur du pixel prédiction correspondant. Le signal (9) Reconstruit Spatial sert alors de signal de référence pour la Prédiction Spatiale (B) au même titre que le signal (2) Image. De même ce signal (8) sert de signal de référence pour la Prédiction Temporelle (F) .
L'entité de Prédiction Temporelle (F) génère deux signaux : le signal (15) Prédiction Spatio-Temporelle et le signal (11) Résiduel Spatio-Temporel. De manière analogue à précédemment, le signal Prédiction Spatio-Temporelle est l'ensemble des pixels considérés comme bonne prédiction pour des pixels spatio-temporellement voisins et utilisés en tant que telle. Le signal Résiduel Spatio-Temporel est l'ensemble de pixels représentés par la différence entre leur valeur originale et la valeur du pixel Prédiction correspondant. Le signal (11) est alors traité par l'entité (G) de Modification de Quantification objet de la présente invention. Le signal résultant (12) est donc le signal Résiduel Spatio-Temporel après Modification de Quantification. Ce signal est ensuite transmis vers les étapes de compression qui suivent (DCT, DWT ou autre type de transformation équivalente, quantification, réorganisation, codage entropique) . Ce même signal (12) est aussi traité par l'entité (D) de Remise à l'Echelle. Cette entité a pour objectif d'opérer la fonction inverse de l'entité (G) de modification de quantification. Le signal résultant (13) est le signal Résiduel Spatio-Temporel après Remise à l'Echelle et est orienté vers l'entité (E) de Reconstruction qui reçoit de même le signal (15) Prédiction. Le signal (14) Reconstruit Spatio-Temporel sert alors de signal de référence pour la Prédiction Temporelle (F) au même titre que le signal (2) Image. De même ce signal (14) Reconstruit sert de signal de référence pour la Prédiction Spatiale (B) .
Par souci de clarification de l'interface entre les entités décrites dans cette figure et de fonctions (DCT, Q, Q"1 et DCT"1 principalement) de l'entité de compression non apparentes, notons que l'entité de Reconstruction (E) reçoit aussi des signaux (30) venant des autres fonctions de la compression, notamment les signaux ayant parcouru le chemin DCT, Q, Q"1 et DCT"1.
En ce qui concerne la fonction de Modification de Quantification effectuée par les entités (C) et (G) , citons à titre d'exemple, l'opération de division avec arrondi. Ainsi, on a Sortie = valeur arrondie (Entrée/Q) où Entrée est la valeur d'un pixel en entrée de l'entité (C) ou (G) et Sortie est la valeur de ce même pixel en sortie, Q étant une constante dont la valeur varie sous la commande d'une entité de Contrôle telle que celle montrée dans la figure 3. Cet exemple de modification de quantification peut être utilisé dans le cas où l'on désire diminuer la quantification des signaux et donc gagner en taux de compression.
Un autre exemple de modification de quantification simple peut être mise en œuvre selon l'invention par l'utilisation d'un masquage bit à bit, avec par exemple l'instruction : Sortie = Entrée & Mask_Q
Exemple : si Entrée = 10110110 et Mask_Q = 11110000 alors Sortie = 10110000
En ce qui concerne la fonction de Remise à l'Echelle effectuée par l'entité (D), citons, toujours à titre d'exemple, l'opération de multiplication. Ainsi, pour reprendre les notations ci-dessus appliquée à l'entité (D),
Sortie = Entrée x Q où Entrée est la valeur d'un pixel en entrée de l'entité (D) et Sortie est la valeur de ce même pixel en sortie, Q étant une constante dont la valeur varie sous la commande d'une entité de Contrôle telle que celle montrée dans la figure 3.
En ce qui concerne la fonction de Reconstruction effectuée par l'entité (E), notons que cette entité peut, en plus de la fonction de re-formation du pixel d'origine telle que déjà décrite, inclure d'autres fonctions utiles mais non indispensables. Ainsi, il est envisageable d'inclure une fonction d'uniformisation dont le traitement dépend de l'application considérée. De manière générale, la fonction d'uniformisation peut se décrire suivant la formule :
PX,y (j) = C [P'Xm',Yn' (Ji') , PXm,Yn(ji)] m', n' , m, n = 0,1,2, ; i' , i=0,l,2, ou
P représente le pixel après fonction d'uniformisation, P' représente le pixel avant fonction d'uniformisation, x,y sont les coordonnées spatiales du pixel, j est l'indice temporel du pixel (l'indice de l'image à laquelle il appartient) , xm,Yn et xm',Yn' sont les coordonnées spatiales de pixels, pixels pris en compte dans la fonction d'uniformisation, ji' et ji sont les indices temporels de pixels, pixels pris en compte dans la fonction d'uniformisation, C est une combinaison linéaire de totalité ou partie de pixels.
Dans la figure 6, on donne une description de la phase de Modification de Quantification et des éléments qui l'entourent. Dans cette figure, on considère un cas plus général que celui décrit dans la figure 5. Dans la figure 6, on considère que la modification de quantification peut se faire sur les signaux composantes couleurs traversant l'entité de Pré-traitement tel qu'apparaissant dans la figure 3, de même qu'elle peut se faire sur les signaux composantes couleurs en entrée des deux entités de prédiction spatiale et temporelle, ou qu'elle peut se faire sur les signaux devant être traités par les étapes de compression qui suivent (DCT, DWT ou autre type de transformation équivalente, quantification, réorganisation, codage entropique) tel que décrit dans la figure 5, etc. Dans la figure 6, l'entité (H) d'Analyse de Signal et de Choix de Modification de Quantification reçoit trois signaux : un signal (16) , ce signal étant généralement le signal Image ( (2) selon la figure 5), le signal (17) sur lequel la modification de quantification sera opérée et le signal (20) portant des résultats d'analyses effectuées ou des commandes supplémentaires qui seront décrits plus en détail dans les exemples d'algorithme appliqué à la modification de la quantification. L'entité (J) est l'entité qui opère la Modification de Quantification. Cette entité
(J) reçoit donc le signal (17) déjà cité et le signal (22) portant les choix de modifications de quantification provenant de l'entité (H) . L'entité (K) est un simple Multiplexeur, commandé à travers le signal (21) provenant de l'entité (H) . Ainsi, l'entité (K) aiguillera vers la sortie (signal (19) ) soit le signal de quantification modifiée (18) soit le signal original (17) . Cet aiguillage s'opère au rythme pixel. En sortie, on retrouve donc le signal (19) devant être traité par les entités qui suivent et le signal (22) portant les choix de modification de quantification.
De façon générale, la modification de quantification s'opère au moins sur les signaux résiduels des pixels situés dans les zones concernées. Ainsi, pour les zones prédits spatialement, les pixels qui servent de prédicteurs aux pixels voisins peuvent ne pas être affectées par la modification de quantification.
D'autre part, il n'est pas exclu que le signal (17) soit le même que le signal (16) . Dans l'exemple détaillé ci- dessus et reprenant la figure 5, les signaux (16) et (17) sont distincts.
Notons que l'information véhiculée par le signal (22) est reprise pour être insérée éventuellement dans le flux binaire en sortie de l'entité de Tramage tel que montré dans la figure 3, et ce en tant que partie de l'information supplémentaire tel que décrit précédemment, de même que ce signal (22) peut être utilisé par d'autres entités de la compression.
Notons aussi, que l'entité (H) est une partie de l'entité de Contrôle montrée dans la figure 3.
On définit maintenant plus précisément les moyens d'analyses qui amèneront à prendre les décisions de formation de zones dans l'image et de modification de quantification (soit-elle la quantification de l'image, c'est-à-dire la résolution spatiale, ou la quantification du pixel) , modification de quantification sur chacune desdites zones, moyens d'analyses les mieux adaptés au signal, à l'application et au contexte.
De façon générale, la modification de quantification s'opère au moins sur les signaux résiduels des pixels situés dans les zones concernées. Ainsi, pour les zones prédits spatialement, les pixels qui servent de prédicteurs aux pixels voisins peuvent ne pas être affectées par la modification de quantification.
Illustrés figures 7a et 7b, nous allons maintenant donner des exemples d'algorithmes pour la mise en œuvre de l'invention afin de compléter la description pour l'homme du métier. Ces algorithmes reposent sur les normes de compression en vigueur telles les normes MPEG et H.26x.
Dans les systèmes de compression décrits dans les normes citées, les images sont découpées en blocs de tailles prédéfinies. Suivant des critères propres, le codeur décide pour chaque bloc du type de prédiction noté Type_Pred et du mode noté Mode_Pred pour cette prédiction qui sera opérée dessus.
D'autre part, l'estimateur de mouvement reçoit un signal vidéo. Il calcule pour les blocs devant être prédits temporellement l'erreur sur le bloc entre les pixels des potentiels blocs prédicteurs et les pixels du bloc courant. Il retient alors comme bloc prédicteur celui qui donne l'erreur minimum, qui sera noté Erreur Pred. Il en déduit le vecteur mouvement correspondant, qui sera noté MV.
Pour les blocs intra-prédits spatialement, une erreur de prédiction qu'on notera aussi Erreur_Pred est généralement calculée pour choisir parmi les différents modes de prédiction spatiale.
Tel que nous l'avons décrit dans le mode de réalisation ci-dessus, le signal après être passé par la voie a) c'est-à-dire par les fonctions de modification de quantification et de remise à l'échelle ou bien par la voie b) c'est-à-dire par les fonctions de modification de quantification, de DCT, de quantification et de sa fonction inverse des coefficients et de remise à l'échelle, est reconstruit par l'entité (E) . Le signal reconstruit suivant l'une de deux voies a) ou b) est comparé au signal original, et une erreur entre les deux signaux est calculée. Cette erreur sera notée Erreur_a_Posteriori.
Ainsi, chaque bloc d'une image à un index temporel donné possède un jeu de variables que sont : Type_Pred, Mode_Pred, Erreur_a_Posteriori, Erreur_Pred et MV, excepté les blocs intra pour lesquels la variable MV n'existe pas. Nous définissons pour Errβur_a_Postβr±or±, Errβur_Prβd et MV des seuils respectivement S_EaPi,S_Ej et S_MVk. Type_Pred et Mode_Pred ont quant à eux des valeurs discrètes définies dans les normes citées .
Figure imgf000025_0001
Tableau 1 Le tableau 1 ci-dessus est un tableau récapitulatif des variables d'un bloc et de leurs valeurs prises pour la zone formée de bloc(s) . D'autres possibilités peuvent être prévues telles remplacer les valeurs moyennes par des sommes, auquel cas les seuils auxquels seront comparées les valeurs obtenues par ces sommes devront être multipliés par le facteur correspondant au nombre de pixels inclus dans les blocs dans la zone.
Enfin, en plus de ces variables, on considère des actions extérieures telles les caractéristiques de l'écran du terminal cible, des configurations de l'utilisateur (par exemple l'opérateur), une commande issue par l'entité de contrôleur de débit, des requêtes du réseau pour plus au moins de débit et plus généralement des informations du contexte de l'application. On définit pour ces paramètres extérieurs des valeurs discrètes.
Les diagrammes des figure 7a et 7b décrivent un exemple d'algorithme de formation de zone. Cet algorithme est un algorithme de renouvellement automatique de zone dans chaque image. Le principe de cet algorithme est que les blocs voisins spatialement sont rassemblés dans une zone si leurs Erreur Preds et leurs MVs sont proches en valeurs . Pour cela, les blocs sont « scannés » dans le sens naturel. Un bloc peut avoir comme voisines plusieurs zones formées d'au moins un bloc.
Arrivé à un bloc donné, soit on force l'inclusion du bloc dans la zone qui se situe à sa gauche, ou à défaut dans la zone qui se situe au-dessus, soit on applique l'algorithme décrit dans ce qui suit. Si ce bloc est un bloc prédit temporellement, le processus suivant (figure 7a) est appliqué : pour chaque zone, on vérifie d'abord que la zone et le bloc ont le même type et mode de prédiction. Dans le cas affirmâtif, on calcule la différence entre le vecteur MV du bloc en cours et le vecteur MV de la zone, et la différence entre Erreur_Pred du bloc en cours et Erreur_Pred de la zone. On compare la différence des erreurs avec un seuil S El : si la différence dépasse ce seuil, on passe à la zone voisine suivante, sinon on continue le processus. On compare alors la différence des MVs avec un premier seuil S_MV1, : si cette différence ne dépasse pas le seuil, on inclut le bloc dans la zone et on met à jours les variables de cette zone en calculant les valeurs moyennes ; si cette différence dépasse le seuil, on compare les signes de MV de la zone et de MV du bloc : si les signes sont différents, on passe à la zone voisine suivante, sinon on continue le processus. On compare alors la différence des MVs avec un seuil S MV2 : si la différence dépasse ce seuil, on passe à la zone voisine suivante, sinon on inclut le bloc dans la zone et on met à jour les variables de cette zone en calculant les valeurs moyennes. Une fois une zone répondant aux critères d'inclusion trouvée, on a le choix de passer au bloc suivant ou bien de tester toutes les zones voisines et d'appliquer alors l'option décrite dans le paragraphe qui suit.
Dans le cas où le bloc donné n'est pas un bloc prédit temporellement mais un bloc intra-prédit spatialement, la partie d'algorithme décrite dans la figure 7b est appliquée : le bloc donné est inclus dans toute zone voisine ayant le même type et le même mode de prédiction que ce bloc, si la différence de Erreur_Pred du bloc et de Erreur Pred de la zone ne dépasse pas S E2 en valeur absolu. Une option non décrite dans les figures 7a et 7b prévoit de choisir parmi les zones qui répondent aux critères d'inclusion du bloc traité la zone pour laquelle la valeur Errβur_Prβd est la plus faible. Pour implémenter cette option, par exemple il suffira lors du traitement d'un bloc, d'enregistrer les données relatives à chaque zone répondant aux critères d'inclusion et de comparer ensuite les valeurs des Erreur Pred et prendre la bonne décision d'inclusion. Si plus d'une zone répond à ce critère, alors ces zones ne formeront plus qu'une nouvelle zone incluant de plus le bloc traité, et les variables de cette zone seront mises à jour en calculant les valeurs moyennes.
Enfin, tout bloc qui ne trouve pas de zone voisine répondant aux critères d'inclusion forme une nouvelle zone.
On décrit maintenant un exemple d'algorithme de modification de quantification par zones.
On rappelle d'abord qu'il existe trois types d'informations utiles à cet algorithme : l'information temporelle de la zone c'est-à-dire l'index de l'image à laquelle elle appartient, les variables calculées pour une zone telles que données dans le tableau 1 et les actions extérieures .
Pour une zone donnée, on choisit une nouvelle quantification suivant l'index temporel de la zone, les actions extérieures et le résultat des tests de comparaison des variables Type_Pred, Mode_Pred, MV et Erreur_Pred avec les valeurs discrètes que les deux premières variables sont susceptibles de prendre ou avec les seuils respectifs S_MVk et S_Ej pour les deux dernières variables. Il est bien entendu que la nouvelle quantification choisie peut être la même que celle d'origine.
Une fois cette première étape effectuée pour une zone, on calcule Erreur_a_Posteriori que l'on compare avec les seuils S_EaPi. Suivant le résultat de ces tests, soit l'on décide de ne pas modifier le choix de nouvelle quantification prise lors de la première étape, soit l'on décide de ne pas changer de quantification d'origine, soit enfin une nouvelle quantification est choisie. Dans ce dernier cas, on peut alors décider que le nouveau choix n'est pas définitif et décider de recalculer Erreur_a_Posteriori et la comparer à nouveau avec les seuils S_EaPi. Cette seconde étape peut être répétée un nombre de fois.
Dans une variante à cet exemple d'algorithme de découpage en zones et à cet exemple d'algorithme de modification de quantifications par zone, il peut être décidé de ne pas appliquer un découpage en zones et/ou une modification de quantification par zone si le nombre d'images successives dans lesquelles des modifications de quantification ont été effectuées dépasse un certain seuil ou si le nombre d'images successives dans lesquelles des modifications de quantification ont été effectuées sur une zone dépasse un certain seuil.
Enfin, dans les cas où des variables indiquées dans le tableau ne sont pas utilisables, d'autres algorithmes peuvent être prévus, basé sur les mêmes principes de proximité spatiale et de caractéristiques de mouvement et d'énergie résiduelle. L'homme du métier comprendra que l'algorithme de traitement vidéo tel que précédemment décrit est itératif en ce que le découpage des images en zones dépend des données de quantification obtenues à chaque cycle d'analyse. Ceci possède l'avantage d'adapter au mieux le découpage en zones, en fonction de la quantification de l'image, et ce de façon spatio-temporelle.
Les décisions prises par les algorithmes décrits ci- dessus sont transmises ou stockées pour être utilisées éventuellement par d'autres fonctions de la compression.
L'homme du métier comprendra enfin que le procédé faisant l'objet de cette invention ainsi que les différentes étapes le constituant peuvent être implémentés de manière matérielle et/ou logicielle, dans tout système de traitement de signal vidéo, de transmission de signal vidéo ou de stockage de signal vidéo. L'invention concerne plus particulièrement les systèmes où la compression ainsi que l'optimisation du signal vidéo par rapport aux écrans des terminaux sont primordiales .

Claims

REVENDICATIONS
1. Procédé de codage d'un signal vidéo d'origine comprenant une succession temporelle d'images comprenant des données d'images quantifiées dans le domaine spatial, pour l'obtention d'un signal vidéo modifié, caractérisé en ce qu'il comprend les étapes consistant à :
- recevoir ledit signal vidéo d'origine,
- découper les images dudit signal vidéo en un ensemble de zones d'image,
- définir une nouvelle quantification des données d'images dans le domaine spatial, variable en fonction des zones dudit ensemble de zones, pour l'obtention d'un signal vidéo modifié.
2. Procédé de codage d'un signal vidéo d'origine selon la revendication 1, caractérisé en ce que ledit découpage des images est variable en fonction du numéro de l'image dans ladite succession temporelle d'images.
3. Procédé de codage d'un signal vidéo d'origine selon la revendication 1, caractérisé en ce que ladite nouvelle quantification est variable en fonction du numéro de l'image dans ladite succession temporelle d'images.
4. Procédé de codage d'un signal vidéo d'origine selon l'une quelconque des revendications 1 à 3, caractérisé en ce qu'il comprend en outre une étape d'analyse dudit signal vidéo d'origine, et en ce que ledit découpage et/ou ladite nouvelle quantification dépendent de ladite analyse.
5. Procédé de codage d'un signal vidéo d'origine selon l'une quelconque des revendications 1 à 4, caractérisé en ce que ledit découpage et/ou ladite nouvelle quantification sont prédéterminés.
6. Procédé de codage d'un signal vidéo d'origine selon l'une quelconque des revendications 1 à 5, caractérisé en ce que ledit découpage et/ou ladite nouvelle quantification dépendent/dépend d'une action externe au procédé.
7. Procédé de codage d'un signal vidéo d'origine selon la revendication 1, caractérisé en ce que lesdites images comprennent un ensemble de données numériques d' image échantillonnées en pixel au sein de ladite image, et en ce que ladite nouvelle quantification est un ré-échantillonnage de la résolution spatiale selon au moins une desdites données numériques d' images .
8. Procédé de codage d'un signal vidéo d'origine selon la revendication 1, caractérisé en ce que lesdites images comprennent un ensemble de données numériques échantillonnées en pixel, et quantifiées sur un nombre de bits d'origine, et en ce que ladite nouvelle quantification est une nouvelle quantification dudit nombre de bits selon au moins une desdites données numériques d' images ou la manière de quantifier au moins une desdites données numériques d' images sur ces bits .
9. Procédé de codage d'un signal vidéo d'origine selon la revendication 1, caractérisé en ce que lesdites images comprennent un ensemble de données numériques échantillonnées en pixel, et quantifiées sur un nombre de bits d'origine, et en ce que ladite nouvelle quantification est une nouvelle quantification dudit nombre de bits selon au moins une desdites données numériques d' images ou la manière de quantifier au moins une desdites données numériques d'images sur ces bits, ainsi qu'un ré¬ échantillonnage de la résolution spatiale selon au moins une desdites données numériques d' images .
10. Procédé de codage d'un signal vidéo d'origine selon l'une quelconque des revendications 7 à 9, caractérisé en ce que ledit ensemble de données numériques d' image correspond à des composantes couleurs .
11. Procédé de codage selon la revendication 1, caractérisé en ce que ladite étape de découpage comprend la création d'un ensemble ou une pluralité d'ensembles de pixels dans une image dudit signal vidéo, les pixels étant définis par leurs coordonnées spatiales.
12. Procédé de codage selon la revendication 1, caractérisé en ce que lesdites images du signal vidéo d'origine sont découpées en une pluralité de blocs de tailles prédéfinies, et en ce que lesdites zones d'image obtenues lors de l'étape de découpage correspondent à une pluralité desdits blocs adjacents.
13. Procédé de codage selon la revendication 12, caractérisé en ce que lesdits blocs correspondent aux blocs
MPEG ou H.26x.
14. Appareil de codage d'un signal vidéo d'origine comprenant une succession temporelle d'images comprenant des données d'images quantifiées dans le domaine spatial, pour l'obtention d'un signal vidéo modifié, caractérisé en ce qu'il comprend un moyen pour recevoir ledit signal vidéo d'origine, un moyen pour découper les images dudit signal vidéo en un ensemble de zones d'image, un moyen pour générer une nouvelle quantification des données d'images dans le domaine spatial, variable en fonction des zones dudit ensemble de zones, pour l'obtention d'un signal vidéo modifié.
15. Support d'enregistrement sur lequel une série d'images d'une scène vidéo codée selon procédé selon l'une quelconque des revendications 1 à 13, sont stockées.
PCT/FR2005/050982 2004-11-23 2005-11-23 Compression video par modification de quantification par zones d'images WO2006056720A1 (fr)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
FR0412425A FR2878395A1 (fr) 2004-11-23 2004-11-23 Procede de traitement de signal video
FR0412425 2004-11-23
FR0505036 2005-05-19
FR0505036A FR2878384A1 (fr) 2004-11-23 2005-05-19 Compression video par modification de quantification par zones d'images

Publications (1)

Publication Number Publication Date
WO2006056720A1 true WO2006056720A1 (fr) 2006-06-01

Family

ID=36029454

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/FR2005/050982 WO2006056720A1 (fr) 2004-11-23 2005-11-23 Compression video par modification de quantification par zones d'images

Country Status (2)

Country Link
FR (1) FR2878384A1 (fr)
WO (1) WO2006056720A1 (fr)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04266286A (ja) * 1991-02-21 1992-09-22 Seiko Epson Corp テレビ電話用映像信号圧縮装置
US5162898A (en) * 1988-10-06 1992-11-10 Sharp Kabushiki Kaisha Color image data compressing apparatus and method
EP0541302A2 (fr) * 1991-11-08 1993-05-12 AT&T Corp. Quantification améliorée du signal vidéo pour un environnement de codage MPEG ou similaires
US5396292A (en) * 1992-02-26 1995-03-07 Nec Corporation Encoding apparatus for motion video signals
JPH0879757A (ja) * 1994-08-31 1996-03-22 Sanyo Electric Co Ltd 動画像符号化装置
US6490319B1 (en) * 1999-06-22 2002-12-03 Intel Corporation Region of interest video coding
WO2003107678A1 (fr) * 2002-06-18 2003-12-24 Koninklijke Philips Electronics N.V. Procede de codage video et dispositifs de codage et de decodage correspondants

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5162898A (en) * 1988-10-06 1992-11-10 Sharp Kabushiki Kaisha Color image data compressing apparatus and method
JPH04266286A (ja) * 1991-02-21 1992-09-22 Seiko Epson Corp テレビ電話用映像信号圧縮装置
EP0541302A2 (fr) * 1991-11-08 1993-05-12 AT&T Corp. Quantification améliorée du signal vidéo pour un environnement de codage MPEG ou similaires
US5396292A (en) * 1992-02-26 1995-03-07 Nec Corporation Encoding apparatus for motion video signals
JPH0879757A (ja) * 1994-08-31 1996-03-22 Sanyo Electric Co Ltd 動画像符号化装置
US6490319B1 (en) * 1999-06-22 2002-12-03 Intel Corporation Region of interest video coding
WO2003107678A1 (fr) * 2002-06-18 2003-12-24 Koninklijke Philips Electronics N.V. Procede de codage video et dispositifs de codage et de decodage correspondants

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
MURCHING A M ET AL: "Adaptive subsampling of color images", PROCEEDINGS OF THE INTERNATIONAL CONFERENCE ON IMAGE PROCESSING (ICIP) AUSTIN, NOV. 13 - 16, 1994, LOS ALAMITOS, IEEE COMP. SOC. PRESS, US, vol. VOL. 3 CONF. 1, 13 November 1994 (1994-11-13), pages 963 - 966, XP010146490, ISBN: 0-8186-6952-7 *
MUSMANN H G ET AL: "ADVANCES IN PICTURE CODING", PROCEEDINGS OF THE IEEE, IEEE. NEW YORK, US, vol. 73, no. 4, 1 April 1985 (1985-04-01), pages 523 - 548, XP002057834, ISSN: 0018-9219 *
PATENT ABSTRACTS OF JAPAN vol. 017, no. 057 (E - 1315) 4 February 1993 (1993-02-04) *
PATENT ABSTRACTS OF JAPAN vol. 1996, no. 07 31 July 1996 (1996-07-31) *
SINGHAL A ET AL: "SPATIALLY ADAPTIVE RENDERING OF IMAGES FOR DISPLAY ON MOBILE DEVICES", PROCEEDINGS. IS&T'S PICS CONFERENCE. ANNUAL CONFERENCE, PROCEEDINGS OF CONFERENCE OF THE SOCIETY FOR IMAGING SCIENCE AND TECHNOLOGY, XX, XX, 13 May 2003 (2003-05-13), pages 360 - 365, XP008047825 *

Also Published As

Publication number Publication date
FR2878384A1 (fr) 2006-05-26

Similar Documents

Publication Publication Date Title
US9565439B2 (en) System and method for enhancing data compression using dynamic learning and control
EP1766997B1 (fr) Procédé et dispositif de codage d'une sequence d'images vidéo en coefficients de sous-bandes de fréquences de differentes resolutions spatiales
EP3318061B1 (fr) Procede d'encodage d'image et equipement pour la mise en oeuvre du procede
EP2981088A1 (fr) Procédé de codage et décodage d'images, dispositif de codage et décodage et programmes d'ordinateur correspondants
EP3225029B1 (fr) Procede d'encodage d'image et equipement pour la mise en oeuvre du procede
EP3442228A1 (fr) Procédé de décodage d'images
EP2279621B1 (fr) Procédé de codage, de décodage, codeur et décodeur
EP1721470A1 (fr) Procede de codage et de decodage d'une sequence d'images par analyse temporelle hierarchique
FR2951345A1 (fr) Procede et dispositif de traitement d'une sequence video
KR102312337B1 (ko) Ai 부호화 장치 및 그 동작방법, 및 ai 복호화 장치 및 그 동작방법
Lee et al. DPICT: Deep progressive image compression using trit-planes
EP3139608A1 (fr) Procédé de compression d'un flux de données vidéo
EP2443835A1 (fr) Codage de vecteurs mouvement par competition de predicteurs
EP1702473B1 (fr) Procede de codage d une sequence d images
FR2955995A1 (fr) Procede et dispositif de traitement d'une sequence video
EP3202147B1 (fr) Procédé de transcodage de données vidéo à fusion d'unités de codage, programme informatique, module de transcodage et équipement de télécommunications associés
HUE033524T2 (en) Procedure for compressing data
WO2006056720A1 (fr) Compression video par modification de quantification par zones d'images
WO2018073523A1 (fr) Procédé de codage et de décodage de paramètres d'image, dispositif de codage et de décodage de paramètres d'image et programmes d'ordinateur correspondants
CN116074528A (zh) 视频编码方法及装置、编码信息调度方法及装置
FR2957744A1 (fr) Procede de traitement d'une sequence video et dispositif associe
Liu et al. Foveation embedded DCT domain video transcoding
FR2907989A1 (fr) Procede et dispositif d'optimisation de la compression d'un flux video
Nasiri Machine learning based optimization for VVC low bitrate coding
Chen et al. Vesper: Learning to Manage Uncertainty in Video Streaming

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KM KN KP KR KZ LC LK LR LS LT LU LV LY MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU LV MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 05819413

Country of ref document: EP

Kind code of ref document: A1

WWW Wipo information: withdrawn in national office

Ref document number: 5819413

Country of ref document: EP