WO2005010815A2 - Procede de decodage d'image et dispositif de mise en oeuvre de ce procede - Google Patents

Procede de decodage d'image et dispositif de mise en oeuvre de ce procede Download PDF

Info

Publication number
WO2005010815A2
WO2005010815A2 PCT/FR2004/001942 FR2004001942W WO2005010815A2 WO 2005010815 A2 WO2005010815 A2 WO 2005010815A2 FR 2004001942 W FR2004001942 W FR 2004001942W WO 2005010815 A2 WO2005010815 A2 WO 2005010815A2
Authority
WO
WIPO (PCT)
Prior art keywords
image
dimension
data
resolution
sub
Prior art date
Application number
PCT/FR2004/001942
Other languages
English (en)
Other versions
WO2005010815A8 (fr
WO2005010815A3 (fr
Inventor
Sylvain Philippe Hochberg
Original Assignee
Societe De Compression D'images En Reseaux Et Applications (Cira)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Societe De Compression D'images En Reseaux Et Applications (Cira) filed Critical Societe De Compression D'images En Reseaux Et Applications (Cira)
Publication of WO2005010815A2 publication Critical patent/WO2005010815A2/fr
Publication of WO2005010815A3 publication Critical patent/WO2005010815A3/fr
Publication of WO2005010815A8 publication Critical patent/WO2005010815A8/fr

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding

Definitions

  • the subject of the invention is a method of image decoding, as well as a device for implementing this method, in particular for an image display device.
  • the mass distribution of digital images by data transmission networks, in particular by Internet or by telecommunication networks, comes up against, by the multiplication of display devices and the multiplication of broadcasting sources, the general problem of adaptation of the image size to the resolution of the display device.
  • Known methods for displaying a digital image on a display device, whatever the size of this image and whatever the resolution of the display device, are described schematically in FIGS. 1 and 2. The method most commonly used, described by FIG.
  • a modification 11 by filtering on the source image 10 of dimension Rx by Ry (number of points per line Rx and number of lines Ry) so that the size of this image after modification is equal to or even less than the resolution of the device on which the image is to be displayed.
  • resolution of a display device is meant here the maximum number of lines and dots per line that this device is capable of displaying.
  • This filtering 11 operates for example, according to a known technique, by spatial filtering in one or two dimensions, that is to say by spatial interpolation of the points of the image.
  • the image is then encoded 13 according to a determined encoding method.
  • This method can be chosen from the various known image encoding methods, which increasingly use compression techniques so as to reduce the bandwidth necessary for the transmission of images.
  • This encoding process is for example: - a so-called RLE encoding which proceeds by locating and encoding identical sequences or patterns, - a so-called GIF encoding which proceeds by reducing the number of colors, - a so-called JPEG encoding which proceeds by averaging contiguous points by means of a discrete cosine transform (known by the abbreviation DCT for “Discrete Cosine Transform”) then quantization and compression, - an encoding known as MPEG which proceeds by detection of the temporal correlations between successive images and encoding of the differences between these successive images, or - encoding by wavelet transform applying on the image, according to an iterative process, a decomposition of the image in sub-images of decreasing resolutions before quantization and entropy coding.
  • DCT discrete cosine Transform
  • the encoded image 14 is then transmitted to the display device, possibly via a communication network.
  • the display device decodes the encoded image, restoring a decoded image 16, which is adapted to its display resolution, and therefore can display this decoded image.
  • this type of solution has the major drawback that the source image must undergo prior adaptation, before encoding, as regards its size and this as a function of the device on which it is desired to display it. It follows that an image thus adapted and encoded, can only be transmitted and displayed correctly on devices for which its size is suitable, which is a hindrance to simultaneous dissemination of the image to different types of devices.
  • FIG. 2 Another known method is described in FIG. 2.
  • the source image 20 to be displayed is here first encoded 21 according to a known encoding method, chosen for example from those mentioned above.
  • the encoded image 22 is then transmitted to the display device which, on reception decodes this image 23 and thus generates a decoded image 24 having the same dimension as the original image.
  • This image being either too small or too large, a spatial filtering method 25, similar to that used in the method described in FIG.
  • This known method differs essentially from the usual decompression methods in that it comprises a step consisting in determining the number of decomposition levels of the compressed image to be processed in order to obtain a decompressed image of given size.
  • this method makes it possible to reduce the amount of memory necessary for decompression.
  • the object of the invention is to provide an image decoding method which does not have the drawbacks mentioned above of the previous solutions and which makes it possible to restore by decoding an image of adjustable size, in particular according to the needs of the user or the display device for which it is intended, while reducing the amount of memory necessary for decoding, regardless of the size of the original image having been encoded.
  • the invention also aims to provide a device allowing the display of images from a set of data representative of the encoded image, regardless of the size of the original image.
  • the subject of the invention is a method of decoding digital images to generate, from a set of data resulting from the encoding of a first image of dimension RX1 by RY1, a second image of dimension RXm by RYm, said data set comprising value parameters RX1 and RY1 giving the dimension of said first image and at least one subset of data representative of a sub-level i of said first image, each sub-image having a resolution less than or equal to the resolution of said first image, said at least one subset of data resulting from the transformation by a reversible transformation, with or without loss, of said first image and allowing by application of the inverse transformation of restore a decoded sub-image of said first image, said method comprising the following steps: a) replacement in said data set of the values of the parameters RX1 and RY1 giving the dimension of said first image
  • the method according to the invention can also comprise one or both of the following steps c) and d): c) allocation for the processing and / or storage of said at least one subset of data from at least one memory area, the resolution is at least equal to the dimension RXm by RYm of said second image; d) generation of a third image of dimension RX2 by RY2 by spatial interpolation and / or truncation of said second image.
  • the invention also relates to a device for implementing the method according to the invention, in particular an image display device, comprising data processing means for carrying out steps a) , b), c) or d) of the method according to the invention and data storage means for storing said modified data set.
  • the device according to the invention further comprises means display image and the dimension RXm by RYm of said second image is determined as a function of the resolution of said display means or of the resolution of the output memory of said display means.
  • the images considered here are both images comprising a single channel (typically, a grayscale image) as well as images comprising several channels (typically, a color image coded on 3 channels in RGB or YUV), and this without restriction on the mode of representation used for color or grayscale information.
  • image memory resolution is meant here the maximum dimension of the image that this memory is capable of containing, dimension measured in numbers of image points (pixels) per line and per image column.
  • the resolution of said image memory is said to be at least equal to the dimension of said second image. It is understood here that the optimal situation, from the point of view of reducing the amount of memory used, is that in which the resolution of said image memory is equal to the dimension of said second image.
  • this resolution can be chosen to be higher - in the case for example where the physical size of the allocated memory should be rounded up to the higher multiple of 256 bytes - and this without any prejudice for the good progress of the process according to the invention.
  • the method and the device according to the invention make it possible to limit the size of the memory allocated for decoding the image, regardless of the size of the original image.
  • the image thus decoded is representative of the original image as a whole, and not only of a sub-part which would have been cut out from this original image.
  • the data representative of the encoded image are modified here.
  • the step of modifying the encoded image is preferably carried out in memory, directly on the incident data stream, when for example the compressed image is processed on the fly, or even, as required, in the data file which contains such an encoded image, when for example this encoded image is processed from such a file.
  • the allocated memory size can be independent of the received image and be permanently allocated for all the images to be decoded. It suffices to determine the maximum memory space (in number of bytes or pixels) available for the decoding, to allocate a memory corresponding to this space, and to determine for each encoded image, the dimension RXm by RYm of said second image as a function of the available memory space.
  • the determination of the dimension RXm by RYm of said second image is preferably also a function of the aspect ratio of the original encoded image so as to respect the proportionality of the elements contained in the image.
  • the method according to the invention makes it possible to avoid a prior adaptation (spatial interpolation) step as described previously with reference to FIGS. 1 and 2, the scaling process being found according to the process according to the invention integrated, very simply and without additional calculations, into the decoding process. Consequently, the method according to the invention has certain advantages also from the point of view of the processing time.
  • each subset of data is representative of a sub-image of said first image, each sub-image having a resolution less than or equal to the resolution of said first image, and such that each subset of data results from the transformation by a reversible transformation, with or without loss, of said first image and allows, by application of the reverse transformation, to restore a decoded sub-image of said first image.
  • These sub-images thus comprise frequency components of a determined frequency domain of the frequency spectrum of said first image and the frequency domain to which these frequency components belong is dependent on the nature of the applied transform.
  • the invention therefore applies to data originating from compression or encoding using a wavelet, strip transform or an equivalent transform performing a hierarchical decomposition by frequency bands or sub-images.
  • a wavelet transform the resolution of the sub-images obtained is regularly decreasing from level to level, which makes it possible to give good quality to the decoded image, the frequency components being able to be restored with good fidelity compared to the original image.
  • the invention therefore takes advantage of the specific format of the data representative of an image encoded during encoding or compression using a wavelet, strip, or equivalent transform.
  • Another encoding method using for example an RLE or JPEG encoding acting by DCT on sub-blocks of the image, will not be suitable for the method according to the invention.
  • the modification of the dimension information in the set of data to be decoded will have the effect of limiting the data which will be decoded to the data representative of the first lines of the original image up to up to the number of pixels of the desired output image.
  • any transformation, whether wavelets, strips or an equivalent transformation or derived from this one, or even from another category, but nevertheless likely to generate sub-images of decreasing resolutions of the original image, being able be returned by the transformed inverse, are suitable for implementing the method according to the invention.
  • the method according to the invention applies mainly to an isolated image.
  • methods of encoding image sequences using one or more transforms making it possible to meet the characteristics set out below also fall within the scope of the method.
  • digital video decoding methods exploiting - like the MPEG2 method - inter-frame time compression, but encoding at least certain reference images by intra-frame or intra-frame encoding, may nevertheless advantageously use the image decoding method according to the invention for decoding these reference images, then using the additional information originating from the chosen encoding method, for temporally interpolating these reference images.
  • the method according to the invention applies both to pre-encoded and prerecorded video as to a stream of images broadcast live and encoded on the fly (in so-called “streaming” mode) and without phase d prior registration.
  • This video stream can be either a continuous or real-time video stream (for example at 25 frames per second) or a discontinuous stream (sampled for example at 1 frame per second, for example in the context of a video surveillance device).
  • it is possible to limit the size of allocated memory for example as a function of the resolution of the display device: either for example by defining for said second image a size corresponding to the resolution of the display device, or again by setting a limit being in a certain relationship with this resolution, for example an image having a size limit of 150% relative to the resolution of the device display, or finally by determining this size from a maximum memory capacity available in the display device.
  • this limit can also depend on the processing means available in the display device: spatial interpolation means, zooming or reduction means, etc.
  • a postprocessing step by spatial interpolation or truncation
  • a particular display mode via a zoom function
  • the subject of the invention is also a support for the temporary or permanent recording of digital data comprising a set of data resulting from the encoding of a first image of dimension RX1 by RY1, said set of data comprising parameters of value RX1 and RY1 giving the dimension of said first image and at least one subset of data representative of a sub-level i of said first image, each sub-image having a resolution less than or equal to the resolution of said first image , said at least one subset of data resulting from the transformation by a reversible transformation, with or without loss, of said first image and allowing, by application of the reverse transformation, to restore a decoded sub-image of said first image, characterized in that the parameters RX1 and RY1 giving the dimension of said first image have been replaced in said data set by values RXm and RYm giving the dimension of a second image smaller than said first image, said set of data thus modified being such that by decoding a second image of dimension RXm and RYm is obtained.
  • the medium for temporary or permanent recording can be in the form of a data memory, in all its forms (RAM, ROM, DRAM, ...) or a medium for recording files of the hard disk type. , floppy disk, CD-ROM, etc.
  • the method according to the invention may also include one or more of the following characteristics: the dimension RXm by RYm of said second image is determined as a function of data chosen from the group comprising: the resolution of the lower resolution subimage , the width / height ratio of said first image, the resolution of an image display device, the amount of memory available for decoding said set of data, or as a function of a combination of these data; -
  • the data subsets are decoded by increasing level of resolution, relative to the resolution of the sub-image, each of which is representative; - we only decode a subset of data if it is representative of a sub-image whose horizontal resolution is less than or equal to the dimension horizontal RXm of said second image or whose vertical resolution is less than or equal to the vertical dimension
  • the device according to the invention may also include one or more of the following characteristics: - the dimension RXm by RYm of said second image is determined as a function of the amount of storage space available via said data storage means in said device; - Said display means comprise a determined number of formats for displaying image points and said device further comprises means for adapting the format of the points of said third image to at least one of said display formats.
  • FIGS. 1 and 2 represent methods known from the prior art which have been described previously
  • - Figure 3 is an example of an image encoding method using a wavelet transform that can be used in the method or the device according to the invention
  • - Figure 4a schematically represents the different images concerned by the method or the device according to the invention
  • - Figure 4b is a flow diagram of the method according to the invention
  • - Figure 5 is a schematic representation of a subset of data used in the method or device according to the invention
  • - Figure 6 is an illustration of an example of application of the method or device according to the invention.
  • the encoding method is an encoding method by wavelet transform.
  • the method according to the invention is not however limited to such a transformation, since any transformation (for example a transformation into strips) making it possible to generate a subset of data meeting the characteristics set out above is suitable for implementing the process.
  • a wavelet transform encoding method is described schematically in FIG. 3. This figure represents the transformation steps applied to a starting image P1 of dimension RX1 by RY1.
  • a first wavelet transform is applied, decomposing the image into 4 subsets N13 of data LL1, LH1, HL1, HH1, representative respectively of the horizontal and vertical low frequencies of the frequency spectrum of the image P1, vertical low frequencies and horizontal high frequencies of the frequency spectrum of image P1, horizontal low frequencies and vertical high frequencies frequency spectrum of image P1, and horizontal and vertical high frequencies frequency spectrum of l image P1.
  • a second step we apply to the subset LL1, corresponding to a low-frequency subimage of P1, a wavelet transform decomposing the subimage LL1 into 4 subsets N12 of LL2, LH2, HL2, HH2 representative data.
  • a third step we apply to the LL2 subset, corresponding to a low frequency sub-image of LL1, a wavelet transform decomposing the LL2 sub-image into 4 subsets N11 of representative LL3, LH3, HL3, HH3 data.
  • the image has therefore been broken down into sub-images of decreasing resolution per level, successively at the first level N13 (L1, LH1, HL1, HH1), at the second level N12 (LL2, LH2, HL2, HH2) and at the third level N11 (LL3, LH3, HL3, HH3).
  • Each of these sub-images has a resolution less than or equal to that of the original image P1 and is representative of frequency components of P1 of a determined frequency domain of the spectrum of the image P1. This frequency domain depends directly on the nature of the transformation applied.
  • the wavelet transformation process follows a compression process proper which makes it possible to encode each of the data subsets thus obtained, for example by using a quantification method coupled with entropy coding. This results in a compressed image P12. Depending on the compression method used here, there may or may not be information loss.
  • the compressed image P12 is then decompressed, for example for display.
  • each subset of data is compressed independently of the others so that it can decompress only some of these subsets.
  • the subsets LL3, LH3, HL3, HH3, LH2, HL2, HH2, LH1, HL1, HH1 are restored -
  • the original image is restored from these subsets by applying the Wavelet transformed opposite to that used for encoding, the LL3, LH3, HL3, HH3 sub-assemblies allowing to restore the LL2 sub-image, the LL2, LH2, HL2, HH2 sub-assemblies allowing to restore the sub-image LL1 and finally the subsets LL1, LH1, HL1, HH1 allowing to restore the source image P1 of dimension RX1 by RY1.
  • the method according to the invention is now described with reference to Figures 4a and 4b.
  • the images P1, Pm and P2, used in the description of the process and represented diagrammatically in FIG. 4a, are thus defined: the image P1 is the encoded image of dimension RX1 by RY1; the second intermediate image Pm of dimension RXm by RYm is the result of the decoding of the image P1; the third image P2 of dimension RX2 by RY2 is generated by application to the image Pm of an optional post-processing operation. If this last postprocessing operation, which will be described in more detail below, is not carried out, the images Pm and P2 are identical.
  • the image P1 is the encoded image of dimension RX1 by RY1
  • the second intermediate image Pm of dimension RXm by RYm is the result of the decoding of the image P1
  • the third image P2 of dimension RX2 by RY2 is generated by application to the image Pm of an optional post-processing operation. If this last postprocessing operation, which will be described in more detail below, is not carried out, the images Pm and P2
  • the dimension RXm by RYm of the second image Pm is determined by taking into account a certain number of constraints. Preferably, it is determined as a function of data chosen from the group comprising: the resolution of the lower resolution sub-image, the width / height ratio of said first image, the resolution of an image display device (for example an image display device intended for displaying the image P2 or Pm), the amount of memory available for decoding the encoded image, or as a function of a combination of these data.
  • the width / height ratio of the first image P1 will be kept.
  • the dimension RXm by RYm of the second image Pm as a function of the resolution of the sub-image of lower resolution and / or of the width / height ratio of said first image P1 or of the two to take account of the problems. size rounding when encoding.
  • This physical constraint can be the resolution of a display device intended to display the decoded image - before or after the post-processing step which will be described later - or the amount of memory available for decoding.
  • this physical constraint is the combination of this physical constraint with the width / height ratio of the first image P1 which will be used to determine the dimension RXm by RYm of the second image Pm.
  • the maximum values corresponding to this double constraint are chosen for RXm and RYm so as to obtain a decoded image of the best possible quality.
  • the decoded Pm images are limited to a maximum size corresponding for example to a double resolution that of the display means.
  • the dimension RXm is determined by RYm of the image Pm that we want to obtain, which retains the width / height ratio of the original image P1 and which is the closest in size to the resolution of the display device.
  • This determination must also, in particular in the case of a wavelet transform, also take into account the resolution of the sub-image of lower resolution present, the dimension of the image Pm not being able to be less, except at apply one or more additional decomposition steps to this subimage to generate lower resolution subimages.
  • the size of the image Pm can be determined and adjusted according to the use to be made of it, in particular according to the resolution of the display device to which the image Pm or image P2 after the post-processing step is intended and / or depending on the exact size of the desired P2 image.
  • the image Pm will be given a height / width ratio equal to that of P1 and chosen as a function of the dimension of the image P2 desired, that is to say such that the ratio RXm / RX2, respectively RYm / RY2, has a value is included in a given interval, for example between 0.5 and 2. It is also possible in case of great divergence between the aspect ratio of P1 and that of P2 of give the image Pm a height / width ratio in a power factor of 2 to that of P1, said factor being chosen to best approach the ratio of the desired image P2.
  • the adjustment which has just been described with respect to the image P1 can, instead of being carried out with respect to this image P1, be carried out with respect to one of the sub-images, in particular with respect to the sub-image of lower resolution already considered above as being the minimum size of the image Pm, this sub-image retaining at least in a first approximation of the width / height ratio of the original image, and making it possible to determine very directly - by successive multiplications by 2 and consideration of size roundings - the possible dimensions for the image Pm after decoding.
  • the data set representative of the encoded image P1 are on the one hand the data representing the subsets LU, LHi, HLi, HHi as described above, and on the other hand parameters giving the dimension RX1 by RY1 from the original image. These parameter values are replaced 31 by the values RXm by RYm giving the dimension of the desired output image Pm.
  • the decoding process provided for decoding the image P1 of dimension RX1 by RY1 continues with the decoding 34 of the different data subsets, and this as if they came from an image of dimension RXm by RYm.
  • the sub-images of the image P1 encoded by these subsets LLi, LHi, HLi, HHi are decoded to generate sub-images of the image Pm.
  • the dimension of the image Pm is, except in the particular case already mentioned above, greater than or equal to the resolution of the sub-image of lower resolution and the description which will follow will be made with this assumption. This is not a limitation on the use of the method according to the invention insofar as it is possible to encode the original image in such a way that sub-images are available in all cases. very low resolution, for example sub-images having a resolution or dimension of 16 by 16 points.
  • the decoding process can start according to usual algorithms.
  • 32 is allocated, at one time or another, at least one image memory whose resolution corresponds to the dimension RXm by RYm of a second image Pm which is to be decoded.
  • the allocated image memories will be used for the storage of the decoded sub-images, for the storage of the final image or for the processing of the data subsets.
  • the total memory space requirement strongly depends on the decoding algorithm used and will not be described in more detail. Whatever this algorithm is, it is however assured that only a reduced amount of memory will be required due to the modification carried out in step 31.
  • image memory resolution is meant here the maximum dimension of l image that this memory is likely to contain, apart from the number of bits per image point.
  • an 800 by 600 resolution memory will be likely to contain an image of dimension at most 800 by 600 points, knowing that if the depth (or number of bits per image point) of this image is 24 bits per point, the physical size of the memory area in number of bits will be 800 * 600 * 24.
  • the image memory is intended to contain the decoded image Pm, and therefore has a depth equal to that of the image Pm.
  • the depth of the second image Pm after decoding is the same as that of the original image P1.
  • the decoding of the data subsets is carried out level by level, and usually by starting with the subsets corresponding to the sub-images of lower resolution, then by proceeding in order of increasing resolution, relative to the resolution of the sub-images.
  • the variable i is used to designate the current resolution level.
  • This resolution level is initialized for example to the value 1 in step 33 before proceeding to the successive decoding steps. The resolution level is thus incremented in step 35 by one unit after each step of decoding a level.
  • the width / height ratio of the restored Pm image will be substantially equal - to the nearest rounding related to the processing of the edges of the sub-images which is specific to the recursive wavelet transform - to that of the original image P1, as soon as all the sub-images of the same resolution level are decoded each time.
  • the horizontal, respectively vertical, dimension of the decoded image will then be in a power ratio of 2 with respect to the horizontal, respectively vertical, dimension of the original image.
  • the size of the image Pm restored will be at most that of the original image.
  • the step 36 of detecting the end of the decoding process it is determined at each iteration, as a function of the resolution of the sub-images of the current level and by comparison with the size of the memory allocated RXm by RYm, if it is necessary to continue the decoding process.
  • a function of the resolution of the sub-images of the current level and by comparison with the size of the memory allocated RXm by RYm if it is necessary to continue the decoding process.
  • the method according to the invention also has advantages from the point of view of the processing time, since only the data useful for the reconstruction of the image Pm will be decoded.
  • step 36 instead of determining in step 36 whether it is necessary to continue the decoding process by analyzing the resolution of the sub-images of the current level, it is possible to determine in advance the number of iterations to be performed on the levels of decomposition to decode. This determination is made for example as a function of the dimension RXm, RYm of the image to be decoded and of the dimension of the sub-image of lower resolution.
  • the step 36 of detecting the end of the decoding process consists in testing the number of iterations carried out. It should be noted that, in the two implementation methods of step 36, the end of the decoding process is a function of the dimension RXm by RYm determined for the image Pm.
  • the decoding of the sub-images can be carried out in two different ways. Either we restore for each subset, a subimage of dimension and resolution corresponding to the resolution of the subimage of which it is representative. Either we restore, for example by applying an extrapolation to the decoded sub-image, an image of the same dimension as the output image but whose resolution corresponds to the resolution of the sub-image of which it is representative.
  • This second solution has the advantage of allowing a progressive visualization of the resulting image as the decoding process progresses, without having to wait as is the case in the other solution, to wait for the end of the decoding process to benefit. an image of the desired size.
  • the data subsets representative of the sub-images are received in the form of wavelet coefficients.
  • These data subsets (or wavelet coefficients) must, before being processed, be stored in memory for decoding. Due to the modification of the dimension parameters carried out prior to the decoding phase which has been described previously, the decoding method usually used will allocate memory blocks, having a resolution corresponding, not to the dimension of the original image P1 encoded, but to the dimension of the image Pm to be decoded. Of course, these blocks or memory areas can be allocated with a larger size without affecting the progress of the method according to the invention.
  • This step can consist, according to well known methods, either of an interpolation in one or two dimensions, or a truncation of the edges of the image.
  • the image P2 of dimension RX2 by RY2 will be obtained from the image Pm by interpolation of additional points horizontally and vertically, which will give a slightly larger P2 image than Pm.
  • the post-processing step and with reference to the example of FIG.
  • the image Pm will be decoded so as to have the same size as the original image P1, ie RX1 by RY1 by decoding all the subsets LL3, LH3, HL3, HH3, LH2, HL2, HH2, then LH1, HL1 and HH1.
  • the interpolation step will aim to reduce the size of the image Pm to obtain the image P2 of dimension RY2 by RY2.
  • This second method gives better resolution to the final P2 image.
  • the interpolation step will aim at reducing the horizontal dimension, respectively increasing the vertical dimension, of the image Pm to obtain the image P2 of dimension RY2 by RY2. Since in the case of a wavelet transform we are forced to keep - outside the post-processing step - the width / height ratio of the original image or to modify it by a factor of power of 2, one will take care during the decoding phase to determine the maximum level of resolution necessary to give a better quality to the image and one will choose between one of the two post-processing methods (by reduction or enlargement of the image Pm).
  • the decoded Pm images are limited to a maximum size corresponding for example to a double resolution that of the display means.
  • the image memory is allocated as a function of the size RXm by RYm of the image Pm that we want to obtain, which retains the width / height ratio of the original image and is closest in size to the resolution of the display device.
  • the dimension of the image Pm is adjustable as a function of the use to be made of it, in particular as a function of the resolution of the display device for which the image Pm or the image P2 is intended and / or according to the exact size of the desired P2 image.
  • This adjustment must, in particular in the case of a wavelet transform, also take account of the resolution of the sub-image of lower resolution present, the dimension of the image Pm usually being able to be not less. This adjustment is made by comparing the height / width ratios of the original image P1 and that of the desired final image.
  • the image Pm will be given a height / width ratio equal to that of P1 and chosen as a function of the dimension of the image P2 desired, that is to say such that the ratio RXm / RX2, respectively RYm / RY2, has a value is included in a given interval, for example between 0.5 and 2. It is also possible in case of great divergence between the aspect ratio of P1 and that of P2 of give the image Pm a height / width ratio in a power factor of 2 to that of P1, said factor being chosen to best approach the ratio of the desired image P2.
  • the adjustment which has just been described with respect to the image P1 can, instead of being carried out with respect to this image P1, be carried out with respect to one of the sub-images, in particular with respect to the sub-image of lower resolution already considered above as being the minimum size of the image Pm, this sub-image retaining at least in a first approximation the width / height ratio of the original image, and making it possible to determine very directly - by successive multiplication by 2 and consideration of size rounding - possible dimensions for the Pm image after decoding.
  • the operation of scaling between the image Pm and the image P2 may prove to be useless, if the display device intended to display this final image has for example a vertical zoom function. and / or integrated horizontal (carried out electronically for example).
  • a device for implementing the method according to the invention comprising means for storing data in the form of a memory associated with means for allocating this memory and calculation means in the form of a calculation processor , and comprising display means
  • an additional step is necessary to put the decoded image in the correct format before it can be displayed.
  • the final image P2 must have a resolution corresponding (in any case less or equal) to that of the display device so that it can be transferred to the output memory of said device.
  • FIG. 5 schematically shows an example of a set of data representative of an image encoded by a wavelet transform.
  • This dataset is made up of different data blocks.
  • the first block is a HE header comprising information relating to this data, in particular the parameters giving the dimension of the original image RX1 and RY1.
  • the image in this example is a color image comprising 3 color channels.
  • RGB color space (“Red, Green, Blue”) with a channel for the red component R, a channel for the green component G and a channel for the blue component B or an image with one channel for luminance and two for chrominance in a YUV-type color space (or YCrCb, widely used in the video world) or an image defined in an HLS space (“ Hue, Light, Saturation "or” hue, luminance, saturation "color space widely used in the world of graphics).
  • a channel is therefore relates as well to luminance, saturation, hue or color component information, or even to any other information resulting from a specific encoding of a color space or of a gray level.
  • the following three data blocks C1, C2, C3 each represent a color channel, the data being encoded in this example channel by channel.
  • the different subsets N1, N2, N3 are successively encoded, each corresponding to a given resolution level of a given channel.
  • the low resolution levels are encoded first. In this way one usually begins to decode a channel C1, starting with the level N1, of lower resolution.
  • the level N1 comprises the subsets LL3, HL3, LH3 and HH3.
  • the following levels N2, N3, etc. are processed until the resolution of a level reaches or exceeds by one level that of the image to be restored, as described above. Then we decode the remaining channel (s).
  • the first levels N1 of the 3 channels there is a pointer on each of the first levels N1 of the 3 channels, so that if we do not decode all the resolution levels, we can directly process the next channel without having to read the remaining data for the channel we just processed.
  • This particular embodiment makes it possible to process the channels sequentially, and therefore contributes to limiting the size of the memory that it is necessary to allocate.
  • a single image memory having the depth of the image Pm which, in the general case, is that of the original image P1, is used to store after decoding the data of the different Pm image channels.
  • the different channels can also be processed in parallel if the processing processor allows it.
  • the first levels N1 are first decoded for all the channels before proceeding to the decoding of the following remaining levels.
  • the client computer terminal is in communication via network 42, for example via the Internet, with the source computer terminal.
  • the mobile telephone is in communication via a second communication network 43 with the source computer terminal.
  • the content of the information carried by the two networks is identical and results from the encoding 41 of the source image 40.
  • the source computer terminal therefore does not need to adapt according to the type of receiver or the type of network used for transmission.
  • the client computer terminal as well as the mobile telephone are able, by implementing the method according to the invention, to decode the data stream transmitted by the source computer terminal.
  • the same person is therefore able to receive a communication on his computer terminal, and if he has to move around and nevertheless continue to follow the emission of images, he can do it very simply or using his mobile phone as soon as it may receive digital data streams from the same source terminal.
  • the device and method according to the invention may for example be used in an application of the remote diagnosis type, a doctor being able to thus receive medical images either on a fixed computer terminal, or even on his mobile telephone. This is very useful when the doctor has to move.
  • the method according to the invention is capable of being used in a video surveillance type application, in which images are transmitted live to different control terminals, both fixed computer terminals and terminals. mobile phone or personal assistant type, these latter terminals allow recipients to continuously monitor the transmission of video surveillance images, even if they have to move.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)

Abstract

Procédé de décodage d'images numériques pour générer, à partir d'un ensemble de données résultant de l'encodage d'une première image de dimension RX1 par RY1, une deuxième image de dimension RXm par RYm, ledit ensemble de données étant composé d'un ou plusieurs sous-ensembles de données, chaque sous-ensemble de données résultant de la transformation par une transformation réversible, avec ou sans perte, de ladite première image et permettant par application de la transformée inverse de restituer une sous-image décodée de ladite première image, ledit procédé comportant les étapes de remplacement (31) dans ledit ensemble de données des informations de dimension RX1 et RY1 par les informations de dimension RXm et RYm, puis décodage (34) de chacun des sous-ensembles de données ainsi modifié en utilisant ladite transformée inverse. L'invention a également pour objet un dispositif de mise en œuvre du procédé selon l'invention, notamment pour un dispositif d'affichage d'image.

Description

Procédé de décodage d'image et dispositif de mise en oeuvre de ce procédé
L'invention a pour objet un procédé de décodage d'image, ainsi qu'un dispositif de mise en œuvre de ce procédé, notamment pour un dispositif d'affichage d'image. La diffusion massive d'images numériques par les réseaux de transmission de données, notamment par Internet ou par les réseaux de télécommunication, se heurte, de par la multiplication des dispositifs d'affichage et la multiplication des sources de diffusion, au problème général de l'adaptation de la dimension de l'image à la résolution du dispositif d'affichage. Des procédés connus permettant d'afficher une image numérique sur un dispositif d'affichage, quel que soit la dimension de cette image et quel que soit la résolution du dispositif d'affichage, sont décrits schématiquement sur les figures 1 et 2. Le procédé le plus couramment utilisé, décrit par la figure 1 consiste dans une première étape à appliquer sur l'image source 10 de dimension Rx par Ry (nombre de points par ligne Rx et nombre de lignes Ry) une modification 11 par filtrage de manière à ce que la dimension de cette image après modification soit égale, voire inférieure, à la résolution du dispositif sur laquelle on veut afficher l'image. Par résolution de dispositif d'affichage, on entend ici le nombre maximum de lignes et de points par ligne que ce dispositif est susceptible d'afficher. Ce filtrage 11 opère par exemple, selon une technique connue, par filtrage spatial dans une ou deux dimensions, c'est-à-dire par interpolation spatiale des points de l'image. On obtient alors une image filtrée de dimension Rxa par Rya. L'image est ensuite encodée 13 selon un procédé d'encodage déterminé. Ce procédé peut être choisi parmi les différents procédés d'encodage d'image connus, qui de plus en plus, utilisent des techniques de compression de manière à réduire la bande passante nécessaire à la transmission des images. Ce procédé d'encodage est par exemple : - un encodage dit RLE qui procède par repérage et encodage de séquences ou motifs identiques, - un encodage dit GIF qui procède par diminution du nombre de couleur, - un encodage dit JPEG qui procède par moyennage de points contigus au moyen d'une transformée en cosinus discrète (connue sous l'abréviation DCT pour « Discrète Cosinus Transform ») puis quantification et compression, - un encodage dit MPEG qui procède par détection des corrélations temporelles entre des images successives et encodage des différences entre ces images successives, ou encore - un encodage par transformée en ondelettes appliquant sur l'image, selon un procédé itératif, une décomposition de l'image en sous-images de résolutions décroissantes avant quantification et codage entropique. L'image encodée 14 est ensuite transmise au dispositif d'affichage, éventuellement via un réseau de communication. A réception de l'image encodée 14, le dispositif d'affichage décode 15 l'image encodée, restituant une image décodée 16, qui est adaptée à sa résolution d'affichage, et donc peut afficher cette image décodée. Ce type de solution présente toutefois l'inconvénient majeur que l'image source doit subir une adaptation préalable, avant encodage, en ce qui concerne sa dimension et ce en fonction du dispositif sur lequel on souhaite l'afficher. Il en résulte qu'une image ainsi adaptée et encodée, ne pourra être transmise et affichée correctement que sur des dispositifs pour lesquels sa dimension est adaptée, ce qui est un frein à une diffusion simultanée de l'image vers différents types de dispositifs d'affichage, par exemple un affichage simultané sur un écran d'ordinateur de résolution 800 par 600 points, recevant cette image via Internet et sur un écran de téléphone portable de résolution, 200 par 150 points, recevant cette image via un réseau de télécommunication. Un autre procédé connu est décrit sur la figure 2. L'image source 20 à afficher est ici d'abord encodée 21 selon un procédé d'encodage connu, choisi par exemple parmi ceux cités ci-dessus. L'image encodée 22 est ensuite transmise au dispositif d'affichage qui, à réception décode 23 cette image et génère ainsi une image décodée 24 ayant la même dimension que l'image d'origine. Cette image étant ou trop petite ou trop grande, un procédé de filtrage spatial 25, similaire à celui utilisé dans le procédé décrit sur la figure 1 , lui est appliqué et permet de générer une image filtrée 26 de dimension adaptée à la résolution du dispositif d'affichage. Ce deuxième type de procédé présente cet inconvénient majeur, que dans le cas par exemple où le dispositif d'affichage est un écran de téléphone portable de résolution 200 par 150 points et l'image d'origine une image de dimension 4000 par 3000 points, une quantité importante de mémoire est nécessaire pour pouvoir décoder cette image avant de l'afficher, cette quantité de mémoire étant telle que, dans le cas de figure d'un téléphone portable, il n'est simplement pas possible de décoder cette image. Dans la demande de brevet EP 1 229 738 A1 est décrit un procédé de décompression d'images qui ont été compressées en utilisant une transformée en ondelettes. Ce procédé connu se distingue essentiellement des procédés usuels de décompression en ce qu'il comprend une étape consistant à déterminer le nombre de niveaux de décomposition de l'image compressée à traiter pour obtenir une image décompressée de taille donnée. En limitant le nombre d'itérations de l'algorithme usuel de décompression, cette méthode permet de réduire la quantité de mémoire nécessaire à la décompression. L'invention a pour but de fournir un procédé de décodage d'image ne présentant pas les inconvénients évoqués ci-dessus des solutions antérieures et permettant de restituer par décodage une image de dimension ajustable, notamment en fonction des besoins de l'utilisateur ou du dispositif d'affichage auquel elle est destinée, tout en réduisant la quantité de mémoire nécessaire au décodage et ce indépendamment de la dimension de l'image d'origine ayant été encodée. L'invention a également pour but de fournir un dispositif permettant l'affichage d'images à partir d'un ensemble de données représentatives de l'image encodée, et ce, quelle que soit la dimension de l'image d'origine. Dans ce but l'invention a pour objet un procédé de décodage d'images numériques pour générer, à partir d'un ensemble de données résultant de l'encodage d'une première image de dimension RX1 par RY1 , une deuxième image de dimension RXm par RYm, ledit ensemble de données comprenant des paramètres de valeur RX1 et RY1 donnant la dimension de ladite première image et au moins un sous-ensemble de données représentatif d'une sous-image de niveau i de ladite première image, chaque sous-image ayant une résolution inférieure ou égale à la résolution de ladite première image, ledit au moins un sous-ensemble de données résultant de la transformation par une transformation réversible, avec ou sans perte, de ladite première image et permettant par application de la transformation inverse de restituer une sous-image décodée de ladite première image, ledit procédé comportant les étapes suivantes : a) remplacement dans ledit ensemble de données des valeurs des paramètres RX1 et RY1 donnant la dimension de ladite première image par les valeurs RXm et RYm donnant la dimension de ladite deuxième image, b) décodage dudit ensemble de données ainsi modifié par application de ladite transformation inverse à au moins un sous-ensemble de données pour restituer au moins une sous-image décodée de ladite première image et génération de ladite deuxième image de dimension RXm par RYm à partir de ladite au moins une sous- image décodée. Le procédé selon l'invention peut comporter en outre une ou les deux étapes c) et d) suivantes : c) allocation pour le traitement et/ou le stockage dudit au moins un sous- ensembles de données d'au moins une zone mémoire dont la résolution est au moins égale à la dimension RXm par RYm de ladite deuxième image ; d) génération d'une troisième image de dimension RX2 par RY2 par interpolation spatiale et/ou troncature de ladite deuxième image. Dans le but évoqué plus haut, l'invention a également pour objet un dispositif de mise en œuvre du procédé selon l'invention, notamment un dispositif d'affichage d'image, comprenant des moyens de traitement de données pour effectuer les étapes a), b), c) ou d) du procédé selon l'invention et des moyens de mémorisation de données pour la mémorisation dudit ensemble de données modifié.. Selon un mode de réalisation avantageux, le dispositif selon l'invention comprend en outre des moyens d'affichage d'image et la dimension RXm par RYm de ladite deuxième image est déterminée en fonction de la résolution desdits moyens d'affichage ou de la résolution de la mémoire de sortie desdits moyens d'affichage. Les images considérées ici sont aussi bien des images comportant un seul canal (typiquement, une image en niveaux de gris) que des images comportant plusieurs canaux (typiquement, une image couleur codée sur 3 canaux en RGB ou YUV), et ce sans restriction sur le mode de représentation utilisé pour l'information de couleur ou de niveau de gris. Par résolution de mémoire d'image on entend ici la dimension maximale de l'image que cette mémoire est susceptible de contenir, dimension mesurée en nombres de points image (pixels) par ligne et par colonne d'image. Il est ici fait abstraction du nombre de bits par point d'image, étant entendu que dans le cas présent il est sous-entendu qu'une mémoire d'image destinée à contenir une image donnée a une profondeur, c'est-à-dire un nombre de bits par pixel, correspondant à la profondeur de l'image considérée ou compatible avec cette profondeur. D'autre part la résolution de ladite mémoire d'image est dite au moins égale à la dimension de ladite deuxième image. Il est entendu ici que la situation optimale, du point de vue de la réduction de la quantité de mémoire utilisée, est celle dans laquelle la résolution de ladite mémoire d'image est égale à la dimension de ladite deuxième image. Toutefois cette résolution peut être choisie supérieure - dans le cas par exemple où la taille physique de la mémoire allouée devrait être arrondie au multiple supérieur de 256 octets - et ceci sans préjudice aucun pour le bon déroulement du procédé selon l'invention. Le procédé et le dispositif selon l'invention permettent de limiter la taille de la mémoire allouée pour le décodage de l'image, et ce quelle que soit la dimension de l'image d'origine. En outre, l'image ainsi décodée est représentative de l'image d'origine dans son ensemble, et non pas seulement d'une sous-partie qui aurait été découpée dans cette image d'origine. Par ailleurs à la différence du procédé décrit dans le document EP 1 229 738 A1 déjà cité, on modifie ici les données représentatives de l'image encodée. Ceci permet d'utiliser ensuite sur cette image encodée, tout algorithme standard de traitement d'images encodées, que ce soit un algorithme de décodage, de décompression ou un simple prétraitement (par exemple une transformation colorimétrique), puisque l'image est « vue » par l'algorithme comme une image de taille réduite. Par ailleurs il est possible de ce fait de déterminer la dimension horizontale RXm de l'image décodée indépendamment de sa dimension verticale RYm ou vice-versa, puisque contrairement au procédé décrit dans le document EP 1 229 738, on n'agit pas par réduction du nombre d'itérations de l'algorithme de décodage. L'étape consistant à modifier l'image encodée est effectuée de préférence en mémoire, directement sur le flux de données incident, lorsque par exemple l'image compressée est traitée à la volée, ou encore, selon les besoins, dans le fichier de données qui contient une telle image encodée, lorsque par exemple cette image encodée est traitée à partir d'un tel fichier. Selon un mode de réalisation particulièrement avantageux, la taille mémoire allouée pourra être indépendante de l'image reçue et être allouée de façon permanente pour toutes les images à décoder. Il suffit en effet de déterminer l'espace mémoire (en nombre d'octets ou de pixels) maximal disponible pour le décodage, d'allouer une mémoire correspondant à cet espace, et de déterminer pour chaque image encodée, la dimension RXm par RYm de ladite deuxième image en fonction de l'espace mémoire disponible. La détermination de la dimension RXm par RYm de ladite deuxième image est de préférence également fonction du rapport hauteur/largeur de l'image encodée d'origine de manière à respecter la proportionnalité des éléments contenus dans l'image. D'autre part, le procédé selon l'invention permet d'éviter une étape d'adaptation (d'interpolation spatiale) préalable telle que décrite précédemment par référence aux figures 1 et 2, le processus de mise à l'échelle se trouvant selon le procédé conforme à l'invention intégré, très simplement et sans calculs supplémentaires, dans le procédé de décodage. En conséquence le procédé selon l'invention présente des avantages certains également du point de vue du temps de traitement. Dans le procédé revendiqué, on se limite toutefois à des données issues d'un procédé d'encodage d'une certaine catégorie de procédés d'encodage, ceux générant un ensemble de données composé d'un ou plusieurs sous-ensembles de données, tels que chaque sous-ensemble de données est représentatif d'une sous- image de ladite première image, chaque sous-image ayant une résolution inférieure ou égale à la résolution de ladite première image, et tels que chaque sous-ensemble de données résulte de la transformation par une transformation réversible, avec ou sans perte, de ladite première image et permet par application de la transformation inverse de restituer une sous-image décodée de ladite première image. Ces sous- images comprennent ainsi des composantes frequentielles d'un domaine frequentiel déterminé du spectre en fréquence de ladite première image et le domaine frequentiel auquel appartiennent ces composantes frequentielles est dépendant de la nature de la transformée appliquée. L'invention s'applique donc aux données issues d'une compression ou d'un encodage utilisant une transformée en ondelettes, en bandelettes ou une transformée équivalente effectuant une décomposition hiérarchique par bandes de fréquence ou sous-images. Dans le cas particulier d'une transformée en ondelettes, la résolution des sous-images obtenues est régulièrement décroissante de niveau en niveau, ce qui permet de donner une bonne qualité à l'image décodée, les composantes frequentielles pouvant être restituées avec une bonne fidélité par rapport à l'image d'origine. L'invention tire donc profit du format spécifique des données représentatives d'une image encodée lors d'un encodage ou d'une compression utilisant une transformée en ondelettes, en bandelettes ou une transformée équivalente. On dispose dans un tel cas d'un jeu de sous-images de résolutions différentes permettant, par une reconstruction adaptée selon le procédé conforme à l'invention, de restituer pour l'image de sortie le spectre en fréquence de l'image d'origine. Il est entendu que si la dimension de l'image de sortie à décoder - et donc sa résolution maximale - est inférieure à celle de l'image d'origine, certaines composantes frequentielles ne pourront être restaurées qu'à concurrence de la résolution maximale de l'image de sortie. Avantageusement dans un tel cas, on est assuré qu'il est conféré à l'image de sortie une résolution maximale. Les procédés d'encodage connus faisant partie de cette catégorie sont par exemple et typiquement les procédés à base d'ondelettes ou ceux à base de bandelettes. Un autre procédé d'encodage, utilisant par exemple un encodage RLE ou JPEG agissant par DCT sur des sous-blocs de l'image, ne sera pas approprié pour le procédé selon l'invention. Dans le cas d'un encodage de type RLE, la modification des informations de dimensions dans l'ensemble des données à décoder aura pour effet de limiter les données qui seront décodées aux données représentatives des premières lignes de l'image d'origine jusqu'à concurrence du nombre de pixel de l'image de sortie souhaitée. Dans le cas d'un encodage de type JPEG agissant par DCT sur des sous-blocs de l'image, du fait qu'une analyse locale de l'image est effectuée - par segmentation de l'image en blocs et application de la transformée en cosinus discrète sur chacun de ces blocs - la modification des informations de dimension dans l'ensemble des données à décoder aura pour effet de limiter les données qui seront décodées aux données représentatives des premiers blocs de l'image jusqu'à concurrence du nombre de pixel de l'image de sortie souhaitée. Dans le cas d'une image encodée par transformée en ondelettes ou bandelettes, le procédé est en outre itératif ce qui veut dire que chaque sous-image est générée à partir de la transformée en ondelettes respectivement bandelettes d'une sous-image du niveau supérieur. Le procédé selon l'invention ne se limite toutefois pas à cette situation. En effet toute transformation, que ce soit ondelettes, bandelettes ou une transformation équivalente ou dérivées de celle-ci, voire d'une autre catégorie, mais toutefois susceptible de générer des sous-images de résolutions décroissantes de l'image d'origine, pouvant être restituées par la transformé inverse, sont appropriées à la mise en œuvre du procédé selon l'invention. En outre il est indifférent dans la mise en œuvre du procédé selon l'invention que les données représentatives des sous-images soient ou non compressées pour réduire la quantité de données à transmettre. Le procédé selon l'invention s'applique principalement à une image isolée. Mais des procédés d'encodage de suites d'image utilisant une ou des transformées permettant de répondre aux caractéristiques énoncées ci-dessous entrent également dans le champ d'application du procédé. Par exemple, des procédés de décodage de vidéo numérique, exploitant - à la manière du procédé MPEG2 - une compression temporelle inter-image, mais encodant au moins certaines images de référence par un encodage intra-image ou intra-trame, pourront néanmoins avantageusement utiliser le procédé de décodage d'image selon l'invention pour décoder ces images de références, puis exploiter les informations supplémentaires issues du procédé d'encodage choisi, pour interpoler temporellement ces images de référence. En outre le procédé selon l'invention s'applique aussi bien à de la vidéo pré-encodée et préenregistrée qu'à un flux d'images diffusé en direct et encodé à la volée (en mode dit « streaming ») et sans phase d'enregistrement préalable. Ce flux vidéo peut être aussi bien un flux vidéo continu ou temps réel (par exemple à 25 images par secondes) ou un flux discontinu (échantillonné par exemple à 1 image par seconde, par exemple dans le cadre d'un dispositif de vidéosurveillance). Dans le cas d'un dispositif d'affichage intégrant le dispositif selon l'invention, il est possible de limiter la taille de mémoire allouée, et ce par exemple en fonction de la résolution du dispositif d'affichage : soit par exemple en définissant pour ladite deuxième image une taille correspondant à la résolution du dispositif d'affichage, soit encore en fixant une limite se trouvant dans un certain rapport avec cette résolution, par exemple une image ayant une taille limite de 150% par rapport à la résolution du dispositif d'affichage, soit enfin en déterminant cette taille à partir d'une capacité mémoire maximum disponible dans le dispositif d'affichage. La façon de fixer cette limite peut aussi dépendre des moyens de traitement dont on dispose dans le dispositif d'affichage : moyens d'interpolation spatiale, moyens de zoom ou de réduction, etc.... En effet si de tels moyens sont présents, une étape de posttraitement (par interpolation spatiale ou troncature) ou un mode d'affichage particulier (via une fonction de zoom) permettra la meilleure adaptation possible de la taille de l'image décodée au dispositif d'affichage, moyennant le fait que l'image aura été décodée avec une contrainte sur sa taille après décodage. Dans un tel cas de figure on peut en outre s'arranger pour que la dimension de l'image décodée s'approche au mieux de la résolution du dispositif d'affichage. L'invention a également pour objet un support pour l'enregistrement temporaire ou permanent de données numériques comportant un ensemble de données résultant de l'encodage d'une première image de dimension RX1 par RY1 , ledit ensemble de données comprenant des paramètres de valeur RX1 et RY1 donnant la dimension de ladite première image et au moins un sous-ensemble de données représentatif d'une sous-image de niveau i de ladite première image, chaque sous-image ayant une résolution inférieure ou égale à la résolution de ladite première image, ledit au moins un sous-ensemble de données résultant de la transformation par une transformation réversible, avec ou sans perte, de ladite première image et permettant par application de la transformation inverse de restituer une sous-image décodée de ladite première image, caractérisé en ce que les paramètres RX1 et RY1 donnant la dimension de ladite première image ont été remplacés dans ledit ensemble de données par des valeurs RXm et RYm donnant la dimension d'une deuxième image plus petite que ladite première image, ledit ensemble de données ainsi modifié étant tel que par décodage une deuxième image de dimension RXm et RYm est obtenue. Le support pour l'enregistrement temporaire ou permanent peut être sous la forme d'une mémoire de données, sous toutes ses formes (RAM, ROM, DRAM, ...) ou d'un support d'enregistrement de fichiers du type disque dur, disquette, CD-ROM, etc. Le procédé selon l'invention peut en outre comporter une ou plusieurs des caractéristiques suivantes : - la dimension RXm par RYm de ladite deuxième image est déterminée en fonction de données choisies dans le groupe comprenant : la résolution de la sous- image de plus faible résolution, le rapport largeur/hauteur de ladite première image, la résolution d'un dispositif d'affichage d'image, la quantité de mémoire disponible pour le décodage dudit ensemble de données, ou en fonction d'une combinaison de ces données ; - on décode les sous-ensembles de données par niveau de résolution croissant, relativement à la résolution de la sous-image dont chacun est représentatif; - on ne décode un sous-ensemble de données que s'il est représentatif d'une sous-image dont la résolution horizontale est inférieure ou égale à la dimension horizontale RXm de ladite deuxième image ou dont la résolution verticale est inférieure ou égale à la dimension verticale RYm de ladite deuxième image; - ladite première image est une image comportant au moins deux canaux de couleur et ledit sous-ensemble de données résulte de l'encodage séparé de chaque canal, le décodage des sous-images s'effectuant, successivement ou parallèlement, canal par canal, et à chaque canal pour tous les niveaux à décoder dans ce canal, ou en variante, le décodage des sous-images s'effectuant successivement niveau par niveau, et à chaque niveau pour tous les canaux avant de décoder le niveau suivant ; - ladite transformée est une transformée en ondelettes, en bandelettes ou équivalent; - ladite deuxième image a sensiblement le même rapport largeur / hauteur que ladite première image; - la dimension de ladite deuxième image (Pm) est déterminée de manière à être la plus proche en taille de ladite troisième image (P2) ou d'un dispositif d'affichage destiné à afficher ladite troisième image (P2). Le dispositif selon l'invention peut également comporter une ou plusieurs des caractéristiques suivantes : - la dimension RXm par RYm de ladite deuxième image est déterminée en fonction de la quantité d'espace de mémorisation disponible via lesdits moyens de mémorisation de données dans ledit dispositif ; - lesdits moyens d'affichage comportent un nombre déterminé de formats d'affichage de points d'image et ledit dispositif comprend en outre des moyens pour adapter le format des points de ladite troisième d'image à au moins un desdits formats d'affichage. Par le dispositif et le procédé selon l'invention, un même flux de données contenant une image encodée peut être affiché sur différents dispositifs d'affichage, indépendamment de leur résolution d'affichage et indépendamment de la dimension de l'image d'origine. Il peut en outre être traité par une pluralité de procédé standard de traitement d'images encodées qui bénéficieront chacun d'une réduction de la taille mémoire nécessaire au traitement. D'autres avantages et particularités de l'invention apparaîtront dans la description détaillée qui va suivre et faisant référence aux figures dans lesquelles : - les figures 1 et 2 représentent des procédés connus de l'art antérieur qui ont été décrits précédemment, - la figure 3 est un exemple de procédé d'encodage d'image utilisant une transformé à base d'ondelettes pouvant être utilisé dans le procédé ou le dispositif selon l'invention, - la figure 4a représente schématiquement les différentes images concernées par le procédé ou le dispositif selon l'invention, - la figure 4b est un organigramme du procédé selon l'invention, - la figure 5 est une représentation schématique d'un sous-ensemble de données utilisé dans le procédé ou le dispositif selon l'invention, - la figure 6 est une illustration d'un exemple d'application du procédé ou du dispositif selon l'invention. De manière à simplifier l'exposé, la description détaillée de l'invention qui va suivre sera faite en prenant comme exemple non limitatif de réalisation le cas où le procédé d'encodage est un procédé d'encodage par transformée en ondelettes. Le procédé selon l'invention ne se limite toutefois pas à une telle transformation, puisque, toute transformation (par exemple une transformée en bandelettes) permettant de générer un sous-ensemble de données répondant aux caractéristiques énoncées plus haut convient pour la mise en oeuvre du procédé. Un procédé d'encodage par transformée en ondelettes est décrit schématiquement sur la figure 3. Cette figure représente les étapes de transformation appliquées sur une image de départ P1 de dimension RX1 par RY1. Sur cette image on applique dans une première étape une première transformée en ondelettes, décomposant l'image en 4 sous-ensembles N13 de données LL1 , LH1 , HL1 , HH1 , représentatifs respectivement des basses fréquences horizontales et verticales du spectre en fréquence de l'image P1 , des basses fréquences verticales et hautes fréquences horizontales du spectre en fréquence de l'image P1 , des basses fréquences horizontales et hautes fréquences verticales spectre en fréquence de l'image P1 , et des hautes fréquences horizontales et verticales spectre en fréquence de l'image P1. Dans une deuxième étape on applique au sous-ensemble LL1 , correspondant à une sous-image basse fréquence de P1 , une transformée en ondelettes décomposant la sous-image LL1 en 4 sous-ensembles N12 de données LL2, LH2, HL2, HH2, représentatifs respectivement des basses fréquences horizontales et verticales du spectre en fréquence de la sous-image LL1 , des basses fréquences verticales et hautes fréquences horizontales du spectre en fréquence de la sous- image LL1 , des basses fréquences horizontales et hautes fréquences verticales du spectre en fréquence de la sous-image LL1 , et des hautes fréquences horizontales et verticales du spectre en fréquence de la sous-image LL1. Dans une troisième étape on applique au sous-ensemble LL2, correspondant à une sous-image basse fréquence de LL1 , une transformée en ondelettes décomposant la sous-image LL2 en 4 sous-ensembles N11 de données LL3, LH3, HL3, HH3, représentatifs respectivement des basses fréquences horizontales et verticales du spectre en fréquence de la sous-image LL2, des basses fréquences verticales et hautes fréquences horizontales du spectre en fréquence de la sous- image LL2, des basses fréquences horizontales et hautes fréquences verticales du spectre en fréquence de la sous-image LL2, et des hautes fréquences horizontales et verticales du spectre en fréquence de la sous-image LL2. A chacune des trois étapes qui viennent d'être décrites on a donc décomposé l'image en sous-images de résolution décroissante par niveau, successivement au premier niveau N13 (L1 , LH1 , HL1 , HH1 ), au deuxième niveau N12 (LL2, LH2, HL2, HH2) et au troisième niveau N11 (LL3, LH3, HL3, HH3). Chacune de ces sous- images a une résolution inférieure ou égale à celle de l'image d'origine P1 et est représentatives de composantes frequentielles de P1 d'un domaine de fréquence déterminé du spectre de l'image P1. Ce domaine de fréquence dépend directement de la nature de la transformation appliquée. Au procédé de transformation par ondelettes suit un procédé de compression proprement dit qui permet d'encoder chacun des sous-ensembles de données ainsi obtenus, par exemple par utilisation d'une méthode de quantification couplée avec un codage entropique. Il en résulte une image compressée P12. Selon la méthode de compression utilisée ici, il peut y avoir perte ou non d'information. L'image compressée P12 est ensuite décompressée, en vue par exemple de son affichage. De manière avantageuse chaque sous-ensemble de données est compressé indépendamment des autres de manière à pouvoir ne décompresser que certains de ces sous-ensembles. Après décompression et décodage, les sous-ensembles LL3, LH3, HL3, HH3, LH2, HL2, HH2, LH1 , HL1 , HH1 sont restitués- L'image d'origine est restituée à partir de ces sous-ensembles par application de la transformée en ondelettes inverse de celle utilisée pour l'encodage, les sous-ensembles LL3, LH3, HL3, HH3 permettant de restituer la sous-image LL2, les sous-ensembles LL2, LH2, HL2, HH2 permettant de restituer la sous-image LL1 et enfin les sous-ensembles LL1 , LH1 , HL1 , HH1 permettant de restituer l'image source P1 de dimension RX1 par RY1. Le procédé selon l'invention est maintenant décrit par référence aux figures 4a et 4b. Les images P1 , Pm et P2, utilisées dans la description du procédé et représentées schématiquement à la figure 4a, sont ainsi définies : l'image P1 est l'image encodée de dimension RX1 par RY1 ; la deuxième image Pm intermédiaire de dimension RXm par RYm est le résultat du décodage de l'image P1 ; la troisième image P2 de dimension RX2 par RY2 est générée par application à l'image Pm d'une opération de post-traitement optionnelle. Si cette dernière opération de posttraitement, qui sera décrite plus en détail plus loin, n'est pas effectuée, les images Pm et P2 sont identiques. Lorsque l'on reçoit une première image P1 encodée, on commence par déterminer à l'étape 30 figure 4b la dimension RXm par RYm d'une deuxième image Pm qui est à décoder. La dimension RXm par RYm de la deuxième image Pm est déterminée en tenant compte d'un certain nombre de contraintes. De préférence, elle est déterminée en fonction de données choisies dans le groupe comprenant : la résolution de la sous-image de plus faible résolution, le rapport largeur/hauteur de ladite première image, la résolution d'un dispositif d'affichage d'image (par exemple un dispositif d'affichage d'image destiné à l'affichage de l'image P2 ou Pm), la quantité de mémoire disponible pour le décodage de l'image encodée, ou en fonction d'une combinaison de ces données. Etant donné que dans le cas d'une transformée par ondelettes on est contraint - en dehors de l'étape de post-traitement qui sera décrite plus loin - à prendre en compte le rapport largeur/hauteur de la première image P1 : soit à le conserver, soit à le modifier d'un facteur en puissance de 2 (en décodant plus de niveaux dans la direction horizontale ou dans la direction verticale). De préférence, on conservera le rapport largeur/hauteur de la première image P1. On peut pour cela déterminer la dimension RXm par RYm de la deuxième image Pm en fonction de la résolution de la sous-image de plus faible résolution et/ou du rapport largeur/hauteur de ladite première image P1 ou des deux pour tenir compte des problèmes d'arrondis de taille à l'encodage. En outre, on peut également tenir compte d'une contrainte physique pour déterminer une valeur maximale admissible pour RXm et de RYm. Cette contrainte physique peut être la résolution d'un dispositif d'affichage destiné à afficher l'image décodée - avant ou après l'étape de post-traitement qui sera décrite plus loin - ou la quantité de mémoire disponible pour le décodage. De préférence, c'est la combinaison de cette contrainte physique avec le rapport largeur/hauteur de la première image P1 qui sera utilisé pour déterminer la dimension RXm par RYm de la deuxième image Pm. De préférence, on choisit pour RXm et RYm les valeurs maximales répondant à cette double contrainte de façon à obtenir une image décodée de la meilleure qualité possible. Selon un mode de réalisation particulier d'un dispositif selon l'invention, comprenant des moyens d'affichage et possédant une résolution d'affichage X par Y donnée, on limite les images Pm décodées à une taille maximale correspondant par exemple à une résolution double de celle des moyens d'affichage. Ce qui veut dire qu'on alloue au maximum une mémoire d'image de dimension RXmax = 2 * X par RYmax = 2 * Y, cette mémoire d'image pouvant alors servir pour le décodage de toutes les images reçues quelle que soit la dimension de l'image d'origine. Selon un autre mode de réalisation, on détermine la dimension RXm par RYm de l'image Pm que l'on veut obtenir, qui conserve le rapport largeur/hauteur de l'image d'origine P1 et qui est la plus proche en taille de la résolution du dispositif d'affichage. Cette détermination doit en outre, notamment dans le cas d'une transformée en ondelettes, tenir compte également de la résolution de la sous-image de plus faible résolution présente, la dimension de l'image Pm ne pouvant pas lui être inférieure, sauf à appliquer à cette sous-image une ou plusieurs étapes de décomposition supplémentaires pour générer des sous-images de plus faibles résolution. Ainsi la dimension de l'image Pm est peut être déterminée et ajutée en fonction de l'utilisation que l'on veut en faire, en particulier en fonction de la résolution du dispositif d'affichage auquel l'image Pm ou l'image P2 issue de l'étape de posttraitement est destinée et/ou en fonction de la taille exacte de l'image P2 souhaitée. Selon un mode de réalisation particulier on donnera à l'image Pm un rapport hauteur/largeur égal à celui de P1 et choisi en fonction de la dimension de l'image P2 souhaitée, c'est-à-dire tel que le rapport RXm/RX2, respectivement RYm/RY2, ait une valeur est comprise dans un intervalle donné, par exemple entre 0,5 et 2. Il est également possible en cas par exemple de grande divergence entre le rapport hauteur/largeur de P1 et celui de P2 de donner à l'image Pm un rapport hauteur/largeur dans un facteur en puissance de 2 à celui de P1 , ledit facteur étant choisi pour s'approcher au mieux du rapport de l'image P2 souhaitée. L'ajustement qui vient d'être décrit par rapport à l'image P1 peut, au lieu d'être réalisé par rapport à cette image P1 , être réalisé par rapport à une des sous-images, notamment par rapport à la sous-image de plus faible résolution déjà considérée plus haut comme étant la taille minimale de l'image Pm, cette sous-image conservant au moins dans une première approximation le rapport largeur/hauteur de l'image d'origine, et permettant de déterminer très directement - par multiplications par 2 successives et considération des arrondis de taille - les dimensions possibles pour l'image Pm après décodage. Dans l'ensemble de données représentatif de l'image P1 encodée se trouvent d'une part les données représentant les sous-ensembles LU, LHi, HLi, HHi tels que décrits plus haut, et d'autre part des paramètres donnant la dimension RX1 par RY1 de l'image d'origine. Ces valeurs de paramètres sont remplacées 31 par les valeurs RXm par RYm donnant la dimension de l'image Pm de sortie souhaitée. Le procédé de décodage prévu pour décoder l'image P1 de dimension RX1 par RY1 se poursuit par le décodage 34 des différents sous-ensembles de données, et ce comme s'ils étaient issus d'une image de dimension RXm par RYm. De cette manière les sous- images de l'image P1 codées par ces sous-ensembles LLi, LHi, HLi, HHi sont décodées pour générer des sous-images de l'image Pm. Dans le cas d'un procédé de décodage utilisant une transformée en ondelettes, la dimension de l'image Pm est, sauf cas particulier déjà évoqué plus haut, supérieure ou égale à la résolution de la sous-image de plus faible résolution et la description qui va suivre sera faite avec cette hypothèse. Ceci n'est pas une limitation à l'utilisation du procédé selon l'invention dans la mesure où il est possible d'encoder l'image d'origine de telle manière que l'on dispose dans tous les cas de sous-images de très faible résolution, par exemple des sous-images ayant une résolution ou dimension de 16 par 16 points. Après l'étape 31 , le procédé de décodage peut commencer selon des algorithmes usuels. Dans ce processus de décodage, on alloue 32, à un moment ou un autre, au moins une mémoire d'image dont la résolution correspond à la dimension RXm par RYm d'une deuxième image Pm qui est à décoder. Les mémoires d'images allouées serviront au stockage des sous-images décodées, au stockage de l'image finale ou au traitement des sous-ensembles de données. Le besoin total en espace mémoire dépend fortement de l'algorithme de décodage utilisé et ne sera pas décrit plus en détail. Quel que soit cet algorithme, on est toutefois assuré qu'il ne sera nécessaire qu'une quantité de mémoire réduite du fait de la modification effectuée à l'étape 31. Par résolution de mémoire d'image on entend ici la dimension maximale de l'image que cette mémoire est susceptible de contenir, abstraction faite du nombre de bits par point d'image. Ainsi une mémoire de résolution 800 par 600 sera susceptible de contenir une image de dimension au plus 800 par 600 points, sachant que si la profondeur (ou nombre de bits par point d'image) de cette image est de 24 bits par point, la taille physique de la zone mémoire en nombre de bits sera de 800 * 600 * 24 . Dans le cas du procédé selon l'invention, la mémoire d'image est destinée à contenir l'image Pm décodée, et donc possède une profondeur égale à celle de l'image Pm. De plus, dans le cas général, la profondeur de la deuxième image Pm après décodage est la même que celle de l'image P1 d'origine. Selon un mode de réalisation particulier, le décodage des sous-ensembles de données s'effectue niveau par niveau, et usuellement en commençant par les sous- ensembles correspondant aux sous-images de plus faible résolution, puis en procédant par ordre de résolution croissante, relativement à la résolution des sous- images. Sur l'organigramme de la figure 4, la variable i est utilisée pour désigner le niveau de résolution courant. Ce niveau de résolution est initialisé par exemple à la valeur 1 à l'étape 33 avant de procéder aux étapes de décodage successives. Le niveau de résolution est ainsi incrémenté à l'étape 35 de une unité après chaque étape de décodage d'un niveau. Dans le cas particulier où la transformée utilisée est une transformée en ondelettes, le rapport largeur/hauteur de l'image Pm restituée sera sensiblement égal - aux arrondis près liés au traitement des bords des sous-images qui est spécifique à la transformée en ondelettes recursive - à celui de l'image P1 d'origine, dès lors que l'on décode chaque fois toutes les sous-images d'un même niveau de résolution. Selon un mode de réalisation particulier, et moyennant un traitement adéquat des sous-images, il est envisageable d'utiliser plus de niveaux pour le décodage et la restitution de l'image selon une des directions horizontale ou verticale que pour la restitution de l'image selon l'autre direction. La dimension horizontale, respectivement verticale, de l'image décodée sera alors dans un rapport en puissance de 2 par rapport à la dimension horizontale, respectivement verticale de l'image d'origine. Dans le cas où la transformée utilisée est une transformée en ondelettes, la taille de l'image Pm restituée sera au maximum celle de l'image d'origine. Lorsque l'image Pm à restituer est ainsi de dimension inférieure, soit horizontalement, soit verticalement, à la taille de l'image d'origine, il n'est pas nécessaire de décoder tous les sous-ensembles de données, puisque, au-delà d'une certaine résolution, les données ainsi décodées ne pourront être affichées. Dans un tel cas, à l'étape 36 de détection de fin du processus de décodage, on détermine à chaque itération, en fonction de la résolution des sous-images du niveau courant et par comparaison avec la taille de la mémoire allouée RXm par RYm, s'il est nécessaire de poursuivre le processus de décodage. Par exemple pour une image Pm de dimension RX1/2 par RY1/2 telle que représentée en pointillés sur la figure 3, on décodera uniquement les 2 premiers niveaux de sous-ensembles, c'est-à-dire LL3, LH3, HL3, HH3, LH2, HL2 et HH2. En conséquence le procédé selon l'invention présente aussi des avantages du point de vue du temps de traitement, puisque seules les données utiles à la reconstitution de l'image Pm seront décodées. Au lieu de déterminer à l'étape 36 s'il est nécessaire de poursuivre le processus de décodage par analyse de la résolution des sous-images du niveau courant, il est possible de déterminer à l'avance le nombre d'itérations à effectuer sur les niveaux de décomposition à décoder. Cette détermination se fait par exemple en fonction de la dimension RXm, RYm de l'image à décoder et de la dimension de la sous-image de plus faible résolution. Dans ce cas l'étape 36 de détection de fin du processus de décodage consiste à tester le nombre d'itérations effectuées. Il est à remarquer que, dans les deux méthodes de réalisation de l'étape 36, la fin du processus de décodage est fonction de la dimension RXm par RYm déterminée pour l'image Pm. Usuellement, dans un procédé de décodage par ondelettes, le décodage des sous-images peut s'effectuer de deux manières différentes. Soit on restitue pour chaque sous-ensemble, une sous-image de dimension et de résolution correspondant à la résolution de la sous-image dont il est représentatif. Soit on restitue, par exemple par application d'une extrapolation à la sous-image décodée, une image de même dimension que l'image de sortie mais dont la résolution correspond à la résolution de la sous-image dont elle est représentative. Cette deuxième solution a l'avantage de permettre une visualisation progressive de l'image résultant au fur et à mesure du processus de décodage, sans devoir comme c'est le cas dans l'autre solution, attendre la fin du processus de décodage pour bénéficier d'une image de la taille recherchée. Dans le cas d'un procédé de décodage d'image par application de transformée en ondelettes, les sous-ensembles de données représentatifs des sous- images sont reçus sous la forme de coefficients d'ondelettes. Ces sous-ensembles de données (ou coefficients d'ondelettes) doivent, avant d'être traités, être stockés en mémoire pour décodage. Du fait de la modification des paramètres de dimension opérée préalablement à la phase de décodage qui a été décrite précédemment, le procédé de décodage usuellement utilisé va allouer des blocs de mémoire, ayant une résolution correspondant, non pas à la dimension de l'image d'origine P1 encodée, mais à la dimension de l'image Pm à décoder. Bien entendu ces blocs ou zones de mémoire peuvent être alloués avec une taille supérieure sans affecter le déroulement du procédé selon l'invention. Il est clair que c'est toutefois cette limite inférieure utilisable pour la taille de ces blocs mémoire qui permet le mieux de réduire la quantité de mémoire nécessaire au procédé de décodage. Ces blocs de mémoire intermédiaires représentent un pourcentage non négligeable (le plus souvent 50% à 90%) de la quantité mémoire totale nécessaire au processus de décodage. Ainsi selon l'invention, la quantité de mémoire nécessaire au processus de décodage sera fortement réduite. Dans le cas où l'on souhaite obtenir au final une troisième image P2 dont le rapport hauteur/largeur diffère de celui de l'image de départ P1 et que la transformée inverse utilisée ne permet pas de le faire directement, une étape de post-traitement de l'image Pm est nécessaire pour obtenir le bon rapport. Cette étape peut consister, selon des méthodes bien connues, soit en une interpolation dans une ou deux dimensions, soit une troncature des bords de l'image. Dans l'exemple représenté sur la figure 3, et selon un mode de réalisation particulier de cette étape de posttraitement, l'image P2 de dimension RX2 par RY2 sera obtenue à partir de l'image Pm par interpolation de points supplémentaires horizontalement et verticalement, ce qui permettra d'obtenir une image P2 légèrement plus grande que Pm. Selon un autre mode de réalisation de l'étape de post-traitement, et par référence à l'exemple de la figure 3, l'image Pm sera décodée de manière à avoir la même taille que l'image P1 d'origine, soit RX1 par RY1 en décodant tous les sous- ensembles LL3, LH3, HL3, HH3, LH2, HL2, HH2, puis LH1 , HL1 et HH1. Dans ce cas de figure l'étape d'interpolation visera à réduire la taille de l'image Pm pour obtenir l'image P2 de dimension RY2 par RY2. Cette deuxième méthode donne une meilleure résolution à l'image P2 finale. En alternative on pourra ne décoder que les sous-ensembles LL3, LH3, HL3, HH3, LH2, HL2, HH2, puis LH1 pour générer une image aussi large que l'image d'origine, mais deux fois moins haute. Dans ce cas de figure l'étape d'interpolation visera à réduire la dimension horizontale, respectivement augmenter la dimension verticale, de l'image Pm pour obtenir l'image P2 de dimension RY2 par RY2. Etant donné que dans le cas d'une transformée par ondelettes on est contraint à conserver - en dehors de l'étape de post-traitement - le rapport largeur/hauteur de l'image d'origine ou à le modifier d'un facteur en puissance de 2, on veillera lors de la phase de décodage de déterminer le niveau de résolution maximal nécessaire pour donner une meilleure qualité à l'image et on choisira entre une des deux méthodes de post-traitement (par réduction ou élargissement de l'image Pm). Selon un mode de réalisation particulier d'un dispositif selon l'invention, comprenant des moyens d'affichage et possédant une résolution d'affichage X par Y donnée, on limite les images Pm décodées à une taille maximale correspondant par exemple à une résolution double de celle des moyens d'affichage. Ce qui veut dire qu'on alloue au maximum une mémoire d'image de dimension RXmax = 2 * X par RYmax = 2 * Y, cette mémoire d'image pouvant alors servir pour le décodage de toutes les images reçues quelle que soit la dimension de l'image d'origine. Selon un autre mode de réalisation, on alloue la mémoire d'image en fonction de la taille RXm par RYm de l'image Pm que l'on veut obtenir, qui conserve le rapport largeur/hauteur de l'image d'origine et est la plus proche en taille de la résolution du dispositif d'affichage. Ainsi la dimension de l'image Pm est ajustable en fonction de l'utilisation que l'on veut en faire, en particulier en fonction de la résolution du dispositif d'affichage auquel l'image Pm ou l'image P2 est destinée et/ou en fonction de la taille exacte de l'image P2 souhaitée. Cet ajustement doit, notamment dans le cas d'une transformée en ondelettes, tenir compte également de la résolution de la sous-image de plus faible résolution présente, la dimension de l'image Pm ne pouvant usuellement pas lui être inférieure. Cet ajustement s'opère par comparaison des rapports hauteur/largeur de l'image P1 d'origine et de celle de l'image finale souhaitée. Selon un mode de réalisation particulier on donnera à l'image Pm un rapport hauteur/largeur égal à celui de P1 et choisi en fonction de la dimension de l'image P2 souhaitée, c'est-à-dire tel que le rapport RXm/RX2, respectivement RYm/RY2, ait une valeur est comprise dans un intervalle donné, par exemple entre 0,5 et 2. Il est également possible en cas par exemple de grande divergence entre le rapport hauteur/largeur de P1 et celui de P2 de donner à l'image Pm un rapport hauteur/largeur dans un facteur en puissance de 2 à celui de P1 , ledit facteur étant choisi pour s'approcher au mieux du rapport de l'image P2 souhaitée. L'ajustement qui vient d'être décrit par rapport à l'image P1 peut, au lieu d'être réalisé par rapport à cette image P1 , être réalisé par rapport à une des sous-images, notamment par rapport à la sous-image de plus faible résolution déjà considérée plus haut comme étant la taille minimale de l'image Pm, cette sous-image conservant au moins dans une première approximation le rapport largeur/hauteur de l'image d'origine, et permettant de déterminer très directement - par multiplications par 2 successives et considération des arrondis de taille - les dimensions possibles pour l'image Pm après décodage. Toutefois on peut remarquer que l'opération de mise à l'échelle entre l'image Pm et l'image P2 peut s'avérer inutile, si le dispositif d'affichage destiné à afficher cette image finale possède par exemple une fonction de zoom verticale et/ou horizontale intégrée (réalisée électroniquement par exemple). Dans le cas d'un dispositif de mise en œuvre du procédé selon l'invention, comprenant des moyens de stockage de données sous forme de mémoire associés à des moyens d'allocation de cette mémoire et des moyens de calculs sous forme de processeur de calcul, et comprenant des moyens d'affichage, une étape supplémentaire est nécessaire pour mettre l'image décodée au bon format avant de pouvoir l'afficher. D'une part l'image finale P2 devra avoir une résolution correspondante (en tout cas inférieure ou égale) à celle du dispositif d'affichage de façon à pouvoir être transférer vers la mémoire de sortie dudit dispositif. D'autre part il peut s'avérer nécessaire d'opérer une conversion sur le format de chaque point de l'image, dans le cas où le dispositif d'affichage n'est pas à même d'afficher tout type de format de point (8 bits, 16 bits, 24 bits, 32 bits, etc.). Cette étape de conversion utilise des algorithmes connus de transformation d'espace de couleur, quantification, projection, etc. et ne sont pas décrits plus en détails ici. Lorsque la mise au format est effectuée, l'image à afficher peut alors être transférée vers la mémoire de sortie du dispositif d'affichage pour y être enfin affichée. Sur la figure 5 on a représenté schématiquement un exemple d'un ensemble de données représentatif d'une image encodée par une transformée en ondelettes. Cet ensemble de données se compose de différents blocs de données. Le premier bloc est une en-tête HE comprenant des informations relatives à ces données, notamment les paramètres donnant la dimension de l'image d'origine RX1 et RY1. L'image est dans cet exemple une image couleur comportant 3 canaux de couleur. Il s'agit par exemple d'une image définie dans l'espace de couleur RGB (« Red, Green, Blue ») avec un canal pour la composante rouge R, un canal pour la composante verte G et un canal pour la composante bleue B ou encore d'une image avec un canal pour la luminance et deux pour la chrominance dans un espace de couleur de type YUV (ou YCrCb, très utilisé dans le monde de la vidéo) ou encore une image définie dans un espace HLS (« Hue, Light, Saturation » ou « teinte, luminance, saturation » espace de couleur très utilisé dans le monde du graphisme). Un canal se rapporte donc aussi bien à une information de luminance, de saturation, de teinte ou de composante de couleur, voire à toute autre information résultant d'un encodage spécifique d'un espace de couleur ou d'un niveau de gris. Dans l'exemple de la figure 5, les trois blocs de données suivants C1 , C2, C3 représentent chacun un canal de couleur, les données étant encodées dans cet exemple canal par canal. Dans chaque canal C1 , C2, C3, sont encodés successivement les différents sous- ensembles N1 , N2, N3 correspondant chacun à un niveau de résolution donné d'un canal donné. De manière avantageuse, les niveaux de faible résolution sont encodés en premier. De cette manière on commence usuellement à décoder un canal C1 en commençant par le niveau N1 , de plus faible résolution. Par référence à l'exemple de la figure 3, le niveau N1 comprend les sous-ensembles LL3, HL3, LH3 et HH3. Puis on traite les niveaux suivants N2, N3, etc jusqu'à ce que la résolution d'un niveau atteigne ou dépasse d'un niveau celle de l'image à restituer, comme décrit précédemment. Puis on décode le ou les canaux restants. De manière avantageuse, on dispose d'un pointeur sur chacun des premiers niveaux N1 des 3 canaux, de manière à ce que si l'on ne décode pas tous les niveaux de résolution, on puisse directement traiter le canal suivant sans avoir à lire les données restantes pour le canal que l'on vient de traiter. Ce mode de réalisation particulier permet de traiter séquentiellement les canaux, et donc concourt à limiter la taille de la mémoire qu'il est nécessaire d'allouer. Dans ce mode de réalisation, une seule et même mémoire d'image, ayant la profondeur de l'image Pm qui, dans le cas général, est celle de l'image P1 d'origine, est utilisée pour stocker après décodage les données des différents canaux de l'image Pm. Optionnellement les différents canaux peuvent être également traités en parallèle si le processeur de traitement le permet. Selon une variante de réalisation, on décode d'abord les premiers niveaux N1 pour tous les canaux avant de passer au décodage des niveaux suivants restants. Dans cette variante, il est possible de visualiser progressivement, niveaux par niveaux, l'image décodée avec une colorimétrie correcte. En ce qui concerne les sous-ensembles de données (correspondant dans le cas d'une transformée en ondelettes aux coefficients d'ondelettes), ils sont stockés dans des zones mémoires dont la profondeur (le nombre de bit nécessaire pour décrire chaque donnée) dépend du mode de représentation de ces coefficients (représentation entière ou représentation en précision flottante) et du nombre de bits utilisé dans ce mode de représentation (typiquement 16, 32 ou 64). Sur la figure 6 on a représenté schématiquement un exemple d'application du procédé selon l'invention. On dispose d'une image source 40 présente sur un terminal informatique source, que l'on veut pouvoir transférer simultanément à un terminal informatique client 44 et à un téléphone portable 45. Le terminal informatique client se trouve en communication par réseau 42, par exemple par Internet, avec le terminal informatique source. Le téléphone portable est en communication via un deuxième réseau de communication 43 avec le terminal informatique source. Le contenu de l'information véhiculée par les deux réseaux est identique et résulte de l'encodage 41 de l'image source 40. Le terminal informatique source n'a donc pas besoin d'opérer d'adaptation en fonction du type de récepteur ou du type de réseau utilisé pour la transmission. Le terminal informatique client aussi bien que le téléphone portable sont en mesure, par mise en œuvre du procédé selon l'invention, d'effectuer un décodage du flux de données émis par le terminal informatique source. Une même personne est donc en mesure de recevoir une communication sur son terminal informatique, et si elle doit se déplacer et néanmoins continuer à suivre l'émission d'images, elle pourra le faire très simplement ou moyen de son téléphone portable dès lors qu'il est susceptible de recevoir des flux de données numériques en provenance du même terminal source. Le dispositif et le procédé selon l'invention pourront par exemple être exploités dans une application de type télédiagnostic, un médecin pouvant ainsi recevoir des images médicales soit sur un terminal informatique fixe, soit encore sur son téléphone portable. Ce qui s'avère très utile dès lors que le médecin est amené à se déplacer. Selon un autre exemple d'application le procédé selon l'invention, est apte à être utilisé dans une application de type vidéosurveillance, dans laquelle des images sont transmises en direct vers différents terminaux de contrôle, à la fois des terminaux informatiques fixes et des terminaux de type téléphone portable ou assistant personnel, ces derniers terminaux permettant aux destinataires de suivre de manière continue l'émission d'images de vidéosurveillance, même s'ils sont amenés à se déplacer.

Claims

REVENDICATIONS
1. Procédé de décodage d'images numériques pour générer, à partir d'un ensemble de données résultant de l'encodage d'une première image (P1 ) de dimension RX1 par RY1 , une deuxième image (Pm) de dimension RXm par RYm, ledit ensemble de données comprenant des paramètres de valeur RX1 et RY1 donnant la dimension de ladite première image (P1) et au moins un sous- ensemble de données représentatif d'une sous-image de niveau i de ladite première image, chaque sous-image ayant une résolution inférieure ou égale à la résolution de ladite première image, ledit au moins un sous-ensemble de données résultant de la transformation par une transformation réversible, avec ou sans perte, de ladite première image et permettant par application de la transformation inverse de restituer une sous- image décodée de ladite première image, caractérisé en ce que ledit procédé comporte les étapes suivantes : a) remplacement (31) dans ledit ensemble de données des valeurs des paramètres RX1 et RY1 donnant la dimension de ladite première image par les valeurs RXm et RYm donnant la dimension de ladite deuxième image, b) décodage (34) dudit ensemble de données ainsi modifié par application de ladite transformation inverse à au moins un sous-ensemble de données pour restituer au moins une sous-image décodée de ladite première image et génération de ladite deuxième image (Pm) de dimension RXm par RYm à partir de ladite au moins une sous-image décodée.
2. Procédé de décodage d'images numériques selon la revendication caractérisé en ce qu'il comporte en outre l'étape suivante : c) allocation (32) pour le traitement et/ou le stockage dudit au moins un sous- ensembles de données d'au moins une zone mémoire dont la résolution est au moins égale à la dimension RXm par RYm de ladite deuxième image.
3. Procédé de décodage d'images numériques selon l'une quelconque des revendications précédentes caractérisé en ce qu'il comporte en outre l'étape suivante : d) génération d'une troisième image (P2) de dimension RX2 par RY2 par interpolation spatiale et/ou troncature de ladite deuxième image.
4. Procédé de décodage d'images numériques selon l'une quelconque des revendications précédentes caractérisé en ce que, la dimension RXm par RYm de ladite deuxième image est déterminée en fonction de données choisies dans le groupe comprenant : la résolution de la sous-image de plus faible résolution, le rapport largeur/hauteur de ladite première image, la résolution d'un dispositif d'affichage d'image, la quantité de mémoire disponible pour le décodage dudit ensemble de données, ou en fonction d'une combinaison de ces données .
5. Procédé de décodage d'images numériques selon l'une quelconque des revendications précédentes caractérisé en ce que, on décode les sous- ensembles de données par niveau de résolution croissant, relativement à la résolution de la sous-image dont chacun est représentatif.
6. Procédé de décodage d'images numériques selon l'une quelconque des revendications précédentes caractérisé en ce que, on ne décode un sous- ensemble de données que s'il est représentatif d'une sous-image dont la résolution horizontale est inférieure ou égale à la dimension horizontale RXm de ladite deuxième image ou dont la résolution verticale est inférieure ou égale à la dimension verticale RYm de ladite deuxième image.
7. Procédé de décodage d'images numériques selon l'une quelconque des revendications 1 à 6 caractérisé en ce que ladite première image est une image comportant au moins deux canaux de couleur et ledit sous-ensemble de données résulte de l'encodage séparé de chaque canal, le décodage des sous- images s'effectuant, successivement ou parallèlement, canal par canal, et à chaque canal pour tous les niveaux à décoder dans ce canal.
8. Procédé de décodage d'images numériques selon l'une quelconque des revendications 1 à 6 caractérisé en ce que, ladite première image est une image comportant au moins deux canaux de couleur et ledit sous-ensemble de données résulte de l'encodage séparé de chaque canal, le décodage des sous- images s'effectuant successivement niveau par niveau, et à chaque niveau pour tous les canaux avant de décoder le niveau suivant.
9. Procédé de décodage d'images numériques selon l'une quelconque des revendications précédentes caractérisé en ce que, ladite transformée est une transformée en ondelettes ou équivalent.
10. Procédé de décodage d'images numériques selon l'une quelconque des revendications précédentes caractérisé en ce que, ladite transformée est une transformée en bandelettes ou équivalent.
11. Procédé de décodage d'images numériques selon l'une quelconque des revendications précédentes caractérisé en ce que, ladite deuxième image a sensiblement le même rapport largeur / hauteur que ladite première image.
12. Procédé de décodage d'images numériques selon l'une quelconque des revendications 3 à 11 lorsqu'elle dépend de la revendication 3 caractérisé en ce que la dimension de ladite deuxième image (Pm) est déterminée de manière à être la plus proche en taille de ladite troisième image (P2) ou d'un dispositif d'affichage destiné à afficher ladite troisième image (P2) .
13. Procédé de décodage de suite d'images numériques, notamment de vidéo numérique, caractérisé en ce que au moins une des images de ladite suite d'images numériques est décodée par le procédé selon l'une quelconque des revendications 1 à 12.
14. Support pour l'enregistrement temporaire ou permanent de données numériques comportant un ensemble de données résultant de l'encodage d'une première image de dimension RX1 par RY1 , ledit ensemble de données comprenant des paramètres de valeur RX1 et RY1 donnant la dimension de ladite première image (P1 ) et au moins un sous- ensemble de données représentatif d'une sous-image de niveau i de ladite première image, chaque sous-image ayant une résolution inférieure ou égale à la résolution de ladite première image, ledit au moins un sous-ensemble de données résultant de la transformation par une transformation réversible, avec ou sans perte, de ladite première image et permettant par application de la transformation inverse de restituer une sous- image décodée de ladite première image, caractérisé en ce que les paramètres RX1 et RY1 donnant la dimension de ladite première image ont été remplacés dans ledit ensemble de données par des valeurs RXm et RYm donnant la dimension d'une deuxième image plus petite que ladite première image, ledit ensemble de données ainsi modifié étant tel qu'une deuxième image (Pm) de dimension RXm et RYm est obtenue par décodage.
15. Dispositif de mise en œuvre du procédé selon l'une quelconque des revendications précédentes, comprenant des moyens de traitement de données pour effectuer les étapes a), b), c) ou d) dudit procédé et des moyens de mémorisation de données pour la mémorisation dudit ensemble de données modifié.
16. Dispositif selon la revendication 15, caractérisé en ce qu'il comprend en outre des moyens d'affichage d'image et en ce que la dimension RXm par RYm de ladite deuxième image est déterminée en fonction de la résolution desdits moyens d'affichage ou de la résolution de la mémoire de sortie desdits moyens d'affichage.
17. Dispositif selon la revendication 15 ou 16, caractérisé en ce que la dimension RXm par RYm de ladite deuxième image est déterminée en fonction de la quantité d'espace de mémorisation disponible via lesdits moyens de mémorisation de données dans ledit dispositif.
18. Dispositif selon l'une quelconque des revendications 15 à 17 caractérisé en ce que lesdits moyens d'affichage comportent un nombre déterminé de formats d'affichage de points d'image et en ce que ledit dispositif comprend en outre des moyens pour adapter le format des points de ladite troisième d'image à au moins un desdits formats d'affichage.
PCT/FR2004/001942 2003-07-23 2004-07-22 Procede de decodage d'image et dispositif de mise en oeuvre de ce procede WO2005010815A2 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR03/08991 2003-07-23
FR0308991A FR2858096B1 (fr) 2003-07-23 2003-07-23 Procede de decodage d'image et dispositif de mise en oeuvre de ce procede

Publications (3)

Publication Number Publication Date
WO2005010815A2 true WO2005010815A2 (fr) 2005-02-03
WO2005010815A3 WO2005010815A3 (fr) 2005-03-24
WO2005010815A8 WO2005010815A8 (fr) 2005-05-26

Family

ID=33561022

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/FR2004/001942 WO2005010815A2 (fr) 2003-07-23 2004-07-22 Procede de decodage d'image et dispositif de mise en oeuvre de ce procede

Country Status (2)

Country Link
FR (1) FR2858096B1 (fr)
WO (1) WO2005010815A2 (fr)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5355232A (en) * 1990-08-13 1994-10-11 Canon Kabushiki Kaisha Image size change in conjunction with coding and decoding
EP1098508A2 (fr) * 1999-11-08 2001-05-09 Matsushita Electric Industrial Co., Ltd. Appareil et procédé pour transformer la résolution d'images orthogonalement transformées
EP1229738A1 (fr) * 2000-11-10 2002-08-07 Ricoh Company, Ltd. Décodage d'images par des coéfficients de transformation
US6549674B1 (en) * 2000-10-12 2003-04-15 Picsurf, Inc. Image compression based on tiled wavelet-like transform using edge and non-edge filters
US20030123746A1 (en) * 1998-06-26 2003-07-03 Yoshihiro Ueda Shape information coder and decoder dividing shape information into lower-resolution subsets

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5355232A (en) * 1990-08-13 1994-10-11 Canon Kabushiki Kaisha Image size change in conjunction with coding and decoding
US20030123746A1 (en) * 1998-06-26 2003-07-03 Yoshihiro Ueda Shape information coder and decoder dividing shape information into lower-resolution subsets
EP1098508A2 (fr) * 1999-11-08 2001-05-09 Matsushita Electric Industrial Co., Ltd. Appareil et procédé pour transformer la résolution d'images orthogonalement transformées
US6549674B1 (en) * 2000-10-12 2003-04-15 Picsurf, Inc. Image compression based on tiled wavelet-like transform using edge and non-edge filters
EP1229738A1 (fr) * 2000-11-10 2002-08-07 Ricoh Company, Ltd. Décodage d'images par des coéfficients de transformation

Also Published As

Publication number Publication date
WO2005010815A8 (fr) 2005-05-26
FR2858096B1 (fr) 2005-12-30
FR2858096A1 (fr) 2005-01-28
WO2005010815A3 (fr) 2005-03-24

Similar Documents

Publication Publication Date Title
EP0866426A1 (fr) Sélection dynamique de l'algorithme de compression d'image
FR2727817A1 (fr) Transmission d'image progressive utilisant des transformations d'ondelettes discretes
US8660345B1 (en) Colorization-based image compression using selected color samples
FR2903556A1 (fr) Procedes et des dispositifs de codage et de decodage d'images, un systeme de telecommunications comportant de tels dispositifs et des programmes d'ordinateur mettant en oeuvre de tels procedes
EP1766997A1 (fr) Procede et dispositif de codage d'une sequence d'image video en coefficient de sous-bandes de frequences de differentes resolutions spatiales
FR2842983A1 (fr) Transcodage de donnees
FR2755818A1 (fr) Codage de signal numerique par decomposition en sous-bandes de frequence et quantification vectorielle a etats finis
JP2004254133A (ja) 動画再生システム、動画再生装置、動画送信装置、動画再生方法、プログラム、及び、記録媒体
Hernandez-Cabronero et al. Lossless compression of color filter array mosaic images with visualization via JPEG 2000
CN114584805A (zh) 视频传输方法、服务器、终端和视频传输系统
US20120170663A1 (en) Video processing
FR3084552A1 (fr) Procede de formation d'une sequence d'images de sortie a partir d'une sequence d'images d'entree, procede de reconstruction d'une sequence d'images d'entree a partir d'une sequence d'images de sortie, dispositifs, equipement serveur, equipement client et programmes d'ordinateurs associes
FR2763766A1 (fr) Procede et dispositif de mise en oeuvre d'un systeme a ondelette noye reversible
Lee et al. Lossless compression of HDR color filter array image for the digital camera pipeline
EP1574068B1 (fr) Procede de codage d'une image par ondelettes et procede de decodage correspondant
EP2920889B1 (fr) Procédé et système de transmission de données vidéo sur un canal de transmission par courants porteurs en ligne
WO2003090028A2 (fr) Systeme de transformee en ondelettes, procede et produit programme informatique associes
FR2927758A1 (fr) Procede et dispositif de codage-decodage d'images video successives selon un flux video principal en pleine resolution et selon un flux video secondaire en qualite reduite
FR2955995A1 (fr) Procede et dispositif de traitement d'une sequence video
WO2005010815A2 (fr) Procede de decodage d'image et dispositif de mise en oeuvre de ce procede
EP1812903A1 (fr) Procede de codage d'images codees par ondelettes a controle de debit, dispositif de codage et programme d'ordinateur correspondants
FR2872972A1 (fr) Procede et dispositif de transmission video entre un serveur et un client
FR2848373A1 (fr) Procede de mesure d'artefacts de bloc
WO2009130540A1 (fr) Procédé de codage/décodage vidéo haute définition convenant au flux vidéo en temps réel
FR2654285A1 (fr) Systeme de compression d'images numeriques appartenant a une sequence d'images, a quantification adaptative en fonction d'une information psychovisuelle.

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A2

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A2

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
CFP Corrected version of a pamphlet front page

Free format text: PUBLISHED FIGURE REPLACED BY CORRECT FIGURE

122 Ep: pct application non-entry in european phase